filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
-
# 訂正パターンに基づく誤情報の収集と拡散状況の分析 鍋島 啓太 $^{\dagger} \cdot$ 渡邊 研斗 $^{\dagger} \cdot$ 水野 淳太 $^{\dagger \dagger}$ ・岡崎 直観 ${ }^{\dagger},+\dagger \dagger$ ・乾 健太郎 $\dagger$ } 東日本大震災では,「コスモ石油の懪発で有害物質の雨が降る」などの誤情報の拡散 が問題となった。本研究の目的は, 東本日大震災後 1 週間の全ツイートから誤情報 を網羅的に抽出し, 誤情報の拡散と訂正の過程を分析することである。本稿では, 誤情報を訂正する表現(以下,訂正パターン)に着目し,誤情報を認識する手法を提案する。具体的には, 訂正パターンを人手で整備し, 訂正パターンにマッチするッ イートを抽出する。次に,収集したツイートを内容の類似性に基づいてクラスタリ ングし, 最後に, その中から誤情報を過不足なく説明する 1 文を選択する。実験で は,誤情報を人手でまとめたウェブサイトを正解データとして,評価を行った。ま た,誤情報とその訂正情報の拡散状況を,時系列で可視化するシステムを構築した。本システムにより,誤情報の出現・普及,訂正情報の出現・普及の過程を分析できる. キーワード:Twitter, 誤情報, 訂正, 拡散 ## Extracting False Information on Twitter and Analyzing its Diffusion Processes by using Linguistic Patterns for Correction \author{ Keita Nabeshima $^{\dagger}$, Kento Watanabe $^{\dagger}$, Junta Mizuno ${ }^{\dagger \dagger}$, \\ NAOAKI OKAZAKI ${ }^{\dagger, \dagger \dagger \dagger}$ and Kentaro InUI ${ }^{\dagger}$ } During the 2011 East Japan Earthquake and Tsunami Disaster, a considerable amount of false information was disseminated on Twitter; for example, after the Cosmo Oil fire, it was rumored that harmful substances will come down with rain. This paper exhaustively extracts pieces of false information from tweets within one week after the earthquake, and analyzes the diffusion of false information and its correction information. By designing a set of linguistic patterns that correct false information, this paper proposes a method for detecting false information. Specifically, the method extracts text passages that match the correction patterns, clusters the passages into topics of false information, and selects, for each topic, a passage explaining the false information most suitably. We report the performance of the proposed method on the data set extracted manually from websites that specialize in collecting false information. In addition, we build a system that visualizes emergences, diffusions, and terminations of a piece of false information and its correction. We also propose a method for discriminating false information from its correction, and discuss the possibility of  alerting against false information. Key Words: Twitter, False Information, Correction, Diffusion ## 1 はじめに 2011 年 3 月に発生した東日本大震災では, ソーシャルメディアは有益な情報源として大活躍した (野村総合研究所 2011). 震災に関する情報源として, ソーシャルメディアを挙げたネットユーザーは $18.3 \%$ で,インターネットの新聞社 $(18.6 \%)$, インターネットの政府・自治体のサイト $(23.1 \%)$ と同程度である.ニールセン社の調査 (ネットレイティングス株式会社 2011 )によると,2011年 3 月の mixi の利用者は前月比 124\%, Twitter は同 137\%, Facebook 同 127\%であり,利用者の大幅な伸びを示した。 東日本大震災後の Twitter の利用動向, 交換された情報の内容, 情報の伝搬・拡散状況などの分析・研究も進められている (Acar and Muraki 2011; Doan, Vo, and Collier 2011; Sakaki, Toriumi, and Matsuo 2011; 宮部, 荒牧, 三浦 2011). Doan ら (Doan et al. 2011) は, 大震災後のツイートの中で地震,津波,放射能,心配に関するキーワードが多くつぶやかれたと報告している. 宮部ら (宮部他 2011) は, 震災発生後の Twitter の地域別の利用動向, 情報の伝搬・拡散状況を分析した. Sakaki ら (Sakaki et al. 2011) は,地震や計画停電などの緊急事態が発生したときのツイッターの地域別の利用状況を分析・報告している. Acar と Muraki は (Acar and Muraki 2011), 震災後にツイッターで交換された情報の内容を分類(警告, 救助要請, 状況の報告:自身の安否情報,周りの状況,心配)している. 一方で,3月 11 日の「コスモ石油のコンビナート火災に伴う有害物質の雨」に代表されるように,インターネットやソーシャルメディアがいわゆるデマ情報の流通を加速させたという指摘もある。東日本大震災とそれに関連する福島第一原子力発電所の事故では, 多くの国民の生命が脅かされる事態となったため,人間の安全・危険に関する誤情報(例えば「放射性物質から甲状腺を守るにはイソジンを飲め」)が拡散した。東日本大震災に関するデマをまとめたツイー ト1では, 2012 年 1 月時点でも月に十数件のペースでデマ情報が掲載されている。このように, Twitter 上の情報の信憑性の確保は,災害発生時だけではなく,平時においても急務である. 我々は,誤情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め」)に対してその訂正情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲めというのはデマ」)を提示することで,人間に対してある種のアラートを与え,情報の信憑性判断を支援できるのではないかと考えている。訂正情報に基づく信憑性判断支援に向けて,本論文では以下に挙げる 3 つの課題に取り組む。 ^{1}$ https://twitter.com/\#!/jishin_dema } 東日本大震災時に拡散した誤情報の網羅的な収集:「○○というのはデマ」「○○という事実は無い」など,誤情報を訂正する表現(以下,訂正パターン)に着目し,誤情報を自動的に収集する手法を提案する。震災時に拡散した誤情報を人手でまとめたウェブサイトはいくつか存在するが,東日本大震災発生後の大量のツイートデータから誤情報を自動的,かつ網羅的に掘り起こすのは,今回が初めての試みである,評価実験では,まとめサイトから取り出した誤情報のリストを正解データと見なし,提案手法の精度や網羅性に関して議論する。 東日本大震災時に拡散した誤情報の発生から収束までの過程の分析: 東日本大震災時の大量のツイートデータから自動抽出された誤情報に対し,誤情報の出現とその拡散状況,その訂正情報の出現とその拡散状況を時系列で可視化することで,誤情報の発生から収束までの過程をモデル化する。 誤情報と訂正情報の識別の自動化: 誤情報を訂正している情報を自然言語処理技術で自動的に認識する手法を提案し, その認識精度を報告する。提案手法の失敗解析などを通じて,誤情報と訂正情報を対応づける際の技術的課題を明らかにする。また,本研究の評価に用いたデータは, ツイート ID と $\{$ 誤情報拡散, 訂正, その他 $\}$ のラベルの組として公開を予定しており,誤情報とその訂正情報の拡散に関する研究の基礎データとして,貴重な言語資源になると考えている。 な执, ツイートのデータとしては, 東日本大震陊ワークショップ2において Twitter Japan 株式会社から提供されていた震災後 1 週間の全ツイートデータ(179,286,297ツイート)を用いる. 本論文の構成は以下の通りである。まず,第 2 節では誤情報の検出に関する関連研究を概観し, 本研究との差異を述べる。第 3 節では誤情報を網羅的に収集する手法を提案する。第 4 節では提案手法の評価実験,結果,及びその考察を行う,第 5 節では,収集した誤情報の一部について,誤情報とその訂正情報の拡散状況の分析を行い,自動処理による訂正情報と誤情報の対応付けの可能性について議論する. 最後に, 第 6 節で全体のまとめと今後の課題を述べる. ## 2 関連研究 近年,ツイッターは自然言語処理の分野に打いても研究対象として注目を浴びている。言語処理学会の年次大会では「Twitter と言語処理」というテーマセッションが 2011, 2012 年に企画されていた。また,国際会議のセッションや併設ワークショップにおいても,ソーシャルメディアに特化した情報交換の場が設けられることが珍しくない。このような状況が映し出すように,ツイッターを対象とした研究は数多くあるが,本節ではツイートで発信される情報の真  偽性や信憑性に関連する研究を紹介する。 Ratkiewicz 5 (Ratkiewicz, Conover, Meiss, Goncalves, Patil, Flammini, and Menczer 2011) は, 米国の選挙に関連して, アストロターフィング3や誹謗中傷, 誤情報の意図的な流布を行っているツイートを検出するシステムを提案した. Qazvinian ら (Qazvinian, Rosengren, Radev, and Mei 2011)は,誤情報に関連するツイート群(例えば「バラク・オバマ」と「ムスリム」を含むツイート群)から,誤情報に関して言及しているツイート(例えば「バラク・オバマはムスリムである」)と,誤情報に関して言及していないツイート(例えば「バラク・オバマがムスリムのリーダーと面会した」)を分類し, さらに誤情報に関して言及しているツイート群を, 誤情報を支持するツイートと否定するツイートに分類する手法を提案した. Qazvinian らの研究は,誤情報に関連するツイート群(もしくはクエリ)が与えられることを想定しており, 本研究のように大規模なツイートデータから誤情報をマイニングすることは, 研究対象の範囲外である. 日本では, 東日本大震災時にツイッター上で誤情報が拡散したという問題意識から, 関連する研究が多く発表されている. 白井ら (白井, 榊, 鳥海, 篠田, 風間, 野田, 沼尾, 栗原 2012) は, デマ情報とその訂正情報を「病気」とみなし, 感染症疾患の伝染モデルを拡張することで, デマ情報・デマ訂正情報の拡散をモデル化した,藤川ら(藤川,鍜治,吉永,喜連川 2011)は, ツイートに対して疑っているユーザがどの程度いるのか, 根拠付きで流言であると反論されているか等,情報に対するユーザの反応を分類することで,情報の真偽判断を支援する手法を提案した. 鳥海ら (鳥海, 篠田, 兼山 2012) は, あるツイートの内容がデマかどうかを判別するため, ツイートの内容語と「デマ」「嘘」「誤報」などの反論を表す語の共起度合いを調べる手法を提案した。 梅島ら (梅島, 宮部, 荒牧, 灘本 2011) は, 東日本大震災時のツイッターにおけるデマと, デマ訂正の拡散の傾向を分析することを目標とし,「URLを含むリツイートはデマである可能性が低い」「デマは行動を促す内容, ネガティブな内容, 不安を謆る内容が多い」「この 3 つのいずれかの特徴を持つツイートはリツイートされやすい」等の仮説を検証した. 彼女らのグルー プはその後の研究 (梅島, 宮部, 灘本, 荒牧 2012 ; 宮部, 梅島, 灘本, 荒牧 2012)で, 誤情報のデータベースを構築するために,「デマ」や「間違い」といった訂正を明示する表現を用いることで,訂正ツイートの認識に有用であることを示した. さらに彼女らは, 訂正を明示する表現を含むツイートを収集し, 各ツイートが特定の情報を訂正しているか, 訂正していないのか4を識別する二值分類器を構築した。 これらの先行研究は, ツイートが誤情報を含むかどうか, もしくはツイートが特定の情報を  訂正しているかどうかを認識することに注力しており, ツイート中で言及されている誤情報の箇所を同定することは研究対象の範囲外となっている。したがって, 大規模なツイートデータから誤情報を網羅的に収集する研究は, 我々の知る限り本研究が最初の試みである。誤情報の発生から収束までの過程を分析している研究としては鳥海ら (鳥海他 2012)の研究がある。鳥海らは「ワンピースの作者が多額の寄付を行った」という誤情報をとりあげ,関連するツイートを誤情報の拡散ツイートと訂正ツイートに振り分けて,時系列に基づく深い分析を行った.彼らの手法は「ワンピース,作者,寄付」と共起するツイートを誤情報拡散ツイート,「ワンピー ス,作者,デマ」と共起するツイートを誤情報訂正ツイートに機械的に振り分けるというものであったが,本研究ではツイートの内容を人間が検証することにより,14トピックの誤情報の拡散・訂正状況を詳細に分析する。 ## 3 提案手法 本研究では, ツイッター上で拡散している誤情報に対して, 別の情報発信者がその情報を訂正すると仮定し, 誤情報の抽出を行う,例えば,「コスモ石油の爆発により有害な雨が降る」という誤情報に対して, ツイッター上で以下のような訂正情報を含むツイート(以下,訂正ツイー ト)が発信された。 (1)ex1コスモ石油の爆発により、有害な雨が降るという事実はない。 ex2コスモ石油の科学物質を含んた雨が降るというデマが Twitter 以外にも出回ってるので注意を 訂正ツイートは, 訂正表現(下線部)と, その訂正対象である誤情報から構成される。そこで,ツイート中の訂正表現を発見することで,誤情報を抽出できると期待できる.本節で提案する手法の目標は,訂正表現を手がかりとして,ツイート本文から誤情報を説明する箇所を推定する抽出器を構築することである. さらに, 構築した抽出器によって, ツイート集合から誤情報を過不足なく収集したい。 図 1 に提案手法の流れを示す。手順は大きく 4 つに分けられる。まず,ツイート本文に訂正パターン(後述)を適用し, 訂正対象となる部分(被訂正フレーズ)を抽出する(ステップ1).次に,「昨日のあれ」のように具体的な情報を含まないフレーズを取り除くために,ステップ 2 において被訂正フレーズに含まれやすいキーワードを選択する。同一の被訂正情報を言及しているが,表現や情報量の異なるフレーズをまとめるために,フレーズに含まれるキーワードをクラスタリングする (ステップ 3),その結果,「コスモ石油」や「イソジン」といった,誤情報の代表的なキーワードを含むクラスタが構築される。図 1 左上の表は, 被訂正フレーズに含まれやすいキーワードが上位に来るよう,クラスタをステップ 2 の条件付き確率(式 1 , 後述) で並べ替えたものである。最後に,ステップ 4 で,各クラスタごとに誤情報を最もよく説明し ているフレーズを選択する。図 1 右上はステップ 3 で並べ替えたクラスタからフレーズを抽出し,出力された誤情報のリストである。以降では,各ステップについて詳細に説明する. ## 3.1 ステップ1:訂正パターンを用いた訂正フレーズの抽出 ステップ1では, ツイート本文から被訂正フレーズを見つけ出す.被訂正フレーズは,「デマ」 や「間違い」といった表現で, 訂正や打ち消されている箇所のことである. 被訂正フレーズは,「イソジンは被曝を防ぐ」といった単文や,「コスモ石油の火災により有害な雨が降る」といった複文,「うがい薬の件」といった名詞句もある。被訂正フレーズと訂正表現は,「という」や 「のような」といった連体助詞型機能表現で繋がれ, 図 2 に示す構造をとる. 被訂正フレーズに続く表現を,すなわち連体助詞型機能表現と訂正表現の組み合わせを,「訂正パターン」と呼ぶ.例えば,図 2 において,「というデマ」,「といった事実はありません」が訂正パターンである. 被訂正フレーズ中のキーワードと被訂正確率 誤情報の代表フレーズリスト Step 2: 被訂正フレーズに含まれるキーワードを抽出し被訂正確率を計算 4 ツイート集合 (震災後一週間の全ツイート) (被訂正フレーズ) 図 1 提案手法の流れ $ \frac{\text { イソジンは被曝を防ぐ }}{\text { 被訂正フレーズ }}+\underset{\text { 連体助詞型機能表現 }}{\text { という訂正表現 }}+\underset{\text { デマ }}{\text { 流れています }} $ 図 2 被訂正フレーズを含むツイートの構造 表 1 訂正パターン \\ イソジンを飲むと被曝予防になるってデマが出回っている $\Rightarrow$ イソジンを飲むと被曝予防になる コスモ石油の爆発により有害な雨が降るという事実はない $\Rightarrow$ コスモ石油の爆発により有害な雨が降る 図 3 被訂正フレーズの抽出 全ツイートを形態素解析し,訂正パターンに対して形態素レベルでのパターン照合を行う. マッチしたツイートに対して,文頭から訂正パターンの直前までを被訂正フレーズとして抽出する.被訂正フレーズを漏れなく抽出するには,質のよい訂正パターンを整備することが重要である。そこで,どのような表現が訂正パターンになり得るのかを調べた。具体的には, 既知の誤情報 15 件を含むツイートを検索するようなクエリを考え,そのツイートの内容を確認することにより,訂正パターンを収集・整理した。このようにして得られた訂正パターンの一覧を表 1 に示した.表 1 の訂正パターンのいずれかを含むツイートに対して, 文頭から訂正パター ンの直前までを被訂正フレーズとして抽出した例を図 3 に示した. 図 3 の下線部が訂正パター ンである. ## 3.2 ステップ $2:$ キーワードの抽出 前節で抽出された被訂正フレーズには,「昨日のあれ」のように具体的な情報が提示されていないフレーズも含まれている。これらは誤情報としては不適切であるため, 取り除く必要がある.そこで, 被訂正フレーズ中の名詞句が訂正情報中に偏って出現しているかどうかを調べる. ここで分析の対象とする名詞句は,単名詞および名詞連続に限定する.具体的には,ある名詞句がツイートで言及されるとき,その名詞句が被訂正フレーズに含まれる確率(条件付き確率) を算出する.被訂正フレーズ中には頻出し, その他のツイート中では出現頻度の低い名詞句は,被訂正時にのみ頻出することから, 誤情報のキーワードとなる名詞句である可能性が高い。逆に, 被訂正フレーズ以外でも頻出する名詞句は, 一般的な名詞句であり, 誤情報のキーワードとなる可能性は低い.「昨日のあれ」の「昨日」や「あれ」は,被訂正フレーズ以外でも頻出す るため,一般的な名詞句であると判断できる. フレーズ中の名詞句 $w$ が誤情報のキーワードらしいかどうかを, 式 1 によって計算する.ここで,Dは訂正フレーズ集合を表す. $ P(w \in D \mid w)=\frac{P(w \in D)}{P(w)}=\frac{w \text { が訂正パターンを伴って出現するツイート数 }}{w \text { を含むツイート数 }} $ このように求めた条件付き確率が高い上位 500 個を,キーワードとして選択する。ただし, コーパス中での出現頻度が極端に低い名詞句を除くため,コーパス全体での出現回数が 10 回以上かつ, 被訂正フレーズ集合での出現回数が 2 回以上の名詞句のみをキーワードとして認定する.また,ひらがなや記号が半数以上の名詞句(例えば「○○町」)はキーワードとして不適切と考え,キーワードから取り除いた。 ## 3.3 ステップ $3:$ キーワードのクラスタリング 被訂正フレーズには,「コスモ石油の火災により有害物質を含む雨が降る」と「コスモ石油の爆発は有害だ」のように,同一の被訂正情報を言及しているが,表現や情報量の異なるフレー ズが含まれている。誤情報を過不足なく抽出するために,これらをまとめる必要がある。そこで,ステップ 2 で抽出されたキーワードを,同一の被訂正情報を説明するキーワードがまとまるようにクラスタリングする。 クラスタリングにおけるキーワード間の類似度計算では,キーワードと文内で共起する内容語(名詞,動詞,形容詞)を特徴量とした文脈ベクトルを用いた。これは,周囲に同じ単語が表れていれば,2つのキーワードは類似しているという考えに基づく.文脈べクトルの特徴量には,各単語との共起度合いを表す尺度である自己相互情報量 (PMI) を用いた。この値が 0 以上の内容語を文脈ベクトルの特徴量に加えた。各文脈ベクトルの類似度はコサイン類似度によって計算した。クラスタリング手法は,階層クラスタリングの一種である最長距離法を用いた.今回のデータでは,類似度の間値を 0.2 に固定してクラスタリングを行ったところ, 500 個のキーワードから 189 個のクラスタが得られた. 得られた各クラスタに対し, 式 1 の示す確率が最も高いキーワードを代表キーワードとする.代表キーワードは, クラスタの誤情報を説明するために最も重要なキーワードであると考える. ## 3.4 ステップ $4:$ 代表フレーズの選択 クラスタごとに被訂正フレーズを抽出し, 誤情報として出力する。誤情報に相応しい被訂正フレーズは,誤情報を過不足なく説明できるような一文である。例えば,以下の例では, bは説明が不足しており,cは壳長な情報が含まれているため,aを誤情報として出力したい. (2)aココス石油の火災により,有害物質を含む雨が降る c コスモ石油が爆発したというのは本当で,有害な雨が降るから傘やカッパが必須らしい このような選択を可能にするため,内容語の種類と含有率に着目する. まず,代表キーワードを含む被訂正フレーズを誤情報の候補として抽出する.次に,この候補の中から誤情報の内容を過不足なく説明するものを抽出する。文書自動要約における重要文抽出の考えから,前段で用いたキーワードとよく共起する内容語を多く含むものは,より重要な文であると考えられる。そこで,共起度合いを自己相互情報量 (PMI) で計る。 $ \operatorname{Score}_{p}(s, t)=\sum_{w \in C_{s}} \operatorname{PMI}(t, w) $ $s$ は被訂正フレーズ, $t$ は各クラスタの代表キーワード, $C_{s}$ は $s$ 中の内容語の集合を表す.ここで, 内容語とは被訂正フレーズに含まれる名詞, 動詞, 形容詞とする。この式により, 誤情報クラスタを代表するキーワードと共起性の強い内容語を多く含むフレーズに対して,高いスコアが付与される。 しかし, この式では, 被訂正フレーズに含まれる内容語の数が多い, 長い文ほど高いスコアが付与されてしまう。そこで,代表キーワードを含む文の中でも,典型的な長さの文に高いスコアを付与し,短い文および長い文に対して低いスコアを与える補正項を用いる。 $ \operatorname{Score}_{n}(s, t)=\operatorname{hist}\left(\operatorname{len}_{s}, t\right) $ $\operatorname{len}_{s}$ は被訂正フレーズ $s$ の単語数を示す. $\operatorname{hist}(l, t)$ は, 代表キーワード $t$ を含み, かつ単語数が $l$ である文の出現頻度を表す. 最終的なスコアは, 式 2 と式 3 を乗算したものとする(下式. $ \text { Score }(s, t)=\text { Score }_{\mathrm{p}} * \text { Score }_{n} $ 最後に, 各クラスタから式 4 のスコアが最も高いフレーズを一つずつ選択し, 誤情報として出力する. ## 4 実験 評価実験では, 東日本大震災時のツイートデータを用いて,誤情報の抽出を行い,その精度と再現率を測った. 抽出された誤情報を, その代表キーワードの式 1 で並べ替え, 上位 100 件を評価対象とした,考察では,ツイートデータから抽出できなかった事例や,誤って抽出された事例を分類し,今後の対策について述べる。 ## 4.1 データセット 誤情報の抽出元となるコーパスには, 東日本大震災ビックデータワークショップで Twitter Japan から提供された 2011 年 3 月 11 日 09:00 から 2011 年 3 月 18 日 09:00までの日本語のツイートデータ 179,286,297ツイートを利用した. このデータのうち, リツイート(自分の知り合いへのツイートの転送)は単順に同じ文が重複しているだけであるため, 取り除いた。 ## 4.2 正解データ 東日本大震災の際に発信された誤情報を網羅的にまとめたデー夕は存在しない.評価実験の正解デー夕は,誤情報を人手でまとめた以下の 4 つのウェブサイトに掲載されている事例を利用した。 (1)絵文録ことのは「震災後のデマ 80 件を分類整理して見えてきたパニック時の社会心理」 5 (2) 荻上式 BLOG「東北地方太平洋沖地震, ネット上でのデマまとめ」6 (3) 原宿・表参道.jp 地震のデマ・チェーンメール7 (4) NAVER まとめ注意!地震に関するデマ・チェーンメールまとめ8 以上の 4 サイトに掲載されているすべての事例のうち, Twitter データの投稿期間内(2011 3/11 09:00 から 2011 3/18 09:00 まで)に発信されたと判断できる事例は 60 件存在した. この 60 件の誤情報を正解データとした。作成した正解データの一部を以下に列挙する. - 関西以西でも大規模節電の必要性 - ワンピースの尾田栄一郎さん 15 億円寄付 - 天皇陛下が京都に避難された ・ ホウ酸を食べると放射能を防げる - 双葉病院で病院関係者が患者を置き去りにして逃げた - いわき市田人で食料も水も来ていなく餓死寸前 - 宮城県花山村が孤立 - 韓国が震災記念 $\mathrm{T}$ シャツを作成 ・ 民主党がカップ麺を買い占め ## 4.3 評価尺度 抽出された誤情報の正否は, 同等の内容が 60 件の正解データに含まれるかどうかを一件ずつ人手で判断した。また, 正解データに含まれていないが,誤情報であると判断できるものもあ ^{5}$ http://www.kotono8.com/2011/04/08dema.html 6 http://d.hatena.ne.jp/seijotcp/20110312/p1 7 http://hara19.jp/archives/4905 }^{8}$ http://matome.naver.jp/odai/2130024145949727601 る. そこで抽出された情報が正解デー夕に含まれなかった場合は, 関連情報を検索することで, その正否を検証した。 本研究の目的は, 出来るだけ多くの誤情報を抽出し, 人に提示することにある. しかし人が一度に見ることのできる情報には限界があり,出来るだけ多くの誤情報を人に提示するには,提示する誤情報の中にある,朵長な誤情報を取り除きたい。この目的のため,抽出した誤情報のうち,同じ内容と判断できるものが複数ある場合は,正解は一つとし,他の重複するものは不正解とした。また,日本語として不自然なものも不正解とした. 提案手法はスコアの高い順に $\mathrm{N}$ 件まで出力可能であるため, $\mathrm{N}$ をいくつか変化させたときの精度 @N, 再現率 $@ N, F$ 值 $@ N$ にって評価した,精度には,正解データに含まれるかどうかで判断したもの(精度@N $(60$ 件 $)$ ) と, 人手により検証を行ったもの(精度@N (人手検証))を用意した。また,人手による検証に加え,重複を許した場合(精度 $@ \mathrm{~N}$ (重複))も評価に加えた.この評価を行うことで,目的の一つである「誤情報抽出」がどの程度達成されているかを知ることができる。それぞれは以下の式で表される。 精度 $@ N(60$ 件 $)=\frac{N \text { 事例のうち, } 60 \text { 件の誤情報に含まれる事例数(重複を除く)}}{N}$ 精度 $@ N($ 人手検証 $)=\frac{N \text { 事例のうち, 人手で誤情報と検証された事例数(重複を除く)}}{N}$ 精度 $@ N($ 重複 $)=\frac{N \text { 事例のうち, 人手で誤情報と検証された事例数(重複を許す)}}{N}$ $ \begin{gathered} \text { 再現率 } @ N=\frac{N \text { 事例のうち, } 60 \text { 件の誤情報に含まれる事例数(重複を除く) }}{\text { 正解の誤情報の数(60 件) }} \\ F \text { 値 } @ N=\frac{2 * \text { 精度 } @ N(60 \text { 件 }) * \text { 再現率 } @ N}{\text { 精度 } @ N(60 \text { 件 })+\text { 再現率 } @ N} \end{gathered} $ ## 4.4 実験結果 評価結果を表 2 に示す。 $\mathrm{N}$ が 100 のとき,提案手法が抽出した情報のうち, 60 件の正解デー 表 2 実験結果 夕にも含まれる情報は 31 件であった. さらに,正解デー夕には含まれないが,誤情報と判断できる事例が 23 件存在したことから,提案手法は $54 \%$ の精度で誤情報を抽出できた. 次に,上位 $\mathrm{N}$ 件に限定しない場合の再現率について述べる。「上限 $(\mathrm{N}=189) 」$ は 500 個のキー ワードをクラスタリングし得られた 189 個のクラスタから, 代表フレーズをすべて出力した時の再現率であり,「上限(クラスタなし)」は,提案手法ステップ1で収集された被訂正フレーズ集合約 2 万件をすべて出力した時の再現率である.「上限 $(\mathrm{N}=189)$ 」は,キーワードを 189 個に絞った時の, ランキング改善による性能向上限界を表すに対し, 後者はキーワードの選択, ランキング, クラスタリング改善による性能向上限界, つまり訂正パターンに基づく抽出手法の限界を表す。被訂正フレーズ集合の段階でカバーされている 50 件は, キーワードの選択やクラスタリングなど, 後段の処理を改善することで抽出できる可能性があるが, 残る 10 件は, 訂正パターンに基づく抽出手法の改善が必要となる,難解な事例である。 ## 4.5 考察 本節では, 評価結果の誤りを分析する。抽出された誤情報の上位 100 件のうち, 31 件は正解データに含まれていたが,残りの 69 件は正解データに含まれていなかった。そこで,不正解データに対する誤判定の原因を調べたところ, 8 種類の原因に分類できた. 表 3 に理由と件数を示す. (a)から (d) は, 明らかに誤抽出と判断できる事例である. (e) と (f) は, 正解デー夕の構築に用いた 4 つの誤情報まとめサイトに揭載されてはいなかったが, ウェブ上で調べることで,明らかに誤情報であると認められる事例である。(g) と (h) は, 人手でも誤情報であるかを判断できない事例である. 以下でそれぞれの詳細と,改善案を述べる。 表 3 精度に対する誤り分析 (a) キーワード抽出による誤り 代表キーワードが誤抽出につながったと考えられる事例である.以下に例を示す.括弧の中は,選定に利用した代表キーワードである. (3) 陰謀論とか、「悪意の行動があった」とかいうデマを信じる人って(悪意) 「善意」や「悪意」といった単語は, 元々「デマ」などの訂正表現の周辺文脈に出現しやすい単語であるため, 条件付き確率 (1) が高く, キーワードとして選ばれた. しかし, 特定の誤情報に関連するキーワードではないため,上記の例のように,具体性に欠ける被訂正フレーズが誤情報として抽出された。このようなキーワードは, 誤情報の拡散時に限らず,通常時から訂正表現と共起すると考えられる。そこで対策として, 被訂正フレー ズに含まれる確率(式 1)を使用するのではなく,通常時の共起度合いを組み込むことで,改善が望めると考えらる。 (b) クラスタリングによる誤り 抽出された誤情報上位 100 件のうち, 同じ内容と判断できる誤情報が重複している事例である。例を以下に示す。括弧の中は,選定に利用した代表キーワードである。 (4)市原市のコスモ石油千葉製油所 LPG タンクの爆発により, 千葉県, 近隣圈に在住の方に有害な雨などと一緒に飛散する(コスモ石油千葉製油所) 千葉県の石油コンビナート爆発で, 空気中に人体に悪影響な物質が空気中に舞い 雨が降ると酸性雨になる(石油コンビナート爆発) これはステップ 3 でクラスタリングを行ったとき,同じクラスタに分類できなかったため, 重複として表れた。誤情報検出の目的は達成できているものの, 壳長な誤情報を抜き出しているため厳しめに評価して不正解とした。キーワードのクラスタリングには, 被訂正フレーズの中で共起する単語を素性としているが,素性に表層の情報を加えることで,誤りを減らすことができると考えられる。 (c) 内容が不正確な情報 抽出された誤情報の内容が, 誤情報を説明するのに内容が不足していると思われる事例である。 以下に例を示す. (5) 餓死者や凍死者が出た. 正解データの中には「いわき市で餓死者や凍死者が出た」というものが存在するが,それと比べると具体性に欠けているため, 不正解とした。より的確な候補を抽出するには,候補が多いほど作成したパターンの精度や再現率を考慮した選定が必要である。 (d) 正しい情報 誤情報として抽出されたが,事実を確認したところ,誤情報ではなかった事例である,以下に例を示す. (6) 東京タワーの先端が曲がった この例に関連するツイートを観察したところ,根拠とされる写真を提示されても信じてもらえないほど,突拍子のない情報として扱われていた。そのため,訂正ツイートが多く投稿されたようである。提案手法は訂正の数が多い情報ほど,ランキングが上位になる仕組みになっているため, この事例は誤って抽出された。本研究の目的は「誤情報の抽出」であることを考えると, (a) から (c) の誤りに比べ,深刻な誤りである。しかし,始めは誤情報として疑っていたユーザーの中には,誤情報出なかったことを知り,以下のようなツイートをしている人も存在した。 (7) 東京タワーが曲がったってデマじゃなかったんた 東京タワー曲がったとかデマだと思ったら本当だった このように,訂正を訂正しているツイートも存在し,二重否定を判別することが出来れば, この問題の改善につながると考えられる. (e) まとめサイトに掲載されていない誤情報(過去) これは誤情報まとめサイトに掲載されていないが, 人手で検証したところ, 誤情報と判別された事例である。その中でも今回利用したツイートコーパスの期間より前の事象に関する誤情報である。以下に例を示す。 (8)関東大震災の時「朝鮮人が井戸に毒を入れた」というのはデマだったはず阪神淡路大震災は三時間後に最大の摇れが来たというのは誤った情報のようです。 明治 43 年(1910 年)にハレー彗星が大接近した時、地球上の空気が 5 分間ほどなくなるというデマが一部で広まり, ‥ 上記の例は訂正ツイートであり,下線部は被訂正フレーズとして抽出された部分である.一度過去に誤情報として認識されたことは間違いないが,人々に悪影響を与える可能性があり,誤情報として抽出し,拡散・訂正の動向を監視する必要がある. (f) まとめサイトに掲載されていない誤情報(現在) これは誤情報まとめサイトに掲載されていないが,人手で検証を行ったところ,誤情報と判別された事例である。その中でも今回利用したツイートコーパスの期間中に発生した誤情報である。以下に例を示す。 (9) VIP で韓国の救助犬 1 匹が逃亡 巷説にある遺体には感染症のリスクがある (g) 未来予測 (h) の真偽不明の事例のうち, 未来に起こりうる事象について述べたものを抽出した事例である。以下に例を示す。 (10) 福島で核爆発が起こる 富士山が噴火する 未来に起こりうる事象である以上, 現時点での真偽は不明である,抽出されたものの多くは,上記の例のように人々の不安を謆る情報であり,パニックを防ぎたいと思い訂正ツイートを発信した人が多かったため,抽出されたと考えられる。 (h) 真偽不明 複数のウェブサイトを検索して検証を行ったが,誤情報かどうかを判別できなかった事例である。以下に例を示す。 (11) サントリーが自販機無料開放 築地で魚が余っている 次に,正解データにある誤情報 60 件のうち, 抽出されなかった誤情報 29 件についても同様に原因を調査したところ,3つに分類できることが判明した. 3 つの原因の件数と割合を表 4 に示す. (i) 訂正パターンで候補を抽出できなかったもの 今回作成した訂正パターンでは,抽出できなかった誤情報である。「仙台市三条中学校が中国人・韓国人が 7 割の留学生の心ない行動で避難所機能停止」という誤情報に対して,以下のようなツイートが数多く存在した. (12)コレ本当?RT @XXXXX 今, 祖母と叔母に確認. 何と仙台市の三条中学校の避難所,閉鎖!避難所用救援物資を根こそぎ,近隣の外国人留学生(中国韓国で七割強)が運び出してしまい,避難所の機能停止だそうです。 上の例では, 明示的に誤情報だと否定している人は少ないが,元のツイートコメントする形で,その情報を疑っている人は多かった。このことから, 改善案とし訂正パターンのみではなく,懐疑を表す表現も利用できるのではないかと思われる。 (j) 訂正パターンで抽出できたが,クラスタリングによる誤り 訂正パターンにより候補の抽出はできたが,クラスタリングにより,誤って他の誤情報に含まれた事例である。しかし, 全体に比べ, 事例数が少ないため, それほど問題ではないと思われる。 (k) 訂正パターンで抽出できたが,ランキング外訂正パターンにより候補を抽出できたが,条件付き確率が低かったため,キーワードと 表 4 再現率に対する誤り分析 して抽出できなかった事例である。例えば,「東京電力を装った男が表れた」という誤情報では, 「東京電力」というキーワードは誤情報以外の話題でも頻出したため, 条件付き確率が低くなった。対策としては,キーワード単独をスコアリングするのではなく,被訂正フレーズそのものをスコアリングするような手法が必要である. ## 5 誤情報の拡散状況の分析 本節では, 誤情報がどのように発生し, 拡散・収束していくかを分析する。誤情報およびその訂正情報の拡散状況を時系列で可視化することで, 誤情報の拡散のメカニズムを詳細かつ系統的に分析する. 分析対象とする誤情報は, 将来的には自動抽出結果を用いる予定だが, 「東日本大震災の誤情報の拡散状況を正しく分析する」という目的から,誤情報であると確認できた事例のみを用いた。 本節で想定しているシナリオは以下の通りである。前節までの手法で, ツイート空間上で誤情報と考えられているフレーズ(例えば「コスモ石油のコンビナート火災に伴い有害物質の雨が降る」)を抽出できる。この誤情報がどのように発生・拡散し,その訂正情報がどのように発 図 4 誤情報拡散状況システム 生・拡散したのかを調べるため, このフレーズの中からキーワードを選び, ツイート検索システムへのクエリ(例えば「コスモ石油 AND 有害物質」)とする。このクエリを用いてツイートを検索すると,誤情報を拡散するツイート,誤情報を訂正するツイートが混ざって得られる。そこで,本節ではツイートを誤情報の「拡散」と「訂正」の 2 グループに自動分類する手法を提案する。図 4 は実際に作成した,誤情報の拡散状況を提示するシステムである。このシステムの処理をリアルタイム化すれば,被訂正情報から抜き出したキーワードを誤情報の監視クエリとし,誤情報の拡散・訂正状況をモニタリングしたり,誤情報を発信した(もしくは発信しようとしている)者に,訂正情報の存在を通知することができる. 本節で提案する手法で「拡散」「訂正」ツイートの分類精度を測定するため, 14 件の誤情報に関して,正解データを作成した。この正解データを利用すれば,提案手法の性能を評価できるだけではなく,誤情報の拡散・訂正状況を精緻に検証し,誤情報の発生から収束までのメカニズムをモデル化することができる。最後に,自動手法の失敗解析を通じて,誤情報と訂正情報を対応づける際の技術的課題を述べる。 ## 5.1 訂正表現による誤情報と訂正情報の自動分類 与えられたツイートに対して,誤情報の「拡散」もしくは「訂正」に分類する手法を,順を追って説明する。まず,前節までの手法で獲得した誤情報に関連するツイートを集める。ツイー トの収集には本研究室で開発されたツイート全文検索システムを用いる。誤情報に関連するツ 表 5 訂正情報を認識する精度 & 尾田栄一郎 & 170 & 134 & 7 & 0.902 & 1.000 & 0.949 \\ イートを収集するために,獲得した誤情報(例えば「東大が合格者の入学取り消し」)を適切なクエリ(例えば「東大 AND 入学」)に変換する。 次に検索によって得られた全ツイートを誤情報と訂正情報とに分類する。分類には「デマ」や 「風説」などの訂正表現を含むツイートを「訂正情報」とし, 含まないものを「訂正情報ではない」ツイートとする.訂正表現は震災時のツイートを読みながら, 121 個用意した. 検索で得られるツイートの中には,「誤情報」や「訂正情報」とは関係の無い「その他」のツイートが存在するが,後述する正解データの割合を示した表 5 から分かるように,「その他」の割合は少ない。そこで本節では「訂正情報ではない」ツイートは誤情報の「拡散」ツイートとして見なす. ## 5.2 実験と評価 本手法の認識精度を評価するため, 14 件の誤情報に関連するツイート群を検索し,それらのツイートを「誤情報」「訂正情報」「その他」の手作業で分類し,正解データを作成した。評価対象の誤情報は, 人手での作業の負荷を考慮して 14 件とした。関連するツイート 5,195 件のうち, 誤情報ツイートが 2,462 件, 訂正情報ツイートが 2,376 件, その他のツイートが 357 件であった(表 5). 評価対象として 14 件の誤情報は, 第 3.4 節で定義した条件付き確率(式 1 )が高いものから誤った事例を人手で除き,順に選んだ。今回の実験では被リツイート数の多いツイートを優先的に採用し, 手作業による分類のコストを下げた 9. なお,評洒対象のツイートは誤情報や訂正情報に関するものと仮定しているので,「その他のツイート」は評価の対象外とする。 表 5 に,提案手法が訂正情報を認識する精度(再現率・適合率・F1スコア)を示した。この評価では,リツイートは削除し,オリジナルのツイートのみを評価対象としている.表 5 にると,ほとんどの誤情報について高い適合率が得られた。適合率が高いということは「デマ」などの訂正表現を含むツイートは,かなりの確度で訂正情報と見なせるということである.「デマ」 という語を伴って誤情報の拡散を行うことは, 通常では考えにくいので, これは直感的に理解できる結果である。これに対し, 再現率はユーザが誤情報の訂正のために,「デマ」などの訂正表現をどのくらい使うのかを示している,再現率が高いということは,誤情報の訂正情報のほとんどが「デマ」等の表現を伴うということである(例えば,以下のツイートを参照). 【拡散希望】トルコが日本に 100 億円の支援をするという内容のツイートが出回ってますが,誤情報だということです。情報を発信した本人が誤りだと言ってます.以上の結果から,訂正表現のマッチングに基づく提案手法でも,かなりの精度で誤情報の「拡散」と「訂正」のツイートを分離できることが示された.  しかし,量は少ないものの,訂正表現を含む誤情報拡散ツイートも見受けられる. 万が一原発から放射能が漏れ出した際, 被爆しない為にイソジンを $15 \mathrm{cc}$ 飲んでおいて下さい! 原液です! ガセネタではありません,お医者さんからの情報です。これは RTではないので信じてください! このツイートでは,「ガセ」という訂正表現を含んでいるが,「ガセ」をさらに否定しているので,二重否定により誤情報の拡散ツイートと解釈できる. さらに,訂正表現を用いずに誤情報を否定するツイートも存在する. 千葉のコスモ石油のタンク爆発事故で中身の有害物質が雲に付着して降ってくるというツ イートをよく見かけますが、公式サイトでタンクの中身が LP だったので火災で発生した 大気が人体に及ぼす影響はほとんどないみたいです。 このツイートでは,「デマ」「嘘」などの訂正表現は一切使われていないが, 誤情報の内容(「コスモ石油の火災により有害物質の雨が降る」)を訂正するツイートであると判断できる。このようなツイートを訂正ツイートと認識するためには,深い処理(例えば,「タンクの爆発事故」による「人体に及ぼす影響はほとんどない」と解釈する)や,ツイートやユーザ間の関係(例えば,このツイートを RTしているユーザが,訂正表現を用いてた別の訂正ツイートを RTしている,等の手がかり)を用いる必要がある. ## 5.3 誤情報の拡散状況の分析 本研究において構築した正解データを分析すれば,様々な誤情報の拡散状況を調べることができる。そこで,誤情報の「拡散」ツイートと「訂正」ツイートの数を,それぞれ一定時間おきに折れ線グラフにプロットし,誤情報の拡散状況を可視化するシステムを開発した。可視化にはクロス・プラットフォームかつブラウザ上で利用できる Google Chart Tools を用いた。デモシステムでは, 各時点でどのようなツイートが拡散していたのか, ツイート本文を閲覧できるようになっている,なお,グラフにプロットするツイートの数はリツイート数も考慮し,ツイート空間上での情報の拡散状況を表した. 14 件の誤情報に対して, 正解データからプロットされたグラフを観察すると, 誤情報の拡散状況は, 以下の 2 つの要素で特徴付けらることが分かった。 ツイートの量の違い: 誤情報ツイート数と訂正ツイート数のどちらが多いか. 収束時間の違い: 誤情報の収束が遅いか速いか10。 この 2 つの要素の組み合わせにより,誤情報の拡散状況を 4 つにタイプ分けした。(表 6 , 図 5 参照)  表 6 拡散状況のタイプ \\ 図 54 種類に分けられる拡散状況 誤情報優勢・短時間収束型: 例えば,「サーバールームで身動きが取れない」という誤情報では,人間の危険や不安を伝えているため,誤情報を見たユーザが善意でツイートを拡散する傾向にある。このように,助けを求めたり,不安を煽るなどの情報は拡散しやすく,情報が間違いである場合は,訂正情報よりも誤情報の拡散ツイートの方が多くなりやすい. さらに,情報の発信者がジョークとしてつぶやいた情報や,情報の裏を検証することで真偽性を判定しやすいもの,救助などで緊急性を要するものは,短時間収束型になる傾向がある.他には,「阪神大震災では 3 時間後に最大の摇れが来た」などの誤情報が, このカテゴリに分類される. 誤情報優勢・長時間拡散型: 例えば,「支援物資の空中投下は法律で認められていない」という誤情報は,緊急性を要するものではあったが,真偽性を判断する情報源や専門家の数が少ないため,結果として誤情報が長く拡散する傾向にある.同じカテゴリの誤情報には,「イソジンを飲んで放射線対策」などが挙げられる。このカテゴリの誤情報は,長期間にわたって拡散し,訂正情報の数も少ないため,情報技術での対応が最も期待されるカテゴリであると考える. 訂正情報優勢・短時間収束型: 例えば,「被災地の合格者が期限までに書類を提出できないと東大の入学が取り消される」という誤情報は, このカテゴリに属する。このカテゴリの誤情報は,誤情報を否定する情報源がウェブ等に存在する等で,訂正が容易であったと考えられる。また,誤情報を否定する情報がすでにウェブ上に存在するか,否定情報が発表されるまでの期間が短いため,誤情報が短時間で収束した。他には,「阪神大震災時にはレイプが多発」など,既にソースがある誤情報がこのカテゴリに属する。 訂正情報優勢・長時間拡散型: 例えば,「コスモ石油の爆発で有害な雨が降る」という誤情報は, コスモ石油や厚生労働省などの信頼性の高い情報源から訂正情報が流れたため, 訂正情報が優勢となった,たた,訂正情報の公式発表が遅れたため,誤情報の収束までの時間が長くなった,また,誤情報の内容に緊急性が無い場合(例えば「トルコが 100 億円寄付」)も,長時間拡散型になりやすい. このように,誤情報の拡散と訂正のメカニズムは,情報の緊急性や真偽の検証に必要な情報の入手性・信憑性により,様々であることが分かった。 ## 6 おわりに 本研究では, 誤情報を訂正する表現に着目し, 誤情報を自動的に収集する手法を提案した,実験では,誤情報を人手でまとめたウェブサイトから取り出した誤情報のリストを正解データと見なして評価を行ったところ, 出力数が 100 件のとき正解データの約半数である 31 件を収集することができた.これは抽出した情報 100 件の約 3 割であるが,残り 69 件の中には,まとめサイトに掲載されていない誤情報も 23 件あり, $54 \%$ の精度で誤情報を抽出できた。また,収集された誤情報の中に真実の情報が含まれていると深刻な問題であるが,誤って抽出された事例の多くは,内容の重複する誤情報や真偽不明の事例であり,特に問題である真実の情報は 100 件のうち 1 件と非常に少なく, 提案手法は誤情報の自動収集に有用であることを示した. また, 誤情報に対して, 誤情報の出現とその拡散状況, その訂正情報の出現とその拡散状況を可視化するシステムを構築した。 本システムの訂正情報の認識精度を測定したところ, 多くの誤情報について高い精度を得ることができた,実際に,本システムを用いて収集された誤情報の分析を行ったところ,拡散状況を幾つかのタイプに分類を分類することができた. 今後の課題として, 懐疑や反論といった, 訂正パターン以外の情報を考慮した誤情報の抽出が挙げられる. ## 謝 辞 本研究は, 文部科学省科研費 (23240018), 文部科学省科研費 (23700159), および JST 戦略的創造研究推進事業さきがけの一環として行われた. 貴重なデータを提供して頂いた, Twitter Japan 株式会社,および東日本大震災ビッグデータワークショップに感謝いたします. ## 参考文献 Acar, A. and Muraki, Y. (2011). "Twitter for crisis communication: lessons learned from Japan's tsunami disaster." International Journal of Web Based Communities, 7 (3/2011), pp. 392-402. Doan, S., Vo, B.-K. H., and Collier, N. (2011). "An analysis of Twitter messages in the 2011 Tohoku Earthquake." In 4th ICST International Conference on eHealth, pp. 58-66. 藤川智英, 鍜治伸裕, 吉永直樹, 喜連川優 (2011). マイクロブログ上の流言に対するユーザの態度の分類(テーマセッション, 大規模マルチメディアデータを対象とした次世代検索およびマイニング). 電子情報通信学会技術研究報告. DE, データ工学, 111 (76), pp. 55-60.宮部真衣, 荒牧英治, 三浦麻子 (2011). 東日本大震災における Twitter の利用傾向の分析. 情報 処理学会研究報告, 17 巻. 2011-DPS-148/2011-GN-81/2011-EIP-53. 宮部真衣, 梅島彩奈, 灘本明代, 荒牧英治 (2012). 流言情報クラウド:人間の発信した訂正情 報の抽出による流言収集. 言語処理学会第 18 回年次大会, pp. 891-894. ネットレイティングス株式会社 (2011).ニニュースリリース:震災の影響により首都圈ライフライン関連サイトの訪問者が大幅増. http://csp.netratings.co.jp/nnr/PDF/ Newsrelease03292011_J.pdf. 野村総合研究所 (2011). プレスリリース:震災に伴うメディア接触動向に関する調査. http://www.nri.co.jp/news/2011/110329.html. Qazvinian, V., Rosengren, E., Radev, D. R., and Mei, Q. (2011). "Rumor has it: identifying misinformation in microblogs." In Proceedings of the Conference on Empirical Methods in Natural Language Processing, EMNLP '11, pp. 1589-1599, Stroudsburg, PA, USA. Association for Computational Linguistics. Ratkiewicz, J., Conover, M., Meiss, M., Goncalves, B., Patil, S., Flammini, A., and Menczer, F. (2011). "Truthy: mapping the spread of astroturf in microblog streams." In Proceedings of the 20th international conference companion on World Wide Web, WWW '11, pp. 249-252. Sakaki, T., Toriumi, F., and Matsuo, Y. (2011). "Tweet Trend Analysis in an Emergency Situation." In Special Workshop on Internet and Disasters (SWID 2011), pp. 3:1-3:8. 白井高士, 榊剛史, 鳥海不二夫, 篠田孝祐, 風間一洋, 野田五十樹, 沼尾正行, 栗原聡 (2012). Twitter におけるデマツイートの拡散モデルの構築とデマ拡散防止モデルの推定. 人工知能学会全国大会予稿集, IC3-OS-12-1. 鳥海不二夫,篠田孝祐,兼山元太 (2012). ソーシャルメディアを用いたデマ判定システムの判定精度評価. デジタルプラクティス, $\mathbf{3}(3)$, pp. 201-208. 梅島彩奈, 宮部真衣, 荒牧英治, 灘本明代 (2011). 災害時 Twitter におけるデマとデマ訂正 RT の傾向. 情報処理学会研究報告. データベース・システム研究会報告, 2011 (4), pp. 1-6. 梅島彩奈, 宮部真衣, 灘本明代, 荒牧英治 (2012). マイクロブログにおける流言マーカー自動抽出のための特徴分析. 第 4 回データ工学と情報マネジメントに関するフォーラム (DEIM Forum 2012), F3-2. ## 略歴 鍋島啓太:2012 年東北大学工学部情報知能システム情報学科卒業. 同年, 同大学情報科学研究科博士課程前期に進学, 現在に至る. 自然言語処理の研究に従事. 情報処理学会学生会員. 渡邊研斗:2013 年東北大学工学部情報知能システム情報学科卒業. 同年, 同大学情報科学研究科博士課程前期に進学, 現在に至る. 自然言語処理の研究に従事. 情報処理学会学生会員. 水野淳太:2012 年奈良先端科学技術大学院大学情報科学研究科博士課程修了.同年より東北大学大学院情報科学研究科研究員. 2013 年より独立行政法人情報通信研究機構耐災害 ICT 研究センター研究員. 博士 (工学). 自然言語処理, 耐災害情報通信の研究に従事. 情報処理学会, 人工知能学会各会員. 岡崎直観 : 2007 年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了. 同大学院情報理工学系研究科・特別研究員を経て, 2011 年より東北大学大学院情報科学研究科准教授. 自然言語処理, テキストマイニングの研究に従事. 情報理工学博士. 情報処理学会, 人工知能学会, ACL 各会員. 乾健太郎:1995 年東京工業大学大学院情報理工工学研究科博士課程修了. 同研究科助手, 九州工業大学助教授, 奈良先端科学技術大学院大学助教授を経て, 2010 年より東北大学大学情報科学研究科教授, 現在に至る. 博士 (工学).自然言語処理の研究に従事. 情報処理学会, 人工知能学会, ACL, AAAI 各会員. (2012 年 11 月 28 日受付) (2013 年 2 月 11 日再受付) (2013 年 3 月 25 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# マイクロブログにおける流言の影響の分析 マイクロブログの普及により,ユーザは様々な情報を瞬時に取得することができる ようになった。一方,マイクロブログでは流言も拡散されやすい. 流言は適切な情報共有を阻害し,場合によっては深刻な問題を引き起こす恐れがある。これまで, マイクロブログ上の流言拡散に関する分析は多かったが,ある流言がどのような影響を引き起こすかについての考察はない. 本論文では, 東日本大震災直後の Twitter を材料とし,どのような流言が深刻な影響を与えるかを,有害性と有用性という観点からの主観評価および修辞ユニット分析により分析した。 その結果, 震災時の流言テキストの多くは行動を促す内容や, 状況の報告, 予測であること, また, 情報受信者の行動に影響を与えうる表現を含む情報は, 震災時に高い有用性と有害性を 持つ可能性があることを明らかにした. キーワード:マイクロブログ,流言,災害 ## Effects of Rumors on Microblogs \author{ Mai MiYabe ${ }^{\dagger}$, Yayol TanaKa ${ }^{\dagger \dagger}$, Sho Nishihata ${ }^{\dagger \dagger \dagger}$, \\ Akiyo Nadamoto ${ }^{\dagger \dagger \dagger}$ and Eiji AramakI ${ }^{\dagger \dagger \dagger \dagger,+\dagger \dagger \dagger \dagger}$ } Microblogs have enabled us to exchange information in real time, which has led to the spread of not only beneficial but also potentially harmful information, such as rumors. Rumors may block the process of adequate information sharing, which may, in turn, cause serious problems. Several studies have already analyzed the impact of rumors on microblogging media; however, the way in which these rumors can cause potential problems largely remains unclear. This paper analyzes people's perceptions of rumors on Twitter during disasters using subjective evaluation and rhetorical unit analysis. The results showed that many subjects perceived rumors as containing information that instigates people to take action, reports on a current situation, or predicts future events. Moreover, information that instigates people to take action has been perceived as beneficial in some contexts, while it is also seen as harmful in other cases. Key Words: Microblogging system, Rumor, Disaster  ## 1 はじめに 近年, Twitter1などのマイクロブログが急速に普及している。主に自身の状況や雑記などを短い文章で投稿するマイクロブログは, ユーザの情報発信への敷居が低く, 現在, マイクロブログを用いた情報発信が活発に行われている。2011年 3 月 11 日に発生した東日本大震災においては,緊急速報や救援物資要請など,リアルタイムに様々な情報を伝える重要な情報インフラの1つとして活用された (インプレス R\&D 2011; 西谷 2010; 立入 2011). マイクロブログは,重要な情報インフラとなっている一方で,情報漏洩や流言の拡散などの問題も抱えている.実際に,東日本大震災においても,様々な流言が拡散された (荻上 2011),流言については,これまでに多くの研究が多方面からなされている。流言と関連した概念として噂, 風評, デマといった概念がある. これらの定義の違いについては諸説あり, 文献毎にゆれているのが実情である.本研究では,十分な根拠がなく,その真偽が人々に疑われている情報を流言と定義し,その発生過程(悪意をもった捏造か自然発生か)は問わないものとする. よって, 最終的に正しい情報であっても,発言した当時に,十分な根拠がない場合は, 流言とみなす. 本論文では, マイクロブログの問題の 1 つである, 流言に着目する。流言は適切な情報共有を阻害する。特に災害時には,流言が救命のための機会を損失させたり,誤った行動を取らせたりするなど,深刻な問題を引き起こす場合もある,そのため,マイクロブログ上での流言の拡散への対策を検討していく必要があると考えられる. マイクロブログの代表的なツールとして, Twitter がある. Twitter は, 投稿する文章 (以下, ツイート)が 140 字以内に制限されていることにより,一般的なブログと比較して情報発信の敷居が低く(垂水 2010), またリツイート (RT) という情報拡散機能により, 流言が拡散されやすくなっている,実際に,東日本大震災においては,Twitterでは様々な流言が拡散されていたが, 同じソーシャルメディアであっても,参加者全員が同じ情報と意識を持ちやすい構造を採用している mixi² Facebookで深刻なデマの蔓延が確認されていないという指摘もある (小林 2011). マイクロブログ上での流言の拡散への対策を検討するためには,まずマイクロブログ上の流言の特徴を明らかにする必要がある。 そこで本論文では, マイクロブログとして, 東日本大震災時にも多くの流言が拡散されていたTwitter を材料に,そこから 481 件の流言テキストを抽出した. さらに, どのような流言が深刻な影響を与えるか, 有害性と有用性という観点から被験者による評価を行い, 何がその要因となっているか, 修辞ユニット分析の観点から考察を行った. そ ^{3}$ http://www.facebook.com/ } の結果,震災時の流言テキストの多くは行動を促す内容や,状況の報告,予測であること,また,情報受信者の行動に影響を与えうる表現を含む情報は,震焱時に高い有用性と有害性という全く別の側面を持つ可能性があることが明らかとなった。 以下, 2 章において関連研究について述べる. 3 章では分析の概要について述べる. 4 章で分析結果を示し,マイクロブログ上での流言について考察する. 5 章で将来の展望を述べ,最後に 6 章で本論文の結論についてまとめる. ## 2 関連研究 本論文では,災害時のマイクロブログ上での流言について分析を行う,そこで本章では,まず,流言に関するこれまでの定義について述べた後,災害や流言について扱ったソーシャルメディアに関する研究について述べる。 ## 2.1 流言の定義と流言の伝達 本節では,実社会における流言の先行研究について述べる。 流言の分類としては, ナップによる第 2 次世界大戦時の流言の分類がある (Knapp 1944)。ナップは,流言を「恐怖流言(不安や恐れの投影)」「願望流言(願望の投影)」「分裂流言(憎しみや反感の投影)」の 3 つに分類している。また,これらの流言がどのように流通するかは,例えば不景気,災害など,社会状況に依存すると述べている。 また,社会状況だけでなく,流言の伝達に影響する要素として,流言の内容,特に,曖昧さ,重要さ,不安という 3 つの要因が知られている (川上 1997)。才ルポートとポストマンは, 流言の流布量について, $R \sim i \times a$ のように定式化し, 「流言の流布量 $(\mathrm{R})$ は, 重要さ (i) と曖昧さ (a)の積に比例する」と述べている (G.W. オルポート,L. ポストマン 2008). このように,流言に関しては古くから研究が行われてきたが,主に口伝えでの流言の伝達を対象としてきた,本論文では,口伝えより,より迅速に,また,広範囲に広まりうるネットワー ク上での流言を扱った点が新しい. ## 2.2 災害, 流言とソーシャルメディア 本節では,災害を扱ったTwitterをはじめとするソーシャルメデイアの先行研究について概観する。 災害時のソーシャルメデイアの利用方法について分析した研究としては, まず Longueville らやQuら, Back ら, Cohn ら, Vieweg らの研究がある (De Longueville, Smith, and Luraschi 2009; Qu, Wu, and Wang 2009; Qu, Huang, Zhang, and Zhang 2011; Back, Kufner, and Egloff 2010; Cohn, Mehl, and Pennebaker 2004; Vieweg, Hughes, Starbird, and Palen 2010). Longueville ら は, 2009 年にフランスで発生した森林火災に関して, Twitter に発信されたツイートの分析を行っている (De Longueville et al. 2009). この研究においては, ツイートの発信者の分類や, ツイートで引用された URLの参照内容に関する分析などを行っている,Qu らは四川大地震および青海地震において中国のオンラインフォーラム (BBS) がどのように利用されたのかを分析している (Qu et al. 2009, 2011)。また, Back らや Cohn らは, 9.11 時のブログの書き込み内容を分析し,人々の感情の変化を分析している (Back et al. 2010; Cohn et al. 2004). Vieweg ら (Vieweg et al. 2010) は, 2009 年のオクラホマの火事 (Oklahoma Grassfires) やレッドリバーでの洪水 (Red River Floods) における Twitter の利用方法を調査している. これらの研究では発信された内容を分類し, 情報の発信の方法(情報発信か返信か)や,その位置関係について議論しているが,情報が流言かどうかといった観点からの分析は行われていない. 流言については,災害時に限らず,多くのソーシャルメディア上の研究がある.Qazvinian らは,マイクロブログ (Twitter) における特定の流言に関する情報を網羅的に取得することを目的とし,流言に関連するツイートを識別する手法を提案している (Qazvinian, Rosengren, Radev, and Mei 2011). Mendoza らは, 2010 年のチリ地震における Twitter ユーザの行動について分析を行っている (Mendoza, Poblete, and Castillo 2010). この研究では, 正しい情報と流言に関するツイートを,「支持」「否定」「疑問」「不明」に分類し,支持ツイート,否定ツイートの数について,正しい情報と流言との違いを分析している。分析結果として,正しい情報を否定するツイートは少ないが $(0.3 \%)$, 流言を否定するツイートは約 $50 \%$ 上ることを示している. ## 3 分析の概要 マイクロブログ上での流言拡散への対策を検討するためには,マイクロブログ上の流言の特徵を明らかにする必要がある。まず,なぜ人間は流言を拡散させるのであろうか. 一般に,人々がある情報を他者に伝える場合,その情報が正しいと思って伝えていることが多く,本人がでたらめだと思う話を,悪意をもって他者に伝えることは少ない(川上 1997).また,流言とは,曖昧な状況に巻き込まれた人々が,自分たちの知識や情報を寄せ集めることにより,その状況について意味のある解釈を行おうとするコミュニケーションであるという考察もある (佐藤 2007). つまり,災害時の流言は,何らかの役に立ち得る(有用性のある)情報を含み,それを共有するために善意で拡散されている可能性がある. 次に,流言が拡散された場合,どのような問題が起きるかという点を考えると, 1 章で述べたように,情報受信者を誤った行動に導き,様々な損失を与えるということが考えられる。つまり,特に対策を講じるべき流言とは,情報受信者にとって有害性のある情報である. また,上述した何らかの役に立ち得る(有用性のある)情報は,人々の行動などに影響を与える可能性もある。すなわち,流言の内容が有用と判断される場合には,情報受信者の何らか の行動を引き起こし得ると考えられ, 有用性の高さは有害性と関連する可能性がある. そこで本研究では,上述した「有害性」および「有用性」という観点に着目し,次の 2 つの分析を行う. (1) 流言の有害性/有用性:どのような流言が有害または有用とみなされるのかの主観評価を行う。 (2)流言の修辞ユニット分析:どのような特徴が先の有害性/有用性に影響を与えているのか,後述する修辞ユニット分析という手法を用いて解析する. ## 3.1 材料:対象データセット 本研究では, 分析対象のデータとして, 東日本大震災ビッグデータワークショップにおいて Twitter Japan 株式会社により提供された, 3 月 11 日から 1 週間分のツイートデータを用いた. 1 章で述べたように,本論文では,十分な根拠がなく,その真偽が人々に疑われている情報を流言と定義する。そこで,ある情報の真偽について言及しているツイートが投稿されている場合,真偽を疑問視された内容は流言と見なし,それらを分析対象の流言として用いることとする. 流言は以下の手順で抽出した。 (1)データ全体から,情報の真偽について言及しているツイートをキーワード「デマ」をも 表 1 流言抽出のパターン & \\ 表 2 抽出された流言の例 ・タンクに貯蔵されていたのは LP ガスなので、人体に影響はない。 ・関東の電気の備蓄が底をつく ・原発は安全だら避難はしなくていい - 近畿地方のプレートが小さくなって地震起こるって聞いたけど ・埼玉県の水道水が危ない、透明でも異物混入の可能性があり飲むな 表 3 同じ流言の表現のバリエーションの例 ・うがい薬を飲むことは放射能に効果あり ・放射能污染をうがい薬を飲めば予防できる ・ヨウ素を含むうがい薬を飲めば、放射線被害は防げる $\cdot$ヨウ素の代わりに薬局で売っているうがい薬でも代替がききますよ ・放射能による健康被害を防ぐためヨウ素入りのうがい薬を飲むと良い - 安定ヨウ素剤の代わりに、ヨウ素を含むうがい薬やのどスプレー、ワカメなど海藻類の摂取が有効 とに抽出する ${ }^{4}$. (2) 手順 (1) で抽出したツイートから,“「〜」というデマ”というパターンを用いて流言内容(「〜」部)を抽出する。用いたパターンは表 1 に示す. (3) 抽出された流言内容を人手で確認し,内容を理解可能なもののみを抽出する. 上記の手順により, 486 件 5 の流言テキストを抽出した。抽出されたテキストの一部を表 2 に示す。なお,本手順では,同じ流言の異なる表現のバリエーションも抽出されうる,例を表 3 に示す. 本研究では,同じ流言を意図していても,伝え方によって印象が異なる可能性があると考え,1つの流言に対する分析対象を 1 つのテキストとするのではなく,複数のテキストを扱うこととする. ## 3.2 分析 1 : 流言内容の影響度に関する主観評価 前述したように,災害時の流言拡散において,実際的に問題となるのは,その流言が実際に流言(虚偽の情報)であった場合,どれくらい有害であるか,また,逆に,それが流言でなかった場合,どれくらい有用であるのかという 2 つ問題である. そこで,以下の 2 項目について主観評価を実施した。 有害性:この情報が間違っている場合,この情報は人にとって有害である. 有用性:この情報が正しい場合,この情報は人にとって有用である.  なお,本評価では,評価者自身にとって有害・有用でない情報であっても,ある人にとって有害・有用であると考えられる場合は,有害・有用と判断してもらうこととした. 各項目の評価は, 5 段階評価 $(1:$ 強く同意しない, 2 : 同意しない, 3 : どちらともいえない, 4 :同意する,5:強く同意する)を用いることとし,共著者を含む 7 名の評価者により評価を行った.また,評価者が上記のいずれの評価値もつけることができないと判断した場合,評価不能 $(-1)$ とすることとした. ## 3.3 分析 2:流言内容の分類 分析 1 では, 流言の有害性と有用性という 2 つの尺度から, 流言について主観評価を行った.次に問題となるのは,流言のどのような要素が有害性や有用性に影響を与えているかである。 そこで,2つ目の分析として,流言内容をいくつかの特徴から分析した.この際に,先行研究で観られた分類(行動を促進するかどうか,ネガティブな内容であるかどうか)に加え,知識伝達の分析に用いられる修辞ユニット分析を用いた。 ## 3.3.1 従来の分類 流言内容を分類した先行研究 (梅島, 宮部, 荒牧,灘本 2011) では,「ネガティブである」「不安を煽る」「行動を促進する」といった観点により流言の分類を行っている. そこで,先行研究における分類に基づき,以下の 5 項目について主観評価を実施した. ネガティブさ:この情報はネガティブな内容である. 行動促進:この情報は行動を促している. 不安扇動:この情報は不安を煽る。 尤もらしさ:この情報は尤もらしい. 伝聞情報:この情報には伝聞情報が含まれる。 各項目の評価は, 5 段階評価 $(1:$ 強く同意しない, 2 : 同意しない, 3 : どちらともいえない, 4 :同意する,5:強く同意する)を用いることとし,共著者を含む 7 名の評価者により評価を行った. ## 3.3.2 修辞ユニット分析 修辞ユニット分析(Rhetorical Unit Analysis 以下,RUA)(Cloran 1999) は, 談話分析手法の 1 つであり, 分析の過程で, 伝達される内容の修辞機能の特定を行い, 文脈化の程度を知ることができる。ここでいう文脈とは,一般的な話であるほど脱文脈化されており,個人的な話であるほど文脈化されているとみなす尺度である. 例えば,「ホウ素は特殊な結晶構造をとるため放射線を吸収します。」というのは一般性を持つため脱文脈化されているとみなす。逆に,「ホウ素サプリを採りましょう」というのは聞き手 に行動を促しており,文脈化されているとみなす。 先行研究では, 母子会話や生徒一教師の解析 (Cloran 1994, 1999, 2010), 作文指導 (佐野 2010), Q\&A サイトの解析 (田中, 佐野 2011a, 2011b, 2011; 田中 2011) などに用いられてきた. 日本語への適用については文献 (佐野; 佐野, 小磯 2011) が詳しい. 本稿では, その概要のみを述べるものとする。 RUA は通常次の手続きを踏む。 (1)発話のメッセージ(基本的には節)の発話機能を認定し,中核要素と現象定位を確認する. 発話機能は,「与える」と「要求する」の「交換における役割」と,「品物/行為」と 「情報」という「交換されるもの」の二項の組み合わせで構成され,「品物/行為」の交換を「提言」「情報」の交換を「命題」とする (Halliday and Matthiessen 2004)。中核要素は,基本的には発話内容の主語で判断し,「状況外」など 4 つのカテゴリからなる.現象定位は,発話機能が「命題」と認定されたメッセージについて,その発話内容の出来事が起こった,あるいは起こる時を,基本的にはテンスや時間を表す副詞句などから判断し,「過去」など 6 つのカテゴリからなる. (2)この,発話機能と中核要素と現象定位の組み合わせから,14のレベルに細分化された修辞機能が特定され, 文脈化の程度(脱文脈化指数と呼ばれる)が測られる(表 4). 脱文脈化指数の数値が大きいものほど脱文脈化の程度が高く一般的・汎用的で, 小さいものほど脱文脈化の程度が低く個人的・特定的である。 各修辞機能と脱文脈化指数へと分類されるテキストの例を以下に示す. [] 内は脱文脈化指数 表 4 修辞機能の特定と脱文脈化指数 $「 \mathrm{n} / \mathrm{a}$ 」は該当なし/太字の部分が修辞機能の種類/ [ ] 内は脱文脈化指数 を示す. [01]行動みんなで節電しましょう (中核要素対象:みんなで,現象定位対象:節電しましょう) [02] 実況血が流れている。 (中核要素対象:血が,現象定位対象:流れている) [03]状況内回想ラックが倒壊した。 (中核要素対象:ラックが,現象定位対象:倒壊した) [04] 計画お水買っといた方がいいんじゃない? (中核要素対象: $\phi=$ あなたは(あるいはわたしは),現象定位対象:打水買っといた方がいいんじゃない?) [05]状況内予想もうすぐ肉不足で焼肉食べられなくなる (中核要素対象: $\phi=$ あなたは(あるいはわたしは),現象定位対象:もうすぐ肉不足で焼肉食べられなくなる) [06]状況内推測放射能が来ても自転車のチューブがあれば助かるらしいぞ (中核要素対象: $\phi=$ あなたは,現象定位対象:自転車のチューブがあれば助かるらしいぞ) [07] 自己記述国際線で 1 回飛ぶと宇宙線を 1 ミリシーベルト近く被曝します (中核要素対象: $\phi=$ あなたは, 現象定位対象 : 宇宙線を 1 ミリシーベルト近く被曝します) [08]観測このそば屋の店主はいつも愛想がない (中核要素対象 :このそば屋の店主, 現象定位対象:いつも愛想がない) [09]報告 301 号にけが人がいます (中核要素対象:けが人が,現象定位対象:います) [10]状況外回想阪神大震災の際ははじめの地震から三時間後に一番強い地震がきた (中核要素対象:一番強い地震が,現象定位対象:きた) [11]予測関東の方は深夜に地震が起きる可能性があるそうです。 (中核要素対象:地震が, 現象定位対象:起きる可能性があるそうです) [12]推量首都圈で買いだめすると被災地に物資が届かなくなる (中核要素対象:物資が,現象定位対象:届かなくなる) [13]説明日本ユニセフ協会は募金をピンハネする (中核要素対象:日本ユニセフ協会は, 現象定位対象 : 募金をピンハネする) [14]-般化ホウ素は特殊な結晶構造をとるため放射線を吸収します。 (中核要素対象:ホウ素は, 現象定位対象 : 特殊な結晶構造をとるため放射線を吸収します。) なお,修辞ユニット分析については,修辞ユニット分析に精通した 1 名の作業者が分類作業を行った。 ## 4 分析結果と考察 本論文では, 分析 1 における評価結果において, 評価者 7 名の内 4 名以上が判定不能と判断したもの,および分析 2 における修辞機能と脱文脈化指数の認定ができなかったものは分析対象から除外することとした. 確認の結果, 分析 1 において評価者 4 名以上が判定不能と判断したものは存在しなかったため, 分析 2 における修辞機能と脱文脈化指数の認定ができなかった 5 件のみを除外した, 481 件の流言テキストを分析対象とした。また,分析 1 の評価結果については, 7 名の評価者による全ての評価結果(481 件 $\times 7$ 名分, 3,367 件)および 7 名による評価結果の中央値を用いて考察する 6. ## 4.1 流言内容の影響度に関する主観評価結果 本節では, 分析 1(流言内容の影響度に関する主観評価)の結果について述べる。流言テキストの有害性,有用性に関する主観評価結果を表 5 に示す,表 5 より,481 件に対する 7 名の全評価値7についてみると, 有害性, 有用性のどちらについても, 「同意する」(評価値 4 または 5)が多い傾向が見られる。また,481件の各流言テキストに対する評価値の代表値として,中央値をとった場合の分類結果を見ると,全評価値と同様に,有害性,有用性のどちらも「同意 表 5 有害性, 有用性に関する分類結果 & & & & & & & & \\ $\cdot$各評価値は, $1:$ 強く同意しない, $2:$ 同意しない, $3 :$ どちらともいえない, $4:$ 同意する, $5:$ 強く同意する,を意味する。 $\cdot$「判定不能」と評価した評価者がいた場合, その値は除外して中央値を取っている. 表中の 1.5, 2.5, 3.5, 4.5 欄は, 除外後の評価結果が偶数個の場合の中央値(中央に近い 2 つの値の算術平均)である.  する」(評価値 4 または 5)に分類された流言が多く,震災時に発信された流言テキストは,有害性や有用性が高い傾向が見られる。 また,481 件に対する 7 名の有害性,有用性の評価結果ペア(3,367 ゚゚ア)をもとに順位相関係数を調査した結果,順位相関係数は 0.601 であり,正の相関がみられた。また,流言テキスト 1 件毎に中央値をとった場合の,481 ペアの有害性,有用性評価結果の順位相関係数は 0.628 となり, 同様に正の相関がみられた。有害性評価と有用性評価の分布を表 6,7 に示す。表 6 , 7 より,一部,有害性と有用性の分類結果に相関がみられないものも見られる。例えば,「ほくでんが東京電力に電力提供する準備を始めた」という流言テキストは,有害性の評価結果(中央値)は 2 であったが,有用性の評価結果(中央値)は 4 であった。また,「韓国で日本の大地震を記念した $\mathrm{T}$ シャツが売られている」という流言テキストは, 有害性の評価結果(中央値) は 4 であったが, 有用性の評価結果(中央値)は 2 であった. これらの一部例外となる流言テキストはあるものの,大部分の流言テキストについては,有害性と有用性の分類結果は類似している。つまり, 有用性と有害性は表裏一体の関係にあることが多く, 情報が正しい場合に有 表 6 有害性評価と有用性評価の分布(中央値を用いた場合) 表 7 有害性評価と有用性評価の分布(7 名の全評価結果) 用性の高い内容は,その情報が間違っていた場合に有害となりうると言える. ## 4.2 流言内容の分類結果 本節では,分析 2(流言内容の分類)の結果について述べる。まず,先行研究に基づく流言内容の主観評価結果を表 8 に,各項目および有害性,有用性の評価結果の順位相関係数を表 9 , 10 にそれぞれ示す. 表 8 より,震災時に流れた流言内容は, ネガティブで,不安を煽るものであることがわかる. これは, 先行研究における結論 (G.W. オルポート, L. ポストマン 2008) と一致する. なお,表 9,10 に示した各項目と有害性,有用性の評価結果の相関を見ると,中央値を用いた 表 8 主観評価による分類結果 & & & & & & & & \\ $\cdot$各評価値は, 1 : 強く同意しない, 2 : 同意しない, $3 :$ どちらともいえない, $4:$ 同意する, $5 :$ 強く同意する,を意味する。 $\cdot$「判定不能」と評価した評価者がいた場合, その値は除外して中央値を取っている。表中の 1.5, 2.5, 3.5, 4.5 闌は, 除外後の評価結果が偶数個の場合の中央値(中央に近い 2 つの値の算術平均)である. 表 9 主観評価結果の相関係数(中央値を用いた場合) 場合は,行動促進と有害性,有用性との間や,不安扇動と有用性との間に相関が見られる,全評価値を用いた場合の上記の関連は,中央値を用いた場合よりも相関は弱くなるものの,同様の傾向が見られる. 一方,尤もらしさや伝聞情報に関しては,上述した指標と比較して相関が弱く, これらの影響で有害性や有用性が決定されているわけでないと言える。 次に,修辞ユニット分析による分類結果を表 11 に示す. まず,脱文脈化指数の観点から考察する,3.3.2 項で述べたように,脱文脈化指数は,数値が大きいものほど一般的・汎用的で,小さいものほど個人的・特定的であるとされる。表 11 見 表 10 主観評価結果の相関係数(全評価値を用いた場合) 表 11 修辞機能と脱文脈化指数による分類結果 & \\ {$[02]$ 実況 } & 25 & 22 \\ {$[03]$ 状況内回想 } & 4 & 3 \\ {$[04]$ 計画 } & 8 & 9 \\ {$[05]$ 状況内予想 } & 8 & 8 \\ {$[06]$ 状況内推測 } & 9 & 9 \\ {$[07]$ 自己記述 } & 1 & 1 \\ {$[08]$ 観測 } & 0 & 0 \\ {$[09]$ 報告 } & 120 & 107 \\ {$[10]$ 状況外回想 } & 99 & 91 \\ {$[11]$ 予測 } & 114 & 102 \\ {$[12]$ 推量 } & 11 & 8 \\ {$[13]$ 説明 } & 17 & 13 \\ {$[14]$ 一般化 } & 1 & 0 \\ *修辞ユニット分析は節ごとに分類を行うため,1つのツイートに複数の修辞機能が認定され,脱文脈化指数が付与される場合がある,そこで,表 11 には 1 つのツイートに付与された脱文脈化指数のうち,最大値および最小値を代表値とした場合の該当数を提示している. ると,各脱文脈化指数に分類される流言テキストの数にはばらつきがみられ,発信された流言について, 各脱文脈化指数の大きさとの関連は見られなかった。つまり, 内容が一般的か, 個人的かに関わらず,流言は発信されると考えられる。 次に,修辞機能の観点から考察する。表 11 より, [01] 行動, [09] 報告, [10] 状況外回想, [11]予測に分類されたものが合計 397 件(代表値が最大値の場合)および 408 件(代表値が最小値の場合)で,代表値を最大值,最小値とした場合のいずれについても,分析対象の $80 \%$ 以上となる. つまり, 震災時の流言のカテゴリは 4 つ(行動を促す内容, 状況の報告, 状況外回想,予測)が大部分を占めていることがわかる. ## 4.3 修辞機能と脱文脈化指数による分類結果から見た有害性,有用性 本節では,修辞機能および脱文脈化指数による分類結果をもとに,有害性, 有用性との関連について考察する.修辞ユニット分析は節ごとに分類を行うため,1つのツイートに複数の修辞機能が特定され脱文脈化指数が付与される場合がある.表 11 に示したように,代表値を最大値, 最小值とした場合の分布は類似している。それぞれの結果をもとに有害性, 有用性との関連を確認した結果,いずれも同様の傾向を示したが,最小値を用いた場合により顕著な傾向が見られたため, 以降の分析では脱文脈化指数の最小値を代表値とした場合の分類結果をもとに議論する。 ## 有害性との関連 図 1 に,有害性の各評価値に分類された流言に関する,修辞機能と脱文脈化指数の割合を示す.なお, 図 1 では, 有害性の評価結果(中央値)に基づき, 有害性の低いもの(評価値 $1,1.5$, 2), 中程度のもの(評価值 $2.5 , 3 , 3.5$ ), 高いもの(評価值 $4 , 4.5 , 5 )$ に分類されたものをまとめた際の修辞機能と脱文脈化指数の割合を提示している。各評価値における修辞機能と脱文脈化指数の割合については,付録における図 3 として提示している。また, 分類結果の例として, [01] 行動と [09] 報告の例を表 12 に示す. 図 1 より, 有害性が高いと評価された流言(評価値 4 5)は, 修辞機能と脱文脈化指数の分類結果としては, [01] 行動に約 $30 \%$ が, [11] 予測に約 $25 \%$ の流言が分類されている. ここでいう行動には注意喚起や救援要請など,情報受信者の行動を促進するものが含まれ(表 12),この結果は,4.2節で述べた,行動促進が有害性と相関していることを裏付けている. 逆に, 有害性が低いと評価された流言(評価値 1 2)の70\%程度は, 修辞機能と脱文脈化指数が [09] 報告や [10] 状況外回想に分類されている. このように, 本結果から, 行動促進のみが有害性と相関するだけでなく, 有害性を低くする要素として,回想や報告があることが伺える. 図 1 有害性と修辞機能および脱文脈化指数 表 12 有害性評価結果における特徴的な分類結果の例 & \\ ## 有用性との関連 図 2 に, 有用性の各評価值に分類された流言に関する, 修辞機能と脱文脈化指数の割合を示す. 図 2 についても, 図 1 と同様に, 有用性の評価結果(中央值)に基づき, 有用性の低いもの(評価値 $1,1.5,2$ ), 中程度のもの(評価値 $2.5,3,3.5$ ), 高いもの(評価値 $4,4.5,5 )$ に分類されたものをまとめた際の修辞機能と脱文脈化指数の割合を提示している.各評価值における修辞機能と脱文脈化指数の割合については, 付録における図 4 として提示する. 先の有害性と同じく, 有用性が高いと評価された流言の $30 \%$ 前後が [01] 行動に, $25 \%$ 程度が [11] 予測に分類され, 有用性が低いと評価された流言の $74 \%$ 程度が [09] 報告や [10] 状況外回想に分類された. 表 13 に,分類結果の例として [10] 状況外回想と [11] 予測の例を示す. このように, 有害性と有用性は基本的には同様の傾向を示すことがわかった. ## 有害性, 有用性と修辞機能との関連のまとめ 以上の有害性, 有用性との関連の結果から, 行動を促すテキストおよび将来発生し得る事象の予測を含むテキストは,震災時高い有用性と有害性を持つと判断される.また,回想や報告を含むテキストは,震災時の有用性と有害性が低い傾向がある。つまり,情報受信者の未来の行動に影響を与えうる表現を含む情報は, 震災時に高い有用性と有害性を持ち, 過去に発生したことの報告については, 有用性・有害性が低いと考えられる. 図 2 有用性と修辞機能および脱文脈化指数 表 13 有用性評価結果における特徴的な分類結果の例 & \\ レディー・ガガが 1 億円寄付 & {$[10]$ 状況外回想 } & 1 \\ 枝野官房長官 105 時間ぶりに就寝 & {$[10]$ 状況外回想 } & 1 \\ 静岡の浜岡原発は地震に弱いって話してる 2 人組がいたよ & {$[10]$ 状況外回想 } & 2 \\ 台湾からの義援金拒否 & {$[10]$ 状況外回想 } & 2 \\ 政府が日野のガイガーのサイトを遮断した & {$[10]$ 状況外回想 } & 2 \\ 自衛隊に (食料とか) 持っていけば寄付してもらえると聞いたんで & {$[11]$ 予測 } & 4 \\ 豊川信用金庫が倒産する & {$[11]$ 予測 } & 4 \\ 水戸地区は明日から平日 16 時から 19 時まで停電の予定 & {$[11]$ 予測 } & 5 \\ トイレットペーパーが無くなるかも & {$[11]$ 予測 } & 5 \\ 富山県内で 13 日大地震が発生する & {$[11]$ 予測 } & 5 \\ *「〜と聞いた」のような形式のテキストについては,「〜」の部分が分析対象となる. ## 4.4 表現の違いによる影響 3.1 節で述べたように,本論文における抽出手順では,同じ流言の異なる表現のバリエーションも抽出されうる。本論文では, 同じ流言を意図していても,伝え方によって印象が異なる可能性があると考え,1つの流言に対する分析対象を 1 つのテキストに限定せず,複数のテキストを扱った。しかし,同じ流言を意図する表現が大量に含まれる場合,それらが結果に影響する可能性がある。そこで,本節では,1つの流言に対するテキストを限定した場合の結果について述べる. まず,表 3 に示したような,同じ内容を取り扱っているが異なる表現を持つものを 1 つ流言と見なした場合の,データセット中の流言数を確認した.流言テキストに含まれるキーワー ドをもとに分類し,さらに人手で内容を確認しながら流言内容毎の表現バリエーション数を調査した。確認の結果, 481 件の流言テキストに含まれる独立した流言内容は 256 件であった.表 14 に,表現バリエーション数を示す. 2 つ以上の表現バリエーションを持つ流言内容は 256 件中 44 件であり,1つの流言内容に対する最大の表現バリエーション数は, 81 バリエーションであった. 次に,複数の表現バリエーションを持つ流言内容から,代表となるテキストをランダムに抽出した. なお, 同じ流言を意図する複数の表現が, すべて同じ修辞機能に認定されるとは限らない. 修辞機能により違いがある可能性もあるため, 今回はある流言に対して単純に 1 つのテキストを抽出するのではなく, 修辞機能に違いのあるテキストが含まれる場合は, 修辞機能ごとに 1 つずつ抽出することとした。上記の条件で抽出されたテキストは 300 件である. 表 14 表現バリエーション数 300 件のテキストを用いて, 4.1 節〜 4.3 節と同様の分析を行った結果, 4.1 節〜 4.3 節で示した結果と同様の傾向が見られた8.したがって,今回の分析においては,流言における複数の表現は,分析結果に大きな影響は与えていないと考えられる. ## 4.5 分析結果の限定性 本章では,震災時の流言テキストを対象として流言内容の主観評価,分類を行い,流言テキストの持ち得る性質についてまとめた。 本論文で得られた結果は, 流言テキストのみを対象として調査した結果得られたものであり,流言ではないものについても,今回明らかにした流言テキストと同様の性質を持つ可能性もある。つまり,本論文で得られた結論が,流言のみにあてはまるものであるかどうかという点までは,本論文では検証できていない,今後,流言以外のテキストを対象とした調査を行い,流言との違いの有無を確認し,今回得られた結論が流言のみに限定されるものか,テキスト全般に適用されるものかを明らかにする必要がある. ## 5 将来への展望 本研究により,流言において,有害性と有用性に影響を与える要素として,行動の促進,予測があることが分かった。一部の行動を促す表現は「〜して下さい」「に注意!」など,典型な表現を含んでいるため, 本研究の知見により, 大量の流言の中から, 有害または有用であるものをある程度ピックアップすることも可能だと思われる。 ^{8} 300$ 件のテキストによる結果については, 付録として提示する. } 我々は自動的に流言を収集するサービスをすでに動かしているが (宮部,梅島,灘本,荒牧 2011, 2012), 今後, 本知見による有害性, 有用性推定システムを組み込む予定である. ## 6 おわりに 本研究では,マイクロブログ上での流言の特徴を明らかにするために, Twitter を例とした分析を行った.分析対象として,東日本大震災時の Twitter データから抽出した 481 件の流言テキストを用いた。流言テキストに対する主観評価および修辞ユニット分析を行い,震災時に発生したマイクロブログ上の流言テキストには, 以下の傾向があることを明らかにした. (1) 情報が正しい場合に有用性の高い内容は, その情報が間違っていた場合に有害性がある. (2)震災時に拡散する流言テキストは,行動を促す内容や, 状況の報告, 回想, 予測が大部分を占める. (3)情報受信者の行動に影響を与えうる表現,または,予想を含む情報は,高い有用性と有害性を持つと考えられる。 ただし,上記の結論は,流言テキストのみを対象として調査した結果得られたものであり,これらの性質が流言のみにあてはまるものであるかどうかは不明である. 今後は,流言以外のテキストを対象とした調査を行い,上述した結論が流言のみに限定されるものなのかどうかの検証が必要である。また,得られた知見に基づき,流言拡散を防ぐための仕組みを検討していく必要がある. ## 謝 辞 本研究の一部は, JST 戦略的創造研究推進事業による. ## 参考文献 Back, M. D., Kufner, A. C. P., and Egloff, B. (2010). "The Emotional Timeline of September 11, 2001." Psychological Science, 21 (10), pp. 1417-1419. Cloran, C. (1994). Rhetorical units and decontextualisation: an enquiry into some relations of context, meaning and grammar. Ph.D. thesis, Nottingham University. Cloran, C. (1999). "Instruction at home and school." In Christie, F. (Ed.), Pedagogy and the shaping of consciousness: Linguistic and social processes, pp. 31-65. Cassell, London. Cloran, C. (2010). "Rhetorical unit analysis and Bakhtin's chronotype." Functions of Language, 17 (1), pp. 29-70. Cohn, M. A., Mehl, M. R., and Pennebaker, J. W. (2004). "Linguistic Markers of Psychological Change Surrounding September 11, 2001." Psychological Science, 15 (10), pp. 687-693. De Longueville, B., Smith, R. S., and Luraschi, G. (2009). "OMG, from here, I can see the flames!": a use case of mining location based social networks to acquire spatio-temporal data on forest fires." In Proceedings of the 2009 International Workshop on Location Based Social Networks, LBSN '09, pp. 73-80. ACM. G.W. オルポート,L. ポストマン (2008). デマの心理学. 岩波書店. Halliday, M. A. K. and Matthiessen, C. M. I. M. (2004). An introduction to functional grammar (3rd ed edition). Arnold, Hodder Education. インプレス R\&D インターネットメディア総合研究所 (2011). インターネット白書 2011. インプレスジャパン. 川上善郎 (1997). うわさが走る情報伝搬の社会心理. サイエンス社. Knapp, R. H. (1944). "A Psychology of Rumor." Public Opinion Quarterly, 8 (1), pp. 22-37. 小林啓倫 (2011). 災害とソーシャルメディア〜混乱、そして再生へと導く人々の「つながり」〜.毎日コミュニケーションズ. Mendoza, M., Poblete, B., and Castillo, C. (2010). "Twitter under crisis: can we trust what we RT?" In Proceedings of the First Workshop on Social Media Analytics, SOMA '10, pp. 71-79. ACM. 宮部真衣,梅島彩奈,灘本明代,荒牧英治 (2011). 流言訂正情報に基づいた流言情報クラウドの提案. 第 4 回楽天研究開発シンポジウム, pp. 1-4. 宮部真衣,梅島彩奈,灘本明代,荒牧英治 (2012). 人間による訂正情報に着目した流言拡散防止サービスの構築. マルチメディア, 分散, 協調とモバイル(DICOMO2012)シンポジウム, pp. 1442-1449. 西谷智広 (2010). I 見聞録:Twitter 研究会. 情報処理学会誌, 51 (6), pp. 719-724. 荻上チキ (2011). 検証東日本大震災の流言・デマ. 光文社新書. Qazvinian, V., Rosengren, E., Radev, D. R., and Mei, Q. (2011). "Rumor has it: Identifying Misinformation in Microblogs." In EMNLP, pp. 1589-1599. ACL. Qu, Y., Huang, C., Zhang, P., and Zhang, J. (2011). "Microblogging after a major disaster in China: a case study of the 2010 Yushu earthquake." In Proceedings of the ACM 2011 conference on Computer supported cooperative work, CSCW '11, pp. 25-34. ACM. Qu, Y., Wu, P. F., and Wang, X. (2009). "Online Community Response to Major Disaster: A Study of Tianya Forum in the 2008 Sichuan Earthquake." In HICSS, pp. 1-11. IEEE Computer Society. 佐野大樹. 日本語における修辞ユニット分析の方法と手順 ver.0.1.1一選択体系機能言語理論 (シス テミック理論) における談話分析一(修辞機能編). http://researchmap.jp/systemists/資料公開/。 佐野大樹 (2010). 特集選択体系機能言語理論を基底とする特定目的のための作文指導方法につ いて一修辞ユニットの概念から見たテクストの専門性. 専門日本語教育研究, 12, pp. 19-26.佐野大樹, 小磯花絵 (2011). 現代日本語書き言葉における修辞ユニット分析の適用性の検証一 「書き言葉らしさ・話し言葉らしさ」と脱文脈化言語・文脈化言語の関係一. 機能言語学研究, 6 , pp. 59-81. 佐藤健二 (2007). 関東大震災後における社会の変容. 立命館大学・神奈川大学 21 世紀 COE プログラムジョイントワークショップ報告書『歴史災害と都市一京都・東京を中心に一』, pp. 81-89. 立入勝義 (2011). 検証東日本大震災そのときソーシャルメディアは何を伝えたか? ディスカヴァー・トゥエンティワン. 田中弥生, 佐野大樹 (2011). Yahoo!知恵袋における質問と回答の分類一修辞ユニット分析を用いた脱文脈化一文脈化の程度による検討一,社会言語科学会第 27 回大会発表論文集, pp. 208-211. 田中弥生 (2011). 修辞ユニット分析を用いた $\mathrm{Q}$ \& A サイトの質問と回答における修辞機能の展開の検討. 社会言語科学会第 28 回大会発表論文集, pp. 226-229. 田中弥生, 佐野大樹 (2011a). Yahoo!知恵袋における質問の修辞ユニット分析一脱文脈化一文脈化の程度による分類一. 信学技報, 110 (400), pp. 13-18. 田中弥生, 佐野大樹 (2011b). 修辞ユニット分析からみた Q\&A サイトの言語的特徴. 言語処理学会第 17 回年次大会 (NLP2011) 論文集, pp. 248-251. 垂水浩幸 (2010). 実世界インタフェースの新たな展開:4. ソーシャルメディアと実世界. 情報処理学会誌, 51 (7), pp. 782-788. 梅島彩奈, 宮部真衣, 荒牧英治, 灘本明代 (2011). 災害時 Twitter におけるデマとデマ訂正 RT の傾向. 情報処理学会研究報告. データベース・システム研究会報告, 2011 (4), pp. 1-6. Vieweg, S., Hughes, A. L., Starbird, K., and Palen, L. (2010). "Microblogging during two natural hazards events: what twitter may contribute to situational awareness." In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, CHI '10, pp. 1079-1088. ACM. ## 付録 ## A 各評価値における修辞機能と脱文脈化指数の割合 有害性および有用性の評価値毎に分類された流言に関する修辞機能と脱文脈化指数の割合を, 図 3 および図 4 にそれぞれ示す. 図 3 有害性(各評価値)と修辞機能および脱文脈化指数 図 4 有用性(各評価値)と修辞機能および脱文脈化指数 ## B 1 つの流言に対するテキストを限定した場合の分析結果 4.4 節で述べた, 1 つの流言に対するテキストを限定し, 300 件のテキストを用いた場合の分析結果として,以下のデータを提示する。 (1) 各主観評価結果の相関係数(表 15,16 ) (2) 修辞機能と脱文脈化指数による分類結果(表 17) (3)有害性および有用性の評価値毎に分類された流言に関する修辞機能と脱文脈化指数の割合(図 5,6 ) 表 15300 件のテキストにおける主観評価結果の相関係数(中央値を用いた場合) 表 16300 件のテキストにおける主観評価結果の相関係数(全評価値を用いた場合) 表 17300 件のテキストにおける修辞機能と脱文脈化指数による分類結果 & \\ {$[02]$ 実況 } & 11 & 13 \\ {$[03]$ 状況内回想 } & 3 & 3 \\ {$[04]$ 計画 } & 8 & 8 \\ {$[05]$ 状況内予想 } & 7 & 7 \\ {$[06]$ 状況内推測 } & 7 & 7 \\ {$[07]$ 自己記述 } & 1 & 1 \\ {$[08]$ 観測 } & 0 & 0 \\ {$[09]$ 報告 } & 94 & 90 \\ {$[10]$ 状況外回想 } & 67 & 60 \\ {$[11]$ 予測 } & 54 & 46 \\ {$[12]$ 推量 } & 11 & 8 \\ {$[13]$ 説明 } & 14 & 12 \\ {$[14]$ 一般化 } & 1 & 0 \\ *修辞ユニット分析は節ごとに分類を行うため, 1 つのツイートに複数の修辞機能が認定され, 脱文脈化指数が付与される場合がある。 そこで,表 17 には 1 つのツイートに付与された脱文脈化指数のうち, 最大値および最小値を代表值とした場合の該当数を提示している. 図 5300 件のテキストにおける有害性と修辞機能および脱文脈化指数 図 6300 件のテキストにおける有用性と修辞機能および脱文脈化指数 ## 略歴 宮部真衣:2006 年和歌山大学システム工学部デザイン情報学科中退. 2008 年和歌山大学大学院システム工学研究科システム工学専攻博士前期課程修了. 2011 年和歌山大学大学院システム工学研究科システム工学専攻博士後期課程修了. 博士 (工学). 現在, 東京大学知の構造化センター特任研究員. コミュニケーション支援に関する研究に従事. 田中弥生:1997 年青山学院大学大学文学部第二部英米文学科卒業. 1999 年青山学院大学大学院国際政治経済学研究科国際コミュニケーション専攻修士課程修了. 修士(国際コミュニケーション学). 現在, 神奈川大学外国語学部,青山学院女子短期大学非常勤講師. 英語およびコミュニケーション論を担当. 西畑祥:2013 年甲南大学知能情報学部知能情報学科卒業. 在学中は, マイクロブログ上の流言情報の特徴分析に関する研究に従事. 灘本明代:東京理科大学理工学部電気工学科卒業. 2002 年神戸大学大学院自然科学研究科情報メディア科学専攻後期博士課程修了. 博士 (工学). 現在,甲南大学知能情報学部教授. Webコンピューティング,データ工学の研究に従事. ACM,IEEE,情報処理学会,電子情報通信学会会員. 荒牧英治:2000 年京都大学総合人間学部卒業. 2002 年京都大学大学院情報学研究科修士課程修了. 2005 年東京大学大学院情報理工系研究科博士課程修了 (情報理工学博士). 以降, 東京大学医学部附属病院企画情報運営部特任助教,東京大学知の構造化センター特任講師を経て, 現在, 京都大学デザイン学ユニット特定准教授, 科学技術振興機構さきがけ研究員(兼任)。自然言語処理, 医療情報学の研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 健康危機管理と自然言語処理 ## 奥村 貴史 $\dagger$ ・金谷 泰宏计 災害は被災地住民の健康に多大な影響を及ぼし,その対応に際し保健医療分野に膨大な文書を生じる。そこで,妆害時の保健医療活動を支援するため,自然言語処理による各種文書の効率的処理が期待されている。 本稿では, 保健医療の観点から, そうした情報の特性を被災者,被災者集団,支援者のそれぞれについて整理したうえで,自然言語処理が有効と考えられる諸課題を列挙する。そのうえで, 2011 年に発生した東日本大震災において筆者らが関わった日本栄養士会支援活動報告, 石巻圈合同救護チーム災害カルテ, 医療や公衆衛生系メーリングリスト情報の 3 つの事例を紹介し, 「健康危機管理」に自然言語処理が果たしうる貢献について検討する.これらの事例に示されるように,災害時には保健医療に関わる膨大なテキストが発生するものの, 保健医療分野の専門家は大量の自由記載文を効率的に処理する手段を有していない。今後, 東日本大震災において生じたデー夕を活用し, 保健医療情報における大量の自由記載文を効率的に処理する備えを行っておくことが望ましい. キーワード:健康危機管理,公衆衛生,自然言語処理 ## Health Crisis Management and Natural Language Processing \author{ Takashi Okumura ${ }^{\dagger}$ and Yasuhiro Kanatani $^{\dagger \dagger}$ } Disasters may cause a variety of health problems in the victim population, and public health authorities are forced to assess such situations rapidly in order to take appropriate countermeasures. This process may involve the processing of numerous unstructured texts, and hence, natural language processing (NLP) has significant application potential in the field of crisis response. This report classifies the information related to public health in a crisis situation into three categories-victims, victim groups, and care providers - and summarizes the characteristics of these categories to clarify the tasks suitable for NLP. This analysis is followed by three case studies of the Great East Japan Earthquake response. These case studies illustrate the contribution of NLP in an actual health crisis and suggest that the authorities do not possess appropriate means to process the texts that may accumulate in such a situation. The archive of the earthquake would be the best source for the analysis to prepare for future disasters. Key Words: health crisis management, public health, natural language processing  ## 1 はじめに 災害は,住居や道路などに対する物的損害だけでなく,被災地内外の住民に対する健康への影響も及ぼしうる。そこで,従来の防災における危機管理の考えを援用し,健康における危機管理という概念が発達しつつある。この「健康危機管理」は, わが国の行政において, 災害, 感染症, 食品安全, 医療安全, 介護等安全, 生活環境安全, 原因不明の健康危機といった 12 分野に整理されており, 厚生労働省を中心として, それぞれの分野において生じうる健康問題とその対応策に関する知見の蓄積が進められている (谷畑, 奥村, 水島, 金谷 2012). こうした健康危機においては, 適切な意思決定のためにできる限り効率的に事態の全体像を把握する必要性がある。しかし, 2009 年に生じた新型インフルエンザによるパンデミックでは,国内の発症者や疑い症例の急激な増加に対し,状況把握に困難が生じていた (奥村 2009), 2011 年に生じた東日本大震災においては,被災地の行政機能が失われ,通信インフラへの被害も合わさって, 被災地の基本的な状況把握すら困難な状態が生じた (震災対応セミナー実行委員会 2012). とりわけ, 災害初期の混乱期においては, 事態の全体像を迅速に把握する必要があり,情報の厳密性よりも行動に結びつく実用性や迅速性が優先されうる (國井 2012).この「膨大なテキスト情報が発生」し, また,「情報の厳密性よりも迅速性が優先される」という特徴は, 自然言語処理が健康危機管理に大きく貢献しうる可能性を示している. そこで本稿では, 健康危機における情報と自然言語処理との関係について整理し, 自然言語処理が健康危機管理に果たしうる役割について検討する。まず, 次章では, 健康危機における情報とその特徴について整理する, 3 章では,筆者らが関わった東日本大震災に対する保健医療分野の情報と自然言語処理との関わりをまとめ,4 章において提言を記す. ## 2 健康危機管理における情報とその特徵 震災やパンデミックにより引き起こされる健康危機時においては, 被災者に関する医学的情報や医療機関の損害情報, 支援物資に関する情報など,様々な情報が生じることになる,実際,東日本大震災の後には,災害支援における情報の処理に様々な課題が生じ,その効率化に向けて多くの情報システムが開発された (Utani, Mizumoto, and Okumura 2011). 以下では, 保健医療活動の観点から, 情報を対象毎に分類し, その特徴を整理する。 ## 2.1 被災者に関する情報 まず,個々の被災者に関する健康情報が挙げられる,災害による怪我などの急性疾患に関する情報の他, 持病や内服薬に関する情報, 栄養状態に関する情報は, 適切な医学的管理に欠かせない,一方で,緊急時においては,利用できる検査や医薬品にも限りがあり,また,患者の 診療記録についても,通常時とは異なった簡潔さが求められることになる。患者の状態を緊急度により分類する「トリアージタグ」は,患者情報を極限まで簡素化したもので,言語表現が関与する余地は夕グに含まれる特記事項欄の記載に限られている。これは極端な例ではあるが,災害時においては,災害用カルテの利用など多かれ少なかれ診療記録にも大幅な省力化が図られる傾向がある。 こうした患者情報は,電子化されているケースもあれば,混乱する被災地の医療現場で必要最小限の記録を残すために紙に記載されているケース,さらには,紙への記載すら困難な状況下で患部に巻いた包帯の上に最小限の処置内容と指示のみを記載する例などもあり,すべてが自然言語処理の対象として適した形態とは言えない。しかしながら,こうした個々の被災者に関する医学情報は,適切に処理することにより様々な活用が可能である。まず,i) 多数の患者情報の中から,特別な治療が必要なケースなど,条件に見合った患者を抽出する活用が考えられる。ただし,緊急性の高い患者については,直接診察にあたる医師により対応が行われるはずであり,また,直接診察以上の情報をカルテ解析より見出すことには本質的な困難さがある.次に,ii) 多数の患者情報の中から,症状や疾患に関する一定の傾向を読み取り,支援や対策に生かすという目的が考えられる。たとえば, 感染症の集団発生や呼吸器疾患の上昇などが把握できれば,必要な予防を講じることが出来る。カルテ解析は, 医師による労働集約的な作業が求められるために非常時に行うには困難が伴うが,自然言語処理により改善がもたらされる可能性がある,最後に,iii)歯科カルテ等を用いることで,ご遺体等の個人同定が行われるケースがある。ただし, 遺体側の特徴として, 歯科治療跡が保存性, 視認性共に優れることから, このケースにおいて自然言語処理が関与しうる余地は未知数である. ## 2.2 被災者集団に関する情報 被災者の状況の詳細な把握に際しては,上述のように個人毎の情報管理が求められる。しかしながら,発災初期など,数百人が収容された避難所から個々人の医学情報を正確に収集,管理することは容易ではない,そこで,とりわけ発災直後の混乱期において,避難所毎の大まかな人数や電気, ガス, 水道, 食料等, 集団に関する情報の収集と共有が優先されることになる.保健医療の観点からは, これらに加えて, 特別な配慮が求められる妊婦の数や, 乳児や高齢者などの災害弱者数,衛生状態,食事の加熱の有無等が求められる。さらに,支援に際しては,定量的な情報だけでなく, 被災地域のニーズや避難所で行われている工夫等が文字情報として収集されうる。 こうした現地報告からは, 様々な情報の抽出と分析が可能である。その中でも, 保健医療系の domain expert が抽出したいとした情報は,後述する被災地支援活動を行った栄養士の現地報告会 (須藤 2012) での意見を分析すると,主に 4 種類に分類された。まず,i) 要所を押さえた記録の「要約」が挙げられた。とりわけ,保健医療分野では多くの支援が交代制により行わ るため, 後発チームが支援先においてなされている活動の概要や目下の課題を効率良く知りたいというニーズが少なくない. したがって, 先発チームの報告を効率的に要約する技術により,報告する先発チーム, 報告を受ける後発チームの双方の負担を軽减できる可能性がある。また, ii) 報告文書には, べストプラクティスや避けるべき行動などの現場で見出された様々な知見が含まれる。報告文書の解析に際しては, こうした情報を適切にまとめることで, 今後の活動ガイドラインの反映に繋げたいという要望も挙げられた.妆害時のさまざまな記録から作成されたガイドラインとしては,たとえば,阪神淡路大震災後に編纂された資料が参考となるだう (内閣府 1999).さらに, iii) 災害やその支援において生じた事態と対応を整理し記録する「適切な整理と保存」へのニーズも認められた. この震災対応のアーカイブ化については, 国立国会図書館 (国立国会図書館 2012) や東北大学 (東北大学災害科学国際研究所 2012) を初めとした多くの試みがあるが,保健医療系では体系的な取り組みがなされておらず,情報系研究者による支援が望まれている。最後に,iv) 過去の報告内容を分析することで,状況把握の適切化・迅速化・省力化に向けた「報告書式の改善」に繋げたいという要望が存在した. 現地状況をより詳細に把握するために報告が詳細化すると,報告者の負担が増してしまう.しかし,苦労をして報告した情報も, 被災地の状況や今後の災害対応に生かされなければ, 報告者の士気を保つことが困難である。そこで,報告書式や手法そのものを過去の経験に基づき改善して欲しいという要望が生じることになる。これら四種の希望は,栄養士に限らず,広く保健医療系の支援活動に当てはまる一般性を有すると考えられる. ## 2.3 支援者に関する情報 次に,支援者側の情報が挙げられる。災害時の保健医療情報としては, 被災者や避難所の情報に注目が集まるが,医療支援は,医師や歯科医師, 看護師, 保健師, 薬剤師等, 他職種の連携により初めて機能する。したがって,適切な医療支援を行うためには,支援者側の情報を効率的に収集すると共に, 被災地ニーズと支援者とのマッチングを最適化していかなければならない. また, 行政における支援には厳密な労務管理が求められるために, 活動報告を適切に収集, 管理することは行政上の要請でもある. こうした情報は, 派遣前に収集される属性情報と, 派遣してから継続的に収集される活動情報に分類される。前者は, 派遣チームの編成, 派遣先, スケジュール等のマッチングに役立てるもので,言語表現が関与する余地が少ない。一方,後者は,支援者の専門性に基づく現地の課題や対応等が収集しうる可能性がある他,支援にまつわる各種の意思決定を評価,改善していくための基礎資料となりうる。実際, 東日本大震災においては, 日々届けられる派遣行政官の日報を人事部門が目視確認し,支援の改善に繋げていた自治体があったという。また,支援者は,多くの遺体や苦境に喘ぐ避難民に接することでストレスが生じがちであり,報告書を通じて支援者側のメンタルヘルスを適切に管理する仕組みも検討の余地がある. ## 2.4 まとめ このように,健康危機管理においては被災者や支援者に関する情報が欠かせない,上述の例では, 被災者情報のフィルタリング, 情報抽出, 個人同定, 被災者集団情報からの文書要約, 情報抽出,文書分類ないし情報検索技術,支援者情報からの情報抽出等が求められていることを示した。また,支援活動の最適化にとっては,上記以外にも,被害を受けていない都道府県における透析施設や老人保健施設の情報など被災地以外の情報も欠かせない.被災地以外からの情報は,定量的情報が多いが,たとえば,パンデミック対応においては,海外から刻々ともたらされる感染情報や治療効果に関する最新情報の整理など,自然言語処理が貢献しうる余地は少なくない。これらは, 高い精度よりも効率性が重視される処理であり, 多少の不完全性を許容しうる点でも,自然言語処理の有望な応用分野であると言える. 一方, 健康危機時に発生する情報には, 下記の点で, 自然言語処理を応用していく上での障害がある。まず,医療や医学に関する情報は専門性が高いことが一般的であり,些細な情報の解釈においても医学や栄養学などの domain knowledge が求められる。たとえば,降圧薬と抗精神薬が足らないという情報に触れた際,どちらがより重要か,あるいは緊急性が高いか,という解釈は,医学知識の有無により大きく異なるだろう。また,医療や公衆衛生に関わる情報には,公的機関が関与することが多く, 収集した情報に個人情報保護の制約が課され自由な解析や活用が困難となるケースが少なくない,さらに,公的機関には,様々な情報が集まり易い一方で, 情報系人材が少なく, また, 予算上, 外部に技術支援や情報解析を依頼することが困難となりがちであることから, 収集された情報が有効活用されないケースが往々にして生じる。これらの条件は,健康危機管理における自然言語処理研究を進めるうえで大きな障害となりうるが, 東日本大震災を経て, 保健医療分野における情報処理の効率化に向けた問題意識は関係者間で共有されつつあり,次に述べるような試験的な試みが進められている。 ## 3 東日本大震災における健康危機と自然言語処理 本章では, 以上の観点から, 東日本大震災において筆者らが関わった保健医療分野の言語処理について概要を整理する。 ## 3.1 日本栄養士会 支援活動報告 東日本大震災においては, 東北地方沿岸部を中心に広範囲に渡って甚大な被害が生じた。そのために, 避難所に 1 次避難した被災者のための仮設住宅が行き渡るまでにも時間が掛かり, また, 2 次避難後にも,物流等の問題から被災者が口にしうる食事のほとんどが配給によるものとなりえた。そこで,栄養の偏りによる健康被害を避けるため, 栄養士の職能団体である公益社団法人日本栄養士会が被災地における栄養管理に取り組んだ。栄養士による災害支援は新 潟県中越地震 (2004), 能登半島地震 (2007) より開始され, これらの震災においては被災者の個人単位での栄養指導と記録も試みられていた。一方,東日本大震災においては,支援者単位での活動報告が行われた。 図 1 に,今回用いられた活動報告書式を示す。震災後,MS Word,PDF,手書きと,複数の形式で,合計 4103 件の活動支援報告書が収集され,その後,数値や自由記載文が混在した MS Excel 形式へと統合した $(1,524 \mathrm{~KB})$. 下記に,報告書式に含まれる一日の活動内容についての文例を記す。 ## $0 \bigcirc \bigcirc$ 病院医師宿舎到着海外支援物資の缶詰の試食と記録 試作全体的にスパイシーな味付けが多いが,いわしの油浸けはアレンジの仕方によっては和風 になるので,避難所で実践してもらえれば,と思う。 ## ○○○小学校到着 居住者数 104 名体育館が避難所トイレ使用可自衛隊の風呂装備あり配食自衛隊(ごはん・汁物) ニッコー(おかず)夜に明朝のパンと飲み物を配る体育館内をラウンド式に巡回させてもらう ・下痢の方の水分補給について相談を受ける本部の方に食事についてのアンケートをみせてもらう.漁港らしく,魚や刺身が食べたいと書いてあるものが多い.冷やし中華の要望 : 季節が変わり長期化していることを意味している.昼前, 配食の仕分け作業が始まったので見学させてもらう. (エンボス,アルコール,マスク使用. バンダナ着用.) 今回は, 活動報告書式の構造化が不十分であったため, 以上のように,支援対象の避難所の状況報告と, 具体的な活動内容, その評価が混在した文となっている,今後,報告書式を改良することにより, 現地の避難者数や衛生状態などに関するより効率的な情報集積が可能となることが伺われる。一方で,「冷やし中華への要望」というエピソードからは,支援活動においては, 単なるカロリー量や栄養素などの数量的な問題を解決するだけなく, 調理法やメニューなど様々なレベルでの問題解決が求められている点, ならびに, 数値情報からは読み取りえない質的情報を扱う必要が理解されよう. ## 災客支援現地活動報告 (楼式1) 図 1 支援活動報告書式 次に, 報告書式中の「今日の思い」と題された一日の感想欄に記載された文例を記す. 「元の生活に戻していく」ことを目標に医療支援が縮小・撤退していく中で,過剩診療にならないように支援することの難しさを痛感した.栄養剤の配布についてもいつまでも支援できるわけではないので,今後は購入してもらうかもしくは市販食品での代替を念頭に入れて栄養ケアプランを考える必要性がある。また,患者を見ている家族も被災者であることから,患者の栄養状態だけを見るのではなく,周りの状況をよく理解した上で食事相談をしなくてはならないと思った。 災害支援においては,まず被災地全体のアセスメントを行い,必要物資の量的なマッチングを行う。しかしながら,人間的な生活を回復していく過程においては,事前に想定された調査項目に基づく量的情報の集積だけではなく, 現地の様々な状況に関する質的情報が欠かせない.上述の例では,栄養剤を配布することにより数値の上では現地ニーズを満たしても,適切な撤退戦略を立案するためには地域毎の特性や復興計画, 進渉状況を考慮することが不可欠であることが読み取れる。そのためには,オペレーションズリサーチのような最適化技術だけではなく, 現地に関する膨大な自由記載文から状況や課題, 解決提案等を効率的に抽出する技術が不可欠であり,自然言語処理が災害支援に大きく貢献しうる可能性が示唆される. そこで,筆者らのグループでは,今回の支援活動報告を活用した自然言語処理研究を支援して来た (岡崎, 鍋島, 乾 2012; 荒牧 2012; 風間 2012).また, 上述のように, 避難所の状況, 活動内容, その評価等が混在した文章からの情報抽出は効率が悪いために, より効率的な解析に向けて,支援活動報告における数值等の構造化された情報と自由記載文のべストミックスについての考察を試みた (奥村, 金谷 2012). さらに, 報告の自由記載欄に支援者自身の急性ストレスの兆候が認められたことから, 支援者の活動報告の解析によるストレス症状と早期発見による PTSD (Posttraumatic stress disorder) 対策について,検討を行っている. ## 3.2 石巻圏合同救護チーム 災害時用カルテ 災害時の医療支援においては,メンバーが入れ替わる医療チームにより医療が供給されることになるため, かかりつけ医などが継続して治療に当たる平常時以上に診療記録の重要性が高まる。また, 通院中の医療機関におけるカルテを継続利用することが困難なために,医療支援にあたる団体等が災害時用カルテ(災害時救護記録)を用いるケースもある. 今回の東日本大震災において, 石巻圈では広範な範囲に渡り医療機関が深刻な被害を受けた。 そこで, 全国より日本赤十字や医師会など様々な組織が医療支援に訪れたが, それぞれの医療チームは短期滞在であったため, どのチームがどの地域で何をするのかの調整が求められた. また, 数多くの避難所から統一的な情報収集体制を構築する必要に迫られた. そこで, 石巻圏合同救護チームは, 広範な医療圈を 15 のエリアに分割し, エリア内の情報集約や短期滞在する医療チーム間での引き継ぎをエリアの責任者に託す分割統治戦略を取った. その際, 石巻圏合同救護チームの本部がある石巻赤十字病院が主導し, 災害時用カルテの運用を行った (田中 2012). 図 2 に, 今回用いられたカルテの書式を示す. 震災後, 合計 25,387 枚のカルテが収集され,現在, 全カルテが PDF 化されている (3.19 GB). このうち, とりわけ患者の多いエリア 6,7 の 9,209 人分のカルテについて, 氏名, 年齢, 性別, 既往歴, 診断, 処方等の情報を目視で抽出し, 本災害カルテに即して設計したデータベースに入力し, 1 診療を 1 レコードとしてデー 夕化を行った結果, 合計 23,645 件のデータ化が完了している. 図 2 に示されるように, カルテにおいては略称や特殊な表現が多く, 医学知識がなければ記載されている情報を読み取ることができない,そのために,データ入力が高コストとなりがちであり, 収集した全力ルテをデー 夕化することができていない,また,データ化においては,カルテに記載された現病歴(疾患の発症から受診に至る経緯が文章で記載されたもの)等のテキストが割愛されている。そのために, 今回収集されたカルテの本格的な解析においては,データベースをインデックスとして使用し, 条件に当てはまる患者を抽出した上で, 必要な情報抽出を再びPDF から行う必要がある.たとえば,本データベースを利用してとある薬剤が処方された患者を抽出することは可能であるが,その処方が震災前より内服していた薬を在庫のある薬に切り替えた結果であるのか,震災により新たに生じた症状に対して処方した結果であるのかを知るためには,専門家が PDF 図 2 災害カルテの例 を目視確認する必要がある。 災害時に集積されるカルテは,災害による健康への影響に関する貴重な一次情報である。そのために,迅速な分析により,地域に生じた新たな感染症や慢性疾患の増悪等の情報が得られ,効果的な被災地支援に繋がりうる。また,事後解析により将来の災害にも役立ちうることになる。一方で,カルテの解析には専門知識が不可欠であり,プライバシーの問題も生じることから,効果的な解析手段が無ければ,折角の情報が死蔵されてしまう懸念がある.とりわけ,「災害により引き起こされたと考えられる病態に関する情報の抽出」は, 既存のカルテ解析とは異なる課題であるため, 今後, 災害カルテのデジタル化と効率的な解析に向けた自然言語処理技術の発展が望まれる. ## 3.3 医療・公衆衛生系メーリングリスト情報 被災地では,震災後から,行政が主導するDMAT(妆害派遣医療チーム:Disaster Medical Assistance Team), 日本医師会による JMAT (Japan Medical Assosiation Team) や日本赤十字社, 日本プライマリケア医学会による PCAT 等の医療支援チームが数多く活動した。また,保健所等において公衆衛生に携わる公衆衛生医師や保健師等の派遣や, 東日本大震災リハビリテー ション支援関連 10 団体など,職能団体による支援も数多くなされた.これらの活動により被贸地入りした医療従事者は, 震災直後より, 学会や各種団体, 同密会等の組織が維持するメーリングリストに多くの現地報告を投稿した。一例として,筆者の所属するメーリングリストに 2011 年 3 月 14 日に投稿された現地報告の抜粋を以下に示す. 同日朝より○○地区の災害現場の担当となり,要救護者の対応や死亡確認などを行いました.津波による影響で民家はすべて崩壊していましたが,歩行困難患者と低体温患者を数名処置し病院に搬送しました。ただし, その午後および翌日は死亡者の確認がほとんどという残念な状況でした.消防および救急隊,自衛隊と一緒になって活動しましたが足場も悪いため死亡者も見た目で分かるところ以外の検索は困難であり,時折来る津波警報で撤退し, 落ち着いたら再び現場に戻るを繰り返していました。死亡者も多くその場から回収できない状態です。DMAT として現場ではあまり役に立てず,本当に心が痛みました。 例文に示されているように,本報告には,i)現地の客観的な情報(津波の影響で民家はすべて崩壊), ii) 具体的な活動内容 (軽症例の処置と死亡確認), iii) 活動の医学的な評価 (DMAT は現場で役に立たなかった),iv) 報告者の主観的な感想(心が痛んだ)が混在している。しかしながら, 高度に訓練を積んだ医療従事者による現地報告には, 要所を押さえた現地情報や活動の評価等の貴重な情報が,発災後の早い段階から含まれていたことが分かる. 災害時における被災情報をソーシャルネットワークから抽出する試みにおいては,発信者の匿名性や伝聞情報による摚乱が課題となる。一方で, 医療従事者によるメーリングリストは,報告者の特定が容易であり, 情報源としての確度が高い. また, 情報の専門性も高く, 投稿数も豊富であった。そのために,災害の支援活動初期に生じる膨大なテキストからこれらの情報を効率的に抽出する技術は,その後の災害支援活動にとって極めて有益となる可能性がある。一方で,メーリングリストへの投稿文は構造を持たないことに加えて,人命に関わる意思決定に関係することから情報抽出の精度が求められ,自然言語処理には適さない課題かも知れない。しかしながら,自然言語処理を活用した各種ツールが大量の情報整理を効率化する可能性は依然として高く,首都圈における大規模災害時等,多量の情報が発生することが想定される災害への備えとして, 求められる自然言語処理技術のあり方を検討しておくことが望ましい. ## 4 おわりに わが国は,地震や風水害が多いだけでなく,狭い国土に多くの国民が住むことから,高度成長期に多発した環境污染問題など,大規模な健康問題が生じるリスクを常に抱えている。 とりわけ,首都圈直下型地震のような大災害やパンデミックは常に発生する可能性があり, これらの際には保健医療に関わる膨大なテキストが発生しうる。そこで, 厚生労働省も, 健康危機へ の備えとして, 既知の経験を収集し (谷畑他 2012), 避難者情報の効率的な把握と共有に向けた研究投資を行ってきた (水島,金谷,藤井 2012). しかしながら,情報の柔軟性を担保するうえで必要となる自由記載文に対しては,依然,効率的な処理手段を欠いている,具体的には,被災者情報のフィルタリング,情報抽出,個人同定,被災者集団情報からの文書要約,情報抽出,文書分類ないし情報検索技術,支援報告からの情報抽出等は,ほとんど手付かずの状況にある。一方,これらはまさに自然言語処理が取り組んできた課題であり,東日本大震災の教訓を生かすうえでも,今回の焱害が遺した教訓とデー夕を元に保健医療情報における大量の自由記載文を効率的に処理する備えを行っておくことが望ましい,筆者らも,可能な限りでの情報の保存と研究利用に向けた環境整備に努めており,今後, 自然言語処理研究者による集積したデータの活用と研究分野としての発展を願っている. ## 謝 辞 本稿の背景となった,東日本大震災における保健医療分野の対応を自然言語処理を用いてご支援頂く試みにおいては,グーグル株式会社賀沢秀人氏に多大なご尽力を賜った。また,奈良先端大松本裕治先生, 東北大学乾健太郎先生, 情報通信研究機構鳥澤健太郎先生, 東北大学岡崎直観先生, 東京工業大学橋本泰一先生, 東京大学荒牧英治先生, 富士通研究所落谷亮氏の各先生方からは, 多くの御助言を頂き, また, 実際の解析の労をお取り頂いた. お茶の水女子大学須藤紀子先生, 国立健康 - 栄養研究所笠岡(坪山)宜代先生, 日本栄養士会下浦佳之理事, 清水詳子様には,災害時の栄養管理に関する自然言語処理に関して御指導を賜った。また,査読者の方々には,有益なご助言を多数頂いた。この場をお借りし深謝申し上げます. ## 参考文献 荒牧英治 (2012). 言語処理による分析一支援物資の分析. 日本栄養士会雑誌, p. 8.風間淳一 (2012). 言語処理による分析一活動報告の評価情報分析. 日本栄養士会雑誌, p. 9 . 国立国会図書館 (2012). 東日本大震災アーカイブ. http://kn.ndl.go.jp/. 國井修(編)(2012). 災害時の公衆衛生一私たちにできること. 南山堂. 水島洋, 金谷泰宏, 藤井仁 (2012). モバイル端末とクラウド,CRM を活用した災害時健康支援 システムの構築. モバイルヘルスシンポジウム 2012. 内閣府 (1999). 阪神・淡路大震災教訓情報資料集. http://www.bousai.go.jp/kyoiku/kyokun/hanshin_awaji/data/. 岡崎直観,鍋島啓太,乾健太郎 (2012). 言語処理による分析一日本栄養士会活動報告の分析. 日 本栄養士会雑誌, pp. 6-8. 奥村貴史 (2009). 新型インフルエンザ対策を契機とした国立保健医療科学院における反復型開 発による感染症サーベイランスシステムの構築. 保健医療科学, 58 (3), pp. 260-264. 奥村貴史,金谷泰宏 (2012). 災害時における支援活動報告. 日本栄養士会雑誌, pp. 12-13. 震災対応セミナー実行委員会 (2012). 3.11 大震災の記録一中央省庁・被災自治体・各士業等の 対応. 民事法研究会. 須藤紀子 (2012). 東日本大震災における被災地以外の行政栄養士による食生活支援の報告会. 厚 生労働科学研究費補助金健康安全・危機管理対策総合研究事業『地域健康安全を推進するた めの人材養成・確保のあり方に関する研究』平成 23 年度総括・分担研究報告書, pp. 126-152. 田中博 (2012). 災害時と震災後の医療 IT 体制:そのグランドデザイン。情報管理, 54 (12), pp. 825-835. 谷畑健生,奥村貴史,水島洋,金谷泰宏 (2012). 健康危機発生時に向けた保健医療情報基盤の 構築と活用. 保健医療科学, 61 (4), pp. 344-347. 東北大学災害科学国際研究所 (2012). みちのく震録伝. http://shinrokuden.irides.tohoku. ac.jp/. Utani, A., Mizumoto, T., and Okumura, T. (2011). "How Geeks Responded to a Catastrophic Disaster of a High-tech Country: Rapid Development of Counter-disaster Systems for the Great East Japan Earthquake of March 2011." In Proceedings of Special Workshop on Internet and Disasters (SWID 11). ## 略歴 奥村貴史:1998 年慶應義塾大学大学院修了。2007 年国立旭川医科大学医学部医学科卒業, 同年ピッツバーグ大学大学院計算機科学科にて Ph.D. (Computer Science). 2009 年国立保健医療科学院研究情報センター情報評価室長, 2011 年より研究情報支援研究センター特命上席主任研究官. 金谷泰宏:1988 年防衛医科大学校卒業, 医学博士, 1999 年厚生省保健医療局 エイズ疾病対策課課長補佐, 2003 年防衛医科大学校防衛医学研究センター准教授,2009 年国立保健医療科学院政策科学部長,2011 年より同院健康危機管理研究部長.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 複数の言語的特徴を用いた日本語述部の同義判定 泉 朋子 $\dagger,+\dagger$ - 柴田 知秀 $\dagger \dagger$ - 齋藤 邦子 $\dagger \cdot$ 松尾 義博 $\dagger$ - 黒橋 禎夫 ${ }^{\dagger \dagger}$ 大量のテキストから有益な情報を抽出するテキストマイニング技術では,ユーザの 苦情や要望を表す述部表現の多様性が大きな問題となる。本稿では, 同じ出来事を 表している述部表現をまとめ上げるため,「メモリを消費している」と「メモリを 食っている」の「消費している」と「食っている」のような述部表現を対象に, 異 なる 2 つの述部が同義か否かを認識する同義判定を行う。述部の言語構造分析をも とに, 「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」という複数の言語知識を用い,それらを素性とした識別学習で同義判定を行った,実験の結果,既存手法に比べ,高い精度で述部の同義性を判定することが可能になった。 キーワード:同義判定,述部,機能表現,テキストマイニング,言い換え,分布類似度 ## Recognizing Semantically Equivalent Predicate Phrases Based on Several Linguistic Clues \author{ Tomoko Izumi ${ }^{\dagger, \dagger \dagger}$, Tomohide Shibata ${ }^{\dagger \dagger}$, Kuniko Saito $^{\dagger}$, Yoshihiro Matsuo ${ }^{\dagger}$ \\ and Sadao Kurohashi ${ }^{\dagger \dagger}$ } This paper proposes the recognition of semantically equivalent predicate phrases such as "consumes" and "eats" in "it consumes/eats a lot of memory." Differences in predicate expressions pose a serious problem in natural language processing applications such as text mining, which extracts text data according to a user's needs and wants. We propose a novel technique that uses various linguistic clues ranging from abstract semantic features to contextual features in order to detect a semantic similarity in different predicates. The results indicate that our proposed method achieved the highest f-score compared with baseline methods. Key Words: synonym recognition, predicate phrases, functional expressions, text mining, paraphrasing, distributional similarity ## 1 はじめに 近年,新聞や Web 上のブログだけではなく,ツイートや音声対話ログなど様々な分野のテキスト情報を利用することが可能である。これらの多様なテキストから欲しい情報を抽出する検索技術や,有益な情報のみを自動で抽出・分析するテキストマイニング技術では,表現の違い  に頑健な意味を軸にした情報抽出が求められている.たとえば,お客様の声を分析するコールセンタマイニング(e.g., 那須川 2001)では,下記の a, bの表現を,「同義である」と正しく認識・集計する必要がある。 (1) a. メモリを消費している b. メモリを食っている (2) a. キーボードが壊れた b. キーボードが故障した 検索においても,「キーボード壊れた」で検索した際に,「キーボード故障した」が含まれているテキストも表示されれば,よりユーザの意図を理解した検索が行えると考えられる. テキストマイニングのようなユーザの声の抽出・分析において重要となるのは,「消費している」,「壊れた」などといった述部である,述部は,文情報の核を表しており,商品の評判(e.g.,満足している)や苦情 (e.g., 壊れた, 使いにくい), ユーザの経験 (e.g., 堪能した) や要望 (e.g.,直してほしい) などを表す. しかし,あらゆる分野,文体のテキストを対象とした場合,述部の多様性が顕著になる。たとえば,「正常な動作が損なわれる」という出来事を表現する場合, 新聞などフォーマルな文書では「故障する」と表現されることが多いが,ブログなどインフォーマルな文書では「壊れる」 と表現されることが多い1. テキストの種類により同じ出来事でも異なる文字列で表現されるため, 異なる分野のテキストを統合した情報抽出や, テキストマイニングを行う場合は, 述部の同義性を計算機で正しく認識して分析しなくてはいけない。述部の同義性を計算機で識別することができれば,テキストマイニングなどにおいて,同義表現を正しくまとめ上げ,高精度に集計・分析を行うことが可能となる.また,検索技術においては,表現が異なるが同じことを表しているテキストを拾い上げることができ, 再現率の向上が期待できる. 本稿では, 日本語の述部に焦点を置き, 異なる 2 つの述部が同義か否かを判別する述部の同義判定手法を提案する,既存の手法では,単一のリソースにのみ依存しているために,まとめ上げられる述部の数が少ないという再現率の問題や, 異なる意味のものまで誤ってまとめ上げてしまうという精度の問題がある。そこで本稿では, 述部の言語的構造を分析し, 同義述部の認識という観点で必要な「述部の語義(辞書定義文)」,「抽象的な意味属性 (用言属性)」,「文脈 (分布類似度) , 「時制・否定・モダリティ(機能表現) 」といった言語情報を複数の言語リソー スから抽出することで,精度と再現率の双方のバランスをとった述部のまとめ上げを行う.なお, 本稿では「消費/し/て/いる」などの「内容語+機能表現」を述部と定義し,「メモリを - 消費している」と言った「項 - 述部」を単位として述部の同義判定を行う. ^{1} 2007$ 年の毎日新聞では,「故障する」と「壊れる」の出現頻度の比が「1:2.5」である. 一方, 2007 年 4 月のブログでは「故障する」と「壊れる」の出現頻度の比が「1:42」であり,「壊れる」と「故障する」は意味が完全に 1 対 1 対応するわけではないものの, 出現頻度の比がテキストによって大きく異なる. } 本稿の構成は次のとおりである。 2 節では, 関連研究とその問題点について論じる。 3 節では,述部の言語構造について論じる。 4 節では, 本稿の提案手法である複数の言語的特徴を用いた同義判定について述べる,5 節では,同義述部コーパスについて述べる,6節, 7 節では述部の同義判定実験とその考察を行う.8節は結論である。 ## 2 関連研究 ## 2.1 辞書を用いた言い換え研究 2 つの異なる表現が同義か否かを判別する研究のひとつとして,述部を対象にした言い換え研究がある。藤田・降幡・乾・松本 (2004) は, 語彙概念構造 (Lexical Conceptual Structure; Jackendoff 1992; 竹内,乾,藤田 2006)を用いて,「株価の変動が為替に影響を与えた」のような述部が機能動詞構造で構成されている文を,「株価の変動が為替に影響した」といった単純な述部に変換する言い換えを行っている。同様に,鍜治・黒橋 (2004) は,「名詞 + 格助詞 + 動詞」の構造をもつ述部を対象に「「非難を浴びる」と言った迂言表現や,「貯金をためる」と言った重複表現の認識と言い換えを,国語辞典からの定義文を手掛かりに行っている.松吉・佐藤 (2008) は, 階層構造化された日本語の機能表現辞書 (松吉, 佐藤, 宇津呂 2007) をもとに,「やるしか/ない」の機能表現にあたる「しか/ない」を,「やらざる/を/得ない」という別の表現に自動で言い換える方法を提案している. 述部を対象とした言い換えの研究を用いて,複数の言い換え表現をあらかじめ生成することで,本稿が目的とする同義述部のまとめ上げが可能である。しかし,語彙概念辞書などの特殊な言語リソースを用いて言い換えを生成する場合, リソースの規模が十分でなければ,ブログなどの幅広い表現を扱う際にカバレッジが問題となる. ## 2.2 コーパスからの分布類似度計算 2 つの異なる表現の意味が似ているか否かを判定する研究に,大量のコーパスを用いた分布類似度の研究がある (Curran 2004; Dagan, Lee, and Pereira 1999; Lee 1999; Lin 1998). 分布類似度とは, 文脈が似ている単語は意味も似ているという分布仮説 (Firth 1957) に基づき, 対象の単語の周辺に現れる単語(文脈)を素性として計算される単語の類似度である。 Szpektor and Dagan (2008) は, “X takes a nap”と “X sleeps"の関係のように, 述部と 1 つの変数を単位として分布類似度計算を行い,述部を対象に含意ルールの獲得を行った。柴田・黒橋 (2010) は,「景気が冷え込む」の「冷え込む」と「景気が悪化する」の「悪化する」のように組み合わさる項によって同義になる表現をも考慮し,大規模コーパスから項と述部 (e.g.,景気が - 悪化)を単位にした分布類似度べクトルを用いて同義語獲得を行った。 大規模コーパスから周辺単語を用いて単語の意味類似度を測る分布類似度計算は, WordNet などの特定の言語リソースを用いる手法に比べてバリエーションに富んだ表現を獲得することが可能である。しかし, 分布類似度計算には柴田・黒橋 (2010)で述べられているように, 2 つの問題がある.1つ目は,反義関係にある単語の類似度が高くなってしまう問題である。「泳ぎが得意だ」と「泳ぎが苦手た」のように, 反義関係の単語は同一の文脈で現れることができ, 結果として類似度が高くなる。2つ目は,時間経過を表す述部同士の類似度が高くなる問題である.たとえば,「(小鼻の脇などの狭い場所には)ブラシを使って粉を取って,(粉を)つけます」 の「粉を取る」と「粉をつける」のような時間経過の関係にある述部の場合, 下記のように類似した文脈で出現しやすい. (3)「粉を取る」と「粉をつける」の文脈の例 2 の文があった場合,双方とも「ブラシを使う」や「パフを使う」という「項 - 述部」を共有しているため,「粉を取る」と「粉をつける」という時間経過を表す述部同士の類似度が高くなってしまう. Yih and Qazvinian (2012) は, Wikipedia と Web スニペットを用いて計算した分布類似度や, WordNet などのシソーラスで計算された類似度を統合することで, 語の関連度を計算している。 しかし, 複数の類似度の平均值をとっているだけであり, それぞれの類似度に重みづけがされていない。また, 類似度のみを手掛かりとしているため, 反義表現と同義表現の識別は困難である. ## 2.3 教師あり学習を用いた同義判定 教師あり学習として同義表現の識別や獲得を行っている研究として Hashimoto, Torisawa, De Saeger, Kazama, and Kurohashi (2011)がある. Hashimoto et al. (2011)では, Webコーパスから定義文を自動で抽出し, 同じコンセプトを表している定義文ぺアから大量の言い換え表現を獲得している.例えば,“Osteoporosis(骨粗䯿症)”というコンセプトを定義している文のぺアから, “makes bones fragile(骨がもろくなる)”と “increases the risk of bone fracture(骨折リスクを高める) ”といった言い換え表現を獲得している. しかし, Hashimoto et al. (2011)で は,言い換え表現の獲得に定義文を用いているため, 獲得される表現は必ず何らかのコンセプトを説明している表現(もしくはその一部)になる。そのため,対象の同義表現によって説明されるコンセプトが存在しない場合は,定義文からそれら同義表現を獲得することが不可能である.例えば,「食パン - が - 出来上がった」と「食パン - が - 焼けた」のような表現で定義されるコンセプトは想像が難しいため,定義文にも出現しづらい表現であると考えられる.本稿が目的とする意見集約などのマイニングにおけるまとめ上げを行うためには,定義文に出てこない表現(すなわち, それらの表現によって説明されるコンセプトが存在しない場合)に対するカバレッジを補う必要がある。つまり,定義文という制約を加えずにブログなどの多様な表現を含む幅広い言語リソースを用いて,高い精度で同義表現の識別をする必要がある. Hagiwara (2008) は, 分布類似度の素性と文中の単語ぺアの統語構造を組み合わせて, 教師あり学習の識別問題として, 分布類似度単体よりも高精度に同義識別を行った.しかし, Hagiwara (2008)の手法では,コーパスからの言語情報のみしか用いておらず,分布類似度が不得意とする反義単語と同義単語の識別の有効性については述べられていない. Turney (2008)は, 同義語 (synonym) ・儀語 (antonym) ・関連語 (association) という3つの異なる意味関係を表す単語ペアを対象に,コーパスの周辺単語情報を素性とした識別学習を行った. Turney (2008)の手法は,あらゆる意味関係もひとつのアルゴリズムで分類できるという点で有益だが,彼が述べているように,同義を認識するタスクに特化した場合, 複数のアルゴリズムや言語情報を組み合わせた手法 (Turney, Littman, Bigham, and Shnayder, 2003) に対して精度が劣ってしまう. Weisman, Berant, Szpektor, and Dagan (2012)は, “snore(いびきをかく)”と “sleep(寝る)” といった含意関係(snore は sleep を含意する)にある動詞ぺアを対象に,文,文書, 文書全体それぞれにおける動詞ぺアの共起情報を用いて含意関係の認識を行った. 含意関係を認識するうえで必要な情報を言語学的に分析し, 動詞のクラスや, 副詞を素性とした分布類似度など新しい言語情報を入れることで,既存の手法に比べて高精度に含意関係の認識を行った。しかし, Weisman et al. (2012)は英語の動詞を対象としており,素性も英語に特化したものがある。例えば, “cover up”のような phrasal verbs (句動詞) に対して, “up”などの particle と共起しやすいかを手掛かりに,動詞の意味の一般性を計測しており,英語のような句動詞をもたない日本語で同様の事を行うのは困難である。また,日本語のように動詞以外の単語が述部に現れたり,複数の文末表現と組み合わさって述部を構成する言語を対象にする場合には,それらの意味を表現する素性を工夫する必要がある. ## 3 述部の言語的特徵 2 節で述べたように,既存手法を日本語の述部の同義判定にそのまま適用した場合, 再現率もしくは精度に問題が出る。そこで,本節では述部の同義性を正しく計算機で判別するために 必要な情報を考察するため, 述部の言語構造を言語学的な視点で分析する。本稿の対象である述部は,(4)のように内容語と複数の機能語の集まりである「機能表現」(松吉他 2007) で構成されている.「/」は形態素の区切りを表す. (4) 捨て/【内容語】なく/て/は/いけ/ない【機能表現】 述部の主な意味は, 動詞, 形容詞, 形容動詞, 名詞などの内容語が担っており, 機能表現は内容語で表現される意味に対し,時制(アスペクト),モダリティ,否定などの意味を加えている (Narrog 2005; Portner 2005). ここで,述部の主な意味を担っている内容語の言語構造を考える。図 1 は Ramchand (2010, p. 4) から抜粋した動詞 “run” の言語的情報を, 複数の言語レベルに分類したものである"2. 図 1 の, “+dynamic"と “-telic"は, "run”という動詞そのものが,動作の変化を伴う動詞であるが (+dynamic), 動作に終点がない動詞 (-telic) であることを表している(Dowty (1979)の “Activities", 金田一 (1976)の「継続動詞」を表している). 図 1 が表すように,述部の意味を考えた場合,複数の言語レベルの要素が絡み合って意味を構成していることがわかる,我々が知らない単語に出くわした場合,その単語の意味を理解するために,辞書を引いたり (Lexical-Encyclopedic information), 周辺単語を手掛かりに推測したり (Syntax, Context),また見覚えのある単語であればその本来の意味から派生されそうな意味 (Semantic) を考え, 対象単語の言語情報をできるだけ集めて意味を理解する。さらに,時制や否定, モダリティ表現なども手掛かりに,述部の意味を推測する。つまり,図 1 の複数の言語 \\ 図 1 動詞 “run” の言語構造  的情報を埋めていくことで,意味を理解すると考えることができる ${ }^{3}$. 計算機に意味を理解させるためには, これらの複数の言語的特徴を与えなくてはいけないと言える。そこで,本稿では述部の言語情報を複数のレベルに分類し,同義述部の認識という観点で必要な情報を用いて,計算機に同義の述部を認識させる. ## 4 提案手法:複数の言語的特徴を用いた同義判定 本稿では,述部の同義判定を行うために,4つの言語情報を素性とし,識別学習を用いて同義か否かを判定する。処理の流れを図 2 に示す. 4 つの言語情報は,「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」である。以下に素性の具体的な説明を行う。 図 2 同義判定処理フロー ^{3}$ Phonetics/Phonology のような音の情報に関しては, オノマトぺを除き意味と直接かかわりがないため, 本提案手法の言語情報には取り入れない. } ## 4.1 辞書定義文を用いた相互補完性・定義文類似性 述部の同義性を判別するためには, まず単語そのものの定義が必要となる (Lexical-Encyclopedic information). 我々が,単語の意味を調べるために辞書を用いるように,本稿でも国語辞書の定義文からの情報を素性として用いる。なお, 国語辞書などの定義文は, 言い換え研究においても有効性が確認されている. (e.g., 土屋 - 黒橋 2000 ; 藤田 ・乾 2001; 鍜治, 河原, 黒橋, 佐藤 2003) 述部の同義性を判別するという目的で, 辞書定義文を考察すると, 2 つの有益な特徴を見出すことができる,1つ目は,同義の述部同士は, お互いの定義文内に現れやすいという点である.これを,定義文の相互補完性とここでは呼ぶ,下記は,同義述部のペアである「出来上がる」と「完成する」の定義文の一例である. (5) [出来上がる] $ \text { 定義文:すっかりできる.完成する. } $ (6) [完成する] $ \text { 定義文:すっかりできあがること. 全部しあげること. } $ 「出来上がる」の意味を定義するために, 同義の「完成する」という述部を用いており, 同様に,「完成する」の意味を定義するために,同義の「できあがる(出来上がる)」という述部を用いている。このように,同じ意味をあらわす述部同士は,お互いの定義文内に現れやすいという特徵がある。そこで, 2 つの述部が与えられた際に,それぞれの述部に対して「相手述部の辞書定義文内に現れるか」という相互補完性の有無を第一の素性として用いる。また,「プリンターが - 動かない」といった「項 - 述部」の単位で同義判定を行うため, 項(プリンター)もしくは項と同様の名詞クラスが相手の定義文に現れたか否かも素性として用いる. 名詞クラスは, 日本語語彙大系 (池原, 宮崎, 白井, 横尾, 中岩, 小倉, 大山, 林 1999)の一般名詞意味属性を用いる. 次に, 意味が似ている述部同士は, 定義文同士も似ているという特徵がある. 下記は, 「高値た」と「高い」という同義の述部の定義文の一例である. (7) [高い] 定義文:買うのに多額の金銭がかかる,量や質にくらべて,值段が多い. (8) [高値 $]$ 定義文:値段が高いこと。高い値段. (7), (8) が示すように, 双方の定義文に「値段」という単語が含まれている。そこで, これらの定義文同士の語彙の重なりを,定義文間の内容語の重なり数を用いて素性とする. このように, 同義判別に必要な Lexical-encyclopedic な情報として, 辞書定義文の相互補完性と定義文中の語彙の重なりを素性として用いる。なお,「辞書定義文内に相互補完性があり,かつ片方の述部にのみに否定表現が入っているか否か」を区別する素性も作成した。これは,本 稿が機能表現を含んだ述部を対象としており,機能表現に含まれる否定表現が同義関係を逆転させてしまうために特別に組み込んだ素性である. ## 4.2 用言属性を用いた述部の抽象的意味属性 同義の述部は, 辞書的な意味だけではなく, より抽象的な意味レベル (Semantics) でも共通性があると考えられる. 例えば (9) の同義述部は, 日本語語彙大系 (池原他 1999) において以下のような用言属性を持つ. (9) 用言属性の例 a. 出来上がる 【生成】 b. 完成する 【生成】,【属性変化】 双方とも,「新しく何かを作り上げる」事を意味する,「生成」という属性を共通に保持している. そこで,同義判定に必要な Semantic レベルの素性として,日本語語彙大系 (池原他 1999)の用言属性を用いて,述部同士の抽象的な意味の重なりを抽出する。日本語語彙大系の用言属性には,「生成」,「知覚状態」,「物理的移動」など 36 種類の用言属性ラベルがあり,それらが階層的に構造化されている(図 3). これらの用言属性を用いて,次の 2 種類の素性を抽出する. 1つ目は,共通して保持している用言属性そのものである.(9)の場合,「出来上がる」と「完成する」が共通して保持している「生成」という用言属性を素性として用いる.2つ目は, 用言属性の重なり度合いである。(9b) が表すように,1つの述部が複数の用言属性を持つ場合がある. 複数の用言属性が付与されている場合, それらの重なりが大きければ大きいほど, 2 つの述部は似ていると考えられる。また,重なっている用言属性がより具体的であればあるほど,より類似していると考えられる。 そこで,用言属性の重なり度というものを用いて,2つの述部の用言属性の共通性を計算する. より詳細なレベルで用言属性が重なっている方がより共通性が高いと言えるため, 重なり度の算出の際に,下層の用言属性に重みをつける。重みは, ヒューリスティックに決定した。下記が,用言属性の重なり度の算出方法である。 (|Pred1 の階層 1 用言属性集合 $\cap \operatorname{Pred} 2$ の階層 1 用言属性集合 $\mid) * 1$ $+(\mid \operatorname{Pred} 1$ の階層 2 の用言属性集合 $\cap \operatorname{Pred} 2$ の階層 2 の用言属性集合 $\mid) * 1.5$ $+(\mid \operatorname{Pred} 1$ の階層 3 の用言属性集合 $\cap \operatorname{Pred} 2$ の階層 3 の用言属性集合 $\mid) * 2.0$ - 用言属性重なり度 $=\frac{+(\mid \operatorname{Pr} d 1 \text { の階層 } 4 \text { の用言属性集合 } \cap \operatorname{Pred} 2 \text { の階層 } 4 \text { の用言属性集合 } \mid) * 2.5}{(\mid \operatorname{Pr} d 1 \text { の用言属性集合 } \cup \operatorname{Pr} 2 \mathrm{C} 2 \text { の用言属性集合 } \mid)}$ これらの用言属性を用いることで,辞書定義文など語義そのものの重なり以外に,抽象的な意味レベル (Semantics)での共通性を素性として用いることができる. 図 3 日本語語彙大系用言属性 (池原他 1999) ## 4.3 分布類似度 述部が同義であれば,それら述部が現れる文脈も類似していると考えられる.Firth (1957)で述べられたように,対象の述部がどのような単語とともに現れるかが,述部の意味類似度を測るための重要な言語情報となる。 そこで, 本稿ではこれらの周辺の項や文脈の情報を, 分布類似度の値を用いて表す。分布類似度の計算は, 柴田・黒橋 (2010)の手法を用いて,「項 - 述部」もしくは「述部」を単位として行う,柴田・黒橋 (2010)は,「メモリを-消費している」のような「項 - 述部」,もしくは「消費する」という述部を単位 (u)として, 係り受け関係にある単語を素性に, 分布類似度の計算を行っている。素性は, 対象の単位 $(\mathrm{u})$ に前出する素性を pre, 対象の単位 (u) に後続する素性を postとして抽出する。例えば,「ソフトが常駐し,メモリを消費している」というような文があった場合,「メモリを-消費する」に対して,素性「常駐する:pre」を抽出する。(10)が 具体的な素性の種類である. (10)柴田・黒橋 (2010)の類似度計算の単位と素性(e.g.,メモリを-消費する) & \\ 分布類似度の計算は, Curran (2004)をもとに, 下記のように weight 関数と measure 関数に分けて行う, weight 関数は, 素性べクトルの值を適切な値に変換するためのものであり, 柴田・黒橋 (2010) では,下記のように定義した. $\cdot$ weight 関数 $ \text { weight }= \begin{cases}1 & (\mathrm{MI}>0) \\ 0 & (\text { Otherwise })\end{cases} $ $M I$ は,下記の式を用いて計算する, $\mathrm{P}(\mathrm{u})$ は,素性べクトルを作る対象単位 $(\mathrm{u})$ の出現確率を表す(すなわち,「項 - 述部」また「述部」の出現確率),P(f) は,対象に対する素性 (f) の出現確率を表す(すなわち,対象単位と係り受け関係にある格要素もしくは述部).P(u,f) は分布類似度計算の対象単位とその素性の共起確率である。 $ \mathrm{MI}=\log \frac{\mathrm{P}(\mathrm{u}, \mathrm{f})}{\mathrm{P}(\mathrm{u}) \mathrm{P}(\mathrm{f})} $ 分布類似度の計算には, JACCARD 係数と SIMPSON 係数の平均値を用いる. JACCARD 係数は,分布類似度を計算する対象 $(\mathrm{u})$ (項 - 述部もしくは述部)が共通して持つ素性 (f) を,それぞれがもつ素性の和集合で割った値である. SIMPSON 係数は,2つの対象が共通して持つ素性を,2つの対象の間で素性の数が少ない方の素性の数で割った值である. $\cdot$ measure 関数 $ \begin{gathered} \text { measure }=\frac{1}{2}(\mathrm{JACCARD}+\text { SIMPSON }) \\ \mathrm{JACCARD}=\frac{|(\mathrm{u} 1, *) \cap(\mathrm{u} 2, *)|}{|(\mathrm{u} 1, *) \cup(\mathrm{u} 2, *)|} \end{gathered} $ $ \operatorname{SIMPSON}=\frac{|(\mathrm{u} 1, *) \cap(\mathrm{u} 2, *)|}{\min (|\mathrm{u} 1, *|,|\mathrm{u} 2, *|)} $ where $ (u, *) \equiv\{f \mid \operatorname{weight}(\mathrm{u}, \mathrm{f})=1\} $ 上記で算出された,述部および項 - 述部を単位とした分布類似度を文脈 (Context)の情報として用いる. ## 4.4 述部の機能表現 述部は「内容語」と「機能表現」から構成されている.この, 機能表現の意味そのものも述部の同義性に影響する。 (11) a. 辞書に - 入って/い/ない【てい(る):継続】【ない:否定】 b. 辞書に - 載って/い/ない【てい(る):継続】【ない:否定】 c. 辞書に - 載る (11a) と (11b) は, 機能表現「て/い/ない」を共有しており, 同義述部になるが,機能表現を共有しない (11a) と (11c) は同義ではない. このように, 述部の機能表現が重なっているか否かにより,同義か否かが変わってくる. そこで, 松吉他 (2007) の日本語機能表現辞書を用いて, 述部の機能表現に「継続」や「否定」 と言った意味ラベルを付与し,対象述部の機能表現の意味ラベルが重なっている場合に,その重なった意味ラベルを素性として抽出する。またどの程度,機能表現の意味を共有しているかを表す指標として,意味ラベルの重なり率を素性として用いる,意味ラベルの重なり率は,下記のように算出する. 機能表現意味ラベル重なり率 $=\frac{(\mid \text { 述部 } 1 \text { の意味ラベルの集合 } \cap \text { 述部 } 2 \text { の意味ラベルの集合 } \mid)}{(\mid \text { 述部 } 1 \text { の意味ラベルの集合 } \cup \text { 述部 } 2 \text { の意味ラベルの集合 } \mid)}$ 以上のように, 提案手法では, 「辞書定義文」, 「用言属性」,「分布類似度」,「機能表現」という 4 つの異なる言語的特徴を用いて, 述部の同義判定を行う。素性の一覧を表 1 に示す. ## 5 同義述部コーパスの作成 同義判定モデルの作成と提案手法の評価のため,「メモリを - 消費している」のような「項述部」を単位とした同義述部コーパスを作成した。 2010 年 4 月のブログからランダム抽出した約 810 万文を対象に, 係り受け関係にある「項述部」を抽出した。述部は, Izumi, Imamura, Kikui, and Sato (2010)を用いて,述部の機能表現から終助詞など出来事の意味に影響を与えない表現を自動で削除し, 単純な述部表現に正規 表 1 素性一覧 } & 辞書定義文と述部(および項)の相互補完性 \\ 化した。項は, 日本語語彙大系 (池原他 1999)の具体名詞に属する名詞のブログ出現頻度上位 700 語を使用した。 抽出した「項 - 述部」の集合から, 項をキーとして「同義」,「含意」,「推意」,「反義」,「その他」の意味関係に属する述部のぺアを抽出した。これらの意味関係を明確にするため, Chierchia and McConnell-Ginet (2000) を参考に,異なる 2 つの述部の意味関係を下記のように 5 種類に分類し,言語テストを作成した。これに基づき作業者は「同義」「含意」、「推意」,「反義」,「その他」を判断した。(#は「文法的には正しいが意味的におかしい文」を表す.) $\cdot$ 同義 (Mutual Entailment) 定義:表層が異なる 2 つの述部が同じ出来事 (Event)を表している 言語テスト 1 : 片方の述部を否定すると,意味が通じない $ \begin{aligned} & \times 「 \text { 述部 } \mathrm{A}, \text { でも, }, \text { 述部 } \mathrm{B} \text { という訳ではない」 } \\ & \times \text { 「述部 } \mathrm{B}, \text { でも, 述部 } \mathrm{A} \text { という訳ではない」 } \end{aligned} $ 例:#「土産を買った. でも,(その土産を)購入したという訳ではない.」 言語テスト 2 : 片方の述部を推測表現(または疑問表現)にすると,意味が通じない $ \begin{aligned} & \times 「 \text { 述部 } \mathrm{A} \text {, 述部 } \mathrm{B} \text { かも知れない/のか?」 } \\ & \times 「 \text { 述部 } \mathrm{B} \text {, 述部 } \mathrm{A} \text { かも知れない/のか?」 } \end{aligned} $ 例:#「土産を購入した。(その土産を)買ったかも知れない/のか?」 $\cdot$含意 (Entailment, 「衝動買いした」は「買った」を含意する) 定義:どちらか一方の述部がもう一方の述部の意味を包含していること 言語テスト:含意されている述部を否定することができない $\times$ 「述部 $\mathrm{A}$, でも,述部 Bという訳ではない」 「述部 B,でも,述部 Aという訳ではない」 例::「土産を衝動買いした。でも,(その土産を)買ったという訳ではない.」 ○「土産を買った. でも,衝動買いしたという訳ではない.」 $\cdot$ 推意 (Implicature,「(土産が)打買い得だった」は「(土産を)買った」を推測させる) 定義:どちらか一方の述部によってもう一方の述部が「自然に推測される」 言語テスト:もう一方の述部が自然に推測されるが,含意と異なり推測される述部を 否定することができる ○「述部 $\mathrm{A}$ ,でも,述部Bという訳ではない」 「述部 $\mathrm{B}$ ,でも,述部 $\mathrm{A}$ という訳ではない」 例:○「土産がお買い得だった. でも,買ったという訳ではない.」 $\cdot$ 反義 (Contradiction) 定義:表層が異なる 2 つの述部に打いて,両方の述部が真であることが成立しない 言語テスト:両方の述部を「でも」でつなげると,意味が矛盾する $\times 「$ 述部 A. でも述部 B」 $\times$ 「述部 B。でも述部 $\mathrm{A}\rfloor$ 例:#「土産が多い.でも,(その土産が)少ない.」 $\cdot$ その他 (Others) 定義:異なる 2 つの述部において意味的な関係がない 上記の言語テストをもとに,同義述部コーパスを作成した,コーパスは, 1 次作業者が述部ペアの作成・意味関係の付与を行い,1 次評価者が指針にあっているか否かを評価した 4 . 2 人が合意した意味関係を付与したデータを 1 次データとし, 2 次作業者と 2 次評価者(第一著者) が 1 次データの修正(2 次作業者)とそのチェック(2 次評価者)を行った。その際,「推意」 に関する述部ぺアに関しては 1 次データでの一致率が良くなかったため,本研究のデータから排除した。これは,推意の定義にある「自然に推測される」という判断に個人差があるからだと考えられる。最終的には,「同義」,「含意」、「反義」、「その他」の意味関係に対し,4名の合意が取れた述部ぺアを使用した。下記が,作成されたデータの例と総数である。 (12) 同義ペア (2,843ペア) 車が - ぶつかっていた 車が - 衝突していた 食パンが - 出来上がった 食パンが - 焼けた バスが - 発車した バスが - 発した (13)含意ペア $(2,368$ ペア) 時計をーチェックした時計をー見た 庭を・散策した庭を・歩いた ^{4} 1$ 次作業者と 1 次評価者の一致率(kappa 率)は 0.85 であった. } バッグを - 新調した (14) 反義ペア $(2,227$ ペア $)$ 車が - 渋滞していた 食パンをー購入した バスを - 降りた (15) その他ペア $(4,948$ ペア $)$ 車が - ぶつかっていた 食パンにー挟んだ バスをー降りた バッグを-買った 車が - 流れていた 食パンが - 売り切れていた バスに - 乗った 車を - 止める 食パンが - 焼けた バスに - 間に合った ## 6 実験 5 節で作成した同義述部コーパスを用いて提案手法の評価を行った。辞書定義文素性の抽出には,金田一・池田 (1988)の「学研国語大辞典第二版」を,抽象的な意味属性の抽出には,日本語語彙大系 (池原他 1999) の「用言属性」を用いる。分布類似度計算には, 柴田・黒橋 (2010) と同様の手法で作成された「項 - 述部」の分布類似度モデルと,「述部」のみを単位とした分布類似度モデルを用いる。素性べクトルの構築には,Web10 億ページから抽出し,重複を除いた約 69 億文を用いた.機能表現の特徴抽出に関しては,松吉他 (2007) の日本語機能表現辞書にある機能表現の意味カテゴリーのラベルを用いる。この意味ラベルの付与には, 今村, 泉, 菊井,佐藤 $(2011)$ のタガーを用いる。 ## 6.1 学習データ 5 節で作成した同義述部コーパスから, 本稿で使用するリソースである学研国語大辞典と語彙大系の用言属性にエントリがあり,かつ分布類似度計算の「項 - 述部」の出現頻度 10 以上のデータのみを選出した。項が 422 種類からなる「同義」,「含意」,「反義」,「その他」の述部ぺアのうち, 91 種類の項に対する述部ぺアは, 本提案手法の言語的特徴を分析するための考察用データ(372ペア, held out data)として用い, 実験には使用しなかった. 残りを学習データ (3,503 ゚ア)とし,「同義」と「含意」の述部ぺアを正例,「反義」と「その他」のペアを負例として同義判定モデルの学習を行った。学習には LIBSVM (Chang \& Lin 2011)を使用し, 実験の評価には, 5 分割交差検定を行い,学習データの $4 / 5$ を用いてトレーニングを行い,残りの $1 / 5$ で評価し,これを 5 回繰り返した ${ }^{5}$ ,学習データに属する「同義」,「含意」,「反義」,「その他」 の述部ペアの数は下記のとおりである.  ・学習データの内訳 - 同義ペア (956ペア) - 含意ペア (669ペア) - 反義ペア $(758$ ペア) - その他ぺア $(1,120$ ペア) ## 6.2 比較手法 Baseline として, 次にあげる手法と比較した. 1 つ目が, 既存の大規模語彙シソーラスである日本語 WordNet (Bond, Isahara, Fujita, Uchimoto, Kuribayashi, and Kanzaki 2009)を用いた方法である.2節で述べたように,既存の言い換え研究ではシソーラスなどの特定の言語資源を用いて言い換えを行う。そこで,本稿では大規模シソーラスである WordNet を用いて,入力された述部が同じ Synsetに属していれば,同義とみなす方法で同義判定を行った, 2 つ目,3つ目は分布類似度のみを用いて同義判定を行う手法である. Baseline2 (DistPAVerb- $\theta$ ) は,提案手法の素性のひとつである項 - 述部と述部単体の分布類似度を用いて, これらが特定の閾値以上の場合は,正例とみなす方法である. Baseline3 (DistMultiAve- $\theta)^{6}$ は, Yih and Qazvinian (2012)の方法をもとに, 本提案手法で用いた言語資源である大規模コーパスからの分布類似度(項 - 述部と述部), 辞書定義文を用いた分布類似度, 語彙大系の属性から生成した分布類似度をそれぞれ計算し, その平均値を用いて, 特定の閾値以上のものを正例とみなした. 辞書定義文に関しては,対象の単語の定義文内にある内容語とその出現頻度をべクトルの素性とした. 用言属性に関しては, 対象の単語が持つ用言属性を用いてべクトルを構築した. Baseline 2 と Baseline3 の間値調整には,提案手法同様に,5 分割交差検定を行い,学習デー夕の $4 / 5$ を用いて $\mathrm{F}$ 値が最大になる閥値を求め, その閾値を用いて残りの $1 / 5$ の評価を行うという方法を 5 回繰り返した. Baseline4〜 Baseline7 は, 本提案手法で提案した特徴である「辞書定義文素性 (Definition-SVM)」,「用言属性素性 (PredClass-SVM)」,「分布類似度素性 (DistPAVerb-SVM)」,「機能表現素性 (Func-SVM)」 それぞれ単体を用いてSVM で同義判定を行う手法である。これらも,5分割交差検定を行う。 $\cdot$ 比較手法 - Baseline1 (WordNet) 日本語 WordNet (Bond et al. 2009) の Synset にあれば「正例」 - Baseline2 (DistPAVerb- $\theta$ ) 項 - 述部もしくは述部単体の分布類似度が閾値以上のものを「正例」 - Baseline3 (DistMultiAve-SVM) 大規模コーパス,辞書定義文,用言属性から個別に計算した分布類似度の平均を用いて ^{6}$ Yih and Qazvinian (2012) で提案された複数の類似度の平均値という意味で, Dist(ributional similarity) Multi(model) Ave(rage) と呼ぶ. } 閾值以上のものを「正例」 - Baseline4 7 (Definition-SVM, PredClass-SVM, DistPAVerb-SVM, Func-SVM) 提案手法の素性単体を用いて SVM で同義判定を行う 評価は, Precision (精度), Recall (再現率), $\mathrm{F}$ 值を用いて行う。なお, 精度の比較には 5 分割交差検定の平均値を用いる. $\cdot$ 精度評価の指標 $ \begin{aligned} & \text { Precision }(\text { 精度 })=\frac{\mid \text { 正解の同義の集合へシステムが同義と判別した集合 } \mid}{\mid \text { システムが同義と判別した集合 } \mid} \\ & \text { Recall }(\text { 再現率 })=\frac{\mid \text { 正解の同義の集合 } \cap \text { システムが同義と判別した集合 } \mid}{\mid \text { 正解の同義の集合 } \mid} \\ & \mathrm{F} \text { 值 }=\frac{2 * \text { Precision } * \text { Recall }}{\text { Precision }+ \text { Recall }} \end{aligned} $ ## 6.3 結果 表 2 が示すように, 提案手法が最も高い $\mathrm{F}$ 値を示した. BL1 (WordNet)の場合, Precision が 0.873 と一番高いが, Recall が 0.331 と一番低い. 一方, Yih and Qazvinian (2012)をもとに複数の類似度計算の平均を取る BL3 (DistMultiAve- $\theta$ ) の場合, Recall がすべての手法の中で一番高いものの, Precisionが 0.537 と最も低い値を出しており, 提案手法のように教師あり識別問題として同義述部の判定を行う事の有効性が確認できた。また,本提案手法の素性を単体で用いるよりも(BL4~BL7),すべての素性を用いた方が精度が高いことから,複数の言語的特徴を組み合わせた同義判定の有効性が確認できた。なお,比較手法と提案手法との $\mathrm{F}$ 值には $\mathrm{p}<0.01$ 表 2 実験結果 で統計的な有意差があった. 次に,どの素性が有効であるかを調べるために,提案手法から各素性を除いた Ablation テストを行った。すべての素性において,それぞれの素性を抜いた場合に $\mathrm{F}$ 値が低下し,分布類似度と用言属性の素性を抜いた場合には $\mathrm{F}$ 值に統計的な有意差が出た. 特に,分布類似度の素性を抜いた場合, Precision, Recall, F 值すべてが低下したため, 大規模コーパスから計算した分布類似度が同義判定の素性として一番効果があった。 ## 7 考察 同義・類義表現等を集めた大規模シソーラスである日本語 WordNet (Bond et al., 2009)を用いた場合, 同義まとめ上げの Precision は高いものの (0.873), Recall が低かった (0.331). 実験で用いたデータは, 提案手法の個々の素性の精度を正確に測るため, 学研国語大辞典と日本語語彙大系に存在し, かつ分布類似度計算の「項 - 述部」の出現頻度 10 以上のデータのみ使用するという制約を加えた。そのため, 正確な比較は難しいものの, 語彙大系や国語辞書などにエントリがある語彙のみを対象にした場合でも, WordNetのような大規模シソーラスの Synsets だけでは,カバーできない同義表現があると考えられる,下記は,BL1 (WordNet) で同義と判定することができなかった同義述部表現の一例である. (16) a. メモリを一食っている b. メモリを - 消費している (17) a. 酒を一満喫する b. 酒を一楽しむ 上記の例は,本提案手法では,正しく「同義である」と判別された述部ぺアである. 一方,大規模コーパスから構築した分布類似度計算のみを用いた場合 (BL2 (DistPAVerb- $\theta$ ), BL3 (DistMultiAve- $\theta$ )), Recall は最も高い值を出したものの,下記のように,「反義述部ペア」 や「時間経過を表す述部ぺア」も高い類似度を出してしまい, Precision が低下してしまった。 (18)分布類似度が閾値以上の反義ペア a. ハンドルを - 握る b. ハンドルを-離す (19)分布類似度が閾値以上の時間経過を表す述部ぺア a. カレーを - 食べた b. カレーが - 美味しかった これらは, 本提案手法では, 正しく「同義ではない」と認識された. ^{7} \mathrm{~F}$ 值の結果をもとに, $\mathrm{t}$ 検定を行った. } このように,提案手法では,従来の大規模シソーラスでは同義と判断できなかった幅広い同義の述部を認識しつつ, 同義ではない述部を正しく判別することができた。分布類似度が高い值を出してしまう反義関係・時間経過を表す述部の識別が,本提案手法で正しく行われたのには次のような理由があると考えられる。第一に,反義関係の識別に辞書定義文からの素性が効いた点である,下記の,動詞「握る」の定義文が表すように,辞書定義文には,同義の単語を使ってその語彙の意味を定義する傾向があるが,反義の単語を使って定義することが少ない. (20)「握る」の定義文の一例 物をつかんだり持ったりする。 「握る」という単語を別の同義の単語である「つかむ」や類義表現である「持つ」という単語で表現しており,「離さない事」のように, 反対の意味を表す単語にさらに否定表現をつけて定義することが少ない。相互補完性や語彙の重なりを特徴としたことで,同義述部を認識するだけでなく,同義ではない述部を正しく排除することができたと考えられる。 次に, 時間経過を表す述部ぺアも, 本提案手法では正しく「同義ではない」と識別できた。これは,抽象的な述部の意味を表す用言属性の重なりを素性として加えたことによるものと考えられる。 (21)時間経過を表す述部ぺアの用言属性 a. 食べた【身体動作】,【状態】 b. 美味しかった【属性】 上記のように,「食べた」と「美味しかった」は時間経過の関係を表す述部ではあるが,同義の述部と異なり,必ずしも同じ意味属性を持っているとは限らない。そのため, 用言属性にも重なりがなく,正しく「同義ではない」と判別できたと考えられる. このように, 提案手法では, WordNetのような大規模シソーラスと同等の Precision を保ちつつ,Recall をあげることできた。述部の言語構造に関する分析をもとに,複数の言語情報を素性として組み込むことによって, 同義の述部は同義, それ以外の述部は同義ではないと正しく判別できるようになった. 一方,提案手法でうまく同義と識別できなかった述部ペアは,片方の内容語が「入れる」のように多義性の高い述部ぺアや,内容語と機能表現の意味の組み合わせを考慮しなくてはいけない同義述部ぺアであった。 (22) a. カラオケに - 入れてほしい(入れる+願望) b. カラオケに - 参加したい(参加する+願望) (23) a. 筆が - 重い b. 筆が - 進まない(進む+否定) (24) a. マンガが - 大好きだ(大好き) b. マンガに - はまっている(はまる+継続) 提案手法では, 「否定」や「継続」など機能表現が共有されていると素性として考慮されるが,上記の例のように,片方にのみ特定の機能表現が入ることによって同義になる述部を識別することは不可能である.今後は,機能表現の素性の加え方を工夫し,上記のように特定の機能表現をもった述部とのみ同義になるような述部ぺアの同義判定も考慮していきたい。また,本提案手法では項にあたる名詞句は同じ条件での同義判定であるため,「景気が - 冷え込む」と「経済が - 悪化する」のように名詞句が異なる場合の同義判定への適用には,名詞句のまとめ上げも検討する必要がある,今後は,項が異なる場合の同義判定も考慮し,大規模データからの情報抽出・集計を行うマイニングでの本提案手法の有効性を検討したい。 ## 8 結論 本稿では,「メモリを消費している」と「メモリを食っている」の「消費している」と「食っている」といった内容語と機能表現からなる述部を対象に,異なる 2 つの述部が同義か否かを判定する同義判定手法を提案した。述部の言語構造に着目し, 同義述部を認識するという観点で必要な特徴を複数の言語的レベルで分析した。これらの分析をもとに,述部の同義判定に「辞書定義文」,「用言属性」,「分布類似度」、「機能表現」という 4 つの言語知識を用いた.実験の結果,既存の分布類似度のみを用いた手法では判別できなかった反義・時間経過関係の述部を正しく識別しつつ,大規模シソーラスではカバーできなかった多様な同義述部の識別が可能となった.さらに,文情報の核を表す述部単体の同義判定だけではなく,「メモリを消費している」 と「メモリを食っている」のように項が加わることで同義となる表現も扱うことが出来るようになり,テキストに記述されている評判や苦情,ユーザの経験など重要な情報を表す表現の抽出やまとめ上げが可能になると考える。 今後は, これらの同義判定を実際のテキストマイニングアプリケーションに用いることで同義述部まとめ上げの効果を明確にするとともに,本提案手法で考察した複数の言語的特徴を用いて,反義関係の識別など他の意味関係抽出への適用性を検討したい. ## 参考文献 Bond, F., Isahara, H., Fujita, S., Uchimoto, K., Kuribayashi, T. and Kanzaki, K. (2009). "Enhancing the Japanese WordNet." In Proceedings of the 7th Workshop on Asian Language Resources, in Conjunction with ACL-IJCNLP 2009, pp. 1-8, Singapore. Chang, C.-C. and Lin, C.-J. (2011). "LIBSVM: A Library for Support Vector Machines." ACM Transactions on Intelligent Systems and Technology (TIST), 2(3), No. 27, pp. 1-27. Chierchia, G. and McConnell-Ginet, S. (2000). Meaning and Grammar: An Introduction to Se- mantics (2nd ed). Cambridge, MA: The MIT Press. Curran, J. R. (2004). From Distributional to Semantic Similarity. Doctoral Dissertation, University of Edinburgh, United Kingdom. Dagan, I., Lee, L. and Pereira, F. C. N. (1999). "Similarity-Based Models of Word Cooccurrence Probabilities." Machine Learning - Special Issue on Natural Language Learning, 34(1-3), pp. 43-69. Dowty, D. (1979). Word Meaning and Montague Grammar: The Semantics of Verbs and Times in Generative Semantics and in Montague's PTQ. Dordrecht: D. Reidel. Firth, J. (1957). "A Synopsis of Linguistic Theory, 1930-1955." Studies in Linguistic Analysis, pp. 10-32. 藤田篤, 乾健太郎 (2001). 語釈文を利用した普通名詞の同概念語への言い換え. 言語処理学会第 7 回年次大会発表論文集, pp. 331-334. 藤田篤, 乾健太郎 (2004). 言い換え技術に関する研究動向. 自然言語処理, 11(5), pp. 151-198. 藤田篤, 降幡建太郎, 乾健太郎, 松本裕治 (2004). 語彙概念構造に基づく言い換え生成一機能動 詞構文の言い換えを例題に。情報処理学会論文誌, 47 (6), pp. 1963-1975. Hagiwara, M. (2008). "A Supervised Learning Approach to Automatic Synonym Identification based on Distributional Features." In Proceedings of the ACL-08: HLT Student Research Workshop (Companion Volume), pp. 1-6. Hashimoto, C., Torisawa, K., De Saeger, S., Kazama, J. and Kurohashi, S. (2011). "Extracting Paraphrases from Definition Sentences on the Web." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics, pp. 1087-1097. 池原悟, 宮崎正弘, 白井諭, 横尾昭男, 中岩浩巳, 小倉健太郎, 大山芳史, 林良彦 (1999). 日本語語彙大系 CD-ROM 版. 岩波書店. 今村賢治, 泉朋子, 菊井玄一郎, 佐藤理史 (2011). 述部機能表現の意味ラベルタガー. 言語処理学会第 17 回年次大会発表論文集, pp. 308-311. Izumi, T., Imamura, K., Kikui, G. and Sato, S. (2010). "Standardizing Complex Functional Expressions in Japanese Predicates: Applying Theoretically-based Paraphrasing Rules." In Proceedings of the Workshop on Multiword Expressions: from Theory to Applications, pp. 6371. Jackendoff, R. S. (1992). Semantic Structure. Cambridge, MA: The MIT Press. 鍜治伸裕, 河原大輔, 黒橋禎夫, 佐藤理史 (2003). 格フレームの対応付けに基づく用言の言い換之. 自然言語処理, $10(4)$, pp. 65-81. 鍜治伸裕, 黒橋禎夫 (2004). 迂言表現と重複表現の言い換え. 自然言語処理, 11 (1), pp. 83-106.金田一春彦 (1976). 日本語動詞のアスペクト。むぎ書房. 金田一春彦, 池田弥三郎 (1988). 学研国語大辞典第二版. 学習研究社. Lee, L. (1999). "Measures of Distributional Similarity." In Proceedings of the 37th Annual Meeting of the Association for Computational Linguistics, pp. 25-32. Lin, D. (1998). "An Information-Theoretic Definition of Similarity." In Proceedings of the 15th International Conference on Machine Learning, pp. 296-394. 松吉俊, 佐藤理史, 宇津呂武仁 (2007). 日本語機能表現辞書の編纂. 自然言語処理, 14 (5), pp. 123146. 松吉俊, 佐藤理史 (2008). 文体と難易度を制御可能な日本語機能表現の言い換え. 自然言語処理, 15 (2), pp. 75-99. Narrog, H. (2005). "On Defining Modality Again." Language Sciences, 27(2), pp. 165-192. 那須川哲哉 (2001).コールセンターにおけるテキストマイニング. 人工知能学会誌, 16 (2), pp. 219-225. Portner, Paul H. (2005). What is meaning?: Fundamentals of formal semantics. Malden, MA: Blackwell. Ramchand, G. C. (2010). Verb Meaning and the Lexicon: A First-Phase Syntax. New York: Cambridge University Press. 柴田知秀, 黒橋禎夫 (2010). 文脈に依存した述語の同義関係獲得. 情報処理学会研究報告 (IPSJ SIG Technical Report), pp. 1-6. Szpektor, I. and Dagan, I. (2008). Learning Entailment Rules for Unary Templates. In Proceedings of the 22nd International Conference on Computational Linguistics (Coling 2008), pp. 849856 . 竹内孔一, 乾健太郎, 藤田篤 (2006). 語彙概念構造に基づく日本語動詞の統語・意味特性の記述.影山太郎 (編).レキシコンフォーラム No. 2, pp. 85-120. ひつじ書房. 土屋雅稔, 黒橋禎夫 (2000). MDL 原理に基づく辞書定義文の圧縮と共通性の発見. 情報処理学会自然言語処理研究会 (NL-140-7), pp. 47-54. Turney, P. (2008). "A Uniform Approach to Analogies, Synonyms, Antonyms and Associations." In Proceedings of the 22nd International Conference on Computational Linguistics, pp. 905912 . Turney, P., Littman, M., Bigham, J. and Shnayder, V. (2003). "Combining Independent Modules to Solve Multiple-choice Synonym and Analogy Problems." In Proceedings of the International Conference on Recent Advances in Natural Language Processing, pp. 482-489. Weisman, H., Berant, J., Szpektor, I. and Dagan, I. (2012). "Learning Verb Inference Rules from Linguistically-Motivated Evidence." In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 194-204. Yih, W. and Qazivinian, V. (2012). "Measuring Word Relatedness Using Heterogeneous Vector Space Models." In Proceedings of 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 616-620. ## 略歴 泉朋子:2005 年北海道教育大学国際理解教育課程卒業, 2007 年ボストン大学大学院人文科学部応用言語学科修了, 2008 年日本電信電話株式会社入社.現在, NTT メディアインテリジェンス研究所研究員, 京都大学大学院情報学研究科博士後期課程在学. 自然言語処理研究開発に従事. 言語処理学会会員. 柴田知秀:2002 年東京大学工学部電子情報工学科卒業, 2007 年東京大学大学院情報理工学系研究科博士課程修了. 博士 (情報理工学). 京都大学大学院情報学研究科特任助教を経て, 2009 年より同助教, 現在に至る. 自然言語処理の研究に従事. 言語処理学会, 情報処理学会, 各会員. 齋藤邦子:1996 年東京大学理学部化学科卒業, 1998 年同大学院修士課程修了,同年日本電信電話株式会社入社. 現在, NTTメディアインテリジェンス研究所主任研究員. 自然言語処理研究開発に従事. 言語処理学会, 情報処理学会,各会員. 松尾義博: 1988 年大阪大学理学部物理学科卒業, 1990 年同大大学院研究科博士前期課程修了, 同年日本電信電話株式会社入社. 現在, NTTメディアインテリジェンス研究所主幹研究員. 機械翻訳, 自然言語処理の研究に従事. 情報処理学会, 言語処理学会, 各会員. 黒橋禎夫:1994 年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士 (工学). 2006 年 4 月より京都大学大学院情報学研究科教授. 自然言語処理, 知識情報処理の研究に従事. 言語処理学会 10 周年記念論文賞等を受賞.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 冗長性制約付きナップサック問題に基づく複数文書要約モデル 本論文では,複数文書要約を壳長性制約付きナップサック問題として捉える。この 問題に基づく要約モデルは, ナップサック問題に基づく要約モデルに対し, 壳長性 を削減するための制約を加えることで得られる。この問題は NP 困難であり, 計算量が大きいことから, 高速に求解するための近似解法として, ラグランジュヒュー リスティックに基づくデコーディングアルゴリズムを提案する. ROUGE に基づく 評価によれば, 我々の提案する要約モデルは, モデルの最適解において, 最大被覆問題に基づく要約モデルを上回る性能を持つ。要約の速度に関しても評価を行い,我々の提案するデコーディングアルゴリズムは最大被覆問題に基づく要約モデルの 最適解と同水準の近似解を, 整数計画ソルバーと比べ 100 倍以上高速に発見できる ことがわかった。 キーワード : 自動要約, 複数文書要約, ナップサック問題, 最大被覆問題, ラグランジュ緩和 ## Multi-Document Summarization Model Based on Redundancy-Constrained Knapsack Problem \author{ Hitoshi Nishikawa ${ }^{\dagger, \dagger}$, Tsutomu Hirao ${ }^{\dagger \dagger}$, Toshiro Makino ${ }^{\dagger}$, \\ Yoshihiro Matsuo $^{\dagger}$ and Yuji Matsumoto ${ }^{\dagger \dagger}$ } In this study, we regard multi-document summarization as a redundancy-constrained knapsack problem. The summarization model based on this formulation is obtained by adding a constraint that curbs redundancy in the summary to a summarization model based on the Knapsack problem. As the redundancy-constrained knapsack problem is an NP-hard problem and its computational cost is high, we propose a fast decoding method based on the Lagrange heuristic to quickly locate an approximate solution. Experiments based on ROUGE evaluation show that our proposed model outperforms the state-of-the-art text summarization model, the maximum coverage model, in finding the optimal solution. We also show that our decoding method finds a good approximate solution, which is comparable to the optimal solution of the maximum coverage model, more than 100 times faster than an integer linear programming solver. Key Words: Automatic Summarization, Multi-Document Summarization, Knapsack Problem, Maximum Coverage Problem, Lagrange Relaxation  ## 1 はじめに 現在の自動要約の多くは文を単位にした処理を行っている (奥村,難波 2005). 具体的には, まず入力された文書集合を文分割器を用いて文集合に変換する。次に,文集合から,要約長を満たす文の組み合わせを, 要約としての善し悪しを与える何らかの基準に基づいて選び出す.最後に,選び出された文に適当な順序を与えることによって要約は生成される. 近年では, 複数文書の自動要約は最大被覆問題の形で定式化されることが多い (Filatova and Hatzivassiloglou 2004; Yih, Goodman, Vanderwende, and Suzuki 2007; 高村, 奥村 2008; Gillick and Favre 2009; Higashinaka, Minami, Nishikawa, Dohsaka, Meguro, Kobashikawa, Masataki, Yoshioka, Takahashi, and Kikui 2010; 西川, 長谷川, 松尾, 菊井 2013). これは, 入力文書集合に含まれる単語のユニグラムやバイグラムといった単位を,与えられた要約長を満たす文の集合によってできる限り被覆することによって要約を生成するものである. 最大被覆問題に基づ 〈要約モデル ${ }^{1}$ (以降, 最大被覆モデルと呼ぶ)は, 複数文書要約において問題となる要約の冗長性をうまく取り扱うことができるため,複数文書要約モデルとして高い能力を持つことが実証されている (高村,奥村 2008; Gillick and Favre 2009)。しかし,その計算複雑性は NP 困難である (Khuller, Moss, and Naor 1999) ため, 入力文書集合が大規模になった場合, 最適解を求める際に多大な時間を要する恐れがある。本論文で後に詳述する実験では, 30 種類の入力文書集合を要約するために 1 週間以上の時間を要した。平均すると,1つの入力文書集合を要約するために 8 時間以上を要しており,これではとても実用的とは言えない. 一方,ナップサック問題として自動要約を定式化した場合,動的計画法を用いることで擬多項式時間で最適解を得ることができる (Korte and Vygen 2008; 平尾, 鈴木, 磯崎 2009b). ナップサック問題に基づく要約モデル(以降, ナップサックモデルと呼ぶ)では,個別の文に重要度を与え, 与えられた要約長内で文の重要度の和を最大化する問題として自動要約は表現される.この問題は個別の文にスコアを与え, 文のスコアの和を最大化する形式であるため, 要約に含まれる壳長性が考慮されない。そのため, 最大被覆モデルとは異なり冗長な要約を生成する恐れがある。 最大被覆モデルとナップサックモデルを比較すると, 前者は複数文書要約モデルとして高い性能を持つものの求解に時間を要する。一方, 後者は複数文書要約モデルとしての性能は芳しくないものの高速に求解できる. 本論文では,このトレードオフを解決する要約モデルを提案する。本論文の提案する要約モデルは,動的計画法によって擬多項式時間で最適解を得られるナップサック問題の性質を活か  表 1 冗長性制約付きナップサックモデルの優位性 しつつ,要約の朵長性を制限する制約を陽に加えたものである,以降,本論文ではこの複数文書要約モデルを壳長性制約付きナップサックモデルと呼ぶことにする. 冗長性を制限する制約をナップサックモデルに加えることで冗長性の少ない要約を得ることができるが, 再び最適解の求解は困難となるため, 本論文では, ラグランジュヒューリスティック (Haddadi 1997; Umetani and Yagiura 2007) を用いて壳長性制約付きナップサックモデルの近似解を得る方法を提案する。 ラグランジュヒューリスティックはラグランジュ緩和によって得られる緩和解から何らかのヒユーリスティックを用いて実行可能解を得るもので, 集合被覆問題において良好な近似解が得られることが知られている (Umetani and Yagiura 2007). 本論文の貢献は, 新しい要約モデル(㔯長性制約付きナップサックモデル)の開発, および当該モデルに対する最適化手法の提案(ラグランジュヒューリスティックによるデコーディング)の両者にある. 艺長性制約付きナップサックモデルの, 最大被覆モデルおよびナップサックモデルに対する優位性を表 1 に示す。提案する要約モデルを提案する最適化手法でデコードすることで, 最大被覆モデルの要約品質を, ナップサックモデルの要約速度に近い速度で得ることができる. 以下, 2 節では関連研究について述べる。 3 節では提案する要約モデルについて述べる. 4 節では,デコーディングのためのアルゴリズムについて述べる。 5 節では提案手法の性能を実験によって検証する。 6 節では本論文についてまとめる. ## 2 関連研究 複数文書要約においては,要約の冗長性に対する対処が重要な課題の 1 つである (奥村,難波 2005). 複数の文書から 1 つの要約を生成する際に, 複数の文書が類似する情報を含んでいるときには,類似する情報がいずれも要約に含まれる恐れがある.複数文書要約の目的を鑑みると,類似する情報が要約に 2 度含まれることは好ましくないため, この問題に対処する必要がある. この冗長性に対する対処として, Filatova らによって最大被覆問題による要約モデルが提案された (Filatova and Hatzivassiloglou 2004)。最大被覆問題による要約モデルは文の集合と要約長を入力とする.集合中の文はそれぞれ何らかの概念を含んでおり,この概念はその性質に応じて重要度を持っている。概念はユニグラムやバイグラムなど, 文から抽出できる何らかの単 位である。また,文はそれぞれその単語数や文字数に応じて,長さを持っている.最大被覆問題の最適解は,合計の長さが要約長を超えない文の集合のうち,集合中の文が持っている概念の重要度の和が最大となるものである。ただし,文の集合に含まれる概念の重要度の和を計算するときには,同じ概念は一度しか数えない,例えば,文の集合にある概念が 3 つ含まれていたとしても,最大被覆問題においては,文の集合に含まれる概念の重要度の和は,その概念が 1 つしか含まれないときと同じである. 複数文書の要約を最大被覆問題として考えた場合, 同じ概念は一度しか数えないという性質が重要な役割を果たす。すなわち, 文が含む概念を情報とすると, 同じ情報を 3 つ含んだ要約も同じ情報を 1 つ含んだ要約も解としての良さは同じであり,よりよい解はより多様な情報を含んだ解である. このような, 多様な情報を含んだ解がより良好な解であるという最大被覆問題の性質は, 複数文書要約に必要なモデルの性質として適切であり,これまで最大被覆問題に基づいた要約モデルがいくつも提案されてきた. Filatova らは単語を概念として, 重要度を tf-idfで与え, これを貪欲法 (Khuller et al. 1999) で解いた. Yih らはスタックデコーダ (Jelinek 1969) を用いてこれを解いた (Yih et al. 2007). 高村らはこれに整数計画問題としての厳密な定式を与え, 近似解法と分枝限定法による結果を報告した (高村, 奥村 2008). Gillick らも同様に整数計画問題としての定式を与え結果を報告した (Gillick and Favre 2009). これらは全て新聞記事を要約の対象としているが,他の領域を対象にした複数文書要約も行われている。東中らはコンタクトセンタログを要約の対象として, 発話を文, 発話に含まれる単語を概念とする要約モデルを提案した (Higashinaka et al. 2010). 西川らはレビュー文書集合を要約の対象として, 商品やサービスに対して評価を行っている記述を概念の単位とする複数文書要約モデルを提案した (西川他 2013). 最大被覆問題は NP 困難である (Khuller et al. 1999) ため, 解の探索が重要な課題である。貪欲法のような単純な探索法を用いた場合,良好な解を得られる可能性は必ずしも高くないものの, 高速に解を得られる. Khuller らによって提案された貪欲法による最大被覆問題の解は, 最悪でも最適解の目的関数値の $(1-1 / e) / 2$ を達成する (Khuller et al. 1999). 高村らはこれを複数文書要約に応用して結果を報告している (高村, 奥村 2008). スタックデコーダのようなより複雑な探索法を用いることによってより良好な解を得られる可能性が高まるが, 探索に要する時間も増加する。分枝限定法を用いることで最適解を得ることができるものの, 問題の規模が増加するにつれて探索に要する時間は著しく増加する. 単一文書要約に目を向けると, 単一文書要約は冗長性が問題となる恐れが少ないため, 兮長性を加味しない手法を利用することができる,単一文書要約は,ナップサック問題として定式化できる (McDonald 2007; 平尾他 2009b). ナップサック問題による要約モデルも文の集合と要約長を入力とする。最大被覆問題と異なり,ナップサック問題はそれぞれの文が直接重要度 を持っている.ナップサック問題の最適解は, 合計の長さが要約長を超えない文の集合のうち,集合を構成する文の重要度の和が最大となるものである.ナップサック問題の最適解は動的計画法の一種である動的計画ナップサックアルゴリズムによって擬多項式時間で求めることができる (Korte and Vygen 2008). そのため, ナップサック問題の最適解は高速に求めることができる。しかし,ナップサック問題は文に対して直接重要度を定義し,その和を最大化するものであるため,壳長性を削減する仕組みを持たない。従って,複数文書要約に適用した場合,䒕長な要約が生成される恐れがある. 先に述べたように,最大被覆問題は複数文書要約に適した性質を持っているものの,良好な解の探索には多大な時間を要する。一方,ナップサック問題は複数文書要約に適さないものの,最適解の探索は容易である。本論文で提案する方法は, このトレードオフを解決するため, ナップサック問題に対して冗長性を削減する制約を加えたものである. ## 3 最大被覆モデルとナップサックモデル ここでは最大被覆問題に基づいた要約モデル, 最大被覆モデルと, ナップサック問題に基づいた要約モデル, ナップサックモデルを比較する. ## 3.1 最大被覆モデル $n$ 文の入力および,それらに含まれる $m$ 個の概念を考える。概念は先に述べたよう単語のユニグラムやバイグラムなどであるが,文中から抽出できる他の何らかの情報でもよい. $\mathrm{x}$ を文 $i$ が要約に含まれる際に $x_{i}=1$ となる決定変数を要素とするべクトルとする. $\mathbf{z}$ を概念 $j$ が要約に含まれる際に $z_{j}=1$ となる決定変数を要素とするべクトルとする. $\mathbf{w}$ を概念 $j$ の重要度 $w_{j}$ を要素とするべクトルとする.行列 A の要素 $a_{j, i}$ を文 $i$ に含まれる概念 $j$ の数とする. l を文 $i$ の長さ $l_{i}$ を要素とするべクトルとする. $K$ を要約長とする.このとき,最大被覆問題は以下のように定式化される。 $ \begin{array}{ll} \max _{\mathbf{z}} & \mathbf{w}^{\top} \mathbf{z} \\ \text { s.t. } & \mathbf{A x} \geq \mathbf{z} \\ & \mathbf{x} \in\{0,1\}^{n} \\ & \mathbf{z} \in\{0,1\}^{m} \\ & \mathbf{l}^{\top} \mathbf{x} \leq K \end{array} $ 式 (1) が目的関数であり, 式 $(2)^{2}$ から式 (5) が制約である. 式 (4) が示すように $\mathbf{z}$ の要素は 0 あるいは 1 である. もし概念 $z_{j}$ が要約に含まれれば, $z_{j}=1$ となり, その重要度 $w_{j}$ は目的関数に加算される。可能であれば全ての概念を要約に含めたいが,要約長の制限によってはそれは許されない,式 $(2)$ が示すように,概念 $z_{j}$ を要約に含めるためには, $z_{j}$ を含むいずれかの文が要約として選択されていなければならない. 仮に文 $x_{i}$ が要約に含まれた場合, 式 (5)の左辺の値は $l_{i}$ だけ増える。式 (5) によって要約として選択された文の長さの合計は $K$ を超えることが許されない. 式 (3) の示すように $\mathrm{x}$ の要素は 0 あるいは 1 である. このことは 1 つの文は一度しか要約に含めないことを示す。 これらのことから, 最大被覆モデルの最適解は, 要約長を満たす文の組み合わせを全て試し,全ての組み合わせに対して $\mathbf{z}$ を計算し, $\mathbf{w}$ とかけあわせ,かけあわせた値が最大となる文の組み合わせを探し出せば見つけられるとわかる。しかし,一部の組み合わせは要約長を満たさな することは困難である。 ## 3.2 ナップサックモデル 次に,ナップサック問題に目を向けることにする. $\mathbf{x}$ を文 $i$ が要約に含まれる際に $x_{i}=1$ となる決定変数を要素とするべクトルとする。 $\mathbf{z}$ を概念 $j$ が要約に含まれる際に $z_{j}=1$ となる決定変数を要素とするべクトルとする。上述した最大被覆モデルと同様の記法に従ってナップサックモデルを記述すると以下のようになる. $ \begin{array}{cl} \max _{\mathbf{z}} & \mathbf{w}^{\top} \mathbf{z} \\ \text { s.t. } & \mathbf{A x}=\mathbf{z} \\ & \mathbf{x} \in\{0,1\}^{n} \\ & \mathbf{z} \in\left(\mathbb{N}^{0}\right)^{m} \\ & \mathbf{l}^{\top} \mathbf{x} \leq K \end{array} $ ここで, $\mathbb{N}^{0}$ は, 0 を含む, 0 以上の自然数である. 目的関数である式 (6), 1 つ文は一度しか要約に含めないとする制約である式 (8), 要約の長さに関する制約である式 (10) は最大被覆モデルと変わらないものの, 式 (2) と式 (7), 式 (4) と式 (9) がそれぞれ異なる. 式 (4) ではべクトル z は 0 と 1 を要素とするべクトルであったが, 式 (9) ではべクトル $\mathbf{z}$ は 0 以上の自然数を要素とするべクトルである.最大被覆モデルでは要約に同じ概念が何個含ま $ と $\mathbf{b}$ に大小関係 $\mathbf{a} \geq \mathbf{b}$ が成り立つのは, ベクトル $\mathbf{a}$ の要素 $a_{i}$ とべクトル $\mathbf{b}$ の要素 $b_{i}$ に $a_{i} \geq b_{i}(\forall i)$ が成り立つときとする. } れていようともそれぞれの概念について目的関数において一度しかその重要度を加算しなかった. それに対してナップサックモデルでは要約に同じ概念が複数含まれていた場合その数だけ重要度を目的関数において加算する。この性質のため, ナップサックモデルを用いて複数文書要約を行った場合には冗長な要約ができる可能性が高く,したがって,ナップサックモデルの複数文書要約における性能は芳しいものではない. 式 (7) は,式 (2) と異なり,文が含む概念の数をそのままべクトル $\mathbf{z}$ に反映させる.例えば,文 1 は概念 5 を 2 つ含むとすると, $a_{5,1}=2$ である。文 2 は概念 5 を 1 つ含むとすると, $a_{5,2}=1$ である. 文 1 と文 2 のいずれもが要約に選ばれたとすると(すなわち $x_{1}=1, x_{2}=1$ ),式 (7) から, $z_{5}=a_{5,1} \times x_{1}+a_{5,2} \times x_{2}=2 \times 1+1 \times 1=3$ となり概念 5 は要約に 3 つ含まれることになる. ## 4 冗長性制約付きナップサックモデル ## 4.1 ナップサックモデルへの冗長性制約の付与 前節で述べたように,最大被覆問題が冗長性に強い理由は式 (4) にあり,ナップサックモデルが冗長性に弱い理由は式 (9) であった。 そこで,式 (9) に工夫を施すことでナップサックモデルの宇長性を抑制することを考える。すなわち,ある単語が要約に含まれる回数を直接制御することで,ナップサックモデルの冗長性を削減する。本論文の主たる貢献はここにある. $ \begin{array}{ll} \max _{\mathbf{z}} & \mathbf{w}^{\top} \mathbf{z} \\ \text { s.t. } & \mathbf{A} \mathbf{x}=\mathbf{z} \\ & \mathbf{x} \in\{0,1\}^{n} \\ & \mathbf{z} \in\left.\{z_{j} \mid \mathbb{N}^{0} \cap\left[0, r_{j}\right]\right.\}^{m} \\ & \mathbf{l}^{\top} \mathbf{x} \leq K \end{array} $ 式 (14) は, ベクトル $\mathrm{z}$ の各要素は 0 以上 $r_{j}$ 以下の自然数であることを示す. すなわち, 各概念が要約に含まれてよい個数を制限するべクトル $\mathbf{r}=\left(r_{1}, r_{2}, \ldots, r_{m}\right)$ を考え,これによって要約の艺長性を削減する。本論文では式 (11) から式 (15) で記述される要約モデルを壳長性制約付きナップサックモデルと呼ぶ. このモデルは最大被覆モデルと等価ではない,最大被覆モデルは,要約に概念が複数含まれることを許す。ただし,目的関数を計算する上では 1 つの概念の重要度は一度しか加えない。 それに対し,壳長性制約付きナップサックモデルは,ある概念が要約に含まれる数を直接制限 する ${ }^{3}$. 上に述べた例と同じように, 文 1 は概念 5 を 2 つ含み $\left(a_{5,1}=2\right)$, 文 2 は概念 5 を 1 つ含むとする $\left(a_{5,2}=1\right)$. このとき $r_{5}=2$ であったとすると, 文 1 と文 2 を同時に要約に含めることはできない,概念 5 は要約には 2 つしか含めることができないが,文 1 と文 2 いずれも要約に含めてしまうと要約には概念 5 が 3 つ含まれてしまうからである.最大被覆モデルでは,長さの制約に違反しない限り,このような組み合わせも許される。一方,朵長性制約付きナップサックモデルでは式 (14) が示す制約を違反する組み合わせは許されない. ナップサックモデルに式 (14) が示す冗長性に関する制約(以下,㔯長性制約と呼ぶ)を加えることで冗長性を削減することができるが,動的計画ナップサックアルゴリズムで擬多項式時間で最適解を求めることはできなくなる 4 . 穴長性制約付きナップサックモデルを動的計画法で解くことは可能だが5, 宇長性制約を考慮するためには,探索の過程において,ある時点での要約に含まれる概念の数を記録しておかなけれげならない。ある時点において要約に含まれる概念の数の組み合わせは複数存在するため, これによって探索空間が増大してしまい, 素早い求解ができなくなる. ## 4.2 几長性制約のラグランジュ緩和 この冗長性制約付きナップサックモデルからて長性制約を除去すれば,元のナップサックモデルが得られる。そこで,この壳長性制約をラグランジュ緩和 (Korte and Vygen 2008) する。以下は,式 (14)を緩和し, ベクトル $\mathbf{r}$ による宇長性制約を目的関数に組み込んだものである. $ \begin{array}{ll} \max _{\mathbf{z}} & \mathbf{w}^{\top} \mathbf{z}+\boldsymbol{\lambda}(\mathbf{r}-\mathbf{z}) \\ \text { s.t. } & \mathbf{A x}=\mathbf{z} \\ & \mathbf{x} \in\{0,1\}^{n} \\ & \mathbf{z} \in\left(\mathbb{N}^{0}\right)^{m} \\ & \boldsymbol{\lambda} \in\left(\mathbb{R}^{+}\right)^{m} \\ & \mathbf{l}^{\top} \mathbf{x} \leq K \end{array} $ $\boldsymbol{\lambda}=\left(\lambda_{1}, \lambda_{2}, \ldots, \lambda_{m}\right)$ は非負のラグランジュ乗数ベクトルである. 式 (16) から式 $(21)$ は, 目的関数である式 (16) の 2 つ目の項 $\boldsymbol{\lambda}(\mathbf{r}-\mathbf{z})$ および式 (20) を除いてナップサックモデルと同じ $ を通じて排他的な制約が与えられているものとみなすと,㔯長制約付きナップサックモデルは,排他制約付きナップサックモデル(Yamada, Kataoka, and Watanabe 2002) とみなせる。,例えば,上に述べた文 1 と文 2 は概念 5 のためにいずれか一方しか要約に含めることができないという制約は, $x_{1}+x_{2} \leq 1$ と記述することができる。 4 正確には, $n$ に関しては擬多項式時間であるが, $m$ に関しては指数時間となるため, 素早い求解ができない. 5 もちろん, 穴長性制約付きナップサックモデルを整数計画ソルバーで解くことも可能である. 本論文では, 兮長性制約付きナップサックモデルを整数計画ソルバーで解くことでその最適解を求める. } である。このラグランジュ緩和問題は, 要約に含まれる概念 $j$ の個数 $z_{j}$ が $r_{j}$ を超えた際に,非負のラグランジュ乗数 $\lambda_{j}$ を通じて目的関数に罰を与える,例えば,あるとき,概念 5 が要約に 3 つ含まれている $\left(z_{5}=3\right)$ が, ベクトル $\mathbf{r}$ によって要約に 2 つまでしか含めてはならないと制限されている $\left(r_{5}=2\right)$ とする。また,ラグランジュ乗数 $\lambda_{5}$ が 1 だったとする. このとき $\lambda_{j}\left(r_{5}-z_{5}\right)=1(2-3)=-1$ となり, 目的関数は低下する. $\boldsymbol{\lambda}$ の調整は, この緩和問題のラグランジュ双対問題 $L(\boldsymbol{\lambda})=\min _{\lambda}\left.\{\max _{\mathbf{z}} \mathbf{w}^{\top} \mathbf{z}+\boldsymbol{\lambda}(\mathbf{r}-\mathbf{z})\right.\}$ を解くことで行う. このように, $\lambda$ を適切に調整し, 壳長性の原因となりやすい概念の重要度を低下させることで,動的計画ナップサックアルゴリズムによって元のナップサックモデルを解いた際でも複数文書要約として良好な解を得ようとするのが本論文の提案である。具体的なデコーディングの方法については次節で述べる. ## 5 デコーディング デコーディングで必要になるのは,ラグランジュ乗数ベクトル $\boldsymbol{\lambda}$ の値を適切に設定することである.入の值が適切に設定されていれば,あとはそれを動的計画ナップサックアルゴリズムで解くだけでよい. $\lambda$ は前節で述べたラグランジュ双対問題を解くことで得られる。このラグランジュ双対問題は最小化の中に最大化が入れ子になっており, 最適化が困難であるものの, 劣勾配法 (Korte and Vygen 2008) を用いると良好な近似解が高速に得られることが知られている (Umetani and Yagiura 2007). 劣勾配法は, 初期値として適当な $\boldsymbol{\lambda}$ を設定し, $\boldsymbol{\lambda}$ の値を繰り返し更新していくものである. このとき, 一度にどの程度 $\lambda_{j}$ の値を動かすか, という点が問題となる. 一度に大きく値を動かせばデコーディングに要する時間が短くなると考えられるものの, 最適解から離れてしまう可能性もある。そこで,本論文ではラグランジュヒューリスティック (Haddadi 1997)を利用する。 ラグランジュヒューリスティックは,ラグランジュ乗数を更新するとき,上界と下界の差を利用してステップサイズを調整する。また,下界を計算する際に,ヒューリスティックを利用する. 上界はある反復におけるラグランジュ緩和問題の解である。壳長性制約が緩和されているため, 穴長性制約付きナップサックモデルの緩和問題の最適解の目的関数値は, 明らかに緩和されていない元問題の最適解の目的関数値より高い. 劣勾配法によってラグランジュ乗数を更新していく過程で,ラグランジュ緩和問題の解は,制約に違反している解,すなわち実行不能解から,徐々に目的関数值を低下させながら実行可能解に近づいてい。 下界はなんらかのヒューリスティックによって得られる実行可能解である。本論文では, Haddadi による方法 (Haddadi 1997) と同様に,貪欲法 (Khuller et al. 1999)を用いて実行可能解を復元する。詳細については次節で述べる。 ラグランジュヒューリスティックによるデコーディングの具体的なアルゴリズムを Algorithm 1 に示す. Algorithm 1 の基本的な手順は以下のようになる. (1) ラグランジュ乗数ベクトル $\boldsymbol{\lambda}$ を適当な値に初期化する. (2)以下の手続きを既定回数だけ繰り返す. (a) 動的計画ナップサックアルゴリズムで式の最適解を得る. (b)aで得た最適解が制約を満たしているときはそれを下界とし,(3)へ,そうでなければヒューリスティックを用いて実行可能解を得る. (c)bで得た実行可能解がこれまでの下界を上回るものであれば,下界を更新する。 (3) 下界を出力して終了する. $\alpha$ は $\boldsymbol{\lambda}$ のステップサイズを調整するパラメータである. ベクトル $\mathrm{s}=\left(s_{1}, s_{2}, \ldots, s_{n}\right)$ の要素 $s_{i}$ は文 $i$ の重要度をあらわす。各文の重要度は関数 sentence によって計算される。関数 $d p k p$ は動的計画ナップサックアルゴリズムである. 動的計画ナップサックアルゴリズムの詳細は Algorithm 2 に示す. $b_{l}$ と $b_{u}$ はそれぞれ目的関数の下界と上界である. これらは $\boldsymbol{\lambda}$ のステップサイズの調整に利用される。関数 score は要約 $\mathbf{x}$ の重要度を計算する. 関数 count は要約 $\mathrm{x}$ に含まれる概念の数 $\mathbf{z}$ を返す. $\mathbf{x}_{l}$ は下界 $b_{l}$ に対応する解である. ラグランジュ緩和問題の劣勾配ベクトル $\mathbf{d}=\left(d_{1}, d_{2}, \ldots, d_{m}\right)$ は以下のようになる. $ d_{j}=r_{j}-z_{j} $ ラグランジュ緩和された集合被覆問題に対する Umetani らの更新式に基づき (Umetani and Yagiura 2007), ラグランジュ乗数は以下の更新式によって更新する. $ \lambda_{j}^{\text {new }} \leftarrow \max \left(\lambda_{j}^{\text {old }}+\alpha \frac{b_{u}-b_{l}}{\|\mathbf{d}\|^{2}}\left(z_{j}-r_{j}\right), 0\right) $ $\alpha$ は更新幅を調整するパラメータである。更新式の基本的な考え方は, 上界 $b_{u}$ と下界 $b_{l}$ の差が大きい際には更新幅を大きくしつつ, 劣勾配べクトルに従ってラグランジュ乗数を更新していくというものである. ## 5.1 貪欲法による実行可能解の復元 ラグランジュヒューリスティックは, 実行不能解から実行可能解を何らかのヒューリスティックを用いて復元するものである。本論文では,以下の手続きで実行可能解を復元する. (1) 制約に違反している概念を含む文のうち,最も重要度が低いものを要約から除去する。 (2)要約がまだ制約を満たさない場合は (1)へ,要約が制約を満たした場合は,要約に含まれていない文と, 要約長 $K$ と制約を満たした要約の長さの差から, 部分問題を生成し, これを貪欲法で解く。 例えば,要約長が 300 文字であったとする。制約に違反する文を除去し,制約を満たした要約の長さが 200 文字だったとすると, 100 文字分まだ要約に文を含めることができる。そこで, まだ要約に含まれていない文を,100 文字分,貪欲法 (Khuller et al. 1999) を用いて要約に含めることで,実行可能解を求める. ## 5.2 動的計画ナップサックアルゴリズム ナップサックモデルのデコーディングは動的計画ナップサックアルゴリズムを用いて行う.具体的なアルゴリズムは Algorithm 2 に示す. 動的計画ナップサックアルゴリズムでは, $(n+1) \times(K+1)$ 次元の表 $T$ と $U$ を用意し,これに計算の過程を保存していく。表 $T$ の要素 $T[i][k]$ は,文 1 から文 $i$ までが与えられており,最大要約長が $k$ であったときのナップサックモデルの最適解の目的関数値を格納している。表 $U$ の要素 $U[i][k]$ は, $T[i][k]$ の値を計算する際に,すなわちその時点での最適値を計算する際に文 $i$ を要約に利用している場合は 1 , そうでない場合は 0 を格納している。すなわち, $T[n][K]$ まで計算し終わった時点で,最大要約長が $K$ で文 1 から文 $n$ までが使われた場合にどの文が要約に含まれるか表 $U$ に格納されている。そのため, $U[n][K]$ まで表を埋めたのち, $U[n][K]$ に到達するまでの過程を逆にたどることで,ナップサックモデルの最適解を得ることができる。 ## 6 実験 本節では提案した手法の性能を評価した結果について報告する. 本節では, 6.1 で述べる手法を用いて, 6.2 で述べる文書集合を要約し, 生成された要約を 6.3 で述べる評価手法で評価する. 6.1 で述べる手法が必要とするパラメータの設定については 6.4 で述べる。結果とその考察については 6.5 で述べる. ## 6.1 比較手法 以下の手法を比較した。 (1) RCKM 提案手法. 兮長性制約付きナップサックモデルを整数計画ソルバーを用いてデコードしたもの. 艺長性制約付きナップサックモデルの最適解における性能を示す. ソルバーは lp_solve ${ }^{6}$ を用いた 7 . (2) RCLM-LH 提案手法. 宇長性制約付きナップサックモデルを本論文で提案するラグランジュヒューリスティックを用いてデコードしたもの.提案するデコーディングアルゴリズムによって得られる近似解の性能を示す. (3) MCM ベースライン。最大被覆モデルをソルバーを用いてデコードしたもの. (4) MCM-GR ベースライン。最大被覆モデルを貪欲法を用いてデコードしたもの. (5) KM年、スライン。ナップサックモデルを動的計画ナップサックアルゴリズムでデコードしたもの. (6)HUMAN 達成しうる性能の上限を調べるため, 複数の参照要約を用いて, 性能の上限を求める. 6.2 節で述べるコーパスのうち, レビューコーパスは 1 つの評価セットに対して 4つの参照要約が付与されているため, 参照要約同士を比較することで性能の上限を示すことが可能である.4つの参照要約があるため,それらの 6 つの組み合わせのうち, 6.3 節で述べる評価尺度 ROUGE の値が最も高いものを性能の上限として採用する 8 . なお, 6.2 節で述べるコーパスのうち, TSC-3 は 1 つの評価セットに対して 1 つの参照要約しか付与されていないため,これを計算できるのはレビューのみである. RCKM-LH,MCM-GR および KM のデコーダは Perl で実装した.全てのプログラムは Intel Xeon X5560 (Quad Core) $2.8 \mathrm{GHz}$ CPU を 2 つ, $64 \mathrm{G}$ バイトのメモリを搭載した計算機上で動作させた. ## 6.2 コーパス 上の手法を以下の 2 種類のコーパスによって評価した。 (1) TSC-3 TSC-3 コーパス (Hirao, Fukushima, Okumura, Nobata, and Nanba 2004)は自動要約のシェアード・タスク Text Summarization Challenge 39 で用いられたコーパスで,複数文書要約の評価セットを含む。要約の対象となる文書は新聞記事であり, 記事は毎日新聞および読売新聞から収集されている。それぞれの評価セットは企業買収やテロなど特定のトピックに関する新聞記事から構成されている。評価セットは 30 セットからなる. 1 セットは新聞記事 10 記事前後からなり,1つの評価セットに含まれる記事の文字数の和は平均して約 6,564 文字である。評価セット全体では 352 記事 3,587 文が含まれる。それぞれの評価セットに対しては人間の作業者が短い要約と長い要約の 2 種類の参照要約を付与している. Hirao らによれば, 参照要約の付与に際し, 作業者は要約の対象  表 2 評価に用いたコーパスの統計量 平均記事数, 平均文数, 平均文字数は全て 1 つの評価セットあたりの数である. となる記事を全て読んだのち,当該記事集合にふさわしい要約を作成した (Hirao et al. 2004). 短い要約は平均して約 413 文字であり, 要約率 10 にして約 $6 \%$, 長い要約は平均 価を行った,評価セットごとに参照要約の長さが異なるため,要約を生成する際には参照要約と同じ長さを要約長として与え要約を生成した。すなわち,本コーパスを用いた際には,平均として,約 12 記事からなる約 6,564 文字の記事集合を入力とし,約 413 文字の要約を生成する,要約率約 $6 \%$ の要約タスクとなる。 (2)レビュー新聞記事とは異なるドメインで提案する要約モデルを評価するため, レビュー 記事を用いて評価を行った。インターネット上のレビューサイトから飲食店 30 店舗に関するレビュー記事を収集し,これを 30 セットの複数文書要約の評価セットとした。 1 セットはレビュー記事 15 記事前後からなり,1つの評価セットに含まれる記事の文字数の和は平均して約 2,472 文字である。評価セット全体では 468 記事 2,275 文が含まれる. それぞれの評価セットに対しては 4 人の作業者が参照要約を付与しており, 作業者は要約の対象となる記事を全て読んだのち,当該記事集合にふさわしい要約を作成した.要約長はすべて 200 文字を上限とした。そのため,実験において要約を生成する際には一律 200 文字を要約長として要約を生成した,従って,要約率は平均して $8 \%$ である。本コーパスを用いた際には,平均として,約 16 記事からなる約 2,472 文字の記事集合を入力とし, 200 文字の要約を生成する,要約率約 $8 \%$ の要約タスクとなる. 表 2 にコーパスに関する統計量をまとめておく. ## 6.3 評価尺度 我々の提案する手法を評価するため,以下の 2 つの尺度を用いた。 (1) 要約品質要約の品質の評価には要約の自動評価尺度である ROUGE (Lin 2004) を用い {8000}$ となる. 11 Hirao らによれば, 参照要約の作成時には作業者に対して, 短い要約については要約率 $5 \%$ 程度の要約を, 長い要約については要約率 $10 \%$ 程度の要約を作成するように指示を与えたとしている (Hirao et al. 2004). 本論文で計測した値とは多少の差があるものの,5\%,10\%という値はあくまで目処として与えたものであると述べられているため, 作業者はこれらの指示より多少長い要約を作成したものと思われる。 } た. ROUGE の亜種のうち,ROUGE-1 および ROUGE-2 を評価に利用した。なお,平尾らは,参照要約の ROUGE 值を計算する際には,文を構成するすべての単語ではなくて, 内容語 12 のみを用いて計算を行った方が人間による評価と相関が高い結果が得られると報告している (平尾, 奥村, 磯崎 2006). そのため, 本論文でも ROUGE 值を計算する際には内容語のみを用いた。生成された要約を単語に分割し品詞を付与する際には Fuchi らによる形態素解析器 (Fuchi and Takagi 1998) を利用した. ROUGE 値を算出するプログラムは Lin の文献 (Lin 2004) に従い独自に実装した。なお,レビューコーパスについては 1 セットに対して複数の参照要約が付与されているため, 評価の際には,当該セットに付与されているすべての参照要約に対して ROUGE 值を求め, 最も高い ROUGE 值をその要約の ROUGE 値とした。この ROUGE 値の計算方針は Lin の提案によるものである (Lin 2004)。これは,ある入力文書集合に対して妥当な要約は複数存在し得ると考えられることから,参照要約の中で機械による要約にとって最も近いものとの ROUGE 値をもってその要約の評価とするためである ${ }^{13}$. (2) 要約速度要約の生成までの速度を計測した。いずれのコーパスでも, 30 セットすべてを要約するまでの時間を計測した。 なお,要約品質の検定にはウィルコクソンの符号順位検定 (Wilcoxon 1945) を用いた. 多重比較となるため, 全体の有意水準は 0.05 とした上で, $p$ 値の大きさに従って検定それぞれにおいて有意水準をホルム法 (Holm 1979) で調整した. ## 6.4 パラメータ 本節では要約に際して必要なパラメータの設定について述べる。以下に述べるパラメータのうち,概念重要度は全ての手法が利用する。概念壳長性は RCKM および RCKM-LH が利用する。ステップサイズおよびイテレーションは RCKM-LH のみが利用する. ## 6.4.1 概念重要度 概念 $j$ およびその重要度 $w_{j}$ はコーパスに合わせそれぞれ以下のように設定した。 (1) TSC-3 概念 $j$ は内容語とし, その重み $w_{j}$ は tf-idf (Filatova and Hatzivassiloglou 2004; Clarke and Lapata 2007) に基づき, $w_{j}=t f_{j} \log \left(\frac{N}{d f_{j}}\right)$ とした. ここで, $t f_{j}$ は要約の対象となる入力文書集合中での内容語 $j$ の出現頻度, $d f_{j}$ は新聞記事コーパス中で内容語 $j$ を含む記事の数,N は新聞記事コーパスに含まれる記事の総数である。新聞記事コーパ  付与する際には Fuchi らによる形態素解析器 (Fuchi and Takagi 1998) を利用した. (2)レビュー レビューを要約の対象としたため,概念 $j$ として評価情報を利用した。評価情報の定義とその抽出方法は西川らによるもの (西川他 2013) に従った ${ }^{15}$. 概念 $j$ の重み $w_{j}$ は当該評価情報の入力文書集合中での出現頻度を利用した。評価情報を文中から抽出する際,形態素解析には Fuchi らによる形態素解析器 (Fuchi and Takagi 1998) を,係り受け解析には Imamura らによる係り受け解析器 (Imamura, Kikui, and Yasuda 2007) を,評洒表現辞書は浅野らによる評価表現辞書 (浅野,平野,小林,松尾 2008)をそれぞれ利用した。 なお,本論文では内容語を概念としてレビューを対象に要約を実施する実験は行わない,西川らは,内容語を概念としてレビューを対象に要約を実施した場合,評価情報を用いた場合と比べ良好な結果を得ることができなかったと報告している (西川他 2013). 彼らはこの結果について, レビューの要約においては焦点となる情報が評価情報であるため, それを被覆の対象としなければ良好な結果が得られないと結論づけており, これは妥当な解釈であると考えられる。 同様に,評価情報を概念として新聞記事を対象に要約を実施する実験も行わない.これは,予備実験として,新聞記事に付録記載の評価情報抽出を行ったところ,ほとんど評価情報が抽出されず,従って評価情報を概念として新聞記事を対象に要約を行っても意味のある結果は期待できないと考えられるためである。新聞記事においては「〜はよかった」「〜は悪かった」というような何らかの評価に関する記述があまり存在しない。そのため評価情報は新聞記事を対象として要約を実施する際に有効な概念であるとは言えない. ## 6.4.2 概念冗長性 冗長性パラメータ $r_{j}$ は以下の 4 種類を設定した。 (1) ON 概念冗長性を 1 とする。これは,同じ概念が 2 回以上要約に出現することを禁じる. すなわち $r_{j}=1$ である. この制約を用いた場合, 同一の概念は一度しか要約中に出現することができず,そのため最大被覆問題と同様に冗㔯長性が削減されることが期待される。最大被覆問題とこの制約を用いた艺長性制約付きナップサックモデルの差異は,前者は目的関数を利用して冗長性を削減するのに対し, 後者は制約を用いて冗長性を削減することにある. (2) KL 概念 $j$ の入力文書集合中の出現頻度に, 要約長 $K$ と入力文書集合のサイズ $L=\sum_{i=1}^{n} l_{i}$ の比をかけたものとする。ただし,值が小数となることが多いため,その場合は值を切り上げることとした. すなわち $r_{j}=\left.\lceil t f_{j} \frac{K}{L}\right.\rceil$ である. この制約を用いた場合, 入力文書集合中での概念の出現頻度の分布が, 要約長を加味した上で要約にも同程  度再現されることが期待される。 (3) SR 概念冗長性を, 各単語の入力文書集合中での出現回数の平方根とする. KL と同様, 值が小数となることが多いが,その場合は値を切り下げることとした. これは $\mathbf{K L}$ では $r_{j}$ の值が 1 未満になることがあるのに対し, 平方根を取る場合はその恐れがないためである. すなわち $r_{j}=\left.\lfloor\sqrt{t f_{j}}\right.\rfloor$ である.この制約は $\mathbf{K L}$ と異なり要約長の影響を受けない。また,KL に比べ冗長性に寛容である。 (4) RF 概念冗長性を,参照要約に含まれる概念の数とした. これは,概念冗長性が理想的に設定された場合の性能を示している。なお,レビューコーパスについては複数の参照要約が存在するため, 同一の概念については複数の参照要約の平均を取り, 小数となった場合は値を切り上げることとした. これらは 2 つのコーパスで共通である. ## 6.4.3 ステップサイズ $\alpha$ は最初は 1 とし, 以降, ラグランジュ乗数がアップデートされた回数の逆数とした。すなわち, 最初のアップデートの際は $\alpha$ は 1 であり, 次のアップデートの際は $\frac{1}{2}$, さらに次のアップデートの際には $\frac{1}{3}$ となる. ## 6.4.4 イテレーション ラグランジュヒューリスティックによるデコーディングの際にはイテレーションの回数 $T$ を調整することができる。イテレーションの回数は 10 回と 100 回とし, それぞれ RCKM-LH(10) と RCKM-LH(100) として示す. ## 6.5 結果と考察 要約品質の評価を表 3 に,要約時間の評価を表 4 に示す. TSC-3 コーパスにおける評価の結果から述べる。まず, RCKM と MCM, KM の差異に目を向ける。RCKM の中では RF が最も高いROUGE 值を得ており, 次いで SR という結果となった. RF および $\mathrm{SR}$ はその最適解において MCM を有意に上回っていた. 提案するラグランジュヒューリスティックによるデコーディングを用いた場合 RCKM-LH では,イテレーション回数が 10 回の場合でも 100 回の場でも,RF は MCM を有意に上回っている一方,SR は MCM と有意な差がなかった。表 4 に示すように,提案するデコーディング法はソルバーによるデコーディングと比べ高速に要約を生成できており, MCM と同水準以上の要約を高速に生成できることがわかる.MCM と MCM-GR を比べると, 貪欲法はソルバーに比べ高速にデコーディングを行うことができるものの,MCM-GR の方が有意に ROUGE 值が低く, 探索誤りが生じていることがわかる.KM と MCM の間に有意差はなかったものの, 表 3 要約品質の評価 表 4 要約時間の評価 単位はすべて秒である。 全体として MCM がより高い ROUGE 值を示した. 提案する要約モデル RCKM は,㔯長性パラメータを RF あるいは $\mathrm{SR}$ とした際に MCM に比べ優れている。この理由は,参照要約は単語のレべルにおいてある程度の壳長性を持っているためである。図 1 は,TSC-3コーパスに含まれる参照要約の 1 つである. 同一の内容語はゴシック体として示してある。図 1 から,明らかに参照要約は単語のレベルにおいて壳長性を持つことがわかる. 図 2 は TSC-3コーパスを用いた実験における冗長性の分布である.縦軸に内容語の種類,横軸に同一の参照要約中での出現頻度をとりプロットした。点は, 参照要約, 6.4 節で述べた方法によって設定された艺長性パラメータ,および各手法によって実際に生成された要約における壳長性の分布を示している。例えば,TSC-3 コーパスに含まれる 2093 種類の内容語は同一の参照要約に一度しか出現しない. 一方, 10 種類の内容語は, 同一の参照要約に 10 回以上出現することがある,図 1 および図 2 が示すように,ある 1 つの参照要約において, 同一の単語が複数回出現することは何ら珍しいことではない. 提案する冗長性制約付きナップサックモデル RCKM は,壳長性パラメータを通じ,生成する要約に一定の冗長性を許容することができる。一方,最大被覆モデル MCM は壳長性を忌避する. 実際に図 2 が示すように,MCM が生成する要約は参照要約に比べ冗長性が低い. そのため, 図 1 のように 1 つの参照要約において同一の単語が複数回出現するという現象を十分に捉えることができない。それに対し,ナップサックモデル $\mathbf{K M}$ が生成する要約は高い冗長性を持つ. 図 2 が示すように, 要約中に 4 回以上出現する単語の種類が参照要約に比べて多く, 特に 10 回以上出現する単語が 42 種類存在している.このように過度に壳長な要約を生成する性質は複数文書要約にとっては好ましいものではない. 図 2 を見ると, 朵長性パラメータ SR は参照要約の壳長性に近い艺長性を有する要約を実現 \begin{abstract} エチオピア北部の約 250 万年前の地層で米国・エチオピア・日本の研究チームが発見した人骨化石が、猿人から原人へ進化する過程にある新種の猿人であることが分かった。現代人の直接の祖先とされる約 200 万年前の原人、ホモ ・ハビリスとそれ以前の猿人の間をつなぐ化石はなく、人類の進化のミッシングリンクとされてきた。この化石は新種の猿人化石として、現地語で「驚き」を意味する言葉から「ガルヒ猿人」と名づけられた。今回発掘された手足の骨は、長さのバランスが約 320 万年前のアファール猿人、約 170 万年前の原人、ホモ・エレクトスの中間にあたる。二足歩行に適するよう脚が長くなっていたとみられる。また、石器で切り取られた跡のある大型動物レイヨウの骨なども見つかった。人類が肉食をしたことを示す最古の証拠で、石器を実際に使用した跡としても最古となる。 \end{abstract} 図 1 TSC-3 コーパスに含まれる参照要約の 1 つ 2 回以上出現する内容語はゴシック体として示した. 他の処理と同様に, 単語境界および品詞の同定は Fuchi らによる形態素解析器 (Fuchi and Takagi 1998) によった. 図 2 TSC-3 コーパスを用いた実験における壳長性の分布 縦軸に内容語の種類, 横軸に同一の参照要約中での出現頻度をとりプロットした. 縦軸は対数スケールとなっていることに注意されたい. 凡例の Reference は, TSC-3 コーパスの参照要約に含まれる内容語の艺長性の分布である。すなわち, TSC-3 コーパスの参照要約に含まれる内容語のうち, 2,093 種類は同一の参照要約に 1 回しか出現しないが, 10 種類は, 同一の参照要約に 10 回以上出現することがある. 凡例の Const-ON, Const-KL および Const-SR はそれぞれ 6.4 節で述べた冗長性パラメータ ON, KL および SR に従って計算された概念冗長性の分布である。例えば, SR は 2,159 種類の単語に同一の要約中において 2 回まで出現することを許している. 凡例の Summ-ON, Summ-KL, Summ-SR, Summ-RF, Summ-MCM および Summ-KM はそれぞれ実際に生成された要約における冗長性の分布である. SummON,Summ-KL,Summ-SR および Summ-RF は冗長性制約付きナップサックモデル RCKM にそれぞれ壳長性パラメータ ON, KL,SR および RF を与え,ソルバーを用いてデコードし生成された要約の壳長性である. Summ-MCM は最大被覆モデル MCM をソルバーを用いてデコードし生成された要約の冗長性である. Summ-KM はナップサックモデルを動的計画ナップサックアルゴリズムを用いてデコー ドし生成された要約の壳長性である. できている,全体的な傾向として,ナップサックモデルでは,要約中にある回数だけ出現する単語の種類は左から右に向かってなだらかに減少していく.これは, 要約中に 1 度しか出現しない概念の種類と, 何度も出現する概念の種類にあまり差がないことを示しており,すなわち,何度も出現する概念の種類が相対的に多いことを示している。一方, 最大被覆モデルは左から右に向かって急峻な勾配で種類が減少していく。これは, 要約中に 1 度しか出現しない概念の種類が相対的に多いことを示している,参照要約の壳長性は, これらナップサックモデルと最大被覆モデルの中間を取るように推移しており, 艺長性パラメータ SRによって生成された要 約の冗長性も, 参照要約の冗長性に近い位置で推移している。このように参照要約に近い冗長性を再現できたため,SR は良好な性能を示すことができたものと考えられる. ナップサックモデルのような過度の壳長性は複数文書要約において問題となる一方, 同一の単語,あるいは関連する単語が前後の文に出現する性質は,自動要約の分野において Lexical chain と呼ばれており, 重要文抽出の際の重要な手がかりとして利用されている (Barzilay and Elhadad 1997; Clarke and Lapata 2007). RCKM はこの性質を捉えることができたということもできよう. テキスト一貫性に関する研究においても,人手によって書かれたテキストにおいて同一の単語が同一のテキストに複数回出現するという性質は利用されている。テキストの一貫性を評価する手法の 1 つである Entity grid は,連続する 2 つの文における,単語の意味役割の変化を特徵量として用いており (Barzilay and Lapata 2005, 2008; 横野, 奥村 2010), 同一の単語が同一のテキストに複数回出現するという仮定を置いている。参照要約は人手によって書かれたものであるため,テキスト一貫性の観点からこの性質を持っていると考えることができる。このことから,壳長性パラメータ r はテキスト一貫性の観点から設定することもできよう. 次に, 壳長性パラメータについて述べる。 RCKM の中では RF が最も良好な性能を示し, ついで $\mathbf{S R}, \mathrm{KL}, \mathrm{ON}$ となった. 参照要約の冗長性を模倣した場合が最良の結果を得たことから, 壳長性の設定は RCKM にとって重要であると言える。壳長性パラメータ $\mathbf{r}$ を正確に設定するためには, 入力文書集合と参照要約の組から回帰モデルを構築し, 各単語の参照要約における適切な出現頻度を予測することも考えられよう。 ON に目を向けると,ON の生成した要約の品質は $\mathrm{SR}$ や $\mathrm{KL}$ に比べて著しく悪い。これは,上に述べたように,テキスト一貫性の観点から説明できる。同一の単語は一度しか要約に出現できないという ON の制約は,上に述べた性質を持ったテキストを生成することを許さない.このため一貫性を欠いたテキストを生成してしまい,これは人間による要約を模倣するという観点からは大きな問題がある. SR と KL を比較すると, 有意に SR の ROUGE 值が高かった. 図 2 の Const-KL が示すように,KLによる冗長性の制約は参照要約の壳長性をうまく模倣しているものの, 2 回以上の出現を許す単語の種類が参照要約に比べて少ない. TSC-3 コーパスの評価セットの要約率は平均して $6 \%$ 前後であるため, KL は要約長に影響され苍長性について厳しい制約を要約に課す. このため, Summ-KL が示すように,要約に十分な苍長性を許すことができず,SR に比べて ROUGE 值において劣後したものと考えられる. 一方, Const-SR は全体的に高い艺長性を許すものとなっているが,実際に生成された要約の冗長性 Summ-SR は参照要約の壳長性に近い.SRによって生成された要約を確認すると, 高い壳長性の原因となり要約の品質の低下を招く概念の冗長性を抑制しつつ, 概念重要度に従っ て他の概念を要約に組み込んでおり,これが良好な ROUGE 値を得た理由と考えられる。次にレビューにおける評価の結果について述べる。 RCKM と MCM,KM の差異について目を向けると,KM は MCM と比べ有意に ROUGE 値が低かった,TSC-3 での評価と異なり, MCM と MCM-GR の間に有意な差はなかった。また, MCM と RCKM の全ての手法の間にも有意な差はなかった,RCKM の中でも,壳長性パラメータによる有意な差はなかった,一方,TSC-3 での評価と同様に,表 4 が示すように提案するデコーディング法はソルバーと比べ高速に要約を生成できており,MCM と同水準の要約を高速に生成できることがわかる. HUMAN に対してはいずれの手法も及ばなかった. これには 2 つ理由があると考えられる. 1 つは概念重要度の設定である。今回は要約対象の文書集合中での評価情報の頻度を概念重要度として用いたが, 参照要約を用いて概念重要度を学習することでより良好な ROUGE 値を得られる可能性がある。もう 1 つは文の選択のみで要約を作成することの限界である。前述したように,レビューコーパスの参照要約は人間によって自由に記述されているため, 文の選択だけでは参照要約と同水準の要約に到達することは難しいと考えられる。この点の解決のためには,文短縮 (平尾,鈴木,磯崎 2009a) など,文を書き換える処理を要約の過程に加える必要があろう. TSC-3 とレビューを比較すると,前者においては RCKM が MCM を上回る性能を持つものの, 後者においてはそれらの間に差がない.これらは新聞記事の要約とレビュー記事の要約の差異を端的に表している。前者は単語を被覆の対象としているため, 上に示したように, 1 つの要約に複数の単語が含まれることを許すことによって,より高いROUGE 値を得ることができる。一方, 後者が被覆の対象とするものは評価情報であり,ある特定の評価情報は 1 つの要約に 1 つだけ入っていれば十分である。これは,TSC-3 においては劣った要約品質を示した ON が,レビューにおいては他の手法と同水準の要約品質を示していることからもわかる. 図 3 は, レビューコーパスに含まれる評価情報を, 縦軸に評価情報の種類, 横軸に同一の参照要約中での出現頻度をとりプロットしたものである. 図 2 と比較するとその差は明らかであり, レビューでは参照要約においてある特定の評価情報は 1 度しか出現しないことがほとんどである。 最後に, 提案したラグランジュヒューリスティックによる近似解法の近似精度についても述べておく,近似精度を表 5 に示す。数値は,ソルバーによって得られた最適解の目的関数値を 100 としたときの,近似解法による解の目的関数値を百分率で示したものである.計算にあたっては,いずれも朵長性パラメータは SR とし, 30 セットそれぞれの近似精度の平均を取った。表 5 が示すように,提案する近似解法は良好な近似精度を持つことがわかる。 図 3 レビューコーパスを用いた実験における壳長性の分布 縦軸に評価情報の種類, 横軸に同一の参照要約中での出現頻度をとりプロットした. 縦軸は対数スケールとなっていることに注意されたい. 凡例の Reference は, レビューコーパスの参照要約に含まれる内容語の冗長性の分布である。すなわち, レビューコーパスの参照要約に含まれる内容語のうち, 509 種類は同一の参照要約に 1 回だけ出現し, 6 種類は 2 回, 1 種類は 3 回出現することがある. 凡例の Const-ON, Const-KL および Const-SR はそれぞれ 6.4 節で述べた圥長性パラメータ ON, KL および SR に従って計算された概念冗長性の分布である。 凡例の Summ-ON, Summ-KL, Summ-SR, Summ-RF, Summ-MCM および Summ-KM はそれぞれ実際に生成された要約における冗長性の分布である. Summ-ON, Summ-KL, Summ-SR および Summ-RF は壳長性制約付きナップサックモデル RCKM にそれぞれ壳長性パラメー 夕 ON, KL, SR および RF を与え, ソルバーを用いてデコードし生成された要約の壳長性である. Summ-MCM は最大被覆モデル MCM をソルバーを用いてデコードし生成された要約の宇長性である. Summ-KM はナップサックモデルを動的計画ナップサックアルゴリズムを用いてデコードし生成された要約の壳長性である. 表 5 近似精度 ## 7 まとめ 本論文では, 複数文書要約において重要なモデルである最大被覆モデルのデコーディングを高速化することを企図し, 要約に含めるべき単語数を直接制御する冗長性制約付きナップサック問題に基づく要約モデルを提案した。本論文の新規性および貢献を以下にまとめる. - 元長性制約付きナップサック問題に基づく要約モデルは, その最適解において, 最大被覆問題を用いた要約モデルに対して,ROUGE (Lin 2004) において同等以上の性能を持つことを示した。 ・ ラグランジュヒューリスティクスに基づくデコーディング法によって得られる近似解は,最大被覆問題の最適解と ROUGE において同等であることを示した。 - 提案手法のデコーディング速度は, 整数計画ソルバーによる最大被覆問題のデコーディング速度より 100 倍以上高速であることを示した. 今後の課題としては, 上で述べたように圥長性パラメータをテキスト一貫性の観点から推定することを検討している.また, 壳長性パラメータを入力文書集合と参照要約の組から推定することも検討している。 ## 謝 辞 本論文の執筆にあたり, NTTコミュニケーション科学基礎研究所の西野正彬研究員より有益なご助言を頂戴した,記して感謝する。また,査読者および担当編集委員の方々,編集委員会より様々な有益なご助言を頂戴した。記して感謝する。 ## 参考文献 浅野久子, 平野徹, 小林のぞみ, 松尾義博 (2008). Web 上の口コミを分析する評判情報インデクシング技術. NTT 技術ジャーナル, 20 (6), pp. 12-15. Barzilay, R. and Elhadad, M. (1997). "Using Lexical Chains for Text Summarization." In Proceedings of the Intelligent Scalable Text Summarization Workshop (ISTS), pp. 10-17. Barzilay, R. and Lapata, M. (2005). "Modeling Local Coherence: An Entity-based Approach." In Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics (ACL), pp. 141-148. Barzilay, R. and Lapata, M. (2008). "Modeling Local Coherence: An Entity-based Approach." Computational Linguistics, 34 (1), pp. 1-34. Clarke, J. and Lapata, M. (2007). "Modelling Compression with Discourse Constraints." In Pro- ceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL), pp. 1-11. Filatova, E. and Hatzivassiloglou, V. (2004). "A Formal Model for Information Selection in Multi-Sentence Text Extraction." In Proceedings of Coling 2004, pp. 397-403. Fuchi, T. and Takagi, S. (1998). "Japanese Morphological Analyzer Using Word Co-occurrence: JTAG." In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and the 17th International Conference on Computational Linguistics (ACLCOLING), pp. 409-413. Gillick, D. and Favre, B. (2009). "A Scalable Global Model for Summarization." In Proceedings of the Workshop on Integer Linear Programming for Natural Language Processing, pp. 10-18. Haddadi, S. (1997). "Simple Lagrangian Heuristic for the Set Covering Problem." European Journal of Operational Research, 97, pp. 200-204. Higashinaka, R., Minami, Y., Nishikawa, H., Dohsaka, K., Meguro, T., Kobashikawa, S., Masataki, H., Yoshioka, O., Takahashi, S., and Kikui, G. (2010). "Improving HMM-based Extractive Summarization for Multi-Domain Contact Center Dialogues." In Proceedings of the IEEE Workshop on Spoken Language Technology (SLT), pp. 61-66. 平尾努, 奥村学, 磯崎秀樹 (2006). 拡張ストリングカーネルを用いた要約システム自動評価法.情報処理学会論文誌, 47 (6), pp. 1753-1766. 平尾努, 鈴木潤, 磯崎秀樹 (2009a). 構文情報に依存しない文短縮手法. 情報処理学会論文誌: データベース, $2(1)$, pp. 1-9. 平尾努, 鈴木潤, 磯崎秀樹 $(2009 b)$. 最適化問題としての文書要約. 人工知能学会論文誌, $24(2)$, pp. 223-231. Hirao, T., Fukushima, T., Okumura, M., Nobata, C., and Nanba, H. (2004). "Corpus and Evaluation Measures for Multiple Document Summarization with Multiple Sources." In Proceedings of Coling 2004, pp. 446-452. Holm, S. (1979). "A Simple Sequentially Rejective Multiple Test Procedure." Scandinavian Journal of Statistics, 6 (2), pp. 65-70. Imamura, K., Kikui, G., and Yasuda, N. (2007). "Japanese Dependency Parsing Using Sequential Labeling for Semi-spoken Language." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 225-228. Jelinek, F. (1969). "Fast Sequential Decoding Algorithm Using a Stack." IBM Journal of Research and Development, 13 (6), pp. 675-685. Khuller, S., Moss, A., and Naor, J. (1999). "The Budgeted Maximum Coverage Problem." Information Processing Letters, 70 (1), pp. 39-45. Korte, B. and Vygen, J. (2008). Combinatorial Optimization (3rd edition). Springer-Verlag. Lin, C.-Y. (2004). "ROUGE: A Package for Automatic Evaluation of Summaries." In Proceedings of ACL Workshop Text Summarization Branches Out, pp. 74-81. McDonald, R. (2007). "A Study of Global Inference Algorithms in Multi-document Summarization." In Proceedings of the 29th European Conference on Information Retrieval (ECIR), pp. 557-564. 西川仁, 長谷川隆明, 松尾義博, 菊井玄一郎 (2013). 文の選択と順序付けを同時に行う評価文書要約モデル. 人工知能学会論文誌, 28 (1), pp. 88-99. 奥村学,難波英嗣 (2005). テキスト自動要約. オーム社. 高村大也, 奥村学 (2008). 最大被覆問題とその変種による文書要約モデル. 人工知能学会論文誌, $23(6)$, pp. 505-513. Umetani, S. and Yagiura, M. (2007). "Relaxation Heuristics for the Set Covering Problem." Journal of the Operations Research Society of Japan, 50, pp. 350-375. Wilcoxon, F. (1945). "Individual Comparisons by Ranking Methods." Biometrics Bulletin, 1 (6), pp. 80-83. Yamada, T., Kataoka, S., and Watanabe, K. (2002). "Heuristic and Exact Algorithms for the Disjunctively Constrained Knapsack Problem." Journal of Information Processing, 43 (9), pp. 2864-2870. Yih, W.-t., Goodman, J., Vanderwende, L., and Suzuki, H. (2007). "Multi-document Summarization by Maximizing Informative Content-words." In IJCAI'07: Proceedings of the 20th international joint conference on Artifical intelligence, pp. 1776-1782. 横野光, 奥村学 (2010). テキスト結束性を考慮した entity gridに基づく局所的一貫性モデル. 自然言語処理, $\mathbf{1 7}$ (1), pp. 161-182. ## 付録 ## A 評価情報の抽出方法 まず,評洒情報について述べる,西川らの提案 (西川他 2013) と同様に,本論文では,評価情報を評価属性 aspect と評価極性 polarity $\in\{-1,0,1\}$ の組 $e=($ aspect, polarity $)$ として考える。評価属性は, 何らかの対象が評価される際の観点を示す。評価極性は, 対象が評価属性に関してポジティブな評価をされているときに 1 , ネガティブな評価をされているときに -1 , ど ちらとも言えないときに 0 の 3 値を取るものとする。一例として, 「このデジタルカメラは画質がよい」という表現を考える。この表現の評価属性は「画質」である。また,評価表現「よい」はポジティブな評価であることから,評価極性は 1 となる。そのため, この表現から評価情報 $e=($ 画質, 1$)$ が得られる. 評価情報は以下のように抽出する. (1) 文に係り受け解析を行う. (2)評価表現とその評価極性の組を格納した辞書(評価表現辞書)と係り受け解析の結果を照合し,評価表現とその評価極性を得る. (3)係り受け木で,評価表現に係っている名詞を評価属性とする. (4)得られた評価属性と評価極性を出力する. ## 略歴 西川仁:2006 年慶應義塾大学総合政策学部卒業. 2008 年同大学大学院政策・ メディア研究科修士課程修了. 同年日本電信電話株式会社入社. 現在 NTT メディアインテリジェンス研究所研究員. 2012 年より奈良先端科学技術大学大学院博士後期課程在学中. 自然言語処理の研究開発に従事. 言語処理学会,情報処理学会, 人工知能学会, ACL 各会員. 平尾努:1995 年関西大学工学部電気工学科卒業. 1997 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 同年株式会社 NTT データ入社. 2000 年より NTTコミュニケーション科学基礎研究所に所属. 博士(工学). 自然言語処理の研究に従事. 言語処理学会, 情報処理学会, ACL 各会員. 牧野俊朗 : 1987 年東京大学工学部電子工学科卒業, 1992 年同大学院博士課程修了. 同年日本電信電話株式会社入社. 現在 NTT メディアインテリジェン丆研究所主幹研究員. 博士 (工学). 知識獲得, 推論手法, 自然言語処理などに関する研究開発に従事. 松尾義博: 1988 年大阪大学理学部物理学科卒業. 1990 年同大学大学院研究科博士前期課程修了. 同年日本電信電話株式会社入社. 現在 NTT メディアインテリジェンス研究所音声・言語基盤技術グループリーダ。機械翻訳,自然言語処理の研究に従事. 言語処理学会, 情報処理学会各会員. 松本裕治:1977 年京都大学工学部情報工学科卒業. 1979 年同大学大学院工学研究科修士課程情報工学専攻修了. 同年電子技術総合研究所入所. 1984 85 年英国インペリアルカレッジ客員研究員. $1985 \sim 87$ 年財団法人新世代コンピュータ技術開発機構に出向. 京都大学助教授を経て, 1993 年より奈良先端科学技術大学院大学教授, 現在に至る. 工学博士.専門は自然言語処理.言 語処理学会, 情報処理学会, 人工知能学会, 認知科学会, AAAI, ACL, ACM 各会員. 情報処理学会フェロー. ACL Fellow. (2013 年 3 月 11 日受付) (2013 年 6 月 3 日再受付) (2013 年 7 月 9 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 『現代日本語書き言葉均衡コーパス』に対する時間情報表現・事象表現間の時間的順序関係アノテーション 保田 祥 $\dagger$ - 小西 光 ${ }^{\dagger}$ 浅原 ${\text { 正幸 } \dagger \text { - 今田 } \text { 水穂 }^{\dagger} \cdot \text { 前川喜久雄 }}^{\dagger}$ 時間情報抽出は大きく分けて時間情報表現抽出, 時間情報正規化, 時間的順序関係解析の三つのタスクに分類される。一つ目の時間情報表現抽出は, 固有表現 - 数値表現抽出の部分問題として解かれてきた。二つ目の時間情報正規化は書き換え系に より解かれることが多い. 三つ目のタスクである時間的順序関係解析は, 事象の時間軸上への対応付けと言い換えることができる。日本語においては時間的順序関係解析のための言語資源が整備されているとは言い難く, アノテーション基準につい ても研究者で共有されているものはない。本論文では国際標準である ISO-TimeML を日本語に適応させた時間的順序関係アノテーション基準を示す. 我々は『現代日本語書き言葉均衡コーパス』(BCCWJ) の新聞記事の部分集合に対して, 動詞・形容詞事象表現に TimeML の〈EVENT〉相当タグを付与し, その事象の性質に基づき 分類を行った. また, この事象表現と先行研究 (小西, 浅原, 前川 2013) により付与されている時間情報表現との間の関係として, TimeMLの〈TLINK〉相当夕グを付与した. 事実に基づき統制可能な時間情報正規化と異なり, 事象構造の時間的順序関係の認識は言語受容者間で異なる傾向がある。このようなレベルのアノテーショ ンにおいては唯一無二の正解データを作ることは無意味である。 むしろ,言語受容者がいかに多様な判断を行うかを評価する被験者実験的なアノテーションが求めら れている。 そこで,本研究では三人の作業者によるアノテーションにおける時間的順序関係認識の嬞䶣の傾向を分析した。アノテーション結果から,時間軸上の相対的な順序関係については一致率が高い一方, 時区間の境界については一致率が低い ことがわかった。 キーワード:時間情報処理,事象意味論,コーパスアノテーション ## Temporal Ordering Annotation on 'the Balanced Corpus of Contemporary Written Japanese' \author{ Sachi Yasuda ${ }^{\dagger}$, Hikari Konishi ${ }^{\dagger}$, Masayuki Asahara ${ }^{\dagger}$, \\ Mizuho Imada ${ }^{\dagger}$ and Kikuo Maekawa ${ }^{\dagger}$ } Temporal information extraction can be divided into the following tasks: temporal expression extraction, time normalization and temporal ordering relation resolution. The first task is a subtask of a named entity and numeral expression extraction. The second task is often performed by rewriting systems. The third task consists of event anchoring. This paper proposed a Japanese temporal ordering annotation scheme and  performed annotations by referring to 'the Balanced Corpus of Contemporary Written Japanese' (BCCWJ). We extracted verbal and adjective event expressions as 〈EVENT> in a subset of BCCWJ and annotated a temporal ordering relation 〈TLINK〉 on the pairs of the above event expressions and time expressions obtained from a previous study (Konishi et al. 2013). The recognition of temporal ordering by language recipients tends to disagree compared to the normalization of time expressions. We should not regard making unique gold annotation data as an objective in such a situation. If anything, we should evaluate the degree of inter-annotator discrepancy by subjects of experiments. Then, we analysed inter-annotator discrepancies by three annotators in temporal ordering annotation. The result showed that boundaries of time segments barely exhibit any agreement, whereas the annotation of temporal relative ordering tendency exhibits good agreement by the annotators. Key Words: Temporal Information Processing, Event Semantics, Corpus Annotation ## 1 はじめに 情報抽出や文書要約の分野において情報の可視化を目的として, テキスト中に出現する事象表現の表す事象が発生した時区間 (Time Interval) を時間軸 (Timeline) 上に写像することが行われている。このためには,テキスト中に出現する時間情報表現の正規化(時間軸への写像)のみならず,対象となる「文書作成日時と事象表現」や「時間情報表現と事象表現」,「二つの事象表現」間の時間的順序関係を付与することが必要になる. 英語においては哲学者・言語学者・人工知能研究者・言語処理研究者が協力して時間情報を含む言語資源の整備を進めている (Pustejovsky, Hanks, Saurí, See, Gaizauskas, Setzer, Sundheim, Ferro, Lazo, Mani, and Radev 2003b). 哲学者・言語学者は言語科学として (a)テキスト中の事象表現とその時間構造を形式的にどのように記述するかを探究することを研究目的とする。人工知能研究者・言語処理研究者は工学研究として (b) テキスト中の事象表現や時間的順序表現を同定し抽出する機械的なモデルの開発や評価を研究目的とする. 前者にとって (b) は手段でしかなく, 逆に後者にとって (a) は手段でしかない. しかしながら, 共通の目標として時間情報の可視化 ${ }^{1}$ 掲げ,前段落にあげたリサーチクエスチョンに対して,「アノテーション」と呼ばれる研究手法により共有言語資源を構築する試みが行われている. 一方, 日本語においては時間情報を含む言語資源の整備は, 人工知能研究者・言語処理研究者によるものが多く, 研究目的も (b) の手段としてのものが多い. 機械的なモデルの開発や評価を目的とすることが多く, 計算機上に実現しやすい時間情報表現の切り出しや正規化レベルのアノテーションにとどまっている (IREX 実行委員会 1999; 小西他 2013). 時間的順序関係の  アノテーションを行うためには,アノテーション対象となる事象構造の意味論的な形式的な記述の作業が必要となる. 人工知能研究者・言語処理研究者にとっての手段とされる研究目的 (a) が重要になる。 時間情報のアノテーションについては,英語のアノテーション基準 TimeML (Pustejovsky, Castaño, Ingria, Saurí, Gaizauskas, Setzer, and Katz 2003a) を元に国際標準化作業が行われてきた. 成果物の ISO-TimeML は策定時に多言語に対してアノテーションすることを想定し,各言語の研究者がそれぞれ適応2作業を実施してきた. 本研究では, 研究目的として哲学者・言語学者の (a)の立場を取り, 『現代日本語書き言葉均衡コーパス』(Balanced Corpus of Contemporary Written Japanese; 以下 "BCCWJ”) (国立国語研究所 2011) の一部に対し時間情報表現と事象表現の時間的順序関係を付与するために,事象表現の切り出しと分類を行った。時間情報表現アノテーションの形式的な基準である国際標準 ISO-TimeML の日本語適応作業を MAMA サイクル (Pustejovsky and Stubbs 2012)(ModelAnnotate-Model-Annotate サイクル.詳しくは 2.1 節で説明)を通して実施し,時間的順序関係付与に適した事象表現分類を行った. さらに, 複数人の時区間の時間的順序関係の認識の差異を評価することを目的として, Allen の時区間論理 (Allen 1983)(詳しくは 3.3 節で説明)に基づいたテキストに出現する時間情報表現と事象表現の時間的順序関係のアノテーションを複数人で実施した,MAMAサイクルを最小にし被験者実験的な設定でアノテーションを行い, 得られたデータの傾向を分析し, 複数人の作業者間の心的空間における時間構造の差異を評価した. 意味論レベルのアノテーションにおいて, 多くの研究が形式意味論的な記述を目標とする.生成された言語を直接何らかの記号的な意味表現に写像するための方法論を確立するためにアノテーションの MAMA サイクルを実施するが,唯一無二の意味表現に写像することを目的とするためにアノテーション一致率という指標を良くする方向に最適化するきらいがある。一方,認知意味論の考え方においては, 生成された言語表現を受容する人間の認知活動という要素を考慮し, 人間の空間認知能力やカテゴリー化などの認知能力を評価する目的で, 被験者実験などの研究手法が用いられている。テキストを刺激として与え,意味表現を記述させる被験者実験も広義のアノテーションと呼ぶことができる. 本研究では人間の時間的順序関係の認知能力の差異の評価を目的として, 教示である MAMA サイクルを必要十分レベルに極小化した, 被験者実験としてのアノテーションを行う.結果, 時区間の境界の一致が困難である一方,時区間の前後関係については $69.5 \%$ の一致率でアノテー ションできることがわかった. 以下本論文の構成について述べる. 2 節では関連研究について述べる, 3 節では策定した基準  について述べる。 4 節で BCCWJ にアノテーションした順序関係ラベルの分析を行い, 結果を報告する.5 節で本論文のまとめを行う. ## 2 関連研究 ## 2.1 コーパスアノテーション 一般に言語の生産過程の産物であるアノテーションなしのテキストコーパスからは,言語の受容過程について直接的に調査することは困難である。言語の受容過程の調査には, 生産されたテキストを受容する過程を記号化する必要がある。テキストコーパスに対し作業者が内容を理解して記号を付与するアノテーションは, 工学研究者のベンチマークデータ作成だけでなく,人の言語の受容過程を記録する一研究手法としても利用可能である. コーパスアノテーション作業には二つの基準を決める必要がある。一つはアノテーションをどのような形式で表現するかという形式的な基準である. アノテーション対象が文字間なのか文字列範囲なのか, 対象に対しシングルラベルを付与するのかマルチラベルを付与するのか,対象間の関係が推移的なのか対称的なのか, 大局的な構造として木をなすのか有向非循環グラフをなすのかなどを決定し, 抽象化する必要がある。抽象化された形式は, インラインで記述するのかスタンドオフで記述するのかなどを基準として定める.この形式的な基準は, 研究者間の相互利用性を高めたり, 構造学習器を実現するための必要な抽象表現の仕様を決定するために利用される.関係する研究者があらかじめ議論をして標準仕様をコミュニティ駆動で策定したり,最初に策定された類似のアノテーションの形式をそのまま事実上の標準にしたりなど,標準化機関以外による何らかの標準化が行われることが多い. もう一つはコーパスに出現する言語表現をどのような記号に割り当てるかという値割り当てについての基準である。アノテーションにおいては, 個々の事例についてどの形式に割り当てるのかという基準が必要であり, 一般に言語テストなどを作業者に行ってもらいその判断に基づき記号に写像する基準が策定される。しかし, アノテーション作業の当初から完全で健全な基準を作成することは困難であり, 基準の策定とアノテーション作業を何度も繰り返しながら基準を更新する。 Pustejovsky (Pustejovsky and Stubbs 2012) は,基準の策定方法を含めたアノテーション作業に二種類のサイクルがあることを示している。一つは MAMA サイクルで図 1 の左のようなサイクル3である。もう一つは MATTER サイクル(Model-Annotate-Train-Test-Evaluate-Revise サイクル)で図1の右のようなサイクルである. 工学研究のように構造学習器を作成することを  MAMA サイクル (Pustejovsky and Stubbs 2012) p. 28 (Figure 1-11)より (Pustejovsky and Stubbs 2012) p. 24 (Figure 1-10)より 図 1 MAMA サイクルと MATTER サイクル 目的とする場合には MATTER サイクルを用いることが多いが, MATTER サイクルで構造学習器が構成できないアノテーション初期においては MAMA サイクルを用いることが多い.言語研究で現象そのものを観察する場合においては MAMA サイクルのみで閉じてアノテーションを行う傾向がある. このようなアノテーションの基準とサイクルを考えた場合に,アノテーション基準の妥当性はどのように評価されるべきだろうか. 形式的な基準においては利用者系により評価されるべきであり,当該基準を利用するコミュニティの規模などにより定量的に評価され,相互利用における障害の有無などにより定性的に評価されるだろう,後者の值割り当てとしての基準においては,構造学習器の構成を目的として研究を実施するのであれば,未知事例を含めた構造学習器の性能により評価されるだうう。一方, 言語研究を目的とする場合には, アノテーション作業を行う指針である基準の妥当性は,成果物のアノテーションそのものによって評価されるべきである。アノテーション単体としての評価は一致率などの定量的な指標を提示することが可能であるが,言語研究のためのアノテーションにおいては,必ずしも一致率などを目的関数として最適化を行っているわけではない。このようなアノテーション基準の妥当性を評価するためには,MAMA サイクルの外側の言語研究者によって評論として行われるべきである。近年, 均衡コーパスが整備され,コミュニティ駆動によりアノテーション対象の標準化が行われてきた. 各機関で様々なレベルの言語情報のアノテーションが進められている.このような状況を鑑みると, MAMA サイクルの外側の言語研究者による評論の代わりに, 他のアノテーションとの重ね合わせによる齟齰検出結果から,アノテーションそのものの妥当性評価が検証される可能性がある. ## 2.2 コーパスアノテーション基準の標準化 コーパスアノテーションの基準について, 形式的な基準については標準化機関などが共有すべき規格を提案している. 例えば, 国際標準化機構 (International Organization for Standardization: 表 $1 \mathrm{TC} 37 / \mathrm{SC} 4$ の作業部会 \\ & 言語資源そのものに関する作業部会 ISO) の標準化技術委員会 (Technical Committee) TC 37 は “Terminology and other language and content resources”と題し,言語資源に関するさまざまな標準化を提案している。そのなかに分科会 (Subcommittee) が五つ設定されているが, TC 37/SC 4 が言語資源管理 (Language resource management; LRM) に関する国際規格の規定を行っている。TC 37/SC 4 は作業部会を六つ(表 1)設定しており,さまざまな形式・出自の一次言語データに対するアノテーションや XML に代表される汎用マークアップ言語に基づくアノテーションの表現形式についての仕様記述言語を設計している。例えば,公開されている規格として,語彙表の規格 Lexical Markup Framework (LMF: ISO-24613:2008), 素性構造表現 Feature Structure Representation (FSR: ISO-24610-1:2006), 単語分かち書き(ISO-24615-1:2010 が一般, ISO-24615-2:2011 が日中韓言語),統語論アノテーション Syntactic Annotation Framework (SynAF: ISO-24615:2010) がある。意味論的アノテーション規格は作業部会 TC 37/SC 4/WG 2 を中心にさまざまな Semantic Annotation Framework (SemAF) が提案されている。時間情報表現関連については,英語で策定された TimeML (Pustejovsky et al. 2003a) をもとに TimeML 開発者と作業部会 TC 37/SC 4/WG 2 が連携をとりながら SemAF-Time (ISO-24617-1:2012) TimeML を提案した。次の 2.3 節では,時間情報表現関連のアノテーションの研究動向を示す. ## 2.3 時間情報表現に関する研究動向 時間情報表現は哲学・言語学・人工知能研究・言語処理など複数分野の研究者により研究されてきた。 以下では言語処理関連の代表的な研究を俯瞰する。テキスト中の時間情報表現を分析する研究は大きく分けて時間情報表現抽出,時間情報正規化,時間的順序関係解析の三つのタスクに分類される。一つ目の時間情報表現抽出は, 固有表現・数値表現抽出の部分問題として解かれ てきた。 二つ目の時間情報正規化は書き換え系により解かれることが多い. 三つ目のタスクである時間的順序関係解析は,事象の時間軸上への対応付けと言い換えることができる。 表 2 に英語と日本語を対象とした時間情報表現に関連する研究を示す. 英語においては,評価型国際会議 MUC-6 (Grishman and Sundheim 1996)の一夕スク固有表現抽出の中に時間情報表現の抽出が含まれている.MUC-6 で定義されている時間情報表現夕グ〈TIMEX〉は日付表現 (@type="DATE") と時刻表現 (@type="TIME") からなる. アノテーション対象は絶対的な日付・時刻を表す表現にのみ限定され, “last year”などといった相対的な日付・時刻表現は含まれていない。この MUC-6 のアノテーション基準〈TIMEX〉に対し, Setzer は時間情報表現の正規化に関するアノテーション基準を提案している (Setzer 2001)。評価型国際会議 TERN (DARPA TIDES 2004) では,時間情報表現検出に特化したタスクを設定している。TERN で定義された時間情報表現情報タグ〈TIMEX2〉は,相対的な日付・時刻表現,時間表現や頻度集合表現が検出対象として追加されている.時間情報表現の正規化情報を記述する ISO-8601 形式を拡張した @value 属性などが設計され,こちらも自動解析対象となっている. その後, Pustejovsky らによりアノテーション基準 TimeML (Pustejovsky et al. 2003a)が提案されている。その中では, TERNで用いられている〈TIMEX2〉を拡張した〈TIMEX3〉が提案され, さらに時間情報表現と事象表現の時間的順序関係を関連づけるための情報〈TLINK〉が付加される.これらの情報は人手でアノテーションすることを目的に設計され, TimeBank (Pustejovsky et al. 2003b) や Aquaint TimeML Corpus などの人手による夕グつきコーパスの整備が行われた. これらのコーパスに基づく時間情報表現の自動解析 (Boguraev and Ando 2005; Mani 2006)が試みられたが,夕グの情報に不整合があったり,付与されている時間的順序関係ラベルに偏りが ## 表 2 関連研究 あったりなど扱いにくいものであった (Boguraev and Ando 2006). 2007 年に開かれた SemEval 2007 の一タスク TempEval (Verhagen, Gaizauskas, Schilder, Hepple, Kats, and Pustejovsky 2007) では,時間的順序関係のラベルを簡略化し,人手で見直したデータによる時間的順序関係同定のタスクが行われた。このタスクでは, 時間情報表現に対する正規化情報 @value 属性などがデー夕にあらかじめ付与されており,事象表現の時間的順序関係同定に利用できる設定になっている. 時間情報表現の自動解析に関する研究は英語中心に行われていたが, やがて言語横断的な研究が進められ, 前の 2.2 節に示したような国際標準化がすすめられた. その成果物として, アノテーション形式の共有可能な基準として ISO-TimeML が策定された. その作業と並行して,評価型会議 TempEval-2 (Verhagen, Saurí, Caselli, and Pustejovsky 2010) が実施され,英語だけでなく,イタリア語,スペイン語,中国語,韓国語に関しても同様なデータを利用したタスクが設定された。2013 年に開かれる SemEval-2013 のサブタスク TempEval-3 (UzZaman, Llorens, Derczynski, Allen, Verhagen, and Pustejovsky 2013) では,データの規模を大きくした英語,スペイン語が対象となっている. 海外においては, 哲学者・言語学者・人工知能研究者・言語処理研究者が共有可能な言語資源を作成するという大義のもと, 分野横断的に研究が進められている. さらに多言語に拡張すべく言語横断的に研究が進められている。このような状況のもと個々の研究について境界を明確に示すことは難しい. 次に日本語の時間情報表現に関する研究を示す。日本語において, 時間情報表現抽出はアノテーションのみならず,評価型会議による解析手法の検討が行われている. IREX (IREX 実行委員会 1999)の一タスクとして, 固有表現抽出タスクが設定された. IREX の時間情報では,日付・時刻表現を対象にし,相対的な表現が定義に含まれている。関根らは拡張固有表現体系 (Sekine et al. 2002) を提案し, 辞書/オントロジやコーパスの作成などを行っており, BCCWJ にも同じ体系の拡張固有表現夕グが付与されている (橋本, 中村 2010). 時間情報表現正規化については,小西らが TimeML に基づく〈TIMEX3〉相当の夕グを BCCWJ の一部に付与し,時間情報表現の正規化を行っている (小西他 2013). しかしながら, 日本語の時間情報表現と事象表現をひもづける時間的順序関係に関する研究は, 著者らが知る限りない. 最後に, 時間的順序関係アノテーションの目的について言及する. 工学研究者は (1) 時間情報を解析する構造学習器の構成やベンチマークデータの整備を目的としている。一方, 言語研究者は, (2) 事象表現の時間構造を表現する形式意味論としての記述体系の精緻化を目的としている. これらに対し, 本研究は (3) 受容者としてのアノテーション作業者という要素を考慮し,認知意味論的な分析を目的とする。(3)の目的のために, 被験者実験的な設定のアノテーションを実施する。 ## 2.4 アノテーション対象としての BCCWJ 本節ではアノテーション対象である BCCWJ について述べる. 約 1 億語規模の書き言葉均衡コーパスである BCCWJ は 2006-2010 年に整備され, 2011 年に国立国語研究所(以下「国語研」と略す)から一般公開された。サンプリングの手法から生産サブコーパス・図書館サブコーパス・特定目的サブコーパスの三つに大きく分かれる。生産サブコーパスは 2001-2005 年に出版された書籍 $(\mathrm{PB})$ ・雑誌 $(\mathrm{PM})$ ・新聞 $(\mathrm{PN})$ により構成され,生産実態に基づいてランダムサンプリングされている。図書館サブコーパスは 1986-2005 年に出版された書籍 (LB) により構成され, 流通実態に基づいてランダムサンプリングされている.特定目的サブコーパスは図書館サブコーパスで十分に集まりにくい, 白書 $(\mathrm{OW}) \cdot Y$ Yahoo!知恵袋 $(\mathrm{OC}) \cdot Y$ Yahoo!ブログ $(\mathrm{OY}) \cdot$ 国会会議録 $(\mathrm{OM})$ など様々なレジスタのテキストが収録されている. BCCWJ にはコアデータと呼ばれる約 110 万語からなる部分集合が設定されている. コアデー 夕には人手により国語研規程の短単位・長単位単語境界, UniDic 品詞体系に基づく形態論情報,文節境界などが付与されている。コアデータは生産サブコーパスから書籍 $(\mathrm{PB})$ ・雑誌 $(\mathrm{PM}) \cdot$新聞 $(\mathrm{PN})$ が, 特定目的サブコーパスから白書 $(\mathrm{OW}) \cdot$ Yahoo!知恵袋 $(\mathrm{OC}) \cdot Y$ Yahoo!ブログ $(\mathrm{OY})$ が収録されている。表 3 に各レジスタのサンプルについての統計を示す.このコアデータに対し, 国内の様々な研究機関により, 係り受け情報・述語項構造・節境界・モダリティ情報・フレームネット知識など重畳的にアノテーションが行われている. しかしながら, 100 万語規模のコアデータ全てに対してアノテーションを実施することは困難である。そこで,コアデータの各サンプルに対してアノテーションの優先順位をつけ,約 5-6万短単位ごとの部分集合(表 $3 \cdot 2$ 列目)を規定している。アノテーションに従事する研究者は, それぞれの目的や能力に応じ, この優先順位に従ってアノテーションを実施する. これにより, 優先順位の高いサンプルについてはより多種の言語情報アノテーションが行われることになる. 各サンプルには書誌情報として様々なメタデータが付与されているが, 本研究に重要なメ夕 表 3 BCCWJ コアデータと部分集合 データとして文書作成日時相当の情報がある。 コアデータに収録されている 6 種類のレジス夕のうち, 新聞 $(\mathrm{PN})$ データのみが日単位の文書作成日時の情報が収録されており, 他のレジス夕は年単位の文書作成日時の情報にとどまっている。 本研究では新聞 $(\mathrm{PN})$ データの部分集合 $\mathrm{A}\left(54\right.$ ファイル ${ }^{4}, 2,541$ 文, 56,518 短単位)を対象にアノテーションを行う。アノテーション作業対象を上記範囲に限定した理由は, BCCWJ のコアデータにおいて新聞データのみが文書作成日時を日単位まで保持していること,生産実態に基づいて適切にサンプリングされており通常の報道記事のみならずレシピやコラムが含まれていること, 作業者が一人月でアノテーションを終えることが可能な分量であることなどがある. ## 3 アノテーション基準 ## 3.1 アノテーション作業の概要 アノテーション作業対象は BCCWJ コアデータ新聞データ 54 ファイル(部分集合 A)とする。小西らの時間情報表現の正規化作業により,時間情報表現は〈TIMEX3〉タグにより切り出され,時間情報の正規化情報が与えられている (小西他 2013). アノテーション作業は,最初に事象表現の境界を認定し〈EVENT〉タグを付与し,〈EVENT〉の属性として事象表現の分類を表す@class 属性を付与する。ⓒlass 属性付与の際には時間軸上に事象のインスタンスが認定できるか否かを判断し,判断できる場合には〈EVENT〉に対して 〈MAKEINSTANCE〉タグをスタンドオフ形式で新たに付与する。次に限定された事象のインスタンス間(「文書作成日時と事象表現」,「時間情報表現と事象表現」,「二つの事象表現」)に対して,時間的順序関係を付与する,以下では,それぞれの作業の基準について示す. ## 3.2 事象表現の認定とクラス分類 時間的順序関係のアノテーションを行うために,アノテーション対象である動詞・形容詞・形状詞が事象表現か否か,事象表現が時間軸上の特定の範囲で生起したものか否かの判断が必要となる。また事象構造が動作なのか状態なのかといった識別が必要になる。また, 事象表現間の時間的順序関係を規定するにあたっては,ある事象が他の事象の項になりうるのか,その場合にどのような事象構造を持つのかを分類する必要がある。 国語研規程による長単位の動詞・形容詞・形状詞 4,953 表現に対して〈EVENT〉タグを付与する。事象表現として切り出す際に国語研長単位が適さない場合には切り出し範囲を大きくする方向で修正を行う。本研究は時間情報表現と事象のインスタンス間の時間的順序関係を付与するため, TimeML のアノテーションの形式的な基準に基づいて, 実世界もしくは架空世界 ^{4}$ BCCWJ において1ファイル中に複数の記事が収録されているために記事数ではない } の時間軸上の具体的な特定の範囲で生起したインスタンスが認められるか否かの判別を行い, インスタンスが認められたものについては,〈EVENT〉タグの@class 属性にその事象表現の特性を付与し,〈MAKEINSTANCE〉タグを付与する。インスタンスが認められないものについては,〈MAKEINSTANCE〉タグを付与しない. 時間的順序関係が確認できる事象構造には〈MAKEINSTANCE〉タグを付与したうえで, @class 属性を付与する。ⓒlass 属性は, OCCURRENCE, REPORTING, PERCEPTION, ASPECTUAL, I_ACTION, I_STATE,STATE の 7 種類と作業者がインスタンスが認められないと判断した事象表現・静態表現に付与する NULL, NONE の 2 種類に分類される. OCCURRENCE 項に事象を取らない事象表現一般 REPORTING項に事象を取る表現活動動詞に相当する事象表現 PERCEPTION 項に事象を取る認識・知覚動詞に相当する事象表現 ASPECTUAL項に事象を取るアスペクトを表出する事象表現 I_ACTION項に事象を取る遂行動詞に相当する事象表現 I_STATE項に事象を取る思考・感情動詞に相当する事象表現 STATE 静態動詞, 形容詞 NULL, NONE 時間軸上インスタンスが認められない事象表現 一般の事象表現は OCCURRENCE にあたる.静態動詞はSTATE に分類されるため,STATEにしないもので事物 (Thing) を項とする事象表現はすべて OCCURRENCE とする。残りの 5 種類は, 事物ではなく事象 (Event) を項として導入する事象にのみ用いる。なお,アノテーション対象としての事象は動詞・形容詞・形状詞に限定するが,項として事物か事象かを判断する際には事象名詞も考慮する. この事象表現のインスタンスの認定とクラス分類は, 作業者二人と監督者一人と助言者一人で議論しながら作業を行った。クラス分類を含めて 75-80\% の一致率がコンスタントに得られるまで作業者二人が同一ファイルを作業し, 基準が固まった時点で分担して作業を行った. 基準の策定にあたっては日本語学・言語学の文献 (工藤 1995, 2004; 中村 2001)にある事象表現の分類を参考にした。 以下にそれぞれの例を挙げる。 ## OCCURRENCE:事象表現一般 何かが起こった, 変化した, 発生したなどの一般的な事象構造は, OCCURRENCE とする. すなわち,事象ではなく事物を項とし,静態動詞ではない場合は,すべて OCCURRENCE とする。無意志的(状態・位置)変化動詞や非意志的(現象一般)動詞もこれに含まれる. また,過程 (Process) を示す動詞(例:「住む」)も,OCCURRENCE とみなすこととする。 〈EVENT〉@OCCURRENCE の例 湿地や干潟,河原などが埋め立てで〈EVENT〉減った〈/EVENT〉東京湾. 裸地を好むコアジサシに〈EVENT〉嫌われた〈/EVENT〉か,巣は一つだけ. ニュース写真として〈EVENT〉掲載させていたたくく/EVENT〉ことがあります. 経常利益は数億円単位の黒字に〈EVENT〉なる〈/EVENT〉. メニューに〈EVENT〉挑戦した〈/EVENT〉. ## REPORTING:表現活動動詞 表現活動動詞が,事象に関する発言や告知などをはじめ,概ね「〜と」を用いた引用を行う場合などで,REPORTINGに分類する。なお,「〜を」が用いられている場合は項が事物であるため,OCCURRENCE となる,表現活動動詞には,言う・報告する・告げる・説明する・陳述する・指摘する・伝えるなどが含まれる。 〈EVENT〉@REPORTING の例(太字が注目している項) 大学院でのこうした取り組みは初めてと〈EVENT〉いう〈/EVENT〉. 〜どうかと〈EVENT〉 提言する〈/EVENT〉. ## PERCEPTION:認識・知覚動詞 認識動詞や知覚動詞で,主に事象に関する物理的な知覚が,節や句の「〜の」などによる体言化によって導入される場合などは,PERCEPTIONに分類する。但し,項が事物であるときは,OCCURRENCE とする(例「ホスピスという言葉を初めて聞いた」),見る・観察する・見かける・眺める・聞く・聴く・耳にする・睨む・探る・感じるなどが含まれる.〈EVENT〉@PERCEPTION の例(太字が注目している項)母親が炊飯器でおでんを作ったのを〈EVENT〉見て〈/EVENT〉, なお,新聞データにおいては,文脈により物理的な知覚を導入しない場合が多く, 出現が少ない. ## 〈EVENT〉@PERCEPTION としない例(太字が注目している項) [個人名] [ [内容] について〈EVENT〉聞いた〈/EVENT〉。(インタビューであるため, OCCURRENCE) A を B と〈EVENT〉見る〈/EVENT〉.(判断であるため, OCCURRENCE や I_STATE) ## ASPECTUAL : アスペクト動詞 事象のアスペクト(相)を示す動詞が,事象を導入している場合はこれにあたる.明示的に記述されている場合に限定する。そのため, 接頭辞などの造語成分(例:「再」+動詞による「再団結する」「再開発する」など,「終」「開」による「終演する・開幕する」 など)を含む動詞については, ASPECTUAL に含めない. アスペクトを明示的に表す動詞は,以下のようなものがある. (1) Initiation:始める・始まる (2) Reinitiation : 再開する (3) Termination:終える・止める・終わる・中止する・停止する・あきらめる (4) Culmination:やり終える・完成させる (5) Continuation:続ける・続行する・持続する・維持する・やり通す・保つ 〈EVENT〉@ASPECTUAL の例(太字が注目している項) トーナメントは, 日本時間 10 日夜に第 1 日が〈EVENT〉始まる〈/EVENT〉. [個人名] が勝てば 3 連覇に〈EVENT〉続く〈/EVENT〉偉業達成. 二年目も引き続き好調を〈EVENT〉維持したいく/EVENT〉. とろ火状態を〈EVENT〉保つ〈/EVENT〉. ## I_ACTION (Intensional Action): 内包的な動作 明示された事象の導入を行う(項とする)遂行動詞は I_ACTION と分類する。遂行しない場合は後述する I_STATEとして区別を行う。また,イベントが助詞によって分割されている場合の後半部(例:「連絡をとる」「明らかにする」など)は I_ACTION と考える。次の I_STATE との差別として,挑む・予防する・遅らせる・依頼する・要求する・説得する・約束する・決定する・提案するなど,遂行性のある動詞がこれにあたる。また, 同様に, REPORTING との差別として, 宣言する・主張する・申し出る・断定するなど, PERCEPTION との差別として,調査する・精査するなどが I_ACTIONにあたる. なお, Intentional(意図的)とは異なることに注意されたい. 〈EVENT〉@I_ACTION の例(太字が注目している項) 女性が受け入れられるべきかと〈EVENT〉問われれ〈/EVENT〉ば,イエスだ. 再建を国際社会全体で〈EVENT〉取り組む〈/EVENT〉契機. 支払えないケースが〈EVENT〉出ているく/EVENT〉. [個人名]は速い転がりを〈EVENT〉確かめていたく/EVENT〉. ## I_STATE (Intensional States): 内包的な静態動詞 事象を導入する(項とする)が,事象を遂行しない動詞は I_STATEとする。代替・候補が言及されるなどの状態の導入が主となる.主に思考動詞や感情動詞がこれにあたり,信じる・思う・望む・欲する・期待する・計画するなどの思考動詞のほか, 恐れる・心配する・悩むなどの感情動詞,また,遂行のない動詞として,求める・〜しょうとする・〜 したがるなど,〜できる・〜できないなども含まれる. 〈EVENT〉@I_STATE の例(太字が注目している項) 連覇を〈EVENT〉狙うく/EVENT〉。生活が〈EVENT〉できる〈/EVENT〉. 未現像でも〈EVENT〉構いませんく/EVENT〉. よく見ていてくれたと〈EVENT〉感謝する〈/EVENT〉。(遂行性がないため, I_ACTIONではない) ## STATE : 静態動詞, 形容詞, 形状詞 時間的順序関係と直接かかわらない場合, 文書作成時間に従属しない場合には, 〈EVENT〉 タグをつけないが, 以下の種類の静態動詞 (工藤 1995) と形容詞について, 時間と関わる場合に限り,〈EVENT〉@STATE とする. (1) 存在動詞:ある・いる・存在する・点在する (2) 空間的配置動詞:そびえている・面している・隣接している (3)関係動詞:値する・あたる・あてはまる・相当する・意味する・示す・適する (4) 特性動詞:甘すぎる・大きすぎる・泳げる・話せる・似合う 〈EVENT〉@STATE の例 マネジャーに就任する意向が〈EVENT〉ない〈/EVENT〉ことを明らかにした.(存在) 東京湾岸でも生活〈EVENT〉できる〈/EVENT〉環境さえあれば.(特性動詞.この場合, 「生活ができる」であれば I_STATEとする) 彼女のようにモノをはっきり〈EVENT〉 言える〈/EVENT〉ことがこれからは大切だ. (特性動詞) おいしく〈EVENT〉 食べられますく/EVENT〉。(特性動詞) NULL, NONE :時間軸上インスタンスが認定できない事象表現・静態表現 〈MAKEINSTANCE〉を付与しない事象表現・静態表現.〈MAKEINSTANCE〉タグを付与するか否かの判断基準として, 文書作成日時もしくは他の事象表現との時間的順序関係が定義できるかどうかを重要視する.何らかの変化を含む事象表現ではなく,恒常的あるいは一般的なことをいっていると考えられうる事象表現においては, 時間的順序関係のアノテーションは不可能であるため,〈MAKEINSTANCE〉タグは付与しない. 〈MAKEINSTANCE〉タグを付与しない例(太字が付与しない表現) クラブの運営について 1 票を持っているわけではない. 国際会議 57 件を含め 2,111 件. 火を使わない調理法. 連体修飾節中の動詞が,一般的と判断される場合〈MAKEINSTANCE〉タグを付与しない.〈MAKEINSTANCE〉タグを付与しない例:連体修飾(太字が付与しない表現)旅の安全を守る道祖神. オリーブ畑に囲まれたレストラン. 副詞的用法や慣用的な場合も時間的順序関係が付けがたいため,〈MAKEINSTANCE〉タグを付与しない. 〈MAKEINSTANCE〉タグを付与しない例:慣用表現(太字が付与しない表現) やむを得ない.相次いで出している。 なりふり構わぬ販売攻勢. 文脈によっては,「ある」「なる」「する」などの動詞も,一般的なことを述べているため時間的順序関係が付けがたい場合がある。この場合〈EVENT〉タグを付与しない.〈MAKEINSTANCE〉タグを付与しない例:「ある」など(太字が付与しない表現)〜のためこの名がある. 〜が基本となる. 〜を原則とする. 以下, NULL と NONE のラベルの違いについて述べる. NULLのラベルは本節の作業を行った作業者二人により付与したものである。NONE のラベルは次節の時間的順序関係認定時に, 三人の作業者が時間軸上にインスタンスを認定することができなかったものについて修正付与する. 事象構造そのもののアノテーションは意味論レベルの情報付与に相当し, 言語学的な知見から様々な記号化手法が考えられる。本研究は時間情報表現・事象表現間の時間的順序関係の可視化を目的としており, そのアノテーション形式の標準化である ISO-TimeML の枠組の範囲内で,値割り当てとしてのアノテーション基準を定めた. 本節のアノテーション作業にあたっては次の 3.3 節で行う被験者実験的な時間的順序関係アノテーションの基底となる情報のために MAMA サイクルに基づき厳密な統制を行った. ## 3.3 時間的順序関係の認定 本研究は時間構造に対する複数人の認識の差異を評価するために, 被験者実験的に時間的順序関係アノテーションを実施する。時間的順序関係について, 事象が表現する時間構造が長さ 0 以上の時区間である(時点は長さ0の時区間として扱う)と仮定をおく.このことにより個々人が認識する事象表現の時間構造を, 人工知能分野でよく研究されている Allen の時区間論理 (Allen 1983)として表現することができる. アノテーション作業者は, 時間軸上に二つの時区間をプロットすることで描画的に事象の時区間を表現することができる.直感的であるために短時間の教示でアノテーションが可能になる. 具体的には, 先行研究で付与されている〈TIMEX3〉夕グ範囲の時間情報表現と〈MAKEINSTANCE〉 タグにより認定した事象表現のインスタンスに対して,〈TLINK〉相当の時間的順序関係を認定する.表 4 に示す Allen の二次の範囲代数に基づくラベル(13 種類)を付与する.採用するラベル集合は, 標準化されているアノテーション形式であるため, 他の研究者が多言語で言語横断的に分析する際にも有効だと考える。 なお, 二つの事象表現が during/equal/contains の三つの時間的順序関係にある場合, 部分事象の関係か全く同一の事象の関係でありうる。 そのような場合には表 5 の三つのラベルを付与 表 4 Allen の範囲代数に基づく時間的順序関係ラベル \\ 表 5 事象-部分事象間関係を表現するラベル \\ する 5 . 計 $13+3$ 種類のラベルをまとめると図 2 のようになる.このほかにテキストの情報だけでは全く時間的順序関係がわからない場合に付与するラベルとして‘vague’を利用する。この作業は TimeML の〈TLINK〉付与の作業に相当し,我々も夕グ名として〈TLINK〉を用いる. これらの計 $13+3+1$ 種類のラベルを〈TIMEX3〉タグと〈MAKEINSTANCE〉タグの間,もしくは,  図 2 〈TLINK〉時間的順序関係ラベル一覧 二つの〈MAKEINSTANCE〉タグ間に付与する。本作業で用いる〈MAKEINSTANCE〉タグは前節の作業を精査した 3,839 件を固定して用いる。前節の作業を行った二人とは異なる,三人の作業者が時間的順序関係を行う。文書中の〈MAKEINSTANCE〉タグの対の数は文書中の〈MAKEINSTANCE〉 タグの数の組み合わせに相当し,人手で全ての対を検証することは困難である. 英語の TimeBank では,全ての対で作業者が認定できるものという曖昧な基準で一致率が $55 \%$ と報告されている。本研究では, TempEval などの評価型ワークショップで採用されている「文書作成日時と事象表現の順序関係(“DCT” と呼ぶ)」「同一文内の時間情報表現と事象表現間順序関係(“T2E"と呼ぶ)」「隣接事象表現間順序関係("E2E"と呼ぶ)」「隣接文の末尾の事象表現間順序関係("MATRIX”と呼ぶ)」の 4 種類の表現対についてのみ付与する. 英語の TimeBank は,どの表現対に関係を付与するかというのは作業者にゆたねられている。一方,本研究では 4 種類の表現対について必ず何らかの関係を付与することとし, 現実世界の事象と仮想世界の事象間,もしくは,二仮想世界の事象間などの場合で時間的順序関係が規定できない場合に 'vague’を付与することとしている.本作業の基準では 4 種類の表現対のうち "DCT", "E2E", “MATRIX"の 3 種類について複数の連結可能な単純道をグラフ上確保しており,基本的にアノテーションは連結グラフを構成する。このグラフ中 'vague’の関係が切断辺となる場合,分離された部分グラフは二つの異なる可能世界(実世界-架空世界,異なる二架空世 界)を明示的に表現する。 なお, アノテーション作業に際し, 以下の点に注意した。 - 時間は基本的に区間としてアノテーションを行う.1秒でも区間とする. - 事象は瞬間動詞については点(長さ0の区間)とし,それ以外の表現は区間とする. - 状態動詞などで開始点・終了点がわかりにくいものは, 前工程の〈EVENT〉タグの認定時で排除されているべきだが,わかりにくい場合には作業者の理解にゆだねる. ## 4 アノテーション情報の分析 ## 4.1 事象表現の認定とクラス分類 時間的順序関係を行う前に時間情報表現と事象表現の範囲を切り出す必要がある.時間情報表現の切り出しについては先行研究 (小西他 2013)によりなされており, 今回対象の BCCWJ コアデータ新聞データ 54 ファイル上の分布は表 6 のようになっている. 事象表現の認定とクラス分類の分布は表 7 に示す. 表 6 時間情報表現の分布 表 7 事象表現の分布 & NULL & 1,114 \\ ## 4.2 時間的順序関係の認定 作業者三人により時間的順序関係認定作業を開始した。計 $13+3+1$ 種類のラベルを「文書作成日時と事象表現の順序関係 ("DCT”)」「同一文内の時間情報表現と事象表現間順序関係 (“T2E")」「隣接事象表現間順序関係 (“E2E”)」「隣接文の末尾の事象表現間順序関係 (“MATRIX”)」の 4 種類の表現対に対して付与した。 以下,作業者三人分の作業結果を示し,考察する,表 8 が $13+3+1$ 種類のラベルと 4 種類の表現対ごとに集計したものである。で結ばれた三つの数字は,三人の作業者が何件その関係を認定したかを示す. 右 “=” 以下の数字はその中で三人が一致した件数を示す. まず,一致したラベルの件数として,始点・終点の一致を必要としない 'after', 'during', 'contains', 'before'の頻度が多かった.始点・終点のいずれかの一致を必要とするラべルのうち,もっとも一致件数が多いものは時間軸上の完全の一致を示す 'equal’ であった. また 'vague’についても複数の作業者が認定し, 314 件一致しているところから, 文脈を用いても時間的順序関係が推定できないものが少なからずあることがわかる. 表 9 に 4 種類の表現対ごとの一致率を集計したものを示す. 一致率の評価基準として,「ラベル $13+3+1$ 種類を区別するもの(ラベル $13+3+1$ )」「部分集合であるか否かを区別せず,ラベル $13+1$ 種類を区別するもの(ラベル $13+1$ )」「TempEval で用いられているラベル $5+1$ 種類 ('BEFORE', 'BEFORE-OR-OVERLAP', 'OVERLAP', 'OVERLAP-OR-AFTER', 'AFTER', 'VAGUE' $\left.{ }^{6}\right)$ に縮退するもの(ラベル 5+1)」の 3 種類を用いる。まず,もっとも厳しい一致率 表 8 〈TLINK〉時間的順序関係ラベルの評価 : 作業者間の認定傾向の比較  表 9 〈TLINK〉時間的順序関係ラベルの評価: 4 種類の関係対ごとの一致率 評価基準(ラベル $13+3+1$ )でも $65.3 \%$ の三人の一致率 (Cohen's kappa 0.733) であった. 我々の手法では事象構造の認定については複数人で合議的に行い, その後限られた関係について時間的順序関係アノテーションを行っているが, 事象構造の認定と関係対に対する関係タグ付与作業を同時に行っている英語のデータ TimeBank 1.2 における〈TLINK〉の一致度(関係対の認定の一致率 $55 \%$ と一致した関係対に対する関係夕グの一致率 $77 \%$ )と比較しても遜色ないレべルだと考える。 4 種類の関係については,“DCT” が最も一致率が高く,次に “T2E”が高かった.これは片方が時間情報表現である場合に,時間情報表現側の時間軸上の絶対位置が推定しやすいことによるからだと考える。 一致率評価基準について始点$\cdot$終点の境界値一致の認定を緩和することで, "E2E", “MATRIX" の関係は若干一致率があがることから,作業者間で事象構造の時間的な境界値にずれが生じていることがわかる. 表 10 に 〈EVENT〉の@class ごとの一致率を集計したものを示す。まず,どちらかに静態表現であるSTATEを含む表現対の作業者間ラベル一致率が低い傾向にある。これは静態表現の始点・終点の認識が作業者間で一致することが困難であることによると考える.左項が時間情報表現 (DCT,TIMEX) であり,右項がSTATE である表現をみても,他の時間情報表現-事象表現との関係と比して作業者間ラベル一致率が低い. 事象表現を項にとるかどうかの観点でみると,右項が REPORTING,I_ACTION の関係が平均よりも高い傾向にある。しかしながら,時間的順序関係が定義されている事象表現対が係り受け構造上の係り受け関係にあるか,また述語項関係になっているかを判断するためには他のアノテーションとの重ね合わせが必要である.今後他機関が作成しているアノテーションを重ね合わせたうえで検討していきたいと考えている. 最後に意味論アノテーションに打ける正解のあり方について言及する。テキストが表出する意味レベルの情報の正解は,言語受容者によって完全に復元することは困難であり, $100 \%$ 正しいものを作成するためには言語生産者によるアノテーション作業が不可欠である。言語生産者によるアノテーション作業を BCCWJ に対して行うことは困難であるため, 本研究では作業者三人の結果を統合した形での正解は作成しない.言語受容者の個人の心的空間における時間的順序関係の認識はそれぞれ異なっていてしかるべきであり,受容者ごとに正解があると考える。 表 10 〈TLINK〉時間的順序関係ラベルの評価:〈EVENT〉@class ごとの作業者三人の一致率 列が $\{$ DCT,TIMEX, 〈EVENT〉@class $\}$, 行が $\{\langle$ EVENT〉@class $\}$ を表す. 括弧内は各組み合わせの該当件数. 個々の言語受容者の作業結果の正誤判定として,それぞれのアノテーション内での無矛盾性の認定が考えられる.Allen の二次の範囲代数を,三次以上に拡張すると人の処理能力を超え,機械的に処理するにも適切な演算が必要になるため, 今後の課題とする 7. このアノテーションに基づき解析器の構成を行う場合には何らかの正解を決める必要がある.正解の設定として, 一人の作業者のアノテーションを正解とする方法, 三人の作業者が一致している部分を正解とする方法,三人の作業者それぞれの学習モデルを作成し多数決を取る方法などの様々な方法が考えられる。高性能な構造学習器を構成するためにどのように正解を認めるかについては, 工学研究者に委ねたい. ## 5 おわりに 本研究では『現代日本語書き言葉均衡コーパス』のコアデータ中の新聞データに対して, 時間的順序関係のアノテーションを行い,アノテーションの一致傾向について報告した。時間的順序関係を付与する事象表現の認定にあたり,時間軸上のインスタンスの認定可能性や,取りうる項が事象である場合に他の事象表現にどのような影響を与えるのかに基づいて,事象表現 ^{7}$ Allen の範囲代数を拡張すると, 三次で 409 クラス, 四次で 23,917 クラス, 五次で $2,244,361$ クラスになることが知られている. } を $7+2$ 種類に分類した. 次に,三人の作業者による時間的順序関係の一致率などを検討した結果,事象構造の時間軸上の始点・終点の認識は摇れるものの, 時間軸上の前後関係は時間情報表現にまつわるもので $73 \%$ 以上(ラベル $5+1$ 評価で DCT $74.8 \%$, T $2 \mathrm{E} 73.4 \%$ ),事象表現にまつわるもので $62 \%$ 以上(ラベル $5+1$ 評価で E2E $62.7 \%$, MATRIX $62.3 \%$ )の一致率で付与できることがわかった.本研究におけるアノテーションの評価は, 今回策定した基準や作業者で閉じているために限定的である。今後, データを公開8し, 他機関で同じ部分に付与されているさまざまなアノテー ションを重ね合わせ,䶡齬や矛盾を分析することでより深い分析が可能になると考えられる. また,1節で述べた (b)の意味での目的に応えるために,本データを学習データとして用いた日本語時間的順序関係推定器の開発を今後行っていきたい. 英語の時間的順序関係推定器においては,〈MAKEINSTANCE〉タグに付与されたテンス・アスペクトの情報が有効な特徴量となる.一方,日本語においては,テンス・アスペクトは,準アスペクト表現を除くと「ル」-「夕」× 「テイル」-「テイタ」の二軸の対立しかない. そのうえ「ル」-「夕」の対立は非過去-過去の対立でしかなく,「ル」は定動詞・不定動詞の両方を表現する。このため, 形態素解析結果から直接得られるこれらの情報は時間的順序関係推定器の決定的な特徵量とはならない. 一方, BCCWJ の当該箇所には,他機関によりモダリティ情報・係り受け構造・述語項構造などが付与されている。これらを重ね合わせることで実用的な時間的順序関係推定器が作成できると考えている。 ## 謝 辞 本研究を行うにあたり, 助言いたたきました日本 IBM の吉川克正氏, アノテーションに従事していたたいた方々に感謝いたします。本研究は文科省科研費特定領域研究「代表性を有する大規模日本語書き言葉コーパスの構築 : 21 世紀の日本語研究の基盤整備」, 国語研基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」および国語研「超大規模コーパス構築プロジェクト」によるものです。本論文の一部は The 27th Pacific Asia Conference on Language, Information, and Computation (PACLIC 27) で発表したものです (Asahara, Yasuda, Konishi, Imada, and Maekawa 2013). ## 参考文献 Allen, J. (1983). "Maintaining knowledge about temporal intervals." Communications of the ACM, 26, pp. 832-843. ^{8}$ http://github.com/masayu-a/BCCWJ-Timebank } Asahara, M., Yasuda, S., Konishi, H., Imada, M., and Maekawa, K. (2013). "BCCWJ-TimeBank: Temporal and Event Information Annotation on Japanese Text." In Proceedings of the 27th Pacific Asia Conference on Language, Information, and Computation (PACLIC 27). Boguraev, B. and Ando, R. K. (2005). "TimeML-Compliant Text Analysis for Temporal Reasoning." In Proceedings of the 19th International Joint Conference on Artificial Intelligence (IJCAI-05), pp. 997-1003. Boguraev, B. and Ando, R. K. (2006). "Analysis of TimeBank as a Resource for TimeML parsing." In Proceedings of the 5th International Conference on Language Resources and Evaluation (LREC-06), pp. 71-76. DARPA TIDES (2004). The TERN evaluation plan; time expression recognition and normalization. Working papers, TERN Evaluation Workshop. Grishman, R. and Sundheim, B. (1996). "Message Understanding Conference-6: a brief history." In Proceedings of the 16th International Conference on Computational Linguistics (COLING96), pp. 466-471. 橋本泰一, 中村俊一 (2010). 拡張固有表現夕グ付きコーパスの構築一白書, 書籍, Yahoo! 知恵袋コアデーター. 言語処理学会第 16 回年次大会発表論文集, pp. 916-919. IREX 実行委員会 (1999). IREX ワークショップ予稿集. 国立国語研究所 (2011). 『現代日本語書き言葉均衡コーパス』利用の手引き(第 1.0 版). 小西光, 浅原正幸, 前川喜久雄 (2013). 『現代日本語書き言葉均衡コーパス』に対する時間情報アノテーション. 自然言語処理, $20(2)$, pp. 201-222. 工藤真由美 (1995). アスペクト・テンス体系とテクスト一現代日本語の時間の表現一. ひつじ書房. 工藤真由美 (2004). 日本語のアスペクト・テンス・ムード体系一標準語研究を超えて一. ひつじ書房. Mani, I. (2006). "Machine Learning of Temporal Relations." In Proceedings of the 44th Annual Meeting of the Association for Computational Linguistics (ACL-2006), pp. 753-760. 中村ちどり (2001). 日本語の時間表現. くろしお出版. Pustejovsky, J., Castaño, J., Ingria, R., Saurí, R., Gaizauskas, R., Setzer, A., and Katz, G. (2003a). "TimeML: Robust Specification of Event and Temporal Expressions in Text." In Proceedings of the 5th International Workshop on Computational Semantics (IWCS-5), pp. 337-353. Pustejovsky, J., Hanks, P., Saurí, R., See, A., Gaizauskas, R., Setzer, A., Sundheim, B., Ferro, L., Lazo, M., Mani, I., and Radev, D. (2003b). "The TIMEBANK Corpus." In Proceedings of Corpus Linguistics 2003, pp. 647-656. Pustejovsky, J. and Stubbs, A. (2012). Natural Language Annotation. O'Reilly. Sekine, S., Sudo, K., and Nobata, C. (2002). "Extended Named Entity Hierarchy." In Proceeding of the third International Conference on Language Resources Evaluation (LREC-02), pp. 1818-1824. Setzer, A. (2001). Temporal Information in Newswire Articles: An Annotation Scheme and Corpus Study. Ph.D. thesis, University of Sheffield. UzZaman, N., Llorens, H., Derczynski, L., Allen, J., Verhagen, M., and Pustejovsky, J. (2013). "SemEval-2013 Task 1: TempEval-3: Evaluating Time Expressions, Events, and Temporal Relations." In 2nd Joint Conference on Lexical and Computational Semantics (*SEM), Volume 2: Proceedings of the 7th International Workshop on Semantic Evaluation (SemEval 2013), pp. 1-9, Atlanta, Georgia, USA. Association for Computational Linguistics. Verhagen, M., Gaizauskas, R., Schilder, F., Hepple, M., Kats, G., and Pustejovsky, J. (2007). "SemEval-2007 Task 15: TempEval Temporal Relation Identification." In Proceedings of the 4th International Workshop on Semantic Evaluations (SemEval-2007), pp. 75-80. Verhagen, M., Saurí, R., Caselli, T., and Pustejovsky, J. (2010). "SemEval-2010 Task 13: TempEval-2." In Proceedings of the 5th International Workshop on Semantic Evaluations (SemEval-2010), pp. 57-62. ## 略歴 保田祥:2011 年神戸大学人文学研究科博士後期課程修了. 2013 年より国立国語研究所コーパス開発センタープロジェクト PDフェロー. 現在に至る.博士 (文学). 認知意味論の研究に従事. 小西光:2005 年上智大学文学部卒業. 2007 年上智大学文学研究科博士前期課程修了. 2008 年より国立国語研究所コーパス開発センタープロジェクト奨励研究員. 現在に至る.『日本語書き言葉均衡コーパス』『日本語話し言葉コーパス』『日本語大規模コーパス』の整備に携わる. 浅原正幸:2003 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 2004 年より同大学助教. 2012 年より国立国語研究所コーパス開発センター特任准教授. 現在に至る. 博士 (工学). 形式意味論の研究に従事. 今田水穂:2010 年筑波大学人文社会科学研究科博士課程修了. 筑波大学特任研究員を経て, 2013 年より国立国語研究所コーパス開発センタープロジェクト PDフェロー. 現在に至る. 博士 (言語学). 概念意味論の研究に従事. 前川喜久雄 : 1956 年生. 1984 年上智大学大学院外国語学研究科博士後期課程 (言語学) 中途退学. 国立国語研究所教授. 言語資源系長. コーパス開発セン ター長. 副所長. 博士 (学術). 専門は音声学ならびに言語資源学. (2013 年 4 月 24 日受付) (2013 年 7 月 5 日再受付) (2013 年 8 月 29 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 評価表現と文脈一貫性を利用した 教師データ自動生成によるクレーム検出 乾 孝司 ${ }^{\dagger} \cdot$ 梅澤 佑介 ${ }^{\dagger} \cdot$ 山本 幹雄 $^{\dagger}$ 本論文では,レビュー文書からクレームが記述された文を自動検出する課題に対し て, 従来から問題となっていた人手負荷を極力軽减することを指向した次の手続き および拡張手法を提案する:(1) 評価表現と文脈一貫性に基づく教師デー夕自動生成 の手続き.(2) 自動生成された教師データの特性を踏まえたナイーブベイズ・モデル の拡張手法. 提案手法では, 大量のレビュー生文書の集合と評価表現辞書が準備で きれば, クレーム検出規則の作成・維持・管理, あるいは, 検出規則を自動学習す るために必要となる教師データの作成にかかる人手負荷は全くかからない利点をも つ. 評価実験を通して, 提案手法によって検出対象文の文脈情報を適切に捉えるこ とで,クレーム文の検出精度を向上させることができること,および,人手によっ て十分な教師データが作成できない状況においては, 提案手法によって大量の教師 データを自動生成することで,人手を介在させる場合と同等あるいはそれ以上のク レーム検出精度が達成できることを示した。 キーワード:クレーム,評価表現,文脈一貫性,教師データ ## Complaint Sentence Detection via Automatic Training Data Generation using Sentiment Lexicons and Context Coherence \author{ Takashi Inui $^{\dagger}$, Yusuke Umesawa ${ }^{\dagger}$ and Mikio Yamamoto $^{\dagger}$ } \begin{abstract} We propose an automatic method for detecting complaint sentences from review documents. The proposed method consists of two procedures. One is a data generation procedure using sentiment lexicons and context coherence and the other is the expansion of a naive Bayes classifier based on the characteristics of the training data. This method has an advantage of not requiring human effort for the creation of large-scale training data and management of rules for complaint detection. The experimental results indicate that this method is more effective than the baseline methods. \end{abstract} Key Words: complaint, sentiment expression, context coherence, labeled data †筑波大学大学院システム情報工学研究科コンピュータサイエンス専攻, Department of Computer Science, Graduate school of SIE, University of Tsukuba ## 1 はじめに インターネットの普及により, 個人が Web 上で様々な商品を購入したり, サービスの提供を受けることが可能になった.また,これに伴い,商品やサービスに対する意見や感想が,大量に Web 上に蓄積されるようになった. これらの意見や感想は, ユーザが商品やサービスを購入する際の参考にするだけでなく, 企業にとっても商品やサービスの改善を検討したり, マーケティング活動に活用するなど,利用価値の高い情報源として広く認識されている. 近年ではさらに, ユーザ参加型の商品開発が注目されるなど, ユーザと企業とがマイクロブログやレビューサイト等のソーシャルメディアを通して,手軽に相互にコミュニケーションを持つことも可能となっている。 そして, このようなコミュニケーションの場においては, いわゆる「クレーム」と呼ばれる類のユーザの意見に対して企業側は特に敏感になる必要があり, ユーザが発言したクレームに対しては, 適切に対応することが望まれている. しかしながら, このようなコミユニケーションの場では,次のような理由からユーザのクレームを見落としてしまう懸念がある. - 見落とし例 1 : 特に, マイクロブログ型サービスを通したコミュニケーションでは, 多対一型のコミュニケーション,つまり,大勢のユーザに対して少数の企業内担当者が同時並行的にコミュニケーションを持つことが多く, そのため, 一部のユーザが発言したクレームを見落としてしまう可能性がある. - 見落とし例 2 : 特に, レビューサイトを通したコミュニケーションでは, ユーザは様々な意見をひとつのレビュー文書中に書き込むことが多く,その中に部分的にクレームが埋め达まれることがある(図 1 および図 2 に例を示す。下線部がクレームを示す)。この場合, レビューの中からクレームを見つける必要があるが, これらの一部を見落としてしまう可能性がある. 本論文では,上記のうち,2つ目の見落とし問題に対処すべく, レビューからクレームを自動 図 1 クレームが含まれたレビューの例 1 ひさびさの家族旅行のときに利用しました. せっかくの家 族旅行なのにお渢呂の污れが目立っていたことが気になって しかたがありませんでした. 他はだいたい満足です. 図 2 クレームが含まれたレビューの例 2 検出する手法について述べる。より具体的には,まず,文単位の処理を考え,表 1 のような内容を含む文を「クレーム文」と定義する,そして,レビューが入力された際に,そのレビュー 中の各文のそれぞれに対して,それらがクレーム文かそうでないかを自動判定する手法について検討する。 これまで,テキストからクレームを検出することを目的とした先行研究としては,永井らの研究 (永井, 高山, 鈴木 2002 ; 永井, 増塩, 高山, 鈴木 2003 ) がある. 永井らは, 単語の出現パタンを考慮した検出規則に基づいたクレーム検出手法を提案している.しかしながら,彼らの手法のように人手で網羅的に検出規則を作成するには,作成者がクレームの記述のされ方に関する幅広い言語的知識を有している必要がある。また,現実的に検出規則によって運用するには,膨大な量の規則を人手で作成・維持・管理する必要があり,人的負荷が高いという問題がある。この問題に対する解決策のひとつとして,教師あり学習によって規則を自動学習することが考えられるが,その場合でも,事前に教師デー夕を準備する必要があり,単純には,教師データの作成に労力を要するという別な問題が発生してしまう. 本論文では,上記のような背景を踏まえて,人的な負荷をなるべく抑えたクレーム検出手法を提案する。より具体的には,レビュー文書からクレーム文を自動検出する際の基本的な設定として,テキスト分類において標準的に利用されるナイーブベイズ・モデルを適用することを考え, この設定に対して, 極力人手の負荷を軽减させるために, 次の手続きおよび拡張手法を提案する. - 評価表現および文脈一貫性に基づく教師デー夕自動生成手法を提案する.従来,学習用の教師データを作成するには負荷の高い人手作業に頼らざるを得なかったが,本研究では既存の言語資源と既存の知見に基づくことで,人手作業に頼らずに教師データを自動生成する手法を提案する。 - 次に,上記で生成された教師デー夕に適したモデルとなるように拡張されたナイーブベイズ・モデルを提案する。上記の提案手法によって生成された教師デー夕は自動化の代償として人手作成されたデータと比べて質が劣化せざるを得ず,標準的な分類モデルをそのまま適用するだけでは期待した精度は得られない。本研究では上記のデータ生成手 表 1 クレーム文の定義 & \\ 法で生成されるデータが持つ特性を踏まえて,ナイーブベイズ・モデルを拡張する。提案手法では,従来手法で問題となっていた検出規則の作成・維持・管理,あるいは,規則を自動学習するために必要となる教師データの作成にかかる人手負荷は全くかからない利点をもつ。本論文では,上記の手続き执よび拡張手法について,実デー夕を用いた評価実験を通して, その有效性を検証する。本論文の構成は以下の通りである。まず 2 節で教師データの自動生成手法について説明する。その後, 3 節でナイーブベイズ・モデルの拡張について説明し, 4 節で評価実験について述べる.5 節で関連研究を整理した後, 6 節で本論文をまとめる. ## 2 教師データ自動生成 ## 2.1 教師データ まず,生成したい教師データについて整理する。本研究では,クレーム文を検知するためにナイーブベイズ分類器 (Manning and Schutze 1999) を構築し, 文がクレームを表しているか, あるいはクレームを表していないかのどちらかに分類したい。このような分類器の構築に必要となる教師デー夕は,言うまでもなく,クレームを表している文(以下,クレーム文と呼ぶ)の集合と,クレームを表していない文(以下,非クレーム文)の集合となる,以下では,説明の便宜上,このデー夕集合を得る手続きをラベル付けと呼び,【クレーム】および【非クレーム】というラべルによって,どちらの集合の要素となるかを区別することとする。例えば,図 1 の各文に対してラべル付けが実施されたとすると,次のようなラべル付きの教師データが得られる。 -【非クレーム】従業員の方は親切でした。 ・【非クレーム】最寄りの病院など教えて頂き, とても助かりました。 ・【非クレーム】ありがとうございました. ・【クレーム】ただ残念だったのが,シャワーの使い方がよくわからなかったことです. ・【クレーム】使い方の説明をおいて頂きたいです. 本論文で提案する教師デー夕自動生成手法は, 評価表現の情報に基づくラベル付けステップと,ある文の文脈に対する文脈一貫性の情報に基づくラベル付けステップの 2 ステップで構成される,各ステップをそれぞれ核文ラベル付けおよび近接文ラベル付けと呼ぶことにし,以下で順に説明する。 ## 2.2 核文ラベル付け 核文ラベル付けは,評価表現の情報に基いて行う,評価表現とは,「おいしい」や「まずい」等,評価対象に対する評価を明示的にあらわす言語表現のことである。一般的には,これら表現に「おいしい/肯定」や「まずい/否定」のような肯定・否定の評価極性値を付随させたものを集めて評価表現辞書と呼ばれている (乾,奥村 2006). 核文ラベル付けステップでは,評価表現辞書に否定極性として登録されている評価表現に着目し,このような評価表現を含む文はクレームを表しやすいと仮定する。そして,否定極性の評価表現を含む文をクレーム文としてラベル付けする。降,この手続きで得られる文を次ステップで得られる文と区別するため核文と呼び,特に,核文がクレーム文である場合はクレー 么核文と呼ぶ,例えば,「まずい/否定」という単語が評価表現辞書に登録されている場合,次の例文はクレーム核文としてラベル付けされる. -【クレーム (核)】朝食のカレーがまずい. もし, ある文が肯定極性をもつ評価表現を含み,かつ「ない」や「にくい」などの否定辞が評価表現の 3 単語以内に後続していた場合もクレーム核文としてラベル付けする. 例えば, 次の例文は「おいしい/肯定」の直後に否定辞「ない」が後続しているため, クレーム核文としてラベル付けされる. -【クレーム (核)】朝食のカレーがおいしくない. また,評価表現の否定極性と肯定極性を読み替えて上記と同様の手続きを行った場合に得られる文を非クレーム核文と呼び,クレーム核文と同じょうにラベル付けしておく. -【非クレーム (核)】朝食のカレーがおいしい. -【非クレーム (核)】ハヤシライスは別にまずくはない. さらに,「ほしい」等の要求表現を集めた要求表現辞書が利用できる場合は, 次の例のように要求表現を含む文をクレーム核文としてラベル付けする1. ただ,要求表現に注目したラベル付けの場合は,評価表現の時とは違って,否定辞の有無に関係なくクレーム核文としてラベル付けする。 -【クレーム (核)】朝食に和食メニューをもっと増やしてほしい. ・【クレーム (核)】朝食を洋風なものばかりにしてほしくない. 以降,クレーム核文と非クレーム核文をあわせた文の集合を $\mathcal{S}_{\text {core }}$ であらわす. ## 2.3 近接文ラベル付け 那須川ら (那須川,金山 2004) は,彼らの論文の中で,評価表現の(文をまたいだ)周辺文脈には以下のような傾向があると述べており, これを評価表現の文脈一貫性と呼んた. 文書中に評価表現が存在すると,その周囲に評価表現の連続する文脈 (以降, 評価文脈 ${ }^{2}$ ) が形成されることが多く, その中では, 明示されない限り, 好不評の極性が一致する傾向がある.  本研究では,この評価表現の文脈一貫性の考え方に基いて近接文ラベル付けを行う.先の核文ラベル付けの際に考慮した評価表現(あるいは要求表現)を含む文の周辺文脈について,「評価表現(要求表現)の存在に基づいて(非)クレーム文として選ばれた文の前後文脈に位置する文は,やはり(非)クレーム文である」という仮定をおき,この仮定に従って,核文の周辺文脈に対してラベル付けを行う。この手続きで得られる文を近接文(より詳細にはクレーム近接文あるいは非クレーム近接文)と呼ぶ. 近接文ラベル付けの手続きを Algorithm 1 に示す. この手続きへの入力は, 核文ラベル付けを終えたレビュー $d$ と,核文に対する周辺文脈の長さを決定する窓枠長 $N(\geq 0)$ であり,レビュー $d$ に含まれる核文に対して,レビューの先頭側に現れる核文から末尾側に現れる核文に向かって順に処理が進む。なお, Algorithm 1 において, $s_{i}$ はレビュー $d$ 内の先頭から $i$ 番目の 文をあらわし, $|d|$ は $d$ 内の文数をあらわす. 処理の大きな流れとしては, line.2-9でラベル付けされる文が選択され, line.10-16でラベル付けが実施される. line.17-34の各関数では, 付与するラベルの種類(“クレーム”か“非クレーム”)を確定する際に必要な仮のラベル情報が決められ,その情報が格納される。 図 3 を使って近接文ラベル付けの具体的な実行例を示す. 図の例では,対象となるレビュー は 8 つの文から構成されており,核文ラベル付けによって文 $s_{1}$ が非クレーム核文,文 $s_{5}$ がクレーム核文とラベル付けされた状態であり,この状態から近接文ラベル付けが開始される。窓枠長は $N=2$ とする. この場合,まず,核文 $s_{1}$ の周辺文脈に対する処理がなされる(Algorithm 1 の line.3). $s_{1}$ は文書の先頭文であり前方文脈 (Backward context) は存在しない. そのため, 後方文脈 (Forward context)の $s_{2}$ と $s_{3}$ に対してのみ処理がなされ (line.6-7), それぞれ“非クレー ム”ラベルが配列に格納される (line.29). 次に核文 $s_{5}$ の周辺文脈に対する処理がなされる. $s_{5}$ はクレーム文であるため,前方文脈では $s_{3}$ に対して 2 つ目のラベル“クレーム”が格納され (line.19), また新たに $s_{4}$ に対して “クレーム”ラベルが格納される (line.19). 後方文脈では,まず $s_{6}$ に対して “クレーム”ラベルが配列に格納される (line.28). その一方で, $s_{7}$ は逆接関係の接続詞「しかし」の影響があるため, “クレーム”ではなく“非クレーム”ラベルが格納される (line.31). 最後に,各文に対して格納されたラベル情報をチェックし,格納されたラベルに不整合がない場合は, そのラベル情報に従ってラベル付けを行う (line.10-16). 不整合が生じている場合はその文に対してどのラベルも付与しない。以上の操作によって,この例では 2 つ核文 図 3 近接文ラベル付けの例(密枓長 $N=2$ の場合) から新たに 4 つの近接文 $\left(s_{2}, s_{4}, s_{6}\right.$ および $\left.s_{7}\right)$ が得られる. 以降,クレーム近接文と非クレーム近接文をあわせた文の集合を $\mathcal{S}_{s a t}$ 3であらわす,また,必要に応じて, 核文の前方文脈から得られた近接文 $\mathcal{S}_{s a t}^{B}$ と, 後方文脈から得られた近接文 $\mathcal{S}_{s a t}^{F}$ を区別する $\left(\mathcal{S}_{s a t}=\mathcal{S}_{s a t}^{B} \cup \mathcal{S}_{s a t}^{F}\right)$. ## 3 ナイーブベイズ・モデルの拡張 ## 3.1 ナイーブベイズ・モデル (Naïve Bayes model; NB) 前節で述べた手法によって自動生成された教師デー夕は,人手によって作成された教師デー 夕と比べて質が劣化せざるを得ず,標準的な分類モデルをそのまま適用するだけでは期待した精度は得られない,そこで,前節で述べた手法で得られる劣化を含むデー夕を使用するという前提をおき,この劣化データがもつ特性を踏まえてナイーブベイズ・モデルを拡張することを考える,以下では,まず,通常のナイーブベイズ・モデル(多項モデル)について述べ,その後, モデルの拡張について述べる. ナイーブベイズ分類器では, ある文 $s$ の分類クラスを判定する際に, 条件付き確率 $P(c \mid s)$ を考え, この確率値が最大となるクラス $\hat{c}$ を分類結果として出力する. つまり, $ \hat{c}=\arg \max _{c} P(c \mid s) $ である.通常のナイーブベイズ・モデルでは上式を次のように展開する。 $ \begin{aligned} \arg \max _{c} P(c \mid s) & =\arg \max _{c} P(c) P(s \mid c) \\ & =\arg \max _{c}\left.\{\log p_{c}+\sum_{w \in \mathcal{V}} n_{w}(s) \log q_{w, c}\right.\} \end{aligned} $ ここで, $\mathcal{V}$ は語彙集合, $n_{w}(s)$ は文 $s$ における単語 $w$ の出現回数をあらわす. また, $q_{w, c}, p_{c}$ は教師データを使ってそれぞれ以下の式で計算される。本研究ではパラメータを推定する際にラプラススムージング (Manning and Schutze 1999)を用いる. $ \begin{aligned} q_{w, c} & =\frac{n_{w, c}(\mathcal{D})+1}{\sum_{w} n_{w, c}(\mathcal{D})+|\mathcal{V}|} \\ p_{c} & =\frac{n_{c}(\mathcal{D})+1}{\sum_{c} n_{c}(\mathcal{D})+|\mathcal{C}|} \end{aligned} $  ここで, $\mathcal{D}$ は教師データとなる文の集合, $n_{w, c}(\mathcal{D})$ はデー夕 $\mathcal{D}$ においてクラス $c$ に属する文に現れる $w$ の出現回数, $n_{c}(\mathcal{D})$ はデータ $\mathcal{D}$ においてクラス $c$ に属する文の数, $|\mathcal{V}|$ は語彙の種類数, $|\mathcal{C}|$ は分類クラスの種類数である. 以上からもわかるように,通常のモデルでは,分類対象となる文内の情報のみを考慮し,分類対象文の周辺文脈の様子は全く考慮されない。たとえ同一文書内であっても個々の文は独立に評価・分類する.また,教師デー夕の利用にあたっても,当然のことながら,核文であるか近接文であるかといった区別はなく, 両タイプの文が同等にモデルの構築に利用される. ## 3.2 モデル拡張 前節で述べた教師データ生成過程から得られるデータには,核文および近接文という 2 種類の文が存在する。この 2 種類の文のうち, 核文は近接文とは独立にラベル付けされる一方で,近接文は核文の情報に基いて間接的にラベル付けされる。そのため,核文ラベル付けが結果として誤りであった事例に関しては近接文もその誤りの影響を直接受けることになる。また,当然ながら,文脈一貫性の仮定が成立しない事例もあり得る。このような理由から,近接文は核文に比べて相対的に信頼性の低いデータとなる可能性が高い. そこで,このことを考慮し,核文と近接文の情報をモデル内で区別して扱い,近接文の情報がモデル内で与える影響を下げるよう,式 (2)の代わりに次のような式 (5)を用いる. $ \begin{aligned} \arg \max _{c} P(c \mid s)= & \arg \max _{c} P(c) P(s \mid c) \\ = & \arg \max _{c}\left.\{\log p_{c}+\sum_{w} n_{w}(s) \log q_{w, c}^{t g t}\right. \\ & \left.+\frac{1}{|c t x(s, N)|} \sum_{w} n_{w}(c t x(s, N)) \log q_{w, c}^{c t x}\right.\} \end{aligned} $ 右辺第 3 項に現れる $\operatorname{ctx}(s, N)$ は $s$ の周辺文脈に位置する前方および後方のそれぞれ $N$ 文から構成される文の集合を表しており,この項が分類対象の周辺文脈をモデル化している。この項の係数 $1 /|c t x(s, N)|$ で, 周辺文脈の文数に応じてその影響を調整している。なお, $n_{w}(\operatorname{ctx}(s, N))$ は,集合 $c t x(s, N)$ の要素となる全ての文における単語 $w$ の総出現回数をあらわす。また,右辺第 2 項は通常のモデルと同様に分類対象となる文をモデル化したものであるが, 第 3 項の周辺文脈との区別を明瞭にするため, $q_{w, c}^{t g t}$ という記号を新たに導入した ${ }^{4}$. 式 (5)の $q_{w, c}^{t g t}$ と $q_{w, c}^{c t x}$, および $p_{c}$ はそれぞれ次式で求める. 式中の各記号の意味は式 (3), 式 (4) と同様である.ここで, $\mathcal{D}_{t g t}$ は分類対象文をモデル化するための教師デー夕集合, $\mathcal{D}_{c t x}$ は分類対象の周辺文脈をモデル化するための教師データ集合である.基本的には,前節で得られる教  師データのうち,核文データを $\mathcal{D}_{t g t}$ に割り当て,近接文データを $\mathcal{D}_{c t x}$ に割り当てるが, 正確な記述は後述の 3.3 節で与える. $ \begin{aligned} q_{w, c}^{t g t} & =\frac{n_{w, c}\left(\mathcal{D}_{t g t}\right)+1}{\sum_{w} n_{w, c}\left(\mathcal{D}_{t g t}\right)+\left|\mathcal{V}_{t g t}\right|} \\ q_{w, c}^{c t x} & =\frac{n_{w, c}\left(\mathcal{D}_{c t x}\right)+1}{\sum_{w} n_{w, c}\left(\mathcal{D}_{c t x}\right)+\left|\mathcal{V}_{c t x}\right|} \\ p_{c} & =\frac{n_{c}\left(\mathcal{D}_{t g t}\right)+1}{\sum_{c} n_{c}\left(\mathcal{D}_{t g t}\right)+|\mathcal{C}|} \end{aligned} $ 以降,便宜的にこの拡張されたモデルを $\mathrm{NB}+\operatorname{ctx}$ と呼ぶ. さらに, 式 (5)の第 3 項について, 周辺文脈を分類対象文からの相対位置で詳細化した $ \frac{1}{|c t x(s, N)|}\left.\{\sum_{w} n_{w}(B c t x(s, N)) \log q_{w, c}^{B c t x}+\sum_{w} n_{w}(F c t x(s, N)) \log q_{w, c}^{F c t x}\right.\} $ を代わりに利用するモデルも考えられる。ここで, $\operatorname{Bctx}(s, N)$ は, $s$ の前方文脈に位置する $N$文から構成される文の集合であり, $\operatorname{Fct} x(s, N)$ は同様に後方文脈で構成される文集合である. また, 式中の $q_{w, c}^{B c t x}$ および $q_{w, c}^{F c t x}$ は次式で求める. ただし, $\mathcal{D}_{c t x}=\mathcal{D}_{c t x}^{B} \cup \mathcal{D}_{c t x}^{F}$ である. $ \begin{aligned} q_{w, c}^{B c t x} & =\frac{n_{w, c}\left(\mathcal{D}_{c t x}^{B}\right)+1}{\sum_{w} n_{w, c}\left(\mathcal{D}_{c t x}^{B}\right)+\left|\mathcal{V}_{B c t x}\right|} \\ q_{w, c}^{F c t x} & =\frac{n_{w, c}\left(\mathcal{D}_{c t x}^{F}\right)+1}{\sum_{w} n_{w, c}\left(\mathcal{D}_{c t x}^{F}\right)+\left|\mathcal{V}_{F c t x}\right|} \end{aligned} $ 以降,便宜的にこのモデルを $\mathrm{NB}+\operatorname{ctxBF}$ と呼ぶ. ## 3.3 データ割当規則 ここでは,さきほどの説明で保留していた,パラメータ推定の際に必要となる教師データの与え方について述べる。ここで,前節で述べた手法によって得られるデータ集合を確認すると, - $\mathcal{S}_{\text {core }}$ : クレーム核文と非クレーム核文をあわせた文の集合 - $\mathcal{S}_{s a t}$ :クレーム近接文と非クレーム近接文をあわせた文の集合 - $\mathcal{S}_{s a t}^{B}: \mathcal{S}_{s a t}$ の要素のうち, 核文の前方文脈から得られた文で構成される集合 - $\mathcal{S}_{s a t}^{F}: \mathcal{S}_{s a t}$ の要素のうち, 核文の後方文脈から得られた文で構成される集合 であり, $\mathcal{S}_{\text {sat }}=\mathcal{S}_{\text {sat }}^{B} \cup \mathcal{S}_{\text {sat }}^{F}$ であった. これらデータ集合に対して,まず,核文と近接文を区別しない単純な割当として,得られた全データをまとめて利用することが考えられる。この場合, 拡張モデル $\mathrm{NB}+\mathrm{ctx}$ においての割当は, - $\mathcal{D}_{\text {tgt }}=\mathcal{S}_{\text {core }} \cup \mathcal{S}_{\text {sat }}$ - $\mathcal{D}_{\text {ctx }}=\mathcal{S}_{\text {core }} \cup \mathcal{S}_{\text {sat }}$ となる。これを以降 $\mathrm{NB}+\operatorname{ctx}(\mathbf{a l l})$ と呼ぶ. また同様に,拡張モデル $\mathrm{NB}+\operatorname{ctxBF}$ においての単純な割当は, - $\mathcal{D}_{\text {tgt }}=\mathcal{S}_{\text {core }} \cup \mathcal{S}_{\text {sat }}$ - $\mathcal{D}_{c t x}^{B}=\mathcal{S}_{\text {core }} \cup \mathcal{S}_{\text {sat }}$ - $\mathcal{D}_{c t x}^{F}=\mathcal{S}_{\text {core }} \cup \mathcal{S}_{\text {sat }}$ となるが,これは先の $\mathrm{NB}+\operatorname{ctx}(\mathrm{all})$ と事実上同等となるため以降の議論では割愛する. 次に,核文と近接文の区別を考慮したデータ割当を考える。拡張モデル $\mathrm{NB}+\operatorname{ctx}$ においての割当としては, - $\mathcal{D}_{\text {tgt }}=\mathcal{S}_{\text {core }}$ - $\mathcal{D}_{c t x}=\mathcal{S}_{\text {sat }}$ が考えられる. これを以降 $\mathrm{NB}+\operatorname{ctx}($ divide) と呼ぶ. また同様に, 拡張モデル $\mathrm{NB}+\operatorname{ctxBF}$ においてのデータ割当として, - $\mathcal{D}_{\text {tgt }}=\mathcal{S}_{\text {core }}$ - $\mathcal{D}_{c t x}^{B}=\mathcal{S}_{s a t}^{B}$ - $\mathcal{D}_{c t x}^{F}=\mathcal{S}_{s a t}^{F}$ が考えられる.これを以降 NB+BFctx(divide) と呼ぶ. 最後に, 通常のナイーブベイズについて考えると, この場合は, もともとのモデルにデー夕を区別する枠組みが存在しないため, - $\mathcal{D}=\mathcal{S}_{\text {core }} \cup \mathcal{S}_{\text {sat }}$ という割当のみを考えることになる。なお, $\mathcal{D}=\mathcal{S}_{\text {core }}$ という核文のみを考慮し,近接文を利用しない割当も考えられるが,これは $\mathcal{D}=\mathcal{S}_{c o r e} \cup \mathcal{S}_{s a t}$ において近接文の窓枠長を 0 とする場合に等しいため, 割当規則として明示的には議論しないが, 第 4 節の評価実験では, 近接文の密枠長が 0 の場合も含めて議論する。以降, これを $\mathrm{NB}$ と呼ぶ. ここまでの議論を整理すると, 前節の手法で自動生成された教師デー夕を利用するという前提のもとで,通常のナイーブベイズ・モデルも含めて, 4 つのクレーム文検出モデルが与えられたことになる。次節では,評価実験を通じて,これらの有効性を検証していく. ## 4 評価実験 ## 4.1 検証項目 評価実験を通して,提案手法の有効性を検証する,具体的には以下の 3 項目を検証する. (1)提案手法の比較:前節までで述べた 4 つのクレーム文検出モデルの中で,どのモデルが最良であるかを検証する。 (2)他手法との比較:提案手法と他手法との比較実験を行い, その結果から提案手法の有効性を検証する。 (3)学習データ量とクレーム文検出精度の関係について:提案したデータ生成手法は学習デー 夕を自動生成できるため,人手による生成に比べて遥かに多くの教師データを準備できる.この利点を実験を通して検証する。 ## 4.2 実験の設定 実験には, 楽天データ公開5 において公開された楽天トラベルの施設データを利用した。このデー夕は約 35 万件(平均 4.5 文/件)の宿泊施設に関するレビューから構成されており, ここから,無作為に選んだ 1,000 レビューに含まれる文を評価用データとして用い,残りを教師デー 文がクレーム文であった。つまり,4,308 文からクレームを述べている 1,030 文を過不足なく検出することがここでの実験課題である。評価用デー夕の作成では, まず,レビュー文書中の各文が 1 行 1 文となるようにデー夕を整形し, それを作業者に提示した. そして作業者は,与えられたデータの 1 文(1 行)ごとにクレーム文か否かを判定していった。なお,ある文の判定時には,同一レビュー内の他の全ての文が参照できる状態になっている.2名の作業者によって上記の作業を独立に並行に行ったが,このうち 1 名の作業結果を評価用データとして採用した. 2 名の作業者間の一致度を $\kappa$ 係数の値によって評価したところ, $\kappa=0.93$ であった. この結果は, 作業者間の判断が十分に一致していたことを示している. 作業者間で判断が一致しなかった事例としては, 文が長く, ひとつの文で複数の事柄が述べられている場合や,「長身で据え置きのものでは短くて」のように,クレームの原因が宿泊施設側にあるとは必ずしも言えない場合が多かった。 教師データ生成時に必要となる評価表現辞書には, 高村ら (高村, 乾, 奥村 2006)の辞書作成手法に基いて作成された辞書を使用した,ただし,高村らのオリジナルの辞書は自動構築されたもので,そのままでは誤りが含まれているため,以下の手続きによって誤り修正を施し,本実験で使用する辞書として採用した. オリジナルの辞書には各登録語に対して肯定/否定の強 ^{5}$ http://rit.rakuten.co.jp/rdr/index.html } さを示すと解釈できる $[-1,1]$ の範囲のスコアが付与されている. このスコアは, 値が大きいほど肯定,また,小さいほど否定をあらわし,0付近はどちらでもないことを示していると解釈できる。そこでまず,このスコアの絶対値の大きいものから 0.9 付近までの単語を自動的に選択した。そして,選択された各単語に対して人手による誤り修正を施し,結果として肯定表現 760 件,否定表現 862 件からなる辞書を作成し,本実験に用いた。 また, 要求表現辞書として,「欲しい」,「ほしい」,「べし」からなる辞書を作成して実験に使用した ${ }^{6}$. 周辺文脈の密枠長 $N$ の指定は, データ作成時, モデル学習時, 評価用デー夕の分類時 た,計算の都合上, $N=0$ の場合は $1 /|\operatorname{ctx}(s, N)|=0$ とした. 今回のように,分類すべきクラスがクレーム/非クレームという 2 クラスの分類問題の場合,式 (1)による意思決定は, 以下の式 (12)の符号が正の場合にクレームと判定することになる. $ P(\text { “クレーム" } \mid s)-P(\text { “非クレーム” } \mid s) $ しかし, 本研究では, 式 (12)に意思決定の閥値 $\theta$ を加えた次の条件式を新たに導入し, この条件式が成立する場合にクレームと判定し, 成立しない場合は非クレームと判定することとした. $ P(\text { “クレーム" } \mid s)-P(\text { “非クレーム" } \mid s)>\theta $ 式 (13) の左辺は, クレームと判定する際の確信度を示していると考えることができ, 間値 $\theta$ はこの確信度に応じて出力を制御する役割りを持つ。閾値を $\theta=0$ と設定すると, これは式 (12) を用いた通常の意思決定と同じ動作となる。間値を 0 から大きくすると,より確信度が高い場合のみクレームと判定することになる。実験では, 間値 $\theta$ を増減させ, 以下の式で計算される適合率および再現率,あるいはその要約である 11 点平均適合率 (Manning, Raghavan, and Schutze 2008)を求め, 検出精度を評価した。 11 点平均適合率とは再現率が $\{0.0,0.1, \ldots, 1.0\}$ となる 11 点における適合率の平均値である。 $ \begin{aligned} & \text { 適合率 }=\frac{\text { 正しくクレーム文として検出できた数 }}{\text { クレーム文として出力された数 }} \\ & \text { 再現率 }=\frac{\text { 正しくクレーム文として検出できた数 }}{\text { クレーム文の数 }} \end{aligned} $ データにおけるクレーム文と非クレーム文の割合等に応じて, 検出性能に対して最適な $\theta$ を自動推定することも考えられるが, これについては今後の課題である.  ## 4.3 提案手法の比較 実験結果を図 4 に示す.このグラフは, 4 つの各検出モデルについて,考慮する周辺文脈の空枠長を変化させながら性能変化をプロットしたものである. 文脈長 $N=0$ の場合は, どのモデルも同じになるため, グラフ上では 1 点に集まっている. $\mathrm{NB}$ モデルの結果(“〉”)を基準に考えると,核文と近接文を区別しない $\mathrm{NB}+\operatorname{ctx}(\mathrm{all})$ では文脈長を $N=0$ から $N \geq 1$ のどの文脈の長さに変更しても性能が向上しない一方で,核文と近接文の区別を考慮する $\mathrm{NB}+\operatorname{ctx}$ (divide) と $\mathrm{NB}+\mathrm{BF} c t x($ divide) は文脈長を $N \geq 1$ にすることで,一貫して性能が向上することがわかる。このことから,文脈情報を適切にモデルに反映させるためには,単にモデルを拡張するだけでは効果がなく, データとモデルを上手く組合せて, 核文と近接文を区別することが重要であることが確認できる。性能の向上が見られた NB+ctx(divide) と $\mathrm{NB}+\mathrm{BF} c t x(d i v i d e) を$ 比較すると, どちらも $N \geq 1$ の場合は文脈長の変化に対しては鈍感な傾向を示しているが, 近接文の相対位置を考慮する NB+BFctx(divide) の方が総じて良い結果を示しており,本論文で述べた 4 つのクレーム文検出モデルの中では, NB+BFctx(divide) モデルが最良であることがわかる. 次に,教師データとして自動生成されたクレーム近接文に含まれる単語を確認したところ,表 2 のような単語がクレーム核文には現れず, クレーム近接文にのみ現れていた。このような 図 4 実験結果(提案手法の性能比較) 表 2 クレーム近接文にのみ現れていた単語 「むせ返る」「激臭」「ばらばら」「不遜」 「投げつける」「飛び上がり」「黒焦げ」「むかつく」 単語の情報は, 周辺文脈の情報を取り込むことで初めて考慮できるようになった情報であり, 定性的にもクレーム検出における周辺文脈情報の利用の有効性が確認できる. また文脈情報を取り込むことで正しく分類ができるようになった事例を以下に示す。下線の引かれた文が分類対象であり,左端の数字は分類対象文からの相対位置を示す. -【正しくクレーム文であると判定できた例】 -2 : 疲れていたので苦情をいうのも面倒で, さっさとチェックアウトしました. -1 :普段だったらクレームを入れるレベルです. $0 :$ もう宿泊はないと思います. +1 :残念です. -【正しく非クレーム文であると判定できた例】 -1 :昨年寒い 1 月に宿泊した際,犬を入室させてもらえ助かりました。 0: 今回は寒くはないが飼い犬のミニチュアダックスが老齢 18 歳で泊めて頂け大変助かりました。 +1 :また泊めて頂きます. +2 : 感謝. 次に,誤りの傾向を分析したところ,以下のような事例について,判定誤りが多く見られた. -【誤ってクレーム文と判定する例】 A. 不満の表明ではあるが, その対象・原因が宿泊者にある場合 *【例】仕事で到着が遅くなり,ゆっくりできなかったのが残念でした. B. クレームの対象となりやすい事物が文中に多く記述されている場合 *【例】部屋はデスク, 姿見, 椅子, コンセントがあり, “従業員の対応もまずまずでした。 -【誤って非クレーム文と判定する例】 C. 記述の省略を伴う場合 *【【例】バイキングにステーキがあればなあ. D. 外部的な知識を要する場合 *【【例】全体的な評価としては E ランクでした. 誤ってクレーム文と判定する事例のうち, A. のような事例に対応するには, 意見の対象や原因を特定する等の詳細な自動解析の実現が望まれる.手元のデー夕によると,B. に該当する上述の例のうち, 下線部がクレーム対象となりやすい事物であった。このような事例については, 文中では名詞が多く現れることから, 単語の品詞情報を考慮する等, 単語や単語クラス毎にモデル内での扱いを変更することが考えられる。また,誤って非クレーム文と判定する事例については,「Eランク」を否定極性の単語として扱うなど,ヒューリスティック規則によるチュー ニングは可能であるが,総体的には現在の技術では改善が困難な事例が多い印象である. ## 4.4 他手法との比較 次に, 提案手法と他手法との比較実験を行い, その結果から提案手法の有効性を検証する。他手法としては, 以下に示す 3 手法を検討した。始めの 2 つは, 従来から考えられるラべル付け方法に基づく手法であり, 残りの 1 つは, 教師あり学習を適用しない, 辞書の情報に基づいたルールベースの手法である. $\cdot$ 人手によって教師データを作成する手法(以下,人手ラベル) 教師データ用のレビュー集合から 2,000 件のレビューを無作為に抽出し,そこに含まれる全ての文に対して人手でクレーム/非クレームのラベル付けを行ったものを教師データとしてモデル学習に用いる。この手法で得られるデータでは核文と近接文の区別がないため, 学習には通常のナイーブベイズ・モデルを用いる。提案手法と比べると, この手法では量は少量だが質の高い学習データが利用できる。このデータ作成作業は, 評価実験の正解デー夕作成と同一の作業となる。ただし, このデータ作成には正解データの作成に従事した作業者のうちの 1 名によって執り行なった。作業時間は約 30 時間であった. ・ 文書ラベルを教師データ作成に用いる手法(以下,文書ラベル) 本実験で使用しているレビューデータには, 本研究でいうクレームとほぼ同等の概念を示している「苦情」というラベルがレビュー単位に付与されている。そこで,ここでは,文よりも粗い文書に対する教師情報を利用して,文単位の教師デー夕を自動生成することを考える (Nigam and Hurst 2004),具体的には,「苦情」ラベルが付与されたレビュー に含まれている全ての文をクレーム文とみなし, 逆に, 「苦情」ラベルが付与されていないレビューに含まれている全ての文を非クレーム文とみなすことで教師データを自動生成し, モデル学習に用いる. モデルは先と同様の理由で通常のナイーブベイズ・モデルを用いる. 提案手法と比べると, この手法では相対的に質は低いが, 大量の学習デー夕が利用できる。 - 辞書による手法 この手法は教師あり学習は行わず,辞書のエントリをルールとみなしたルールベース手法である。評価用デー夕に対して 2.2 節で述べた核文ラベル付け, および 2.3 節で述べた近接文ラベル付けの手続きを直接適用してクレーム文を検出する。たたし,ここでの焦点はデータ生成時とは違って, クレーム文を検出できるか否かであるため, ラベル付けの結果,クレームとラベル付けされた文以外は全て非クレームであるとみなして評価し た。なお,辞書は 4.2 節で述べた辞書を用いる. 実験結果を図 5 に示す。また,表 3 に提案手法のラベル付けと人手ラベル,文書ラベルの各手法によるラベル付けの特徴をまとめる。 図 5 において,辞書による手法は,ナイーブベイズモデルを用いた分類時に導入した閾値のパラメータが存在しないため, 11 点平均適合率を計算できない. そのため, ここでは再現率と適合率によって分類性能を評価している。なお,図中の“提案ラベル”が提案手法の結果であり, さきほどの評価実験で最良であった拡張モデル $\mathrm{NB}+\operatorname{ctxBF}$ (divide) で文脈長 $N=2$ の実験結果を揭載している。また,“辞書(核)”は,辞書による手法のうち,核文ラベル付けのみを考慮した場合の結果であり,“辞書(核十近接)”が,核文ラベル付けと近接文ラベル付けの両方を考慮した場合の結果である。 図 5 実験結果(他手法との比較) 表 3 各ラベル付け手法で生成される教師デー夕の特徴 図 5 から,比較したどの手法よりも提案手法が良い性能を示していることがわかる. 辞書による万法は,辞書に登録されている単語が含まれていない文に対しては適用できないため,再現率が低い,近接文を考慮することである程度の再現率を確保することは可能であるが,当然ながらその代償として適合率が下がる結果となっている。ここで, 固有表現抽出課題がそうであるように, 一般に, 辞書に基づいた手法では再現率が低くなるがその一方で適合率が高くなる傾向がある.近接文の情報を用いない“辞書(核)”の結果は特にその傾向を示している.ただし,今回の実験結果では,再現率を固定させて適合率を見ると,ナイーブベイズ・モデルを用いた手法の方が適合率がより高い結果となっていた。これは, 本研究課題では, 辞書に登録されている一部の単語の情報だけでは文全体のクラス(クレーム/非クレーム)が正しく決定できない場合があり,このような場合には, 辞書による方法よりも文内の単語情報を総合的に考慮できるナイーブベイズ・モデルが適していたためと考えられる. 次に,文書ラベルを利用する方法は,文書内のすべての文を教師データとして利用できる.そのため, 提案手法と同程度かそれ以上の教師データが利用できるという特徴がある。しかし, 文書内には一般的にクレームと非クレームが混在することから,文書ラベルと整合していない信頼性の低いデー夕を多く含む結果となり,そのことが性能の低下に繋がっていると考えられる。最後に, 人手作成による方法は, もっとも質の高い教師データを準備することができるが, 作成負荷の高さから,量を確保することが難しい,今回は人手で 2,000 件( 8,639 文)のレビュー から教師データを作成したが, 提案手法を上回ることはなかった. ## 4.5 学習データとクレーム文検出精度の関係について 先でも述べたように,一般に,人手作成された教師デー夕は質が高い反面, 多くの量を準備することが困難である。一方, 提案手法のように自動生成された教師デー夕は人手作成されたデータよりも質が落ちるが,ラベルのない生データを準備するだけで手軽に増量できる。ここでは,人手によって教師データを作成する場合と第 2 節の提案手法によって教師データを自動生成する場合のそれぞれについて, 教師データの量と分類性能の関係を調査する。 なお, 両者で教師データ以外の実験条件を合わせるために,この実験では,モデルには通常のナイーブベイズ・モデルを用いた。 実験結果を図 6 に示す. 横軸が学習デー夕量(対数スケール)であり,縦軸が 11 点平均適合率である。どちらの実験結果についても,まず今回の実験において最大で利用可能なデー夕量 (人手ラベルの場合:レビュー 2,000 件, 提案ラベルの場合 : レビュー約 347,000 件)から性能測定を開始し,そこから一部の学習デー夕を無作為に削除することで使用できる学習データ量がより少ない環境を設定して, これを繰り返しながらグラフをプロットした. 図 6 から,まず,どちらの手法においてもデー夕量を増やすことで性能が向上することが確認できる.デー夕量が同じ場合は, 当然のことながら, 人手による方法の方が良い性能となる. しかし,提案手法によってデー夕量を増加させることで,今回の場合は 10,000 件までデー夕量を増やした時点で両者の性能が同等となり,さらにデー夕量を増やすことで提案手法が人手による手法を上回ることができた。 この実験結果は,あくまでひとつのケース・スタデイであり,具体的な数値自体に意味を求めることは困難であると考えられる。しかし,この結果は,人手によって十分な教師データが作成できない状況においては, 自動生成手法を適用することで得られる教師デー夕の量的利点という恩恵を受けられることを示唆していると言える。 ## 5 関連研究 従来から,評判分析に関する研究を中心にして,意見を好評/不評に分類する研究が多くなされている (Pang and Lee 2008)。しかし,本論文では,応用面を重視した際,主に製品やサー ビスを提供する企業にとっては意見の好不評という側面たけでは十分でないことから,クレー ムという好不評とは異なる観点を導入し,意見を含むテキストからクレームという特定の意見を検出する手法について述べた,我々と同様に好評/不評以外の意見に着目した研究には,第 1 節で述べた永井らの研究 (永井他 2002,2003 ) の他にも幾つか存在する. 例えば,金山ら (金山,那須川 2005) は,テキストから好評/不評の評判に加えて要望を抽出する手法を提案している。彼らの手法は,文に含まれる評判や要望を意図フレームと呼ばれる独自の形式に自動的 に変換しつつ抽出するようになっており, この変換・抽出処理において, 既存の機械翻訳機構を再利用している.彼らの抽出対象である評判,要望の中に本研究におけるクレームも含まれていると考えられるが, 彼らの手法は, 機械翻訳機構が内部的に備える各種の言語知識のもとに成立しており, 運用には人手による多大な管理負荷を要すると考えられる。一方で, 本研究では極力人手の負荷を軽減することを指向しており,金山らの手法とはアプローチの方向性が異なる。また, 他の関連研究として, 自由記述アンケートから要求や要望を判定することに特化した大塚ら (大塚, 内山, 井佐原 2004) や山本ら (山本, 乾, 高村, 丸元, 大塚, 奥村 2006) の研究がある.彼らの論文中に定義がないため厳密にはよくわからないが, 彼らの扱っている要求や要望といった意見の分類クラスは, 我々のクレームの一部分に該当すると考えられる. Goldberg ら (Goldberg, Fillmore, Andrzejewski, Xu, Gibson, and Zhu 2009)は, 新年の願い事が集められたテキストコーパスからWish(願望)を機械学習を用いて自動抽出する研究を行っている. 本研究では,レビュー中の各文をクレーム/非クレームに分類する課題に対して,ナイーブベイズ・モデルを採用し,データ特性に合わせて,その拡張を行った,拡張モデルでは,文間の周辺文脈をモデルに適切に反映させることができる。ここで,文書中の各文を対象とした分類問題を,文書中の文系列に対するラベリング問題とみなすことで,条件付確率場 (Conditional Random Fileds; CRF) (Lafferty, McCallum, and Pereira 2001)のような, より高度なモデルを適用することについて検討する。まず, 2 節で述べたデー夕生成過程では,文書内のすべての文に対してラベルを付与するわけではなく,ある特定の文のみにラベルを付与することで教師データを作成する。そのため, CRFのような系列の構成要素についての全てのラべルを必要とするようなモデルは本研究の設定では直接は適用できない. 坪井ら (坪井, 森, 鹿島, 小田, 松本 2009) によって, 部分的なアノテーション情報から CRF の学習を行う手法が提案されており,この手法を適用することは不可能ではないが, 彼らの手法を適切に適用するにあたり,アノテーションされている部分は人手による信頼性の高い情報であるという暗黙的な仮定が必要であると考えられ,データの自動生成を前提とする本研究の設定とは相性が良くないと考えられる。 ## 6 おわりに 本論文では,レビュー文書からクレームが記述された文を自動検出する手法として,極力人手の負荷を軽減することを指向した次の 2 つの手法を提案した。(1)評価表現と文脈一貫性に基づく教師データ自動生成手法. (2) 自動生成された教師デー夕の特性を踏まえたナイーブベイズ・モデルの拡張手法. そして, 評価実験を通して, これらの提案を組合せ,検出対象となる文の周辺文脈の情報を適切に捉えることで,クレーム文の検出精度を向上させることができ ることを示した,また,人手によって十分な教師データが作成できない状況においては, 提案したデータ自動生成手法を適用することで得られる教師データの量的恩恵を受けられることを示した. 本論文で議論ができなかった今後の課題としては,以下のような項目があげられる。 ・ 分類クラスの事前分布について:ナイーブベイズ・モデルでは, 式 (2)にあるように, 分類クラスの事前分布 $P(c)$ の情報を考慮する. しかし, 本研究のように教師データを自動生成する際は事前分布 $P(c)$ はデー夕自動生成手法に依存しており, 本研究の場合では,利用する評価表現辞書の特徴に依存することになる,今後,評価表現辞書および事前分布 $P(c)$ と検出性能との関係について考察することが必要である. - 各種のパラメータ調整について: 本研究において, 幾つかのパラメータは恣意的に指定している,例えば,考慮する周辺文脈の長さについて評価実験では可変させていたが,それらは, データ生成, モデル学習, 分類の各過程で同期させている. しかし, 原理的にはデータ生成時のみ文脈長を延長するといった設定も可能であり, これらの最適な調整は今後の課題である。 ・学習アルゴリズムについて:本研究では基本モデルとしてナイーブベイズ・モデルを採用して議論を進めたが, 同様の議論を Support Vector Machine (SVM) (Vapnik 1995)のような別の学習アルゴリズムを用いて行うことも興味深い.ただし,SVM にはモデルの学習速度が遅いという久点がある。 そのため, 提案手法の利点である大規模な教師デー 夕を自動生成できるという点を活かすためにはSVM の高速学習を含めた総合的な検討が必要である. - クレームの内容分類について:本研究はクレーム検出をクレームであるか否かという 2 値分類問題として扱った. しかし, 実利用環境で検出されたクレームを企業内で活かしていくには,クレーム内容も合わせて自動分類できることが望ましい。例えば,対象が宿泊施設の場合では,「部屋」や「食事」といったクレームの対象に関する分類クラスを別途設定し, これらも同時に考慮した検出モデルを検討することも興味深い. - 見逃し状況について:クレームを見逃す状況として, 本論文では, レビュー文書内に部分的に現れるクレームの見逃しについて扱った。しかし,第 1 節でも述べたように,多対一型のコミュニケーションに起因する見逃しへの対処も重要である. 今後, 多対一型のコミュニケーションに起因する見逃しに対する提案手法の適用可能性についても検討したい. ## 謝 辞 本研究を遂行するにあたり, 楽天株式会社楽天技術研究所の新里圭司氏, 平手勇宇氏, 山田薫氏から示唆に富む多くの助言を頂きました,諸氏に深く感謝いたします。また,実験にあたり, 楽天トラベル株式会社から施設レビューデータを提供して頂きました. ここに記して感謝の意を表します. ## 参考文献 Goldberg, A. B., Fillmore, N., Andrzejewski, D., Xu, Z., Gibson, B., and Zhu, X. (2009). "May All Your Wishes Come True: A Study of Wishes and How to Recognize Them." In Proceedings of the Human Language Technology Conference and the North American Chapter of the Association for Computational Linguistics, pp. 263-271. 乾孝司, 奥村学 (2006). テキストを対象とした評価情報の分析に関する研究動向. 自然言語処 理, 13 (3), pp. 201-241. 金山博, 那須川哲哉 (2005). 要望表現の抽出と整理. 言語処理学会第 11 回年次大会発表論文集, pp. 660-663. Lafferty, J., McCallum, A., and Pereira, F. (2001). "Conditional random fields: Probabilistic models for segmenting and labeling sequence data." In Proceedings of the 29th Internatinal Conference on Machine Learning, pp. 282-289. Manning, C. D. and Schutze, H. (1999). Foundations of Statistical Natural Language Processing. The MIT Press. Manning, C. D., Raghavan, P., and Schutze, H. (2008). Introduction to Information Retrieval. Cambridge University Press. 永井明人, 高山泰博, 鈴木克志 (2002). 単語共起照合に基づくクレーム抽出方式の改良. 情報科学技術フォーラム, pp. 113-114. 永井明人, 増塩智宏, 高山泰博, 鈴木克志 (2003). インターネット情報監視システムの試作. 情 報処理学会研究報告. 自然言語処理研究会報告, 2003 (23), pp. 125-130. 那須川哲哉, 金山博 (2004). 文脈一貫性を利用した極性付評価表現の語彙獲得. 情報処理学会研究報告. 自然言語処理研究会報告, 2004 (73), pp. 109-116. Nigam, K. and Hurst, M. (2004). "Towards a Robust Metric of Opinion." In AAAI Spring Symposium on Exploring Attitude and Affect in Text: Theories and Applications, pp. 98-105.大塚裕子, 内山将夫, 井佐原均 (2004). 自由回答アンケートにおける要求意図判定基準. 自然言語処理, $11(2)$, pp. 21-66. Pang, B. and Lee, L. (2008). Opinion Mining and Sentiment Analysis - Foundations and Trends in Information Retrieval Vol.2, Issue 1-2. Now Publishers Inc. 高村大也, 乾孝司, 奥村学 (2006). スピンモデルによる単語の感情極性抽出. 情報処理学会論文誌, $47(2)$, pp. 627-637. 坪井祐太, 森信介, 鹿島久嗣, 小田裕樹, 松本裕治 (2009). 日本語単語分割の分野適応のための部分的アノテーションを用いた条件付確率場の学習. 情報処理学会論文誌, 50 (6), pp. 1622-1635. Vapnik, V. N. (1995). The Nature of Statistical Learning Theory. Springer. 山本瑞樹, 乾孝司, 高村大也, 丸元聡子, 大塚裕子, 奥村学 (2006). 文章構造を考慮した自由回答意見からの要望抽出. 言語処理学会第 12 回年次大会併設ワークショップ「感情・評価・態度と言語」。 ## 略歴 乾孝司: 2004 年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員, 東京工業大学統合研究院特任助教等を経て, 2009 年筑波大学大学院システム情報工学研究科助教. 現在に至る. 博士 (工学).近年は CGM テキストに対する評判分析に興味をもつ. 梅澤佑介:2011 年筑波大学情報学群情報メディア創成学類卒業. 2013 年筑波大学大学院システム情報工学研究科コンピュータサイエンス専攻修了. 同年 4 月から株式会社ヤフー。在学中は自然言語処理の研究に従事. 山本幹雄:1986 年豊橋技術科学大学大学院修士課程修了. 同年株式会社沖テクノシステムズラボラトリ研究開発員. 1988 年豊橋技術科学大学情報工学系教務職員. 1991 年同助手. 1995 年筑波大学電子・情報工学系講師. 1998 年同助教授. 2008 年筑波大学大学院システム情報工学研究科教授. 博士 (工学).自然言語処理の研究に従事. 言語処理学会, 人工知能学会, ACL 各会員. }} \\
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# $\mathrm{k$ 近傍法とトピックモデルを利用した語義曖昧性解消の領域適応 } 新納 浩幸 $\cdot$ 佐々木 稔 $\dagger$ } 本論文では語義曖昧性解消 (Word Sense Disambiguation, WSD) の領域適応に対す る手法を提案する. WSD の領域適応の問題は,2つの問題に要約できる. 1 つは領域間で語義の分布が異なる問題, もう 1 つは領域の変化によりデータスパースネス が生じる問題である。本論文では上記の点を論じ, 前者の問題の対策として学習手法に $\mathrm{k}$ 近傍法を補助的に用いること, 後者の問題の対策としてトピックモデルを用 いることを提案する。具体的にはターゲット領域から構築できるトピックモデルに よって, ソース領域の訓練データとターゲット領域のテストデータにトピック素性 を追加する。拡張された素性べクトルから SVM を用いて語義識別を行うが, 識別 の信頼性が低いものには $\mathrm{k}$ 近傍法の識別結果を用いる。BCCWJコーパスの 2 つの 領域 PB(書籍)と OC(Yahoo!知恵袋)から共に頻度が 50 以上の多義語 17 単語 を対象にして,WSD の領域適応の実験を行い,提案手法の有効性を示す. 別種の 領域間における本手法の有効性の確認, 領域の一般性を考慮したトピックモデルを WSD に利用する方法, および WSD の領域適応に有効なアンサンブル手法を考案 することを今後の課題とする. キーワード:語義曖昧性解消, 領域適応, トピックモデル, $\mathrm{k}$ 近傍法, 教師なし学習 ## Domain Adaptation for Word Sense Disambiguation using k-Nearest Neighbor Algorithm and Topic Model \author{ Hiroyuki Shinnou $^{\dagger}$ and Minoru Sasaki ${ }^{\dagger}$ } In this paper, we propose the method of domain adaptation for word sense disambiguation (WSD). This method faces the following problems for WSD. (1) The difference between sense distributions on domains. (2) The sparseness of data caused by changing the domain. In this paper, we discuss and recommend the countermeasure for each problem. We use the k-nearest neighbor algorithm (k-NN) and the topic model for the first and second problems, respectively. In particular, we append topic features developed by the topic model for target domain corpus to to training data in source domain and test data in target domain. Using the extended features of support vector machine (SVM) classifier, we solve WSD. However, when the reliability of decision of the SVM classifier for a test instance is low, we use the decision of the k-NN. In the experiment, we select 17 ambiguous words in both domains, PB (books) and OC (Yahoo! Chie Bukuro) in the balanced corpus of contemporary written Japanese (BCCWJ corpus), which appear 50 times or more in these domains, and conduct the experiment of domain adaptation for WSD using these words to show the effectiveness  of our method. In the future, we will apply the proposed method to other domains and examine a way to use the topic model considering the universality of a corpus, and an effective ensemble learning for domain adaptation for WSD. Key Words: Word Sense Disambiguation, Domain Adaptation, Topic Model, $k$-Nearest Neighbor Algorithm, Unsupervised Learning ## 1 はじめに 自然言語処理のタスクにおいて帰納学習手法を用いる際, 訓練データとテストデータは同じ領域のコーパスから得ていることが通常である。ただし実際には異なる領域である場合も存在する。そこである領域(ソース領域)の訓練データから学習された分類器を, 別の領域(ター ゲット領域)のテストデータに合うようにチューニングすることを領域適応という ${ }^{1}$. 本論文では語義曖昧性解消 (Word Sense Disambiguation, WSD) のタスクでの領域適応に対する手法を提案する. まず本論文における「領域」の定義について述べる。「領域」の正確な定義は困難であるが,本論文では現代日本語書き言葉均衡コーパス (BCCWJ コーパス)(Maekawa 2007) におけるコー パスの「ジャンル」を「領域」としている。コーパスの「ジャンル」とは,概略,そのコーパスの基になった文書が属していた形態の分類であり,書籍,雑誌,新聞,白書,ブログ,ネッ卜揭示板,教科書などがある,つまり本論文における「領域」とは,書籍,新聞,ブログ等のコーパスの種類を意味する。 領域適応の手法はターゲット領域のラベル付きデータを利用するかしないかという観点で分類できる.利用する場合を教師付き手法, 利用しない場合を教師なし手法と呼ぶ. 教師付き手法については多くの研究がある ${ }^{2}$. また能動学習 (Settles 2010) や半教師あり学習 (Chapelle, Schölkopf, and Zien 2006)は, 領域適応の問題に直接利用できるために,それらのアプローチをとる研究も多い. これらに対して教師なし手法の従来研究は少ない. 教師なし手法は教師付き手法に比べパフォーマンスが悪いが, ラベル付けが必要ないという大きな長所がある。また領域適応は転移学習と呼ばれることからも明らかなように, ソース領域の知識(例えば, ラベル付きデータからの知識)をどのように利用するか(ターゲット領域に転移させるか)が解決の鍵であり,領域適応の手法はターゲット領域のラベル付きデータを利用しないことで,その効果が明確になる.このため教師なし手法を研究することで, 領域適応の問題が明確になると考えている。この点から本論文では教師なし手法を試みる.  本論文の特徴は WSD の領域適応の問題を以下の 2 点に分割したことである. (1) 領域間で語義の分布が異なる (2)領域の変化によりデータスパースネスが生じる 領域適応の手法は上記 2 つの問題を同時に解決しているものが多いために,このような捉え方をしていないが,WSD の領域適応の場合,上記 2 つの問題を分けて考えた方が,何を解決しようとしているのかが明確になる。本論文では上記 2 点の問題に対して,ターゲット領域のラベル付きデータを必要としない各々の対策案を提示する。具体的に,(1)に対しては $\mathrm{k}$ 近傍法を補助的に利用し, (2) に対しては領域毎のトピックモデル (Blei, Ng, and Jordan 2003)を利用する。実際の処理は,ターゲット領域から構築できるトピックモデルによって,ソース領域の訓練データとターゲット領域のテストデータにトピック素性を追加する。拡張された素性べクトルから SVM を用いて語義識別を行うが,識別の信頼性が低いものには $\mathrm{k}$ 近傍法の識別結果を用いる. 上記の処理を本論文の提案手法とする。提案手法の大きな特徴は, トピックモデルを WSD に利用していることである。トピックモデルの構築には語義のラベル情報を必要としないために,領域適応の教師なし手法が実現される、トピックモデルを WSD に利用した従来の研究 $(\mathrm{Li}$, Roth, and Sporleder 2010; Boyd-Graber, Blei, and Zhu 2007; Boyd-Graber and Blei 2007) はいくつかあるため,それらとの差異を述べておく。まずトピックモデルを WSD に利用するにしても,その利用法は様々であり確立された有効な手法が存在するわけではなく, ここで利用した手法も 1 つの提案と見なせる。また従来のトピックモデルを利用した WSD の研究では,語義識別の精度改善が目的であり,領域適応の教師なし手法に利用することを意図していない.そのためトピックモデルを構築する際に,もとになるコーパスに何を使えば有効かは深くは議論されていない。しかし領域適応ではソース領域のコーパスを単純に利用すると,精度低下を起こす可能性もあるため,本論文ではソース領域のコーパスを利用せず,ターゲット領域のコー パスのみを用いてトピックモデルを構築するアプローチをとることを明確にしている。この点が大きな差異である. 実験では BCCWJ コーパス (Maekawa 2007)の2つ領域 PB(書籍)と OC(Yahoo!知恵袋) から共に頻度が 50 以上の多義語 17 単語を対象にして, WSD の領域適応の実験を行った. 単純にSVM を利用した手法と提案手法とをマクロ平均により比較した場合,OCをソースデータにして,PBをターゲットデータにした場合には有意水準 0.05 で,ソースデータとターゲットデータを逆にした場合には有意水準 0.10 で提案手法の有効性があることが分かった. ## 2 WSD の領域適応の問題 $\mathrm{WSD}$ の対象単語 $w$ の語義の集合を $C=\left.\{c_{1}, c_{2}, \cdots, c_{k}\right.\}, w$ を含む文(入力データ)を $x$ とする. WSD の問題は最大事後確率推定を利用すると, 以下の式の値を求める問題として表現できる. $ \arg \max _{c \in C} P(c) P(x \mid c) $ つまり訓練データを利用して語義の分布 $P(c)$ と各語義上での入力データの分布 $P(x \mid c)$ を推定することで WSD の問題は解決できる. 今, ソース領域を $S$, ターゲット領域を $T$ とした場合, WSD の領域適応の問題は $P_{S}(c) \neq P_{T}(c)$ と $P_{S}(x \mid c) \neq P_{T}(x \mid c)$ から生じている. $P_{S}(c) \neq P_{T}(c)$ が成立していることは明らかだが, $P_{S}(x \mid c) \neq P_{T}(x \mid c)$ に対しては一考を要する. 一般の領域適応の問題では $P_{S}(x \mid c) \neq P_{T}(x \mid c)$ であるが, WSD に限れば $P_{S}(x \mid c)=P_{T}(x \mid c)$ と考えることもできる. 実際 Chan らは $P_{S}(x \mid c)$ と $P_{T}(x \mid c)$ の違いの影響は非常に小さいと考え, $P_{S}(x \mid c)=P_{T}(x \mid c)$ を仮定し, $P_{T}(c)$ を EM アルゴリズムで推定することで WSD の領域適応を行っている (Chan and Ng 2005, 2006). 古宮らは2つのソース領域の訓練データを用意し, そこからランダムに訓練データを取り出してWSD の分類器を学習している (古宮, 小谷, 奥村 2013),論文中では指摘していないが,これも $P_{S}(c)$ を $P_{T}(c)$ に近づける工夫である。ソース領域が 1 つだとランダムに訓練データを取り出しても $P_{S}(c)$ は変化しないが,ソース領域を複数用意することで $P_{S}(c)$ が変化する. ただし $P_{S}(x \mid c)=P_{T}(x \mid c)$ が成立していたとしても, WSD の領域適応の問題が $P_{T}(c)$ の推定に帰着できるわけでない. 仮に $P_{S}(x \mid c)=P_{T}(x \mid c)$ であったとしても,領域 $S$ の訓練データだけから $P_{T}(x \mid c)$ を推定することは困難だからである。これは共変量シフトの問題 (Shimodaira 2000;杉山 2006) と関連が深い. 共変量シフトの問題とは入力 $x$ と出力 $y$ に対して, 推定する分布 $P(y \mid x)$ が領域 $S$ と $T$ で共通しているが, $S$ における入力の分布 $P_{S}(x)$ と $T$ における入力の分布 $P_{T}(x)$ が異なる問題である. $P_{S}(x \mid c)=P_{T}(x \mid c)$ の仮定の下では, 入力 $x$ と出力 $c$ が逆になっているので, 共変量シフトの問題とは異なる。ただしWSD の場合, 全く同じ文 $x$ が別領域に出現したとしても, $x$ 内の多義語 $w$ の語義が異なるケースは非常に稀であるため $P_{S}(c \mid x)=P_{T}(c \mid x)$ が仮定できる. $P_{T}(c \mid x)$ は語義識別そのものなので, WSD の領域適応の問題は共変量シフトの問題として扱えることができる。共変量シフト下では訓練事例 $x_{i}$ に対して密度比 $P_{T}\left(x_{i}\right) / P_{S}\left(x_{i}\right)$ を推定し,密度比を重みとして尤度を最大にするようにモデルのパラメータを学習する。Jiang らは密度比を手動で調整し, モデルにはロジステック回帰を用いている (Jiang and Zhai 2007).齋木らは $P(x)$ を unigram でモデル化することで密度比を推定し, モデルには最大エントロピー モデルを用いている (齋木, 高村, 奥村 2008). ただしどちらの研究もタスクは WSD ではない. WSD では $P(x)$ が単純な言語モデルではなく, 「 $x$ は対象単語 $w$ を含む」という条件が付いて いるので, 密度比 $P_{T}(x) / P_{S}(x)$ の推定が困難となっている. また教師なしの枠組みで共変量シフトの問題が扱えるのかは不明である. 本論文では $P_{S}(c \mid x)=P_{T}(c \mid x)$ を仮定したアプローチは取らず, $P_{S}(x \mid c)=P_{T}(x \mid c)$ を仮定する。この仮定があったとしても,領域 $S$ の訓練データだけから $P_{T}(x \mid c)$ を推定するのは困難である。ここではこれをスパース性の問題と考える。つまり領域 $S$ の訓練データ $D$ は領域 $T$ においてスパースになっていると考える。 スパース性の問題だと考えれば, 半教師あり学習や能動学習を領域適応に応用するのは自然である³(Rai, Saha, Daumé, and Venkatasubramanian 2010). また半教師あり学習や能動学習のアプローチを取った場合, $T$ の訓練データが増えるので語義の分布の違い自体も同時に解消されていく(Chan and $\mathrm{Ng} 2007)$. ここで指摘したいのは $P_{S}(x \mid c)=P_{T}(x \mid c)$ が成立しており $P_{T}(x \mid c)$ の推定を困難にしているのがスパース性の問題だとすれば,領域 $S$ の訓練デー夕 $D$ は多いほどよい推定が行えるはずで, $D$ が大きくなったとしても推定が悪化するはずがない点である. しかし現実には $D$ 大きくすると WSD 自体の精度が悪くなる場合もあることが報告されている(例えば (古宮他 2013))。 これは一般に負の転移現象 (Rosenstein, Marx, Kaelbling, and Dietterich 2005) と呼ばれている. WSD の場合 $P_{T}(x \mid c)$ を推定しようとして, 逆に語義の分布 $P_{T}(c)$ の推定が悪化することから生じる。つまり領域 $T$ における WSD の解決には $T$ におけるデータスパースネスの問題に対処しながら,同時に $P_{T}(c)$ の推定が悪化することを避けることが必要となる. また領域適応ではアンサンブル学習も有効な手法である。アンサンブル学習自体はかなり広い概念であり,実際,バギング,ブースティングまた混合分布もアンサンブル学習の一種である. Daumé らは領域適応のための混合モデルを提案している (Daumé and Marcu 2006). そこでは, ソース領域のモデル,ターゲット領域のモデル,そしてソース領域とターゲット領域を共有したモデルの 3 つを混合モデルの構成要素としている.Dai らは代表的なブースティングアルゴリズムの AdaBoost を領域適応の問題に拡張した TrAdaBoost を提案している (Dai, Yang, Xue, and Yu 2007).また Kamishima らはバギングを領域適応の学習用に拡張した TrBagg を提案している (Kamishima, Hamasaki, and Akaho 2009). WSD の領域適応については古宮の一連の研究 (Komiya and Okumura 2012, 2011; 古宮, 奥村 2012) があるが, そこではターゲット領域のラベルデータの使い方に応じて学習させた複数の分類器を用意しておき, 単語や事例毎に最適な分類器を使い分けることで,WSD の領域適応を行っている。これらの研究もアンサンブル学習の一種と見なせる.  図 1 分布の影響が少ない $\mathrm{k}-\mathrm{NN}$ ## 3 提案手法 ## $3.1 \mathrm{k$ 近傍法の利用} 領域 $T$ におけるデータスパースネスの問題に対処する際に, $P_{T}(c)$ の推定が悪化することを避けるために,本論文では識別の際に $P_{T}(c)$ の情報をできるだけ利用しないという方針をとる. そのために $\mathrm{k}$ 近傍法を利用する。どのような学習手法を取ったとしても,何らかの汎化を行う以上, $P_{T}(c)$ の影響を受けるが, $\mathrm{k}$ 近傍法はその影響が少ない. $\mathrm{k}$ 近傍法はデータ $x$ のクラスを識別するのに,訓練データの中から $x$ と近いデータ $k$ 個を取ってきて,それら $k$ 個のデータのクラスの多数決により $x$ のクラスを識別する. $\mathrm{k}$ 近傍法が $P_{T}(c)$ の影響が少ないのは $k=1$ の場合(最近傍法)を考えればわかりやすい,例えば,クラスが $\left.\{c_{1}, c_{2}\right.\}$ であり, $P\left(c_{1}\right)=0.99$, $P\left(c_{2}\right)=0.01$ であった場合, 通常の学習手法であれば, ほぼ全てのデータを $c_{1}$ と識別するが,最近傍法では, 入力データ $x$ と最も近いデータ 1 つだけがクラス $c_{2}$ であれば, $x$ のクラスを $c_{2}$ と判断する (図 1 参照)。つまり $\mathrm{k}$ 近傍法ではデータ全体の分布を考慮せずに $k$ 個の局所的な近傍データのみでクラスを識別するために,その識別には $P_{T}(c)$ の影響が少ない. ただし $\mathrm{k}$ 近傍法は近年の学習器と比べるとその精度が低い。そのためここでは $\mathrm{k}$ 近傍法を補助的に利用する. 具体的には通常の識別はSVM で行い, SVM での識別の信頼度が閥値 $\theta$ 以下の場合のみ, $\mathrm{k}$ 近傍法の識別結果を利用することにする. ここで $\theta$ の値が問題だが, 語義の数が $K$ 個である場合, 識別の信頼度(その語義である確率) は少なくとも $1 / K$ 以上の値となる。そのためここではこの値の 1 割をプラスし $\theta=1.1 / K$ とした.なおこの値は予備実験等から得た最適な値ではないことを注記しておく. ## 3.2 トピックモデルの利用 領域 $T$ におりデータスパースネスの問題に対処するために,ここではトピックモデルを利用する。 WSD の素性としてシソーラスの情報を利用するのもデータスパースネスへの 1 つの対策である。シソーラスとしては,分類語彙表などの手作業で構築されたものとコーパスから自動構築されたものがある.前者は質が高いが分野依存の問題がある.後者は質はそれほど高くないが, 分野毎に構築できるという利点がある。ここでは領域適応の問題を扱うので, 後者を利用する。つまり領域 $T$ からシソーラスを自動構築し,そのシソーラス情報を領域 $S$ の訓練事例と領域 $T$ のテスト事例に含めることで, WSD の識別精度の向上を目指す. 注意として, WSDでは単語間の類似度を求めるためにシソーラスを利用する。そのため実際にはシソーラスを構築するのではなく, 単語間の類似度が測れる仕組みを作っておけば良い.この仕組みが単語のクラスタリング結果に対応する。つまり WSD での利用という観点では, シソーラスと単語クラスタリングの結果は同等である。そのため本論文においてシソーラスと述べている部分は, 単語のクラスタリング結果を指している. この単語のクラスタリング結果を得るためにトピックモデルを利用する. トピックモデルとは文書 $d$ の生起に $K$ 個の潜在的なトピック $z_{i}$ を導入した確率モデルである. $ p(d)=\sum_{i=1}^{K} p\left(z_{i}\right) p\left(d \mid z_{i}\right) $ トピックモデルの 1 つである Latent Dirichlet Allocation (LDA) (Blei et al. 2003) を用いた場合, 単語 $w$ に対して $p\left(w \mid z_{i}\right)$ が得られる。つまりトピック $z_{i}$ をひとつのクラスタと見なすことで,LDA を利用して単語のソフトクラスタリングが可能となる. 領域 $T$ のコーパスと LDA を利用して, $T$ に適した $p\left(w \mid z_{i}\right)$ が得られる. $p\left(w \mid z_{i}\right)$ の情報を WSD に利用するいくつかの研究 (Li et al. 2010; Boyd-Graber et al. 2007; Boyd-Graber and Blei 2007) があるが, ここではハードタグ (Cai, Lee, and Teh 2007)を利用する. ハードタグとは $w$ に対して最も関連度の高いトピック $z_{\hat{i}}$ を付与する方法である。 $ \hat{i}=\arg \max _{i} p\left(w \mid z_{i}\right) $ まずトピック数を $K$ としたとき, $K$ 次元のベクトル $t$ を用意し, 入力事例 $x$ 中に $n$ 種類の単語 $w_{1}, w_{2}, \cdots, w_{n}$ が存在したとき,各 $w_{j}(j=1 \sim n)$ に対して最も関連度の高いトピック $z_{\hat{i}}$ を求め, $t$ の $\hat{i}$ 次元の值を 1 にする。これを $w_{1}$ から $w_{n}$ まで行い $t$ を完成させる.作成できた $t$ をここではトピック素性と呼ぶ,トピック素性を通常の素性ベクトル(ここでは基本素性と呼ぶ)に結合することで, 新たな素性べクトルを作成し, その素性べクトルを対象に学習と識別を行う. なお, 本論文で利用した基本素性は, 対象単語の前後の単語と品詞及び対象単語の前後 3 単語までの自立語である. ## 4 実験 ## 4.1 実験設定と実験結果 現代日本語書き言葉均衡コーパス(BCCWJ コーパス)(Maekawa 2007)の PB(書籍)と OC (Yahoo!知恵袋)を異なった領域として実験を行う.SemEval-2 の日本語 WSD タスク (Okumura, Shirai, Komiya, and Yokono 2010) では PB と OC を含む 4 ジャンルの語義夕グ付きコーパスが公開されているので,語義のラベルはこのデータを利用する. $\mathrm{PB}$ と OC から共に頻度が 50 以上の多義語 17 単語を WSD の対象単語とする.これらの単語と辞書上での語義数及び各コーパスでの頻度と語彙数を表 1 に示す 4.4 領域適応としては PB をソース領域,OCをターゲット領域としたものと,OCをソース領域,PBをターゲット領域としたものの 2 種類を行う.注意として SemEval-2 の日本語WSD タスクのデータを用いれば,更に異なった領域間の実験は可能であるが,領域間に共通してある程度の頻度で出現する多義語が少ないことなどから本論文では PB と OC 間の領域適応に限定している. $\mathrm{PB}$ から $\mathrm{OC}$ の領域適応の実験結果を表 2 と図 2 に示す.また $\mathrm{OC}$ から $\mathrm{PB} へ$ 領域適 表 1 対象単語  表 2 各手法による正解率 $(\mathrm{PB} \rightarrow \mathrm{OC})$ 図 2 各手法による正解率のマクロ平均 $(\mathrm{PB} \rightarrow \mathrm{OC})$ 応の実験結果を表 3 と図 3 に示す. 表 2 と表 3 の数値は正解率を示している.「k-NN」の列は $\mathrm{k}$ 近傍法の識別結果を示す.ここでは $k=1$ としている.「SVM」の列は基本素性だけを用いて学習した SVM の識別結果を示し,「SVM + TM」の列は基本素性にターゲット領域から得たトピック素性を加えた素性を用いて学習した SVM の識別結果を示し,「提案手法」の列は「SVM $+\mathrm{TM}\rfloor$ の識別で信頼度の低い結果を $\mathrm{k}$ 近傍法の結果に置き換えた場合の識別結果を示す.ま 表 3 各手法による正解率 $(\mathrm{OC} \rightarrow \mathrm{PB})$ 図 3 各手法による正解率のマクロ平均 $(\mathrm{OC} \rightarrow \mathrm{PB})$ た「self」はターゲット領域の訓練データに対して 5 分割交差検定を行った場合の平均正解率であり, 理想値と考えて良い。ただし一部の単語で「self」の値が「提案手法」などよりも低い. これはそれらの単語のソース領域のラベル付きデータの情報が, ターゲット領域で有効であったことを意味している。つまり「負の転移」が生じていないため, これらの単語については領域適応の問題が生じていないとも考えられる. 本実験の SVM の実行には,SVM ライブラリの libsvm²を利用した. そこで用いたカーネルは線形カーネルである。また識別の信頼度の算出には libsvm で提供されている - b オプションを利用した。このオプションは,基本的には,one vs. rest 法を利用して各カテゴリ(本実験の場合, 語義)までの距離(識別関数値)の比較から,信頼度を算出している.識別結果は最も信頼度の高いカテゴリ(語義)となる。また BCCWJ コーパスは形態素解析済みの形で提供されているため,基本素性の単語や品詞は,形態素解析システムを利用せずに直接得ることができる。またトピックモデルの作成には LDA ツール6を用い,トピック数は全て 100 として実験を行った。 17 単語の正解率のマクロ平均をみると, $\mathrm{PB}$ から $\mathrm{OC} への$ 領域適応と $\mathrm{OC}$ から $\mathrm{PB} への$ 領域適応のどちらにおいても,以下の関係が成立しており,提案手法が有効であることがわかる. ## $\mathrm{k-\mathrm{NN}<\mathrm{SVM}<\mathrm{SVM}+\mathrm{TM}<$ 提案手法} なお本実験の評価はマクロ平均で行った,マイクロ平均による評価も可能ではあるが,本実験の場合, テストデータの用例数に幅がありすぎ, 結果的にテストデータの用例数の多い単語の識別結果がマイクロ平均の値に大きく影響する。このためここではマクロ平均のみによる評価を行っている。マイクロ平均で評価した場合は, わずかではあるがSVM が最も高い評価値を出していた。 ## 4.2 有意差の検定 $\mathrm{t}$ 検定を用いて各手法間の正解率のマクロ平均値の有意差を検定する. 対象単語 $w$ のソース領域でのラベル付きデータからランダムにその 9 割を取り出し, その 9 割のデータから前述した WSD の実験(「SVM $、\lceil\mathrm{SVM}+\mathrm{TM}\rfloor$, 「提案手法」)を行う。この際,「提案手法」では $\mathrm{k}-\mathrm{NN}$ の結果を用いるが,そこでも 9 割のデータしかないことに注意する。これを 1 セットの実験とし, 50 セットの実験を行い,その正解率のマクロ平均を求めた.PB から $\mathrm{OC}$ の領域適応の結果を表 4 に示す. また OC から $\mathrm{PB}$ の領域適応の結果を表 5 に示す. $\mathrm{t}$ 検定を行う場合, まず分散比の検定から 2 つのデータが等分散と見なせることを示す必要がある。自由度 $(49,49)$ の $\mathrm{F}$ 値を調べることで,有意水準 0.10 で等分散を棄却するためには,分散比が 0.6222 以下か 1.6073 以上の値でなければならない. 表 4 と表 5 から, 各領域適応でどの手法間の組み合わせを行っても,正解率の分散が等しいことを棄却できないことは明らかであり,ここでは $\mathrm{t}$ 検定を行えると判断できる. $\mathrm{t}$ 検定の片側検定を用いた場合, ここでの自由度は 48 なので有意水準 0.05 で有意差を出す $\mathrm{t}$ 値は 1.6772 以上, 有意水準 0.10 で有意差を出す $\mathrm{t}$ 值は 1.2994 以上の値となる. このため有  表 49 割データでの実験結果 $(\mathrm{PB} \rightarrow \mathrm{OC})$ 表 59 割データでの実験結果 $(\mathrm{OC} \rightarrow \mathrm{PB})$ 表 6 手法間の有意差 $(\mathrm{PB} \rightarrow \mathrm{OC})$ 表 7 手法間の有意差 $(\mathrm{OC} \rightarrow \mathrm{PB})$ 意差の検定結果は表 6 と表 7 のようにまとめられる. 結論的には提案手法と SVM との正解率のマクロ平均の差は OC から PB の領域適応では有意だが,PB から OC の領域適応では有意ではない,ただし有意水準を 0.10 に緩和した場合には,PB から OC の領域適応でも有意であると言える. 細かく手法を分けて調べた場合,トピックモデルを利用すること(SVM+TM と SVM の差) と k-NN を併用すること(提案手法と SVM+TM の差)についての有意性はまちまちであった. ただし有意水準を 0.10 に緩和した場合,トピックモデルを利用する手法について PB から OC の領域適応以外の組み合わせについては全て有意性が認められた。 ## 5 考察 ## 5.1 語義分布の違い 本論文では, WSD の領域適応は語義分布の違いの問題を解決するだけは不十分であることを述べた. Naive Bayes を利用して,この点を調べた. Naive Bayesの場合,以下の式で語義を識別する。 $ \arg \max P_{S}(c) P_{S}(x \mid c) $ ここで事前分布 $P_{S}(c)$ の代わりに領域 $T$ の訓練データから推定した $P_{T}(c)$ を用いる. これは語義分布を正確に推定できたという仮定での仮想的な実験である。結果を表 8 に示す. 全体として理想的な語義分布を利用すれば,正解率は改善されるが,効果はわずかしかない. 表 8 理想的語義分布の推定による識別 & & & \\ 入れる & 0.7297 & 0.7297 & 0.6140 & 0.6140 \\ 書く & 0.7300 & 0.7300 & 0.8889 & 0.8889 \\ 聞く & 0.6640 & 0.6560 & 0.7500 & 0.7500 \\ 来る & 0.7947 & 0.7947 & 0.9619 & 0.9619 \\ 子供 & 0.1282 & 0.1667 & 0.2447 & 0.2447 \\ 時間 & 0.8148 & 0.8148 & 0.8933 & 0.8933 \\ 自分 & 0.8682 & 0.8682 & 0.9709 & 0.9709 \\ 出る & 0.7046 & 0.7046 & 0.5556 & 0.5556 \\ 取る & 0.0968 & 0.2097 & 0.2195 & 0.2439 \\ 場合 & 0.9528 & 0.9685 & 0.8406 & 0.8406 \\ 入る & 0.6522 & 0.6522 & 0.4286 & 0.4454 \\ 前 & 0.9057 & 0.8962 & 0.6398 & 0.6398 \\ 見る & 0.5589 & 0.5589 & 0.8358 & 0.8321 \\ 持つ & 0.5714 & 0.5714 & 0.7597 & 0.7273 \\ やる & 0.9322 & 0.9322 & 0.9236 & 0.9236 \\ ゆく & 0.6818 & 0.6818 & 0.8657 & 0.8657 \\ また PB から OC の「前」や OC から PB の「見る」「持つ」は逆に精度が悪化している. 更に理想的な語義分布を利用できたとしても,通常の SVM よりも正解率が劣っている。これらのことから, 語義分布の正確な推定のみでは WSD の領域適応の解決は困難であることがわかる. ## 5.2 トピックモデルの領域依存性の度合い WSD においてデータスパースネスの問題の対処として, シソーラスを利用することは一般に行われてきている. LDA から得られるトピック $z_{i}$ のもとで単語 $w$ が生起する確率 $p\left(w \mid z_{i}\right)$ は,単語のソフトクラスタリング結果に対応しており,これは LDA の処理対象となったコーパスに合ったシソーラスと見なせる。このためトピックモデルが WSD に利用できることは明らかである。ただしその具体的な利用方法は確立されていない. 問題は 2 つある。1つはトピック素性の表現方法である。ここではハードタグを利用したが, ソフトタグの方が優れているという報告もある (Cai et al. 2007). 國井はハードタグとソフトタグの中間にあたるミドルソフトタグを提案している (國井, 新納, 佐々木 2013). いずれにしても,トピック素性の有効な表現方法はトピック数やコーパスの規模にも依存した問題であり,どういった表現方法で利用すれば良いかは未解決である. もう 1 つの問題はトピックモデルから得られるシソーラスの領域依存性の度合いである。本論文でも LDA から領域依存のトピックモデルが作成できることに着目してトピックモデルを領域適応の問題に利用した。たたし領域 $A$ のコーパスと領域 $B$ のコーパスがあった場合, 各々のコーパスから各々の知識を獲得するよりも,両者のコーパスを合わせて両領域の知識を獲得した方が,一方のコーパスから得られる知識よりも優れていることがある. 例えば森は単語分割のタスクにおいて,各々の領域の夕グ付きデータを使うことで精度を上げることができたが,全ての領域の夕グ付きデータを使えば更に精度を上げることができたことを報告している (森 2012). 領域の知識を合わせることは,その知識をより一般的にしていることであり,領域依存の知識はあまり領域に依存しすぎるよりも,ある程度,一般性があった方がよいという問題と捉えられる。本実験で言えば PB のコーパスと OC のコーパスと両者を合わせて学習したトピックモデルは,各々のコーパスから学習したトピックモデルよりも優れている可能性がある.以下その実験の結果を表 9 に示す. ターゲット領域が PB の場合, ソース領域の OC のコーパスを追加することで正解率は低下するが,ターゲット領域が OC の場合,ソース領域の PB のコーパスを追加することで正解率が向上する。これは OC (Yahoo!知恵袋) のコーパスの領域依存が強いが, その一方で, PB(書籍)のコーパスの領域依存が弱く, より一般的であることから生じていると考える。一般性の高い領域に領域依存の強い知識を入れると性能が下がるが,より特殊な領域には,その領域固有の知識に一般的知識を組み入れることで性能が更に向上すると考えられる。これらの詳細な分析と対策は今後の課題である. 表 9 両領域コーパスを利用した識別 & & & \\ 入れる & 0.7671 & 0.7808 & 0.7142 & 0.7679 \\ 書く & 0.7373 & 0.7374 & 0.8064 & 0.7903 \\ 聞く & 0.6612 & 0.6452 & 0.6829 & 0.6667 \\ 来る & 0.7989 & 0.7989 & 0.9711 & 0.9712 \\ 子供 & 0.2207 & 0.2338 & 0.4193 & 0.3548 \\ 時間 & 0.8301 & 0.8302 & 0.8918 & 0.8784 \\ 自分 & 0.8750 & 0.8750 & 0.9577 & 0.9416 \\ 出る & 0.7099 & 0.7023 & 0.6118 & 0.5855 \\ 取る & 0.2950 & 0.2623 & 0.2716 & 0.2716 \\ 場合 & 0.9127 & 0.9206 & 0.8467 & 0.8467 \\ 入る & 0.5735 & 0.6324 & 0.5254 & 0.4576 \\ 前 & 0.8857 & 0.9048 & 0.8312 & 0.8125 \\ 見る & 0.5954 & 0.6069 & 0.8424 & 0.8352 \\ 持つ & 0.7741 & 0.8387 & 0.7777 & 0.7909 \\ やる & 0.9401 & 0.9402 & 0.9294 & 0.9295 \\ ゆく & 0.6803 & 0.6849 & 0.9097 & 0.8947 \\ ## $5.3 \mathrm{k$ 近傍法の効果とアンサンブル手法} 本論文では SVM での識別の信頼度の低い部分を $\mathrm{k}$ 近傍法の識別結果に置き換えるという処理を行った。置き換えが起こったものだけを対象にして, $\mathrm{k}$ 近傍法と SVM での正解数を比較した。結果を表 10 と表 11 に示す. $\mathrm{PB}$ から $\mathrm{OC}$ の領域適応では「子供」, $\mathrm{OC}$ から $\mathrm{PB} へ$ 領域適応では「入れる」については SVM の方が $\mathrm{k}$ 近傍法の方よりもよい正解率だが,それ以外は $\mathrm{k}$ 近傍法の正解率は SVM の正解率と等しいかそれ以上であった。つまり SVM で識別精度が低い部分に関しては, $\mathrm{k}$ 近傍法で識別する効果が確認できる。 また $\mathrm{k}$ 近傍法の $k$ をこでは $k=1$ とした. この $k$ の値を 3 や 5 に変更した実験結果を図 4 と図 5 に示す. 複数の分類器を組み合わせて利用する学習手法をアンサンブル学習というが, 本論文の手法もアンサンブル学習の一種と見なせる. $\mathrm{k}$ 近傍法自体は $k=1$ よりも $k=3$ や $k=5$ の方が正解率が高いが,本手法のように SVM の識別の信頼度の低い部分のみに限定すれば, $k=1$ の $\mathrm{k}$ 近傍法を利用した方がよい。これはアンサンブル学習では高い識別能力の学習器を組み合わせるのではなく,互いの弱い部分を補強し合うような形式が望ましいことを示している。 表 10 識別結果の変更 $(\mathrm{PB} \rightarrow \mathrm{OC})$ 表 11 識別結果の変更 $(\mathrm{OC} \rightarrow \mathrm{PB})$ 図 $4 \mathrm{k}$ による変化 $(\mathrm{PB} \rightarrow \mathrm{OC})$ 図 $5 \mathrm{k}$ による変化 $(\mathrm{OC} \rightarrow \mathrm{PB})$ ## 6 おわりに 本論文では WSD の領域適応に対する手法を提案した。まずWSD の領域適応の問題を,以下の 2 つの問題に要約できることを示し, 関連研究との位置づけを示した. ・ 領域間で語義の分布が異なる ・領域の変化によりデータスパースネスが生じる 次に上記の 2 つの問題それぞれに対処する手法を提案した. 1 点目の問題に対しては $\mathrm{k}$ 近傍法を補助的に用いること,2 点目の問題に対してはトピックモデルを利用することである. BCCWJ コーパスの 2 つ領域 $\mathrm{PB}$ (書籍)と OC(Yahoo!知恵袋)から共に頻度が 50 以上の多義語 17 単語を対象にして,WSDの領域適応の実験を行い,提案手法の有効性を示した。たたし領域は $\mathrm{OC}$ と $\mathrm{PB}$ に限定しており, 提案手法が他の領域間で有効であるかは確認できていない.この点は今後の課題である。また領域の一般性を考慮したトピックモデルをWSD に利用する方法, および WSD の領域適応に有効なアンサンブル手法を考案することも今後の課題である. ## 参考文献 Blei, D. M., Ng, A. Y., and Jordan, M. I. (2003). "Latent dirichlet allocation." Machine Learning Reseach, 3, pp. 993-1022. Boyd-Graber, J. and Blei, D. (2007). "Putop: Turning Predominant Senses into a Topic Model for Word Sense Disambiguation." In Proceedings of SemEval-2007, pp. 277-281. Boyd-Graber, J., Blei, D., and Zhu, X. (2007). "A Topic Model for Word Sense Disambiguation." In Proceedings of EMNLP-CoNLL-2007, pp. 1024-1033. Cai, J. F., Lee, W. S., and Teh, Y. W. (2007). "Improving Word Sense Disambiguation using Topic Features." In Proceedings of EMNLP-CoNLL-2007, pp. 1015-1023. Chan, Y. S. and Ng, H. T. (2005). "Word Sense Disambiguation with Distribution Estimation." In Proceedings of IJCAI-2005, pp. 1010-1015. Chan, Y. S. and Ng, H. T. (2006). "Estimating class priors in domain adaptation for word sense disambiguation." In Proceedings of COLING-ACL-2006, pp. 89-96. Chan, Y. S. and Ng, H. T. (2007). "Domain adaptation with active learning for word sense disambiguation." In Proceedings of ACL-2007, pp. 49-56. Chapelle, O., Schölkopf, B., and Zien, A. (2006). Semi-supervised learning, Vol. 2. MIT press Cambridge. Dai, W., Yang, Q., Xue, G.-R., and Yu, Y. (2007). "Boosting for transfer learning." In Proceedings of ICML-2007, pp. 193-200. Daumé, H. III (2007). "Frustratingly Easy Domain Adaptation." In Proceedings of $A C L-2007$, pp. 256-263. Daumé, H. III and Marcu, D. (2006). "Domain adaptation for statistical classifiers." Journal of Artificial Intelligence Research, 26 (1), pp. 101-126. Jiang, J. and Zhai, C. (2007). "Instance weighting for domain adaptation in NLP." In Proceedings of $A C L-2007$, pp. 264-271. Kamishima, T., Hamasaki, M., and Akaho, S. (2009). "Trbagg: A simple transfer learning method and its application to personalization in collaborative tagging." In Proceedings of the 9th IEEE International Conference on Data Mining, pp. 219-228. 神嶌敏弘 (2010). 転移学習. 人工知能学会誌, 25 (4), pp. 572-580. 古宮嘉那子, 奥村学 (2012). 語義曖昧性解消のための領域適応手法の決定木学習による自動選択. 自然言語処理, $19(3)$, pp. 143-166. 古宮嘉那子, 小谷善行, 奥村学 (2013). 語義曖昧性解消の領域適応のための訓練事例集合の選択. 言語処理学会第 19 回年次大会発表論文集, pp. C6-2. Komiya, K. and Okumura, M. (2011). "Automatic Determination of a Domain Adaptation Method for Word Sense Disambiguation using Decision Tree Learning." In Proceedings of IJCNLP-2011, pp. 1107-1115. Komiya, K. and Okumura, M. (2012). "Automatic Domain Adaptation for Word Sense Disambiguation Based on Comparison of Multiple Classifiers." In Proceedings of PACLIC-2012, pp. $75-85$. 國井慎也, 新納浩幸, 佐々木稔 (2013). ミドルソフトタグのトピック素性を利用した語義曖昧性解消. 言語処理学会第 19 回年次大会発表論文集, pp. P3-9. Li, L., Roth, B., and Sporleder, C. (2010). "Topic Models for Word Sense Disambiguation and Token-based Idiom Detection." In Proceedings of ACL-2010, pp. 1138-1147. Maekawa, K. (2007). "Design of a Balanced Corpus of Contemporary Written Japanese." In Proceedings of the Symposium on Large-Scale Knowledge Resources (LKR2007), pp. 55-58.森信介 (2012). 自然言語処理における分野適応. 人工知能学会誌, 27 (4), pp. 365-372. Okumura, M., Shirai, K., Komiya, K., and Yokono, H. (2010). "SemEval-2010 Task: Japanese WSD." In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 69-74. Rai, P., Saha, A., Daumé, H. III, and Venkatasubramanian, S. (2010). "Domain adaptation meets active learning." In Proceedings of the NAACL HLT 2010 Workshop on Active Learning for Natural Language Processing, pp. 27-32. Rosenstein, M. T., Marx, Z., Kaelbling, L. P., and Dietterich, T. G. (2005). "To transfer or not to transfer." In Proceedings of the NIPS 2005 Workshop on Inductive Transfer: 10 Years Later, Vol. 2, p. 7. Settles, B. (2010). "Active Learning Literature Survey." Tech. rep., University of Wisconsin, Madison. Shimodaira, H. (2000). "Improving predictive inference under covariate shift by weighting the log-likelihood function." Journal of statistical planning and inference, 90 (2), pp. 227-244.杉山将 (2006). 共変量シフト下での教師付き学習. 日本神経回路学会誌, 13 (3), pp. 111-118.齋木陽介,高村大也,奥村学 (2008). 文の感情極性判定における事例重み付けによるドメイン適応. 情報処理学会研究報告. 自然言語処理研究会報告, 2008 (33), pp. 61-67. ## 略歴 新納浩幸:1985 年東京工業大学理学部情報科学科卒業. 1987 年同大学大学院理工学研究科情報科学専攻修士課程修了. 同年富士ゼロックス, 翌年松下電器を経て, 1993 年 4 月茨城大学工学部システム工学科助手. 1997 年 10 月同学科講師, 2001 年 4 月同学科助教授, 現在, 茨城大学工学部情報工学科准教授. 博士 (工学). 機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会, 情報処理学会, 人工知能学会各会員. 佐々木稔:1996 年徳島大学工学部知能情報工学科卒業. 2001 年同大学大学院 博士後期課程修了. 博士 (工学). 2001 年 12 月茨城大学工学部情報工学科助手. 現在, 茨城大学工学部情報工学科講師. 機械学習や統計的手法による情報検索, 自然言語処理等に関する研究に従事. 言語処理学会, 情報処理学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 歴史的日本語資料を対象とした形態素解析 小木曽智信 $\dagger,+\dagger$ - 小町守 $+\dagger \dagger$ ・松本 裕治 ${ }^{+\dagger \dagger \dagger}$ } 単語情報がタグ付けされた本格的な通時コーパスを構築するためには, 歴史的な日本語資料の形態素解析が必要とされるが, 従来はこれを十分な精度で行うことがで きなかった. そこで, 現代語用の UniDic に語彙の追加を行い, 明治時代の文語文と 平安時代の仮名文学作品のコーパスを整備することで, 「近代文語 UniDic」と「中古和文 UniDic」を作成した。この辞書によりコーパス構築に利用可能な約 $96 \sim 97 \%$ で の解析が可能になった. この辞書の学習曲線をもとに歴史的資料の形態素解析辞書 に必要な訓練用の夕グ付きコーパスのサイズを調査した結果, 約 5 万語のコーパス で精度 $95 \%$ を超える実用的な解析が可能になること, 5,000 語程度の少量であっても 対象テキストの訓練コーパスを用意することが有効であることを確認した. キーワード:古文,形態素解析,歴史コーパス, UniDic ## Morphological Analysis of Historical Japanese Text \author{ Toshinobu Ogiso ${ }^{\dagger, \dagger \dagger}$, Mamoru Komachi ${ }^{\dagger \dagger \dagger}$ and Yuji Matsumoto ${ }^{\dagger \dagger \dagger}$ } To construct a richly annotated diachronic corpus of Japanese, the morphological analysis of historical Japanese text is required. However, conventional analysis of old Japanese texts with adequate accuracy is impossible. To facilitate such analyses, we extended dictionary entries from UniDic for Contemporary Japanese and prepared training corpora including articles illustrating the literary style of the Meiji Era and literature of the Heian Era, thus creating new dictionaries: "UniDic-MLJ (Modern Literary Japanese)" and "UniDic-EMJ (Early Middle Japanese)." These dictionaries achieve a high accuracy (96-97\%) as that required for constructing a diachronic corpus of Japanese. Moreover, we investigated the optimal size of the training corpus for the morphological analysis of historical Japanese text on the basis of the learning curves obtained by using these dictionaries. We confirmed that a 50,000-word corpus achieves an adequate accuracy of over $95 \%$, and even a small-sized corpus (only 5,000 words) is effective as long as the corpus is particularly constructed for the target domain. Key Words: Classical Japanese, Morphological Analysis, Historical Corpus of Japanese, UniDic  ## 1 はじめに 『現代日本語書き言葉均衡コーパス (BCCWJ)』(国立国語研究所 2011) の完成を受けて, 国立国語研究所では日本語の歴史をたどることのできる「通時コーパス」の構築が進められている ${ }^{1}($ 近藤 2012).コーパスの高度な活用のために,通時コーパスに収録されるテキストにも BCCWJ と同等の形態論情報を付与することが期待される。しかし, 従来は十分な精度で古文 ${ }^{2}$ の形態素解析を行うことができなかった。残された歴史的資料は有限であるとはいえ,その量は多く,主要な文学作品に限っても手作業で整備できる量を大きく超えている。また, 均質な夕グ付けのためには機械処理が必須である. 本研究の目的は, 通時コーパス構築の基盤として活用することのできるような, 歴史的資料の形態素解析を実現することである。通時コーパスに収録されるテキストは時代・ジャンルが幅広いため, 必要性の高い分野から解析に着手する必要がある. 明治時代の文語論説文と平安時代の仮名文学作品は, 残されたテキスト量が多いうえ, 日本語史研究の上でも価値が高いことから,これらを対象に, $96 \%$ 以上の精度での形態素解析を実現することを目指す.そして,他の時代・分野の資料の解析に活かすために, 各種条件下での解析精度の比較を行い, 歴史的資料を日本語研究用に十分な精度で解析するために必要な学習用コーパスの量を確認し, エラー の傾向を調査する. 本研究の主要な貢献は以下の通りである. - 現代語用の UniDic をべースに見出し語の追加を行って古文用の辞書データを作成した. - 新たに古文のコーパスを作成し, 既公開のコーパスとともに学習用コーパスとして, MeCab を用いたパラメータ学習を行い形態素解析用のモデルを作成した. - 同辞書を単語境界・品詞認定・語彙素認定の各レベルで評価し, 語彙素認定の $\mathrm{F}$ 值で 0.96 以上の実用的な精度を得た。また, 同辞書について未知語が存在する場合の解析精度を実験により推測し,その場合でも実用的な精度が得られることを確認した. - 同辞書の学習曲線を描き, 古文を対象とした形態素解析に必要なコーパス量が $5 \sim 10$ 万語であること, 5,000 語程度の少量であっても専用の学習用コーパスを作成することが有効であることを確認した. - 高頻度エラーの分析を行い, 特に係り結びに起因するものは現状の解析器で用いている局所的な素性では対処できないものであることを確認した.  ## 2 研究の背景 ## 2.1 古文の形態素解析 現代文を対象とした日本語形態素解析は 1990 年代には実用的になっていたが, 古文を対象とした形態素解析は長い間実現せず,コンピュータによる古文の処理を行おうとする人々から待ち望まれていた。日本語学・国語学の分野においては,BCCWJの完成によってコーパスを用いた現代語の研究が盛んになりつつあるが, 形態素解析は複雑な共起条件を指定した用例検索や, コロケーション強度の取得, テキストごとの特徵語抽出, 多変量解析を用いた研究など, 新しい手法による研究を可能にしている. 歴史的資料の形態素解析が可能になることで, 日本語の史的研究の分野においてもこれが可能になり新しい知見がもたらされることが期待される. 村上 (2004) は, 計量文献学の立場から, 古典の研究資料としての価値を論じた上で「古典に関して計量分析で著者に関する疑問を解明できたなら,古典研究に大きな刺激を与えるにちがいない.たた,残念なことに文章を自動的に単語に分割し,品詞情報等を付加する形態素分析のプログラムの開発が古文の場合,遅れている」(p. 191)と述べている。また,近藤 (2009) は古典語研究の立場から「古典語は形態素解析の自動化がしにくいため, 単語レべルの索引を作るには, すべて手作業で形態素解析を行う必要があるため, 多くの資料を対象に語彙研究することは困難である」と述べている. もっとも,古文の形態素解析の実現のための研究はこれまでにも行われてきた。早い時期の研究として, 安武, 吉村, 首藤 (1995), 山本, 松本 (1996) などがある. しかし, 古文の電子的な辞書やコーパスが不足していたこともあり,これらはいずれも試行のレベルにとどまっており,アプリケーションの公開も行われていない。また,研究の主眼が解析手法の開発自体にあるため、コーパスや辞書の整備も最小限しか行われてこなかった. このほか, 山元 (2007) が和歌集の言語学的分析を目的として和歌の形態素解析を実現しているが, これは和歌に特化したものであり,散文等の古文一般に適用できるものではない。このように,多くの資料を対象にした通時コーパス構築の基盤として利用可能な形態素解析のシステムは新たに作成する必要があった。 ## 2.2 UniDic と古文 通時コーパスに先だって構築された BCCWJでは, 新しく開発された形態素解析辞書 $\mathrm{UniDic}^{3}$ を利用して形態論情報が付与された. UniDic は,(1)見出し語として「短単位」という摇れが少ない斉一な単位を採用している, (2) 語彙素・語形・書字形・発音形の階層構造を持ち, 表記の摇れや語形の変異をまとめ上げることができる, (3) 個々の見出し語に語種やアクセント ^{3}$ http://download.unidic.org } 型などの豊富な情報が付与されている, といった言語研究に適した特長を持っている (伝, 小木曽, 小椋, 山田, 峯松, 内元, 小磯 2007). 古文の形態素解析にとっても,上述のUniDic の特長は非常に有効である。たとえば,摇れの少ない斉一な単位は,テキストの解析結果を用いた語彙の比較を可能にする.従来の古典文学作品の総索引は単位認定や見出し付与の方針の違いにより相互の比較が難しい場合があった. しかし通時的なコーパスを構築する場合には, 現代語コーパスと共通する一貫した原理に基づいた情報付与を行って,一作品・一時代にとどまらず古代から現代に至る「通時」的な観察を可能にする必要がある. UniDic をべースとすることで, 作品間の比較が可能になるだけでなく,時代の違いを超え, 各種のテキスト間で相互に語彙を比較することが可能になる。また, 階層化された見出しを用いることで, 文語形や旧字・旧仮名遣いの語を同一見出しの元にまとめることができるため, さまざまな時代のテキストに出現する語形・表記を統一的に扱うことができる. こうした理由から, 本研究では現代語用の UniDicをもとにして, 歴史的資料のための形態素解析辞書を作成することにした. UniDicでは, 形態素解析器に $\mathrm{MeCab}^{4}$ (Kudo, Yamamoto, and Matsumoto 2004)を用いている. MeCab は CRF(Lafferty, McCallum, and Pereira 2001)にもとづく統計的機械学習によって高精度な形態素解析を実現しており, 学習器も公開されている.したがって,古文の学習用コーパスを用意し,UniDic の見出し語を拡充することで古文に対応することができる. 3.1 節で示すように, 見出し語を追加するだけでは実用的な解析精度を達成することはできず,学習用コーパスを用いて形態素解析器を再学習することが重要である. ## 2.3 解析対象のテキスト 一口に古文と言っても,その中身は極めて多様である。通時コーパスでは,時代幅としては 8 世紀から 19 世紀までが, ジャンルとしては和歌から物語, 仏教説話, 軍記物, 狂言, また酒落本などの近世文学, さらに近代の小説や論説文, 法律までが対象となる. これらのテキストの文体は, 文法・語彙・表記にわたって極めて多様であって, 単に「古文」としてひとくくりにして済むものではない(小木曽 2011). テキストに大きな違いがある以上, 解析対象のテキストごとに最適の辞書を作成することができれば望ましいが, 残された歴史的資料は有限であり, 少量のテキストのために個別に辞書を作成することは現実的ではない,文体的に近いテキストを十分な量のグループにまとめ,グループごとに適した形態素解析辞書を用意することが適切である. こうしたグループとしてまず考えられるのは,今から約 1000 年前の平安時代(中古)に書かれた仮名文学作品を中心とする和文系の資料である. 中でも源氏物語は日本語の古典の代表的 ^{4}$ https://code.google.com/p/mecab/ } 表 1 中古和文と近代文語文のテキスト例 & \\ なものであり,その文体は,中世の擬古物語や近世・近代の擬古文に至るまで模倣されながら長い期間にわたって用いられている。もう一つのグループとしてあげられるのは,約 100 年前に広く用いられていた近代の文語文である。中でも明治普通文とも呼ばれる近代の文語論説文は,明治以降戦前にかけて広く用いられた文体であり,公文書から新聞・雑誌まで各種の資料がこれによって書かれている.表 1 に二つのグループに属するテキストの例を挙げる。 近代文語文は,平安時代以来の漢文訓読文の流れに位置づけられる文体である,漢文訓読文では漢語が多く用いられるのに対して,和文では漢語はわずかしか用いられない。また和文と漢文訓読文では使用する和語の語彙も大きく異なっていることが知られている。こうした語彙の違いからも, 現代語からの時代的遠近という点からも, 中古和文と近代文語文は対照的な位置にあり,この 2 つのグループについて形態素解析辞書を用意することは,通時コーパス全体の解析を目的とする上で有効であると考えられる。 ## 2.4 現代語用の UniDic による古文の解析精度 : ベースライン 一般に公開されている現代語用の形態素解析辞書はこれによって古文を解析することは考慮されていない. 古文では, 特に助動詞などの機能語の用いられ方が大きく異なるため, 現代語用の辞書で古文を解析することは困難であると考えられる。現代語用に作られた UniDic も同様であるが,新たに作成する古文用辞書と比較するためのベースラインとして,手始めに現代語用の UniDic で近代文語文と中古和文を解析した場合の精度を調查する。 評価に用いる現代語用 UniDic は一般公開されている unidic-mecab-2.1.0である. UniDic の学習にはコーパスとして BCCWJ のコアデータのほか日本語話し言葉コーパスと RWCP コーパ スの一部が用いられており, 学習素性としては語彙素・語彙素読み・語種・品詞・活用型 ・活用形・書字形が用いられている (Den, Nakamura, Ogiso, and Ogura 2008). UniDic の見出し語は, 語彙素・語形・書字形・発音形の階層構造を持っている。そのため, 解析結果の精度評価もこの階層ごとに行った. 最も基礎的なレベルとして,単語境界の認定が正しく行われているかを見る「Lv. 1 境界」を設定した。またこれに加えて品詞・活用型・活用形の認定が正しいかどうかを見る「Lv. 2 品詞」, Lv. $1 \cdot \mathrm{Lv} .2$ に加えて語彙素(辞書見出し)としての認定も正しかったかどうかを見る「Lv. 3 語彙素」を設定した. Lv. 3 は,たとえば「金」が「キン」でなく「カネ」と正しく解析されているかどうかを見ることになる. さらに,Lv.1~Lv. 3 が正しいことに加え,読み方が正しいかどうかを見る「Lv. 4 発音形」を設定した. Lv. 4 は,古文の場合には発音というよりは語形の違いが正しく認定されているかどうかを評価するものである.たとえば,「所」が文脈にあわせて「トコロ」ではなく「ドコロ」と正しく解析されているかどうかを見ることになる. ところで,現代語の辞書で古文を解析した場合には,活用型が文語であるか口語であるかの違いによって誤りとされる例が多い。たとえば動詞「書く」は口語ではカ行五段活用(「五段力行」)だが,文語では力行四段活用(「文語四段-力行」)で定義されているため両者が一致しないと品詞レベルで誤りと見なされる。しかし両者は本質的には同語であるといってよく, 相互に容易に変換することができる。そこで, こうした口語・文語の活用型の対についてはいずれを出力した場合にも正解と見なした場合の精度についても調査した. 具体的には, 「文語形容詞-ク」と「文語形容詞-シク」を「形容詞」と同一視し,「文語四段」は「五段」,「文語年行変格」は「升行変格」,「文語下二段」は「下一段」,「文語上二段」は「上一段」と同一視した. さらに文語の「-ハ行」「-ワ行」を「-ア行」と同一視した。 以上の観点でまとめた解析精度の調査結果を表 2 に示す。評価コーパスは, 後述する人手修正済みのコーパスから約 10 万語を文単位でランダムサンプリングしたものである。評価項目は次に示す Precision (精度), Recall (再現率), F 値(Precison と Recall の調和平均)である. $ \begin{gathered} \text { Precision }=\frac{\text { 正解語数 }}{\text { システムの出力語数 }} \\ \text { Recall }=\frac{\text { 正解語数 }}{\text { 評価コーパスの語数 }} \\ \mathrm{F} \text { 值 }=\frac{2 * \text { Precision } * \text { Recall }}{\text { Precision }+ \text { Recall }} \end{gathered} $ 活用型の補正なしの場合の語彙素レベルの $\mathrm{F}$ 値でみると, 近代語では 0.6775 , 中古和文では 0.5432 となっており, 予想通り通時コーパス構築の実用に耐える精度ではない. 中古和文と比べ近代文語の方が比較的精度が良いが, これは現代語との年代差が少ないため使用される語彙が近いことによるものと考えられる。補正後は, 近代語では 0.7323 , 中古和文では 0.5939 となっ 表 2 現代語用 UniDic による近代文語・中古和文の解析精度 (活用型変換による補正の有無による精度の比較を含む) ている。補正による上昇は 0.05 ポイント程度であり, 単純な活用型変換を行ってもさほど精度は向上しないことが分かる. このように古文の形態素解析のためには辞書への古文の見出し語追加が必須であり,また古文のコーパスで再学習を行うことで解析精度の向上が期待できる。以下, 3 節で見出し語の追加と学習用コーパスの構築について説明する.4 節では見出し語追加と再学習を行った提案手法による解析精度を他の手法と比較して確認し, その後この辞書による各種テキストの解析精度について議論する。 ## 3 見出し語の追加と学習用コーパスの作成 ## 3.1 現代語用の UniDic に対する見出し語の追加 古文用の形態素解析を行うために,現代語用の辞書に見出し語の追加を行った. UniDic では見出し語を語彙素・語形・書字形・発音形の 4 段階で階層的に管理しているため, 近代語解析に必要な語を各階層に整理して追加することができる。現代語としては使われなくなっている語は「語彙素」のレベルで, 文語活用型の語は「語形」のレベルで, 異体字や旧字形など表記の違いは「書字形」のレベルで追加することになる(図 1).これにより,現代語のための見出し語と統一的に管理することができ,文語形と口語形,新字形と旧字形がそれぞれ関係を持つものであることを示すことができる. これまでに近代文語文のために追加した語彙は, 語彙素レベルで 10,814 語, 語形レベルで 図 $1 \mathrm{UniDic}$ の階層(語彙素・語形・書字形)と文語形・旧字形 12,417 語, 書字形レベルで 25,224 語であった,また,中古和文のために追加した語彙は,語彙素レベルで 5,939 語,語形レベルで 7,351 語,書字形レベルで 13,763 語であった。両者には共通の語彙も多いが近代文語文の語彙追加を先に行ったため, 中古和文のための追加数が少なくなっている.もともとあった現代語の見出し語とあわせ,全体の見出し語数は,語彙素 225,588 語, 語形 253,061 語, 書字形 413,897 語となっている. 追加した見出し語は, 現代語形から派生させた文語形や旧字形を追加するところからはじめ,既存の古語辞典やデータ集の見出し語からも追加を行った. しかし, 形態素解析辞書の見出し語としては, UniDic 体系に基づく詳細な品詞を付与し, 実際に出現する表記形を入力する必要があるため,単なる辞典の見出し語リストは多くの場合,登録用のソースとして不十分である. そのため, 大部分の語彙は, 後述する学習用コーパスを整備する過程で不足するものを追加する形で行った。 見出し語の単位認定については, 通時的な比較ができるようにするため, 可能な限り現代語と共通の枠組みで処理を行った。しかし,語の歴史的変化や古文における使用実態を踏まえ,時代別に異なった扱いをしている語も少なくない,たとえば,指示詞について,現代語の UniDic では「この」「その」などは 1 語の連体詞として扱っているが,「こ」「そ」が単独で指示代名詞として使われる中古語では,これらは代名詞+格助詞として扱った方が適切である。このように, 歴史的資料向けの辞書見出しの追加は単純な作業ではなく, 通時的な共通性に配慮しつつ,各時代の言語の実態を反映させるかたちで見出し語を認定するという高度な判断にもとづくものである。その積み重ねによって作られた見出し語リストは,日本語の通時的な処理を行う上で基礎となる重要なデータであると言える。 また, 中古和文 UniDic の見出し語認定基準は規程集としてまとめ公開している (小椋,須永 $2012)^{5}$ が, これは通時的な比較を考慮した歴史的資料の処理にとって利用価值が高い資料である. 中古和文用の規定はそのまま他の時代の資料に適用できるわけではないが,日本語の古典文法は中古和文を基準として作られたものであるため,この規定を中核として追加・修正を行うことで各時代向けの辞書を作成していくことが可能である. 語彙の追加と平行して活用表の整備も行った. UniDic はもともと文語の活用表を一部備えていたが,これを整備して網羅的なものとするとともに,通時コーパス構築に必要な活用形の追加を行った。 UniDic は現代語用に整備されてきたため, 古文では用いられない語彙を多く含んでいる。しかし, 基礎語彙の多くは中古和文でも共通であり, どの語が不要であるかを事前に判断することは必ずしも容易ではない。また, 古文の形態素解析辞書にとって見出し語の肥大化は大きな問題ではないうえ, 不要語があることによる解析精度への悪影響は認められなかったため, 現代語用の見出しも原則としてそのままとした. 同様の理由から, 近代文語 UniDic と中古和文 UniDicの間でも同一の語彙表を用いている. 以上のような見出し語の追加だけであれば,学習用コーパスの作成に比べて低コストで行うことができる,そこで,見出し語の追加だけで十分な精度向上が見られるのかどうか確認するため, 古文用の見出し語を追加した現代語用のUniDic を作成し, 2.4 節の表 2 と同様に解析精度を調査した。その結果を表 3 に示す。見出し語の追加によって, 近代文語では, 語彙素認定 表 3 古文用の見出し語を追加した現代語用 UniDic による解析精度 (活用型変換による補正の有無による精度の比較を含む)  の $\mathrm{F}$ 值で約 0.06 ポイント向上し 0.7363 , 補正後の数字で 0.797 となっている. また, 精度の低かった中古和文では,語彙素認定の $\mathrm{F}$ 値で約 0.07 ポイント向上し 0.6190 , 補正後の数字で 0.664 となっている。しかし,やはりこの精度は不十分であり,見出し語の追加だけでは通時コーパスの構築にとって十分なだけの精度は得られなかった。 ## 3.2 学習用コーパスの準備 前節で確認したように, 古文の形態素解析のためには, 見出し語の追加だけでなく学習用コー パスの整備が必要となる. 近代文語では,主たる解析対象の明治期の文語論説文を中心に,表 4 の約 64 万語の人手修正済みのコーパスを作成した。近代詩・小説・法令・論説文の大部分は「青空文庫 ${ }^{6}$ 所収のテキストを利用し,論説文としては他に上田修一氏作成の「文明論之概略」テキストデー夕 7 を利用した。また,雑誌の本文は国立国語研究所の「太陽コーパス」「近代女性雑誌コーパス」 8 の一部のテキストを利用した。以上のテキストに対して独自にUniDic べースの形態論情報をタグ付けしたデータに加え,国立国語研究所で公開された形態論情報付き「明六雑誌コーパス」 9 を学習用のデータとして利用した。 中古和文では, 2012 年に国立国語研究所によって公開された「日本語歴史コーパス平安時代 表 4 近代文語のコーパス 表 5 中古和文のコーパス  編先行公開版 10 のデータを学習に利用した。このコーパスは,表 5 に示す平安時代の仮名文学作品を中心とした約 82 万語の人手修正済みの形態論情報を含んでいる. 学習用のコーパスは段落や改行, 振り仮名などがタグ付けされたテキストに形態論情報を付与したもので,これを関係データベース上で辞書データと紐付けて管理している。近代語コー パスでは,さらに濁点が付されていない部分に濁点を付与するなど表記上の問題に対処するためのタグ付けを行い,また文末を認定してセンテンスタグを付与している.日本語の歴史的資料のコーパスを形態素解析辞書の機械学習に利用可能な形で整備したのはこれが初めての試みである. 近代文語文と中古和文は,同じ古文と言っても大きく性質の異なる文体である。近代文語文では低頻度語が多く,上記のコーパス中,書字形(基本形)で集計した場合,頻度 1 の語が 18,120 語,頻度 2 の語が 5,943 語含まれていた。一方,中古和文では,頻度 1 の語が 6,198 語,頻度 2 の語が 2,134 語にすぎない。近代文語文は, 明治維新後に西洋の新たな文物を吸収していく時代において,新しい書き言葉を確立していく過程にあった文体であるため,新たに作られながらも定着しなかった語などの低頻度語が目立つ。また,書かれる内容が多様で文体差が大きい.一方, 中古和文は, 古代の宮廷における限られたコミュニティの中で当時の話し言葉に基づいて書かれた文章であり,内容的な幅も狭いため,語彙の広がりが小さい。こうした違いは,形態素解析の精度にも影響を及ぼしてくると考えられる。 ## $3.3 \mathrm{MeCab$ を用いたコーパスからのパラメータ学習} MeCabでコーパスからのパラメータを学習する場合, 設定ファイル rewrite.def と feature.def によって, 学習に用いる内部素性のマッピングと, 内部素性から $\mathrm{CRF}$ 素性を抽出するためのテンプレートを書き換えることができる。近代文語 UniDic と中古和文 UniDic の学習にあたっては, $\mathrm{CRF}$ 素性を抽出するテンプレート (feature.def) は,どちらの辞書でも現代語用のものをそのまま用いている。利用している素性は, 語彙素・語彙素読み・語種・品詞(大分類・中分類・小分類)・活用型・活用形・書字形(基本形と出現形)とその組み合わせである. UniDic では語種を学習素性として利用しているのが特徴となっており (Den et al. 2008), この素性は古文の解析にも大きく寄与している. 一方, 内部素性のマッピング (rewrite.def) は, 現代語用 UniDic のものを修正して, 語彙化する見出し語を文語の助動詞・接辞に置き換えた。たとえば,次の助動詞については品詞ではなく,語彙のレベルで連接コストを計算している。 き,けむ,けらし,けり,こす,ごとし,ざます,ざんす,じ,ず,たり,つ,なり,ぬ,べ し, べらなり, まし, まじ, む, むず, めり, らし, らむ, り, んす, んなり, んめり, 非ず  助詞・助動詞などの語彙化すべき見出し語については近代文語文と中古和文とで共通する部分が多いため, rewrite.def は近代文語 UniDic と中古和文 UniDic とで共通のものを利用した. ## 4 解析精度の評価 ## 4.1 解析精度 上述の方法で作成した「近代文語 UniDic」「中古和文 UniDic」の解析精度を調査した. 評価コーパスは, 3.2 節で示した人手による修正済みのコーパスから文単位でランダムサンプリングした 10 万語分とし, その残りを訓練コーパスとした. 評価コーパスは, 辞書ごとに固定して,以後の精度評価でも同一のものを用いている. 2.4 節での調査と同様に, 単位境界・品詞・語彙素・発音形の 4 つのレベルで調査を行った結果を表 6 に示す. なお, 評価コーパスはもともと学習用に整備したものの一部を転用したものであるため, 当初含まれていた未知語は辞書に登録されている,そのため, 解釈不能語などを除いて原則として未知語を含んでいない. 語彙素認定の $\mathrm{F}$ 値で, 近代文語は 0.9641 , 中古和文では 0.9700 となっており, ベースライン (表 2)や見出し語のみを追加した場合(表 3)と比較して大幅に精度が向上している. 近代文語 UniDic と中古和文 UniDic を比較すると, すべてのレベルで中古和文の方が良い精度となっ 表 6 「近代文語 UniDic」「中古和文 UniDic」の解析精度 図 2 各種方法による解析精度の比較(語彙素レベル・F 値) ている。これには中古和文の方が訓練コーパスの量が多いことも影響しているが,それよりも 3.2 節で見たようなテキストの性質の違いによる影響が大きいと考えられる(4.4 節参照). 図 2 に,再学習を行った提案手法と,23節で確認した各種手法(現代語辞書によるべースライン,再学習を伴わず見出し語だけを追加した辞書)の解析精度を比較した結果を示す。精度は語彙素認定レベルの $\mathrm{F}$ 値である。図中の「補正」とは活用型の文語形への変換を行った場合の精度である。 このように,コーパスによる再学習によって初めて実用的な精度での解析が可能になる。 BCCWJ の構築に利用された現代語の UniDic の解析精度が語彙素認定の $\mathrm{F}$ 値で約 0.98 であり, ジャンルによっては 0.96 程度に留まることと比較しても, コーパス構築に利用するために十分な精度が出ていると言える。 ## 4.2 未知語を考慮した解析精度 表 6 の精度は, 基本的に未知語が存在しない状態のコーパスを評価対象とした場合のものであった。しかし, 実際の解析対象には未知語が含まれているのが通常である。そこで, 未知語 表 7 未知語の有無による解析精度比較 を含んだテキストを解析した際の精度を検証した。 評価コーパスには同一のものを用いて,評価コーパスのみに現れ,それ以外の人手修正済みコーパス(=学習用コーパス)には一度も出現しない語を, 近代文語 UniDic・中古和文 UniDic それぞれの辞書から削除して未知語を発生させた. 削除した語数は, 近代文語 UniDic では 2,089 語(評価コーパス中の出現回数 3,128), 中古和文 UniDic では 795 語(評価コーパス中の出現回数 824)であった, 3.2 節で見たように,近代文語文には低頻度の語が多く含まれるため, 中古和文に比べて未知語が多く発生することになる。この条件で作成し直した辞書の解析精度を表 7 に示す. Precision が特に低下しており,語彙素認定の $\mathrm{F}$ 値で見ると,近代文語文では 0.0376 ポイント低下して 0.9265, 中古和文では 0.0089 ポイント低下して 0.9611 となっている. 未知語が多い近代文語文では影響が大きいが,それでも十分に実用的な精度が得られている。 ## 4.3 未知の資料の解析精度 前節で見たように学習用コーパスと同一の作品では十分な精度が得られたが, 学習用コーパスとは完全に無関係な資料の解析精度を確認する必要がある。未知の資料には,当該辞書の適用対象といえるテキストと, 文体差があり必ずしも適切な対象であるとはいえないテキストがある。ここでは, 中古和文 UniDic を例に,その適用対象内の文体で書かれたテキストであるといえる擬古物語『恋路ゆかしき大将』と,時代的には中古和文に近いが和漢混淆文と呼ばれる別種の文体である『今昔物語集』の一部の解析精度を調査する。調査対象のテキストはいずれも未知語を一部含んだ状態である。それぞれ,表 8 に示すような文体である. 中古和文 UniDic による擬古物語と和漢混淆文の解析結果を表 9 に示す. 擬古物語では, 語彙 素認定の $\mathrm{F}$ 値で 0.95 以上の精度を確保している一方, 和漢混淆文では 0.85 程度となっている. ここから,中古和文 UniDic がターゲットとしていた文体であれば未知の資料であっても十分な解析が可能であること,一方ターゲットとしていない文体では十分な精度が得られず,再学習など新たな取り組みが必要であることが分かる. 表 8 擬古物語・和漢混淆文のテキスト例 & & \\ 表 9 「中古和文 UniDic」による擬古物語・和漢混淆文の解析精度 ## 4.4 学習に用いるコーパスの量の解析精度への影響 つづいて, 学習に用いるコーパスの量の解析精度への影響を確認するために, コーパスの量を変化させて解析精度を評価した。評価コーパスは辞書ごとに固定した 10 万語で, 4.1 節・ 4.2 節と同一のものである。学習用のコーパスは,評価コーパス以外の人手修正済みデー夕を文単位でランダムに並び替えた後,先頭から指定語数分取得している。語数は, 2 万語までは 5,000 語ごと, 10 万語までは 2 万語ごと, それ以上は 10 万語ごとに学習用コーパスを増やし, 近代文語 UniDic では 50 万語,中古和文 UniDic では 70 万語まで評価している,比較のため現代語用の UniDic についても同様の方法で 100 万語まで評価した。現代語の学習・評価用コーパスには BCCWJ のコアデータを利用した. この結果を図 3 に示す。縦軸が語彙素認定の $\mathrm{F}$ 値, 横軸がコーパス量である. 現代語 > 中古和文 > 近代文語の順に解析精度が低くなるが, この傾向はコーパス量が同じであればどの段階においても同じであり, この差は各辞書が対象とするテキストの(短単位に 図 3 各種 UniDic の学習曲線(語彙素レベル・F 値) よる形態素解析という観点での)難易度を反映したものだといえそうである。ただし,近代文語文の精度低下には, 口語による表現が部分的に挿入される場合があることも影響している ${ }^{11}$.口語表現を除外するようにコーパスを整備したり, 口語表現の品詞認定基準を改めたりすることで,他の辞書との差は小さくなるものと思われる. 学習用のコーパス量が 5,000 語でも 0.9 以上の $\mathrm{F}$ 值が得られているが, これは現代語の UniDic で解析した表 2 や表 3 の結果よりも遙かに良い数値である。古文の形態素解析では,少ない量であっても専用のコーパスを使って辞書を作成することが効果的であることがわかる。また,約 5 万語のコーパスで $95 \%$ の精度に達しており, どの辞書でも約 10 万語を境に精度向上が大幅に鈍化し飽和していく.短単位の形態素解析辞書を新たに作成するのに必要な学習用のコー パスは約 5〜10万語というのが一つの目安であるといえる. ## 5 エラー分析 ## 5.1 高頻度の解析エラー 4.1 節(表 6)の精度調査におけるエラーから,近代文語 UniDic,中古和文 UniDic のエラー の傾向を分析する,表 10 に,境界認定・品詞認定・語彙素認定の各レベルにおいて特に高頻度のエラーをまとめた。表中括弧内の数字はエラー数である.以下,これらのエラーについてレベル別に確認する. 表 10 高頻度の解析エラー  ## 5.2 境界認定レベルのエラー 境界認定のレベルでは,近代文語 UniDic は結果として過分割となっているものが 272 例, 同数となるもの 74 例, 過結合となるものが 258 例であった. 中古和文 UniDic は過分割となっているものが 189 例, 同数となるものが 25 例, 過結合となるものが 176 例であった. 中古和文・近代文語でともにエラーが多い「にて」「とも」は,語源にさかのぼると「に/て」「と/も」であり,複合してできた語を語源的に見て 2 語と扱うか,新たにできた 1 語として扱うかという認定基準の立て方の問題と関わる。歴史的な言語変化によって一語化が進展していくわけだが,もともと連続して出てきやすい語の連続であり,また全ての「に/て」「と/も」連続が一語化するわけではないため判別が難しい. 近代文語の「然れども」は, 現在の規程では,「しかれども」と読む場合には「然り」と「ども」に分割し,「されども」と読む場合には 1 語の接続詞として扱っている. したがって問題は「然れ」を「され」と読むか「しかれ」と読むかという点にあり,実質上は語彙素認定のエ めば連体詞として 1 語と見なされる。このように近代語では漢字表記語が多く読みに曖昧さがあり, そこに語の歴史的変化による一語化が進展していることが複合して問題となっている. 一方, 近代文語の「論派」は,「○○論派」とある場合に, UniDic の短単位規定で「 ( ○○)論)派」という語構成を考えて「-論」「-派」がいずれも接尾辞となって切り出されるのに対し,「論派」という 1 語の名詞も存在するためにこちらが優先されることによっている.漢語の多い近代語で目立っているが,これは現代語でも同種の現象が起きる問題であり,漢語の単位認定について, 形態素解析では扱いきれない語構成の問題が短単位認定基準に取り込まれていることが要因であるといえる。 ## 5.3 品詞認定レベルのエラー 品詞認定のレベルでは, 品詞そのものの認定エラーと, 活用形の認定のエラーが区別される.品詞そのものの認定で中古和文・近代文語ともに最多のものは「に」の認定が助動詞・格助詞・接続助詞の間で摇れるものである.「に」の判別は現代語においても助動詞「だ」連用形と格助詞「に」の間などで問題になるが,古文では接続助詞の「に」が高い頻度で用いられるためより曖昧性が高い,接続助詞「に」は連体形接続であるため,接続の上でも他と区別が付かない.このほか, 中古和文では「を」の判別エラーが多い. 現代語では格助詞以外の用法を持たないが, 中古語では接続助詞・終助詞があるためエラーにつながっている. また, 近代文語では「も」「で」の判別エラーが目立つが,いずれも同形の接続助詞があることで現代語よりも曖昧性が増している。さらに「で」は近代においては口語的な助動詞「だ」の連用形としての 「で」が用いられることがあるため, 現代語で発生する助動詞「だ」連用形と格助詞「で」の判別と同じ問題が生じている. このように品詞の認定では,コピュラ助動詞(「なり」「だ)の連用形と格助詞との判別という現代語でも見られるエラーがあることに加えて, 古文では同形の接続助詞が存在するためにより曖昧性が高くエラーにつながっている。 活用形の認定では,高頻度の助動詞や動詞の終止形・連体形の判別と,助動詞「ず」・動詞「有り」の終止形と連用形の判別でエラーが多く発生している. 終止形・連体形の判別エラーは,係り結びに起因する古文特有のものである.古文では,文中に「ぞ」「か」「や」の係助詞や疑問詞(不定語)が存在する場合,係り結びの法則によって文末が終止形ではなく連体形になるという現象がある。ところが,四段活用では終止形と連体形が同形であるため,文末に位置する場合には文中に上述の要素(係り)が存在するかどうかによって同形の動詞を判別しなければならず,この困難がエラーにつながっている.係り結びは中古和文で特に多いため終止形・連体形の判別エラーも中古和文に多く, 活用形間の誤り全体 363 例のうち 214 例がこのエラーである. 助動詞「ず」・動詞「有り」の終止形と連用形の判別は,文末の認定に関わるものである. 助動詞「ず」やラ行変格活用の語では終止形と連用形が同形であるが,終止形と連用形の違いは多くの場合,文が中止しているのかそこで終わっているのかの違いに相当する.ところが,近代文語文では,文末が句点として必ずしも明示されない 12 ,句点と読点が区別されず,ともに「、」 で表されている文が多く,こうした場合には中止か終止かの区別が極めて難しい.このことが終止形・連用形の選択エラーにつながっている。これも古文のテキスト特有のエラーである. ## 5.4 語彙素認定のエラー 語彙素認定では, 中古和文における接頭辞「御」が「ミ」「オオン」の間で摇れる例が極めて多かった。これを含め中古和文における高頻度の語彙素認定エラーは, 品詞が一致する上に語種までが同じ例である。近代文語で最多の「人」が「ジン」「ニン」で摇れる例も語種が同じものである. UniDic の見出し語中には, 同一の漢字表記語が音読する漢語と訓読する和語に区別される例が多いが,学習素性に語種を利用していることもあり,語種をまたいだ誤りは比較的少なかった,語彙素認定のエラーは現代語でも生じうるタイプの誤りである。ただし, 現代語では接頭辞「御」は漢語「ゴ」と和語「オ」でほぼ区別が付くが,中古和文では和語に複数の読みがあるため語種では判別ができないといった違いがある. ## 5.5 エラーのまとめ 以上のエラーのうち古文特有といえる問題は, (1) 係り結びに起因する文末活用語の終止形$\cdot$連体形の判別, (2) 文末表示の曖昧さに起因する文末活用語の終止形・連用形の判別である. 特  に係り結びの問題に対処するには文中の離れた要素を考慮する必要があるが, 提案手法では局所的な形態論情報だけを素性として利用しているため対応できていない. しかし, これらのエラーは比較的簡単なルールによって自動修正できるため, 形態素解析後の後処理で対応することが可能である. その他のエラーは同種の問題が現代語でも発生しうるものである。しかし,「に/て」「と/ も」,「に」「も」「を」などの助詞に関する判別は, 古文の方が同音異義となる語彙が多いため曖昧性が増していた(「を」は現代語では曖昧性がない)。また, 特に近代文語では漢字表記語の割合が大きく,その読みの曖昧性がエラーにつながる例が現代語よりも多い. 中古和文の接頭辞「御」も同様で和語に絞っても多様な読みがあるため判別が困難である. 以上のように, エラーの原因には文法現象から語彙, 表記法の違いまで, 古文特有の現象が関わっているものが見られた。 ## 6 おわりに UniDic の見出し語を増補し,学習用のコーパスを整備することによって,「中古和文 UniDic」 と「近代文語 UniDic」の二つの形態素解析辞書を作成した。これらの辞書により, 語彙素認定の $\mathrm{F}$ 值で, 近代文語は 0.9641 , 中古和文では 0.9700 という高い精度で解析することが可能になった.これにより, 通時コーパス構築の基盤となる形態素解析システムが整ったといえる。これらの形態素解析辞書はすでに Web 上で一般公開を行っている ${ }^{13}$. 開発過程で, 古文の形態素解析には見出し語の追加だけでは十分な精度が得られないこと, 5,000 語程度の少量であっても専用の学習用コーパスを用意することが効果的であることが確認された. 他分野の辞書による解析精度が低いこととあわせ, このことは, 古文の形態素解析では,他分野のコーパスによって学習したパラメータの転用を図ることは有効ではないことを示唆している。また, 短単位にもとづく形態素解析辞書の学習には, $5 \sim 10$ 万語の学習用コーパスを用意すれば歴史的日本語コーパスの構築にとって十分であることが確認された. さらに,エラーの分析から, 残されたエラーの多くは, 現状の解析器と学習可能な素性では対処の難しいものであることが確認された. 近代文語と中古和文を比較すると, 近代文語の解析精度が低かったが, その理由の一つは近代文語の中身が多様で,ドメインの分割がうまくできていないことにあるものと思われる.比較的少量の学習用コーパスで効果が見込まれることが確認されたことから, 近代文語文をより小さなドメインに分割することで全体として精度を向上させられる可能性がある. 同様に, 会話文と地の文とで別の辞書を作成することでも精度の向上が期待できる.今後の課題としたい.  通時コーパスの構築のためには, 今後, 様々なタイプのテキストの解析を行っていく必要がある.今回の調査においても, 中古和文と同時代の資料であっても和漢混淆文は中古和文 UniDic では十分な精度で解析できないことが確認された。今後, 和漢混淆文をはじめとする多様なジャンルのテキストを対象とした形態素解析辞書を作成していく必要がある。その中では, 仮名遣いのバリエーションへの対処や送り仮名の大幅な省略などの表記摇れへの対処も必要となる。今回得られた情報をもとに必要なコーパスを整備するとともに, 新たな解析器も活用しつつ, 通時コーパスのための形態素解析を行っていきたい. ## 謝 辞 本研究は 2009~2012 年に行われた国立国語研究所の共同研究プロジェクト(統計と機械学習による日本語史研究)による研究成果の一部である. ## 参考文献 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵 (2007). コーパス日本語学のための言語資源一形態素解析用電子化辞書の開発とその応用(特集コーパス日本語学の射程). 日本語科学, 22, pp. 101-123. Den, Y., Nakamura, J., Ogiso, T., and Ogura, H. (2008). "A proper approach to Japanese morphological analysis: Dictionary, model, and evaluation." In Proceedings of the 6th Language Resources and Evaluation Conference (LREC 2008), Marrakech, Morocco, pp. 1019-1024. 国立国語研究所 (2011). 現代日本語書き言葉均衡コーパス. 近藤泰弘 (2009). 古典語・古典文学研究における言語処理, pp. 472-473. 共立出版. 近藤泰弘 (2012). 日本語通時コーパスの設計. NINJAL「通時コーパス」プロジェクト・Oxford VSARPS プロジェクト合同シンポジウム通時コーパスと日本語史研究予稿集, pp. 1-10. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying conditional random fields to Japanese morphological analysis." In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing , Barcelona, Spain., pp. 230-237. Lafferty, J. D., McCallum, A., and Pereira, F. C. N. (2001). "Conditional random fields: Probabilistic models for segmenting and labeling sequence data." In Proceedings of the 18th International Conference on Machine Learning, Williamstown, MA., pp. 282-289. 村上征勝 (2004). シェークスピアは誰ですか?一計量文献学の世界. 文春新書. 小木曽智信 (2011). 通時コーパスの構築に向けた古文用形態素解析辞書の開発. 情報処理学会研究報告人文科学とコンピュータ, 2011-CH-92 (6), pp. 1-4. 小椋秀樹, 須永哲矢 (2012). 中古和文 UniDic 短単位規程集(科研費基盤研究 (C) 課題番号 21520492 「和文系資料を対象とした形態素解析辞書の開発」研究成果報告書 2). 国立国語研究所. 山元啓史 (2007). 和歌のための品詞タグづけシステム. 日本語の研究, $\mathbf{3}$ (22), pp. 33-39. 山本靖, 松本裕治 (1996). 日本語形態素解析システム JUMAN による古文の形態素解析とその応用. 情報処理語学文学研究会第 19 回研究発表大会要旨. 安武満佐子, 吉村賢治, 首藤公昭 (1995). 古文の形態素解析システム. 福岡大学工学集報, 54, pp. 157-165. ## 略歴 小木曽智信:1995 年東京大学文学部日本語日本文学 (国語学) 専修課程卒. 1997 年東京大学大学院人文社会系研究科日本文化研究専攻修士課程修了. 2001 年同博士課程中途退学. 修士 (文学). 2001 年より明海大学講師. 2006 年より独立行政法人国立国語研究所研究員を経て,2009年より人間文化研究機構国立国語研究所准教授, 現在に至る. 現在, 社会人学生として奈良先端科学技術大学院大学情報科学研究科博士後期課程に在学中. 専門は日本語学, 自然言語処理. 言語処理学会, 日本語学会, 情報処理学会各会員. 小町守:2005 年東京大学教養学部基礎科学科科学史・科学哲学分科卒. 2007 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2008 年より日本学術振興会特別研究員 (DC2) を経て, 2010 年博士後期課程修了. 博士 (工学). 同研究科助教を経て, 現在, 首都大学東京システムデザイン学部准教授. 大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある. 言語処理学会, 人工知能学会, 情報処理学会, ACL 各会員. 松本裕治:1977 年京都大学工学部情報工学科卒. 1979 年同大学大学院工学研究科修士課程情報工学専攻修了. 同年電子技術総合研究所入所. 1984 85 年英国インペリアルカレッジ客員研究員. 1985~87 年財団法人新世代コンピュータ技術開発機構に出向. 京都大学助教授を経て, 1993 年より奈良先端科学技術大学院大学教授, 現在に至る. 工学博士. 専門は自然言語処理. 計量国語学会, 言語処理学会, 情報処理学会, 人工知能学会, 認知科学会, AAAI, ACL, ACM 各会員. 情報処理学会フェロー. ACL Fellow.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 情報信憑性判断支援のための対話型調停要約生成手法 渋木 英潔 $\dagger$ ・永井 隆広 ${ }^{\dagger} \cdot$ 中野 正宽 $\dagger$ ・石下 円香 $\dagger \cdot$ 松本 拓也呫・森辰則 $\dagger$ } 我々は,Web 上の情報信憑性判断を支援するための技術として,調停要約の自動生成に関する研究を行っている。調停要約とは,一見すると互いに対立しているよう にみえる二つの言明の組が実際にはある条件や状況の下で両立できる場合に,両立可能となる状況を簡潔に説明している文章を Web 文書から見つける要約である。し かしながら, 対立しているようにみえる言明の組は一般に複数存在するため, 利用者がどの言明の組を調停要約の対象としているのかを明らかにする必要がある.本論文では,利用者が調停要約の対象となる言明の組を対話的に明確化した状況下で 調停要約を生成できるように改善した手法を提案する。また, 提案手法は, 従来の 調停要約生成手法に, 逆接, 限定, 結論などの手掛かり表現が含まれる位置と, 調停要約に不要な文の数を考慮することで精度の向上を図る。調停要約コーパスを用 いた実験の結果, 従来手法と比較して, 調停要約として出力されたパッセージの上位 10 件の適合率が 0.050 から 0.231 に向上したことを確認した. キーワード:調停要約, 情報信憑性, 対話型要約, パッセージ抽出, Web 文書 ## Interactive Method for Generation of Mediatory Summary to Verify Credibility of Web Information \author{ Hideyuki Shibuki ${ }^{\dagger}$, Takahiro Nagai $^{\dagger \dagger}$, Masahiro Nakano ${ }^{\dagger \dagger}$, Madoka Ishioroshi ${ }^{\dagger}$, \\ Takuya Matsumoto ${ }^{\dagger \dagger}$ and Tatsunori Mori ${ }^{\dagger}$ } We have been studying automatic generation of a mediatory summary for facilitating users in assessing the credibility of information on the Web. A mediatory summary is a brief description extracted from relevant Web documents in situations where a pair of statements that appear to contradict each other at first glance can actually coexist under a certain situation. In general, because there are several such pairs, users should clarify the pair whose credibility they are assessing. In this paper, we propose an interactive method for generating a mediatory summary in which users specify the pair of statements they are interested in assessing. Furthermore, we attempt to improve the method in terms of both precision and recall by introducing the position of key expressions such as adversative conjunctions, conditional expressions, and conclusive conjunctions and the number of sentences that are not useful for the mediatory summary. Results of the analysis performed using the mediatory  summary corpus indicate that the proposed method achieved a precision of 0.231 for the generated summaries ranked in the top 10, while the previous method (Shibuki et al. 2011a) achieved a precision of 0.050 . Key Words: mediatory summary, information credibility, interactive summarization, passage extraction, Web documents ## 1 はじめに Web 上には出所が不確かな情報や利用者に不利益をもたらす情報などが存在するため,信頼できる情報を利用者が容易に得るための技術に対する要望が高まっている。しかしながら, 情報の内容の真偽や正確性を自動的に検証することは困難であるため,我々は,情報の信憑性は利用者が最終的に判断すべきであると考え,そのような利用者の信憑性判断を支援する技術の実現に向けた研究を行っている. 現在, ある情報の信憑性を Webのみを情報源として判断しようとした場合, Web 検索エンジンにより上位にランキングされた文書集合を読んで判断することが多い. しかしながら,例えば,「ディーゼル車は環境に良いか?」というクエリで検索された文書集合には,「ディーゼル車は環境に良い」と主張する文書と「ディーゼル車は環境に悪い」と主張する文書の両方が含まれている場合があり,その対立関係をどのように読み解くべきかに関する手がかりを検索エンジンは示さない.ここでの対立関係の読み解き方とは, 例えば, 一方の内容が間違っているのか, それとも,両方の内容が正しく両立できるのか,といった点に関する可能性の示唆であり,もしも両立できるのであれば,何故対立しているようにみえるのかに関する解説を提示することである. 互いに対立しているようにみえる関係の中には, 一方が本当でもう一方が嘘であるという真に対立している関係も存在するが,互いが前提とする視点や観点が異なるために対立しているようにみえる関係も存在する。例えば,「ディーゼル車は環境に良い」と主張する文書を精読すると $\left.\lceil\mathrm{CO}_{2}\right.$ の排出量が少ないので環境に良い」という文脈で述べられており,「ディーゼル車は環境に悪い」と主張する文書を精読すると「 $\mathrm{NO}_{\mathrm{x}}$ の排出量が多いので環境に悪い」という文脈で述べられている。この場合, 前者は「地球温暖化」という観点から環境の良し悪しを述べているのに対して,後者は「大気污染」という観点から述べており,互いの主張を否定する関係ではない。つまり,前提となる環境を明確にしない限り「ディーゼル車は環境に良いか?」というクエリが真偽を回答できるような問いではないことを示しており,「あなたが想定している 『環境』が地球温暖化を指しているなら環境に良いが,大気污染を指しているならば環境に悪い」 といった回答が,この例では適切であろう,我々は,このような一見対立しているようにみえるが,実際はある条件や状況の下で互いの内容が両立できる関係を疑似対立と定義し, 疑似対 立を読み解くための手掛かりとなる簡潔な文章を提示することで利用者の信憑性判断を支援することを目的としている. ところで, Web 上には, こういった疑似対立に対して, 「ディーゼル車は二酸化炭素の排出量が少ないので地球温暖化の面では環境に良いが,粒子状物質や窒素酸化物の排出量が多いので大気污染の面では環境に悪い。環境に良いか悪いかは想定している環境の種類による.」といった第三者視点から解説した文章が少数ながら存在していることがある. このような文章を, Web 文書中から抽出,整理して利用者に提示することができれば,上述の回答例と同様に「環境の種類を明確にしない限り単純に真偽を判断できない」ということを気付かせることができ,利用者の信憑性判断を支援することができる。我々は,この疑似対立を読み解くための手掛かりとなる簡潔な文章を調停要約と定義し, 利用者が信憑性を判断したい言明 ${ }^{1}$ (以降,着目言明) が入力された場合に,着目言明の疑似対立に関する調停要約を生成するための手法を提案している (渋木, 中野, 石下, 永井, 森 2011a; 中野, 渋木, 宮崎, 石下, 金子, 永井, 森 2011; 石下,渋木,中野,宮崎,永井,森 2011; Shibuki, Nagai, Nakano, Miyazaki, Ishioroshi, and Mori 2010; Kaneko, Shibuki, Nakano, Miyazaki, Ishioroshi, and Morii 2009; 渋木, 中野, 宮崎, 石下,永井, 森 2011b). なお, Kaneko et al. (2009) において, 調停要約には, 一つのパッセージで両立可能となる状況を明示的に説明する直接調停要約と, 状況の一部を説明するパッセージを複数組み合わせて状況の全体を暗に示す間接調停要約の 2 種類が定義されているが, 本論文では直接調停要約を対象としており,以後,直接調停要約を単に調停要約と記す。 調停要約の生成は,調停という性質上,対立関係にある 2 言明の存在を前提として行われる.中野らの手法 (中野他 2011) では, 着目言明と対立関係にある言明を見つけるために, 着目言明中の単語を対義語で置換したり,用言を否定形にしたりすることで,対立言明を自動的に生成している。また, 石下らの手法 (石下他 2011) では, 言論マップ (Murakami, Nichols, Mizuno, Watanabe, Masuda, Goto, Ohki, Sao, Matsuyoshi, Inui, and Matsumoto 2010)を利用することで対立言明を見つけている。しかしながら,検索された文書集合には,「ディーゼル車は環境に良いvs. ディーゼル車は環境に悪い」といった, 着目言明を直截的に否定する対立点以外にも,例えば「ディーゼル車は黒煙を出す vs. ディーゼル車は黒煙を出さない」といった, 異なる幾つかの対立点が存在することがあり,中野らや石下らによる従来の調停要約生成手法では,どの対立点に関する調停要約であるかを明示せずに調停要約を生成していた。利用者が信憑性を判断したい対立点(焦点)であることを明確にした調停要約でなければ真に利用者の役には立たないと考えられる。それゆえ, この問題を解決するために, 我々は, 最初に検索された文書集合を利用者に提示し,それを読んだ利用者が焦点とする対立関係にある 2 文を明示した後に調  停要約を生成するという対話的なアプローチを解決策の一つとして採ることとした. 以上の背景から,本論文では,利用者が対立の焦点となる 2 文を対話的に明確化した状況下で調停要約を生成する手法を提案する。また, 調停要約生成の精度を向上させるために, 逆接,限定,結論などの手掛かり表現が含まれる位置と,調停要約に不要な文の数を考慮した新しいスコアリングの式を導入し,従来の調停要約生成手法と比較した結果について考察する。さらに,以下の理由から,利用者が焦点とする 2 文を明確化する方法に関しても考察する.利用者が焦点とする 2 文を明確化する方法として,以下の 2 つの方法が考えられる。一つは,利用者が自ら焦点とする 2 文を生成する方法であり,もう一つは,提示された文書集合から,焦点とする 2 文に相当する記述を抽出する方法である.前者の方法が利用者の焦点をより正確に反映できると考えられるが,明確化に要する利用者の負担を軽減するという観点からは後者の方法が望ましい,従って,焦点とする 2 文を明確化する方法として,どちらの方法が適しているかに関しても実験を行い考察する。 本論文の構成は以下の通りである。まず, 2 章で関連研究について述べる。 3 章で調停要約生成における基本的な考え方を説明する.4 章で提案する対話型調停要約生成手法を述べる. 5 章で本論文の実験で用いる調停要約コーパスに関して説明する。 6 章で従来の調停要約生成手法との比較実験を行い,その結果について考察する.また,焦点とする 2 文を明確化する方法に関しても考察する。最後に 7 章で本論文のまとめを行う. ## 2 関連研究 ## 2.1 情報信憑性判断支援における調停要約の位置づけ 利用者の情報信憑性判断を支援する技術には幾つかのアプローチが考えられる.まず,利用者が着目する話題や言明に関連する Web 文書に対して, 対立の構図や根拠関係などを多角的に俯瞰することを支援する技術がある. Akamine et al. (Akamine, Kawahara, Kato, Nakagawa, LeonSuematsu, Kawada, Inui, Kurohashi, and Kidawara 2010; Akamine, Kawahara, Kato, Nakagawa, Inui, Kurohashi, and Kidawara 2009)は, 利用者が入力した分析対象トピックに関連する Webペー ジに対して, 主要・対立表現を俯瞰的に提示するシステム WISDOMを開発している. Murakami et al. (2010)は, Web 上に存在するさまざまなテキスト情報について, それらの間に暗に示されている同意, 対立, 弱い対立, 根拠などの意味的関係を解析する言論マップの生成課題を論じている. 藤井 (2008) は, Web 上の主観情報を集約し, 賛否両論が対立する構図を論点に基づいて可視化している. Akamine et al. (2010, 2009) や Murakami et al. (2010) や藤井 (2008)の手法では,対立関係にある記述を網羅的に提示することに焦点があり,提示された対立関係の読み解き方に関しては対象としていない。対立関係の把握が容易になるような要約を利用者に提示できれば,着目言明に関連する話題や言明群の全体像が把握しやすくなると考えられる. 山本ら (山本, 田中 2010) は, 分析対象となる Web 情報とその関連情報をデータ対で表現し, データ対間のサポート関係を分析することでWeb 情報の信恣性を評価する汎用的なモデルを提案している。これは,対象データ対をサポートする関係にあるデータ対が多く存在するほど対象デー夕対の信憑性が高まる,という仮説に基づいている,しかしながら,Web上には,ある特殊な条件や状況下でのみ真実となるような内容に言及している記述も存在しており,そのような記述は,おそらく一般論を述べているであらう多数の記述からサポートされるとは限らない,調停要約は,一見すると矛盾するような情報が,ある条件や状況の下では成立する場合があることを利用者に示すことを目的としており,我々は,そういった特殊な条件や状況があることを示すことも利用者の信憑性判断を支援する上で必要であると考えている. Finn et al. (Finn, Kushmerick, and Smyth 2001)は, Web 上の新聞記事を対象として, コラ么等の主観的な記事と事実を伝える客観的な記事に分類する研究を行っている。また,松本ら (松本, 小西, 高木, 小山, 三宅, 伊東 2009) は, 文末表現を用いて, Webぺージが主観と客観のどちらの情報を中心として構成されているかを推定する研究を行っている.好悪といった主観に依存する言明間の対立関係の場合,互いの内容は両立することができるため,主観的であるか否かの情報は対立関係の読み解き方に役立つと考えられる。しかしながら,ディーゼル車の例のように客観的な内容の対立関係においても疑似対立となる場合があり,客観的な内容の疑似対立となる場合の読み解き方を調停要約は対象としている. 他にも,利用者が着目する言明に対する Web 上の意見の変遷と意見が変わった要因を提示する河合らの研究 (河合, 岡嶋, 中澤 2007), Web ページのレイアウト情報を利用して情報発信者の名称を抽出する Miyazaki et al. の研究 (Miyazaki, Momose, Shibuki, and Mori 2009), Web ページの情報発信構成の考え方に基づいて情報発信者の同定を行う加藤らの研究 (加藤, 河原,乾, 黒橋, 柴田 2010) 等がある. 河合ら (河合他 2007) や Miyazaki et al. (2009) や加藤ら (加藤他 2010)の研究は,発信された情報の内容ではなく,「いつ」「誰が」発信したかといった面から利用者の判断を支援するアプローチを取っている.したがって,調停要約の元文書の情報発信者を提示することで,さらに利用者への支援が容易になると考えられる。 ## 2.2 従来の要約手法との比較 調停要約は,複数文書を対象とした抜粋型の報知的要約の一つである。その中でも,橋本ら (橋本, 奥村, 島津 2001) の研究のような, 要約対象文書群から「まとめ文章」を取り出すことにより要約する手法に属する。橋本ら (橋本他 2001) は,新聞記事を対象にしており,複数文書の記述内容に齯䶣があることは想定せずに,複数記事の内容をそのまままとめることが目的である。一方で調停要約では,まず,様々な立場の人物や組織が互いに対立した主張をしているようにみえる記述を含む文書集合を要約対象にしている点が異なる. さらに, 得られる要約の中に,疑似対立とその読み解き方が含められるようにすることで,情報信憑性の判断に寄与 することを目的としている。 利用者の知りたい事柄に焦点を当てて要約する手法としては, Tombros and Sandersoni (1998) の提案する Query-biased summarization がある。これは文書検索結果に対する要約を行なう場合に,利用者が文書検索に用いたキーワードの重要度を高くして重要文抽出を行なうものである。また,利用者が質問文を与えた場合にそれを考慮した要約を提示する研究もあり,平尾ら (平尾,佐々木,磯崎 2001)の質問が問うている事物の種類の情報を用いる手法や, Mori et al. (Mori, Nozawa, and Asada 2005)の質問文により焦点が与えられた場合に QA エンジンを用いて要約を行う手法などが提案されている。従来の調停要約生成手法においても, 利用者から与えられた着目言明に基づいて要約を生成しており,Query-biased summarization の一種であるといえる. 平尾ら (平尾他 2001) や Mori et al. (2005)の手法では, 処理の直前に 1 回だけ利用者の興味が入力され, それに対する要約を提示した時点で処理は完結する。一方, 提案する対話型調停要約生成手法では,着目言明に基づいて提示された文書群に対して利用者が対立の焦点となる 2 文を明示することで,さらに利用者が信憑性を判断したい対立点に焦点を当てた調停要約を提示することができる. 酒井ら (酒井, 増山 2006) は, 利用者の要約要求を反映した要約を生成するために, 利用者とのインタラクションを導入した複数文書要約システムを提案している. 酒井ら (酒井, 増山 2006)のシステムでは,システムが要約対象文書集合から自動的に抽出したキーワードの中から, 利用者が要約要求と関連するキーワードを選択するという方法で利用者とのインタラクションを実現しているが,我々のシステムでは,提示された文書集合に対して利用者が対立関係にある任意の 2 文を直接選択することを想定している。キーワードではなく文によるインタラクションを行う理由として, キーワードとの関連性だけでは適切な調停要約の生成が不十分となることがあげられる,例えば,「ディーゼル車は黒煙を出す」ことに関する事例や根拠のみが書かれた記述は,「ディーゼル車」,「黒煙」,「出す」といったキーワードとの関連性が高くなると考えられる。しかしながら,そのような記述は,利用者が「ディーゼル車は黒煙を出す」という言明の信憑性を判断する材料として不十分である。利用者が正しい判断をできるようにするためには,対立関係にある「ディーゼル車は黒煙を出さない」ことに関する事例や根拠,黒煙を出す場合と出さない場合とが両立できる状況も示す必要がある.したがって,調停要約の生成には,命題レベルでの対立関係を扱う必要があり,利用者が文書集合中の任意の 2 文を直接選択することで,利用者が焦点とする対立点を明確化することとした。 システムが提示したテキストに利用者が直接操作を加えることで, 直観的かつ簡単に利用者が必要とする情報を要求するという対話的な要約生成手法としては, 村田ら (村田, 森 2007) の手法がある,村田ら(村田,森 2007) は, Scatter/Gather 法 (Cutting, Karger, Pedersen, and Tukey 1992)を要約提示の観点から捉え直す事により,提示した要約文章そのものに対し利用者が操作を行ない,それによって利用者の興味を反映した新たな要約を提示する手法を提案し 図 1 対話的アプローチにおける調停要約の生成例 ている。提案手法も同様の考え方に基づいており,提示された文章群の中で信憑性を判断したい対立関係にある 2 文を利用者がマウス操作等により明確化するという操作を行うことで,利用者が焦点とする対立関係を反映した調停要約を生成する。 ## 2.3 質問応答システムとの比較 利用者が入力したクエリに対して簡潔な文章を出力するという枠組みは, Non-Factoid 型の質問応答システム (Fukumoto, Kato, Masui, and Mori 2007) と類似している。質問応答として捉えると,着目言明を入力としてその真偽を問う Yes/No 型の質問応答となることが考えられるが,調停要約の場合には,単純に Yes/No で回答できる質問ではないということを気付かせる文章を出力するという点で質問応答の考え方とは異なっている。したがって, 質問応答システムにおいて Yes と Noの両方の解が得られるような場合に調停要約を提示するといった利用が考えられるが,本論文では,質問応答システムとの連携は今後の課題として,単純に Yes/No では回答できない質問が入力されることを前提としている。 ## 3 調停要約 ## 3.1 目標とアプローチ 利用者が「朝バナナダイエットでダイエットできる」という言明に着目してその真偽を調べたい場合の, 我々が目標とする調停要約と調停要約を対話的に生成する流れの例を図 1 に示す. まず,利用者が着目言明である「朝バナナダイエットでダイエットできる」を入力し,システムは着目言明に関連する Web 文書集合を提示する。提示された文書集合中には,「バナナは高い栄養価なのに低カロリーの果物で, 腹持ちに優れているのが特徴です.」という着目言明に肯 定的な内容の記述と,「バナナは果物の中では水分が少ないためカロリーは高めです.」という否定的な内容の記述が存在しており,バナナのもつカロリーに関して互いに対立関係にあるようにみえる,そのため,利用者はこの 2 文を選択することで,バナナのカロリーが対立の焦点であることをシステムに伝え,システムは,バナナのカロリーに関する調停要約を生成し出力する.Web上には,ある対立関係について,それらが両立可能であることを示した記述が存在していることがあり,そのような記述をパッセージ単位で抜粋して提示するというのが調停要約の基本的な考え方である。なお,本論文では,文書中の一つ以上の文の連続をパッセージと定義する。 この例では,バナナのもつカロリーに関しての疑似対立と調停要約が示されているが,着目言明に関連する疑似対立は一つとは限らない2ため,それぞれの疑似対立に対応する調停要約を利用者に提示することが前提となる。しかしながら,それらの調停要約を疑似対立ごとに明示的に区別せずに提示してしまうと,利用者が焦点とする疑似対立以外の調停要約が,焦点とする疑似対立に対する利用者の判断を妨げてしまう恐れがある。それゆえ,本論文では,最初に利用者に文書集合を提示し,文書集合中で互いに矛盾しているようにみえる 2 文を利用者が選択した後に調停要約を生成するという対話的なアプローチを採ることで,利用者が焦点とする疑似対立に適合した調停要約を提示できると考えた. なお,利用者に提示される文書集合から,互いに矛盾しているようにみえる 2 文が実際に選択できるかどうか,12の着目言明 3 を対象として以下の予備調査を行った. 予備調査は, 情報工学を専攻する大学生 5 名を対象として行い, 着目言明をクエリとして Google 4 を用いて検索されたタイトルとスニペットを上位から順に読んでもらい,互いに矛盾しているようにみえる 2 文を選択させた,選択された 2 文がそれぞれ何位の検索結果に記述されていたかを調査し,両方の文が選択された時点の順位,すなわち下位の方の順位を平均した結果, 15.6 位となり,殆どの場合, 20 位までのタイトルとスニペットを読むと,その中から互いに矛盾しているようにみえる 2 文を選択できたことを確認した.たたし,本研究の目的は利用者の信憑性判断を支援することであるため,最初に提示された文書集合を読んで,利用者の観点から互いに矛盾しているような記述がないならば,調停要約を生成する必要はないと考えている。また,互いに矛盾しているようにみえる 2 文が疑似対立であるかどうかの最終的な判断も利用者が行うべきであると考えており,調停要約生成システムでは選択された 2 文が疑似対立にあるものと仮定して生成した調停要約を提示することとした. ^{3} 6$ 節の実験で用いた 6 言明と, 中野ら (中野他 2011) の実験 A で用いた 6 言明の計 12 言明である. }^{4}$ http://www.google.co.jp/ ## 3.2 調停要約の特徵 我々がこれまで人手で作成した調停要約を分析した結果, 調停要約として適切な記述には以下の三つの特徴があることが分かっている,第一の特徵は, 着目言明や, 焦点とする疑似対立との関連性が高いことである。第二の特徴は, 公平性が高い, すなわち, 着目言明を肯定する意見や根拠等と否定する意見や根拠等の両方に等しく言及していることである. 調停要約は, 疑似対立を読み解くための手掛かりとなる記述であるので,肯定側と否定側の双方の主張が含まれるパッセージはより適切であると考えられる。第三の特徴は, 要約としての簡潔性が高いことである。 ここでの簡潔性とは,単純に短く記述されているというだけはなく,利用者の信憑性判断を支援するための材料を端的に示しているという意味も含んでいる. したがって, 我々は,あるパッセージの関連性,公平性,簡潔性の度合いを計算することで,そのパッセージが調停要約として適切であるかどうかを判断できると考えた。 ## 3.3 焦点となる 2 文を明確化した状況下での調停要約生成タスク 焦点となる 2 文が明確化した状況下での調停要約生成タスクでは, 入力として, 着目言明と,文書集合中の焦点となる疑似対立にある 2 文が利用者により与えられるものとする。通常の要約生成タスクでは, 入力として要約対象となる文書集合が与えられるが, 調停要約生成タスクでは, 着目言明の真偽判断の材料となる文書を収集することもタスクの一部であると考えている. そのため, 与えられた着目言明や焦点とする 2 文に関連した文書群を Web 上から検索して, 要約対象とする必要がある。本論文では,最初に着目言明で検索された文書集合を利用者に提示してから,それを読んだ利用者が焦点とする対立関係にある 2 文を明示した後に調停要約を生成するというアプローチを採ることから, 着目言明をクエリとして検索した文書集合を要約対象文書集合とすることとした,また,出力として,着目言明のトピックにおける焦点となる疑似対立の読み解き方の手掛かりを示すパッセージ群を抜粋して提示する. ## 4 提案手法 ## 4.1 提案手法の概要 我々は, 3.2 節で述べた関連性, 公平性, 簡潔性の 3 つの特徴をもつパッセージを調停要約として抽出するために, 以下の 4 種類の特徵語と 3 種類の手掛かり表現に基づく手法を提案する. まず,関連性に関する特徴量を,着目言明のトピックとの関連度と,焦点とする疑似対立との関連度に細分化し, それぞれの値を求めるために, トピック特徵語と焦点特徴語という 2 種類の特徴語を定義する. 従来手法 (渋木他 2011a; 中野他 2011; Shibuki et al. 2010) では, トピック特徴語のみを関連性の尺度として用いていたが,焦点とする疑似対立との関連性が低いパッセージも調停要約として出力されてしまうことがあった. それゆえ, 利用者が焦点とする 疑似対立への関連度をより確実に判断するため,焦点特徵語の概念を導入することとした.例えば,図1の「朝バナナダイエットでダイエットできる」という着目言明において「バナナは低カロリーで満腹感がありますvs. バナナは果物の中では水分が少ないためカロリーは高めです」 という疑似対立が焦点である場合, トピック特徴語は「バナナ」, 焦点特徴語は「カロリー」となり,「バナナ」というトピックの中の「カロリー」の高低に焦点があることを考慮して処理できるようにした。 次に,公平性に関する特徴量を, 語彙的な観点と構造的な観点の両方から求めることとし, 語彙的な観点からの特徴量を求めるために, 肯定側特徵語と否定側特徴語という 2 種類の特徴語を,構造的な観点からの特徵量を求めるために,逆接表現と限定表現の 2 種類の手掛かり表現をそれぞれ定義する,従来手法では,着目言明を肯定または否定する意見や根拠等に現れやすい単語を肯定側特徴語および否定側特徴語として定義し, 要約対象となる文書集合から統計的偏りに基づいて抽出していたが,提案手法では,焦点となる対立関係にある 2 文が与えられることから, 2 文の一方にのみ現れる単語を肯定側特徴語および否定側特徴語として定義して用いることとする。図 1 の例であれば「低い」と「高い」が肯定側特徴語と否定側特徴語となる. また, これらの肯定側特徴語と否定側特徴語が調停要約の中でどのような構造を伴って現れるかを考えた場合「ご飯やケーキよりは低いがオレンジやグレープフルーツよりは高い」といったように対比構造を伴っていることが多いと考えられる。そこで,対比構造を見つける手掛かり表現として,「しかし」などの逆接表現と「○○の場合に限り」などの限定表現を用いることとした.しかしながら, 例えば, 冒頭が「しかし」から始まるようなパッセージであった場合, その前の文脈が不明であるため逆接としての意味をなさない。それゆえ,パッセージ中に現れる位置を考慮して, これらの手掛かり表現を用いることとした。 最後に,簡潔性に関する特徵量を求めるための手掛かり表現として結論表現を定義する.従来手法で生成された調停要約の中には,「バナナ $84 \mathrm{kcal}$, オレンジ $24 \mathrm{kcal}$, ご飯 $168 \mathrm{kcal}$ のように,「ご飯やケーキよりは低いがオレンジやグレープフルーツよりは高い」といった結論を理解した上で読まないと何を主張している文章なのか理解が困難なパッセージが存在していた.提案手法では,主張が明確に述べられているかどうかを求めるために,「つまり」や「結論として」などの結論を導く表現を手掛かりとし,このような表現を結論表現と定義して用いることとした。また,パッセージ中に信憑性判断支援に寄与しない記述,例えば,商品一覧やリンク集といった名詞のリストや「TOPへ戻る」などのサイト内機能を表す文字列などが含まれていると, 可読性の低下と共に利用者の理解を妨げてしまうことから, そのような不要な記述を含まないことも簡潔性を計算する上で必要な因子であると考えられる. 本来であれば, トピック特徴語, 焦点特徴語, 肯定側特徴語, 否定側特徴語の 4 種類全ての特徴語を全て含み,逆接表現,限定表現,結論表現の 3 種類の手掛かり表現を全てパッセージ中の適切な位置に含み, 調停要約に不要な記述を一切含まないパッセージが調停要約として理 図 2 提案手法の全体の流れ 想である。しかしながら,上記の因子を全て含むパッセージが要約対象文書集合中に存在する可能性は低いと思われる。また, 全ての因子を含まなくとも調停要約として適切なパッセージが存在することがある,従って,提案手法では,全ての因子を含むパッセージが存在しない場合でも,可能な限り多くの因子を含むパッセージを上位にランキングできるようにする. 4.2 節で提案手法の全体の流れを述べた後, 4.3 節で特徵語の抽出方法を, 4.4 節で各因子の定式化とパッセージのスコア付けの方法を説明する. ## 4.2 全体の流れ 提案手法の全体の流れを図 2 に示す。利用者は最初に「ディーゼル車は環境に良い」といった着目言明を入力し,システムは着目言明をクエリとして検索したWeb 文書集合を利用者に提示する。利用者は提示された文書集合を読み,互いに矛盾しているように見えるために信憑性が疑わしく思える 2 文をマウス操作等によりマーキングする。ここで,マーキングされた 2 文の内,利用者が着目言明の内容を肯定する記述としてマーキングした方を肯定側記述,否定する記述としてマーキングした方を否定側記述と定義する ${ }^{5}$. システムは,着目言明,肯定側記述,否定側記述を基に,トピック特徴語,焦点特徴語,肯定側特徴語,否定側特徴語の 4 種類の特徵語を抽出する。その後, 抽出された特徴語と, 逆接表現, 限定表現, 結論表現といった手掛かり表現を用いて,調停要約としての適切性を示すスコアを計算し,検索された文書集合を対象に,調停要約として適切なパッセージを抽出する。最後に,抽出されたパッセージをスコア順にランキングして利用者に提示する.  図 3 特徵語抽出の流扎 従来の調停要約生成手法では, 肯定側特徴語と否定側特徵語を抽出するために, 対義語辞書や用言の否定形を用いて着目言明の対立言明を自動生成し,その対立言明により検索された Web 文書集合を利用していた。しかしながら, 自動生成された対立言明の精度の問題や, 対立言明で検索される文書が存在しないといった問題があった. 提案手法では, 利用者が肯定側記述と否定側記述を直接マーキングするため, このような問題を回避することができる. また,利用者が直接マーキングすることは,調停要約の前提である,信憑性を判断したい対立点を利用者に認識させる効果がある。 さらに, システムの要約生成においても, 着目言明に加えて参照できる情報が増えることから精度向上につながると考えられる。しかしながら, 検索文書中のテキストに利用者が直接マーキングすることに対して,以下の問題も懸念される。本来, 調停要約の生成において必要な情報は,「ディーゼル車は黒煙を出すvs. ディーゼル車は黒煙を出さない」といった構文レベルで明瞭な対比構造をもった 2 文であるが, そのような対比構造が肯定側記述と否定側記述の間に必ずしも存在するとは限らない. また, 対比構造以外の部分に含まれる語句が精度に悪影響を及ぼす可能性もある. 6 節では, この点を調査する実験を行う。 ## 4.3 特徵語の抽出 利用者により入力された着目言明,肯定側記述,否定側記述を用いて特徵語の抽出を行う.着目言明が「ディーゼル車は環境に良い」, 肯定側記述が「ディーゼル車は黒煙を出さない」,否定側記述が「ディーゼル車は黒煙を出す」とした場合の特徴語の抽出の流れを図 3 に示す.最初に, MeCab 6 を用いて,着目言明,肯定側記述,否定側記述の形態素解析を行い,それぞれに含まれる内容語を抽出する。本論文では,以下の 3 つの条件を満たす語を内容語と定義した. (1) 品詞が, '名詞', ‘動詞', '形容詞'のいずれかであり, (2) 品詞細分類 1 が, ‘非自立', ‘接 ^{6}$ http://mecab.sourceforge.net/ } 尾', '数’, '代名詞', ‘特殊’, ‘副詞可能’以外であり, (3) 原形が‘する’, ‘なる’, ‘できる’, ‘ある’, ‘いる', 'ない’以外の単語である。 内容語を抽出した後, 各内容語が存在する文節内に存在する 「不」などの接頭辞や「ない」などの助動詞により, 否定の意味で用いられているかどうかも判断する7. 次に, 抽出された肯定側記述の内容語と否定側記述の内容語を比較して, 差分となる内容語(「出さない」と「出す」)をそれぞれ肯定側特徴語と否定側特徴語とする. 内容語が同じであるかどうかを判定する際には,分類語彙表 (国立国語研究所 2004)による類義語拡張を行っている. 最後に, 肯定側記述と否定側記述に共通の内容語(「ディーゼル」,「車」,「黒煙」)と着目言明の内容語を比較して, 着目言明に含まれない内容語(「黒煙」)を焦点特徴語とし, 共通の内容語(「ディーゼル」,「車」)をトピック特徴語とする。このようにすることで,「ディー ゼル車」というトピックにおける「黒煙」を「出す」か「出さない」かという対立点を明確に捉えることができると考えられる。 ## 4.4 パッセージの抽出とランキング 調停要約となるパッセージの抽出は, 従来手法 (渋木他 2011a; 中野他 2011; Shibuki et al. 2010) と同様に以下の手順で行う。まず,抽出された特徴語を用いて,文単位で調停要約らしさのスコアを計算する。次に,各文のスコアを平滑化した後,平滑化されたスコアに基づいてパッセージの切り出しを行う. 最後に, 切り出されたパッセージ単位で調停要約らしさのスコアを計算し, ランキングする。 ただし, 6 節では, 既に正解パッセージが切り出されている調停要約コーパスを用いて評価することを想定していることから,パッセージ単位でのスコア計算に関してのみ記述する。 調停要約として適切なパッセージには, 4.1 節で述べたように, (a) 全ての種類の特徴語が多く存在し, (b) 逆接, 限定, 結論などの手掛かり表現が適切な位置にあり, (c) 不要な文が存在しない, といった特徴があると考えられるため, これらの特徴に基づいてパッセージのスコアを計算する。まず,各特徴語がパッセージ中にどれだけ多く存在しているかを求めるために, パッセージ $p$ の, トピック特徴語, 焦点特徴語, 肯定側特徴語, 否定側特徴語によるスコアをそれぞれ $s c_{t k}(p), s c_{f k}(p), s c_{p k}(p), s c_{n k}(p)$ とし, 以下の式に従って計算する. $ \begin{aligned} & s c_{t k}(p)=\frac{N_{t k}(p)}{T_{t k}}+1 \\ & s c_{f k}(p)=\frac{N_{f k}(p)}{T_{f k}}+1 \\ & s c_{p k}(p)=\frac{N_{p k}(p)}{T_{p k}}+1 \\ & s c_{n k}(p)=\frac{N_{n k}(p)}{T_{n k}}+1 \end{aligned} $  表 1 逆接表現の一覧 \\ 表 2 限定表現の一覧 $N_{t k}(p), N_{f k}(p), N_{p k}(p), N_{n k}(p)$ はパッセージ $p$ 中に含まれる各特徴語の異なり数であり, $T_{t k}$, $T_{f k}, T_{p k}, T_{n k}$ は抽出された各特徴語の総異なり数である。また,各スコアの值を 1 から 2 の範囲に正規化するために 1 を加えている。 調停要約は,調停という性質上,肯定意見と否定意見の両方に公平に言及していることが求められる。そのような互いに対立する意見に言及する文章では,両方の意見を対比する構造が存在しており,また,対比構造は一般に「しかし」などの逆接表現を伴って書かれることが多い. さらに, 公平性という観点からは, 両方の意見に対して等量の記述があることが望ましい. したがって,逆接表現がパッセージの中央に存在する場合にスコアが高くなるよう,逆接表現によるスコア $s c_{a e}(p)$ を以下の式に従って計算する。 $ s c_{a e}(p)=2-\frac{\left|\frac{1}{2} N_{t s}(p)-F P_{a e}(p)\right|}{\frac{1}{2} N_{t s}(p)} $ $N_{t s}(p)$ はパッセージ $p$ に含まれる文数であり, $F P_{a e}(p)$ は表 1 に示すいずれかの逆接表現が $p$中で最初に現れた文の位置である。なお, 表中の分類は, MeCabのIPA 辞書の品詞体系に基づいている. 逆接表現を伴わない対比構造の表現方法の一つとして,「但し○○の場合に限る」といった一方の意見を限定する表現により,暗黙の内に対立するもう一方の意見の状況を示す方法がある. また,このような但し書きは文章の最後にあることが多いと考えられる.したがって,限定表現がパッセージの最後に存在する場合にスコアが高くなるよう,限定表現によるスコア $s c_{p e}(p)$ を以下の式に従って計算する。 $ s c_{p e}(p)=\frac{N_{t s}(p)-L P_{p e}(p)}{N_{t s}(p)}+1 $ $L P_{p e}(p)$ は表 2 に示すいずれかの限定表現が $p$ 中で最後に現れた文の位置である. 表 3 結論表現の一覧 信憑性判断を支援するという目的上, 結論部分が明確に記述されていることが求められる. そのような結論部分は,「つまり」や「結論として」といった文章全体を総括する表現により書かれていることが多い. また,利用者の立場からは,唐突に結論たけを示されてもその結論が正しいかどうか判断が困難になると考えられるため, 結論に至る根拠や前提が示されていることが望ましい,したがって,結論表現がパッセージの最後に存在する場合にスコアが高くなるよう,結論表現によるスコア $s c_{c e}(p)$ を以下の式に従って計算する. $ s c_{c e}(p)=\frac{N_{t s}(p)-L P_{c e}(p)}{N_{t s}(p)}+1 $ $L P_{c e}(p)$ は表 3 に示すいずれかの結論表現が $p$ 中で最後に現れた文の位置である. 調停要約は要約の一種であるため, 重要性や関連性が低い部分を可能な限り省いた文章を提示することが求められる,本論文では,特徴語や手掛かり表現を含んでいない文を不要な文として,不要な文が少ないパッセージほどスコアが高くなるようにした。パッセージ $p$ 中に含まれる不要な文の数を $N_{r s}(p)$ として, 不要な文に関するスコア $s c_{r s}(p)$ を以下の式に従って計算する。 $ s c_{r s}(p)=\frac{N_{t s}(p)-N_{r s}(p)}{N_{t s}(p)} $ 最終的なパッセージ $p$ のスコア $s c(p)$ は以下の式に従って計算する. $ s c(p)=s c_{t k}(p) \times s c_{f k}(p) \times s c_{p k}(p) \times s c_{n k}(p) \times s c_{a e}(p) \times s c_{p e}(p) \times s c_{c e}(p) \times s c_{r s}(p) $ 各スコアの積を最終的なスコアとすることで, 各特徴語, 手掛かり表現, 不要な文に関する条件を全て満たしているパッセージが上位にランキングされるようにした. ## 5 調停要約コーパス 調停要約コーパスは, 渋木ら (渋木他 $2011 b)$ において, 調停要約の分析及び評価を目的として構築されたコーパスである。調停要約コーパスには,「コラーゲンは肌に良い」,「飲酒は健康に良い」,「炭酸飲料はからだに悪い」,「原発は地震でも安全である」,「車内での携帯電話の 図 4 調停要約コーパス中に収録されている調停要約の例 使用は控えるべきである」,「嘘をつくのは悪いことである」の6つの着目言明に対して,要約対象となる 500 程度の Web 文書集合と,人手で作成した調停要約が収録されている.各着目言明には,「コラーゲンは肌に良いvs. コラーゲンは肌に良いとは限らない」といった着目言明そのものに関する対立点と,「動物性のコラーゲンは良くないvs. 動物性のコラーゲンは良い」や 「コラーゲンは食べると良いvs. コラーゲンは塗ると良い」といった関連する 4 の対立点の計 5 つの対立点が設定されている,各着目言明には 4 名の作業者が割り当てられ,各作業者は対立点ごとに要約対象の Web 文書集合から,肯定側の意見と思われる記述,否定側の意見と思われる記述,調停要約として適切なパッセージのそれぞれの集合を抽出している.渋木ら (渋木他 2011b) は調停要約コーパスの構築作業のために専用の夕グ付けツールを開発しており, 全ての作業をツール上で行うことで, タグ付け労力の軽減とヒューマンエラーの抑制を行っている. 図 4 に, 着目言明「コラーゲンは肌に良い」に対して,ある 1 名の作業者が作成した調停要約の一部を示す。調停要約に関する情報は XML 形式で付与されている.各対立点は $<$ Conflict>夕グにより区切られており,図 4 中のボックスでは 3 番目の対立点が示されている. 各 $<$ Conflict $>$ タグ内には, 一つの <Label>タグ, 複数の $<$ Statement $>$ タグ, 複数の $<$ Mediation $>$ タグが存在 点を表す,人手で作成されたラベルを示している。<Statement>夕グは, Web 文書から抽出された,肯定側または否定側の意見と思われる記述を示しており,Polarity 属性の值が 'POSITIVE' か 'NEGATIVE' かで肯定側の意見か否定側の意見かを示している. <Statement>夕グの記述は,「コラーゲンドリンクで効いてる実感ってなかったけど,このコラーゲンは高純度っていうだけあってスゴイ」や「コラーゲンには保湿効果があるので,へアパックなどにも用いられることがあります」といったものであり,肯定側と否定側の記述でぺアを作成しても,<Label>タグの記述のように明膫な対比構造をなすことは殆どない。,<Mediation>タグは, 調停要約として Web 文書から抽出されたパッセージを示している。なお,どの着目言明においても,1番目の のものに関する対立点となっている。また, 2 番目から 5 番目の対立点以外にも着目言明に関連する対立点は存在しているため,1 番目の対立点の <Mediation>タグの集合が, 2 番目から 5 番目の対立点の $<$ Mediation>タグの和集合と等しくなるわけではない. ## 6 実験 ## 6.1 目的と評価方法 本論文では, 以下の 3 点を目的とした実験を行う. 1 点目は, 提案する対話型調停要約生成手法の有効性を確認することである. 2 点目は,利用者が焦点とする 2 文を明確化する方法として,利用者が自ら生成する方法と,提示された文書集合から抽出する方法のどちらが適しているかを考察することである。 3 点目は, パッセージのスコア計算に用いられる各因子が, 調停要約の精度にどの程度寄与しているかを調査することである。 まず, 対話型調停要約生成手法の有効性を確認するために,従来の調停要約生成手法である渋木ら (渋木他 2011a) との比較を第一の実験として行う.次に,焦点とする 2 文を明確化する方法に関してであるが,提案手法における特徵語の抽出は, 4.3 節で述べたように,肯定側記述と否定側記述の間の構文レべルでの対比構造に基づいて行われる。一方,肯定側記述と否定側記述は,4.2節で述べたように,提示された文書集合からマウス操作等により直接マーキングされることを想定しており,構文レベルで明膫な対比構造をもたないと考えられる。それゆえ,第二の実験では,焦点とする 2 文を人手により生成した場合とマーキングの結果に基づき Web 文書から抽出した場合の影響を調查する。また, 4.4 節で述べたように,パッセージのスコアは, トピック特徴語, 焦点特徴語, 肯定側特徴語, 否定側特徴語, 逆接表現, 限定表現, 結論表現,不要な文の 8 種類の因子により計算されている,第三の実験では,これらの各因子が,調停要約の精度にどの程度寄与しているかを調査する. 要約の評価手法として ROUGE (Lin and Hovy 2003) が一般的であるが,N-gram による再現 表 4 着目言明ごとのパッセージ数 度のスコア付けでは肯定側の記述と否定側の記述を区別せず, 3.2 節で述べた公平性を考慮することが困難であるため,調停要約の評価手法として適切ではない,提案手法の中核をなす処理は, 4.4 節に述べたパッセージの抽出とランキングであるため, 正解パッセージと不正解パッセージからなる集合を作成し, 正解パッセージ群を不正解パッセージ群よりも上位にランキングできるかどうかにより手法の評価を行うこととした. 調停要約コーパスから以下の手順で実験データを作成した。まず,<Mediation>タグの記述集合を正解のパッセージ集合とする。コーパスに収録されているWeb文書には,<Mediation> タグ以外のパッセージ境界がないため,正解パッセージ集合の平均文字長を計算し,分割したパッセージの平均長が正解パッセージの平均長に近くなるよう,各文書の先頭から平均文字長 - $\alpha$ を超えた文境界で分割する。このとき,<Mediation>タグを含む文書を分割対象外として,分割されたパッセージ集合を不正解のパッセージ集合とした。正解および不正解のパッセージ集合の中には, 平均文字長との差が極めて大きいものがあるため, 平均文字長 $\pm \alpha$ の範囲にない長さのパッセージを実験データから除外した。平均文字長は 230 であり, $\alpha$ の値は経験則的に 30 とした. 着目言明ごとの総パッセージ数と正解パッセージ数は, 表 4 の総数と正解に示す值となった. 表 4 の値から, 調停要約生成は 7,000 以上のパッセージ中に数十程度しか存在しない正解パッセージを見つけ出すという困難な夕スクであり,また,正解となるパッセージ数は非常に少ないが 0 ではなく, そのようなパッセージを抽出するという提案手法のアプローチに妥当性があるということが言える. 評価指標として適合率と再現率を用いた。調停要約として適切なパッセージは,コーパスに収録されている Web 文書集合から網羅的に抽出しているため, コーパス中の Web 文書を要約対象文書として処理を行うと再現率を計算することができる。 また, 調停要約として適切なパッセー ジ群が可能な限り多く上位にランキングされているか調査するために, $\mathrm{TREC}^{8} や \mathrm{NTCIR}^{9}$ の情報検索タスクで広く用いられている平均精度を用いた。第 $r$ 位の適合率 $\operatorname{Pre}(r)$ と再現率 $\operatorname{Rec}(r)$, ^{9}$ http://research.nii.ac.jp/ntcir/index-ja.html } 表 5 着目言明ごとの平均精度 表 6 上位 $r$ 件の適合率と再現率 および平均精度 AP は,それぞれ以下の式により計算される。 $ \begin{array}{r} \operatorname{Pre}(r)=\frac{\operatorname{correct}(r)}{r} \\ \operatorname{Rec}(r)=\frac{\operatorname{correct}(r)}{R} \\ \mathrm{AP}=\frac{1}{R} \sum_{r} I(r) \operatorname{Pre}(r) \end{array} $ $R$ は正解パッセージの総数, correct $(r)$ は第 $r$ 位までの出力パッセージに含まれる正解パッセー ジ数, $I(r)$ は第 $r$ 位のパッセージが正解ならば 1 , 不正解ならば 0 を返す関数である. ## 6.2 従来手法との比較実験 利用者が焦点とする 2 文を対話的に明確化した状況下における提案手法の有効性を示すために,本実験と同じ正解データを用いている従来手法 (渋木他 2011a) と比較した結果を表 5 と表 6 にそれぞれ示す. 従来研究 (渋木他 2011a) では, 焦点とする 2 文が不明瞭な状況下で着目言明のみを入力としているため, 1 番目から 5 番目の全ての対立点における $<$ Mediation $>$ タグの記述の和集合を正解データとして評価している。本論文では,提案手法と直截比較するため,対立の観点が明示されている 2 番目から 5 番目までの各対立点における<Mediation>タグの集合を正解データとして適合率,再現率,平均精度を計算し,その値を平均した値を従来手法の評価とした. 同様に,提案手法も 2 番目から 5 番目までの対立点ごとの <Mediation>夕グの集合 を正解データとして評価した後, 4 つの対立点の値を平均している。一方, 入力に関しては, 従来手法が着目言明のみを与えたのに対し, 提案手法は着目言明と焦点となる 2 文を与えている.焦点となる 2 文として,<Label>タグの記述,または,<Statement>タグの記述を用いることが考えられるが,表 5 および表 6 の値は,着目言明と<Label>タグの記述を用いた場合の結果と,着目言明と <Statement>タグの記述を用いた場合の結果を平均した値である。表 5 において,焦点となる 2 文を与える提案手法の方が従来手法よりも全体的に高い値を示している。なお, 着目言明そのものに関する, 第一の対立点の<Label>タグを用いた場合でも,例えば,「コラーゲンは肌に良いとは限らない」といった対立言明が明確になるため,「コラーゲンは肌に良い」という着目言明のみを用いる従来手法よりも提案手法の方が入力される情報量は多くなる. 表 6 の値は全ての着目言明の平均値を示している。表 5 に示すように,正解パッセージ数は数十程度であるため, 達成可能な適合率が必ずしも $100 \%$ になるとは限らない. それゆえ, 表 6 では,正解パッセージをより上位に,より多く出力する方が優れた手法であると考える。従来手法と比較すると, 上位 10 件の適合率が 0.050 から 0.231 に向上しており, 下位まで評価範囲を広げた場合においても全体的に精度の改善が見られる。再現率に関しても, 従来手法では上位 1,000 件において半分に達しなかった再現率が 0.678 に向上しており, 網羅性の点で大きく改善されたと考えられる。 ## 6.3 焦点とする 2 文の対比構造が精度に及ぼす影響に関する実験 焦点とする 2 文を人手により生成する場合と Web 文書から抽出する場合の影響を調査するために,<Label>タグと <Statement>タグを用いて,肯定側記述と否定側記述の入力を以下のように変えた場合の平均精度を求めた。人手により生成する場合の肯定側記述と否定側記述には, <Label>タグの記述を利用することとし, Web 文書から抽出する場合の肯定側記述と否定側記述には, Polarity 属性の值が ‘POSITIVE’と 'NEGATIVE’である<Statement>タグの記述をそれぞれ利用することとした。例えば,図 4 に示した,着目言明「コラーゲンは肌に良い」における 3 番目の対立点が焦点となる場合,人手により生成する場合の肯定側記述は,<Label>タグ ると良い」となり,否定側記述は「コラーゲンは塗ると良い」となる。また,<Statement>夕グの記述を用いて, Web 文書から抽出する場合の肯定側記述は「コラーゲンドリンクで効いてる実感ってなかったけど, このコラーゲンは高純度っていうだけあってスゴイ」, 否定側記述は 「コラーゲンには保湿効果があるので,へアパックなどにも用いられることがあります」となる.なお, <Statement>タグは複数存在し, 全ての組み合わせを考慮すると膨大な数になるため, ランダムに組み合わせた 5 組を用いて実験を行った. 表 7 に結果を示す. 表 7 の値は, 肯定側記述と否定側記述の組を入力とした時の平均精度の値を,全ての着目言明における全ての対立点について平均したものである. 明瞭な対比構造を 表 7 焦点となる 2 文の違いによる平均精度への影響 もつ,<Label>の記述を用いた場合よりも,<Statement>タグの記述を用いた方が良いという結果となった.したがって,提示された文書集合から焦点とする 2 文を選択するという対話的なアプローチを採ることが精度の面で問題ないと言える。このような結果になった理由として, まず,抽出される特徴語が増加したことによる焦点の明確化および焦点に関連するパッセージの絞り込みが容易になったことが考えられる。一方で,<Statement>夕グの記述を用いた場合には,「実感」や「スゴイ」といった, 着目言明や焦点と無関係な語も特徴語として抽出されてしまうが,これらの語による悪影響が小さかった理由としては,手掛かり表現による制約が有効に働いたためと考えられる。 ## 6.4 特徵語と手掛かり表現が精度に及ぼす影響に関する実験 調停要約としての適切性の計算には, 式 (9) に示すように, トピック特徴語に関するスコア $s c_{t k}$, 焦点特徴語に関するスコア $s c_{f k}$, 肯定側特徴語に関するスコア $s c_{p k}$, 否定側特徴語に関するスコア $s c_{n k}$, 逆接表現に関するスコア $s c_{a e}$, 限定表現に関するスコア $s c_{p e}$, 結論表現に関するスコア $s c_{c e}$, 不要文に関するスコア $s c_{r s}$ の 8 種類の因子に関するスコアが用いられている. そこで,ある 1 種類の因子に関するスコアを考慮せずに,他の 7 種類の因子に関するスコアのみを用いて調停要約としての適切性を計算した場合の結果と比較することで,各因子が調停要約生成の精度にどの程度寄与しているかを調査した。 着目言明ごとの平均精度への影響を表 8 と表 9 に示す。また,適合率と再現率への影響を表 10 と表 11 にそれぞれ示す. 各列は,ある 1 種類の因子に関するスコアを考慮せずに,例えば, $-s c_{t k}$ であればトピック特徴語に関するスコアを考慮せずに, 調停要約の適切性を計算した場合の平均精度を示している。表 5 や表 6 の提案手法の値と比較して低いほど,その因子が精度に寄与した割合が高いと考えられる。8 因子の中で最も低下した因子の結果を太字で示している。また,考慮しない方が上昇している因子の結果を斜字体で示している.着目言明によってばらつきがあるものの, トピック特徴語, 逆接表現, 限定表現による影響が大きいことが分かる. 特徴語の場合, 「炭酸飲料はからだに悪い」の否定側特徴語を除いて, 基本的に精度の向上に寄与しているが,手掛かり表現と不要な文の場合, 着目言明によっては, 考慮しない方が良い結果をもたらす場合があった. しかしながら, 表 10 と表 11 の上位 10 件において值の低下が見られることから, 総合的には全ての因子が調停要約の適切性を判定するのに必要であると考えられる。 表 8 特徴語による平均精度への影響 表 9 手掛かり表現と不要な文による平均精度への影響 表 10 特徴語,手掛かり表現,不要な文による適合率への影響 表 11 特徴語,手掛かり表現,不要な文による再現率への影響 ## 6.5 事例の分析 従来手法と比較して,提案手法により精度の改善につながった例を表 12 に示す。 着目言明「コラーゲンは肌に良い」におけるパッセージは,「コラーゲンは食べると良いvs. コラーゲンは塗ると良い」という疑似対立を調停している理想的な正解の出力例である。この 表 12 提案手法により改善されたパッセージの例 パッセージは,従来手法において 63 位にランキングされていたが,「コラーゲンは食べると良いvs.コラーゲンは塗ると良い」という,焦点とする 2 文が与えられたことにより,肯定側特徴語「食べる」や否定側特徴語「塗る」に関するスコアが他のパッセージに比べて相対的に高くなり,1位にランキングされた。また,逆接表現「しかし」がパッセージの中程に現れていることも 1 位にランキングされる要因の 1 つとなった. 着目言明「飲酒は健康に良い」における例は,「飲酒」に関連した記述ではあるが調停要約として相応しくないパッセージである。従来手法では,「飲酒」や「健康」といった特徴語を含んでいるため,950 位にランキングしていたが,提案手法では,手掛かり表現や不要な文に関するスコアが低いことを考慮することで,調停要約として適切ではないと判定して 4,265 位にランキングすることができた. 提案手法により改善できなかった例を表 13 に示す. 着目言明「嘘をつくのは悪いことである」の例は,調停要約として適切な内容のパッセージであるが,提案手法では 1,382 位にランキングされることとなった. これは,着目言明や焦点とする 2 文では「嘘」と漢字で表記されていたのに対して, パッセージ中では「うそ」と仮名で表記されていたため, トピック特徴語「嘘」がパッセージ中に存在しないと判定されたことが原因であった. 提案手法では,分類語彙表による類義語の処理しか行っていなかったため,今後,表記ゆれの処理を行うことで対処したいと考えている. 着目言明「飲酒は健康に良い」の例は,飲酒と癌になるリスクとの関係に関する調停要約として適切なパッセージであるが,「飲酒は心臓病のリスクを上げる vs. 飲酒は心臟病のリスクを 表 13 提案手法により改善されなかったパッセージの例 ## 着目言明「嘘をつくのは悪いことである」 焦点「嘘をつくのは悪いことである vs. 嘘をつくのは悪いこととは限らない」 相手を騙して自分の利益にするうそは許されませんが,相手を傷つけないようにつくうそもあります. 誰もが本当のことしか言わなかったら,殺伐とした,おそらくとんでもない世の中になってしまうと思いませんか?お世辞やごますりなど,相手の人を傷付けない様に,またはいい気分にさせるために気遣ってつくうそもあります。自分でも相手に対してうそをついているという自覚があり,何らかの見返りを期待する目的があり,相手を気持ちよくさせる意図があるのです. 相手を気持ちよくさせるうそは,犠牲者を出さない許されるうそなのです。 ## 着目言明「飲酒は健康に良い」 焦点「飲酒は心臟病のリスクを上げる vs. 飲酒は心臟病のリスクを上げない」 大腸ガンでは飲酒との関連はないとする報告が多く,飲酒習慣とは関連がないと考えるべきでしょう。一方, 肝ガンでは飲酒習慣, 特に多量飲酒の発症や死亡への関与は種々の報告で一致して関連を認めています。肝炎ウィルスキャリアの場合でも,飲酒によって肝ガン発症のリスクが高まることが明らかになっています。肺ガンでは飲酒との関連性は報告されていません.最近では乳ガンと飲酒習慣との関連が注目されており,アルコールの女性ホルモンへの影響が背景にあると推測されています。 着目言明「車内での携帯電話の使用は控えるべきである」 焦点「車内での携帯電話の使用は控えるべきであるvs. 車内での携帯電話は使用しても良い」 若干ローカルな話題です. 携帯電話の電波は, 心臟ペースメーカーや補聴器などの機器に影響を与えることは良く知られており,そのため札幌市営地下鉄でも「車内では電源をお切りください」としきりにアナウンスしています。しかし,実際には電源を切っている人はほとんど見かけません.札幌がいくら北海道随一の大都市と言っても,そうそう心臟ぺースメーカーをつけた人が地下鉄に乗ってくるケースはないだろう,と思っているのでしょう. 上げない」という疑似対立に対する調停要約としては不適切なパッセージである.提案手法では,パッセージ中に,トピック特徴語「飲酒」,焦点特徴語「リスク」,逆接表現「一方」等が含まれていたため,63 位にランキングされることとなった。また,焦点特徴語として「心藏病」 と「リスク」の 2 語が抽出されたが,どちらの特徴語も同等の重みで処理をしている。しかしながら,癌のリスクではなく心藏病のリスクに焦点を当てるためには「心藏病」を「リスク」よりも重視した処理を行う必要がある。「リスク」の方が「心臟病」よりも一般的な語であることから, tf-idf 法 (言語処理学会 2010) 等により単語の一般性を計算し, 抽出された特徴語の重みに反映させることで,この問題に対処したいと考えている. 着目言明「車内での携帯電話の使用は控えるべきである」の例は,車内での携帯電話の使用を話題としたパッセージであるが,単に札幌の地下鉄での現状とそれに対する個人の推測を述べているだけであり調停要約としては不適切なパッセージである。提案手法では,パッセージ中にトピック特徴語「車内」や「携帯電話」,逆接表現「しかし」等が含まれていることから全体的にスコアが高くなり,4位にランキングされることとなった。このパッセージが不適切である理由 は,否定側記述の内容を行う人間の心理を推測しているだけであり,両立可能となる客観的な根拠や条件を示していないからたと考えられる。従って, 今後, 主観性判断 (Finn et al. 2001; 松本他 2009) やモダリティ解析 (Matsuyoshi, Eguchi, Sao, Murakami, Inui, and Matsumoto 2010)等を活用することで, この問題に対処していきたいと考えている. ## 7 おわりに 本論文では,利用者が対立の焦点となる 2 文を対話的に明確化した状況下で調停要約を生成する手法を提案した,提案手法は,着目言明により検索された文書集合を最初に利用者に提示し,文書集合中で互いに矛盾しているようにみえる 2 文を利用者が選択した後に調停要約を生成するという対話的なアプローチを採ることで, 利用者が焦点とする疑似対立に適合した調停要約を提示する。また, パッセージの関連性, 公平性, 簡潔性の3つの特徴量を, トピック特徴語, 焦点特徵語, 肯定側特徴語, 否定側特徴語の 4 種類の特徴語と, 逆接表現, 限定表現, 結論表現の 3 種類の手掛かり表現が含まれる位置と, 特徵語も手掛かり表現も含まない不要な文の数を用いて求めることで, 調停要約として適切なパッセージを抽出する. 提案手法の有効性を確認するために,構文レベルで明瞭な対比構造をもたない 2 文を焦点とした場合と,計算で用いた 8 種類の各因子を除いた場合に,生成される調停要約の精度にどの程度影響を与えるかを調停要約コーパスを用いてそれぞれ調査した。その結果, 明暸な対比構造をもつラベルを用いた場合の平均精度 0.022 よりも,明膫な対比構造をもたない,実文書から抽出された記述を用いた平均精度 0.125 の方が良い結果となったことから,対話的なアプロー チを採ることの妥当性を確認した。また,着目言明により差があるものの,総合的に各因子を除くと精度が低下することから,全ての因子が調停要約の適切性を判定するのに必要であることを確認した。さらに,従来手法と比較した場合,上位 10 件の適合率が 0.050 から 0.231 に,上位 1,000 件での再現率が 0.429 から 0.678 にそれぞれ向上したことを確認した. 今後は,誤り分析により明らかになった問題を解決することで,さらなる改善につなげたいと考えている。 ## 謝 辞 本研究の一部は, 科学研究費補助金 (No. 22500124, No. 25330254), ならびに, 横浜国立大学大学院環境情報研究院共同研究推進プログラムの助成を受けたものである. ## 参考文献 Akamine, S., Kawahara, D., Kato, Y., Nakagawa, T., Inui, K., Kurohashi, S., and Kidawara, Y. (2009). "WISDOM: A Web Information Credibility Analysis System." In the ACL-IJCNLP 2009 Software Demonstrations, pp. 1-4. Akamine, S., Kawahara, D., Kato, Y., Nakagawa, T., Leon-Suematsu, Y. I., Kawada, T., Inui, K., Kurohashi, S., and Kidawara, Y. (2010). "Organizing Information on the Web to Support User Judgments on Information Credibility." In the 4th International Universal Communication Symposium (IUCS2010), pp. 123-130. Cutting, D. R., Karger, D. R., Pedersen, J. O., and Tukey, J. W. (1992). "Scatter/Gather: A Cluster-Based Approach to Browsing Large Document Collections." In the 15th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR'92), pp. 318-329. Finn, A., Kushmerick, N., and Smyth, B. (2001). "Fact or fiction: Content classification for digital libraries." In the Second DELOS Network of Excellence Workshop on Personalisation and Recommender Systems in Digital Libraries, pp. 18-20. 藤井敦 (2008). OpinionReader:意思決定支援を目的とした主観情報の集約・可視化システム.電子情報通信学会論文誌 (D), J91-D (2), pp. 459-470. Fukumoto, J., Kato, T., Masui, F., and Mori, T. (2007). "An Overview of the 4th Question Answering Challenge (QAC-4) at NTCIR Workshop 6." In the 6th NTCIR Workshop Meeting, pp. 433-440. 言語処理学会 (編) (2010). デジタル言語処理学事典. 共立出版. 橋本力, 奥村学, 島津明 (2001). 複数記事要約のためのサマリパッセージの抽出. 言語処理学会第 7 回年次大会発表論文集, pp. 285-288. 平尾努, 佐々木裕, 磯崎秀樹 (2001). 質問に適応した文書要約手法とその評価. 情報処理学会論文誌, $42(9)$, pp. 2259-2269. 石下円香, 渋木英潔, 中野正寛, 宮崎林太郎, 永井隆広, 森辰則 (2011). 直接調停要約自動生成システム HERMeS の言論マップとの連携. 言語処理学会第 17 回年次大会発表論文集, pp. 208-211. Kaneko, K., Shibuki, H., Nakano, M., Miyazaki, R., Ishioroshi, M., and Morii, T. (2009). "Mediatory Summary Genaration: Summary-Passage Extraction for Information Credibility on the Web." In the 23rd Pacific Asia Conference on Language, Information and Computation, pp. 240-249. 加藤義清, 河原大輔, 乾健太郎, 黒橋禎夫, 柴田知秀 (2010). Web ページの情報発信者の同定. 人工知能学会論文誌, 25 (1), pp. 90-103. 河合剛巨, 岡嶋穣, 中澤聡 (2007). Web 文書の時系列分析に基づく意見変化イベントの抽出. 言語処理学会第 17 回年次大会発表論文集, pp. 264-267. 国立国語研究所(編)(2004). 分類語彙表一増補改訂版. 大日本図書刊. Lin, C.-Y. and Hovy, E. (2003). "Automatic Evaluation of Summaries Using N-gram CoOccurrence Statistics." In the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology-Volume 1 (NAACL'03), pp. 71-78. 松本章代, 小西達裕, 高木朗, 小山照夫, 三宅芳雄, 伊東幸宏 (2009). 文末表現を利用したウェブページの主観・客観度の判定. 第 1 回データ工学と情報マネジメントに関するフォーラム (DEIM), A5-4. Matsuyoshi, S., Eguchi, M., Sao, C., Murakami, K., Inui, K., and Matsumoto, Y. (2010). "Annotating Event Mentions in Text with Modality, Focus, and Source Information." In the Seventh International Conference on Language Resources and Evaluation Conference (LREC2010), pp. 1456-1463. Miyazaki, R., Momose, R., Shibuki, H., and Mori, T. (2009). "Using Web Page Layout for Extraction of Sender Names." In the 3rd International Universal Communication Symposium (IUCS2009), pp. 181-186. Mori, T., Nozawa, M., and Asada, Y. (2005). "Multi-Answer-Focused Multi-Document Summarization Using a Question-Answering Engine." ACM Transactions on Asian Language Information Processing (TALIP), 4 (3), pp. 305-320. Murakami, K., Nichols, E., Mizuno, J., Watanabe, Y., Masuda, S., Goto, H., Ohki, M., Sao, C., Matsuyoshi, S., Inui, K., and Matsumoto, Y. (2010). "Statement Map: Reducing Web Information Credibility Noise through Opinion Classification." In the Fourth Workshop on Analytics for Noisy Unstructured Text Data (AND2010), pp. 59-66. 村田一郎, 森辰則 (2007). 利用者の興味を反映できる複数文書要約. 言語処理学会第 13 回年次大会発表論文集, pp. 744-747. 中野正寛, 渋木英潔, 宮崎林太郎, 石下円香, 金子浩一, 永井隆広, 森辰則 (2011). 情報信憑性判断支援のための直接調停要約生成手法. 電子情報通信学会論文誌 (D), J94-D (11), pp. 1019-1030. 酒井浩之,増山繁 (2006). ユーザの要約要求を反映するためにユーザとのインタラクションを導入した複数文書要約システム. ファジィ学会論文誌, 18 (2), pp. 265-279. Shibuki, H., Nagai, T., Nakano, M., Miyazaki, R., Ishioroshi, M., and Mori, T. (2010). "A Method for Automatically Generating a Mediatory Summary to Verify Credibility of Information on the Web." In the 23rd International Conference on Computational Linguistics (COLING 2010), pp. 1140-1148. 渋木英潔, 中野正寛, 石下円香, 永井隆広, 森辰則 (2011a). 調停要約生成手法の改善と調停要 約コーパスを用いた評価. 第 10 回情報科学技術フォーラム (FIT2011), RE-003.渋木英潔, 中野正寞, 宮崎林太郎, 石下円香, 永井隆広, 森辰則 (2011b). 調停要約のための正 解コーパスの作成とその分析. 言語処理学会第 17 回年次大会発表論文集, pp. 364-367. Tombros, A. and Sandersoni, M. (1998). "Advantages of Query Biased Summaries in Information Retrieval." In the 21st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR'98). pp. 2-10. 山本祐輔, 田中克己 (2010). データ対間のサポート関係分析に基づくWeb 情報の信憑性評価. 情報処理学会論文誌 : データベース, $\mathbf{3}(2)$, pp. 61-79. ## 略歴 渋木英潔:1997 年小樽商科大学商学部商業教員養成課程卒業. 1999 年同大学 大学院商学研究科修士課程修了. 2002 年北海道大学大学院工学研究科博士後期課程修了. 博士 (工学). 2006 年北海学園大学大学院経営学研究科博士後期課程終了. 博士 (経営学). 現在, 横浜国立大学環境情報研究院科学研究費研究員. 自然言語処理に関する研究に従事. 言語処理学会, 情報処理学会, 電子情報通信学会, 日本認知科学会各会員. 永井隆広:2010 年横浜国立大学工学部電子情報工学科卒業. 2012 年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了. 修士(情報学)。在学中は自然言語処理に関する研究に従事. 中野正寛:2005 年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了. 2011 年同専攻博士課程後期単位取得退学. 修士 (情報学). 2011 年から 2012 年まで同学府研究生.この間, 自然言語処理に関する研究に従事. 石下円香:2009 年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期修了. 現在, 国立情報学研究所特任研究員. 博士 (情報学).自然言語処理に関する研究に従事. 言語処理学会, 人工知能学会各会員. 松本拓也:2012 年横浜国立大学工学部電子情報工学科卒業. 現在, 同大学大学院環境情報学府情報メディア環境学専攻博士課程前期在学中. 自然言語処理に関する研究に従事. 森辰則:1986 年横浜国立大学工学部情報工学科卒業. 1991 年同大学大学院工学研究科博士課程後期修了. 工学博士. 同年, 同大学工学部助手着任. 同 講師, 同助教授を経て, 現在, 同大学大学院環境情報研究院教授. この間, 1998 年 2 月より 11 月まで Stanford 大学 CSLI 客員研究員. 自然言語処理, 情報検索, 情報抽出などの研究に従事. 言語処理学会, 情報処理学会, 電子情報通信学会, 人工知能学会, ACM 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 共変量シフト下の学習による語義曖昧性解消の 教師なし領域適応 新納 浩幸†・佐々木 稔 $\dagger$ } 本論文では語義曖昧性解消 (Word Sense Disambiguation, WSD) の教師なし領域適応の問題に対して, 共変量シフト下の学習を試みる。共変量シフト下の学習では確率密度比 $w(\boldsymbol{x})=P_{T}(\boldsymbol{x}) / P_{S}(\boldsymbol{x})$ を重みとした重み付き学習を行うが,WSD の場合,推定される確率密度比の值が小さくなる傾向がある. ここでは $P_{T}(\boldsymbol{x})$ と $P_{S}(\boldsymbol{x})$ をそ れぞれ求めて,その比を取ることで $w(\boldsymbol{x})$ を推定するが, $P_{S}(\boldsymbol{x})$ を求める際に,夕ー ゲット領域のコーパスとソース領域のコーパスを合わせたコーパスを,新たにソー ス領域のコーパス $S$ と見なすことで,先の問題に対処する.BCCWJ の 3 つの領域 OC (Yahoo! 知恵袋), PB(書籍)及び PN(新聞)を選び, SemEval-2 の日本語 WSD タスクのデータを利用して, 多義語 16 種類を対象に,WSD の領域適応の実験を行った. $w(\boldsymbol{x})$ を推定する手法として, $P_{T}(\boldsymbol{x})$ と $P_{S}(\boldsymbol{x})$ を求めずに, $w(\boldsymbol{x})$ を直接推定する uLSIF も試みた。また確率密度比を上方修正するために $\Gamma p$ 乗する」「相対確率密度比を取る」という手法も組み合わせて試みた。それらの実験の結果,提案手法の有効性が示された。 キーワード:語義曖昧性解消,領域適応,共変量シフト,uLSIF,負の転移 ## Unsupervised Domain Adaptations for Word Sense Disambiguation by Learning under Covariate Shift \author{ Hiroyuki Shinnou $^{\dagger}$ and Minoru Sasaki ${ }^{\dagger}$ } In this paper, we apply the learning under covariate shift to the problem of unsupervised domain adaptation for word sense disambiguation (WSD). This learning is a type of weighted learning method, in which the probability density ratio $w(\boldsymbol{x})=P_{T}(\boldsymbol{x}) / P_{S}(\boldsymbol{x})$ is used as the weight of an instance. However, $w(\boldsymbol{x})$ tends to be small in WSD tasks. In order to address this problem, we calculate $w(\boldsymbol{x})$ by estimating $P_{T}(\boldsymbol{x})$ and $P_{S}(\boldsymbol{x})$, where $P_{S}(\boldsymbol{x})$ is estimating by regarding the corpus combining the source domain corpus and target domain corpus as the source domain corpus. In the experiment, we use three domains -OC (Yahoo! Chiebukuro), PB (books) and PN (news papers)- in BCCWJ, and 16 target words provided by the Japanese WSD task in SemEval-2. For calculating $w(\boldsymbol{x})$, we also use uLSIF, which directly estimates $w(\boldsymbol{x})$ without estimating $P_{T}(\boldsymbol{x})$ or $P_{S}(\boldsymbol{x})$. Moreover, we use the " $p$ power" method and the "relative probability density ratio" method to boost the obtained probability density ratio. These experiments prove our method to be effective.  Key Words: word sense disambiguation, domain adaptation, covariate shift, uLSIF, negative transfer ## 1 はじめに 本論文では, 語義曖昧性解消 (Word Sense Disambiguation, WSD) の領域適応に対して, 共変量シフト下の学習を試みる。共変量シフト下の学習では確率密度比を重みとした重み付き学習を行うが, WSD のタスクでは算出される確率密度比が小さくなる傾向がある.ここではソー ス領域のコーパスとターゲット領域のコーパスとを合わせたコーパスをソース領域のコーパスと見なすことで,この問題に対処する。なお本手法はターゲット領域のデータにラベル付けしないため, 教師なし領域適応手法に分類される. WSD は文中の多義語の語義を識別するタスクである,通常,あるコーパス $S$ から対象単語の用例を取り出し,その用例中の対象単語の語義を付与した訓練データを作成し,そこから SVM 等の分類器を学習することで WSD を解決する. ここで学習した分類器を適用する用例がコー パス $S$ とは異なるコーパス $T$ 内のものである場合, 学習した分類器の精度が悪い場合がある. これが領域適応の問題であり,自然言語処理では WSD 以外にも様々な夕スクで問題となるため, 近年, 活発に研究されている (Sogaard 2013; 森 2012; 神嶌 2010). 今, 対象単語 $w$ の用例を $\boldsymbol{x}, w$ の語義の集合を $C$ とする. $\boldsymbol{x}$ 内の $w$ の語義が $c \in C$ である確率を $P(c \mid \boldsymbol{x})$ とおくと, WSD は $\arg \max _{c \in C} P(c \mid \boldsymbol{x})$ を求めることで解決できる. 領域適応では, コーパス $S$ (ソース領域) から得られた訓練データを用いて, $P(c \mid \boldsymbol{x})$ を推定するので, 得られるのは $S$ 上の条件付き分布 $P_{S}(c \mid \boldsymbol{x})$ であるが,識別の対象はコーパス $T$ (ターゲット領域)内のデー 夕であるため必要とされるのは $T$ 上の条件付き分布 $P_{T}(c \mid \boldsymbol{x})$ である.このため領域適応の問題は $P_{S}(c \mid \boldsymbol{x}) \neq P_{T}(c \mid \boldsymbol{x})$ から生じているように見えるが,用例 $\boldsymbol{x}$ がどのような領域で現れたとしても, その用例 $\boldsymbol{x}$ 内の対象単語 $w$ の語義が変化するとは考えづらい. このため $P_{S}(c \mid \boldsymbol{x})=P_{T}(c \mid \boldsymbol{x})$ と考えられる. $P_{S}(c \mid \boldsymbol{x})=P_{T}(c \mid \boldsymbol{x})$ が成立しているなら, $P_{T}(c \mid \boldsymbol{x})$ の代わりに $P_{S}(c \mid \boldsymbol{x})$ を用いて識別すればよいと思われるが, この場合, 識別の精度が悪いことが多い.これは $P_{S}(\boldsymbol{x}) \neq P_{T}(\boldsymbol{x})$ から生じている. $P_{S}(c \mid \boldsymbol{x})=P_{T}(c \mid \boldsymbol{x})$ かつ $P_{S}(\boldsymbol{x}) \neq P_{T}(\boldsymbol{x})$ という仮定は共変量シフトと呼ばれる (Sugiyama and Kawanabe 2011). 自然言語処理の多くの領域適応のタスクは共変量シフトが成立していると考えられる (Sogaard 2013). ソース領域のコーパス $S$ から得られる訓練データを $D=\left.\{\left(\boldsymbol{x}_{i}, c_{i}\right)\right.\}_{i=1}^{N}$ とおく. 一般に共変量シフト下の学習では確率密度比 $w(\boldsymbol{x})=P_{T}(\boldsymbol{x}) / P_{S}(\boldsymbol{x})$ を重みとした以下の重み付き対数尤度を最大にするパラメータ $\boldsymbol{\theta}$ を求めることで, $P_{T}(c \mid \boldsymbol{x})$ を構築する. $ \sum_{i=1}^{N} w\left(\boldsymbol{x}_{i}\right) \log P_{T}\left(c_{i} \mid \boldsymbol{x}_{i} ; \boldsymbol{\theta}\right) $ 共変量シフト下の学習の要は確率密度比 $w(\boldsymbol{x})$ の算出であるが, その方法は大きく 2 つに分類できる。 1 つは $P_{T}(\boldsymbol{x})$ と $P_{S}(\boldsymbol{x})$ をそれぞれ求め, その比を求めることで $w(\boldsymbol{x})$ を求める方法である。もう 1 つは $w(\boldsymbol{x})$ を直接モデル化する方法である (杉山 2010 ). ただしどちらの方法をとっても, WSD の領域適応に対しては, 求められる値が低くなる傾向がある。この問題に対しては, 確率密度比を $p$ 乗 $(0<p<1)$ したり (杉山 2006), 相対確率密度比 (Yamada, Suzuki, Kanamori, Hachiya, and Sugiyama 2011)を使うなど,求めた確率密度比を上方に修正する手法が存在する ${ }^{1}$. 本論文では $P_{T}(\boldsymbol{x})$ と $P_{S}(\boldsymbol{x})$ をそれぞれ求める手法を用いる際に,ターゲット領域のコーパスとソース領域のコーパスを合わせたコーパスを,新たにソース領域のコーパス $S$ と見なして確率密度比を求めることを提案する.提案手法は必ずしも確率密度比を上方に修正する訳ではないが, 多くの場合, この処理により $P_{S}(\boldsymbol{x})$ の值が減少し, 結果的に $w(\boldsymbol{x})$ の值が増加する。 なお, 本論文で利用する手法は, ターゲット領域のラベル付きデータを利用しないために, 教師なし領域適応手法に属する。当然,ターゲット領域のラベル付きデータを利用する教師付き領域適応手法を用いる方が,WSD の識別精度は高くなる。しかし本論文では教師なし領域適応手法を扱う。理由は 3 つある。1つ目は,教師なし領域適応手法はラベル付けするコストがないという大きな長所があるからである.2つ目は,共変量シフト下の学習はターゲット領域のラベル付きデータを利用しない設定になっているからである. 3 つ目は,WSD の領域適応の場合, 対象単語毎に領域間距離が異なり, コーパスの領域が異なっていても,領域適応の問題が生じていないケースも多いからである。領域適応の問題が生じている,いないの問題を考察していくには,ターゲット領域のラベル付きデータを利用しない教師なし領域適応手法の方が適している. 実験では現代日本語書き言葉均衡コーパス (Balanced Corpus of Contemporary Written Japanese, BCCWJ (Maekawa 2007)) における 3つの領域 OC (Yahoo! 知恵袋), PB (書籍) 及び PN (新聞) を利用する。 SemEval-2 の日本語 WSD タスク (Okumura, Shirai, Komiya, and Yokono 2010) ではこれらのコーパスの一部に語義夕グを付けたデータを公開しており,そのデータを利用する. すべての領域である程度の頻度が存在する多義語 16 単語を対象にして, WSD の領域適応の実験を行う. 領域適応としては $\mathrm{OC} \rightarrow \mathrm{PB}, \mathrm{PB} \rightarrow \mathrm{PN}, \mathrm{PN} \rightarrow \mathrm{OC}, \mathrm{OC} \rightarrow \mathrm{PN}, \mathrm{PN} \rightarrow \mathrm{PB}$, $\mathrm{PB} \rightarrow \mathrm{OC}$ の計 6 通りが存在する. 結果 $16 \times 6=96$ 通りの WSD の領域適応の問題に対して実験を行った。その結果, 提案手法による重み付けの効果を確認できた。 また,従来手法はべースラインよりも低い値となったが,これは多くのWSD の教師なし領域適応では負の転移が生じていない,言い換えれば実際には領域適応の問題になっていないこ  とから生じていると考えられる。考察では負の転移と重み付けとの関連,また負の転移と関連の深い Misleading データの存在と重み付けとの関連を中心に議論した. ## 2 関連研究 自然言語処理における領域適応は, 帰納学習手法を利用する全てのタスクで生じる問題であるために,その研究は多岐にわたる。利用手法をおおまかに分類すると,ターゲット領域のラベル付きデータを利用するかしないかで分類できる. 利用する場合を教師付き領域適応手法,利用しない場合を教師なし領域適応手法と呼ぶ.提案手法は教師なし領域適応手法の範疇に入るので, ここでは教師なし領域適応手法を中心に関連研究を述べる. 領域適応の問題は,一般の教師付き学習手法における訓練事例のスパース性の問題たと捉えることもできる。そのためターゲット領域のデータにラベルを付与しないという条件では,半教師付き学習 (Chapelle, Schölkopf, and Zien 2006) が教師なし領域適応手法として使えることは明らかである。ただし半教師付き学習では大量のラベルなしデータを必要とする。半教師付き学習をWSD に利用する場合, 対象単語毎に用例を集める必要があり, しかもターゲット領域のコーパスは新規であることが多いため, 対象単語毎の用例を大量に集めることは困難である.このため WSD の領域適応の場合, 半教師付き学習を利用しようとすれば, Transductive 学習 (Joachims 1999) に近い形となるが, ソース領域とターゲット領域が異なる領域適応の形に Transductive 学習が利用できるかどうかは明らかではない. WSD の領域適応をタスクとした教師なし領域適応の研究としては, 論文 (新納, 佐々木 2013) の研究がある。そこでの基本的なアイデアは WSD で使うシソーラスをターゲット領域のコー パスから構築することであるが,WSD で使うシソーラスが分野依存になっているかどうかは明らかではない $\left(\right.$ 新納, 國井, 佐々木 2014) ${ }^{2}$. また Chan はターゲット領域上の語義分布を EM アルゴリズムで推定している (Chan and Ng 2005, 2006). これも教師なし領域適応手法であるが,本論文で扱う領域適応では語義分布の違いは顕著ではなく, 効果が期待できない. 本論文は, WSD の領域適応では共変量シフトの仮定が成立していると考え, 共変量シフト下の学習を利用する。共変量シフト下の学習を領域適応に応用した研究としては Jiang の研究 (Jiang and Zhai 2007) と齋木の研究 (齋木, 高村, 奥村 2008) がある. Jiang は確率密度比を手動で調整し,モデルにはロジステック回帰を用いている。また齋木は $P_{S}(\boldsymbol{x})$ と $P_{T}(\boldsymbol{x})$ を unigram でモデル化することで確率密度比を推定し,モデルには最大エントロピー法を用いている.ただしどちらの研究もタスクは WSD ではない.しかもターゲット領域のラベル付きデータを利  用しているために,教師なし領域適応手法でもない.また新納は WSD の領域適応に共変量シフト下の学習を用いているが (新納, 佐々木 2014), そこでは Daumé が提案した素性空間拡張法 (Feature Augmentation)(Daumé 2007) を組み合わせて利用しているために,これも教師なし領域適応手法ではない. 一方, 共変量シフト下の学習は, 事例への重み付き学習の一種である. Jiang は識別精度を悪化させるようなデータを Misleading データとして訓練データから取り除いて学習することを試みた (Jiang and Zhai 2007). これは Misleading データの重みを 0 にした学習と見なせるため, この手法も重み付き学習手法と見なせる。吉田はソース領域内の訓練データ $\boldsymbol{x}$ がターゲット領域から見て外れ値と見なせた場合, $x$ を Misleading と判定し,それらを訓練データから取り除いて学習している (吉田, 新納 2014). これは WSD の教師なし領域適応手法であるが, Misleading データの検出は困難であり,精度の改善には至っていない。また WSD の領域適応をタスクとした古宮の手法 (古宮,小谷,奥村 2013) も重み付き学習と見なせる。そこでは複数のソース領域のコーパスを用意し,そこから訓練事例をランダムに選択し,選択された訓練データセットの中で,ターゲット領域のテストデータを識別するのに最も適した訓練データセットを選ぶ. これは全ソース領域のコーパスの訓練データから選択された訓練データの重みを 1 ,それ以外を重み 0 としていることを意味する。ただし複数のソース領域のコーパスから対象単語のラベル付き訓練データを集めるのは実際は困難である。また古宮は上記の研究以外にも WSD の領域適応の研究 (Komiya and Okumura 2011, 2012; 古宮, 奥村 2012) を行っているが, これらは教師付き学習手法となっている. ## 3 期待損失最小化に基づく共変量シフト下の学習 対象単語 $w$ の語義の集合を $C$, また $w$ の用例 $\boldsymbol{x}$ 内の $w$ の語義を $c$ と識別したときの損失関数を $l(\boldsymbol{x}, c, d)$ で表す. $d$ は $w$ の語義を識別する分類器である. $P_{T}(\boldsymbol{x}, c)$ をターゲット領域上の分布とすれば,本タスクにおける期待損失 $L_{0}$ は以下で表せる. $ L_{0}=\sum_{\boldsymbol{x}, c} l(\boldsymbol{x}, c, d) P_{T}(\boldsymbol{x}, c) $ また $P_{S}(\boldsymbol{x}, c)$ をソース領域上の分布とすると以下が成立する. $ L_{0}=\sum_{\boldsymbol{x}, c} l(\boldsymbol{x}, c, d) \frac{P_{T}(\boldsymbol{x}, c)}{P_{S}(\boldsymbol{x}, c)} P_{S}(\boldsymbol{x}, c) $ ここで共変量シフトの仮定から $ \frac{P_{T}(\boldsymbol{x}, c)}{P_{S}(\boldsymbol{x}, c)}=\frac{P_{T}(\boldsymbol{x}) P_{T}(c \mid \boldsymbol{x})}{P_{S}(\boldsymbol{x}) P_{S}(c \mid \boldsymbol{x})}=\frac{P_{T}(\boldsymbol{x})}{P_{S}(\boldsymbol{x})} $ となり, $w(\boldsymbol{x})=P_{T}(\boldsymbol{x}) / P_{S}(\boldsymbol{x})$ とおくと以下が成立する. $ L_{0}=\sum_{\boldsymbol{x}, c} w(\boldsymbol{x}) l(\boldsymbol{x}, c, d) P_{S}(\boldsymbol{x}, c) $ 訓練データを $D=\left.\{\left(\boldsymbol{x}_{i}, c_{i}\right)\right.\}_{i=1}^{N}$ とし, $P_{S}(\boldsymbol{x}, c)$ を経験分布で近似すれば, $ L_{0} \approx \frac{1}{N} \sum_{i=1}^{N} w\left(\boldsymbol{x}_{i}\right) l\left(\boldsymbol{x}_{i}, c_{i}, d\right) $ となるので, 期待損失最小化の観点から考えると, 共変量シフトの問題は以下の式 $L_{1}$ を最小にする $d$ を求めればよいことがわかる. $ L_{1}=\sum_{i=1}^{N} w\left(\boldsymbol{x}_{i}\right) l\left(\boldsymbol{x}_{i}, c_{i}, d\right) $ 分類器 $d$ として以下の事後確率最大化推定に基づく識別を考える. $ d(\boldsymbol{x})=\arg \max _{c} P_{T}(c \mid \boldsymbol{x}) $ また損失関数として対数損失 $-\log P_{T}(c \mid \boldsymbol{x})$ を用いれば,式 (1) は以下となる. $ L_{1}=-\sum_{i=1}^{N} w\left(\boldsymbol{x}_{i}\right) \log P_{T}\left(c_{i} \mid \boldsymbol{x}_{i}\right) $ つまり, 分類問題の解決に $P_{T}(c \mid \boldsymbol{x}, \boldsymbol{\lambda})$ のモデルを導入するアプローチを取る場合, 共変量シフト下での学習では, 確率密度比を重みとした以下に示す重み付き対数尤度 $L(\boldsymbol{\lambda})$ を最大化するパラメータ $\boldsymbol{\lambda}$ 求める形となる. $ L(\boldsymbol{\lambda})=\sum_{i=1}^{N} w\left(\boldsymbol{x}_{i}\right) \log P_{T}\left(c_{i} \mid \boldsymbol{x}_{i}, \boldsymbol{\lambda}\right) $ ここではモデルとして以下の式で示される最大エントロピー法を用いる. $ P_{T}(c \mid \boldsymbol{x}, \boldsymbol{\lambda})=\frac{1}{Z(\boldsymbol{x}, \boldsymbol{\lambda})} \exp \left(\sum_{j=1}^{M} \lambda_{j} f_{j}(\boldsymbol{x}, c)\right) $ $\boldsymbol{x}=\left(x_{1}, x_{2}, \cdots, x_{M}\right)$ が入力, $c$ がクラスである. 関数 $f_{j}(\boldsymbol{x}, c)$ は素性関数であり, 実質 $\boldsymbol{x}$ の真のクラスが $c$ のときに $x_{j}$ を返し,そうでないとき 0 を返す関数に設定される, $Z(\boldsymbol{x}, \boldsymbol{\lambda})$ は正規化項であり,以下で表せる. $ Z(\boldsymbol{x}, \boldsymbol{\lambda})=\sum_{c \in C} \exp \left(\sum_{j=1}^{M} \lambda_{j} f_{j}(\boldsymbol{x}, c)\right) $ そして $\boldsymbol{\lambda}=\left(\lambda_{1}, \lambda_{2}, \cdots, \lambda_{M}\right)$ が素性に対応する重みパラメータとなる. ## 4 確率密度比の算出 確率密度比 $w(\boldsymbol{x})=P_{T}(\boldsymbol{x}) / P_{S}(\boldsymbol{x})$ の算出法は大きく 2 つに分類できる. 1 つは $P_{S}(\boldsymbol{x})$ と $P_{T}(\boldsymbol{x})$ を各々推定し,その比を取る手法であり,もう 1 つは $w(\boldsymbol{x})$ を直接モデル化する手法である。ここでは前者の方法として論文 (新納,佐々木 2014) において提案された手法を利用する.簡単化のために本論文ではこの手法を NB 法と名付ける。また後者の方法としては論文 (Kanamori, Hido, and Sugiyama 2009) において提案された拘束無し最小二乗重要度適合法 (unconstrained Least-Squares Importance Fitting, uLSIF) を利用する. ## 4.1 NB 法 対象単語 $w$ の用例 $\boldsymbol{x}$ の素性リストを $\left.\{f_{1}, f_{2}, \cdots, f_{n}\right.\}$ とする. 求めるのは領域 $R \in\{S, T\}$ 上の $\boldsymbol{x}$ の分布 $P_{R}(\boldsymbol{x})$ である. ここで Naive Bayes で使われるモデルを用いる. Naive Bayes のモデルでは以下を仮定する。 $ P_{R}(\boldsymbol{x})=\prod_{i=1}^{n} P_{R}\left(f_{i}\right) $ 領域 $R$ のコーパス内の $w$ の全ての用例について素性リストを作成しておく.ここで用例の数を $N(R)$ とおく.また $N(R)$ 個の用例の中で,素性 $f$ が現れた用例数を $n(R, f)$ とおく. MAP 推定でスムージングを行い, $P_{R}(f)$ を以下で定義する (高村 2010). $ P_{R}(f)=\frac{n(R, f)+1}{N(R)+2} $ 以上より, ソース領域 $S$ の用例 $\boldsymbol{x}$ に対して, 確率密度比 $w(\boldsymbol{x})=P_{T}(\boldsymbol{x}) / P_{S}(\boldsymbol{x})$ が計算できる. $ w(\boldsymbol{x})=\frac{P_{T}(\boldsymbol{x})}{P_{S}(\boldsymbol{x})}=\prod_{i=1}^{n}\left(\frac{n\left(T, f_{i}\right)+1}{N(T)+2} \cdot \frac{N(S)+2}{n\left(S, f_{i}\right)+1}\right) $ ## 4.2 uLSIF ソース領域内のデータを $\left.\{\boldsymbol{x}_{i}^{s}\right.\}_{i=1}^{N_{s}}$, ターゲット領域内のデータを $\left.\{\boldsymbol{x}_{i}^{t}\right.\}_{i=1}^{N_{t}}$ とする uLSIF では確率密度比 $w(\boldsymbol{x})$ を以下の式でモデル化する。 $ \begin{aligned} w(\boldsymbol{x}) & =\sum_{l=1}^{b} \alpha_{l} \psi_{l}(\boldsymbol{x}) \\ & =\boldsymbol{\alpha} \cdot \boldsymbol{\psi}(\boldsymbol{x}) \end{aligned} $ ただしここで, $\boldsymbol{\alpha}=\left(\alpha_{1}, \alpha_{2}, \cdots, \alpha_{b}\right), \boldsymbol{\psi}(\boldsymbol{x})=\left(\psi_{1}(\boldsymbol{x}), \psi_{2}(\boldsymbol{x}), \cdots, \psi_{b}(\boldsymbol{x})\right)$ である.また $\alpha_{l}$ は正の実数であり, $\psi_{l}(\boldsymbol{x})$ は基底関数と呼ばれるソース領域のデータ $\boldsymbol{x}$ から正の実数値への関数である. ULSIF では, 概略, 自然数 $b$ と基底関数 $\boldsymbol{\psi}(\boldsymbol{x})$ を定めた後に,パラメータ $\boldsymbol{\alpha}$ を推定する手順をとる。 説明の都合上, $b$ と $\boldsymbol{\psi}(\boldsymbol{x})$ が定まった後の $\boldsymbol{\alpha}$ の推定を先に説明する. $w(\boldsymbol{x})$ のモデルを $\hat{w}(\boldsymbol{x})$ とおくと,パラメータ $\alpha_{l}$ を推定するには, $w(\boldsymbol{x})$ と $\hat{w}(\boldsymbol{x})$ の平均 2 乗誤差 $J_{0}(\boldsymbol{\alpha})$ を最小にするような $\boldsymbol{\alpha}$ を求めれば良い. $w(\boldsymbol{x})=P_{T}(\boldsymbol{x}) / P_{S}(\boldsymbol{x})$ に注意すると, $J_{0}(\boldsymbol{\alpha})$ は以下のように変形できる. $ \begin{aligned} J_{0}(\boldsymbol{\alpha}) & =\frac{1}{2} \int(\hat{w}(\boldsymbol{x})-w(\boldsymbol{x}))^{2} P_{S}(\boldsymbol{x}) d \boldsymbol{x} \\ & =\frac{1}{2} \int \hat{w}(\boldsymbol{x})^{2} P_{S}(\boldsymbol{x}) d \boldsymbol{x}-\int \hat{w}(\boldsymbol{x}) w(\boldsymbol{x}) P_{S}(\boldsymbol{x}) d \boldsymbol{x}+\frac{1}{2} \int w(\boldsymbol{x})^{2} P_{S}(\boldsymbol{x}) d \boldsymbol{x} \\ & =\frac{1}{2} \int \hat{w}(\boldsymbol{x})^{2} P_{S}(\boldsymbol{x}) d \boldsymbol{x}-\int \hat{w}(\boldsymbol{x}) P_{T}(\boldsymbol{x}) d \boldsymbol{x}+\frac{1}{2} \int w(\boldsymbol{x})^{2} P_{S}(\boldsymbol{x}) d \boldsymbol{x} \end{aligned} $ 3 項目の式は定数なので, $J_{0}(\boldsymbol{\alpha})$ を最小にするには, 以下の $J(\boldsymbol{\alpha})$ を最小にすればよい. $ J(\boldsymbol{\alpha})=\frac{1}{2} \int \hat{w}(\boldsymbol{x})^{2} P_{S}(\boldsymbol{x}) d \boldsymbol{x}-\int \hat{w}(\boldsymbol{x}) P_{T}(\boldsymbol{x}) d \boldsymbol{x} $ $J(\boldsymbol{\alpha})$ を経験分布で近似した $\widehat{J}(\boldsymbol{\alpha})$ は以下となる. $ \begin{aligned} \widehat{J}(\boldsymbol{\alpha}) & =\frac{1}{2 N_{s}} \sum_{i=1}^{N_{s}} \widehat{w}\left(\boldsymbol{x}_{i}^{s}\right)^{2}-\frac{1}{N_{t}} \sum_{j=1}^{N_{t}} \widehat{w}\left(\boldsymbol{x}_{j}^{t}\right) \\ & =\frac{1}{2} \sum_{l, l^{\prime}=1}^{b} \alpha_{l} \alpha_{l^{\prime}}\left(\frac{1}{N_{s}} \sum_{i=1}^{N_{s}} \psi_{l}\left(\boldsymbol{x}_{i}^{s}\right) \psi_{l^{\prime}}\left(\boldsymbol{x}_{i}^{s}\right)\right)-\sum_{l=1}^{b} \alpha_{l}\left(\frac{1}{N_{t}} \sum_{j=1}^{N_{t}} \psi_{l}\left(\boldsymbol{x}_{j}^{t}\right)\right) \\ & =\frac{1}{2} \boldsymbol{\alpha}^{T} \widehat{H} \boldsymbol{\alpha}-\widehat{h}^{T} \boldsymbol{\alpha} \end{aligned} $ ここで $\hat{H}$ は $b \times b$ の行列であり,その $l$ 行 $l^{\prime}$ 列の要素 $\widehat{H}_{l, l^{\prime}}$ は以下である. $ \widehat{H}_{l, l^{\prime}}=\frac{1}{N_{s}} \sum_{i=1}^{N_{s}} \psi_{l}\left(\boldsymbol{x}_{i}^{s}\right) \psi_{l^{\prime}}\left(\boldsymbol{x}_{i}^{s}\right) $ また $\widehat{h}$ は $b$ 次元のベクトルであり, その $l$ 次元目の要素 $\widehat{h}_{l}$ は以下である. $ \widehat{h}_{l}=\frac{1}{N_{t}} \sum_{j=1}^{N_{t}} \psi_{l}\left(\boldsymbol{x}_{j}^{t}\right) $ $\widehat{J}(\boldsymbol{\alpha})$ の最小値を求める際に正則化を行う.このとき付加する正則化項を L2ノルムに設定し, $\alpha>0$ の条件を外して,以下の最小化問題を解く. ここでパラメータ $\lambda$ が導入されることに注意する。 $\lambda$ は基底関数を設定する際に決められる。 $ \min _{\boldsymbol{\alpha}}\left[\frac{1}{2} \boldsymbol{\alpha}^{T} \widehat{H} \boldsymbol{\alpha}-\widehat{h}^{T} \boldsymbol{\alpha}+\frac{\lambda}{2} \boldsymbol{\alpha}^{T} \boldsymbol{\alpha}\right] $ この最小化問題は制約のない凸 2 次計画問題であるために,唯一の大域解が得られる。その解は以下である。 $ \tilde{\boldsymbol{\alpha}}=\left(\widehat{H}+\lambda I_{b}\right)^{-1} \widehat{h}^{T} $ 最後に $\boldsymbol{\alpha}>0$ の条件に合わせるように,以下の調整を行う. $ \begin{aligned} \widehat{\boldsymbol{\alpha}} & =\left(\left(\max \left(0, \tilde{\alpha_{1}}\right), \max \left(0, \tilde{\alpha_{2}}\right), \cdots, \max \left(0, \tilde{\alpha_{b}}\right)\right)\right. \\ & =\max \left(0_{b}, \tilde{\boldsymbol{\alpha}}\right) \end{aligned} $ パラメータ $b$ と基底関数の設定であるが,まず, $b$ については以下で設定する ${ }^{3}$. $ b=\min \left(100, N_{t}\right) $ 次にターゲット領域のデータから重複を許さずに $b$ 個の点をランダムに取り出す。それらの点を $\left.\{\boldsymbol{x}_{j}^{t}\right.\}_{j=1}^{b}$ とおく. そして基底関数 $\psi_{l}(\boldsymbol{x})$ を以下のガウシアンカーネルで定義する. $ \psi_{l}(\boldsymbol{x})=K\left(\boldsymbol{x}, \boldsymbol{x}_{l}^{t}\right)=\exp \left(-\frac{\left.\|\boldsymbol{x}-\boldsymbol{x}_{l}^{t}\right.\|^{2}}{\sigma^{2}}\right) $ 以上より, 確率密度比を求めるために残されているパラメータは正則化項の係数 $\lambda$ とガウシアンカーネルの幅 $\sigma$ の 2 つである. これらのパラメータはグリッドサーチの交差検定で求める. まずソース領域のデータとターゲット領域のデータをそれぞれ交わりのない $R$ 個の部分集合に分割する。それらの部分集合の中で $r$ 番目の部分集合を除き,残りを結合した集合を作る。それらを新たなソース領域のデータとターゲット領域のデータと見なす。そして $\lambda$ とをある値に設定し, 式 (6) と式 (7)より $\boldsymbol{\alpha}$ を求め, 式 (5) より $\widehat{J}(\boldsymbol{\alpha})^{(r)}$ の値を求める. $r$ を 1 から $R$ まで変化させることで, $R$ 個の $\widehat{J}(\boldsymbol{\alpha})^{(r)}$ の値が求まり,それらを平均した值を $\lambda$ と $\sigma$ 対する $\widehat{J}(\boldsymbol{\alpha})$ の值とする.次に $\lambda$ とを変化させ,上記手順で得られる $\widehat{J}(\boldsymbol{\alpha})$ の值が最小となる $\hat{\lambda} と \hat{\sigma}$ を求め,これを $\lambda$ この推定値とする.  ## $4.3 P_{S(\boldsymbol{x})$ の補正による確率密度比の算出} WSD のタスクでは NB 法あるいは uLSIF で算出される確率密度比は小さい値を取る傾向があり, 実際の学習で用いる際には, 少し上方に修正した値を取る方が最終の識別結果が改善されることが多い.これは以下の 2 点から生じていると考えられる. - $T$ に $\boldsymbol{x}$ が入っているかは確率的であるが, $S$ には必ず $\boldsymbol{x}$ が入っている. - $P_{S}(\boldsymbol{x})$ を推定するために $\boldsymbol{x} \in S$ を用いるため, 訓練データである $\boldsymbol{x}$ に過学習した結果 $P_{S}(\boldsymbol{x})$ は $P_{T}(\boldsymbol{x})$ に比べて高く見積もられてしまう. このため, 求まった確率密度比を上方に修正する手法が存在する。論文 (杉山 2006)では確率密度比 $w(\boldsymbol{x})$ を $p$ 乗 $(0<p<1)$ することを提案している. また論文 (Yamada et al. 2011)では以下で示される相対確率密度比 $w^{\prime}(\boldsymbol{x})$ を確率密度比として利用することを提案している。 $ w^{\prime}(\boldsymbol{x})=\frac{P_{T}(\boldsymbol{x})}{\alpha P_{S}(\boldsymbol{x})+(1-\alpha) P_{T}(\boldsymbol{x})} $ ここで $0<\alpha<1$ である. 確率密度比 $w(\boldsymbol{x})$ が 1 以下である場合, $w(\boldsymbol{x})$ を $p$ 乗すると上方に修正できることは, それらの比の対数を取れば, $\log w(\boldsymbol{x})<0$ であることから明らかである. $ \log \frac{w(\boldsymbol{x})^{p}}{w(\boldsymbol{x})}=(p-1) \log w(\boldsymbol{x})>0 $ また相対確率密度比 $w^{\prime}(\boldsymbol{x})$ は以下の変形から $w(\boldsymbol{x})$ を上方に修正していると見なせる. $ \begin{aligned} w^{\prime}(\boldsymbol{x}) & =\frac{P_{T}(\boldsymbol{x})}{\alpha P_{S}(\boldsymbol{x})+(1-\alpha) P_{T}(\boldsymbol{x})} \\ & =\frac{1}{\alpha+(1-\alpha) w(\boldsymbol{x})} w(\boldsymbol{x}) \\ & >\frac{1}{\alpha+(1-\alpha)} w(\boldsymbol{x}) \\ & =w(\boldsymbol{x}) \end{aligned} $ 確率密度比が 1 以上である場合, これらの手法は確率密度比を下方に修正するので, 正確には確率密度比を 1 に近づける手法である。しかし, ほとんどの訓練データの確率密度比は 1 以下であるために, ここではこれらの手法を上方修正する手法と呼び, 提案手法と対比させる. 本論文では確率密度比を上方に修正するために, ソース領域のデータとターゲット領域のデー 夕を合わせたデータを新たにソース領域のデータとみなし,NB 法を用いて $P_{S}(\boldsymbol{x})$ を補正することを提案する。これは $S$ のスパース性を緩和させることを狙ったものである. 確率密度比が真の値よりも低く見積もられる原因の 1 つは, $P_{S}(\boldsymbol{x})$ が真の值よりも高く見積もられるからたと考える。 さらにその原因が $S$ のスパース性なので,スパース性を緩和するために $S$ にデータを追加するというアイデアである.たたし追加するデータは $S$ と類似の領域のデータであるこ とが望ましい. WSD の領域適応の場合, $S$ と $T$ は完全に異なることはなく, 比較的似ているために,追加するデータとして $T$ のデータが利用できると考えた。 提案手法の新たなソース領域を $S+T$ で表せば, $P_{S}(\boldsymbol{x})>P_{S+T}(\boldsymbol{x})$ が成立していると考えるのは自然であり,この不等式が成立していれば,提案手法により確率密度比は上方に修正される。ただし,ここで提案手法は必ずしも NB 法の確率密度比を上方に修正できるとは限らないことに注意する。また提案手法は NB 法の確率密度比が 1 以下かどうかには無関係であることにも注意する。NB 法の確率密度比が 1 以上であっても,上方に修正する可能性がある。また $P_{S+T}(\boldsymbol{x})$ は以下の式を利用して求められる。 $ \begin{aligned} P_{S+T}(f) & =\frac{n(S+T, f)+1}{N(S+T)+2} \\ & =\frac{n(S, f)+n(T, f)+1}{N(S)+N(T)+2} \end{aligned} $ ## 5 実験 BCCWJ の PB(書籍), OC(Yahoo! 知恵袋)及び PN(新聞)を異なった領域として実験を行う. SemEval-2 の日本語 WSD タスク (Okumura et al. 2010)ではこれら領域のコーパスの一部に語義夕グを付けたデータを公開しており,そのデータを利用する。この 3 つの領域からある程度頻度のある多義語 16 単語を WSD の対象単語とする. これら単語と辞書上での語義数及び各コーパスでの頻度と語義数を表 1 に示す ${ }^{4}$. 領域適応の方向としては $\mathrm{OC} \rightarrow \mathrm{PB}, \mathrm{PB} \rightarrow$ $\mathrm{PN}, \mathrm{PN} \rightarrow \mathrm{OC}, \mathrm{OC} \rightarrow \mathrm{PN}, \mathrm{PN} \rightarrow \mathrm{PB}, \mathrm{PB} \rightarrow \mathrm{OC}$ の計 6 通りの方向が存在する. 本稿で利用した素性は以下の 8 種類である。 (e0) $w$ の表記, (e1) $w$ の品詞, (e2) $w_{-1}$ の表記, (e3) $w_{-1}$ の品詞, (e4) $w_{1}$ の表記, (e5) $w_{1}$ の品詞, (e6) $w$ の前後 3 単語までの自立語の表記, (e7) e6 の分類語彙表の番号の 4 桁と 5 桁. なお対象単語の直前の単語を $w_{-1}$, 直後の単語を $w_{1}$ としている。 対象単語 $w$ についてソース領域 $S$ からターゲット領域 $T$ の領域適応の実験について説明する.ソース領域 $S$ の訓練データのみを用いて, 手法 $\mathrm{A}$ により分類器を学習し $w$ に対する正解率を求める. 16 種類の各対象単語 $\left(w_{1}, w_{2}, \cdots, w_{16}\right)$ に対する正解率の平均,つまりマクロ平均をソース領域 $S$ からターゲット領域 $T$ に対する手法 A の正解率とする。結果, 手法 A について 6 種類の各領域適応に対しての正解率が得られる。 それらの平均を手法 A の平均正解率とする. 上記の手法 A としては,以下の 8 種類を試す。(1) 重みを考慮しない(重みを 1 で固定する)手法 (Base),(2)NB 法による重みをつけた手法 (NB),(3) NB 法の重みを $p$ 乗した値を重みに  表 1 対象単語 & & & & & & \\ 入れる & 3 & 73 & 2 & 56 & 3 & 32 & 2 \\ 書く & 2 & 99 & 2 & 62 & 2 & 27 & 2 \\ 聞く & 3 & 124 & 2 & 123 & 2 & 52 & 2 \\ 子供 & 2 & 77 & 2 & 93 & 2 & 29 & 2 \\ 時間 & 4 & 53 & 2 & 74 & 2 & 59 & 2 \\ 自分 & 2 & 128 & 2 & 308 & 2 & 71 & 2 \\ 出る & 3 & 131 & 3 & 152 & 3 & 89 & 3 \\ 取る & 8 & 61 & 7 & 81 & 7 & 43 & 7 \\ 場合 & 2 & 126 & 2 & 137 & 2 & 73 & 2 \\ 入る & 3 & 68 & 4 & 118 & 4 & 65 & 3 \\ 前 & 3 & 105 & 3 & 160 & 2 & 106 & 4 \\ 見る & 6 & 262 & 5 & 273 & 6 & 87 & 3 \\ 持つ & 4 & 62 & 4 & 153 & 3 & 59 & 3 \\ やる & 5 & 117 & 3 & 156 & 4 & 27 & 2 \\ ゆく & 2 & 219 & 2 & 133 & 2 & 27 & 2 \\ する手法 (P-NB),(4) NB 法の重みを相対確率密度比により上方修正した值を重みにする手法 (A-NB),(5) uLSIF による重みをつけた手法 (uLISF),(6) uLSIF の重みを $p$ 乗した値を重みにする手法 (P-uLSIF),(7) uLSIF の重みを相対確率密度比により上方修正した值を重みにする手法 (A-uLSIF), (8) 提案手法, またすべての手法において学習アルゴリズムとしては最大エントロピー法を用いた。またその実行にはツールの Classias を用いた (Okazaki 2009). Sから $T$ への領域適応における各手法の正解率を表 2 に示す。ただし P-NB, A-NB, P-uLSIF, A-uLSIF については $p$ と $\alpha$ の゚ラメータが存在する。これらの值については, その值を 0.01 から 0.09 まで 0.01 刻み, 及び 0.1 から 0.9 まで 0.1 刻みで変化させ,平均正解率が最もよい值を示した値を採用した。結果,P-NB については $p=0.2, \mathrm{~A}-\mathrm{NB}$ については $\alpha=0.01, \mathrm{P}-\mathrm{uLSIF}$ については $p=0.04, \mathrm{~A}-\mathrm{uLSIF}$ については $\alpha=0.01$ の値を採用した. 表 2 が示すように,領域適応のタイプ毎に最適な手法は異なるが,平均正解率としては提案手法が最も高い値を示した。また P-NB と A-NB の平均正解率は NB の平均正解率よりも高く, P-uLSIF と A-uLSIF の平均正解率は uLSIF の平均正解率よりも高い. つまり確率密度比を上方に修正する手法が有効であったことがわかる. また有意差を検定するために以下の実験を行った。まず対象単語毎に OC のデータからランダムに 9 割のデータ取り出し, それらのデータセットを OC-1 とする。これを 20 回行い, 作成する。また同様に PN のデータから PN-1,PN-2,“, PN-20 を作成する。そしてデータセットの組 (OC-i, PB-i, PN-i) を用いて, 前述した実験と同様の実験を行い, 20 個の平均正解率を算出し $\mathrm{t}$-検定(両側検定の有意水準 $5 \%$ )を行った。結果を表 3 に示す。表 3 における評価値は以下の式により計算されたものである。 $ \frac{\bar{X}_{1}-\bar{X}_{2}}{\sqrt{\left(\frac{1}{n_{2}}+\frac{1}{n_{2}}\right) \frac{n_{1} S_{1}^{2}+n_{2} S_{2}^{2}}{n_{1}+n_{2}-2}}} $ ここで $\bar{X}_{1}$ と $S_{1}^{2}$ が提案手法の 20 個の平均正解率の平均と分散であり, $\bar{X}_{2}$ と $S_{2}^{2}$ が比較対象の手法の 20 個の平均正解率の平均と分散である. $n_{1}$ と $n_{2}$ は共にサンプル数 20 である. この評価値が自由度 38 の $\mathrm{t}$ 分布の 0.975 の分位点 2.0244 よりも大きい場合に, 提案手法が対応する手法に対して有意であると判定される. 表 3 が示すように P-NB 以外の全ての手法に対して,提案手法が有意に優れていた. 表 2 各手法の平均正解率 $(\%)$ 表 3 有意差の検定結果 & & 評価値 & 検定結果 \\ 提案手法に対して \\ NB & 0.67347 & 1.10743 & 14.16433 & 有意差あり \\ P-NB & 0.71412 & 0.18829 & 0.70677 & 有意差なし \\ A-NB & 0.70878 & 0.31027 & 3.13972 & 有意差あり \\ uLSIF & 0.65627 & 1.94611 & 16.29127 & 有意差あり \\ P-uLSIF & 0.67076 & 2.00794 & 12.15918 & 有意差あり \\ A-uLSIF & 0.66959 & 1.98588 & 12.53072 & 有意差あり \\ ## 6 考察 ## 6.1 確率密度比を上方修正しないケース $\lceil p$ 乗する」あるいは「相対確率密度比を取る」という手法は, 元の確率密度比が 1 以下である全てのデータに対してその値を上方に修正するが,提案手法は一部のデータに対しては NB 法の確率密度比が 1 以下であっても,それらを上方に修正できない.提案手法により確率密度比の値が大きくならず,逆に小さくなったデータの個数を表 4 に示す. ほとんどのデータに対して, その確率密度比を上方に修正しているが, 修正できていないデー 夕が極端に多いケースも存在する。例えば,PB $\rightarrow \mathrm{PN}$ に関しては「言う」「自分」「見る」「やる」「ゆく」,OC $\rightarrow \mathrm{PN}$ に関しては「書く」「見る」「やる」「ゆく」である。これらに関してのみ Base と NB と提案手法の正解率の比較を表 5 に示す. 表5からわかるように,上方修正ができないデータが多くなると,提案手法は NB 法よりも正解率が下がっている,ただし,下方に修正した場合には必ず正解率が下がるとも言えないことに注意したい,例えば,確率密度比の値を下げないようにするには提案手法を修正し,「NB 法の値を上方に修正できなければ,NB 法の値をそのまま使う」という形にすれば良い。この修正案の手法も試した結果を表 6 に示す. 修正案の手法の平均正解率は, 提案手法よりも若干悪かった。 上記の実験は NB 法による確率密度比が 1 以下かどうかは考慮していない.「p 乗する」や 表 4 上方修正できなかったデー夕の個数 表 5 上方修正できなかったデータの正解率 (\%) 表 6 修正版提案手法の平均正解率 $(\%)$ 「相対確率密度比を取る」手法では, 確率密度比が 1 以上の場合に,その値を逆に小さくしている. 確率密度比が 1 以上の場合に,上方修正する方がよいのか下方修正する方がよいのかは未解決である.参考として上記の修正案の手法を更に修正し, 「 NB 法の値が 1 以上の場合, あるいは NB 法の値を上方に修正できな場合には NB 法の値をそのまま使う」という形の実験も行った. 結果, 平均正解率は 72.14 と若干改善はされたが, 提案手法よりも若干悪いことに変化はなかった。 デー夕の確率密度比(重み)はその値の大きさが重要ではなく, 他データとの重みとの関係が本質的である,例えば全てのデータの重みを 10 倍して,値自体を増やしても,推定できるパラメータが変化しないのは, 重み付き対数尤度(式 2)の最大化する部分が変化しないことから明らかである。 データの重みはタスクの背景知識から,その重要度を設定していくか,そのデータを数値化した後に確率密度比という観点から設定していくしか方法はないと考える. 提案手法は後者で ことに,どのような意味があるかを調べることは今後の課題である. ## 6.2 提案手法の重みの上方修正 提案手法は, 確率密度比を上方修正する手法と組み合わせて利用することで更なる精度改善も可能である. 提案手法の確率密度比を $p$ 乗した場合の平均正解率の変化を図 1 に示す. $p=0.6$ のとき最大値 $72.54 \%$ をとった. また提案手法の確率密度比に対してパラメータ $\alpha$ の相対確率密度比をとった場合の平均正解率の変化を図 2 に示す. $\alpha=0.6$ のとき最大值 $72.30 \%$ をとった. ともに確率密度比を上方修正することで平均正解率は改善されている. 図 $1 p$ 乗による提案手法値の上方修正 図 2 相対確率密度比による提案手法値の上方修正 本論文の以降の記述において,提案手法の重みを $p$ 乗した値を重みにする手法を「P-提案手法」,提案手法の重みを相対確率密度比により上方修正した値を重みにする手法を「A-提案手法」と名付ける. ここで $p=0.6, \alpha=0.6$ である. また前節で行った有意差の検定を「P-提案手法」と「A-提案手法」に対しても行った. 結果,「P-提案手法」は P-NB や提案手法を含む全ての手法に対して有意に優れていた。ただし「A提案手法」は P-NB や提案手法とに有意な差はなかった. ## 6.3 Misleading データからの評価 本論文で提案した確率密度比(重み)は NB 法や uLSIF による確率密度比よりも,有効に機能していた.ただし真の確率密度比の値は未知であるために,真の値に近いかどうかという観点での評価は不可能である。また重みの設定だけで,どの程度まで平均正解率が向上できるのかも未知である。一方, Misleading データを削除してから学習を行うことでかなりの精度向上が可能であることが論文 (吉田,新納 2014) により示されている. Misleading デー夕を削除してから学習することは, Misleading データの重みを 0 , それ以外のデータの重みを 1 とした重み付き学習と見なせる。この重み付けが真の確率密度比と類似しているかどうかは不明だが, Misleading データに対してはできるだけ小さな重みを与える手法が優れているとみなせる。そこでここでは各手法において Misleading デー夕に付与された重みを調べることで手法を評価する. まず論文 (吉田,新納 2014) で行ったように,しらみつぶしに Misleading を見つけ出す。領域 $S$ から領域 $T$ の領域適応において,対象単語 $w$ の $S$ 上のラベル付きデータ $D$ が存在する. まず $D$ で学習した識別器の $T$ に対する正解率 $p_{0}$ を測る。次に $D$ から 1 つデータ $x$ を取り除き, $D-\{x\}$ から学習した識別器の $T$ に対する正解率 $p_{1}$ を測る. $p_{1}>p_{0}$ となった場合, デー 夕 $x$ を Misleading データと見なす。これを $D$ 内のすべてのデータに対して行い, $S$ から $T$ の領域適応における対象単語 $w$ の Misleading データを見つける。この処理によって見つけ出された Misleading データの個数を表 7 示す. 括弧内の数値は全データ数である. また Misleading による重みを用いた学習の識別結果を表 8 に示す. 表中の Mislead がそれにあたる。本論文の実験で得られている平均正解率よりもかなり高い。つまり重みの設定のみでも Base の平均正解率 $71.71 \%$ を少なくとも $75.42 \%$ まで改善可能である. 次に各手法が Misleading データに付与した重みにより手法を評価する。領域 $S$ から領域 $T$ の領域適応において,対象単語 $w$ の $S$ 上のラベル付きデータを $D=\left.\{x_{i}\right.\}_{i=1}^{N_{w}}$ とする。まず $D$ 内のデータの重みの平均値 $m_{w}$ を調べる. $ m_{w}=\frac{1}{N_{w}} \sum_{i=1}^{N_{w}} w\left(x_{i}\right) $ 表 7 Misleading データの個数 表 8 Misleading による重みを用いた学習の平均正解率 (\%) 次に $D$ 内の Misleading データを $\left.\{x_{j}^{\prime}\right.\}_{j=1}^{M_{w}}$ とする. 各 $x_{j}^{\prime}$ の重み $w\left(x_{j}^{\prime}\right)$ が $m_{w}$ と比較して小さな值であればよいので, 対象単語 $w$ に関する Misleading データを用いた評価値 $d_{w}$ を以下で測る. $ d_{w}=\frac{1}{M_{w}} \sum_{j=1}^{M_{w}} \frac{w\left(x_{j}^{\prime}\right)}{m_{w}} $ $d_{w}$ は対象単語 $w$ の訓練データの重みの平均值 $m_{w}$ に対して, Misleading データ $x_{j}^{\prime}$ の重み $w\left(x_{j}^{\prime}\right)$ の比を取り,その比の平均を取ったものである。このため $d_{w}$ の値が小さいほど,適切に重み付けできていると考えられる。そして $d_{w}$ の各単語に関して平均を取った値を,その手法における $S$ から $T$ の Misleading データを用いた評価值(小さいほど良い)とする。これをまとめたものが表 9 である。表 9 が示すように, Misleading データを用いた評価では, NB 法, uLSIF 及び提案手法の 3 つの中で uLSIF が最も優れている。ただし提案手法は NB 法よりも優れてい 表 9 Misleading データからの評価値 た. 更に全ての手法において「 $p$ 乗する」,あるいは「相対確率密度比を取る」ことで評価値は改善されており,重みを上方修正する効果があることがわかる。また「 $p$ 乗する」と「相対確率密度比を取る」を比較すると, $p$ 乗する」方が効果があることもわかる。 ## 6.4 負の転移の有無 NB 法や uLSIF は Base よりも平均正解率が低い. これは確率密度比からの重み付き学習が効果がなかったことを示している。この原因として, WSD の領域適応では, 領域の変化はあるが,実際には領域適応の問題が生じていない,つまり負の転移 (Rosenstein, Marx, Kaelbling, and Dietterich 2005) が生じていない対象単語がかなり存在するからだと考える.負の転移が生じていなければ,訓練データを全て利用して学習する方が有利であることは明らかであり,重みをつけると逆効果になると考えられる。 この点を確認するために, 負の転移が生じているものと生じていないものに分けて, 各手法の平均正解率を測ってみる。まず負の転移が生じている単語の判定であるが, これは表 7 で示した Misleading データの個数から行う.ここでは Misleading データが全データの 1 割以下の場合, 負の転移が生じないと判定した。結果を表 10 に示す. チェックが付いているものが「負の転移が生じない」と判定したものである. 表 10 でチェックがついていない対象単語に限定して, 各手法の平均正解率を測った結果が表 11 である。また逆に表 10 でチェックがついている対象単語に限定して, 各手法の平均正解率を測った結果が表 12 である. 表 11 と表 12 からわかるように, NB 法や uLSIF は負の転移が生じる, 生じないに関わらず, Base よりも平均正解率が低く, 本実験においては有効ではなかった. 一方, 提案手法は負の転移が生じる場合でも, 生じない場合でも Base よりも平均正解率が高く, どちらの場合でも有効であることがわかる. 表 10 負の転移が生じない単語 表 11 負の転移が生じる単語に限定した平均正解率 (\%) また負の転移が生じる場合, 提案手法の平均正解率は $\mathrm{NB}$ 法の平均正解率の 1.09 倍であり, uLSIF の平均正解率 1.05 倍である。一方, 負の転移が生じない場合, 提案手法の平均正解率は NB 法の平均正解率の 1.02 倍であり, uLSIF の平均正解率 1.03 倍である. つまり負の転移が生じるケースで提案手法と既存手法(NB 法, uLSIF)との差が大きくなる. 更に確率密度比を上方修正する効果をみてみる。負の転移が生じる場合, NB 法は平均正解率 $60.69 \%$ が $p$ 乗することで $65.19 \%$, 相対確率密度比を取ることで $65.35 \%$ まで向上している 表 12 負の転移が生じない単語に限定した平均正解率 (\%) ので, 平均的には $7.5 \%$ 平均正解率が向上している ${ }^{5}$. 同様に計算して uLSIF の平均正解率は $3.6 \%$, 提案手法の平均正解率は $0.5 \%$ 向上している. 負の転移が生じない場合, $\mathrm{NB}$ 法は $1.4 \%$, uLSIF は $2.8 \%$ 平均正解率が向上している. また提案手法では平均正解率はほとんど変化しない. つまり確率密度比を上方修正する効果は負の転移が生じるケースで顕著になっている. 今後の課題としては Misleading データの検出方法を考案することである. Misleading データを検出し,そのデータに重みを 0 にすることはかなりの精度向上が期待できる.また Misleading デー夕の割合から負の転移の有無を判定し, 負の転移が生じる問題にだけ, 重み付け学習手法を適用するアプローチも効果があると考えられる。 ## 6.5 トピックモデルの利用 論文 (新納, 佐々木 2013 ) は本論文と同じタスクに対して一部同じデータを用いた実験結果を示している。ここではそこでの実験結果の値と本論文の実験結果の値を比較し, 手法間の違いを考察する。 論文 (新納, 佐々木 2013) の核となるアイデアは, ターゲット領域 $T$ のトピックモデルを作成し,ターゲット領域に特有のシソーラスを構築することである。このシソーラスの情報を素性として組み込むことで,識別精度を上げることを狙っている.実験は $\mathrm{OC} \rightarrow \mathrm{PB}$ と $\mathrm{PB} \rightarrow \mathrm{OC}$ の 2 方向である. また対象単語は本論文の 16 単語の他「来る」が含まれている ${ }^{6}$. $\mathrm{OC} \rightarrow \mathrm{PB}$ と $\mathrm{PB} \rightarrow \mathrm{OC}$ の領域適応における, 本論文の対象単語 16 単語についての識別精度の比較を表 13 と表 14 に示す。なお表中の SVM-TM-kNN は論文 (新納, 佐々木 2013)の手法を意味する。  表 13 正解率 $(\%)$ の比較 $(\mathrm{OC} \rightarrow \mathrm{PB})$ 表 14 正解率 $(\%)$ の比較 $(\mathrm{PB} \rightarrow \mathrm{OC})$ 対象単語に応じて最も高い正解率の手法は異なるが, 平均的には SVM-TM-kNN が最も高い正解率を示している。ただし SVM-TM-kNN はトピックモデルを構築するために,ターゲット領域のコーパスを利用していることに注意したい。本論文の提案手法はターゲット領域の対象単語の用例を用いているが,コーパスは利用していない。つまり利用しているリソースが異なるために, 単純に SVM-TM-kNN が提案手法よりも優れているとは結論できない. また SVM-TM-kNN におけるトピックモデルは素性構築の際に利用されているだけであり,提案手法と競合するものではない。つまり SVM-TM-kNN の手法を利用して,WSD での素性を構築し,それに対して本論文の提案手法を適用することも可能である.今後はこの方向での改良も試みたい. ## 7 おわりに 本論文では,WSD の領域適応に対して,共変量シフト下の学習を試みた。共変量シフト下の学習では確率密度比を重みとした重み付き学習を行うが,WSD のタスクでは算出される確率密度比が小さくなる傾向があるため, ソース領域のコーパスとターゲット領域のコーパスとを合わせたコーパスをソース領域のコーパスと見なして NB 法を用いる手法を提案した. BCCWJ の 3 つの領域 OC(Yahoo! 知恵袋), PB(書籍)及び PN(新聞)に共通して出現する多義語 16 単語を対象にして, WSD の領域適応の実験を行った. NB 法, uLSIF 及び提案手法を比較すると, 提案手法が最も高い平均正解率を出した. また「 $p$ 乗する」や「相対確率密度比を取る」といった確率密度比を上方修正する手法も試し, 提案手法のように確率密度比を上方修正する効果を確認した。 また Misleading データをしらみつぶし的に取り出し, Misleading データを用いた手法の評価も行った. Misleading データを利用した評価では uLSIF が優れていたが, 提案手法は NB 法の改良になっていることを確認できた. WSD の領域適応の場合, Misleading データの検出あるいは負の転移の有無を判定することが,精度改善に大きく寄与できる.今後はこの点の研究を進めたい。またトピックモデルの利用も検討したい. ## 参考文献 Chan, Y. S. and Ng, H. T. (2005). "Word Sense Disambiguation with Distribution Estimation." In Proceedings of IJCAI-2005, pp. 1010-1015. Chan, Y. S. and Ng, H. T. (2006). "Estimating Class Priors in Domain Adaptation for Word Sense Disambiguation." In Proceedings of COLING-ACL-2006, pp. 89-96. Chapelle, O., Schölkopf, B., and Zien, A. (2006). Semi-Supervised Learning, Vol. 2. MIT press Cambridge. Daumé, H. I. (2007). "Frustratingly Easy Domain Adaptation." In Proceedings of ACL-2007, pp. 256-263. Jiang, J. and Zhai, C. (2007). "Instance Weighting for Domain Adaptation in NLP." In Proceedings of ACL-2007, pp. 264-271. Joachims, T. (1999). "Transductive Inference for Text Classification using Support Vector Machines." In ICML, Vol. 99, pp. 200-209. 神嶌敏弘 (2010). 転移学習. 人工知能学会誌, 25 (4), pp. 572-580. Kanamori, T., Hido, S., and Sugiyama, M. (2009). "A Least-Squares Approach to Direct Importance Estimation." The Journal of Machine Learning Research, 10, pp. 1391-1445. 古宮嘉那子, 奥村学 (2012). 語義曖昧性解消のための領域適応手法の決定木学習による自動選択. 自然言語処理, $19(3)$, pp. 143-166. 古宮嘉那子, 小谷善行, 奥村学 (2013). 語義曖昧性解消の領域適応のための訓練事例集合の選択. 言語処理学会第 19 回年次大会, pp. C6-2. Komiya, K. and Okumura, M. (2011). "Automatic Determination of a Domain Adaptation Method for Word Sense Disambiguation using Decision Tree Learning." In Proceedings of IJCNLP-2011, pp. 1107-1115. Komiya, K. and Okumura, M. (2012). "Automatic Domain Adaptation for Word Sense Disambiguation Based on Comparison of Multiple Classifiers." In Proceedings of PACLIC-2012, pp. $75-85$. Maekawa, K. (2007). "Design of a Balanced Corpus of Contemporary Written Japanese." In Symposium on Large-Scale Knowledge Resources (LKR2007), pp. 55-58. 森信介 (2012). 自然言語処理における分野適応. 人工知能学会誌, 27 (4), pp. 365-372. Okazaki, N. (2009). "Classias: A Collection of Machine-Learning Algorithms for Classification.". Okumura, M., Shirai, K., Komiya, K., and Yokono, H. (2010). "SemEval-2010 Task: Japanese WSD." In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 69-74. Rosenstein, M. T., Marx, Z., Kaelbling, L. P., and Dietterich, T. G. (2005). "To Transfer or Not to Transfer." In Proceedings of the NIPS 2005 Workshop on Inductive Transfer: 10 Years Later. 齋木陽介,高村大也, 奥村学 (2008). 文の感情極性判定における事例重み付けによるドメイン適応. 情報処理学会第 184 回自然言語処理研究会, NL-184-10. 新納浩幸, 佐々木稔 (2013). $\mathrm{k}$ 近傍法とトピックモデルを利用した語義曖昧性解消の領域適応.自然言語処理, 20 (5), pp. 707-726. 新納浩幸, 佐々木稔 (2014). 共変量シフトの問題としての語義曖昧性解消の領域適応. 自然言語処理, 21 (1), pp. 61-79. 新納浩幸, 國井慎也, 佐々木稔 (2014). 語義曖昧性解消を対象とした領域固有のシソーラスの 構築. 第 5 回コーパス日本語学ワークショップ, pp. 199-206. Sogaard, A. (2013). Semi-Supervised Learning and Domain Adaptation in Natural Language Processing. Morgan \& Claypool. 杉山将 (2006). 共変量シフト下での教師付き学習. 日本神経回路学会誌, 13 (3), pp. 111-118.杉山将 (2010). 密度比に基づく機械学習の新たなアプローチ. 統計数理, 58 (2), pp. 141-155. Sugiyama, M. and Kawanabe, M. (2011). Machine Learning in Non-Stationary Environments: Introduction to Covariate Shift Adaptation. MIT Press. 高村大也 (2010). 言語処理のための機械学習入門. コロナ社. Yamada, M., Suzuki, T., Kanamori, T., Hachiya, H., and Sugiyama, M. (2011). "Relative Density-ratio Estimation for Robust Distribution Comparison." Neural Computation, 25 (5), pp. 1370-1370. 吉田拓夢, 新納浩幸 (2014). 外れ值検出手法を利用した Misleading データの検出. 第 5 回コー パス日本語学ワークショップ, pp. 49-56. ## 略歴 新納浩幸:1985 年東京工業大学理学部情報科学科卒業. 1987 年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て, 1993 年 4 月茨城大学工学部システム工学科助手. 1997 年 10 月同学科講師, 2001 年 4 月同学科助教授, 現在, 茨城大学工学部情報工学科准教授. 博士 (工学). 機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会, 情報処理学会, 人工知能学会各会員. 佐々木稔:1996 年徳島大学工学部知能情報工学科卒業. 2001 年同大学大学院博士後期課程修了. 博士 (工学). 2001 年 12 月茨城大学工学部情報工学科助手. 現在, 茨城大学工学部情報工学科講師. 機械学習や統計的手法による情報検索, 自然言語処理等に関する研究に従事. 言語処理学会, 情報処理学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 単語並べ替えと冠詞生成の同時逐次処理:日英機械翻訳への適用 本稿では,機械翻訳の単語並べ替え問題にシフトリデュース構文解析法を応用する ための手法を提案する。提案手法では, 単一言語の Inversion Transduction 文法に よって単語並べ替え問題を定式化する。また,日本語文と英語文との単語対応をと りやすくするため, あらかじめ除去した英冠詞を翻訳結果へ挿入する問題も単語並 べ替えと同時に定式化する。提案法を日英特許翻訳に適用したところ, 句に基づく 統計的機械翻訳の BLEU スコア 29.99 に対して, +3.15 の改善が得られた。 キーワード:統計的機械翻訳, 単語並べ替え, 後編集, 冠詞生成, シフトリデュース構文解析 ## Incremental Word Re-Ordering and Article Generation: Its Application to Japanese-to-English Machine Translation \author{ Katsuhiko Hayashi $^{\dagger}$, Katsuhito Sudoh $^{\dagger}$, Hajime Tsukada $^{\dagger}$, \\ JUN SUZUKI ${ }^{\dagger}$ and MASAaKi NAgATa ${ }^{\dagger}$ } This paper introduces a novel word re-ordering model for statistical machine translation that employs a shift-reduce parser for inversion transduction grammars. The proposed model also solves article generation problems simultaneously with word reordering. We applied it to the post-ordering of phrase-based machine translation (PBMT) for Japanese-to-English patent translation tasks. Our experimental results suggest that our method achieves a significant improvement of +3.15 BLEU scores against 29.99 BLEU scores of the baseline PBMT system. Key Words: Statistical machine translation, Word re-ordering, Postediting, Shift-reduce parsing ## 1 はじめに 句に基づく統計的機械翻訳 (Koehn, Och, and Marcu 2003) が登場し,仏英などの言語対における機械翻訳性能は大きく向上した,その一方で,文の構文構造が大きく異なる言語対(日英など)において,長距離の単語並べ替えを上手く扱うことができないという問題がある. 近年, この問題を解決するため, 同期文脈自由文法 (Wu 1997; Chiang 2005) や木トランスデューサ (Graehl and Knight 2004; Galley, Graehl, Knight, Marcu, DeNeefe, Wang, and Thayer 2006)により, 構文情報を使って単語並べ替えと訳語選択を同時にモデル化する研究が活発化し  ている.しかし, 単語アライメントや構文解析のエラーを同時にモデルへ組み达んでしまうため, 句に基づく手法と比較して, いつでもより良い性能を達成できているわけではない. これらの研究と並行して, 事前並べ替え法 (Collins, Koehn, and Kučerová 2005; Isozaki, Sudoh, Tsukada, and Duh 2012) や事後並べ替え法 (Sudoh, Wu, Duh, Tsukada, and Nagata 2011; Goto, Utiyama, and Sumita 2012) に関する研究も盛んに行われている.これらの手法は単語並べ替えと訳語選択の処理を分けてモデル化し,語順が大きく異なる言語対で,句に基づく手法の翻訳性能を大きく向上させられることが報告されている. 特に, 文献 (Isozaki et al. 2012) で提案された主辞後置変換規則による事前並べ替え法は, 特許文を対象とした英日翻訳で高い性能を達成している (Goto, Lu, Chow, Sumita, and Tsou 2011; Goto, Chow, Lu, Sumita, and Tsou 2013).この規則はある言語(本稿では英語を仮定する)を日本語(主辞後置言語)の語順へと変換するものであるが,文献 (Sudoh et al. 2011)では,主辞後置変換規則によってできた日本語語順の英語文を元の英語文へと復元するためのモデルを構築し,主辞後置変換規則の利点を日英翻訳へと適用可能にしている(事後並べ替え法). 文献 (Goto et al. 2012) では事後並べ替えを構文解析によってモデル化している。この手法は, 1 言語の上で定義された Inversion Transduction 文法 (ITG) (Wu 1997)1 1 に Berkeley 構文解析器を適用することで,単語並べ替えを行う。また,主辞後置変換規則では日英単語アライメント性能を向上させるため,データから英冠詞を除去する,そのため,翻訳結果に冠詞生成を行う必要があり, 文献 (Goto et al. 2012)では, 構文解析による単語並べ替えとは独立して, $N$-gram モデルによる冠詞生成法を提案している. 文献 (Goto et al. 2012)の手法は, Berkeley 構文解析器の解析速度の問題や冠詞生成を独立して行うことから, 解析効率や精度の点で大きな問題が残る。本稿では, この構文解析に基づく事後並べ替えの新たな手法を提案し,解析効率,及び,翻訳性能の改善をはかる.提案手法はシフトリデュース構文解析法に基づいており, 文献 (Goto et al. 2012)で利用された段階的枝刈り手法による Berkeley 構文解析 (Petrov and Klein 2007) と比べて, 次の利点を持つ. 1 線形時間で動作し, 高速で精度の高い単語並べ替えが可能. 2 並べ替え文字列の $N$-gram 素性(非局所素性に該当)を用いても計算量が変わらない. 3 アクションを追加するだけで,並べ替えと同時に語の生成操作などが行える. 1 と 2 の利点は, 解析効率における利点, また, 2 と 3 は翻訳性能を向上させる上での利点となる. 特に,3つ目の利点を活かして,単語並べ替えと冠詞生成問題を同時にモデル化することが, 提案法の最も大きな新規性と言える。本稿では, 日英特許対訳データを使って, 提案手法が従来手法を翻訳速度,性能の両面で上回ることを実験的に示す。以下,第 2 章では構文解析 ^{1}$ ITG は 2 言語の構文解析 (biparsing) を扱う枠組みであるが, 単語並べ替え問題では原言語の単語と目的言語の訳語を同じと考えることができるため, 1 言語の上で定義された通常の構文解析として扱える. } による事後並べ替えの枠組み, 第 3 章では提案手法, 第 4 章では実験結果について述べる,第 5,6 章では研究の位置付けとまとめを行う. ## 2 構文解析による事後並べ替え 図 1 に示すように, 事後並べ替えによる機械翻訳方式 (Sudoh et al. 2011) は 2 つのステップに分けられる。最初のステップでは入力文をそのままの並びで出力言語文(中間言語文)へと翻訳する。そして,次のステップにおいて中間言語文を並べ替え,出力言語の語順になった文を生成する. 文献 (Goto et al. 2012) はこの 2 番目のステップを構文解析によってモデル化し, そのための学習データを次のような手順で作成している. まず, 図 2 の左図に示すように, 英語文に対して語彙化構文木を作成する. 次に, 主辞後置変換規則によって, 図 2 の右図に示すような木 (中間英語木) へと変換する ${ }^{2}$. この変換では, 非終端記号に付随する主辞をその句の後方へと移動する。例えば, 左図の $\mathrm{PP}($ with) $\rightarrow \mathrm{PR}$ (with) $\mathrm{NP}$ (telescope) の辺では, PP の主辞となる withは telescopeの前に位置するが, 右図では PP\# $\rightarrow \mathrm{N}($ telescope) “a/an" PR(with)のように telescope の後ろに位置する。\#は並べ替えを意味するマークである.右図の木構造における葉ノードから成る文を中間英語文と呼ぶ. さらに, 中間英語文からは冠詞 (the, a, an)が消去されており, 逆に, 日本語の助詞 (が (ga), 図 1 事後並べ替えによる機械翻訳方式の流れ 図 2 主辞後置変換規則による中間英語データの作成例 ($ telescope $) \rightarrow \mathrm{N}($ telescope) のような単一規則は解析効率を考慮して全て除去している. } は (wa),を (wo))が挿入されているが,これらは日本語文との単語対応をとりやすくするためである。削除された冠詞はそれが先頭に挿入される句を表す品詞ないしは非終端記号にマークしている。例えば, $\mathrm{N}$ (telescope)“a/an”である。文献 (Goto et al. 2012) はこのような削除した冠詞のマークを行っていないが,提案手法では削除した冠詞の挿入を構文解析の朹組みとして定式化するため, このようなマークを行っている. \#や冠詞マークを使うことで, 図 2 の右図に示す中間英語木から元の英語文を復元することは可能である。よって, 中間英語木から学習した構文解析器によって, 翻訳器が出力した中間英語文に中間英語木構造を自動推定することで, 機械翻訳の単語並べ替えを行うことができる. ## 3 シフトリデュース構文解析による単語並べ替えと冠詞生成 ## 3.1 単一言語の Inversion Transduction 文法 第 2 節で説明した単語並べ替え(及び,冠詞生成)問題は,文献(Tromble and Eisner 2009; DeNero and Uszkoreit 2011) などで言及されているように, Inversion trasduction 文法 (ITG) (Wu 1997) と関連付けられる。本来, ITG は 2 言語の構文解析 (biparsing) を扱う枠組みであるが,単語並べ替え問題を扱う場合, 1 言語の構文解析として定式化する点に注意する(単一言語の ITG). 単一言語の ITG $G$ は $G=(V, T, P, I, \mathrm{TOP})$ から成る. ここで $V$ は非終端記号, 及び, 品詞の集合, $T$ は終端記号の集合, $P$ は生成規則の集合, $I$ は冠詞挿入 (“the”, “a/an”, “no article”) を行う非終端記号及び品詞の候補集合, TOP は開始記号である. 生成規則の集合 $P$ は $ \mathrm{X} \rightarrow w, \quad \mathrm{X} \rightarrow \mathrm{YZ}, \quad \mathrm{X}^{\#} \rightarrow \mathrm{YZ}, \quad \mathrm{TOP} \rightarrow \mathrm{X} \mid \mathrm{X}^{\#} $ の形式を持つ規則から構成される $(w \in T, \mathrm{X}, \mathrm{X} \#, \mathrm{Y}, \mathrm{Z} \in V)$. 最初の規則は単語 $w$ を生成する語彙生成規則, 次の 2 つは 2 分生成規則, 最後は終了規則である. ## 3.2 シフトリデュース構文解析 単一言語の ITG に対するシフトリデュース構文解析法を定義する。本稿で用いる記法は, 文献 (Huang and Sagae 2010) や (Zhang and Clark 2011) を参考にしているため, 以下の定義を読解する上で,それらを参考にすると良いだろう。 シフトリデュース構文解析は状態とアクションを使って解析を進める。基本的な動作原理は, まず,入力文 $W=w_{1} \ldots w_{|W|}$ をバッファ $B$ に積み込み(慣習に従い,左端が先頭), シフトと呼ばれるアクションによって, バッファの先頭単語に語彙生成規則を適用して, 状態が持つスタックの先頭へと移す。そして, リデュースと呼ばれるアクションを使って, 状態が持つスタックの先頭 2 つの要素に対して 2 分生成規則を適用して, 構文木を組み上げていく. 本稿で はさらに,挿入アクションを使って,冠詞の生成問題も同時にモデル化する. シフトリデュース構文解析における状態 $p$ は $ p:[\ell:\langle i, j, S\rangle: \pi] $ として定義され, $\ell$ はステップ数, $S$ はスタックを表す.スタックは $\ldots\left|s_{1}\right| s_{0}$ を要素に持ち,各要素は部分解析木を表現する。慣習に従い,スタックの要素は右端を先頭とし,各要素を|で区切る,i $i$ はタック先頭要素 $s_{0}$ が持つ部分解析木の左端単語の $W$ 中での位置インデックスを表し, $j$ はバッファ $B$ の先頭単語の $W$ 中での位置インデックスを表す. $\pi$ は予測前状態へのポインタ集合である。予測前状態とは, 現状態の $s_{0}$ が構築される直前の状態のことであり, $\pi$ はそこへのバックポインタを保持する。 $\pi$ が集合となるのは, 文献 (Huang and Sagae 2010)の動的計画法により状態の結合が起こると, $\pi$ をも一方の状態の $\pi$ へと結合するからである ${ }^{3}$. 各スタックの要素は以下の部分解析木に関する変数を持つ. $ s=\left.\langle\mathrm{H}, h, w_{\text {left }}, w_{\text {right }}, a\right.\rangle $ ここで $\mathrm{H}$ とは $s$ が持つ部分解析木のルートにある非終端記号または品詞ラベルの変数を表す. $h$ は $\mathrm{H}$ に付随する主辞単語の $W$ 中のインデックスを表す変数である, $a$ は “the", “a/an”, “no article",または null が割り当てられる変数を示している $4 . w_{\text {left }}$ と $w_{\text {right }}$ は部分解析木が覆う並べ替え文字列の左端と右端単語を表す変数である(解析時に並べ替えが起こったとき, $w_{l \text { left }}$ と $w_{\text {right }}$ だけを明示的に並べ替えることに注意)s喓素 $*$ は $s . *$ として参照する. 図 3 には状態の説明図を示す,以下のアクションに関する説明が煩雑になることを防ぐため, スタック要素の定義から $\mathrm{L}, \mathrm{R}, w_{l}$ は除いたが, 後述する識別モデルの素性にはこれらを利用する. Lは $\mathrm{H}$ の左側の子供となる非終端記号, $\mathrm{R}$ は右側の子供となる非終端記号, $w_{l}$ は L 付随する主辞単語の $W$ 中の位置インデックスを表す変数である. 図 3 状態定義の説明図: 慣習上,スタックは右端,バッファは左端が先頭とする. ^{3} \pi$ の結合は, シフトで作られた状態同士が結合されたときに起こる. 詳細は文献 (Huang and Sagae 2010) を参照. 4 "no article”と null を区別し, 一度“no article” が插入れれも, “the”や“a/an”の㨁入が行えるようにしている. } 提案手法はシフト-X, 挿入- $x$, リデュース MR-X, リデュース $\mathrm{SR}-\mathrm{X}$ , 終了の 5 種類のアクションを持つ。以下,各アクションは推論規則 $ \frac{\text { 前状態 } p}{\text { 後状態 } p^{\prime}} \text { 条件部 } $ を使って定義する. 条件部にはアクションの適用条件を記述し, 状態 $p$ にアクションを適用すると, 状態 $p^{\prime}$ になことを表す. 解析は初期状態 $p_{0}:[0:\langle 0,1, \epsilon\rangle: \emptyset]$ から始まり, 終了アクションによって導かれる終了状態に至るまで続ける。 ・ シフト-X: バッファの先頭単語をスタックに積み, 品詞を割り当てる. $ \frac{p:\left[\ell:\left.\langle i, j, S \mid s_{0}^{\prime}\right.\rangle: \pi\right]}{\left.p^{\prime}:\left[\ell+1:\left.\langle j, j+1, S\left|s_{0}^{\prime}\right| s_{0}\right)\right.\rangle:\{p\}\right]} \quad \mathrm{X} \rightarrow w_{j} \in P $ ここで $s_{0}$ は $\mathrm{H}=\mathrm{X}, \quad h=j, \quad w_{\text {left }}=w_{j}, w_{\text {right }}=w_{j}, \quad a=\operatorname{null}$ となり, 単語 $w_{j}$ に品詞 $\mathrm{X}$ が割当られたことを意味する。 - 挿入- $x$ : 現在の状態が持つスタック先頭要素の部分解析木が覆う単語列の先頭に “the", "a/an", “no articles”のいずれか(変数 $x$ で表す)を挿入する操作を行う. $ \frac{\left.\left.p:\left[\ell:\langle i, j, S| s_{0}^{\prime}\right)\right.\rangle: \pi\right]}{p^{\prime}:\left[\ell+1:\left.\langle i, j, S \mid s_{0}\right.\rangle: \pi\right]} s_{0}^{\prime} \cdot \mathrm{X} \in I \wedge $ $ \left(s_{0}^{\prime} \cdot a=\text { null } \| x \neq \text { "no article" } \wedge s_{0}^{\prime} \cdot a \neq \text { "the" } \wedge s_{0}^{\prime} \cdot a \neq \text { "a/an" }\right) $ ここで $s_{0}$ は $\mathrm{H}=s_{0}^{\prime} \cdot \mathrm{H}, \quad h=s_{0}^{\prime} \cdot h, \quad w_{\text {left }}=s_{0}^{\prime} \cdot w_{\text {left }}, w_{\text {right }}=s_{0}^{\prime} \cdot w_{\text {right }}, \quad a=x$ となる. アクションの適用条件で $s_{0}^{\prime}=$ null は現状態でまだ一度も冠詞挿入が行われていないことを意味し, “the”, “a/an", “no article”が代入できる。一方, すでに“no article”が挿入された位置には, 条件 $x \neq$ "no article" $\wedge s_{0}^{\prime} \cdot a \neq$ “the" $\wedge s_{0}^{\prime} \cdot a \neq$ “a/an”によって, “the" か “a/an”のみ挿入可能で,そのいずれかを挿入以後,その位置には冠詞挿入は行えない. ・リデュース:リデュース MR-Xとリデュース SR-X\#の 2 種類を定義する. これらは同じ形式の推論規則で表記できる。 $ \frac{q:\left[-:\left.\langle k, i, S^{\prime} \mid s_{1}^{\prime}\right.\rangle: \pi^{\prime}\right] \quad p:\left[\ell:\left.\langle i, j, S \mid s_{0}^{\prime}\right.\rangle: \pi\right]}{p^{\prime}:\left[\ell+1:\left.\langle k, j, S^{\prime} \mid s_{0}\right.\rangle: \pi^{\prime}\right]} \mathrm{X} \rightarrow \mathrm{YZ} \in P \wedge q \in \pi $ リデュースは $s_{0}^{\prime}$ と $s_{1}^{\prime}$ を文法規則 $\mathrm{X} \rightarrow \mathrm{Y} \mathrm{Z}$ によって結合し, 新たなスタック要素 $s_{0}$ を作り出す.リデュース MR-Xでは $ s_{0}=\left.\langle\mathrm{X}, s_{0}^{\prime} \cdot h, s_{1}^{\prime} \cdot w_{\text {left }}, s_{0}^{\prime} \cdot w_{\text {right }}, s_{1}^{\prime} \cdot a\right.\rangle $ を新たに作り出す. 新たな非終端記号は $\mathrm{X}$ となり, その主辞単語は $s_{0} . h=s_{0}^{\prime} . h$ として, $\mathrm{Z}$ の主辞単語の位置インデックスを代入する. リデュース MR は非終端記号 $\mathrm{Y}$ と Z が覆う 2 つの句をそのままの並びで結合するため, $\mathrm{X}$ が覆う句の左端は $s_{0} \cdot w_{l e f t}=s_{1}^{\prime} \cdot w_{l e f t}$, 右端は $s_{0} \cdot w_{r i g h t}=s_{0}^{\prime} \cdot w_{\text {right }}$ となる. 冠詞変数は $s_{0} \cdot a=s_{1}^{\prime} \cdot a$ として, Y の先頭に挿入された冠詞変数が代入される. リデュース SR-X\# は MR-X とは逆に,文法規則 $\mathrm{X} \# \rightarrow \mathrm{Y} Z$ によってYとZの句を並べ替えて結合し,新たなスタック要素 $ s_{0}=\left.\langle\mathrm{X}^{\#}, s_{0}^{\prime} \cdot h, s_{0}^{\prime} \cdot w_{\text {left }}, s_{1}^{\prime} \cdot w_{\text {right }}, s_{0}^{\prime} \cdot a\right.\rangle $ を作り出す。新たな非終端記号は $\mathrm{X} \#$ となり,その主辞単語はリデュース $\mathrm{MR}$ 同様に $s_{0} . h=s_{0}^{\prime} . h$ として, $\mathrm{Z}$ の主辞単語の位置インデックスを代入する. リデュース $\mathrm{SR}$ は非終端記号 Y と Z が覆う 2 つの句を並べ替えて結合するため, $\mathrm{X} \#$ が覆う句の左端は $s_{0} \cdot w_{\text {left }}=s_{0}^{\prime} \cdot w_{\text {left }}$, 右端は $s_{0} \cdot w_{\text {right }}=s_{1}^{\prime} \cdot w_{\text {right }}$ となる. 冠詞変数は $s_{0} \cdot a=s_{0}^{\prime} \cdot a$ として, $\mathrm{Z}$ の先頭に挿入された冠詞変数が代入される. - 終了:シフトやリデュースをこれ以上適用できなくなり, 終了規則が適用できる場合, $ \frac{p:\left[\ell:\left.\langle 0,|W|, s_{0}^{\prime}\right.\rangle: \pi\right]}{\left.p^{\prime}:\left[\ell+1:\left.\langle 0,|W|, s_{0}\right)\right.\rangle: \pi\right]} \quad \text { TOP } \rightarrow \mathrm{X} \mid \mathrm{X}^{\#} \in P $ として,終了状態 $p^{\prime}$ を導く.ただし, $s_{0}^{\prime} \cdot \mathrm{H}=\mathrm{X} \mid \mathrm{X}^{\#}, s_{0} \cdot \mathrm{H}=\mathrm{TOP}$ とする.終了状態 $p^{\prime}$ からバックトレースすることで,中間英語木,または,英語文は出力できる. 図 4 に解析の例を示す。図 4 では,解析の過程が全て理解できるよう,スタック要素を省略せず,解析部分木を全て示した。 入力文 $W$ が与えられたとき,初期状態 $p_{0}$ から終了状態に至る状態とアクションの系列を完全アクション状態系列と呼び, $ y=\left(\left(p_{0}, a_{0}\right),\left(p_{1}, a_{1}\right), \ldots,\left(p_{|y|-1}, a_{|y|-1}\right),\left(p_{|y|},-\right)\right) $ と定義すると,シフトリデュース構文解析の探索問題は以下のように定式化される. $ \hat{y}=\underset{y \in \mathcal{Y}(W)}{\arg \max } \sum_{\ell=0}^{|y|-1} \operatorname{Score}\left(p_{\ell}, a_{\ell}\right) $ ここで $\mathcal{Y}(W)$ は, $W$ に対して解析可能な全ての完全アクション状態系列の集合を表す。一般に, $\operatorname{Score}(p, a)$ は識別モデルによってモデル化される. $ \operatorname{Score}(p, a)=\Phi(p, a) \cdot \vec{\alpha} $ 素性関数 $\Phi$ は状態 $p$ とアクション $a$ を素性べクトル $\Phi(p, a)$ へ写像する関数である, 素性べクトルは発火した素性が対応する次元に 1 ,それ以外は 0 をとる。 $\vec{\alpha}$ は重みべクトルで,素性べクトルとの内積をスコアとする。表 1 には本稿の実験で使用した素性テンプレートを示す。。 によって結合された要素は組み合わせ素性を表し, 状態 $p$ が持つ要素から全て計算される。さらに,全ての素性は $a$ を結合して,状態 $p$ でアクション $a$ を行う判断をモ゙ル化している。例 図 4 中間英語文 “girl wo saw” に対する提案手法の動作事例 えば,図 4 の step5 の状態でレデュース SR-VP\# アクションを行う場合, 素性テンプレートの $s_{0} \cdot \mathrm{H} \circ s_{1} \mathrm{H} \circ s_{1}$.L は $\mathrm{V} \circ \mathrm{NP} \circ \mathrm{N} \circ$ レデュース $\mathrm{SR}-\mathrm{VP} \#$ という素性になり, 素性関数 $\Phi$ によって素性べクトルの対応する次元へ写像される。表の最も下の行は並べ替え文字列に関わる素性で,本稿ではこれらを非局所素性 (non-local feature, nf) と呼ぶ. 実装上では,解析性能を高めるため,ビームサーチ (Zhang and Clark 2008) により,各ステップではスコアが上位 beam 個の状態をビームスタックに保持して解析を行う. ## 3.3 曖昧性除去によるビームサーチの効率改善 単一言語のITGに従って, ある文字列の並べ替えを行う場合, 様々な導出過程から同一の並べ替え文字列を作り出すことができる。例えば,図 5 のような例である. 表 1 素性テンプレート \\ $t$ は品詞夕グを表す。○は要素の結合を表す. 図 5 複数の導出による並べ替えの曖昧性 これは元の文 “e1 e2 e3 e4”を並べ替えない場合のITG木が複数存在することを示している. この現象を Spurious Ambiguity の問題と呼ぶ. 文献 (Wu 1997)では Spurious Ambiguityを解消するために, 左分岐重視 (Left heavy) の ITG を提案しているが, 図 2 のような一般的な複数の非終端記号を持つ文法規則において,一意な構造に変換する方法は自明ではない. シフトリデュース構文解析におけるビームサーチでは, Spurious Ambiguity が及ぼす問題は大きい,なぜなら,同じ並べ替え文字列を表現した元長な状態により,ビームスタックが無駄に消費されるからである.実際にこのことは第 4.2 節の実験で示す. 提案法では, この問題に対応するため, 2 つの手法を活用する.1つは文献 (Huang and Sagae 2010)の動的計画法に基づくシフトリデュース構文解析法を適用することである。この手法では,識別モデルの素性ベクトルが同じになる状態を結合し,ビームスタック上に不要な解を保持する必要がなくなる。そのため,壳長な状態の多くを効率的に抑えることができる 5 . もう1つは並べ替え文字列を解析と同時に構築し, ハッシュテーブルによって同じ文字列を  持つ状態を枝刈りする方法である.同じステップにある状態で,並べ替え文字列とスタック要素 $s_{0}$ と $s_{1}$ の部分木のルート非終端記号が全て一致する場合, モデルスコアの低い方の状態を削除する, $s_{0}$ と $s_{1}$ のルート非終端記号を考慮するのは, 解析エラーを軽減するためである. ## $3.4 \mathrm{CKY$ 構文解析との計算量比較} シフトリデュース構文解析は最適解を求められる保証はないが, 入力文長に対して, 線形時間に動作するという利点がある。一方で, CKY 構文解析法は最適解を求めることはできるが, 1 次の主辞・従属辞関係を考慮した場合, 最悪計算量が $O\left(n^{5}|V|^{3}\right)$ に及ぶことが知られている ( $n$ は入力文長, $|V|$ は非終端記号の集合サイズ) (Eisner and Satta 1999). さらに, 単一言語のITGに対して, 第 3.2 節で定義したような並べ替え単語列の左端単語 $w_{l e f t}$ と右端単語 $w_{\text {right }}$ を特徴量(非局所素性)に考慮すると, リデュース MR に対応する CKY 構文解析の推論規則は以下のようになる. $ \frac{\left[i, h, k, \mathrm{X}, w_{\text {left }}, w_{\text {right }}\right]\left[k, h^{\prime}, j, \mathrm{X}^{\prime}, w_{\text {left }}^{\prime}, w_{\text {right }}^{\prime}\right]}{\left[i, h^{\prime}, j, \mathrm{X}^{\prime}, w_{\text {left }}, w_{\text {right }}^{\prime}\right]} \quad \mathrm{X}^{\prime \prime} \rightarrow \mathrm{XX}^{\prime} \in P $ ここで $\left[i, h, k, \mathrm{X}, w_{\text {left }}, w_{\text {right }}\right]$ はある 1 つの CKYアイテムを表し, $i, k$ はアイテムが表現する解析結果の左端と右端のインデックス, $h$ は主辞のインデックスを表す.この推論規則では, 長さ $n$ に対する 9 つの自由変数 $i, h, k, h^{\prime}, j, w_{\text {left }}, w_{\text {right }}, w_{\text {left }}^{\prime}, w_{\text {right }}^{\prime}$, 非終端記号の集合 $V$ から 3 つの記号 $\mathrm{X}, \mathrm{X}, \mathrm{X}$ ”を考慮するため, 計算量は $O\left(n^{9}|V|^{3}\right)$ となる. 本稿では, 主辞は必ず後置することを仮定しているため, $h$ と $h^{\prime}$ はそれぞれ $k$ とから参照でき, 計算量は $O\left(n^{7}|V|^{3}\right)$ となる. $N$-gram を考慮した構文解析がこのような高い計算量に及ぶことは, 文献 (Li, Zhang, Che, Liu, Chen, and Li 2011)の係り受けと品詞夕グ付けの同時解析でも言及されている(品詞タグ付けの場合, 連接部分の計算量は $n$ ではなく, 品詞の候補数となる). CKY 構文解析ではある CKY アイテムに対して,ビタビスコア $\beta$ を最大にする解をボトムアップに計算していく. $ \begin{array}{r} \beta\left(\left[i, j, \mathrm{X}^{\prime \prime}, w_{\text {left }}, w_{\text {right }}^{\prime}\right]\right)=\max _{k, w_{\text {right }}, w_{\text {left }}^{\prime}, \mathrm{X}, \mathrm{X}}\left.\{\beta\left(\left[i, k, \mathrm{X}, w_{\text {left }}, w_{\text {right }}\right]\right) \cdot \beta\left(\left[k, j, \mathrm{X}^{\prime}, w_{\text {left }}^{\prime}, w_{\text {right }}^{\prime}\right]\right)\right. \\ \left.\cdot p\left(\mathrm{X}^{\prime \prime} \rightarrow \mathrm{XX}^{\prime}\right) \cdot n f\left(w_{\text {right }}, w_{\text {left }}^{\prime}\right)\right.\} . \end{array} $ $p$ は規則のスコア, $n f$ は並べ替え文字列から計算される 2-gram モデルなどの非局所素性に関わるスコアである. $N$-gram を考慮した CKY 構文解析の計算量は Hook Trick と呼ばれる分配法則によってさらに削減できる (Huang, Zhang, and Gildea 2005). Hook Trick は式 (4)の右辺に対して,次のような式変換を行う(max 演算は積に対して分配的であることに従う). $ \begin{aligned} \max _{k, w_{\text {left }}^{\prime}, \mathrm{X}},\left.\{\max _{w_{\text {right }}, \mathrm{X}}\left.\{\beta\left(\left[i, k, \mathrm{X}, w_{\text {left }}, w_{\text {right }}\right]\right) \cdot p\left(\mathrm{X}^{\prime \prime} \rightarrow \mathrm{XX}^{\prime}\right) \cdot n f\left(w_{\text {right }}, w_{\text {left }}^{\prime}\right)\right.\}\right. \\ \left.\cdot \beta\left(\left[k, j, \mathrm{X}^{\prime}, w_{\text {left }}^{\prime}, w_{\text {right }}^{\prime}\right]\right)\right.\} \end{aligned} $ 内部 max 演算では $i, j, k, w_{l e f t}, w_{r i g h t}, w_{l e f t}^{\prime}$ と $\mathrm{X}, \mathrm{X}^{\prime}, \mathrm{X}^{\prime \prime}$ を考慮し, 外部 $\max$ 演算では $i, j, k, w_{l e f t}$, $w_{\text {left }}^{\prime}, w_{\text {right }}^{\prime}$ と X',X"を考慮する.これより計算量は $O\left(n^{7}|V|^{3}\right)$ から $O\left(n^{6}|V|^{3}+n^{6}|V|^{2}\right)$ となる. しかし, このような計算量は一般にコストが大きく, 提案法と比較して, 実用的ではない. 非局所素性を考慮した CKY 構文解析は Cube Pruning と呼ばれる近似解法 (Huang and Chiang 2007) を使うと, $O\left(n^{3}|V|^{3}\right)$ の CKY 構文解析として解くことはできるが, 最適解が求められる保証はなくなる。これより, CKY 法や同様の原理(動的計画法)に基づくBerkeley 構文解析などと比較して, 提案法は単語並べ替え問題において, 実用性の観点から大きな利点がある. ## 4 実験 ## 4.1 実験データとツール 実験には NTCIR-9 と NTCIR-10の特許データを使い,日英翻訳を行った.日本語の形態素解析には Mecab 6 を使用した,英語文の語彙化構文木を作成するため, Enju (Miyao and Tsujii 2008) を用いて全ての英語文を解析した.機械翻訳には,デコーダに Moses (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, and Zens 2007), 単語アライメントに GIZA++ (Och and Ney 2003), 言語モデルに SRILM (Stolcke, Zheng, Wang, and Abrash 2011) を用いた。データ及びッールについては表 2 と表 3 にまとめる. Enjuによって解析した語彙化構文木を文献 (Isozaki et al. 2012)の規則によって中間英語木へと変換した,削除した冠詞の挿入マークは,その冠詞を含む句の中で最も葉に近い非終端記号に付与した. 冠詞を含む句の非終端記号がない場合, 品詞に挿入マークを付与した. 日本語の助詞挿入は文献 (Isozaki et al. 2012)に従って行った. 提案手法の単語並べ替えモデルの学習は平均化パーセプトロン (Collins and Roark 2004)で行った. また, 学習データの量が多いため, 素性ハッシング (Shi, Petterson, Dror, Langford, 表 2 NTCIR-9 と NTCIR-10デー夕 表 3 実験に使用したツール  Smola, and Vishwanathan 2009) を使って, 素性計算を高速化した. 提案手法, 及び, 比較手法での冠詞挿入によって “a/an”が挿入された場合,挿入位置の後ろに位置する単語の 1 文字目が母音の場合, an を㨁入し, 子音の場合, aを挿入して翻訳結果を出力した. 日本語助詞は事後並べ替えの解析時には 1 単語として扱い, 翻訳結果の出力時には全て取り除いた. ## 4.2 単語並べ替えに関する実験結果 提案手法の単語並べ替え性能を調べるため, 全訓練デー夕の中間英語木 $3,191,228$ 文からランダムに 300,000 文を抽出し, 並べ替えのための構文解析器を学習した. ただし, 中間英語木において冠詞削除, 及び, 日本語助詞の挿入は行っておらず, ここでは並べ替えのみ(挿入アクションは用いない)を行うようにしている。なぜなら, 冠詞削除や日本語助詞の挿入は翻訳時の単語アライメント性能向上を意図した操作であり, ここでは純粋に提案法の構文解析, 及び,単語並べ替え性能を調べることが目的だからである. 図 6 では提案法を学習したときの学習イテレーションと開発データに対する $\mathrm{F}$ 値の関係, 図 7 には BLEU スコア (Papineni, Roukos, Ward, and Zhu 2002)との関係を示す.F 値の計算は $\mathrm{EVALB}^{7}$ を用いて評価した8. “Base"は通常のビームサーチ, “DP” は動的計画法付きビームサーチ,“Hash”は第 3.3 節で述べたハッシュテーブルによる枝刈りを表し,各システムはビー ム幅 12 で訓練した. 図 6 と図 7 から, “DP” やHash”に比べて, “Base"による学習の効率が悪いことがわかる。図 8 と図 9 では “Base” のビーム幅を $12,24,36$ にしたときの学習イテレー ションと開発データに対する $\mathrm{F}$ 値, 及び, BLEU との関係を示した. これから “Base”による学習は,“DP”や“Hash”よりもビーム幅を大きく設定しなければ,学習が円滑に行えないことがわかる。 表 4 は,NTCIR-9 のテストデータの中間英語文を各システムによって解析したときの BLEU, 図 6 学習のイテレーション回数と開発デー夕に対する $\mathrm{F}$ 値 図 7 学習のイテレーション回数と開発データに対する BLEU スコア  RIBES (Isozaki, Hirao, Duh, Sudoh, and Tsukada 2010), 構文解析性能(再現率,適合率, F 値, 文正解率), 解析時間を示した. 文献 (Goto et al. 2012) は論文から抜粋した数値を示す. Berkeley 構文解析はデフォルト設定で学習し, 6 回の学習イテレーションを行った。結果からは,提案手法のうち “DP” 法が他の手法に比べ,高い性能を達成できることがわかった. 表 5 では,表 1 の非局所素性を全て取り除いた (nf. 無し) モデルを学習し, nf. 有りのモデルと比較した,実験結果からは,非局所素性が並べ替えの性能向上に寄与していることがわかる.表 6 では, $k$-best 出力時に, 出力リストの中にどれだけの種類の文字列があるかを示す. 表 6 図 8 “Base”法の学習時におけるビーム幅と開発データに対する $\mathrm{F}$ 値の関係:テスト時のビーム幅は訓練時と同じに設定 図 9 “Base”法の学習時におけるビーム幅と開発データに対するBLEU スコアの関係:テスト時のビーム幅は訓練時と同じに設定 表 4 NTCIR-9 テストデー夕に対する語順並べ替え, ITG 構文解析性能と解析時間 表 5 非局所素性 (nf.) による構文解析, 及び, 語順並べ替え性能への影響 ビーム幅は全て 12 に設定. 表 $6 k$-best リスト中に存在する文字列種類 文字列種類数の合計 $/ k$-best リストサイズの合計. には,テストデータに対して出力した各 $k$-best リスト中の文字列種類数の合計 $/ k$-best リストサイズの合計を示し, 分子の数が多い程, 多様な並べ替え文字列を出力できることを意味する。例えば,“Base”法の 64-best リストには, 3,4 種類程度の並べ替え文字列しか存在せず, Berkeley 構文解析でも同様に,同じ文字列を表す解析結果を大量に出力しているがわかる。一方, “Hash”法ではこれらの圥長な表現を排除し, 多様な解析結果を出力できている. 以上の実験から,シフトリデュース法による単語並べ替え性能を向上させるには,Spurious Ambiguity の問題に対処し, ビーム幅を効率的に活用することが極めて重要であることがわかった. よって,以下の翻訳実験では,提案法は全て “DP”法を用いて行う。“Hash”は “DP”よりも同じ文字列を多く排除できる一方で,文字列を動的に作り出す必要があり,計算コストが高い. “Hash”法のコスト削減や “DP”法との併用については,今後の課題である. ## 4.3 翻訳に関する実験結果 通常の日英翻訳器は, Mosesの distortion limitを 0, 6, 12, 20 に設定し, 言語モデルには訓練データの全英語文から学習した 6-gram 言語モデルを使用した. Moses の学習は BLEU に対して Minimum error rate training (MERT) (Och 2003) を行った. 単語並べ替えによる翻訳実験では,学習デー夕に中間英語木 $3,191,228$ 文から抽出した中間英語文を使用し,日本語から中間英語文への翻訳モデルを作成した,中間英語文の言語モデルは 6-gram まで学習し, Mosesの distortion limit (dist)は 0 に設定した. Mosesの学習は BLEUに対して MERT で行った。事後並べ替えは翻訳器から出力した中間英語文の 1-best を単語並べ替えモデルで元の英語文にし,評価を行った。 表 7 に提案手法と他の手法の実験結果を示す. 表 7 からは提案手法が文献 (Goto et al. 2012) のモデルを上回る性能を達成していることがわかる. 文献 (Goto et al. 2012)の実験結果は我々の実験によるものではないが,実験に使用したツールやデータは同一のものであることを明記しておく. さらに, 3.2 節で定義した非局所素性 (nf.)を使ったモデル (nf. 有り)と取り除いたモデル (nf. 無し) を比較すると, 非局所素性が有効であることがわかる. BLEU スコアを使って,有意水準 $5 \%$ で 2 項検定を行ったところ, nf. 無しモデルと nf. 有りモデルには有意な差が確認さ れた。また,非局所素性を使うことによる解析時間への影響も少ない. ## 4.4 実験結果の分析 提案手法では単語並べ替えと冠詞挿入を同時に行っているが,それらを同時解析することの利点を分析するため,様々なシステムとの比較を行った.NTCIR-9と-10のテストデータに対する実験結果は表 8 に示す. 単語並べ替えと冠詞生成の同時処理の有効性 (1.2.3.4.) 2. の結果は 1. の結果から冠詞を削除したときの性能を示している,冠詞を削除すると,BLEU 評価尺度による翻訳精度が極端に落ちることがわかる。これは BLEUが $N$-gram 単位で評価を行う尺度だかである。 次に,3.の結果は, $N$-gram 手法によって 2. の翻訳文へ冠詞挿入を行ったときの結果を示し 表 7 システム比較 解析時間は 1 文当たりの平均秒を示している。**は我々の実験によるものではなく, 論文からの引用を意味する. 表 8 単語並べ替えと冠詞插入に関する各システムの精度比較 J-HFE は日本語から中間英語, J-E は日本語から英語への翻訳を意味する. ている. $N$-gram 手法は文献 (Goto et al. 2012) と同様の冠詞挿入手法を意味する ${ }^{9}$. この結果から, $N$-gram 手法によって性能は向上するが,1.の同時解析ほどの性能は得られないことがわかる. 提案手法と $N$-gram 手法による翻訳結果を比較すると,提案手法の方が冠詞挿入を多く行っていることがわかった, $N$-gram 手法では冠詞挿入を行う程, 文が長くなるため, 確率が小さくなり,なるべく短い文が選ばれてしまうためであると考察される. 4. は, Mosesによって日英翻訳を行うとき, 英語データから冠詞を削除し, 翻訳結果出力後に $N$-gram 手法で冠詞挿入した結果を示している。この結果から,単純に冠詞を後編集で挿入するだけでは,翻訳性能を改善できないことがわかる. 日英対訳データから冠詞を除去することの意味 (1.5.) 5. では, 冠詞を英語文から削除せず,提案手法で単語並べ替えのみを行った結果を示している。このアプローチでは翻訳性能を向上させることができなかった. この理由は中間英語文で “the the the”のように冠詞が連続して出現してしまうため,翻訳文にも不要な冠詞が出現してしまうからである. Berkeley 構文解析器との比較 (1. 2. 3. 6. 7.) Berkeley 構文解析器と提案手法を比較する. Berkeley 構文解析器は提案手法と同様の 500,000 文を使って学習した. 2. 3. と 6. 7.の結果から, Berkeley 構文解析器による単語並べ替え性能と提案手法による単語並べ替えの性能はほぼ同等であることがわかる,一方,1.と 7.の結果に対して,BLEU スコアを使って,有意水準 $5 \%$ で 2 項検定を行ったところ, それらには有意な差が確認できた。これは提案法の冠詞生成が $N$-gram 冠詞生成法よりも高い精度であるためと言える. また, Berkeley 構文解析器と提案手法の解析速度を比較すると, 提案手法のビーム幅を 156 に設定したときにちょうど同程度の解析時間となる。さらに, 提案手法は冠詞挿入も行っているのに対し, Berkeley 構文解析器は $N$-gram 手法による冠詞挿入を未だ行っていない時点での解析時間であり,提案法が従来法よりも効率的に動作することがわかる. ## 5 関連文献 事後並べ替え手法は須藤ら (Sudoh et al. 2011) によって提案された. 須藤らは日本語文から中間英語文への翻訳を行った後,再び機械翻訳によって中間英語文を英語文へと翻訳している.後藤らは中間英語文から英語文への並べ替えを構文解析によって行うことで, 須藤らの手法を  上回る精度を達成した。本稿でも同様に,構文解析によって事後並べ替えをモデル化した.提案法はシフトリデュース構文解析法を基盤にしており,単語並べ替えと冠詞生成を同時に処理する仕組みや非局所素性の導入を行うことで,精度と解析効率をさらに向上させた。これらの点から,提案法は後藤らの手法と明確に区別できる. 文献 (Knight and Chander 1994) では,機械翻訳の後編集において冠詞挿入を行うことの重要性を提唱し,英語文への冠詞挿入を決定木によって行った.後続的にいくつかの文献で英語文への冠詞挿入を機械学習によって解く手法が提案されているが (Minnen, Bond, and Copestake 2000; Turner and Charniak 2007), 構文解析と冠詞挿入を同時に行う枠組みを提唱したのは,著者らの知る限り,本稿が初めてである。 提案手法で採用したシフトリデュース構文解析法は様々な文法理論の構文解析に応用されている。例えば,依存文法 (Yamada and Matsumoto 2003; Nivre 2003; Huang and Sagae 2010),文脈自由文法 (Sagae and Lavie 2006), 組み合わせ範疇文法 (Zhang and Clark 2011) などへの応用がある. シフトリデュース構文解析法を単一言語のITGへ応用した例は本稿が初めてである. ## 6 まとめと今後の課題 本稿では,シフトリデュース構文解析法をべースにした単語並べ替えと冠詞生成の同時逐次処理法を提案し,日英機械翻訳における事後並び替え問題に適用した。日英特許翻訳タスクを使った実験から,提案法は文献 (Goto et al. 2012) における事後並べ替え法の解析精度と効率の問題を改善できることがわかった,特に,解析効率の面では,理論上の計算量,及び,実際の解析速度において, 従来法より優れることを示した. また, 冠詞生成を単語並べ替えと同時にモデル化することが翻訳精度の向上につながることを示した. 提案法は,本質的には事後並べ替えだけでなく,事前並べ替えにも適用可能である。たたし,文献 (Isozaki et al. 2012)の主辞後置変換規則を用いずに,モデルを学習するためのデータを作成する方法は自明ではない。 よって, 単語アライメントと構文木から単語並べ替え構文解析器の学習データを作るための手法開発が今後の課題である。また, 提案手法は翻訳結果の 1-best に対して,動作する仕組みであったが,今後は多様な翻訳結果に対して動作させるため,翻訳ラティスを解析する仕組みに拡張することが課題となる. ## 参考文献 Chiang, D. (2005). "A Hierarchical Phrase-based Model for Statistical Machine Translation." In Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics, pp. 263-270. Collins, M., Koehn, P., and Kučerová, I. (2005). "Clause Restructuring for Statistical Machine Translation." In Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics, pp. 531-540. Collins, M. and Roark, B. (2004). "Incremental Parsing with the Perceptron Algorithm." In Proceedings of the 42nd Annual Meeting on Association for Computational Linguistics, p. 111. DeNero, J. and Uszkoreit, J. (2011). "Inducing Sentence Structure from Parallel Corpora for Reordering." In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 193-203. Eisner, J. and Satta, G. (1999). "Efficient Parsing for Bilexical Context-Free Grammars and Head Automaton Grammars." In Proceedings of the 37st Annual Meeting on Association for Compu tational Linguistics, pp. 457-464. Galley, M., Graehl, J., Knight, K., Marcu, D., DeNeefe, S., Wang, W., and Thayer, I. (2006). "Scalable Inference and Training of Context-rich Syntactic Translation Models." In Proceedings of the 21st International Conference on Computational Linguistics and the 44th annual meeting of the Association for Computational Linguistics, pp. 961-968. Goto, I., Chow, K. P., Lu, B., Sumita, E., and Tsou, B. K. (2013). "Overview of the Patent Machine Translation Task at the NTCIR-10 Workshop." In Proceedings of NTCIR, pp. 260-286. Goto, I., Lu, B., Chow, K. P., Sumita, E., and Tsou, B. K. (2011). "Overview of the Patent Machine Translation Task at the NTCIR-9 Workshop." In Proceedings of NTCIR, pp. 559-578. Goto, I., Utiyama, M., and Sumita, E. (2012). "Post-ordering by Parsing for Japanese-English Statistical Machine Translation." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics, pp. 311-316. Graehl, J. and Knight, K. (2004). "Training Tree Transducers." In Proceedings of HLT-NAACL, pp. 105-112. Huang, L. and Chiang, D. (2007). "Forest Rescoring: Faster Decoding with Integrated Language Models." In Proceedings of the 45th Annual Meeting on Association for Computational Linguistics, Vol. 45, p. 144. Huang, L. and Sagae, K. (2010). "Dynamic Programming for Linear-time Incremental Parsing." In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, pp. 1077-1086. Huang, L., Zhang, H., and Gildea, D. (2005). "Machine Translation as Lexicalized Parsing with Hooks." In Proceedings of the Ninth International Workshop on Parsing Technology, pp. 65-73. Isozaki, H., Hirao, T., Duh, K., Sudoh, K., and Tsukada, H. (2010). "Automatic Evaluation of Translation Quality for Distant Language pairs." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 944-952. Association for Computational Linguistics. Isozaki, H., Sudoh, K., Tsukada, H., and Duh, K. (2012). "HPSG-based Preprocessing for Englishto-Japanese Translation." ACM Transactions on Asian Language Information Processing (TALIP), 11 (3). Knight, K. and Chander, I. (1994). "Automated Postediting of Documents." In Proceedings of the National Conference on Artificial Intelligence, p. 779. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., and Zens, R. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the ACL on Interactive Poster and Demonstration Sessions, pp. 177-180. Koehn, P., Och, F., and Marcu, D. (2003). "Statistical Phrase-based translation." In Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology-Volume 1, pp. 48-54. Li, Z., Zhang, M., Che, W., Liu, T., Chen, W., and Li, H. (2011). "Joint Models for Chinese POS Tagging and Dependency Parsing." In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 1180-1191. Association for Computational Linguistics. Minnen, G., Bond, F., and Copestake, A. (2000). "Memory-based Learning for Article Generation." In Proceedings of the 2nd workshop on Learning language in logic and the 4th conference on Computational natural language learning-Volume 7, pp. 43-48. Miyao, Y. and Tsujii, J. (2008). "Feature Forest Models for Probabilistic HPSG Parsing." Computational Linguistics, 34 (1), pp. 35-80. Nivre, J. (2003). "An Efficient Algorithm for Projective Dependency Parsing." In Proceedings of the 8th International Workshop on Parsing Technologies. Och, F. J. (2003). "Minimum Error Rate Training in Statistical Machine Translation." In Proceedings of the 41st Annual Meeting on Association for Computational Linguistics-Volume 1, pp. 160-167. Association for Computational Linguistics. Och, F. J. and Ney, H. (2003). "A Systematic Comparison of Various Statistical Alignment Models." Computational linguistics, 29 (1), pp. 19-51. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th annual meeting on association for computational linguistics, pp. 311-318. Association for Computational Linguistics. Petrov, S. and Klein, D. (2007). "Improved Inference for Unlexicalized Parsing." In Human lan- guage technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics, pp. 404-411. Sagae, K. and Lavie, A. (2006). "A Best-first Probabilistic Shift-reduce Parser." In Proceedings of the COLING/ACL on Main Conference Poster Sessions, pp. 691-698. Shi, Q., Petterson, J., Dror, G., Langford, J., Smola, A., and Vishwanathan, S. (2009). "Hash Kernels for Structured Data." The Journal of Machine Learning Research, pp. 2615-2637. Stolcke, A., Zheng, J., Wang, W., and Abrash, V. (2011). "SRILM at Sixteen: Update and Outlook." In Proceedings of IEEE Automatic Speech Recognition and Understanding Workshop. Sudoh, K., Wu, X., Duh, K., Tsukada, H., and Nagata, M. (2011). "Post-ordering in Statistical Machine Translation." In Proceedings of MT Summit. Tromble, R. and Eisner, J. (2009). "Learning Linear Ordering Problems for Better Translation." In Proceedings of the 2009 Conference on Empirical Methods in Natural Language Processing: Volume 2, pp. 1007-1016. Turner, J. and Charniak, E. (2007). "Language Modeling for Determiner Selection." In Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Companion Volume, Short Papers, pp. 177-180. Association for Computational Linguistics. Wu, D. (1997). "Stochastic Inversion Transduction Grammars and Bilingual Parsing of Parallel Corpora." Computational Linguistics, 23 (3), pp. 377-403. Yamada, H. and Matsumoto, Y. (2003). "Statistical Dependency Analysis with Support Vector Machines." In Proceedings of the 8th International Workshop on Parsing Technologies, Vol. 3. Zhang, Y. and Clark, S. (2008). "A Tale of Two Parsers: Investigating and Combining Graphbased and Transition-based Dependency Parsing using Beam-Search." In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing, pp. 562-571. Zhang, Y. and Clark, S. (2011). "Shift-reduce CCG Parsing." In Proceedings of the 49th Meeting of the Association for Computational Linguistics, pp. 683-692. ## 略歴 林克彦:2013 年, 奈良先端科学技術大学院大学博士後期課程修了. 現在, NTTコミュニケーション科学基礎研究所に所属. 博士 (工学). 構文解析, 機械翻訳に関する研究に従事. ACL, 情報処理学会, 言語処理学会各会員. 須藤克仁 : 2000 年, 京都大学工学部卒業. 2002 年, 同大大学院情報学研究科修士課程修了. 同年, 日本電信電話株式会社入社. 音声言語処理, 統計的機械翻訳に関する研究に従事. ACL, 情報処理学会, 言語処理学会, 日本音響学 会各会員. 塚田元:1987 年, 東京工業大学理学部情報科学科卒業. 1989 年, 同大学院理工学研究科修士課程修了. 同年, 日本電信電話株式会社入社. 現在, NTT コミュニケーション科学基礎研究所に所属. 統計的機械翻訳の研究に従事. $\mathrm{ACL}$, 電子情報通信学会, 情報処理学会, 人工知能学会, 言語処理学会, 日本音響学会各会員. 鈴木潤:2001 年, 慶應義塾大学大学院理工学研究科計算機科学専攻修士課程修了. 同年, 日本電信電話株式会社入社. 2005 年奈良先端大学院大学博士後期課程修了. 2008 2009 年 MIT CSAIL 客員研究員. 現在, NTT コミュニケーション科学基礎研究所に所属. 博士 (工学). 主として自然言語処理, 機械学習に関する研究に従事. ACL, 情報処理学会, 言語処理学会各会員. 永田昌明:1987 年, 京都大学大学院工学研究科修士課程修了. 同年, 日本電信電話株式会社入社. 現在, NTTコミュニケーション科学研究所主幹研究員 (上席特別研究員).博士 (工学).統計的自然言語処理の研究に従事. ACL,電子情報通信学会, 情報処理学会, 人工知能学会, 言語処理学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 組合せ最適化入門:線形計画から整数計画まで ## 梅谷 俊治 $\dagger$ \begin{abstract} 線形計画問題において変数が整数値を取る制約を持つ整数計画問題は, 産業や学術の幅広い分野における現実問題を定式化できる汎用的な最適化問題の 1 つであり,最近では分枝限定法に様々なアイデアを盛り达んだ高性能な整数計画ソルバーがいくつか公開されている。しかし, 整数計画問題では線形式のみを用いて現実問題を記述する必要があるため, 数理最適化の専門家ではない利用者にとって現実問題を整数計画問題に定式化することは決して容易な作業ではない. 本論文では, 数理最適化の専門家ではない利用者が現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説する。 キーワード : 組合せ最適化, 線形計画, 整数計画, 数理最適化 \end{abstract} ## Introduction to Combinatorial Optimization: Model Building in Integer Programming \author{ ShUnJI UMEtani ${ }^{\dagger}$ } The integer programming (IP) model is a general-purpose optimization model that can formulate a surprisingly wide class of real applications using integer variables in linear programming (LP) models. Recent development in IP software systems has significantly improved our ability to solve large-scale instances. However, it is still difficult for most non-expert users to formulate real applications into IP models, because all conditions need to be written in linear inequalities. This paper demonstrates how to use IP software systems and formulate real applications into IP models. Key Words: Combinatorial optimization, Linear Programming, Integer Programming, Mathematical optimization ## 1 はじめに 線形計画問題において全てもしくは一部の変数が整数値を取る制約を持つ(混合)整数計画問題は, 産業や学術の幅広い分野における現実問題を定式化できる汎用的な最適化問題の 1 つである。 近年, 整数計画ソルバー(整数計画問題を解くソフトウェア)の進歩は著しく, 現在では数千変数から数万変数におよぶ実務上の最適化問題が次々と解決されている。また, 商用・非商用を含めて多数の整数計画ソルバーが公開されており, 整数計画問題を解くアルゴリズムを知らなくても定式化さえできれば整数計画ソルバーを利用できるようになったため, 数理最  適化以外の分野においても整数計画ソルバーを利用した研究が急速に普及している. 最適化問題は, 与えられた制約条件の下で目的関数 $f(\boldsymbol{x})$ の值を最小にする解 $\boldsymbol{x}$ を 1 つ求める問題であり, 線形計画問題は,目的関数が線形で制約条件が線形等式や線形不等式で記述される最も基本的な最適化問題である。 通常の線形計画問題では, 全ての変数は連続的な実数値を取るが, 全ての変数が離散的な整数值のみを取る線形計画問題は整数(線形)計画問題と呼ばれる。また, 一部の変数が整数値のみを取る場合は混合整数計画問題, 全ての変数が $\{0,1\}$ の 2 値のみを取る場合は 0-1 整数計画問題と呼ばれる。最近では非線形の問題も含めて整数計画問題と呼ばれる場合が多いが, 本論文では線形の問題のみを整数計画問題と呼ぶ.また, 混合整数計画問題や 0-1 整数計画問題も区別せずに整数計画問題と呼ぶ. 整数変数は離散的な值を取る事象を表すだけではなく, 制約式や状態を切り替えるスイッチとして用いることが可能であり,産業や学術の幅広い分野における現実問題を整数計画問題に定式化できる.組合せ最適化問題は, 制約条件を満たす解の集合が組合せ的な構造を持つ最適化問題であり, 解が集合, 順序, 割当て, グラフ, 論理値, 整数などで記述される場合が多い. 原理的に, 全ての組合せ最適化問題は整数計画問題に定式化できることが知られており, 最近では, 整数計画ソルバーの性能向上とも相まって, 整数計画ソルバーを用いて組合せ最適化問題を解く事例が増えている. 現実問題を線形計画問題や整数計画問題に定式化する際には, 線形式のみを用いて目的関数と制約条件を記述する必要がある。こう書くと,扱える現実問題がかなり限定されるように思われる,実際に,線形計画法の生みの親である Dantzig もWisconsin 大学で講演をした際に「残念ながら宇宙は線形ではない」と批判を受けている (今野 2005). しかし, 正確さを失うことなく現実問題を非線形計画問題に定式化できても最適解を求められない場合も多く, 逆に非線形に見える問題でも変数の追加や式の変形により等価な線形計画問題や整数計画問題に変換できる場合も少なくない. そのため, 現実問題を線形計画問題や整数計画問題に定式化してその最適解を求めることは,実用的な問題解決の手法として受け入れられている. 現在では, 整数計画ソルバーは現実問題を解決するための有用な道具として数理最適化以外の分野でも急速に普及している。一方で,数理最適化の専門家ではない利用者にとって,線形式のみを用いて現実問題を記述することは容易な作業ではなく, 現実問題を上手く定式化できずに悩んだり,強力だが専門家だけが使う良く分からない手法だと敬遠している利用者も少なくない,そこで,本論文では,数理最適化の専門家ではない利用者が, 現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説する。なお, 最近の整数計画ソルバーはアルゴリズムを知らなくても不自由なく利用できる場合が多いため, 本論文では, 線形計画法, 整数計画法の解法および理論に関する詳しい説明は行わない. 線形計画法については (Chvatal 1983; 今野 1987), 整数計画法については (今野 1982; Nemhauser and Wolsey 1988; Wolsey 1998) が詳しい. また, 線形計画法, 整数計画法の発展の歴史については (Achterberg and Wunderling 2013; Ashford 2007; Bixby and Rothberg 2007; 今野 2005, 2014; Lodi 2010) が詳しい. ## 2 線形計画問題と整数計画問題 線形計画問題は, 目的関数が線形で制約条件が線形等式や線形不等式で記述される最適化問題であり,一般に以下の標準形で表される. $ \begin{array}{ll} \operatorname{minimize} & \sum_{j=1}^{n} c_{j} x_{j} \\ \text { subject to } & \sum_{j=1}^{n} a_{i j} x_{j} \geq b_{i}, \quad i=1, \ldots, m, \\ & x_{j} \geq 0, \quad j=1, \ldots, n . \end{array} $ ここで, $a_{i j}, b_{i}, c_{j}$ は定数, $x_{j}$ は変数である. 制約式を全て満たす変数值の組を実行可能解と呼び,実行可能解全体の集合を実行可能領域と呼ぶ.実行可能解の中で目的関数の值を最小にする解が最適解であり,このときの目的関数の值を最適值と呼ぶ。線形計画問題は $\min \left.\{\boldsymbol{c}^{T} \boldsymbol{x} \mid \boldsymbol{A} \boldsymbol{x} \geq \boldsymbol{b}, \boldsymbol{x} \geq \boldsymbol{0}\right.\}$ と記述される場合も多い. ここで,各変数の非負条件 $x_{j} \geq 0$ を(非負)整数条件 $x_{j} \in \mathbb{Z}_{+} ( \mathbb{Z}_{+}$ は非負整数集合)に置き換えると整数計画問題となる。 線形計画問題では効率の良いアルゴリズムが開発されており,一番最初に単体法 ${ }^{1}$ が 1947 年にDantzigによって提案されている。単体法は実用的には優れた性能を持つが,理論的には多項式時間アルゴリズムではない。その後,初めての多項式時間アルゴリズムとなる楕円体法が 1979 年に Khachiyan に, さらに実用的にも高速な内点法が 1984 年に Karmarkar によって提案されている,現在では,単体法と内点法が実用的なアルゴリズムとして広く使われている.性能では内点法の方が優れているが,単体法は制約式や変数を追加して解き直す再最適化を効率良く実行できるため,単体法を用いた再最適化は整数計画問題を解く上で重要な役割を担っている. 整数計画問題は実行可能解の数が有限となる場合が多く, 理論上は全ての実行可能解を列挙すれば最適解が求められる。しかし,この種の列挙法は問題の規模の増加とともに走査する解の個数が急激に増加(組合せ的爆発)するため実用的ではない. 整数計画問題は NP 困難と呼ばれる問題のクラスに属することが計算の複雑さの理論により知られている。詳しい説明は省略するが,NP 困難問題の最適解を求めようとすると,最悪の場合に全ての実行可能解を列挙するのと本質的に変わらない計算時間が必要であろうと予想されている². 整数計画問題では, 分枝限定法と切除平面法が代表的なアルゴリズムとして知られている.  \neq \mathrm{NP}$ 予想として有名である. } 分枝限定法は, 直接解くことが難しい問題をいくつかの小規模な部分問題に分解する分枝操作と, 生成された部分問題のうち何らかの理由で最適解が得られないと判定されたものを除く限定操作の 2 つの操作を繰返し適用するアルゴリズムで, 整数計画問題以外にも多くの最適化問題で使われている。整数計画問題に対する分枝限定法は 1960 年に Land と Doigによって提案されており, 暫定解 (これまでの探索で得られた最良の実行可能解)から得られる最適値の上界值と, 線形計画緩和問題(各変数の整数条件を緩和して得られる線形計画問題)を解いて得られる最適值の下界値を利用した限定操作で無駄な探索を省くアルゴリズムである。切除平面法は 1958 年に Gomory によって提案されており, 線形計画緩和問題から始めて, 切除平面(実行可能な整数解を残しつつ線形計画緩和問題の最適解を除去する制約式)を組織的に生成し,線形計画緩和問題に逐次追加することで最終的に整数最適解を得るアルゴリズムである。切除平面法は単体では実用的なアルゴリズムではなく,現在では,分枝限定法の内部で切除平面を逐次追加し, 変数値の固定や部分問題に対する下界値の改善を実現する分枝切除法が大きな成功を収めている。 ## 3 整数計画問題の応用事例 これまで, 産業や学術の幅広い分野における多くの現実問題が整数計画問題に定式化されてきた. ここでは自然言語処理の応用事例として文書の自動要約 (Filatova and Hatzivassiloglou 2004; Gillick and Favre 2009; 平尾, 鈴木, 磯崎 2009; McDonald 2007; 西川, 平尾, 牧野, 松尾, 松本 2013; 高村, 奥村 2008) と文の対応付け (西野, 平尾, 永田 2013; 西野, 鈴木, 梅谷,平尾, 永田 2014) を紹介する. ## 3.1 文書の自動要約 文書の自動要約は与えられた単数もしくは複数の文書から要約を生成する問題であり,与えられた文書から必要な文の組合せを選択する手法が知られている。文書要約の問題には,1つだけの文書が与えられる単一文書の要約と, 同じトピックについて記述した複数の文書が与えられる複数文書の要約がある ${ }^{3}$. まず,単一文書の要約を考える, $m$ 個の概念と $n$ 個の文と要約長 $L$ が与えられる.概念 $i$ の重要度を $w_{i}(>0)$, 文 $j$ の長さを $l_{j}$, 文 $j$ に含まれる概念 $i$ の数を $a_{i j} \in\{0,1\}$ と表す. $x_{j}$ は変数で,文 $j$ が要約に含まれるならば $x_{j}=1$, そうでなければ $x_{j}=0$ の値を取る. 文 $j$ に含まれる概念の重要度の合計 $p_{j}=\sum_{i=1}^{m} w_{i} a_{i j}$ はあらかじめ計算できるので, 要約長 $L$ を超えない範  囲で重要度の合計が最大となる要約を構成する問題は以下の通りに定式化できる。 $ \begin{aligned} \operatorname{maximize} & \sum_{j=1}^{n} p_{j} x_{j} \\ \text { subject to } & \sum_{j=1}^{n} l_{j} x_{j} \leq L, \\ & x_{j} \in\{0,1\}, \quad j=1, \ldots, n . \end{aligned} $ この問題はナップサック問題と呼ばれる NP 困難のクラスに属する組合せ最適化問題であるが,動的計画法や分枝限定法に基づく効率良いアルゴリズムが知られている (Kellerer, Pferschy, and Pisinger 2004; Korte and Vygen 2012). 次に複数文書の要約を考える。複数の文書に類似した内容の文が含まれる場合はこれらの文が同時に選択され,生成された要約の中に類似した内容が繰返し現れる恐れがある。そこで,概念 $i$ が要約に含まれているならば $z_{i}=1$, そうでなければ $z_{i}=0$ の値を取る変数 $z_{i}$ を導入すると以下の通りに定式化できる。 $ \begin{aligned} \operatorname{maximize} & \sum_{i=1}^{m} w_{i} z_{i} \\ \text { subject to } & \sum_{j=1}^{n} a_{i j} x_{j} \geq z_{i}, \quad i=1, \ldots, m, \\ & \sum_{j=1}^{n} l_{j} x_{j} \leq L, \\ & x_{j} \in\{0,1\}, \quad j=1, \ldots, n, \\ & z_{i} \in\{0,1\}, \quad i=1, \ldots, m . \end{aligned} $ 1 番目の制約条件は, 左辺の值に関わらず $z_{i}=0$ の値を取れば必ず制約条件が満たされるため,最適解において概念 $i$ を含む文 $j$ が要約に含まれているにも関わらず $z_{i}=0$ の値を取る場合があるように思われる。しかし, 目的関数は最大化で各変数 $z_{i}$ の係数 $w_{i}$ は正の值であり, このような場合には $z_{i}=1$ の値を取れば改善解が得られるため, 最適解では概念 $i$ を含む文 $j$ が要約に含まれていれば必ず $z_{i}=1$ の値を取ることが分かる. この定式化では, 重要度の高い概念が要約の中に繰返し現れても目的関数は増加しないので, 壳長性を自然に抑えることができる.一方で, この問題は(ナップサック制約付き)最大被覆問題と呼ばれる $\mathrm{NP}$ 困難のクラスに属する組合せ最適化問題であり,大規模な問題例では最適解を効率良く求めることは難しい.複数文書の要約を求める問題は, この他にも施設配置問題 (高村, 奥村 2010) や兄長制約付きナップサック問題 (西川他 2013) などに定式化されている. ## 3.2 文の対応付け 統計的機械翻訳では,対訳コーパスにおいて原言語文と目的言語文の対応付けが与えられている前提の下で処理が適用される。しかし, 実際の対訳コーパスでは, 文書同士の対応付けは行われていても,それらの文書に含まれる文同士の対応付けは行われていない場合が多い。そのため, 対訳文書の間で文同士の正しい対応付けを求めることは, 統計的機械翻訳の精度を上げるための重要な前処理となる。 (Ma 2006; Moore 2002) などは,対訳文書間で対応する文の出現順序が大きく入れ替わらないという前提で動的計画法に基づく文の対応付けを提案している。すなわち, 対訳文書の組 $F, E$ が与えられたとき, $F$ の $i$ 番目の文と $E$ の $j$ 番目の文が対応するならば, $F$ の $i+1$ 番目の文に対応する $E$ の文は, (存在するならば) $j$ 番目の近くにあるという前提で文の対応付けを行っている.しかし, 文の出現順序が大きく入れ替わらないという前提はどの文書でも成り立つ性質ではない. まず,文書 $F$ と $E$ の任意の文を出現順序に関わらず自由に対応付けても良い場合を考える。 $n_{f}$ 個の文を含む文書 $F$ と $n_{e}$ 個の文を含む文書 $E$ が与えられる. 文書 $F$ の $i$ 番目の文と文書 $E$ の $j$ 番目の文が対応付けられたときのスコアを $s_{i j}$ と表す. $x_{i j}$ は変数で, 文書 $F$ の $i$ 番目の文と文書 $E$ の $j$ 番目の文が対応付けられるならば $x_{i j}=1$, そうでなければ $x_{i j}=0$ の值を取る. このとき,文書 $F$ の文は文書 $E$ の高々 1 つの文にしか対応付けられない(その逆も同様)という制約を課すと,スコアの合計が最大となる文の対応付けを求める問題は以下の通りに定式化できる. $ \begin{aligned} \operatorname{maximize} & \sum_{i=1}^{n_{f}} \sum_{j=1}^{n_{e}} s_{i j} x_{i j} \\ \text { subject to } & \sum_{j=1}^{n_{e}} x_{i j} \leq 1, \quad i=1, \ldots, n_{f} \\ & \sum_{i=1}^{n_{f}} x_{i j} \leq 1, \quad j=1, \ldots n_{e}, \\ & x_{i j} \in\{0,1\}, \quad i=1, \ldots, n_{f}, j=1, \ldots, n_{e} \end{aligned} $ この問題は(2 部グラフの)最大重みマッチング問題と呼ばれる組合せ最適化問題であり, ハンガリー法など効率良いアルゴリズムが知られている (Korte and Vygen 2012). 文書 $F$ と $E$ の任意の文を対応付けても良いという前提では,それぞれの文書において前後の文との繋がりを無視した対応付けを行うことになるため,段落のような文の系列(連続する文のまとまり)を単位として順序が入れ替わる場合には正しい順序付けができない可能性が高い. そこで,図 1 に示すように,文書 $F$ と文書 $E$ をそれぞれ同数の文の系列に分割し, 文の系列について一対一の対応付けを求めることを考える。文書 $F$ の $i$ 番目から $j$ 番目までの文の系列を 図 1 出現順序の入れ替わりを考慮した文の系列の対応付け $F[i, j]\left(1 \leq i \leq j \leq n_{f}\right)$, 文書 $E$ の $k$ 番目から $l$ 番目までの文の系列を $E[k, l]\left(1 \leq k \leq l \leq n_{e}\right)$ とする. 文 $p \in F[i, j]$ の文 $q \in E[k, l]$ の対応付けでは出現順序の入れ替わりはないとすると, (Moore 2002)の手法を適用することで文 $p \in F[i, j]$ と文 $q \in E[k, l]$ の最適な対応付けとスコアの合計 $w_{i j k l}$ を計算できる。考えられ得る全ての文の系列の組 $(F[i, j], E[k, l])$ に対して,それらの系列に含まれる文同士の最適な対応付けとスコアの合計 $w_{i j k l}$ をあらかじめ計算する. $x_{i j k l}$ は変数で, 文の系列 $F[i, j]$ と $E[k, l]$ が対応付けられると $x_{i j k l}=1$, そうでなければ $x_{i j k l}=0$ の値を取る。各文 $p \in F, q \in E$ が対応付けられたいずれかの文の系列 $F[i, j], E[k, l]$ にちょうど 1 回ずつ含まれるという制約条件を用いて文の系列を一対一に対応付ける。このとき,スコアの合計が最大となる文の系列の対応付けを求める問題は以下の通りに定式化できる. $ \begin{aligned} & \operatorname{maximize} \sum_{1 \leq i \leq j \leq n_{f}} \sum_{1 \leq k \leq l \leq n_{e}} w_{i j k l} x_{i j k l} \\ & \text { subject to } \sum_{i<p<j} \sum_{1<k<l<n_{e}} x_{i j k l}=1, \quad p=1, \ldots, n_{f} \text {, } \\ & \sum_{1 \leq i \leq j \leq n_{f}} \sum_{k \leq q \leq l} x_{i j k l}=1, \quad q=1, \ldots, n_{e}, \\ & x_{i j k l} \in\{0,1\}, \quad 1 \leq i \leq j \leq n_{f}, 1 \leq k \leq l \leq n_{e} \text {. } \end{aligned} $ この問題は集合分割問題と呼ばれる NP 困難のクラスに属する組合せ最適化問題であり,大規模な問題例では最適解を効率良く求めることは難しい. 統計的機械翻訳では,この他にもフレーズ(連続する単語列)の対応付けを求める問題が整数計画問題に定式化されている (DeNero and Klein 2008; 越川, 内山, 梅谷, 松井, 山本 2010). ## 4 整数計画ソルバーを利用する 前節で紹介したように,実際に多くの現実問題が整数計画問題として定式化できる。一方で,整数計画問題を含む多くの組合せ最適化問題は NP 困難のクラスに属することが計算の複雑さ の理論により明らかにされている。こう書くと, 多くの現実問題に対して最適解を求めることは非常に困難であるように思われるが,計算の複雑さが示す結果の多くは「最悪の場合」であり, 全ての入力データに対して最適解を求めることは困難でも,多くの入力デー夕に対して現実的な計算時間で最適解を求められる問題は少なくない。また,整数計画ソルバーは探索中に得られた暫定解を保持しているので,与えられた計算時間内に最適解が求められなくても,精度の高い実行可能解が求まれば,利用者によっては十分に満足できる場合も多く,整数計画ソルバーはそのような目的にも使われる. 表 1 に示すように, 現在では, 商用・非商用を含めて多数の整数計画ソルバーが利用可能である (Atamtürk and Savelsbergh 2005; Linderoth and Ralph 2006; Fourer 2013; Mittelmann 2014).商用ソルバーを利用するためには, 数十万〜数百万円のライセンス料金が必要となる場合が多いが, 無償の試用ライセンスや無償〜数十万円のアカデミックライセンスが用意されている場合も少なくない,一般的に,非商用ソルバーより商用ソルバーの方が性能は高いが,実際には商用ソルバーの中でもかなりの性能差がある。整数計画ソルバーのベンチマーク問題例に対する最新の実験結果 (Mittelmann 2014) によると,商用ソルバーでは,先に挙げた Xpress Optimization Suite, Gurobi Optimizer, CPLEX Optimization Studioの3つが, 非商用ソルバーでは SCIP が最も性能が高いようである。整数計画ソルバーを選ぶ際には, 性能以外にも,扱える問題の種類 ${ }^{4}$,扱える問題の記述形式,インターフェースなどを考慮して,各自の目的に合った整数計画ソルバーを選ぶことが望ましい.利用可能な整数計画ソルバーについては (Fourer 2013; Mittelmann 表 1 代表的な整数計画ソルバー  2014) が詳しい. まず,整数計画ソルバーを用いて以下の問題例を解くことを考える。 $ \begin{array}{cl} \operatorname{maximize} & 2 x_{1}+3 x_{2} \\ \text { subject to } & 2 x_{1}+x_{2} \leq 10 \\ & 3 x_{1}+6 x_{2} \leq 40 \\ & x_{1}, x_{2} \in \mathbb{Z}_{+} \end{array} $ 整数計画ソルバーの主な利用法には, (1) コマンドラインインターフェースを通じてソルバーを実行する方法, (2) 最適化モデリングツールを通じてソルバーを実行する方法, (3) 他のソフトウェアから $\mathrm{API}^{5}$ を通じてソルバーを実行する方法の 3 通りがある. 1 番目は, 問題例を LP 形式 6 , MPS 形式7などで記述された入カファイルを用意して整数計画ソルバーを実行する方法である。図 2 は問題例 (6) をLP 形式で記述したものである。目的関数や制約条件の部分は,数式をほぼそのまま記述しているだけである8. maximize, subject to, bounds, general, end は予約語で,変数値の上下限や整数制約などをこれらの予約語を用いて記述している.LP 形式は文法が平易で可読性が高く,多くの整数計画ソルバーが対応している。図 3 は問題例 (6) を MPS 形式で記述したものである。 MPS 形式は 1960 年代に IBM によって導入された形式で, 現在も標準的に使われているが可読性は低い. LP 形式やMPS 形式はプログラミング言語の配列のように変数をまとめて扱う記述ができない. つまり, LP 形式や MPS 形式で $\sum_{j=1}^{100} x_{j} \leq 3$ の数式を記述するには, $\mathrm{x} 1+\mathrm{x} 2+$ (中略 $)+\mathrm{x} 100<=3$ と書くしか 図 2 問題例 (6) の LP 形式による記述 ^{6}$ LP は "Linear Programming” の略. 7 MPS は “Mathematical Programming System”の略. 8 図 2 では非負制約を記述しているが, LP 形式では何も指定しなければ各変数 $x_{j}$ の非負制約 $x_{j} \geq 0$ は自動的に設定される。 } 図 3 問題例 (6) の MPS 形式による記述 方法がない。よって, 大きな問題例を記述する場合には, 適当なプログラム言語を用いて LP 形式や MPS 形式のファイルを生成するプログラムを作成する必要がある. 2 番目は, 最適化モデリングツールが提供するモデリング言語で問題例を記述し, 最適化モデリングツールを通じて整数計画ソルバーを実行する方法である。商用の最適化モデリングツールが提供するモデリング言語では, AIMMS, AMPL, GAMS など, 非商用では, Math Prog, ZIMPL などが知られている。図 4 は問題例 (6)をMath Prog 形式で記述したものである. 多くのモデリング言語では,モデル部分とデー夕部分を分離して記述できるため,数式を直感的にモデルに書き換えることが可能である. 例えば, $\sum_{j=1}^{100} x_{j} \leq 3$ の数式は, $\operatorname{sum(i~in~1..100)(x[i])<=~}$ 3 と記述できる. 現実問題を最適化問題に定式化できればすぐに整数計画ソルバーを利用できるので効率良いプロトタイピングが可能となる。一方で, 最適化モデリングツールの購入とモデリング言語の習得が必要で,1番目の方法に比べると汎用性に欠ける。 3 番目は, 整数計画ソルバーが提供する $\mathrm{C}, \mathrm{C}++$, Java, Python, Matlab, Excel などのライブラリやプラグインを通じて整数計画ソルバーを実行する方法である.部分問題を解くためのサブルーチンとして整数計画ソルバーを利用する場合や, 整数計画ソルバーの挙動を細かく制御したい場合はこの方法が効率的である。ただし, 整数計画ソルバーやそのバージョン毎にライブラリやプラグインの仕様が異なるため汎用性と保守性に欠ける. 最適化ソルバーの利用者にとって, 与えられた問題例がどの程度の計算時間で解けるかを事前に見積ることは重要である。線形計画問題では,一部の特殊な問題を除けば変数や制約式の数を計算時間の目安にして差し支えない場合が多い。一方で, 整数計画問題では, (Koch, Achter- 図 4 問題例 (6) の Math Prog 形式による記述 berg, Andersen, Bastert, Berthold, Bixby, Danna, Gamrath, Gleixner, Heinz, Lodi, Mittelmann, Ralphs, Salvagnin, Steffy, and Wolter 2011) で報告されているように, 10 万変数, 10 万制約式で最適解を効率良く求められる問題例がある一方で,1,000 変数程度でも最適解を求められない問題例があり,変数や制約式の数だけでは計算時間を見積れないことが知られている. 整数計画ソルバーの現状や利用法については (Berthold, Gleixner, Heinz, Koch, and Shinano 2012; 藤江 2011; 宮代 2014, 2012; 宮代, 松井 2006) が詳しい. ## 5 線形計画問題に定式化する 線形計画問題では, 数百万変数, 数百万制約式の大規模な問題例でも現実的な計算時間で最適解を求められるが,線形式のみを用いて目的関数と制約条件を記述する必要があるため,数理最適化の専門家ではない利用者にとって, 現実問題を線形計画問題に定式化することは容易な作業ではない.しかし,一見すると非線形計画問題に見える問題も変数の追加や式の変形により等価な線形計画問題に変換できる場合は少なくない.現実問題を線形計画問題を定式化する際には,与えられた現実問題を線形計画問題で正確に記述できるか,または満足できる程度に近似できるか良く見極める必要がある。ここでは,一見すると非線形に見える最適化問題を線形計画問題に定式化するいくつかの方法を紹介する. ## 5.1 凸関数最小化問題 凸関数最小化問題は線形計画問題に近似できる。ここでは, 図 5 に示すように,1 変数の凸関数 $f(x)$ を区分線形関数 $g(x)$ で近似する方法を考える. 凸関数 $f(x)$ 上の $m$ 個の点 $\left(a_{1}, f\left(a_{1}\right)\right)$, $\ldots,\left(a_{m}, f\left(a_{m}\right)\right)$ を適当に選んで線分で繋ぐと区分線形関数 $g(x)$ が得られる。この区分線形関数 $g(x)$ は凸関数なので,各区分を表す線形関数を用いて, $ g(x)=\max _{i=1, \ldots, m-1}\left.\{\frac{f\left(a_{i+1}\right)-f\left(a_{i}\right)}{a_{i+1}-a_{i}}\left(x-a_{i}\right)+f\left(a_{i}\right)\right.\}, \quad a_{1} \leq x \leq a_{m} $ と記述できる。このとき,各区分を表す線形関数の最大値を表す変数 $z$ を用意すると,区分線形関数 $g(x)$ の最小化問題は以下の線形計画問題に定式化できる. $ \begin{array}{ll} \operatorname{minimize} & z \\ \text { subject to } & \frac{f\left(a_{i+1}\right)-f\left(a_{i}\right)}{a_{i+1}-a_{i}}\left(x-a_{i}\right)+f\left(a_{i}\right) \leq z, \quad i=1, \ldots, m-1, \\ & a_{1} \leq x \leq a_{m} \end{array} $ 多変数の凸関数最小化問題でも,直線の集合の代わりに超平面の集合で凸関数を近似すれば同様に定式化できる。 ## 5.2 連立 1 次方程式の近似解 全ての制約式を同時には満たせない連立 1 次方程式に対して,できる限り多くの制約式を満たす近似解を求める問題は目標計画法と呼ばれる (Charnes and Cooper 1961). 連立 1 次方程式 $ \sum_{j=1}^{n} a_{i j} x_{j}=b_{i}, \quad i=1, \ldots, m $ 図 5 凸関数の区分線形関数による近似 に対して,その誤差 $ z_{i}=\left|b_{i}-\sum_{j=1}^{n} a_{i j} x_{j}^{*}\right|, \quad i=1, \ldots, m $ をできる限り小さくする近似解 $\boldsymbol{x}^{*}=\left(x_{1}^{*}, \ldots, x_{n}^{*}\right)$ を求める問題を考える. このとき, 平均 2 乗誤差 $\frac{1}{m} \sum_{i=1}^{m} z_{i}^{2}$, 平均誤差 $\frac{1}{m} \sum_{i=1}^{m} z_{i}$, 最悪誤差 $\max _{i=1, \ldots, m} z_{i}$ などが評価基準として考えられる.これらの評価基準は, それぞれ誤差べクトル $\boldsymbol{z}=\left(z_{1}, \ldots, z_{m}\right)$ の $L_{2}$ ノルム, $L_{1}$ ノルム, $L_{\infty}$ ノルムを最小化する近似解 $\boldsymbol{x}^{*}$ を求めることに対応する. 応用事例では, 誤差の分布がガウス分布に近いことを前提に, 平均 2 乗誤差を評価基準として最小 2 乗法を用いて近似解を求める場合が多い.しかし, 実際には外れ値が多いなど誤差の分布がガウス分布と全く異なる場合も少なくない.このような場合は, 外れ値の影響を受けにくい平均誤差や最悪誤差を評価基準として近似解を求める方法が考えられる。 平均誤差を最小化する近似解 $\boldsymbol{x}^{*}$ を求める問題は, 制約式を持たない以下の最適化問題に定式化できる. $ \operatorname{minimize} \sum_{i=1}^{m}\left|b_{i}-\sum_{j=1}^{n} a_{i j} x_{j}\right| $ これは一見しただけでは線形計画問題に見えないが以下の線形計画問題に変換できる. $ \begin{aligned} & \operatorname{minimize} \quad \sum_{i=1}^{m} z_{i} \\ & \text { subject to } \quad b_{i}-\sum_{j=1}^{n} a_{i j} x_{j} \geq-z_{i}, \quad i=1, \ldots, m \\ & b_{i}-\sum_{j=1}^{n} a_{i j} x_{j} \leq z_{i}, \quad i=1, \ldots, m \\ & z_{i} \geq 0, \quad i=1, \ldots, m \end{aligned} $ この方法で線形回帰問題を解くこともできる。 $m$ 個のデータ $\left(\boldsymbol{x}_{1}, y_{1}\right), \ldots,\left(\boldsymbol{x}_{m}, y_{m}\right)$ が与えられる. これを $n$ 個の関数 $\left.\{\phi_{1}\left(\boldsymbol{x}_{i}\right), \ldots, \phi_{n}\left(\boldsymbol{x}_{i}\right)\right.\}$ の線形結合を用いて $y\left(\boldsymbol{x}_{i}\right) \approx w_{0}+w_{1} \phi_{1}\left(\boldsymbol{x}_{i}\right)+\cdots+$ $w_{n} \phi_{n}\left(\boldsymbol{x}_{i}\right)$ と近似する問題を考える. 各データ $\left(\boldsymbol{x}_{i}, y_{i}\right)$ に対する平均誤差を最小にするパラメー 夕 $w_{0}, \ldots, w_{n}$ を求める問題は以下の最適化問題に定式化できる. $ \operatorname{minimize} \sum_{i=1}^{m}\left|y_{i}-\left(w_{0}+w_{1} \phi_{1}\left(\boldsymbol{x}_{i}\right)+\cdots+w_{n} \phi_{n}\left(\boldsymbol{x}_{i}\right)\right)\right| $ $i$ 番目のデータに対する誤差を表す変数 $z_{i}$ を用意すると以下の線形計画問題 9 に定式化できる. ^{9} \boldsymbol{x}_{i}$ は与えられたデータなので $\phi_{1}\left(\boldsymbol{x}_{i}\right), \ldots, \phi_{n}\left(\boldsymbol{x}_{i}\right)$ は定数となる. } $ \begin{array}{lll} \operatorname{minimize} & \sum_{i=1}^{m} z_{i} & \\ \text { subject to } & y_{i}-\left(w_{0}+w_{1} \phi_{1}\left(\boldsymbol{x}_{i}\right)+\cdots+w_{n} \phi_{n}\left(\boldsymbol{x}_{i}\right)\right) \geq-z_{i}, & i=1, \ldots, m \\ & y_{i}-\left(w_{0}+w_{1} \phi_{1}\left(\boldsymbol{x}_{i}\right)+\cdots+w_{n} \phi_{n}\left(\boldsymbol{x}_{i}\right)\right) \leq z_{i}, & i=1, \ldots, m \\ & z_{i} \geq 0, & i=1, \ldots, m \end{array} $ 最悪誤差を最小化する近似解 $\boldsymbol{x}^{*}$ を求める問題も制約式を持たない以下の最適化問題に定式化できる. $ \operatorname{minimize} \max _{i=1, \ldots, m}\left|b_{i}-\sum_{j=1}^{n} a_{i j} x_{j}\right| $ これも一見すると線形計画問題に見えないが以下の線形計画問題に変換できる. $ \begin{array}{ll} \operatorname{minimize} & z \\ \text { subject to } & b_{i}-\sum_{j=1}^{n} a_{i j} x_{j} \geq-z, \quad i=1, \ldots, m \\ & b_{i}-\sum_{j=1}^{n} a_{i j} x_{j} \leq z, \quad i=1, \ldots, m \end{array} $ $ z \geq 0 $ この方法で $k$ 個の目的関数 $\sum_{j=1}^{n} c_{1 j} x_{j}, \sum_{j=1}^{n} c_{2 j} x_{j}, \ldots, \sum_{j=1}^{n} c_{k j} x_{j}$ を同時に最小化する多目的最適化問題も解くことができる. $ \begin{array}{lll} \operatorname{minimize} & \left.\{\sum_{j=1}^{n} c_{1 j} x_{j}, \ldots, \sum_{j=1}^{n} c_{k j} x_{j}\right.\} & \\ \text { subject to } & \sum_{j=1}^{n} a_{i j} x_{j} \geq b_{i}, & i=1, \ldots, m, \\ & x_{j} \geq 0, & j=1, \ldots, n . \end{array} $ まず,これらの目的関数の線形和を最小化する定式化が考えられる。しかし,いくつかの目的関数が極端に大きな値となる解が求まってしまう場合が少なくないため, 全ての目的関数をバランス良く最小化することは容易ではない,そこで,これらの目的関数の最大值を最小化する定式化を考える。新たに目的関数の最大値を表す変数 $z$ を導入すると,この問題は以下の線形計画問題に変換できる。 $ \begin{array}{ll} \operatorname{minimize} & z \\ \text { subject to } & \sum_{j=1}^{n} c_{h j} x_{j} \leq z, \quad h=1, \ldots, k, \\ & \sum_{j=1}^{n} a_{i j} x_{j} \geq b_{i}, \quad i=1, \ldots, m, \\ & x_{j} \geq 0, \quad j=1, \ldots, n . \end{array} $ ## 5.3 比率の最小化 2 つの関数の比を目的関数に持つ最適化問題は分数計画問題と呼ばれる. 以下の 2 つの線形関数の比を目的関数に持つ分数計画問題を考える。 $ \begin{aligned} & \operatorname{minimize} \frac{\sum_{j=1}^{n} c_{j} x_{j}}{\sum_{j=1}^{n} d_{j} x_{j}} \\ & \text { subject to } \quad \sum_{j=1}^{n} a_{i j} x_{j}=b_{i}, \quad i=1, \ldots, m \text {. } \end{aligned} $ ただし, $\sum_{j=1}^{n} d_{j} x_{j}>0$ とする. ここで,新たな変数 $t=1 / \sum_{j=1}^{n} d_{j} x_{j}$ と $y_{j}=t x_{j}(j=1, \ldots, n)$ を導入すると, この問題は以下の線形計画問題に変換できる. $ \begin{aligned} \operatorname{minimize} & \sum_{j=1}^{n} c_{j} y_{j} \\ \text { subject to } & \sum_{\substack{n=1 \\ n}} a_{i j} y_{j}-b_{i} t=0, \quad i=1, \ldots, m \\ & \sum_{j=1}^{n} d_{j} y_{j}=1 \end{aligned} $ この変換は $\sum_{j=1}^{n} d_{j} x_{j}$ が常に同じ符号で 0 にならない場合のみ成立するので, 必要があれば $\sum_{j=1}^{n} d_{j} x_{j} \geq \varepsilon$ (عは十分に小さな正の定数)などの制約式を追加すれば良い. ## 6 整数計画問題に定式化する 整数計画問題は整数変数を含む線形計画問題であるが,線形計画問題の方が整数計画問題よりもはるかに解き易い事実を考慮すれば,現実問題において離散値を取る量を決定するという理由だけで安易に整数変数を用いるべきではない,例えば,自動車や機械部品の生産数を決定する問題を整数計画問題に定式化することは必ずしも適切ではない.このような場合は,各変数の整数条件を取り除いた線形計画問題を解いて実数最適解を得た後に,その端数を丸めて最 も近い整数解を求めれば十分に実用的な解となる場合が多い. 実際に,多くの現実的な整数計画問題では, yes $/$ noの決定や離散的な状態の切り替えを記述するために 2 値変数 $(\{0,1\}$ の 2 值のみを取る整数変数)を用いていることに注意する必要がある. ここでは, 代表的な組合せ最適化問題を例に整数計画問題の基本的な定式化の技法を紹介する.もち万ん,いくつかの組合せ最適化問題では効率良いアルゴリズムが知られているが,現実問題が既知の組合せ最適化問題と一致することは稀であり,これらの効率良いアルゴリズムをそのまま適用できるとは限らない。一方で, 整数計画ソルバーであれば定式化を少し変形するだけで適用できる場合が多い。このように, 代表的な組合せ最適化問題に対する整数計画問題の定式化を知れば,それらを雛形として変形もしくは組合せることで多種多様な現実問題を整数計画問題に定式化できるようになる. ## 6.1 整数性を持つ整数計画問題 整数計画問題は一般には NP 困難のクラスに属する計算困難な問題であるが,いくつかの特殊な整数計画問題は効率良く解けることが知られている。ここでは, 制約行列 $\boldsymbol{A}$ が完全単摸行列である整数計画問題 $\min \left.\{\boldsymbol{c}^{T} \boldsymbol{x} \mid \boldsymbol{A} \boldsymbol{x} \geq \boldsymbol{b}, \boldsymbol{x} \in \mathbb{Z}_{+}^{n}\right.\}$ を紹介する. 任意の小行列式が $0,1,-1$ のどれかに等しい行列 $\boldsymbol{A}$ は完全単摸行列と呼ばれる, $\boldsymbol{A}$ が整数行列, $\boldsymbol{b}$ が整数ベクトルである線形計画問題 $\min \left.\{\boldsymbol{c}^{T} \boldsymbol{x} \mid \boldsymbol{A} \boldsymbol{x} \geq \boldsymbol{b}, \boldsymbol{x} \geq \boldsymbol{0}\right.\}$ について, $\boldsymbol{A}$ が完全単摸行列で(実数)最適解が存在するならば,単体法を適用すると常に整数最適解 $x \in \mathbb{Z}_{+}^{n}$ が得られる. 有向グラフが与えられたとき,点の番号を行番号,辺の番号を列番号とする行列 $\boldsymbol{A}$ で,辺 $e=(i, j)$ に対応する列が $a_{i e}=1, a_{j e}=-1$ (その他は $0 )$ で与えられる行列は接続行列と呼ばれる。任意の有向グラフに対して,その接続行列は完全単摸行列となる。また, 無向グラフの接続行列では辺に対応する列が $a_{i e}=a_{j e}=1$ (その他は 0 )で与えられる. 無向グラフでは 2 部グラフであるときに限り,その接続行列は完全単摸行列となる. 以下では, 完全単摸行列を制約行列に持つ整数計画問題の例として最短路問題と割当問題を紹介する。 最短路問題 : 有向グラフ $G=(V, E)$ と各辺 $(i, j) \in E$ の長さ $d_{i j}$ が与えられる. $x_{i j}$ は変数で,辺 $(i, j) \in E$ が経路に含まれるならば $x_{i j}=1$, そうでなければ $x_{i j}=0$ の值を取る. このとき,与えられた始点 $s \in V$ から終点 $t \in V$ に至る最短路を求める問題は以下の通りに定式化できる. $ \begin{array}{ll} \text { minimize } & \sum_{(i, j) \in E} d_{i j} x_{i j} \\ \text { subject to } & \sum_{j:(s, j) \in E} x_{s j}=1, \\ & \sum_{i:(i, t) \in E} x_{i t}=1, \\ & \sum_{i:(i, k) \in E} x_{i k}-\sum_{j:(k, j) \in E} x_{k j}=0, \quad k \in V \backslash\{s, t\}, \\ & x_{i j} \in\{0,1\}, \quad(i, j) \in E . \end{array} $ 1 番目と 2 番目の制約式は, 始点 $s$ から出る辺と終点 $t$ に入る辺がちょうど 1 本ずつ選ばれることを表す. 3 番目の制約式は, 訪問する頂点 $k$ では出る辺と入る辺がちょうど 1 本ずつ選ばれ, それ以外の頂点では辺は選ばれないことを表す。 割当問題: $m$ 人の学生を $n$ 個のクラスに割り当てる. クラス $j$ の受講者数の下限を $l_{j}$, 上限を $u_{j}$, 学生 $i$ のクラス $j$ に対する満足度を $p_{i j}$ とする. $x_{i j}$ は変数で, 学生 $i$ がクラス $j$ に割当てられれば $x_{i j}=1$, そうでなければ $x_{i j}=0$ の值を取る.このとき,学生の満足度の合計が最大となる割当てを求める問題は以下の通りに定式化できる. $ \begin{array}{lll} \operatorname{maximize} & \sum_{i=1}^{m} \sum_{j=1}^{n} p_{i j} x_{i j} & \\ \text { subject to } & \sum_{j=1}^{n} x_{i j}=1, \quad i=1, \ldots, m \\ & l_{j} \leq \sum_{i=1}^{m} x_{i j} \leq u_{j}, \quad j=1, \ldots, n \\ & x_{i j} \in\{0,1\}, \quad i=1, \ldots, m, j=1, \ldots, n . \end{array} $ 1 番目の制約式は,各学生 $i$ がちょうど 1 つクラスに割当てられることを表す。 2 番目の制約式は,各クラス $j$ に割当てられる学生の数が受講者数の上下限内に収まることを表す. 最短路問題, 割当問題はそれぞれダイクストラ法やハンガリー法など効率良いアルゴリズムが知られている (Korte and Vygen 2012)。しかし,現実問題では実務上の要求から生じる制約条件が追加される場合が多いため,これらの効率良いアルゴリズムがそのまま適用できるとは限らない。一方で,与えられた現実問題を完全単摸行列に近い形の制約行列を持つ整数計画問題に定式化できる場合は,線形計画緩和問題から良い下界値が得られることが期待できるため,整数計画ソルバーを用いて現実的な計算時間で最適解を求められる場合は少なくない. 完全単摸行列の性質については (Korte and Vygen 2012; Schrijver 1998) が詳しい. ## 6.2 論理的な制約条件 現実問題が既知の組合せ最適化問題と一致することは稀であり, 実務上の要求から生じる制約条件が追加される場合が多い. ここでは,ナップサック問題を例にいくつかの論理的な制約条件とその記述を紹介する。 ナップサック問題:1つの箱と $n$ 個の荷物が与えられる. 箱に詰込める重さ合計の上限を $c(>0)$,各荷物 $j$ の重さを $w_{j}(<c)$, 価値を $p_{j}$ とする. $x_{j}$ は変数で, 荷物 $j$ を箱に詰めるならば $x_{j}=1$, そうでなければ $x_{j}=0$ の値を取る。このとき, 価値の合計が最大となる荷物の詰込みを求める問題は以下の通り定式化できる。 $ \begin{aligned} \operatorname{maximize} & \sum_{j=1}^{n} p_{j} x_{j} \\ \text { subject to } & \sum_{j=1}^{n} w_{j} x_{j} \leq c \\ & x_{j} \in\{0,1\}, \quad j=1, \ldots, n . \end{aligned} $ ちなみに, 複数の制約式を持つナップサック問題は多制約ナップサック問題と呼ばれ,投資計画やポートフォリオ最適化などの応用を持つ. ナップサック問題については (Kellerer et al. 2004) が詳しい. 以下に,いくつかの論理的な制約条件とその記述を示す. (1)詰込む荷物の数は高々 $k$ 個. $ \sum_{j=1}^{n} x_{j} \leq k $ (2)荷物 $j_{1}, j_{2}$ の少なくとも一方は詰込む. $ x_{j_{1}}+x_{j_{2}} \geq 1 $ (3)荷物 $j_{1}$ を詰込むならば荷物 $j_{2}$ も詰込む. $ x_{j_{1}} \leq x_{j_{2}} . $ (4)詰达む荷物の数は 0 または 2 . $ \sum_{j=1}^{n} x_{j}=2 y, y \in\{0,1\} $ もしくは $y$ を使わずに,以下の通りにも記述できる。 $ \left.\{\begin{array}{l} +x_{1}+x_{2}+\cdots+x_{n} \leq 2 \\ -x_{1}+x_{2}+\cdots+x_{n} \geq 0 \\ +x_{1}-x_{2}+\cdots+x_{n} \geq 0 \\ \cdots \\ +x_{1}+x_{2}+\cdots-x_{n} \geq 0 \end{array}\right. $ 2 番目以降の制約式は $\sum_{j=1}^{n} x_{j}=1$ を満たす解を除外しており, 図 6 に示すように, これらの制約式は実行可能解全体の凸包(全ての実行可能解を含む最小の凸多面体)から得られる。 ## 6.3 固定費用付き目的関数 生産計画や物流計画など多くの現実問題では, 取り扱う製品量によって生じる変動費用と段取替えなど所定の作業によって生じる固定費用の両方を考慮する場合が多い. 例えば, $x$ 単位費用 $c_{1}$ で生産される製品の生産量とする。もし, その製品が少しでも生産されれば初期費用 $c_{2}$ が生じるとすると, 総費用 $f(x)$ は以下に示す非線形関数となる ( $C$ は製品の生産量の上限とする). $ f(x)= \begin{cases}0 & x=0 \\ c_{1} x+c_{2} & 0<x \leq C .\end{cases} $ そこで, 少しでも製品を生産するならば $y=1$, そうでなければ $y=0$ の値を取る 2 值変数 $y$ を 図 $6 x_{1}+x_{2}+x_{3}=0$ または 2 を満たす全ての解を含む凸包 導入すると,総費用 $f(x)$ は以下の通りに記述できる. $ f(x)=\left.\{c_{1} x+c_{2} y \mid x \leq C y, 0 \leq x \leq C, y \in\{0,1\}\right.\} $ 以下では,固定費用を持つ整数計画問題の例としてビンパッキング問題を紹介する. ビンパッキング問題:十分な数の箱と $n$ 個の荷物が与えられる. 箱に詰込める荷物の重さ合計の上限を $c(>0)$, 各荷物 $j$ の重さを $w_{j}(<c)$ とする. $x_{i j}$ と $y_{i}$ は変数で, 荷物 $j$ が箱 $i$ に入っていれば $x_{i j}=1$, そうでなければ $x_{i j}=0$, 箱 $i$ を使用していれば $y_{i}=1$, そうでなければ $y_{i}=0$ の値を取る。このとき, 使用する箱の数が最小となる荷物の詰达みを求める問題は以下の通りに定式化できる。 $ \begin{array}{rll} \operatorname{minimize} & \sum_{i=1}^{n} y_{i} \\ \text { subject to } & \sum_{j=1}^{n} w_{j} x_{i j} \leq c y_{i}, \quad i=1, \ldots, n, \\ & \sum_{i=1}^{n} x_{i j}=1, \quad j=1, \ldots, n, \\ & x_{i j} \in\{0,1\}, \quad & i=1, \ldots, n, j=1, \ldots, n, \\ & y_{i} \in\{0,1\}, \quad & i=1, \ldots, n . \end{array} $ 1 番目の制約式は, 箱 $i$ が使用されている場合は詰込まれた荷物の重さ合計が上限内に収まることを, 箱 $i$ が使用されていない場合は荷物が詰达めないことを表す。2 番目の制約式は, 各荷物 jがちょうど 1 つ箱に詰込まれることを表す. ## 6.4 離接した制約式 一般に, 最適化問題では全ての制約式を同時に満たすことを求められるが, 現実問題では $m$本の制約式のうちちょうど $k$ 本だけを満たすことを求められる場合も少なくない. これは離接した制約式と呼ばれ,選択や順序付けなどの組合せ的な制約条件を記述する場合に用いられる. 例えば, 2 つの制約式 $\sum_{j=1}^{n} a_{1 j} x_{j} \leq b_{1}$ と $\sum_{j=1}^{n} a_{2 j} x_{j} \leq b_{2}\left(0 \leq x_{j} \leq u_{j}, j=1, \ldots, n\right)$ の少なくとも一方が成立するという場合は,各制約式に対応する 2 值変数 $y_{1}, y_{2}$ を導入すれば以下の通りに記述できる。 $ \left.\{\begin{array}{l} \sum_{j=1}^{n} a_{1 j} x_{j} \leq b_{1}+M\left(1-y_{1}\right), \\ \sum_{j=1}^{n} a_{2 j} x_{j} \leq b_{2}+M\left(1-y_{2}\right), \\ y_{1}+y_{2}=1, \\ y_{1}, y_{2} \in\{0,1\} . \end{array}\right. $ ここで, $M$ は $ M \geq \max \left.\{\sum_{j=1}^{n} a_{1 j} x_{j}-b_{1}, \sum_{j=1}^{n} a_{2 j} x_{j}-b_{2} \mid 0 \leq x_{j} \leq u_{j}, j=1, \ldots, n\right.\} $ を満たす十分に大きな定数 (big- $M$ と呼ばれる) である. $y_{i}=0$ の場合は, 制約式の右辺は $b_{i}+M$ と十分に大きな值を取り, 各変数 $x_{j}$ の取る値に関わらず必ず満たされる. 以下では,離接した制約式を持つ整数計画問題の例として 1 機械スケジューリング問題と長方形詰込み問題を紹介する。 1 機械スケジューリング問題: $n$ 個の仕事とこれらを処理する 1 台の機械が与えられる。機械は 2 つ以上の仕事を同時には処理できないものとする。仕事 $i$ の処理にかかる時間を $p_{i}(>0)$, 納期を $d_{i}(\geq 0)$ とする. $s_{i}$ と $x_{i j}$ は変数で, $s_{i}$ は仕事 $i$ の開始時刻, $x_{i j}$ は仕事 $i$ が仕事 $j$ に先行するならば $x_{i j}=1$, そうでなければ $x_{i j}=0$ の值を取る. このとき, 仕事の納期遅れの合計が最小となる処理スケジュールを求める問題は以下の通りに定式化できる. $ \begin{array}{cll} \operatorname{minimize} & \sum_{i=1}^{n} \max \left.\{s_{i}+p_{i}-d_{i}, 0\right.\} & \\ \text { subject to } & s_{i}+p_{i} \leq s_{j}+M\left(1-x_{i j}\right), & i=1, \ldots, n, j \neq i, \\ & x_{i j}+x_{j i}=1, & i=1, \ldots, n, j \neq i, \\ & x_{i j} \in\{0,1\}, & i=1, \ldots, n, j \neq i, \\ & s_{i} \geq 0, & i=1, \ldots, n . \end{array} $ 納期遅れは仕事 $i$ の終了時刻 $s_{i}+p_{i}$ が納期 $d_{i}$ より後になる場合のみ生じるので, 各仕事 $i$ に対する納期遅れは $\max \left.\{s_{i}+p_{i}-d_{i}, 0\right.\}$ と記述できる. 1 番目の制約式は, 仕事 $i$ が仕事 $j$ に先行するならば仕事 $i$ の終了時刻が仕事 $j$ が開始時刻の前になることを表す. 2 番目の制約式は, 仕事 $i$ が仕事 $j$ に先行するかもしくはその逆が必ず成り立つことを表す. 目的関数が最大値の最小化なので, 納期遅れを表す新たな変数 $t_{i}=\max \left.\{s_{i}+p_{i}-d_{i}, 0\right.\}$ を導入すると整数計画問題に変換できる。 $ \begin{array}{cll} \operatorname{minimize} & \sum_{i=1}^{n} t_{i} & \\ \text { subject to } & s_{i}+p_{i} \leq s_{j}+M\left(1-x_{i j}\right), & i=1, \ldots, n, j \neq i, \\ & x_{i j}+x_{j i}=1, & i=1, \ldots, n, j \neq i, \\ & s_{i}+p_{i}-d_{i} \leq t_{i}, & i=1, \ldots, n, \\ & x_{i j} \in\{0,1\}, & i=1, \ldots, n, j \neq i, \\ & s_{i}, t_{i} \geq 0, & i=1, \ldots, n . \end{array} $ 長方形詰込み問題 : 図 7 に示すように, 幅が固定で十分な高さがある長方形の容器と $n$ 個の長方形の荷物が与えられる.容器の幅を $W$, 各荷物 $i$ の幅を $w_{i}$, 高さを $h_{i}$ とする. 荷物はその下辺が容器の下辺と平行になるように配置し, 回転は許さないものとする. ここで, 全ての荷物を互いに重ならないように容器内に配置する。 $\left(x_{i}, y_{i}\right)$ を荷物 $i$ の左下隅の座標を表す変数とすると(容器の左下隅を原点とする), 問題の制約条件は以下の通りに記述できる. 制約条件 1 :荷物 $i$ は容器内に配置される. これは, 以下の 2 本の不等式がともに成り立つことと同値である. $ \begin{aligned} & 0 \leq x_{i} \leq W-w_{i} \\ & 0 \leq y_{i} \leq H-h_{i} \end{aligned} $ 制約条件 2:荷物 $i, j$ は互いに重ならない. これは, 以下の 4 本の不等式のうち 1 本以上が成り立つことと同値であり, 各不等式はそれぞれ荷物 $i$ が荷物 $j$ の左側,右側,下側,上側にあることを記述している. $ \begin{aligned} & x_{i}+w_{i} \leq x_{j} \\ & x_{j}+w_{j} \leq x_{i} \\ & y_{i}+h_{i} \leq y_{j} \\ & y_{j}+h_{j} \leq y_{i} \end{aligned} $ $z_{i j}^{\text {left }}, z_{i j}^{\text {right }}, z_{i j}^{\text {lower }}, z_{i j}^{\text {upper }}$ は変数で, それぞれ荷物 $i$ が荷物 $j$ の左側, 右側, 下側, 上側にあるならば 1 , そうでなければ 0 の値を取る。このとき, 制約条件を満たした上で必要な容器の高さ $H$ を最小にする荷物の配置を求める問題は以下の通りに定式化できる。 図 7 長方形詰迄久問題の例 $ \begin{array}{cll} \operatorname{minimize} & H & \\ \text { subject to } & 0 \leq x_{i} \leq W-w_{i}, & i=1, \ldots, n, \\ & 0 \leq y_{i} \leq H-h_{i}, & i=1, \ldots, n, \\ & x_{i}+w_{i} \leq x_{j}+M\left(1-z_{i j}^{\text {left }}\right), & i=1, \ldots, n, j \neq i, \\ & x_{j}+w_{j} \leq x_{i}+M\left(1-z_{i j}^{\text {right }}\right), & i=1, \ldots, n, j \neq i, \\ & y_{i}+h_{i} \leq y_{j}+M\left(1-z_{i j}^{\text {lower }}\right), & i=1, \ldots, n, j \neq i, \\ & y_{j}+h_{j} \leq y_{i}+M\left(1-z_{i j}^{\text {upper }}\right), & i=1, \ldots, n, j \neq i, \\ & z_{i j}^{\text {left }}+z_{i j}^{\text {right }}+z_{i j}^{\text {lower }}+z_{i j}^{\text {upper }}=1, & i=1, \ldots, n, j \neq i, \\ & z_{i j}^{\text {left }}, z_{i j}^{\text {right }}, z_{i j}^{\text {lower }}, z_{i j}^{\text {upper }} \in\{0,1\}, & i=1, \ldots, n, j \neq i . \end{array} $ ## 6.5 非線形関数 非凸関数最小化問題は整数計画問題に近似できる。 図 8 に示すように, 非凸関数 $f(x)$ 上の $m$ 個の点 $\left(a_{1}, f\left(a_{1}\right)\right), \ldots,\left(a_{m}, f\left(a_{m}\right)\right)$ を適当に選んで線分で繋ぐと区分線形関数 $g(x)$ が得られる. 区分線形関数上の点 $(x, g(x))$ はある線分上にある. 例えば, 点 $(x, g(x))$ が $\left(a_{i}, f\left(a_{i}\right)\right)$ と $\left(a_{i+1}, f\left(a_{i+1}\right)\right)$ で結ばれる線分上にある場合は以下の通りに記述できる. $ \left.\{\begin{array}{l} (x, g(x))=t_{i}\left(a_{i}, f\left(a_{i}\right)\right)+t_{i+1}\left(a_{i+1}, f\left(a_{i+1}\right)\right) \\ t_{i}+t_{i+1}=1 \\ t_{i}, t_{i+1} \geq 0 \end{array}\right. $ これを考慮すると一般の場合も以下の通りに記述できる。 図 8 非凸関数の区分線形関数による近似 $ \left.\{\begin{array}{l} (x, g(x))=\sum_{i=1}^{m} t_{i}\left(a_{i}, f\left(a_{i}\right)\right), \\ \sum_{i=1}^{m} t_{i}=1, \\ t_{i} \geq 0, \\ \text { 高々 } 2 \text { つの隣り合う } t_{i} \text { が正. } \end{array} i=1, \ldots, m,\right. $ ここで, 2 値変数 $z_{1}, \ldots, z_{m-1}$ を導入すると「高々 2 つの隣り合う $t_{i}$ が正」という制約条件は以下の通りに記述できる。 $ \left.\{\begin{array}{l} t_{1} \leq z_{1} \\ t_{i} \leq z_{i-1}+z_{i}, \quad i=2, \ldots, m-1 \\ t_{m} \leq z_{m-1} \\ \sum_{i=1}^{m-1} z_{i}=1, \\ z_{i} \in\{0,1\}, \quad i=1, \ldots, m-1 . \end{array}\right. $ 次に, 2 值変数で定義される非線形関数を線形関数に変換する方法を紹介する.まず, 2 值変数 $x_{1}$ と $x_{2}$ の積 $y=x_{1} x_{2}$ を考える. このとき, $\left(x_{1}, x_{2}, y\right)$ の実行可能解は $(0,0,0),(1,0,0)$, $(0,1,0),(1,1,1)$ の 4 通りなので以下の通りに記述できる. $ \left.\{\begin{array}{l} y \geq x_{1}+x_{2}-1 \\ y \leq x_{1} \\ y \leq x_{2} \\ x_{1}, x_{2} \in\{0,1\} \end{array}\right. $ これらの制約式は実行可能解全体の凸包から得られる. 同様に $k$ 個の 2 値変数の積 $y=\prod_{i=1}^{k} x_{i}$ も以下の通りに記述できる。 $ \begin{cases}y \geq \sum_{i=1}^{k} x_{i}-(k-1), & \\ y \leq x_{i}, & i=1, \ldots, k \\ x_{i} \in\{0,1\}, & i=1, \ldots, k\end{cases} $ ## 6.6 グラフの連結性 グラフにおける最適化問題では選択した部分グラフの連結性が求められる場合が少なくない. ここでは, グラフの連結性を制約条件に持つ整数計画問題の例として最小全域木問題と巡回セー ルスマン問題を紹介する。 無向グラフ $G=(V, E)$ の任意の頂点 $i, j \in V$ の間に路が存在するならば $G$ は連結であると呼ぶ. 図 9 は連結なグラフと非連結なグラフの例である。これは,任意の頂点集合 $S \subset V(S \neq \emptyset)$ に対して, $S$ と $V \backslash S$ の間を繋ぐ辺が少なくとも 1 本は存在するという制約条件に置き換えられる。 最小全域木問題 : 無向グラフ $G=(V, E)$ と各辺 $(i, j) \in E$ の長さ $d_{i j}$ が与えられる. 閉路を持たない連結な部分グラフは木, 全ての頂点を繋ぐ木は全域木と呼ばれる, $x_{i j}$ は変数であり,辺 $(i, j)$ は木に含まれるならば $x_{i j}=1$, そうでなければ $x_{i j}=0$ の値を取る. このとき, 辺の長さの合計が最小となる全域木を求める問題は以下の通り定式化できる. $ \begin{array}{ll} \operatorname{minimize} & \sum_{(i, j) \in E} d_{i j} x_{i j} \\ \text { subject to } & \sum_{i \in S} \sum_{j \in V \backslash S} x_{i j} \geq 1, \quad S \subset V, S \neq \emptyset \\ & \sum_{(i, j) \in E} x_{i j}=n-1, \\ & x_{i j} \in\{0,1\}, \quad(i, j) \in E . \end{array} $ 1 番目の制約式は,辺集合 $T \subseteq E$ が全ての頂点を連結することを表し,カットセット制約と呼ばれる。 2 番目の制約式は, $|T|=n-1$ を満たすことを表す.これらの制約式は $T$ が全域木となるための必要十分条件である. 巡回セールスマン問題 : 無向グラフ $G=(V, E)$ の全ての頂点をちょうど 1 回ずつ通る閉路は巡回路と呼ばれる。巡回路となるためには,各頂点 $k$ に接続する辺がちょうど 2 本でなければならない。しかし, これだけでは不十分で,図 10 (左) に示すような部分巡回路を排除する必要がある。これは,任意の頂点集合 $S \subset V(S \neq \emptyset)$ に含まれる辺の本数が $|S|-1$ 以下であるという制約条件に置き換えられる。 無向グラフ $G=(V, E)$ と各辺 $(i, j) \in E$ の長さ $d_{i j}$ が与えられる. $x_{i j}$ は変数で, 辺 $(i, j) \in E$ が巡回路に含まれるならば $x_{i j}=1$, そうでなければ $x_{i j}=0$ の値を取る. このとき, 全ての頂点をちょうど 1 回ずつ訪問する最短の巡回路を求める問題は以下の通りに定式化できる. 図 9 連結なグラフ(左)と非連結なグラフ(右)の例 図 10 部分巡回路(左)と巡回路(右)の例 $ \begin{array}{lll} \operatorname{minimize} & \sum_{(i, j) \in E} w_{i j} x_{i j} & \\ \text { subject to } & \sum_{(i, k) \in E: i<k} x_{i k}+\sum_{(k, j) \in E: k<j} x_{k j}=2, & k \in V, \\ & \sum_{(i, j) \in E: i, j \in S} x_{i j} \leq|S|-1, & S \subset V, S \neq \emptyset, \\ & x_{i j} \in\{0,1\}, & (i, j) \in E . \end{array} $ 1 番目の制約式は, 各頂点に接続する辺がちょうど 2 本となることを表す. 2 番目の制約式は,部分巡回路を持たないことを表し,部分巡回路除去制約と呼ばれる. 最小全域木問題のカットセット制約や巡回セールスマン問題の部分巡回路除去制約は,制約式の数が $\mathrm{O}\left(2^{n}\right)$ と膨大で, 全ての制約式を書き下して整数計画ソルバーに解かせるのは現実的ではないため,必要に応じて制約式を逐次追加する切除平面法が必要となる. グラフの連結性を制約条件に持つ整数計画問題の定式化と解法については (藤江 2011; 久保, ペドロソ, 村松, レイス 2012) が詳しく, 新たな変数を導入して必要な制約式の数を抑える方法が紹介されている. ## 7 最適解が求められない場合の対処法 最近の整数計画ソルバーは非常に高性能ではあるものの,解候補を体系的に列挙する分枝限定法を探索の基本戦略とするため,与えられた問題例によってはいつまで待っても計算が終了しない場合が少なくない.ここでは,目的関数の值を最小化する整数計画問題を考える.分枝限定法は,整数計画問題を分枝操作によって小規模な部分問題に分解しつつ,各部分問題では,暫定解から得られる最適値の上界値と,線形計画緩和問題から得られる最適値の下界値を利用した限定操作によって無駄な探索を省いている。そのため,いつまで待っても整数計画ソルバー の計算が終了しないならば,(1) 線形計画緩和問題の求解に多大な計算時間を要する,(2) 限定操作が効果的に働いていないことなどが原因として考えられる。もちろん, 整数計画ソルバー は分枝限定法以外にも多くのアルゴリズムを内包しているため, これだけが原因であると決めつけるべきではないが,対策を練る上でまず始めに確認すべき事項である。 (1)については, 原問題から各変数の整数条件を取り除いた線形計画問題を整数計画ソルバー で解けば計算時間を見積もることができる。実際には,整数計画ソルバーは再最適化と呼ばれる手法を利用するため, 整数計画問題の各部分問題において線形計画緩和問題の求解に要する計算時間はもっと短くなる。しかし,この方法で線形計画問題を 1 回解くのに要する計算時間が長いと感じるようであれば,問題例の規模が整数計画ソルバーで解くには大き過ぎると判断するのが妥当であろう。ただし, 集合被覆問題や集合分割問題などの線形計画緩和問題では,単体法と内点法で計算時間が大きく異なるため,(部分問題ではなく)原問題の線形計画緩和問題に適用するアルゴリズムを切り替えることで計算時間を大幅に削減できる場合もある. (2) については, (i) 暫定解から得られる最適値の上界值が悪い場合, (ii) 線形計画緩和問題から得られる最適値の下界值が悪い場合, (iii) 多数の最適解が存在する場合などが考えられる. これらは, 整数計画ソルバーの実行時に出力される最適値の上界値と下界値から確認できる. まず,(i) 暫定解から得られる上界值が悪い場合を考える。これは,実行可能解が非常に少ないかもしくは存在しないため, 整数計画ソルバーの実行時に良い実行可能解を発見できないことが原因として考えられる。このような場合は, 制約式を必ず満たさなければならない制約式 (絶対制約)とできれば満たして欲しい制約式(考慮制約)に分けた上で, 優先度の低い考慮制約を緩和する方法がある. 例えば, 制約式 $\sum_{j=1}^{n} a_{i j} x_{j} \geq b_{i}$ を $\sum_{j=1}^{n} a_{i j} x_{j} \geq b_{i}-\varepsilon(\varepsilon$ は適当な正の定数)に置き換える方法や,新しい変数 $z_{i}(\geq 0)$ とぺナルティ係数 $p_{i}(>0)$ を導入して $\sum_{j=1}^{n} a_{i j} x_{j} \geq b_{i}-z_{i}$ に置き換えた上で目的関数に新たな項 $+p_{i} z_{i}$ を加える方法などがある.また, 利用者の持つ先験的な知識を利用して容易に実行可能解を求められるならば,利用者が持つアルゴリズムで求めた実行可能解を初期暫定解として整数計画ソルバーに与えることも可能である. 次に, (ii) 線形計画緩和問題から得られる最適値の下界値が悪い場合を考える. 図 11 に示すように, 線形計画緩和問題の実行可能領域は, 整数計画問題の実行可能解となる整数格子点のみを含む凸多面体となるため,同じ整数計画問題に対して線形計画緩和問題の最適値が異なる複数の定式化が存在する。つまり, 整数計画問題では最適値の良い下界值が得られる強い定式化と, そうでない弱い定式化が存在する。 ちなみに, 最も強い定式化は整数計画問題の実行可能解全体の凸包を記述することであるが,凸包を記述する全ての制約式を求めることは,最悪の場合には全ての実行可能解を列挙することに他ならないため現実的な方法ではない. たしかに, 制約式の数が少ない定式化の方が見栄えも良く, 分枝限定法を適用した際にも各部分問題における線形計画緩和問題の求解に要する計算時間も短くなるように思われる. しかし, 最適值の上界值と下界值の差が広がれば分枝限定法で生成される部分問題の数は急激に増加するため, 安易に制約式を減らすべきではない。一方で,多くの整数計画ソルバーは㔯長な制約式を 図 11 整数計画問題の実行可能解を含む凸多面体の例 前処理で除去するため, 制約式が多少増えても計算時間にはあまり影響しない場合が多い.例えば,与えられた現実問題を完全単摸行列に近い形の制約行列を持つ整数計画問題に定式化できる場合は,線形計画緩和問題から良い下界値が得られることが期待できる。 最後に, (iii) 多数の最適解を持つ場合を考える. 最適値の上界值と下界值の差が小さいにも関わらず, いつまで待っても整数計画ソルバーの計算が終了しないならば, 整数計画問題が多数の最適解を持っている可能性がある。このような場合は, 目的関数や制約式を変更して最適解の数を減らす方法がある. 例えば, 6.3 節で紹介したビンパッキング問題の定式化では, 使用する箱の数が最小であれば使用する箱の組合せは何でも構わないため多数の最適解が生じる。そこで,必ず番号の小さい箱から順に使用するという制約式を追加すると最適解の数を減らすことができる。 $ y_{i} \geq y_{i+1}, \quad i=1, \ldots, n-1 $ また, 5.2 節で紹介した多目的最適化問題の定式化では, 1 変数からなる目的関数を持つ整数計画問題に変換するとやはり多数の最適解が生じる。このような場合は, いつまで待っても整数計画ソルバーの計算が終了しないならば線形和を最小化する定式化に変更した方が良い。また,目的関数 $\sum_{j=1}^{n} c_{j} x_{j}$ の各項の係数 $c_{j}$ が全て同じ値を取る場合も多数の最適解が生じ易いため,可能ならば各項の係数 $c_{j}$ をいろいろな値に変えて最適解の数を絞り込む方が良い. 最後に,いつまで待っても整数計画ソルバーの計算が終了しない場合には, 最適解を求めることを諦めるのも 1 つの手である. 整数計画ソルバーは探索中に得られた暫定解を保持しているので,与えられた計算時間内に最適解が求められなくても良い実行可能解が求まれば,利用者によっては十分に満足できる場合も多い. また, 整数計画ソルバーは線形計画緩和問題を解いて得られる最適値の下界値も保持しているので, 事後にはなるが得られた暫定解の精度も評価できる,実際に,整数計画ソルバーは近似解法としても高性能であり,メタヒューリスティク スなどの発見的解法を利用もしくは開発する前に,整数計画ソルバーで良い実行可能解が得られるかどうか確認するべきである。最適解が求められない場合の対処法については (宮代 2014;宮代,松井 2006) が詳しい. ## 8 おわりに 本論文では,数理最適化の専門家ではない利用者が,現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説した. 整数計画ソルバーの解説は本論文が初めてではなく,オペレーションズ・リサーチの分野では同じ趣旨の解説がいくつか発表されている (藤江 2012; 宮代, 松井 2006; 宮代 2012). また, 現実問題を線形計画問題や整数計画問題に定式化する技法については (久保他 2012; Williams 2013) が詳しい. これらの文献は,本論文では取り上げていない多くの内容を含んでいるので,整数計画ソルバーに興味を持たれた読者にはぜひ一読をお勧めする。 ## 参考文献 Achterberg, T. and Wunderling, R. (2013). "Mixed Integer Programming: Analyzing 12 Years of Progress." In Jünger, M. and Reinelt, G. (Eds.), Facets of Combinatorial OptimizationFestschrift for Martin Grötschel, pp. 449-481. Springer. Ashford, R. (2007). "Mixed Integer Programming: A Historical Perspective with Xpress-MP." Annals of Operations Research, 149, pp. 5-17. Atamtürk, A. and Savelsbergh, M. W. P. (2005). "Integer-programming software systems." Annals of Operations Research, 140, pp. 67-124. Berthold, T., Gleixner, A. M., Heinz, S., Koch, T., and Shinano, Y. (2012). SCIP Optimization Suite を利用した混合整数(線形/非線形)計画問題の解法. テクニカル・レポート, Zuse Institute Berlin. Bixby, R. and Rothberg, E. (2007). "Progress in Computational Mixed Integer Programming - A Look Back from the Other Side of the Tipping Point." Annals of Operations Research, 149, pp. 37-41. Charnes, A. and Cooper, W. W. (1961). Management Models and Industrial Applications of Linear Programming. John Wiley \& Sons. Chvatal, V. (1983). Linear Programming. W.H.Freeman \& Company. DeNero, J. and Klein, D. (2008). "The Complexity of Phrase Alignment Problems." In Proceedings of 46th Annual Meeting of the Association for Computational Linguistics: Human Language Technology, Short Papers, pp. 25-28. Filatova, E. and Hatzivassiloglou, V. (2004). "A Formal Model for Information Selection in Multi-Sentence Text Extraction." In Proceedings of Coling 2004, pp. 397-403. Fourer, R. (2013). "Linear programming." OR/MS Today, 40 (3), pp. 40-53. 藤江哲也 (2011). 最近の混合整数計画ソルバーの進展について. オペレーションズ・リサーチ, 56 (5), pp. 263-268. 藤江哲也 (2012). 整数計画法による定式化入門. オペレーションズ・リサーチ, $\boldsymbol{5 7}$ (4), pp. 190-197. Gillick, D. and Favre, B. (2009). "A Scalable Global Model for Summarization." In Proceedings of the Workshop on Integer Programming for Natural Language Processing at the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 10-18. 平尾努, 鈴木潤, 磯崎秀樹 (2009). 最適化問題としての文書要約. 人工知能学会論文誌, $24(2)$, pp. 223-231. Kellerer, H., Pferschy, U., and Pisinger, D. (2004). Knapsack Problems. Springer. Koch, T., Achterberg, T., Andersen, E., Bastert, O., Berthold, T., Bixby, R. E., Danna, E., Gamrath, G., Gleixner, A. M., Heinz, S., Lodi, A., Mittelmann, H., Ralphs, T., Salvagnin, D., Steffy, D. E., and Wolter, K. (2011). "MIPLIB2010: Mixed Integer Programming Library version 5." Mathematical Programming Computation, 3 (2), pp. 103-163. 今野浩 (1982). 整数計画法と組合也最適化. 日科技連. 今野浩 (1987). 線形計画法. 日科技連. 今野浩 (2005). 役に立つ 1 次式一整数計画法「気まぐれな王女」の 50 年. 日本評論社. 今野浩 (2014). ヒラノ教授の線形計画法物語. 岩波書店. Korte, B. and Vygen, J. (2012). Combinatorial Optimization: Theory and Algorithms (5th edition). Springer. 越川満, 内山将夫, 梅谷俊治, 松井知已, 山本幹雄 (2010). 統計的機械翻訳におけるフレーズ対応最適化を利用した N-best 翻訳候補のリランキング. 情報処理学会論文誌, 51 (8). 久保幹雄, J. P. ペドロソ, 村松正和, A. レイス (2012). あたらしい数理最適化—Python 言語と Gurobi で解く. 近代科学社. Linderoth, J. T. and Ralph, T. K. (2006). "Noncommercial Software for Mixed-Integer Linear Programming." In Karlof, J. K. (Ed.), Integer Programming-Theory and Practice, pp. 253-303. Taylor \& Francis. Lodi, A. (2010). "Mixed Integer Programming Computation." In Jünger, M., Liebling, T., Naddef, D., Nemhauser, G., Pulleyblank, W., Reinelt, G., Rinaldi, G., and Wolsey, L. (Eds.), 50 Years of Integer Programming 1958-2008, pp. 619-645. Springer. Ma, X. (2006). "Champollion: A Robust Parallel Text Sentence Aligner." In Proceedings of 5th International Conference on Language Resources and Evaluation, pp. 489-492. McDonald, R. (2007). "A Study of Global Inference Algorithms in Multi-Document Summarization." In Proceedings of the European Conference on Information Retrieval (ECIR), pp. 557-564. Mittelmann, H. D. (2014). "Decision Tree for Optimization Software." http://plato.asu.edu/ guide.html. 宮代隆平 (2012). 整数計画ソルバー入門. オペレーションズ・リサーチ, $5 \mathbf{7}$ (4), pp. 183-189. 宮代隆平 (2014). 整数計画法メモ. http://www.tuat.ac.jp/ miya/ipmemo.html. 宮代隆平, 松井知已 (2006). ここまで解ける整数計画. システム/制御/情報, 50 (9), pp. 363-368. Moore, R. C. (2002). "Fast and Accurate Sentence Alignment of Bilingual Corpora." In Machine Translation: From Research to Real Users, pp. 135-144. Springer. Nemhauser, G. L. and Wolsey, L. A. (1988). Integer and Combinatorial Optimization. John Wiley \& Sons. 西川仁, 平尾努, 牧野俊朗, 松尾義博, 松本裕治 (2013). 壳長性制約付きナップサック問題に基づく複数文書要約モデル. 自然言語処理, 20 (4), pp. 586-612. 西野正彬, 平尾努, 永田昌明 (2013). 集合パッキング問題に基づく文アラインメントのモデル 化. 言語処理学会第 19 回年次大会発表論文集, pp. 932-935. 西野正彬, 鈴木潤, 梅谷俊治, 平尾努, 永田昌明 (2014). 列生成法を用いた高速なアラインメ ント. 言語処理学会第 20 回年次大会発表論文集, pp. 364-367. Schrijver, A. (1998). Theory of Linear and Integer Programming. John Wiley \& Sons. 高村大也, 奥村学 (2008). 最大被覆問題とその変種による文書要約モデル. 人工知能学会論文 誌, 23 (6), pp. 505-513. 高村大也, 奥村学 (2010). 施設配置問題による文書要約のモデル化. 人工知能学会論文誌, $\mathbf{2 5}$ (1), pp. 174-182. Williams, H. P. (2013). Model Building in Mathematical Programming (5th edition). John Wiley $\&$ Sons. Wolsey, L. A. (1998). Integer Programming. John Wiley \& Sons. ## 略歴 梅谷俊治:1998 年大阪大学大学院基礎工学研究科博士前期課程修了. 2002 年京都大学大学院情報学研究科博士後期課程指導認定退学. 豊田工業大学助手,電気通信大学助教を経て, 2008 年より大阪大学大学院情報科学研究科准教授,現在に至る。博士(情報学)。専門は組合せ最適化,アルゴリズム。日本オ ペレーションズ・リサーチ学会, 情報処理学会, 人工知能学会, INFORMS, MOS 各会員. (2014 年 5 月 22 日受付) (2014 年 6 月 13 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「コーパスベース国語辞典」構築のための 「古風な語」の分析と記述 柏野和佳子 ${ }^{\dagger, \dagger \dagger}$ ・奥村学怰 従来の紙版の国語辞典はコンパクトにまとめることが優先され, 用例の記述は厳選 され,必要最小限にとどめられていた。しかし,電子化編集が容易になり,電子化 された国語辞典データや種々のコーパスが活用できるようになった今,豊富な用例 を増補した電子化版国語辞典の構築が可能になった. そうした電子化版国語辞典は,人にも計算機にも有用性の高いものと期待される. 著者らはその用例記述の際に見出し語のもつ文体的特徴を明記する方法を提案し, より利用価値の高い, 電子化版 の「コーパスベース国語辞典」の構築を目指している. 文体的特徴の記述は,語の 理解を助け, 文章作成時にはその語を用いる判断の指標になり得るため, 作文指導 や日本語教育, 日本語生成処理といった観点からの期待も高い. 本論文では, 古さ を帯びながらも現代語として用いられる「古風な語」を取り上げる。これに注目す る理由は,三点ある,一点目は,現代語の中で用いられる「古風な語」は少なくな いにも関わらず,「古語」にまぎれ辞書記述に取り上げ損なってしまう危険性のある ものであること。二点目は,その「古風な語」には,文語の活用形をもつなど,その 文法的な扱いに注意の必要なものがあること。 三点目は, 「古さ」という文体的特徵 を的確かつ,効果的に用いることができるよう,十分な用法説明が必要な語である ということ,である。そこで,本論文では,これら三点に留意して「古風な語」の 用法をその使用実態に即して分析し,その辞書記述を提案する。はじめに,現行国語辞典 5 種における「古風な語」の扱いを概観する。次に,「古風な語」の使用実態 を『現代日本語書き言葉均衡コーパス』に収録される図書館サブコーパスを用いて 分析し,「古風な語」の使用を, (1) 古典の引用,(2) 明治期から戦前まで, (3) 時代・歴史小説, (4) 現代文脈, に 4 分類する。 そして, その 4 分類に基づく「コーパス ベース国語辞典」の辞書記述方法を提案する。このような辞書記述は例えば,作文指導や日本語教育, 日本語生成処理の際の語選択の参考になるものと期待される。 キーワード:国語辞典,辞書,古風な語,文体、コーパス ## Usage Analysis of Old-Fashioned Words based on the Balanced Corpus of Contemporary Written Japanese \author{ WaKaKo Kashino $^{\dagger, \dagger \dagger}$ and Manabu Okumura ${ }^{\dagger \dagger \dagger}$ } A fundamental issue in compiling a Japanese dictionary is selecting lexical entries and describing the meaning(s) and use cases for the selected entries. Because some old-  fashioned Japanese words continue to be used even now, modern Japanese dictionaries usually include certain old-fashioned words. However, up to now, no systematic study has investigated the selection and usage description of old-fashioned words. Therefore, here we first review five already-published modern Japanese dictionaries and clarify the characteristics and variations among them. Subsequently, we propose four categories of old-fashioned Japanese words in terms of the nature and chronological features of the text where those words appear. According to the categorization, we analyze the use cases of the old-fashioned words in the "Balanced Corpus of Contemporary Written Japanese." Finally, we discuss a systematic methodology of lexical description for such entries, with a typical example. Key Words: Japanese Dictionary, Compiling Dictionary, Old-fashioned Word, Style, Corpus ## 1 はじめに 従来の紙版の国語辞典 ${ }^{1}$ は紙幅の制約などから, 用例の記述は必要最小限に厳選されていた. しかし,電子化編集が容易になり,国語辞典データ 2 や種々のコーパスが活用できるようになった今, 新たな「コーパスベース国語辞典」の構築が可能になった。ここで,「コーパスベース国語辞典」とは, 従来の紙版の国語辞典の記述に加え, コーパス分析から得られる豊富な用例, そのほか言語のさまざまな辞書的情報を詳細に記述する, 電子テキスト版の国語辞典のことである。紙幅によって制約されていた記述量の制限をなくし,辞書記述の充実をはかることがねらいである。そうした「コーパスベース国語辞典」は,人にも計算機にも有用性の高いものと期待される。しかし,単に情報を増やせばよいというものではなく,有用な情報を的確に整理して記述することが不可欠である。著者らはそのような観点から,その用例記述の際に見出し語のもつ文体的特徴を明記することにより,より利用価值の高い「コーパスベース国語辞典」を構築することを目指している。文体的特徴の記述は, 語の理解を助け, 文章作成時にはその語を用いる判断の指標になり得るため, 作文指導や日本語教育, 日本語生成処理といった観点からの期待も高い. 従来の国語辞典では, 文体的特徴として, 「古語, 古語的, 古風, 雅語, 雅語的, 文語, 文語的, 文章語, 口語, 俗語」などのように, 位相と呼ばれる注記情報が付与されてきた ${ }^{3}$. 本論文では, そのような注記が付与されるような語のうち, 「古さ」を帯びながら現代語として用いら  れている語に着目する。本論文ではそのような語を「古風な語」と呼び, 次の二点を満たすものと定義する。 (a)「時代・歴史小説」を含めて現代で使用が見られる。 (b)明治期以前,あるいは,戦前までの使用が見られる。 (a)は,現代ではほとんど使われなくなっている古語と区別するものである。(b)は「古風な語」の「古さ」の範囲を定めるものである。本論文では, 現代語と古語との境と一般にされている明治期以前までを一つの区切りにする。また,戦前と戦後とで文体変化が大きいと考えられるため,明治期から戦前までという区切りも設ける。しかしながら,一般には,戦前までさかのぼらずとも,事物の入れ替わりや,流行の入れ替わりにより,減っていったもの,なくなっていったものに「古さ」を感じることは多い,例えば,「ポケベル」「黒電話」「ワープロ」「こたつ」などである. こういった, 近年急速に古さを感じるようになっている一連の語の分析も辞書記述の一つの課題と考えるが,本論文で取り上げる「古風な語」は,戦前までさかのぼって「古さ」を捉えることとし,それ以外とは区別する。 「古風な語」に注目する理由は,三点ある。一点目は,現代語の中で用いられる「古風な語」 は少なくないにも関わらず,「古語」にまぎれ辞書記述に取り上げ損なってしまう危険性のあるものであること。二点目は, その「古風な語」には, 文語の活用形をもつなど,その文法的な扱いに注意の必要なものがあること。 三点目は, 「古風」という文体的特徴を的確かつ, 効果的に用いることができるよう,十分な用法説明が必要な語であるということ,である. 「古風な語」には,例えば,「さ【然】がある。これは,「状態・様子がそうだという意を表す語。」(『岩波国語辞典』第 7 版,岩波書店)であり,現代では,「さほど」「さまで」「さばかり」「さしも」「さも」のように結合して用いられる。その一つ,「さもありなん」(そうなるのがもっともだ)は,「さも」+「あり」+文語助動詞「ぬ」の未然形「な」+文語助動詞「む」 である「ん」,から成る連語である,枕草子 (128 段)に,「大口また、長さよりは口ひろければさもありなむ」と使われている。一方,国立国語研究所『現代日本語書き言葉均衡コーパス』 (Balanced Corpus of Contemporary Written Japanese; 以下, BCCWJ と記す4)には,全体で 34 件の用例があり, いずれも, 現代文脈での使用である。「まさか和久さんが指導員として復帰してるなんて思わなかったから。でも、さもありなん、という気もする。」(君塚良一(1950 年代生まれ)/丹後達臣, 『踊る大捜査線スペシャル』扶桑社, 1998 年)などである. 同じように,「なきにしもあらず」「いわずもがな」「推して知るべし」…ど,現代文脈で用いられる文語調の表現は他にもあり,BCCWJ の現代文脈でそれぞれの用例を得ることができる。 「古風な語」は,これまでにも現代日本語における特徴的な語として着目されてきた。実際,多くの国語辞典では,現代文脈で使われる古さを帯びている語については,「古語」とはせず, ^{4}$ BCCWJ の詳細は, 山崎 $(2009,2011)$, 前川 $(2008,2013)$ を参照. } 「古語的」「古風」「雅語」「文語」「文語的」といった注記が付されている. しかし,これらの注記を横断的に俯瞰することや,「古風な語」の使用実態とその辞書記述との関連を検討する試みは,これまで行われていなかった。 以上の問題を解決するために,本論文では,まずは「古風な語」の調査語として,電子化版が市販されている『CD-ROM 岩波日本語表現辞典一国語・漢字・類語一』(2002 年)収録の『岩国』(第 6 版)に「古語的」「古風」と注記されている語を用い,現在刊行されている国語辞典で「古風な語」がどのように取り上げられているかを横断的に俯瞰する,次に,現代語のコー パスである BCCWJ に収録されている約 3,000 万語分の書籍テキストを用いて,その使用実態を分析し(柏野, 奥村 2010,2011), それに基づき, 文脈の特徴や用例を『コーパスベース国語辞典』に記述する方法を提案し,その有用性を論じる。 ## 2 「古風な語」の現行辞典での扱い ## 2.1 現行の国語辞典 多くの国語辞典で, 「古風な語」に関し,「古風」あるいは,「古語的」「雅語」「文語」「文語的」といった注記を付す記述が試みられている。積極的に「古風な語」の収録と記述が試みられているものは『三省堂国語辞典』(第 6 版,三省堂,以下『三国』)である.巻頭にある「この辞書の使い方」(p.15)には,次の注意書きが記されている. 注意古語ではないかと思われることばが、ずいぶん〔文〕や〔雅〕として出ていますが、 これらは評論文〔新聞のコラムをふくむ〕・小説、新聞・雑誌の短歌欄や俳句闌などで実際に使われている現代語です。 そして,〔文〕とは文章語〔現代語のうち、文章などに使われる、話しことばとの差の大きいことば〕であり,〔雅〕とは雅語の略であり,「短歌・俳句・歌詞などで、現代でも使われるみやびやかなことばや詩的なおもむきのあることば」であると説明されている. さらに,「年配者の話しことば、小説のせりふ、落語・時代劇などに出てくる古めかしいことばは、〔古風〕として示しました.」とも記されている。つまり,『三国』では,現代語として扱うべき「古風な語」 を「文章語, 雅語, 古風」と分類して取り上げ,記述しているということである. 一方, 『新選国語辞典』(第 8 版,小学館,以下『新選』)のように,「古語」を現代文脈で使われる語だけに収録対象を絞っていないものもある。巻頭にある「この辞典を使う人のために」 (p. 6)には,「中学校・高等学校の国語科学習に必要な基本的な古語」は収録したと説明されている. それら以外の国語辞典においては,「古風な語」について,何らかの注記は付されているものの,その扱いについての明確な定義や説明はない,宮島 (1977) が「「文章語」「文語」「雅語」など,それぞれの辞書で呼んでいるものの内容が,はたして一致しているのかどうかは,凡例にかいていないのでわからない」と指摘したのをはじめ, 注記の用語や定義が明確でないことはしばしば指摘されてきた (遠藤 1988, 後藤 2001, 前坊 2009). そこで, 本論文では, 「古風な語」を定義し, そのうえで「古風な語」の実態を調査・分析し,辞書記述案を提案する。 ## 2.2 現行の英語辞典 英語辞典では, 1970 年代頃より,さまざまな文体や使用域をどうしたら辞書で最もよく示し得るかという考察がはじまったと言われている (ハートマン 1984). カウイー (2003)によると,文体や使用域に関する情報が「ラベル」(label) として英語辞典の記述に初めて導入されたのは 『The Oxford Advanced Learner's Dictionary of Current English』(Oxford Univ Press; 3 版, 1974 年)であり,体系的に定義されたラベルが導入されたのは『Longman Dictionary of Contemporary English』(Longman; 初版, 1978 年)であるという.以降,多くの英語辞典において,さまざまなラベルが活用されている。本論文で焦点をあてている「古風」に近いラベルは, 「Time」に関わるものである. Hünig $(2003)^{5}$ によると,「Time」に関わるラべルには,「dated」,「old-fashioned」,「old use」,「archaic」の 4 つがある.これらは,「比較的最近まで使用され,現在高齢者に用いられている」「近現代英語では使われない」「過去の世紀に使用された」ことを示すものとして用いられている。しかしながら, それら用語と定義, 付与される語は辞典間に差異のあることが指摘されている (Fedorova, 2004, Hünig, 2003, Ptaszynski, 2010, Sakwa, 2011). 英語辞典の編集は早くからコーパスベースになっていると言われているが (5.1節),コーパスベースでこれらのラベルを体系的に付与することを論じた文献は見当たらない6. ## 3 「古風な語」の従来の国語辞典における記述 ## 3.1 対象の国語辞典 現行の国語辞典の「古風な語」に対する付与情報の記述の現状を把握するため, 次の 5 種の国語辞典を取り上げ,「古風な語」の見出し語としての採否,および,ラベル・注記の有無とその内容とを比較した。まず, 表 1 に, 対象とした辞典名と, 各辞典において「古風な語」に該  表 1 調査対象の国語辞典と「古風な語」への注記一覧 & & \\ 当すると思われる語に付されていたラベル・注記情報の一覧を示す. 表 1 みると,ラベルや注記情報は似てはいるがそれぞれに特徴のあることがわかる。例えば,『新選』にはほかで「雅語 (的)」とされるものに相当するものは設けられていない. ## 3.2 調査対象語の選定 調査対象とした国語辞典のうち,唯一電子化版が市販されているのが『岩国』である。そこで, 『CD-ROM 岩波日本語表現辞典一国語・漢字・類語一』(2002 年) 収録の『岩国』(第 6 版) 7 を利用して,付された注記を手掛かりに調査対象語を選定し,それらの語について,ほかの 4 辞書の記載を確認することとした。 先の表 1 に示したとおり,『岩国』では,「古語的」「古風」「雅語的」「文語(的)」の 4 つの注記が付されている。本論文では,これらのうち,「古い」ということだけを表す指標と思われる 「古語的」「古風」に着目した.「雅語」には風雅な趣があることや, 和歌などに用いられる語という側面があり,「文語」「文章語」には主に文章に用いられる語という側面があるため,今回の調査には含めないこととした. 「古語的」や「古風」という注記は, 例えば次の『岩国』の記述例に示すように, 下位区分された特定の語義にだけ付されるもの(例:「いたい」)もあれば,語に付されるもの(例:「あいやく」「ころおい」)もある(引用中の太字表示は本論文著者による)8。た,「古風」の場合は,実際は,「古風」「既に古風」「やや古風」や,「古風な言い方」といったように注記の仕方に差異が見られる(例:「いでたち」「あいやく」「ころおい」「かまえて」). 本論文では, これらを区別せず「古風」とあるものをすべてひとくくりにして調査候補語とする. 『岩国』(第 6 版)より: いた-い 一【痛い】神経に耐えがたいほど強い刺激を受けた感じだ。 (1)刃物で手を切る、虫歯がうずく等、外力・病気で肉体や精神が苦しい。(略) (2)しまったと思うほど手ひどい打撃を受けたり、弱点を鋭く突かれたりして、つらい.(略)  二《「一・く」の形で》はなはだしく.ひどく.「自分の不明を一・く恥じる」「一・く感心した」一とは別語源か. 古語的. ## いでたち【出(で)立(ち)】 (1) (外出する時の) 身なり,装い。「たいそうな一だ」 (2)旅立ち. しゅったつ。 $\nabla$ 古風. ## あいやく【相役】 同じ役(についている者)。 $\nabla$ 既に古風. ## ころおい【頃おい】 その折。「晚秋の一」.ころあい。「一を見て訪ねる」マやや古風. ## かまえて【構えて】 《副詞的に》(1)待ちうけて。用意して。心にかけて。 (2)決して。「一油断するな」 $\nabla$ 古風な言い方. 具体的には,『岩国』には,「古語的」と注記される語は,「いたく【痛く】(〜する)」「いと ど」など 16 語あり,「古風」と注記される語は,「あいやく【相役】」,「あとげつ【後月】」など, 151 語あった。 それらの語について最新版の第 7 版の記述を確認したところ, 「古語的」と注記のあった「いやちこ」,「古風」と注記のあった「かえり【回り】」「じする【治する】「みやばら【宮腹】」の合計 4 語は,第 7 版未収録語となっていた.現代語辞書の見出し語として取り上げずともよいという判断のもと収録から外されたものと考えられる.そこで,以上の語を除いた,「古語的」 15 語 (付録:表 5 の「見出し」を参照)「古風」 147 語(付録:表 6 の「見出し」 を参照)を本論文の調査対象語として選定した。 ## 3.3 採否と注記付与状況の比較 調査対象語の辞典における見出し語としての採否,および,調查対象語へのラベル・注記の有無とその内容とを比較した,表 2 に『岩国』で「古語的」の注記のあるものより 3 例の,表 3 に『岩国』で「古風」の注記のあるものより 5 例の調査結果を示す. 表 2 と表 3 には, 5 種の辞典に見出し語として採用されている数, そのうち, 古さについてのラベルや注記が付与されている数, ラベルや注記の内容, 語釈を示した. 調查対象語に対して, 辞典によっての見出し語としての採否や注記付与に差異が見られる。例えば,表 2 の「まがまがしい【禍々・枉々・曲々・凶々しい】」(焱いをもたらしそうだ。いまわしい。不吉だ。『岩国』)と表3の「よしなに【良しなに】」(よ万しく。いいぐあいになるように。『岩国』)は,5 種の辞典とも見出し語に採用としている点は一致しているが, 注記が付与されているのは 2 種の辞典のみである. 調査対象語すべてについての採用数と注記付与数の調查結果は, 付録の表 5 , 表 6 に示した. そして,付録の表 5 ,表 6 には,半数以上の辞典が見出し語として採用し,かつ,注記をつけて 表 2 採否と注記付与状況の例(古語的) & 辞典 & 見出し無 & ラベル & & 語釈 & \\ いた語の数も示した。『岩国』で「古語的」と扱っている 15 語については 6 語であり,「古風」と扱っている語 148 語については 62 語であった,辞典により編集方針が異なるため,採否や注記の付与に違いが生じるのは当然のことではある。しかしながら,著者らが構築を目指す「コー パスベース国語辞典」は,辞書編集者の主観的洞察の重要性を認識しつつも,見出し語の採否や注記の付与をはじめとする辞書記述全般において,コーパスを用いた使用実態の分析に基づく客観的指標を導入することを主眼とする。そこで,次章でBCCWJを用いた「古風な語」の使用実態の分析を行う. 表 3 採否と注記付与状況の例(古風) & 辞典 & & ラベル & & 語釈 & \\ ## 4 「古風な語」のコーパス分析 ## 4.1 「古風な語」の使用頻度 「古風な語」の現代書き言葉における使用実態を把握するために, BCCWJ ${ }^{9}$ の使用頻度を調査した.全文検索システム『ひまわり』(http://www2.ninjal.ac.jp/lrc/) を用いて,「BCCWJ 領域内公開データ 2009」の「図書館サブコーパス」10(約 3,000万語)における調査対象語の使用頻度を調査した (柏野, 奥村 $2010 , 2011$ ). 3.2 節では, 「古語的」 15 語, 「古風」 147 語を調查対象語としたが,ここでは,別語や別の意味用法の用例と紛れ,該当用例の判別が困難であつた次の語は,検索の対象外とした。 『「古語的」15 語より対象外とした語 こうべ【首・頭】,つつみ【堤】, ぶにん【補任】 -「古風」 147 語より対象外とした語(23 語) いっそ, う, うつ【打つ】, くにびと【国人】, さと【里】, じきげ【直下】, しも【下】, じゃ (ぢや), しょせい【書生】,ぜんぶ【全部】, そち【其方】, それ【其(れ)、たいじん【大人】, たいぜい【大勢】,つ【唾】,つかさ【司・官】, であう【出合う・出会う】, とうじ【当時】, とも,の,むやく【無益】, やうち【家内】, やくたい【薬代】 つまり,使用頻度調査の対象語は,「古語的」12 語と,「古風」124 語である ${ }^{11}$. これらの BCCWJにおける使用頻度を求めた結果を付録の表 5 , 表 6 に示した.「使用有」の欄に「一」のある語は,上記で非調査対象とした語である。「○」のある語が使用頻度の得られたものであり,その数は「使用頻度」の欄に示した.使用頻度が得られたのは,付録の表 5 ,表 6 の最終行に示した通り,「古語的」12 語のうちでは 7 語, 「古風」 124 語のうちでは 76 語であった. 約 3,000 万語という規模のコーパスで「古風な語」を検索した場合, 頻度が 100 を超えた語は 6 語であった。また,頻度が 0 だった語は 53 語あった. ## 4.2 「古風な語」の用法の分類 「古風な語」の用法を分析するためには,コーパスから得られる用例がどういった文脈の用例であるのかを区別する必要がある.BCCWJ「図書館サブコーパス」より得られる用例は,その文脈により,執筆及び,記述対象の年代に着目して,大きく次の 4 つに分類することができる. ^{9}$ BCCWJ を本調査で用いた主な理由は次の 2 点である. (1) 現代日本語書き言葉の均衡がとられたコーパスであり, 1 億語の規模があるため, 現代語を対象とする国語辞典の記述でおさえるべき用例, 用法を調べることができる. (2) 著作権処理済であるため,国語辞典の例文作成時の参考にできる. 101986 年から 2005 年までの 20 年間に発行された書籍のうち, 東京都内の 13 自治体以上の公共図書館で共通に所蔵されていた書籍が母集団とされ,そこから抽出したサンプルから成るサブコーパスである。 11 念のため第 7 版の未収録を理由に調査対象外とした 4 語についても使用頻度を調査したところ,「かえり【回り】」 (回数・度数を表す, 古風な助数詞. 回かい. たび)のみ,「蓠麦の三かえり」(藤村和夫, 1930 年代生まれ, 『荅麦屋のしきたり』日本放送出版協会, 2001 年)という用例があった。ほかは, 使用頻度 0 であった. } (1) 古典(江戸時代以前の文章)の引用での使用 (2) 明治期から戦前までの使用 (3) 時代・歴史小説での使用 (4) 現代文脈での使用 以下,4 分類の詳細を述べる. ## 4.2.1 古典(江戸時代以前の文章)の引用での使用 BCCWJ は現代語コーパスであるが,収録テキストに「非現代語」(BCCWJでは,明治元年より前に書かれた日本語と定義)が若干混在している ${ }^{12}$.まとまった「非現代語」は収録テキスト対象外要素として収録しないのだが,一文単位でのテキストの完全収録を保証するために, インライン中に引用されているような「非現代語」は排除せず,そのまま収録している。本論文ではこれを「古典の引用」と呼ぶ。 そのような引用中に出現する「古風な語」は「古語」としての使用例である。例えば,次に古典の引用中に現われる「あんずるに【案ずるに・按ずるに】」の例を示す(用例中に用いる,太字,下線及び,括弧内注記は本論文著者による). - 仏御前は「つくづく物を案ずるに、娑婆の栄華は夢のうちの夢、たのしみさかえてもなにかせん」(「百二十句本」巻一〈義王出家〉) と言い、つづいて「一旦のたのしみにほこりて、後生を知らざらんことのかなしさに、今朝まぎれ出でて、かくなりてこそ参りたれ」(同前) と言って、かぶっていた衣をのけると、仏御前は、すでに尼姿になっていたのである。(中石孝, 1920 年代生まれ,『平家れくいえむ紀行』新潮社, 1999 年) ## 4.2.2 明治期から戦前までの使用 BCCWJでは,明治期以降に執筆されたテキストは現代語のテキストであるとされ,明治期以降のテキストが収録されている。しかしながら,明治期から戦前までに執筆されたものは,例えば,旧仮名遣いを用いるなど,現代とは異なる印象を受ける文体のものが多い.また,「古風な語」が「古風」という意識なしで用いられている可能性があると考える。よって, この時期に執筆されているテキストは BCCWJにそう多くは収録されていないが,現代文脈とは区別することとする.例えば次のようなテキストである.前者からは「いずれ【何れ】」,後者からは「はたまた【将又】」の用例が得られる。 - 遠野物語の中にも書いてある話は、同郡松崎村の寒戸といふ処の民家で、若い娘が梨の樹の下に草履を脱いで置いたま、、行方知れずになつたことがあつた。三十何年を過ぎて或時親類知音の者が其家に集まつて居るところへ、極めて老いさらぼうて其女が戻つて来た。どうして帰つて来たのかと尋ねると、あまりみんなに逢ひたかつたから一寸来  た。それでは又行くと言つて、忽ち何れへか走り去つてしまつた。(柳田國男, 1870 年代生まれ, 『柳田國男全集第 3 巻』筑摩書房, 1997 年) - 然らば私の希ふ真の自由解放とは何だらう。云ふ迄もなく潜める天才を、偉大なる潜在能力を十二分に発揮させることに外ならぬ。それには発展の妨害となるもの、総てをまず取除かねばならぬ。それは外的の圧迫だらうか、はたまた智識の不足だらうか、否、それらも全くなくはあるまい、併し其主たるものは矢張り我そのもの、天才の所有者、天才の宿れる宮なる我そのものである。(平塚雷鳥,1880 年代生まれ,『元始、女性は太陽であった平塚らいてう自伝 1』大月書店, 1992 年) (※いずれも明治期の文章. ) ## 4.2.3 時代・歴史小説での使用 いわゆる「時代小説」「歴史小説」などと呼ばれる,江戸時代以前を舞台とする文芸作品(国内,国外を問わず)のテキストに「古風な語」が多く現れる.「時代小説」とは「古い時代の事件や人物に題材をとった通俗小説。」であり,「歴史小説」とは「過去の時代を舞台にとり、その時代の様相と人間とを描こうとする小説。(中略)単に過去の時代を背景にする時代小説とは異なる。」(以上, 『広辞苑第』第 6 版, 岩波書店)と, 両者には異なる定義がされているが,本論文では特に両者を区別することはせず,まとめて,「時代・歴史小説」とひとくくりで扱うこととする。 石井 (1986) は, 例えば「おぬし, “でござるか」などは, 「歴史小説なり時代小説なりに現はれるからと言つて, その小説の扱ふ時代の古代語と考へるのは, 早計である. 非現代語すなはち古代的言語を用みた作品においては,作家が古代的言語を創造し,読者がそれを享受する, といふ図式が想定できる.」と述べ,そういった享受と創造による「非現代語」が『源氏物語若紫』現代語訳や,日本文芸家協会『歴史ロマン傑作選』の会話文に多く現れることを調査分析し, 報告している,本論文では,まさにこれも「古風な語」であると捉える,BCCWJには「時代小説」「歴史小説」などのテキストが多数収録されており,そういった文脈で用いられる「古風な語」の用例が多く得られる。次に,「あんずるに【案ずるに・按ずるに】」と,「にょにん【女人】の例を示す. - 成之の天才的な兵站事務の噂をききつけてのことであった。按ずるに、成之常に加賀藩の事務に従ひしも、其理財に老けたるの名、夙に朝廷に聞へしを以て、終に此事ありし也。(磯田道史, 1970 年代生まれ, 『武士の家計簿 「加賀藩御算用者」の幕末維新』新潮社, 2003 年) (※江戸時代を舞台にした時代・歴史小説. ) - 廐戸には見せなかったが、河勝はいずれ山背に戻る運命にあることを覚悟していたようだった。 「そうか、河勝も里心がついたか、それもそうだ、河勝は山背に戻れば葛野の王者だ、屋形も大きく、そちにかしずく女人も多い、いつまでも吾に仕えてくれる、と思っていた吾が甘かった」(黒岩重吾, 1920 年代生まれ,『聖徳太子日と影の王子 1』文芸春秋, 1990 年) (※飛鳥時代を舞台にした時代・歴史小説. ) ## 4.2.4 現代文脈での使用 執筆時期が戦後であり,上記 (3) に該当しない現代語の文章(口語体)を,本論文では「現代文脈」と呼んでいる。一部の見出し語に関しては, その現代文脈に出現する「古風な語」の用例が数多く得られている。例えば次のようなものである. $\cdot$ここで泣いてはいかん、と咽喉の塊を懸命にのみ下しながら、(宮尾登美子, 1920 年代生まれ, 『朱夏』新潮社, 1998 年) - 不審な気持ちが消え失せて、とにかく言葉が交わしたかった。(浅倉卓弥, 1960 年代生まれ,『雪の夜話』中央公論新社,2005 年) ・ コミック誌から飛び出してきたようないでたちの男だ。(佐々木変, 1950 年代生まれ, 『新宿のありふれた夜』角川書店, 1997 年) ・ セブン - イレブンの店にほしいものがなければ、いとも単に、買いにこなくなります。 (鈴木敏文 $\mid$ 述 ; 緒方知行 $\mid$ 編, 『商売の創造』講談社, 2003 年) - 恋なのか、忠義なのか、はたまた親子の恩愛なのか。(古井戸秀夫, 1950 年代生まれ, 『歌舞伎』新潮社, 1992 年) 例えば,「ものども【者共】には,分類 (1)(3)(4) に該当する次のような用例がある. ・(1) 古典の引用 : 壇の浦の合戦では、源平両軍は三十余町をへだててあい対し、いよいよ戦闘開始ということになったが、早い潮に流された平家の舟を梶原景時の舟が熊手でひっかけて、敵の首を数多く取る功名第一の働きから始まった。そして両軍あわせて閧をつくり、それが静まると、平知度が大音声に、「天竺震旦にも、日本わが朝にも、雙びなき名将勇士といへども、運命尽きぬれば力及げず、されども名こそ惜しけれ、東国の者どもに弱気見すな、 何時の為にか命をば惜しむべき、軍ようせよ、者ども、只これのみぞ思ふ事よ」と全軍に宣した (同上・巻十一)。(阿部猛, 1920 年代生まれ, 『鎌倉武士の世界』東京堂出版, 1994 年) (※下線が古典の引用部分. 上記「同上」とは『平家物語』.) ・(3) 時代・歴史小説での使用:久幸ははじめて深い笑みを見せ、「この臆病者が必ずお守り申す。ご安心あれ」といった。そして、「者ども続け!」と大声をあげると、私兵五百人を率いて、まっしぐらに大内勢に向かって行った。(童門冬二,1920 年代生まれ,『小説毛利元就』 PHP 研究所, 2002 年) (※時代小説.この例は室町時代から戦国時代の時代設定.) ・(4) 現代文脈での使用:「なるほど、これは無用のことを申しました...さあ、ものども、引っ立てい!」ドラホマノフの命令を受けて、兵士たちがユリアスとパッシェンダールに縄をかける。さすがに、この人数差では、パッシェンダールといえども抵抗のすべがなかった。 (赤城毅,1960 年代生まれ, 『滅びの星の皇子』中央公論新社, 2001 年) つまり,「ものども【者共】は,BCCWJにおいて,古語としての用例が現われる語であり,時代小説や歴史小説では,その時代設定にあう語として使われる語であり,かつ,現代文脈においても使われる語であることがわかる.「古風な語」としてひとくくりする中には, 現代語書き言葉においてこのように幅広い用法で出現する語のあることが,本調査により確認できた. ## 4.3 「古風な語」の用法の分類結果 BCCWJ が現代語書き言葉を収集したコーパスであるため,古典の引用の用例数はそもそも少ない。また,先に述べたとおり,明治期から戦前までに執筆されたテキストも少ないため,その用例数も少ない. 一方, 時代小説や歴史小説のテキストは BCCWJ に多く収録されていることから,それらの用例数は多い。また,現代文脈から得られる用例も一定数以上得られている. 使用頻度が 50 以上あった, 上位 9 語(「古語的」1語(いたく)「古風」8 語(いかん,ほか),付録の表 5 ,表 6 を参照)を取り上げ,それらの用例を分類した結果を表 4 に示す。上から 5 語は, 時代・歴史小説の用例の割合が多い順, 次の 3 語は現代文脈の用例の割合が多い順である. そして,最後の 1 語が両者の用例の割合が拮抗していた語である。割合の高いところに色をつけて示している. このように, BCCWJにおいて高頻度である「古風な語」は, 時代・歴史小説の用例の割合が多いものと, 現代文脈の用例の割合が多いものとがあった. 同じ「古風な語」とくくるには,用法の傾向は大きく異なっている。つまり, 時代・歴史小説の使用が多い, 現代文脈の使用が 表 4 「古風」使用頻度上位 9 語の用例分類結果 多い,といったその語が使用されている文脈の特徴を辞書に明記し,その用例を具体的に記述することが,「古風な語」とひとくくりに説明するよりも,それぞれの語の文体的特徴を説明することができるようになるということである. ## 4.4 辞典間の記載に差異のある語の分析 3.3 節では, 5 種の辞典間に, 見出し語として採用されている数や, 古さについてのラべルや注記が付与されている数が異なる語があることを述べた,表 2 の「まがまがしい【禍々・枉々・曲々・凶々しい】」と,表 3 の「よしなに【良しなに】」の 2 語は,見出し語として採用しているのは 5 辞書であるが,注記は 2 辞書ずつという語であった,また,表 2 の「やわか」は,見出しとして採用し, 注記を付与しているのが 2 辞書のみ, という語であった。 付録の表 5 ,表 6 に示す通り,BCCWJには,「まがまがしい」に33 例,「よしなに」に 7 例の使用がある。そのうち,2 例ずつ引用する。 ・それは途方もなく暗鬱な感じの建物で、まがまがしい気配にみち、見物するのは愉快な体験ではなかつた。(丸谷才一, 1920 年代生まれ, 『日本の名随筆』作品社, 1988 年) ・「お気をおつけ下さい」ヒロはいう。「今夜は、まがまがしい気配が満ちております。 その心を感じるのです。ザック様のことですから何がおこ万うときっと大丈夫でしょうが...心配でなりません」(眉村卓, 1930 年代生まれ,『迷宮物語』角川書店, 1986 年) - 「よう冷えるなあ。こらたまらんワ。泰平堂、まあよしなに調べてくれ」声をかけて信濃は去っていった。(阿部牧郎, 1930 年代生まれ, 『出合茶屋』講談社, 2003 年) ・「お世話をかけます、なにとぞよしなに」 懐しさを顔一ぱいにみせてお茂の方は、頭を下げた。(竹内勇太郎, 1920 年代生まれ, 『甲府勤番帖』光風社出版, 1992 年) 「まがまがしい」は 33 例中, 5 例が時代・歴史小説の用例であったが,残り 28 例は上記 2 例のような現代文脈の使用であった.「よしなに」は, 7 例中のすべての例が,上記 2 例のような時代・歴史小説の用例であった. どちらにも時代・歴史小説の用例のあることから,「古風な語」 という注記を付与すべき語であることがまずはわかる。それに加え,「まがまがしい」は現代文脈での使用が多く,「よしなに」は時代・歴史小説での使用が多い語であるということもわかる. 続けて,2辞書のみ見出し語に採用していた「やわか」の使用例をみてみる.BCCWJから得られる用例 3 例中より, 2 例を示す. - 「この胴も手足も、蓬山から出た鉄を百年も磨き抜いてこしらえたものよ。項羽の豪刀をもってしても傷ひとつつかなんだ。やわか、おまえの妖糸ごときに引けは取らぬぞ」「そりゃ、どうも」(菊地秀行, 1940 年代生まれ, 『夜叉姫伝』祥伝社, 1991 年) - 「いかなる御用とて、われらにおきかせあれ! 拙者、やわか島田虎之助の働きに劣りましょうや」と、斎藤弥九郎が、いかにも体調の悪いらしい島田虎之助をあごでさして、そのあごをお耀の方にぐいとつき出す。(山田風太郎,1920 年代生まれ,『武蔵野水淓伝』 富士見書房,1993 年) こういった用例に触れて国語辞典をひく読者がいることを想定すると,「やわか」は「古風な語」として現代語辞書に取り上げるとよい語であると言える. このようにコーパスで使用例を確認することは,辞書によって扱いに差異のある語の辞書記述の判断の参考になることを示した. ## 5 コーパス分析を活かした辞書記述 前章で,「古風な語」の使用実態についてコーパスの分析結果を示した. 本章にて, そのコー パス分析に基づく辞書記述を提案する. ## 5.1 コーパス分析に基づく辞書記述の利点 従来, 辞書記述はもっぱら編集者の知識や内省によって行われていたが,これを補うものとして徐々にコーパスの利用が試みられるようになった. 1964 年にアメリカで Brown Corpus が公開されて以降, 各種大規模コーパスの構築, 公開に伴い, 欧米における辞書記述のコーパス活用は一気に加速していく (Sinclair 1991, 石川 2004, 井上 2005). 例えば, 英国の Collins, Longman, Oxford,Cambridge 各社の辞書である。それらの影響を受け,日本の英和辞書にもコーパスの活用は広がっている。コーパスベースの辞書記述を取り入れた英和・和英辞書には, 『ウィズダ么英和辞典』(三省堂, 2002 年),『ウィズダム和英辞典』(三省堂,2007 年)や『ユース・プログレッシブ英和辞典』(小学館, 2004 年)がある. コーパスベースを謳う国語辞典や日本語の辞書は今現在ないが, コーパス分析を日本語の辞書記述に活かそうとする議論は徐々に活発になってきている (加藤 1998, 後藤 2001, 田野村 2009,荻野 2010, 石川 2011, カルヴェッティ2011など). 辞書記述がコーパスベースになる利点は, 以下の 3 点である (柏野 2011). (1) 見出し語の選定や, 語義の選定・配列の客観性: 見出し語単独の頻度の情報が得られる.辞書に記載すべき見出し語の選定や,語義の選定・配列を,客観的に行える. (2)用例記述の網羅性:見出し語とほかの語との組み合わせの頻度の情報が得られる. 見出し語とその前後の連なり, 見出し語と共起する語(コロケーションと呼ばれる), 見出し語の現れる構文などの特徴的なパターンを発見しやすい. 用例を網羅的に辞書に記述できる. (3)見出し語の使用域記述の具体性:資料の幅が広がり,見出し語の多様性を捉えることができる。ジャンルあるいはレジスタなどと呼ばれる,言葉の使用域が異なる場合,それを具体的に辞書記述に反映できる(例えば,話し言葉的か, 書き言葉的か, フォーマルか, インフォーマルか). ## 5.2 コーパス分析を「古風な語」の辞書記述に活かす方法 5.1 節で述べたコーパスベースによる辞書記述に期待できる 3 点に照らし合わせながら,コー パス分析を「古風な語」の辞書記述に活かす方法を検討する. ## 5.2.1 見出し語の選定や, 語義の選定・配列の客観性 各種国語辞典やコーパスを利用して得た「古風な語」の頻度情報をコーパスで得る.頻度情報は,「コーパスベース国語辞典」の見出し語選定の参考になる. 4.1 節,および,付録の表 5 ,表 6 にて, 『岩国』から抽出した「古風な語」の使用頻度を示した. 頻度の高い語はどの辞典でも見出し語として採用されていることが確認できる。 が, 頻度が低い語の場合,例えば,「あんずるに【案ずるに・按ずるに】」「」「しんずる【進ずる】」「のう」の 4 語は,見出し語として採用していない辞典のあることがわかる. 現行辞典の採用状況から見出し語選定をしようとする場合には, これらが採否のボーダー上になってくるだろう. しかし, 筆者らは, BCCWJで低頻度でも用例の得られる語は現代語として目にする機会のある語であると考え,これら 4 語いずれについても,見出し語として採用すべき語と考える. 一方,今回の調査で頻度 0 であった語を,ただちに見出し語として採録しないと結論づけるのは難しい. 現代語の辞典で取り扱う必要性の低い「古語」であるのか, あるいは,たまたま例がとれなかった「現代語」であるのかがわからないからである. BCCWJにおいて頻度 0 であることの意味は, 今後, 調查範囲とするコーパスを増やしたさらなる検討が必要であるだろう. 次に, 既存の国語辞典等によらず,コーパスから自動的に「古風な語」の抽出が可能であるかを考える.BCCWJ「図書館サブコーパス」の形態素解析結果より,「活用型:文語」となっている語の抽出を行った,BCCWJは,短単位(意味を持つ最小の単位を結合させる,または結合させないことによって認定)と長単位(文節を規定に基づいて分割する,または分割しないことによって認定) とで解析されている (小椋, 小磯, 冨士池, 宮内, 小西, 原 2011 , 小椋,冨士池 2011). 短単位の抽出結果では, その使用頻度の上位は「べし: 13,889 , なり $: 5,421$, た ることがまずは確認できた,また,「有り:618,然り:525,来たる:284,恐る:262」など,文語の活用形で用いられる語の抽出ができることも確認できた。しかしながら, 長単位の抽出結果とあわせてみても,文語形を含む見出し語そのものの形での抽出は自動では簡単ではない.例えば,「止む無し」は一つの長単位として抽出できているが,そういう語は少ない.多くは,「なきにしもあらず」が「なき十に+しも+あら+ず」となっているように,長単位も短単位同様に複数に切れている。また,「さもありなん」のように誤解析されている場合もある(「なん」 が「名詞【何】」と誤解析. 正しくは文語助動詞「なむ」)、いずれの場合も,自動抽出のためには形態素解析の辞書整備が必要であるが,そのためには,結局, 既存の国語辞典等にある見出し形をあらかじめ先に参照しなければならない, ということになる. 語義の選定・配列についてのコーパス情報の利用は, 5.3 節で具体例をもって示す. ## 5.2.2 用例記述の網羅性 BCCWJにおいて一定数以上の用例が得られれば,ある程度の網羅的な記述は可能である。ただし,「古風な語」を扱う場合は, BCCWJよりも前の時代のコーパス分析も欠かせないだろう.現時点では, 少し前の時代のコーパスとして, 著作権の消滅した作品が中心に集められ,明治〜昭和初期の小説が多く収録されている『青空文庫』 13 や, 明治後期〜大正期の総合雑誌『太陽』 から 5 年分が抽出されている『太陽コーパス』14(国立国語研究所)などが利用可能である. ## 5.2.3 見出し語の使用域記述の具体性 「古風な語」の用法は, (1) 古典の引用での使用, (2) 明治期から戦前までの使用, (3) 時代 $\cdot$歴史小説での使用, (4) 現代文脈での使用, と分類でき, かつ, その使用傾向が語の用法把握につながることを, 4.2 節と 4.3 節とで示した. その際に, 特に, 分類 (3) と (4) に相当する用法の具体的記述が重要であることを述べた. (3)の, 主に時代小説や歴史小説での使用は, 現代においてそれら小説を読む際の理解に欠かせないものである。現代語ではないと排除することなく, 辞書にとりあげ,詳細に記述すべきものであろう,さらに,(4)の, 現代文脈での使用は,一部の「古風な語」における顕著な特徴である。よって,「古風な語」の現代文脈における使用例がある場合は,それを具体的に辞書に記述すべきである. これらの考察をふまえ, 次節では具体例を用いて, コーパス分析に基づく「古風な語」の辞書記述案を示す. ## 5.3 コーパス分析に基づく「古風な語」の辞書記述 本論文では,次のとおり,コーパス分析に基づく「古風な語」の「コーパスベース国語辞典」記述方法を提案する. ## 「古風な語」の「コーパスベース国語辞典」記述方法 1. 現行の国語辞典類や, BCCWJ, 『青空文庫』,『太陽』等のコーパスを利用し, 次の条件を満たす,「古風な語」を選定する。 (a)「時代・歴史小説」を含めて現代で使用が見られる. (b)明治期以前,あるいは,戦前までの使用が見られる。 2. BCCWJ, 『青空文庫』,『太陽』等のコーパスから, 「古風な語」の使用頻度, 用例を得る.  3. 多義語の場合, 意味分析を行い, 意味別の使用頻度を得る. 4. 得られた用例を, (1) 古典の引用での使用, (2) 明治期から戦前までの使用, (3) 時代$\cdot$歴史小説での使用,(4) 現代文脈での使用,に分類し,各頻度を得る. 5. 分類別の使用頻度を参考に,中心的となる語義から順に配列する。 6. 用例は, 用例の (1) (4) の分類傾向や, 具体的な使用域がわかるよう明記する. 7. そのほか,表記情報や,使用者の性別・年代など,コーパスから抽出できた情報を明記する。 「そなた【其方】」を例に,現行の国語辞典の記述(『岩国』)に対する,上記,「コーパスベース国語辞典」記述方法に即した記述案を次に示す.「そなた」は,上記,(a),(b)の条件を満たす. ## 例:そなた【其方】 ## [『岩国』(第 7 版)] (1)そちらのほう。そちら側の所。 (2)目下の相手を指す語。おまえ。なんじ。古風な言い方。 ## [コーパス分析 $]$ -「そなた【其方】」は BCCWJで 434 の頻度があり,「古風な語」の中では高頻度である語である。 $\rightarrow$ 見出し語の選定:十分な頻度が得られるため見出し語として採録すべき語と判断. - 『岩国』(1)の該当用例は BCCWJ では頻度 0 . 『青空文庫』には 3 例見つかる. BCCWJ で得られる 434 の用例は, すべて『岩国』(2)の用法の該当例である. \cjkstart語義の選定・配列:(1)と(2)を語義と認定. ただし, (1)の用法は BCCWJで 0 であり, 現代語では,(2)の用法がより中心的な語義と認定できるため,語義の配列順を入れ替える。 - 『岩国』(2)の用例分類は 4.3 節の表 4 の通り,ほとんどが「(3) 時代・歴史小説での使用」 である。国内の時代小説のほか,時代設定の古い翻訳小説の用例もある。現代文脈での使用は少ないが,ある。また, BCCWJで得られた用例はすべて発話部分における使用. $\rightarrow$ 用例記述・見出し語の使用域:(3) 時代・歴史小説での使用例を 1 番に。続けて,翻訳小説,現代文脈の使用例を記述.「発話で多用」を明記.発話については話者間の関係を明記。 - 漢字表記「其方」の使用例は見つけられない。検索される「其方」は「そちら」「そのほう」の漢字表記の使用例と思われる. $\rightarrow$ 表記情報を注記. ## [「コーパスベース国語辞典」記述案] (1)多くは目下の相手をさす語。おまえ。なんじ。時代・歴史小説的。同等の相手をさすこともある。 - 時代・歴史小説等の発話で多用。 「そなた、勘六どのを見舞って来やれ。さっきの飴の甘味はきつすぎます。よけい食べさせてはなりませぬ。急いでゆきゃれ」(山岡荘八『徳川家康』) ※後に家康を産む於大の方(目上)から,召使いの百合(目下)への発話。「ほう、そなたもさようなことを考えておったのか?」豪族は大きく領いた。(山田智彦『木曽義仲』) ※信濃国の各地から集まってきた豪族たち同士(同等)の対話。 - 時代設定の古い小説(特に翻訳小説)における発話で使用。 「そなたは誰なのか、教えてくれ」。(井村君江『アーサー王物語』) ※アーサー王(目上)から,騎士であるトリストラム卿(目下)への発話。 「ねえ乳母や、そなたの申し条、もっともなことです。ただ怒りのあまり分別を失っていたのです」と言いました。(池田修『アラビアン・ナイト』) ※王女である姫(目上)から,老女の乳母(目下)への発話。 - 現代文脈での使用は多くはないが,威厳や威圧があるよう造形された人物(多くは目上)からの発話を表すものとして使用。 「厚志よ」 舞が呼びかけると、厚志はビクリと身を震わせた。 「え、なに?」 「何を驚く?そなたの名を呼んだたけだぞ」 (榊涼介『ガンパレード・マーチ 5121 小隊九州撤退戦』) ※小隊司令官である舞(目上)から,その下にいる厚志(目下)への発話。 (2)そちらのほう。そちら側の所。 $\nabla$ 明治期頃まで。 - 使用はまれ。 に逼れば、風誘うたびに戸袋をすって椽の上にもはらはらと所勏ばず緑りを滴らす。「あすこに画がある」と葉巻の煙をぷっとそなたへ吹きやる。(夏目漱石『一夜』) 恋の淵・峯の薬師・百済の千塚など、通ひなれては、そなたへ足むくるもうとましきに、折しも秋なかば、汗にじむまで晴れわたりたる日を、だ゙一人、小さき麦程帽子うち傾けて、家を出でつ。(折口信夫『筬の音』) ※漢字表記「其方」の使用例は見つけにくい。該当表記例があっても,別見出し「そちら」「そのほう」との区別がつけがたい。 以上の記述案により,「そなた【其方】」の用法は,時代・歴史小説の発話文での使用が中心的な語であることが明確になる。多くの用例を示したことにより,現代の文章生成時の語選択に おいては,時代がかったセリフとなる効果のある語であることに留意すべき語であることがわかる,さらに,漢字表記の【其方】はほとんど使用例がなく,かつ,「そちら」「そのほう」とまぎれる可能性があるので,ひらがな表記を選択すべきこともわかる。このように,「コーパスベース国語辞典」に文体的特徴や用例を記述することは, 語の理解はもとより, 語の選択時の情報量を増やし,その利用価値を高めると期待される. なお,中世・近世のコーパスがない状況においては,国語史研究の知見を参照することが有効である。「そなた」は中世より,主に上位の話し手が,下位の話し相手に対して使用する例の多い人称の一つと位置づけられている。 中世から近世にかけての使用実態については, 山崎 (2004), 小島 (1998)に詳細な分析があり, 上位から下位に用いられ, 時には対等の間柄でも用いられるものであると報告されている。「上位から下位」の例,「対等」の例がともにコーパスから得られたため, 辞書記述案ではそれら先行研究の知見を活かし, 「主に上位から下位へ」「時には対等」で用いられることがわかるよう注記することも有用である. 国立国語研究所では, 将来的に上代から近代の作品をカバーする「日本語歴史コーパス」の構築が進められている (http://www.ninjal.ac.jp/corpus_center/chj/). それらコーパスの整備に伴い,コーパス分析の可能性が広がることが期待される. ## 6 おわりに 本論文では, 「古風な語」に着目し, 『岩波国語辞典』に「古語的」と注記がついている 15 語と,「古風」と注記がついている 145 語を調査対象語に選定し, 現行の国語辞典 5 種の記述調査及び,現代語コーパスの使用頻度調査と用例分析とを行った。そして,コーパス分析に基づく 「コーパスベース国語辞典」における記述方法を提案した,(1)古典の引用での使用, (2) 明治期から戦前までの使用,(3) 時代・歴史小説での使用,(4) 現代文脈での使用,という 4 分類に基づく辞書記述方法が, 従来の「古風な語」をひとくくりにする辞書記述よりも, 語の文体的特徵をより豊富に記述できることを示した。その一例として「そなた」の記述例を示した。 なお,「コーパスベース国語辞典」記述方法(5.3 節)の 3 に挙げた意味判別に関しては,例えば, Pulkit・白井 (2012) など,すでに自動化の研究が進んでいる,筆者らは,4に挙げた,当該語の用いられる文脈が,分類 $(1) \sim(4)$ のいずれであるかの判別についても, 自動化が可能であると考えている。コーパスから自動的に抽出できる辞書情報を活用していくことにより,従来の主に人手による国語辞典の編集とは異なる,一貫性のある「コーパスベース国語辞典」の構築が可能になると考える. ## 謝 辞 本研究は, 文部科学省科学研究費補助金基盤研究 (C)「辞書用例の記述仕様標準化のための実証研究」(課題番号:20520428), 並びに, 文部科学省科学研究費補助金基盤研究 (C)「コーパス分析に基づく辞書の位相情報の精緻化」(課題番号:23520572)の助成を受けたものです。 ## 参考文献 カウイー, A. P. (赤須薫, 浦田和幸訳)(2003). 学習英英辞書の歴史:パーマー, ホーンビー からコーパスの時代まで. 研究社. (Cowie, A. P. (2002) English Dictionaries for Foreign Learners. A History. Oxford: Oxford University Press). カルヴェッティ・パオロ (2011).イタリア人向けの和伊辞典編纂における BCCWJ の貢献.「現 代日本語書き言葉均衡コーパス」完成記念講演会予稿集, pp. 217-226. 遠藤織枝 (1988). 話しことばと書きことば一その使い分けの基準を考える一. 日本語学, $\boldsymbol{7}(3)$, pp. 27-42. Fedorova, I. V. (2004). "Style and Usage Labels in Learners' Dictionaries: Ways of Optimization." In Proceedings of the 11th EURALEX International Congress, July 6-10. pp. 265-272.後藤斉 (2001). 日本語コーパス言語学と語の文体レベルに関する予備的考察. 東北大学文学研究科研究年報, 50, pp. 201-214. ハートマン, R. R. K. (編) (1984). 辞書学 : その原理と実際. 三省堂. 木原研三, 加藤知己(翻訳監修), Hartmann, R. R. K. (ed.) (1983). Lexicography: Principles and Practice. London: Academic Press. Hünig, W. H. (2003). "Style labels in monolingual English learners' dictionaries." In H. Cuyckens et al. (eds), Motivation in Language: Studies in Honor of Günter Radden. Amsterdam: John Benjamins, pp. 367-389. 井上永幸 (2005). コーパスに基づく辞書編集. 齊藤俊雄, 中村順作, 赤野一郎(編)。英語コー パス言語学一基礎と実践一改定新版. 研究社, pp. 207-228. 石井久雄 (1986). 古代的言語の享受と創造. 文部省昭和 60 年度科学研究費補助金による一般研究 $(\mathrm{C})$ 研究報告書. 石川慎一郎 (2004). Corpus, Dictionary, and Education:近刊 EFL 辞書に見る辞書編集の潮流. Kobe English Language Teaching, 19, pp. 61-79. 石川慎一郎 (2011). 現代日本語書き言葉均衡コーパス (BCCWJ) における複合動詞〜出すの量的分析. 統計数理研究所研究レポート, 238, pp. 15-34.柏野和佳子 (2009). 1.3 辞書. 言語処理学会 (編). 言語処理学事典, pp. 80-85. 共立出版. 柏野和佳子 - 稲益佐知子 - 田中弥生 - 秋元祐哉 (2009). 第 4 章対象外要素の排除指定. 特定領域研究「日本語コーパス」平成 20 年度研究成果報告書「現代日本語書き言葉均衡コーパス」における収録テキストの抽出手順と事例, pp. 66-88. 柏野和佳子・奥村学 (2010). 国語辞典に「古い」と注記される語の現代書き言葉における使用傾 向の調査. 情報処理学会人文科学とコンピュー夕研究会報告, 88, pp. 59-70. 柏野和佳子・奥村学 (2011). 国語辞典に「古風」と注記される語の使用実態調査一「現代日本語書 き言葉均衡コーパス」を用いて一。言語処理学会第 17 回年次大会発表論文集, pp. 444-447.柏野和佳子 (2011). コーパスに基づく辞書づくりーこれからの国語辞典はこう変わる一. 日本 知能情報ファジイ学会誌, 23(5), pp. 705-713. 加藤安彦 (1998). 辞典とコーパス. 日本語学, 17(12), pp. 37-44. 小島俊夫 (1998). 日本敬語史研究一後期中世以降. 笠間書院. 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕 (2011). 「現代日本語書き言葉均衡コー パス」形態論情報規程集第 4 版 (上)(下). 国立国語研究所内部報告書, LR-CCG-10-05-01, 02. 小椋秀樹, 冨士池優美 (2011). 第 4 章形態論情報. 国立国語研究所「現代日本語書き言葉均衡コーパス」利用の手引第 1.0 版, 4-1-4-35. 前坊香菜子 (2009). 語の文体的特徴に関する情報についての一考察一国語辞典と類語辞典の調 查から一. 一橋日本語教育研究報告, 3 , pp. 50-60. 前川喜久雄 (2008). KONONOHA「現代日本語書き言葉均衡コーパス」の開発. 日本語の研究, 4 (1), pp. 82-95. 前川喜久雄(編)(2013). 講座日本語コーパス 1 コーパス入門. 朝倉書店. 宮島達夫 (1977). 単語の文体的特徴. 村松明教授還暦記念国語学と国語史, pp. 871-903. 明治書院. 荻野綱男(編)(2010). 特定領域研究日本語コーパス平成 21 年度研究成果報告書, コーパスを利用した国語辞典編集法の研究. Ptaszynski, M. O. (2010) "Theoretical Considerations for the Improvement of Usage Labelling in Dictionaries: A Combined Formal-Functional Approach." International Journal of Lexicography, 23(4), pp.411-442. Pulkit, K., 白井清昭 (2012). パラレルコーパスから自動獲得した用例に基づく語義曖昧性解消.情報処理学会研究報告, 自然言語処理研究会報告, 2012-NL-207(3), pp. 1-8. Sakwa, L. N. (2011). "Problems of Usage Labelling in English Lexicography." LEXIKOS, 21(1), pp. 305-315. Sinclair, J. (1991). Corpus Concordance Collocation. Oxford: Oxford University Press. 田野村忠温 (2009).コーパスを用いた日本語研究の精密化と新しい研究領域・手法の開発. 人 工知能学会誌, 24(5), pp. 647-655. 山崎久之 (2004). 増補補訂版国語待遇表現体系の研究近世編. 武蔵野書院, 山崎誠 (2009). 代表性を有する現代日本語書籍コーパスの構築. 人工知能学会誌, $24(5)$, pp. 623631. 山崎誠 (2011). 第 2 章「現代日本語書き言葉均衡コーパス」の設計. 国立国語研究所「現代日本語書き言葉均衡コーパス」利用の手引第 1.0 版, 2-1-2-8. ## 付録 (1) 表 5 「古語的」15 語の調査結果 (2) 表 6 「古風」 147 語の調査結果 ※表中,「多義」の欄に「*」を付してある語は,「古語的」あるいは「古風」の注記が多義のうちの一つの語義についていた語であることを示す. ※表中, 「使用有」の欄に「一」のある語は, 使用頻度調査の対象外の語であることを示す. ※表中,使用頻度が 50 を超えている語には,使用頻度の欄に色をつけて強調している。 表 5 「古語的」15 語の調查結果 & & 使用有 & \\ 表 6 「古風」 147 語の調査結果 & & 使用有 & \\ 表 6 (続き) & & 使用有 & \\ 表 6 (続き) & & 使用有 & \\ 表 6 (続き) & & 使用有 & \\ ## 略歴 柏野和佳子:東京女子大学文理学部日本文学科卒業. 現在, 大学共同利用機関法人人間文化研究機構国立国語研究所言語資源研究系准教授. 辞書, 語彙研究に従事. これまで『計算機用日本語基本辞書 (IPAL)』(情報処理振興事業協会),『国立国語研究所資料集 14 分類語彙表』(大日本図書),『岩波国語辞典』(岩波書店) の編集作業に携わる。情報処理学会, 計量国語学会, 日本語学会, 人工知能学会各会員. [email protected] 奥村学:1962 年生. 1984 年東京工業大学工学部情報工学科卒業. 1989 年同大学院博士課程修了. 同年, 東京工業大学工学部情報工学科助手. 1992 年北陸先端科学技術大学院大学情報科学研究科助教授, 2000 年東京工業大学精密工学研究所助教授, 2009 年同教授, 現在に至る. 工学博士. 自然言語処理, 知的情報提示技術, 語学学習支援, テキスト評価分析, テキストマイニングに関する研究に従事. 情報処理学会, 電子情報通信学会, 人工知能学会, AAAI, ACL, 認知科学会, 計量国語学会各会員. [email protected], http://oku-gw.pi.titech.ac.jp/ oku/. (2014 年 1 月 22 日受付) (2014 年 6 月 24 日再受付) (2014 年 8 月 5 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 日本語形態素解析における未知語処理の一手法一既知語から派生した表記と未知オノマトぺの処理一 笹野 遼平 $\dagger \cdot$ 黒橋 禎夫 ${ }^{\dagger}$ ・奥村学† } 本論文では, 形態素解析で使用する辞書に含まれる語から派生した表記,および,未知オノマトぺを対象とした日本語形態素解析における効率的な未知語処理手法を提案する。提案する手法は既知語からの派生ルールと未知オノマトぺ認識のためのパ ターンを利用し対象とする未知語の処理を行う. Web から収集した 10 万文を対象 とした実験の結果,既存の形態素解析システムに提案手法を導入することにより新 たに約 4,500 個の未知語を正しく認識できるのに対し, 解析が悪化する箇所は 80 箇所程度,速度低下は $6 \%$ のみであることを確認した。 キーワード:形態素解析,未知語処理,オノマトペ ## A Simple Approach to Unknown Word Processing in Japanese Morphological Analysis \author{ Ryohei Sasano $^{\dagger}$, Sadao Kurohashi ${ }^{\dagger \dagger}$ and Manabu Okumura ${ }^{\dagger}$ } This paper presents a simple but effective approach to unknown word processing in Japanese morphological analysis, which handles 1) unknown words that are derived from words in a pre-defined lexicon and 2) unknown onomatopoeias. Our approach leverages derivation rules and onomatopoeia patterns, and correctly recognizes certain types of unknown words. Experiments revealed that our approach recognized about 4,500 unknown words in 100,000 Web sentences with only roughly 80 harmful side effects and a $6 \%$ loss in speed. Key Words: Morphological Analysis, Unknown Word Processing, Onomatopoeias ## 1 はじめに 日本語形態素解析における誤り要因の1つに辞書に含まれない語・表記の存在がある。本論文では形態素解析で使用する辞書に含まれない語・表記をまとめて未知語と呼ぶ.形態素解析における未知語は表 1 に示すようにいくつかのタイプに分類することができる。まず,未知語は既知語から派生したものと, 既知語と直接関連を持たない純粋な未知語の 2 つに大きく分け  表 1 形態素解析における未知語の分類 & \\ 下線は本論文で扱う対象であることを示す. られる。従来の日本語形態素解析における未知語処理に関する研究は, 事前に未知語をコーパスから自動獲得する手法 (Mori and Nagao 1996; Murawaki and Kurohashi 2008)と,未知語を形態素解析時に自動認識する手法 (Nagata 1999; Uchimoto, Sekine, and Isahara 2001; Asahara and Matsumoto 2004; 東, 浅原, 松本 2006; Nakagawa and Uchimoto 2007)の 2 つに大きく分けることができるが,いずれの場合も網羅的な未知語処理が目的とされる場合が多く,特定の未知語のタイプに特化した処理が行われることは稀であった. しかし, 未知語はタイプにより適切な処理方法や解析の難しさは異なっていると考えられる. たとえば既知語から派生した表記であれば,それを純粋な未知語として扱うのではなく既知語と関連付けて解析を行うことで純粁な未知語よりも容易に処理することが可能である。また,一般的に純粋な未知語の処理は, 単独の出現から正確に単語境界を推定するのは容易ではないことから,コーパス中の複数の用例を考慮し判断する手法が適していると考えられるが,オノマトぺのように語の生成に一定のパターンがある語は, 生成パターンを考慮することで形態素解析時に効率的に自動認識することが可能である. さらに, 4.1 節で示すように,解析済みブログコーパス (橋本, 黒橋, 河原, 新里, 永田 2011) で複数回出現した未知語で, 先行手法 (Murawaki and Kurohashi 2008) や Wikipedia から得た語彙知識でカバーされないものを分析した結果, 既知語から派生した未知表記,および,未知オノマトぺに対する処理を行うことで対応できるものは異なり数で 88 個中 27 個, 出現数で 289 個中 129 個存在しており,辞書の拡張などで対応することが難しい未知語の出現数の 4 割程度を占めていることが分かった。そこで本論文では既 知表記から派生した未知表記, および, 未知オノマトぺに焦点を当て, 既知語からの派生ルー ルと未知オノマトぺ認識のためのパターンを形態素解析時に考慮することで, これらの未知語を効率的に解析する手法を提案する. ## 2 日本語形態素解析 ## 2.1 日本語形態素解析の一般的な流れ 日本語形態素解析では, 形態素辞書の存在を前提とした手法が一般的に用いられてきた. 以下に一般的な日本語形態素解析の手順を示す. 手順 1 文中の各位置から始まる可能性のある形態素を事前に準備した辞書から検索 手順 2 形態素の候補を列挙した形態素ラティスを作成 手順 3 形態素ラティスから文として最も確からしい形態素の並びを決定 たとえば以下の文が入力された場合, 図 1 に示す形態素ラティスが作られ, 最終的に太線で記されている組合せに決定される. (1) 父は日本人。 手順 1 において, 文中の各位置から始まる可能性のある形態素を探索する際にはトライ木に基づく高速な探索手法が一般的に用いられる。また,手順 3 における最尤パスの選択は各形態素ごとに定義された生起コスト,および,各連接ごとに定義された連接コストに基づいて行われる,パス全体のコストは,パスに含まれる形態素の生起コスト,および,それらの連接コストを加算することにより計算され,コストが小さいほど確からしい形態素の並びであることを意味する. コストの設定方法としては人手で行う方法 (Kurohashi, Nakamura, Matsumoto, and Nagao 1994) や,機械学習に基づく手法 (Asahara and Matsumoto 2000; Kudo, Yamamoto, and Matsumoto 2004) があるが,最尤パスの探索にはいずれもViterbi アルゴリズムが用いられる. 入カ: "父は日本人。" 図 1 形態素ラティスの例 ## 2.2 形態素解析における未知語処理 日本語形態素解析における未知語処理に関する研究は多く行われてきた. 代表的な手法として, 事前に未知語をコーパスから自動獲得する手法 (Mori and Nagao 1996; Murawaki and Kurohashi 2008)と, 未知語を形態素解析時に自動認識する手法 (Nagata 1999; Uchimoto et al. 2001; Asahara and Matsumoto 2004; 東他 2006; Nakagawa and Uchimoto 2007)の 2 つが挙げられる。前者の手法は後者の手法と比べ,ある 1 つの未知語候補に対しコーパス中での複数の用例を考慮することができるため, 単独の用例では判別の難しい未知語にも対処できるという特長がある。一方, 後者の手法は字種や前後の形態素候補を手掛かりとして統計や機械学習に基づく未知語モデルを構築する手法であり,コーパス中に出現しなかった未知語についても認識が可能という特長がある. しかしながら, これらの研究はいずれも基本的に網羅的な未知語処理を目的としており, 未知語タイプごとの特徴はあまり考慮されていない. 特定の未知語, 特にくだけたテキストに出現する未知語に特化した研究としては, 風間ら (風間, 光石, 牧野, 鳥澤, 松田, 辻井 1999), Kacmarcik ら (Kacmarcik, Brockett, and Suzuki 2000),池田ら (池田, 柳原, 松本, 滝嶋 2010), 工藤ら (工藤, 市川, Talbot, 賀沢 2012), 斉藤ら (斉藤, 貞光, 浅野, 松尾 2013,2014$)$ の研究がある. 風間ら (1999)は, Web上のチャットで使用されるようなくだけたテキストの解析を目的とし,品詞 bi-gram モデルに基づく確率的形態素解析器をべースとし, 文字の插入や置換が直前の文字や元の文字に依存していると仮定しそれを考慮に入れるように拡張することで,文字の挿入や置換に対して頑健な形態素解析システムの構築を行っている。しかし, 池田ら (2010)が, 風間らの手法を参考に辞書拡張ルールを作成し, 200 万文のブログ文書に適用して単語区切りに変化が見られた 53,488 文をサンプリングし評価したところ, $37.2 \%$ の文はルール適用前と比べて単語区切りが悪化したと報告していることから, 風間らの手法はオンラインチャット, および,それに類するテキストにのみ有効な手法であると推察される。本研究で提案する既知語から派生した未知語処理手法も, 基本的に風間らと同じくルールに基づくものであるが, 未知語のタイプに応じた効率的な辞書の検索を行うことで, 高い精度を保ちつつ高速な解析を実現している点に特長がある. Kacmarcik ら (2000) は形態素解析の前処理としてテキスト正規化ルールを適用する手法を提案している.池田ら(2010)はくだけた表現を多く含むブログなどの文書を入力とし,〈だけた表現の少ない新聞などの文書からくだけた表現の修正候補を検索することで修正ルールを自動的に生成し, さらに生成した修正ルールを 3 つの言語的な指標によりスコアリングすることで文脈に適した修正ルールを選択する手法を提案している。これらの研究ではいずれも前処理として入力テキストを正規化・修正しているのに対し, 本研究では形態素解析と並行して未知語処理のためのルール・パターンを適用する. このような設計により, 従来手法では処理が難しかった連濁化現象により初音が濁音化した語の認識も可能となる. 工藤ら (2012) は,ひらがな交じり文が生成される過程を生成モデルでモデル化し,そのパラメータを大規模 Web コーパスおよび EM アルゴリズムで推定することで, Web 上のくだけたテキストに頻出するひらがな交じり文に頑健な形態素解析手法を提案している. 工藤らの手法は必ずしもひらがな交じり文にのみ有効な手法ではなく,本研究で対象とする小書き文字や長音記号を用いた表現に適用することも可能であると考えられるが,本研究ではこれらの表現に対してはコーパスを用いた学習を行わなくても十分に実用的な精度で処理を行うことが可能であることを示す. 斉藤ら $(2013,2014)$ はソーシャルメディア上のテキストから抽出した崩れ表記に対し正規表記を付与した正解データを用いて文字列レベルの表記の崩れパターンを自動抽出する手法を提案している。 これに対し, 本研究では人手でパターンを与える。正解データを用いてパターンを自動抽出する手法の利点としてはパターンを人手で作成する必要がないことが挙げられるが,人が見た場合に明らかなパターンがあった場合でも一定規模の正解デー夕を作成する必要があり, どちらの手法が優れているかは崩れ表記のタイプにより異なると考えられる. 教師なし単語分割 (Goldwater, Griffiths, and Johnson 2006) や形態素解析 (Mochihashi, Yamada, and Ueda 2009) に関する研究もテキストに出現する未知語処理の 1 つのアプローチとみなすことができる。また,〈だけたテキストに出現する表記バリエーションに対処する方法として,形態素解析に使用する辞書にこれらの表記バリエーションを追加するという方法も考えられる. たとえば,連濁による濁音化も含む多くの表記バリエーションに対応した形態素解析用の辞書としてUniDic(伝, 小木曽, 小椋, 山田, 峯松, 内元, 小磯 2007) があり, このような辞書を用いることで未知語の数を減らすことが可能であると考えられる. しかし, 長音記号は任意の数を挿入することが可能であることからも明らかなように,表記バリエーションの種類は無数に考えられ,すべてを辞書に含めることは不可能である。また,連濁により濁音化した形態素を高精度に認識するためには, 直前の形態素の品詞等を考慮する必要があることから, 連濁の認識を辞書の改良だけで行うことは難しいと考えられる。 ## 3 提案手法 ## 3.1 提案手法の概要 本論文では主に形態素ラティスの生成方法の改良により,形態素解析で使用する辞書に含まれる語から派生した未知表記,および,未知オノマトぺを対象とした日本語形態素解析における効率的な未知語処理手法を提案する。具体的には既存の形態素解析システムに, 既知語から派生した未知表記に相当する形態素ノードを生成するためのルール,および,未知オノマトペに相当する形態素ノードを生成するためのパターンを導入することで,これらのタイプの未知語の自動認識を行う。たとえば, 下記のような文が入力された場合, 図 2 で実線で示したノー 図 2 提案システムの概要 ド・経路に加え,新たに破線で示した未知語に相当するノード,および,それを経由する経路を追加し, 新たに生成された形態素ラティスから最適な経路を探索することで, 下記の文の正しい形態素解析を実現する。 (2) おいしかったでーーす。 本研究では, 比較的単純なルールおよびパターンのみを考慮し, さらに, 辞書を用いた形態素検索の方法を工夫することで, 解析速度を大きく低下させることなく, 高精度に一部の未知語の処理が可能であることを示すことを主な目的とする. このため, 本研究で使用するルールやパターン,および,置換ルールやオノマトペ認識の対象とする文字種の範囲は,現象ごとにコーパスを分析した結果に基づき,解析結果に大きな悪影響が出ない範囲で出来る限り多くの未知語を解析できるよう人手で定めたものを使用する 1 . 同様に,各ルールやパターンを適用するためのコストに関しても,機械学習等により最適な值を求めることは行わず,人手で調整した値を使用し, ベースラインとする形態素解析システムには, 各形態素の生起コストや連接コストの調整を人手で行っている JUMAN²を用いる. ## 3.2 既知形態素から派生した未知語の自動認識 ## 3.2.1 対象とする未知語 本研究では既知形態素から派生した未知語として以下の 5 つのタイプの未知語を扱う. 1. 連濁により濁音化した語 2. 長音記号による置換を含む語 3. 小書き文字による置換を含む語  4. 長音記号の挿入を含む語 5. 小書き文字の挿入を含む語 以下では,連濁による濁音化,長音記号および小書き文字による置換,長音記号および小書き文字の挿入の 3 つに分けて,対象とする未知語の詳細,および,それぞれどのようにノードを追加するかについて詳述する。 ## 3.2 .2 連濁による濁音化 連濁とは複合語の後部要素の初頭にある清音が濁音に変化する現象のことを指す。連濁現象により濁音化した形態素表記の多くは辞書に登録されていないため,形態素解析において未知語として扱われる場合が多い。たとえば以下のような文が入力された場合,「こたつ」という表記が辞書に含まれていたとしても,「ごたつ」が辞書に登録されていないと「ごたつ」を 1 形態素として正しく認識することができない. (3) 掘りごたつ。 そこで,初頭が清音である名詞については,初頭の清音が濁音化したものも形態素候補として形態素ラティスに追加する。この際,1つの元となる形態素に対し濁音化した形態素はたかたか 1 つであることから,濁音化した形態素をあらかじめ形態素辞書に追加することにより,通常のトライ木に基づく形態素の探索の枠組みで濁音化した形態素候補をラティスに追加する. ただし, 連濁は複合語の後部要素にのみ生じる現象であり, さらに,連濁は複合語の後部要素であれば必ず起こるわけではなく表 2 に示すような連濁の発生を抑制する要因が知られていることから以下の制約を課す。 - 直前の形態素が名詞, 動詞の連用形, 名詞性接尾辞の場合のみ濁音化したノードを使用 ${ }^{3}$ ・ 代表的な表記がカタカナを含む形態素は濁音化の対象としない 4 ・ 形態素がもともと濁音を含んでいる場合は濁音化の対象としない5 表 2 連濁の発生を抑制する要因 ・ 連濁を起こすのは原則として和語であり,一部を除き,漢語,外来語は連濁を起こなさい. ・ 複合語の後部要素が濁音を含んでいる場合, 連濁は起こらない (Lyman 1894).  新たに生成された濁音化した形態素の生起コストは, その元となった形態素の生起コストよりも大きく設定した.具体的なコストの設定方法については付録 A に記載した. 本研究では,濁音化した形態素をはじめとする未知語の生起コストを通常の形態素の生起コストよりも意図的に大きめに設定している。これは未知語を含む文が新たに正しく解析できるようになることによるユーザの形態素解析システムへの評価の上昇幅よりも,通常解析できることが期待される文が正しく解析できない場合の評価の下落幅の方が大きいと考えたためである. ## 3.2.3長音記号・小書き文字による置換 くだけたテキストでは, 「おはよー」,「うらやまし〜」や「あなた」などのように形態素辞書中に含まれる語表記の一部が長音記号や小書き文字に置換された表現が出現する。このうち長音記号に置換される文字の多くは,「おはよう」の「う」や,「うらやましい」の「い」などのように直前の文字を伸ばした音に類似していると考えられる。そこで長音記号があった場合,入力文字に対し行う通常の形態素の検索に加え,長音記号をその直前の文字に応じて表 3 に示す母音文字に置き換えた文字列に対しても形態素の検索を行い,検索された形態素を形態素ラティスに追加する. 本研究では長音記号として「ー」と「〜」の2つを扱う. 小書き文字があった場合も同様に対応する通常の文字に置き換えた文字列を作成し形態素の検索を行う.本研究では,「あ」,「い」,「j」,「え」,「お」,「カ」,および「わ」を置換対象とし,それぞれ「あ」,「い」,「う」,「え」,「お」,「か」,「わ」に置換する,たとえば「おいし一。」とい文があった場合「おいしい。」という文字列に対しても形態素の検索を行い,新たに検索された形態素を 「おいしー」から生成された形態素ラティスに追加する. この際, 長音記号および小書き文字は何らかの文字の置換により出現した場合だけでなく,以下で述べるように挿入された場合もあると考えられる。しかし, 事前の分析の結果, 同一形態素内で置換されたものと挿入されたものが混じって出現することは相対的に少ないことが分かったため ${ }^{6}$, 解析速度への影響を考慮し, これらの未知語は本研究では扱わない。また, 長音 表 3 直前の文字ごとの長音記号を置き換える母音文字 \\  のみであった 記号・小書き文字の置換により新たに生成された形態素の生起コストの設定方法は,長音記号・小書き文字の挿入により生成された形態素の生起コストとともに付録 Bに記載した. ## 3.2.4長音記号・小書き文字の挿入 くだけたテキストでは,「冷たーーーい」や「冷たあああい」などのように形態素辞書中に含まれる語に長音記号や小書き文字が挿入された表現が出現する。これらの表記において,挿入される文字数は任意であることからこれらの表現をすべて辞書に登録することは難しい. そこで本研究では, 長音記号・小書き文字の置換に対する処理と同様に, 入力文字列に対し一定の処理を行った文字列に対し形態素の検索を行い,その結果を形態素ラティスに追加することにより,長音記号および小書き文字の挿入に対応する. 具体的には,「一」および「〜」が出現した場合,または,「あ」,「い」,「j」,「え」,「お」が出現し,かつ,その直前の文字が小書き文字と同一の母音をもつ平仮名7であった場合に,それらを削除した文字列を作成する。たとえば「冷たああーーい。」という文があった場合,「冷たい。という文字列に対しても形態素の検索を行い, 新たに検索された形態素を「冷たああーー い。」か生成された形態素ラティスに追加する. ## 3.3 未知オノマトペの自動認識 ## 3.3.1 未知オノマトペのタイプ オノマトペとは「わくわく」,「しっかり」などのような擬音語・擬声語のことである. 日本語では比較的自由にオノマトぺを生成できることから特にくだけたテキストでは「ぐじょぐじょ」 や「ぐっちょり」などのような辞書に含まれないオノマトペが多く出現する. 本研究では多くの未知オノマトぺが一定のパターンに従っていることを利用し, 特定のパターンに従う文字列をオノマトぺの候補とすることで未知オノマトぺの自動認識を行う。ここで,オノマトぺの品詞としては, 副詞, サ変名詞, 形容詞などが考えられるが, 本研究ではオノマトペが必要以上に細かく分割されるのを防ぐことを主な目的とし,すべて副詞として処理する.以下では「ぐじょぐじょ」などのように反復を含むタイプと,「ぐっちょり」などのように反復を含まないものの 2 つに分け,それぞれどのようにノードを追加するか詳述する。 ## 3.3.2 反復型オノマトペ オノマトぺの代表的なパターンの 1 つに「ぐじょぐじょ」や「うはうは」などのように,同じ音が 2 度反復されるパターンがある (筧,田守 1993),そこで本研究では 2 文字から 4 文字までの平仮名または片仮名が反復されている場合,それらを未知オノマトぺの候補として形態素  0 \sim 30 \mathrm{FF}$ の範囲を使用する. } ラティスに追加する.これらのオノマトぺは入力文の各位置において,そこから始まる平仮名または片仮名 $n$ 文字とその直後の $n$ 文字が一致しているかどうかを調べることで効率的に探索することが可能である. ただし,「むかしむかし」や「ぜひぜひ」などのように同音が反復された場合でもオノマトペではない表現も存在する。このため, 追加された未知オノマトペノードが必要な場合にのみ選択されるように, 追加したノードのコストを適切に設定する必要がある. 本研究では, 基本的に反復文字数ごとにコストを設定し,さらに濁音・半濁音や開拗音を含む表現はオノマトペである場合が多いこと, また, 平仮名よりも片仮名の場合の方がオノマトぺである場合が多いことを考慮し,コストを人手で設定した。実際に使用したコストは付録 Cに記載した。 ## 3.3.3 非反復型オノマトペ 反復を含まない場合もオノマトぺは一定のパターンに従うものが多い (筧, 田守 1993). そこで本研究ではオノマトぺを認識するためのパターンを導入し, 導入したパターンに従う文字列を形態素候補として形態素ラティスに追加する。本研究で使用したパターンを表 4 に示す。パターン中の $\mathrm{H}, \mathrm{K}, \mathrm{H}, \mathrm{K}$ はそれぞれ平仮名, 片仮名 ${ }^{8}$, 平仮名の開拗音字 $(\lceil ゃ 」, 「 ゆ 」,\lceil ょ\rfloor)$, および,片仮名の開拗音字(「ヤ」,「ユ」,「ョ」)を表す。これらは事前にコーパスを分析した結果, 出現頻度が高く, かつ, 悪影響の少ないパターンである. いずれも 2 音節の語基を持ち,先頭の 4 つは 2 音節の間に促音を持ち「り」語尾が付いたもの, 残りの 3 つは 2 音節に促音および「と」が付いたものとなっている.本論文ではパターンを導入することの有効性を確認することを目的とし,実験には表 4 に示した 7 つのパターンのみを使用したが,さらに多くのパターンを導入することで,より多くのオノマトぺを認識できると考えられる.また,コストは本研究で使用する形態素解析システム JUMAN におけるコストであり,一般的な副詞のコスト 表 4 非反復型オノマトペのパターンとコスト  を 100 とした場合の形態素生起コストを表している9. 非反復型オノマトぺを含む形態素ラティスの生成にあたり,入力文の各位置から始まる文字列が表 4 に示すパターンに一致するかどうか検索すると, 形態素ラティスの生成速度が大きく低下する可能性が考えられる。そこで本研究では,表 4 に示す各パターンから生成されうる形態素の数はたかだか 4,761 ないしは 14,283 である 10 ことに着目し,これらの候補をすべて事前に辞書に追加することで,通常のトライ木に基づく辞書検索により未知オノマトペのノードを形態素ラティスに追加できるようにした. ## 3.4 未知語処理の流れ 表 5 に本研究で扱う未知語のタイプと, 各未知語に相当するノードをどのように形態素ラティスに追加するかをまとめる。これらの未知語処理をすべて行った場合の形態素ラティスの作成手順は以下のようになる. 1. 形態素解析に先立ち,連濁により濁音化した形態素,および,非反復型オノマトぺの候補を形態素解析辞書に追加 2. 入力文に対し, 形態素の検索を行い形態素ラティスを作成 3. 入力文中に出現した長音記号・小書き文字を 3.2 節で述べたルールに基づき置換した文字列に対し形態素の検索を行い, 新たに検索された形態素を形態素ラティスに追加 4. 入力文中に出現した長音記号・小書き文字を 3.2 節で述べたルールに基づき削除した文字列に対し形態素の検索を行い, 新たに検索された形態素を形態素ラティスに追加 5. 文字列比較により,入力文に含まれる平仮名または片仮名の 2 文字から 4 文字までの反復を探し,存在した場合は形態素ラティスに追加 表 5 提案手法で扱う未知語のタイプと未知語ノードの形態素ラティスへの追加方法  ## 4 実験と考察 ## 4.1 提案手法の再現率 提案手法の有効性を確認するため, まず, 再現率, すなわち対象の未知語のうち正しく解析できる語の割合の調査を行った。すべての未知語を夕グ付けした大規模なデータを作成するためには大きなコストが必要となることから, 本研究では未知語のタイプごとに個別に対象の未知語を含むデータを作成し再現率の調査を行った。未知語のタイプを限定することで,正規表現等により対象の未知語を含む可能性のある文を絞り込むことができ,効率的にデータを作成できるようになる。具体的には,検索エンジン基盤 TSUBAKI(Shinzato et al. 2008)で使用されている Webページから,各未知語タイプごとに正規表現を用いて未知語を含む文の候補を収集し,そこから未知語を 100 個含む文集合を作成し,再現率の評価を行った,ただし,ここで使用した文集合には 3 節で説明したルール・パターンの作成の際に参考にした文は含まれていない.結果をUniDic(伝他 2007) によるカバー率とともに表 6 に示す. ここで, UniDic によるカバー 率とは対象の未知語 100 個のうち UniDic に含まれている語の数を表している。実際に UniDic を用いたシステムにおいて対象の未知語を正しく解析できるかどうかは考慮していないため, UniDic によるカバー率は UniDic を用いたシステムが達成できる再現率の上限とみなせる. 表 6 に示した結果から,すべての未知語タイプに対し提案手法は高い再現率を達成できることが確認できる。連濁を除く未知語タイプにおいてはUniDic によるカバー率よりも高い再現率を達成していることから,考えうる多くの未知語を人手で登録するアプローチに比べ,既知語からの派生ルールと未知オノマトペ認識のためのパターンを用いる提案手法のアプローチは,低コストで多くの未知語に対応できると言える。一方,連濁により濁音化した語については正しく認識できた語の数は UniDic でカバーされている語の数よりも少なかった. たとえば以下の文に含まれている「がわら」は正しく認識することができなかった. (4) 赤がわらの民家です。 表 6 未知語タイプごとの再現率と UniDicによるカバー率 表 7 解析済みブログコーパスにおいて 2 回以上出現した未知語の分類 これは連濁と関係ない表現を連濁により濁音化したものであると認識しないように,連濁により濁音化した形態素のノードに大きなコストを与えているためである。たとえば以下のような文があった場合,連濁により濁音化した形態素のコストを元の形態素のコストと同程度に設定した場合は「でまわり」を「手回り」が濁音化したものと解析してしまうため,濁音化した形態素のノードには大きめのコストを与える必要がある. (5)笑顔でまわりの人たちを幸せにする。 続いて,実コーパスにおける再現率の評価を行うため, 解析済みブログコーパス (橋本他 2011)11を用いた評価を行った。具体的には解析済みブログコーパスで 1 形態素としてタグ付けされている語のうち, 2 回以上出現し, かつ, JUMAN5.1の辞書に含まれていない 230 語を, 村脇らによりコーパスから自動生成された辞書 (Murawaki and Kurohashi 2008) でカバーされているもの,それ以外でWikipediaにエントリを持つもの,それ以外で提案手法によりカバーされるもの, その他の 4 つに分類した. 結果を表 7 に示す. 村脇らによる辞書, および, Wikipedia のエントリでもカバーされない未知語のうち異なり数でおよそ $30 \%$, 出現数でおよそ $45 \%$ が提案手法により解析できており, 提案手法による未知語処理が実コーパスに対しても有用であることが確認できる。また,提案手法により解析できた未知語には,連濁による濁音化を除くすべての未知語タイプが含まれており, 様々な未知語タイプが実コーパスにおいて出現することが確認できた. ## 4.2 解析精度・速度の評価 本論文で導入したルール・パターンを用いることで新たに認識された未知語の精度, および,解析速度の変化を調べるため, これらのルール・パターンを用いないベースラインモデルと提案手法を用いたモデルを以下の 7 つの観点から比較することにより提案手法の評価を行った.本節の実験では JUMAN5.1をデフォルトのコスト設定のまま使用したものをべースラインモデルとした. 1. 解析結果が変化した 100 箇所中, 解析結果が改善した箇所の数: $P_{100 D}$ 2. 解析結果が変化した 100 箇所中, 解析結果が悪化した箇所の数: $N_{100 D}$ 3. 10 万文あたりの解析結果が変化した箇所の数: $D_{100 k S}$ 4. 10 万文あたりの解析結果が改善した箇所の推定数 : $P_{100 k S}^{*}$ 5. 10 万文あたりの解析結果が悪化した箇所の推定数: $N_{100 k S}^{*}$ 6. 形態素ラティスにおけるノードの増加率:Node ${ }_{i n c}$. 7. 解析速度の低下率 : $S P_{\text {loss }}$ 実験には検索エンジン基盤 TSUBAKI(Shinzato et al. 2008)で使用されている Webページから収集した 10 万文を使用した。これらの文は平仮名を 1 字以上含み,かつ,全体で 20 文字以上で構成される文であり,3節で説明したルール・パターンの作成の際に参考にした文は含まれていない. まず, $P_{100 D}$ と $N_{100 D}$ を算出するため,各ルール・パターンを用いた場合と用いなかった場合で解析結果が変化した箇所を 100 箇所抽出し,それらを改善,悪化,その他の 3 クラスに分類した。この際, 基本的に分割箇所が変化した場合は分割箇所の優劣を比較し, 分割箇所に優劣がない場合で品詞が変化した場合はその品詞の優劣を比較した. ただし, 形態素区切りが改善した場合であっても,名詞であるべき品詞が副詞となっている場合など,明らかに正しい解析と言えない場合はその他に分類した。たとえば「面白がれる」という表現は,JUMANでは子音動詞の可能形は可能動詞として登録されていることから, JUMAN の辞書登録基準では 1 語となるべきである。しかし, 連濁ルールを用いなかった場合は下記の例 (6)a のように, 連濁ルールを用いた場合は下記の例 (6)bのように, 解析結果は異なるものの, いずれの場合も過分割されてしまうことから, このような場合はその他に分類した. (6) a. 面/白/が/れ/る b. 面/白/がれる また, $P_{100 k S}^{*}$, および, $N_{100 k S}^{*}$ は, 10 万文あたりの解析結果が変化した箇所の数 $D_{100 k S}$ を用いて,それぞれ以下の式により算出した。 $ \begin{aligned} & P_{100 k S}^{*}=D_{100 k S} \times P_{100 D} / 100 \\ & N_{100 k S}^{*}=D_{100 k S} \times N_{100 D} / 100 \end{aligned} $ ここで,各未知語タイプごとに推定誤差は異なっていることに注意が必要である.特に解析が悪化した箇所の数は少なことから $N_{100 k S}^{*}$ の推定誤差は大きいと考えられる. しかしながら, 各未知語タイプごとに大規模な評価を行うコストは大きいことから本論文では上記の式から算出された推定数に基づいて考察を行う。 表 8 各ルール・パターンを使用した場合の精度と速度 解析精度の評価に加えて, 最適解の探索時間に影響を与えると考えられることから形態素ラ の低下率 $S P_{\text {loss }}$ の計測も行った。これらの評価結果を表 8 に示す. 表 8 に示す結果から提案手法を用いることで,ほとんど解析結果を悪化させることなく,また, 解析速度を大きく下げることなく, 多くの未知語を正しく処理できるようになることが確認できる.具体的には,すべてのルール・パターンを用いることで 10 万文あたり 4,500 個以上の未知語処理が改善するのに対し,悪化する解析は 80 個程度であると推定でき,速度の低下率は $6.2 \%$ であった。速度の低下率に関してはべースラインとした形態素解析器の実装に大きく依存するため, 具体的な数値に大きな意味はないと言えるものの, 少なくとも提案手法は大幅な速度低下は引き起こさないと考えられる。また, ノードの増加率に対し解析速度の低下率が大きいことから, 速度低下は最適パスの探索ではなく, 主に形態素ラティスの生成の時間の増加により引き起されていると考えられる。 以下ではルール・パターンごとの解析の変化について詳述する。 ## 4.2.1連濁による濁音化 表 8 に示したとおり,連濁パターンを導入した場合,新たに正しく解析できるような表現がある一方で, 解析結果が悪化する表現が長音文字や小書き文字の置換・插ルールと比べ多く存在する。これは,長音文字や小書き文字を含む形態素はもともと非常に少ないのに対し,濁音を含む形態素は多く存在しているため,濁音が含まれているからといって連濁による濁音化であるケースが限定的であるためと考えられる.表 9 に連濁ルールを導入することにより解析結果が変化した例を示す。解析結果の変化を示した表において/’は形態素区切りを,太字は解析結果が正解と一致していることを表す。「はさみ」が濁音化した形態素「ばさみ」や「ためし」が濁音化した形態素「だめし」など正しく認識できるようになった表現がある一方で,本来, 格助詞「が」と形容詞「ない」から構成される「がない」という文字列を「かない」が濁音 化した表現であると誤って解析されてしまうような表現が 8 例存在した。このような例を改善するためには,連濁化に関する静的な情報を活用して連濁処理の対象を制限することが考えられる。たとえば UniDic には連濁によって濁音化する語の情報が登録されておりこれを利用することが考えられる. ## 4.2.2 長音文字の置換 長音文字を置換するルールを導入することで解析結果が変化した例を表 10 に示す。もともと正しく解析できていた表現がルールを導入することにより解析できなくなった例は存在せず,周辺の解析結果が悪化したものが「OK だよ〜ん」の1例のみ存在した。この例ではいずれも形態素区切りは誤っているものの, ベースラインモデルでは「だをを判定詞であると解析できていたものが,提案手法を用いた場合は普通名詞であると解析されたため,解析結果が悪化したと判定した。 ## 4.2.3 小書き文字の置換 小書き文字を置換するルールを導入することで解析結果が変化した例を表 11 に示す.長音記号の場合と同様にもともと正しく解析できていた表現がルールを導入することにより解析できなくなった例は存在せず,周辺の解析結果が悪化したものが「ゆみいの布団」の 1 例のみ存在した. この例でベースラインモデルでは格助詞であると正しく解析できていた「の」が,「いの」 という地名の一部であると解析されたため, 解析結果が悪化したと判定した. また,小書き文字を置換するルールを導入することで解析結果が改善した箇所の推定数は 10 万文あたり 1,374 表 9 連濁ルールを導入することで解析結果が変化した例 & & & \\ 表 10 長音文字を置換するルールを導入することで解析結果が変化した例 & & & \\ 箇所であり, 全未知語タイプの中でもっとも多く, ほぼ悪影響もないことから, 非常に有用なルールであると言える。 ## 4.2.4 長音文字の挿入 挿入されたと考えられる長音文字を削除するルールを導入することで解析結果が変化した例を表 12 に示す. 長音文字の挿入に対処することで解析が悪化した例は存在せず,「苦〜い」や 「ぜーんぶ」など多くの表現が正しく解析できるようになった. 長音文字を削除するルールを導入することで解析結果が改善した箇所の推定数は 10 万文あたり 1,093 箇所であり,小書き文字の置換ルールに次いで多かった。解析結果が悪化した事例は確認できなかったことから, 非常に有用性の高いルールであると言える. ## 4.2.5 小書き文字の挿入 挿入されたと考えられる小書き文字を削除するルールを導入することで解析結果が変化した例を表 13 に示す。長音文字の挿入の場合と同様に小書き文字に対処することで解析が悪化した例は存在せず,「さあん」や「でしたあああ」など小書き文字の插入を含む表現が正しく解析できるようになった. 表 11 小書き文字を置換するルールを導入することで解析結果が変化した例 & & & \\ 表 12 長音文字を削除するルールを導入することで解析結果が変化した例 & & & \\ 表 13 小書き文字を削除するルールを導入することで解析結果が変化した例 & & & \\ ## 4.2.6 反復型オノマトペ 反復型オノマトぺの認識パターンを導入することで解析結果が変化した例を表 14 に示す. 解析結果に変化があった 100 箇所中, 感動詞の反復である「あらあら」と「うんうん」の 2 例は誤ってオノマトぺであると解析されたものであったが,この 2 例以外には解析が悪化した事例はなかった. 反復型オノマトぺの認識パターンを導入することで解析結果が改善した箇所の推定数は 10 万文あたり 860 箇所であり, 小書き文字の置換ルール, 長音文字の削除ルールに次いで多かった。 ## 4.2.7 非反復型オノマトペ 非反復型オノマトぺの認識パターンを導入することで解析結果が変化した例を表 15 に示す.解析結果が悪化した例は存在せず,「のっちょり」などのように本来オノマトぺではない表現を誤ってオノマトペであると解析した例は存在したが, それらはいずれもべースライン手法でも正しく解析できない表現であった。また, 非反復型オノマトぺの処理を行うことによる速度の低下は確認できなかった.生成される形態素ラティスのノード数の増加率が $0.008 \%$ にどまっていることから, 正しいオノマトペ以外にはほとんどパターンに該当する文字列が存在しなかったためであると考えられる. 表 14 反復型オノマトペパターンを導入することで解析結果が変化した例 表 15 非反復型オノマトペパターンを導入することで解析結果が変化した例 ## 5 まとめ 本論文では,形態素解析で使用する辞書に含まれる語から派生した未知表記,および,未知オノマトペを対象とした日本語形態素解析における効率的な未知語処理手法を提案した. Web から収集した 10 万文を対象とした実験の結果,既存の形態素解析システムに提案手法を導入することにより,解析が悪化した箇所は 80 箇所程度,速度低下は $6 \%$ みみ゙あったのに対し,新たに約 4,500 個程度の未知語を正しく認識できることを確認した。特に,長音文字・小書き文字の置換・挿入に関するルールのみを導入した場合, 10 万文あたり推定 3,327 個の未知語を新たに解析できるようになるのに対し,悪化する箇所は推定 27 個であり,ほとんど解析結果に悪影響を与えることなく多くの未知語を解析できることが確認できた. 今後の展望としては, 各形態素の生起コストや連接コストを機械学習を用いて推定した形態素解析システムへの応用や,特に連濁現象への対処として UniDic などのように多くの表記バリエーションの情報が付与された辞書と組み合わせることなどが考えられる。 ## 参考文献 Asahara, M. and Matsumoto, Y. (2000). "Extended Models and Tools for High-performance Part-of-speech Tagger." In Proceedigs of COLING'00, pp. 21-27. Asahara, M. and Matsumoto, Y. (2004). "Japanese Unknown Word Identification by Characterbased Chunking." In Proceedigs of COLING'04, pp. 459-465. 東藍, 浅原正幸, 松本裕治 (2006). 条件付確率場による日本語未知語処理. 情報処理学会研究報告, 自然言語処理研究会報告 2006-NL-173, pp. 67-74. 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵 (2007). コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用. 日本語科学, $\mathbf{2 2}$, pp. 101-122. Goldwater, S., Griffiths, T. L., and Johnson, M. (2006). "Contextual Dependencies in Unsupervised Word Segmentation." In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 673-680. 橋本力, 黒橋禎夫, 河原大輔, 新里圭司, 永田昌明 (2011). 構文・照応・評判情報つきブログコーパスの構築. 自然言語処理, $18(2)$, pp. 175-201. 池田和史, 柳原正, 松本一則, 滝嶋康弘 (2010). くだけた表現を高精度に解析するための正規化ルール自動生成手法. 情報処理学会論文誌データベース, $\mathbf{3}(3)$, pp. 68-77. Kacmarcik, G., Brockett, C., and Suzuki, H. (2000). "Robust Segmentation of Japanese Text into a Lattice for Parsing." In Proceedigs of COLING'00, pp. 390-396. 筧寿雄,田守育啓 (1993). オノマトピア一擬音・擬態語の楽園. 勁草書房. 風間淳一, 光石豊, 牧野貴樹, 鳥澤健太郎, 松田晃一, 辻井潤一 (1999). チャットのための日 本語形態素解析. 言語処理学会第 5 回年次大会発表論文集, pp. 509-512. 工藤拓,市川宙,Talbot, D., 賀沢秀人 (2012). Web 上のひらがな交じり文に頑健な形態素解析.言語処理学会第 18 回年次大会発表論文集, pp. 1272-1275. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Proceedigs of EMNLP'04, pp. 230-237. Kurohashi, S., Nakamura, T., Matsumoto, Y., and Nagao, M. (1994). "Improvements of Japanese Morphological Analyzer JUMAN." In Proceedigs of The International Workshop on Sharable Natural Language Resources, pp. 22-38. Lyman, B. S. (1894). The Change from Surd to Sonant in Japanese Compounds. Philadelphia: Oriental Club of Philadelphia. Mochihashi, D., Yamada, T., and Ueda, N. (2009). "Bayesian Unsupervised Word Segmentation with Nested Pitman-Yor Language Modeling." In Proceedigs of ACL-IJCNLP'09, pp. 100-108. Mori, S. and Nagao, M. (1996). "Word Extraction from Corpora and Its Part-of-Speech Estimation Using Distributional Analysis." In Proceedigs of COLING'96, pp. 1119-1122. Murawaki, Y. and Kurohashi, S. (2008). "Online Acquisition of Japanese Unknown Morphemes using Morphological Constraints." In Proceedigs of EMNLP'08, pp. 429-437. Nagata, M. (1999). "A Part of Speech Estimation Method for Japanese Unknown Words using a Statistical Model of Morphology and Context." In Proceedigs of ACL'99, pp. 277-284. Nakagawa, T. and Uchimoto, K. (2007). "A Hybrid Approach to Word Segmentation and POS Tagging." In Proceedigs of $A C L^{\prime} 07$, pp. 217-220. 岡部浩司, 河原大輔, 黒橋禎夫 (2007). 代表表記による自然言語リソースの整備. 言語処理学会第 13 回年次大会, pp. 606-609. 斉藤いつみ, 貞光九月, 浅野久子, 松尾義博 (2013). 正規-崩れ表記のアライメントに基づく表記崩れパタンの抽出と形態素解析への導入. 情報処理学会研究報告, 自然言語処理研究会報告 2013-NL-214, pp. 1-9. 斉藤いつみ, 貞光九月, 浅野久子, 松尾義博 (2014). 正規-崩れ文字列アライメントと文字種変換を用いた崩れ表記正規化に基づく日本語形態素解析. 言語処理学会第 18 回年次大会発表論文集, pp. 777-780. Shinzato, K., Shibata, T., Kawahara, D., Hashimoto, C., and Kurohashi, S. (2008). "TSUBAKI: An Open Search Engine Infrastructure for Developing New Information Access Methodol- ogy." In Proceedigs of IJCNLP'08, pp. 189-196. Uchimoto, K., Sekine, S., and Isahara, H. (2001). "The Unknown Word Problem: A Morphological Analysis of Japanese using Maximum Entropy Aided by a Dictionary." In Proceedigs of EMNLP'01, pp. 91-99. ## 付録 ## A 濁音化した形態素の生起コスト 濁音化した形態素の生起コストは,濁音化する前の形態素に付与されているコストに,次表に示すコストを加算することにより与える. 濁音化する前の形態素のコストは表記ごとに与えられ, JUMAN5.1 では名詞, 動詞などといった内容語の多くは100,または,160のコストが付与されている.たとえば,動詞「座る」の平仮名表記である「すわる」のコストは 100 であるので,その連用形が濁音化した「ずわり」のコストは 170 , 名詞「虫」の平仮名表記である「かいこ」のコストは 160 であるので, 「がいこ」 のコストは 270 となる.ここで,“が”から始まる語に大きな加算コストを与えているのは,格助詞「が」を誤って濁音化した形態素の先頭であると解析されないようにするためである. ## B長音記号・小書き文字が置換・挿入された形態素の生起コスト 長音記号・小書き文字を置換・挿入することにより生成された形態素の生起コストは, 置換・插入前の形態素に付与されている生起コストに, 次表に示すコストを加算することにより与える. ここで品詞コストとは, 品詞ごとに定義されたコストであり, 対象の品詞に属する形態素の標準的な生起コストを表している. JUMAN5.1 のデフォルトでは判定詞の場合には 11 , 感動詞の場合には 110 , 動詞, 普通名詞, 形容詞, 副詞には 100 , 副詞的名詞には 70 などのコストが 与えられている. たとえば, 普通名詞「あなた」の生起コストが 100 , 普通名詞の品詞コストが 100 であることから, 「あなた」という形態素の生起コストは 160 , 感動詞「もしもし」の生起コストは 110 , 感動詞の品詞コストは 110 であることから, 「もしも〜し」という形態素の生起コストは 176 となる. ## C 反復型オノマトペの生起コスト 反復型オノマトペ $w$ の生起コストは以下の式により与える. $ \text { cost }=L E N(w) \times 130-f_{v}(w) \times 10-f_{p}(w) \times 40-f_{k}(w) \times 20 $ ただし, $L E N(w): w$ に含まれる繰り返し文字数(ただし,ここでは「きゃ」などの開拗音は全体で 1 文字として扱う) $f_{v}(w): w$ の先頭の文字が濁点または半濁点を含むなら 2 ,それ以外の文字が濁点または半濁点を含むなら 1 , それ以外は 0 となる関数 $f_{p}(w): w$ が開拗音を含むなら 1 , それ以外は 0 となる関数 $f_{k}(w): w$ が片仮名であるなら 1 , それ以外は 0 となる関数とする。 すなわち,基本的に繰り返し文字数 1 つにつき 130 のコストを与えるが,先頭の文字が濁点・半濁点を含む場合は 20 , それ以外の文字が濁点・半濁点を含む場合は 10 , 開拗音を含む場合は 40, 片仮名である場合は 20 , それぞれコストを小さくする。これは,オノマトぺは濁点・半濁点, 開拗音を含む場合が多く, また, 片仮名で表記されることが多いためである.たとえば,「ぐちょぐちょ」という形態素であれば, 繰り返し音数は 2 で最初の文字が濁点を含みで,かつ,開拗音を含むので,生起コストは 260 から 20 と 40 を引た 200 となる. ## D 非反復型オノマトペの生成に使用した平仮名, 片仮名の一覧 \\ ## 略歴 笹野遼平 : 2009 年東京大学大学院情報理工学系研究科博士課程修了. 博士 (情報理工学). 京都大学大学院情報学研究科特定研究員を経て 2010 年より東京工業大学精密工学研究所助教. 自然言語処理, 特に照応解析, 述語項構造解析の研究に従事. 言語処理学会, 情報処理学会, 人工知能学会, ACL 各会員. 黒橋禎夫: 1994 年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士 (工学). 2006 年 4 月より京都大学大学院情報学研究科教授. 自然言語処理, 知識情報処理の研究に従事. 言語処理学会 10 周年記念論文賞, 同 20 周年記念論文賞, 第 8 回船井情報科学振興賞, 2009 IBM Faculty Award 等を受賞. 2014 年より日本学術会議連携会員. 奥村学:1962 年生. 1984 年東京工業大学工学部情報工学科卒業. 1989 年同大学院博士課程修了. 同年, 東京工業大学工学部情報工学科助手. 1992 年北陸先端科学技術大学院大学情報科学研究科助教授, 2000 年東京工業大学精密工学研究所助教授, 2009 年同教授, 現在に至る. 工学博士. 自然言語処理, 知的情報提示技術, 語学学習支援, テキスト評価分析, テキストマイニングに関する研究に従事. 情報処理学会, 電子情報通信学会, 人工知能学会, AAAI, 言語処理学会, ACL, 認知科学会, 計量国語学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 受身・使役形と能動形間の格交替に関する語彙知識の自動獲得 笹野 遼平†・河原 大輔㫜・黑橋 禎夫 ${ }^{\dagger}$ ・奥村 学 $\dagger$ } 日本語において受身文や使役文を能動文に変換する際,格交替が起こる場合がある.本論文では,対応する受身文・使役文と能動文の格の用例や分布の類似性に着目し, Web から自動構築した大規模格フレームと, 人手で記述した少数の格の交替パター ンを用いることで,受身文・使役文と能動文の表層格の対応付けに関する知識を自動獲得する手法を提案する。さらに,自動獲得した知識を受身文・使役文の能動文 への変換における格交替の推定に利用することによりその有用性を示す. キーワード:格交替,受身,使役,格フレーム ## Automatic Knowledge Acquisition for Case Alternation between the Passive/Causative and Active Voices \author{ Ryohei Sasano ${ }^{\dagger}$, Daisuke Kawahara $^{\dagger \dagger}$, Sadao Kurohashi ${ }^{\dagger \dagger}$ and Manabu Okumura ${ }^{\dagger}$ } We propose a method for automatically acquiring knowledge about case alternations between the passive/causative and active voices. Our method leverages large lexical case frames obtained from a large Web corpus, and several alternation patterns. We then use the acquired knowledge to a case alternation task and show its usefulness. Key Words: Case Alternation, Passive, Causative, Case Frame ## 1 はじめに テキスト中に出現する述語の格構造を認識する処理は述語項構造解析や格解析などと呼ばれ,計算機によるテキスト理解のための重要な 1 ステップである。しかし,格構造を表現する際に使用される “格”には,述語の出現形 1 に対する表層格や,能動形に対する表層格,さらには深層格など複数の表現レベルが存在し,どの表現レベルを用いるべきかは使用するコーパス²や夕スクにより異なっている. 格構造を表層格で扱う利点としては,表層格はテキスト中に格助詞として明示的に出現することから“格”を定義する必要がないこと,述語ごとに取りうる格をコーパスから自動獲得することが可能なことなどが挙げられる。 さらに,出現形に対する表層格で扱う利点としては,能  動形では現れない使役文におけるガ格や一部の受身文のガ格を自然に扱えること,先行する述語のガ格の項が後続する述語でもガ格の項となりやすい (Kameyama 1986; Nariyama 2002) などといった談話的な情報が自然に利用できることなどが挙げられる.特に後者はゼロ照応解析において重要な手掛りになることが知られており (Iida, Inui, and Matsumoto 2007a; 笹野, 黒橋 2011), ゼロ照応の解決も含む述語項構造解析の高精度化のためには, 格構造を出現形の表層格で扱うのが望ましいと考えられる。 一方,テキストの意味を考える上では, 出現形に対する表層格解析では不十分な場合がある. (1) 私が知り合いに誘われた。 (2) 私がパーティーに誘われた. たとえば,(1),(2)のような文を考えると, 出現形の表層格としては (1)の「知り合い」と (2) の「パーティー」は同じニ格となっているが,前者は能動主体を表しており能動形ではガ格となるのに対し,後者は誘致先を表しており能動形においてもニ格となる.このような違いを認識することは情報検索や機械翻訳などといった多くの自然言語処理のアプリケーションにおいて重要となる (Iida et al. 2007b). 実際に, Google 翻訳 ${ }^{3}$ を用いてこれらの文を英訳すると, (1'), $\left(2^{\prime}\right)$ に示すようにいずれの文も二格が誘致先を表すものとして翻訳される。このうち, $\left(1^{\prime}\right)$ に示した翻訳は誤訳であるが,これは (1)の文と (2) の文における二格の表す意味内容の違いを認識できていないため誤って翻訳されたと考えられる。 $\left(1^{\prime}\right)$ I was invited to an acquaintance. $\left(2^{\prime}\right)$ I was invited to the party. また, 文 (3) は (1),(2)の 2 文が表す内容を含意していると考えられるが,出現形に対する表層格解析だけではこれらの含意関係を認識することはできない.このため,含意関係認識や情報検索などのタスクでは,能動形に対する表層格構造や深層格構造といった,より深い格構造を扱うことが望ましいと言える。 (3) 知り合いが私をパーティーに誘った。 そこで,まず出現形における表層格の解析を行い, その結果をより深い格構造に変換することを考える。このような手順を用いることで,談話的な情報を自然に取り入れながら,含意関係認識や情報検索などのタスクにも有用な能動形格構造を扱うことができると考えられる。本研究ではこのうち特に受身形・使役形から能動形への格構造変換に焦点を当てる. 受身形・使役形から能動形への格構造変換における格交替パターンの数は限定的であり人手 ^{3} \mathrm{http} / / /$ translate.google.co.jp/, 2014 年 5 月 10 日実施. } で列挙することは容易である。しかし, 文 (1), (2) からも分かるように, 述語と格が同じであっても同一の格交替パターンとなるとは限らない。同様に,項とその格が同じであっても同一の格交替パターンとなるとは限らない,たとえば,文 (1)と (4)の二格はいずれも「知り合い」であるが, これらの文を能動形に変換した場合, 文 (1)の二格はガ格となるのに対し, 文 (4)の二格は能動形においても二格のままである. (4) 奨励賞が知り合いに贈られた. このため, 受身形・使役形から能動形への格構造の変換を高精度に行うためには, 述語・項・格の組み合わせごとに,どのような格交替パターンとなるかを記述した大規模な語彙知識が必要となると考えられる。そこで, 本研究ではこのような語彙知識を大規模コーパスから自動獲得する手法を提案する,具体的には,格交替のパターンの数が限定的であること,および,対応する受身文・使役文と能動文の格の用例や分布が類似していることに着目し, 人手で記述した少数の格交替パターンと Web から自動構築した大規模格フレームを用いることで, 受身文・使役文と能動文の表層格の対応付けに関する知識の自動獲得を行う。また, 自動獲得した知識を受身文・使役文の能動文への変換における格変換タスクに適用することにより,その有用性を示す。 本論文の構成は以下の通りである。まず,2 節で関連研究について概観した後, 3 節で受身・使役形と能動形間の格の交替パターンについて,4節でWeb から自動構築した大嫢模格フレー ムについてそれぞれまとめる。続いて 5 節で提案する格フレームの対応付け手法について説明し,6節では実験を通してその有効性を示す. 最後に 7 節で本論文のまとめを記す. ## 2 関連研究 Levin (1993) は態の交替現象に着目し,3,000 以上の英語の動詞を共有する意味構成と構文的な振る舞いに基づくクラスに分類した.コーパスを用いた英語の動詞の自動分類に関する研究においても態の交替を手掛かりとして利用している研究が数多く存在している (Lapata and Brew 2004; im Walde, Hying, Scheible, and Schmid 2008; Joanis, Stevenson, and James 2008; Li and Brew 2008; Sun and Korhonen 2009; Sun, McCarthy, and Korhonen 2013).また,態の交替に関連してコーパスから得られる用例の分布類似度を利用した研究として Baroni らの研究 (Baroni and Lenci 2010)がある. Baroni らはコーパスに基づく意味論の研究において, 使役・能動交替を起こす動詞と起こさない動詞の分類にコーパスから得られる用例の分布類似度が有用であることを示している. 日本語における受身形・使役形と能動形の格の変換を扱った研究としては, Baldwin らの研究 (Baldwin and Tanaka 2000), 近藤らの研究 (近藤, 佐藤, 奥村 2001), 村田らの研究 (村田, 井佐原 2002; 村田, 金丸, 白土, 井佐原 2008) が挙げられる. Baldwin ら (Baldwin and Tanaka 2000) は日本語における受身・使役と能動形の交替を含む動詞交替の種類と頻度の定量的な分析を行っている。具体的には人手で記述した格フレーム辞書である日本語語彙大系 (NTTコミュニケーション科学研究所 1997)の結合価辞書を解析し,格スロット間の選択制約を比較して動詞交替の検出を行っている. しかし, Baldwin らの研究の目的は動詞交替の定量的な分析であ $り$ ,受身形・使役形の能動形への変換は行っていない. 近藤ら (2001) は単文の言い換えの1 タイプとして, 受身形から能動形の格の変換, および,使役形から能動形の格の変換を扱っており, 動詞のタイプや格パターンなどをもとに作成したそれぞれ 7 種類, 6 種類の交替パターンを用いて格の変換を行っている. 動詞のタイプとしては,「比較動詞」,「授受動詞」,「対称動詞」,「一般動詞」の 4 種類を定義しており, IPAL 基本動詞辞書 (情報処理振興事業協会技術センター1996)をもとに 1,564 エントリからなる動詞辞書 (VDIC 辞書)を作成し使用している。また, 村田ら (村田, 井佐原 2002; 村田他 2008) は京都大学テキストコーパス (河原他 2005) の社説を除く約 2 万文において, 受身形・使役形で出現した述語に係る格助詞を対象に,述語を能動形に変換した場合の格を付与した学習デー夕を作成し,SVM(Vapnik 1995)を用いた機械学習により受身形・使役形と能動形の格を変換する手法を提案している。学習に使用する素性には, 関係する動詞や体言, 格助詞の出現形や品詞情報などといった情報に加え, IPAL 基本動詞辞書や VDIC 辞書から得られる情報を使用している. このように日本語文における格交替に関する研究では, 人手で整備された大規模な語彙的リソースや人手で作成した大規模な学習データが利用されてきた。しかしながら, 文 (1) と (2)のように述語と表層格が一致していても能動形における格が異なる場合があることからも分かるように,格の対応は述語ごと,用法ごとに異なっており,網羅的な対応付けに関する知識を人手で記述することは現実的ではないと言える。そこで本研究では格交替に関する大規模な語彙知識の自動獲得に取り組む。 また,NAIST テキストコーパス (Iida et al. 2007b) では能動形の表層格情報が付与されていることから, NAISTコーパスを対象とした述語項構造解析やゼロ照応解析に関する研究 (Taira, Fujita, and Nagata 2008; Iida, Inui, and Matsumoto 2009; Imamura, Saito, and Izumi 2009; 吉川克正, 浅原正幸, 松本裕治 2010 ; 林部祐太, 小町守, 松本裕治 2014) は, 受身$\cdot$使役形で出現した述語の解析を行う際には格交替の解析も行っているとみなすことができる. しかし, これらの研究では素性の 1 つとして態に関する情報を考慮しているものの, 格交替に関する語彙知識は使用していない.このため, 能動形以外の態で出現した述語に対しては相対的に低い解析精度である可能性が高く4, 本研究で獲得を行う格交替に関する知識は有用な情報になると考えられる。  ## 3 格の交替パターン 受身文・使役文における表層格と,対応する能動文の表層格の対応はいくつかのパターンで記述できる。本節では受身文と能動文, 使役文と能動文, それぞれの表層格の交替パターンについて述べる. ## 3.1 受身文と能動文の格の交替パターン 受身文は,何を主語として表現するかによって,直接受身文,間接受身文,持ち主の受身文の3つのタイプに分けられる (日本語記述文法研究会 2009). 直接受身文とは, 対応する能動文でヲ格やニ格で表される人や物を主語として表現する受身文であり,以下の $(5) \sim(8)$ に示すように能動主体は基本的に「に」,「によって」,「から」,「で」 のいずれかにより表される。また,直接受身文でガ格として表される名詞は,基本的に能動文のヲ格,または,二格のいずれかに対応している55. (5)[受身形 $]$ : 私が知り合いに誘われた。 [能動形]:知り合いが私を誘った。 (6)[受身形 $]$ : 原因が研究によって解明された. [能動形] : 研究が原因を解明した. (7) [受身形 $]$ 私が彼から頼まれた。 [能動形] : 彼が私に頼んだ. (8)[受身形]: 大半が推進派で占められた。 [能動形]:推進派が大半を占めた. 間接受身文とは,対応する能動文の表す事態には直接的に関わっていない人物を主語とし, その人物が事態から何らかの影響を被っていることを表現する受身文であり,迷惑の受身文とも呼ばれる。(9)に示すように間接受身文の能動主体は基本的に「に」によって表され,間接受身文でガ格として表される名詞は能動文では出現しない.  (9)[受身形]:太郎が雨に降られた。 [能動形 $:$ 雨が降った. 持ち主の受身文とは, ヨ格やニ格などで表されていた物の持ち主を主語とし,能動文で主語として表されていた名詞を主語でない項として表現する受身文である。(10)に示すように持ち主の受身文の能動主体は基本的に「に」によって表され,持ち主の受身文でガ格として表される名詞は能動文ではヨ格やニ格の名詞句にノ格で係る名詞句として出現する. (10)[受身形]:友人が泥棒に足カードを盗まれた。 [能動形]:泥棒が友人のカードを盗んた. 以上のように,受身文には 3 つのタイプがあるものの,いずれの場合も格交替が起こるのは能動文においてガ格で表現される要素と受身文においてガ格で表現される要素のたかだ $2 \supset$ である。また,前者は受身文において「に」,「によって」,「から」,「で」のいずれかによって表され, 後者は能動文において「を」,「に」,「の」のいずれかによって表されるか出現しないかである。したがって,受身文と能動文の格の対応付けを行う際は,これらの組み合わせからなる格の交替パターンを考えれば十分であると言える。 ## 3.2 使役文と能動文の格の交替パターン 使役文と能動文の格の対応付けも述語と項の組み合わせを考慮して行う必要がある.たとえば,(11), (12)のような文を考えると, 出現形の表層形としては (11)の「生徒」と (12)の「学校」は同じニ格となっているが, 前者は能動主体を表しており能動形ではガ格となるのに対し,後者は目的地を表しており能動形においても二格のままである. このため, 使役文と能動文の間の格の交替パターンについても,どのような格の交替パターンを考えれば良いか考察を行う. (11) 先生が生徒に行かせた. (12) 先生が学校に行かせた. まず,一般的な使役文では,対応する能動文に含まれていない人や物がガ格となり,能動文の表す事態の成立に影響を与える主体として表現され,能動主体は「を」,または,「に」で表される (日本語記述文法研究会 2009). たとえば, 以下の例では, 能動文に含まれていない「先生」が,使役文におけるガ格として出現しており,能動主体である「生徒」は使役文ではそれぞれ「を」「に」によって表されている。 (13) [使役形 :先生が生徒を.... [能動形] : 生徒が行く. (14) [使役形:先生が生徒に行かせる. [能動形] : 生徒が行く. ただし, 頻度は多くないものの, 以下のように感情や思考を表す動詞から使役文が作られる場合には,能動文においてニ格やヲ格で表される原因が使役文でガ格として表現される場合がある. しかし, このような用例は少ない6ことから, 本研究ではこのような対応付けは考慮しない. (15) [使役形 $:$ 彼の発言が社長を喜ばせた. [能動形] : 社長が彼の発言に喜んだ. /社長が彼の発言を喜んた. 以上のように,使役文と能動文の格の対応付けも複数の格の交替パターンが考えられるが,受身文から能動文の格の対応付けの場合と同様に,格交替が起こるのは能動文においてガ格で表現される要素と使役文においてガ格で表現される要素のたかだか 2 つである. さらに,能動文でガ格として表される要素は使役文においては「に」,「を」のいずれかによって表され,使役文においてガ格で表現される要素は基本的に能動文には出現しないことから, 能動文でガ格として表される要素が使役文において「に」で表されるか「を」で表されるかの曖昧性を考慮するだけで十分であると言える。 ## 4 Web から自動構築した大規模格フレーム 本研究では述語ごとの格構造に関する大規模語彙知識として, 河原らの手法 (河原, 黒橋 2005) を用いて Webテキスト 69 億文から自動構築した格フレームを使用する.この Webテキストは,約 10 億の Webぺージから日本語文を抽出し, 重複する文を除いた結果得られたものである. 河原らの手法では格フレームは述語ごとに, また, 能動形, 受身形, 使役形などの出現形ごとに,さらに用法ごとに別々に構築され,それぞれ取りうる格とその用例,および,各用例の出現回数がまとめられる。この際, 河原らは述語の直前の格の用例が同じである場合, 多くは同じ用法であることを利用し,用法の曖昧性に対処している,具体的には,まず,「荷物を積む」 や「物資を積む」,「経験を積む」などのように述語とその直前の格の用例の組を単位として個別に格フレームを構築し, 続いて「荷物を積む」と「物資を積む」のように類似する格フレー ムをマージすることにより, 用法ごとに別々の格フレームを構築している. たとえば「誘われる」という述語・出現形に対しては 47 個の格フレームが構築されており, その中には (16)のようにニ格が能動主体を表す格フレーム7と,(17)のようにニ格が誘致先を  表す格フレームが含まれている8. (16) 「誘われる」の格フレーム 1: $\{$ 私: 5 , 自分:3, 母親:2, 女性:2, 彼氏:2, 影 $\}$ が $\{$ 食事: 49 , 御飯:36, ランチ:21, 映画:17, “\}を $\{$ 友達 : 9536 , 友人 $: 5856$, 人 $: 2443$, 先輩 $: 1695, \cdots\}$ に誘われる $(17)$ ## 「誘われる」の格フレーム 2: $\{$ 俺: 10, 私 $: 9$, 友達 $: 7$, 人 $: 5$, 彼氏 : $5, \cdots\}$ が $\{$ 友達:300, 人: 221 , 男性 $: 211$, 友人 $: 168, \cdots\}$ から $\{$ 食事:3710,デート:3180, 飲み:3159, パーティー:1948, “\} に誘われる 同様に,「誘う」という述語・出現形に対しては (18) に示す格フレームを含む 9 個の格フレー ムが構築されており,たとえば(17) に示した「誘われる」の格フレームのガ格,カラ格,二格を,それぞれヲ格,ガ格,二格に対応付けることができれば,格構造の変換に有用な知識になると考えられる。 「誘う」の格フレーム $1:$ $\{$ 私:50, 男性:48, 彼女:43, セラピスト:43, 彼:41, $\cdots\}$ が $\{$ 友達: 16019, 私: 8908 ,人:7898, 友人: $6622, \cdots\}$ を $\{$ デート:1325, 食事:804, 世界:822, 遊び:502, 一 $\}$ に誘う また,格として収集する対象としては格助詞を伴って直接述語に係る要素に加えて,「によって」などの一部の複合辞や,持ち主の受身文のガ格になりうることから,述語の直前項にノ格で係る要素も収集の対象としている。このためこれらの表現も格と同等に扱っており,(19), (20) のように, これらの表現に相当する格スロットが生成される。本論文ではこれらの格を便宜上, ニヨッテ格, ノ格と呼ぶ. (19)「解明される」の格フレーム 1 : $\{$ 謎:1998,メカニズム:804, 原因:734, “\} が $\{$ 研究 : 29 , 生物学 : 27 , 進歩 : $15, \cdots\}$ によって解明される  (20) 「盗む」の格フレーム 3: $\{$ 子供 : 23 , 誰 $: 16$, 泥棒 $: 8, \cdots\}$ が $\{$ 親:165, 人 $: 98$, 家 $: 58, \cdots\}$ の $\{$ 金:4163, 現金:951, 金品:681, 一 $\}$ を盗む ## 5 格フレームの対応付け 本研究では, 受身形・使役形の格フレームを対応する能動形の格フレームと適切に対応付けることを目的とする.1つの述語に対し複数の格フレームが構築されることから,ある受身形・使役形の格フレームが与えられた場合, 複数ある能動形の格フレームから最適な格フレームを選択した上で,それぞれの格フレームに含まれる格同士を適切に対応付ける必要がある. 図 1 に対応付けの例を示す. 図1の例では,受身形「誘われる」の格フレーム 2 が入力として与えられた結果, 能動形「誘う」の格フレームの中から格フレーム 1 が選択され,「誘われる」の格フレーム2のガ格,カラ格,二格はそれぞれ「誘う」の格フレーム1のヲ格,ガ格,二格に対応付けられている。 ## 5.1 対応付けアルゴリズム 出現形格フレームが与えられた場合に,それを能動形格フレームに対応付けるアルゴリズムを表 1 に示す.まず, 能動形格フレーム $c f_{\text {active }}$ と, 出現形のガ格が対応付けられる能動形 図 1 受身形・使役形と能動形格フレームの対応付けの例 表 1 能動形格フレームへの対応付けアルゴリズム の格 $c_{g a_{-} t o}$, 能動形のガ格に対応付けられる出現形の格 $c_{t o_{0} g}$ の考えうるすべての組み合わせ $A=\left.\{c f_{\text {active }}, c_{\text {ga_to }}, c_{\text {to_ga}}\right.\}$ を生成し, その中から以下の式で定義されるスコアが最大となる組み合わせ $A$ を出力する。この際, $c_{g a_{-} t o}$ と $c_{t o \_g a}$ が事前に作成した格交替パターンを満たすような組み合わせのみを考慮する。また, 対応付けられる格がない場合は $c_{g a_{-} t o}, c_{t o_{-} g a}$ として NIL を与える。 $ \text { score }=\operatorname{sim}_{S E M}(A) \times \operatorname{sim}_{\text {DIST }}(A)^{\alpha} \times f_{P P}(A) $ 式 (i)において, $\operatorname{sim}_{S E M}(A), \operatorname{sim}_{D I S T}(A), f_{p p}(A)$ はそれぞれ, 対応する格の用例集合間の意味的な類似度, 対応する格の出現頻度の分布の類似度, 格交替パターンの起こりやすさを表しており, 本研究ではこれら 3 つの手掛かりを利用し格の対応付けを行う. 各指標をどのように計算するかについては次節で述べる。 $\alpha$ は出現頻度の分布の類似度 $\operatorname{sim}_{D I S T}(A)$ を用例集合間の意味的な類似度 $\operatorname{sim}_{S E M}(A)$ に対してどのくらい重視するかを決めるパラメータであり,その値は開発データを用いて決定する.格交替パターンの起こりやすさを表す $f_{p p}(A)$ に関しては同様のパラメータが出現していないのは $f_{p p}(A)$ 自体が開発データを用いて決定される重みによって構成される関数であり, 他の指標に対してどのくらい $f_{p p}$ を重視するかは既に考慮されているためである. また, 計算時間を短縮するため, 事前に作成した格交替パターンに含まれないような不適切な格対応の組み合わせはスコア計算前にフィルタリングする(表 1 のアルゴリズム中の 5 行目).具体的には,格変換の結果, 同一の格が重複してしまう場合や,受身形格フレームにタ格が存在しない場合に受身形ガ格の変換先としてノ格が選択された場合などはここでフィルタリングされる。 さらに, 能動形の格フレームは出現頻度順にソートし, 頻度の大きいものから順に対 応付けを行っていき,全体の $80 \%$ をカバーした時点でもっともスコアが大きくなる組み合わせを出力する. 対応する格の意味的な類似度 $\operatorname{sim}_{S E M}$ を計算する際も,それぞれの格の用例のうち頻度上位 40 用例のみから類似度を計算することで計算時間を短縮する。 ## 5.2 対応付けの手掛かり 本節では格フレームの対応付けの手掛かりとして使用する 3 つの指標について,それらの指標を用いる理由,および,その計算方法を説明する。 ## 1. 対応する格の用例集合間の意味的な類似度 : $\operatorname{sim_{S E M}$} 出現形と能動形格フレームの間で対応する格の用例は類似していると考えられる。そこで,対応する格の用例集合間の意味的な類似度を対応付けの手掛かりの 1 つとして利用する. まず,格の用例集合 $C_{1}, C_{2}$ 間の意味的な類似度 $\operatorname{sim}_{s}\left(C_{1}, C_{2}\right)$ を, ある単語と共起する単語の分布の類似度から計算された単語間の分布類似度 $\operatorname{sim}\left(w_{1}, w_{2}\right)$ を用い, 以下の式により計算する。 $ \begin{gathered} \operatorname{sim}_{s}\left(C_{1}, C_{2}\right)=\frac{1}{2}\left(\operatorname{sim}_{a}\left(C_{1}, C_{2}\right)+\operatorname{sim}_{a}\left(C_{2}, C_{1}\right)\right) \\ \text { たたし } \operatorname{sim}_{a}\left(C_{1}, C_{2}\right)=\frac{1}{\left|C_{1}\right|} \sum_{w_{1} \in C_{1}} \max _{w_{2} \in C_{2}}\left(\operatorname{sim}\left(w_{1}, w_{2}\right)\right) \end{gathered} $ 本研究では, 単語間の分布類似度として, 柴田らの手法 (柴田, 黒橋 2009)に基づき, 格フレー ム構築に使用した Web テキスト 69 億文から計算した類似度を使用した。また, $\operatorname{sim}_{a}\left(C_{1}, C_{2}\right)$ は, 用例集合 $C_{1}$ に含まれる用例 $w_{1}$ ごとに, 用例集合 $C_{2}$ 中でもっとも類似している用例 $w_{2}$ との類似度の平均を表しており ${ }^{9}$, 引数 $C_{1}, C_{2}$ に関して非対称な (asymmetric) 式となっている.一方, $\operatorname{sim}_{s}\left(C_{1}, C_{2}\right)$ は $\operatorname{sim}_{a}\left(C_{1}, C_{2}\right)$ の引数を入れ替えて, その平均を取ったものであり, 引数 $C_{1}, C_{2}$ に関して対称な (symmetric) 式となっている. 続いて, 格フレームの対応付け $A=\left.\{c f_{\text {active }}, c_{g a_{-} t o}, c_{t o_{-} g a}\right.\}$ に対する意味的な類似度 $\operatorname{sim}_{S E M}$ を,以下に示すように対応付けられた格の用例集合間の類似度の平均として定義する。 $ \operatorname{sim}_{S E M}(A)=\frac{1}{N} \sum_{i=1}^{N} \operatorname{sim}_{s}\left(C_{1, i}, C_{2, a(i)}\right) $ ここで, $C_{1, i}$ は対応元格フレームにおける $i$ 番目の格の用例集合, $C_{2, a(i)}$ は $i$ 番目の格が対応付けられた対応先格フレームの格の用例集合を表している。すなわち, $i$ 番目の格がガ格である場合は $C_{2, a(i)}$ は対応先格フレームの格 $c_{g a_{-} t o}$ の用例集合, $i$ 番目の格が $c_{t o_{-} g a}$ である場合は $C_{2, a(i)}$ , C_{2}$ は単語の種類ではなく単語の各出現を要素としている. したがって類似度 $\operatorname{sim}_{a}\left(C_{1}, C_{2}\right)$ は単語の種類単位で考えると出現頻度で重み付けされていることになる. } は対応先格フレームのガ格の用例集合, それ以外の場合は同一の格が対応先格フレームに存在すればその格の用例集合となる.ただし, $c_{g a_{\text {_to }}}$ が NIL である場合など,対応する格が対応先格フレームに存在しない場合は, $C_{2, a(i)}$ は空集合とし, $\operatorname{sim}_{s}\left(C_{1, i}, C_{2, a(i)}\right)=0$ として計算する. たとえば,図 1 に示したような格フレームの対応に対しては,「誘われる」の格フレーム 2 のガ格, カラ格, 二格の用例集合に対し, それぞれ「誘う」の格フレーム1のヲ格, ガ格, 二格の用例集合との $\operatorname{sim}_{s}$ を求め, その平均を $\operatorname{sim}_{S E M}$ として使用する. ## 2. 対応する格の出現頻度の分布の類似度 : $\operatorname{sim_{D I S T}$} 類似度 $\operatorname{sim}_{D I S T}$ は対応する格同士の出現頻度の分布は似ているという仮定に基づく指標であり, 以下のようにベクトル $\left(\left|C_{1,1}\right|,\left|C_{1,2}\right|, \ldots,\left|C_{1, N}\right|\right)$ とべクトル $\left(\left|C_{2, a(1)}\right|,\left|C_{2, a(2)}\right|, \ldots,\left|C_{2, a(N)}\right|\right)$ の余弦類似度として定義する。 $ \operatorname{sim}_{D I S T}(A)=\cos \left(\left(\left|C_{1,1}\right|, \ldots,\left|C_{1, N}\right|\right),\left(\left|C_{2, a(1)}\right|, \ldots,\left|C_{2, a(N)}\right|\right)\right) $ 「選ばれる」の格フレーム $1:$ $\{$ 選手:1119, 作品:983, 私:232, 一\}[用例数合計:17722] が \{代表:18295, 選手:9661, 百選:7024, “\}[用例数合計:122273]に $\{$ 作品 : 5 , 市長 : 3 , 選手 : $2, \cdots\}$ [用例数合計:96]を選ばれる (22) 「選ぶ」の格フレーム 13: $\{$ 私 : 22 , 先生 $: 18$, 誰 : $14, \cdots\}$ [用例数合計 : 382$]$ が $\{$ 優秀賞 : 42 , シングル $: 17$, 自由曲 $: 17, \cdots\}$ [用例数合計:800]に $\{$ 曲:16666, 作品:9967, 漫画:3820, “\} [用例数合計:33338]を選ぶ 例として,(21)に示す「選ばれる」の格フレーム 1 を (22)に示す「選ぶ」の格フレーム 13 に対応付ける場合を考える。対応する格の用例集合間の意味的な類似度 $\operatorname{sim}_{S E M}$ を計算すると $\{$ ガ格 $\rightarrow$ 二格, ニ格 $\rightarrow$ ガ格, ヨ格 $\rightarrow$ ヨ格 $\}$ という対応付け $A_{1}$ の方が, $\{$ ガ格 $\rightarrow$ ヨ格, 二格 $\rightarrow$ 二格, ヨ格 $\rightarrow$ NIL, NIL $\rightarrow$ ガ格 $\}$ という対応付け $A_{2}$ よりも高いスコアとなる. しかし, 対応する格の出現頻度の分布の類似度を計算すると, 前者は $(17722,122273,96)$ と $(800,382,33338)$ の余弦類似度, 後者は $(17722,122273,96,0)$ と $(33338,800,0,382)$ の余弦類似度となり, 以下に示すとおり後者の方がはるかに大きな値となることから, $\operatorname{sim}_{S E M}$ だけでなく $\operatorname{sim}_{D I S T}$ も考慮することで,最終的に後者の対応付けの方が優先して選択されるようになる ${ }^{10}$.  $ \begin{gathered} \operatorname{sim}_{D I S T}\left(A_{1}\right)=\cos ((17722,122273,96)(800,382,33338)) \approx 0.016 \\ \operatorname{sim}_{D I S T}\left(A_{2}\right)=\cos ((17722,122273,96,0),(33338,800,0,382)) \approx 0.167 \end{gathered} $ ## 3. 格交替パターンの起こりやすさ: $f_{p p$} 格交替パターンの起こりやすさも重要な手掛りとなると考えられる。たとえば,村田ら (村田他 2008) が受身文から能動文への変換における格助詞の変換実験に使用したデー夕11では,受身形におけるガ格の $96.47 \%$ が能動形ではヲ格となっているのに対し,受身形における二格のうち能動形でガ格となるものは $27.38 \%$ となっており, 交替パターンにより起こりやすさが異なることが分かる。そこで本研究では, 以下の式により定義される格交替パターンの選好 $f_{p p}$ を対応付けの手掛かりとして考慮する. $ f_{P P}(A)=w\left(\text { ガ } \rightarrow c_{g a_{-} t o}\right) \times w\left(c_{t o_{-} g a} \rightarrow \text { ガ }\right), $ ここで, $c_{g a_{-} t o}$ は出現形のガ格が対応付けられる能動形の格, $c_{t o \_g a}$ は能動形のガ格に対応付けられる出現形の格を表しており, $w\left(c_{1} \rightarrow c_{2}\right)$ は出現形の $c_{1}$ 格が能動形で格が交替し $c_{2}$ 格となる度合いを表す. $w\left(c_{1} \rightarrow c_{2}\right)$ は大きいほどその格交替が発生しやすいことを表し,その値は格交替の正解がタグ付けされたデータを開発データとして用い決定する。ここで, 出現形のガ格, または,能動形のガ格を含む格交替のみを考慮しているのは, 3 節で述べたように,本研究で対象とする受身形・使役形から能動形への格構造変換ではこれら以外の格が交替することは基本的にないためである. ## 6 自動獲得した対応付け知識の評価 本節では実験により提案手法の有効性を確認する。具体的には,提案手法を用いて自動獲得した受身・使役形の格フレームと能動形の格フレームの対応付け知識が,受身・使役文から能動文への変換における格交替を推定するタスクにおいて有用であることを示すことにより,提案手法の有効性を確認する。 ## 6.1 評価方法の概要 4 節で述べたように, 本研究で使用する大規模格フレームはコーパスから自動構築されたものであるため, 同じ用法の格フレームが複数構築されている場合や, 複数の用法が混在した格フレームが含まれている場合がある。このため, 対応付け知識そのものを定量的に評価するのは  難しい,たとえば,(23)に示す「誘われる」の格フレーム4のニ格には能動主体を表す用例と招致先を表す用例が混在しているため,仮にこの格フレームの二格が 4 節に示した「誘う」の格フレーム1のガ格に対応付けられたとしても,それが正しいかどうかは一概には言えない.同様に,5 節の (21) に示した「選ぶ」の格フレーム1のヲ格は, 尊敬の意味で使用された「選ばれる」の用例から生成されたものであり, 仮にこの格が $(22)$ に示した「選ぶ」の格フレーム 13 のヲ格と対応付けられたとしても必ずしも誤りとは言えない. そこで本研究では, 格フレームの対応付け結果そのものを評価するのではなく, 自動獲得された対応付け知識の実タスクにおける有用性を示すことで,提案手法の有効性を確認する. ## 「誘われる」の格フレーム $4:$ $\{$ 私 : 2 , 主人公 $: 1$, 友達 $: 1$, 妹 : 1 , 女の子 : $1, \cdots\}$ が $\{$ 姉:8, 展示会 $: 7$, 娘 $: 6$, 説明会 $: 6$, 皆 $: 6, \cdots\}$ に誘われる 具体的には,受身・使役文から能動文への変換における格交替を推定するタスクを考える。すわなち,たとえば $(24)$ のような受身文が入力された場合に,受身文におけるガ格,二格がそれぞれ能動文ではヨ格,二格として表されることを推定するタスクを考え,格フレームの対応付け知識を用いることで推定精度が向上することを示す。 (24) 友達が食事に誘われた。 ## 6.2 実験に使用するデータ 実験には NICT 格助詞変換データ Version 1.0 を使用する。このデータは村田ら (村田, 井佐原 2002; 村田他 2008) が実験に使用したデータであり, 京都大学テキストコーパス (河原他 2005)の社説を除く約 2 万文において, 受身形または使役形で出現した述語に係る格助詞を 1 事例として,述語を能動形に変換した場合の格を人手で付与したデー夕となっている。たたし,受身形と能動形の格フレームの対応付け知識, 使役形と能動形の格フレームの対応付け知識をそれぞれ適切に評価できるように,以下に述べるような変更・抜粋を行った上で使用する。 まず,受身文と能動文の変換実験のデータとしては,基本的に NICT 格助詞変換デー夕に含まれる“受身文の能動文への変換における格助詞変換データ”(村田他 2008)を使用する。たたし,村田らの実験設定では持ち主の受身文においてガ格で表される名詞の能動文における格としてノ格を認めておらず,カラ格またはヲ格となっているため,持ち主の受身文のガ格と考えられる 5 事例の変換後の格をノ格に変更した。また,それ以外にも誤っていると考えられる 16 事例に修正を加えて使用した.本デー夕は,受身文に出現した格助詞をそれぞれ 1 つ事例とし全部で 3,576 事例からなっている。村田らはこのデータを 1,788 個ずつに分け, それぞれクローズドデータ,オープンデータと呼んでいる。本研究でも村田らと同様に分割し, 評価の際 には 2 分割交差検定を行う。また,このデータの一部には複数の格が正解として付与されている事例があるが,本研究では正解として付与されている格のうち 1 つ,または,その両方を出力できれば正解とみなすという評価基準を採用する。これは村田らの論文 (村田他 2008)における評価 Bに相当する。 使役文と能動文の変換実験のデータとしては,基本的に NICT 格助詞変換デー夕に含まれる “使役文・受身文の能動文への変換における格助詞変換デー夕”(村田,井佐原 2002)の全 4,671 事例から使役文に出現した 524 事例を抜き出して使用する。ただし,「退学させられた」などの使役受身文については,通常の使役文と格交替の起こり方が異なるため 524 事例には含めなかった. 受身文と能動文の変換実験のデータの場合と同様に,もともと付与されている格が誤っていると考えられる 39 事例に修正を加え,評価の際には 2 分割交差検定を行う。 ## 6.3 実験設定 ## 6.3.1 考慮する格の交替パターン 3 節で行った分析に基づき, 受身形格フレームと能動形格フレームの格交替のパターンとしては以下の組み合わせのみを考慮する. - 受身形のガ格の対応先の候補: ヨ格, 二格, ノ格, 対応なし(NIL) - 能動形のガ格の対応先の候補 : 二格, ニヨッテ格, カラ格, デ格, 対応なし (NIL) これらの各候補は表 1 の 3 行目の $c_{g a_{-} t o}$ ,および, 4 行目の $c_{t o_{-} g}$ の候補となる.ただし,一方の格フレームの複数の格が,もう一方の格フレームの1つの格に対応付けられるような交替パターンは認めない. 同様に,使役形格フレームと能動形格フレームの格の交替パターンとしては以下の組み合わせのみを考慮する. $\cdot$ 使役形のガ格の対応先の候補:対応なし (NIL) - 能動形のガ格の対応先の候補:二格, ヨ格 ## 6.3.2 正解データの使用方法 正解が付与されたデータを格交替推定時にどのように使用するかについては, 正解データを使用しない, 開発データとして使用する, 開発データ・学習データとして使用する, という 3 つの設定を用いる.以下ではそれぞれの設定について詳述する. 1. 正解データを使用しない格交替推定に正解デー夕を使用しない場合は, 使用できる開発データがないことになるため 5 節の式 (i)の $\alpha$, および, $f_{p p}$ はいずれも 1 に固定し, 以下の式が最大となる組み合わせを,格フレームの対応付け結果として出力する. $ \text { score }=\operatorname{sim}_{\text {SEM }}(A) \times \operatorname{sim}_{\text {DIST }}(A) $ その上で,得られた対応付け知識を用い,以下の手順で能動形における格の推定を行う. 1. 格フレームに基づく構文・格解析器である $\mathrm{KNP}^{12}$ を用いて入力文の格解析を行う ${ }^{13}$. KNP は格解析を行う際,入力文中の各動詞に対し,その出現形の格フレームの集合の中から適切な格フレームを 1 つ選択し,その動詞に係る項と格スロットの対応付けを行う. 2. 格フレームの対応付け情報を利用し, 受身・使役文の格を能動文における格に変換する. この際, 出現格がニ格であった場合でも,格解析の結果,時間格や修飾格に対応付けられている場合は,格変換を行わない. 本論文ではこのモデルをモデル 1 と呼ぶ. たとえば, 6.1 節に示した文 $(24)$ が入力され,さらに,「誘われた」のガ格,および,二格がそれぞれ 5 節の図 1 に示した受身形「誘われる」の格フレーム2のガ格,二格にそれぞれ割り当てられたとすると,これらの格はそれぞれ能動形「誘う」の格フレーム1のヲ格,二格に対応付けられていることから,能動文における格はそれぞれヲ格, 二格であると出力される. 2. 開発データとして使用続いて 5 節の式 (i)の $\alpha$, および, $f_{p p}$ の値の調整に正解データを使用する場合について説明する。この実験設定では, 6.2 節で説明したように正解デー夕を 2 分割し,一方を開発データ,もう一方をテストデータとした実験を,データの役割を入れ替え 2 度繰り返す。 式 (ii) 中の $w\left(g a \rightarrow c_{g a_{-} t o}\right), w\left(c_{t o \_} g a \rightarrow g a\right)$, および, 式 (i) 中の $\alpha$ は山登り法により決定する。具体的には,たとえば,受身形と能動形の格フレームの対応付けを行う際は, $c_{g a_{-} t o}$ の候補は二格,ニヨッテ格,カラ格,または,対応なし (NIL), $c_{t o-g a}$ の候補は, ヲ格,二格,ノ格,対応なし (NIL)であることから, 以下のようなパラメータベクトル $\mathrm{x}$ を定義し, 表 2 に示すアルゴリズムにより値を決定する. $ \begin{gathered} \mathbf{x}=(w(\text { ガ } \rightarrow \text { ニ }), w(\text { ガ } \rightarrow \text { ニッテ }), w(\text { ガ } \rightarrow \text { カラ }), w(\text { ガ } \rightarrow \text { デ }), w(\text { ガ } \rightarrow \mathrm{NIL}), \\ w(\text { ヲ } \rightarrow \text { ガ }), w(ニ \rightarrow \text { ガ }), w(ノ \rightarrow \text { ガ }), w(\mathrm{NIL} \rightarrow \text { ガ }), \alpha) \end{gathered} $ ここで, 表 2 中の $f_{\text {accuracy }}(\mathbf{x})$ は,あるパラメータベクトル $\mathbf{x}$ が与えられた場合に,その $\mathbf{x} の$値を用いて格フレームの対応付けを行い,その結果を開発データに適用し得られた格変換の精度を返す関数である。このアルゴリズムはパラメータを 1 つずつ順に 0.1 刻みで更新していき, $f_{\text {accuracy }}(\mathbf{x})$ が大きくなるようにパラメータを更新していくという手順を, $f_{\text {accuracy }}(\mathbf{x})$ の値に変化がなくなるまで繰り返す山登り法に基づくアルゴリズムとなっている. 本実験設定では, 開発データを利用し最終的に得られたパラメータを用いて格フレームの対応付けを行い,得られた対応付け知識を用いてモデル 1 と同様の手順で能動形における格の推定を行う。本論文では, このモデルをモデル 2 と呼ぶ. $ で使用する格フレームには受身・使役形と能動形の対応付けに用いたものと同一の格フレームを使用した. } 3. 開発データ・学習データとして使用開発データとして使用したデータを学習データとしても使用し格交替の推定モデルを生成する。学習の方法は基本的にSVM に基づく村田ら(村田,井佐原 2002; 村田他 2008) と同様の方法で行い,モデル 2 の手法による格の推定結果を新たに素性として追加する。使用した素性の詳細については次節以降で説明する。本論文では,このモデルをモデル 3 と呼ぶ. ## 6.4 受身文と能動文の変換実験 ## 6.4.1学習データを使用しない場合(モデル 1 ・モデル 2 ) 正解データを学習データとして使用しない設定における受身文から能動文への変換における格交替推定実験の結果を表 3 に示す。ベースラインとしては村田ら (2008) と同様に, 各格助詞ごとに最も頻度の高い変換後の格を出力する方法(最頻変換)を使用した. 最頻変換の結果が村田らの報告にある 0.882 より高くなっているが,これはデータに修正を加えたためである。また, 対応する格の用例集合の意味的な類似度 $\operatorname{sim}_{S E M}$ と, 対応する格の出現頻度の分布の類似 表 2 パラメータベクトルの調整アルゴリズム 表 3 受身文から能動文への変換における格交替推定実験の結果(学習デー夕を使用しない場合) 度 $\operatorname{sim}_{D I S T}$, それぞれの効果を確認するため, それぞれ片方だけ使用した場合の実験も行った表 3 では,モデル 1 ,モデル 2 の設定でそれぞれ $\operatorname{sim}_{S E M}$ だけを用いたモデルをモデル $1_{S}$, モデル $2_{S}, \quad \operatorname{sim}_{D I S T}$ だけを用いたモデルをモデル $1_{D}$, モデル $2_{D}$ として示している. モデル $1_{S}$, モデル 1 はいずれも開発データも学習デー夕も使用しないモデルであるが, マク できた。一方,モデル $1_{S}$ とモデル 1 の精度の間には有意な差は確認できず,これらの結果からは対応する格の出現頻度の分布の類似度 $\operatorname{sim}_{D I S T}$ を対応付けの手掛りとして利用することの有効性は確認できなかった。 モデル $2_{S}$, モデル $2_{D}$, モデル 2 はいずれも開発データを用いてパラメータ調整を行うモデルである. モデル 1 とモデル 2 の精度の差は有意であり, パラメー夕調整を行うことが有効であることが確認できた。また, モデル $2_{S}$ とモデル 2 , モデル $2_{D}$ とモデル 2 の差もそれぞれ有意であり, $\operatorname{sim}_{S I M}$ と $\operatorname{sim}_{D I S T}$, いずれの手掛かりも格フレームの対応付けの手掛かりとして有用であることが確認できた.モデル 2 を用いた場合の $\operatorname{sim}_{S I M}$ と $\operatorname{sim}_{D I S T}$ の寄与度を制御するパラメータである $\alpha$ の値は 2 分割交差検定のいずれに対しても 0.3 であった. ## 6.4.2 学習データを使用する場合(モデル 3 ) 続いて, 正解データを学習データとして使用した場合の格交替推定精度を村田らの手法 (村田他 2008)を用いた場合の精度とともに表 4 に示す. また, 実際に使用した素性を表 5 に示す. F1 から F32 までは村田らが使用した素性 (村田他 2008) と同じであり,F33のみが新たに追加した素性である。表 4 に示した結果からモデル 2 の出力を素性として追加することで格の推定精度が向上することが確認できる。 また, 検定の結果この差は有意なものであることが確認された。 表 5 に示した素性の一部は人手で作成された語彙知識に基づいている。具体的には,F15, F22, F23, F24, F26 は近藤ら(近藤他 2001)によって作成されたVDIC 辞書に基づく素性(以下では VDIC 素性と呼ぶ),F16,F17,F18,F19,F20,F21 は IPAL 基本動詞辞書 (情報処理振興事業協会技術センター 1996) に基づく素性(以下では IPAL 素性と呼ぶ),F4,F7,F9,F12 は分類語彙表 (国立国語研究所 1964)に基づく素性(以下では BGH 素性と呼ぶ)となっている. 表 4 受身文から能動文への変換における格交替推定実験の結果(学習デー夕を使用する場合)  表 5 受身文から能動文への変換における格交替推定に使用した素性 \\ F19 & \\ F20 & \\ F21 & 動詞がIPAL 動詞辞書に存在するかどうか \\ FDIC 辞書の定義により, 動詞の受動態が可能 \\ F23 & \\ F24 & VDIC 辞書の定義による動詞の種類 \\ 近藤法で変換の際に用いた格変換規則 \\ F26 & 動詞が VDIC 辞書に存在するかどうか \\ F27 & 動詞にかかる格助詞を持つ体言を含む節中の格 \\ 助詞の出現順 本研究で獲得した語彙知識はこれらの語彙知識に相当する知識となっていると考えられることから,これらの素性を除いた場合の精度の調査も行った。結果を表 6 に示す. VDIC 素性, IPAL 素性については, 村田らのモデル (村田他 2008), 対応付け知識に基づくモデル 3 , いずれのモデルに対しても, 使用しないことによる精度の低下は確認できなかった一方,BGH 素性については,村田らのモデル (村田他 2008) から除いた場合は精度が低下したのに対し, 対応付け知識に基づくモデル 3 から除いても精度の低下は確認できなかった。このことから,格フレームの対応付けによって得られる語彙知識は分類語彙表から得られる知識をカバーしていると考えられる。以上の分析から,自動獲得した語彙知識が使用できる場合,人手で作成した語彙知識の有用性は限定的であると言える。実際,人手で作成した語彙知識に基づく素性をすべて除いて格交替の推定実験を行ったところ 0.960 という高い精度が得られた。 ## 6.5 使役文と能動文の変換実験 ## 6.5.1学習データを使用しない場合(モデル 1 ・モデル 2) 正解データを学習データとして使用しない設定における使役文から能動文への変換における格交替推定実験の結果を表 7 に示す. ベースラインとしては, 受身文からの変換の場合と同様に, 各格助詞ごとに最も頻度の高い変換後の格を出力する方法(最頻変換)を使用し, 対応する格の用例集合の意味的な類似度 $\operatorname{sim}_{S E M}$ と, 対応する格の出現頻度の分布の類似度 $\operatorname{sim}_{D I S T}$, それぞれ片方だけを使用した実験も行った。 受身文の変換の場合と異なりパラメータ調整を行わなかった場合は最頻変換と同等または低い精度となった. 一方, パラメータ調整を行った場合は, モデル $2_{S}$, モデル $2_{D}$, モデル 2 , いずれについても最頻変換より良い精度となった。ただし,マクネマー検定における $\mathrm{p}$ 値がもっとも小さくなった最頻変換とモデル $2_{D}$ の間の差に対しても, 有意水準 0.05 では有意性を確認できたものの, 有意水準 0.01 では有意性を確認できなかった. しかし, 受身形の変換の場合とほぼ同様に格交替の推定精度は上昇幅は約 0.05 であり, 有意水準 0.01 で有意性が確認できな 表 6 人手で作成された語彙知識を用いなかった場合の精度 表 7 使役文から能動文への変換における格交替推定実験の結果(学習デー夕を使用しない場合) かったのは事例数が少なかったことが主な要因であると考えられる. 本実験結果において,受身文の変換の場合と大きく異なる点は,対応する格の用例集合の意味的な類似度 $\operatorname{sim}_{S E M}$ を用いることの効果が確認できなかった点である.実際,もっとも高い精度となったのは類似度として $\operatorname{sim}_{D I S T}$ のみを用い, パラメータ調整を行ったモデル $2_{D}$ であった ## 6.5.2 学習データを使用する場合(モデル 3 ) 続いて, 正解データを学習データとして使用する設定における使役文から能動文への変換における格交替推定実験の結果を村田らの手法 (村田,井佐原 2002)を用いた場合の精度とともに表 8 に示す。また,実際に使用した素性を表 9 に示す. 本実験では基本的に村田らが使用した素性 (村田,井佐原 2002)を使用し,獲得した語彙知識の有用性を確認するため新たに素性 F9を追加している。ただし,受身形の変換の場合に倣い,動詞の単語の分類語彙表の分類番号の $1,2,3,4,5,7$ 桁までの数字を素性に追加したところ変換精度が向上したことから,動詞の単語の分類語彙表の分類番号に関する情報だけは新たに素性 F3 として追加しており ${ }^{15}$, 表 8 に示した精度は村田らの手法も含めすべて素性 F3を使用した場合の精度である。また, 表 8 中のモデル $3_{D}$ は, 学習データを使用しない設定ではモデル $2_{D}$ がもっとも高い精度であったことから, モデル $2_{D}$ の出力結果を素性 $\mathrm{F} 9$ として使用したモデルである. 表 8 使役文から能動文への変換における格交替推定実験の結果(学習デー夕を使用する場合) 表 9 使役文から能動文への変換における格交替推定に使用した素性  モデル 3 , モデル $3_{D}$ ともに, 自動獲得した語彙知識を用いない村田らのモデルより有意に高い精度を達成しており,使役文から能動文への変換における格交替推定においても,格フレー 么の対応付けによって得られた語彙知識が有用であることが確認できた。ただ,受身文の変換の場合とは異なり,分類語彙表に基づく素性である F3,F6 を除いた場合,格交替の推定精度は低下した。 ## 6.6 格フレームの対応付けの例と既知の問題点 表 10 に正しく受身形格フレームと能動形格フレームが対応付けられた例を示す。この例では持ち主の受身文から生成されたと考えられる受身形「殴られる」の格フレーム 2 のニヨッテ格, ガ格, ヨ格,デ格がそれぞれ,能動形「殴る」の格フレーム2のガ格,ノ格, ヲ格,デ格に対応付けられており,この知識を用いることにより,入力テキスト中の「殴られ」のガ格は能動文ではノ格となり,デ格, ヨ格については能動文においてもデ格, ヨ格のままであると解析できるようになる. 同様に, 表 11 に正しく使役形格フレームと能動形格フレームが対応付けられた例を示す.この例では能動主体がヲ格となっていると考えられる使役形「発足させる」の格フレーム19尹格, 二格がそれぞれ,能動形「発足する」の格フレーム 2 のガ格, 二格に対応付けられ,ガ格は対応なしとなっている. この知識を用いることにより, 入力テキスト中の「発足させ」のガ格は能動文では出現せず, ヨ格については能動文においてはガ格となると解析できるようになる. 表 10 受身形格フレームと能動形格フレームの対応付けの例 「欧られる」の格フレーム 2: $\{$ 何者 : 2 , 部員 $: 1$, リサ $: 1$, アントワネット $: 1, \cdots\}$ によって $\{$ 女性 : 5 , 女児 : 4 , 小沢 : 4 , 男性 : 3 , 職員 $: 2, \cdots\}$ が $\{$ 頭:3944, 顔:1186, 頭部:840, 顔面:478, “\}を $\{$ 鈍器 : 84 , ハンマー : 73 , バット $: 45$, 拳 $: 43, \cdots\}$ で殴られる対応付けられた能動形格フレーム: 「殴る」の格フレーム 2: $\{$ 男 : 51 , 拳 : 30 , 誰 $: 23$, 少年 $: 10$, 警官隊 $: 9, \cdots\}$ が $\{$ 自分: 360, 私 $: 223$, 相手 : 192 , 俺: $140, \cdots\}$ の $\{$ 頭 : 5424, 顔:3215, 顔面:1529, 頬:1334, “\}を $\{$ 拳: 316 , 平手 $: 157$, 拳骨 $: 126$, ハンマー $: 78, \cdots\}$ で殴る格の対応関係: 表 11 使役形格フレームと能動形格フレームの対応付けの例 $ \begin{aligned} & \hline \text { 入力テキスト: } \\ & \text { ‥新民連が新党準備会を発足させたことに対し… } \\ & \text { KNP による解析で選択された使役形格フレーム: } \end{aligned} $ 「発足させる」の格フレーム 1: $\{$ 首相:13, 議員:10, 民主党:10, 団体:8, 有志: $8, \cdots\}$ が $\{$ 委員会:2310,チーム:1429, 制度:1228, 研究会:1166, “\}を $\{$ 社 $: 24$, 庁 : 15 , 省 $: 13$, 県庁 $: 6$, 研究所 $: 4, \cdots\}$ に発足させる対応付けられた能動形格フレーム: 「発足する」の格フレーム 2: $\{$ 内閣:2916, 委員会:2596, 政権:1759, 制度:1422, 一\} が $\{$ 協会:10, 内閣府:9, 日本:7, 学会:7, 地区:6, 一\} に発足する格の対応関係: $\{$ が $\rightarrow$ NIL, を $\rightarrow$ が,に $\rightarrow に\}$ 一方,格フレームの対応付けおよび格交替推定に関する既知の問題点としては以下の 4 つが挙げられる. まず,格フレーム構築法に関する問題点として,複数の二格を取る受身形格構造・使役形格構造を考慮していないという点が挙げられる。受身形および使役形の場合, それぞれ $(25),(26)$ のように,能動主体を表す二格と,能動形二格の 2 つの二格を取る場合があるが,このような格構造を考慮して格フレームを構築していないため, このような文が入力された場合に適切な解析を行えない. (25) 彼に家に帰られる。 (26) 彼に東京に行かせる. また, 受身形格フレームの構築法に関する問題点として, 受身とそれ以外の意味, すなわち,尊敬, 自発, 可能の意味で使用された「れる/られる」を区別していないという点が挙げられる. その結果,たとえば $(27)$ のように尊敬の意味で「れる」が使用された文から,本来, ヲ格を持たないはずの「選ばれる」の受身形格フレームにヲ格が生成されてしまい,格フレームの対応付けを行おうとした際に,適切な対応付けが行えなくなってしまう場合がある. (27)国王がこの作品を選ばれた。 格フレームの対応付け法の問題点としては,格フレーム中の複数の格スロットが同一の意味内容を表している場合を考慮していないことが挙げられる,たとえば,(28)に示すように「採用される」の能動主体はニ格, ニヨッテ格, カラ格の 3 つの格で表すことができるため, 「採用される」の格フレームはこれらの格を持っている。しかし, 受身形格フレームの複数の格が能 動主体を表す場合であっても,受身形と能動形の格フレームの対応付けを行う際はそれぞれの格フレームの格の 1 対 1 の対応付けしか考慮していないため, これらの格すべてを能動形のガ格と対応付けることができない. (28) 福岡県 $[$ に/によって/から]採用された. さらに,KNP による解析において適切な格フレームが選択されなかったために,正しい格交替を推定できない場合がある.たとえば, (29)のような文が入力されると, 4 節の (16) に示した「誘われる」の格フレーム1のようにニ格が能動主体を表している格フレームが選択されるべきであると考えられるが,実際には (17) に示した「誘われる」の格フレーム 2 のようにニ格が誘致先を表す格フレームが選択されてしまうため, 本来, 能動文においてはガ格となるべき格が,二格のままであると出力されてしまう. (29) 花見の席で野宮に誘われた。 ## 7 おわりに 本論文では,Webから自動構築した大規模格フレームと,人手で記述した少数の受身形・使役形と能動形の格の交替パターンを組み合わせることで, 受身形・使役形と能動形の表層格の対応付けに関する知識を自動獲得する手法を提案した。また,獲得した知識を受身文・使役文の能動文への変換における格交替推定に利用することにより,その有用性を示した.今後の方向性としては, 他の対応する格フレーム間, たとえば, 授受動詞間や自他動詞間の格フレームの対応付けを行うことが考えられる。本論文で提案した手法は基本的に学習デー夕を必要としないことから,考えうる格の交替パターンさえ記述できれば自動的に対応を取ることが可能である。また,本論文では受身文・使役文において格助詞が明示された項のみを格変換の対象としているが, 今後は提題助詞の使用や, 被連体修飾要素としての出現, ゼロ代名詞化などにより格が明示されていない場合も解析の対象とすることが考えられる. ## 謝 辞 ゼロ照応解析システム (Iida et al. 2009) を提供していただいた情報通信研究機構の飯田龍氏,格助詞変換データを公開してくださいました鳥取大学の村田真樹氏, 情報通信研究機構の鳥澤健太郎氏に感謝いたします。また, 本研究の一部は JSPS 科研費 23800025,25730131 の助成を受けたものです. ## 参考文献 Baldwin, T. and Tanaka, H. (2000). "Verb Alternations and Japanese - How, What and Where?" In Proceedings of PACLIC 14, pp. 3-14. Baroni, M. and Lenci, A. (2010). "Distributional Memory: A General Framework for CorpusBased Semantics." Computational Linguistic, 36 (4), pp. 673-721. 林部祐太, 小町守, 松本裕治 (2014). 述語と項の位置関係ごとの候補比較による日本語述語項構造解析. 自然言語処理, 21 (1), pp. 3-26. Iida, R., Inui, K., and Matsumoto, Y. (2007a). "Zero-Anaphora Resolution by Learning Rich Syntactic Pattern Features." ACM Transactions on Asian Language Information Processing (TALIP), 6, Article 12. Iida, R., Inui, K., and Matsumoto, Y. (2009). "Capturing Salience with a Trainable Cache Model for Zero-anaphora Resolution." In Proceedings of ACL-IJCNLP'09, pp. 647-655. Iida, R., Komachi, M., Inui, K., and Matsumoto, Y. (2007b). "Annotating a Japanese Text Corpus with Predicate-Argument and Coreference Relations." In Proceedings of $A C L ' 07$ Workshop: Linguistic Annotation Workshop, pp. 132-139. im Walde, S. S., Hying, C., Scheible, C., and Schmid, H. (2008). "Combining EM Training and the MDL Principle for an Automatic Verb Classification Incorporating Selectional Preferences." In Proceedings of ACL-HLT'08, pp. 496-504. Imamura, K., Saito, K., and Izumi, T. (2009). "Discriminative Approach to Predicate-Argument Structure Analysis with Zero-Anaphora Resolution." In Proceedings of ACL-IJCNLP'09, pp. 85-88. Joanis, E., Stevenson, S., and James, D. (2008). "A General Feature Space for Automatic Verb Classification." Natural Language Engineering, 14 (3), pp. 337-367. 情報処理振興事業協会技術センター (1996). 計算機用日本語基本動詞辞書 IPAL. Kameyama, M. (1986). "A Property-sharing Constraint in Centering." In Proceedings of $A C L ' 86$, pp. 200-206. 河原大輔, 黒橋禎夫 (2005). 格フレーム辞書の漸次的自動構築. 自然言語処理, 12 (2), pp. 109-131.河原大輔,笹野遼平,黑橋禎夫,橋田浩一 (2005). 格・省略$\cdot$共参照夕グ付けの基準. 国立国語研究所 (1964). 分類語彙表. 秀英出版. 近藤恵子, 佐藤理史, 奥村学 (2001). 格変換による単文の言い換え. 情報処理学会論文誌, 42 (3), pp. 465-477. Lapata, M. and Brew, C. (2004). "Verb Class Disambiguation using Informative Priors." Computational Linguistics, 30 (1), pp. 45-73. Levin, B. (1993). English Verb Classes and Alternations: A Preliminary Investigation. University of Chicago Press. Li, J. and Brew, C. (2008). "Which Are the Best Features for Automatic Verb Classification." In Proceedings of ACL-HLT'08, pp. 434-442. McNemar, Q. (1947). "Note on the Sampling Error of the Difference between Correlated Proportions or Percentages." Psychometrika, 12, pp. 153-157. 村田真樹, 井佐原均 (2002). 受け身/使役文の能動文への変換における機械学習を用いた格助詞の変換. 情報処理学会研究報告, 自然言語処理研究会報告 2002-NL-149, pp. 39-44. 村田真樹, 金丸敏幸, 白土保, 井佐原均 (2008). 入力文の格助詞ごとに学習デー夕を分割した機械学習による受身文の能動文への変換における格助詞の変換. システム制御情報学会論文誌, 21 (6), pp. 165-175. Nariyama, S. (2002). "Grammar for Ellipsis Resolution in Japanese." In Proceedings of TMI'02, pp. 135-145. 日本語記述文法研究会(編)(2009). 現代日本語文法 2 , 第 4 部ヴオイス, pp. 207-298. くろしお出版. NTTコミュニケーション科学研究所 (1997). 日本語語彙大系. 岩波書店. 笹野遼平, 黒橋禎夫 (2011). 大規模格フレームを用いた識別モデルに基づく日本語ゼロ照応解析. 情報処理学会論文誌, 52 (12), pp. 3328-3337. 柴田知秀, 黒橋禎夫 (2009). 超大規模ウェブコーパスを用いた分布類似度計算. 言語処理学会第 15 回年次大会発表論文集, pp. 705-708. Sun, L. and Korhonen, A. (2009). "Improving Verb Clustering with Automatically Acquired Selectional Preferences." In Proceedings of EMNLP'09, pp. 638-647. Sun, L., McCarthy, D., and Korhonen, A. (2013). "Diathesis Alternation Approximation for Verb Clustering." In Proceedings of $A C L^{\prime} 13$, pp. 736-741. Taira, H., Fujita, S., and Nagata, M. (2008). "A Japanese Predicate Argument Structure Analysis using Decision Lists." In Proceedings of EMNLP'08, pp. 523-532. Vapnik, V. (1995). The Nature of Statistical Learning Theory. Springer. 吉川克正, 浅原正幸, 松本裕治 (2010). Markov Logic による日本語述語項構造解析. 情報処理学会研究報告, 自然言語処理研究会報告 2010-NL-199, pp. 1-7. ## 略歴 笹野遼平:2009 年東京大学大学院情報理工学系研究科博士課程修了. 博士 (情報理工学).京都大学大学院情報学研究科特定研究員を経て 2010 年より東京工業大学精密工学研究所助教. 自然言語処理, 特に照応解析, 述語項構造解 析の研究に従事. 言語処理学会, 情報処理学会, 人工知能学会, ACL 各会員. 河原大輔:1997 年京都大学工学部電気工学第二学科卒業. 1999 年同大学院修 士課程修了. 2002 年同大学院博士課程単位取得認定退学. 東京大学大学院情報理工学系研究科学術研究支援員, 独立行政法人情報通信研究機構研究員, 同主任研究員を経て,2010 年より京都大学大学院情報学研究科准教授. 自然言語処理, 知識処理の研究に従事. 博士 (情報学). 情報処理学会, 言語処理学会, 人工知能学会, 電子情報通信学会, ACL 各会員. 黒橋禎夫:1994 年京都大学大学院工学研究科電気工学第二専攻博士課程修了. 博士 (工学). 2006 年 4 月より京都大学大学院情報学研究科教授. 自然言語処理, 知識情報処理の研究に従事. 言語処理学会 10 周年記念論文賞, 同 20 周年記念論文賞, 第 8 回船井情報科学振興賞, 2009 IBM Faculty Award 等を受賞. 2014 年より日本学術会議連携会員. 奥村学:1962 年生. 1984 年東京工業大学工学部情報工学科卒業. 1989 年同大学院博士課程修了. 同年, 東京工業大学工学部情報工学科助手. 1992 年北陸先端科学技術大学院大学情報科学研究科助教授, 2000 年東京工業大学精密工学研究所助教授, 2009 年同教授, 現在に至る. 工学博士. 自然言語処理, 知的情報提示技術, 語学学習支援, テキスト評価分析, テキストマイニングに関する研究に従事. 情報処理学会, 電子情報通信学会, 人工知能学会, AAAI, 言語処理学会, ACL, 認知科学会, 計量国語学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 地方議会会議録コーパスの構築および政治情報システム構築を ## 目標としたアノテーションの一提案 筒井貴士 $^{\dagger} \cdot$ 我満拓弥 ${ }^{\dagger} \cdot$ 大城卓 $\dagger \cdot$ 菅原晃平 $^{\dagger} \cdot$ 永井隆広 $^{\dagger} \cdot$渋木英潔 ${ }^{\dagger \dagger} \cdot$ 木村泰知 ${ }^{+\dagger \dagger} \cdot$ 森辰則 ${ }^{+\dagger}$ 近年, 国会や地方議会などの会議録が Web 上に公開されている。会議録は, 首長や議員の議論が書き起こされた話し言葉のデータであり,長い年月の議論が記録された通時的なデータであることから, 政治学, 経済学, 言語学, 情報工学等の様々な分野において研究の対象とされている. 国会会議録を利用した研究は会議録の整備が進んでいることから,多くの分野で行われている。その一方で,地方議会会議録を利用した研究については,各分野で研究が行われているものの,自治体により Web 上で公開されている形式が異なることが多いため, 収集作業や整形作業に労力がかかっている.また,各研究者が重複するデータの電子化作業を個別に行っているといった非効率な状況も招いている。このような背景から, 我々は多くの研究者が利用することを目的として,地方議会会議録を収集し,地方議会会議録コーパスを構築した,本稿では,我々が構築した地方議会会議録コーパスについて論ずる。同コー パスは, Web 上で公開されている全国の地方議会会議録を対象として,「いつ」「どの会議で」「どの議員が」「何を発言したのか」などの各種情報を付与し, 検索可能な形式で収録した。また,我々は会議録における発言を基に利用者と政治的に近い考えをもつ議員を判断して提示するシステムを最終的な目的としており,その開発に向けて,分析,評価用のデータ作成のために会議録中の議員の政治的課題に対する賛否とその積極性に関する注釈付けをコーパスの一部に対して行った。本稿では,注釈付けを行った結果についても報告する. キーワード:注釈付け,地方議会会議録コーパス,地方政治,政治情報システム ## Construction of Regional Assembly Minutes Corpus and a Proposal for Annotation Scheme for Implementing Political Information System \author{ Takashi Tsutsui $^{\dagger}$, Takuya Gaman $^{\dagger \dagger}$, Takashi Oshiro ${ }^{\dagger}$, Kohei Sugawara ${ }^{\dagger}$, } Takahiro Nagai ${ }^{\dagger}$, Hideyuki Shibuki ${ }^{\dagger \dagger}$, Yasutomo Kimura ${ }^{\dagger \dagger \dagger}$ and Tatsunori Mori ${ }^{\dagger \dagger \dagger}$  In recent years, minutes of regional assemblies and the National Diet have been published on the web. Those minutes have long recorded transcribed discussions of mayors and members of assemblies. Therefore, they are a target of study in various fields such as politics, economics, linguistics, information engineering. Since the minutes of the National Diet are maintained in electronic form and freely available via a search system, many researchers have utilized the minutes as a target of study. Minutes of regional assembly meetings are also the focus of researchers in various fields. However, researchers have had trouble gathering and preparing minutes for their study, because the way in which minutes are made available to the public varies assembly by assembly. It is very inefficient for each researcher to make the effort to digitize minutes separately. To improve the situation and contribute to research communities, we have collected regional minutes of assemblies and constructed the corpus of regional assembly minutes. In this paper, we discussed the construction of the corpus of regional assembly minutes. The corpus records minutes from regional assemblies all over Japan that are available on the web. We added additional information to the corpus, such as "date," "name of meeting," "name of speaker," "text of statement," so that users may search statements across the corpus using such information. The final goal of our project is to build a political information system that can recommend a suitable person, or members of an assembly, according to the consistency between users' opinions and statements of assembly members. As a preliminary step of development, we annotated a part of the corpus with information about the speaker' s attitude to specific political subjects, including degree of approval/disapproval. In this paper, we also report the result of the annotation. Key Words: Annotation, Regional Assembly Minutes Corpus, Local Politics, Political Information System ## 1 はじめに 平成 11 年から政府主導で行われた平成の大合併や, 平成 19 年より施行された地方分権改革推進法など,地方政治を重視する取り組みが盛んに行われていたのは記憶に新しい。一方で,有権者の政治離れが深刻な問題となって久しく, 平成 25 年 7 月 21 日の第 23 回参議院議員通常選挙における選挙区選挙では $52.61 \%$ の投票率 ${ }^{1}$ となり, 参議院議員通常選挙において過去 3 番目に低い値となった。地方政治の場合, 平成 23 年 4 月の第 17 回統一地方選挙の投票率は, $48.15 \%$ 2であり, さらに低い値となっている. 地方政治に対する有権者の政治離れの原因には幾つか考えられるが,その一因に地方議会議員およびその活動の認知度の低さがあげられる. 現状では, 政治情報を入手するソースとして ^{1}$ http://www.soumu.go.jp/senkyo/senkyo_s/data/sangiin23/index.html 2 http://www.soumu.go.jp/senkyo/senkyo_s/data/chihou/ichiran.html } テレビや新聞などのマスメディアが占める割合が大きいが,このようなマスメディアに首長以外の地方議会議員が取り上げられることはほとんどない. 地方議会議員は国会議員と同様に住民による選挙によって選ばれ,かつ,国政よりも身近な存在であるべきであるにもかかわらず, その活動に関する認知度が低いのは大きな問題であると考える。そこで, 住民に提供される地方政治の情報,特に地方議会議員に関する情報量の不足を解決するための方法の一つとして, Web 上の情報を有効に利用することを考える.Web 上に存在する議員の情報には,議員や政党のホームページ,ニュースサイトの政治ニュース,議員のブログや Twitter なとの SNS,マニフェスト,議会の会議録などがある。このうち会議録には,議員からの一方的な情報発信ではなく, 議論や反対意見などのやりとりが含まれ,公の場における各議員の活動や考え方を知ることができる.また,研究対象として会議録を見た場合,会議録は,首長や議員の議論が書き起こされた話し言葉のデータであり,長い年月の議論が記録された通時的なデータであることから, 政治学, 経済学, 言語学, 情報工学等の様々な分野における研究対象のデータとして利用されている. 例えば,政治学の分野では,平成の大合併前後に行われた市長選挙についての分析を行い,合併を行った市と行わなかった市の違いを当選者の属性から比較した平野 (平野 2008) の研究, 合併が地方議会や議員の活動に対して与えた影響を 856 議員にアンケート調査することで分析を行った森脇 (森脇 2008) の研究などがある. また, 経済学の分野では, 「小規模自治体の多選首長は合併に消極的」という仮説を検証するために, 全国の地方議員, 首長の情報を人手で調査した川浦 (川浦 2009; Kawaura 2010) の研究など, 言語学の分野では, 「去った○日」という表現 (「去る○日」の意)が那覇市の会議録に見られることを指摘した井上 (井上 2013), 「めっちゃんこ」が名古屋市の会議録に見られることを指摘した山下 ${ }^{3}$, 形態素 N-gram を用いて地方議会会議録の地域差を捉える方法について検討した高丸ら (高丸, 木村 2010; 高丸 2011, 2013), 発言者の出身地域とオノマトぺの使用頻度についての分析を行った平田ら (平田, 中村, 小松, 秋田 2012) などの研究が存在する。情報工学の分野においても,特徴的な表層表現を手掛かりに国会会議録を対象とした自動要約を行った川端ら (川端, 山本 2007) や山本ら (山本, 安達 2005) の研究, 住民の潜在的な関心を明確化するための能動的質問生成手法を提案した木村ら (木村,渋木, 高丸, 乙武, 小林, 森 2011) の研究などが存在し, 海外でも, 会議録中の発言を元にイデオロギーを分類する Yu et al.(Yu, Kaufmann, and Diermeier 2008)や,会議録で用いられている語句を可視化する Geode et al.(de Goede, van Wees, Marx, and Reinanda 2013) などの研究が行われている。 これらの研究を行う上で基礎となる会議録のデータであるが, 国会の場合, 国立国会図書館 ^{3}$ http://dictionary.sanseido-publ.co.jp/wp/2012/07/07/ } により会議録サイト ${ }^{4}$ が整備されており, 第 1 回国会(昭和 22 年)以降のすべての会議録がテキストデータとして公開され, 検索システムによって検索を行うことができる。一方で, 地方議会会議録の場合, 全ての自治体の会議録をまとめているサイトは存在せず, 自治体ごとに参照する必要がある。加えて, 自治体により Web 上で公開されている形式が異なることが多いため,統一的に各自治体の会議録を扱おうとすれば収集作業や整形作業に労力がかかる.また,各研究者が重複するデータの電子化作業を個別に行っているといった非効率な状況も招いている. このような背景から, 我々は地方政治に関する研究の活性化・学際的応用を目指して, 研究者が利用可能な地方議会会議録コーパスの構築を行っている.コーパスの構築にあたっては,木村ら (木村, 渋木, 高丸 2009) や乙武ら (乙武, 高丸, 渋木, 木村, 荒木 2009)において行われた,北海道の地方議会会議録データの自動収集や加工の技術を参考にし,全国の市町村の議会会議録を対象としたコーパス構築を行うこととした。地方議会会議録コーパスは, Web上で公開されている全国の地方議会会議録を対象として,「いつ」「どの会議で」「どの議員が」「何を発言したのか」を,発言に対して市町村や議会種別, 年度や発言者名などの各種情報を付与することで構築し,検索可能な形式で収録する。また,近年,ヨーロッパでは VoteMatch ${ }^{5}$ と呼ばれる投票支援ツールが多くの利用者を獲得しており (上神 2006 ; 上神, 堤 2008 ; 上神, 佐藤 2009), 日本でも「投票ぴったん 6 」などの日本語版ボートマッチシステムが利用されていること, さらに平成 25 年 4 月 19 日から公職選挙法が一部改正され7,インターネットなどを利用した選挙運動のうち一定のものが解禁されたことなどから, 我々は, 地方議会会議録コーパスを用いて,会議録における発言を基に利用者と政治的に近い考えをもつ議員を判断して提示するシステムを最終的な目的としている. さて, 地方議会会議録コーパスを構築すると,会議録を文字列や単語で検索することができるようになる。さらに,会議録の書誌情報や議員情報に基づいて簡単な注釈付けを行うことにより, 年度や地域をまたいだ比較検討や, 地域ごとの表現の差の分析などを行うことが可能となる.その一方で,我々が構築を目指しているシステムは利用者と政治的に近い議員を判断し利用者に提示するものであるため,会議録の書誌情報や発言議員名といった簡単な注釈付けのみでは議員の施策や事業に対する意見の判別を行うことができず不十分である. すなわち, 議員の発言の中にある施策や事業に対する意見のように, 下位構造が存在し, それらが結び付くことで一つの情報となるものに対しての分析を行うことは, 会議録の文字列検索のみでは難しい.政治的な考えの近さは,一般に,施策や事業などへの賛否の一致度合いにより推測できると考えられ, 上神ら (上神 2006 ; 上神, 堤 2008 ; 上神, 佐藤 2009) などのボートマッチシステムで ^{4}$ http://kokkai.ndl.go.jp/ 5 http://www.votematch.net 6 http://www.votematch.jpn.org/ }^{7}$ http://http://www.soumu.go.jp/senkyo/senkyo_s/naruhodo/naruhodo10.html も, この考え方に基づいている,さらに,議員の施策や事業に関する賛否の意見には,同じ賛成の立場をとる議員の間でもその賛成の度合いには差が存在している。例えば,「昨年度は○○ などの事業に取り組んできた」と発言した議員と「○○などの事業を行うのもやむを得ない」 と発言した議員では,前者の方が既に自らが取り組んでいることを表明していることから,より積極的に賛成であると考えられる,積極的に賛成である議員の方が,消極的に賛成である議員よりも,彼らが賛成する施策や事業の実現に向けて尽力すると考えられるため,当該の施策や事業を実現してほしい利用者には,積極的に賛成である議員の方を提示することが望ましい. また,消極的に反対の意見を示している議員よりも,積極的に反対の意見を示している議員の方が,彼らが反対する施策や事業を廃止することに注力すると考えられるため,反対の立場を取る議員に対しても同様の考えが成り立つ。このように賛否に加えて積極性を考慮して, 利用者と近い考えをもつ議員を判断する必要がある,以上の背景から,我々は,比較的簡単な処理により自動的に付与できる夕グを地方議会会議録コーパス全体に付与するとともに,上記の政治情報システムの検討のために,会議録の一部に対して,議員の施策・事業に対する賛否とその積極性に関連する情報の注釈付けを行うこととした。 本稿ではまず 2 節で関連研究について述べ, 3 節では地方議会会議録の収集及び地方議会会議録コーパスの構築について説明する. 次に,4節では地方議会会議録コーパスの一部に対して我々が付与したタグの仕様や注釈結果の統計とその分析及び残された課題について述べる。最後に 5 節でまとめる. ## 2 関連研究 本節では,本稿に関連する各種研究について説明する。 ## 2.1 会議録を対象とした研究 会議録を対象とした研究としては,以前より国会会議録を対象とした研究が行われてきた。川端ら (川端, 山本 2007) や山本ら (山本, 安達 2005) は特徴的な表層表現を手掛かりに国会会議録を対象とした自動要約を行っている。平田ら (平田他 2012) は, 発言者の出身地域とオ) マトペの使用頻度についての分析を行っている. また, 国会会議録検索システムというシステムが公開されており,国会の会議録を自由に検索・閲覧することができる。これに対し,地方議会会議録のもつ会議録検索システムは, 市町村ごとに様式が異なっているため, 複数の市町村の会議録を対象に研究を行おうとした場合にそのまま利用することは難しい,そこで,地方議会会議録を収集して統一された書式に整形する必要がある. これに関連し,木村ら (木村他 2009) や乙武ら (乙武他 2009) は北海道内の各市町村を対象に地方議会会議録の自動収集に向けた公開パタンの分析を行っている. 51 種類の収集パタンに よる自動収集プログラムを用いて約 $94 \%$ の自治体から会議録の収集に成功している. この成果を参考にしつつ,我々は,各自治体が会議録を公開している形式を分析し,全国規模の会議録の収集を行った。 ## 2.2 コーパス構築に関する研究 Web 文書を対象としコーパスを構築する研究では, 以下の研究が存在する. 関口ら (関口, 山本 2003) は Web 文書を収集し, HTML タグや日本語文章の書法を用い,質の面での改善を行うことでWebコーパスを作成した. 橋本ら (橋本, 黒橋, 河原, 新里, 永田 2011) は, ブログを対象とした自然言語処理の高精度化への寄与を目的とし, 81 名の大学生に 4 つのテーマで執筆させた 249 記事のブログに, 文境界, 形態素, 係り受け, 格・省略・照応, 固有表現, 評価表現に関する注釈付けを行った. Ptaszynski et al.(Ptaszynski, Rzepka, Araki, and Momouchi 2012) は,日本語のブログを自動収集して構築した,3.5 億文からなるコーパス YACIS に対して自動的に感情情報を付与した。また, 飯田ら (飯田, 小町, 乾, 松本 2008) は新聞記事を対象とし,述語項構造・共参照夕グを付与する基準について報告し, 事態性名詞のタグ付与において,具体物の夕グ付与と項のタグ付与を独立に行うことで作業品質を向上させている. しかしながら,本研究でコーパス構築の対象としたデータは地方議会会議録であり, これらのコーパス構築の手法とは対象とするデータが異なる. ## 2.3 主観的な情報の注釈付けに関する研究 本研究は政治的課題に対する賛否と積極性に関する注釈付けを行っており, 主観的な注釈付けの一つである。主観的な注釈付けとしては, 以下の研究がある. Weibe et al.(Weibe, Wilson, and Cardie 2005)は,意見などの private state をニュース記事の句に対して注釈付けを行っている。松吉ら (松吉, 江口, 佐尾, 村上, 乾, 松本 2010)は, 書き手が表明する真偽判断, 価値判断などの事象に対する総合的な情報を表すタグの体系を提案し,これに基づくコーパスを基礎とした解析システムを提案した。また, 評判情報に関する研究では, 小林ら (小林, 乾, 松本 2006) は主観的評価の構成要素を「根拠」「評価」「態度」の3つの要素に分類したうえでの注釈付きコーパスの作成を行っている。宮崎ら (宮崎, 森 2010) は, Web 文書を対象に, 製品の様態と評価とを分離した評判情報のモデルを提案し,評判情報コーパス構築の際の注釈者間の注釈摇れを削減する方法を論じている。大城ら (大城, 渡邊, 渋木, 木村, 森 2012) は, 施策や事業に対する賛否の意見を, 構造的に捉えるための注釈付けタグセットを提案し,その有効性を確認した。 我々の提案する注釈付けは,意見や評判情報の注釈付けと同様に文中のある部分に対して極性を付与するという点で共通しているが,極性に加えて程度を表す積極性の情報を注釈付けしている点でこれらの研究と異なる。積極性の情報を注釈付けすることの有用性については,次 節で説明する。 ## 2.4 ボートマッチに関する研究 ボートマッチは選挙に関するインターネットサービスの一種で,有権者と立候補者,または有権者と政党の考え方の一致度を測定することができるシステムである。上神ら (上神 2006 ; 上神, 堤 2008 ; 上神, 佐藤 2009) はコンピュータによりコーディングを自動化する手法を提案しマニフェストの分析の自動化を行い,それを用いてボートマッチシステム「投票ぴったん」を作成した。また,毎日新聞の「えらぼーと」8などが公開されている. 木村ら (木村他 2011) は意思決定の際に用いられる決定木を用い,「決定木において同じ経路を選択する相手は同じ考え方をする相手とみなすことができる」という仮説のもとに, 利用者の政治的興味や関心を同定するための質問生成手法を提案している. 我々の場合, 賛否に加え積極性についても考慮し注釈付けを行うため, 既存のボートマッチシステムでは比較を行うのが難しいある施策や事業に対し同意見の議員を積極性という尺度を用いて分類することが可能となる。それにより,「昨年度は○○などの事業に取り組んできた」 と発言した議員と,「○○などの事業を行うのもやむを得ない」と発言した議員のように,どちらも賛成の意思を示しているが積極性の度合いが異なる場合に, 我々の提案する注釈付け手法を用いれば,前者の議員がより積極的に賛成であると注釈付けることが可能である。これにより, 当該の施策や事業を実現してほしい利用者に対し, その意見により近い前者の議員を提示することが可能となる. ## 3 地方議会会議録コーパス 本節では,地方議会会議録の収集および地方議会会議録コーパスを構築するプロジェクトの概要及び,構築された地方議会会議録コーパスについて説明する. ## 3.1 プロジェクトの目的 本プロジェクトは, 地方政治に関する研究の活性化・学際的応用を目指して, 研究者が利用可能な地方議会会議録コーパスを全国規模で構築しWeb 上で提供することを目的とする。また, そのコーパスを利用した政治学, 社会言語学, 情報工学の研究を行い, その成果を学際的に応用した政治情報システムの開発を行う. プロジェクトの全体像を図 1 に示す.  ## 3.2 地方議会会議録の収集 全都道府県の県庁所在地と政令指定都市の計 51 市町村の会議録について平成 17 年から平成 22 年を対象に収集を行った。市町村の会議録の多くは, Web 上で専用の会議録検索システムを通して公開されている。その会議録システムは表 1 に示すように大きく分けて 4 つの会社が会議録検索システムを提供しており,それぞれ付録 $\mathrm{A}$ に示すクロールプログラムを構築し収集を行った。なお,その他に該当するのは秋田市のみで,独自の会議録検索システムを作っていたため人手により会議録を収集した。 図 1 プロジェクトの全体像 表 151 市町村の会議録検索システム 筒井, 我満, 大城, 菅原, 永井, 渋木, 木村, 森地方議会会議録コーパスと政治情報システム構築のためのアノテーション ## 3.3 地方議会会議録コーパスの構築 利用者の利便性を考慮し,付録Aの方法により収集した会議録に対し表 2 に示す付随情報を付与し,データベース化を行った。その際には必要な発言のみを簡単に参照できるように会議録を発言単位に分割した。発言単位の分割については,句点や括弧などを区切りにしており, その際に HTML タグはすべて取り除いている。 以下,発言に付与する項目について説明する。「発言 ID」は各発言の識別を行うため,「市町村コード」は市町村ごとの検索のため,「議会名」 は議会ごとの検索のため,「議会種別コード」市町村によって名称の違う議会名を分類するためにそれぞれ必要となる。「年度」,「回」,「月」,「号」,「日付」については時間情報として重要なため必要である.「表題」はページのタイトルとして,「段落番号」は段落ごとの抽出を容易にするため,「役職名」は会議によって議員の役職が変わることがあるため,「発言者名」は会議録中の文字列をそのまま保持するため,また,発言者が議員であるとは限らないため,「議員 ID」 は議員の識別のためにそれぞれ必要である.「ファイルのパス」は元ファイルを参照することを容易にするため,「その他」は発言とそれ以外の内容を区別するためにそれぞれ必要となる。 例えば,図 2 のような会議録が与えられたとき,下線部の発言に対して表 3 のように情報が付与され, 図 3 の様になる. 「発言 ID」は会議録では 2 番目の発言であることを表している。「市町村コード」は総務省により割り当てられた地方公共団体コードを指す。「議会種別コード」は定例会と臨時会には個別 表 2 発言に付与する項目 ○議長 (櫻井正富君) 次に、日程第 3 議案第 1 号から日程第 55 議案第 53 号までの 53 案を一括議題といたします。<br>市長から、上程議案前部に対する提案理由の説明を求めます。 なお、提案理由の説明に合わせて、新年度に臨む所信の表明を行いたい旨の申し出がありますので、 これを許します。くbr>市長宮島雅展君<br> (市長宮島雅展君登壇)<br> ○市長(宮島雅展君) 本日ここに、3 月市議会定例会を開会するに当たり、私の市政運営に対する所信の一端と、議案第 1 号から議案第 15 号までの平成 22 年度予算の概要につきまして述べさせていただきたいと存じます。 図 2 甲府市議会会議録の例 表 3 発言に対する情報付与の例 のコードが割り当てられているが,その他の委員会は市町村によって異なるためその他と一括りにしている。「年度」は表題に含まれる和暦を西暦に直している。「回」は表題に「第○回定例会」のように書かれているものもあるが, 例のように「○月定例会」と書かれているものは,元ファイルが配置されていた同一ディレクトリ内の定例会の開催月を比較して何回目であるか $2,19201,0010,2010,1,3$, 定例会, 1,0301, 平成 22 年 3 月定例会, 2, 議長, 櫻井正富, $1, /$ 甲府市議会/2010/平成 22 年 3 月定例会/ 平成 22 年 3 月定例会(第 1 号).txt, “市長から、上程議案前部に対する提案理由の説明を求めます。” 図 3 図 2 中の下線部に対して付与を行った結果 を推定している.「議会名」は表題から日付や回などを省くことで生成される.「号」はファイル名より会議が 1 日目であることを表している。「日付」はこの例の中には現れていないが,会議録の HTML タグの中に現れるものを抽出している.「表題」は会議録の HTML ファイルにある title 要素であるが, titleがない場合はファイル名から「平成〜年○○会」までを抽出している.「段落番号」は 2 番目の段落であることを表している。なお, 段落の区切りは br タグにより判別される.「役職名」と「発言者名」は, 発言者の発言の最初に,「○役職名(発言者名君)」のような表現で現れるものを抽出している.「議員 ID」は全国の地方議員の一覧を別途用意し, すべての議員に割り振った.「ファイルのパス」は収集したファイルの保存場所を示している.「発言」には,該当する 1 文の発言を文字列で保存している.「その他」には発言以外の会議録の内容, 例えば「(市長宮島雅展君登壇 $)$ のような記述が入れられる. ## 3.4 地方議会会議録コーパスを用いた研究 前節の手法により構築した地方議会会議録コーパス及びそのデータベースにより, 全国の地方議会会議録に対し,「いつ」、「どの会議で」,「どの議員が」,「何を発言したのか」について検索を行うことが可能となる。これを受けて, 今後, 政治学, 社会言語学, 情報工学といった各分野での研究が期待されるが, 以下では現時点で行われている, 地方議会会議録コーパスを用いた情報工学と社会言語学の研究について紹介する. ## 3.4.1 情報工学の研究 情報工学の分野では,会議録に含まれるテキストから,政治的課題の表現や要求表現の自動抽出, 抽出データの関係推定などを用いて, 住民, 自治体職員, 政治家などに有益な情報を提供する研究が行われている。 会議録は定例会だけでも膨大な量であり, 北海道小樽市の市議会会議録の場合, 定例会 1 回分の会議録だけで A4 判にすると 200 ページを超える. 木村ら (木村他 2011) は,大量のテキストデータに対して能動的にアクセスし,これらのデータを読む住民が少ないと考え政治的課題の関心を明確にするための質問をシステムから利用者に行うことで, 利用者の考えに近い議員を提示する方法を提案している。 会議録に含まれる重要部分を抽出する研究も行われている。葦原ら (葦原, 木村, 荒木 2012) は, 会議録に含まれる重要な内容が議員からの質問に含まれることが多いことに着目し, 議員の質問から要求表現を抽出する研究を行っている. 他には, 大城ら (大城他 2012) は施策や事業に対する賛否の意見を, 構造的にとらえるための注釈付けタグセットを提案している。議員の施策や事業の意見について注釈付けを行うという点では共通しているが,同じ賛成(もしくは反対)を示す議員に対しその積極性を考慮するという点で本研究とは異なっている. ## 3.4.2 言語学の研究 地方議会会議録は, 社会言語学, 日本語学, 方言学などの研究に寄与する言語資源であると考えられる.しかし, 会議録は議会における発言を一字一句厳密に記録しているわけではなく,文章としての読みやすさを考慮して,意味内容が大きく変わらない範囲で修正(整文)が加えられている。高丸ら (高丸, 木村 2010 ; 高丸 2011, 2013) は地方議会会議録の言語資源としての性質を明らかにするための基礎研究として, 複数の地方議会会議録における整文の状況を分析し,実態を比較した。 整文の過程において,圥長な表現の削除や言い間違いや方言語彙の修正などが行われているため,地方議会会議録コーパスを用い話し言葉などに含まれる非流暢性を分析することは困難であると考えられるが,本コーパスは通時性・共時性を併せ持つ言語資源であるため,新しい文法表現の需要の実態や議会用語の変遷等を分析することが可能である。さらに,整文の担当者がある表現が方言であることに気付かないことや,発言者の口調を維持するために,方言であっても整文されずに残されることがあることといった理由により,会議録に現れる方言等を分析することが可能である. 現在これらの観点に基づく研究への本コーパスの活用が進められている. ## 4 賛否の積極性に関する注釈付け 3 節で説明した地方議会会議録コーパスにより, 発言(文)や方言のような表層的な表現の検索や分析は可能となった.しかし, 我々が開発を目指している, 利用者の考えに近い議員を提示するシステムを構築するためには,ある議員の施策や事業に対する意見, 例えばその賛否や積極性を判定する必要がある.意見は複数の形態素等の要素を組み合わせることにより表されるものであると考えられるため, 先に述べたプレインテキストに基づくコーパスの構築のみでは不十分であると考え,会議録中に表れる政治的課題や政策に対する賛否およびその積極性に関する注釈付けを行うこととした。 本節では, まず賛否の積極性に関する情報に関して考察し, 注釈すべき情報の定義を行う。付 与した XML 形式のタグの仕様と付与の基準について説明した後, 注釈付け結果の統計を示す.最後に,夕グに関する課題について述べる. ## 4.1 賛否の積極性に関する情報 賛否の積極性について考えるにあたり,会議録中の賛否を表明する発言を観察し,それらについて分析を行った,図 4 に,会議録の構成を 5 つの場面の観点から例文とともに示す. 図 4 に示した 5 つの場面の内,(i) から (iv) の場面において施策や事業およびそれに関する賛否を表す文や表現が現れることが多く, 一方で (v)の場面ではほとんど現れなかった. 次に,議員が施策や事業に関する意見を述べる際の発言の例を図 5 に示す。施策や事業に関する意見を表す文は,例文 (1)の下線部 (a)のように施策や事業そのものを表す表現と,下線部 (b) のように発言者の施策や事業に関する意見の表現の 2 つから構成されると考えることができ (i) 質問 (会派の代表としての代表質問、一議員としての一般質問の 2 種類がある)例:私は、自民党横浜市議団を代表いたしまして、市政運営の重要課題について中田市長並びに田村教育長に質問いたします。(中略)そこで、開国博Y 150 成功に向け重要な時期となる夏休みの集客策について市長の考えを伺います。 (ii) 質問に対する回答 例:順次お答えを申し上げます。(中略)ヒルサイドエリアでの周辺地域の盛り上げ策でありますけれども、(中略)プレイベントの実施などを予定しております。 (iii) 討論(基本的に返答はない) 例:私は、日本共産党を代表して、今定例会に提出された市第 1 号議案横浜市職員に対する期末手当及び勤勉手当に関する条例の一部改正について反対の討論を行います。(中略) 今回の政治的で異常な勧告を認めるわけにはいきません。 (iv) 議案、法案等の説明 例:市第 22 号議案について御説明いたします。本案は、一般会計補正予算(第 2 号)でありまして、がん検診事業について国補正予算による国庫補助事業の詳細が示されたことから、本市における当該事業の迅速かつ円滑な実施を図るため、国庫支出金を財源として健康福祉費を 14 億 8675 万余円増額しようとするものであります。 (v)議長などによる挨拶、議決、各報告 例:ただいま書記に報告させましたとおり、現在着席議員数は 87 人であります。これより本日の会議を開きます。 図 4 会議録の場面構成 (1)(a)生産年齢人口相の市民の定着が (b) 必要と考えますが、将来に向けた本市の都市経営の在り方についてどのようにお考えなのかをお伺いします。 (2)(c)トンネル工事の開始に向けて (d) 積極的に取り組んでまいりたいと思います (3)開港以来横浜に培われた (e)国際性をさらに飛躍させていくという取り組みをこの近年 (f)強化しているわけでありまして、 (4)新型インフルエンザの国内発生後、直ちに発熱外来を 9 力所開設することができまして、その後さらに 4 カ所の $(\mathrm{g})$ 増設を行いました。 (5) 2007 年からの団塊の世代の大量退職が始まり、時間的ゆとりを持つ高齢層の増加に加え、若年層についても余暇に対する意識の変化などにより、 (h) 観光産業は今後の拡大が見込める成長産業と言えます。 (中略) そこで、(i)国際観光コンベンション振興に関する市長の基本的な考え方についてお伺いいたします。 (6)(j)二律に大幅な削減を行うような過度な見直しは $(\mathrm{k})$ すべきでないと (1)要請してきたところです (7) (m) 発熱相談センターのオペレーターへの看護師の配置ということでありますけれども、発熱相談センターは、現在、オペレーターが相談シートに基づいて電話で相談を聞き取って、その内容をもとに医師、看護師を含む職員が判断を行うということにしているわけであります。職員は医療相談や発熱外来受診についての判断、医療機関との調整などを行っており、これは $(\mathrm{n}$ 適切に対応できていると思います。 (8)(o)緊急借換支援資金の実施期間の延長についてでありますが、緊急借換支援資金は、現下の厳しい経済状況を考慮して、借入金の返済負担の軽減を図るために緊急対策として創設をしたものでありまして、 $(\mathrm{p})$ 本年度末までの時限措置によって実施をしているものでございます。 (9)一方で競争を廃止した教育についても一部行われ、 (q)市民からも疑問の声が上がったと聞いております。 図 5 施策や事業に関する意見を含む文の例 る.なお,発言者としては,一般の議員に加えて,自治体の首長及び部局長,委員長,議長なども現れる。 まず,施策や事業の表現についての分析結果について述べる,例文 (2)では,施策や事業は下線部 (c)の複合名詞 1 語で表されているが, 例文 (1)の下線部 (a) や例文 (3) の下線部 (e), 例 文 $(7)$ の下線部 $(\mathrm{m})$ のようにより大きな名詞句で 1 つの施策や事業が表現されているものも多く存在しており,いずれの場合も連続する文字列で現れていることが多かった.また,例文 (4) のように,施策や事業は現れていないが,その実施の度合いのみを述べている文も多く存在していた. 次に,施策や事業に対する賛否の表現についての分析結果を述べる。例文 (1) から例文 (5) までのように,施策や事業に関して賛成を述べる表現と, 例文 (6), (7) のような施策や事業に対して反対を述べる表現がある。その比率としては賛成が非常に多かった。これは自分の関心のある施策や事業と,行政側に実現させたい施策や事業について言及することが非常に多く見られたことによるものであると思われる,賛成を述べる際には,例文 (1) の下線部 (b) や,例文 (5)の下線部 (h)のように明確に賛成の意思を表す文が非常に多く見られた。下線部 (d)のように「積極的に」などの言葉が入り,積極的な意思を示す表現も見られた. 反対を述べる際には,賛成の場合と同様に例文 (6) の下線部 (k) と (l)のように明確に反対の意思を表明する文も存在するが,例文 (7) のように,現状で十分であり,新たな行動を起こす必要がないため,下線部 (m) の施策や事業には賛成ではないというように, 消極的に反対を述べる文も存在していた. また,例文 (5)の下線部 (h) と (i)のように,施策や事業を表す表現が意見を表明する文以降の文で発言され,それ以前の文にその施策や事業に対する説明があり,それが施策や事業に対する意見の理由となるような文も存在していた。他にも例文 (9) のように,自らの意見ではなく市民の声として施策や事業に対して意見を述べる文も見られた. さらに,同じように賛成の立場(もしくは,反対の立場)を表明していても,言及する施策や事業がどのくらい実現されているかの度合いにも差が見られた。その度合いは図 6 に示す 4 つに大別することができた。ここで,議員の施策や事業に関する意見を表明する発言を読み,そ 度合い 1 例文 (1) の下線部 (b) や例文 (2) の下線部 (d) のようにまだ取り組んでおらず,意見を述べただけの状態.「〜すべき」「〜したい」,「〜と思う, 考える」等の意思を表す表現が主に見られた。 度合い 2 例文 (3) の下線部 (f) のように実際に取り組み始めてはいるが,まだ終了していない状態.「〜している」,「〜してきた」のように進行相の表現が多く見られた。 度合い 3 例文 (4) の下線部 (g) のように政治課題に取り組み, それがすでに終了している状態.「〜 した」のように過去時制の表現が多く見られた。 度合い 4 例文 (5) のように, 政治課題に着手している, もしくはもう既に完了していて更に行動を拡大しょうとしている状態. 図 6 施策や事業の実現の度合い の賛否への積極性を判断する場合を内省すると,積極性を判断するための手掛かりとして,少なくとも以下の 3 点があった, 1 点目は,発言中の「やむを得ない」などのほかに手立てがないことを示す表現である. この表現がある場合, 消極的な賛成(もしくは, 反対)であることが読み取れる。しかしながら,会議録の場合,一般的には積極性を示すはずの表現の存在が必ずしも字義通りの積極性を示すとは限らない,例えば,「取り組まねばならないと考えている」 という表現の場合,一般的には積極的な賛成を示していると考えられるが,会議録における議員の発言においては,この表現だけをもって,積極的な賛成であると判断することは不適切である。なぜなら,会議録には特有の表現や言い回しがあり,議員は施策や事業に積極的に取り組むことが当然として捉えられているため, 積極的であることを示す表現が常時の表現となっていることが多い,一方,消極的であることを示す表現に関しては,例えば「大幅な繰り入れについてはおのずから限界があると考えるので,値上げについては賛成とは言えないが,やむを得ないと考える」のように,現状が非常に厳しいため本心では実施したくないのだが現状を鑑みると実施せざるを得ないという意図で発言したと読み取れ,消極性が感じられる。すなわち, 積極的であることを示す表現が常時の表現のため, 表現が積極的なものに偏っており, 積極的か消極的かを示す表現で,非対称性があるように思われる. 2 点目は,言及された施策や事業の具体性である。積極的であるように読み取れる場合, その施策や事業への言及が具体的であることが多い,例えば,単に「取り組まねばならない」という発言よりも「○○といった理由により $\triangle$ 月までに取り組まねばならない」という発言の方が,積極的に取り組むという意思を読み取ることができる,具体性の有無を判断する手掛かりとして,実現したい施策や事業の詳細な内容や,現状を数値などを踏まえて言及するような構造等が考えられるが,本稿では施策や事業に対する意見の根拠となる理由に着目し, 理由が述べられている文には具体性があると考えた。 3 点目は,言及された施策や事業の実現度合いである。すなわち, これから取り組みたいという意思を表明しているだけのか, それとも, 既に施策や事業の一部に着手しているのか, といった違いにより,賛否の積極性を読み取ることができると考えられる. 施策や事業に対する賛否の積極性を判断する上で,上記の 3 点が手がかりになるということは仮説であるが,賛否の積極性に対する人間の判断結果と共に,これらの手がかりに関する表現の注釈付けを行うことにより, その仮説の分析,および,その分析結果に基ついて構築された積極性判断のための仕組みが正しく動作しうるかどうかの確認が可能となる. ## 4.2 賛否の積極性に関する注釈付け 本稿では,地方議会会議録コーパスに収録されている,札幌市,横浜市,京都市,北九州市の 4 市の 2010 年の第 2 回定例会を対象に注釈付けを行った.この 4 市を対象とした理由は, 政令指定都市であること, 全国に散らばっていること, 同一の記述形式の会議録を採用している ことの 3 点による. 注釈付けを行う単位として, 「発話」,「段落」,「文」,「文字列」の 4 つの単位を用い,「文」,「段落」、「発話」を以下のように定義した。まず,4市の会議録の記述形式では,全ての文の最後が句点で終わっていることから,句点を「文」の境界とした.次に,同一の話題に関する文は 1 つの段落にまとめて記述されており, 全ての段落の最初には空白が存在することから,行頭の空白を「段落」の境界とした,最後に,文の発言者に関する情報がコー パス中に収録されているため,発言者が同一人物である文の連続を 1 つの「発話」とした。 4.1 節での議論を基に,表 4 に示す 11 種類の夕グに関して注积付けを行うこととした.先に述べた 4 つの都市に対して, 8 人の注釈者が 1 人 2 都市ずつ担当し注釈付けを行い, 1 都市につき 4 つのコーパスを作成することとした,注釈者の育った言語環境は全員日本語で,出身地は神奈川県が 3 人, 静岡県が 2 人, 愛知県が 1 人, 岡山県が 1 人, 佐賀県が 1 人であった. 注积作業にかかった時間は,おおむね 1 都市につき 15 時間から 20 時間程度であった。各注釈の説明を以下に述べる。 (1) 番目は, 発言がどのようなシーンでなされたかの注釈であり,発話単位で付与する,議員が意見を述べることが多いシーンについて,発言が行われる場面ごとの比較や分析を行えるよう「質問」,「回答」,「討論」,「説明」の 4 シーンを想定し,各シーンを以下のように定義した. - 「質問」: 発言中に他者に対して回答を求める文が存在している. - 「回答」: 発言中に他者からの質問に対する回答となる文が存在している. - 「討論」: 自分の意見を一方的に表明している文が存在している. - 「説明」: 議案等の内容を説明する文が存在している. 上記の 4 シーンに当てはまらないシーンは「その他」として注釈づけを行った。シーンは排他的に注釈付けられる。すなわち,注釈者は上記の 4 シーンに「その他」を加えた 5 つのうちか 表 4 注釈の一覧 ら 1 つを選ぶ。作業効率の観点から,「その他」のシーンにおける発言には (2) 以降の注釈付けを行わなかった。 (2) 番目は, 発言者の関心がある施策や事業に関する注釈であり, 文字列単位で付与する。発言中に含まれる施策や事業を示す文字列を同定するとともに, これに対し, 「賛成 (推進)」,「反対 (廃止)」,「その他」の何れかの極性を付与する。これにより,発言に対する賛否の自動判定を行うための機械学習の教師情報として,注釈付けを行ったコーパスを利用できる.極性の判断は前後の文脈に現れる記述により,作業者の主観に基づいて行われた。施策や事業に関する注釈付けは次のような形で行われる。 <Policy Polarity="賛成">A N A 5 路線の存続</Policy> この例では, 「ANA 5 路線の存続」という施策に対し, 発言者は賛成の意思を立場を示している。 (3) 番目は, 発言内容のカテゴリーに関する注釈であり, 段落単位で付与する.カテゴリー は, 木村ら (木村, 渋木, 高丸, 小林, 森 2010)の政治的カテゴリーを参考に, 比較的議題に挙げられることが多い, 「医療」,「教育」,「環境」,「観光」,「防災」,「公共」の 6 カテゴリーを対象とした.1つの段落に複数のカテゴリーを付与することを許可している.また,発言内容がどのカテゴリーにも属さない場合には「その他」として注釈付けを行った. (4) 番目は, 質問と回答の対応付けに関する注釈であり, 段落単位で付与する. 質問の段落から回答の段落へと 1 対 1 で対応付けており, もしも, 回答が複数の段落にまたがっている場合は最初の段落に対応付けを行った。段落に対する注釈付けは次のような形で行われる。これにより,ある議員の質問とそれに対する行政側の回答が結び付き,施策・事業ごとの議員の意見と行政側の意見を 1 つの組として分析が可能となる. <Paragraph Id="P338" CorrespondingAnswerParagraphID="P438" Category="医療"> この例では, 338 番目の段落は医療のカテゴリーについて発言しており, その段落の中で現れた質問は,438 段落で回答されていることを表している. (5) 番目は,疑問文かどうかを判断した結果の注釈であり,文単位で付与する,本稿での疑問文とは,他者の回答を要求する文と定義しており,「○○についてお聞かせ願いたい」といった表現であっても疑問文とした. (6) 番目は, 意見性がある文かどうかを判断した結果の注釈であり, 文単位で付与する。本稿での意見性がある文とは,「○○すべきだ」,「 $\triangle \triangle$ の方が良いと考えられる」といった意見であることが明確に示されている文と定義している. (7) 番目は, 発言者本人の意見である文かどうかを判断した結果の注釈であり, 文単位で付与する. (8) 番目は,発言内容の中核となる文に関する注釈である,本稿での中核となる文とは,発言内容を端的に述べている文と定義している。我々は,システムが利用者に発言内容を提示する 際には,発言内容の整理・要約を行う必要があると考えており, 整理・要約を行うための情報として利用することを想定している,(2)の施策・事業を注釈を含む文,または,(6)の意見性があると判断された文を含む段落には,最低でも 1 文は中核となる文を選定し注釈付けを行うこととした. (9)番目は,(2)の施策・事業の極性または (6) の意見性がある文と,その理由となる文との対応付けに関する注釈である。理由となる文から,(2)で選択された施策・事業または (6) の意見性がある文へと 1 対多で対応付けを行っている。これらが複数存在することにより,理由となる文の集合と,(2) ならびに (6) に属する文の集合の間に多対多の関係が成り立つ. これにより,施策や事業に対する賛否の現れ方や,どのような発言が賛否の理由となるのかについての分析が可能となる. (10) 番目は,発言時点で文中の意見がどの程度実現されているかの注釈であり,文単位で付与する.実現の程度として,「表明」,「着手」,「完了」,「拡大」の 4 つの状態を以下のように定義した。 ・「表明」: 何も実現できていない状態. やるべきという意思を表明したたけの状態. - 「着手」: 実現のために行動を開始した状態. 現在進行中であり, 目標は達成されていない. -「完了」: すでに目標を達成した状態. 現在は行動していない. - 「拡大」: すでに目標を達成しており, さらなる成果を求めて行動したい(している)状態. (2) の施策・事業を注釈した文には必ず付与することとした. (11) 番目は,総合的に見て,文中の意見がどの程度説得性がありそうか(目標を実現できそうか)に関する注釈であり,文単位で付与する。説得性の判断は前後の文脈を考慮した作業者の主観に基づいて行われ,(2)の施策・事業に関する注积付けを行った文には必ず付与することとした,前述の理由の対応付けや意見性の有無と合わせて,発言中のどの要素が意見の積極性を表すかについての考察が可能となる。文に関する注釈付けは以下のように行われる. <Sentence Id="S346" Member="(小川直人議員)" IsQuestion="False" IsOpinion="True" IsPrincipal="True" Actualization="不明" CorrespondingConclusive="P:352_11_9:A N A 5 路線の存続" IsPersuasive="True" IsCoreSentence="False">丘珠 5 路線は、道内主要都市を結び、ビジネスマンや観光客、さらには札幌市内医療機関への通院など、多くの人がさまざまな目的を持ち札幌と各地を往来しており、移転することで年間 37 万人の利用者の利便性や経済活動を著しく損なうことになるのは明らかであります。</Sentence> <Sentence Id="S352" Member="(小川直人議員)" IsQuestion="True" IsOpinion="True" IsPrincipal="True" Actualization="表明" CorrespondingConclusive="None" IsPersuasive= "True" IsCoreSentence="True">そこで、質問ですが、<Policy Polarity="賛成">A N A 5 路線の存続</Policy>に向けては、道、経済界、関係自治体が一体となった活動が求めら 図 7 タグ付けツール れ、さらには、道民、市民に大きく運動を広げていくことも視野に入れた取り組みが必要と考えますが、今後、市長はどのように対応しようとされているのか、お伺いいたします。 </Sentence> 表 4 中の各注釈は (5) から順に,「IsQuestion」,「IsOpinion」,「IsPrincipal」,「IsCoreSentence」, $\lceil$ CorrespondingConclusive」,「Actualization」,「IsPersuasive」と表され,この例では, 2 文目に現れている「ANA 5 路線の存続」という施策に対し, 1文目がその理由として結びついている.注釈者の注釈付けの際の誤りを軽減するために,図 7 に示す,専用の夕グ付けツールを開発し, ツールを通して上記の注釈付けを行った。 注釈情報は, 図 8 に示すような XML 形式で付与される。 ## 4.3 注釈結果の統計および分析 4.2 節で述べた 4 都市の当該会議録に対する注釈付けを行った結果の傾向を分析するために,各統計量を調査した。その結果を表 5 から表 10 に示す. 以下の (1)などの数字は, 4.1 節の表 4 <Paragraph Id="P178" CorrespondingAnswerParagraphID="None" Category="医療"> <Sentence Id="S432" Member=" (中山大輔君) " IsQuestion="False" IsOpinion="True" IsPrincipal="True" Actualization="不明" CorrespondingConclusive="P:434_25_17:感染症病床を方面別に新たに整備する" IsPersuasive="False" IsCoreSentence="True"> 他の医療機関に協力を依頼することにより一時的に入院患者への対応はできると思いますが、現行では厳重な感染対策を講じ、さらに、人工呼吸器の装着が必要な重症患者が増加をすれば通常の診療に影響が出ることなど、強毒性のインフルエンザの入院治療必要患者を受け入れられる余カが一般の病院にあるのか、懸念されるところです。く/Sentence> <Sentence Id="S433" Member=" (中山大輔君) " IsQuestion="False" IsOpinion="True" IsPrincipal="True" Actualization="不明" CorrespondingConclusive="P:434_25_17:感染症病床を方面別に新たに整備する" IsPersuasive="False" IsCoreSentence="False">現段階のように、新型インフルエンザは毎年流行するインフルエンザと同じ弱毒性との見解を示されていますが、しかしながら、世界じゅうの大半の人が経験をしたことがないウイルスのため、免疫がなく、さらに、インフルエンザウイルスは変異をしやすく、流行中に強毒性に変わることも考えられるため、警戒は依然急れないと考えます。く/Sentence> <Sentence Id="S434" Member=" (中山大輔君) " IsQuestion="False" IsOpinion="True" IsPrincipal="True" Actualization="表明" CorrespondingConclusive="P:434_25_17:感染症病床を方面別に新たに整備する" IsPersuasive="True"IsCoreSentence="True">そうした中、パンデミックの状態になった場合に備え、<Policy Polarity="賛成">感染症病床を方面別に新たに整備する</Policy>などの対策も必要ではないかと考えます。</Sentence> </Paragraph> 図 8 XML データの例 表 5 総発話数とシーンごとの内訳 表 6 段落とカテゴリーごとの内訳 表 7 文単位の注釈結果 表 8 施策・事業の注釈結果 表 9 実現度と説得性の内訳 筒井, 我満, 大城, 菅原, 永井, 渋木, 木村, 森地方議会会議録コーパスと政治情報システム構築のためのアノテーション 表 10 理由と説得性の関係 中の注釈の種類番号である。表 5 に,会議録中の発話の数と (1) で付与されたシーンの内訳を示す. 表 6 には,会議録中の段落の数,(3) のカテゴリーが付与された段落の数およびその内訳を示す. 各段落には複数のカテゴリーの付与を許可していることと,ならびに「その他」のシーンの段落にはカテゴリーが付与されていないことに注意されたい. 表 7 に,会議録中の文の数,(1) で付与されたシーンの文の数とその内訳,(3)で付与されたカテゴリーの文の数とその内訳,(5)の疑問文の数,(6)の意見性のある文の数,(7) の本人の意見である文の数,(8)の中核となる文の数,(9) の理由となる文の数,(10)の実現度を有する文の数とその内訳,(11)の説得性がある文の数を示す. 表 8 には,(2)の抽出された施策や事業及び極性の内訳を示す. 各表中の括弧内の値は割合を示している。表 9 に,各実現度と説得性の関係を示しており,括弧内の数はそれぞれ表明の文の中で説得性のあるものの割合と,着手・完了・拡大の文の中で説得性のあるものの割合を示している.表 10 に,意見文および施策や事業に対して理由が結びつくかどうか,それらが説得性を持つかどうかを示している。なお,表中の数値は 4 都市の注釈結果を合計したものである. まず, 4 都市間で注釈結果を比較すると, 表 5 から表 8 に関しては注釈の数の分布に大きな差は見られない. 次に,表 5 から順に統計量からわかったことについて述べる. 表 5 の総発話数とシーンごとの内訳を見ると,いずれの市においても「その他」のシーンが一番多く,「回答」,「質問」のシーンが残りの大部分を占めている。「その他」のシーンは,図 4 の (5) に示したとおり,議長の挨拶や議決,予算などの各種報告に対して注釈されるものであり, 施策や事業に対し意見を述べる発言はほぼ存在しない。そのため, 施策や事業に対する賛否を判定する際には不要であり,シーンに関する注釈付けをおこなうことにより,これらを省いたデータを作成することが可能になると考えられる.また,「回答」のシーンの注釈数を 4 都市間で比較すると, 北九州市のみ他の都市より多くなっていた. 4 都市とも質問者の多数の質問に対し,市長及び関係部署の議員が答える形式をとっているが,北九州市は部署の区切りが 「建設都市局長」「建設局長」というように役職が細かく設定されているため,回答者が増える傾向にあるからではないかと思われる。このように, 各シーンの分布の違いから各都市の議会の傾向について分析することも可能であることがわかった. 表 6 の段落とカテゴリーごとの内訳を見ると, いずれの都市においても「その他」が一番多 く,「医療」が次に続き「教育」、「公共」が残りの多くを占めている。今回注釈付けを行ったのは 2010 年の会議録であり,その前年の 2009 年に新型インフルエンザが世界的に流行していたため,それに対しての対策等について述べる議員が多く,「医療」のカテゴリーであると注釈された段落の数が他の物に比べて多くなったものと考えられる。この結果から,議会の話題は時事的な問題に影響を受け得るということがわかった. 表 7 の文単位の注釈結果を見ると,カテゴリーの分布は特に変わらないが,シーンの分布は大きく変化し,「質問」のシーンと注釈された発話に含まれる文が一番多くなっている。これは 4 都市の議会の質問応答形式が一括質疑・一括答弁であり,発話者が交代する場面が少ないことによる。このように,発話単位でのシーンと各シーンの発話に含まれる文の数を比較することで,議会の質問形式の傾向を知ることができる。 表 8 の施策や事業の極性の内訳をみると,賛成の割合が横浜市,札幌市においては約 9 割, 北九州市,京都市においては約 8 割をそれぞれ占めていた。これにより,会議録中の発言では賛成意見が常時の表現となっているという 4.1 節における 1 点目の観察について裏付けることができた。また,賛否の判定を二値分類で行う際には否定の判定精度が重要になると考えられる。 表 9 の実現度と説得性の関係を見ると,実現度に関する注釈付けのある文に関して説得性があると判断された文の割合が約 4 割から 5 割となっており,実現度に関する注釈付けのない文に関して説得性があると判断された文の割合を大きく上回っている。これにより,度合いにかかわらず実現度を含む文,すなわち施策や事業を実現したいという発言や,既に実施しているという発言は積極性に寄与すると考えることができそうである. 最後に,意見文および施策や事業に対して,それらに理由が結びついているか,説得性を持つかに関しての統計を示した表 10 を見ると, 理由が結びついている文や施策は説得性があると判断されることが多い傾向にあり,理由を持つ文は積極性の手がかりになるという 4.1 節における 2 点目の観察を裏付けることができた. ## 4.4 付与したタグの課題 本小節では地方議会会議録コーパスに我々が提案したタグを付与した際に明らかになった課題を,「夕グの仕様」と「注釈付けにおける主観的判断」の 2 つの観点から説明する. ## 4.4.1 タグの仕様策定に関わる課題 「理由の対応付け」のタグは施策や事業に関する賛否の理由となる文に対して付与され,その理由と施策や事業とを結びつけるものであるが,その付与単位を「文」としている。また,会議録では「○○してまいります」や「○○と考えます」等のような文末表現が常態となっており,「××を行うことは大きな利益を生むため, 推進していこうと考えております」といった,理由を含む複文においても文末表現として現れることが多い。そのため, 理由を表す表現につ 筒井, 我満, 大城, 菅原, 永井, 渋木, 木村, 森地方議会会議録コーパスと政治情報システム構築のためのアノテーション いて分析を行いたい時には,単に理由を含むと注釈づけられた文全体に注目するだけでは正しくないという問題がある。理由に緾わる分析を簡単に行えるようにするためには,「理由の対応付け」の夕グの注釈単位を文字列とし,先述の例の「××を行うことは大きな利益を生むため」 にのような従属節等に注釈付けを行えるような仕様とすれば, この問題は解決できると考えられる。 ## 4.4.2 注釈付けにおける主観的判断 テキストに対する注釈付けにおいて,一般的に,注釈者間の判断が必ずしも一致しないことが問題となる。本稿における注釈付けにおいては,特に「施策・事業」の認定に関する判断に摇れが見られた。「施策・事業」の夕グは文字列に対し付与されるものであるが,議員の発言中に必ずしも施策や事業がひとつの連続した文字列や名詞句の形で出現するわけではなく, 図 9 のように,注釈者によりどの範囲を施策や事業として捉えるのかが異なってしまうことがあった.いずれの例もどの範囲を施策や事業として注釈付けるかで摇れが生じているのだが,下の例に関してはある注釈者は 2 つの施策があると注釈し, 別の注釈者は䌂めて 1 つの施策として注釈付けている。これにより施策や事業とそれに関する賛否の分析を行う際にばらつきが生じてしまう,解決策としては施策や事業のみ範囲をあらかじめ決めておくという仕様にすることが考えられる。 ・(中略)各商店街が行うキャンペーン事業や広告宣伝事業等を支援するために要する経費を追加するものであります. ・(中略)各商店街が行うキャンペーン事業や広告宣伝事業等を支援するために要する経費を追加するものであります. - (中略) 消費者センターの消費生活相談窓口や消費者への教育, 啓発の強化等の事業を実施するための経費を計上するとともに, 消防法施行令の改正により, スプリンクラーの整備が必要となる認知症高齢者グループホームに対し, 補助を行うための経費を計上するものであります. - (中略) 消費者センターの消費生活相談窓ロや消費者への教育, 啓発の強化等の事業を実施するための経費を計上するとともに, 消防法施行令の改正により, スプリンクラーの整備が必要となる認知症高齢者グループホームに対し, 補助を行うための経費を計上するものであります。 図 9 施策や事業の認定に関する判断に生じた摇れの例 ## 4.4.3提案した注釈付け手法に追加して必要であると考えられる情報 本稿では議員の施策や事業に関する賛否と積極性に関する注釈付け手法を提案したが,積極性は必ずしもその有無といった二值の值で判断される情報ではなく,例えば「やや積極的」「かなり積極的」というように,積極的な場合と消極的な場合のいずれにおいても複数の段階が存在することがある。このような場合において,より詳細に注积付けを行うためには,積極性に関する度合いを表現する手段が追加される必要がある。 ## 5 おわりに 本稿では, 地方政治に関する研究の活性化・学際的応用を目指して, 全都道府県の県庁所在地および政令指定都市の計 51 市町村について会議録の収集とコーパスの構築を行った. 51 市町村の会議録は Web 上で主に 4 社の会議録検索システムにより提供されており,ページに張られたリンクをたどっていく方法と CGI のパラメータを変えていく方法などにより,会議録を自動的に収集することを行った。地方議会会議録コーパスには 17 項目の情報を付与しており,また,発言単位に分割してデータベース化を行っている。 また,我々が目的とする会議録に打ける発言を基に利用者と政治的に近い考えをもつ議員を判断して提示するシステムの開発に向け, 地方議会会議録コーパスの分析・評価用のデータ作成のために, 会議録中の議員の, 施策や事業に対する賛否とその積極性に関する注釈付けを行う手法について提案をした. 注釈結果の統計および課題について論じた. 今後, 本稿での分析により得られた知見を基に,各発言に対して,賛否とその積極性を自動判定する手法を開発したいと考えている. ## 謝 辞 本研究の一部は, JSPS 科研費 22300086 の助成を受けたものである. ## 参考文献 蔁原史敏, 木村泰知, 荒木健治 (2012). 地方議会会議録における要求・要望表現抽出の提案. 言語処理学会第 18 回年次大会論文集, pp. 1-27. de Goede, B., van Wees, J., Marx, M., and Reinanda, R. (2013). "PoliticalMashup Ngramviewer Tracking Who Said What and When in Parliament." Research and Advanced Technology for Digital Libraries, pp. 446-449. 橋本力, 黒橋禎夫, 河原大輔, 新里圭司, 永田昌明 (2011). 構文・照応・評価情報つきブログコーパスの構築. 自然言語処理, 18 (2), pp. 175-201. 平田佐智子,中村聡史,小松孝徳,秋田喜美 (2012). 国会会議録コーパスを用いたオノマトぺ使用の地域比較. 第 27 回人工知能学会全国大会論文集, 3N4-OS-01c-2, 31 (10). 飯田龍, 小町守, 乾健太郎, 松本裕治 (2008). 述語項構造と照応関係のアノテーション:NAIST テキストコーパス構築の経験から. 自然言語処理, 17 (2), pp. 25-50. 井上史雄 (2013). [ことばの散歩道] 171 去った○日. 日本語学, 31-10. 川端正法, 山本和英 (2007). 話題の継続に着目した国会会議録要約. 言語処理学会第 13 回年度大会, pp. 696-699. 川浦昭彦 (2009). "Self-Serving Mayors and Local Government Consolidations in Hokkaido." 日本経済学会春季大会研究報告. Kawaura, A. (2010). "Self-Serving Mayors and Local Government Consolidations in Japan." In University of Hawaii Department of Economics Working Paper. 木村泰知, 渋木英潔, 高丸圭一 (2009). 地方議員と住民間の共同支援に向けたウェブの利用. 選挙研究, 25 (1), pp. 110-118. 木村泰知,渋木英潔,高丸圭一,小林哲郎,森辰則 (2010). 北海道を対象とした地方議員と住民間の共同支援システムのユーザインターフェース評価. 第 24 回人工知能学会全国大会論文集, 2J2-NFC2-3. 木村泰知, 渋木英潔, 高丸圭一, 乙武北斗, 小林哲郎, 森辰則 (2011). 地方議員マッチングシステムにおける能動的質問のための質問生成手法. 第 24 回人工知能学会全国大会論文集, 26 (5), pp. 580-593. 小林のぞみ,乾健太郎,松本裕治 (2006). 意見情報の抽出/構造化のタスク使用に関する考察. 自然言語処理研究会報告 2006-NL-171. 松吉俊, 江口萌, 佐尾ちとせ, 村上浩司, 乾健太郎, 松本裕治 (2010). テキスト情報分析のための判断情報アノテーション. 電子情報通信学会論文誌, J93-D (6), pp. 705-713. 宮崎林太郎, 森辰則 (2010). 注釈事例参照を用いた複数注釈者による評判情報コーパスの作成. 自然言語処理, 17 (5), pp. 3-50. 森脇俊雅 (2008). 合併と地方議会活動:議員アンケートの分析を中心にして. 選挙研究, 23, pp. 82-90. 大城卓, 渡邊裕斗, 渋木英潔, 木村泰知, 森辰則 (2012). 地方政治情報システムのための地方議会会議録への注釈付けタグセットの提案. 言語処理学会第 18 回年次大会発表論文集, pp. 3-9.乙武北斗, 高丸圭一, 渋木英潔, 木村泰知, 荒木健治 (2009). 地方議会会議録の自動収集に向けた公開パタンの分析. 言語処理学会第 15 回年次大会, pp. 192-195. Ptaszynski, M., Rzepka, R., Araki, K., and Momouchi, Y. (2012). "Automatically Annotating A Five-Billion-Word Corpus of Japanese Blogs for Affect and Sentiment Analysis." In Proseedings of the 3rd Workshop on Computational Approaches to Subjectivity and Sentiment Analysis, pp. 123-130. 関口洋一, 山本和英 (2003). Web コーパスの提案. 情報処理学会研究報告. 情報学基礎研究会報告, 2003 (98), pp. 123-130. 高丸圭一, 木村泰知 (2010). 栃木県の地方議会会議録における整文についての基礎分析一本会 議のウェブ配信と会議録の比較一. 都市経済研究年報, pp. 74-86. 高丸圭一 (2011). 規模の異なる自治体における地方議会会議録の整文の比較. 社会言語科学会第 27 回研究大会, pp. 256-259. 高丸圭一 (2013). 形態素 N-gram を用いた地方議会会議録における地域差の分析手法の検討一 ひらがなで構成された文末の 4-gram に着目して一. 明海日本語, pp. 1-10. 上神貴佳 (2006). 投票支援ツールと『政策中心の選挙』の実現一オランダの実践と日本におけ る展望一. 選挙学会紀要, 6, pp. 43-64. 上神貴佳, 堤英敬 (2008). 投票支援のためのインターネット・ツール一日本版ボートマッチの 作成プロセスについて一。選挙学会紀要, 10, pp. 39-80. 上神貴佳, 佐藤哲也 (2009). 政党や政治家の政策的な立場を推定するーコンピュータによる自 動コーディングの試み一. 選挙研究, 25 (1), pp. 61-73. Weibe, J., Wilson, T., and Cardie, C. (2005). "Annotating Expressions of Opinions and Emotions in Language." Language Resources and Evaluation, 39 (2-3), pp. 165-210. 山本和英, 安達康昭 (2005). 国会会議録を対象とする話し言葉要約. 自然言語処理, $12(1)$, pp. $51-78$. Yu, B., Kaufmann, S., and Diermeier, D. (2008). "Classifying Party Affiliation from Political Speech." Journal of Information Technology $\mathcal{E}$ Politics, 5 (1), pp. 33-48. 平野淳一 (2008). 「平成の大合併」と市長選挙. 選挙研究, 24 (1), pp. 32-39. ## 付録 ## A各会議録検索システムのクロールプログラムの仕様 表 1 に示した 4 つの会社が提供する会議録検索システムのそれぞれに収録された会議録を収集するためのクロールプログラムの仕様は以下のとおりである. - 大和速記情報センター・会議録研究所:大和速記情報センターおよび会議録研究所の会議録検索システムを導入している市町村の Webページでは, トップページもしくはトッ プページから直接リンクが張られているページに,各年度の会議録へのリンク一覧が存在するものがほとんどである。リンク一覧が存在しない場合, 検索用の入力フォームに未記入で検索を実行することで全会議録の検索結果がリンク情報として表示される。これらのリンクをクロールプログラムが辿ることで会議録のページを自動的に取得する. - フューチャーイン:フューチャーインの会議録検索システムを導入している市町村の Web ページでは,会議録検索システムの出力が CGI プログラムにより自動生成されていて, その CGI プログラムに渡すパラメタにより出力内容を制御できる。例えば,会議録の検索は,以下のようなパラメ夕を渡すことで行われている。 $\mathrm{ACT}=100 \& \mathrm{KENSAKU}=0 \& \mathrm{SORT}=0 \& \mathrm{KTYP}=0,1,2,3,4 \& \mathrm{KGTP}=0,1,2,3,4 \& \mathrm{PAGE}=1$ CGI プログラムに渡すパラメタ PAGE の値を順次変えることですべての検索結果を得ることができる。 パラメタ ACT, KTYPの値はそれぞれ,ページの表示方法,会議種別に対応する。また,会議録は発言ごとに分割されており,同じ CGI プログラムにおいて,次のようなパラメタを渡すことで各発言を取得できる。 $\mathrm{ACT}=203 \& \mathrm{KENSAKU}=0 \& \mathrm{SORT}=0 \& \mathrm{KTYP}=2,3 \& K G T P=1,2 \& T I T L \_S U B T=\% 95 \%$ BD \%90\%AC\%82Q\%82Q\%94N\%81@\%82Q\%8C\%8E\%92\%E8\%97\%E1\%89\%EF\%81\%7C03\%8 $\mathrm{C} \% 8 \mathrm{E} 03 \% 93 \%$ FA-04\%8D $\% 86 \& \mathrm{HUID}=46845 \& \mathrm{FINO}=655 \&$ HATUGENMODE $=0 \& H Y O U$ JIMODE $=0 \& S T Y L E=0$ パラメタ TITL_SUBT,HUID の值はそれぞれ,URI エンコードされた表題, 発言 ID に対応する。 パラメタ ACT は,この例の「203」では「発言」,ひとつ前の例の「100」では「検索結果」を指している。 パラメタ TITL_SUBT の値は, この例では「平成 22 年 2 月定例会 03 月 03 日-04号」を指している. クロールプログラムは, これらパラメ夕の値を順次変えることで CGI プログラムを経由して会議録を自動的に取得する. - 神戸綜合速記:神戸綜合速記の会議録検索システムを導入している市町村の Web ページでは,会議録検索システムの検索結果の出力が CGI プログラムにより自動生成されており,その CGI プログラムに渡すパラメ夕により出力内容を制御できる.例えば,会議録の検索は,CGI プログラムに以下のようなパラメ夕を渡すことで行われている。 treedepth $=\% 95 \% \mathrm{BD} \% 90 \% \mathrm{AC} 22 \% 94 \mathrm{~N} \% 20 \% 95 \% \mathrm{BD} \% 90 \% \mathrm{AC} 22 \% 94 \mathrm{~N} \% 203 \% 8 \mathrm{C} \% 8 \mathrm{E} \% 92$ $\% \mathrm{E} 8 \% 97 \% \mathrm{E} 1 \% 89 \% \mathrm{EF} \% 20$ パラメ夕 treedepth の値は URI エンコードされた和暦と表題に対応する. この例では「平成 22 年 3 月定例会」を指している. クロールプログラムは, このパラメ夕の値を変え, CGI プログラムが生成したぺージに張られたリンクをたどることで会議録のページを自 動的に取得する。 ## 略歴 筒井貴士:2013 年横浜国立大学工学部電子情報工学科卒業. 現在, 同大学大学院環境情報学府情報メディア環境学専攻博士課程前期在学中. 自然言語処理に関する研究に従事. 我満拓弥:2013 年横浜国立大学工学部電子情報工学科卒業. 現在, 東京大学大学院工学系研究科電気系工学専攻博士課程前期在学中. 数理生命情報学に関する研究に従事. 大城卓:2010 年横浜国立大学工学部電子情報工学科卒業. 2012 年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了. 修士(情報学). 在学中は自然言語処理に関する研究に従事. 菅原晃平:2010 年横浜国立大学工学部電子情報工学科卒業. 2012 年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了. 修士(情報学). 在学中は自然言語処理に関する研究に従事. 永井隆広:2010 年横浜国立大学工学部電子情報工学科卒業. 2012 年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了. 修士(情報学). 在学中は自然言語処理に関する研究に従事. 渋木英潔:1997 年小樽商科大学商学部商学部商業教員養成課程卒業. 1999 年同大学大学院商学研究科修士課程修了. 2002 年北海道大学大学院工学研究科博士後期課程修了. 博士 (工学). 2006 年北海学園大学大学院経営学研究科博士後期課程修了. 博士 (経営学). 現在, 横浜国立大学環境情報研究院科学研究費研究員. 自然言語に関する研究に従事. 言語処理学会, 情報処理学会,電子情報通信学会, 日本認知科学学会各会員. 木村泰知:2004 年北海道大学大学院工学研究科電子情報工学専攻博士後期課程修了. 博士 (工学)。2005 年, 小樽商科大学商学部助教授着任. 2007 年, 同准教授, 現在に至る。この間, 2010 年 10 月より 2011 年 9 月まで New York 大学客員研究員. 自然言語処理, 情報抽出などの研究に従事. 言語処理学会,人工知能学会, 情報処理学会, 電子情報通信学会各会員. 森辰則:1991 年横浜国立大学大学院工学研究科博士課程後期修了. 工学博士. 同年, 同大学工学部助手着任. 同講師, 同助教授を経て, 現在, 同大学大学院環境情報研究院教授. この間, 1998 年 2 月より 11 月まで Stanford 大学 CSLI 客員研究員. 自然言語処理, 情報抽出, 情報検索などの研究に従事. 言語処理学会, 人工知能学会, 情報処理学会, 電子情報通信学会, ACM 各会員. 筒井, 我満, 大城, 菅原, 永井, 渋木, 木村, 森地方議会会議録コーパスと政治情報システム構築のためのアノテーション (2013 年 9 月 20 日受付) (2013 年 12 月 2 日再受付) (2014 年 1 月 10 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 情報信憑性判断支援のための Web 文書向け要約生成タスクにおけるアノテーション 金子 浩一 ${ ^{\dagger} \cdot$ 永井 隆広 ${ }^{\dagger} \cdot$ 森 辰則 $\dagger$ } 我々は,利用者が信憑性を判断する上で必要となる情報を Web 文書から探し出し,要約・整理して提示する, 情報信憑性判断支援のための要約に関する研究を行って いる. この研究を行う上で基礎となる分析・評価用のコーパスを,改良を重ねなが ら 3 年間で延べ 4 回構築した. 本論文では, 人間の要約過程を観察するための情報 と, 性能を評価するための正解情報の両方を満たすタグセットとタグ付与の方法に ついて述べる。また, 全数調査が困難な Web 文書を要約対象とする研究において, タグ付与の対象文書集合をどのように決定するかといった問題に対して, 我々がど のように対応したかを述べ,コーパス構築を通して得られた知見を報告する。 キーワード: アノテーション, コーパス, 要約, 調停要約, 情報信憑性 ## Annotation of Web Documents for Automatic Summarization to Verify Information Credibility Hideyuki Shibuki ${ }^{\dagger}$, Masahiro Nakano ${ }^{\dagger \dagger}$, Rintaro Miyazaki ${ }^{\dagger \dagger}$, Madoka Ishioroshi ${ }^{\dagger}$, KoIChi KAnEKO ${ }^{\dagger \dagger}$, TAKahiro NAGaI $^{\dagger \dagger}$ and Tatsunori Mori ${ }^{\dagger}$ Over a span of three years, we have constructed and improved four corpora that are the basis for generating summaries for the verification of information credibility. The summary generated to verify the credibility of information is a brief document composed of extracts from Web documents; it provides material to the user for judging the validity of a statement. In this paper, we describe a set of tags designed for observing annotation and preparing a gold standard for the summary. Further, we describe the method of annotation. Because examining each web document for its appropriateness in contributing to the summary is difficult, we describe the methodology of obtaining appropriate documents. Furthermore, we share our observations and learnings from the process of constructing these corpora. Key Words: annotation, corpus, summarization, mediatory summary, information credibility  ## 1 はじめに 近年, Webを情報源として, 人間の情報分析や情報信憑性判断などの支援を目的としたシステム開発に関する研究が行われている (Akamine, Kawahara, Kato, Nakagawa, Inui, Kurohashi, and Kidawara 2009; Akamine, Kawahara, Kato, Nakagawa, Leon-Suematsu, Kawada, Inui, Kurohashi, and Kidawara 2010; Ennals, Trushkowsky, and Agosta 2010; Finn, Kushmerick, and Smyth 2001; Kaneko, Shibuki, Nakano, Miyazaki, Ishioroshi, and Morii 2009; Miyazaki, Momose, Shibuki, and Mori 2009; Murakami, Nichols, Mizuno, Watanabe, Masuda, Goto, Ohki, Sao, Matsuyoshi, Inui, and Matsumoto 2010; Shibuki, Nagai, Nakano, Miyazaki, Ishioroshi, and Mori 2010; 渋木, 永井, 中野, 石下, 松本, 森 2013; 加藤, 河原, 乾, 黒橋, 柴田 2010 ; 河合, 岡嶋, 中澤 2007 ; 松本, 小西, 高木, 小山, 三宅, 伊東 2009 ; 中野, 渋木, 宮崎, 石下, 金子, 永井, 森 2011; 藤井 2008; 山本, 田中 2010). このようなシステムの開発においては, そもそも, どのような情報を提示することが効果的な支援につながるか,また,そのためにどのような処理を行う必要があるか, といった点から検討しなくてはならないことが多く, そういった検討に必要な情報が付与されたコーパスが必要となる。加えて, 開発されたシステムの性能を評価するための正解情報が付与されたコーパスも必要となる。 そういった情報が付与されたコーパスは,一般に利用可能でないことが多いため,開発の基礎となるコーパスを構築する研究が行われている (Nakano, Shibuki, Miyazaki, Ishioroshi, Kaneko, and Mori 2010; Ptaszynski, Rzepka, Araki, and Momouchi 2012; Radev, Otterbacher, and Zhang 2004; Wiebe, Wilson, and Cardie 2005 ; 渋木, 中野, 宮崎, 石下, 鈴木, 森 2009; 渋木, 中野, 宮崎, 石下, 永井, 森 2011 ; 松吉,江口, 佐尾, 村上, 乾, 松本 2010 ; 中野, 渋木, 宮崎, 石下, 森 2008 ; 飯田, 小町, 乾, 松本 2010 ; 橋本, 黒橋, 河原, 新里, 永田 2011). 我々は,これまで,「ディーゼル車は環境に良い」といった,利用者が信憑性を判断したい言明1(着目言明)に対して,その信憑性判断を支援するために有用なテキスト群を Web 文書から探し, 要約・整理して提示する研究を行ってきており, その基礎となるコーパスを 3 年間で延べ 4 回2構築している. 研究当初, 我々は, 情報信憑性判断支援のための要約として, 言明間の論理的関係の全体像を把握するのに有用な, 論理的関係の要所に位置する言明を重要言明とみなし, それらを優先的に提示することによって情報量を抑える, サーベイレポート的な要約を考えていた。この考え方の下で,着目言明に関連する重要言明をWeb 文書集合から網羅するようなアノテーションを第 1 回と第 2 回のコーパス構築において行った. こうして構築されたコー パスを分析した結果,一見すると互いに対立しているようにみえる二つの言明の組が,実際に  は対立しておらず,ある条件や状況の下で両立可能となっている場合(疑似対立)があることが分かった,また,疑似対立の場合に両立可能となる状況を第三者視点から簡潔に説明している記述が少数ではあるが Web 文書中に存在していることも分かり,そのような記述を利用者に提示することができれば,利用者の信憑性判断支援に役立つと考えた,以上の経緯から,我々は,二つの言明の組が疑似対立である場合に,第三者視点から両立可能となる状況を簡潔に説明している記述を Web 文書から見つける要約を調停要約として提案した,以後,調停要約を信憑性判断支援のための要約の中心に位置付けて, 第 3 回と第 4 回のコーパス構築を行い, 調停要約を自動生成する手法を開発した。我々は,サーベイレポート要約と調停要約を,それぞれ情報信憑性判断支援のための要約の一つとして位置づけている. 情報信溤性判断支援のための要約といった比較的ユニークな研究課題に新しく取り組むに当たって,構築されるコーパスには,手法のアルゴリズム等を検討するための分析用コーパスとしての役割と,手法の性能を測るための評価用コーパスとしての役割の両方が要求される。したがって,本論文では,この要求に応える夕グセットとタグ付与の方法について述べる。また,要約対象は, Web 検索等により得られた任意の Web 文書集合であるため,アノテーションの対象となる文書集合をどのように決定するかという問題が生じる。この問題に対して,我々が採った方法についても述べる。 また, 情報信憑性判断のための要約といった同一の研究課題で,作業内容の改良を重ねながら 4 回のコーパス構築を行った事例は少なく, そういった希少な事例としても報告したい. 本論文では,4回にわたって構築したコーパスを,着目言明に関連する重要言明を網羅することを目的として構築された, 第 1 回と第 2 回のサーベイレポートコーパスと, 調停要約に焦点を当てて構築された,第 3 回と第 4 回の調停要約コーパスに大きく分けて説明する。また,それぞれのコーパスを構築する際に直面した課題について,我々がどのように対応したかを述べ, コーパス構築を通して得られた知見を報告する。 本論文の構成は以下の通りである。2 節では,コーパス構築の目的である,情報信慿性判断支援のための要約における我々の基本的な考えを述べる.3 節では,サーベイレポートコーパスの構築における背景を述べた後,どのような課題が存在し,我々がどのように対応しようとしたかを述べる。また,実際のコーパス構築手順とアノテーションに用いたタグセットを述べ,構築されたサーベイレポートコーパスを分析した結果について報告し,考察を行う4節では,調停要約コーパスについて 3 節と同様の記述をする. 5 節では,コーパス構築の関連研究について述べ,情報信憑性判断支援のための要約に関するコーパス構築の位置付けを明確にする. 6 節はまとめである. ## 2 情報信憑性判断支援のための要約 Web 上に存在する情報の中には, 出所が不確かな情報や利用者に不利益をもたらす情報などが含まれており,信頼できる情報を利用者が容易に得るための技術に対する要望が高まっている. 情報信憑性の判断を対象とした研究には, システムが信憑性を自動的に検証することと, 利用者の信憑性判断が容易になるようシステムが支援することの 2 通りのアプローチが考えられる.しかしながら, 情報の内容の真偽や正確性を自動的に検証することは困難である上に, その情報が意見などの主観を述べるものである場合には,利用者により考え方や受け止め方が異なることから,その真偽や正確性を検証することはさらに困難なものとなる,そのため,情報の信憑性は, 最終的に個々の情報利用者が判断しなければならないと考えている。したがって,情報の信憑性を自動的に検証する技術に優先して,利用者による信憑性の判断を支援する技術の実現を目指している. 情報信憑性判断を支援する技術には,着目言明に関する意見など判断の参考となる情報を抽出する技術 (Akamine et al. 2009, 2010; 宮崎, 森 2010), 対立や根拠など抽出された情報間の関係を解析する技術 (Murakami et al. 2010), 抽出・解析された情報を重要性の高い順に提示するといった要約・整理に関する技術 (Kaneko et al. 2009; Shibuki et al. 2010; 溙木他 2013) などが存在する。我々は, この中の要約・整理に関する研究に取り組んでいる. 我々が目的とする, 情報信憑性判断支援のための要約は, Web 文書を対象とした複数文書要約の一種である.しかしながら, 従来の新聞記事等を対象とした複数文書要約 (吉岡, 原口 2004) と比較して以下のような特徴がある。従来の複数文書要約では, どの情報も同等に信じられるとしており, 言明の間にも矛盾はないとしていた。一方で, 情報信憑性判断においては, 原文書の情報が全て信じられるとは限らず,どの言明が本当に正しいのか分からない場合がある。その結果, 言明間に矛盾が存在しうることが考えられ, サーベイレポートにおいては, 利用者が根拠関係や対立関係が理解できるように,調停要約においては,疑似対立である二言明が両立可能であることを理解できるように要約する必要がある。また, 複数文書要約において情報の発信者は複数存在するのが普通であるが,言明間の矛盾や対立関係を明らかにするためには情報発信者による情報の区分が重要となる。このように,情報信馮性判断支援のための要約は今まで広く行われてきた複数文書要約と異なる部分があり,アノテーションにおいても上記の点を考慮して行う必要がある。 ## 3 サーベイレポートコーパスの構築 ## 3.1 サーベイレポートコーパス構築の背景 研究当初の段階では,情報信憑性判断支援に資する要約とは何かということが漠然としか定まっておらず,研究の大部分が手探り状態であった。それゆえ,人間が情報信憑性判断支援のための要約を作成する際に,どのような情報を重視して要約を作成するのか,また,どのような知識が要約の作成に必要だったのかといった点から検討する必要があり, 作成結果となる要約だけではなく, 人間の要約作成過程を可能な限り詳細にトレースできるようなアノテーションを行う必要があった。 また, システムが自動生成した情報信憑性判断支援のための要約を自動的に評価するために,正解となる参照要約を準備することもコーパス構築の目的のひとつであった. 自動要約システ么の理想的な正解は人間が自由記述形式で作成した要約そのものであるが,人間と違って機械が最初から文章を書き起こすことは困難である。 それゆえ, 要約対象文書中の記述を抜粋して要約する TextRank(Mihalcea and Tarau 2004)のようなアルゴリズムを用いることを想定していた。そこで,人間が作成した要約を要約対象文書中の記述と関連付けておくことで,機械が要約を作成する際の正解の一部として利用できるようなアノテーションを行う必要があった. 図 1 に,サーベイレポートの例を示す。この例では, 着目言明として「朝, バナナを食べるたけでダイエットできる」が入力された場合を想定している,我々は,着目言明の信溤性が問われる主な原因として, 着目言明の内容を否定するような言明の存在があると考え, Web上で矛盾や対立などが存在する言明を論点と定義する。サーベイレポートは, 利用者が論点を把握するための要約と利用者が論点を判断するのに役立つ要約の 2 つに大きく分かれている.前者はさらに,着目言明の関連情報である関連キーワードと背景となる記述,各論点の主張を理解するための記述に分かれている。関連キーワードは, 着目言明と関連するWeb 文書集合に現れる主たる語句, 背景は着目言明の内容が Web 上で大きく話題となった日時と事件を列挙したものである。各論点の主張では, 着目言明の内容を肯定する Web 上の言明と, 着目言明の内容を否定するような言明(対立言明)を根拠や反論の有無とともに示している。ここで, 着目言明や対立言明の根拠や反論は一般に複数あることに注意されたい。図 1 の例では, 着目言明の根拠として「酵素」と「食物繊維」の効果が挙げられている。これに対し,「バナナの酵素が代謝を高めることはない」という反論は, 酵素の効果を否定しているだけであり, 食物繊維の効果に対する反論としては適切ではない. 反論等の信憑性判断は, 適切な対応関係にある根拠等を明確にした上で行われるべきである。したがって, 着目言明側と対立言明側の主張の対応関係が利用者に分かるように整理することが,利用者が論点を判断する上で役立つと考えられる.利用者が論点を判断するのに役立つ要約では, 反論などの対立関係にある言明の組を Web 文書から 図 1 サーベイレポートの例 パッセージ3単位で抜粋し, 情報発信者とともに提示している。本論文では, 情報発信者を言明を発信している個人や組織と定義する。また, 提示されたパッセージや情報発信者を元に,利用者にどのような点を判断してもらいたいかが,言明の組の上下に注釈として記されている。 図 1 に示すようなサーベイレポートをシステムが生成するにあたって, 根拠や対立等の言明間の関係の把握に関しては言論マップ (Murakami et al. 2010)の出力を, 話題となった日時と事件に関しては時系列分析 (河合他 2007)の出力をそれぞれ利用することを想定していた. それゆえ, サーベイレポートコーパスの構築は, 着目言明に関連する言明の抽出, 情報発信者の抽出, 利用者が論点を判断するのに役立つ要約の作成を作業の中心とすることとした. ## 3.2 サーベイレポートコーパス構築における課題 ## 3.2.1 着目言明の決定 まず,コーパスに収録されるサーベイレポートのトピックとなる着目言明をどのように決定するかを考える。本研究では Web 文書を要約対象とするため, 着目言明に関連する Web 文書が  存在しない場合, サーベイレポートを生成することができない. そのような場合, 自動要約システムの挙動としては, 関連する Web 文書が存在しなかったことを示せば良いが, 開発の基礎となるコーパスを構築するという点においては,十分な分析を行える量のサーベイレポートを確保する必要がある。一方で, サーベイレポートを作成しやすい着目言明のみでコーパスを構築すると, 紋切り型のサーベイレポートになり, 人間の要約作成過程を観察する際の多様性がそしくなる恐れがある。したがって, 予め着目言明の候補を比較的多く作成し, 着目言明に関連する Web 文書がどの程度存在しているのか, また, 論点になりそうな言明はどの程度存在しているのか, といった調査を Web 検索エンジンを用いて行い, その結果を元に,多様性をもったサーベイレポートが作成できそうな着目言明を選別することとした. ## 3.2.2 要約作成過程の観察 ある着目言明が与えられた際に,その信憑性の判断を支援するための要約を人間が作成する場合を考えると,まず,着目言明に関連する文書集合をWeb 検索等により収集した後,収集した文書に目を通して, 要約の作成に必要な記述(重要記述)がありそうな文書を選別し, 最後に, 文書中の重要記述を中心に要約を作成すると考えられる。言い換えると, 収集した文書から要約に必要な記述を得るためには, 文書の収集や選別, 重要記述の抽出など何度かの絞り込みを行っていると考えられる。しかしながら,その絞り込みの方法の詳細は不明であるため,人間が実際に要約を作成する際に行う絞り込みの過程を観察できるようにする必要がある。本来であれば,如何なる制約もない自然な流れでの絞り达み過程を観察することが望ましいが,複数の人間による絞り込みの途中経過を比較することが困難になる。それゆえ,絞り込みの過程を幾つかの段階に分割し,各段階でアノテーションを行うこととした。こうすることで,各段階のアノテーション結果を参照することが可能になり, 複数の人間が行う絞り込みの一致率を途中経過を含めて調査できるようになる。もしも,絞り込みの過程が作業者によって大きく異なるならば,重要だと考える基準が作業者によって大きく異なるということであり,安定した自動要約を実現するのが困難になると考えられる。 作業者が絞り込みを適切に行うためには,着目言明に関する背景知識や,さまざまな文書内の情報が必要になると考えられる。本論文では, 「背景知識」を要約対象文書以外からでも獲得できる知識,「文書内の情報」を要約対象文書中に実際に含まれる記述から獲得できる情報と定義する,着目言明に関する背景知識は,一般的には要約を作成する際に必須のものではないが,着目言明に関する問題点や, 問題点に対する意見などの背景知識をもつことで, 問題を判断するためにどのような情報を重要視すべきかを作業者が適切に判断できるようになる。また,サー ベイレポートを読んだ人間が多角的に判断できるようにするためには, 着目言明に関する文書内の情報を網羅的に提示する必要がある. どのような論点が存在するのかに関する背景知識を作業者が予めもっていれば,各論点における文書内の情報を見落とす可能性が小さくなると考 えられる。したがって, 背景知識が豊富な作業者であるほど, 作成される要約の質が向上すると考えられる。しかしながら, 事前に各作業者がもっている背景知識には差がある。それゆえ,要約の質を均一にするために, 作業者が背景知識が獲得できるような作業段階を最初に設けることとした. 作業者の労力軽減という観点からは, 作業管理者等が事前に背景知識を調査しておき,それを作業者全員で共有するといった方法が考えられる。しかしながら,背景知識を共有することで,作成されるサーベイレポートや作成過程から多様性が失われる恐れがある。また, 自ら調査して得た知識と他人から与えられた知識では理解の程度に差が生じ, その差が作業内容に影響を及ぼすことも考えられる。したがって,作業者間で背景知識の共有はせず,各作業者が自ら獲得するようにした。また,作業者が背景知識や文書内の情報をどのように獲得し,どの知識や情報を重視したかを観察できるような情報をアノテーションすることとした。 ## 3.2.3 対象文書の決定 膨大な Web 文書の中から着目言明に関連する重要記述を抽出して整理する, 情報信憑性判断支援のための要約は,情報検索などの情報アクセス技術の一種と捉えることができる.情報検索の分野において, 利用者の情報要求と適合する文書を検索できたかどうかは, 精度と再現率による検索有効性を用いて評価されるが,再現率を計算するためには,対象文書中の全適合文書数が必要となる.しかしながら, Web 文書のように全数調査が不可能に近いサイズの対象文書である場合, 網羅的に適合文書を調査することが困難である。この問題に対して, $\mathrm{TREC}^{4}$, $\mathrm{NTCIR}^{5}, \mathrm{CLEF}^{6}$ なとの評価型ワークショップでは,プーリングによりテストコレクションを構築している (Buckley, Dimmick, Soboroff, and Voorhees 2007). プーリングとは, 異なる複数の検索システムが同一の検索要求について検索を行い,その検索結果を集めて,正解文書の候補とする方法であるが,本研究のように初めて取り組む研究においては,該当するシステムが存在しないため,そのままプーリングの方法を用いることはできない。そこで,人間がシステムの代わりを務めることでプーリングに相当する結果を得られるようにした. すなわち, 複数の作業者がそれぞれ着目言明に関連する文書集合を収集し, 収集された文書集合をマージすることで対象文書の範囲を決定した。 ## 3.2.4 参照要約の作成 情報信憑性判断支援のための要約を評価する上でのもう一つの問題は, 参照要約をどのように作成するかという点である。要約を読んた人間に分かりやすく伝えるには, どのような表現が適切かということを調査する必要があり, そのためには, 自由記述形式で要約を作成すること ^{4}$ http://trec.nist.gov ${ }^{5}$ http://research.nii.ac.jp/ntcir/index-ja.html 6 http://www.clef-campaign.org } が望ましい. しかしながら,一般的な要約の自動評価手法である ROUGE (Lin and Hovy 2003) は, N-gramの一致度により評価するため,表層的な表現の違いによる影響を受けやすい. 3.1 節で述べたように,我々は抜粋型の要約アルゴリズムを用いることを想定していたため,参照要約を自由記述形式とすると,表層的な表現の違いにより,不当に低く評価される恐れがあった. それゆえ,理想的な要約の表現を分析するための,自由記述形式で作成した要約(自由記述要約)と,システムを評価するための,要約対象文書からの抽出物を主たる部品として作成した要約(抜粋要約)の二種類の要約を作成することとした. ## 3.2.5 情報発信者の情報 最後に,サーベイレポートに提示すべき情報発信者の情報に関して考える。まず,匿名よりも実名の情報発信者の方が一般に信頼できると考えられるため,情報発信者の名称を提示すべきである。また,例えば,「ディーゼル車は環境に良い」という着目言明の場合,「自動車メー カー勤務の技術者」のような専門知識をもっているであろう情報発信者の方が信頼できると考えられるため, 情報発信者の専門性を示す属性情報も提示すべきである。しかしながら, 文書内に記述されていない情報をシステムが自動的に推測することは困難であるため, 文書内の記述を抽出する形式で名称や属性情報を提示することとした. 情報発信者の名称や属性情報に加えて, 情報発信者の同一性の情報も言明の信憑性を判断する上で重要な情報である。例えば,ある言明が多くのWeb文書に存在していたとしても,その言明が同じ情報発信者(同一発信者)によるものであった場合, 多くの人々が支持する言明とみなすことはできない. したがって,仮に情報発信者の名称が異なっていても,Web 文書のURL や記述のスタイルなどから同一発信者であることが推測できるのであれば,その情報を提示すべきである。それゆえ, 個々の言明の情報発信者の名称と属性情報に加えて, 同一発信者を識別できるようなアノテーションを行うこととした. ここで問題となるのは, アノテーションする情報発信者の単位である. 情報発信者には, ウィキペディア7や,2 ちゃんねる8といった情報を発信した場所を示す Webページ単位の情報発信者と, 掲示板における投稿やコメントごとの書き手を示す記事単位の情報発信者が存在する.出版に例えるならば, 前者は発行者としての発信者, 後者は著者としての発信者とみなすことができる。どちらの情報発信者も,信憑性を判断する上で重要な情報であるが,サーベイレポー トには,より詳細な単位である著者としての発信者を優先して提示すべきであると考えた。また, 政府の発表や会社の広報など,発信される情報の中には,発信者個人の情報よりも企業や団体などの所属する組織の情報の方が重視されるものがあり,その観点から個人発信者と組織発信者に区分する必要がある。一例を挙げると, 「A 大学の学生である山田太郎が 2 ちゃんねる  表 1 情報発信者の情報の例 に書いた記述」の情報発信者は, 表 1 に示す情報になる。したがって, これらの情報に関するアノテーションを行うこととした。なお,引用が存在する記述,例えば,「チョムスキーは『文法の構造』の中で『無色の緑の概念が激しく眠る』と書いた」という「2ちゃんねるでの山田太郎の記述」の場合でも,以下の理由から「2ちゃんねる」を発行者としての発信者, 「山田太郎」 を著者としての発信者とすることとした。『無色の緑の概念が激しく眠る』といった引用記述の情報発信者を「チョムスキー」や『文法の構造』とするためには,「チョムスキー」や『文法の構造』という情報発信者の存在や, 実際に当該の記述が書かれているかといった点を確認する必要がある.こういった確認を行うためには Web 以外の情報源にあたる必要がある上に,そもそも「隣の B さんが言った」などの現実的に確認が不可能な引用記述も存在する。一方で,引用という形式をとっていても,当該の記述を「2ちゃんねる」に「山田太郎」が書いたことは確認できる事実である。それゆえ, 引用された記述の情報発信者に関しても, 引用している記述の情報発信者とすることとした. ## 3.2.6 アノテーションの質の管理 これまで述べてきたように,サーベイレポートコーパスを構築する上でアノテーションすべき項目は多岐に及ぶ. それゆえ, 作業者の負担が多大なものとなり, 作業の質の低下やヒュー マンエラーなどを誘発することが予想された。そこで, 図 2 に示す専用のアノテーションッー ルを開発し利用することで, 作業者の負担を軽減し, 質の低下やヒューマンエラーなどの問題を可能な限り回避することとした. アノテーションツールは, 殆どの作業をマウス操作で行えるように設計されており,作業者が直接 XML 夕グ等を記述しなくとも良いようになっている.例えば,図 2 に示すツールの下部には, 注釈対象となる Web 文書のテキストが表示されており,重要記述や情報発信者の名称の抽出作業は, 作業者が抽出したい範囲のテキストをクリックすることで行うことができる。また, 抜粋要約の作成作業は, 抽出したテキスト群から作業者が部品となるテキストを選択し, 加工して組み合わせることで行えるようになっている. 作業者への指示は, 作業を始める前に, 文書として一人ひとりに配布し, 口頭での説明を行った. また, 事前に予想できなかった問題等が作業中に生じた場合には, 問題の内容を可能な限り具体的にメモに記録すると同時に,逐次,作業管理者に報告して指示を仰ぐよう指示した.作 渋木, 中野, 宮崎, 石下, 金子, 永井, 森情報信憑性判断支援の Web 文書向け要約生成タスクにおけるアノテーション 図 2 サーベイレポート用アノテーションツール 業管理者は, 報告された問題の解決方法を示すとともに, Wikiやメーリングリスト等を用いて,全ての作業者で問題と解決方法を共有できるようにした。ただし, 作業管理者の出張等, 指示を仰ぐことが困難な状況で, 作業が長時間中断されてしまう場合には, 生じた問題に対してどのように対処や解決したかを可能な限り具体的に記録することで作業を進めることを許可した. ## 3.3 サーベイレポートコーパス構築の手順 サーベイレポートコーパスの構築は, 第 1 回と第 2 回のコーパス構築で行っているが, 手順等が洗練された第 2 回のコーパス構築を中心に説明する. 表 2 に第 2 回のコーパス構築の手順を示す. 3.2.2 節で述べたように,絞り込みの各段階での結果を比較できるように,作業の流れ 表 2 サーベイレポートコーパス構築作業の流れ T1. 背景知識の獲得 T2. 文書の収集 T2-1. 検索クエリの検討 T2-2. 文書の収集 T3. 文書の選別 T4. 重要記述の抽出 T5. 情報発信者の名称の抽出 T6. 要約の作成 T6-1. 自由記述要約の作成 T6-2. 抜粋要約の作成 (http://www.kawakai.com/asbestos/より引用) 図 3 サーベイレポートコーパスにおける Web 文書の例(一部) はT1. から T6. へ一方向に進むものとし, 作業管理者 ${ }^{9}$ が特別に認めた場合 10 を除き, 前の段階の作業に戻ってはならないよう指示をした。 サーベイレポートコーパスには, 着目言明, Web 文書集合, 自由記述要約, 抜粋要約, 背景  図 4 サーベイレポートコーパスにおける抜粋要約の例(一部) 知識,検索クエリ,作業の疑問点等のメモが含まれている,各 Web 文書と抜粋要約には,作業結果を示す XML 形式のタグが埋め込まれている。Web 文書と抜粋要約の XML タグの一覧と文書型定義を付録 $\mathrm{A}$ に示す.3.2.6 節で述べたように,これらの夕グは,専用のアノテーションツールを通して付与される。XML タグが付与された Web 文書と抜粋要約の例を,図 3 と図 4 にそれぞれ示す。実際の文書には,もっと多数の夕グが付与されているが,紙面の都合により,各タグの代表的な例のみを示している。以下,作業の流れに従って説明する。 ## 3.3.1 背景知識の獲得 作業者は最初に,T1.において,与えられた着目言明に関して,3.2.2 節で述べた背景知識の獲得を行う。すなわち, 各作業者は着目言明に関連してどのような論点が存在し, 各論点においてどのような意見や根拠が存在しているかを調査する。この調査の結果は, 作業者ごとに把握した論点を自由記述形式で記録する。これにより,後の分析において,最終的に作成されたサーベイレポートの内容と比較することで, T2. 以降の作業において当初の論点からどのように変化したのか調査できるようになる。また, 他の作業者が獲得した背景知識と比較することで, どの程度網羅的に論点を把握していたのか調査できるようになる。サーベイレポートコーパス 表 3 獲得された背景知識の例 に収録された背景知識の例として,「アスベストは危険性がない」という着目言明において,ある作業者が獲得した背景知識を表 3 に示す。背景知識を獲得する情報源には, Web 文書に限らず,新聞記事や雑誌などあらゆる媒体を許可した。サーベイレポートコーパスには背景知識自体も収録されている. ## 3.3.2 文書の収集 T2. では,作業者が実際にどのような文書を収集したかの情報を記録する.作業者の労力を軽減するために収集する文書数に制限を設ける一方で,ある程度の論点の多様性も保証したい。一つのクエリを用いて収集した場合,そのクエリが問う論点のみに偏った文書集合になる。そこで,異なる論点を問う複数のクエリを用いて文書集合を収集し,それらを1つの文書集合にマージすることで,多様な論点を含む文書集合を決定することとした。一般に,異なる論点を問うクエリで収集した文書集合同士であっても,共通の文書が存在する,そのため,マージした後の異なり文書数は、マージする前の文書集合の要素数の総和とはならない. そこで,文書の収集を T2-1.と T2-2.の二段階で行う, T2-1. で重要記述が含まれている文書集合が検索上位に来るようなクエリを調査し,T2-2. で多様な論点の重要記述が含まれている文書集合から順にマージしていくことにより,一定量の文書集合において論点の多様性を保証しようとした。 T2-1.のクエリの調査には, 検索エンジン TSUBAKI (Shinzato, Shibata, Kawahara, Hashimoto, and Kurohashi 2008)を利用し,少なくとも 20 種類以上のクエリを調査するよう指示した. 重要記述を含む文書集合を絞り达むのに効果的なクエリが存在するか調査するために,着目言明の表現に囚われない自由な形式のクエリ11を許可した,T2-2. では,クエリごとに上位 100 件の Web 文書を収集し,多様な重要記述が含まれている文書集合から順に 500 件以上になるまで  マージするよう指示した。 また,マージした文書集合を検索するのに用いたクエリには,検索に用いなかったクエリと区別できるよう記録し,サーベイレポートに含まれた論点と含まれなかった論点の分析ができるようにした.Web 文書を識別するためにTSUBAKI の文書 ID を利用し,<Fileld>の値としている。サーベイレポートコーパスには, T2. で調査に用いた検索クエリと収集された Web 文書集合が収録されている. ## 3.3.3重要記述の絞り込み T3. と T4. では, T2.においてマージされた文書集合を対象に, 3.2 .2 節で述べた重要記述の絞り込みの過程を記録する。T3.では文書単位での絞り込みの結果, T4. では文単位での絞り込みの結果をそれぞれ記録する。より詳細な過程を観察するためには, 段落などの単位でも絞り込み, 作業の段階数を増やすことも考えられるが, 作業者の労力の観点から, 二段階で記録することとした,また,文より小さい単位での絞り込みは,実際に要約を作成する段階にならないと分からないことも多いため,T4.の段階では文単位での絞り込みに留めた。絞り込みの際には,たとえ同一の表現を持つ文書や文であっても,異なる出典のものを網羅的に選別・抽出した. これにより, システムによる重要文書の選別や重要文の抽出などを評価する際の再現率の計算を可能にしている.T3. で選別された文書は $<$ Fileld $>$ の属性 Selected の値を 1 としており, 選別されなかった文書は 0 としている。 T4. で抽出された重要記述は $<$ Passage> で囲っており,属性 Passageld には文書ごとに 1 から通し番号を割り当てている。なお, T4. で抽出された重要記述は,アノテーションツールの内部で抽出元の文書と文書中の位置の情報を保持しており,T6.において抜粋要約を作成する際の部品となる. ## 3.3.4 情報発信者の抽出 T5. では, T4. で抽出された重要記述を含む文書集合を対象に,3.2.5 節で述べた情報発信者に関する作業を行う,情報発信者の情報の内,同一発信者に関しては複数の文書における情報発信者を参照しなくてはならないのに対し,同一発信者以外の情報は文書内の記述を参照するたけで作業できる。それゆえ,各文書を参照して同一発信者以外の情報を抽出した後,抽出された情報発信者を参照して同一発信者と思われる情報発信者をグループ化するという流れで行った. 作業者の負担を軽减するために, 発行者としての発信者は文書の URLのみで識別することとした,著者としての発信者は,個人発信者と組織発信者それぞれの名称と属性情報を文書中の記述から抽出することとし,もしも文書中の記述に存在しないならば不明のままとした. 作業者には,抽出すべき属性情報として,個人発信者であれば,役職,年齢, 性別など, 組織発信者であれば,業種,所在地などを例として示した,また,個人発信者と組織発信者のどちらを重視すべきかの情報を付与した,情報発信者の情報は<Holder>に記録されており,属性 Localld は文書ごとの番号, 属性 Globalld は全文書を通しての番号を示している。属性 P1Element と属 性 P2Element は抽出された個人発信者の名称と属性情報,属性 O1Element と属性 O2Element は抽出された組織発信者の名称と属性情報をそれぞれ示しており,これらの名称または属性情報を構成する文字を,0を開始位置とした文書中の位置情報とともに示している。例えば,図 3 の 4 行目の <Holder> の場合,「川口解体工業株式会社」という組織発信者の名称を構成する「川」 の文字が 0 文目の 15 文字目にあることを「川_0_15」と示している.属性 OrgHolder の値は,組織発信者側を重視する場合は 1 ,個人発信者側を重視する場合は 0 としている。属性 LocalName は, 作業者がサーベイレポートで提示するのに最適と思われる情報発信者の名称を示している.同一発信者に関しては,複数の文書に及ぶ情報であるため,T6. で作成される抜粋要約中の属性 SameHolder に示している。なお, T4.の重要記述と同様に,アノテーションツールは,抽出された情報発信者に関する抽出元の文書と文書中の位置の情報を保持している. ## 3.3.5 要約の作成 T6. は, 情報信馮性判断支援のための要約を作成する作業である. 3.2 .4 節で述べた, 自由記述要約と抜粋要約の 2 種類の要約を作成するため, 自由記述要約を作成する T6-1. と, 抜粋要約を作成する T6-2.の 2 段階で行う. T6-1. では, T4. で抽出した重要記述の集合を参照しながら, T6-2. で作成する抜粋要約と内容的に齫䶣が生じないよう, 理想とする情報信憑性判断支援のための要約を自由記述形式で作成する。一般的な要約であれば,文字数などの要約の長さに関する制約が与えられるが,情報信憑性判断支援のための要約では,読み手が信憑性を判断するための情報を得られることが何よりも優先されなくてはならない. それゆえ, 作業者には,信憑性の判断に十分な情報を含むことを優先して作成することを指示し, 自由記述要約, 抜粋要約ともに,要約の長さに関しては指示しなかった,図 5 に自由記述要約の例を示す. T6-2.では,T4. で抽出した重要記述を文字単位でさらに絞り込みながら組み合わせることで抜粋要約を作成する。抜粋要約として不要な文字列を削除した記述を組み合わせて作成するため, 抜粋要約は自由記述要約と表層的な表現が異なっても構わないとした. しかしながら, 重要記述を組み合わせる際,逆接や対比といった重要記述間の関係を明確にするため, 重要記述内には存在しない助詞や接続詞などの語句が必要となることが考えられる。そのような場合, 任意の文字列を重要記述間に挿入できるようにした。作成された抜粋要約において, 挿入された文字列は <Extra>で囲み,<Citation>で囲まれる重要記述の文字列と区別できるようにされている。 また, 重要記述の抽出元である Web 文書において, 実際に抜粋要約に用いられた重要記述の部分を <Cited $>$, 不要な文字列として削除された部分を $<$ Deserted $>$ で囲っている. 渋木, 中野, 宮崎, 石下, 金子, 永井, 森情報信憑性判断支援の Web 文書向け要約生成タスクにおけるアノテーション 「アスベストは危険性がない。」 アスベストとは、石綿とも呼ばれる天然の鉱石繊維であり、 クリソタイルやクロシドライト、アモサイトといったものが存在している。 アスベストの特徴は耐熱性や耐薬品性、絶縁性といったものがあり、 また安価な工業製品であったため、その9割以上を建材製品として使用され、 その用途には3000種類以上のものがあるといわれている。 主な使用目的とされる建築素材としては、吹き付けアスベストや、 アスベスト保温材、アスベスト形成板などが主な使用形態となっている。 このようなアスベストであるが、近年、人体に深刻な影響を及ぼすという報告がされるようになってきた。 というのも、アスベストというものは極めて微細な繊維であるため飛散性があり、また劣化しにくいという特性がある。 このため、飛散したアスベストを吸い込んだ場合、吸い込まれたアスベストが肺に刺さり、 長期間に渡って人体に残留してしまうこととなる。 この残留したアスベストが人体にとって有害なものとなっているというのである。 吸い込んだアスベストの影響により引き起こされる具体的な病例としては、 「石綿肺」や「肺がん」、「悪性中皮腫」などがあげられる。 これらは、アスベストの吸入により引き起こされるといわれているが、 すぐに発症するわけではなく、20〜40年の潜伏期間をもって発症される。 このため、アスベストは「静かな時限爆弾」といわれるほど危険性が指摘されることとなった。 このような危険性が指摘されたため、アスベストは法的な規制の対象となることとなった。 具体的には、次のようになっている。 このように、一方的に危険性が指摘されるアスベストではあるが、 一概にアスベストが危険であるというわけではないことを認識しなければならない。 というのも、アスベストが危険な理由は、その繊維が微細なものであり、 そのために極めて容易に飛散してしまうという点にある。 しかし、アスベスト自体は極めて安定な物質であるため、 飛散する心配の状態にない安定な状態であればなんら危険性はないのである。 ただし、アスベストは過去、建築の製品として使用されてきたため、 これらを処理する際には扱いに注意を払う必要はある。 実際にアスベスト製品の処理を行う際には法的な規制が存在している。 アスベストの処理に対しては具体的に、「除去」「封じ込め」「囲い込み」 といった処置が一般的なものとなっている。 以上、アスベストの危険性について述べてきたが、 確かに、アスベストが人体に与える危険性があるということは否定できない。 しかし、単純にアスベストが危険であるということを鵜吞みにし、騷ぎ立てるのではなく、 取扱いに注意しさえすればなんら危険性はないということを理解した上で、 アスベストの問題に向き合っていく必要があるのではないだろうか。 図 5 サーベイレポートコーパスにおける自由記述要約の例 ## 3.4 サーベイレポートコーパスの統計と分析 ## 3.4.1 サーベイレポートコーパス 第 1 回と第 2 回のコーパス構築で用いた着目言明を表 4 に示す. 第 1 回の時点では, 利用者が信憑性を判断したいトピックを示す単語を用いていた。しかしながら,単語を用いた場合,例えば,「マイナスイオン」のトピックにおいて,マイナスイオンが健康に良いかどうかを判断したいのか,それとも,マイナスイオンが発生するかどうかを判断したいのか,といった利用者の関心がある論点を絞り込むことができない。一般に,論点は数多く考えられるため,あらゆる論点に言及する要約を作成することとなる。そのような要約は, 利用者にとって, 関心がな 表 4 サーベイレポートコーパス構築に用いた着目言明(トピック) い論点の記述が多くを占めるものとなり, 結果として, 利用者の情報信憑性判断支援に役立たない要約となってしまう恐れがある。それゆえ,第 2 回では,論点が比較的絞り达まれている着目言明を用いることとした.また,「レーシック手術は安全である」と「レーシック手術は痛みがある」のように,「レーシック手術」という大きなトピックに包含される着目言明を用意することで,論点の違いによる影響を調査できるようにした,以下では,第 2 回のコーパスを中心に説明する。 1 つの着目言明には, 3.2.3 節で述べたプーリングに相当する結果を得るために,4名の作業者を割り当てた,作業者は,情報工学を専攻する大学生及び大学院生である.1 名の作業者が 1 つの抜粋要約を作成するために, T2. で収集した Web 文書集合の 1 着目言明あたりの平均文書数は 532.0 文書であり,収集された全 Web 文書の文字数を合計した値は 1 着目言明あたり平均して約 280 万文字であった. 作成された抜粋要約の 1 着目言明あたりの平均文字数は 2,564 文字であるため, 最終的に約 $0.1 \%$ の要約率となるが, 段階的に絞り込みを行っているため, 実際はもっと緩やかな要約過程となる. T3.の段階で選別された文書数は平均して 177 文書となり, T4.の段階で抽出された文の合計文字数は 1 着目言明あたり平均して 57,121 文字にまで絞り达まれている。したがって,T4.から T6.への過程での要約率は約 $4.5 \%$ となった. ## 3.4.2収集された文書集合における論点の多様性に関する考察 ここで,収集されたWeb 文書集合に打ける論点の多様性について考察する。図 6 に,第 2 回のコーパス構築で用いた 6 つの着目言明をクエリとして, それぞれ検索した上位文書の件数と,文書中に存在する着目言明に関する論点の異なり数の関係を示す。論点の有無は,第二著者および情報工学を専攻とする大学院生 2 名が実際に文書を読むことで判断した. 着目言明の違いによる差はあるが, 全体として最初の 30 文書までに殆どの論点が現れており, それ以降, 新しい論点は殆ど出現せず飽和状態となっている. 3.3 節で述べたように,T2.では,作業者が多様な論点を含むと考える複数のクエリを用いて 100 文書ずつ収集することにより要約対象となる文書集合を決定している。したがって,収集されたWeb 文書集合は,論点の多様性をある程度保証していると考えられる。 渋木, 中野, 宮崎, 石下, 金子, 永井, 森情報信憑性判断支援の Web 文書向け要約生成タスクにおけるアノテーション 検索文書数 図 6 検索文書数と論点の異なり数の推移 ## 3.4.3作業者間の一致率に関する考察 次に,各作業者が収集した Web 文書集合を絞り达む過程における作業者間の一致率について考察する.3.2.2 節で述べたように,絞り达みの過程が作業者によって大きく異なるならば,安定した自動要約を実現するのが困難になる。そのため,文書単位での選別を行った $\mathrm{T} 3$. の段階における一致率を Fleiss' kappa を用いて計算した,結果として,0.23,すなわち,低い一致率を示すこととなった. また, 要約の最終過程である T6.の段階における一致率を以下の 2 種類の方法で評価した. 第一の方法は, ROUGE-1による評価である. ROUGE-1 は, 二つの要約の間で一致する 1-gram の割合を示した自動評価手法であり,自動要約の評価型ワークショップである $\mathrm{DUC}^{12}$ 等においても用いられている,6つの着目言明を対象として, 着目言明ごとに, 二つの抜粋要約の組に対してそれぞれ計算し, 全ての組の值を平均した結果, 0.40 の值を示した. 0.40 という值は, 2005 年から 2007 年の DUC において最も成績が良かった手法の ROUGE-1 の値と同程度の値である。本論文が人手による要約の間の一致であるのに対し, DUCが自動生成された要約と正解  表 5 「レーシック手術は安全である」に関する抜粋要約中の論点の一覧 となる要約との一致である点を考慮する必要があるが, 全体として比較的一致した要約が作成されていると考えられる。 ROUGE は表記の一致による評価であるため, 論点が一致しているかどうかまでは保証しない. そこで,第二の方法として,抜粋要約間で共通している論点の数による評価を行った。評価の対象は, 労力の観点から, 第 2 回のコーパス構築で作成された抜粋要約のみを対象とした.論点が共通しているかどうかを判断する際には, 論点の粒度が問題となる。例えば, 「レーシック手術」などのトピックレベルの粗さで論点を捉えた場合, 殆どの記述が共通の論点となってしまう。共通性を判断するのに適した粒度をトップダウン的に決定することは困難であるため,我々は,以下に述べるボトムアップ的な方法で論点を決定した。まず,実際に各々の抜粋要約を読み,「レーシック手術の種類」や「レーシック手術の方法」といったサブトピックレベルの粒度で, 抜粋要約の内容を論点の候補として網羅した. 次に, 二つの抜粋要約を比較して, サブトピックレベルでは同じ論点の候補であっても,書き手が伝えたいであろうポイントが異なる記述が一方にしか存在しない場合は, さらに論点の細分化を行った. 例えば, 「レーシック手術により起こりうる合併症」というサブトピックであっても, その「原因」に言及する記述が, 渋木, 中野, 宮崎, 石下, 金子, 永井, 森情報信憑性判断支援の Web 文書向け要約生成タスクにおけるアノテーション 表 6 サーベイレポートコーパスにおける情報発信者の延べ注釈数 一方の抜粋要約には存在するがもう一方には存在しない場合,「レーシック手術により起こりうる合併症の原因」という論点を別に設定した。 以上の論点に関する作業は, 第二著者および情報工学を専攻する大学院生 1 名により行った. 表 5 に,AからDの4名の作業者が作成した「レーシック手術は安全である」に関する抜粋要約に含まれる論点の一覧と, 各作業者の抜粋要約に各論点が含まれるか否かを示す.また, 付録 B として,他の5つの着目言明に関する抜粋要約に含まれる論点の一覧を収録した。表中の 「○」で示される論点が抜粋要約に含まれている論点である.「レーシック手術は安全である」の場合, 全部で 20 の論点があり, 4 つの抜粋要約全てに共通して含まれている論点の数は 3 であり, 2 つ以上の抜粋要約に共通している論点の数は 11 であった. 6 つの着目言明全体では, 全部で 65 の論点があり,4つ全てに共通している論点は 9,2 つ以上に共通している論点は 34 であった。したがって,比較的共通した論点に関する要約が作成されていると考えられる. ## 3.4.4 情報発信者に関する考察 情報発信者に関する延べ注釈数を表 6 に示す. 抽出された 4,061 の重要記述の内, 何らかの情報発信者の注釈があるものは 3,067 (約 $75.5 \%$ ) であった. また, 発行者としての発信者は 871 ,著者としての発信者は 3,049 であった. 1 つの重要記述に, 発行者としての発信者と著者としての発信者の両方が注釈される可能性があることに注意されたい. したがって,特定できた情報発信者の殆どは著者としての発信者であるといえる.著者としての発信者の内,個人発信者が注釈されたものは 776 , 組織発信者が注釈されたものは 2,503 であった. ここでも, 個人発信者と組織発信者の両方が注釈された発信者がいることに注意されたい. したがって,著者としての発信者の多くが組織発信者であり,個人発信者は比較的少なかった.また,著者としての発信者 3,049 の内,作業者が組織発信者側を重視すると判断した場合も 2,217 存在することから, 組織発信者の重要性が伺える。また, 名称がある個人発信者は 731 , 属性情報がある個人発信者は 182 , 名称がある組織発信者は 2,490 , 属性情報がある組織発信者は 73 であった。ここでも,名称と属性情報の両方が注釈された発信者がいることに注意されたい.個人発信者と組織発信者の両方で,属性情報より名称が記述されている割合が高いが,組織発信者の場合,属性情報の記述は極めて少ない(約 $2.9 \% )$ といえる. また, 同一発信者が存在すると注釈された個人発信者と組織発信者の数は,それぞれ 139 と 556 であった. したがって,無視できない割合で同一発信者の存在があるといえる。 情報信憑性判断において, 同一発信者が互いに矛盾するような主張を行っているかどうかは興味のあるところである。そこで, 抜粋要約に用いられた重要記述の情報発信者を対象に, 矛盾するような記述がないか調査した。 6 つの着目言明における全ての抜粋要約に対して調査した結果,矛盾するような記述を見つけることはできなかった,今後,全ての情報発信者を対象に調査したいと考えている。 ## 4 調停要約コーパスの構築 ## 4.1 調停要約コーパス構築の背景 第 1 回と第 2 回のコーパス構築では, 着目言明に関連する論点を網羅することに主眼を置いた要約を作成した。そのようにして作成された要約を分析した結果, 自分の意見の正当性を主張するために,対立意見に反論するのとは異なる,第三者視点から公平に両方の意見に言及している記述が存在することが分かった。例えば,着目言明「アスベストは危険性がない」に関する要約には,「アスベストの成分は石や土と同じ成分であり甜めたり触ったりしても毒ではありません」という記述と,「人体への有毒性が指摘されているアスべスト」という記述が含まれており,一見すると互いに矛盾しているように見える。しかしながら,それらの記述とは別に,「アスベストの毒性は, その成分ではなく, その形状と通常の状態では半永久的に分解や変質しない性質によるものです」という記述を提示することで, 両方の記述が,化学的性質を述べたものか, それとも, 物理的性質を述べたものかという視点の違いによる疑似対立であることを読み手に伝えることができる。この疑似対立である場合に,両立できる視点や状況を示すという考え方は, 従来研究にない新しい考え方であることから, 両立できる視点や状況に関する記述の提示を調停要約と定義し, 情報信憑性判断支援のための要約の主軸とすることとした. なお, 疑似対立であるか否かの最終的な判断は, 利用者が行うことを想定している。 ある調停要約を利用者が読んで, 両立できる視点や状況が存在することを納得できるならば, 調停要約に書かれている対立は, 少なくともその視点からの調停が可能な疑似対立である. したがって, システムは, 着目言明と対立言明の関係が疑似対立であると仮定して調停要約を生成し, 利用者は, 生成された調停要約を読んで疑似対立であるか否かを判断することを想定している. 着目言明: 朝バナナダイエットでダイエットできる? 「バナナのカロリーは低い」という点で一見対立していますが、以下の説明で対立が解消できるか調べましょう。 図 7 調停要約を中心とした情報信馮性判断支援のための要約の例 図 7 に「朝バナナダイエットでダイエットできる」を着目言明とした場合の調停要約を中心とした情報信憑性判断支援のための要約の例を示す. 図 7 中の, $(\mathrm{P}),(\mathrm{N}),(\mathrm{M})$ のボックス内の記述は,実際の Web 文書から抽出された記述であり,それ以外の記述は作例である。着目言明を肯定する根拠として「バナナは低カロリーで満腹感があります」,また,否定する根拠として 「バナナは果物の中では水分が少ないためカロリーは高めです」という記述がそれぞれ Web 上に存在していたので,対立関係にあるようにみえるとして,該当する記述を $(\mathrm{P})$ と $(\mathrm{N})$ のボックス内に表示している。また,(M)のボックス内が調停要約として Web上に存在する文書から抜粋された記述である。 Web 上には,こういった対立関係について,それらが両立可能であることを示した記述が存在していることがあり,そのような記述をパッセージ単位で抜粋して提示するというのが調停要約の基本的な考え方である。図 1 のコメント部分の生成も将来における課題であるが,まずは調停要約の中核となる $(\mathrm{P}),(\mathrm{N}),(\mathrm{M})$ の部分の記述を生成することを目的として,調停要約コーパスの構築を行うこととした。 ## 4.2 調停要約コーパス構築の課題 ## 4.2.1調停要約とサーベイレポートとの関係 調停要約は, 図 1 における, 利用者が論点を判断する際に役立つ要約の一種である.したがって, 調停要約コーパスの構築においても, 3.2 節に述べたサーベイレポートコーパスの構築と同様の問題が存在し, その対応も 3.2 節や 3.3 節で述べたのと同様に行うことができる. ## 4.2.2 対立関係の詳細化 調停要約を作成する上での固有の問題としては,以下の問題が挙げられる。まず,調停という性質上, 網羅すべき論点として, 対立関係にある言明の組が主となる。このとき, 着目言明との対立関係を示す軸(対立軸)は 1 つとは限らないことに注意されたい。例えば,「ダイエット」に関する文書集合においては,「瘦せる vs. 太る」という対立軸の他にも,美容観点の「美しいvs. 醜い」, 医療観点の「健康 vs. 病気」といった対立軸が考えられる。したがって,「ダイエットする」を支持する内容として, 「瘦せる」,「美しい」,「健康」といった記述,「ダイエッ卜する」と対立する内容として,「太る」,「醜い」,「病気になる」といった記述を全て抽出することとした。 ## 4.2.3 対象文書に関する変更 調停要約の作成における別の問題としては, 対立関係にある言明の組を網羅するために収集した文書集合中に, 調停要約として適切な記述(調停記述)を含む文書が存在するかが保証されていないことが挙げられる。 それゆえ, 論点を網羅するための文書収集とは別に, 調停記述を含む文書(調停記述文書)を収集する過程が必要となる。また,調停記述文書を適切に収集するためには, 作業者が事前に対立関係をどのように調停できるかに関する知識(調停知識)をもっていることが望ましい. しかしながら, 調停知識を得るためには, その前提として, どのような対立関係が存在するかを把握していなくてはならない. 以上の考えから, 着目言明と対立関係にある言明(対立言明)を網羅的に抽出した後に,調停知識の獲得,および,調停記述文書の収集を行うこととした。 本来であれば,サーベイレポートコーパスの構築と同様に,作業者には着目言明のみを与えて, 背景知識の獲得を行った後, 対立言明を網羅的に抽出するための文書の収集から作業を開始することが望ましい.しかしながら, その後に続く, 調停知識の獲得, 調停記述文書の収集を考慮すると作業者の負担が著しく増大する。また,対立言明の抽出対象となる文書集合が作業者間で異なる場合, 作業者が把握する対立関係に差が生じるため, 収集された調停記述文書の作業者間の比較が困難になると考えられる。それゆえ,着目言明に加えて,対立言明を網羅的に抽出するための初期文書集合を,4.3.1 節に述べるように与えることとした. ## 4.2.4 抜粋要約に関する変更 Kaneko et al.(2009)において, 調停要約には, 一つのパッセージで両立可能となる状況を明示的に説明する直接調停要約と, 状況の一部を説明するパッセージを複数組み合わせて状況の全体を暗に示す間接調停要約の 2 種類があると定義している. 間接調停要約の方が, どのようにパッセージを組み合わせるかといった点を考慮しなくてはならないため, 要約生成過程において分析する項目が多くなる一方で, 直接調停要約の方が, 一つのパッセージで全てを説明しな 渋木, 中野, 宮崎, 石下, 金子, 永井, 森情報信憑性判断支援の Web 文書向け要約生成タスクにおけるアノテーション 図 8 調停要約用アノテーションツール くてはならないため, 正解となりうるパッセージの数は少なくなる,それゆえ,第 3 回のコー パス構築では, 要約生成過程の分析を優先して, 複数のパッセージを組み合わせて抜粋要約を作成することとし, 第 4 回のコーパス構築では, 直接調停要約の正解情報作成に焦点を絞って,一つのパッセージで正解となるパッセージの抽出をもって抜粋要約を作成することとした. ## 4.2.5絞り込み過程のシームレス化 サーベイレポートコーパスの構築作業において, 絞り达みの過程を観察するために, T3. での文書単位での選別と T4. での文単位の抽出とを別の段階での作業としていた. しかしながら,作業者からは,本文を読んで文書を選別する際に,重要記述を含む文についてもある程度判断できるため, 二度手間のような作業になり, 両者を区別せずに行いたいという要望が出されていた。そこで,第 4 回のコーパス構築に用いたアノテーションツールには,各段階の作業ログを自動的に記録する機能を実装することとした。作業ログには,対象文書や作業内容の情報に加え, マウスとキーボードの操作レベルの情報が記録されている. 図 8 と図 9 に, 第 4 回のアノテーションツールと作業ログの例をそれぞれ示す. 図 9 のログから, 作業者は, 「飲酒は健康に良い」という着目言明の T2.(対立関係にある言明の抽出)において, ID:01217676-1の文書を開き,4文目の 1 文字目から 48 文字目までをドラッグして言明を抽出したことが分かる.図 8 に示すように,表示の都合上, ツール上の行番号と文番号が必ずしも一致するわけではないため,ログには文番号と文字位置に加えて,括弧内にッール上のカーソル座標を記録している。 図 9 作業ログの例 続く作業では, 7 文目の 11 文字目から 34 文字目, 8 文目の 4 文字目から 60 文字目を抽出した後,9行目までスクロールさせて,9文目の 1 文字目から 22 文字目を抽出していることが分かる。また, 図 9 の作業者が, 最初に文書全体を読んでから抽出せずに,読み進めながら逐次的に抽出している様子が読み取れる。したがって,作業ログを分析することで,どの文書のどの部分にどのような作業を行ったかといった内容を復元できる. これにより, 第 4 回のコーパス構築では, 作業者は, 文書単位や文単位といった作業段階を意識することなく, 自然に重要記述の絞り込みを行うことが可能となった。 ## 4.2.6情報発信者に関する変更 第 4 回のコーパス構築では, 情報発信者に関して, 調停要約を主軸としたことによる若干の修正を加える。第 3 回までのコーパス構築では,3.2.5 節で述べたように,幅広く情報発信者の情報の抽出を行った. しかしながら, 第 4 回のコーパス構築では, 調停要約の情報発信者として必要と思われる情報として,著者としての発信者における,名称,組織発信者か否か,専門的知識を備えている(専門的発信者)か否か, 調停者として第三者の立場から公平に述べてい 表 7 調停要約作成作業の流れ T1. 背景知識の獲得 $\mathrm{T} 2$. 対立関係にある言明の抽出 T3. 調停知識の獲得 T4. 調停記述文書の収集 T5. 調停記述の抽出 T6. 情報発信者の抽出 $\mathrm{T} 7$. 同一発信者の判断 T8. 自由記述要約の作成 T9. 直接調停要約の分類 T10. 直接調停要約の評価 る(調停的発信者)か否か, の 4 種類に整理した。また, 情報発信者として提示すべき情報に加えて, これらの情報を何を手掛かりとして抽出したかに関する情報も, システムが自動的に提示する上で必要である。それゆえ, 情報発信者の情報を抽出する際に, 抽出の手掛かりとなった記述も合わせて抽出することとした。 ## 4.3 調停要約コーパス構築の手順 調停要約コーパスの構築は, 第 3 回と第 4 回のコーパス構築で行っているが, 手順等が洗練された第 4 回のコーパス構築を中心に説明する. 作成作業は表 7 に示す 10 段階で行うこととし, サーベイレポートコーパスの構築と同様に, T1.から T10. へ一方向に進む流れで作業を行った.調停要約コーパスには, 着目言明, Web 文書集合, 調停要約文書, 背景知識, 調停知識, 検索クエリ,作業の疑問点等のメモ,作業ログが含まれている。Web 文書と抜粋要約の XML タグの一覧と文書型定義を付録 Cに示す。また,実際に,XML タグが付与された Web 文書と調停要約文書の例を, 図 10 と図 11 にそれぞれ示す. 以下,作業の流れに従って説明する。 ## 4.3.1 背景知識の獲得 最初に,各作業者には,着目言明と初期文書集合を与えた。初期文書集合を決定するにあたり,初期文書集合の決定する人物の意思が作業者に影響を及ぼさないよう機械的に求めることとし,着目言明をクエリとして検索した上位 250 件の Web 文書を初期文書集合とした。初期文書集合に含まれる Web 文書には,<Fileld>の属性 Common の値を 1 として, T4. で各作業者が独自に収集する Web 文書と区別できるようにしている,T1.では,対立言明を公平な視点から網羅的に抽出できるよう,各作業者は着目言明に関連してどのような論点が存在し,各論点においてどのような意見や根拠が存在しているかの背景知識を獲得する。獲得された背景知識は,作業者ごとに自由記述形式で書かれ,調停要約コーパスに収録されている。 <Data version="3.0" year="H22"> <Fileld Common="1" IsConflictExtracted="1" IsMediationExtracted="1" IsSender="1">24992583-1</Fileld> <ConflictList> <Conflict Sentenceld="10" Start="0" Length="12">酒は百薬の長といわれます</Conflict> </ConflictList> <MediationList> <Mediation Type=“Direct” Sentenceld=“25” Start=“0” Length=“212”>少量のお酒がいいのは、今のところ、心筋梗塞、脳梗塞だけのようです。肝藏疾患やガン(喉頭がん、食道がん、胃がん、肝がん、乳がん)では、少量の飲酒でもリスクが高くなることが知られています。お酒は飲まない方が良いのです。健康のために無理に飲むのは意味がないお酒で心筋梗塞や脳梗塞にならなくても、ガンになったら意味はないでしょう。死亡原因に占める心筋梗塞や脳梗塞とガンの割合はほぼ同じなので、一概にどっちがいいかは特定できません </Mediation> </MediationList> <MediationKeyExpressionList/> <SenderList> <Sender Type="Page" Sentenceld="2" Start="0" Length="10" IsOrganized="1" IsExpert="1" IsMediator="1">株式会社フォーエルズ</Sender> </SenderList> <SenderKeyExpressionList> <SenderKeyExpression Sentenceld="63" Start="0" Length="13">Copyright(c)</SenderKeyExpression> </SenderKeyExpressionList> <SenderExpertKeyExpressionList> <SenderExpertKeyExpression Sentenceld="13" Start="0" Length="4">心筋梗塞</SenderExpertKeyExpression> </SenderExpertKeyExpressionList> <SenderMediatorKeyExpressionList/> $<$ Text> <Sentence Id="1"> | HOME | CONTACT |</Sentence> <Sentence Id="2">株式会社フォーエルズ/健康食品・サプリメントと販売促進支援</Sentence> <Sentence Id="3">Live ! </Sentence> <Sentence Id="4">Like ! </Sentence> <Sentence Id="5">Life ! </Sentence> <Sentence Id="6">Link ! </Sentence> <Sentence Id="7">TOPページ> > お酒の適量</Sentence> <Sentence Id="8">お酒の適量</Sentence> <Sentence Id="9">酒は百薬の長か</Sentence> <Sentence Id="10">酒は百薬の長といわれます。</Sentence> <Sentence Id="11">数年前にはワインブームもありました。</Sentence> $<$ /Text> </Data> 図 10 調停要約コーパスにおける Web 文書の例(一部) 図 11 調停要約コーパスにおける調停要約文書の例(一部) ## 4.3.2 対立関係にある言明の抽出 T2.では, 与えられた初期文書集合から着目言明を支持する内容の言明と対立する内容の言明を文字単位で網羅的に抽出する,抽出された言明は,<Text>で囲まれた本文とは別の<Conflict>内に記述され,属性 Sentenceld に抽出元の文番号,属性 Start に言明の開始位置, 属性 Length に言明の長さが記されている. ## 4.3.3 調停知識の獲得 T3. では,T2. で抽出された言明がどの対立軸に関する内容であるかに基づいて人手でクラスタリングを行った後, 各クラスタの対立軸に関する調停知識の獲得を行う.クラスタリングは, 1つの言明が複数の対立軸に属することを許可しており, クラスタ内の言明に対しては, 着目言明を支持する内容であるか, それとも, 着目言明と対立する内容であるかの極性を付与している。また,各クラスタの対立軸を表現する「ディーゼル車は環境に良いvs. ディーゼル車は環境に悪い」といった形式のラベルを付与する,以下に,クラスタリングの方法を例を用いて説明する。例えば,「ディーゼル車は環境に良い」という着目言明の初期文書集合から,「ディー ゼル車排出ガスは東京の空を污す最大の要因になっています」という言明が抽出されたとする. この言明から, 作業者は「ディーゼル車は大気污染の原因でないvs. ディーゼル車は大気污染の原因である」といった初期文書集合中に対立する内容の記述が存在していそうな対立軸の候補を幾つか設定し,それぞれにラベルを付与する。また,当該の言明は着目言明と対立する内容であるという極性を付与して,任意の数の対立軸の候補に属させる。抽出された全ての言明を対立軸の候補に属させた後, 同じ対立軸に属する言明群を一つのクラスタとした 各作業者には, 対立関係の曖昧性がなくなるように任意の数の対立軸を独自に設定できるよう許可した. ただし, 3 つの対立軸に関しては, T4. 以降の作業者間の比較を容易にするため,事前に我々が初期文書集合を調査した結果に基づいて予め 3 つの対立軸を設定し,初期文書集合と共に作業者に与えている. クラスタの情報は, 調停要約文書の <Conflict>で示され, 対立軸のラベルは <Label>,クラスタ内の言明は <Statement>に記述されている,<Statement>の属性は, Web 文書の同名夕グと同一であるが,抽出元の文書番号を示す属性 Fileld と, 着目言明の支持/対立の極性を示す属性 Polarity が追加されている. 各作業者は, 独自に設定した対立軸ごとに,両立可能となりうるか,なるとすればどのような状況かといった調停知識を調査した後, 疑似対立である対立軸を独自に見つけて,その中から 2 つを選び,与えられた 3 つの対立軸に追加して, 計 5 つの主要対立軸に対して調停要約を作成することとした. なお, 事前に与えた 3 つの対立軸に対して, 独自に追加する対立軸を 2 つに限定したのは, 作業者の労力を考慮したものである. 獲得された調停知識は, 作業者ごとに自由記述形式で書かれている。調停要約コーパスに収録された調停知識の例として,「飲酒は健康に良い」という着目言明において,ある作業者が獲得した調停知識の一部を表 8 に示す. 表 8 の「○」で示された対立軸は主 表 8 獲得された調停知識の例 & & D \\ 要対立軸を示す。 ## 4.3.4調停記述文書の収集 4.2 .3 節で述べたように,対立関係にある言明を網羅するための初期文書集合は調停要約として適切な記述を必ずしも含んでいるとは限らない。そのため,T4.において,調停要約の記述を含むような文書集合を任意のクエリを用いて検索し,初期文書集合に加えることとした。すなわち, この段階で要約対象となる文書集合が確定し, 作業者ごとに差異が現れることとなる.具体的には, T3. で選択した主要対立軸ごとに, TSUBAKI での検索結果から, 調停要約の対象となる文書集合を求めるのに最適と思われるクエリを 1 つ決定し,そのクエリによる上位 50 件の文書を初期文書集合に加える。したがって,5つの対立軸で 250 件の文書が加えられるこ とになるが, 重複する文書の存在があるため, 要約対象となる文書数は最終的に 500 弱となる.追加された Web 文書は,<Fileld>の属性 Commonの値を 0 としている。 ## 4.3.5調停記述の抽出 T5. では, 調停要約として適切な記述を 1 つのパッセージ(調停パッセージ)として抽出する. 4.2.4 節で述べたように, 第 4 回のコーパス構築作業では, 直接調停要約の正解情報となる, 1 つパッセージで両立可能となる状況を明確に説明するタイプの調停要約の作成を対象としている. したがって,調停要約の一部として必要な記述ではあるが,その記述だけでは両立可能であることを明確に伝えられない記述は調停パッセージとして抽出しなかった. なお, 調停要約の一部として必要な記述の抽出, および, それらを用いた調停要約の作成は, 第 3 回のコーパス構築で行っている. また, 調停パッセージの抽出の際, その記述がなぜ調停パッセージとして適切と判断したのかの手掛かりとなった文字列も抽出している。抽出された調停パッセージは, <Mediation>内に,調停パッセージの判断の手掛かりとなった文字列は,<MediationKeyExpression>内にそれぞれ記述され,どちらの記述も<Statement>と同じ属性 Sentenceld, 属性 Start, 属性 Length により抽出元の情報を保持している。また,<Mediation>の属性 Typeの値をDirect として直接調停要約であることを示している. ## 4.3.6 情報発信者の注釈 T6. では,T5. で抽出された調停パッセージを含む文書集合を対象に,情報発信者に関する情報,および,その手掛かりとなる記述の抽出を行う. 情報発信者の名称となる記述を抽出し,その情報発信者が,組織発信者であるか,専門的発信者であるか,調停的発信者であるかを,それぞれ文書中の記述から判断する。また,その抽出や判断の手掛かりとなった記述もそれぞれ抽出した.情報発信者の名称は,<Sender>内に記述され,<Statement>と同じ属性 Sentenceld,属性 Start, 属性 Lengthにより抽出元の情報を保持している. 情報発信者が組織発信者である場合は, 属性 IsOrganization の値を, 専門的発信者の場合は属性 IsExpert の値を, 調停的発信者の場合は属性 IsMediatorの値をぞれぞれ 1 としている。また, 名称, 専門的発信者, 調停的専門者の判断の手掛かりとなった記述を, <SenderKeyExpression>, <SenderExpertKeyExpression>, <SenderMediationKeyExpression>に,抽出元の情報とともに記述している. T7. は,同一発信者と思われる情報発信者のグループ化を行うが, 3.3 節のサーベイレポートコーパス構築と同じ作業であるため説明を省略する。 ## 4.3.7調停要約の作成 T8. では, T3. で選択した主要対立軸ごとに, 理想とする調停要約の自由記述要約を作成する.自由記述要約は, 調停要約文書の $<$ Mediation>の一つに, 属性 Type の値を Model として調停 表 9 調停要約コーパス構築に用いた着目言明 パッセージと区別できるように記述されている. T9.では,T5. で抽出した調停パッセージが,T3. で選択した主要対立軸の調停要約となっているかを分類する,分類は,1つの調停パッセージが複数の対立軸の調停要約となることを許可している. 分類された調停パッセージは, 調停要約文書の $<$ Conflict $>$ 内の $<$ Mediation>に記述されている. T10.では, T9.の対立軸ごとに分類された調停パッセージに対して,調停要約としての適切性の観点から全ての調停パッセージの対に対して順序を付けた.また,各パッセージに対し, T8. で作成した理想の調停要約との内容や表現などの近さを総合的に判断して, 調停要約としての適切性について 4 段階の絶対評価を行う.ランキングされた結果は,調停要約文書の<Conflict>内の <Mediation>の順序として反映されている。また, 絶対評価は, 属性 Evaluation の値として, Excellent, Good, Fair, Poorの 4 段階で示されている. ## 4.4 調停要約コーパスの統計と分析 ## 4.4.1 調停要約コーパス 第 3 回と第 4 回のコーパス構築で用いた着目言明を表 9 に示す. 調停要約は, 疑似対立である場合に両立可能となる状況を説明する要約であるため, 前提として,疑似対立となる対立言明が存在している必要がある,それゆえ,調停要約に関する着目言明は, 60 以上の着目言明の候補を対象に疑似対立の有無の調査を行い,疑似対立が存在する候補の中で多様性に富むと思われる着目言明を選択した。なお,疑似対立の有無は,客観的であるか否か,科学的に証明できるか否かなどとは別の概念であることに注意されたい。例えば,「CO2 は地球温暖化の原因である」という着目言明の場合,「CO2 の温室効果や排出量」を示して地球温暖化の原因であるとする主張と, 「氷期と間氷期のサイクル」を示して地球温暖化の原因ではないとする主張との間で疑似対立が生じている。この場合, 調停要約の例としては, 「20世紀後半の温暖化は人類の活動により排出された $\mathrm{CO} 2$ が原因であるが, 20 世紀前半の温暖化は自然の活動が原因である可能性が高い」といったものが考えられる,表 9 に示した着目言明は, 全て疑似対立が存在することを確認している。 表 10 T3. で選択された主要対立軸 & 他 20 組 \\ 調停要約コーパスの構築作業では, 1 つの着目言明に対して 4 名の作業者を割り当てた. なお, 作業者は情報工学を専攻する大学生および大学院生である。調停要約コーパスは, 4.2 節や 4.3 節で述べたように, 抽出の手掛かりとなった記述や, 操作レベルの作業ログ等の豊富な情報を含んでいるが,まだ十分な分析が行われていない,4.4.2節から 4.4.4節にかけて,「飲酒は健康に良い」を着目言明とした場合の注釈結果に基づき,以下の 3 点について分析を行う. 1 点目はT3.において各作業者が選択した対立軸に関して, 2 点目は調停要約の対象となる文書集合を決定するために T4. で用いられた検索クエリに関して, 3 点目は $\mathrm{T} 5$. で抽出された調停パッセー ジと T8. で作成された自由記述による調停要約との差に関してである. 4.4.5節と 4.4.6 節では,調停要約コーパス全体を対象として,情報発信者と作業ログに関する分析をそれぞれ行う。 ## 4.4.2 対立軸に関する考察 各作業者が,「飲酒は健康に良い」に関して,T3.で選択した主要対立軸を表 10 に示す。(a) から (c)は, 初期文書集合と共に与えられた作業者共通の主要対立軸であり, (d) と (e)が, 調停要約を作成できそうな対立軸として, 各作業者が任意に作成した対立軸から選択した主要対立軸である。主要対立軸に選択されなかった対立軸に関しては,その数だけを「他 $\mathrm{n}$ 組」のように示している。すなわち,表 10 の作業者 1 は, 22 組の対立軸を作成し,その中から (d) と (e) に示す対立軸を主要対立軸として選択している。各作業者の主要対立軸を比較すると,作業者 1 の (d) と作業者 2 の (e) を除いて, 複数の作業者が共通で主要対立軸として選択している対立軸は存在しなかった. しかしながら, 例えば, 作業者 1 の (e) は, 主要対立軸として選択してはいないが, 作業者 2 , 作業者 3 , 作業者 4 の全員が対立軸として作成しており,ある作業者が主要対立軸として選択した対立軸は全て, 表現の違いはあれど他の 3 名の作業者が任意に作成した対立軸の集合において存在していた。したがって,どのような対立軸が存在しているかに関しては作業者間で共通の認識をしているが,どの対立軸が調停要約を作成する上で重要と考え 表 11 要約対象文書集合の重複度 るかは作業者によって異なる可能性が示唆された。 ## 4.4.3検索クエリに関する考察 各作業者が要約対象とした文書集合の重複度合いを表 11 に示す。表 11 は「○」で示された作業者間に共通する文書数を表しており,1行目であれば作業者 1 が要約対象とした文書数が 495 件, 5 行目であれば作業者 1 と作業者 2 が共通した要約対象文書数が 275 件であることを示している.全作業者に共通の 254 文書の内,250 文書は初期文書集合であるため,T4.において追加された文書集合において全作業者に共通する文書数は 4 であり,検索された文書集合はほとんど重複しなかった.T5.において抽出された調停パッセージを含む文書は,異なり数で 203 文書存在した。この 203 文書の内訳は, 初期文書集合からが 66 文書, T4. で追加された文書集合からが 173 文書であった。要約対象とする文書集合の決定は調停要約の精度に影響する重要な処理であり,文書集合を決定するための検索クエリも重要な要素である. 各作業者が T4. で用いた検索クエリを対立軸ごとに整理したものを表 12 に示す. 表 12 の対立軸の記号は表 10 の記号に対応している. TSUBAKIが自然文で検索可能であることは各作業者も理解しており, T4. において 3 名の作業者が調査した計 57 クエリの内, 22 クエリは自然文でのクエリであった。しかしながら,TSUBAKI を用いた場合には初期文書集合に加えた文書集合の検索に用いたクエリは表 12 に示すように単語列であるものが多かった. この結果について各作業者に質問したところ,「最初に自然文で入力したが,思うような文書が検索されなかったため単語列で検索した」という回答であった。この原因として「飲酒健康良い悪い」の 表 12 T4. で用いられた検索クエリ 表 13 各評価における調停パッセージの延べ数 ように, 良い面と悪い面の両方を記述している文書を検索するという調停要約特有の要求を満たすクエリを文の形式で表現しにくかったことが考えられる。以上から, 調停要約として適切な記述を含む文書を検索するという観点からは,検索エンジンによる影響を考慮する必要があるが, 単語列を用いた方が適している可能性が示唆された。ただし,「飲酒糖尿病のリスクを低下」のように単語と句を組み合わせたクエリも存在したことから, 必ずしも単語列が最適というわけではない.この点に関する分析を今後さらに進めていきたい. ## 4.4.4調停要約と調停パッセージに関する考察 表 13 に,T10.のランキングにおける各評価の調停パッセージの延べ数を示す.また,内訳と 表 $14 \mathrm{~T} 8$. で作成された自由記述による調停要約 して,初期文書から抽出された数と,T4. で追加された調停記述文書から抽出された数を示す。同じ調停パッセージであっても, 対立軸が異なれば評価も異なり, 調停要約とみなされなかった場合もあることに注意されたい,作業者によるバラツキが存在するが,全体として,Fair, Poor, Good, Excellent の順に評価された数が多く, 理想の調停要約に極めて近いことを示すExcellent と評価された調停パッセージは殆ど存在しなかった。初期文書と調停記述文書の内訳から, 調停記述文書の方が比較的評価が高い調停パッセージを多く含んでいたことが分かる。しかしながら,適切な調停記述文書を自動的に検索する方法は現段階で不明であり,今後も分析を続けていきたい. 表 14 は「飲酒は健康に良いvs. 飲酒は健康に悪い」の対立軸に対してT8. で作成された理想の調停要約であり, 表 15 は同じ対立軸において T10.のランキングで 1 位となった調停パッセー 表 15 T10.で 1 位にランキングされた調停パッセージ ジである。理想とする調停要約に関しては,作業者 1 と作業者 3 が「病気の種類」という観点からも記述しているが,基本的には 4 名とも「飲酒量」という観点からまとめており,多くの人に共通する調停要約の観点が存在するように思われる。一方, 表 14 の調停要約と表 15 の調停パッセージを比較した場合,「飲酒量」などの大意は共通しているが細かな違いが生じてい 表 16 調停要約コーパスにおける情報発信者の延べ注釈数 る.また, 作業者 1 の調停要約で存在した「コレステロール」や「ワイン」などの話題は, 調停パッセージには存在していない. したがって,1つのパッセージを抽出して提示する直接調停要約の考え方に大きな問題はないが, より理想的な調停要約を生成するためには複数の調停パッセージを組み合わせる必要があると考えられる. ## 4.4.5 情報発信者に関する考察 情報発信者に関する延べ注釈数を表 16 に示す. 注釈された 3,221 の情報発信者は全て著者としての発信者であり, その内, 組織発信者であるのは 1,990 , 専門的発信者であるのは 840 , 調停的発信者であるのは 759 であった. ある発信者に, 組織発信者, 専門的発信者, 調停的発信者の 2 つ以上が注釈される可能性があることに注意されたい,組織発信者側を重視する場合に限り,組織発信者を抽出しているため, 表 16 における組織発信者の数は, 表 6 における組織発信者側を重視する場合の数に相当する。したがって,著者としての発信者における組織発信者の割合は, サーベイレポート要約で約 $72.7 \%(2,217 / 3,049)$, 調停要約コーパスで約 $61.8 \%(1,990 / 3,221)$ となり, 一般に 6 割から 7 割程度であると考えられる。また, 同一発信者が存在すると注釈された個人発信者と組織発信者は,それぞれ, 691 と 1,183 であった. サーベイレポートコーパスと同じく, 調停要約コーパスにおいても, 同一発信者は無視できない割合で存在している. ## 4.4.6 作業ログに関する考察 表 17 に, 作業ログを元にした, 各段階における作業者の行動の回数を示す. 作業ログは, 図 9 に示すように,マウスやキーボードの操作レベルで記録されているが,表 17 では, その操作がもたらす効果のレベルで示している。また, 文書から文字列を絞り込む過程に関連する作業段階と行動に限定している. 一般に, 下方向のスクロールに対する上方向へのスクロールの割合が大きいほど, 文書を何度も読み返していると考えられる。対立関係にある言明を抽出する T2.では約 $21.0 \%(39,795 / 189,079)$,調停記述を抽出する T5. では約 $14.9 \%(39,412 / 265,347)$ であったのに対し, 情報発信者を抽出する T6. では $54.1 \%(58,894 / 108,855)$ という高い值であった. 一般に, 後の作業では, 前の作 表 17 各段階における作業者の行動の回数 業で既に読んだ文書に対して作業を行うため,読み返す必要性は低下すると考えられる.T6.で上方向へのスクロールの割合が高かった理由は,以下のように考えられる.4.3.6節で述べたように,T6.では,情報発信者の名称,専門的発信者, 調停的発信者を判断する手掛かりとなった表現を抽出するよう指示している。手掛かり表現は文書中に散在しているため, 3 種類の手掛かり表現を求めて文書内を探した結果,上方向へのスクロールの割合が高くなったと考えられる. また,どの作業段階においても,抽出した文字列を取り消す行動が無視できない割合で存在している。対立関係にある言明の抽出では約 $18.1 \%(1,651 / 9,139)$, 調停パッセージの抽出では約 $23.8 \%(527 / 2,218)$, 情報発信者の抽出では約 $16.7 \%(664 / 3,978)$ であった.抽出した文字列を取り消すという行動は,必ずしも作業者が熟慮した上で行われているわけではないであろうが,取り消す行動の割合が高いほど,作業者の判断を摇らがせるような作業であった可能性がある.仮にそうであったとするならば,情報発信者の抽出に比べて,調停パッセージの抽出は判断が難しい作業であったといえる. ## 5 関連研究 コーパス構築に関する研究には以下のものがある,飯田ら(2010)は, 新聞記事を対象に, 述語項構造・共参照タグを付与する基準について報告し, 事態性名詞のタグ付与において, 具体物のタグ付与と項のタグ付与を独立して行うことで作業品質を向上させている. 宮崎ら (2010) は, Web 文書を対象に,製品の様態と評価を分離した評判情報のモデルを提案し,評判情報コーパスを構築する際の注釈者間の注釈摇孔を削減する方法について論じている。しかしながら,これらのコーパス構築の目的は, 本研究の目的である情報信憑性判断支援のための要約と異なる. 文書の書き手の意見を理解できるよう支援することを目的としてアノテーションを行う研究として, Weibe et al. (2005), 西原ら (西原, 伊藤, 大澤 2011), 松吉ら (松吉他 2010)などの研究がある. Wiebe et al. (2005) は, 意見や感情などの private state を人手でアノテーションする方法を提案し,新聞記事を対象としたMPQAコーパスにアノテーションを行った。西原ら (2011)は,文書の書き手の意見を理解することを支援するために,文書においてアノテーションを付与すべき文を推薦するシステムを提案した,松吉ら (2010) は,書き手が表明する真偽判断, 価値判断等の, 事象に対する総合的な情報を表す夕グ体系を提案し, この夕グ体系に基づくコーパスを基礎とした解析システムを開発した. Wiebe et al., 西原ら, 松吉らの研究の目的は, 本研究の目的である信憑性判断支援と関連があるが, 本研究が支援のための手段として要約を対象としている点で異なる。 要約を目的としてコーパスを構築した研究としては, Radev et al. (2004), 綾ら (綾, 松尾,岡崎, 橋田, 石塚 2005), 伊藤ら (伊藤, 斎藤 2004) などの研究がある. Radev et al. (2004) は, RST (Rhetorical Structure Theory)を文書間関係に拡張した CST (Cross-document Structure Theory)を提唱し,CSTの関係をアノテーションしたCST Bankの構築を行った。綾ら (2005) は, セマンティックオーサリングで得られたグラフを想定し, 修辞関係等を明示的に与えた複数文書に対し要約を作成する手法を提案した. しかしながら, Radev et al. や綾らは Web 文書ではなく新聞記事を対象としている。伊藤ら (2004)は, 汎用アノテーション記述言語 MAMLを提案し, 複数メール要約や動画像の検索・要約を行う研究を行っている. メーラやブラウザ等を利用する際に入力されたデータをアノテーションデータとすることで, 利用者が特に意識せずともアノテーションデータを生成できるようにした. 本研究では, 情報信憑性判断支援のための要約という新しい要約概念を対象とするため, 要約の生成過程を調査する必要があり, そのためのアノテーションを行っている点で異なる. テキストの表層的な情報を使うだけでは十分に解決できない, より深い言語処理課題においては, アノテーションの際に,アノテーションの結果だけではなく, 作業者がどのような情報を利用してアノテーションを行ったかといったアノテーション中の過程にも関心を払うことの重要性が, 徳永ら (徳永, 飯田 2013) や光田ら (光田他 2013) により指摘されている. 本研究で は, 重要記述の絞り込みの過程や, 抽出の手掛かりとなった記述, 作業中の疑問点のメモ, 操作レベルの作業ログといった,要約作成の過程に関するアノテーションを行っており,これらの情報を分析して得られた知見に基づいて調停要約生成システムの開発を行っている. Web 文書を情報源としてコーパスを構築する研究として, Ptaszynski et al. (2012), 鍜治ら (鍜治, 喜連川 2008), 関口ら (関口, 山本 2003) などの研究がある. Ptaszynski et al. (2012)は,日本語のブログを自動収集して構築した,3.5 億文からなるコーパス YACIS に対して自動的に感情情報を付与した.鍜治ら (2008)は,大規模な HTML 文書集合から評価文を自動収集する手法を提案し, 約 10 億件の HTML 文書から約 65 万文からなる評価文コーパスを自動的に構築した. 関口ら (2003) は, Web 文書中のリンク情報を手掛かりとして連鎖的に Web 文書を収集し,単語や格フレームの異なり数の点で良質なコーパスを自動的に構築した. Ptaszynski et al., 鍜治ら, 関口らの研究で構築されたコーパスは, 不特定トピックの Web 文書集合を自動的に収集して構築したものであり,着目言明に関連した Web 文書集合を人手で収集して構築した本研究のコーパスと性質が異なる. アノテーションの対象となる文書集合を決定する方法として,文書そのものを新しく作成する橋本ら (2011)の方法や, 適合文書に必須となる情報を用いる吉岡ら (吉岡, 神門 2012)の方法がある。橋本ら (2011)は,ブログを対象とした自然言語処理の高精度化に寄与することを目的として,81名の大学生に 4 つのテーマで執筆させた 249 記事のブログに, 文境界, 形態素, 係り受け,格・省略・照応,固有表現,評価表現に関するアノテーションを行った.本研究でも,自由記述要約として作業者が理想の要約文書を作成しているが, 同時に, 表層の一致による評価を行うために, Web 文書の重要記述を組み合わせた抜粋要約を作成する必要があり, 要約対象となる Web 文書集合を決定する必要があった。吉岡ら (2012)は,質問応答を目的としたテストコレクションの構築において,適合文書に必須の情報である回答を用いて検索することで,一定以上の網羅性を担保したテストコレクションが作成できる可能性を示した. しかしながら,本研究では, 情報信憑性判断支援のための要約において必須の情報が不明であったため, 適切な検索クエリを調査する必要があり,作業で用いられた検索クエリをコーパスに収録している。 情報信憑性判断支援のための要約に関するコーパス構築と分析は, Nakano et al. (2010), 渋木ら (2011) でも行っている. Nakano et al., 渋木らの分析結果は本研究の一部と共通しているが,本研究では,さらに情報発信者や作業ログ等に関する分析を進めている. ## 6 おわりに 本論文では, 情報信憑性判断支援のための要約に関する研究を行う上で基礎となる分析・評価用のコーパスを 3 年間で延べ 4 回構築した結果について, 現時点での試行の 1 つであるが報告した。情報信憑性判断支援のための要約では, 利用者が着目する言明の信憑性を判断する上 で必要となる情報を Web 文書から探し出し, 要約・整理して提示する. 情報信憑性判断支援のための要約の基礎となるコーパス構築においては, 人間の要約過程を観察するための情報と,性能を評価するための正解情報が求められており,両方の情報を満たすタグセットとタグ付与の方法について説明した。また, 全数調査が困難な Web 文書を要約対象とする研究において, タグ付与の対象となる文書集合をどのように決定するかといった問題に対して, 評価型ワークショップのテストコレクション構築で用いられるプーリングを参考とした方法を述べた. 本論文で構築したコーパスを一般公開することは, 収集した Web 文書の再配布が著作権の観点から法律上の問題がある可能性があるため, 現時点では難しい. 今後, NTCIR の WEB テストコレクションや言論マップコーパス ${ }^{13}$ の配布方法などを参考に公開の方法を検討していきたいと考えている。また, 本コーパスは, 人間の要約の作成過程を分析する上で豊富な情報を含んでいるが,その分析は充分に行われていない,今後は,さらに詳細な分析を行い,その結果を要約生成システムに反映させたいと考えている。 ## 謝 辞 本研究の一部は, JSPS 科研費 25330254 , ならびに, 横浜国立大学大学院環境情報研究院共同研究推進プログラムの助成を受けたものである. ## 参考文献 Akamine, S., Kawahara, D., Kato, Y., Nakagawa, T., Inui, K., Kurohashi, S., and Kidawara, Y. (2009). "WISDOM: A Web Information Credibility Analysis System." In the ACL-IJCNLP 2009 Software Demonstrations, pp. 1-4. Akamine, S., Kawahara, D., Kato, Y., Nakagawa, T., Leon-Suematsu, Y. I., Kawada, T., Inui, K., Kurohashi, S., and Kidawara, Y. (2010). "Organizing Information on the Web to Support User Judgments on Information Credibility." In the 4th International Universal Communication Symposium (IUCS2010), pp. 123-130. 綾聡平, 松尾豊, 岡崎直観, 橋田浩一, 石塚満 (2005). 修辞構造のアノテーションに基づく要約生成. 人工知能学会論文誌, $20(3)$, pp. 149-158. Buckley, C., Dimmick, D., Soboroff, I., and Voorhees, E. (2007). "Bias and the Limits of Pooling for Large Collections." Information Retrieval, 10 (6), pp. 491-508.  Ennals, R., Trushkowsky, B., and Agosta, J. M. (2010). "Highlighting Disputed Claims on the Web." In the 19th International World Wide Web Conference (WWW 2010), pp. 341-350. Finn, A., Kushmerick, N., and Smyth, B. (2001). "Fact or fiction: Content Classification for Digital Libraries." In the Second DELOS Network of Excellence Workshop on Personalisation and Recommender Systems in Digital Libraries, pp. 18-20. 藤井敦 (2008). OpinionReader:意思決定支援を目的とした主観情報の集約・可視化システム.電子情報通信学会論文誌 (D), J91-D (2), pp. 459-470. 橋本力, 黒橋禎夫, 河原大輔, 新里圭司, 永田昌明 (2011). 構文・照応・評価情報つきブログコーパスの構築. 自然言語処理, $18(2)$, pp. 175-201. 飯田龍, 小町守, 乾健太郎, 松本裕治 (2010). 述語項構造と照応関係のアノテーション:NAIST テキストコーパス構築の経験から. 自然言語処理, 17 (2), pp. 25-50. 伊藤一成, 斎藤博昭 (2004). アノテーションの副次生成とテキスト処理への応用. 日本デー夕 ベース学会論文誌 DBSJ Letters, 3 (1), pp. 117-120. 鍜治伸裕,喜連川優 (2008). HTML 文書集合からの評価文の自動収集. 自然言語処理, 15 (3), pp. $77-90$. Kaneko, K., Shibuki, H., Nakano, M., Miyazaki, R., Ishioroshi, M., and Morii, T. (2009). "Mediatory Summary Genaration: Summary-Passage Extraction for Information Credibility on the Web." In the 23rd Pacific Asia Conference on Language, Information and Computation, pp. 240-249. 加藤義清, 河原大輔, 乾健太郎, 黒橋禎夫, 柴田知秀 (2010). Web ページの情報発信者の同定.人工知能学会論文誌, 25 (1), pp. 90-103. 河合剛巨, 岡嶋穣, 中澤聡 (2007). Web 文書の時系列分析に基づく意見変化イベントの抽出. 言語処理学会第 17 回年次大会発表論文集, pp. 264-267. Lin, C.-Y. and Hovy, E. (2003). "Automatic Evaluation of Summaries Using N-gram CoOccurrence Statistics." In the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology - Volume 1 (NAACL'03), pp. 71-78. 松本章代, 小西達裕, 高木朗, 小山照夫, 三宅芳雄, 伊東幸宏 (2009). 文末表現を利用したウェブページの主観・客観度の判定. 第 1 回データ工学と情報マネジメントに関するフォーラム (DEIM), A5-4. 松吉俊, 江口萌, 佐尾ちとせ, 村上浩司, 乾健太郎, 松本裕治 (2010). テキスト情報分析のための判断情報アノテーション. 電子情報通信学会論文誌 (D), J93-D (6), pp. 705-713. Mihalcea, R. and Tarau, P. (2004). "TextRank: Bringing Order into Texts." In the Conference on Empirical Methods in Natural Language Processing (EMNLP 2004), pp. 404-411. 光田航, 飯田龍, 徳永健伸 (2013). テキストアノテーションにおける視線と操作履歴の収集と分析. 言語処理学会第 19 回年次大会発表論文集, pp. 449-452. 宮崎林太郎,森辰則 (2010). 注釈事例参照を用いた複数注釈者による評判情報コーパスの作成.自然言語処理, $\mathbf{1 7}(5)$, pp. 3-50. Miyazaki, R., Momose, R., Shibuki, H., and Mori, T. (2009). "Using Web Page Layout for Extraction of Sender Names." In the 3rd International Universal Communication Symposium (IUCS 2009), pp. 181-186. Murakami, K., Nichols, E., Mizuno, J., Watanabe, Y., Masuda, S., Goto, H., Ohki, M., Sao, C., Matsuyoshi, S., Inui, K., and Matsumoto, Y. (2010). "Statement Map: Reducing Web Information Credibility Noise through Opinion Classification." In the Fourth Workshop on Analytics for Noisy Unstructured Text Data (AND 2010), pp. 59-66. 中野正宽, 渋木英潔, 宮崎林太郎, 石下円香, 森辰則 (2008). 情報信憑性判断のための自動要約に向けた人手による要約作成実験とその分析. 自然言語処理研究会報告 2008-NL-187, pp. 107-114. 中野正宽, 渋木英潔, 宮崎林太郎, 石下円香, 金子浩一, 永井隆広, 森辰則 (2011). 情報信憑性判断支援のための直接調停要約生成手法. 電子情報通信学会論文誌 (D), J94-D (11), pp. 1019-1030. Nakano, M., Shibuki, H., Miyazaki, R., Ishioroshi, M., Kaneko, K., and Mori, T. (2010). "Construction of Text Summarization Corpus for the Credibility of Information on the Web." In the 7th Language Resources and Evaluation Conference (LREC 2010), pp. 3125-3131. 西原陽子, 伊藤彩, 大澤幸生 (2011). 意見の理解を支援するアノテーションシステム. マイニングツールの統合と活用\&情報編纂研究会 (TETDM-01-SIG-IC-06-01), pp. 1-6. Ptaszynski, M., Rzepka, R., Araki, K., and Momouchi, Y. (2012). "Automatically Annotating A Five-Billion-Word Corpus of Japanese Blogs for Sentiment and Affect Analysis." In the 3rd Workshop on Computational Approaches to Subjectivity and Sentiment Analysis, pp. 89-98. Radev, D., Otterbacher, J., and Zhang, Z. (2004). "CST Bank: A Corpus for the Study of Cross-document Structural Relationships." In the 4th International Language Resourace and Evaluation (LREC'04), pp. 1783-1786. 関口洋一, 山本和英 (2003). Web コーパスの提案. 情報処理学会研究報告, NL157-17/FI72-17.渋木英潔, 中野正寞, 宮崎林太郎, 石下円香, 鈴木貴子, 森辰則 (2009). 情報信憑性判断のための要約に関する基礎的検討. 言語処理学会第 15 回年次大会発表論文集, pp. 123-130. 渋木英潔, 中野正寞, 宮崎林太郎, 石下円香, 永井隆広, 森辰則 (2011). 調停要約のための正解コーパスの作成とその分析. 言語処理学会第 17 回年次大会発表論文集, pp. 364-367. 涉木英潔, 永井隆広, 中野正寛, 石下円香, 松本拓也, 森辰則 (2013). 情報信馮性判断支援の 渋木, 中野, 宮崎, 石下, 金子, 永井, 森情報信憑性判断支援の Web 文書向け要約生成タスクにおけるアノテーションための対話型調停要約生成手法. 自然言語処理, 20 (2), pp. 75-103. Shibuki, H., Nagai, T., Nakano, M., Miyazaki, R., Ishioroshi, M., and Mori, T. (2010). "A Method for Automatically Generating a Mediatory Summary to Verify Credibility of Information on the Web." In the 23rd International Conference on Computational Linguistics (COLING 2010), pp. 1140-1148. Shinzato, K., Shibata, T., Kawahara, D., Hashimoto, C., and Kurohashi, S. (2008). "TSUBAKI: An Open Search Engine Infrastructure for Developing New Information Access Methodology." In the Third International Joint Conference on Natural Language Processing, pp. 189-196. 徳永健伸, 飯田龍 (2013). アノテーションのためのアノテーション. 言語処理学会第 19 回年次大会発表論文集, pp. 70-73. Wiebe, J., Wilson, T., and Cardie, C. (2005). "Annotating Expressions of Opinions and Emotions in Language." Language Resources and Evaluation, 39 (2-3), pp. 165-210. 山本祐輔,田中克己 (2010). デー夕対間のサポート関係分析に基づく Web 情報の信憑性評価.情報処理学会論文誌 : データベース, $\mathbf{3}(2)$, pp. 61-79. 吉岡真治, 原口誠 (2004). イベントの参照関係に注目した新聞記事の複数文書要約. 言語処理学会第 10 回年次大会発表論文集, pp. 257-260. 吉岡真治, 神門典子 (2012). タスクを考慮した情報検索テストコレクション構築に関する考察.情報アクセスシンポジウム 2012 , pp. 1-7. ## 付録 ## Aサーベイレポートコーパスのタグー覧と文書型定義 サーベイレポートコーパスに収録された Web 文書と抜粋要約のタグの一覧を,表 18 と表 19 にそれぞれ示す。また, 文書型定義を, 図 12 と図 13 にそれぞれ示す. 表 18 サーベイレポートコーパスに収録された Web 文書の夕グの一覧 & \\ 渋木, 中野, 宮崎, 石下, 金子, 永井, 森情報信憑性判断支援の Web 文書向け要約生成タスクにおけるアノテーション 表 19 サーベイレポートコーパスに収録された抜粋要約の夕グの一覧 図 12 サーベイレポートコーパスに収録された Web 文書の文書型定義 <!DOCTYPE Data [ <!ELEMENT Data (SurveyReport,HolderList)> <!ATTLIST Data version CDATA \#FIXED "1.0"> <!ATTLIST Data year CDATA \#FIXED "H20"> $<$ !ELEMENT SurveyReport (Citation |Extra)+> <!ELEMENT Citation (\#PCDATA)> <!ATTLIST Citation Fileld CDATA \#REQUIRED> <!ATTLIST Citation Passageld CDATA \#REQUIRED> <!ATTLIST Citation BeginPoint CDATA \#REQUIRED> <!ATTLIST Citation HolderId CDATA \#REQUIRED> $<$ !ATTLIST Citation HolderName CDATA \#REQUIRED> <!ELEMENT Extra (\#PCDATA)> $<$ !ELEMENT HolderList (Holder*)> <!ELEMENT Holder EMPTY> <!ATTLIST Holder Globalld CDATA \#REQUIRED> <!ATTLIST Holder GlobalName CDATA \#REQUIRED> <!ATTLIST Holder P1Element CDATA \#REQUIRED> <!ATTLIST Holder O1Element CDATA \#REQUIRED> <!ATTLIST Holder P2Element CDATA \#REQUIRED> <!ATTLIST Holder O2Element CDATA \#REQUIRED> $<$ !ATTLIST Holder OrgHolder (0|1)> <!ATTLIST Holder SameHolder CDATA \#REQUIRED> ]$>$ 図 13 サーベイレポートコーパスに収録された抜粋要約の文書型定義 ## B 抜粋要約中の論点の一覧 3.4.3 節で述べた作業者間の一致率に関する考察として行った, 第 2 回のサーベイレポートコーパスに収録された抜粋要約中の論点数を調査した結果を,表 20 から表 24 にそれぞれ示す. 表 20 「レーシック手術は痛みがある」に関する抜粋要約中の論点の一覧 表 21 「無洗米は水を污さない」に関する抜粋要約中の論点の一覧 表 22 「無洗米はおいしい」に関する抜粁要約中の論点の一覧 & & & $\bigcirc$ & \\ 表 23 「アスベストは危険性がない」に関する抜粋要約中の論点の一覧 表 24 「キシリトールは虫歯にならない」に関する抜粋要約中の論点の一覧 & $\bigcirc$ & & $\bigcirc$ & $\bigcirc$ \\ ## C調停要約コーパスのタグー覧と文書型定義 調停要約コーパスに収録された Web 文書のタグの一覧を表 25 と表 26 に,抜粋要約のタグの一覧を表 27 にそれぞれ示す。また, 文書型定義を, 図 14 と図 15 にそれぞれ示す. 表 25 調停要約コーパスにおける Web 文書の夕グの一覧(前半) 表 26 調停要約コーパスにおける Web 文書の夕グの一覧(後半) 渋木, 中野, 宮崎, 石下, 金子, 永井, 森情報信憑性判断支援の Web 文書向け要約生成タスクにおけるアノテーション 表 27 調停要約コーパスにおける調停要約文書の夕グの一覧 ## $<$ !DOCTYPE Data [ <!ELEMENT Data (Fileld, StatementList, MediationList, MediationKeyExpression- List,SenderList, SenderKeyExpressionList, SenderExpertKeyExpressionList, SenderMedi- ationKeyExpressionList, Text)> <!ATTLIST Data version CDATA \#FIXED "3.0"> <!ATTLIST Data year CDATA \#FIXED "H22"> $<$ !ELEMENT Fileld (\#PCDATA)> $<$ :ATTLIST Fileld Common (0|1)> $<$ !ATTLIST Fileld HasConflict (0|1)> $<$ !ATTLIST Fileld HasMediation (0|1)> $<$ !ATTLIST Fileld HasSender (0|1)> <!ELEMENT StatementList (Statement*)> $<$ !ELEMENT Statement (\#PCDATA)> $<$ !ATTLIST Statement Sentenceld CDATA \#REQUIRED> <!ATTLIST Statement Start CDATA \#REQUIRED> $<$ !ATTLIST Statement Length CDATA \#REQUIRED> $<$ !ELEMENT MediationList (Mediation*)> $<$ !ELEMENT Mediation (\#PCDATA)> <!ATTLIST Mediation Type CDATA \#FIXED "Direct"> <!ATTLIST Mediation Sentenceld CDATA \#REQUIRED> $<$ !ATTLIST Mediation Start CDATA \#REQUIRED> $<$ !ATTLIST Mediation Length CDATA \#REQUIRED> <!ELEMENT MediationKeyExpressionList (MediationKeyExpression*)> <!ELEMENT MediationKeyExpression EMPTY> <!ATTLIST MediationKeyExpression Sentenceld CDATA \#REQUIRED> <!ATTLIST MediationKeyExpression Start CDATA \#REQUIRED> <!ATTLIST MediationKeyExpression Length CDATA \#REQUIRED> <!ELEMENT SenderList (Sender*)> $<$ !ELEMENT Sender (\#PCDATA)> $<$ !ATTLIST Sender Type CDATA \#FIXED "Page"> $<$ !ATTLIST Sender Sentenceld CDATA \#REQUIRED> $<$ !ATTLIST Sender Start CDATA \#REQUIRED> $<$ !ATTLIST Sender Length CDATA \#REQUIRED> $<$ !ATTLIST Sender IsOrganization (0|1)> $<$ !ATTLIST Sender IsExpert (0|1)> $<$ !ATTLIST Sender IsMediator (0|1)> <!ELEMENT SenderKeyExpressionList (SenderKeyExpression*)> $<$ !ELEMENT SenderKeyExpression (\#PCDATA)> <!ATTLIST SenderKeyExpression Sentenceld CDATA \#REQUIRED> <!ATTLIST SenderKeyExpression Start CDATA \#REQUIRED> $<$ !ATTLIST SenderKeyExpression Length CDATA \#REQUIRED> <!ELEMENT SenderExpertKeyExpressionList (SenderExpertKeyExpression*)> $<$ !ELEMENT SenderExpertKeyExpression (\#PCDATA)> <!ATTLIST SenderExpertKeyExpression Sentenceld CDATA \#REQUIRED> <!ATTLIST SenderExpertKeyExpression Start CDATA \#REQUIRED> <!ATTLIST SenderExpertKeyExpression Length CDATA \#REQUIRED> <!ELEMENT SenderMediationKeyExpressionList (SenderMediationKeyExpression*)> $<$ !ELEMENT SenderMediationKeyExpression (\#PCDATA)> <!ATTLIST SenderMediationKeyExpression Sentenceld CDATA \#REQUIRED> <!ATTLIST SenderMediationKeyExpression Start CDATA \#REQUIRED> <!ATTLIST SenderMediationKeyExpression Length CDATA \#REQUIRED> $<$ !ELEMENT Text (Sentence)+> $<$ !ELEMENT Sentence (\#PCDATA)> $<$ !ATTLIST Sentenceld CDATA \#REQUIRED> ]> 図 14 調停要約コーパスに収録された Web 文書の文書型定義 渋木, 中野, 宮崎, 石下, 金子, 永井, 森情報信憑性判断支援の Web 文書向け要約生成タスクにおけるアノテーション 図 15 調停要約コーパスに収録された抜粋要約の文書型定義 ## 略歴 渋木英潔:1997 年小樽商科大学商学部商業教員養成課程卒業. 1999 年同大学大学院商学研究科修士課程修了. 2002 年北海道大学大学院工学研究科博士後期課程修了. 博士 (工学). 2006 年北海学園大学大学院経営学研究科博士後期課程終了. 博士 (経営学). 現在, 横浜国立大学環境情報研究院科学研究費研究員. 自然言語処理に関する研究に従事. 言語処理学会, 情報処理学会, 電子情報通信学会, 日本認知科学会各会員. 中野正寛 : 2005 年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了. 2011 年同専攻博士課程後期単位取得退学. 修士 (情報学). 2011 年から 2012 年まで同学府研究生. この間, 自然言語処理に関する研究に従事. 宮崎林太郎:2004 年神奈川大学大学院理学研究科情報科学専攻博士課程前期修了. 2011 年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期修了. 博士 (情報学). 在学中は, 自然言語処理に関する研究に従事. 石下円香:2009 年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程後期修了. 現在, 国立情報学研究所特任研究員. 博士 (情報学). 自然言語処理に関する研究に従事. 言語処理学会, 人工知能学会各会員. 金子浩一:2008 年横浜国立大学工学部電子情報工学科卒業. 2010 年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了. 修士(情報学). 在学中は自然言語処理に関する研究に従事. 永井隆広:2010 年横浜国立大学工学部電子情報工学科卒業. 2012 年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了. 修士(情報学). 在学中は自然言語処理に関する研究に従事. 森辰則:1986 年横浜国立大学工学部情報工学科卒業. 1991 年同大学大学院工学研究科博士課程後期修了. 工学博士. 同年, 同大学工学部助手着任. 同講師, 同助教授を経て, 現在, 同大学大学院環境情報研究院教授. この間, 1998 年 2 月より 11 月まで Stanford 大学 CSLI 客員研究員. 自然言語処理, 情報検索, 情報抽出などの研究に従事. 言語処理学会, 情報処理学会, 電子情報通信学会, 人工知能学会, ACM 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 多様な文書の書き始めに対する 意味関係タグ付きコーパスの構築とその分析 萩行 正嗣 + 河原 大輔 ・黒橋 禎夫 $\dagger$ } 現在, 自然言語処理では意味解析の本格的な取り組みが始まりつつある。意味解析 の研究には意味関係を付与したコーパスが必要であるが, 従来の意味関係の夕グ付 きコーパスは新聞記事を中心に整備されてきた。しかし, 文書には多様なジャンル,文体が存在し,その中には新聞記事では出現しないような言語現象も出現する。本研究では, 従来の夕グ付け基準では扱われてこなかった現象に対して新たな夕グ付 け基準を設定した。Webを利用することで多様な文書の書き始めからなる意味関係 タグ付きコーパスを構築し,その分析を行った。 キーワード:夕グ付きコーパス, 多様な文書, 述語項構造, 照応関係, 文書の著者・読者 ## Building and Analyzing a Diverse Document Leads Corpus Annotated with Semantic Relations \author{ Masatsugu Hangyo $^{\dagger}$, Daisuke Kawahara $^{\dagger}$ and Sadao Kurohashi ${ }^{\dagger}$ } \begin{abstract} Recently, there have been active studies of semantic analysis in the field of natural language processing. To study semantic analysis, a corpus annotated with semantic relations is required. Although existing corpora annotated with semantic relations have been restricted to newspaper articles, there are texts of various genres and styles containing linguistic expressions that are missing in newspaper articles. In this paper, we define annotation criteria for linguistic phenomena which have not been treated using existing criteria. We have built a diverse document leads corpus annotated with semantic relations. We report the statistics of this corpus. \end{abstract} Key Words: Annotated Corpus, Diverse Documents, Predicate-Argument Structure, Anaphora Relation, Author and Reader of a Document ## 1 はじめに 現在, 自然言語処理では意味解析の本格的な取り組みが始まりつつある。意味解析には様々なタスクがあるが,その中でも文書中の要素間の関係性を明らかにする述語項構造解析と照応解析は最も基本的かつ重要なタスクである。本稿ではこの両者をまとめて意味関係解析と呼ぶこととする。述語項構造解析では用言とそれが取る項の関係を明らかにすることで,表層の係り受けより深い関係を扱う。照応解析では文章中の表現間の関係を明らかにすることで,係り  受け関係にない表現間の関係を扱う。意味関係解析の研究では, 意味関係を人手で付与した夕グ付きコーパスが評価およびその分析において必要不可欠といえる. 意味関係およびそのタグ付けを以下の例 (1)で説明する. (1) 今日はソフマップ京都に行きました。 $ \text { (行きました } \leftarrow \text { ガ:[著者], ニ:ソフマップ京都) } $ 時計を買いたかったのですが、この店舗は扱っていませんでした。 時計を売っているお店をコメントで教えてください。 ここで $\mathrm{A} r \mathrm{el}: \mathrm{B}$ は Aに rel という関係で $\mathrm{B}$ というタグを付与することを表す. rel が「ガ」「ヲ」「二」などの場合は A が述語項構造の rel 格の項として Bをとることを表わし,「=」は A が B と照応関係にあることを表す。また以降の例では議論に関係しない夕グについては省略する場合がある。 照応関係とは談話中のある表現(照応詞)が別の表現(照応先)を指す現象である ${ }^{1}$.ここでは,「店舗」に「=:ソフマップ京都」というタグを付与することで,この照応関係を表現している. 述語項構造は述語とその項の関係を表したもので,例 (1)の「扱っていませんでした」に対してガ格の項が「店舗」,ヨ格の項が「時計」という関係である。ここで,ヲ格の「時計」は省略されており,一般にゼロ照応と呼ばれる関係にあるが,ゼロ照応も述語項構造の一部として扱う。またゼロ照応では照応先が文章中に出現しない外界ゼロ照応と呼ばれる現象がある。例えば,例 (1)の「行きました」や「買いたかった」のガ格の項はこの文章の著者であるが,この著者を指す表現は文章中には出現しない,外界の照応先として [著者], [読者], [不特定-人] ${ }^{2}$ どを設定することで,外界ゼロ照応を含めた述語項構造のタグ付けを行う. これまでの日本語の意味関係解析の研究で主に用いられてきたのは意味関係を付与した新聞記事コーパスであった (河原, 黒橋, 橋田 2002; 飯田, 小町, 井之上, 乾, 松本 2010). しかし, テキストには新聞記事以外にも百科事典や日記,小説など多様なジャンルがある。これらの多様なテキストの中には依頼表現,敬語表現など新聞記事ではあまり出現しない言語現象も出現  し,意味関係と密接に関係している。例えば例 (1)の「買いたかった」のガ格が [著者]となることは意志表現に,「教えてください」のガ格が [読者], 二格が [著者]になることは依頼表現に密接に関係している。このような言語現象と意味関係の関係を明らかにするためには, 多様なテキストからなる夕グ付きコーパスの構築とその分析が必要となる。そこで本研究ではニュー ス記事, 百科事典記事, blog, 商用ぺージなどを含む Webぺージを夕グ付け対象として利用することで, 多様なジャンル,文体の文書からなる意味関係夕グ付きコーパスの作成を行う。 上述のように, 本研究の夕グ付け対象には新聞記事ではあまり出現しない言語現象が含まれる.その中でも特に大きなものとして文章の著者・読者の存在が挙げられる.著者や読者は,省略されやすい,モダリティや敬語などと密接に関係するなど,他の談話要素とは異なった振る舞いをする,新聞記事では,客観的事実を報じる内容がほとんどのため,社説を除くと記事の著者や読者が談話中に出現することはほとんどない,そのため,従来のタグ付け基準では [著者] [読者]などを外界の照応先として定義していたが,具体的な夕グ付け基準についてはあまり議論されてこなかった。一方, 本研究で扱う Webでは blog 記事や通販ページ,マニュアルなど著者や読者が談話中に出現する文書が多く含まれ,その中には従来のタグ付け基準では想定していなかった言語現象打よび意味関係が出現する,そのため,著者・読者が出現する文書での夕グ付け上の問題点を分析し, タグ付け基準を設けることが重要となる. 著者・読者が出現する文書へのタグ付けでの 1 つ目の問題は, 文章中で著者・読者に対応する表現である。 (2) 僕は京都に行きたいのですが,皆さんのお鿉めの場所があったら教えてください。 例 (2)では,「僕」は著者に対応し,「皆さん」は読者に対応した表現となっている. 本研究ではこのような著者や読者に対応する表現を著者表現,読者表現と呼ぶこととする.著者表現,読者表現は外界ゼロ照応における [著者]や[読者]と同様に談話中で特別な振る舞いをする。例えば例 (2)の「教えてください」のように,依頼表現の動作主は読者表現に,依頼表現の受け手は著者表現になりやすい,本研究で扱う文書は多様な著者,読者からなり,著者読者,読者表現も人称代名詞だけでなく, 固有表現や役割表現など様々な表現で言及され,語の表層的な情報だけからは簡単に判別できない,そこで本研究では著者表現,読者表現を夕グ付けし,著者$\cdot$読者の談話中での振る舞いについて調査した。 2 つ目の問題は項を明示していない表現に対する述語項構造のタグ付けである. 日本語では一般的な事柄に対して述べる場合には, 動作主や受け手などを明示しない表現が用いられるこ とが多い,従来の新聞記事を対象としたタグ付けでは, [不特定-人]を動作主などとすることでタグ付けを行ってきた。一方,著者・読者が談話中に出現する場合には,一般的な事項について述べる場合でも動作主などを著者や読者と解釈できる場合が存在する. (3)フブグに記事を書き込んで、インターネット上で公開するのはとても簡単です。 (公開するガ:[著者] ? [読者] ? [不特定-人], ヨ:記事) 例 (3)の「公開する」の動作主であるガ格は, 不特定の人が行える一般論であるが, 著者自身の経験とも読者が将来する行為とも解釈することができ,作業者の解釈によりタグ付けに一貫性を欠くこととなる. 本研究ではこのような曖昧性が生じる表現を分類し, 夕グ付けの基準を設定した. 本研究の目的である多様な文書を含む夕グ付きコーパスの構築を行うためには, 多数の文書に対してタグ付け作業を行う必要がある。この際,1文書あたりの作業量が問題となる。形態素, 構文関係の夕グ付けは文単位で独立であり, 文書が長くなっても作業量は文数に対して線形にしか増加しない,一方,意味関係の夕グ付けでは文をまたぐ関係を扱うため,文書が長くなると作業者が考慮すべき要素が組み合わせ的に増加する。このため 1 文書あたりの作業時間が長くなり,文書全体にタグ付けを行うと,夕グ付けできる文書数が限られてしまう,そこで,先頭の数文に限定して夕グ付けを行うことで 1 文書あたりの作業量を抑える。意味関係解析では既に解析した前方の文の解析結果を利用する場合があり,先頭の解析誤りが後続文の解析に悪影響を与える。先頭数文に限定したコーパスを作ることで,文書の先頭の解析精度を上げることが期待でき, 全体での精度向上にも寄与できると考えられる. 本論文では,2 節でコーパスを構成する文書の収集について述べ,3 節で一般的な意味関係のタグ付けについて述べる.4節では著者・読者表現に対する夕グ付け, 5 節では複数の解釈が可能な表現に対する夕グ付けについて述べる。 6 節でタグ付けされたコーパスの性質について議論し,7 節で関連研究について述べ, 8 節でまとめとする. ## 2 タグ付与対象の文書の収集 従来, 意味関係タグ付きコーパスの構築は新聞記事を中心に行われてきた (河原他 2002; 飯田他 2010). しかし, 新聞記事にはほとんど出現しない言語現象も存在し, そのような言語現象を研究するためには多様な文書を対象としたコーパスを構築する必要がある.本研究ではドメインなどを限定せずに Webを利用することで多様な文書を収集する.多様性を確保するためには, 1 文書あたりの作業負荷を低くする必要があるので,各文書の先頭 3 文に夕グ付けを限定する。現在 1,000 文書の夕グ付けが完了している. タグ付け対象を先頭 3 文とした理由は,以下の理由による。本研究では意味関係のうち特にゼロ照応関係を重視している。ゼロ照応における照応先の位置を京都大学テキストコーパス (河原他 2002) および (Sasano and Kurohashi 2011) が実験で使用したWebコーパスについて調査した結果を表 1 に示す。この結果から,ゼロ照応関係は 1 文前までで約 $70 \%, 2$ 文前までで約 $80 \%$ に出現しており, ゼ口照応関係については先頭から 3 文までを扱うことで,多くの現象を収集できると考えられる。そのため本研究では夕グ付けする文数を 3 文とした. 本研究では,Webに存在する文書を夕グ付け対象とすることで,多様な文書からなるコーパスの構築を目的とするが, Web 上に存在する日本語の現象を網羅することや Webに存在する文書の分布を反映することについては重視していない. これは,以下の 2 つの問題による. 1 つ目の問題は, Web 上には意味関係夕グの定義および付与が困難な文書が多数存在することである. 本研究では, 京都大学テキストコーパスで定義された意味関係とその拡張である著者・読者表現の夕グ付けを行う。京都大学テキストコーパスでは, 新聞記事をタグ付け対象としており,そのタグ付け基準は以下のようなテキストを前提としていると言える. ・ 本文のみで内容を理解できる ・ 形態素や文節の単位が認定できる程度に固い文体で記述されている - 1 文書は 1 人の著者により記述されている 本研究でも同様の基準でタグ付けを行うため,上記の条件を満たす文書のみを夕グ付け対象として扱う。そのため, Webに存在する文書のうち以下のような文書を夕グ付けから除くこととなり,そこに含まれる言語現象については扱うことができない. イラストや写真などを参照する必要のある文書本文のテキストのみだけでは,意味関係を推測できない AA や顔文字などが含まれる文書 AA や顔文字などはテキストで表現されるが,文をまたぐことや中に言葉が入っていることが多く,範囲の定義が困難 掲示板やチャットなど対話形式の文書著者が一貫しないので,著者・読者表現の夕グ付けが 困難であり,発言者情報や投稿の区切りなどの情報を付与する必要がある 2 つ目の問題は, Web 文書の真の分布が不明なことである. Web には誰でも文書をアップロー ドすることができる一方でクローリングを回避する手段が存在するなど, Web 上の文書を網羅的に収集することは困難である。また,網羅的に収集することができたとしても,自動生成さ 表 1 照応先の出現位置 れたテキスト,引用・盗用されたテキストの存在などにより,意味関係コーパスとして利用するには不適当なものが大量に含まれると考えられる(404 not found のページが多数含まれるなど).これらの問題から,本研究では夕グ付け対象のWebにおける網羅性などを目指すことはせず,夕グ付け可能な文書に対して効率よく大量の文書に夕グ付けを行うことを目標とした。 上記のように Webに存在する文書には,コーパスとして利用するには不適切な文書も多数存在している。これらのうちテキストのみでは内容の理解が困難な文書の定義や扱いについては 2.1 節にて詳しく述べる。一方,過度にくだけた文体で記述された文書などテキストの内容からタグ付けが困難な文書の定義や扱いについては 2.2 節にて詳しく述べる. これらの不適な文書を全て人手で確認し, 選別することは非常にコストがかかる。そのため, まず簡単なルールで自動フィルタリングを行い, その後残った文書を人手で確認しコーパスとして適切な文書についてのみタグ付けの作業を行うこととした。ルールにおける自動フィルタリングにより除外される文書には夕グ付けに適当なものも多く含まれる。しかし, Web 文書には大量の不適切文書が含まれるため, 自動フィルタリングを行わない場合には, 作業者が大量の文書の確認を行うことになる。また,上述のように本研究の目的は偏りなく Web 文書を収集することではなく大量の文書の夕グ付けを行うことである。 そこで本研究では人手によるフィルタリングの作業を減らし,夕グ付け作業に時間を割くために,自動フィルタリングを行う.本研究では以下の手順でコーパスの構築を行った. (1) (Kawahara and Kurohashi 2006)の手法により Webからクローリングされた HTML ファイルから日本語文を抽出. (a)文字コード情報から日本語の Webページ候補を判定. (b) 助詞「が」「を」「に」「は」「の」「で」を $0.5 \%$ 以上含む Webぺージを日本語 Web ページと判定. (c) 句点および $<\mathrm{br}>,<\mathrm{p}>$ タグにより文単位に分割. (d) ひらがな,カタカナ,漢字の割合が $60 \%$ 以上の文のみを日本語文として抽出. (2) 各ファイルで抽出された最初の日本語文から連続して抽出された日本語文を日本語文書として抽出する. (3)抽出された日本語文書の 1 文目が見出しかを自動判定(2.1 節で述べる). 見出しを持つ見出しに続く 3 文をタグ付け対象として抽出. 見出しを除いた 3 文で内容が理解できるかを自動判定. 見出しを持たない先頭から 3 文を夕グ付け対象として抽出. (4) 抽出された 3 文に対してルールによるフィルタリング(2.2 節で述べる). (5) 人手によるフィルタリング. (6) 人手による夕グ付け. なお, クローリングの際には日本語の Webぺージかの判定は行っているが,それ以外のドメイ ンや内容によるフィルタリングは行っていない。また, 実際には (5) の人手によるフィルタリングは,夕グ付けの際に作業者が不適と判断した文書を夕グ付けしないことで行う. ## 2.1 テキストのみからは意味関係の理解が困難な文書の判定 発話や文書などの言語使用はある場・状況において行われ,場・状況は基本的に話者・著者と聴者・読者の間で共有されている。また,発話や文書の内容は場・状況となんらかの連続性を持っている,Webページにおいては,どのような Web サイト内に掲載された文書なのか,またサイト内でどのような位置付けにある文書なのか,などがこれにあたる. 形態素・構文レベルのタグ付きコーパスでは,各文を独立に扱うので,このような場・状況との連続性を考慮する必要はない。しかし,意味関係コーパスにおいては,この問題を考慮する必要がある。本研究ではコーパスとしてはテキストだけを扱うため,このような場・状況の情報がなくても意味関係を理解可能な文書のみをコーパスに含める。例えば,ニュース記事であれば,その文体からニュース記事であることが分かり,多くの場合その記事に記載されている内容はテキストのみから理解することが可能である。一方で,製品紹介ページ内の「使用上の注意」などのページの場合には,製品自体の知識がない場合には理解することが困難なことが多く,コーパスに含む文書としては不適である。このような文書は夕グ付けの前に人手によりコーパスから取り除く。 テキストは見出しを持つ場合があり,その見出しは場・状況との連続性において重要な役割を持つ場合がある。しかし,見出しは名詞句の連続など通常の文として成立していないものも少なくないため本研究では夕グ付け対象から除く. 本研究では,文書が見出しをもつかどうかを自動的に判定する. Webには HTML タグなどの構造情報があるが,見出しを指定する <h>夕グ以外で見出しが記述される場合があり,一方で<h>タグでマークアップされていても見出しではない場合もある。そこで HTML のタグを用いずテキストの内容から見出しの判定を行う.1文目が句点で終わっていない場合または体言止めの場合に 1 文目を見出しと判定し,それ以外の場合には見出しなしとする.見出しなしの場合には先頭 3 文を夕グ付け対象として抽出し,1文目が見出しの文書の場合には見出しを除いた後続の 3 文をタグ付け対象として抽出する。ただし,見出しを除くと意味関係の理解が困難になると考えられる文書は以下の手順で除去する。 図 1 のように blog 記事の見出しが日付けの場合など, 見出しの内容が本文の内容にほとんど関係ない場合には,見出しを除いても本文の意味関係の理解に影響を与えないと考えられる。 このように本文に関係ない見出しの場合,見出し中の内容語が以降の文書中に出現しないと考えられる。見出し中の内容語が文書中に出現する場合でも, 先頭 3 文中に出現する場合には,見出しを除いても先頭 3 文の意味関係は理解できると考えられる。図 2 の例では 1 文目が要約の役割を果たしており,見出し中の内容語が全て先頭 3 文に出現している。このような場合に は見出しを除いても先頭 3 文の理解は可能であると考えられる。一方で見出し中の内容語が先頭 3 文以外に出現した場合には,コーパスとして利用する先頭 3 文だけで見出しの情報が復元できず,意味関係の理解が困難となると考えられる。図 3 の例では見出しに含まれる「売布神社」が 6 文目に出現している。しかし先頭 3 文には「売布神社」は出現せず,先頭 3 文だげは「売布神社」に向かうという意味関係の理解が困難である。そこで見出し中の内容語が先頭見出し: 2008.07 .10 Thursday 気がつけば梅雨も明けてました。 毎日暑い日が続きますね。 父の手術も無事に終わり、少しだけほっとしてます。 (後略) 図 1 見出しの内容語が本文中に出現しない例 ## 見出し: 『ミニスカ宇宙海賊』アニメ化決定! 笹本祐一さんの「ミニスカ宇宙海賊」のアニメ化が決定しました。 監督・シリーズ構成は佐藤竜雄、アニメーション制作はサテライトに決まりました。 放映は 2011 年を予定しています。 ご期待ください! 図 2 見出しの内容語が先頭 3 文中に出現する例 見出し: 売布神社 どもども、森田です。 さてさて、前回中山寺に行きましたが、その続きです。 中山寺から西にぶらぶらと住宅街を歩いていきます。 たぶん、7, 8 分ぐらいです。 すると、でかい池が目の前に出てきます。 この池の左上あたりに歩いていくと、売布神社に着きます。 (後略) 図 3 見出しの内容語が先頭 3 文以外に出現する例 3 文以外に出現する文書は見出しを除くと先頭 3 文の意味関係の理解が困難になるとし,自動で除去する。この後残された文書に対しても夕グ付けの際に人手による判定を行い,抽出された 3 文だけでは意味関係が理解できない場合にはコーパスから除去する. ## 2.2 タグ付けに不適切な文書の判定 Web から収集された文書には様々なものがあり,夕グ付けを行うには不適切な文書も含まれる. 本研究では以下のいずれかに該当するものは夕グ付けが困難であるとして,コーパスに含めない. 理解に専門知識を必要とする理解に専門的な知識を必要とする文書は作業者が理解できない場合があり,正しい夕グ付けが困難である 文章に意味的連続性がない収集された文書には本来は離れた位置にレンダリングされるテキストを連続したテキストとして抽出してしまったものが含まれる。このような文書は文をまたぐ意味関係の夕グ付けができない 過度にくだけた文体で記述されている過度にくだけた表現は夕グ付けの基本単位となる形態素の夕グ付けが困難である これらを除くために,まずタグ付け対象となる先頭 3 文の中に以下の要素を含む文書を自動で除去する. - 体言止めの文:修辞的な文や箇条書きの一部であることが多い - 句点で終わっていない文:テキストの抜き出し誤りであることが多い - 10 文節以上ある文:過度にくだけた文体や非文は形態素解析において過分割される場合が多く, 文節数も過度に多くなる傾向にある ・ ローマ字:略語や伏せ字,専門用語であることが多い ・表 2 のストップフレーズ:自動生成ページや Web 独特の表現を除くため 表 2 ストップフレーズ また, ミラーページや引用ページを除去するために, 編集距離が 50 以下の文書ペアがあった場合には一方を除去する。この作業において 50 字以下の文書は全て削除されるが, 3 文で 50 字以下のテキストではほとんど意味関係が理解できないため全て削除しても問題ないと考えられる. 自動判定の結果残った不適切な文書は夕グ付けの前に人手で除去する. ## 3 タグ付け ## 3.1 タグ付け内容 本コーパスに対して形態素, 係り受け関係, 固有表現, 述語項構造, 照応関係の夕グ付けを行う。本研究の焦点は意味関係(述語項構造, 照応関係)の夕グ付けであるが,そのためにはタグ付け単位の設定などのために形態素, 係り受け関係の夕グ付けが必要となる. 固有表現は意味関係の夕グ付けには必要ないが,意味関係解析の際には重要な手掛かりとなるのでタグ付けを行う。これらのタグ付けは原則的に京都大学テキストコーパス (河原他 2002)と IREX ${ }^{3}$ )基準に準拠して付与し,一部では基準を変更した。本節ではこれらの基準のうち,本コーパスにおいて重要となる部分および本コーパスで基準を変更した点について述べる. 述語項構造と照応関係のタグ付けの単位として, 京都大学テキストコーパスと同様に, 基本句を設定する。基本句とは自立語 1 語を核として, 前後の付属語を付加した形態素列である.例 (4)に基本句単位での分割の例を示す. 述語項構造と照応関係の情報は基本句ごとに付与し,述語項構造の項や照応関係の照応先も基本句とする. 項や照応先が複合語の場合には, その主辞の基本句を照応先とする.例 (4)では, 下線部の「党」の照応先は「国民新党」なので, その主辞の基本句である「新党」を照応先としてタグ付けする. (4) 7 月/1 7 日、/国民/新党/災害/対策/事務/局長と/して、/党を/代表して/現地へ/向かいました。 (党 $\leftarrow=:$ 新党 $)$ 述語項構造は基本的に京都大学テキストコーパスと同様の基準で付与する. 格はガ格, ヨ格,二格などの表層格と時間, 修飾, 外の関係などの関係を表す格として定義され, 項としては直接係り受け関係にある項, 文章内ゼロ照応の項, 外界ゼロ照応の項の 3 種類がある. 直接係り受け関係にある項, 文章内ゼロ照応の項については, 文章中の基本句から選択する。外界ゼロ照応では表 3 に示す 5 種類の照応先の中から選択する。ここで,「不特定-人」は不特定の人たけでなく, 文章中で言及されていない人全てを指す。述語項構造の夕グ付け対象は述語のみでなく,事態性を持つ体言に対しても夕グを付与する. ^{3}$ http://nlp.cs.nyu.edu/irex/NE/df990214.txt } 表 3 外界ゼロ照応の照応先の一覧と例 京都大学テキストコーパスでは, 二重主語構文に対する夕グ付けとしてガ 2 格を設定し, 以下の例のようにタグ付けを行っている. (5)彼はビールが飲みたい。 京都大学テキストコーパスの基準では, 例 (6) では「象が長い」とは言えないので,「象」は「長い」のガ 2 格と扱わないこととなっている.「象」は「長い」の主題にあたる役割を持っているが, この基準では述語項構造として「象」と「長い」が関係を持つことを表現できない. そこで,本コーパスでは主題を表す表現の場合にはガ 2 格とすることとした. $ \text { 象は鼻が長い。 } $ (長い $\leftarrow$ ガ $2:$ 象, ガ:鼻) 照応関係のタグ付けは京都大学テキストコーパスに準拠する.京都大学テキストコーパスでは,照応関係を「=」(共参照関係),「ノ」(AのB と言い換えられる橋渡し照応),「う」(それ以外)の3つに分けてタグ付けを行っている。また,照応関係は体言同士だけでなく述語同士および体言・述語間に対しても夕グ付けされている. 京都大学テキストコーパスでは, ある基本句のある格に対して複数の項を付与するために $\lceil\mathrm{AND}\rfloor\lceil\mathrm{OR}\rfloor\lceil ? 」 の 3$ のタイプを定義している.「AND」は「Aおよび Bが〜」のように付与された項が並列の関係にあり,これらが共に行われる表現に対して利用される。例 (7)では 「太郎」「花子」が共に「学校に行った」のでこれらを「AND」の関係で付与する. (7) 太郎と花子は学校に行った。 $ \text { (行った } ー \text { ガ郎 AND 花子) } $ 「OR」は「Aまたは B が〜」のように付与され項が並列の関係にあり,どちらかが行われる表現に対して利用される。例 (8)では「持っていく」のは「太郎」または「花子」のどちらかであるので「OR」の関係で付与する。 (8)太郎か花子が持っていきます。 (持っていきますカガ:太郎 OR 花子) 「?」は文脈だけからは,複数の候補から実際の項を特定できない場合に付与される。例 (9)では,「撤廃する」の主格は「高知県」,「橋本知事」, [不特定:人](高知県議員や職員)のいずれにも解釈できるので, 「?」の関係で付与する. (9) 高知県の橋本知事は…国籍条項を撤廃する方針を明らかにした。 (撤廃するガ:高知県 ? 橋本知事? 不特定:人) ## 4 著者・読者表現 談話において文書の著者・読者は特別な要素であり他の談話要素と異なった振舞いをする。従来の新聞記事コーパスでは, 表 3 で示したように文章中に出現しない外界ゼロ照応先として著者や読者などの要素を考慮していた。しかし, 著者・読者は著者・読者表現として文章中に記述される場合がある。 $ \begin{aligned} & \text { 私の担当するお客様に褒めて頂きました。 } \\ & \left(\begin{array}{l} \text { 雍めて頂きました } \leftarrow \text { ガ:私, ニ:お客様 } \\ \text { 私 } \leftarrow=: \text { 著者] } \end{array}\right) \end{aligned} $ 例えば, 例 (10) では「私」が著者表現として文章中に記述されている.このような場合, 従来のコーパスでは他の談話要素と同様の文章内ゼロ照応として扱い, 著者や読者として特別には扱ってこなかった. しかし, 文章中での著者や読者の振る舞いを調査するためには, このような文章中に記述された著者・読者表現の振る舞いも調査する必要がある. 本研究では, 例 (10)の「私」が著者表現であることを共参照として夕グ付けすることとする.本研究で扱う文書は多様な著者によって多様な読者に向けて記述されており, 著者・読者表現は人称代名詞に限らず様々な表現で記述される。例えば例 (11)の「こま」のように固有名である場合や「主婦」や「母」などのように立場や役職などである場合が存在する. (11)東京都に住む「お気楽主婦」こまです。 $ \left(\begin{array}{l} \text { 主婦 } \leftarrow=:[\text { 著者 }] \\ \text { こま } \leftarrow: \text { :主婦 } \end{array}\right) $ 0歳と 6 歳の男の子の母をしてます。 $ (\text { 母 } \leftarrow=\text { :主婦 }) $ 本研究では人称代名詞に限らず,文書の著者・読者に対応する表現全てを著者・読者表現としてタグ付けを行った。 著者・読者表現に対しては外界照応のタグとして「=:[著者 $]\rfloor, 「=:[$ 読者 $]$ 」のタグを付与する.著者・読者表現が複合語の場合にはその主辞となる基本句に対して付与する.著者・読者は各文書で 1 人と仮定し, 文書中で「=:[著者] $]$ 「=:[読者]」それぞれ最大でも 1 基本句にしか付与しないこととする,共参照関係にあり著者・読者が複数回言及されている場合には,原則として初出となる著者表現に対して付与することとする.例 (11)では下線部の 3 つの表現が著者表現だが「主婦」に対して「=:[著者]」とタグ付けしている. ## 4.1 著者表現 本節では,著者表現を付与する際に問題となる,組織やホームページを指す表現の扱いについて述べる. 企業など組織のホームページでは組織自身が人格や主体性をもっているかのように記述されることが多い,そのような場合には,実際の著者はホームページの管理者などであると考えられるが,その組織を著者として扱い夕グを付与することとする。例 (12)ではサイト管理者が 「神戸徳洲会病院」を代表して記述していると考えられるので, その主辞である「病院」に対し 「=:[著者]」を付与する. (12)神戸徳洲会病院では地域の医療機関との連携を大切にしています。 (病院 $\leftarrow=:$ [著者]) ご来院の際は、是非かかりつけの先生の紹介状をお持ち下さい。 紹介状を持参頂いた患者様は、優先的に診察させて頂きます。 また,例 (13)のように Webサイト自体を指す表現においても同様に扱う. (13)結婚応援サイトは、皆さんの素敵な人生のパートナー探しを応援します。 (サイト $\leftarrow:[$ 著者]) 店舗のページなどでは店舗を表す表現と店長や店員を表す表現が共に出現する場合がある. このような場合には, 店舗と店長・店員のどちらが著者的に振る舞っているかを判断して夕グ 付けを行う.例 (14)では店舗が著者的なので「スタッフ」ではなく「館」に「=:著者」を付与する。 (14)夕ウンロフト館の店舗情報をお伝えします。 (館 $\leftarrow=:[$ 著者]) ご来店予定の際にアクセスでお困りでしたら、当店スタッフまでお気軽にご連絡下さい。 $ \left(\begin{array}{l} \text { 当店 } \leftarrow: \text { 館 } \\ \text { スタッフャノ:当店 } \end{array}\right) $ 一方,例 (15)では,店長である「かおりん」が著者として店舗を紹介しているので「かおりん」 に対して「=:著者」を付与する。 『ソブレ』アマゾン店, 店長のかおりんです。 $ \text { (かおりんく=:[著者]) } $ 新商品の情報や、かおりん日記を相棒えみかんと一緒に紹介します。 ## 4.2 読者表現 本コーパスで扱う文書は Web から収集されたものであり,不特定多数の人間が閲覧できる状態である。そのため厳密に常に読者を指す表現といえるのは二人称代名詞のみといえる。例 (16)では,「皆さん」は二人称代名詞の敬語表現であり,読者表現としてタグ付けを行う. (16) 皆さんは初詣はどこに行かれたでしょうか? (皆さんた=:[読者]) 一方, 不特定の人が閲覧できる状態であっても,多くの文書では著者が主な読者として想定する対象が存在する。本研究ではそのような対象を指す表現も読者表現にあたると定義してタグ付けを行う。例 (17)は「ぽすれん登録会員」に対するガイドラインであるので,「ぽすれん登録会員」を読者表現とし,その主辞である「会員」に「=:[読者]」を付与する。 (17)ぽすれん登録会員がコミュニティサービスをご利用いただくには、本ガイドラインの内容を承諾いただくことが条件となります。 (会員 $\leftarrow=:[$ 読者]) 一方, 例 (18)では「写真を撮られた方」は著者にとって想定している読者のうちの一部であり,読者全体を想定した表現ではないので「方」は読者表現としては扱わない. (18)桜の下で写真を撮られた方も多いのではないでしょうか。 ## 5 複数の解釈が可能な表現に対するタグ付け 日本語では用言の動作主や受け手にあたる格要素が明示されない表現が用いられることがある. 京都大学テキストコーパスでは明示されていない格要素の候補が文章中に出現する場合には 3 節で説明した「?」による複数付与によって夕グ付けを行っている. また, 候補が文章中の表現にないような場合でも, 京都大学テキストコーパスが対象とする新聞記事では [不特定-人] を格要素としてタグ付けすればよい場合がほとんどである。一方, Webテキストのように著者・読者が談話構造中に出現する場合には,この明示されていない格要素を [不特定-人]だけでなく [著者] や[読者] としても解釈できる場合が多くある. 本研究では, 複数の解釈ができる場合には「?」の関係で解釈可能な全ての項を付与することとする。複数解釈可能な典型的表現についてはマニュアルを作成し, 作業者に例示を行った.例示した内容は付録 A に示した. 本節では, [著者], [読者] および [不特定-人] を格要素として解釈する際の基準について説明する。なお, 以降の例では [著者], [読者]および [不特定-人]を例として紹介するが, [著者], [読者]については 4 節で述べた著者表現, 読者表現も同様に扱うものとする。 ## 5.1 [不特定-人] を付与する基準 行為が一般論といえる場合, 著者・読者以外で文章中で言及されていない人を指す場合には [不特定-人] を付与する. 例 (19)では,一般論と言えるので動作主にあたるガ格に [不特定-人]を付与する. コーヒー生豆とは焙煎する前の裸の状態の豆をいい、グリーンコーヒーとも呼ばれています。 (焙煎するガ:[不特定-人], ヨ:豆) 例 (20) では,文章中で言及されていないメールマガジンの会員が受け手と言えるのでニ格に [不特定-人]を付与する。この例では「是非ご登録ください」と書かれていることから,読者はまだメールマガジンの会員でないと考えられるので, [読者] は付与しない. (20)メールマガジンではお得な情報をお送りしています。是非ご登録ください。 ## 5.2 [著者]を付与する基準 著者自身が実行したことがある,著者自身にもあてはまると解釈できる場合には [著者]を付与する。 例 (21) では,一般論といえるが,著者(鉄道会社)にもあてはまると解釈できるのでガ格に [不特定-人]に加えて [著者]も付与する. (21)線路は列車の安全を確保し、快適な乗り心地を維持する状態に整備しておかなければなりません。 (整備しておかねばなりませんくガ:[著者]?[不特定-人], ヨ:線路,二:状態) 例 (22)では, 一般論とも言えるが,著者自身が「源流を辿った」経験があるとも解釈できるのでガ格に「[著者]?[不特定-人]」を付与する. (22)しかし名前からも察することができるように、源流を辿れば「田楽」に行き当たる。 (辿れば $\leftarrow$ ガ:[著者]?[不特定-人],ヲ:源流) ## 5.3 [読者] を付与する基準 依頼表現など読者に働きかけをする表現,読者に対して何かを勧めている表現の場合には [読者]を付与する. 何かを勧める表現の場合, 対象となる用言だけでなく, 周辺の文脈も含めて判断する. 例 (23) では,読者に対して依頼しているのでガ格に [読者]を付与する. $ \text { メールの際は必ず名前を添えてください。 } $ $ \text { (添えてくださいくガ:[読者]) } $ 例 (24) は通販サイト内の文である。ここで,「選択できます」自体は一般論と言えるが,ペー ジ全体として読者に通販の利用を勧めていると解釈できるので,ガ格に [読者]および [不特定人]を付与する。 (24)分割払いなど、多彩なお支払い方法から選択できます。詳しくはガイドをご参照くたさい。 例 (25) では, 読者に勧めていると解釈できるのでガ格に [読者]を付与している.また,一般論とも著者自身の経験とも解釈できるので [著者]および[不特定-人]も付与している. (25)フブログに記事を書き达んで、インターネット上で公開するのはとても簡単です。 (公開するカガ:[著者]?[読者]?[不特定-人], ヨ:記事) 例 (26) では著者が読者を勧誘する表現になっているので [読者]を付与する.Webサイトを通してのやりとりであるが,説明の過程で著者も同時に見ていると仮定して「AND」で付与する. まずは株式市場の分類を見てみましょう。 ## 6 作成されたコーパス 現在までに, 3 人の作業者により 1,000 文書の夕グ付け作業が終了している。本節ではコーパスを作成した手順について説明し,その後作成されたコーパスの統計量およびその性質について議論を行う。 作成されたコーパスの統計量およびその性質についての議論では,まず,コーパスの基本的な統計と文体などの性質について議論する,次に,著者・読者の談話への出現とその振る舞いについて議論する。これらの議論において必要に応じて新聞記事コーパスである京都大学テキストコーパスとの比較を行う。最後に作業者間での夕グ付けの一致度について議論する。 ## 6.1 タグ付け作業の手順および環境 タグ付け作業の際にはまず形態素解析器 JUMAN ver.6.04 , 構文解析器 KNP ver.3.0159デフォルト設定により自動でタグ付けを行い,その後 GUI のツールを利用してタグの付与および自動付与されたタグの修正を行った. 各文書に対して一人の作業者が作業した後に別の作業者が内容の確認・修正を行った,夕グ付けの際には作業者に与えられた情報は,夕グ付け対象となる 3 文のテキストおよびそのテキストが Web 上から収集されたという情報だけである. 作業者は 3 名であり,全員がコーパスへのタグ付け作業の経験者である。作業開始前に京都大学コーパスのマニュアル 6 , 著者・読者表現の定義および例を配布した. 事前作業として, 3 人が同一の 50 文書に対してタグ付けを行い,特に著者・読者表現に対してのタグ付けの疑問点の確認および基準の修正を行った。 その後, 1,000 記事に対してタグ付け作業を行ったところ, 5 節で述べた複数解釈可能な表現が問題となることが分かった。そこで, 作業者を交えて夕グ付け基準について検討し,その結果を付録 $\mathrm{A}$ として配布した.新たな基準に基づいて上記 1,000 記事の修正作業を行った。現在は 5,000 記事を目標として作業を進行中である。作業中におい ^{4}$ http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN 5 http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP 6 http://nlp.ist.i.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus4.0/doc/syn_guideline.pdf および http://nlp. ist.i.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus4.0/doc/rel_guideline.pdf } ても,タグ付けの疑問点等については,筆者らと相談のうえで作業を進めている. 作成されたコーパスには文書情報として文書を取得した URL を付与する予定である。なお, コーパスにタグ付けされた意味関係はテキストのみに基いており,意味関係コーパスとしては URL 情報は必須的なものではない. ## 6.2 コーパスの統計量 作成されたコーパス記事の統計を表 4 に示す。比較のため京都大学テキストコーパスの統計も合わせて示した。本コーパスでは 1 文あたりの形態素数が約 17 個であり, 京都大学テキストコーパスの約 26 個と比較して 1 文あたりの形態素数が少ない傾向にある. 本コーパスでは意味関係の夕グ付け対象である基本句のうち約 $2 / 3$ に対して, 何らかの意味関係が付与された. 文体の差異を調査するために,両コーパスにおいてモダリティ,敬語表現を含む文の割合を表 5, 表 6 に示す. なお, モダリティ, 敬語表現は KNPにより自動で付与されたものである. また,「全て」はいずれかのモダリティ, 敬語表現が含まれた文の割合を示す. 表 5 から本コー 表 4 コーパスの統計 表 5 モダリティが出現する文の割合 パスには依頼, 勧誘, 命令, 意志など著者から読者への働きかけを持つモダリティが多く含まれる。意志のモダリティは京都大学テキストコーパスにも多く含まれているが,これは発言の引用内での使用が多かったためである。逆に,京都大学テキストコーパスでは評価:強や認識-証拠性などが多く含まれている7. これらのモダリティは報道記事や社説で広く使われる表現であり,本コーパスとの文体の差を示していると言える,表 6 から,本コーパスでは $80 \%$ 近い文で何らかの敬語表現が使用されていることが分かる,尊敬表現,謙譲表現も高い割合で使用されており,本コーパスでは読者の存在を意識した文書が多く含まれると考えられる. 本コーパスではドメインなどを限定せずに文書を Web から収集したため多様な文書が含まれている。夕グ付けされた文書の傾向を調べるため, 夕グ付けされた文書を人手で 13 種類に分類した。 その分類結果が表 7 である。表 7 から企業・店舗ページ,ブログ・個人ページ,辞典・解説記事を中心に多様な文書がタグ付けされたことが分かる. さらに,同じ企業・店舗ページであっても,企業のぺージだけでなく,学校や公共機関, 地方自治体のページなど様々なぺージ 表 6 敬語が出現する文の割合 表 7 人手による記事タイプの分類  から収集された文書が含まれている。また,夕グ付けされた文書の中には企業ぺージ内の広報用 blogのような, 一意にジャンル分けすることが難しいものも存在した ${ }^{8}$. ## 6.3 著者・読者表現 タグ付けされたコーパスにおける著者,読者の文書ごとの出現数を表 8 に示す.「出現あり」 のうち「表現あり」は文書中に著者・読者表現としてタグ付けされた表現のある文書の数を表す.「表現なし」は著者・読者表現はないが外界ゼロ照応の照応先として出現している文書の数を表す.著者の場合は約 7 割, 読者の場合は約 5 割の文書において談話に出現することが分かる.また, 著者, 読者ともに多くの文書において, 外界ゼロ照応の照応先としてのみ出現することが分かる. 著者・読者表現として使われた語を主辞の JUMAN 代表表記により調査した結果, 著者表現は 145 種類, 読者表現は 25 種類の表現が存在した. その例と出現回数を表 9 と表 10 に示す 9. 表 8 文書ごとの著者・読者の出現 表 9 著者表現の例(抜粋) 表 10 読者表現の例(抜粋) 8 今回は企業・店舗ページに分類した。 9 代表表記は「皆様/みなさま」のような形式で表現されるが,表では「皆様」にあたる部分のみを表示している. なお,ここでは著者・読者表現と共参照関係にある表現も著者・読者表現として扱った ${ }^{10}$. 著者表現では,「私」が 56 回と一番多く使われている。これはブログ記事において特に多く使用されていた。「私」や「僕」などのブログで使われると思われる表現では,「わたし」「あたし」,「ぼく」「ボク」などの若干くだけた表記も用いられていた。しかし,「私」の場合「私」が 56 回中 53 回,「僕」では「僕」が 11 回中 7 回と,多くは漢字での表記が用いられていた。また,「弊社」「当社」など企業が自社を表す表現も多く見られた。「管理人」「主婦」「監督」などの立場を表す表現や「協会」「病院」などの組織を表す表現,「ローソン」「真理子」など固有名など多様な表現で出現することが分かる。またコーパス全体で 1 度しか出現しなかった表現が 106 表現, 2 度しか出現しなかった表現が 24 表現と,文書固有の著者表現も多かった.読者表現では二人称代名詞の敬語表現である「皆様」や「皆さん」が多く出現した。これは Webぺージで読者を想定するのは企業ぺージの商品販売サイトが多いため,読者に対して敬語を用いることが多いためである。これらの表現でも「皆様」であれば「みなさま」「皆さま」,「皆さん」では「みなさん」などの異表記も用いられていた。これらの表現では,上述の一人称代名詞と異なり,「皆様」が 26 回中 17 回,「皆さん」が 7 回中 4 回であり,比較的様々な表記が用いられていた。また「客」や「会員」など企業ページで想定される読者を指す表現も多く見られた.「生徒」「ドライバー」「市民」など文書特有の読者を想定する表現も見られる.著者,読者両方の表現で用いられるものとしては「自分」が見られた. ## 6.4 ゼロ照応関係 タグ付けされたゼロ照応の個数を表 11 に示す. また, 文章内ゼロ照応の照応先の内訳を表 12 に外界ゼロ照応の照応先の内訳を表 13 に示す. なお, 表 12 で著者, 読者とは, ゼロ代名詞の照応先が著者,読者表現または著者,読者表現と共参照関係であることを表す 11 ,表 11 から特にガ格においてゼロ照応が多いことが分かる,また,ガ格,二格,ガ 2 格において外界ゼロ照 表 11 本コーパスにおけるゼロ照応の個数  応の割り合いが高いことが分かる.表 12 と表 13 から他の格に比べてガ格, ガ 2 格において著者が照応先になる割合が高いことが分かる。このことから用言の動作主が著者であることが多いことが分かる。一方,二格は他の格に比べて読者が照応先となることが多い. これは「[著者] ガ [読者] 二勧めする」や「[著者] ガ [読者] 二販売しています」といった,著者が読者に何らかの働きかけをする表現が多いためと考えられる。 比較のために京都大学テキストコーパスにおけるゼロ照応の個数を表 14 に, 外界ゼロ照応の内訳を表 15 に示す. 京都大学テキストコーパスには著者・読者表現が付与されていないので,文章内照応の内訳は調査できなかった。この比較から,本コーパスでは外界ゼロ照応の割合が京都大学テキストコーパスに比べて非常に高いことが分かる.特にガ格,ニ格,ガ 2 格においてその傾向が顕著である。これらの格では外界ゼロ照応の照応先を比較すると,本コーパスに 表 12 本コーパスの文章内ゼロ照応の内訳 表 13 本コーパスの外界ゼロ照応の内訳 表 14 京都大学テキストコーパスにおけるゼロ照応の個数 表 15 京都大学テキストコーパスにおける外界ゼロ照応の内訳 表 16 複数付与のタグが付与された関係数 おいて [著者]や [読者]が多いが,京都大学テキストコーパスではほとんどない.新聞記事では文書の著者や読者が談話に登場することはほとんどないが,Web 文書では頻繁に登場する。この違いがゼロ照応の照応先としても表れているといえる. 5 節で示した複数の解釈が可能な表現に対する夕グ付けを調査するために, [著者], [読者], [不特定-人]のいずれかが付与された項とそのうち複数が付与された項の数を表 16 に示す. 表 16 より, [著者], [読者], [不特定-人] のいずれかが付与された項のうち約 $13 \%$ が複数の解釈が可能であることが分かる。また, [不特定-人]が付与されたもののうち約半数において複数の解釈が可能となっている. ## 6.5 作業者間一致度 著者・読者表現および述語項構造のタグ付けの一致度を調査するために, 3 人の作業者が 100 記事に対してタグ付けを行った。これらのタグ付けに必要な形態素,構文関係および共参照関係については 3 人の作業者の相互確認のうえであらかじめ夕グ付けを行い,その後独立に著者・読者表現および述語項構造の夕グ付けを行った. 著者・読者表現の一致度は文書単位で一方の作業者を正解とした場合のF1 スコアにより求めた。その結果を表 17 に示す. 著者・読者表現が一致しなかったものを確認したところ, ほとんどの事例では作業者による 表 17 著者・読者表現一致度 作業ミスと考えられるものであった.実際の作業では全ての文書に対して異なる作業者による確認作業を行っているので, このようなものは取り除かれると考えられる. 一方,作業者の判断のゆれが原因と考えられるものとしては例 $(27)$ があった。この文書では一人の作業者のみが「スタッフサービス」が著者表現と判断し, 他の二人は著者表現なしと判断した.「スタッフサービス」が著者表現とした作業者は,「スタッフサービス」が人材派遣サー ビスの企業名だと判断し,著者表現なしと判断した作業者は派遣業一般の言い換えと判断したと考えられる。このような一般的な名詞とも著者表現ともとれる表現は 3 文の文脈のみからは判断が難しいことが分かる. スタッフサービスには一般事務だけではなく、医療機関専門に派遣されるスタッフサー ビスメディカルもあります。 また,夕グ付け作業時に基準を設定しなかったことによるずれとしては例 (28) があった. この文書では「私」がモニターの上で過ごすと書かれていることから,猫などを擬人的に扱ったブログであると考えられる,実際の著者は飼い主であると考えられ,このような場合に著者表現をどのように扱うかを定義していなかったために,作業者間で「私」を著者として扱うかの判断が分かれた。 (28)台風が通り過ぎるたびに寒くなっていきますね。私は暖かい場所を求めて会社の中を彷徨います。今日はこのモニターの上で過ごすことにしましょう。 同様に, 一人称視点の小説などで主人公を表す表現でも同様の問題が起こると考えられ, 今後は実際の著者以外の人物が著者的に振る舞う場合の著者表現について定義する必要がある. 述語項構造の一致度は格ごとに以下の式で計算した。 $ \begin{aligned} F 1(B ; A, \text { rel }) & =\frac{2 \times \operatorname{Recall}(B ; A, \text { rel }) \times \operatorname{Presicion}(B ;, \text { rel })}{\operatorname{Recall}(B ; A, \text { rel })+\operatorname{Presicion}(B ; A, \text { rel })} \\ \operatorname{Recall}(B ; A, \text { rel }) & =\frac{\sum_{\text {pred } \in \text { anno-pred }(A, \text { rel })} \frac{\mid \text { anno }(A, \text { rel }, \text { pred }) \bigcap \text { anno }(B, \text { rel }, \text { pred }) \mid}{\mid \text { anno }(A, \text { rel }, \text { pred }) \mid}}{\mid \text { anno-pred }(A, \text { rel }) \mid} \end{aligned} $ $ \operatorname{Precision}(B ; A, \text { rel })=\frac{\sum_{\text {pred } \in \text { anno-pred }(B, \text { rel })} \frac{\mid \text { anno }(A, \text { rel }, \text { pred }) \bigcap \text { anno }(B, \text { rel }, \text { pred }) \mid}{\mid \text { anno }(B, \text { rel }, \text { pred }) \mid}}{\mid \text { anno-pred }(B, \text { rel }) \mid} $ 合を表し, anno $(A, r e l, p r e d)$ は作業者 A が基本句 pred に rel の格で付与した項の集合とする. $\operatorname{anno}(A, r e l, p r e d)$ が複数の項からなる集合の場合,本来「AND」「OR」「?」の関係を持つが,一致度の調查では考慮しなかった。なお, $\operatorname{Recall}(B ; A, r e l), \operatorname{Precision}(B ; A, r e l)$ は精度と再現率の用言ごとのマクロ平均と言える. 表 18 と表 19 に用言と動作性を持つ体言に対するタグ付けの一致度の平均を示す. 全体として係り受け関係にある項で一致度が高い傾向にある。特に用言のガ格,ヲ格,二格で高い傾向にあるが,これらの格の場合には助詞として格が明示されていることが多いためである。文章内ゼロ照応と外界ゼロ照応の項では格によって差はあるがおおむね似たような一致度であり, その一致度は係り受けのある項よりも低い。また用言の一致度に比べ動作性体言の一致度が低い傾向にあることが分かる. 用言において作業者間の夕グ付けが一致しないものでは,用言が取る格が一致していないものが多くあった. このようなものは大きく分けて 3 種類に分類することができる. 一つ目は項は同じものを付与しているが,付与する格が異なるものである。例 (29) では「春雨がくせがない」「くせが春雨にない」と 2 通りの表現が可能なため, 作業者によって夕グ付けが分かれた. 表 18 用言の述語項構造の一致度 表 19 動作性体言の述語項構造の一致度 (29)くせのない春雨は、サラダ・和えもの・炒めもの・鍋物と様々な料理に使えます。 a. (ない৮ガ:くせ, 二:春雨) b. (ないடガ 2 :春雨, ガ:〈せ) このようなずれはガ 2 格で多く見られたが, 例 (30)のような二格とデ格のずれなどでも見られた。 (30)唐松岳に行くつもりだったが、ライブカメラで現地の様子を確認すると、もう雨が降っている。 a. (降っている $\leftarrow$ ガ:雨, 二:唐松岳) b. (降っているடガ:雨, デ:唐松岳) このようなずれがあった場合, 例 $(29)$ のようなガ 2 格に関するずれの場合には, ガ 2 格以外を優先することとし, 例 (29)では (29-a)とタグ付けした. それ以外の場合には, どちらも間違いとは言えない場合には,どちらがより自然な表現かを作業者間で多数決を行うこととし,例 (30) では (30-a)をタグ付けした. 二つ目は用言の解釈が分かれたものである。例 (31) の「イメージさせる」では,他動詞として考えると二格として [不特定-人]をとる。しかし, 二格をとらずに「色合いが海をイメージさせる」として,「色合い」の性質を表す表現としても解釈できる。そのため,作業者間では二格に [不特定-人] を付与するか何も付与しないかで判断が分かれた. (31)床板には深い海をイメージさせる色合いのガラスを落とし达んでおります。 a. (イメージさせる $\leftarrow$ ガ:色合い, ヨ:海, 二:[不特定-人]) b. (イメージさせる $\leftarrow$ ガ:色合い, ヨ:海) 同様に例 (32)でも「得られた」を可能と解釈するか, 受け身と解釈するかでタグ付けが分かれた. (32)ここに今までに得られた資料の一部を公表し、広く皆さまからの資料提供を願っております。 a. (得られたடガ:[著者], ヨ:資料) b. (得られたடガ:資料) このような場合には項を取る格が多くなる方を選択することとした。これは夕グ付けされる項が多い方が述語項構造の持つ情報量が多くなるためである。例 (31)では (31-a)を,例 (32)では (32-a)を夕グ付けした。 三つ目は必須的な格への [不特定-人], [不特定-物]などの付与漏れである. これらは文章中に出現しない項であり, 意識的に用言の格構造を考えなければ必須的な格であっても見落しやす 必要がある。夕グ付けでは一人の作業者のみがニ格に何も付与しておらずこの作業者の見落しといえる。 (33)私の作詞の作品や身近の出来事や政治経済の事を載せたいと思います。 (載せたい $\leftarrow$ ガ:私, ヨ:作品 AND 出来事 AND 事, 二:[不特定-物]) このような誤りについては,作業の際に複数の作業者による確認を行うことで訂正することが可能であると考えられる。 本研究で定義した複数の解釈が可能な表現に対する夕グ付けが一致していないものはほとんど見られなかった。一致していなかったもののうち, 文脈からは判断が難しいために作業者間の解釈が分かれたものとして例 (34) がある.例 (34)の「判断する」では, 著者が「サイコロジカルライン」を読者に勧めている,と解釈すると (34-a)のように夕グ付けすることとなる。一方,単なる「サイコロジカルライン」の説明と解釈する場合でも,「投資家」や投資についての研究者([不特定-人])が利用する手法だと解釈すれば (34-b)のように夕グ付けし, 研究者のみが利用する手法だと解釈すれば (34-c)のようにタグ付けすることとなる。 どの解釈が正しいかは今回夕グ付け対象とした 3 文だけからは困難である。そこで今回はそのような場合には解釈可能な夕グを全て付けることとし,(34-d)のようにタグ付けを行った。一方, 文書全体にタグ付けする際などには後続文の内容から解釈が一意に定まると考えられるので,格要素が明示されていない表現へのタグ付けの基準自体には問題はないといえる. (34) サイコロジカルとは、日本語に訳すと『心理的』という意味です。 サイコロジカルラインは、投資家心理に基づいて、買われすぎか売られすぎかを判断する時に利用します。 直近 12 日間で、終値が前日の株価を上回った確率を示すのが一般的です。 a. (判断する $\leftarrow$ [著者] ? [読者] ? [不特定-人]) b. (判断する [ [不特定-人] ? 投資家) c. (判断する $\leftarrow$ [不特定-人]) d. (判断する [著者] ? [読者] ? [不特定-人] ? 投資家) 動作性体言に対するタグ付けの一致度は用言に対するタグ付けに比べて低くなっている。こ  れは体言は動作性を持つ場合にのみ用言としての述語項構造の夕グ付けを行うが,作業者によって体言が動作性を持つかの基準が異なっていたことである。例えば例 (35)では一人の作業者のみが動作性を持つとして (35-a)のように述語項構造を付与したが,他の作業者は体言として (35-b)のように夕グを付与した. この場合にも,項を取る格が多くなる方を選択することとし (35-a)を夕グ付けした。 (35) 我々日本人は、生のキャベツの千切りをトンカツの付け合わせにしている。 a. (付け合わせ $\leftarrow$ ガ:日本人, ヲ:千切り,ニ:トンカツ) b. (付け合わせたノ:トンカツ) ## 7 関連研究 日本語の述語項構造および照応関係タグ付きコーパスとしては, 京都大学テキストコーパス (河原他 2002) と NAIST テキストコーパス (飯田他 2010) があり, 述語項構造解析や照応解析の研究に利用されている (笹野, 黒橋 2008; Imamura, Saito, and Izumi 2009; Iida and Poesio 2011).これらのコーパスは 1995 年の毎日新聞に述語項構造および照応関係を付与したコーパスである,新聞記事は内容が報道と社説に限られており,文体も統一されているため,新聞記事以外の意味関係解析への適応には不向きである. 様々なジャンルからなる日本語コーパスとしては現代日本語書き言葉均衡コーパス (BC$\mathrm{CWJ})^{13}$ がある. このコーパスは書籍, 雑誌などの出版物やインターネット上のテキストなどからなるコーパスである。このコーパスでは,書籍などについては幅広いジャンルのテキストから構築されているが,インターネット上のテキストは掲示板やブログなどに限定されている. このためインターネット上に多数存在する企業ページや通販ページなどはコーパスには含まれない.また,BCCWJに意味関係を付与する研究も行われている。一つ目は(小原 2011)による BCCWJに日本語 FrameNet で定義された意味フレーム情報, 意味役割, 述語項構造を記述する試みである.この研究では BCCWJ のコアデータに含まれる用言と事態性名詞に対して項構造の記述を行っている. しかし FrameNetではゼロ代名詞の有無は述語項構造に含まれるものの, 先行詞が同一文内にない場合にはその照応先の情報を付与していない. また, 照応関係の情報も付与されておらず,文をまたぐ意味関係の情報は付与されていない。二つ目は (小町,飯田 2011)による, 述語項構造と照応関係のアノテーションである. この研究では, NAIST テキストコーパスと同様の基準で述語項構造と照応関係を夕グ付けしている。述語項構造についてはNAISTテキストコーパスと同様にガ格,ヨ格,二格など限られた格にしか付与されていな  い. しかし, NAIST テキストコーパスでは付与されている橋渡し照応などの関係は付与されていない. 日本語以外で複数のジャンルに渡って意味関係を扱ったコーパスとしては, OntoNote (Hovy, Marcus, Palmer, Ramshaw, and Weischedel 2006) や Z-corpus (Rello and Ilisei 2009), LMC (Live Memories Corpus) (Rodríguez, Delogu, Versley, Stemle, and Poesio 2010)などがある. OntoNote は英語, 中国語, アラビア語の新聞記事, 放送原稿, Web ページなどからなるコーパスで, コー パスに含まれる一部のテキストは複数言語による対訳コーパスとなっている. 構文木, 述語項構造, 語義, オントロジー, 共参照, 固有表現などが付与されている. Z-corpus はスペイン語の法律書, 教科書, 百科事典記事に対しゼロ照応の情報を付与したコー パスである。 ゼロ照応のみを扱っており, 前方照応や述語項構造の情報は付与されていない. スペイン語ではゼロ照応は主語のみに発生するため, 述語項構造の情報とは独立にゼロ照応の情報を記述できるためである. LMC はイタリア語の Wikipedia と blog に照応関係のタグ付けをしたコーパスである.照応関係としてゼロ照応も扱っているが,述語項構造は扱っていない,イタリア語もゼロ照応は主語のみに発生するので, このコーパスではゼロ照応の起こった用言を照応詞として夕グ付けしている. ## 8 まとめ 本研究では Webを利用することで多様な文書からなる意味関係夕グ付きコーパスを構築した. 本研究では意味関係のタグとして, 述語項構造と照応関係の付与を行った。また, 文書の著者・読者に着目し,その表現に対してタグ付けを行った。夕グ付けを先頭 3 文に限定することで 1 文書あたりの作業量を減らし,1,000 文書への夕グ付けを行った. 夕グ付けされた文書を人手で確認した結果, ブログ記事,企業ぺージなど多様な文書が含まれていた.構築されたコーパスを分析した結果, 多くの文書において談話に著者・読者が出現し, 多様な著者・読者表現で記述されること, また特にゼロ照応において重要な役割を持つことを確かめた. コーパス作成は 5,000 文書を目標として現在も作業中である. 完成後は研究利用を前提としての公開を予定している. ## 謝 辞 本コーパスの夕グ付け作業に協力していただいた, 石川真奈見氏, 二階堂奈月氏, 堀内マリ香氏に心から感謝致します。 ## 参考文献 Hovy, E., Marcus, M., Palmer, M., Ramshaw, L., and Weischedel, R. (2006). "OntoNotes: The 90\% Solution." In Proceedings of the Human Language Technology Conference of the NAACL, Companion Volume: Short Papers, pp. 57-60, New York City, USA. Association for Computational Linguistics. 飯田龍, 小町守, 井之上直也, 乾健太郎, 松本裕治 (2010). 述語項構造と照応関係のアノテー ション:NAIST テキストコーパス構築の経験から. 自然言語処理, 17 (2), pp. 25-50. Iida, R. and Poesio, M. (2011). "A Cross-Lingual ILP Solution to Zero Anaphora Resolution." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 804-813, Portland, Oregon, USA. Association for Computational Linguistics. Imamura, K., Saito, K., and Izumi, T. (2009). "Discriminative Approach to Predicate-Argument Structure Analysis with Zero-Anaphora Resolution." In Proceedings of the ACL-IJCNLP 2009 Conference Short Papers, pp. 85-88, Suntec, Singapore. Association for Computational Linguistics. 河原大輔, 黒橋禎夫, 橋田浩一 (2002).「関係」タグ付きコーパスの作成. 言語処理学会第 8 回年次大会, pp. 495-498. Kawahara, D. and Kurohashi, S. (2006). "Case Frame Compilation from the Web using HighPerformance Computing." In Proceedings of the 5th International Conference on Language Resources and Evaluation, pp. 67-73. 小町守, 飯田龍 (2011). BCCWJに対する述語項構造と照応関係のアノテーション. 日本語コー パス平成 22 年度公開ワークショップ, pp. 325-330. 小原京子 (2011). 日本語フレームネットの全文テキストアノテーション:BCCWJへの意味フレーム付与の試み. 言語処理学会第 17 回年次大会, pp. 703-704. Rello, L. and Ilisei, I. (2009). "A Comparative Study of Spanish Zero Pronoun Distribution." In Proceedings of the International Symposium on Data and Sense Mining, Machine Translation and Controlled Languages (ISMTCL), pp. 209-214. Rodríguez, K. J., Delogu, F., Versley, Y., Stemle, E. W., and Poesio, M. (2010). "Anaphoric Annotation of Wikipedia and Blogs in the Live Memories Corpus." In Proceedings of the Seventh Conference on International Language Resources and Evaluation (LREC'10), pp. 157-163, Valletta, Malta. 笹野遼平, 黒橋禎夫 (2008). 自動獲得した名詞関係辞書に基づく共参照解析の高度化. 自然言語処理, 15 (5), pp. 99-118. Sasano, R. and Kurohashi, S. (2011). "A Discriminative Approach to Japanese Zero Anaphora Resolution with Large-scale Lexicalized Case Frames." In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 758-766, Chiang Mai, Thailand. Asian Federation of Natural Language Processing. ## 付録 ## A 複数解釈可能な表現の例とタグ付け基準 5 節で示した複数解釈可能な表現のタグ付けにおいて,典型的表現として作業者に例示したものを示す.なお 5 節と同様に [著者], [読者] は著者表現, 読者表現に対しても同様に考えることとする.以降の例で文頭に括弧内で書かれている内容は,例文の書かれている文脈についての情報である. ## 著者の考えや経験を述べた表現 著者の経験や考えを述べた表現において [著者]だけでなく[不特定-人]を付与するかどうかは以下のように判断する. [著者] のみを付与する場合 : 著者のみが当てはまり,他の人にはあてはまらないと考えられる場合には動作主にあたる格に [著者]のみを付与する,具体的には,ブログにおける著者の自身の出来事や感想, 謙譲表現の主体などがあたる. $ \left(\begin{array}{l} \text { 訪店しましたが } \leftarrow \text { ガ:[著者] } \\ \text { 思いました } \end{array}\right) $ $ \text { 今回始めて訪店しましたが、素敵なお店だと思いました。 } $ [著者] および [不特定-人] を付与する場合:以下のような場合には動作主にあたる格に「[著者] ? [不特定-人]」を付与する. ・一般論だが著者にもあてはまる例 $(37)$ では,「整備しておかなければならない」のは一般論だが,この文書では著者は鉄道会社と考えられ,著者自身にもあてはまると解釈できる。 線路は列車の安全を確保し、快適な乗り心地を維持する状態に整備しておかなければなりません。 (整備しておかねばなりません ・著者自身が経験したことで,一般にもあてはまる例 $(38)$ では,著者自身が鹿を見た経験を 持つと考えられるが,「できます」という表現により一般の人にもあてはまると解釈できる. (38)(ブログ内にて)蓼科ではいたるとことで鹿を見ることができます。 (見ることができますたガ:[著者]?[不特定-人]) ・著者自身が実行したか分からない例 (39)では, 文脈だけからは乳牛を育てている著者が飼料を栽培しているのか, 飼料販売会社が栽培しているのかが分からない. (39)乳牛のエサは有機肥料を用いて栽培した飼料を使用しています。 (栽培した $\leftarrow$ ガ:[著者]?[不特定-人]) ## 読むこと自体が行為の受け手となる表現 「紹介します」「お教えします」などの表現は, 読むこと自体がその行為の受け手となるため特別に扱う必要がある. [読者] のみを付与する場合:「紹介します」「お教えします」の具体的な内容が直後に書かれている場合には受け手にあたる格に [読者]のみを付与する。この場合には,その文章を読んだ人 (読者)のみが受け手となるからである. (40) 今まで中々結婚にたどりつけなかった理由をお教えしましょう。 幸せな結婚の為にはまず、あなた自身の内面と向き合う必要があります。 [読者] および [不特定-人] を付与する場合:「紹介します」「お教えします」などが Webサイト全体のことを指している場合には,受け手にあたる格要素に「[読者]?[不特定-人]」を付与する.これは,Webサイトにおける「当サイトの紹介」ページなどでは,そのページを読んだたけではそのサイト全体を読んでいるとは限らないためである. このページでは、免許取得のための講座をご紹介していきます。 見ごたえのある作品を当サイトにてご紹介させて頂いております。 (ご紹介させて頂いております $\leftarrow$ ガ:著者],二:[読者]?[不特定-人]) ## 勧誘的表現 [著者] および [読者] を付与する場合:勧誘した行為を著者も行うと解釈できる場合には [著者] および [読者]を付与する。この場合には著者と読者が同時に行うと考えられるので「AND」の 関係とする.例 (43)のような場合には,著者が読者に株式市場の分類を見るように促し,また説明のため著者も見ていると考えられる.Webサイトを通してのやりとりであり実際に同時に見るわけではないが,説明の過程で同時に見ていると仮定して「AND」で付与する. (43) まずは株式市場の分類を見てみましょう。 (見てみましょう $\leftarrow$ ガ:[著者] AND [読者] [読者] のみを付与する場合:勧誘した行為を著者が行わないと解釈できる場合には [読者]のみを付与する。例 (44) や例 (45) では,著者は読者に勧めているが,著者自身は実行しないと考えられるので [読者]のみを付与する. (旅行会社のサイト内で)様々な無人島が沖縄にはありますので、いろいろチャレンジしてみましょう。 リフレックスで不動産を売却してみませんか。 ## 使役的表現 使役表現や依頼表現では [読者]のみを付与する. (46) 直接予約してください。 メールの際は必ず名前を添えてくたささい。 (添えてくださいくガ:[読者]) ## 会員制のサービス,メールマガジン等の紹介 [読者] および [不特定-人] を付与する場合:読者を会員などと仮定している場合には, そのサー ビスは会員である [読者]および読者以外の会員([不特定-人])が利用できるので「[読者]?[不特定:人]」を付与する. (48)(会員制の通販のページで)分割払いなど、多彩なお支払い方法から選択できます。詳しくはガイドをご参照ください。 [不特定-人] のみを付与する場合:読者をまだサービスに加入していない人と仮定し,そのサー ビスを紹介している場合には,この段階では読者はサービスを受けていないので [不特定-人]のみを付与する。 (49)メールマガジンではお得な情報をお送りしています。是非ご登録ください。 (お送りしていますた:[不特定-人]) ## 著者が読者に勧めている表現 一般的な事項であるが, 著者が読者に勧めているような表現の場合には [読者] および [不特定-人] を付与する。また,そこに [著者]を加えるかは以下のように判断する. [著者], [読者] および [不特定-人] を付与する場合 : 著者自身も実行した経験から钦めていると考えられる場合には,「[著者]?[読者]?[不特定-人]」を動作主にあたる格に付与する. (50)ブログに記事を書き込んで、インターネット上で公開するのはとても簡単です。 (公開する $\leftarrow$ ガ:著者] ? [読者] ? [不特定-人], ヨ:ブログ) [読者] および [不特定-人] を付与する場合:著者が自社製品を紹介している場合など,著者自身は実行していないと考えられる場合には,「[読者]?[不特定-人]」を動作主にあたる格に付与する。 (51) 吊るし紐付きですので、部屋に吊るして飾る事もできます。 (飾るガ:[読者] ? [不特定-人]) ## 略歴 萩行正嗣:2008 年京都大学工学部電気電子工学科卒業. 2010 年同大学大学院情報学研究科修士課程修了. 現在, 同大学院博士後期課程在学中. 日本語ゼ口照応解析の研究に従事. 河原大輔:1997 年京都大学工学部電気工学第二学科卒業. 1999 年同大学院修士課程修了. 2002 年同大学院博士課程単位取得認定退学. 東京大学大学院情報理工学系研究科学術研究支援員, 独立行政法人情報通信研究機構研究員, 同主任研究員を経て,2010 年より京都大学大学院情報学研究科准教授. 自然言語処理, 知識処理の研究に従事. 博士 (情報学). 言語処理学会, 情報処理学会, 人工知能学会, 電子情報通信学会, ACL, 各会員. 黒橋禎夫:1994 年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士 (工学). 2006 年 4 月より京都大学大学院情報学研究科教授. 自然言語処 理, 知識情報処理の研究に従事. 言語処理学会 10 周年記念論文賞等を受賞. (2013 年 9 月 20 日受付) (2013 年 12 月 3 日再受付) (2014 年 1 月 17 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 否定の焦点情報アノテーション 松吉 俊† } 「誰がいつどこで何をする」という文に「ない」や「ん」,「ず」などの語が付くと, いわゆる否定文となる。否定文において,否定の働きが及ぶ範囲をスコープと呼び, その中で特に否定される部分を焦点と呼ぶ。否定の焦点が存在する場合,一般にそ の焦点の箇所を除いた文の命題は成立する。それゆえ,自然言語処理において,否定の焦点が存在するか,および,どの部分が否定の焦点になっているかを自動的に 判定する処理は, 含意認識や情報抽出などの応用処理の高度化のために必要な技術 である,本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点をテキストにアノテーションする枠組みを提案し, 構築した 否定の焦点コーパスについて報告する。否定文において否定の焦点を判断するため の基準を提案し, 否定の形態素および焦点の部分にアノテーションすべき情報につ いて議論する。否定の焦点の判断には,「は」や「しか」などのとりたて詞や前後の 文脈などが手がかりとなるため,これらを明確にアノテーションする。我々は,提案するアノテーション体系に基づいて, 楽天トラベルのレビューデータと『現代日本語書き言葉均衡コーパス』内の新聞を対象としてアノテーションコーパスを構築 した。本論文では,コーパス内に存在する 1,327 の否定に対するアノテーション結果を報告する。 キーワード:否定,否定の焦点,コーパスアノテーション,モダリティ ## Annotation of Focus for Negation in Japanese Text ## Suguru Matsuyoshi ${ ^{\dagger}$} This paper proposes an annotation scheme for the focus of negation in Japanese text. Negation has a scope, and its focus falls within this scope. The scope of negation is the part of the sentence that is negated. The focus of negation is the part of the scope that is prominently negated. In natural language processing, correct interpretation of negated statements requires precise detection of the focus of negation in the statements. As a foundation for developing a focus detector, we have annotated a part of "Rakuten Travel: User Review Data" and a part of a newspaper subcorpus of the "Balanced Corpus of Contemporary Written Japanese," with our annotation scheme. In this scheme, a negation cue in the text data is linked to the focus by annotation with identifying clues. These clues include focus particles such as "wa" and "shika," and other expressions in the context. We report 1,327 negation cues and the foci in the corpora. Key Words: Negation, Focus of Negation, Corpus Annotation, Modality  ## 1 はじめに 自然言語処理の分野において,文章を解析するための技術は古くから研究されており,これまでに様々な解析ツールが開発されてきた. 例えば, 形態素解析器や構文解析器は, その最も基礎的なものであり, 現在, 誰もが自由に利用することができるこれらの解析器が存在する. 形態素解析器としては, $\mathrm{MeCab}^{1}$ や JUMAN 2 などが, 構文解析器としては, CaboCha 3 や $\mathrm{KNP}^{4}$ などが利用可能である。近年, テキストに存在する動詞や形容詞などの述語に対してその項構造を特定する技術,すなわち,「誰がいつどこで何をするのか」という事象 5 を認識する技術が盛んに研究されている。日本語においては, KNP やSynCha 6 などの解析ツールが公開され,その利用を前提とした研究を進めることが可能になってきた. 自然言語処理の応用分野において,述語項構造解析の次のステップとして, 文の意味を適切に解析するシステムの開発, および, その性能向上が望まれている。意味解析に関する強固な基盤を作るために, 次のステップとして対象とすべき言語現象を見定め, 言語学的観点および統計学的観点から具にその言語データを分析する過程が必要である. 主に述語項構造で表現される事象の末尾に,「ない」や「ん」,「ず」などの語が付くと,いわゆる否定文となる。否定文では,一般に,その事象が成立しないことが表現される.否定文において, 否定の働きが及ぶ範囲をスコープ, その中で特に否定される部分を焦点(フォーカス) と呼ぶ (日本語記述文法研究会 2007). 否定のスコープと焦点の例を以下に示す. ここでは, 注目している否定を表す表現を太字にしており, そのスコープを角括弧で囲み, 焦点の語句に下線を付している。 (1) 雪が降っていたので、[ここに車では来ませ] (2) 別に [入りたくて入った]のではない。 文 (1)において, 否定の助動詞「ん」のスコープは,「ここに車では来ませ」で表現される事象である。文(1)からは, この場所に来たが, 車を使っては来なかったことが読み取れるので, 否定の焦点は, 「車では」である。文 (2)において, 否定の複合辞「のではない」のスコープは,「入りたくて入った」であり,否定の焦点は,「入りたくて」であると解釈できる. 文 (1) も文 (2) もいずれも否定文であるが,成立しない事象のみが述べられているわけではない. 文 (1) からは,書き手がここに来たことが成立することが読み取れ,文 (2) からは,書き手がある団体や部活などに入ったことが事実であることが読み取れる。一般に, 否定文に対して, ^{1} \mathrm{http} /$ //mecab.googlecode.com/svn/trunk/mecab/doc/index.html 2 http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN 3 http://code.google.com/p/cabocha/ 4 http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP 5 この論文では, 動作, 出来事, 状態などを包括して事象と呼ぶ. 6 https://www.cl.cs.titech.ac.jp/ ryu-i/syncha/ } スコープの事象が成立しないことが理解できるだけでなく, 焦点の部分を除いた事象は成立することを推測することができる (日本語記述文法研究会 2007; Blanco and Moldovan 2011a). ゆえに,自然言語処理において,否定の焦点を的確に特定することができれば,否定文を含むテキストの意味を計算機がより正確に把握することができる。このような技術は, 事実性解析や含意認識, 情報検索・情報抽出などの応用処理の高度化に必須の技術である. しかしながら, 現在のところ, 日本語において, 実際に否定の焦点をラベル付けしたコーパスや, 否定の焦点を自動的に特定する解析システムは,利用可能ではない. そこで,本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点に関する情報をテキストにアノテーションする朹組みを提案する。提案するアノテーション体系に基づいて, 既存の 2 種類のコーパスに対して否定の焦点の情報をアノテーションした結果についても報告する. 日本語において焦点の存在を明確に表現する時に, しばしば,「のではない」や「わけではない」といった複合辞が用いられる。また,「は」や「も」,「しか」などに代表されるとりたて詞 (日本語記述文法研究会 2009) は, 否定の焦点となりやすい. 我々のアノテーション体系では,前後の文脈に存在する判断の手がかりとなった語句とともに, これらの情報を明確にアノテー ションする。 本論文は, 以下のように構成される。まず, 2 章において,否定のスコープおよび否定の焦点を扱った関連研究について紹介する。次に, 3 章で,否定の焦点アノテーションの基本指針について述べる。続く 4 章で,与えられた日本語文章に否定の焦点をアノテーションする枠組みを説明する。 5 章で,既存の 2 種類のコーパスにアノテーションした結果について報告する. 6 章はまとめである. ## 2 関連研究 言語学の分野においては, 英語や日本語を対象として, 否定という言語現象に関して多くの研究や解説書が存在する。そこには, 否定の焦点についての説明や理論を述べる文献 (Huddleston and Pullum 2002; 加藤, 吉村, 今仁 2010 ; 日本語記述文法研究会 2007) も存在する. 日本語においては, 否定文の解釈にとりたて詞が強く関わる。それゆえ, 否定との共起関係 (日本語記述文法研究会 2007,2009 ) や,とりたて詞のスコープの広さ (奥津,沼田,杉本 1986; 茂木 1999 ;沼田 2009; 小林 2009) といった観点から, とりたて詞が関わる否定文の研究が行われている. 自然言語処理の分野では,これまでに,否定のスコープを対象としたアノテーションコーパスがいくつか構築されている. BioScope (Vincze, Szarvas, Farkas, Móra, and Csirik 2008)は,生医学分野における英語文章を対象に, “not”や“without”などの否定の手がかり語句とそのスコープをアノテーションしたコーパスである.Morante らは,このコーパスを利用して,教 師あり機械学習手法を用いた, 否定のスコープ検出システムを提案している (Morante, Liekens, and Daelemans 2008). Li らは, BioScope を対象として, 浅い意味解析を取り入れた, 否定のスコープ検出システムを提案している (Li, Zhou, Wang, and Zhu 2010)。*SEM 20127では, Shared taskの1つとして, 否定のスコープを検出するタスクが設定されており, Conan Doyle の小説を対象とした, 否定のスコープアノテーションコーパスが提供されている8. 日本語に関しては,川添らが, 日本語の新聞を対象として否定のスコープのアノテーションを進めている (川添, 齊藤, 片岡, 崔, 戸次 2011). 否定のスコープを対象とした研究に比べ, 否定の焦点を対象とした研究はまだ少ない. Blanco らは, PropBank (Babko-Malaya 2005)を基盤データとし, そこにラベル付けされた述語と項の間の関係を利用して,否定の焦点をアノテーションする方法を提案し,アノテーションコーパスを構築した (Blanco and Moldovan 2011a). 彼らは, 次の手順で否定の焦点をアノテーションする。 (1) “not”などの否定の語句に付与される MNEG ラベルを含む文を抽出する (2) MNEG ラベルと直接関係する述語を対象とする (3)対象の述語に関係する項(A0, A1, A2, TMP, LOC など)の中から否定の焦点を選択 ${ }^{9}$ し, その項のラベルを「焦点」としてコーパスに記述する このコーパスを利用して, Blanco らは, 機械学習手法やヒューリスティックを用いて否定の焦点を検出するシステムを提案している (Blanco and Moldovan 2011a, 2011b). *SEM 2012 では, Shared taskの1つとして,このコーパスを利用して,否定の焦点を検出するタスクが設定された ${ }^{10}$. Rosenberg らは,4つのヒューリスティック規則を組み合わせる手法を用いて,否定の焦点を検出するシステムを提案している (Rosenberg and Bergler 2012). 日本語に関しては, 松吉らが, 拡張モダリティの 1 項目として否定の焦点を扱っている (松吉, 江口, 佐尾, 村上, 乾,松本 2010). しかしながら, 主要な項目ではないとして, 彼らのコーパスにおいて実際にアノテーションされた事例の数は非常に少ない. ## 3 否定の焦点アノテーションの基本指針 文章に存在する否定を検出し,その焦点にラベルを付け,コーパスを構築する.言語学的利用のみでなく, 自然言語処理への応用も考慮して, アノテーションの基本指針を定める.  ## 3.1 焦点の部分を除いた事象が成立すること 『現代日本語書き言葉均衡コーパス』 $(\mathrm{BCCWJ})^{11}$ から抽出した, 否定の焦点の例を以下に示す.ここでは,否定を表す表現を太字にし,焦点の語句に下線を付している ${ }^{12}$. (3) だが、学校での子どもの様子はわからないから、それだけでうれしい。 [PN1a_00002] (4) 十七日まで選手にも協会関係者にも明かさない。[PN2f_00002] (5) 力を出し切って敗れたわけではない。 [PN2f_00003] (6) WH O は五月十八日、ジュネーブで開いた総会で台湾の総会へのオブザーバー参加問題を議題としないことを決め、オブザーバー参加を認めなかった。 [PN4g_00001] 1 章で述べたように, 否定文において, 否定の働きが及ぶ範囲が否定のスコープである (日本語記述文法研究会 2007). 一般に,否定のスコープには,次のものが含まれる ${ }^{13}$. - 否定付与の対象となった述語 - その述語のすべての項 (必須の項だけでなく, 任意の項も含む) - (従属度が高い)従属節 - 述語のアスペクト 「のではない」や「わけではない」などの形式が用いられた場合, 文の主題や述語のモダリティもスコープに含まれることがある。これらの要素を含むスコープの中で, 特に否定される部分が否定の焦点である. 文 (3) は,家庭訪問を受けた母親の発言の一部である。「ない」のスコープは,「学校での子どもの様子はわから」で表現される事象である.家庭での子どもの様子は分かると考えられるので,焦点は「学校での」とするのが妥当であると思われる. 文 (4)は,最終登録選手に関しての監督の発言の一部である。「ない」のスコープは,「十七日まで選手にも協会関係者にも明かさ」で表現される事象である。十七日かそれ以降に登録選手を明かすことが期待できるので,焦点は「十七日まで」と考える. 文 (5)は,試合に敗れた選手に関する報道記事の一部である。否定の複合辞「わけではない」 のスコープは「力を出し切って敗れた」であり,否定の焦点は「力を出し切って」であると解釈できる。 文 (6) は, WHO 総会に関する報道記事の一部である。「なかっ」のスコープは,「WH O はオブザーバー参加を認め」で表現される事象である。この例文においては,(前後の文脈を考慮しても,)スコープの中に特に否定される部分はないように思われる。本研究では,このような場  合に,「なかっ」の焦点は,無しとせず,便宜上,スコープ全体であると考える,紙面が煩雑になるのを避けるため,焦点がスコープ全体である場合には,例文に下線を付けない. 否定の焦点がスコープ全体でない場合,スコープの事象が成立しないことだけでなく,焦点の部分を除いた事象は成立することが推測できる (日本語記述文法研究会 2007; Blanco and Moldovan 2011a). 例えば,文(5)において,「力を出し切って敗れた」ことは否定されるが,「力を出し切って」の部分に否定の焦点があることが分かれば,「敗れた」ことは成立することが推測できる. 同様に, 文 (4)において, 「十七日まで」の部分に否定の焦点があることが分かれば,監督はずっと明かさないのではなく, 十七日かそれ以降に「選手にも協会関係者にも明かす」ことが成立することが推測できる,我々は,基本指針の 1 つとしてこの考え方を取り入れる. ## 3.2 否定要素 本論文では,文中において否定を表す表現のことを否定要素と呼ぶ。本研究では,次の 3 種類の語群をまとめたものを否定要素と定める. 否定辞助動詞「ない」と「ず」, 接尾辞「ない」, 接頭辞「非」,「不」,「無」,「未」,「反」,「異」非存在の内容語形容詞「無い」, 名詞「無し」 否定を表す複合辞 「のではない」,「わけではない」,「わけにはいかない」など 否定辞のみでなく, 非存在の内容語まで含める理由は, 「無い」は, 存在の内容語「ある」の丁寧な否定「ありません」と同等と思われるからである. 否定辞「ん」が使用されている「ありません」は対象とし,「無い」は内容語なので対象としないのは,不合理であると思われる。言語学の文献 (森田, 松木 1989 ; 日本語記述文法研究会 2007) において, 否定を表す複合辞とされる表現は,1形態素の否定辞と異なる性質を持つと思われるので,区別して扱う. 接頭辞「非」や「不」は,直後の語を否定する働きを持つのみであり,これらに対して焦点を判断する必要はないと思われがちである。しかしながら,次の例のように,「ない」や「ん」 と同様に,接頭辞もスコープの一部に焦点を持つことがあるので,対象とした. (7)九十年代の「失われた十年」ではっきりしたのは、もはや民間まかせでは過剩債務処理は不可能ということだ。 [PN1b_00004] これは,前の文脈から,過剰債務処理には政府の介入が必要であることが読み取れる例であり,否定の焦点は「民間まかせでは」であると考える. ## 3.3 否定要素としない語句 否定辞か非存在の内容語を含む 2 形態素以上の慣用表現は, 全体を 1 語とし, 焦点判断の対象としないこととする。これらの慣用表現は, 大きく分けると, 次の 2 種類からなる. 複合語「物足りない」,「仕方がない」,「思わず」など 否定以外の意味を持つ複合辞「なければならない」,「ないといけない」,「かもしれません」, 「にもかかわらず」,「だけでなく」など 上記の複合語に相当するかどうかは, 次の 2 点から判断する. - 肯定形(例えば,「仕方がない」に対する「仕方がある」)が, 通常, 使用されるか - 国語辞典 (松村, 小学館『大辞泉』編集部 1998; 西尾, 岩淵, 水谷 2000) に見出しが立っているか 複合辞であるかどうかの判断は, 言語学や日本語教育の文献 (森田, 松木 1989 ; グループ. ジャマシイ 1998)を参考にし, 前節で述べたように, 否定を表す複合辞とされる表現は, 否定要素として扱う。 助動詞「ない」か接尾辞「ない」, もしくは, 形容詞「無い」を使った単純な否定表現に言い換えられない否定の接頭辞は, 否定要素とはしない. 例えば, 「不十分」は,「十分でない」ことであるので, 焦点判断の対象とする。一方, 「不気味」は, 「気味が悪い」ことであり,「気味がない」や「気味でない」に言い換えられないので,対象としない. ## 3.4 否定要素と呼応する程度・頻度の副詞 以下の例文のように, 否定要素に呼応する, 程度の副詞や頻度の副詞が用いられることがある.ここでは, 注目している否定要素を太字にし, 程度の副詞や頻度の副詞に下線を付ける. (8)ボールを回すくらいで、そんなにハードな練習じゃなかった。 [PN2f_00002] (9)市街地では、街灯やライトアップによる“光害”で夜空の星がなかなか見えない。 [PN2g_00004] (10)価格は 1 万円前後で、「いつもはぜいたくできないけれど、お正月くらい、という方が多いようです」。 [PN3b_00004] 文 (8) で述べられていることは,「全くハードな練習ではなかった」ことではなく, ハードな練習ではあったが,その程度が想定されるよりも高くなかったということである. 同様に, 文 $(9)$ では, 星は全く見えないのではなく, 見える程度や頻度が低いということが述べられている。文 (10) の該当箇所は,いわゆる部分否定であり,「ぜいたくできる」ことが全く成り立たないわけではなく, たまには成り立つことが読み取れる。否定要素に呼応する, 程度の副詞や頻度の副詞は,全く成り立たないことを強調する完全否定の副詞と,全く成り立たないわけではないことを表現する弱否定の副詞に分類することができる (日本語記述文法研究会 2007$)^{14}$.「全然」 や「絶対に」,「決して」などの副詞は, 完全否定の副詞であり, 文 $(8) \sim(10)$ における下線の副詞などは,弱否定の副詞である.  本研究では,否定と呼応する弱否定の副詞を否定の焦点とみなす.これらの副詞は,「多くは (持てない)」や「速くは (走れない)」のような形容詞連用形十「は」や,「頻繁には(通えない)」のような形状詞 +「には」と同様に用いられる。このような形容詞や形状詞を否定の焦点として扱うことは自然であることから, これらの形容詞や形状詞に連続するものとして,否定と呼応する弱否定の副詞も否定の焦点とみなす 15 .このようにみなしても, 1 章で述べた,言語学の文献における焦点の定義と矛盾することはないと思われる,上の例で見たように,弱否定の副詞に対しても 3.1 節の考え方が成立する. 一方, 完全否定の副詞は, 否定のスコープの一部ではなく, 否定のスコープ全体が全く成り立たないことを強調する (日本語記述文法研究会 2007). 文 (11) と文 (12) に,否定と呼応する完全否定の副詞の例を示す。ここでは,注目している否定要素を太字にし,完全否定の副詞に二重下線を付ける。 (11) 栃乃洋をまったく寄せ付けなかった。[PN1e_00004] (12) 一向に出口が見えない長期の不況、社会全体をおおう閉塞状況、重なる将来への不安など 前世紀終盤から引き継いだ課題への各党の対応を、国民はどう判断するか。[PN1b_00002] このような場合, スコープ全体が否定の焦点であるので, 否定と呼応する完全否定の副詞を否定の焦点とみなすことはしない. ## 3.5 とりたて詞 とりたてとは, 文中のある要素をきわだたせ, 同類の要素との関係を背景にして, 特別な意味を加えることである (日本語記述文法研究会 2009).「は」や「も」,「さえ」,「しか」など,とりたての機能を持つ助詞のことを, 本研究ではとりたて詞と呼ぶ. とりたて詞が付いた語句は, 否定の焦点になりやすい,例として,対比を表す「は」を含む否定文と,限定を表す「しか」を含む否定文を以下に示す。いずれの例においても,とりたて詞が付いた箇所が否定の焦点である. (13) 前半はスコアが伸びずパープレー。[PN3d_00003] (14) 普段は決まったものしか料理しないので、おけいこ感覚で。[PN3b_00004] 文 (13) は,ゴルフの大会において,前半と後半を対比して述べるものであり,後半はスコアが のは料理しないことが述べられている. 本研究では,否定の焦点ととりたて詞の関係を観察するために,とりたて詞の有無とその種類をアノテーションする.基本的にはガ格やヲ格などの格情報と同様の形式でアノテーション  するが,限定を表す「しか」と,数量語に付く「も」には特別なマークを付与する. 文 (14)で見たように,「しか」は,必ず否定要素と共起する。「しか」が付く項は強く取り立てられるので,常に否定の焦点となる。「しか」が存在する否定文では,文に述べられたまさにこの場合には事象は成立するが,これ以外の場合には成立しないことが表現される。「しか」 が存在する事例には,3.1節の考え方を適用できないので,特別なマークを付けて,「しか」が存在することを明示する。これにより,計算機は以下に例示するような解釈を得ることが可能になる。文 (13)の焦点には特別なマークを付けないので,計算機は,3.1節の考え方を適用して,「前半でない場合にスコアが伸びた」という解釈を得る。一方,下の文 $\left(13^{\prime}\right)$ の焦点には「しか」 という特別なマークを付けるので,計算機は,規則の例外であることを認識し,「前半にスコアが伸びた。前半でない場合はスコアが伸びなかった」という解釈を得る. $\left(13^{\prime}\right) \quad$ 前半しかスコアが伸びなかった。[作例] 数量語に付く「も」が否定要素と共起すると,「その概数には届かない」という意味と,「書き手はそれを少ない・低いと捉えている」ことが表現される (日本語記述文法研究会 2009). これは,累加の「も」にはない性質である。例を以下に示す. (15)出場者ランキングの二十位にも入っていなかった 2 年生・高平慎士が、晴れの舞台で堂々と高校 3 傑入り。 [PN1e_00003] 3.1 節の考え方の適用外ではないが,自然言語処理における評判分析・感情解析夕スクに有用であると思われるので, 累加の「も」ではないことを示す特別なマークを付けて, 数量語に付く 「も」が存在することを明示する。 2 章の冒頭で少し触れたように, 言語学の分野においては, 否定文にとりたて詞が存在する場合, 否定のスコープととりたて詞のスコープのどちらが広いかを考慮しながら,否定文の解釈に対するとりたて詞の性質を議論する (奥津他 1986; 茂木 1999; 沼田 2009; 小林 2009). 例えば,次の文は,2つのスコープのどちらが広いかにより,2つの異なる解釈が可能である (茂木 1999). (16) 親にまで打ち明けなかった。[(茂木 1999)の p. 29] 「まで」のスコープが否定のスコープより広い場合の解釈最初に打ち明けるべきである親に対しても打ち明けなかったし,親以外に対しても打ち明けなかった. 否定のスコープが「まで」のスコープより広い場合の解釈信頼できる親友には打ち明けたが, (問題を大きくしたくなかったので,)親には打ち明けなかった. 4.1 節で述べるように, 本研究では, 3.1 節の考え方に基づいて否定の焦点をアノテーションする.とりたて詞のスコープの広さも考慮しながら情報をアノテーションすることは, 今後の課題である. ## 3.6 二重否定 否定要素が 2 つ重なって用いられることを二重否定と呼ぶ (日本語記述文法研究会 2007). 以下に,二重否定を含む例文を示す.ここでは,否定要素とその焦点の対応を明示するため, $i$ や jなどの添字を用いている. (17) 1 年生のうち、鈴木は $j$ 、眠たそうに走っていたけれど、早朝練習に来なかっ ${ }_{i}$ たわけではない ${ }_{j}$ [作例] (19) 理由なく ${ }_{k} j 、$ レストランでは $_{i}$ これを食べない ${ }_{i}$ のではない ${ }_{j}$ [作例] (20) 彼なら $j$ 金曜日までに報告書を仕上げることは不 $i_{i}$ 可能ではない ${ }_{j}$ [作例] 文 (17)では,「なかっ」と「わけではない」という 2 の否定要素が重なって用いられている. 鈴木以外の 1 年生の誰かは早朝練習に来なかったことが読み取れるので,外側の否定要素の「わけではない」は,「鈴木は」に焦点を持つと考えられる. 文 (18)では,外側の否定要素の「のではない」の焦点は,「気まずくて」であると思われる. 文 (19)には,3つの否定要素が使用されており,「のではない」のスコープの中に,残りの 2 つの否定要素が含まれる,家ではこれを食べるが,レストランでは食べないことが推測できるので, 「ない」の焦点は,「レストランでは」である,理由がないのではなく,理由があることが読み取れるので, 「のではない」の焦点は, 「理由なく」であると考える. 文 (20)は,接頭辞の否定要素を含む例である,彼以外には不可能であることが推測できるので,「ない」の焦点は「彼なら」である. 本研究では,二重否定に関わる否定要素に対して,それぞれその焦点が何であるかを判断してアノテーションする17.このとき,内側の否定要素のスコープの事象が二重否定により成立する場合, 内側の否定要素に特別なマークを付ける。例えば,文 (17)の「なかっ」のスコープは,「鈴木は早朝練習に来」で表現される事象であり, 二重否定により, この事象は成立することが読み取れる。この「なかっ」には上記のマークを付け,「鈴木は早朝練習に来なかった」ことが事実ではないこと(すなわち,「鈴木は早朝練習に来なかった」ことが否定されていること) を表現する。一方, 文 (18)の「なかっ」のスコープは, 「山田は合宿に参加し」で表現される事象であり,この文からは,「山田は合宿に参加しなかった」ことが事実であることが推測できる.この場合は, 二重否定に関わらない通常の否定要素と同様に扱うことができるので, 特別なマークは付けない. このようなアノテーションは, 3.1 節の考え方と矛盾を起こさない. 例えば,文 (17)における外側の否定要素である「わけではない」に対して 3.1 節の考え方を適用して,1 年生のうち鈴木以外の誰かは早朝練習に来なかったことを推測することができる。同様に, 文 (19) における内側の否定要素である「ない」に対して 3.1 節の考え方を適用して,レス  トラン以外の場所ではこれを食べることが推測できる。 3.5 節で述べたように,「しか」が存在する事例には, 3.1 節の考え方を適用できない。二重否定と「しか」が混在する場合は,これらに対する特別なマークを併用する.例えば,次の例文からは, 田中が早朝練習に来たことと, 田中以外の誰かも早朝練習に来たことが読み取れる. (21) 今朝は、田中しか ${ }_{i}$ 早朝練習に来なかっ $i_{i}$ たけげはない ${ }_{j}$ [ [作例] このような解釈を表すために, 内側の否定要素である「なかっ」に「否定されている」ことを表す特別なマークを付け,さらに,その焦点である「田中しか」に「しか」に関する特別なマー クを付ける。 出現頻度はかなり低いと思われるが, 三重以上の否定が存在する場合も, 二重否定の場合と同様にアノテーションする. ## 4 否定の焦点アノテーションの枠組み この章では,まず,否定の焦点を判断する基準について述べる。 そして,否定要素とその焦点に対して定めたアノテーション項目と, そこに付与するラベルについて説明する. ## 4.1 否定の焦点の判断基準 1 章で述べたように,否定要素によって特に否定される部分が否定の焦点である。これを安定して判断するために,3.1節の考え方に基づいて,我々は次のような判断基準を定めた. (1)ある文の否定の焦点を判断する時には,その文だけでなく,周りの文脈も広く参照する (2)対象とする文から,一部の表現と否定要素を除外した事象を生成する。その事象が成立することが推測できれば,除外した表現の部分を否定の焦点と判断する (3)解釈に複数の可能性が考えられる場合は, 否定の焦点はスコープ全体であるとする ・ 例えば,一部に焦点があると考えることもできるし,スコープ全体が焦点であると考えることもできる場合 - 例えば,A という部分に焦点があると解釈することもできるし,B という部分に焦点があると解釈することもできる場合 基準 (3) は, 判断する人間の思い込みを最大限排除するために設けたものである.複数の解釈が発生するのはどのような状況であるかを調査し, その状況の説明を含め, 複数の解釈が存在することをアノテーションする枠組みを設計することは,今後の課題である。 ## 4.2 項目とラベル 否定要素に対して,以下の5つのアノテーション項目を定める. 表層文字列文に出現した否定要素の表層文字列。出現形で記述する 形態素 ID 否定要素の形態素の ID 品詞助動詞, 接尾辞, 接頭辞, 形容詞, 名詞, 否定複合辞のいずれか (3.2 節参照) 二重否定二重否定により, 事象が成立しているとみなせるか 最終更新日“YYYYMMDD”という形式で記述された最終更新日 否定複合辞のリストとプログラムを用意すれば, これらのうち, 二重否定以外の情報は自動付与が可能である。ただし,形態素解析辞書 UniDic 18 では,助動詞ではない「ない」は,すべて「形容詞, 非自立可能」と解析されるため, これらを半自動的に「形容詞」と「接尾辞」に分類する必要がある. 否定の焦点に対して, 以下の7つのアノテーション項目を定める. 代表表層文字列焦点の表層文字列. ただし,後述する代表形態素のみを記述する 代表形態素 ID 焦点の代表形態素の ID 項・節の種類ガ格, ヨ格, デ格, 副詞, ノの項, ナの項, テ節, 卜節など, 焦点の統語的分 類. 複数記述可 特別なとりたて詞「しか」や,数量語に付く「も」が存在するか 意味分類制限-時間, 制限-場所, 制限-対象, 付加-連用修飾, 付加-連体修飾, 付加-アスペクトなど, 意味解釈に基づいた, 否定されている語句の分類 判断の根拠その箇所を焦点であると判断するに至った根拠. 自由記述 手がかり語句文章中に存在する,焦点判断の手がかりとなった語句.複数記述可 コーパスにおいて否定の焦点は代表 1 形態素にラベル付けする。このように決めた理由は,否定の焦点の自動検出システムを評価する際に, 正解とシステムの出力の比較が容易になるからである。代表 1 形態素は, 次のように定める. - 内容語 - 複合語の場合, 接尾辞を除く末尾の語 - 修飾語が存在する場合, それが係る末尾の語 1 形態素にラベル付けするが,その 1 形態素のみに焦点があると考えるのではなく,その形態素を含む項(場合によっては,節)全体に焦点があるとみなす. 表層的な格助詞や接続助詞などに基づく分類が, 「項・節の種類」であり, 焦点の語句が表す意味に基づく分類が,「意味分類」である.例えば,「意味分類」の“制限-場所”は,場所を表す語句に否定の焦点があり,そこではない場所をうまく選べば,対象事象が成立することを表す.「意味分類」の“付加-連用修飾”は,程度の副詞や頻度の副詞に対して付与する。 文中に存在する形態素列をそのまま記述する項目が「手がかり語句」であり,人手による判断の根拠を備考として自由記述する項目が「判断の根拠」である. 現在は,「判断の根拠」は自  由記述としているが,使用できる語彙を制限した,いわゆる制限言語により根拠を記述する方法を模索している。 上に挙げた項目のうち, 「項・節の種類」と「意味分類」,「手がかり語句」は, 否定の焦点を自動的に検出するシステムを構築する際に,有用な情報を提供すると考えている.焦点検出の最初の処理として,焦点の候補となる語句に対してこれらの項目を適切に特定することができれば,その情報は,それぞれ,形態的・統語的手がかり,意味的手がかり,談話的手がかり19として,否定の焦点を決定する処理に利用することが可能であると思われる. 構文的制約から,否定要素に対して選択できる焦点の候補が 1 つしかない場合,すなわち,焦点はスコープ全体であると考えるしかない場合,そのような事例とその他の事例を区別することは有用である。なぜならば,焦点検出システムの評価にアノテーションコーパスを用いる時, このような事例に対してシステムは必ず正解のラベルを出力するので,システムの本質的な性能を見るために,評価データからこのような事例をすべて除去したいことがあるからである. 我々は,上で述べた項目に加え,アノテーション項目として「候補数」を設計 ${ }^{20} し , アノ$ テーション作業を行ったが, 今回の作業では, 候補数が 1 となる事例は見つからなかった。アノテーションコストを考慮すると, 人手によりこの項目をアノテーションすることは良い方法ではないことが分かった. プログラムにより,「1文中に述語と否定要素しか存在しない」事例を見つけることが,候補数が 1 の事例を見つけるための得策であると思われる.現在,「候補数」 をアノテーションすることは保留している. ## 4.3 否定のスコープ 本来ならば, 否定の焦点をアノテーションする前に, 否定のスコープを明示的にアノテーションすべきである。既存の述語項構造解析の技術を用いれば,ある程度は自動的に否定のスコー プを認識することができるが,対象が整った文章でない場合,人間による修正作業が多く発生する。本研究では, 人的コストの関係から,否定のスコープをアノテーションしない,人間が否定の焦点を判断する時には,対象となる否定要素のスコープを目で確認するに留める。頑健かつ高い精度で否定のスコープを認識するシステムを開発することは,今後の課題である。 ## 4.4 データ構造 我々が提案するアノテーション体系に基づく否定の焦点コーパスは, 図 1 のような XML によって表現する。この図は, 3.1 節の文 (3) に対するアノテーション結果である. アノテーション対象のテキストデータは, 次のような形式でファイルに保存されていることを前提とする。  図 1 提案するアノテーション体系に基づくXML ファイルの例 [PN1a_00002] - 文分割されている - 1 文が $<$ sentence>要素で囲まれている - 形態素解析されている - 各形態素は, $<\mathrm{SUW}>$ や <tok>のような要素で囲まれている ・ 形態素を囲む要素は,少なくとも 1 文内で一意の ID 属性を持っている 例えば,BCCWJ の XML 形式のデー夕は,上記の形式に合う.また,文分割したテキストデー 夕を,オプション “-f 3”を指定しながら構文解析器 CaboCha で構文解析した出力結果もまた,上記の形式に合う,我々は,前処理として,すべての<sentence>要素に独自のID(通し番号) を付与する。 提案する XML では,<wsb:negation>要素を用いて否定要素の情報を記述し,<wsb:focus>要素と <wsb:description> 要素,<wsb:clue>要素を用いて否定の焦点の情報を記述する ${ }^{21}$. ## $<$ wsb:negation $>$ 要素 1 文もしくは文の断片を表す < sentence > 要素の直接の子要素として記述する. 4.2 節で述べたアノテーション項目に対する値を以下の属性に記述する。 -@wsb:orthtoken(必須属性): 表層文字列 - @wsb:morphID (必須属性) : 形態素 ID - @wsb:POS (必須属性) : 品詞 - @wsb:doubleNegative(任意):二重否定  -@wsb:lastupdate(必須属性): 最終更新日 ## $<$ wsb:focus $>$ 要素 <wsb:negation> 要素の直接の子要素として記述する. 否定の焦点がスコープ全体である場合は,1 という値を記述した@wsb:scope 属性のみを指定する。 否定の焦点がスコープの一部である場合, 子要素として<wsb:description>要素と <wsb:clue>要素を用意すると同時に,<wsb:focus>要素の以下の属性 ${ }^{22}$ に值を記述する. -@wsb:orthtoken(必須属性): 代表表層文字列 -@wsb:morphID (必須属性) : 代表形態素 ID - @wsb:argTypes (必須属性) : 項・節の種類 -@wsb:toritate(任意): 特別なとりたて詞 -@wsb:class (必須属性) : 意味分類 <wsb:description> 要素のコンテンツに「判断の根拠」を記述する。この要素は 1 つのみ用意することができる.「手がかり語句」を記述する<wsb:clue> 要素には,次の属性の値を記述する。 - @wsb:sID(任意): 手がかりの形態素列が対象の文の外に存在する場合, 手がかりが存在する文の ID を記述する - @wsb:orthtokens(必須属性): 手がかりの表層文字列の列. 形態素間は “.”で区切る - @wsb:morphIDs (必須属性): 表層文字列の列に対応する形態素 ID の列. 形態素間は “."で区切る 必要ならば,<wsb:clue>要素は 2 つ以上用意しても良い. 我々のデータ構造は,<sentence> 要素に 1 つの子要素(孫要素を含む)を追加するのみであるので,BCCWJ の XML 形式のデータを利用するアノテーションや,XML 形式の CaboCha フォーマットを利用するアノテーションと共存できるという長所を持つ。例えば,松吉らの拡張モダリティアノテーション (松吉他 2010) と我々のアノテーションは共存可能である. ## 5 否定の焦点コーパス 前章で説明したアノテーションの枠組みに基づき,次の 2 つのテキストデータを対象として,否定の焦点コーパスを構築した。 (1) 楽天データ ${ }^{23}$ の楽天トラベル: レビューデータ (2) BCCWJにおけるコアデータ内の新聞 $(\mathrm{PN})$ $ ”という値は「複数」を表す. 23 http://travel.rakuten.co.jp/ } ## 5.1 楽天トラベル: レビューデータ 楽天トラベル: レビューデータのうち, 重要文抽出に関して小池らが使用したものと同じレビュー集合 (小池, 松吉, 福本 2012) を対象とした。これを選択した理由は,小池らのコーパスと合わせることで,要約における重要文と否定の焦点の間の関係が明らかになる可能性があるからである ${ }^{24}$. 小池らのレビュー集合について説明する,彼らは,まず,宿泊施設に対するレビュー数の分布を調查し, $90 \%$ 以上の宿泊施設はレビュー数が 1 から 58 の範囲にあることを明らかにした. そして,その結果に基づき,レビュー数が 10 から 58 の範囲の宿泊施設の全体から,無作為に 40 の宿泊施設を抽出した,最後に,独自の文分割規則により半自動的にそのレビュー集合を文分割した。 このコーパスには,5,178 文が含まれており,形態素の品詞情報のみに基づいて抽出した否定要素の候補は,1,246 個であった,以下,このコーパスを「レビュー」と表記する. ## $5.2 \mathrm{BCCWJ$ コアデータの新聞} BCCWJ 全体の約 1/100 のデータがコアデータに指定されており, このデータは, その他の部分と比較して高い精度で解析が施されている。コアデータの一部に言語学的情報を付与する場合, 国立国語研究所が定めたファイル優先順位 ${ }^{25}$ に従うことが推奨される. 我々は,コアデー 夕内の新聞 340 ファイルのうち, 優先順位が 1 から 54 までの “A”グループを対象とした. このコーパスには,1文もしくは文の断片を表す, XMLの $<$ sentence>要素が 2,708 個含まれており, 否定要素の候補は, 406 個であった. 以下, このコーパスを「新聞」と表記する. ## 5.3 アノテーション作業 4.4 節で説明した XML 形式のファイルは, 独自プログラムにより, HTML 形式のファイルに変換することができる。この HTML 形式のファイルをブラウザーで開いたところを, 図 2 に示す. 作業者は,ブラウザー上で HTML ファイルを確認しながら,テキストエディターにおいて XML ファイルを更新する。作業にかかる時間は, 100 個の否定要素候補に対して 3 時間程度である。XMLの編集に適したエディター環境の構築は, 今後の課題である. 2 人の作業者が独立に「新聞」に対してアノテーション作業を行い, 2 人の作業結果において焦点の場所がどれほど一致するかを調査した. 全 304 個の否定要素のうち, 103 個が不一致であったが, 2 時間ほど 2 人で議論することにより, これらの不一致をすべて解消することができた. 不一致の主な原因は, 以下の 3 点であった. ・ スコープが明示されていないことによる勘違い  ## BCCWJ PN(新聞): PN2f_00002.xml ・否定要素を赤で表示 (スコープ全体が焦点である覔定要素を赤と下線で表示) ・否定要素の焦点を青と下線で表示 (マウスオーバーで説明表示) \\ 図 2 ブラウザー上で見た HTML ファイル - 作業者のうち 1 名は, 広く文脈を参照していなかった $\cdot$とりたて詞「だけ」が持つ限定の意味に引っ張られた 「レビュー」に対するアノテーション作業は, 1 人の作業者が行った. その後, もう 1 人の作業者が作業結果を確認し,議論の上,数個のラベルを修正した. ## 5.4 コーパスの分析 2 つのコーパス「レビュー」と「新聞」における,否定要素候補の分布を表 1 に示す. 2 つのコーパスにおいて,否定要素はそれぞれ 1,023 個と 304 個であり,いずれのコーパスでも,助動詞「ない」と「ず」が全体の過半数を占めることが分かる. 2 つのコーパスにおいて, 否定の焦点がスコープ全体でないものは, それぞれ 301 個と 72 個であった.「レビュー」では, $29 \%(301 / 1,023)$ の否定要素が,「新聞」では, $24 \%(72 / 304)$ の否定要素が,スコープの一部に焦点を持つことが分かる。自然言語処理において,否定の焦点が適切に検出されず,すべての焦点はスコープ全体であるとして否定文を扱う場合, $30 \%$ 弱の事例に対して,否定文が含意する解釈を把握できないことになる。この数字は無視できないほど 大きいと思われる。 スコープ全体でない焦点の「項・節の種類」の分布を表 2 に示す. 図 1 に例示されるような, ある格と“ノの項”が同時に付与されている事例は, この表では, “ノの項”として集計した.「レビュー」には,焦点が副詞である否定要素が多いことが分かる。「新聞」のデー夕数が少ないので,確定的なことは言えないが,どの格が焦点になりやすいかも,2つのコーパスで異なる傾向があるようである. 焦点である部分に付いていたとりたて詞の数を表 3 に示す. 2 つのコーパスを合わせ, $35 \%$ $(129 / 373)$ の焦点に何らかのとりたて詞が付いていたことが分かる.とりたて詞「は」は,焦点である箇所の手がかりとして利用できそうに見えるが,「は」は,特に主題を表す「は」として, スコープ全体が焦点である事例にも多く出現するので,注意が必要である. 3.5 節で述べたように,スコープの中に「しか」が付く項が存在する場合, それが否定の焦点となる. 焦点の語句が表す意味に基づく分類結果を表 4 に示す.「レビュー」には,焦点が副詞である否定要素が多いため,“付加-連用修飾”が多いことが見て取れる。「レビュー」は宿泊施設のレビュー集合であるので,場所を表す語句に否定の焦点がある“制限-場所”が,「新聞」に比べ,著しく多いことが分かる. 判断の根拠 26 は,自由記述であるため,様々な回答が見られた.「レビュー」では,副詞が焦 表 1 否定要素候補の分布 表 2 スコープ全体でない焦点の分布  点となる事例が多かったので,次のような根拠が多く見られた. - 程度の副詞が付加的に使用されている(86 事例) - 時間の副詞(句)が付加的に使用されている(20 事例) - 様態の副詞が付加的に使用されている(8事例) しかしながら,このような特別な場合を除けば,一致する回答はほとんどなく, 出現回数が 1 回の回答は,160 事例あった。参考として,その中から任意に選択した回答を以下に示す. ・それまでは連絡が取れた - 一般に材料は入れる - 一部は押さえた $\cdot$その他の項目では負ける可能性がある ・このホテルは特別なサービスがある これらの回答を自然言語処理において有効に活用するためには, 4.2 節で述べたように,できる限り,語彙と書き方を制限する方法が有効であると思われる. 対象文内に存在した手がかり語句の数と,対象文の外に存在した手がかり語句の数を,表 5 に示す.「レビュー」では, 2 事例に対してそれぞれ 2 の手がかり語句が記述されていたため,合計が 373 ではなく, 375 となっている.この表から, $87 \%(327 / 375)$ の手がかり語句は, 対象文内に見つかることが分かる。しかしながら,今回のアノテーション作業においては,広く文 表 3 焦点に付いていたとりたて詞 表 4 焦点の意味分類結果 表 5 手がかり語句が存在した位置 脈を見渡すことにより,対象文が持つ意味の曖昧性を解消してから,手がかり語句を決定しているので,ほとんどの否定の焦点は対象文内の情報のみで特定できると結論付けることはできないと思われる,今後は,徐々に参照する文脈を広げながら,「どこまで参照したか」という情報とともに,手がかり語句を記述する枠組みが必要である. ## 6 おわりに 本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点をテキストにアノテーションする枠組みを提案し, 実際に 2 種類のテキストを対象として構築した否定の焦点コーパスについて報告した. 今後の課題は大きく 3 つある.1つめは,アノテーション結果を分析することにより明らかになった, アノテーション体系の不備を改めることである. 特に, 判断の根拠や手がかり語句の情報を,自然言語処理において使いやすい形で記述する方法を考案する必要がある.2つめは,新しいジャンルのテキストに焦点の情報をアノテーションし,コーパスを大きくすることである。現在, BCCWJの新聞以外のレジスタに対してアノテーション作業を進めることを計画している,3つめは,構築したコーパスを利用して,実際に日本語における否定の焦点を検出するシステムを実装することである。大槻らは,独自のヒューリスティックを利用することにより, 日本語における否定の焦点を検出するシステムを提案している (大槻, 松吉, 福本 2013).我々は,今回アノテーションした情報を有効に活用することにより,高い精度で焦点を検出できるシステムの構築を目指したい. 構築したコーパスは,楽天データおよび BCCWJ との差分形式で,無償で一般公開する予定である。 ## 謝 辞 本論文の查読者の方々から,本研究に関して有益なご助言をいたたきました.また,本研究では, 楽天トラベル株式会社の施設レビューデー夕と, 国立国語研究所の『現代日本語書き言葉均衡コーパス』を利用させていたたきました。ここに記して感謝の意を表します。本研究の一部は, 科研費若手研究 (B)「否定焦点コーパス構築と焦点自動解析に関する研究」(課題番号: 25870278,代表:松吉俊)の支援を受けています. ## 参考文献 Babko-Malaya, O. (2005). PropBank Annotation Guidelines. ACE (Automatic Content Extraction) Program. http://verbs.colorado.edu/ mpalmer/projects/ace/PBguidelines. pdf. Blanco, E. and Moldovan, D. (2011a). "Semantic Representation of Negation Using Focus Detection." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics, pp. 581-589. Blanco, E. and Moldovan, D. (2011b). "Some Issues on Detecting Negation from Text." In Proceedings of the 24th International Florida Artificial Intelligence Research Society Conference, pp. 228-233. グループ・ジャマシイ(編)(1998). 教師と学習者のための日本語文型辞典. くろしお出版. Huddleston, R. and Pullum, G. K. (Eds.) (2002). The Cambridge Grammar of the English Language. Cambridge University Press. 片岡喜代子(編)(2006). 日本語否定文の構造かき混ぜ文と否定呼応表現. くろしお出版. 加藤泰彦, 吉村あき子, 今仁生美(編)(2010). 否定と言語理論. 開拓社. 川添愛, 齊藤学, 片岡喜代子, 崔栄殊, 戸次大介 (2011). 言語情報の確実性に影響する表現およびそのスコープのためのアノテーションガイドラインVer.2.4. Technical Report of Department of Information Science, Ochanomizu University. 小林亜希子 (2009). とりたて詞の極性とフォーカス解釈. 言語研究, 136, pp. 121-151. 小池惇爾, 松吉俊, 福本文代 (2012). 評価視点別レビュー要約のための重要文候補抽出. 言語処理学会第 18 回年次大会論文集, pp. 1188-1191. Li, J., Zhou, G., Wang, H., and Zhu, Q. (2010). "Learning the Scope of Negation via Shallow Semantic Parsing." In Proceedings of the 23rd International Conference on Computational Linguistics (Coling 2010), pp. 671-679. 松村明,小学館『大辞泉』編集部(編)(1998). 大辞泉(増補・新装).小学館. 松吉俊, 江口萌, 佐尾ちとせ, 村上浩司, 乾健太郎, 松本裕治 (2010). テキスト情報分析のための 判断情報アノテーション. 電子情報通信学会論文誌. D, 情報・システム, 93 (6), pp. 705-713.茂木俊伸 (1999). とりたて詞「まで」「さえ」について一否定との関わりから一. 日本語と日本文学, 28, pp. 27-36. Morante, R., Liekens, A., and Daelemans, W. (2008). "Learning the Scope of Negation in Biomed- ical Texts." In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 715-724. 森田良行, 松木正恵 (1989). 日本語表現文型用例中心・複合辞の意味と用法. アルク. 日本語記述文法研究会 (編) (2007). 現代日本語文法 3. くろしお出版. 日本語記述文法研究会 (編) (2009). 現代日本語文法 5 . くろしお出版. 西尾実,岩淵悦太郎,水谷静夫(編)(2000). 岩波国語辞典第六版. 岩波書店. 沼田善子 (編) (2009). 現代日本語とりたて詞の研究. ひつじ書房. 奥津敬一郎, 沼田善子, 杉本武 (編) (1986). いわゆる日本語助詞の研究. 凡人社. 大槻諒, 松吉俊, 福本文代 (2013). 否定の焦点コーパスの構築と自動検出器の試作. 言語処理学会第 19 回年次大会論文集, pp. 936-939. Rosenberg, S. and Bergler, S. (2012). "UConcordia: CLaC Negation Focus Detection at *Sem 2012." In Proceedings of the 1st Joint Conference on Lexical and Computational Semantics: SemEval'12, pp. 294-300. Vincze, V., Szarvas, G., Farkas, R., Móra, G., and Csirik, J. (2008). "The BioScope Corpus: Biomedical Texts Annotated for Uncertainty, Negation and their Scopes." In BMC Bioinformatics, pp. 1-9. ## 略歴 松吉俊:2003 年京都大学理学部卒業. 2008 年同大学院情報学研究科博士後期課程修了. 奈良先端科学技術大学院大学情報科学研究科特任助教を経て,現在, 山梨大学大学院医学工学総合研究部助教. 京都大学博士 (情報学). 自然言語処理の研究に従事. 情報処理学会, 言語処理学会, 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# コミュニティ QA における意見分析のための アノテーションに関する一検討 関 洋平† 意見分析の研究が盛んになり, 世論調査, 評判分析など, 多岐にわたる応用が実現さ れている. 意見分析の研究においては,他の言語処理研究と同様に,コーパスの重要性が指摘されている. 意見分析研究のコーパスは, 応用目的に応じて, 対象とす る文書ジャンルが変化し, アノテーションすべき意見の情報も変更する. 現在, 意見分析コーパスは,ニュース,レビュー,ブログなどの文書ジャンルを対象としたも のが多い,一方で,対話型の文書ジャンルには焦点が当てられておらず,アノテー ションについての明確な方針がない. 本稿では, 『現代日本語書き言葉均衡コーパ ス』に含まれるコミュニティ QA の文書を対象として,詳細な分類タイプに基づく 意見情報ならびに関連した情報のアノテーションを行い,コーパスを作成する。ま た, 複数のアノテーション情報を重ね合わせることにより,コーパス中の質問や回答に現れる意見の特徴を明らかにすることで,ドメインを横断した意見分析や,意見質問の応答技術といった, 現在の意見分析研究が直面している難しい課題に対す る新たな知見を提供できることを示す. キーワード:意見分析,コーパスアノテーション, BCCWJ,コミュニティ QA ## Research on Annotation of Sentiment Analysis in Community QA \author{ YOHEI SEKI ${ }^{\dagger}$ } Recent sentiment analysis studies have demonstrated that many services such as public opinion surveys and reputation analyses are derived from a variety of documentary resources. The annotated corpus in sentiment analysis is one essential resource, as are other NLP technologies such as POS tagging and named entity extraction. The sentiment annotation policy should be defined according to the task and relevant document genre. Recently, many sentiment corpora have been published in news, review, and blog genres. However, a sentiment corpus in the dialog document genre, which involves questions and answers, has yet to be studied, and a sentiment annotation policy has yet to be clearly defined. In this paper, we explain an approach to annotating and creating a sentiment corpus with detailed sentiment types using community QA documents in BCCWJ. We also identify the different sentiment characteristics in a corpus through combinations of annotations to provide novel insights in the challenging topics of opinion question answering and domain adaptation. Key Words: Sentiment Analysis, Corpus Annotation, BCCWJ, Community QA  ## 1 はじめに ここ数年, Web などの大量の電子化テキストに現れる他者が発信した意見情報を抽出し,集約や可視化を行うことで,世論調査や評判分析といった応用を実現する研究が進んでいる (Pang and Lee 2008; Liu 2010; 大塚,乾,奥村 2007; 乾,奥村 2006). これらの研究を総称して,意見分析 (Sentiment Analysis) あるいは意見マイニング (Opinion Mining) と呼ぶ (Pang and Lee 2008). 対象となる文書ジャンルは, 報道機関が配信するニュース, Web 上のレビューサイト,個人が自身の体験や意見を記述するブログやマイクロブログなどであり,政策や選挙のための情報分析, 世論調査, 商品や映画やレストラン・ホテルなどのサービスの評判分析, トレンド分析, などについて実用化が進められている. 現在の意見分析の研究は, 技術は洗練され, 応用範囲は広がりつつあるものの, ここ数年, 従来のやり方を大きく変えるような提案は著者の知る限りではあまり見当たらない,その結果,意見質問応答や,ドメインを横断した意見分析といった難易度の高い応用は,技術の壁にぶつかっている印象を持っている。 意見質問応答は, factoid 型, すなわち従来の質問応答技術に比べて, 回答が長くなる傾向があり,また,質問に対する正答は,1つだけではなく,複数の意見を集約したほうが適切である場合が多い. 初期の研究 (Stoyanov, Cardie, and Wiebe 2005) では, 文や節などの単位を主観性などの情報に基づきフィルタリングすることで, 回答が得られる可能性が増すことが指摘されていた。その後の研究 (Balahur, Boldrini, Montoyo, and Martinez-Barco 2010)によると, 評価型会議 TAC (Text Analysis Conference) で提供されたブログからの意見質問応答・要約のデー タセット (Dang 2008)1を用いた実験では,ブログを対象として,特定の事柄に対する意見を問い合わせ,回答を得るというタスクについて,質問,回答を同一の極性や話題によりフィルタリングすることが有効であり,また複数の連続する文を抽出することが効果的であるが,意味役割付与などに基づくフィルタリングは必ずしも有効な結果が得られていない. さらに,さまざまな識者や組織により表明されている意見を話題別に集約するタスク (Stoyanov and Cardie 2011) などの提案もある. 本研究では, 複数の個人的な意見や体験が含まれる情報を集約して,回答として適切に構成するためには, 従来の意見の属性, 主観性, 極性, 意見保有者などにとどまらず,意見の詳細なタイプをアノテートし,質問と回答の構造について分析を進める必要があると考える。これにより, 複数の個人的な意見や体験を, 詳細なタイプに基づき, 適切な順序で配置することにより,文章として自然な回答を提供できると考えている。 また,質問と回答を含む文書ジャンルとして,Yahoo!知恵袋 2 などのコミュニティ QA サイトがあり,意見質問の判別のために利用されている.具体的には,質問について主観性を判別するためには,質問と回答中の手がかりを区別して利用することが有効という研究 (Li, Liu, ^{1}$ http://www.nist.gov/tac/data/past/2008/OpSummQA08.html 2 http://chiebukuro.yahoo.co.jp/ } Ram, Garcia, and Agichtein 2008) や, 主観を伴う回答を求める質問を㛜密に定義し,そのような質問は人間に対して回答を求めるという応用を目指している研究が存在する (Aikawa, Sakai, and Yamana 2011). これらの研究は, 主観性を判別する特徴が, 質問と回答との間で明確ではないが関連があることと,意見を問う質問が判別できたとしても,適切な回答を自動的に構成することが難しいことを示唆している。一般に,質問に対する回答を検索するためには,質問に出現しやすい語彙と回答に出現しやすい語彙とのギャップを解消するために,その対応関係をコーパスから学習することにより, 解決するための研究が行われている (阿部, 古宮, 小谷 2011; Berger, Caruana, Cohn, Freitag, and Mittal 2000). 一方で, 意見分析の研究は, 文書ジャンル 3 に応じて要求されるタスクが異なり, 文書に現れる意見の性質も異なる.したがって,意見分析の研究にはコーパスが欠かせないが,現状では,ニュース,レビュー,ブログなどの文書ジャンルが主な対象となっている (関 2013). 本研究では,従来の研究とは異なり,質問と回答を含む対話型の文書ジャンル,具体的には,国立国語研究所の『現代日本語書き言葉均衡コーパス』(BCCWJ)(前川 2011; 山崎 2011, 2012)4 中の Yahoo! 知恵袋5 を対象として,質問とそれに対する回答に詳細な意見情報のアノテーションを行うことにより,質問と回答中の意見の構造やその対応関係を明らかにするための, 基盤となるコーパスの提供を目指している。ただし,一口に意見といっても,その特徴はさまざまである.意見の定義の範囲は広く, 主観性などの広い概念を対象とした場合, 評価, 感情, 意見,態度, 推測などの何を対象とするかを決定することも重要である (Wiebe, Wilson, and Cardie 2005; 小林, 乾, 松本 2006). 本研究では, 態度の詳細分類であるアプレイザル理論 (Martin and White 2005) を参考に,詳細な分類体系に基づく意見情報をアノテートすることにより,質問に対する回答として出現する意見の傾向を,意見の性質の違いから明らかにすることを目指す. 一方で,従来の意見分析では,単一のドメインを対象として研究がなされてきた.それは,ドメインに応じて,主観性,極性を判別したり,意見の対象やそのアスペクトを抽出するための教師あり学習に用いる素性が異なるからである。しかし, 現実社会では, 複数のドメインを横断して,意見分析を行うことが求められる場面が少なくない.この課題に向けた解決のための研究として,複数のドメインを対象とした意見分析に関する研究 (Blitzer, Dredze, and Pereira 2007; Ponomareva and Thelwall 2012; He, Lin, and Alani 2011; Bollegala, Weir, and Carroll 2011; Li, Pan, Jin, Yang, and Zhu 2012) がある.これは,複数ドメインにおいて共通に出現する意見表現や,意見表現間あるいは意見の対象間の類似性を手がかりとして,訓練データと評価データとの不整合を緩和させようという試みである。英語については,Amazonレビューを対象とし  たコーパス ${ }^{6}$ が公開されており,一連の関連研究ではこのコーパスを使用した研究が行われているが, 日本語で同様のコーパスは流通していない (関 2013). したがって, こうした研究を促進するためには,日本語で同様のコーパスを開発する必要がある。また, レビューにとどまらない広い範囲のドメインを対象とした意見の違いなども明らかにする必要がある. 本研究が対象とするコミュニティ $\mathrm{QA}$ は,ブログなどと比較して,カテゴリに対して投稿内容が適合しているという特徴がある。具体的には,コミュニティ QA サービスにおいて,ユー ザは,適切な回答を得る必要性から,提供している質問カテゴリ 7 に対して適合した投稿を行う.これは,さまざまな話題を投稿するため,必ずしも事前に設定したカテゴリにはそぐわない話題を投稿する傾向のあるブログとの大きな違いである。 また,ニュースやレビューと比べると, 生活に密着した多様な話題が投稿される。これらを踏まえ, Yahoo! 知恵袋の複数の質問カテゴリを対象としたコーパスを開発し,詳細な分類体系に基づく意見情報を重ね合わせて分析することにより,ドメインごとの意見の傾向の違いを明らかにすることを目指す. 本論文の構成は以下のとおりである。2 節では, 関連研究を紹介する. 3 節では,コミュニティ QA を対象とした意見分析のためのアノテーションの方針について述べる.4 節では,コミュニティ QAを対象とした意見情報のアノテーション作業の特徵について議論する. 5 節では,Yahoo!知恵袋を対象として構築した意見分析コーパスを使用して,質問と回答や,ドメインあるいはコミュニケーションの目的に応じて出現する意見の性質の違いを明らかにする。最後に,6節で結論をまとめる。 ## 2 関連研究 本節では,まず,対話型の文書ジャンルを対象とした意見分析についての関連研究を紹介する. 次に, 複数のドメインを対象としたコーパスとその関連研究について紹介する。最後に, 意見分析のアノテーションに関する関連研究を紹介する. ## 2.1 対話型の文書ジャンルを対象とした意見分析 Somasundaran, Wilson, Wiebe, and Stoyanov (2007)は, Web 掲示板やニュースからの質問応答において, 質問と回答の態度を詳細に分類してフィルタリングすることが有効だという仮説を立て, 実際に分類可能なタイプとして, 意見 (sentiment) に加えて議論 (arguing)を設定し, その有効性を示した。ただ,この概念はかなり広いものであり,より詳細なカテゴリを設定しないと,質問と回答の関係は必ずしも明らかにならない. また,質問と回答が同一のタイプであることを仮定しているが,意見と議論が明確に区別できず,相互に混在する場合も避けきれ  ないことから, 平均的な回答精度の向上は見られても, 完成度の高い戦略とはなりにくい. 本研究では, より詳細な分類体系に基づき,質問と回答の関係について分析を行う. また, 彼らはその後, 議論のタイプを利用して, 政治や宗教などのイデオロギー的な討論 (Somasundaran and Wiebe 2010) や,製品の比較 (Somasundaran and Wiebe 2009) を対象として,スタンス (賛成, 反対) 8 の判別に取り組んでいる。彼らの知見で重要な点は 2 つあり,ひとつは,イデオロギー的な討論と,製品の比較とで,スタンスの判別に有用な意見のタイプが異なること,もうひとつは,スタンスの判別には,“議論”や“意見”がそれ単体では有効ではなく, その対象となる単語と組み合わせることが,有効なことを示している点にある。本研究では,これらの知見を踏まえ,詳細な意見タイプと,意見対象のタイプとの組合せに基づき,コー パスの分析を進める. 一方で,コミュニティ QAを対象とした意見分析の研究も行われている (Kucuktunc, Cambazoglu, Weber, and Ferhatosmanoglu 2012).この論文では,質問カテゴリ間の意見の性質の差, 性差, 年齢差, 時間帯の差, 経験による差, ベストアンサーにおける差など, コミュニティ QAの分析に研究の重点が行われているが,意見分析自体は,汎用的なシステムを利用しており,極性(肯定・否定)の判別のみに重点が置かれている。また,コミュニティ $\mathrm{QA}$ では,質問カテゴリごとに,情報や知識を求めるものや,広くみんなの意見や体験を聞きたいもの,など,質問のタイプの出現傾向が異なることが知られている (栗山,神門 2009)。本研究では,より詳細な意見タイプを人手でアノテートすることにより,各カテゴリにおいてどのような意見の差異があるかをより明確なかたちで述べる。 本研究では, 意見の詳細タイプとして, より一般化されたアプレイザル理論 (Martin and White 2005)に着目する. アプレイザル理論の関連研究として, Argamon, Bloom, Esuli, and Sebastiani (2009)は, 11 の態度評価の下位タイプの自動分類に取り組んでおり, 精度は高くないものの,将来的な発展が見込める。佐野 $(2010 a, 2010 b)$ は,ブログを対象としてアプレイザル理論に基づく評価語彙と評価対象の関係などの分析を進めている。本研究では,質問と回答を含む対話型の文書ジャンルとして,Yahoo! 知恵袋を対象として,アプレイザル理論を参照した詳細な意見タイプをアノテートすることで,質問カテゴリ間の意見の差異と,質問と回答間の意見の関係を明らかにすることを目指す。 甲谷, 川島, 藤村, 奥 (2008) は, 日本語のコミュニティ QAサービスにおけるコミュニケー ションのタイプとして, Adamic, Zhang, Bakshy, and Ackerman (2008)を踏まえて,「知識交換」「相談」「議論」の3つを設定し, 質問カテゴリと相関があることを示している。本研究では, これらのタイプと質問カテゴリを組み合わせることにより,意見の詳細タイプの出現傾向を明らかにする。  ## 2.2 ドメインを横断した意見分析 各ドメインごとに文書中で使用される概念や語彙の傾向は異なることから,あらゆるドメインに対応した意見分析システムを構築するのは手間である。そこで,ドメインに適応する技術 (domain adaptation)(Sogaard 2013)を用いて,意見分析を実現する研究 (Ponomareva and Thelwall 2012; He et al. 2011; Bollegala et al. 2011; Li et al. 2012)が進められている. たとえば, あるドメインの少数の訓練データに基づき, 別のドメインの大量のデータから類似度により重み付けをして選別・拡張する方法 (Ponomareva and Thelwall 2012) が用いられている。また, 学習にあたっての素性を,対象データに適合したものになるように拡張するアプローチ (He et al. 2011; Bollegala et al. 2011) も研究されている. 素性の拡張に当たっては, 元のドメインと対象ドメインで共通する特徴に着目する必要があり, トピックと極性を共有する単語 (Ponomareva and Thelwall 2012), 周辺語と極性を共有する単語 (Bollegala et al. 2011)などが用いられる。また,ドメインごとに意見の対象となる表現を抽出するためには,一般的な意見表現を利用することが行われる (Li et al. 2012). 以上のように,ドメインを横断した意見分析の研究では, ドメインごとの意見表現と,ドメインを横断した意見表現を識別することが重要となる. 上記の研究は, Amazon レビューの複数のドメインを対象としたデータセット9を用いている (Blitzer et al. 2007). このデータセットでは, 書籍, DVD, 電気製品, 台所用品の 4 つのドメインに関する製品データを取り扱っている。それぞれのドメインでは, 1,000の肯定・否定のラベルが付いたレビュー文書と,ラベルの付いていない,より多くのレビュー文書が含まれている。 本研究では, Yahoo! 知恵袋の質問カテゴリのうち, 質問数の多い主要 7 カテゴリを, 質問者の情報要求を反映したドメインとみなし,意見分析コーパスを構築する。また,各ドメインにおいて,意見とその対象となる単語としてどのような組合せが現れるかを,意見の詳細タイプをアノテートしたコーパスを用いて分析することにより明らかにする。 ## 2.3 意見分析のためのアノテーション 次に,意見分析のためのアノテーションを行った代表的な意見分析コーパスとして,MPQA (Multi-Perspective Question Answering) 意見コーパス10を紹介する. 本コーパスは, 2002 年に, 従来の質問応答システムとは異なる多観点の質問応答を対象としたコーパスを開発したことに端を発する (Wiebe, Breck, Buckley, Cardie, Davis, Fraser, Litman, Pierce, Riloff, and Wilson 2002). 具体的なタスクとしては, 政府機関で働く情報分析者が行う作業を自動化することを目的としており,ニュース記事から意見の断片をあらわすテキストを抽出し構造化することで,米国の京都議定書への対応に対して日本人が同意しているか,など ^{9}$ http://www.cs.jhu.edu/ mdredze/datasets/sentiment/ 10 http://www.cs.pitt.edu/mpqa/ } の意見(見方)を問う質問に対する回答を提供できるような応用を検討していた. この時点で,8つのトピック(のちに,10トピック)に関連する World News Connection $(W N C)^{11}$ の 575 の記事(Ver1.2で, 535 記事に選別)を対象としたコーパスが作成された. このコーパスは, Version 2.0 で, 692 文書に拡張されている.ただし,文書数で見ると,元の World News Connection の記事数が 535 文書なのに対して, Wall Street Journal の記事が 85 文書, American National Corpus(旅行ガイド,話し言葉の書き起こし,9/11レポートなど)が 48 文書, $U L A$ 言語理解サブコーパス (Enron 社破たんに関する社員の電子メール,アラブ言語の翻訳などの文書)から 24 文書と,文書ジャンルは多岐に渡るもののそのバランスは悪く,ニュース記事が圧倒的に多い. 本研究では,コミュニティ QA 以外にも,現代日本語書き言葉均衡コーパス $(\mathrm{BCCWJ})$ などを活用することにより,各文書ジャンルのバランスを考慮した意見分析コー パスを開発する. この研究の貢献の一つは,意見情報のアノーテションのフレームワークを,多数の判定者による実験を通して厳密に定めた点にある (Wiebe et al. 2005). アノテーションの方針については,サンプルを使ってアノテータを訓練することにより,方針を自分だけではなく他人とも一貫させるように訓練することを重視している。アノテータ間の一貫性の判定には, $\kappa$ 係数 (Cohen 1960)を用いている. これらの方針は, 本研究の意見分析コーパスの構築の際にも, 参考にする. ## 3 コミュニティ QA データを対象とした意見情報のアノテーション 本節では, Yahoo! 知恵袋を利用した意見分析コーパスの作成の取り組みについて紹介する. ## 3.1 対象コーパスの概要 本研究では, 国立国語研究所の『現代日本語書き言葉均衡コーパス』(以降, BCCWJ) (前川 2011; 山崎 2011, 2012)12 の中から Yahoo! 知恵袋を対象として,意見分析コーパスを作成した。データの選択は, 複数の研究機関が異なるアノテーションを提供している共通の文書群であるコアデータを対象として,その中から質問数の多い主要 7 カテゴリを対象とした。これらのカテゴリ中の文書は, BCCWJにおいて提供される Yahoo! 知恵袋のデータ全体に対しては, $28.3 \%$ の文書を,コアデータに対しては, $26.8 \%$ の文書をカバーしている.他の研究機関が提供するアノテーションのうち,一部のデータは, 3.4 節で後述するように利用し, アノテーションの重ね合わせを行った。 また, データの仕様上, 質問とベストアンサー ${ }^{13}$ とのぺアを 1 文書としている。文書のデータサイズを表 1 に示す。また, 比較のために,新聞記事, BCCWJ の  / / /$ wnc.fedworld.gov/ 12 http://www.ninjal.ac.jp/corpus_center/bccwj/ 13 質問者の選択あるいは Yahoo! 知恵袋のユーザの投票に基づく最良の回答. } 表 1 Yahoo!知恵袋を対象として作成した意見分析コーパスのサイズ & & インターネット & & & & & 合計 \\ 表 2 新聞記事, Yahoo! ブログ, 国会会議録を対象として作成した意見分析コーパスのサイズ 表 3 判定一致度の計算に用いるサンプルデータのサイズ Yahoo! ブログ,国会会議録についても意見分析コーパスを作成した.新聞記事は,NTCIR-6, 7 意見分析コーパス 14 を, Yahoo! ブログと国会会議録は,BCCWJ のコアデータに含まれるものを利用している。対象となる文書の統計量を表 2 に示す.また, 3.7 節で説明するように, アノテータ間の判定の一致度を調査するために, これらのデータからサンプリングを行っている. サンプルデータのサイズを,表 3 に示す. Yahoo! 知恵袋のサンプルは, 各質問カテゴリについて 10 文書ずつ選択しており,他の文書ジャンルについても,話題のバランスを考慮してサンプルの文書を選択している。なお,本節以降において表に示す結果は,サンプルデータを用いている表 7 と表 8 を除き, 意見分析コーパスの全デー夕を対象としている点に注意されたい. ## 3.2 アノテーションの基本属性 本研究の目的は, コミュニティ QA という質問と回答を含む対話型の文書ジャンルへのアノテーションを通して,対話中に出現する意見情報の傾向を明らかにして,複数ドメインの意見分析ならびに意見質問応答の研究に応用できる日本語コーパスを開発することにある. 具体的な応用としては, ドメインやコミュニケーションの目的に応じた情報要求や回答の傾向を明らかにすることによる,ドメインを横断した意見分析や,コミュニケーションの目的に適したかたちで意見を集約する意見質問応答を考える。 意見分析コーパスの作成では,一般に,文やフレーズを単位として,意見性(主観性),極性  (ポジネガ),意見保有者(誰がその意見を表明あるいは保有しているか),意見対象(何についての意見か) などの情報をアノテートする (Wiebe et al. 2005; Seki, Ku, Sun, Chen, and Kando 2010). 本稿でも, これらの研究の方針に従い, 意見性(あり,なし), 極性(肯定, 否定, 中立), 意見保有者 (文字列), 意見対象(文字列)を意見の基本属性としてアノテートする。アノテーションの単位は,知恵袋中の 1 文が短いことから,基本を 1 文単位として, 1 文中の別々の節に異なる意見が含まれる場合には,節を分割してアノテーションを行う。節の分割は 3.5 節で述べるアノテーションツールを使用して行う. 一方,自らの悩みや問題を解消するために,回答者に問い合わせるという目的のコミュニティ QA サービスでは, 個人的な情報として体験情報あるいは経験情報 (乾, 原 2008; 倉島, 藤村,奥田 2008; 関,稲垣 2008) も,対話型のコミュニケーションにおいて重要な役割を果たす。本研究では, 関, 稲坦 (2008) を参考にして, 体験性(あり,なし), 体験主(著者, 著者の家族,著者の友人, その他), 体験タイプ (最近の体験, 過去の体験, 近い未来の確実な予定, その他) についてもアノテーションを行う. また,2.1 節でも述べたコミュニケーションタイプ (Adamic et al. 2008; 甲谷他 2008)(“相談”, “議論”, “知識交換”)を,1つの文書(質問と回答(ベストアンサー)とのぺア)を単位としてアノテートし,質問カテゴリと組み合わせて,意見・体験情報の質問・回答間における出現傾向や,ドメインごとの差異について,詳細な分析を行う,ただし,この 3 つのタイプに含まれない雑談などを目的としたコミュニケーションについては,“その他”のタイプとする. このほかに,意見の詳細タイプ,意見対象のタイプについてアノテーションを行うが,これらの属性については, 3.3 節, 3.4 節で,後述する。 ## 3.3 意見の詳細タイプの定義 大量のソーシャルメディアにおけるデータを対象とした, 時系列・地域あるいは何らかのカテゴリごとの意見の出現傾向の変化は,極性分類(肯定,否定,中立)により分析を行うことがあるが,対話における意見の役割の違いを分析する上では,この分類は粒度が粗すぎて,必ずしも傾向が明らかとならない。また, 極性の判定はドメインごとに傾向が変化するため, 自動的にアノテートして傾向を分析 (Kucuktunc et al. 2012)しても,その傾向の信頼性は必ずしも保障できない,本研究では,以上の問題点を意識し,意見の詳細タイプを定義し,人手でアノテートすることで,質問カテゴリごと,あるいは質問と回答とを関係づける意見の傾向を分析することを試みる. 意見は, 大きく分けて,(1)肯定, 否定的なニュアンスを含む態度と,(2) 提案などの言語行為や推測などの話者の認識をあらわす中立的な意見に分類される。本研究では,前者については,アプレイザル理論 (Martin and White 2005)に基づき定義を行った. アプレイザル理論は, システミック文法の対人メ夕機能 (interpersonal meta-function) を,談 話意味論 (discourse semantics) の観点から整理した体系である. Martin and White (2005) は, テキスト中に現れる対人メタ機能の意味は, 仮想的な読者 (putative reader) に対する感情や対話であるという信念に基づき, appraisal, negotiation, involvement の3つのシステムから構成されるものとした。また, appraisal は, 態度評価 (attitude), 形勢$\cdot$やり取り (engagement), 程度評価 (graduation) の 3 つのシステムから構成されるものとした。このうち態度評価は, 感情 (emotion), 倫理 (ethics), 美学 (aesthetics) の区別に基づき, 以下に記述する通り, 自発的な感情の表明 (affect), 人間や組織の振舞や行為の判断や批評 (judgment), 事物や事象に対する評価 (appreciation)の 3つに分類される。本研究では, Martin and White (2005)の中で定義されている,14の下位タイプを意見の詳細タイプ(態度タイプ)としてアノテートする.以下では, それぞれのタイプについて, 本研究におけるアノテーションのための定義と例について述べる. (1) 自発的な感情の表明 (affect) 感情の表明は, 心理状態を記述する動詞, 属性形容詞, 叙述形容詞, 形容詞に関連した副詞や名詞(恐怖,嫌悪等)などで表現され,感情を表明する人に焦点を当てる.また,主体の感情を記述するほか, 感情を誘発する体験(痛み, 恋愛), 感情を示唆する振舞(涙,笑い, 感謝等), 対象に対する心情(好き, 誇り, トラウマ)の記述も含まれる. 下位夕イプとして,肯定・否定の両面から,以下に要素と具体例を示す. しない) - 幸せ・不幸(好悪自発感情的):うれしい, 笑う, 愛する/泣く, かなしい, 嫌悪する - 安心$\cdot$不安(生態環境・精神安定的): 信頼, 任せる, 保証/驚く, 心配する, 不安定な - 満足・不満(目標活動・欲求充足的):報いる, 充実, うれしい/怒る, 陳腐, あきあきした (2) 人間や組織の振舞や行為の判断や批評 (judgment) 人間や組織の振舞, 行為, 信念, 性格に焦点を当て, 規範, 規則, 社会的期待, 価値体系に基づく(提案的なニュアンスの)批評や賞賛を分類する。これらは,副詞(正直に),属性形容詞(腐敗した政治家), 叙述形容詞(残酷な), 名詞(暴君,嘘つき), 動詞(たます)で表される。批評を誘発する具体的な振舞や行為の記述も含む. モダリティ助動詞(可能, 義務, 意思)や副詞(確率, 程度)は, 批評を強調する. 肯定$\cdot$否定の両面から,以下の下位タイプを指定する。 (a) 世評に基づく尊敬・軽荗(比較しやすい) - 通常・特別 (特殊性) : 精通した, 自然な, ラッキー/奇妙, 風変わり, 独特な - 有能・無能 (有能さ) : 強力な, 健全な, 成熟した/弱い, 愚かな, 鈍い - 頑強・軽薄 (信頼性) : 勇敢, 信頼に足る, 忠実/軽率, せっかちな, 臆病な (b)道徳に基づく是非((a).より対象に固有で比較されていない) - 真実・不実(誠実さ):正直,信憑性ある,率直/だます,嘘つき,ひねくれた - 倫理 (親切・謙虚等) $\cdot$邪悪 (我侭 - 高慢等)(倫理的是非): 寛容, 親切,礼儀正しい/邪悪, 残酷な,わがままな (3) 事物や事象に対する評価 (appreciation) 事物(自然物,人工物,芸術作品,建造物,構造,人間(ハンサム,ブ男)等)や抽象物 (計画,政策等)に焦点を当て,美的感覚,社会的な意義に基づく評価を,客観化(あるいは一般化)された事物の属性や命題のように表現する。この意見は, 商品の評判分析などで重要な役割を果たす。肯定・否定の判断基準と用語の選択は, ドメインに依存する。抽象物を対象とした場合は,(2) 判断や批評とあいまいになる場合があるが,文脈で判断する.肯定・否定の両面から,以下の下位タイプを指定する。 (a) 対象に対する主体の反応 - 衝撃・退屈(感想・反応):目立つ, 刺激的, 強烈な/うんざり, 単調な, あきあきする - 魅力・嫌悪 (質感・反応) : 華麗, 美しい, 魅惑的/不愉快な, グロテスクな, むかつく (b) 対象の構成・構造に対する形状的・観念的美醜 - 調和・混乱 (構成・構造):均整のとれた, 一貫/むらのある, 矛盾, ずさん - 明膫・複雑 (構成・構造) : 純粋, わかりやすい/飾り立て, 仰々しい, わかりにくい (c) 対象の価值評価 - 有用・無用や有害(社会的意義を反映した観念の認識, ドメインや文化に依存):鋭い,革新的な, タイムリーな/つまらない, 従来の, 浅はかな,有害な また,上記では含まれない認識や言語行為を表す中立的な意見のタイプを,新たな意見の詳細タイプ(認識・行為タイプ)として定義した. このタイプは, 態度タイプを付与できないが意見を含んでいると考えられる文について,アノテータから提案されたタイプを検討することで定義した。以下に8つの下位タイプを示す. - 推測:〜ではないか/〜だと思う等. 個人的な見通しを述べている. ・提起:しよう(誘い)/すべきだ・すべきではないか. ・賛否:そうですね/そうではないと思う。 ・ 感謝:感謝します/ありがとうございます. ・謝罪:申し訳ないです/すみません。 $\cdot$ 同情:可哀想だ/大変ですね. ・疑問:そうでしょうか. $\cdot$ 同意要求:〜ですよね/するほうがいいでしょうか. ## 3.4 意見対象タイプの定義と既存アノテーションの活用 2.1 節でも述べたように,対話型の文書ジャンルにおいて意見を分析する上では,意見の詳細タイプだけではなく, 意見対象と組み合わせて分析を行うことが重要となる. 意見対象, すなわち何についての意見かという情報は, 3.2 節で述べたように, 本コーパスでは文字列単位でアノテートをしている。ただ,意見情報を詳細に分析し,質問や回答やドメインに応じた意見の傾向を分析しようと考えた場合,文字列をそのまま使用するのではなく,分類体系に基づく抽象化が必要となる。このような情報を利用できるリソースとして, BCCWJ のコアデータを対象として, 拡張固有表現 (関根, 竹内 2007) をアノテートして公開されたコーパス (橋本, 乾,村上 2009) がある. 拡張固有表現の表現体系は, 3 階層の 200 のカテゴリから構成されているが, 意見対象をタイプ分類する上では, 詳細すぎない体系が良いと考え, 第 1 階層の 26 のタイプ(人名,組織名,製品名,自然物名など)を意見対象タイプの分類体系として採用する。また, 意見対象のタイプは,拡張固有表現の分類体系と必ずしも対応しておらず,一般名詞が反映する概念も重要である場合があることから, 新たに, 抽象概念 (例, 措置, 耕作放棄地, 善悪,正義), 行為概念 (例, 発言, マデシ政権の要求, 片付け, 散歩), 人間属性概念 (例, 体重, 健康,血圧)の3つのタイプを追加した. 以上を踏まえ,意見対象タイプは,拡張固有表現を参考にし,以下の手順でアノテーションを行った。 (1) 本研究でアノテートした意見対象の文字列と, 拡張固有表現コーパスの同一文書中のアノテートされた文字列とを比較し, 完全一致の場合には,そのまま拡張固有表現の夕イプを意見対象タイプとして採用した。 (2)完全に一致する文字列がない場合には,文字列間の編集距離が近い順に候補を提示し,その中からアノテータが選択することにより,半自動的にアノテートした. (3) 1 と 2 作業が終了した後で,一般名詞などの文字列で表現される意見対象について,アノテーションを追加した。 ## 3.5 アノテーションツール 本研究では, ウェブブラウザでアクセスできるアノテーションツール 15 をアノテータに公開して使用させ,コーパスを構築した。アノテーションツールを図 1 に示す. 本ッールでは, 右フレームに作業対象全文が示されており,文の区切りを修正することができる(修正した文については, 他のアノテータと区切りを共有する)そのうちの1つの文を対象として, 左フレー ムで各属性についてアノテーションを行う。必要なアノテーションを行ったら, 結果の保存ボタンを押す。この段階で,アノテーションが必要な属性についてチェックが行われていない場合には,そのことを注意するウィンドウがポップアップする。必要な属性をすべてアノテートし, 結果の保存に成功すると, 次の文のアノテーションが行えるようになる。一度保存された結果は,次にッールにアクセスするときには,読み込まれてチェックボックスがチェックされた状態で,以前にアノテートした属性を確認あるいは修正できる。複数のアノテー夕同士では,各文の区切り方のみ情報が共有されており, 各アノテータによるアノテーション情報は, 別々に保存されている,各アノテータは,ツールにアクセスするときに自分のアノテータ ID でログインすることにより, 自らがアノテートした以前の情報にアクセスできる。 ## 3.6 アノテータについて アノテータは, Yahoo! 知恵袋を日常的に閲覧する社会人(情報収集を日常業務とする職種) を対象として,2 名のアノテータ(男女 1 名ずつ)を雇用した。これとは別に,新聞記事に同様の意見情報を付与するアノテータを 2 名雇用し,両文書ジャンルのアノテーション方針の調整役を 1 名, 全体の取りまとめ役を 1 名雇用した。新聞記事のアノテーションを並行して行った ## 作業画面の例左フレームに作業領域、右フレームに作業対象全文が表示される 図 1 使用したアノテーションツール のは,従来の意見分析コーパスの文書ジャンルとの共通性ならびに違いを明らかにする目的で行った.また,これらのアノテーションが終わった後に,Yahoo! ブログと国会会議録を対象として,同様にアノテータを 2 名ずつと取りまとめ役を 1 名雇用して,アノテーションを行った。 ## 3.7 アノテーションの手順 意見分析の代表的なコーパスのひとつに, 2.3 節でも紹介した, MPQA(Multi-Perspective Question Answering) 意見コーパス16 があり, 意見情報のアノテーションのフレームワークを, 多数のアノテータによる実験を通して厳密に定めている (Wiebe et al. 2005). アノテーションの方針としては,(1) 文脈を考慮して判定する (2) 方針を一貫させる, などがあり, サンプルを使ってアノテータを訓練することにより,アノテーションの方針を自分だけではなく他人とも一貫させるように訓練することにより,方針のずれを修正することを重視している,以上を踏まえ,本研究のアノテーションの手順は, 以下のとおりとした. (1)アノテータは遠隔で判定作業を行った後で,疑問に思った点などを書き出す. (2)アノテー夕全員と直接対面することで,不明確な方針について議論を行い,方針を固めた後で,アノテーションマニュアルを作成する. (3)マニュアルに基づき,サンプルデータについてアノテータ同士の判定の一致度を調査し,判定が一致してきたことを確認した後,すべてのデータについて判定を行う. 作業は, アノテータを決定した後, 3.1 節で紹介したサンプルデータ(70 文書, 各質問カテゴリ 10 文書)を対象として,20日間にわたりアノテーションを行い,疑問点などを洗い出した後,著者を含む 7 名が直接対面し,方針について議論セッションを行った. これに伴い,一部アノテーション属性などについて修正を行った後,2 週間ほどかけて著者と取りまとめ役との間で調整を行い,アノテーションのガイドラインを取りまとめた。このアノテーションガイドラインに基づき,約 1 ヶ月をかけて残りの文書についてアノテーションを行った. 作業に要した時間は, サンプルデータのアノテーションが 12 時間, 議論セッションが約 4 時間, 残りのアノテーションの時間が 46 時間であった. ## 4 コミュニティ QA を対象とした意見情報のアノテーション作業の特徵 コミユニティ QA のような対話的な文書は, 新聞記事のようなモノローグ的な文書と比べると, 対話相手に(できるだけ早い段階の)反応を喚起するような言い回しを積極的に活用する点に特徴がある。コミュニティ QAにおいては,質問者は,一般には,そのスタンス,あるいは立場や価値観を,短い文書を通じて共有してもらいつつ回答を促す. 回答者は, 同様に, 質問者  に回答を通じて回答者のスタンス,立場,価値観を共有,あるいは覆すよう働きかける。こうした分析のために, 本研究では, 3 節で導入した態度タイプ (Martin and White 2005) や認識・行為タイプなどの意見の詳細タイプを採用することにより,質問者や回答者,あるいはその他のスタンスを区別することが可能となると考える。コーパスを用いた分析については, 5 節で述べる。本節では,最初に意見・体験情報の基本属性の分布を示した後で,意見の詳細タイプをアノテートする上での課題や解決策について議論する. ## 4.1 コミュニティ QA における意見情報アノテーションの分布 まず,Yahoo!知恵袋コーパスにおける意見・体験情報の基本属性の分布を,全体ならびにコミュニケーションタイプ (Adamic et al. 2008; 甲谷他 2008) 別に表 4 に示す. 全体の分布から, Yahoo! 知恵袋においては, 質問・回答ともに意見情報が多く現れているが,特に回答に多く現れている 17 こと, それに対して体験情報は, 質問にやや多く現れている 18 ことがわかる.また,肯定意見は質問において特に少ない 19 。これは,何らかの悩みを持ったユー ザが,コミュニティ QAサイトにおいて質問をしていることを考えれば自然な結果である。また,回答においては,特に中立的な回答が多い20。これは,ベストアンサーにおいては,中立的な意見が好まれる傾向があることを反映していると考えられる.コミュニケーションタイプについては,“知識交換”タイプでは,“相談”や“議論”に比べて意見情報が少ない傾向が見られる。また,“議論”タイプの質問では,体験情報が少ない傾向が見られる。 表 4 Yahoo!知恵袋コーパス中の意見・体験情報の分布 }} & \multicolumn{6}{|c|}{ 質問(文数) } & \multicolumn{6}{|c|}{ 回答(文数) } \\ $-検定(有意水準 $1 \%$ ,両側検定)で,各カテゴリの質問中の意見に対する有意差あり. $18 \mathrm{t}$-検定(有意水準 $5 \%$ ,両側検定)で,各カテゴリの回答中の体験に対する有意差あり 19 Dunnett の多重比較検定(有意水準 $5 \%$ )で,各カテゴリの質問中の否定意見,中立意見の構成比に対する有意差あり。 20 Dunnett の多重比較検定(有意水準 $5 \%$ )で,各カテゴリの回答中の肯定意見,否定意見の構成比に対する有意差あり。 } さらに, 従来の意見分析の文書ジャンルである新聞記事, ブログと, コミュニティ QA の間で, 意見の詳細タイプの構成比を比較した結果を表 5 , 表 6 に示す 21 . 構成比は, 意見の総数を分母とし, 該当する意見タイプに分類された頻度を分子とした 100 分率を求めてから, すべての質問カテゴリ(またはトピック)に対するマクロ平均を計算した。これらの表から,コミュニティ $\mathrm{QA}$ に対する意見のアノテーションは,認識・行為タイプが 3 分の 1 以上の意見に対して付与されているのに対して, 他の文書ジャンルは $20 \%$ 弱, $5 \%$ 強となっており, 特に, “提起” のような,質問者や回答者に働きかけを行う意見が多く出現する傾向が見られる. ## 4.2 コミュニケーションタイプごとのアノテーションの課題 アノテータ間の判定の一致度は, $\kappa$ 係数 (Cohen 1960) を用いて計算した. サンプルは, 3.1 節でサンプルデータとして紹介した 70 文書を選択した. 2 名のアノテータ間での判定一致度( $\kappa$係数)を確認した結果を表 7 に示す。なお,片方のアノテータが意見性がないと判定した場合などは,片方の意見者の値は空値となるため,空値をタイプの 1 つとみして $\kappa$ 係数を計算していることに注意されたい。また, 3.2 節で述べた意見を分割する場合についてであるが,この点については,取りまとめ役の第 3 者を通して,事前に区切る場所のみアノテータ同士で協議一致させた上で, 值を計算している ${ }^{22}$. 表 7 の結果から, 意見性, 極性については, almost perfect/ほとんど一致, あるいは, substantial/かなりの一致 (Landis and Koch 1977) という結果になったが,その他の属性については, moderate/中程度の一致となった。 表 5 各文書ジャンルの意見の態度タイプの構成比 $(\%)$ 表 6 各文書ジャンルの意見の認識・行為タイプの構成比 $(\%)$  表 7 サンプルデータを用いた各コミュニケーションタイプのアノテータ間判定一致度( $\kappa$ 係数) また,2 名のアノテータによるコミュニケーションタイプのアノテーションが一致した結果により,アノテーションを分類した結果についても,一致度を計算した。この結果と 4.1 節の表 4 の結果を比較することで, そのコミユニケーションタイプにおいて少ない傾向が見られた, “知識交換タイプ”の “態度”と“認識・行為”や,“議論タイプ”における“体験情報”などの一致度が低いことが分かる。この結果から,コミュニケーションの目的から直感的に連想されにくい情報のアノテーションは,判定がゆれる傾向が見られる。 たとえば,質問カテゴリ「インターネット」における,以下のような回答を考える。 - 「POWER MANAGEMENTの項目で設定ができます。」 - 「具体的には、P C をがばっと広げて、メモリーと呼ばれる板っ切れを、ぶすっと突き刺せば、OKです。」(一部抜粋) このような文は,質問に対する手続き的な回答を示していると考えれば,意見性はないと判断することもできる一方で,機能の有用性を示す意見,提起を示す意見と判断される場合もある. ## 4.3 アノテーションがー致しない事例とその解決策 態度タイプについて, 不一致の多い意見タイプを調査したところ, “頑強・軽薄(信頼性)” と “真実・不実(誠実さ)”に不一致があることがわかった。この点については,前者は,世評に基づく尊敬・軽荗であり,後者は,道徳に基づく是非であることをアノテーションマニュアル中に強調した。 その他の問題点としては, 4.2 節の例にも関連するが,片方のアノテータが,別のアノテータの付与した属性を,付与していないケースが散見された。これは多属性のアノテーションにおいては避けがたい問題であるが,認識・行為タイプと,態度タイプについては,共に付与する場合と,片方だけ付与する場合がある。これについては, 以下のような記述をアノテーションマニュアル中に用意し,アノテータに教示することで改善を試みた. (1)態度タイプに該当するものがなく,認識・行為タイプのみを選択する例. ・ かつて海南市内にも町内に一軒位の割合でお好み焼き屋さんがあったように思う。 表 8 サンプルデータを用いた各文書ジャンルのアノテータ間判定一致度( $\kappa$ 係数) ・ 米国, 日本のファンの後押しには感謝しています. ・私は, ハイレベル委員会の指摘に基本的に賛成です. ・それはショックですよね。 ・落札する前に聞いたほうがいいですよね? (2)態度タイプを分類しながら,認識・行為タイプにも該当するものがある場合の例. - みんなで周辺に空いている土地を探そう。(態度タイプ(切望・敬遠)+提起) - 多数の職員において民間金融機関等との間に公務員としての節度を欠いた関係があったことはまことに遺憾であり,改めて国民の皆様に深くおわび申し上げます。 (謝罪+態度タイプ(幸せ・不幸)) ・ところで皆さんは福田総理を信用できますか?(疑問 + 態度タイプ(頑強・軽薄)) ・これは,明らかに異常な状況だが,今の内務大臣の解決能力を超える事態であるのかもしれない. (態度タイプ「調和・混乱」,認識・行為「推測」) BCCWJ 中の別の文書ジャンルである国会会議録やブログについては,これらの知見を踏まえた上でアノテーションを行い,3.1節で説明したサンプルデータを用いて, $\kappa$ 値を計算しており,表 8 に示すと打り一致度は改善した。 ## 5 Yahoo!知恵袋コーパスを用いた意見・体験情報の分析 本節では, 3 節で作成した Yahoo! 知恵袋を対象としたコーパスを用いて,以下の 3 つの分析を行う。 (1) 質問,回答に出現する意見・体験情報の傾向の分析. (2) 質問,回答に出現する意見・体験情報の対応関係の分析. (3) 質問, 回答に出現する意見・体験情報の構造の分析. 2.1 節で紹介した関連研究によると, 意見と意見の対象との関係は, 著者のスタンスを反映している.この考えに基づき, 本研究では, 3.3 節と 3.4 節で定義した, 意見の詳細タイプと意見対象タイプのペアを基本単位として,質問と回答を含む対話型の文書ジャンルであるコミュニティ QAにおける意見の特徴について分析する。また, 2.2 節でも議論した,意見のドメインあ るいはコミュニケーションの目的に応じた差異を明らかにするために, 各ドメイン(Yahoo! 知恵袋の質問カテゴリ23)ならびにコミュニケーションタイプ (Adamic et al. 2008; 甲谷他 2008) ごとに分析を行い,それぞれの質問カテゴリやコミュニケーションタイプに応じた意見・体験情報の特徵を明らかにする。これにより,特定のドメインやコミュニケーションの目的において意見を求める情報要求に応じて, トピックを表す語彙の分布を考慮するだけではなく, 意見の詳細タイプに基づき,適切な回答を構成する応用を実現するための知見を提供する. ## 5.1 質問, 回答に出現する意見・体験情報の傾向の分析 まず,質問カテゴリとコミュニケーションタイプとの対応関係を表 9 に示す. 各カテゴリには,コミュニケーションタイプに対する偏りがあることが明らかであり,甲谷他 (2008) の主張とも合致する。 これを踏まえて,意見の詳細タイプ(態度タイプ,認識・行為タイプ)と意見対象タイプの組合せ,ならびに体験主と体験タイプの組合せのうち,特定のコミュニケーションタイプを反映したカテゴリの質問あるいは回答として,コーパス中に 3 件以上出現する組合せを,表 10 ,表 11 ,表 12 に示す.なお,意見情報については “意見の詳細タイプ一意見対象タイプ”,体験情報については,“体験主:体験タイプ”といった表記をしている。意見の詳細タイプについては, 3.3 節の表記に従う。なお,表中に掲載されていない質問カテゴリは, 3 件以上出現する組合せがなかったことを意味する,以上の点は,これ以降の表でも同じ表記を採用する. 表 10 から, 全般に, “相談”タイプの質問においては, “最近の体験”が多い傾向が見られる. また,同じ“相談”を対象とした意見でも,質問カテゴリごと,あるいは質問と回答ごとに傾向が異なる.もっとも顕著な傾向が出ているのは“恋愛相談,人間関係の悩み”のカテゴリで, “人間”, “行為”に関係する“魅力・嫌悪”などの評価や,“不安”などが出現している.また,回答は,質問と比べて肯定・否定のバランスが取れてきていると同時に,“行為の提起”などの中立意見が増えている。“病気,症状,ヘルスケア”も同様の傾向が見られるが,対象に“病気” “自然物名”(体の一部)が含まれる点が異なる。“Yahoo! オークション”については,“有用・無用”に関わる意見が含まれたり,“製品名”が対象となっている点が異なる. 表 11 からは, “議論”タイプについては, “政治, 社会問題”, “テレビ, ラジオ”などのカテゴリが増えていることがわかる。“政治, 社会問題”については, “組織名”を対象として, “軽薄” あるいは “倫理” 的に問題があるといった意見が出現している。“テレビ,ラジオ”については, “製品名”(番組名)の“魅力”について議論している。“恋愛相談,人間関係の悩み”については, “相談”の場合と比較して大きくは異ならないが, 回答に肯定的な意見が少ない傾向が見られる。また,全般に体験の情報は,“相談”タイプと比べて少ない傾向が見られる。  表 9 Yahoo! 知恵袋の質問カテゴリとコミュニケーションタイプの対応 表 10 相談タイプの質問・回答に頻出する意見・体験情報 } & \multicolumn{8}{|c|}{ 質問カテゴリ } \\ 表 12 からは,“知識交換”をするための意見は,回答のあいまい性の少ない知識に関係した質問カテゴリに出現することがわかる。“最近の体験”は,“相談”と同じく全般に質問中によく出現する傾向が見られる。“パソコン,周辺機器”のカテゴリにおいては,質問には,“製品名” を対象とした“切望”や“不満”などの意見が多い傾向が見られるのに対して,回答には,“製品名”を“提起”するなどの意見が見られる。“病気,症状,ヘルスケア”や“Yahoo!オークショ 表 11 議論タイプの質問・回答に頻出する意見・体験情報 表 12 知識交換タイプの質問・回答に頻出する意見・体験情報 & & 9 & 著者:最近の体験 & 20 & 薯者:最近の体験 & 41 & 著者:最近の体験 & 4 \\ ン”などのカテゴリにおいても,回答については,“病気名”や“製品名”(薬品名)あるいは“行為”について,“提起”あるいは“推測”するといった傾向が見られる. ## 5.2 質問,回答に出現する意見・体験情報の対応関係の分析 次に,質問と回答の対応関係について分析を行う5.1節と同様に,今度は質問と回答(ベストアンサー)とのペアについて, 出現する意見・体験情報の対応がつくもののうち, 出現頻度が 3 を超えるものを表 13 と表 14 に示す. なお, “議論”タイプについては,質問と回答のペアで出現頻度が 3 を越えるものがなかったため,提示していない. 表 13 から,“相談”タイプにおいては,3つのカテゴリにおいて質問・回答の対応が見られる. 表 13 相談タイプの質問と回答のペアに頻出する意見・体験情報 表 14 知識交換タイプの質問と回答のペアに頻出する意見・体験情報 “恋愛相談,人間の悩み”では,質問者の“最近の体験”に対して,何らかの“行為”の “提起”が返答される傾向が見られる。また,何らかの“敬遠”すべきあるいは“不安”を覚える “行為”について質問した場合,同じく“行為”の“提起”が回答される傾向が見られる。これに対して,“Yahoo! オークション”では,“製品”あるいは “行為”についての“疑問”に対して, “製品”や“行為”を“提起”するといった回答がある.また,質問者の“最近の体験”に対して, “行為”の“有用・無用”について回答をする場合もある。“病気,症状,ヘルスケア”では,回答に“病気名”を“提起”したり,“安心”感を与えるようなことを中立的に回答することがある. 表 14 から, “知識交換” タイプにおいては, “パソコン, 周辺機器”のカテゴリでは, 質問者の “最近の体験”に基づき質問をすると,“製品名”を “提起”したりその “有用”性を回答する傾向が見られる。また,“製品”の“不満”を訴える質問に対しても,“製品名”を“提起”する回答が ある。その他, “病気, 症状, ヘルスケア”や“Yahoo! オークション”のカテゴリでは, 質問者の“最近の体験”に対して,“製品名”や“病気名”を“提起”したり,“著者の過去の体験”に基づき明確な知識を回答する場合がある. ## 5.3 質問,回答に出現する意見・体験情報の構造の分析 最後に,質問,回答における意見・体験情報の構造を分析するために,前節と同様に,意見情報あるいは体験情報の前後に続く組合せのうち, 出現頻度が 3 を超えるものを対象として分析を行った. その結果, Yahoo! 知恵袋の質問または回答では, コミュニケーションタイプに関わらず,同じタイプの意見・体験情報を続けることが多い傾向が見られた。また,“パソコン,周辺機器” のカテゴリにおいて “知識交換”をする場合には,“製品”に対する “満足・不満”と質問者の“最近の体験”が連続する場合があることもわかった. ## 6 おわりに 本稿では, 従来, ニュース, レビュー, ブログなどが対象となって構築されていた意見分析コーパスについて,質問と回答を含む対話型の文書ジャンル,具体的には BCCWJ の Yahoo! 知恵袋を対象として意見分析コーパスを構築した。意見分析コーパスの構築にあたっては, 従来の意見分析では行われてこなかった詳細な分析を目指し,態度タイプ (Martin and White 2005) や,アノテータとの協議を通じて定義した認識・行為タイプといった意見の詳細タイプのアノテーションを行った。また,多数の属性の判定にあたり,一貫したアノテーションを実現するための課題や工夫点を紹介した. さらに,コミュニケーションタイプ (甲谷他 2008) や体験情報 (関, 稲垣 2008)をアノテートし, 意見対象タイプを拡張固有表現コーパス (橋本他 2009)を利用してアノテートすることにより, 意見の詳細タイプや質問カテゴリと重ね合わせることで,従来の極性分類に基づくコミュニティ QA を対象とした意見分析 (Kucuktunc et al. 2012)では明らかにできなかった, 質問カテゴリやコミュニケーションタイプごとの詳細な意見の傾向の違いや,質問と回答間の意見・体験情報の関係を明らかにした. 今後の課題は, これら多数の属性を自動的にアノテーションすることにより, より大規模なデータを対象とした傾向を分析することにある.態度タイプなどの自動アノテーションに関する研究は, Argamon et al. (2009) など, あまり数多くないが, 態度評価辞書 ${ }^{24}$ の公開なども進んでおり, 引き続き取り組んでいきたい。また, 多属性のデー夕は, 個別の属性の教師デー夕が十分に得られないという課題があるが, この点は半教師ありトピックモデル (Kim, Kim, and Oh 2012)などの知見を活用することを検討している.  ## 謝 辞 『現代日本語書き言葉コーパス (BCCWJ)』は,国立国語研究所により提供されたものを利用した.ここに深く感謝する. 本研究の一部は, 科学研究費補助金基盤研究 C(課題番号 24500291), 基盤研究 B(課題番号 25280110 ), 萌芽研究 (課題番号 25540159 ), ならびに筑波大学図書館情報メディア系プロジェクト研究による助成に基づき遂行された。 ## 参考文献 阿部裕司,古宮嘉那子,小谷善行 (2011). 相互情報量を用いた質問応答システムのためのクエリ拡張. NLP 若手の会第 6 回シンポジウム. Adamic, L. A., Zhang, J., Bakshy, E., and Ackerman, M. S. (2008). "Knowledge Sharing and Yahoo Answers: Everyone Knows Something." In Proceedings of the 17th International Conference on World Wide Web (WWW 2008), pp. 665-674, Beijing, China. Aikawa, N., Sakai, T., and Yamana, H. (2011). "Community QA Question Classification: Is the Asker Looking for Subjective Answers or Not?" IPSJ Transactions on Databases, 4 (2), pp. 1-9. Argamon, S., Bloom, K., Esuli, A., and Sebastiani, F. (2009). "Automatically Determining Attitude Type and Force for Sentiment Analysis." In Human Language Technology. Challenges of the Information Society, Vol. 5603 of Lecture Notes in Computer Science, pp. 218-231, Poznan, Poland. Balahur, A., Boldrini, E., Montoyo, A., and Martinez-Barco, P. (2010). "Opinion Question Answering: Towards a Unified Approach." In Proceedings of European Conference on Artificial Intelligence (ECAI), pp. 511-516. IOS Press. Bazerman, C. and Prior, P. (2004). What Writing Does and How It Does It. Lawrence Erlbaum Associates. Berger, A., Caruana, R., Cohn, D., Freitag, D., and Mittal, V. (2000). "Bridging the Lexical Chasm: Statistical Approaches to Answer-finding." In Proceedings of the 23rd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 192-199, Athens, Greece. Blitzer, J., Dredze, M., and Pereira, F. (2007). "Biographies, Bollywood, Boom-boxes and Blenders: Domain Adaptation for Sentiment Classification." In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics (ACL 2007), pp. 440-447, Prague, Czech Republic. Bollegala, D., Weir, D., and Carroll, J. (2011). "Using Multiple Sources to Construct a Sentiment Sensitive Thesaurus for Cross-Domain Sentiment Classification." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics (ACL 2011), pp. 132-141, Portland, Oregon. Cohen, J. (1960). "A Coefficient of Agreement for Nominal Scales." Educational and Psychological Measurement, 20 (1), pp. 37-46. Dang, H. T. (2008). "Overview of the TAC 2008 Opinion Question Answering and Summarization Tasks." In Proceedings of Text Analysis Conferences 2008 (TAC 2008), pp. 24-35. 橋本泰一, 乾孝司, 村上浩司 (2009). 拡張固有表現夕グ付きコーパスの構築. 情報処理学会第 188 回自然言語処理研究会, pp. 113-120. He, Y., Lin, C., and Alani, H. (2011). "Automatically Extracting Polarity-Bearing Topics for Cross-Domain Sentiment Classification." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics (ACL 2011), pp. 123-131, Portland, Oregon. 乾健太郎, 原一夫 (2008). 経験マイニング:Web テキストからの個人の経験の抽出と分類. 言 語処理学会第 14 回年次大会発表論文集, pp. 1077-1080, 東京大学. 乾孝司, 奥村学 (2006). テキストを対象とした評価情報の分析に関する研究動向. 自然言語処 理, 13 (3), pp. 201-241. 甲谷優, 川島晴美, 藤村考, 奥雅博 (2008). QA サイトにおける質問応答グラフの成長パター ン分析. DBSJ Journal, 7 (3), pp. 61-66. Kim, D., Kim, S., and Oh, A. (2012). "Dirichlet Process with Mixed Random Measures: A Nonparametric Topic Model for Labeled Data." In Proceedings of the 29th International Conference on Machine Learning (ICML 2012), pp. 727-734, Edinburgh, Scotland, UK. 小林のぞみ, 乾健太郎, 松本裕治 (2006). 意見情報の抽出/構造化のタスク使用に関する考察. 情報処理学会, 第 171 回自然言語処理研究会, pp. 111-118. Kucuktunc, O., Cambazoglu, B. B., Weber, I., and Ferhatosmanoglu, H. (2012). "A Large-Scale Sentiment Analysis for Yahoo! Answers." In Proceedings of the 5th International Conference on Web Search and Web Data Mining (WSDM 2012), pp. 633-642, Seattle, WA, USA. 倉島健, 藤村考, 奥田英範 (2008). 大規模テキストからの経験マイニング. 電子情報通信学会第 19 回データ工学ワークショップ (DEWS2008), pp. A1-4. 栗山和子, 神門典子 (2009). Q\&A サイトにおける質問と回答の分析. 情報処理学会研究報告情報学基礎研究会報告, 95 巻. Landis, J. R. and Koch, G. G. (1977). "The Measurement of Observer Agreement for Categorical Data." Biometrics, 33, pp. 159-174. Li, B., Liu, Y., Ram, A., Garcia, E. V., and Agichtein, E. (2008). "Exploring Question Subjec- tivity Prediction in Community QA." In Proceedings of the 31st ACM SIGIR Conference, pp. 735-736, Singapore. Li, F., Pan, S. J., Jin, O., Yang, Q., and Zhu, X. (2012). "Cross-Domain Co-Extraction of Sentiment and Topic Lexicons." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (ACL 2012), pp. 410-419, Jeju, Korea. Liu, B. (2010). "Sentiment Analysis and Subjectivity." In Indurkhya, N. and Damerau, F. J. (Eds.), Handbook of Natural Language Processing, pp. 627-664. CRC Press. 前川喜久雄 (2011). 特定領域研究「日本語コーパス」と『現代日本語書き言葉均衡コーパス』. 『現代日本語書き言葉均衡コーパス』完成記念講演会予稿集, pp. 1-10. Martin, J. R. and White, P. R. R. (2005). The Language of Evaluation: Appraisal in English. Palgrave Macmillan. 大塚裕子, 乾孝司, 奥村学 (2007). 意見分析エンジン. コロナ社. Pang, B. and Lee, L. (2008). Opinion Mining and Sentiment Analysis. Now Publishers Inc. Ponomareva, N. and Thelwall, M. (2012). "Do Neighbours Help? An Exploration of Graphbased Algorithms for Cross-domain Sentiment Classification." In Proceedings of Conference on Empirical Methods in Natural Language Processing (EMNLP 2012), pp. 655-665, Jeju, Korea. 佐野大樹 (2010a). ブログにおける評価情報の分類と体系化〜アプレイザル理論を用いて〜.電子情報通信学会第 1 回集合知シンポジウム. 佐野大樹 (2010b). 評価表現に基づくブログ分類の試み〜アプレイザル理論を用いて〜. 言語処理学会第 16 回年次大会. 関洋平, 稲垣陽一 (2008). 日常的な体験を記述したブログ文書におけるライフイベントの判定.電子情報通信学会第 2 種研究会資料 WI2-2008-20. 関洋平 (2013). 意見分析コーパスの現状と課題. 情報処理学会論文誌データベース, 6 (4), pp. 85-103. Seki, Y., Ku, L. W., Sun, L., Chen, H. H., and Kando, N. (2010). "Overview of Multilingual Opinion Analysis Task at NTCIR-8 - A Step Toward Cross Lingual Opinion Analysis." In Proceedings of the Eighth NTCIR Workshop Meeting, pp. 209-220, NII, Japan. 関根聡, 竹内康介 (2007). 拡張固有表現オントロジー. 言語処理学会第 13 回年次大会ワークショップ「言語的オントロジーの構築・連携・利用」,pp. 23-26. Sogaard, A. (2013). Semi-Supervised Learning and Domain Adaptation in Natural Language Processing. Synthesis Lectures on Human Language Technologies. Morgan \& Claypool. Somasundaran, S. and Wiebe, J. (2009). "Recognizing Stances in Online Debates." In Proceedings of the 47th Annual Meeting of the Association for Computational Linguistics and the 4th International Joint Conference on Natural Language Processing of the Asian Federation of Natural Language Processing, pp. 226-234, Suntec, Singapore. Somasundaran, S. and Wiebe, J. (2010). "Recognizing Stances in Ideological On-line Debates." In Proceedings of the NAACL HLT 2010 Workshop on Computational Approaches to Analysis and Generation of Emotion in Text, pp. 116-124, Los Angeles, CA. Somasundaran, S., Wilson, T., Wiebe, J., and Stoyanov, V. (2007). "QA with Attitude: Exploiting Opinion Type Analysis for Improving Question Answering in Online Discussions and the News." In Proceedings of International Conference on Weblogs and Social (ICWSM), Boulder, Colorado, USA. Stoyanov, V. and Cardie, C. (2011). "Automatically Creating General-Purpose Opinion Summaries from Text." In Proceedings of Recent Advances in Natural Language Processing (RANLP 2011), pp. 202-209, Hissar, Bulgaria. Stoyanov, V., Cardie, C., and Wiebe, J. (2005). "Multi-Perspective Question Answering Using the OpQA Corpus." In Proceedings of the Conference on Human Language Technology and Empirical Methods in Natural Language Processing, pp. 923-930, Vancouver, British Columbia, Canada. Wiebe, J., Wilson, T., and Cardie, C. (2005). "Annotating Expressions of Opinions and Emotions in Language." Language Resources and Evaluation, 39 (2-3), pp. 165-210. Wiebe, J., Breck, E., Buckley, C., Cardie, C., Davis, P., Fraser, B., Litman, D., Pierce, D., Riloff, E., and Wilson, T. (2002). "NRRC Summer Workshop on Multiple-Perspective Question Answering Final Report.". 山崎誠 (2011).『現代日本語書き言葉均衡コーパス』の構築と活用. 『現代日本語書き言葉均衡コーパス』完成記念講演会予稿集, pp. 11-20. 山崎誠 (2012). 『現代日本語書き言葉均衡コーパス』による日本語研究の展開. 言語処理学会第 18 回年次大会チュートリアル資料. ## 略歴 関洋平:1996 年慶應義塾大学大学院理工学研究科計算機科学専攻修士課程修了. 2005 年総合研究大学院大学情報学専攻博士後期課程修了. 博士(情報学). 同年豊橋技術科学大学工学部情報工学系助手. 2008 年コロンビア大学コンピュータサイエンス学科客員研究員. 2010 年筑波大学図書館情報メディア系助教, 現在に至る. 自然言語処理, 意見分析, 情報アクセスの研究に従事. ACM, ACL, 情報処理学会, 電子情報通信学会, 言語処理学会, 日本デー タベース学会, 人工知能学会各会員. (2013 年 9 月 20 日受付) (2013 年 12 月 6 日再受付) (2014 年 1 月 20 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 『現代日本語書き言葉均衡コーパス』形態論情報アノテーション 支援システムの設計・実装・運用 小木曽智信 ${ }^{\dagger}$ 中村 壮範 $^{\dagger}$ } 『現代日本語書き言葉均衡コーパス』は 1 億語を超える大規模なコーパスであり, 17 万ファイル以上の XML 文書に短単位・長単位の形態論情報アノテーションが施さ れている. このコーパスの構築を目的としてアノテーションのためのシステムが開発された. このシステムは, 辞書見出しデータベースと, タグ付けされたコーパス とを関連付けて, 整合性を保ちつつ多くの作業者が編集していくことを可能にする ものである.このシステムは, 関係データベースで構築されたサーバ「形態論情報 データベース」と, 辞書を参照しながらコーパスの修正作業を可能にするコーパス 修正用のクライアントツール「大納言 $\rfloor$, 形態素解析辞書 UniDic の見出し語の管理 ツール「UniDic Explorer」から成る。本稿はこのデータベースシステムの設計・実装・運用について論ずる。 キーワード:コーパス管理ツール,現代日本語書き言葉均衡コーパス, UniDic ## Design, Implementation, and Operation of Annotation Support System for Morphological Information of BCCWJ \author{ Toshinobu Ogiso $^{\dagger}$ and Takenori Nakamura ${ }^{\dagger \dagger}$ } "Balanced Corpus of Contemporary Written Japanese" is a large-scale Japanese corpus of 100 million words. It contains 170,000 XML files annotated with two levels of morphological information: short-unit word and long-unit word. We have constructed an annotation system to compile this corpus. The system allows many users to modify corpus annotations and dictionary entries, which are related to each other, while ensuring consistency. The system consists of a relational database server called the "Morphological Information Database," a client tool that maintains the morphological information of the corpus called "Dynagon," and a tool that manages dictionary entries for morphological analysis called "UniDic Explorer." This paper describes the design, implementation, and operation of this "Morphological Information Database" for BCCWJ. Key Words: Corpus management tool, Balanced Corpus of Contemporary Written Japanese, UniDic  ## 1 はじめに 国立国語研究所を中心に開発された『現代日本語書き言葉均衡コーパス (BCCWJ)』(前川 2007) 1 は 17 万ファイル以上の XML 文書に短単位・長単位の二つのレベルの形態論情報アノテーションを施した, 1 億語を超える大規模なコーパスである。コーパスの構築期間は 5 年以上に及んだ,BCCWJ の形態論情報付与には,新たに開発された電子化辞書 UniDic ${ }^{2}$ が用いられたが, UniDicの見出し語は BCCWJ 構築と並行して整備されたため, コーパスの形態論情報の修正と UniDic の見出し語登録は整合性を保ちつつ同時並行で進める必要があった. また,BCCWJの形態論情報アノテーションでは全体で $98 \%$ 以上の高い精度が求められ,これを実現するためには自動解析結果に対して人手による修正を施して精度を高める必要があった. 1 億語規模のコーパスにこうしたアノテーションを施すためには, 作業体制も大きな規模になり,コーパスのアノテーターは最大で 20 人ほどが同時にフルタイムで作業に当たった. 作業は国語研究所の内部だけでなく, 外注業者等の研究所外部からも行われる必要があった. こうした作業環境を構築するためにはアノテーションを支援するコーパス管理システムが必要とされる. このような大規模なコーパスへのアノテーションを支えるため, 筆者らは, 形態論情報が夕グ付けされた大規模なコーパスと辞書の見出し語のデータベースとを関連付け, 整合性を保ちつつ, 国語研究所の内部だけでなく, 研究所外部からも多くの作業者が同時に編集していくことを可能にするシステムを新たに開発した,本論文は,この「形態論情報データベース」の設計・実装・運用について論ずる。 本研究の貢献は, 1 億語規模の日本語コーパスに形態論情報アノテーションを施し, 修正することを可能にした点にある. 従来のコーパス管理ツールではこれが実現できなかったが, 本システムにより BCCWJ の形態論情報アノテーションが可能になり, BCCWJを構成する全てのデータは本システムのデータベースから出力された. また,本システムによってUniDic の見出し語のデー夕整備を支援し, UniDic の見出し語と対応付けられた人手修正済みの学習用コー パスを提供した.これにより, 形態素解析辞書 UniDic の開発に貢献した.このシステムは, 現在では「日本語歴史コーパス」3 の構築にも活用されている. 以下, 2 章で本論文の前提となる情報について確認した後, 3 章で関連する先行事例との比較を行う.そのうえで, 4 章で本システムの概要を説明し, 5 章で辞書データベース部, 6 章でコーパスデータベース部の設計・実装・運用について述べる。また, 7 章で辞書とコーパスを修正するためのクライアントツールについて説明する. ^{2}$ UniDic http://sourceforge.jp/projects/unidic/ 3 日本語歴史コーパス http://www.ninjal.ac.jp/corpus_center/chj/ } ## 2 前提となる知識 ## 2.1 短単位と長単位 BCCWJでは,短単位と長単位の二つの言語単位によるアノテーションが施された。短単位は, 摇れが少なく斉一な単位となるように設計された短い単位である (小椋, 小磯, 冨士池, 宮内, 小西, 原 2011). 例えば「国立国語研究所で研究している.」という文は, 次の 10 単位に分割される。 /国立/国語/研究/所/で/研究/し/て/いる/./ 個々の短単位には, 語彙素・語形・品詞・活用型・活用形といった形態論情報が付与される.短単位への分割と情報の付与は, 新たに開発された電子化辞書 UniDic (伝, 小木曽, 小椋, 山田,峯松, 内元, 小磯 2007) を用いた形態素解析によって行われた。形態素解析器は $\mathrm{MeCab}^{4}$ が用いられた。 一方,長単位はほぼ文節に近い長さの言語単位で,上記の例は長単位では次のように 5 単位に分割される。 /国立国語研究所/で/研究し/ている/./ 長単位は,コーパス中で出現した短単位を必要に応じて結合させる形で構成され,個々の長単位にはそれを構成する短単位が持つ形態論情報をもとにして長単位としての形態論情報が付与される。この処理は, 長単位解析器 Comainu (小澤, 内元, 伝 2011) によって行われた. Comainu の処理により,例えば上の例の「研究し」には,短単位「研究」と「する」を結合して作られる 「研究する」という長単位の見出しが付され, 全体として一つの動詞として情報が付与される. このように, 短単位は形態素解析用の辞書に見出し語として登録されたものであるのに対し,長単位はそれ自体は見出し語として登録されたものではなく, コーパスでの出現に応じて短単位情報をもとにして構成されるものである. 長単位と短単位は BCCWJ の最も基本的なアノテーションの一つであり, 公式のコーパス検索ツール「中納言 $\rfloor^{5}$ 等で利用され, 多くのユーザーによって活用されている. ## 2.2 形態論情報の精度と修正作業 BCCWJ の形態論情報は,コアデータとして選定された約 100 万語は $99 \%$ 以上の精度を,それ以外の非コアデー夕は $98 \%$ 以上の精度を確保することとされた。この解析精度を実現するために,コアデータについては人手による徹底した修正が行われた。一方,非コアデー夕は原則として自動解析結果によったが, 最終的には人手による修正も含めてこの精度が確保された (国立国語研究所コーパス開発センター 2011).  また,非コアデータから UniDic 未登録語が採集され,それに伴う修正をコーパス全体に対して行う必要があったほか,短単位規程の見直しによってコーパス全体に対して特定の語の人手修正の処理を施す必要があった。したがってコーパスの修正作業はコアデータに対して頻繁に行われるだけでなく,1億語以上のコーパス全体を対象に行う必要があった. ## $2.3 \mathrm{C$-XML と M-XML} BCCWJ では, C-XML と M-XML の二つの形式の XML 文書が作成された (国立国語研究所コーパス開発センター2011). C-XML は,BCCWJ のサンプルとして取得されたテキストに文書構造を XML でアノテー ションしたもので,形態論情報データベースにとっては入力となるデータの形式である。この XML 形式のデータをインポートし,形態論情報をアノテーションした上で,表形式や XML 形式で出力することがこのシステム全体の処理の流れになる. M-XML は C-XML をもとに形態論情報をアノテーションしたXML 文書で, このシステムの出力形式の一つである.M-XML では,後述する数字の前処理や,一部の夕グの変更が行われているため, テキストやタグは C-XML とは必ずしも一致しない. なお,誤字修正などがシステム上で行われるため,M-XML だけでなく,形態論情報を含まない C-XML も最終版は形態論情報データベースから出力される必要がある. ## 2.4 数字の前処理 BCCWJ の形態論情報付与では, UniDic を用いた形態素解析に先立って, 数字について次のような変換処理がなされた。これは, テキスト中の数字に対して実際に読み上げるときの語として形態論情報を与えられるようにするためである。この処理は numTrans (山田,小磯 2008) というルールベースのツールによって行われた. 例: 120 円 $\rightarrow$ 百|二十| 円 $ <\text { fraction }>1 / 2</ \text { fraction }>\quad \rightarrow \quad 2 \mid \text { 分 } \mid 1 $ この処理により処理前後で文字位置がずれたり, 分数の分子と分母で文字の順が逆になったりすることがある. 上述の C-XML はこの変換前のテキストであるのに対し, M-XML は変換後のテキストに基づいており,これに変換処理の内容(原文文字列と変換タイプ)をXMLでタグ付けして保持している.このため,BCCWJ を構築するためのシステムは,この変換処理前後の二つの状態のテキストを適切に保持管理する必要がある. ## 3 関連する先行事例との比較 ## 3.1 BCCWJ の形態論情報アノテーションのための要件 1 章・2 章で確認したことを踏まえると BCCWJに形態論情報のアノテーション施すためには,少なくとも次の要件を満たすシステムが必要とされる。 (i) 1 億語規模のコーパスを格納して実用的な検索や修正が行えること (ii) 辞書を参照しその情報を用いてコーパスのアノテーションが行えること (iii) 辞書(語彙表)とコーパスとを同期して整合性を保つことができること (iv) 形態素解析によって付与された単語境界を容易に修正可能なこと BCCWJ の修正作業では 2.2 節で見たとおり, 1 億語規模のコーパスを対象に, 同様の誤りを一括して修正する必要がある。したがって,(i)は最も重要な要件である。さらに, BCCWJ の構築では, 階層構造を持つ新しい電子化辞書 UniDic のために専用の辞書データベースを用意し,その見出し語を用いてコーパスを修正する必要があった。また,辞書とコーパスが同時並行で拡張されることから, 辞書とコーパスを関連付けて管理し, 整合性を保つことが必要となる.したがって, (ii) (iii)の辞書連携の機能も欠くことができない. これに加えて, 分かち書きがなされない日本語のテキストを対象とすることから, (iv)の要件も強く求められる.英語を初めとする分かち書きがなされる言語では, 既存の境界にしたがって単語に対してアノテーションを付与すれば良いため, 単語境界の修正は重要な問題ではない. しかし日本語では, 自動形態素解析によって分割された単語の境界自体が誤っている場合が少なくないため,境界を変更する修正が頻繁に行われるからである. ## 3.2 既存のアノテーションツールとの比較 人手による修正を加えた日本語コーパスで, 1 億語を超える規模のものはこれまでに構築されてこなかったこともあり, 管見に入る限り, 前節の要件を完全に満たす先行事例は存在しない.しかし,コーパスへのアノテーション支援ツールには多くの実装がある.既存のツール類が上記の条件をどの程度満たしているのかを調査した. 取り上げたのは, 次の 4 つの実装である。多くのツールの中で, 日本語の形態論情報付きコー パスの管理ツールとして実績がある ChaKi (Matsumoto, Asahara, Kawabe, Takahashi, Tono, Ohtani, and Morita 2005)の最新版と, 比較的最近になって発表されたツールに注目した. - ChaKi.NET ${ }^{6}$ - $\quad$ BRAT (Stenetorp, Pyysalo, Topić, Ohta, Ananiadou, and Tsujii 2012)7 ^{6}$ http://sourceforge.jp/projects/chaki/ 7 http://brat.nlplab.org/ } - $\quad$ SLATE (Kaplan, Iida, Nishina, and Tokunaga 2011) - Anotatornia (Przepiórkowski and Murzynowski 2011)9 BRAT は Web 上での使いやすいインターフェイスを備える汎用のアノテーションツールであり,係り受け・固有表現・照応・句のチャンキングなどのアノテーションに利用されている. SLATE もまた Web 上で容易に使える汎用のアノテーションツールであるが, さらにアノテーションの版管理まで考慮したものになっている. Anotatornia はポーランド語のコーパス (National Corpus of Polish) 構築のために開発されたアノテーションツールで, 形態素解析辞書との連携が可能である. これら 4 つのツールと, 本研究のシステムについて, 前節でみた要件と, 利用のしやすさ, 実装に利用されている技術の観点から比較した結果を表 1 にまとめた. 表中,「○」は条件を満たすもの,「வ」は限定的に要件を満たすもの,「×」が満たさないものである. 表 1 のうち, BCCWJの構築にとって最も重要なのは, 前節で確認したとおり, 大規模デー タへの対応, 単語境界修正, 辞書連携の機能である. BRAT と SLATE は, いずれも Web 上で動作する汎用のアノテーションッールとして開発されたものであり, 表 1 において両者とも同じ結果となっている. これら Web 上の汎用ツールは, 導入の敷居が低く作業者も容易に利用が可能だが, 比較的少数の文書ファイルに対してアノテーションを施すことを前提としており,BCCWJ 構築のように,大量の文書を一度に修正するような作業には向いていない. また, 一般に単語よりも上位のレベルでのアノテーションに用いられることを想定していると思われ, 文字列を単位としたアノテーションが可能ではあっ 表 1 先行事例と本システムの比較 & & & & 汎用性 & & フリー & 使用ソフトウェア \\  ても,単語境界の修正に適したツールにはなっていない。また,多くの語の形態論情報を一括で修正するような作業には向かない. Anotatornia は単語境界の修正や辞書連携が可能であるが,ポーランド語の特定の電子辞書に対応したものであるため, BCCWJでの利用には適さない。また,DBMS に軽量な SQLiteを用いた Webベースのシステムであるため,大規模デー夕の処理にも向かないと考えられる. ChaKi は, 日本語コーパス管理に関係データベースを用いる浅原, 米田, 山下, 伝, 松本 (2002) の設計にもとづき, 前節で見たような日本語の形態論情報アノテーションの特徵を踏まえたコー パス管理システムとなっている。 そのため, 単語境界修正や辞書との連携が可能であるうえに,係り受けやチャンキング,グループ化など多様なアノテーションを可能にしている。しかし,大規模データへの対応で難があり,現在の ChaKi.NET の実装では 1,000 万語を超えるコーパスを格納すると実用的な速度が出ず,多数の作業者が十分な速度と同時実行性を以て利用することはできなかった. ## 3.3 本システムの優位性と問題点 前節で確認したとおり, 最も重要となる大規模データへの対応, 単語境界修正, 辞書連携の 3 つを満たすシステムは,本システムしか存在しない,日本語の形態論情報アノテーションに適した機能を持ち, 1 億語を超える規模のコーパスを一度に取り扱うことを可能にしたこと,そして辞書データベースとの完全な連携が本システムの特長である. 本システムは BCCWJにあわせて作り达まれているため,2 章で挙げた BCCWJ独自の処理にも対応している.また,階層構造をもつ UniDic の辞書データベースを包含しており,アノテーションツールに留まらない言語資源管理のシステムとなっている. 一方で, 本システムにはいくつかの問題点も存在する.BCCWJに特化した設計となっているため汎用性に乏しいこと, Webベースのシステムではないためクライアントソフトウェアの配布が必要であり導入の敷居が高いこと, フリーウェアではなくプロプライエタリなソフトウェアを用いて構築されているため配布が難しいこと, などは他のシステムと比較して劣る点である. ## 4 形態論情報データベースシステムの概要 ## 4.1 形態論情報データベースの構成 形態論情報データベースは,UniDicの見出し語を格納する「辞書データベース」と,コーパスを格納する「コーパスデータベース」から構成される。図 1 にその全体図を示す。形態論情報データベースは,UniDicの見出し語を管理する部分と,コーパスを格納して修正を行う部分に分かれる。これに対応するように,データベースをインスタンスのレベルで,辞書見出しを格納する「辞書データベース」部と,コーパスを格納する「コーパスデータベース」部に分割 コーパスデータベース 図 1 形態論情報データベース全体図 した. そのうえで,コーパスの形態論情報と辞書の情報を同一に保つために,見出し語表・活用表・変化表などから生成される「語彙表」を挟んで二つのデータベースを連係させた。 辞書データベースには,短単位の見出し語表と,これを出現形まで展開するための活用表・変化表が含まれる。辞書データベースの詳細は 5 章で述べる。辞書見出しを出現形まで展開した「語彙表」はレコードごとに語彙表 ID が一意に割り振られ,コーパスデータベース内に生成される. コーパスデータベースには,BCCWJのテキストを形態素解析した短単位のコーパスが含まれる。コーパスのレコードは語彙表 IDにより語彙表と関連付けられ,これを介して辞書の見出し表と関連付けられる。なお,コーパスデータベースには短単位を組み上げた長単位の情報が含まれる.長単位は定義上,コーパスに出現したものをそのまま単位として認める形をとるため, 辞書データベースとは接続されない. コーパスデータベースの詳細は 6 章で述べる. コーパスと辞書は独立性が高く,それぞれが単独でも利用できる必要があるため,コーパスにも辞書データベースがもつ多様な情報が付与されている,次節で見るように,辞書データベー スのデータが変更された場合は,語彙表を介してコーパスにも変更が反映される。 ## 4.2 語彙表展開とコーパスとの同期処理 コーパスデータベースと辞書データベースを連携するための仕組みとして語彙表展開と同期処理が重要であるが,この処理は本システムの中でも最もコストのかかる処理のひとつである. BCCWJ はコーパスの規模が大きいために出現頻度が数万以上となる見出し語も少なくない.仮に語彙表展開とコーパスとの同期を全てリアルタイム処理で行うとすると,こうした見出し語を変更した場合のコーパスとの同期処理には大きな負荷がかかり,レコードロックなどが頻発し作業上深刻な問題となる可能性がある。そのため, データの変更が及ぼす影響の範囲や処 理の必要性に応じて,リアルタイム処理と,通常深夜に行われる日次処理とを使い分けている。 見出し語の変更による当該語の語彙表展開は, 語彙表への影響も少なく, また変更した語を即座にコーパス修正に使用できるようにする必要があるためにリアルタイム処理としている.一方,活用表や変化表の変更によって生じる語彙表展開と同期処理では,影響を受ける見出し語が多数にのぼり,関連付けられたコーパスの更新箇所も膨大となる可能性があるため, リアルタイム処理ではなく日次処理により行っている。このようにシステムへの負荷を軽減し作業性を上げるために,辞書データベースとコーパスデータベースはリアルタイムの同期処理のみによる密結合ではなく,日次処理を含めたゆるやかな連携をとる疎結合のシステムとして設計されている. 辞書データベースとコーパスデータベースとの関連付けには, 語彙表テーブルが保持する語彙表 IDを用いるが,語彙表テーブルはコーパスの各語が持つ属性値 10 も保持している。語彙表 ID と属性値で二重に情報が保持されているため,語彙表 ID での接続が失われた状態でも,属性値の組み合わせにより語彙表(及び辞書データベースの見出し語表)との接続を回復できる. これにより,見出し語の修正によって語彙表 ID が変わってしまった場合や,コーパスの修正によって一部の属性が一括変更された場合など,コーパスと語彙表の関連づけが失われた際にも,語彙表 ID か属性値のいずれかをキーとして同期をとることができるようにした。 語彙表の更新は, 見出し語表の見出し語の追加時・修正時にリアルタイムで該当する語彙表のレコードを自動生成・更新する。これにより辞書追加した語をすぐにコーパス修正に利用できるようにしている。また日次のバッチ処理により上述のコーパスと語彙表との同期処理を行い, 語彙表 ID と属性値のいずれによっても対応がとれないレコードが発生した場合には作業者に修正を促すことで関連付けを保っている。 ## 4.3 利用したシステム 形態論情報データベースで使用した主な機器・ソフトウェアは以下のとおりである. ・ クライアント - ソフトウェア * OS: Microsoft Windows XP(後に 7 に更新) *ツール開発:Microsoft Access 2003(後に 2007 に更新) ・サーバ - ソフトウェア * OS: Microsoft Windows Server 2003R2 x64(後に 2008R2に更新) * DBMS: Microsoft SQL Server 2005 Standard Edition x64 ^{10} 6$ 章の表 8 の基本 8 属性. } - ハードウェア * 機種 : DELL PowerEdge 2950 * メモリ : $24.0 \mathrm{~GB}$ * CPU: Intel Xeon X5355(2.66 GHz 4 コア $2 \times 4$ MB L2 キャッシュ $1333 \mathrm{MHzFSB}) \times 2$ * HDD: 300 GB $15000 \mathrm{rpm}$ SAS × 6(RAID5 構成で実質容量 $1.5 \mathrm{~TB}$ ) ・ バックアップストレージ - ハードウェア * 機種 : DELL PowerVault MD-1000 * HDD: 1 TB SATA × 15(うち2台がホットスペア, RAID5 構成で実質容量 $11 \mathrm{~TB}$ ) 形態論情報データベースは 1 台のデータベースサーバに複数の端末からアクセスするクライアント・サーバ型のシステムとして構築されている。プロジェクト開始までの開発期間が限られていたこと,運用中も頻繁な仕様変更が想定されたことなどから,機能追加・変更が容易に行える Accessでクライアントッールを開発し, DBMS には Access との親和性が高く, データベース管理, 分析, チューニング等のツールが充実している SQL Server を採用した. DBMS は BCCWJ の電子テキスト化で用いられる JIS X 0213 の文字集合 (山口,高田,北村,間淵, 大島, 小林, 西部 2011)を適切に扱える必要があったが, BCCWJ 構築開始時点で当該文字集合が適切に扱えるものが少なく,このことも SQL Server を採用した理由となっている ${ }^{11}$. なお,所外の作業者など Access がインストールされていない環境からも作業ができるよう,無償配布されている Access ランタイム上で動作するクライアントッールの外部接続用インストールパッケージを別途用意した. ## 5 辞書データベースの設計と実装 ## 5.1 見出し語表の設計と実装 辞書データベースは,形態素解析辞書 UniDic の元となるデータベースである,見出し語表のほか,活用表などの辞書作成に必要な情報からなる。 UniDic では図 2 のような見出し語の階層構造が設定されている。「語彙素」は国語辞典の見出し語に相当するレベル,「語形」は異語形を区別するレベル,「書字形」は異表記を区別するレベル,「発音形」は発音を区別するレベルである.  図 2 UniDic 見出し語の階層構造 図 3 辞書データベース・見出し語のテーブル設計(短単位) 辞書データベースの見出し語表は, 伝他 (2007)の基本設計を踏襲し, このUniDic で設定されている見出し語の階層構造をそのまま反映させる形で実装した(図 3)。辞書データベースの基本となる見出し語表を構成するのは「短単位語彙素」「短単位語形」「短単位書字形」「短単位発音形」の4つの見出し語のテーブルである. 4 つの見出し語のテーブルはそれぞれ一意のIDによって関連付けられており,各 ID は計算によってテーブルの階層関係が確認できるように設計した。 例えば, 語形 ID は親となる語彙素 表 2 見出し語のテーブルの主要項目 & & \\ 表 3 見出し語のテーブルの共通項目 \\ のIDに32(一つの語彙素が持ちうる語形の最大数)を乗じたものに自身の語形 SubID を加えたものを一意のIDとしている.IDで関連付けられたテーブル間では,レコードの生成や削除に関連するデータベース制約を設定し,不正な見出し語のエントリを防いでいる。 見出し語のテーブルが持つ主要項目を表 2 に示す. UniDic では, 語彙素・語彙素読み・語彙素細分類・品詞・語形・活用型・書字形・発音形(表 2 の列名に)を付した)の組み合わせによって,見出し語が一意に区別される.辞書データベースの見出し語のテーブルでもこの関係を外部キー制約として記述し,見出し語の二重登録を防いだ。 表 2 の項目に加え, 見出し語のテーブルに表 3 の項目を共通して持たせ, 各見出し語のメ夕情報を記録した。これにより,見出し語を追加・修正した際の作業者やソースのトレースを可能にし,誤った見出し語の追加・修正への対処を可能にしている。また, 状態属性によりジャンル別の形態素解析辞書の作成を可能にしている. ## 5.2 語彙表展開の設計と実装 辞書データベースには,見出し語のテーブルのほかに,活用語を展開するための「活用表」 テーブル,語頭・語末変化形を展開するための「語頭変化」「語末変化」テーブルを置き,見出し語をコーパス上に出現する形にまで展開させる。この処理を語彙表展開と呼び,「語頭変化」 $\rightarrow$ 「語末変化」 $\rightarrow$ 「活用形展開」の順に,見出し語を展開することで行う.以下,この処理の内容について述べる. ## 語頭・語末変化 語頭・語末変化テーブルは,語形が持つ語頭・語末変化型に応じた語頭・語末文字の変化パターンを記した表であり,語形・書字形の見出し語の語頭・語末変化形を語彙表に展開する処理で使用される.実体は辞書データベース内の語頭変化テーブル・語末変化テーブルである.語頭変化テーブルの主要な項目を表 4 に示す(語末変化テーブルは語頭変化テーブルと同様のため省略する)。 主な対象は連濁現象で, 例えば「カライ (辛い)」の「語頭変化型」に「カ濁」を設定すると,語頭変化表により基本形「カライ」と, 語頭文字を置き換えた濁音形「ガライ」が生成される. データベース上では,この変形は語形テーブルと語頭変化テーブルを語頭変化型で結合することで,各形を生成している,書字形のレベルでは,濁音形の書字形は,漢字表記の場合には基本形と同じものが使われる(例:辛い)が,ひらがな・カタカナで表記されている場合には書字形の先頭部分を変化させたもの(例:がらい・ガライ)を生成する.語末変化も語頭変化と同様で,「語形」が持つ「語末変化型」に応じて, 語形変化した形を生成する。例えば「サンカク (三角)」の語末変化型に「ク促」を設定すると,語末変化表により,基本形「サンカク」と,語末文字を置き換えた促音形「サンカッ」を生成する。 ## 活用 活用は,語形が持つ活用型に応じて,活用形を展開する処理である。その処理に用いる活用表テーブルの主要な項目を表 5 に示す. 内部活用型は語彙表展開時に処理内部で一時的に使用されるもので,語形に付与した活用型と詳細活用型, 語形に関連付けられた書字形と発音形を専用関数に渡すことで生成される。例えば書字形「辛い」「からい」は同じ語形「カライ(活用型「形容詞-ライ」)を持つが終止形の変化を「辛“え”」「か“れえ”」と区別する必要があるため,内部活用型により活用パターンをより細分化した上で活用変化が行われる。生成された内部活用型により活用表から活用形と活用語尾書字形が取得されるが,同時に書字形の活用部分が「終止形-一般」の活用語尾書字形より取得される。書字形を活用変化した形は,ここで取得した活用語尾書字形をその他の活用形 表 4 語頭変化テーブルの主な項目 表 5 活用表テーブルの主な項目 ## 辞書データベース 図 4 活用形の展開の流れ の活用語尾書字形で置換したものにより生成される. 以上の活用表による語彙表展開の流れを図 4 に示す. 活用に際して,書字形が異なると変化する語尾の部分が異なる場合がある。たとえば,カ行変格活用の動詞「来る」では,仮名で書かれた「くる」の場合,未然形の書字形は「こ」,連用形は「き」だが,漢字で書かれた「来る」では書字形はいずれも「来」である.このように,辞書登録されている書字形ごとに活用語尾の長さを変える必要があるため,書字形に「活用型書字形」を持たせて活用形の展開の仕方を変えている. 活用語の変化部分の長さの違いは,発音形についても起こる。たとえば,音便形の処理で語形が「オイ」でおわる形容詞は,その直前の音が才段の場合には終止形などの発音形を長音にす 「アオイ」).このため, 発音形に「活用型発音形」を持たせて活用形の展開の仕方を変えている. ## 特殊活用形 通常の活用形の展開では生成できない,または特定の語においてのみ活用形を展開する特殊な活用形は,「特殊活用形テーブル」に活用した形の書字形を登録する(表 6). たとえば活用語尾までがカタカナ表記される「イイ(良い)」「デキル(出来る)」や,活用語尾のない特殊な表記「也」(助動詞「なり」の終止形),特殊な語形「ま〜す」(助動詞「ます」 の終止形)などがそれにあたる。特殊活用形に登録した書字形は語彙表生成時にそのまま語彙 表に追加される ${ }^{12}$. ## 語彙表の展開 ここまでに説明してきた語頭・語末変化と活用により,語彙表がコーパスデータベース内に生成される。語彙表展開では語形に付与された語頭・語末変化型, 活用型により, 語頭・語末変化と活用のいずれか,または両方による展開処理が行われる。図 5 に例として形容詞「辛い」 の語彙表展開を図示する。 辞書データベースでは, 語彙素テーブルの主要項目のほか, 語彙素・語形・書字形・発音形テーブルを結合した主要項目,語彙表テーブルにも一意制約が設定されているため,語彙素・ 表 6 特殊活用形テーブルの主な項目 図 5 語彙表展開の例  図 6 語彙表 ID の例 語形・書字形・発音形が登録できてもその後語彙表展開したものが重複した場合には,語彙表展開がロールバックされ登録自体も無効となる。つまり語彙表テーブルは常にデータの重複がない状態であることが保証されている. ## 語彙表 ID 語彙表生成時には語彙表のレコード毎に一意の語彙表 IDを割り当てる。語彙表 ID は通常 10 進数の数値として扱われるが, ビット列としてみると, 発音形・語頭変化・語末変化・活用それぞれの展開処理において, 各変化形の表現に十分なビット幅をフィールドとして追加したものとなっている。図 6 に例として形容詞「辛い」を語彙表展開して生成される出現書字形「がらかっ」の語彙表 ID(10 進数・2 進数)を示す. この設計により,語彙表 IDのみから,語彙素・語形・書字形等の見出し語の ID や変化形の ID を容易に計算できるようにしている。全体として通常の整数型(32ビット)で表現できる範囲を超えるため, bigint(64ビット符号付き整数)型で表現する.したがって,語彙素 ID の最大数は 25 ビット分(約 3400 万)確保可能である. ## 5.3 辞書データベースの運用 ## 辞書データベースのロック処理 一般的にクライアント・サーバ型のシステムでは複数の作業者が同時にデータを変更した場合に,処理が混在しデータに矛盾が生じる可能性がある.辞書データベースにおいては,見出し語を変更すると見出し語の各テーブルに設定したトリガにより語彙表展開までが一連の処理として行われるが, 語彙表展開の処理は内部に「非語頭語末変化パターンの展開」「語頭語末変化パターンの展開」「特殊活用形の展開」など複数の処理のステップがあり,なおかつ処理中は見出し語表,活用表など複数のテーブルのデー夕を参照する必要があることから,見出し語の変更から語彙表展開までは形態論情報データベースのなかでもコストがかかる処理となっている. 表 7 に示すように, 語彙表展開処理は, 書字形や活用変化パターンを多く持つ語彙素ほど処理に時間を要する。 語彙表展開処理に時間がかかるほど,処理中に他の作業者による見出し語の変更が起こりや 表 7 語彙表展開時のコスト \\ すくなり, 処理の衝突やデータの矛盾が起こる可能性が高くなる。一般にデータベースでは,複数の処理が混在した際に起こりうるデータの矛盾として「ダーティリード」「反復不能読取り」「ファントムリード」があり,それらを回避するために分離レベル「READ COMMITTED」「REPEATABLE READ」「SERIALIZABLE」をトランザクション開始時に指定できる。分離レベルは同時実行性とのトレードオフの関係にあり,SERIALIZABLE は前述のデータの矛盾を全て回避することができるが,トランザクション中は他の作業者が処理を行えなくなり全体としての作業量が落ちる。そのため, 他の分離レベルを使用して同時実行性を維持しつつ, 分離レベルでは回避できないデータの矛盾をシステム上で対処するよう設計を行う必要がある。また処理が混在した場合のトラブルとして,複数のトランザクションがたすき掛けでデータをロックし合うことによりお互いの処理が行き詰まる「デッドロック」があるが,これについても対策を行う必要がある. これらを考慮して,語彙表展開に関連する一連の処理では以下のような設計を行った. a. 語彙表展開処理内の複数のステップをトランザクション処理とし, 分離レベルを READ COMMITTED とした. b. 見出し語の語彙素・語形・書字形・発音形の変更では必ずリアルタイム処理による語彙表展開処理が行われるようにした。 c. 語彙表展開処理内の冒頭で語彙素-語形-書字形-発音形への参照を行うこととした. まず分離レベルを READ COMMITTEDを指定することで, ダーティリードを回避しつつ,同時実行性を確保した (a.)。ただしREAD COMMITTEDでは他の作業者によるデータ変更がブロックされず, 反復不能読取り, ファントムリードが起こるため, 別途回避策をとる必要がある. トランザクション処理中に他の作業者によりデータ変更が行われてしまう反復不能読取りについては, 語彙表展開なしに見出し語を変更できないようにし(b.), さらに先行の処理が完全に終了されるまで後続の処理をロック待ちにすることで (a. と c.), 複数の作業者が同一箇所について同時にデータ変更が行えないようにすることで回避した. トランザクション処理中にデータが追加されてしまうファントムリードについては,そもそもトランザクション中に他 の作業者によりデータが追加されても,作業者にとってはその時点では必要のないデータなので作業上も支障がなく, また語彙表は日次処理により全件が再生成されるため, 不正なデー夕の語彙表展開は排除される。 またデッドロックについては, 前述のとおり見出し語変更時の処理を一本化してレコードロックの順番を統一することで回避した。 ## 5.4 辞書データのエクスポート 辞書データベースは,コーパスデータベースの修正に用いられるだけでなく, 形態素解析用の辞書(見出し語リスト)を出力する役割も担っている。辞書データベースから出力された辞書と,コーパスデータベースから出力される人手修正済みの学習用コーパスを利用して形態素解析辞書が作成された. UniDic 1.x 系列の形態素解析辞書の作成に当たっては, 辞書データベー スの見出し語表・活用表・語頭語末変化表を組み合わせて展開した語彙表を表形式テキストとして出力し,これを $\mathrm{MeCab}$ 用の辞書のソースデータとして提供した. さらに, 見出し語のテーブルを結合・再構成してUniDic の階層構造を再現したXML 形式で出力し, UniDic 2.x 系列の辞書データとして提供した. 同時に活用表や語形変化表もXML 形式で出力し, 辞書データベースの大部分を XML 形式で外部に提供することを可能にした. ## 6 コーパスデータベースの設計・実装・運用 ## 6.1 コーパスデータベースの設計と実装 2 章で確認したとおり,BCCWJ のテキストは XML 文書の形で提供される。テキストの形態論情報は,形態素解析等の自動出力結果を人手で修正した後で,元のXML 文書に対するアノテーションとして出力する必要がある。 BCCWJでは,短単位と長単位という階層的な関係を持つ 2 つの言語単位によって形態論情報がアノテーションされるが, この階層関係も XMLのタグによって表現される。 BCCWJ のコアデータから,短単位と長単位のアノテーション例をリスト 1 に示す. LUW が長単位, SUW が短単位のタグである(一部の夕グを省略した). 関係データベースを用いてこうしたXML 文書を扱うために,スタンドオフ・アノテーションの方法に基づき,XML 文書が含む文字データ(CDATA)とタグをテーブルに分割し,ファイル先頭からの文字オフセット値(タグを除いた文字の開始終了位置)によって関係づけて管理する設計とした,全体の整合性を保持するため, 文字やタグを含む全てのデータの修正をこのデータベース上で行う。このデータベースのテーブル関連図を図 7 に示す. コーパスデータベース中のテーブルは,XML 文書起源のものとして「文字」テーブル,「夕グ」テーブル,「ルビ」テーブル,「文字修正」テーブルがあり,これに後述する数字処理による 「数字」テーブル, 形態論情報アノテーションとしての「短単位」テーブルと「長単位」テーブ ルが加わる.形態論情報も文字位置によってテーブルを関連付けて管理する。このほかに,全文検索用の「文」テーブルや長単位修正作業用の「長単位語彙表」テーブルを置く.このうち, コーパスデータベースにとって必須のデータは文字テーブルと短単位テーブルであり,XML 文書の復元や長単位アノテーションを必要としない場合にはこれ以外のテーブルは不要となる. コーパスデータベースの根幹である短単位テーブルの主要な項目を表 8 に示す. リスト 1 短単位と長単位のアノテーション例(X-XML) <mergedSample sampleID="OW6X_00028" type="BCCWJ-MorphXML" version="1.0"> <article articleID="0W6X_00028_V001" isWholeArticle="false"> <titleBlock> <title> <sentence type="quasi"> <LUW B="S" SL="v" 1_lemma="第一章" l_lForm="ダイイッショウ" 1_wType="漢" 1_pos="名詞一普通名詞一一般" l_formBase="ダイイッショウ"> <SUW orderID="10" lemmaID="22937" lemma="第" lForm="ダイ" wType="漢" pos="接頭辞" formBase="ダイ " pron="ダイ" start="10" end="20">第〈/SUW> <SUW orderID="20" lemmaID="2050" lemma="一" lForm="イチ" wType="漢" pos="名詞-数詞 " formBase="イチ" kana="イッ" pron="イッ" start="20" end="30"> 1 </SUW> <SUW orderID="30" lemmaID="16559" lemma="章" lForm="ショウ" wType="漢" pos="名詞 </LUW>一普通名詞一一般" formBase="ショウ" pron="ショー" start="30" end="40">章</SUW> <LUW SL="v" 1_lemma=" " 1_lForm="" 1_wType="記号" 1_pos="空白"> <SUW orderID="40" lemmaID="23" lemma=" " lForm="" wType="記号" pos="空白 " formBase="" pron="" start="40" end="50"> </SUW> </LUW > <LUW B="B" SL="v" I_lemma="障害者施策" l_lForm="ショウガイシャシサク" I_wType="漢" l_pos="名詞 - 普通名詞 - 一般" l_formBase="ショウガイシャシサク"> <SUW orderID="50" lemmaID="16607" lemma="障害" lForm="ショウガイ" wType="漢" pos="名詞一普通名詞-サ変可能" formBase="ショウガイ" pron="ショーガイ" start="50" end="70">障害</SUW> <SUW orderID="60" lemmaID="15852" lemma="者" lForm="シャ" wType="漢" pos="接尾辞 一名詞的一一般" formBase="シャ" pron="シャ" start="70" end="80">者</SUW> <SUW orderID="70" lemmaID="15256" lemma="施策" lForm="シサク" wType="漢" pos="名詞 </LUW > 一普通名詞——般" formBase="シサク" pron="シサク" start="80" end="100">施策</SUW> <LUW SL="v" l_lemma="の" 1_lForm="ノ" 1_wType="和" 1_pos="助詞-格助詞 " l_formBase="ノ"> <SUW orderID="80" lemmaID="28989" lemma="の" lForm="ノ" wType="和" pos="助詞 </LUW> 一格助詞 " formBase="/" pron="/" start="100" end="110">の </SUW> <LUW B="B" SL="v" 1_lemma="総合的取り組み" 1_lForm="ソウゴウテキトリクミ" 1_wType="混" 1_pos="名詞一普通名詞一一般" 1_formBase="ソウゴウテキトリクミ"> <SUW orderID="90" lemmaID="21023" lemma="総合" lForm="ソウゴウ" wType="漢" pos="名詞 - 普通名詞-サ変可能" formBase="ソウゴウ" pron="ソーゴー" start="110" end="130">総合</SUW> <SUW orderID="100" lemmaID="25076" lemma="的" lForm="テキ" wType="漢" pos="接尾辞 一形状詞的" formBase="テキ" pron="テキ" start="130" end="140">的</SUW> <SUW orderID="110" lemmaID="26779" lemma="取り組み" lForm="トリクミ" wType="和" pos="名詞 $\langle/$ LUW $>$ 一普通名詞——般" formBase="トリクミ" pron="トリクミ" start="140" end="160">取組</SUW> $</$ sentence> <br type="automatic_original"/> $</$ title $>$ </titleBlock> ## XML 文書と形態論情報のインポート XML 形式でリリースされるデータをコーパスデータベースにインポートする方法を図 8 のように設計・実装した,既述の通り,XML 形式のデータを表に変換し,それらの表を,文字位置 (ファイル先頭からの文字オフセット値)をキーにした IDで相互に関係づける。この際,辞書 図 7 コーパスデータベースのテーブル関連図 登録やコーパス修正時に確認することが必要なルビタグ・数字タグ・文字修正タグのみを専用のテーブルに格納して編集可能とし,それ以外の夕グについては元の形のまま「夕グ表」にまとめて保存している。インポート処理の過程で形態素解析の上で妨げとなる夕グの除去や, 数字変換(後述)などの処理が加わるため,それぞれの表の情報を取り出す段階が異なっている. なお,BCCWJでは, 2.4 節で述べた数字変換処理が行われているため, 形態素解析結果から原文の文字位置をキーにした短単位テーブルを単純にとりだすことができない。そこで,形態素解析結果を埋め込んだ状態の XML ファイルから,原文文字列や数字タグ・分数タグの情報を元に,元の文字との対応を取りながら文字位置を取得する必要がある. この処理はデータベー ス外部の解析プログラムによって行っている. 長単位のデータは,修正済みの短単位データをコーパスデータベースからエクスポートし, Comainu によって処理を行った後,データベースの長単位テーブルにインポートする。 2.1 節で見たとおり,長単位は短単位を組み上げる形で生成される。長単位テーブルからは,長単位 表 8 短単位テーブルの列名 & & 長単位テーブル, 文テーブルとの接続用 \\ ※数字変換処理により出現書字形と原文とが異なる場合に文字位置も異なる値となる. の修正作業用に長単位語彙表テーブルを生成する。 以上のような手順でコーパスデータベースに格納されたデータは, 後述のクライアントッー ル「大納言」を通して修正される。 ## 6.2 コーパスデータベースの運用 ## 運用実績 コーパスデータベースの運用実績は, 履歴をもとに集計すると, BCCWJ 全体の更新件数が約 302 万件(約 1,000 日間), 1 日あたりの平均更新件数が約 2,800 件, 1 日あたりの最大更新件数が約 25,000 件, 最大接続ユーザー数が 22 名であった(更新件数は一部推計によるものを含む). ## コーパス更新時の不整合の回避(ロールバック) コーパスデータの更新時には, 複数作業者による同一箇所の同時更新による文脈の不整合が発生する可能性が考えられる。このような場合にはロールバックにより不整合が回避されるようシステムを設計している. しかし,コーパスの同一箇所をほぼ同時に更新する状況は極めて稀である。BCCWJでの作 図 8 XML 文書の形態素解析とインポートの流れ 業では,短単位テーブルに約 1 億 2 千万件のレコードが存在し,そのうち人手によるデータ更新が 302 万箇所(推計値)で行われた。しかし,このうち最も近いタイミングで隣接箇所を更新した事例でも 14 秒以上の間隔があり,近接箇所を 1 分以内に更新した例も 15 箇所しか存在しない.また, 現在の日本語歴史コーパス修正作業のログ 3 日間分においては, 更新件数は 7,858 件であったが,不整合が起こりうる同時更新は 0 件であった。このように,同一箇所の同時更新が発生しにくいのは,コーパスのサイズが極めて大きいことに加え,コーパスデータの更新作業おいて作業範囲や作業内容が作業者間で効率的に割り振られていたことによると考えられる。 ## ジョブ リアルタイム更新が必要でない処理や, 通常作業のために必要なデータ整備の処理, バックアップ処理などは, 必要なタイミングや所要時間などを考慮して,以下のように日中毎時・平日深夜・週末深夜のジョブによりバッチ処理を行った. ・日中毎時ジョブ 1 時間間隔でトランザクションログのバックアップを行う。作業を中断する必要はなく,通常数秒程度で完了する。 ・平日深夜ジョブ 平日深夜に開始され,翌日の作業開始まで行われる。負荷や排他ロックにより日中に行えない処理(データのインポート,一括変換処理等)や,即時性が必要でないデー夕の更新(辞書とコーパスの完全同期等)を行う. ・ 週末深夜ジョブデータベースのバックアップやインデックスの再作成,データの削除などを行う. ## バックアップ体制 データベースは障害時に特定の時点に復旧できるよう完全復旧モデルを採用している。毎週末深夜にバックアップストレージに対してバックアップファイルが作成され, その後, 翌週末深夜まで 1 時間間隔でログバックアップを行う。つまり週毎に「完全バックアップ+ログバックアップ」のバックアップセットが作成されることになる. バックアップセットは一定期間保存されたのち, 古いものから削除される。 ## コーパスデータベースのチューニング コーパスデータベースでは 1 億語を超える大規模なデータを対象に, 複数の作業者が同時に更新処理を行う必要がある。そのため,コーパスデータベースの実装に当たっては処理の高速化とデータの整合性, 同時実行性の確保のための対策が重要である。そのために次の (a)~(c) のような対応を行った。 ## (a) KWICに最適化した主キー項目の選定 コーパスデータベースでは,後述する「大納言」でコーパス修正を行うために KWIC(キー ワードの前後文脈情報)を多用する。しかし, あらかじめ KWIC 情報を作成してデータベース内に格納することはデータベースサイズが肥大化することから困難であり,また最新のコーパス修正結果をもとにした KWIC を表示することが望ましい。そのため,検索の都度,ヒットした語についてリアルタイムで KWIC を生成する設計とした。通常, 一度の検索で数百〜数千語程度の KWIC 作成処理が発生するため, この処理の高速化はシステム全体の処理性能に直結する。 そこで,短単位テーブルの主キーとして KWIC 作成に必須となる「サンプル ID」と「連番」 を選択することで,この処理の高速化を図った.SQL Server では主キーとして設定した項目を元にクラスタ化インデックスが作成されるため,「サンプル ID」と「連番」を主キーに設定することで,データベース上でデータが短単位の出現順に物理的に並ぶことになり,語の並び替えが不要となる。またインデックスを経由することなく直接データにアクセスできるため, KWIC 生成処理の短単位の組み上げ時のコストを節約できる。約 14,000 レコード分の KWIC 生成に要する時間を比較した結果を表 9 に示す. 表 9 の SQL 文中の「fnGetContextPreOpenClose」「fnGetContextPre」は KWIC 生成関数である。検索時間は 10 回検索を行い最小値と最大値を除いた平均時間となっていて, 検索毎に キャッシュを消去することでキャッシュによる高速化の影響を排除した。通常のインデックス項目による場合と比較して KWIC 生成速度が 2 倍程度に高速化された。 また,コーパス名の検索をサンプル ID の検索に変換にすることで検索の高速化を行った.短単位テーブルにはサンプル ID の上位の括りとして「コーパス名」列がある。コーパス名は定義上ファイルをレジスタ別に分けるための情報だが,短単位テーブルのデータをプロジェクトや用途別に区別することにも利用している。ユーザーが大納言で作業する際は,短単位テーブル全体ではなくあらかじめユーザー毎に割り振られた作業対象(コーパス名)毎に作業を行うことが多い. このことから, 作業者が大納言で検索対象(作業対象)のコーパス名を指定した際に,システム内でコーパス名をサンプル ID に変換するための「コーパス名ーサンプル ID 対応テーブル」 を作成した。このことにより,コーパス名による検索を短単位テーブルの主キーであるサンプル IDによる検索に変換することができ,検索対象の絞込が高速化された。書籍・白書・雑誌のコアデータについて品詞を指定して検索した結果を表 10 に示す. 検索時間は 10 回検索を行い最小值と最大値を除いた平均時間である。検索の都度キャッシュは消去した.SQL 文中の「fileList」が「コーパス名ーサンプル ID 対応テーブル」で,これを使用することによりコーパス名を指定した検索速度が 100 倍程度に高速化された. ## (b) トランザクション分離レベルの設定 短単位テーブルの修正は,そのほとんどが単位境界の切り直しを伴いレコード数が変化することになる。そのため, 修正の反映は, レコードの更新処理ではなく, 削除処理によって修正 表 9 KWIC 生成時間の比較 & 2.25 秒 & \\ 表 10 コーパス名一サンプル ID 対応テーブルによる検索 \\ 前のレコードを削除した後に修正後のレコードを挿入することで行っている.単位境界を変更する場合には,修正後のレコードに文字位置を振り直す処理も必要であり, 1 箇所のデータ修正のために複数の処理を実行する必要がある。そこで,これらをまとめてトランザクション処理で実行し,データが 1 箇所更新される度にトランザクションが終了されるようにした。複数箇所を一度に更新する場合は,ループ処理により複数回処理を実行する。これは大規模な修正を行う際のレコードロックの時間を最小限にし,他の作業者への影響を抑え同時実行性を高めるためのものである. データの正確性を高めるのであればトランザクションの分離レベルを SERIALIZABLE などに設定すればよいが,反面,同時実行性は低下することになる。そこで大納言では更新処理が他のユーザーの作業に影響するのを抑えるため,データの更新時のトランザクションの分離レベルを READ COMMITTED とした. このレベルでは反復不可能読取りが起こる可能性があるが,更新処理内部に処理前後の文脈を比較する処理を組み达むことで,不正な変更処理が回避されるよう設計した.仮に処理前後の文脈を比較する処理でエラー(文脈が変更される)と判定された場合は,トランザクションがロールバックされ,文脈の整合性が維持される,つまり本文の文脈が書き換わらない限り,複数作業者による同一箇所の同時変更を許容する設計を行っている. ## (c) ダーティリードの許容 他の作業者の更新処理中であってもデータベースからデータが読み取れるように,データの検索や KWIC 生成処理時の SELECT 文ではダーティリードを許容した。このことにより検索結果や KWIC 内に誤ったデータが表示される可能性があるが,データの更新時には文脈チェック処理により不正なデータが検出されるため, 不正な書き換えは防止される。この実装により同時実行性が確保され,不正な書き換えの問題も発生していない. ## 6.3 コーパスのエクスポート 人手で修正を行った形態論情報は,元のXML 文書にタグとして埋め达んだ XML 形式でエクスポートすることができる。BCCWJを構成する全てのXML 文書(C-XML,M-XML)は, このデータベースから出力された. XML エクスポート用の SQL 文では,各テーブルを結合し, データベース内部でXML 型のデータとして生成した後, ファイル出力している。これによりデータが整形式のXML であることが保証される。テーブルの結合時には, 6.1 で示したインポートの流れを逆にたどる。この際,夕グテーブルを参照するが,ルビや数字などの別テーブルで管理するタグはタグテーブルからではなく, それぞれのテーブルの情報を元にタグを再構成して出力する. 当然ながら, 表形式の形態論情報を出力することも可能であり, BCCWJを構成する表形式の形態論情報データ(短単位・長単位 TSV)はこのデータベースから出力された. また, Web ベースのコーパス検索ツール「中納言」のソースデータもここから出力されたものである。さらに, 形態素解析辞書 UniDic の機械学習に用いるコーパスも,コーパスデータベースの短単位テーブルの一部を出力したものである. なお,データベースに格納されている形態論情報は,インポート前の数字処理を経たテキス卜を元にしており BCCWJ の M-XML および表形式の形態論情報データではこれを出力しているが,データベース上では原文に相当する C-XML を元にして管理されているため,数字処理を行わない形で XML 文書を取り出すことも可能な設計になっている. ## 7 クライアントツールの開発 ## 7.1 辞書データベース用ツール「UniDic Explorer」 辞書管理ツール「UniDic Explorer」は辞書データベースへの見出し語の追加・修正をするために開発したクライアントッールである. ツール上に UniDic の見出し語の階層構造をそのまま可視化しており,階層構造を意識した辞書管理を可能にしている(図 9). 上段左の検索用コントロールで, 各階層の見出し語の情報(語彙素・語彙素読み・語形・書字形・その他)を対象に見出し語表を検索すると,左ペインにマッチした語が UniDic の階層構造を反映したツリー形式で表示される。右ペインには各階層の見出し語が,階層構造を反映した重層的なフォームの形で表示される. 見出し語の追加は, 見出し語のテーブルのデータが表示されている画面から「新規」ボタンをクリックすることにより行う,見出し語表のデータベース制約により,見出し語は必ず親となる見出し語に追加する形で入力するよう制限されており,逆に見出し語を削除する場合には, その見出し語の子となっている見出し語をあらかじめ削除しておかなければならない. これによって見出し語表の階層構造の整合性を確保している。画面下部の「ツリーの操作」では,見出し語の移動・コピー・削除を行うことができる。この画面では,当該見出し語だけでなく,子や孫となる見出し語ツリー全体をまとめて処理することができる. 見出し語は語彙表を介してコーパスと接続されているため, 当該見出し語のコーパス中での用例をこのツールから確認することができる,当該語のコーパス中の頻度は右ぺインの各階層の見出し語の部分に常に表示されている,頻度情報の横の「用例」ボタンを押下することで,当該語のコーパス中の用例を文脈付きで全て表示することができる. ## 7.2 コーパスデータベース用ツール「大納言」 短単位の自動解析精度はおおむね $98 \%$ 程度であった。長単位解析の精度も(短単位データが全て正解であることを前提として) $99 \%$ ぼであり,人手による修正が必要であった. こうした形態論情報アノテーションの人手修正を行うためのツールが,「大納言」である(図 10)「「納 図 9 UniDic Explorer 実行画面 言」の中心となる機能は形態論情報の修正であるが,それ以外にも多くの機能を持つため,画面上段のタブによってモードや機能を切り替えて利用する形になっている. ## 形態論情報の修正機能 多くの修正作業は,形態論情報を使った検索の結果に対して行うことになるが,その検索条件の指定では,「語彙素」「書字形」などの単純な形態論情報の検索だけでなく, 形態論情報を前後 5 グラム分まで自由に組み合わせた高度な検索が可能である。また, 単位境界を意識しない全文検索を行って,検索結果に形態論情報を表示させることもできる。 短単位アノテーションの修正作業は, 短単位の「分割結合」モードで行う。検索結果から修正対象を選択し, 当該箇所の短単位境界を文字単位で分割・結合して正しい境界を指定する.境界が直ったところで語彙表を参照して,辞書データベースに登録された語の出現形を当てはめる.この際, 該当する短単位がなければ, UniDic Explorer で新規の見出し語を追加した後, 新 図 10 「大納言」実行画面(短単位アノテーションの修正) たに語彙表に追加された出現形を使用する. 長単位の修正時には「長単位」モードで短単位の情報を閲覧しながら,短単位を基本単位として長単位を分割・結合して正しい長単位境界を指定する。長単位境界が直ったところで長単位語彙表を参照して適切な長単位を選択する。この際, 該当する長単位がなければ,選択箇所の短単位から自動構成される長単位をもとにして長単位語彙表に新しい語彙を追加してこれを当てはめる. こうした形態論情報の修正処理は,修正箇所と同一の形態論情報の組み合わせを持つもの全てを対象にして一括で行ったり,必要なものだけを作業者が選択して一括で行ったりすることが可能で,これによって効率的な修正作業を実現している。 ## 7.2.1 文字とタグの修正機能 「大納言」では形態論情報そのものの修正作業のほかに, 原テキストの文字修正, 数字変換の誤り修正,ルビの文字修正を行う機能を実装した,6章で示したとおり,コーパスデータベー スは文字ベースの開始終了 ID で全体が関連付けられているが,「大納言」を通してこれらの修正を行うことで,作業者が意識することなく全体の関連付けの整合性を保つことができる. コーパス中の文字の修正では, 文字テーブルを修正した後, 文字修正テーブルに修正内容を記録する. 自動数字変換(2.4 節参照)の修正では,夕グ付けされた変換内容をもとに,変換処理を元に戻したり,適切な変換内容に人手で修正したりする機能を持たせた.数字を変換し直す場合には数字テーブル,形態論情報を修正する.タグの修正については,XML 文書を極力整形式に保ったまま,直接修正できる機能を実装した. ## 8 おわりに 以上に述べた「形態論情報データベース」を開発することで, 形態素解析された 1 億語規模のコーパスを格納し,その全体に対して形態論情報の修正処理を行うことを可能にした。これにより, 約 100 万語のコアデータについて形態論情報に十分な人手修正を施し, それ以外の部分についても人手による修正を施して高い精度を達成することを可能にした。このシステムが BCCWJ の形態論情報アノテーションを支え, BCCWJ を構成する全てのデータはこのデータベースから出力された. また, 本システムによってUniDic の見出し語のデータ整備を支援し,見出し語のデータと対応付けられた学習用コーパスを提供したことで形態素解析辞書 UniDic の開発に貢献した。 このデータベースシステムは, 現在「日本語歴史コーパス」の構築に利用されているほか, BCCWJ のタグ修正や新形式のデータ出力などメンテナンス作業の基盤としても活用されている.今後も大規模コーパスの構築を支えるシステムとして活用される予定である. なお, 本システムは研究所内でのコーパス構築を目的に開発したものであり,そのままの形で一般公開を行う予定はないが,BCCWJ の活用やコーパス開発のために本システムの利用を希望する場合には,プログラムの提供を含めて対応する用意があるので問い合わせてほしい. ## 参考文献 浅原正幸, 米田隆一, 山下刺希子, 伝康晴, 松本裕治 (2002). 語長変換を考慮したコーパス管理システム. 情報処理学会論文誌, 43 (7), pp. 2091-2097. 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵 (2007). コーパス日本語学のための言語資源一形態素解析用電子化辞書の開発とその応用(特集コーパス日本語 学の射程) . 日本語科学, 22, pp. 101-123. Kaplan, D., Iida, R., Nishina, K., and Tokunaga, T. (2011). "Slate - A Tool for Creating and Maintaining Annotated Corpora." Journal for Language Technology and Computational Linguistics, 26 (2), pp. 89-101. 国立国語研究所コーパス開発センター (2011). 『現代日本語書き言葉均衡コーパス』マニュアル. 国立国語研究所コーパス開発センター. 前川喜久雄 (2007). KOTONOHA『現代日本語書き言葉均衡コーパス』の開発. 日本語の研究, 4 (1), pp. 82-95. Matsumoto, Y., Asahara, M., Kawabe, K., Takahashi, Y., Tono, Y., Ohtani, A., and Morita, T. (2005). "ChaKi: An Annotated Corpora Management and Search System." In Proceedings from the Corpus Linguistics Conference Series, Vol.1, No.1. 小椋秀樹, 小磯花絵, 冨士池優美, 宮内左夜香, 小西光, 原裕 (2011). 『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(上・下).国立国語研究所内部報告書. LR-CCG-10-05.国立国語研究所. 小澤俊介, 内元清貴, 伝康晴 (2011). BCCWJ に基づく中・長単位解析ツール. 特定領域「日本語コーパス」平成 22 年度公開ワークショップ予稿集, pp. 331-338. 特定領域「日本語コー パス」総括班. Przepiórkowski, A. and Murzynowski, G. (2011). "Manual Annotation of the National Corpus of Polish with Anotatornia." In Goźdź-Roszkowski, S. (Ed.), Explorations across Languages and Corpora: PALC 2009, pp. 95-103, Frankfurt am Main. Peter Lang. Stenetorp, P., Pyysalo, S., Topić, G., Ohta, T., Ananiadou, S., and Tsujii, J. (2012). "BRAT: A Web-based Tool for NLP-assisted Text Annotation." In Proceedings of the Demonstrations at the 13th Conference of the European Chapter of the Association for Computational Linguistics, EACL '12, pp. 102-107, Stroudsburg, PA, USA. Association for Computational Linguistics. 山田篤, 小磯花絵 (2008). Numtrans マニュアル. テクニカル・レポート, The UniDic Consortium.山口昌也, 高田智和, 北村雅則, 間淵洋子, 大島一, 小林正行, 西部みちる (2011). 『現代日本語書き言葉均衡コーパス』における電子化フォーマット Ver2.2. テクニカル・レポート LR-CCG-10-04, 国立国語研究所コーパス開発センター. ## 略歴 小木曽智信 : 1995 年東京大学文学部日本語日本文学 (国語学) 専修課程卒業. 1997 年東京大学大学院人文社会系研究科日本文化研究専攻修士課程修了. 2001 年同博士課程中途退学. 2014 年奈良先端科学技術大学院大学情報科学研究科博 士後期課程修了. 2001 年より明海大学講師. 2006 年より独立行政法人国立国語研究所研究員を経て, 2009 年より人間文化研究機構国立国語研究所准教授, 現在に至る. 専門は日本語学, 自然言語処理. 日本語学会, 情報処理学会各会員. 中村壮範:2000 年武蔵工業大学機械工学科卒業. 卒業後, 顧客管理データベー ス等の構築業務を経て,2006 年より,国立国語研究所勤務において「現代日本語書き言葉均衡コーパス」「日本語歴史コーパス」のための形態論情報デー タベースの構築・運用に従事. 現在, マンパワーグループ株式会社所属.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 日本語文章に対する述語項構造アノテーション仕様の考察 日本語の述語項構造アノテーションコーパスは, これまでにいくつかの研究によつ て整備され, その結果, 日本語の述語項構造解析の研究は飛躍的にその成果を伸ばし た. 一方で, 既存のコーパスのアノテーション作業者間一致率やアノテーション結果の定性的な分析をふまえると,ラベル付与に用いる作業用のガイドラインには未 だ改善の余地が大きいと言える。本論文では,より洗練された述語項構造アノテー ションのガイドラインを作成することを目的とし, NAIST テキストコーパス (NTC),京都大学テキストコーパス (KTC) のアノテーションガイドラインと実際のラベル付与例を参考に, これらのコーパスの仕様策定, 仕様準拠のアノテーションに関わっ た研究者・アノテータ, 仕様の改善に関心のある研究者らの考察をもとにガイドラ イン策定上の論点をまとめ, 現状の問題点や, それらに対する改善策について議論・整理した結果を報告する.また,アノテーションガイドラインを継続的に改善可能 とするための方法論についても議論する。 キーワード:述語項構造,コーパスアノテーション,アノテーションガイドライン,格解析,意味解析, 意味役割付与 ## Issues on Annotation Guidelines for Japanese Predicate-Argument Structures \author{ Yuichiroh Matsubayashi ${ }^{\dagger}$, Ryu Iida $^{\dagger \dagger}$, Ryohei Sasano ${ }^{\dagger \dagger}$, Hikaru Yokono ${ }^{\dagger \dagger \dagger}$, \\ Suguru Matsuyoshi ${ }^{\dagger \dagger \dagger}$, Atsushi Fujita ${ }^{\dagger \dagger \dagger \dagger \dagger}$, \\ Yusuke Miyao ${ }^{\dagger \dagger \dagger}$ and Kentaro Inui ${ }^{\dagger}$ } Japanese corpora annotated with predicate-argument structure (PAS) have been constructed as part of several research projects and these annotated corpora have significantly advanced the field of PAS analysis. However, according to an inter-annotator agreement study and qualitative analysis of the existing corpora, there is still a strong need for further improvement of the annotation guidelines of the corpora. To improve the quality of PAS annotation guidelines, we have collected and summarized the practical knowledge and a list of problematic issues concerning the task of the PAS annotation through discussions with researchers actively engaged in the construction of NAIST Text Corpus (NTC) and Kyoto Text Corpus (KTC), researchers concerned  with existing PAS annotation guidelines, and an annotator who is working on the annotation task, using NTC and KTC guidelines. This paper reports the problems and suggestions that we collected and possible solutions to those problems on the basis of results of the discussions. Finally, we suggest a method for continuously improving annotation guidelines. Key Words: Predicate-Argument Structure, Corpus Annotation, Annotation Guideline, Semantic Role Labeling, Semantic Parsing ## 1 はじめに 述語項構造は, 文章内に存在する述語と, その述語が表現する概念の構成要素となる複数の項との間の構造である。例えば次の文, (1) [太郎 $]$ は [手紙]を書いた。 では,述語「書く」に対して,「太郎」と「手紙」がこの述語の項であるとされる。また,述語が表現する「書く」という概念の上でそれぞれの項の役割は区別される.役割を表すためのラベルは用途に応じて様々であるが,例えば,ここでの「太郎」には「ガ格」「動作主」「書き手」 などのラベル,「手紙」には「ヲ格」「主題」「書かれる物」などのラベルが与えられる。このように,述語に関わる構成要素を構造的に整理する事によって,複雑な文構造・文章構造を持った文章において「誰が,何を,どうした」のような文章理解にとって重要な情報を抽出することができる。このため, 述語項構造の解析は, 機械翻訳, 情報抽出, 言い換え, 含意関係理解などの複雑な文構造を取り扱う必要のある言語処理において有効に利用されている (Shen and Lapata 2007; Liu and Gildea 2010). 述語項構造解析においても,近年,形態素解析や構文解析などで行われている方法と同様に,人手で作成した正解解析例をもとに統計的学習手法によって解析モデルを作成する方法が主流となっている (Màrquez, Carreras, Litkowski, and Stevenson 2008). 述語項構造を付与したコーパスとしては, 日本語を対象にしたものでは, 京都大学テキストコーパス (KTC) (黒橋, 長尾 1997) の一部に付けられた格情報 (Kawahara, Kurohashi, and Hasida 2002; 河原, 黒橋, 橋田 2002) や NAIST テキストコーパス (NTC) (Iida, Komachi, Inui, and Matsumoto 2007; 飯田, 小町, 井之上, 乾, 松本 2010), GDA コーパス (橋田 2005), 解析済みブログコーパス (Kyoto University and NTT Blog Corpus: KNBC) (橋本,黒橋,河原,新里,永田 2009), NTC の基準に従って BCCWJ コーパス (国立国語研究所) に述語項構造情報を付与したデータ (BCCWJ-PAS) (小町, 飯田 2011)などがあり,英語を対象にしたものでは, PropBank (Palmer, Kingsbury, and Gildea 2005), FrameNet (Ruppenhofer, Ellsworth, Petruck, Johnson, and Scheffczyk 2010), NomBank (Meyers, Reeves, Macleod, Szekely, Zielinska, Young, and Grishman 2004), OntoNotes (Hovy, Marcus, Palmer, Ramshaw, and Weischedel 2006)などが主要なコーパスとして挙げられる。過去十年間 の述語項構造解析技術の開発は,まさにこれらのデータによって支えられてきたといって過言ではない. しかしながら,日本語の述語項構造コーパスは,その設計において未だ改善の余地を残す状況にあると言える。第一に,比較的高品質な述語項構造がアノテートされた英語のコーパスに比べて, 日本語を対象とした述語項構造のアノテーションは, 省略や格交替, 二重主語構文などの現象の取り扱いのほか,対象述語に対してアノテートすべき項を列挙した格フレームと呼ばれる情報の不足などにより,作業者間のアノテーション作業の一致率に関して満足のいく結果が得られていない,例えば,現在ほとんどの研究で開発・評価に利用されている NTC に関して, 飯田らは, 作業者間一致率や作業結果の定性的な分析を踏まえれば,アノテーションガイドラインに少なからず改善の余地があるとしている (飯田他 2010). また, 我々は, 述語項構造アノテーションの経験のない日本語母語話者一名を新たに作業者とし, KTC, NTC のアノテー ションガイドラインを熟読の上で新たな日本語記事に対して述語項構造アノテーションを行ったが,KTC, NTC のどちらのガイドラインにおいても付与する位置やラベルを一意に決めることの出来ないケースが散見された。述語項構造のようにその他応用解析の基盤となる構造情報については, これに求められる一貫性の要求も高い. したがって, 今後, 述語項構造の分析や解析器の開発が高水準になるにつれて, 既存のコーパスを対象とした学習・分析では十分な結果が得られなくなる可能性がある。 そのような問題を防ぐためには, 現状のアノテーションガイドラインにおいて判断の摇れとなる原因を洗い出し,ガイドラインを改善しつつ,アノテー ションの一貫性を高めることで,学習・分析データとしての妥当性を高い水準で確保していく必要がある. 第二に,より質の高いアノテーションを目指してガイドラインを改善することを考えた場合, それぞれの基準をどういった観点で採用したかが明確に見てとれるような,論理的で一貫したガイドラインが必要となるが, KTC, NTC などの既存のアノテーションガイドライン (飯田, 小町, 井之上, 乾, 松本 2005; 河原, 笹野, 黒橋, 橋田 2005) や関連論文 (Kawahara et al. 2002;河原他 2002; Iida et al. 2007; 飯田他 2010)を参照しても,個々の判断基準の根拠が必ずしも明確には書かれていない.典型的に,アノテーションガイドラインの策定時に議論される内容はコーパス作成者の中で閉じた情報となることが多く, その方法論や根拠が明示的に示された論文は少ない. このため, 付与すべき内容の詳細をどのように考えるかという,アノテーションそのものの研究が発展する機会が失われているという現状がある。また, KNBC や BCCWJ-PAS のように既存のガイドラインに追従して作られるコーパスの場合, 新規ドメインに合わせるなど一部仕様が再考されるものの,アノテーションの研究は一度おおまかにその方向性が決まってしまうと,再考するための情報の不足もあり,本質的に考えなければならない点が据え置か れ,さらに詳細が議論されることは稀である¹. そこで,本研究では,この二つの問題を解消するために,既存のコーパスのガイドラインにおける相違点や曖昧性の残る部分を洗い出し,どのような部分に,どのような理由で基準を設けなければならないかを議論し,その着眼点を明示的に示すことを試みた。具体的には, (i) 既存のガイドラインに従って新たな文章群へあらためてアノテーションを行った結果に基づいて議論を行い, 論点を整理したほか, (ii) 新規アノテーションの作業者, 既存の述語項構造コーパスの開発者,また既存の仕様に問題意識を持つ研究者を集め,それぞれの研究者・作業者が経験的に理解している知見を集約した。 (iii)これらをふまえ,述語項構造に関するアノテーションをどう改善するべきか,どの点を吟味すべきかという各論とともに,アノテーション仕様を決める際の着眼点としてどのようなことを考えるべきかという議論も行った.本論文ではこれらの内容について,それぞれ報告する。 次節以降では,まず, 2 節で述語項構造アノテーションに関する先行研究を概観し, 3 節で今回特に比較対象とした NAIST テキストコーパスの述語項構造に関するアノテーションガイドラインを紹介する.4 節で研究者・作業者が集まった際の人手分析の方法を説明し, 5 節で分析した事例を種類ごとに紹介する,さらに,6 節で,述語項構造アノテーションを通じて考察した, アノテーションガイドライン策定時に考慮される設計の基本方針について報告し, 5 節で議論する内容との対応関係を示す. 最後に 7 節でまとめと今後の課題を述べる. 以降,本論文で用いる用語の意味を以下のように定義する. $\cdot$ アノテーション仕様:どのような対象に, どのような場合に, どのような情報を付与するかについての詳細な取り決め. $\cdot$ アノテーションスキーマ:アノテーションに利用するラベルセット, ラベルの属性値, 及びラベル間の構造を規定した体系。アノテーション仕様の一部. ・アノテーションフレームワーク:アノテーションにおいて管理される文章やデータベー スの全体像, 及びアノテーション全体をどのように管理するか, どのような手順で作業を行うかなどの運用上の取り決め. ・アノテーションガイドライン:作業の手順や具体的なアノテーション例などを含み, 実際のアノテーションの際に仕様の意図に従ったアノテーションをどのようにして実現するかを細かく指示する指南書. - アノテーション方式 : 特定のコーパスで採用される仕様, スキーマ, フレームワークのいずれか,もしくはその全体. - アノテーション基準:あるラベルやその属性值を付与, あるいは選択する際の判断基準.  $\cdot$ アノテーション規則:アノテーション基準を守るべき規則として仕様やガイドラインの中に定めたもの. ## 2 関連研究 述語項構造を解析したコーパスとしては, 日本語文章に対するものに, 京都大学テキストコー パス (KTC), NAIST テキストコーパス (NTC), GDA タグ付与コーパス (GDA), KTC 準拠のアノテーションをブログ記事に対して行った解析済みブログコーパス (Kyoto University and NTT Blog Corpus: KNBC), 日本語書き言葉均衡コーパス (BCCWJ) に対して NTC 準拠のアノテーションを行ったコーパス (BCCWJ-PAS) などがある.英語を対象としたコーパスとしては, FrameNet, PropBank, NomBank, OntoNotes などが主要なものとして挙げられる。特に,NTC, FrameNet, PropBank, NomBank どは,比較的多くの文章事例を含むことから,これまでに,様々な解析器の学習データとして用いられてきた (Màrquez et al. 2008; Yoshikawa, Asahara, and Matsumoto 2011; Iida and Poesio 2011; Taira, Fujita, and Nagata 2008). 表 1 に,各コーパスの特徴を示した。コーパス間の主な仕様の差としては, 文書ドメイン,述語-項関係を表すラベル,格フレーム辞書の有無, 文外の項に関する取り扱いの有無などが挙げられる。 コーパスの文書ドメインは,従来,新聞記事を中心に整備されてきたが,係り受け解析等のその他の技術同様, 教師あり学習によって開発された述語項構造解析器の精度が学習データの文書ドメインに依存するという結果 (Carreras and Màrquez 2005) から,近年は複数文書ドメインへのアノテーションが進みつつある(BCCWJ-PAS, KNBC, OntoNotes など). 表 1 述語項構造コーパスの比較 OntoNotes 4 の名詞項構造情報は,フレーム情報改善のため一時的にデータから除外されている. BCCWJPAS は (小町, 飯田 2011) で報告されたデー夕. 2013 年 9 月現在, Yahoo!知恵袋コアデータ約 6,400 文のみ公開されている。 述語-項関係ラベルとしては,文中の統語的なマーカーを関係ラベルに利用した表層格,項のより意味的な側面を取り扱った意味役割ラベル等のバリエーションがある ${ }^{2}$. 既存のコーパスでは,英語のコーパスが意味役割を中心としたアノテーションを行ったのに対して,日本語では表層格を中心としたアノテーションが一般的である。この違いが現れた理由としては,言語による性質の違いと,それまでに作成された他のコーパスとの情報の差分の違い,という 2 点が挙げられる。日本語においては,項の省略が頻繁に起こるという性質のほか,副助詞「は」「も」等が使用されている場合や,連体修飾の関係にある場合など,KTC の文節単位の係り受け情報だけからでは表層的な格関係自体が自明でない場合があるため,述語とその項となる句の位置関係や表層的な格関係を明らかにすることが第一の目標とされた。一方で,英語の場合,項の省略のほとんどは to 不定詞や関係節,疑問詞などの統語的な性質に基づいた移動によって説明でき,また,この移動には, 句構造にもとづいて統語的アノテーションを行った Penn Treebank コーパス (Marcus, Marcinkiewicz, and Santorini 1993; Marcus, Kim, Marcinkiewicz, MacIntyre, Bies, Ferguson, Katz, and Schasberger 1994) において trace というラベルを用いて述語項構造相当のアノテーションがなされており,実際の項の位置や,移動前における統語関係が既に明らかにされていたことから,述語が表現する概念におけるそれぞれの項の意味的な役割を表現するラベルをアノテートすることが次の段階の目標となったと考えられる. 日本語の述語項構造アノテーションの主要なコーパスである KTC と NTC では, 日本語の統語上の格関係マーカーである格助詞を関係ラベルとして利用している.KTCでは,述語が現れた時, その述語が伴っている助動詞・補助動詞等を含めた形(述部出現形)に対して用いる格助詞を利用して,項にラベルを付与する。 (2) a. [太郎ガ $]^{\text {が }}\left[\right.$ 本 $\left._{\text {Э }}\right]$ を買う。 b. [この本 $\left.{ }_{7}\right]$ は [太郎二]に買ってほしい。 上の例では,下線部が述語表現,[] 括弧で囲まれた部分が項,その内部の下付き文字が格関係ラベルを表す,以降,特に断りのない限りは,例文での項構造はこのように表す。一方で, NTC では, 述語の原形に対して用いる格助詞を使ってラベルを付与する。 (3) a. [太郎出 $]$ が $\left[\right.$ 本 $\left._{\text {g }}\right]$ を買う。 b. [この本 $\left.{ }_{\text {g }}\right]$ は [太郎艻] 買ってほしい。 この方法は,使役・受身・願望など,格の交替が起こる表現の間で格のラベルを正規化することで,表層格に主題役割のようなより意味機能的な側面を持たせることを試みたものと捉えることができる。ただし,5.2.5 節でも述べる通り,この二つについては他方には含まれない情報をそれぞれ持っており, どちらの方式がより適切かはアプリケーションによっても異なるため,  一概に優劣を決めることは出来ない,述部出現形アノテーションにおける格交替の情報を補う研究として, 自動的に収集された出現形の格フレームの間で格ラベルの交替がどのように起こるかを自動的に対応付ける研究 (Sasano, Kawahara, Kurohashi, and Okumura 2013) も試みられている. 英語に対する主要なコーパスでは,述語と項の間のより詳細な意味関係をとらえる「意味役割ラベル」が用いられる。これは,例えば,同じ意味機能を持った項が異なる統語関係として表れる統語的交替と呼ばれる現象に対して,それぞれの項に一貫した意味的役割を割り当てたり, Agent, Theme, Goal などの主題役割 (thematic roles)のように, 項の述語横断的な意味機能を扱いたい場合に有用である。また,日本語でのアノテーションではあまり取り扱いのない,必須格と周辺格の区別についても扱っている. ただし,意味役割によるアノテーションスキーマでは項の役割を表すラベルの数が数十から数千という規模になり,意味の類似するラベルも多種存在するのが一般的であることから, ガイドラインにおいて類似ラベルの取り扱いを明確に区別したり,あるいは述語の語義ごとに格フレーム情報をあらかじめ作成し,各語義で項として取り得るラベルの選択肢を厳密に定めることによって曖昧な選択肢が生じないように工夫を行う必要がある。 既に構築が完了している日本語のコーパスでは, 唯一GDAが主題役割を取り扱っているが, アノテーション対象が文外のゼロ照応関係にある項に絞られており,述語項構造に見られる現象を網羅しているとは言い難い.NTC の表層格アノテーションでは,述語-項関係を述語が原形の場合の格関係に正規化するため,格助詞と述語とその語義の三つ組を考えれば,この三つ組は各述語の各語義に固有の意味役割を考える PropBank や FrameNet とおよそ同等の意味表現となる。ただし, 主題役割のような述語横断的な意味機能については考慮できない. 一方で,近年では,日本語に対する新たな意味役割アノテーションの試みも進みつつある。現状では一致率や規模の問題から言語処理研究への実用レベルには至っていないものの, 小規模な日本語文章への主題役割の試験的な付与例として, 林部ら (林部, 小町, 松本, 隅田 2012)や Matsubayashi et al. (Matsubayashi, Miyao, and Aizawa 2012)の研究が挙げられる。林部らの研究では,作業者間一致率が $\mathrm{F}$ 値で $67 \%$ 前後と低く, 実用に至っていない. Matsubayashi et al. の研究では,あらかじめ述語ごと,語義ごとの格フレームを用意するため必須格に対する一致率は $91 \%$ と高いが 3 , アノテーションに必要となるフレーム辞書のサイズが未だ小さく, 規模を拡充する必要がある。開発過程にある意味役割付与コーパスとして,BCCWJに対し,動詞項構造シソーラスを用いた意味役割アノテーションを行う研究 (竹内, 上野 2013) や, 同じく BCCWJに対し, FrameNet と同様の理論的枠組を利用して意味フレームのアノテーションを行う研究 (小原 2013 ) などが進んでいる. ^{3}$ Matsubayashi et al. の研究では, 文外の項に対するアノテーションを行っていない点に注意されたい. } 英語のコーパスでは,それぞれの述語が取り得る格を列挙した格フレーム辞書と呼ばれる資源を構築するのが一般的な手法である,格フレーム辞書は,大規模な生コーパスの観察によりアノテーション作業に先立って構築される. アノテータは格フレーム辞書を参照しながら項構造の付与を行うことによりアノテーションの摇れを抑えることができるため,高い作業者間一致率を得ることができる,日本語の場合,英語に比べて項の省略が多く,また,英語のコーパスでは行っていない文をまたいだ項のアノテーションを行っているなど,アノテータが確認しなければならない領域が相対的に広いため, 英語の場合との一致率の単純な比較は出来ないが, PropBank の項アノテーションに関する一致率は周辺格を含める場合で kappa 值で 0.91 , 含めない場合で 0.93 と極めて高い (Palmer et al. 2005)。また, 含意関係認識タスクのために FrameNet 準拠のコーパスアノテーションを行った研究では,意味役割の付与に関する一致率が $91 \%$ であったとしている (Burchardt and Pennacchiotti 2008). これに対して,明示的な格フレーム辞書を持たない NTC では,一致率が $83 \%$ 前後と相対的に低い.KTCでは,ガイドラインを安定化させた段階での格関係アノテーションの作業者間一致率を $85 \%$ と報告している (河原他 2002). NTC の仕様に準拠する形で BCCWJ に対するアノテーションを行った研究では,アノテータが既存の格フレーム辞書を参照しながら作業を行うことによって作業者間一致率に一定の改善を得ることが出来たとしている (小町,飯田 2011). 日本語コーパスの初期のアノテーションにおいて, 英語コーパスであらかじめ整備された格フレームが用いられなかった理由としては次の 2 点が挙げられる. 第一に, 英語のコーパスで行われた意味役割を用いたアノテーションでは,項のラベルとして統語機能的なラベルを用いず,純粋に項の持つ意味そのものを表現するラベルを用いたため,それぞれの述語が取る項の数やその意味役割を明示的に記述する必要があったのに対し,日本語の場合は格助詞を関係ラベルとして採用することで,ラベルセットが少数のラベルで規定されるので,明示的に述語ごとのラベルセットを列挙する必然性がなかったことが挙げられる。このため, 初期のアノテー ション作業として, 格フレームを記述するためのコストとのバランスを考慮して, 格フレームを用意せずに作業が進められたことはきわめて自然なことであった,第二に,日本語では項の省略が頻繁に起こるため, 統語的な文構造の制約が強い英語の場合に比べて格フレームの分析が難解となっていることが挙げられる。日本語の述語に対して表層格の格フレーム情報を与える既存の言語資源としては NTT 語彙大系・構文体系の辞書 (池原, 宮崎, 白井, 横尾, 中岩,小倉, 大山, 林 1997) や計算機用日本語基本動詞辞書 IPAL (情報処理振興事業協会技術センター1987), 竹内らの動詞語彙概念辞書 (竹内, 乾, 藤田, 竹内, 阿部 2005), 京都大学格フレー ム (Kawahara and Kurohashi 2006) などがあるが,いずれも異なった格フレームを与えており, また NTC 開発における実際のアノテーション作業時には既存の格フレーム辞書では被覆されない格が出現するなどの問題があった。このため, 日本語においては精緻な格フレーム辞書を構築する手段についても研究課題の一つとなっている. 英語を対象としたコーパスに打いては, 一般に,文をまたいだ項についての取り扱いがない。 これは,日本語が項の省略を頻繁に伴うのに対して,英語における項の省略が比較的少ないことに由来する。しかし,英語の文章においても,イベント間の照応関係や推論的解釈により,同一文中には現れないが暗黙的に定まっている項があると解釈される場合もあるため,近年は,この問題を解消するための試みも研究されている (Laparra and Rigau 2013; Moor, Roth, and Frank 2013; Silberer and Frank 2012). また,多くのコーパスでは,名詞についてもその項構造が考慮されている,NTCでは,名詞のうち一般の述語で表されているような状態やイベントを表現するもの (飯田, 小町, 乾, 松本 2008)(本論文中では,これをイベント性名詞と呼ぶ)について,他の述語と同様に項構造を割り当てている,KTC や NomBankでは,イベント性名詞に加えて,ある名詞の意味解釈をするにあたってその名詞の意味の中に取り达まれていない別の何らかの概念との関係が必須であるもの,いわゆる非飽和名詞 (西山 2003) についての項 (4a)や, 所有の関係, 修飾の関係など, 二つの名詞間に何らかの関係が成り立つ場合もラべル付与を行っている $(4 \mathrm{~b})(4 \mathrm{c})$. (4) a. [米国,]の大統領(KTC.「大統領」は非飽和名詞.「ノ格」のラベル付与) b. [花子, ?] の眼鏡(KTC. 非飽和名詞以外の関係.「ノ? 格」のラベル付与) c. the [vice ${ }_{A R G 3}$ ] [president ${ }_{A R G 0}$ ] of [North America operations ${ }_{A R G 2}$ ] (NomBank) ## 3 NAIST テキストコーパス 我々は,可能な限り多くの現象を網羅した分析を行うという観点から,これまでに最も多くの文数にアノテーションが行われてきた NTC の仕様をべースとし,適時 KTC との対比を行いながら議論を進める方針とした,本節では,NTCのアノテーションガイドラインについて,本論文の理解に必要な範囲の内容を簡単に説明する。また, 3.2 節では, NTC の作業者間一致率について,我々があらためて詳細に分析した結果を述べる。 一般に日本語述語項構造アノテーションを行うにあたって同時に含まれる照応・共参照情報については, それ自体が難解な問題を多く含んでおり,加えて,種々の問題を包括的に考慮して議論を進めなければ解決は難しいと判断した. このため, 照応・共参照アノテーションに対する考察・理論化は一つの大きな研究テーマに相当するものであると考え今後の課題とし, 議論の対象外とした。 ## 3.1 アノテーションガイドライン ここでは, NTC のガイドラインについて, 公開されている Webサイト (飯田他 2005) の情報を抜䊀・再編集する形で概要を説明する。照応・共参照や名詞間関係に関わる部分については本 論文での議論の対象外とするため説明を省略するが, ガイドラインの全容については Web サイトを参照されたい。また,より詳細な内容については,必要に応じて 5 節での個別の議論の際に付け加える。ただし, 同 Web サイトの内容は, ガイドライン開発過程の情報が入り混じっており,必ずしも公開版データ5 5 作業時の規定を反映していなかったため,文書化されたガイドラインと公開版のデータに相違が見られる点については, NTC の開発者に確認し, 実際の作業がどのようなものであったかを説明に追加した。また, 表 2 に NTC 1.5 版と Web 上のガイドラインにおける差異を対応表としてまとめた. 4 節の論点収集のプロセスでは, Web 上のガイドライン及びここで示す実際の NTC 1.5 版との差異において, 明文化された規定のない項目については曖昧な取り決めであるという立場をとり, このうち簡潔な規則を定めることで問題を解決できなかった部分についてを 5 節で議論する. NTC では, (i) 動詞, 形容詞, 名詞句十助動詞「だ」, ならびに (ii) サ変動詞や『名詞句+助動詞「だ」』の体言止め, (iii) ナ形容詞の語幹で文や節が終わる場合を述語とみなし, 対象表現に述語ラベルを付与する。 さらに各述語について, その項構造を述語原形に対する表層格ラベルを用いて付与する。また,イベント性の名詞についても述語同様の項構造を考えアノテーションを行う。 (5) a. [太郎ガ]が $[$ 花子 $]$ に [リンゴョ] ああげた。 b. 本日未明に [竜巻务] が発生、(サ変動詞の体言止め) 項は,必須格6であるもののうちガ・ヲ・二格に相当するもののみを扱う。項や述語の領域は, IPADIC (浅原, 松本 2003) で定められる形態素分割における一形態素とする. 項のスコープが 表 2 NTC 1.5 版と Web 上のガイドラインにおける仕様の差異(共参照・照応・名詞間関係を除く) ^{4}$ NTC において名詞間関係を表す「ノ」や「外の関係」は NTC 1.5 版に含まれておらず,付与事例が検証できなかったため,議論の対象外としている. 5 NTC 1.5 版をさす. 6 ただし, NTC ガイドライン Web 版では必須格と周辺格の区別の方法を示してはいない. } 句や節の場合は, 最も後ろの形態素を項の範囲とする 7 . 述語が「名詞 + する」のサ変動詞の場合や名詞句 $+「 た ゙ 」 の$ 場合は複数形態素から構成される述語と解釈するが,ラベルを付与する箇所は一形態素とし,サ変動詞の場合は「名詞+する」の「する」に,名詞句+「た」の場合は名詞句の最も後ろの形態素に述語ラベルを割り当てる. (6) a. 彼が来たかどう [かョ] 知りたい。 b. [ $A$ 社ガ $]$ は [新型交換器 $¥]$ を導入する。 c. 彼とお茶する。 d. [太郎艻] は九州男坚だ。 機能語相当表現については述語とはみなさない. 同様に,形容詞の副詞的用法, 固有表現内の述語も述語とみなさない8(下線部は述語ラベルを付与しない箇所). (7) a. 彼の話によると、(機能語相当表現) b. 本を買ってしまう。(機能語相当表現) c. 彼にリンゴを食べてほしい。(機能語相当表現9) d. 点の取り方をよく知っている。(形容詞の副詞用法) e. 野鳥を守る会。(固有表現) 受身,使役などの場合は述語原形の格を付与する。たたし,これらの格交替によって原形の場合は取らなかった格が新たにガ・ニ格として増えている場合は, 述語に付随する助動詞や補助動詞を仮想的な述語とみなし,そこに追加ガ/二格などの格を割り当てる ${ }^{10}$. (8) a. [私追加力゙ $\left.{ }_{B}\right]$ は $\left[\right.$ 父 $\left._{\text {ガ } @ A}\right]$ に死な ${ }_{A}$ れ $_{B}$ た。 項が省略されている場合は,文章中から対象の項を探しラべルを付与する.文章中に候補となる句や節が存在しないが何らかの項が埋まっていると認識できる場合は,外界(一人称),外界 (二人称),外界(一般)という三つの特別な記号を用意し,そこに項のラベルを割り当てる。照応先が一人称単数の場合は「外界 (一人称)」, 二人称単数の場合は「外界 (二人称) 」, それ以外の場合は全て「外界 (一般)」の記号にラベルを割り当てる. (9) a. [牡蠇 $]$ を食べるため、[太郎カ] は広島へ行った。(項の省略) 二重に主語を取る構文においては,「N1は N2 が V」を「N1のN2が V」として置き換えるこ  とが可能な場合は「ノ格」で付与,それ以外の場合は「ハ」と「ガ格」を用いて付与する ${ }^{11}$. (10) a. [広島ノ] [ [牡蠣が]がうまい。 b. [太郎, $]$ が[花子ガ] が好きだ。 c. [彼八] が [英語ガ] が読める。(可能動詞) 項が並列構造を取る場合には,以下の例文のとおり 1 形態素に限ってラベルを付与する ${ }^{12}$. (11a)の場合は,「太郎と次郎」という名詞句が項であるとみなし, 前述の「項のスコープが句や節の場合は, 最も後ろの形態素をラベルの範囲とする」という規則に従い,「次郎」をラベルの範囲とする。(11b) の場合は, 「中学校」と「高校」がそれぞれガ格とみなせるが, 述語に最も近い項のみラベルを付与する ((11c) も同様). (11d)のように「と」が「が」よりも後に出現する場合, 及び他の項をはさみ離れて出現する場合は並列構造とは区別し, ガ格とはみなさない. (11) a. 太郎と [次郎五]が遊んでいた。 b. 中学校は四割、[高校ガ] も三割あった。 c.太郎はリンゴを、[次郎ガ] は[オレンジョ] を食べたい。 d. [太郎ガ]が花子と結婚した。 述語が連体修飾をする場合において, 被連体修飾句と述語との関係を格助詞を用いて表現できない場合は「外の関係」のラベルを付与する 13. $ \left[\begin{array}{l} \text { サンマョ }] \text { を焼く[ }[\text { けむり外の関係 }] \end{array}\right. $ ## 3.2 作業者間一致率 ガイドラインの分析に先立ち, 我々は, 飯田ら (飯田他 2010) が用いたものと同一のデータを用いて,NTC の作業者間一致率を更に詳しく分析した。その結果を表 3 に示す。一致率は,二名の作業者が 30 記事にアノテートした結果について, 一名の結果を正解, もう一名の結果をシステムの推定と仮定した場合の適合率, 再現率, $\mathrm{F}$ 値として算出した。このとき,推定されたトークンが正解データにおいて項となる共参照クラスタの中のいずれかのトークンと一致すれば正解とした ${ }^{14}$ ,たたし,我々の評価方法では,飯田らの方法と異なり,述語やイベント性名詞の位置が不一致の場合は, それらに付与された全ての項を不正解とした。 分析は, 格ごとに, 係り受け関係の有無, 述語・イベント性名詞の別に分けて行った. 係り受け関係がない場合とは,すなわち,本来統語的な関係として規定されるはずの項が省略されるゼロ照応と呼ばれる現象が現れていることを指す。結果として, 格ごと, または係り受け関係  表 3 NAIST テキストコーパスの作業者間一致率 の有無によって一致率にかなりのばらつきがあることが分かった. 特に, ゼロ照応を伴う事例では,格の種類横断的に一致率が低い,顕著に低い値を示すのはゼロ照応のヲ格・二格,及びイベント性名詞に関する二格であるが,これらは事例数自体が少ないため,この結果がガイドラインの不備によるものかどうかを確かめるにはあらためて事例を収集し検証する必要がある. ## 4 論点の収集方法 本節では,既存コーパスのガイドラインにおける問題点を洗い出すために我々が取った方法を説明する。ガイドラインの問題点を収集するための具体的な方法論は確立されていないため,今回は (i) 既存のガイドラインを利用して新規アノテーションを行い,曖昧な箇所を探るという方法と, (ii) NTC ・ KTC の仕様策定, NTC, KTC を用いた応用処理に関わった研究者, 述語項構造アノテーションの仕様に対して問題意識を持つ研究者が経験的に持つ知見を集約するとい う方法の二つの方法を取った. 前述のとおり, 本論文で取りまとめる考察は NTC のアノテーションガイドラインを基準に行う。ただし, 議論上関連のある項目については KTC のガイドラインとの対比を取り,より広範囲に考察を加えられるよう努めた。また,NTC $\mathrm{KTC}$ のガイドラインにおいては,アノテートする文書ドメインが限定されていることにより認知されなかった問題がある可能性も否定出来ないため, 今回の論点収集の過程では新聞ドメイン外の文に新たにアノテーションを行うことを試みた。議論の対象となる題材は, 述語項構造アノテーションの経験がない一般人の日本語母語話者 1 名, 及び $\mathrm{NTC} \cdot \mathrm{KTC}$ の仕様策定関係者 3 名と述語項構造アノテーションの仕様に対して問題意識を持つ言語処理研究者 5 名(著者ら 8 名)の計 9 名によって具体的に以下の手順で収集した。 (1) 述語項構造アノテーションの経験がない日本語母語話者 1 名を新規アノテーションの作業者とする.作業者には NTC のアノテーションガイドラインを熟読してもらい,その後,基本的なアノテーション方法について指導を行う. (2) Wikipedia, BCCWJ よりサンプリングした文書に対して, NTCのガイドラインに従い, 作業者が述語項構造を付与する。判断に迷いが出た事例は取りまとめて著者らに報告する. (3)報告された事例について,著者らが NTC・KTC のガイドライン及び NTC データ内の実際のアノテーション例と照らし, 簡潔に解決可能かどうか確かめる. 解決可能な場合, ガイドラインを更新し, 解決案の説明と具体例を加える. 解決不可能なものは議論対象の分類表に加える。このとき,NTCと KTCの間での取り決めの対比も行う. (4) 作業者は新しいガイドラインと未解決問題の分類表を持ち, 作業済みのデータを修正する. 1,000 文程度になるまで新しい文章セットを受け取り (2)に戻る. (5) NTC・KTC の仕様策定に関わった研究者, 既存の仕様に問題意識を持つ研究者ら計 8 名 (著者ら)の意見を集約し, 研究者が経験的に理解している仕様上の改善点を, (1)〜 (4) の工程で出来た議論対象の分類表に追加する。 また, 新たに用意した BCCWJ 上の記事 20 記事程度 ${ }^{15}$ に対して, 上記 (1) (4) の工程で改善したガイドラインを見ながら実際にアノテーションを行い, 問題となった点を議論対象の分類表に加える. 以上の方法で収集・整理した 4 種 15 項目の論点(5 節,表 4 を参照)について,著者らが議論を交わし,結果として得られた知見をまとめ上げた.  ## 5 個別の論点 本節には,4 節の方法によって収集されたガイドライン策定上の論点に関して,研究者間で議論した結果をまとめる。まず,我々は収集された問題をおおまかな種類ごとに分別し,結果, 4 種 15 項目の論点を得た,表 4 にその一覧を示す。内容としては,述語の認定基準,格の取り扱い,格や格フレームの曖昧性の問題といった既存のコーパスに本質的に潜んでいた問題のほか,新聞ドメイン以外で新たに見られた現象もある。以下では,それぞれの論点について議論の詳細を記す。 各論点に対する議論は, 著者らが種々のアノテーションタスクの設計を通して知る経験的な知見にもとづいて行われる。我々の目的の一つは, これら設計時の基本的な理念とガイドライン上の取り決めの対応関係を集約することであるので,議論の過程で現れたガイドライン策定上の基本原則については 6 節にあらためて取りまとめる. ## 5.1 アノテートすべき述語の認定基準 ## 5.1 .1 述語項構造を重要視すべき述語とそうでない述語 文章中の述語は, その全ての述語項構造が等しく重要性を持つわけではなく, 一部の述語に関しては,その述語項構造を解析する重要性が低いものもある。例えば,以下の文, (13) 驚いてはいられない. において, 「驚く」は文の内容上その項構造の解析が重要になるが, 一方の「いる」のほうは, より機能的な述語であり,項構造を捉えるというよりはむしろ「てはいられない」という 1 フ 表 4 述語項構造アノテーションのガイドライン設計に関わる論点 \\ レーズを機能的な表現とみなす方が自然と考えられる。述語項構造そのものを解析する重要度の低い述語に関しては,アノテーションコストの観点からも,解析器の評価をより重要度の高い項構造だけで適切に行えるようにするという点からも,区別して取り扱いたい. 述語項構造の重要度に関する問題として,本論文では, (a) 複合語 (b) 機能語相当表現 (c) 機能動詞構文・格交替を伴う機能表現 を取り上げる。これらは文章中にありふれた事象のため, アノテーションコストに対する影響も大きい,以下では,それぞれの項目について,どのように取り扱うべきかについての議論結果をまとめる. ## (a) 複合語 以下のように,述語となりうる語の後ろに項が追従する形からなる複合語を考える。この場合, 項自体がその複合語の主辞であるため, これら語の内部に現れる述語と項の意味関係はそのまま項の意味を修飾する構造となっている。この形では一般に項の部分が単体で持つ語の意味はそれほど重要ではなく, 複合語全体のかたまりの意味となって初めて実用的な意味を持つ場合が多いため, 内部構造を分解して解析することの重要度はその他の項構造と比べて低いと考えられる。 (14) a. 作業 [者艻] b. 書き [手ガ] c. 輸入 [ 品 7 ] d. 提案 [手法 $\ni$ ] NTC や KTC では, これらの複合語に関しては, 全て内部の項構造をアノテートしているが, このような表現は出現頻度も高く, アノテーションコストに対して占める割合も高い. 従って, もし応用処理の観点から見て重要度の低い関係とするならば, 実際にこのような情報が必要なアプリケーションからのニーズを待って,後発的にアノテーションを始めるのでも良い. 一方で, 次の例文のように, 述語部分が主辞となる場合や二つ以上の項を伴う複合語, 複合語の外側にも項を取る場合などは, 一般に項が内容語となるため, 分解して項構造を考えることに通常と同様の価値があると取れる. (15) a. [計算機 7 ] 使用 c. [計算機 $^{\text {] }}$ ] 使用 $[$ 者 $カ$ ] ただし, 接尾辞などのひときわ判断が容易なものを除いては, どの複合語の内部の項構造については価値が薄いかを判断することは容易ではないため, 個別に判断することは現状では難しい,例えば,その代わりに,作業コストを下げ一貫性を保つための工夫として,複合語内部の 項構造がほとんどの場合に一意に定まる事に着目し, 複合語内部の格関係を辞書的に管理しておくことなどが考えられる。こうすることで,文章中の事例ごとにアノテーションを行う必要がなく作業コストが低下する上に,アノテーション結果の一貫性も保たれる。この方法をとった場合,アノテータは複合語の外側に項が出現する場合のみに対処すればよいことになる. ## (b) 機能語相当表現(モダリティ等) 次の例文の下線部の述語は,助詞相当表現やモダリティ表現の一部と考えるのが自然である. (16) a. 彼の話によると、その店はとても有名らしい。(格助詞相当表現) b. 夏休みの課題で蟬について調べた。(格助詞相当表現) c. 気温が上がるにしたがって、だんだんと汗がでてきた。(接続助詞相当表現) d. 見つけたといっても、これはかなり小さいものです。(接続助詞相当表現) e. 驚いてはいられない。(モダリティ表現) f. すぐに食べなければならない。(モダリティ表現) g. ジムに通うようになった。(モダリティ表現) これについて,NTCでは,例えば「通うようになる」の「なる」に対して「機能語相当」のラベルを付けることで区別し, 述語項構造をアノテートしないとしている。ただし, 網羅性を保証できないとの観点から配布版(1.5 版時点)には「機能語相当」ラベルの情報は含まれていない. KTCでも,複合辞,モダリティ表現は述語認定の対象外としている。 助詞相当表現やモダリティ表現は, 内容語の慣用表現(5.2.4 節)と同様に, 句として強く結びっくことで非構成的な意味を形成している,たとえば,(16a)に見られる「によると」は,このひとかたまりで情報の出所や判断の拠り所を表現する機能を持つ (森田,松木 1989).「によると」は文において一つの格助詞のように振る舞うので, この中の「よる」のガ格が何であるのかを考えるのは不自然である。 上の例文からは,それぞれ,下線部の述語を含む次のような機能表現を抽出することができる。 によると、について、にしたがって、といっても、てはいられない、なければならない、ようになる 機能表現を例外扱いするにあたり問題となるのは,どのような基準で機能表現とそうでないものを弁別するかということであるが,これらの機能表現は言語学や言語教育の分野で研究されており,(森田,松木 1989)や(グループ・ジャマシイ 1998) などの辞書が出版されている。自然言語処理の分野で電子的に利用可能な辞書として, 松吉らが編纂した機能表現辞書 (松吉, 佐藤, 宇津呂 2007) などが存在する. アノテーション作業前に, これらの辞書を用いてあらかじ  り作業コストを下げることができる.辞書には載っていないが機能表現と考えるべき表現を見つけた場合,作業時にその表現を辞書に追加するなど,既存の機能表現リストから漏れている表現を拡充することも必要であると考える。 ## (c) 機能動詞構文・格交替を伴う機能表現 次の例文に見られるような機能動詞構文 (17a) や授受表現 (17b) における下線部 b の述語は,直前の述語 $\mathrm{a}$ に対して,アスペクトや態,ムード等の意味を付加する機能的な働きをするものと考えられている (Matsumoto 1996; 村木 1991). (17) a. 事件が社会に混乱 $A_{A}$ をえる ${ }_{B}$ b. 私が彼にサインを書い ${ }_{A}$ てもらう ${ }_{B}$ このような述語に対して, 下線部 A と B の双方の述語項構造を付与することは, 構造の重複となり, 作業の価値が低い。また, 述語 Bに関しては, 機能的な振る舞いをするものであるから,述語項構造として取り扱う必要性も低い.したがって,より内容的意味を持つ述語 A の方を基準の構造とし, Bで追加される意味情報を態・アスペクト・ムードのマーカーと解釈する方法も考えられる。これに関し, 既存コーパスのガイドラインでは, NTCでは, 機能動詞については通常の述語と同様にラベルを付与し,一方,「てもらう」などの表現には述語ラベルをアノテー トしない,としている,KTCでは,機能動詞については NTC と同様に扱われ,「てもらう」「てほしい」などの表現は述語の一部としてアノテートされる(「サインを書いてもらう」など).機能動詞や授受表現を特別に扱う際の問題点は, 機能語相当表現の場合と同様, その表現と取り扱いの方法が網羅的に列挙できるかという点にある.機能動詞に関するリストとしては, (泉, 今村, 菊井, 藤田, 佐藤 2009) などがあるが, 現象を網羅するわけではない. 従って, 具体的な作業方法の一案としては, 上記のようなリストを出発点として, 予め, あるいは作業時に段階的に機能動詞・授受動詞等に関する述語のリストを作っていき,コーパス中の事例を自動チェックするような仕組みを用いることで, 作業を簡素化・半自動化する方法が考えられる. (17) の例でも見られる通り,これらの表現が使役・受身相当の機能表現の場合は述語 A が本来持つ格に加えて使役格などの新たな格が追加される場合もある.この場合の取り扱いについては, 5.2.3 節と同様の議論となる. ## 5.1.2 名詞のイベント性認定 サ変名詞, 転成名詞に対して, 対応する動詞と同等の項構造をアノテートすることを考える場合には,その名詞が実際に何かしらの状態やイベントを表しているかどうかが問題となる.例えば,次のフレーズにおける,「施設」という語について考えてみる。 (18) 研究施設 この, 「施設」という語はサ変名詞であり,「施設する」という動詞が作れるが,ここで「研究施設」は施設した結果物であり,イベントではない。このような語にも便宜的に述語項構造を割 り当てることはできるが,文脈上イベントとして解釈できない語に関して,イベントとしての項構造を付与することは本質的ではない. むしろ、イベントとして解釈される「施設」と,そうでない「施設」を区別することのほうが重要といえる. NTC では,イベント性名詞ともなりうるタイプの名詞に関して,イベント性を持たないことを表示するためのラベル(結果物/内容,もの,役割,ズレ)を用意しているが,明膫な判断基準が存在せず,イベント性の判定は内省に頼っているのが実情である。ここでの論点は,どのような基準を設ければ名詞のイベント性をより明確な方法で判別できるかということである. あるいは,明確な基準を設けることが不可能であっても,閉じたデー夕内においては一貫性を保つような方法を模索する必要がある。この問題については, 既存研究で詳細な分析がなされており,アノテーションスキーマの改善も実施されているものの (飯田他 2010), ガイドラインとしての整備が行われていないため, 再度事例を収集し, 問題を整理する必要がある. 我々の議論の中では, 複合語と同じように,このような語が出現する度にそれぞれの語が結果物/内容,もの,役割,ズレのいずれのラベルと共に出現したかを記すチェックリストに追加しておき,アノテーション時に自動的に注意をうながす仕組みを用意することで一貫性を高めるという方法が挙がった.また,このチェックリストを利用し,コーパス中の事例を収集してガイドライン策定の検討材料とすることも考えられる。 ## 5.1.3 述語が複合語である場合の分解 NTC では,述語は基本的に一形態素の範囲に対してラベルを付与するとしているが,形態素の分割基準は既存の形態素辞書を拠り所にするため, どのような辞書を使うかによって述語単位の取り扱いが大きく異なってくる。表 5 には,いくつかの複合語について IPA, JUMAN, UniDic 辞書に基づく形態素分割の差を示したが,辞書によって,あるいは単語によって分割の 表 5 IPA 辞書, JUMAN 辞書, UniDic による形態素分割の違い 同じ品詞構成であれば, 同じ基準というわけでもない. 位置は異なる。 このような語の扱いに関しては, 次の二点が問題となる。(1)どのような形態素分割基準を基準とするのが述語項構造を考える上で最も適切か, (2) ある形態素分割基準に基づいて複合語が二形態素以上に分割されたとき, 複合語内部の述語はその全てがアノテーション対象として適切かである. しかし, どちらの問題も現状で合理的結論を出すことは簡単ではない上, 6.1 節に述べるように,言語処理アプリケーションによっては, どの単位を述語として扱うのがよいか, また, どの程度複合語内部の項構造が必要となるかに異なりがある. 例えば, 含意関係認識夕スクにおいては, 表 5 の「立ち読み」や「消し忘れ」がどのような理論に基づいて分割されているかにかかわらず,「私が、立って、本を、読む」ことや「私が、ライトを、消そうとして、消すのを、忘れる」ことを理解する必要がある. したがって, 現状で完全な解決策を提示することは難しいが, 部分的な対処案として, 複合語の辞書的なアノテーション管理を考えることができる.例えば,まずはある特定の形態素分割辞書に依存して述語範囲の認定を行い,その上で5.1.1 節の複合語の項目で述べたような複合語内部の項構造を辞書的に管理するのと同様の方法を必要に応じて一形態素と認識されている語に対しても適用することで,どのような形態素分割基準を用いた場合でも想定するアプリケーションの要求に対応できる柔軟な構造を取るという方法が考えられる. なお, 複合動詞に関する述語項構造の具体的な分析例として, 複合動詞用例データベース (山口 2013) が分析の出発点として参考にできる. ## 5.2 格の取り扱い ## 5.2.1二格の「必須格」性 述語のそれぞれの項を,主題役割のような意味役割のレベルで考えると,「が」「を」に比べて, 助詞「に」を伴って出現する述語-項の関係には様々なものがある (日本語記述文法研究会 2009; 村木, 青山, 六条, 村田 1984). このうち, 初期段階の述語項構造アノテーションとして特別重要度が高いのは, アノテーション対象の述語そのものの概念を説明するために必須となる項目 (必須格) である. 一般に, 助詞「に」を伴って出現する述語の項のうち必須の二格とみなされるのは,動作による移動の着点や結果状態を表すものなどである。一方, 状態やイベントが起こる時間, 動作や変化の様態などを表す「に」は述語横断的に利用可能な付加的修飾要素であるため, 周辺格などと呼ばれる. しかし, 「が」「を」に比べて, 二格では必須格性の判断が容易ではないケースも多い. 本論文では,特に, (a) 必須格と周辺格の境界 (b) 二格の任意性 の二つについて取り上げる. ## (a) 必須格と周辺格の境界 例えば,次の例, (19) a. 二つに割る b.こなごなに割る c. めちゃくちゃに割る を見ると,(19a)では,二格は動作の結果状態を表しているように見えるが,(19b) や (19c)のような表現になると,それが結果状態を指すのか,動作(あるいは変化)の様態を指すのかは極めて曖昧になり,判断が難しくなる。必須格と周辺格の区別については,明確な基準を持つて分けられる事例もあれば,上記のようにどちらに属するとも言えない曖昧な事例も存在する。 アノテーションを行う際に本質的に問題にしなければならないことは (i) 理論上どのようにアノテートするのが合理的かということと, (ii) 摇れなく, 明確にアノテーションや評価が行える基準を設けなければならないということである。(i) の観点から言えば,もし上記のように必須格と周辺格の間の境界が本質的に曖昧なのであれば,曖昧な状態を取り扱うことのできる表現にしておけば良い。一方で,アノテーションや評価を行う場合は不確かなものは問題となる。少なくとも,どの事例に関しては明確に区別可能であり,どの事例が本質的な曖昧さを含むのかを明らかにしておかなければ,作業者間一致率や解析システムの評価時に,アノテーションやシステムの誤りであるのか, 本質的な曖昧性のために摇れているのかを区別できない. この問題を解消するための方法として,ラベルの定義の問題でアノテータがいずれか一つのラベルを明確に選べない事例に対しては,ラベルの解釈に迷ったことを示すマーカーを用意し,対立候補と共にチェックをしてもらうことで明確な事例と曖昧な事例を区別しておく方法が考えられる,そうすることで,評価用データとして用いる際も,該当する事例を除外するなどしてより厳密な評価を行うことができるようになる。また,学習に用いる際には付与されたラべルの一貫性を担保したい場合があると考えられるが,曖昧な事例があらかじめチェックされていれば,その部分はアノテータの判断にかかわらず機械的に一方のラベルに修正したうえで学習するなどの処理を行うことができる. ## (b) 二格の任意性 第二に,文章中に存在しないニ格を補う場合の問題がある.ある格が必須格だと判断した場合, それはすなわち, 仮にその格を埋める項が文章中に存在しない場合でも, 概念上は項が存在しているとみなすということである。しかし,必須格と周辺格を一般によく知られている意味機能的な役割で分類しようとすると,動作の結果状態のように,一般的には周辺格ではないと認識されている役割であっても,述語によっては項が埋められている必要がある(暗に省略されている)と感じにくいケースもある. (20) a. 信号が( $\phi$ )変わったので、停車した。 b. 花瓶を( $\phi$ 二?)割った。 c. ボールが(申ニ?)落下する。 例えば,(20a)では,信号が変わった結果の状態について,文脈から何かしら明確な項を仮定する(赤に変わった,と仮定する)のが普通であるが,(20b)については, 特定の具体的な結果が指定されていなくとも,「割る」の一般的な結果状態は「割る」という語の語義の中に初めから含まれているため意味は解釈できる。(20c)の「落下する」という動詞では, 二格で移動の着点を指定することはできるが, 必ずしも落下の結果どこかに到達している必要はないので, 二格が必須の項であるとは言い難い. このような二格の任意性は,述語,あるいは文脈ごとにそれぞれ判断が必要である。どのような基準でニ格の任意性を認めるかについては現状では明確な基準は用意されていない. また,仮に,ある述語について二格の任意性が判定できたとしても,実際の文中の事例で,任意である二格が明示的に格助詞「に」を伴って出現していなかった場合, それが未定義なのか,概念上存在しているのか, あるいは同一記事中の別の箇所に出現しているかどうかの判断も困難を極める.例えば,次の文 (21) 衛星は落下し始めた。2 時間後、太平洋で発見された。 の「落下する」の二格は, 未定義なのか, 文章中に存在しない「地球」なのか, それとも「太平洋」なのかは,文脈をどのように解釈するかに依存する。したがって,このような文脈や事前知識に深く依存する問題については述語項構造アノテーションの範疇外としておき,それ以降の,例えば推論モデル等で取り扱う問題と規定する考え方もありうる. 仮にそうした場合は, 明示的に格助詞と共に表れる場合や,文脈上自明な場合を除いては未定義とするのが妥当である. ## 5.2.2 可能形・願望 $\cdot$ 二重ガ格構文・持主受身 可能動詞や可能形, 願望, 及び, いわゆる二重ガ格構文においては, 異なる意味機能を持った二つの格助詞「が」を伴うことがある. (22)a太郎は(が)英語が/を読める。(可能動詞) b. 太郎は(が)ブロッコリーが/を食べられない。(可能形) c.太郎は(が)ビールが/を飲みたい。(願望) d. 太郎は (が) 足が長い。(二重ガ格構文) この問題について, NTCでは, 可能形の場合は原形に戻してラベルを付与し, 「A は Bが V」を $\lceil\mathrm{A} の \mathrm{~B}$ が $\mathrm{V}\rfloor$ として置き換えることが可能な場合は「ノ格」で付与,それ以外の場合は「ハ」 と「ガ格」を用いてラベルを付与するとしている. (23) a. [太郎心] [英語カ] が/を読める。 b. [太郎ガ] は [ブロッコリー $\left.{ }_{7}\right]$ が/を食べられない。 c. [太郎八] [ビールガ]が/を飲みたい。 d. [太郎,]は[足ガ] が長い。 しかし,この方法を取る場合,次のようなガ格あるいはヨ格の選択肢の範囲を限定する「は」 の用法が現れたときに,ラベルを付与すべき対象が複数現れてしまい,場合によっては二重の 「八」となってしまう. (24) a. [ワイン八?] [ [ロゼカ] が美味しい。 b. [私八] は[ワイン八?] は[ロゼガ]が好きだ。 d. [私ガ] [ [本八?] は英語の [もの 7 ] を読む。 上記のような例を考えると, 項の選択範囲を限定する「は」は述語横断的に利用できる周辺的な格と類推できる。したがって,必須格と周辺格を付け分ける現行の仕様上では (23)における 「八」と,(24a)における「ハ」の用法は明確に区別したい. 経験的に, 格のラベルと文中の実際の助詞が見た目上一致すると, アノテータはこうした混同を起こしやすい.したがって, これを避けるために「ハ」の名称を二つに分けるという方法が有効な可能性がある。ここでは,例えば便宜的に (23)のハの場合を「属性所有のガ」, (24a)(24c) の場合を「限定八」と決めるような方法である.ラベルの名称を機能によって細分化するという方法は, 格助詞を直接格関係のラベルに用いる日本語の述語項構造アノテーションにおいては, 同じ助詞によって表される必須格と周辺格を区別する際に有効な手段であると考えられる. 一方, KTC の場合, 動作主体や経験者といった意味役割的な観念を用いて, 『二重のガとなるもののうち,「は」「が」が動作主体や経験者である場合は, 用言からみて遠い方のガ格をガ 2 格とする』とすることで,必須格と周辺格の混同を避けている。また,NTCでノ格に対応する「太郎は足が長い」などの表現は,「は」を「が」に言い換えると不自然だとして,ガ・ヲ・二などの格助詞では言い表せない「外の関係」として定義している. (25) a. [太郎ガ 2$]$ は [英語ガ] が読める。 b. [太郎が 2 ] は [ブロッコリーガ] が食べられない。 c. [太郎ガ 2$]$ は [ビールガ] が飲みたい。 d. [太郎外の関傒] は [足ガ]が長い。 これとは別に,(22a)に見られる可能動詞では,NTC 方式のアノテーションを行う際に格ラベルの組み合わせに曖昧性が出るという問題がある。具体例として,(22a)の例文では,ラベル付与の方法に $(26 \mathrm{a})(26 \mathrm{~b})(26 \mathrm{c})$ の三通りの曖昧性が発生する. (26) a. [太郎、] $]$ (が)[英語ガ]が/を読める。(NTC 方式) b. [太郎八] は(が)[英語 7$]$ が/を読める。(NTC 方式) この問題は,格フレームの曖昧性の問題として 5.3.1 節で詳しく議論する.KTC のガイドラインでは,同様の場面で「基準として,可能形の動詞の対象(目的語)の格はヨ格, 動作主体の格はガ格とするが,もっとも自然な格を選択する。目的語の表層格がガ格になっている場合な どには,その格を別の格に変えることはしない.ガ格がすでに使われている場合の動作主体の格はガ 2 格とする」と,厳密な優先規則を規定することで曖昧性を回避している。 ## 5.2.3 使役・受身・ムード・授受表現・機能動詞で追加される格 NTC は,述語と項の間の格関係を,述語原形に対する表層格によって記述する。このような方法を取る場合,述語が使役・受身などの形を取った場合に,原形では対応のない格が出現する問題があるため, これに対処する必要がある. b. [彼追加が@ $B$ ] が [父ガ@ $A]$ に死な ${ }_{A}$ れ $_{B}$ た。(迷惑受身) この問題に関して, NTCでは, 上記のように助動詞や補助動詞を新たにマークし, 追加ガノニ格を割り当てるとしている17. NTC のガイドラインでは, 少数の助動詞・補助動詞に関して,具体的な事例を用いてアノテーション方法を指示しているが, これに加えて, 機能動詞構文について 5.1 節で取り上げたような取り扱いをする場合は, 機能動詞構文によって追加される格についても取り扱う必要がある。また, 述語によっては, 機能表現によって格が追加されたと見なすべきか,受益格のような周辺格と見なすべきか明確でないケースも存在する. 特に, 機能動詞や補助動詞については, 表現の種類が多岐にわたるため, 追加されている項が省略されている場合の見落としなどを抑制して作業の一貫性を高めるためには, これらの現象に関わる表現について, 網羅的にかつ統一的な扱いをする必要がある. これには, 追加の格が存在する表現を一覧化し, 自動的に確認を促す仕組みを設けるなどの方法が考えられる. ## 5.2.4 慣用表現 次の例のように,見た目上は述語とその項が個別に現れているようにも取れるが,実際にはこれらが句として強く結びつくことで,一つの新たな意味を形成している慣用表現がある. (29) a. 私が/の気が滅入る b. 私のチームに手に入れたい c. 確認作業に骨を折る d. 彼の耳に入る  NTC では,どのような表現までが慣用表現と言えるのかの境界が厳密には規定できないだろうという前提から,慣用表現かどうかを区別せずに見た目上の述語に対してアノテーションを行っている. KTC も同様に,慣用表現かどうかは区別せずにアノテーションを行っている. これらの表現に対して, 述語項構造アノテーションのガイドラインが取り得る戦略としては, (i) NTC や KTC と同様に,慣用表現内部の述語項構造も全て分解してアノテートする,もしくは (ii) 慣用表現は複数形態素にまたがる述語表現として特別扱いする,ということが考えられる。たた,どちらの場合に関しても議論の余地がある。 (i) の場合は, まず, 5.1.3 節の複合語の議論の時と同様, 慣用表現内部の項構造は, 出現事例ごとに異なるということはほとんどないため, 同じ構造を何度もアノテートする無駄が生じる可能性がある。また,慣用表現の表す意味は,比喻的な派生の結果,元の語句から構成的に組み上げられる意味と一致しないため, 分解して項構造をアノテートする意味自体が薄い18. さらには,(29a)(29b)にも見られる通り,慣用表現によっては格の重複が起こり,どちらが内容的に見て重要な格で, どちらが慣用表現内の「意味的重要度の低い」格かの区別が難しくなる。 (29c) に見られるように,元々の述語(この場合,「折る」)に存在しなかった格(二格)が増える場合もあり,アノテーションに際して格フレーム辞書を用意した場合などには,分解された語のみの格フレームでラベルを付与しようとすると扱いが難解になる. (ii) の場合は,ある句をどのような基準で慣用表現とみなすかが問題となる.慣用表現を整理した既存の研究としては, 佐藤の基本慣用句五種対照表 (佐藤 2007) や橋本らの OpenMWE :日本語慣用句コーパス (Hashimoto and Kawahara 2008) などが挙げられるが,佐藤の研究では 「慣用句の定義はいまだに決定的なものがない」としている。また,慣用表現全体を述語と見なすこととした場合には,(29d)のように慣用表現内の項の一部を修飾する情報をどのように扱うかも問題となる。この例の「彼の」は,もし慣用表現を分解して考えた場合には二格相当の句の一部となっているため, この関係にも何らかのラベルを用意するのが望ましいと考えられる. この問題に対しては,まずはコーパス内の慣用表現と思われる事例を集め, 慣用表現を述語項構造という観点で見た場合にどのような現象が起こりうるのかを網羅的に収集する必要がある. そのため, 初期のアノテーションでは慣用表現内を分解した状態でアノテーションを行い, その上で慣用表現の取り扱いを決めるといった段階的なアノテーションを行うこともコーパス構築上の戦略として考えられる。また,実際に慣用表現をひとまとめにしたアノテーションを行う際は, 機能表現や機能動詞での議論と同様, 対象表現を辞書的に管理するのが望ましいと考えられる。  ## 5.2.5 格交替と表層格ラベルの種類(KTC 方式と NTC 方式) 2 節で紹介したとおり,KTC は述部の出現形に対する格関係を付与し, NTC は述語原形に対する格関係を付与する。このため,格交替をともなって述語が出現する場合には,これら二つの基準では異なったアノテーションが行われる. 出現形アノテーションと原形アノテーションは,互いに他方には含まれない情報を持っており, どちらの方式がより適切かはアプリケー ションによって異なる. 例えば,含意関係認識のような命題間の同一性を扱いたいタスクでは,(30)の文a と文 bが同じ内容を表していることを捉えたい。そのため, このような場合は, 格交替を吸収する NTC 方式が有用である。 b. [太郎出 ${ }^{\prime}$ が [ご飯 $\left.{ }_{\text {g }}\right]$ を食べた。(NTC 方式) 一方で, 機械翻訳や文書要約などの表層的な形式をそのまま扱うことが可能なアプリケーションでは,受身や使役などはそのまま翻訳・要約すれば良いため, 必ずしも述語原形の格に戻す必要性はない.項の省略がある場合も述部出現形の格助詞を用いて補完すればよい。このような場合にも述語を原形に戻そうとした結果, 原形に対する格パタンを選択する際に処理を誤る可能性もあるため,無理に原形に戻す処理を行うことはリスクをともなう.したがって,このような場合には出現形でアノテーションを行う KTC 方式を採用するほうが望ましい. b. [太郎ガ]が来た。[りんごョ] を食べられた。(NTC 方式:受身のまま「太郎」を補う場合に,二格で補われるべきという情報を得られない) これらに関連して, 格交替前と格交替後の格の対応関係を獲得したい場合には, KTC 方式でアノテートしたコーパスからはこの対応関係を直接学習出来ないため, 対応関係を獲得するための新たな資源が必要となる. NTC 方式の場合, コーパス上にこの対応関係をアノテートしていることになるので見た目上はそのような対応関係表は必要ないが,実際にはコーパス中に格交替をともなって出現する事例は全事例の 1 割程度であるため, 異なる格交替の振る舞いをするそれぞれの述語に対して対応関係の学習に十分な量の交替事例が得られるとは限らない. 出現形表層格における格交替関係については, 10 億文規模の大規模なコーパスから自動獲得する方法も研究されているため (Sasano et al. 2013), 格交替の扱いについては, 今後どちらの方針でアノテートすることが効果的かを検証する必要がある. この検証を行うためのデータ作成の方法として, KTC 方式, NTC 方式の双方で同一文章にアノテーションを行う方法が考えられる。この場合のコストは, 格交替が起こらない場合などの重複する作業は省略できるため, 単純に倍というわけではない. ただし, 効果的に対応関係を取るためのアノテーションの方法については今後検討する必要がある. もう一つの方法は, 仮にいくつかのデータがアプリケーションによる要請などによって異な るラベルセットを用いてアノテートされたとしても,それぞれのスキーマによるアノテーションの結果を自然に統合し,互いにラベルセットを交換可能とする仕組みを考えることである. KTC と NTC の場合は,各述語に対する語義別の格フレーム辞書と,各語義に関する格交替の性質を網羅的に記述した辞書を用いてこの仕組みが設計可能である。この方法を取れば,将来,主題役割などのラベルを導入する場合にも,既存のアノテーションの結果をマッピングすることで,最小限のアノテーション作業によって新たな結果を得ることができると期待できる。ただし,このようなスキーマ間のラベルの対応を得るのは容易ではない. アノテーション作業の重複を避けるためには,異なるスキーマ間のラベルが事例ベースで一対一対応する必要があるが,各事例で適切な対応関係を得るためには,それぞれのスキーマが,お互いのラベルがエンコードしている情報の差を明確に意識し,その差が追加情報によって将来的に埋められるよう綿密に設計されたスキーマでなければならない。また, 格フレームや語義等も,共通の基盤デー 夕に基づいておく必要がある。さもなければ,それぞれのスキーマの理論上のずれや格フレー ムのカバレッジ,語義の粒度のずれによる影響で,ラベル間の対応が一対多,多対多の曖昧な関係となり,結局,コーパス全体にわたってほとんど網羅的な確認作業を行わざるを得ないことになる。実際に,英語圈では,異なる述語項構造コーパス間にアノテートされた異なる情報を有効に活用しようと,資源間でのラベルのマッピングを試みた研究があるが,それぞれ異なる理念で設計されたコーパスであったため, 格フレームやラベルの対応関係は多対多となり再アノテーションを必要とした (Loper, Yi, and Palmer 2007a, 2007b). したがって, 仮に, アプリケーションからの要請や, 段階的に情報を付加していく設計などによって, 異なるアノテー ションスキーマを使い分ける場合にも,将来の統合性をはっきりと意識した設計をしておくことが重要となる.例えば,5.2.1 節で述べたような必須格と周辺格の区別などは現状のガイドラインでは明確に取り扱われていないが,意味役割との親和性を考えれば重要な事項である. ## 5.2.6項としての形容詞(二格相当) 次の二つの例文は,非常に似通った意味を表している。 (32) a. [服加が[赤二] に染まる。 b. [服ガ]が赤く染まる。 どちらの文からも,我々は「服が赤くなった」という同一の結果状態を想像することができる. しかし, 現状の表層格を用いたアノテーションでは,「赤く」という形容詞を用いた表現は項として認識されず, これら二文の間の項構造は異なるものになる。この違和感は, 特に項の省略を伴う次のような例文に対して,どのような表現まで項として補うかという判断を行うときに大きくなる. (33) a. [真っ赤ニ?] なぺンキで、[服ガ]が染まってしまった。 b. [赤い?] ペンキで、[服加が染まってしまった。 この問題は,我々が,表層格というラベルを用いて,述語とそれを取り巻く要素の間のどのような関係を取り扱おうとしているかを考える際の良い題材である。現状のスキーマでは,格助詞の表層的な違いとして認識できる粒度の意味関係しか取り扱っておらず,果たしてどのような意味機能をもったものならばガ格・ヲ格・二格との意味的対応関係が取れるものなのかについて, 網羅的な結論を即座に出すことは難しい。しかし, もし, 述語項構造を, 述語と項の間の意味的関係の同一性を示すための表現として用いようとするならば,「名詞+格助詞」や「形容詞」といった統語上の区分にかかわらず,同一の意味機能を持つものには同一の関係ラベルを与えるのがよいかもしれない. これは将来発展的に, 主題役割のような, より意味機能的なラべルを用いてアノテーションスキーマを設計しょうとする際には十分検討されるべき課題である。 ## 5.3 格及び格フレームの曖昧性解消・必須項の見落とし ## 5.3.1 A の B, 連体節,ゼ口照応等における格フレームの曖昧性 ある述語が複数の格フレーム候補を持つとき,その述語が, A の B・連体節・項のゼロ照応などの形を取った場合,アノテーション時にどの格フレームを選択すべきかについて曖昧性が生じる. (34) a. 自他交替:パソコンの起動 $\rightarrow$ パソコンが起動する/パソコンを起動する b. 道具格交替:ドアを開けた鍵 $\rightarrow ($ 誰かが)鍵で開ける/鍵が開ける c. 他動詞/自動詞 + 使役:政府による経済再生 $\rightarrow$ [政府别が [経済ョ] を再生する/[政府追加加が [経済加をを再生させる d. その他:私が教える生徒 $\rightarrow$ 生徒を教える/(何かを)生徒に教える また,述語によっては,同一の意味機能を持つ項に対して複数の格助詞が代替可能である場合がある. (35) a. 私が/から話す b. 太郎に/からもらう c. 風に/で摇れる花びら d. 土台に/とくっつける この例では, ガ・ヲ・ニの間で代替可能なものはないが, 仮に今後付与対象の格助詞を拡充することを考える際には,このような曖昧性を生み出す要素に対してどのように一貫したアノテー ションを行うかを考慮する必要がある. ラべルの選択に本質的な曖昧性が出る場合には, ある基準にもとづいて(例えば,出現頻度順や,アノテーションコストが低くなるように,などで)決めた規則に従って,付与するラべルが一意に定まるようにするのが一般的である。しかし,前者の格フレームの曖昧性については,文脈によってはどちらか一方の格フレームの方が他方での解积よりも自然な場合があり,その ような場合は適切な解釈となる格フレームを選ぶのが好ましいと考えられる。一方で,文脈の曖昧さによってはアノテータ間の意見が一致しない場合もありうるし, 当然, 本質的にどちらに解釈しても自然な場合もある。そのような事例に対しては, 自動解析器の学習や評価時に適切な取り扱いができるように配慮しなければならない(どちらの解釈でも正解として学習・評価するなど). このような場合に総合的に配慮した対策を検討してみる。例えば前者の格フレーム間の曖昧性については,(i) 事前に述語ごとの格フレーム辞書を用意しておくか,代表的な格フレーム交替についての名称を列挙しておき, (ii) アノテーション時に, 複数の格フレームで判断に迷うものや本質的に曖昧なものについては,その交替の候補を列挙し, (iii) 自己の判断,もしくは規則に従った判断で選んだ格フレームで格関係をアノテートする,という方法で,本質的に曖昧な事例と,規則や主観にもとづいた上での不一致を弁別することができる. 次に,後者の代替可能な格に関するアノテーションを検討するため,今,仮に,ラベルの数を拡張し,ガ・ヨ・ニ・カラ・デ・トの 6 つの表層格を使ってアノテーションを行っている場合を考える. この 6 つのラベルに対して,ガ・ヲ・ニ>カラ>ト>デなどの半順序を与えることで規則的にこれを解消することもできるが,文中で, (36) 彼には私から話しておく。 と格助詞「から」を伴って出てきている事例に対して, これを「ガ格」として正規化するためには,アノテータは事例毎に対象の述語に関する格フレーム辞書を想起し,格の交替関係を確認せねばならず,アノテーションのコストが大きい。したがって,作業コストの観点からすれば,少なくとも,述語が原形で使用されているもので,項が格助詞を伴って現れる場合には出現形の格でアノテートし, 受身・使役などで格交替しているものや, ゼロ照応などで元の格助詞が不明なものに関しては,上記の半順序規則を適用するなどといった方法が好ましいと考えられる。一方で, 解析器の学習や評価を行うときの観点からすれば, ラベル付与時に格を正規化しない場合に,格に意味的な一貫性を持たせて取り扱う,もしくは曖昧な格のうちいずれの格でも本質的に正しいという取り扱いをするためには, 別途格フレーム辞書等に述語毎の格の交替情報を記述しておくなどする必要がある。 ## 5.3.2格フレーム辞書とアノテーションの一貫性 NTC や KTC のアノテーションでは,被連体修飾詞やゼロ代名詞として出現する項など,明示的に格助詞を伴わなかったり,対象の述語と何らかの統語的関係を伴わない項に関しても格関係の付与を行う。ただし,開発作業時点では,ある述語の取り得る格(格フレーム)につい て参照できる辞書等が存在しなかったため ${ }^{19}$, アノテータは内省に頼りながら, 文章中からその述語に足りない項を補う作業を必要とした。しかし, 一つ一つの述語の格フレームの定義をアノテータの内省に頼る方法には限界があり,その影響は 3.2 節表 3 の NTC の作業者間一致率においても,ゼロ照応項の不一致という形で顕著に見られる. 述語項構造アノテーションの一貫性を今以上に向上させるためには, 予め各述語に対して正確な格フレーム辞書を定義しておくなどして, 全てのアノテータが共有する共通の語彙知識ベー スを整備する必要がある.実際に,NTC ガイドライン準拠のアノテーションを BCCWJに対して行った研究 (小町, 飯田 2011) では, 既存の格フレーム辞書を一部参照することによって, 作業者間一致率に一定の向上が得られたとしている. 作業の上で参照する格フレーム情報はできるだけ精緻なものが求められるが, 一方で, 大規模な文章に対する述語項構造アノテーションを行うにあたって, ある述語の様々な言語現象を網羅した実用に耐えうる頑健な格フレーム辞書を人手で用意するには膨大なコストを必要とする。整備コストを抑えた方法として,大規模な文書データから自動的に格フレームを獲得する研究が存在するが (Kawahara and Kurohashi 2006), 獲得したフレームにはノイズも存在するため, アノテーション作業での運用には工夫が必要である. アノテーションを行う全てのデータができるだけ正確となるよう運用するのが最も望ましいが,現実的な面で言えば,例えば,初期の段階では,全体からサンプルした一部のデータに出現する述語のみ,あるいは主要語のみに絞るなどして,一部の述語に対してのみ精緻な格フレーム辞書を作ってアノテーションを行う方法が考えられる。この場合, 精密なアノテーションデー 夕は評価用のデータとして整備し, 残りの部分は自動獲得した格フレーム等を参考にしながら大規模にアノテートするなど,質と量の双方を兼ね備えるコーパスを設計する方法が好ましいと考えられる。このような方法論は BCCWJ のコアデータとデータ全体の間の関係などにも見られる。 ## 5.3.3非文へのアノテーション アノテーション対象のデータには,場合によっては一部非文(らしき文)も含まれる。このような文に対してどのようなアノテーションの方針を取るのかについても考慮の余地がある. (37) a. 服を乾燥する(受容の余地あり) b. ガラスを壊れる(マークされている意味機能的に受容出来ない) 例えば,一般には「乾燥する」は自動詞だとされているが,(37a)のような用例は Web上には多数見られる。一方で, $(37 \mathrm{~b})$ の「壊れる」のように, 形態論上は自動詞の形を取っているにも  かかわらず格助詞「を」を取るような構造の文は相対的に受容しがたい。このような文に対して,(i)アノテートするかということと, (ii) どのような文を非文とみなすかということが問題となる。(i) に関しては,現実にデータ上に存在する事例であり,応用事例によっては特によく使われている過ちは頑健に解析したいという場合もあるため,書かれたままの表層格を基にアノテートする方法が望ましいと思われる。(ii) に関しては,我々の知る限り,現在までに非文というものの明確な定義は存在せず,個人の内省にもとづいて判断されるもののため,例えば,非文かどうかの判断はアノテータに任せ,代わりに非文と判断された事例を記録しておくことで,必要に応じてデータを区分できるようにしておくような方法が有用と考えられる。 ## 5.4 新聞ドメイン以外で見られた現象 本節では,新聞記事以外のドメインに対する試験的なアノテーション作業において現れた,既存のガイドラインで対象としていない項目についてまとめる。このことについて我々が分析の対象としたデー夕は Wikipedia 及びBCCWJ コアデー夕20 より収集した 1,000 1,200 文程度であるため,各項目の事例を網羅的に収集するに至ったとは言い難い,従って,ここではそれぞれの項目についての現象の説明をするにとどめ,具体的な考察については今後の課題とすることにした. また, 今回の分析に用いた新ドメインの文章量は, 新聞ドメイン以外で新たに必要となる基準を多岐にわたって示すには十分ではないが,一般にはドメインごとに少なからず特定の言語現象の分布に偏りがあるなど,各ドメインは特有の性質を持つ場合が多い,このため,アノテー ションガイドラインを新ドメインに対応させるためには,それぞれのドメインにおける十分な量の個別事例を収集し分析するとともに,同ドメインにおけるアプリケーションからの要請等も検討しながら適切な仕様を策定していく必要がある. ## 5.4.1述語の省略 口語的な文においては,文末の述語が省略され,項のみが残されるというケースがよく見られる。 (38) タモリさんから、「これは誰から?」と聞かれた。(「賈ったの」の省略?) このような例で省略されている述語が文脈上容易に想像できる場合,何かしらの述語を補うか, あるいは「述語-非出現」などのラベルを用意して対応する格をアノテートするか,そもそも項構造を解析しないか,ということが議論の対象となる。述語省略の究極的なケースとしては (39) a. これはい。 b. それはちょっとい。  などがあり,このような場合は,述語が何であるかのみならず,残された格が何格であるかすら推定が難しい場合があるため,どこまでがアノテーションを行って有用な情報となるかの判断は難しい. ## 5.4.2 疑問文の照応 対話文においては,疑問文とその回答の間での照応も存在する. (40)a.「あれは誰?」「彼は山田太郎だよ」 b. 「誰からもらったの?」「太郎からだよ」 $\mathrm{NTC}$ $\cdot$ KTC においては,現在のところ疑問文に対する照応関係の取り扱いはない,共参照・照応については本論文での議論の範疇外としたが, 対話文の多いドメインに対して照応・述語項構造を付与する場合は, 疑問文とその回答に対するアノテーション仕様も考慮する必要が出てくる. ## 5.4.3 音象徵語 次の例のように,音象徴語が开変名詞のように振る舞い,述語として現れる場合がある。そのような場合, 音象徴語にも述語項構造をアノテートすることが考えられるが,事例によっては,副詞的振る舞いとサ変名詞的振る舞いのどちらと取るか判断に迷う場合があった. (41) a. [胸ガ] がドキドキする b. [胸ガがドキドキ d. [胸ガ] がドキドキと高鳴る音(副詞用法) サ変名詞的振る舞いをする場合, 副詞的振る舞いをする場合の他, その他の音象徵語の統語的振る舞いについて, 述語として認定するための明確なガイドラインを整備する必要がある. ## 6 見通しの良いフレームワークの設計 より質の高いアノテーションを目指してガイドラインを改善していくことを考えた場合, 対象のガイドラインは,その中で示されるそれぞれの基準がどのような視点で採用されたのかが明確に分かるものでなければならない。また, 仕様策定時の理念をコーパス作成者の中で閉じた情報とせず,広く研究者間で共有できる形に整理することにより,継続的な議論が可能になると考える。 このような背景から, 本節では, 述語項構造アノテーションを題材とすることで集約した, アノテーション仕様及びガイドラインの策定時に配慮されるべき基本方針を述べる。これらは,議論に関わった研究者らが種々のアノテーションタスクの設計を通して経験的に理解している 図 1 設計の基本方針と各論点との対応関係 事柄を集約したものであり,複雑でアノテーションコストが高く,また,現象の網羅のために大規模なアノテーションを行う必要がある同様のタスクに対しても有用なものである. 6.1 節では,5 節の議論から集約したガイドライン策定上の着眼点を,各論点との対応関係を示しながら述べる。図 1 には, 6.1 節で説明する設計の基本方針と 5 節で示した各議論との対応関係をあらかじめまとめた, 6.2 節では,議論全体を俯瞰する目的で, 5 節で議論した内容にもとづいた述語項構造アノテーションのフレームワークの具体的な一例を示す. ## 6.1 大規模アノテーションタスクに関するガイドラインの設計時に考慮すべき こと A. データ内の現象に関する取り扱いの網羅性(5.1.1 節,5.1.2 節,5.1.3 節,5.2.3 節,5.2.4 節):大規模なデータに対してアノテーションを施す場合, そのデータ内で起こりうる, 判断に特別のガイダンスを必要とする現象に対して,現状のガイドラインがその現象のそれぞれの事例を十分に被覆できるかどうかについて十分な配慮が必要である. 特に,アノテーションの判断の決め手が,単語の意味や,慣用表現など,言語の生産的な部分に関与している場合には,予め判断基準が列挙しつくせない場合もある。 その場合,アノテーション作業中に逐次的にガイドラインの一部を更新・反映する仕組みについても考慮する必要がある. 綿密に判断基準を決めるべき特定の現象があるとき,そのバリエーションが,事前に少量の努力もしくは既知の知識で列挙可能かどうか, 非生産的で有限個なのか, あるいは生産的なのかについて考察し, もし, 事前列挙不可能な場合は,作業中に新たなバリエーションを発見した際に他の基準に極力影響しない形でガイドラインを更新する方法についてもフレームワーク の設計時点で考慮する必要がある. B. 利用目的とアノテーション仕様の関係(5.1.1 節,5.1.3 節,5.2.5 節):テキストに対するアノテーションを考えたとき,一般には,利用目的が異なれば,それに応じて必要になるラべル情報も異なる,必要な情報のみを表現するラベルセットを作成し,不必要な情報の付与は避けるのが自然なスキーマ設計の方法である。述語項構造のような基本的構造のアノテーションにおいても,同様の考え方は必要である,例えば,次に挙げる応用処理においては,述語項構造のどの部分の情報を用いたいか, どのような目的で用いるかによって, ラベル付与の基本単位や前提となる意味論の精密度が異なる. - 機械翻訳:フレーズベースで翻訳する場合には, 複合語内部の項構造情報は比較的必要性が低い. また, 項のラベルについては, 基本的には表層格のレベルで十分な場合が多い. 日英の場合, 省略 (ゼロ照応) 解析は重要課題とされる. - 含意関係・言い換え認識:複合語内部も分解して解析する必要がある.場合によっては,項構造が意味役割のレベルで表現されるのが望ましい. 述語項構造のような基本的な構造をアノテートする際は, 様々な応用の可能性を想定しなければならない. また, このようなそれぞれの応用処理からの異なる要求に対し, 柔軟にアノテー ションの方法を提供でき, かつ, 仮にアノテーションがタスク志向で行われた場合にも, 最終的に夕スク個別のアノテーションデータを統合できるようなフレームワークであることが好ましい. C. 段階的に質と情報密度を向上できるフレームワーク(5.2.4 節, 5.2.5 節, 5.2 .6 節): 述語項構造や語義のアノテーションのように,アノテーションコストの非常に高いタスクでは,人的資源の制約から,一部の現象のみに対象を絞って初期のアノテーションが行われる場合もある (Pradhan, Loper, Dligach, and Palmer 2007). また, 解析のための理論自体が未解決なタスクの場合, 全ての問題点が解決するのを待たずに,判断の境界が明確な部分についてのみアノテー ションを進めるという方法が取られる場合もある. こうしたアノテーションタスクにおいては, アノテーションスキーマを順次拡充・変更し, 段階的に新しいタイプの情報を付加していける設計のほうが好ましい. しかし,そのような設計の実現のためには,実際には仕様設計の初期段階においても,将来追加される情報をある程度想定し, 表現の親和性や, データの自然な統合方法について配慮しておく必要がある。仮に問題を全て解決せずとも, タスク内で起こりうる現象について把握し, 可能な限りスキーマ拡張のためのインターフェースを用意しておくのがよい. D. 本質的に曖昧な選択肢に対する作業の一貫性・評価(5.2.1 節,5.3.1 節,5.3.3 節):ある現象に対してアノテーションを行うとき, 複数の選択肢に関して, 理論的な要請も特になく, 応用処理の観点からもどちらの選択肢を取っても問題ない場合がある。このような場合にどちらの選択肢を選ぶかの基準を設けなければ,曖昧性のために見かけ上の作業者間一致率が低下す る。また, 明確に判断可能な事例と本質的に曖昧性のある事例が混在することで,解析システムの評価時にも,各事例において,解析誤りのために精度が低いのか,夕スク自体が持つ曖昧性のために精度が低いのかの判断が難しくなる. したがって,このような事例に対して,作業の一貫性を与える,もしくは適切な評価手法を与える配慮が必要である。一般に,ラベルの選択に曖昧性がある場合には,選択に優先順位を定義するなど,ラベルが一意に定まるような規則を決める方法が取られる.結果,一致率が向上し, 応用処理に用いる際も一貫した利用方法を考えることができる。もう一つの解決策は,本質的に曖昧な事例が出現した際に,その事例が曖昧であることを示しておくことである。そうすることで,曖昧な事例に関しては評価に含めない,あるいはどちらでも正解とみなすなどして, 一致率, 精度の評価がより適切に行えるようになる。 E. 作業上のコストや作業者が直面する選択肢数をできるだけ減らすフレームワーク(5.1.1 節, 5.1.3 節, 5.3.1 節) : 複雑で作業コストが高く, また, 表現のバリエーションや頻度分布を観測するために大規模な事例数が必要な夕スクにおいては,限られた資源を用いてより多くのデータを作成できるよう,いかにその作業上のコストを下げるかを検討することも重要な課題の一つである。加えて,作業者に複数の選択肢から一つを選ぶような判断を迫る場面においては,できるだけ選択肢を事前に絞り込み,不要な迷いを避ける工夫が,作業効率の面だけでなく作業結果の一貫性を向上させる意味でも必要不可欠である (Bayerl and Paul 2011). F. データ量と質のコントロール(5.3.2 節):前述のとおり,大規模なアノテーションを行うためには,一つ一つの事例に対して大きな作業コストのかかる方法を気軽に採用することは難しい. 一方で, 述語項構造のような基礎的な構造の分析に関しては, 解析システムの正確な評価のために,できるだけ高品質なデータが必要とされることも確かである。このような, データ量と品質のトレードオフをどのような方針で管理するかについても考慮が必要である. ## 6.2 述語項構造アノテーションフレームワークの一案 本節では,考察結果全体を俯瞰する目的で,5 節での個別の論点への考察を通して導かれた述語項構造アノテーションフレームワーク全体の具体的な設計の一案について述べる。ただし, このフレームワークは議論の中で出された複数の選択肢のうちの一つを組み合わせたものであり,議論の唯一解を示すものではないことに注意されたい. 図 2 には,その全体像を示した。これは,これまでの議論をふまえて精査し・修正したガイドラインと共に, 複数の述語-項関係ラベルセット, 異なるラベルセット間のラベルの対応関係,複数の質の異なる格フレーム辞書,機能表現・慣用表現等に関する辞書などを保持し,アプリケーションで必要な情報に応じて柔軟に運用できるよう配慮された設計となっている. 図 2(a)の部分では, 機能表現, 複合語内項構造, 慣用表現など, 個々の事例に判断を要し, かつ事例のバリエーションが豊富なものに対して, 既存の言語資源をべースとするなどして予 図 2 述語項構造アノテーションフレームワークの一案 め取り扱いの指示を定めた辞書を用意しておく,そうすることで,テキスト内で該当する可能性がある箇所を自動チェックし,作業漏れの抑制,アノテーションの半自動化を行うことができる。この辞書は,アノテータ間に共通の判断を強制する効果があり,その結果,各事例について一貫した作業結果を得ることができる。複合語内部の述語項構造など, ほとんど全ての事例に同一の関係しか認められないものについては, その項構造を辞書的に保持することで, アノテータが事例毎に自明なアノテーション作業を行うことを避けることもできる。アノテータは辞書の規則に反する一部の例外のみを作業するだけでよい。また,辞書に未収録の事例が出現した時点で辞書エントリを追加し,コーパスを再チェックする仕組みを作成しておく. 図 2(b) の部分では,格の情報に関して二つのことを管理する。一つ目は,格フレーム辞書の管理である。必須格の見落としなどの作業の摇れを防ぎ,作業者間一致率を向上させるため,各述語の語義ごとに取り得る格をあらかじめ列挙した辞書を作っておく.この辞書は, 図 $2(\mathrm{~d})$ の部分で述べる格の曖昧性の管理にも有効である。 二つ目は,アプリケーションの用途に応じて異なるラベルセットで行ったアノテーションについて,データをマージしたり, 新たに追加で別のラベルセットを用いてアノテートする際, 最小限の追加作業でアノテーションを行えるよう,異なるラベルを持った格フレーム辞書間での格の対応関係を管理する.格の対応関係表には,各述語のフレームに対する異なるラベルセッ ト間での格ラベルの対応関係が記述される。例えば, 述部出現形の表層格(KTC 形式)と述語原形の表層格(NTC 形式)の対応関係であれば,表 6 のような情報である. この情報は,人手,または自動的な方法のいずれかで構築する。格ラベルの対応表と,変換に必要な付加情報(語義・態・アスペクト・ムードなど)が用意できれば,いずれのラベルセットを使ってアノテートしておいても用途に応じた適切な粒度のラベルに変換して取り出すことができるようになる。ただし,それぞれの辞書が精緻に作成されていない場合, 5.2 .5 節で述べるような変換上の問題も存在する. このような対応関係表の作成が現実的に難しい場合でも,代替的な方法として,例えば,述部出現形の表層格と述語原形の表層格の場合には,格の交替が起こりえない状況を列挙しておくなどすることで,同一の文章に異なるラベルセットでアノテーションを追加する際に一意にラベルの対応が取れる箇所のアノテーションを省略することができる. 図 2(c) の部分では,コーパスの量と質のバランスを管理する。全データ中の $n \%$ ,あるいは主要な $m$ 語への述語項構造といった方法でコーパスを区分し,一定量のデータに対しては大規模コーパスの調査などから人手で構築した精緻な格フレーム辞書を用意する。これを参照して作業することで作業者間一致率を上げ,また,アノテーション結果の多重チェックを行うなどして精密な分析・評価用データとして確保する。その他のデータは, 従来通り格フレームと関連付けない,もしくは人手や自動獲得によって作られた既存の格フレーム辞書を参考情報としてアノテートするなどして,質と量の双方をバランスよく確保する。 図 2(d) の部分では, ラベル付与の本質的な曖昧性を管理する。曖昧な事例といっても,事例によっては本質的に完全に曖昧な場合もあれば,文脈上いずれかの選択肢が優勢と判断できる場合や,その中間のようなあやふやな場合もある。したがって,これらを区別するために次の三つの付与方法を用意する。 (1)アノテータが文脈に応じて疑いなく一つの選択肢を選ぶ場合, 曖昧性を示唆するマーカー 表 6 述語「加える」に関する述部出現形表層格と述語原形表層格の対応関係 を付けない. (2)アノテータがいずれかの選択肢が優勢と感じたものの,はっきりと判断出来ない場合は,優位なラベルを 1 st とし,その他の候補を others 欄に列挙する。 (3)アノテータが文脈上完全に曖昧だと判断した場合は,予め決めておいた順列に従って付与するラベルを選ぶ。 その際は, 曖昧であることを示すマーカーを付け, 他の候補も列挙しておく. こうしておくことで, どの事例が曖昧で, どれがそうでないのか明確に区別できる上, 本質的に曖昧な事例については統一的にラベルを振ることで, 解析器の学習を行う際や解析器の出力を応用処理に用いる際も一貫した利用方法を考えることができる.ラベルの順列を決める場合は,極力簡潔な方を選ぶ(例えば,項の数がより少ない格フレームを選ぶ,使役・受身より原形, 他動詞より自動詞, 自動詞 + 使役より他動詞を選ぶ)ように規則を決めておくことにより, アノテータの判断時の負荷を下げる工夫をする。 格フレーム辞書として精緻なフレームを用意している場合は,格の曖昧性を格フレーム側で管理する。例えば,図 $2(\mathrm{~d})$ の 2 文目では「起動」に自動詞と他動詞の解釈があるが,アノテー タが文脈上曖昧と判断した場合はこれに「自動詞・曖昧」とマークし,「パソコン」には,自動詞時の解釈であるガ格を割り当てる。格フレームには,自他交替など曖昧な格についての交替関係を記述しておくことで,仮に他動詞と判断した場合には「パソコン」がヲ格となることを知ることができるため,解析システムの評価時にも公平な評価が行える. 以上の設計の他に,5 節の議論の結果から, 段階的な質・情報密度の向上を行う際の問題の切り分け方と作業の優先順位を設定する. (1) 動詞・形容詞・コピュラ・サ変の体言止めの項構造アノテーション(慣用句と思う事例はチェックしておく)(複合語は分解せず,語の外側に出現する項のみアノテーション) (2) 複合語の分解 (辞書的処理) (3)イベント性名詞の項構造アノテーション(転成名詞・升変名詞) (4) 慣用句の収集・整理・述語化 (5)照応・共参照情報に関わる整備(本論文の範疇外) (6) 二格相当の形容詞 (7) 必須格と周辺格の区別 (8) 意味役割によるアノテーション このように,ラベル付与の判断がより明確な部分から段階を踏んでアノテーションを行うことによって, より複雑な現象についてコーパス内の事例を収集し, 問題を分析しつつ設計を進めることができる。 6.1 節で示したとおり, これらの個々の取り決めの一例は, ガイドライン設計時の指針や個別に行った議論と明確に結びついている。このような形で設計の理念・問題の議論・対応する規 定の間の関係を明文化して示すことで,継続的・建設的に仕様やガイドラインを改善するための議論を重ねることが可能となる. ## 7 まとめ 本論文では,より洗練された述語項構造アノテーションのガイドラインを作成する目的で, NTC ・ KTC の仕様策定, 仕様準拠のアノテーション, 応用処理に関わった研究者, アノテー 夕らの考察を基に,議論の対象となる点を整理した,具体的には,既存のガイドラインを用いた新規アノテーションによる考察と,研究者・アノテータが経験的に持つ知見を集約するという方法の二つの方法で,既存のガイドラインからは簡潔に解決出来ない問題として 4 種 15 項目の論点を洗い出し,それぞれの論点について現状の問題点やそれに対する改善策を議論し報告した。議論結果を整理するにあたっては,ガイドライン策定の基準となる着眼点を示し,議論内容や, 結論との対応関係を示すことで, 将来のガイドライン改善に向けて建設的な知見となることを目指した. 本論文で示すアノテーションガイドライン改善のための論点の洗い出し方法は, 現行のアノテーションガイドラインにもとづいてラベル付与を行った際の一致率を問題視して行った手法であったため, 既存のガイドライン, もしくはその簡単な修正版によって明確にアノテーション規則が定まるものに関しては議論の対象としてあまり取り上げていないが, 6.1 節で示した「利用目的とアノテーション仕様の関係」を仕様改善の指針として想定すれば,仕様の改善点は必ずしも作業の一致率という観点のみで推し量られるべきものではなく, コー パスの利用目的調査などに基づく仕様の改善や新たな付加情報の列挙も試みられるべきである. したがって,ここに記した問題が残る問題の全てとは言えないが,こうした建設的な考察の積み重ねによって,実用に耐えうる一貫性を持ったアノテーション方針が作られるとともに,統一的かつ頑健な言語解析理論の基礎が積み上がるものと信じるものである. 我々の考察の手順や結果を例に取ると, 問題点の洗い出しの方法論や, ガイドライン作成時の理念など,アノテーションに関わる科学は, 未だ経験的知見によるところが大きい. しかし,近年では,アノテーションタスクの複雑度や,一致率に影響する因子などに客観的指標を与えようと試みる研究も見られる (Bayerl and Paul 2011; Fort, Nazarenko, and Rosset 2012). 6.1 節において,我々が経験的知見によりガイドライン設計の指針としている事柄についても,広く一般的に成り立つ指針として, 客観的指標で評価できるような仕組みを生み出していくことも今後の課題である。 ## 参考文献 浅原正幸, 松本裕治. ipadic version 2.6.3 ユーザーズマニュアル.http://chasen.naist.jp/ stable/doc/ipadic-2.6.3-j.pdf. Accessed: 2014-02-19. Bayerl, P. S. and Paul, K. I. (2011). "What Determines Inter-Coder Agreement in Manual Annotations? A Meta-Analytic Investigation." Computational Linguistics, 37 (4), pp. 699-725. Burchardt, A. and Pennacchiotti, M. (2008). "FATE: a FrameNet-Annotated Corpus for Textual Entailment." In Proceedings of the 6th Edition of the Language Resources and Evaluation Conference (LREC 2008), pp. 539-546. Carreras, X. and Màrquez, L. (2005). "Introduction to the CoNLL-2005 Shared Task: Semantic Role Labeling." In Proceedings of the 9th Conference on Computational Natural Language Learning (CoNLL 2005), pp. 152-164. Fort, K., Nazarenko, A., and Rosset, S. (2012). "Modeling the Complexity of Manual Annotation Tasks: A Grid of Analysis." In Proceedings of the 24th International Conference on Computational Linguistics (COLING 2012): Technical Papers, pp. 895-910. グループ・ジャマシイ(編)(1998). 教師と学習者のための日本語文型辞典. くろしお出版. 橋田浩一. GDA 日本語アノテーションマニュアル草稿第 0.74 版. http://i-content.org/gda/ tagman.html. Accessed: 2014-02-19. 橋本力, 黒橋禎夫, 河原大輔, 新里圭司, 永田昌明 (2009). 構文・照応・評判情報つきブログコーパスの構築. 言語処理学会第 15 回年次大会論文集, pp. 614-617. Hashimoto, C. and Kawahara, D. (2008). "Construction of an Idiom Corpus and its Application to Idiom Identification based on WSD Incorporating Idiom-Specific Features." In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing (EMNLP 2008), pp. 992-1001. 林部祐太, 小町守, 松本裕治, 隅田飛鳥 (2012). 日本語テキストに対する述語語義と意味役割のアノテーション. 言語処理学会第 18 回年次大会論文集, pp. 397-400. Hovy, E., Marcus, M., Palmer, M., Ramshaw, L., and Weischedel, R. (2006). "OntoNotes: the 90\% Solution." In Proceedings of the Human Language Technology Conference of the North American Chapter of the ACL (HLT-NAACL 2006), pp. 57-60. 飯田龍, 小町守, 井之上直也, 乾健太郎, 松本裕治. 照応関係夕グ付けマニュアル第 0.02 .1 版. https://www.cl.cs.titech.ac.jp/ ryu-i/coreference_tag.html. Accessed: 201402-19. 飯田龍, 小町守, 乾健太郎, 松本裕治 (2008). 名詞化された事態表現への意味的注釈付け. 言語処理学会第 14 回年次大会論文集, pp. 277-280. 飯田龍, 小町守, 井之上直也, 乾健太郎, 松本裕治 (2010). 述語項構造と照応関係のアノテー ション:NAIST テキストコーパス構築の経験から. 自然言語処理, 17 (2), pp. 25-50. Iida, R., Komachi, M., Inui, K., and Matsumoto, Y. (2007). "Annotating a Japanese Text Cor- pus with Predicate-Argument and Coreference Relations." In Proceedings of the Linguistic Annotation Workshop (LAW '07), pp. 132-139. Iida, R. and Poesio, M. (2011). "A Cross-Lingual ILP Solution to Zero Anaphora Resolution." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics (ACL 2011), pp. 804-813. 池原悟, 宮崎正弘, 白井諭, 横尾昭男, 中岩浩巳, 小倉健太郎, 大山芳史, 林良彦(編)(1997).日本語語彙大系. 岩波書店. 泉朋子,今村賢治,菊井玄一郎,藤田篤,佐藤理史 (2009). 正規化を指向した機能動詞表現の 述部言い換え. 言語処理学会第 15 回年次大会論文集, pp. 264-267. 情報処理振興事業協会技術センター (1987). 計算機用日本語基本動詞辞書 IPAL (basic verbs): 辞書編. 情報処理振興事業協会技術センター. 河原大輔,黒橋禎夫,橋田浩一 (2002).「関係」夕グ付きコーパスの作成. 言語処理学会第 8 回年次大会論文集, pp. 495-498. 河原大輔, 笹野遼平, 黒橋禎夫, 橋田浩一. 格・省略・共参照夕グ付けの基準. http://nlp.ist. i.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus4.0/doc/rel_guideline.pdf. Accessed: 2014-02-19. Kawahara, D. and Kurohashi, S. (2006). "Case Frame Compilation from the Web using HighPerformance Computing." In Proceedings of the 5th International Conference on Language Resources and Evaluation (LREC 2006), pp. 1344-1347. Kawahara, D., Kurohashi, S., and Hasida, K. (2002). "Construction of a Japanese Relevancetagged Corpus." In Proceedings of the 3rd International Conference on Language Resources and Evaluation (LREC 2002), pp. 2008-2013. 国立国語研究所. 現代日本語書き言葉均衡コーパス (BCCWJ). http://www.ninjal.ac.jp/ corpus_center/bccwj/. Accessed: 2014-02-19. 小町守, 飯田龍 (2011). BCCWJ に対する述語項構造と照応関係のアノテーション. 日本語コー パス平成 22 年度公開ワークショップ, pp. 325-330. 黒橋禎夫, 長尾眞 (1997). 京都大学テキストコーパス・プロジェクト. 言語処理学会第 3 回年次大会論文集, pp. 115-118. Laparra, E. and Rigau, G. (2013). "ImpAr: A Deterministic Algorithm for Implicit Semantic Role Labelling." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (ACL 2013), pp. 1180-1189. Liu, D. and Gildea, D. (2010). "Semantic Role Features for Machine Translation." In Proceedings of the 23rd International Conference on Computational Linguistics (Coling 2010), pp. 716-724. Loper, E., Yi, S.-T., and Palmer, M. (2007a). "Combining Lexical Resources: Mapping between PropBank and VerbNet." In Proceedings of the 7th International Workshop on Computational Semantics (IWCS-7), pp. 1-12. Loper, E., Yi, S.-T., and Palmer, M. "SemLink 1.1." http://verbs.colorado.edu/semlink/. Accessed: 2014-02-19. Marcus, M., Kim, G., Marcinkiewicz, M. A., MacIntyre, R., Bies, A., Ferguson, M., Katz, K., and Schasberger, B. (1994). "The Penn Treebank: Annotating Predicate Argument Structure." In Proceedings of the Workshop on Human Language Technology, pp. 114-119. Marcus, M. P., Marcinkiewicz, M. A., and Santorini, B. (1993). "Building a Large Annotated Corpus of English: The Penn Treebank." Computational Linguistics, 19 (2), pp. 313-330. Màrquez, L., Carreras, X., Litkowski, K. C., and Stevenson, S. (2008). "Semantic Role Labeling: an Introduction to the Special Issue." Computational Linguistics, 34 (2), pp. 145-159. Matsubayashi, Y., Miyao, Y., and Aizawa, A. (2012). "Building Japanese Predicate-argument Structure Corpus using Lexical Conceptual Structure." In Proceedings of the 8th International Conference on Language Resources and Evaluation (LREC 2012), pp. 1554-1558. Matsumoto, Y. (1996). "A Syntactic Account of Light Verb Phenomena in Japanese." Journal of East Asian Linguistics, 5 (2), pp. 107-149. 松吉俊, 佐藤理史, 宇津呂武仁 (2007). 日本語機能表現辞書の編纂. 自然言語処理, $14(5)$, pp. 123-146. Meyers, A., Reeves, R., Macleod, C., Szekely, R., Zielinska, V., Young, B., and Grishman, R. (2004). "The NomBank Project: An Interim Report." In HLT-NAACL 2004 Workshop: Frontiers in Corpus Annotation, pp. 24-31. Moor, T., Roth, M., and Frank, A. (2013). "Predicate-specific Annotations for Implicit Role Binding: Corpus Annotation, Data Analysis and Evaluation Experiments." In Proceedings of the 10th International Conference on Computational Semantics (IWCS 2013): Short Papers, pp. 60-65. 森田良行, 松木正恵 (1989). 日本語表現文型一用例中心・複合辞の意味と用法. アルク. 村木新次郎 (1991). 日本語動詞の諸相. ひつじ書房. 村木新次郎, 青山文啓, 六条範俊, 村田賢一 (1984). 辞書における格情報の記述. 情報処理学会研究報告. 自然言語処理研究会報告, 1984 (46), pp. 1-8. 日本語記述文法研究会 (編) (2009). 現代日本語文法, 2 巻. くろしお出版. 西山佑司 (2003). 日本語名詞句の意味論と語用論: 指示的名詞句の非指示的名詞句. ひつじ書房.小原京子 (2013). 日本語フレームネット:文意理解のためのコーパスアノテーション. 言語処理学会第 19 回年次大会論文集, pp. 166-169. Palmer, M., Kingsbury, P., and Gildea, D. (2005). "The Proposition Bank: An Annotated Corpus of Semantic Roles." Computational Linguistics, 31 (1), pp. 71-106. Pradhan, S. S., Loper, E., Dligach, D., and Palmer, M. (2007). "SemEval-2007 Task 17: English Lexical Sample, SRL and All Words." In Proceedings of the 4th International Workshop on Semantic Evaluations (SemEval 2007), pp. 87-92. Ruppenhofer, J., Ellsworth, M., Petruck, M. R. L., Johnson, C. R., and Scheffczyk, J. (2010). FrameNet II: Extended Theory and Practice. Berkeley FrameNet Release. Sasano, R., Kawahara, D., Kurohashi, S., and Okumura, M. (2013). "Automatic Knowledge Acquisition for Case Alternation between the Passive and Active Voices in Japanese." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing (EMNLP 2013), pp. 1213-1223. 佐藤理史 (2007). 基本慣用句五種対照表の作成. 情報処理学会研究報告. 自然言語処理研究会報告, 2007 (35), pp. 1-6. Shen, D. and Lapata, M. (2007). "Using Semantic Roles to Improve Question Answering." In the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL 2007), pp. 12-21. Silberer, C. and Frank, A. (2012). "Casting Implicit Role Linking as an Anaphora Resolution Task." In Proceedings of the 1st Joint Conference on Lexical and Computational Semantics $\left({ }^{*} S E M\right)$, pp. $1-10$. Taira, H., Fujita, S., and Nagata, M. (2008). "A Japanese Predicate Argument Structure Analysis using Decision Lists." In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing (EMNLP 2008), pp. 523-532. 竹内孔一, 乾健太郎, 藤田篤, 竹内奈央, 阿部修也 (2005). 分類の根拠を明示した動詞語彙概念構造辞書の構築. 情報処理学会研究報告. 自然言語処理研究会報告, 2005 (94), pp. 123-130. 竹内孔一, 上野真幸 (2013). 日本語コーパスに対する動詞項構造シソーラスの概念と意味役割のアノテーション. 言語処理学会第 19 回年次大会論文集, pp. 162-165. 山口昌也 (2013). 複合動詞用例データベースの構築と活用. 国語研プロジェクトレビュー, $\boldsymbol{4}(1)$, pp. 61-69. Yoshikawa, K., Asahara, M., and Matsumoto, Y. (2011). "Jointly Extracting Japanese PredicateArgument Relation with Markov Logic." In Proceedings of the 5th International Joint Conference on Natural Language Processing (IJCNLP 2011), pp. 1125-1133. ## 略歴 松林優一郎:1981 年生. 2010 年東京大学大学院情報理工学系研究科・コンピュー 夕科学専攻博士課程修了. 情報理工学博士. 同年より国立情報学研究所・特任研究員. 2012 年より東北大学大学院情報科学研究科 - 研究特任助教. 意味解析の研究に従事. 人工知能学会, ACL 各会員. 飯田龍:1980 年生. 2007 年奈良先端科学技術大学院大学情報科学研究科博士期課程修了. 同年より奈良先端科学技術大学院大学情報科学研究科特任助教. 2008 年 12 月より東京工業大学大学院情報理工学研究科助教. 現在にいたる. 博士 (工学). 自然言語処理の研究に従事. 情報処理学会, 日本教育工学会各会員. 笹野遼平 : 2009 年東京大学大学院情報理工学系研究科博士課程修了. 博士 (情報理工学)。2010 年より東京工業大学精密工学研究所助教. 照応解析, 述語項構造解析の研究に従事. 情報処理学会, 人工知能学会, ACL 会員. 横野光:2003 年岡山大学工学部情報工学科卒業. 2008 年同大大学院自然科学研究科産業創成工学専攻単位取得退学. 同年東京工業大学精密工学研究所研究員, 2011 年国立情報学研究所特任研究員, 現在に至る. 博士 (工学). 自然言語処理の研究に従事. 情報処理学会, 人工知能学会各会員. 松吉俊:1980 年生. 2008 年京都大学大学院情報学研究科博士後期課程修了. 同年より奈良先端科学技術大学院大学情報科学研究科特任助教. 2011 年より山梨大学大学院医学工学総合研究部助教. 現在にいたる. 博士 (情報学).自然言語処理の研究に従事. 情報処理学会会員. 藤田篤:1977 年生. 2005 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士 (工学). 京都大学大学院情報学研究科産学官連携研究員, 名古屋大学大学院工学研究科助手, 同助教を経て, 2009 年より公立はこだて未来大学システム情報科学部准教授. 現在にいたる。自然言語処理, 主に言い換え表現の生成と認識, 機械翻訳の研究に従事. 人工知能学会, 情報処理学会, ACL 各会員. 宮尾祐介:1998 年東京大学理学部情報科学科卒業. 2006 年同大学大学院にて博士号 (情報理工学) 取得. 2001 年より同大学にて助手, のち助教. 2010 年より国立情報学研究所准教授. 構文解析とその応用の研究に従事. 人工知能学会, 情報処理学会, ACL 各会員. 乾健太郎:1995 年東京工業大学大学院情報理工学研究科博士課程修了. 同研究科助手, 九州工業大学助教授, 奈良先端科学技術大学院大学助教授を経て, 2010 年より東北大学大学情報科学研究科教授, 現在に至る. 博士 (工学). 自 然言語処理の研究に従事. 情報処理学会, 人工知能学会, ACL, AAAI 各会員. (2013 年 9 月 20 日受付) (2013 年 12 月 6 日再受付) (2014 年 1 月 17 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 長単位解析器の異なる品詞体系への適用 小澤 俊介 ${ }^{\dagger}$ ・元 清貴 $\dagger+$ ・伝 康晴柿 } 言語研究において, 新しい品詞体系を用いる場合には, 既存の辞書やコーパス, 解析器では対応できないことが多いため,これらを再構築する必要がある。これらのう ち, 辞書とコーパスは再利用できることが少なく, 新たに構築する場合が多い。一方, 解析器は既存のものを改良することで対応できることが多いものの, どのよう な改良が必要かは明らかになっていない。本論文では, 品詞体系の異なるコーパス の解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,品詞体系の異なる日本語話し言葉コーパス(以下,CSJ)と現代日本語書き言葉均衡コーパス(以下,BCCWJ)を利用して,長単位情報を自動付与した場合に生じる 誤りを軽減する方策について述べる。具体的には,CSJを基に構築した長単位解析器を BCCWJへ適用するため, CSJ と BCCWJ の形態論情報における相違点に応じ て, 長単位解析器の学習に用いる素性やラベルを改善した。評価実験により提案手法の有効性を示す。 キーワード:長単位解析,異なる品詞体系,話し言葉コーパス,書き言葉コーパス ## Adaptation of Long-Unit-Word Analysis System to Different Part-Of-Speech Tagset \author{ Shunsuke Kozawa $^{\dagger}, \operatorname{Kiyotaka~}^{2}$ Uhimoto $^{\dagger \dagger}$ and Yasuharu Den ${ }^{\dagger \dagger \dagger}$ } Existing dictionaries, corpora, analyzers are not usually applicable to research using new part-of-speech tagset in the fields of linguistic research. Dictionaries and corpora are often newly constructed. On the other hand, existing analyzers can be reused by improving them. However, it is not clear how they could be improved. This paper describes how an analyzer constructed for analyzing a certain corpus can be applied to another corpus with a different part-of-speech tagset. In particular, we improved the features and labels used to train a long-unit-word analyzer based on Corpus of Spontaneous Japanese (CSJ) by focusing on the differences between CSJ and Balanced Corpus of Comtemporary Written Japanese (BCCWJ) and applied the analyzer to BCCWJ. The experimental results show the advantage of the proposed method. Key Words: long-unit word, different part-of-speech tagset, spontaneous speech corpus, written corpus  ## 1 はじめに 近年, 言語研究において, 言語現象を統計的に捉えるため, コーパスを用いた研究が盛んに行われている.コーパスを用いた研究は, 語法, 文法, 文体に関する研究 (大名 2009 ; 小磯, 小木曽, 小椋, 宮内 2009), 語彙に関する研究 (田野村 2010), 時代ごとの言語変化を調査する通時的な研究 (近藤 2012), 外国語教育へ適用する研究 (中條, 西垣, 内山, 山崎 2006) など多岐にわたる。 コーパスを用いる研究では, 新しい言語現象を調査するには新しいコーパスの構築が必要となる。大規模なコーパスを構築する場合,人手でのアノテーションには限界があるため, 自動でアノテーションをする必要がある。既存の言語単位や品詞体系を利用できる場合は, 既存のコーパスや解析器を利用することにより,他分野のコーパスに対するアノテーション作業を軽減できる (風間, 宮尾, 辻井 2004). また, 対象分野のアノテーション済みコーパスがある程度必要なものの, 分野適応により, 解析器の統計モデルを対象分野に適合するように調整することで,他分野のコーパスに対しても既存のコーパスに対するものと同程度の性能でアノテーションが可能となる (Jiang and Zhai 2007; Neubig, Nakata, and Mori 2011). しかし, 研究目的によっては適切な言語単位や品詞体系が異なるため, 既存の言語単位や品詞体系が利用できないこともある,例えば,国立国語研究所の語彙調査では, 雑誌の語彙調査には $\beta$ 単位, 教科書の語彙調査には $\mathrm{M}$ 単位というように, どちらも形態素相当の単位ではあるが, 調査目的に応じて設計し用いている。これらの単位の概略は (林 1982; 中野 1998)に基づいてる。また, 言語現象に応じて異なる場合もあり, 日本語話し言葉コーパス(前川 2004)(以下,CSJ)と現代日本語書き言葉均衡コーパス (Maekawa 2008)(以下,BCCWJ)では異なる言語単位や品詞体系が定義されている。新しい言語単位や品詞体系を用いる場合, 分野適応の利用は難しく, 辞書やコーパス, 解析器を再構築する必要がある. これらのうち, 辞書とコーパスは再利用できることが少なく, 新たに構築する必要がある。解析器に関しては, 既存のものを改良することで対応できることが多いものの, どのような改良が必要かは明らかではない. 本論文では, 言語単位や品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして, 品詞体系の異なる CSJ と BCCWJを利用して長単位解析器を改良する. CSJ と BCCWJには、いずれも短単位と長単位という 2 種類の言語単位がアノテーションされている。本論文ではこのうち長単位解析特有の誤りに着目して改善点を明らかにする。そのため, 短単位情報は適切にアノテーションされているものと仮定し, その上で長単位情報を自動でアノテーションした場合に生じる誤りを軽減する方策について述べる.評価実験により提案手法の有効性を示し, 提案手法の異なる品詞体系への適用可能性について考察する。 本論文の構成は以下の通りである。まず, 2 章で長単位解析器を改良するために重要となる CSJ と BCCWJ の形態論情報における相違点について述べ, 3 章では CSJに基づいた長単位解析手法を説明し, CSJ と BCCWJ の形態論情報における相違点に基づいた長単位解析手法の改良点について述べる。 4 章では,長単位解析手法の改良点の妥当性を検証し,改良した長単位解析手法を評価する.5 章では, 3 章で述べた長単位解析手法を実装した長単位解析システム Comainu について述べ, 6 章で本論文をまとめる. ## 2 CSJ と BCCWJ の形態論情報における相違点 一般に, 解析器を学習したコーパスとは異なるコーパスに適用する場合, 各コーパスには同じ粒度のアノテーションが施してある必要がある。 アノテーションの粒度が異なる場合には精度よく解析できないため, 解析器を改良し, 学習しなおす必要がある。解析器の改良にはコー パス間の相違点を把握することが重要となる。本章では,CSJを基に構築した長単位解析器を BCCWJ へ適用する上で必要な改良点を把握するため, 言語単位, 品詞体系, 言語現象, 付加情報に着目して, CSJと BCCWJ を比較し, 形態論情報における相違点について述べる。 ## 2.1 言語単位 CSJ と BCCWJではともに,短単位と長単位という 2 種類の言語単位が用いられている,短単位は, 原則として, 現代語で意味を持つ最小の単位 2 つが 1 回結合したものであり, その定義は一般的な辞書の見出しに近いものである。長単位は,概ね,文節を自立語と付属語に分けたものであり,1 短単位からなるか,あるいは,複数の短単位を複合したものからなる. 短単位と長単位の例を表 1 に挙げる。表 1 は「日本型国際貢献が求められています」という文における文節,長単位,短単位の関係を表している。例えば,「日本型国際貢献」という長単位は「日本」,「型」,「国際」,「貢献」の 4 短単位から構成される. CSJと BCCWJではいずれも, 短単位と長単位という同じ言語単位を利用しているが, BCCWJ の短単位・長単位の認定規定は,CSJの規定に修正を加えたものを利用しているため,CSJ と BCCWJ の短単位・長単位は完全には一致しない. 表 1 文, 文節, 長単位, 短単位の関係 } & られ & \multicolumn{2}{|c|}{ てい } & ま \\ ## 2.2 品詞体系 CSJ と BCCWJでは大きく異なる品詞体系が利用されている,以下に CSJ と BCCWJ,それぞれの品詞体系を示す. CSJ では学校文法に基づく品詞体系が採用されており, 15 種類の品詞, 59 種類の活用型, 8 種類の活用形で構成されている (小椋, 山口, 西川, 石塚, 木村 2004). CSJ の品詞体系は以下の通りである。活用型の○にはア, カ, サ, 夕などが入る. - 品詞 (15 種類) 名詞, 代名詞, 形状詞, 連体詞, 副詞, 接続詞, 感動詞, 動詞, 形容詞, 助動詞, 助詞,接頭辞, 接尾辞, 記号, 言いよどみ - 活用型 (59 種類) ○行五段, ○行上一段, ○行下一段, 力行変格, サ行変格, ザ行変格, 文語行四段, 文語行上二段, 文語 $\bigcirc$ 行下二段, 文語力行変格, 文語サ行変格, 文語ナ行変格, 文語ラ行変格, 形容詞型, 文語形容詞型 1 , 文語形容詞型 2 , 文語形容詞型 3 , 文語 - 活用形 (8 種類) 未然形, 連用形, 終止形, 連体形, 仮定形, 已然形, 命令形, 語幹 BCCWJ は形態素解析用辞書 UniDic(伝, 小木曽, 小椋, 山田, 峯松, 内元, 小磯 2007) に準拠した品詞体系を利用しており, 品詞は「名詞-固有名詞-地名-一般」のように階層的に定義されている. 各階層は大分類, 中分類, 小分類, 細分類と呼ばれる.「名詞-固有名詞-地名-一般」 の場合, 「名詞」が大分類, 「固有名詞」が中分類, 「地名」が小分類, 「一般」が細分類である.品詞は 4 階層で定義され,大分類で 15 種類,細分類まで展開すると 54 種類ある.活用型は 3 階層で定義され,大分類で 20 種類,小分類まで展開すると 115 種類ある. 活用形は 2 階層で定義され, 大分類で 10 種類, 中分類では 36 種類ある. BCCWJ の品詞体系のうち, 大分類の体系は以下の通りである。 - 品詞 (15 種類) 名詞, 代名詞, 形状詞, 連体詞, 副詞, 接続詞, 感動詞, 動詞, 形容詞, 助動詞, 助詞,接頭辞, 接尾辞, 記号, 補助記号 - 活用型 (20 種類) 五段, 上一段, 下一段, 力行変格, 开行変格, 文語四段, 文語上一段, 文語上二段, 文語下一段, 文語下二段, 文語力行変格, 文語サ行変格, 文語ナ行変格, 文語ラ行変格形容詞, 文語形容詞, 助動詞, 文語助動詞, 無変化型 - 活用形 (10 種類) 語幹, 未然形, 意志推量形, 連用形, 終止形, 連体形, 仮定形, 已然形, 命令形, ク語法 ^{1}$ http://sourceforge.jp/projects/unidic/ } 表 $2 \mathrm{CSJ}$ と BCCWJ の名詞の比較 CSJ が階層のない単純な品詞体系を利用しているのに比べ, BCCWJでは詳細な品詞体系が利用されている. CSJ の名詞と BCCWJ の名詞を比較した例を表 2 に示す. BCCWJでは名詞は 15 種類に分類されている。また, CSJでは短単位と長単位の品詞体系が一致しているのに対し, BCCWJでは短単位と長単位の品詞体系は一部異なっている。これは BCCWJ の短単位では「名詞-普通名詞-サ変可能」や「名詞-普通名詞-形状詞可能」などの曖昧性を持たせた品詞が設けられているのに対し,長単位ではこれらを設けていないためである. ## 2.3 言語現象 CSJ は話し言葉コーパスであるのに対し, BCCWJ は書き言葉コーパスであるため,言語現象として,話し言葉と書き言葉という大きな違いがある。例えば,話し言葉の場合,フィラー や言いよどみなどが生じる。一方, 書き言葉の場合, 著者によって使われる表記が異なるため,表記のバリエーションが多い。話し言葉のコーパスである CSJ と書き言葉のコーパスである BCCWJ を比べると, 前者では人手で書き起こす際に表記摇れが吸収され表記は統一されており,後者では著者の著したテキストがそのまま使われているため表記は不統一である.次の節でこれらに関連してコーパスに付加された情報の違いを整理する. ## 2.4 付加情報 CSJ と BCCWJでは短単位に付与されている情報に多少違いがある,以下に,CSJ のみ,及び,BCCWJのみにしか付与されていない情報について述べる. CSJ には話し言葉特有の情報など, 以下の情報が付与されている. ・フィラー:フィラーに対してタグ $(\mathrm{F})$ が付与されている ( $\mathrm{F}$ え一),(F あのね $),(\mathrm{F}$ んーと) ・言いよどみ:言いよどみに対してタグ(D)が付与されている (D す)すると,(D テニ)昨日のテニスは,(D 情)情報が - アルファベット:アルファベット, 算用数字, 記号の短単位に対してタグ(A)が付与されている. (A シーディーアール; C D - R) - 外国語:外国語や古語,方言などに対して夕グ(O)が付与されている. (O ザッツファイン) - 名前 : 話者の名前や差別語, 誹謗中傷などに対して夕グ $(\mathrm{R})$ が付与されている. 国語研の $(\mathrm{R} \times \times)$ です - 音や言葉のメ夕情報:音や言葉に関するメ夕的な引用に対して夕グ(M)が付与されている. 助詞の(M は)は(M わ)と発音 一方, BCCWJでは CSJには付与されていない以下の情報が付与されている. - 語種情報:語種とは, 語をその出自によって分類したものである. BCCWJでは, 短単位に以下の語種のいずれかが付与されている. 和語, 漢語, 外来語, 混種語, 固有名, 記号 - 囲み情報:BCCWJでは, 丸付き数字(1), (2))や丸秘などの丸で囲まれている文字は内部の文字のみが短単位となっており, 囲みの情報は別で付与されている。例えば, 「1 林木の新品種の開発」は書字形では「1林木の新品種の開発」となっており, 囲みの情報は別で付与されている。 ## 3 長単位解析手法 本章では,まず,CSJに基づいて構築された長単位解析手法(従来手法)について述べ,次に,提案手法について述べる。従来手法を BCCWJに適用するためには改良が必要であり,提案手法では, CSJ と BCCWJ の形態論情報における相違点に着目した改良を行った. 長単位解析とは長単位境界, 及び, 長単位の語彙素, 語彙素読み, 品詞, 活用型, 活用形を同定する夕スクである。短単位解析では,辞書を用いることで,高精度に解析が行われてきた (Kudo, Yamamoto, and Matsumoto 2004; Den, Nakamura, Ogiso, and Ogura 2008). 長単位解析でも長単位辞書を構築することによって高精度に解析できることが考えられるが,短単位の組み合わせからなる長単位の語彙は膨大であり, 辞書の構築には膨大な労力が必要となるため, 効率的でない,そのため,短単位情報を組み上げることにより長単位解析を行う. ## 3.1 CSJ に基づく長単位解析手法(従来手法) Uchimoto らは長単位を認定する問題を, 入力された短単位列に対する系列セグメンテーション問題として捉え, チャンキングモデルと後処理に基づいた長単位解析手法を構築した (Uchimoto and Isahara 2007). 図 1 に長単位解析の流れを示す. 短単位列を入力とし,チャンキングにより長単位境界を認定する。このとき,一部の長単位に対しては品詞情報も付与する。次に,後処理によって長単位の品詞,活用型,活用形,語彙素,語彙素読みを付与する. ## 3.1.1 チャンキングモデル チャンキングモデルによって, 長単位境界を認定し, 一部の長単位に対しては品詞情報も付与するために, Uchimoto らは下記の 4 つのラベルを定義している. $\mathrm{Ba}$ 長単位を構成する短単位のうち先頭の要素で, かつ, その品詞, 活用型, 活用形が長単位のものと一致する。 Ia 長単位を構成する短単位のうち先頭以外の要素で, かつ, その品詞, 活用型, 活用形が長単位のものと一致する。 B 長単位を構成する短単位のうち先頭の要素で, かつ, その品詞, 活用型, 活用形のいずれかが長単位のものと一致しない。 I 長単位を構成する短単位のうち先頭以外の要素で, かつ, その品詞, 活用型, 活用形のいずれかが長単位のものと一致しない. これは, 長単位を構成する先頭の要素に付与されるラベルは「Ba」か「B」であり, 長単位を構 $\lceil\mathrm{Ia}\rfloor$ が付与された要素は長単位と同じ品詞, 活用型, 活用形を持つことを意味する. したがって, このラベルを利用することにより, 長単位境界だけでなく, 多くの場合, 品詞, 活用型, 活用形の情報も得られる。 図 1 長単位解析の流れ 図 2 に 「日本型国際貢献が求められています」に対して,ラベルを付与した例を示す。これらのラベルを正しく推定できれば, 「Ba」あるいは「I Ia」が付与された短単位から品詞, 活用 図 2 短単位と長単位の例 型, 活用形が得られる. 図 2 は,「ている」以外の長単位については品詞, 活用型, 活用形も得られることを表わしている。一方,「ている」については品詞がこれらを構成する短単位「て」「いる」のどちらとも異なるため,各短単位には「B」あるいは「I」のラベルしか付与されない. この場合は,ラベルを正しく推定できたとしても品詞などは得られず,単位境界の情報のみが得られることになるため,次節に述べる後処理により品詞,活用型,活用形を推定する. チャンキングモデルの素性としては, 着目する短単位とその前後 2 短単位, あわせて 5 短単位について,以下の情報を利用する。 - 短単位情報 書字形, 語彙素読み, 語彙素, 品詞, 活用型, 活用形 - 付加情報 2.4 節で述べた CSJ にのみ付与されている情報(フィラー, 言いよどみ, アルファベッ 卜,外国語,名前,音や言葉のメ夕情報を示すタグ)がそれぞれ着目している短単位の直前に付与されているか否かを素性として利用する. ## 3.1.2書き換え規則による後処理 3.1.1 節で記したチャンキングモデルにより,ラベルを正しく推定することができれば,図 2 の「日本型国際貢献」や「求める」などは「 $\mathrm{Ba}\rfloor$ または「I $\mathrm{Ia}$ が付与された短単位から品詞, 活用型, 活用形が得られる。一方,「ている」については, 品詞が長単位を構成する短単位「て」及び「いる」とは異なるため,各短単位には「B」あるいは「I」のラベルしか付与されない。この場合は,ラベルを正しく推定できたとしても品詞は得られず,単位境界の情報のみが得られることになる。これらの長単位に対しては書き換え規則によって品詞, 活用型, 活用形を付与する。 単位境界のみが分かっている長単位ごと,つまり,「B」あるいは「I」が付与された短単位のみから構成される長単位ごとに書き換え規則を獲得, 適用することによって品詞, 活用型, 活用形の情報を得る。書き換え規則は対象の長単位とその前後の短単位を抽出することによって自動獲得する。書き換え規則は対象の長単位を構成する短単位, 及び, その前後の短単位からなる前件部と, 対象の長単位からなる後件部で構成される。例えば, 図 2 の「ている」については図 3 のような規則が獲得される。前件部で同じ規則が複数得られた場合, 最も頻度の高いもののみ書き換え規則として獲得する. 図 3 の規則は,「て」「いる」という短単位にそれぞれ「B」,「I」というラベルが付与され,前方 (文頭側) の短単位が「られ」, 後方(文末側)の短単位が「ます」であるとき,「ている」という助動詞に書き換えられることを意味している。どの書き換え規則も適用されない場合は,以下の手順で規則を汎化して再適用する。 - 後方文脈を削除 前件部 後件部 図 3 書き換え規則の例 - 前方文脈と後方文脈を削除 - 前方文脈, 後方文脈, 書字形, 語彙素読み, 語彙素を削除 前方文脈とは対象の長単位より前方 (文頭側) の短単位(図 3 の「られ」), 後方文脈とは対象の長単位より後方 (文末側) の短単位(図 3 の「ます」)を表す。この手順で再適用し, 結果的にどの規則も適用されなかった場合は, 短単位の先頭の品詞, 活用型, 活用形を適用する. ## 3.2 コーパスの形態論情報における相違点に基づいた長単位解析手法の改善 (提案手法) 本節では, 3.1 節で示した長単位解析手法(従来手法)からの改良点について述べる。 ## 3.2.1 品詞体系の差異に応じた改善 CSJ と BCCWJ の品詞体系は 2.2 節で示したように, 大きく異なっている. この問題に対し,以下の点を改善した。 ## 汎化素性の利用 CSJ の品詞体系とは異なり, BCCWJ の品詞体系では, 品詞, 活用型, 活用形が階層的に定義されている。しかし, 階層化された素性をそのまま利用した場合, 各階層の情報が考慮されなくなってしまう。そこで,階層化された素性に対して上位階層で汎化した素性をチャンキングモデルの素性として追加する。例えば「名詞-普通名詞-一般」に対しては,「名詞」「名詞-普通名詞」を素性として追加する。 ## カテゴリ推定モデルによる後処理 CSJでは品詞体系が単純であったため, 「B」あるいは「I」のラベルが付与された短単位のみから構成される長単位が少なく, 後処理については書き換え規則である程度対応できていた。 しかし, 品詞体系が詳細な BCCWJでは, 短単位と長単位の品詞の対応関係が単純ではないため,書き換え規則で対応するのは困難である。この問題に対し,次に述べるカテゴリ推定モデルを用いることで解決することを提案する. カテゴリ推定モデルは,学習データに現れたカテゴリを候補として,その候補すべてについて尤もらしさを計算するモデルである。長単位を構成する短単位列を与えると,その長単位に対して最尤のカテゴリを出力する,推定するカテゴリを品詞,活用型, 活用形とした, 品詞推定モデル,及び,活用型推定モデル,活用形推定モデルをそれぞれ学習・適用し,最も尤もらしい品詞, 活用型, 活用形を推定する. 推定するカテゴリを品詞とする品詞推定モデルでは,学習データに現れた品詞のうち, 助詞と助動詞を除くすべての品詞候補から最尤の品詞を出力する.助詞と助動詞については長単位を構成する短単位列が複合辞と一致している場合のみ候補とする.複合辞と一致しているかどうかは,複合辞辞書との文字列マッチングにより自動判定する.複合辞辞書は BCCWJ で認定された複合辞を予め人手で整理することにより用意した。素性としては,着目している長単位とその前後の長単位, あわせて 3 長単位に対して, 先頭から 2 短単位と末尾から 2 短単位の計 12 短単位の情報を用いる。長単位が 1 短単位からなる場合は, 先頭から 2 短単位目の情報は与えられなかったもの (NULL) として扱う. 各短単位に対して, 書字形, 語彙素読み, 語彙素,品詞, 活用型, 活用形, 及び, 階層化された素性に対して上位階層で汎化した情報を素性として用いる。 図 2 の「てい」に対して品詞推定モデルを適用する例を図 4 に示す.「てい」では, 前後の長単位をあわせた「られ」「てい」「ます」の 3 長単位に対し, 「られ」「NULL」(「られ」の先頭 2 短単位),「て」「い」(「てい」の先頭 2 短単位),「ます」「NULL」(「ます」の先頭 2 短単位), 及び, 「NULL」「られ」(「られ」の末尾 2 短単位),「て」「い」(「てい」の末尾 2 短単位),「NULL」「ます」(「ます」の末尾 2 短単位) の各短単位の情報を素性として用いる. 図 4 では, 最尤の品詞として助動詞を出力している. 活用型推定モデル, 及び, 活用形推定モデルは, 推定するカテゴリが品詞ではなくそれぞれ活 図 4 品詞推定モデルの適用例 用型, 活用形となる点, 及び,動的素性を用いる点を除いて品詞推定モデルと同様である.動的素性としては,活用型推定モデルでは着目している長単位の品詞(自動解析時は品詞推定モデルにより自動推定した品詞)を,活用形推定モデルでは着目している長単位の品詞と活用型 (自動解析時は品詞推定モデル,活用型推定モデルによりそれぞれ自動推定した品詞と活用型) を用いる。 ## 3.2 .2 付加情報の差異に応じた改善 2.4 節で示した BCCWJにのみ付与されている以下の情報をチャンキングモデルの素性として利用する。 - 語種情報 短単位の語種が和語, 漢語, 外来語, 混種語, 固有名, 記号のいずれであるかを素性として利用する。 - 囲み情報 BCCWJ では丸付き数字で長単位境界が区切れるため, 囲み情報は長単位境界を判定するための大きな手がかりとなる。そのため, 短単位に囲み情報が付与されているか否かを素性として利用する。 ## 3.2.3 ラベル定義の変更 本節では,コーパスの相違点に限らず,既存の手法にも適用できる改良について述べる. 3.1.1 節で示した 4 つのラベルを以下のように再定義した. 変更点を下線で示す. $\mathrm{Ba}$ 単独で長単位を構成する短単位で, かつ, その品詞, 活用型, 活用形が長単位のものと一致する。 Ia 複数短単位で構成される長単位の末尾の短単位で, かつ, その品詞, 活用型, 活用形が長単位のものと一致する。 B 複数短単位で構成される長単位の先頭の短単位. もしくは, 単独で長単位を構成する短単位で, かつ, その品詞, 活用型, 活用形のいずれかが長単位のものと一致しない. I 複数短単位で構成される長単位の先頭でも末尾でもない短単位. もしくは, 複数短単位で構成される長単位の末尾の短単位で, かつ, その品詞, 活用型, 活用形のいずれかが長単位のものと一致しない. 単独の短単位から構成される長単位に対しては, 短単位の品詞, 活用型, 活用形が長単位のものと一致する場合には「Ba」, 一致しない場合には「B」が付与される。一方, 複数短単位から構成される長単位に対しては, 先頭の短単位には「B」, 先頭でも末尾でもない短単位には「I , 末尾の短単位にはその品詞, 活用型, 活用形が長単位のものと一致する場合には「Ia」, 一致しない場合には「I」が付与される。この定義を利用すると, 図 2 の例では, 「Ba」が付与されている 「日本」には「B」,「IIaが付与されている「国際」には「I」のラベルが付与されることになる.本改良は, 長単位の品詞, 活用型, 活用形は, 長単位を構成する短単位のうち, 末尾の短単位の品詞, 活用型, 活用形と一致することが多く,それ以外の位置にある短単位と一致する場合は偶然であることが多いという観察に基づく。「Ba」,「IIaのラベルが付与される短単位を長単位を構成する末尾の短単位のみに限定することにより,チャンキングモデルの精度が向上し,全体の性能が向上することが期待できる. ## 4 評価実験 本章では, 3.2 節で示した改善策の有効性を確認するため, 3.1 節で示した従来手法と各改善策を行った手法の長単位解析精度を比較する。まず,4.2 節では予備実験として,CSJを用いた実験を行い,従来手法の長単位解析の性能を確認する。また,BCCWJに適用するために行った改善策が CSJ に対しても有効であること示す. 次に, 4.3 節で BCCWJを用いた実験を行う.従来手法と 3.2 節で示した提案手法とを比較し, 提案手法の有効性を示す. ## 4.1 設定 3 章に述べた手法のチャンキングモデルの学習と適用には, $\mathrm{CRF}++{ }^{2}$ を用いた. $\mathrm{CRF}++$ は $\mathrm{CRF}$ に基づく汎用チャンカーであり,パラメータは $\mathrm{CRF}++$ のデフォルトのパラメータを用いた. また, 改良した後処理に用いる品詞, 活用型, 活用形推定モデルの学習には YamCha ${ }^{3}$ を用いた. YamChaはSVM に基づく汎用チャンカーであり,カーネルは多項式カーネル(べき指数 3)を採用し,多クラスへの拡張は one-versus-rest 法を用いた. 実験で用いるデータを表 3 に示す. CSJ, BCCWJともに,コアデータを学習データとテストデータに分け,学習データはモデルの学習に,テストデータはモデルの評価に用いている. CSJ のデータは Uchimoto ら (Uchimoto and Isahara 2007)の実験設定に合わせて,フィラー,言いよどみを削除して用いた。チャンキングモデルで用いるフィラーと言いよどみの情報としては,短単位の直前がフィラーか否か, もしくは,言いよどみか否かの情報を素性として利用してい 表 3 評価データの規模 ^{3}$ http://chasen.org/ taku/software/yamcha/ } る.また, BCCWJ のデータは CSJ の結果と比較しやすいように, CSJ とデータ規模を同程度にした。なお, 本実験では短単位情報は予め適切な情報が付与されていることを前提とする. 本実験では,正解データの境界(品詞)のうち正しく推定できたものの割合(再現率)と自動推定した境界(品詞)のうち正しく推定できたものの割合(精度), 下記に示す再現率と精度の調和平均である $\mathrm{F}$ 值を評価指標として用いる. $ F \text { 值 }=\frac{2 \times \text { 精度 } \times \text { 再現率 }}{\text { 精度 }+ \text { 再現率 }} $ ## 4.2 予備実験 予備実験として,CSJに対する実験を行った.実験には表 3 に示した CSJ の学習データとテストデータを用いた. 3.1 節で記した CSJ を基に構築した長単位解析手法(従来手法)をべー スラインとして, CSJの学習データを用いて学習し, テストデータに適用した。また, 3.2 節で記した改善のうち, CSJに対しても適用できる以下のモデルを適用した. ## ・ ベースライン+ラベル変更 ベースラインに対して, 3.2 .3 節で示したラベル定義の変更をしたモデル - ベースライン+推定モデル ベースラインの後処理を書き換え規則から品詞, 活用型, 活用形推定モデルに変更したモデル ・ ベースライン+ラベル変更+推定モデル ベースラインに対して, ラベル定義, 及び, 後処理を変更したモデル 結果を表 4 に示す. CSJに対してベースラインを適用した場合, 境界推定で $98.99 \%$, 品詞推定で $98.93 \%$ と高い性能が得られていることがわかる. ラベル定義を変更したモデルはベースラインに対し,性能が向上しており,ラベル定義の変更が有効に働くことを示している.後処理に推定モデルを用いたモデルでは品詞推定の精度が向上した. 性能差は $\mathrm{F}$ 值で $0.4 \%$ と小さいため,CSJへ適用する場合には,書き換え規則でも十分に適用できているといえる。また,ベー スラインに対してラベル定義と後処理を変更した場合が最も性能がよく,CSJに対しても有効な改良であることがわかった。 表 4 CSJ で学習したモデルを用いた実験結果 次に, CSJ で学習したべースラインのモデルを BCCWJ のテストデータに適用したところ,境界推定で $74.72 \%$, 品詞推定で $65.58 \%$ と大きく精度が落ちる結果となった。これは,当然ではあるが,2 章で記したように,CSJ と BCCWJでは言語単位や品詞体系が異なるためであり, BCCWJ を高精度で解析するには解析器の再構築が必要であることを示唆している. ## 4.3 実験 表 3 に示した BCCWJ のデータを用いて実験した。まず,BCCWJ の学習データを用いて構築したべースラインを BCCWJ のテストデータに適用した。その結果を表 5 の 3 行目に示す.境界推定において $98.74 \%$, 品詞推定において $97.68 \%$ の性能となった. CSJを用いて学習, テストした表 4 の 3 行目の結果(ベースライン)と比較すると, 境界推定では $0.25 \%$, 品詞推定では $1.25 \%$, 性能が低下した。 次に,各改善点の有効性を確認するため, 以下のモデルを用いて実験した。 - ベースライン+汎化素性 ベースラインのチャンキングモデルの素性に 3.2.1 節で示した汎化素性を追加したモデル $\cdot$ ベースライン十推定モデル ベースラインの後処理を書き換え規則から 3.2.1 節で示した品詞, 活用型, 活用形推定モデルに変更したモデル ・ ベースライン+語種情報 ベースラインのチャンキングモデルの素性に 3.2.2 節で示した語種情報を追加したモデル - ベースライン十囲み情報 ベースラインのチャンキングモデルの素性に 3.2 .2 節で示した囲み情報を追加したモデル ・ベースライン+ラベル変更 ベースラインに対して,3.2.3 節で示したラベル定義の変更をしたモデル 表 5 BCCWJ で学習したモデルを用いた実験結果 結果を表 5 の 4 行目から 8 行目に示す. ベースラインに対して, いずれの改良を加えた場合でも $\mathrm{F}$ 值が向上した。境界推定に関しては,汎化素性が性能向上に大きく貢献した。品詞推定に関しては,後処理を書き換え規則から品詞,活用型,活用形推定モデルにした手法で大きく性能が向上した. 提案手法として CSJ と BCCWJ の形態論情報における相違点に対する改良をすべて行ったモデルを適用した。結果を表5の9行目に示す。境界推定では $98.93 \%$, 品詞推定では $98.66 \%$ の性能が得られ, ベースラインに対して, 境界推定で約 $0.2 \%$, 品詞推定で約 $1 \%$ 向上した. CSJ を用いて学習, テストした表 4 の 6 行目の結果(ベースライン+ラベル変更+後処理)と比較すると, 境界推定では $0.13 \%$, 品詞推定では $0.39 \%$ 低いが, この性能低下は主として CSJに比べ BCCWJ の方が品詞体系が詳細であるため, 長単位解析自体の問題が難しくなっていることに起因すると考えられる。 また, ベースラインに対して,品詞体系の相違点に対する対処(汎化素性,後処理)を適用したモデル(ベースライン十品詞体系対応)を用いた実験を行った。結果を表 5 の 10 行目に示す. 表 5 の 9 行目の改良手法と同程度の性能が得られており, 主な性能改善は品詞体系の差異に対応することで得られていることがわかる. ## 4.4 考察 ## 4.4.1 誤り傾向の分析 CSJ に対してべースラインを用いた実験(表 4),BCCWJに対してべースライン,及び,提案手法を用いた実験(表 5)について,誤り傾向を分析した. まず,境界推定誤りの傾向を,それぞれの実験について調査したところ,共通する 2 つの誤りの傾向が見られた。1つ目は名詞連続であり, 名詞の短単位列に対する長単位境界を誤ることが多かった。表 6 の 2 から 4 行目に誤りの例を示す。表の例では,短単位境界を「/」,長単位境界を「|」で表している。例えば,「医学部倫理委員会」では「医学部」と「倫理委員会」の 2 長単位にすべきところを「医学部倫理委員会」と誤って 1 長単位として判定した. これらを正しく解析するには,「部」や「庁」などの境界になりやすい短単位の辞書を構築し, 境界にな 表 6 境界誤りの例 りやすい短単位かどうかを素性として追加することで対応できるだろう。ただし,短単位間の意味的な関係を捉えないと解析が困難な場合もあるため,意味的な関係を考慮できるようにする必要もある.2つ目は複合辞に関する誤りであり,複合辞相当の長単位を複合辞として判定できなかったり,逆に複合辞ではない短単位列を複合辞として判定してしまうことが多かった。例を表 6 の 5 から 7 行目に誤りの例を示す。短単位列が複合辞か否かは前後の文脈に大きく依存するため, 正しく解析できるようにするためにはそれらを考慮した素性が必要となるだ万う.表 7 に全体の誤りに対する名詞連続と複合辞の誤りの割合を示す.いずれのデータ,モデルにおいても,名詞連続と複合辞については誤り率が高く,コーパスに関わらず難しい問題であることがわかる. 次に品詞誤りの傾向を調査した. CSJ については品詞誤りがほとんど見られなかったため, BCCWJ のみを調査した,表 8 に主な品詞誤りの原因とその割合を示す。ベースライン,提案手法のどちらのモデルにおいても, 名詞-普通名詞-一般と名詞-固有名詞-一般などの名詞同士の誤りが多く見られた。例を表 9 の 2 から 4 行目に示す. 例えば,「欧州連合」を名詞-固有名詞一般と判定すべきところを,名詞-普通名詞-一般と誤って判定した。これに対する改善策としては, 固有名詞になりやすい名詞を学習データから取得し, 素性として利用することが考えられ 表 7 境界推定誤りの傾向 表 8 品詞誤り 表 9 品詞誤りの例 る。また, ベースラインを用いた場合は, 名詞-普通名詞-一般と副詞, 形状詞-一般との誤りが多く見られた。誤りの例を表 9 の 5 から 8 行目に示す.「最近」という長単位を名詞-普通名詞一般と判定すべきところを,副詞と誤って判定する例などがあった。一方,これらの誤りは提案手法を用いた場合はほとんど見られなかった。これはべースラインでは書き換え規則により品詞を付与しているためだと考えられる。書き換え規則では頻度が高い規則が適用される。「最近」という長単位の場合, 名詞-普通名詞-一般よりも副詞として出現することが多いために書き換え規則では誤って副詞と判定してしまう。これに対し, 品詞推定モデルでは前後の文脈を考慮し, 文脈に沿って品詞を判定するため, 名詞-普通名詞一一般と副詞, 及び,名詞-普通名詞-一般と形状詞一一般に関する誤りが大きく減少したと考えられる. ## 4.4.2 人が見たときに気になる誤りへの対処 後処理を書き換え規則から品詞推定モデルにしたことにより, 品詞の推定精度が大幅に向上した. しかし, 学習による品詞推定をする場合, 人間では誤らないような品詞が付与される可能性がでてくる. これは, 品詞推定の際に, 学習データにでてきたすべての品詞の中から最尤の品詞を推定するためである。もし, BCCWJ の品詞体系で認められていない形式で品詞が付与されてしまうと, 少数の誤りであっても人が見たときには目立つ誤りとなる. 特に, 研究対象になりやすく, 自動解析も強く求められている複合辞などに対しては配慮する必要がある.例えば,「として」という助詞-格助詞の複合辞に対して, BCCWJ の品詞体系で認められていない助詞-係助詞などの品詞を付与したり, 複合辞とは認められていない短単位列を複合辞として判定してしまうと,人が見たときに目立つ誤りとなり,解析器の信頼性が大きく低下してしまう. そのため, 3.2.1 節で述べた品詞推定モデルでは, 複合辞については予め複合辞辞書を用意し, 特定の品詞しか付与しないよう対処している. ## 4.4.3 コーパスのアノテーションと自動解析について アノテーションの精度を高めることは, コーパスを用いた研究を行う場合, 非常に重要であるが,そのためにはどこに人手をかけるべきかを検討する必要がある. 例えば,言語単位や品詞体系の定義を複雑にすると自動解析が難しくなるため, 自動解析結果の修正に人手をかける必要が生じる。話し言葉の場合, フィラーや言いよどみなどを適切に自動解析するのは難しいため, CSJでは書き起こしの段階で人手でタグを付与している。,逆に,コーパスに付加する情報を一部犠牲にして,定義を柔軟にすることで自動解析の精度を向上させることにより,人手による修正コストを軽減することもできる,例えば,BCCWJでは同格や並列の関係にある場合に, 意味的な関係を考慮し, 連接する短単位それぞれを長単位として適切に自動認定することは困難であるため,1 長単位と定義している,以下の例の「公正」と「妥当」は並列の関係にあるが,1 長単位としている。 ## | 公正妥当 |な 実務慣行 $\mid$ CSJ や BCCWJにおいては,長単位情報を付与する前段階で上述のような対処をすることにより長単位解析器としては対処すべき問題が低减されたという面もある。このように様々な言語現象に対応しつつコーパスに効率良くアノテーションするためには,自動解析によるアノテー ションの前段階で, 自動解析が難しそうな問題に対して柔軟に対処することも重要である. ## 4.4.4 他の品詞体系への適用についての一考察 提案手法で BCCWJ とは異なる品詞体系に対してどの程度対処できるかについて考察する. 4.2 節と 4.3 節での実験により, 提案手法は CSJ, BCCWJ のどちらに対しても有効であった. これは提案手法が従来手法に比べ, 以下の問題に対して汎用的に対処できるようになったためであると考える。 - 長単位の品詞の種類の多さ - 階層的な品詞体系 - 短単位の品詞と長単位の品詞が異なる 品詞体系が BCCWJ より単純, もしくは, 複雑な場合を考える. まず, 品詞体系が BCCWJ より単純な場合は,既に CSJに適用した結果からもわかるように,提案手法により同等以上の性能が得られると考えられる。次に, 品詞体系が BCCWJより複雑な場合であるが,想定される複雑性は以下の通りである. - 品詞の種類の増加 - 品詞体系の階層の複雑化 - 短単位の品詞と長単位の品詞の関連性の希薄化 これらは BCCWJ の品詞体系が CSJ の品詞体系に対して複雑になった点でもある. 提案手法では, 品詞の階層情報 (汎化素性) を用いることにより, 品詞の推定精度が向上した。これは, 上記の複雑性が増した場合でも, 品詞間の関係を別途定義・アノテーションした情報を用いることにより,解析性能を上げることができることを示している,たたし,あまりに複雑な品詞体系の場合, 必要となる学習デー夕量が増えるため, 学習デー夕量が十分ではないことが原因で解析精度が低下することも考えられる,そのため,品詞体系はバランスを考えて定義することが重要である. 次に CSJ や BCCWJ とは異なる品詞体系を利用して, コーパスに対して効率よくアノテー ションをする方法について考える。一般に,すべて人手で言語単位や品詞をアノテーションするのはコストが高い. このコストを軽減するためには, (1) 対象のコーパスを既存の解析器で解析し, 言語単位や品詞体系が異なる部分を修正 (2) 修正結果を学習データとして, 解析器を再学習し, 対象のコーパスを再解析, というプロセスを繰り返すことができるのが望ましい. 次章では,それを可能とするためのツールについて述べる。一方, このプロセスにおいて修正箇 所が少ない場合には差分に相当する部分のみを学習し, 既存の解析器による解析結果に対して,差分の部分を後処理で書き換えるような方法の方が有効であるということも考えられる。この方法の有効性の検証は今後の課題である. ## 5 長単位解析ツール Comainu 提案手法を用いることにより,CSJ や BCCWJ とは異なる言語単位や品詞体系のコーパスに対しても長単位を付与することが可能である。より多くの研究者に対して, 品詞体系の異なるコーパスや他分野のコーパスへの長単位情報付与を容易にするためには,長単位解析の学習・解析機能を備えたツールが利用可能になっていることが重要であると考える. 3 章で説明した提案手法を実装することにより,長単位解析ツール Comainu を作成した。モデルの学習には BCCWJ のコアデータ(45,342 文, 828,133 長単位, $1,047,069$ 短単位)を用いた. 本ツールは, 平文または短単位列を入力すると, 長単位を付与した短単位列を出力することができる。平文が入力された場合, $\mathrm{MeCab}^{4}$ と UniDicにより形態素解析を行った後に長単位解析を行う。 長単位解析のチャンキングモデルにはSVM と CRF のいずれかを用いることができる。また, 平文や短単位列の直接入力だけでなくファイル入力にも対応しており, 解析結果をファイルに保存することも可能である. 図 5 に Comainuによる長単位解析の解析例を示す。図 5 の例では, 平文を入力とし, CRF に 図 5 Comainu による長単位解析の実行例 ^{4} \mathrm{http}$ ://mecab.googlecode.com/svn/trunk/mecab/doc/index.html } よるチャンキングモデルとSVM による品詞, 活用型, 活用形推定モデルを用いて長単位解析を実行し, 長単位が付与された短単位列を出力している。出力の $2 \sim 8$ 列目はそれぞれ短単位の書字形,発音系,語彙素読み,語彙素,品詞,活用型,活用形を表し,出力の $9 \sim 14$ 列目はそれぞれ長単位の品詞, 活用型, 活用形, 語彙素読み, 語彙素, 書字形を表す. 長単位解析ツール Comainu はオープンソースとしている 5 . これにより, 長単位のアノテー ションが容易になることが期待される. ## 6 まとめ 本論文では, 品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,CSJ と BCCWJを用いて,長単位情報を自動でアノテーションした場合に生じる誤りを軽減する方策について述べた. CSJ と BCCWJ の形態論情報における相違点に基づき,長単位解析手法を改良し,評価実験により提案手法の有効性を示した。さらに,提案手法の異なる品詞体系への適用可能性について考察した。また,本手法を実装した長単位解析システム Comainu について述べた. 本論文では,長単位解析の入力として正しい短単位列を想定したが,短単位,長単位ともに自動で解析した場合,短単位解析結果の誤りが伝播して長単位解析の誤りも増える。また,自動解析結果の誤りを効率よくなくしていくようなコーパスのメンテナンスの朹組みも重要であり, その枠組みの実現のためには, 短単位解析の解析誤りが長単位解析に与える影響の調查, 特に新たな言語単位や品詞体系を用いた場合にどのような影響がでるかを複数種類のコーパスを対象として比較調査することが今後必要となると考える. ## 謝 辞 本研究は, 文部科学省科学研究費補助金特定領域研究「代表性を有する大規模日本語書き言葉コーパスの構築」(平成 18 年度 22 年度, 領域代表 : 前川喜久雄)からの助成を得ました. ## 参考文献 中條清美, 西垣知佳子, 内山将夫, 山崎淳史 (2006). 初級英語学習者を対象としたコーパス利用学習の試み. 日本大学生産工学部研究報告 B (文系), 39, pp. 29-50. ^{5}$ http://sourceforge.jp/projects/comainu/ } 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵 (2007). コーパス日本語学のための言語資源: 形態素解析用電子化辞書の開発とその応用. 日本語科学, $\mathbf{2 2}$, pp. 101-123. Den, Y., Nakamura, J., Ogiso, T., and Ogura, H. (2008). "A Proper Approach to Japanese Morphological Analysis: Dictionary, Model, and Evaluation." In Proceedings of the 6th International Language Resources and Evaluation, pp. 1019-1024. 林大(監修) (1982). 図説日本語. 角川小辞典, 9, pp. 582-583. Jiang, J. and Zhai, C. (2007). "Instance Weighting for Domain Adaptation in NLP." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics, pp. 264-271. 風間淳一, 宮尾祐介, 辻井潤一 (2004). 教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル. 言語処理学会, 11, pp. 3-23. 小磯花絵, 小木曽智信, 小椋秀樹, 宮内佐夜香 (2009). コーパスに基づく多様なジャンルの文 体比較-短単位情報に着目して. 言語処理学会第 15 回年次大会予稿集, pp. 594-597. 近藤泰弘 (2012). 日本語通時コーパスの設計について. 国語研プロジェクトレビュー, 3 , pp. 84-92. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237. 前川喜久雄 (2004). 『日本語話し言葉コーパス』の概要. 日本語科学, 15, pp. 111-133. Maekawa, K. (2008). "Balanced Corpus of Contemporary Written Japanese." In Proceedings of the 6th Workshop on Asian Language Resources, pp. 101-102. 中野洋 (1998). 言語情報処理. 岩波講座「言語の科学」,9, pp. 149-199. Neubig, G., Nakata, Y., and Mori, S. (2011). "Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics, pp. 529-533. 小椋秀樹, 山口昌也, 西川賢哉, 石塚京子, 木村睦子 (2004). 『日本語話し言葉コーパス』における単位認定基準について. 日本語科学, 16, pp. 93-113. 大名力 (2009).コーパスから見える文法. 国際開発研究フォーラム, 38, pp. 23-40. 田野村忠温 (2010). 日本語コーパスとコロケーション. 言語研究, 138, pp. 1-23. Uchimoto, K. and Isahara, H. (2007). "Morphological Annotation of A Large Spontaneous Speech Corpus in Japanese." In Proceedings of the 20th International Joint Conferences on Artificial Intelligence, pp. 1731-1737. ## 略歴 小澤俊介:2009 年名古屋大学大学院情報科学研究科博士前期課程了. 2012 年同大博士後期過程了. 博士 (情報科学). 同年より株式会社はてな. 自然言語処理の研究開発に従事. 言語処理学会会員. 内元清貴 : 1996 年京都大学大学院工学研究科修士課程修了. 同年, 郵政省通信総合研究所入所. 内閣府出向を経て, 現在, 独立行政法人情報通信研究機構研究マネージャー. 博士 (情報学). 自然言語処理の研究, 研究成果の社会還元活動に従事. 言語処理学会・情報処理学会 - ACL 各会員. 伝康晴: 1993 年京都大学大学院工学研究科博士後期課程研究指導認定退学.博士 (工学). ATR 音声翻訳通信研究所研究員, 奈良先端科学技術大学院大学情報科学研究科助教授, 千葉大学文学部助教授・准教授を経て, 現在, 千葉大学文学部教授. 専門はコーパス言語学・心理言語学・計算言語学. とくに日常的な会話の分析・モデル化. 社会言語科学会・日本認知科学会 - 人工知能学会 $\cdot$ 日本心理学会 $\cdot$ 日本認知心理学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 述語と項の位置関係ごとの候補比較による日本語述語項構造解析 林部 祐太 ${ }^{\dagger}$-小町守牛 $\cdot$ 松本 裕治 $\dagger$ } 一般に,項は述語に近いところにあるという特性がある。そのため, 従来の述語項構造解析の研究では, 候補を述語との位置関係でグループ分けし, あらかじめ求め ておいたグループ間の優先順序に従って正解項を探索してきた。しかしながら,そ の方法には異なるグループに属する候補同士の比較ができないという問題がある. そこで我々は, 異なるグループごとに最尤候補を選出し, それらの中から最終的な 出力を決めるモデルを提案する。このモデルは優先度の高いグループに属する候補以外も参照することによって最終的な決定を行うことができ, 全体的な最適化が可能である,実験では,提案手法は優先順序に従う解析よりも精度が向上することを 確認した。 キーワード:述語項構造解析,項と述語の位置関係,探索先行分類型モデル ## Japanese Predicate Argument Structure Analysis by Comparing Candidates in Different Positional Relations between Predicate and Arguments \author{ Yuta Hayashibe $^{\dagger}$, Mamoru Komachi $^{\dagger \dagger}$ and Yuji Matsumoto ${ }^{\dagger}$ } In general, arguments are located near the predicate. A previous study has exploited this characteristic to group candidates by positional relations between a predicate and its candidate arguments and then searched for the final candidate using a predetermined priority list of the groups. However, in such an analysis, candidates in different groups cannot be compared. Therefore, we propose a Japanese predicate argument structure analysis model that gathers the most likely candidates from all the groups and then selects the final candidate amongst them. We can account for candidates with less priority before making a final decision to perform global optimization. Experimental results show that our model outperforms deterministic models. Key Words: predicate argument structure analysis, positional relations between predicates and arguments, selection-then-classification model  ## 1 はじめに 述語項構造解析の目的は, 述語とそれらの項を文の意味的な構成単位として, 文章から「誰が何をどうした」という意味的な関係を抽出することである。これは,機械翻訳や自動要約などの自然言語処理の応用において重要なタスクの 1 つである (Surdeanu, Harabagiu, Williams, and Aarseth 2003; Wu and Fung 2009). 述語は文の主要部で, 他の要素とともに文を構成する (日本語記述文法研究会 2010). 日本語では, 述語は品詞によって, 形容詞述語・動詞述語・名詞述語の 3 種類に分けられる。述語が意味をなすためには, 補語(主語を含む)が必要であり,それらは項と呼ばれる,また,述語と項の意味的関係を表すラベルを格と呼ぶ. 項は前後文脈から推測できるとき省略1されることがあり,省略された項をゼロ代名詞,ゼロ代名詞が指示する要素を先行詞と呼ぶ. この言語現象はゼロ照応と呼ばれ, 日本語では項の省略がたびたび起きることから, 述語項構造解析はゼロ照応解析としても扱われてきた (河原, 黒橋 2004 ; 笹野, 黒橋 2011). 本稿では, 項と述語の位置関係の種類を次の 4 種類に分類する。述語と同一文内にあり係り受け関係にある項 ${ }^{2}$, (ゼロ代名詞の先行詞として同一文中に存在する)文内ゼロ,(ゼロ代名詞の先行詞として述語とは異なる文中に存在する) 文間ゼロ, および (文章中には存在しない) 外界項である。本稿では,それぞれ $I N T R A_{-} D, I N T R A \_Z, I N T E R, E X O$ と呼ぶ。ある述語がある格にて項を持たないときは,その述語の項は $\mathrm{ARG}_{\text {NULL }}$ だとし,その述語と $\mathrm{ARG}_{\mathrm{NULL}}$ は $N U L L$ という位置関係にあるとして考える。本稿では, EXO と NULL を総称して NO-ARG と呼ぶ.例えば,例 1 において,「受け取った」と「食べた」のヲ格項「コロッケ」はそれぞれINTRA_D・ INTRA_Z,「飲んだ」のガ格項「彼女」はINTERで,二格項は ARG $_{\text {NULL }}$ である. コロッケを受け取った彼女は,急いで食べた。 ( $\phi$ が) ジュースも飲んた。 一般に,項は述語に近いところにあるという特性(近距離特性)を持つ。そのため, これまでの述語項構造解析の研究では, この特性の利用を様々な形で試みてきた. 河原, 黒橋 (2004) や Taira, Fujita, and Nagata (2008) は項候補と述語の係り受け関係の種類ごとに項へのなりやすさの順序を定義し,その順序に従って項の探索を行った. また,Iida, Inui, and Matsumoto (2007) は述語と同一文内の候補を優先的に探索した. これらの先行研究ではあらかじめ定めておいた項の位置関係に基づく順序に従った探索を行い,項らしいものが見つかれば以降の探索はしない. そのため, 異なる位置関係にある候補との「どちらがより項  らしいか」という相対的な比較は行えず,述語と項候補の情報から「どのくらい項としてふさわしいか」という絶対的な判断を行わなければならないという問題点がある. そこで,本稿では,項の位置関係ごとに独立に最尤候補を選出した後,それらの中から最尤候補を 1 つ選出するというモデルを提案する。位置関係ごとに解析モデルを分けることで,柔軟に素性やモデルを設計できるようになる。また,位置関係の優先順序だけでなく,その他の情報(素性)も用いて総合的にどちらがより“項らしい”かが判断できるようになる。 本稿の実験では,まず,全ての候補を参照してから解析するモデルと,特定の候補を優先して探索するモデルを比較して,決定的な解析の良し悪しを分析する.また,陽に項の位置関係ごとの比較を行わないモデルや,優先順序に則った決定的な解析モデルと提案モデルを比較して,ガ格・ヨ格ではより高い性能を達成できたことも示す. 本稿の構成は以下のようになっている。まず 2 章で述語項構造解析の先行研究での位置関係と項へのなりやすさの優先順序の扱いについて紹介する。 3 章では提案手法について詳述し, 4 章では評価実験の設定について述べる。 5 章・ 6 章では実験結果の分析を行い, 7 章でまとめを行う。 ## 2 関連研究 ここでは, 述語項構造解析の先行研究における, 位置関係と項へのなりやすさの優先順序の扱いについて紹介する。先行研究と提案手法の概要を表 1 にまとめた. ## 2.1 決定的な解析を行う方法 ## 2.1.1優先順序を統計的に求める方法 河原, 黒橋 (2004) は, 解析をゼロ代名詞検出と先行詞同定の 2 段階に分け, 統計的に求めた優先順序を先行詞同定の際に用いた。彼らの手法では,まず,格フレーム辞書に基づく格解析 表 1 先行研究と提案手法の概要  によって, ゼロ代名詞の検出を行う。 そして, 項が存在すると判断された場合は, あらかじめ求めておいた優先順序に従って候補を探索し, 候補と格フレーム用例の類似度が閥値以上かつ分類器でも正例と分類される候補を先行詞として同定する。分類器は項の位置関係に関わらず,共通のものを作成した。素性には,格フレームとの類似度や品詞などを用いた。 彼らは,従属節,主節,埋め込み文などといった文・文章中の構造をもとに,項の位置関係 (彼らは「位置カテゴリ」と呼んた)を 20 種類に分類した. 彼らは,位置カテゴリごとに,先行詞の取りやすさを $ \frac{\text { 先行詞がその位置カテゴリにある回数 }}{\text { その位置カテゴリにある先行詞候補の数 }} $ でスコア化した. そして, 位置カテゴリごとに, 京都大学テキストコーパス (Kawahara, Kurohashi, and Hasida 2002) からスコアを算出し,得られたスコアを降順にソートしてそれぞれの格について優先順序を得た。 ## 2.1.2 文内候補を優先的に探索する方法 Iida et al. (2007) は, 先行詞候補とゼロ代名詞の統語的関係をパターン化するために,木を分類するブースティングアルゴリズム BACT (工藤, 松本 2004) を用いた. BACT は木構造デー 夕を入力とし, 全ての部分木の中から分類に寄与する部分木に対して大きな重みをつける.彼らは,先行詞候補とゼロ代名詞間の係り受け木や,関係を表す素性を,根ノードに子としてつなげて BACT の入力とした。 文間先行詞の同定には係り受け関係を利用できないため,彼らは先行詞の同定モデルを文内と文間に分け,文内候補を優先的に探索する以下の方法をとった. (1) 最尤先行詞同定モデル $M_{10}$ で, 文内最尤先行詞 $C_{1}^{*}$ を求める (2)照応性判定モデル $M_{11}$ で, $C_{1}^{*}$ の先行詞らしさのスコア $p_{1}$ を求める。あらかじめ定めておいた䦨值 $\theta_{\text {intra }}$ に対して, $p_{1} \geq \theta_{\text {intra }}$ であれば, $C_{1}^{*}$ を先行詞として決定する。そうでなければ (3) に進む。 (3) 最尤先行詞同定モデル $M_{20}$ で, 文間最尤先行詞 $C_{2}^{*}$ を求める (4)照応性判定モデル $M_{21}$ で, $C_{2}^{*}$ の先行詞らしさのスコア $p_{2}$ を求める. あらかじめ定めておいた間値 $\theta_{\text {inter }}$ に対して, $p_{2} \geq \theta_{\text {inter }}$ であれば, $C_{2}^{*}$ を先行詞として決定する。そうでなければ,先行詞なしとする。 $M_{10} \cdots M_{21}$ はそれぞれ BACT を使って学習・分類し, パラメータ $\theta_{\text {intra }}$ と $\theta_{\text {inter }}$ は, 開発デー 夕を用いて最適なものを求める. この手法では, 文内の最尤先行詞同定や照応性判定には文間の候補の情報は参照せずに,決定的に解析している. ## 2.1.3優先順位を経験的に決める方法 Taira et al. (2008)は, 決定リストを用いて全ての格の解析を同時に行う方法を提案した. 決定リストは規則の集合に適用順位を付けたものであり,機械学習の結果を人が分析しやすいという特長がある。彼らは項の位置関係やヴォイス・機能語に加えて, 単語の出現形・日本語語彙大系 (池原, 宮崎, 白井, 横尾, 中岩, 小倉, 大山, 林 1997) から得られる意味カテゴリ・品詞のいずれか 1 つを加えたものを組として扱い,それぞれの組を 1 つの素性とした。そして,述語ごとに Support Vector Machine の学習で素性の重みを得て, 素性を重みでソートしたものを決定リストとした。すなわち,1つの素性を1つの決定リストのルールとして扱った. 彼らは項の単位を単語とし, 項の位置関係を係り受け関係に基づいて次の 7 種類に定義している.なお, fw と bwは追加的な種類で,その他の種類と兼ねることができる. - Incoming Connection Type (ic): 項を含む文節が述語を含む文節に係っている日米交涉が:進展が進展した - Outgoing Connection Type (oc): 述語を含む文節が項を含む文節に係っている衝動買いした新刊本ガ:買い - Within the Same Phrase Type (sc): 項が述語と同じ文節内にある日米交渉ガ:日が - Connection into Other Case role Types (ga_c, wo_c, ni_c):項を含む文節が述語を含む文節に,他の格の項を介して係っている - Non-connection Type (nc): 項が述語とは異なる文にある - Forward Type (fw): 文章内にて, 項が述語の前方にある - Backward Type (bw): 文章内にて, 項が述語の後方にある 実際の解析は, 各述語について次の手順で行った. (1) ic,oc,ga_c,wo_c,ni_cについて,決定リストを用いて項を決定する (2)(1)で決まらなかった格について,scの決定リストを用いて項を決定する (3) 対象の述語が項を持つ確率が $50 \%$ 以上であれば (4)に進む (4) nc, fw,bwに関する決定リストを用いて項を決定する この手法は経験的に, 優先順序を ic, oc, ga_c, wo_c, ni_c > sc >> nc, fw, bw のように定めたといえる. ic, oc, ga_c, wo_c, ni_c 間での, 探索の優先関係はない. この方法は,格と項の位置関係を考慮しつつ,項になりやすいものから決めていくのが特徴である。ただし, 着目している候補と述語の情報のみを用いて項らしいかどうかを判断していくため, 必ずしも全ての候補を参照してから最終的な出力を決定するわけではなく, 候補間でどれが項らしいかの相対的な判断は行われない. ## 2.1.4 述語と係り受け関係にある候補を優先的に項であるとみなす方法 笹野, 黒橋 (2011) は, 解析対象述語の格フレーム候補それぞれに対して, 次の手順で格フレー ムと談話要素の対応付け候補を生成した。 - 解析対象述語と直接係り受け関係にある談話要素を, 選ばれた格フレームの格スロットと対応付ける. 談話要素が係助詞をともなって出現した場合や, 被連体修飾節に出現した場合など,複数の格スロットとの対応付けが考えられる場合は,考えうるすべての対応付けを生成する。 - 上記の処理で生成された対応付け候補に対し, 対応付けられなかったガ格・ヨ格・二格と, 解析対象述語と係り受け関係にない談話要素の対応付けを行う. そして, 対数線形モデルにて最も確率的評価が高い対応付けを解析結果として出力した. 素性には, 意味クラスや固有表現情報の他に, 出現格と出現位置に関する 85 個の 2 値素性も用いた. この手法では,格ごとに独立に解析を行なっているのではなく,同時に解析を行なう.しかし, 述語と係り受け関係にある候補を優先的に項であるとみなすため, 係り受け関係にある候補と,係り受け関係にない候補または他の文にある候補との比較は行えない. ## 2.2 優先順序を素性として表現する方法 位置関係と項へのなりやすさの関係を優先順序として利用し決定的な解析を行うのではなく,素性として利用した研究もある. ## 2.2.1最大エントロピー法を用いる方法 Imamura et al. (2009)は, 最大エントロピー法に基づく識別的モデルを用いた. 彼らは, 位置関係ごとにモデルを分けるのではなく, 素性として, 述語と候補の位置関係, 係り受け関係を用いた。そして候補集合に,項を持たないことを示す特別な名詞句 NULLを加え,その中から最尤候補を同定するというモデル化を行った。なお, 候補数削減のため, 文間項候補は述語を含む文の直前の文に出現したものと,これまでの解析ですでに項として同定されたものに限定している. この方法では格ごとにモデルは 1 つだけ学習すればよい. ただし, この手法では, 候補間の関係を素性として用いることはできない. ## 2.2.2 Markov Logic を用いる方法 吉川他 (2013) は, Markov Logic を利用して, 文内の複数の述語の項構造解析を同時に行う手法を提案した. Markov Logic は一階述語論理と Markov Networksを組み合わせたもので,一階述語論理式の矛盾をある程度のペナルティの上で認めることができる統計的関係学習の枠組 みである。彼らは項同定・項候補削減・格ラベル付与を同時に行うモデルを提案した. 彼らは,文間の項候補を加えるのは計算量の問題から困難だとしている。素性(観測述語)は述語と候補の係り受け関係などを用いた。 ## 3 述語と項の位置関係ごとの候補比較による日本語述語項構造解析 先行研究では, 優先順位の低い位置関係にある候補は参照されずに, 解析が行われていた. この方法は,優先順位の高い位置関係にある項の同定の性能は上げることができるが,優先順位の低い位置関係にある候補の再現率は下げてしまうという問題点がある。また,優先順位の低い位置関係にある候補も参照してから最終的な決定を行った方が,全体的な解析性能が向上すると考える。 そこで我々は,探索とトーナメントの 2 つのフェーズからなる,位置関係ごとに最尤候補を求めてから最終的な出力を決めるモデルを提案する。これは,「探索」・「分類」という 2 つフェーズを持つ探索先行分類型モデル (Iida, Inui, and Matsumoto 2005) に着想を得て, 後半の分類フェーズをトーナメント式に置き換えたものである。なお, このモデルは格ごとに解析器を学習・使用する。 ## 3.1 項構造解析における探索先行トーナメントモデル ## 3.1.1 探索 はじめのフェーズでは任意の項同定モデルを用いて INTRA_D, INTRA_Z, INTER の最尤候補を選出する。それぞれ異なる素性やモデルを用いてもよい。モデルには,述語と探索対象の候補を入力として与え,探索対象の候補の中の1つを出力させる. ## 3.1.2 トーナメント 次のフェーズでは探索フェーズで得られた 3 つの最尤候補を入力とし,そのうちの 1 つか “NO-ARG”を出力する.これにより,最尤候補のうちどれが正解項であるか,もしくは項を持たないかを判断する. このフェーズは図 1 に示したように (a) から (c)の 3 つの 2 値分類モデルで構成される。なお, 予備実験にて異なる順序を試したが, 文内最尤候補同士を (a)にて直接比較できるこの順序の性能が最も高かった。 (a) INTRA_Dと INTRA_Zを比較して,よりその述語の項らしい方を選ぶ (b)INTER と (a)で選出された候補を比較して, よりその述語の項らしい方を選ぶ (c)(b)で選出された候補と “NO-ARG” を比較して, よりその述語の項らしい方を選ぶ 図 1 トーナメントフェーズでの, 位置関係が異なる候補からの項の同定 (a) から (c)の分類器の学習事例には, Algorithm 1 で示すように探索フェーズで得られた最尤候補を用いる. ## 3.2 提案手法の関連研究 提案手法は 2 つのモデルを参考にしている. 1つ目は名詞句の照応解析における探索先行分類型モデル (selection-then-classification model) (Iida et al. 2005) である.このモデルは最初に, 最尤先行詞を求める(彼らはこれを“探索”と呼んだ),次に,その最尤先行詞を用いて,名詞句が実際に照応詞であるかどうかを判定する(彼らはこれを “分類”と呼んだ).このモデルの利点は,照応性を持たない名詞句も学習事例の生成に使えることである,彼らは実験で,最尤先行詞を用いて照応性判定を行ったほうが,最尤先行詞を用いない場合よりも高い性能が出ること確かめた。提案手法も,位置関係ごとに最尤候補を求めた後, どの候補が実際に項であるのかを判定する. 最尤候補の探索を先に行なうことで,位置関係ごとの最尤候補を学習事例の生成に用いることができる。 2 つ目はゼロ照応解析におけるトーナメントモデル (飯田, 乾, 松本 2004 )である. そのモデルは,全ての先行詞候補(実際には先行する全ての名詞句)のペアに対して,どちらがより先行詞らしいかの 2 值分類を繰り返す。トーナメントモデルの利点は候補間の関係性の素性を使うことができる点である. 提案手法のトーナメントフェーズでも同様に,トーナメントモデルを用いて, 位置関係ごとに選出された最尤候補のぺアからどちらが正解項らしいかの 2 值分類を繰り返し,候補間の比較を行うことができる. ## 4 評価実験 ## 4.1 実験データセット 評価実験には NAIST テキストコーパス $1.4 \beta$ (飯田, 小町, 井之上, 乾, 松本 2010) を用いた.これは京都大学テキストコーパス $3.0^{4}$ を基にしており, 述語項構造, 事態性名詞の項構造, ^{4}$ http://nlp.ist.i.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus3.0.tar.gz } 共参照に関する情報が約 40,000 文の新聞記事にわたって付与されている.なお,アノテーションの誤りのため 6 記事 5 を除外した。このコーパスの記事を表 2 で示すように学習・開発(パラメータチューニング)・評価のために 3 分割した. これは, Taira et al. (2008) や吉川他 (2013) と同じ分割方法である。表 3 に項の分布の統計情報を示す6. ## 4.2 実験設定 実験では, MeCab0.996・IPADIC-2.7.0-20070801で解析して得られた形態素情報, 京都大学テキストコーパス 3.0 で付与されている文節情報, CaboCha0. 66 で解析して得られた係り受け関係を用いた。項の候補は文節単位で抽出した。解析は文頭から文末の順で行い,述語を含む文以降からは項候補を抽出しない。なお, ある述語の格についての解析結果は同じ述語の他の格についての解析に影響を及ぼさない. 本稿では項同定に焦点を絞るため,述語同定タスクには取り組まない,言い換えると,どれが述語であるかはあらかじめシステムに与えておく,述語には軽動詞「する」や複合動詞も含む。 最尤候補同定には, トーナメントモデル (飯田他 2004) を用いた. その際, 最尤候補の探索範囲ごとに異なるモデルを作成し, モデルの学習方法も (飯田他 2004) に従った. 例えば, 提案手法は探索フェーズでは INTRA_D, INTRA_Z, INTER の最尤候補を同定するが,それぞれ 表 2 NAIST テキストコーパスの統計情報 表 3 NAIST テキストコーパスにおける項の分布  異なる合計 3 つの解析モデルを最尤候補同定に用いる. ## 4.3 分類器と素性 探索フェーズ・トーナメントフェーズで用いる分類器には, Support Vector Machine (Cortes and Vapnik 1995)を線形カーネルで用いた,具体的には LIBLINEAR1.937の実装を用い,開発データを用いたパラメータチューニングを行った。 素性には Imamura et al. (2009) で用いられたものとほぼ同一の素性を用いた. - 述語・項候補の主辞・機能語・その他の語の出現形・形態素情報 - 述語が受け身の助動詞を含むときはその原形 - 係り受け木上の述語と項候補の関係8 係り受け木上の項候補ノード $N_{a}$ と述語ノード $N_{p}$ からそれぞれ ROOT 方向に辿っていくときに初めて交叉するノードを $N_{c}$ とし, $N_{a}$ から $N_{c}$ までの道のりに含むノード列を $A_{a \cdots c}, \quad N_{p}$ から $N_{c}$ までの道のりに含むノード列を $A_{p \cdots c}$ とする。また, $N_{c}$ から木の ROOT までの道のりに含むノード列を $A_{c_{1}, c_{2}, \cdots c_{r}}$ とする.本実験では,ノード列の文字列表現として, - 主辞の原形 - 主辞の品詞 - 機能語の原形 - 機能語の品詞 - 機能語の原形 + 機能語の品詞 の 5 通りを用いた。 $A_{a \cdots c}$ の文字列表現を $S_{a \cdots c}, A_{p \cdots c}$ の文字列表現を $S_{p \cdots c}$ とし,それらの連結を $S_{a \cdots c}+S_{p \cdots c}$ とする。 素性には, $S_{a \cdots c}+S_{p \cdots c}, S_{a \cdots c}+S_{p \cdots c}+S_{c_{1}}, S_{a \cdots c}+S_{p \cdots c}+S_{c_{1}, c_{2}}, \cdots S_{a \cdots c}+S_{p \cdots c}+S_{c_{1}, c_{2}, \cdots, c_{r}}$ の $r+1$ 個の文字列を用いた。つまり。述語と項候補の関係を $5(r+1)$ 個の文字列で表現した. - 係り受け木上の 2 つの項候補の関係 上と同様の素性表現を行った。 - 述語と項候補・2つの項候補間の距離(文節単位・文単位ともに) - 「述語・項候補の主辞・助詞」のコーパス中の共起スコア9 動詞と項の共起のモデル化は(藤田, 乾, 松本 2004) に従った. 名詞 $n$ が格助詞 $c$ を介し ^{9}$ Imamura et al. (2009) では, これに相当するものとして, Good Turing スムージングを施した共起確率を用いている。計算は NAIST テキストコーパス相当部分を除いた 1991〜2002 年の毎日新聞を用いた. } て動詞 $v$ に係っているときの共起確率 $P(\langle v, c, n\rangle)$ を推定するため, $\langle v, c, n\rangle$ を $\langle v, c\rangle$ と $n$ の共起とみなす. 共起尺度には自己相互情報量 (Hindle 1990) を用いた. $ P M I(\langle v, c\rangle, n)=\log \frac{P(\langle v, c, n\rangle)}{P(\langle v, c\rangle) P(n)} $ なお,スムージングは行わなかった。自己相互情報量の算出には次の 2 つのコーパスを用い,2つの值をそれぞれ二値素性として10用いた。 NEWS: 1995 年を除く 1991 年から 2003 年までの毎日新聞約 1,800 万文. MeCab0.98 ${ }^{11}$ で形態素解析を行い CaboCha0.60pre4 $4^{12}$ で係り受け解析を行った。辞書は NAIST Japanese Dictionary $0.6 .3^{13}$ を用いた。約 2,700 万対の〈動詞, 格助詞, 名詞〉の組を抽出した ${ }^{14}$. WEB: Kawahara and Kurohashi (2006) がウェブから収集した日本語約 5 億文. JU$\mathrm{MAN}^{15}$ で形態素解析を行い,KNP ${ }^{16}$ で係り受け解析を行なっている. KNP の項構造解析結果から約 53 億対の〈述語, 格助詞, 項〉の組を抽出した ${ }^{17}$. - 項候補が以前の項構造解析で項となったか否かを示す 2 值情報 - 項候補の主辞の Salient Reference List (Nariyama 2002)における順位 ## 4.4 比較対象 先行研究では, 我々のものと異なる素性や機械学習の手法を使っており実験設定が異なる. そのため, ベースラインモデルとして IIDA2005, 比較対象モデルとして IIDA2007・IIDA2007+$\cdot$ PPR-を実装し, 位置関係ごとに最尤候補を求めてから最終的な出力を決める提案モデル PPR (Preferences based on Positional Relations)と比較する. ## 4.4.1 IIDA2005 位置関係に関わらずに, 全ての候補の中から最尤の候補を探索フェーズで 1 つ選出した後, トーナメントフェーズでそれが項としてふさわしいか否かを判断するモデル. (Iida et al. 2005) の探索先行分類型モデルである. 全ての候補の中から 1 つを選ぶという点で (Imamura et al. 2009)とほぼ同等のモデルである.  / /$ sourceforge.jp/projects/naist-jdic/ 14 動詞が約 3 万種, 名詞が約 32 万種で, ユニーク数は約 700 万組. 15 http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN 16 http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP 17 動詞が約 8 億種, 項が約 2.8 億種で, ユニーク数は約 1.6 億組. } 彼らのモデルと異なる主な点は, 最尤候補同定と照応性判定を異なるモデルで行う点と, 最尤候補同定時に 2 候補間の関係性も素性として用いる点である. このベースラインモデルとその他のモデルと比較することで, 項の位置関係によって探索の優先順序をつけることの効果や,位置関係ごとに最尤候補同定モデルを作り最尤候補同士の比較を陽に行う効果を調べる。 ## 4.4.2 IIDA2007 文内最尤候補を選出した後,分類器が項としてふさわしいと判断すればそれを項として出力し,そうでなければ同様に文間候補の探索を行うモデル.2.1.2 節で述べた (Iida et al. 2007)の文内候補を優先的に探索するモデルである. 彼らのモデルと異なる主な点は, 最尤候補同定や候補の適格性判定を行う分類器に BACT ではなくSVM を用いる点である. IIDA2005と比較することで,文内候補を優先的に探索することの効果を調べる. ## 4.4.3 IIDA2007+ INTRA_Dの探索後, 最尤候補が項としてふさわしいかどうかの判断(適格性判定)を行う.適格であればそれを出力し終了する。非適格であれば INTRA_Z の探索を行い,同様に適格性判定を行う。それも非適格であればINTER の探索を行い,適格であればそれを出力し,非適格であれば項は無いと判断する。IIDA2005と IIDA2007の自然な拡張で,述語から統語的な距離の近いものを優先的に探索する. IIDA2007 と比較することで,文内候補を細かくINTRA_D と INTRA_Z に分けて優先順序をつけることの効果を調べる。 ## 4.4.4 PPR- このモデルは,提案モデルとほぼ同じモデルであるが,INTRA_D とINTRA_Zを区別せずに,位置関係が INTRA と INTER の 2 グループであると仮定する。図 1 の (b) と (c) で示すようにトーナメントフェーズは 2 つの 2 值分類モデルからなる. 分類器 (c) は INTRA と INTER の候補のどちらが最尤候補であるかを判断する. PPR と比較することで,文内の項の位置関係を細かくINTRA_D と INTRA_Zに分けて最尤候補同定モデルを作り,最尤候補同士の比較を行うことの効果を調べる. ## 4.4.5 比較対象とする先行研究 NAIST テキストコーパスを使い, 全ての項の位置関係で実験を行なっている (Taira et al. 2008) と (Imamura et al. 2009) との比較も行う. ただし, 本実験とは微妙に実験設定が異なるため, 厳密な比較はできないことに注意してほしい. Taira et al. (2008)の実験では 19,501 個の述語をテストに,49,527 個を学習に,11,023 個を開発に使っている。また学習では京都大学テキストコーパス 4.0 で付与されている係り受け情報と形態素情報を用いていているが,テストでは独自の係り受け解析器を用いている. Imamura et al. (2009)の実験では,25,500 個の述語をテストに,67,145 個を学習に,13,594 個を開発に使っている。我々は京都大学テキストコーパス 3.0 を用いたが, Imamura et al. (2009) は京都大学テキストコーパス 4.0 で付与されている係り受け情報と形態素情報を学習とテストに用いている. ## 4.4.6 その他の先行研究 笹野, 黒橋 (2011) は, 提案システムは表層格の解析を行うことから, 受け身・使役形である述語は評価から除外しており, 本稿では比較対象としない. 吉川他 (2013) は, 文間項は解析対象としていないため, 本稿では比較対象としない. (渡邊, 浅原, 松本 2010) は述語語義と項の意味役割の依存関係を考慮しながら, 双方を同時に学習, 解析を行う構造予測モデルを提案している. しかし, 本稿とは異なるデータセットを用いていることから, 比較対象とはしない. ## 4.5 評価尺度 Precision, Recall, F 值で位置関係ごとに評価を行う. システムが出力した位置関係が $T$ であるもののうち, 正しく同定できているものの数を $t p_{(T)}$, できていないものの数を $f p_{(T)}$, システムに同定されなかった項のうち位置関係が $T$ であるものの数を $f n_{(T)}$ とすると, $ \text { Precision }=\frac{t p_{(T)}}{t p_{(T)}+f p_{(T)}}, \quad \text { Recall }=\frac{t p_{(T)}}{t p_{(T)}+f n_{(T)}}, \quad F=\frac{2 \cdot \text { Precision } \cdot \text { Recall }}{\text { Precision }+ \text { Recall }} $ と定義できる. また, システム全体 (ALL)の $t p, f p, f n$ と Precision, Recall, F 値も,同様に定義できる. ## 5 議論 表 $4,5,6$ にガ格・ヲ格・二格の実験結果を示す. $P, R, F, A_{M}$ はそれぞれ Precision, Recall, $\mathrm{F}$ 値, $\mathrm{F}$ 値のマクロ平均(INTRA_D, INTRA_Z, INTERの F 値の算術平均)を示す. ALL の F 值に関して, PPR-と PPRが IIDA2007 と比較して有意差があるかどうかの検定を 表 4 ガ格の述語項構造解析の比較 表 5 Э格の述語項構造解析の比較 表 6 二格の述語項構造解析の比較 Takamura によるスクリプト18を用いて Approximate Randomization Test (Chinchor, Hirschman, and Lewis 1993)を行った ${ }^{19} .0 .05$ 水準で有意であったものに,記号*を付記した. ## 5.1 決定的に項を同定していくモデルの比較 IIDA2005, IIDA2007, IIDA2007+の ALLのF値を比較することで, システム全体の性能について論じる。  ## 5.1.1 ガ格の性能 ALL の性能を比較すると,ガ格の性能は IIDA2007>IIDA2005>IIDA2007+である. IIDA2007 と IIDA2005 の性能を比較すると, Precision は IIDA2007 の方が高く, Recall は IIDA2005 の方が高い. 探索範囲を文内に限定することで, Precision が上がることが分かる. IIDA2007 の INTER の Recall は減少しているが, 文間項よりも文内項の方が 3 倍以上多いため, システム全体の性能としては向上することが分かる. IIDA2005と IIDA2007+の性能を比較すると, INTRA_D を優先的に探索することで, INTRA_D の Precisionが上昇し, F 值も上昇することが分かる. INTRA_Zの Precision も上昇するが, Recall は悪化し, INTRA_Zの分量が相当数あるため, 全体としては性能が悪化することが分かる. ## 5.1.2 ヨ格の性能 ガ格と同様であるが, INTRA_Z の数は比較的少ないため INTRA_D を優先的に探索しても,精度はガ格ほど悪化しない. ## 5.1.3 二格の性能 二格の性能はガ格・ヨ格とは異なり, IIDA2007+〜IIDA2007>IIDA2005である. この傾向は項の分布が影響している。二格は表 3 によると全ての項のうち, 全体の $90 \%$ 以上がINTRA_Dである。このため, INTRA_Dの探索を優先し, INTRA_Dの Recall を上昇させることで,全体としての性能を上昇させることができる. ## 5.2 提案手法の効果 決定的な解析では優先度の低い位置関係にある候補の再現率と $\mathrm{F}$ 值が低下するため, 優先順序をつけるほどマクロ平均は下がっていく。しかし, 提案手法は全ての位置関係について最尤候補を比較するので,マクロ平均を大きく下げずにマイクロ平均(ALL の F 値)も向上させることができている. PPR と PPR-のいずれも, IIDA2005・IIDA2007・IIDA2007+より性能が向上している. そのため, トーナメントフェーズで最尤候補を陽に比較する提案モデルは, 決定的に項を同定していくモデルよりも効果があるといえる. また, PPRは PPR-と比較して, ガ格・ニ格では性能はほとんど変わないが, ヲ格ではINTRA_D の Precision が向上したため, 全体の性能も向上していることが分かる. そのため, 文内項も INTRA_D と INTRA_Zで, 最尤候補の同定モデルを分けて陽に比較することで, さらに性能を向上することがあると分かる. ## 5.3 先行研究との比較 ガ格において, 提案手法は Taira et al. (2008) と Imamura et al. (2009)の性能を上回っている. Imamura et al. (2009) は候補同士の比較をせず,Taira et al. (2008) は優先順序を用いた決定的な解析を行なっており,それらが,提案手法と比べて性能が低い原因であると考える。格では,提案手法は Taira et al. (2008)の性能を上回っており, Imamura et al. (2009) とも同程度の性能を達成している。 しかしながら, 二格では, Taira et al. (2008) が最も性能が高い. Imamura et al. (2009) も, ガ格・ヲ格では Taira et al. (2008) を上回る性能を発揮しているのにも関わらず,二格では Taira et al. (2008)よりも性能が低い. この理由として, 二格は INTRA_Dが最も多く, 他の格の解析結果に依存することが挙げられる。一般に,1つの述語に対して異なる格で項を共有することはない. しかし, 提案手法も Imamura et al. (2009) も各格で独立に解析を行なっており, 他の格の解析結果の利用ができない,一方,Taira et al. (2008)は「項を含む文節が述語を含む文節に,他の格の項を介して係っている」という関係をモデル化 (ga_c, wo_c, ni_c) し, 他の格の解析結果を利用して同時に解析を行なっている。そのため, INTRA_Dの解析性能が高いと考えられる. ## 6 事例分析 ## 6.1 成功事例 ## 6.1.1 特定の位置関係を優先する決定的な解析モデル (IIDA) では解析できず,提案モデル (PPR) で解析できた事例 位置関係の優先順序を用いる決定的な解析モデルの中で, 全体的な性能が最も高い IIDA2007 と, 優先順位を持たない提案モデル $(\mathrm{PPR}-・ \mathrm{PPR})$ を比較すると, INTER の Precision が少し低下しているが,Recall は上昇し, $\mathrm{F}$ 値も上昇している。ガ格の解析にて, IIDA2007・PPR-・ PPRが解析に誤った事例の内訳を表 7 に Confusion Matrixで示した. PPR-やPPRでは, 誤ってINTER を出力した事例が増えており(3列目を参照),一方で,誤って「項なし」と判断した事例が減っていることが分かる (4列目を参照). IIDA2007 は文間の候補を参照せずに,文内 表 7 IIDA2007 (各セル左側) P PPR- (同中央) P PPR (同右側) のガ格の誤り事例の Confusion Matrix 最尤候補が項らしいか否かを判定しなければならないが,PPR-や PPR は文内最尤候補と文間最尤候補を比較した上で, 項として何が適切かを判断できるため, INTER の Recall を上昇させることができたと考える。そして,これが全体の性能に影響している。 ## 6.1.2 2 種類の最尤候補を用いるモデル (PPR-) では解析できず, 3 種類の最尤候補を用い る提案モデル (PPR) で解析できた事例 PPRーと PPR を比較すると, ガ格は INTRA_D と INTRA_Z の Precision と F 值が上昇しており, ヨ格は INTRA_Dの Precision と F 値が,上昇している. PPR は INTRA_Dの最尤候補同定モデルと INTRA_Z の最尤候補同定モデルの 2 つの異なるモデルでINTRA_D と INTRA_Z の最尤候補を選んでから,陽にINTRA_Dの INTRA_Zのどちらが項らしいかを比較することで, 正解項を同定しやすくなっていると考えられる。これは,特に(候補数が増加する)長い文の中にある文内項の同定に効果があった. 一九五二年以来の不平等が続いている「日米航空協定」の平等化を実現するため、「政府がが米側に、米航空会社の新規路線開設を今後認めない強硬方針を通告していたことが、十三日明らかになった。 「認める」のガ格に対して,PPR-では誤って「方針」を項として出力したが,PPRは正しく「政府」を出力した。 ## 6.2 誤り分析 項構造解析に失敗した事例を分析したところ, 誤り理由の上位 3 つは次のものであった. 1 つ目は, 談話の理解が必要な場合である. 以下の文で,「絡みつく」の二格は「ユリカモメ」である。しかし, システムはニ格は項なしと判断してしまった. 東京・上野の不忍池で、無残な姿の鳥が目立つ。片足が切れたユリカモメ。釣り糸を引っ掛けて取れなくなって、そのうちに足を切断してしまうケースが多い。竹ぐしが右の首に突き刺さったユリカモメニも。くしが十センチほど体の外にのぞく。水面に浮かんだゴムガが絡み付き、もがくうちに首まで入ってしまったらしい。 「ユリカモメ」が話題の中心であることが捉えられなかったことが解析に失敗した理由として考えられる,今回の実験で,談話を捉えるために,Salient Reference List を用いたが,「絡み付く」の解析時に「ユリカモメ」は Listには無いため,うまくいかない. これを解析するためには,「ユリカモメは負傷している」「絡み付くは負傷に関する述語である」という知識のもとで,「ユリカモメが絡み付くの二格である」という推論が必要となる。その知識を本文中から取 得するには,「鳥」や 2 回出てくる「ユリカモメ」が照応関係にあるという知識も必要となることから, 固有表現解析や共参照解析などと推論を用いた述語項構造解析を同時に行うことで互いに精度を高めあうことができると考える。 2 つ目は,格フレームなどの情報を使った格の同時解析が必要な場合である,次の文の「書く」の二格は「日記」・ヨ格は「矛盾」とアノテートされているが,システムはニ格は「項なし」・ ヲ格は「日記」と判断した。 日記ニには、小説の読後感や将来への夢、希望などをつづるようになり、高校生に なると、大学受験のこと、沖縄における政治の矛盾ヲなども書くようになった。 一般に,「書く」の二格に「日記」が来ることは少ない. しかし, 京都大学格フレーム (河原,黒橋 2005)20 のような格フレーム辞書を用いれば,「書く」は「日記」を二格にとりうることがわかる.表 8 に京都大学格フレームにおける「書く」の第 1 格フレームと第 3 格フレームを示した,この表は,それぞれの格フレームを構成する格がどのような項をどのくらい取るのかを, WEB コーパス内の頻度付きで表している,表8より,ヨ格に“補文”(ここでは「沖縄における政治の矛盾」)をとれば,「問い」を二格にとりうる,とわかる。 3 つ目は,一般の述語とは異なる扱いをすべき述語の場合である.NAIST テキストコーパスでは名詞述語『名詞句 + コピュラ「だ」』述語としてアノテーションされている. 欧州連合カが十五力国に拡大して初の交涉となる。昨年は欧州市場での乗用車の売れ行き回復を受け、規制枠を若干上方修正したが、今年については「昨年の新車登録台数集計を踏まえて対応したい」と慎重姿勢だ。 しかしながら, 名詞述語の振る舞いは他の述語とは明らかに異なり, 同一の素性・モデルで項を同定するのは難しい,そのため,他の述語の解析モデルと分けるべきであると考える。 実際に,PPRを,名詞述語とそれ以外の述語で単純に解析モデルを分けて学習・テストした 表 8 京都大学格フレームにおける「書く」の第 1 ・第 3 格フレーム  表 9 名詞述語とそれ以外の述語とでモデルを分けた場合のガ格の性能の比較 ところ, 表 9 に示したように ${ }^{21}$ ガ格の ALL の $\mathrm{F}$ 值が 77.59 から 77.75 と 0.16 ポイント上昇した.大きな上昇がみられなかったのは, 項と名詞述語の意味的関係を既存の素性ではうまく捉えられないためだと考える. 名詞述語文の働きは様々で,「ラッセルは哲学者だ」のようにある事物がどのような範疇に属するのかを述べたり,「この部屋の温度は 19 度だ」のように記述を満たす値がどれなのかを述べたりする (今田 2010). このような関係は 4.3 節での素性では捉えられない. そのため, 京都大学名詞格フレーム (笹野, 河原, 黒橋 2005) や日本語語彙大系 (池原他 1997) などの名詞間の関係を捉える知識を用いる必要があると考える. また,動詞にも一般動詞とは異なる振る舞いをする動詞「なる」の解析誤りも多かった. 山花氏らにとっては、社会党が離脱を認めるかどうかがか、最初の関門ニとなる。 長さガ 40 メートルニにもなる 3 両編成の大型トラック、ロードトレインに便乗して大乾燥地帯を行く蛭子。 福井市の中心から足羽川を上流へ十キロたどると、そこガはもうひなびた農村のたたずまいニとなる。 これらの事例の「なる」自体には意味はあまり持たず,二格が名詞述語相当の意味を持っているとも言える。そのため, 名詞述語同様, 解析モデルを分けるべきであると考える. ## 7 おわりに 本稿では,位置関係ごとに最尤候補同定モデルを作成し,実際の解析時には,各位置関係の最尤候補の中から最終的な出力を選ぶモデルを提案した.従来の研究では位置関係ごとに優先 順位をつけ,決定的な解析を行ってきたが,それよりも提案手法が精度良く解析できることを確かめた。 今後の課題は, 複数の格の解析を同時に行う手法と, 本手法を統合させることを考えている. これまでに,同時解析を行うモデルは Taira et al. (2008) や笹野,黒橋 (2011)によって提案されてきたが 22 ,いずれも,特定の位置関係を優先的に決定する手法である。それらの手法を,異なる位置関係の候補を参照するように発展させることを考えている。 また, 名詞述語などの特殊な述語については, 一般の述語とは解析モデルを分けることで, 精度向上を目指すことも考えている。これらは名詞間の意味的知識がなければ解析が難しいことが分かったので,日本語語彙大系などのシソーラスを活用することを考えている. ## 謝 辞 ウェブから収集した日本語文デー夕を使用させてくださった河原大輔氏に感謝いたします。 また, Taira et al. (2008)の詳細なアルゴリズムを教えてくださった平博順氏にお礼申し上げます.そして,多数の有益なコメントをくださった匿名の 3 名の査読者に深謝いたします. ## 参考文献 Chinchor, N., Hirschman, L., and Lewis, D. D. (1993). "Evaluating Message Understanding Systems: An Analysis of the Third Message Understanding Conference (MUG-3)." Computational Linguistics, 19 (3), pp. 409-449. Cortes, C. and Vapnik, V. (1995). "Support-Vector Networks." Machine learning, 20 (3), pp. 273-297. 藤田篤, 乾健太郎, 松本裕治 (2004). 自動生成された言い換え文における不適格な動詞格構造の検出. 情報処理学会論文誌, 45 (4), pp. 1176-1187. Hindle, D. (1990). "Noun Classification from Predicate-Argument Structures." In Proceedings of the 28th Annual Meeting on Association for Computational Linguistics, pp. 268-275. Association for Computational Linguistics. 飯田龍, 乾健太郎, 松本裕治 (2004). 文脈的手がかりを考慮した機械学習による日本語ゼロ代名詞の先行詞同定. 情報処理学会論文誌, 45 (3), pp. 906-918. 飯田龍, 小町守, 井之上直也, 乾健太郎, 松本裕治 (2010). 述語項構造と照応関係のアノテー ション: NAIST テキストコーパス構築の経験から. 自然言語処理, 17 (2), pp. 25-50. Iida, R., Inui, K., and Matsumoto, Y. (2005). "Anaphora Resolution by Antecedent Identification Followed by Anaphoricity Determination." ACM Transactions on Asian Language Information Processing, 4 (4), pp. 417-434. Iida, R., Inui, K., and Matsumoto, Y. (2007). "Zero-anaphora Resolution by Learning Rich Syntactic Pattern Features." ACM Transactions on Asian Language Information Processing, 6 (4), pp. 1:1-1:22. 池原悟, 宮崎正弘, 白井諭, 横尾昭男, 中岩浩巳, 小倉健太郎, 大山芳史, 林良彦 (1997). 日本語語彙大系. 岩波書店. 今田水穂 (2010). 日本語名詞述語文の意味論的 ・機能論的分析. 博士 (言語学) 学位論文, 筑波大学. Imamura, K., Saito, K., and Izumi, T. (2009). "Discriminative Approach to Predicate-Argument Structure Analysis with Zero-Anaphora Resolution." In Proceedings of the Joint Conference of the 47th Annual Meeting of the Association for Computational Linguistics and the 4th International Joint Conference on Natural Language Processing of the Asian Federation of Natural Language Processing, pp. 85-88. 河原大輔, 黒橋禎夫 (2004). 自動構築した格フレーム辞書と先行詞の位置選好順序を用いた省略解析. 自然言語処理, 11 (3), pp. 3-19. 河原大輔, 黒橋禎夫 (2005). 格フレーム辞書の漸次的自動構築. 自然言語処理, 12 (2), pp. 109-131. Kawahara, D. and Kurohashi, S. (2006). "Case Frame Compilation from the Web using HighPerformance Computing." In Proceedings of the 5th International Conference on Language Resources and Evaluation, pp. 1344-1347. Kawahara, D., Kurohashi, S., and Hasida, K. (2002). "Construction of a Japanese Relevancetagged Corpus." In Proceedings of the 3rd International Conference on Language Resources and Evaluation, pp. 2008-2013. 工藤拓, 松本裕治 (2004). 半構造化テキストの分類のためのブースティングアルゴリズム. 情報処理学会論文誌, 45 (9), pp. 2146-2156. Nariyama, S. (2002). "Grammar for Ellipsis Resolution in Japanese." In Proceedings of the 9th International Conference on Theoretical and Methodological Issues in Machine Translation, pp. 135-145. 日本語記述文法研究会 (2010). 現代日本語文法 1. くろしお出版. 笹野遼平, 河原大輔, 黒橋禎夫 (2005). 名詞格フレーム辞書の自動構築とそれを用いた名詞句の関係解析. 自然言語処理, 12 (3), pp. 129-144. 笹野遼平,黒橋禎夫 (2011). 大規模格フレームを用いた識別モデルに基づく日本語ゼロ照応解析. 情報処理学会論文誌, 52 (12), pp. 3328-3337. Surdeanu, M., Harabagiu, S., Williams, J., and Aarseth, P. (2003). "Using Predicate-Argument Structures for Information Extraction." In Proceedings of the 41st Annual Meeting on Association for Computational Linguistics, Vol. 1, pp. 8-15. Taira, H., Fujita, S., and Nagata, M. (2008). "A Japanese Predicate Argument Structure Analysis Using Decision Lists." In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 523-532. 渡邊陽太郎, 浅原正幸, 松本裕治 (2010). 述語語義と意味役割の結合学習のための構造予測モデル. 人工知能学会論文誌, $25(2)$, pp. 252-261. Wu, D. and Fung, P. (2009). "Can Semantic Role Labeling Improve SMT?" In Proceedings of the 13th Annual Conference of the European Association for Machine Translation, pp. 218-225.吉川克正, 浅原正幸, 松本裕治 (2013). Markov Logic による日本語述語項構造解析. 自然言語処理, $20(2)$, pp. 251-271. ## 略歴 林部祐太:2009 年大阪大学基礎工学部情報科学科中途退学. 2011 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 現在, 同研究科博士後期課程在籍. 修士(工学).意味解析とその応用に興味をもつ. 小町守:2005 年東京大学教養学部基礎科学科科学史・科学哲学分科卒. 2010 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士(工学)。同研究科助教を経て,2013 年より首都大学東京システムデザイン学部准教授,現在に至る。大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある。人工知能学会, 情報処理学会, ACL 各会員. 松本裕治:1977 年京都大学工学部情報工学科卒. 1979 年同大学大学院工学研究科修士課程情報工学専攻修了. 同年電子技術総合研究所入所. 1984 1985 年英国インペリアルカレッジ客員研究員. 1985~1987 年財団法人新世代コンピュータ技術開発機構に出向. 京都大学助教授を経て, 1993 年より奈良先端科学技術大学院大学教授, 現在に至る. 工学博士. 専門は自然言語処理. 言語処理学会, 情報処理学会, 人工知能学会, 認知科学会, AAAI, ACL, ACM 各会員. 情報処理学会フェロー, ACL Fellow.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 階層的複数ラベル文書分類におけるラベル間依存の利用 ## 村脇 有吾† 階層的複数ラベル文書分類においては,あらかじめ定義されたラベル階層の利用が中心的な課題となる。本稿では, 複数の出力ラベル間の依存関係という, 従来研究が用いてこなかった手がかりを利用する手法を提案する。これを実現するために,まずはこのタスクを構造推定問題として定式化し,複数のラベルを同時に出力する大域モデルと, 動的計画法による厳密解の探索手法を提案する. 次に, ラベル間依存を表現する枝分かれ特徴量を導入する。実験では,ラベル間依存の特徴量の導入により, 精度の向上とともに,モデルの大きさの削減が確認された. キーワード:文書分類,構造推定問題,木,動的計画法,オンライン学習 ## Exploiting Inter-label Dependencies in Hierarchical Multi-Label Document Classification \author{ YugO MuraWaKI ${ }^{\dagger}$ } The main challenge in hierarchical multi-label document classification is the means by which hierarchically organized labels are leveraged. In this paper, we propose to exploit dependencies among multiple labels to be output, which has not been considered in previous studies. To accomplish this, we first formalize the task as a structured prediction problem and propose (1) a global model that jointly outputs multiple labels and (2) a decoding algorithm that finds an exact solution with dynamic programming. We then introduce features that capture inter-label dependencies. Experiments show that these features improve performance while reducing the model size. Key Words: document classification, structured prediction problem, tree, dynamic programming, online learning ## 1 はじめに 電子化されたテキストが利用可能になるとともに,階層的文書分類の自動化が試みられてきた. 階層的分類の対象となる文書集合の例としては,特許 ${ }^{1}$, 医療オントロジー ${ }^{2}$, Yahoo!や Open Directory Project ${ }^{3}$ ようなウェブディレクトリが挙げられる。文書に付与すべきラベルは,夕 ^{1} \mathrm{http}: / /$ www.wipo.int/classifications/en/ 2 http://www.nlm.nih.gov/mesh/ }^{3}$ http://www.dmoz.org/ スクによって, 各文書に 1 個とする場合と, 複数とする場合があるが, 本稿では複数ラベル分類に取り組む。 階層的分類における興味の中心は,あらかじめ定義されたラベル階層をどのように自動分類に利用するかである。そもそも,大量のデータを階層的に組織化するという営みは, 科学以前から人類が広く行なってきた,例えば,伝統社会における生物の分類もその一例である。そこでは分類の数に上限があることが知られており,その制限は人間の記憶容量に起因する可能性が指摘されている (Berlin 1992). 階層が人間の制約の産物だとすると,そのような制約を持たない計算機にとって,階層は不要ではないかと思われるかもしれない. 階層的分類におけるラベル階層の利用という観点から既存手法を整理すると,まず,非階層型と階層型に分けられる。非階層型はラベル階層を利用しない手法であり, 各ラベル候補について,入力文書が所属するか否かを独立に分類する. ラベル階層を利用する階層型は,さらに 2 種類に分類できる。一つはラベル階層を候補の枝刈りに用いる手法(枝刈り型)である。典型的には,階層を上から下にたどりながら局所的な分類を繰り返す (Montejo-Ráez and Ureña-López 2006; Qiu, Gao, and Huang 2009; Wang, Zhao, and Lu 2011).枝刈りにより分類の実行速度をあげることができるため,ラベル階層が巨大な場合に有効である。しかし, 局所的な分類を繰り返すことで誤り伝播が起きるため, 精度が低下しがちという欠点が知られている (Bennett and Nguyen 2009)。もう一つの手法はパラメータ共有型である。この手法では,ラベル階層上で近いラベル同士は似通っているので,それらを独立に分類するのではなく, 分類器のパラメータをラベル階層に応じて部分的に共有させる (Qiu et al. 2009).これにより分類精度の向上を期待する. これらの既存手法は,いずれも複数ラベル分類というタスクの特徴を活かしていない.複数ラベル分類では,最適な候補を 1 個採用すればよい単一ラベル分類と異なり,ラベルをいくつ採用するかの加減が人間作業者にとっても難しい. 我々は, 人間作業者が出力ラベル数を加減する際,ラベル階層を参照しているのではないかと推測する.例えば,科学技術文献を分類する際,ある入力文書が林業における環境問題を扱っていたとする。この文書に対して,「林業政策」と「林業一般」という 2 個のラベルは, それぞれ単独でみると,いずれもふさわしそうである.しかし,両者を採用するのは内容的に冗長であり,よりふさわしい「林業政策」だけを採用するといった判断を人間作業者はしているかもしれない. 一方, 別のラベル「環境問題」は 「林業政策」と内容的に競合せず,両方を採用するのが適切を判断できる。この 2 つ異なる判断は,ラベル階層に対応している。「林業政策」と「林業一般」は最下位層において兄弟関係にある一方,「林業政策」と「環境問題」はそれぞれ「農林水産」と「環境工学」という異なる大分類に属している. このように, 我々は, 出力すべき複数ラベルの間にはラベル階層に基づく依存関係があると仮定する。そして, 計算機に人間作業者の癖を模倣させることによって,(それが真に良い分類 であるかは別として)人間作業者の分類を正解としたときの精度が向上することを期待する.本稿では,このような期待に基づき,ラベル間依存を利用する具体的な手法を提案する。まずは階層型複数ラベル文書分類を構造推定問題として定式化し,複数のラベルを同時に出力する大域モデルと,動的計画法による厳密解の探索手法を提案する。次に,ラベル間依存を表現する枝分かれ特徴量を導入する。この特徴量は動的計画法による探索が維持できるように設計されている,実験では,ラベル間依存の特徴量の導入により,精度の向上とともに,モデルの大きさの削減が確認された。 本稿では, 2 節で問題を定義したうえで, 3 節で提案手法を説明する, 4 節で実験結果を報告する.5 節で関連研究に言及し, 6 節でまとめと今後の課題を述べる. ## 2 問題設定 階層型複数ラベル文書分類では,与えられた文書に対して,それをもっともよく表すラべルの集合 $\mathcal{M} \subset \mathcal{L}$ を返す.ここで, $\mathcal{L}$ はあらかじめ定義されたラべルの集合である. $\mathcal{L}$ は図 1 のように木構造で組織化されているとする 4 . また, 付与対象のラベルは葉のみであり, 内部ノードはラベルとならないとする。図1の場合, $\mathrm{AA}, \mathrm{AB}, \mathrm{BA}$ および $\mathrm{BB}$ がラベル候補となる. いくつかの記法を整理しておく. leaves $(c)$ は, $c$ の子孫である葉の集合を返す. 例えば, leaves $(\mathrm{A})=$ $\{\mathrm{AA}, \mathrm{AB}\}$. ただし, $c$ 自身が葉の場合は, leaves $(c)=\{c\} . p \rightarrow c$ は親 $p$ から子 $c$ への辺を表す. $\operatorname{path}(c)$ はROOT と $c$ を結ぶ辺の集合を返す. 例えば, $\operatorname{path}(\mathrm{AB})=\{\mathrm{ROOT} \rightarrow \mathrm{A}, \mathrm{A} \rightarrow \mathrm{AB}\}$. また, $\operatorname{tree}(\mathcal{M})=\bigcup_{l \in \mathcal{M}} \operatorname{path}(l)$ とする.これは $\mathcal{M}$ を被覆する最小の部分木に対応する. 例えば, $\operatorname{tree}(\{\mathrm{AA}, \mathrm{AB}\})=\{\mathrm{ROOT} \rightarrow \mathrm{A}, \mathrm{A} \rightarrow \mathrm{AA}, \mathrm{A} \rightarrow \mathrm{AB}\}$. 文書 $x$ は $\phi(x)$ により特徴量べクトルに変換される。特徴量として, 例えば, 文書分類タスク 図 1 ラベル階層の例(灰色の葉のみが付与対象のラベル)  で一般な単語かばん (bag-of-words) 手法を用いることができる. 本タスクは教師あり設定であり,訓練データ $\mathcal{T}=\left.\{\left(x_{i}, \mathcal{M}_{i}\right)\right.\}_{i=1}^{T}$ が与えられる. $\mathcal{T}$ を用いてモデルを訓練し,これとは別のテストデータによって性能を評価する. ## 3 提案手法 ## 3.1 大域モデル ラベル間依存を利用するための準備として, 入力文書 $x$ に対して出力ラベル集合 $\mathcal{M}$ を同時に推定する大域モデルを提案する。具体的には, 階層的複数ラベル文書分類を構造推定問題とみなし, $\mathcal{M}$ が作る部分木に対してスコアを定義する. $ \operatorname{score}^{\text {global }}(x, \mathcal{M})=\mathbf{w}^{\text {global }} \cdot \Phi^{\text {global }}(x, \operatorname{tree}(\mathcal{M})) $ $\mathbf{w}^{\text {global }}$ は重みべクトルであり,訓練データを用いて学習すべきパラメータである. $\mathbf{w}^{\text {global }}$ は,辺に対応する局所的な重みべクトルを連結することにより構成される. 例えば,図 1 の場合は $ \mathbf{w}^{\text {global }}=\mathbf{w}_{\mathrm{ROOT} \rightarrow \mathrm{A}} \oplus \mathbf{w}_{\mathrm{ROOT} \rightarrow \mathrm{B}} \oplus \mathbf{w}_{\mathrm{A} \rightarrow \mathrm{AA}} \oplus \mathbf{w}_{\mathrm{A} \rightarrow \mathrm{AB}} \oplus \mathbf{w}_{\mathrm{B} \rightarrow \mathrm{BA}} \oplus \mathbf{w}_{\mathrm{B} \rightarrow \mathrm{BB}} $ となる. 特徴関数 $\Phi^{\text {global }}$ は, 文書 $x$ と $\operatorname{tree}(\mathcal{M})$ を入力とし, $\mathbf{w}^{\text {global }}$ と同次元のべクトルを返す. 具体的には, 各 $p \rightarrow c \in \operatorname{tree}(\mathcal{M})$ に対応する部分べクトルに $\phi(x)$ を, 残りの要素に 0 を入れた特徵量べクトルを返す。したがって, $\operatorname{score}^{\text {global }}(x, \mathcal{M})$ は以下のように書き換えられる. $ \operatorname{score}^{\text {global }}(x, \mathcal{M})=\sum_{p \rightarrow c \in \operatorname{tree}(\mathcal{M})} \mathbf{w}_{p \rightarrow c} \cdot \phi(x) $ $ \underset{\mathcal{M}}{\operatorname{argmax}} \operatorname{score}^{\text {global }}(x, \mathcal{M}) $ ## 3.2 動的計画法による解探索 大域モデルの, 現在のパラメータ $\mathbf{w}^{\text {global }}$ もとでの厳密解は, 動的計画法により効率的に求められる. Algorithm 1 に動的計画法の擬似コードを示す. $\operatorname{MAXTREE}(x, p)$ は, $p$ を根とする部分木の集合から,スコアが最大のものを再帰的に探索する. したがって,我々が呼び出すのは $\operatorname{MAXTREE}(x, \operatorname{ROOT})$ である. 子 $c$ は, (1) $c$ を根とするスコア最大の部分木を作るラベル集合, および $(2)$ そのスコアとひも付けされている. ただし, 葉のスコアは 0 である. $p$ から見た $c$ のスコアは, $c$ の部分木のスコアと辺 $p \rightarrow c$ のスコアの和である(3-8行目). $p$ の部分木のスコアを最大にするには, 正のスコアを持つ $c$ をすべて採用すればよい(10行 目)、いずれの子も正のスコアを持たない場合は,最大のスコアを持つ子を 1 個採用する(11-13 行目)。採用された子の集合により,pのラベル集合とスコアが決定される(14-15行目). このアルゴリズムの拡張としては,上位 $N$ 個の候補集合を出すというものが考えられる。木に対する動的計画法としては,構文解析 (McDonald, Crammer, and Pereira 2005) よりもはるかに簡単なため, 上位 $N$ 個への拡張 (Collins and Koo 2005) もさほど難しくない. ## 3.3 ラベル間依存の利用 以上の準備により,ラベル間依存を利用する条件が整った。ラベル間依存の捕捉は,大域モデルに対する特徴量の追加により実現される,具体的には,あるノードがいくつの子を採用しやすいかを制御する枝分かれ特徵量を導入する. 枝分かれ特徴量は $\phi^{\mathrm{BF}}(p, k)$ により表される。ここで $p$ は根あるいは内部ノードであり, $k$ は $p$ が採用する子の数である。ただし,あらゆる $k$ の値に対して特徴量を設けると疎になるため, ある $R$ について, $R+1$ 個 $(1, \cdots, R$ もしくは $>R)$ の特徴量に限定する. さらに,ノードごとの特徴量だけでなく, すべての根あるいは内部のノードが共有する $R+1$ 個の特徴量も設ける. つまり, 追加される特徴量は $(I+1)(R+1)$ 個であり, 各ノードに対して 2 個の特徴量が発火する.ここで,I はラベル階層における根および内部ノードの個数とする. この枝分かれ特徵量は, 動的計画法による厳密解探索が維持できるように設計されている. この特徴量を組み込むには,Algorithm 1の10-15行目をAlgorithm 2 で置き換えればよい.枝分かれ特徴量のスコア $\mathbf{w}^{\mathrm{BF}} \cdot \phi^{\mathrm{BF}}(p, k)$ は $k$ のに依存する. そこで,まずは採用する子の数 $k$ によって候補をグループ分けし, 各グループのなかでスコアが最大の候補を選ぶ(12-16行目).最後に,異なるグループ同士を比較し,スコアが最大となる候補を採用する(17 行目)。グルー プ内でスコアが最大の候補を選ぶには,子をスコア順に並べ,上位 $k$ 個を採用すれば良い,候補のスコアは, $p$ から見た各子のスコアと枝分かれ特徴量のスコアの和となる(15行目). 枝分かれ特徴量の導入により, ラべルの採否の判断が, ラベル同士の相対的な比較によって行われるようになる,1節で触れた,「林業政策」と「環境問題」というラベルが付与された文書を再び例に挙げる。この文書に対して「林業一般」というラべルはそれほど不適切には見えないが,枝分かれ特徴量を持たないモデルは,「林業一般」を付与しない理由を, $\phi(x)$ に対応する重みですべて説明しなければならない. 4.5 節で示すように, 枝分かれ特徴量の重みは, 一般に, 負の値を持ち, ペナルティとして働く。また, 子の数が増えるにつれてぺナルティが増えるように学習される。したがって,子を 2 個採用するとよりペナルティがかかるので,「林業一般」に対応する重みを無理に引き下げることなく,相対的により適切な「林業政策」のみを採用することが可能となる. ## 3.4 大域訓練 大域モデルの訓練手法をここでは大域訓練と呼ぶ. 本稿では, パーセプトロン系のオンライン学習アルゴリズムを採用する。具体的には, 構造推定問題に対する Passive-Aggressive アルゴリズム (Crammer, Dekel, Keshet, Shalev-Shwartz, and Singer 2006)を用いる. Passive-Aggressive を採用した理由としては, 実装の簡便さ,バッチ学習と異なり,大量の訓練デー夕に容易に対応可能なオンライン学習であること, 次節で述べるように並列分散化が容易に実現できることが挙げられる。ただし,これは提案手法がパーセプトロン系アルゴリズムでしか実現できないことを意味せず,構造化 SVM (Tsochantaridis, Hofmann, Joachims, and Altun 2004) を含む他の構造学習アルゴリズムの導入も検討に值する。 大域モデルの場合の擬似コードを Algorithm 3 に示す. ここで, $N$ は訓練の反復数を表し, パラメータ $C$ は 1.0 とする. 現在のパラメータにおける厳密解は上述の動的計画法により求ま る(5 行目),予測を誤った場合,正解ラベル集合を出力する方向に重みを更新する(10 行目). ここで,コスト $\rho$ はモデル予測の誤り度合いを表し,重みの更新幅を変化させる, $\rho$ は,正解ラベル集合とシステムの出力の一致の度合いに基づいている. ## 3.5 大域訓練の並列分散化 大域訓練には学習が非常に遅いという欠点がある. ラベル集合の分類はラベル 1 個の 2 値分類とは比較にならないほど遅い。しかも,大域訓練はモデルを一枚岩とするため,モデルを局所分類器に分割して並列化することができない. そこで,繰り返しパラメータ混ぜ合わせ法 (McDonald, Hall, and Mann 2010) を用いて並列分散化を行う.基本的な考えは,モデルを分割する代わりに,訓練データを分割することで並列化を行うというものである.別々の訓練デー夕断片から学習されたモデル群を繰り返し混ぜ合わせることで収束性を保証している. Algorithm 4 に繰り返しパラメータ混ぜ合わせ法の擬似コードを示す.ここで $N^{\prime}$ は繰り返しパラメータ混ぜ合わせ法の反復数,S は訓練データの分割数を表す. 繰り返しパラメータ混ぜ合わせ法では,断片ごとに並列に訓練を行う,各反復の最後に,並列に訓練された複数のモデルを平均化する.次の反復では,この平均化されたモデルを初期値として用いる. 繰り返しパラメータ混ぜ合わせ法はパーセプトロン向けに提案されたものである。しかし, (McDonald et al. 2010) が言及している通り, Passive-Aggressive アルゴリズムに対しても収束性を証明することができる。 図 2 JSTPlus の文書例 ## 4 実験 ## 4.1 データ 評価データとして JSTPlus ${ }^{5}$ タい用い. JSTPlus は科学技術振興機構が作成している科学技術文献のデータベースである,各文書は,標題,抄録,著者一覧,ジャーナル名,分類コード一覧や,その他数多くの項目からなる.文書例を図 2 に示す。実験では,標題と抄録を文書分類に用いるテキストとし, 分類コードを付与すべきラべルとみなす。また, 2010 年の文献のうち, ^{5}$ http://jdream3.com/service/jdream.html } 日本語の標題と日本語の抄録の両方を含むものを実験の対象とした。その結果, 455,311 件の文書を得た。これを 409,892 件の訓練データと 45,419 件の評価データに分割した. ラベル(分類コード)は 3,209 個からなり, これは 4,030 個の辺に対応する. ラベル階層は,根を除いて,最大で 5 階層となっている。ただし,いくつかの辺は中間層を飛ばす(例えば,第 2 層のノードの子が第 4 層にある場合がある). 各文書は平均で 1.85 個のラベルが付与されている(分散は 0.85 ). 文書ごとの最大ラベル数は 9 である. 文書の特徴関数 $\phi(x)$ には以下の 2 種類の特徴量を用いる。 (1) ジャーナル名. 2 值特徴量で,各文書につき 1 個の特徴量が発火する. (2) 標題と抄録中の内容語. 値は頻度. ただし,標題中の内容語の頻度は 2 倍する. よって各文を単語列に分割し, 次に KNP が持つ規則を使って内容語に夕グ付けした。各文書は平均で 380 文字を含んでいた。これは内容語としては 120 語に相当する. ## 4.2 モデル設定 大域訓練で訓練された大域モデル (GM-GT) について,枝分かれ特徴量 $(\mathbf{B F})$ を用いた場合と用いなかった場合を比較する。大域モデルの繰り返しパラメータ混ぜ合わせ法については,訓練データを 10 個の断片に分割し, 反復数は $N^{\prime}=10$ とする. 枝分かれ特徴量について, $R=3$ とする. その他の比較対象として, 従来研究を参考にして以下のモデルを用いる. ## 4.2.1 非階層型 非階層型 $($ FLAT) はラベル階層を無視し, 各ラベル $l$ を文書 $x$ に付与すべきか否かを独立に決定する。そのために各 $l$ に対して 2 值分類器を用意する。分類器の実装手法としては,ナイー ブベイズ,ロジスティック回帰,サポートベクタマシンなどが用いられてきたが,本稿では,提案手法との比較のために Passive-Aggressive アルゴリズム (Crammer et al. 2006)を用いる. ラベル $l$ に対する 2 值分類器は重みベクトル $\mathbf{w}_{l}$ を持つ. スコア $\mathbf{w}_{l} \cdot \phi(x)$ が正のとき, $l$ を $x$ に付与する。ただし,文書に対して最低 1 個のラベルを付与する。そのために,いずれのラべルも正のスコアを取らない場合は,一番高いスコアを持つラベルを 1 個採用する. $\mathbf{w}_{l}$ を訓練するために,元の訓練データ $\mathcal{T}$ を以下のようにして $\mathcal{T}_{l}$ に変換する. $ \mathcal{T}_{l}=\left.\{\left(x_{i}, y_{i}\right) \left.\lvert\, \begin{array}{ll} y_{i}=+1 & \text { if } l \in \mathcal{M}_{i} \\ y_{i}=-1 & \text { otherwise } \end{array}\right.\right.\}_{i=1}^{T} $  各文書はラベル $l$ を持つとき正例,そうでなければ負例となる。擬似コードを Algorithm 5 に示す. ここで,パラメータ $C$ は 1.0 とする。訓練の反復数は $N=10$ とする. なお, 各 2 值分類器は独立なので,訓練は容易に並列化できる. ## 4.2.2 枝刈り型 枝刈り型 (PRUNE) はラベル階層を利用する手法であり,ラベル階層に対応する 2 值分類器の集合を持つ (Montejo-Ráez and Ureña-López 2006; Wang et al. 2011; Sasaki and Weissenbacher $2012)^{8}$. 各 2 值分類器はラベル階層上の辺 $p \rightarrow c$ とひも付けされ, 重み $\mathbf{w}_{p \rightarrow c}$ を持つ. $\mathbf{w}_{p \rightarrow c}$. 器も並列に訓練できる。 パラメータ $C$ の値, 訓練の反復数は非階層型と同じとする. 枝刈り型には誤り伝播 (Bennett and Nguyen 2009) とよばれる問題が知られている。すなわち,階層上位の分類器による誤りから回復する手段がないため,累積的に誤りが作用する.誤り伝播を軽減するために様々な手法が提案されているが, 煩雑さを避けるため, 本稿では, Algorithm 6 に示す単純な実装を採用する。各ノード $p$ において,局所分類器が正のスコアを返す子すべてを採用する(4-7 行目)。ただし,いずれの子も正のスコアを得ない場合は,一番高いスコアを得た子を 1 つ採用する(8-10 行目)。この操作を葉に到達するまで繰り返す. 2 值分類器の訓練データ $\mathcal{T}_{p \rightarrow c}$ の構築方法としては,以下の 2 種類を試す. ALL全訓練データを利用する (Punera and Ghosh 2008).  各文書は $c$ のいずれかの子孫のラベルが割り当てられていれば正例, そうでなければ負例となる. SIB 正例は ALL と同じだが,負例を $c$ の兄弟の子孫が割り当てられている場合に限定する. $ \mathcal{T}_{p \rightarrow c}=\left.\{(x, y) \left.\lvert\, \begin{array}{ll} y=+1 & \text { if } \exists l \in \mathcal{M}, l \in \text { leaves }(c) \\ y=-1 & \text { if } \exists l \in \mathcal{M}, l \in \text { leaves }(p) \text { かつ } l \notin \text { leaves }(c) \end{array}\right.\right.\} $ こうすることで,全体として小さなモデルが学習される。なぜなら,数の多い階層下位の分類器に与えられる訓練データが小さくなるからである。従来研究ではSIB を採用する場合が多い (Liu, Yang, Wan, Zeng, Chen, and Ma 2005; Wang et al. 2011; Sasaki and Weissenbacher 2012). ## 4.3 評価尺度 複数ラベル分類に対する評価尺度は数多く存在するが,大きく 2 種類に整理できる.1つは,文書を単位とした評価尺度で,しばしば用例べースの尺度とよばれる (Godbole and Sarawagi 2004; Tsoumakas, Katakis, and Vlahavas 2010). 文書単位の尺度として, 適合率 (EBP), 再現率 $(\mathrm{EBR})$ および $\mathrm{F}$ 値 $(\mathrm{EBF})$ が以下のように定義される. $ \begin{aligned} & \mathrm{EBP}=\frac{1}{T} \sum_{i=1}^{T} \frac{\left|\mathcal{M}_{i} \cap \hat{\mathcal{M}}_{i}\right|}{\left|\hat{\mathcal{M}}_{i}\right|} \\ & \mathrm{EBR}=\frac{1}{T} \sum_{i=1}^{T} \frac{\left|\mathcal{M}_{i} \cap \hat{\mathcal{M}}_{i}\right|}{\left|\mathcal{M}_{i}\right|} \end{aligned} $ $ \mathrm{EBF}=\frac{1}{T} \sum_{i=1}^{T} \frac{2\left|\mathcal{M}_{i} \cap \hat{\mathcal{M}}_{i}\right|}{\left|\hat{\mathcal{M}}_{i}\right|+\left|\mathcal{M}_{i}\right|} $ ここで $T$ はテストデータ中の文書数, $\mathcal{M}_{i}$ は $i$ 番目の文書の正解ラベル集合, $\hat{\mathcal{M}}_{i}$ はそれに対応するシステムの出力とする. もう一つは,ラベルを単位とした評価尺度で,通常の適合率,再現率および $\mathrm{F}$ 値が用いられる. ただし, 複数のラベルの集計方法としてマクロ平均とマイクロ平均がある (Tsoumakas et al. 2010)。そのため合計で, LBMaP, LBMaR, LBMaF, LBMiP, LBMiR およびLBMiF の 6 種類の尺度を用いる。 最後に階層的な評価も行う (Kiritchenko 2005). これは, 出力ラベルがラベル階層上において正解と近いときに「部分点」を与えるものである。今回のように循環がない木構造を仮定した場合, 適合率 $(\mathrm{hP})$ および再現率 $(\mathrm{hR})$ は以下のように定義される. $ \begin{aligned} \mathrm{hP} & =\frac{\sum_{i=1}^{T}\left|\operatorname{tree}\left(\mathcal{M}_{i}\right) \cap \operatorname{tree}\left(\hat{\mathcal{M}}_{i}\right)\right|}{\sum_{i=1}^{T}\left|\operatorname{tree}\left(\hat{\mathcal{M}}_{i}\right)\right|} \\ \mathrm{hR} & =\frac{\sum_{i=1}^{T}\left|\operatorname{tree}\left(\mathcal{M}_{i}\right) \cap \operatorname{tree}\left(\hat{\mathcal{M}}_{i}\right)\right|}{\sum_{i=1}^{T}\left|\operatorname{tree}\left(\mathcal{M}_{i}\right)\right|} \end{aligned} $ $\mathrm{F}$ 値 $(\mathrm{hF})$ は $\mathrm{hP}$ と $\mathrm{hR}$ の調和平均として定義される. ## 4.4 結果 各種モデルの精度比較を表 1 に示す. 枝分かれ特徴量を組み込んだ大域モデル (GM-GTBF) が 7 種類の尺度で最高精度を得た. 枝分かれ特徴量なしのモデル (GM-GT) と比較する 表 1 モデルの比較結果 と, EBP, LBMaR 以外の尺度で GM-GT-BF が上回り,すべてのF 值を改善した。この改善は統計的に有意 $(p<0.01)$ であった. 大域モデルを非階層型 $($ FLAT) と比較すると, 適合率の改善が著しい一方, 再現率に大きな差は見られない, 2 種類の枝刈り型 (PRUNE) を比較すると,兄弟のみで訓練する場合 (SIB) の方が全体的にやや良い精度が得られた。しかし,多くの尺度で非階層型に敗れており,従来研究の結果を再現する形となっている. 誤り例を見ると,誤って採用したラベル,誤って採用しなかったラベルのいずれも,正解ラベルから離れて人間として改めて判断すると,必ずしも誤りとは言い切れない場合が少なくなかった.特に,該当文書にとって周辺的な話題を表すラベルをどこまで採用べきかを判断するのが難しかった,なお,モデル間の分類結果の差分からは,明確な誤り,改善の傾向をつかむのは困難であった。 時間はテストデータの分類に要した時間であり,モデルの読み込み時間は含まない 9 ,予想される通り, 枝刈り型が圧倒的に速い. GM-GT-BF は PRUNE-ALL と比較して約 60 倍の時間を要した。しかし,FLAT と比較すると,階層を利用するにも関わらず,約 $18 \%$ 増加にとどまっている。これは,GM-GT-BF のモデルの大きさがFLATよりも約 $16 \%$ 小さいことで説明できるかもしれない. モデルの大きさは重みべクトル中で,絶対値が $10^{-7}$ より大きい要素の数とする.大きさは PRUNE-SIB が最小で, PRUNE-ALL が最大となった. GM-GT-BF が GM-GT よりも大きさを約 9\%削減したことは特筆に値する。訓練に用いた Passive-Aggressive アルゴリズムには重みを 0 につぶそうとする仕組みがないことから,大きさが削減された理由は,学習過程で GM-GT-BF が GM-GT よりも予測を誤る回数が少なかったからと考えられる。このように, より小さなモデルでより高い精度が得られたことは, 出力すべき複数ラべルの間にはラべル階層に基づく依存関係があるという我々の仮定を支持するものと考える. ## 4.5 議論 大域モデルの重み $\mathbf{w}^{\text {global }}$ 自体は, 大域訓練 $(\mathbf{G T})$ だけでなく, 枝刈り型で用いた 2 值分類器群を連結することによっても構成できる (LT). 大域モデルの性質をさらに調べるために,こj したモデルとの比較も行った. 表 2 に大域モデルの訓練方法の比較結果を示す。訓練データとしてSIB を用いた場合,極端に多くの候補を出力するようになり,その結果,極端に低い適合率と高い再現率を得た.SIB という限定されたデータで訓練された局所的な分類器に対して, 大域モデルが未知の文書の分類を行わせたため, このような不安定な振る舞いとなった。一方,訓練データとして ALLを用 $ CPU の 1 コア, 64 GB のメモリを用い,実装には Perl を用いた. } いた場合,枝刈り型 (PRUNE-ALL) から精度を大幅に向上させ,大域訓練とくらべても遜色のない精度が得られた。モデルの大きさや分類速度において大域訓練に劣りはするものの,大域モデルの最適化を行わずにこのような高精度が得られたことは興味深い。これは,訓練手法に改善の余地があることを示唆する。本稿では 10 並列による繰り返しパラメータ混ぜ合わせ法を用いたが,今後の最適化技術の発展が期待される。 表 3 に訓練データに対する精度を示す。訓練データに対しては非階層型 (FLAT) が一番高い精度を示し,ALLにより局所訓練された大域モデル (GM-LT-ALL) がそれに続いた. 大域訓練を行った場合 (GM-GT-BF) との比較から, 局所訓練が過学習をもたらしているとみられる. また, 局所訓練と大域モデルの組み合わせにより, 枝刈り型探索が誤りの主要因であることが確認できた。すなわち,PRUNE-ALLを訓練デー夕に適用したところ, $33 \%$ の文書について,PRUNE-ALLが出力したラベル集合よりも,正解ラベル集合の方が大域モデルにおいて高いスコアを持っていた。言い換えると,正しく探索を行えば犯さない誤りであった。ただ, この高い数值には過学習の影響も含まれており, 同じ操作をテストデータに適用した場合は, 割合は $14 \%$ にがった ${ }^{10}$. 表 2 大域モデルの訓練方法の比較 表 3 訓練データにおける精度 }$ が正解 $\mathcal{M}$ より低いスコアを持つ場合, 重みべクトルの更新が無効となってしまう. この問題に対処するための手法がいくつか提案されている (Collins and Roark 2004; Huang, Fayong, and Guo 2012). } より詳細にモデルを調べるために,辺に分解した結果を示す. 図 3 は GT-BF, LT-ALL, LT-SIB の比較である. 図 (a) から (c) は辺に対応する局所べクトルの大きさを示す. ここで,大きさの定義は表 1 と同じである。辺を子の階層によって集約し,大きさを平均した結果を示す。一般に,上位階層ほど多数の有効な重みべクトルが必要となることが確認できる.GT-BF は LT-ALLよりも大きさが小さいが,辺ごとの大きさの比率は似通っている. LT-SIB と比較すると, GT-BF は上位階層では小さいが,下位階層では大きな有効重みべクトルを持つ. LT-SIB では兄弟からの識別のみを考慮していたが,大域学習ではすべての辺が適切なスコアを返す必要があるため, 有効重みべクトルがより大きくなったとみられる. 図 (d) から (f) は, 各辺が得たスコアの絶対値の平均を表す. ここで,スコアは, テストデー 夕に対するモデル出力から計算されたものである。これにより,どの階層の辺が強くモデル出力に影響しているかが推測できる。この結果から,上位階層ほど大きな影響を持つことがわかる。しかし, GT-BF は他とくらべて上位階層の影響が小さい。すなわち,GT-BFにおいては下位階層の辺が相対的に重要な役割を果たしている。 枝分かれ特徴量に対応する重みを図 4 にヒートマップとして示す. 各要素の値は, 親ノードに与えられた重み(ノードごとの重みと共有された重みの和)を平均したものである. 平均化 (a) GT-BF 1 層 2層3層 4層 5 層子の階層 (d) GT-BF (b) LT-ALL (e) LT-ALL (c) LT-SIB (f) LT-SIB 図 3 辺ごとのモデルの大きさとスコアの比較 ## 根 1層 2層 3層 4層親ノードの階層 図 4 枝分かれ特徵量のヒートマップ表現 された値はすべて負となり,子の数が増えるにつれてぺナルティが単調増加した.異なる階層間の重みの比較は,それらが重みベクトルの他の部分の值に依存するため難しい. しかし,下位ノードほど子の数に応じた重みの落差が大きいという結果は, 階層上近いラベル候補同士ほど強い競合関係にあるという我々の仮説を支持しているようにみえる. 最後に, 訓練データおよび評価データの正解ラベルについて, 正解ラベルを被覆する最小の部分木を作り,親が採用する子の数を調べた.採用した子の数が複数である割合は,根で $34.9 \%$,第 1 層で $10.1 \%$ ,第 2 層で $4.6 \%$ ,第 3 層で $1.5 \%$ ,第 4 層で $0.6 \%$ であり,下位ノードほど強い競合関係にあることが確認できた. ## 5 関連研究 階層型文書分類において,枝刈り型が非階層型にしばしば敗れることが報告されており,誤り伝播を軽减するために様々な手法が提案されてきた。 (Sasaki and Weissenbacher 2012) は枝刈り探索時の枝刈り基準を緩め, 最後に候補の枝刈りを行う. すなわち, Algorithm 6 の 7 行目の閾値を 0 から -0.2 などに引き下げて, より多くの候補を採用する。最後に, 各候補について,根から葉までのパスの(シグモイド関数で変換された)局所スコアの和を取り,これに閥値を設定することによって出力ラベルを絞り込む.S-cut (Montejo-Ráez and Ureña-López 2006; Wang et al. 2011) は, 一律の閥値を用いるのではなく, 局所分類器ごとに間値を設定する手法である. R-cut は上位 $r$ 個の候補を採用する手法で, 選び方には大域的手法 (Liu et al. 2005; Montejo-Ráez and Ureña-López 2006) と局所的手法 (Wang et al. 2011) がある. (Wang et al. 2011) は採用されたラベル候補をメ夕分類器にかけ, 最終的な出力を決定する。 メ夕分類器の特徴量としては,根から葉までの局所スコアやその累積などを用いる。本稿ではこれらを総称して後付け補正とよぶ. 後付け補正では,いずれもモデルあるいは探索が本質的に不完全であることを想定し,追加のパラメータによる補正を行なっている。そうしたパラメータは,人手で設定するか,あ るいは訓練データとは別に開発データを用意して推定しなければならず煩雑である。一方,提案手法には後付け補正は不要であり,モデル自体の改善に専念できる。 ラベル階層を下から上へ探索しながら候補を探すという点で, 提案手法と似た手法が (Bennett and Nguyen 2009)により提案されている. しかし, 彼らの手法では, 大域モデルも大域訓練も用いられていない。代わりに,階層下位の分類器のスコアが上位の分類器のメ夕特徴量として用いられている.分類器の訓練は局所的に行われ,煩雑な交差確認を必要とする. 本稿ではあらかじめ定義されたラベル階層を利用した。そうした手がかりがない場合にラべル間依存を捉えるための手法も研究されている. (Ghamrawi and McCallum 2005; Miyao and Tsujii 2008) は, 出力すべきラベル集合中のラベルペアを特徴量に組み込んでいる. 本稿のようにラベル階層が利用できる場合は,それをもとに限られた数のラベル同士の関係を考慮すればすむ,一方,ラベル階層がない場合は,モデルはすべてのラベルペアを考慮する必要があり,訓練および解探索に大きな計算コストを要する。こうしたモデルの検証は,ラベルの異なり数が数十程度のデータセットを用いて行われてきた. ラベルの異なり数が大きな場合について,(Tai and Lin 2010) は,ラベル集合を低次元の直交座標系に写像し,この空間上で非階層型の分類器を学習する手法を提案している。予測時には, 分類器の出力を元の空間へ写像するという自明でない復号が必要となる。(Bi and Kwok 2011)は,ラベル階層を組み达むために,木あるいは有向非循環グラフの制約を満たすような復号手法を提案している. ## 6 おわりに 本稿では,階層型複数ラベル文書分類を構造推定問題として定式化し, 動的計画法による厳密解探索方法, 大域訓練, ラベル間依存をとらえる枝分かれ特徴量を提案した。枝分かれ特徴量はモデルの大きさを削減するとともに精度の向上をもたらした。この結果は, 人間作業者が複数のラベル候補から出力を選択する際, ラベル階層に基づいて, 競合する候補の相対的な重要性を考慮していることを示唆する. 今後の方向性としては,枝分かれ特徴量以外によってラベル間依存をとらえる方法を探究するというものが考えられる,例えば,「〜その他」や「〜一般」といったラベルは, 他のラベルとの関係において特殊な振る舞いをすると予想される。また,本稿では葉のみが付与対象ラべルという問題設定を行ったが,従来研究には内部ノードも付与対象である場合を扱ったものがある (Liu et al. 2005). こうした内部ノードの振る舞いも特殊である. 内部ノードを採用するとき,その子孫へのラベル付与を行わないことが多い. さらに,木構造から有向非循環グラフヘの提案手法の一般化も課題である. ## 謝 辞 本研究で評価実験に用いた JSTPlus は, 共同研究を通じて, 独立行政法人科学技術振興機構に提供していただきました。深く感謝いたします。本研究は一部 JST CREST の支援を受けました. ## 参考文献 Bennett, P. N. and Nguyen, N. (2009). "Refined Experts: Improving Classification in Large Taxonomies." In Proceedings of the 32nd International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR '09), pp. 11-18. Berlin, B. (1992). Ethnobiological Classification: Principles of Categorization of Plants and Animals in Traditional Societies. Princeton University Press. Bi, W. and Kwok, J. (2011). "Multi-Label Classification on Tree- and DAG-Structured Hierarchies." In Proceedings of the 28th International Conference on Machine Learning (ICML-11), pp. 17-24. Collins, M. and Koo, T. (2005). "Discriminative Reranking for Natural Language Parsing." Computational Linguistics, 31 (1), pp. 25-70. Collins, M. and Roark, B. (2004). "Incremental Parsing with the Perceptron Algorithm." In Proceedings of the 42nd Meeting of the Association for Computational Linguistics (ACL'04), Main Volume, pp. 111-118. Crammer, K., Dekel, O., Keshet, J., Shalev-Shwartz, S., and Singer, Y. (2006). "Online PassiveAggressive Algorithms." Journal of Machine Learning Research, 7, pp. 551-585. Ghamrawi, N. and McCallum, A. (2005). "Collective Multi-label Classification." In CIKM '05: Proceedings of the 14th ACM International Conference on Information and Knowledge Management, pp. 195-200. Godbole, S. and Sarawagi, S. (2004). "Discriminative Methods for Multi-labeled Classification." In Dai, H., Srikant, R., and Zhang, C. (Eds.), Advances in Knowledge Discovery and Data Mining, Vol. 3056 of Lecture Notes in Computer Science, pp. 22-30. Springer Berlin Heidelberg. Huang, L., Fayong, S., and Guo, Y. (2012). "Structured Perceptron with Inexact Search." In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 142-151. Kiritchenko, S. (2005). Hierarchical Text Categorization and Its Application to Bioinformatics. Ph.D. thesis, University of Ottawa. Labrou, Y. and Finin, T. (1999). "Yahoo! as an Ontology: Using Yahoo! Categories to Describe Documents." In Proceedings of the Eighth International Conference on Information and Knowledge Management (CIKM '99), pp. 180-187. Liu, T.-Y., Yang, Y., Wan, H., Zeng, H.-J., Chen, Z., and Ma, W.-Y. (2005). "Support Vector Machines Classification with a Very Large-scale Taxonomy." SIGKDD Explorations Newsletter, 7 (1), pp. 36-43. LSHTC3 (Ed.) (2012). ECML/PKDD-2012 Discovery Challenge Workshop on Large-Scale Hierarchical Text Classification. McDonald, R., Crammer, K., and Pereira, F. (2005). "Online Large-Margin Training of Dependency Parsers." In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL'05), pp. 91-98. McDonald, R., Hall, K., and Mann, G. (2010). "Distributed Training Strategies for the Structured Perceptron." In Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 456-464. Miyao, Y. and Tsujii, J. (2008). "Exact Inference for Multi-label Classification using Sparse Graphical Models." In Coling 2008: Companion volume: Posters, pp. 63-66. Montejo-Ráez, A. and Ureña-López, L. A. (2006). "Selection Strategies for Multi-label Text Categorization." In Advances in Natural Language Processing, pp. 585-592. Springer. Punera, K. and Ghosh, J. (2008). "Enhanced Hierarchical Classification via Isotonic Smoothing." In Proceedings of the 17th International Conference on World Wide Web ( $W W W$ '08), pp. 151-160. Qiu, X., Gao, W., and Huang, X. (2009). "Hierarchical Multi-Label Text Categorization with Global Margin Maximization." In Proceedings of the ACL-IJCNLP 2009 Conference Short Papers, pp. 165-168. Sasaki, Y. and Weissenbacher, D. (2012). "TTI'S System for the LSHTC3 Challenge." In ECML/PKDD-2012 Discovery Challenge Workshop on Large-Scale Hierarchical Text Classification. Tai, F. and Lin, H.-T. (2010). "Multi-label Classification with Principal Label Space Transformation." In Proceedings of the 2nd International Workshop on Learning from Multi-Label Data, pp. 45-52. Tsochantaridis, I., Hofmann, T., Joachims, T., and Altun, Y. (2004). "Support Vector Machine Learning for Interdependent and Structured Output Spaces." In Proceedings of the Twentyfirst International Conference on Machine Learning (ICML '04), pp. 104-113. Tsoumakas, G., Katakis, I., and Vlahavas, I. (2010). "Mining Multi-label Data." In Maimon, O. and Rokach, L. (Eds.), Data Mining and Knowledge Discovery Handbook, pp. 667-685. Springer. Wang, X.-L., Zhao, H., and Lu, B.-L. (2011). "Enhance Top-down Method with MetaClassification for Very Large-scale Hierarchical Classification." In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 1089-1097. ## 略歴 村脇有吾:2006 年京都大学工学部情報学科卒業. 2008 年京都大学大学院情報学研究科修士課程修了. 2011 年, 同博士後期課程修了. 博士 (情報学). 同年京都大学学術情報メディアセンター特定助教. 2013 年, 九州大学大学院システム情報科学研究院助教, 現在に至る. 計算言語学, 自然言語処理の研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 語順の相関に基づく機械翻訳の自動評価法 平尾 努 $\dagger$ ・磯崎 秀樹 $\dagger+$ ・須藤 克仁 $^{\dagger} \cdot$ Duh Kevin ${ }^{\dagger \dagger \dagger}$ ・ 塚田 元 $^{\dagger} \cdot$ 永田 昌明 $\dagger$ } 効率的に機械翻訳システムを開発していくためには,質の高い自動評価法が必要と なる。これまでに様々な自動評価法が提案されてきたが,参照翻訳とシステム翻訳 との間で一致する $\mathrm{N}$ グラムの割合に基づきスコアを決定する BLEU や最大共通部分単語列の割合に基づきスコアを決定する ROUGE-L などがよく用いられてきた. し かし,こうした方法にはいつくかの問題がある。ルールベース翻訳 (RBMT) の訳を 人間は高く評価するが, 従来の自動評価法は低く評価する。これは, RBMT が参照翻訳と違う訳語を使うことが多いのが原因である。これら従来の自動評価法は単語 が一致しないと大きくスコアが下がるが,人間はそうとは限らない。一方,統計的機械翻訳 (SMT) で英日,日英翻訳を行うと,「Aなので $\mathrm{B} 」$ と訳すべきところを「B なので $\mathrm{A}\rfloor$ 訳されがちである。この訳には低いスコアが与えられるべきであるが, $\mathrm{N}$ グラムの一致割合に着目するとあまりスコアは下がらない。こうした問題を解決 するため, 本稿では, 訳語の違いに寛大で, かつ, 大局的な語順を考慮した自動評価法を提案する。大局的な語順は順位相関係数で測定し, 訳語の違いは, 単語適合率で測定するがパラメタでその重みを調整できるようにする。 NTCIR-7, NTCIR-9 の特許翻訳タスクにおける英日,日英翻訳のデータを用いてメ夕評価を行ったとこ ろ,提案手法が従来の自動評価法よりも優れていることを確認した. キーワード:機械翻訳,自動評価法,順位相関 ## Evaluating Translation Quality with Word Order Correlations Tsutomu Hirao $^{\dagger}$, Hideki Isozaki ${ }^{\dagger \dagger}$, Katsuhito Sudoh $^{\dagger}$, Kevin Duh ${ }^{\dagger \dagger \dagger}$, Hajime TsuKada $^{\dagger}$ and MasaAKi Nagata ${ }^{\dagger}$  meaning. Statistical MT (SMT) tends to translate "A because B" as "B because A" in case of translation between Japanese and English. BLEU does not care about global word order, and this severe mistake is not penalized very much. In order to consider global word order, this paper proposes a lenient automatic evaluation metric based on rank correlation of word order. By focusing on only words common between the two translations, this method is lenient with the use of alternative words. The difference of words is measured by precision of words, and its weight is controlled by a parameter. By using submissions of NTCIR-7 \& 9's Patent Translation task, the proposed method outperforms conventional measures in terms of system level comparison. Key Words: Machine Translation, Automatic Evaluation, Rank Correlation ## 1 はじめに 機械翻訳システムの開発過程では, システムの評価と改良を幾度も繰り返さねばならない.信頼性の高い評価を行うためには,人間による評価を採用することが理想ではあるが,時間的な制約を考えるとこれは困難である。よって,人間と同程度の質を持つ自動評価法,つまり,人間の評価と高い相関を持つ自動評価法を利用して人間の評価を代替することが実用上求められ $る^{1}$. こうした背景のもと, 様々な自動評価法が提案されてきた. BLEU (Papineni, Roukos, Ward, and Zhu 2002), NIST (Doddington 2002), METEOR (Banerjee and Lavie 2005), Word Error Rate (WER) (Leusch, Ueffing, and Ney 2003) などが広く利用されているが, そのなかでも BLEU (Papineni et al. 2002)は, 数多くの論文でシステム評価の指標として採用されているだけでなく, 評価型ワークショップにおける公式指標としても用いられており, 自動評価のデファクトスタンダードとなっている。その理由は,人間による評価との相関が高いと言われていること,計算法がシステム翻訳と参照翻訳(正解翻訳)との間で一致する $\mathrm{N}$ グラム(一般的に $\mathrm{N}=4$ が用いられる)を数えあげるだけで実装も簡単なことにある. しかし,BLEUのように Nグラムという短い単語列にのみに着目してスコアを決定すると, システム翻訳が参照翻訳の N グラムを局所的に保持しているだけで,その意味が参照翻訳の意味と大きく乘離していようとも高いスコアを与えてしまう.局所的な N グラムは一致しつつも参照翻訳とは異なるような意味を持つ翻訳をシステムが生成するという現象は,翻訳時に大きな語順の入れ替えを必要としない言語間,つまり,構文が似ている言語間の翻訳ではほとんど起こらない,例えば,構文が似ている言語対である英語,仏語の間の翻訳では大きな語順の入れ替えは必要なく, BLEU と人間の評価結果との間の相関も高い (Papineni et al. 2002). 一方, ^{1}$ 本稿では, 100 文規模程度のコーパスを用いて翻訳システムの性能を評価すること,つまり,システム間の優劣を比較することを目的とした自動評価法について議論する。 } 日本語と英語のように翻訳時に大きな語順の入れ替えが必要となる言語対を対象とすると,先に示した問題が深刻となる。例えば, Echizen-ya らは日英翻訳において, BLEU (Papineni et al. 2002), その変種である NIST (Doddington 2002) と人間の評価との間の相関が低いことを報告している (Echizen-ya, Ehara, Shimohata, Fujii, Utiyama, Yamamoto, Utsuro, and Kando 2009). 文全体の大局的な語順を考慮する自動評価法としては, ROUGE-L (Lin and Och 2004), IMPACT (Echizen-ya and Araki 2007) がある。これらの手法は参照翻訳とシステム翻訳との間で一致する最長共通部分単語列 (Longest Common Subsequence: LCS) に基づき評価スコアを決定する. LCS という文全体での大局的な語順を考慮していることから,英日,日英翻訳システムの評価において, Nグラム一致率に基づく自動評価法よりもより良い評価ができるだろう。しかし, $\mathrm{N}$ グラム一致率に基づく自動評価法と同様, 訳語の違いに敏感すぎるという問題がある. 後に述べるが,NTCIR-9 での特許翻訳タスクにおいては,人間が高い評価を与えるルールベースの翻訳システムに高スコアを与えることができないという問題がある. 本稿では日英,英日という翻訳時に大きな語順の入れ替えを必要とする言語対を対象とした翻訳システムの自動評価法を提案する。提案手法の特徴は, $\mathrm{N}$ グラムという文中の局所的な単語の並びに着目するのではなく, 文全体における大局的な語順に着目する点と, 参照翻訳とシステム翻訳との間で一致しない単語を採点から外し, 別途, ペナルティとしてそれをどの程度重要視するかを調整できるようにすることで訳語の違いに対して寛大な評価を行う点にある。より具体的には,システム翻訳と参照翻訳との間の語順の近さを測るため,両者に一致して出現する単語を同定した後,それらの出現順序の近さを順位相関係数を用いて計算し,これに重み付き単語正解率と短い翻訳に対するぺナルティを乗じたものを最終的なスコアとする. 近年,提案手法と同じく語順の相関に基づいた自動評価法である LRscore が Birch らによって独立に提案されている (Birch and Osborne 2011). LRscore は,参照翻訳とシステム翻訳との間で一致する単語の語順の近さを Kendall 距離で表し,それをさらに低レンジでのスコアを下げるために非線形変換した後,短い翻訳に対するぺナルティを乗じ,さらに BLEU スコアとの線形補間で評価スコアを決定する。提案手法と LRscore は特殊な状況下では同一の定式化となるが,研究対象としてきた言語対が異なることから,相関係数と語彙の一致に対する考え方が大きく異なる. 提案手法がどの程度人間の評価に近いかを調べるため, NTCIR-7, NTCIR-9の日英, 英日, 特許翻訳タスク (Fujii, Utiyama, Yamamoto, and Utsuro 2008; Goto, Lu, Chow, Sumita, and Tsou 2011)のデータを用いて検証したところ,翻訳システムの評価という観点から,従来の自動評価法よりも人間の評価に近いことを確認した. 以下,2 章では BLEU を例として, N グラムという局所的な語順に着目してシステムを評価することの問題点, 3 章では LCS を用いてシステムを評価することの問題点を指摘する.そして,4章でそれら問題点の解決法として,訳語の違いに寞大,かつ,大局的な語順の相関に基づ く自動評価法を提案する. 5 章で実験の設定を詳述し, 6 章では実験結果を考察する.最後に 7 章でまとめ, 今後の課題について述べる. ## $2 \mathrm{~N$ グラムー致率に基づく自動評価法の問題点} N グラム一致率を用いてシステム翻訳を評価する際の問題点を以下に定義する BLEU を例として説明する。 システム翻訳文集合を $\mathcal{H}$ ,それに対応する参照翻訳文集合 2 を $\mathcal{R}$ とする。システム翻訳文 $h_{i} \in \mathcal{H}$ には,対応する参照翻訳文の集合 $R_{i} \in \mathcal{R}$ が割り当てられており, $R_{i}$ の $j$ 番目の参照翻訳文を $r_{j}$ とする.なお, $S=|\mathcal{H}|=|\mathcal{R}|$ とする. ここで, BLEUは,以下の式で定義される. $ \mathrm{BLEU}(\mathcal{H}, \mathcal{R})=\mathrm{BP} \cdot \exp \left(\frac{1}{N} \sum_{n=1}^{N} \log P_{n}\right) $ $N$ は $\mathrm{N}$ グラムの長さパラメタであり,一般的には $N=4$ である, $P_{n}$ は, $\mathrm{N}$ グラム適合率であり,以下の式で定義される. $ P_{n}=\frac{\sum_{i=1}^{S} \sum_{t_{n} \in h_{i}} \min \left(\operatorname{count}\left(h_{i}, t_{n}\right), \max \_\operatorname{count}\left(R_{i}, t_{n}\right)\right)}{\sum_{i=1}^{S} \sum_{t_{n} \in h_{i}} \operatorname{count}\left(h_{i}, t_{n}\right)} $ $\operatorname{count}\left(h_{i}, t_{n}\right)$ は, 任意の $\mathrm{N}$ グラム $\left(t_{n}\right)$ のシステム翻訳文 $h_{i}$ における出現頻度, max_count $\left(R_{i}, t_{n}\right)$ は, $t_{n}$ の参照翻訳文集合 $R_{i}$ における出現頻度の最大値, $\max _{r_{j} \in R_{i}} \operatorname{count}\left(r_{j}, t_{n}\right)$ である. $\mathrm{BP}$ (Brevity Penalty) は,短いシステム翻訳に対するぺナルティであり,以下の式で定義される. $ \mathrm{BP}=\min \left(1, \exp \left(1-\frac{\text { closest_len }(\mathcal{R})}{\operatorname{len}(\mathcal{H})}\right)\right) $ closest_len $(\mathcal{R})$ は, 各 $h_{i} \in \mathcal{H}$ に対し, 最も近い単語数の参照翻訳文 $r_{j} \in R_{i}$ を決定した後, それらの単語数を全ての $i$ で合計したもの, $\operatorname{len}(\mathcal{H})$ は, $h_{i}$ 単語数を全ての $i$ で合計したものを表す。 いま, 原文 $(s)$, 参照翻訳 $(r)$, システム翻訳 $\left(h_{1}, h_{2}\right)$ が以下の通り与えられたとしよう. $s:$ 雨に濡れたので,彼は風邪をひいた. $r$ : He caught a cold because he got soaked in the rain. $h_{1}$ : He caught a cold because he had gotten wet in the rain. $h_{2}$ : He got soaked in the rain because he caught a cold. ^{2}$ BLEU では,原文に対して複数の参照翻文があることを想定している。 } $r$ は原文の直訳であり, $h_{1}$ はほぼそれと等しい訳であるが, $h_{2}$ は「風邪をひいたので,彼は雨に濡れた」という意味であり, 原文が表す因果関係が逆転している, $h_{1}$ と $h_{2}$ を比較すると,翻訳としての流暢さ (fluency), いわゆる言語モデル的な確からしさは同程度であるが,内容の適切性 (adequacy) は, $h_{1}$ が $h_{2}$ よりも高くならねばならない. ここで,この 2 つのシステム翻訳を先に示した BLEU で評価してみよう ${ }^{3} . h_{1}, h_{2}$ とも $r$ よりも長いため,ともに $\mathrm{BP}$ は 1 となる. $h_{1}$ の $P_{1} \sim P_{4}$ はそれぞれ,9/12,7/11,5/10,3/9なので,BLEU スコアは 0.53 となる。一方, $h_{2}$ の $P_{1} \sim P_{4}$ はそれぞれ,11/11,9/10,6/9,4/8 なので,BLEU スコアは 0.74 となる。この結果は,我々の直感に反しており,BLEUを最大化するようにシステムを最適化することが,良い翻訳システムの開発に結びつくかどうかは疑問である。 こうした問題が起こる原因は $\mathrm{N}$ グラムという局所的な語の並びにのみに着目してスコアを計算することにある,短い単語列のみを評価対象とすると,先の例のように,参照翻訳の節中の Nグラムを保持していれば,節の順番が入れ替わったとしても十分高いスコアを獲得する. もちろん, $h_{2}$ のような翻訳をシステムが出力するようなことはほとんどあり得ないのではないかという疑問もあろう。確かに語順が似た言語対を対象とする場合や翻訳システムがルールベースで構築されている場合には起こりにくい問題であるが, 語順が大きく異なる言語対を対象とした統計翻訳 (Statistical Machine Translation: SMT) システムでは十分起こり得る問題である。 以下に Web 上の SMT による翻訳サービスの出力例を示す. 原文:ボブはメアリに指輪を買うためにジョンの店に行った。 参照翻訳: Bob went to John's store to buy a ring for Mary. SMT 出力: Bob to buy rings, Mary went to John shop. SMT 出力をみると, 訳語という観点では参照翻訳と良く合致しており,バイグラム,トライグラムでもある程度の数が一致している。しかし, 原文の「店に行く」の主体が「ボブ」であるという構造を捉えることができず,その主体が「メアリ」となってしまっている.SMT システムでは,大きな語順の入れ替えを許すと探索空間は膨大になる。よって,現実的な時間で翻訳文を生成するため,語順の入れ替えにある程度の制限を設けざるを得ない。その結果,Nグラムでは参照翻訳と良く合致するものの原文の意味とはかけ離れた翻訳を出力することがある. このような状況のもと, BLEU スコアで翻訳システムを比較すると,正しい評価ができない可能性が高い. なお, この問題は BLEU に限ったことではなく, その変種である NIST スコア, METEOR など Nグラム一致率を利用した自動評価法すべてに当てはまる問題である. ^{3}$ 式 (1) の定義から明らかなように BLEU は文集合を引数として評価スコアを計算する. 通常, 1 文を対象としてそのスコアを計算することはないが, ここでは説明のため 1 文での BLEU スコアを計算する. } ## 3 LCS に基づく自動評価法の問題点 ROUGE-L (Lin and Och 2004), IMPACT (Echizen-ya and Araki 2007) は,参照翻訳とシステム翻訳との間の最長共通部分単語列 (LCS) に基づき評価スコアを決定する。先に挙げた例で説明する。 $s:$ 雨に濡れたので,彼は風邪をひいた. $r$ : He caught a cold because he got soaked in the rain. $h_{1}$ : He caught a cold because he had gotten wet in the rain. $h_{2}$ : He got soaked in the rain because he caught a cold. $r$ と $h_{1}$ との間の LCS は, "He caught a cold because he in the rain”であり, その長さ(単語数)は 9 である. $r$ の長さは $11, h_{1}$ の長さは 12 であることから, LCS の適合率は $9 / 12$, 再現率は 9/11となる. 一方, $r$ と $h_{2}$ との間の LCS は, “he got soaked in the rain”であり, その長さは 6 である。 $h_{2}$ の長さは 11 なので, LCS の適合率は $6 / 11$, 再現率は $6 / 11$ となる. ROUGE-L スコアは LCS 適合率と再現率の調和平均, $\mathrm{F}$ 値なので $\mathrm{BLEU}$ とは違い, $h_{1}$ を $h_{2}$ より高く評価することができる. IMPACT は ROUGE-L を改良したものであり,上述の LCS を一度見つけただけでやめるのではなく, 見つかった LCS を削除した単語列に対し, 再度 LCS を探すということを繰り返す。 つまり, $h_{1}$ の例では, $r$ と $h_{1}$ から, “He caught a cold because he in the rain"を削除し, $r$ : got soaked $h_{1}$ : had gottten wet から, $h_{2}$ の例では, “he got soaked in the rain”を削除し, $r$ : caught a cold because he $h_{2}$ : because he caught a cold から,再度 LCS を探し出すという手順を繰り返す。 これらの手法の問題点は, 参照翻訳とシステム翻訳との間の LCS 適合率, 再現率を計算するため,それらの間で一致しなかった単語を評価の対象に含めている点にある.例えば,以下のシステム翻訳 $h_{3}$ を考えると, $r$ と $h_{3}$ との間の LCS は, "he caught a cold the rain”となるので, LCS 適合率, 再現率はそれぞれ,6/13,6/11となり,適合率が $h_{2}$ の場合より低い值をとってしまい, ROUGE-L スコアは $h_{2}$ の場合よりも低くなる. $h_{3}$ : He caught a cold as a result of getting hit by the rain このように適合率, 再現率といった参照翻訳とシステム翻訳との間で一致しない単語を評価に含めてしまう尺度を用いると訳語の違いに敏感になり過ぎ,システムを過小評価することがある. ## 4 語順の相関に基づく自動評価法 本稿では, $\mathrm{N}$ グラム一致率に基づく自動評価法の問題点を解決するため, 文内の局所的な語の並びに着目するのではなく, 大局的な語の並びに着目する。つまり, 参照翻訳とシステム翻訳との間で一致して出現する単語の出現順の近さに基づき評価する。さらに,訳語の違いに寛大な評価をするため, システム翻訳の単語適合率の重みを調整できるようにして別途ぺナルティとして用いる. ## 4.1 単語アラインメント 参照翻訳とシステム翻訳の語順との間の相関を計算するため, 双方の翻訳に一致して出現する単語を同定しなければならない。これは, 参照翻訳とシステム翻訳との間の単語アラインメントを決定する問題となる。本稿では,単語の表層での一致に基づくアラインメント法を採用した. Algorithm 1 にその疑似コードを示す. システム翻訳を長さ $m$, 参照翻訳を長さ $n$ の単語リストして読み込み,アラインメントを格納する配列 worderを初期化する(1~3 行目). システム翻訳の単語リストの先頭から順に単語 $w_{i}^{h}$ を取り出し, その単語がシステム翻訳, 参照翻訳の双方にただ 1 度のみ出現している場合, $i$ と単語 $w_{i}^{h}$ の参照翻訳における出現位置 $j$ を対応づける ( 5,6 行目). それ以外の場合, $w_{i}^{h}$ を 図 1 単語アラインメントの例 基準として右側に $\mathrm{N}$ グラムを伸長させ,システム翻訳と参照翻訳の双方における出現頻度が 1 となった時点で $i$ と $j$ を対応づける(813 行目).それでも対応がつかない場合, $w_{i}^{h}$ を基準として左側に N グラムを伸長させ,システム翻訳と参照翻訳の双方における出現頻度が 1 となった時点で $i$ と $j$ を対応づける(15~20 行目)。これでも曖昧性が残る(システム翻訳と参照翻訳での頻度が 1 にならない)場合, あるいは対応先が見つからない場合は単語対応付けを行わない. 図 1 に 2 章の例文に対する単語アラインメントを示す。上段の例から, worderの 1 番目の要素, つまり, $h_{1}$ の 1 単語目が $r$ の 1 番目の要素(単語)に対応することがわかる. 下段の例から, $h_{2}$ の 1 単語目が $r$ の 6 番目の単語と対応していることがわかる. ## 4.2 単語出現順の相関 1 対 1 の単語アラインメントを決定することができれば,参照翻訳とシステム翻訳から単語出現位置 ID を要素とするリストを得ることができる。図 1 の例では, $r:[1,2,3,4,5,6,9,10,11]$, $h_{1}:[1,2,3,4,5,6,9,10,11]$ および $r:[1,2,3,4,5,6,7,8,9,10,11], \quad h_{2}:[6,7,8,9,10,11,5,1,2,3,4]$ という $2 \supset の$ リストペアを得る。こうした順序列間の順位相関係数を計算することで参照翻訳とシステム翻訳との間で一致して出現する単語の出現順の近さを測ることができる。本稿では以下に示す Kendall の順位相関係数 $(\tau)$ (Kendall 1975) を採用した。順位相関係数としては, Spearman の順位相関係数 $(\rho)$ もよく知られている。しかし, $\tau$ と比べて $\rho$ は, 順位の小さな入れ替わりには寛容すぎ,大きな入れ替わりには厳しすぎる。予備実験の結果では,人間の評価との間の相関が $\tau$ よりも低い傾向を示したため,本稿では $\tau$ を採用した. 表 1 Kendall の順位相関係数の計算例 $ \tau=\frac{\sum_{i=1}^{n-1} T_{i}-\sum_{i=1}^{n-1} U_{i}}{\frac{n(n-1)}{2}} $ $T_{i}$ は, アラインメント手続きを用いてシステム翻訳から得た単語出現位置のIDリスト (worder) について, $i$ 番目の要素の値よりも大きな要素が $i+1$ 番目から $n$ 番目の要素までの間に出現する数, $U_{i}$ はその逆に, $i$ 番目の要素の値よりも小さな要素が $i+1$ 番目から $n$ 番目の要素までの間に出現する数を表す。表 1 に図 1 の $h_{2}$ から得た worder と $T_{i}, U_{i}$ をそれぞれ示す.この表より, $r$ と $h_{2}$ との間の語順の相関を Kendallの $\tau$ で計算すると, $\tau\left(r, h_{2}\right)=(21-34) /((11 \cdot 10) / 2)=-0.236$ となる.同様に図 1 の $h_{1}$ から得た worder を用いて $\tau\left(r, h_{1}\right)$ を計算すると $\tau\left(r, h_{1}\right)=(36-0) /((9 \cdot 8) / 2)=1$ となる。 $\tau$ は参照翻訳とシステム翻訳との語順が完全一致する場合に 1 , 逆順の場合に -1 をとる. BLEU では, $h_{2}$ が $h_{1} よりも$ 高いスコアを獲得したが, 文全体での語順に着目し, システム翻訳と参照翻訳との間の語順の順位相関を計算すると, $h_{1}$ が $h_{2}$ よりも高いスコアを獲得でき,我々の直感に合致した結果を得ることができた. ただし, $\tau$ は負の値をとり得るため, 従来の自動評価法が出力するスコアレンジと同様 $[0,1]$ の値をとるよう以下の式で正規化する. $ \text { Normalized Kendall's } \tau: \text { NKT }=\frac{\tau+1}{2} $ ## 4.3 ペナルティ 参照翻訳とシステム翻訳との間の語順の相関を計算するためには, 単語アラインメントを決定し, 双方に一致して出現する単語のみを評価の対象としなければならない. しかし, 参照翻訳とシステム翻訳との間で一致する単語のみを評価対象とすることには以下の 2 つ問題がある. (1)システム翻訳の単語数に対し, 参照翻訳との間で一致する単語の割合が少ない場合, 過剰に高いスコアを与える可能性がある. (2)システム翻訳の単語数が少ない場合,過剰に高いスコアを与える可能性がある, (1)に関して,以下の例を考えよう. $r$ : John went to a restaurant yesterday $h$ : John read a book yesterday $h$ は 5 単語からなる訳であり,そのうち “John”, “a”, “yesterday”のみしか参照翻訳と一致していない. しかし, その出現順が参照翻訳と一致していることから NKT は 1 となる。 つまり,システムが出力した単語数に関係なく順位相関だけをみていると不当に高いスコアを獲得する可能性がある。 次に $(2)$ に関して,以下の例を考えよう. $r$ : John went to a restaurant yesterday $h:$ to a システム翻訳は 2 単語しかない意味の無い訳であるにもかかわらず,単語正解率は 1 であり, 2 単語の出現順序も参照翻訳と一致していることから,NKTも 1 となる.つまり,単語数が少ない場合, 順位相関と単語正解率だけでは不当に高いスコアを獲得する可能性がある. このように,順位相関係数を用いると,システム翻訳の 2 単語のみが参照翻訳と出現順まで一致すると,不当に高いスコアを獲得する可能性がある。よって,本稿では,前者に対して単語正解率 $(P)$, 後者に対しては BLEU の BP をぺナルティとして導入する。それぞれの定義を以下に示す. $ \begin{gathered} P\left(h_{i}, r_{i}\right)=\frac{\text { len (worder) }}{\operatorname{len}\left(h_{i}\right)} \\ \mathrm{BP}_{s}\left(h_{i}, r_{i}\right)=\min \left(1, \exp \left(1-\frac{\operatorname{len}\left(r_{i}\right)}{\operatorname{len}\left(h_{i}\right)}\right)\right) \end{gathered} $ 単語正解率は, システム翻訳の単語のうちアラインメントをとることができた単語数 (len(worder)) の割合であり, len $(r)$ は, 参照翻訳の単語数, len $(h)$ はシステム翻訳の単語数である. BLEU の BP は文集合全体で計算していたが,ここでは,文単位で計算することに注意されたい。これらを用いて最終的な自動評価スコアを以下の式 (8) で定義する。なお, この手法を RIBES (Rank-based Intuitive Bilingual Evaluation Score) と名付け, http://www.kecl.ntt.co. jp/icl/lirg/ribes/にてオープンソースソフトウェアとして公開している. $ \operatorname{RIBES}(\mathcal{H}, \mathcal{R})=\frac{\sum_{h_{i} \in \mathcal{H}} \max _{r_{j} \in R_{i}}\left.\{\operatorname{NKT}\left(h_{i}, r_{j}\right) \cdot P\left(h_{i}, r_{j}\right)^{\alpha} \cdot \mathrm{BP}_{s}\left(h_{i}, r_{j}\right)^{\beta}\right.\}}{|\mathcal{H}|} $ $\alpha(\geq 0)$ は単語適合率の重みであり, $\alpha$ が大きいほど訳語の違いに敏感になる. - 参照翻訳が 1 つしかない場合,参照翻訳にはない訳語をシステムが出力する可能性が高いため, $\alpha$ は小さめに設定した方がよいだろう. - 参照翻訳が複数の場合,参照翻訳のいずれかに出現する単語をシステムが出力する可能性が高くなる。そこで,不適切な訳語を厳しく採点するため $\alpha$ は高めに設定した方がよいだろう。 $\beta(\geq 0)$ は BP の重みであり, $\beta$ が大きいほど訳文の長さに敏感になる. - 参照翻訳が 1 つしかない場合,それよりも短い翻訳があり得る可能性が高いので, $\beta$ は小さめに設定してよいだろう. - 参照翻訳が複数ある場合,一番短い翻訳を基準にして考えれば, $\beta$ を高めに設定してよいだろう。 ## 5 実験の設定 ## 5.1 実験データ RIBES の有効性を示すため, NTCIR-7, NTCIR-9 の特許翻訳タスク (PATMT) のデータを用いて評価実験(評価指標の評価なので,以降メ夕評価と呼ぶ)を行った。言語対は英日 (EJ),日英 (JE) とした. それぞれのデータセットの文数, 1 文あたりの参照翻訳の数, 評価者の数,参加システム数を表 2 に示す。なお,カッコ内の数字はルールベースシステムの数を示す. NTCIR ワークショップの事務局から公開されているデータには, EJ, JE夕スクとも 1 つの参照翻訳しか含まれていない。そこで,NTCIR-7のデー夕に対してのみ,特許翻訳の専門家に依頼し,参照翻訳を独自に追加した。また,NTCIR-7のEJタスクに関しては,5 システムたけにしか人間の主観評価の結果が与えられていなかったため, 特許に精通した被験者 5 名で再度 $\mathrm{JE}$ タスクと同様,5段階評価で主観評価を行った。さらに,評価対象とする翻訳システムに著者のグループの英日翻訳システム (Isozaki, Sudoh, Tsukada, and Duh 2010b) を追加し, 計 14 システムで実験を行った. 全てのデータに対し,メタ評価の対象は翻訳の内容としての適切性 (adequacy)のみとした. これは,翻訳の流暢さよりも内容の適切性を自動評価できた方がより良い翻訳システムの開発に貢献できると考えたからである. なお,各システム翻訳文に対し複数の人間の評価スコアが与えられている場合には,その平均値を文に対する評価スコアとした。このように各システム翻訳文に対して評価値を決定し, これを文集合全体での平均したものを人間がシステムに与えた評価スコアとした。 表 2 実験データの詳細 ## 5.2 比較した自動評価手法 比較評価には, $\mathrm{N}$ グラム一致率に基づく評価手法として先に説明した BLEU, 大局的な単語列を考慮した評価法として同じく先に説明したROUGE-L (Lin and Och 2004), その改良版である IMPACT (Echizen-ya and Araki 2007) を用いた. IMPACT には,LCS の長さに応じた重みパラメ夕,語順の入れ替えに応じた重みパラメタがある。詳細については文献 (Echizen-ya and Araki 2007) を参照されたい. なお, ROUGE-L, IMPACT とも参照翻訳が複数ある場合には個々の参照翻訳を用いて求めたスコアの最大值を評価スコアとして採用した.BLEU の計算には mteval-v13a, ROUGE-L には, ROUGE-1.5.5, IMPACT には IMPACT version 4 を利用した。 また, LRscore (Birch, Osborne, and Blunsom 2010; Birch and Osborne 2010, 2011) も比較評価の対象とした.LRscore は,参照翻訳とシステム翻訳との間の語順の近さを表すスコアと BLEU スコアとの間の線形補間で評価スコアを決定する。語順の近さを表す尺度としては, 八ミング距離 $d_{h}(h, r)$ を利用するものと Kendall の $\tau$ に基づく $d_{k}(h, r)$ を利用するものがあるが,以降では,本稿との関連が深い後者について述べる. LRscore の定義を以下に示す. $ \operatorname{LRscore}(\mathcal{H}, \mathcal{R})=\gamma R(\mathcal{H}, \mathcal{R})+(1-\gamma) \operatorname{BLEU}(\mathcal{H}, \mathcal{R}) $ $R(\mathcal{H}, \mathcal{R})$ は以下の式で定義される. $ R(\mathcal{H}, \mathcal{R})=\frac{\sum_{h_{i} \in \mathcal{H}} d\left(h_{i}, r_{i}\right) \mathrm{BP}_{s}\left(h_{i}, r_{i}\right)}{|\mathcal{H}|} $ $d_{k}(h, r)$ は, 文献 (Birch and Osborne 2011) に従うと $d_{k}(h, r)=1-\sqrt{1-\mathrm{NKT}(h, r)}$ で定義されるが,それ以前の文献 (Birch et al. 2010; Birch and Osborne 2010) では, $d_{k}(h, r)=\mathrm{NKT}(h, r)$ も用いられている. 以降, 前者を $d_{k 1}$, 後者を $d_{k 2}$ とよぶ. RIBES で $\alpha=0, \beta=1$ と設定したときと,LRscore に $d_{k 2}$ を採用, $\gamma=1$ と設定したとき,これら 2 つの手法は一致する. しか L, LRscore は日本語, 英語のような大きな語順の入れ替えがある言語対を対象として考案された手法ではなく,ヨーロッパ言語間,中英4翻訳という比較的語順が似た言語を対象として考案されたため, 最終的には $d_{k 1}$ を採用することで順位相関の低レンジスコアの感度を下げ, さらに語順の近い言語対を対象としたときに実績のある BLEU 5 の恩恵を受けるため,それとの間の線形補間という定式化に至ったのであろう。後述するが,英日,日英翻訳の評価では BLEU を利用するメリットは期待できない。 さらに,NKT を $d_{k_{1}}$ にって非線形変換することで低レ  ンジスコアの感度をさらに下げるメリットも元々高い NKT を得ることが難しい英日,日英翻訳タスクでは期待できない。以上より,LRscore は確かに RIBES と良く似た手法といえるが, BLEU を補うために派生した評価指標と捉えた方が自然であり,RIBES とはその根底にある研 究の動機に大きな違いがある。なお, LRscore には, 参照翻訳とシステム翻訳との間の単語アラインメントを決定する手段が提供されないため,以降の実験では本稿での単語アラインメントを利用した。 ## 5.3 メタ評価の指標 本稿では, メ夕評価の指標として広く用いられている Pearson の積率相関係数, Spearman の順位相関係数,Kendall の順位相関係数を用いた.Pearsonの積率相関係数は人間の評価と自動評価の結果がどの程度線形の関係にあるかを評価し, Spearman, Kendall の相関係数は人間の評価と自動評価の結果の順位がどの程度近いかを評価する. Spearman と Kendall の違いは,先にも説明したように順位の差に対して重みをどのように与えるかという点にある. ## 5.4 実験の手順 RIBES に対してはシステム翻訳の長さに対する重みパラメタと単語正解率に対する重みパラメタ,IMPACT に対してはLCS に対する重みパラメタと語順の違いに対する重みパラメタ, LRscore には順位相関係数と BLEU スコアの重みを調整するパラメタがある. これらの手法に対しては,以下の手順でパラメ夕の最適化を行い,メ夕評価を行った. (1) 文の ID をランダムに 10 個選択する. (2)選択した IDによる 10 文の集合を用いて,文集合全体での人間の評価スコアと自動評価スコアとの間の Spearman の順位相関係数が最大となるようパラメタを決定する。 (3)(2)で決定したパラメ夕を用いて (1)の残りの文集合全体を用いてメ夕評価を行い,相関係数を記録する。 (4)(1)から (3) を 100 回繰り返し, 相関係数の平均値を求める. なお, パラメタが存在しない BLEU と ROUGE-Lに対しては, (2)をスキップし, 同様の手順でメ夕評価を行った。 ## 6 実験結果と考察 ## 6.1 NTCIR-7 データ 表 3 にオーガナイザから配布された参照翻訳のみを用いた時の相関係数の平均値, 表 4 に複数参照翻訳を用いた時の相関係数の平均値を示す. 平均値の差の検定には, ペアワイズの比較に Wilcoxon の符号順位検定 (Wilcoxon 1945)を採用し, Holm 法 (Holm 1979) による多重比較 表 3 メ夕評価の結果(NTCIR-7 データ,単一参照翻訳) 表中, 1 は RIBES, 2 は LRscore $\left(d_{k_{1}}\right), 3$ は LRscore $\left(d_{k_{2}}\right), 4$ は ROUGE-L, 5 は IMPACT, 6 は BLEU に対し,有意水準 $5 \%$ で有意差があることを示す. 表 4 メ夕評価の結果(NTCIR-7 データ,複数参照翻訳) 表中, 1 は RIBES, 2 は LRscore $\left(d_{k_{1}}\right), 3$ は LRscore $\left(d_{k_{2}}\right), 4$ は ROUGE-L, 5 は IMPACT, 6 は BLEU に対し,有意水準 $5 \%$ で有意差があることを示す. を用いた。 表 3,4 より,どの手法に対しても Spearman の順位相関係数の方が Kendall の順位相関係数よりも高い. Kendall の順位相関係数は,2つの順序列の間で一致する半順序関係の数に基づき決定されるため, 細かな順位の間違いに敏感である。一方, Spearman の順位相関係数は順序列の間の順位の差に基づき決定されるため, 細かな順位の間違いには鈍感である。本稿で用いたデータでは,自動評価法にとって,明らかに良いシステムと悪いシステムの区別が容易であったため, 大きな差での順位の不一致が減少し, Spearman の順位相関係数が Kendall の順位相関係数よりも相対的に高い値を記録したのであろう.ただ,全体の傾向としては両者の間に大きな違いはない.Pearson の積率相関係数は順位相関係数より高い值を示しており,BLEU ではその差が特に大きい,たとえば,表 4 の英日タスクでは,Pearson が 0.9 以上であることに対し, Spearmanは 0.7 程度でしかない. これは, 人間の評価との順位付けはやや強い程度相関でしか示していないにも関わらず,線形の相関は非常に強いことを意味する.Pearson の積率相関係数は外れ值がある場合, その値が過剰に高く見積もられるということが知られているが, その影響が強く出ているのではないかと考える。よって,以降では主に順位相関に焦点をあてて議論する。 表 3 より,日英翻訳に関しては,RIBES が他のすべての手法に対して統計的有意に優れている. 英日翻訳に関しては, RIBES と $\operatorname{LRscore}\left(d_{k 1}\right)$ が同程度で優れており, 十分強い相関である. ROUGE-L, IMPACTが, RIBES ほどではないものの比較的よい相関を得ていることに対し,BLEU は双方の言語対において,相関係数の平均值が他のほぼ全ての手法に対し統計的に有意な差で劣っている。 さらに, 順位相関係数は弱い相関程度でしかない. この結果は, 英日,日英翻訳という大きな語順の入れ替えを必要とする言語対を対象とした場合,N グラム一致率で自動評価を行うことが不適切であることを示唆している。 表 4 より,参照翻訳の数が増えると相関係数の平均値は上昇する傾向にある.BLEU の相関係数が他の手法よりも有意に劣っていることは単一参照翻訳の場合と同様であるが, 順位相関係数はやや強い相関程度にまで上昇している.ROUGE-L, IMPACT の相関係数も上昇しており, ROUGE-L は日英翻訳に関しては,他のすべての手法に対して,英日翻訳に関しては,RIBES 以外の手法に対して統計的有意に優れている。 RIBES は,日英翻訳では ROUGE-L に次いで IMPACT と同程度, 英日翻訳では ROUGE-L と同程度であるが, 十分強い相関を示している。 BLEU, ROUGE-L, IMPACT の相関係数が複数参照翻訳が与えられた場合に顕著に改善される理由は, 語彙のバリエーションが増えたことであらう. これらの手法は, $\mathrm{N}$ グラム一致率, LCS 適合率, 再現率を利用しているため, 参照翻訳とシステム翻訳との間で一致しない単語も評価対象となる。よって, 語彙の一致判定を単に文字列としての一致だけで判定すると, 意味的には一致するはずのものが一致せずに不当に低いスコアを得るという問題が起こる。しかし,複数参照翻訳の場合には, 語彙のバリエーションが増えるためこうした問題は軽減されるのであろう。一方, RIBESでもシステム翻訳と参照翻訳との間の単語一致率は利用するため, 一致しない単語を評価対象として用いているが,パラメ夕によりその影響を小さく抑えることができる。よって,単一参照翻訳でも複数参照翻訳でも安定して高い相関を示すことができた. ## 6.2 NTCIR-9 データ 表 5 に相関係数の平均値を示す. NTCIR-7 のデータとは異なり,どの手法も相関係数の平均值は大幅に低下している.特に ROUGE-L,IMPACT,BLEU は,非常に弱い相関,あるいは無相関と言えるほどである。この原因は先の実験結果と同様, 参照翻訳の数が 1 つであることに加え,評価対象となる翻訳システムの中でのルールベースの翻訳システム(SMT とのハイブリッドも含む)の占める割合が増したことにある.NTCIR-7 と比較すると,日英翻訳に関してはルールベースシステムは 2 システムから 6 システムへ, 英日翻訳に関しては 1 システムから 5 システムへと増えた。 図 2 にユニグラム適合率と人間のスコアの関係を示す. 図中四角のマーカ (RBMT-1~6, 表 5 メ夕評価の結果(NTCIR-9 データ, 単一参照翻訳) 表中, 1 は RIBES, 2 は LRscore $\left(d_{k_{1}}\right), 3$ は LRscore $\left(d_{k_{2}}\right), 4$ は ROUGE-L, 5 は IMPACT, 6 は BLEU に対し,有意水準 $5 \%$ で有意差があることを示す. JE EJ 図 2 ユニグラム適合率と人間のスコアの関係 JAPIO, TORI, EIWA) がルールベースの翻訳システムである。図から明らかなように,ルー ルベースの翻訳システムはユニグラム適合率が低いにも関わらず人間の評価では高いスコアを獲得している。つまり, これらのシステムの翻訳は, 参照翻訳と一致する単語の割合が少ないにも関わらず人間の評価では高いスコアを獲得している。ルールベースの翻訳システムは,訓練データから訳語を推定するSMT システムほど語彙の統制がとれていない. よって,翻訳対象のドメインに合致した語彙,すなわち,特許特有の語彙を用いて翻訳できるとは限らない。しかし, SMT システムにとって大きな問題となる語順の入れ替えに関しては, 記述されたルールに当てはまる限りは問題となり得ない。よって, 特許の訳語として多少おかしくとも文全体で意味が通る翻訳となり,その結果,人間が高いスコアを与えたのであろう。先にも説明した通り,BLEU は, $\mathrm{N}$ グラムの適合率, ROUGE-L と IMPACT は LCS の適合率・再現率に基づきスコアを決定する。つまり,参照翻訳と一致する単語の割合が大きいシステム翻訳にしか高いスコアを与えることができない。 よって,ルールベースシステムに高いスコアを与えることはできず,それらの性能を低く見積もってしまったことにより,相関が著しく低下したと考える。 一方, RIBES と LRscore はこれらの手法とは異なり, 単語正解率, BLEU スコアをパラメタで軽減することで単語一致率の低いシステムであっても高いスコアを与えることができるという特徴がある.実際,日英,英日の双方において ROUGE-L,IMPACT,BLEU といった従来の自動評価法に対し,統計的有意に高い相関係数を獲得していることがそれの有効性を示唆している. ユニグラム適合率が低いところでの自動評価法の性能をより詳細に調べるため, ルールベー スの翻訳システムのみを取り出し,同様の実験を行い相関係数の平均値を求めたところ,表 6 を得た。翻訳システム数は日英翻訳タスクで 6 ,英日翻訳タスクで 5 である。サンプル数が少ないため,相関係数の値に対する信頼性がこれまでの実験よりも劣ることに注意されたい.表 6 より,RIBES は日英翻訳タスクで ROUGE-L,IMPACT に劣るものの全体を通してみれば他の手法より良い相関を得ている。参照翻訳が 1 つしかないという影響もあるが,英日翻訳タスクでは ROUGE-L, IMPACT, BLEU は負の相関でしかない. さらに,先に示したとおり,表 5 において RIBES がルールベースシステム,SMT システム双方を含む場合でも良い相関を得たこともふまえると,参照翻訳とシステム翻訳との間で一致する単語が少ない場合でも RIBES は有効であると考える。 以上より, BLEU, ROUGE-L, IMPACT といった単語の一致に強く依存する従来の自動評価法は, 単一参照翻訳時, 評価対象としてルールベースシステムが多く混在する場合には著しく信頼性が低下することを示した,特に,参照翻訳は常に複数与えられるとは限らないため,自動評価法としては単一参照翻訳でも人間の評価結果との間の相関が高いことが望ましい. RIBES は, 参照翻訳数, ルールベースシステムの数が変化した場合でも安定して高い相関であることから,従来の自動評価法よりも優れていると考える.ただし,RIBES には単語正解率と短い翻訳に対するペナルティを調整するための重みパラメタがある。これらパラメタを最適化するためには,いわゆる教師データが必要となることから,それを必要としない BLEU, ROUGE-L 表 6 RBMT だけを用いたメ夕評価の結果(NTCIR-9データ,単一参照翻訳) 表中, 1 は RIBES, 2 は LRscore $\left(d_{k_{1}}\right), 3$ は LRscore $\left(d_{k_{2}}\right), 4$ は ROUGE-L, 5 は IMPACT, 6 は BLEU に対し,有意水準 $5 \%$ で有意差があることを示す. よりもコストのかかる手法とも言える。しかし,実験結果より,各システムに対し 10 文を人間が評価した結果を教師データとしてパラメ夕を最適化できることを示した。よって,十分低いコストでパラメタの最適が可能である. ## 6.3 獲得されたパラメタに関する考察 最後に RIBES と LRscore について獲得されたパラメタ, $\alpha, \beta, \gamma$ の違いから考察する. 図 3 に $\alpha, \beta$ の分布, 図 4 に $\gamma$ 分布を示す. 図 3 より, パラメタ最適化のための訓練事例が 10 文と少ないことも影響してか, 獲得されたパラメ夕にばらつきがあるが,単一参照翻訳の場合には小さな $\alpha$ が選択されている割合が多 JE 図 3 獲得されたパラメタの分布 (RIBES) 平尾, 磯崎, 須藤, Duh, 塚田, 永田 JE 語順の相関に基づく機械翻訳の自動評価法 EJ 図 4 獲得されたパラメタの分布 (LRscore) く, 4.3 節の仮説と一致する. また, NTCIR-9 のように単一参照翻訳かつルールベースシステムの数が多い場合には, $\alpha=0$ の場合が非常に多い. 一方, 複数参照翻訳がある場合, 比較的大きな $\alpha$ が選択されている。 $\beta$ に関しては, 複数参照翻訳時には高い値が選ばれている割合が高く, 4.3 節の仮説と一致するが, 単一参照翻訳時には必ずしも低い值が選ばれておらず先の仮説と一致しない. しかし, 人間の評価との間の相関をみる限り, RIBES は従来法よりも比較的高い相関を得ていることから, これは大きな問題ではないと考える. 図 4 より, LRscore の NTCIR-9 では, $\gamma=1$ 付近が多く選択されており, 語順の相関に対する重みを上げ,語彙の一致(BLEU スコア)に対する重みを下げるようにパラメ夕を選択して おり, RIBES と同様の傾向を示している,しかし, NTCIR-7 では,単一参照翻訳,複数参照翻訳に関わらず 0.3 から 0.6 までの値が多く選ばれており,NTCIR-9 の場合ほど BLEU スコアに対する重みを下げるようなパラメタが選択されていない. NTCIR-7 では RIBES の相関が概ね LRscore の相関を上回っていたが,その原因はこうした語彙の一致に対する重みの違いによると考える。さらに RIBES は 2 つのパラメタ $\alpha, \beta$ があることに対し, LRscore は 1 つのパラメタ $\gamma$ しかない. よって, RIBES は LRscoreよりもより柔軟にデータにフィットできる点が双方の手法のパラメ夕選択,相関係数の差に影響を与えたとも考える。 5.2 節でも述べたが, $\alpha=0, \beta=1, \gamma=1$ とした場合, RIBES も LRscore も語彙の一致スコアを考慮せず順位相関と短い翻訳に対するペナルティだけを考慮することになり,両者はほぼ一致する. 図 4 より, LRscore では $\gamma=1$ が試行の半数近くで選択されているが,図 3 の NTCIR-9 でそうした例がみられるものの全体に占める割合は決して多くはない。また, LRscore の語順相関の計算法として $d_{k 1}$ と $d_{k 2}$ の双方を試したが,一貫して, $d_{k 1}$ の方がよい相関を示した。こうしたことから,基本的には RIBES と LRscore は違うものと捉えて差し支えないだろう. ## 7 まとめと今後の課題 本稿では,翻訳時に大きな語順の入れ替えが必要となる英日,日英翻訳システムを対象として, 文全体での大局的な語順の相関を Kendall の順位相関係数に基づき決定し, これと単語適合率,短い翻訳に対するぺナルティを重み付きで乗じた自動評価法である RIBES (Rank-based Intuitive Bilingual Evaluation Score) を提案した.NTCIR-7, NTCIR-9 の特許翻訳タスクのデー 夕を用いてメ夕評価を行ったところ,BLEU,ROUGE-L, IMPACT といった従来の自動評価法は,参照翻訳の数が少ない場合,評価対象システムにおけるルールベースシステムの割合が大きい場合に相関が低下することに対し, RIBES は, こうした状況でも安定して高い相関を示すことを確認した.また,RIBES と同じくKendall の順位相関係数に基づく自動評価手法である LRscore と比較しても RIBES が少なくとも同等以上の性能であることを確認した.評価実験では,英日,日英翻訳システムを対象としたが,これ以外にも翻訳時に大きな語順の入れ替えを必要とする言語対を対象とした翻訳システムの評価時には有効であると考える. 本稿では, 100 文規模程度のコーパスを用いて翻訳システム間の優劣を人間と同様に自動評価すること,つまり,システム単位での人間の評価結果に対して相関が高い自動評価法を実現することを目的としたが,こうした粗い評価だけではなく,翻訳システムの特徴をより詳細に分析するため,個々の文に対して人間が与えたスコアと自動評価法が与えたスコアとの間の相関を向上させることを目的とした研究もある (Kulesza and Shieber 2004; Gamon, Aue, and Smets 2005; Echizen-ya and Araki 2010). 機械翻訳システムが発展していくにつれ,文単位で細かな評価をしたいという要求はより増していくと考えられるので, こうした着眼点は極めて重要で 表 7 文単位でのメ夕評価の結果 & & NTCIR-9 & & & NTCIR-9 \\ ROUGE-L & 0.583 & 0.674 & 0.009 & 0.637 & 0.746 & 0.056 \\ IMPACT & 0.638 & 0.705 & -0.020 & 0.552 & 0.647 & 0.016 \\ 表中の数値は Spearman の順位相関係数を表す. ある. ROUGE-L, IMPACT と同様, RIBES は文単位でも自動評価スコアを計算できるので, これらの手法の文単位での自動評価スコアと人間の評価スコアとの間の Spearman の順位相関係数を計算した,その結果を表 7 に示す. NTCIR-7 データでの相関が NTCIR-9 データでの相関よりも高いという傾向はシステム単位での実験結果と同様であるが,相関係数の値は大きく下がっている。この原因は, 個々の文に対する人間の評価にはゆれがあることだろう. 3 手法とも,NTCIR-7 の日英翻訳タスクではやや弱い相関,英日翻訳タスクではやや強い相関である. RIBES は ROUGE-L とほぼ同程度で,日英翻訳タスクでIMPACT に 4 ポイント程度劣るものの英日翻訳タスクでは IMPACT に 9 ポイント程度勝っている。一方, NTCIR-9 データの場合, もともとシステム単位での相関も NTCIR-7 デー夕ほど高くはなかったが, 文単位での相関は,どの手法でもほぼ無相関という結果であった。この原因には,評価のゆれに加え,各翻訳文に対する評価者が 1 名であることから,人間の評価の信頼性が低いこと, スコアが 5 段階のカテゴリカルデータになってしまったこと, 参照翻訳数が 1 つしかないことが考えられる.今後, より良い自動評価法を開発するため, こうした文単位での相関をシステム単位での相関程度まで向上させることは自動評価法の大きな課題だと考える。 ## 謝 辞 本論文の内容の一部は, EMNLP 2010: Conference on Empirical Methods in Natural Language Processing で発表したものである (Isozaki, Hirao, Duh, Sudoh, and Tsukada 2010a). ## 参考文献 Banerjee, S. and Lavie, A. (2005). "Meteor: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgements." In Proceedings of ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for MT and Summarization, pp. 65-72. Birch, A. and Osborne, M. (2010). "LRscore for Evaluating Lexical and Reordering Quality in MT." In Proceedings of the Joint 5th Workshop on Statistical Machine Translation and MetricsMATR, pp. 327-332. Birch, A. and Osborne, M. (2011). "Reordering Metrics for MT." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 1027-1035. Birch, A., Osborne, M., and Blunsom, P. (2010). "Metrics for MT Evaluation: Evaluating Reordering." Machine Translation, 24 (1), pp. 15-26. Doddington, G. (2002). "Automatic Evaluation of Machine Translation Quality Using N-gram Co-Occurrence Statistics." In Proceedings of the 2nd International Conference on Human Language Technology Research, pp. 138-145. Echizen-ya, H. and Araki, K. (2007). "Automatic Evaluation of Machine Translation based on Recursive Acquisition of an Intuitive Common Parts Continuum." In Proceedings of the MT Summit XII Workshop on Patent Translation, pp. 151-158. Echizen-ya, H. and Araki, K. (2010). "Automatic Evaluation Method for Machine Translation Using Noun-Phrase Chunking." In Processings of the 48th Annual Meeting of the Association for Computational Linguistics, pp. 108-117. Echizen-ya, H., Ehara, T., Shimohata, S., Fujii, A., Utiyama, M., Yamamoto, M., Utsuro, T., and Kando, N. (2009). "Meta-Evaluation of Automatic Evaluation Methods for Machine Translation using Patent Translation Data in NTCIR-7." In Proceedings of the 3rd Workshop on Patent Translation, pp. 9-16. Fujii, A., Utiyama, M., Yamamoto, M., and Utsuro, T. (2008). "Overview of the Patent Machine Translation Taks at the NTCIR-7 Workshop." In Proceedings of NTCIR-7 Workshop Meeting, pp. 389-400. Gamon, M., Aue, A., and Smets, M. (2005). "Sentence-level MT Evaluation Without Reference Translations: Beyond Language Modeling." In Proceedings of the European Association for Machine Translation (EAMT), pp. 103-111. Goto, I., Lu, B., Chow, K. P., Sumita, E., and Tsou, B. K. (2011). "Overview of the Patent Machine Translation Task at the NTCIR-9 Workshop." In Proceedings of NTCIR-9 Workshop Meeting, pp. 559-573. Holm, S. (1979). "A Simple Sequentially Rejective Multiple Test Procedure." Scandinavian Journal of Statistics, 6, pp. 65-70. Isozaki, H., Hirao, T., Duh, K., Sudoh, K., and Tsukada, H. (2010a). "Automatic Evaluation of Translation Quality for Distant Language Pairs." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP)-2010, pp. 944-952. Isozaki, H., Sudoh, K., Tsukada, H., and Duh, K. (2010b). "Head Finalization: A Simple Reordering Rule for SOV Languages." In Proceedings of the Joint 5th Workshop on Statistical Machine Translation and MetricsMATR, pp. 250-257. Kendall, M. G. (1975). Rank Correlation Methods. Charles Griffin. Kulesza, A. and Shieber, S. M. (2004). "A Learning Approach to Improving Sentence-Level MT Evaluation." In Proceedings of the 10th International Conference on Theoretical and Methodological Issues in Machine Translation (TMI), pp. 75-84. Leusch, G., Ueffing, N., and Ney, H. (2003). "A Novel String-to-String Distance Measure with Application to Machine Translation Evaluation." In Proceedings of the MT Summit IX, pp. 240-247. Lin, C.-Y. and Och, F. J. (2004). "Automatic Evaluation of Machine Translation Quality Using Longest Common Subsequence and Skip-Bigram Statistics." In Proceedings of the 42nd Annual Meeting on Association for Computational Linguistics, pp. 311-318. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: a Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistic (ACL), pp. 311-318. Wilcoxon, F. (1945). "Individual Comparisons by Ranking Methods." Biometrics Bulletin, 1 (6), pp. 80-83. ## 略歴 平尾努:1995 年関西大学工学部電気工学科卒業. 1997 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 同年株式会社 NTT データ入社. 2000 年より NTT コミュニケーション科学基礎研究所に所属. 博士(工学). 自然言語処理の研究に従事. 言語処理学会, 情報処理学会, ACL 各会員. 磯崎秀樹:1983 年東京大学工学部計数工学科卒業. 1986 年同大学院修士課程修了. 同年日本電信電話株式会社入社. 2011 年より岡山県立大学情報工学部教授. 博士 (工学). 言語処理学会, $\mathrm{ACM}$, 情報処理学会, 人工知能学会, 電子情報通信学会各会員. 須藤克仁 : 2000 年京都大学工学部卒. 2002 年同大大学院情報学研究科修士課程修了. 同年日本電信電話株式会社入社. 現在に至る. 音声言語処理, 統計的機械翻訳に関する研究に従事. Duh Kevin: 2003 年米国ライス大学工学部電気工学専攻卒業. 2006 年米国ワシントン大学大学院電気工学研究科修士課程修了. 2009 年同大学院博士後期課程修了。同年 NTTコミュニケーション科学基礎研究所リサーチアソシェ イト. 2012 年奈良先端科学技術大学院大学助教. 自然言語処理に関する研究に従事。 塚田元:1987 年東京工業大学理学部情報科学科卒業. 1989 年同大学院理工学研究科修士課程修了. 同年日本電信電話株式会社入社. 現在, NTT コミュニケーション科学基礎研究所に所属. 統計的機械翻訳の研究に従事. 言語処理学会, 人工知能学会, 情報処理学会, 電子情報通信学会, 日本音響学会, ACL 各会員。 永田昌明:1987 年京都大学大学院工学研究科修士課程修了. 同年, 日本電信電話株式会社入社. 現在, コミュニケーション科学研究所主幹研究員 (上席特別研究員). 工学博士. 統計的自然言語処理の研究に従事. 電子情報通信学会, 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 音声言語コーパスにおける speaking style の自動推定転記テキストに着目して一 沈 睿 近年, 計算機技術の進歩に伴って大規模言語データの蓄積と処理が容易となり, 音声言語コーパスの構築と実用化の研究が盛んに行われている. 我々は, speaking style に関心を持つ利用者に音声言語コーパスを探しやすくさせるために, 音声言語コー パスの speaking styleの自動推定を目指している. 本研究では, 1993 年に Eskenazi が提唱した speaking style の 3 尺度を導入し, 従来の文体・ジャンルの判別や著者推定などの自然言語処理の分野で用いられた言語の形態論的特徵を手がかりとし,音声に付随する書き起こしテキスト(本論文では転記テキストと呼ぶ)に着目した speaking style 推定モデルの構築を試みた. 具体的な手続きとしては, はじめに様々 な音声言語コーパスから音声に付随する転記テキストを無作為に抽出する. 次にこ れらの転記テキストを刺激として用い, 3 尺度の speaking styleの評定実験を行う。 そして, 評定結果を目的変数, 転記テキストの品詞・語種率と形態素パタンを説明変数とし, 重回帰分析により 3 尺度それぞれの回帰モデルを求める. 交差検定を行っ た結果, 本研究の提案手法によって 3 尺度の内 2 尺度の speaking style 評定値を高 い精度で推定できることを確認した。 キーワード : 発話スタイル, 音声言語コーパス, 転記テキスト, 推定, 回帰モデル ## Automatic Estimation of Speaking Style in Speech Corpora Focusing on Speech Transcriptions \author{ Raymond Shen ${ }^{\dagger}$ and Hideaki Kikuchi ${ }^{\dagger \dagger}$ } Recent developments in computer technology have allowed the construction and widespread application of large-scale speech corpora. To enable users of speech corpora to easier data retrieval, we attempt to characterise the speaking style of speakers recorded in the corpora. We first introduce the three scales for measuring speaking style which were proposed by Eskenazi in 1993. We then use morphological features extracted from speech transcriptions that have proven effective in discriminating between styles and identifying authors in the field of natural language processing to construct an estimation model of speaking style. More specifically, we randomly choose transcriptions from various speech corpora as text stimuli with which to conduct a rating experiment on speaking style perception. Then, using the features extracted from these stimuli and rating results, we construct an estimation model of speaking style, using a multi-regression analysis. After cross-validation (leave-1-out), the results show that  among the three scales of speaking style, the ratings of two scales can be estimated with high accuracy, which proves the effectiveness of our method in the estimation of speaking style. Key Words: speaking style, speech corpora, transcriptions, estimation, regression model ## 1 はじめに 計算機技術の進歩に伴い,大規模言語デー夕の蓄積と処理が容易になり,音声言語コーパスの構築と活用が盛んになされている。海外では, アメリカの Linguistic Data Consortium (LDC) とヨーロッパの European Language Resources Association (ELRA)が言語データの集積と配布を行う機関として挙げられる。これらの機関では, 様々な研究分野からの利用者に所望のコーパスを探しやすくさせるために検索サービスが提供されている。日本国内においても,国立情報学研究所音声資源コンソーシアム (NII-SRC) や言語資源協会 (GSK) などの音声言語コーパスの整備・配布を行う機関が組織され,コーパスの属性情報に基づいた可視化検索サービスが開発・提供されている (Yamakawa, Kikuchi, Matsui, and Itahashi 2009, 菊池, 沈, 山川, 板橋, 松井 2009). コーパスの属性検索と可視化検索を同時に提供することで,コーパスに関する知識の多少に関わらず所望のコーパスを検索可能にできることも示されている (Shen and Kikuchi 2011).検索に用いられるコーパスの属性情報として,収録目的や話者数などがあるが, speaking style も有効な情報と考えられる.郡は speaking style と類似の概念である「発話スタイル」が個別言語の記述とともに言語研究として重要な課題であると指摘している (郡 2006). Jorden らによれば,どの言語にもスタイルの多様性があるが,日本語にはスタイルの変化がとりわけ多い (Jorden and Noda 1987). しかしながら, 現状では, 前述の機関では対話や独話などの種別情報が一部で提供されているに過ぎない。また,同一のコーパスにおいても話者や収録条件によって異なる speaking styleが現れている可能性もある。そこで,本研究では speaking style に関心を持つ利用者に所望の音声言語コーパスを探しやすくさせるため,音声言語コーパスにおける部分的単位ごとの speaking styleの自動推定を可能にし,コーパスの属性情報としてより詳細な speaking styleの集積を提供することを目指す. Speaking styleの自動推定を実現するためには,まず speaking styleの定義を明確にする必要がある。Joos は発話のカジュアルさで speaking style を分類し(Joos 1968), Labov は speaking style が話者の発話に払う注意の度合いとともに変わると示唆した (Labov 1972). Biber は言語的特徴量を用いて因子分析を行い,6因子にまとめた上で,その 6 因子を用いて異なるレジス夕のテキストの特徴を評価した (Biber 1988),Delgado らはアナウンサーの新聞報道や,教師の教室内での発話など,特定の職業による発話を “professional speech”として提案し (Delgado and Freitas 1991), Cid らは発話内容が書かれたスクリプトの有無を speaking styleのひとつの指標 にした (Cid and Corugedo 1991). Abe らは様々な韻律パラメータとフォルマント周波数を制御することにより小説,広告文と百科事典の段落の 3 種類の speaking style を合成した (Abe and Mizuno 1994). Eskenazi は様々な speaking style 研究の考察からメ夕的に speaking style の全体像を網羅した 3 尺度を提案した (Eskenazi 1993). Eskenazi は,人間のコミュニケーションは, あるチャンネルを通じて,メッセージが話し手から聞き手へ伝達されることであり, speaking style を定義する際,このメッセージの伝達過程を考慮することが必要であると主張した。その上で, 「明暸さ」(Intelligibility-oriented, 以降 I とする),「親しさ」(Familiarity, 以降 F とする),「社会階層」(soCial strata, 以降 C とする)の 3 尺度で speaking style を定義した.「明瞭さ」は話し手の発話内容の明膫さの度合いであり, メッセージの読み取りやすさ・伝達内容の理解しやすさや,読み取りの困難さ・伝達内容の理解の困難さを示す. 又これは,発話者が意図的に発話の明瞭さをコントロールしている場合も含んでいる。「親しさ」は話し手と聞き手との親しさにより変化する表現様式の度合いであり,家族同士の親しい会話や,お互いの言語や文化を全く知らない外国人同士の親しくない会話などに現れる speaking styleを示す.「社会階層」 は発話者の発話内容の教養の度合いであり, 口語的な, 砕けた, 下流的な表現(社会階層が低い)や,洗練された,上流的な表現(社会階層が高い)を示している. 話し手と聞き手の背景や会話の文脈によって変化する場合もある. ここで,本研究が目指すコーパス検索サービスにとって有用な speaking style 尺度の条件を整理し,Eskenazi の尺度を採用する理由を述べる。まず,一つ目の条件として,幅広い範囲のデータを扱える必要がある,音声言語コーパスは, 朗読, 雑談, 講演などの様々な形態の談話を含み,それらは話者ごと,話題ごとなどの様々な単位の部分的単位により構成される。限られた種類の形態のデータからボトムアップに構築された尺度では, 一部の speaking styleがカバーできていない恐れがある. Eskenazi の尺度は, 様々な speaking style 研究の考察からメ夕的に構築されたものであり,幅広い範囲のデー夕を扱える点で本研究の目的に適している。デー 夕に基づいてボトムアップに構築された他の尺度(例えば (Biber 1988) など)の方が信頼性の点では高いと言えるが,現段階では網羅性を重視する。次に,二つ目の条件として,上述した目的から,コーパスの部分的単位ごとに付与できる必要がある.新聞記事,議事録,講演などのジャンルごとに speaking styleのカテゴリを設定する方法では,一つの談話内での speaking styleの異なり・変動を積極的に表現することが困難である. 一方, Eskenazi の尺度は必ずしも大きな単位に対象を限定しておらず,様々な単位を対象にした多くの先行研究をカバーするように構築されているため, この条件を満たす。最後に三つ目の条件として,日本語にも有効であることが求められる。(郡 2006) や (Jorden and Noda 1987) から, speaking style の種類は言語ごとに異なると言え, 特定の言語の資料に基づいてボトムアップに構築された尺度では, 他の言語にそのまま適用できない恐れがある. Eskenazi の尺度はコミュニケーションモデルに基づいて特定の言語に依存することなく構築されたものであるため, 本研究で対象とする日本語 にも他の言語と同様に適用して良いものと考える. したがって本研究では, Eskenazi の 3 尺度を用いて音声言語コーパスの部分的単位ごとの speaking style 自動推定を行い,推定結果の集積をコーパスの属性情報として提供することを目指す。これによって, 推定された 3 尺度の値を用いて, 例えばコーパス内の部分的単位の speaking style 推定結果を散布図で可視化したり,所定の明瞭さ,親しさ,社会階層のデー夕を多く含むコーパスを検索するなどの応用を可能にする. 以降,2 章では, speaking style 自動推定の提案手法について述べる. Speaking style の推定に用いる学習データを収集するための評定実験については 3 章で説明する。 4 章では評定実験結果の分析, speaking styleの自動推定をするための回帰モデルの構築および考察を述べる. 最後の 5 章ではまとめおよび今後の方向性と可能性の検討を行う. ## 2 Speaking styleの自動推定手法 Speaking styleの自動推定に寄与する要素として, イントネーションや時間構造などの音声的特徴と形態素や統語的構造などの言語的特徴との両方が考えられる. Eskenazi は, speaking style の先行研究のレビューに基づいて音声的特徴と言語的特徴の双方の重要性を述べている (Eskenazi 1993). 郡の調査 (郡 2006) によって示された日本語の口調(speaking style と類似の概念)には,「ですます口調」や「漢文口調」など主に書きことばとしてのスタイルや言語形式によって特徵づけられるものが数多くあげられている. これらから, 本研究では speaking style を扱ううえでまず言語的特徴に焦点を当てる。 一方,自然言語処理の分野においては,言語的特徴を手がかりとしたテキストに対する文体・ ジャンルの判別や著者推定などの研究が多く行われ, 比較的精度の高い成果が得られている.小磯らは現代日本語書き言葉均衡コーパスと日本語話し言葉コーパスにおける 7 つのサブコー パス (白書, 新聞, 小説, Yahoo!知恵袋, 国会議事録, 学会講演, 模擬講演) に対して, 漢語率,名詞率, 接続詞率, 副詞率, 形容詞率, 機能語率を手がかりとする判別分析を行い, 約 $80 \%$ の精度でサブコーパスの分類が可能であることを示した (小磯, 小木曽, 小椋, 宮内 2009). 小山らは形態素出現パタンを手がかりとし,学会における研究発表抄録データの類似性を評価し,いくつかの異なる学会間の類似度をほぼ再現する距離尺度を構成できることを示唆した (小山, 竹内 2008). Mairesse らは言語的手がかりをパーソナリティの自動認識に用いることを試み, 複数の機械学習の手法によって精度の比較と有効な特徴量の検討を行った (Mairesse, Walker, Mehl, and Moore 2007). これらの研究においては, 品詞・語種率と形態素パタンなどの形態論的特徴を特徴量とした方法が有効であることがわかった. 上述の理由と先行研究を踏まえた上で, 我々はまず音声言語デー夕の形態論的特徵から着手し, 従来のテキストの文体・ジャンル判別の手法を用い, 音声に付随する書き起こしテキスト (本論文では転記テキストと呼ぶ)に着目した speaking style 推定モデルを構築することにより, speaking styleの自動推定を試みる. 音声的特徴については,上述したように speaking styleの推定に有用な特徵であり,今後の導入を検討しているが本稿では扱わない。前述した音声言語コーパスの検索サービスにおいて,形態論的特徴のみに基づく speaking style 推定結果を提供することも,例えば形態論的側面に焦点を当てた日本語教育に用いる資料や, 話し言葉における言語情報の話者性変換技術 (水上, Neubig, Sakti, 戸田, 中村 2013) などの学習デー夕を求めるような需要に応えることが可能と考える。 Speaking style 推定モデルの構築の具体的な流れを図 1 を用いて説明する. まず, speaking styleの異なる様々な音声言語コーパスから音声の転記テキストを選出し(3.2.1 節詳述), speaking styleの最も安定する部分と思われる最中部の約 300 字程度のテキストを抽出する (3.2.2 節)。続いて抽出したテキストに対し, Eskenazi の speaking styleの 3 尺度を用いて speaking style 推定モデルの構築に用いる学習デー夕を収集するための評定を行う(3.3 節).同時に, UniDic を辞書として用いた MeCabで形態素解析を行い, 品詞・語種率, 形態素パ夕ンを特徵量として抽出する (4.1 節). 評定実験で得られた評定結果の平均を求め, 3 尺度の学習データとする。最後に重回帰分析により 3 尺度それぞれの回帰モデルを求め, speaking style 推定モデルとする (4.2 節). 構築した speaking style 推定モデルを用いて, 任意の転記テキストに対して, speaking style を自動推定することが可能になる. 図 1 Speaking style 推定モデルの構築の流れ ## 3 評定実験 本章では, 2 章で述べた評定実験の詳細について述べる. ## 3.1 評定者 本評定は,情報科学を専門とした大学生男女 22 名(その内男性は 15 名)の評定者による。全ての評定者は本研究に関わっていない. ## 3.2 刺激 刺激には音声言語コーパス内の転記テキストを使用する. ## 3.2.1 音声言語コーパス Speaking styleの多様さと実験のコストの両方を考慮した上で,本評定実験で使用する音声の転記テキストを,以下の 6 種類の音声言語コーパス(カテゴリ)から収録条件や話者の役割などによっての違いを区別せず,それぞれ 10 サンプルずつ無作為に選出した. I. 日本語話し言葉コーパス (前川, 籠宮, 小磯, 小椋, 菊池 2000)-講演 (CSJ1 と呼ぶ) 日本語話し言葉コーパス (the Corpus of Spontaneous Japanese, CSJ) は, 日本語の自発音声を大量に集めて多くの研究用情報を付加した, 質・量ともに世界最高水準の話し言葉研究用のデータベースである。本研究では, CSJ に収録された多様な speaking styleの中でも,特に学会講演及び模擬講演を対象とする。 II. 日本語話し言葉コーパス-インタビュー(CSJ2 と呼ぶ) I と同じくCSJから選出した, インタビュー形式の対話である。講演音声と対話音声の speaking style は著しく異なると思われるので, 今回の実験目的を考慮し, 別のカテゴリとした. なお, インタビュアーとインタビュイーの発話を区別しないことにした。このコーパス(カテゴリ) は対面の自由対話である. III. 新入生対話コーパス (中里, 大城, 菊池 2013)(FDC と呼ぶ) 大学の研究室に所属の大学生同士の間の自由対話を収録したコーパスである。本コーパスは低親密度の二人の対話音声が, 時間経過および二人の親密性の向上とともにどのように変化するのかを調べることを目的としている。このコーパスは大学生同士の間の自由対話である. IV. 車載環境における質問応答の対話コーパス (宮澤, 影谷, 沈, 菊池, 小川, 端, 太田, 保泉,三田村 2010)(AUTO と呼ぶ) 本コーパスは,模擬車内環境でドライビングゲームをプレイしたドライバー役被験者と,同乗してナビゲーションを行ったナビゲーター役被験者に対して, 走行実験終了後に, 実験中の動画を見せながら感想やナビゲーションの的確さをインタビューした際の対話音声である. 質 問がほぼ決まっているため, 対話内容が定型文に近く, 自由度の低い対話である。なお, インタビュアーとインタビュイーの発話を区別しないことにした。 V. 千葉大地図課題対話コーパス (堀内,中野,小磯,石崎,鈴木,岡田,仲,土屋,市川 1999) (MAPTASK と呼ぶ) 地図課題を遂行するための対話コーパスである。地図課題とは,目標物と経路の描かれた地図を持つ話者(情報提供者)が,目標物のみ描かれた地図を持つ話者(情報追随者)に対し, ルートを教えるという課題である。なお,情報提供者と情報追随者の発話も,話者の面識あり・面識なしなどのパラメータも区別しないことにした。このコーパスは課題による対話である. VI. 研究室メンバー同士の対話コーパス (岩野, 杉田, 松永, 白井 1997) (TRAVEL と呼ぶ)旅行の計画を立てるため,二人の研究室メンバーの間で交わされた対話を収録したコーパスである。このコーパスは高親密度な大学生同士の対話者の間の対面対話である. ## 3.2 .2 転記テキストの加エ 上述の 6 種類のコーパス(カテゴリ)から 10 個ずつ合計 60 個の音声サンプルを無作為に選出する。なお, 対話に関しては, 話者ごとに一つのサンプルとした. CSJ2 は話者数が少ないため, 結果として 4 話者のデータが 2 サンプル以上選択されていた. これ以外について話者の重複はなかった。 Speaking style の最も安定する部分を抽出するため,上記の各音声に付随する転記テキスト中部約 300 字(約 1 分の音声の転記量に相当し, speaking style の知覚に十分だと考えるため)のテキストを切り出す.なるべく発話の内容の影響を避け, speaking styleだけで評定するよう, テキストの名詞(代名詞は除く)の部分を全て「○○」に自動変換した(図 2 参照)。名詞の表現の使い分け(例えば「マイク」と「マイクロホン」など)も speaking styleの一つと扱えるが,名詞を刺激にそのまま表示すると, 本来 speaking style とは独立させるべき話題内容が明確に伝わってしまう恐れがある。したがって, データの話題内容によらない speaking styleを推定することを目指すために,話題を強く想起させ得る名詞(代名詞以外)を伏せることにした.なお,転記テキストにある時間情報,フィラー,言い上どみ,笑い,咳などの情報を消し,書式を統一し,図 2 に例を示したような仮名漢字文字の表記に揃えた上で評定の刺激とした。 図 2 転記テキストからの刺激作成(例) ## 3.3 評定方法 本評定には SD 法を用いる。一つのテキストを読んだ後, 3 尺度のそれぞれについて 7 段階で評定してもらう,「明瞭さ」に関して,不明瞭の場合を 1 , 明瞭の場合を 7 ,「親しさ」に関して,親しくない場合を 1 ,親しい場合を 7 ,「社会階層」に関して,低い場合を 1 ,高い場合を 7 とする.評定はウェブブラウザ上のアンケートページを介して行う,評定の前に,尺度についての詳細説明をよく読むように指示した. 刺激用の転記テキストはランダマイズして提示する. テキストを読み終えてから評定するように指示し, 評定中何度でも読み直して良いとした。なお, 評定実験に先立って,3名の評定者(評定実験の被験者には含まれない)による予備実験を行い, 3 尺度に関しての説明の妥当性および評定の安定性を確認した。その結果, 3 尺度 I, F, C の級内相関係数 (Intraclass Correlation Coefficient, ICC) (Koch 1982)の ICC(2,1)(評定者間の信頼性)はそれぞれ $0.50,0.79$ と 0.82 であり, Landisら (Landis and Koch 1977)によれば,I は “moderate”, F は “substantial”, Cは “almost perfect”であるため, 予備実験における評定者間の信頼性が高いことを確認できた。 3 尺度に関しての説明を若干修正した上で評定実験を行った.評定実験で用いた教示の例を図 3 に示す. (1/60) を開けてくれて凄いいらっやいませって言ってくれたんですけどでも 00 買えないのにでおOOの OOにいる にびびりました ## 上のテキストを読み、次の全ての項目について、その印象がどれくらいか、1から7の7段階の評価で選んでください。各項目について中立の印象は4になります。中立の場合には必ず4にチェックしてください。 \\ テキストは何度読んでも構いません。 項目に関しての説明: 1: Intelligibility-oriented(明瞭さ): 発話者の発話内容の明瞭さの度合いです。 情報の読み取りやすざ伝達内容の理解しやすすさや、読み取りの困難さ・伝達内容の理解の困難さを示します。発話者が意図的に発話の明瞭さをコントロールしている場合も含みます明瞭さが低い場合は1、明瞭さが高い場合は7で、1から7の7段階の評価で選んでください。 2: Familiarity(親しさ) 発話者と聞き手との親しさにより変化する表現様式の度合いです。 䒯族同士の親しい会話や、お互いの言語や文化を全く知らない外国人同士の親しくない会話などにあらわれる発話様式を示します。 親しさが低い場合は1,親しさが高い場合は7で、1から7の7段階の評価で選んでください。 3: Social strata(社会階層) 発話者の発話内容の教養の度合いです。 口語的な、砕けた、下流的な表現(社会階層が低い)や、洗練された、上流的な表現(社会階層が高い)を示します。発話者と聞き手の背景や会話の文脈にようて変化する場合もあります。社会階層が低い場合は1, 社会階層が高い場合は7で、1から7の7段階の評価で選んでください。 図 3 評定実験で用いた教示の例 ## 3.4 評定結果 3 尺度は独立した尺度であることを想定しているが,全 22 名の評定者の評定結果に基づいて尺度間の相関係数を求めたところ, 明瞭さ I と親しさ $\mathrm{F}$ の相関係数が -0.27 , 明瞭さ I と社会階層 $\mathrm{C}$ が 0.48 , 親しさ $\mathrm{F}$ と社会階層 $\mathrm{C}$ が -0.55 であった. 明瞭さ I と親しさ $\mathrm{F}$ の相関は弱いが,社会階層 $\mathrm{C}$ と明膫さ I ・親しさ $\mathrm{F}$ との間には中程度の相関が見られた. Eskenazi は 3 尺度の独立性については特に言及していないが,今回の実験で日本語を対象としたため,一部に 3 尺度の独立性が見受けられないことは,日本語での話し方や発話内容の教養度が話者の間の関係に影響されるという傾向によるものだと考えられる。1 章で述べた音声言語コーパス検索サービスでの応用を考えると,属性情報による絞り込み検索や可視化検索などにおいて必ずしも属性間の独立性を保証する必要はないため, 尺度の間に相関があっても大きな支障はないと考える。 6 コーパス(カテゴリ)の speaking style 評定値が実際にどのように分布してコーパスの特性と合致しているかを見るために,全 22 名の評定者の評定結果の平均を用い, I と F (図 4 の左上), $\mathrm{F}$ と $\mathrm{C}$ (図 4 の右上), $\mathrm{I}$ と $\mathrm{C}$ (図 4 の下部)のそれぞれの 2 次元散布図と箱ひげ図(図 5) 図 4 Speaking style 評定結果の二次元散布図(全評定者の評定結果の平均による) を作成した,図 4 において, CSJ1 は他のコーパス(カテゴリ)に比べて I が高く分布している (有意水準 $5 \%$ の $\mathrm{t}$ 検定によって, MAPTASKを除いて有意). 図 5 の平均値でも CSJ1 は最も高い.これは, CSJ1 が講演音声であり話者が明瞭な発話を意識しているためと考えられる. CSJ2 は, CSJ1 と比べて F が高く $\mathrm{C}$ が低く分布している(t 検定によって有意傾向が見られ,図 5 の平均値についても同様の傾向)。これは, CSJ2が CSJ1 と異なり, 講演話者へのインタビューであり,対話の形をとることによると考えられる.FDCは C が低く分布している(有意水準 $5 \%$ の $\mathrm{t}$ 検定によって,図 5 の平均值では TRAVEL についで 2 番目に有意に低い)。これは FDC は大学生同士の間の自由対話であることによると考えられる。AUTO は F が低く分布 図 5 刺激ごとの評定結果の平均(左上は $\mathrm{I}$ ,右上は $\mathrm{F}$, 下は $\mathrm{C}$ ) している (有意水準 $5 \%$ の $\mathrm{t}$ 検定によって, CSJ1 を除いて有意, 図 5 の平均値においても同様の傾向)。これは AUTO は実験者と被験者との間の自由度の低い対話であることによると考えられる. MAPTASK は, Iが広く分布し, 同じ課題対話である AUTO と比較して F や $も$ 広く分布している。これは, MAPTASKが話者の面識ありとなしの両方を含むことによると考えられる.TRAVEL は他のコーパス(カテゴリ)に比べて I が低く F が高く分布している(有意水準 $5 \%$ ,検定によって, FDC(Iのみ)を除いて有意, 図 5 の平均値においても同様の傾向). これは対話者同士が同じ研究室の大学生であることに加えて, 同じ大学生同士の FDC よりも高親密度であることによると考えられる.以上のことから,3.2.1 節で述べた各コーパス(カテゴリ)の speaking styleに関する特性が評定値の分布に現れているといえる。一方, 3.2.1 節で述ベたように, speaking styleが多様になることを意図して 6 コーパス(カテゴリ)を選び,上述の考察から予想されたように評定値が分布しており多様なデー夕を確保できたと言える。しか L, 例えば $\mathrm{I}$ と $\mathrm{F}$ 評定値がともに高い刺激などは少なく, 他にもスパースな象限が複数見られる,今後,より多様なコーパスを扱い,本研究の手法の有効性を検証する必要がある. なお,評定値の安定性を確認するために, 3 尺度の級内相関係数 (Koch 1982)を算出した, 3 尺度 I, F , C の $\operatorname{ICC}(2,1)$ (評定者間の信頼性)はそれぞれ $0.11,0.53$ と 0.35 であり, $\operatorname{ICC}(2, \mathrm{k})$ (平均の信頼性) は $0.72,0.96$ と 0.92 であった. Landisら (Landis and Koch 1977)によれば, ICC の目安として, 0.0-0.20 が “slight”, 0.21-0.40 が “fair”, 0.41-0.60 が “moderate", 0.61-0.80 が "substantial”, 0.81-1.00が “almost perfect”とされている.これにしたがえば, $\operatorname{ICC}(2,1)$ において F と C は許容範囲内の信頼性といえ,また評定者数が多いことに起因して $\operatorname{ICC}(2, \mathrm{k})$ において I, F , C のいずれも評定值の平均の信頼性が高く, モデル構築に用いて良いと考える。なお, 本研究が目指すコーパス検索サービスのための尺度としては,評定者によって大きく異ならないものであることが望ましく, 上記の結果からIの尺度はこのままでは検索用途に適さない.今後,尺度の説明の見直しなど,検討の必要がある。 ## 4 Speaking style 推定モデルの構築 3 章で述べた評定実験によって得られた評定結果と刺激に用いたテキストに現れた特徴量によってモデル構築を行う。 ## 4.1 特徴量抽出 2 章で述べた理由で, 本研究では主に品詞・語種率, 形態素パタンなどの形態論的特徵を特徴量とする. ## 4.1.1 形態素解析 3 章で述べた 60 転記テキストに対し, UniDic (伝, 小木曽, 小椋, 山田, 峯松, 内元, 小磯 2007) を辞書として用いた MeCabで自動解析する. ## 4.1.2 品詞・語種率 各コーパス(カテゴリ)の品詞・語種率(感動詞 int, 助動詞 aux, 動詞 $\mathrm{v}$, 接頭詞 pref, 副詞 adv, 代名詞 pron, 接続詞 conj, 助詞 par, 形容詞 adj, 連体詞 adno, 機能語 func の合計 11 種) を箱ひげ図で示す (図 6 参照)。図 6 の縦軸は品詞・語種率の割合であり, 横軸は左から CSJ1, CSJ2, FDC, AUTO, MAPTASK, TRAVEL の順に 6 コーパス(カテゴリ)ごとの結果を示している。なお, 個々の品詞・語種率は, 転記テキストごとの延べ語数に対する各品詞・語種の延べ語数の割合として求めた. 図 6 に示したように, 品詞・語種率の傾向はコーパス (カテゴリ)ごとに異なることがわかった. 例えば,AUTO や MAPTASK のような自由度の低い発話のコーパス(カテゴリ)に比べて, CSJ2, FDC,TRAVELのような相対的に自由度の高い発話のコーパス(カテゴリ)の代名詞 (pron)の割合が高い(有意水準 $5 \%$ の検定によって有意)ことや,AUTOのような定型文に近く自由度の低い対話のコーパス(カテゴリ)の助動詞 (aux) の割合が高い(有意水準 $5 \%$ の $\mathrm{t}$ 検定によって有意)ことなど, 品詞・語種率が特徴量として speaking styleの自動推定に寄与する見込みがあることを示している. ## 4.1.3 形態素パタン 小山らによると, 文章に出現する形態素パタンが文章間の類似性を定量化するための特徴量として有効である (小山,竹内 2008),沈らは日本語話し言葉コーパスの転記テキストから主に形態論情報や統語論情報などの言語的特徴を手がかりとし,印象形成に寄与すると思われる特徵を 43 パタン抽出した (沈,菊池,太田,三田村 2012). 沈らが用いた特徴は全て音声コーパスの転記テキストから抽出したものであり,今回の推定対象となったコーパスの転記テキストの性質と一致している。金水によれば,ある種の日本語の話し方(speaking style と類似の概念) は, その話し手として,特定の人物像を想起させる力を持つ発話スタイルのことを「役割語」と名づけた (金水 2011). したがって, speaking style と特定のキャラクタ像の形成との間に関連はあるものと考え,これらのパタンを本研究に用いた。そのため, 我々はこの 43 パタンについて, 3 章の評定実験に使用する転記テキストに現れた 23 パタンの出現数を本研究における使用特徴量とした (表 1 参照)。なお, 刺激ごとに形態素数が異なるため, 刺激内のパタン出現数を刺激内の形態素数で正規化した。 図 6 コーパス(カテゴリ)ごとの品詞・語種率(転記テキストごとの延べ語数に対する各品詞・語種の延べ語数の割合を縦軸とした箱ひげ図) 表 1 形態素パタン (形態素パタンの記法は「出現形 [辞書形](品詞)」の形式で 1 形態素を表し, “.”は任意の 1 文字以上の文字列を表し,“A|B”は「Aまたは B」を表す.) ## 4.2 モデルと考察 Speaking styleの自動推定をするため,重回帰分析により推定モデルを構築した.分析には, ステップワイズ変数選択(変数減増法)1の手法で,各コーパス(カテゴリ)の品詞・語種率と形態素パタンを説明変数とし, 評定実験の結果の平均を目的変数として最適なモデルを求めた. もとめたモデルの有意性を検定するために,「全ての偏回帰係数がゼロである」という帰無仮説を立てた $\mathrm{F}$ 検定を行った。その結果, 3 尺度共に有意水準 $1 \%$ でモデルの有意性が証明された。 さらに,モデルの信頼性を確認するため, 交差検定 (leave-1-out) によりモデルの決定係数 (Montgomery and Peck 1982)を求めた。その結果を表 2 に示す. 表 2 に示した結果は, ことわ $ の step 関数を用いる。まず全変数を取り込んで AIC を最も改善させる一つの変数を削除する,次に AIC が最も改善するように一つの変数を削除あるいは追加する,削除しても追加しても AIC が改善しないなら止める. } 表 2 交差検定 (leave-1-out) の結果(決定係数/調整済決定係数) りのない限り全て,テストデータと同一コーパスの他データを学習データに含めて交差検定を行った結果であるが,交差検定の際に同一コーパスの他データを学習データに含めるかどうかを応用目的に照らして検討する必要がある。同一コーパスの他データを学習データに含めた場合の交差検定 (leave-1-out) は, 同一コーパスの他データの評定値が部分的に既知である場合に相当する。実際の応用において,推定精度をあげるためにコーパス内の一部の部分的単位に人手で推定結果を与えてモデル学習に利用することは充分考えられる。そこで, この方法の交差検定結果を表 2 の「全特徴量」に示した. 一方で, 同じコーパスの他データを学習データに含めない場合の交差検定 (leave-1-out) は, 同一コーパスの評定値が全て未知である場合に相当する.実際の応用においてこうしたケースもあり得るため, この方法の交差検定結果を「全特徴量(同一コーパスを含めない)」に示した,3.2.1 節に述べたように,評定実験では speaking styleの多様さと実験のコストの両方を考慮した上で, 60 サンプルを評定の刺激としたが,モデル構築のためのサンプルとしては少ないことが懸念される。サンプル数の少なさの影響を考慮するために自由度調整済決定係数を求めたところ, 同一コーパスが学習データとして存在する場合, I は 0.37, F は $0.81, \mathrm{C}$ は 0.66 であった. 1 章で述べたとおり, 本研究では, 一つのコーパスに対して複数の部分的単位ごとの推定結果の集積が利用されることを想定しており, 全ての部分的単位に対して正しく推定できていなくても, 50 \%以上の部分的単位を説明できることに相当する推定精度(決定係数 0.50 以上)があれば, 1 章に述べたような応用は実現可能と考える.F と C の決定係数は 0.50 を大きく上回っているため応用には十分と考える. 全特徴量(同一コーパスを含めない)の場合, すなわち, 未知のコーパスの場合, 自由度調整済決定係数は I が 0.13 , F が 0.74 , C が 0.52 であり,精度が下がるが,F,C はやはり 0.5 を超えているため応用にとって有効と考える.Iについてはいずれの場合も推定の精度が高くなく,また Cについては今後さらなる改善が必要と考える. さらに, 表 2 には品詞・語種率のみと形態素パタンのみを使用した場合の決定係数を示す.この結果から, 3 尺度ともに, 品詞・語種率と形態素パタンの両方を使用した場合のモデルの精度は,それぞれを単独で使用した場合よりも高いことがわかり,両方を特徴量として用いることの有効性が示された。 表 3 に選択された説明変数とその偏回帰係数を示す. F のモデルにおいて, 形態素パタン「.[で す](助動詞) |.[ます](助動詞)」の偏回帰係数は 2 番目に絶対値が大きく, です・ます調の出現は F のモデルに負の働きがあるといえる。これは, 心的距離が近ければ普通体を用いることが多い (川村 1998) といった先行研究と対応付いている. 4 番目の「.[ちゃう](助動詞)」(例:行っちゃう)などの音の変化形の出現 (川村 1998) も F のモデルに大きく貢献することがわかった.他にも, 3 番目の「よ [よ](助詞)」(例:よ),6 番目の「ね [ね](助詞)」(例:ね)のような終助詞の出現が F のモデルに正に働くことがわかった。「よ」や「ね」などの終助詞は,会話を親しげにしたり,同意を求める雾囲気にしたりする機能を持つという先行研究 (川崎 1989) の主張と対応付いている,Cのモデルにおいては,形態素パタン「.[けれど](助詞) も [も](助詞)」の偏回帰係数が最も大きく,「けれども」などの出現が Cのモデルに正の働きがあるとわかった. このことは「けれども」などがよく改まった会話に用いられるという指摘 (川村 1994) と一致している。ほかにも,5 番目の「連体詞率」などの形態素パタンが C のモデルに大きく貢献することがわかった. ## 5 おわりに 本研究では, speaking styleに関心を持つ利用者に所望の音声言語コーパスを探しやすくさせるために, 音声言語コーパスの speaking style を自動推定して属性情報として付与することを目指す. 本研究では, 従来のテキストの文体・ジャンル判別の手法を用い, 音声に付随する転記テキストの形態論的特徴を手がかりとし, speaking style 推定モデルを構築することにより, speaking styleの自動推定を試みた. 先行研究より, speaking styleを「明暸さ」(Intelligibility-oriented),「親しさ」(Eamiliarity),「社会階層」(soCial strata)の3尺度で定義し,6コーパス(カテゴリ) から選出した音声の転記テキストを刺激とし, speaking styleの評定を行った。評定実験によって得られた評定結果の分布がコーパスの特性と合致していることを確認した上で,重回帰分析を行い, speaking styleにおける 3 尺度のそれぞれの回帰モデルを求めた. モデル構築の際,テキストの文体・ジャンル判別や著者推定などの従来手法において重要性が確認されている品詞・語種率以外に, 文書分類や印象形成に有効だと思われる形態素パタンを特徴量として導入した.交差検定を行った結果, 特に同一コーパスのサンプルが学習データとして使用できる場合には,本研究の提案手法によって 3 尺度中 $\mathrm{F}$ と $\mathrm{C}$ speaking style 評定値を高い精度で推定できることを確認した。 本稿では,言語的特徴としてまず形態論的特徴に絞って扱ったが,係り受け情報のような統語的特徴も speaking style の推定に役立つ可能性がある. 今後, こうした特徴を加えて推定精度の向上を目指す. 本研究で提案した speaking style の自動推定手法によって, コーパスの部分的単位ごとの speaking style を推定した結果はコーパス全体の speaking styleの判断材料となる. 今後の方針 として, speaking style 推定モデルを用いて,一つのコーパスに付随する転記テキストに対して speaking style を自動推定した上で,3 尺度の空間上でそのコーパス全体の speaking style を可視化できるようにすることを目指す. また,本研究の成果を外国語教育分野において, speaking styleの習得支援に生かせるようにする予定である。 ## 参考文献 Abe, M. and Mizuno, H. (1994). "Speaking Style Conversion by Changing Prosodic Parameters and Formant Frequencies." In Proceedings of the International Conference on Spoken Language Processing, pp. 1455-1458. Biber, D. (1988). Variation Across Speech and Writing. Cambridge University Press. Cid, M. and Fernandez Corugedo, S. G. (1991). "The Construction of a Corpus of Spoken Spanish: Phonetic and Phonological Parameters." In Proceedings of the European Speech Communication Association Workshop, 17, pp. 1-5. Delgado, M. R. and Freitas, M. J. (1991). "Temporal Structures of Speech: Reading News on TV." In Proceedings of the European Speech Communication Association Workshop, 19, pp. $1-5$. 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵 (2007). コーパス日本語学のための言語資源 : 形態素解析用電子化辞書の開発とその応用. 日本語科学, 22, pp. 101-122. Eskenazi, M. (1993). "Trends in Speaking Styles Research." In Proceedings of Eurospeech, pp. 501509. European Language Resources Association (ELRA). http://www.elra.info/ 言語資源協会 (GSK). http://www.gsk.or.jp/index_e.html 堀内靖雄, 中野有紀子, 小磯花絵, 石崎雅人, 鈴木浩之, 岡田美智男, 仲真紀子, 土屋俊, 市川喜 (1999). 日本語地図課題対話コーパスの設計と特徴. 人工知能学会誌, 14 (2), pp. 261-272. 岩野裕利, 杉田洋介,松永美穂,白井克彦 (1997). 対面および非対面における対話の違い〜頭の振りの役割分析〜. 情報処理学会研究報告, 97 (16), pp. 105-112. Joos, M. (1968). "The Isolation of Styles." In Fishman, J. A. (Ed.), Readings in the Sociology of Language, pp. 185-191. The Hague: Mouton. Jorden, E. and Noda, M. (1987). Japanese the Spoken Language. New Haven \& London: Yale University Press. 川村よし子 (1994). 上級クラスにおける表現の指導一「改まり度」に応じたことばの使い分け一. 講座日本語教育, 29, pp. 120-133. 川村よし子 (1998). 目上に対して「親しさ」を表す会話のストラテジー. 講座日本語教育, 33, pp. $1-19$. 川崎晶子 (1989). 日常会話のきまりことば. 日本語学, 8 (2). 菊池英明, 沈睿, 山川仁子, 板橋秀一, 松井知子 (2009). 音声言語コーパスの類似性可視化システムの構築. 日本音響学会秋季研究発表会講演論文集, pp. 441-442. 金水敏 (2011). “現代日本語の役割語と発話キャラクタ.” 金水敏(編), 役割語研究の展開, pp. 7-16. くろしお出版. Koch, G. G. (1982). "Intraclass Correlation Coefficient." In Kotz S. and Johnson N. L. (Eds.) Encyclopedia of Statistical Sciences, Vol. 4, pp. 213-217. New York: John Wiley \& Sons. 小磯花絵, 小木曽智信, 小椋秀樹, 宮内佐夜香 (2009). コーパスに基づく多様なジャンルの文体 比較一短単位情報に着目して一. 言語処理学会年次大会発表論文集, pp. 594-597. 国立情報学研究所音声資源コンソーシアム (NII-SRC). http://research.nii.ac.jp/src/郡史郎 (2006). 日本語の「口調」にはどんな種類があるか. 音声研究, 10 (3), pp. 52-68. 小山照夫, 竹内孔一 (2008). 形態素出現パタンに基づく文書集合類似性評価. 情報処理学会研究報告自然言語処理研究会報告, 2008 (113), pp. 51-56. Labov, W. (1972). "The Isolation of Contextual Styles." In Labov, W. (Ed.) Sociolinguistic Patterns, pp. 70-109. Oxford: Basil Blackwell. Landis, J. R. and Koch, G. G. (1977). "The Measurement of Observer Agreement for Categorical Data." Biometrics, 33, pp. 159-174. Linguistic Data Consortium (LDC). http://www.ldc.upenn.edu/ 前川喜久雄, 籠宮隆之, 小磯花絵, 小椋秀樹, 菊池英明 (2000). 日本語話し言葉コーパスの設計. 音声研究, $\mathbf{4}(2)$, pp. 51-61. Mairesse, F., Walker, M. A., Mehl, M. R., and Moore, R. K. (2007). "Using Linguistic Cues for the Automatic Recognition of Personality in Conversation and Text." Journal of Artificial Intelligence Research, 30, pp. 457-500. 宮澤幸希, 影谷卓也, 沈睿, 菊池英明, 小川義人, 端千尋, 太田克己,保泉秀明,三田村健 (2010).自動車運転環境下におけるユーザーの受諾行動を促すシステム提案の検討. 人工知能学会誌, $25(6)$, pp. 723-732. 水上雅博, Neubig, G., Sakti, S., 戸田智基, 中村哲 (2013). 話し言葉の書き起こし文章の話者性の変換. 人工知能学会全国大会論文集, pp. 1-4. Montgomery, D. C. and Peck, E. A. (1982). Introduction to Linear Regression Analysis (2nd edition), New York: John Wiley \& Sons. 中里収, 大城裕志, 菊池英明 (2013). 音声対話における親密度と話し方の関係. 電子情報通信学会技術研究報告, 112 (483), pp. 109-114. Shen, R. and Kikuchi, H. (2011). "Construction of the Speech Corpus Retrieval System: Corpus Search \& Catalog-Search." In Proceedings of Oriental COCOSDA, pp. 76-80. 沈睿,菊池英明,太田克己,三田村健 (2012). 音声生成を前提としたテキストレベルでのキャラクタ付与. 情報処理学会論文誌, 53 (4), pp. 1269-1276. Yamakawa, K., Kikuchi, H., Matsui, T., and Itahashi, S. (2009). "Utilization of Acoustical Feature in Visualization of Multiple Speech Corpora." In Proceedings of Oriental COCOSDA, pp. 147-151. ## 略歴 沈睿:2005 年中国華東師範大学中国語教育学科卒, 2009 年早大大学院修士課程了. 同年同大学院博士課程入学. 2012 年より早大人間科学学術院助手. 音声言語コーパス, 言語教育の研究に従事. 言語処理学会会員. 菊池英明:1991 年早大 - 理工・電気卒, 1993 年同大大学院修士課程了. 同年株式会社日立製作所中央研究所入社. 早大理工総研助手, 国立国語研究所非常勤研究員, 早大人間科学部非常勤講師・専任講師・准教授を経て, 2012 年より早大人間科学学術院教授. 博士 (情報科学). 音声言語, 音声対話, ヒュー マン・エージェント・インタラクションの研究に従事. 人工知能学会, 日本音響学会, ヒューマンインタフェース学会, 情報処理学会, 電子情報通信学会等会員
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 表層類似度に基づくセンター試験『国語』現代文傍線部問題ソルバー 佐藤 理史 $^{\dagger} \cdot$ 加納 隼人 $\dagger \cdot$ 西村 翔平 $\dagger \dagger \cdot$ 駒谷 和範 $+\dagger \dagger$ } 大学入試センター試験『国語』の現代文で出題される, いわゆる「傍線部問題」を 解く方法を定式化し,実装した。本方法は, 問題の本文の一部と 5 つの選択肢を照合し,表層的に最も類似した選択肢を選ぶことにより問題を解く,実装した方法は,「評論」の「傍線部問題」の半数以上に対して正解を出力した. キーワード : 大学入試センター試験, 国語現代文, 傍線部問題, 表層類似度 ## A Surface-Similarity-Based Solver of Comprehension Questions Referring to Underlined Passages in Contemporary Japanese of the National Center Test \author{ Satoshi Sato $^{\dagger}$, Hayato Kanou $^{\dagger}$, Shohei Nishimura ${ }^{\dagger \dagger}$ and Kazunori Komatani ${ }^{\dagger \dagger \dagger}$ } We formalized and implemented a method for solving comprehension questions referring to underlined passages in Contemporary Japanese of the National Center Test. A target question consists of a text body extracted from a critical essay or novel, a question sentence, and five choices; the question sentence refers to an underlined passage in the text body and asks a question related to the passage, such as the interpretation of the passage, the reason for the author's claim (in the essay), and the emotional state or feeling of a character (in the novel). Given a question, the method determines which text segment is the key to the question and selects the choice that is most similar to the segment. The method correctly solved more than half the "critical essay" questions in previous tests of the National Center Test. Key Words: the National Center Test, Contemporary Japanese, questions referring to underlined passages, surface similarity ## 1 はじめに 日本において, 大学入試問題は, 学力(知力および知識力)を問う問題として定着している. この大学入試問題を計算機に解かせようという試みが, 国立情報学研究所のグランドチャレンジ「ロボットは東大に入れるか」というプロジェクトとして 2011 年に開始された (新井, 松崎  2012). このプロジェクトの中間目標は, 2016 年までに大学入試センター試験で, 東京大学の二次試験に進めるような高得点を取ることである. 我々は, このプロジェクトに参画し, 2013 年度より,大学入試センター試験の『国語』現代文の問題を解くシステムの開発に取り組んでいる,次章で述べるように,『国語』の現代文の設問の過半は,傍線部問題とよばれる設問である。船口 (船口 1997) が暗に指摘しているように,『国語』の現代文の「攻略」の中心は,傍線部問題の「攻略」にある. 我々の知る限り,大学入試の『国語』の傍線部問題を計算機に解かせる試みは, これまでに存在しない1. そのため, この種の問題が,計算機にとってどの程度むずかしいものであるかさえ,不明である。このような状況においては,色々な方法を試すまえに,まずは,比較的単純な方法で, どのぐらいの正解率が得られるのかを明らかにしておくことが重要である. 本論文では,このような背景に基づいて実施した,表層的な手がかりに基づく解法の定式化・実装・評価について報告する,我々が実装したシステムの性能は,我々の当初の予想を大幅に上回り,「評論」の傍線部問題の約半分を正しく解くことができた. 以下,本稿は,次のように構成されている。まず,2 章で,大学入試センター試験の『国語』 の構成と,それに含まれる傍線部問題について説明する. 3 章では,我々が採用した定式化について述べ,4章ではその実装について述べる,5 章では,実施した実験の結果を示し,その結果について検討する.最後に, 6 章で結論を述べる. ## 2 センター試験『国語』と傍線部問題 大学入試センター試験の『国語』では, 毎年, 大問 4 題が出題される (教学社編集部 2013). その大問構成を表 1 に示す.この表に示すように, 現代文に関する出題は, 第 1 問の「評論」と第 2 問の「小説」であり,『国語』の半分を占めている. 第 1 問の「評論」は,何らかの評論から抜き出された文章(本文)と,それに対する 6 問の設問から構成される。 6 問の内訳は,通常,以下のようになっている。 問 1 漢字の書き取り問題が 5 つ出題される. 表 1 センター試験『国語』の大問構成一出典 (教学社編集部 2013) } & 第 1 問 & 評論 & 50 点 \\ \cline { 2 - 4 } & 第 2 問 & 小説 & 50 点 \\ \cline { 2 - 4 } & 第 4 問 & 漢文 & 50 点 \\ ^{1}$ CLEF2013では, QA4MREのサブタスクの一つとして, Entrance Exams が実施され,そこでは, センター試験の『英語』の問題が使用された. } 問 2-問 5 本文中の傍線部について,その内容や理由が問われる。 問 6 本文全体にかかわる問題で,2006 年以降は本文の論の進め方や本文の構成上の特徴などが問われる。 一方,第 2 問の「小説」は,何らかの小説から抜き出された文章(本文)と,それに対する 6 問の設問から構成される。 6 問の内訳は,通常,以下のようになっている. 問 1 語句の意味内容を問う問題が 3 つ出題される. 問 2-問 5 本文中の傍線部を参照し,登場人物の心情・人物像・行動の理由などが説明問題の形で問われる。 問 6 本文全体の趣旨や作者の意図,表現上の特徴などが問われる。 これらの設問のうち,「評論」「小説」の両者の問 2 から問 5 を傍線部問題と呼ぶ. 傍線部問題の具体例を図 1 に示す。この図に示すように,傍線部問題は,原則として 5 つの選択肢の中から正解を一つ選ぶ 5 択問題である。傍線部問題の配点は, 2009 年度本試験では, 第 1 問 32 点,第 2 問 33 点の計 65 点であり, 現代文の配点 100 点の約 $2 / 3$ を占める. 問 5 傍線部D「行為と行為をつなぐこの空間の密度を下げているのが、現在の住宅である」 とあるが、それはどういうことか。その説明として最も適当なものを、次の 1 ~5 のうから一つ選べ。 1 現在の住宅では、仕事部屋や子ども部屋など目的ごとに空間が切り分けられており、 それぞれの用途とはかかわらない複数の異なる行為を同時に行ったり、他者との関係を作り出したりするような可能性が低下してしまっていること。 2 現在の住宅では、ゾーニングが普及することでそれぞれの空間の独立性が高められており、家族であってもそれぞれが自室で過ごす時間が増えることで、人と人とが触れあい、関係を深めていくことが少なくなってしまっていること。 3 現在の住宅では、空間の慣習的な使用規則に縛られない設計がなされており、居住者たちがそのときその場で思いついたことを実現できるように、各自がそれぞれの行為を同時に行えるようになっていること。 4 木造家屋などかつての居住空間では、居間や台所など空間ごとの特性が際立っていたが、現代の住宅では、居住者が部屋の用途を交換でき、空間それぞれの特性がなくなつてきていること。 5 木造家屋などかつての居住空間では、人体の運動と連動して空間が作り変えられるような特性があったが、空間ごとの役割を明確にした現在の住宅では、予想外の行為によって空間の用途を多様にすることが困難になっていること。 図 1 傍線部問題の例(2011 年度本試験第 1 問の問 5 (2011M-E5)) 表 2 使用する傍線部問題の一覧 ## 使用する試験問題 本研究では, 2001 年度から 2011 年度の奇数年の大学入試センター試験の本試験および追試験の『国語』(2005 年以前は『国語 I・II』)を使用する,ただし,諸般の事情により,本文等が欠けているものがあり, それらは使用しない. 表 2 に, 本研究で使用する傍線部問題の一覧を示す. なお,以降では,設問を指し示す ID として,以下のような 4 つの情報を盛り达んだ形式を採用する。 (1) 年度 (4 桁) (2) 試験区分(M: 本試験, S: 追試験) (3) 出題区分 (E: 評論, $\mathrm{N}$ : 小説) (4) 設問番号 $(2,3,4,5)$ たとえば,図 1 に示した,2011 年度本試験第 1 問「評論」の問 5 は,「2011M-E5」と表す。なお,この例に示したとおり, (2)と (3)の間に,ハイフォン‘-をを挟む. ## 3 傍線部問題の定式化 ## 3.1 定式化 センター試験『国語』現代文傍線部問題では,正解となる選択肢の根拠が必ず本文中に存在すると指摘されている (船口 1997)。そして, その根拠となる部分は, 傍線部の付近に存在することが多いことが,板野の分析によって明らかにされている (板野 2010). 我々は,これらの知見に基づき,傍線部問題を,図 2 に示すように定式化する。 この定式化は,次のことを意味する。 入力 (a) 本文 $T$ (b)設問文 $Q$ (本文中のどこを参照しているかの情報が含まれるものとする) (c) 選択肢集合 $C=\left.\{c_{1}, c_{2}, c_{3}, c_{4}, c_{5}\right.\}$ 出力 $c=\underset{c_{i} \in \text { pre_select }(C, Q)}{\arg \max } \operatorname{score}\left(\operatorname{extract}(T, Q), c_{i}\right) \operatorname{polarity}(Q)$ 関数 (a) $\operatorname{extract}(T, Q)$ : 本文 $T$ から,その一部を抽出する (b) $\operatorname{score}\left(\widehat{T}, c_{i}\right)$ : テキスト $\widehat{T}$ と $c_{i}$ から,照合スコアを計算する (c) $\operatorname{polarity}(Q)$ : 設問文の極性を判定する (d) pre_select $(C, Q)$ : 選択肢集合 $C$ から,その部分集合を選ぶ 図 2 傍線部問題の定式化 (1)それぞれの設問を入力とする。設問は,本文 $T$, 設問文 $Q$, 選択肢集合 $C$ から構成されるものとする。(図 1 では,これらのうち,本文 $T$ を除いた,設問文 $Q$ と選択肢集合 $C$ を示している.) (2)設問文 $Q$ と本文 $T$ から,選択肢と照合する本文の一部 $\widehat{T}=\operatorname{extract}(T, Q)$ を定める. (3)選択肢集合 $C$ の中から,実際に本文の一部 $\widehat{T}$ と照合する部分集合 $\widehat{C}=\operatorname{pre} \operatorname{select}(C, Q)$ を定める。これは,選択肢の事前選抜に相当する。 (4) 設問文の極性 polarity $(Q)$ を判定する。この関数は,設問文 $Q$ が「適当なもの」を要求している場合に +1 を,「適当でないもの」を要求している場合に -1 を返すものとする. (5) 事前選択済の選択肢集合 $\widehat{C}$ に含まれる選択肢 $c_{i}$ と, 本文の一部 $\widehat{T}$ と照合スコア $\operatorname{score}\left(\widehat{T}, c_{i}\right)$ を計算する。これに設問文の極性 $\operatorname{polarity}(Q)$ をかけたものを,その選択肢の最終スコアとする。 (6)事前選択済の選択肢集合 $\widehat{C}$ に含まれる選択肢 $c_{i}$ のなかで,最終スコアが最大のものを,解として出力する. この定式化の特徴は,図 2 に示した (a)-(d)の 4 つの関数に集約される.これらの背後にある考え方について,以下で説明する。 ## 3.2 本文の一部と照合する 正解の選択肢の根拠となる箇所は, 多くの場合, 本文中の傍線部の周辺にあると考えるのが妥当である. 先に述べたように,この点についての詳細な分析が,板野によってなされている (板野 2010). 実際, 我々人間が傍線部問題を解くとき, 本文中の傍線部の前後に注目するのは,標準的な戦略である. このような戦略は, 選択肢 $c_{i}$ を本文 $T$ 全体と照合するのではなく, あらかじめ, 本文から, 根拠が書かれていそうな部分 $\widehat{T}$ 抜き出し, $\widehat{T} と c_{i}$ の照合スコアを計算することで, 具体化できる。 本文の一部を取り出す方法として, (2)一つ前の設問で参照された傍線部から,当該傍線部までを $\widehat{T}$ とる, などの方法が考えられ,これらと,採用する単位(文または段落)を組み合わせることにより,多くのバリエーションが生まれることになる. もちろん, 設問毎に, 設問文 $Q$ や本文 $T$ に応じて異なる(適切な)方法を採用してもよい. 関数 extract は,これらの方法を抽象化したもので,以下のような関数として定義する. $ \widehat{T}=\operatorname{extract}(T, Q) $ なお,厳密に言えば,設問文 $Q$ には一つ前の設問の傍線部の情報は含まれないが,その情報は本文を参照することによって得られるものと仮定する,事実,センター試験では,傍線部には A, B , C, D の記号が順に振られるため, 当該傍線部が B であれば,一つ前の設問の傍線部は Aであることがわかる。 ## 3.3 照合スコアを採用する 本文の一部 $\widehat{T}$ が,選択肢 $c_{i}$ とどの程度整合するか(その根拠となりうるか)を,照合スコア $\operatorname{score}\left(\widehat{T}, c_{i}\right)$ として抽象化する。本来的には, 整合するかしないかの 2 值であるが,そのような判定を機械的に下すのは難しいので, 0 から 1 の実数をとるものとする. ## 3.4 設問文の極性を考慮する ほとんどの傍線部問題の設問文は,「最も適当なものを,次の 1 ののうちから一つ選べ」という形式となっている。しかし,2001S-E4のように,「適当でないものを,次の 1 ののうちから一つ選べ」という形式も存在する。このような「適当でないもの」を選ぶ設問に対しては,照合スコアを逆転させる(照合スコアが最も小さなものを選択する)のが自然である. 上記のような設問形式に応じた選択法の変更を採用するために,設問文 $Q$ の極性を判定する関数 $\operatorname{polarity}(Q)$ を導入する。この関数は, 設問が「適当なもの」を要求している場合に +1 ,「適当でないもの」を要求している場合に -1 を返すものとする. ## 3.5 選択肢の事前選抜を導入する 本定式化では,「設問文と 5 の選択肢をよく読めば,本文を参照せずとも,正解にはならない選択肢のいくつかをあらかじめ排除できる」場合が存在すると考え ${ }^{2}$, 選択肢の事前選抜を明示的に導入する。事前選抜 pre_select は, 選択肢集合 $C$ と設問文 $Q$ から, $C$ の部分集合を返す関数として定式化する。 $ \widehat{C}=\text { pre_select }(C, Q), \quad \widehat{C} \subseteq C $ ## 4 実装 前節の定式化に基づいて傍線部問題ソルバーを実装するためには, score, polarity, extract, pre_selectの 4 つの関数を実装する必要がある。表 3 に,今回実装した方法の概要を示す(詳細は,以下で説明する)。お,前節の定式化では,正解と考えられる選択肢を一つ出力する形になっているが,実際のシステムは,選択肢を照合スコア順にソートした結果(すなわち,それぞれの選択肢の順位)を出力する仕様となっている。なお, 照合スコアが一致した場合は, 選択肢番号の若いものを上位とする ${ }^{3}$. 表 3 実装の概要 & \\  ## 4.1 オーバーラップ率 照合スコア score, および,選択肢の事前選抜 pre_select の実装には,オーバーラップ率を用いる.オーバーラップ率の定義には, 服部と佐藤の定式化 (服部, 佐藤 2013; Hattori and Sato 2013)を採用する. この定式化では,まず,ある集合 $E$ を仮定する。この集合の要素が,オーバーラップ率を計算する際の基本単位となる,集合 $E$ としては,たとえば,文字集合 $A$ ,形態素集合 $W$ ,あるいは,文字 $n$-gram の集合 $A^{n}$ などを想定する. オーバーラップ率の算出の出発点となる式は, 2 の文字列 $t_{1}$ と $t_{2}$ に共通に出現する集合 $E$ の要素の数を求める次式である。 $ \operatorname{overlap}\left(E ; t_{1}, t_{2}\right)=\sum_{e \in E} \min \left(\operatorname{fr}\left(e, t_{1}\right), \operatorname{fr}\left(e, t_{2}\right)\right) $ ここで, $\operatorname{fr}(e, t)$ は,文字列 $t$ における $e(\in E)$ の出現回数を表す.この値を, $t_{2}$ の長さ,あるいは, $t_{1}$ と $t_{2}$ の長さの和で正規化することにより,オーバーラップ率を定義する. $ \begin{aligned} & \operatorname{overlap\_ ratio~}_{D}\left(E ; t_{1}, t_{2}\right)=\frac{\operatorname{overlap}\left(E ; t_{1}, t_{2}\right)}{\sum_{e \in E} \operatorname{fr}\left(e, t_{2}\right)} \\ & \text { overlap_ratio }_{B}\left(E ; t_{1}, t_{2}\right)=\frac{2 \text { overlap }\left(E ; t_{1}, t_{2}\right)}{\sum_{e \in E} \operatorname{fr}\left(e, t_{1}\right)+\sum_{e \in E} \operatorname{fr}\left(e, t_{2}\right)} \end{aligned} $ 前者の overlap_ratio ${ }_{D}$ は, $t_{2}$ の長さのみで正規化したもので,方向性を持った (directional) オー バーラップ率となる. 後者の overlap_ratio ${ }_{B}$ は, $t_{1}$ と $t_{2}$ の長さの和で正規化したもので,方向性を持たない,双方向性 (bidirectional) のオーバーラップ率となる. ## 4.2 照合スコア 本文の一部 $\widehat{T}$ と選択肢 $c_{i}$ の照合スコアには, 方向性を持ったオーバーラップ率 overlap_ratio ${ }_{D}$ を用いる。 $ \operatorname{score}\left(\widehat{T}, c_{i}\right)=\text { overlap_ratio }_{D}\left(E, \widehat{T}, c_{i}\right) $ ここで,オーバーラップを測る際の単位(要素)集合 $E$ として,以下の 4 種類を実装した。 (1) $A$ : 文字集合 (2) $A^{2}:$ 文字 bigram $の$ 集合 (3) $W$ : 形態素表層形の集合 (4) $L$ : 形態素原形の集合 いずれの場合も, 句読点は要素に含めなかった. 形態素解析器には mecab-0.994を, 形態素解析辞書には, ipadic-2.7.0 または unidic-2.1.0を用いた。すなわち, $W$ と $L$ は,それぞれ 2 種類存在することになる. ## 4.3 設問文の極性判定 設問文の極性判定は,文字列マッチングで実装した,具体的には,正規表現「/(適切|適当) でないものを/」に一致した場合は negative (-1), それ以外は positive $(+1)$ と判定する. 対象とした問題は限られているので,極性判定結果は,人間の判断とすべて一致する. ## 4.4 本文の一部の抽出 段落 $(\mathrm{P})$ 単位および文 $(\mathrm{S})$ 単位の抽出を実装した。抽出する領域は,連続領域を採用した。すなわち, 抽出単位, 抽出開始点, 抽出終了点の 3 つの情報によって, 抽出領域は定まる. 抽出開始・終了点は, 当該傍線部を含む単位(段落または文)を基準点 0 とし, その前後何単位であるかを,整数で表す.たとえば,S- $m-n$ は,当該傍線部を含む文と,その前 $m$ 文,後 $n$ 文を表す(全部で $m+1+n$ 文となる)。この他に, 本文先頭 (a), 前問の傍線部の位置 (b),本文末尾 (e) という 3 種類の特別な位置を指定できるようにした. さらに,当該傍線部を含む文を除外するというオプション $(\bar{X})$ も実装しだ. ## 4.5 選択肢の事前選抜 選択肢の事前選抜には,次の方法を採用した。 (1)それぞれの選択肢 $c_{i}$ において,以下に示す事前選択スコア $\operatorname{ps}\left(c_{i}, C\right)$ を計算する. $ \operatorname{ps}\left(c_{i}, C\right)=\frac{1}{|C|-1} \sum_{c_{j} \in C, c_{j} \neq c_{i}} \text { overlap_ratio }_{B}\left(A ; c_{i}, c_{j}\right) $ このスコアは, 他の選択肢 $c_{j}$ との双方向文字オーバーラップ率 overlap_ratio ${ }_{B}\left(A ; c_{i}, c_{j}\right)$ の平均値である。 (2)得られた事前選択スコアが低い選択肢を, 選択肢集合から除外する。(最終順位付けでは,かならず 5 位とする) なお,この実装は,いわば「もっとも仲間はずれの選択肢を一つ除外する」という考え方に基づいている.  ## 5 実験と検討 ## 5.1 実験結果 実装した傍線部問題ソルバーを用いて,評論傍線部問題 40 問を解いた結果を表 4 および表 5 に示す.この表の各行の先頭の欄 (ID) は, 本文抽出法 (extract) に対応しており, 次の 2 つの数字は,その抽出法 (ID) で抽出された文数(40 問の平均値),および,該当傍線部を含む文を除外した場合 $(\overline{\mathrm{ID}})$ の文数を示す ${ }^{5}$. 斜線で区切られた 4 つの数字は,ある要素集合を単位としてオーバーラップ率を計算した場合に対応し, それぞれの数字は, 順に, 以下の場合の正解数を示す. (1)抽出法 ID + 事前選択なし (no) (2) 抽出法 $\overline{\mathrm{ID}}+$ 事前選択なし (no) (3)抽出法 ID + 事前選択あり (yes) (4)抽出法 $\overline{\mathrm{ID}}+$ 事前選択あり (yes) 表 4 の 2 行目 (P-a-0)の $A$ 闌の最初の数字 20 が, 我々に衝撃を与えた数字である. これは, $\widehat{T}$ と各選択肢 $c_{i}$ との照合スコアを文字オーバーラップ率 $(A)$ で計算して, スコアが最大値を取る選択肢を選んだ場合, 「評論」の傍線部問題の半分 $(20 / 40)$ が正しく解ける ことを意味する。 センター試験の設問は 5 択問題であるので,解答する選択肢をランダムに選んだとしても $1 / 5$ の確率で正解する。 40 問においてランダムに解答を選んだ場合,正解する問題数は, $8 \pm 4.96$ $(p=0.05)$ である ${ }^{6}$. この値と比べ, 正解数 20 問は有意に多い. 我々は,このような性能が得られることを,まったく予期していないかった. この結果を受けて,我々は,色々な設定 $(84 \times 6 \times 4-12=2,004$ 通り)7での性能を網羅的に調べた。こうして得られたのが表 4 と表 5 である。これらの表では, 正解数 20 以上をボールド体で表示した. さらに,正解数が 22 以上となった 16 の設定とその設定における正解の順位分布(第 $n$ 位として出力された正解がいくつあるか)を,表 6 に示した. ^{5} \mathrm{~S}-m-n$ で文数が $m+1+n$ を越えるのは,2003S-E5 の設問文が複数の傍線部(正確には,波線部)を含むためである。この場合,最初に現れる波線部の前方 $m$ 文から,最後に現れる波線部の後方 $n$ 文までを抽出する. ${ }^{6} B\left(40, \frac{1}{5}\right) \approx N\left(8,2.53^{2}\right)$. 故に $1.96 \times 2.53 \approx 4.96$ 7 傍線部を含む段落が 1 文のみから構成されている場合があるので,抽出法 $\overline{\mathrm{P}-0-0}$ は設定しない.これが -12 に相当する. 84 は,表 $4-5$ の行数の合計を, $6 \times 4$ は 1 行に記述される設定数を示す. } 表 4 「評論」に対する実験結果(その 1) } & $A$ & $A^{2}$ & $W$-ipadic & $W$-unidic & $L$-ipadic & $L$-unidic \\ 表 5 「評論」に対する実験結果(その 2) } & $A$ & $A^{2}$ & $W$-ipadic & $W$-unidic & $L$-ipadic & \multirow{2}{*}{} \\ ## 5.2 実験結果を検討する 表 4 と表 5 を観察すると,以下のことに気づく. (1)照合するテキスト $\widehat{T}$ が極端に短い場合を除き,ほとんどの場合(2,004 通り中 1,828 通りの設定)で,正解数はランダムな方法より有意に多い。すなわち,「評論」の傍線部問題に対しては,本論文で示した解法は,有効に機能する。 (2)照合スコアのオーバーラップ率の計算には,文字 $(A)$ を用いると相対的に成績がよい場合が多い,文字オーバーラップ率が有効に機能するという,この結果は,日本語の含意 表 6 正解数が 22 以上の設定と正解の順位分布(「評論」) 認識 (RITE2) における服部らの結果 (服部, 佐藤 2013; Hattori and Sato 2013) に合致する. 文字オーバーラップ率が有効に機能するのは, おそらく, 日本語の文字の種類が多いこと,および,漢字 1 文字が内容的情報を表しうること,の 2 つの理由によるものと考えられる。 (3) 照合スコアのオーバーラップ率の計算に, 文字 $\operatorname{bigram}\left(A^{2}\right)$, 形態素出現形 $(W)$, 形態 比較的短いテキストの照合では, 語や文字 bigram などの, より長い要素の一致が大きな意味を持つためと考えられる。今回の実験で最も成績がよかった正解数 23 は, 抽出法 $\overline{\mathrm{S}-9-0}$, 照合法 $A^{2}$ または $L$-unidic,事前選抜あり (yes)の場合に得られた. (4)照合テキスト $\widehat{T} から ,$ 当該傍線部を含む文を除外した方が,除外しなかった場合よりも,成績は若干よい傾向を示す. 脚注 4 でも述べたように,傍線部の言い換えを求めるような設問では, 該当傍線部自身は, 選択肢の根拠とはならないことが多い.このような設問に対しては,該当傍線部を含む文を除外することによる効果があると考えられる。 (5)選択肢の事前選抜は,正解数を増やす効果が見られる。なお, 今回使用した 40 問において,正解が事前選抜によって除外される設問は, 1 問 (2005M-3) だけ存在した. (6)用いる形態素解析辞書によって, 得られる結果は若干異なる.これは, 形態素として認 定する単位,および,原形の認定法の違い8による,今回の実験では,ipadicを使用した方が,相対的によい結果が得られた場合が多かった。 ## 5.3 性能の上限を見積もる 本論文で提案した方法で, どの程度の性能が達成可能であるかを見積もってみよう.性能の上限は,それぞれの設問において, (1)最も適切な本文の一部 $\widehat{T}$ が選択でき,かつ, (2)最も適切な照合スコアを選択できる と仮定した場合の正解率で与えられる。ここでは, ・ 形態素解析辞書には ipadic のみを用いる - 選択肢の事前選択は行なわない9 こととした $668(=84 \times 4-4)$ 通りの設定 ${ }^{10}$ を採用し, 各設問毎に 668 通りの設定の成績(正解の順位) を集計した。その結果を表 7 に示す. 表 7 に示すように, 668 通りの設定のいずれにおいても正解を出力できなかった設問は, 2 問 (2001S-E5 と 2009M-E4)のみであった. すなわち, 38/40(=95\%) の設問に対して,本論文で示した解法は正解を出力できる可能性がある. 表 7 において,1位となった設定数が多い設問は,言わば「ストライクゾーンが広い」設問である。つまり,パラメータ選択に「鈍感」であり,機械にとってやさしい設問である.たとえば,2003S-E3(1 行目)は,668 通り中 664 通りの設定で正解が得られている,逆に, 1 位となった設定数が少ない設問は,正解を出力するのが難しい設問である.たとえば, 2003M-E5 (下から 3 行目)は, 668 通り中 14 通りの設定でしか正解が得られない. これらのことを考慮して,次に,もうすこし現実的な到達目標を考えよう。正解率 $1 / 5$ でランダムに 668 回の試行を行なった場合の正解数は $133.6 \pm 20.26(p=0.05)$ である.この値の上限をひとつの目安として ${ }^{11}$, これよりも多い正解数が得られた設問は, 設問に応じた適切なパラメータ選択により,正解を導ける可能性が高いとみなそう。このような設問は, 40 問中 27 問 $(67.5 \%)$ である,実際,今回の実験で得られた最大正解数は 23 であり,正解数 27 は, 現実的に到達可能な範囲にあると考えられる。 ## 5.4 好成績の理由を考える このような比較的単純な解法でも, 半数以上の設問が正しく解けるのは, どうしてだろうか. その理由は, おそらく,「センター試験がよく練られた試験問題である」ということになろう. -0-0}$ は設定しないことに対応する. 11 表 7 の左側の区切り線は,この境界を示す. } 表 7 各設問における正解順位分布(「評論」) センター試験の問題は, 当然のことながら, 「正解が一意に定まる(大多数の人が, 正解に納得できる)」ことが必要である. 答の一意性を保証できる『数学』の問題とは異なり,『国語』の傍線部問題は, 潜在的には多数の「正解文」が存在する,作問者の立場に立てば,そのうちの一つを選択肢に含め,それ以外を選択肢に含めないように問題を作らなければならない。そのため,正解選択肢とそれ以外の選択肢の間に,明示的な差異を持ち込まざるを得なくなる。そして,そのために持ち込まれた差異は,オーバーラップ率のような表層的な指標においても,識別できる差異として現れてしまうのであろう,もし,この推測が正しいとすれば,「良い問題であれば,機械にも解ける」 ということであり,本論文で提案した解法は, センター試験ならではの性質を利用していることになろう. ## 5.5 正解が得られない設問 すでに何度も述べたように, 我々は, 本論文で提案した解法で「評論」の傍線部問題の半数以上が解けてしまうことが驚きであり,解けない設問があることに何の不思議さも感じない. しかしながら,査読者より,採録条件として,「提案手法では正解が得られない設問に対する分析 (定性的な議論)が必要である」との指摘があったので,この点についての我々の見解を以下に述べる。 まず,(ある特定パラメータを使用した)この解法によって正解が得られない直接的な理由は,抽出した本文の領域 $\widehat{T}$ と正解選択肢との照合スコア(オーバーラップ率)が低いことによる. この理由をさらに分解すると,次の 3 つの理由に行きつく。 R1 そもそも本文中に根拠がない R2 不適切な領域 $\widehat{T}$ 抽出している R3 照合スコアが意味的整合性を反映していない しかしながら, 特定の設問が解けない理由を, このどれか一つに特定することは難しい. まず,理由R1 であるが,確かに,これがほぼ明白なケースは存在する,たとえば,2003M-E4 は,傍線部の「具体例」を問う問題であるが,本文中にはその具体例は述べられていない.しかしながら,「根拠」という言葉はいささか曖昧であり, 広くも狭くも解釈できるため, その解釈を固定しない限り,根拠の有無を明確に判断することは難しい,受験対策本がいう「根拠」は,「正解選択肢を選ぶ手がかり」という広い意味であり,「『適切に語句や表現を言い換えれば,選択肢の表現に変換できる』本文の一部」という狭い意味ではない.前者の意味では,ほとんどの設問に根拠は存在するが,後者の意味では,ほとんどの設題に根拠は存在しない,評論の傍線部問題で問われるのは, 本文全体の理解に基づく傍線部の解釈であり, 表現レベルの単純な言い換えではない. 次に, 理由 R2であるが,今回の解法では,選択肢と照合する領域として文または段落を単位とする連続領域のみを扱っている。しかし, 実際の(広い意味での)根拠は,より小さな句や節といった単位の場合もあり,かつ,不連続に複数箇所存在する場合も多い. 現在の実装の自由度における最適な領域が,必ずしも真の意味で適切な領域であるとは限らない。 最後に, 理由 $\mathrm{R} 3$ であるが, 現在の照合スコアが意味的整合性を適切に反映しない場合が存在するのは自明である。しかし, 問題はそれほど単純ではない. 照合スコアの具体的な値は, 照合領域 $\widehat{T} に$ 依存する。最適な領域が定まれば,使用している照合スコア計算法の善し悪しを議論できるが,最適な領域が不定であれば,正解を導けない原因を,領域抽出の失敗 (R2) に帰すべきか, 照合スコアの不適切さ (R3)に帰すべきかは, 容易には定まらない. 以上のように, 特定の設問が解けない理由を追求し, 解けない設問を類形化することは, かなり難しい,さらに,チャンスレベルは $20 \%$ であるから,たまたま解ける設問も存在する ${ }^{12}$. そのような困難さを踏まえた上で,解けない設問を大胆に類形化するのであれば,次のようになろう. - 正解選択肢を選ぶ根拠が, 傍線部のかなり後方に位置する設問.  - 正解選択肢を選ぶ根拠が, 本文全体に点在している設問. - 正解選択肢が, 本文全体の理解・解釈を前提として, 本文中には現れない表現で記述されている設問。 - 本文と整合しない部分を含む選択肢を除外していくこと(いわゆる消去法 (板野 2010)) によって,正解選択肢が導ける設問。 ## 5.6 「小説」に適用する 本論文で提案した解法を, そのまま「小説」の傍線部問題に適用すると, どのような結果が得られるであろうか. その疑問に答えるために,「評論」と同様の実験を,「小説」に対しても実施した. 対象とした「小説」の傍線部問題は計 38 問なので,ランダムに解答すると, $7.6 \pm 4.83$問 $(p=0.05)$ の正解が得られることになる. 実験において, 統計的に有意な結果(正解数 13 以上)が得られたのは, 2,004 通り中 13 通りの設定のみであった。これらを表 8 に示す. さらに,「評論」と同様に, 各設問に対しても 668 通りの実験結果を集計した ${ }^{13}$ 。正解数が $133.6 \pm 20.26$ の上限を越えたのは, 38 問中 10 問であった. これらの結果より,「小説」に対しては,本論文で提案した解法の性能は,チャンスレベルと大差がないとみなすのが妥当であろう. 表 8 正解数が 13 以上の設定と正解の順位分布 (「小説」) ## 6 結論 本研究で得られた結果をまとめると,次のようになる。 (1)センター試験『国語』現代文の傍線部問題に対する解法を提案・定式化した. (2) 本論文で示した解法は, 「評論」の傍線部問題に対しては有効に機能し, 半数以上の設問に対して正解を出力することができる。今回の実験から推測される性能の上限は $95 \%$,現実的に到達可能な性能は 65-70\%である. (3) 本論文で示した解法は,「小説」の傍線部問題に対しては機能しない. その性能はチャンスレベルと同等である. 本論文で示した解法で「『評論』が解ける」という事実を言い換えるならば,それは,「『評論』 では,本文に書かれていることが問われる」ということである. これに対して,「『小説』が解けない」という事実は,その裏返し,すなわち,「『小説』では,本文に書かれていないこと(心情や行間)が問われる」ということを示している. このような差異の存在を, 船口 (船口 1997) も指摘しているが, 表層的なオーバーラップ率を用いる比較的単純な方法においても,その差異が明確な形で現れることが判明した. ## 謝 辞 本研究では, 国立情報学研究所のプロジェクト「ロボットは東大に入れるか」から,データの提供を受けて実施した。本研究の一部は,JSPS 科研費 24300052 の助成を受けて実施した.本研究では, mecab/ipadic, mecab/unidic を使用した. ## 参考文献 新井紀子, 松崎拓也 (2012). ロボットは東大に入れるか?一国立情報学研究所「人工頭脳」プロジェクト一. 人工知能学会誌, 27 (5), pp. 463-469. 船口明 (1997). きめる!センター国語現代文. 学研教育出版. 服部昇平, 佐藤理史 (2013). 多段階戦略に基づくテキストの意味関係認識:RITE2 タスクへの 適用情報処理学会研究報告, 2013-NLP-211 No.4/2013-SLP-96 No.4, 情報処理学会. Hattori, S. and Sato, S. (2013). "Team SKL's Straregy and Expericence in RITE2" In Proceedings of the 10th NTCIR Conference, pp. 435-442. 板野博行 (2010). ゴロゴ板野のセンター現代文解法パターン集. 星雲社. 教学社編集部 (2013). センター試験過去問研究国語(2014 年版センター赤本シリーズ). 教学社. ## 略歴 佐藤理史:1988 年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学. 京都大学工学部助手, 北陸先端科学技術大学院大学助教授, 京都大学大学院情報学研究科助教授を経て, 2005 年より名古屋大学大学院工学研究科教授. 工学博士. 現在, 本学会理事. 加納隼人:2010 年名古屋大学工学部電気電子・情報工学科入学. 2014 年同学科卒業. 現在, 名古屋大学大学院工学研究科電子情報システム専攻在学中. 西村翔平:2010 年名古屋大学工学部電気電子・情報工学科入学. 2014 年同学科卒業. 駒谷和範:1998 年京都大学工学部情報工学科卒業. 2000 年同大学院情報学研究科知能情報学専攻修士課程修了. 2002 年同大学院博士後期課程修了. 博士 (情報学). 京都大学大学院情報学研究科助手 - 助教, 名古屋大学大学院工学研究科准教授を経て, 2014 年より大阪大学産業科学研究所教授. 現在, SIGDIAL Scientific Advisory Committee member. 情報処理学会, 電子情報通信学会, 人工知能学会, 言語処理学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 絵本のテキストを対象とした形態素解析 藤田 早苗 $\dagger \cdot$ 平 博順 $\dagger$.小林 哲生 $^{\dagger} \cdot$ 田中 貴秋 $^{\dagger}$ } これまで, 主に新聞などのテキストを対象とした解析では, 形態素解析器を始めとし て高い解析精度が達成されている。しかし分野の異なるテキストに対しては, 既存 の解析モデルで,必ずしも高い解析精度を得られるわけではない。そこで本稿では,既存の言語資源を対象分野の特徴にあわせて自動的に変換する手法を提案する。本稿では, 絵本を解析対象とし, 既存の言語資源を絵本の特徴にあわせて自動的に変換し, 学習に用いることで相当な精度向上が可能であることを示す. 学習には既存 の形態素解析器の学習機能を用いる. さらに, 絵本自体にアノテーションしたデー 夕を学習に用いる実験を行い, 提案手法で得られる効果は, 絵本自体への約 11,000 行, 90,000 形態素のアノテーションと同程度であることを示す. また, 同じ絵本の 一部を学習データに追加する場合と, それ以外の場合について, 学習曲線や誤り内容の変化を調査し, 効果的なアノテーション方法を示す. 考察では, 絵本の対象年齢と解析精度の関係や, 解析精度が向上しにくい語の分析を行い, 更なる改良案を 示す.また, 絵本以外への適用可能性についても考察する。 キーワード:ひらがな, 対象年齢, 分野適応, アノテーション ## Japanese Morphological Analysis of Picture Books Sanae Fujita $^{\dagger}$, Hirotoshi Taira ${ }^{\dagger}$, Tessei Kobayashi ${ }^{\dagger}$ and Takaaki Tanaka ${ }^{\dagger}$ Picture books have a significant influence on children's language development. However, the sentences in picture books are difficult to analyze automatically. Therefore, to improve the accuracy of the morphological analysis of such sentences, we propose an automatic method to transform existing resources into applicable training data for picture books. In this paper, we first compare picture books with common corpora and then analyze the reasons for the difficulty in morphological analysis. Based on this analysis, we propose a transforming method for existing resources and show its effectiveness using the learning function of an existing morphological analyzer. Second, we perform further experiments using annotated data of picture books themselves. Then we reveal that our proposed method provides us with the same effect, with around 11,000 lines, that is 90,000 morphological annotations of picture books. In addition, we demonstrate an effective annotation strategy by investigating the learning curves and change in error types. In a discussion, we analyze the results focused on a picture book's target ages and difficult to learn words and then further refine our proposed method. Finally, we also briefly consider the applicability of our method to other domains. Key Words: Japanese syllabary characters, Target age, Domain adaptation, Annotation  ## 1 はじめに これまで,主に新聞などのテキストを対象とした解析では,形態素解析器を始めとして高い解析精度が達成されている. しかし近年, 解析対象は Webデータなど多様化が進んでおり, これらのテキストに対しては既存の解析モデルで,必ずしも高い解析精度を得られるわけではない (工藤, 市川, Talbot, 賀沢 2012; 勝木, 笹野, 河原, 黒橋 2011). 本稿では,そうしたテキストの一つである絵本を対象とした形態素解析の取り組みについて述べる。絵本は幼坚の言語発達を支える重要なインプットの一つであり (Raikes, Pan, Luze, Tamis-LeMonda, Brooks-Gunn, Constantine, Tarullo, Raikes, and Rodriguez 2006), 高い精度で解析できれば, 発達心理学における研究や教育支援, 絵本のリコメンデーション (服部, 青山 2013) などへの貢献が期待できる. 絵本の多くは子供向けに書かれており,わかりやすい文章になっていると考えられる。それにも関わらず,既存の形態素解析器とその配布モデルでは,必ずしもうまく解析できない.なお本稿では, 「モデル」を, 既存の形態素解析器に与えるパラメ夕群という意味で用いる。表 1 に, 既存の形態素解析器である JUMAN ${ }^{1}$ (京都大学黒橋・河原研究室 2012), ChaSen ${ }^{2}$ (松本, 高 表 1 絵本の文の解析例 } & & \multicolumn{11}{|c|}{} \\ 解析結果の出現形, 原形, 品詞を記載. ただし,KyTea の配布モデルでは原形は出力されない. 品詞は適宜簡略化して表示. ^{1}$ http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN, ver.7.0を利用. 2 http://chasen-legacy.sourceforge.jp/, ver.2.4.4を利用. } 岡, 浅原 2008), $\mathrm{MeCab}^{3}$ (Kudo, Yamamoto, and Matsumoto 2004), $\mathrm{KyTea}^{4}$ (森, 中田, Neubig,河原 2011) とその配布モデルで絵本の文を解析した場合の例を示す. 解析器によって誤り方は異なるが, すべて正しく解析できた解析器はなく, 既存のモデルでは絵本の解析が難しいことがわかる. これは, 一般的な形態素解析モデルを構築するときに用いられる学習データ(ラベルありデー 夕)と, 解析対象である絵本のテキストでは傾向が大きく異なるためだと考えられる。このように,学習デー夕と解析対象の分野が異なる場合には,形態素解析に限らず機械学習を用いる多くのタスクで精度が低下するため, それに対応するための様々な手法が提案されてきた. 神嶌 $(2010)$ は, この問題に対処するための機械学習の方針として, 半教師あり学習, 能動学習, 転移学習の三つを挙げている。 まず, 半教師あり学習は, 少数のラベルありデータを準備し, 多数のラベルなしデータを活用して予測精度を向上させる手法であり, 日本語では単語分割を行う手法が提案されている (萩原, 関根 2012). 能動学習は, より効率的な分類ができるように選んだ事例にラベルを付与する。 日本語形態素解析では, 確信度の低い解析結果に対して優先的に正解ラベルを付与していくことで, 対象分野の解析精度を効率的に改善する方法が提案されている (森 2012; Neubig, Nakata, and Mori 2011). 転移学習は, 関連しているが異なる部分もあるデータから, 目的の問題にも利用できる情報・知識だけを取り込んで,より予測精度の高い規則を得ることを目標とする (神嶌 2010). 転移学習は, 元の分野と対象分野のラベルありデータの有無によって分類ができる。本稿では, 対象分野のラベルありデータが無い場合を教師なし分野適応, ある場合を教師あり分野適応と呼ぶ. 工藤ら (2012) が提案した, Web上のひらがな交じり文に対する形態素解析精度向上の手法では, 大量のWeb 上の生コーパスを利用しているが,対象分野のラベルありデータは用いておらず,教師なし分野適応の一種と言える. いずれの先行研究も優れた利点がある。しかし, 本稿で対象とする絵本のように, これまで対象とされてきたコーパスと全く異なり, かつ, 大量のデータの入手が困難な場合, これらの先行研究をそのまま適用しても高い精度を得ることは難しい. まず,絵本の大量の生コーパスが存在するわけではないため, Webデー夕を対象とする場合のような, 大量の生コーパスを用いた半教師あり学習は適さないと考えられる. 能動学習はすぐれた分野適応の方法であるが,本稿のように, べースとなる初期モデルの学習に利用できる学習データと対象分野との差異が非常に大きい場合, 解析誤りが多すぎ, 結局ほぼ全文の解析結果を修正しつつラベルを付与する必要に迫られることになる. 工藤ら (2012)の方法は, ひらがな交じり文を対象としており,絵本の解析にも比較的適していると考えられる.しかし,絵本の場合, ひらがな交じりというより, 全文がひらがなで記述されることも多く, 高い精度で  解析できるとは言えない. そもそも,対象分野のラベルありデータを十分に得ることができれば,通常,教師あり学習により高い精度が得られる。しかし, 対象分野のラベルありデータを作成するためにも, 何らかの形態素解析器による解析結果を修正する方法が一般的であり, そもそもの形態素解析精度が低いとラベルありデータの作成に,コストと時間が非常にかかることになる. そこで本稿では,既存の辞書やラベルありデータを,対象分野の特徴にあわせて自動的に変換し,それを使って形態素解析モデルを構築する教師なし分野適応手法を提案する.提案手法では,既存の言語資源を活用することで,コストと時間をかけずに,対象分野の解析に適した形態素解析モデルを得ることが出来る。また,こうして得た初期モデルの精度が高ければ,さらに精度を高めるための能動学習や,ラベルありデータの構築にも有利である。本稿では,提案手法で構築したモデルをさらに改良するため, 絵本自体へのアノテーションを行って学習に利用した教師あり分野適応についても紹介する. 以降,まず 2 章では,解析対象となる絵本データベースの紹介を行い,新聞などの一般向けテキストと絵本のテキストを比較し,違いを調査する。 3 章では,本稿で形態素解析モデルの学習に利用する解析器やラベルありデータ, 辞書, および, 評価用データの紹介を行う. 4 章では,絵本のテキストを漢字に変換した場合などの精度変化を調査することで,絵本の形態素解析の問題分析を行う, 5 章では, 2 章, 4 章の調査結果に基づき,解析対象である絵本に合わせて, 既存の言語資源であるラベルありデータと辞書を変換する方法を提案する。 6 章では, これらを学習に用いる教師なし分野適応の評価実験を行い,提案手法による言語資源の変換の効果を示す. さらに, 7 章では, 絵本のラベルありデータを学習に利用する教師あり分野適応の評価実験を行う。また同時に, 提案手法によって得られるラベルありデータが, どの程度の絵本自体のラベルありデー夕と同程度の効果になるかも評価する. 8 章では, 前章までに得たモデルをさらに改良するための問題分析と改良案の提示を行い,提案手法の絵本以外のコーパスへの適用可能性についても考察する。最後に 9 章では, 本稿をまとめ, 今後の課題について述べる. ## 2 解析対象 本章では,まず,解析対象である絵本データベースの紹介を行う(2.1節)。次に,新聞などの一般向けテキストと絵本のテキストを比較し, 違いを調査する(2.2 節)。また, 評価, 実験用に形態素情報を付与した絵本のラベルありデータ(フルアノテーションデータ)を紹介する (2.3 節). ## 2.1 絵本データベース 本稿では構築中の絵本データベースを解析対象とする (平, 藤田, 小林 2012). 絵本デー夕ベースは, 発達心理学における研究や, 子供の興味や発達に応じた絵本リコメンデーションを目的として構築されている。 含まれる絵本は, 2010 年度の紀伊国屋書店グループの売上冊数が上位のファーストブック (以下, FIRST)と絵本 (以下, EHON) ${ }^{5}$ 計 1,010 冊,および, 福音館書店の月刊誌(以下,KODOMO) 190 冊, 合計 1,200 冊である ${ }^{6}$. これらの選定理由は,前者は多くの子供に読まれていると考えられること,後者は対象年齢が比較的はっきりしていることである.後者の対象年齢は $0 \cdot 1 \cdot$ 2 歳向け (以下, $\mathrm{K} 012$ ), 年少 (3歳北) 向け (以下, $\mathrm{K} 3$ ), 年中 (4 歳児) 向け (以下, $\mathrm{K} 4$ ), 年長(5 歳坚)向け(以下,K5)とわかれている。本稿では, これらをまとめて絵本と呼ぶこととする。なお, KODOMO 以外で対象年齢が記載されていた絵本は, 463 冊 $(45.8 \%)$ にとどまり, その記載方法も「3 歳から小学校初級むき」「乳児から」「4才から」のように多様で, KODOMO のように 1 歳単位で対象年齢が設定されている絵本は少ない. 本稿では, 絵本の本文のテキストを解析対象とする。本文のテキストは人手で入力されている7.また文や文節の途中での改行など元のページのレイアウトも忠実に再現されている(例 (1))。お, 絵本データベースの 1,200 冊のサイズは表 2 の通りである. (1) もういつはるがきて、なつがきたのか、いつがあきで、いつがふゆなのか、わかりません。 (バージニア・リー・バートン, 石井桃子・訳「ちいさいおうち」p. 24 (1954, 岩波書店) $)$ ## 2.2 絵本と他のコーパスの比較 絵本のテキストの特徴を調べるため, 絵本と一般的なコーパスにおける文字種の割合を比較する。表 3 に, 絵本 1,200 冊(表 2)における文字種と, 現代日本語書き言葉均衡コーパス8 (以 表 2 絵本データベースのサイズ  表 3 文字種毎の数と割合:絵本と他のコーパスの比較 下,BCCWJ),京都大学テキストコーパス9(以下,京大コーパス),および,基本語データベー ス (笠原, 佐藤, Bond, 田中, 藤田, 金杉, 天野 2004) (以下, Lexeed)の定義文, 例文に出現する文字種の数と割合を示す. 表 3 から, 他のコーパスに比べ,絵本の場合、ひらがなと空白が占める割合が圧倒的に高いことがわかる。また逆に,漢字が占める割合は非常に低い,表 3 には,参考として,一文に含まれる平均文字数,および,平均形態素数も記載した,但し,絵本の場合は,一行に含まれる平均文字数を記載しており, 必ずしも文単位ではない. また, 平均形態素数について, 絵本は未知であり, BCCWJは品詞体系が異なるため記載していない. ## 2.3 絵本のフルアノテーションデータ 精度評価のために, 絵本の一部に正解の形態素区切り, IPA 品詞, 読み, できるだけ漢字表記にした原形を付与したフルアノテーションデータ(ラベルありデータ)を作成した。ただし,活用型と活用形は付与していない. 付与自体が難しいことと, 作業量が増えるためにコストと時間がかかること,これらの情報を今後利用する予定がないことが理由である. 絵本に出現した文 (2)に対するフルアノテーションデータを (3) に示す. ただし (3)では, 形態素区切りは “,”で示し, 形態素は “出現形/品詞/読み/原形” の形で示し, 漢字表記にした原形には下線を引いた(以降の例でも同様). (2) めには、いちごのあかいみをいれました。 (舟崎靖子「もりのおかしやさん」p. 11 (1979,偕成社)) ^{9}$ http://nlp.ist.i.kyoto-u.ac.jp/index.php } 表 4 絵本のフルアノテーションデータのサイズ (3)め/名詞-一般/メ/且, に/助詞-格助詞-一般/ニ/に,は/助詞-係助詞/ハ/は,、/記号-読点 /、/,いちご/名詞-一般/イチゴ/菖,の/助詞-連体化/ノ/の,/記号-空白//,あかい/形容詞-自立/アカイ/赤い,/記号-空白/ / ,み/名詞-一般/ミ/実,を/助詞-格助詞—一般/ヨ/を,/記号-空白/ / ,いれ/動詞-自立/イレ/入れる,まし/助動詞/マシ/ ます, た/助動詞/夕/た, 。/記号-句点/。/。 アノテーションは, 言語学者や研究者ではない一般の作業者によって行ったが, 特に活用語に対するアノテーションは難しく,既存のラベルありデータを参照しながら作業を行った。 また,作業者による不一致や判断のゆれをなくすため, 一定の作業の後には同じ出現形の形態素に異なる品詞や原形が振られたもの10をリストアップし, 統一的に確認, 修正を行う作業を繰り返した。なお,実際の作業では,アノテーションしたデータを順次学習データに追加することで,解析精度自体を高めながら作業を進めた(7 章参照). フルアノテーションを行う対象データは 2 通りの方法で選んだ。まず,対象年齢がはっきりしているKODOMO 190 冊を対象とした。また,それ以外の FIRST,EHONの中から,絵本をランダムに選び,さらにランダムに 1 ページずつ選んで対象とした(以下,Random)。サイズは表 4 の通りである. フルアノテーションデータは, 6 章の教師なし分野適応実験の評価用デー タとして利用するほか, 7 章の教師あり分野適応実験の学習,評価用データとして利用する. ## 3 形態素解析器 本稿では,既存の辞書やラベルありデータを,対象分野である絵本の特徴にあわせて自動的に変換する手法を提案する。学習器は学習データと独立に選ぶことができるが, 本稿では, 京都テキスト解析ツールキット KyTea (森ら 2011) の学習機能を利用する. KyTea では, 点予測を採用しており, 分類器の素性として, 周囲の単語境界や品詞等の推定値を利用せずに,周囲の文字列の情報のみを利用する,そのため,柔軟に言語資源を利用するこ とができ,分野適応が容易だという特徴がある (森ら 2011). KyTea のモデル学習時には, フルアノテーションデータ, 部分アノテーションデータ, 辞書などの言語資源が利用できる。これらの言語資源は,それぞれ複数利用することができる。また,辞書と部分アノテーションデータはなくてもよい. ここで,フルアノテーションデータとは,文全体に形態素情報が付与されたデータである $(2.3$節,例 (3))。また,部分アノテーションデータとは,文の一部にだけ単語境界や形態素情報が付与されたデータである,例えば,例 (4)のように,文 (2)の“め”と “み”にだけ形態素情報をアノテーションしたデータを,部分アノテーションデータとして利用することができる.誤りやすい語や分野特有の語にだけ集中的にアノテーションを付与して利用できるため, 能動学習や分野適応に有効である。 (4)め/名詞一一般/メ/且,には、いちごのあかい,み/名詞-一般/ミ/実,をいれました。 なお, KyTea の配布版モデルでは, 単語分割と UniDic の品詞大分類, 読みの付与を行っているが, 他の種類の品詞や情報を推定するモデルの構築も可能である. 本稿では, 既存言語資源との整合性を考慮し, 品詞は IPA 品詞体系に準拠した. さらに, 元の漢字表記の推定も同時に行う,つまり,単語分割, IPA 品詞体系の品詞, 読み, 漢字表記による原形推定を出力とするモデルを構築する。 本稿では,フルアノテーションデータとして,コーパス HINOKI (Bond, Fujita, and Tanaka さらに教師あり分野適応の実験(7 章)では,絵本のフルアノテーションデータも利用する. 辞書には, NAIST Japanese Dictionary ${ }^{12}$ (以下, NAISTJ), Lexeed, および,日本語語彙大系 (池原, 宮崎, 白井, 横尾, 中岩, 小倉, 大山, 林 1997)の固有名詞, および, 動植物名 ${ }^{13}$ 利用する. 但し, Lexeed と日本語語彙大系は, 本来 IPA 品詞体系ではないため, 自動的に品詞を変換した. ## 4 絵本を対象とした形態素解析における問題分析 本章では,絵本を形態素解析するときに起こる精度低下の原因を調査する。 2.2 節では, 一般的なテキストと比べて, 絵本のテキストでは, 空白, ひらがなが圧倒的に多く, 漢字が非常に少ないことを示した. これらの違いのうち, 直感的には, ひらがなによる曖  昧性の増加が精度低下の主要因であり,空白は解析の手がかりとなるように感じられる。しかしこれまで,この直感が正しいかどうか,また,実際にどの程度精度への影響があるのかを調査した研究はない,そこで本章では,ひらがなと空白の形態素解析への影響を調査する. ## 4.1 実験用解析対象文の作成 調査用の評価データとして, 絵本のKODOMO のフルアノテーションデータをいくつかのルー ルに沿って自動的に変換したデータを作成する。つまり,絵本に出現した文 $(2) ( 2.3$ 節)から空白を削除したもの(文 (5)),空白を読点に変換したもの(文(6))、ひらがなをできるだけ漢字に変換したもの(文 (7)),漢字に変換し,かつ,空白を削除したもの(文 (8)),漢字に変換し,かつ,空白を読点に変換したもの(文 (9))を作成した。 (5) めには、いちごのあかいみをいれました。 (6) めには、いちごの、あかい、みを、いれました。 (7)目には、苺の赤い実を入れました。 (8)目には、苺の赤い実を入れました。 (9)目には、苺の、赤い、実を、入れました。 ## 4.2 実験と結果 調査のため, HINOKIコーパスと NAIST Japanese Dictionary などの辞書(3章)をそのまま学習に利用したモデル (以下, KyTea(デフォルト))を構築する。これは, 一般的な形態素解析モデルと同じような学習条件に相当する。また, 表 1 (1 章)で利用した既存の形態素解析モデルの中で最も誤りの少なかった MeCab も利用する. 表 5 に,評価用デー夕(文 (2),および,文 (5) から文 (9))のそれぞれに対し,形態素解析を実行し,形態素区切りと品詞一致精度を調べた結果を示す. 表 5 評価結果: 形態素区切り, および, 品詞が一致した数と割合 (KODOMO) ただし, (2)から (8)は, 対応する評価用デー夕の例の番号を示している. ## 4.3 分析 表 5 の「元データ (2)」の列が,絵本のテキストをそのまま解析した場合の精度であり, KyTea (デフォルト) では $63.0 \%$, MeCab では $83.2 \%$ だった. MeCab はひらがなのままの評価デー夕の場合でも,ひらがなを考慮しない一般的な学習条件で学習したKyTea(デフォルト)よりも精度が高い. しかし,新聞である京大コーパスを対象とした場合 $98 \%$ 以上の精度が報告されているのに比べると ${ }^{14}$, はるかに低い精度である。 ここで,空白の影響を分析する.KyTea(デフォルト)では,空白を削除すると精度が向上する. また,空白を読点に変更すると精度はさらに向上する。これは,学習データに空白が出現しないため,学習できていないためだと考えられる,空白をただ削除するよりも,読点に変更した方が精度が高くなることから, 空白の働きをうまく学習することができれば, 区切りの判別の手がかりとして有効に働くだろうことが予想できる. 実際, MeCab の場合, 空白は区切りの判別のための手がかりとして有効に利用されているようであり,空白を削除するとむしろ精度は低下する,また,空白を読点に変更した場合と空白のままの場合の精度は同程度であり,空白が読点の代わりを果たしていることが伺える。 特に,(10)のように,擬音語や擬態語が連なる場合,空白を削除すると,解析が非常に困難になっており,空白の有無が形態素の判別に有効な手がかりであることがわかる. $ \text { 「こちょこちょこちょこちょ } $ (豊田一彦「こちょこちょももんちゃん」p. 24 (2010,童心社)) COR:「,こちょ, , こちょ, , こちょ, , こちょ RES: Г,こ, ちょこ, ちょこちょこ, ちょ (ただし, COR: は正解,RES: は空白を削除した場合の結果) 次に,ひらがなが多いことによる影響を分析する。評価データ中のひらがなを漢字に変換した場合, KyTea(デフォルト)でも MeCabでも,ひらがなのままの評価データより高い精度が得られる,空白を読点に変換した場合の精度(表 5 の「読点 (6)」と「読点 (9)」)で比較すると, KyTea(デフォルト)では $+11.4 \%, \mathrm{MeCab}$ では $+8.2 \%$ 精度が向上しており, 漢字は大きな手がかりとなっていることがわかる。つまり,一般的なテキストとの大きな違いのうち,ひらがなによる曖昧性の増大が解析精度の低下の主な要因だといえる。 なお,元データのままだと解析に失敗するが,漢字に変換すると正解する例には,(11)などがあった. (11) みずをのみにきたうしさんに(たちもとみちこ「おほしさま」p. 10 (2006, 教育画劇)) COR: みず, を,,のみ,に,き,た, ,うし,さん, に, RES: みず,を,,のみ,に,きた, ,うしさん,に RES2: 水,を,,飲み,に,来, た,平, さん, に (ただし, COR: は正解,RES: は結果, RES2: は漢字に変換した場合の結果)  ## 5 提案手法 本章では, 絵本の特徴に合わせたラベルありデータと辞書の変換方法を提案する(5.1, 5.2 節)。また,ラベルありデータと辞書の変換と追加の必要性について議論する( 5.3 節). ## 5.1 ラベルありデータの変換方法 4 章で示したように, 絵本の解析では, 空白の働きを学習することと, ひらがなが多い文でも解析できることが必要である。そこで,既存のラべルありデータである HINOKIコーパスを 3 通りの方法で自動的に変換する。例えば,文 (12)は, Lexeedでの見出し語 “きしめん”に付与された例文である。この文に,まず,句読点の直後を除く文節毎に空白を挿入する(文 (13))。また,すべての漢字をひらがなの読みに変換する(文(14)).句読点の直後を除く文節毎に空白を挿入し,かつ,ひらがなに変換する(文(15))。このように,元の文に対して 3 通りの変換を行い,ラベルありデータデータを作成する. (12) 寄せ鍋, に, きしめん, を, 入れる,。 (13)寄せ鍋,に,,きしめん,を,,入れる,。 (14) よせなべ, に, きしめん,を,いれる,。 (15) よせなべ,に,,きしめん,を,,いれる,。 さらに,元の漢字表記の推定も同時に行うため,元の漢字表記による原形を利用する.つまり, 文 (14)や (15)のようにひらがなに変換した場合でも,原形は漢字表記を利用する。そのため,例えば (14)は,実際には (16)のような形で与えられる。 (16)よせなべ/名詞-一般/ヨセナべ/寄せ鍋,に/助詞-格助詞一一般/ニ/に,きしめん/名詞-一般/ キシメン/きしめん,を/助詞-格助詞-一般/ヨ/を,いれる/動詞-自立/イレル/入れる,。/記号-句点/。/。 6 章では,ラベルありデータの変換方法毎の効果を検証するため, これらの組み合わせを変えて利用した場合の精度評価を行う。 なお,空白の插入に利用した文節区切りや,ひらがなへの変換に利用した読みは,元々コー パスに付与されていたものであり,自動的に変換することができる.本稿では HINOKIコーパスを利用したが,京大コーパスでも文節情報や読みは付与されているため, 同様の変換ができる.またBCCWJにも読みは付与されている。文節情報は付与されていないが,形態素情報は付与されているため, 助詞と自立語が連続する箇所に空白をいれるなどの簡単なルールによって,同様の自動的変換が可能である. ## 5.2 辞書の変換方法 3 章で紹介した通り, 辞書には NAISTJ, Lexeed, 日本語語彙大系の固有名詞, および, 動植物名を利用しており,これらを絵本の特徴にあわせて変換する。 まず,NAISTJと Lexeed の漢字やカタカナのエントリをひらがなに変換したエントリも作成し, 辞書に追加する. 固有名詞や動植物名は, カタカナで表記されることも多いため, カタカナ, ひらがなの両方に変換したエントリも作成し,辞書に追加する。このとき,原形には漢字やカタカナの表記を用いる。例えば,“伊予柑”の場合,元の見出し語から得られる辞書エントリは (17) となるが,ひらがなのエントリ (18) とカタカナのエントリ (19)も追加した. しかし,人名の固有名詞だけは,カタカナはカタカナのまま,ひらがなはひらがなのまま原形とした.これは,ひらがなで出てくる人名の漢字表記が何かは決められないためである.最終的に利用した辞書サイズは,表 6 の通りである. (17) 伊予柑/名詞_一般/イヨカン/伊予柑 (18)いよかん/名詞—一般/イヨカン/伊予柑 (19)イヨカン/名詞-一般/イヨカン/伊予柑 ## 5.3 辞書と学習データの追加の必要性についての議論 工藤ら (2012) は, Web 上のひらがな交じり文に対する形態素解析手法の提案にあたり,次のように述べている. ひらがな交じりの解析も,通常の日本語の文の解析であることには変わりがないため,以下のような一般的に用いられている既存手法で解析精度を向上させることが可能である. 1.ひらがな単語のユーザ辞書への追加 2. ひらがな交じり文を含む学習デー夕を人手で作成し,再学習 1. は簡単な手法であるが,ひらがなは日本語の機能語に用いられているため,むやみにひらがな語を追加すると副作用により精度が低下する可能性がある。2. の方法は学習デー夕の作成が必要なためコストが高い. これらの理由によって, 工藤ら (2012)では, 辞書への追加や学習デー夕の追加は行われていない. 工藤ら (2012)の手法は, 広い分野に対して安定的に比較的高い精度で解析を行える。し 表 6 辞書サイズ:ひらがなやカタカナに展開済み かし,特定の分野における実用を考えた場合,対象分野においてより高い精度を得ることが重要である.確かに,1.に関して,ひらがな語を多く追加することによる副作用の可能性は否定できないが,絵本の場合,いずれの語でもひらがなで記述される可能性があるため,すべてのエントリをひらがなにする必要がある.また,2.に関しては,提案手法では自動的に学習デー 夕を作成するので問題ない. 本稿では, 提案手法で変換・作成した辞書と学習データを学習に用いることで, 絵本に対しては既存モデルより高い精度が得られることを示す (6 章). ただし, 本提案手法で得られる精度は, 既存モデルよりは高いが,実用的にはまだ改良の必要がある,そのため,さらなる精度向上のためには, 能動学習や対象分野のラベルありデー夕の構築が必要となるが, その際も, ベースとなるモデルの精度がより高い方がより効率的である. ## 6 評価実験 (1): 教師なし分野適応 本章では, 前章で提案した手法により変換した既存言語資源たけを学習に利用する評価実験, つまり,教師なし分野適応の実験を行う. 前章で紹介した通り,ラベルありデータは 3 通りの変換により作成した。これらと,変換前のラベルありデータを組み合わせて学習に用いた場合の精度評価を行った(表 7)。表 7 では,形態素区切り,および,品詞の細分類までが一致した精度を示している。表 7 は, 絵本に出現した文に対する解析精度であり,表 5 の左端「元データ (2)」の列に当たる.比較のため, 表 7 にも結果を再掲した。 表 7 評価結果: 形態素区切り, および, 品詞が一致した数と割合 (KODOMO) ただし,(12)から (15) は,対応する学習データの例の番号を示している. また, $[\mathrm{A}]-[\mathrm{C}]$ は参照用に付与した記号である. 既存言語資源をそのまま学習に利用した場合, 精度は $63.0 \%$ と非常に低いが, 空白を追加したり,ひらがなに変換した学習デー夕を利用することで, $88.5 \%$ だ精度を向上できた。つまり, 新聞データなどの一般向けのテキストを学習デー夕に利用する場合でも, 絵本での出現傾向にあわせて変換することで,相当な精度向上が出来た. ここで,空白を追加した学習データだけを利用する場合 $[\mathrm{B}]$ より,空白を追加しない学習デー 夕も利用する $[\mathrm{C}]$ の方が精度が高かった。これは, すべての絵本で全文節ごとに空白が入るわけではないので,両方を学習に利用した方が良かったのだと考えられる。同様に,ひらがなに変換した学習データだけを利用するより,漢字のままの学習データも利用する方が若干精度が高かった。これは, すべての絵本で漢字が全く出現しないわけではないためだと考えられる. 以降,最も高い精度を得られたラベルありデー夕(表 $7[\mathrm{C}]$ の “両方利用 (12)〜 (15)”)を HINOKI-Best, 得られたモデルを用いた解析器を KyTea (HINOKI-Best) と呼び,これをべースに, さらに改良を加えることを検討したい,また,絵本によって, 空白や漢字の含有率は非常に異なるため,これらの含有率によって学習に利用するデータを変更することも考えられる。 ## 7 評価実験 (2): 教師あり分野適応 6 章の実験では,ラベルありデータとして既存言語資源から得たコーパスだけを用いた。しかし分野適応では, 同じ分野のラベルありデータを追加すると精度が向上することはよく知られており,本章では,絵本自体のラベルありデータを学習に用いた実験を行う。 本章の目的は二つある。一つは, 提案手法によって既存言語資源から自動的に獲得したラべルありデータが, どの程度の絵本自体のフルアノテーションデータと同程度の効果があるかを調べることである。もう一つは,絵本自体へアノテーションするときの効率的な方法を示すことである. ## 7.1 学習曲線 本節では,フルアノテーションデータ KODOMO(2.3 節)の各絵本をそれぞれ 10 分割し,それらを徐々に学習デー夕に追加した場合の学習曲線を調べる。ここで, 6 章で最も良い精度を得た学習データである HINOKI-Best と絵本を両方学習に利用する場合と,絵本だを学習に利用する場合の両方の実験を行った。 また, 評価は 2 通り行う。つまり, 学習データを追加した絵本と, (1) 同じ絵本のテキストによる評価(KODOMOを利用),(2) 違う絵本のテキストによる評価(Randomを利用),を行う。 本節での精度評価は, 品詞まで一致した精度に加え, 原形まで一致した精度評価も行っている. 本稿で構築している形態素解析モデルでは, 出現形がひらがなでも, 原形は出来る限り漢字表記を推定している(5.1 節)、ひらがなで出現した語に対し,漢字表記を推定することがで きれば,その後の解析に有用だらである。例えば,“め”という語が “目”なのか“芽”なのか,“はな”という語が “鼻”なのか“花”なのか,などは,幼览の言語発達を調べるときにも区別する必要がある (小椋, 綿巻 2008)。これは, 本来, 語義曖昧性解消問題として取り組むべき課題かもしれないが,形態素解析時に同時に推定が可能なら利便性が高い,そこで,本節では,形態素解析時の漢字の原形推定をどの程度の精度で行うことができるかも同時に調査した. ここで,図 1,3 は,KODOMOの各絵本の $1 / 10$ を評価データとし,それ以外を順次追加した場合の学習曲線を示している。また, 図 2,4 は, Random を評価データとした場合の精度を示しており,KODOMO のすべてを学習デー夕に追加した場合の精度も示している。また, 図 1,2 は, 品詞一致の精度, 図 3,4 は, 原形まで一致した精度を示している. ただし, 学習データでは,コーパス HINOKI の漢字等による原形をそのまま原形として利用したため,学習データの原形に表記ゆれが存在する。そこで,原形一致精度の評価時には,“仔牛”と“子牛”, “雄”と 図 1 学習曲線:同じ絵本を学習デー夕に追加 (KODOMO, 品詞一致) 図 3 学習曲線: 同じ絵本を学習デー夕に追加 (KODOMO, 原形一致) 図 2 学習曲線:異なる絵本を学習デー夕に追加 (Random, 品詞一致) 図 4 学習曲線:異なる絵本を学習デー夕に追加 (Random, 原形一致) “オス”のように,表記ゆれだとみなせるものは正解に含めている15。また,MeCab は漢字表記による原形推定はしないため,ひらがなの原形も正解とした.標準表記の決定,学習データの標準表記への変換は今後の課題としたい. ## 7.2 提案手法の効果 : 評価 $(2)$ 提案手法で作成したHINOKI-Best の効果を調べる。 図 1~4から, すべての場合で, HINOKI-Best に絵本データを追加した方が,絵本データだけの場合や, HINOKI-Best だけの場合より精度が向上しており, 絵本とは全く異なる一般向けのテキストであっても, HINOKI-Best を学習に利用する方が良いことがわかる。 特に,図 2,4 に示した通り,別の絵本 (Random) に対する精度は,学習デー夕に絵本だけを用いる場合より非常に高い. Random の場合, 品詞一致でも, 原形一致でも, 絵本の学習デー夕だけでKyTea (HINOKI-Best) と同等の精度を得るには, KODOMO のフルアノテーションデータ約 11,000 行, 90,000 形態素が必要である. これは, KODOMO のフルアノテーションデータの 8/10 近くにあたる. これだけのフルアノテーション作業には相当な時間とコストがかかっており,提案手法による自動的な変換による精度向上の効果は高い. なお,Randomに対する精度は,すべての KODOMOを学習データに追加した場合で,形態素区切り $98.3 \%$, 品詞完全一致 $91.1 \%$, 品詞大分類 $94.7 \%$, 原形一致 $89.0 \%$ だった. これが, 新しい絵本を解析する場合の精度にあたる。 ## 7.3 アノテーション方針の提案 本節では, 同じ絵本を学習データとして追加した場合の効果を調べる. 図 1,3 から, 同じ絵本の学習データは非常に有効であることがわかる. HINOKI-Best を使わない場合でも, 同じ絵本の 10 分の 2 を学習データとして用いただけでKyTea (HINOKI-Best)の精度より高い精度を得ることができる. このように,同じ絵本のデー夕の追加のほうが効果が圧倒的に高いため, 同じ分量のアノテーションを行うのであれば,少しずつでも,できるかぎり全ての絵本からアノテー ションすることが望ましい,同じ絵本のアノテーションが特に有効な理由には, 同じ固有名詞 (7.4, 8.2 節参照)や,同じ表現が出現することがあげられるだろう,絵本は,例えば,例 $(20)$ のように一部の語を変えて同じ表現が繰り返されることが多く,一部をアノテーションする効果が高い. なお, (20)の絵本の場合, “なんてなく?”は 11 回出現している. (20) かえるは なんてなく? なんてなく? (凹工房「どうぶつなんてなく?」p. 2-3 (2008, ポプラ社))  ## 7.4 誤り内容の変化 本節では,絵本を学習データに追加した場合の,誤り内容の変化を調査する。解析を誤った語を品詞毎に集計し, 「動詞」「名詞-固有名詞」「感動詞」について, それぞれ図 5 と 6,7 と 8 , 9 と 10 に示した. 図 $5 \sim 10$ では, 誤りの絶対数と, 全誤り数に占める対象品詞の割合をプロットしている. 誤りの絶対数はどの品詞でも減少しているが, 全誤りに占める各品詞の割合を見ると, 比較的学習しにくい品詞がわかる.「動詞」(図 5,6) はKODOMO でもRandom でも相対的に上昇している.「固有名詞」(図 7,8 )の場合,KODOMO では急激に割合が下がるが,Random では逆に相対的に上昇している。「固有名詞」は,絵本間で共通のものが少なく,しかも,ひらがな 図 5 解析誤りの数と割合 (KODOMO, 動詞) 図 7 解析誤りの数と割合 (KODOMO, 名詞-固有名詞) 図 6 解析誤りの数と割合 (Random, 動詞) 図 8 解析誤りの数と割合 (Random, 名詞-固有名詞) 図 9 解析誤りの数と割合 (KODOMO, 感動詞) 図 10 解析誤りの数と割合 (Random, 感動詞) (“ぐり"16, “ぐら”16, “もものこ"17など)や,ひらがなカタカナ混じり(“ウサこ"18,“ネコみ”18 など)など,非常に解析が難しいものが多いからだと思われる。対照的に,「感動詞」 (図 9, 10)は,Random でも誤る割合が下がっている。これは,異なる絵本でも共通の表現が多いためだと考えられる。例えば,Random 側で,HINOKI-Bestだけでは正解しなかったが,絵本を追加していくことで正解するようになった感動詞には,“あっぷっぷ”, “ごくろうさま”, “ギャオー"などがあった. ## 8 考察 本章では,前章までに得たモデルをさらに改良するための問題分析と改良案の提示を行う. まず,8.1 節では,対象年齢と形態素解析精度の関係に着目し,精度低下のより詳細な原因調査を行う. 8.2 節では, 絵本のラベルありデータを追加しても精度が向上しにくかった固有名詞に焦点をあて, 固有名詞の部分アノテーションによる精度向上の効果を検証する. さらに, 8.3 節では,提案手法の絵本以外のコーパスへの適用可能性についても考察する. ## 8.1 対象年齢と形態素解析精度 2.1 節で述べたように,KODOMO は対象年齢がはっきり設定されている。そこで本節では, KODOMO を用いて, 対象年齢と形態素解析精度の関係を分析する. KyTea (HINOKI-Best) と, MeCabを使って元データを解析した場合の対象年齢と精度の関係を図 11 に示す。ただし, 図 11 では,K012を 2 歳坚にプロットしている.  図 11 から, KyTea (HINOKI-Best) でも MeCabでも, 対象年齢が低いほど形態素解析精度も低いことがわかる。 どちらの解析器も,基本的に一般向けのコーパスを学習データとしてモデルが作成されており, 対象年齢が上がるとより一般向けの文に近づいていることが図 11 からも読み取れる。 表 3(2.2 節)で示したように,絵本と京大コーパスなどに出現する文字種を比較すると, 絵本はひらがなと空白が多く,漢字が少ない点が顕著に異なっていた.また, 4.3 節では,特にひらがなが形態素解析精度の低下に非常に関わることを示した。そこで,対象年齢によってそれらの文字種の出現傾向が変わるかどうかを, KODOMO のデータを使って調査した(表 8). 表 8 によると, 文字種の出現傾向に絵本全体の傾向と顕著な違いは見られず,対象年齢によって明らかな変化は見られなかった。つまり,ひらがなの多さだけが精度低下の原因ではないこ 図 11 対象年齢と形態素解析(形態素区切りと品詞一致)精度の関係 (KODOMO) 表 8 文字種毎の数と割合 : 絵本の対象年齢ごと (KODOMO) とがわかる,たたし,表 8 に参考として示した,行平均の文字数と形態素数は, 対象年齢が上がるにつれ増加している.京大コーパスと Lexeed の文平均の文字数や形態素数(表 3)と比較すると,文平均か,行平均かの差はあるが,対象年齢が上がるにつれ Lexeed の数値に近づいており,辞書の例文や定義文に近い長さになってきていることがわかる。つまり,語の羅列ではなく, 文になってきていると考えられる。 そこで,文字種だけではわからない差分を調査するため,空白を除く全形態素に占める品詞毎の割合を調査した,その結果,対象年齢によってもっとも変化が大きかった品詞は,「助詞」「記号」「副詞」「感動詞」だった. 図 12 に, これらの品詞の占める割合の対象年齢毎の変化と, Lexeedでの割合を示す.ここで,「助詞」の割合は対象年齢と共に単調増加しており,単語の羅列から助詞などを含む文となっていることがわかる,「記号」は,句読点や括弧などを含むため,句読点を使った文や会話文の量や長さに関係すると考えられる。「記号」は,K012とK3 の間で大きく増加しているが,単調増加ではなく,K5 や Lexeed での割合はむしろ K3 やK4より低い. これは文が長くなるため記号の占める割合が低くなるのだと考えられる。例えば,会話文の場合,記号である“「”と“」”の間に発話内容が記述されるが,発話内容が長くなれば,記号の占める割合は低くなる。一方,「副詞」の割合は対象年齢に応じて単調減少している。「副詞」には擬音語や擬態語が多く含まれ,対象年齢が低いほど,そうした語の含まれる割合が高いことがわかる.また,「感動詞」の割合は K012とK3 の間で大きく減少している.「感動詞」には挨拶などが含まれ,より小さな子供向けの絵本では,挨拶などが多く出現するためだと思われる. なお, 絵本毎に精度を調査すると, 品詞一致精度で最も精度の高かった絵本と, 最も精度の低かった絵本は, 両方とも K012に含まれた. これらは, 一行一形態素程度の非常に短い文からなっており,“ぴょん”“ぼちゃん”“ぶらぶら”などの擬音語や擬態語の繰り返しがほとんどだった。文脈はほぼないため,学習データや辞書に該当する語が存在するかどうかに依存して 図 12 空白を除く全形態素に占める品詞割合:絵本対象年齢每 (KODOMO) と Lexeed 精度が大きく変化したとみられる。そのため, より対象年齢の低い子供向け絵本の解析精度の向上は, 擬音語や擬態語の辞書や学習デー夕の拡充にかかっているといえるだう.今後は,擬音語や擬態語の収集による精度向上にも取り組みたい. ## 8.2 固有名詞のアノテーション 7.4 節で述べたように, 固有名詞は他の絵本を追加しても解析精度が向上しにくく, 学習デー 夕なしでは解析が難しい語が多い。その上, 固有名詞の誤りは数值以上に精度が悪い印象を与えかねない. しかし一方で, 活用語や非自立語などに比べ, 固有名詞のアノテーションや辞書への追加は非常に容易である. ここで, Randomに出現した固有名詞でもっとも誤り回数が多かった(各 4 回)“ぐり”と“ぐら”に着目する。これらを辞書登録したたけでは解析精度は変わらなかったが, KyTea では, 部分アノテーションしたデータを学習データに加えることができる(3 章).そこで, “ぐり”と “ぐら”に対し部分アノテーションを行い,その効果を検証した。 部分アノテーションは以下の流れで行った。まず, [1] 対象語を含む文を字面一致で抽出し,次に, [2] 人手で該当箇所に対象語以外の語が含まれないか確認し, 最後に, [3] 自動的に部分アノテーションを実行した. ここで, “ぐり”と“ぐら”の場合, [2] の確認作業で, “どんぐり”, “うすぐらい”, “ぐらい” が混じっていることがわかった. [3] では, 最長一致によってこれらの語のアノテーションも自動的に行った.例えば,文 (21)の場合,下線部をそれぞれ,“ぐり/名詞-固有名詞-人名-一般/ グリ/ぐり”, “ぐらい/助詞-副助詞/グライ/ぐらい”として部分アノテーションした. (21) ぐりがけいとをまくと、えんどうまめぐらいになりました。 (なかがわりえことやまわきゆりこ「ぐりとぐらのえんそく」p. 15 (1979, 福音館書店) $)$ これにより部分アノテーションされたのは, “ぐら” 135 箇所, “ぐり” 131 箇所, “どんぐり” 1 箇所, “うすぐらい” 2 箇所, “ぐらい” 6 箇所だった. これらの部分アノテーションデー 夕を学習デー夕に追加したところ, 原形一致の精度が $+0.2 \%$ 改良された. 品詞一致までの精度は, 小数点第一位までの比較では同じたっったが, “ぐり”と“ぐら”に関する誤りはなくなった.固有名詞は学習しにくく, かつ, 同じ絵本では何度も出現するため, 固有名詞のみを先にアノテートすることは有効だと考えられる. 固有名詞を含めた固有表現や未知語の抽出方法に関する研究は多く (村脇, 黒橋 2010 ; 勝木ら 2011; 笹野, 黒橋 2007), 特に格フレーム情報を利用する方法 (笹野, 黒橋 2008)は, 絵本でも有効だと考えられる,今後は,絵本やシリーズ毎の固有名詞の抽出や,該当固有名詞を含む他の語の確認・抽出を自動・半自動化することにより,精度向上を目指したい. また, Neubig et al. (2011) は, SVM 平面からの距離を用いて確信度の低いデータを選び, 部分アノテーションして学習データに追加する能動学習を提案している。固有名詞のように,一気にアノテートできる 部分を学習に追加した後は, Neubig et al. (2011) と同様に能動学習を行うことが考えられる. ## 8.3 他分野への適用可能性 本節では,提案手法の絵本以外への適用可能性について考察する. 提案手法は, 既存の言語資源と解析対象の言語資源の特徵が大きく異なる場合に有用である. 例えば,小学生は学年毎に習う配当漢字が決められている。そのため教科書では,習っていない漢字をひらがなで記載するため, 漢字とひらがなが一般向け文章とは全く異なる交じり方をする場合があり,形態素解析を難しくしている.例えば,“音楽”の場合,“音”は 1 年生, “楽”は 2 年生の配当漢字であるため,“音がく”と記載される場合がある 19. そこで,教科書等の学童用の文章の解析用には,学年配当漢字に基づいて利用できる漢字を制限し,それ以外はひらがなに変換して学習データを作成することが考えられる. あるいは,Webなどに出現するくだけた文章の解析用として,文末表現の変換,利用語彙の制限などにより,学習データを変換することも考えられる. このように,学習データを対象分野に合わせて自動的に変換するルールを決定できる場合には,本提案手法が適用できると考えられる. ## 9 まとめと今後の課題 これまで,主に新聞などのテキストを対象とした解析では,形態素解析器を始めとして高い解析精度が達成されている。しかし分野の異なるテキストに対しては, 既存の解析モデルで,必ずしも高い解析精度を得られるわけではない。そこで本稿では, 既存の言語資源を対象分野の特徴にあわせて自動的に変換する手法を提案した。本稿では, 絵本を解析対象とし, 既存の言語資源を絵本の特徴にあわせて自動的に変換し, 学習に用いることで精度向上できることを示した。 まず, 2 章では, 解析対象である絵本データベースの紹介を行った。また, 新聞などのテキストと絵本のテキストの文字種毎の割合を比較し, 絵本では, 漢字が少なく, 空白とひらがなが多いことを示した。 3 章では, 実験で利用する形態素解析器 KyTea の学習機能について紹介した.また, 4 章では, 絵本の形態素解析における問題分析のため, 絵本の評価用デー夕に対し, ひらがなを漢字に変換したり, 空白を削除するなどの処理を行った場合の解析精度の変化を調査し,ひらがなが多いことが解析精度低下の主な原因であることを示した. 5 章では, 2 章と 4 章の分析結果に基づき, 既存の言語資源を絵本の特徴にあわせて変換する手法を提案した. 6 章では, 提案手法によって得た言語資源だを学習に用いた教師なし分野適  応の実験を行い,既存の一般的な形態素解析モデルより高い精度(品詞一致精度で $88.5 \%$ )が得られることを示した。また 7 章では,絵本自体のラベルありデータを学習に用いた教師あり分野適応の実験を行い,学習曲線を調べた。ここで,提案手法によって得た既存言語資源によるラベルありデータは, 絵本自体のラベルありデータ約 11,000 行, 90,000 形態素と同程度の効果があることを示した。さらに,絵本自体にアノテーションを行う場合,できるかぎり全ての絵本から,アノテーション対象を選択することが効率的であることを示した。また,新しい絵本に対する解析精度は, 形態素区切り $98.3 \%$, 品詞完全一致で $91.1 \%$, 品詞大分類で $94.7 \%$, 漢字の原形一致で $89.0 \%$ が見込めることを示した. 8 章の考察では, 絵本の対象年齢毎の形態素解析精度の変化を調査し, 対象年齢が低いほど解析精度も低く,その原因としては,文字種より,助詞などを含む文としての形態を取るかどうかに関連することを示した(8.1 節)。また,他の絵本を学習デー夕に追加しても,固有名詞の推定精度の向上は難しいが,固有名詞のアノテーションは,活用語などに比べて容易であることから,固有名詞に対して半自動的に部分アノテーションを行うことで,固有名詞の解析精度が向上できることを示した(8.2 節). 今後は,標準表記を決定し,学習データの標準表記への変換と,漢字による原形推定精度の向上に取り組みたい.また,絵本やシリーズ単位での,固有名詞(人や動物の名前)の自動的発見,および,固有名詞の(半)自動的な部分アノテーションに取り組みたい. また, 本稿で紹介した絵本用形態素解析モデルを利用し, 子供向けの文を対象とした難易度測定や絵本の対象年齢の推定 (藤田, 小林, 平, 南, 田中 2014), 子供の発達や興味に応じた絵本リコメンデーションを行う予定である. ## 謝 辞 KyTea の利用に際して大変ご協力をいただいた京都大学森信介先生, 奈良先端科学技術大学院大学 Graham Neubig 先生に感謝する。 ## 参考文献 Bond, F., Fujita, S., and Tanaka, T. (2006). "The Hinoki Syntactic and Semantic Treebank of Japanese." Language Resources and Evaluation (Special issue on Asian language technology), 40 (3-4), pp. 253-261. 藤田早苗,小林哲生,平博順,南泰浩,田中貴秋 (2014). 絵本を基にした対象年齢推定方法の検討. 人工知能学会第 28 回全国大会発表論文集, 3D4-4. 萩原正人, 関根聡 (2012). 半教師あり学習に基づく大規模語彙に対応した日本語単語分割. 言語処理学会第 18 回年次大会発表論文集, pp. 1280-1283. 服部正嗣,青山一生 (2013). グラフ索引を用いた絵本の類似探索〜特徴の融合と結果のグラフ可視化~. 情報処理学会研究会第 10 回ネットワーク生態学シンポジウム.池原悟, 宮崎雅弘, 白井諭, 横尾昭男, 中岩浩巳, 小倉健太郎, 大山芳史, 林良彦 (1997). 日本語語彙大系. 岩波書店. 神嶌敏弘 (2010). 転移学習. 人工知能学会誌 (JSAI), 25 (4), pp. 572-580. 笠原要, 佐藤浩史, Bond F., 田中貴秋, 藤田早苗, 金杉友子, 天野昭成 (2004).「基本語意味デー タベース:Lexeed」の構築. 情報処理学会自然言語処理研究会 (2004-NL-159), pp. 75-82.勝木健太,笹野遼平,河原大輔,黒橋禎夫 (2011). Web 上の多彩な言語表現バリエーションに対応した頑健な形態素解析. 言語処理学会第 17 回年次大会発表論文集, pp. 1003-1006. 工藤拓,市川宙,Talbot D., 賀沢秀人 (2012). Web 上のひらがな交じり文に頑健な形態素解析.言語処理学会第 18 回年次大会発表論文集, pp. 1272-1275. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Lin, D. and Wu, D. (Eds.), In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP-2004), pp. 230-237. 京都大学黒橋・河原研究室 (2012). 日本語形態素解析システム JUMAN version 7.0 使用説明書.松本裕治, 高岡一馬, 浅原正幸 (2008). 形態素解析システム『茶筌』version 2.4.4 使用説明書.森信介 (2012). 自然言語処理における分野適応. 人工知能学会誌 (JSAI), 27 (4), pp. 365-372.森信介,中田陽介,Neubig, G., 河原達也 (2011). 点予測による形態素解析. 自然言語処理, 18 (4), pp. 367-381. 村脇有吾, 黒橋禎夫 (2010). 形態論的制約を用いたオンライン未知語獲得. 自然言語処理, $\mathbf{1 7}$ (1), pp. 55-75. Neubig, G., Nakata, Y., and Mori, S. (2011). "Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Techologies, pp. 529-533. 小椋たみ子, 綿巻徹 (2008). 日本の子どもの語彙発達の規準研究 : 日本語マッカーサー乳幼坚言語発達質問紙から. 発達・療育研究, 24, pp. 3-42. Raikes, H., Pan, B. A., Luze, G., Tamis-LeMonda, C. S., Brooks-Gunn, J., Constantine, J., Tarullo, L. B., Raikes, H. A., and Rodriguez, E. T. (2006). "Mother-child Bookreading in Low-income Families: Correlates and Outcomes During the First Three Years of Life." Child Development, $7 \mathbf{7}$ (4), pp. 924-953. 笹野遼平, 黒橋禎夫 (2007). 形態素解析における連濁および反復形オノマトぺの自動認識. 言語 処理学会第 13 回年次大会発表論文集, pp. 819-822. 笹野遼平, 黒橋禎夫 (2008). 大域的情報を用いた日本語固有表現認識. 情報処理学会論文誌, 49 (11), pp. 3765-3776. 平博順, 藤田早苗, 小林哲生 (2012). 絵本テキストにおける高頻度語彙の分析. 情報処理学会関 西支部支部大会, F-103. ## 略歴 藤田早苗:1999 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 同年, NTT 日本電信電話株式会社入社. 現在, NTT コミュニケーション科学基礎研究所研究主任.博士 (工学).自然言語処理の研究に従事. 2013 年言語処理学会優秀論文賞受賞, 言語処理学会, ACL 各会員. 平博順:1996 年東京大学理学部化学科大学院修士課程修了. 同年, 日本電信電話株式会社入社. 2014 年まで NTT コミュニケーション科学基礎研究所.現在, 大阪工業大学情報科学部准教授. 博士 (工学). 自然言語処理等の研究に従事. 2013 年言語処理学会優秀論文賞受賞, 情報処理学会, 人工知能学会,言語処理学会, ACL 各会員. 小林哲生 : 2004 年東京大学大学院総合文化研究科博士課程修了. 博士 (学術).現在, NTTコミュニケーション科学基礎研究所メディア情報研究部主任研究員 (特別研究員). 幼坚の言語発達研究に従事. 田中貴秋:1994 年大阪大学基礎工学部制御工学科卒業. 1996 年同大学院修士課程修了. 同年, 日本電信電話株式会社入社. 2007 年 2012 年西日本電信電話株式会社研究開発センタ勤務. 現在, NTT コミュニケーション科学基礎研究所研究主任. 自然言語処理の研究に従事. 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 外界照応および著者・読者表現を考慮した日本語ゼロ照応解析 ## 萩行正嗣',††・河原 大輔†・黑橋 禎夫 \begin{abstract} 日本語では用言の項が省略されるゼロ照応と呼ばれる現象が頻出する。ゼロ照応は照応先が文章中に明示的に出現する文章内ゼロ照応と, 明示的に出現しない外界ゼ口照応に分類でき, 従来のゼロ照応解析は主に前者を対象としてきた。 近年, Web が社会基盤となり,Web上でのテキストによる情報伝達がますます重要性をましている。そこでは,情報の送り手・受け手である著者・読者が重要な役割をはたすため, Web テキストの言語処理においても著者・読者を正確にとらえることが必要となる。しかし, 文脈中で明確な表現(人称代名詞など)で言及されていない著者・読者は, 従来の文章内ゼロ照応中心のゼロ照応解析では多くの場合対象外であった. このような背景から,本論文では,外界ゼロ照応および文章の著者・読者を扱うゼ口照応解析モデルを提案する。提案手法では外界ゼロ照応を扱うために, ゼロ代名詞の照応先の候補に外界ゼロ照応に対応する仮想的な談話要素を加える。また, 語彙統語パターンを利用することで,文章中で著者や読者に言及している表現を自動的に識別する,実験により,我々の提案手法が外界ゼロ照応解析だけでなく,文章内ゼロ照応解析に対しても有効であることを示す. キーワード:ゼロ照応解析,外界ゼロ照応,著者$\cdot$読者 \end{abstract} ## Japanese Zero Reference Resolution Considering Zero Exophora and Author/Reader Mentions \author{ Masatsugu Hangyo $^{\dagger, \dagger \dagger}$, Daisuke $^{, \text {Kawahara }^{\dagger}}$ and Sadao Kurohashi ${ }^{\dagger}$ } In Japanese, zero references often occur and many of them are categorized into zero exophora, in which a referent is not mentioned in the document. However, previous studies have focused only on zero endophora, in which a referent explicitly appears. We present a zero reference resolution model considering zero exophora and authors/readers of a document. To deal with zero exophora, our model adds pseudoentities corresponding to zero exophora to candidate referents of zero pronouns. In addition, the model automatically detects mentions that refer to the author and reader of a document using lexico-syntactic patterns. We present particular behavior of authors/readers in a discourse as a feature vector of a machine learning model. The experimental results demonstrate the effectiveness of our model for not only zero exophora but also zero endophora. Key Words: Zero reference resolution, Zero exophora, Author and reader  ## 1 はじめに ゼロ照応解析は近年,述語項構造解析の一部として盛んに研究されている。ゼロ照応とは用言の項が省略される現象であり, 省略された項(ゼロ代名詞)が他の表現を照応していると解釈できることからゼロ照応と呼ばれている. $ \text { パスタが好きで、毎日 }(\phi \text { ガ })(\phi \text { Э)食べています。 } $ 例えば,例 (1)の「食べています」では,ガ格とヨ格の項が省略されている。ここで,省略されたヨ格の項は前方で言及されている「パスタ」を照応しており, 省略されたガ格の項は文章中では明確に言及されていないこの文章の著者を照応している1.日本語では曖昧性がない場合には積極的に省略が行われる傾向にあるため, ゼロ照応が文章中で頻繁に発生する.例 (1)の 「パス夕」の省略のようにゼロ代名詞の照応先 ${ }^{2}$ が文章中で言及されているゼロ照応は文章内ゼ口照応と呼ばれ, 従来はこの文章内ゼロ照応が主な研究対象とされてきた. 一方, 例 (1)の著者の省略のようにゼロ代名詞の照応先が文章中で言及されていないゼロ照応は外界ゼロ照応と呼ばれる,外界ゼロ照応で照応されるのは例 (1)のような文章の著者や読者, 例 (2)のような不特定の人や物などがある ${ }^{3}$. (2)内湯も空一面がガラス張りで眺望がよく、快適な湯浴みを ([不特定:人] ガ)楽しめる。 従来, 日本語ゼロ照応解析の研究は, ゼロ照応関係を付与した新聞記事コーパス (Kawahara, Kurohashi, and Hasida 2002; Iida, Komachi, Inui, and Matsumoto 2007)を主な対象として行われてきた.新聞記事は著者から読者に事件の内容などを伝えることが目的であり,社説や投書の除いては著者や読者が談話構造中に登場することはほとんどない。一方,近年では Webを通じた情報伝達が盛んに行われており, Web テキストの言語処理が重要となってきている. Web テキストでは,著者自身のことを述べたり,読者に対して何らかの働きかけをすることも多く,著者・読者が談話構造中に登場することが多い. 例えば,B $\log$ や企業の宣伝ページでは著者自身の出来事や企業自身の活動内容を述べることが多く, 通販ぺージなどでは読者に対して商品を買ってくれるような働きかけをする。このため,著者・読者に関するゼロ照応も必然的に多くなり,その中には外界ゼロ照応も多く含まれる。(Hangyo, Kawahara, and Kurohashi 2012) の Webコーパスではゼロ照応関係の $54 \%$ が外界ゼロ照応である。このため, Webテキストに  対するゼロ照応解析では,特に外界ゼロ照応を扱うことが重要となる. 本研究では, ゼロ照応を扱うためにゼロ代名詞の照応先候補として [著者]や [読者] などの文章中に出現しない談話要素を設定することで,外界ゼロ照応を明示的に扱う.用言のある格が直接係り受け関係にある項を持たない場合,その格の項は表 1 の 3 種類に分類される.1つ目は 「(a) 文章内ゼロ照応」であり, 項としてゼロ代名詞をとり,その照応先は文章中の表現である. 2 つ目は「(b) 外界ゼロ照応」であり,項としてゼロ代名詞をとり,その照応先に対応する表現が文章中にないものである.3つ目は「(c)ゼロ照応なし」であり,項はゼロ代名詞をとらない, すなわちその用言が本質的にその項を必要としない場合である。外界ゼロ照応を扱うことにより,照応先が文章内にない場合でも,用言のある格がゼロ代名詞を項に持つという現象を扱うことができる.これにより,格フレームなどの用言が項を取る格の知識とゼロ代名詞の出現が一致するようになり,機械学習によるゼロ代名詞検出の精度向上を期待することができる. 用言が項としてゼロ代名詞を持つ場合,そのゼロ代名詞の照応先の同定を行う.従来研究ではその手掛かりとして, 用言の選択選好 (Sasano, Kawahara, and Kurohashi 2008; Sasano and Kurohashi 2011; Imamura, Saito, and Izumi 2009; Hayashibe, Komachi, and Matsumoto 2011) や文脈的な情報 (Iida, Inui, and Matsumoto 2006, 2009) が広く用いられてきた. 本研究では, それらに加えて文章の著者・読者の情報を照応先同定の手掛かりとして用いる.先に述べたように, 従来研究で対象とされてきた新聞記事コーパスでは, 著者や読者は談話中にほとんど出現しない. そのため著者や読者の情報が文脈的な手掛かりとして用いられることはなかった。しかし, 著者や読者は省略されやすいためゼロ代名詞の照応先になりやすい,敬語やモダリティなど著者や読者の省略を推定するための手掛かりが豊富に存在する,などの特徴を持つため,談話中の著者や読者を明示的に扱うことは照応先同定で重要である.また,著者や読者は前述のような外界ゼロ照応の照応先だけでなく, 文章内に言及されることも多い. (3) 私著者はもともとアウトドア派ではなかったので, 東京にいた頃もキャンプに行ったことはありませんでした。 (4)あなた読者は今ある情報か資料を送って,アドバイザーからの質問に答えるだけ。 表 1 文章内ゼロ照応,外界ゼロ照応,ゼロ照応なしの分類とその例 & 例 \\ (b) 外界ゼロ照応 & あり & なし & メリットについて ([読者]二)説明させていただきます。 \\ (c) ゼロ照応なし & なし & なし & リラックスタイムが (×ニ)過ごせる。 \\ 例 (3) では,文章中に言及されている「私」がこの文章の著者であり,例 (4)では「あなた」が読者である.本研究ではこのような文章中で言及される著者や読者を著者表現,読者表現と呼び,これらを明示的に扱うことでゼロ照応解析精度を向上させる.著者や読者は人称代名詞だけでなく固有表現や役職など様々な表現で言及される。例えば,下記の例 (5)では著者自身の名前である「梅辻」によって著者が言及されており,例 (6) では著者の立場を表す「管理人」によって言及されている。また,例 (7) では著者から見た読者の立場である「お客様」という表現によって読者が言及されている。本研究では人称代名詞に限らず,著者・読者を指す表現を著者・読者表現として扱うこととする. (5)こんにちは、企画チームの梅辻著者です。 (6)このブログは、管理人著者の気分によって書く内容は変わります。 (7)いくつかの質問をお答えいただくだけで、お客様読者のご要望に近いノートパソコンをお選びいただけます。 著者・読者表現は様々な表現で言及されるため, 表層的な表記のみから, どの表現が著者・読者表現であるかを判断することは困難である,そこで,本研究では談話要素とその周辺文脈の語彙統語パターンを素性としたランキング学習 (Herbrich, Graepel, Bollmann-Sdorra, and Obermayer 1998; Joachims 2002)により, 文章中の著者・読者表現の同定を行う. 文章中に出現する著者・読者表現が照応先となることを推定する際には通常の文章中の表現に利用する手掛かりと著者・読者特有の手掛かりの両方が利用できる. (8) 僕は京都に (僕ガ)行こうと思っています。 皆さんはどこに行きたいか (皆さんガ)(僕ニ)教えてください。 (8)の 1 文目では「僕」が文頭で助詞「は」を伴ない,「行こう」を越えて「思っています」に係っていることから「行こう」のガ格の項であると推測される。これは文章中の表現のみが持つゼロ照応解析での手掛かりと言える。一方, 2 文目の「教えてください」では, 依頼表現であることからガ格の項が読者表現である「皆さん」であり,二格の項が著者表現である「僕」であると推測できる。このような依頼や敬語,モダリティに関する手掛かりは著者・読者特有の手掛かりと言える。また,著者・読者特有の手掛かりは外界ゼロ照応における著者・読者においても同様に利用できる,そこで,本研究では, ゼロ照応解析において著者・読者表現は文章内ゼロ照応および外界ゼロ照応両方の特徴を持つものとして扱う. 本論文では,文章中の著者・読者表現および外界ゼロ照応を統合的に扱うゼロ照応解析モデルを提案し, 自動推定した著者・読者表現を利用することでゼロ照応解析の精度が向上するこ とを示す. 2 節で関連研究について説明し, 3 節で本研究で利用する機械学習手法であるランキング学習について説明する.4 節ではべースラインとなるモデルについて説明し, 5 節で実験で利用するコーパスについて述べる。その後, 6 節で著者・読者表現の自動推定について説明し, 7 節で著者・読者表現と外界照応を考慮したゼロ照応解析モデルを提案する.8 節で実験結果を示し, 9 節でまとめと今後の課題とする. ## 2 関連研究 日本語でのゼロ照応解析は文章内ゼロ照応を中心に行われてきた. ゼロ照応解析の研究では, ゼロ代名詞は既知のものとして照応先の同定のみを行っているものがある。(Iida et al. 2006) はゼロ代名詞と照応先候補の統語的位置関係を素性として利用することでゼロ照応解析を行った。この研究では, 外界照応を, それに対応するゼロ代名詞に照応性がないと判断する形で扱っている。この研究では, 表 1 における (a) 文章内ゼロ照応と (b) 外界ゼロ照応を区別して扱っているが,(c)ゼロ照応なしについては扱っていないといえる。(磯崎, 賀沢, 平尾 2006)は, ランキング学習4を利用することで, ゼロ代名詞の照応先同定を行っている。この研究で扱うゼロ代名詞は文章内に照応先があるものに限定しており,表 1 けおる (a) 文章内ゼロ照応の場合のみを扱っているといえる。 ゼロ照応解析は述語項構造解析の一部として解かれることも多い. 述語項構造解析を格ごとに独立して扱っている研究としては (Imamura et al. 2009; Hayashibe et al. 2011)がある. (Imamura et al. 2009)は言語モデルの情報などを素性とした最大エントロピーモデルによるゼロ照応解析を含めた述語項構造解析モデルを提案している。このモデルでは各格の照応先の候補として, NULLという特別な照応先を仮定しており, 解析器がこの NULLを選択した場合には,「項が存在しない」または「外界ゼロ照応」としており,これらを同一に扱っている。 (Hayashibe et al. 2011) は述語と項の共起情報などを素性としたトーナメントモデルにより述語項構造解析の一部としてゼロ照応解析を行っている. この研究でも外界ゼロ照応と項が存在しないことを区別して扱っておらず,また解析対象はガ格のみとしている。用言ごとに全ての格に対して統合的に述語項構造解析を行う研究としては (Sasano et al. 2008; Sasano and Kurohashi 2011)がある。(Sasano et al. 2008) は Web から自動的に構築された格フレームを利用し, 述語項構造解析の一部としてゼロ照応解析を行う確率的モデルを提案した. (Sasano and Kurohashi 2011)は格フレームから得られた情報や照応先の出現位置などを素性として対数線形モデルを学習することで,識別モデルによるゼロ照応解析を行った。これらの研究では外界ゼロ照応は扱っておらず,外界ゼロ照応の場合にはゼロ代名詞自体が出現しないものとして扱っている。これらの  研究では表 1 における (b) 外界ゼロ照応と (c) ゼロ照応なしを区別せず扱っているといえる. 外界ゼロ照応を扱った研究としては (山本, 隅田 1999; 平, 永田 2013) がある。 (山本, 隅田 1999) では対話文に対するゼロ代名詞の照応先の決定木による自動分類を行っている。この研究では, ゼロ代名詞は既知として与えられており, その照応先を 5 種類に分類された外界照応, および文章内照応(具体的な照応先の推定までは行わない)の計 6 種類から選択している。また, 話題は旅行対話に限定されている。この研究では, 機能語および用言の語彙情報がゼロ照応における素性として有効であるとしている。機能語,特に待遇表現は著者・読者に関する外界ゼロ照応解析で有効であると考えられ,本研究でも機能語の情報を素性として利用する。一方,用言の語彙情報は文章内ゼロ照応において有効であるとしているが,これは話題を限定しているためであると考えられ,本研究の対象である多様な話題を含むコーパスに対しては有効に働かないと考えられる。本研究では,格フレームにおける頻度情報などとして用言の情報を汎化することで,用言の情報を扱うこととする。また, この研究ではゼロ代名詞を既知としているため, ゼロ代名詞検出において外界ゼロ照応を扱うことの影響については議論されていない. (平, 永田 2013) では新聞記事に対する述語項構造解析の一部として外界ゼロ照応も含めたゼロ照応解析を扱っている.新聞記事コーパスでは外界ゼロ照応自体の出現頻度が非常に低いと報告しており, 外界ゼロ照応の精度(F 值)はガ格で 0.31 , ヲ格で 0.75 , 二格で 0.55 と非常に低いものとなっている。また, これらの研究では文章中に出現する著者・読者(本論文における著者・読者表現)と外界の著者・読者との関係については扱っていない. 日本語以外では,中国語,ポルトガル語,スペイン語などでゼロ照応解析の研究が行われている。中国語においてはゼロ照応解析は独立したタスクとして取り組まれることが多い. (Kong and Zhou 2010) ではゼロ代名詞検出, 照応性判定, 照応先同定の3つのサブタスクにおいて構文木を利用したツリーカーネルによる手法が提案されている。ポルトガル語,スペイン語では述語項構造解析の一部ではなく, 照応解析の一部としてゼロ照応解析に取り組まれることが多い.これらの言語では主格にあたる語のみが省略されるが,照応解析の前処理として省略された主格を検出し,照応先が文章内にあるかを分類する研究が行われている (Poesio, Uryupina, and Versley 2010; Rello, Baeza-Yates, and Mitkov 2012). 英語においてはゼロ照応解析に近いタスクとして意味役割付与の研究が行われている (Gerber and Chai 2010; Ruppenhofer, Sporleder, Morante, Baker, and Palmer 2010). (Gerber and Chai 2010) では頻度の高い 10 種類の動作性名詞に対して,直接係り受けにないものも項として扱い意味役割付与を行ったデータを作成している。また,共起頻度の情報などを利用して自動的に意味役割付与を行っている。(Ruppenhofer et al. 2010)では意味役割付与タスクの一部として省略された項を扱っている。また,省略された項については,照応先が特定される Definite Null Instance と照応先が不特定な Indefinete Null Instance を区別して扱っている. ## 3 ランキング学習 本研究では, ゼロ照応解析および著者・読者表現推定において, ランキング学習と呼ばれる手法を利用する。ランキング学習は優先度学習とも呼ばれ,インスタンス間のランキングを学習するための機械学習手法である (Herbrich et al. 1998; Joachims 2002). ランキング学習では識別関数を $f(\mathbf{x})=\mathbf{w} \cdot \mathbf{x}$ とし以下のように $\mathbf{w}$ を学習する。ここで $\mathbf{x}$ は, 入力インスタンスの素性表現であり, $\mathrm{w}$ は $\mathrm{x}$ に対応する,重みべクトルである。まずランキングに含まれる各インスタンスの組み合わせを生成する。ここでランキング $A>B>C$ を考えると, 生成される組み合わせは $A>B, A>C, B>C$ となる. そして各組み合わせにおいて識別関数の值がランキング上の順序と同じになるように $\mathrm{w}$ を学習する。炢の例で,各インスタンスに対応する素性べクトルが $\mathbf{x}_{A}, \mathbf{x}_{B}, \mathbf{x}_{C}$ だとすると, $f\left(\mathbf{x}_{A}\right)>f\left(\mathbf{x}_{B}\right)$ などとなるように学習する. なお,学習する順位内に同順位のものがあっても,「それらが同順位である」ということは学習されない。例えば $A>B=C$ という順位があった場合には生成される組み合わせは $A>B, A>C$ だけであり $B=C$ という関係が考慮されることはない. また, 同時に複数のランキングを学習することも可能である. 例えば, $A_{1}>B_{1}>C_{1}$ と $A_{2}>B_{2}>C_{2}$ という二つの独立したランキングがあった場合には $A_{1}>B_{1}, A_{1}>C_{1}, B_{1}>C_{1}$, $A_{2}>B_{2}, A_{2}>C_{2}, B_{2}>C_{2}$ のようにそれぞれ独立した組み合わせを生成し, これら全てを満たすように識別関数を学習する。 未知のインスタンス集合に対するランキング予測では, 各インスタンスに対して学習された $\mathbf{w}$ を用いて $f(\mathbf{x})$ を計算し,その値の順が出力されるランキングとなる. ランキング学習は二値分類に適用することが可能であり, 正例と負例に対応関係がある場合には通常の二値分類よりも有効であると言われている (磯崎他 2006). これは通常の二値分類器では, 全ての正例と負例を同一の特徴空間に写像するが, ランキング学習では正例と負例の差を特徴空間に写像するためである。例えば, 入力 $x_{1}$ に対する出力候補が $\left(A_{1}:+, B_{1}:-, C_{1}:-\right)^{5}$,入力 $x_{2}$ に対する出力候補が $\left(A_{2}:+, B_{2}:+, C_{2}:-\right)$ となるような学習事例があったとする.この場合, 通常の二值分類器では $\left(A_{1}:+, B_{1}:-, C_{1}:-, A_{2}:+, B_{2}:+, C_{2}:-\right)$ のように事例をひとまとめにして扱うため, 本来直接の比較の対象ではない $A_{1}:+$ と $C_{2}:$-などが同一の特徵空間上で比較されることとなる。一方, ランキング学習であれば, $A_{1}>B_{1}=C_{1}$ と $A_{2}=B_{2}>C_{2}$ のように,ランキングとして表現することで, $A_{1}:+$ と $C_{2}:$ - などが同一特徴空間上で比較されることはない.このようにして学習された識別関数は二値分類問題における識別関数として利用することができ,二値分類の場合と同様に出力の信頼度としても利用できる.そこで本研究では, 入力毎の出力候補に対して正負の正解がラベル付けされた事例からランキング学習に  より識別関数を学習し, 推定の際には識別関数の出力が最も高くなる(最尤)ものを出力する形でランキング学習を利用する。 ## 4 ベースラインモデル 本節では本研究でのベースラインとなる外界ゼロ照応を考慮しないゼロ照応解析モデルを説明する。本研究ではゼロ照応解析を用言単位の述語項構造解析の一部として扱う.用言単位の述語項構造解析では,用言と複数の項の間の関係を扱うことができる。例えば「(不動産屋ガ $)$物件を紹介する」のガ格のゼロ照応解析ではヲ格の項が「物件」であることが大きな手掛かりとなる。 各述語項構造は格フレームと, その格フレームの格スロットとその格スロットを埋める項の対応付けとして表現される。格フレームは用言の用法毎に構築されており,各格フレームはその用言が項を取る表層格(格スロット)とその格スロットの項として取られる語(用例)からなる。本研究では,Webページから収集された 69 億文から (Kawahara and Kurohashi 2006)の手法で自動構築された格フレームを用いる。構築された格フレームの例を図 1 に示す 6 . 本研究では, ゼロ代名詞の照応先を談話要素という単位で扱う,談話要素とは文中の表現のうち共参照関係にあるものをひとまとめにしたものである.例えば図 1 の例では, 「僕」と「自分」や「ラーメン屋 1 」 , 「その店」,「ラーメン屋 2 」と「お店」は共参照関係にあるので,それぞれ一つの談話要素として扱う。そしてゼロ代名詞の照応先はこの談話要素から選択する。例えば,「紹介したい」のガ格では「僕」に対応する (a)を照応先として選択することになる. 述語項構造解析の例を図 1 に示す 8 . なお, 本研究ではゼロ照応解析の対象としてはガ, ヲ,二,ガ 2 格のみを扱うため,時間格などの他の格については省略することがある。ここでガ 2 格とは京都大学テキストコーパスで定義されている, 二重主格構文における主格にあたる格である ${ }^{9}$. この例では,「紹介する」に対応する格フレームから「紹介する (1)」を選択し,そのガ格に談話要素 (a), ヨ格に談話要素 (c), 時間格に談話要素 (d) を対応付け,それ以外の格には談話要素を対応付けない. ゼロ照応解析の出力としては, ガ格の談話要素 (a)のみが出力される. ベースラインモデルでは, 先行研究 (Sasano and Kurohashi 2011) と同様に以下の手順で解析を行う。 (1)形態素解析,固有表現認識,構文解析を行う. (2) 共参照解析を行いテキスト中に出現した談話要素を認識する.  僕は出町柳にあるラーメン屋 1 によく行きます。 その店はすごく美味しくて, 自分の一番好きなラーメン屋 2 です。 今日はその素敵なお店を紹介します。 出力される述語項構造 格フレーム:『紹介する (1)』, \{ガ:(a) 僕, ヨ:(c) ラーメン屋, ニ:×, ガ $2: \times$, 時間:(d) 今日 $\}$ 図 1 述語項構造解析によるゼロ照応解析の概要 (3)各用言について以下の手順で述語項構造を決定する. (a) 以下の手順で解析対象用言がとりえる述語項構造(格フレームと談話要素の対応付け)の組み合わせを列挙する。 (i) 解析対象用言の格フレームを 1 つ選ぶ. (ii) 解析対象用言と係り受け関係にある語と格スロットの対応付けを行う. (iii) 対応付けられなかったガ格, ヨ格,ニ格,ガ 2 格の格スロットと,対象用言の格スロットとまだ対応付けられていない談話要素の対応付けを行う. (b) 学習されたランキングモデルによりもっとも高いスコアが与えられたものを述語項構造として出力する. 先行研究と本研究でのベースラインモデルとの違いは, (3b) でのスコア付けの際の重みの学習方法の違いである. 先行研究では対数線形モデルを利用していたが,本研究ではランキング学習を用いた ${ }^{10}$.このランキング学習の詳細は 4.2 節で説明する. 手順 (3) の述語項構造解析について説明する。まず, (3a)の手順で候補となる述語項構造 $(c f, a)$ を列挙する。ここで $c f$ は選ばれた格フレーム,aは格スロットと談話要素の対応付けである. ただし, 同一用言の複数の格に同じ要素が入りにくいという経験則 (村田, 長尾 1997) から, 手順 (3(a)iii) では既に他の格に対応付けられた談話要素は, ゼロ代名詞には対応付けないこととする. 手順 (3a) で列挙される述語項構造の例を図 2 に示す ${ }^{11} . 【 1-1 】 と 【 2-1 】 、 【 1-2 】 と 【 2-2 】$ などは,格と談話要素の割り当ては同じであるが格フレームは異なるため別々の述語項構造候補として扱う.【1-2】と【2-2】のどちらを述語項構造として選んでもゼロ照応解析としての出力は同じになる。この列挙された述語項構造をそれぞれ 4.1 節で説明する手法で素性として表現し, 4.2 節で説明する方法で学習された重みを利用してスコア付けを行い, 最終的に最もスコアが高かった述語項構造を出力する. 図 2 述語項構造の候補の例 $ 番目の格フレームに対する $\mathrm{j}$ 番目の対応付けを持つ述語項構造に対して便宜的に割り振ったものである. } ## 4.1 述語項構造を表現する素性 本節では述語項構造を表現する素性について説明する。 入力テキスト $t$ の解析対象用言 $p$ に格フレーム $c f$ を割り当て, その格フレームの格スロットと談話要素の対応付けを $a$ とした述語項構造を表現する素性べクトルを $\phi(c f, a, p, t)$ とする。 $\phi(c f, a, p, t)$ は直接係り受けがある述語項構造に関する素性べクトル $\phi_{\text {overt-PAS }}\left(c f, a_{\text {ovet }}, p, t\right)$ とゼロ照応解析で対象となる各格 $c$ に談話要素 $e$ が割り当てられることに関する素性べクトル $\phi_{\text {case }}(c f, c \leftarrow e, p, t)$ からなり, 具体的には以下のような形とする。ここで, $a_{\text {overt }}$ は用言 $p$ と直接係り受けのある談話要素と格スロットの対応付けである. $ \begin{aligned} \phi(c f, a, p, t)= & \phi_{\text {overt-PAS }}\left(c f, a_{\text {overt }}, p, t\right), \\ & \phi_{\text {case }}\left(c f, \text { ガ } \leftarrow e_{\text {ガ }}, p, t\right), \phi_{\text {case }}\left(c f, \text { ヲ } \leftarrow e_{\ni}, p, t\right), \\ & \left.\phi_{\text {case }}\left(c f, \text { ニ } e_{\text {c }}, p, t\right), \phi_{\text {case }}\left(c f, \text { ガ } 2 \leftarrow e_{\text {ガ } 2}, p, t\right)\right) \end{aligned} $ 各格に対応する素性べクトル $\phi_{\text {case }}(c f, c \leftarrow e, p, t)$ は格 $c$ に談話要素 $e$ が対応付けられた場合の素性ベクトル $\phi_{A}(c f, c \leftarrow e, p, t)$ と何も対応付けられなかった場合の素性べクトル $\phi_{N A}(c f, c \leftarrow$ $\times, p, t)$ からなる. $\phi_{\text {case }}(c f, c \leftarrow e, p, t)$ は格 $c$ がゼロ照応として対応付けられた場合にのみ考慮し,直接係り受け関係にある談話要素に対応付けられた場合には 0 ベクトルとする. 例えば図 2 の【2-2】を表現する素性べクトル $\phi($ 紹介する $(2),\{$ ガ: $(a)$ 僕, ヨ:(c) ラーメン屋, ニ: ×, ガ $2: \times$, 時間 $:(d)$ 今日 $\})$ は以下のようになる ${ }^{12}$. $\phi($ 紹介する $(2),\{$ ガ : $(a)$ 僕, ヨ $:(c)$ ラーメン屋, ニ : ×, ガ $2: \times$, 時間 $:(d)$ 今日 $\})=$ $\left(\phi_{\text {overt-PAS }}(\right.$ 紹介する $(2),\{$ ガ : ×, ヨ $:(d)$ ラーメン屋, ニ: ×, ガ $2: \times$, デ格 $:(c)$ ブログ $\})$, $ \begin{array}{lr} \phi_{A}(\text { 紹介する }(2), \text { ガ } \leftarrow(a) \text { 僕 }), & \mathbf{0}_{\phi_{N A}}, \\ \mathbf{0}_{\phi_{A}}, & \mathbf{0}_{\phi_{N A}}, \\ \mathbf{0}_{\phi_{\mathbf{A}}}, & \phi_{N A}(\text { 紹介する }(2), \text { ニ } \leftarrow), \\ \mathbf{0}_{\phi_{\mathbf{A}}}, & \left.\phi_{N A}(\text { 紹介する }(2), \text { ガ } 2 \leftarrow \times)\right) \end{array} $ 述語項構造べクトルを表現する各要素 $\phi_{\text {overt-PAS }}\left(c f, a_{\text {overt }}, p, t\right), \phi_{A}(c f, c \leftarrow e, p, t), \phi_{N A}(c f, c \leftarrow$ $\times, p, t)$ の素性について説明する。まず, $\phi_{\text {overt-PAS }}\left(c f, a_{\text {overt }}, p, t\right)$ には確率的格解析モデル (河原,黒橋 2007) から得られる表層の係り受けの確率を用いる。 $\phi_{A}(c f, c \leftarrow e, p, t)$ に用いる素性の一覧を表 2 に示す ${ }^{13}$. 格フレーム素性は,格フレームから得られる情報である。 $e$ が複数回 13 値の列で $\log$ と書かれたものは, 実際にはその対数をとったものを素性として利用している. バイナリと書かれたものは,多値の素性をバイナリで表現したものを素性として利用している.整数値と書かれたものは,その値をそのまま利用している. } 表 $2 \phi_{A}(c f, c \leftarrow e, p, t)$ の素性一覧 表 $3 \phi_{N A}(c f, c \leftarrow \times, p, t)$ の素性一覧 言及される場合には,各素性ごとにそれらの値で最も大きいものをその素性の値とする。例えば, 談話要素 $e$ が格フレーム $c f$ の格 $c$ に対応付く確率の素性を式 (2) のガ格について考える.上述の例ではガ格に対応付けられた談話要素 (a)は「僕」「自分」と 2 回言及されている. そこで「僕」「自分」が「紹介する (2)」のガ格に対応付く確率をそれぞれ計算し, 最も値が高いものを (a) が「紹介する (2)」のガ格に対応付く確率とする。用言素性における $p$ の持つモダリティなどの情報は, 用言の属する基本句に日本語構文・格解析システム KNP ver. $4.0^{14}$ により付与された情報を利用する。文脈素性は $e$ が前後の文脈でどのような表現で出現するかを扱う素性であり, $e$ が複数回言及される場合には,その全てを素性として扱う, $c$ が割り当てられたことの素性は,その格にどの程度ゼロ代名詞が出現するかを調整するための素性となっている。 $\phi_{N A}(c f, c \leftarrow \times, p, t)$ に用いる素性を表 3 に示す. $\phi_{N A}(c f, c \leftarrow \times, p, t)$ では対応付けられる要素 $e$ がないため, 格フレームに関する素性のみとなっている. ## 4.2 素性の重みの学習 前節で入力テキスト $t$, 解析対象用言 $p$ が与えれられたとき,格フレーム $c f$, 格スロットと談話要素の対応付け $a$ からなる述語項構造を表現する素性を $\phi(c f, a, p, t)$ としたが,それに対応する素性の重み $\mathrm{w}$ をランキング学習により学習する。 ランキング学習の学習データ作成は, 対象用言ごとに順位データを作成し, 全用言の順位デー 夕を集約したものとする。もし, 述語項構造の正解が一意に求められるなら, その述語項構造を上位とし,それ以外の述語項構造を下位とする順位デー夕を作成すればよい。しかし,実際には以下の 2 つの問題がある. 1つ目は正解コーパスには 1 つの格に対して複数の談話要素が対応付けられたものが含まれることである. 例えば図 3 の「焼いている」では正解として $\{$ ガ:×, ヨ:(b)ケーキ+(c)クッキー,二:×,ガ $2: \times$ ,時間:(d) 毎週 \}のように, ヨ格に 2 つの談話要素が対応付けられる。一方,提案手法では先に述べたように 1 つ格に対して1つの談話要素しか対応付けない. そこで,1つの格に対して複数の談話要素が対応付けられている場合には,そのうちどれか 1 その談話要素  ×, ガ $2: \times$, 時間:(d) 毎週 $\}$ と $\{$ ガ: $\times, \quad$ Э:(c) クッキー, ニ:×, ガ $2: \times$, 時間:(d) 毎週 $\}$ を正解の談話要素対応付けとする。また, この正解となる対応付けの集合を $\left(a_{1}^{*}, \cdots, a_{N}^{*}\right)$ とする. 2 つ目はコーパスには格フレームの正解は付与されていないことである. 先に述べたように述語項構造は格フレームと格スロットと談話要素の対応付けからなる。格フレームは用言の用法ごとに構築されており,述語項構造候補の格フレームには文脈で使用される用法と全く異なるもの ${ }^{15}$ が含まれる,格スロットと談話要素の対応付けは正しいが,文脈での使用とは異なる用法の格フレームを持つような述語項構造を正解として扱った場合, 学習に悪影響を与えると考えられる。そこで, 確率的ゼロ照応解析 (Sasano et al. 2008)を利用することで, 各文脈における用法の格フレームを推定する。確率的ゼロ照応解析では各述語項構造 $(c f, a)$ に対し格フレー ムの情報などを用いることで $P(c f, a \mid p, \mathbf{e})$ を推定する. ここで $\mathbf{e}$ は文章中に出現する談話要素 $e$ の集合である ${ }^{16}$ 具体的には以下の手順で各対象用言 $p$ に対して学習データとなるランキングを生成する. (1) 用言 $p$ に対して取り得る述語項構造 $(c f, a)$ を訓練事例として列挙する. (2) 正解となる対応付け $a_{1}^{*}, \cdots, a_{N}^{*}$ について (a)各 $\left(c f, a_{i}^{*}\right)$ の確率的ゼロ照応解析確率を計算し, 最も確率が高いものを $\left(c f_{i}^{*}, a_{i}^{*}\right)$ とする. (b) $\left(c f, a_{i}^{*}\right)$ のうち, $\left(c f_{i}^{*}, a_{i}^{*}\right)$ 以外のものを訓練事例から取り除く. (3) 各 $\left(c f_{i}^{*}, a_{i}^{*}\right)$ が他の $(c f, a)$ より順位が高くなるようなランキングを用言 $p$ に対する学習データとする. 図 3 の「焼いている」を例に説明する。まず「焼いている」の述語項構造解析の候補として るもの $\left(c f, a_{i}^{*}\right)$ は, $\{$ ガ:×, ヨ:(b) ケーキ, ニ:×, ガ $2: \times$, 時間:(d) 毎週 $\}$ とっている【1-2】 と【2-2】, \{ガ:×, ヨ:(c)クッキー, ニ:×, ガ $2: \times$, 時間:(d) 毎週 $\}$ となっいる【1-3】と【2-3】 である.【1-2】、【2-2】、【1-3】、【2-3】について確率的ゼロ照応解析スコアを計算した結果,【1-2】 >【2-2】、【1-3】>【2-3】となったとする.この場合【1-2】と【1-3】が $\left(c f_{i}^{*}, a_{i}^{*}\right)$ となる (手順 (2a))、そこで, 訓練事例から【2-2】と【2-3】を取り除く(手順 $(2 b)$ ). そして,【1-2】=【1-3】 $>【 1-1 】=【 1-4 \rrbracket=\cdots=【 2-1 】=【 2-4 \rrbracket=\cdots$ というランキングを「焼いている」についての学習データとする (手順 $(3)$ ). このように各対象用言に対するランキング学習データを生成し,それらを統合したものに対してランキング学習を行うことで $\mathbf{w}$ を学習する。  図 31 つの格に複数の談話要素が割り当てられる例 ## 5 コーパス 本研究では, Diverse Document Leads Corpus (DDLC) (Hangyo et al. 2012)を利用する. DDLC は Webから収集されたテキストに対して,形態素情報,構文関係,固有表現,共参照関係,述語項構造, 著者・読者表現が付与されている。形態素情報, 構文関係, 固有表現, 共参照関係は京都大学テキストコーパス (Kawahara et al. 2002) と同様の基準で付与されている. 述語項構造も京都大学テキストコーパスと同様の基準で付与されており, 文章内ゼロ照応だけでなく外界ゼロ照応も付与されている. 外界ゼロ照応の照応先としては表 4 の 5 種類が設定されている.著者・読者表現は,「=:[著者]」「=:[読者]」というタグ17で基本句単位に付与されており, 著者・読者表現が複合語の場合にはその主辞に対して付与されている.DDLCでは,著者表現,読者表現は 1 文書中にそれぞれ最大でも 1 つの談話要素と仮定されており,著者・読者が複数回言及される場合には,そのうち 1 つに「=:[著者]」「=:[読者]」を付与し,それ以外のものは,著者・読者表現と共参照関係にある,という形で表現される。下記の例 (9)では,著者は「主婦」や「こま」,「母」など複数の表現で言及されているが,「=:[著者]」は「主婦」に対してたけ付与され,「こま」や「母」には「=:主婦」というタグにより,「主婦」と共参照関係にあるという情報が付与されている. 表記は B に対して「rel:A」という情報が付与されていることを示す. } 表 4 外界ゼロ照応の照応先と例 (9)東京都に住む「お気楽主婦」こまです。 0 歳と 6 歳の男の子の母をしです。 また, 組織のウェブページなどの場合にはその組織名や組織を表す表現を著者表現としている。 (10)ここでは弊社の商品及び事業を簡単にご説明します。 (弊社 $\leftarrow=:$ [著者]) (11)神戸徳洲会病院では地域の医療機関との連携を大切にしています。 (病院 $\leftarrow=:$ [著者]) ウェブページでは実際には不特定多数が閲覧できる状態であることが多いが,著者が特定の読者を想定していると考えられる場合には,その特定の読者を表す表現も読者表現として扱っている.下記の例 (12)では,想定している読者が「今後就職を迎える人」だと考えられるので, その主辞の「人」に「=:[読者]」が付与されている. (12) 今後就職を迎える人に,就職活動をどのように考えれば良いのかをお知らせしてみましょう。 $ (人 \leftarrow=:[\text { 読者 }] \text { ) } $ 一方,想定している読者のうち一部だけを対象とした表現は読者表現として扱っていない.下記の例 (13)では,想定される読者は「オーナーを希望する人」であり,「店舗運営の経験がない方」はそのうちの一部であると考えられるので,読者表現として扱われていない. (13)店舗運営の経験がない方でも、ご安心ください。ローソンの研修制度なら、オーナーに 必要とされるノウハウを段階的に修得することができます。 表 8 に DDLC 中の著者・読者表現の例を示す. DDLC 全体 1,000 文書のうち著者表現が付与された文書は 271 文書,読者表現が付与された文書は 84 文書であった. DDLC におけるゼロ照応の個数を表 5 に,文章内ゼロ照応,外界ゼロ照応における照応先の内訳を表 6 と表 7 に示す. 表 6 において著者・読者とは照応先が著者・読者表現にあたることを示す.DDLCにおいてはゼロ照応のうち $54 \%$ が外界ゼロ照応であること, ゼロ照応はガ格で特に多く起こることが分かる.また,著者や読者に関するゼロ照応はガ格,二格,ガ 2 格で多く出現し,ヲ格ではほとんど出現しないことが分かる. 表 5 DDLC におけるゼロ照応の個数 表 6 DDLC の文章内ゼロ照応の内訳 表 7 DDLC の外界ゼロ照応の内訳 表 8 著者・読者表現の例 ## 6 著者・読者表現推定 日本語では様々な表現で著者や読者が文章中で言及され,5 節で述べたように人称代名詞たけでなく, 固有表現, 役職など様々な表現で言及される。一方, 表 8 に挙げたような表現でも文脈によっては著者・読者表現にならないこともある.下記の例 (14)では,「お客様」はこの文章の読者として想定している客とは別の客を指していると考えられるので,読者表現とはならない. 先月、お部屋のリフォームをされたお客様の例を紹介します。 このように,表記のみから著者・読者表現を同定することは困難である.本研究では著者・読者表現候補自体の表現だけでなく,周辺文脈や文章全体に含まれる情報から文章の著者・読者表現を推定することとする. 5 節で述べたように,DDLC では基本句単位で著者・読者表現がアノテーションされており,共参照関係にある複数の表現が著者・読者表現である場合には,その内の 1 つに対して著者・読者表現を付与するとしている。これは 4 節で述べた談話要素単位に著者・読者表現が付与されていると言え,本研究でも著者・読者表現は談話要素単位で扱う,著者・読者表現の推定にはランキング学習を利用し, その素性には著者・読者表現自身および周辺文脈の語彙統語パター ンを利用する。 ## 6.1 著者・読者表現推定モデル 著者・読者表現の推定は著者表現,読者表現それぞれ独立して行う ${ }^{18}$ .著者・読者表現の推定にはランキング学習を利用し, 著者・読者表現にあたる談話要素が他の談話要素より上位になるように学習する。例えば図 4 の著者表現では, 談話要素 (1) が他の談話要素より上位となる学習データを作成する。そして学習された識別関数により最上位となった談話要素を著者・読者表現と推定する。なお,著者・読者表現候補として扱う談話要素は下記の条件のうち最低 1 つは満たしているもののみとする.  ・ 自立語の形態素の JUMAN カテゴリが「人」「組織・団体」「場所」 ・ 固有表現である ・形態素に「方」「人」を含む ここで,学習データ作成時および推定時に考慮しなければならないのは,著者・読者表現が出現しない文書が存在することである。著者・読者表現が出現しない文書は大きく分けて 2 つ種類がある.1 つ目は図 5 のように談話構造自体に著者・読者が出現しない文書である.2つ目は図 6 のように談話構造には著者・読者が出現するが著者・読者表現として明示的に言及されない場合である ${ }^{19}$.これらに対応する仮想的なインスタンスとして,「著者・読者表現なし(談話構造 $)\rfloor$ と「著者・読者表現なし(省略)」を設定する. 「著者・読者表現なし(談話構造)」は談話構造自体に外界ゼロ照応としても著者・読者が出現しないことに対応するインスタンスであり, 文書全体の語彙統語パターンを素性とした文書 米子タウンホテル著者は米子駅の真正面にございます。 駐車場も完備しており、ビジネスに観光に大変便利な立地のホテルです。 米子にお越しの際はぜひご利用下さい。 著者・読者表現候補となる談話要素 (1) $\{$ 米子タウンホテル, ホテル $\},(2)\{$ 米子駅 $\},(3)\{$ 真正面 $\},(4)\{$ 駐車場 $\},(5)\{$ 立地 $\}$, (6) $\{$ 米子 $\}$ 図 4 著者表現が出現する文書例 公共事業の削減で、地方経済は製造業など誘致企業への依存度を強めてきた。 このため、世界的な金融危機による減産が大きなダメージになった。 さらに、アジアなど新興国市場の台頭や円高に伴う工場の海外シフトに苦しんでいる。 著者・読者表現候補となる談話要素 (1) $\{$ 地方 \}, (2) $\{$ 世界的 \}, (3) \{アジア \}, (4) $\{$ 新興国 \}, (5) $\{$ 工場 $\},(6)\{$ 海外 \} 図 5 談話構造自体に著者が出現しない文書例 気がつけば梅雨も明けてました。 毎日暑い日が続きますね。 父の手術も無事に終わり、少しだけほっとしてます。 著者・読者表現候補となる談話要素 (1) $\{$ 父 $\}$ 図 6 談話構造に著者が出現するが著者表現が出現しない文書例 ベクトルで表現されるインスタンスである。これは, 著者・読者が談話構造自体に出現しない文書では,尊敬や謙譲表現が少ないなど文体的な特徴があると考えられ,文書全体の語彙統語パターンは文体を反映した素性といえるからである. 「著者・読者表現なし(省略)」は談話構造には外界ゼロ照応として著者・読者が出現するが,著者・読者表現として明示的に言及されないことに対応するインスタンスであり,ゼロベクトルとして表現される。識別関数はゼロベクトルについて常に 0 を返すため,このインスタンスより下位に順位付けされた談話要素は二値分類における負例とみなすことができる。学習された識別関数によるランキングの結果, これらのインスタンスが最上位となった文書については,著者・読者表現が出現しないものとする。 各文書に対する学習データの作成について説明する.以下の手順で著者表現,読者表現に対して文書ごとにランキングデータ作成し, 統合したものを最終的な学習データとする. 著者・読者表現が存在する文書については,著者・読者表現にあたる談話要素が他の談話要素および「著者・読者表現なし」より上位になるように学習データを作成する。例えば,図 4 の文書における著者表現推定では, $(1)>(2)=(3)=\cdots=(6)=$ 著者表現なし $($ 談話構造 $)=$ 著者表現なし $($ 省略 $)$ となるように学習データを作成する. 談話構造自体に著者・読者が出現しない場合には,「著者・読者表現なし(談話構造)」が文書中の談話要素および「著者・読者表現なし(省略)」より上位になるように学習デー夕を作成する。例えば,図 5 の文書における著者表現推定では, 著者表現なし (談話構造 $)>(1)=(2)=\cdots=(6)=$ 著者表現なし (省略) となるように学習データを作成する。 談話構造に著者・読者が出現するが著者・読者表現が出現しない場合には,「著者・読者表現なし(省略)」が文書中の談話要素および「著者・読者表現なし(談話構造)」より上位になるように学習データを作成する。例えば,図 6 の文書における著者表現推定では, 著者表現なし $($ 省略 $)>(1)=$ 著者表現なし $($ 談話構造 $)$ となるように学習データを作成する。 学習時の談話構造に著者・読者が出現するかの判定には,コーパスに付与された外界ゼロ照応の情報を利用する,外界ゼロ照応の照応先として著者・読者が出現する場合には談話構造に著者・読者が出現するとし,それ以外の場合には出現なしとする,例えば図 6 では,「気がつけば」のガ 2 格,「ほっとしました」のガ格などの照応先で著者が出現するので, 談話構造に著者が出現していると分かる。なお,この情報はランキングの学習データを作成する際にのみ利用するので,テストデータに対する著者・読者表現推定時には利用しない. ## 6.2 素性として利用する語彙・統語パターン 談話要素に対しては, 談話要素自身と係り先およびこれらの係り受けの語彙統語パターンを素性として扱う。ここで, 語彙統語パターンを扱う単位として, 基本句と文節という 2 の単位を考える。談話要素は基本句単位であるが, その基本句が含まれる文節の情報も重要と考えられるからである。 談話要素を表現する語彙統語パターンとしては,談話要素が含まれる基本句・文節,談話要素の係り先の基本句・文節およびこれらの係り受け関係を後述する基準にて汎化したものとなる. 1 つの談話要素が複数言及されている場合には,それらを合わせたものをその談話要素の素性として用いる。また, 1 文目には自己紹介的な表現が用いられることが多く, 以降の文と区別して扱うことが有効であると考えられる。そこで, 1 文目で出現した語彙統語パターンは別の素性としても扱うこととする。例えば, 図 4 の談話要素 (1) に対応する素性として利用するものは以下のものを汎化したものとなる。 「基本句:ホテルは」「基本句係り先:ございます。」「基本句係受け:ホテルは $\rightarrow$ ございます。」「文節:米子タウンホテルは」「文節係り先:ございます。」「文節係り受け:米子タウンホテルは $\rightarrow$ ございます。」「基本句:ホテルです。」「文節:ホテルです。」「1文目基本句:ホテルは」 $\lceil 1$ 文目基本句係り先:ございます。」「1 文目基本句係受け:ホテルは $\rightarrow$ ございます。」「1文目文節:米子タウンホテルは」「1 文目文節係り先:ございます。」「1 文目文節係り受け:米子タウンホテルは $\rightarrow$ ございます。」 これらの要素を表 9 の基準で汎化することで語彙統語パターンの素性として利用する。「形態素単位 $\mathrm{A} 」$ の汎化は形態素単位に付与された情報を元に形態素毎に汎化を行う.なお「品詞+ 表 9 汎化する種類と基準 \\ 表 10 一人称代名詞と二人称代名詞 一人称私, 我々, 僕, 俺, 弊社, 当社 二人称あなた, 皆様, 皆さん 活用」では内容語に対してのみ行い,機能語については汎化しない. となる汎化表現を持たない場合(固有表現による汎化の際に固有表現を持たない場合など)には「品詞十活用」で汎化を行う. 「形態素単位 $\mathrm{C}$ では「形態素単位 $\mathrm{B}$ と同様に汎化を行うが, 複数の形態素をまたいだ汎化を行う場合がある。分類語彙表による汎化では,分類語彙表に複合語として登録されている場合には,その複合語の分類語彙表の内容を利用する。例えば,「ゴルフ場」は 2 形態素であるが, 分類語彙表には 「ゴルフ場:土地利用」として登録されているので,「ゴルフ場」を「土地利用」と汎化する.固有表現による汎化では, 形態素に付与された固有表現は「固有表現名:head」「固有表現名:middle」「固有表現 名:tail」「固有表現名:single」のように固有表現中での位置が付与されている. 文節による汎化の際には連続したこれらの表現をまとめて「固有表現」という形に汎化する.例えば「ヤフージャパン株式会社」では「ORGANIZATION:head+ORGANIZATION:middle+ORGANIZATION:middle+ ORGANIZATION:tail」のように固有表現が付与されるが,「ORGANIZATION」として汎化する. これらの形態素単位での汎化では, 形態素ごとに汎化を行い, その後基本句内, 文節内で汎化された情報を結合することでその基本句, 文節の語彙統語パターンとする.例えば,「基本句:ホテルは」をカテゴリ (CT)の基準で汎化する祭には,「ホテル」を「CT-場所-施設」に汎化し,「は」は機能語なのでそのまま「は」とする。そしてこれらを結合した「基本句:CT-場所施設十は」がこの基本句のカテゴリによる汎化表現となる. 上述の形態素単位の汎化の場合には, 基本句, 文節内に含まれる個々の汎化表現も素性とする. 例えば,「基本句:ホテルは」のカテゴリによる汎化では上述の「基本句:CT-場所-施設+は」 に加えて,「基本句内形態素:CT-場所-施設」も素性とする ${ }^{20}$. 基本句・文節単位での汎化は基本句・文節に付与された情報を元に汎化を行う場合に利用する. 基本句・文節単位での汎化では基本句・文節に付与された情報そのものを基本句, 文節の語彙統語パターンとして利用する.このため, 形態素単位による情報は素性としては利用しない. ## 7 外界照応および著者・読者表現を考慮したゼロ照応解析モデル 本節では, 外界ゼロ照応および著者・読者表現を考慮したゼロ照応解析モデルについて説明する. 提案モデルでは, ベースラインモデルと同様にゼロ照応解析を述語項構造解析の一部として解く. 提案モデルではゼロ照応解析は以下の手順で行う. (1) 形態素解析,固有表現認識,構文解析を行う. (2) 共参照解析を行いテキスト中に出現した談話要素を認識する. (3)著者・読者表現の推定を行い,どの談話要素が著者・読者表現にあたるのかを推定する. (4)推定された著者・読者表現から仮想的な談話要素を設定する(7.1 節で説明). (5)各用言について以下の手順で述語項構造を決定する. (a) 以下の手順で解析対象用言がとりえる述語項構造(格フレームと談話要素の対応付け)の組み合わせを列挙する。 (i) 解析対象用言の格フレームを 1 つ選ぶ. (ii) 解析対象用言と係り受け関係にある語と格スロットの対応付けを行う.  (iii) 対応付けられなかったガ格, 格,ニ格,ガ 2 格の格スロットと, 対象用言の格スロットとまだ対応付けられていない談話要素の対応付けを行う. (b) 学習されたランキングモデルによりもっとも高いスコアが与えられたものを述語項構造として出力する。 ベースラインモデルと異なる点は, 手順 (3) で文章中の著者・読者表現を推定すること, 手順 (4) で仮想的な談話要素を設定することである. ## 7.1 外界ゼロ照応を扱うための仮想的談話要素 ベースラインモデルではゼロ代名詞の照応先を文章中の談話要素から選択することとした。提案モデルでは,文章中の談話要素に加えて仮想的な談話要素として [著者], [読者], [不特定:人], [不特定:その他] を設定し, 解析の際の述語項構造の列挙においては,格に対応付ける談話要素の候補としてこれらの仮想的な談話要素も考えることとする ${ }^{21}$. そして, これらが対応付けられた格は外界ゼロ照応であるとする。例 (15) では,「説明します」のガ格が外界ゼロ照応で著者を照応しており,二格は外界ゼロ照応で読者を照応しているため,ガ格に [著者]を,ニ格に [読者]を対応付けた述語項構造として表現される。 $ \text { 今日はお得なポイントカードについて説明します。 } $ 著者・読者表現が文章中に出現する場合には, [著者] と [読者]の仮想的談話要素の扱いが問題となる. 下記の例 (16)ではゼロ代名詞 $\phi$ の照応先は, 著者表現である「私」とも [著者] とも考えられる。 (16)肩こりや腰痛で来院された患者さんに対し、私著者は脈を診ることにしています。 それは心臓の状態を $(\phi$ ガ $)$ 診ているだけではなく、身体全体のバランスを $(\phi$ ガ $)$ 診たいからです。 本研究では, このような曖昧性を取り除くため, 照応先としては $[$ 著者], [読者]より著者・読者表現を優先することする,解析の際, 文章中に著者・読者表現が存在する場合には, [著者], [読者]の仮想的談話要素は照応先として対応付けないこととする.図1の「紹介します」に対して列挙される述語項構造の例を図 7 に示す.この例では,【1-3】のガ格や【1-4】のガ格などに仮想的な談話要素が対応付けられている。また,「(a) 僕」が著者表現にあたるので [著者] はどの格にも対応付けを行わない. 【1-1】 格フレーム:『紹介する (1)』, \{ガ:×, Э:(c) ラーメン屋, ニ:×, ガ $2: \times$, 時間:(d) 今日 $\}$ 【1-2】格フレーム: 『紹介する (1)』, \{ガ:(a) 僕, ヨ:(c) ラーメン屋, ニ:×, ガ $2: \times$, 時間:(d) 今日 $\}$ 【1-3】格フレーム:『紹介する (1)』, \{カ̉:[読者], Э:(c) ラーメン屋, ニ:×, ガ $2: \times$, 時間:(d) 今日 $\}$ 【1-4】格フレーム:『紹介する (1)』,\{ガ:[不特定:人], Э:(c) ラーメン屋, ニ:×, ガ $2: \times$, 時間:(d) 今日 $\}$ 【1-5】格フレーム: 『紹介する (1)』, \{ガ:(a) 僕, ヨ:(c) ラーメン屋, 二:[読者], ガ $2: \times$, 時間:(d) 今日 $\}$ 【1-6】格フレーム:『紹介する (1)』, \{ガ:[読者], ヨ:(c) ラーメン屋, ニ:(a) 僕, ガ $2: \times$, 時間:(d) 今日 $\}$ 【2-1】格フレーム:『紹介する (2)』, \{ガ:×, ヨ:(c) ラーメン屋, ニ:×, ガ $2: \times$, 時間:(d) 今日 $\}$ 【2-2】格フレーム: 『紹介する (2)』, \{ガ:(a) 僕, ヨ:(c) ラーメン屋, ニ:×, ガ $2: \times$, 時間:(d) 今日 $\}$ 図 7 提案手法における述語項構造の候補の例 一方,著者・読者表現は外界の [著者] や [読者] と似た振る舞いを取ると考えられる ${ }^{22}$.そこで, 著者・読者表現は他の談話要素と区別し, 素性表現の際に [著者] や [読者]の性質を持つように素性を与える。詳細は 7.2 節で示す. ## 7.2 素性による述語項構造の表現 ベースラインモデルと同様に提案モデルでも述語項構造単位を素性で表現し, その構成もベー スラインモデルと同様に $\phi(c f, a, p, t)$ は直接係り受けがある述語項構造に関する素性ベクトル $\phi_{\text {overt-PAS }}\left(c f, a_{\text {overt }}, p, t\right)$ とゼロ照応解析で対象となる格 $c$ に談話要素 $e$ が割り当てられることに関する素性べクトル $\phi_{\text {case }}(c f, c \leftarrow e, p, t)$ からなる. ベースラインモデルと提案モデルの差は $\phi_{\text {case }}(c f, c \leftarrow e, p, t)$ のうち, $c$ に談話要素 $e$ が割り当てられた場合の素性ベクトル $\phi_{A}(c f, c \leftarrow e, p, t)$ の構成である. ここでベースラインモデルでの $\phi_{A}(c f, c \leftarrow e, p, t)$ を $\phi_{A}^{\prime}(c f, c \leftarrow e, p, t)$ とおく. この $\phi_{A}^{\prime}(c f, c \leftarrow e, p, t)$ と同内容, 同次元の素性べクトルを文章中に出現した談話要素, 外界の [著者], [読者] なとと対応する形で複数並べることで $\phi_{A}(c f, c \leftarrow e, p, t)$ を構成する. 具体的には以下のような形となる. $ \begin{aligned} \phi_{A}(c f, c \leftarrow e, p, t)= & \phi_{\text {mentioned }}(c f, c \leftarrow e, p, t), \phi_{\text {[著者] }}(c f, c \leftarrow e, p, t), \\ & \phi_{\text {[読者] }}(c f, c \leftarrow e, p, t), \phi_{\text {[不特定:人] }}(c f, c \leftarrow e, p, t), \\ & \left.\phi_{\text {[不特定:その他] }}(c f, c \leftarrow e, p, t), \phi_{\max }(c f, c \leftarrow e, p, t)\right) \end{aligned} $ ここで, $\phi_{\text {mentioned }}(c f, c \leftarrow e, p, t)$ は $e$ が文章中に出現した談話要素の場合のみに発火し, 内容は $\phi_{A}^{\prime}(c f, c \leftarrow e, p, t)$ と同内容とする. $\phi_{\text {[著者] }}(c f, c \leftarrow e, p, t), \quad \phi_{\text {[読者] }}(c f, c \leftarrow e, p, t)$ は $e$ が外 界の [著者], [読者] の場合または著者・読者表現に対応する談話要素の場合にのみ発火する. $\phi_{\text {[不特定: 人] }}(c f, c \leftarrow e, p, t), \phi_{\text {[不特定:その他] }}(c f, c \leftarrow e, p, t)$ は $e$ が外界の [不特定:人], [不特定:その他] の場合にのみ発火する。 $\phi_{\text {[著者] }}(c f, c \leftarrow e, p, t), \quad \phi_{\text {[読者] }}(c f, c \leftarrow e, p, t), \quad \phi_{\text {[不特定:人] }}(c f, c \leftarrow e, p, t)$, $\phi_{\text {[不特定:その他] }]}(c f, c \leftarrow e, p, t)$ は外界の談話要素に対応するため, 表記や JUMANカテゴリといった情報を持たない。そこで, 格フレーム素性で $e$ の表記や JUMAN カテゴリの情報を利用する場合には擬似的に表 11 の表記や JUMAN カテゴリを利用する。最後の $\phi_{\max }(c f, c \leftarrow e, p, t)$ は各素性において $\phi_{\text {mentioned }}(c f, c \leftarrow e, p, t), \phi_{\text {[著者] }}(c f, c \leftarrow e, p, t), \phi_{\text {[読者] }}(c f, c \leftarrow e, p, t), \phi_{\text {[不特定: 人] }}(c f, c \leftarrow$ $e, p, t), \phi_{\text {[不特定:その他] }]}(c f, c \leftarrow e, p, t)$ で対応する素性の最大値を持つ素性べクトルとする. このように素性を表現することで,著者・読者表現に対応する談話要素では $\phi_{\text {mentioned }}$ および $\phi_{\text {[著者] }} \cdot \phi_{\text {[読者] }}$ が発火することになり, 通常の談話要素と著者・読者としての両方の性質を持つこととなる。また, $\phi_{\text {max }}$ は全ての要素に対して発火するため, $\phi_{\text {max }}$ に対応する重みでは, ゼ口照応全体に影響する性質が学習されると考えられる. ここで,図 7 の述語項構造候補【1-5】ついて各格の $\phi_{A}(c f, c \leftarrow e, p, t)$ の例を示す. $ \begin{aligned} & \phi_{A}(c f, \text { ガ } \leftarrow(a) \text { 僕, } p, t)=\left(\phi_{\text {mentioned }}(c f, \text { ガ } \leftarrow(a) \text { 僕 }, p, t), \phi_{\text {[著者] }}(c f, \text { ガ } \leftarrow(a) \text { 僕, } p, t),\right. \end{aligned} $ $ \begin{aligned} & \left.\max \left(\phi_{\text {mentioned }}(c f, \text { ガ } \leftarrow(a) \text { 僕 }, p, t), \phi_{\text {[著者] }}(c f, \text { ガ } \leftarrow(a) \text { 僕 }, p, t)\right)\right) \end{aligned} $ まず,ガ格では「僕」は文章中に言及されているので, $\phi_{\text {mentioned }}(c f$, ガ $\leftarrow(a)$ 僕, $p, t)$ が発火し,また著者表現に対応している談話要素なので $\phi_{\text {[著者] }}(c f$, ガ $\leftarrow(a)$ 僕, $p, t)$ も発火する. $\phi_{\text {[読者] }}(c f$, ガ $\leftarrow e, p, t), \quad \phi_{\text {[不特定:人] }}(c f$, ガ $\leftarrow e, p, t), \quad \phi_{\text {[不特定:その他] }}(c f$, ガ $\leftarrow e, p, t)$ は発火せず 0 ベクトルとなる. $\phi_{\max }(c f$, ガ $\leftarrow e, p, t)$ は各要素において $\phi_{\text {mentioned }}(c f$, ガ $\leftarrow(a)$ 僕, $p, t)$ と $\phi_{\text {[著者] }}(c f$, ガ $\leftarrow(a)$ 僕 $, p, t)$ のうち大きい方の値が素性の値となる. $ \begin{aligned} & \left.\phi_{A}(c f, \text { 二 [読者] }], p, t\right)=\left(\mathbf{0}_{\phi_{\text {mentioned }}}, \mathbf{0}_{\phi_{\text {[著者] }},},\right. \\ & \left.\phi_{\text {[読者] }}(c f, \text { 二 [読者] }], p, t\right), \mathbf{0}_{\phi_{\text {[不特定:人] }},}, \end{aligned} $ 表 11 疑似表記, JUMAN カテゴリ 二格では文章中に言及されていない読者が対応付けられているので, $\phi_{\text {[読者] }}(c f$, 二 [読者] $, p, t)$ のみが発火し, $\phi_{\max }(c f$, 二 [読者] $, p, t)$ は $\phi_{\text {[読者] }}(c f$, 二 [読者 $\left.], p, t\right)$ と同じ値となる. ヨ格は直接係り受けのある「ラーメン屋」と対応付けられているので, ベースラインモデルと同様に素性として考えず, $\phi_{A}(c f, \exists \leftarrow e, p, t), \phi_{N A}(c f$, Э $\leftarrow \times, p, t)$ ともに 0 ベクトルとなる. ガ 2 格は談話要素に対応付けられていないので, ベースラインモデルと同様に $\phi_{N A}(c f$, ガ $2 \leftarrow$ $\times, p, t)$ が発火し, $\phi_{A}(c f$, ガ $2 \leftarrow e, p, t)$ は 0 ベクトルとなる. ## 7.3 使用する素性 提案モデルでは 4.1 節で述べたものに加えて, 著者表現, 読者表現推定スコアを素性として利用する.著者表現,読者表現推定スコアは 6 節で著者・読者表現を推定した際のランキング学習の識別関数のスコアである。著者表現推定スコアは $e$ が著者表現の場合に $\phi_{\text {mentioned }}(c f, c \leftarrow e, p, t)$ と $\phi_{\text {[著者] }}(c f, c \leftarrow e, p, t)$ に, 読者表現推定スコアは $e$ が読者表現の場合に $\phi_{\text {mentioned }}(c f, c \leftarrow e, p, t)$ と $\phi_{\text {[読者] }}(c f, c \leftarrow e, p, t)$ に素性として導入する. ## 8 実験 ## 8.1 実験設定 実験では DDLC の 1,000 文書を利用し,5 分割交差検定により評価を行った. 述語項構造解析および著者・読者表現推定以外の解析結果が原因となる解析誤りを除くため,形態素情報,係り受け情報, 固有表現情報, 共参照関係はコーパスに人手で付与された正しい情報を利用する. ## 8.2 著者・読者表現推定実験結果と考察 DDLC に対して, 著者表現および読者表現を推定した結果を表 12 に示す.ここで, 著者表現と読者表現は独立に推定しているため, 評価も独立して行った. 著者・読者表現はそれぞれ各文書で最大 1 つと仮定されているため, 著者・読者表現推定は文書ごとの多値分類問題といえる. そのため評価は文書単位で行い, 以下のような数式で求めた. 表 12 著者・読者表現推定結果  適合率 $=\frac{\text { システムが著者・読者表現を正しく推定できた文書数 }}{\text { システムが著者・読者表現ありと推定した文書数 }}$ 再現率 $=\frac{\text { システムが著者・読者表現を正しく推定できた文書数 }}{\text { コーパスに著者・読者表現が付与されている文書数 }}$ $ F \text { 値 }=\frac{2 \times \text { 適合率 } \times \text { 再現率 }}{\text { 適合率 }+ \text { 再現率 }} $ 精度 $=\frac{\text { システムが著者・読者表現を正しく推定 } o r \text { 著者・読者表現なし推定できた文書数 }}{\text { 全文書数 }}$ この結果より, 著者・読者表現なしを含めた精度では, 著者において 0.829 , 読者において 0.936 と高い精度を達成できた。一方, 再現率はあまり高くなく, 著者表現で 0.509 , 読者表現で 0.595 であった。これはコーパス全体で著者・読者表現が出現文書より著者・読者表現のない文書の方が多く,学習時に著者・読者表現なしを優先するように学習してしまったためと考えられる.読者において適合率が低いが,これは読者の一部のみを想定した表現を読者表現と推定してしまうことが多かったためと考えられる。 図 8 , 図 9 , 図 10 に誤り例を示す。図 8 では, コーパスでは著者表現が出現しないが誤って 「山形県山上市」を著者表現と推測してしまった.著者表現では固有表現は大きな手掛かりとなり,特に 1 文目に出現する固有表現は著者表現となる傾向が強い.また,文体的に談話構造中に著者が出現するような表現が多用されている.そのため誤って「山形県山上市」を著者表現と推測してしまったと考えられる。 図 9 では,コーパスでは「ジュエリー工房」が著者表現だが,著者表現なしと推定してしまった. この例では「ジュエリー工房」を表現する語彙統語パターンとして利用する部分は,「ジュエリー工房だから」「実現します。」のみであり,手掛かりが少ない.また,「ジュエリー工房」 は固有表現でないことも著者表現であると推定することが困難な原因である。 フットサル東北大会のために山形県山上市に来ています。 今回の試合は 3 年生最後の大会ですので全力で戦ってきます。 試合結果など随時ブログで更新します。 図 8 著者推定誤り例 1 特許取得の手に馴染んで装着しやすいオリジナル結婚指輪が人気です。 リングのサイズ直し/ピアス/ネックレス/ペンダントなどの宝石の修理・加工も承ります。 デザインからお渡しまで一貫したジュエリー工房だから高品質で低価格が実現します。 図 9 著者推定誤り例 2 メイクブラシをご購入頂いたお客様から「お手入れはどうすればいいの?」とお問い合わせを頂きます。 そこで今日から出来る簡単な「日常のお手入れ方法」と「クリーニング方法」をご紹介したいと思います。 「クリーニング」は念のため 2 つの洗浄方法をご案内しましたので順番にチェックして下さいね。 図 10 読者推定誤り例 1 図 10 では,コーパスでは読者表現は出現しないが誤って「お客様」を読者表現と推測してしまった。この例では,文中の「お客様」は読者ではなく過去に質問をした人を指している。このような場合でも,「様」や「頂きます」のような敬語表現を用いることが多い. これらの表現は読者に対しても頻繁に利用されるため, これらの表現が用いられている「お客様」を著者表現と推定してしまったと考えられる. ## 8.3 ゼ口照応解析結果と考察 DDLC に対してゼロ照応解析を行った. ベースラインは 4 節で述べた外界ゼロ照応および著者・読者表現を考慮しないモデルである.提案モデルは 7 節で述べたモデルである.「提案モデル (推定)」は 6 節で述べた手法により自動推定した著者・読者表現を利用したものである.「提案モデル (正解)」は著者・読者表現についてはコーパスの正解を与えたものである.評価は各 用言の各格ごとに行い,ある格に複数の正解が付与されている場合は,そのうちの 1 つと一致すれば正解とした,また,先に述べたように,著者・読者表現がある場合には [著者]・[読者]より著者・読者表現を照応先として優先するとしたが,提案モデル (推定)において,著者・読者表現がある文書に対して著者・読者表現なし,と推定してしまった場合,本来著者・読者表現があるにも関わらず,[著者]・[読者]を割り当てる場合がある。ここでは, ベースラインとの比較のため, このようなものは誤りとして扱った. 表 13 はベースラインとの比較のために, 文章内ゼロ照応のみで評価した結果であり, 表 14 は外界ゼロ照応を含めた全てのゼロ照応で評価を行った結果である。 この結果から,ゼロ照応解析において外界ゼロ照応および著者・読者表現を考慮することで,外界を含めたゼロ照応全体だけでなく, 照応先が文章内に出現する文章内ゼロ照応においても再現率・適合率が向上することが分かる,文章内ゼロ照応での評価において,提案モデルは推定した著者・読者表現を利用した場合において, ベースラインのモデルよりも適合率, 再現率ともに向上していることが分かる。適合率が向上している原因としては,必須的な格を埋める際に,無理に文章内から選択せず外界の談話要素を選択することができること,敬語などの表現の際に著者表現や読者表現を照応先として選択できることが考えられる.例えば,図 11 では, 表 13 文章内ゼロ照応解析結果 表 14 全ゼロ照応解析結果 フレッツ光をはじめるために押さえておきたいポイントをで案内します。 ご利用中の回線から、フレッツ光へ乗り換える方法をご案内します。 あなたにぴったりなプロバイダー選びをお手伝いします。 図 11 提案モデルによりゼロ照応解析が改善した例 1 ガ格ではべースラインでは「あなた」を対応付けているが,提案モデルでは [著者] を対応付けることで文章内照応に限っても再現率・適合率が向上している.また,敬語表現に対して二格を読者表現の「あなた」を正しく対応付けることができるようになった. 再現率が向上する原因としては,ベースラインモデルでは学習の際に外界照応をゼロ代名詞なしと学習してしまうため, 必須的な格でも必ずしも対応付ける必要がないと学習してしまうが, 提案手法では必須的な格はなるべく埋めるように学習するためである. 例えば図 12 では, ベースラインモデルでは必須的な格であるガ格に何も対応付けていない,一方,提案手法ではガ格に対して「神さま」を対応付けることができた. 正解の著者・読者表現を与えた場合には,再現率,適合率ともに大きく向上している。このことから著者・読者表現の推定精度を向上させることで,ゼロ照応解析の再現率・適合率がより向上すると考えられる. 格ごとに評価を行った結果を表 15 ,表 16 ,表 17 ,表 18 ,表 19 ,表 20 ,表 21 ,表 22 に示す.表 15 ,表 16 から,ガ格において特に提案手法により再現率,適合率が共に向上したことが分かる。これは,ガ格では特に著者に関するゼロ照応が多いこと,外界ゼロ照応を考慮することでほぼ全てのガ格がゼロ代名詞を持つことが原因と考えられる。表 19 , 表 20 から,二格において むかしむかし、この世界をつくったインデアンの神さまが旅にでました。 そして、雪がいっぱいつもった村にきました。 村にはいると、おばあさんがないています。 図 12 提案モデルによりゼロ照応解析が改善した例 2 表 15 文章内ゼロ照応解析結果 (ガ格) 表 16 全ゼロ照応解析結果 (ガ格) 表 17 文章内ゼロ照応解析結果 (ヲ格) 表 19 文章内ゼロ照応解析結果 (二格) 表 21 文章内ゼロ照応解析結果 (ガ 2 格) 表 18 全ゼロ照応解析結果 (ヲ格) 表 20 全ゼロ照応解析結果 (二格) 表 22 全ゼロ照応解析結果 (ガ 2 格) も提案手法により再現率, 適合率が共に向上したことが分かる。特に適合率が大きく向上しており,これはニ格は用言の受け手(「紹介します」の二格など)となることや謙譲語の敬意を示す対象(「お届けします」)となることが多く,読者の情報が照応先推定に大きく寄与したためと考えられる。一方,表 17 , 表 18 から,丹格では適合率が向上しているものの,再現率が低下していることが分かる。ヲ格は著者・読者に関するゼロ照応が少なく, 外界ゼロ照応の割合も少ないことから提案手法が有効に働かなかったものと考えられる。適合率が向上し,再現率が低下した要因としては格フレームの選択誤りが考えられる。格フレームの用例選択においては特にヲ格が重要な役割を持っており,ヲ格が省略された場合には正しい格フレームを選択することが困難となる。特に他の格が外界ゼロ照応となる場合には, ベースライン手法では他の格の割り当てを考慮せずに,照応先候補の中にチ格として対応するものが存在する格フレームを選択することが多い.この場合,格フレームとしてはヨ格に対応付けられることが妥当であるが,文脈的には正しくないものも含まれるので,再現率は高くなるが適合率が低くなると考えられる,一方,外界ゼロ照応を考える場合には,ガ格が格フレームに適合するかを考慮する必要があるため, 述語項構造全体として適切な格フレームを選択できない場合がある。その場合には, ヲ格には適切な照応先がないと判断されてしまうので,再現率が低下していると考えられる,表 21 , 表 22 からガ 2 格はベースライン, 提案手法ともにほぼ推定できていないことが分かる. これは, ガ 2 格のゼロ照応での出現が非常に少なく学習時にガ 2 格を割り当てる必要 がないと判断されることと,ガ 2 格を持つ格フレームが少ないことが原因である. 提案手法で誤った例を図 13 と図 14 に示す。図 13 では,提案手法は「捻出しなければならない」のガ格に [不特定:人] を対応付けてしまった。これは,「提出する」の格フレームではガ格 最も事業仕分けが必要なのは「国」です。 国の事業には、省庁縦割りや前例踏襲主義などの弊害により、まだまだ無駄があります。 これらを少しでも減らして、必要な事業に資金を捻出しなければなりません。 \\ 図 13 提案モデルの誤り例 1 在福岡モンゴル国名誉領事館の公式ホームページを開設しました。 当名誉領事館の概要、九州沖縄・モンゴル友好協会のイベント情報や活動状況などを掲載してまいります。 なお、段階的にページメニューを作成することとしておりますので、何かとご不便をおかけしますが、よろしくお願い申し上げます。 図 14 提案モデルの誤り例 2 表 23 正解の条件を緩めて評価した結果 に「国」を対応付ける用例が少なかったため,「国」ではなく外界の [不特定:人] を対応付けることを選択してしまったためである。 図 14 は著者表現の推定誤りがゼロ照応解析の誤りの原因である.この文章では著者表現が 「領事館」であるため,「開設しました」のガ格には「領事館」を対応付けなければならない.しかし, 提案手法では誤って著者表現なしと推定してしまったため,「領事館」を対応付けることができず,[著者]を対応付けてしまった。しかし,このような誤りは著者がが格であるということは推定できているため厳密には誤りとは言えない,そこで,このような著者・読者表現を対応付けるべき格に対して [著者], [読者] を対応付けてしまった場合にも正解とみなして評価を行った結果を表 23 に示す。表 23 と表 13 および表 14 を比較すると,正解の条件を緩めた場合に再現率, 適合率共に大きく向上している。このことから,提案モデル (推定)の誤りの多くが図 14 のように著者・読者表現の推定が誤りといえる。一方,正解の条件を緩和させた場合でも提案モデル (コーパス著者・読者表現)よりは低い再現率と適合率となっている。これらの差は,解析時に正しい著者・読者表現を利用できる場合には $\phi_{\text {mentioned }}$ および $\phi_{\text {[著者] }}$ または $\phi_{\text {[読者] }}$ を素性として利用しているが, 解析後に著者・読者表現の情報から [著者], [読者]を正解とする場合には, 解析時には $\phi_{\text {[著者], }} \phi_{\text {[読者] }}$ みを利用していることである。このことから, 提案手法のように著者・読者表現に対して文章中に言及される談話要素と仮想的な談話要素の両方の性質を与えることが有効といえる。 ## 8.4 京都大学テキストコーパスでの実験 DDLC は先頭 3 文のみで構成されており,文章全体でゼロ照応解析を行った場合の影響が調査できない。そこで,文章全体での本手法の精度を調査するために京都大学テキストコーパスを利用した実験を行った.実験では京都大学テキストコーパスのゼロ照応関係が付与された 567 文書のうち, 454 文書を訓練に,113 文書を評価に利用した.京都大学テキストコーパスには著者・読者表現が付与されていないため, 全ての文書において著者・読者表現が存在しないと仮定して実験を行った。その結果を表 24 と表 25 に示す。この結果から,提案モデルはベースラインモデルに比べ大きく $\mathrm{F}$ 值が向上したとは言い難い. これは, 京都大学テキストコーパスを構成している新聞記事は,著者・読者が談話に登場することが稀であることが大きな原因である。提案手法では, 特に著者・読者に着目しており, そのために外界ゼロ照応を扱ったが,著者・読者が談話に出現しない場合,外界ゼロ照応を扱うことの寄与度は低いことが分かる。 表 24 京都大学テキストコーパスにおける文章内ゼロ照応解析結果 表 25 京都大学テキストコーパスにおける全ゼロ照応解析結果 一方,文章全体における $\mathrm{F}$ 值がベースラインとほぼ同等であり,提案手法を文章全体適用した場合についても,悪影響などはないと言える。これらの考察から,提案手法を著者・読者が談話に出現する文章の全体に対して適用した場合,先頭 3 文における実験結果と同様に精度が向上するものと考えられる。 ## 9 まとめ 本論文では,外界ゼロ照応および著者・読者表現を考慮した日本語ゼロ照応解析モデルを提案した。 ゼロ照応解析の前処理として文章中の著者・読者表現を語彙統語パターンを用いて自動的に判別し, ゼロ照応解析において他の談話要素と区別して扱った.DDLCを用いた実験の結果, 外界ゼロ照応だけでなく, 文章内ゼロ照応においても提案手法を用いることで,高い精度が得られた。 今後の課題としては,著者・読者表現の精度向上が挙げられる,本研究では,テキストの内容のみから著者・読者表現推定を行ったが,実際の解析では Web 特有の情報(URL や HTML タグ)が利用できる。これらの情報は,URLのドメインに含まれる表現は著者表現である可能性が高い, .com ドメインでは客が読者表現になりやすい,など,著者・読者表現推定において有用であると考えれられる。 ゼロ照応解析の精度向上では,事態間関係知識の利用などが考えられる.例えば,「Aを食べた $\leftarrow$ A が美味しかった」といった関係が分かっていれば,「チョコを食べたが (チョコガ) 美味しかった」の「美味しかった」のゼロ照応解析で手掛かりになると考えられる. ## 参考文献 Gerber, M. and Chai, J. (2010). "Beyond NomBank: A Study of Implicit Arguments for Nominal Predicates." In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, pp. 1583-1592, Uppsala, Sweden. Association for Computational Linguistics. Hangyo, M., Kawahara, D., and Kurohashi, S. (2012). "Building a Diverse Document Leads Corpus Annotated with Semantic Relations." In Proceedings of the 26th Pacific Asia Conference on Language, Information, and Computation, pp. 535-544, Bali,Indonesia. Faculty of Computer Science, Universitas Indonesia. Hayashibe, Y., Komachi, M., and Matsumoto, Y. (2011). "Japanese Predicate Argument Structure Analysis Exploiting Argument Position and Type." In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 201-209, Chiang Mai, Thailand. Asian Federation of Natural Language Processing. Herbrich, R., Graepel, T., Bollmann-Sdorra, P., and Obermayer, K. (1998). "Learning Preference Relations for Information Retrieval." In ICML-98 Workshop: Text Categorization and Machine Learning, pp. 80-84. Iida, R., Inui, K., and Matsumoto, Y. (2006). "Exploiting Syntactic Patterns as Clues in ZeroAnaphora Resolution." In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 625-632, Sydney, Australia. Association for Computational Linguistics. Iida, R., Inui, K., and Matsumoto, Y. (2009). "Capturing Salience with a Trainable Cache Model for Zero-anaphora Resolution." In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP, pp. 647-655, Suntec, Singapore. Association for Computational Linguistics. Iida, R., Komachi, M., Inui, K., and Matsumoto, Y. (2007). "Annotating a Japanese Text Corpus with Predicate-Argument and Coreference Relations." In Proceedings of the Linguistic Annotation Workshop, pp. 132-139, Prague, Czech Republic. Association for Computational Linguistics. Imamura, K., Saito, K., and Izumi, T. (2009). "Discriminative Approach to Predicate-Argument Structure Analysis with Zero-Anaphora Resolution." In Proceedings of the ACL-IJCNLP 2009 Conference Short Papers, pp. 85-88, Suntec, Singapore. Association for Computational Linguistics. 磯崎秀樹, 賀沢秀人, 平尾努 (2006). 辞書式順序を持つペナルティによるゼロ代名詞解消. 情報処理学会論文誌, 47 (7), pp. 2279-2294. Joachims, T. (2002). "Optimizing Search Engines using Clickthrough Data." In Proceedings of the 8th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 133-142. ACM. 河原大輔, 黒橋禎夫 (2007). 自動構築した大規模格フレームに基づく構文・格解析の統合的確率モデル. 自然言語処理, $\mathbf{1 4}(4)$, pp. 67-81. Kawahara, D. and Kurohashi, S. (2006). "A Fully-Lexicalized Probabilistic Model for Japanese Syntactic and Case Structure Analysis." In Proceedings of the Human Language Technology Conference of the NAACL, Main Conference, pp. 176-183, New York City, USA. Association for Computational Linguistics. Kawahara, D., Kurohashi, S., and Hasida, K. (2002). "Construction of a Japanese Relevancetagged Corpus." In Proceedings of The 3rd International Conference on Language Resources Evaluation. Kong, F. and Zhou, G. (2010). "A Tree Kernel-Based Unified Framework for Chinese Zero Anaphora Resolution." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 882-891, Cambridge, MA. Association for Computational Linguistics. 村田真樹,長尾真 (1997). 用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定. 自然言語処理, 4 (1), pp. 87-109. Poesio, M., Uryupina, O., and Versley, Y. (2010). "Creating a Coreference Resolution System for Italian." In Proceedings of the 7th Conference on International Language Resources and Evaluation (LREC'10), Valletta, Malta. European Language Resources Association (ELRA). Rello, L., Baeza-Yates, R., and Mitkov, R. (2012). "Elliphant: Improved Automatic Detection of Zero Subjects and Impersonal Constructions in Spanish." In Proceedings of the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 706-715. Association for Computational Linguistics. Ruppenhofer, J., Sporleder, C., Morante, R., Baker, C., and Palmer, M. (2010). "SemEval-2010 Task 10: Linking Events and Their Participants in Discourse." In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 45-50, Uppsala, Sweden. Association for Computational Linguistics. Sasano, R., Kawahara, D., and Kurohashi, S. (2008). "A Fully-Lexicalized Probabilistic Model for Japanese Zero Anaphora Resolution." In Proceedings of the 22nd International Conference on Computational Linguistics (Coling 2008), pp. 769-776, Manchester, UK. Coling 2008 Organizing Committee. Sasano, R. and Kurohashi, S. (2011). "A Discriminative Approach to Japanese Zero Anaphora Resolution with Large-scale Lexicalized Case Frames." In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 758-766, Chiang Mai, Thailand. Asian Federation of Natural Language Processing. 平博順, 永田昌明 (2013). 述語項構造解析を伴った日本語省略解析の検討. 言語処理学会第 19 回年次大会発表論文集, pp. 106-109. 山本和英,隅田英一郎 (1999). 決定木学習による日本語対話文の格要素省略補完. 自然言語処理, 6 (1), pp. 3-28. ## 略歴 萩行正嗣:2008 年京都大学工学部電気電子工学科卒業. 2010 年同大学大学院情報学研究科修士課程修了. 2014 年同大学院博士後期課程修了. 博士(情報学). 現在, 株式会社ウェザーニューズ所属. 河原大輔:1997 年京都大学工学部電気工学第二学科卒業. 1999 年同大学院修士課程修了. 2002 年同大学院博士課程単位取得認定退学. 東京大学大学院情報理工学系研究科学術研究支援員, 独立行政法人情報通信研究機構研究員, 同主任研究員を経て,2010 年より京都大学大学院情報学研究科准教授. 自然言語処理, 知識処理の研究に従事. 博士 (情報学). 言語処理学会, 情報処理学会, 人工知能学会, 電子情報通信学会, ACL, 各会員. 黒橋禎夫:1994 年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士 (工学)。2006 年 4 月より京都大学大学院情報学研究科教授. 自然言語処理, 知識情報処理の研究に従事. 言語処理学会 10 周年記念論文賞等を受賞. $(2013$ 年 12 月 3 日 $\quad$ 受付 $)$ $(2014$ 年 2 月 7 日 $\quad$ 再受付 $)$ $(2014$ 年 3 月 14 日 $\quad$ 再々受付 $)$ $(2014$ 年 4 月 8 日 $\quad$ 採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 共変量シフトの問題としての語義曖昧性解消の領域適応 新納 浩幸 $\cdot$ 佐々木 稔 $\dagger$ } 本稿では語義曖昧性解消 (Word Sense Disambiguation, WSD) の領域適応が共変量シ フトの問題と見なせることを示し, 共変量シフトの解法である確率密度比を重みにし たパラメータ学習により,WSD の領域適応の解決を図る。共変量シフトの解法では 確率密度比の算出が鍵となるが, ここでは Naive Bayes で利用されるモデルを利用し た簡易な算出法を試みた。そして素性空間拡張法により拡張されたデータに対して,共変量シフトの解法を行う.この手法を本稿の提案手法とする.BCCWJ コーパス の 3 つ領域 OC(Yahoo! 知恵袋),PB(書籍)及び PN(新聞)を選び,SemEval-2 の日本語 WSD タスクのデータを利用して, 多義語 16 種類を対象に, WSD の領域適応の実験を行った. 実験の結果, 提案手法は Daumé の手法と同等以上の正解率 を出した. 本稿で用いた簡易な確率密度比の算出法であっても共変量シフトの解法 を利用する効果が高いことが示された。より正確な確率密度比の推定法を利用した り, 最大エントロピー法の代わりにSVM を利用するなどの工夫で更なる改善が可能である。また教師なし領域適応へも応用可能である. WSD の領域適応に共変量 シフトの解法を利用することは有望であると考えられる。 キーワード:語義曖昧性解消, 領域適応, 共変量シフト, Daumé の手法, BCCWJコーパス ## Domain Adaptations for Word Sense Disambiguation under the Problem of Covariate Shift \author{ Hiroyuki ShinNou $^{\dagger}$ and Minoru Sasaki ${ }^{\dagger}$ } In this report, we show that the problem of domain adaptation for word sense disambiguation (WSD) can be treated as a covariate shift problem, and we try to solve it by maximizing the log-likelihood by weighting the probability density ratio, which is the standard solution of covariate shift. The key to solving this problem lies in the estimation of the probability density ratio. We estimate the probability density ratio using simple method employing the Naive Bayes model. In our proposed method, we apply the covariate shift method to the training data expanded by the Daumé's feature augmentation method. In the experiment, we solve six types of domain adaptations for WSD using three domains, viz., OC (Yahoo! Chiebukuro), PB (Book), and PN (Newspaper) in the BCCWJ corpus. The results show that our proposed method outperforms the Daumé's method. This report shows that even our simple method of estimating the probability density ratio is effective for use in the covariate shift method. In future, we intend to investigate and find a method of estimating the probability density ratio more accurately. Further, we intend to use the SVM instead  of the maximum entropy method. Moreover, the method of covariate shift is also effective for unsupervised domain adaptations and is a promising approach for WSD domain adaptations. Key Words: word sense disambiguation, domain adaptation, covariate shift, Daumé's method, BCCWJ corpus ## 1 はじめに 本稿では語義曖昧性解消 (Word Sense Disambiguation, WSD) をタスクとした領域適応の問題が共変量シフトの問題と見なせることを示す. そして共変量シフトの解法である確率密度比を重みにしたパラメータ学習により,WSD の領域適応の解決を図る。共変量シフトの解法では確率密度比の算出が鍵となるが,ここでは Naive Bayes で利用されるモデルを利用した簡易な算出法を試みた。そして素性空間拡張法により拡張されたデータに対して,共変量シフトの解法を行う。この手法を本稿の提案手法とする. 自然言語処理の多くのタスクにおいて帰納学習手法が利用される。そこではコーパス $S$ からタスクに応じた訓練データを作成し, その訓練データから分類器を学習する。 そしてこの分類器を利用することで当初のタスクを解決する。このとき実際のタスクとなるデータはコーパス $S$ とは領域が異なるコーパス $T$ のものであることがしばしば起こる。この場合,コーパス $S$ (ソー ス領域)から学習された分類器では,コーパス $T$ (ターゲット領域)のデータを精度良く解析することができない問題が生じる。これが領域適応の問題であり 1 , 近年活発に研究が行われている (Sogaard 2013). WSD は文 $\boldsymbol{x}$ 内の多義語 $w$ の語義 $c \in C$ を識別する問題である. $P(c \mid \boldsymbol{x})$ を文 $\boldsymbol{x}$ 内の単語 $w$ の語義が $c$ である確率とすると, 確率統計的には $\arg \max _{c \in C} P(c \mid \boldsymbol{x})$ を解く問題といえる. 例えば単語 $w=$ 「ボタン」には少なくとも $c_{1}$ : 服のボタン, $c_{2}$ : スイッチのボタン, $c_{3}$ : 花のボタン (牡丹), の 3 つの語義がある。そして文 $\boldsymbol{x}=$ 「シャツのボタンが取れた」が与えられたときに,文中の「ボタン」が $C=\left.\{c_{1}, c_{2}, c_{3}\right.\}$ 内のどれかを識別する. 直接的には教師付き学習手法を用いて $P(c \mid \boldsymbol{x})$ を推定して解くことになる. WSD の領域適応の問題は, 前述したように, 教師付き学習手法を利用する際に学習もとのソース領域のコーパス $S$ と, 分類器の適用先であるター ゲット領域のコーパス $T$ が異なる問題である。領域適応ではソース領域 $S$ から $S$ 上の条件付き分布 $P_{S}(c \mid \boldsymbol{x})$ は学習できるという設定なので, $P_{S}(c \mid \boldsymbol{x})$ やその他の情報を利用して, ターゲット領域 $T$ 上の条件付き分布 $P_{T}(c \mid \boldsymbol{x})$ を推定できれば良い. ここで「シャツのボタンが取れた」という文中の「ボタン」の語義は, この文がどのような領域のコーパスに現れても変化するとは考えづらい。つまり $P_{T}(c \mid \boldsymbol{x})$ は領域に依存していないため, $P_{S}(c \mid \boldsymbol{x})=P_{T}(c \mid \boldsymbol{x})$ が成立していると  考えられる。今 $P_{S}(c \mid \boldsymbol{x})$ は推定できるので, $P_{S}(c \mid \boldsymbol{x})=P_{T}(c \mid \boldsymbol{x})$ が成立していれば, $P_{T}(c \mid \boldsymbol{x})$ を推定する必要はないように見える。ただしソース領域だけを使って推定した $P_{S}(c \mid \boldsymbol{x})$ では,実際の識別精度は低い場合が多い。それは $P_{S}(\boldsymbol{x}) \neq P_{T}(\boldsymbol{x})$ から生じている. $P_{S}(c \mid \boldsymbol{x})=P_{T}(c \mid \boldsymbol{x})$ だが $P_{S}(\boldsymbol{x}) \neq P_{T}(\boldsymbol{x})$ という仮定の下で, $P_{T}(c \mid \boldsymbol{x})$ を推定する問題は共変量シフトの問題 (Shimodaira 2000; 杉山 2006; Sugiyama and Kawanabe 2011)である。本稿では WSD の領域適応の問題を共変量シフトの問題として捉え,共変量シフトの解法を利用してWSD の領域適応を解決することを試みる。 訓練データを $D=\left.\{\left(\boldsymbol{x}_{\boldsymbol{i}}, c_{i}\right)\right.\}_{i=1}^{N}$ とする。共変量シフトの標準的な解法では $P_{T}(c \mid \boldsymbol{x})$ に確率モデル $P(c \mid \boldsymbol{x} ; \boldsymbol{\theta})$ を設定し, 次に確率密度比 $r\left(\boldsymbol{x}_{\boldsymbol{i}}\right)=P_{T}\left(\boldsymbol{x}_{\boldsymbol{i}}\right) / P_{S}\left(\boldsymbol{x}_{\boldsymbol{i}}\right)$ を重みにした以下の対数尤度を最大にする $\boldsymbol{\theta}$ を求めることで, $P_{T}(c \mid \boldsymbol{x})$ を構築する. $ \sum_{i=1}^{N} r\left(\boldsymbol{x}_{\boldsymbol{i}}\right) \log P\left(c_{i} \mid \boldsymbol{x}_{\boldsymbol{i}} ; \boldsymbol{\theta}\right) $ また領域適応に対しては Daumé の手法 (Daumé 2007) が非常に簡易でありながら,効果が高い手法として知られている。 Daumé の手法は, データの表現を領域適応に効果が出るように拡張し, 拡張されたデータを用いて SVM 等の学習手法を利用する手法である。ここでは拡張する手法を「素性空間拡張法 (Feature Augmentation)」と呼び,拡張されたデータを用いて SVM などで識別までを行う手法を「Daumé の手法」と呼ぶことにする。拡張されたデータに対しては任意の学習手法が利用できる。つまり素性空間拡張法により拡張されたデー夕に対して, 共変量シフトによる解法を利用することも可能である. 本稿ではこの手法を提案手法とする. 実験では現代日本語書き言葉均衡コーパス(BCCWJ コーパス (Maekawa 2007))における 3 つの領域 OC(Yahoo! 知恵袋), PB(書籍)及び PN(新聞)を利用する.SemEval-2 の日本語 WSD タスク (Okumura, Shirai, Komiya, and Yokono 2010) ではこれらのコーパスの一部に語義夕グを付けたデータを公開しており,そのデータを利用する。すべての領域である程度の頻度が存在する多義語 16 単語を対象にして,WSD の領域適応の実験を行う.領域適応としては $\mathrm{OC} \rightarrow \mathrm{PB}, \mathrm{PB} \rightarrow \mathrm{PN}, \mathrm{PN} \rightarrow \mathrm{OC}, \mathrm{OC} \rightarrow \mathrm{PN}, \mathrm{PN} \rightarrow \mathrm{PB}, \mathrm{PB} \rightarrow \mathrm{OC}$ の計 6 通りが存在する. 結果 $16 \times 6=96$ 通りの WSD の領域適応の問題に対して実験を行った. その結果,提案手法は Daumé の手法と同等以上の正解率を出した. 本稿で用いた簡易な確率密度比の算出法であっても共変量シフトの解法を利用する効果が高いことが示された。より正確な確率密度比の推定法を利用したり,SVM を利用するなどの工夫で更なる改善が可能である。また教師なし領域適応へも応用可能である.WSD の領域適応に共変量シフトの解法を利用することは有望であると考えられる. ## 2 関連研究 自然言語処理における領域適応は, 帰納学習手法を利用する全てのタスクで生じる問題であるために,その研究は多岐にわたる。利用手法をおおまかに分類すると, ターゲット領域のラベル付きデータを利用するかしないかで分類できる. 利用する場合を教師付き領域適応手法,利用しない場合を教師なし領域適応手法と呼ぶ. 本稿における手法は教師付き領域適応手法の範疇に入るので,ここでは提案手法に関連する教師付き領域適応手法の従来研究を述べる. 教師付き領域適応手法においては, 一般に,ターゲット領域の知識は使えるだけ使えばよいはずなので,ポイントはソース領域の知識の利用方法にある。ソース領域とターゲット領域間の距離が離れすぎている場合, ソース領域の知識を使いすぎると分類器の精度が悪化する現象がおこる。これは負の転移 (Rosenstein, Marx, Kaelbling, and Dietterich 2005) と呼ばれている.負の転移を避けるには, 本質的に, ソース領域とターゲット領域間の距離を測り,その距離を利用してソース領域の知識の利用を制御する形となる. Asch は品詞タグ付けをタスクとして領域間の類似性を測り,その類似度から領域適応を行った際に精度がどの程度悪くなるかを予測できることを示した (Van Asch and Daelemans 2010).張本は構文解析をタスクとしてターゲット領域を変化させたときの精度低下の要因を調査し, そこから新たな領域間の類似性の尺度を提案している (張本, 宮尾, 辻井 2010). Plank は構文解析をタスクとして領域間の類似性を測ることで,ターゲット領域を解析するのに最も適したソース領域を選んでいる (Plank and van Noord 2011). Ponomareva (Ponomareva and Thelwall 2012) や Remus (Remus 2012) は感情極性分類をタスクとして領域間の類似度を学習中のパラメータに利用した。これらの研究はタスク毎に類似性を測るが, WSD がタスクの場合, 領域間の類似性は WSD の対象単語に依存していると考えられる。古宮は対象単語每に領域間の距離 古宮, 奥村 2012). 上記した古宮の一連の研究は広い意味でアンサンブル学習の一種である。 そこでアンサンブルされる各要素となる学習手法をみるとソース領域のデータとターゲット領域のデータへの各重みが異なるだけである。つまり領域適応においてはソース領域のデータとターゲット領域のデー タへの各重みを調整して,学習手法を適用するというアプローチが有力である. Jiang (Jiang and Zhai 2007) は $P_{S}(c \mid \boldsymbol{x})$ と $P_{T}(c \mid \boldsymbol{x})$ との差が極端に大きいデータを “misleading”データとして訓練データから取り除いて学習することを試みた。これは “misleading”データの重みを 0 にした学習と見なせるため, この手法も重み付けの手法と見なせる. 本稿で利用する共変量シフト下での学習もこの範疇の手法といえる.  素性空間拡張法 (Daumé 2007) も重み付け手法である. ただしデータではなくデータ中の素性に重みをつける。そこではソース領域の訓練データのベクトル $x_{s}$ を $\left(x_{s}, x_{s}, 0\right)$ と連結した 3 倍の長さのベクトルに直し, ターゲット領域の訓練データのベクトル $x_{t}$ を $\left(0, x_{t}, x_{t}\right)$ と連結した 3 倍の長さのべクトルに直す。ここで 0 は $\boldsymbol{x}_{s}$ や $\boldsymbol{x}_{\boldsymbol{t}}$ と同じ次元数であり,しかもすべての次元の值が 0 であるようなべクトルである. この 3 倍にしたべクトルを用いて,通常の分類問題として解く.この手法は非常に簡易でありながら,効果が高い手法として知られている。この拡張手法はソース領域とターゲット領域に共通している特徴が重なることで,結果として共通している特徴の重みがつくことで領域適応に効果が出ると考えられる。 また領域適応の問題を共変量シフト下の学習を用いて解決する研究としては, Jiang の研究 (Jiang and Zhai 2007) と齋木の研究 (齋木, 高村, 奥村 2008) がある. Jiang は確率密度比を手動で調整し,モデルにはロジステック回帰を用いている。また齋木は $P(\boldsymbol{x})$ を unigram でモデル化することで確率密度比を推定し, モデルには最大エントロピー法のモデルを用いている。 たたしどちらの研究もタスクは WSDではない. また共変量シフト下では $P_{S}(c \mid \boldsymbol{x})=P_{T}(c \mid \boldsymbol{x})$ を仮定するが, $P_{S}(\boldsymbol{x} \mid c)=P_{T}(\boldsymbol{x} \mid c)$ を仮定するアプローチもある。この場合, ベイズの定理から $ \begin{aligned} \arg \max _{c \in C} P_{T}(c \mid \boldsymbol{x}) & =\arg \max _{c \in C} P_{T}(c) P_{T}(\boldsymbol{x} \mid c) \\ & =\arg \max _{c \in C} P_{T}(c) P_{S}(\boldsymbol{x} \mid c) \end{aligned} $ となるので領域適応の問題は $P_{T}(c)$ の推定に帰着できる. 実際, Chan らは $P_{S}(\boldsymbol{x} \mid c)$ と $P_{T}(\boldsymbol{x} \mid c)$ の違いの影響は非常に小さいと考え, $P_{S}(\boldsymbol{x} \mid c)=P_{T}(\boldsymbol{x} \mid c)$ を仮定し, $P_{T}(c)$ を $\mathrm{EM}$ アルゴリズムで推定することで WSD の領域適応を行っている (Chan and Ng 2005, 2006). 更に新納らは $P_{S}(\boldsymbol{x} \mid c)=P_{T}(\boldsymbol{x} \mid c)$ の仮定があったとしても,コーパスのスパース性から単純に $P_{T}(\boldsymbol{x} \mid c)$ を $P_{S}(\boldsymbol{x} \mid c)$ で置き換えることはできないと考え, $P_{T}(c)$ の推定の問題と $P_{T}(\boldsymbol{x} \mid c)$ の推定の問題を個別に対処することを提案している (新納, 佐々木 2013). ## 3 期待損失最小化からみた共変量シフト 対象単語 $w$ の語義の集合を $C$, また $w$ の用例 $\boldsymbol{x}$ 内の $w$ の語義を $c$ と識別したときの損失関数を $l(\boldsymbol{x}, c, d)$ で表す. $d$ は $w$ 語義を識別する分類器である. $P_{T}(\boldsymbol{x}, c)$ をターゲット領域上の分布とすれば,領域適応の問題における期待損失 $L_{0}$ は以下で表せる. $ L_{0}=\sum_{\boldsymbol{x}, c} l(\boldsymbol{x}, c, d) P_{T}(\boldsymbol{x}, c) $ また $P_{S}(\boldsymbol{x}, c)$ をソース領域上の分布とすると以下が成立する. $ L_{0}=\sum_{\boldsymbol{x}, c} l(\boldsymbol{x}, c) \frac{P_{T}(\boldsymbol{x}, c)}{P_{S}(\boldsymbol{x}, c)} P_{S}(\boldsymbol{x}, c) $ ここで共変量シフトの仮定から $ \frac{P_{T}(\boldsymbol{x}, c)}{P_{S}(\boldsymbol{x}, c)}=\frac{P_{T}(\boldsymbol{x}) P_{T}(c \mid \boldsymbol{x})}{P_{S}(\boldsymbol{x}) P_{S}(c \mid \boldsymbol{x})}=\frac{P_{T}(\boldsymbol{x})}{P_{S}(\boldsymbol{x})} $ となり, $r(\boldsymbol{x})=P_{T}(\boldsymbol{x}) / P_{S}(\boldsymbol{x})$ とおくと以下が成立する. $ L_{0}=\sum_{\boldsymbol{x}, c} r(\boldsymbol{x}) l(\boldsymbol{x}, c, d) P_{S}(\boldsymbol{x}, c) $ 訓練データを $D=\left.\{\left(\boldsymbol{x}_{\boldsymbol{i}}, c_{i}\right)\right.\}_{i=1}^{N}$ とし, $P_{S}(\boldsymbol{x}, c)$ を経験分布で近似すれば, $ L_{0} \approx \frac{1}{N} \sum_{i=1}^{N} r\left(\boldsymbol{x}_{\boldsymbol{i}}\right) l\left(\boldsymbol{x}_{\boldsymbol{i}}, c_{i}, d\right) $ となるので, 期待損失最小化の観点から考えると, 共変量シフトの問題は以下の式 $L_{1}$ を最小にする $d$ を求めればよいことがわかる. $ L_{1}=\sum_{i=1}^{N} r\left(\boldsymbol{x}_{\boldsymbol{i}}\right) l\left(\boldsymbol{x}_{\boldsymbol{i}}, c_{i}, d\right) $ ## 4 重み付き対数尤度の最大化 分類器 $d$ として以下の事後確率最大化推定に基づく識別を考える. $ d(\boldsymbol{x})=\arg \max _{c} P_{T}(c \mid \boldsymbol{x}) $ また損失関数として対数損失 $-\log P_{T}(c \mid \boldsymbol{x})$ を用いれば,式 (1) は以下となる. $ L_{1}=-\sum_{i=1}^{N} r\left(\boldsymbol{x}_{\boldsymbol{i}}\right) \log P_{T}\left(c \mid \boldsymbol{x}_{\boldsymbol{i}}\right) $ つまり, 分類問題の解決に $P_{T}(c \mid \boldsymbol{x}, \boldsymbol{\lambda})$ のモデルを導入するアプローチを取る場合, 共変量シフト下での学習では, 確率密度比を重みとした以下に示す重み付き対数尤度 $L(\boldsymbol{\lambda})$ を最大化するパ $ L(\boldsymbol{\lambda})=\sum_{i=1}^{N} r\left(\boldsymbol{x}_{\boldsymbol{i}}\right) \log P\left(c_{i} \mid \boldsymbol{x}_{\boldsymbol{i}}, \boldsymbol{\lambda}\right) $ ここではモデルとして以下の式で示される最大エントロピー法を用いる. $ P_{T}(c \mid \boldsymbol{x}, \boldsymbol{\lambda})=\frac{1}{Z(\boldsymbol{x}, \boldsymbol{\lambda})} \exp \left(\sum_{j=1}^{M} \lambda_{j} f_{j}(\boldsymbol{x}, c)\right) $ $\boldsymbol{x}=\left(x_{1}, x_{2}, \cdots, x_{M}\right)$ が入力で $c$ がクラスである. 関数 $f_{j}(\boldsymbol{x}, c)$ は素性関数であり, 実質 $\boldsymbol{x}$ の真のクラスが $c$ のときに $x_{j}$ を返し,そうでないとき 0 を返す関数に設定される, $Z(\boldsymbol{x}, \boldsymbol{\lambda})$ は正規化項であり,以下で表せる. $ Z(\boldsymbol{x}, \boldsymbol{\lambda})=\sum_{c \in C} \exp \left(\sum_{j=1}^{M} \lambda_{j} f_{j}(\boldsymbol{x}, c)\right) $ そして $\boldsymbol{\lambda}=\left(\lambda_{1}, \lambda_{2}, \cdots, \lambda_{M}\right)$ が素性に対応する重みパラメータとなる. 共変量シフト下ではない通常のケースでは, 重みパラメータは最尤法から求める。 つまり, 訓練データ $D=\left.\{\left(\boldsymbol{x}_{\boldsymbol{i}}, c_{i}\right)\right.\}_{i=1}^{N}$ とすると,以下の式 $F(\boldsymbol{\lambda})$ を最大にする $\boldsymbol{\lambda}$ を求める. $ F(\boldsymbol{\lambda})=\sum_{i=1}^{N} \log P\left(c_{i} \mid \boldsymbol{x}_{\boldsymbol{i}}\right) $ これを各 $\lambda_{j}$ で偏微分し極値問題に直すと以下が成立する. $ \frac{\partial F(\boldsymbol{\lambda})}{\partial \lambda_{j}}=\sum_{i=1}^{N} f_{j}\left(\boldsymbol{x}_{\boldsymbol{i}}, c_{i}\right)-\sum_{i=1}^{N} \sum_{c \in C} P_{T}\left(c \mid \boldsymbol{x}_{\boldsymbol{i}}, \boldsymbol{\lambda}\right) f_{j}\left(\boldsymbol{x}_{\boldsymbol{i}}, c\right)=0 $ これを勾配法などで解くことにより $\boldsymbol{\lambda}$ が求まる. 共変量シフト下の学習では式 $(2)$ の $L(\boldsymbol{\lambda})$ を最大にする $\boldsymbol{\lambda}$ を求める. 上記と全く同じ手順で, $ \frac{\partial L(\boldsymbol{\lambda})}{\partial \lambda_{j}}=\sum_{i=1}^{N} r\left(\boldsymbol{x}_{\boldsymbol{i}}\right) f_{j}\left(\boldsymbol{x}_{\boldsymbol{i}}, c_{i}\right)-\sum_{i=1}^{N} \sum_{c \in C} P\left(c \mid \boldsymbol{x}_{\boldsymbol{i}}, \boldsymbol{\lambda}\right) r\left(\boldsymbol{x}_{\boldsymbol{i}}\right) f_{j}\left(\boldsymbol{x}_{\boldsymbol{i}}, c\right)=0 $ が得られる.これを勾配法などで解くことにより $\boldsymbol{\lambda}$ が求まる. 今, 事例 $\boldsymbol{x}_{\boldsymbol{i}}$ の頻度を $h_{i}$ とすると,尤度は以下となる。 $ \prod_{i=1}^{N} P\left(c_{i} \mid \boldsymbol{x}_{\boldsymbol{i}}\right)^{h_{i}} $ 対数を取れば以下が得られる. $ \sum_{i=1}^{N} h_{i} \log P\left(c_{i} \mid \boldsymbol{x}_{\boldsymbol{i}}\right) $ この式は重み付き対数尤度の式 $(2)$ と同じ形なので, 実際に $\boldsymbol{\lambda}$ を求めるためには, 事例 $\boldsymbol{x}_{\boldsymbol{i}}$ の 頻度 $h_{i}$ を $r\left(\boldsymbol{x}_{\boldsymbol{i}}\right)$ と考えて, 最大エントロピー法のツールなどを用いればよい ${ }^{3}$. ## 5 確率密度比の算出 共変量シフト下の学習では確率密度比の算出が鍵である. 直接的には $P_{S}(\boldsymbol{x})$ と $P_{T}(\boldsymbol{x})$ を推定し,その比を取ればよいが, $P_{S}(\boldsymbol{x})$ や $P_{T}(\boldsymbol{x})$ を正確に推定することは困難であり,その比をとれば更に誤差が大きくなると予想できる。そのため確率密度比を直接モデル化して求める手法が活発に研究されている (杉山 2010). ただし本稿では簡易な手法を利用して確率密度比を算出することにした。本稿の目的はこのような簡易な手法による確率密度比の算出法であっても, WSD の領域適応の有力な解法になることを示すことである. 対象単語 $w$ の用例 $\boldsymbol{x}$ の素性リストを $\left.\{f_{1}, f_{2}, \cdots, f_{n}\right.\}$ とする. 求めるのは領域 $R \in\{S, T\}$ 上の $\boldsymbol{x}$ の分布 $P_{R}(\boldsymbol{x})$ である. ここでは Naive Bayes で使われるモデルを用いて算出する. Naive Bayes のモデルでは以下を仮定する. $ P_{R}(\boldsymbol{x})=\prod_{i=1}^{n} P_{R}\left(f_{i}\right) $ 領域 $R$ のコーパス内の $w$ の全ての用例について素性リストを作成しておく. ここで用例の数を $N(R)$ とおく.また $N(R)$ 個の用例の中で,素性 $f$ が現れた用例数を $n(R, f)$ とおく. MAP 推定でスムージングを行い, $P_{R}(f)$ を以下で定義する (高村 2010). $ P_{R}(f)=\frac{n(R, f)+1}{N(R)+2} $ 以上より, ソース領域 $S$ の用例 $\boldsymbol{x}$ に対して, 確率密度比 $r(\boldsymbol{x})=\frac{P_{T}(\boldsymbol{x})}{P_{S}(\boldsymbol{x})}$ が計算できる。 ター ゲット領域 $T$ の用例 $\boldsymbol{x}$ に対しては $r(\boldsymbol{x})=1$ とする。また $r_{x}<0.01$ となる用例 $\boldsymbol{x}$ は訓練データから削除した ${ }^{4}$. ## 6 提案手法 「関連手法」の節で素性空間拡張法を紹介した。素性空間拡張法はデータの表現を領域適応で効果が出るように拡張する手法である。そして拡張されたデータに対しては任意の学習手法  が利用できる。つまり拡張されたデータに対して,共変量シフト下の学習も可能である.本稿では,素性空間拡張法により拡張されたデー夕に対して,4 章で説明した共変量シフト下の学習を行うことを提案手法する。 具体的に示す. 素性空間拡張法により, ソース領域の訓練データ $x_{s}$ は $u_{s}=\left(x_{s}, x_{s}, 0\right)$ という 3 倍の長さのベクトルに拡張され, ターゲット領域の訓練データ $\boldsymbol{x}_{\boldsymbol{t}}$ は $\boldsymbol{u}_{\boldsymbol{t}}=\left(\boldsymbol{0}, \boldsymbol{x}_{\boldsymbol{t}}, \boldsymbol{x}_{\boldsymbol{t}}\right)$ という 3 倍の長さのべクトルに拡張される. ここで $\boldsymbol{u}_{\boldsymbol{s}}$ に対しては確率密度比 $r\left(\boldsymbol{x}_{\boldsymbol{s}}\right)=P_{T}\left(\boldsymbol{x}_{\boldsymbol{s}}\right) / P_{S}\left(\boldsymbol{x}_{\boldsymbol{s}}\right)$ の重みをつけ, $\boldsymbol{u}_{\boldsymbol{t}}$ に対しては重み 1 をつける。また $P_{T}(c \mid \boldsymbol{u})$ のモデルに最大エントロピー法を用い,重み付き対数尤度を最大化するパラメータを求めることで, $P(c \mid \boldsymbol{u})$ を推定する. 上記の重み付き対数尤度の式(目的関数)を示しておく。今, ソース領域の訓練データを $D_{s}=\left.\{\left(\boldsymbol{x}_{\boldsymbol{s}}^{(\boldsymbol{i})}, c_{s}^{(i)}\right)\right.\}_{i=1}^{n}$, ターゲット領域の訓練データを $D_{t}=\left.\{\left(\boldsymbol{x}_{\boldsymbol{t}}^{(\boldsymbol{i})}, c_{t}^{(i)}\right)\right.\}_{i=1}^{m}$ とおく. また $\boldsymbol{x}_{\boldsymbol{s}}^{(\boldsymbol{i})}$ と $x_{t}^{(i)}$ を素性空間拡張法により拡張したデー夕をそれぞれ $u_{s}^{(i)}$ と $u_{t}^{(i)}$ とおく. ここで $x_{s}^{(i)}$ と $x_{t}^{(i)}$ は $M$ 次元, $\boldsymbol{u}_{s}^{(i)}$ と $\boldsymbol{u}_{t}^{(i)}$ は $3 M$ 次元のべクトルであることに注意する. 提案手法の重み付き対数尤度の式は以下となる。 $ \begin{gathered} L(\boldsymbol{\lambda})=\sum_{i=1}^{n} r\left(\boldsymbol{x}_{\boldsymbol{s}}^{(\boldsymbol{i})}\right) \log P\left(c_{s}^{(i)} \mid \boldsymbol{u}_{\boldsymbol{s}}^{(\boldsymbol{i})}, \boldsymbol{\lambda}\right)+\sum_{i=1}^{m} \log P\left(c_{t}^{(i)} \mid \boldsymbol{u}_{\boldsymbol{t}}^{(\boldsymbol{i})}, \boldsymbol{\lambda}\right) \\ P(c \mid \boldsymbol{u}, \boldsymbol{\lambda})=\frac{1}{Z(\boldsymbol{u}, \boldsymbol{\lambda})} \exp \left(\sum_{j=1}^{3 M} \lambda_{j} f_{j}(\boldsymbol{u}, c)\right) \\ Z(\boldsymbol{u}, \boldsymbol{\lambda})=\sum_{c \in C} \exp \left(\sum_{j=1}^{3 M} \lambda_{j} f_{j}(\boldsymbol{u}, c)\right) \end{gathered} $ ## 7 実験 BCCWJ コーパスの PB(書籍), OC(Yahoo!知恵袋)及び PN(新聞)を異なった領域として実験を行う. SemEval-2 の日本語 WSD タスク (Okumura et al. 2010)ではこれら領域のコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する。この 3 つの領域からある程度頻度のある多義語 16 単語を WSD の対象単語とする.これら単語と辞書上での語義数及び各コーパスでの頻度と語義数を表 1 に示す ${ }^{5}$. 領域適応の方向としては $\mathrm{OC} \rightarrow$ $\mathrm{PB}, \mathrm{PB} \rightarrow \mathrm{PN}, \mathrm{PN} \rightarrow \mathrm{OC}, \mathrm{OC} \rightarrow \mathrm{PN}, \mathrm{PN} \rightarrow \mathrm{PB}, \mathrm{PB} \rightarrow \mathrm{OC}$ の計 6 通りの方向が存在する. 本稿で利用した素性は以下の 8 種類である. (e0) $w$ の表記, (e1) $w$ の品詞, (e2) $w_{-1}$ の表記, (e3) $w_{-1}$ の品詞, (e4) $w_{1}$ の表記, (e5) $w_{1}$ の品詞, (e6) $w$ の前後 3 単語までの自立語の表  表 1 対象単語 & & & & & & \\ 入れる & 3 & 73 & 2 & 56 & 3 & 32 & 2 \\ 書く & 2 & 99 & 2 & 62 & 2 & 27 & 2 \\ 聞く & 3 & 124 & 2 & 123 & 2 & 52 & 2 \\ 子供 & 2 & 77 & 2 & 93 & 2 & 29 & 2 \\ 時間 & 4 & 53 & 2 & 74 & 2 & 59 & 2 \\ 自分 & 2 & 128 & 2 & 308 & 2 & 71 & 2 \\ 出る & 3 & 131 & 3 & 152 & 3 & 89 & 3 \\ 取る & 8 & 61 & 7 & 81 & 7 & 43 & 7 \\ 場合 & 2 & 126 & 2 & 137 & 2 & 73 & 2 \\ 入る & 3 & 68 & 4 & 118 & 4 & 65 & 3 \\ 前 & 3 & 105 & 3 & 160 & 2 & 106 & 4 \\ 見る & 6 & 262 & 5 & 273 & 6 & 87 & 3 \\ 持つ & 4 & 62 & 4 & 153 & 3 & 59 & 3 \\ やる & 5 & 117 & 3 & 156 & 4 & 27 & 2 \\ ゆく & 2 & 219 & 2 & 133 & 2 & 27 & 2 \\ 記, (e7) e6 の分類語彙表の番号の 4 桁と 5 桁. なお対象単語の直前の単語を $w_{-1}$, 直後の単語を $w_{1}$ としている. 単語 $w_{i}$ についてソース領域 $S$ からターゲット領域 $T$ の領域適応の実験について説明する. まずターゲット領域 $T$ のラベル付きデータをランダムに 15 個取り出し, 残りを評価データとする。つまり利用できる訓練データはソース領域 $S$ のラベル付きデータとターゲット領域 $T$ からランダムに取り出した 15 個のラベル付きデータとなる。この訓練データを用いて手法 A により分類器を作成し, 先の評価デー夕の語義識別の正解率 $P_{i, k}$ を測る。この実験を 5 回行い $P_{i, 1}, P_{i, 2}, \cdots, P_{i, 5}$ を得る. それらの平均 $P_{i}$ を「単語 $w_{i}$ の $S$ から $T$ への領域適応における手法 A の平均正解率」とする。上記の単語 $w_{i}$ を 16 種類の各対象単語 $w_{1}, w_{2}, \cdots, w_{16}$ に変えることで, 16 個の平均正解率 $P_{1}, P_{2}, \cdots, P_{16}$ が得られる. それらの平均 $P$ を $S$ から $T$ へ領域適応における手法 A の平均正解率」とする (図 1参照). 上記の手法 A としては,以下の 6 種類を試す。(1)ソース領域のラベル付きデータのみを用いる手法 (ターゲット領域の 15 個のラベル付きデータの重みを 0 とする手法) (S-Only), (2) ター ゲット領域からランダムに取り出した 15 個のラベル付きデータのみを用いる手法 (ソース領域のラベル付きデータの重みを 0 とする手法) (T-Only), (3) ソース領域のラベル付きデータとター ゲット領域の 15 個のラベル付きデータを用いる手法 (S+T), (4) Daumé の手法 (Daumé), (5) 本稿で示した簡易手法により算出した確率密度比を用いた共変量シフトによる手法 (Cov-Shift), (6) 素性空間拡張法から得られた訓練データに対して, 本稿で示した簡易手法により算出した確率密度比を用いた共変量シフトによる手法(提案手法)の計 6 種類である。またすべての手法において学習アルゴリズムとしては最大エントロピー法を用いた。 またその実行にはツールの Classias を用いた (Okazaki 2009). $S$ から $T$ への領域適応における各手法の平均正解率を表 2 に示す. Daumé と Cov-Shift を比 図 1 手法の評価値(平均正解率)の算出 表 2 各手法の平均正解率 較すると Daumé の方がわずかに高い正解率を示している。この点は考察で議論する。たたしし提案手法は Daumé よりも高い正解率であり,共変量シフトによる解法の効果が確認できる. ## 8 考察 ## 8.1 負の転移の有無 WSD の領域適応では, 対象単語毎に領域適応の問題が生じている. 実験では領域の組み合わせで 6 通り, 対象単語が 16 単語あるので, 合計 $96(=6 \times 16)$ 通りの領域適応の問題を扱つたことになる.ここでは各領域適応の問題に対して負の転移が生じているかどうかを調べ,それぞれのケースに分けて,各手法の正解率を調べた。 まず負の転移が生じているかどうかの判定には, 先の実験でより得られた T-Only, S-Only 及び $\mathrm{S}+\mathrm{T}$ の正解率を利用する。もしも正解率で以下の関係が成立しているなら, 負の転移が生じていないと考えられる。 $ \mathrm{T}-0 n l y, \mathrm{~S}-0 \mathrm{nly}<\mathrm{S}+\mathrm{T} $ 結果を表 3 に示す.チェックがつけられた箇所が負の転移が生じていない領域適応の問題である. 96 種類の領域適応の問題の中で 44 種類において負の転移が生じていない. 次に負の転移が生じているかいないかのケースに分けて,各手法の平均正解率を調べた。結果を表 4 に示す. 表 3 負の転移が生じていない領域適応 表 4 負の転移と各手法の平均正解率 表 4 において領域適応に対処する 3 手法(Daumé,Cov-Shift,提案手法)を見ると,提案手法は負の転移の有無に関わらず Cov-Shift よりも高い正解率であり,提案手法は Cov-Shift の改良になっていることがわかる。更に負の転移が生じていないケースでは Cov-Shift は Daumé よりも正解率が高く,このケースでは素性に重みをつけるよりも事例に重みをつける方が効果があることがわかる.ただし負の転移が生じるケースでは,提案手法は Daumé よりも正解率が若干低い。つまり提案手法を Daumé の手法の改良と見た場合,負の転移が生じるケースでは正解率の低下を抑え,その代わりに負の転移が生じないケースで正解率を高めることで,全体的な正解率を改善する手法と見なせる. また領域適応に対処しない 3 手法 (S-Only, T-Only, S+T) も含めて比較すると, 負の転移が生じるケースでは領域適応に対処する 3 手法(Daumé,Cov-Shift,提案手法)の正解率はかなり悪い。つまり WSD の領域適応では負の転移を検出することで大きな改善が期待できる。共変量シフト下の学習では,負の転移が生じているケースに対しては, ソース領域のデー夕に 0 に近い重みを与えられればよいはずである。より正確な確率密度比の推定法を利用することで, このような重み付けが可能だと考える。この点は今後の課題である。 ## 8.2 確率密度比の調整 確率密度比を精度良く推定することは困難な問題である。そのために求まった確率密度比を調整することも行われている.杉山は確率密度比 $r$ に $p(0<p<1)$ 乗した $r^{p}$ 重みにすることを提案している (杉山 2006)。また Yamada は relative density ratio として確率密度比を以下の形で求めることを提案してる (Yamada, Suzuki, Kanamori, Hachiya, and Sugiyama 2011). $ \frac{P_{T}(\boldsymbol{x})}{\alpha P_{T}(\boldsymbol{x})+(1-\alpha) P_{S}(\boldsymbol{x})} $ ここでは $r^{0.5}$ の重みと $\alpha=0.5$ の relative density ratio を試した。結果を表 5 に示す。表 5 における提案手法と Cov-Shift は表 2 における提案手法と Cov-Shift と同じものである。 $r^{0.5}$ が Cov-Shift の重み $r$ を 0.5 乗したものであり,RDR が $\alpha=0.5$ の relative density ratio である. 表 5 をみると, $r^{0.5}$ や relative density ratio の調整は一部有効な問題もあったが, 全体として見ると, 効果はあまりない. これも本来の確率密度値 $P_{S}(\boldsymbol{x})$ や $P_{T}(\boldsymbol{x})$ の推定が簡易すぎるために生じていると考える。 確率密度比を確率統計的により精緻に求めていくことは重要である。たたし確率密度比は事例の重み,つまり事例の重要度を意味している。事例の重要度という自然言語処理的な観点から WSD の領域適応に特化した重みの設定も可能である. ## $8.3 \mathrm{SVM$ の利用} 本稿では学習アルゴリズムとして最大エントロピー法を用いた。共変量シフトの解法として,重み付き対数尤度を最大化する形では, $P_{T}(c \mid x)$ をモデル化するアプローチに限られる。しかし共変量シフト下の学習では確率密度比を重みにして期待損失を最小化すれば良いので,損失関数ベースの学習手法が利用できる。例えばヒンジ損失関数に密度比で重みづけすることで共変量シフト下の学習にSVM を利用できる (Sugiyama and Kawanabe 2011). ただしSVM 自体の実装が容易ではないために簡単に試すことはできない. ここでは共変量シフト下の学習にSVM を用いるのではなく, 素性空間拡張法により拡張されたデータに対して,SVM を利用してみる。実行にはツールの libsvm²を用いた。またそこで利用したカーネルは線形カーネルである。実験結果を表 6 に示す. 提案手法が本稿での提案手法での平均正解率であり, D3-ME が素性空間拡張法と最大エント 表 5 確率密度比の調整による平均正解率 表 $6 \mathrm{SVM}$ による平均正解率 ^{6}$ http://www.csie.ntu.edu.tw/ cjlin/libsvm/ } ロピー法を利用した場合の平均正解率である。つまり提案手法と D3-ME は, 表 2 での提案手法と Daumé に対応する。そして D3-SVM が素性空間拡張法とSVM を利用した場合の平均正解率である。 提案手法は D3-SVM よりもわずかに高い正解率となっているが,その差は小さく識別能力については, 提案手法と D3-SVM は同程度と言える。また D3-SVM は D3-ME よりも正解率が高い。つまり最大エントロピー法ではなく,SVM を利用する方が正解率が高くなると予想できる。このことから共変量シフト下の学習に SVM を利用すれば,改善が可能であると考えられる。これは今後の課題である. ## 8.4 教師なし手法への適用 共変量シフト下での学習では訓練データの中にターゲット領域のデータが含まれる必要はない. ターゲット領域の訓練データを含めなければ,教師なし領域適応手法となるはずである. この点を確認した実験を行った.実験結果を表 7 に示す。表の S-Only の列はソース領域の訓練データだけで学習した結果である。これは表 2 の S-Only に対応する。W-S-Only はソース領域の訓練データのみを使った共変量シフト下での学習手法である。また参考までに提案手法の結果も記している. 確率密度比を用いる W-S-Only ではソース領域のデータへの重みが小さくなりがちである. ここでの実験では重みが 0.01 未満の場合はそのデータを省いて学習させている。そのために W-S-Only では極端にラベル付きデータが減少するケースがあった.結果として精度が低くなってしまったと考えられる。また多くの単語で正解率の低下が起こっていた.この原因としては,重みのあるデータの欠如だと考える。例えば,語義 $c_{1}$ のデータ $x_{1}$ の重みが 0.01 , 語義 $c_{2}$ のデータ $x_{2}$ の重みが 0.02 である場合, どちらの重みも「小さく」, その差はほぼ等しいと見なして $P\left(c_{1}\right)=P\left(c_{2}\right)=0.5$ と考えるのが妥当であるが, 「小さい」という点を考えないと $P\left(c_{1}\right)=1 / 3$, $P\left(c_{2}\right)=2 / 3$ となってしまう.「小さい」という点を考えるためには比較となるある程度「大きな」データが必要である。例えば,上記の設定の上で語義 $c_{1}$ のデータ $x_{3}$ の重みが 1 などとい 表 7 重み付き教師なし学習による平均正解率 & & \\ $\mathrm{~PB} \rightarrow \mathrm{PN}$ & 0.7861 & 0.7678 & $\mathbf{0 . 7 7 2 5}$ \\ $\mathrm{PN} \rightarrow \mathrm{OC}$ & 0.7702 & $\mathbf{0 . 6 9 2 6}$ & 0.6718 \\ $\mathrm{OC} \rightarrow \mathrm{PN}$ & 0.7447 & 0.6829 & $\mathbf{0 . 6 8 4 6}$ \\ $\mathrm{PN} \rightarrow \mathrm{PB}$ & 0.7874 & $\mathbf{0 . 7 5 4 3}$ & 0.6667 \\ $\mathrm{~PB} \rightarrow \mathrm{OC}$ & 0.7750 & $\mathbf{0 . 6 9 8 8}$ & 0.6799 \\ うデータが存在すれば, $P\left(c_{1}\right)=101 / 103, P\left(c_{2}\right)=2 / 103$ となり,これは妥当である.つまり重みが低いデータが多数を占めるような場合, 信頼性のある推定が行えない. ある程度, 重みのあるデータが必要だと思われる。このため共変量シフト下での学習を教師なしの朹組みに単純に利用することは難しい.教師なしの枠組みへの利用方法の検討は今後の課題である. ## 9 おわりに 本稿では WSD の領域適応の問題が共変量シフトの問題と見なせることを示した。そして,共変量シフトの標準的な解法である確率密度比を重みにしたパラメータ学習により,WSDの領域適応の解決が図れることを示した。また素性空間拡張法により拡張されたデー夕に対して,共変量シフトの解法を行う手法を提案した. BCCWJ コーパスの 3 つ領域 OC(Yahoo! 知恵袋), PB(書籍)及び PN(新聞)を選び, SemEval-2 の日本語 WSD タスクのデータを利用して,上記領域にある程度の頻度がある多義語 16 単語を対象に,WSD の領域適応の実験を行った. 実験の結果,提案手法は Daumé の手法と同等以上の正解率を出した。 共変量シフトの解法では確率密度比の算出が鍵となるが, ここでは Naive Bayes で利用されるモデルを利用した簡易な算出法を試みた。このような簡易な算出法であってもWSD の領域適応に共変量シフトの解法を利用する効果が高いことが示された。 より正確な確率密度比の推定法を利用したり, 最大エントロピー法に代えてSVM を利用するなどの工夫で更なる改善が可能である。また教師なし領域適応へも応用可能である. WSD の領域適応に共変量シフトの解法を利用することは有望であると考えられる. ## 謝 辞 Classias の作者である岡崎直観氏に,Classias の事例の重み付け方法について教えていただきました。また本稿の査読者殿には有益なコメントいたたきました。感謝いたします. ## 参考文献 Chan, Y. S. and Ng, H. T. (2005). "Word Sense Disambiguation with Distribution Estimation." In Proceedings of IJCAI-2005, pp. 1010-1015. Chan, Y. S. and Ng, H. T. (2006). "Estimating class priors in domain adaptation for word sense disambiguation." In Proceedings of COLING-ACL-2006, pp. 89-96. Daumé, H. I. (2007). "Frustratingly Easy Domain Adaptation." In Proceedings of $A C L-2007$, pp. 256-263. 張本佳子, 宮尾祐介, 辻井潤一 (2010). 構文解析の分野適応における精度低下要因の分析及び分野間距離の測定手法. 言語処理学会第 16 回年次大会, pp. 27-30. Jiang, J. and Zhai, C. (2007). "Instance weighting for domain adaptation in NLP." In Proceedings of $A C L-2007$, pp. 264-271. 神嶌敏弘 (2010). 転移学習. 人工知能学会誌, 25 (4), pp. 572-580. 古宮嘉那子, 奥村学 (2012). 語義曖昧性解消のための領域適応手法の決定木学習による自動選択. 自然言語処理, 19 (3), pp. 143-166. Komiya, K. and Okumura, M. (2011). "Automatic Determination of a Domain Adaptation Method for Word Sense Disambiguation using Decision Tree Learning." In Proceedings of IJCNLP-2011, pp. 1107-1115. Komiya, K. and Okumura, M. (2012). "Automatic Domain Adaptation for Word Sense Disambiguation Based on Comparison of Multiple Classifiers." In Proceedings of PACLIC-2012, pp. $75-85$. Maekawa, K. (2007). "Design of a Balanced Corpus of Contemporary Written Japanese." In Symposium on Large-Scale Knowledge Resources (LKR2007), pp. 55-58. Okazaki, N. (2009). "Classias: a collection of machine-learning algorithms for classification." http://www.chokkan.org/software/classias/. Okumura, M., Shirai, K., Komiya, K., and Yokono, H. (2010). "SemEval-2010 Task: Japanese WSD." In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 69-74. Plank, B. and van Noord, G. (2011). "Effective measures of domain similarity for parsing." In Proceedings of ACL-2011, pp. 1566-1576. Ponomareva, N. and Thelwall, M. (2012). "Which resource is best for cross-domain sentiment analysis?" In Proceedings of CICLing-2012, pp. 488-499. Remus, R. (2012). "Domain Adaptation Using Domain Similarity- and Domain Complexitybased Instance Selection for Cross-domain Sentiment Analysis." In Proceedings of the 2012 IEEE 12th International Conference on Data Mining Workshops (ICDMW 2012) Workshop on Sentiment Elicitation from Natural Text for Information Retrieval and Extraction (SENTIRE), pp. 717-723. Rosenstein, M. T., Marx, Z., Kaelbling, L. P., and Dietterich, T. G. (2005). "To transfer or not to transfer." In Proceedings of the NIPS 2005 Workshop on Inductive Transfer: 10 Years Later. 齋木陽介,高村大也,奥村学 (2008). 文の感情極性判定における事例重み付けによるドメイン 適応. 情報処理学会第 184 回自然言語処理研究会, pp. 61-67. Shimodaira, H. (2000). "Improving predictive inference under covariate shift by weighting the log-likelihood function." Journal of statistical planning and inference, 90 (2), pp. 227-244. 新納浩幸, 佐々木稔 (2013). $\mathrm{k}$ 近傍法とトピックモデルを利用した語義曖昧性解消の領域適応. 自然言語処理, 20 (5), pp. 707-726. Sogaard, A. (2013). Semi-Supervised Learning and Domain Adaptation in Natural Language Processing. Morgan \& Claypool. 杉山将 (2006). 共変量シフト下での教師付き学習. 日本神経回路学会誌, 13 (3), pp. 111-118. 杉山将 (2010). 密度比に基づく機械学習の新たなアプローチ. 統計数理, 58 (2), pp. 141-155. Sugiyama, M. and Kawanabe, M. (2011). Machine Learning in Non-Stationary Environments: Introduction to Covariate Shift Adaptation. MIT Press. 高村大也 (2010). 言語処理のための機械学習入門. コロナ社. Van Asch, V. and Daelemans, W. (2010). "Using domain similarity for performance estima- tion." In Proceedings of the 2010 Workshop on Domain Adaptation for Natural Language Processing, pp. 31-36. Yamada, M., Suzuki, T., Kanamori, T., Hachiya, H., and Sugiyama, M. (2011). "Relative density-ratio estimation for robust distribution comparison." Neural Computation, 25 (5), pp. 1370-1370. ## 略歴 新納浩幸:1985 年東京工業大学理学部情報科学科卒業. 1987 年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て, 1993 年 4 月茨城大学工学部システム工学科助手. 1997 年 10 月同学科講師, 2001 年 4 月同学科助教授, 現在, 茨城大学工学部情報工学科准教授. 博士 (工学). 機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会, 情報処理学会, 人工知能学会各会員. 佐々木稔:1996 年徳島大学工学部知能情報工学科卒業. 2001 年同大学大学院博士後期課程修了. 博士 (工学). 2001 年 12 月茨城大学工学部情報工学科助手. 現在, 茨城大学工学部情報工学科講師. 機械学習や統計的手法による情報検索, 自然言語処理等に関する研究に従事. 言語処理学会, 情報処理学会各会員. \author{ (2013 年 9 月 16 日受付) \\ (2013 年 11 月 5 日再受付) \\ (2013 年 12 月 10 日再々受付) \\ (2013 年 12 月 27 日採録) }
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 既存のツールと結合した話し言葉コーパス利用環境 ## 伝康晴 $\dagger,+\dagger$ ・ 小磯 花絵 $\dagger \dagger$ 近年,コーパスアノテーションは多様化し, 多層アノテーションを統合利用する仕組みが欠かせない,とくに話し言葉コーパスでは,言語・非言語に関する 10 種類以上もの単位とそれらの相互関係を統合し, 複数の単位を組み合わせた複雑な検索を可能にする必要がある。本研究では, このような要請に応えるため, (1) マルチモー ダル・マルチチャネルの話し言葉コーパスを表現できる,汎用的なデータベーススキーマを設計し,(2) 既存のアノテーションツールで作成された, 種々の書式を持つアノテーションを入力とし, 汎用的なデータベーススキーマから具現化されたデー タベースを構築するツールを開発する。話し言葉の分野では, 広く使われている既存のアノテーションツールを有効に利用することが不可欠であり, 本研究は, 既存のアノテーションツールやコーパス検索ツールを用いたコーパス利用環境を構築する手法を提案する。提案手法は, 開発主体の異なる複数の話し言葉コーパスに適用され,運用に供されている。 キーワード:話し言葉コーパス, 多層アノテーション, 既存のツールの利用 ## An Environment for the Usage of Spoken Discourse Corpora that Effectively Utilizes Existing Tools \author{ Yasuharu Den ${ }^{\dagger, \dagger \dagger}$ and Hanae KoIso $^{\dagger \dagger}$ } In this paper, we (i) propose a general-purpose database schema that can represent multichannel and multimodal spoken discourse corpora, and (ii) develop tools to construct a database, instantiating this schema with reference to configuration files, from annotations in various formats that have been created with existing annotation tools. Spoken discourse corpora involve more than 10 different annotations including both verbal and nonverbal information. They require the integration of a large number of linguistic/nonlinguistic units and relations among them and the function to search them with complex queries referring to multiple units. In spoken discourse corpora, it is essential to utilize existing annotation tools, which are widely used in the community. We propose a method to construct an environment for the usage of spoken discourse corpora that effectively utilizes existing annotation and search tools. The method has been applied to spoken discourse corpora developed by different organizations, and has been used effectively for corpus-linguistic research. Key Words: spoken discourse corpora, multi-level annotation, utilization of existing tools  ## 1 はじめに 近年, コーパスアノテーションはますます多様化し, 多層アノテーションを統合的に利用する仕組みが欠かせない. たとえば, 話し言葉の言語学的・工学的研究で広く用いられている『日本語話し言葉コーパス』(前川 2004)のコアデータでは, 音韻・単語・韻律単位・文節・節を含む 10 種類あまりの単位に関してさまざまなアノテーションがなされている。また,最近では視線・領きやジェスチャーなどの非言語情報を含むマルチモーダルコーパスの開発が進んでおり(たとえば Carletta 2007; Chen, Rose, Qiao, Kimbara, Parrill, Welji, Han, Tu, Huang, Harper, Quek, Xiong, McNeill, Tuttle, and Huang 2006; Den and Enomoto 2007; 角, 矢野, 西田 2011; Waibel and Stiefelhagen 2009), これらのコーパスでは複数のモダリティに関して多種のアノテーションがなされている.コーパスアノテーションに基づく研究では, このような多層的なアノテー ションを統合し,「文末形式を持つ節の先頭の文節の末尾の語が係助詞「は」であるものを抽出し, その語の継続長を算出する」といった, 複数の単位を組み合わせた複雑な検索を可能にする必要がある. これまで, 多層アノテーションを表現するさまざまなスキーマが提案され, それらに基づくアノテーションツールやコーパス検索ツールが開発されている (Bird, Day, Garofolo, Henderson, Laprun, and Liberman 2000; Bird and Liberman 2001; Calhoun, Carletta, Brenier, Mayo, Jurafsky, Steedman, and Beaver 2010; Carletta, Evert, Heid, and Kilgour 2005; Kaplan, Iida, Nishina, and Tokunaga 2012; Kaplan, Iida, and Tokunaga 2010; Matsumoto, Asahara, Hashimoto, Tono, Ohtani, and Morita 2006; Müller and Strube 2001, 2006; Noguchi, Miyoshi, Tokunaga, Iida, Komachi, and Inui 2008). しかし, これらのツールは開発主体内部での利用にとどまっている場合がほとんどであり,外部にはあまり普及していない. これらの統合開発環境では提案スキーマに基づいて種々のツール群を提供することを目指しているが,実際に提供されているのは一部のツールのみであり,個別のアノテーションツールのほうが広く使われている場合が多い. とくに話し言葉においては, Praat (Boersma and Weenink 2013) や ELAN (Brugman and Russel 2004) といった音声や映像を扱う高機能なアノテーションツールが広く普及しており,これらのツールと同等の機能を持つツールを自前で開発するのはコストが高くつくうえ,コーパス開発者の側でも使い慣れたツールにとどまって新たなツールに乗り換えたくないという者が多い. 本研究の目的は, 話し言葉で広く使われている既存のアノテーションツールを有効に利用しつつ,種々のアノテーションを統合利用できる環境を構築することである(図 1)。具体的には以下のことを行なう. (1)マルチチャネル・マルチモーダルの話し言葉コーパスを表現できる汎用的なデータベー ススキーマを設計する。 図 1 本研究の枠組み (2)以下の入出力を持つデータベース構築ツールを開発する. 入力既存のアノテーションツールで作成された, 種々の書式を持つアノテーション 出力設定ファイルを基にして,汎用的なデータベーススキーマから具現化されたデー タベース (3)サーバを必要としないスタンドアロンのデータベースソフトとして広く用いられている SQLiteによって実装し, 既存のコーパス検索ツールと接続可能にする. 本研究は, 既存のアノテーションツールやコーパス検索ツールと結合したコーパス利用環境を構築することに主眼があり,アノテーションツールやコーパス検索ツールの開発そのものを目的とするものではない. 以下,2 節では話し言葉を表現できる汎用的なデータベーススキーマの設計について述べ, 3 節ではデータベース構築ツールの開発について述べる。 4 節では提案するコーパス利用環境を用いて実際に運用している 2 つの事例について述べる.5 節では関連研究やアノテーション管理・実用性に関する議論を行ない, 6 節ではまとめと今後の課題について述べる. ## 2 話し言葉を表現できる汎用的なデータベーススキーマの設計 本節では,マルチチャネル・マルチモーダルの話し言葉コーパスを表現できる汎用的なデータベーススキーマを提案する。本スキーマは, 基本的には, Noguchi et al. (2008) と Kaplan et al. (2010) が提案したセグメントとリンクに基づくスキーマに依拠している. しかし, 彼らのスキー マは書き言葉を想定しており,話し言葉に適用するためにはいくつかの拡張が必要である.以下,拡張・改良点について順に述べ,我々のスキーマを提案する. ## 2.1 セグメントとリンクに基づくスキーマ セグメントとリンクに基づくスキーマでは以下の 2 種類のオブジェクトを用いる. 図 2 セグメントとリンクに基づくスキーマ((Kaplan et al. 2010)の Figure 3 を改変) セグメント (Segment) 文書中の特定の開始位置 (start) と終了位置 (end) で指定される区間に存在する, 特定の型 (type) の要素. 単語・句・節など. リンク (Link) 参照元セグメント (source) と参照先セグメント (destination) の間に設定され る, 特定の型 (type) の依存関係. 係り受け関係・照応関係など. いずれのオブジェクトも型ごとに定まった属性 (name) と值 (value) の対の集合を持つ. たとえば,単語型セグメントは品詞・活用型・活用形などの属性を持ちうるし, 係り受け関係型リンクは係り受けの種類(従属と並列の区別)などの属性を持ちうる。これらの属性值が付随したセグメントとリンクの集合によって文書を表現する。 セグメントとリンクに基づくスキーマのクラス図を図 2 に示す 1 . ## 2.2 話し言葉への拡張 セグメントとリンクに基づくスキーマはもともと書き言葉を想定して作られており,話し言葉に適用するためにはいくつかの拡張が必要である. 開始・終了位置:開始・終了位置としては文書中での文字位置(文書の先頭から数えて何文字目か)が想定されている。しかし, 話し言葉で対象となる要素(アクセント・音調や視線・領きなど)は必ずしもテキスト情報に基づいていない,そこで,開始・終了位置として文書(音声・映像ファイル)中での時刻(文書の先頭からの経過時間)を用いる. 単位の融合:話し言葉ではしばしば隣接する単位間での融合が生じる。たとえば,「私は」が融合して「ワタシャ」のように発音されたりする。この場合,「私」と「は」の境界は実際の音声中 ^{1}$ Document と Tag をつなぐ線は 1 つの文書が 0 個以上の夕グの集合からなることを示し, Segment や Link と Tag をつなぐ線はセグメントやリンクがタグの一種であることを示す. また, 矢印は, リンクが 2 つのセグメント (source と destination) に依存することや,各属性・値対が ref で示されたセグメントやリンクに付随することを表す. } 時刻 $1.0 \quad 1.4 \quad 1.8 \quad 1.9 \quad 2.0$ 図 3 非整列セグメントの例 には存在しないので,個々の単語を時刻に依拠したセグメントとしては表せない。そこで,セグメントとしては融合した「わたしゃ」全体を一つの単位とし,個々の形態論情報を担う単位を「時間的に整列されないセグメント」(非整列セグメント)として別途表現する(図 3$)^{2}$.これらのセグメントと非整列セグメントの間の依存関係は後述する階層関係を用いて表現し,各非整列セグメントが「何個の非整列セグメントからなる(長さ lenの)セグメント中の何番目の要素であるか (nth)」という情報を与える(図 3では nth/len で表記). マルチチャネルへの対応:書き言葉の文書は通常, 単一のストリームからなる. しかし, 話し言葉の対話データでは, 複数話者によるマルチチャネルのストリームに対応しなければならない.これはチャネルごとに時刻を相対化することで解決できる。そのために,セグメントの表現にチャネル識別子(話者ラベルなど)を追加する. マルチモーダルへの対応 : 書き言葉の文書にはテキストという単一のモダリティしかない. しかし, 話し言葉のマルチモーダルデータでは, 音声言語に加えて, 視線・頡きやジェスチャーなどのモダリティに対応しなければならない。 セグメントとリンクに基づくスキーマはスタンドオフ形式 3 のため, このような単一の根ノードにまとまらない単位階層にも自然に対応できる. 一方で,区間の包含関係で階層関係を表すスタンドオフ形式では,不適切な階層関係が認定されることがある,たとえば,「うん,そうだね」という発話が領きを伴ってなされた場合,「うん」という単語はこの発話の適切な下位単位であるが,領きは発話の適切な下位単位とは言えない. どの型のセグメント間に階層関係が設定されるかは, 各セグメント型の認識論的な位置づけによってアプリオリに定まっているべきである。そこで,本スキーマでは, セグメント間の階層関係を明示的に表現する。これは,下位セグメントを参照元,上位セグメントを参照先とした特別な型のリンクととらえることができる.  ## 2.3 スキーマの具体化 セグメントとリンクに基づくスキーマは,さまざまな属性集合を持ちうるさまざまな型のセグメントやリンクを扱うために,極めて抽象度の高いスキーマになっている(セグメントとリンクという 2 種類のオブジェクトしかない). Noguchi et al. (2008) や Kaplan et al. (2010)は,「述語」や「項」といったより具体性の高いオブジェクトを操作できるアノテーションツールやコーパス検索ツールをインターフェースとして提供することで,ユーザの利便性を図っている。 しかし, 既存のアノテーションツールやコーパス検索ツールを用いてコーパス利用環境を実現しようという本研究においては,このような利便を図ることはできず,スキーマ中のオブジェクトがそのままユーザが操作する対象となる。そこでは, 語やアクセント句や節といったオブジェクトがそのまま操作できたほうがユーザの了解度は高いと思われる. そこで,(非整列)セグメントや(階層関係を含む)リンクを型ごとに別々のオブジェクトとして表現し,属性は各オブジェクトに直接表現する,属性集合は型ごとに定まるため,型ごとにオブジェクトを別にすれば,このような表現が可能となる. また,階層関係については,「何個の下位セグメントからなる(長さ len の)上位セグメント中の何番目の要素であるか (nth)」という情報を付与する。この情報は時刻の情報から導出できるため, 表現としては冗長である。しかし, 話し言葉では, 隣接するセグメント間で先行要素の終了位置と後続要素の開始位置が一致するという制約が必ずしも成り立たない(間に休止が介在しうる)ため,SQL 言語を用いると,たとえば隣接語対を抽出するのに煩雑な検索を行なわなければならない。上述の情報があれば, この検索は簡単に行なえる(付録 $\mathrm{A}$ 参照)。 ## 2.4 提案するデータベーススキーマ 2.2 と 2.3 の議論を踏まえ, 図 4 のスキーマを設計した. 本スキーマでは以下の 4 種類のオブ 図 4 本研究で提案するスキーマ ジェクトを用いる ${ }^{4}$. セグメント $\left(\operatorname{seg}\right.$ Type $\left._{i}\right)$ 文書中の特定のチャネル (channel) 上の特定の開始位置 (start) と終了位置 $(\mathrm{end})$ で指定される区間に存在する要素. 型 $\left(\right.$ Type $\left._{i}\right)$ ごとに別のオブジェクトとして表現され,それぞれ特定の属性集合 $\left(\operatorname{attr}_{1}, \ldots, \operatorname{attr}_{n_{i}}\right)$ を持つ. 非整列セグメント $\left(\right.$ useg Type $\left._{i}\right)$ 時間的に分節化されない, セグメントの下位要素. 型 $\left(\right.$ Type $\left._{i}\right)$ ごとに別のオブジェクトとして表現され,特定の属性集合 $\left(\operatorname{attr}_{1}, \ldots, \operatorname{attr}_{n_{i}}\right)$ を持つ. リンク $\left(\operatorname{link}\right.$ Type $\left._{i}\right)$ 参照元セグメント (source) と参照先セグメント (destination) の間に設定される依存関係。型 $\left(\right.$ Type $\left._{i}\right)$ ごとに別のオブジェクトとして表現され,それぞれ特定の属性集合 $\left(\operatorname{attr}_{1}, \ldots, \operatorname{attr}_{n_{i}}\right)$ を持つ。 階層関係 (rel Type $i_{i} \mathbf{2}$ Type $_{j}$ ) 下位セグメント (descendant) と上位セグメント (ancestor) の間に設定される階層関係.上位・下位セグメントの型の組み合わせ $\left(\right.$ Type $_{j}$ と Type $\left.i_{i}\right)$ ごとに別のオブジェクトとして表現され, 同一の上位セグメントに帰属する下位セグメントの総数 (len) とそれらのうち何番目の要素であるか (nth) を属性として持つ. オブジェクトの種類としては限られているが,型ごとに別々のオブジェクトとして表現されるため,実際のオブジェクトの数はしばしば十数個にもなる. 元のセグメントとリンクに基づくスキーマ(図 2)と比べると,以下の違いがある. (1) 非整列セグメントが導入された. (2) 階層関係が陽に表現された。 (3)(非整列)七グメントやリンクが型ごとに別々のオブジェクトとして表現され,属性を内包するようになった。 ## 3 データベース構築ツールの開発 本節では, 既存のアノテーションツールで作成された種々の書式を持つアノテーションから, 2 節で提案したスキーマに基づくデータベースを自動的に構築するツールについて述べる. ## 3.1 ツールの概要 本ツールは現在のところ, CSV ベースのツール, Praat (Boersma and Weenink 2013), ELAN (Brugman and Russel 2004), Anvil (Kipp 2001)の 4 種類のアノテーションツールに対応している.これらのアノテーションファイルから提案スキーマに基づくデータベースを生成することが本ツールの目的である。構築するデータベースは可搬性に優れた SQLiteを採用した. SQLite $ ), (2) あいづち表現など, あるセグメントの一部のインスタンスに対して追加的に与えられた属性を表現するオブジェクト $\left(\operatorname{add}^{2}\right.$ Type $\left._{i}\right), \quad(3)$ 話者情報などのメ夕情報を記述するオブジェクト (info Type $\left.i_{i}\right)$ の 3 種類のオブジェクトがある. } は,すべてのテーブルやインデックスを単一のファイルで実装するスタンドアローンの関係デー タベースであり,『茶器』(Matsumoto et al. 2006) などのコーパス管理環境でも利用されている. 4 種類のアノテーションの書式は大きく異なるが,ある一定の規約を設けることにより,デー タベースに直接インポートできる表形式ファイルに容易に変換できる。この規約に従ったアノテーションを「正規形」と呼ぶ. ELAN や Anvil は本研究と類似のスキーマを用いており,はじめからこの規約に従っている。一方,CSV やPraatでは前もって正規形に変換する必要がある.したがって,データベースの構築過程は以下のようになる. $($ アノテーションファイル $\Rightarrow$ ) 正規形ファイル $\Rightarrow$ 表形式ファイル $\Rightarrow$ データベース ## 3.2 利用できるアノテーションツール 本ツールでは以下の 4 種類のアノテーションツールを利用できる. CSV ベースのツール:形態論情報や談話行為など,テキスト情報に基づくアノテーションには, コンマで区切られた CSV 形式の入出力を持つツールを用いることが多い. たとえば, Microsoft Excel は人文系・理工系を問わず,広く用いられている CSVベースのツールであり,形態素解析システムなどの言語処理ツールの出力も CSV 形式にできるものが多い. Praat : Praat は高機能な音声アノテーションツールであり, 話し言葉の音声学的アノテーションで標準的なツールとなっている。分節音・単語境界や韻律情報のアノテーションで広く利用されている.出力書式は独自のものであるが,基本的にスタンドオフ形式である. ELAN:ELAN は高機能な映像アノテーションツールであり, ジェスチャー研究などで広く利用されている。本研究と類似のスキーマを用いており, 出力書式はスタンドオフ形式の XMLである. Anvil : Anvil も映像アノテーションツールである. ELANにはないリンクアノテーションの機能があり, 発話間の関係づけやあいづち表現の反応先などのアノテーションで利用できる. Anvil の出力書式もスタンドオフ形式の XML である. ## 3.3 正規形ファイル 以上のアノテーションからデータベースを構築するためには,スキーマを具現化する上で必須の情報がアノテーションファイルから取得できないといけない. これらは,セグメントでは開始・終了位置であり, リンクでは参照元・参照先セグメント(を一意に同定する情報)である.これらの情報の取得を保証するアノテーションを「正規形」と呼ぶ. 以下,アノテーションファイルの書式ごとに順に述べる. CSV:CSV 形式の正規形ファイルの例として, 形態論情報アノテーションの例を図 5 に示す. CSV 形式の正規形では, 各行に開始・終了時刻が記されているものとする. たとえば, 形態論情報アノテーションでは, Praat などを用いて別途ラベリングした単語境界の情報から単語ご 図 $5 \mathrm{CSV}$ 形式の正規形ファイルの例 との開始・終了時刻が転写されているものとする。ただし, 2.2 で述べた単位の融合などにより時刻を定められない箇所は「不定」(“NA”で示す) としてよい55.「不定」でない開始・終了時刻を持つ最小の範囲(図 5 の冒頭の例では「第一」)がセグメントとして認定され,各行はその下位に位置する非整列セグメントとして認定される. 1 つの CSV ファイルで複数の単位をアノテーションする場合がしばしばある。たとえば,図 5 では, 短単位 (SUW) と長単位 (LUW) という複数の粒度で語が認定されている(「第一母音」 は長単位では 1 つの語であり,短単位では「第」「一」「母音」という 3 つの語である)。このような場合には, IOB2 ラベル (Tjong Kim Sang and Veenstra 1999)によって上位単位の区間を示す (図 5 の luwLabel 列) 6 . CSV 形式でリンクを表すには,ローカルに定義された id(文内での文節の通し番号など)を用いて参照元と参照先を示す。たとえば,係り受け解析器 CaboCha (Kudo and Matsumoto 2002) の出力はこのような情報を含んでいる。データベース構築ツールはこれらの id をデータベース内で利用するグローバルな id に自動的に変換する. Praat : Praat の正規形ファイルの例として, 韻律情報アノテーションの例を図 6 に示す. Praat は多層アノテーションッールであり,複数階層のセグメントを同時に表すことができる。図 6 では上段の 3 層, 単語 (Word)・アクセント句 (AP)・イントネーション句 (IP) がそれらに対応する。韻律情報のアノテーションスキーマとして広く用いられている X-JToBI (五十嵐, 菊池, 前川 2006) では, アクセント句やイントネーション句など単語より上位のセグメントを直接認定することはなく, これらは単語に対する Break Index の情報を用いて派生される。しかし, X-JToBI 自体はこれらの上位セグメントの定義を与えておらず,上位セグメントをどのように派生するかはコーパス開発機関ごとに微妙に異なりうる。データベース構築ツールがこれらの  図 6 Praat の正規形ファイルの例(層は上から順に, Word, AP, IP, break, fbt, tone, pronLabel) 上位セグメントを取得するためには,上位セグメントが陽に表現されている必要があり,そのため, Praatの正規形ファイルでは, すべての上位セグメントが陽に表現されていることを規約とした. ELAN/Anvil : ELAN や Anvil を用いたアノテーションでは, 複数階層のセグメントを陽に表すのが通常である。たとえば,ジェスチャーのアノテーションでは,ジェスチャー句とジェスチャーフェーズという複数の階層が用いられるが (細馬 2009), それらは異なる層に明示的に表される。よって, これらのアノテーションははじめから正規形と考えてよい. なお, Anvilのリンクアノテーションはツール内部で生成された id を用いて表現されているが, データベース構築ツールはこれらの id をデータベース内で利用するグローバルな id に自動的に変換する. ## 3.4 正規形ファイルから表形式ファイルへの変換 3.3 のように正規形ファイルを規約化することにより,データベースに直接インポートできる表形式ファイルへの変換を汎用のツールによって実行できる。このツールは, 変換時に用いる諸設定を記述した設定ファイルを読み込み,各書式の正規形ファイルから表形式ファイルに変換する。ツールは,シェルスクリプトと Perl, Praatスクリプト,XSLTによって実装した。 設定ファイルでは, どの正規形ファイルからどの属性を抽出し, どのオブジェクト(セグメントやリンク)の表形式ファイルに変換するかを記述する。おもな設定項目を表 1 に示す.たとえば, 図 5 のような形態論情報の CSV 形式正規形ファイルから長単位型セグメントの表形式ファイルを生成するための設定は図 7 (左) のようになる。ここでは, 入出力ファイル名がワイルドカードを用いて記述され,文書 id (doc-id) がそこからどのように作られるかが指定され 表 1 正規形ファイルから表形式ファイルへの変換で用いる設定項目(抜粋) $\mathrm{CSV} \Rightarrow$ セグメント BEGIN segLUW input-file $=\$($ MORPH) $/ \%$.csv output-file $=\%$-luw.csv table-type $=$ seg annotation-type $=$ csv doc-id-name=TalkID doc-id=\%10input-file id-name=LUUID channel-name $=$ Channel start-name=StartTime end-name=EndTime unit-tag-column=luwLabel label-names=LUWPOS label-position=first END Praat $\Rightarrow$ セグメント BEGIN segAP input-file=\$(TEXTGRID) $/ \%-\%$.textgrid output-file=\%-\%-ap.csv table-type=seg annotation-type=textgrid doc-id-name=DialogID doc-id=\%1@input-file id-name=APID channel-name=Channel channel=\%2@input-file start-name=StartTime end-name=EndTime label-names=break,fbt primary-tier=AP skip-label=\# END Anvil $\Rightarrow$ リンク BEGIN linkRTTarget input-file=\$(ANVIL) /\%.anvil output-file=\%-rtTarget.csv table-type=link annotation-type=anvil doc-id-name=DialogID doc-id=\%10input-file source-name=LUUID destination-name=TargetID channel-name-type=prefix channel-name-delimiter=. label-names=targetType source-track=rt destination-track=word link-attribute=refTarget END 図 7 正規形ファイルから表形式ファイルに変換するための設定の例 る7. オブジェクトに含める属性集合は label-names にコンマ区切りで指定する。長単位のように正規形ファイル中で上位階層に相当するセグメントの場合は,セグメント区間を示す IOB2 ラベルが記された列名を unit-tag-column で指定する。 さらに,属性集合の値が正規形ファイル中のセグメント区間の先頭行 (first) に記述されているか, 最終行 (last) に記述されているかを label-position で指定する. 図 6 のような韻律情報の Praat 形式正規形ファイルからアクセント句型セグメントの表形式ファイルを生成するための設定を図 7 (中央)に示す. CSV 形式の場合とほぼ同様であるが,七  グメント区間は特定の層に陽に表現されているため, その層の名前を primary-tier で指定する.また, Praatではセグメント外の要素(休止区間)も含めてラベルが付与されているため, セグメント外要素であることを示すラベル值を skip-label で指定する. 最後に, Anvil ファイルからあいづち反応先型リンクの表形式ファイルを生成するための設定を図 7 (右) に示す. Anvilのリンクアノテーションは,あるトラックの要素(たとえばあいづち表現) からあるトラックの要素 (たとえば単語) への参照を, 参照先要素の内部 id を用いて属性値として表現している。そこで,参照元・参照先トラックの名前をそれぞれ source-track, destination-trackに指定し, 参照先を記述した属性の名前をlink-attribute で指定する ${ }^{8}$. ## 3.5 表形式ファイルからデータベースへの変換 3.4 で得られた表形式ファイルからデータベースを構築するには,まずオブジェクトごとにテーブルスキーマ(CREATE TABLE文)を定義しなければならない. これには,各テーブルの名前や, 持っている属性の一覧およびそれらの型などが含まれる。この過程には,テーブルスキー マを簡易表現で定義した設定ファイルを利用する,汎用のツールによって,設定ファイルからテーブルスキーマを定義し, 表形式ファイルからデータをインポートする. 設定ファイル中では,(1) テーブルの名前, (2) インポートする表形式ファイルの名前(ワイルドカードで複数指定可能), (3) 主キーの名前と型, (4) 属性の名前と型(のリスト)などを指定する。属性の型としては, テキスト型 $(t) \cdot$ 整数型 $(i) \cdot$ 実数型 $(\mathrm{r})$ が利用できる. テーブルスキーマの定義は一般に以下の形式である. テーブル名=表形式ファイル一覧/主キーの名前:型/属性 1 の名前:型, 属性 2 の名前: 型, ... たとえば, 図 7 (中央)の設定を用いて生成したアクセント句型セグメント用の表形式ファイルからデータベースのテーブルを生成するための設定は図 8 の segAP のようになる. 同様に,図 7 (右) の設定を用いて生成したあいづち反応先型リンク用の表形式ファイルからデータベー スのテーブルを生成するための設定は図 8 の linkRTTarget のようになる. セグメント間の階層関係は, 階層をなしうるセグメント型の名前を下位のものから順に並べて指定する,たとえば,図 6 の単語・アクセント句・イントネーション句間の階層関係を表現するには, 図 8 の groupProsodicのように指定する. データベース構築ツールは, 階層関係にあるセグメント対を自動的に導出し, テーブルを作成する. 階層関係は隣接する型の間(relWord2AP や relAP2IP) だけでなく, 離れた型の間 (relWord2IP) でも導出される.  図 8 表形式ファイルからデータベースを生成するための設定の例 ## 4 適用事例 『日本語話し言葉コーパス』と『千葉大学 3 人会話コーパス』を対象に, 本稿で提案した手法によりデータベースを構築し運用している。本節ではその概要について紹介する。 ## 4.1 『日本語話し言葉コーパス』 『日本語話し言葉コーパス』(CSJ) は,2004 年に一般公開された 661 時間の日本語自発音声からなるデータベースである (前川 2004).このうち「コア」と呼ばれるデータ範囲 (44 時間) には,おもに表 2 に示す研究用付加情報が付与されており (国立国語研究所 2006), これらを対象に本手法によりデータベースを構築した(以下 CSJ-RDB)(小磯, 伝, 前川 2012)9. 各研究用付加情報はそれぞれ, 表 2 の「ツール」欄に示す書式(CSJ 構築時(1999~2003 年) とは異なる)で記述されており,ここから各種中間ファイルを経てデータベースに変換した。 CSJ-RDBの(非整列)セグメントとリンクを図 9 に示す. 談話中の要素を記述したセグメントは, 次の 3 種類の階層関係からなる系列に分類される. - 形態統語論系列 : 短単位 $<$ 長単位 $<$ 文節 $<$ 節単位 - 音声系列 : 分節音 $<$ 音素 $<$ モーラ $<$ 短単位 $<$ 間休止単位 - 韻律系列:短単位くアクセント句くイントネーション句 このうち短単位と長単位については, 時間的に分節化できる部分をセグメントで表し, 時間的 ^{9} \mathrm{CSJ}$ では,各種情報を統合して階層的に表現した XML 文書が提供されている。しかし,この階層から逸脱する情報を無理やり特定の単位に埋め込んだり,別の階層で記述したXML 文書が別途提供され,両者にまたがった検索が困難であったりして使いづらかった。本手法ではスタンドオフ形式でデータを表現するため, これらの問題は解消される。 } 表 2 CSJ の研究用付加情報 図 9 CSJ-RDB の(非整列)セグメントとリンク に分節化できない部分は非整列セグメントとして表している。韻律情報のうちアクセント核や句末音調などのトーン情報は,どのアクセント句に帰属するかがリンク (linkTone2AP) によって表される。また文節係り受け関係は,係り元と係り先の依存関係がリンク (linkDepBunsetsu) によって表される。 ## 4.2 『千葉大学 3 人会話コーパス』 『千葉大学 3 人会話コーパス』は,大学キャンパスにおける 3 人の友達同士の会話を集めた約 6 時間からなる対話コーパスである (Den and Enomoto 2007). このうち 12 会話約 2 時間のデータには,表 3 に示す研究用付加情報が付与されており (Den and Enomoto 2007; Den, Koiso, Maruyama, Maekawa, Takanashi, Enomoto, and Yoshida 2010; Den, Yoshida, Takanashi, and Koiso 2011; Den, Koiso, Takanashi, and Yoshida 2012), これらを対象にデータベースを構築した (以下 Chiba-RDB). 各研究用付加情報はそれぞれ表 3 の「ツール」欄に示す書式のアノテーションファイルで記述されており,ここから各種中間ファイルを経てデータベースに変換した。 Chiba-RDBの(非整列)セグメントとリンクを図 10 に示す。セグメントは,次の 4 種類の階層関係からなる系列に分類される. - 形態統語語用論系列:短単位 $<$ 文節 $<$ 節 $<$ 長い発話単位 - 韻律系列:短単位<アクセント句<イントネーション句 - 視線系列:視線フェーズ $<$ 視線句 - 頭部動作系列:頭部動作フェーズ<頭部動作句 CSJ-RDB と異なる部分を中心に見る。まず,長い発話単位間の連接関係(話者交替)を表す話者移行関係がリンク (linkLUUTrans) によって表される。また長い発話単位のうち,あいづち表現については,あいづちが打たれるきっかけとなった表現(反応先)との関係がリンク 表 3 『千葉大学 3 人会話コーパス』の研究用付加情報 \\ 図 10 Chiba-RDB の(非整列)セグメントとリンク (linkRTTarget)によって表される. 領きについても同様に, そのきっかけとなった表現(反応先)との関係がリンク (linkNodTarget)によって表される. ## 5 議論 ## 5.1 関連研究 本節では関連研究との違いについて述べる。1 節で述べたように, 本研究は, 既存のアノテー ションツールやコーパス検索ツールを用いてコーパス利用環境を実現することに主眼があり,アノテーションツールやコーパス検索ツールの開発そのものを目的とするものではない. Noguchi et al. (2008) や Kaplan et al. (2010) をはじめとする関連研究とは, この点がまず大きく異なる. さまざまなアノテーションを統合開発環境で行なうアプローチは魅力的ではあるが, マルチモー ダルデータを含む話し言葉コーパスではその実現に多くの困難が伴い,本研究のアプローチのほうがより現実的な解を提示している. 他のツールで作成されたアノテーションを統合し利用するという点では, Matsumoto et al. (2006) や Calhoun et al. (2010) がむしろ本研究に近い. Matsumoto et al. (2006) は, 形態素解析・係り受け解析済みのテキストを読み込んで,コーパス検索・修正などをGUIで行なうための汎用的なツール『茶器』を開発している。 もともと書き言葉を想定していたが, 最近, 話し言葉も扱えるよう拡張がなされている (浅原, 森田 2013). しかし, 『茶器』にインポートできるデータは決められた書式のものに限られており,3節で示したような柔軟性はない。また, 扱える単位も単語・文節あたりに限られており,4節で見た事例のような多岐にわたる単位を扱うことはできない. Calhoun et al. (2010)は,長年にわたってさまざまな研究機関でなされてきた, Switchboard コーパス (Godfrey, Holliman, and McDaniel 1992) に対するさまざまな種類のアノテーションを統合し, 多層にわたる検索を可能にした。電話会話のためマルチモーダル情報は含まないが,音素から統語構造・韻律情報, さらには非流暢性・情報構造・共参照に至るまで, 15 種類以上ものアノテーションを含み, 4 節で見た本研究の事例に十分匹敵する.彼らはさまざまな書式を持つ既存のアノテーションを変換してこの統合をなしているが,本研究のようにそのための汎用的なツールを開発したわけではない. ## 5.2 アノテーション管理について 本研究では, 話し言葉コーパスの統合利用に焦点を当てて述べてきたが,アノテーション過程の管理もまたコーパスアノテーションの重要な課題である. Kaplan et al. (2010) は, 作業者管理, 並行・分散アノテーション, バージョン管理, バージョンの併合といったマクロレべルの要件を考慮した統合開発環境を提案している。これに対して, 本研究では, 話し言葉で広く使 われている既存のアノテーションツールを有効に利用することを最大の要件としてきた。そのため, 統合開発環境に基づいて種々のツール群を開発するという方向性とは異なる立場に立ってきた。このことのデメリットについて検討する必要があろう. 統合開発環境に基づくアノテーションッールを使わないことの最大のデメリットは,異なるツール間で共有される部分(たとえば『日本語話し言葉コーパス』の短単位)をあるアノテー ションで修正したときに,その影響を他のアノテーションに簡単に波及できないという点である。統合開発環境に基づくツール群では,アノテーションデータ自身を共有しているため, このような波及は作業者が意識しなくても暗黙的になされる。しかし,個別のアノテーションツー ルを用いる本手法では,波及的な修正は自動的には行なえない. 本手法においても,構築したデータベースから各種アノテーションを再生成することは可能であり,4節で紹介した事例では,実際にそのようなツールを作成し運用している。このようなツールによって,あるアノテーションで生じた修正を別のアノテーションに波及すること自体は可能である。しかし,現状では,この種の波及的修正は,作業者が能動的に実行しない限り,行なえない,今後,アノテーションファイルへのアクセス方法などを工夫する(たとえば常にデータベースから再生成するなど)ことで,より効果的にアノテーション過程を管理する方策を考える必要がある. また, バージョン管理の問題についても, 本研究では, 汎用のバージョン管理システム Subversion を用いてアノテーションファイルを管理しているが,これで十分というわけではない. アノテー ション過程の管理については, 既存のアノテーションツールやバージョン管理システムを含むシステム全体の中で,よりよい手段を模索する必要があろう. ## 5.3 実用性について 2 節で述べたように,提案スキーマでは,語やアクセント句や節といった言語学的な概念とスキーマ内のオブジェクトとが直接対応しており,ユーザの了解度は高いと思われる。しかし,検索速度の面ではどうであろうか. この点を調べるために,コーパス言語学でよく用いられる,以下のような標準的なクエリに対する検索速度を計測した(付録 B 参照)。 クエリ 1 イントネーション句の末尾のアクセント句の先頭のモーラの継続長を算出 クエリ 2 イントネーション句の次末(末尾から 2 番目)のアクセント句の末尾のモーラの継続長を算出 クエリ 3 文末形式を持つ節単位の先頭の文節の末尾の短単位が係助詞「は」であるものを抽出し, その短単位の継続長を算出 (1) セグメントとリンクに基づくスキーマのように抽象度の高い単一のセグメントを用いる場合と (2) 本手法のように型ごとに個別化されたセグメントを用いる場合とで比較を行なった. 表 4 検索速度の比較 (5 回の平均. 単位は秒) なお, これ以外の条件を対等にするため, いずれも階層関係を陽に表現した. 実験は, 人文系研究者がよく用いている, SQLiteの GUIである Navicat for SQLite (ver. 11.0.10) を用いてノー ト PC (Sony VPCZ22AJ, Core i7-2640M $2.80 \mathrm{GHz}$ ) 上で行ない, CSJ-RDBを検索対象とした.結果を表 4 に示す.「個別」は総じて「単一」の倍程度の速さであり, 個別化されたセグメン卜を用いることで検索速度も若干改善されることがわかる. この程度の違いがどれだけの意味を持つかはわからないが, 少なくとも提案スキーマが実用性で劣るということはない. ## 6 おわりに 本研究では, (1) マルチチャネル・マルチモーダルの話し言葉コーパスを表現できる, 汎用的なデータベーススキーマを設計し, (2) 既存のアノテーションツールで作成された, 種々の書式を持つアノテーションを入力とし, 汎用的なデータベーススキーマから具現化されたデータベースを構築するツールを開発した。また, 『日本語話し言葉コーパス』と『千葉大学 3 人会話コーパス』を対象に,本手法によりデータベースを構築した事例を紹介した.構築したデータベースは,コーパス言語学的な研究に有効に利用されている. 今後の課題としてまず, 使いやすいユーザインターフェースを備えた, 本研究のスキーマに対応したコーパス検索ツールの開発が挙げられる. 本研究では, SQL 言語やその GUIのような既存のツールを用いた検索を想定していた。実際,人文系研究者をおもな対象として,CSJ-RDB をSQL 言語や GUI で検索する技法に関する講習会を何度か開いている。しかし, 本スキーマに特化したより使いやすい検索ツールがあれば,利用者はますます広がると期待できる. さらに, 本研究のデータベース構築ツールは Linux 環境で実装されており, この点も人文系研究者が利用するうえで障害となるであろう. Praat や ELAN などの既存のアノテーションツー ルを用いたコーパス開発は,むしろ人文系研究者の間で広く行なわれており,それらのアノテー ションを統合利用する必要性もまた人文系研究者において高いかもしれない. 今後, より身近な環境で使えるようなツールに変更していきたい. ## 謝 辞 CSJ-RDB の構築に際し西川賢哉氏(理化学研究所)の協力を得た. 記して感謝する.本研究は, 科研費補助金基盤研究 (B)「発話単位アノテーションに基づく対話の認知・伝達融合モデルの構築」(課題番号:23320081, 研究代表者 : 伝康晴), 国立国語研究所独創・発展型共同研究「多様な様式を網羅した会話コーパスの共有化」(リーダー:伝康晴), 萌芽・発掘型共同研究「会話の韻律機能に関する実証的研究」(リーダー:小磯花絵)による成果である. ## 参考文献 浅原正幸, 森田敏生 (2013). コーパスコンコーダンサ『ChaKi.NET』の連続值データ型. 第 4 回コーパス日本語学ワークショップ, pp. 249-256. Bird, S., Day, D., Garofolo, J., Henderson, J., Laprun, C., and Liberman, M. (2000). "ATLAS: A Flexible and Extensible Architecture for Linguistic Annotation." In Proceedings of the 2nd International Conference on Language Resources and Evaluation (LREC 2000), pp. 1699-1706. Athens, Greece. Bird, S. and Liberman, M. (2001). "A Formal Framework for Linguistic Annotation." Speech Communication, 33, pp. 23-60. Boersma, P. and Weenink, D. (2013). "Praat: Doing Phonetics by Computer." Computer Program, Version 5.3.56, retrieved 15 September 2013 from http://www.praat.org/. Brugman, H. and Russel, A. (2004). "Annotating Multi-media/Multi-modal Resources with ELAN." In Proceedings of the 4th International Conference on Language Resources and Evaluation (LREC 2004), pp. 2065-2068. Lisbon, Portugal. http://tla.mpi.nl/tools/ tla-tools/elan/. Calhoun, S., Carletta, J., Brenier, J., Mayo, N., Jurafsky, D., Steedman, M., and Beaver, D. (2010). "The NXT-format Switchboard Corpus: A Rich Resource for Investigating the Syntax, Semantics, Pragmatics and Prosody of Dialogue." Language Resources and Evaluation Journal, 44, pp. 387-419. Carletta, J. (2007). "Unleashing the Killer Corpus: Experiences in Creating the Multi-everything AMI Meeting Corpus." Language Resources and Evaluation Journal, 41, pp. 181-190. Carletta, J., Evert, S., Heid, U., and Kilgour, J. (2005). "The NITE XML Toolkit: Data Model and Query." Language Resources and Evaluation Journal, 39, pp. 313-334. Chen, L., Rose, R. T., Qiao, Y., Kimbara, I., Parrill, F., Welji, H., Han, T. X., Tu, J., Huang, Z., Harper, M., Quek, F., Xiong, Y., McNeill, D., Tuttle, R., and Huang, T. (2006). "VACE Multimodal Meeting Corpus." In Renals, S. and Bengio, S. (Eds.), Machine Learning for Multimodal Interaction, Vol. 3869 of Lecture Notes in Computer Science, pp. 40-51. Springer, Berlin/Heidelberg. Den, Y. and Enomoto, M. (2007). "A Scientific Approach to Conversational Informatics: Description, Analysis, and Modeling of Human Conversation." In Nishida, T. (Ed.), Conversational Informatics: An Engineering Approach, pp. 307-330. John Wiley \& Sons, Hoboken, NJ. Den, Y., Koiso, H., Maruyama, T., Maekawa, K., Takanashi, K., Enomoto, M., and Yoshida, N. (2010). "Two-level Annotation of Utterance-units in Japanese Dialogs: An Empirically Emerged Scheme." In Proceedings of the 7th International Conference on Language Resources and Evaluation (LREC 2010), pp. 1483-1486. Valletta, Malta. Den, Y., Koiso, H., Takanashi, K., and Yoshida, N. (2012). "Annotation of Response Tokens and their Triggering Expressions in Japanese Multi-party Conversations." In Proceedings of the 8th International Conference on Language Resources and Evaluation (LREC 2012), pp. 1332-1337. Istanbul, Turkey. Den, Y., Yoshida, N., Takanashi, K., and Koiso, H. (2011). "Annotation of Japanese Response Tokens and Preliminary Analysis on their Distribution in Three-party Conversations." In Proceedings of the 14th Oriental COCOSDA (O-COCOSDA 2011), pp. 168-173. Hsinchu, Taiwan. Godfrey, J. J., Holliman, E. C., and McDaniel, J. (1992). "SWITCHBOARD: Telephone Speech Corpus for Research and Development." In Proceedings of the 17th International Conference on Acoustics, Speech, and Signal Processing (ICASSP-92), pp. 517-520. San Francisco, CA.細馬宏通 (2009). ジェスチャー単位. 坊農真弓, 高梨克也 (編), 多人数インタラクションの分析手法, pp. 119-137. オーム社. 五十嵐陽介, 菊池英明, 前川喜久雄 (2006). 韻律情報. 国立国語研究所報告 124 : 日本語話し言葉コーパスの構築法, pp. 347-453. Kaplan, D., Iida, R., Nishina, K., and Tokunaga, T. (2012). "Slate-A Tool for Creating and Maintaining Annotated Corpora." Journal for Lanuage Technology and Computational Linguistics, 26 (2), pp. 91-103. Kaplan, D., Iida, R., and Tokunaga, T. (2010). "Annotation Process Management Revisited." In Proceedings of the 7th International Language Resources and Evaluation Conference (LREC 2010), pp. 3654-3661. Valletta, Malta. Kipp, M. (2001). "Anvil-A Generic Annotation Tool for Multimodal Dialogue." In Proceedings of the 7th European Conference on Speech Communication and Technology (Eurospeech 2001), pp. 1367-1370. Aalborg, Denmark. http://www.anvil-software.org/. 小磯花絵, 伝康晴, 前川喜久雄 (2012). 『日本語話し言葉コーパス』RDB の構築. 第 1 回コー パス日本語学ワークショップ, pp. 393-400. 国立国語研究所 (2006). 国立国語研究所報告 124 :日本語話し言葉コーパスの構築法. Kudo, T. and Matsumoto, Y. (2002). "Japanese Dependency Analysis using Cascaded Chunking." In Proceedings of the 6th Conference on Computational Natural Language Learning (CoNLL2002), pp. 63-69. Taipei, Taiwan. https://code.google.com/p/cabocha/. 前川喜久雄 (2004). 『日本語話し言葉コーパス』の概要. 日本語科学, 15, pp. 111-133. Matsumoto, Y., Asahara, M., Hashimoto, K., Tono, Y., Ohtani, A., and Morita, T. (2006). "An Annotated Corpus Management Tool: ChaKi." In Proceedings of the 5th International Conference on Language Resources and Evaluation (LREC 2006), pp. 1418-1421. Genoa, Italy. Müller, C. and Strube, M. (2001). "MMAX: A Tool for the Annotation of Multi-modal Corpora." In Proceedings of the 2nd IJCAI Workshop on Knowledge and Reasoning in Practical Dialogue Systems, pp. 45-50. Seattle, WA. Müller, C. and Strube, M. (2006). "Multi-level Annotation of Linguistic Data with MMAX2." In Braun, S., Kohn, K., and Mukherjee, J. (Eds.), Corpus Technology and Language Pedagogy: New Resources, New Tools, New Methods, pp. 197-214. Peter Lang, Frankfurt am Main, Germany. Noguchi, M., Miyoshi, K., Tokunaga, T., Iida, R., Komachi, M., and Inui, K. (2008). "Multiple Purpose Annotation using SLAT-Segment and Link-based Annotation Tool-." In Proceedings of the 2nd Linguistic Annotation Workshop, pp. 61-64. Marrakech, Morocco.角康之, 矢野正治, 西田豊明 (2011). マルチモーダルデータに基づいた多人数会話の構造理解.社会言語科学, 14 (1), pp. 82-96. Tjong Kim Sang, E. F. and Veenstra, J. (1999). "Representing Text Chunks." In Proceedings of the 9th Conference of the European Chapter of the Association for Computational Linguistics (EACL'99), pp. 173-179. Bergen, Norway. Waibel, A. and Stiefelhagen, R. (2009). Computers in the Human Interaction Loop. Springer, Berlin/Heidelberg. ## A隣接語対を抽出するクエリ 同一節 (segClause) 内で隣接する単語 (segWord) の対を抽出するクエリ。階層関係テーブル (relWord2Clause) を用いない場合は,サブクエリを用いた煩雑なクエリとなる. -- 階層関係を用いた場合 SELECT W1.id AS current, W2.id AS next FROM segWord AS W1 INNER JOIN relWord2Clause AS R1 ON R1.descendant = W1.id INNER JOIN relWord2Clause AS R2 ON R2.ancestor $=\mathrm{R} 1$.ancestor INNER JOIN segWord AS W2 ON W2.id = R2.descendant WHERE R2.nth $=$ R1.nth +1 ; ## B実用性評価で用いたクエリ ## クエリ 1 :イントネーション句の末尾のアクセント句の先頭のモーラの継続長を算出 -- 抽象度の高い単一のセグメントを用いた場合 SELECT I.id, MATTR.value AS MoraEntity, M.end - M.start AS Duration FROM seg AS I INNER JOIN rel AS AI ON AI.ancestor = I.id INNER JOIN seg AS A ON A.id = AI.descendant INNER JOIN rel AS MA ON MA.ancestor $=$ A.id INNER JOIN seg AS M ON M.id = MA.descendant INNER JOIN attr AS MATTR ON MATTR.ref $=$ M.id WHERE AI.nth $=$ AI.len AND MA.nth $=1$ AND I.type $=$ "IP" AND AI.type $=$ "AP2IP" AND A.type $=$ "AP" AND MA.type $=$ "Mora2AP" AND M.type = "Mora" AND MATTR.name = "MoraEntity"; -- 型ごとに個別化されたセグメントを用いた場合 SELECT I.id, M.MoraEntity, M.end - M.start AS Duration FROM segIP AS I INNER JOIN relAP2IP AS AI ON AI.ancestor $=$ I.id INNER JOIN segAP AS A ON A.id = AI.descendant INNER JOIN relMora2AP AS MA ON MA.ancestor $=$ A.id INNER JOIN segMora AS M ON M.id = MA.descendant WHERE AI.nth $=$ AI.len AND MA.nth $=1$; クエリ 2 : イントネーション句の次末のアクセント句の末尾のモーラの継続長を算出 -- 抽象度の高い単一のセグメントを用いた場合 SELECT I.id, MATTR.value AS MoraEntity, M.end - M.start AS Duration FROM seg AS I INNER JOIN rel AS AI ON AI.ancestor = I.id INNER JOIN seg AS A ON A.id = AI.descendant INNER JOIN rel AS MA ON MA.ancestor $=$ A.id INNER JOIN seg AS M ON M.id = MA.descendant INNER JOIN attr AS MATTR ON MATTR.ref $=$ M.id WHERE AI.nth = AI.len - 1 AND MA.nth = MA.len AND I.type $=$ "IP" AND AI.type $=$ "AP2IP" AND A.type $=$ "AP" AND MA.type $=$ "Mora2AP" AND M.type $=$ "Mora" AND MATTR.name $=$ "MoraEntity"; -- 型ごとに個別化されたセグメントを用いた場合 SELECT I.id, M.MoraEntity, M.end - M.start AS Duration FROM segIP AS I INNER JOIN relAP2IP AS AI ON AI.ancestor $=$ I. id INNER JOIN segAP AS A ON A.id = AI.descendant INNER JOIN relMora2AP AS MA ON MA.ancestor $=$ A.id INNER JOIN segMora AS M ON M.id = MA.descendant WHERE AI.nth = AI.len - 1 AND MA.nth = MA.len; クエリ 3 : 文末形式を持つ節単位の先頭の文節の末尾の短単位が係助詞「は」であるものを抽出し, その短単位の継続長を算出 -- 抽象度の高い単一のセグメントを用いた場合 SELECT C.id, S.end - S.start AS Duration FROM seg AS $C$ INNER JOIN rel AS BC ON BC.ancestor $=$ C.id INNER JOIN seg AS B ON B.id = BC.descendant INNER JOIN rel AS SB ON SB.ancestor $=$ B.id INNER JOIN seg AS S ON S.id = SB.descendant INNER JOIN rel AS SMS ON SMS.ancestor = S.id INNER JOIN useg AS SM ON SM.id = SMS.descendant INNER JOIN attr AS CATTR ON CATTR.ref $=$ C.id INNER JOIN attr AS SMATTR1 ON SMATTR1.ref = SM.id INNER JOIN attr AS SMATTR2 ON SMATTR2.ref $=$ SM.id WHERE BC.nth $=1$ AND SB.nth = SB.len AND SMS.nth = SMS.len AND C.type $=$ "Clause" AND BC.type $=$ "Bunsetsu2Clause" AND B.type = "Bunsetsu" AND SB.type = "SUW2Bunsetsu" AND S.type $=$ "SUW" AND SMS.type $=$ "SUWMorph2SUW" AND SM.type = "SUWMorph" AND CATTR.name = "ClauseBoundaryLabel" AND CATTR.value LIKE "[\%]" AND SMATTR1.name = "SUWLemma" AND SMATTR1.value $="$ は" AND SMATTR2.name $=$ "SUWMiscPOSInfo1" AND SMATTR2.value = "係助詞"; -- 型ごとに個別化されたセグメントを用いた場合 SELECT C.id, S.end - S.start AS Duration FROM segClause AS C INNER JOIN relBunsetsu2Clause AS BC ON BC.ancestor $=$ C.id INNER JOIN segBunsetsu AS B ON B.id = BC.descendant INNER JOIN relSUW2Bunsetsu AS SB ON SB.ancestor $=$ B.id INNER JOIN segSUW AS S ON S.id = SB.descendant INNER JOIN relSUWMorph2SUW AS SMS ON SMS.ancestor $=$ S.id INNER JOIN usegSUWMorph AS SM ON SM.id = SMS.descendant WHERE BC.nth $=1$ AND SB.nth = SB.len AND SMS.nth = SMS.len AND C.ClauseBoundaryLabel LIKE "[\%]" AND SM.SUWLemma = "は" AND SM.SUWMiscPOSInfo1= "係助詞"; ## 略歴 伝康晴:1993 年京都大学大学院工学研究科博士後期課程研究指導認定退学. 博士 (工学). ATR 音声翻訳通信研究所研究員, 奈良先端科学技術大学院大学情報科学研究科助教授, 千葉大学文学部助教授・准教授を経て, 現在, 千葉大学文学部教授. 国立国語研究所客員教授. 専門はコーパス言語学・心理言語学・計算言語学. とくに日常的な会話の分析・モデル化. 社会言語科学会・日本認知科学会 - 人工知能学会 $\cdot$ 日本心理学会 - 日本認知心理学会各会員. 小磯花絵:1998 年 10 月奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士 (理学).ATR 知能映像通信研究所研修研究員, 国立国語研究所研究員を経て, 現在, 人間文化研究機構国立国語研究所准教授. 専門は談話分析・コーパス言語学・音声科学. 言語処理学会・社会言語科学会 $\cdot$日本認知科学会 $\cdot$ 日本音声学会 $\cdot$ 人工知能学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# レシピ用語の定義とその自動認識のための タグ付与コーパスの構築 笹田 鉄郎 $\cdot$ 森 信介 ${ }^{\dagger} \cdot$ 山肩 洋子计・前田 浩邦 $^{+\dagger \dagger}$ ・河原 達也 ${ }^{\dagger}$ 自然言語処理において, 単語認識 (形態素解析や品詞推定など) の次に実用化可能な 課題は,ある課題において重要な用語の認識であろう。この際の重要な用語は,一般に単語列であり, 多くの応用においてそれらに種別がある。一般的な例は, 新聞記事における情報抽出を主たる目的とした固有表現であり,人名や組織名,金額な どの 7 つか 8 つの種別(固有表現クラス)が定義されている.この重要な用語の定義 は, 自然言語処理の課題に大きく依存する.我々はこの課題をレシピ(調理手順の 文章)に対する用語抽出として,レシピ中に出現する重要な用語を定義し, 実際に コーパスに対してアノテーションし, 実用的な精度の自動認識器を構築する過程に ついて述べる。 その応用として, 単純なキーワード照合を超える知的な検索や, 映像と言語表現のマッチングによるシンボルグラウンディングを想定している。この ような背景の下, 本論文では, レシピ用語タグセットの定義と, 実際に行ったアノ テーションについて議論する。また, レシピ用語の自動認識の結果を提示し, 必要 となるアノテーション量の見通しを示す. キーワード:固有表現認識,用語抽出,レシピ,コーパス,アノテーション ## Definition of Recipe Terms and Corpus Annotation for their Automatic Recognition \author{ Tetsuro Sasada ${ }^{\dagger}$, Shinsuke Mori ${ }^{\dagger}$, Yoko Yamakata ${ }^{\dagger \dagger}$, Hirokuni Maeta ${ }^{\dagger \dagger \dagger}$ \\ and Tatsuya Kawahara ${ }^{\dagger}$ } In natural language processing (NLP), recognizing important terms after word recognition (word segmentation, part-of-speech tagging, etc.) is practical. In general, terms are word sequences and are classified into different types in many applications. A famous example is the named entity that aims to extract information from newspaper articles. This has seven or eight types (named entity classes) such as person name, organization name and amount of money. The definition of important terms depends heavily on the NLP task. We chose term extraction from recipes (cooking procedure texts) as our task. We discuss a process to define terms and types, annotate corpus, and construct a practically accurate automatic recognizer of recipe terms. The recognizer can potentially be applied to search functions that are more intelligent than simple keyword match and symbol grounding researches, wherein we can match videos  and language expressions. Based on these backgrounds, in this study, we discuss the definition of a tag set for recipe terms and real annotation work. Furthermore, we present the experimental results of automatic recognition of recipe terms and provide an insight into the number of annotations required for realizing a certain degree of accuracy. Key Words: Named Entity Recognition, Term Extraction, Recipe, Corpus, Annotation ## 1 はじめに 自然言語処理において, 単語認識(形態素解析や品詞推定など)の次に実用化可能な課題は,用語の抽出であろう。この用語の定義としてよく知られているのは, 人名や組織名,あるいは金額などを含む固有表現である。固有表現は,単語列とその種類の組であり,新聞等に記述される内容に対する検索等のために 7 種類(後に 8 種類となる)が定義されている (Chinchor 1998; Sekine and Isahara 2000). 固有表現認識はある程度の量の夕グ付与コーパスがあるとの条件の下,90\%程度の精度が実現できたとの報告が多数ある (Borthwick 1999; Lafferty, McCallum, and Pereira 2001; Sang and Meulder 2003). しかしながら,自然言語処理によって自動認識したい用語は目的に依存する。実際, IREXにおいて固有表現の定義を確定する際もそのような議論があった (江里口 1999). 例えば,ある企業がテキストマイニングを実施するときには,単に商品名というだけでなく,自社の商品と他社の商品を区別したいであろう。このように,自動認識したい用語の定義は目的に依存し,新聞からの情報抽出を想定した一般的な固有表現の定義は有用ではない。したがって,ある固有表現の定義に対して,夕グ付与コーパスがない状態から $90 \%$ 程度の精度をいかに手早く実現するかが重要である. 昨今の言語処理は,機械学習に基づく手法が主流であり,様々な機械学習の手法が研究されている。他方で, 学習データの構築も課題であり, その方法論やツールが研究されている (自然言語処理特集号編集委員会 2014). 特に, 新しい課題を解決する初期は学習データがほとんどなく, 学習データの増量による精度向上が, 機械学習の手法の改善による精度向上を大きく上回ることが多い. さらに,目的の固有表現の定義が最初から明確になっていることは稀で,夕グ付与コーパスの作成を通して実例を観察することにより定義が明確になっていくのが現実的であろう。本論文では, この過程の実例を示し, ある固有表現の定義の下である程度高い精度の自動認識器を手早く構築するための知見について述べる. 本論文で述べる固有表現は,以下の条件を満たすとする。 条件 1 単語の一部だけが固有表現に含まれることはない. 一般分野の固有表現では, 「訪米」などのように, 場所が単語内に含まれるとすることも 考えられるが,本論文ではこのような例は,辞書の項目にそのことが書かれていると仮定する。 条件 2 各単語は高々唯一の固有表現に含まれる. 一般分野の固有表現では,入れ子を許容することも考えられる (Finkel and Manning 2009; Tateisi, Kim, and Ohta 2002) 例えば,「アメリカ大統領」という表現は, 全体が人物を表し「アメリカ」の箇所は組織名を表すと考えられる。自動認識を考えて広い方を採ることとする. 以上の条件は, 品詞タグ付けに代表される単語を単位としたタグ付けの手法を容易に適用させるためのものである。その一方で,日本語や中国語のように単語分かち書きの必要な言語に対しては,あらかじめ単語分割のプロセスを経る必要があるという問題も生じるが,本論文では単語分割を議論の対象としないものとする. 本論文では,題材を料理のレシピとし,さまざまな応用に重要と考えられる単語列を定義し, ある程度実用的な精度の自動認識を実現する方法について述べる。例えば,「フライ返し」という単語列には「フライ」という食材を表す単語が含まれるが,一般的に「フライ返し」は道具であり,「フライ返し」という単語列全体を道具として自動認識する必要がある. 本論文ではこれらの単語列をレシピ用語と定義してタグ付与コーパスの構築を行い, 上述した固有表現認識の手法に基づく自動認識を目指す.レシピ用語の想定する応用は以下の 2 つであり, 関連研究(2.3 節)で詳細を述べる。 ## 応用 1 フローグラフによる意味表現 自然言語処理の大きな目標の一つは意味理解であると考えられる。一般の文書に対して意味を定義することは未だ試行すらほとんどない状況である。しかしながら,手続き文書に限れば, 80 年代にフローチャートで表現することが提案され,ルールベースの手法によるフローチャートへの自動変換が試みられている (Momouchi 1980)。同様の取り組みをレシピに対してより重点的に行った研究もある (浜田, 井手, 坂井, 田中 2002). 本論文で述べるレシピ用語の自動認識は,手順書のフローグラフ表現におけるノードの自動推定として用いることが可能である. 応用 2 映像とのアラインメント 近年,大量の写真や映像が一般のインターネットユーザーによって投稿されるようになり,その内容を自然言語で自動的に表現するという研究が行われている.その基礎研究と して,映像と自然言語の自動対応付けの取り組みがある (Rohrbach, Qiu, Titov, Thater, Pinkal, and Schiele 2013; Naim, Song, Liu, Kautz, Luo, and Gildea 2014). これらの研究における自然言語処理部分は,主辞となっている名詞を抽出するなどの素朴なものである. 本論文で述べるレシピ用語の自動認識器により, 単語列として表現される様々な物体や動作を自動認識することができる. これらの応用の先には, レシピの手順書としての構造を考慮し, 調理時に適切な箇所を検索して提示を行う,より柔軟なレシピ検索 (Yamakata, Imahori, Sugiyama, Mori, and Tanaka 2013) や, レシピの意味表現と進行中の調理動作の認識結果を用いた調理作業の教示 (Hashimoto, Mori, Funatomi, Yamakata, Kakusho, and Minoh 2008) がより高い精度で実現できるであろう. 本論文では,まずレシピ用語のアノテーション基準の策定の経緯について述べる。次に,実際のレシピテキストへのアノテーションの作業体制や環境, および作業者間の一致・不一致について述べる. 最後に, 作成したコーパスを用いて自動認識実験を行った結果を提示し, 学習コーパスの大きさによる精度の変化や,一般固有表現認識に対して指摘されるカバレージの重要性を考慮したアノテーション戦略の可能性について議論する。本論文で対象とするレシピテキストはユーザ生成コンテンツ (User Generated Contents; UGC) であり,そのようなデータを対象とした実際のタグ定義ならびにアノテーション作業についての知見やレシピ用語の自動認識実験から得られた知見は,ネット上への書き込みに対する分析など様々な今日的な課題の解決の際に参考になると考えられる。 ## 2 関連研究 1 節で述べたとおり,我々の提案するレシピ用語夕グ付与コーパスは,レシピテキストが単語に分割されていることを前提としている。本節では,まずレシピテキストに対する自動単語分割の現状について述べる。次に,系列ラベリングによるレシピ用語の自動認識手法として用いる,一般的な固有表現認識手法について説明する。最後に,レシピ用語の自動認識結果の応用について述べる. ## 2.1 レシピテキストに対する自動単語分割 本論文で提案するレシピ用語夕グ付与コーパスは, 各文のレシピ用語の箇所が適切に単語に分割されていることを前提としている。したがって, コーパス作成に際しては, 自動単語分割 (森, Neubig, 坪井 2011) や形態素解析 (松本 1996; 工藤, 山本, 松本 2004; 松本, 黒橋, 山地, 妙木, 長尾 1997) などを前処理として行い, レシピ用語の箇所のみを人手で修正することが必要となる. 自動単語分割器や形態素解析器をレシピテキストに適用する際に問題となるのは, 分野の特殊性に起因する解析精度の低下である。実際, 文献 (森 2012)では, 『現代日本語書き言葉均衡コーパス』(Maekawa, Yamazaki, Ogiso, Maruyama, Ogura, Kashino, Koiso, Yamaguchi, Tanaka, り,学習コーパスと同じ分野のテストコーパスに対する精度 $(99.32 \%)$ よりも大きく低下することを報告している。この文献ではさらに, 10 時間の分野適応作業を行い,精度が $97.05 \%$ に向上したことを報告している。 本論文で詳述するレシピ用語タグ付与コーパスの構築に際しては, レシピ用語となる箇所の単語境界付与も行うことになる 1 . この作業を実際に行う際には,まず前処理としてレシピテキストに対する自動単語分割を行い,その後人手でレシピ用語となる箇所を確認しながら夕グ付与を行っている。しかしながら,レシピ用語とならない箇所への単語境界情報付与はアノテー ションコストの増加を避けるため行っていない。したがって, 自動単語分割の学習コーパスとしては,文の一部(レシピ用語となる箇所)にのみ信頼できる単語境界情報が付与されており, レシピ用語以外の箇所においては信頼性の低い単語境界情報を持つ部分的単語分割コーパスとみなすことができる.部分的単語分割コーパスも学習コーパスとすることが可能な自動単語分割器 (森他 2011) を用いる場合は, 我々のコーパスにより, 自動単語分割の精度も向上すると考えられる。 ## 2.2 固有表現認識 一般分野の固有表現タグ付与コーパスとして,新聞等に人名や組織名などの夕グを付与したコーパスがすでに構築されている (Grishman and Sundheim 1996; Sekine and Isahara 2000). 1 節で述べたように,本論文で述べる固有表現は単語列であり,コーパスに対するアノテーションでは, 以下の例が示すように IOB2 方式 (Tjong, Sang, and Veenstra 1999) を用いて各単語にタグが付与される. 99 /Dat-B 年/Dat-I 3 /Dat-I 月/Dat-I カルロス/Per-B ゴーン/Per-I 氏/O が日産/Org$\mathrm{B}$ の $/ \mathrm{O}$ 社長 $/ \mathrm{O}$ に $\mathrm{O}$ 就任 $/ \mathrm{O}$ ここで, Dat は日付, Per は人名, Org は組織名を意味し, それぞれに最初の単語であることを意味する B (Begin) や同一種の固有表現の継続を意味する I (Intermediate) が付与されている. さらに, O (Other) はいずれの固有表現でもないことを意味する. 本論文では, 各単語に付与されるタグをIOB2 タグと呼ぶ。また,単語列に与えられる固有表現クラスを固有表現夕グ(上の例では Dat や Per など)と呼ぶこととする. したがって, IOB2 タグの種類数は固有表現夕グの 2 倍より 1 多い。これは本論文で取り扱うレシピ用語に関しても同様であり,それぞれを IOB2 タグ・レシピ用語タグと記述する。 自動固有表現認識は, 系列ラベリングの問題として解かれることが多い (Borthwick 1999; Lafferty et al. 2001; Sang and Meulder 2003) . 一般分野の固有表現認識に対しては, 1 万文程度の学習コーパスが利用可能な状況では, $80 \% \sim 90 \%$ の精度が得られると報告されている。 レシピの自然言語処理においては, これら一般的分野の固有表現タグセットは有用ではない.出現する人はほぼ調理者のみであり, 人名や組織名は出現することはない. 人工物のほとんどは,食材と道具であり,これらを区別する必要がある,数量表現としては,継続時間と割合を  含む量の表現が重要である。 さらに,一般分野における固有表現タグセットとの重要な差異として,調理者の行動や食材の挙動・変化を示す用言を区別・認識する必要 (Hamada, Ide, Sakai, and Tanaka 2000) が挙げられる. このような分析から,我々はレシピ用語のタグセットを新たに設計した。レシピ用語の定義については,次節以降で詳述する。ただ,多くの固有表現抽出の研究を踏襲し, レシピ用語は互いに重複しないこととし, レシピ用語の自動認識の課題に対しては,一般的分野の固有表現認識と同様の手法を用いることが可能となるようにした. ## 2.3 レシピ用語の自動認識の応用 レシピを対象とした自然言語処理の研究は多岐にわたる。ここでは,我々のコーパスが貢献できるであろう取り組みに限定して述べる。 山本ら (山本, 中岡, 佐藤 2013) は, 大量のレシピに対して食材と調理動作の対を抽出し, 調理動作の習得を考慮したレシピ推薦を提案している。この論文では,レシピテキストを形態素解析し,動詞を調理動作とし,予め用意した食材リストにマッチする名詞を食材としている.食材に対しては,複合語が考慮されており,直前が名詞の場合にはこれを連結する。この論文での食材と調理動作の表現の認識は非常に素朴であり,未知語の食材名に対応することができないことや,食材が主語となる動詞(レシピテキストに頻出)を調理動作と誤認するなどの問題点が指摘される。 Hamada ら (Hamada et al. 2000) は, レシピを木構造に自動変換することを提案している。変換処理の第一段階として, 食材や調理動作の認識を行っている。しかしながら,認識手法は予め作成された辞書との照合であり,頑健性に乏しい. 以上の先行研究では,いずれも,食材や調理動作等をあらかじめリストとして用意することで問題が生じていると考えられる。我々の提案するレシピ用語夕グ付与コーパス,およびそれ である。加えて,レシピ用語の自動認識には,これを実際に行っている調理映像とのマッチングなどの興味深い応用がある ${ }^{3}$ (三浦, 高野, 浜田, 井手, 坂井, 田中 2003). 映像処理の観点からは,調理は制御された比較的狭い空間で行われるので,カメラなどの機材の設置が容易であり,作業者が 1 人であるため重要な事態はほぼ 1 箇所で進行し,比較的扱いやすいという利点がある.実際,映像処理の分野では,実際に調理を行っている映像を収録しアノテーションを行っている (橋本, 大岩, 舩冨, 上田,角所,美濃 2009)。あるレシピのレシピ用語の自動認識結果と当該レシピを実施している映像の認識結果とを合わせることで,映像中の食材や動作の名称の推定や, テキスト中の単語列に対応する映像中の領域の推定(図 1 参照)を含む自然言語  図 1 レシピテキストと調理映像のマッチング例 処理以外の分野にも波及する研究課題を実施する題材となる。 さらに, 本論文で詳述するコー パス作成に関する知見は,レシピ以外の分野の手順文章においても,映像との統合的処理や新たな機能を持つ検索などの実現の参考になると考えられる。 ## 3 レシピ用語タグセットの定義 2.2 節で述べたとおり, レシピテキストのように,新聞とは異なる利用目的をもつ言語資源を取り扱う場合, 一般的な固有表現の定義は有用ではない。そこで我々はレシピを用いて調理を行う際に必要となるレシピ用語を分類, 定義した。本節で述べるレシピ用語の一部は先行研究 (Hamada et al. 2000) で用いられていた表現分類を踏襲しているが,コーパス構築を行う過程で,先行研究における分類だけではカバーできないと判断したレシピ中の重要表現を新しく定義し, 追加した. レシピ用語タグの一覧を表 1 に示す. 実際のコーパス構築においては各単語にIOB2 タグ(2.2 節参照)を付与するという形で COOKPAD先公開しているレシピの中から無作為抽出で選択した 436 レシピにアノテーションを行った。構築したコーパスの詳細を表 2 に示す。なお, 後述する評価実験ではコーパスを学習・テストに分割して実験を行うため, 表 2 には分割後の詳細を示している。また,アノテーションを行ったコーパス中のレシピ用語タグ付与数の分布, ならびにタグごとの平均単語長と最大単語長を表 3 に示す. 以下では, 8 種類のレシピ用語タグについて個別に例を挙げながら述べる。なお, 本節以降では簡単の為 IOB2 夕グ形式を用いた表記ではなく,「例)/パイ生地/Fを/焼/Acく」のように,「/単語列/レシピ用語タグ名」の形式でレシピ用語タグの範囲を示し,例文を記述する. ^{4}$ http://cookpad.com } 表 1 レシピ用語タグ一覧 表 2 レシピ用語タグ付与コーパス 表 3 付与したレシピ用語タグの統計 ## 3.1 F: 食材 レシピテキストにおいては調理対象である食材,ならびに調理を行うための道具が主な人工物として記述される。中でも食材は調理における動作の目的語, 食材の変化や状態の遷移の主語となるため, レシピに記述された手続きの要素として過不足無く抽出されることが望ましい. また,レシピにおいては,中間食材や食材の集合を番号や記号・代名詞によって表現する事例が多い,以上を踏まえ,以下に挙げる単語列を『F: 食材』と定義した。 食材 例)/チーズ/F 例)/ごま油/F ## 中間食材 例) $/$ 生地/F 例)/サルサソース/F ## 食材の一部 例)/じやがいも/F の/皮/F 例)/水分/F を/切/Ac る ## 調理の完成品 例)/卵焼き/F 例)/チーズケーキ/F ## 記号 ・代名詞 例) $/ 1 / \mathrm{F} /$ フライパン/T に/流し入れ/Ac る 例)お/鍋/Tの/中身/Fが/ぐつぐつ/Afしてきたら 商品名 例)/とろけるチーズ/F 例)/薄切りベーコン/F ## $3.2 \mathrm{~T$ : 道具} 鍋, 蓋, 包丁、コンロなど,調理道具や器等を道具表現とする。手や指などの体の一部も道具表現になる場合がある,食せない,量が変化しない点以外は『F: 食材』のルールを踏襲する. 例) $/ 3$ 分/D /レンジ/Tを/L/Acてから ただし,「『T: 道具』(する)」という表現は,後述する『Ac: 調理者の動作』となりうる。この場合には, 『Ac: 調理者の動作』のアノテーションを優先する. 例) $/ 3$ 分/D /レンジ/Acする 以下に示す「弱火」の例では「コンロ」「鍋」といった調理に必要な道具が明示されていないが,実際の調理ではそのような道具を用いて調理する意味を含んでいるため,道具とする。 例)/弱火/Tで/煮/Ac る 以下の「水」や「手」も道具とする。 例)/水/T で/洗/Acって 例)/手/Tで/洗/Acって ## 3.3 Ac: 調理者の動作 / Af: 食材の変化 『Ac: 調理者の動作』は調理者を主語にとって調理者が行う動作を示す用言であり, 『Af: 食材の変化』は『F: 食材』を主語として食材の変化を示す用言である. 『Ac: 調理者の動作』と 『Af: 食材の変化』は異なるレシピ用語として定義されるが, アノテーションの際には両者を混 同しやすい事例が頻出するため,本項でまとめて例を述べる。いずれも,同一性判定を容易にするために,活用語尾を含めない.動作を修飾する,「よく」「ざっくり」などの副詞表現も,同様の理由によりレシピ用語としない. 調理者が行う動作を示す用言を『Ac: 調理者の動作』とする. 例)/フライパン/T を/温め/Ac る 『F: 食材』を主語としてその変化を示す用言を『Af: 食材の変化』とする. 例) /沸騰/Afし始めたら 使役・否定の助動詞を伴う場合のみ,これらの助動詞語幹までを含めて『Ac: 調理者の動作』 とする.受動の助動詞を伴う場合,主語が『F: 食材』であれば実際には調理者を主語として『F:食材』を対象とした調理行動を行っているとし, 『使役, 否定』の場合と同様に助動詞語幹までを含め『Ac: 調理者の動作』とする。なお,本論文でタグ付与の対象としたレシピテキストにおいて『F: 食材』を主語とした受動態の事例は確認されなかったため, 以下では使役・否定の事例のみを挙げる。 例) / 沸騰させ/Ac たら 例)/沸騰しな/Afいように 目的語など格助詞で示される「項」を含めない. 例)/皮/Fを/む/Acいて 複合動詞は全体を調理動作とする。 例)/ふる/Acっておいた/薄力粉/Fを/振るいいれ/Ac 開始や完了などをあらわす補助的な動詞は含まない. 例)/惹込/Acんでいく 例)/惹た/Afってくる 動詞派生名詞やサ変名詞などの事態性名詞も動作とする. 例)/ねぎ/Fを/みじん切り/Acする。 例)/ねぎ/Fを/みじん切り/Sfに/する/Ac. 『F: 食材』で述べたように,商品名など,実際に行わない用言は『F: 食材』に含める. 例)/とろけるチーズ/F 例)/水溶き/Ac /片栗粉 $/ \mathrm{F}$ ## $3.4 \mathrm{Sf:$ 食材の様態} レシピテキストでは, 調理の進行度合いや食材の変化を伝えるために個々の時点における食材の様態が記述される. 『Ac: 調理者の動作』や『Af: 食材の変化』の影響によって食材が変化する(した)状態を表す表現を『Sf: 食材の様態』とする. 例)/柔らか/Sfく/な/Afるまで/者/Acる 例)/色/Sf が/変わ/Afる 以下の例に示すように, 『Sf: 食材の様態』は, 見た目, 大きさ, 分量などの様々な単語を含んでおり,一つのレシピ用語を構成する単語数が多くなりやすい。このため, ・ アノテーションを行う際に作業内容の一貫性を担保しにくい - 未知の『Sf: 食材の様態』が多く出現する という問題が発生する。この問題の詳細については 3.8 節で後述する. 例)/やっと手を入れられるくらい/Sf のお/湯/F 例)/にんじん/Fを/だいたい薄さ $5 \mathrm{~mm} / \mathrm{Sf}$ に/切/Ac る ## 3.5 St: 道具の様態 用意された道具様態の初期状態を表す表現,並びに Ac や Afの影響で遷移する(した)状態を表す表現を St とする。 例)/弱火/St の/フライパン/T で/炒め/Ac る 例)/オーブン/T を/150 度/St に/予熱/Ac する 『St: 道具の様態』は, 『 $\mathrm{T}$ : 道具』の例 例)/弱火/T で/煮/Ac る と混同しやすいが,文中で調理過程における道具が明示され,その道具の状態を示している表現を『St: 道具の様態』と定義する. ## 3.6 D: 継続時間 加熱時間や冷却時間など,加工の継続時間を示す。数字と単位のほか,それらに対する修飾語句も含める. 例) $/ 12 \sim 15$ 分間/D / 煮込/Ac みます 例) $/ 5$ 分 <らい/D 例) $/ 2$ 日後くらい/Dが/食べ時/Afです! ## $3.7 \mathrm{Q$ : 分量} 食材の一部を用いた調理動作を行う場合,その一部が量として表される場合にその表現を『Q:分量』とする.数字と単位のほか, それらに対する修飾語句も含める. 例) $/$ 人参 $/ \mathrm{F} / 3 \sim 4 \mathrm{~cm}$ くらい/Q を/鍋/Tに/入れ/Ac 例) $/$ 酒/F /大さじ $2 / \mathrm{Q}$ を/加え/Ac ## 3.8 レシピ用語タグの付与が困難な事例 1 節で述べたように,本論文においてアノテーションの対象とするレシピテキストは推敲が乏しく,レシピとは関係のない内容も多く含まれる。このため, 本節で述べたレシピ用語の定義を用いて実際にアノテーションを行うと,レシピ用語タグを付与するべきか否かの判断に迷う部分が出現する.とくに,夕グ付与数の多いレシピ用語タグほど,レシピ用語となる表現のバリエーションも多く,その分アノテーション作業に時間を要すると考えられる(夕グ付与数の分布は表 3 を参照).以下では,レシピ用語夕グを付与する際にアノテーションの困難であった事例を列挙し,現状でのアノテーション処理を述べる. - 入れ子:表 3 の平均単語数と最大単語数からわかるとおり, 『Sf: 食材の様態』, 『D: 継続時間』, 『St: 道具の様態』, 『Q: 分量』は他のレシピ用語タグと比較して長い単語列となりやすく, 以下の例のように入れ子構造が発生することがある. 例)/やっと/手/Tを入れられるくらい/Sfのお/湯/F このような場合は, より長い単語列のレシピ用語タグ(上述した例では『Sf: 食材の様態』)を優先し,アノテーションを行う. - 調理と関係のない記述:食事の感想など, 調理とは直接関係の無い記述に調理に関連する表現が出現することがある.例えば,レシピ中に出現する用言のほとんどは『Ac: 調理者の動作』もしくは『Af: 食材の変化』であるが,上述した理由によりそれ以外の用言も存在する.これらの表現にはレシピの検索や構造の把握といった応用においては優先度が低く,また作業者への負担が大きくなるため,すべてO夕グを付与する.また人名や地域名といった, 調理とは直接関係のない固有名詞に関しては, 本節で述べた各レシピ用語タグの付与対象となる単語列の一部となっていない限り O タグを付与する. - 他のレシピ ID の参照:まれに他のレシピIDを参照して調理手順や材料を示す事例が見られるが,これらのレシピ IDには $\mathrm{O}$ タグを付与し,1つのレシピのみでアノテーション作業を完結させる. - 記述内容の一部だけが実際の調理に対応付けられる:「〜ならば, 〜する」,「〜する(または〜する)」といった仮定表現や括弧表現などには, 実際に行われない調理行動を含めた表現が複数レシピに記述されることがある。この場合は,実際に行われる調理行動は不明であり,また,一般的な固有表現認識の手法ではそれらを区別することはできない. このような事例では,すべての表現にレシピ用語夕グを付与する. 例)/フライパン/Tに/グレープシードル/F(または/オリーブオイル/F)をひいて ## 4 レシピ用語の自動認識 固有表現認識タスクは,各単語に対してIOB2 タグを推定する, 系列ラベリング問題として解くことが一般的であり, SVM や点予測などを用いた手法が提案されている (山田, 工藤, 松本 2002; Mori, Sasada, Yamakata, and Yoshino 2012). 本節では, 点予測による IOB2 タグ推定と動的計画法による経路探索による手法 (Mori et al. 2012)を用いてレシピ用語の自動認識実験を行い, 作成したコーパスの精度を評価する。また,学習コーパスに現れない未知のレシピ用語の推定事例についての事例を示し, 議論する。本実験のための学習コーパスならびにテストコーパスとして, 3 節で述べたレシピ用語夕グ付与コー パスを用いる(表 2 参照). ## 4.1 レシピ用語の自動認識と精度評価 本節では点予測によるレシピ用語の自動認識手法 (Mori et al. 2012) について概説し, 自動認識実験の結果と考察を述べる。まず,IOB2 タグの付与された学習コーパスを用いてロジスティック回帰に基づく識別器 (Fan, Chang, Hsieh, Wang, and Lin 2008) を構築し,テストコー パスの各単語 $w_{i}$ に対応する IOB2 タグ $t_{j}$ ごとの確率 $s_{i, j}$ を以下の式により推定する. $ s_{i, j}=P_{L R}\left(t_{j} \mid \boldsymbol{x}^{-}, w_{i}, \boldsymbol{x}^{+}\right) $ $\boldsymbol{x}^{-}=\cdots x^{-2} x^{-1}, \boldsymbol{x}^{+}=x^{+1} x^{+2} \cdots$ はそれぞれ単語 $w_{i}$ の前後の文字列を示す. 本論文で用いるロジスティック回帰識別器の素性の一覧を表 4 に示す. 表中の $c(x)$ は $x$ に対応する文字種(漢字, 平仮名, 片仮名, 数字, アルファベット,記号)を得る関数である. 次に,IOB2 タグを用いた固有表現はI夕グから始まらない等のタグ制約を適用しながら,各単語までの経路の中で確率最大となるようにIOB2 タグを順に選んでいくことで最適経路を決定し, 自動認識器の最終的な出力とする (図 2 参照). 学習コーパスの量を 5 段階に調節して自動認識実験を行った結果を表 5 に示す.また, レシ 表 4 ロジスティック回帰に基づく識別器の素性一覧 ピ用語タグ別の評価として, 各タグごとのカバレージを図 3 に,自動認識精度( $\mathrm{F}$ 値)を図 4 に示す. ここで, 表 5 , 図 3 , 図 4 におけるカバレージは, テストコーパスに出現する IOB2 夕グあるいはレシピ用語タグのうち,学習コーパスにも出現したタグの割合(頻度を加味する.) である。また,表 5 における IOB2 夕グ推定精度は,テストコーパス中のIOB2 タグに対する,自動認識システムが出力した IOB2 タグの一致率を示し, レシピ用語タグの自動認識精度は F 値を示している. 表 5 から,一般分野の固有表現認識と同様に,学習コーパスの増加に伴い自動認識精度が向上していることが分かる. また, 学習コーパスの分量が少量の状態で, 学習コーパスのテストセットカバレージが $50 \%$ 程度の場合であっても,自動認識精度は $70 \%$ 以上の水準を達成しており,レシピ用語タグ付与コーパスを用いた固有表現認識手法が有効に機能していることがわかる. 特に, 『D: 継続時間』に関しては, 図 3 と図 4 の該当夕グ部分より, $10 \%$ 程度の低いカバー 率しか達成できていない学習コーパスを利用した場合においても $70 \%$ 以上の自動認識精度を達成可能であることがわかる。この要因として,『D: 継続時間』が数詞と単位からなる単語列に付与されるレシピ用語タグであるために,文字並びに文字種を素性とした固有表現認識が効果的に機能していることが考えられる. 次に, 図 4 から, 『F: 食材』, 『T: 道具』, 『Ac: 調理者の動作』, 『Af: 食材の変化』, の 4 種類のタグについては,一般分野の固有表現認識精度(1万文程度の学習コーパスで $80 \% \sim 90 \% )$ と同 図 2 ロジスティック回帰による夕グ確率付与と最適経路(太字部分)の探索図 表 5 IOB2 タグ推定精度とレシピ用語タグの自動認識精度とカバレージ 図 3 レシピ用語タグごとのカバレージ 図 4 レシピ用語タグごとの自動認識精度 程度であり,すでに比較的高い精度が達成されていることがわかる. 『Sf: 食材の様態』に関しては, 『T: 道具』と同程度のアノテーション数があるにも関わらず精度は $70 \%$ 程度にとどまっている。この要因として, 『Sf: 食材の様態』には機能語や別のレシピ用語タグの一部がしばしば含まれており, 長い単語列となっている(3.8 節を参照)ことが自動認識を困難にしているということが考えられる。『St: 道具の様態』,『D: 継続時間』,『Q: 分量』については, 『D: 継続時間』のみ $90 \%$ 超えているが,他の 2 種類に関しては $60 \% \sim 70 \%$ の精度である.また,表 1 か ら,上述した 3 種類のタグは他のタグに比較して学習コーパス中のアノテーション数が不十分であることがわかる,今後は,これらの夕グに対するアノテーションを増加させることで容易に精度を向上させることが可能であろう.また,レシピ以外の分野における固有表現認識タスクにおいても,本実験で示したようにタグごとの検討を行って優先的にアノテーションするべきタグを選択し, 効率的に固有表現認識器を構築することが可能である. ## 4.2 未知のレシピ用語タグの推定事例 本節では, 上述のレシピ用語の自動認識実験において,テストセットにおける未知のレシピ用語に対し,正しくタグが推定されているかどうかについて,その事例を示し,議論する.以下に示す自動推定結果の例では, 学習セットに現れなかった未知のレシピ用語を太字で示す. - 未知の『Sf: 食材の様態』が出現する場合, 二格を伴う場合や食材の切り方を示す場合には, 識別器によって適切にタグ推定が行われている。 例)/サイコロ切り/Sfにする/Ac. その一方で, 3.8 節で述べた『Sf: 食材の様態』のような長い単語列となるレシピ用語夕グの自動推定精度は下がる傾向にある. 以下の例において, 正しい『Sf: 食材の様態』の範囲は「1 2 $\mathrm{mm}$ 位」であるが, 自動推定では「12」と誤って推定されている. 例) $/ 1 \sim 2 /$ Sf $\mathrm{mm}$ 位で. テストセットでは現れなかったが, 3.8 節に示したようにさらに長い単語列を『Sf: 食材の様態』とする場合もあるため, 『Sf: 食材の様態』の自動推定は他のレシピ用語夕グに比較して困難になると考えられる。 - 『Ac: 調理者の動作』に関しては, 以下の例のように 1 文中において複数の単語が連続でAc と推定される事例(「所々」はAcではないため,誤り)が見られた. 例)皮/Fを/所々/Ac/剥/Ac きレシピテキストにおいては,「『F: 食材』を『Ac: 調理者の動作』」という表現が多く出現することが原因であると考えられるが,レシピの構造を把握するなどの応用を考えると, 誤った『Ac: 調理者の動作』が増加することは応用全体の精度低下につながるため,品詞情報を識別器の素性に加えるなどの対策が必要になると考えられる. ## 5 実際のアノテーション作業とその考察 本節では,実際にコーパスを作成した過程で得られた知見として,まずコーパスのアノテー ション手順について述べる。次に,レシピ用語の自動認識器の精度を効率的に向上させるためのアノテーション戦略のシミュレーションについて述べる. ## 5.1 アノテーション手順 大量のレシピテキストに対して研究者がレシピ用語タグを付与することは事実上不可能であるため,まずアノテーション基準を決めた上で作業者にアノテーションを行ってもらうことが一般的である。しかしながら, 3.8 節で述べた通り,レシピ用語夕グによっては付与が困難な事例が存在するため, 適切な手順を用いて効率的に作業を行う必要がある。本節では, 3 節で述ベたレシピ用語タグの基準に従い,作業者を含めた全体として効率的なアノテーションを行うための手順を述べる。また,管理者と作業者の作業一致率を測ることによりその有効性を評価する。 本研究におけるレシピ用語アノテーションの作業にあたっては, 図 5 のような固有表現アノ の「熱」という動詞に, 『Ac: 調理者の動作』の開始タグである「Ac-B」を割り当てている. アノテーション作業の管理手順は以下のとおりである. 図 5 固有表現アノテーションツール ^{5}$ http://plata.ar.media.kyoto-u.ac.jp/mori/research/topics/PNAT/にて公開している. 6 なお, 図 5 に示したツールは, 品詞・係り受け情報を付与する機能も備えているが, 本論文におけるコーパス作成では用いておらず,図 5 中の品詞・係り受け情報は自動推定による結果をそのまま表示している. } (1)管理者がレシピ用語の定義(3節参照)を作成する.本研究においては,管理者 1 名(筆者)と研究者 3 人を合わせた 4 人で議論を行い,レシピ用語の定義を作成した. (2)管理者が実際にレシピ用語の定義に従ってアノテーションを行い,サンプルデータを作成する。 (3) 作業者にレシピ用語の定義とサンプルを渡し,一定時間7のアノテーション作業を行ってもらう。 (4)管理者は作業者のアノテーション結果に対するチェックを行う. この際, 作業者の作業結果と管理者がさらに修正を加えたアノテーション結果の間で作業一致率を測る。管理者は必要に応じて作業者にアノテーション基準に関するコメントを返し,レシピ用語の定義並びにサンプルの修正・更新を行う. (5) (3), (4) を繰り返す. 本論文を執筆するにあたり,作業者にアノテーションを依頼したコーパスの一部(3 節の表 2 で示した 436 レシピのうち, 初めにアノテーションを行った 40 レシピ) を対象として, 上述した手順に従って 4 日間(1回 $\times 4$ 日)のアノテーション作業管理を行い,管理者 1 名(筆者)と作業者 1 名との作業一致率を測った。この際, 作業者は管理者と同様に,全ての種類のタグに関するアノテーションを担当した。作業一致率 [\%] は, $ \frac{\text { 作業者と管理者の付与した IOB2 タグの一致数 }}{\text { 単語数 }} \times 100 $ で求められる. 結果を表 6 に示す.また, 表 6 のうち, 4 日目の作業における IOB2 夕グごとの作業一致率を表 7 に示す. 表 6 より, 上述した手順に従うことで管理者・作業者間の作業一致率が向上し, 最終的にIOB2 タグの自動認識精度(表 5 参照)を有意に上回ることがわかる。また,表 7 より, 4 日目には事例の少ない St-B, St-I を除く全ての IOB2 タグにおいて作業一致率が $91 \%$ 以上となっていることがわかる.以上の結果より,作業者にアノテーションを任せることで自動認識の精度向上を図ることが可能であることを確認した. 表 6 IOB2 夕グ付与の作業一致率  表 7 IOB2 タグごとの作業一致率(4日目) ## 5.2 効率的な精度向上を目的としたアノテーション作業のシミュレーション 前項で述べたアノテーション基準の確定の過程の結果, 少量ながらレシピ用語のアノテーションがなされたコーパスが得られる.1 節で述べたような応用を考えると, 短期間での自動認識精度の向上が重要である。一般分野の固有表現の自動認識においては, 人名・組織名・地名のような固有表現のカバレージを上げることで高い精度を達成することが可能である (Sekine and Eriguchi 2000).これは,レシピ用語の自動認識においても同様であろうと推測される。本節では,カバレージを重視した簡単なアノテーション戦略について,シミュレーションの結果とともに議論する。なお,レシピテキストを対象とした実際のアノテーションでは,単語分割境界ならびにレシピ用語となる単語列の範囲を決定してから夕グを付与する必要があるが, 本節で述べるシミュレーションには上述の 2 種類の情報があらかじめ付与されている状態のコーパスを用いているため,実際のアノテーション作業にそのまま適用できるものではない. カバレージを重視すると,新しいレシピ用語に集中的にアノテーションすることになる.結果として, 文中の一部のレシピ用語にのみアノテーションされた部分的アノテーションコーパス (Neubig and Mori 2010)が得られる。逆に,アノテーション基準の確定の過程で得られるコー パスは,文中の全てのレシピ用語にアノテーションされたフルアノテーションコーパスである. カバレージを重視した簡単なアノテーション戦略と通常のアノテーション方法を比較するた めに, 次のようなシミュレーションを行った。まず, 我々の作成したレシピ用語夕グ付与コー パス (表 2 参照) のうち, 学習コーパスを $C_{f}$ と $C_{a}$ に 2 等分し, $C_{f}$ を既に作成済みのフルアノテーションコーパス, $C_{a}$ をこれからアノテーションを行う単語分割済みコーパスとみなす.ここで, $C_{f}$ はレシピ用語タグの定義を確定する際に得られる少量のフルアノテーションコーパスを, $C_{a}$ はカバレージを優先してアノテーションを行う追加用コーパスを想定している.本実験では $C_{a}$ に対して, 以下に示す 2 種類の方法でコーパスアノテーションのシミュレーションを行う. $C_{f}$ と $C_{a}$ の一部を合わせたものを学習コーパスとしてレシピ用語の自動認識精度を測った. Full: $C_{a}$ に対して先頭から順に全ての単語に対してIOB2 タグのアノテーションを行うと想定する. 具体的には, $C_{a}$ を 10 分割し, $C_{f}$ に $C_{a}$ の $k / 10(k=0,1, \cdots, 10)$ を追加したものを学習コーパスとする。 Part: カバレージを重視したアノテーション戦略として, 各レシピ用語が $C_{f}$ と $C_{a}$ の合計において $A_{\text {max }} \in\{0,1,2,5,10,20,50, \infty\}$ 回アノテーションされるように $C_{a}$ を先頭から部分的にアノテーションする。ただし出現頻度が $A_{\max }$ 未満のレシピ用語に対しては,すべての出現箇所に対してアノテーションする。この結果得られる $C_{a}$ を $C_{f}$ に追加したものを学習コーパスとする. $A_{\max }=1$ であれば, 最少のアノテーション数で, 手法 Full で $C_{a}$ をすべてアノテーションした場合 $(k=10)$ とレシピ用語のカバレージが等しくなる. なお, 手法 Part における $A_{\max }=0$ と手法 Full の追加コーパスが $0 / 10$ の状態は同じものであり,どちらも追加コーパスの無い状態である(つまり $C_{f}$ のみ)。また,手法 Partにおける $A_{\text {max }}=\infty$ のときは手法 Full において追加コーパスが 10/10の状態と同じであり, どちらも $C_{a}$ の全ての単語にアノテーションを行ったものを追加コーパスとする状態である. ここでのシミュレーションでは, $C_{a}$ が人手によりフルアノテーションされているので非常に少量であるが, 実際にアノテーションを行う状況では $C_{a}$ は利用可能な全ての生のレシピテキストであり,非常に大きい,つまり,手法 Fullにおける 10/10の追加コーパスを作成することは現実的ではないことに留意されたい. 本実験の結果を図 6 に示す. 図 6 における横軸は各手法におけるIOB2 タグのアノテーション回数を示しており,これはアノテーションにおける作業時間を想定したものである。しかしながら,実際のアノテーションにおいては,アノテーション箇所ごとの判断の難しさの違い, 5.1 節で示した各アノテーション手順ごとの所要時間, などの要因により, 必ずしも正確な作業時間を反映しているものではないことに留意されたい. 図 6 から, 手法 Full の $1 / 10$ と $2 / 10$ は不安定(1/10 から $2 / 10$ に増量すると精度が低下している)ではあるが,全体の傾向からカバレージを最重要に考えて, 各レシピ用語について 1 回のアノテーションを行う場合は, Part の $A_{\text {max }}=1$ と大差はない. しかし, 手法 Part において $A_{\text {max }} \geq 2$ とした場合に, 手法 Full において同じ単語数のアノテーションをする場合に比較してより高い精度が得られることがわかる。 つまり, 数回の出現に対してアノテーションすることで多様な出現文脈が学習できるようにし 図 6 カバレージを重視したアノテーションのシミュレーション つつ,高いカバレージを確保するアノテーション戦略が自動認識の精度向上には有効であると期待される。 実際のアノテーションにおいては,上述の通り $C_{a}$ のサイズは非常に大きいため,この差はより顕著になるであろう。さらに,上述の「簡単な戦略」はアノテーション戦略のシミュレー ションに過ぎない。本論文でのスコープ外ではあるが,能動学習等に基づくより効率的なアノテーション戦略が存在すると考えられる。基準が確定した後の精度向上においては,アノテー ション作業を考慮に入れた効率的なアノテーション戦略の研究が重要である. ## 6 おわりに 本論文では,レシピテキストを対象としたレシピ用語タグの定義について述べた。この定義にしたがって,実際にアノテーションを行い,定義が十分であることを確かめた。また,作成したコーパスを用いてレシピ用語の自動認識実験を行い,認識精度を測定した。自動認識の精度は十分高く, 作成したコーパスは (Hamada et al. 2000) や (Rohrbach et al. 2013; Naim et al. 2014) などのレシピテキストを対象とする応用の精度向上に有用であると考えられる. さらに,人手によるアノテーションの過程で出現した判断の難しい事例や,自動認識の結果得られる学習デー夕に含まれない事例を観察し, 提案するレシピ用語の定義についての議論を行った. 加えて, 実際のアノテーション作業についても説明し,カバレージを重視した単純な戦略で部分的アノテーションコーパスのシミュレーションを行った. 今後の課題として, 能動学習等に基づくより効率的なアノテーションを行うことが挙げられる. ## 謝 辞 本研究の一部は JSPS 科研費 $26280084 , 24240030 , 26280039$ の助成を受けて実施した. ここに謝意を表する。 ## 参考文献 Borthwick, A. (1999). A Maximum Entropy Approach to Named Entity Recognition. Ph.D. thesis, New York University. Chinchor, N. A. (1998). "Overview of MUC-7/MET-2." In Proceedings of the 7th Message Understanding Conference. 江里口善生 (1999). 固有表現定義の問題点. IREX ワークショップ予稿集, pp. 125-128. Fan, R.-E., Chang, K.-W., Hsieh, C.-J., Wang, X.-R., and Lin, C.-J. (2008). "LIBLINEAR: A Library for Large Linear Classification." Journal of Machine Learning Research, 9, pp. 1871-1874. Finkel, J. R. and Manning, C. D. (2009). "Nested Named Entity Recognition." In Proceedings of the 2009 Conference on Empirical Methods in Natural Language Processing, pp. 141-150. Grishman, R. and Sundheim, B. (1996). "Message Understanding Conference - 6: A Brief History." In Proceedings of the 16th International Conference on Computational Linguistics. Hamada, R., Ide, I., Sakai, S., and Tanaka, H. (2000). "Structural Analysis of Cooking Preparation Steps in Japanese." In Proceedings of the 5th International Workshop on Information Retrieval with Asian Languages, pp. 157-164. 浜田玲子, 井手一郎, 坂井修一, 田中英彦 (2002). 料理テキスト教材における調理手順の構造化. 電子情報通信学会論文誌, J85-DII (1), pp. 79-89. Hashimoto, A., Mori, N., Funatomi, T., Yamakata, Y., Kakusho, K., and Minoh, M. (2008). "Smart Kitchen: A User Centric Cooking Support System." In Proceedings of the 12th Information Processing and Management of Uncertainty in Knowledge-Based Systems, pp. 848-854. 橋本敦史, 大岩美野, 舩冨卓哉, 上田真由美, 角所考, 美濃導彦 (2009). 調理行動モデル化のための調理観測映像へのアノテーション. 第 1 回データ工学と情報マネジメントに関するフォーラム。 工藤拓, 山本薰, 松本裕治 (2004). Conditional Random Fields を用いた日本語形態素解析. 情報処理学会研究報告, NL161. Lafferty, J., McCallum, A., and Pereira, F. (2001). "Conditional Random Fields: Probabilistic Models for Segmenting and Labeling Sequence Data." In Proceedings of the 18th ICML. Maekawa, K., Yamazaki, M., Ogiso, T., Maruyama, T., Ogura, H., Kashino, W., Koiso, H., Yamaguchi, M., Tanaka, M., and Den, Y. (2014). "Balanced Corpus of Contemporary Written Japanese." Language Resources and Evaluation, 48 (2), pp. 345-371.松本裕治 (1996). 形態素解析システム「茶鉒」. 情報処理, 41 (11), pp. 1208-1214.松本裕治, 黒橋禎夫, 山地治, 妙木裕, 長尾真 (1997). 日本語形態素解析システム JUMAN 使 用説明書 version 3.2. 京都大学工学部長尾研究室. 三浦宏一, 高野求, 浜田玲子, 井手一郎, 坂井修一, 田中英彦 (2003). 料理映像の構造解析に よる調理手順との対応付け. 電子情報通信学会論文誌, J86-DII (11), pp. 1647-1656. Momouchi, Y. (1980). "Control Structures for Actions in Procedural Texts and PT-Chart." In Proceedings of the 8th International Conference on Computational Linguistics, pp. 108-114.森信介, Neubig, G., 坪井祐太 (2011). 点予測による単語分割. 情報処理学会論文誌, 52 (10), pp. 2944-2952. 森信介 (2012). 自然言語処理における分野適応. 人工知能学会誌, 27 (4). Mori, S., Sasada, T., Yamakata, Y., and Yoshino, K. (2012). "A Machine Learning Approach to Recipe Text Processing." In Proceedings of the 1st Cooking with Computer Workshop, pp. 29-34. Naim, I., Song, Y. C., Liu, Q., Kautz, H., Luo, J., and Gildea, D. (2014). "Unsupervised Alignment of Natural Language Instructions with Video Segments." In Proceedings of the 28th National Conference on Artificial Intelligence. Neubig, G. and Mori, S. (2010). "Word-based Partial Annotation for Efficient Corpus Construction." In Proceedings of the 7th International Conference on Language Resources and Evaluation. Rohrbach, M., Qiu, W., Titov, I., Thater, S., Pinkal, M., and Schiele, B. (2013). "Translating Video Content to Natural Language Descriptions." In Proceedings of the 14th International Conference on Computer Vision. Sang, E. F. T. K. and Meulder, F. D. (2003). "Introduction to the CoNLL-2003 Shared Task: Language-Independent Named Entity Recognition." In Proceedings of the 7th Conference on Computational Natural Language Learning, pp. 142-147. Sekine, S. and Eriguchi, Y. (2000). "Japanese Named Entity Extraction Evaluation - Analysis of Results -." In Proceedings of the 18th International Conference on Computational Linguistics. Sekine, S. and Isahara, H. (2000). "IREX: IR and IE Evaluation Project in Japanese." In Proceedings of the 2nd International Conference on Language Resources and Evaluation, pp. 1977-1980. 自然言語処理特集号編集委員会(編)(2014). 自然言語処理, 21 (2). Tateisi, Y., Kim, J.-D., and Ohta, T. (2002). "The GENIA Corpus: An Annotated Research Abstract Corpus in Molecular Biology Domain." In Proceedings of the HLT, pp. 73-77. Tjong, E. F., Sang, K., and Veenstra, J. (1999). "Representing Text Chunks." In Proceedings of the 9th European Chapter of the Association for Computational Linguistics, pp. 173-179. 山田寞康, 工藤拓,松本裕治 (2002). Support Vector Machineを用いた日本語固有表現抽出. 情報処理学会論文誌, 43 (1), pp. 44-53. Yamakata, Y., Imahori, S., Sugiyama, Y., Mori, S., and Tanaka, K. (2013). "Feature Extraction and Summarization of Recipes using Flow Graph." In Proceedings of the 5th International Conference on Social Informatics, LNCS 8238, pp. 241-254. 山本修平, 中岡義貴, 佐藤哲司 (2013). 食材調理法の習得順に関する一検討. 電子情報通信学会技術研究会報告, 113 (214), pp. 31-36. ## 略歴 笹田鉄郎:2007 年京都大学工学部電気電子工学科卒業. 2009 年同大学院情報学研究科修士課程修了. 同年同大学院博士後期課程に進学. 2012 年同大学院情報学研究科博士後期課程単位取得認定退学. 京都大学学術情報メディアセンター教務補佐員.現在に至る.自然言語処理に関する研究に従事.言語処理学会, 情報処理学会各会員. 森信介:1998 年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了. 同年日本アイ・ビー・エム株式会社入社. 2007 年より京都大学学術情報メディアセンター准教授.京都大学博士(工学).音声言語処理および自然言語処理に関する研究に従事. 1997 年情報処理学会山下記念研究賞受賞. 2010 年,2013 年情報処理学会論文賞受賞. 2010 年第 58 回電気科学技術奨励賞. 情報処理学会, 言語処理学会各会員. 山肩洋子:2000 年京都大学工学部情報学科卒業. 2002 年同大学大学院情報学研究科修士課程修了. 2005 年同大学院博士後期課程単位認定退学, 2005 2006 年京都大学学術情報メディアセンター研究員, 2006 2010 年情報通信研究機構専攻研究員, $2010 \sim 2011$ 年京都大学特定講師, 2011 年京都大学准教授, 2014 年同大学特定准教授. 博士 (情報学). マルチメディア情報処理の研究に従事. 電子情報通信学会, 人工知能学会会員. 前田浩邦:2012 年京都大学理学部卒業. 2014 年同大学院情報学研究科修士課程修了。サイボウズ株式会社勤務。現在に至る. 河原達也:1987 年京都大学工学部情報工学科卒業. 1989 年同大学院修士課程修了. 1990 年同博士後期課程退学. 同年京都大学工学部助手. 1995 年同助教授. 1998 年同大学情報学研究科助教授. 2003 年同大学学術情報メディアセンター教授。現在に至る。音声言語処理,特に音声認識及び対話システムに関する研究に従事.京大博士 (工学).科学技術分野の文部科学大臣表彰 (2012 年度), 日本音響学会から粟屋潔学術奨励賞(1997 年度), 情報処理学会から坂井記念特別賞 (2000 年度), 喜安記念業績賞(2011 年度), 論文賞(2012 年度)を受賞. IEEE SPS Speech TC 委員, IEEE ASRU 2007 General Chair, INTERSPEECH 2010 Tutorial Chair, IEEE ICASSP 2012 Local Arrangement Chair, 言語処理学会理事, 情報処理学会音声言語情報処理研究会主査, APSIPA 理事, 情報処理学会理事を歴任. 情報処理学会, 日本音響学会, 電子情報通信学会, 人工知能学会, 言語処理学会, IEEE, ISCA, APSIPA 各会員. (2014 年 11 月 3 日受付) (2015 年 2 月 6 日再受付) (2015 年 4 月 7 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 入れ子依存木の刈り込みによる単一文書要約手法 菊池 悠太 ${ }^{\dagger}$ 平尾 努 $\dagger \cdot$ ・高村 $大$ 也 $^{\dagger} \cdot$ 奥村 学 $\dagger \cdot$ 永田 昌明 $\dagger \dagger$ } 近年の抽出型要約の多くの手法は, 原文書の情報を網羅し,かつ与えられる要約長 の制約に柔軟に対応すべく,文抽出と文圧縮を併用した組み合わせ最適化問題とし て要約を定式化している。つまり,文書から文という文法的な単位を維持するよう 単語を抽出することで要約を生成している.従来の手法は非文の生成を避けるため,構文木における単語間の関係を利用して文を圧縮しているものの,文書における大域的な文と文の間の関係, つまり談話構造には着目してこなかった. しかし, 談話構造を考慮することは要約の一貫性を保つ上で非常に重要であり, 文書の重要箇所 の同定にも役立つ。我々は,文書を文間の依存関係,単語間の依存関係をあらわし た入れ子依存木とみなし, 単語重要度の和が最大となるように木を刈り込むことで 要約を生成する手法を提案する。実験の結果, 提案手法が要約精度を有意に向上さ せたことが確認できた。 キーワード:文書要約,単一文書要約,修辞構造理論 ## Summarizing a Document by Trimming a Nested Tree Structure \author{ Yuta Kikuchi $^{\dagger}$, Tsutomu Hirao ${ }^{\dagger \dagger}$, Hiroya Takamura ${ }^{\dagger}$, Manabu Okumura ${ }^{\dagger}$ \\ and MASAAKI NAGATA ${ }^{\dagger \dagger}$ } Many methods of text summarization that have recently been proposed combine sentence selection and sentence compression. Although the dependency between words has been used in most of these methods, the dependency between sentences, i.e., the rhetorical structure, has not been exploited in such joint methods. We use both the dependency between words and the dependency between sentences by constructing a nested tree, in which nodes in a document tree representing the dependency between sentences were replaced by a sentence tree representing the dependency between words. We formulate a summarization task as a combinatorial optimization problem, in which the nested tree is trimmed without losing important content in the source document. The results from an empirical evaluation revealed that our method based on the trimming of the nested tree significantly improved the performance of text summarization. Key Words: Text Summarization, Single Document Summarization, Rhetorical Structure Theory  ## 1 はじめに 抽出型要約は現在の文書要約研究において最も広く用いられるアプローチである. このアプローチは,文書をある言語単位(文,節,単語など)の集合とみなし,その部分集合を選択することで要約文書を生成する. 要約システムに必要とされる側面はいくつかあるが, 特に重要なのが,一貫性 (coherence) (Hobbs 1985; Mann and Thompson 1988) と情報の網羅性が高い要約を生成することと, 要約長に対し柔軟に対応できることである. 一貫性の高い要約とは, 原文書の談話構造(あるいは論理構造)を保持した要約を指す。要約が原文書の談話構造を保持していない場合, 原文書の意図と異なる解釈を誘発する文書が生成されてしまうおそれがある。すなわち, 原文書と似た談話構造を持つように要約文書を生成することは,要約を生成するために重要な要素である1. 要約文書において談話構造を考慮するために修辞構造理論 (Rhetorical Structure Theory; RST) (Mann and Thompson 1988) が利用可能である. RST は文書の大域的な談話構造を木として表現するため, RST の木構造を損なわぬように原文書中の抽出単位を選択することで, 原文書の談話構造を保持した要約文書が生成できる (Marcu 1998; Daumé III and Marcu 2002; Hirao, Yoshida, Nishino, Yasuda, and Nagata 2013). 従来の RST を抽出型要約に組み込む従来の手法の問題点は, その抽出粒度にある. RST で扱う文書中の最小単位は Elementary Discourse Unit (EDU) と呼ばれ,おおよそ節に対応するテキストスパンである. 従来手法は, 抽出の単位を EDU として要約の生成を行ってきたが, それが要約において必ずしも最適な単位であるとは限らない2 2 . また, 本節で後に説明するように,それなりの長さを持ったテキストスパンを抽出単位とする場合, 要約長に対する柔軟性の面でも問題が生じる. 情報の網羅性は, 文書要約の目的そのものでもある非常に重要な要素である。要約文書は原文書の内容を簡潔にまとめている必要があり, 原文書の重要な内容を網羅していることが要求される。 近年, 抽出型要約において, 原文書から重要な抽出単位の部分集合を選択する問題を整数計画問題 (Integer Linear Programming; ILP) として定式化するアプローチが盛んに研究されている. 抽出された部分集合が原文書の情報をなるべく被覆するような目的関数を設定し, 最適化問題として解くことで,原文書の情報を網羅した要約文書の生成が可能となる.実際にこれらの手法は要約文書の情報の網羅性の指標となる自動評価手法である ROUGE (Recall-Oriented Understudy for Gisting Evaluation)(Lin 2004) 值の向上に大いに貢献してきた (McDonald 2007; Filatova and Hatzivassiloglou 2004; Takamura and Okumura 2009). RST を要約に組み込む研究の多くは RST で定義される修辞構造の構造木をそのまま利用したものが多かった (Marcu 1998; Daumé III and Marcu 2002) が, Hirao ら (Hirao et al. 2013)は, RSTの談話構造木をそのまま  用いることの問題点を指摘し, EDU の依存構造木 (DEP-DT) に変換し, 依存構造木の刈り込みにより要約を生成する木制約付きナップサック問題 (Johnson and Niemi 1983) として要約を定式化した。 ILP の導入によって, 高い網羅性を持った要約の生成が可能となった一方で,要約手法が持つ要約長に対する柔軟性は, 情報の網羅性と密接な関係をもつようになった。文書要約では, 要約文書が満たすべき上限の長さを指定することが一般的である。抽出型要約においてよく用いられる抽出単位は文であり,生成された要約の文法性が保証されるという利点がある。しかし,高い圧縮率,すなわち原文書の長さと比較して非常に短い長さの要約文書が求められている場合,文を抽出単位とすると十分な量の情報を要約文書に含めることが出来ず,情報の網羅性が低くなってしまうという問題3があった。この問題に対し,文抽出と文圧縮を組み合わせるアプローチが存在する,文圧縮とは,主に単語や句の削除により,対象となる文からより短い文を抽出する手法である。近年,こうした文圧縮技術と文抽出技術を逐次適用するのではなく,それらを同時に行うアプローチ(以降これらを同時モデルとよぶ)が盛んに研究されており, 高い情報の網羅性と要約長への柔軟性を持った要約文書の生成が可能となっている. 本研究の目的は, 文書の談話構造に基づく, 情報の網羅性と要約長への高い柔軟性を持った要約手法を開発することである。これまで,文書要約に談話構造を加える試みと,文抽出と文圧縮の同時モデルは,どちらも文書要約において重要な要素であるにもかかわらず,独立に研究されてきた。その大きな要因の一つは,両者の扱う抽出粒度の違いである.前者は EDU であり,後者の抽出粒度は文(圧縮され短くなった文も含む)である.抽出単位を文や EDU というそれなりの長さのテキストスパンにすると, ある要約長制約に対し, 選択可能なテキストスパンの組合せは自ずと限られ,情報の網羅性を向上させることが困難な場合がある。我々は,文間の依存関係に基づく木構造と単語間の依存関係に基づく木構造が入れ子となった入れ子依存木を提案し,その木構造に基いて要約を生成することでこの問題に取り組む. 提案手法について,図 1 に示す例で説明する。本研究で提案する入れ子依存木は,文書を文間の依存関係で表した文間依存木で表現する。文間依存木のノードは文であり,文同士の依存関係をノード間のエッジとして表現する,各文内では,文が単語間の依存関係に基づいた単語間依存木で表現されている。単語間依存木のノードは単語であり,単語同士の依存関係をノー ド間のエッジとして表現する。このように,文間依存木の各ノードを単語間依存木とすることで,入れ子依存木を構築する。そして,この入れ子依存木を刈り込む,つまり単語の削除による要約生成を ILP として定式化する。生成された要約は,文間依存木という観点では必ず文の根付き部分木となっており, その部分木内の各文内, すなわち単語間依存木の観点では単語の部  Source document John was running on a track in the park. He looks very tired. Mike said he is training for a race. The race is held next month. Summary John was running on a track. he is training for a race. * The race is held next month. 図 1 提案手法の概要. 原文書は二種類の依存木に基づく入れ子依存木として表現される. 提案手法は,文間依存木からは根付き部分木,その各ノードは単語間依存木の部分木となっているように単語を選択することで要約を生成する。 分木となっている。ここで, 文間依存木からは必ず木全体の根ノードを含んだ根付き部分木が抽出されているのに対し, 単語間依存木はそうでないものも存在することに注意されたい. 従来, 文圧縮を文書要約に組み込む研究では, 単語間依存木の場合も必ず根付き部分木が選択されていたが,限られた長さで重要な情報のみを要約に含めることを考えると,単語の根付き部分木という制約が情報の網羅性の向上の妨げとなる可能性がある. そこで提案手法では, 根付きに限らない任意の部分木を抽出するために,部分木の親を文中の任意の単語に設定できるよう拡張を加えた。 提案手法をRST Discourse Treebank (Carlson, Marcu, and Okurowski 2001)における要約システムの評価セットで従来の同時モデルや木制約付きナップサック問題による要約手法と比較評価したところ,文書要約の自動評価指標である ROUGEにおいて最高精度が得られることを確認した。 ## 2 関連研究 現在の抽出型要約の主流である文抽出,文圧縮の同時モデルでは,与えられた文書(群)から,文を単語間依存木として表現し,その根付き部分木を刈り込む,すなわち単語を削除することで要約を生成する。また,これを ILP として定式化する研究が盛んに行われている (Almeida and Martins 2013; Qian and Liu 2013; Morita, Sasano, Takamura, and Okumura 2013; Gillick and Favre 2009). しかし, 文から抽出する単語列を単語依存木の根付き部分木に限ると高圧縮な要約設定において情報の網羅性が低下するおそれがある 4 . さらに, これらの同時モデルでは文書が持つ談話構造を考慮しないため, 情報の網羅性が高く自動評価指標の ROUGEにおいて  高い值を得ることができるが,一貫性に欠けた要約が生成されてしまうという欠点がある. また,同時モデルにおける文圧縮の手段として,文を依存構造木ではなく句構造木として表現し,その部分木を抽出する手法も提案されている (Li, Liu, Liu, Zhao, and Weng 2014; Wang, Raghavan, Castelli, Florian, and Cardie 2013; Berg-Kirkpatrick, Gillick, and Klein 2011). 句構造木は連続した単語列の文法的な役割を階層構造として表現した木であるため,この木を刈り込む際には連続した単語列(句)を同時に削除することが多くなる。よって,依存構造木を用いた刈り込みと比較すると要約長に柔軟な刈り込みが難しい. 一方,一貫性をもった要約を生成する手法として RST を利用した手法が提案されている. Daumé III and Marcu は,RST を利用した Noisy-channel モデルに基づく文書圧縮手法を提案した (Daumé III and Marcu 2002). 彼らの手法は一貫性を持った要約の生成が可能であるが,情報の網羅性という観点で最適解が得られるとは限らない。また適切な確率を計算するために大量のコーパスを必要とする上に,計算量の問題で長い文書に適用できないという欠点があった. Marcuは,RSTの構造を利用して EDU の順位を決定し,ランキング上位の EDU を要約として抽出した (Marcu 1998). Uzêda らは, Marcu の手法を含む合計 6 つの手法を組み合わせる手法を提案し,オリジナルの手法との比較評価を行った (Uzêda, Pardo, and Nunes 2010). 4.2.1 節では彼らの報告にある数値も参考値として載せている. Marcu らの手法を含む EDU のランキングに基づく手法は,十分な情報の網羅性が保証されないという欠点がある。 Hirao らはこれを解決するため, EDU の依存木を構築し,その依存関係に基づいて EDU を選択する問題を木制約付きナプサック問題として定式化した (Hirao et al. 2013).これらの手法は RSTにおけるテキストの最小単位である EDUをそのまま抽出単位としていたが,EDUが文書要約においても適切な抽出単位であるかについては,要約長に対する柔軟性の面で疑問が残る。EDU は文よりも短いとはいえそれなりの長さを持ったテキストスパンである。そのため,要約に含める情報の組み合わせの自由度は比較的低く,かつ EDU のようなテキストスパンを対象とした構文解析器がないため, 文圧縮のような技術が適用できない。これに関しては 4.2 .5 節で評価実験結果をふまえて考察を行う. Hirao らの手法は提案手法に最も強く関連している。両者の違いは, Hirao らの手法が EDUをノードとする依存木から EDUを選択する要約手法であることに対し,提案手法は文間の依存関係と単語間の依存関係が入れ子構造を成す木から単語を選択する要約手法であるという点である. また, 文重要度の決定に貢献する特徴を調べた文献 (Louis, Joshi, and Nenkova 2010)でも, RSTの有効性が示されている. これまで,文書の(大域的な)談話構造を利用した要約手法について紹介したが,隣接した文同士のつながりを評価し,文の局所的な並びを最適にすることに取り組む研究も存在する (Nishikawa, Hasegawa, Matsuo, and Kikui 2010; Christensen, Mausam, Soderland, and Etzioni 2013). これらの方法では, 修辞構造解析器を必要としないため, 論理構造が明確でなく自動解 析の精度が期待できない文書においては有効である。一方で, 文書の大域的な談話構造を考慮した要約生成はできない可能性がある. ## 3 入れ子依存木の刈り込みによる要約文書生成 本研究の目的は, 要約文書の一貫性と情報の網羅性が高く, かつ要約長に柔軟な要約手法を提案することである. 要約としての一貫性と要約長への柔軟性を獲得するために文書を入れ子依存木として表現し, 入れ子依存木から要約文書を生成する問題を整数計画問題として定式化することで高い情報の網羅性を持った要約生成を行う。本節では,入れ子依存木の構築についての詳細と, ILPでの定式化について説明する. ## 3.1 修辞構造理論 修辞構造理論 (Rhetorical Structure Theory; RST)(Mann and Thompson 1988)は,文書の談話構造を表現するために提案された理論である。文書を EDUに分割し, 連続した EDU 同士(あるいは,複数の EDU をつなぎあわせたテキストスパン)を修辞関係で関連付けることで,談話構造木を構築する。構築される木は, 終端ノードが EDU, 非終端ノードが子ノード間の修辞関係をラベルに持つ木構造で表現される。図 2 に,談話構造木の例を示す。図において二つの非終端ノードの間に書かれているラベルがそのノード間の修辞関係である。具体的には例示, 補足,背景などの関係により,テキストスパン同士がどのような関係にあるかを表現する,今回 図 2 RST による文書の表現. $\mathrm{EDU}_{1-10}$ は具体的なテキストになっており,おおよそ節に相当する。隣り合ったテキストスパンは再帰的に修辞関係により関連付けられており, 最終的に文書全体で木構造を構成する. $\mathrm{N}$ と $\mathrm{S}$ はそれぞれ核と衛星に対応し,間に書かれたラベルがそれらの間の修辞関係である. 用いたコーパスでは合計で 89 種類の修辞関係が存在した。また, 修辞関係と共に各テキストスパンには核 (Nuclear) か衛星 (Satellite)のいずれかのラベルが付与される。核はその修辞関係において中心的な役割を担い, 衛星は補助的な役割を持つ。例えば補足という修辞関係では, 補足される方のテキストスパンが核であり,その内容を具体的に補足したテキストスパンが衛星となる。図においては,各非終端ノードの $\mathrm{N}$ と $\mathrm{S}$ がそれぞれ核と衛星を表している。なお, 図 2 の*のように, 複数の核からなる多核 (multinucleus) という性質を持った修辞関係も存在する. ## 3.2 入れ子依存木の構築 Hirao ら (Hirao et al. 2013) は RST の木構造を変換することで依存構造に基づくDEP-DT を構築した,DEP-DTは,EDU 間の依存関係を直接表現しており,この依存木を刈り込むことで一貫性を保った要約が生成できる。図 3 に,図 2 の木構造から変換された DEP-DT と本研究で用いる文間依存木を示す。 Hiraoらの用いたDEP-DT は,EDUをノードとするものであったが,本研究では文間の関係をとらえた同時モデルのため,これを文をノードとした依存木へと変換する,具体的には,同じ文に属する EDU 集合をまとめ,文内の親となっている EDU の依存先を,その文の依存先として採用する。依存先の EDU は他の文に属しているため,この変換規則により,文間の依存関係を持った木構造(文間依存木)を取得することができる。次に文間依存木の各ノードとなる文に対し依存構造解析を行い, 単語間の依存構造(単語間依存木) を獲得する,以上の処理により,文書が文の係り受け木,各文内では単語の係り受け木により構成された入れ子依存木を構築する。本研究では, この入れ子依存木から不要な単語を刈り込むことで要約文書を生成する。 (1) DEP-DT(EDU間依存木) (2) 文間依存木 図 3 依存構造に変換された文書の修辞構造. (1) Hirao らによるEDU 間の依存関係を表した DEP-DT であり,図2の木構造を変換したもの。なお, multinucleusの関係を持つテキストスパンを成す $\mathrm{EDU}_{4}$ と $\mathrm{EDU}_{5}$ はそれぞれ独立に一つ上の核である $\mathrm{EDU}_{3}$ に依存している。(2) 本研究で用いる文間依存木. Hirao らの DEP-DT を変換したもの. ## 3.3 整数計画問題による定式化 入れ子依存木からの単語の削除による要約文書の生成は, 整数計画問題として定式化できる.具体的には, ある目的関数のもと, 文間依存木の根付き部分木, 根付き部分木中の各文は単語間依存木の(任意の)部分木となるように単語を選択することで要約を生成する。提案手法は次の整数計画問題で定式化できる. $ \begin{array}{ccc} \operatorname{max.} & \sum_{i}^{n} \sum_{j}^{m_{i}} w_{i j} z_{i j} & \\ \text { s.t. } & \sum_{i}^{n} \sum_{j}^{m_{i}} z_{i j} \leq L ; & \forall i, j \\ x_{i} \geq z_{i j} ; & \forall i \\ & x_{\text {parent }(i)} \geq x_{i} ; & \forall i, j \\ z_{\text {parent }(i, j)}+r_{i j} \geq z_{i j} ; & \forall i, j \\ r_{i j}+z_{\text {parent }(i, j)} \leq 1 ; & \forall i \\ \sum_{j=0}^{m_{i}} r_{i j}=x_{i} ; & \forall i, j \\ r_{i j} \leq z_{i j} ; & \forall i \\ \sum_{j \notin R_{c}(i)} r_{i j}=0 ; & \forall i \\ r_{i \operatorname{root}(i)}=z_{i \operatorname{rot}(i)} ; & \forall i \\ \sum_{j=0}^{m_{i}} z_{i j} \geq \min \left(\theta, m_{i}\right) x_{i} ; & \forall i \\ \sum_{j \in \operatorname{sub}(i)} z_{i j} \geq x_{i} ; & \forall i \\ \sum_{j \in \operatorname{obj}(i)} z_{i j} \geq x_{i} ; & \forall i \\ x_{i} \in\{0,1\} ; & \forall i \\ z_{i j} \in\{0,1\} ; & \forall i, j \\ r_{i} \in\{0,1\} ; & \forall i \end{array} $ $n$ は対象とする原文書に含まれる文数であり, $m_{i}$ は文 $i$ の単語数である. $w_{i j}$ は単語 $i j(i$ 番目の文における $j$ 番目の単語)の重みである, $x_{i}$ は,文 $i$ を要約に含めるときに 1 となる決定変数であり, $z_{i j}$ は, 単語 $i j$ を要約に含めるときに 1 となる決定変数である. 目的関数は, 要約に含まれた単語の重みの総和であり,この関数を最大にするように単語を選択する。 式 (1) は, 要約として選択される単語数が $L$ 以下であることを保証するための制約式である.式 (2)は要約に含まれていない文中の単語を要約に含めてしまうことを防ぐための制約式である. 式 (3) は文間依存木から文を選択する時に,その木構造を保つことを保証する。これは文 間依存木からは必ず根を含む根付き部分木が選択されることを意味する. parent $(i)$ は,文間依存木において文 $i$ の親となる文のインデックスを返す関数である. 式 (4) から式 (9) には決定変数 $r_{i j}$ が含まれている。 $r_{i j}$ は,単語 $i j$ を根とした部分木を要約文書に含める場合に 1 となる。式 (4) は,単語間依存木から単語を選ぶ場合,その木構造を保つことを保証する。ただし,単語間依存木の根以外の単語 $i j$ を根として部分木を抽出する場合は,その単語 $i j$ には必ず親となる単語 $\operatorname{parent}(i, j)$ が存在する。その状況では $z_{i j}$ が 1 のまま $z_{\text {parent }(i, j)}$ を 0 にすることが許容されなければならず,それを可能とするのが左辺第二項の $r_{i j}$ である。なお,parent $(i, j)$ は,文 $i$ に対応する単語間依存木において,単語 $i j$ の親となる単語のインデックスを返す関数である。ただし,このままでは, $z_{\text {parent }(i, j)}$ と $r_{i j}$ のどちらも 1 である場合も許容されてしまうため,2つの変数が同時に 1 となることを制限するための制約式 (5) を追加する,同様に,このままでは $r_{i j}$ のみが 1 となっている場合も許容されてしまう, $r_{i j}$ が 1 である場合はその単語 $i j$ は必ず要約に含まれなければならないため, 制約式 (7) を追加することで対処する.本研究では文 $i$ が要約に含まれる場合 $\left(x_{i}=1\right)$ は,そこから抽出される部分木は高々一つであるとしている。そこで,式 (6)により,一つの文から複数の部分木 (の根)が生じることを制限している。また,文 $i$ における単語間依存木の根に相当する単語 $(\operatorname{root}(i))$ に関しては, 根付き部分木を抽出する場合, すなわち $r_{\operatorname{root}(i)}$ が 1 であるときのみ要約に含めることを保証する必要があり,そのため制約式 (9)を追加している. 冒頭で述べた通り,本研究では単語間依存木から部分木を抽出する際は,根となり得るのは文中の動詞と, 単語間依存木全体の根となる単語に限っている。そこで, それ以外の単語が根となることを防ぐことを保証するため, 制約式 $(8)$ を追加する.ここで, $R_{c}(i)$ は文 $i$ 中で根の候補となる単語, すなわち動詞のインデックス集合を返す関数である。式 (10) は, 文(に対応する単語間依存木の部分木)を要約に含めるための最低の単語数を規定するための制約式である。これは,単語の削除により木を刈り込むという手法の性質上,極端に短く刈ってしまうと非文になる可能性が高くなることを防ぐ目的がある。また,要約を最適化問題としてモデル化しているので,目的関数を最大化するために要約長の限界まで単語を選択しようとして,刈り込みを無制限に許容すると,極端な例では 1 単語からなる部分木を選択してしまうため,それを防ぐための制約である。式 (11)は,部分木を抽出する際は必ず一つ以上の主語を含むことを保証する制約である。同様に式 (12) は,目的語を一つ以上含むことを保証する制約である。ここで, $\operatorname{sub}(i)$ と $o b j(i)$ は, それぞれ文 $i$ 中の単語のうち係り受けラベルが主語, 目的語である単語のインデックス集合を返す関数である. 提案手法の文圧縮が単語間依存木の刈り込みに基づいている以上,その操作により非文が生成されてしまう可能性がある。ここで,非文となる部分木の生成を避けるための二種類の追加 的な制約を導入する。一つ目の制約式は単語対に対するものである: $ z_{i k}=z_{i l} $ 式 (16) は. 単語 $i k$ と単語 $i l$ は必ず同時に要約に含まれることを保証する. これは, 片方だけを要約に含めてしまう場合に非文となってしまうような組に対して定義される。具体的には,係り受けタグが PMOD ${ }^{5}, \mathrm{VC}^{6}$ である単語とその親の単語, 否定詞とその親の単語, 係り受けタグがSUB あるいは OBJである単語とその親となっている動詞, 形容詞の比較級 (JJR) あるいは最上級 (JJS) とその親の単語, 冠詞とその親の単語, “to”とその親の単語である. 二つ目の制約式は単語列に対するものである: $ \sum_{k \in s(i, j)} z_{i k}=|s(i, j)| z_{i j} $ 式 (17) は単語の集合に対し, 集合中のいずれかの単語を要約に含めるとき, 集合中の他の全ての単語も要約に含めることを保証する制約である。具体的には,固有名詞列(品詞夕グが PRP\%, WP\%あるいはPOS のいずれかである単語列)や,所有格とその係り先の単語,その間に含まれる全ての単語列である。ここで, $s(i, j)$ は, 単語 $i j$ と, 例に上げた関係にある単語インデックスの集合を返す関数である. ## 4 評価実験 ## 4.1 実験設定 提案手法の有効性を示すために評価実験を行った.実験には RST Discourse Treebank (RSTDTB) (Carlson et al. 2001) に含まれる要約評価用のテストセットを用いた. RST-DTB は Penn Treebankコーパスの一部の文書(Wall Street Journal から収集された 385 記事)からなるコーパスであり,RSTに基づく木構造が人手で付与されている。さらにその内 30 記事について, 人手で作成された要約文書 (参照要約) が存在しており, それらの文書を評価用テストセットとした。実験に用いたすべての文書は,Penn Tokenizerによりトークンに区切った.要約システムの入力となる要約長は, 参照要約の有するトークン数とした. テストセットに含まれる 30 記事の参照要約には, 平均して原文書の $25 \%$ 程度の長さの long 要約と, 平均して原文書の $10 \%$ 程度の長さの short 要約の二種類が存在する. 本実験では両方のテストセットについて先行研究との比較を行う.評価尺度としては ROUGE (Recall-Oriented Understudy for Gisting Evaluation)(Lin 2004)を用いる7.  抽出粒度の妥当性について検証するため,比較手法として EDUを単位とした木制約付きナップサック問題による要約手法 (Hirao et al. 2013) と, 文を単位とする木制約付きナップサック問題による要約手法を用意した。また,単一文書要約において強力なべースラインとなる LEAD 法との比較も行った.LEAD法は,要約長に達するまで文書の冒頭から抽出単位を選択していくことで要約文書を生成する手法である。本稿では $\mathrm{EDU}$ を抽出単位とする $\mathrm{LEAD}_{\mathrm{EDU}}$ と,文を抽出単位とする $\mathrm{LEAD}_{\mathrm{snt}}$ との比較を行う。さらに,提案手法において文(単語間依存木)から部分木を抽出する際に根付き部分木に制限する手法(根付き部分木抽出)も用意し,任意の部分木を抽出対象とする提案手法(任意部分木抽出)との比較を行った. 本実験に用いたすべての文間依存木は,RST-DTB で人手付与された RST 構造を利用しており談話構造解析器は利用していない。考察において,談話構造解析器を用いた追加実験を行い,精度の変化について考察する。また,単語依存木は Suzuki らの提案した依存構造解析手法 (Suzuki, Isozaki, Carreras, and Collins 2009) を用いて構築した. なお,本実験では,単語の重要度 $w_{i j}$ として以下を用いた: $ w_{i j}=\frac{\log \left(1+t f_{i j}\right)}{\operatorname{depth}(i)^{2}} $ $t f_{i j}$ は文書における単語 $w_{i j}$ の単語頻度であり, $\operatorname{depth}(i)$ は, 文書の文間依存木における文 $x_{i}$ の根からの深さである。また, 制約 $(10)$ における $\theta$ は 8 とした. ## 4.2 結果と考察 ## 4.2.1 ROUGEによる比較 表 1 に,各手法による ROUGE- 1,2 値を示す。まず, short 要約, long 要約セット双方において, 提案手法である任意部分木抽出と根付き部分木抽出の間に ROUGE 値の顕著な差はみられなかった. これについては 4.2 .4 節において, 両手法が抽出した実際の部分木を例に定性的な考察を行う.以下では,任意部分木を提案手法とし,他の手法との比較を行う. また, 表 1 の下 3 行は Uzêda らによる比較実験の結果から一部の数値を引用している 8 . ここで, Marcu $_{\text {ours }}$ (0.432) と Marcu et al. (0.440)は, どちらも (Marcu 1998)の手法による結果を示している.前者は我々による再実装の数値であり,後者は (Uzêda et al. 2010) において報告されていた数值である.数值が異なるのはトークナイゼーションなどの前処理の違いによるものであると考えられるが, Uzêda らの文献に前処理の詳細がないため, 完全な比較とはならないことに注意されたい. とはいえ, 両者の数值に大きな差異はないことから, ほぼ同じ実験条件での数値であると判断した.  表 1 各手法による short 要約セットおよび long 要約セットにおける ROUGE-1,2 值 上 2 行が提案手法であり, 下 3 行は (Uzêda et al. 2010) からの引用である. まず,short 要約セットの stopword を除去した条件(最も左のカラム)において,提案手法の評価值はホルム法による多重比較の結果, 他の全ての手法を有意に上回っていることを確認した. 個別の手法と比較すると,文選択手法すなわち文圧縮を一切行わない手法と比較すると,提案手法が大幅に上回っている事がわかる。これは,文をそのまま抽出する場合は,今回の要約設定(平均圧縮率が約 10\%)では十分に情報を網羅できないことを示している.次に,EDU 選択手法と比較しても提案手法が上回っている.EDU 選択は文選択を有意に上回っていることから,文よりも細かい EDU を抽出粒度とすることで,要約文書の情報の網羅性を高めることができている。しかし,EDUという予め決められた長さのテキストスパンを抽出する手法よりも,部分木という可変長のテキストスパンを抽出できる提案手法の方がROUGE 值は上回っており, その有効性がわかる. LEAD 法は, 報道記事の単一文書要約問題において非常に強力なベースラインである。これは,報道記事ではしばしば記事の冒頭でその記事全体の小さなまとめが書かれる傾向にあるためである.今回の実験では抽出単位の異なる二種類の LEAD 法を用いたが,いずれも低い数値となった。これは要約対象となっている文書が,単純な報道記事ではなく, エッセイや社説によって構成されているためであり, 冒頭に重要なまとめが記載されているわけではないことが原因である. 一方, long 要約セットでは, 提案手法と EDU 選択手法との間に顕著な差は見られなかった. これは, $25 \%$ という圧縮率が比較的緩く, いずれの手法, 抽出単位でもある程度の情報が網羅できるために大きな差が生まれなかったためである。ただし, 文を抽出単位とした手法(文選択および $\mathrm{LEAD}_{\text {snt }}$ )の ROUGE スコアは低いことから, 情報網羅性の向上のためには, 文よりも小さいテキストスパンを抽出することが重要であるとわかる. 以上の結果から, 提案手法のような要約長に柔軟な要約手法は, short 要約セットのように比較的圧縮率の高い設定において有効であることがわかる. ## 4.2.2 修辞構造の自動解析による精度の変化 表 1 の実験結果は,人手で与えられた RST に基づく修辞構造を用いていた。提案手法を任意の文書に適用する場合, 文書の修辞構造を自動で解析する解析器が必須である。しかし, 修辞構造の自動解析は難しいタスクの一つであり, 人手で付与された談話構造を使用したときと比較して精度が劣化してしまうおそれがある。そこで本節では, 既存の修辞構造解析器を用いて自動で解析した修辞構造を利用した場合の精度の変化を調べる。今回の実験では自動解析器として, サポートベクターマシンに基づく高い精度を持った解析器である HILDA (duVerle and Prendinger 2009; Hernault, Prendinger, duVerle, and Ishizuka 2010)を用いた. 表 2 に実験結果を示す. HILDA と付いている行が,自動解析に基づく依存木を使用した場合の結果である。結果から,いずれの手法も人手で作成された修辞構造を用いたものより ROUGE 値が劣化していることがわかる. short 要約セットの場合は, 提案手法の方が劣化が大きい. これは, 提案手法が EDU 単位の依存構造を文単位に変更しているためである. HILDAを始めとする自動解析器は,ボトムアップに修辞構造木を組み上げていくため,それを用いて得た修辞構造木を談話依存構造へと変換すると, 距離が近い EDU 間の依存関係は比較的高い精度で予測できるが, 遠い依存関係の予測精度は低い。このため, 遠距離の依存関係である文間の依存関係の同定に失敗し, 提案手法のROUGEが大きく劣化したと考える,実際,依存先の正解率 9 を計算すると, EDU 単位で 0.590 , 文単位で 0.324 となった. しかしながら, short 要約セットにおいては, 減少幅は大きいものの依然として提案手法の精度が, 今回比較したどの手法の数値よりも高いことから,提案手法の有効性がわかる. long 要約セットにおいては, EDU 選択手法の ROUGE 値の減少はほとんど見られなかった. 4.2.1 節で述べた通り, long 要約セットは低い圧縮率であるため比較的多くの情報を要約に含めることができる。文単位の依存関係においても,正解率自体は低くとも選択できる文数が増えるため, short 要約セットよりもROUGE 値の劣化が抑えられている。すなわち, short 要約セットのように圧縮率の厳しい設定では, より高い精度で抽出単位の依存先を推定する必要がある. 表 2 修辞構造を自動解析した場合の精度の変化 上 2 行は表 1 より再掲している.  ## 4.2.3 単一文書要約における重要箇所同定 前節で,提案手法の有効性を ROUGE 值によって確認した,本節では,談話構造,すなわち文間依存木の情報が文書中の重要箇所同定に有効かという点について考察を行う. 現在, 文書要約において主流な問題設定は, 同じトピックについて書かれた文書の集合からひとつの要約文書を生成する, 複数文書要約である。冒頭で説明した文抽出と文圧縮を組み合わせる手法も全て複数文書要約に取り組んでいるのに対して,今回我々が行った実験は,一つの文書に対し一つの要約文書を生成する単一文書要約問題である。単一文書要約は複数文書要約と比較して,要約文書に含めるべき文書の重要部分の同定が難しい. なぜならば複数文書要約では文書集合全体として重要な話題は文書横断的に出現するため, その性質を利用できる ${ }^{10}$ が,単一の文書においてそのような情報は利用できないためである. 対象とする文書が報道記事である場合は, 冒頭部分に記事全体の要約が書かれやすいという強力な基準があるが, そうでない場合に重要な部分を同定することは困難である11. 今回我々が用いた単一文書要約の評価セットは, 報道記事ではなく社説やエッセイのような文書で構成されているため重要部分の同定が難しい。これは表 1 における LEAD 手法の ROUGE 值からも確認できる. 文間依存木の情報が文書の重要箇所同定に与える影響について検証するため, 提案手法(自動解析含む)の単語重要度から depth $h^{2}$ を取り除いたもの,すなわち単語の重要度が単にその文書における出現頻度で決まる場合と, 文間依存木の情報を一切用いない従来の同時モデルについても同様に実験を行い比較した,表 3 に,それぞれの結果を示す。提案手法の単語重要度から文間依存木の情報(依存木の根からの深さ)を除いた場合に十分な ROUGEスコアが得られないことから,文書の談話構造が単一文書要約における重要箇所の同定に寄与していることが 表 3 RST に基づく文間依存木を利用しない場合の結果の変化 上 2 行は表 2 より再揭している.  わかる,なお,同時モデルと異なり,木構造の制約という形で文間依存木の情報は用いていることに注意されたい,同時モデルの結果を見ると,文抽出と文圧縮の同時最適化のみでは,本評価セットで有効に機能しないことがわかる,重要文の同定・抽出が困難であるならば,複数文書要約において盛んに取り組まれている文抽出と文圧縮の同時最適化を適用することも困難となり,要約長に柔軟な要約文書の生成も困難となる。本研究の結果は単一文書における重要部分の同定に対するひとつの手がかりとして,文書の談話構造が有効である可能性を示唆しているといえる。 ## 4.2.4 異なる部分木抽出手法の定性評価 ここまで,ROUGEの観点から評価実験の結果についての考察を進めてきた。本節では,単語間依存木からその部分木を抽出する方法として,任意の部分木を抽出することの有用性を,例を示して考察する. 図 4 に, 任意部分木抽出手法と根付き部分木抽出手法が共通して要約文書に含めた文と,そこから抽出した部分木に対応する二つの文を示す。なお,これは short 要約セットにおける例である。 ここで, $\{\cdot\}$ は依存構造解析器が単語間依存木の根であると出力した語であり, [$\cdot$] は要約システムが部分木の根として選んだ語である。任意部分木抽出においては,例に示したいずれの文も解析器の根以外の単語を根として部分木を抽出している. 例に見るように, 目的節や that 節の内容の方が重要な情報を持つことが多いため,その部分のみを抽出することは,限られた長さで重要な情報のみ要約に含める上で有用であり,今回の実験ではこうした事例が少なかったこともあり ROUGE スコアで大きな差がでなかったが,特に圧縮率の高い設定 ${ }^{12}$ では有効であろう。 図 4 二つの手法が共通して要約に選択した文と, それぞれが抽出した部分木の例  ## 4.2.5 抽出粒度と要約文書の文数の関係 EDU はRST における談話構造の基本単位であるが, 抽出型要約の抽出単位として適切とは限らない。図 5 に, ある文 ${ }^{13}$ とその文を構成する EDU の例を示す. 図のように,EDU はおおよそ節に対応する文よりも細かな単位である. 抽出単位が文よりも細かい EDU であることは, EDU 抽出は, 文圧縮を逐次適用した要約手法として考えることができる。つまり,EDU 抽出による要約は多くの文を事前に圧縮しつつ抽出していることに相当する. このように文よりも小さな断片を組み合わせて要約を生成すると,文を組み合わせる場合よりも長さ制約をちょうど満たすように要約を生成することができる可能性が高い. よって, ROUGE 値も上昇する傾向にある。 しかし, EDUは文よりも短いため, たとえ一貫性があろうともそれを読んだ読者が違和感を覚えてしまうだろう。 抽出型要約において, 文書中の多くの文から細かな断片を集めることで情報の断片化された要約の生成につながっているかどうかのは,要約文書に含まれる抽出単位集合の元となる文の数が,その一つの指標となる。言い換えると,生成された要約を構成する文の数が,参照要約すなわち人間によって生成された要約に近い方が, 自然で読みやすい要約になっていると考えられる。そこで本節では各手法が生成した要約文書に含まれる原文書の文数を比較した。比較に用いた手法は提案手法である任意部分木抽出の他に, 文選択と EDU 選択である。文選択は原文書中の文の数, EDU 選択は原文書中の EDU に対応する文の数, 部分木選択は, 部分木に対応する文の数である。なお, 参照要約は人間が自由に生成した要約であるため, 必ずしも原文書の文とは対応していないことに注意されたい. short 要約セットにおいて各選択手法が選択した文について箱ひげ図を図 6 に示す. 各々の箱の上辺と下辺は,それぞれその手法が選択した文数の第一四分位点,第三四分位点を表しており, 箱の中の線は中央値を表している。箱の上下に伸びる線(ひげ)の先は, それぞれ最大値,最小値を表し,ひげよりも外側に見られる+印は,外れ値である。 図を見ると,EDU 選択手法が最も多くの文を用いて要約を生成していることがわかる。一方で文選択手法は, 比較手法の中では最も参照要約の文に近いが,4.2.1節で示した通り情報の網 図 5 本データセットにおける文の一例. 5 行全体で一つの文であり, 各行が一つの EDU に対応している.  羅性という点で十分な要約を作成できない,部分木抽出は文選択と EDU 選択の間で,両者のように実際に抽出されるテキストスパンの長さを固定せずに要約システムが柔軟に各文から抽出する部分木を選択することができる。それにより情報の網羅性と要約としての自然さを両立出来ている。なお, 部分木抽出手法の平均文数は 4.73 であり, 中央値は 4 文であった. これに対し, $\mathrm{EDU}$ 選択の平均文数は 5.77 で中央値は 5 文であった. これは提案手法の方が有意 ${ }^{14}$ に少ない文を用いて要約を生成していることを示している。自動解析を利用した場合も同様の傾向であるため詳細は割愛する。 同様に, long 要約セットについて図 7 に示す. 圧縮率が低くなった場合も全体の傾向としては short 要約セットとの大きな差異はない,全体的にばらつき(箱の縦の長さ)が大きくなっているが, これは参照要約自体の長さのばらつきが short 要約セットよりも大きいことが原因である。 図 6 short 要約セットにおいて各手法が使用した原文書の文の数. (HILDA) と付いているものは自動解析による修辞関係を利用している。 図 7 long 要約セットにおいて各手法が使用した原文書の文の数 (p<0.05) .}$ } ## 5 まとめ 本研究では, 単語間の依存構造解析に基づく単語間依存木と,RST に基づく文間依存木から入れ子依存木を構築し, そこから要約文書に含める単語を選択する要約生成問題を ILP として定式化した。提案手法は EDU の依存木の刈り込み手法に比べ,過剰に文を区切ることなく ROUGE を向上させることが確認できた. また, 単語の依存木からその部分木を抽出する方法として, 構文解析器が出力した根にこだわらない任意部分木抽出手法について, その有用性を定性的に分析した。 さらに, 人手で作成された修辞構造以外に, 修辞構造解析器で推定された修辞構造も用いて, その精度への影響を確かめた。 提案手法の抱える課題は, 任意の文書に対して適用する際に修辞構造の自動解析を利用しており, その精度の与える影響が大きいという点である。今回は EDU 単位の修辞構造解析結果を文単位の依存関係に変換して利用したが,はじめから EDU 単位の依存関係を獲得する研究 (Yoshida, Suzuki, Hirao, and Nagata 2014)も存在する。これらを踏まえ, 今後はより良い文間依存木の獲得方法を検討していく。 今回は RST から得られる情報のうち文間の依存関係のみに着目したが, 各文内における EDU 間の関係や修辞構造のラベルを考慮して文圧縮や文抽出を行うことが可能であり, 今後取り組むべき課題として興味深い. 今後は, 他のコーパスの文書や, 複数文書要約においても提案手法を適用することを考えている. ## 参考文献 Almeida, M. and Martins, A. (2013). "Fast and Robust Compressive Summarization with Dual Decomposition and Multi-Task Learning." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (ACL), pp. 196-206. Berg-Kirkpatrick, T., Gillick, D., and Klein, D. (2011). "Jointly Learning to Extract and Compress." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (ACL), pp. 481-490, Portland, Oregon, USA. Carlson, L., Marcu, D., and Okurowski, M. E. (2001). "Building a Discourse-tagged Corpus in the Framework of Rhetorical Structure Theory." In Proceedings of the 2nd Annual SIGdial Meeting on Discourse and Dialogue (SIGDIAL), pp. 1-10. Christensen, J., Mausam, Soderland, S., and Etzioni, O. (2013). "Towards Coherent MultiDocument Summarization." In NAACL:HLT, pp. 1163-1173. Daumé III, H. and Marcu, D. (2002). "A Noisy-Channel Model for Document Compression." In Proceedings of 40th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 449-456, Philadelphia, Pennsylvania, USA. Association for Computational Linguistics. duVerle, D. and Prendinger, H. (2009). "A Novel Discourse Parser Based on Support Vector Machine Classification." In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP, pp. 665-673, Suntec, Singapore. Association for Computational Linguistics. Filatova, E. and Hatzivassiloglou, V. (2004). "A Formal Model for Information Selection in Multi-Sentence Text Extraction." In Proceedings of the 20th International Conference on Computational Linguistics (COLING), pp. 397-403. Filippova, K. and Strube, M. (2008). "Dependency Tree Based Sentence Compression." In Proceedings of the 2nd International Natural Language Generation Conference (INLG), pp. 25-32. Gillick, D. and Favre, B. (2009). "A Scalable Global Model for Summarization." In Proceedings of the NAACL HLT Workshop on Integer Linear Programming for Natural Language Processing (ILP), pp. 10-18. Hernault, H., Prendinger, H., duVerle, D. A., and Ishizuka, M. (2010). "HILDA: A Discourse Parser Using Support Vector Machine Classification." Dialogue and Discourse, 1 (3), pp. 1-33. Hirao, T., Yoshida, Y., Nishino, M., Yasuda, N., and Nagata, M. (2013). "Single-Document Summarization as a Tree Knapsack Problem." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1515-1520. Hobbs, J. R. (1985). On the Coherence and Structure of Discourse. CSLI. Johnson, D. S. and Niemi, K. A. (1983). "On Knapsacks, Partitions, and a New Dynamic Programming Technique for Trees." Mathmatics of Operations Research, 8 (1), pp. 1-14. Li, C., Liu, Y., Liu, F., Zhao, L., and Weng, F. (2014). "Improving Multi-documents Summarization by Sentence Compression based on Expanded Constituent Parse Trees." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 691-701, Doha, Qatar. Association for Computational Linguistics. Lin, C.-Y. (2004). "ROUGE: A Package for Automatic Evaluation of summaries." In Proceedings of the ACL Workshop on Text Summarization Branches Out, pp. 74-81. Louis, A., Joshi, A., and Nenkova, A. (2010). "Discourse Indicators for Content Selection in Summarization." In Proceedings of the SIGDIAL 2010 Conference, pp. 147-156, Tokyo, Japan. Association for Computational Linguistics. Mann, W. C. and Thompson, S. A. (1988). "Rhetorical Structure Theory: Toward a Functional Theory of Text Organization." Text, 8 (3), pp. 243-281. Marcu, D. (1998). "Improving Summarization Through Rhetorical Parsing Tuning." In Proceedings of the 6th Workshop on Very Large Corpora, pp. 206-215. McDonald, R. (2007). "A Study of Global Inference Algorithms in Multi-document Summarization." In Proceedings of the 29th European Conference on Information Retrieval (ECIR), pp. 557-564. Morita, H., Sasano, R., Takamura, H., and Okumura, M. (2013). "Subtree Extractive Summarization via Submodular Maximization." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1023-1032. Nishikawa, H., Hasegawa, T., Matsuo, Y., and Kikui, G. (2010). "Opinion Summarization with Integer Linear Programming Formulation for Sentence Extraction and Ordering." In Proceedings of the 23rd International Conference on Computational Linguistics (COLING), pp. 910-918. Qian, X. and Liu, Y. (2013). "Fast Joint Compression and Summarization via Graph Cuts." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1492-1502. Suzuki, J., Isozaki, H., Carreras, X., and Collins, M. (2009). "An Empirical Study of Semisupervised Structured Conditional Models for Dependency Parsing." In Proceedings of the 2009 Conference on Empirical Methods in Natural Language Processing, pp. 551-560, Singapore. Association for Computational Linguistics. Takamura, H. and Okumura, M. (2009). "Text Summarization Model based on the Budgeted Median Problem." In Proceedings of the 18th ACM Conference on Information and Knowledge Management (CIKM), pp. 1589-1592. Uzêda, V. R., Pardo, T. A. S., and Nunes, M. D. G. V. (2010). "A Comprehensive Comparative Evaluation of RST-based Summarization Methods." ACM Transactions of Speech and Language Processing, 6 (4), pp. 4:1-4:20. Wang, L., Raghavan, H., Castelli, V., Florian, R., and Cardie, C. (2013). "A Sentence Compression Based Framework to Query-Focused Multi-Document Summarization." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1384-1394. Association for Computational Linguistics. Yang, Y. and Nenkova, A. (2014). "Detecting Information-Dense Texts in Multiple News Domains." In Proceedings of the 28th AAAI Conference on Artificial Intelligence, July 27-31, 2014, Québec City, Québec, Canada, pp. 1650-1656. Yoshida, Y., Suzuki, J., Hirao, T., and Nagata, M. (2014). "Dependency-based Discourse Parser for Single-Document Summarization." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1834-1839, Doha, Qatar. Association for Computational Linguistics. ## 略歴 菊池悠太:2011 年木更津工業高等専門学校専攻科制御・情報システム工学専攻修了. 2013 年東京工業大学総合理工学研究科博士前期課程修了. 同年, 同大学博士後期課程に進学. 平尾努:1995 年関西大学工学部電気工学科卒業. 1997 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 同年株式会社 NTT データ入社. 2000 年より NTT コミュニケーション科学基礎研究所に所属. 博士(工学). 自然言語処理の研究に従事. 言語処理学会, 情報処理学会, ACL 各会員. 高村大也:1997 年東京大学工学部計数工学科卒業. 2000 年同大大学院工学系研究科計数工学専攻修了 (1999 年はオーストリアウイーン工科大学にて研究). 2003 年奈良先端科学技術大学院大学情報科学研究科博士課程修了. 博士 (工学)。2003 年から 2010 年まで東京工業大学精密工学研究所助教. 2006 年にはイリノイ大学にて客員研究員. 2010 年より同准教授. 計算言語学, 自然言語処理を専門とし, 特に機械学習の応用に興味を持つ. 奥村学:1962 年生. 1984 年東京工業大学工学部情報工学科卒業. 1989 年同大学院博士課程修了. 同年, 東京工業大学工学部情報工学科助手. 1992 年北陸先端科学技術大学院大学情報科学研究科助教授, 2000 年東京工業大学精密工学研究所助教授, 2009 年同教授, 現在に至る. 工学博士. 自然言語処理,知的情報提示技術, 語学学習支援, テキスト評価分析,テキストマイニングに関する研究に従事. 情報処理学会, 電子情報通信学会, 人工知能学会, AAAI, ACL, 認知科学会, 計量国語学会各会員. 永田昌明:1987 年京都大学大学院工学研究科修士課程修了. 同年, 日本電信電話株式会社入社. 現在, コミュニケーション科学研究所主幹研究員 (上席特別研究員). 工学博士. 統計的自然言語処理の研究に従事. 電子情報通信学会, 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 対をなす二文書間における文対応関係の推定 角田 孝昭 ${ }^{\dagger}$ 乾 孝司 ${ }^{\dagger} \cdot$ 山本 幹雄 $\dagger$ } 本論文では,手紙文書とそれに対する応答文書など対となる二つの文書間における 文レベルでの対応関係を推定する課題を提案し, 解決手法を検討する。これまで, 単一の文書内における文同士の関係や対話における発話同士の関係を対象とした研究 は盛んに行われて来たのに対し,二文書間における文書を跨いた文対応関係にはあ まり注目されて来なかった。このような関係の例として, 質問と応答, 依頼と回答 などが挙げられる。文対応関係を用いることで文書によるコミュニケーションをよ り細かい単位で説明できることから, 本関係の推定が実現すれば様々な応用が期待 できる。一例として, 文書対の群から対応を持つ文を抽出すれば,各文書対でどの ようなコミュニケーションが行われているかを提示することが可能となる. 我々は 文対応関係の自動推定を実現するため, 本課題を文対応の有無を判定する分類問題 とみなして条件付確率場を用いる手法を提案する。具体的には, 推定した文の種類 を文対応推定に活用する対話文書を対象とした従来手法を, 本論文の課題に適用す る手法を示す. 加えて, 文種類の推定と文対応の推定を同時に行う拡張モデルによ る手法を提案する,実際の宿泊予約ウェブサイトにおけるレビュー・返答対を対象 とした評価実験の結果, 拡張モデルは拡張前のモデルよりも高い性能である適合率 $46.6 \%$, 再現率 $61.0 \%$ の推定性能を得た。 キーワード:二文書,文間関係,談話分析,条件付確率場 ## Identification of Cross-Document Sentence Relations from Document Pairs \author{ TakaAki Tsunoda $^{\dagger}$, Takashi Inui $^{\dagger}$ and Mikio Yamamoto ${ }^{\dagger}$ } We propose a novel task that identifies cross-document sentence relations from document pairs. Although there are numerous studies that focus on finding sentence relations from just one document or conversation, only few studies are proposed for cross-documents. Examples of cross-document sentence relations are question-answer relations, request-response relations, and so on. Finding such relations will lead to many applications since the cross-document sentence relations are useful to explain document-based conversations on a more fine-grained level. For instance, we can extract communications from cross-documents by accumulating sentences having relations. To detect such relations, we regard this task as the classification problem and employ the conditional random fields. In particular, we modify a previous method that focuses on finding relations from conversations using sentence types to our task. Furthermore, we propose a combined model that simultaneously estimates sentence †筑波大学システム情報工学研究科コンピュータサイエンス専攻, Department of Computer Science, Graduate school of SIE, University of Tsukuba types and relations. The experiments are performed on review and reply on an internet service for hotel reservation, and the results show that our proposed model achieves $46.6 \%$ precision and $61.0 \%$ recall, which outperforms previous models. Key Words: cross-document, sentence dependency, discourse analysis, conditional random fields ## 1 はじめに 今日までに,人間による言語使用の仕組みを解明する試みが単語・文・発話・文書など様々な単位に注目して行われて来た。特に,これらの種類や相互関係(例えば単語であれば品詞や係り受け関係,文であれば文役割や修辞構造など)にどのようなものがあるか,どのように利用されているかを明らかにする研究が精力的になされて来た. 計算機が普及した現代では, これらを数理モデル化して考えることで自動推定を実現する研究も広く行われており,言語学的な有用性にとどまらず様々な工学的応用を可能にしている. 例えば, ある一文書内に登場する節という単位に注目すると, 主な研究として Mann \& Thompson による修辞構造理論 (Rhetorical Structure Theory; RST) がある (Mann and Thompson 1987; Mann, Matthiessen, and Thompson 1992). 修辞構造理論では文書中の各節が核 (nucleus) と衛星 (satelite)の 2 種類に分類できるとし, さらに核と衛星の間にみられる関係を 21 種類に, 核と核の間にみられる関係(多核関係)を 3 種類に分類している。このような分類を用いて,節同士の関係を自動推定する研究も古くから行われている (Marcu 1997; 田村, 和田 1998). さらに,推定した関係を別タスクに利用する研究も盛んに行われている (Marcu 1999; 比留間, 山下,奈良,田村 1999; Marcu,Carlson,and Watanabe 2000; 平尾,西野,安田,永田 2013; Tu, Zhou, and Zong 2013). 例えば, Marcu (1999)・比留間ら (1999) ・平尾ら (2013) は, 節の種類や節同士の関係を手がかりに重要と考えられる文のみを選択することで自動要約への応用を示している。また,Marcu ら (2000)・Tuら (2013) は,機械翻訳においてこれらの情報を考慮することで性能向上を実現している. 一方, 我々は従来研究の主な対象であった一文書や対話ではなく, ある文書(往信文書)とそれに呼応して書かれた文書(返信文書)の対を対象とし,往信文書中のある文と返信文書中のある文との間における文レベルでの呼応関係(以下,文対応と呼ぶ)に注目する。このような文書対の例として「電子メールと返信」,「電子掲示板の投稿と返信」,「ブログコメントの投稿と返信」,「質問応答ウェブサイトの質問投稿と応答投稿」,「サービスや商品に対するレビュー投稿とサービス提供者の返答投稿」などがあり,様々な文書対が存在する(なお,本論文において文書対は異なる書き手によって書かれたものとする)。具体的に文書対として最も典型的な例であるメール文書と返信文書における実際の文対応の例を図 1 に示す. 図中の文同士を結ぶ直 図 1 メール文書における文対応の例. 文同士を結ぶ直線が文対応を示している. 線が文対応を示しており,例えば返信文「講義を楽しんで頂けて何よりです。」は往信文「本日の講義も楽しく拝聴させて頂きました。」を受けて書かれた文である。同様に,返信文「まず、課題提出日ですが…と「失礼しました。」はいずれも往信文「また、課題提出日が…を受けて書かれた文である. 本論文では, 文書レベルで往信・返信の対応が予め分かっている文書対を入力とし, 以上に述べたような文対応を自動で推定する課題を新たに提案し, 解決方法について検討する. これら文書対における文対応の自動推定が実現すれば,様々な応用が期待できる点で有用である.応用例について,本研究の実験では「サービスに対するレビュー投稿とサービス提供者の返答投稿」を文書対として用いているため, レビュー文書・返答文書対における文対応推定の応用例を中心に説明する。 (1)文書対群の情報整理:複数の文書対から, 文対応が存在する文対のみを抽出することでこれら文書対の情報整理が可能になる。例えば,「このサービス提供者は(または要望,苦情など)に対してこのように対応しています」といった一覧を提示できる.これを更に応用すれば, 将来的には FAQの(半)自動生成や, 要望$\cdot$苦情への対応率・対応傾向の提示などへ繋げられると考えている。 (2)未対応文の検出による返信文書作成の支援:往信文書と返信文書を入力して自動で文対応を特定できるということは,逆に考えると往信文書の中で対応が存在しない文が発見できることでもある。この推定結果を利用し,ユーザが返信文書を作成している際に「往 信文書中の対応がない文」を提示することで,返信すべき事項に漏れがないかを確認できる文書作成支援システムが実現できる。このシステムは,レビュー文書・返答文書対に適用した場合は顧客への質問・クレームへの対応支援に活用できる他, 例えば質問応答サイトのデータに適用した場合は応答作成支援などにも利用できる。 (3)定型的返信文の自動生成:(2) の考えを更に推し進めると,文対応を大量に収集したデー 夕を用いることで,将来的には定型的な返信文の自動生成が可能になると期待できる.大規模な文対応デー夕を利用した自動生成手法は, 例えば Ritter ら・長谷川らが提案している (Ritter, Cherry, and Dolan 2011; 長谷川, 鍜治, 吉永, 豊田 2013) が,いずれも文対応が既知のデータ(これらの研究の場合はマイクロブログの投稿と返信)の存在が前提である。しかし,実際には文対応が既知のデータは限られており,未知のデー夕に対して自動生成が可能となるだけ分量を人手でタグ付けするのは非常に高いコストを要する。これに対し, 本研究が完成すればレビュー文書・返答文書対をはじめとした文対応が未知のデータに対しても自動で文対応を付与できるため, 先に挙げた様々な文書において往信文からの定型的な返信文の自動生成システムが実現できる。定型的な返信文には,挨拶などに加え,同一の書き手が過去に類似した質問や要望に対して繰り返し同様の返信をしている場合などが含まれる。 (4)非定形的返信文の返答例提示:(3) の手法の場合, 自動生成できるのは定型的な文に限られる。一方, 例えば要望や苦情などの個別案件に対する返答文作成の支援は, 完全な自動生成の代わりに複数の返答例を提示することで実現できると考えている. これを実現する方法として, 現在返答しようとしている往信文に類似した往信文を文書対のデータベースから検索し,類似往信文と対応している返信文を複数提示する手法がある。返信文の書き手は,返答文例の中から書き手の方針と合致したものを利用ないし参考にすることで返信文作成の労力を削減できる. 一方で,文書対における文対応の自動推定課題は以下のような特徴を持つ. (1)対応する文同士は必ずしも類似しない:例えば図 1 の例で,往信文「本日の講義も楽しく拝聴させて頂きました。」と返信文「講義を楽しんで頂けて何よりです。」は「講義」という単語を共有しているが,往信文「また、課題提出日が…と返信文「失礼しました。」 は共有する単語を一つも持たないにも関わらず文対応が存在する。このように, 文対応がある文同士は必ずしも類似の表現を用いているとは限らない。そのため, 単純な文の類似度によらない推定手法が必要となる。 (2)文の出現順序と文対応の出現位置は必ずしも一致しない:例えば図 1 の例で対応が逆転している(文対応を示す直線が交差している)ように,返信文書の書き手は往信文書の並びと対応させて返信文書を書くとは限らない. そのため, 文書中の出現位置に依存しない推定手法が必要となる。 我々は,以上の特徵を踏まえて文対応の自動推定を実現するために,本課題を文対応の有無を判定する二值分類問題と考える。すなわち,存在しうる全ての文対応(例えば図 1 であれば $6 \times 6=36$ 通り)のそれぞれについて文対応が存在するかを判定する分類器を作成する. 本論文では,最初に Qu \& Liu の対話における発話の対応関係を推定する手法 (Qu and Liu 2012)を本課題に適用する。彼らは文種類(対象が質問応答なので「挨拶」「質問」「回答」など)を推定した後に,この文種類推定結果を発話文対応推定の素性として用いることで高い性能で文対応推定が実現したことを報告している。本論文ではこれに倣って文種類の推定結果を利用した文対応の推定を行うが,我々の対象とする文書対とは次のような点で異なっているため文種類・文対応の推定手法に多少の変更を加える。すなわち,彼らが対象とする対話では対応関係が有向性を持つが,我々が対象とする文書対では返信文から往信文へ向かう一方向のみである.また,対話は発話の連鎖で構成されているが,文書対は一組の往信文書・返信文書の対で構成されている点でも異なる. 更に,我々は文対応の推定性能をより向上させるために,彼らの手法を発展させた新たな推定モデルを提案する,彼らの手法では,文対応の素性に推定された文種類を利用しているが,文種類推定に誤りが含まれていた場合に文対応推定結果がその誤りに影響されてしまう問題がある。そこで,我々は文種類と文対応を同時に推定するモデルを提案し,より高い性能で文対応の推定が実現できることを示す. 本論文の構成は次の通りである。まず, 2 章で関連研究について概観する。次に, 3 章で文対応の自動推定を行う提案手法について述べる. 4 章では評価実験について述べる. 5 章で本論文のまとめを行う. ## 2 関連研究 二文書以上の文書間において,文書を跨いだ文同士の関係に踏み込んだ研究は新聞記事を対象としたものが多い (Radev 2000; 宮部, 高村, 奥村 2005, 2006; 難波, 国政, 福島, 相沢, 奥村 2005). Radev は新聞記事間に観察できる文間関係を「同等 (Equivalence)」「反対 (Contradiction)」など 24 種類に分類する Cross-Document Structure Theory を提案した (Radev 2000)。これら文間関係のうち,宮部らは「同等」「推移」関係の特定に (宮部他 2005,2006$)$, 難波らは「推移」「更新」関係の特定に特化した自動推定手法を提案している (難波他 2005). これらの各研究では「同等」「推移」「更新」関係を特定するために文同士が類似しているなどの特徴を利用している.これらの研究と我々の研究を比較すると, まず, これらの研究が扱う新聞記事間における文対応と我々が扱う往信-返信文書間における文対応は異なった傾向を持っている。すなわち,新聞記事では同じ事象に対して複数の書き手が記事を作成したり,事象の経過により状況が異なったりすることで文書間や文書を跨いだ文間に対応が発生するのに対し,往信-返信文書では コミュニケーションという目的を達成するために文対応が発生するという違いがある。また,我々が対象としている往信-返信文書対における文対応では,先に見た通り類似しない文同士にも文対応が存在することもあり,対応する文同士が類似していることを前提にせずに推定を行う必要がある。 新聞記事以外では, 地方自治体間の条例を対象とした研究 (竹中, 若尾 2012), 料理レシピと対応するレビュー文書を対象とした研究 (Druck and Pang 2012) がある. 竹中・若尾は地方自治体間で異なる条例を条文単位で比較する条文対応表を作成するために,条文間の対応を自動で推定する手法を提案している (竹中, 若尾 2012). また Druck \& Pang は, レシピに対応するレビュー文書に含まれる作り方や材料に対する改善提案文の抽出を目的とし,その最終過程で提案文をレシピの手順と対応付ける手法を提案している (Druck and Pang 2012). ただし,推定するべき対応が類似していることを前提としている(すなわち,竹中・若尾の場合は同一の事柄に関する条例を対応付ける手法であり,Druck \& Pang の場合はレシピ手順とレビュー文を対応付ける手法である)ため, これらの手法も対応する文の間に同じ単語や表現が出現していることを前提としている。 対話を対象とした研究には,Boyer らによる対話における発話対応関係の分析がある (Boyer, Phillips, Ha, Wallis, Vouk, and Lester 2009). 彼女らは,対話における隣接対 (adjacency pair)構造を隠れマルコフモデル (Hidden Markov Model; HMM) を用いてモデル化している。たたし, 彼女らの分析では, 隣接対の場合は多くが位置的に隣接している可能性が高いことを前提としている ${ }^{1}$.これに対し, 我々の研究の対象である文書対における文対応ではこういった傾向を利用できないという違いがあるため, 単純に彼女らの分析手法を我々が対象としている文対応に適用することはできない. 我々の研究と最も近い研究として, Qu \& Liu の質問応答ウェブサイトにおける文依存関係 (sentence dependency; 質問に対する回答, 回答に対する解決報告など) を推定する研究がある $(\mathrm{Qu}$ and Liu 2012). 彼らは条件付確率場 (Conditional Random Fields; CRF) (Lafferty, McCallum, and Pereira 2001) による分類器を利用することで, 隠れマルコフモデルよりも高い性能で文依存関係を特定できたとしている。ただし, 彼らの対象としているウェブサイトは図 2 に示すように対話に近い形で問題解決を図るという特徴を持っているため, 我々の対象とする文書対とは若干の違いがある。そこで,本論文では最初に彼らの手法に変形を加えることで,我々の対象である往信-返信文書間の文対応推定が実現できることを示す. 次に, 彼らの手法の中心である文種類推定モデルと文対応推定モデルを発展させた文種類・文対応を同時に推定する統合モデルを提案し,文対応推定が更に高い性能で実現できることを示す.  図 $2 \mathrm{Qu} \& \mathrm{Liu}$ が扱う文依存関係の例 ## 3 提案手法 ## 3.1 文対応 文対応推定のための提案手法を説明する前に,本論文で扱う文対応について改めて定義する.本研究では,「文書(往信文書)とそれに対する返信文書が与えられた時,ある返信文がある往信文を原因として生起している関係」を文対応と定義し, この関係の有無を推定することを目的とする。なお,文対応は返信文書中の 1 文から,往信文書中の複数の文へ対応することを許す。また,返信文書中の異なる文から,往信文書中の同一の文への対応も許す. 例えば図 1 の「講義を楽しんでいただけて何よりです。」という返信文は,「本日の講義も楽しく拝聴させて頂きました。」という往信文を原因として書かれた文であるため,文対応を持つ.同様に,返信文「まず、課題提出日ですが...」「失礼しました。」はいずれも往信文「また、課題提出日が…を原因として書かれた文であるため,両方の対とも文対応を持つ. なお,我々が扱う文対応関係と Qu \& Liu (2012)が扱う文依存関係 (sentence dependency) とは次の点で異なる。すなわち,我々の扱う文対応は返信文から往信文へ向かう一方向のみであるが,彼らの扱う文依存関係は任意の対話文から対話文への関係を持ちうる².以降,本論文では Qu \& Liu が扱う対応関係を文依存関係と呼び, 我々が扱う文対応関係と区別する.  ## 3.2 文種類 次に,文対応推定に用いる素性の一つである文種類についても説明する。本研究では,「ある文がどのような目的で書かれているかによる分類」を文種類と定義する. どのような文種類の集合を用いるかは対象とする文書によって異なるが,例えば図 1 のようなメール文書対を対象とする場合は「挨拶」「質問」「謝罪」「回答」などが文種類として考えられる。一方,質問応答ウェブサイトを対象とした Qu \& Liu は,「質問」「回答」「挨拶」など, 13 種類の文種類を定義している (Qu and Liu 2012). 本研究の実験では, 対象をレビュー文書とその応答文書としているため, これらの文書における文種類の分類を行っている大沢らの先行研究 (大沢, 郷亜, 安田 2010) を元にして文種類を定義した. 具体的な変更点と文種類については評価実験の章(4 章)で議論する. ## 3.3 因子グラフと $\mathrm{CRF$} 以降の節では,各 CRF モデルの説明に Kschischang らが提案した因子グラフ (factor graph) を用いる (Kschischang, Frey, and Loeliger 2001). そのため, ここで因子グラフについて Sutton \& McCallum (2012) の解説を参考にして簡単に説明する. 因子グラフは, ある複数の変数に依存する関数を一部の変数のみに依存する複数の関数(因子)の積に分解した際に,どのような分解が行われているかを表現する二部グラフである。因子グラフでは, 因子が依存する変数を正方形の因子ノードロからのリンクによって表す.また,変数のうち観測変数と隠れ変数を区別する必要がある場合は,観測変数を灰色(色付き)ノー ド,隠れ変数を白色(無色)ノードで表す. 実際の因子グラフの例を図 3 に示す. 図 3 は,観測変数 $\boldsymbol{x}$, 隠れ変数 $\boldsymbol{y}$ を数に持つようなある関数 $F(\boldsymbol{x}, \boldsymbol{y})$ を次のように因数分解することを示している. $ F(\boldsymbol{x}, \boldsymbol{y})=\prod_{i=1}^{|\boldsymbol{y}|} f_{i}\left(\boldsymbol{x}, y_{i}\right) \cdot \prod_{j=1}^{|\boldsymbol{y}|-1} g_{i}\left(\boldsymbol{x}, y_{j}, y_{j+1}\right) $ 図 3 因子グラフの例. 対数線形モデルにより $P(\boldsymbol{y} \mid \boldsymbol{x})$ をモデル化した場合の Linear-chain CRF に相当する。 ドの集合 $\mathcal{F}$ ・エッジの集合 $\mathcal{E}$ の 3 つを用いて $\mathcal{G}=(\mathcal{V}, \mathcal{F}, \mathcal{E})$ のように表現する.なお,集合の表記を簡便にするため次のような記法を導入する。例えば, $\left.\{y_{i}\right.\}_{i=1}^{5}$ のように書いた場合,これは $\left.\{y_{i} \mid 1 \leq i \leq 5 \wedge i \in \mathbb{N}\right.\}=\left.\{y_{1}, \ldots, y_{5}\right.\}$ を意味する.この記法を用いれば,図 3 の因子グラフを $\mathcal{G}=(\mathcal{V}, \mathcal{F}, \mathcal{E})$ とすると $\mathcal{V}, \mathcal{F}, \mathcal{E}$ は次のように表現できる. $ \begin{aligned} \mathcal{V} & =\{\boldsymbol{x}\} \cup\left.\{y_{i}\right.\}_{i=1}^{5} \\ \mathcal{F} & =\left.\{f_{i}\right.\}_{i=1}^{5} \cup\left.\{g_{j}\right.\}_{j=1}^{4} \\ \mathcal{E} & =\left.\{\left(f_{i}, \boldsymbol{x}\right)\right.\}_{i=1}^{5} \cup\left.\{\left(f_{i}, y_{i}\right)\right.\}_{i=1}^{5} \cup\left.\{\left(g_{j}, \boldsymbol{x}\right)\right.\}_{j=1}^{4} \cup\left.\{\left(g_{j}, y_{j}\right)\right.\}_{j=1}^{4} \cup\left.\{\left(g_{j}, y_{j+1}\right)\right.\}_{j=1}^{4} \end{aligned} $ 次に,因子グラフに基づいた CRF モデルを構築する方法について説明する.因子グラフ自体は因子が具体的にどのような関数であるかを規定しないが,関数 $F$ を対数線形モデルによりモデル化した $P(\boldsymbol{y} \mid \boldsymbol{x})$ とすると,因子グラフに基づいた CRF モデルが構築できる。具体的に,因子を $\Psi_{a}$, 因子 $\Psi_{a}$ が依存する変数を $\boldsymbol{x}_{a}, \boldsymbol{y}_{a}$ と置くと $P(\boldsymbol{y} \mid \boldsymbol{x})$ は次のようにモデル化される. $ \begin{aligned} P(\boldsymbol{y} \mid \boldsymbol{x} ; \boldsymbol{\theta}) & =\frac{1}{Z} \prod_{a} \Psi_{a}\left(\boldsymbol{x}_{a}, \boldsymbol{y}_{a} ; \boldsymbol{\theta}_{a}\right) \\ & =\frac{1}{Z} \prod_{a} \exp \left.\{\sum_{k} \theta_{a k} f_{a k}\left(\boldsymbol{x}_{a}, \boldsymbol{y}_{a}\right)\right.\} \end{aligned} $ ここで $Z$ は正規化項, $\theta_{a k}$ は素性関数 $f_{a k}$ に対応した重みとなる. なお, 同様のモデル化を図 3 に行った場合が Linear-chain CRF に相当する. 本論文では, 各モデルは CRF によってモデル化されることとする. 各モデルの因子と変数間の依存関係については,それぞれ元となる因子グラフによって示す. ## 3.4 文対応推定手法の概要 本論文で提案する文対応推定手法は,Qu \& Liu が提案した文依存関係推定手法 (Qu and Liu 2012) を我々の課題に併せて変形を加えた手法と, 彼らの推定モデルを発展させた新たな推定モデルによる手法の二種類である。ここで最初に, 彼らの手法の概要と我々が提案する手法との相違点について説明する。 Qu \& Liu の手法では, 文依存関係を推定する問題を系列ラベリング問題と考え, Linear-chain $\mathrm{CRF}$ 又は $2 \mathrm{D} \mathrm{CRF}$ を用いて推定を行う。これは,ある返信文から往信文への依存関係が存在している時, 同じ返信文から隣接する往信文へも依存する可能性が高いという傾向,または逆にある往信文へ依存している返信文がある時, 隣接する返信文から同じ往信文へも依存する可能性が高いという傾向を活用するためである。また, 彼らは特に文依存関係分類器の素性に注目し,文の種類を素性として利用することを提案している。これは,例えば「質問」や「要求」 を述べている文は通常「回答」と対応するが「挨拶」とは対応しないなど,文種類が特定でき れば文依存関係の推定に有用であるという観察に基づく。ただし,このような文種類が予め分かっている状況は稀であるため, 各発話の種類を推定するための分類器を別途作成する。この文種類分類器を利用する手法では,与えられた対話文書に対して事前に文種類分類器を適用して文種類を推定しておき,対話文書と文種類推定結果を文依存関係分類器に入力することで最終的に文依存関係を得る。 我々の課題に合わせて彼らの手法を変形する手法では, 文対応推定問題を系列ラベリング問題と考える点や文種類を利用する点で同一である,異なるのは,彼らが文種類推定器を一つしか用意せずにどの発話者による発話文に対しても同じ文種類推定器を用いていたのに対し, 我々は往信文書・返信文書のそれぞれに対して別の文種類推定器を用意する点である。これは,往信文書・返信文書ではそれぞれに特有な文種類が存在するなどの異なった傾向が存在するという仮定に基づく.また,彼らが提案する文対応推定モデルは,「返信文が同じで往信文が隣接する対応」の連接性を考慮したモデルと「返信文が同じで往信文が隣接する対応」「往信文が同じで返信文が隣接する対応」双方の連接性を考慮したモデルの二種類であったが,我々は「往信文が同じで返信文が隣接する対応」のみの連接性を考慮したモデルについても検討を加える点でも異なる. また,彼らの手法と我々が新たに提案する推定モデルによる手法の違いは,彼らが文種類・文依存関係推定モデルを別々に用意して文種類推定・文依存関係推定の二段階の手順を踏むのに対し, 我々は文種類・文対応推定モデルを統合した一つのモデルで一度に推定する点である。 以降, 3.5 節で $\mathrm{Qu} \& \mathrm{Liu}$ の推定モデルについて説明し, 3.6 節以降で提案手法について順次説明する。 ## $3.5 \mathrm{Qu \& \mathrm{Liu}$ による文依存関係推定手法の概要} Qu \& Liu が提案した対話文書における文依存関係を推定する手法 (Qu and Liu 2012)では,文種類推定器と文依存関係分類器の二種類を用意する。そこで, 最初に文種類推定器について説明し, 次に文依存関係分類器について説明する。ここで,説明のために以下の記号を導入する。 $N$ 対話文の文数 $\boldsymbol{x}$ 対話文の列 $x_{1}, x_{2}, \ldots x_{N}$ $\boldsymbol{t}$ 対話文の種類の列 $t_{1}, t_{2}, \ldots t_{N}$ $y_{i, j}$ 対話文 $x_{i}$ から $x_{j}$ への文依存関係の存在有無(二値) $\boldsymbol{y}$ 全ての文依存関係 $y_{i, j}$ からなる集合 $\left.\{y_{i, j} \mid 1 \leq i \leq N, 1 \leq j \leq N\right.\}$ ここで, $y_{i, j}$ は対話文 $x_{i}$ から $x_{j}$ の間に文依存関係が存在すれば 1 ,しなければ 0 の二値を取る変数である ${ }^{3}$.  各文の種類を推定する問題は, 文 $x$ を観測変数, 文種類 $\boldsymbol{t}$ を隠れ変数と考えると, 系列ラべリング問題とみなすことができる。そこで,彼らは Linear-chain CRF (Lafferty et al. 2001)を利用することで文種類推定器を実現する. 各文間の文対応を推定する問題も,文 $\boldsymbol{x}$ を観測変数,文依存関係 $\boldsymbol{y}$ を隠れ変数としたラべリング問題と考えることができる。ここで,予め文種類推定器により推定した文種類 $\hat{t}$ を素性の一つに投入することで,文種類を考慮した文依存関係の推定を実現する.ただし,文依存関係 $\boldsymbol{y}$ は文種類系列とは異なり二次元の構造を持つため, このままでは一次元の系列を対象とする Linear-chain CRF を用いることはできない。そこで,彼らは二次元構造の行ごとに順次推定を行うことで Linear-chain CRF を適用する手法と, 二次元構造を一度に推定できる 2D CRF (Zhu, Nie, Wen, Zhang, and Ma 2005) を適用する手法を提案している. Linear-chain CRF を繰り返し適用して文依存関係を推定する過程を図 4 に示す.まず最初に注目する文 $x_{k}(1 \leq k \leq N)$ を固定し, $x_{k}$ から全ての $x_{1}, x_{2}, \ldots x_{N}$ への文依存関係 $y_{k}, \bullet(1 \leq \bullet \leq N)$ について考える。これにより, $y_{k}$ ・は一次元の系列となるため, Linear-chain CRF を適用可能になる。この処理を全ての $x_{k}$ に対して繰り返し適用することで, $\boldsymbol{y}$ 全体の推定が実現する。この Linear-chain CRF においては連接確率 $P\left(y_{i, j} \mid y_{i, j-1}, \boldsymbol{x}\right)$ が考慮されることになる。これにより,依存元が同じで依存先が隣接する $y_{i, j}, y_{i, j-1}$ の片方が依存関係にあればもう片方にも依存関係が存在することが多い傾向を活用できる 4. 図 4 Linear-chain CRF により文依存関係を推定する手順. $\mathrm{k}$ は注目している文の位置を示す. , y_{i-1, j}$ の連接性についても, Linear-chain CRF を $y_{\bullet}, j$ に順次適用することで考慮でき結果として全体の推定が実現するが,Qu \& Liu はこの場合については検討を行つていない (Qu and Liu 2012). 本論文が対象とする文対応推定の際には, この場合に相当する文対応推定器も作成して性能の比較検討を行う。 } 図 $52 \mathrm{D} \mathrm{CRF}$ の因子グラフ $(\boldsymbol{y}$ が $3 \times 3$ の場合の例. $\boldsymbol{x}$ からすべての各因子へはリンクが接続されるが,図が煩雑になるため描画を省略した),実線は隣接する $y_{i, j}$ 同士を結ぶ因子に関わる変数に,点線は一つの $y_{i, j}$ を直接結ぶ因子に関わる変数に接続している. これに対し,2D CRF を適用して推定する手法では $\boldsymbol{y}$ 全体を一度に推定できる。ここで $2 \mathrm{D}$ CRF について,2D CRF を因子グラフで表現した図 5 を用いて説明する. Linear-chain CRF を繰り返し適用する手法は, 図 5 の因子のうち各 $y$ を横方向 $y_{i, j}, y_{i, j-1}$ を結ぶ因子のみを残した場合に相当し, 各行 $y_{i}$ ・ごとに推定を行う。一方 $2 \mathrm{D}$ CRF では, 各 $y$ を縦方向 $y_{i, j}, y_{i-1, j}$ に結ぶ因子が加わる。これにより,Linear-chain CRF では依存元が同じで依存先が隣接する $y_{i, j}, y_{i, j-1}$ の連接性のみを考慮していたが,依存先が司じで依存元が隣接する $y_{i-1, j}, y_{i, j}$ についての連接性も同時に考慮されるようになる。 $\mathrm{Qu} \& \mathrm{Liu}$ によると,2D CRF による文依存推定モデルの方が Linear-chain CRF を繰り返し適用する推定モデルよりも性能が向上したことを報告している. ## 3.6 文種類・文依存関係推定モデルの本問題への適用 次に,以上に述べた Qu \& Liuによる文依存関係推定モデル $(\mathrm{Qu}$ and Liu 2012) を, 本論文の目的である二文書間の文対応推定へ適用する提案手法について説明する. 本提案手法も彼らと同じく文種類推定器・文対応推定器の二種類を用意して順次推定する手法であり, 以下でそれぞれについて順に説明する。ここで,説明のために以下の記号を改めて導入する。 $N$ 往信文の文数 $M$ 返信文の文数 $x^{\mathrm{org}}$ 往信文の列 $x^{\mathrm{O}}{ }_{1}, x^{\mathrm{O}}{ }_{2}, \ldots, x^{\mathrm{O}}{ }_{N}$ $\boldsymbol{x}^{\mathrm{rep}}$ 返信文の列 $x^{\mathrm{r}}{ }_{1}, x^{\mathrm{r}}{ }_{2}, \ldots, x^{\mathrm{r}}{ }_{M}$ $\boldsymbol{t}^{\mathrm{org}} \quad$ 各往信文の種類の列 $t^{\mathrm{o}}{ }_{1}, t^{\mathrm{o}}{ }_{2}, \ldots, t^{\mathrm{o}}{ }_{N}$ $\boldsymbol{t}^{\mathrm{rep}}$ 各返信文の種類の列 $t^{\mathrm{r}}{ }_{1}, t^{\mathrm{r}}{ }_{2}, \ldots, t^{\mathrm{r}}{ }_{M}$ $y_{i, j}$ 往信文 $x^{\mathrm{o}}{ }_{i}$ と返信文 $x^{\mathrm{r}}{ }_{j}$ の間における文対応存在の有無(二値) $\boldsymbol{y}$ 全ての文対応 $y_{i, j}$ からなる集合 $\left.\{y_{i, j} \mid 1 \leq i \leq N, 1 \leq j \leq M\right.\}$ ここで, $y_{i, j}$ は往信文 $x^{\mathrm{o}}{ }_{i}$ から返信文 $x^{\mathrm{r}}{ }_{j}$ の間に文対応関係が存在すれば 1 , しなければ 0 の二値を取る変数である. 各文の種類を推定する問題は,文 $\boldsymbol{x}^{\mathrm{org}}\left(\right.$ 又は $\boldsymbol{x}^{\mathrm{rep}}$ )を観測変数,文種類 $\boldsymbol{t}^{\mathrm{org}}$ (又は $\boldsymbol{t}^{\mathrm{rep}}$ )を隠れ変数とした系列ラベリング問題と考えることができる。ここで,我々は往信文書・返信文書ではそれぞれに特有な文種類が存在し,それぞれの文書で文種類の連接について異なった傾向があると予想した.例えば,一般に往信文書は人に向けて文書を新たに発信する動機である 「質問」や「要望」が含まれる可能性が高いのに対し,返信文書はそれに対する「回答」が含まれる可能性が高い。そこで, 我々は Qu \& Liu とは異なり, 文種類分類器を往信文書用・返信文書用に別々に用意することにした。なお,いずれの分類器についても Linear-chain CRF (Lafferty et al. 2001)を利用する.以降,これらのモデルをそれぞれ往信文種類モデル・返信文種類モデルと呼ぶ. 各文間の文対応を推定する問題は, 二文書 $\boldsymbol{x}^{\mathrm{org}}, \boldsymbol{x}^{\mathrm{rep}}$ を観測変数,文対応 $\boldsymbol{y}$ を隠れ変数と考えることができる ${ }^{5}$. 本提案手法でも文種類分類器により推定した $\hat{t}^{\mathrm{org}}, \hat{\boldsymbol{t}}^{\mathrm{rep}}$ を素性の一つに投入し,文種類を考慮した文対応の推定を実現する,以下,前節と同様に Linear-chain CRF を繰り返し適用する手法と,2D CRF を適用する手法について順次説明する。 文対応の推定では,注目する文を固定すれば Linear-chain CRF を繰り返し適用することで文対応 $\boldsymbol{y}$ 全体の推定が可能である。ここで, 往信文 $x^{\mathrm{o}}{ }_{i}$ と返信文 $x^{\mathrm{r}}{ }_{j}$ のどちらを固定し, どちらの文対応連接性に注目するかで異なった分類器を作成することができる。これに対し,往信文間における対応の連接性を考慮する(返信文を固定し, $y \bullet, j$ を順次推定する)手法を L- $\mathrm{CRF}_{\text {org }}$, 返信文間における対応の連接性を考慮する(往信文を固定し, $y_{i}$ ・を順次推定する)手法を L- $\mathrm{CRF}_{\mathrm{rep}}$ とする。それぞれの手法の推定過程を図 6,7 に示す. なお, Qu \& Liu が Linear-chain CRF を文依存関係推定に用いた場合が,本手法の L-CRF org と対応している. また,2D CRF を用いた文対応の推定も可能である。この場合,Qu \& Liu の場合とほぼ同様に推定が可能である。このモデルは,往信文間・返信文間それぞれにおける対応の連接性を同時に考慮できるという特徴を持っている. ## 3.7 文種類・文依存関係推定モデルの統合 以上までに説明した提案手法は Qu \& Liu の手法と同様, 最初に推定した文種類情報を文対応推定の素性として用いる。しかし,文種類を全て正しく推定することは困難であり,推定した文種類情報にはいくらかの誤りが含まれる可能性が高い。そのため, 文種類推定時の誤りはそのまま文対応推定に影響を与える。そこで,我々は文種類と文対応を推定するモデルを統合  し, 両者を同時に推定することで文対応推定誤りの影響の抑制を狙った統合モデルを提案する.本論文では統合の元となるモデルとして, 文種類推定に Linear-chain CRF を用いた往信文種類モデル・返信文種類モデル,文対応推定に $2 \mathrm{D} \mathrm{CRF}$ を用いた文対応モデルを考える。これらのモデルに対し,文種類変数と文対応変数に依存する因子関数を新たに加えることで,統合モ デルを実現する。以下,具体的な統合方法について因子グラフを用いながら説明する. まず最初に, 統合の元となる各モデルの因子グラフを図 8 に示す. ここで, 各モデルの因子グラフ構造を 3.3 節の記法を用いて記述すると,以下の通りである. ## 往信文種類モデル 往信文種類 $\boldsymbol{t}^{\mathrm{org}}$ である. 観測変数と隠れ変数を結ぶ因子を $f^{o}{ }_{i}$, 隠れ変数同士を結ぶ因子を $g^{o}{ }_{j}$ とする $(1 \leq i \leq N, 1 \leq j \leq N-1)$. モデルの因子グラフを $\mathcal{G}_{\text {otype }}=$ $\left.\{\mathcal{V}_{\text {otype }}, \mathcal{F}_{\text {otype }}, \mathcal{E}_{\text {otype }}\right.\}$ とすると, $\mathcal{V}_{\text {otype }}, \mathcal{F}_{\text {otype }}, \mathcal{E}_{\text {otype }}$ はそれぞれ以下の通りである. 因子グラフを図 8 (左) に示す. $ \begin{aligned} \mathcal{V}_{\text {otype }}= & \left.\{\boldsymbol{x}^{\text {org }}\right.\} \cup\left.\{t^{o}{ }_{i}\right.\}_{i=1}^{N} \\ \mathcal{F}_{\text {otype }}= & \left.\{f^{o}{ }_{i}\right.\}_{i=1}^{N} \cup\left.\{g^{o}{ }_{j}\right.\}_{j=1}^{N-1} \\ \mathcal{E}_{\text {otype }}= & \left.\{\left(f^{o}{ }_{i}, \boldsymbol{x}^{\text {org }}\right)\right.\}_{i=1}^{N} \cup\left.\{\left(f^{o}{ }_{i}, t^{o}{ }_{i}\right)\right.\}_{i=1}^{N} \\ & \cup\left.\{\left(g^{o}{ }_{j}, \boldsymbol{x}^{\text {org }}\right)\right.\}_{j=1}^{N-1} \cup\left.\{\left(g^{o}{ }_{j}, t^{o}{ }_{j}\right)\right.\}_{j=1}^{N-1} \cup\left.\{\left(g^{o}{ }_{j}, t^{o}{ }_{j+1}\right)\right.\}_{j=1}^{N-1} \end{aligned} $ ## 返信文種類モデル Linear-chain CRF により返信文種類を推定する.観測変数は往信文 $\boldsymbol{x}^{\mathrm{rep}}$ ,隠れ変数は往信文種類 $\boldsymbol{t}^{\mathrm{rep}}$ である. 観測変数と隠れ変数を結ぶ因子を $f^{r}{ }_{i}$, 隠れ変数同士を結ぶ因子を $g^{r}{ }_{j}$ とする $(1 \leq i \leq M, 1 \leq j \leq M-1)$. モデルの因子グラフを $\mathcal{G}_{\mathrm{rtype}}=$ $\left.\{\mathcal{V}_{\text {rtype }}, \mathcal{F}_{\text {rtype }}, \mathcal{E}_{\text {rtype }}\right.\}$ とすると, $\mathcal{V}_{\text {rtype }}, \mathcal{F}_{\text {rtype }}, \mathcal{E}_{\text {rtype }}$ はそれぞれ以下の通りである. 因子 図 8 統合前のモデル(往信文・返信文が共に 2 文の場合. $\boldsymbol{x}$ から各因子への接続は省略している).左から順に,往信文種類モデル,文対応モデル $(2 \mathrm{D} \mathrm{CRF})$, 返信文種類モデル. グラフを図 8(右)に示す. $ \begin{aligned} \mathcal{V}_{\text {rtype }}= & \left.\{\boldsymbol{x}^{\text {rep }}\right.\} \cup\left.\{t^{r}{ }_{i}\right.\}_{i=1}^{M} \\ \mathcal{F}_{\text {rtype }}= & \left.\{f^{r}{ }_{i}\right.\}_{i=1}^{M} \cup\left.\{g^{r}{ }_{j}\right.\}_{j=1}^{M-1} \\ \mathcal{E}_{\text {rtype }}= & \left.\{\left(f^{r}{ }_{i}, \boldsymbol{x}^{\text {rep }}\right)\right.\}_{i=1}^{M} \cup\left.\{\left(f^{r}{ }_{i}, t^{r}{ }_{i}\right)\right.\}_{i=1}^{M} \\ & \cup\left.\{\left(g^{r}{ }_{j}, \boldsymbol{x}^{\text {rep }}\right)\right.\}_{j=1}^{M-1} \cup\left.\{\left(g^{r}{ }_{j}, t^{r}{ }_{j}\right)\right.\}_{j=1}^{M-1} \cup\left.\{\left(g^{r}{ }_{j}, t^{r}{ }_{j+1}\right)\right.\}_{j=1}^{M-1} \end{aligned} $ ## 文対応モデル 2D CRF により文対応を推定する.観測変数は往信文 $\boldsymbol{x}^{\mathrm{org}}$ 及び返信文 $\boldsymbol{x}^{\mathrm{rep}}$ (これらをまとめて $\boldsymbol{x}$ とする),隠れ変数は文対応 $\boldsymbol{y}$ である.観測変数と隠れ変数を結ぶ因子を $f_{i, j}$, 隠れ変数同士を結ぶ因子のうち,往信文を固定して隣接する返信文への対応間を考慮する $\left(y_{i, j}\right.$ を横に結ぶ)因子を $g_{k, l}$, 返信文を固定して隣接する往信文からの対応間を考慮する $\left(y_{i, j}\right.$ を縦に結ぶ)因子を $h_{k, l}$ とする $(1 \leq i \leq N, 1 \leq j \leq M, 1 \leq k \leq N-1,1 \leq l \leq M-1)$.因子グラフを図 8 (中央) に示す. モデルの因子グラフを $\mathcal{G}_{\text {relation }}=\left.\{\mathcal{V}_{\text {relation }}, \mathcal{F}_{\text {relation }}, \mathcal{E}_{\text {relation }}\right.\}$ とすると, $\mathcal{V}_{\text {relation }}, \mathcal{F}_{\text {relation }}, \mathcal{E}_{\text {relation }}$ はそれぞれ以下の通りである. $ \begin{aligned} & \mathcal{V}_{\text {relation }}=\{\boldsymbol{x}\} \cup\left.\{y_{i, j}\right.\}_{i=1, j=1}^{i=N, j=M} \\ & \mathcal{F}_{\text {relation }}=\left.\{f_{i, j}\right.\}_{i=1, j=1}^{i=N, j=M} \cup\left.\{g_{k, l}\right.\}_{k=1, l=1}^{k=N-1, l=M-1} \cup\left.\{h_{k, l}\right.\}_{k=1, l=1}^{k=N-1, l=M-1} \\ & \mathcal{E}_{\text {relation }}=\left.\{\left(f_{i, j}, \boldsymbol{x}\right)\right.\}_{i=1, j=1}^{i=N, j=M} \cup\left.\{\left(f_{i, j}, y_{i, j}\right)\right.\}_{i=1, j=1}^{i=N, j=M} \\ & \cup\left.\{\left(g_{k, l}, \boldsymbol{x}\right)\right.\}_{k=1, l=1}^{k=N-1, l=M-1} \cup\left.\{\left(h_{k, l}, \boldsymbol{x}\right)\right.\}_{k=1, l=1}^{k=N-1, l=M-1} \\ & \cup\left.\{\left(g_{k, l}, y_{k, l}\right)\right.\}_{k=1, l=1}^{k=N-1, l=M-1} \cup\left.\{\left(g_{k, l}, y_{k, l+1}\right)\right.\}_{k=1, l=1}^{k=N-1, l=M-1} \\ & \cup\left.\{\left(h_{k, l}, y_{k, l}\right)\right.\}_{k=1, l=1}^{k=N-1, l=M-1} \cup\left.\{\left(h_{k, l}, y_{k+1, l}\right)\right.\}_{k=1, l=1}^{k=N-1, l=M-1} \end{aligned} $ 次に,以上の 3 モデルを統合した新たな提案モデルについて説明する。このモデルでは,文種類・文対応推定を同一のモデルで扱うために,新たに二文の文種類変数と,それと対応する文対応変数に依存する因子関数 $F_{i, j}(1 \leq i \leq N, 1 \leq j \leq M)$ を新たに加える。これにより,往信文 $x^{\mathrm{o}}{ }_{i}$ と返信文 $x^{\mathrm{r}}{ }_{j}$ に対応する往信文種類 $t^{\mathrm{o}}{ }_{i} \cdot$ 返信文種類 $t^{\mathrm{r}}{ }_{j} \cdot$ 文対応 $y_{i, j}$ が非独立的に扱われるようになり,文種類・文対応を同時に推定を行うことが可能になる. 提案手法全体のグラフ構造を図 9 に示す。因子グラフ構造を具体的な式で記述すると,以下の通りである。以下,必要に応じて統合したモデルを combine と呼ぶ. ## 統合モデル (combine) 観測変数は往信文 $\boldsymbol{x}^{\mathrm{org}}$ 及び返信文 $\boldsymbol{x}^{\mathrm{rep}}$ (これらをまとめて $\boldsymbol{x}$ とする),隠れ変数は往 図 9 統合後のモデル (combine; 往信文・返信文が共に 2 文の場合. $\boldsymbol{x}$ から各因子への接続は省略している).実線は新たに加えた因子を結ぶリンク。 $(1 \leq i \leq N, 1 \leq j \leq M)$. その他の因子は統合前の各モデルと同様である. モデルの因子グラフを $\mathcal{G}_{\text {combine }}=\left.\{\mathcal{V}_{\text {combine }}, \mathcal{F}_{\text {combine }}, \mathcal{E}_{\text {combine }}\right.\}$ とすると, $\mathcal{V}_{\text {combine }}, \mathcal{F}_{\text {combine }}, \mathcal{E}_{\text {combine }}$ はそれぞれ以下の通りである(新たに加わった因子に関わる部分を下線によって強調している),因子グラフを図 9 に示す. $ \begin{aligned} \mathcal{V}_{\text {combine }}= & \{\boldsymbol{x}\} \cup\left.\{t^{o}{ }_{i}\right.\}_{i=1}^{N} \cup\left.\{t^{r}{ }_{i}\right.\}_{j=1}^{M} \cup\left.\{y_{i, j}\right.\}_{i=1, j=1}^{i=N, j=M} \\ \mathcal{F}_{\text {combine }}= & \mathcal{F}_{\text {otype }} \cup \mathcal{F}_{\text {rtype }} \cup \mathcal{F}_{\text {relation }} \cup \underline{\left.\{F_{i, j}\right.\}_{i=1, j=1}^{i=N, j=M}} \\ \mathcal{E}_{\text {combine }}= & \mathcal{E}_{\text {otype }} \cup \mathcal{E}_{\text {rtype }} \cup \mathcal{E}_{\text {relation }} \\ & \cup\left.\{\left(F_{i, j}, \boldsymbol{x}\right)\right.\}_{i=1, j=1}^{i=N, j=M} \cup\left.\{\left(F_{i, j}, t^{\mathrm{o}}{ }_{i}\right)\right.\}_{i=1, j=1}^{i=N, j=M} \cup\left.\{\left(F_{i, j}, t^{\mathrm{o}}{ }_{j}\right)\right.\}_{i=1, j=1}^{i=N, j=M} \end{aligned} $ なお, Linear-chain CRF などでは各隠れ変数の周辺確率 $P(y \mid \mathbf{x})$ を Forward-Backward アルゴリズムにより効率的に求めることができるが,統合モデルのように閉路を含む因子グラフ上の CRF には適用することができない. そのため, Tree Based reParameterization (TRP) (Wainwright, Jaakkola, and Willsky 2001) などにより近似的に求める必要がある. ## 4 評価実験 ## 4.1 実験条件 実験には「楽天データ公開6」に収録されている楽天トラベル7 のレビューを用いた。楽天トラベルのレビューでは,宿泊施設に対するユーザのレビュー文書に対して宿泊施設提供者が返  答することによって文書対が構成されている。典型的な文書対と文対応を示した例を図 10 に示す. 実際には楽天トラベルのレビュー 348,564 件のうち,レビュー文書・応答文書の双方が存在する 276,562 件からランダムサンプリングした 1,000 文書対を用いた。この各文書を簡易的なヒューリスティックによって文単位に分割し,レビュー文 4,813 文・応答文 6,160 文を得た。この 1,000 文書対に対して 5 分割交差検定を適用して評価を行う. 宿泊予約サイトの文種類の定義は,レビュー文書・応答文書ごとに文種類の分類に詳しい大沢らの先行研究を参考にした (大沢他 2010),大沢らは本実験と同じウェブサイトである楽天トラベルの「クチコミ・お客さまの声」を分析し,レビュー文を 8 種類,応答文を 14 種類に分類している。本研究では文種類が特定できれば文対応の特定が容易になるよう,レビュー文を 12 種類,返答文を 20 種類に再分類した 8 . この分類を表 1 及び表 2 に示す.また,大沢らの分析からの主な変更点とその理由を以下に示す. (1)レビュー文種類一<ポジ/ネガ感想>の追加:一文にポジティブ・ネガティブな感想を双方含むレビュー文は,複数の応答文と対応することがあるため. (2) 応答文種類 $<$ \cjkstart対応明示><検討明示>の具体性による細分化:具体性のある対応・ 図 10 宿泊予約ウェブサイトのレビュー・応答文書における文対応の例  表 1 レビュー文書を構成する文の種類(大沢らによる分類を参考に再構成) & 4 月 2 日 (金)、3 日(土)の 1 泊 2 日で家族 5 人で宿泊しました。 \\ 検討明示文はそれぞれレビュー文で書かれた一つの事情と対応するが,抽象的なものはレビュー文で書かれた複数の事情と対応することがあるため. 以上の文種類の定義に基づき,人手で文種類及び文対応の有無をタグ付けした。その結果, 1,000 文書対全体では 4,492 通りの文対応が得られた。また, 文種類について, 各文種類の出現数と各文種類ごとに文対応がどの程度存在するかを調査したデータを表 3,4 に示す 9 . 表中の 「対応 (平均数)」は一文から見たときの平均対応文数を示しており,「対応(存在率)」は一つでも対応が存在する割合を示している.表 3,4 より,例えばレビュー文種類では<ネガティブ感想 $>$ や<要求・要望 $>$ が, 応答文種類では $<$ お詫び $>$ や $<$ 具体的対応明示 $>$ などの文種類で対応存在率が高いなど,文種類によって対応の平均数や対応存在率が大きく異なることが分かる。 次に,文対応が交差する割合を示す。交差割合の計算は,各文書対において「文書対内において交差を持つ文対応の数/文書対内における全ての文対応の数」により求めた.結果, 交差  表 2 応答文書を構成する文の種類(大沢らによる分類を参考に再構成) & この度は当施設をご利用いただきましてありがとうございます。 \\ 表 3 レビュー文の各文ごとの対応数・対応存在率 & \\ 感謝・応援 & 121 & 0.09 & $9.09 \%$ \\ プラン名 & 196 & 0.01 & $0.51 \%$ \\ 再泊・推薦意向 & 382 & 0.20 & $14.40 \%$ \\ 不再泊・不薦意向 & 16 & 0.13 & $12.50 \%$ \\ ポジティブ感想 & 2,263 & 0.88 & $62.48 \%$ \\ ポジ/ネガ感想 & 86 & 1.78 & $76.74 \%$ \\ ニュートラル感想 & 72 & 0.26 & $20.83 \%$ \\ ネガティブ感想 & 816 & 1.97 & $83.70 \%$ \\ 要求・要望 & 260 & 1.56 & $79.62 \%$ \\ 情報追加 & 71 & 0.34 & $22.54 \%$ \\ 個別事情の説明 & 129 & 0.57 & $37.21 \%$ \\ その他 & 15 & 0.07 & $6.67 \%$ \\ 表 4 応答文の各文ごとの対応数・対応存在率 & \\ 投稿御礼 & 324 & 0.04 & $1.54 \%$ \\ 結びでの感謝 & 88 & 0.00 & $0.00 \%$ \\ 心掛け・決意 & 407 & 0.30 & $17.69 \%$ \\ 再泊願い & 1,187 & 0.03 & $2.27 \%$ \\ 署名・フッター & 625 & 0.00 & $0.00 \%$ \\ 定型的挨拶 & 32 & 0.09 & $6.25 \%$ \\ ほめへ感謝 & 623 & 2.26 & $97.59 \%$ \\ お詫び & 365 & 2.27 & $96.99 \%$ \\ 恥じ入り & 10 & 2.00 & $100.00 \%$ \\ 提案・指摘感謝 & 80 & 1.70 & $90.00 \%$ \\ 事実述べ & 128 & 1.83 & $99.22 \%$ \\ 具体的対応明示 & 131 & 1.83 & $100.00 \%$ \\ 抽象的対応明示 & 86 & 2.86 & $98.84 \%$ \\ 具体的検討明示 & 26 & 1.65 & $100.00 \%$ \\ 抽象的検討明示 & 86 & 1.97 & $97.67 \%$ \\ 対処明示 & 102 & 1.47 & $99.02 \%$ \\ 了承願い & 20 & 1.55 & $100.00 \%$ \\ 対話 & 152 & 0.61 & $51.32 \%$ \\ 情報追加 & 613 & 0.99 & $80.10 \%$ \\ その他 & 25 & 0.60 & $36.00 \%$ \\ 割合の平均は 0.249 であることから, 本データにおいても文の出現順序と文対応の出現位置は必ずしも一致しないことが分かる. 最後に,文対応の有無別にコサイン類似度の分布を表したヒストグラムを図 11,12 に示す (なお,コサイン類似度が 0.3-1.0である文対応の割合は少なかったため省略している)。なお, コサイン類似度は,各文における stop-word を除く単語の出現頻度を値に持つべクトルを用いて計算した値である。文対応を持つ文間の方が比較的高いコサイン類似度が高い傾向がある一方,文対応が存在する文対のうち $53.56 \%$ はコサイン類似度が 0 であった。そのため,本デー 夕においても対応する文同士は必ずしも類似しないことが分かる. 実験で比較する手法は次の 5 つである。まず, 3.6 節で説明した $\mathrm{L}_{\text {- }} \mathrm{CRF}_{\text {org }}, \mathrm{L}_{\mathrm{C}} \mathrm{CRF}_{\mathrm{rep}}, 2 \mathrm{D} \mathrm{CRF}$ の 3 種類を用いる。また, 3.7 節で説明した統合モデル combine を用いる。加えて,系列ラべリング問題ではなく二値分類問題と考えるモデルとしてロジスティック回帰 (Logistic) でも性能を調査する.ロジスティック回帰は, L-CRF や 2 D CRF において隣接する出力変数間の依存関係を考慮しないモデルに相当する. 図 11 コサイン類似度の分布(文対応なし) 図 12 コサイン類似度の分布(文対応あり) CRF の各モデルのパラメータ学習・利用には MALLET 2.0.7 (McCallum 2002) 中の GRMM (Sutton 2006) を用いた. GRMM に用いたパラメータはデフォルト(TRP の最大 iteration 回数 1,000 回, TRP の収束判定用の値 0.01) とし, 周辺確率の計算には TRP (Wainwright et al. 2001)を利用した。なお, GRMM は CRF 学習パラメータの正則化に L2 正則化 (Chen and Rosenfeld 1999) を利用している。また,ロジスティック回帰のパラメータ学習・利用には scikitlearn 0.15.1 (Pedregosa, Varoquaux, Gramfort, Michel, Thirion, Grisel, Blondel, Prettenhofer, Weiss, Dubourg, Vanderplas, Passos, Cournapeau, Brucher, Perrot, and Duchesnay 2011) を用い,正則化には L2 正則化を利用した。 文種類の推定には, 文を構成する unigram(単語の表層形)を素性として用いる。また, 文対応の推定, 及び combine モデルにおいて新たに追加した因子には以下の素性を用いる。なお,単語分割には MeCab 0.994 (Kudo, Yamamoto, and Matsumoto 2004) を利用した. $\cdot$レビュー文を構成する unigram - 応答文を構成する unigram ・レビュー文・応答文のコサイン類似度(01の値) ・ 予め文種類モデルで推定したレビュー文・応答文の種類 (combine モデル以外10) また, unigram 素性及びコサイン類似度の計算に利用する単語からは予め stop-word を除去しており11, 1,000 文書対全体では 9,300 種類の単語が存在した。 文対応推定性能の評価は, 適合率 (Precision)・再現率 (Recall), 及びそれらの調和平均である F 値から行う。すなわち,考えうる全ての文対応の可能性から正しい文対応を探す課題とみなし, 次の式で計算する。  $ \begin{aligned} \text { Recall } & =\frac{\text { 正しく推定できた対応数 }}{\text { 評価データ中に存在する文対応数 }} \\ \text { Precision } & =\frac{\text { 正しく推定できた文対応数 }}{\text { システムが文対応有りと出力した文対応数 }} \end{aligned} $ 本実験では,以下に説明する手法により適合率・再現率を調整し,これらの性能がどのように変化するかを調査する。具体的には,文同士が対応する確率 $P\left(y_{i, j}=1\right)$ と対応しない確率 $P\left(y_{i, j}=0\right)$ の比率を取り, 閾値を与えて閾値以上か否かで文対応の有無の出力を変更する. すなわち, 文対応 $y_{i, j}$ の最終的な出力 $\hat{y}_{i, j}$ は閾值 $\alpha$ を用いて次の式 (9) のようにする. $ \hat{y_{i j}}= \begin{cases}1 & \text { if } \log \frac{\mathrm{P}\left(\mathrm{y}_{\mathrm{i}, \mathrm{j}}=1 \mid \mathbf{x}\right)}{\mathrm{P}\left(\mathrm{y}_{\mathrm{i}, \mathrm{j}}=0 \mid \mathbf{x}\right)}>\alpha \\ 0 & \text { otherwise }\end{cases} $ ## 4.2 実験結果と考察 実験結果を表 5 に示す。各数値は適合率・再現率を調整した際に学習データにおいて $\mathrm{F}$ 値が最大となる点を用い,5 分割交差検定でのマイクロ平均値を計算した数値である。なお,表 5 に示す結果の F 值に対してブートストラップ検定で得られた $\mathrm{p}$ 值を Holm 法 (Holm 1979) によって調整した有意水準と比較することで多重比較を行い, 統合モデル combine は他手法全てに対して統計的有意差があることを確認している(有意水準 5\%)1.併せて,間値を変化させた際の Precision-Recall 曲線を図 13 に示す. 表 5 から,統合モデル combine は文種類・文対応を別々に推定する各手法よりも高い性能となった. また, 図 13 より中程度の再現率 (Recall: $0.25 \sim 0.75$ ) でも combine は概ね他手法よりも高い適合率であり,多くの場合において高い性能であったといえる. 一方で, 低再現率 (Recall: 0.0~0.25) では, 中再現率で高い適合率であった combine よりもロジスティック回帰や $\mathrm{L}_{\text {- CRF }}^{\text {rep }}$ の方が高い性能であった.この原因を調べるため, 低再現率と中再現率においてどのような文対応が推定できているかをコサイン類似度の観点から調査した. ここで, 各 Recall 值の性能時において推定できた全ての文対応に対しコサイン類似度を計 表 5 実験結果(分割交差検定での $\mathrm{F}$ 值最大点におけるマイクロ平均値) 算し,平均を取った値の変化をグラフにした図を図 14 に示す。図 14 より,いずれの手法においても低い再現率値においてはコサイン類似度の平均が高く, 徐々にコサイン類似度の平均は下がって行くことが分かる。中でも combine は低再現率においてコサイン類似度の平均が他手法に比較すると特に低いことから,コサイン類似度の重要性を低く見ているために高類似度の文間に見られる文対応を見落としていると考えている ${ }^{13}$.これに対しては, combine では他の ## Method - - Logistic -- - L-CRF (org) ..... L-CRF (rep) - 2D-CRF — combine 図 13 実験結果の Precision-Recall 曲線 ## Method - - Logistic --$\cdot$ L-CRF (org) ..... L-CRF (rep) - $2 \mathrm{D}-\mathrm{CRF}$ - combine 図 14 平均コサイン類似度値-Recall 曲線. 各 Recall 値において推定された全ての文対応に対しコサイン類似度を計算し,平均を取った値の変化を示す.  手法よりも単純な単語マッチなどでは推定が困難な文対応もある程度発見できるという特徴を持つことでもあるため,コサイン類似度の値によって推定手法を切り替えるなどで様々な文対にも対応可能になると考えている。すなわち,コサイン類似度が高い文対ではロジスティック回帰や L-CRF rep など,低い文対では combine を用いることで, より推定性能が向上すると考えている。 次に, combine モデルにおける文種類ごとの推定性能を表 6,7 に示す 14 . いずれの文書を基準にしても文種類によって性能に大きな差があるが,この主な理由は学習デー夕量の差によるものと考えている。すなわち,一部の文種類はほとんど文対応を持たないことや,そもそも当該文種類を持つ文の出現回数が少ないことに起因して学習が難しくなっている.特に前者については,例えばレビュー文種類 $<$ 感謝・応援 $><$ プラン名>や応答文種類 $<$ 投稿御礼 $>$ につ 表 6 提案モデル combine におけるレビュー文種類ごとの文対応推定性能(F 値最大点) 表 7 提案モデル combine における応答文種類ごとの文対応推定性能( $\mathrm{F}$ 値最大点) $ 值が「一」となっている文種類(<定型的挨拶〉)は推定結果が全て false-positive であったものである. } いて表 3, 4 を見ると,登場する回数は多いものの文対応を持つものは極めて少ないことが分かる.これらの文種類については再現率が高いものの適合率が極めて低いことから,過剰に対応有りと推定してしまっていることが分かる。このように対応する可能性が低い文種類については,推定後に予め人手で作成したルールによりフィルタリングするなどにより解決できると考えている。 次に,実際の combine モデルの出力例を図 15 に示す(表 5 に示す $\mathrm{F}$ 値最大点における出力結果)。図中の実線が推定によって得られた正しい文対応を示し,実線に $\times$ 記号があるものは対応有りと推定されたが実際には対応していないもの,破線は対応無しと推定されたが実際には対応しているものを示す. 図 15 左側は誤りなく文対応を推定できた例である。例えばレビュー文「フロントの係の方や…「駅から歩いて 5 分程‥はいずれも対応先の応答文「また、温かな嬉しいお言葉…と共通する内容語が存在しないが,正しく文対応が推定できている。これは,それぞれの文種類をくポジティブ感想><ほめへの感謝>と正しく推定できており,加えて「気持ちよく」「おいしい」「便利」といった語が現れる文と「御礼」といった言葉が現れる文の間には対応する可能性が高いといった傾向をうまく学習できたことによると考えている. また,図 15 右側は誤った推定が含まれている例である。例えばレビュー文「夜遅かったので…は応答文「また、フロントスタッフに対しても…と対応していると推定して誤ってい 図 15 combine モデルによる推定例. 実線は対応有りと推定された正しい文対応を示す. 実線に $\times$ 記号があるものは対応有りと推定されたが実際には対応していないもの,破線は対応無しと推定されたが実際には対応しているものを示す. る。これは逆に,文種類がそれぞれ<ポジティブ感想><ほめへの感謝>であることや,レビュー文中に「チェックアウト」が,応答文中に「フロント」「スタッフ」などの語が出現すると対応しやすいという傾向に影響されているためであると考えている。この場合,それぞれの文で触れられている対象が,チェックアウト時刻そのものなのか,チェックアウト時のスタッフの対応なのかを区別できればより正確な推定が可能になる。同様に,「夜遅かったので…」に対して応答文「当ホテルでは…「クリリマスシーズン…の間の文対応を発見することができなかった問題についても,それぞれの文でチェックアウト時刻に触れられていることを特定できれば対応を発見できる可能性が向上すると考えている. 最後に, combine モデルと $2 \mathrm{D}$ CRF モデルによる出力の比較例を図 16 に示す(表 5 に示す F 值最大点における出力結果)。この例では, $2 \mathrm{D}$ CRF モデルでは誤って対応ありと出力したぺアに対しても, combine モデルでは正しく対応がないと出力できている.2D CRF モデルが誤った理由の一つとして,文対応推定の前提処理である文種類推定の誤りによる影響があると考えている.この例では,応答文「今回はサラダのある…及び「次回宿泊時には…に対して文種類 < 情報追加>が誤って推定されているが(正しくは<お詫び>及び<対話>),<情報追加>は関連した語が登場するレビュー文と対応を持ちやすいという傾向があるため,過剰に対応有りと出力されていると考えている。これに対し, combine モデルでは文種類と文対応を同時に推定するため, 事前の文種類推定における誤りに影響されるといったことはないため正しく推定できている. 図 16 combine モデルと 2D CRF モデルの推定例. 左が combine, 右が 2D CRF. ## 5 まとめと今後の課題 本論文では, 対応する二文書間において文対応を自動で推定するタスクを提案した.また,対話文書を対象とした従来手法を本タスクに適用すると共に, 文種類と文対応を推定するモデルを統合した新しいモデルを提案した,実際に文対応の推定性能について比較実験を行い,中再現率において統合モデルは他モデルよりも高い適合率であること, 特に $\mathrm{F}$ 値最大点では最も高い F 値であることを確認した. 今後の課題として,以下の項目を考えている. 本論文の実験では,文対応推定に利用した素性は適用する文書対の分野に依存しないものに限られていた。 そのため, 文書対によっては分野に合わせた素性を投入することで性能が向上する可能性がある,特に,宿泊予約サイトのレビュー・応答文書対に合わせた素性を検討することを考えている。 また, 本研究では二文書の対に限っていたが,メールや掲示板等では「返信の返信」のように三文書以上が関係する場合もある。ここで,往信文書を文書 $A$, 文書 $A$ に対する返信文書を文書 $\mathrm{B}$ ,文書 $\mathrm{B}$ に対する再返信文書を文書 $\mathrm{C}$ とした場合,文書 $\mathrm{B}$ では文書 $\mathrm{A}$ に対する返信文に加え,文書 $\mathrm{C}$ の往信文が登場するという性質を持つ。例えば,文書 Bにおける回答は文書 $\mathrm{A}$ と対応し, 文書 $\mathrm{B}$ における質問は文書 $\mathrm{C}$ と対応する。また, 文書 $\mathrm{B}$ における回答文に対して文書 C でフィードバックが行われている場合など, 文書 $\mathrm{B}$ のある一文が文書 $\mathrm{A}, \mathrm{C}$ 双方と関係を持つ場合もある。この場合, 文書 $\mathrm{A}-$ 文書 $\mathrm{B}$ 及び文書 $\mathrm{B}-$ 文書 $\mathrm{C}$ のそれぞれで本研究での提案手法を繰り返し適用する素朴な方法も考えられる。この際, 文書 B の文種類をそれぞれの推定手順で返信文種類集合, 往信文種類集合に切り替えて別々に推定するという方法もあるが,新たに往信文書・返信文書のいずれでもあるような文書のための文種類を新たに定義するという方法もある. 更に, 繰り返し推定するのではなく, 文書 $A, B, C$ の文種類・文対応を同時に推定するモデルに拡張するという方法も考えられる,加えて,本研究で扱う文対応の定義からは外れるものの, 文書 Bを経由せずに文書 A と文書 Cで関連しているといった, 三文書以上が関わることで初めて観察される関係もある。例えば,文書 A でした質問のいくつかが文書 B で答えられなかった場合に, 文書 C で再度質問に触れる場合などがある. 今後, 三文書以上になることで新たに発生する事象についてはこのような関係も含めて分析を行い, 三文書以上における文対応推定に最適な手法を検討したいと考えている. 加えて, 本論文の冒頭で紹介したような応用についても取り掛かりたいと考えている。今回対象となったデータセットであるレビュー文書・応答文書対についても様々な応用が考えられるため, 応答文書の書き手の支援にとどまらず, ウェブサイトの利用者全体にとって有用なアプリケーションも実現したいと考えている. ## 謝 辞 本論文の実験にあたり,楽天データ公開において公開された楽天トラベル「お客さまの声 $\cdot$ クチコミ」データを使用させて頂きました. データを公開して頂きました楽天株式会社に感謝致します。 ## 参考文献 Boyer, K. E., Phillips, R., Ha, E. Y., Wallis, M. D., Vouk, M. A., and Lester, J. C. (2009). "Modeling Dialogue Structure with Adjacency Pair Analysis and Hidden Markov Models." In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics (NAACL-HLT-2009), pp. 49-52. Chen, S. F. and Rosenfeld, R. (1999). "A Gaussian Prior for Smoothing Maximum Entropy Models." Tech. rep., Carnegie Mellon University. Druck, G. and Pang, B. (2012). "Spice it Up?: Mining Refinements to Online Instructions from User Generated Content." In Proceedings of the 50th Annual Meeting of the Association of Computational Linguistics (ACL-2012), pp. 545-553. 長谷川貴之, 鍜治伸裕, 吉永直樹, 豊田正史 (2013). 聞き手の感情を喚起する発話応答生成. 言語処理学会第 19 回年次大会発表論文集, pp. 150-153. 平尾努, 西野正彬, 安田宜仁, 永田昌明 (2013). 談話構造に基づく単一文書要約. 言語処理学会第 19 回年次大会発表論文集, pp. 492-495. 比留間正樹,山下卓規,奈良雅雄,田村直良 (1999). 文章の構造化による修辞情報を利用した自動抄録と文章要約. 自然言語処理, 6 (6), pp. 113-129. Holm, S. (1979). "A Simple Sequentially Rejective Multiple Test Procedure." Scandinavian Journal of Statistics, 6 (2), pp. 65-70. Kschischang, F. R., Frey, B. J., and Loeliger, H. A. (2001). "Factor Graphs and the Sum-product Algorithm." IEEE Transactions on Information Theory, 47 (2), pp. 498-519. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Lin, D. and Wu, D. (Eds.), Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP-2004), pp. 230-237. Lafferty, J., McCallum, A., and Pereira, F. (2001). "Conditional Random Fields: Probabilistic Models for Segmenting and Labeling Sequence Data." In Proceedings of the 18th Interna- tional Conference on Machine Learning (ICML-2001), pp. 282-289. Mann, W. C., Matthiessen, C. M., and Thompson, S. A. (1992). "Rhetorical Structure Theory and Text Analysis." In Mann, W. C. and Thompson, S. A. (Eds.), Discourse Description: Diverse Linguistic Analyses of a Fund-raising Text, pp. 39-78. John Benjamins Publishing. Mann, W. C. and Thompson, S. A. (1987). "Rhetorical Structure Theory: Description and Construction of Text Structures." In Kempen, G. (Ed.), Natural Language Generation, Chap. 7, pp. 85-95. Springer Netherlands. Marcu, D. (1997). "The Rhetorical Parsing of Natural Language Texts." In Proceedings of the 35th Annual Meeting of the Association for Computational Linguistics (ACL-1997), pp. 96-103. Marcu, D. (1999). "Discourse Trees Are Good Indicators of Importance in Text." In Mani, I. and Maybury, M. T. (Eds.), Advances in Automatic Text Summarization, pp. 123-136. The MIT Press. Marcu, D., Carlson, L., and Watanabe, M. (2000). "The Automatic Translation of Discourse Structures." In Proceedings of the 1st North American chapter of the Association for Computational Linguistics Conference (NAACL-2000), pp. 9-17. McCallum, A. K. (2002). "MALLET: A Machine Learning for Language Toolkit." http://mallet.cs.umass.edu/. 大沢裕子, 郷亜里沙, 安田励子 (2010). Web サイトにおけるクチコミの苦情と返答一「宿泊予約サイト」を対象に一. 言語処理学会第 16 回年次大会発表論文集, pp. 322-325. 宮部泰成, 高村大也, 奥村学 (2005). 異なる文書中の文間関係の特定. 情報処理学会研究報告,自然言語処理研究会, 2005 (NL-17), pp. 97-104. 宮部泰成, 高村大也, 奥村学 (2006). 文書横断文間関係の特定. 言語処理学会第 12 回年次大会発表論文集, pp. 496-499. 難波英嗣,国政美伸,福島志穂,相沢輝昭,奥村学 (2005). 文書横断文間関係を考慮した動向情報の抽出と可視化. 情報処理学会研究報告, 自然言語処理研究会, 2005 (NL-169), pp. 67-74. Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., Vanderplas, J., Passos, A., Cournapeau, D., Brucher, M., Perrot, M., and Duchesnay, E. (2011). "Scikit-learn: Machine Learning in Python." Journal of Machine Learning Research, 12, pp. 2825-2830. Qu, Z. and Liu, Y. (2012). "Sentence Dependency Tagging in Online Question Answering Forums." In Proceedings of the 50th Annual Meeting of the Association of Computational Linguistics (ACL-2012), pp. 554-562. Radev, D. R. (2000). "A Common Theory of Information Fusion from Multiple Text Sources Step One." In Proceedings of the 1st SIGdial Workshop on Discourse and Dialogue, Vol. 10, pp. $74-83$. Ritter, A., Cherry, C., and Dolan, W. B. (2011). "Data-driven Response Generation in Social Media." In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing (EMNLP-2011), pp. 583-593. Sutton, C. (2006). "GRMM: GRaphical Models in Mallet." http://mallet.cs.umass.edu/grmm/. Sutton, C. and McCallum, A. (2012). "An Introduction to Conditional Random Fields." Foundations and Trends in Machine Learning, 4 (4), pp. 267-373. 竹中要一, 若尾岳志 (2012). 地方自治体の例規比較に用いる条文対応表の作成支援. 自然言語処理, 19 (3), pp. 193-212. 田村直良, 和田啓二 (1998). セグメントの分割と統合による文章の構造解析. 自然言語処理, $\boldsymbol{5}$ (1), pp. 59-78. Tu, M., Zhou, Y., and Zong, C. (2013). "A Novel Translation Framework Based on Rhetorical Structure Theory." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (ACL-2013), pp. 370-374. Wainwright, M., Jaakkola, T., and Willsky, A. (2001). "Tree-based Reparameterization for Approximate Inference on Loopy Graphs." In Advances in Neural Information Processing System (NIPS-2001), pp. 1001-1008. Zhu, J., Nie, Z., Wen, J.-R., Zhang, B., and Ma, W.-Y. (2005). "2D Conditional Random Fields for Web Information Extraction." In Proceedings of the 22nd International Conference on Machine Learning (ICML-2005), pp. 1044-1051. ## 略歴 角田孝昭:2011 年筑波大学情報学群情報メディア創成学類卒業. 2013 年同大学大学院システム情報工学研究科コンピュータサイエンス専攻博士前期課程修了. 現在, 同大学博士後期課程在学中. 修士 (工学). 自然言語処理の研究に従事. 乾孝司:2004 年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員, 東京工業大学統合研究院特任助教等を経て, 2009 年筑波大学大学院システム情報工学研究科助教. 現在に至る. 博士 (工学).近年は CGM テキストに対する評判分析に興味をもつ。 山本幹雄:1986 年豊橋技術科学大学大学院修士課程了. 同年株式会社沖テクノシステムズラボラトリ研究開発員. 1988 年豊橋技術科学大学情報工学系教務職員. 1991 年同助手. 1995 年筑波大学電子・情報工学系講師. 1998 年同助 教授. 2008 年筑波大学システム情報工学研究科教授. 博士(工学).自然言語処理の研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# リカレントニューラルネットワークによる単語アラインメント ## 田村 晃裕 $\dagger \cdot$ 渡辺 太郎 ${ ^{\dagger} \cdot$ 隅田英一郎 $\dagger$} 本論文では, 隠れ層の再帰的な構造により, 過去のアラインメント履歴全体を活用するリカレントニューラルネットワーク (RNN) による単語アラインメントモデルを提案する. ニューラルネットワークに基づくモデルでは, 従来, 教師あり学習が行われてきたが, 本論文では, 本モデルの学習法として, Dyer らの教師なし単語アラインメント (Dyer, Clark, Lavie, and Smith 2011)を拡張して人工的に作成した負例を利用する教師なし学習法を提案する。提案モデルは, IBM モデル (Brown, Pietra, Pietra, and Mercer 1993) などの多くの従来手法と同様に, 各方向で独立にアラインメントを学習するため, 両方向を考慮した大域的な学習を行うことができない。そこで,各方向のモデルの合意を取るように同時に学習することで,アラインメントの精度向上を目指す. 具体的には, 各方向のモデルの word embedding の差を表すぺナルティ項を目的関数に導入し, 両方向で word embeddingを一致させるようにモデルを学習する。日英及び仏英単語アラインメント実験を通じて,RNNに基づくモデルは,フィードフォワードニューラルネットワークによるモデル (Yang, Liu, Li, Zhou, and Yu 2013) や IBM モデル 4 よりも単語アラインメント精度が高いことを示す。さらに,日英及び中英翻訳実験を通じて,これらのベースラインと同等かそれ以上の翻訳精度を達成できることを示す。 キーワード:単語アラインメント, リカレントニューラルネットワーク, 教師なし学習,合意制約 ## Recurrent Neural Networks for Word Alignment \author{ Akihiro Tamura ${ }^{\dagger}$, Taro Watanabe ${ }^{\dagger \dagger}$ and Eirchiro Sumita ${ }^{\dagger}$ } This paper proposes a novel word alignment model based on a recurrent neural network (RNN), in which an unlimited alignment history is represented by recurrently connected hidden layers. In addition, we perform unsupervised learning inspired by (Dyer et al. 2011), which utilizes artificially generated negative samples. Our alignment model is directional, like the generative IBM models (Brown et al. 1993). To overcome this limitation, we encourage an agreement between the two directional models by introducing a penalty function, which ensures word embedding consistency across two directional models during training. The RNN-based model outperforms both the feed-forward NN-based model (Yang et al. 2013) and the IBM Model 4 under Japanese-English and French-English word alignment tasks, and achieves comparable translation performance to those baselines under Japanese-English and ChineseEnglish translation tasks.  Key Words: Word Alignment, Recurrent Neural Network, Unsupervised Learning, Agreement Constraint ## 1 はじめに 対訳文中の単語の対応関係を解析する単語アラインメントは, 統計的機械翻訳に欠かせない重要な処理の一つであり, 研究が盛んに行われている。 その中で, 生成モデルである IBM モデル 1-5 (Brown et al. 1993) や HMM に基づくモデル (Vogel, Ney, and Tillmann 1996) は最も有名な手法であり,それらを拡張した手法が数多く提案されている (Och and Ney 2003; Berg-Kirkpatrick, Bouchard-Côté, DeNero, and Klein 2010). 近年では, Yang らが, フィードフォワードニュー ラルネットワーク (FFNN) の一種である「Context-Dependent Deep Neural Network for HMM (CD-DNN-HMM)」(Dahl, Yu, Deng, and Acero 2012)を HMM に基づくモデルに適用した手法を提案し, 中英アラインメントタスクにおいてIBM モデル 4 や HMM に基づくモデルよりも高い精度を達成している (Yang et al. 2013). この FFNN-HMM アラインメントモデルは, 単語アラインメントに単純マルコフ性を仮定したモデルであり,アラインメント履歴として,一つ前の単語アラインメント結果を考慮する. 一方で, ニューラルネットワーク (NN) の一種にフィードバック結合を持つリカレントニュー ラルネットワーク (RNN) がある. RNN の隠れ層は再帰的な構造を持ち, 自身の信号を次のステップの隠れ層へと伝達する。この再帰的な構造により,過去の入力データの情報を隠れ層で保持できるため, 入力データに内在する長距離の依存関係を捉えることができる。このような特長を持つ RNN に基づくモデルは, 近年, 多くのタスクで成果をあげており, FFNN に基づくモデルの性能を凌駕している。例えば, 言語モデル (Mikolov, Karafiát, Burget, Cernocký, and Khudanpur 2010; Mikolov and Zweig 2012; Sundermeyer, Oparin, Gauvain, Freiberg, Schlüter, and Ney 2013) や翻訳モデル (Auli, Galley, Quirk, and Zweig 2013; Kalchbrenner and Blunsom 2013)の構築で効果を発揮している。一方で, 単語アラインメントタスクにおいて RNN を活用したモデルは提案されていない. 本論文では, 単語アラインメントにおいて, 過去のアラインメントの情報を保持して活用することは有効であると考え, RNNに基づく単語アラインメントモデルを提案する。前述の通り, 従来の FFNN に基づくモデルは, 直前のアラインメント履歴しか考慮しない. 一方で, RNN に基づくモデルは, 隠れ層の再帰的な構造としてアラインメントの情報を埋め込むことで,FFNNに基づくモデルよりも長い,文頭から直前の単語アラインメントの情報,つまり過去のアラインメント履歴全体を考慮できる。 NNに基づくモデルの学習には, 通常, 教師データが必要である. しかし, 単語単位の対応関係が付与された対訳文を大量に用意することは容易ではない。この状況に対して, Yangらは,従来の教師なし単語アラインメントモデル(IBM モデル,HMM に基づくモデル)により生成 した単語アラインメントを疑似の正解データとして使い, モデルを学習した (Yang et al. 2013). しかし, この方法では, 疑似正解デー夕の作成段階で生み出された, 誤った単語アラインメントが正しいアラインメントとして学習されてしまう可能性がある.これらの状況を踏まえて, 本論文では, 正解の単語アラインメントや疑似の正解データを用意せずに RNNに基づくモデルを学習する教師なし学習法を提案する。本学習法では, Dyerらの教師なし単語アラインメント (Dyer et al. 2011)を拡張し,正しい対訳文における単語対と語彙空間全体における単語対を識別するようにモデルを学習する,具体的には,まず,語彙空間全体からのサンプリングにより偽の対訳文を人工的に生成する。その後,正しい対訳文におけるアラインメントスコアの期待値が,偽の対訳文におけるアラインメントスコアの期待値より高くなるようにモデルを学習する。 RNN に基づくモデルは, 多くのアラインメントモデルと同様に, 方向性(「原言語 $f \rightarrow$ 目的言語 $e\rfloor$ 又は $\lceil e \rightarrow f\rfloor)$ を持ち, 各方向のモデルは独立に学習, 使用される. ここで, 学習される特徴は方向毎に異なり,それらは相補的であるとの考えに基づき,各方向の合意を取るようにモデルを学習することによりアラインメント精度が向上することが示されている (Matusov, Zens, and Ney 2004; Liang, Taskar, and Klein 2006; Graça, Ganchev, and Taskar 2008; Ganchev, Graça, and Taskar 2008). そこで,提案手法においても,「f $\boldsymbol{f} \boldsymbol{e}\rfloor$ と $\boldsymbol{e} \rightarrow \boldsymbol{f}\rfloor$ の $2 \supset$ つ RNN に基づくモデルの合意を取るようにそれらのモデルを同時に学習する。両方向の合意は,各方向のモデルの word embedding が一致するようにモデルを学習することで実現する.具体的には, 各方向の word embedding の差を表すぺナルティ項を目的関数に導入し, その目的関数にしたがってモデルを学習する。この制約により,それぞれのモデルの特定方向への過学習を防ぎ,双方で大域的な最適化が可能となる。 提案手法の評価は, 日英及び仏英単語アラインメント実験と日英及び中英翻訳実験で行う.評価実験を通じて,前記提案全てを含む「合意制約付き教師なし学習法で学習したRNNに基づくモデル」は,FFNN に基づくモデルやIBM モデル 4 よりも単語アラインメント精度が高いことを示す。また,機械翻訳実験を通じて,学習デー夕量が同じ場合には,FFNNに基づくモデルやIBM モデル4を用いた場合よりも高い翻訳精度を実現できることを示す1.具体的には, アラインメント精度は FFNN に基づくモデルより最大 0.0792 (F1 値),IBM モデル 4 より最大 0.0703 (F1 値), 翻訳精度は FFNN に基づくモデルより最大 $0.74 \%$ (BLEU), IBM モデル 4 より最大 $0.58 \%$ (BLEU) 上回った. また, 各提案 (RNNの利用, 教師なし学習法, 合意制約) 個別の有効性も検証し, 機械翻訳においては一部の設定における精度改善にとどまるが, 単語アラインメントにおいては各提案により精度が改善できることを示す。 以降,2 節で従来の単語アラインメントモデルを説明し, 3 節で RNNに基づく単語アライン $ に基づくモデルの学習時の計算量を削減するため,学習データの一部を用いた.全学習データから学習したIBM モデル 4 を用いた場合とは同等の翻訳能であった. } メントモデルを提案する.そして, 4 節で RNN に基づくモデルの学習法を提案する. 5 節では提案手法の評価実験を行い,6節で提案手法の効果や性質についての考察を行う。最後に, 7 節で本論文のまとめを行う. ## 2 従来の単語アラインメントモデル 今まで数多くの単語アラインメント手法が提案されてきており, それらは, 生成モデル(例えば (Brown et al. 1993; Vogel et al. 1996; Och and Ney 2003))と識別モデル(例えば (Taskar, Lacoste-Julien, and Klein 2005; Moore 2005; Blunsom and Cohn 2006))に大別できる. 2.1 節では生成モデルを概観し, 2.2 節では識別モデルの一例として, 提案手法のベースラインとなる FFNN に基づくモデル (Yang et al. 2013)を説明する. ## 2.1 生成モデル 生成モデルでは, $J$ 単語から構成される原言語の文を $f_{1}^{J}=f_{1}, \ldots, f_{J}$, それに対応する $I$ 単語で構成される目的言語の文を $e_{1}^{I}=e_{1}, \ldots, e_{I}$ とすると, $f_{1}^{J}$ は $e_{1}^{I}$ からアラインメント $a_{1}^{J}=a_{1}, \ldots, a_{J}$ を通じて生成されると考える. ここで, 各 $a_{j}$ は, 原言語の単語 $f_{j}$ が目的言語の単語 $e_{a_{j}}$ に対応する事を示す隠れ変数である。通常, 目的言語の文には単語「null」 $\left(e_{0}\right)$ が加えられ, $f_{j}$ が目的言語のどの単語にも対応しない場合, $a_{j}=0$ となる. そして, $f_{1}^{J}$ が $e_{1}^{I}$ から生成される生成確率は, 次の通り, $e_{1}^{I}$ が生成する全アラインメントとの生成確率の総和で定義される: $ p\left(f_{1}^{J} \mid e_{1}^{I}\right)=\sum_{a_{1}^{J}} p\left(f_{1}^{J}, a_{1}^{J} \mid e_{1}^{I}\right) $ IBM モデル 1, 2 や HMM に基づくモデルでは, 式 (1) 中の特定アラインメント $a_{1}^{J}$ との生成確率 $p\left(f_{1}^{J}, a_{1}^{J} \mid e_{1}^{I}\right)$ をアラインメント確率 $p_{a}$ と語彙翻訳確率 $p_{t}$ で定義する ${ }^{2}$ : $ p\left(f_{1}^{J}, a_{1}^{J} \mid e_{1}^{I}\right)=\prod_{j=1}^{J} p_{a}\left(a_{j} \mid a_{j-1}, j\right) p_{t}\left(f_{j} \mid e_{a_{j}}\right) $ この 3 つのモデルでは, アラインメント確率の定義が異なる. 例えば, HMM に基づくモデルでは単純マルコフ性を持つアラインメント確率を用いる: $p_{a}\left(a_{j} \mid a_{j}-a_{j-1}\right)$. また, 目的言語の各単語に対する稔性 (fertility) や歪み (distortion) を考慮する IBM モデル 3-5 も提案されている. これらのモデルは, EM アルゴリズム (Dempster, Laird, and Rubin 1977)により, 単語単位のアラインメントが付与されていない対訳文の集合(ラベルなし学習データ)から学習される. $ において, $a_{0}=0$ である. } また, ある対訳文 $\left(f_{1}^{J}, e_{1}^{I}\right)$ の単語アラインメントを解析する際は, 学習したモデルを用いて,次式 (3)を満たすアラインメント(ビタビアラインメント) $\hat{a}_{1}^{J}$ を求める: $ \hat{a}_{1}^{J}=\underset{a_{1}^{J}}{\operatorname{argmax}} p\left(f_{1}^{J}, a_{1}^{J} \mid e_{1}^{I}\right) $ 例えば,HMMに基づくモデルは,ビタビアルゴリズム (Viterbi 1967)によりビタビアラインメントを求めることができる. ## 2.2 FFNN に基づく単語アラインメントモデル FFNN は, 非線形関数を持つ隠れ層を備えることにより, 入力データから多層的に非線形な素性を自動的に学習することができ,入力デー夕の複雑な特徴を捉えることができる。近年, その特長を活かし, 音声認識 (Dahl et al. 2012), 統計的機械翻訳 (Le, Allauzen, and Yvon 2012; Vaswani, Zhao, Fossum, and Chiang 2013) やその他の自然言語処理 (Collobert and Weston 2008; Collobert, Weston, Bottou, Karlen, Kavukcuoglu, and Kuksa 2011) 等, 多くの分野で成果をあげている. Yang らは,FFNNの一種である CD-DNN-HMM (Dahl et al. 2012)を HMM に基づくアラインメントモデルに適用したモデルを提案した (Yang et al. 2013). 本節では, 提案手法のベースラインとなる,このFFNNに基づく単語アラインメントモデルを説明する。 FFNN に基づくモデルは, 式 (2)のアラインメント確率 $p_{a}$ 及び語彙翻訳確率 $p_{t}$ を FFNN により計算する: $ s_{N N}\left(a_{1}^{J} \mid f_{1}^{J}, e_{1}^{I}\right)=\prod_{j=1}^{J} t_{a}\left(a_{j}-a_{j-1} \mid c\left(e_{a_{j-1}}\right)\right) \cdot t_{t}\left(f_{j}, e_{a_{j}} \mid c\left(f_{j}\right), c\left(e_{a_{j}}\right)\right) $ ただし,全単語にわたる正規化は計算量が膨大となるため,確率の代わりにスコアを用いる。 $t_{a}$ と $t_{t}$ は,それぞれ,アラインメントスコアと語彙翻訳スコアであり, $p_{a}$ と $p_{t}$ に対応する。また, $s_{N N}$ はアラインメント $a_{1}^{J}$ のスコアであり,「 $c$ (単語 $\left.\left.w\right)\right.\rfloor$ は単語 $w$ の文脈を表す. ビ夕ビアラインメントは, 典型的な HMM に基づくアラインメントモデル同様, ビタビアルゴリズムにより求める. アラインメントスコアは直前のアラインメント $a_{j-1}$ に依存しているため, FFNN に基づくモデルも単純マルコフ過程に従う。 図 1 に,語彙翻訳スコア $t_{t}\left(f_{j}, e_{a_{j}} \mid c\left(f_{j}\right), c\left(e_{a_{j}}\right)\right)$ を計算するネットワーク構造(語彙翻訳モデル)を示す.このネットワークは, lookup 層 (入力層), 1 層の隠れ層, 出力層から構成され,各層は,それぞれ,重み行列 $L,\left.\{H, B_{H}\right.\},\left.\{O, B_{O}\right.\}$ を持つ. $L$ は word embedding 行列であ $り$, 各単語を特徴付ける低次元の実べクトルとして, 単語の統語的, 意味的特性を表す (Bengio, Ducharme, Vincent, and Janvin 2003). 原言語の単語集合を $V_{f}$, 目的言語の単語集合を $V_{e}$, word embedding の長さを $M$ とすると, $L$ は $M \times\left(\left|V_{f}\right|+\left|V_{e}\right|\right)$ 行列である. ただし, $V_{f}$ と $V_{e}$ には, それぞれ,未知語を表す $\langle u n k\rangle$ と単語「null」を表す $\langle n u l l\rangle を$ 追加する。 図 1 FFNN に基づくモデルにおける語彙翻訳スコア $t_{t}\left(f_{j}, e_{a_{j}} \mid c\left(f_{j}\right), c\left(e_{a_{j}}\right)\right)$ 計算用ネットワーク この語彙翻訳モデルは, 入力として, 計算対象である原言語の単語 $f_{j}$ と目的言語の単語 $e_{a_{j}}$ と共に,それらの文脈単語を受け付ける。文脈単語とは, 予め定めたサイズの窓内に存在する単語であり,図 1 は窓幅が 3 の場合を示している。 まず,lookup 層が,入力の各単語に対して行列 $L$ から対応する列を見つけ,word embeddingを割り当てる。そして,それらを結合させた実べクトル $z_{0}$ を隠れ層に送る,次に,隠れ層が lookup 層の出力 $z_{0}$ を受け取り, $z_{0}$ の非線形な特徴を捉える。最後に, 出力層が隠れ層の出力 $z_{1}$ を受け取り, 語彙翻訳スコアを計算して出力する。隠れ層, 出力層が行う具体的な計算は次の通りである ${ }^{3}$ : $ \begin{aligned} z_{1} & =f\left(H \times z_{0}+B_{H}\right) \\ t_{t} & =O \times z_{1}+B_{O} . \end{aligned} $ ここで, $H, B_{H}, O, B_{O}$ は,それぞれ, $\left|z_{1}\right| \times\left|z_{0}\right|,\left|z_{1}\right| \times 1,1 \times\left|z_{1}\right|, 1 \times 1$ 行列である. また, $f(x)$ は非線形活性化関数であり, 本論文の実験では, (Yang et al. 2013) に倣い, $\operatorname{htanh}(x)^{4}$ を用いた。 アラインメントスコア $t_{a}\left(a_{j}-a_{j-1} \mid c\left(e_{a_{j-1}}\right)\right)$ を計算するアラインメントモデルも,語彙翻訳モデルと同様に構成できる。語彙翻訳モデル及びアラインメントモデルの学習では, 次式 (7)のランキング損失を最小化するように,各層の重み行列を最適化する。最適化は,サンプル毎に勾配を計算してパラメータを更新する確率的勾配降下法 (SGD) ${ }^{5}$ で行い,各重みの勾配は,誤差逆伝播法 (Rumelhart, Hinton, and Williams 1986) で計算する. $ \operatorname{loss}(\theta)=\sum_{(\boldsymbol{f}, \boldsymbol{e}) \in T} \max \left.\{0,1-s_{\theta}\left(\boldsymbol{a}^{+} \mid \boldsymbol{f}, \boldsymbol{e}\right)+s_{\theta}\left(\boldsymbol{a}^{-} \mid \boldsymbol{f}, \boldsymbol{e}\right)\right.\} $ =f\left(H_{l} \times z_{l-1}+B_{H_{l}}\right)$. 複数の隠れ層を用いた実験は今後の課題とする. ${ }^{4} x<-1$ の時は $\operatorname{htanh}(x)=-1, x>1$ の時は $\operatorname{htanh}(x)=1$, それ以外の時は $\operatorname{htanh}(x)=x$ である. 5 実験では, 後述の RNN に基づくモデル同様, 単純な SGD ではなくバッチサイズ $D$ のミニバッチ SGD を用いた. } ここで, $\theta$ は最適化するパラメータ(重み行列の重み), $T$ は学習データ, $s_{\theta}$ はパラメータ $\theta$ のモデルによる $a_{1}^{J}$ のスコア (式 (4) 参照), $\boldsymbol{a}^{+}$は正解アラインメント, $\boldsymbol{a}^{-}$はパラメータ $\theta$ のモデルでスコアが最も高い不正解アラインメントである. ## 3 RNN に基づく単語アラインメントモデル 本節では,アラインメント $a_{1}^{J}$ のスコアを RNNにより計算する単語アラインメントモデルを提案する: $ s_{N N}\left(a_{1}^{J} \mid f_{1}^{J}, e_{1}^{I}\right)=\prod_{j=1}^{J} t_{R N N}\left(a_{j} \mid a_{1}^{j-1}, f_{j}, e_{a_{j}}\right) $ ここで, $t_{R N N}$ はアラインメント $a_{j}$ のスコアであり, FFNN に基づくモデルと異なり, 直前のアラインメント $a_{j-1}$ だけでなく, $j-1$ 個の全てのアラインメントの履歴 $a_{1}^{j-1}$ に依存している. また,本モデルにおいても,FFNN に基づくモデルと同様, 確率ではなくスコアを用いる. 図 2 に RNNに基づくモデルのネットワーク構造を示す.このネットワークは, lookup 層(入力層), 隠れ層, 出力層から構成され, 各層は, それぞれ, 重み行列 $L,\left.\{H^{d}, R^{d}, B_{H}^{d}\right.\},\left.\{O, B_{O}\right.\}$ を持つ. 隠れ層の重み行列 $H^{d}, R^{d}, B_{H}^{d}$ は, 直前のアラインメント $a_{j-1}$ からの距離 $d\left(d=a_{j}-a_{j-1}\right)$毎に定義される.本論文の実験では, 8 より大きい距離及び -8 より小さい距離は,それぞれ, 応した重み行列 $\left.\{H^{\leq-8}, H^{-7}, \cdots, H^{7}, H^{\geq 8}, R^{\leq-8}, R^{-7}, \cdots, R^{7}, R^{\geq 8}, B_{\bar{H}}^{\leq-8}, B_{H}^{-7}, \cdots, B_{H}^{7}, B_{\bar{H}}^{\geq 8}\right.\}$ を用いて $y_{j}$ を算出する. ビタビアラインメントは, FFNN に基づくモデルと同様に,図 2 のモデルを $f_{1}$ から $f_{J}$ に順番に適用して求める。ただし,アラインメント $a_{j}$ のスコアは, $y_{i}$ を通じて $a_{1}$ から $a_{j-1}$ の全て 図 2 RNN に基づくアラインメントモデル に依存しているため, 動的計画法に基づくビタビアルゴリズムは適用できない. そこで, 実験では,ビームサーチにより近似的にビタビアラインメントを求める。 図 2 のモデルにより $f_{j}$ と $e_{a_{j}}$ のアラインメントのスコアを計算する流れを説明する. まず, $f_{j}$ と $e_{a_{j}}$ の 2 単語が lookup 層へ入力される。 そして, lookup 層が 2 単語それぞれを word embedding に変換し,その word embedding を結合させた実べクトル $x_{j}$ を隠れ層に送る。この lookup 層が行う処理は, FFNN に基づくモデルの lookup 層と同じである. 次に, 隠れ層は, lookup 層の出力 $x_{j}$ と直前のステップ $j-1$ の隠れ層の出力 $y_{j-1}$ を受け取り, それらの間の非線形な特徵を捉える。この時に用いる重み行列 $H^{d}, R^{d}, B_{H}^{d}$ は, 直前のアラインメント $a_{j-1}$ との距離 $d$ によ区別されている。隠れ層の出力 $y_{j}$ は, 出力層と次のステップ $j+1$ の隠れ層に送られる. そして最後に, 出力層が, 隠れ層の出力 $y_{j}$ に基づいて $f_{j}$ と $e_{a_{j}}$ のアラインメントのスコア $t_{\mathrm{RNN}}\left(a_{j} \mid a_{1}^{j-1}, f_{j}, e_{a_{j}}\right)$ を計算して出力する. 隠れ層, 出力層が行う具体的な計算は次の通りである ${ }^{6}$ : $ \begin{aligned} & y_{j}=f\left(H^{d} \times x_{j}+R^{d} \times y_{j-1}+B_{H}^{d}\right), \\ & t_{R N N}=O \times y_{j}+B_{O} . \end{aligned} $ ここで $, H^{d}, R^{d}, B_{H}^{d}, O, B_{O}$ は,それぞれ $,\left|y_{j}\right| \times\left|x_{j}\right|,\left|y_{j}\right| \times\left|y_{j-1}\right|,\left|y_{j}\right| \times 1,1 \times\left|y_{j}\right|, 1 \times 1$行列である. ただし, $\left|y_{j-1}\right|=\left|y_{j}\right|$ である. また, $f(x)$ は非線形活性化関数であり, (Yang et al. 2013) と同様に,本論文では $h \tanh (\mathrm{x})$ を用いる. 前述の通り,FFNNに基づくモデルは,語彙翻訳スコア用とアラインメントスコア用の 2 つのモデルから構成される。一方で, RNN に基づくモデルは, 直前のアラインメントとの距離 $d$ に依存した重み行列を隠れ層で使うことで,アラインメントと語彙翻訳の両者を考慮する 1 つのモデルで単語アラインメントをモデル化する。また,RNNに基づくモデルは再帰的な構造をした隠れ層を持つ。このため, 過去のアラインメント履歴全体をこの隠れ層の入出力 $y_{i}$ にコンパクトに埋め达むことで,直前のアラインメント履歴のみに依存する従来の FFNN に基づくモデルよりも長いアラインメント履歴を活用して単語アラインメントを行うことができる. ## 4 モデルの学習 提案モデルの学習では, 特定の目的関数に従い, 各層の重み行列 (つまり, $L, H^{d}, R^{d}, B_{H}^{d}$, $O, B_{O}$ )を最適化する. 最適化は,単純な SGD(バッチサイズ $D=1 )$ よりも収束が早いミニバッチSGDにより行う。また, 各重みの勾配は, 通時的誤差逆伝播法 (Rumelhart et al. 1986) で計算する。通時的誤差逆伝播法は, 時系列(提案モデルにおける $j$ )でネットワークを展開 ^{6} j=1$ の時の隠れ層では, $a_{0}$ は 0 とし, 直前ステップの隠れ層からの出力 $y_{0}$ は考慮しない $: y_{1}=f\left(H^{d} \times x_{1}+B_{H}^{d}\right)$. } し,時間ステップ上で誤差逆伝播法により勾配を計算する手法である。 提案モデルは,FFNNに基づくモデル同様, 式 (7) で定義されるランキング損失に基づいて教師あり学習することができる (2.2 節参照).しかし, この学習法は正解の単語アラインメントが必要であるという問題がある。この問題を解決するため, 次の 4.1 節で, ラベルなし学習データから提案モデルを学習する教師なし学習法を提案する。 ## 4.1 教師なし学習 本節で提案する教師なし学習は, Dyer らにより提案された contrastive estimation (CE) (Smith and Eisner 2005) に基づく教師なし単語アラインメントモデル (Dyer et al. 2011)を拡張した手法である. CEとは, 観測データの近傍データを疑似負例と捉え, 観測データとその近傍データを識別するモデルを学習する手法である. Dyer らは,ラベルなし学習データ中の対訳文 $T$ において考えられる全ての単語アラインメントを観測データ, 目的言語側を単語空間 $V_{e}$ 全体とした単語アラインメント,つまり,対訳文 $T$ 中の原言語の各単語と $V_{e}$ 中の各単語との全単語対を近傍データとして CE を適用した. 提案する学習法は, この考え方を目的関数のランキング損失に導入する: $ \operatorname{loss}(\theta)=\max \left.\{0,1-\sum_{\left(\boldsymbol{f}^{+}, \boldsymbol{e}^{+}\right) \in T} \mathrm{E}_{\Phi}\left[s_{\theta}\left(\boldsymbol{a} \mid \boldsymbol{f}^{+}, \boldsymbol{e}^{+}\right)\right]+\sum_{\left(\boldsymbol{f}^{+}, \boldsymbol{e}^{-}\right) \in \Omega} \mathrm{E}_{\Phi}\left[s_{\theta}\left(\boldsymbol{a} \mid \boldsymbol{f}^{+}, \boldsymbol{e}^{-}\right)\right]\right.\} $ ここで, $\Phi$ は対訳文 $(\boldsymbol{f}, \boldsymbol{e})$ に対する全ての単語アラインメントの集合, $\mathrm{E}_{\Phi}\left[s_{\theta}\right]$ は $\Phi$ におけるスコア $s_{\theta}$ の期待値を表す. $\Omega$ は対訳文 $T$ 中の目的言語の各単語を $V_{e}$ 全体とした対訳対集合である.したがって, $e^{+}$は学習データ $T$ 中の目的言語の文であり, $e^{-}$は $\left|e^{+}\right|$個の目的言語の単語で構成される疑似の文である $\left(e^{-} \in V_{e}^{\left|e^{+}\right|}\right)$. 一つ目の期待値が観測データ, 二つ目の期待值が近傍データに関する項である. しかしながら, 式 (11) 中の $\Omega$ に対する期待値の計算量は膨大となる. そこで, 計算量を削減するため, Noise Contrastive Estimation (Gutmann and Hyvärinen 2010; Mnih and Teh 2012) に基づく Negative Sampling (Mikolov, Sutskever, Chen, Corrado, and Dean 2013)のように, 近傍データ空間からサンプリングした空間を用いる。つまり, 各原言語の文 $f^{+}$に対する $e^{-}$として, $\left|e^{+}\right|$個の目的言語の単語で構成される全ての文ではなく, サンプリングした $\mathrm{N}$ 文を使う. さらに, ビーム幅 $W$ のビームサーチにより期待値を計算することで, スコアが低いアラインメントを切り捨て計算量を削減する: $ \operatorname{loss}(\theta)=\sum_{\boldsymbol{f}^{+} \in T} \max \left.\{0,1-\mathrm{E}_{\mathrm{GEN}}\left[s_{\theta}\left(\boldsymbol{a} \mid \boldsymbol{f}^{+}, \boldsymbol{e}^{+}\right)\right]+\frac{1}{N} \sum_{\boldsymbol{e}^{-}} \mathrm{E}_{\mathrm{GEN}}\left[s_{\theta}\left(\boldsymbol{a} \mid \boldsymbol{f}^{+}, \boldsymbol{e}^{-}\right)\right]\right.\} $ 式 (12)において,$e^{+}$は学習デー夕内で $\boldsymbol{f}^{+}$の対訳となっている目的言語の文 $\left(\left(f^{+}, e^{+}\right) \in T\right)$ であり, $e^{-}$は無作為に抽出された長さ $\left|e^{+}\right|$の疑似の目的言語の文である. つまり, $\left|e^{+}\right|=\left|e^{-}\right|$ である。そして,$N$ は,各原言語の文 $f^{+}$に対して抽出する疑似の目的言語の文の数である. GEN は, ビームサーチにより探索される単語アラインメント空間であり, 全ての単語アラインメント空間 $\Phi$ の部分集合である. 各 $e^{-}$は,無作為に抽出した $\left|e^{+}\right|$個の目的言語の単語を順番に並べることで生成する.学習 IBM モデル 1 (Vaswani, Huang, and Chiang 2012)によって対訳文中で $f_{i} \in f^{+}$との共起確率が $C$ 以上と判定された目的言語の単語集合から抽出する. $l_{0}$ 正則化付き IBM モデル 1 は, 単純な IBM モデル 1 と比較して, より疎なアラインメントを生成するため, 疑似翻訳 $e^{-}$の候補の範囲を制限することが可能となる. ## 4.2 両方向の合意制約 FFNN に基づくモデルと RNN に基づくモデルは,共に方向性を持つモデルである。すなわち, $f$ に対する $e$ のアラインメントモデルにより, 単語 $f_{j}$ に対して $\boldsymbol{e}$ との 1 対多アラインメントを表す。通常, 方向性を持つモデルは方向毎に独立に学習され, 両方向のアラインメント結果をヒューリスティックに結合し決定される. Yangらの研究においても,FFNNに基づくモデルは独立に学習されている (Yang et al. 2013). 一方で, 各方向のモデルの合意を取るように同時に学習することで, アラインメント精度を改善できることが示されている. 例えば, Matusov らや Liang らは, 目的関数を「 $f \rightarrow e\rfloor$ と $\lceil\boldsymbol{e} \rightarrow \boldsymbol{f}\rfloor$ の 2 つのモデルのパラメータで定義し,2つのモデルを同時に学習している (Matusov et al. 2004; Liang et al. 2006). また, Ganchev らや Graça らは, EMアルゴリズムの Eステップ内で, 各方向のモデルが合意するような制約をモデルパラメータの事後分布に課している (Ganchev et al. 2008; Graça et al. 2008). そこで, 提案モデルの学習においても両方向の合意制約を導入し, それぞれのモデルの特定方向への過学習を防ぎ, 双方で大域的な最適化を可能とする.具体的には,各方向の word embedding が一致するようにモデルを学習する。これを実現するために, 各方向の word embedding の差を表すぺナルティ項を目的関数に導入し, その目的関数に基づいて各方向のモデルを同時に学習する: $ \underset{\theta_{F E}, \theta_{E F}}{\operatorname{argmin}}\left.\{\operatorname{loss}\left(\theta_{F E}\right)+\operatorname{loss}\left(\theta_{E F}\right)+\alpha\left.\|\theta_{L_{E F}}-\theta_{L_{F E}}\right.\|\right.\} $ ここで, $\theta_{F E}$ と $\theta_{E F}$ は, それぞれ, $\boldsymbol{f} \rightarrow \boldsymbol{e}$ と $\boldsymbol{e} \rightarrow \boldsymbol{f}$ のアラインメントモデルのパラメータ, $\theta_{L}$ は lookup 層のパラメータ( $L$ の重みであり word embedding を表す), $\alpha$ は合意制約の強さを制 師あり学習と教師なし学習の両方に導入可能である. 教師あり学習の場合は, 式 (13) の $\operatorname{loss}(\theta)$ として式 (7)を用い,教師なし学習の場合は式 (12)を用いる. 両方向の合意制約を導入した教師なし学習の手順をアルゴリズム 1 にまとめる. ステップ 2 で は,学習データ $\mathrm{T}$ からバッチサイズ分の $\mathrm{D}$ 個の対訳文 $\left(f^{+}, e^{+}\right)^{D}$ を無作為に抽出する. ステップ 3-1 と 3-2では, それぞれ, 各 $f^{+}$と $e^{+}$に対して, $l_{0}$ 正則化付き IBM モデル 1 (IBM1) が特定した翻訳候補の単語集合から無作為に単語をサンプリングすることにより,負例となる対訳文を $N$ 個 $\left(\left.\{e^{-}\right.\}^{N}\right.$ と $\left.\left.\{f^{-}\right.\}^{N}\right)$ 生成する (4.1節参照)、ステップ 4-1 と 4-2では, 特定の目的関数に従い,SGDにより各層の重み行列を更新する (4.1 節と 4.2 参照)。このステップでは, $\theta_{F E}$ と $\theta_{E F}$ の更新は同時に行われ,各方向の word embeddingを一致させるために, $\theta_{E F}$ は $\theta_{F E}$ の更新に, $\theta_{F E}$ は $\theta_{E F}$ の更新に制約を課している7. ## 5 評価実験 ## 5.1 実験データ 提案手法の有効性を検証するため, 単語アラインメントの精度及び翻訳精度の評価実験を行った. 単語アラインメントの評価実験は, NAACL 2003 の shared task (Mihalcea and Pedersen 2003) で使われた Hansardsデータにおける仏英のタスク (Hansards) と, Basic Travel Expression Corpus (BTEC) (Takezawa, Sumita, Sugaya, Yamamoto, and Yamamoto 2002)における日英のタスク $\left(I W S L T_{a}\right)$ で実施した。翻訳精度の評価実験は, IWSLT 2007 における日英翻訳タスク (Fordyce 2007) (IWSLT), 新聞データから作成された FBISコーパスにおける中英翻訳タスク (FBIS),NTCIR-9 及び NTCIR-10における日英特許翻訳タスク (Goto, Lu, Chow, Sumita, and Tsou 2011; Goto, Chow, Lu, Sumita, and Tsou 2013) (NTCIR-9, NTCIR-10) で行った. 表 1 に各タスクで使用する対訳文の数を示す.「Train」は学習データ,「Dev」はディベロップメントデータ,「Test」はテストデータを表す. IWSLT X $_{a}$ 及び IWSLTの実験データは共に BTEC $ 回目の $\theta_{E F}^{t}, \theta_{F E}^{t}$ の更新の際には,それぞれ, $t-1$ 回目に更新された $\theta_{F E}^{t-1}$ と $\theta_{E F}^{t-1}$ が制約として使われ,更新中の $\theta_{E F}^{t}$ , $\theta_{F E}^{t}$ はお互いに依存しないことに注意されたい。 $\theta_{E F}^{t}$ と $\theta_{F E}^{t}$ をお互いに依存させて同時に最適化する学習もあり得るが, 今後の課題としたい。 } 表 1 実験データのサイズ(対訳文数) のデータであり, IWSLT ${ }_{a}$ の実験デー夕は, IWSLT の学習データのうち, 単語アラインメントが人手で付与された 9,960 対訳文である (Goh, Watanabe, Yamamoto, and Sumita 2010). 9,960 の対訳文の最初の 9,000を学習データ, 残りの 960 をテストデータとした. IWSLT ${ }_{a}$ の学習デー 夕は単語アラインメントが付与されているラベルあり学習データであるのに対し, Hansardsの学習データは単語アラインメントが付与されてないラベルなし学習データである. Hansards 及び IWSLT $T_{a}$ のアラインメントタスクでは, 各アラインメントモデルのハイパーパラメータは学習データの一部を用いた 2 分割交差検証により予め決定し,ディベロップメントデータは使わなかった8. また, NAACL 2003 の shared task オリジナルの学習データの総数は約 110 万文対あるが,今回の Hansardsの実験では,学習時の計算量を削減するため, 無作為にサンプリングした 10 万文対を学習データとして用いた.大規模データの実験は今後の課題とする.FBISでは, NIST02 の評価データをディベロップメントデータとして使い, NIST03 と NIST04 の各評価データでテストした。 ## 5.2 実験対象 評価実験では,提案手法である RNN に基づくモデルに加え, ベースラインとして, IBM モデル 4 と FFNNに基づくモデルを評価した。また, 単語アラインメントタスクにおける合意制約の有効性を考察するため, ベースラインとして, 典型的な HMM に基づくアラインメントモデル 両方向の合意制約 (Liang et al. 2006) を導入したモデル $\left(H M M_{\text {joint }}\right.$ ) も評価した. IBM モデル 4 は, IBM モデル 1-4 と HMM に基づくモデルを順番に適用して学習した (Och and Ney 2003).具体的には, IBM モデル 1, HMM に基づくモデル, IBM モデル $2,3,4$ をこの順で 5 回ずつ繰り返した $\left(1^{5} H^{5} 3^{5} 4^{5}\right)$.これは, GIZA++のデフォルトの設定である $(I B M 4) . H M_{\text {indep }}$ 及び ^{8} I W S L T_{a}$ の学習データの最初の 2,000 文を用いた 2 分割交差検証で最適なパラメータを用いた. $I W S L T_{a}$ 以外のデータに対してもこの検証により得られたパラメータを使った. ディベロップメントデータを使った各タスクでのパラメータ調整は今後の課題としたい. } $H M M_{\text {joint }}$ は BerkleyAligner ${ }^{9}$ を用いた. Liang らの通り,IBM モデル 1,HMM に基づくモデルを順番に 5 回ずつ繰り返し,各モデルを学習した(Liang et al. 2006). FFNNに基づくモデルでは, word embeddingの長さ $M$ を 30 , 文脈の窓幅を 5 とした. したがって, $\left|z_{0}\right|$ は $300=30 \times 5 \times 2$ である。また, 隠れ層として, ユニット数 $\left|z_{1}\right|$ が 100 の層を 1 層使用した. この FFNN に基づくモデルは, (Yang et al. 2013) に倣って 2.2 節の教師あり手法により学習したモデル $F F N N_{s}$ に加えて, 4.1 節と 4.2 節で提案した教師なし学習や合意制約の効果を確かめるため, $F F N N_{s+c}$, $F F N N_{u}, F F N N_{u+c}$ のモデルを評価した.「 $s$ 」は教師ありモデル, 「u」は教師なしモデル, $\lceil+c\rfloor$ は学習時に合意制約を使うことを意味する.RNNに基づくモデルでは, word embedding の長さ $M$ を 30 , 再帰的に連結している隠れ層のユニット数 $\left|y_{j}\right|$ を 100 とした. したがって, $\left|x_{j}\right|$ は $60=30 \times 2$ である. また, 提案の学習法の効果を検証するため, FFNNに基づくモデル同様, $R N N_{s}, R N N_{s+c}, R N N_{u}, R N N_{u+c}$ の 4 種類を評価した. FFNNに基づくモデル及び RNNに基づくモデルの各層のユニット数や $M$ などのパラメータは, 学習データの一部を用いた 2 分割交差検証により予め設定した. $\mathrm{NN}$ に基づくモデルの学習について説明する。まず,各層の重み行列を初期化する.具体的には, lookup 層の重み行列 $L$ は, 局所解への収束を避けるため, 学習データの原言語側と目的言語側からそれぞれ予め学習した word embedding に初期化する。その他の重みは, [-0.1,0.1] のランダムな值に初期化する. word embedding の学習には, Mikolov らの手法 (Mikolov et al. 2010)を基にした RNNLM ツールキット10(デフォルトの設定)を用いる。その際,コーパスでの出現数が 5 回以下の単語は $\langle u n k\rangle$ に置き換える. 各重みの初期化後は, ミニバッチ SGDにより特定の目的関数に従って各重みを最適化する。本実験では, バッチサイズ $D$ を 100 , 学習率を 0.01 とし, 50 エポックで学習を終えた。また, 学習データへの過学習を避けるため, 目的関数には $l 2$ 正則化項(正則化の比率は 0.1)を加えた.教師なし学習におけるパラメータ $W, N$, $C$ は,それぞれ,100,50,0.001とし,合意制約に関するパラメータ $\alpha$ は 0.1 とした. 翻訳タスクでは, フレーズベース機械翻訳 (SMT) システム Moses (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constrantin, and Herbst 2007)を用いた。日本語の各文は ChaSen ${ }^{11}$, 中国語の各文は Stanford Chinese segmenter ${ }^{12}$ により単語へ分割した. その後, 40 単語以上の文は学習データから除いた. 言語モデルは, SRILM ツールキット (Stolcke 2002)により, modified Kneser-Ney スムージング (Kneser and Ney 1995; Chen and Goodman 1996) を行い学習した. IWSLT, NTCIR-9及び NTCIR-10では, 学習デー 夕の英語側コーパスから構築した 5 グラム言語モデル, FBISでは, English Gigaword の Xinhua  部分のデータから構築した 5 グラム言語モデルを使用した. 翻訳モデルは, 各単語アラインメント手法により特定されたアラインメント結果に基づいて学習した. SMT システムの各パラメータは,ディベロップメントデータを用いて MERT (Och 2003)によりチューニングした. ## 5.3 実験結果(単語アラインメント) 表 2 に各手法の単語アラインメントの精度を F1 值で示す. NN に基づく教師ありモデルに対しては,学習データに付与されている正しい単語アラインメントを学習したモデル (REF) と,IBM4で特定した単語アラインメントを学習したモデル (IBM4) の 2 種類の精度を示す. Hansardsの学習データには正しい単語アラインメントが付与されていないため,REFに対する実験は実施していない. 評価手順は,まず,各アラインメントモデルにより, $f \rightarrow e$ と $e \rightarrow f$ のアラインメントをそれぞれ生成する。その後,「grow-diag-final-and」ヒューリスティックス (Koehn, Och, and Marcu 2003)により,両方向のアラインメントを結合する。そして,その結合したアラインメント結果を F1 值で評価する,有意差検定は,有意差水準 $5 \%$ の符号検定で行った,具体的には,テストデータの各単語に対して, 他方の手法では不正解だが正しく判定したものを + , 他方の手法では正解だが誤って判定したものを - として, 2 手法の評価に有意な差があるかどうかを片側検定の符号検定で判定した. 表 2 中の「+」は, ベースラインとなる FFNN に基づくモデル $F F N N_{s}(R E F / I B M 4)$ との精度差が有意であることを示し, 「++」は, ベースラインの FFNNに 表 2 単語アラインメント精度 基づくモデル $F F N N_{s}(R E F / I B M 4)$ に加えてIBM4との精度差も有意であることを示す.また,正しい教師ラベルを使用するモデル $(R E F)$ と使用しないモデル( $R E F$ 以外)のそれぞれで最高の精度を太字で示す。 表 2 より, IWSLT ${ }_{a}$ と Hansardsの両タスクにおいて, 本論文の提案手法(RNNに基づくモデル, 教師なし学習, 合意制約) $R N N_{u+c}$ が最もアラインメント精度が高いことが分かる. 特に, ベースラインとの精度差は有意であることから, 本論文の提案を組み合わせることにより,従来手法より高いアラインメント精度を達成できることが実験的に確認できる。 次に, 本論文の各提案の個別の有効性について確認する。表 2 より, IWSLT ${ }_{a}$ と Hansardsの両夕スクにおいて, $R N N_{s / s+c / u / u+c}(I B M 4), R N N_{s / s+c}(R E F)$ は, それぞれ, $F F N N_{s / s+c / u / u+c}(I B M 4)$, $F F N N_{s / s+c}(R E F)$ よりも精度が良い. 特に, $I W S L T_{a}$ では, $R N N_{s}(R E F), R N N_{s}(I B M 4)$ と $F F N N_{s}(R E F), F F N N_{s}(I B M 4)$ とのそれぞれの性能差は有意であることが分かる. これは, RNN に基づくモデルにより長いアラインメント履歴を捉えることで, アラインメント精度が向上することを示しており,RNNを利用したモデルの有効性を確認できる.ただし,Hansardsにおいては,RNNの効果が少ない。この言語対による効果の違いについては 6.1 節で考察する. $I W S L T_{a}$ と Hansardsの両タスクにおいて, $R N N_{s+c}(R E F / I B M 4), R N N_{u+c}$ のアラインメン卜精度は, それぞれ, $R N N_{s}(R E F / I B M 4), R N N_{u}$ を上回っており, これらの精度差は有意であった. さらに, $F F N N_{s+c}\left(R E F / I B M_{4}\right), F F N N_{u+c}$ は, それぞれ, $F F N N_{s}(R E F / I B M 4), F F N N_{u}$ より有意にアラインメント精度が良い.この結果より, 教師ありと教師なしの両方の学習において,両方向の合意制約を導入することで FFNN に基づくモデル及び RNN に基づくモデルのアラインメント精度を改善できることが分かる。一方で, $H M_{\text {joint }}$ の方が $H M M_{\text {indep }}$ よりも精度が良いことから,提案の合意制約に限らず,両方向の合意をとるようにモデルを学習することは有効であることが確認できる.HMM に基づくモデルに導入した Liang らの両方向の合意制約と提案の合意制約の傾向の違いは, 6.2 節で考察する. $I W S L T_{a}$ では, $R N N_{u}$ と $R N N_{u+c}$ は, それぞれ, $R N N_{s}\left(I B M_{4}\right)$ と $R N N_{s+c}\left(I B M_{4}\right)$ より有意にアラインメント精度が良い。一方で, Hansardsでは, これらの精度は同等である。この傾向は FFNN に基づくモデルでも同様である。これは, 学習データの質(IBM4の精度)が悪い場合, 教師あり学習はIBM4による疑似学習データに含まれる誤りの悪影響を受けるのに対し, 提案の教師なし学習は学習データの質に依らずに精度の良い FFNN や RNN に基づくモデルを学習できることを示している。 ## 5.4 実験結果(機械翻訳) 表 3 に各手法により付与されたアラインメントを用いたSMT システムの翻訳精度を示す。評価尺度は,大文字と小文字を区別した BLEU4 ${ }^{13}$ (Papineni, Roukos, Ward, and Zhu 2002)を用いた.MERT の不安定な振る舞いの影響を緩和するため, MERT によるチューニングは 3 回行い,その平均値を表 3 に示す (Utiyama, Yamamoto, and Sumita 2009). IWSLTでは,アラインメントモデル及び翻訳モデルの学習には学習データ全てを用いた。一方で,NTCIR-9,NTCIR-10 と FBISでは,アラインメントモデルの学習における計算量を削減するため, 学習データから無作為にサンプリングした 10 万文対からアラインメントモデルを学習した. その後, 学習したアラインメントモデルにより学習データ全ての単語アラインメン卜を自動的に付与し, 翻訳モデルを学習した。また, 詳細な比較を行うため, 全学習データから学習したIBM モデル 4 に基づくSMT システムの精度をIBM4all として示す. 翻訳精度の有意差検定は, 有意差水準 $5 \%$ でブートストラップによる検定手法 (Koehn 2004) により行った.表 3 の「*」は, ベースライン(IBM4及び $F F N N_{s}\left(I B M_{4}\right) )$ と精度差が有意であることを示す.また,各タスクで最高精度(IBM4all を除く)を太字で示す. 表 2 と表 3 より, 単語アラインメント精度を改善しても, 必ずしも翻訳精度が向上するとは限らないことが分かる。この事は従来より知られており, 例えば, (Yang et al. 2013) においても同様の現象が確認されている。しかしながら, 表 3 より, 全ての翻訳タスクで, $R N N_{u}$ と $R N N_{u+c}$ は $F F N N_{s}(I B M 4)$ と IBM4よりも有意に翻訳精度がよいことが分かる.この結果から,提案手法は翻訳精度の改善にも寄与することが実験的に確認できる。また,NTCIR-9と FBISでは,提案モデルは学習データの一部から学習したが, 学習デー夕全てから学習した $I B M 4$ all と同等の精度を達成している。学習デー夕量の影響は 6.2 節で考察する. 表 3 翻訳精度 数值:BLEU4 (\%) ## 6 考察 ## 6.1RNNに基づくモデルの効果 図 3 に $F F N N_{s}$ 及び $R N N_{s}$ で解析した単語アラインメントの具体例を示す。 三角が $F F N N_{s}$ の解析結果, 丸が $R N N_{s}$ の解析結果, 四角が正しい単語アラインメントを表す. 図 3 より, $R N N_{s}$ は $F F N N_{s}$ と比較して, 複雑なアラインメント(例えば,図 3(a) 中の「have you been」に対するギザギザのアラインメント)を特定できていることが分かる。これは, $F F N N_{s}$ は直前のアラインメント履歴しか利用しないが, $R N N_{s}$ は長いアラインメント履歴に基づいてアラインメントのパス(例えば,フレーズ単位のアラインメント)を捉えられることを示唆している. 5.3 節で述べた通り, RNNに基づくモデルの効果は, 日英アラインメント $\left(I W S L T_{a}\right)$ と比べて仏英アラインメント (Hansards) に対して少ない. これは, 英語とフランス語は語順が似ていて, 日英に比べて 1 対 1 アラインメントが多く (図 3 参照), 仏英単語アラインメントは局所的な手がかりで捉えられる場合が多いためであると考えられる。図3(b) は, このような単純な単語アラインメントは, $F F N N_{s}$ と $R N N_{s}$ の両モデルで正しく解析できることを示している. 図 3 単語アラインメントの解析結果例 ## 6.2 学習データ量の影響 BTECにおける日英アラインメントタスクにおいて様々なサイズの学習データを使った時のアラインメント精度を表 4 に示す.「40 K」,「9 K」,「1 K」は, それぞれ, IWSLTの全学習デー 夕, IWSLT $T_{a}$ の全学習データ, IWSLT $T_{a}$ の全学習データから無作為に抽出した 1,000 文対を学習データとした時の,IWSLT $T_{a}$ のテストデータに対するアラインメント精度である.「9 K」及び「1 K」はラベルあり学習データ,「40 K」はラベルなし学習データである。そのため,教師ありモデル $(R E F)$ の「 $40 \mathrm{~K} 」 に$ 対する実験は実施していない. 表 4 より,「1 $\mathrm{K」の} R N N_{s+c}(R E F)$ と $\lceil 9 \mathrm{~K}\rfloor の R N N_{u+c}$ は $\lceil 40 \mathrm{~K} 」 の I B M 4$ より性能がよいことが分かる。 すなわち, RNNに基づくモデルは, IBM4の学習デー夕の $22.5 \%$ 以下 $(9,000 / 40,000)$ のデータから同等の精度を持つモデルを学習できたことが分かる. その結果, 表 3 が示す通り,学習データの一部を使った $R N N_{u+c}$ に基づくSMT システムが, 全学習データを用いた IBM4 all に基づくSMT システムと同等の精度を達成できる場合がある。 表 4 より, HMM に基づくモデルに導入した Liang らの両方向の合意制約は学習データが小規模なほど効果があることが分かる。一方で, 提案の合意制約は, Liang らの合意制約と比較すると精度の改善幅は小さいが, どのテータサイズにおいても同等の効果を発揮することが確認できる。 また, 各データサイズで 5.3 節と同様の手法の比較を行うと, 教師ラベルを使わない場合は 表 4 学習データ量による単語アラインメント精度の比較 $R N N_{u+c}$, 使う場合は $R N N_{s+c}(R E F)$ が最も性能が良い. そして, 本論文で提案した, $\mathrm{RNN}$ の利用,教師なし学習,合意制約の個別の有効性も確認できることから,データサイズに依らず提案手法が有効であることが分かる. ## 7 まとめ 本論文では,RNNに基づく単語アラインメントモデルを提案した,提案モデルは,隠れ層の再帰的な構造を利用し, 長いアラインメント履歴に基づいてアラインメントのパス(例えば,フレーズ単位のアラインメント)を捉えることができる。また, RNN に基づくモデルの学習法として, Dyerらの教師なし単語アラインメント (Dyer et al. 2011) を拡張して人工的に作成した負例を利用する教師なし学習法を提案した。そして, 更なる精度向上のために,学習過程に各方向の word embedding を一致させる合意制約を導入した。複数の単語アラインメントタスクと翻訳タスクの実験を通じて,RNN に基づくモデルは従来の FFNN に基づくモデル (Yang et al. 2013) よりアラインメント精度及び翻訳精度が良いことを示した。また, 提案した教師なし学習や合意制約により,アラインメント精度を更に改善できることを確認した。 提案モデルでは,アラインメント対象の文脈をアラインメント履歴 $\left(y_{i}\right)$ に暗示的に埋め込み利用しているが, 今後は, FFNN に基づくモデルのように周辺単語の入力 $\left(c\left(f_{j}\right)\right.$ や $c\left(e_{a_{j}}\right)$ ) として明示的に利用することも検討したい。また, Yangらは複数の隠れ層を用いることでFFNN に基づくモデルの精度を改善している (Yang et al. 2013). これに倣って提案モデルでも各隠れ層を複数にするなど,提案モデルの改良を行う予定である。 さらに,本論文では提案モデルにより特定したアラインメントに基づいて翻訳モデルを学習したが,翻訳モデル学習時の素性としてアラインメントモデルが算出するスコアを使用したり, Watanabe ら (Watanabe, Suzuki, Tsukada, and Isozaki 2006)のように翻訳候補のリランキングの中で使ったりするなど,提案モデルのSMT システムへの効果的な組み込み方に関しても検討したい. ## 謝 辞 本論文は国際会議 The 52nd Annual Meeting of the Association for Computational Linguistics で発表した論文 (Tamura, Watanabe, and Sumita 2014) に基づいて日本語で書き直し, 説明や評価を追加したものである. ## 参考文献 Auli, M., Galley, M., Quirk, C., and Zweig, G. (2013). "Joint Language and Translation Modeling with Recurrent Neural Networks." In Proceedings of EMNLP 2013, pp. 1044-1054. Bengio, Y., Ducharme, R., Vincent, P., and Janvin, C. (2003). "A Neural Probabilistic Language Model." Journal of Machine Learning Research, 3, pp. 1137-1155. Berg-Kirkpatrick, T., Bouchard-Côté, A., DeNero, J., and Klein, D. (2010). "Painless Unsupervised Learning with Features." In Proceedings of HLT:NAACL 2010, pp. 582-590. Blunsom, P. and Cohn, T. (2006). "Discriminative Word Alignment with Conditional Random Fields." In Proceedings of Coling/ACL 2006, pp. 65-72. Brown, P. F., Pietra, S. A. D., Pietra, V. J. D., and Mercer, R. L. (1993). "The Mathematics of Statistical Machine Translation: Parameter Estimation." Computational Linguistics, 19 (2), pp. 263-311. Chen, S. F. and Goodman, J. (1996). "An Empirical Study of Smoothing Techniques for Language Modeling." In Proceedings of ACL 1996, pp. 310-318. Collobert, R. and Weston, J. (2008). "A Unified Architecture for Natural Language Processing: Deep Neural Networks with Multitask Learning." In Proceedings of ICML 2008, pp. 160-167. Collobert, R., Weston, J., Bottou, L., Karlen, M., Kavukcuoglu, K., and Kuksa, P. (2011). "Natural Language Processing (Almost) from Scratch." Journal of Machine Learning Research, 12, pp. 2493-2537. Dahl, G. E., Yu, D., Deng, L., and Acero, A. (2012). "Context-Dependent Pre-trained Deep Neural Networks for Large Vocabulary Speech Recognition." IEEE Transactions on Audio, Speech, and Language Processing, 20 (1), pp. 30-42. Dempster, A. P., Laird, N. M., and Rubin, D. B. (1977). "Maximum Likelihood from Incomplete Data via the EM Algorithm." Journal of the Royal Statistical Society, Series B, 39 (1), pp. 1-38. Dyer, C., Clark, J., Lavie, A., and Smith, N. A. (2011). "Unsupervised Word Alignment with Arbitrary Features." In Proceedings of ACL/HLT 2011, pp. 409-419. Fordyce, C. S. (2007). "Overview of the IWSLT 2007 Evaluation Campaign." In Proceedings of IWSLT 2007, pp. 1-12. Ganchev, K., Graça, J. V., and Taskar, B. (2008). "Better Alignments = Better Translations?" In Proceedings of ACL/HLT 2008, pp. 986-993. Goh, C.-L., Watanabe, T., Yamamoto, H., and Sumita, E. (2010). "Constraining a Generative Word Alignment Model with Discriminative Output." IEICE Transactions, 93-D (7), pp. 1976-1983. Goto, I., Chow, K. P., Lu, B., Sumita, E., and Tsou, B. K. (2013). "Overview of the Patent Machine Translation Task at the NTCIR-10 Workshop." In Proceedings of 10th NTCIR Conference, pp. 260-286. Goto, I., Lu, B., Chow, K. P., Sumita, E., and Tsou, B. K. (2011). "Overview of the Patent Machine Translation Task at the NTCIR-9 Workshop." In Proceedings of 9th NTCIR Conference, pp. 559-578. Graça, J. V., Ganchev, K., and Taskar, B. (2008). "Expectation Maximization and Posterior Constraints." In Proceedings of NIPS 2008, pp. 569-576. Gutmann, M. and Hyvärinen, A. (2010). "Noise-Contrastive Estimation: A New Estimation Principle for Unnormalized Statistical Models." In Proceedings of AISTATS 2010, pp. 297-304. Kalchbrenner, N. and Blunsom, P. (2013). "Recurrent Continuous Translation Models." In Proceedings of EMNLP 2013, pp. 1700-1709. Kneser, R. and Ney, H. (1995). "Improved Backing-off for M-gram Language Modeling." In Proceedings of ICASSP 1995, pp. 181-184. Koehn, P. (2004). "Statistical Significance Tests for Machine Translation Evaluation." In Proceedings of EMNLP 2004, pp. 388-395. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constrantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of ACL 2007, pp. 177-180. Koehn, P., Och, F. J., and Marcu, D. (2003). "Statistical Phrase-Based Translation." In Proceedings of HLT/NAACL 2003, pp. 48-54. Le, H.-S., Allauzen, A., and Yvon, F. (2012). "Continuous Space Translation Models with Neural Networks." In Proceedings of NAACL/HLT 2012, pp. 39-48. Liang, P., Taskar, B., and Klein, D. (2006). "Alignment by Agreement." In Proceedings of HLT/NAACL 2006, pp. 104-111. Matusov, E., Zens, R., and Ney, H. (2004). "Symmetric Word Alignments for Statistical Machine Translation." In Proceedings of Coling 2004, pp. 219-225. Mihalcea, R. and Pedersen, T. (2003). "An Evaluation Exercise for Word Alignment." In Proceedings of the HLT-NAACL 2003 Workshop on Building and Using Parallel Texts: Data Driven Machine Translation and Beyond, pp. 1-10. Mikolov, T., Karafiát, M., Burget, L., Cernocký, J., and Khudanpur, S. (2010). "Recurrent Neural Network based Language Model." In Proceedings of INTERSPEECH 2010, pp. 1045-1048. Mikolov, T., Sutskever, I., Chen, K., Corrado, G., and Dean, J. (2013). "Distributed Representations of Words and Phrases and their Compositionality." In Proceedings of NIPS 2013, pp. 3111-3119. Mikolov, T. and Zweig, G. (2012). "Context Dependent Recurrent Neural Network Language Model." In Proceedings of SLT 2012, pp. 234-239. Mnih, A. and Teh, Y. W. (2012). "A Fast and Simple Algorithm for Training Neural Probabilistic Language Models." In Proceedings of ICML 2012, pp. 1751-1758. Moore, R. C. (2005). "A Discriminative Framework for Bilingual Word Alignment." In Proceedings of HLT/EMNLP 2005, pp. 81-88. Och, F. J. (2003). "Minimum Error Rate Training in Statistical Machine Translation." In Proceedings of ACL 2003, pp. 160-167. Och, F. J. and Ney, H. (2003). "A Systematic Comparison of Various Statistical Alignment Models." Computational Linguistics, 29, pp. 19-51. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: a Method for Automatic Evaluation of Machine Translation." In Proceedings of ACL 2002, pp. 311-318. Rumelhart, D. E., Hinton, G. E., and Williams, R. J. (1986). "Learning Internal Representations by Error Propagation." In Rumelhart, D. E. and McClelland, J. L. (Eds.), Parallel Distributed Processing, pp. 318-362. MIT Press. Smith, N. A. and Eisner, J. (2005). "Contrastive Estimation: Training Log-Linear Models on Unlabeled Data." In Proceedings of ACL 2005, pp. 354-362. Stolcke, A. (2002). "SRILM - An Extensible Language Modeling Toolkit." In Proceedings of ICSLP 2002, pp. 901-904. Sundermeyer, M., Oparin, I., Gauvain, J.-L., Freiberg, B., Schlüter, R., and Ney, H. (2013). "Comparison of Feedforward and Recurrent Neural Network Language Models." In Proceedings of ICASSP 2013, pp. 8430-8434. Takezawa, T., Sumita, E., Sugaya, F., Yamamoto, H., and Yamamoto, S. (2002). "Toward a Broad-coverage Bilingual Corpus for Speech Translation of Travel Conversations in the Real World." In Proceedings of LREC 2002, pp. 147-152. Tamura, A., Watanabe, T., and Sumita, E. (2014). "Recurrent Neural Networks for Word Alignment Model." In Proceedings of ACL 2014, pp. 1470-1480. Taskar, B., Lacoste-Julien, S., and Klein, D. (2005). "A Discriminative Matching Approach to Word Alignment." In Proceedings of HLT/EMNLP 2005, pp. 73-80. Utiyama, M., Yamamoto, H., and Sumita, E. (2009). "Two Methods for Stabilizing MERT: NICT at IWSLT 2009." In Proceedings of IWSLT 2009, pp. 79-82. Vaswani, A., Huang, L., and Chiang, D. (2012). "Smaller Alignment Models for Better Translations: Unsupervised Word Alignment with the $l_{0}$-norm." In Proceedings of ACL 2012, pp. 311-319. Vaswani, A., Zhao, Y., Fossum, V., and Chiang, D. (2013). "Decoding with Large-Scale Neural Language Models Improves Translation." In Proceedings of EMNLP 2013, pp. 1387-1392. Viterbi, A. J. (1967). "Error Bounds for Convolutional Codes and an Asymptotically Optimum Decoding Algorithm." IEEE Transactions on Information Theory, 13 (2), pp. 260-269. Vogel, S., Ney, H., and Tillmann, C. (1996). "Hmm-based Word Alignment in Statistical Translation." In Proceedings of Coling 1996, pp. 836-841. Watanabe, T., Suzuki, J., Tsukada, H., and Isozaki, H. (2006). "NTT Statistical Machine Translation for IWSLT 2006." In Proceedings of IWSLT 2006, pp. 95-102. Yang, N., Liu, S., Li, M., Zhou, M., and Yu, N. (2013). "Word Alignment Modeling with Context Dependent Deep Neural Network." In Proceedings of ACL 2013, pp. 166-175. ## 略歴 田村晃裕:2005 年東京工業大学工学部情報工学科卒業. 2007 年同大学院総合理工学研究科修士課程修了. 2007 年から 2011 年まで日本電気株式会社にて自然言語処理,特にテキストマイニングに関する研究に従事. 2011 年から 2014 年まで情報通信研究機構にて統計的機械翻訳に関する研究に従事. 2013 年東京工業大学大学院総合理工学研究科博士課程修了. 2014 年から 2015 年まで日本電気株式会社にてテキスト分類に関する研究に従事. 2015 年から情報通信研究機構の研究員, 現在に至る. 工学博士. 情報処理学会, 言語処理学会, ACL 各会員. 渡辺太郎:1994 年京都大学工学部情報工学科卒業. 1997 年京都大学大学院工学研究科情報工学専攻修士課程修了. 2000 年 Language and Information Technologies, School of Computer Science, Carnegie Mellon University, Master of Science 取得. 2004 年京都大学博士 (情報学)。ATR,NTT およびNICTにて研究員として務めた後, 現在, グーグル株式会社ソフトウェアエンジニア.隅田英一郎:1982 年電気通信大学大学院修士課程修了. 1999 年京都大学大学院博士 (工学). 日本アイ・ビー・エム東京基礎研究所, 国際電気通信基礎技術研究所を経て, 2007 年より国立研究開発法人情報通信研究機構に勤務, 現在, ユニバーサルコミュニケーション研究所副所長. 自動翻訳, e ラーニングに関する研究開発に従事. 2007, 2014 年アジア太平洋機械翻訳協会長尾賞, 2007 年情報処理学会喜安記念業績賞, 2010 年文部科学大臣表彰・科学技術賞(開 発部門), 2013 年第 11 回産学官連携功労者表彰-総務大臣賞. 情報処理学会,電子情報通信学会, ACL, 日本音響学会, ACM 各会員. (2015 年 6 月 16 日受付) (2015 年 8 月 12 日再受付) (2015 年 8 月 28 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# クラスタリングを利用した語義曖昧性解消の 誤り原因のタイプ分け 藤田 早苗 ${ }^{\dagger+1 \dagger \dagger} \cdot$ 佐々木 稔 $\dagger \cdot$ 古宮嘉那子 $\dagger \cdot$ 乾 孝司 ${ }^{\dagger+1+\dagger \dagger}$ } 語義曖昧性解消の誤り分析を行う場合,まずどのような原因からその誤りが生じて いるかを調べ,誤りの原因を分類しておくことが一般的である。この分類のために,分析対象データに対して分析者 7 人が独自に設定した誤り原因のタイプを付与した が, 各自の分析結果はかなり異なり, それらを議論によって統合することは負荷の 高い作業であった。そこでクラスタリングを利用してある程度機械的にそれらを統合することを試み,最終的に 9 種類の誤り原因として統合した. この 9 種類の中の 主要な 3 つの誤り原因により, 語義曖昧性解消の誤りの 9 割が生じていることが判明した。またタイプ分類間の類似度を定義することで,統合した誤り原因のタイプ 分類が,各自の分析結果を代表していることを示した。また統合した誤り原因の夕 イプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイ プ分類が標準的であることも示した. キーワード:語義曖昧性解消,誤り分析,クラスタリング ## Classification of Word Sense Disambiguation Errors Using a Clustering Method Hiroyuki Shinnou ${ }^{\dagger}$, Masaki Murata ${ }^{\dagger \dagger}$, Kiyoaki Shirai ${ }^{\dagger \dagger}$, Fumiyo Fukumoto ${ }^{\dagger \dagger \dagger}$, Sanae Fujita ${ }^{\dagger \dagger \dagger \dagger \dagger}$, Minoru Sasaki ${ }^{\dagger}$, Kanako KomiYa ${ }^{\dagger}$ and Takashi Inu ${ }^{\dagger \dagger \dagger \dagger \dagger \dagger}$ As a first step of word sense disambiguation (WSD) errors analysis, generally we need investigate the causes of errors and classify them. For this purpose, seven analysts classified the error data for analysis from their unique standpoints. Next, we attempted to merge the results from the analyses. However, merging these results through discussions was difficult because the results differed significantly. Therefore, we used a clustering method for a certain level of automatic merger. Consequently, we classified WSD errors into nine types, and it turned out that the three main types of errors covers $90 \%$ of the total WSD errors. Moreover, we showed that the merged  error types represented seven results and was standardized by defining the similarity between two classifications and comparing it with each analysis result. Key Words: Word Sense Disambiguation, Error Analysis, Clustering ## 1 はじめに Project Next NLP ${ }^{1}$ は自然言語処理 (NLP) の様々なタスクの横断的な誤り分析により,今後の NLP で必要となる技術を明らかにしようとするプロジェクトである。プロジェクトでは誤り分析の対象のタスクが 18 個設定され,「語義曖昧性解消」はその中の 1 つである. プロジェクトではタスク毎にチームが形成され,チーム単位でタスクの誤り分析を行った。本論文では,我々のチーム(「語義曖昧性解消」のチーム)で行われた語義曖昧性解消の誤り分析について述べる。特に,誤り分析の初期の段階で必要となる誤り原因のタイプ分けに対して,我々がとったアプローチと作成できた誤り原因のタイプ分類について述べる. なお本論文では複数の誤り原因が同じと考えられる事例をグループ化し,各グループにタイプ名を付ける処理を「誤り原因のタイプ分け」と呼び,その結果作成できたタイプ名の一覧を 「誤り原因のタイプ分類」と呼ぶことにする. 誤り分析を行う場合,(1) 分析対象のデータを定める,(2) その分析対象データを各人が分析する,(3) 各人の分析結果を統合し,各人が同意できる誤り原因のタイプ分類を作成する, という手順が必要である.我々もこの手順で誤り分析を行ったが,各人の分析結果を統合することが予想以上に負荷の高い作業であった.統合作業では分析対象の誤り事例一つ一つに対して,各分析者が与えた誤り原因を持ち寄って議論し,統合版の誤り原因を決定しなければならない. しかし,誤りの原因は一意に特定できるものではなく,しかもそれを各自が独自の視点でタイプ分けしているため, 名称や意味がばらばらな誤り原因が持ち寄られてしまい議論がなかなか収束しないためであった. そこで我々は「各人が同意できる誤り原因のタイプ分類」を各分析者のどの誤り原因のタイプ分類とも類似している誤り原因のタイプ分類であると考え,この統合をある程度機械的に行うために,各自が設定した誤り原因をクラスタリングすることを試みた。また,本論文では「各分析者のどのタイプ分類とも類似している」ことに対し,「代表」という用語を用いることにした.つまり,我々が設定した目標は「各分析者の誤り原因のタイプ分類を代表する誤り原因のタイプ分類の作成」である。クラスタリングを行っても,目標とするタイプ分類を自動で作成できるわけではないが,ある程度共通している誤り原因を特定でき,それらを元にクラスタリング結果を調整することで目標とする誤り原因のタイプ分類が作成できると考えた. ^{1} \mathrm{https}$ //sites.google.com/site/projectnextnlp/ } 具体的には,各自の設定した誤り原因を対応する事例を用いてべクトル化し,それらのクラスタリングを行った。そのクラスタリング結果から統合版の誤り原因を設定し,クラスタリング結果の微調整によって最終的に 9 種類の誤り原因を持つ統合版の誤り原因のタイプ分類を作成した.この 9 種類の中の主要な 3 つの誤り原因により, 語義曖昧性解消の誤りの 9 割が生じていることが判明した,考察では誤り原因のタイプ分類間の類似度を定義することで,各分析者の作成した誤り原因のタイプ分類と統合して作成した誤り原因のタイプ分類が,各分析者の視点から似ていることを確認した. これは作成した誤り原因のタイプ分類が分析者 7 名のタイプ分類を代表していることを示している。また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した. ## 2 分析対象データ 誤り分析用のデータは SemEval-2 の日本語 WSD タスクから作成した (Okumura, Shirai, Komiya, and Yokono 2011). SemEval-2 のデー夕は対象単語が 50 単語あり, 各対象単語に対して50 個の訓練用例と 50 個のテスト用例が存在する。また用例中の対象語には岩波国語辞典 (西尾, 岩淵, 水谷 1994) の語義が付与されている。つまり語義識別のラベルは岩波国語辞典の語義である. まず SemEval-2 のコンぺの際に baseline とされたシステムを構築した. 以降,本論文ではこのシステムを「分析用システム」と呼ぶ。学習アルゴリズムは SVM であり, 以下の 20 種類の特徴量を利用する. baseline システムは分類語彙表 ID の 4 桁と 5 桁を同時に使う形になっていたが,分析用システムでは 5 桁のみとした。また一般に一つの単語に対しては複数の分類語彙表 ID が存在するので, e17,e18,e19,e20 に対する素性は複数になる場合もある. 例として, 以下の用例(「息子とその婚約者に会っていこうかと考えた」)2に対する素性リストを示す. 対象単語は記号 $(*)$ のついた「あう」である.  対象単語の一つ前の単語表記は「に」なので, 'e4=に’,となる.この単語の品詞情報から 'e5=助詞', 'e6=格助詞, となる. 同様にして e1 から e15 が設定できる. また用例は CaboCha ${ }^{3}$ により係り受けの解析がなされ, 対象単語を含む文節の最も近い係先の単語の原形が e16 に設定される。この場合は'e16=いく’となる。次に二つ前の単語「者」に対する分類語彙表 ID は $1.1000,7,1,2$ と 1.2020,1,1,4であり. 前者から上位 5 桁を取ると 11000 となり, 後者から上位 5 桁を取ると 12020 となる。そのため e17 は‘e $17=11000$ ’ととe $17=12020 ’ の 2$ づ設定される. 一つ前の単語「に」と一つ後の単語「て」は助詞なので分類語彙表 ID は無視する。二つ後の単語「いこう」に対する分類語彙表 ID は $2.3000,6 \mathrm{~A}, 2,1$ と $2.3320,5,1,2$ から 'e20=23000' と‘ $\mathrm{e} 20=23320$ ’ が設定される ${ }^{4}$. 以上より,上記用例の素性リストは以下となる. ( e1=者, e2=接尾辞, e3=名詞的, e4=に, e5=助詞, e6=格助詞, e7=会っ, e8=動詞, $e 9=$ 一般, $e 10=$, $e 11=$ 助詞, e12=接続助詞, e13=いこう, e14=動詞, e15=非自立可能, e16=い< , e17=11000, e17=12020, e e20=23000, e20=23320) 「あう」の訓練データの 50 用例を全て素性リストに直し,その要素の異なり数 $N$ を次元数とした $N$ 次元べクトルを設定する ${ }^{5}$. 訓練データとテストデータの用例を素性リストに変換し, ^{3}$ http://taku910.github.io/cabocha/ 4 これは間違いである. 正しくは「いこう」の原形「いく」に対する分類語彙表 ID を与えなくてはならない. 分析用システムでは baseline システムを忠実に再現したためこのような不備も生じている. 5 この例の場合, $N=335$ であった. } $N$ 次元ベクトルの $i$ 次元目に対応する要素が存在すれば $i$ 次元の値を 1 に, 存在しなければ 0 とすることで,その素性リストは素性べクトルに変換できる。この素性べクトルを利用して SVM による学習と識別が可能となる.SVM の学習は libsvm ${ }^{6}$ の線形カーネルを用いた.指定できるパラメータは全て default のままである. SVM により識別した結果, テスト事例 2,500 のうち,誤りは 577 事例であった 7 . ここから新語義と未出現語義の事例を除くと 543 事例となった.ここからランダムに 50 個の事例を選出し, この 50 事例を誤り分析の対象事例とした. この 50 事例は付録 1 に記した. ## 3 各人の分析結果 前述した 50 事例の分析対象データに対して, 我々のチームのメンバーの内 7 名(村田, 白井,福本, 新納, 藤田, 佐々木, 古宮)が独自に誤り分析を行った. 分析結果として, 各人は分析対象の 50 事例に対して,各自が設定した誤り原因の記号をつけた。表 1 がその結果である. 各自の記号の意味やどのような観点で分析したかを以下に述べる. ## 3.1 村田の分析:解き方に着目 採用した誤り分析の考え方・方法論について述べる。普遍的な誤り分析を目指して,以下の誤り分析のフレームワークを用いる. ・ 誤り事例を人手で考察し,人ならそれを正しく解くにはどう解くかを考えて,その事例の解析に有効な特徴(解き方)を見つける。その特徴が学習デー夕にあるかを確認する. - 誤り分析の際には, 正解に至るまでの誤り原因をすべて網羅して調べる。これは, 複数の誤り原因が存在する場合があり,一つの原因だけを見つけるのでは誤り分析としては不十分な場合があるためである. 具体的な誤り分析の手順は以下のとおりである。まず, 各事例の対象単語の品詞を調べる.次に, 品詞を参考にして各事例の解き方を調べる。最後に, 解き方を参考にして各事例の誤り原因を調べる。 以降, 以上の方法論・手順に基づき行った調查結果について述べる。 まず各事例の対象単語の品詞を調べた. 品詞の出現数を表 2 に示す. 表の「記号」の列はその品詞のデー夕に付与した記号である. 次に各事例の解き方を調べた. 解き方はある程度対象語の品詞に依存する. このため対象語の品詞を考慮しながら,解き方を考える.各事例に解き方の夕グを付与する.解き方(解析に有効な特徴)の出現数を表 3 に示す。表の「記号」の列は, 実際に事例に付与したタグの記号  表 150 事例に対する各自の分析結果 である。夕グは一つの事例に複数重複してふられる場合がある.「解き方未判定」は,難しい事例で解き方が思いつかなかったものである。「文パターン」は,例えば「対象語の直前に『て』 がある文パターンの場合語義 Xになる」という説明が辞書にある場合があり,そのような文パターンを利用して解く方法である。「表現自身」は,例えば「対象語において漢字Xを使う場合は語義 Y になる」という説明が辞書にある場合がありそのような情報を利用して解く方法である。 次に各事例の誤り原因を調べた。各事例で付与した解き方のタグを参考にして,誤り原因を調べた。誤り原因の出現数を表 4 に示す。表の「記号」の列は,実際に事例に付与したタグの 表 2 品詞の出現数 表 3 解き方の出現数 表 4 誤り原因の出現数 記号である.夕グは一つの事例に複数重複してふられる場合がある. 表の「分析が困難」は, 分析が困難で分析を行っていないものを意味する。より綿密な作業により分析ができる可能性がある。「シソーラスの不備」は, シソーラスの不備の他, シソーラスでの多義性の解消が必要な場合を含む.「素性も学習データもあるのに解けていない」は, 解くときに役立つ素性も存在し, その素性を持つ学習データもあるのに解けていない場合である. その素性を持つ学習データの事例数が少ないか, 他の素性や学習データが悪さをした可能性がある.「格解析が必要」は, 能動文, 受け身文, 連体などの正規化や, 格の把握が必要な場合である。「入力文の情報が少なすぎる」は,入力文だけでは文が短く,その文だけでは語義識別ができない場合である.前後の文など,より広範囲の文脈の情報の入力が必要な場合である. 解き方の分類に基づき, いくつか誤り分析の事例を示す. 「格に取る名詞(対象語が用言の場合)」が解き方の場合を示す。対象語が用言の場合, 格に取る名詞が語義識別に役立つ表現となりやすい (村田, 内山, 内元, 馬, 井佐原 2003). 格に取る名詞を中心に眺めて誤り分析を行う. 事例 ID 3 の誤り事例を考察する。対象文は「‥悲鳴をあげながら…」で,対象単語は「あげる」である. 動詞「あげる」の格になっている「悲鳴」が語義識別に役立つ個所となる. 現在のデータでは対象データの「悲鳴」が分類語彙表の情報を持たない. 他のバージョンの分類語彙表には「悲鳴」の情報がある。「悲鳴」の類似事例「声」が多数学習データにある.シソーラスの情報をよりよく利用することで改善できる事例である.誤りの分類としては,「t: シソーラスの不備」を与えている。 意味ソート (村田, 神崎, 内元, 馬, 井佐原 2000) を使うと, 学習データに類似事例があるかどうかを簡明に知ることができる。「悲鳴」が存在する分類語彙表を利用して意味ソートを行った. 意味ソートとは, 単語群を分類語彙表の意味の順に並べる技術である.「あげる」の学習データにおいて,「あげる」のヲ格の単語を取り出し, その単語の意味ソートを行った。注目している単語「悲鳴」の近くの単語群での意味ソート結果は「13030010201: 顔 (545-0-1-1), 13031010101: 声 (545-0-1-2), 13031021203: 歓声 (545-0-1-2), 13031050102: 叫び声 (545-0-1-2), 13031050304: 悲鳴* (545-0-1-2), 13041060106: 顔 (545-0-1-1), 13061110102: 声 (545-0-1-2)」である. 単語の後ろの括弧にはその単語を含むデータの文の分類先を示し, 単語の前の数字はその単語の分類語彙表の番号である.今解析している単語には「*」の記号を付与している。意味ソートの結果では, 「叫び声」が類似事例としてあることがすぐにわかる. 「共起語(主に対象語が名詞の場合)」が解き方の場合を示す. 対象語が名詞の場合, 同一文の共起語が語義識別に役立つ表現となりやすい (村田他 2003). 同一文には共起語が多く存在するため, この場合の誤り分析は基本的に困難である。事例 ID 14 の誤り事例を考察する。対象文は,「事件で、鶴見署は二十一日現場で...」であり,対象単語は「現場」である.対象単語は名詞であるので, 共起語が役立ちやすく, この例では, 「事件」「署」が語義識別に役立つ. 今の素性では対象単語の前方 2 形態素, 後方 2 形態素しか素性に用いておらず, 同一文の単語すべては素性に使っていない,今の素性では,「事件」「署」が使えない,共起語の素性を使えるように素性を拡張する必要がある。学習デー夕を見たところ,共起語が重なる事例がなさそうであり,学習データ不足の問題もあるようだった。この事例には,誤りの分類としては,「f:素性の種類の不足」「d: 学習データの不足」を与えている. 「言い換え」が解き方の場合を示す。事例 ID 7 の誤り事例を考察する.対象文は,「“自己防衛の意味でも…であり, 対象単語は「意味」である. 正解語義は「表現や行為の意図・動機。」であり,システム出力の誤り語義は,「その言葉の表す内容。意義。」である.対象語の「意味」を「動機」に言い換えることが可能であることを認識できれば,正解語義「表現や行為の意図・動機。と推定できるようになると思われる。この事例には,誤りの分類としては,「p:言い換え技術が必要」を与えている8. ## 3.2 白井の分析:機械学習の素性の問題を中心に まず,誤り分析の考え方について述べる。特に着目したのは機械学習の素性の問題である. テスト文から抽出された素性に不適切なものがないか, テスト文の素性と同じものが訓練デー 夕に出現するか, 有力な手がかりとなる情報で素性として表現できていないものはないか, といった観点から分析を進めた。それ以外にも誤り原因と考えられるものは全て洗い出した。 誤り原因のタイプ分類を図 1 に示す. 大きくは手法の問題, 前処理の問題, 知識の問題, デー 図 1 白井による誤り原因のタイプ分類  夕の不備, 問題設定の不備に分類し, これらをさらに細かく分類した。図中の()はそれぞれの要因に該当する誤り事例の数, [] は分析対象とした 50 事例に占める割合である ${ }^{9}$. 枠内の数字は付録 2 に記載されている誤り原因 IDに対応する。 【手法の問題】は機械学習手法に関する問題が見つかった事例である.【訓練データの不足】 は, 他に手がかりとなる情報がある場合 10 と, テスト文に類似した事例が訓練デー夕にないと語義を識別しようがない場合(【他に手がかりなし】)に分けた.後者の多くは定型的な言い回しで語義が決まる事例である。例えば,「指揮を火とる*」は決まり文句に近く,この文が訓練デー 夕にないと「とる」の語義を決めるのは難しい.【素性抽出が不適切】は表 5 のような文の正規化をした上で素性を抽出するべき事例である。【有効な素性の不足】は,語義曖昧性解消の手がかりとなる情報が素性として利用されていない場合である。分析用システムでは最小限の素性しか使用していないため, トピック素性(スポーッや事件といったトピックの文内に出現するということで語義が決まる事例があった), 文脈中の自立語, 構文素性など, 先行研究で既に使われている素性の不足も分類されている。 また,【長いコロケーション】とは, 分析用システムでは前後 2 単語を素性としていたが,対象語からの距離が 3 以上の単語で語義が決まる場合である。【素性のコーディングが困難】とは, 語義を決める手がかりは発見できたが, 高度な言語処理や推論を必要とし, 機械学習の素性として表現することが難しい事例である. 文の深い解釈が必要な場合(【文の解釈】)と文章全体の解釈が必要な場合(【文脈の解釈】)に分けた.【学習アルゴリズムの問題】とは, 語義曖昧性解消に必要な素性は抽出できていて, 類似用例も訓練デー夕に存在するが, SVM で学習された分類器では正解を選択できなかった事例である。他の機械学習アルゴリズムなら正しく解ける可能性がある.【消去法】とは, 該当しない語義を除外することで正解の語義がわかる事例を指す。例えば「かえって医師の処方を経ないで入手できる*市場*が生じている」という文での「市場」は,21128-0-0-1の意味(野菜などを得る市場) でもなければ 21128-0-0-3 の意味(株式市場)でもないことから,21128-0-0-2 の意味(売行き先)とわかる.このような事例は教師あり学習とは別の枠組で解く必要があるかも知れない. 【前処理の問題】は前処理の誤りに起因する事例である.【知識の問題】は外部知識の不備 表 5 【素性抽出が不適切】の細分類  が誤りの原因となっているものである.【データの不備】はタグ付けされた語義の誤りである.【問題設定の不備】に分類したのは, 対象語の解析対象文における品詞と辞書見出しにおける品詞が一致せず,そもそも対象語として不適切であった事例である。今回の分析では上記は少数の事例しか該当しなかったが,多くの外部知識を用いたり,文節の係り受け解析など多くの前処理を必要とするシステムでは, これらの原因ももっと細かく分類する必要があるだろう. 教師あり学習に基づく手法を用いるという前提で,今後語義曖昧性解消の正解率を向上させるには,【訓練デー夕の不足一他に手がかりなし】に分類した事例が多いことから, 訓練データを自動的または半自動的に拡充するアプローチが有望である。また,【素性抽出が不適切】や 【有効な素性の不足】で考察した問題点に対応することも考えられる. ただし, 表 5 に示すような正規化の処理を導入しても誤った解析結果が得られたり, 単純に素性を追加しても素性数が多すぎて過学習を引き起こすなど,単純な対応だけでは語義曖昧性解消の正解率の向上に結びつかない可能性もあり, 深い研究が必要であろう.また,【素性のコーティングが困難】に分類した事例は,現時点での言語処理技術では対応が難しい事例だが,誤り原因の $20 \%$ 程度を占めており,軽視できない.これらの事例に対応することは,チャレンジングではあるが,必要であると考える。 ## 3.3 福本の分析:解消に必要となる知識・処理に着目 語義曖昧性解消に必要となる知識に着目し, 分析対象の 50 事例について誤りの原因を分析した.まず, 語義識別に必要となる知識が (1) 語義曖昧性解消夕スク内か, (2) 語義曖昧性解消夕スク外かで大別した。 さらに (2) 語義曖昧性解消タスク外については, 語義曖昧性解消の前処理として必要となる形態素解析など, 他の言語処理タスクで得られる知識にも着目し, それらに関する影響の有無を調査した。誤り原因のタイプ分類を以下に示す。括弧は各誤り原因に該当する事例数とその割合((1)と $(2)$ での割合, 及び各詳細項目での割合)を示す.また, “*” で囲まれた単語は語義識別の対象単語を示す. (1) 語義曖昧性解消タスク内の問題(40 事例, $80 \%$ ) (a) 語義の記載がない.(1 事例, $2.5 \%$ ) 「くもりを*取る*」というテスト事例において,「くもり」に関する語義情報が分類語彙表に存在しないため, 「くもり」と「取る」での共起による語義識別が難しく,「取る」が訓練事例数の多い語義に識別されている. (b) テスト事例と類似した事例が,訓練事例中に存在しない。(11 事例, 27.5\%)訓練事例不足の問題である。例えば「見せて*あげる*事ですね。」のように,動詞 て識別されている. (c)テスト事例の語義が,訓練事例中では低頻度で出現している。(4事例, 10\%) 語義の分布に片寄りがあるものの,対象としているテスト事例中の語義の特徴と高頻出の語義が持つ特徴との区別が困難であるために,低頻出の語義であるテス卜事例の語義が正しく識別できない.例えば「私の*場所*だ!」であるテスト事例が該当し,「ところ.場」の意味の訓練事例は 49 事例,正解語義である「居るところ」は 1 事例であるために,「ところ。場」に誤って識別されている. (d) 解消に必要な情報が欠如している。(10 事例,25\%) この誤り原因に相当する事例として,例えばテスト事例「*相手*をすべて倒した」 において,「倒した」(行為)の対象が「*相手*」(人)であることから,共起関係を利用することにより「*相手*」が「自分と対抗して物事を争う人」に識別可能である。しかし語義の前後 2 単語というウィンドウサイズの制限により,識別に必要な「倒した」に関する情報(素性)が欠如している. (e)語義同士の意味が互いに類似しているために,識別が非常に難しい。(14 事例, $35 \%$ ) この誤りは,誤り原因の中で最も多くの事例が相当した誤りである。「発音を*教え*てください。」などのように,「侾え*」が「知識や技能を身につけるように導く」という語義か,正解である「自分の知っていることを告げ示す」か,両者の語義が類似しているために識別が難しい. (2)語義曖昧性解消タスク外の問題(10 事例,20\%) (a) 形態(語義を含む)(7 事例) (i) 形態素解析における品詞推定誤り。(2 事例,20\%)識別の対象単語と共起して出現する単語の品詞が誤って識別されているために,品詞,及び共起関係の情報が利用できないという問題である。例えば,ひらがな表記の「神のみ*まへ*の」において形態素解析において「御前」と認識されていない. (ii) テスト事例の単語について,その同義語・類義語に関する情報が辞書に揭載されていない。(3 事例, $30 \%$ ) この誤りは,例えば「悲鳴を*あげ*ながら」というテスト事例において,訓練事例中に存在する「歓声」が「悲鳴」と意味的に類似していることが分類語彙表に記載されていれば,「悲鳴」と「あげる」との共起関係により識別が可能であると考えられる。 (iii) 識別の対象となっている単語と共起している単語に曖昧さが存在している. (1 事例, 10\%) 例えば「レベリングは*技術*がいる」というテスト事例において,「技術」 と共起関係にある「いる」は「必要である」という語義と「豆などを煎る」 という語義が存在する。分類語彙表の情報として「豆などを煎る」が素性としてテスト事例に付与されているため, 共起の語彙情報を利用することができない. (iv) 慣用句表現の認識(1 事例,10\%)「めどが*立つ*。」が相当する.識別の対象となっている単語を慣用句表現として認識する必要がある. (b) 構文(1 事例, 10\%) (i) 複合名詞の認識 「国際*電話*」の事例のように, 複合名詞が正しく認識されず, 識別の対象単語である「*電話*」が複合名詞の一部として出現している. (c) 文脈(2 事例, $20 \%$ ) (i) 省略語の補完 例えば「*開い*たときに請求書ご案内が上に来るように入れます。」のように, 対象単語である「開く」の主語が省略されているため, 共起関係など,語義識別に必要な情報が利用できない. 語義曖昧性解消タスク内の誤り原因に相当する事例は 40 事例であり,夕スク外の事例は 10 事例であったことから,誤りの多くは語義曖昧性解消の処理方法に問題があると考えられる.語義曖昧性解消内の誤り原因のうちの 6 事例は, 既存の学習手法や統計手法の工夫により語義を正しく識別できた。一方, 例えば上述した (1)における (e)の「*教え*てください」や,「島がびっしょり濡れているようにさえ*見え*た」における「見え」が (a)「目にうつる」,(b)「そう感じ取れる」において,(a) と識別するために必要となる素性が何かを明かにすることが難しい事例も存在した。文内に限定した語彙・語義情報を用いた手法の限界であり,今後は文外に存在する情報,例えば分野に依存した主要語義に関する情報とも組み合わせることにより,語義曖昧性解消を行う方法なども考えられる. 今後のさらなる調査と検討が必要である. ## 3.4 新納の分析:手法の問題の機械的排除 採用した誤り分析の考え方・方法論について述べる。基本的に, 自身の誤り原因のタイプ分類を作成し, 分析対象の各誤り事例に設定した誤り原因のタイプを付与した。特徴としては「手法の問題」という誤り原因を設定したことである。ここでの分析対象のデータはSVM を利用した場合の誤りである.SVM を利用したために生じる誤りは分析の重要度が低いと考えた。 そこで SVM 以外の他の学習手法を試し, SVM 以外の 2 つ以上の学習手法で正解となるような (SVM での)誤りの事例の誤り原因を「手法の問題」として機械的に取り除いた. 残された誤り事例に対してのみ,その誤り原因を精査するアプローチを取った。 設定した誤りの原因は,まず (1) 手法の問題, であり,それ以外に (2) 意味の問題, (3) 知識 の問題, 及び (4) 領域の問題, の計 4 タイプの誤り原因を設けた。(2), (3), (4) については更に詳細化した,以下各タイプがどのような誤りかと,それをどのように判定したかを述べる。 ## 3.4.1 手法の問題 分析対象のデータは, 学習手法として SVM を使った場合の誤りであり, 他の手法を用いた場合には誤りにならないこともある. ここでは最大エントロピー法 (ME), Naive Bayes 法 (NB),決定リスト (DL), 及び最大頻度語義 (MFS)の 4 つを試した. まず各手法の SemEval-2 のデータに対する正解率を表 6 に示す. SVM が最も正解率が高いが,他の手法の正解の事例を完全にカバーしているわけでない.表 7 に正解の事例の差分を示す. 表 7 は行が誤りを,列が正解を表している。例えば行 $($ NB- $\times$ ),列(ME-O)の要素は 98 であるが,これは NB で誤りであった事例のうち ME では正解であった事例数が 98 存在したことを意味する。表 7 から分かるように,手法 A が手法 B よりも正解率が高いからといって, 必ずしも, 手法 B が正解していた事例すべてを手法 A が正しく識別できる訳でない.これは手法を選択した際に生じる副作用であり, 誤りの 1 つの原因であると考えられる。そして,ここではSVM では誤りだが,他の 2 つ以上の手法で正解となっていた誤りの事例を「手法の問題」(記号 4)と判定した. 表 7 は SemEval-2 のデータ全体での事例数を示している. 2 つ以上の手法で正解であった事例の数は 198 であったが,誤り分析の対象とした 50 事例に限れば 8 事例が該当した。これらを 「手法の問題」と分類した. ## 3.4 .2 意味の問題 語義曖昧性解消の問題設定自体に誤りの原因があると考えられるものを「意味の問題」と判定した。この下位分類として (a) 辞書の語義が似ていて識別困難(記号 1-a),(b) 深い意味解 表 6 各手法の SemEval-2 の正解率 (\%) 表 7 手法間の差分 析が必要(記号 1-b),(c) 表現自体からしか識別できない(記号 1-c), 及び (d) テスト文の問題(記号 $1-\mathrm{d}$ ),の 4 つを設けた。 語義曖昧性解消の問題設定では, 対象単語の語義が固定的に与えられる。 ある対象単語が持つ複数の語義は, 明確に異なる場合もあるが, 非常に似ている場合もある。もしある語義 $\mathrm{s} 1$ と $\mathrm{s} 2$ が非常に似ている場合,それらを区別することは明らかに困難であり,それらを取り違えた誤りの原因は,問題自体の困難性から生じていると考えた。このようなタイプの誤りを「(a) 辞書の語義が似ていて識別困難」とした。 例えば事例 27 は対象単語「強い」の語義 34522-0-0-1 「積極的に働く力にあふれている.」と語義 34522-0-0-2「抵抗力に富み,簡単には壊れたりくずれたりしない.」を区別する問題たが,どちらの語義も互いの意味を想起させるため,意味的に非常に似ていると判断した. 上記の (a) のタイプであっても深い意味解析が可能であれば解決できるものを「(b) 深い意味解析が必要」とした. 例えば事例 1 は対象単語「相手」の語義 117-0-0-2「物事をするとき, 行為の対象となる人.」と語義 117-0-0-3 「自分と対抗して物事を争う人.」を区別する問題である.「争う人」も「行為の対象となる人」であることは明かであり,意味的には非常に近く (a) である。ただしその「行為」が「争い」なのかどうかを深い意味解析で判断できれば解決できるため,「(b) 深い意味解析が必要」のタイプと判定した。(a)のタイプでかつ (b) であるかどうかは,「深い意味解析」の深さの度合いである。技術的に可能なレべルの深さと思えれば (b) をつけた。 次に「(c) 表現自体からしか識別できない」のタイプであるが, これは語義曖昧性解消の問題として不適と思えるものである。例えば慣用表現中の単語に語義が存在していると考えるのは不自然である。また語義曖昧性解消の問題では, 対象単語が自立語であることは暗黙の了解である。つまり単語の品詞自体が名詞や動詞であっても, その単語が機能語に近いものであれば,語義曖昧性解消の問題として不適と考えられる。このようなタイプの誤りを「(c) 表現自体からしか識別できない」とした。例えば事例 21 の対象単語「する」,事例 48 の対象単語「やる」 を,このタイプの誤りとした。 最後に「(d) テスト文の問題」のタイプであるが,これは単純にテスト文に手がかりとなる単語がほとんどないために誤るものである。これは「意味の問題」ではないが,問題設定自体に誤りの原因があると捉え,この範疇に含めた。例えば事例 10 の「*教え*て下さい.」などがこのタイプの誤りである。 ## 3.4.3 知識の問題 語義曖昧性解消を教師あり学習により解決するアプローチをとった場合,前述した「手法の問題」「意味の問題」以外の誤りの原因は,システムに何らかの知識が不足していたためと考えられる。そこで「手法の問題」「意味の問題」以外の誤り原因を「知識の問題」と判定した. 不足している知識(解決のために必要としている知識)としては, 現状のシステムの枠組みから考え,(a) その表現自体が訓練データに必要(記号 2-a),(b) 周辺単語に同じ単語が必要(記号 2-b), 及び (c) 周辺単語に類似単語が必要(記号 2-c), の3つを設定した. 例えば事例 9 の「…待ち伏せて詫びを*入れる*振りをしながら‥」の「入れる」の語義の識別には「詫びを入れる」が訓練データに必要と考え「(a)その表現自体が訓練データに必要」 識別も「国際電話」が訓練データに必要だと考えた. また事例 32 の「どうすればくもりを*取る*ことが出来ますか?」の「取る」の語義は単語「くもり」が対象単語の周辺に存在することが必要と考え, 「(b) 周辺単語に同じ単語が必要」と判定した. (a) との差異は少ないが, (a) は慣用表現に近い表現であり, 単語間に別の単語が插入できない,態が変化できない,などの特徴があるが,(b) は「くもりをきれいに取る」や「きれいに取ったくもり」という表現が可能であり,慣用表現とは異なると考えた. また事例 45 の「…患者はどこの病院でも*診*て貪えない…のの「診る」の語義は対象単語の周辺に「病院」と類似の単語が存在することが必要たと考え,「(c) 周辺単語に類似単語が必要」と判定した. ## 3.4.4 領域の問題 語義曖昧性解消の誤りは上記までの項目のいずれかに該当すると考えられるが,特殊なケー スとして訓練データのコーパス内にはまれにしか出現しない表現が,テストデータとして出現したために生じる誤りが存在する。これは領域適応の問題であり,教師あり学習により問題解決を図った場合に必ず生じる問題である (Søgaard 2013). この原因の誤りを「領域の問題」と判定した(記号 3 -a)。例えば事例 4 や事例 42 はテスト文が古文であり,学習の対象であった領域とは異なっている。このような誤りを「領域の問題」と判定した. ## 3.5 藤田の分析:素性に着目 まず,採用した誤り分析の考え方について述べる。教師あり学習の場合, 適切なラベルと素性を得ることができればほぼ正しく識別可能だと考えられる。適切な素性があるにも関わらず誤りになる場合, 素性に付与する重みが適切ではないなど,学習器側の問題だと考えることができる。そこで,当初は,適切な素性があるかどうか,あるならば,素性に対する重みの付与などが適切かどうかを調査することを考えた。ただし,そもそも適切な素性が得られていないものが大半だったため, 最終的には重みの適切さについての詳細な調査は行わず,素性を増やした場合でも誤りとなる事例について, 原因と対処方法について考察した. 以下, 3.5.1 節では, 分析対象の 50 事例に対して, 素性の重なりに着目した分析を示す.さらに,3.5.2 節では, 自前の語義曖昧性解消システムを用いて分析対象の 50 事例の語義識別を 行い,そのシステムでも誤りとなった 16 事例についての詳細な分析結果を示す. 最後に 3.5 .3 節で,語義曖昧性解消というタスクを考える上で,今後考えるべき問題点について考察する. ## 3.5.1素性の重なりの調査 まず,分析用システムの出力語義(以下,SYS)と正解語義(以下,COR)が付与された訓練データから得られる素性と, 対象のテスト文から得られる素性の重なりを調査した. 例えば,事例 13 の場合, 対象テスト文の 19 種類の素性のうち, 10 種類は SYS と COR の両方の訓練データに出現し, 8 種類は両方に出現しない.差がある素性は, 1 種類('e $17=11950 , 2$語前の分類語彙表の値)のみであり,これは,SYSの訓練データのみに出現している,つまり, CORにのみ出現するような特徴的な素性は得られていないことがわかる. COR の訓練データにだけ存在する(手がかりになる可能性が高い)素性が存在するかどうかに着目すると,分析対象とした 50 事例のうち, CORの訓練データにだけ出現する素性がある 素性の不足に対応するには,学習データ自体を何らかの方法で増やすか,学習データが変わらない場合には,利用する素性を増やす必要がある. 分析用システムでは,与えられた訓練データだけを用いており,利用している素性も比較的少ない. しかし, 事例 13 の場合でも,同一文中に「ライン」や「経験」など,他に素性として有効そうな語があることから, ウインドウ幅を広げたり, Bag-of-words (BOW) を利用することでも正解となる可能性がある。また,分析用システムでは,辞書の例文を訓練デー夕として利用していないが,例文は重要な手がかりであり,簡便に追加できる訓練デー夕となり得る. そこで,次節では,例文などを訓練データに用いた自前のシステム ((Fujita and Fujino 2013).以降, このシステムを「藤田のシステム」と呼ぶ. ) の結果と比較し, 両方で共通する誤り事例に対して,誤り分析を行う. ## 3.5 .2 共通の誤り事例 まず,藤田のシステムの概要を説明する.藤田のシステムは, 2 段階に分けられる. Step-1 では,語義が付与されていない生コーパスの中から辞書の例文を含む文を抽出し,ラベルありデータとして自動獲得する,例えば,語義 15615-0-0-2 の例文「工事現場」を含む文として,例 (1) ${ }^{12}$ のような文をラべルありデータとして利用できる。特に人間用の紙の辞書の場合, 省スペー ス化のため,例文は非常に短いことが多い.Step-1 では,例文だけをラベルありデータとして追加するより,より長くて情報量の多い文を自動獲得できることが利点である.  (1)足場などを組み合わせて建設工事現場や各種工場のラインをつくる。 Step-2 では, ラベルありデータとラベルなしデータを訓練データとして, 半教師あり学習法 (ハイブリッド法, Maximum Hybrid Log-likelihood Expectation: MHLE, (Fujino, Ueda, and Nagata 2010)を適用する. MHLEでは,ラベルありデータで学習させた ME モデル(識別モデル)とラベルなしデータで学習させた NB モデル(生成モデル)を統合して分類器を得る. 素性は, 分析用システムで利用している素性以外に, 各語の原形, 前後 3 語以内の bigrams, trigrams, skipbigrams, 各対象語と同一文内に出現する全内容語の原形, トピック分類の結果 ${ }^{13}$利用している,ただし,係り受け情報 (e16) と分類語彙表の値 (e17-e20) は利用していない. もちろん, 藤田のシステムを利用した場合, 正解になるばかりではなく, 逆に分析用システムでは正解だったテスト文が不正解になる場合もあるが, 本節では両者の共通の誤り事例を取り上げる。分析対象の 50 事例の内, 藤田のシステムでも誤った事例は 16 事例であった. その分析結果を表 8 に示す. 表 8 から, $[\mathrm{A}][\mathrm{B}]$ は両手法で解くことは困難だと考えられる。 [C][D] は素性の問題だが, $[\mathrm{C}]$ の場合は, 両手法で採用していない項構造解析 (Semantic Role Labeling, SRL (Gildea and Jurafsky 2002))を正しく行うことができれば,正解となる可能性がある。なお, これらの対象語はすべて動詞であり,動詞の語義曖昧性解消には,SRLが特に重要であることがわかる,たたし,係り受け解析誤りも含まれる誤り事例については, 係り受け解析の精度向上により正解できる可能性もある. 一方, [D] の場合, 利用した素性が不適切だったり, 少なすぎたと考えられるので,適切な素性を取り出したり,利用素性を増やすことで正解できる可能性がある. しかしながら, [D] は藤田のシステムでも誤りとなっている。 [D] の誤り事例について, 3.5.1 表 8 共通した誤り事例の分析 & Difficult & & 9 & 人間でも識別が困難 \\ ^{13}$ Gibbs サンプリングを用いたトピック分類 (http://gibbslda.sourceforge.net/)を行い,分類されたトピック番号を利用. } 節と同様, 藤田のシステムで得られた素性の重なりを調べると, 訓練データの追加 ${ }^{14}$ と BOW 等の利用にも関わらず,少なくともラベルありデータにおいて,CORにのみ出現した素性はなく,逆にSYSにのみ出現した素性があるという結果だった。なお,両誤り事例とも,CORの語義は元の訓練デー夕にも,それぞれ 1 回と 4 回しか出現しない低頻度語義である. 両対象語は, 語義の頻度分布のエントロピー $\left(E(w)=-\sum_{i} p\left(s_{i} \mid w\right) \log p\left(s_{i} \mid w\right)\right.$. ここで, $p\left(s_{i} \mid w\right)$ は, 単語 $w$ の語義が $s_{i}$ となる確率。(白井 2003)) による難易度分類では, 低難易度の語に分類される。つまり,ある語義が圧倒的に多く出現するため低難易度の語に分類されるが,そうした語の低頻度語義の識別の難しさを示している. ## 3.5.3 考察 前節の分析結果をふまえ,重要だと考える点について考察する。 まず,従来の語義曖昧性解消の問題設定で今後取り組むべき課題として,以下の項目を上げる. (1)データの質の向上: 人手作成データの一貫性の担保が必要.(表 $8,[A]$ ) (2) 素性の追加: 特に動詞について, 係り受け精度の向上や項構造解析の組み迄みが必要. (表 $8,[\mathrm{C}]$ ) (3)ラベルありデータの追加等: 特に低頻度語義に対して対処方法の考案が必要. (表 $8,[\mathrm{D}]$ ) また, 今後の方向性として, 現在の語義曖昧性解消の枠組みにこだわらず, 他の夕スクでも利用されるには,どういった語義,どういった粒度で識別すべきか検討することが重要だと考える. 特に,そもそも人間にとっても識別が困難な語義(表 $8,[\mathrm{~B}]$ )の推定が必要なのか, アプリケーションや領域によって必要とされる語義の粒度や種類が異なるにも関わらず, 一律に扱ってよいのかどうか,といった点を考慮すべきだと考えている. ## 3.6 佐々木の分析:パターンの差異に着目 まず,ここでの誤り分析の考え方について述べる。注目したのは訓練データから得られるパターンとテスト事例から得られるパターンとの差異である。ここでいうパターンとは対象語の周辺に現れる素性(単語や品詞など)の組み合わせを指している。一般に教師あり学習では, 訓練データから得られるパターンの集合とテスト事例から得られるパターンとの比較によって識別処理が行われる。つまり誤りの原因はパターンの差異から生じると考えられる。 そして,その差異の原因として以下の 2 点に注目して誤り分析を行った. (1) 訓練データに不足しているパターン (2) 訓練データから抽出される不適切なパターン  (1) はテスト事例のパターンが訓練事例に含まれないことから生じる誤りに対応する。 (2) は識別に有効そうなパターンが訓練事例に存在しているにも関わらず生じている誤りに対応する. (2)は適切なパターンを抽出できていないことが原因だと考えた. 作成した誤り原因のタイプ分類を表 9 に示す. 分析対象の 50 事例に表 9 のタイプを付与するが,ここでは重複も許すことにした。以下,各誤り原因について述べる。「構文情報の不足」 はテスト事例の文の構造の情報を捉えていないことを表す。例えば,対象単語を含む単語間の係り受け関係を考慮した素性の不足, 格関係のような文の意味的構造を表現した素性の不足などが挙げられる。「考慮する単語の不足」は語義を識別できる特徴的な共起単語が少ないことを表す.テスト事例において対象単語の前後に出現する共起単語や訓練事例に出現する共起単語の特徴では語義を識別することが難しい場合をこのタイプの誤りとした.「パターンの一部が不足」は品詞情報など, 単語表層以外の特徴的な情報が不足していることを表す。語義を識別できる特徴には名詞や動詞などの特徴的な単語だけではなく, 接続する品詞によって語義が決定する場合もある. 助詞や助動詞といった品詞を含むパターンが大きく影響して誤りとなる場合をこのタイプの誤りとした.「概念情報の不足」は手がかりとして使う単語の上位・下位関係にある単語を利用していないことを表す。テスト事例において対象単語の前後に出現する共起単語に対し, 単語を表層形で利用すると訓練事例の単語と一致しないが, 外部辞書として概念体系を使うと同じ概念として一致する場合がある。同じ概念ではあるが概念体系を利用していないために誤って識別する誤りをこのタイプとした.「表記のずれ」は訓練事例に識別のためのパター ンは存在するが,異表記が原因で誤ったタイプである。「文が短く,手がかりがない」は文が短く, 特徴が捉えにくいことを表す。「再実験では正解した例」は誤り事例集合作成時は異なる語義に分類されたが,再実験を行った結果正しく分類された事例を表す. 2 節の実験では libsvm の default のパラメータ設定を採用したので, モデルの複雑度を調節するコストは $\mathrm{C}=1$, 学習を止める停止基準值は eps=0.001 としていたが, $\mathrm{C}=5$ 及び $\mathrm{eps}=0.1$ と設定して再実験したところ,いくつかの誤り事例に対して正解が得られた。このようにSVM の学習パラメータの変更 表 9 誤り原因のタイプ分類と出現数 によって語義を正しく識別できた事例の誤り原因は「再実験では正解した例」としてまとめた次に,ここで行ったいくつかの誤り分析の例を示す。最も出現数の多い「パターンの一部が不足」の例として,「早く元気な顔を見せて*あげる*事ですね.」を見てみる。「見せてあげる」 と同様の「〜してあげる」というパターンが訓練事例に存在していれば適切に識別できると考元られる。しかし,訓練事例にはそのようなパターンの事例は存在しなかった。その一方で,「あげる事です」に対応する「あげる+普通名詞+助動詞」のパターンが異なる語義の事例として存在するために,この用例は誤った語義に識別されたと思われる。「考慮する単語の不足」の例と 身につけるように導く」であり,「〜てください」のパターンが識別に有効そうであるが,誤って識別した語義「知っていることを告げ示す」と共起単語を比較した結果, どちらの語義でもこのパターンが生じていた.このパターン以外に識別に有効そうな素性は存在していないため,結果的に誤っている。このような問題に対処するには,訓練事例数を数多く用意し,「教える」 の前に接続する単語の種類を揃える必要があると考える。「概念情報の不足」の例として,「…悲鳴を*ああげ*ながらずんずん進んだ…」がある。この事例の正しい語義は「勢い・資格・価値・程度を高める.」である。辞書にはこの語義の用例として「声を(高く)出す.」があるため, この語義が正解であることは明らかである。しかし,分析用システムは「取り出して言う.」と誤って識別した. 正しい語義の訓練事例には「声」,「叫び声」,「歓声」といった声に関連する単語が含まれているため, テスト事例の「悲鳴」も含めて同じ「声」の概念として捉えることができれば識別可能だったと考えられる。「表記のずれ」の例として,「落札する前に聞いた方が *いい*ですか?」がある,訓練事例には正しい語義の事例で「ほうがいいです」との表記を持つものがあり,テスト事例の「方」をひらがなの「ほう」に変更して識別を行うと適切に語義を識別することができた.このように,異表記を正しく解析できないために誤ることもある。 ## 3.7 古宮の分析:最大頻度語義と素性に注目 機械学習の観点から誤りの原因の分析を行った. 具体的には, 訓練事例中の最頻出語義 (Most Frequent Sense, 以下 MFS)の割合や,テスト事例と訓練事例の間の素性の違いと共通性を見ることで,機械学習の特質から説明できる誤りを主に分析した。分析の結果を表 10 に示す。な 表 10 古宮による誤り原因のタイプ分類とその出現数 お,「MFS に誤分類」の 2 つの分類(表 10 の $\mathrm{M}$ と $(\mathrm{M})$ )には重複して分類されることはないが, これらと「テスト事例の素性が訓練事例の素性と等しい」(表 10 の F)と「分からない,自信がない」(表 10 の?)については重複して分類されることがある. ここでの分析では,まず,MFSに注目した。分析用システムの識別結果が a であり,それが誤りであった場合, a は対象単語の MFS である可能性が高いと考えたためである. そこで,「MFS に誤って分類された」事例と,そうでない事例の分類を行った. すると,分析対象の 50 事例中の 32 事例が「MFS に誤って分類された」事例であることが分かった. 更に,「MFSに誤って分類された」事例の中で,MFS と第二位の比率を持つ語義(第二語義)との訓練事例数の差が小さい (4 以内の) ものが 5 事例であり, 残りの 27 事例は, MFS と第二語義との訓練事例数の差が大きい(8 以上の)ものであった. なお, 差が 5 から 7 の事例は存在しなかった ${ }^{15}$. 例えば,最も顕著な例は対象単語の「場所」である。「場所」の 50 個の訓練事例のうち, 49 事例が語義 41150-0-0-1(ところ)であり,語義 41150-0-0-2(居るところ)は 1 事例しかなかった. その結果,「場所」のテスト事例はすべて語義 41150-0-0-1 と識別されており,テスト事例中に 2 つあった語義 41150-0-0-2 は誤りとなっていた. このことから,誤りの原因として,機械学習の特質により,MFS に誤って分類されるということが大きいことが分かる。また,この例にも見られるように,今回の分析で用いた訓練事例の少なさから, 少量の事例しか持たない語義は十分に学習ができていないことがあったと思われる。 次に,テスト事例の素性が訓練事例の素性と等しいことで,誤っている事例を目視で探した。例えば,「意味」の事例の一つ,「“これらの単語で*意味*が通じるよ」の「意味」(正解は語義 2843-0-0-1(その言葉の表す内容. 意義. ))は,「対象の単語の一つ後の形態素」が「が」である,という素性が強く働いたためであると思われる。この素性は語義 2843-0-0-3(表現や行為のもつ価値. 意義. )に頻出していたことから, 語義 2843-0-0-3 に誤って識別されている.この例は, 語義 2843-0-0-3 として訓練事例にあった「意味がある」「意味がない」に「意味が通じる」という表現が少し似ていた,と見ることができる。このようなものは 22 事例あった. このように表現の類似性は, 実際に語義曖昧性解消の手掛かりともなるが, 逆に誤りの原因ともなっている。なお,このような,素性が誤りの原因と思われる事例に対しては,「F」を付与した。また, 訓練事例中に何度も現れる顕著な素性ではない場合には, 素性が強く働いたかどうか分からないため, 「F」とともに「?」も付与した. さらに, これらの観点から分類が難しかったものに対しては,単独で「?」を付与した。 また,他にも,ここでの誤り分類のタイプには含めなかったが,この素性が訓練事例にあれ  ば識別可能だと思われる素性が,訓練事例にない場合が 2 つ存在した。一つは,「早く元気な顔を見せて*あげる*事ですね」であり,正解は語義 545-0-3-2(敬語としての用法)だが,手掛かりとなりそうな「ひとつ前の形態素が『て』である」という素性が訓練事例には存在しなかった. また「「“ええ水をお*あたえ*くださいませ $\cdots$ お」正解は語義 755-0-0-1(自分の物を他人に渡し,その人のものとする.)であり,この「おあたえくたさる」という表現は典型的であると思われるが,訓練事例に「与えてください」のように「与える」と「くださる」の間に「て」をはさむ用法はあっても,このような用法は存在しなかった. 最後に,分類語彙表の值に曖昧性があり,本来の意味ではない値が付与されていたために,誤った事例が 1 つあった.「凝固する際に*出る*熱を冷やしているから $\cdots 」$ という用例で,これは,「〜(の)際(さい)」という表現が「きわ」として誤って解析されたために誤った例である。「出る」の訓練事例には「きわ」と同じ意味分類を持つ「外」などを $2 \supset$ 前の形態素にもつ事例が 2 つった。 ## 4 クラスタリングを用いた分析結果の統合 ## 4.1 誤り原因のクラスタリング 前掲の表 1 が各自の分析結果である。誤り分析の次のステップとしては, これらを統合し,各人が同意できる統一した誤り原因のタイプ分類を作成し,それに対する考察を行う必要がある.しかし各自の分析結果を統合する作業は予想以上に負荷が高かった.統合作業では分析対象の誤り事例一つ一つに対して, 各分析者が与えた誤り原因を持ち寄って議論し, 統合版の誤り原因を決定しなければならない。しかし,誤りの原因は一意に特定できるものではなく,しかもそれを各自が独自の視点でタイプ分けしているため, 名称や意味がばらばらな誤り原因が持ち寄られてしまい議論がなかなか収束しないためであった。また統合の処理を議論によって行う場合, 結果的に誰かの分析結果をべースに修正していく形になってしまう. 誰の分析結果をべースにすればよいかも正解はなく,しかもある人の分析結果をべースにした時点で,他の人の分析結果に含まれるかもしれない重要な情報を捨ててしまう危険性もある. つまり分析者全員が同意できるような誤り原因のタイプ分類を,グループ内の主観に基づく議論のみから作成するのは,負荷が高い作業になってしまう. このような背景から,我々は各自の誤り原因を要素とする集合を作り,それをクラスタリングすることで,ある程度機械的な誤り原因のタイプ分けを試みた。 クラスタリングでは分析者全員の分析結果を公平に扱っている。またクラスタリングによって作成できた誤り原因のタイプ分類は各人のタイプ分類を代表しているタイプ分類になっていることが期待できる。結果として,このようなアプローチで作成した誤り原因のタイプ分類は,各分析者が同意できるもの となり,しかも統合作業の負荷を大きく減らすことができると考えた. 各自の分析では分析対象の 50 事例に対して,各自が設定した誤り原因の記号を付与している形になっている。見方を変えて各自が設定した誤り原因の記号の 1 つ 1 つに注目すると, 50 個の対象事例のどの事例がその誤り原因に対応しているかを見ることができる.対応する事例に 1 を,対応しない事例に 0 を与えれば,誤り原因は 50 次元のべクトルに変換することができる. そしてこのべクトルの距離が近いほど誤り原因の意味が近いと考えることができるため, ベクトルに変換した誤り原因のクラスタリングが可能となる. まず各自の誤り原因を取り出すと, 全部で 75 個存在した。この 75 個の誤り原因がクラス夕リングの対象である。処理のために各誤り原因に ID 番号を付与した。また誰が設定した誤り原因かがわかりやすいように,番号には各人を表す記号を前置している。m-は村田,sr-は白井, fk-は福本, sn-は新納, fj- は藤田, ss- は佐々木, k-は古宮を意味する。この誤り原因と ID 番号との対応は付録 2 に記した。また付録 2 には誤り原因の意味(簡単な説明)も付与している.以後,誤り原因に対してはこのID 番号によって参照することにする. 75 個の各誤り原因を 50 次元のベクトルに変換し,そのノルムを 1 に正規化した後に Ward 法によりクラスタリングを行った (新納 2007). このクラスタリング結果であるデンドログラムを図 2 に示す. ## 4.2 クラスタの抽出 誤り原因の総数が 75 個, 分析者が 7 人であり, その平均から考え, 誤り原因は 10 個前後に設定するのが適切だと考えた。そこで図 2 のデンドログラムから目視により, 図 3 に示す A から M の 13 個のクラスタを取り出した。各クラスタに含まれる誤り原因の ID 番号を表 11 に示す.またクラスタ内の各誤り原因には対応する事例が存在するので, その総数と種類数も表 11 に示す。 図 2 クラスタリング結果 図 3 クラスタの設定 表 11 クラスタ内の誤り原因と対応する事例数 ## 4.3 各自の分析結果の統合 クラスタリングにより A から M の 13 個のクラスタを取り出した。次に各クラスタに意味を与える必要がある。この意味を与えることで各自の分析結果の統合が完成する. ただし各クラスタに正確に 1 つの意味を与えることは困難である。通常,クラスタにある意味を設定した場合, クラスタ内にはその意味とは異なる要素が含まれることが多い. ここでは各クラスタ内の要素(誤り原因)を精査し,その意味を設定する。意味を割り当てることができたクラスタが統合版の誤り原因となる。次にその意味から考え, 不適な要素を省いたり別クラスタに移動させたりすることで, 最終的な統合を行う。 ## 4.3.1 クラスタの意味の付与とクラスタの合併 クラスタに意味を付与するには, クラスタ内の類似している要素に注目し, それらの共通の意味を抽出することで行える.この段階で意味が同じクラス夕は合併することができる.以下,各クラスタについてその内容を表にまとめる。その表の「注目」の列に“○”がついているものが意味付けを行うために注目した要素である. ## クラスタ $\mathbf{A:$ 【削除】} クラスタ A の内容は以下の通りである。意味付けは困難でありこのクラスタは削除する。 ## クラスタ B: テスト文に問題あり クラスタ B の内容は以下の通りであり,意味は「テスト文に問題あり」とした。 ## クラスタ C:【削除】 クラスタ $\mathrm{C}$ の内容は以下の通りである。意味付けは困難でありこのクラスタは削除する。 ## クラスタ D:【削除】 クラスタ D の内容は以下の通りである。意味付けは困難でありこのクラスタは削除する. ## クラスタ $\mathrm{E:$ シソーラスの問題} クラスタ $\mathrm{E}$ の内容は以下の通りであり,意味は「シソーラスの問題」とした. 新納, 村田, 白井, 福本, 藤田, 佐々木, 古宮, 乾クラスタリングを利用した語義曖昧性解消の誤り原因のタイプ分け ## クラスタ F: 学習アルゴリズムの問題 クラスタ $\mathrm{F}$ の内容は以下の通りであり,意味は「学習アルゴリズムの問題」とした. k-74 (分からない, 自信がない) に“○”を付けている. k-74 は古宮が設定した分類である.古宮の分類観点を見ると, k-74 が付けられた事例は MFS の観点あるいは素性の様子からでは誤りの原因が特定できないものであることがわかる。これは分析用システムで利用した SVM による影響と見なせる。そのため $\mathrm{k}-74$ も「学習アルゴリズムの問題」と見なした. ## クラスタ G: 訓練データの不足 クラスタ G の内容は以下の通りであり,意味は「訓練データの不足」とした. fj-55 (藤田のシステムで正解) に“○”を付けている.藤田のシステムは訓練データを拡張した手法である。そのシステムで正解となったということで,その誤りの原因を「訓練データの 不足」と見なした. ## クラスタ $\mathrm{H$ : 共起語の多義性} クラスタ H の内容は以下の通りであり,意味は「共起語の多義性」とした。 ## クラスタ I: 構文・格・項構造の素性不足 クラスタ I の内容は以下の通りであり,意味は「構文・格・項構造の素性不足」とした. ## クラスタ $\mathrm{J:$ データの誤り} クラスタ J の内容は以下の通りであり,意味は「データの誤り」とした。 ## クラスタ $\mathrm{K$ : 深い意味解析が必要} クラスタ K の内容は以下の通りであり,意味は「深い意味解析が必要」とした. sn-46 (辞書の語義が似ていて識別困難(正解の誤りも含む))に “○”を付けている. sn-46 は新納が設定した分類である。新納は $\mathrm{sn}-46$ と sn-47 (深い意味解析が必要) を区別しているが, そこでの説明にもあるように,これらの違いは一概に判断できない,sn-46 のタイプの誤りのほとんどは,その文脈上で人間は語義を識別できると考え,ここではまとめることにした。また fj-56 (人間でも判別が困難) にも“○”を付けているが,これは sn-46 あるいは sn-47 の意味と考えられるためである。 新納, 村田, 白井, 福本, 藤田, 佐々木, 古宮, 乾クラスタリングを利用した語義曖昧性解消の誤り原因のタイプ分け ## クラスタ $\mathrm{L:$ 【クラスタ I と合併】} クラスタ L の内容は以下の通りであり,意味は「構文・格・項構造の素性不足」とした. これはクラスタ I の意味と同じであり,クラスタ L はクラスタ I と合併する. ## クラスタ $\mathrm{M:$ 素性のコーディングが困難} クラスタ $\mathrm{M}$ の内容は以下の通りであり,意味は「素性のコーディングが困難」とした。 以上より記号 B, E, F, G, H, I, J, K 及び M で示される 9 個の統合版の誤り原因を設定した (表 13 参照). ## 4.3.2 クラスタリング結果の調整 クラスタリングの対象であった 75 個の誤り原因のうち,統合版の誤り原因に置き換えられるものは 35 種類であった. 残り 40 種類の誤り原因の中で統合版の誤り原因に置き換えられるものを調べた.基本的には各分析者が自身の設定した誤り原因の意味と統合版の誤り原因の意味を比較することで行った。結果,以下の表 12 に示した 11 個の置き換えができると判断した。 上記の調整を行った後の統合版の誤り原因は表 13 にまとめれる。本論文ではこれを「統合版誤り原因のタイプ分類」と名付けることにする. 表 12 統合版の誤り原因への置き換え 表 13 統合版誤り原因のタイプ分類 & \\ ## 4.4 事例への誤り原因のラベル付与 ここでは分析対象の 50 事例を統合版誤り原因のタイプ分類に基づいてラベル(記号)を付与する。まず対象事例に対する各自の分析結果である表 1 の各記号を,統合版誤り原因のタイプ分類の記号に置き換える。次に 2 名以上が同じ記号を付けていた場合に,その記号をその事例に対する誤り原因とする。結果を表 14 に示す。「統合タイプ」の列が統合版誤り原因のタイプ分類による記号を表す。 以下に示す対象事例の 25,42 には記号が付与されなかった。これらの事例に対しては, 誤り原因が分析者により異なり,共通した原因がなかったためであるといえる. & & \\ 新納, 村田, 白井, 福本, 藤田, 佐々木, 古宮, 乾クラスタリングを利用した語義曖昧性解消の誤り原因のタイプ分け 表 1450 事例に対する統合版の誤り原因の付与 & 佐々木 & 古宮 & 統合タイプ \\ 表 15 統合版の誤り原因の事例数と累積カバー率 また表 14 から得られる統合版の誤り原因の事例数を大きい順に表 15 に示す. 累積カバー率はその順位までのタイプを使って分析対象の 50 事例をどの程度カバーしているかを表す。表 15 から誤りの 9 割は上位 3 つの「G: 訓練データの不足」「K: 深い意味解析が必要」「E: シソーラスの問題」のいずれか,あるいはそのいくつかが原因であることがわかる. ## 5 考察 ## 5.1 統合版誤り原因のタイプ分類の評価 ここでは統合版誤り原因のタイプ分類の評価を行う。本論文が目標としたタイプ分類は分析者 7 名のタイプ分類を代表するタイプ分類であるため, この観点から評価を行う.そのために,誤り原因のタイプ分類間の類似度を定義し,各タイプ分類間の類似度を測る.統合版誤り原因のタイプ分類がどの分析者の誤り原因のタイプ分類とも類似していれば,統合版誤り原因の夕イプ分類が本論文で目標としていたタイプ分類であることがいえる. $A$ と $B$ を誤り原因のタイプ分類とし, $A$ と $B$ の類似度 $\operatorname{Sim}(A, B)$ の定義を行う。 $A$ の要素である各誤り原因は,本論文のクラスタリングで利用したように 50 次元のべクトルで表現できる16.そして $A$ の誤り原因が $m$ 種類のとき, $A$ は以下のような集合で表現できる. $ A=\left.\{a_{1}, a_{2}, \cdots, a_{m}\right.\} $ 同様に, $B$ の誤り原因が $n$ 種類のとき, $B$ は以下のような集合で表現できる. $ B=\left.\{b_{1}, b_{2}, \cdots, b_{n}\right.\} $  ここで $a_{i} や b_{j}$ は 50 次元のベクトルである. 本論文では $\operatorname{Sim}(A, B)$ を以下で定義する. $ \operatorname{Sim}(A, B)=\max _{Q} \sum_{(i, j) \in Q} s\left(a_{i}, b_{j}\right) $ ここで $s\left(a_{i}, b_{j}\right)$ は $a_{i}$ と $b_{j}$ の類似度であり,ここでは内積を用いる. また $Q$ は誤り原因のラ ラベルの対応は以下の 6 通りが存在する,Qはこの中のいずれかになる. $ \begin{array}{lll} \{(1,1),(2,2)\}, & \{(1,2),(2,1)\}, & \{(1,2),(2,3)\} \\ \{(1,3),(2,2)\}, & \{(1,1),(2,3)\}, & \{(1,3),(2,1)\} \end{array} $ つまり $\operatorname{Sim}(A, B)$ はラベル間の対応 $Q$ に基づく誤り原因間の類似度の和を意味する. 問題は最適な $Q$ の求め方であるが, 一般にこれは組み合わせの数が膨大になるため, 求めることが困難である。ここでは単純に以下の擬似コードで示される貧欲法により $Q$ を求め,その $Q$ を用いて $\operatorname{Sim}(A, B)$ を算出することにした. 上記の疑似コードの概略を述べる。 まず $A$ も $B$ も記号の添え字でラベルを表すことにする。 $A$ のラベルの集合を $K, B$ のラベルの集合を $H$ とする. 各 $(i, j) \in(K, H)$ に対して, $\operatorname{sim}\left(a_{i}, b_{j}\right)$ を求めることで, $\operatorname{sim}\left(a_{i}, b_{j}\right)$ が最大となる $(i, j)$ が求まる. これを $Q$ に追加し, $K$ から $i$ を, また $H$ から $j$ を取り除く. この処理を $K$ か $H$ のどちらかの集合が空になるまで続け, 最終的な $Q$ を出力とする. またここではラベルの意味を考慮して $Q$ を設定していないことに注意しておく. 我々の問題ではラベルに意味が付けられている。このラベルの意味から要素間の対応を取り $Q$ を設定することも可能である. しかしここではそのようなアプローチは取らなかった. つまりここでは分析者 $A$ が誤り原因 $i$ に付与した(主観的な)意味と,分析者 $B$ が誤り原因 $j$ に付与した(主観的な)意味が似ているか似ていないかは考慮せずに, $i$ や $j$ のベルが付与された事例の分布のみから $i$ と $j$ 類似度を測っている。 表 16 誤り原因のタイプ分類間の類似度 表 17 誤り原因タイプ分類の評価結果 またここでの誤り原因のタイプ分類では,1つの事例に対して複数の誤り原因を与えることを許している。このため明らかに 1 つの事例に多くの誤り原因を与える方が類似度が高くなる. この問題の解消のために 1 つの事例に $k$ 個の誤り原因を与えている場合, その部分の頻度を $1 / k$ に修正した。さらに統合版誤り原因のタイプ分類では, 事例 25,42 にラベルを付与していない.一方,他の分析者は「わからない」「分析していない」などのラべルも許して全ての事例にラべルを付与している。公正な評価のため, 統合版誤り原因のタイプ分類による事例 25,42 にも便宜上「その他」というラベルを付与した。 上記の処理により各誤り原因のタイプ分類間の類似度を求めた結果を表 16 に示す. 表中の各人の名前はその人の誤り原因のタイプ分類を示し,【統合】は統合版誤り原因のタイプ分類を示す。また類似度の横の括弧内の数値は,その行に注目して類似度の大きい順の順位を表す。 各人の縦の列の順位を足して,要素数で割った結果を表 17 に示す。この值が低いほど,全体として他のタイプ分類と類似していることを示しており,統合版誤り原因のタイプ分類が最も良い値を出している。これは統合版誤り原因のタイプ分類が,分析者 7 名のタイプ分類を代表していることを意味し,本論文が目標としていたタイプ分類であることを示している. ## 5.2 統合版誤り原因のタイプ分類を利用した各人の分析結果の比較 ここでは統合版誤り原因のタイプ分類を利用して各人の分析結果の関係を考察する。 各人の誤り分析に対する分析結果は, 細かく見ると, 誤り原因のタイプ分類の構築とその夕イプ分類に従った対象事例への誤り原因のラベル付与からなっている. 各人の分析結果は誤り原因のタイプ分類が異なっているために,直接比較することはできないが,各人が設定した誤り原因を統合版の誤り原因に変換し,誤り原因のラベルを統一することで,各人の分析結果を 新納, 村田, 白井, 福本, 藤田, 佐々木, 古宮, 乾クラスタリングを利用した語義曖昧性解消の誤り原因のタイプ分け 比較できる。具体的には表 14 が, 統合版誤り原因のタイプ分類を利用して誤り原因のラベルを統一した各人の分析結果と見なせる。ラベルが付与されていない場合は,仮想的に 10 番目の誤り原因のラベル「その他」が付与されていると考える。これによって表 14 から各人の分析結果を $50 \times 10$ の行列として表現できる ${ }^{17}$. 行列間の距離を各行(事例)間の距離の和で定義すれば,各人の分析結果間の距離が表 18 のように求まる。 表 18 から多次元尺度法を利用して, 各人の分析結果の位置関係を 2 次元にマップしたものが図 4 である. 表 18 各人の分析結果間の距離 図 4 各人の分析結果の位置関係  図 4 の各人の点はほぼ均等に分布しており, 各人の分析結果は互いにかなり異なることが確認できる。その上で以下の 2 点も認められる. (a)村田, 白井, 藤田, 佐々木の 4 者の点(分析結果)は比較的近くに集まっている. (b) 古宮の点(分析結果)は比較的孤立している. (a)は, 表 18 から距離の近い分析者の組を順に並べると (村田, 藤田), (村田, 白井), (藤田, 佐々木), (白井, 藤田) となっていることからも裏付けられる.また上記 4 者の距離が近いのは誤り原因 G「訓練データの不足」の事例数のためと考えられる.以下の表は各人の分析結果に対して,誤り原因 G が与えられた事例数である. 村田, 白井, 藤田, 佐々木の 4 者の分析結果に誤り原因 $\mathrm{G}$ が与えられた事例数は, どれも比較的大きな値であることがわかる.このため 4 者の類似度が高くなり,比較的近くに集まったと考えられる。 (b) は古宮の分析結果からほぼ明らかである。古宮の分析結果には, 誤り原因 F 「学習アルゴリズムの問題」しか与えられていない.このため他の分析者と誤り原因の一致する事例が極端に少ない. 例えば佐々木とは 50 事例中, 誤り原因が一致するものは 2 つしかない. 一致する事例数が少ないと距離が大きくなり,結果的に孤立した位置となる。 ## 5.3 統合版誤り原因のタイプ分類と各人のタイプ分類の差 ここでは統合版誤り原因のタイプ分類に置き換えられなかった各人が設定した誤り原因に注目し,それらが統合版誤り原因のタイプ分類に置き換えられなかった理由を調べることで,統合版ならびに各人の誤り原因のタイプ分類の特徴を考察する. 本論文ではクラスタリングを利用して各人の分析結果である誤り原因のタイプ分類を統合した. 原理的には多数決と各人の設定した誤り原因の意味を勘案してタイプ分けを行ったことに相当する.統合の過程で各人の分析結果の一部は切り捨てられ, 結果的に, 統合版に含まれていない.具体的には付録 2 の表の「統合版の誤り原因」の欄が空闌になっているものがそれに当たる。 「切り捨てられた」と言ってもクラスタリング結果の調整を行っているので, 実際は, 設定した誤り原因が統合版の誤り原因のどれにも置き換えられないと判断された結果である. 各人が設定したある誤り原因がある統合版の誤り原因に置き換えられるかどうかの判断は, 主観的な部分も大きく,困難である。また事例数が少ないものは,統合版の構築には影響が出ないために,無理矢理置き換えることを避けたという事情も考えられる。一方,ある誤り原因が統合版の誤り原因に置き換えられないことが比較的明らかなものも多い. これはその誤り原因が独自の観点のためである。例えば白井の $\mathrm{sr}-28$ (過学習), sr-29(消去法), 新納の sn-53(領域の問 題),藤田の fj-64(テスト文が古文)などである。また古宮の設定した誤り原因のほとんど(4 中 3 つ)が統合版の誤り原因に置き換えられていない,具体的には k-72(MFSに誤分類(第二語義との差が大きい)), k-73(MFS に誤分類(第二語義との差が小さい))及び k-75(テスト事例の素性が訓練事例の素性と等しい)である。古宮のタイプ分類は, 語義曖昧性解消の問題を分類問題として一般化した上で, その現象べースから誤りの原因を考えようとしたものであり,上記 3 つはどれも独自の観点と見なせる。また福本の $\mathrm{fk}-40$ (形態素解析での品詞推定誤り), $\mathrm{fk}-43$ (慣用句表現の認識), fk-44(省略語の補完)及び fk-45(複合名詞の認識誤り)は福本が 「語義曖昧性解消タスク外の問題」と位置づけたものであり,これも独自の観点と見なせる. 独自の観点とは多少異なるが,統合版の誤り原因の異なるタイプの部分的な和になっている,言わば,混合した観点も統合版の誤り原因とは異なると考えた.例えば村田の m-1(素性の種類の不足)は,主に以下の 2 種類の誤り原因に対応する. (1) 同一文内の共起語を素性に利用すべき (2) 分類語彙表の分類番号の 3 桁や 4 桁も利用すべき (1)は統合版誤り原因 K 「深い意味解析が必要」に対応し, (2) は統合版誤り原因 E「シソー ラスの問題」に対応すると考えられる。つまり村田の m-1(素性の種類の不足)はこれらを混合した観点と言える。佐々木の ss-66(考慮する単語の不足)の場合, テスト事例あるいは訓練事例における「単語の不足」であるため, 統合版誤り原因 G「訓練デー夕の不足」と統合版誤り原因 K 「深い意味解析が必要」の混合した観点となっている. 統合版の誤り原因に置き換えられなかった各人が設定した誤り原因のほとんどは独自の観点か混同した観点であり,しかも事例数が少ない.この点から統合版誤り原因のタイプ分類は,各人のタイプ分類を代表するタイプ分類であるだけでなく,各人が設定した誤り原因の主要部分が反映されたタイプ分類でもある。その結果,統合版誤り原因のタイプ分類は,標準的な語義曖昧性解消の誤り原因のタイプ分類になっていると考えられる。また標準的な誤りの原因のタイプ分類を定量的なデータと共に提示できた意味は大きい。語義曖昧性解消の問題に新たに取り組む者にとって,標準的な手法を用いた場合に,どのような誤りがどの程度出現するのかの目安を得られることは有益である。その上で独自の手法を考案する際,提案手法がどのような誤りの解決を狙っているのかといった研究の位置づけも明確になる点も長所である. 最後に, ここで作成した統合版誤り原因のタイプ分類の問題点として, タイプの粒度の問題が存在することを注記しておく.本論文では統合版誤り原因のタイプ分類を作成するのにクラスタリングを利用している。そこではまず誤り原因のクラスタを 13 個作成したが(図 3 参照), 1 つのクラスタに最大 1 つのタイプしか与えなかった. これはタイプの粒度を一定に保つために行った処置である。このためある粒度のタイプ分けは行えているが, その粒度が粗すぎることも考えられる。例えば統合版誤り原因 G「訓練データの不足」と言っても,どのような夕イプの「訓練デー夕」なのかで詳細化できる。また統合版誤り原因 K「深い意味解析が必要」も, どのような「意味解析」なのかで詳細化ができる。このような詳細化は有益であり, 本研究の今後の課題と言える. ## 6 おわりに 本論文では Project Next NLP の「語義曖昧性解消」チームの活動として行われた語義曖昧性解消の誤り原因のタイプ分けについて述べた。誤り分析の対象事例を設定し,メンバーの 7 名が各自誤り分析を行った. 各自の分析結果はかなり異なり, それらを議論によって統合することは負荷が高いことから,ここでは各自の設定した誤り原因(計 75 個)を対応する事例を用いてべクトル化し, それらのクラスタリングを行うことで, ある程度機械的に統合処理を行った。 クラスタリングによって統合版の誤り原因を特定し, クラスタリング結果の微調整によって最終的な誤り原因のタイプ分類を作成した。 得られた誤り原因の主要な 3 つにより, 語義曖昧性解消の誤りの 9 割が生じていることも判明した。また得られたタイプ分類はタイプ分類間の類似度を定義して考察した結果, 分析者 7 名のタイプ分類を代表するものであることも示した. また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した. 本研究で得られた誤り原因のタイプ分類は標準的であり,それを定量的なデータと共に提示できた意味は大きい.今後,一部のタイプを詳細化することで改善していけると考える。この点が今後の課題である. ## 参考文献 Fujino, A., Ueda, N., and Nagata, M. (2010). "A Robust Semi-supervised Classification Method for Transfer Learning." In Proceedings of the 19th ACM International Conference on Information and Knowledge Management (CIKM'10), pp. 379-388. Fujita, S. and Fujino, A. (2013). "Word Sense Disambiguation by Combining Labeled Data Expansion and Semi-Supervised Learning Method." Transactions on Asian Language Inforamtion Processing, Association for Computinng Machinery (ACM), 12 (7), pp. 676-685. Gildea, D. and Jurafsky, D. (2002). "Automatic Labeling of Semantic Roles." Computational linguistics, 28 (3), pp. 245-288. Mihalcea, R. and Moldovan, D. I. (1999). "An Automatic Method for Generating Sense Tagged Corpora." In Proceedings of the American Association for Artificial Intelligence (AAAI1999), pp. 461-466. 村田真樹,神崎享子,内元清貴,馬青,井佐原均 (2000). 意味ソート msort一意味的並ベかえ手法による辞書の構築例とタグつきコーパスの作成例と情報提示システム例一. 言語処理学会誌, 7 (1), pp. 51-66. 村田真樹, 内山将夫, 内元清貴, 馬青, 井佐原均 (2003). SENSEVAL2J 辞書タスクでの CRL の取り組み一日本語単語の多義性解消における種々の機械学習手法と素性の比較一. 言語処理学会誌, $10(3)$, pp. 115-133. 西尾実,岩淵悦太郎,水谷静夫 (1994). 岩波国語辞典第五版. 岩波書店. Okumura, M., Shirai, K., Komiya, K., and Yokono, H. (2011). "On SemEval-2010 Japanese WSD Task.”自然言語処理, 18 (3), pp. 293-307. 白井清昭 (2003). SENSEVAL-2 日本語辞書タスク. 自然言語処理, 10 (3), pp. 3-24. Søgaard, A. (2013). Semi-Supervised Learning and Domain Adaptation in Natural Language Processing. Morgan \& Claypool. 強田吉紀, 村田真樹, 三浦智, 徳久雅人 (2013). 機械学習を用いた同義語の使い分け. 言語処理学会第 19 回年次大会, pp. 585-587. 新納浩幸 (2007). R で学ぶクラスタ解析. オーム社. ## 付録 ## A 誤り分析対象の 50 用例 \\ \\ 新納, 村田, 白井, 福本, 藤田, 佐々木, 古宮, 乾クラスタリングを利用した語義曖昧性解消の誤り原因のタイプ分け \\ ## B 各人の誤り原因の一覧 & 意味 \\ & 意味 \\ 新納, 村田, 白井, 福本, 藤田, 佐々木, 古宮, 乾クラスタリングを利用した語義曖昧性解消の誤り原因のタイプ分け ## 略歴 新納浩幸: 1985 年東京工業大学理学部情報科学科卒業. 1987 年同大学大学院理工学研究科情報科学専攻修士課程修了. 同年富士ゼロックス, 翌年松下電器を経て, 1993 年より茨城大学工学部助手. 2015 年同学部教授. 現在に至る.博士 (工学).機械学習や統計的手法を用いた自然言語処理の研究に従事. 言語処理学会, 情報処理学会, 人工知能学会各会員. 村田真樹:1993 年京都大学工学部電気工学第二学科卒業. 1997 年同大学院工学研究科電子通信工学専攻博士課程修了. 博士 (工学). 同年, 京都大学にて日本学術振興会リサーチ・アソシエイト. 1998 年郵政省通信総合研究所入所. 2010 年鳥取大学大学院工学研究科教授. 現在に至る. 自然言語処理, 情報抽出の研究に従事. 言語処理学会, 情報処理学会, 電子情報通信学会, 人工知能学会各会員. 白井清昭:1993 年東京工業大学工学部情報工学科卒業. 1998 年同大学院情報理工学研究科博士課程修了. 同年同大学院助手. 2001 年北陸先端科学技術大学院大学情報科学研究科助教授. 現在に至る. 博士 (工学). 統計的自然言語解析に関する研究に従事. 情報処理学会, 人工知能学会, 電子情報通信学会各会員. 福本文代 : 1986 年学習院大学理学部数学科卒. 同年冲電気工業株式会社入社.総合システム研究所勤務. 1988 年より 1992 年まで財団法人新生代コンピュー 夕技術開発機構へ出向. 1993 年マンチェスター工科大学計算言語学部修士課程修了. 同大学客員研究員を経て 1994 年より山梨大学工学部助手, 2010 年同学部教授, 現在に至る. 自然言語処理の研究に従事. 理博. ACM, ACL, 情報処理学会各会員. 藤田早苗:1999 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 同年, NTT 日本電信電話株式会社入社. 現在, NTT コミュニケーション科学基礎研究所研究主任. 博士 (工学). 自然言語処理の研究に従事. 言語処理学会, 情報処理学会, 人工知能学会各会員. 佐々木稔:1996 年徳島大学工学部知能情報工学科卒業. 2001 年同大学大学院博士後期課程修了. 博士 (工学). 2001 年 12 月茨城大学工学部情報工学科助手. 現在, 茨城大学工学部情報工学科講師. 機械学習や統計的手法による情報検索, 自然言語処理等に関する研究に従事. 言語処理学会, 情報処理学会各会員. 古宮嘉那子 : 2005 年東京農工大学工学部情報コミュニケーション工学科卒. 2009 年同大大学院博士後期課程電子情報工学専攻修了. 博士 (工学). 同年東京 工業大学精密工学研究所研究員, 2010 年東京農工大学工学研究院特任助教, 2014 年茨城大学工学部情報工学科講師. 現在に至る. 自然言語処理の研究に従事. 情報処理学会, 人工知能学会, 言語処理学会各会員. 乾孝司: 2004 年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員, 東京工業大学統合研究院特任助教等を経て, 2009 年筑波大学大学院システム情報工学研究科助教. 2015 年同准教授. 現在に至る. 博士 (工学). 自然言語処理の研究に従事. 近年は CGMテキストに対する評判分析に興味をもつ.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Web情報からの罹患検出を対象とした 事実性解析・主体解析の誤り分析 叶内 晨 $\dagger$ ・北川 善彬 $\dagger$ ・荒牧 英治 ${ }^{\dagger}$ ・岡崎 直観 ${ }^{+\dagger}$ ・小町 守 $\dagger$ ソーシャルメディアサービスの普及により, 人々や社会の状況を調査する新しいア プローチが開拓された. ひとつの応用事例として, ソーシャルメディアの投稿から 疾患・症状の流行を検出する公衆衛生サーベイランスがある。本研究では, 自然言語処理技術を応用して, ソーシャルメディアの投稿から風邪やインフルエンザなど の罹患を検出するタスクに取り組んだ。最先端のシステムのエラー分析を通じて,事実性解析と主体解析という重要かつ一般性のあるサブタスクを見い出した. 本研究では,これらのサブタスクへの取り組みを行い,罹患検出タスクへの貢献を実証 した. キーワード:ソーシャルメディア, 事実性解析, 主体解析, エラー分析, Twitter ## Infection Detection from the Web with Subject Identification and Factuality Analysis \author{ Shin Kanouchi $^{\dagger}$, Yoshiaki KitagaWa $^{\dagger}$, Eisi Aramaki ${ }^{\dagger \dagger}$, Naoaki Okazaki ${ }^{\dagger \dagger \dagger}$ \\ and Mamoru Komachi ${ }^{\dagger}$ } The development and spread of social media services have made it possible for new approaches to be used to survey the public and society. One popular application is health surveillance, that is, predicting disease epidemics and symptoms from texts on social media services. In this paper, we address an application of natural language processing for detecting an episode of a disease/symptom (e.g., flu and cold) in social media texts. Following an error analysis of the state-of-the-art system, we identified two important and generic subtasks for improving the accuracy of the system: factuality analysis and subject identification. We address these subtasks and demonstrate their impact on detecting an episode of a disease/symptom. Key Words: Social Media, Factuality Analysis, Subject Identification, Error Analysis, Twitter, Epidemiology  ## 1 はじめに 2000 年以降の自然言語処理 (NLP) の発展の一翼を担ったのは World Wide Web(以降, Web とする)である。Webを大規模テキストコーパスと見なし,そこから知識や統計量を抽出することで, 形態素解析 (鉎治, 福島, 喜連川 2009; Sato 2015), 構文解析 (河原, 黒橋 2005), 固有表現抽出 (Kazama and Torisawa 2007), 述語項構造解析 (小町, 飯田, 乾, 松本 2010; Sasano, Kawahara, and Kurohashi 2010), 機械翻訳 (Munteanu and Marcu 2005) など, 様々なタスクで精度の向上が報告されている。これらは, Webが NLPを高度化した事例と言える. 同時に, 誰もが発信できるメディアという特性を活かし, Web ならではの新しい研究分野も形成された.評判情報抽出 (Pang, Lee, and Vaithyanathan 2002) がその代表例である. さらに,近年では, Twitter や Facebook などのソーシャルメディアが懪発的に普及したことで, 自然言語処理技術をWebデータに応用し,人間や社会をWebを通して「知ろう」とする試みにも関心が集まっている. ソーシャルメディアのデータには, (1) 大規模, (2) 即時性, (3) 個人の経験や主観に基づく情報など, これまでの言語データには見られなかった特徴がある。例えば,「熱が出たので病院で検査をしてもらったらインフルエンザ A 型だった」という投稿から,この投稿時点(即時性) で発言者は「インフルエンザに罹った」という個人の経験を抽出し, 大規模な投稿の中からこのような情報を集約できれば,インフルエンザの流行状況を調べることができる。このように, NLP で Web 上の情報をセンシングするという研究は, 地震検知 (Sakaki, Okazaki, and Matsuo 2010), 疾病サーベイランス (Culotta 2010b) を初めとして, 選挙結果予測, 株価予測など応用領域が広がっている. 大規模なウェブデータに対して自然言語処理技術を適用し,社会の動向を迅速かつ大規模に把握しようという取り組みは, 対象とするデータの性質に強く依拠する。 そのため, より一般的な他の自然言語処理課題に転用できる知見や要素技術を抽出することが難しい. そこで, Project Next NLP ${ }^{1}$ では NLPの Web 応用タスク (WebNLP) を立ち上げ, 次のゴールの達成に向けて研究・議論を行った. (1)ソーシャルメディア上のテキストの蓄積を自然言語処理の方法論で分析し, 人々の行動,意見, 感情, 状況を把握しょうとするとき, 現状の自然言語処理技術が抱えている問題を認識すること (2)応用事例(例えば疾患状況把握)の誤り事例の分析から, 自然言語処理で解くべき一般的な(複数の応用事例にまたがって適用できる)課題を整理すること。ある応用事例の解析精度を向上させるには,その応用における個別の事例・言語現象に対応することが ^{1} \mathrm{https}$ //sites.google.com/site/projectnextnlp/ } 近道かもしれない. しかし, 本研究では複数の応用事例に適用できる課題を見出し, その課題を新しいタスクとして切り出すことで,ソーシャルメディア応用の解析技術のモジュール化を目指す。 (3) (2) で見出した個別の課題に対して, 最先端の自然言語処理技術を適用し, 新しいタスクに取り組むことで, 自然言語処理のソーシャルメディア応用に関する基盤技術を発展させること 本論文では,NLP によるソーシャルリスニングを実用化した事例の 1 つである,ツイートからインフルエンザや風邪などの疾患・症状を認識するタスク(第 2 章)を題材に,現状の自然言語処理技術の問題点を検討する,第 3 章では,既存手法の誤りを分析・体系化し,この結果から事実性の解析,状態を保有する主体の判定が重要かつ一般的な課題として切り出せることを説明する,第 4 章では,事実性解析の本タスクへの貢献を実験的に調査し,その分析から事実性解析の課題を議論する,第 5 章では,疾患・症状を保有する主体を同定するサブタスクに対する取り組みを紹介する。さらに第 6 章では,事実性解析と主体解析を組み合わせた結果を示す. その後, 第 7 章で関連研究を紹介し, 最後に, 第 8 章で本論文の結論を述べる. ## 2 コーパス 本研究では,風邪およびその症状に関する Twitter 上での発言を集めたコーパス(以下,風邪症状コーパス)と,インフルエンザに関する Twitter 上での発言を集めたコーパス(以下,インフルエンザ・コーパス)の 2 つを用いる。風邪症状コーパスは誤り分析及び主体解析の検証に, インフルエンザ・コーパスは事実性判定の検証に用いる。これらは 2008 年 11 月から 2010 年 7 月にかけて Twitter API を用いて 30 億発言を収集し,そこから「インフルエンザ」や「風邪」といったキーワードを含む発言を抽出したものである(表 1). 先行研究においても, 風邪やインフルエンザなど感染症に関する研究は多く (Lamb, Paul, and 表 1 検索のためのキーワード Dredze 2013), 他にも西ナイル熱 (Sugumaran and Voss 2012)などが扱われている.これらの多くは,経験則により「風邪」や「インフルエンザ」などのキーワードとなる単語を選択し,その頻度を集計し,感染状況の把握を行っている (Culotta 2010a; Aramaki, Maskawa, and Morita 2011). 本研究では, 先行研究の 1 つである (Aramaki et al. 2011) で使われたインフルエンザコーパス, 及び, (荒牧, 森田, 篠原 (山田), 岡 2011) や商用サイト「カゼミル・プラス」で用いられた風邪症状コーパスを用いる. ## 2.1 風邪症状コーパス 風邪症状コーパスは,「風邪・咳・頭痛・寒気・鼻水・熱・喉の痛み」の 7 種類の症状に関して, ツイートの発言者が疾患・症状にあるかどうか(正例か負例か)をラベル付けしたものである.このコーパスでは,投稿者が以下の除外基準に照らし,1つでも該当するものがあれば負例とみなした。 - 発言者(または, 発言者と同一都道府県近郊の人間)の疾患でない. 居住地が正確に分からない場合は負例発言とみなす。例えば,「風邪が実家で流行っている」では,「実家」 の所在が不明であるので,負例とみなす。 - 現在または近い過去の疾患のみ扱い, それ以外の発言は除外する。ここでいう「近い過去」とは 24 時間以内とする. 例えば,「昨年はひどいインフルエンザで参加できなかった」は,負例とみなす。 - 「風邪でなかった」等の否定の表現は負例とする。また, 疑問文や「かもしれない」といった不確定な発言も負例とする。 コーパスサイズは, 疾患の種類ごとに異なる。 それぞれの疾患・症状ごとのコーパスサイズと疾患のラベル数を表 2 に示す. 表 2 コーパスサイズ 表 3 コーパスのアノテーションの具体例 \\ ## 2.2 インフルエンザ・コーパス インフルエンザ・コーパスは,「インフルエンザ」を含む 10,443 件の発言に対して,正例か負例かをラベル付けしたものである。アノテーションの基準については, 風邪症状コーパスに準拠している。なお, 正例数が 1,319 件, 負例数が 9,124 件となっている. 実際のコーパスからアノテーションの具体例を示す(表 3 ). ## 3 誤り分析 本章では,疾患・症状を検出するタスク(以降,罹患検出)について取り組み,風邪症状コー パスを用いて既存のシステムの誤り分析を行った. 既存システムとして, 単語 n-gram 素性を用いた手法 (Aramaki et al. 2011) と同等の分類器を Support Vector Machine (SVM) にて構築し, その誤りを人手で分類した. 誤りには, 本来, 疾患・症状の事実があると判定すべきであるのに, それができなかった場合である False Negative(以降, FN)の事例と, その逆に, 疾患の事実がないのに誤って疾患とみなしてしまう場合である False Positive(以降,FP)の事例がある.罹患検出は大規模な母集団に対して行われるので,再現率はさほど重要ではなく,適合率が重要になる。そこでFPに注目し,解析を進めた.FP と判定された事例に対して,なぜそれが Negative な事例なのかという観点から,人手で誤りを分類した。誤り原因の分類と発言例を表 4 に示す. 誤りの分類は以下の通りである。 - 非当事者:疾患・症状を所有する対象が, 発言者およびその周辺の人物ではない. 特定の二人称,三人称の人物が疾患・症状を保有する場合や,「みんな風邪ひかないように」 といった発言のように一般的な人に向けたものも含める. - 比喻:比喻的に疾患表現が利用されている場合が当てはまる.「凄すぎて鼻水ふいた」という発言は, 実際に疾患として鼻水が出ているとは考えにくく,「鼻水をふいた」という 表 4 誤り分析(FPの原因ごとの例文) \\ 表現を利用することで大変驚いた様子を比喻的に表しているものだと推測される. -一般論:そもそも疾患・症状の保有に関する話題ではなく, 疾患そのものについて議論していたり,「風邪予防マスク」のように疾患が名詞句の一部として出現した場合である. ・モダリティ:「かもしれない」(疑い),「かな?」(疑問) などのモダリティ表現により,疾患の事実が認められない場合を指す。ここでは以下に示す否定,時制を除いた狭義のモダリティ表現を意味し,英語表現で置き換えれば,“must”, “might”, “have to”などの助動詞が当てはまる。 - 時制:疾患のあった時間が異なる。 - 否定:「風邪でなくてよかった」など,疾患の事実が否定されている. - その他:その他の理由によるもので, 人でも理解不能な発言や, 発言が短すぎて解析に失敗したものが含まれる。 表 5 に, 風邪症状コーパスの 6 つの疾患・症状について, それぞれ 100 件の誤り (False Positive)事例について分析を行った結果を示す (600 事例),表 5 より,疾患・症状の種類ごとに誤り方に大きな違いがあることがわかった。風邪,咳,熱は「非当事者」が原因となる解析誤りが多く,疾患・症状を保有する主体を識別する部分に課題がある。一方で寒気,鼻水は「非当事者」 による解析誤りが少ない,これは,例えば,鼻水は他人の鼻水について言及することが少ないことが原因としてあげられる。また, 頭痛, 寒気, 鼻水は比喻的な解析誤りが多く, 改善すべき点が大きく異なる。事実性の問題(時制,モダリティ,否定)に注目すると,どの疾患・症状においても一定数見られ,一般的な問題と捉えることができる. これらのエラー分析の結果から, 言語処理の研究課題という観点から整理すると, 疾患があったのかという事実性(時制,モダリティ,否定)と,仮に疾患の事実があったとして,疾患を 表 5 誤り分析(False Positive についての誤りの分類) 所有しているのは誰なのかという主体性(非当事者や一般論の問題)と, 比喻の 3 つの大きな言語現象に大別できる。これらの現象について,少し詳しく説明する。 事実性は,一般的かつ重要な課題でありながら,解析の難しさから高い精度に到達できていない (Narita, Mizuno, and Inui 2013; Matsuyoshi, Eguchi, Sao, Murakami, Inui, and Matsumoto 2010). 疾患があったのかという事実性の問題を解消することができれば, 7 つ誤りの分類のうち, モダリティ $(10.8 \%)$, 時制 (10.1\%), 否定 $(5.9 \%)$ を改善することができ, 最大で合計 $26.8 \%$ のエラーを解消する可能性がある。事実性の問題は Web 文書に特化した話ではなく,言語処理全般における課題である. 仮に疾患・症状の事実があったとして, 疾患・症状を保有しているのは誰なのかという主体を認識するタスクも重要である。疾患・症状を認識するタスクでは, 地域ごとに疾患・症状の流行状況を把握したいために,一次情報(本人が観測・体験した情報)であるかどうかの識別が重要となる。エラー分析を行った結果,発言者とは関係のない有名人や発言者との物理的な位置関係が明確でない返信先の人物が疾患・症状に罹っている発言が多数見受けられた。一方で,疾患・症状を意味する表現が名詞句の一部として現れることで,特定の主体を言及するものではない場合もある。例えば,「風邪予防マスク」のように風邪が名詞句の一部として使われているだけの発言が存在する。この場合,「風邪」という単語はただの名詞句の一部として「予防」を修飾しており, 疾患のイベントを保有していないため, その主体も存在しない. この問題を合わせると, 疾患・症状を保有した対象は存在するのか, 存在する場合は誰なのか,という主体を認識するタスクを考えることができる.7つの誤りの分類のうち, 非当事者 $(23.5 \%)$, 一般論 $(14.8 \%)$ がこのタスクで解決できる課題であり,合わせれば最大で $38.3 \%$ のエラーを解消することが可能である。主体解析の問題は, 疾患に限ったことではなく, 評判抽出 (だれの評判なのか?),感性情報処理(だれが喜び/悲しんでいるのか?)など,Web 文章,特にブログなど個人が発言する情報を扱う上で基盤となる技術であり,言語処理が Webを通し て世の中を把握するため, 解くべき大きな課題である. Web 上のテキストを扱う上で,比喻 $(20.4 \%)$ の問題も見過ごせない. 例えば「凄すぎて鼻水でた」という発言があった場合,事実性解析的にはイベントが成立していて,かつ,主体も発言者(一人称)と推定されるが,常識的に考えて症状は発生していない.私たちはこの発言において, 直感的に, 何かのイベントが起きて驚いたことに対する口語的表現として, 「鼻水出た」という表現が利用されたと判断することができる。この比喻的な表現の問題を解決するには,比喻に関する人間の常識的な推論が必要である。例えば,「頭が痛い」「寒気がする」「発熱がある」など,疾患・症状が比喻的に使用される例は多くある. 実用面を考えると, 比喻の問題は重要であるが, 特定の疾患・症状に依存した処理になりがちである。そこで,本論文では一般性が高いサブタスクとして,先に挙げた 2 つの課題(事実性解析, 主体解析)に取り組み, 罹患検出器の改善に取り組む,以降, 4 章にて事実性解析,5 章にて主体解析において罹患検出器を改善した結果を報告し, 6 章にて事実性解析と主体解析を組み合わせた結果を示す. ## 4 事実性解析 ## 4.1 事実性解析とは 事実性解析については,2 章で説明されたインフルエンザ・コーパスを対象とし実験を行った. ここで,インフルエンザ・コーパスを使用して事実性解析を行ったのは,インフルエンザ・ コーパスにおいては,予防方法やニュース等といった「インフルエンザに感染している」という事実をもたない発言が多いという傾向が強く見られたことから, 事実性解析の必要性が高いと判断したためである,実際に,他のコーパスに比べて,負例の割合が極端に高い傾向がある. インフルエンザの流行の検出のためには, 実際にインフルエンザに感染している人がどの程度いるのかを判断する必要がある。しかし, 機械的に「インフルエンザ」を含む発言を集めるだけでは感染している人がどの程度存在するかはわからない.このために, 集めた発言を感染者に関する発言かそうでないかの分類を行うことにより流行の検出を行う. このような分類のためには, 文に記述されている事象が, 実際に起こったことなのか, そうでないことなのかの事実性を判定する技術が必要となる。これは, 事実性解析 (Factuality analysis) と呼ばれる (Saurí and Pustejovsky 2012). 事実性解析が必要な例は以下のような例である. (1) 熱があったので、病院に行ったらインフルエンザだった。 (2)インフルエンザに罹ったかもしれない。 (3) インフルエンザに罹っていたら、休まざるを得ないだろう。 例を見ると,インフルエンザであることを「だった」として断定したり,「かもしれない」と推量をしたり,「たら」と仮定をしたりしていることがわかる。これにより,(1) は,「インフルエンザに感染する」という事実を持っており,反対に (2), (3) はこの事実を持たないと判断できる.このような表現はモダリティと呼ばれ,人間が情報の真偽を考える上で重要な手がかりになる。 ## 4.2 事実性解析の活用 本研究における事実性解析の目標は,「インフルエンザに感染している」という事実を持つ発言を検出することである,我々は,これを「対象とする事実」をもつかもたないかの 2 值分類タスクとして考え,分類器を構築し分類を行った。本章では,モダリティを利用した 2 つの手法について説明する. ## 4.2.1 つつじによる素性 事実性解析を罹患検出に活用する 1つの方法として,つつじ2 の利用を試みた. 日本語の文を構成する要素には, 主に内容的な意味を表す要素(内容語)以外に,助詞や助動詞といった,主に文の構成に関わる要素がある。ここでは, 後者を総称して,「機能語」と呼び, 「に対して」 や「なければならない」のように,複数の語から構成され,かつ,全体として機能語のように働く表現である「複合辞」と合わせて, これらを機能表現と呼ぶ (松吉, 佐藤, 宇津呂 2007). つつじは 16,801 の機能表現の表層形を階層的に分類しており, 同じような意味を持つ機能表現には同じ意味 IDが振られている。 本研究は Twitter のデータを使用しているため,発言の中には文が複数ある場合も多い.これにより,注目しているインフルエンザ感染に関連する機能表現と関係のない機能表現も多く存在すると考えられる。そこで,「インフルエンザ」の右の 15 文字中につつじの機能表現の表層形が含まれる場合にその意味 ID を素性として利用することにした。つつじによる意味 ID 素性の具体例を表 6 に示す. 表 6 つつじによる意味 ID 素性の例 \\  ## 4.2.2Zundaによる素性 次に,2つ目のモダリティの利用法として, Zunda ${ }^{3}$ の解析結果を利用する手法を提案する. Zunda は文中のイベント(動詞や形容詞, 事態性名詞など)に対して, その真偽判断(イベントが起こったかどうか), 仮想性(仮定の話かどうか)などを解析することのできる日本語拡張モダリティ解析器である。本手法においては,Zundaの出力する真偽判断の夕グを利用した.真偽判断についてのラベルとしては, 「成立」, 「不成立」,「不成立から成立」,「成立から不成立」,「高確率」, 「低確率」,「低確率から高確率」,「高確率から低確率」,「0」のラベルが存在する。真偽判断ラベルについての具体的を表 7 に示す. また, これらのラベルのうち頻出の「成立」,「不成立」「0」のラベルの解析精度を表 8 に示す. これらのラベルが各イベントに対してついているが,つつじを使用した場合と同様にインフルエンザに関連するイベントがどこに存在するかを考えなければならない. 我々は Zunda が動詞,事態性名詞を「イベント」として解析していることから,「インフルエンザ」の右に続く動詞, 事態性名詞で一番近いものをインフルエンザに関連するイベントとみなし, そのイベントとイベントに付けられたラベルの組み合わせを素性として利用した。具体例を表 9 に示す. 表 7 Zunda の真偽判断ラベル 表 8 Zunda の真偽判断夕グにおける解析精度 表 9 Zundaによる素性の例 ^{3}$ Zunda 拡張モダリティ解析器 https://code.google.com/p/zunda/ } ## 4.3 インフルエンザ感染か否かの 2 值分類の実験・評価 ## 4.3.1 実験設定 本研究は,発言をした人物,あるいはその周りの人物がインフルエンザにかかっているか否かを判定する 2 值分類を L 2 正則化ロジスティック回帰により行った。評価は 5 分割交差検定による適合率,再現率,F1-スコアを用いた。ツールとしては, Classias (ver. 1.1) ${ }^{4}$ を使用した. ウィンドウを決めるための形態素解析器としては MeCab (ver. 0.996$)^{5}$ を利用し, MeCab の辞書はIPA-Dic (ver. 2.7.0) を用いた. 本研究のような風邪等の疾患情報を検出するために発言の分類を行うタスクは先行研究 (Aramaki et al. 2011)があり, 分類のためには, 注目している疾患・症状を表す単語の周辺の単語が良い素性となることが知られている。ここでは,形態素解析により,分かち書きを行い,形態素を 1 つの単位としたウィンドウを作成した.「インフルエンザ」を含むウィンドウを中心として, 左側の 3 つの形態素と右側の 3 つの形態素を Bag of Words (BoW) の素性とし, これにモダリティに関しての素性以外を加えたものをべースラインの分類器として作成した. ベースラインに使用した素性を表 10 に示す。つつじによる素性と Zunda による素性に関しては前節の説明によるものとする. ## 4.3.2 実験結果 インフルエンザ感染に関しての 2 值分類を行った結果を表 11 に示す. まず,BoWの素性にそれぞれの素性を加えた結果について言及したい,全体を見ると,適合率は少し減少する傾向にあるが,再現率は増加する傾向にある,F1-スコアに関しては URL, RP の素性以外については全て増加している。つつじの意味 IDによる素性 Tsutsuji を加えたときは適合率, 再現率のどちらも増加している.適合率を上げることが難しいのは使用しているコーパスにおける負例の割合が非常に大きいためである。このため,再現率をあげることにより負例の多いデータからいかに正例をあつめられるかは重要である。本論文では, 適合率を上げることを主要な目的と 表 10 ベースラインに使用した素性 ^{4}$ Classias http://www.chokkan.org/software/classias/index.html.ja $5 \mathrm{MeCab}$ 日本語形態素解析器 http://taku910.github.io/mecab/ } 表 11 インフルエンザ感染に関しての 2 值分類の結果 しているが, インフルエンザ・コーパスのように正例の割合が小さく, 再現率が低くなる場合, インフルエンザの感染者の増減を捉えることは難しくなる,以上のことから,本節では,適合率と再現率の両方を考慮した F1 スコアの向上により性能を評価する. 次に,つつじによる素性とZunda によるモダリティ素性以外を全て合わせたべースライン (baseline) に対してつつじの意味 ID を加えたところ, F1-スコアが 2.2 ポイントほど向上した. BoWに加えたときと同様に,適合率,再現率が共に上がっている,また,Zunda による素性をベースラインに加えたところ, F1-スコアは 1.1 ポイントほど向上した. 最後に, ベースラインにつつじに関しての素性と, Zundaに関しての素性を両方を加えた All を使用したとき,最高精度となった.この結果は,提案手法の素性を抜いた baselineより, 3.5 ポイントのF1-スコアの向上が見られるので,提案手法の素性が有用であることを支持する. ## 4.3.3コーパスサイズの影響 データのサイズに対する精度変化を見るために学習曲線を図 1 に示す. これを見ると,デー タサイズの増加により, 適合率は 5,000 件あたりで一定値に収束しているが, 再現率, F1-スコアは増加し続けている。このことから膨大なデータを利用することでも精度向上が見达める事がわかる。一方で,コーパスの作成には人手によるアノテーションが必要でありコストがかかるため, 少ないデータでも頑健に分類ができる分類器は有用である. ## 4.4 考察 本論文では,モダリティに関しての素性の貢献を見ることができたが,実際にどのような事例に対して貢献が見られたか,また,うまくいかなくなった事例はどのようなものかについて調査する。表 12 に実際の発言例を示す. Number of tweets 図 1 コーパスサイズに対する精度変化 表 12 分類に成功した例と失敗した例 ## 4.4.1 つつじによる素性 つつじにおける素性について,分類器の判断に大きく影響を与える素性を調べた。その結果を表 13 に示す. ここで, 重みはベースラインにつつじによる素性を加えたもの (baseline+Tsutsuji) を利用した。 表 12 の発言例 1 においては,表 13 における,「らしい」のような推量のモダリティ表現をつつじの意味 ID 素性が捉えることにより,正しい出力を得るようになった. 逆に,発言例 2 においては,ひらがな 1 文字の「と」や「え」が誤ってマッチしてしまっている. 本来, このようなひらがな 1 文字のものがなければ, 正例として正しい分類をしていたのにも関わらず,誤ってマッチしたことにより,分類に失敗している。ひらがな一文字の場合,機能表現として使われていないのにも関わらずマッチしたり, 本来の意味と違った意味 ID が割り振られてしまったりすることがある。例えば「I23」の意味 ID をつひらがな「え」は表 13 に示している「うる」,「だ万う」に該当するものであり,正しい意味を捉えることができていない. ひらがな一文字の場合は前後の文脈の情報を考慮し, 機能表現として使われているかを 判別すること, どの意味の機能表現として使われているかの曖昧性を解消することが必要である. ## 4.4.2 Zunda による素性 次に,Zundaによる素性について,分類器の判断に大きく影響を与える素性を調べた。つつじの場合と同様に,重みの大きな素性を大きい順に並べた結果を表 14 に示す。ここで,重みはベースラインにZundaによる素性を加えたもの (baseline+Zunda)を利用した. 表 14 を見るとつつじの素性に比べて直感的に理解できるものが多い. インフルエンザの発言は,注意を呼びかける発言,予防接種の内容の発言,ニュースに関する発言等が多く,負の重みによくそれが現れている。正の重みに関しては直接疾患に関係のある名詞や動詞が多くなっている. 発言例 3 においては,「かかり=成立」の素性により,判別できるようになった,Zundaにお 表 13 重みの絶対値の大きい素性とその表層形例(つつじによるもの) 表 14 重みの絶対値の大きい素性とその表層形例(Zundaによるもの) いてはこのように素性がうまく働き,分類の成否を分ける例が多く見られた. 発言例 4 においては,実際に感染しているのは発言をしている本人でもなく周りの人でもないため,ここでは,負例を正解とするのが正しいが,「感染=成立」という素性のために正例になってしまっている。このように,確かにインフルエンザに感染しているという事実を持っているにも関わらず,インフルエンザに罹っている人物が,ソーシャル・メディア上で言及されやすい人物である場合, 今回のインフルエンザ・コーパスの正負の定義から, 分類に失敗する. このことから,インフルエンザに罹っている人物が誰なのかを知る必要がある。これは, 主体解析の問題として次のセクションで言及する. ## 5 主体解析 ## 5.1 主体解析が必要な事例 はじめに述べたように,Webデータをフルに利用するためには,事実性解析とならんで,誰が疾患・症状にあるのかという主体の推定(主体解析)が重要である. 例えば,「娘が風邪を引いた」という発言において「風邪」という疾患を保有するのは「娘」 であることが解析できれば,発言者の近くで「風邪」が出現したことが分かる,一方,「風邪と風を誤変換していた」という発言では「風邪」という疾患を保有している主体が存在せず,風邪の流行とは無関係である。主体が明らかになることにより,疾患・症状を保有する主体が周辺に存在しない発言を判別することができる。つまり Webの情報を利用して個人の状態を把握するためには,調べたい状態に言及する表現を認識することに加え,その状態に置かれている人物の特定が重要となる. 従来の自然言語処理においてこのタスクに最も近いのは, 述語項構造解析である。もし, 調べたい疾患・症状が事態性名詞である場合(例えば「発熱」)は,そのガ格を調べればよい。しかしながら, 疾患・症状が事態性名詞になるかどうかは, 述語項構造解析のアノテーション基準に依る所が大きく,通常「風邪」「鼻水」などは事態性名詞として扱われない. 代わりに,用言の項構造に着目するアプローチも考えられる。先ほどの「娘が風邪を引いた」 という例では,「風邪」は「引いた」のヲ格で,「娘」は「引いた」のガ格なので,「風邪」の保有者は「娘」と推定できる。しかし, このアプローチにも複数の問題がある. 第 1 に, 風邪を保有していることを表す述語を識別する問題である。例えば「医者が風邪を診察した」という文では,「風邪」は「診察した」のヲ格で,「医者」は「診察した」のガ格であるが,「風邪」の保有者は「医者」ではない,第 2 に,口語表現特有の解析誤りがある.例えば「風邪引いた」のようにヨ格が省略されると, 述語項構造解析は失敗してしまう。さらに, 「風邪ツラい」などカタカナの表現は, 形態素解析にすら失敗する可能性がある。このように, 既存の述語項構造解析の研究と, 疾患・症状を保有する主体を推定するタスクの間には,かなりの乘離がある。そ のため,既存の述語項構造解析では主体を正しく特定することは期待できない. この点を鑑み,本章では,疾患・症状を保有する主体を推定するという新しい夕スクに取り 組む。まず,ツイートの本文に対して,疾患・症状を保有する主体をラベル付けしたコーパスを構築するための方針を設計し,アノテーション作業を行った.次に,このデー夕を訓練事例として用い, 疾患・症状を保有する主体を推定する解析器を設計した。評価実験では, 主体を推定する解析器の精度を計測すると共に, 主体を推定することによる後続のタスクである罹患検出における貢献を実証した.また,疾患・症状の主体を推定するタスクは,個別の疾患・症状への依存することなく, 一般的な解析器を構築できることが分かった. ## 5.2 コーパスヘのラベル付与 風邪症状コーパスにおいて, 誰が疾患・症状にあるのかの情報を付与した。この作業は, 疾患・症状毎に 500 件ずつ, 合計で 3,000 件行った。図 2 はラベル付けの例を示しており, 疾患ラベル,ツイート,疾患クエリが 2 章で説明した風邪症状コーパスである。それに対して.疾患・症状を保有する主体が発言内に存在する場合に主体としてラベル付けし,二つ目の例のように省略されている場合には「(省略)」とした。また主体の種類を 5 つに分けた主体ラベルを用意し, 疾患・症状を保有する主体がどの主体ラベルに当てはまるかをラベル付けした. ラベルの種類と発言例を表 15 に示す.ソーシャルメディアの分析では, 一次情報(本人が観測・体験した情報)であるかどうかの識別が重要なので,「一人称」「周辺人物」「その他人物」「物体」「主体なし」の5つのラベルを用意した。 -「一人称」のラベルの, 発言した話者が疾患・症状に関与するという意味は, 必ずしも症状にある場合だけではなく, 主体が疾患・症状と関係する場合を全て含む,例えば,表 15 の一人称の発言例のように症状に対して願望を抱いている場合は,今は症状を保有していないため,カゼミル+の応用から考えると抽出したくない情報である.しかし,本章では疾患・症状と関与する主体の推定を目的としているため, 疾患・症状を保有して 図 2 ラベル付けの例 表 15 疾患症状に関する主体ラベルの種類と発言例 & \\ いない場合においても主体の同定を行う,願望以外にも,「風邪はひいていない」などの否定の発言も同様に扱い, 疾患のラベルは「負例」となる一方で主体ラベルは「一人称」 となる。疾患に罹っているかどうかの判断は, 主体を推定した後に事実性の解析で行うべきである. 主体が「周辺人物」「その他人物」の場合にも同様な条件で判断し, 主体ラベルを付与した。 - 「周辺人物」のラベルは話者が直接見聞きできる範囲の人物が症状にあるかを一つの分類基準とした. Aramaki らの風邪症状コーパス (Aramaki et al. 2011)は, 話者か話者と同じ都道府県の人物が症状にある場合に正例となるが, 人手で主体のラベル付けする際に,同じ都道府県かどうかを判断することは極めて難しいためである。 - 「その他人物」のラベルは, 疾患・症状を保有する主体となる人物が存在するが, 「一人称」「周辺人物」「物体」には該当しない全てのケースを含む.返信先に疾患・症状の主体が存在する場合が一例で, 表 15 の発言例では話者と物理的に見聞きできる距離にいることを確認できない,2つ目の例は,症状を保有する人物を観測することができるが,メディアの報道によって拡散された情報で,話者が直接見聞きした情報ではない. - 「物体」のラベルは物体,もしくは人間以外の生物が主体となる場合に付与され,パソコンなどの物体が発熱した場合が例として挙げられる。 -「主体なし」のラベルは, 発言例にある「風邪薬」のように, 風邪の単語自体に疾患のイベントが存在しておらず, 風邪が名詞句の一部として出現する場合を含む。他にも「寒気」が「さむけ」ではなくて「かんき」として使われる場合のように語義が異なる場合や, 疾患・症状が慣用句的に使われている場合, 記事・作品のタイトルとして出現する場合にも「主体なし」とした. 表 16 を見ると, 主体が「一人称」の場合にはほぼ省略されるが, 主体が「周辺人物」「その他人物」「物体」の場合には約 9 割が発言内で言及される。正解ラベルとの比率に着目すると,「一人称」と「周辺人物」の場合は約 8 割が正例である一方で,「物体」「その他人物」「主体な 表 16 疾患クエリを保有する tweet の主体ラベルの比率 ## し」の場合は 1 割以下であった. 基本的には主体が認識できれば主体ラベルを認識することができる。たたし,まれに主体が認識できるのに主体ラベルが認識が難しい場合があり,それは「周辺人物ラベル」と「その他人物ラベル」の違いが見抜けない場合などである。例えば「今日学校へ行ったら A さんが風邪たと知った」という発言では, $\mathrm{A}$ さんが風邪であるという事実を直接に見聞きしているので「周辺人物ラベル」を振っている。しかし実際には, $\mathrm{A}$ さんが有名人で, 有名人 $\mathrm{A}$ さんが風邪であるというニュースを学校で友人から聞いた, などという場合が存在している. また, 本実験では 3,000 件のアノテーションを行ったが, 1 つの発言に対象の疾患・症状が複数言及されている発言と, 同じ疾患・症状を保有する主体が複数存在する発言を除いた結果, 表 16 の合計に示されるように 2,924 件となっている. ## 5.3 実験 ## 5.3.1 主体ラベル推定器 前節のコーパスを利用して, 発言内での「風邪」や「頭痛」などの疾患・症状を保有している主体ラベルを推定する分類器を構築する,今回の実験では,「物体」と「主体なし」のラベルについて事例が少なく,また本論文において主たる推定の対象でないため, 「主体なし」に統合した. ツイート中のリツイート, 返信, URL は, 有無のフラグを残した上で削除した. 分類器には Classias 1.1 を利用し, L2 正則化ロジスティック回帰モデルを学習した. 利用した素性を表 17 に示す. ## 5.3.2 推定結果 表 18 に,5 分割交差検定により主体ラベル推定の精度を測定した結果を示す. 訓練事例として,6つの疾患・症状に関するコーパスをマージした 3,000 事例を用いた. 全ての素性を組み合わせた結果, macro F1 スコアはベースライン $(\mathrm{BoW})$ と比べて約 20 ポイント上昇した. これは, 提案した素性がうまく作用していることを示唆している. 疾患クエリ, リプライの有無, 周辺人物辞書が特に強い貢献を示した. 表 17 主体ラベル推定器の素性 & \\ 表 18 主体ラベル推定の素性と精度 表 18 において macro F1 スコアが micro F1 スコアより低い理由として, 主体ラベルの正解比率の問題が挙げられる。表 16 より,「一人称」の主体が全体の約 7 割を占めている。この比率により, 分類器のバイアス項の重みは「一人称」に傾き, 主体ラベル推定器は「一人称」のラベルを付与しやすくなっている。 よって, 「一人称」のラベルの再現率が高い一方で, その他のラベルの再現率は低下している。その結果, 発言数の少ない「周辺人物」「その他人物」「主体 なし」の推定性能が伸び悩み, macro F1 スコアが低下している. 表 19 に予測と正解の Confusion Matrix を示す. 対角成分の太字の数値は予測が正解したケー スである。(+数字)はべースラインと比べ,予測した事例数が何件変化したかを表す。例えば 「周辺人物」の推定は 34 件成功し, ベースラインからは 22 件増加している. 対角成分である太字の部分を見ると,「一人称」以外においてべースラインから大きく増えていることがわかる.これは作成した素性を利用することで,「一人称」以外の主体ラべルを推定する際の精度が向上していることを示している.「主体なし」ラべルの推定精度が大きく向上した理由として, 疾患クエリごとのラベル比の改善がある「一人称」はどの疾患においても多数存在するが, 「主体なし」は疾患毎にラベルの存在比率が異なる。例えば,「主体なし」は全体 在する。疾患クエリの素性は, これらの疾患毎の主体ラベルの比率を調整し, 推定の精度を向上させている. 表 20 に主体の有無による正解比率を示す.「一人称」の予測は, そもそも主体が明示されないことが多いので,主体の有無に影響されていない。しかし「周辺人物」と「その他人物」の予測は,主体が明示されていない場合は精度が悪くなっていることがわかる。一方,「主体なし」 は主体が明示されていないほうが正解率が良いという結果になった. これは物体における主体のバラエティが富んでいて, 現在の BoW や N-gram などのシンプルな素性では特徴を捕らえきれていないことが原因としてあげられる. 表 19 主体ラベルの予測と正解の Confusion Matrix 表 20 主体の有無による予測精度の違い ## 5.3.3 主体ラベル推定における疾患・症状への依存性 前節の実験では,6つの疾患・症状に関する全ての訓練事例を利用した。では, 疾患・症状を保有している主体を推定するタスクは,どのくらい個別の疾患・症状に依存するのか?もし主体ラベルの推定が個別の疾患・症状に依存せず,新しい疾患・症状を対象とした主体ラべルを推定する際に,他の疾患・症状の教師データを利用することができれば,新しくその疾患・症状のための教師ありコーパスを構築するコストを削減することができる.この課題を事前に把握するため, 本章では, 風邪症状コーパスに含まれる事例のうち疾患クエリとして「風邪」が付与されている事例のみを用いた場合と, 風邪症状コーパスに含まれる全ての事例を用いた場合の性能を比較する,以降,簡単のため, 風邪症状コーパスの部分集合として, 疾患クエリとして「風邪」が付与されている事例の集合を, 特に風邪クエリコーパスと呼ぶ. コーパス毎の相違点としては, 例えば, 「風邪」と「引く」の共起頻度は高い一方で, 別の疾患クエリ,例えば「頭痛」の事例においては,「引く」は寄与しない。よって,風邪クエリコー パスにおける主体の推定と頭痛クエリコーパスにおける主体の推定が異なる課題になっている可能性があり,そのため,新しい疾患を考えたときに主体ラベル推定の精度が悪化する可能性がある 図 3 は風邪クエリの主体ラベルを推定する際に 5 分割交差検定を行った結果を示している.実線は風邪クエリコーパスのみを用いて学習した場合で,コーパスサイズを 100 件, 200 件, 300 件, 400 件増やしている。点線は, 風邪症状コーパスに含まれる全ての事例を風邪クエリコー パスに足して学習した場合の性能で, 風邪クエリコーパスを 400 件で固定し, 風邪以外のコー パスをランダムに $625,1,250,1,875 , 2,500$ 件増やした。風邪クエリの主体ラベルを予測するタスクなので, 風邪クエリに関する学習データとの相性がよく, 400 件の学習データを用いた 図 3 コーパスサイズと推定精度 場合の F1 スコアは 45.1 であった. 一方, 風邪クエリ以外の症状に関する学習デー夕を追加し, 2,900 件の訓練事例を用いて風邪の主体ラベルを予測した場合の $\mathrm{F} 1$ スコアは 57.3 で,風邪クエリのみの学習データを用いた場合と比較すると 12.2 ポイント向上した. 風邪クエリの主体ラベルを予測するだけであれば,風邪クエリコーパスを増やすことが最も 効果的であるが,風邪クエリ以外の疾患・症状の主体に関する訓練事例を増やすことで,特定の疾患・症状だけに依存しない汎用的な主体推定器を構築できる可能性が示唆された. 同様の傾向は,他の疾患・症状を予測対象とした場合でも確認された. ただ,疾患・症状を保有する主体の事前分布にばらつきがあるため,疾患・症状の依存性が皆無という訳ではない,例えば,頭痛に関する言及では 9 割以上の主体が一人称の頭痛のことを表すが,熱に関しては物体の状況(例えばPC の発熱など)を言及するものも多い.したがって, 幅広い疾患・症状をカバーしたコーパスを構築し, 主体推定器の汎用性を改善していく必要がある. ## 5.3.4推定した主体ラベルを利用いて罹患検出を行った結果 本研究の本来の目的である, 罹患検出において, 本研究で構築した主体ラベル推定器がどのくらい貢献するのか,実験を行った。表 21 は本論文で提案した主体ラベル推定器を利用して主体ラベルを推定し,その主体ラベルを素性に追加して疾患・症状の有無を判定した結果である.なお,ベースライン手法は先行研究 (Aramaki et al. 2011)の設計を参考にしたが,それに加えて, 主体ラベル推定器によって推定された主体ラベルを素性として利用した. 分類器には Classias 1.1 を使用し, L2 正則化ロジスティック回帰モデルを学習した。学習事例は 6 つの疾患・症状においてそれぞれ 500 件ずつ利用し, 5 分割交差検定を行った. 推定した主体ラベルを素性として利用して罹患検出を行った結果, 寒気の F1 スコアが 5.5 ポイント,熱のF1 スコアが 2 ポイント向上し, 全体の macro F1 スコアも 1.3 ポイント向上した.本研究で付与した主体の正解ラベル(ゴールドデー夕)を素性として利用した場合とべースラインを比較すると,「風邪・咳・頭痛・鼻水」は $\mathrm{F} 1$ スコアで $2 \sim 4$ ポイント程度向上し,「寒気・熱」は 10 ポイント以上向上した. これにより主体を正しく判定することができれば,平均で約 6 ポイントの F1 スコアの向上が見込める。本研究で構築した主体推定器により, 特に「寒気・熱」において,ゴールドデータとの差を縮めることができた。寒気の精度が向上した理由のひ 表 21 疾患 ・ 症状判別器の素性と $\mathrm{F}$ 値 とつには,「寒気」が「さむけ」ではなく「かんき」として使われる場合や,「悪寒」が「予感」 として使われる場合を排除できたことが挙げられる。一方で「頭痛」や「鼻水」においては,ほとんど精度を向上させることができなかった。これは,「頭痛」や「鼻水」が症状の場合に「一人称」が主体として使用される場合が多く,あまり他人の症状に言及していないためだと考えられる。 3 章で罹患検出のエラー分析をした結果から,主体解析により False Positive のうち $38.3 \%$ のエラー 6 を解消することが可能になると述べた。では,実際に主体解析を行った結果として,罹患検出のエラーをどの程度解消できたと言えるだろうか? 表 21 の一番右のエラー解消率には,ベースラインと比べたときのエラー解消率が示されている。推定した主体を素性として罹患検出を行った場合には, $8.4 \%$ のエラーを解消することができた。 これより,ベースラインと比べれば精度が改善されている一方で,まだ主体の推定に誤りが含まれることがわかる。一方で,主体の正解ラベルを素性として罹患検出を行ったところ, $38.1 \%$ エラーを解消することができた。これは罹患検出のエラー分析を行った際の主体の違いが原因となったエラー率よりも高く, 主体の違いによるエラーが解消できていると考えられる. ## 6 事実性解析と主体解析 最後に,4 章の疾患があったのかという「事実性解析」と, 5 章の疾患を所有しているのは誰なのかという「主体解析」を合わせて実験を行った. ベースライン手法は 4 章の設計を利用し, それに加えて,主体ラベル推定器によって推定された主体ラベルを素性として利用した。主体ラベルを推定する時には,インフルエンザコーパスからも,発言をランダムに 500 件抽出して主体の正解ラベルを付与し,それをインフルエンザの主体を学習する際のデータとして扱った。分類器には Classias 1.1 を使用し,L2 正則化ロジスティック回帰モデルを学習した。学習事例はインフルエンザコーパスと風邪症状コーパスの疾患・症状において,それぞれ 500 件ずつ利用し, 5 分割交差検定を行った。実験結果を表 22 に示す. 表 22 疾患・症状判別器の素性と $\mathrm{F}$ 值 ^{6}$ False Positive と False Negative を合わせた全体のエラーのうちでは, およそ $26 \% を$ 占めている. } ベースライン 7 と比ベて, ベースラインに事実性解析を追加した結果から, 事実性解析はインフルエンザにおいては大幅に上昇しているが,風邪症状コーパスに対しては,あまり変化が見られなかった. この理由としては, 主体の問題や比喻的な問題が大きく関係していると考えられる. 主体の問題の例としては, 事実が確認出来たとしても, 発言の返信先の人物が疾患に罹っている場合が挙げられる,比喻的な問題としては,例えば,鼻水の発言「面白すぎて鼻水が出たわ」では,「鼻水」が「出た」事実を解析することができたとしても,それが比喻的な表現であって, 疾患は成立していない. これらの問題により, 事実性の解析だけではあまり精度の向上が望めなかった。 一方, ベースラインに事実性解析と主体解析の両方を組み合わせた結果, 主体の問題が多少解決されることにより, ベースラインと比べて全体の macro F1 スコアで 3.3 ポイント向上した. これにより,事実性解析と主体解析をうまく組み合わせることで,より精度を向上させることができることが確認できた. さらに事実性と主体のゴールドラベルを合わせた結果, 全ての疾患・症状において大幅に精度が向上し, 全体の macro F1 スコアで 9.6 ポイント向上した. 従って, 事実性と主体の情報が疾患・症状判別タスクに有用な情報であるということが分かる. ## 7 関連研究 自然言語処理の研究は, Twitter を始めとしたソーシャルメディアの解析において 2 つの主要なタスクに取り組んできたと言える:(1)ひとつは実在する自然言語処理の技術をノイジーなテキストに適応させることで, (2) もうひとつは, そこから知識や統計量を抽出することである. 前者としては品詞夕グ付けの精度改善 (Gimpel, Schneider, O'Connor, Das, Mills, Eisenstein, Heilman, Yogatama, Flanigan, and Smith 2011) や固有表現認識 (Plank, Hovy, McDonald, and Søgaard 2014)のタスクを始めとして, 崩れた単語の正規化などが行われてきた (Han and Baldwin 2011; Chrupała 2014). 後者としては, イベント抽出やユーザ行動分析など様々なアプリケーションが提案されてきた (表 23). なかでも, 疾患, 特に即時的な把握が必要される感染症の流行検出は, 主要な Twitter 利用法の 1 つとして多くの研究がある. 感染症の流行は, 毎年, 百万人を越える患者を出しており, 重要な国家的課題となっている (国立感染症研究所 2006). 中でも,インフルエンザは事前に適切なワクチンを準備することにより,重篤な状態を避けることが可能なため, 感染状態の把握は各国における重要なミッションとなっている (Ferguson, Cummings, Cauchemez, Fraser, Riley, Meeyai, Iamsirithaworn, and  表 23 Twitter を用いた関連研究 \\ Burke 2005). この把握はインフルエンザ・サーベイランスと呼ばれ,膨大なコストをかけて調査・集計が行われてきた,インフルエンザ以外でも, West Nile ウィルス検出 (Sugumaran and Voss 2012) など感染症の把握に Twitter などのソーシャルメディアを利用する試みは多い. 本邦においてもインフルエンザが流行したことによって総死亡者数は, 毎年 1 万人を超えており (大日,重松,谷口,岡部 2003),国立感染症研究所を中心にインフルエンザ・サーベイランスが実施されている8. しかし,これらの従来型の集計方式は,集計に時間がかかり,また,過疎部における収集が困難だという問題が指摘されてきた 9 .このような背景のもと,近年,ソーシャルメディアを用いた感染症サーベイランスが,現行の調査法と比べて大規模かつ,即時的な収集を可能にするとして,数多く提案されている (Lampos and Cristianini 2010; Culotta 2010a; Paul and Dredze 2011; Aramaki et al. 2011; 谷田,荒牧,佐藤,吉田,中川 2011). しかしながら, 実際に Twitter からインフルエンザに関する情報を収集するのは容易ではない.例えば,ニュースや有名人の罹患に関するリツイートなど,多くのノイズが混入する. Aramaki ら (Aramaki et al. 2011) によると,「インフルエンザ」に関するツイートの半数は,本人の罹患に関するものではないと報告されている. これを解決するための 1 つの方法は,キーワードのセットを適切に選ぶ方法が考えられる.例えば,「インフルエンザ」だけでなく「高熱」や「休む」などのキーワードを加えることで,より確かに罹患者を抽出できると考えられる。 そこで,インフルエンザの流行と相関の高いキーワー ド群を,L1 正規化を用いた単語の次元圧縮によって得る方法 (Lampos and Cristianini 2010),疾患をある種のトピックとみたてトピックモデルを用いる方法 (Paul and Dredze 2011) や,素性選択を適応する手法 (谷田他 2011) などが提案されている. ^{9}$ http://sankei.jp.msn.com/life/news/110112/bdy11011222430044-n1.htm } 一方で, キーワードを固定して, 疾患・症状がポジティブな発言のみを分類するというアプローチもある.高橋ら (高橋, 野田 2011)の Boosting を用いた文書分類, Aramaki ら (Aramaki et al. 2011) がSVMによる分類手法を提案している。本研究も後者をアプローチに属するが,モダリティの解析や, 主体の解析いう 2 つの自然言語処理の問題を導入することで, 精度を高めることに成功した。 以降,この 2 つの自然言語処理研究について関連研究をまとめる. ## 7.1 主体解析の関連研究 本研究で扱った主体解析とは, 疾患に関係のある名詞の項を判別する意味解析だと考えることができる。関連する研究としては, PropBank (Palmer, Gildea, and Kingsbury 2005) は動詞の意味役割を大規模にアノテートした初めてのコーパスであり, NomBank (Meyers, Reeves, Macleod, Szekely, Zielinska, Young, and Grishman 2004)は, それと似た規則で名詞の項にラべルが付与されている. 例えばNomBankでは, “There have been no customer complaints about that issue." において, ARG0 として, “customer"がアノテートされ, ARG1として“issue"がアノテートされる. さらに,このアノテーションが扱う範囲を広げる研究もある (Gerber and Chai 2010). 日本語においても, 京都大学テキストコーパス $4.0^{10}$ やNAISTテキストコーパス (Iida, Komachi, Inui, and Matsumoto 2007)において,事態性名詞の項が付与されるなど近いアノテーションが試みられている. Komachi ら (Komachi, Iida, Inui, and Matsumoto 2007) は, 対象となる名詞に事態性があるか否かの事態性判別と,その後の項同定を別タスクとして扱い,解析精度を報告している。また,「娘の風邪」などの名詞句内の関係を解析する研究 (Sasano and Kurohashi 2009)も関連がある。発言内で疾患・症状の主体が省略されていることも多いため, 省略・照応解析 (Sasano, Kawahara, and Kurohashi 2008)とも関連がある. 本研究で扱う課題も, 基本的には, ある疾患に関する表現に関する項 (ARG0)の同定を行なうタスクとみなすことができる. しかし, 疾患に関する表現, 例えば, 「寒気」, などは意味としては事態性をもった概念であるが, 文法的には, 事態性があると認められず, 単純な事態性の名詞の項同定として考えることはできない,つまり,意味的な疾患概念が,文法的な事態に対応づけられない場合がある. しかも,今までの事態性名詞の研究は主に新聞を元にしたコーパスで行われており,Twitter 上への適応が困難だという技術的問題もある。これらの理由から, 我々は疾患を保有する主体の推定を目的とし, 主体推定器のためにラベルを付与することを試みた.  ## 7.2 モダリティ解析の関連研究 先行研究 (Aramaki et al. 2011) では, モダリティに関しての事例を集めたコーパスを作成することでモダリティ情報を利用しているが,本研究では,既存のリソースやツールを活用することで,コーパス作成の手間を省き,一般的なモダリティ解析が疾患のモダリティ解析にも貢献することを示した. 日本語モダリティに関するリソースとしては, 文献 (松吉, 江口, 佐尾, 村上, 乾, 松本 2010) が態度表明, 時制, 仮想, 態度, 真偽判断, 価值判断, 焦点などについて詳細に事象アノテー ションを行っている.焦点を除いた 6 種の項目を拡張モダリティと呼び,情報抽出や含意認識といった自然言語処理のタスクへの応用に向けて研究が行われている。本研究は, 意味 ID として,これを素性化したが,モダリティ間の類似関係など,さらに䋊密な素性化が可能であり,今後の課題としたい. また, このような研究は日本語だけでなく英語に関しても活発であり, 文献 (Saurí and Pustejovsky 2012) がモダリティを用いて,事実性の度合いを判断する研究を行っている。また,特にモダリティの一部である否定 (Negation) や推量 (Speculation) については, 情報抽出の実用化のために重要であり, 専門のワークショップ [NeSp-NLP 2010] が開催されるなど盛んに研究されてきている. 本研究にこれらの知見を導入することで, さらなる精度向上が期待される. ## 8 おわりに 本論文では, Web 応用タスク (WebNLP) を立ち上げ,実用性を強く意識しつつ,次のゴールの達成に向けて研究・議論を行った。その中で,NLPによるソーシャルリスニングを実用化した事例の 1 つである,ツイートからインフルエンザや風邪などの疾患・症状を認識する罹患検出のタスクに取り組んだ。まず,ソーシャルメディア上のテキストを分析する際の現状の自然言語処理技術が抱えている問題を認識し,課題を整理した,分析結果から,事実性の解析,状態を保有する主体の判定が重要かつ一般的な課題として切り出せると判断した. これらの課題を陽に扱った手法により実験した結果,両問題がそれぞれ罹患検出に貢献することを明らかにした. 4 章では, 事実性解析の本タスクへの貢献を実験的に調査し,その分析から事実性解析の課題を議論した. 具体的には, インフルエンザの流行検出のため, モダリティの素性を組み込む手法を提案し, これが「インフルエンザに感染している」という特定の事実の検出を目標とする事実性解析に貢献することを示した. 5 章では, 複数の疾患・症状に関して, その疾患・症状を保有する主体を推定する取り組みを紹介した. 構築したコーパスを訓練事例とした主体推定器を作成し, 主体の推定が micro F1 ス コアで 84 ポイント程度の性能で行えること, 異なる疾患・症状に対して横断的な主体の推定が可能であることを報告した。さらに推定した主体が疾患・症状を判定する上でどの程度貢献するのか実証し, 主体を正しく推定できれば罹患検出を行う際にどの程度までエラーを減らすことができるかを示した。 さらに 6 章では, 事実性解析と主体解析を組み合わせた実験を行い,その精度を確認した。 ソーシャルメディア上の発言から個人の状態を分析することは, 疾患の流行検出のみならず,個人の健康状態をモニタリングするなどの重要な応用が多く存在する.今後は,さらに多くのソーシャルメディア上のテキストでも検証を進め, 両解析技術が発展し, より深くWebテキストを扱うことが期待される。 ## 謝 辞 本研究は, ProjectNextNLP「Web 応用タスク」による. 本研究は首都大学東京傾斜的研究費 (全学分) 学長裁量枠戦略的研究プロジェクト戦略的研究支援枠「ソーシャルビッグデータの分析・応用のための学術基盤の研究」, JST さきがけから部分的な支援を受けた. ## 参考文献 荒牧英治, 森田瑞樹, 篠原 (山田) 恵美子, 岡瑞起 (2011). ウェブからの疾病情報の大規模かつ即時的な抽出手法. 言語処理学会第 17 回年次大会, pp. 838-841. Aramaki, E., Maskawa, S., and Morita, M. (2011). "Twitter Catches The Flu: Detecting Influenza Epidemics using Twitter." In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 1568-1576. Bergsma, S., Dredze, M., Van Durme, B., Wilson, T., and Yarowsky, D. (2013). "Broadly Improving User Classification via Communication-Based Name and Location Clustering on Twitter." In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1010-1019. Chrupała, G. (2014). "Normalizing Tweets with Edit Scripts and Recurrent Neural Embeddings." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 680-686. Culotta, A. (2010a). "Detecting Influenza Outbreaks by Analyzing Twitter Messages." arXiv preprint arXiv:1007.4748. Culotta, A. (2010b). "Towards Detecting Influenza Epidemics by Analyzing Twitter Messages." In Proceedings of the 1st Workshop on Social Media Analytics (SOMA), pp. 115-122. Ferguson, N. M., Cummings, D. A. T., Cauchemez, S., Fraser, C., Riley, S., Meeyai, A., Iamsirithaworn, S., and Burke, D. S. (2005). "Strategies for Containing an Emerging Influenza Pandemic in Southeast Asia." Nature, 437 (7056), pp. 209-214. Gerber, M. and Chai, J. Y. (2010). "Beyond NomBank: A Study of Implicit Arguments for Nominal Predicates." In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, pp. 1583-1592. Gimpel, K., Schneider, N., O’Connor, B., Das, D., Mills, D., Eisenstein, J., Heilman, M., Yogatama, D., Flanigan, J., and Smith, N. A. (2011). "Part-of-Speech Tagging for Twitter: Annotation, Features, and Experiments." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 42-47. Han, B. and Baldwin, T. (2011). "Lexical Normalisation of Short Text Messages: Makn Sens a \#twitter." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 368-378. Han, B., Cook, P., and Baldwin, T. (2013). "A Stacking-based Approach to Twitter User Geolocation Prediction." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 7-12. Iida, R., Komachi, M., Inui, K., and Matsumoto, Y. (2007). "Annotating a Japanese Text Corpus with Predicate-Argument and Coreference Relations." In Proceedings of the Linguistic Annotation Workshop, pp. 132-139. 鍛治伸裕, 福島健一, 喜連川優 (2009). 大規模ウェブテキストからの片仮名用言の自動獲得. 電子情報通信学会論文誌(D 情報・システム), J92-D (3), pp. 293-300. 河原大輔, 黒橋禎夫 (2005). 格フレーム辞書の漸次的自動構築. 自然言語処理, 12 (2), pp. 109-131. Kazama, J. and Torisawa, K. (2007). "Exploiting Wikipedia as External Knowledge for Named Entity Recognition." In Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLPCoNLL 2007), pp. 698-707. 国立感染症研究所 (2006). インフルエンザ・パンデミックに関する Q \& A(2006.12 改訂版).国立感染症研究所感染症情報センター. 小町守,飯田龍,乾健太郎,松本裕治 (2010). 名詞句の語彙統語パターンを用いた事態性名詞の項構造解析. 自然言語処理, $\mathbf{1 7}$ (1), pp. 141-159. Komachi, M., Iida, R., Inui, K., and Matsumoto, Y. (2007). "Learning Based Argument Structure Analysis of Event-nouns in Japanese." In Proceedings of the Conference of the Pacific Association for Computational Linguistics (PACLING), pp. 120-128. Lamb, A., Paul, M. J., and Dredze, M. (2013). "Separating Fact from Fear: Tracking Flu Infec- tions on Twitter." In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 789-795. Lampos, V. and Cristianini, N. (2010). "Tracking the flu pandemic by monitoring the Social Web." In 2nd IAPR Workshop on Cognitive Information Processing (CIP 2010), pp. 411-416. Li, J., Ritter, A., Cardie, C., and Hovy, E. (2014a). "Major Life Event Extraction from Twitter based on Congratulations/Condolences Speech Acts." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1997-2007. Li, J., Ritter, A., and Hovy, E. (2014b). "Weakly Supervised User Profile Extraction from Twitter." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 165-174. Marchetti-Bowick, M. and Chambers, N. (2012). "Learning for Microblogs with Distant Supervision: Political Forecasting with Twitter." In Proceedings of the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 603-612. Matsuyoshi, S., Eguchi, M., Sao, C., Murakami, K., Inui, K., and Matsumoto, Y. (2010). "Annotating Event Mentions in Text with Modality, Focus, and Source Information." In Proceedings of the 'th conference on International Language Resources and Evaluation (LREC'10), pp. 1456-1463. 松吉俊, 江口萌, 佐尾ちとせ, 村上浩司, 乾健太郎, 松本裕治 (2010). テキスト情報分析のための判断情報アノテーション. 電子情報通信学会論文誌 D, 93 (6), pp. 705-713. 松吉俊, 佐藤理史, 宇津呂武仁 (2007). 日本語機能表現辞書の編纂. 自然言語処理, $14(5)$, pp. 123-146. Meyers, A., Reeves, R., Macleod, C., Szekely, R., Zielinska, V., Young, B., and Grishman, R. (2004). "The NomBank Project: An Interim Report." In Proceedings of the NAACL/HLT Workshop on Frontiers in Corpus Annotation, pp. 24-31. Munteanu, D. S. and Marcu, D. (2005). "Improving Machine Translation Performance by Exploiting Non-Parallel Corpora." Computational Linguistics, 31 (4), pp. 477-504. Narita, K., Mizuno, J., and Inui, K. (2013). "A Lexicon-based Investigation of Research Issues in Japanese Factuality Analysis." In Proceedings of the 6th International Joint Conference on Natural Language Processing, pp. 587-595. O'Connor, B., Balasubramanyan, R., Routledge, B. R., and Smith, N. A. (2010). "From Tweets to Polls: Linking Text Sentiment to Public Opinion Time Series." In Proceedings of the 4th International AAAI Conference on Weblogs and Social Media (ICWSM), pp. 122-129. 大日康史, 重松美加, 谷口清州, 岡部信彦 (2003)、インフルエンザ超過死亡「感染研モデル」 2002/03 シーズン報告. Infectious Agents Surveillance Report, 24 (11), pp. 288-289. Palmer, M., Gildea, D., and Kingsbury, P. (2005). "The Proposition Bank: An Annotated Corpus of Semantic Roles." Computational Linguistics, 31 (1), pp. 71-106. Pang, B., Lee, L., and Vaithyanathan, S. (2002). "Thumbs Up?: Sentiment Classification Using Machine Learning Techniques." In Proceedings of the ACL-02 Conference on Empirical Methods in Natural Language Processing - Volume 10, pp. 79-86. Paul, M. J. and Dredze, M. (2011). "You Are What You Tweet: Analysing Twitter for Public Health." In Processing of the 5th International AAAI Conference on Weblogs and Social Media (ICWSM). Plank, B., Hovy, D., McDonald, R., and Søgaard, A. (2014). "Adapting Taggers to Twitter with Not-so-distant Supervision." In Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers, pp. 1783-1792. Sakaki, T., Okazaki, M., and Matsuo, Y. (2010). "Earthquake Shakes Twitter Users: Real-time Event Detection by Social Sensors." In Proceedings of the 19th international conference on World Wide Web ( $W W W$ ), pp. 851-860. Sasano, R., Kawahara, D., and Kurohashi, S. (2008). "A Fully-Lexicalized Probabilistic Model for Japanese Zero Anaphora Resolution." In Proceedings of the 22nd International Conference on Computational Linguistics (COLING), pp. 769-776. Sasano, R., Kawahara, D., and Kurohashi, S. (2010). "The Effect of Corpus Size on Case Frame Acquisition for Predicate-Argument Structure Analysis." IEICE TRANSACTIONS on Information and Systems, E93-D (6), pp. 1361-1368. Sasano, R. and Kurohashi, S. (2009). "A Probabilistic Model for Associative Anaphora Resolution." In Conference on Empirical Methods in Natural Language Processing, Vol. 3, pp. 1455-1464. Sato, T. (2015). "Neologism Dictionary Based on the Language Resources on the Web for Mecab." https://github.com/neologd/mecab-unidic-neologd. Saurí, R. and Pustejovsky, J. (2012). "Are You Sure That This Happened? Assessing the Factuality Degree of Events in Text." Computational Linguistics, 38 (2), pp. 261-299. Shen, C., Liu, F., Weng, F., and Li, T. (2013). "A Participant-based Approach for Event Summarization Using Twitter Streams." In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1152-1162. Sugumaran, R. and Voss, J. (2012). "Real-time Spatio-temporal Analysis of West Nile Virus Using Twitter Data." In Proceedings of the 3rd International Conference on Computing for Geospatial Research and Applications, p. 39. ACM. 高橋哲朗, 野田雄也 (2011). 実世界のセンサーとしての Twitter の可能性. 電子情報通信学会情報・システムソサイエティ言語理解とコミュニケーション研究会, pp. 43-48. 谷田和章, 荒牧英治, 佐藤一誠, 吉田稔, 中川裕志 (2011). Twitter による風邪流行の推測. マイニングツールの統合と活用 \& 情報編纂研究会, pp. 42-47. Thelwall, M., Buckley, K., and Paltoglou, G. (2011). "Sentiment in Twitter Events." Journal of the American Society for Information Science and Technology, 62 (2), pp. 406-418. Varga, I., Sano, M., Torisawa, K., Hashimoto, C., Ohtake, K., Kawai, T., Oh, J.-H., and De Saeger, S. (2013). "Aid is Out There: Looking for Help from Tweets during a Large Scale Disaster." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1619-1629. Williams, J. and Katz, G. (2012). "Extracting and Modeling Durations for Habits and Events from Twitter." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 223-227. Zhou, D., Chen, L., and He, Y. (2014). "A Simple Bayesian Modelling Approach to Event Extraction from Twitter." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 700-705. ## 略歴 叶内晨:2011 年東京都立国立高等学校卒業. 2015 年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業. 同年, 同大学院博士前期課程に進学. 北川善彬:2010 年私立明法高等学校卒業. 2015 年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業. 同年, 同大学院博士前期課程に進学. 荒牧英治:2000 年京都大学総合人間学部卒業. 2005 年東京大学大学院情報理工系研究科博士課程修了. 博士 (情報理工学). 以降, 東京大学医学部附属病院特任助教を経て, 奈良先端科学技術大学院大学特任准教授. 医療情報学, 自然言語処理の研究に従事. 岡崎直観:2007 年東京大学大学院情報理工学研究科博士課程終了. 2005 年英国テキストマイニングセンター・リサーチフェロー, 2007 年東京大学大学院情報理工学系研究科・特別研究員を経て, 2011 年より東北大学大学院情報科学研究科准教授. 専門は, 自然言語処理, テキストマイニング, 機械学習. 小町守:2005 年東京大学教養学部基礎科学科科学史・科学哲学分科卒業. 2007 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2008 年より日本学術振興会特別研究員 (DC2) を経て, 2010 年博士後期課程修了.博士 (工学). 同年より同研究科助教を経て, 2013 年より首都大学東京システムデザイン学部准教授. 大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある. 情報処理学会, 人工知能学会, 言語処理学会, 電子情報通信学会, ACL 各会員. $(2015$ 年 5 月 21 日受付 $)$ $(2015$ 年 8 月 7 日再受付) $(2015$ 年 9 月 16 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 誤り分析に基づく日本語事実性解析の課題抽出 成田 和弥 $\dagger \cdot$ 水野 敦太 $^{\dagger \dagger} \cdot$ 上岡 裕大 $^{\dagger} \cdot$ 菅野 美和 + 乾 健太郎 $\dagger$ 事実性は,文中の事象の成否について,著者や登場人物の判断を表す情報である.事実性解析には,機能表現や,文節境界を越えて事実性に影響を与える語とそのス コープなどの 4 種類の問題が含まれており, 性能の向上が容易ではない. 本研究で は, 事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533 文に含まれる 3,734 事象に適用した結果の誤りを分析し た.このとき全ての事象表現について,付随する機能表現に対して人手で意味ラべ ルを付与した。その結果, 主事象の事実性解析については, 機能表現の意味ラベル が正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけ でも, $90 \%$ に近い正解率が得られることがわかった. 従属事象の事実性解析では, 後続する述語やスコープといった従属事象特有の誤りが多く見られた. それらの要素 についてさらなる分析を行い,今後の事実性解析の指針を示した. キーワード:事実性,モダリティ,機能表現,スコープ ## Understanding the Technical Issues in Japanese Factuality Analysis Through Error Analysis \author{ Kazuya Narita $^{\dagger}$, Junta Mizuno ${ }^{\dagger \dagger}$, Yudai Kamioka ${ }^{\dagger}$, \\ Miwa $\mathrm{Kanno}^{\dagger}$ and Kentaro Inui ${ }^{\dagger}$ } Event factuality is information pertaining to whether events mentioned in the natural language correspond to either actual events that have occurred in the real world or events that are of uncertain interpretation. In factuality analysis, sufficient performance is yet to be achieved because of the complexity of issues such as functional expression and linguistic scope. This paper discusses the issues involved in factuality analysis by analyzing errors when applying a rule-based system to 3,734 events in 1,533 sentences. We annotate functional expression labels for all events. In the main events, the factuality analyzer, consisting of simple functional expression rules, achieves approximately $90 \%$ accuracy if correct functional expression labels are provided. In subordinate events, we found many errors specific to subordinate events, such as errors caused by predicates and linguistic scopes. We provide guidelines for factuality analysis through additional discussion regarding predicates and linguistic scope. Key Words: Event Factuality, Modality, Functional Expressions, Linguistic Scope  ## 1 はじめに 近年, ブログ等の個人が自由に情報を発信できる環境の爆発的な普及に伴い, 膨大なテキス卜情報が Web 上に加速度的に蓄積され,利用できるようになってきている。これらの情報を整理し,そこから有益な情報を得るためには,「誰が」「いつ」「どこで」「何を」といった情報を認識するだけでなく, 文に記述されている事象が, 実際に起こったことなのかそうでないことなのかという情報を解析する必要がある,我々はこのような,文中の事象に対する,著者や文中の登場人物による成否の判断を表す情報を事実性と呼ぶ. (1) a. 商品 $\mathrm{A}$ を使い始めた。 b. 商品 $\mathrm{A}$ を使うのは簡単ではなかった。 c. 商品 $\mathrm{A}$ を使ってみたい。 d. 商品 $\mathrm{A}$ を使っているわけではない。 e. 商品 $\mathrm{A}$ を使っているはずだ。 (1)に示す例は, いずれも「商品 $\mathrm{A}$ を使う」という事象が含まれるが, その事実性は異なる。(1a) と (1b) は,事象が成立していると解釈できる一方で,(1c) と (1d) は,事象は成立していないと解釈できる。さらに (1e) は,事象の成立を推量していると解釈できる。評判分析などの文脈で, 商品 A を使っているユーザの情報のみを抽出したい場合, (1)に示した全ての文に対して,「商品 $\mathrm{A}$ を使う」と照合するだけでは, (1c)や (1d) といった, 商品 $\mathrm{A}$ を実際には使っていないユーザの情報まで抽出されてしまう。そこで事実性解析を用いると,(1a)や (1b) が実際に商品 $\mathrm{A}$ を使っており, (1c)や (1d) が使っていない, (1e) は使っていない可能性がある, ということを区別することができる。事実性解析は, 評判分析だけでなく, 含意関係認識や知識獲得といった課題に対しても重要な技術である (Karttunen and Zaenen 2005; Saurí and Pustejovsky 2007; Hickl 2008). 事実性解析は,事象が実際に起こったかを解析する技術ではあるが,真に起こったかどうかを与えられた文のみから判断することは不可能である.例えば,「太郎は先に帰ったはずです。」 という文に対して,「太郎は帰った」という事象が真に事実か否かは,「太郎」にしか分からない,そこで本研究では,事実性を,文中の事象の成否について,著者の判断を表す情報と定義する,ただし,実際には著者の判断も真にはわからないため,著者の判断を読者がどう解釈できるかによって事実性を表す。前述の例では, 著者は事象「太郎は帰った」の成立を推量していると読者は解釈できる. 事実性の付与対象となる事象は, 松吉, 江口, 佐尾, 村上, 乾, 松本 (2010) と同様に, 行為,出来事, 状態の総称であると定義する. b. $\langle\langle$ 混雑 $\rangle$ 状態していたら、別のところに〈〈行き $\rangle$ 行為ます。 (2)に示す例では,「(雨が) 降る」,「(バスで) 行く」,「混雑する」,「(別のところに) 行く」が全て事象である。〈〈〉で囲まれた述語は,それぞれの事象の中心となる語であり,事象参照表現(あるいは単に事象表現)と呼ぶ。アノテーションや解析において,事実性のラベルは事象表現に付与する. 先行研究では,事実性だけでなく,時制などの関連情報についても,付与基準が議論されるとともに,コーパス構築が進められてきた (Saurí and Pustejovsky 2009; 松吉他 2010; 川添, 齊藤, 片岡, 崔, 戸次 2011a, 2011b). 日本語を対象とした事実性解析の研究は少なく, 述部 (本研究の事象表現に相当)に続く表現形式によるルールベースの解析(梅澤,西尾,松田,原田 2008) や,機械学習に基づく解析器 (江口,松吉,佐尾,乾,松本 2010) がある.前者はその性能は報告されていないが,後者の解析性能は,9 種類の事実性ラベルの分類性能がマクロ $\mathrm{F}$ 值で $48 \%$ であり,実用上十分とはいえない. 事実性解析の性能向上が困難である理由の一つは,事象表現に続く機能表現の多様性にある。 もんか」のように,事象が成立しないことを示す機能表現(下線部)が多々ある.機能表現以外に,「《使う〉のをやめた」のように,文節境界を越えて事象の不成立を示唆する述語(下線部)の存在もあり,さらにこれらの要素の組み合わせが,事実性解析の性能向上を阻んでいる. 本研究では, 事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533 文に含まれる 3,734 事象に適用した結果の誤りを分析する.このとき全ての事象表現に続く機能表現に対して意味ラベルを人手で付与する.要素の組み合わせを解きほぐすために,3,734 事象を, 最も文末に近い主事象 1,533 事象と, それ以外の従属事象 2,201 事象に分割し,それぞれについて誤り分析を行う。 誤り分析の結果,主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも, $90 \%$ に近い正解率が得られることがわかった.また,機能表現解析の問題を除けば,誤りの半数は副詞に起因するものであった,一方で,従属事象の事実性解析は,主事象に比べて考慮すべき要素が多いため,性能も低いことがわかった.従属事象でのみ考慮すべき要素は大きく二つあり,文節境界を越えて事実性に影響を与える述語と, 従属事象に直接付随しない機能表現の影響である。前者は,既存の辞書のカバレッジを調査した結果,これを利用することで誤りの一部を解消できるものの, さらなる拡充が必要であることが分かった. 後者は, 問題となるケースは多様ではないことと,隣接する事象の機能表現が及ぼす範囲(スコープ)を精緻に判定することで概ね解決できることを確認した。 ## 2 関連研究 事実性に大きく関連する概念として, 態度表明者の主観的な態度 (モダリティ), および, 肯定/否定があげられる。本研究における事実性は,事象の真偽に対する書き手の確信度を表した「真偽判断のモダリティ」(益岡 2007) と,肯定/否定の組み合わせに相当している. ## 2.1 タグ体系およびコーパス構築に関する研究 事実性およびその周辺情報を付与するためのタグ体系およびコーパス構築の関連研究として, Saurí (2008), Saurí and Pustejovsky (2009)による FactBank や, 松吉他 (2010), 松吉, 佐尾,乾,松本 (2011)による拡張モダリティタグ付与コーパスなどがある. Saurí (2008), Saurí and Pustejovsky (2009) は,事象を対象とし,以下の 2 つ組の夕グによって事実性を定義した。 modality 事実らしさに対する態度表明者の確信度. CT (Certain), PR (Probable), PS (Possible), U (Underspecified)の 4 種類で表す polarity 事象に対する確信の方向. + (positive), - (negative), u (underspecified) の 3 種類で表す 例えば,事象が実際に起こったことである,ということを $\mathrm{CT}+$ と表す。そして,事象とその時間情報や,事象間の時間的順序関係が付与された TimeML (Saurí, Littman, Gaizauskas, Setzer, and Pustejovsky 2006)の上に, 確信度と肯否極性を態度表明者 (source) ごとに付与する枠組みを提案し,FactBankと呼ばれるコーパスを構築した. de Marneffe, Manning, and Potts (2012) は,PR+と PS-,PS+と PR一をそれぞれ論理的に等価なラベルとして扱っており,それらのラベルを統合した, 5 種類のラベル体系による評価を行っている。 松吉他 (2010), 松吉他 (2011) は, 〈態度表明者〉, 〈相対時〉, 〈仮想〉, 〈態度〉, 〈真偽判断〉,〈価値判断〉の 6 項目からなる拡張モダリティタグ体系を設計し, それを現代日本語書き言葉均衡コーパス $(\mathrm{BCCWJ})^{1}$ の各事象に付与したコーパスを構築した. 彼らの夕グ体系の内, 〈真偽判断〉は Saurí and Pustejovsky (2009)の事実性に相当している. 拡張モダリティタグ体系を用いた解析では, 項目間の依存関係を考慮することが可能であるが,それ故に処理が複雑化してしまうという問題がある. 本研究では, de Marneffe et al. (2012) の枠組みに基づいて事実性のラベルを定義する.この枠組みを利用することで,事実性を確信度と肯否極性の 2 軸に分けることができるため, 問題の分析がしやすくなると考えた. 誤り分析には, 松吉他 (2010), 松吉他 (2011) の拡張モダリティタグ付与コーパスを用いる。事実性解析における課題分析をする上で十分な量であり,一 ^{1}$ http://www.ninjal.ac.jp/corpus_center/bccwj/ } 般に利用可能なコーパスは他にないため,拡張モダリティタグのうち〈真偽判断〉を事実性の正解として利用し,事実性解析の誤り分析を行う. ## 2.2 解析および課題分析に関する研究 事実性は, 機械学習に基づく手法や, 人手で構築した語彙的・統語的な知識を利用したパ夕ー ンベースの手法などを用いて解析が行われているが,その性能执よ゙課題分析は十分でない. 原, 乾 (2008) は, 事象の事実性情報を,時間情報と話者態度で表現し,SVMを学習器に用いた解析手法を提案した. Inui, Abe, Hara, Morita, Sao, Eguchi, Sumida, Murakami, and Matsuyoshi (2008) は, 原, 乾 (2008)の提案する夕グ体系を整理統合し, 条件付き確率場を学習器として用いた解析手法を提案した.SVMを用いるよりも,項目間の依存関係を考慮できる条件付き確率場を用いたほうが,高い精度を示すことが報告されている,江口他 (2010) は,項目間,および事象間の依存関係を考慮できる Factorial CRF (Sutton, McCallum, and Rohanimanesh 2007)を用いた拡張モダリティ解析システムを構築した。事実性に関連の深い〈真偽判断〉には 9 種類のラベルが存在するが,そのマクロ $\mathrm{F}$ 值で $48 \%$ の性能を示している。 さまざまな枠組みによって事実性の解析が行われているが,いまだ十分な性能は達成できておらず,その課題を分析する余地が多分に残されている. モダリティ解析における課題分析としては, 松吉他 (2011) が最大エントロピーモデルを用いた拡張モダリティ解析システム分析を試作し,その中の 1 つの項目である〈態度〉に着目した誤り分析を行っている。彼らは語義曖昧性解消や連体節内の述語に及ぼす影響の解明,節間の意味的関係の認識などが,〈態度〉に関するモダリティ解析の精度向上に向けた課題であることを述べている。事実性に,より直接的に関連する〈真偽判断〉の誤り分析でも同様の結果が得られるかどうかは明らかではない. 英語に㧈いては, Saurí and Pustejovsky (2012)や de Marneffe et al. (2012)が事実性の解析に取り組んでいる. Saurí and Pustejovsky (2012)は,事象の成立に影響を与える手がかり表現を利用し, 態度表明者ごとに, 確信度と肯否極性で表される事実性を, 依存構造木の根から伝搬させて解析する,パターンベースの決定的アルゴリズムを提案した。例えば notがあれば肯否極性を反転させる,mayがあれば確信度を下げる,といったルールに基づいて解析を行い,F 值でマクロ平均 $70 \%$, マイクロ平均 $80 \%$ の性能を実現している。誤り分析の結果,ルールのカバレッジや表現の曖昧性が大きな問題であることを報告している. Saurí and Pustejovsky (2012)のアノテーション基準では,事実性は可能な限り客観的に判断される。一方で, de Marneffe et al. (2012)は,主観的な判断の自動推定に取り組んだ。主観的な判断とは, 例えば態度表明者の社会的な信頼性によるものである。信頼に足る組織が表明した事象の事実性は,CT+にバイアスがかかるが,表明者が不明な場合は事象の事実性は,CT-にバイアスがかかる,彼女らは, FactBank 中の各事象に対して,10名ずつアノテーションを行い,その分布を最大エントロピー モデルによって推定した。解析性能は, 多数がアノテートしたラベルを正解とした場合に, $\mathrm{F}$值でマクロ平均 $70 \%$, マイクロ平均 $83 \%$ の性能をあげられている. 本研究では, 日本語事実性解析の課題に関して議論するために, 機能表現に基づき, 決定的に事実性を解析するルールベースのモデルを構築し,誤り分析を行う。ここでルールベースモデルを用いる理由としては, 機械学習に基づく手法と比べ, 出力結果がどのような要素に基づいて選択されたかがわかりやすく, 本研究の目的とする, 日本語事実性解析における課題の分析に対して適当であると判断したためである。また,事実性に影響を与える要素はさまざま存在しており,いろいろな要素を複合的に加味したモデルが提案されてきている.しかしながら, どの要素がどの程度事実性に影響を与えるのか, という分析は十分に行われていない. そこで,事実性に影響を与える要素を切り分けることにより,事実性解析における各要素の重要性を議論し,課題の分析を行う. ## 2.3 事実性に影響を与える要素に関する研究 事実性に影響を与える要素としては, 機能表現や後続する述語, および, それらの作用する範囲(スコープ)などがある. (3) a. もう《〈遅い〉から、彼は先に〈帰っ〉ているだろう。 b. 問題が〈〈発生する〉のを防いた。 例えば,(3a)の事象「帰る」の事実性は,「だろう」という機能表現に影響を受け,(3b)の事象「発生する」の事実性は,「防いた」という述語に影響を受けている。また,(3a)では,「だうう」 という機能表現は「帰る」のみに影響を与え, 先行する事象「遅い」には影響しない,というように,機能表現や後続する述語の作用する範囲,即ちスコープを特定することも,事実性解析において重要な要素だと考えられる. 事実性に影響を与える表現として,「〜ない」「〜だろう」などの機能表現があり,このような日本語機能表現の意味に関連した研究が多く進められている。例えば,機能表現を網羅的に集めた辞書として, 日本語機能表現辞書『つつじ』(松吉, 佐藤, 宇津呂 2007) が利用されている. この辞書は, 日本語の機能表現の表層形約 17,000 種に対して, その ID, 意味, 文法的機能, 音韻的変化などを網羅的に収録した辞書であり,機能表現の意味として,「対象」や「目的」,「名詞化」など, 89 種類のラベルが定義されている,その中には「推量」や「否定」,「疑問」など,事実性に影響を与えるラベルも多数含まれている。また,機能表現の中には表層を見ただけでは判別が難しいものも存在する。 (4) パソコンが〈壊れ〉てしまったかも知れない。 (4)では, 事象「壊れる」に対して,「てしまっ」「た」「かも知れない」という機能表現が付随している.「知る」という表現は, 機能表現の一部として用いられるだけでなく, 述語としても用いられるため, (4)では「かも知れない」で 1 つ機能表現として用いられている, というこ とを判別する必要がある。このような曖昧性を解消するため,どの部分が機能表現なのかを特定し, その意味を同定する研究も行われている (鈴木, 阿部, 宇津呂, 松吉, 土屋 2011; 今村,泉, 菊井, 佐藤 2011; Kamioka, Narita, Mizuno, Kanno, and Inui 2015). 事実性に影響を与える述語に関する研究としては, 江口他 (2010) が構築した, モダリティ解析手がかり表現辞書がある,彼らは,「防いだ」のような,拡張モダリティに影響する動詞,形容詞が存在していることに着目した。こうした動詞,形容詞が直前の事象に与える影響を記述した,モダリティ解析のための手がかりを集めた表現辞書を作成し,機械学習による拡張モダリティ解析を行う上で,素性として利用している。このような表現を集めた利用可能なリソー スは他に存在しておらず,この辞書を利用することでどの程度事実性解析の性能改善につながるのか,この辞書でどの程度の述語がカバーできているのか,といったことを調査する必要がある。 事実性を決定する上で,否定や推量などのスコープを決定することは重要だと考えられる。否定表現および推量表現のスコープを同定する研究は,近年盛んに行われている。例えばBioScope (Szarvas, Vincze, Farkas, and Csirik 2008) は,医学・生物学ドメインのテキストを対象に,否定表現,様相表現,そして,それらのスコープをアノテーションしたコーパスであり,このコーパスを用いて Shared Task (Farkas, Vincze, Móra, Csirik, and Szarvas 2010; Morante and Blanco 2012) が開催されるなど,スコープを特定する研究に広く利用されている. 日本語においては,川添他 $(2011 a, 2011 b)$ が,テキストに現れる事実とそれ以外の情報との区別,また推量や仮定などの間に見られる確実性の差を自動的に識別するため, 様相表現, 否定表現といった 「確実性」に影響を与える言語表現を分析・分類し,それに従ってそれらの言語表現およびそのスコープをアノテーションしたコーパスを構築しているが,それらの定量的な分析を行うまでには至っていない.松吉 (2014) は,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点をテキストにアノテーションする枠組みを提案し, 否定の焦点コーパスを構築している,否定の焦点は,否定のスコープの中で特に否定される部分であるため,焦点の検出はスコープの特定と密接に関連している. このように,事実性に影響を与える要素がいくつか存在しており,これらの要素を複合的に考慮することで事実性を決定できると考えられる。しかしながら,どの要素がどの程度事実性に影響を与えるのか,ということは明確ではない。本研究では,これらの事実性に影響を与える要素を切り分け, 事実性解析における各要素の重要性を議論することにより, 課題の分析を行う. ## 3 誤り分析を通した課題分析の方針 本節では,事実性解析に関連する種々の要素(機能表現や副詞など)について整理し,その関連性を述べる (3.1 節)。事実性は, これらの要素が複合的に組み合わさって決定されるため,各要素の重要性を見極めるためには,これらを切り分けて分析することが肝要である. 3.2 節では, どのようにしてそれらを切り分けるのかを述べる。 3.3 節では, 課題分析に用いるコーパスについて述べ, 3.4 節では,分析に用いるルールベースの事実性解析モデルについて述べる. ## 3.1 事実性解析に関わる言語要素 先行研究によって,事実性解析に関連する言語要素は文内では大きく4つに分けられることが分かっている。事象に含まれる機能表現,疑問詞を含む副詞,文節境界を越えて事実性に影響を与える語とそのスコープ,その他の 4 種類である. 図 1 に,文内での各要素の関係を示す. ここで,事象の中心的な述語を事象表現と呼び,事象の事実性は事象表現に割り当てられると定義する,以降の例では,〈〈〉〉で囲むことで表す。また,文中での出現位置によって事象表現を二種類に分類する,各文につき,最も文末に近い事象表現を主事象と呼び,それ以外の事象表現を従属事象と呼ぶ。図中の矢印は,その言語要素が事象表現の事実性に影響することを示している,以下では,その他以外の 3 つの要素について,事象表現の事実性にどのように関連するかを述べる。なお,文をまたいだ言語要素による否定や推量も存在するが,本研究では文内の現象のみを取り扱う。 ## 3.1.1 機能表現 事象表現に直接後続する機能表現(図 1 では,述語 A に対する機能表現 A, 述語 Bに対する機能表現 B)の問題は, 多義性と表現の多様性の二つに大きく分けられる. (5) a. 太郎は《走っ〉〉たんでしたよね態度 b. 太郎は《走る〉〉んですよね疑問 図 1 事実性に関わる言語要素の構造矢印は, 要素が事象表現の事実性に影響することを示す。 まず,多義性について,(5) に示す 2 つの例には,いずれも機能表現「よね」が出現しているが, それが示す意味は異なる。(5a) は「太郎が走る」ことを推量しているが,(5b) は「太郎が走る」 ことを確認していることから事象は成立していないことを示している。このような文を解析するためには,機能表現の多義性の解消は必須の技術である. (6) a. 太郎は〈〈走ら 〉ない否定。 b. 太郎は《〈走る 〉わけない否定。 c.太郎が〈〈走ら 〉ね元否定。 d. 太郎が〈走れる》もんか否定。 次に,表現の多様性について,(6) に示す 4 つ例は,いずれも「太郎が走る」という事象が成立していないということを,異なる機能表現によって記述している,そのため,否定を認識するためには,典型的な否定の機能語である「ぬ,ない」だけでなく,「ねえ,もんか」といった砕けた表現もとらえる必要がある. これらに加えて,複数の表現の組み合わせの問題がある。 (7) a. 太郎は《〈走れ〉なくなる否定ようだ推量。 b. 太郎が〈〈走る》かもしれない推量。 機能表現の組み合わせは,複数の表現の意味が組み合わさって事実性を表す場合(7a)と,単語自体では意味を持たず複数の語が組み合わさってはじめて意味を持つ場合( $7 \mathrm{~b}$ 複合辞と呼ばれる)がある。(7a)は,否定の機能表現「なくなる」と,推量の機能表現「よう」が組み合わさることで,「太郎が走る」という事象が成立しないことを推測していることを示している。この事例を正しく認識するためには,機能語単位での意味ラベルだけでなく,その組み合わせに従って事実性を演算することが必要となる。一方,(7b) は複合辞の事例であるが,「走る」に後続する 3 つ単語「かも,しれ,ない」は,ひとまとまりで推量の機能表現を構成している。このとき,「ない」は否定の意味を持っておらず,機能表現を解釈するには,特定の単語列を複合辞としてまとめた上でその意味を認識する必要がある. ## 3.1 .2 述語周辺の副詞 事実性は, 事象に後続する機能表現だけでなく, 周辺の副詞(図 1 では, 述語 A に対する副詞 $\mathrm{A}$ ,述語 Bに対する副詞 B)によって決定される場合がある。 (8) a. 確か太郎は《〈走っ〉〉た。 b. 太郎は果たして《走る〉のだろうか。 c. どうしたら太郎は《走る》だろう。 (8)に示す例は,いずれも下線部の副詞が事象「太郎が走る」の事実性に影響する。(8a)では,副詞がなければ事象は成立しているが,副詞「確か」が付加されることによって確信度が下がる. (8b) は, 同様に「果たして」が付加されることにより, 事象成立の確信度は大きく下がり, どちらかといえば事象は成立しないと読み取れる。(8c) は, 下線部の副詞がなければ,推量を意味する機能表現「だろう」により,事象の成立を推量していると読み取れる。しかし方法を問う副詞「どうしたら」が付加されることにより,事象は成立していないと読み取れる。また, このとき「だろう」は推量の意味を持たない. 前述の例のように, 事象表現の周辺に副詞が存在する場合, 事実性に大きな影響を与える場合がある。副詞は, 用法がまとめられた辞書はあるものの (飛田, 浅田 1994), 事実性に及ぼす影響についての研究は進められていない。よって,副詞が事実性に影響を与える事例を収集するところから着手する必要がある. ## 3.1.3文節境界を越えて事実性に影響を与える語とそのスコープ 機能表現 B)によって,事実性が決定される場合がある. (9) a. 太郎は《〈走る〉〉ことを拒否した。 b. 太郎は〈〈走る》と言っていたが、やめた。 c. 太郎は〈〈走り〉も歩きもしなかった否定。 d. 太郎は〈〈走った〉かが、楽しくなかった否定らしい伝閁。 (9)に「太郎が走る」という事象が,文節境界を越えた後続の述語や機能表現によって,否定あるいは推量されている事例を示す. (9a) および (9b) は, 下線部の述語によって事象の成立が否定されている。このような述語は, 他の事象表現の事実性に及ぼす影響を決定すること, その及ぼす範囲を決定することが重要である. (9c) は,後続の述語「歩く」に付随する否定の機能表現「なかった」が,事象「太郎が走る」 にも影響して,その事実性が否定であることが示唆される。一方で, $(9 \mathrm{~d})$ は, 後続の述語「楽しい」に否定の機能表現「なかった」と,伝聞の機能表現「らしい」が付随するが,事象「太郎が走る」の事実性には影響せず,この事象が成立することが読み取れる。このように,後続の述語に付随する機能表現が,文節境界を越えて事実性に影響する場合があり,その範囲の同定は,否定/推量のスコープの問題として知られている. ## 3.2 課題分析の方針 事実性は, 3.1 節で述べた各言語要素が単体で影響するだけでなく, その組み合わせによって決定される。 (10) a. 太郎が〈〈走ら〉ない否定というのは間違っていた。(機能表現と後続する述語の組み合わせ) b. たぶん太郎は〈〈走ら〉告否定。(副詞と機能表現の組み合わせ) 例えば (10a) は, 事象表現「走る」の直後にある否定の機能表現「ない」と, 後続する述語「間違っていた」が組み合わさって,事象「太郎が走る」が成立することを示している。(10b)は,副詞と機能表現の組み合わせによって,事象が成立しないことが推量されている。 課題分析においては,複合的に影響する要素は可能な限り切り分けることが重要である。そこで,事実性が機能表現のみで決定可能であるかという点と,文節境界を越えて後続する述語や機能表現の影響を受けるかという点の 2 つに着目して, 課題を切り分ける。機能表現は, 3.1 節で述べた 3 種類の要素の中では, 記述的研究に基づいて体系化が進められている領域であり (森田,松木 1989; 遠藤,小林,三井,村木,吉沢 2003), 辞書も整備されている (松吉他 2007) ため,切り分けが容易であると考えた。文節境界を越えて後続する述語や機能表現の影響を受ける場合とそうでない場合とを切り分けるために, 文の主節(日本語の場合は最も文末に近い述語節)に着目する。主節に位置する事象表現(主事象)は,文節境界を越えて後続する述語や機能表現を持たないため,その影響を受けることはない。それ以外の事象(従属事象)は,後続の述語や機能表現の影響を受ける可能性がある。まとめると,事実性解析課題の切り分けは図 2 のようになる。 課題の切り分けを効率的に行うために, 機能表現に基づくルールベースの事実性解析器を構築する(詳細は 3.4 節で述べる)。本解析器は, 各事象表現について, 直接後続する機能表現の意味ラベルのみに基づいて事実性を決定する。事実性解析において,機能表現のみで事実性が決定可能な事例は少なくないと考えられる。 そのため, 偶然正解する可能性の低い解析器を用いることで,難度の低い事例を分析対象から除外し,課題分析に注力することができる. 本解析器を主事象に対して適用すると,正解事例は機能表現のみで決定可能な事例であると判断できる。一方で,誤り事例は以下の 3 種類に分類できる. 図 2 事実性解析課題の切り分け (1) 機能表現の意味ラベルや解析器のルールがナイーブであることが原因で誤ったが,機能表現のみで決定可能な事例 (2)副詞の影響を受けるため機能表現のみでは決定できない事例 (3) その他 次に,従属事象に対して適用すると,正解事例は,主事象と同様に,機能表現のみで決定可能な事例である。一方で,誤り事例は以下の 4 種類に分類できる. (1)文節境界を越えて影響を及ぼす述語を持つ事例 (2)文節境界を越えて影響を及ぼす機能表現を持つ事例 (3)文節境界を越えて文末側に位置する述語や機能表現の影響を受けず,機能表現の意味ラベルや解析器のルールがナイーブであることが原因で誤ったが,機能表現または副詞によって決定可能な事例 (4) その他 このような誤り分析によって,事実性解析の性能を向上させるには, どの言語要素に注力することが重要か, また各要素の部分課題にどの程度の解析性能が要求されるのかが明らかとなる. ## 3.3 課題分析のためのコーパス構築 本研究では, 課題分析のために拡張モダリティタグ付与コーパス (松吉他 2010 ; 松吉他 2011)を利用する。拡張モダリティタグ付与コーパスは, 『現代日本語書き言葉均衡コーパス』 $(\mathrm{BCCWJ})^{2}$ を付与対象としており,そのうちの Yahoo!知恵袋データを利用して誤り分析を行う.拡張モダリティタグ付与コーパスを用いるのは, 事実性に関する情報が付与されており,課題分析に十分な事例数が確保できるとともに,同様の規模の利用可能なコーパスが他にないためである。拡張モダリティタグ付与コーパスには, Yahoo!知恵袋データの他にも, 新聞, 書籍, 白書を対象としたデータも含まれているが,本研究ではYahoo!知恵袋デー夕を対象に分析を行い, その他のドメインに対する分析は今後の課題とする。 その理由としては以下の 2 点がある. 1. アノテーションガイドライン 3 の付録 Bに「OC(Yahoo!知恵袋)の 14,089 事象に対しては、実装した解析システムの解析結果をフィードバックさせ、それを参照しながらの夕グ見直し作業を数回行い、タグの質を向上させている。」と記載がある。できるだけ信頼性の高いタグで誤り分析を行うため,Yahoo!知恵袋データを利用した 2. 言論マップ (水野, 渡邊, ニコルズ,村上,乾,松本 2011) や対災害 SNS 情報分析システム (後藤, 大竹, De Saeger, 橋本, Kloetzer, 川田, 鳥澤 2013) などの, Web デー夕を用いたアプリケーションに対する利用を想定している  拡張モダリティタグ付与コーパスには 6,362 文が収録されている。 6,362 文のうち, 主事象に機能表現を一つ以上含む文は 5,198 文ある。そのうちの約 $30 \% て ゙ ある ~ 1,533$ 文をランダムに選択し, 課題分析の対象とした。この中には, 主事象が 1,533 事象, 従属事象が 2,201 事象含まれている。 事実性ラベルは,Saurí and Pustejovsky (2009)の体系を一部簡素にした de Marneffe et al. (2012) によるラベル体系を採用する。本体系は, 3 種類の確信度と, 3 種類の肯否極性の 2 軸に分けて事実性を定義しており,それぞれの軸で評価できることが,課題分析に有効であると考えた. 拡張モダリティタグ付与コーパスの真偽判断タグと, 事実性ラベルとの対応を表 1 に示す.表 2 に, 本実験の解析対象である 1,533 文における, 主事象と従属事象の事実性の分布を示す. 事実性は,それを判断したのが著者なのか,あるいは文中の登場人物なのかによって変化する. Saurí and Pustejovsky (2009) は,著者以外の文中の登場人物から見た事実性も考慮してアノテーションを行っている。 以下に Saurí and Pustejovsky (2009)による FactBank のアノテー ション例を示す. (11) He does not $\underline{\text { think }}_{e_{0}}$ she followed $\underline{e}_{1}$ the rules. $ \begin{aligned} & \mathrm{f}\left(e_{0}, \text { author }\right)=\mathrm{CT}- \\ & \mathrm{f}\left(e_{1}, \text { author }\right)=\mathrm{Uu} \\ & \mathrm{f}\left(e_{1}, \text { he_author }\right)=\mathrm{PR}- \end{aligned} $ $\mathrm{f}(e, \mathrm{~s})$ は態度表明者 $\mathbf{s}$ から見た事象 $e$ の事実性を示している. この文では, 著者から見た $e_{0}$ (think) の事実性が CT-, 著者から見た $e_{1}$ (followed) の事実性が Uuであることが付与されるとともに,文中の登場人物 $h e$ から見た $e_{1}$ (followed) の事実性を著者は PR-と判断している,という 表 1 確信度と肯否極性の組み合わせによる事実性のラベル 下段は拡張モダリティタグ付与コーパスの真偽判断タグとの対応 表 2 コーパス中の事実性の分布 ことが付与されている. 一方で, de Marneffe et al. (2012) は著者から見た事実性のみに焦点を当てている,日本語においては,松吉他 (2011) が登場人物ごとの事実性判断をアノテーションしている。しかしながら,彼らの構築したコーパスでは,著者が事実性を判断している事象が,いずれのドメインにおいても 9 割前後という大きな割合を占め, 著者以外の事実性判断を認識すべき事象は少ない. これらの事実を背景として, 本研究では著者の事実性のみを解析対象とする.著者以外から見た事実性に関しては,今後の課題とする。 機能表現に関連する問題であるかを切り分けるために,1,533 文に含まれる 3,734 個の事象について,それに続く機能表現に意味ラベルを付与した.機能表現の意味ラベルは,記述的研究 (森田, 松木 1989; 遠藤他 2003)に基づいて体系化された『つつじ』(松吉他 2007)がある. しかし, 今村他 $(2011)$ によると, 『つつじ』に掲載されていない機能表現および意味ラベルが存在する. 本研究では, 『つつじ』に不足する機能表現や意味ラベルを拡充しながら, 事象表現に付随する機能表現の意味ラベルを付与した。『つつじ』では 89 種類の意味ラベルが定義されているが,1,533 文からなる本コーパスに付与された意味ラベルは 66 種類であった. 『つつじ』には名詞に続く格助詞なども掲載されているが, それらは本研究では付与対象外であるため, 付与されたラベルの種類は少なくなる。構築したコーパスは, BCCWJとの差分データとして, アノテーション仕様と合わせて公開している 4. ## 3.4 誤り分析に用いる事実性解析モデル 日本語事実性解析における課題分析のため, 挙動が明確なルールベースモデルを用いて事実性解析を行う。事実性解析器の入力は,解析対象となる事象表現,文全体の形態素情報,および事象表現に付随する機能表現の意味ラベル列であり,入力された事象表現に対して事実性ラべルを付与して出力する。事実性を付与すべき事象表現の同定に関しては,あらかじめ正解を与える。形態素情報は, UniDic 体系で与えられているが, 機能表現は IPA 辞書体系であるため,自動でマッピングを行っている。 本研究では, 事実性の解析に, 各事象表現よりも後ろにある機能表現の意味ラベルを利用する。例えば,〈否定〉の機能表現が付随している場合には肯否極性を反転する,といった事実性更新ルールを適用する。主事象の事実性は, 文末から主事象の間に存在する,すべての機能表現の意味ラベル列に基づいて更新ルールを適用することで決定される 5 . 従属事象の事実性は,従属事象から次の内容語までの間に連なる機能表現の意味ラベル列に基づいて更新ルールを適用することで決定される. 更新ルールは以下の 3 種類を用いる. 1. 機能表現の意味ラベルが $\langle$ 否定 $\rangle\langle$ 否定意志 $\rangle\langle$ 否定推量 $\rangle\langle$ 無意味 $\rangle\langle$ 不明確 $\rangle\langle$ 不可能 $\rangle\langle$ 回避 $\rangle$ ^{4} \mathrm{http} / / /$ tinyurl.com/ja-fe-corpus 5 疑問符も事実性に影響を与える要素として考えられるが,疑問符があっても,事実性が CT+である事象も少なくないため, 本研究では採用していない. } $\langle$ 不必要 $\rangle\langle$ 放置 $\rangle\langle$ 困難 $\rangle$ のいずれかの場合, 肯否極性を反転する 2. 機能表現の意味ラベルが $\langle$ 推量-不確実 $\rangle\langle$ 推量-高確実性 $\rangle\langle$ 否定推量 $\rangle\langle$ 意志 $\rangle\langle$ 否定意志 $\rangle$ $\langle$ 伝聞 $\rangle\langle$ 様態 $\rangle\langle$ 容易 $\rangle\langle$ 困難 $\rangle$ のいずれかの場合,確信度を下げる 3. 機能表現の意味ラベルが $\langle$ 疑問 $\rangle\langle$ 勧誘 $\rangle\langle$ 勧め $\rangle\langle$ 願望 $\rangle\langle$ 依頼 $\rangle$ のいずれかの場合, 事実性を Uuにする 更新ルールは,機能表現の意味ラベルの定義およびその表現例にもとづき,人手で設計した. それぞれの意味ラベルにおける表現例と,コーパス中にその意味ラベルをもつ機能表現が出現した延べ数を表 3 に示す。延べ数が 0 の意味ラベルは,分析対象のコーパスに一度も出現していない意味ラベルである. ルールベースモデルのアルゴリズムを Algorithm 1 に示す. 本モデルは,事象に付随する機能表現に基づく更新ルールを順次適用することで,事象の事実性を決定するモデルとなってい 表 3 更新ルールと意味ラベルの対応 る. 以下にこのアルゴリズムによる解析例を示す. (12)小さい方がいい場合も〈〈ある〉らしい伝閒ので理由一概にそうとも《言え〉ない否定みたい推量-不確実です判断。 主事象「言う」の事実性を決定する場合には, 付随している 3 つの機能表現「ない」「みたい」「です」の意味ラベル列である〈否定〉〈推量-不確実〉〈判断〉に基づいて解析を行う. Algorithm 1 中の $C, P$ は, それぞれ確信度, 肯否極性の值をもつ変数であり, 最終的にこれらの組み合わせで事実性の値を表す. 初期値として, $C$ に CT, $P$ に+を割り当てる (line 3). 次に, 文末側から順に,機能表現の意味ラベルに対応した更新ルールを適用していく (line 4-20). まず,「です」 は〈判断〉の機能表現であり, 更新ルール 1-3のいずれにも該当しないため, $C, P$ は更新しない. 次に,「みたい」は〈推量-不確実〉の機能表現であり, 更新ルール 2 に該当するため, $C$ を PRに更新し, $P$ は更新しない $($ line 12-16). 最後に,「ない」は〈否定〉の機能表現であり, 更新ルール 1 に該当するため, $C$ は更新せず, $P$ をに更新する (line 5-11). 結果的に, $C=P R$, $P=$-となり, 主事象「言う」の事実性として PR-が得られる (line 21). 従属事象「ある」の 基づいて,更新ルール 2 のみを適用する (line 12-16). その結果, 従属事象「ある」の事実性は $\mathrm{PR}+$ となる. 本モデルは機能表現の意味ラベルのみを用いたシンプルなモデルであるため, 必要以上に多く誤解析してしまう恐れがある。そこで, 既存の素性 (江口他 2010)を,オープンソースのモ ダリティ解析器 Zunda (水野, 成田, 乾, 大竹, 鳥澤 2013) ${ }^{6}$ に実装することで, リファレンスとなる解析性能を得る.Zunda は,拡張モダリティタグ体系に基づいて,夕グごとに線形分類器による多クラス分類を行う。まず,真偽判断夕グのラベルを表 1 に基づいて本研究の事実性ラベルに置き換える。他の 5 種類のタグについては,拡張モダリティタグをそのまま採用する。次に,素性は,江口他 (2010) で利用されている素性のうち, リソースが利用可能なものを利用する。表 4 に,利用した素性の一覧と (12) から抽出される素性の例を示す.「事象選択述語が示唆する事実性」は,5.1 節で詳述するが,解析対象の素性として述語が含まれる文節の係り先文節に含まれる述語が示唆する事実性である。例えば「たばこを /〈吸う》のを /〈ややる〉〉。について,「やめる」は係り元文節中の「吸う」が $\mathrm{CT}$ 一であることを示唆する述語であることから,「吸う」を解析するとき,その事実性が CT一であることが示唆されるという素性を抽出する。最後に,分類器について,江口他 (2010) は事象間の依存構造が考慮できる Factorial CRF (Sutton et al. 2007)を利用していたが, Zunda は LIBLINEAR (Fan, Chang, Hsieh, Wang, and Lin 2008) ${ }^{7}$ 利用している。事象間の依存関係を考慮するため, 解析対象の事象より文末側にあり,かつ最も近傍にある事象の拡張モダリテイタグのうち,真偽判断と態度の 2 つについて,その解析結果を素性として利用する。例えば (12)では,解析対象が「ある」 のときに,素性として「言う」の解析結果を利用する. LIBLINEAR の学習アルゴリズムは,L2 正則化ロジスティック回帰を利用し,パラメータは weight を 0 亿設定した以外はデフォルトの值を利用した (epsilon $=0.1, \operatorname{cost}=1$, bias $=-1$ ). 評価は 10 分割交差検定によって行う. 文単位で分割することによって,同一文中の複数の事象が学習データとテストデー夕に属することはない,交差検定の段階では,主事象と従属事象は区別せずに学習させるが,精度と再現率を 表 4 機械学習モデルで用いた素性一覧および (12) における素性抽出例 & \\  算出する段階では, 主事象と従属事象を区別する. ルールベースによる解析モデルを主事象に適用し,誤り分析を行うことで,機能表現のみで事実性が決定可能な事例の割合を明らかにするとともに,副詞の影響を受ける事例がどの程度存在するのか,また,その他の要素はどのようなものがあるのかを明らかにする.次に,ルー ルベースによる解析モデルを従属事象に適用し,誤り分析を行うことで,機能表現以外の事実性を決定するための要素に関して,その重要性を定量的に分析し,事実性解析の今後の方針を議論する。 ## 4 主事象に対する事実性解析 3.4 節で構築した事実性解析器を主事象に対して適用し, 誤り分析を行うことで, 機能表現のみで決定可能な事象, 副詞の影響を受ける事象, その他の 3 種類に分類する.対象となる事象は 1,533 事象あり,その解析結果を表 $5 , 6$ に示す。表 5 には,確信度と肯否極性を組み合わせた事実性の各ラベルにおける精度,再現率, $\mathrm{F}$ 値,およびそれらのマイクロ平均,マクロ平均を示した。表 6 には,確信度と肯否極性の二軸それぞれにおける精度,再現率, $\mathrm{F}$ 值,およびそれらのマクロ平均を示した。これらの結果から,機能表現のみを利用したシンプルなルールベースモデルであっても肯否極性は高い精度, 再現率で判定可能であることが分かる. 一方で,確信度については, PRの分類性能は高くない. また, 機械学習ベースのモデルでは, 機能表現などの素性も導入されているものの, 十分な性能があげられていない. これは, 事例数の偏りや,機能表現の多様性などの要因により,事実性解析が簡単な課題ではないことを示している. ルールベースモデルと機械学習ベースのモデルとを比較すると, 全体の事例数が少なく, 大きな偏りもあるため, 機械学習ベースのモデルの方が若干不利ではあることを考慮しても,ルー 表 5 主事象に対する事実性解析の評価 & & & & & & 69.1 \\ ルベースモデルは,機械学習ベースのモデルと遜色ない性能を示している.このことから,本ルールベースのモデルの性能は極端に低いわけではなく,このモデルを用いた誤りを分析することで,事実性解析の課題分析を行うのは妥当であるといえる. 前述の実験で正解した事象は,機能表現のみで決定可能な事象であると判断することができる。残る 240 個の誤り事例を分析することによって,機能表現の意味ラベルあるいは事実性解析モデルが原因による誤り事例,副詞の影響を受ける事例,その他の事例に分類する。誤り分析の結果を表 7 に示す. 機能表現のみで決定可能な事例が 4 割以上と, まだ多く残されている。本実験で用いたルー ルは人手で構築しているため, ルールの改善の余地が残されている.このようなルールが改善でき,機能表現をしっかり捉えることが出来るようになると,すでに正解できている 1,293 事例と合わせて,機能表現のみで $90.5 \%(1,387 / 1,533)$ の正解率をあげられることがわかった. 表 6 主事象に対する事実性解析の各軸ごとの評価 } & + & - & $\mathrm{u}$ & \multirow{2}{*}{} \\ 表 7 誤りの種類の分布 カッコ内は,事実性のアノテーション誤りを除いた部分での誤りの割合 (13) a. ビタミンは、野菜や海草から〈〈補給する〉〉゙き当為です判断。 (正解ラベルに基づく解析 : CT+, 正解 : Uu) b. 入札前に〈〈確認す》〉べき当為でし判断た完了態度。 (正解ラベルに基づく解析:CT+,正解:CT-) c. 大至急オーストラリアへ書類を〈〈送ら 〉なくてはなりません当為。 (正解ラベルに基づく解析:CT+, 正解 : PR+) (13) は,機能表現だけで事実性を決定できるものの, 現在の更新ルールが不足しているために誤った事例である。このようなルール不足に起因する誤りとしては,〈当為〉や〈不許可〉のように,更新ルールを割り当てるべき意味ラベルを追加することで改善が期待できる事例が見られた. (13a)の機能表現「べき」「です」はそれぞれ〈当為〉〈判断〉の意味をもっているが,これは,〈当為〉に関する更新ルールが不足していたことによる誤りである。(13a)は〈当為〉を更新ルール 3 の適用対象に加えれば解決する問題である.今回の分析対象のコーパス中に,〈当為〉 が付随している主事象は, 8 事例見られた,そのうち,更新ルール 3 を変更することによって, もともと正解できていた事例が 2 事例, 誤りだった事例が正解できるようになる事例が 4 事例, もともと誤っており,更新ルール 3 を変更しても正解できない事例が 2 事例あり,正解できていた事例が誤りとなるような事例は見られなかった. 更新ルール 3 を変更しても正しく解析できない事例を (13b), (13c) に示す. (13b)では,「確認する」に付随する機能表現列は, 〈当為 \rangle$\langle$ 判断 $\langle$ 完了 $\rangle$ 態度 $\rangle$ であるから, その事実性は CT + となるが, 正解は CT-である。この場合, 更新ルール 1 の適用対象として〈当為〉と〈完了〉の組み合わせを追加し, 更新ルール 3 は適用しないように変更することで正しく解析することができる。〈当為〉と〈完了〉の両方が付随する事例は,コーパス中に 1 事例のみであることから,この変更による悪影響はない.本分析では,1,533 文を分析したが,このように一度しか現れない機能表現のパターンがある.従って,更新ルールを洗練するには,規則ベース,学習ベースのいずれのアプローチをとるにせよ,機能表現の意味ラベルのアノテーションを拡充していく必要があるであろう。(13c)は,「大至急」という副詞があることから PR+と判断されている。この事例は〈当為〉を考慮するたけけでは不十分で,「大至急」という副詞を考慮しなければならない. 一方で,副詞の影響を加味する必要がある事例は半分近くにのぼった. (14) a. やはりこの御時世、〈〈きつい〉〉のではないでしょうか疑問? (正解ラベルに基づく解析:Uu,正解:PR+) b. どうやって《判別し》てるんでしょうか疑問? (正解ラベルに基づく解析:Uu,正解:CT+) (14) は, 機能表現だけは不十分であり, 副詞と機能表現とを組み合わせる必要がある事例である.いずれの事例も, 〈疑問〉の機能表現が後続しているため, 主事象の事実性は Uu と解析された。しかしながら,(14a)は,問いかけではあるものの,推量の意味合いが強いため, 正解は PR+となっている。(14b)は, 前提として起こった事象である「判別する」の方法を問う文であるため,CT+が正解である。このような事象の事実性を決定するためには,〈疑問〉の機能表現を利用するだけでは不十分であり,「やはり」や「どうやって」のような副詞を手がかりとし, それらを組み合わせて解析する必要がある。 (15) おそらくただの《見栄っ張り〉です。 (正解ラベルに基づく解析:CT+,正解:PR+) (15) では,事実性に影響を与えるような機能表現は付随していないが,その代わりに副詞「おそらく」によって事実性が決定されている。どのような副詞が事実性に影響を与えるかを分類し,手がかりとして捉える必要がある. また,機能表現や副詞のみでは決定できない,その他の誤りとして,機能表現の省略による誤り事例が見られた。 (16) とれないので〈〈注意〉〉!! (正解ラベルに基づく解析:CT+, 正解:Uu) 例えば (16)では,事象「注意」で文が終わっており,機能表現が存在していないが,依頼の意味をもつ文であることが解釈できる。しかしながら,機能表現のみに基づいた解析では,機能表現が存在していないために依頼の意味を捉えられず,正しく解析することができない。そこで,文末の感嘆符など,機能表現以外の要素を利用して解析を行わなければならない。また,「注意」で文が終わる場合には依頼文であることが多いと予測できるため,事象自身の情報を利用することで,「注意」で終わる場合には依頼であると判定する,といったことが考えられる。 形態素解析やアノテーションの誤りについて,正しい情報が与えられた場合についても検証した。まず,形態素解析および機能表現のアノテーション誤りが解消された場合,事実性も正しく解析可能であることが分かった。また,事実性のアノテーション誤りについては,システムが出力したラべルの方が正しいことが分かった. 以上より,主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも, $90 \%$ に近い正解率が得られることがわかった. 3 節で述べたように, 現在の機能表現の意味ラベルは, 既存の記述的研究に基づいた体系になっているが,これが事実性解析に最適な体系になっているかを評価することは容易ではない. しかし, 現在の体系でも $90 \%$ に迫る正解率が得られる余地があることは, この体系に基づく機能表現の解析モデルを研究開発することに一定の支持を与えるものと考える.今後は, Kamioka et al. (2015)のような機能表現解析の研究に注力したい. もう一つの大きな課題は副詞の扱いである。今回得られた誤りの半数近くは副詞に起因するものであった.意味解析における副詞の扱いは先行研究も乏しく,辞書の整備を初め,やるべき課題は多い。まずは事実性解析という切り口で,それに関連する情報に焦点を当ててリソー スを設計・開発していく予定である. ## 5 従属事象における事実性解析 表 8,9 に,2,201 の従属事象に対して事実性解析器を適用した結果を示す. 主事象の場合と比較すると,全体の性能は下がっており,従属事象の方が解析が難しいことがわかる.機械学習ベースのモデルと比較すると, 主事象の場合と同様に, ルールベースモデルが, 機能表現等が素性に入った機械学習ベースのモデルと遜色ない性能を示している。従属事象の場合においても,本ルールベースのモデルの性能は極端に低いわけではなく,このモデルを用いた誤りを分析することで,事実性解析の課題分析を行うのは妥当であるといえる. 従属事象において, 機能表現以外に考慮すべき要素として, どのような要素が重要なのかを定量的に分析するために, 正解ラベルを用いた場合の誤り分析を行う。主事象においては機能表現が付随している事象のみ扱ったが,機能表現が付随した主事象を含む文における従属事象を対象としているため, 必ずしもすべての従属事象に機能表現が付随しているとは限らない。そ 表 8 従属事象に対する事実性解析の評価 & & & & & & 66.1 \\ 表 9 従属事象に対する事実性解析の各軸ごとの評価 } & + & - & $\mathrm{u}$ & \multirow{2}{*}{} \\ こで,機能表現が付随している事象であるか否かをまず分類する.また,名詞述語なのか,動詞や形容詞といった述語なのかが,事実性解析の難易度に影響していると考えられるため,名詞述語なのか否かに従属事象を分類する 8 . 510 の誤り事例の中から,200 事例をランダムにサンプリングし,誤り分析を行った. 従属事象特有の誤りとしては,後続する述語の影響が事実性を決めている場合と,さらにその後ろの機能表現が事実性を決めている場合の 2 種類が考えられる. (17) a. 安いものだと〈〈防水》〉は怪しいです。 (正解:PR-,システム:CT+) b. 物語を〈〈楽しみ 》つつ、《〈冒険〉》を堪能してください。 (「楽しむ」正解:Uu,システム:CT+,「冒険する」正解:Uu,システム:CT+) (17)は,機能表現の正解ラベルを用いても正解できなかった従属事象の例である。まず (17a) の従属事象「防水する」は,事実性の正解が PR-であるが,「防水する」自身に付随している機能表現だけでこれが決まっているわけではなく, 後続する述語であり,疑いをもっていることを示す表現である「怪しい」の影響が大きい。このように,従属事象に後続する述語が事実性を決めている場合を「後続する述語の影響」による誤りと分類した。このような事象の事実性を解くためには, どの述語が事実性にどういった影響を与えるかを分類する必要がある.次に (17b)の「楽しむ」および「冒険する」は,正解が Uuであるが,(17a) と同様に,それぞれに付随している機能表現だけでは事実性は決定できない。しかしながら, 後続する述語である 「堪能する」自身にそういった影響があるとはいえない。これは,「堪能する」を抽象的な述語「する」に置き換えた場合でも,「楽しむ」および「冒険する」の事実性が Uu と判断できることから明らかである。ではどういった要素が「楽しむ」および「冒険する」の事実性を $\mathrm{Uu}$ にしているかというと,「堪能する」に付随する機能表現「ください」が影響を与えているということが考えられる。このように, 後続する述語ではなく, さらにその後ろに見られる機能表現が広く影響を与えているために,事実性をうまく解析できない事例を「後方の機能表現が影響する範囲」による誤りと分類した。このような事象の事実性を解くために, 機能表現がどの事象までその影響を与えるのかを解析する必要がある。「後続する述語の影響」と「後方の機能表現が影響する範囲」とを区別する基準としては,後続する述語を「する」などの抽象的な述語に置き換えた場合に,事実性が変化するかどうかを考える。例えば (17a)において「怪しいです」を「しています」と置き換えた場合,事実性が全く異なってしまう。このような述語の置き換えを一つの判断基準として,誤りの分類を行った.  表 10 誤りの種類の分布 カッコ内は,事実性のアノテーション誤りを除いた部分での誤りの割合 誤り分析の結果を表 10 に示す。主事象の場合と同様の誤りも見られたが,従属事象特有の誤りが誤り全体の 6 割を占めた。,特に,機能表現が付随していない名詞述語においては,機能表現が影響する範囲を考慮すべき誤りが大半を占めていることから,機能表現が影響する範囲を捉えることの重要性を示している。以降の節では,後続する述語や機能表現が影響する範囲のような従属事象特有の問題を解決するために,既存のコーパス中における現象を分析することで,今後の方針について議論する。 ## 5.1 事象参照表現に後続する述語に関する分析 「あり得る」のような,事実性に影響を与える述語(以降,事象選択述語と呼ぶ)については,江口他 (2010) が構築した辞書がある。江口他 (2010) は,拡張モダリティを解析する手がかりとして利用するために,拡張モダリティに影響を与える表現を収録した辞書(以降,事象選択述語辞書と呼ぶ)を構築した。事象選択述語辞書は,行為・出来事を表す事象を必須格にとり得る述語を対象に,分類語彙表 (国立国語研究所 2004 ) に収録されている述語の中から,拡張モダリティに影響を与える 8,580 述語を収録している。事象選択述語辞書の項目の例を表 11 に示す。この辞書は,各述語が格にとる事象に与える影響を,直前の事象の時制および,述語の肯否極性ごとに収録している ${ }^{9}$.この辞書のうち,真偽判断の項目が,事実性解析に利用できると考えられる。 (18) a. 問題が〈〈発生する〉のを防いだ。 b. 問題が〈〈発生する〉のを防がなかった。 例えば (18)の「防ぐ」という述語は, (18a)のような肯定環境下では不成立, (18b)のような否  表 11 事象選択述語辞書の記述例 & & & \\ 定環境下では成立というように,事象「発生する」の肯否極性に影響を与える。(19)の「忘れる」は,直前の事象の時制を考慮した例である. (19) a. 彼は〈〈発言し〉たのを忘れている。 b. 彼は〈〈発言する〉のを忘れている。 事象「発言する」に対して,(19a)では過去に成立している事象であるが,(19b) では「発言する」ことが実際には起こっておらず,不成立である。 事象選択述語に関する問題は, このような既存の辞書を手がかりとして解決できると考えられる. 現在の辞書のカバレッジを見積もるため, 表 10 において, 後続する述語の影響が原因とされた誤りである 25 事例を対象に,事象選択述語辞書がカバーできているかどうか,を人手で分類した。例えば (17a)の「怪しい」といった述語が辞書中に登録されているかを判断する。そして,「怪しい」が辞書中に登録されている場合,登録されている情報を利用すれば正しく事実性ラベルを選択できるのか,即ち (17a)では,「直前の事象の時制が未来」であり,「述語自身の肯否極性が成立」である場合に,辞書に「真偽判断が低確率」と登録されているかどうか,を人手で判定した。このとき,直前の事象の時制や述語自身の肯否極性も人手で判定を行った。その結果, 25 事例のうち 20 事例については,事象選択述語が辞書に収録されており,辞書の情報を利用すれば正しく事実性ラベルを選択できることがわかった.現在の辞書でも事実性解析の精度向上に貢献できることを示している。残りの 5 事例についても,現在の辞書には収録されていないものの,適切な情報が辞書に収録されていれば,辞書情報を用いて正しく事実性ラべルを選択することができる.現在の辞書でカバーできていた述語とカバーできていなかった述語を表 12 に示す.「気がある」「関係ある」などの複合表現が現在の辞書でカバーできていない傾向が見られ, こうした多様な表現の獲得が今後重要な課題として浮かび上がった. 表 12 誤り事例における事象選択述語 ## 5.2 事象間の接続表現に基づくスコープに関する分析 (17b)のように,機能表現が直接付随する事象だけでなく,従属事象にまで影響を与えることによって解析に失敗した事例が,従属事象における誤りの 4 割以上を占めた。このような後方の機能表現が影響する範囲による誤りを解消するために,どのような情報が利用できるのかを分析する.本研究では,機能表現が影響する範囲を決定する問題を,機能表現のスコープを認識する問題として扱う.スコープとは「否定などの作用が及ぶ範囲」(日本語記述文法研究会 (編)2003)であり,(20)では, 角括弧で囲まれた範囲が否定を表す機能表現のスコープとなる. (20) a. [仕事で〈〈行っ〉〉た]のではない否定。 b. 〈〈残念〉〉なことに、[鈴木さんは〈〈来〉] 加否定た。 (20a)では,「仕事で行った」という事象が否定されている,(20b)では,「鈴木さんは来た」という事象が否定されており,「残念である」という事象は否定されていない。一方で,(17b)では,主事象に付随する「くださ」の影響が,従属事象である「楽しむ」「冒険する」にも影響を与える.現在のモデルでは,スコープを機能表現の直前の事象のみとして解析を行うため,(17b) は正解できなかった,そこで,スコープを必要に応じて広げ,機能表現の影響をスコープ内の事例に与えることで,後方の機能表現が影響する範囲による誤りを解消することができる.機能表現のスコープを広げるべき場合とそうでない場合とを認識するために,どのような情報が利用できるのか,それらの事例の割合はどの程度なのかを分析する。 南 (1974) は,従属節内の要素の表れ方に基づき,従属節を接続助詞で分類している. (21)a. [夕バコを飲むが] ガンのことは心配していない。 b. [夕バコを飲みながら] おしゃべりしている。 例えば (21a)では,従属節の述語的部分「飲むが」には,「飲まないが」「飲んたが」「飲みますが」「飲むだろうが」などのさまざまな要素を入れられる。一方 $(21 b)$ では,「*飲まないながら」「*飲んだながら」「*飲みましながら」「*飲むだろうながら」などを用いることは出来ず,表れる要素が制限されている。これは, 「〜ながら」を伴う従属事象では, 主事象に付随する機能表現が否定やモダリティなどを表しており,接続表現「〜ながら」によってスコープが広がっていることを示唆している。また, 有田 (2007) は日本語の時制節性に着目することで, 南 (1974) の分類がさらに分類できることを示している。田窪 (2010) は,南 (1974)の分類を一部修正し, その分類をもとに疑問の焦点やスコープに関して議論している。このように, 主事象と従属事象をつなぐ接続表現の差によって,スコープの判断に接続表現を利用することが考えられる。 そこで,実際にコーパス中に含まれる文を対象に,機能表現のスコープが従属事象にまで及んでいるかどうかを接続表現ごとに分類することで,スコープを考えるべき事例がどの程度存在するのか,接続表現がスコープ解析ならびに事実性解析に利用できるのか,を明らかにする. 我々が分析の対象とした従属事象の誤り 200 件のうち, 後方の機能表現を考慮しなかったことによる誤りは 80 件あった(表 10 の「後方の機能表現が影響する範囲」)。これらは,(17b)の従属事象「楽しむ」の事実性のように,文節境界を越えた後方の機能表現(この例では「ください」)を事実性推定に考慮していないことによる誤りである。これらの従属事象の事実性は後方の機能表現の影響を受けるので,それぞれの従属事象は後方の機能表現のスコープの中に入っていることになる。上の 80 件の従属事象がそれぞれ後方の機能表現にどのように繋がっているかのパターンを調べると表 13 のような分布が得られた。主なパターンは次のとおりである. 表 13 誤り事例における接続表現の分類 直接の項従属事象(「冒険」)が上位事象(「堪能し」)の項になっており,上位事象に付随する機能表現(「ください」)の影響を受けるパターン (22) 物語を楽しみつつ、《〈冒険 〉を〈〈堪能し》〉てください依頼。 テ形接続従属事象(「活かし」)がテ形接続で後続事象(「働く」)に係っており,その後続事象の機能表現(「なかっ」)の影響を受けるパターン (23) うまく《活かし》て《働く》ここどできなかっ否定た。 項を修飾従属事象(「難しい」)が後続の事象表現(「ある」)の項になっている名詞(「試験」) を修飾しているパターン (24) そんなに $\langle\langle$ 難しい〉》試験が〈〈ある 〉のでしょうか疑問? 名詞述語を修飾従属事象(「質問し」が名詞述語(「子かな」)の名詞を修飾しており,その名詞述語の機能表現(「かな」)の影響を受けるパターン (25)昨日楽譜何がいいって〈質問し〉た〈〈子〉》かな疑問。 これらのパターンについては,事実性解析時に後続の機能表現の影響を考慮する必要があるが,そのためには当該の従属事象が後続の機能表現のスコープ内にあるかどうかを正確に判別する必要がある。そこで,こうした機能表現のスコープの分布についてさらにデータを拡充して調査を行った。 拡張モダリティタグ付与コーパスのうち,2 個以上事象が含まれており,かつ,主事象の事実性が CT+ではない文を 140 文ランダムに抽出した。主事象の事実性が CT+でない文では,主事象の後ろに何らかの機能表現が付随している場合が多いため,今回の分析目的にかなうと考えられる。140 文中には事象表現が全部で 440 個含まれ,そのうち主事象が 140 個, 従属事象が 300 個であった. この 300 個の従属事象を対象に, 主事象に付随する機能表現のスコープ内に従属事象が入っているか,主事象と従属事象の間にどのような接続パターンが見られるかを人手で調査した。ただし,当該の従属事象が主事象から表層的に離れている場合は,隣接する場合にくらべて主事象に付随する機能表現のスコープ内には入りにくいと予測されるので,表 14 では,上記 300 個の従属事象をさらに主事象に隣接する事例 140 個とそれ以外の 160 個に場合分けして集計した. ここでいう「隣接」とは, 係り受け関係にある事象の中で最も表層上近いものを指す。係り受けは, CaboCha (工藤, 松本 2002) による自動解析結果を利用した. 表 14 ランダムに抽出した 140 文中の従属事象の分布 まず,主事象から離れた従属事象 160 個について,従属事象が主事象と同じスコープ内に入つているかどうかを調べた。表 14 に示すように,スコープ内に入っている従属事象が 11 個,スコープ外にある従属事象が 147 個,後方の機能表現ではなく事象選択述語の影響を加味すべき事象が 2 個であり,「スコープ外」への偏りが極めて大きいことがわかった. すなわち,主事象から離れた従属事象が主事象の機能表現の影響を受けることは極めてまれで,その可能性を事実性解析プロセスの中で考慮しても精度のゲインはほとんど期待できない. つぎに,当該従属事象が主事象に隣接している事例 140 個の分布を表 14 に示す。上段の「スコープ内が見られた表現」には,従属事象が主事象に付随する機能表現のスコープ内に入っている場合が一度でも観察された接続パターンを並べた。「〜てから」のように表 13 に入っているが,上記 140 個の事例の中には出現しなかったものも含めてある.表 13 と表 15 をわせる 表 15 主事象と最も近い従属事象との間の接続表現の分類 と興味深い知見が得られる.表 13 の誤りを解消するためには,主として「直接の項」「テ形接続」「項を修飾」「名詞述語を修飾」などの接続パターンのスコープを決定する必要があるが, このうち「直接の項」をのぞく 3 つのパターンはいずれもスコープ内外の選択が高度に曖昧であり (例えば「テ形接続」は「スコープ内」が 5 件,「スコープ外」が 9 件), これらのパターンのスコープを決定する課題に注力することに一定の効用があることがわかる. (26)に「テ形接続」でスコープ内外が異なる例を示す. (26) a. うまく《活かし 〉て〈〈働く》〉ことができなかつ否定た。(スコープ内) b. 諸事情が〈〈あっ 〉て《〈離婚する》ことができなかつ否定た。(スコープ外) 一方,「直接の項」については,つねにスコープ内であると判断してもよい。また,「〜が」「〜 ので」「〜たら」などの接続パターンは「スコープ外」への偏りが大きく, 決定的に「スコープ外」と決めても大きなリスクにはならない可能性がある。その他の接続パターンに関しても, ある程度の偏りが見られ, 規則ベースで決めても問題はないと考えられる. 離れた事象と比較して,隣接する事象のほうがスコープ内に入る場合が多いことから,事実性解析プロセスの中で隣接事象のスコープを考慮することによって,ある程度のゲインが期待できる. 隣接事象のスコープを考慮することが,事実性解析の性能改善に繋がるのかを検証するために,隣接事象のスコープを付与し,それを考慮した解析モデルを適用して,誤り分析を行う。まず,隣接事象対に対して同じスコープ内に入るかを人手で付与する。例えば (26a)では,「活かす」と「働く」は同じスコープ内に入ると付与し, (26b)では, 「ある」と「離婚する」は同じスコープに入らないと付与する。次に,解析モデルを,スコープを考慮したものに拡張する。同じスコープに入ると付与された事象対について, 前件の事象(文頭側の事象)については, 自身に付随する機能表現の意味ラベル列に加えて,後件の事象(文末側の事象)に付随する機能表現の意味ラベル列についても考慮して,事実性の更新ルールを適用する.例えば (26a)では 「活かす」と「働く」が同じスコープ内であり,(26b)では「ある」と「離婚する」が同じスコー プ内にはない,というアノテーションを行う。このアノテーションを利用し, 3.4 節で述べた解析モデルを拡張することで,事実性の解析を行う,具体的には,「同じスコープ内である」と付与された事象対のうち, 前件の事象については, 前件の事象自身に付随する機能表現の意味ラベル列に加えて, 後件の事象に付随する機能表現の意味ラベル列に基づいた更新ルールを適用することで,事実性を決定する.例えば (26a)では「活かす」と「働く」が同じスコープ内であるため,「活かす」の事実性を決定する際には,「活かす」自身の機能表現がもつ更新ルールを適用する(今回は更新ルールをもつ機能表現は付随していない)だけでなく,「働く」に付随する機能表現である「なかっ」がもつ更新ルール 1 も適用する. 1,533 文のうち, 2 個以上事象が含まれており, かつ, 主事象の事実性が $\mathrm{CT}+$ ではない 441 文を抽出し, その中で係り受け関係にある 900 事象対に対してスコープのアノテーションを行った. その結果, 同じスコープ内に入ると判断されたのは 120 事象対であった. これらの事象対 のうち, 後件の事象の事実性はスコープに関わらず変化しないが,前件の事象の事実性はスコー プを利用することによって,後件の事象に付随する機能表現の影響を受けて変化する.前件の事象 120 事象における事実性解析の性能を表 16 , 事実性解析性能の変化を表 17 に示す。事例数の変化を見ると, 改善事例が多く, 36 事例見られたものの,スコープを考慮しても誤る事例も 51 事例見られた。しかしながら,その誤り原因を確認すると, 51 事例のうち 32 事例は事実性のアノテーション誤りであり,システムは正しく事実性を解析することができていた。それ以外の事例において,スコープを考慮しても正解できなかったものとしては,以下の事例がある. (27) あなた自身が〈〈貯金する〉〉せを〈〈つけ〉〉いと当為。 (「つける」正解:Uu,スコープ無:CT+,スコープ有:CT+) (「貯金する」正解:Uu,スコープ無:CT+, スコープ有:CT+) (27) では,「貯金する」と「つける」が同じスコープ内にあると判断された事例であるが,従属事象「貯金する」だけでなく,主事象「つける」も誤りとなっている。主事象「つける」が誤った原因は,主事象における誤り分析で述べたように,主事象に付随する機能表現である〈当為〉 のルールが不足していることである。このルールが追加されれば, 主事象の改善とともに, 同一スコープ内の事象である「貯金する」も同時に正しく判定できるようになる。このように,主事象で見られた誤りを改善することで,スコープ内と判断された従属事象の性能改善にもつながる事例が 19 事例見られた.スコープを考慮した事実性解析を行うことで, CT+以外の性能,特に再現率を向上させることができるため, マクロ平均はスコープを考慮した方が大きく上回 表 16 スコープのアノテーションによる事実性解析性能 & & & & & & 52.5 \\ 表 17 スコープのアノテーションによる事実性解析結果の変化 る性能となった。このことから,隣接事象対のスコープ判定を精緻に行うことが,事実性解析の性能向上に貢献することを確認することができた. 以上の観察を合わせると,次のことが言える. - 調査した接続パターンのうち,誤りの半分近く $(36 / 80)$ にあたる「直接の項」は我々の分析データを見る限り,全ての場合においてスコープ内に来るので,述語項構造解析の結果に基づいてスコープを広げることにより,事実性解析の性能を向上させることができる. ・ 誤りのうち 4 割以上 $(33 / 80)$ にあたる「テ形接続」「項を修飾」「名詞述語を修飾」等の接続パターンの場合には,スコープ内外の選択が高度に曖昧であり,これらのパターンのスコープを決定する課題に注力することに一定の効用があることがわかる. - スコープを人手で付与し, 事実性解析に取り入れることで, CT+以外の性能, 特に再現率を向上させることができるため,マクロ平均はスコープを考慮した方が大きく上回る性能を得られる。このことから,隣接事象対のスコープ判定を精緻に行うことが,事実性解析の性能向上に貢献することを確認できた. ## 6 おわりに 事実性解析には,事象に含まれる機能表現,疑問詞を含む副詞,文節境界を越えて事実性に影響を与える語とそのスコープ,その他の 4 種類の問題が含まれている.それぞれは単独でも一つの研究課題になるほどに,容易な問題ではないが,事実性解析ではさらにその組み合わせがあるため,性能の向上が難しい,本研究では,事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533 文に含まれる 3,734 事象に適用した結果の誤りを分析した。このとき全ての事象表現について,述語に続く機能表現に対して意味ラベルを付与した。 主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも, $90 \%$ に近い正解率が得られることがわかった. 本研究で用いた規則は人手で構築したものであるため,その整備は必要ではあるものの, それよりもむしろ, 現在の機能表現の意味ラベル体系に基づいて機能表現解析モデルの研究開発を行うことに一定の支持を与えるものと考える。また,機能表現解析の問題を除けば,誤りの半数は副詞に起因するものであった。したがって,事実性解析は副詞の意味解析の研究を動機付ける良い課題となりうる. 従属事象の事実性解析は, 主事象に比べて考慮すべき要素が多く, 性能も低い. 従属事象でのみ考慮すべき要素は大きく二つあり,文節境界を越えて事実性に影響を与える述語と,従属事象に直接付随しない機能表現の影響である。文節境界を越えて事実性に影響を与える述語に ついては,既存の事象選択述語辞書が一定のカバレッジを持っており,これを利用することで誤りの多くを解消できる可能性がある。しかし,複合語のカバレッジに問題があるなど,こj したリソースの整備が今後の課題であることがわかった. 従属事象に直接付随しない機能表現については,直接の親の事象に付随する機能表現の影響を受ける可能性があるが,その他の事象表現に付随する機能表現の影響はほとんど無視できることも明らかになった.前者の場合については,誤りの半分近く $(36 / 80)$ にあたる「直接の項」 は我々の分析データを見る限り,全ての場合においてスコープ内に来るので,述語項構造解析の結果に基づいてスコープを広げることにより,事実性解析の性能を向上させることができる.一方で,誤りのうち 4 割以上 $(33 / 80)$ 「テ形接続」「項を修飾」「名詞述語を修飾」等の接続パターンの場合には,スコープ内外の選択が高度に曖昧であり,これらのパターンのスコープを決定する課題に注力することに一定の効用があることかがわかる。それ以外の主要な接続パター ンはスコープの範囲を規則ベースで決めても大きな問題は生じそうにない.また,離れた事象対と比較して,隣接事象対のスコープを特定する方が,事実性解析に対して大きなゲインが期待できる。実際にスコープを人手で付与し, 事実性解析に取り入れることで, CT+以外の性能,特に再現率を向上させることができた. このことから,隣接事象対のスコープ判定を精㮹に行うことが,事実性解析の性能向上に貢献することを確認できた. 本研究で報告した誤り分析・課題分析は「Yahoo!知恵袋」のコーパスを用いており,他のドメインやスタイルの文章で同様の傾向が得られるかは明らかでない.今後は調査の範囲を広げ,問題の性質の一般化を図る。また,本研究では,機能表現の意味ラベルに関して正解を与えることで,人手で構築した規則ベースのモデルでも,主事象においては $90 \%$ 近くの正解率となり, ある程度の性能をあげられることを示した.機能表現の意味ラベルを人手で与えることで,更新ルールや辞書の改善によって得られるゲインよりもかなり大きなゲインが得られていると考えられる,このことから,更新ルールや辞書の整備も必要な課題ではあるものの,今後は,本研究では正解を与えた, 機能表現の意味ラベルを自動で解析する課題に注力することが重要であると考える。従属事象においては,主事象同様に機能表現解析も重要な要素となるが,特に隣接する事象が同一スコープに入るか否かを自動で解析することが,事実性解析の性能向上に寄与することが明らかになっている。人手で与えていたスコープを自動で解析することが重要な課題であると考える。 ## 謝 辞 本研究は,文部科学省科研費 (15H01702), JST 戦略的創造研究推進事業 CREST,および,文部科学省「ビッグデータ利活用のためのシステム研究等」委託事業「実社会ビッグデータ利活用のためのデータ統合・解析技術の研究開発」の一環として行われた. ## 参考文献 有田節子 (2007). 日本語条件文と時制節性. くろしお出版. de Marneffe, M.-C., Manning, C. D., and Potts, C. (2012). "Did It Happen? The Pragmatic Complexity of Veridicality Assessment." Computational Linguistics, 38 (2), pp. 301-333. 江口萌, 松吉俊, 佐尾ちとせ, 乾健太郎, 松本裕治 (2010). モダリティ, 真偽情報, 価值情報を統合した拡張モダリティ解析. 言語処理学会第 16 回年次大会発表論文集, pp. 852-855. 遠藤織枝, 小林賢次, 三井昭子, 村木新次郎, 吉沢靖 (編) (2003). 使い方の分かる類語例解辞典新装版. 小学館. Fan, R.-E., Chang, K.-W., Hsieh, C.-J., Wang, X.-R., and Lin, C.-J. (2008). "LIBLINEAR: A Library for Large Linear Classification." Journal of Machine Learning Research, 9, pp. 1871-1874. Farkas, R., Vincze, V., Móra, G., Csirik, J., and Szarvas, G. (2010). "The CoNLL-2010 Shared Task: Learning to Detect Hedges and Their Scope in Natural Language Text." In Proceedings of the 14th Conference on Computational Natural Language Learning - Shared Task, pp. 1-12. 後藤淳, 大竹清敬, Stijn De Saeger, 橋本力, Julien Kloetzer, 川田拓也, 鳥澤健太郎 (2013).質問応答に基づく対災害情報分析システム. 自然言語処理, 20 (3), pp. 367-404. 原一夫,乾健太郎 (2008). 事態抽出のための事実性解析. 情報処理学会研究報告, 2008-FI-89, 2008-NL-183, pp. 75-80. Hickl, A. (2008). "Using Discourse Commitments to Recognize Textual Entailment." In Proceedings of the 22nd International Conference on Computational Linguistics, Vol. 1, pp. 337-344. 飛田良文, 浅田秀子 (1994). 現代副詞用法辞典. 東京堂出版. 今村賢治, 泉朋子, 菊井玄一郎, 佐藤理史 (2011). 述部機能表現の意味ラベルタガー. 言語処理学会第 17 回年次大会発表論文集, pp. 308-311. Inui, K., Abe, S., Hara, K., Morita, H., Sao, C., Eguchi, M., Sumida, A., Murakami, K., and Matsuyoshi, S. (2008). "Experience Mining: Building a Large-Scale Database of Personal Experiences and Opinions from Web Documents." In Proceedings of the 2008 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology-Volume 01, pp. 314-321. Kamioka, Y., Narita, K., Mizuno, J., Kanno, M., and Inui, K. (2015). "Semantic Annotation of Japanese Functional Expressions and its Impact on Factuality Analysis." In Proceedings of The 9th Linguistic Annotation Workshop, pp. 52-61. Karttunen, L. and Zaenen, A. (2005). "Veridicity." In Katz, G., Pustejovsky, J., and Schilder, F. (Eds.), Annotating, Extracting and Reasoning about Time and Events, No. 05151 in Dagstuhl Seminar Proceedings. 川添愛, 齊藤学, 片岡喜代子, 崔栄殊, 戸次大介 (2011a). 確実性判断のためのアノテーション 済みコーパスの構築. 言語処理学会第 17 回年次大会発表論文集, pp. 143-146. 川添愛, 齊藤学, 片岡喜代子, 崔栄殊, 戸次大介 (2011b). 言語情報の確実性に影響する表現 およびそのスコープのためのアノテーションガイドラインVer.2.4. テクニカル・レポート, Department of Information Science, Ochanomizu University, OCHA-IS 10-4. 国立国語研究所 (2004). 分類語彙表. 大日本図書. 工藤拓, 松本裕治 (2002). チャンキングの段階適用による日本語係り受け解析. 情報処理学会論 文誌, 43 (6), pp. 1834-1842. 益岡隆志 (2007). 日本語モダリティ探求. くろしお出版. 松吉俊 (2014). 否定の焦点情報アノテーション. 自然言語処理, 21 (2), pp. 249-270. 松吉俊, 佐尾ちとせ, 乾健太郎, 松本裕治 (2011). 拡張モダリティタグ付与コーパスの設計と 構築. 言語処理学会第 17 回年次大会発表論文集, pp. 147-150. 松吉俊, 江口萌, 佐尾ちとせ, 村上浩司, 乾健太郎, 松本裕治 (2010). テキスト情報分析のた めの判断情報アノテーション. 電子情報通信学会論文誌 D, J93-D (6), pp. 705-713. 松吉俊, 佐藤理史, 宇津呂武仁 (2007). 日本語機能表現辞書の編纂. 自然言語処理, $14(5)$, pp. 123-146. 南不二男 (1974). 現代日本語の構造. 大修館書店. 水野淳太, 成田和弥, 乾健太郎, 大竹清敬, 鳥澤健太郎 (2013). 拡張モダリティ解析器の試作 と課題分析. ALAGIN \& NLP 若手の会合同シンポジウム. 水野淳太, 渡邊陽太郎, エリックニコルズ, 村上浩司, 乾健太郎, 松本裕治 (2011). 文間関係 認識に基づく賛成・反対意見の俯瞰. 情報処理学会論文誌, 52 (12), pp. 3408-3422. Morante, R. and Blanco, E. (2012). "*SEM 2012 Shared Task: Resolving the Scope and Focus of Negation." In *SEM 2012: The 1st Joint Conference on Lexical and Computational Semantics - Volume 1: Proceedings of the Main Conference and the Shared Task, pp. 265-274.森田良行, 松木正恵 (1989). 日本語表現文型用例中心・複合辞の意味と用法. アルク. 日本語記述文法研究会 (編) (2003). 現代日本語文法 3. くろしお出版. Saurí, R. (2008). "FactBank 1.0 Annotation Guidelines." http://www.cs.brandeis.edu/ roser/pubs/fb_annotGuidelines.pdf. Saurí, R., Littman, J., Gaizauskas, R., Setzer, A., and Pustejovsky, J. (2006). "TimeML Annotation Guidelines, Version 1.2.1." http://www.timeml.org/site/publications/ timeMLdocs/annguide_1.2.1.pdf. Saurí, R. and Pustejovsky, J. (2007). "Determining Modality and Factuality for Text Entailment." In Proceedings of the International Conference on Semantic Computing, pp. 509-516. Saurí, R. and Pustejovsky, J. (2009). "FactBank: A Corpus Annotated with Event Factuality." Language Resources and Evaluation, 43 (3), pp. 227-268. Saurí, R. and Pustejovsky, J. (2012). "Are You Sure that This Happened? Assessing the Factuality Degree of Events in Text." Computational Linguistics, 38 (2), pp. 261-299. Sutton, C., McCallum, A., and Rohanimanesh, K. (2007). "Dynamic Conditional Random Fields: Factorized Probabilistic Models for Labeling and Segmenting Sequence Data." The Journal of Machine Learning Research, 8, pp. 693-723. 鈴木敬文, 阿部佑亮, 宇津呂武仁, 松吉俊, 土屋雅稔 (2011). 大規模階層辞書と用例を用いた日本語機能表現の解析.『現代日本語書き言葉均衡コーパス』完成記念講演会予稿集, pp. 105-110. Szarvas, G., Vincze, V., Farkas, R., and Csirik, J. (2008). "The BioScope Corpus: Annotation for Negation, Uncertainty and Their Scope in Biomedical Texts." In Proceedings of the Workshop on Current Trends in Biomedical Natural Language Processing, pp. 38-45. 田窪行則 (2010). 日本語の構造推論と知識管理. くろしお出版. 梅澤俊之, 西尾華織, 松田源立, 原田実 (2008). 意味解析システム SAGE の精度向上とモダリティの付与と辞書更新支援系の開発. 言語処理学会第 14 回年次大会発表論文集, pp. 548-551. ## 略歴 成田和弥:2015 年東北大学大学院情報科学研究科博士後期課程科目修了退学.同年より同研究科研究員, 現在に至る. 自然言語処理の研究に従事. 水野淳太:2012 年奈良先端科学技術大学院大学情報科学研究科博士課程修了.同年より東北大学大学院情報科学研究科研究員. 2013 年より独立行政法人情報通信研究機構耐災害 ICT 研究センター研究員, 現在に至る. 博士 (工学).自然言語処理, 耐災害情報通信の研究に従事. 情報処理学会, 人工知能学会各会員. 上岡裕大:2014 年東北大学工学部情報知能システム総合学科卒業. 同年, 同大学大学院情報科学研究科博士前期課程に進学, 現在に至る. 自然言語処理の研究に従事. 情報処理学会学生会員. 菅野美和:2013 年より東北大学大学院情報科学研究科技術補佐員, 現在に至る. 自然言語処理研究データのアノテーションに従事. 乾健太郎:1995 年東京工業大学大学院情報理工学研究科博士課程修了. 同研究科助手, 九州工業大学助教授. 奈良先端科学技術大学院大学助教授を経て, 2010 年より東北大学大学院情報科学研究科教授, 現在に至る. 博士 (工学).自然言語処理の研究に従事. 情報処理学会, 人工知能学会, ACL, AAAI 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 対話解析のためのゼロ代名詞照応解析付き述語項構造解析 今村 賢治 ${ }^{\dagger}, \dagger \dagger$ ・東中竜一郎 } 本稿では, 日本語を対象とした対話用述語項構造解析を提案する. 従来, 述語項構造解析は,主に新聞記事を対象に研究されてきた。新聞と対話ではさまざまな違い が存在するが, 本稿ではこれを包括的に扱うため, 対話用述語項構造解析器の構築 を,新聞から対話への一種のドメイン適応とみなす。具体的には,対話では省略や 代名詞化が新聞記事に比べて頻繁に現れるため, ゼロ代名詞照応機能付きの述語項構造解析をベースとし,これを対話に適応させる。パラメータ適応と, 訓練コーパ スがカバーしきれない語彙知識を大規模平文コーパスから自動獲得することにより,新聞記事用のものに比べ,対話に対して高精度な述語項構造解析を実現した. キーワード:述語項構造解析,ゼロ代名詞照応,対話,ドメイン適応,係り受け言語モデル ## Predicate-Argument Structure Analysis and Zero-Anaphora Resolution for Dialogue Analysis \author{ Kenji Imamura $^{\dagger, \dagger \dagger}$, Ryuichiro Higashinaka ${ }^{\dagger}$ and Tomoko Izumi $^{\dagger}$ } This paper presents a predicate-argument structure (PAS) analysis for dialogue systems in Japanese. Conventional PAS analyses have been applied to newspaper articles; however, there are differences between newspapers and dialogues. Therefore, to comprehensively deal with these differences, we constructed a PAS analyzer for dialogues as a type of domain adaptation from newspapers. Because pronominalization and ellipses frequently appear in dialogues, we utilized a strategy that simultaneously resolves zero-anaphora and adapts our PAS analyzer to dialogues. By incorporating parameter adaptation and automatically acquiring knowledge from large text corpora, we performed a PAS analysis that is specific to dialogues. Our PAS analyzer has a higher accuracy compared with the analyzer for newspaper articles. Key Words: Predicate-Argument Structure Analysis, Zero-anaphora Resolution, Dialogue, Domain Adaptation, Dependency Language Models ## 1 はじめに 述語項構造解析 (predicate-argument structure analysis) は, 文から述語とその格要素(述語項構造)を抽出する解析タスクである。述語項構造は,「誰が何をどうした」を表現している  ため, この解析は, 文の意味解析に位置付けられる重要技術の一つとなっている. 従来の述語項構造解析技術は,コーパスが新聞記事であるなどの理由で,書き言葉で多く研究されてきた (Carreras and Màrquez 2004, 2005; 松林,飯田,笹野,横野,松吉,藤田,宮尾,乾 2014). 一方, 近年のスマートフォンの普及に伴い, Apple 社の Siri, NTT ドコモ社のしゃべってコンシェルなど,音声による人とコンピュータの対話システムが,身近に使われ始めている,人・ コンピュータの対話システムを構築するためには, 人間の発話を理解し, システム発話とともに管理する必要があるが, 述語項構造は, 対話理解・管理に対しても有効なデー夕形式であると考えられる。しかし, 新聞記事と対話では, 発話人数, 口語の利用, 文脈など, さまざまな違いがあるため, 既存の新聞記事をべースとした述語項構造解析を対話の解析に利用した際の問題は不明である。たとえば,以下の対話例を考える。 この例では, 最初の発話から, 述語が「ほしい」, そのガ格が「iPad」である述語項構造が抽出される,2番目の発話では,述語が「買う」であることはわかるが,ガ格, ヨ格が省略されているため, 述語項構造を得るためには,ガ格が発話者 $\mathrm{A} \mathrm{~ ヨ格か ゙ 「 i P a d 」 て ゙ あることも併せて解 ~}$析する必要がある。このように,対話では省略がごく自然に出現する(これをゼロ代名詞と呼ぶ)ため, 日本語の対話の述語項構造解析には, ゼロ代名詞照応解析処理も必要となる. 本稿では, 人とコンピュータの対話システム実現のため, 従来に比べ対話を高精度に解析する述語項構造解析を提案する。本稿で対象とするタスクは, 以下の 2 点をともに解決するものである. (1)日本語で必須格と言われているガ格, ヨ格, 二格に対して, 述語能動形の項を決定する. (2) ゼロ代名詞照応解析を行い, 文や発話内では項が省略されている場合でも, 先行した文脈から項を決定する。 本稿の提案骨子は, 対話のための述語項構造解析器の構築を, 新聞から対話へのドメイン適応とみなすことである。具体的には,新聞記事用に提案されたゼロ代名詞照応機能付き述語項構造解析を, 話題を限定しない雑談対話に適応させる。そして, 対話と新聞のさまざまな違いを,個々の違いを意識することなく,ドメイン適応の枠組みで包括的に吸収することを目指す. Màrquez, Carreras, Litkowski, and Stevenson (2008), Pradhan, Ward, and Martin (2008)は, 意味役割付与のドメイン適応に必要な要素として, 未知語対策とパラメータ分布の違いの吸収を挙げている。本稿でも, 未知語およびパラメータ分布の観点から対話に適応させる。そして, 新聞記事用より対話に対して高精度な述語項構造解析を提案する. 我々の知る限り, ゼロ代名詞を多く含む対話を, 高精度に解析する述語項構造解析器は初である. 以下,第 2 章では, 英語意味役割付与, 日本語述語項構造解析の関連研究について述べる。 3 章では, 我々が作成した対話の述語項構造データと新聞の述語項構造デー夕を比較し, 対話の特徴について述べる。第 4 章では,今回べースとした述語項構造解析方式の概要を述べ,第 5 章では,これを対話用に適応させる.実験を通じた評価は 6 章で述べ,第 7 章でまとめる. ## 2 関連研究 近年の日本語の述語項構造解析は, 教師あり学習をべースにしている。これは, 英語の意味役割付与の考え方を参考にし, 日本語の問題に当てはめたものである. 英語の意味役割付与も,近年は意味役割として,述語とその項(格要素ごとの名詞句)に関する情報を付与しており,述語項構造解析と非常に似たタスクとなっている. ## 2.1 英語の意味役割付与 英語の意味役割付与は, Gildea and Jurafsky (2002) が教師あり学習を用いた方式を提案して以来,コーパスが整備されてきた。国際ワークショップ CoNLL-2004, 2005 で行われた共有夕スク (Carreras and Màrquez 2004, 2005) では, PropBank (Palmer, Gildia, and Kingsbury 2005) を元にした評価が行われた,PropBank は,文に対して,述語とその項を注釈付けしたコーパスで,文自体は,Penn Treebank(元記事は Wall Street Journal)から取られているため,ここで行われた評価も新聞記事に対するものである (このあたりの経緯は, Màrquez et al. (2008)が整理している)。 OntoNotes (Hovy, Marcus, Palmer, Ramshaw, and Weischedel 2006) は, ニュース記事, ニュー ス放送,放送における対話など,複数のジャンルを含んだコーパスである.付与された情報には,意味役割も含んでいるが,現在は共参照解析のデータとして使用されるに留まり (Pradhan, Moschitti, and Xue 2012),対話解析への適用はこれから期待されるところである. 意味役割付与は,タスク指向対話の意味理解にも利用される場合がある (Tur, Hakkani-Tür, and Chotimongkol 2005; Coppola, Moschitti, and Riccardi 2009) . Tur et al. (2005)は,電話のコールセンタにおけるユーザとオペレータとの対話において,述語と項の対を素性としたコー ルタイプ分類器を構築している。ここで, 述語・項の対は, ユーザ発話をPropBank ベースの意味役割付与器で解析することで得ている,彼らの実験は, 素性として用いる場合は新聞記事用の意味役割付与器でも効果があることを示したが, 本稿では, 対話における述語項構造解析自体の精度向上を狙っている。 Coppola et al. (2009)は,同じくコールセンタ対話に対して, FrameNet (Ruppenhofer, Ellsworth, Petruck, Johnson, and Scheffczyk 2006)に準拠する意味役割付与を行っている。彼らは,コールセンタ対話を解析するため,分野依存の意味フレームを FrameNet に追加して,スロット(フレーム要素)の穴埋めを行っている。コールセンタ対話の ように,意味役割が非常に限定される場合は,フレーム追加で対応できるが,タスクを限定しない雑談対話の場合は,分野依存フレームの追加は困難である。 なお,述語たけでなく,事態性名詞(例えば,動詞'decide'に対する事態性名詞 'decision') に対する意味役割付与の研究もある (Jiang and Ng 2006; Gerber and Chai 2012; Laparra and Rigau 2013) 。事態性名詞の場合, 英語でも格要素を省略して表現することがあるため(たとえば, “the decision”の対象格は省略されている), 日本語のゼロ代名詞と同様の問題を解決する必要がある. ## 2.2 日本語の述語項構造解析 日本語では, 奈良先端大が,述語項構造と照応デー夕を新聞記事に付与した NAIST テキストコーパス1 を公開している (Iida, Komachi, Inui, and Matsumoto 2007; 飯田, 小町, 井之上,乾, 松本 2010). NAIST テキストコーパスは, 毎日新聞の記事に対して, 日本語で必須格と言われているガヲニ格の名詞句を,各述語に付与したものである. 名詞句は, 述語能動形の格に対して付与されている。また,名詞句は述語と同じ文内に限らず,ゼロ代名詞化されている場合は,先行詞までさかのぼって付与されている. 述語項構造解析も,上記コーパスを利用したものが多く提案されている (Komachi, Iida, Inui, and Matsumoto 2007; Taira, Fujita, and Nagata 2008; Imamura, Saito, and Izumi 2009; 吉川,浅原, 松本 2013; 林部, 小町, 松本 2014). 日本語の場合, ゼロ代名詞が存在するため, 述語項構造解析時に, 文をまたがるゼロ代名詞照応も解釈する場合がある(たとえば (Taira et al. 2008; Imamura et al. 2009; 林部他 2014)). 新聞記事以外を対象とした述語項構造解析研究には, 以下のものがある。萩行, 河原, 黒橋 (2014)は, ブログなどを含む Web テキストを対象に, 特に一人称・二人称表現に焦点を当てた照応解析法を提案している. 彼らは同時に述語項構造解析も行っており, 本稿のタスクと類似している,彼らは Webテキストを解析するにあたり,外界照応(記事内に項の実体が存在しない) を著書 (一人称), 読者 (二人称), その他の人, その他に分けるという拡張を行っている.本稿でも,NAISTテキストコーパス(バージョン1.5)の分類に従い,外界照応を一人称,二人称, その他に分け, 項の推定を行う。また, 平, 田中, 藤田, 永田 (2014) は, ビジネスメー ルを対象とした述語項構造解析を試みている. 彼らは新聞記事用の述語項構造解析器をそのままビジネスメール解析に適用したが,一人称・二人称外界照応は,ほとんど解析できなかったと報告している. 英語, 日本語いずれも, 現状の意味役割付与, 述語項構造解析は新聞記事のような正書法に則って記述されたテキストや Web テキスト,メールを対象としている. 非常に限定されたタス ^{1}$ http://cl.naist.jp/nldata/corpus/ } クを扱うコールセンタ対話の例はあるが,タスクを限定しない雑談対話を解析した際の精度や問題点については不明である. ## 3 雑談対話の特徵 まず我々は, 2 名の参加者による雑談対話を収集し,その対話に述語項構造デー夕の付与を行った.雑談対話は,参加者が自由なテーマ(話題)を設定し,キーボード対話形式で収集した. したがって, 音声対話に含まれるような相桘や言い直しは少ない. 参加者の話題は, 食事,旅行, 趣味, テレビ・ラジオなどである。述語項構造アノテーションは, NAIST テキストコー パス (Iida et al. 2007; 飯田他 2010) に準拠する形で行った. 雑談対話と, その述語項構造解析アノテーションの例を図 1 に示す 2 . 今回作成した雑談対話コーパスと, NAISTコーパス 3 の統計量を表 1 に示す. 対話コーパスは, NAISTコーパスの約 $1 / 10$ のサイズである。また, 1 文/発話の長さ(形態素数)は,雑談対話コーパスはNAISTコーパスの $1 / 3$ 程度と短い. NAISTコーパスは, 訓練, 開発, テストに 3 分割したのに対し,対話コーパスは訓練とテストの 2 分割とした. 対話の特徴を分析するため, この 2 つのコーパスの比較を行った. 表 2 は, 訓練セットにお 図 1 雑談対話とその述語項構造アノテーションの例 太字は述語, [] は文内の項, () は文間の項または外界照応を表す. また, exo1, exo2, exog はそれぞれ一人称/二人称ゼロ代名詞,それ以外の外界照応を表す. 表 1 コーパスサイズ  表 2 訓練セットにおける項の分布 ける項の分布を示したものである。各項は,述語との位置関係や文法関係などにより問題の難しさが異なるため, 以下の 6 タイプに分類した。最初の $2 \supset ($ 係受および文内ゼロ)は述語と項が同じ文に存在する場合である。 - 係受: 述語と項が直接の係り受け関係にある場合 - 文内ゼロ: 述語と項が同じ文(発話)内にあるが,直接の係り受け関係がない場合 $\cdot$ 文間ゼロ: 述語と項が異なる文にある場合 - exo1/exo2/exog:項が記事(対話)内に存在しない外界照応. それぞれ,一人称ゼロ代名詞,二人称ゼロ代名詞,それ以外(一般)を表す. これを見ると,対話ではすべての格で,係受タイプの項が減少している,それ以外のタイプについては,ガ格と,丹格二格で傾向が異なっている。攵格では, 文内ゼロ代名詞も対話の場合に減少し, 減少分は一人称・二人称外界照応 (exo1, exo2)に割り当てられている.つまり,ガ格では,文内の項が減少し,ゼロ代名詞が新聞に比べて頻発する。ただし,その先行詞は一人称・二人称代名詞である可能性が高いと言うことができる。 ヨ格二格では, 係受夕イプの項の減少分は, 文間ゼロ代名詞またはその他の外界照応 (exog) に割り振られている。つまり, 新聞記事では,大部分は述語と同じ文内に現れていたヲ格二格の項が,対話では別の発話に現れることが多くなり,1文に閉じない照応解析が重要となる。 ## 4 ゼロ代名詞照応付き述語項構造解析 ## 4.1 基本方式 本稿でベースとする述語項構造解析は, Imamura et al. (2009) の方法である. これは, 新聞記事を対象とした方法であるが, 文内に存在する項, 文間の項, 外界照応を同時に解析できるという特徴があるため, 対話の解析にも適していると判断した. 処理は,記事(対話)全体を入力とし,各文(発話)ごとに以下のステップを実行する. (1) 入力文を形態素・構文解析する,構文解析時には,同時に文節とその主辞を特定しておく.なお, 今回は対話コーパスに関しては, 形態素解析器 MeCab (Kudo, Yamamoto, and Matsumoto 2004),構文解析器 CaboCha (Kudo and Matsumoto 2002) で形態素・文節係り受け・主辞情報を自動付与した。NAISTコーパスに関しては, NAISTコーパス 1.5 付属のIPA 体系の形態素・構文情報を利用した 4 . (2)文から述語文節を特定する,今回は評価のため,コーパスの正解述語を用いたが,対話システム組み込みの際には,主辞が動詞,形容詞,形容動詞,名詞 + 助動詞「た」の文節を述語文節とし,品詞パターンで決定する。 (3) 対象述語の存在する文,およびそれより前方の文から,項の候補となる文節を取得する.文節の内容語部を候補名詞句とする。具体的には,以下の文節が候補となる。 ・ 対象述語の文に含まれる,内容語部が名詞句であるすべての文節を文内の候補とする。その際,述語文節との係り受け関係は考慮しない。 - 対象述語より前方の文から, 文脈的に項の候補となりうる文節を加え, 文間の候補とする。詳細は 4.4 節で述べる。 - 記事内に実体を持たない疑似候補として, 外界照応 (exo1, exo2, exog) と, 任意格のため格を必要としない (NULL) を特殊名詞句として加える. (4)述語文節,項の候補名詞句,両者の関係を素性化し,ガ,ヨ,二格独立に,候補からもっとも各格にふさわしい名詞句を選択器で選択する(図 2). 本稿では, Imamura et al. (2009)の方式から, 若干の変更を行っている. 変更点は以下のとおりである. 図 2 項選択の例 ^{4}$ NAIST コーパス 1.5 は, IPA 体系の形態素,文節,主辞情報を含んだ形で配布されている.京都大学テキストコー パス 4.0 (http://nlp.ist.i.kyoto-u.ac.jp/index.php?京都大学テキストコーパス)と, 毎日新聞 1995 年版記事デー 夕を合成することで,係り受け情報を含む完全な NAIST コーパスが構成できるようになっている. } - Imamura et al. (2009) では, 特殊名詞句は 1 種類(NULLのみ)であったが,本稿では 4 種類 (NULL, exo1, exo2, exog) に拡張した. 萩行他 (2014) は, 外界照応を含む一人称,二人称ゼロ代名詞(論文では著者・読者表現)の照応解析を行うことで,それ以外のゼ口代名詞の照応解析精度も向上したと報告している. 本稿でも, 特殊名詞句の種別を増やすこととする. ・ 素性が異なる。本稿では, 4.3 節で述べる素性を使用したが, これは Imamura et al. (2009) の基本素性を拡張, 追加したものである。また, 文脈を考慮する素性 (文献では SRLOrder, Used)は使用せず,簡略化した。これは,文脈管理を外部モジュールに任せるためで,詳細は 4.4 で述べる。 ・ 係り受け言語モデル(5.2.2 節参照)を 1 種類から 3 種類に拡張した. ## 4.2 選択器のモデル 選択器のモデルは, 最大エントロピー分類に基づく. 具体的には, 選択器は記事内の述語 $v$ ごとに,候補名詞句集合 $\mathbf{N}$ から,以下の式を満たす名詞句 $\hat{n}$ を選択する. $ \begin{aligned} \hat{n} & =\underset{n_{j} \in \mathbf{N}}{\operatorname{argmax}} P\left(d\left(n_{j}\right)=1 \mid X_{j} ; M_{c}\right) \\ P\left(d\left(n_{j}\right)=1 \mid X_{j} ; M_{c}\right) & =\frac{1}{Z_{c}(X)} \exp \sum_{k}\left.\{\lambda_{c k} f_{k}\left(d\left(n_{j}\right)=1, X_{j}\right)\right.\} \\ Z_{c}(X) & =\sum_{n_{j} \in \mathbf{N}} \exp \sum_{k}\left.\{\lambda_{c k} f_{k}\left(d\left(n_{j}\right)=1, X_{j}\right)\right.\} \\ X_{j} & =\left.\langle n_{j}, v, A\right.\rangle \end{aligned} $ ただし, $n$ は 1 つ候補名詞句, $\mathbf{N}$ は候補名詞句集合, $d\left(n_{j}\right)$ は, 名詞句 $n_{j}$ が項となったときのみ 1 となる関数, $M_{c}$ は格 $c$ (ガ, ヲ,ニのいずれか) のモデルである. また, $f_{k}\left(d\left(n_{j}\right)=1, X_{j}\right)$ は素性関数, $\lambda_{c k}$ は格毎の素性関数の重み, $v, A$ はそれぞれ述語,および形態素・構文解析済みの記事全体である。 訓練時には, ある述語の候補名詞句集合ごとに, 正解の名詞句と, それ以外のすべての候補名詞句との事後確率差を大きくするように学習する。 具体的には, 以下の損失関数を最小化するモデル $M_{c}$ を,格ごとに学習する. $ \ell_{c}=-\sum_{i} \log P\left(d\left(n_{i}\right)=1 \mid X_{i} ; M_{c}\right)+\frac{1}{2 C} \sum_{k}\left.\|\lambda_{c k}\right.\|^{2} $ ただし, $n_{i}$ は,訓練セットの $i$ 番目の述語に対する正解名詞句, $X_{i}$ は,訓練セットの $i$ 番目の正解名詞句, 述語, 記事の組 $\left.\langle n_{i}, v_{i}, A_{i}\right.\rangle, C$ は過学習を制御するためのハイパーパラメータで,開発セットにおける精度が最高になるように, あらかじめ設定しておく. 式 (3)で, 述語の候 補名詞句集合毎に正規化を行っているため, (5) 式では, 候補名詞句集合から, 正解名詞句が選ばれた時に確率 1.0 , それ以外の名詞句では確率 0.0 に近づくようにモデルが学習される. ## 4.3 素性 選択器で使用する素性に関しては, 英語の意味役割付与に関する研究(たとえば Gildea and Jurafsky (2002))と同様に,(1) 述語に関する素性, (2) 名詞句に関する素性, (3) 両者の関係に関する素性を使用する。詳細を表 3 に示す. 二値の素性関数は,テンプレートの引数が完全一致したときのみ 1 ,それ以外では 0 を返す関数である。たとえば Pred 素性において, 主辞形態素の見出しが 1 万種類あったとすると, 1 万の二値関数が定義され, 主辞形態素の見出しと一致した関数だけが 1 を返す. 実数値の素性関 表 3 素性テンプレート一覧 \\ 数は, テンプレートの引数に応じた実数を返す. なお, これらは名詞句の選択用モデルの素性であるので,名詞句 Noun と,すべての二値素性を組み合わせた素性も使用している. 本稿で特徴的な素性は, 大規模データから自動構築した必須格情報 Frame と係り受け言語モデル(3 種類)であるが,これらについては 5.2 節で述べる. ## 4.4 文脈処理 本稿では, 人とコンピュータの対話システム実現のための解析器を想定している。この対話システムは,ユーザとシステムが交互に発話するもので,システムに組み込まれた対話管理部が両者の発話履歴や, 現在話されている話題(焦点)を管理する。述語項構造解析部はユーザ発話を解析し,発話生成部がシステム発話を生成するというものである. 従来の述語項構造解析器も, 現在の解析対象文より以前の文を文脈として利用し, ゼロ代名詞照応解析に利用している. Imamura et al. (2009)は, 解析器内部で以前の文や話題(焦点)の管理(これを文脈管理と呼ぶ)を行っていた。しかし, 述語項構造解析器内部で文脈管理を行うより,対話システムの対話管理部が文脈管理を行った方が,ユーザ発話とシステム発話を協調的に管理できる可能性が高い. 本稿ではこのように考え, 文脈管理は外部モジュールの担当と位置付ける。そして評価用に,新聞記事と対話で同じ文脈管理方法を使用する。なお, 本稿の方式は, 選択器に与える文間の候補名詞句を取捨選択することによって文脈の制御を行っているので,候補名詞句を外部モジュールから陽に与えることで,文脈管理方法を変更することができる. 今回使用した文脈管理方法は,具体的には以下のとおりである. - 対象述語の発話より以前の発話をさかのぼり, 他の述語を含む発話(これを有効発話と呼ぶ)を見つける。これは,述語を含まない発話を無視するためである. - 有効発話と対象述語の発話の間に出現した全名詞句と, 有効発話の述語で項として使われた名詞句(有効発話内の場合もあれば,それ以前の発話の名詞句の場合もある)を候補として加える。項として使われた名詞句は, その後も繰り返し使われることが多く, これに制限することで,効率的に候補を削減することができるという観察結果に基づく (Imamura et al. 2009). また, 項として使われている限り, さかのぼる文数に制限がないため,広い文脈を見ることができる。 ## 5 雑談対話への適応 前節で述べた方法は, 対話, 新聞記事に共通の処理である. これを対話解析に適したものにするため, パラメータの適応,および大規模コーパスから自動獲得した知識の適用を行う. ## 5.1 モデルパラメータの適応 NAIST コーパスと対話コーパスの項分布の差異は, 選択器のモデルパラメータをドメイン適応することで調整する。本稿では, モデルパラメータの適応手法として, 素性空間拡張法 (Daumé 2007)を用いる.これは,素性空間を 3 倍に拡張することで,ソースドメインデータをターゲットドメインの事前分布とみなすのと同じ効果を得る方法である. 具体的には,以下の手順で選択器のモデルを学習・適用する. (1)まず,素性空間を共通,ソース,ターゲットの 3 つに分割する. (2) NAISTコーパスをソースドメインデータ,対話コーパスをターゲットドメインデータとみなし, NAISTコーパスから得られた素性を共通とソース空間にコピーして配置する。対話コーパスから得られた素性は共通とターゲット空間にコピーして配置する。 (3)拡張された素性空間上で,通常通りパラメータ推定を行う,結果,ソース・ターゲットデータ間で無矛盾な素性は, 共通空間のパラメータが強調され(絶対值が大きくなる), ドメインに依存する素性は,ソースまたはターゲット空間のパラメータが強調される。 (4)選択器が項を選択する際は,ターゲット空間と共通空間の素性だけ用いる。この空間のパラメータは,夕ーゲットドメインに最適化されているだけでなく,ソースドメインデー タだけに現れた共通空間の素性も利用して, 項選択ができる. ## 5.2 大規模コーパスからの知識獲得 本稿では, 訓練コーパスに含まれない未知語への対策として, 大規模コーパスから自動獲得した 2 種類の知識を利用する。 どちらも大規模平文コーパスを自動解析して, 集計やフィルタリングをすることで獲得する (河原,黒橋 2005; Sasano, Kawahara, and Kurohashi 2008; Sasano, Kawahara, Kurohashi, and Okumura 2013),当然誤りも含むが,新出語に対しても,ある程度の確かさで情報を与えることができる。これらを選択器の素性として使い,モデルを学習することにより,情報の信頼度に応じたパラメータが学習される。 ## 5.2.1 必須格情報(Frame 素性) 格フレームは,述語の必須格と,その格を埋める名詞句の種類(通常は意味クラス)を保持するフレーム形式の情報で, 述語項構造解析や意味役割付与の重要な手がかりとなる。本稿で使う必須格情報は,格フレームのうち,格が必要か否か(必須格か任意格か)だけについて情報を与える辞書である。 本稿の必須格情報は,大規模平文テキストコーパスから,以下の方法で自動構築する。これは, (1) 項が述語と直接係り受け関係にある場合, 述語に対する項の格は, 項の名詞句に付随する格助詞と一致することが多い, (2) 必須格なら, その格の出現率は他の述語より平均的に高 い5,という仮定をもとにしている. - まず, 本稿の述語項構造解析と同様(4.1 節参照)に, 平文を形態素・構文解析し, 品詞パターンで述語文節とその主辞を特定する 6. - 述語文節に直接係る文節を取得し,機能語部に格助詞を持つ文節だけを残す。もし,そのような文節が 1 つ以上あるなら,その述語を集計対象として,述語頻度,格助詞の出現頻度を集計する。 - 述語に関しては, 高頻度述語から順番に, 最終的な辞書サイズを考慮して選択する,個々の格に関しては,以下の条件をすべて満たす格を,必須格とみなす。 - 〈述語 $v$, 格 $c\rangle$ が, 対数尤度比検定において, 危険率 $0.1 \%$ 以下で有意に多く共起していること $(p \leq 0.001 ;$ 対数尤度比 $\geq 10.83)$. - 各述語における格 $c$ の出現率が, 全述語における格の出現率(平均)より $10 \%$ 以上高いこと。 以上の方法で, 2 種類の必須格情報辞書を作成した。一つは, ブログ約 1 年分(約 23 億文.以下 $\mathrm{B} \log$ コーパスと呼ぶ)から,48万述語の情報を獲得した(これを $\mathrm{B} \log$ 辞書と呼ぶ)。もう一つは新聞記事 12 年分(約 770 万文. 以下 News コーパスと呼ぶ)から約 20 万述語の情報を獲得した (同 News 辞書). 表 4 は, 雑談対話コーパス訓練セットの正解述語項構造と必須格情報辞書を比較し, 必須格情報辞書の述語カバー率と格毎の精度を算出したものである。述語カバー率は,対話コーパスに出現した述語が必須格情報辞書に含まれている場合,カバーしたと判断した。結果, Blog 辞書で $98.5 \%$, News 辞書で $96.4 \%$ で, ほぼ等しかった。また, 格毎の精度は, 正解の述語項構造に格が付与されているか否かと, 必須格情報上の必須格性が一致しているかどうかを測定した 表 4 必須格辞書の述語カバー率と精度(対話コーパス訓練セットで測定した場合)  もので,B $\log$ 辞書,News 辞書でほぼ同じ傾向を示している,格毎に見ると,ガ格の精度が低いが,これは,雑談対話コーパスでは,ほぼすべての述語に対してガ格が付与されている(つまり,ガ格が必須)にも関わらず,B $\log$ コーパスや News コーパスではそれがゼロ代名詞化されているため, 自動獲得では必須格とは判断できなかったためである. ヲ格の全体精度は $91 \%$以上と, 格によっては高い精度を持つ辞書となっている. ## 5.2.2係り受け言語モデル 係り受け言語モデル (language model; LM) は, 三つ組 〈述語 $v$, 格 $c$, 名詞句 $n\rangle$ の共起のしやすさを表現するモデルである,頻出表現に高いスコアを与えることによって, 出現する単語間に意味的関連が存在することを表現する意図がある。ここでは, 述語 $v$, 格 $c$, 名詞句 $n$ それぞれの生成確率を n-gram モデルで算出し, 選択器の識別モデルで全体最適化を行う. 具体的には,以下の実数値を算出し,表 3 の係り受け言語モデル素性の素性関数値として使用する。その結果, 選択器は, 候補名詞句集合から, 頻出表現に含まれる名詞句 $n$ を優先して選択することになる。なお,未知語を表す特殊単語くunk>を含む確率で補正してる理由は,対数確率 $(-\infty$〜0.0の範囲)を正の値に補正するためである. - $\log P(n \mid c, v)-\log P(<$ unk> $\mid c, v)$ - $\log P(v \mid c, n)-\log P(v \mid c$, <unk>) - $\log P(c \mid n)-\log P(c \mid<$ unk> $)$ 本稿の係り受け言語モデルは, Imamura et al. (2009) が 1 種類( $\log P(n \mid c, v)$ 相当)のみ使用していたのに対し, 識別モデルが互いに依存しあう素性を含めることができるという特徴を利用し, 3 種類に拡張している. また, 述語 $v$ から見た格 $c$ の生成確率 $(\log P(c \mid v))$ は, 述語ごとに格を必要とする度合であり, 必須格情報と重なるため, 係り受け言語モデルからは除外した。 3 種類の係り受け言語モデルは, 5.2.1節で抽出した述語, 格, 名詞句を集計し, SRILM (Stolcke, Zheng, Wang, and Abrash 2011) でバックオフモデルを構築した. 係り受け言語モデルも, Blogコーパス,Newsコーパスからそれぞれ作成した。これを,それぞれ Blog 言語モデル, News 言語モデルと呼ぶ. 言語モデルのカバー率を, 雑談対話コーパス訓練セットに出現する三つ組が係り受け言語モデルの元になった三つ組に含まれるかどうか 場合, カバー率は $38.3 \%$ だった. News 言語モデルに比べ, B $\log$ 言語モデルは対話コーパスに出現する係り受けの三つ組のカバレッジが高い7.  ## 6 実験 本節では,表 1 に示したコーパスを用い,対話における述語項構造解析の精度を,パラメー 夕適応,大規模コーパスから自動獲得した知識の効果という観点から評価する。評価はすべて雑談対話コーパステストセットで行う,評価指標には,項の適合率,再現率から算出した $\mathrm{F}$ 値を用いる。 ## 6.1 実験 1: パラメータ適応の効果 まず,パラメータ適応の効果を測定するため, 訓練方法を変えた 3 方式の比較を行った. 表 5 の (a), (b), (c) カラムがその結果で,それぞれ (a) 素性空間拡張によるドメイン適応を行った場合(適応.提案法),(b) NAISTコーパスだけで訓練した場合(NAIST 訓練.従来の新聞記事用解析に相当),(c) 対話コーパスだけで訓練した場合(対話訓練)を表す. まず,(a) 適応と (b) NAIST 訓練を比較すると, 多くの場合, 適応の方が有意に精度がよいという結果になった(の記号が有意差ありを表す).特に合計の精度では,すべての格で適応が 表 5 対話テストセットにおける方式・必須格情報・係り受け言語モデルごとの $\mathrm{F}$ 値 & & & & \\ 表中の太字は,全方式のうち,F 值最高を指す。また,記号 $\odot , \diamond , \pitchfork , は ,(a)$ と,それぞれ (b) (c) (d) (e)の比較で, 有意によかったものを表す. 有意差検定は, ブートストラップ再サンプリング法 $(1,000$ 回測定)を使用し,危険率を $5 \%$ とした。 有意に勝っている. タイプ別の精度を見ると, 特徴的なのは, ガ格の一人称, 二人称外界照応 (exo1, exo2) である.これらはガ格の項のうちの約 $28 \%$ を占めているが, exo1 で $70.2 \%$, exo 2 で $46.8 \%$ の F 值で解析可能となった。他にも, ヲ格二格の文間ゼロ,exogなど,NAIST 訓練ではほとんど解析できなかったタイプの項が解析できるようになった. (a) 適応と (c) 対話訓練を比較すると(囚参照), 雑談対話コーパスは訓練セットのサイズが小さいにも関わらず,両者の精度が近くなった。適応の合計精度が有意に良かったのは,二格のみである。これには 2 つの理由が考えられる. ・ 対話コーパス量が十分であり, NAIST コーパスの影響をほとんど受けない場合. - 適応がNAIST コーパスの知識を活かしきっていない場合。言い換えると, NAIST コーパスに出現する言語現象と,対話に出現する言語現象に重なりが少ないため,NAISTコー パスが影響しない場合. 前者の場合,コーパスサイズに対する学習曲線が今回のデータ量で飽和していることで検証できる。本稿で作成した対話コーパスは NAIST コーパスの約 $1 / 10$ の訓練セットであるため,学習曲線は描かなかった. 後者の場合, 対話コーパスサイズを大きくすると, 述語項構造解析の精度も向上する,今後,さらに対話コーパスを作成し,検証する必要がある。 ## 6.2 実験 2: 自動獲得知識の比較 表5の(a)(d)(e)は, 提案方法(適応)の評価結果である。ただし, 必須格情報および係り受け言語モデルは,それぞれ (a) $\langle\mathrm{Blog}, \mathrm{Blog}\rangle, \quad(\mathrm{d})\langle\mathrm{News}, \mathrm{Blog}\rangle, \quad(\mathrm{e})\langle\mathrm{Blog}, \mathrm{News}\rangle$ に変えて評価している. まず,必須格情報辞書を (a) Blog から (d) News に変えた場合を比較すると(参照),両者の間で有意差があったのは, ヨ格の文内ゼロのみで,ほぼすべての場合で有意差はなかった. 一方,係り受け言語モデルを (a) B $\log$ から (e) Newsに変更すると (参照), 若干精度に差が出た. 特に, 文法関係より意味関係を重視する文内・文間ゼロでは, 有意に精度が悪化したものが多く(ガ格の文間ゼロ, ヲ格の文内・文間ゼロ,二格の文内ゼロ),その結果,合計の精度でも, ヨ格は約 3 ポイント低下した。 ゼロ代名詞照応のように, 述語と項の間に文法的な関係が弱い場合, 意味的関連性を共起から判断する係り受け言語モデルが相対的に重要となる。そのため,係り受け言語モデルの違いが精度に影響しやすい. 図 3 は,適応方式において,それぞれ必須格情報辞書の述語カバー率, 係り受け言語モデルの三つ組 〈述語 $v$, 格 $c$, 名詞句 $n\rangle$ のカバー率を意図的に変化させて, 述語項構造解析の $\mathrm{F}$ 值を測定したグラフである。必須格情報,係り受け言語モデルともに,Blogコーパスから作成したものを利用した。必須格情報のカバー率は高頻度述語から順番に,雑談対話コーパス訓練セットの述語のカバー率が指定した割合になるまで選択した。係り受け言語モデルの三つ組は,同じく雑談対話コーパス訓練セット上での三つ組カバー率が指定した割合になるまで,ランダム (a) 必須格情報 (b) 係り受け言語モデル 図 3 自動獲得知識のカバレッジと述語項構造解析精度 に選択した8.グラフに示した $\mathrm{F}$ 值は,格の合計である。 図 3(a)をみると, 必須格情報については, 格の種類にかかわらず,述語カバー率を変えてもほぼ同じ精度となった。この理由を分析したところ, テストセットに出現する大部分の述語は,訓練セットに出現したためであった。実際,雑談対話テストセットに出現する 5,333 述語のうち,4,442 述語(83.3\%)は雑談対話コーパス訓練セット,またはNAISTコーパス訓練セットに出現していた。つまり,訓練セットだけでテストセットの大部分をカバーできており,それ以外の述語しか, 必須格情報が有効に作用しなかったため, カバー率の影響がほとんど出なかったと考えられる。 一方,係り受け言語モデルの三つ組は,雑談対話テストセットに出現した 5,056 組(外界照応 exo1, exo2, exog は除く) のうち, 訓練セットがカバーしたのは 1,063 組(21.0\%)であった. そのため, 図 3(b) のように, 係り受け言語モデルのカバー率を上げると, 述語項構造解析の精度も向上した,ただし,ガ格に関しては,自動獲得元コーパスにおいてもガ格がゼロ代名詞化され, 自動獲得精度が十分ではなかったため, カバー率を上げても述語項構造解析精度は向上しなかった. まとめると,自動獲得した知識は,訓練コーパスのカバレッジが高い部分では効果がほとんどなく,低い部分を補完するのに有効である。そのため, 雑談対話のように幅広い話題を対象とする対話には適している。 ## 6.3 雑談対話コーパスを使用せずに適応する場合 ドメイン適応のシチュエーションとして, 新聞記事コーパスしか存在しない状況で, 述語項構造解析器を対話に適応させなければならない場合が考えられる。本節では, NAISTテキスト  コーパスと自動獲得知識だけでモデルを学習し, 自動獲得知識がどの程度有効か, 検証する. 表 6 は, NAIST コーパス訓練セットでモデルを学習し, 雑談対話コーパステストセットで $\mathrm{F}$ 值を測定した結果である。たたし,自動獲得知識の組み合わせ〈必須格情報,係り受け言語モデル〉 は,表 5 の再掲である。 これを見ると,多くの場合で (b) $\langle\mathrm{B} \log , \mathrm{B} \log \rangle$ が有意に勝っており,自動獲得知識が有効に作用していると言ってよい. しかし,これらはすべて NAIST 訓練の結果であり,ほとんど(またはまったく)解析できなかったタイプの項(たとえば,ガ格の exo1, exo2,ヲ格の文間ゼロ,二格の文内・文間ゼロ)は,必須格情報辞書,係り受け言語モデルをどのように変えようとも,ほとんど解析できない状況には変わりはなかった。 表 6 NAIST 訓練における自動獲得知識の効果(自動獲得知識は Blog) & & & \\ 表中の記号 †, $\S, \ddagger$ は,(b) と,それぞれ (b-1) (b-2) (b-3) との比較で,有意によかったものを表す. 有意差検定は,ブートストラップ再サンプリング法(1,000 回測定)を使用し,危険率を $5 \%$ とした. なお. (b) は,表 5 の再掲である。 本稿の提案方式である表 5 の (a) 適応は, NAIST 訓練では解析できなかったタイプの項も解析できるようにする効果があった。自動獲得した知識は, すでに解析できる夕イプの項の精度改善には効果があるが,対話で新たに出現したタイプの項を解析する効果はない.したがって, たとえ少量でも対話の述語項構造データを作成し, 適応させることが望ましい. ## 6.4 対話解析例 図 4 は, 旅行に関する雑談対話の一部について, 正解述語項構造, (a) 適応方式, (b) NAIST 訓練方式, (b-3) NAIST 訓練(ただし, 必須格情報辞書, 係り受け言語モデルなし)の出力を並べて表示したものである. 発話ごとに差異を分析すると, 以下の特徴が得られた. ・ 発話番号 1 で, 正解が $\operatorname{exog}$ になているのは, アノテータは, 「話した」のは発話者 $\mathrm{AB}$ の両方であると判断したためである。本発話の解釈によっては, exo1でも誤りではないと思われる。 - 発話番号 2 のガ格の正解は exo2である.しかし, (a) 適応は, exo1を選択した. 日本語の場合, 一人称・二人称は, 文末表現(この例では「下さい」)に特徴が現れるが, 選択器にSuffix 素性があるにも関わらず,正しく選択できなかった. - 発話番号 3 のガ格の正解は exo1 である. (a) 適応は正しく選択したが, (b)(b-3) NAIST を選択した。しかし, 発話番号 1 の「私」は発話者 $\mathrm{A}$ を示しており, 発話番号 3 の exo1 (発話者 B)とは異なる。もし文間ゼロタイプの項を割り当てるとすると, 発話番号 2 の 「あなた」が正解となる,本稿では,外界照応と人称代名詞を別に扱っているが,本来は共参照解析を導入して, exo1/exo2と「私」「あなた」が同一実体であることを認識すべきである。その際, 発話者がどちらなのか意識して, 同一性を判断する必要がある. 発話番号 6 にも同様な現象が現れているが,ガ格正解 exo 2 に相当する表現が発話番号 2 「あなた」まで遡らなければならないため, (b)(b-3) NAIST 訓練では, exogとなった. - 発話番号 3 の二格の正解は「海外旅行」だが, (b-3) NAIST 訓練(自動獲得知識なし)では,NULL と誤った,「海外旅行にはまる」は,NAIST コーパス訓練セットには出現せず,係り受け言語モデルの三つ組に出現する表現たっったため, 係り受け言語モデルなしの NAIST 訓練では解析に失敗した。 - 発話番号 5 の二格の正解は,「スペインとポルトガル」であるべきだが, 本稿の方式は文節を単位に処理するため,2 文節以上にまたがる名詞句は,主辞だけを付与する仕様である。 また, 発話番号 4 のガ格の正解は, 直前発話(発話番号 3 )全体と考えることもできる. しかし, 文節単位に格要素を割り当てるため, アノテータはもっとも近い表現「海外旅行」を正解として割り当てた. 図 4 対話例と, 正解述語項構造および述語項構造解析結果(*は解析誤りを表す) - 発話番号 6 において, (a) 適応は, 二格「ポルトガル」を前文から正しく補完した. なお,「ポルトガルに行く」は,NAIST コーパス訓練セットには存在しないが,係り受け言語モデルの三つ組には存在する表現である. ## 7 まとめ 本稿では,対話解析のための述語項構造解析を提案した。われわれはこれを新聞から対話への一種のドメイン適応とみなし, 従来新聞記事で研究されていた述語項構造解析を, 対話に適用した.対話と新聞記事では項の分布が異なるため,素性空間拡張法を用いて,モデルパラメー 夕を適応させた。また訓練コーパスに現れない未知語を補完するため, 大規模平文データから,必須格情報, 係り受け言語モデルを自動獲得し, 項選択器のモデルに適用した. 結果,少量でも対話コーパスを訓練に加えることで,新聞記事のコーパスだけでは解析できなかったタイプ(ガ格の一人称・二人称ゼロ代名詞や, 文間ゼロ代名詞, 外界照応)も解析可能となった。ただし, パラメータ適応自体の効果は限定的であった。また, 自動獲得知識の有効性は,訓練セットがテストセットをどの程度カバーしているかに依存する,必須格情報は,テストセットに出現する述語の大部分が訓練セットに出現していたため, 必須格情報のカバレッジの影響はほとんどなかった。一方係り受け言語モデルでは, テストセットに出現する述語,格, 名詞句の三つ組の $21 \%$ しか訓練セットでカバーしていなかったため, カバレッジの高いモデルの精度が向上した. 特に, チ格二格に関しては, 三つ組カバレッジが高い方が, ゼロ代名詞照応解析精度の向上に寄与することを確認した。 なお, 必須格情報および係り受け言語モデルは, 格フレームの選択選好とみなすこともできる. 格フレームは, 大規模コーパスから自動獲得したものが存在するので (河原, 黒橋 2005), これを利用する方法もある。両者の比較は,今後検討してゆきたい. 今回は, パラメータ分布の差異, 語彙のカバレッジに着目したが, 新聞と対話では, 他にもさまざまな違いがあると考えられる,たとえば,話者交替は対話特有の現象であるが,それが述語項構造やゼロ代名詞にどう影響するかなどは,本稿では扱わなかった,また,われわれは文脈管理に,対話システムの発話管理機能を利用することを考えているが,対話システムとしての有効性評価も実施する予定である. ## 謝 辞 本論文の一部は, the 25th International Conference on Computational Linguistics (COLING 2014) で発表したものである (Imamura, Higashinaka, and Izumi 2014). ## 参考文献 Carreras, X. and Màrquez, L. (2004). "Introduction to the CoNLL-2004 Shared Task: Semantic Role Labeling." In HLT-NAACL 2004 Workshop: 8th Conference on Computational Natural Language Learning (CoNLL-2004), pp. 89-97, Boston, Massachusetts, USA. Carreras, X. and Màrquez, L. (2005). "Introduction to the CoNLL-2005 Shared Task: Semantic Role Labeling." In Proceedings of the 9th Conference on Computational Natural Language Learning (CoNLL-2005), pp. 152-164, Ann Arbor, Michigan, USA. Coppola, B., Moschitti, A., and Riccardi, G. (2009). "Shallow Semantic Parsing for Spoken Language Understanding." In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics, Companion Volume: Short Papers, pp. 85-88, Boulder, Colorado, USA. Daumé, III, H. (2007). "Frustratingly Easy Domain Adaptation." In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 256-263, Prague, Czech Republic. Gerber, M. and Chai, J. Y. (2012). "Semantic Role Labeling of Implicit Arguments for Nominal Predicates." Computational Linguistics, 38 (4), pp. 755-798. Gildea, D. and Jurafsky, D. (2002). "Automatic Labeling of Semantic Roles." Computational Linguistics, 28 (3), pp. 245-288. 萩行正嗣, 河原大輔, 黒橋禎夫 (2014). 外界照応および著者・読者表現を考慮した日本語ゼロ照応解析. 自然言語処理, 21 (3), pp. 563-600. 林部祐太, 小町守, 松本裕治 (2014). 述語と項の位置関係ごとの候補比較による日本語述語項構造解析. 自然言語処理, 21 (1), pp. 3-25. Hovy, E., Marcus, M., Palmer, M., Ramshaw, L., and Weischedel, R. (2006). "OntoNotes: The 90\% Solution." In Proceedings of the Human Language Technology Conference of the NAACL, Companion Volume: Short Papers, pp. 57-60, New York, USA. 飯田龍, 小町守, 井之上直也, 乾健太郎, 松本裕治 (2010). 述語項構造と照応関係のアノテー ション:NAIST テキストコーパス構築の経験から. 自然言語処理, 17 (2), pp. 25-50. Iida, R., Komachi, M., Inui, K., and Matsumoto, Y. (2007). "Annotating a Japanese Text Corpus with Predicate-Argument and Coreference Relations." In Proceedings of the Linguistic Annotation Workshop, pp. 132-139, Prague, Czech Republic. Imamura, K., Higashinaka, R., and Izumi, T. (2014). "Predicate-Argument Structure Analysis with Zero-Anaphora Resolution for Dialogue Systems." In Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers, pp. 806-815, Dublin, Ireland. Imamura, K., Saito, K., and Izumi, T. (2009). "Discriminative Approach to Predicate-Argument Structure Analysis with Zero-Anaphora Resolution." In Proceedings of the ACL-IJCNLP 2009 Conference Short Papers, pp. 85-88, Singapore. Jiang, Z. P. and Ng, H. T. (2006). "Semantic Role Labeling of NomBank: A Maximum Entropy Approach." In Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing, pp. 138-145, Sydney, Australia. 河原大輔, 黒橋禎夫 (2005). 格フレーム辞書の漸次的自動構築. 自然言語処理, 12 (2), pp. 109-131. Komachi, M., Iida, R., Inui, K., and Matsumoto, Y. (2007). "Learning-Based Argument Structure Analysis of Event-Nouns in Japanese." In Proceedings of the Conference of the Pacific Association for Computational Linguistics (PACLING), pp. 208-215, Melbourne, Australia. Kudo, T. and Matsumoto, Y. (2002). "Japanese Dependency Analysis using Cascaded Chunking." In CoNLL 2002: Proceedings of the 6th Conference on Natural Language Learning 2002 (COLING 2002 Post-Conference Workshops), pp. 63-69, Taipei, Taiwan. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Proceedings of EMNLP 2004, pp. 230-237, Barcelona, Spain. Laparra, E. and Rigau, G. (2013). "ImpAr: A Deterministic Algorithm for Implicit Semantic Role Labelling." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1180-1189, Sofia, Bulgaria. Màrquez, L., Carreras, X., Litkowski, K. C., and Stevenson, S. (2008). "Semantic Role Labeling: An Introduction to the Special Issue." Computational Linguistics, 34 (2), pp. 145-159. 松林優一郎, 飯田龍, 笹野遼平, 横野光, 松吉俊, 藤田篤, 宮尾祐介, 乾健太郎 (2014). 日本語文章に対する述語項構造アノテーション仕様の考察. 自然言語処理, 21 (2), pp. 333-377. Palmer, M., Gildia, D., and Kingsbury, P. (2005). "The Proposition Bank: An Annotated Corpus of Semantic Roles." Computational Linguistics, 31 (1), pp. 71-105. Pradhan, S., Moschitti, A., and Xue, N. (Eds.) (2012). Joint Conference on EMNLP and CoNLL: Proceeding of the Shared Task: Modeling Multilingual Unrestricted Coreference in Onto Notes, Jeju, Korea. Pradhan, S. S., Ward, W., and Martin, J. H. (2008). "Towards Robust Semantic Role Labeling." Computational Linguistics, 34 (2), pp. 289-310. Ruppenhofer, J., Ellsworth, M., Petruck, M. R., Johnson, C. R., and Scheffczyk, J. (2006). FrameNet II: Extended Theory and Practice. International Computer Science Institute, Berkeley, California. Distributed with the FrameNet data. Sasano, R., Kawahara, D., and Kurohashi, S. (2008). "A Fully-Lexicalized Probabilistic Model for Japanese Zero Anaphora Resolution." In Proceedings of the 22nd International Conference on Computational Linguistics (COLING 2008), pp. 769-776, Manchester, UK. Sasano, R., Kawahara, D., Kurohashi, S., and Okumura, M. (2013). "Automatic Knowledge Acquisition for Case Alternation between the Passive and Active Voices in Japanese." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1213-1223, Seattle, Washington, USA. Stolcke, A., Zheng, J., Wang, W., and Abrash, V. (2011). "SRILM at Sixteen: Update and Outlook." In Proceedings of IEEE Automatic Speech Recognition and Understanding Workshop (ASRU 2011), Waikoloa, Hawaii, USA. Taira, H., Fujita, S., and Nagata, M. (2008). "A Japanese Predicate Argument Structure Analysis using Decision Lists." In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing, pp. 523-532, Honolulu, Hawaii, USA. 平博順, 田中貴秋, 藤田早苗, 永田昌明 (2014). ビジネスメールに対する日本語述語項構造解析の検討. 言語処理学会第 20 回年次大会発表論文集, pp. 1019-1022, 札幌. Tur, G., Hakkani-Tür, D., and Chotimongkol, A. (2005). "Semi-Supervised Learning for Spoken Language Understanding Using Semantic Role Labeling." In Proceedings of Automatic Speech Recognition and Understanding Workshop (ASRU 2005), pp. 232-237, San Juan, Puerto Rico. 吉川克正, 浅原正幸, 松本裕治 (2013). Markov Logic による日本語述語項構造解析. 自然言語処理, $20(2)$, pp. 251-271. ## 略歴 今村賢治:1985 年千葉大学工学部電気工学科卒業. 同年 2014 年日本電信電話株式会社. 1995 年~1998 年 NTT ソフトウェア株式会社. 2000 年~2006 年 ATR 音声言語コミュニケーション研究所. 2014 年より株式会社 ATR-Trek 所属として, 独立行政法人情報通信研究機構 (NICT) へ出向. 現在 NICT 先進的音声翻訳研究開発推進センター専門研究員. 主として自然言語処理技術の研究・開発に従事. 博士 (工学). 電子情報通信学会, 情報処理学会, 言語処理学会, ACL 各会員. 東中竜一郎:1999 年に慶應義塾大学環境情報学部卒業, 2001 年に同大学大学院政策・メディア研究科修士課程, 2008 年に博士課程修了. 博士 (学術). 2001 年に日本電信電話株式会社入社. 現在, NTT メディアインテリジェンス研究所にて勤務.音声言語メディアプロジェクトにて,質問応答システム・音声 対話システムの研究に従事. 言語処理学会, 人工知能学会, 情報処理学会, 電子情報通信学会, 各会員. 2004 年から 2006 年にかけて, 英国シェフィールド大学客員研究員. 泉朋子:2005 年北海道教育大学国際理解教育課程卒業, 2007 年ボストン大学大学院人文科学部応用言語学科修了, 2008 年日本電信電話株式会社入社. 2014 年京都大学大学院情報学研究科博士後期課程修了. 博士 (情報学). 現在, NTTメデイアインテリジェンス研究所研究員, 自然言語処理研究開発に従事. 言語処理学会会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 日本語述語項構造解析タスクにおける項の省略を伴う事例の分析 松林優一郎 } 本稿では, 日本語述語項構造解析における中心的課題である項の省略を伴う事例の 精度改善を目指し,現象の特徴を詳細に分析することを試みた。具体的には,文内 に照応先が出現する事例(文内ゼロ照応)に対象を絞り,人手による手がかりアノ テーションと統語的・機能的な構造を元にした機械的分類の二種類の方法により事例を類型化し,カテゴリ毎の分布と最先端のシステムによる解析精度を示した。分析から, 特に照応先と直接係り関係にある述語 $\mathrm{O}$ が対象述語 $\mathrm{P}$ と項を共有する事例 が全体の $58 \%$ 存在し, O と P の間の統語的・意味的関係が重要な手がかりであるこ とを数値的に示したほか,手がかりの種類や組み合わせが広い分布を持つこと,各手がかりが独立に確信度を上げる事例だけでなく, 局所的な手がかりの連鎖が全体 で初めて意味を成す事例が一定数存在することを明らかにした。 キーワード:述語項構造解析,エラー分析,ゼロ照応,項の省略 ## Error Analysis of Argument Ellipsis Completion in Japanese Predicate-argument Structure Analysis \author{ Yuichiroh $^{2}$ Matsubayashi ${ }^{\dagger}$, Shu Nakayama ${ }^{\dagger}$ and Kentaro Inui $^{\dagger}$ } This paper provides a deep analysis of linguistic phenomena related to argument ellipsis, one of central issues for improving the accuracy of Japanese predicate-argument structure analysis. We specifically focus on cases where a target predicate and its ellipsed argument appear in the same sentence, and we categorize instances based on two criteria: a clue annotation by a human annotator and systematic categorization based on both syntactic and semantic structure. We then show both the distribution of instances among the categories and the accuracy for each category achieved by a state-of-the-art system. As a result, we show that $58 \%$ of the intra-sentencial zero anaphora are the case when an argument of a target predicate $P$ is shared with another predicate $O$ that is in a direct syntactic dependency relation with the argument. This fact implies that analyzing syntactic and semantic relations between $O$ and $P$ is important for Japanese predicate-argument structure analysis. We also show that the distribution of clue combinations is very broad. Finally, we discovered that not only are there cases where each clue independently increases the certainty, but we also discovered cases where clues became relevant when all of them composed a chain. Key Words: Predicate-Argument Structure Analysis, Semantic Role Labeling, Error Analysis, Zero Anaphora, Argument Ellipsis  ## 1 はじめに 述語項構造は,文章内の述語とその項の間の関係を規定する構造である。例えば次の文, (1)[太郎 $]$ は [手紙 $]$ を書いた。 では,「書く」という表現が述語であり,「太郎」と「手紙」という表現がこの述語の項である.述語と項の間の関係は,それぞれの項に,述語に対する役割を表すラべルを付与することで表現される。役割のラベルは解析に用いる意味論に応じて異なるが,例えば表層格を用いた解析では,上記の「太郎」には「ガ格」,「手紙」には「ヲ格」のラベルが与えられる.このように,文章中の要素を述語との関係によって構造的に整理する事で, 複雑な文構造・文章構造を持った文章において「誰が,何を,どうした」のような文章理解に重要な情報を抽出することができる.このため, 述語項構造の解析は機械翻訳, 情報抽出, 言い換え, 含意関係理解などの複雑な文構造を取り扱う必要のある言語処理において有効に利用されている (Shen and Lapata 2007; Liu and Gildea 2010). 述語項構造解析の研究は,英語に関するコーパス主導の研究に追随する形で, 日本語においても 2005 年以降に統計的機械学習を用いた手法が盛んに研究され,これまでに様々な解析モデルが提案されてきた。表 1 は,今日までの日本語の述語項構造解析に関する研究報告における主要な解析器の精度をまとめたものである. 表には, 新聞記事に対する解析精度(F 值)を, (1)述語(もしくはイベント性名詞。以下,これらを併せて述語と呼ぶ)の項となる文字列が述語 表 1 NAIST テキストコーパス $1.4 \mathrm{~b}$ 上での精度比較(F 値) ただし, 既存研究のデータセットはそれぞれ訓練, 評価に用いた事例数が異なっており, 厳密な比較を行うことは難しい. と同一文節内にある事例(文節内事例と呼ぶ),(2) 述語の項となる文字列と述語の間に直接的な統語係り受け関係が認められる事例(係り有り事例と呼ぶ),(3) 述語の項となる文字列が文内に現れるものの, 述語との間に直接的な統語係り受け関係が認められない事例(文内ゼロ照応事例と呼ぶ),(4) 述語の項となる文字列が文の外に現れている事例(文間ゼロ照応事例と呼ぶ)の別に記した。なお,「文節単位」は項として適切な文字列表現の最右の形態素が含まれる文節を正解の範囲として評価したものであり,「形態素単位」はその最右の形態素を正解の範囲として評価したものである。既存の解析器では直接係り受け関係がある比較的容易な事例においては $90 \%$ 弱と高い精度が得られているものの, 統語的な手がかりがより希薄となるゼロ照応の事例においては, 文内ゼロ照応で $50 \%$ 弱, 文間ゼロ照応で $20 \%$ 前後 ${ }^{1}$ と精度が低い水準にとどまっており,解析の質に大きな開きがあることが認められる. この結果は, 日本語ゼロ照応解析の高い難易度を物語っているが, 一方で, ゼロ照応の問題がタスク全体に占める割合は十分に大きく無視できない. 表 2 には,標準的な訓練・評価用コー パスである NAIST テキストコーパス (NTC) 1.5 版における項の数 2 を示したが, ここから項構造解析全体の約 $40 \%$ はゼロ照応に関わる問題であることが分かる. したがって, 述語項構造解析の研究ではこれら省略された項の解析精度をいかに向上させるかが課題となる. しかし, 「ゼロ照応の問題」と一括りに言っても, 並列構造や制御動詞構文など比較的統語的な現象として説明可能なものから, 文脈や談話構造を読み解かなければならないもの, 基本的な世界知識を手がかりに推論しなければならないものなど様々であるにもかかわらず, 現状では既存のシステムがどのような種類の問題を解くことができ,あるいは解くことができないのかについて明確な知見が得られていないばかりでなく, 現象の分布すら知られていない. そこで, 我々はこの難解な項の省略解析へ適切にアプローチするために, 現象の特徵を出来る限り詳細に分析し把握することを試みる。本稿では, ゼロ照応に関する事例のうち, 手始め 表 2 NAIST テキストコーパス 1.5 内の各ラベルの事例数  に探索のスコープが比較的短く, 様々な統語的パターンが観測できる文内ゼロ照応の問題に的を絞り, 各事例が持つ特徴を構文構造分析と人手による手がかり分析という二つの観点から類型化し,カテゴリごとの分布と最先端システムによる解析精度を示す。具体的には以下の二つの方法で分析を進め,今後の研究で注力すべき課題を考慮する際の参考となるべく努めた. 本研究の成果は次のとおりである。(1) 文内ゼロ照応の事例において, 既存の解析モデルがモデル化している述語間の項の共有関係・機能動詞構文・並列構造といった特徴が, 実際の問題にどの程度影響があるかを確かめるために, NTC や京都大学テキストコーパス (KTC) の正解アノテーション情報を利用してこれらの特徴を持つ事例を機械的に分類し, 各カテゴリの事例数や現状の解析精度,各カテゴリが理想的に正答できた場合の精度上昇幅等を示した.結果として, 特に, 対象述語 $\mathrm{P}$ と, 項と直接係り受け関係にある述語 $\mathrm{O}$ と間で項を共有している事例の割合が文内ゼロ照応全体の $58 \%$ 存在することが分かったほか,これらの中には,P と Oが直接的な並列構造や機能動詞構文の形になっているものばかりでなく, 局所的な構造の組み合わせによって解が導かれる事例が一定数存在することが分かった. (2) 同様に,文内ゼロ照応の事例についてコーパスより抽出した少量のサンプルを用いて,人間が正解を導き出す場合にどのような手がかりを用いるかについてアノテータの内省をもとに分析し,考えられうる手がかりの種類を列挙するとともに,その分布を示した,手がかりの種類を幅広く調査するため, 従来より解析器の学習・評価に用いられている NTC に加えて, 多様なジャンルの文章を含む日本語書き言葉均衡コーパス (BCCWJ) に対する述語項構造アノテー ションデータからもサンプルを収集した。この結果,手がかりの種類とその組み合わせに関する分布が大きな広がりを持っていることが明らかとなった。また, 手がかりの組み合わせに関する性質として,それぞれの手がかりが独立に項候補の確信度を上げるように働くものに加えて, (1)の分析で得られた知見と同様に, 機能動詞や述語間の意味的なつながりを考慮すべきものなど,局所的な解析結果を順を追って重ねていくことで初めて項候補の推定に寄与する種類の事例も多く存在することが明らかとなった。加えて,それぞれの手がかりを用いる事例に対する既存システムの解析精度より,既存のモデルは統語構造や選択選好を用いる事例に関しては相対的に高い解析精度を示すものの, 世界知識や文脈を読み解く必要がある事例や, その他未だ一般化されていない雑多な手がかりを用いる事例に関しては低い精度にとどまっていることが分かり, これらの現象に対する解析の糸口を模索していく必要があることを明らかにした. ## 2 関連研究 ゼロ照応問題に対して解析の手がかりとするための情報は, これまでにも様々考えられてきた. 具体的に推定モデルに組み込まれた例としては, 一般的な統語係り受けパス情報の他に,(1)各述語がどのような語を項として取りやすいかという選択選好の情報として, 名詞, 格助詞, 述 語の共起に関する統計値を用いる手法 (Iida, Inui, and Matsumoto 2006; Iida and Poesio 2011; Imamura, Saito, and Izumi 2009; Sasano, Kawahara, and Kurohashi 2008; Sasano and Kurohashi 2011) や,(2) 語が提題化された場合など,文章中のそれぞれの位置における,特定の語の顕現性を表すスコアを用いる手法 (Sasano et al. 2008; Sasano and Kurohashi 2011; Imamura et al. 2009; Iida and Poesio 2011) などがある. また, 複数述語間の項の共有に関する情報として, (3) 支援動詞辞書を用いる手法 (小町, 飯田,乾, 松本 2006) や,(4) スクリプト的な知識を学習する手法 (飯田, 徳永 2010; 大内, 進藤, Kevin,松本 2015),(5)それぞれの述語の格スロットに出現する項の類似度を用いる手法 (Hayashibe, Komachi, and Matsumoto 2011), (6) 直前の述語に対する項構造の解析結果を直後に出現する述語の解析に利用する手法 (Imamura et al. 2009; 林部,小町,松本 2014) などが存在する. そのほか, 技術資料としては示されていないものの, 述語項構造解析器 ChaPAS の 0.74 版 (渡邊 2013) $\mathrm{KNP}($ 黒橋・河原研究室 2013) は, (7) 項構造解析の前段の処理として並列構造解析を行っている. しかし一方で, そもそもゼロ照応問題にどのような現象がどの程度あらわれるのか, あるいは, 特定の解析モデルが焦点をあてている課題について,どの程度の割合を解くことが出来たかといった定量的な分析はこれまでになされておらず,今後具体的にどのような種類の問題を中心に取り組めばよいか不明瞭な状態となっている. ## 3 分析対象 ## 3.1 分析用データ 本稿では, 分析用データとして NAIST テキストコーパス (NTC) および日本語書き言葉均衡コーパスに対する述語項構造アノテーションデータ (BCCWJ-PAS) の二種類のデー夕を利用する. NAIST テキストコーパスは, 約四万文の新聞記事に対して項構造アノテーションがなされているコーパスであり, 従来より述語項構造解析の研究において統計的機械学習における訓練や解析モデルの評価に利用されてきたものである。このコーパスは分析に十分なデー夕量を含んでいるため,4 節の構造パターンを利用した分析においてはこのデータを中心に分析を進める. 一方で,項構造のうち特にゼロ照応の関係については,新聞のような多数の読者を想定して客観的に事実を述べる場合と,主観的に意見を述べる場合,レビュー記事や歴史書のように前提となる主題が存在する場合, 対話文や QA などの話者が入れ替わる場合などのように,文章のドメインや構造に応じて本質的に異なった情報が手がかりとされることが想定されるため, このような異質な文章ジャンルをバランスよく含む BCCWJに対して分析を行うことで, 出来る限り多様な手がかりの種類を明らかにすることを目指すほか,新聞記事デー夕における手がか り分布との対比により, ドメイン依存性の問題も議論する. BCCWJ-PAS については, 国語研究所・NAIST・東京工業大学で開発が進められている日本語書き言葉均衡コーパスに対する述語項構造アノテーションデータの 2014 年 7 月時点の版のうち, BCCWJ の Core-A セクションにおける以下の 22 文書 1,625 文からなる部分を評価・分析用データとして利用する. - OW: OW6X_00000 OW6X_00010 の 2 記事 - OY: OY01_00082 OY04_00001 OY04_00017 OY04_00027 OY10_00067 OY12_00005 の 6 記事 - PB: PB12_00001 PB2n_00003 PB40_00003 PB42_00003 PB50_00003 PB59_00001 の 6 記事 - PM: M12_00006 PM24_00003 PM25_00001 PM26_00004 の 4 記事 - PN: PN1b_00002 PN1c_00001 PN1d_00001 PN3b_00001 の 4 記事 BCCWJ-PAS におけるアノテーションは,NTC とおよそ同等の形式で行われている,たたし, この時点で作業者一名によるアノテーションしか行われていなかったため, 同一データに対して第二者によるアノテーションを再度行い,両者のずれを修正したものを利用する 3. ## 3.2 分析対象システムと評価方法 本稿では, 現状の最先端システムにおける事例カテゴリ, 手がかりカテゴリごとの解析精度を測る目的で, 松林 \& 乾の解析器 (松林, 乾 2014) を例に取り, 文内ゼロ照応解析について分析を行う,述語項構造解析の既存研究においては, 利用しているデー夕の違いもあり, 正確に精度を比較することが難しいが,表 1 の概算値比較に基づけば,松林 \& 乾のシステムは文内ゼ口照応の問題において現状での最高精度を達成するシステムの一つであるといえる. 松林 \& 乾の解析器は, 文内の項のみを対象に解析を行うモデルである. 入力として文と解析対象の述語位置を受け取り, 文中の各形態素について, ガ・ヲ・ニである尤度を点推定の線形分類モデルで推定し,文中で最大の尤度を取る形態素を項として出力する。より具体的には,以下のアルゴリズムで出力を決定する. (1)訓練データ内の統計により,項となることが稀な品詞を持つ項候補を枝刈りする,具体的には, IPA 品詞体系において「名詞」「動詞」「助動詞」「終助詞」「副助詞」「未知語(未定義語)」の品詞をもつ形態素のみを項候補とする。この枝刈りは, 訓練データの $99 \%$ 以上の正解項を保持しつつ, 候補を $36 \%$ 削減する。 (2) L2-正則化 L2-loss のSVM を用いて,項候補に対して $\{$ ガ, ヨ,ニ,NONE $\}$ の多值分類を行うモデルを学習し,各候補について述語毎にそれぞれのラベルに対するスコアを求める.  (3)述語毎に,文内候補から $\{$ ガ,尹,ニ\}の各ラベルについて最もスコアの高いものを一つずつ選ぶ. $\{$ ガ, ヨ,ニ\}のそれぞれについて個別の閥值を定めておき,選出した最尤候補が閥値を超えていれば,その形態素を対象述語の項として認定し,格ラベルと共に出力する。闇值は訓練データでの $\mathrm{F}$ 値が最大となるように調整する. 利用している素性についての詳細は松林 \& 乾 (松林, 乾 2014) を参照されたいが, 主要なものとして, 統語係り受けパス(係り受け方向のみのもの, 品詞や主辞, 助詞等で語彙化したもの),大規模データより取得された(項, 格助詞, 述語)の共起情報,見出し語を名詞クラスタにより汎化した素性等が含まれている. 注意すべき点として, 松林 \& 乾の実験では学習・推定に正解の統語係り受け木を与えたのに対して, 本稿では, KTC と同形式の正解統語係り受け関係データを利用できない BCCWJ と設定を合わせるために,公開されているCaboCha 0.66 モデルの出力結果を用いて学習・推定した結果を用いる。このため,本稿で報告する精度は,元論文で報告されたものより解析精度が低い。 また, 日本語述語項構造解析の分野では, 一般に利用するデー夕や問題設定の違い, デー夕フォーマットに対する前処理の違いにより, 既存研究との正確な精度の比較が困難な状況にある。この状況を改善する目的で,本稿におけるシステムの解析精度評価については,言語処理学会第 21 回年次大会ワークショップ「自然言語処理におけるエラー分析」(関根,乾 2015)の述語項構造解析班報告 (松林他 2015) において提案された評価手法にもとづいて算出した $\mathrm{F}$ 値を用いる。この評価手法は, (項, 格, 述語相当語)のタプルに関して, システムが出力した項の位置が正解データと文節単位で一致しているかを,適合率,再現率, $\mathrm{F}$ 値によって評価するものであるが,各システムの形態素区切りや文節区切りの差異を緩和するよう工夫されたものである(詳細は (松林他 2015)の 2.1 節を参照されたい)。ただし, 京大形式と NAIST 形式の二つの異なる格ラベル形式で解析するシステム同士を比較するために導入された,システム出力と正解の項とのアラインメントを取る処理については,今回はNAIST 形式の格ラベルを用いた解析システムである松林 \& 乾のシステムのみを分析対象とするため, ラベルアラインメント無しの方法を選択した。また, 以降の分析において,正解の構文構造を必要とする分析手法においては, システムの述語項構造出力を正解の係り受け構造がアノテーションされた NTC(京大コーパス形式)の形態素・文節区切りと対応が取れるよう変換し,正解の統語係り受け木を用いて分析を行う. 本節以降, 解析精度とは松林 \& 乾のシステムの精度のことを指す. 評価デー夕における文内ゼロ照応事例の統計値と解析精度は表 3 のとおりである. 表 3 NTC 1.5 評価デー夕における文内ゼロ照応事例数及び解析精度 ## 4 構造パターンの自動分類による事例カテゴリ分析 本節では, 既存の解析モデルがモデル化している述語間の項の共有関係・項の類似度, 機能動詞構文,並列構造といった特徴が,実際の問題にどの程度影響があるかを確かめるために,特に文内ゼロ照応の事例に焦点を当て, NTC や京都大学テキストコーパス (KTC) の正解アノテーション情報を利用して上記の特徴を持つ事例を機械的に分類し, 各カテゴリの事例数や現状の解析精度,各カテゴリが理想的に正答できた場合の精度上昇幅等を示す. 既存研究において, 複数の述語間の構造的・意味的な関係を解析に用いる場合の一般的な方法は,述語間の何らかの関係を通して,関係が比較的簡単に求まる述語一項ぺアの情報を難易度の高い述語一項ぺアの解析の手がかりに利用するというものである。このような情報を用いることができる事例を近似的に抽出するために,次の方法を用いて事例を分類する。例えば,図 1 の文において,述語相当の名詞「勉強」(P で表記)に対する力゙格の項(A で表記)は「太郎」であるが,これらは直接係り受け関係にない。そこで,対象の述語 $\mathrm{P}$ と項 $\mathrm{A}$ だけではなく, $\mathrm{A}$ と直接係り受け関係にある語 $\mathrm{O}$ を考える。もし,語 $\mathrm{O}$ も項構造を持っており,かつ,Aが $\mathrm{O}$ の項でもあるならば,P と O は項を共有しているということになり,直接的に項を推定しゃすいAとO9関係を,より間接的な関係となっている A と $\mathrm{P}$ の関係推定に利用できる可能性がある。したがって,このような $(\mathrm{A}, \mathrm{O}, \mathrm{P})$ の組を取り出すことで,複数の述語間の構造的・意味的な関係を利用する手法が被覆する事例の数や,そのような事例における既存システムの現状の精度を分析することができる。 ただし,事例によっては文中に A として適切な複数個の共参照関係にある語が存在する場合がある ${ }^{4}$.そのような場合, (i) 「P よりも前にある語を優先する」(ii)「Pに単語位置がより近い語を優先する」の二つのルールを順に適用することで Aを一意に定める。また一般に,A は直接係り受け関係が認められる語の候補として,係り先文節の中にある語および複数の直接係り元文節の中にある語が考えられるため,O を一意に定めるための方法が必要である.本稿では,Aと P の関係において最も関わりが深いと思われる語 $\mathrm{O}$ を以下の方法で選択する。 (手順 1)A に対する係り元文節,係り先文節の主辞を O の候補として抽出する。  図 1 文内の直接係り受け関係にない述語と項の例 (手順 2)(手順 1)で抽出した候補のうち, $\mathrm{P}$ との統語係り受け距離がもっとも近いものを残す. (手順 3)(手順 2)までで得られた候補のうち,Pに単語位置が最も近いものを一つだけ選ぶ. この方法を用いれば,例えば次のような文について, $\mathrm{O}_{2}$ より $\mathrm{O}_{1}$ を優先して選択することが出来る。 (2) a. [ [豊か $\left.{ }_{\mathrm{P}}^{\mathrm{P}}\right]$ で [興味深い $\left.\mathrm{O}_{1}\right][$ 世界 $\mathrm{A}]$ が [広がって $\mathrm{O}_{2}$ ] いる。 b. 手品を [ Lた $\left.\mathrm{O}_{2}\right]\left[\right.$ 人 $\left._{\mathrm{A}}\right]$ が周りに [ [驚き $\left.\mathrm{P}\right]$ を [与える $\left.\mathrm{O}_{1}\right]$ 。 このように定めた $\mathrm{A}, \mathrm{O}, \mathrm{P}$ を利用して,分析対象コーパス中に現れる文内ゼロ照応の事例を詳細に分析するために,以下の 7 つの指標で事例を分類した. - 対象述語 $(\mathrm{P})$ の品詞 (動詞, サ変名詞, その他) - $\mathrm{P}$ に対する項 (A)の格(ガ, ヲ,ニ) - $\mathrm{A}$ と直接的に統語係り受け関係がある語 $(\mathrm{O})$ の種類(動詞述語, 名詞述語, その他の述語, 述語ではない) - $\mathrm{A}, \mathrm{O}, \mathrm{P}$ の出現順序 - O が述語相当語の場合, O と P が A を項として共有しているか - $\mathrm{O}$ とが $\mathrm{A}$ を項として共有している場合, - 二つの格ラベルが一致しているか - $\mathrm{P}$ とが並列構造で繋がっているか, $\mathrm{P}$ が $\mathrm{O}$ の項であるか, それ以外 - $\mathrm{O}$ との間の係り受け距離 $\mathrm{O}$ が述語相当語,つまり項構造を持つ場合については, $\mathrm{P}$ とが A を共有しているかに加えて, さらに $\mathrm{P}$ と $\mathrm{O}$ が並列関係かどうか, 広義の機能動詞構文に典型的な $\mathrm{P}$ が $\mathrm{O}$ の項となる形になっているかといった観点で分類する。また,O と P で A に対する格関係ラベルが異なる場合は, 二つの述語間で主題や動作主が保存される場合に比べてより難易度の高い問題であると想定して区別して分類する. $\mathrm{A}, \mathrm{O}, \mathrm{P}$ の出現順序は, 連体修飾などの構造的な特徴を簡潔にとらえるのに役立つ. $\{\mathrm{A}, \mathrm{O}$, P\} の置換として 6 通りの順序組がありうるが, これらを統語係り受け関係・述語一項関係と併記して示すと, 図 2 のようになる. このうち OAP と OPA は上述のO 選択するアルゴリズ么に従えば出現することはない. AOP, APO は最も一般的な構造であり, 並列構造や機能動詞構文(APO の一部)などの構造を含む.POA は $\mathrm{O}$ が A を連体修飾する形であり,この一部には $\mathrm{P}$ との間に構造的な関係が認められる可能性がある. PAO は $\mathrm{P}$ の項が $\mathrm{P}$ より後ろの $\mathrm{O}$ (a) APO (b) AOP (c) PAO (d) POA (e) OAP (f) OPA 図 $2 \mathrm{~A}, \mathrm{O}, \mathrm{P}$ の出現順序と統語係り受け関係・述語一項関係の概観実線は直接統語係り受け関係, 破線は述語一項関係。OAP と OPA はO を選択するアルゴリズム上, 出現することはない. に関連して出現する形である。 分析対象のデータとして,KTCによる正解統語係り受け情報,並列構造情報が利用できる NTC 1.5 版を利用する。コーパスは, 述語項構造解析の研究で一般的に利用されている Taira et al.(Taira, Fujita, and Nagata 2008)の分割に基づいて,訓練,開発,評価用データの区分に分割し, 評価データにおいて事例カテゴリ別に出現頻度と既存システムの解析精度を測定する。 また,各事例カテゴリにおける具体的な例文の提示や,事例ベースの分析には開発データを利用する。 ## 4.1 分析結果にもとづく考察 表 4 に分析の結果を示した。まず,格助詞ごとの分布を見ると,文内ゼロ照応の事例はガ格 $81 \%$, ヲ格 $14 \%$, 二格 $4 \%$ と, 殆どの事例がガ格の省略である。解析精度はガ格で最も高く, ヲ格, 二格は殆ど正答が難しい状況となっている。述語側の品詞の分布は動詞 $48 \%$, サ変名詞 $38 \%$ ,その他 $13 \%$ であり,主に動詞とサ変名詞がその大半を占める.品詞別の精度は,動詞が最も高く $45 \%$ 弱, 形容詞が最も低く $31 \%$, その他は概ね $40 \%$ 前後となっている. 次に,Aの直接係り先である O との関係を見ると,まず $\mathrm{O}$ の品詞は動詞が $60 \%$ と強い偏りを見せており,また,全体の $74 \%$ で項構造を持っていることが分かる。さらにこれらの項構造を持つ $\mathrm{O}$ うち, $\mathrm{P}$ と項を共有しているものの割合は約 $78 \%$ と高く, 文内ゼロ照応全体でみても O と P の間に項の共有がある事例が $58 \%$ と半数以上存在することが分かった. これは,並列構造解析や, 機能動詞構文, スクリプト知識などを代表とした, 項構造間の何らかの関係を利用して解ける可能性のある事例が比較的多数存在することを示している. システムの精度をみると, 項共有の有無によって解析精度に約 $20 \%$ の大きな開きが見られる. これは,松林 \& 乾のシステムは述語構造間の高次の関係を明示的にモデル化していないものの,機能語や主辞情報を含む係り受けパスが項共有の情報をある程度とらえているためと考えられる。 次に,O と P が項を共有している場合のより詳細な分析として,「二つの述語間で格ラベル が一致しているか」,「P と $\mathrm{O}$ が並列構造で繋がっているか, あるいは $\mathrm{P}$ が $\mathrm{O}$ の項であるか, それ以外か」という二つの指標で事例を分類した結果を述べる。まず,二つの述語で格ラベルが一致しているものは項を共有している事例の $80 \%$ を占めており,更に,格ラベルが異なる場合と比べて $30 \%$ 弱ほど精度が良いことが分かった。次に,P と Oが並列構造で繋がっているものは項を共有する事例の $15 \%$ ,P が O の項である事例(機能動詞構文や制御動詞構文などの事例を含む)は $10 \%$ と比較的少量に留まっており,その他の事例が $75 \%$ と大多数であることが分かった。一方,より明確な手がかりがある並列構造や,O, Pが述語一項関係になっているものは, 解析精度が $65 \sim 67.5 \%$ とそれ以外の事例に比べて高い数値を示す結果となった。これも,前述のとおり松林 \& 乾のシステムでは解析モデルとして項構造の関係を明示的に扱ってはいないながらも,少なからずこれらの現象の特徴をとらえているためと考えられる.また,並列構造や機能動詞構文の形の事例に関して相対的に高精度が得られていることは, これらの事例がゼロ照応解析の有望な手がかりとなっていることを示す証拠であり, 明示的な並列構造解析や機能動詞・制御動詞の辞書的な取り扱いによって精度が更に向上する可能性を示唆していると言える。 表 5 に A, O, P の位置ごとの事例数と解析精度を示した。主要部終端型である日本語では 表 $5 \mathrm{~A}, \mathrm{O}, \mathrm{P}$ の語順, PO 間の係り受け距離別の解析精度 APO,AOP の割合が多く,この形が全体の $77 \%$ を占めている。続いて,O が Aを連体修飾する形の POA,述語 $\mathrm{P}$ と $\mathrm{A}$ の係り先 $\mathrm{O}$ が項 $\mathrm{A}$ を挟む形の PAO の順となっている。解析精度は $\mathrm{APO}$ の語順で最も高く, $\mathrm{F}$ 値で $58 \%$ を達成している。これは前述の並列構造や機能動詞構文のほとんどが APO の語順を取っているためと考えられるが,一方で,二番目に多く,同様に O と P の並列構造を含むと考えられる AOP の語順では, F 值 $27 \%$ と解析精度に大きな開きが見られるのが興味深い. P とOの間の係り受け距離と事例数の関係を見ると 1 が $50 \%, 2$ が $24 \%, 3$ が $13 \%$ とおよそ距離に線形に分布している。一般に係り受け距離が遠くなるほど解析精度は低下していくが, $\mathrm{P}$ と O の間に直接係り受け関係が見られる事例では $53 \%$, 特にこのうち APO の語順を取るものについては $65 \%$ と比較的高い精度で解析出来ていることが分かった. ## 4.2 項共有を伴う事例のエラー分析 4.1 節の分析から,文内ゼロ照応の半数以上が,項と直接係り関係にある述語との項共有を伴うことがわかった。項共有を伴うケースは,それを伴わないケースに比べて手がかりを求めやすく, 今後の性能向上の糸口となる可能性が高い. 一方で, 解析対象述語 P のゼロ照応の項 $\mathrm{A}$ が,A と直接係り受け関係にある述語 $\mathrm{O}$ と項共有を伴う事例のうち, $\mathrm{P}$ と $\mathrm{O}$ が直接的に並列構造となっている,もしくは機能動詞構文に典型的な述語 $\mathrm{O}$ が項として $\mathrm{P}$ をっているものの割合は合わせて $25 \%$ 程度にとどまっていた。そこで,我々は項共有を伴う残り $75 \%$ の事例のうち, 松林 \& 乾のシステムで解析エラーとなったものを分析し, どのような情報を用いて複数の述語にまたがる項の関連性をとらえることができるかを分析した. 具体的には,文内ゼロ照応にあたる述語一項ぺアについて, 4.1 節の分析カテゴリのうち, $\mathrm{P}$ と O が項 $\mathrm{A}$ を共有しており,P と O が並列関係でなく,P が O の項となっていない事例について, 開発データ上で松林 \& 乾のシステムが正しい項の位置を当てられなかった事例(偽陰性の事例)を無作為に 50 事例抽出し,これらを人手で分析した。表 6 には,分析した事例をカテゴリ化し,その分布を示した。以下では,それぞれのカテゴリについて簡単に説明する。なお,例文は実際に分析した開発セット中の事例であるが,必要に応じて文構造を簡略化してある.述語の並列構造・広義の機能動詞構文・モダリティ表現の組み合わせ 4.1 節の分析では, P と O が直接的に並列構造となっている, もしくは機能動詞構文に典型的な述語 $\mathrm{O}$ が項として $\mathrm{P}$ をっているもののみを扱ったが,実際にはこれらの局所的な問題の組み合わせによって, 長距離の述語項関係が導き出せる事例が存在する。例えば,次の文では「行政改革委員会」は直接的には「開き」にかかっており,この「開き」 と文末尾の「決めた」が並列関係となっていることから,この二つの述語が主語を共有していることが分かる,さらに,この「決めた」という述語と解析対象の述語「意見具申する」が機能動詞構文の形をとっていることから,「決める」と「意見具申する」の主 表 $6 \mathrm{P}$ と $\mathrm{O}$ が項 $\mathrm{A}$ を共有するもののうち, $\mathrm{P}$ と Oが並列関係でなく, $\mathrm{P}$ が $\mathrm{O}$ の項ではない事例のエラー カテゴリ分布 語が同一であると推定でき, 結果として「具申する」のガ格が「行政改革委員会」であることが導かれる。 行政改革委員 [会ガ] は第二回会合を[開きO] 、行革推進方策について政府に意見具申 $[$ する $\mathrm{P}]$ ことを決めた。 また,モダリティ相当表現が複合する形もよく見られた.以下の例では,「強めており」 と「方針 $($ だ)」が並列関係であるが,「求める方針だ」は「求めるつもりだ」相当の表現であり, このことから, 「強めており」と「求める」の主語が同一であることが導かれる。 める ${ }_{\mathrm{P}}^{\mathrm{P}}$ 方針。 ## 係り受けで連鎖する述語・名詞間の意味的関係 統語的・機能的な構造だけからは項の共有が導けないが, P と A の係り受けパスの内側にある述語や名詞の間に,その意味的な関係により項構造の伝播が認められる事例。例えば,次の例では「訪ね」と「要請した」が並列構造であり,その統語関係から主語を共有していることが判断できるが,「訪ね」の目的語である「党首」と「要請した」の述語一項関係は統語的には導けない.しかし, 常識的なスクリプト的知識に基づけば,「Aを訪ね、要請した」は,「Aに要請するために A を訪ねた」と類推できる。その結果を受けて, さらに機能動詞構文の構造により「Aに協力を要請する」は「Aが協力する」 へ,「Aが推進へ協力する」は「Aが推進する」へと読み替えられ,最終的に解析対象述語「推進」のガ格として「党首」を取りうることが導かれる。 への協力を要請した。 ## 発言者の認識 文中に発話の引用が含まれ,発話文中の動作主が,発話者であるような事例。このような事例では, 発話内容の範囲, および発話者の特定が解析の手がかりとなる. 研究 [グループガ] は、中心に存在する天体はブラックホール以外に [考え $\mathrm{P}$ ] られないと [結論づけたO]。 ## 機能語相当表現の認識 複数の形態素をひとまとまりとして一つの文法的機能を持つ複合辞を認識することで,解析の手がかりとして適切な単位を得ることができる場合がある。例えば,以下の例では「の場合」が提題化の機能相当の表現であり, この部分を一つの副助詞相当とみなせば,「佐藤氏」と「競合する」は直接係り受け関係にある. 佐藤 [氏丶 $\left.{ }_{\text {カ }}\right]$ の $[$ 場合 $\mathrm{O}]$ 、現状では新進党の海部俊樹党首と競合 [する $\left.\mathrm{P}_{\mathrm{P}}\right]$ が (後略) ## 世界知識を用いた推論が必要 文内の情報から述語項関係が読み解けるが,その推定に知識推論が必要と思われる事例.例えば,下の例で「支持する」のガ格とされている「自治労」は,直接的には「中執見解を了承した」という事実だけが言及されており,特段の知識がない場合は「支持する」 と「自治労」は結びつかない. ただし, ここで中執とは中央執行部のことで, 自治労は基本的に中央執行部の意見を会議で承認し, 組合全体としてそれに従うという知識があれば,「支持しないとの中執見解を了承した」という表現から,中央執行部の「支持しない」という意思決定を了承するならば,自治労は支持しない,という関係が読み解ける。 [自治労ガ] は十一日、東京都内のホテルで全国委員長会議を [開きO] 、社会党の山花貞夫・新民主連合会長らによる新党準備会は支持 $\left[L_{\mathrm{P}}\right.$ ] ないとの中執見解を了承した。 ## 文脈・背景知識が必要で一文からは判断不可能 下記の例では, 解析対象述語「除名」の選択選好からヲ格は人であることがわかり,また文中に出現する人物は「山花氏ら」しかいないが,除名されるのが山花氏らであるか どうかを判断するための十分な情報が文中には存在しない. 山花氏 $\left[\right.$ ら $\left._{\text {э }}\right]$ は $[$ 除名 $\mathrm{P}]$ 処分を行わないよう執行部に $[$ 働きかけてO] いる。 カテゴリは, 既存研究で扱っている現象の延長上にあり比較的取り扱いが明瞭な統語的・機能的な現象および単純な共起関係から推定できる選択選好をまとめた「統語的・機能的・選好的」と, 現状では取り扱いが難しい知識を用いた推論や談話構造解析を含む「知識・談話的」,「その他」の三つに大別した. 表 6 から, 従来研究で扱う現象の延長として説明できる「統語的・機能的・選好的」の割合が全体の $46 \%$ 程度, 知識推論や談話構造理解などのより高度な知識処理が必要と思われる事例の割合が $32 \%$ 程度存在することがわかった. 特徴的な点としては, 4.1 節の分析では, $\mathrm{P}$ と $\mathrm{O}$ が直接的に並列構造となっている, もしくは機能動詞構文に典型的な述語 $\mathrm{O}$ が項として $\mathrm{P}$ をっているものなど, 特定の現象が単独で出現する場合のみを区別して扱っていたが,実際にはこれらが部分問題として出現している例が多く見られた.特に,動詞や名詞の項構造が,係り受けの鎖の中で連鎖的に関連しているケー スにおいては, これらの部分的な手がかり同士は, 相補的に確信度を高め合っているのではなく, 統語的関係として隣り合う項構造どうしの関係の連鎖を順に解析することで目的の解にたどり着く事例が多く見られた.このような事例は特に「述語の並列構造・広義の機能動詞構文・ モダリティ表現の組み合わせ」,「係り受けで連鎖する述語・名詞間の意味的関係」,および「世界知識を用いた推論が必要」のカテゴリによく見られた。この結果を受けて, 次に,分析対象事例中に「解析対象述語 P と項を共有し, かつ並列構造にある述語が存在する」「解析対象述語 $\mathrm{P}$ と項を共有し,かつ $\mathrm{P}$ を項に取る述語が存在する」事例を調べることで, これらの現象の解析が正答に直接的にあるいは部分問題として間接的に寄与するであろう事例の数を調べた。また, この際, エラー分析中に顕著に出現した現象である「提題化表現」「発話引用」の事例についても分析に含めた. 表 7 より, 第一に,項が文内で「は」「について」「の場合」などの機能語相当表現で提題化 表 7 事例カテゴリ毎の事例数と解析精度 されている事例はゼロ照応全体の $39 \%$ 存在しており, 文外での提題化とあわせて全体で約半数が提題化の標識を手がかりとできる事例であることが分かる。提題化されている事例では提題化されていない事例に比べて相対的に高い解析精度を示しているが,一方で,文内ゼロ照応の問題のほとんどがガ格を推定する問題であることを鑑みれば,提題化の情報は強い手がかりと想像されるにもかかわらず,現状では提題化されながらも必ずしも正答できない事例が少なからず存在しており,ゼロ照応解析の問題の中に,複雑な現象が絡み合っていることを容易に想像させる。 第二に, 項を共有している述語との並列構造が項特定の部分的な手がかりとして含まれる事例がゼロ照応問題全体の $13 \%$ 弱を占め, 機能動詞構文などに典型的な「P と項を共有し, かつ $\mathrm{P}$ を項に取る述語が存在する」事例が $19 \%$ 弱を占めることがわかった.特に後者の事例は, $\mathrm{P}$ が $\mathrm{A}$ と直接係り受け関係にある $\mathrm{O}$ の項となっている場合の事例数に比べて 3 倍強となっており, 異なる述語間の項構造に関する 2 次以上の特徵量を解析モデルに組み込むことの重要性を示唆している. 表 6 で示した具体的なエラー事例の分類からも,「係り受けで連鎖する述語・名詞間の意味的関係」「述語の並列構造・広義の機能動詞構文の組み合わせ」など,少なくとも $\mathrm{P}$ と O が項を共有する事例の $26 \%$ 程度がこのような複数の述語間の項構造の組み合わせを考慮しなければならない問題であった。 発話文の引用に典型的な「述語が鉤括弧の中にある」事例も全体の $16 \%$ 弱と無視できない割合を占めており,特別の解析を行う必要性を示唆している. ## 4.3 解析精度の理想値 表 8 には,分析対象のカテゴリのうち,今回の分析で特に焦点を当ててきた項の共有が手がかりとなりうる事例について,各々が理想的に正答できた場合の精度上昇幅を参考値として示す。この数値は, 解析対象のシステムについて, 偽陽性の結果はそのままに, 偽陰性の結果を 表 8 解析精度の理想値 過不足なく正答出来たとした時の精度を示したものである。ただし, 「項共有 (並列構造)」「項共有 (P が $\mathrm{O}$ の項)」以外の項目については, 4.2 節で示したサンプリングによるエラーの分布推定に基づいた概算値である。並列構造や広義の機能動詞構文について,それぞれを局所的に解いた場合にゼロ照応全体に与えるインパクトは $\mathrm{F}$ 値で 5 ポイント程度であるのに対して, 局所的な構造の組み合わせを通じて解を得られる種類の事例まで正答した場合, $\mathrm{F}$ 値で 13 ポイン卜程度の上昇を見込めることが分かる。また,これに加えて発言者や提題化された実体・概念,機能語相当表現の正確な認識が達成された場合で $\mathrm{F}$ 値が $60 \%$ 程度となる.精度 $60 \%$ 以上を実現するためには,現状で述語項構造解析の文脈ではあまり取り組まれていない,世界知識を用いた推論や,談話解析などの技術を取り込むか,もしくはそのような後段の処理につなげるための適切な問題設定やインターフェースを用意する必要がある. O と P が項を共有する事例について, その適合率が $100 \%$ 近くに達した場合でも,文内ゼロ照応全体の $\mathrm{F}$ 值は $70 \%$ 強である。文内ゼロ照応の $42 \%$ は項の共有がない,より手がかりの少ない事例であり, この部分でどのような特徴が手がかりとなりうるかについては今後の分析課題である. ## 5 人間の直感にもとづく手がかりアノテーションによる分析 前節では, 既存研究において焦点が当てられた項の共有関係を背景に, 特定の構造を持つ事例を機械的に分類することで文内ゼロ照応における現象の分布を明らかにした.本節では,特定の事前知識に依存せずにゼロ照応解析に対する手がかりを幅広く調査することを目的として, コーパスよりランダムに抽出した少量のサンプルに対して,人間が正解を導き出す際に根拠とする手がかりの種類を分析する. 具体的な手続きとして, 述語項構造アノテーションデータの一部に, 人手により表 9 のよう 表 9 手がかりアノテーションの例 & & \\ な, 正解分析結果を導き出すための根拠となる手がかりのカテゴリラベルを付与し, 次の項目を調査する。 - 解析に必要な手がかりの種類とその組み合わせの種類 ・各手がかりを必要とする事例の分布 ・ 各手がかりを必要とする事例に対する既存システムの解析精度 以降では,まず,分析に利用するデータのサンプリング方法について説明し,次に,具体的なアノテーションの方法について述べる。その後, アノテーション結果を利用した手がかりカテゴリの分布に関する分析やシステムの解析精度について詳しく議論する. ## 5.1 データのサンプリング方法 手がかりアノテーションの対象データとして, 述語項構造がアノテートされたコーパスより,文内ゼロ照応の事例と判断される(述語,項,格)の三つ組を一事例として,少量のデータを無作為にサンプルする.本節における分析では,手がかりの種類を幅広く調査するために, 4 節で利用した NTC に加えて, BCCWJに対する述語項構造アノテーションデータからも手がかりアノテーションを行う事例をサンプルした. 抽出対象となる NTC の仕様では, 一般に項は共参照クラスタとして表現されているが, ここでも 4 節と同様の方法で対象の形態素を一意に定める. 一般に,コーパス中の格の出現頻度はガ格に強い偏りがあり,小規模のサンプリングではヨ・二格の数が極端に少なくなるという問題がある。述語一項の関係においては, 格毎に起こりうる現象の分布が異なると考えられるため,手がかりの種類や組み合わせを俯瞰するためには, ガ・ヨ・二格それぞれについて一定数分析を行うのが適切と考えられる。しかしながら,前節までの分析においては,NTCについてガ・ヲ・ニ格全体に対する解析精度を中心に議論を進めていることから,NTC についてはコーパス中のガ・ヲ・二格の分布に従い事例をサンプルし,一方で,BCCWJについては文書ジャンル毎に格ごとのサンプル数を固定してサンプリングを行うこととした. 具体的に, NTCではデータ全体を Taira et al. (2008) と同様の方法で訓練・開発・評価のデータ区分に分け,開発データから文内ゼロ照応に関する 100 事例を無作為にサンプルした. BCCWJ では,評価データとして用意した BCCWJ Core-A セクションにおける OW(白書),OY(ブログ), $\mathrm{PB}$ (書籍), $\mathrm{PM}$ (雑誌), $\mathrm{PN}$ (新聞)から,ジャンルごとにガ・ヲ・ニそれぞれの格を 20 事例ずつランダムサンプルすることを試みた,ただし,実際には,特定の文書ジャンルに関して文内ゼロ照応に関する十分な事例数がない場合があり ${ }^{5}$, 合計では 240 事例となった. NTC および BCCWJコーパスからサンプルした事例における格の分布は表 10 に示す.  表 10 サンプルデータにおける格の分布 ## 5.2 手がかりアノテーションの方法 アノテータには,サンプルされた(述語,項,格)の三つ組,及び,当該の述語と項が含まれる文が表 9 の例文の闌に表記されているような形式で与えられる。アノテータはこれに対して,あらかじめ定められている手がかりのカテゴリラベルを付与することを試みる。格関係を判断するにあたって複数の手がかりが必要な場合は, 判断に最低限必要となるラべルをすべて列挙し,ラベルの組み合わせとして表現する 6. アノテーションの際には,カテゴリラベルを付与するだけでなく,アノテータがどのようにして解を導いたかについても注釈を加える。このようにすることで,カテゴリラベルだけでは説明が難しい複雑な現象に対する内省の結果を残し,後の精緻な分析を補助できるほか,アノテーション修正時にアノテータの意図を確認しながら議論ができるため, 適切な反復修正作業が可能となる. 手がかりのカテゴリラベルは,あらかじめ著者らが列挙したものから始め, アノテーションの過程で新たに必要となったものを順次追加する方法をとった。アノテータはこれまでに列挙された手がかりラべルでは説明できない事例に遭遇した場合, 簡潔な説明と共に「その他」のラベルに分類する.その他のラベルに分類された手がかりのうち,著者らとの協議において一定数の事例を類型化できるものについては, 適切な名称を付けて「その他」から分離した。このようにして最終的に得られた手がかりカテゴリラベルは,以下のとおりである。 - 統語関係:統語的な構造が手がかりとなる。 ——統語パス:述語と項の間の係り受け鎖構造が手がかりとなる. *語彙化パス:統語パスとその内部の語の語彙知識が手がかりとなる. 相互作用 (意味):統語パス内の述語の項構造同士が「意味的」に特定の項を共有する。 . 機能語相当表現:機能語の特定が手がかりとなる. $\cdot$ 連体修飾:連体修飾における格関係の特定が重要な手がかりとなる.受身: 受け身による格交替を判定することが重要な手がかりとなる.  * 相互作用 (形式) : 統語パス内の述語の項構造同士が「形式的」に特定の項を共有する。 . 機能動詞:機能動詞の特定が手がかりとなる. 制御構文:制御構文が手がかりとなる. * 並列:並列構造の特定が手がかりとなる. $\cdot$ 談話関係:何らかの談話的関係が手がかりとなる. - 発話者: 発話者・著者の特定が手がかりとなる. - 文脈:文脈が手がかりとなる. - 知識 : 何らかの世界知識が必要. - 選択選好:述語と項の間に強い選択選好がある。 - 語義:語の意味が手がかりとなる. - 複合語:複合語内の形態素間の意味的関係が手がかりとなる. - 常識: 常識的知識が必要. $\cdot$ その他:その他の手がかりが必要. ・アノテーションエラー:格ラベルのアノテーションエラー. カテゴリラベルは「統語関係」「談話関係」「文脈」「知識」「その他」「アノテーションエラー」 のカテゴリをトップノードとして階層構造を成しており, 下層へ行くほど詳細化されたカテゴリラベルとなっている。アノテーションの際は, 現象を詳細化して説明できる場合は, より下層のラベルを優先して付与する。 実際のアノテーションは,著者らとは別の, $4,000 \sim 5,000$ 文規模の述語項構造アノテーションの経験を持つ日本語母語話者のアノテータ一名によって行われた。必要に応じて著者らとの協議を行いながら一周目のアノテーションを行った後, 最終的な著者らとの協議の結果を踏まえ,再修正を行ったものを最終的な分析対象のデータとした。 ## 5.3 文内ゼロ照応事例における手がかりの分布 本節のアノテーションにおいては, 各事例に付与されているラベルの組は, その全てが解析に必要な要素であるという前提であるため, 事例ごとの手がかりラべルの組を一つのパターン (ラベルパターンと呼ぶ)とみなして分析を行う. まず,それぞれの手がかりがどの程度使われたかを示すために,ラベルパターン中に現れる個別のラベルの出現数を表 11,12 に示した。それぞれのコーパスを比較すると,NTCでは「選択選好」「語義」など知識に関するラベルの他に,「機能語相当表現」や「並列」「機能動詞」など統語関係のラベルも上位に含まれている一方で,BCCWJでは,「選択選好」「その他」の他に,「文脈」「常識」など知識や談話に関するラベルが上位のほとんどを占める. ただし,表 10 に挙げているとおり,NTC と BCCWJではサンプリング方法の違いにより, 分析事例における格の分布が異なる。したがって, これらの手がかりカテゴリの分布の特徴がドメインの違いによるものであるか, あるいは格の分布の違いによってもたらされるものであるかを確かめる必要がある,そこで,表 13 には,NTC・BCCWJ それぞれについて,各ラベルを手がかりカテゴリの階層構造におけるトップノードによって置き換え, その出現数を格ごとに集計したものを示す。結果として,格ごとの手がかりラベルの分布を見ても,BCCWJでは 表 11 NTC における各ラベルの出現数 表 12 BCCWJにおける各ラベルの出現数 表 $13 \mathrm{NTC}$ BCCWJにおけるトップノードカテゴリの出現数 $\mathrm{NTC}$ に比べて「知識」や「文脈」のラベルの比率が上昇していることが分かる. ここから,新聞記事以外のより一般的なドメインの文章を処理するにあたっては,より知識や文脈を重視した解析手法が重要となってくるであろうことがうかがえる。また,格ごとに観察すると, ガ格に比べてヲ・ニ格ではより知識のラベルに分類される手がかりが必要となる傾向にあることも分かる。 次に,ラベルパターンごとの事例数をコーパスごとにそれぞれ表 14 , 表 15 に示す. パター ンの分布を俯瞰すると,組み合わせの分布が非常に広いことがわかる.ラベルパターンの種類は,単体のもの,複数のラベル組み合わせによるものを含め 90 種類存在した. 90 種類あるラベルパターンのうち事例数が 5 以上の高頻出ラベルパターンは,「機能動詞」や「並列相互作用 (意味)」など 1 つや 2 つのラベルで構成される単純なラベルパターンであるが, そのようなラベルパターンの数は 14 種類と多くない.これらの事例のうち, 代表的な事例を表 16 に挙げる. 一方で, 残り 76 種類の事例数 5 未満のラベルパターンは,「その他並列相互作用 (意味)」 や「常識機能語相当表現統語関係連体修飾」など, 複数のラベルを組み合わせた複雑な構成になっているのもが多い,表 17 に複数ラベルの組み合わせによる事例をいくつか挙げるが,このような複雑なラベル構造を成す事例は決して少数ではない. 我々が特に注目すべき点として挙げたいのは,複数のラベルを組み合わせる場合に,それぞれの手がかりが個々に項の確信度を上げる種類のパターンと, 全ての手がかりがそろって初めて正しく解が導かれる種類のパターンの二つの種類が見られた点である.例えば,表 17 の (3) の事例においては,選択選好,発話者情報,といった手がかりが,個別に項候補の確信度を上げているのに対して,表 17 の(5)の事例においては,「教える」の二格に「子」を埋めるための手がかりと, 「勉強を教える」の二格が「勉強する」のガ格と一致するという知識の双方がそろわなければ,正しい解析が難しい例となっている。したがって,ゼロ照応問題へのアプローチを考える際には,これらの複雑な手がかりの組み合わせ事例を個々に観察し,少なくとも,手がかりの組み合わせが重要な意味を持つパターンに対して大域的な構造解析のアプローチを取る必要があると言える. ## 5.4 システム解析結果との比較 前節の手がかりラベルパターンについて,各ラベルパターンの解析精度を分析することで,現状の解析システムがどの種の問題に正答しているかを分析する。たたし,前節での分類結果より, NTC からのサンプル数 100 と BCCWJ からのサンプル数 240 に対して, ラベルパターンの種類が 90 あることがわかっており,個々のラベルパターンに対する精度を求めるための十分な事例数がない.そこで,今回は以下の 4 種類の大分類によってラベルパターンを集約し分析を行った。 表 14 NTC における各ラベルパターンの事例数 表 15 BCCWJにおける各ラベルパターンの事例数 表 16 代表的なラベルパターンの例 & \\ $[\mathrm{P}]$ : 述語, [ガ, ヨ, 二]: 格 (a) 統語関係以下のラベルまたは選択選好ラベルのみの組み合わせで表せられるラベルパターン (b)知識や文脈,談話関係以下のラベルを含むラベルパターン(ただし,その他を含むラべルパターンを除く) (c) その他を含むラベルパターン (d) アノテーションエラー (a)は,「機能動詞」や「選択選好機能語相当表現」などのラベルパターンであり, 従来の解析システムの素性として用いられる手がかりに該当する。(b) のラベルパターンに該当する事例は「知識」や「文脈」,「談話」に関する手がかりが必要であり,解析器としてはより高度な処理が要求されるラベルパターンである。(c)の「その他」ラベルに分類される現象は, 事前に想定されていなかった手がかりで,かつ現状で簡潔に一般化できるほどの出現頻度がなかった現象であり, 既存の解析器では該当の手がかりを適切に捉えにくい事例と考えられるものである. 表 18, 表 19 は NTC と BCCWJにおける手がかりラベルパターンと解析精度である。ここでの分析はサンプルされた特定の(述語, 項, 格)の正解三つ組事例に対する正誤を分析するものであるため,正解事例に対する再現率を評価の基準とした。 なお,BCCWJ は文書ジャンルごとに事例数を揃えてアノテーションを行ったが,定量的な分析を行うにはジャンルごとのアノテーション事例数が不十分であったため,全ての文書ジャンルを統合して分析を行った. (d) のアノテーションエラーについては, 真の正解ではないため, 再現率の評価からは除外した. 表 17 複雑なラベルパターンの事例 & & \\ $[\mathrm{P}]$ : 述語, $[$ ガ, ヨ, ニ]: 格 表 18 NTC における手がかりラベルパターンと解析器の再現率 表 19 BCCWJ における手がかりラベルパターンと解析器の再現率 表 18 の NTC における結果を見ると, 統語関係以下のラベルまたは選択選好ラベルのみの組み合わせで表されるラベルパターンの再現率は 0.57 と比較的高く, 知識や文脈, 談話関係以下のラベルを含むラベルパターンは 0.3 程度となっている。松林 \& 乾のシステムでは統語関係の情報として項候補や述語の位置, 係り受けの情報を使用し, 選択選好の情報として格フレーム7を使用しているため, これらの手がかりの組み合わせのみで表すことのできる事例に対しては比較的高い解析精度となったと考えられる。 また, 表 19 の結果から, BCCWJでは NTC と比べて再現率が落ちる傾向が見られる. 解析器はNTC の学習データを用いて学習しており, 必ずしも BCCWJ の各ドメインに対する適切な学習がされているわけではないため, 特に統語関係または選択選好のみで表せるラベルパターンの精度に関しては, NTCでは比較的高い精度となっているものの, BCCWJでは他のラベルパターンと同程度の精度となった. 松林 \& 乾のシステムは選択選好に対する対応として, Web16 億文から獲得された格フレーム情報を使用していることから,このラベルパターンで精度が下がった原因は,各ドメイン特有の選択選好性によるものではなく,新聞ドメインと他のドメインで統語現象の性質が異なっていることに起因すると考えられる. また,その他を含むラベルパターンの再現率は,知識や文脈,談話関係以下のラベルを含むラベルパターンと同程度の低い再現率にとどまった。「その他」ラベルに分類される現象は一般化できるほど頻出する現象ではなく, それらの現象を汎化してシステムに組み达むことは簡単ではないが,NTC 及び BCCWJコーパス内の文内ゼロ照応問題の 3 割弱を占めており,ゼロ照応問題全体の解析精度向上のためには無視できない程度の割合で存在しているため, 今後, サ  ンプル事例の規模を増やし,より詳細な分析を行っていく必要があると考える. ## 6 結論 本稿では, 述語項構造解析における中心的な課題である項のゼロ照応問題へ適切にアプロー チするために,現象の特徴を出来る限り詳細に分析し把握することを試みた. 第一に,文内ゼロ照応関係にある述語と項のペアを,統語情報と述語一項関係の情報を用いて機械的に分類可能な 7 つの指標の組み合わせで分類した。分析内容として, 各事例カテゴリにおける事例数の分布を示したほか,松林 \& 乾 (松林, 乾 2014)のシステムを例に取り, 各指標における解析精度の偏りを示した. 特に, 対象述語 $\mathrm{P}$ と, 項と直接係り受け関係にある述語 O との間で項を共有している事例の割合が文内ゼロ照応全体の $58 \%$ 存在することが分かったほか, これらは, $\mathrm{P}$ と $\mathrm{O}$ が直接的な並列構造や機能動詞構文の形になっているものばかりでなく,局所的な構造の組み合わせによって解が導かれる事例が多く存在することが分かった. このことは,複数述語間の項構造に対する高次の特徵を今後どのようにとらえていくべきかに関する知見を与えている.また,発話引用文における発話者の推定が一定の事例数に寄与することも分かった。 第二に,アノテータの内省を頼りに,人間が正解を導き出す場合に用いる手がかりを分析し,考えられる手がかりの種類を列挙するとともに,その分布を示した. 個々のゼロ照応現象を紐解いていくと,手がかりの種類とその組み合わせに関する分布が大きな広がりを持っていることが明らかとなった。また, 手がかりの組み合わせに関する性質として,提題化や選択選好情報のように,それぞれの手がかりが独立に項候補の確信度を上げるように働くものに加えて, 前半の構造ベースの分析で得られた知見と同様に,機能動詞や述語間の意味的なつながりを考慮すべきものなど,局所的な解析結果を順を追って重ねていくことで初めて項候補の推定に寄与する種類の事例も多く存在することが明らかとなった。また, 既存のモデルは統語構造や選択選好を用いる事例に関しては相対的に高い解析精度を示すものの,世界知識や文脈を読み解く必要がある事例や,その他未だ一般化されていない雑多な手がかりを用いる事例に関しては低い精度にとどまっていた。しかしこれら精度の低い事例はゼロ照応問題全体に対して無視できない割合を占めており, 引き続き, これらの現象に対する解析の糸口を模索していく必要がある. ## 謝 辞 本研究は, 文部科学省科研費 (研究課題番号:23240018), (研究課題番号:15K16045)及び, RISTEX 社会技術研究開発センターの研究開発活動「コミュニティがつなぐ安全・安心な都市・地域の創造」の一環として行われた. ## 参考文献 林部祐太, 小町守, 松本裕治 (2014). 述語と項の位置関係ごとの候補比較による日本語述語項構造解析. 自然言語処理, 21 (1), pp. 3-26. Hayashibe, Y., Komachi, M., and Matsumoto, Y. (2011). "Japanese Predicate Argument Structure Analysis Exploiting Argument Position and Type." In IJCNLP, pp. 201-209. 飯田龍, 德永健伸 (2010). 述語対の項共有情報を利用した文間ゼロ照応解析. 言語処理学会第 16 回年次大会発表論文集, pp. 804-807. Iida, R., Inui, K., and Matsumoto, Y. (2006). "Exploiting Syntactic Patterns as Clues in Zeroanaphora Resolution." In COLING-ACL 2006, pp. 625-632. Association for Computational Linguistics. Iida, R. and Poesio, M. (2011). "A Cross-Lingual ILP Solution to Zero Anaphora Resolution." In $A C L$ 2011, pp. 804-813. Imamura, K., Saito, K., and Izumi, T. (2009). "Discriminative Approach to Predicate-argument Structure Analysis with Zero-anaphora Resolution." In ACL-IJCNLP 2009 Short Papers, pp. 85-88. Association for Computational Linguistics. 小町守, 飯田龍, 乾健太郎, 松本裕治 (2006). 名詞句の語彙統語パターンを用いた事態性名詞の項構造解析. 自然言語処理, 17 (1), pp. 141-159. Liu, D. and Gildea, D. (2010). "Semantic Role Features for Machine Translation." In Proceedings of the 23rd International Conference on Computational Linguistics (Coling 2010), pp. 716-724. 松林優一郎, 乾健太郎 (2014). 統計的日本語述語項構造解析のための素性設計再考. 言語処理学会第 20 回年次大会発表論文集, pp. 360-363. 松林優一郎, 吉野幸一郎, 林部祐太, 中山周 (2015). 述語項構造解析「Project NEXT 述語項構造タスク」。言語処理学会第 21 回年次大会発表論文集, pp. 1-157. 大内啓樹, 進藤裕之, Duh Kevin, 松本裕治 (2015). 述語対の項共有情報を利用した文間ゼロ照応解析. 情報処理学会第 220 回自然言語処理研究会研究報告, pp. 1-6. Sasano, R., Kawahara, D., and Kurohashi, S. (2008). "A Fully-lexicalized Probabilistic Model for Japanese Zero Anaphora Resolution." In COLING 2008 Volume 1, pp. 769-776. Association for Computational Linguistics. Sasano, R. and Kurohashi, S. (2011). "A Discriminative Approach to Japanese Zero Anaphora Resolution with Large-scale Lexicalized Case Frames." In IJCNLP 2011, pp. 758-766. 関根聡, 乾健太郎 (2015). Project Next NLP 概要 (2014/3-2015/2). 言語処理学会第 21 回年次大会発表論文集, pp. 1-12. Shen, D. and Lapata, M. (2007). "Using Semantic Roles to Improve Question Answering." In the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL 2007), pp. 12-21. Taira, H., Fujita, S., and Nagata, M. (2008). "A Japanese Predicate Argument Structure Analysis Using Decision Lists." In EMNLP 2008, pp. 523-532. 黒橋. 河原研究室. “KNP version 4.1.”. http://nlp.ist.i.kyoto-u.ac.jp/index.php? cmd=read\&page=KNP\&alias\%5B\%5D=\%E6\%97\%A5\%E6\%9C\%AC\%E8\%AA\%9E\%E6\%A7\%8B\%E6\%96\%87 \%E8\%A7\%A3\%E6\%9E\%90\%E3\%82\%B7\%E3\%82\%B9\%E3\%83\%86\%E3\%83\%AOKNP Accessed: 2014-05-20.渡邊陽太郎. “ChaPAS version 0.74." https://sites.google.com/site/yotarow/chapas. Accessed: 2014-05-20. ## 略歴 松林優一郎:1981 年生. 2010 年東京大学大学院情報理工学系研究科・コンピュー 夕科学専攻博士課程修了. 情報理工学博士. 同年より国立情報学研究所・特任研究員. 2012 年より東北大学大学院情報科学研究科・研究特任助教. 意味解析の研究に従事. 情報処理学会, 人工知能学会, ACL 各会員. 中山周:2014 年法政大学情報科学部コンピュータ科学科卒業. 同年東北大学大学院情報科学研究科博士前期課程進学. 現在に至る. 自然言語処理に関する研究に従事. 乾健太郎:1995 年東京工業大学大学院情報理工学研究科博士課程修了. 同研究科助手, 九州工業大学助教授, 奈良先端科学技術大学院大学助教授を経て, 2010 年より東北大学大学情報科学研究科教授, 現在に至る. 博士 (工学). 自然言語処理の研究に従事. 情報処理学会, 人工知能学会, ACL, AAAI 各会員. $(2015$ 年 5 月 21 日受付 $)$ $(2015$ 年 8 月 6 日再受付 $)$ $(2015$ 年 9 月 5 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 医療用語資源の語彙拡張と診療情報抽出への応用 東山 翔平 $\dagger, \dagger \dagger$ ・関 和広 $\dagger^{\dagger}$ ・上原 邦昭 $\dagger$ } 近年, 医療文書の電子化が進み, 大規模化する医療データから有用な情報を抽出・活用する技術が重要となっている.特に,診療記録中の症状名や診断名などの用語 を自動抽出する技術は, 症例検索などを実現する上で必要不可欠である。機械学習 に基づく用語抽出では, 辞書などの語彙資源の利用が訓練デー夕に含まれない用語 の認識に有効である。しかし, 診療記録では多様な構成語彙の組合せからなる複合語が使用されるため, 単純なマッチングに基づく辞書の利用では検出できない用語 が存在し, 語彙資源利用の効果は限定的となる。そこで,本稿では,語彙資源を有効活用した用語抽出を提案する。資源活用の 1 点目として, 資源中の用語に対して 語彙制限を行うことで,用語抽出に真に有用な語彙の獲得を行う. 2 点目として,資源から複合語の構成語彙である修飾語を獲得し, 元の語彙に加えて獲得した修飾語 を活用することで,テキスト中のより多くの用語を検出する拡張マッチングを行う.検出された用語の情報は機械学習の素性として用いる. NTCIR-10 MedNLP テスト コレクションを用いた抽出実験の結果,単純な語彙資源の利用時と比較して適合率 および再現率の向上を実現し, 本手法の有効性を確認した。また, 肯定・否定など のモダリティ属性の分類を含めた抽出では, 従来手法に対して, 本手法が最も高い 精度を実現した。 キーワード:医療言語処理, 用語抽出, NTCIR-10 MedNLP タスク ## Vocabulary Expansion of Medical Language Resources for Medical Information Extraction \author{ Shohei Higashiyama ${ }^{\dagger, \dagger \dagger}$, Kazuhiro Seki ${ }^{\dagger \dagger}$ and Kuniaki Uehara ${ }^{\dagger}$ } With the increasing number of medical documents written in an electronic format, automatic term extraction technologies from unstructured texts have become increasingly important. Particularly, the extraction of medical terms such as complaints and diagnoses from medical records is crucial because they serve as the basis for more application-oriented tasks, including medical case retrieval. For machine-learningbased term extraction, language resources such as lexica and corpora are effective for recognizing expressions that rarely or do not occur in training data. However, the use of lexica by simple word-matching approaches has limited effects because there are compound words that comprise various combinations of constituent terms in medical records. Therefore, this study presents term extraction systems that can exploit language resources by the acquisition and utilization of beneficial terms and  constituents from the resources. Our experimental results on the NTCIR-10 MedNLP test collection, which comprises medical history summaries, show increased precision and recall, indicating the effectiveness of the proposed system. Moreover, compared to existing systems developed for the NTCIR-10 MedNLP task, the proposed system achieved optimum performance for complaint and diagnosis recognition, including the classification of extracted terms into modality attributes. Key Words: Medical NLP, Term extraction, NTCIR-10 MedNLP task ## 1 はじめに 近年, 電子カルテに代表されるように, 医療文書が電子的に保存されることが増加し, 構造化されていないテキスト形式の医療情報が増大している。大規模な医療データには有用な情報が含まれ,新たな医学的知識の発見や, 類似症例の検索など, 医療従事者の意思決定や診療行為を支援するアプリケーションの実現が期待されている。これらの実現のためには,大量のテキストを自動的に解析する自然言語処理技術の活用が欠かせない. 特に,テキスト中の重要な語句や表現を自動的に認識する技術は, 固有表現抽出や用語抽出と呼ばれ, 情報検索や質問応答, 自動要約など, 自然言語処理の様々なタスクに応用する上で必要不可欠な基盤技術である. 用語抽出を実現する方法として,人手で作成した抽出ルールを用いる方法と,機械学習を用いる方法がある,前者の方法では,新しく出現した用語に対応するために随時ルールの修正や追加を行わなければならず,多大な人的コストがかかる。そのため, 近年では, データの性質を自動的に学習することが可能な機械学習が用いられることが多くなっている. 機械学習に基づく用語抽出では, 抽出すべき語句の情報がアノテーションされた訓練データを用いてモデルの学習を行い,学習したモデルを未知のデータに適用することで,新しいデー 夕から用語の抽出を行う,高精度な抽出を可能とするモデルを学習するには,十分な量の訓練データがあることが望ましい,しかし,診療記録などの医療文書は,医師や患者の個人情報を含むため, 医療機関の外部の人間が入手することは困難である。幸い, 近年は, 研究コミュニティでのデータ共有などを目的とした評価型ワークショップが開催されており (Uzuner, South, Shen, and DuVall 2011; Morita, Kano, Ohkuma, Miyabe, and Aramaki 2013), 匿名化などの処理が施された医療文書データが提供され,小規模なデータは入手可能になっている.とはいえ,依然として,学習に利用できる訓練データの量は限られることが多い. 他方,一般に公開されている医療用語辞書などの語彙資源は豊富にあり,英語の語彙資源では, 生物医学や衛生分野の用語集, シソーラスなどを含む UMLS (Unified Medical Language System $)^{1}$, 日本語の語彙資源では, 広範な生命科学分野の領域の専門用語などからなるライフ ^{1}$ http://www.nlm.nih.gov/research/umls/ } サイエンス辞書 ${ }^{2}$, 病名, 臨床検査, 看護用語などカテゴリごとの専門用語集を含む MEDIS 標準マスター 3 などが提供されている。辞書などの語彙資源を利用した素性(辞書素性)は,訓練データに少数回しか出現しない用語や,まったく出現しない未知の用語を認識する際の手がかりとして有用であるため, 訓練データの量が少ない場合でも,こうした語彙資源を有効活用することで高精度な抽出を実現できる可能性がある。しかし, 既存の医療用語抽出研究に見られる辞書素性は,テキスト中の語句に対して辞書中の用語と単純にマッチングを行うものに留まっている (Imaichi, Yanase, and Niwa 2013; Laquerre and Malon 2013; Miura, Ohkuma, Masuichi, Shinohara, Aramaki, and Ohe 2013). 診療記録では多様な構成語彙の組合せからなる複合語が使用されるため,単純な検索ではマッチしない用語が存在し,辞書利用の効果は限定的であるといえる。 本研究では,類似症例検索などを実現する上で重要となる症状名や診断名(症状・診断名)を対象とした用語抽出を行う,その際,語彙資源から症状・診断名の構成要素となる語彙を獲得し, 元のコーパスに併せて獲得した語彙を用いることで,より多くの用語にマッチした辞書素性を生成する。そして,生成した辞書素性を機械学習に組み込むことで,語彙資源を有効活用した抽出手法を実現する。また,提案手法の有効性を検証するために,病歴要約からなる NTCIR-10 MedNLP タスク (Morita et al. 2013)のテストコレクションを用いて評価実験を行う. 本稿の構成は以下の通りである。まず,2 章で医療用語を対象とした用語抽出の関連研究について述べ, 3 章で本研究のベースとなる機械学習アルゴリズム linear-chain CRF に基づくシステムを説明する.4 章では, 語彙資源から症状・診断名の構成語彙を獲得する方法と, 獲得した語彙を活用した症状・診断名抽出手法を説明する.5 章で MedNLP テストコレクションを用いた評価実験について述べ,最後に,6章で本稿のまとめを述べる. ## 2 関連研究 テキスト中の特定の語句や表現を抽出する処理を固有表現抽出や用語抽出という。固有表現は,主に人名・地名・組織名などの固有名詞や時間・年齢などの数値表現を指し,固有表現抽出では,これらの固有表現を抽出の対象とすることが多い。一方,用語抽出では特定の分野の専門用語などを対象とする。しかし,対象とする語句を抽出するというタスク自体に違いはないため, 本稿では, 特に両者を区別せず,抽出対象として指定される語句を固有表現と呼ぶ. ## 2.1 医療用語抽出研究 日本語の医療文書を対象に医療用語の抽出や探索を行った研究として, (井上, 永井, 中村,  野村, 大貝 2001 ; 木浪, 池田, 村田, 高山, 武田 2008; 上杉 2007) がある. 井上ら (井上他 2001) は,文章の記述形式に定型性のある医療論文抄録を対象に,パターンマッチングに基づく方法を用いて, 病名(「論文が取り扱っている主病名」)や診療対象症例(「診断,治療の対象とした患者, 症例」)などの事実情報を抽出した,たとえば,病名は「〜症」「〜炎」「〜腫」などの接尾辞の字種的特徴を手がかりに用い, 診療対象症例に対しては, 「対象は〜」「〜を対象とし」のような対象症例と共起しやすい文字列を手がかりに用いて抽出している. なお, 井上らの報告によると, 論文抄録中に含まれる病名や診療対象症例の出現回数は平均 1 回強である. アノテー ションを行った医療論文抄録を用いた抽出実験では,病名や診療対象症例に関して, $90 \%$ 前後の適合率, $80 \%$ から $100 \%$ 近い再現率という高い精度を得ている. しかし, 本稿で対象とする病歴要約では論文抄録と出現の傾向が異なり, 同一文書中に様々な病名が出現することが多いため,井上らのパターンマッチングに基づく手法では抽出精度に限界があると考えられる. 木浪ら (木浪他 2008) は, 専門用語による研究情報検索への応用を目的として, 再現率の向上を優先した看護学用語の抽出手法を提案した. 抽出対象とされた専門用語は, 解剖学用語 (「血小板」,「破骨細胞」など)や看護行為(「止血」,「酸素吸入」など)を含み, 本稿で対象とする症状・診断名よりも広い領域の用語である。特定の品詞を持つ語が連続した場合にそれらの語を連接して抽出するなど, 連接ルールに基づくシステムにより専門用語を抽出した. システムによる抽出を行うフェーズと, 抽出されなかった用語や誤って抽出された用語を人手で分析してルールの修正・追加を行うフェーズを繰り返し, 再現率が向上し, 再現率が低下しない範囲で適合率が向上するようなルール集合を導出している,実験では,専門家によるアノテーションを行った看護学文献を用いて評価し, 再現率約 $80 \%$ という抽出結果を得ている. この手法では, 適用する専門用語の領域が異なる場合, 再び導出手順を踏んでルールを導出し直す必要がある. しかし, 抽出ルール修正の過程が人手による判断に依存しており, 再度ルールを導出する際の人的コストが大きい。また, 適合率が約 $40 \%$ と低く, 適合率を改善するにはルール導出の基準自体も修正する必要が生じる. 上杉 (上杉 2007) は, 医療用語抽出の前処理として, 医療辞書なしで医療コーパス中の用語間の分割位置を探索する研究を行った. 文字列 X, Yの出現確率に対し,XYが同時に出現する確率が十分に低ければ $\mathrm{X} , \mathrm{Y}$ 間を分割できるとの考えに基づき,コーパスから求めた文字列の出現確率と相互情報量を使用して分割位置を決定している。症例報告論文を用いた実験では,約 740 語に対して $60 \%$ の分割精度4であり, 分割に成功した事例の中には, 複合語が 1 語と認識される場合と複合語の内部でさらに分割される場合がほぼ同等の割合で存在した. 残りの $40 \%$ には, 助詞が付加される, 英字やカタカナ列の途中で分割されるなどの誤りがあるため, 自然言語  文に対する分割精度として十分であるとはいえない。なお,医療用語抽出に応用するには,分割された各単語が医療用語か否かを判定する基準が別途必要となる. ## 2.2 医療言語処理ワークショップと NTCIR-10 MedNLP 近年, 医療文書を対象とした共通タスクを設定し, 研究コミュニティでのデータ共有や, デー 夕処理技術の向上を目的とする参加型ワークショップが開催されている.英語の医療文書を処理の対象としたタスクとしては, 2011 年および 2012 年に NIST が主催する TREC において Medical Records track が設定され,2006 年および 2008 年から 2012 年に渡ってi2b2 NLP チャレンジが開催された. i2b2 NLP チャレンジでは, 診療記録からの情報抽出技術の評価を目的とした共通タスクが実施され, 匿名化のための個人情報 (Uzuner, Luo, and Szolovits 2007), 患者の喫煙状態 (Uzuner, Goldstein, Luo, and Kohane 2008), 医薬品の使用状況 (Uzuner, Solti, and Cadag 2010) や医療上のコンセプト (Uzuner et al. 2011)の抽出が行われた. また, 日本語の医療文書を使用したタスクとして,2013 年には NII が主催する NTCIR において MedNLP タスク (Morita et al. 2013) が設定され, 患者の個人情報や診療情報を対象に情報抽出技術の評価が行われた。 NTCIR-10 MedNLP タスクでは, 医師により書かれた架空の患者の病歴要約からなる日本語のデータセット(MedNLPテストコレクション)が使用された。データから患者の年齢, 日時などの個人情報を抽出する「匿名化タスク」と, 患者の症状や医師の診断などの診療情報(症状・診断名)を抽出する「症状と診断タスク」などが設定された。,症状・診断名には,症状の罹患の肯定, 否定などを表すモダリティ属性が定義されており,モダリティ属性の分類もタスクの一部となっている。なお, 両方のタスクとも, それぞれ個人情報, 診療情報を固有表現とした固有表現抽出とみなせる,夕スク参加者のシステムは,ルールに基づく手法よりも機械学習に基づく手法が多く, 特に, 学習アルゴリズムとして CRF (Conditional Random Fields) (Lafferty, McCallum, and Pereira 2001) の代表的なモデルである linear-chain CRF を用いたシステムが高い性能を発揮した。また, 成績上位のシステムでは, 文中の各単語が辞書中の語とマッチしたか否を表す情報(辞書素性)が共通して用いられており,語彙資源の利用が精度向上に寄与したことがわかる。一方, 匿名化タスクではルールに基づく手法も有効であり, 最高性能を達成したのはルールベースのシステムであった. Miura ら (Miura et al. 2013) は,固有表現抽出タスクを文字単位の系列ラベリング5として定式化して linear-chain CRF を適用し, 症状と診断タスクで最も高い精度を達成した. 固有表現の抽出を行った後, 抽出した固有表現のモダリティ属性を決定するという 2 段階の方法を使用  している。 MEDIS 標準マスターおよび ICH 国際医薬用語集 6 を語彙資源に用いて辞書素性を与えている. Laquerre ら (Laquerre and Malon 2013), Imaichi ら (Imaichi et al. 2013) は, ともに単語単位の系列ラベリングとして linear-chain CRF を適用し, 症状と診断タスクでそれぞれ 2 番目, 3 番目の精度を達成している. Laquerre らは,ライフサイエンス辞書と UMLS Metathesaurus を利用し, 辞書素性を導入している。また, 事前知識に基づくヒユーリスティック素性として,「ない」「疑い」などモダリティ属性判別の手がかりとなる表現を素性としている. Imaichi らは, Wikipedia から収集した病名, 器官名などの用語集に基づく辞書素性を導入している. ## 3 Linear-chain CRF に基づく症状・診断名抽出システム 本章では, 症状・診断名の抽出のためにベースとするシステムを説明する. 本研究では, 用語抽出の処理を症状・診断名からなる固有表現を抽出する夕スクとみなし, 系列ラベリングとして定式化する。また, 固有表現の抽出は, 機械学習アルゴリズム linear-chain CRF を用いて行う (以降, 本研究で用いた linear-chain CRF を指す場合, 単に CRF と呼ぶ). さらに, CRFで抽出を行った出力に, 人手で作成したルールを用いて抽出誤り訂正の後処理を行うことで,より誤りの少ない抽出を実現する。 ## 3.1 MedNLP「症状と診断タスク」の定義 NTCIR-10 MedNLP (Medical Natural Language Processing) タスク (Morita et al. 2013)は,医療分野における情報抽出技術の評価を目的として実施されたタスクである.診療記録から症状・診断名を抽出する「症状と診断タスク」を含む 3 つのサブタスクが定義された。本研究では,MedNLP タスクで使用されたデータセット(MedNLP テストコレクション)を使用し, 症状と診断タスクと同様の設定で症状・診断名の抽出を行う. 以下, MedNLP テストコレクションおよび症状と診断タスクについてそれぞれ説明する. ## MedNLP テストコレクション MedNLP テストコレクションは, 医師により書かれた架空の患者の病歴要約 50 文書からなるデータセットであり, 2 対 1 の比率で訓練データとテストデータに分割されている。同テストコレクションには,患者の個人情報および診療情報がアノテーションされている,個人情報は患者の名前, 年齢, 性別と, 日時, 地名, 医療機関名からなり, 診療情報は患者の症状や医師の診断(症状・診断名)を指す。このうち, 症状と診断タスクで対象とされたのは後者の診  療情報である. 症状・診断名には,医師の認識の程度などを表すモダリティ属性が定義されており,それぞれ症状の罹患の肯定, 否定, 推量(可能性の存在)を表す positive, negation, suspicion に加え,症状が患者の家族の病歴として記述されていることを表す familyの 4 種類からなる. suspicion, family である症状・診断名であるとして, 各モダリティ属性が付与された症状・診断名の例を示す. (a) $\lceil<\mathrm{n}>$ 糖尿病 $</ \mathrm{n}>$ は認めず」 (b) $\lceil<n>$ 関節症状</n>は改善した」 (c) $\lceil<s>$ 神経疾患 $</ s>0$ 疑いにて」 (d) 「<s>味覚異常</s>の可能性を考え」 (e) 「<n>胆囊炎</n>を疑わせる所見を認めず」 (f) 「母親; $<\mathrm{f}>$ 気管支喘息</f>」 (g) 「父 : $\langle f>$ 狭心症 $</ f>$ 、<f>心筋梗塞</f>」 (h) 「娘 3 人は鼻粘膜の<f>易出血性</f>があり」 negation, suspicion 属性については, (a)~(d) に示すように, 症状・診断名の係り先の文節が特定の表現を含む場合に,その表現に対応するモダリティ属性となることが多い.ただし,(e)のように,直接の係り先が suspicion を示す表現を含んでいても,後方に否定表現が現れることにより negationとなることがある. family 属性の症状・診断名は, (f), (g)のように,続柄名の後に症状・診断名を列挙する形で記述された場合が該当する他, (h)のように, 文全体の主語が続柄である場合も該当する。なお, positive 属性は, negation, suspicionおよび familyであることを示す表現と共起しない症状・診断名に対して付与される属性とみなせる。 表 1 に,訓練データにおける各モダリティ属性の出現回数(“\#”の列)を示す. 出現回数はモダリティ属性の種類により偏りがあり, positive が 7 割程度を占めているのに対し, suspicion, familyは非常に少数となっている. 表 1 訓練データにおけるモダリティ属性の分布 ## 症状と診断タスク 症状と診断タスクは, テストコレクションから, 患者に関連する症状・診断名 7 を抽出し, モダリティ属性を決定するタスクとして定義された。評価は,訓練データを用いて開発されたシステムに対して, テストデータでの抽出性能を測ることで行われ, 評価尺度として, $F$ 值 $(\beta=1)$ が使用された。 $F$ 値は, 適合率 (Precision) と再現率 (Recall) の調和平均であり, 次式で定義される。 $ \frac{2 \cdot \text { Presicion } \cdot \text { Recall }}{\text { Precision }+ \text { Recall }} $ また,評価方法として, モダリティ属性の分類を考慮する評価と,考慮しない評価の 2 通りの方法で評価が行われた. 前者の方法では, 抽出された固有表現が正しい属性に分類されないと正解とならないのに対して, 後者の方法は, 属性が誤っていても, 抽出された固有表現の範囲がアノテーションされた正解情報と一致していれば正解とみなされる. ## 3.2 固有表現抽出タスクの定式化 本研究では, 各モダリティ属性が付与された症状・診断名を異なるカテゴリの固有表現とみなして固有表現抽出を行うことで, 症状・診断名の抽出範囲およびモダリティ属性の決定を行う.固有表現抽出は, 入力文中の固有表現部分を同定する夕スクであり, 系列ラベリングとして定式化されることが多い. 系列ラベリングとは, 入力系列に対してラベルの系列を出力する問題である.固有表現抽出では,トークンの系列である文を入力として,トークンごとに固有表現の種類等を表すラベルを推定し,それらラベルの列を出力する.本研究では,形態素をトークンとする系列ラベリングとして固有表現抽出の定式化を行う. 定式化の際には, 同一の固有表現(チャンク)中の位置を表すためのチャンキング方式として, IOB2 フォーマット (Sang and Veenstra 1999)を使用した. IOB2では, タグはB (Begin), I (Inside), O (Outside)の 3 種類があり, それぞれチャンクの先頭, チャンクの先頭を除く内部, チャンクの外側を表す。なお, 複数のカテゴリの固有表現が存在する場合, B, I はカテゴリ名と併せて使用される。たとえば,「嘔吐/B-c_pos 出現/I-c_pos した/O」のようにラべルを付与することで,「嘔吐出現」が c_pos(肯定のモダリティ属性を持つ症状・診断名)というカテゴリの固有表現であることを表す。なお, 入力文の形態素解析には, linear-chain CRF に基づく日本語形態素解析器である MeCab (Kudo, Yamamoto, and Matsumoto 2004) (Ver. 0.996) およびIPADIC (Ver. 2.7.0)を用いた.  ## $3.3 \mathrm{CRF$ による分類} 本システムでは,機械学習アルゴリズムとして linear-chain CRF を用いた. linear-chain CRF は,分類アルゴリズムである最大エントロピー法を出力が構造を有する問題(構造学習)に拡張したモデルである。品詞タギング (Lafferty et al. 2001), 基本名詞句同定 (Sha and Pereira 2003), 形態素解析 (Kudo et al. 2004) など, 構造学習, 特に, 系列ラベリングとして定式化できる自然言語処理の様々な問題に適用され,高い性能が報告されている。また, 固有表現抽出の研究においても広く使用され (McCallum and Wei 2003; Jiang, Chen, Liu, Rosenbloom, Mani, Denny, and Xu 2011), NTCIR-10 MedNLP タスクでも最もよく用いられた (Imaichi et al. 2013; Laquerre and Malon 2013; Miura et al. 2013). linear-chain CRF の実装としては,C++ で記述されたオープンソースソフトウェアである $\mathrm{CRF}++{ }^{8}$ (Ver. 0.58) を利用した. CRF++は,準ニュートン法の一種である L-BFGS (Limitedmemory BFGS) を使用して数值最適化を行っており, 省メモリで高速な学習を実現している. また,素性テンプレートという素性の記述形式が定義されており,テンプレートを利用することで多様な素性を容易に学習に組み込むことができるという特長がある. $\mathrm{CRF}++$ の素性テンプレートでは, 出力ラベル系列についての unigram 素性および bigram 素性が利用可能である,出力ラベル unigram 素性は, 入力系列についての任意の情報(系列中の特定のトークンの形態素自体や品詞など)と現在のトークンのラベルの組からなる素性を指し,出力ラベル bigram 素性は,入力系列の任意の情報,現在のトークンのラベルおよび 1 つ前のトークンのラベルの三つ組からなる素性を指す. 本研究では, すべての素性に対して出力ラべル unigram 素性および bigram 素性の両方を使用することとした。たとえば,品詞素性を -2 から 2 までのウィンドウで用いると述べた場合, 注目するトークンの 2 つ前方から 2 つ後方に位置するトークンの品詞について, それぞれで出力ラベル unigram 素性および bigram 素性を使用することを意味する。 なお,指定した値未満の出現回数である素性を学習に使用しないことを意味する素性のカットオフの閥値は 1 とし, 訓練データに出現したすべての素性を使用することにした。また, 正則化には $L 2$ 正則化を用いた。 ## 3.4 抽出に用いる素性 本システムでは, 症状・診断名抽出のための素性として, 「形態素」,「形態素基本形」,「品詞」,「品詞細分類」,「字種」,「辞書マッチング情報」,「モダリティ表現」の 7 種類の情報を用いた.注目するトークンを起点にどこまでの範囲のトークンの情報を素性に用いるかを表すウィンドウサイズについては,モダリティ素性を除き,5 章で述べる実験により最適な値を決定する。モ  ダリティ素性のウィンドウサイズについては後述する. ## 形態素, 基本形, 品詞, 品詞細分類素性 形態素素性はトークン自体であり,基本形,品詞,品詞細分類素性は,それぞれ各形態素の基本形, 品詞, 品詞細分類である. たとえば,「言っ」の基本形は「言う」,「速く」の基本形は 「速い」となる. 品詞は, 名詞, 動詞, 形容詞, 接続詞など 10 数種類存在し, 品詞細分類は, 名詞であれば「固有名詞」,「形容動詞語幹」などがある. これら四つの素性には, 形態素解析器 $\mathrm{MeCab}$ の出力を利用した ${ }^{9}$. なお, MeCabではデフォルトの辞書として IPADIC が採用されており, IPADICで使用されている品詞および品詞細分類は, IPA 品詞体系として定義されている. ## 字種素性 字種素性は,トークンを構成する文字の字種パターンを表す。本研究では, ひらがな, カ夕カナ, 漢字, 英大文字, 英小文字, ギリシャ文字, 数値, 記号とこれらの組合せからなる字種パターンを定義した,たとえば,「レントゲン」は「カタカナ」,「考え」は「ひらがな+漢字」, $\lceil M R I 」$ I英大文字」が字種パターンとなる,なお,「ひらがな+漢字」では,1つのトー クン中にひらがなと漢字が出現していればこのパターンに相当するものとし, 各文字の出現順は無視した. 複数字種の組合せからなるパターンの扱いは, 他のパターンについても同様である. ## 辞書素性 辞書素性は,専門用語辞書など外部の語彙資源を利用した素性であり,入力文中の形態素列が辞書中の語句と一致したか否かという情報を表す。本研究では, 症状・診断名の抽出のために病名等の用語から構成される辞書を使用し, 入力文中のトークン列で, 辞書中の語句とマッチした部分にIOB2 フォーマットに基づくタグを付与した. たとえば,「腎機能障害」という語句が辞書中に含まれる場合,「腎/機能/障害/の/増悪」と分割された形態素列に対して「B /I/I/O/O」というタグが付与される。なお, 辞書マッチは文字数についての最左最長一致で判定し, マッチした範囲の境界が形態素の内部にある場合, マッチ範囲に完全に包含される形態素に対してのみタグを付与した。  ## モダリティ素性 モダリティ素性は, 症状・診断名のモダリティ属性を示す表現(モダリティ表現)を捉えるための素性である。モダリティ表現の具体例として,先行する症状・診断名のモダリティが negation であることを示す「〜なし」や「〜を認めず」, 同様に suspicion であることを示す「〜疑い」や 「〜を考え」などがある。また,「母」「息子」など続柄を表す表現は,共起する症状・診断名のモダリティ属性が family であることを示すモダリティ表現であるといえる. 本素性では, negation, suspicion および family 属性を対象に,モダリティ属性推定の手がかりとなる表現を正規表現で記述し, 文中の各トークンについて, 最左最長一致で正規表現とマッチした範囲の端に位置するトークンまでの距離(形態素数)と,マッチした表現が表すモダリティ属性を示すタグを付与した. なお, positive 属性は, negation, suspicion および family であることを示す表現と共起しない症状・診断名に対して付与される属性とみなせるため, これらのモダリティ表現が周辺に存在しないことが positive 属性と推定するための手がかりとなる. 例として, negationのモダリティ表現を捉える正規表現の 1 つとして次の (a)を使用してい $る^{10}$. この正規表現を用いると,「運動/麻痺/は/み/られ/ず」という入力に対して「はみられず」という部分がマッチし, マッチした範囲の先頭トークン「は」までの距離は,「麻痺」で 1 ,「運動」で 2 となる. negation と suspicionのモダリティ表現は症状・診断名の右側に出現するため,モダリティ表現が右側に出現しているトークンにのみ,出現を示すタグを付与した.反対に, familyの表現は「母:脳梗塞」のように左側に出現するため, モダリティ表現が左側に出現しているトークンにのみタグを付与した. なお, negationの正規表現は上述の(a)を含む 4 件, suspicionの正規表現は以下の (b)を含む 2 件, familyの正規表現は以下の (c) 1 件を使用した ${ }^{11}$.モダリティ素性として使用した正規表現の全リストは付録 Aに記載する. (b) の?(疑い|うたがい) (c) [祖伯叔]?[父母](?) 親?|お [じば]|[兄弟姉妹娘]| 息子 |従 (兄弟 | 姉妹) また,過学習を抑制する目的で,モダリティ属性ごとに距離のグループ化を行った. negation と suspicion では, 距離 1 2 (近くに出現), 3〜4 (やや近くに出現), 5〜8 (やや遠くに出現), 9〜 12 (遠くに出現) の 4 通りの距離を考慮し, familyでは $-\infty \sim-13,-12 \sim-9,-8 \sim-5,-4 \sim-1$ の 4 通りとした。なお, 距離は, 注目するトークンの右側にモダリティ表現が出現している場合  X_{2} \ldots X_{N}\right]$ ” は $X_{1}, X_{2}, \ldots, X_{N}$ のいずれかとの一致, “()” はパ夕ーンのグループ化, “?”は直前のパターンの 0 または 1 回の出現を表す. 11 “[父母]” に後続する“(?)”というパターンは, 医療用語である「母指」や「母趾」とのマッチを防ぐために用いた。 } に正数, 左側に出現している場合に負数で表しており, 距離の絶対値は, 注目するトークンから同一文中の任意のモダリティ表現(正規表現とマッチしたトークン列)内の最も近いトークン のモダリティ素性の定義に基づくと,前述の例に対しては,「運動」および「麻痺」に“neg1_2”, それ以外のトークンにモダリティ表現の非出現を表すタグ“O”が付与される。 なお,モダリティ素性として付与したタグは,注目しているトークンの夕グのみ学習・推定に用いた(つまり,ウィンドウサイズを 1 とした),トークンに付与される素性タグにより,トー クンの周辺文脈の情報が表現されており,実質的に 12 以上先のトークンまで考慮していることになる。 ## 3.5 抽出誤り訂正のための後処理ルール 著者らは,NTCIR-10 MedNLP タスクに参加し,構造化パーセプトロン (Collins 2002)および linear-chain CRF に基づく固有表現抽出システムを開発してきた (Higashiyama, Seki, and Uehara 2013a, 2013b). 開発したシステムについてエラー分析を行ったところ,観測された誤りの中で,モダリティ属性の分類誤りが大きな割合を占めることがわかった。この種の誤りは単純なルールで修正できるため,モダリティ属性の分類誤りに焦点を当て,誤り訂正のためのルールを作成することにした。観測されたモダリティ属性分類誤りは,さらに次の 2 通りに大別できたため,それぞれの誤りに対応する訂正ルールとして,2 つのルールを作成した. - 固有表現の周辺に(非 positive 属性の)モダリティ表現が存在し,かつ推定された属性が同表現が表す属性と異なっている(主に positive となっている)誤り - 固有表現の周辺にモダリティ表現が存在せず,かつ推定された属性が positive 以外となっている誤り 作成した 2 つのルールを以下に示す。“ [] ”の外側(左側)に negation および suspicion 属性に対する条件,“[]”の内側に family 属性に対する条件を記述した.正しい推定に対して修正ルールを適用してしまうことを防ぐため, 後述する $d_{1}$ および $d_{2}$ の值は, $d_{1}=2, d_{2}=8$ として, ルールの適用基準を厳しく設定した。ただし,family 属性のモダリティ表現が出現する文中の症状・診断名が患者の家族に対する言及でないというケースは極めて少ないとの考えの下, family に対する距離は $d_{1}=d_{2}=\infty$, つまり, 該当位置から到達可能な同一文内の最大トークン数とした。 ## モダリティ属性分類誤り修正のためのルール (1)固有表現 $e$ の末尾 [先頭]のトークンから右 [左]方向に距離(トークン数) $d_{1}$ 以内に (非 positive 属性の)モダリティ表現 $m$ が存在する場合, $e$ の推定ラベルのモダリティ属性を表現 $m$ が表す属性 $a$ に更新する. * 距離 $d_{1}$ 以内に複数のモダリティ表現が存在する場合は, family, negation, suspicion の順に優先する. (2) 固有表現 $e$ の末尾 [先頭 $]$ のトークンから右 [左 $]$ 方向に距離 $d_{2}$ 以内にモダリティ表現が存在しない場合,推定ラベルの属性を positive に更新する。 なお,上記のルールを導入することは,固有表現 $e$ から $e$ の最も近くのモダリティ表現までの距離 $d$ を,(a) 近い $\left(d \leq d_{1}\right)$, (b) 中程度の距離である $\left(d_{1}<d \leq d_{2}\right)$, (c) 遠い,あるいはモダリティ表現が存在しない $\left(d>d_{2}\right)$ の 3 通りに分け, 距離 $d$ に応じてモダリティ属性決定の挙動を変えていることに対応する。ルールが適用される (a) および (c)のの条件下では, CRF で推定されたモダリティ属性をルールで上書きしているため,ルールによりモダリティ属性を決定しているのと等価である。一方, 固有表現から中程度の距離までの範囲内にモダリティ表現が存在する (b)の場合には, CRFによる推定結果をそのまま採用し, モダリティ属性の決定を学習の結果に委ねた。 ## 4 医療用語資源の語彙拡張と症状・診断名抽出への利用 用語抽出への語彙資源の利用は,訓練データに少数回しか出現しない用語やまったく出現しない用語の認識に有効であり, 医療用語辞書などの語彙資源を用いた医療用語抽出研究が行われている (Imaichi et al. 2013; Laquerre and Malon 2013; Miura et al. 2013). しかし, 診療記録では症状・診断名として多様な複合語が使用されるため, テキスト中の語句に対して辞書中の用語と単純にマッチングを行うだけではマッチしない複合語が存在し, 辞書利用の効果は限定的となる。そこで, 本章では, 語彙資源中の複合語から構成語彙を獲得する方法と, 構成語彙を組み合わせてより多くの複合語にマッチする拡張マッチングの方法を述べ,これらの方法に基づく語彙資源を活用した症状・診断名の抽出手法を提案する. ## 4.1 基本的な考え:医療用語の構成語彙への分解 症状・診断名は, 複数の医療用語から構成される複合語であることが多い. たとえば, 「水痘肺炎」という用語は「水痘」と「肺炎」から構成され,「甲状腺出血」は「甲状腺」と「出血」 から構成される。診療記録では, 多様な構成語彙を組み合わせた複合語が用いられる一方で,実際に用いられる複合語の中には辞書中には含まれないものも多い. 例として,「水痘感染」と 「甲状腺腫大」は,診療記録コーパス MedNLP テストコレクション中で用いられ,医療用語辞書 MEDIS 病名マスター中に存在しなかった症状・診断名である。ただし,上述の用語の各構成語彙に注目すると, 「水痘」,「感染」,「甲状腺」,「腫大」を構成語彙として含む用語は同辞書中に多数存在した(表 2)。 したがって, 症状・診断名の抽出に, 既存の辞書中に含まれる用語をそのまま用いて対応す 表 2 複合語「水痘感染」,「甲状腺腫大」の構成語彙と, MEDIS 病名マスターにおける各構成語彙からなる複合語数 るには限界があるといえる。また, 症状・診断名としてありうる構成語彙の組合せは膨大な数に上ると考えられ,それらを網羅的に含むような辞書を構築することも現実的ではない。一方で,症状・診断名の構成語彙となる語の多くは,辞書中の用語の部分文字列として辞書に含まれている可能性が高い. そこで, 本研究では, 既存の医療用語資源から症状・診断名の構成語彙となる語句を獲得し,得られた構成語彙を組み合わせた柔軟なマッチング方法「拡張マッチング」に基づく症状・診断名の抽出手法を提案する。なお, マッチした結果は, 機械学習の素性(辞書素性)として用いる。語彙資源を活用した拡張マッチングによって, 辞書素性タグが付与される語句が増加し,元の辞書に含まれない語彙にも対応した抽出が可能になると考えられる. ## 4.2 主要語辞書と修飾語辞書に基づく拡張マッチング 症状・診断名の構成語彙の獲得にあたり, 構成語彙には, 単独で症状・診断名として用いられる「主要語」と, 主要語と隣接して現れたときにのみ症状・診断名の一部となる「修飾語」の 2 種類が存在すると仮定する. 4.1 節で述べた例では, 「水痘」, 「感染」,「腫大」が主要語に相当し, 「甲状腺」が修飾語となる.「水痘感染」や「甲状腺腫大」のように, 構成語彙に分解される前の元の用語自体も主要語とみなす. 主要語と修飾語の具体的な獲得方法は次節以降で後述することにし,本節では,主要語辞書と修飾語辞書の 2 種類の辞書を用いた症状・診断名のマッチング方法「拡張マッチング」を説明する. 以下,「消化管覀性腫瘍の…」という入力文が与えられた場合を例に,拡張マッチングの手順を述べる。主要語辞書には「消化管障害」,「腫瘍」,「悪性腫瘍」が含まれ,修飾語辞書には 「消化管」,「悪性」が含まれているものとする. ## 拡張マッチングの処理 入力文を文字の列とみなし, 主要語辞書中にマッチする文字列がないか検索する処理を先頭の文字から末尾の文字まで繰り返し行う. 例の入力文に対しては, 次のようにマッチング範囲の探索が行われる. 図 1 入力文「消化管覀性腫瘍の…」に対する拡張マッチングの処理 (1)入力文 1 文字目の「消」を読み込み,主要語辞書の検索を行う(図 1, a1)「消化管悪」 まで検索した時点で主要語が存在しないことが判明するため (a2), 主要語検索を終了して2文字目以降について検索を続ける。 * 2 文字目「化」および 3 文字目「管」の検索においてマッチする主要語はない. (2)4文字目の「悪」を読み込み,主要語辞書の検索を行う(b1),検索した結果,「悪性腫瘍」 が主要語辞書とマッチする (b2). (3)続いて,マッチした範囲「悪性腫瘍」の左右両側について, 修飾語辞書中にマッチする文字列がないか検索する,検索した結果,元の範囲の左側の「消化管」が修飾語辞書とマッチする (b3). (4)マッチした範囲を「消化管覀性腫瘍」に拡張し, 引き続き, 拡張された範囲のさらに左側について, 修飾語辞書を検索する。しかし, これ以上マッチする語はないため, 「消化管墨性腫瘍」をマッチした範囲として記憶し, 入力文 5 文字目以降について検索を続ける。 * 5 文字目「性」の検索においてマッチする主要語はない. (5)6文字目の「腫」を読み込み (c1), 同様の処理を行った結果, 主要語辞書で「腫瘍」(c2) , 修飾語辞書で「悪性」および「消化管」がマッチし (c3, c4),「消化管悪性腫瘍」をマッチした範囲として記憶する. 入力文 7 文字目以降の文字についても同様に検索を続ける. * 7 文字目以降の検索においてマッチする主要語はなかったものとし, 入力文に対する検索の処理を終了する。 上述の辞書探索処理の結果, 例では「消化管悪性腫瘍」がマッチした範囲として(二重に)得られる。複数のマッチング範囲が得られ, 得られた範囲間に重なりがある場合は, 範囲内の文字数が最も多いものを残し, 残りを破棄する. 例では, 得られた 2 つの範囲が同一であるため,残される範囲も元の範囲と同じものとなる. 以上が拡張マッチングの処理である。最終的に得られたマッチング範囲には辞書素性タグを付与し,機械学習の素性として利用する。 ## 4.3 主要語辞書の利用と語彙制限 本研究では, 主要語辞書として, MEDIS 病名マスター (Ver. 3.11) と, MedNLP テストコレクション (Morita et al. 2013)の訓練データを利用する. MEDIS 病名マスター(ICD10 対応標準病名マスター)は,一般財団法人医療情報システム開発センターにより提供されている病名辞書である。病態毎に選ばれた代表病名を表す「病名表記」に加え, 病名表記の読み, ICD10 コードなどから構成され, 本研究で利用したVer. 3.11 では, 24,292 語が収載されている. 同辞書に含まれる病名表記を抽出し, 主要語辞書として用いる. MedNLP テストコレクションは, NTCIR-10 MedNLP タスクで提供された模擬患者の病歴要約からなるコーパスである。同コー パスの訓練データからアノテーションされた症状・診断名部分を抽出し, 主要語辞書 MedNE (延べ語数 1,922 , 異なり語数 1,068 ) として用いる. ただし, 主要語辞書をそのまま用いると, 一部の語が用語抽出の学習に悪影響を与える場合がある,たとえば,細菌性皮䖒感染症の一種である「よう」(癱) は,「〜するようになった」などの表現にマッチしてしまう.また,「喫煙歴」という表現に含まれる「喫煙」は,必ずしも患者の喫煙を表す言及ではないため症状・診断名に該当しない. このように, 症状・診断名と無関係の表現とマッチする用語や, 高頻度で非症状・診断名としても使用される用語を辞書が含んでいる場合,学習を阻害する要因となる。そこで,MedNLP 訓練データを使用し,高い割合で症状・診断名とマッチする用語を取得する処理を行う,以下,各主要語辞書に対する語彙制限の方法を述べる。なお, 後述の閥値 $n_{\text {out }}, r_{\text {out }}, n_{\text {in }}$ および $r_{\mathrm{in}}$ は, 5 章で述べる実験により決定する。 ## MEDIS 病名マスターの語彙制限 辞書に含まれる各用語について, MedNLP 訓練データ中で固有表現範囲(症状・診断名としてアノテーションされた範囲)の内部および外部に出現した回数をそれぞれカウントし,次の 2 つの基準を満たす用語を主要語として許容する. - 固有表現範囲の外部における出現回数が $n_{\text {out }}$ 未満である. - 訓練データ中に 1 回以上出現している場合は, 固有表現範囲の内部と外部の両方の出現に対し,外部に出現した割合が $r_{\text {out }}$ 未満である. ## MedNE の語彙制限 辞書に含まれる各用語について, MedNLP 訓練データ中で固有表現範囲の内部および外部に出現した回数をそれぞれカウントし,次の 2 つの基準を満たす用語を主要語として許容する. - 固有表現範囲の内部における出現回数が $n_{\text {in }}$ 以上である. - 固有表現範囲の内部と外部の両方の出現に対し, 内部に出現した割合が $r_{\text {in }}$ 以上である. ## 4.4 医療用語資源からの修飾語の獲得 4.1 節で述べたように,主要語に含まれる部分文字列の中には有用な修飾語が多く含まれるという考えに基づき, 主要語から部分文字列を切り出すことで修飾語を獲得する. 修飾語の獲得には,主要語の取得と同様に MEDIS 病名マスターと MedNE を用いる。なお,MEDIS 病名マスターの関連リソースとして提供されている「修飾語テーブル」は, 本研究では使用しない. 修飾語は,主要語辞書でマッチした範囲を拡張する際にのみ用いるため, 意味をなさない非語が含まれていても,実際にテキスト中で主要語と隣接して現れなければ学習・抽出に影響を与えない,たたし, MEDIS 病名マスターには動詞や助詞,記号などを含む用語(「1 型糖尿病・関節合併症あり」,「アヘン類使用による急性精神・行動障害」など)が存在するため, 切り出された部分文字列が助詞などの表現を含んでいると, 症状・診断名でない範囲にまで拡張してしまう可能性がある. そこで,部分文字列を切り出すことにより機械的に修飾語候補を抽出した後, 意味をなさないと考えられる候補と, 過大な拡張を行う可能性のある有害な候補を除去するという手順により修飾語の獲得を行う。なお, 有害な候補の除去には, 主にひらがなから構成される語 40 語程度の「ひらがな表現」リストを作成し, 使用した。同リストは, 助詞 (「が」や「より」), 接続詞 (「または」や「かつ」), 動詞・助動詞の組合せ(「ならない」)などひらがなのみから構成される表現の他,一部,「著しい」など漢字を構成要素に持つ表現も含む.「ひらがな表現」の全リストは付録 B に記載する。 ## 修飾語獲得の手順 修飾語取得の対象とする用語集合 $T$ から修飾語集合 $S$ を生成する手順を以下に示す. 切り出す部分文字列の最小の長さは 2 で固定し, 修飾語として許容する部分文字列の最小出現回数を $f_{\min }$ とした, $f_{\min }$ の値は, 主要語の語彙制限と同様に, 5 章で述べる実験により決定する. (1) 修飾語候補の抽出 (a) 各用語 $t \in T$ について, $t$ の先頭および末尾から, 長さ 2 から $t$ の文字列長までの部分文字列を切り出す. 切り出した部分文字列は, 修飾語候補集合 $S_{\text {cand }}$ に追加する. *たとえば, $t=$ “医療用語”の場合, “医療”, “医療用”, “医療用語”, “用語”, “療用語”が切り出される。 (b)各修飾語候補 $s \in S_{\text {cand }}$ について, $s$ を部分文字列として含む $T$ の用語全体の集合を求める.これを, $s$ の出現元集合 $\operatorname{Parent}(s)$ とする. *たとえば, $s=$ “用語” の場合, $\operatorname{Parent}(s)=\{$ “用語”, “医療用語”, “専門用語”, “用語抽出”\}などが得られると考えられる。 (2)修飾語候補の限定(有害な語の除去) (a) $s \in S_{\text {cand }}$ のうち,数字および「\%」記号のみからなる語を除去対象候補集合 $S_{\text {reject }}$ に追加する。 (b) $s \in S_{\text {cand }}$ のうち,先頭または末尾が「-」(ハイフン)以外の記号か空白である語を $S_{\text {reject }}$ に追加する。 (c) $s \in S_{\text {cand }}$ のうち,先頭または末尾の文字が 1 字からなる「ひらがな表現」に一致し,一致した文字と隣接する文字がひらがな以外である ${ }^{12}$ 語を $S_{\text {reject }}$ に追加する. (d) $s \in S_{\text {cand }}$ のうち, 先頭または末尾から始まる範囲が 2 字以上からなる「ひらがな表現」の組合せに一致した語を $S_{\text {reject }}$ に追加する. (3) 修飾語候補の限定(有益でない語の除去) (a) $s \in S_{\text {cand }}$ のうち, $T$ 内での部分文字列としての出現回数が $f_{\min }$ 回未満 $(|\operatorname{Parent}(s)|<$ $f_{\text {min }}$ )である $s$ を $S_{\text {reject }}$ に追加する. (b) 任意の $s_{1}, s_{2} \in S_{\text {cand }}\left(s_{1} \neq s_{2}\right)$ について, 出現元集合が等しい場合, $s_{1}$ と $s_{2}$ のうちの長さが小さい方を $S_{\text {reject }}$ に追加する. * たとえば, Parent(“群”) $=\operatorname{Parent}($ “症候群”) $=\{$ 症候群,かぜ症候群 $\}$ である場合, “群”が $S_{\text {reject }}$ に追加される。 (4) 修飾語候補の決定 - $S_{\text {cand }}$ から $S_{\text {reject }}$ の元を除いた集合 $S=S_{\text {cand }} \backslash S_{\text {reject }}$ が求める修飾語集合である. ## 5 評価実験 本研究で開発した用語抽出システムの性能を評価するため,MedNLP テストコレクションを用いて評価を行った。次節以降で, 基本素性(形態素, 品詞, 品詞細分類, 字種, 基本形)の評価, モダリティ素性の評価, 主要語語彙制限および拡張マッチングの有効性の評価を行う。さらに,すべての素性に加えて後処理ルールを適用した提案システム全体の性能を評価し, MedNLP タスクの参加システムである従来手法との比較を行う. ## 5.1 実験設定 実験に使用した MedNLP テストコレクションは, 病歴要約 50 文書からなり, 全デー夕の 3 分の 2 にあたる 2,244 文が訓練デー夕, 残りの 1,121 文が評価用のテストデータとなっている.  訓練データにアノテーションされた情報は, 患者の個人情報と診療情報である。本研究では, これらのうち,患者の症状と医師の診断を指す診療情報(症状・診断名)を対象とする.各症状・診断名には医師の認識の程度などを表すモダリティ属性が定義されており,それぞれ症状の罹患の肯定, 否定, 可能性の存在を表す positive, negation, suspicion に加え, 症状が患者の家族の病歴として記述されていることを表す familyの 4 種類からなる. 各モダリティ属性が付与された症状・診断名を異なるカテゴリの固有表現とみなして学習を行うことで,モダリティ属性の分類を含めた抽出を行う。 評価は,MedNLP タスクで行われたのと同様に,モダリティ属性を考慮する方法と,考慮しない方法の 2 通りで行う,前者は,抽出された固有表現が正しい属性に分類された場合にのみ正解とみなす評価であり, 後者は, 属性が誤っていても, 抽出された固有表現の範囲がアノテー ションされた正解情報と一致していれば正解とみなす評価である。それぞれの評価方法について,適合率,再現率, $F$ 値を評価尺度として用いる. CRF で学習を行う際に必要となる正則化のためのハイパーパラメータ $c$ については, 訓練データでの 5 分割交差検定により値を決定した。テストデータに対する抽出を行うまでの具体的な手順は以下の通りである. 1. $c$ の値を変化させながら, 各 $c$ の値について訓練データで 5 分割交差検定を行い, 5 回の検定における各精度(適合率,再現率, $F$ 値)の平均をそれぞれ算出する。 2. $c$ の值の中で, 最も $F$ 値が高い結果となったものを最適値とする. 3. 得られた $c$ の最適値を用いて, 訓練データ全体で学習を行い, モデルを学習する。続い て,学習で得られたモデルを用いてテストデータで抽出を行う. なお, 主要語の語彙制限および修飾語獲得の際の閾値については, 次のように決定した. MEDIS 病名マスターの語彙制限では, $n_{\text {out }} \in\{3,5,8\}, r_{\text {out }} \in\{0.5,0.7,0.9\}$ の各組について,ハイパー パラメータ $c$ の值を変えながら,それぞれ訓練データで交差検定を行い,最も $F$ 值が高かった $n_{\text {out }}, r_{\text {out }}, c$ の値の組合せを最適値としてテストデータでの評価に用いた. MedNE の語彙制限については $n_{\text {in }} \in\{3,5,8\}, \quad r_{\text {in }} \in\{0.5,0.7,0.9\}$ とし, MEDIS および MedNE からの修飾語獲得については $f_{\min } \in\{1,2,3,5,8,10\}$ として, 同様に最適値を決定した. その結果, $n_{\text {out }}=n_{\mathrm{in}}=3$, $r_{\text {out }}=0.7, r_{\text {in }}=0.5, f_{\text {min }}=3$ (MEDIS),$f_{\text {min }}=3$ (MedNE) が最適値として得られた. また, 素性のウィンドウサイズについては, 基本素性(形態素, 品詞, 品詞細分類, 字種, 基本形)を素性セットとしたモデルを用いて次のように決定した。サイズは各素性について共通の値を使用することにし,候補を 3 (-1 から 1),5(-2 から 2), 7 (-3 から 3 ),9(-4 から 4) の 4 通りとした。続いて,サイズおよびハイパーパラメータ $c$ の値を変えながら,訓練データで交差検定を行ったところ, サイズ 5 において最大の $F$ 値が得られ,この値を最適値とした。次節以降,サイズ 1 で固定しているモダリティ素性を除き,すべての素性に関してサイズ 5 として実験を行った結果を報告する。 ## 5.2 基本素性の有効性の評価 形態素, 品詞, 品詞細分類, 字種, 基本形からなる素性セットを基本素性とし, これら5つの素性の有効性の評価を行った。各素性に対するテストデータでの精度を表 3 に示す。表中の “P", “R”,“F”はそれぞれ適合率,再現率, $F$ 值を意味し,“2-way”はモダリティ属性を考慮しない場合の精度, “Total”は考慮した場合の精度を表す。なお, 表には, 各素性セットに対して 30 回行った試行の平均精度を記載した.次節以降の実験結果についても同様である.直前の行中の素性セットを用いた場合との差について両側 $t$ 検定を行い, 有意水準 $1 \%$ \%有意であった場合に“ネ”を付した。 品詞素性の導入により, 2-way, Total の両評価で, 適合率が 4 ポイント前後向上し, 再現率が 1.52 ポイント程度向上した. 訓練データでは 13 , 名詞, 接頭詞であるトークンのうちのそれぞれ $20 \%$ 弱, $30 \%$ 弱が固有表現(を構成するトークン)であり,残りの品詞については,いずれも $97 \%$ 以上が非固有表現であった. したがって, 品詞が名詞または接頭詞であることが固有表現である可能性を示す手がかりとなり, その他の品詞であることが固有表現でないことを示すほとんど確実な手がかりとなったと考えられる. 品詞細分類素性の導入では, 両評価とも多少の適合率の低下が見られたものの, それを上回る 2.5 ポイント前後の再現率の向上が得られた. 名詞の細分類全体の約 $30 \%$ に相当する「数」では, その $99 \%$ 以上が非固有表現であり, 合わせて名詞の約 $50 \%$ に相当する「一般」,「サ変接続」,「接尾・一般」は,各 $20 \sim 40 \%$ 固有表現が占めた. したがって,名詞の中のどの細分類であるかという情報が精度向上に寄与したと考えられる。 字種素性の導入による主な変化として, 2-way, Total での適合率がそれぞれ 0.3 ポイント程度向上した. 固有表現が大きな割合を占めた字種は, 「漢字」と「カタカナ」で, それぞれ $30 \%$ 強, $20 \%$ 強の割合であった。たた,接頭詞および名詞/接尾・一般の $100 \%$ 近い割合を「漢字」が占 表 3 基本素性の評価 結果への考察を行った。したがって,本節以降で述べる各素性における固有表現,非固有表現等の割合は,いずれも訓練データで算出した数値である。 } めるなど, 品詞や品詞細分類素性と重複している情報も多い. 名詞/一般, 名詞/サ変接続のそれぞれ $85 \%$ 程度が「漢字」と「カタカナ」となっており, 字種素性がこれらの品詞細分類を詳細化する役割を果たしたと考えられる。 基本形素性の導入の結果, 主に Total での適合率, 再現率が向上した.「ない」「なかった」など表層が異なるモダリティ表現を基本形で同一視することで, モダリティ属性を考慮した評価の結果が向上したと考えられる. ## 5.3 モダリティ素性の有効性の評価 モダリティ素性の有効性を評価するため, 基本素性のみを用いたシステム(Basic;表 3 の最下行と同一のシステム) と, 基本素性に加えてモダリティ素性を用いたシステム (Basic+ Modality) の精度の比較を行った。テストデータにおける各モダリティ属性および全体の精度を表 4 に示す.なお, モダリティ属性とは, 症状・診断名に付加されているモダリティの種類(positive, negation 等)を指し,モダリティ素性は,モダリティ属性を捉えるために用いた素性を指す. Basic と Basic + Modality との差について両側 $t$ 検定を行い, 有意水準 $1 \%$ で有意であった場合に“”を付した。 各属性における適合率と再現率は, negation と suspicionの適合率を除いて, モダリティ素性導入後の方が同等か高いという結果が得られた. 属性全体 (“All (total)”) で見ても各精度は向上しており,本素性が正確なモダリティ属性の認識に寄与したといえる。なお,本素性の導入前, 後ともに,他の属性に比べて suspicion 属性の精度が低いのは,データのアノテーション誤りに起因すると考えられる.著者らが訓練データを確認したところ,「疑い」などの表現が後続する固有表現で, suspicion という属性が付与されていない(positive となっている)事例が十数件存在し, suspicion の事例全体の十数パーセントという少なくない割合を占めていた. 一方,モダリティ属性を考慮しない 2-wayの評価では,適合率が 1 ポイント弱低下した。「〜 がない」などの表現は固有表現でない語句の後方にも出現するため, 非固有表現を誤って固有表現と認識してしまうケースが増加し, 適合率低下の原因となったと考えられる. 表 4 モダリティ素性の評価 ## 5.4 主要語辞書および修飾語辞書利用の有効性の評価 主要語語彙制限および拡張マッチングの有効性を評価するため, 基本素性のみのシステム (Basic) と, 基本素性に加えて各種辞書に基づく辞書素性を用いたシステムの比較を行った。結果を表 5 にまとめる。最左列は利用した辞書を示しており,“ $\operatorname{main}(X)$ ” は辞書 $X$ を主要語辞書として使用したことを, “山 $\operatorname{modify}(X)$ ” は辞書 $X$ を修飾語辞書として拡張マッチングを行ったことを意味する。辞書 $X$ に対して, 4.3 節の方法による語彙制限を行っていないものを “ $X-\mathrm{r}$ ” (raw),行ったものを“ $X$-f” (filtered) で表し,辞書 $X$ から獲得した修飾語集合を“ $X$-s” (substring) で表した。また, “ $X \cup Y$ ”で 2 つの辞書 $X, Y$ を統合した辞書を表した. 数値右上のシンボルは両側 $t$ 検定によって有意水準 $1 \%$ で有意差があった場合に付しており,“十”が (a) と (b) または (c) との比較, “†" が (b) と (d) との比較, “大”が (c) と (e) との比較, “§”が (e)と (f) または $(\mathrm{g})$ との比較の結果を示している. まず,語彙制限を行っていない辞書を単純に利用した場合, MEDIS 病名マスター(表中の MDM ; MEDIS Disease Name Master)に基づく辞書素性を導入した (b)で,2-way の評価において適合率・再現率が $0.7 \sim 1.5$ ポイント程度向上し, その結果, $F$ 值が約 1.1 ポイント向上した. Totalにおいても $F$ 值が向上したものの,2-wayよりは効果が小さく,認識された症状・診断名の中にモダリティ属性の分類に誤ったものが含まれることが示唆される。なお, 2-way と Total のいずれの場合も, $F$ 值の向上は統計的に有意であった. 一方, MedNE(表中の MNE) を追加した場合 (c)では,再現率が大きく低下した,訓練データでの交差検定では $96 \%$ 超える $F$ 値となっており,正解ラベルとほぼ一致する辞書素性に基づく過学習が起こり,他の素性の情報が学習されなかった可能性が高い. 上記のような問題を避けるため,次に語彙制限を行った主要語辞書を使用した,結果を見ると,MEDISのみの (d) では全体的に $F$ 值がわずかに低下した。これは, MEDIS 病名マスター から獲得した主要語については語彙制限の必要性が薄いことを示している。一方, MEDISに加えて MedNEにも語彙制限を加えた (e)では, 語彙制限を加えない (c)に比べて適合率, 再現率, 表 5 辞書素性の評価 $F$ 値とも大幅に向上した。モダリティ属性まで考慮した Total では (b) よりもわずかに精度が低いものの,モダリティ属性を考慮しない2-wayの評価では, これまでの設定で最も良い結果が得られた。 最後に,語彙制限を加えた主要語辞書 (e) に加えてさらに拡張マッチングを適用した。その結果, MEDIS から獲得した修飾語辞書のみを使用した (f) で約 $0.5 \sim 0.6$ ポイント, MedNE から獲得した修飾語辞書を併せて使用した $(\mathrm{g})$ で約 $0.6 \sim 0.7$ ポイントの $F$ 值の向上が見られ,修飾語辞書の導入・語彙増加にともない, わずかながらも着実な認識精度の向上が得られた. ## 5.5 システム全体の性能および従来手法との比較 基本素性,辞書素性,モダリティ素性,後処理ルールを含めたシステム全体の性能の評価を行った. テストデータでの精度を表 6 (a) に示す. 基本素性に加えて語彙制限後の 2 つの辞書と修飾語辞書に基づく辞書素性を導入したシステム(表 5 の最下行 $(\mathrm{g}$ )のシステム)を Modify とし,モダリティ素性の追加,後処理ルールの適用をそれぞれ Modality, P-rulesで表した。なお,モダリティ素性と後処理ルールはモダリティ属性まで含めた分類 (Total) において利用する. 表中のシンボル “†” は Modify と Modify + P-rules, “†” は Modify と Modify + Modality を, “`”は Modify + Modality と Modify + Modality + P-rules を比較した際,両側 $t$ 検定で有意水準 $1 \%$ の有意な差があったことを示している. 表 6 従来手法との比較 (a) 全体の精度 (b) モダリティ属性別の精度 モダリティ素性の導入後には,適合率,再現率, $F$ 值がそれぞれ 1 ポイント前後向上し,その効果が確認された. また, 後処理ルールについては, Modify に適用した場合で $F$ 値で 1 ポイントの向上,Modify + Modality に適用した場合で 0.7 ポイント程度の向上が得られた。すなわち, CRFによって症状・診断名と認識された語句に対してのみモダリティ属性を修正する処理を行うことで,症状・診断名の認識精度を維持したまま,モダリティ属性分類誤りを減少できている. なお,後処理ルールの効果を確認するため,訓練データを使用して14, Modify および Modify十 Modality の推定結果に後処理ルールを適用した場合の正解数の変化について表 7 に示した. “対象件数”はルール適用の対象となった固有表現の件数で,システムが正例と推定した固有表現の数に相当する。また,“ $\mathrm{T} \rightarrow \mathrm{F}$ ",“ $\mathrm{F} \rightarrow \mathrm{T}$ "および “ $\mathrm{F} \rightarrow \mathrm{F}$ " は,ルール適用前に正解 $(\mathrm{T}) /$ 不正解 (F) であったものが,ルール適用後に正解/不正解に変化した件数を表す。“合計”はこれら 3 つの値の合計で,ルールが適用された件数に相当する(“ $\mathrm{T} \rightarrow \mathrm{T}$ ”となったもの,つまり,モダリティ属性が変化しなかったものについては,件数に含めていない). Modifyに適用した場合では,適用対象件数の $5 \%$ 弱にあたる 81 件に対してルールが適用された。適用された事例のうち, 実際に固有表現であった事例に対する正解率は $80 \%$ 程度であった. Modify + Modality に関しては, モダリティ素性の導入により周辺文脈と矛盾するモダリティ属性の推定結果が減ったと考えられ,ルールが適用された件数自体が減少した。しかし,ルールの適用により僅かながら正解数が増加している。 表 6 (a) の下半分には, MedNLP 症状と診断タスクの成績上位 3 チームである Miura ら (Miura et al. 2013), Laquerre ら (Laquerre and Malon 2013) およびImaichi ら (Imaichi et al. 2013)のシステムの精度を掲載した。従来手法の中では, Total の適合率を除き, いずれも Miura らのシステムの精度が最も高い. これに対し, Total の評価で比較すると, 本システムは適合率を中心に従来手法よりも高く, モダリティ素性と後処理ルールを併用したシステム (Modify + Modality + P-rules) では, 適合率, 再現率, $F$ 值ともに最も高くなっている。また, 提案システムと従来手法の中で精度が高い Miura らのシステムについて, モダリティ属性ごとの精度を表 6 (b) に掲載した. Miura らのシステムでは positive および negation の再現率が高く, 多数派クラスの網羅的な抽 表 7 後処理ルール適用の効果  出の点で優れている。しかし, 適合率ではどの属性についても本システムの方が高く, 特に, 少数派クラスである suspicion, familyの認識では, 適合率, 再現率ともに大きく上回っている. したがって,モダリティ属性の分類を含めた抽出では, 従来手法と比べて, 我々の手法が最も正確な用語抽出を実現できており,事例数の少ないクラスに対して頑健な推定を実現できているといえる。 一方,表 6 (a)における 2-wayの評価では,特に,再現率が Miura らのシステムと比べて 3 ポイントほど低く, 本システムは症状・診断名抽出の網羅性の点で劣っている。修飾語の付加を行う拡張マッチングでは, 主要語が主要語辞書に含まれない場合には対応できないという限界があるため,再現率を高めるには,コーパスから修飾語だけでなく新たな主要語も獲得する方法が必要となる。また, 診療記録中の症状・診断名と共起しやすい「〜出現」「〜増悪」などの表現は,未知の主要語を認識する際の手がかりとして有効利用できる可能性がある. ## 6 おわりに 本稿では, 症例検索などの基礎技術として重要である症状名・診断名の抽出に焦点を当て, 語彙資源を有効活用した用語抽出について報告した,語彙資源活用の 1 点目として,コーパス中の用語に対して語彙制限を行うことで,用語抽出に真に有用な語彙の獲得を行った. 2 点目として,コーパスから複合語の構成語彙である修飾語を獲得し, 語彙制限後のコーパスの語彙に加えて獲得した修飾語を活用することで,テキスト中のより多くの用語を検出する拡張マッチングを行った.検出された用語の情報は,機械学習アルゴリズム linear-chain CRF をべースとしたシステムの素性として使用した. NTCIR-10 MedNLP タスクのテストコレクションを用いて抽出実験を行ったところ,単純な辞書の利用と比較して, $F$ 值で 0.4 1.1 ポイントの有意な精度向上が見られ,語彙制限および拡張マッチングの有効性を確認した。 症状・診断名の認識では, 同タスクで1位の Miura ら (Miura et al. 2013)のシステムと比較し,モダリティ属性の分類を含めた認識では本システムが適合率・再現率ともに高い精度を実現した。一方,モダリティ属性を考慮しない場合の症状・診断名認識において再現率が低く, 網羅性の点で劣っていた。語彙制限および修飾語の付加に基づく拡張マッチングでは, 元の語彙資源に含まれない主要語に対応できないという限界があるため, 今後の課題として, 新たな主要語の獲得や, 未知の主要語を認識する方法が必要である. また,NTCIR-10 MedNLP に続くシェアドタスクである NTCIR-11 MedNLP2 (Aramaki, Morita, Kano, and Ohkuma 2014) では, 表記が異なりかつ同一の対象を指す症状・診断名を同一視する「病名・症状正規化タスク」が設定されている.症例検索などの応用に向けた基礎技術として, 幅広い症状・診断名を抽出することに加え, 抽出した症状・診断名の表記の違いを吸収する技術の開発も重要である。 ## 謝 辞 NTCIR-10 MedNLP タスクを主催され,MedNLP テストコレクションをご提供くださいました京都大学デザイン学ユニットの荒牧英治特定准教授ならびに関係者の皆様に感謝申し上げます. MEDIS 病名マスターをご提供くださいました一般財団法人医療情報システム開発センター の関係者の皆様に感謝申し上げます. また, 本研究の一部は, JSPS 科学研究費補助金 25330363 , ならびに私立大学等経常費補助金特別補助「大学間連携等による共同研究」の助成を受けたものです. ## 参考文献 Aramaki, E., Morita, M., Kano, Y., and Ohkuma, T. (2014). "Overview of the NTCIR-11 MedNLP-2 Task." In Proceedings of the 11th NTCIR Workshop Meeting on Evaluation of Information Access Technologies, pp. 147-154. Collins, M. (2002). "Discriminative Training Methods for Hidden Markov Models: Theory and Experiments with Perceptron Algorithms." In Proceedings of the 2002 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1-8. Higashiyama, S., Seki, K., and Uehara, K. (2013a). "Clinical Entity Recognition using Costsensitive Structured Perceptron for NTCIR-10 MedNLP." In Proceedings of the 10th NTCIR Conference, pp. 704-709. Higashiyama, S., Seki, K., and Uehara, K. (2013b). "Developing ML-based Systems to Extract Medical Information from Japanese Medical History Summaries." In Proceedings of the 1st Workshop on Natural Language Processing for Medical and Healthcare Fields, pp. 14-21. Imaichi, O., Yanase, T., and Niwa, Y. (2013). "A Comparison of Rule-based and Machine Learning Methods for Medical Information Extraction." In Proceedings of the 1st Workshop on Natural Language Processing for Medical and Healthcare Fields, pp. 38-42. 井上大悟, 永井秀利, 中村貞吾, 野村浩郷, 大貝晴俊 (2001). 医療論文抄録からのファクト情報抽出を目的とした言語分析. 情報処理学会研究報告. 自然言語処理研究会報告, 141 (17), pp. 103-110. Jiang, M., Chen, Y., Liu, M., Rosenbloom, S. T., Mani, S., Denny, J. C., and Xu, H. (2011). "A Study of Machine-learning-based Approaches to Extract Clinical Entities and Their Assertions from Discharge Summaries." Journal of the American Medical Informatics Association (JAMIA), 18 (5), pp. 601-606. 木浪孝治, 池田哲夫, 村田嘉利, 高山毅, 武田利明 (2008). 看護学分野の専門用語抽出方法の 研究. 自然言語処理, 15 (3), pp. 3-20. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 230-237. Lafferty, J., McCallum, A., and Pereira, F. (2001). "Conditional Random Fields: Probabilistic Models for Segmenting and Labeling Sequence Data." In Proceedings of the 18th International Conference on Machine Learning (ICML), pp. 282-289. Laquerre, P. F. and Malon, C. (2013). "NECLA at the Medical Natural Language Processing Pilot Task (MedNLP)." In Proceedings of the 10th NTCIR Conference, pp. 725-727. McCallum, A. and Wei, L. (2003). "Early Results for Named Entity Recognition with Conditional Random Fields, Feature Induction and Web-enhanced Lexicons." In Proceedings of the 7th Conference on Natural Language Learning (CoNLL-2003), pp. 188-191. Miura, Y., Ohkuma, T., Masuichi, H., Shinohara, E., Aramaki, E., and Ohe, K. (2013). "Incorporating Knowledge Resources to Enhance Medical Information Extraction." In Proceedings of the 1st Workshop on Natural Language Processing for Medical and Healthcare Fields, pp. 1-6. Morita, M., Kano, Y., Ohkuma, T., Miyabe, M., and Aramaki, E. (2013). "Overview of the NTCIR-10 MedNLP Task." In Proceedings of the 10th NTCIR Conference, pp. 696-701. Sang, E. F. and Veenstra, J. (1999). "Representing Text Chunks." In Proceedings of the 9th Conference on European Chapter of the Association for Computational Linguistics, pp. 173-179. Sha, F. and Pereira, F. (2003). "Shallow Parsing with Conditional Random Fields." In Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language (HLT-NAACL), pp. 213-220. 上杉正人 (2007). N-gram と相互情報量を用いた医療用語抽出のための分割点の探索. 医療情報学, 27 (5), pp. 431-438. Uzuner, Ö., South, B. R., Shen, S., and DuVall, S. L. (2011). "2010 i2b2/VA Challenge on Concepts, Assertions, and Relations in Clinical Text." Journal of the American Medical Informatics Association (JAMIA), 18 (5), pp. 552-556. Uzuner, Ö., Goldstein, I., Luo, Y., and Kohane, I. (2008). "Identifying Patient Smoking Status from Medical Discharge Records." Journal of the American Medical Informatics Association (JAMIA), 15 (1), pp. 14-24. Uzuner, Ö., Luo, Y., and Szolovits, P. (2007). "Evaluating the State-of-the-art in Automatic De-identification." Journal of the American Medical Informatics Association (JAMIA), 14 (5), pp. 550-563. Uzuner, Ö., Solti, I., and Cadag, E. (2010). "Extracting Medication Information from Clinical Text." Journal of the American Medical Informatics Association (JAMIA), 17 (5), pp. 514-518. ## 付録 ## A モダリティ素性における正規表現 モダリティ素性において,各属性のモダリティ表現を捉えるために用いた正規表現を記載す お, “ $X \mid Y$ ”は $X$ または $Y$ との一致, “ $\left[X_{1} X_{2} \ldots X_{N}\right]$ ” は $X_{1}, X_{2}, \ldots, X_{N}$ のいずれかとの一致, “()”はパターンのグループ化, “?”は直前のパターンの 0 回または 1 回の出現を表す.また, 相当する文字列が後続しない $X$ にマッチする. ## Negation のモダリティ表現 Negation 属性のモダリティ表現のために用いた正規表現を以下に示す. ・ [はがを]?(([認め|みとめ|見|み $\mid$ 得 $\mid え)(られ) ?) ?([$ 無な](い|く|かっ)|せ?ず) - $\quad[$ はがを $]$ ?((消失|除外) $(? !$ !?(な $[$ いかくし])|せず)) - [はがもの](改善| 陰性 | 宽解)(?!し?(な [いかくし])|せず) - (の (所見 $\mid$ 既往) が?)?[無な](し|い|く|かった) ## Suspicion のモダリティ表現 Suspicion 属性のモダリティ表現のために用いた正規表現を以下に示す. - の?(疑い|うたがい) ## Family のモダリティ表現 Family 属性のモダリティ表現のために用いた正規表現を以下に示す. なお, “[父母]”に後続する “(?)” というパターンは,医療用語である「母指」や「母趾」とのマッチを防ぐために用いた。 - [祖伯叔]?[父母](?) 親?| お [じば]|[兄弟姉妹娘]| 息子|従 (兄弟|姉妹)  ## B修飾語の限定に用いたひらがな表現 語彙資源から修飾語を獲得する処理において, 修飾語の限定の際に用いた主にひらがなから構成される表現を以下に記載する。 助詞・連語が,の,を,に,へ,と,から,より,で,など,のみ,における 連体詞その 接続詞または,あるいは,および,かつ 助動詞な 形容詞ない, なし 動詞・名詞・助詞・助動詞の組合せからなる語する,よる,ある,あり,して,した,ならない,なった,のための 漢字を含む表現伴う, 伴わない, 生じない, 疑い, 著しい, その他, 手当て, 比較して ## 略歴 東山翔平:2012 年神戸大学工学部情報知能工学科卒業. 2014 年神戸大学大学院システム情報学研究科博士前期課程修了. 現在, NEC 情報・ナレッジ研究所に在籍. 自然言語処理, 情報抽出の研究に従事. 関和広:2002 年図書館情報大学情報メディア研究科修士課程修了. 2006 年インディアナ大学図書館情報学研究科博士課程修了. Ph.D. 神戸大学助教等を経て現在甲南大学知能情報学部准教授. 情報検索, データマイニングの研究に従事. 情報処理学会, 電子情報通信学会, 人工知能学会各会員. 上原邦昭:1978 年大阪大学基礎工学部情報工学科卒業. 1983 年同大学院博士後期課程単位取得退学. 工学博士. 同産業科学研究所助手, 講師, 神戸大学工学部情報知能工学科助教授等を経て, 現在同大学院システム情報学研究科教授. 人工知能, 特に機械学習, マルチメディア処理の研究に従事. 電子情報通信学会, 計量国語学会, 日本ソフトウェア科学会, AAAI 各会員. $(2014$ 年 9 月 21 日 $\quad$ 受付 $)$ $(2015$ 年 1 月 11 日 $\quad$ 再受付 $)$ $(2015$ 年 3 月 3 日 $\quad$ 採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 「ロボットは東大に入れるか」プロジェクト: 代ゼミセンター模試タスクにおけるエラーの分析 磯崎 秀樹 $+1+t+t \cdot$ 菊井玄一郎 $+t+t \dagger \cdot$ 堂坂 浩二 南 泰浩 $1+\dagger+\dagger+\dagger \dagger \cdot$ 新井 紀子㭷 「ロボットは東大に入れるか」は,大学入試試験問題を計算機で解くという挑戦を通 じ,言語処理を含む AI 諸技術の再統合と, 知的情報処理の新たな課題の発見を目指すプロジェクトである. 知的能力の測定を第一目的として設計された入試問題は, $\mathrm{AI}$ 技術の恰好のベンチマークであるとともに, 人間の受験者と機械のエラー傾向を 直接比較することが可能である。本稿では, 大手予備校主催のセンター試験形式模試を主たる評価データとして, 各科目の解答システムのエラーを分析し, 高得点へ 向けた今後の課題を明らかにするとともに, 分野としての言語処理全体における現在の課題を探る. キーワード:総合的タスク, 大学入試試験問題, エラー分析 ## The Todai Robot Project: ## Error Analysis on the Results of the Yozemi Center Test \author{ Takuya Matsuzaki ${ }^{\dagger}$, Hikaru Yokono $^{\dagger \dagger}$, Yusuke Miyao ${ }^{\dagger \dagger}$, Ai Kawazoe ${ }^{\dagger \dagger}$, \\ Yoshinobu Kano ${ }^{\dagger \dagger}$, Hayato Kanou $^{\dagger}$, Satoshi Sato $^{\dagger}$, Ryuichiro Higashinaka ${ }^{\dagger \dagger \dagger \dagger}$, \\ Hirotoshi Taira ${ }^{\dagger \dagger \dagger \dagger \dagger \dagger}$, Yasuhiro Minami ${ }^{\dagger \dagger \dagger \dagger \dagger \dagger \dagger}$ and Noriko H. Arai ${ }^{\dagger \dagger}$ } The Todai Robot Project aims at integrating various AI technologies including natural language processing (NLP), as well as uncovering novel AI problems that have been missed while the fragmentation of the research field, through the development  of software systems that solve university entrance exam problems. Being primarily designed for the measurement of human intellectual abilities, university entrance exam problems serve as an ideal benchmark for AI technologies. They also enable a quantitative comparison between the AI systems and human test takers. This paper analyzes the errors made by the software systems on the mock university entrance exams hosted by a popular preparatory school. Based on the analyses, key problems towards higher system performances and the current issues in the field of NLP are discussed. Key Words: Integrated AI Tasks, University Entrance Examinations, Error Analysis ## 1 はじめに 「ロボットは東大に入れるか」(以下,「東ロボ」)は国立情報学研究所を中心とする長期プロジェクトである。同プロジェクトは, AI 技術の総合的ベンチマークとして大学入試試験問題に挑戦することを通じ,自然言語処理を含む種々の知的情報処理技術の再統合および新たな課題の発見と解決を目指している。プロジェクトの公式目標は 2016 年度に大学入試センター試験において高得点を挙げ,2021 年度に東大 2 次試験合格レベルに達することである。プロジェクトでは, 2016 年度のセンター試験「受験」に至るまでの中間評価の一つとして, 2013 年度, 2014 年度の 2 回に渡り代々木ゼミナール主催の全国センター模試(以下,代ゼミセンター模試)を用いた各科目の解答システムの評価を行い,その結果を公表した。表 1 に 2014 年度の各科目の得点と偏差値を示す¹2213 年度の結果については文献 (新井 2014) を参照されたい。 大学入試試験問題は志願者の知的能力を客観的に測定することを目的として設計されたデー 夕であり,通常たた 1 回の試験によって,かつ,受験者間での公平性を担保しながら測定を行 表 12014 年度代ゼミセンター模試(第 1 回)に対する得点と偏差値  うために入念な検討が加えられている。この点で,入試試験問題は言語処理を含む知的情報処理技術の総合的ベンチマークとして恰好の素材であるといえる. 特に,その大部分が選択式問題からなるセンター試験形式のテストは,ごく単純な表層的手がかりのみでは正解できないように設計されていると考えられ, 現在 $70 \%$ から $90 \%$ の精度に留まっている種々の言語処理技術をより信頼性高く頑健なものへと導くためのガイドラインとして好適である。さらに,模試・入試によるシステムの性能測定結果は人間の受験生の正答率や誤りの傾向と直接比較することが可能である。 センター試験は毎年約 50 万人が受験し,予備校によるセンター試験模試も数千から数万人規模の参加者を集める。このような大規模なサンプルから得られた「普通の人」「典型的な人」の像とシステムとの比較は,人によるアノテーションに対する再現率に基づく通常の性能測定とは異なる達成度の指標となっている。 代ゼミセンター模試による 2014 年度の評価では, 英語・国語・世界史 B で受験者平均を上回る得点を獲得するなど, 大きな成果があった一方で, その得点に端的に現れているように, 残された課題も大きい. 本稿では,代ゼミセンター模試およびその過去問を主たる評価データとして各科目の解答システムのエラーを分析し, 各科目における今後の課題を明らかにするとともに,「普通の人」と比較した際の各科目・問題タイプにおける達成度に関してひとつの見取り図を与えることを目指す。「東ロボ」プロジェクトのひとつの特徴は, 多様な科目・課題に並行的に取り組むことであり, 様々な課題に対する結果を通じて, 現在の NLP/AI 諸技術の達成度を可能な限り通覧することはプロジェクト全体の目的でもある。このため,本稿では問題タイプ毎のエラーに対する分析は主として解決への糸口となる傾向の分析までにとどめ, 多数の科目・問題タイプについてそのエラー傾向と今後の課題を示すことを主眼とした。以下では,まず知的情報処理課題としてのセンター模試タスクの概要をまとめたのち, 英語, 国語, 数学, 物理,日本史・世界史の各科目について分析結果を述べる。 ## 2 センター試験タスクの概要 表 2, 表 3 に, 2014 年度代ゼミセンター模試(第 1 回)の世界史 B - 日本史 B ・数学(I+A, $\mathrm{II}+\mathrm{B}$ の合計 $)$ ・物理, 国語・英語を対象とした問題分類の結果を示す。表内の各数字は, 各カテゴリに分類された問題数およびその割合(カッコ内)である。ここでは,一つの問題が複数のカテゴリに属する場合も許している。これらの分類は解答タイプ(解答形式および解答内容の意味的カテゴリ)と解答に必要となる知識のタイプに関するアノテーション (Miyao and Kawazoe 2013) から得られたものであるが,読みやすくするために,表中では各カテゴリにそれらのアノテーションを要約・再解釈したラベルを与えている. 表 2 に示されるように,社会科目ではほとんどの問題が教科書内の知識を正しく記憶しているかどうかを問う問題であり,形式は真偽判定型と factoid 質問型が多い。問題中で与えられた 表 2 問題分類(社会科目・理数系科目) 表 3 問題分類(国語・英語) 資料文に関する読解問題や一般常識の関わる問題の割合は低いことから,大多数の問題に対しては外部の知識源を適切に参照し, 要求される解答形式に合わせた出力へ加工することで解答できる可能性が示唆される。すなわち, 現行の質問応答および検索をべースとした方法によって解ける可能性がある。他方, 数学・物理に関しては, 問題のすべてが「分野固有の推論」に分類されている。すなわち,単に知識源を参照するだけでは解答できず,数理的演繹やオントロジーに基づく推論などが必要となることが示唆される。特に, 数学・物理の問題のほとんどが数値ないし数式を答える問題であるため,数值計算ないし数式処理は必須である.言語処理と数値・数式処理の統合は, 分野横断型の研究として興味深い. 数学・物理の間の違いとして,画像・図表の理解を必要とする問題の割合の差が見て取れる。数学では数表および箱ひげ図の理解を要する大問が 1 題あったが, それ以外の図に関しては必要な情報が全て問題文で与えられており,解答する上で図を理解する必要はない。いっぽう物理では, 問題文のみでは物理的状況を理解するのが困難で,画像の理解を必要とすると思われる問題がおよそ 7 割を占める. このため, 物理の解答システムでは将来的に画像理解と言語理解の融合が必要であると考えられる。 英語と国語の問題分類は, 他科目とは大きく異なっている。英語に関する節で述べるように,語彙知識, 文法的知識を問う問題は, 現在の言語処理技術の射程内のものが多数ある。しかし,英語・国語で大きな割合を占める読解問題は, これを研究課題とする取り組みが近年開始されたものの (Peñas, Hovy, Forner, Rodrigo, Sutcliffe, Forascu, and Sporleder 2011a; Peñas, Hovy, Forner, Rodrigo, Sutcliffe, Sporleder, Forascu, Benajiba, and Osenova 2011b), 言語処理 - 知的情報処理課題としての定式化を含め, 未解決の部分が多いタイプの問題である. さらに, 英語問題には一般常識を問う問題, 新聞広告や手書きの問診票など独特の形式をもつ文書の理解を問う問題, 画像理解(絵の説明として適切なものを選ぶ問題など)などが含まれるが, これらは一部に研究課題として非常に難しいものを含んでいる. この点で, 少なくとも現時点では, 英語で満点に近い高得点を得ることは困難であると考えられる。 ## 3 英語問題のエラー分析 ## 3.1 はじめに 本節では, 東ロボ英語チームの開発によるいくつかの解答システムのエラーを分析した結果について述べる. 特に, 代ゼミセンター模試の 6 回分 (2012 第 1 回, 2013 第 1 回〜第 4 回, 2014 第 1 回)を中心に分析を行った. 表 4 に代ゼミセンター模試 2014 第 1 回の問題構成を示す.今回の分析は現状一定の精度で解けている短文問題(すなわち, 大問 1 から大問 3)のみについて行っている。また, 短文問題の中で文脈に合わない文を選ぶという問題 (3B)については, 過去問に例が少なかったため未着手であり,分析対象としては触れていない,また,意見要旨把握問題については,会話文完成問題と同じ解き方で解いているため, 会話文完成問題の分析をもって, この問題の分析とする.点数にして約半分を占める読解問題に対しては, 現在のシステム正答率がチャンスレベルに近 表 4 代ゼミセンター模試 2014 英語の問題構成 いため, エラー分析の対象とはしなかった。読解問題に関する見通しについては本節の最後で述べる。なお, 2014 年度の代ゼミセンター模試の英語問題を解いた手法については,文献 (東中, 杉山, 磯崎, 菊井, 堂坂, 平, 南 2015) に詳述されているので参照されたい. ## 3.2 発音・アクセント問題 ここ数年の発音・アクセント問題は発音箇所が異なる・同じ箇所や, アクセント位置が異なる・同じ箇所を選択する問題であり,音声認識用の辞書を用いることですべて解くことが出来ている。しかし, 1987 年から 2009 年までのセンター試験の発音アクセント問題は 28/85(約 く,文脈を理解しないと解くことができない. 図 1 は強勢の問題の例である。下線部の単語のうち, 強勢が置かれるものをそれぞれ選択する。(1)の下線部では, worse が正解となるが, worse を強く読むかどうかは文脈に依存する. 1999 年までの発音・アクセント問題で解けていない問題を分析したものを表 5 に示す。辞書やプログラムの整備などにより対応できるものを短期に対応できる問題(18 問),それ以外を長 Maya : Here comes our train. It's not too crowded. Jeff : $\quad$ Do the trains (1)get any worse than this? Maya: Oh, yes. During the morning rush hour (2)they're twice as bad. Jeff : I can't imagine a train being more crowded than this. Where I'm from, (3)we can always get a seat. Maya: You were lucky, but you'll have to get used to the crowds here. How do you get to school? Do you take a train? Jeff : $\quad$ No, (4)I walk to school. 図 1 強勢問題の例 表 5 発音・アクセント問題の分類 期間必要な問題(33 問)と分類した。また, 例年であれば発音・アクセント問題が出現する箇所にそれ以外の問題が出題されるケースがあり,これらは 6 問あった。強勢の問題は近年コー パスベースの手法で取り組んでいる文献 (Zang, Wu, Meng, Jia, and Cai 2014) もあるが,また取り組みが少ないのが現状である. ## 3.3 文法・語法・語彙問題 文法・語法・語彙問題とは, 文中の空欄に最もふさわしい語句を 4 つの候補の中から選ぶ問題である。代ゼミセンター模試の過去 6 回分には,このタイプの問題が合わせて 60 問出題されている,英語チームでは,単語 N-gram を用いて,最も確率が高くなる候補を選ぶ方法を用いた。本手法では, 47 問解くことができた。解くことが出来なかった問題の要因は表 6 の通りであった。 反実仮想のように,条件文に呼応する場合はそれを踏まえる必要があるが,N-gram ではそれが捉えられていなかった。また,複数文で前半部分を受けて後半の単語を選ぶ問題についても同様に答えられていない,遠い依存関係は N-gramによって捉えにくいものであるが,今回の代ゼミセンター模試 2014-1の 2 問については, Dependency Language Model (Gubbins and Vlachos 2013) に基づく手法で答えられることを確認した。成句に関する問題は入試で頻出するが,新聞記事の出力分布からずれるために答えられていないと思われる。関係代名詞の用法については,解くためには文法的な観点が必要と思われる. 今回の分析対象である 60 問で人間(受験生)とシステムの正答傾向に違いがあるかを分析した.ここで, 「人間の解答」として,受験生の選択した割合が最も高かったものを用いている。 なお,人間は 48 問 $(80 \%)$ 正解している. クロス表を作成したところ表 7 の様になった. システムと人間の両方が解けるものはある程度共通しているものの, それぞれ得意・不得意があることも分かる. システムが正解することと, 人間が正解することが独立であるか, 本クロス表について Fisher の正確確率検定を行ったところ $p=1$ であり人間・システムの正答の分布が独立であることは棄却されなかった。人間とシステムは異なる解き方をしており,正答・ 表 6 文法・語法・語彙問題のエラー要因 表 7 人とシステムの正答傾向の比較(文法・語法・語彙問題) 表 8 システムが正解し人間が不正解であった文法・語法・語彙問題の内容 誤答の分布は独立であることが示唆される. さらに 60 問の各設問について人間とシステムの選択肢の順序を求め, 代表的な順位相関係数である Spearmanの $\rho$ および Kendall の $\tau$ の平均値を求めた。ここで, 人間の選択肢の順位とは選択した受験生の割合の順位であり,システムの順序とは,N-gram 確率によって得られる確率値の大きい順に並べたものである。その結果, $\rho$ との平均はそれぞれ $0.07,0.06$ となり,ほぼ無相関であった。ここからも,人間とシステムは異なった解き方で問題を解いていることが示唆される. システムが正解し人間が不正解であった問題は 10 問であり,この内訳は表 8 の通りである.人間は英語の典型的用法を知らないことで不正解になっているケースがほとんどであった。これらはシステムがデータ中心の解法により正解できるものである。また前置詞の用法も英語に慣れていないと難しく, 受験生には解けなかったようである. 人間が正解しシステムが不正解であった 11 問,および,どちらも不正解たっった 2 問 (2013-1A12, 2014-1-A14) は, システムが解けなかった問題として前掲した 13 問である. 表 8 と比較すると, システムが正解・人が不正解であった問題は単語や成句・連語あるいは前置詞の選択など,語彙的知識に関するものが多く, システムが不正解・人が正解であった問題は意味的・文法的な整合性が関わるものが多いという傾向が見て取れる。 ## 3.4 語句整序完成問題 語句整序完成問題とは,与えられた数個の単語を適切に並べ替えて,文法・意味的に正しい文を完成させる問題である,我々は,文法・語法・語彙問題と同様に N-gram 言語モデルを用いてこの問題に取り組んだ。具体的には,単語列のすべての並びを列挙し,もっとも文として 表 9 語句整除完成問題のエラー要因 表 10 人とシステムの正答傾向の比較(語句整除完成問題) の確率が高いものを選ぶ手法を用いた. 分析対象とした代ゼミセンター模試過去問ではこのタイプの問題が 18 問あり,このうち, 15 問 $(83 \%)$ に対しシステムは正答することができた,正解できなかった 3 問についてはエラーの要因は表 9 の通りであった。 ここでの要因は, 文法・語法・語彙問題とほぼ同様である。システムの正解率もほぼ同じであ 今回の分析対象である 18 問について,人間とシステムの正答傾向に違いがあるか分析した。表 10 はそのクロス表である. 本クロス表について Fisher の正確確率検定を行ったところ $\mathrm{p}$ 値は 0.06 であり有意傾向にあった。これは, 文法・語法・語彙問題と異なるところであり, システムと人間はより近い解き方をしているのではないかと考察される。 人間が不正解でありシステムが正解したものは 1 問 (2012-1-A25-26) だった. “all I could think about”という構文が受験生にとっては難しいながら,典型的なフレーズであり,システムにとっては N-gram で解ける問題だったことによる. ## 3.5 会話文完成問題 会話文完成問題は, 二人の話者の会話の空所に適切な文を 4 つの選択肢から選び,会話文を完成させる問題である。この問題を解くため,4つの選択肢の各場合について会話文の流れの自然さを推定し,最も自然な流れとなる選択肢を選ぶという方法を用いた.会話文の流れの自然さは (a) 発話意図(表明,評価など)の流れの自然さと (b) 感情極性(ポジティブかネガティブ)の流れの自然さから成る。 (a) は Switchboard Dialog Act Corpus (Jurafsky, Shriberg, and Biasca 1997) から発話意図列の識別モデルを CRF によって学習し, 発話意図列の生起確率に基づいてスコアを計算した。(b) は感情極性コーパス (Pang and Lee 2005)から SVM により識別 モデルを学習し,感情極性がポジティブあるいはネガティブであるスコアを計算した。それぞれのスコアの重み付き和を最終的なスコアとした。 エラー分析のため, 代ゼミセンター 6 回分の問題について, 会話中のすべての発話および選択肢に対し,1名の評価者がアノテーションを行い,発話意図のラベルと感情極性の度合を付与した. アノテーションに基づき,(a),(b)のスコアを計算した。(a)は付与された発話意図列の N-gram 確率をコーパスから計算したものをスコアとした. (b) は付与された感情極性の度合に基づいてスコアを計算した。コーパスから学習したモデルに基づいてスコアを算出する場合 (アノテーション無し)とアノテーションに基づいてスコアを算出する場合(アノテーション有り)を比較し,正解率がどう変わるかを検証した。その結果を表 11 に示す. 表において, 発話意図のスコアと感情極性のスコアの両方を使う場合は, 正解率が最大となるように重みを調整した,表から分かるように,感情極性に関して,アノテーション無しの方がアノテーション有りの場合よりも正解率が若干高い. アノテーション無しの場合は, 感情極性コーパスを使うことにより,ポジティブ/ネガティブな文に現れる単語の出現確率を考慮してスコアを計算していることに対して, アノテーション有りの場合は, そのような単語の出現確率を精密に考慮できないことが性能低下につながった可能性がある. 本質的にアノテーション無しの方が性能が良いかどうかはより多くのデータを使って判断することが必要である. 本手法は発話意図のスコアと感情極性のスコアの重み付き和で最終的なスコアを計算しているが,どちらのスコアを優先すべきかは問題による。実際,発話意図のスコアと感情極性のスコアのいずれかが最大となる選択肢を選ぶことができたすると, アノテーション無しでは 18 問中 13 問, アノテーション有りでは 18 問中 10 問が正解となる. 発話意図と感情極性のスコアのいずれを使って問題を解くべきかを適切に判断することは今後の課題の一つである. 分析に用いた 18 問に対する受験生の平均正答率は $62.2 \%$ あ゙った. システムの正答率 $8 / 18$ (=44.4\%)はそれより低いものの, チャンスレベルである $25 \%$ との差はほぼ有意であった $(p=0.06$,二項検定). 表 11 アノテーションの有無による会話文完成問題の正解率の変化 ## 3.6 未知語(句)語義推測問題 この問題は, 出現頻度が低く一般にはあまり知られていないような文章中の単語またはフレー ズについて語義を推定し, 与えられた選択肢の中から最も意味の近い語義を選択する問題である。今回, word2vec (Mikolov, Sutskever, Chen, Corrado, and Dean 2013)を用い, 未知の語句と選択肢のべクトルをそれぞれ求め,コサイン類似度の高いものを選択する手法を用いた。なお, 未知の単語が慣用句の場合は,イディオム辞書によって事前に語釈文に置き換えた上でべクトルを算出している. 過去 5 回の代ゼミセンター模試の全 12 問について,9問 (75\%) 解くことができた。これは同じ問題に対する受験生の平均正答率 $48 \%$ 上回っている. 正解できなかった 3 つの問題の内訳を表 12 に示す.二つはイデイオム辞書の不備に依る。今回は, Wiktionary から作成したイディ才ム辞書を用いたが,そのカバレッジが低かった。これらはよりカバレッジの大きい Oxford English Dictionary を用いることで解決できることが分かった. もう一つは単語 “cognate”であるが,単語であっても,辞書の語釈文によって置き換えてべクトルを算出することでこちらも解けることが分かった。すなわち,単語,イディオムについて,置き換える・置き換えないという操作が正しくできれば,本問題については解くことができると言える. ## 3.7 英語:まとめと今後の課題 本稿では, 東ロボプロジェクトにおいて英語チームが英語問題を解いたときのエラーを分析した結果について述べた。長文読解問題はまだチャンスレベルに近い正答率であるため, 今回 表 12 未知語(句)語彙推測問題のエラー内訳 & エラーのタイプ \& 分析 \\ は分析対象としなかったが,今後解答できるようになっていくにつれ,エラーを分析していく予定である. 今回の分析対象とした短文問題に比べて, 長文読解問題ソルバー開発の進行が遅れている理由としては, 問題内容自体の複雑さに加え以下のような理由が挙げられる。まず,長文読解問題の約半数は,図表ないしイラストを含む問題,あるいは広告・カルテなど特殊なレイアウトを含む実用文書を題材とする問題である。これらの問題に対しては,テキスト処理に加えて画像理解や文書構造の理解が必要とされる。特に自然画像ではないイラストの理解はそれ自体が未開拓の研究領域である。これらの付加要素のうち表に関しては, 情報抽出源として多くの研究があるものの, テキスト理解と表の意味理解が複合した課題に関する取組は近年始まったばかりである (Pasupat and Liang 2015). 多くの長文読解問題は,形式的には本文と選択肢の間の含意関係認識課題として捉えることが可能である。しかし, Bag-of-words/phrases/dependencies など,表層に近い表現によるテキスト間類似性を用いた手法と state-of-the-art との差が比較的小さい現在の含意関係認識手法の技術水準では, 英語読解問題で前提とされる種々の常識的知識を深い意味構造のレベルで取り扱うような手法がすぐに実現するとは考えにくく,表層に近い表現によるテキスト間類似性定義をべースとして,英語読解問題の特性に見合った改良を加えていく方向が有効であると思われる。これに対し,図・表・イラストなどを含む問題は,数量の取扱いを始め,単純なテキス卜間類似性を超える推論を要することが多い点でも難しい課題であると言える. なお,図などの付加要素を含まないタイプの長文読解問題において,特に問題だと考えている課題は 3 つある。意味を反転させるような表現の扱い, 共参照解析, メ夕言語(文章自体への言及)である。また,過去の代ゼミセンター模試の長文(特に大問 6 の論述に関する問題)を分析したところ,選択肢に関連のある一文を長文から抽出できれば解ける問題が 25 問中 11 問あったが,その他は複数の文の統合が必要なものであった。選択肢に関連する一文を長文から抽出する課題はそれ自体が今後の研究課題である (Li, Ran, Nguyen, Miyao, and Aizawa 2013) が,それに加え,要約技術の適用や文の統合といった技術が必要になってくると思われる。 ## 4 国語 評論問題のエラー分析 ## 4.1 センター試験『国語』評論傍線部問題 本節では, 主に大学入試センター試験『国語』評論の傍線部問題と呼ばれる問題を取り扱う.傍線部問題の具体例を図 2 に示す。この図に示すように,傍線部問題は, 何らかの評論から抜き出された文章(本文)を読んだ上で設問文を読み,5つの選択肢のうちから正解の選択肢を 1 つ選ぶという選択式の問題である(紙面の都合上, 図 2 には 2 つしか選択肢を記載していな 本文: ...ヨーロッパ流の芸術観では、芸術とは自然を素材にして、それに人工を加えることで完成に達せしめられた永遠的存在なのだから、A 造型し構成し変容せしめようという意志がきわめて強い。それが芸術家の自負するに足る創造であって、それによって象徴的に、彼等自身が永生への望みを達するのである。... 問 2 傍線部A「造形し構成し変容せしめよう」とあるが、それはどういうことか。その説明として最も適当なものを、次の 1 ~5のうちから一つ選べ。 1 変化し続ける自然を作品として凍結することにより、一瞬の生命の示現を可能にさせようとすること。 2 時間とともに変化する自然に手を加え、永遠不変の完結した形をそなえた作品を作り出そうとすること。 図 2 評論傍線部問題の例(2007 年本試験第 1 問の問 2) い). 表 13 に示すように, 傍線部問題は, センター試験『国語』評論の配点の約 $2 / 3$ を占めている。紙幅の都合で取り上げなかったこれ以外の問題に関しては本節の最後で述べる。 ## 4.2 傍線部問題の解法 東ロボ国語チームは, 傍線部問題の自動解法として, これまでに本文照合法 (佐藤, 加納, 西村, 駒谷 2014), およびその一部を拡張した節境界法 (加納, 佐藤, 松崎 2015) を提案, 実装した. 本節ではこれらの解法について概説する. ## 4.2.1 本文照合法 本文照合法は, - 正解選択肢を選ぶ根拠は, 本文中に存在する (船口 1997; 板野 2010) - 意味的に似ているテキストは, 表層的にも似ていることが多い という考え方(仮説)に基づく解法である。具体的には, 次のような方法で傍線部問題を解く. (1)入力:本文,設問,選択肢集合を入力する. (2)照合領域の決定:選択肢と照合する本文の一部(照合領域)を定める。照合領域は,本文中の傍線部を中心とした連続領域とする。 (3)選択肢の事前選抜:考慮の対象外とする選択肢を除外する。具体的には, ある選択肢について, 自分以外の選択肢との文字の一致率の平均値が最も小さい選択肢を除外する. (4)照合:考慮の対象とする選択肢をそれぞれ照合領域と比較し,照合スコアを求める.照合スコアには, 照合領域とその選択肢との間の共通する要素の割合(オーバーラップ率 (服部,佐藤 2013))を用いる. (5)出力:照合スコアの最も高い選択肢を解答として出力する. この本文照合法には,以下の 3 つのパラメータが存在する. ・ 照合領域として本文のどの範囲を選ぶか ・ 照合スコアをどのような単位で計算するか(何のオーバーラップ率をスコアとするか) ・ 選択肢の事前選抜を行うか これらのパラメータは,以降で述べる節境界法にも共通する。 ## 4.2.2 節境界法 節境界法は,長い文を複数のまとまりに区切るという戦略に基づき,本文照合法の一部を拡張した解法である。具体的には,本文照合法の照合ステップにおいて,照合領域と選択肢に節境界検出に基づいた節分割を行い,その結果を照合スコアの計算に利用する。節は「述語を中心としたまとまり」(益岡,田窪 1992) と定義される文法単位であり,おおよそ述語項構造に対応する。 節境界検出には, 節境界検出プログラム Rainbow (加納, 佐藤 2014) を用いる, Rainbow は, 文の節境界の位置を検出し, 節の種類のラベル(節ラベル)を付与するプログラムである. Rainbow によって付与された節境界で区切られた部分を節とみなして,節分割を行う². 節境界法では,照合スコアを以下のような方法で計算する。 Step1 照合領域 $t$ と選択肢 $x$ に節境界検出を行い,それぞれ節の集合 $T, X$ に変換する. Step2 $T$ と $X$ を用いて選択肢 $x$ の照合スコアを計算する。具体的には, $X$ 内の各節 $c_{x} \in X$ のスコアの平均値を,選択肢 $x$ のスコアとする。節 $c_{x}$ のスコアは, $c_{x}$ と, $T$ 内の各節 $c_{t} \in T$ との類似度の最大値とする。 節同士の類似度は, 節同士の共通する要素の割合(オーバーラップ率 (服部, 佐藤 2013))と, 2 つの節の節ラベルが一致する場合のボーナスの和と定義する. ## 4.3 評価実験 センター試験の過去問および代ゼミセンター模試過去問(以下,代ゼミ模試とよぶ)を用いて,本文照合法および節境界法の評価を行った。センター過去問は 10 回分, 代ゼミ模試は 5 回分の試験データを使用した。傍線部問題の総数は,センター過去問が 40 問,代ゼミ模試が 20 問である。 ## 4.3.1 実験結果 本文照合法ソルバーと節境界法ソルバーを,センター過去問,および代ゼミ模試に適用した結果(正解数)を表 14 に示す.この表の P- $m-n$ は, 照合領域(本文の傍線部の前後何段落を  照合領域とするか)を表し, $C^{1}$ や $L$ な゙は,オーバーラップ率として何の一致率を用いるかの単位を表す(たとえば $C^{1}$ は文字 unigram を用いることを表す)。また,選択肢の事前選抜を行う場合を ps,行わない場合を non で表す。これらのパラメータの組み合わせ 56 通りについて,正解数を調查した。 表 14 では,本文照合法ソルバー,節境界法ソルバーの正解数を, この順に斜線で区切って示 表 13 代ゼミセンター試験 2014 国語の問題構成 表 14 センター過去問と代ゼミ模試に対する正解数(本文照合法/節境界法,上段がセンター 40 問,下段が代ゼミ模試 20 問に対する結果) 表 15 ソルバー出力の上位に正解が含まれる設問数 している。また, 上段にはセンター過去問の正解数, 下段には代ゼミ模試の正解数を示している。半数以上の問題に正解した場合の正解数は, ボールド体で示している. 表 14 を見ると, センター試験と代ゼミ模試の問題は, 性質が異なるということがわかる。 センター過去問に関しては, 多くのパラメータ $(45 / 56)$ において, 節境界法の正解数が本文照合法の正解数以上となったのに対し, 代ゼミ模試に関しては, 56 通りすべてのパラメータにおいて, 本文照合法の正解数が節境界法の正解数以上となった. また, 本文照合法では 2 つ問題データ間で正解率があまり変わらないのに対し, 節境界法では全体的にセンター過去問よりも代ゼミ模試の正解率の方が低い. ソルバーは, 解答を出力する際, 照合スコアの高い順に選択肢番号を出力するが, このとき, スコア上位に正解が含まれた設問数を表 15 に示す。パラメータは, センター過去問または代ゼミ模試で,比較的成績のよいものを 3 つ選んだ,R@ $n$ は,スコア順位で $n$ 位までに正解が含まれたことを表す。(節),(本)はそれぞれ節境界法,本文照合法を表す。 表 15 を見ると, ほとんどの問題で正解選択肢が選択肢 5 つのうの上位 3 位までには入ることがわかる。、コア上位の選択肢に対して, 本文と合致しない部分の検出ができれば, より正解数が向上することが期待できる. ## 4.3.2 典型的な難問例 本文照合法,および節境界法は,いずれも文字列の表層的類似度を照合スコアに用いているため, 本文の解答根拠部分と選択肢との間で表層的に全く異なる言い回しが用いられているような問題には正解できない。センター過去問の 40 問の傍線部問題を調查したところ, そのような問題は多く存在した。その中でも, 以下の 3 そのタイプの問題は, ソルバーにとって特に難問であると考えられる。 A 本文で抽象的に述べている内容を具体的に述べた選択肢を選ぶ設問(40問中 2 問) B 本文で具体的に述べている内容を抽象的に述べた選択肢を選ぶ設問(40問中 4 問) C 本文と選択肢の抽象度は同じだが,選択肢が本文の内容を,句以上の大きな単位で全面的に言い換えている設問(40 問中 16 問) (本文の解答根拠部分) ... 私どもは映画の場面一一つまり人物や状況にひきずりこまれ、はらはらしたり、笑ったり、主人公が助かってくれればと念じたり、こんな悪人は退治されてしまえと思ったりする。スリルの場面にであうと、「これは映画なのだ、本当のことじゃないのだ」と自分に何遍も言いきかせて落ちつきをとりもどそうとするけれども、ものの十秒もたてば心の余裕は消えてしまって、映画の状況とまた一緒になってはらはらする。 (正解選択肢) 映画は本来実在しない虚構の映像の世界であり、登場人物は虚像にすぎないが、その中に引き込まれたり自己を投入したりすることによって、実在するものとして認知されるようになること。 図 3 タイプ $\mathrm{A}$ の難問の例(2001 年本試験第 1 問の問 2) ## (本文の解答根拠部分) ‥ しかしながら映画を見るという行為は、一瞬たりとも休むことのない時間の速度にとらわれ、その奴隷と化することでもあった。... 映画は一方通行的に早い速度で流れる時間に圧倒されて、ついにはひとつの意味しか見出せない危険な表現であり、... (正解選択肢) 映画は、限られた時間のなかで壮大な時空間を描き出すようなことを可能にしたが、映画に見入っている時間をきびしく制限しようとすることで、観客の眼差しを抑圧してしまうことになった。 図 4 タイプ $\mathrm{C}$ の難問の例(2005 年本試験第 1 問の問 4 ) タイプ $\mathrm{A}$ の設問の例を図 3 に,タイプ $\mathrm{C}$ の設問の例を図 4 に示す. タイプ $\mathrm{A}$ おび B の設問で求められる抽象と具体を結びつける能力は, 抽象語と具体例を結びつける辞書的なデータの作成や, 多数の抽象-具体テキストペアの蓄積が可能であるような, ごく限定的な主題を除き, 現在の言語処理・人工知能技術の射程外であろう. タイプ $\mathrm{C}$ の設問は, 形式的には言い換え認識あるいは含意関係認識に近い問題であるものの, 最先端の手法と表層的類似度に基づく手法との差が小さい現在の技術水準 (Watanabe, Miyao, Mizuno, Shibata, Kanayama, Lee, Lin, Shi, Mitamura, Kando, Shima, and Takeda 2013)では, やはり解決不可能な問題が多いと考えられる。 ## 4.3.3 人間の解答との比較 代ゼミから提供されたデータを用いて, ソルバーの解答傾向が人間(受験生)のそれと似ているかの比較を行った. 代ゼミ模試 20 問において, ソルバーの解答結果と, 受験生の解答番号別マーク率を比較した。受験生の選んた選択肢 $n$ 位までにソルバーの選んた選択肢が含まれる設問数を表 16 に示す.この表の $\mathrm{R} @ n$ は, 受験生のマーク率順位の $n$ 位までにソルバー出力が 表 16 受験生の選んだ選択肢上位にソルバー出力が含まれる設問数 表 17 人とシステムの正答傾向の比較(国語評論傍線部問題) 含まれたことを表す。 表 16 を見ると,節境界法に比べて,本文照合法の解答傾向の方が受験生と似ている。代ゼミ模試において節境界法より本文照合法の方が好成績であったことを考慮すると,代ゼミ模試においては,受験生と解答傾向が似ているソルバーの方が,正解率が高くなると考えられる. 代ゼミ模試 20 問に対する,ソルバー(本文照合法 P- $0-0, C^{1}, \mathrm{ps}$ )と受験生のマーク率 1 位の解答のクロス表は表 17 のようになった:クロス表では, ソルバーが正解した問題では受験生も正解が多い傾向があるように見える。しかし, Fisher の正確確率検定の結果は $p=0.34$ で, ソルバーと受験生の正答の分布が独立であることは棄却できなかった. ## 4.4 国語:まとめと今後の課題 本節では,東ロボ国語チームが提案,実装した評論傍線部問題の自動解法とその成績,および解答結果の分析について述べた,実装した本文照合法,節境界法は,いずれも文字列の表層的類似度を用いる解法であり,本質的に正解できない難問もあるものの,ソルバーは,適切なパラメータさえ選べば,多くの問題に対してスコア順位で上位に正解選択肢を出力できた. 現在のソルバーは, 全ての傍線部問題に対して同じパラメータ, 同じ解法で解答するが, 今後は,問題を換言型,理由型などいくつかの型に分類し,より適したパラメータ,特徴を用いて解く必要があると考えられる,たとえば,傍線部の理由を問う理由型の問題の場合, 本文傍線部周辺の比較的狭い領域の,因果関係を表す表現などが手がかりとなるであろう。また,評論には例示や引用がしばしば用いられるため,本文および選択肢を,本質的に重要な部分とそうでない部分に分け, 重要な部分のみで照合を行うようなアプローチも有用であると考えられる. 傍線部問題は小説を本文とする第 2 問でも大きなウェイトを占める.小説の傍線部問題は形式的には評論のそれと類似しているものの, 本文には直接記述されない登場人物の感情・思考などが問われる問題が多く, 評論と同様の表層的類似度を用いた手法ではチャンスレべルと大差ない正解率となることが分かっている (佐藤他 2014). テキストから書き手の感情(極性)を推定する研究はこれまで非常に多くあるが,小説の読解問題として問われるような細かな感情タイプを表層的手がかりから得る技術の実現可能性は今のところ明らかでない. 漢字 (評論) の問題は辞書を用いた手法で概ね十分な精度が出ている(2013 年度, 2014 年度とも代ゼミセンター模試で全問正解)。語句の意味(小説)に関する問題に関しては,通常の語義を問う問題では国語辞書を用いた手法で高い精度が得られている。しかし,語句の意味に関する問題では,本文で比喩的に使われている語句の意味を文脈に即して選ばせる夕イプの問題がしばしば出題され,これらに対する正解率が低い。このタイプの問題の解決には,語句が比喻的に用いられているか否かの識別とともに比喻の内容を本文に即して解釈することが必要であり,特に後者は難しい課題である. 古文(第 3 問)の解釈問題に対しては, 古文-現代語対訳コーパスから学習した統計的機械翻訳モデルを利用し,本文を現代語訳した上で評論の傍線部問題と同様の本文と選択肢の間の表層的類似度を用いた手法で $50 \%$ 程度の正解率を得ている。BLEUによる訳質評価および目視による主観評価の結果から, 古文-現代文翻訳の品質には向上の余地が認められる。しかし一方で,機械翻訳の代わりに人手による参照訳を用いた比較実験では正答率の向上が見られず,通常の意味での翻訳品質の向上は正解率の向上に寄与しないことが示唆される.翻訳品質が直接正答率に結び付かない要因としては, 小説の傍線部問題と同様に, 直接記述されない心情を問う問題が多いことに加え, 現在用いている単純な表層的類似度では, 例えば重要語句「をかし」 の解釈などといった,問題のポイントとなる部分がすくい取れていないことが考えられる。 評論・小説および古文の各大問の最後では, 表現の特徴・効果や議論の構成について問うタイプの問題が出題されるのが通例である。しかし, これらの問題に関しては, 文章ジャンルを問わず, ほぼ手つかずの状態にある。表現の特徵・効果の理解は, 現在の言語処理の主要な目標である文章の意味そのものの理解を超える課題であり,当面,解決の見达みはないだろう.議論の構成に関する問題は, 自動要約や修辞構造解析など現在の言語処理における取組みと重なり合う部分もあるものの, 抽出的でなく抽象度の高い要約を選択する, あるいは, 修辞構造の効果を内容に即して説明する選択肢を選ぶ,など,既存の要素技術の組み合わせではカバーできない課題が多い. 最後に,漢文の解釈問題に関しては古文と同様に現代日本語訳を経由して,翻訳された本文と選択肢との類似度に基づき解答する手法が考えられるが, 入手可能な対訳リソースが無いため手つかずの状態になっている. ## 5 数学問題のエラー分析 数学では, 問題文からの情報抽出やデータベースからの情報検索のみで解答が得られる問題は例外的であり,一般には計算や推論などの数理的操作によって解を導く必要がある。このため, 問題文を分析し, 数理的操作の入力となる何らかの形式表現を得るステップが不可欠となる。この中間的な形式表現としては,答えを直接導く計算式から論理式による問題全体の意味表現まで様々なものが考えられ,言語処理部分でのアプローチも,ターゲットとなる形式表現の枠組みに応じ種々の手法があり得る。適切な形式表現の朹組みを選ぶにあたって,まず考慮すべき点として,想定する問題の定型性が挙げられる。例えば,Kushman ら (Kushman, Artzi, Zettlemoyer, and Barzilay 2014) は対象とする問題を連立一次方程式で表現される代数の文章題に限定することで,言語処理部分を問題テキスト中の名詞および数量と方程式中の変数および係数とを対応付ける学習問題に帰着している。我々は多様な問題を同一のシステムでカバーすることを目的として論理式による表現を採用し,文法主導の翻訳によって問題文から形式表現を得るアプローチを選択した。 図 5 に示すように,解答システムは言語理解部と自動演繹部,および両者をつなぐ意味表現の書き換え処理部からなる。言語理解部の中心は組合せ範疇文法 (Combinatory Categorial Grammar, CCG) (Steedman 2001; 戸次 2010) による構文・意味解析である. CCG によって導出された各文に対する意味表現は, 共参照解析および文間関係の解析を経て, 問題テキスト全 図 5 数学解答システムの概要 表 18 数学 $(\mathrm{I}+\mathrm{A}, \mathrm{II}+\mathrm{B})$ の失点要因 体に対応する意味表現へと合成される. 言語理解部の各処理コンポーネントは現在開発中の段階にある。このため, 代ゼミ模試による中間評価では, (1) 問題文中の数式部分に対する意味表現, (2) 文節間係り受け関係, (3) 共参照関係,(4) 文間の論理的関係,および (5) 評価時点の CCG 辞書に含まれていなかった単語・語義, の 5 種のアノテーションを施した問題文を入力とした. 問題の意味表示は, これらのアノテーションを制約として CCG 導出木を探索し, 導出木と文間の論理関係に沿って辞書中の単語の意味表示を合成することで半自動的に得た. よって, 模試による評価結果は, 曖昧性解消処理および辞書の被覆率に関し理想化した場合の性能の上限値として解釈すべきものである。手法および入力アノテーションの詳細については, 文献 (Matsuzaki, Iwane, Anai, and Arai 2013, 2014)を参照されたい,今回,入力アノテーションで代替した処理に関する考察および見通しについては本節末で述べる. 因の内訳である。以下では,アノテーションによって理想化された条件でも残るエラーのうち最も多くを占める 2 要因である,「表現の宇長性による計算量の爆発」と「行為・操作結果の表現」に関する問題について主として述べる。これら以外で,言語処理に関係する主要な要因としては,確率・統計に関する問題に対して,意味表現の設計を含め言語処理部分が未着手の状態であったことが挙げられる。これは, 確率・統計の問題では「ボールを取り出す/戻す/テー ブルに置く」「サイコロを用いてゲームをする」等々,あらかじめ形式的な定義を与えることが難しい要素が頻出するため, 本節で示した問題の論理表示を経由する形式的なアプローチはなじまないと考えたためである。これとは異なるアプローチによる確率問題への取り組みについては別稿 (神谷, 松崎, 佐藤 2015) を参照されたい. ## 5.1 意味表現の冗長性 文法主導の方法で構成的に導出した意味表現は, 非常に冗長になる傾向がある。例として,「線分」という一般名詞を考えてみる。「線分」に対応する意味表現は,あるモノが線分であることを表す一項述語 $(\operatorname{segment}(\cdot)$ とする)であると考えるのが一般的である.このとき,単語 「線分」の一般的な用例に従い, 述語 $\operatorname{segment}(\cdot)$ は, 縮退したケースすなわち両端が一致した線分(つまり一点)を除外するよう定義されるべきである。この非縮退条件は,どのような文脈においても単語「線分」の翻訳が妥当なものとなるために必要である. しかし, 例えば「点 $(0,0)$ と点 $(1,1)$ を両端とする線分 $L\rfloor$ といったフレーズのように, 非縮退条件は非常にしばしば文脈によって含意される。左記のフレーズの場合, その形式表現は述語 $\operatorname{segment}(\cdot)$ の定義から,おおむね「 $L$ は $(0,0)$ と $(1,1)$ を通る直線上で $(0,0)$ と $(1,1)$ の間にある点の集合で,かつ点 $(0,0)$ と点 $(1,1)$ は異なる点である」という内容となり,「かつ」以下の部分が冗長である。この例では,㔯長な部分はそれ自体で自明に真であるが,一般には問題文中に現れるいくつかの条件を総合したときにはじめて非縮退条件が満たされていることが分かる. このため, 自動演繹の過程では,問題を解く上で本質的な演繹と,㔯長な非縮退条件が実際に成立していることの証明にあたる非本質的な演繹が入り混じった形で行われることになり,演繹の計算コストが増大する。 ここまでは非縮退条件を例として説明したが,その他にも等号関係の伝播による冗長な表現 $(a=c \Leftrightarrow \exists b(a=b \wedge b=c))$ や一般性を失う事なく除去できる対称性など,意味表現の壳長化の原因は複数ある。これらはいずれも語彙の意味定義の文脈独立性および意味合成の構成性に起因するもので,本手法における意味解析の原理の副作用というべきものである。2014 年度の代ゼミセンター模試で正解できなかった問題の内, 得点にして $27 \%$ (28 点)が, 宇長かつ複雑な意味表現を対象とする演繹処理が制限時間内に終了しなかったことによるものであった. ここで計算量が問題となっているのは実閉体の式に対する限量子除去と呼ばれる処理 (Caviness and Johnson 1998; Iwane, Yanami, Anai, and Yokoyama 2013) であり, 用いているアルゴリズムの最悪計算量は式中の変数の数の 2 重指数のオーダーである. このため, 言語処理の結果出力される式から不要な変数を除去することは極めて重要となるが,一方で,数式処理によってこれを実現する一般的な手法は存在しない(であろう)ことが分かる。よって,式の壳長性の解決へ向けては,条件の対称性など問題の数理的特徴を利用した発見的手法とともに,文法および意味合成手続きの特徴を考慮した, 言語解析からの出力に特有の冗長性を除去する手法の開発が必要であろう. ## 5.2 行為結果の表現 現在の我々の意味表現体系で扱えない例として, 行為や操作の結果を表す表現を取り上げる. 2014 年度センター模試数学 I・A では $ 104 \text { を素因数分解すると囤 }{ }^{3} \text { イウウでる. } $ という文を含む出題があったが,現在の我々の文法体系ではこの文に対する意味合成ができない. 同様の「Xを $\mathrm{V}$ すると $\mathrm{Y}$ となる」という構造を持つ文(以下,「行為結果文」と呼ぶ)は他にも - $n$ を 2 乗すると 4 の倍数となる. - 放物線 $C$ を $y$ 軸方向に 1 たけ平行移動すると放物線 D となる. - 円の半径を 2 倍にすると面積は 4 倍になる. - 方程式 $x^{2}+2 x+1=0$ の左辺を因数分解すると $(x+1)^{2}=0$ となる. など種々あり,数学テキストでは比較的よく現れるタイプの文である。 2014 年度の代ゼミ模試では, 数に対する操作の表現を含む問題で上記の理由によって正解しなかったものが 20 点分,類似の理由で,数式に対する操作の表現を含む問題で正解しなかったものが 18 点分あり, 合わせて失点全体の $36 \% を$ 占めていた。 動詞「なる」および接続助詞「と」の通常の用法も考慮すると, 行為結果文「Xを Vすると $\mathrm{Y}$ となるの意味表現としてもっとも表層構造に忠実なのは以下のような内容のものだうう: (1) 行為 $\mathrm{V}$ の前の世界 $W_{1}$ と行為後の世界 $W_{2}$ には,ともにモノ $\mathrm{X}$ が存在する.そして, (2)行為 $\mathrm{V}$ の結果モノ $\mathrm{X}$ の性質は変化し, 行為後の世界 $W_{2}$ ではモノ Xとモノ $\mathrm{X}$ は一致する,あるいはモノ $\mathrm{X}$ は $W_{2}$ では性質 $\mathrm{Y}$ を満たす. ここでは行為 $\mathrm{V}$ の前・後における世界の変化を捉えるために,ある種の時間の概念(ないし複数世界間の推移) が意味表示の体系に持ち込まれている. しかし, 実際に問題を解くために上記のような行為結果文から読み取る必要がある意味内容は, 通常の述語論理の枠組みで十分表現可能である。例えば,上の箇条書きの最初に例に対しては「 $n^{2}$ は 4 で割り切れる」という表現で十分である。また, 明示的に時間の推移を表す「点 $P$ は速度 $v$ で動き, 時刻 $t$ に点 $Q$ に到達する」といった表現を含む問題は比較的少数であることも考えあわせると, システムの現在の開発段階で意味表現に時間の概念を持ち込む利得は意味表現・言語解析および推論の複雑化に見合わないと考える. 幸い,これまでに観察された行為結果文は定型的なものが多く,時間の概念を含まない現在の枠組みでも,必要な意味表現を合成することは多くの場合に可能であると思われる.特に「X を $\mathrm{V}$ すると $\mathrm{Y}$ となる」という形の文については,下記の 2 つ方針が考えられる: 方針 1 主節「Yとなる」はガ格のゼロ代名詞を持ち, そのゼロ代名詞は間接照応で「Xを $\mathrm{V}$ した結果」を指すと考える。この方針では節「Xを Vすると」は意味表現に直接は寄与せず(翻訳されず)「XをVした結果が Yとなる」に相当する意味表現が作られる. 方針 2 句 $\mathrm{V}$ すると」は右にガ格を欠いた一項述語を項として取り, 左にチ格名詞句を項として取ると考える(即ち「「Vすると」は範疇 $S \backslash N P_{0} /\left(S \backslash N P_{\text {ga }}\right)$ を持つ). 方針 1 のゼロ照応の解決は,行為結果文の定型性を利用することで比較的容易に実現できると予想される. 方針 2 の利点としては, ゼ口照応解決に依らず, CCGによる解析の朹組み内で全ての意味合成が行えることに加え, 例えば「2乗すると 10 を超える奇数」のような連体修飾の形も上記の範疇を持つ「Vすると」の語彙項目によって同時に扱える点が挙げられる(図 6). 図 6 連体修飾の形の行為結果文の解析 ## 5.3 数学:まとめと今後の課題 本節では,入力アノテーションによって言語処理とくに曖昧性解消処理の大部分を代替した理想化された状況でもなお残る数学解答システムのエラーに関して解説を行った。意味表現の冗長性に起因する計算量の増大は,言語処理と自動演繹の両者にまたがる夕スク設定に特有の課題であり,解決に向けては,文法・意味合成の特性を踏まえた数式処理技術など分野融合的な研究が必要となる。行為結果文の分析に関する課題では, いわゆる "generalization to the worst case"の問題をどう回避するか, という点が本質的である。これは,大多数の文の構造は典型的ないくつかの文法・意味現象の組み合わせとして分析可能であるにもかかわらず,多様な言語現象をカバーするための分析枠組みの下では, 具体的な分析対象がどのような文であっても, その意味表現が一様に(かつ,枠組みが対象とする現象の数に関して組合せ的に)増大するという問題である。本稿では,数学テキストでの行為結果文の定型性を利用した分析の単純化を一つの解として提示した。 言語系・社会系の科目に比べ数学解答システムの言語処理部の開発は遅れている. 数学解答システムの開発では,これまで,自然言語から構成的に導出が可能で,かつ数理処理部への入力として適した意味表現の設計に注力してきたことが,言語処理部の開発の遅れの主たる理由である。これを裏返して言えば,数学のように形式的な意味表示のための体系がほぼ確立した分野に対しても,言語から意味表示を導出するための中間的な意味表示体系として直接利用できるような枠組みは存在しなかったということであり,言語処理と自動演繹という人工知能の 2 つの下位分野をつなぐ領域は大きく欠落していたと言ってよいたろう. 言語処理部分の自動化に向けた主要な課題は, (i) 既存技術の数学テキストへの分野適応,(ii)既存技術・コーパスでは対象とされていない現象の解析,(iii) 文法の被覆率の向上,に分けられる。(i) に関しては, 例えば, 係り受け解析器 cabocha (工藤, 松本 2002) に対して, 数学問題テキスト約 10,000 文に対する係り受けアノテーションを用いた追加訓練を行うことで数学問題テキストに対する解析精度を追加訓練前の $87 \sim 90 \%$ か $94 \%$ 程度まで向上できることが分かっている。このように,分野適応によって,新聞テキスト等に比べ高い解析精度が得られる処理ステップが存在する一方で,数学問題を解くという目的に向けては,さらに残る解析エラーを ゼロに近づけることが必要である。上記の傒り受け解析に関する結果からも示唆されるように, エラーをゼロに近づける段階では,「汎用」の分野適応手法ではなく, 分野特有の知識や数理処理の結果のフィードバック等を用いた手法が必要となることが予想される. (ii) に関しては, 例えば, 命題を指す参照表現(「このとき」「そのとき」)や, 不飽和名詞・関係名詞に係る「ノ格」のゼロ照応解決(例「平面上に直角三角形 $\mathrm{ABC}$ がある。斜辺 $\mathrm{BC}$ は…」)など, 日本語共参照・照応解決のための学習・評価データとして近年ひろく用いられている NAIST テキストコーパス (飯田, 小町, 井之上, 乾, 松本 2010)ではアノテーションの対象となっていない現象の解析が必要であり,既存のツール・データをそのまま利用した解決は事実上不可能である。また, 文間の論理関係の解析に関しては, 修辞構造解析・談話構造解析など, 形式的には類似のタスクに関する研究があるが, 変数のスコープ解決を含め, 文間の詳細な論理的関係の解析を対象とする研究は我々の知る限り存在しない。これらの課題に関しては,まず,分野知識を前提としたルールベースの手法による達成率を調查し, その後, 必要であればテキストアノテーションを介した統計手法との組み合わせを検討することが目標の実現へ向けた戦略としては妥当であろう。 (iii) の文法の被覆率の向上に関しては, 現在のところ見通し不明であると言わざるを得ない.名詞・動詞など内容語に関しては, 辞書見出し語による文表層形の被覆率を測定することで, 必要な語彙のうち辞書に未収録なものの概数が分かる。しかし,機能語は同一表層形のものが多数の異なる統語的特性および意味をもつため, 被覆率の測定のためには, 文が解析可能であるか否かに加え, 得られた意味表示が正しいことを確認する必要がある。このため, 構文解析すら自動化されていない現段階では, 少数のサンプルを超えて大規模な被覆率の測定を行うことは難しい。今後は, 言語解析の結果から得た解答のチェックを通じて, 間接的に被覆率の測定や機能語の未知の用法の検出を行うといった工夫が必要になると考えている. ## 6 物理問題のエラー分析 大学入試における物理の問題の多くは, 問題に記述された状況において, ある物理現象が起きたときの物理量についてのもの(e.g. “物体が停止した時間”)や,物理現象が起きるための条件となる物理量についてのもの(e.g. “棒がすべり出さないための静止摩擦力”)である. 本研究ではこの種の問題解答に向けて, 物理シミュレーションによって問題に書かれている状況を再現し, 得られた結果を用いて解答を行うアプローチで取り組んでいる (横野, 稲邑 2014). 解答器は自然言語で記述された問題を入力として受け取り,まず意味解析を行い,状況の記述と解答形式の記述からなる形式表現を生成する。次に形式表現を元に物理シミュレーションを行い, 得られた結果から問題に記述されている物理現象が起きた時刻における物理量を特定し,解答形式にあわせて出力することで問題に解答する。 2014 年度の代ゼミセンター模試による評価では形式表現からシミュレーション結果の取得に焦点を当て,人手で記述した問題の形式表現を入力とし,得られたシミュレーション結果から解答が導けるかどうかを人が判断するという設定とした。この設定においても正解が得られなかった問題とは, シミュレーション自体が行えなかった問題であり, 大別すると (i) 形式表現による記述が困難な状況設定を含む問題 (ii) 電磁誘導などシミュレーションが困難な物理現象を含む問題,の2種類がある.本稿では (i) に焦点を当て,その詳細について述べる。 ## 6.1 形式表現 本手法で用いている形式表現は一階述語論理の形式で記述している。定義している述語は物体, 物理量, 物体に対する操作, 物理現象を表す 4 種類のものである。このうち物体に対する操作と物理現象を表す述語に関しては, 事象が起きた時間関係を明示するためにイベント変数を導入している。形式表現に用いる述語セットは過去のセンター試験問題を対象とした調查結果を基に人手で定義した. 現時点における形式表現の定義でどの程度の問題が記述できるかを 2013,2014 年度の代ゼミセンター模試 5 回分を用いて評価した。結果を表 19 に示す。状況記述の項は実際に形式表現で記述できた小問の数を示している。状況記述の項の“+”以降の値は新しく述語を定義することで状況の記述が可能となった問題の数を示す. 状況の記述ができないと判断された問題は全部で 25 問あり,その理由の内訳は,シミュレー ションモデルの不足によるものが 12 問, 画像で形状が指定されるオブジェクトをシミュレー 夕に入力できないことによるものが 8 問, その他の理由によるものが 5 問であった. 以下では,上位 2 つ原因について詳細を述べる。 表 19 形式記述の分析(試験 5 回分) ## 6.2 シミュレーションモデルの不足 物理問題の形式表現では,数学における集合論のように,全ての問題を記述しうる表現の枠組みを考えることは現実的でない,このことは,例えば力学, 電磁気, 波動(音波,光,弦の振動)といった多様な分野の問題を一様に「原子レベル」で記述することの非現実性から明らかたろう。すなわち, 物理では各分野および問題タイプごとに適切な抽象度の物理モデルを用いる必要がある。これらのモデルには, 力学や電気回路など, 比較的多様な問題をひとつのモデルでカバーするものから,「両端が固定された弦の振動」といった単一の現象のみを対象とするものまで様々な抽象度のものが含まれる。 ゆえに,物理問題に対する形式表現の記述とシミュレータでの実行は, (i) 適切な物理モデルの選択と (ii) 選ばれた物理モデルの枠組みの中での問題の解釈,という 2 つ側面を含む。この 2 つの側面は不可分であり, 問題に対して適切な抽象度の物理モデルが事前に存在しない場合は,問題に対する形式的記述がそもそもできない,定性推論 (Forbus 1984)などのように,基礎的なレベルの状況記述から, より抽象的で演繹に適したモデルを自動的に生成することを目指す研究は存在するものの, 広範囲の物理問題に適用可能な解答プログラムの開発を $5 \sim 10$ 年のスパンで目指す本研究ではスコープ外の目標と見なすべきであろう. 表 20 の「シミュレーションモデルの不足」は, 上記の意味で適切な物理モデルが評価時に存在しなかった問題である。ここに分類された問題のうち半分以上(12 問中 9 問)は,例えば,「一定の風速および方向の風が吹く中で伝わる音波のドップラー効果」や「質量 $2 m$ の重りをつるすと切れる糸を用いた円錐振り子」のように,現在の音波の伝達モデルや力学モデルを拡張することで表現が可能になる問題である。しかし, そもそもどのような抽象化をすべきか現段階では明らかでない「伏せたコップを水中に沈め,水圧によってコップの下端から $x \mathrm{~cm}$ の高さまで水が入りこんた状態」のような問題も含まれている. 本研究では力学に関係したモデルから開発を始めたため, 力学に関しては記述可能な問題の割合が相対的に大きい,今後は,「切れる糸」など力学モデルの中で例外的な扱いが必要な現象を洗い出し, モデルに取り込むとともに, 現象に対し個別的なモデルが必要な問題が多い波動 表 20 状況記述ができない理由 & 12 & \\ などの分野に関して, どの程度のモデル数が必要か, 現実的に実現可能なモデル数に収まるのかを見定める必要がある. ## 6.3 自由形状の入力 問題には「平らな床の上に置かれた立方形の台」のように基本的な小数の要素で構成可能な状況だけでなく, 図7のように画像によって与えられた複雑な形状の要素が出現するものがある. これらは原理的には力学モデル内で扱うことが可能であるが,シミュレータへと状況を入力するために画像処理を必要とし, さらに自由形状のオブジェクトを取り扱うためのシミュレータ機能の実現コストが大きいため, 現在は未着手の状態にある. ## 6.4 物理:まとめと今後の課題 物理問題の多くは問題で与えられた状況に対して起きた物理現象について, その時の物理量やその物理現象が成立するための条件を問うものである。このような問題に対して, 我々は問題に書かれている状況を認識し,その状況を起点とする物理シミュレーションを行い,得られた物理量をもとに解答するというアプローチで取り組んでいる。これまで,十分な範囲の問題を記述することができ,かつ,その情報から物理シミュレーションが可能となるような形式表現の定義を行ってきた,表 19 に示すように,まだ記述できない問題は残っているため, 今後も定義を改良する必要があるが, 同時に自然文として記述されたテキストからこの形式表現への変換にも取り組む予定である. 問題テキストから形式表現への変換は, 現在さかんに研究が進められている semantic parsing の一例と見なすことも可能ではある. しかし, これまでの semantic parsing のタスク設定では, 図 7 複雑な形状の例 翻訳の目的言語となる形式表現のセマンティクスがあらかじめ固定されているのに対し, 物理問題の状況理解では目的言語を定める物理モデルの選択が形式表現への翻訳と一体になっている点が大きく異なる。これによって, 物理問題の意味解析には, 例えば「鉄球」という語に対し「質点」を表す表現を割り当てるのか,あるいは大きさを持つ剛体を表す表現を割り当てるのか,という訳語選択に当たるレベルの曖昧性解消だけでなく,「時刻 $t$ に車のサイレンが発した音波」といった表現から「気圧の周期変動の伝播」としての音波ではなく,音源から音波があたかも「物質のように」放出される音波モデルを選択すべきことを識別する,といったテキスト解析に基づく物理モデルの選択の問題が含まれる. また, 現時点では, 数值データとして出力されるシミュレーション結果を人手で解釈して解答しているが, 最終的にはこの部分も自動化する必要がある. この部分は, センター試験形式の物理問題では, 選択肢として与えられる式やグラフ, あるいは選択肢および本文における自然言語による状況記述と, 物理的状況を表す数値デー夕との整合性ないし含意関係を判定する問題である。このうち, 自然言語による記述と数値デー夕を比較判定する問題は, 問題の状況理解とほぼ裏表の関係にあり,例えば「止まる」「離れる」等々といった状況を表す語に対し数値(時系列)データに対する条件を結びつけた辞書を用いて,数値データと言語記述の整合性を判定する手法の開発を進めている (横野, 稲邑 2013). また,物理の問題には問題文とともに状況を示した図が添付されていることが多い。この中には, 6.2 節で挙げたように,物体の形状が図でのみ与えられるなど,図の解釈が必須となる問題も存在するが,テキストで与えられた状況記述の曖昧性を除去する目的で図が添えられた問題も多数存在する. 後者のタイプの問題に対しては, 画像理解とテキスト理解を融合した状況理解の手法の開発とともに,言語理解に基づくシミュレーション結果がテキストでの記述と合致するか,など画像理解以外の手段でテキスト解釈を補う技術を開発することを試みている. ## 7 世界史・日本史のエラー分析 本節では, 2014 年度の代ゼミセンター模試に対し, 狩野 (狩野 2014)のシステムが出力した解答のエラー分析について報告する。本システムは, 山川出版社の世界史または日本史の用語集を知識源とし, 設問から抽出したキーワードが知識源の中でどのように分布しているかをスコアとして算出し, 解答を選択する。具体的には, 設問および知識源に対して以下の各処理を行い,解答の選択を行う ${ }^{3}$. (1)問題文解析:問題文のテキストを前処理し,キーワード抽出を行う対象テキストを切り  出す。一般に,設問は背景説明のテキストや導入文,実際に正誤判定の対象となる文など,複数のテキストから構成される。そこで,これらのテキストから後段の処理で必要となるテキスト箇所を抽出する必要がある. (2)キーワード抽出:前処理した問題文テキストから,スコア付けに用いるキーワードを抽出する。キーワードリストとして, Wikipedia の見出し語から自動抽出した語句を人手でクリーニングしたものを用い,単純なマッチングでキーワード抽出を行った。 (3) 知識源検索:抽出したキーワードで知識源を検索し,キーワードに合致するテキストを得る. (4)スコア付け:キーワードと検索結果テキストとの一致度をスコア付けする. 後述するように,センター試験では文の正誤を判定する問題が多い,誤りを含む文では,知識源のまとまった範囲内にキーワードが出現せず,別の場所に出現すると考えられる.したがって,検索結果テキストにキーワードが含まれない場合は,ペナルティとして負のスコアを与える。 (5)解答選択:文の正誤を判定するタイプの問題に対しては,スコアが大きいものを正しい文として解答を選択する。語句を解答するタイプの問題(いわゆる factoid 型質問応答に相当)に対しては,選択肢に挙げられた語句を問題文テキストに埋め込み,文の正誤判定問題に帰着して解答を行う,年代を解答する問題については,検索結果テキスト中の年代表現を抽出することで解答を行う. このシステムは, 2013 年度および 2014 年度の代ゼミ模試「世界史」・「日本史」において最も高い性能を示したものである。また,同システムは, センター試験の世界史過去問を用いた競争型ワークショップである NTCIR-11 QA-Lab Task (Shibuki, Sakamoto, Kano, Mitamura, Ishioroshi, Itakura, Wang, Mori, and Kando 2014) にも参加している4. 同ワークショップに参加した他のシステムにも本システムと同様にキーワードないし係り受け関係をクエリとした検索を基礎とするシステムが多数あった。これらのことから,本節で分析対象とするシステムは,分野特有の処理に依存しない, 検索をべースとした汎用的なシステムとしては比較的高性能なものであると考えてよいだろう。 表 21 に世界史, 表 22 に日本史の問題タイプとエラー分析結果を示す。センター試験の世界史・日本史では,選択肢として与えられた文に対して正誤を判定するタイプの問題が大きな割合を占める(例えば図 8)。語句や年代を解答するタイプの問題(例えば図 10)はいわゆる factoid 型質問応答に見えるが,知識源中の解答に関連する記述は多くの場合一つしか無く, 大規模テキストを利用した解答の aggregation といった技術は利用できない. したがって, 語句・年代と問題文との組合せの正誤を判定するタスクに帰着される。このように, 知識源を的確に参照  表 21 世界史の問題タイプと誤答の要因 表 22 日本史の問題タイプと誤答の要因 図 8 問題文解析の誤りの例 しつつ, 文の正誤を判定するという処理は, 上記のようにテキストの前処理, キーワード抽出,検索, スコア付け等, 複合的な処理が必要であり,また各処理で高い精度が要求される。各処理は当然不完全なものであり, 必ずしも排他的な関係にあるわけでもない. よって, 最終的に誤答が出力された要因を単一の原因に帰着することは難しいため, 表 21 , 表 22 では, 複数の要因は別個にカウントしてエラーの分類を行った。 「問題文解析」は, 問題に解答するための情報が書かれた問題文テキストを切り出す処理に起因するエラーである。図 8 に例を示す5.この問題では, 問題文中に「ノモス」「王国」「古代エジプト」といったキーワードが現れるが, 実はこれらの情報は選択肢の正誤判定には無関係  である。つまり,選択肢の文のみを用いて正誤の判定を行うことができる。一方,問題によっては問題文中のキーワードが正誤判定に必要な場合や, さらに背景説明のテキストも参照する必要があることもある。次のエラー要因とも関連するが,どこまでのテキストをキーワード抽出の対象とすべきかは単純には決定できない. 「キーワード抽出」は,当該問題を解くのに必要・不必要なキーワードを分別できていないことに起因するエラーである。図 9 に例を示す.この例では, 2 は誤った文であるが,「君」「直」 などがキーワードとして認識されず,これらの語が知識源に現れなかったにも関わらずぺナルティがかからなかったため,正しい文と判定されてしまった。これ以外にも,例えば「法制」「編集」といった一般語がその問題文中では重要なキーワードとなっているような場合や, 逆に「アジア系」のような専門用語らしい語が知識源には明示的に書かれていないため, ペナルティがかかってしまった例がある。世界史・日本史の知識がある程度ある人間が読めば, 重要なキーワードと重要ではない(知識源に明示的に書かれていなくても正誤判定には影響しない) キーワードがある程度区別できるが,これを実現するのは容易ではない. 「一般知識」は, 解答のために必要な知識が明示的に知識源に記述されていないことに起因するエラーである。世界や日本の地理・時代に関する知識,一般常識に照らした判断,等が必要とされる。単純な例としては, 図 10 のように, 「岩宿遺跡」がどの時代の遺跡か, という知識を予め用意しておけば解答できるような問題もある。このような知識は必ずしも教科書・用語集に明示されているわけではないが,データベースなどの形式で整理しておくことは可能である。より困難な例を図 11 に示す。この場合,知識源の文章を読めば,「北海道に水稲耕作は及ばず」が妥当であることが分かるが,この判断のためには農耕,狩猟,水稲といった概念の知識と, それらを対比して判定を行う処理が必要である. このように知識源の記述と設問の記 下線部 c(大和地方を中心とした政治連合であるヤマト政権が誕生し)に関連して,ヤマト政権の支配体制に関して述べた文として正しいものを,次の 1~4のうちから一つ選べ。 2. 君(公)や直の姓の有力豪族が国政を担当し,ヤマト政権の中枢をになった. 3. 国造に任命され,地方の支配権をヤマト政権から保証された地方豪族もいた。 図 9 キーワード抽出の誤りの例 背景説明 : 戦後すぐの 1949 年に行われた群馬県岩宿遺跡における発掘調査以降, 各地でアの地層から打製石器が発見され, 日本における旧石器時代の文化の存在が明らかになった.設問 : 空欄アイに入る語句の組合せとして正しいものを, 次の 1 ののうちから一つ選べ. 2. ア更新世イひすい (硬玉) 4. ア完新世イひすい (硬玉) 図 10 データベース・オントロジー的知識が利用できる例 述が直接一致しないケースは特に日本史の問題に多い. 「言語知識」および「言語構造」は,自然言語処理技術の利用・高精度化により解決できる可能性のあるエラーである.前者は,例えば「解読」と「未解読」が反義語であるといった語彙知識や,「収穫した稲の脱穀」と「精穀具」のパラフレーズ関係など,言語知識を利用することで正答が得られる可能性があるものである。「解読」「未解読」のような例であれば,言語リソースの整備により解決できる可能性が高い. しかし, 図 12 に示すような例はパラフレーズ認識あるいはテキスト間含意関係認識に相当するものもあり,必ずしも容易に解決できるものではない。後者は, 係り受け解析, 述語項構造解析, 否定の解析などによって, 文の意味の違いを認識することが必要とされるものである,典型的には,文章中に複数の命題が記述されている場合がある。図 13 に示す例では, 正解は 2 であるが,4のキーワードも同一文章中に含まれて $\mathrm{X}$ 北海道に水稲耕作は及ばず,採集・狩絾・漁労中心の続縄文文化が続いた。 $\mathrm{Y}$ 沖縄・南西諸島には南方から伝わった農耕が広まり,独特な貝塚文化が始まった。 知識源 : 擦文文化 7 13 世紀頃に北海道に広く展開した鉄器文化. 名称は続縄文土器と土師器の影響を受けて誕生した櫛の歯のような文様を持つ擦文土器に由来する。農耕もあるが,主生業は狩絾・漁労. 北海道式古墳も築造. 図 11 一般知識が必要な例 設問 : 下線部 d(水稲耕作を基礎とする弥生文化)に関連して,弥生時代の農耕について述べた文として正しいものを,次の 1〜4のうちから一つ選べ。 2. 籾を田に直接まく直播が行われ,田植えは始まっていなかった。 4. 収穫した稲の脱穀は,木製農具の曰と堅杵を用いて行った。 知識源:木製農具耕作具として鍬・鋤,水田面を平均にならすえぶり,精穀具としての木日・竪杵などがあり,イチイガシ・栗などの堅い木材でつくられた。 図 12 言語知識が必要な例 図 13 言語構造が必要な例 表 23 人とシステムの正答傾向の比較(世界史) いるため,スコアが同率となり,最終的に誤った解答を選択してしまっている。この例は係り受けあるいは述語項構造が正確に得られれば正しい解答が得られると期待される。また, 図 12 の例では,システムは 2 を選択したが,これは知識源には「田植えをした可能性も高まった.」 と記述されており,否定やモダリティの正確な解析によって正答が得られる可能性がある。たたし,このような言語知識・言語解析は新たなエラー要因を持ち込むため,単純にこれらの技術を導入することでは全体の正答率が下がる可能性が高い。必要な場面で適切かつ正確に言語処理技術を利用する必要がある。 最後に, 2014 年度代ゼミセンター模試「世界史 B」36 問について, システム出力と受験生の選択率一位の解答(「人間」)とを比較したクロス表を表 23 に示す。全体の問題数は少ないが,人間が正解・不正解だった問題グループそれぞれに対するシステムの解答は正解・不正解がおよそ半数ずつになっており,人間とシステムの正解分布は独立であることがうかがわれる.実際に, Fisher の正確確率検定を適用した結果は $p=0.68$ であり,人間・システムの正解・不正解が独立であることは棄却されなかった。また,人間が不正解かつシステムが正解した 3 問(受 テキストを取得しており,単なる偶然ではなくシステムの性能が発揮された形で大多数の受験生が誤った問題に正解している。 ## 7.1 世界史・日本史:まとめと今後の課題 本節では,世界史・日本史の試験問題を対象に,狩野 (狩野 2014)のシステムのエラー分析を行った,本システムは構文解析,意味解析等の自然言語処理を行わず,設問と知識源とのキー ワードの一致をスコア付けする方式をとっている。自然言語処理の立場からは,より深い言語処理技術を利用することで正答率を上げるというアプローチが考えられるが,エラー分析の結果からは,それにより正答できる問題はそれほど多くなく,また精度が不十分な言語リソース・言語解析を導入することによる副作用も懸念される。一方, 問題文の前処理やキーワード抽出に起因するエラーはまだ一定数残っており,これらは改善の余地があると考えられる。また,特に日本史では一般知識・常識や, 知識源に直接記述されていない知識を統合的に利用する必要がある問題が見られる。これを解決することは容易ではないが, 自然言語理解の興味深い未解決問題の一つと見ることもできる. ## 8 おわりに 本稿では大学入試センター試験形式の模試問題データを主たる対象として, 英語・国語(現代文評論) ・数学・物理・日本史・世界史の各科目に対する解答システムのエラーを分析した。本稿でエラー分析を行った問題タイプのうち, 現時点でもっとも解答精度が高いのは, 英語の「発音・アクセント」「文法・語法・語彙」「語句整除完成」「未知語(句)語義推測」であった. これらの問題タイプでは, 辞書ベースの手法が非常に有効であった「発音・アクセント」を例外として,いずれも巨大なテキストデータを利用した手法 (N-gram, word2vec) によって高い正答率を得ている。また,「発音・アクセント」の強勢の予測に関する問題を例外として,他 3 つの問題タイプでは,マルコフ仮定から大きく外れる文法的な依存関係に起因するエラーを構文解析を利用して解消する,低頻度語(句)は辞書の語釈文で置き換えた上で類似度を算出する,など,エラー傾向の分析によって,ある程度まで解決へ向けた方針が明らかになっている。 これに対し,国語現代文(評論)の読解問題では,50\%程度の解答精度は実現できており,現在の技術レベルを大きく超えると思われるいくつかの問題タイプを特定することまではできているものの, 解決可能性のあるエラータイプを言語現象と結びつけた形で類型化することは現在できていない,そのひとつの原因は,シンプルではあるが挙動の直観的把握が難しい, 表層類似度に基づく手法を用いていることにある。予備校による模試と実際のセンター試験で,相性のよい手法が異なるといった発見もあったが, 同様の理由でその原因の特定には至っていない. 今後, 本文の修辞構造の解析などと組み合わせ, 手法を改善するにつれ,より詳細なエラー 分析が可能になることが期待される. 数学および物理では,これまで主として中間表現の設計および言語処理と数理的演繹システムとの接続部分に注力して研究を進めており, システム全体の自動化に関しては他科目に比べ遅れている。他のテキストドメインに比べ,はるかに明確な意味表示を持つと考えられる数学や物理においても, 言語からの翻訳を考慮した中間的な意味表示の体系が, 再利用可能な形で存在しなかったことは, これまでの NLP/AIにおける欠落といってよいだろう.中間表現の設計が物理に比べやや進んでいる数学に関しては, 言語処理と演繹処理の接続に由来するエラー として, 表現の壳長性による計算量の爆発の問題があることを示し, 分野融合的な解決が必要であることを述べた。 日本史・世界史のエラー分析では, 問題文および知識源テキストの言語解析や, 分野知識・言語知識・一般的な知識など種々のタイプの知識の利用など,エラー要因あるいは改善へ向けた要素が多岐に渡ることを示した。また分析の結果から, 現在のシステムで最も改善が有効であ万うポイントとして,選択肢からのキーワード抽出および問題文の前処理を挙げた。いずれも本質的には歴史分野に関する一定の知識・理解を要する処理であり,ノイズを含む知識リソー スの導入などによる新たなエラーの発生に関する懸念はあるものの, 知識リソースや要素技術 自体の改良と, それらの追加要素の, 解答システムへの取捨選択的な導入が改良へ向けた唯一の方策だろう。 いくつかの科目・問題タイプの解答システムの分析では, 最も多数の受験生が選択した解答 (以下,単に「人の解答」とよぶ)とシステムの出力との比較を行った。統計的検定の結果, システムと人の解答の正答・誤答の分布が独立であるという帰無仮説がほぼ棄却 $(p=0.06)$ されたのは英語の語句整除完成問題に対してのみであった。予備調査として, 自動的な解答システムの完成には至っていない数学・物理に関しても,演繹部の能力と中間表現の複雑さと正答率との関係を見るためにシステムの正解率と受験生の正答率の関係を調べた。しかし,現在のところ両者に特に顕著な関係は無いようであった.「人のように考える」システムあるいは「人のように間違える」システムはもとより我々の目標ではない。しかし,人とシステムにとっての難易の差について今後より詳細な分析を行うことで,システムの改良に関して,更なる知見が得られることが期待される。 本稿で主として取り上げた問題タイプ,また今後の課題などとして簡単に触れた科目・問題タイプを通覧すると,まず,大きな傾向として漢字やアクセント・発音,文法問題など,個別的な言語知識に関する問題については人間の平均あるいはそれ以上の精度を達成しているものが多数ある一方で,英語・国語の長文読解に代表される総合的な能力を要する問題では良くても人間の平均レベルにとどまっていることが指摘できる。また,個別的な言語知識に関する問題以外では, 数学・物理など, 解答システムの開発スピードは遅いが, 少なくとも現状問題となっている点について現象レベルの説明が可能である科目と, 国語現代文 (評論), 世界史・日本史など,自動システムの完成までの開発は速かったが,エラー要因の類型化が難しい,あるいはエラー要因が多岐に渡る科目との対照が明らかである。これは科目ごとに各開発チームが最も有効であると判断した手法を選択した結果であり,形式的な演繹に基づく手法と表層的手がかりによる手法の比較にみられる一般的な傾向である。しかし, 例えば行為結果文についての分析から示唆されるように, 数学においても出現する構文パターンに大きな偏りがあるなど,表層的な手がかりに基づく手法が有効であろう側面も確かに存在する,逆に,分析結果から示されたように,世界史・日本史にも詳細な言語解析が有効に働くであろう設問も一定数存在する. 今後, 各科目ともより多角的なエラー分析と総合的な問題の把握を進める上では, 点数・開発スピードでは最適といえずとも,現状のアプローチとは異なる手法による結果との比較分析が有効であることが示唆される. ## 謝 辞 本研究を推進するにあたって,大学入試センター試験問題のデータをご提供下さった独立行政法人大学入試センターおよび株式会社ジェイシー教育研究所に感謝いたします。また,模擬 試験データおよび解答分布データをご提供下さった学校法人高宮学園に感謝いたします.また,日本史および世界史用語集の電子データをご提供くださった山川出版社に感謝いたします. ## 参考文献 新井紀子 (2014). ロボットは東大に入れるか. イースト・プレス.戸次大介 (2010). 日本語文法の形式理論. くろしお出版. Caviness, B. and Johnson, J. (Eds.) (1998). Quantifier Elimination and Cylindrical Algebraic Decomposition. Texts and Monographs in Symbolic Computation. Springer-Verlag. Forbus, K. D. (1984). "Qualitative Process Theory." Artificial Intelligence, 24 (1-3), pp. 85-168.船口明 (1997). きめる!センター国語現代文. 学研教育出版. Gubbins, J. and Vlachos, A. (2013). "Dependency Language Mmodels for Sentence Completion." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1405-1410. 服部昇平, 佐藤理史 (2013). 多段階戦略に基づくテキストの意味関係認識:RITE2 タスクへの 適用. 情報処理学会研究報告 2013-NL-211 No.4/2013-SLP-96 No.4, 情報処理学会. 加納隼人, 佐藤理史 (2014). 日本語節境界検出プログラム Rainbow の作成と評価. FIT2014 講 演論文集第 2 分冊, pp. 215-216. 東中竜一郎, 杉山弘晃, 磯崎秀樹, 菊井玄一郎, 堂坂浩二, 平博順, 南泰浩 (2015). センター試 験における英語問題の回答手法. 言語処理学会第 21 回年次大会 (NLP2015). 飯田龍, 小町守, 井之上直也, 乾健太郎, 松本裕治 (2010). 述語項構造と照応関係のアノテー ション:NAIST テキストコーパス構築の経験から. 自然言語処理, 17 (2), pp. 25-50. 板野博行 (2010). ゴロゴ板野のセンター現代文解法パターン集. 星雲社. Iwane, H., Yanami, H., Anai, H., and Yokoyama, K. (2013). "An Effective Implementation of Symbolic-numeric Cylindrical Algebraic Decomposition for Quantifier Elimination." Theoretical Computer Science, 479, pp. 43-69. Jurafsky, D., Shriberg, E., and Biasca, D. (1997). "Switchboard SWBD-DAMSL Shallow- Discourse-Function Annotation Coders Manual, Draft 13." Technical Report 97-02, University of Colorado, Boulder. Institute of Cognitive Science. 神谷翼, 松崎拓也, 佐藤理史 (2015). 数学確率文章題の自動解答システムの開発. 言語処理学会 第 21 回年次大会 (NLP2015). 狩野芳伸 (2014). 大学入試センター試験歴史科目の自動解答. 2014 年度人工知能学会全国大会 (第 28 回). 加納隼人,佐藤理史,松崎拓也 (2015). 節境界検出を用いたセンター試験『国語』評論傍線部 問題ソルバー. 情報処理学会研究報告 2015-NLP-220, 情報処理学会. 工藤拓, 松本裕治 (2002). チャンキングの段階適用による日本語係り受け解析. 情報処理学会論文誌, $43(6)$, pp. 1834-1842. Kushman, N., Artzi, Y., Zettlemoyer, L., and Barzilay, R. (2014). "Learning to Automatically Solve Algebra Word Problems." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 271-281. Li, X., Ran, T., Nguyen, N. L., Miyao, Y., and Aizawa, A. (2013). "Question Answering System for Entrance Exams in QA4MRE." In CEUR Workshop Proceedings: Working Notes for CLEF 2013 Conference, Vol. 1179. 益岡隆志,田窪行則 (1992). 基礎日本語文法一改訂版一. くろしお出版. Matsuzaki, T., Iwane, H., Anai, H., and Arai, N. (2013). "The Complexity of Math Problems Linguistic, or Computational?" In Proceedings of the 6th International Joint Conference on Natural Language Processing, pp. 73-81. Matsuzaki, T., Iwane, H., Anai, H., and Arai, N. H. (2014). "The Most Uncreative Examinee: A First Step toward Wide Coverage Natural Language Math Problem Solving." In Proceedings of the 28th AAAI Conference on Artificial Intelligence, pp. 1098-1104. Mikolov, T., Sutskever, I., Chen, K., Corrado, G., and Dean, J. (2013). "Distributed Representations of Words and Phrases and their Compositionality." In Advances in Neural Information Processing Systems 26, pp. 3111-3119. Miyao, Y. and Kawazoe, A. (2013). "University Entrance Examinations as a Benchmark Resource for NLP-based Problem Solving." In Proceedings of the 6th International Joint Conference on Natural Language Processing, pp. 1357-1365. Pang, B. and Lee, L. (2005). "Seeing Stars: Exploiting Class Relationships For Sentiment Categorization With Respect To Rating Scales." In Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics, pp. 115-124. Pasupat, P. and Liang, P. (2015). "Compositional Semantic Parsing on Semi-Structured Tables." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, pp. 1470-1480. Peñas, A., Hovy, E., Forner, P., Rodrigo, Á., Sutcliffe, R., Forascu, C., and Sporleder, C. (2011a). "Overview of QA4MRE at CLEF 2011: Question Answering for Machine Reading Evaluation." In CLEF 2011 Labs and Workshop Notebook Papers, pp. 19-22. Peñas, A., Hovy, E., Forner, P., Rodrigo, Á., Sutcliffe, R., Sporleder, C., Forascu, C., Benajiba, Y., and Osenova, P. (2011b). "Overview of QA4MRE at CLEF 2012: Question Answering for Machine Reading Evaluation." In CLEF 2011 Labs and Workshop Notebook Papers, pp. 303-320. 佐藤理史, 加納隼人, 西村翔平, 駒谷和範 (2014). 表層類似度に基づくセンター試験『国語』現代文傍線部問題ソルバー. 自然言語処理, 21 (3), pp. 465-483. Shibuki, H., Sakamoto, K., Kano, Y., Mitamura, T., Ishioroshi, M., Itakura, K. Y., Wang, D., Mori, T., and Kando, N. (2014). "Overview of the NTCIR-11 QA-Lab Task." In Proceedings of the 11th NTCIR Conference, pp. 518-529. Steedman, M. (2001). The Syntactic Process. Bradford Books. Mit Press. Watanabe, Y., Miyao, Y., Mizuno, J., Shibata, T., Kanayama, H., Lee, C.-W., Lin, C.-J., Shi, S., Mitamura, T., Kando, N., Shima, H., and Takeda, K. (2013). "Overview of the Recognizing Inference in Text (RITE-2) at NTCIR-10." In Proceedings of the 10th NTCIR Conference, pp. 385-404. 横野光, 稲邑哲也 (2013). 物理問題解答に向けた物理量の変化に着目した動作表現の解釈. 言語処理学会第 19 回年次大会発表論文集. 横野光, 稲邑哲也 (2014). 論理演算と物理シミュレーションの結合による物理問題解答. 2014 年度人工知能学会全国大会. Zang, X., Wu, Z., Meng, H., Jia, J., and Cai, L. (2014). "Using Conditional Random Fields to Predict Focus Word Pair in Spontaneous Spoken English." In 15th Annual Conference of the International Speech Communication Association, pp. 756-760. ## 略歴 松崎拓也:2002 年東京大学工学部システム創成学科卒業. 2007 年同大大学院情報理工学系研究科にて博士号 (情報理工学) 取得. 同大学助教, 国立情報学研究所特任准教授を経て, 2014 年より名古屋大学大学院工学研究科准教授.言語処理学会, 人工知能学会, 情報処理学会各会員. 横野光:2003 年岡山大学工学部情報工学科卒業. 2008 年同大大学院自然科学研究科産業創成工学専攻単位取得退学. 同年東京工業大学精密工学研究所研究員, 2011 年国立情報学研究所特任研究員, 2014 年同研究所特任助教, 現在に至る. 博士 (工学). 自然言語処理の研究に従事. 情報処理学会, 人工知能学会各会員. 宮尾祐介:1998 年東京大学理学部情報科学科卒業. 2006 年同大学大学院にて博士号 (情報理工学) 取得. 2001 年より同大学にて助手, のち助教. 2010 年より国立情報学研究所准教授. 構文解析とその応用の研究に従事. 人工知能学会, 情報処理学会, ACL 各会員. 川添愛:1996 年九州大学文学部文学科卒 (言語学専攻). 2002 年九州大学大学院文学研究科博士課程単位取得退学, 2005 年同大学より博士 (文学) 取得. 2002 年より 2008 年まで国立情報学研究所研究員, 2008 年から 2011 年まで津田塾大学女性研究者支援センター特任准教授を経て,2012 年より国立情報学研究所社会共有知研究センター特任准教授. 人工知能学会会員. 狩野芳伸:2001 年東京大学理学部物理学科卒業, 2007 年東京大学情報理工学系研究科博士課程単位取得退学. 同研究科にて博士 (情報理工学). 同研究科特任研究員, 科学技術振興機構さきがけ研究者等を経て, 2014 年より静岡大学情報学部准教授. 言語処理学会, 情報処理学会, 人工知能学会各会員.加納隼人:2010 年名古屋大学工学部電気電子・情報工学科入学. 2014 年同学科卒業. 現在, 名古屋大学大学院工学研究科電子情報システム専攻在学中. 佐藤理史:1988 年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学. 京都大学工学部助手, 北陸先端科学技術大学院大学助教授, 京都大学大学院情報学研究科助教授を経て, 2005 年より名古屋大学大学院工学研究科教授. 工学博士. 現在, 本学会理事. 東中竜一郎:1999 年慶應義塾大学環境情報学部卒業, 2001 年同大学大学院政策$\cdot$ メディア研究科修士課程, 2008 年博士課程修了. 2001 年日本電信電話株式会社入社. 現在, NTT メディアインテリジェンス研究所に所属. 質問応答システム・音声対話システムの研究開発に従事. 博士 (学術). 言語処理学会, 人工知能学会, 情報処理学会, 電子情報通信学会各会員. 杉山弘晃:2007 年東京大学工学部機械情報工学科卒業. 2009 年同大学院情報理工学系研究科知能機械情報学専攻修士課程修了. 同年日本電信電話株式会社入社. 現在, 奈良先端科学技術大学院大学情報科学研究科博士後期課程在学中. 人と自然な対話を行う雑談対話システムの研究に従事. 磯崎秀樹:1983 年東京大学工学部計数工学科卒業. 1986 年同大学院修士課程修了. 同年日本電信電話株式会社入社. 2011 年より岡山県立大学情報工学部教授. 博士 (工学). 言語処理学会, ACM, 情報処理学会, 人工知能学会, 電子情報通信学会各会員. 菊井玄一郎:1984 年京都大学工学部電気工学科卒. 1986 年同大学大学院工学研究科修士課程電気工学第二専攻修了. 同年日本電信電話株式会社入社, 2011 年より岡山県立大学情報工学部情報システム工学科教授. 博士 (情報学)。現在, 本学会理事. 堂坂浩二:1984 年大阪大学基礎工学部情報工学科卒業. 1986 年同大大学院修士課程修了. 同年日本電信電話株式会社入社. 2012 年より秋田県立大学シス テム科学技術学部教授. 博士 (情報科学). 言語処理学会, 人工知能学会, 情報処理学会, ACM 各会員. 平博順:1994 年東京大学理学部卒業. 1996 年同大学院修士課程修了. 同年日本電信電話株式会社入社. 1996 年 NTTコミュニケーション科学研究所, 2005 年 NTT デー夕技術開発本部, 2007 年 NTT コミュニケーション科学基礎研究所, 2014 年大阪工業大学情報科学部准教授. 博士 (工学)。2013 年言語処理学会優秀論文賞受賞. 言語処理学会, 人工知能学会, 情報処理学会各会員. 南泰浩:1986 年慶應大学理工学部電気工学科卒業. 1991 年同大学院博士課程修了. 同年日本電信電話株式会社入社. 2014 年より電気通信大学大学院情報システム学研究科教授. 博士 (工学)。言語処理学会, IEEE, 情報処理学会, 電子情報通信学会, 音響学会各会員. 新井紀子:1984 年イリノイ大学数学科卒業. 1990 年同大学院博士課程修了. 1994 年広島市立大学情報科学部助手. 2001 年国立情報学研究所情報基礎研究系助教授. 2006 年同情報社会相関系教授. 2008 年同社会共有知研究センター 長. 博士 (理学),2010 年文部科学省科学技術分野の文部科学大臣表彰. 日本数学会, 人工知能学会, 情報処理学会各会員. (2015 年 5 月 12 日受付) (2015 年 8 月 4 日再受付) (2015 年 9 月 12 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 集合分割問題に基づく系列アラインメントのモデル化 西野 正彬 $^{\dagger} \cdot$ 鈴木 潤 $\dagger$ - 梅谷 俊治 ${ }^{\dagger} \cdot$ 平尾 努 $\dagger \cdot$ 永田 昌明 $\dagger$ 2 つの系列が与えられたときに, 系列の要素間での対応関係を求めることを系列ア ラインメントとよぶ。系列アラインメントは,自然言語処理分野においても文書対 から対訳関係にある文のペアを獲得する対訳文アラインメント等に広く利用される。既存の系列アラインメント法は,アラインメントの単調性を仮定する方法か,もし くは連続性を考慮せずに非単調なアラインメントを求める方法かのいずれかであっ た.しかし,法令文書等の対訳文書に対する対訳文アラインメントにおいては,単調性を仮定せず,かつ対応付けの連続性を考慮できる手法が望ましい.本論文では, ある大きさの要素のまとまりを単位として系列の順序が大きく変動する場合にアラ インメントを求めるための系列アラインメント法を示す。手法のポイントは, 系列 アラインメントを求める問題を組合せ最適化問題の一種である集合分割問題として 定式化して解くことで,要素のまとまりの発見と対応付けとを同時に行えるように した点にある。 さらに,大規模な整数線形計画問題を解く際に用いられる技法であ る列生成法を用いることで,高速な求解が可能であることも同時に示す. キーワード: 系列アラインメント, 組合せ最適化, 列生成法 ## Sequence Alignment as a Set Partitioning Problem \author{ Masaaki Nishino $^{\dagger}$, Jun Suzuki ${ }^{\dagger}$, Shunji Umetani ${ }^{\dagger}{ }^{\dagger}$, \\ Tsutomu Hirao $^{\dagger}$ and Masaaki Nagata ${ }^{\dagger}$ } Sequence alignment, which involves aligning elements of two given sequences, occurs in many natural language processing (NLP) tasks such as sentence alignment. Previous approaches for solving sequence alignment problems in NLP can be categorized into two groups. The first group assumes monotonicity of alignments; the second group does not assume monotonicity or consider the continuity of alignments. However, for example, in aligning sentences of parallel legal documents, it is desirable to use a sentence alignment method that does not assume monotonicity but can consider continuity. Herein, we present a method to align sequences where block-wise changes in the order of sequence elements exist. Our method formalizes a sequence alignment problem as a set partitioning problem, a type of combinatorial optimization problem, and solves the problem to obtain an alignment. We also propose an efficient algorithm to solve the optimization problem by applying column generation. Key Words: Sequence Alignment, Combinatorial Optimization, Column Generation  ## 1 はじめに 系列アラインメントとは,2つの系列が与えられたときに,その構成要素間の対応関係を求めることをいう,系列アラインメントは特にバイオインフォマテイクスにおいて DNA P RNA の解析のために広く用いられているが, 自然言語処理においてもさまざまな課題が系列アラインメントに帰着することで解かれている. 代表的な課題として対訳文アラインメント (Moore 2002; Braune and Fraser 2010; Quan, Kit, and Song 2013) があげられる. 対訳文アラインメントは対訳関係にある文書対が与えられたときに, 文書対の中から対訳関係にある文のぺアをすべて見つけるタスクである。統計的機械翻訳においては,対訳コーパスにおいてどの文がどの文と対訳関係にあるかという文対文での対応関係が与えられているという前提のもとで学習処理が実行されるが,実際の対訳コーパスでは文書対文書での対応付けは得られていても文対文の対応付けは不明なものも多い. そのため, 対訳文書間での正しい対訳文アラインメントを求めることは精度のよいモデルを推定するための重要な前処理として位置づけられる.統計的機械翻訳以外の, 例えば言語横断的な情報検索 (Nie, Simard, Isabelle, and Durand 1999)などの課題においても対訳文書間の正しい文アラインメントを求めることは重要な前処理として位置づけられる。また,対訳文アラインメントのほかにも,対訳文書に限定されない文書間の対応付けタスクも系列アラインメントとして解かれている (Qu and Liu 2012; 角田, 乾, 山本 2015;竹中, 若尾 2012). 自然言語処理のタスクにおける系列アラインメント問題を解く手法は, 対応付けの単調性を仮定する方法とそうでない方法とに大別される。単調性を仮定する系列アラインメント法は特に対訳文アラインメントにおいて広く用いられる方法であり,対訳関係にある二つの文章における対応する文の出現順序が大きく違わないことを前提として対応付けを行う。すなわち, 対訳関係にある文書のペア $F, E$ に対し, $F$ の $i$ 番目の文 $f_{i}$ に $E$ の $j$ 番目の文 $e_{j}$ が対応するとしたら,Fの $i+1$ 番目の文に対応する $E$ の文は,(存在するならば) $j+1$ 番目以降であるという前提のもとで対応付けを行っていた。この前提は, 例えば小説のように文の順序が大きく変動すると内容が損なわれてしまうような文書に対しては妥当なものである。一方で単調性を仮定しない方法は (Qu and Liu 2012; 角田他 2015; 竹中, 若尾 2012) などで用いられており, 文間の対応付けの順序に特に制約を課さずに系列アラインメントを求める。図 1 は, それぞれ単調性を仮定した系列アラインメント,仮定しない系列アラインメントの例を表している。白丸が系列中のある要素を表現しており, 要素の列として系列が表現されている。図では 2 の系列の要素間で対応付けがとられていることを線で示している. 単調性を仮定した対応付け手法では,対応関係を表す線は交差しない。一方で仮定しない手法では交差することが分かる. 系列アラインメントにおいて単調性を仮定することは,可能なアラインメントの種類数を大きく減少させる一方で, 動的計画法による効率的な対応付けを可能とする. 先述したように, 対 (a) 単調な系列アラインメント (b) 非単調な系列アラインメント 図 1 既存の系列アラインメント法によるアラインメント例 訳文アラインメントを行う際に単調性を仮定することは多くの対訳文書に対しては妥当な仮定である。しかし, 単調性を仮定することが妥当でない対訳文書も存在する. 例えば文献 (Quan et al. 2013) では, 単調性が成り立たない文書の例として法令文書を挙げている。そのほかにも例えば百科事典や Wikipedia の記事のように一つの文書が独立な複数の文のまとまりからなる場合には,文のまとまりの出現順序が大きく変動しても内容が損なわれないことがある。このような文書においては,文の順序が大きく変動しないという前提は必ずしも正しいものではないため, 既存の単調性を仮定した系列アラインメント法では正しい対訳文アラインメントが行えない可能性が高い. 一方で,単調性を仮定しない既存のアラインメント法では非単調な対応付けを実現できるものの,対応付けの連続性を考慮することが難しいという問題がある。対応付けの連続性とは, $f_{i}$ が $e_{j}$ と対応付けられているならば, $f_{i+1}$ は $e_{j}$ の近傍の要素と対応付けられる可能性が高いとする性質のことである 1 . もし対応付けにおいて連続性を考慮しないとすると, 系列 $F$ 中のある要素 $f_{i}$ とそれに隣接する要素 $f_{i+1}$ とが, それぞれ $E$ 中で離れた要素と対応付けられてもよいとすることに相当する。対応付けの単調性を仮定できるような対訳文書の対訳文アラインメントについては,明らかに対応付けの連続性を考慮する必要がある。 さらに,単調性が仮定できないような文書のぺアに対する対訳文アラインメントにおいても,ある文とその近傍の文が常に無関係であるとは考えにくい,以上より,文アラインメントにおいては連続性を考慮することが不可欠である。また,対訳文アラインメント以外の系列アラインメントを用いるタスクにおいても,対応付けの対象となる系列は時系列に並んだ文書等,何らかの前後のつながりを仮定できるものが多いことから,連続性を考慮する必要がある。 単調性を仮定できない文アラインメントの例を示す. 図 2 は, 文献 (Quan et al. 2013)の検証 ^{1} 4$ 節以降の提案手法の説明では, 説明を簡単にするために,対応付けに順方向の連続性がある場合,すなわち $f_{i}$ と $e_{j}$ が対応付けられているならば $f_{i+1}$ は $e_{j}$ より後ろにある近傍の要素と対応付けられやすい場合のみを扱っている。しかし, 実際には提案法は順方向に連続性がある場合と同様に逆方向の連続性がある場合の対応付けを行うこともできる。逆方向の連続性とは, $f_{i}$ と $e_{j}$ が対応付けられているならば, $f_{i+1}$ は $e_{j}$ 以前の近傍の要素と対応付けられる可能性が高いとする性質のことである. 2 http://www.legistlation.gov.hk } "adopted" (領羪) means adopted in pursuance of an adoption order made under the Adoption rap (Cap) or of any adoption recognized as valid by the law of Hong Kong; "dependant" (受養人), in relation to a deceased person, means (a) the wife, husband, former wife or former husband of the deceased and any person whose marriage to the deceased has been an (b) a concubine lawfully taken by the deceased before 7 October 1971; (c) any person who- (i) was living with the deceased in the same household immediatel before the date of his death; "wife" ( (妻、妻子) means- (a) in the case of a Christian marriage or its civil equivalent, the lawful wife; and (b) in the case of any other lawful marriage- (i) the lawful wife of such marriage; or (ii) if there is more than one lawful wife, the lawful principal wife recognized as such by the personal law of the husband of such marriage, or if there is no lawful principal wife, the lawful wives so recognized. (2) In deducing any relationship for the purposes of this Ordinance- (a) an adopted person shall be treated as the child of the person or persons by whom he was adopted and not as the child of any other person; and, subject thereto; “妻”、“妻子” (wife) 指一 (a) 在基督教婚姻或與其相等的世俗婚姻中的合法妻子;及 (b) 在其他合法婚姻中一 (i) 該宗婚姻的合法妻子:或 (ii)(如有超過一個合法妻子),對丈夫本人有約束力的法律所承認的合法正妻,或(如並無合法正妻)該等法律所承認的各合法妻子; “受養人" (dependant) 就死者而言,指一 (a) 死者的妻子、丈夫、前妻或前夫,以及與死者所締結的婚姻已經作廢或遭宣布無效的人; (b) 死者在1971年10月7日以前合法納娶的妾侍; (c) 符合下列條件的人一 (i) 在緊接死者死亡的日期之前, 與死者在同一住戶內生活,如同夫位: "“領養" (adopted) 指依據根據《領養條例》(第290章)發出的領養令而領養,或依據香認為有效的方式而領養 (2)為本條例的施行而推斷關係時一 (a) 須視受領養人為領養人的子女而非其他人的子女並且在符合本段的規定下; 図 2 法令文書における非単調な対訳文アラインメントの例 おける文アラインメントの例である,BLIS は香港の法令文書の電子データベースであり,対訳関係にある英語・中国語の文書を保持している。図に示す対訳文は用語の定義を行っている箇所である。両言語の文を比べると,定義する用語の順番が英語と中国語とで異なっており,結果として,局所的には連続なアラインメントが非単調に出現する対訳文書となっている. 本論文では系列の連続性を考慮しつつ,かつ非単調な系列アラインメントを求めるための手法を提案する。このような系列アラインメント法は,単調性を仮定できない文書対の対訳文アラインメントを求める際に特に有効であると考える。仮に文書 $F$ の文が $E$ の任意の文と対応してもよいとすれば,ある文のぺアの良さを評価するスコアを適切に設定することによって,問題を二部グラフにおける最大重みマッチング問題 (Korte and Vygen 2008) として定式化して解くことができる。しかし,Fのある文が $E$ の任意の文と対応してもよいという前提では,近傍の文間のつながりを無視して対応付けを行うことになる。実際の文書ではすべての文がその近傍の文と無関係であるとは考えにくいため, 正しい対応付けが行えない可能性が高い。そこで,提案手法では対訳文アラインメントを組合せ最適化の問題の一つである集合分割問題として定式化して解く,集合分割問題は,ある集合 $S$ とその部分集合族 $S_{1}, \ldots, S_{N}$ が与えられたときに, スコアの和が最大となるような $S$ の分割 $\mathcal{D} \subseteq\left.\{S_{1}, \ldots, S_{N}\right.\}$ を見つける問題である. ここで $\mathcal{D}$ が $S$ の分割であるとは, $S=\cup_{S_{i} \in \mathcal{D}} S_{i}$ かつ $i \neq j$ ならば任意の $S_{i}, S_{j} \in \mathcal{D}$ について $S_{i} \cap S_{j}=\emptyset$ となることをいう。 2 の系列 $F, E$ のある部分列に対する単調な系列アラインメントの集合を $S_{1}, \ldots, S_{N}$ として表現することで,部分列に対するアラインメントの集合 $S_{1}, \ldots, S_{N}$ から系列全体の分割となるような部分集合を選択する問題として $F, E$ 全体に対する系列アラインメン卜を求めることができる. また,本論文では集合分割問題としての系列アラインメントの定式化とともに,その高速な求解法も同時に示す。提案する集合分割問題に基づく定式化を用いると,系列 $F, E$ に含まれ る要素の数が増加するに伴い,急激に厳密解の求解に時間がかかるようになるという課題がある.これは, それぞれの系列に含まれる要素の総数を $|F|,|E|$ とすると, 集合分割問題に出現する変数の数 3 が $O\left(|F|^{2}|E|^{2}\right)$ となるためである。集合分割問題は NP 困難であり,変数の数が増加すると各変数に対応する重みの計算および整数線形計画法ソルバを用いた求解に時間がかかるようになる。本論文ではこの課題に対処するために,多くの変数が問題中に出現する大規模な線形計画問題を解く際に用いられる,列生成法 (Lübbecke and Desrosiers 2005) を用いることで高速な系列アラインメントを実現する近似解法も同時に提案する。列生成法は大規模な問題の解を, 出現する変数の個数を制限した小さな問題を繰り返し解くことによって求める手法である,列生成法を用いることによって,そのままでは変数の数が膨大となり解くことができなかった問題を解くことができる。なお,列生成法を用いることで線形計画問題の最適解を得られることは保証されているが, 整数線形計画問題については解を得られることは必ずしも保証されていない。そこで本論文では列生成法で得られた近似解を実験によって最適解と比較し,よい近似解が得られていることを確認する。 なお,以下では説明を簡単にするために特に対訳文書の対訳文アラインメントに話題を限定して説明を進める。ただし, 系列の要素間のスコアさえ定まれば提案法を用いて任意の系列のペアに対する系列アラインメントを行うことが可能である. ## 2 関連研究 対訳文アラインメントに関しては, これまで,文の長さを対応付けに利用する方法 (Gale and Church 1993),語の翻訳確率と文の長さを利用する方法 (Moore 2002; Braune and Fraser 2010) などが提案されてきているが,ほとんどの方法でアラインメントの単調性を仮定している,単調性を仮定することによって動的計画法によって効率的に対訳文アラインメントを求めることができるという利点はあるが, 序章で述べたように単調性が成り立たない文書対に対しては正しいアラインメントを求めることができないという点がある. Deng らは系列マッチングとクラスタリングをあわせて利用することで,文の順序が入れ替わる場合でも対訳文アラインメントを行える手法を提案している (Deng, Kumar, and Byrne 2007). しかし, Deng らの手法は, ある隣接する二つの文の順序が入れ替わるなど,順序の入れ替わりが小さい範囲で起きることを想定した手法であり,より大きな範囲での順序の入れ替わりには対処できない. 対訳文間の単調性を仮定しない, 非単調な対訳文アラインメントを求めるための手法として,近年 Quan らは半教師あり学習の枠組みに基づく文対応付け手法を提案している (Quan et al. 2013). 彼らの手法は基本的には二部グラフマッチングに基づくアラインメント法であるが, 各  文書における文間の類似度合いを対応付けのための目的関数に用いている点が特徴的である。 Quan らの手法と比較すると,提案法は文のまとまり単位のアラインメントをより明示的に意識した手法となっていることが異なる,Quan らの手法は隣り合う文間の関係を明示的には考慮しないため, 対訳文書間で文の出現順序が全く異なる文書により適している。また,Quan らの手法は二部グラフマッチングに基づく手法のため多対多のアラインメントには対応できないが,提案法は内部で呼び出す既存の単調性を仮定した対訳文アラインメント法を多対多のマッチングを考慮するものに変更することによって,容易に多対多の対訳文アラインメントを行うように拡張できる点も異なる。 対訳文アラインメント以外にも,さまざまな自然言語処理のタスクが系列アラインメント問題として定式化され解かれている。例えば質問応答ウェブサイトにおける質問と回答との対応付け (Qu and Liu 2012)や,ウェブサイトにおけるレビュー文とそれに対する返答のペア (角田他 2015), 条例文 (竹中, 若尾 2012)の対応付けといったタスクなどがある. 対訳文アラインメント以外の自然言語処理における重要な系列アラインメント問題の適用先として,単語アラインメントが挙げられる,単語アラインメント問題に関しては非単調なアラインメントを求めるための手法が数多く提案されてきている. Brown らは, 原言語の各単語は必ず目的言語のある単語に対応付けられるなどの制約のもとで, 生成モデルに基づいた単語の非単調なアラインメントを行っている (Brown, Petra, Pietra, and Mercer 1993)。また, Wu は反転トランスダクション文法に基づいた非単調な単語アラインメント法を提案している (Wu 1997). これらのうち, (Brown et al. 1993) は単語アラインメントに固有の性質を扱っており, 本論文で扱っている対訳文アラインメントに直接適用するのは難しい。また,反転トランスダクション文法に基づく手法は,提案法に類似の非単調な対訳文アラインメントを実現可能な文法規則を設計できる。しかし, 反転トランスダクション文法では連続な文間の非単調なアラインメントの形態が制限される点が提案手法と異なる. ## 3 単調性を仮定した対訳文アラインメント法 提案法の説明の準備として,単調性を仮定した動的計画法に基づく既存の対訳文アラインメント法について説明する。単調性を仮定した対訳文アラインメント法では,対訳文書 $F, E$ のある文のぺア $s \in F, t \in E$ が対応付けられた時のスコア $S(s, t)$ が与えられたときに 4 ,スコアの総和が最大となるような単調な対訳文アラインメントを求める。アラインメントの単調性を仮定すると,最適な系列アラインメントは動的計画法を用いることで高速に求めることができる。  これまでにさまざまなスコア $S(s, t)$ の定義が提案されてきているが, 代表的な対訳文アラインメント法である Moore による手法 (Moore 2002) では, 文の長さと文中の語の翻訳確率とを用いることでペアのスコアを定義し, 対訳文アラインメントに含まれるぺアのスコアが最大となるようにアラインメントを求める。具体的には, $s \in F$ である文 $s$ と $t \in E$ である文 $t$ とのぺアのスコア $S(s, t)$ を $ S(s, t)=\frac{P\left(m_{s}, m_{t}\right)}{\left(m_{s}+1\right)^{m_{t}}}\left(\prod_{j=1}^{m_{t}} \sum_{i=1}^{m_{s}} \operatorname{tr}\left(t_{j} \mid s_{i}\right)\right)\left(\prod_{i=1}^{m_{s}} u\left(s_{i}\right)\right) $ として定める。ここで, $m_{s}, m_{t}$ はそれぞれ文 $s, t$ に含まれる単語の総数である。また $, s_{i}, t_{j}$ はそれぞれ $s$ の $i$ 番目の語, $t$ の $j$ 番目の語を表す. $t r\left(t_{j} \mid s_{i}\right)$ は語 $s_{i}$ が $t_{j}$ に翻訳される確率である. $u\left(s_{i}\right)$ は語 $s_{i}$ の文書中での相対頻度を表す. $P\left(m_{s}, m_{t}\right)$ は, 文の長さ(語の数)に応じてスコアを定める関数であり, ポアソン分布を用いて $ P\left(m_{s}, m_{t}\right)=\frac{\exp \left(-m_{s} r\right)\left(m_{s} r\right)^{m_{t}}}{m_{t} !} $ として定義される。 $r$ はパラメータである。各確率分布は (Brown et al. 1993) にある手法によってデータから推定できる。 ## 4 集合分割問題に基づく対訳文アラインメントのモデル化 本論文で提案する対訳文アラインメント法の概観を示す。提案法のポイントは,文書を連続する文のまとまりに分割してアラインメントを求める点にある。 すなわち,対訳文書のそれぞれを同数の文のまとまりに分割したのち, (1) どの文のまとまり同士が対応付けられるか (2)対応付けられた文のまとまりのペアの中で,どの文のペアが対応付けられるかを同時に求めることで対応付けを行う。このときに (1)について非単調な対応付け, (2) については単調な対応付けを行うことによって,連続性を考慮した非単調な対応付けを実現する。それぞれの文書を 3 つのまとまりに分割したときの提案法による対訳文アラインメントの様子を図 3 に示す。図中の白い丸がひとつの文に対応している。また, 複数の丸を囲む四角が文のまとまりを表す。図より,文のまとまり同士の対応付けにおいては非単調な対応付けを行っていることと, 文のまとまりに含まれている文同士の対応付けにおいては単調な対応付けを行っていることが分かる,文のまとまりに含まれる文同士の対応付けは,既存の単調な対訳文アラインメント法によって行われる。つまり,対応付けられる各文書を 1 つのまとまりだとみなした場合は, 文書全体で単調な対応付けを行うことになるため, 提案手法は既存の対訳文アラインメント法と同等である. 図 3 提案法による対訳文アラインメントの概観。各文書を 3 つの連続する文のまとまりに分割し,文のまとまり間で非単調な対応付けを行っている。対応付けられた文のまとまりのぺアに含まれる文間では,単調な対応付けを行っている,結果として文書全体に対する対訳文アラインメントが得られている. 以下で用いる記法について述べる。対応付けをとる対象の 2 つの文書を $F, E$ とし,それぞれ $|F|,|E|$ 個の文からなるとする。 $f_{i}$ を $F$ に含まれる $i$ 番目の文, $e_{k}$ を $E$ に含まれる $k$ 番目の文とする.Fの $i$ 番目から $j$ 番目までの連続する文の集合を $f_{i j} \subseteq F$ とする.たたし $1 \leq i \leq j \leq|F|$ である。同様に, $e_{k l} \subseteq E$ は $E$ の $k$ 番目から $l$ 番目までの連続する文の集合とする. たたし $1 \leq k \leq l \leq|E|$ である.また, $a_{i j k l}$ を文のまとまりのぺア $\left(f_{i j}, e_{k l}\right)$ を表現するために用い, $f\left(a_{i j k l}\right)=f_{i j}, e\left(a_{i j k l}\right)=e_{k l}$ と定義する. 文のまとまり $f_{i j}$ と $e_{k l}$ のペアに対して,既存の単調性を仮定した対訳文アラインメント法を適用することによって得られる文アラインメントのスコアを $\operatorname{seqMatch}\left(f_{i j}, e_{k l}\right)$ とする。すなわち, $f_{i j}, e_{k l}$ 間のある単調なアラインメントを $X$, すべての単調な対訳文アラインメントの集合を $\mathcal{A}_{i j k l}$ とすると, $\operatorname{seqMatch}\left(f_{i j}, e_{k l}\right)$ は $ \operatorname{seqMatch}\left(f_{i j}, e_{k l}\right)=\max _{X \in \mathcal{A}_{i j k l}} \sum_{(s, t) \in X} S(s, t) $ として定義される. ## 4.1 集合分割問題に基づく定式化 前節で定義した $\operatorname{seqMatch}\left(f_{i j}, e_{k l}\right)$ は,文のまとまり $f_{i j}$ と $e_{k l}$ のペアに対する対応付けスコアであるとみなすことができる。このスコアを用いて文のまとまり同士の一対一の対応付けを求める.文のまとまり同士の対応付けを求めることができれば,それに含まれる文間の対応付けは $\operatorname{seqMatch}\left(f_{i j}, e_{k l}\right)$ を求める際に既に求めてあるため, 結果として対訳文アラインメントが得られる,可能なすべての文のまとまりのぺア $a_{i j k l}$ の集合を $\mathcal{M}$ とすると,ある文アラインメン卜は,M部分集合であり,かつ文書対の分割となっているような文のまとまりのぺアの集合 $A \subseteq \mathcal{M}$ として表現できる。ただし, $A$ に含まれる任意の文のまとまりのぺア $a, a^{\prime} \in A$ について $f(a) \cap f\left(a^{\prime}\right)=\emptyset$ かつ $e(a) \cap e\left(a^{\prime}\right)=\emptyset$ であり,$\cup_{a \in A} f(a)=F$ かつ $\cup_{a \in A} e(a)=E$ を満たすもの とする,上記の条件を満たす $A$ の集合を $\mathcal{A}$ とすると,対訳文アラインメントを求める問題は, $ \hat{A}=\underset{A \in \mathcal{A}}{\operatorname{argmax}}\{\operatorname{score}(A)\} $ として,マッチングのスコアを最大とする $\hat{A}$ 求める問題として定式化することができる。ここで score(A)は, $F$ と $E$ に対する分割 $A$ を定めたときのスコアであり,以下のように定義する. $ \operatorname{score}(A)=\lambda^{K} \prod_{a \in A} \operatorname{seqMatch}(f(a), e(a)) $ ここで $K$ は $A$ 中に含まれる文のまとまりのぺアの総数, $\lambda$ はぺアの個数に応じて課されるぺナルティを表すパラメタであり, $0<\lambda \leq 1$ を満たすように設定する。 $\lambda=1$ とすると解に出現する文のまとまりのぺアの個数に制限をつけないことに相当するため,文の連続性を考慮しな まりの個数に対して大きなぺナルティを与えることに相当するため,できるだけ小ない個数の文のまとまりが解に含まれるようになる,入をある程度以上小さな値に設定すると常に 1 つの文のまとまりのペアに分割されるようになる。これは既存の単調な対訳文アラインメントと等しい. 式 (5) の対数をとると, $\operatorname{score}(A)$ は文のまとまりのペア $a$ に対する線形式に置き換えることができる。よって, ここでの対訳文アラインメント問題は整数線形計画問題 (ILP) として定式化することができる。ILPによる定式化は, $ \begin{aligned} & \operatorname{maximize} \sum_{i j k l}\left(w_{i j k l}+\log \lambda\right) y_{i j k l} \\ & \text { subject to } \sum_{i, j: i \leq x \leq j} \sum_{k l} y_{i j k l}=1 \quad \forall x: 1 \leq x \leq|F| \\ & \sum_{i j} \sum_{k, l: k \leq x \leq l} y_{i j k l}=1 \quad \forall x: 1 \leq x \leq|E| \\ & y_{i j k l} \in\{0,1\} \quad \forall i, j, k, l \end{aligned} $ となる.ここで, $w_{i j k l}$ は $\log \operatorname{seq} \operatorname{Match}\left(f_{i j}, e_{k l}\right)$ の值である。 $y_{i j k l}$ は文のまとまりのぺア $a_{i j k l}$ をアラインメントに含むことを表す変数であり,$y_{i j k l}=1$ のときは $a_{i j k l}$ が対訳文アラインメントに含まれるとする。制約 (7) は, $F$ 中の $x$ 番目の文を含むすべての文のまとまりのぺア $a_{i j k l}$ のうち, 必ず 1 つだけが解に選択されることを保証するものである. (8) は同様の制約を $E$ に課したものであり,これら 2 つの制約を併せて $F$ と $E$ に含まれる各文が最終的に得られた文のまとまり同士の対応付けのいずれか 1 つに必ず含まれることを保証する。今回用いた定式化は,任意のペア $\left(f_{i j}, e_{k l}\right)$ に対応する集合の集まりである集合族に対する集合分割問題となっている。なお, 提案法は既存の単調な文アラインメント法として, 多対多のアラインメントを求 めることができる手法を用いることによって, 非単調な多対多のアラインメントを実現することができる 5. ## 5 列生成法 式 (6) から (9) からなる整数線形計画問題はすべての文のまとまりのぺア数に対応する数の変数を含む. このようなぺアは $|F||E|(|F|+1)(|E|+1) / 4$ 種類存在するため, 文の数が増加すると整数線形計画問題に含まれる変数の数が急増し, 解を求めるのに時間がかかるという問題がある。本論文では列生成法 (Lübbecke and Desrosiers 2005)を用いた近似解法を導入することでこの問題に対応する。一般的な整数線形計画問題の解法では,すべての変数を求解時に明示的に扱って解を求めるが, 列生成法では目的関数の増加に寄与する可能性がある変数を逐次的に追加しながら問題を解くことで解を求める。最適解において非ゼロとなる変数の数が問題全体で扱う変数の数に対して非常に小さい場合, 最適解においてゼロとなる変数を考慮せずに解が得られる可能性が高いことから,列生成法によって高速に解を得られることが期待できる。 以下,列生成法に基づく解法の詳細を述べる.列生成法を導入するにあたり,いくつかの概念を定義する。まず,式 (6) から (9) からなる整数線形計画問題を線形緩和した問題,つまり制約 $a_{i j k l} \in\{0,1\}$ を $0 \leq a_{i j k l} \leq 1$ へと緩和した問題を主問題 (Master problem: MP) とよぶ.主問題に含まれるすべての変数の集合を $\mathcal{M}$ とする。 MPからいくつかの変数を取り除いた問題を制限された主問題 (Restricted master problem: RMP) とよぶ. RMP に出現する変数の集合を $\mathcal{M}^{\prime} \subseteq \mathcal{M}$ と表す. ある線形計画問題の双対問題とは, もとの問題の各変数にそれぞれ対応する制約条件と,もとの問題の各制約条件に対応する変数からなる線形計画問題のことである. RMP に対しても双対問題を考えることができる。双対問題において RMP における文 $f_{n}$ に関する制約に対応する変数を $u_{n}, e_{m}$ に関する制約に対応する変数を $v_{m}$ とする. 線形計画問題が最適解を持つのであれば,最適解の值はそれは双対問題の最適解の值と一致することが知られており,RMPの最適解を単体法を用いて得ることができたならば,双対問題の最適解も容易に計算可能である。 列生成法は RMP の求解と RMP に追加する変数を求める問題とを繰り返し解くことで MP を解く。追加する変数を求める問題は列生成部分問題とよばれ, 具体的には $a_{i j k l} \in \mathcal{M} \backslash \mathcal{M}^{\prime}$ であるような $a_{i j k l}$ のうち, -e_{4}, f_{2}-e_{3}, f_{3}-e_{2}, f_{4}-e_{1}$ といったような逆順で単調なアラインメントを解の一部として含むようにすることも可能である。具体的には式 (3) において $\operatorname{seqMatch}\left(f_{i j}, e_{k l}\right)$ を通常順,逆順の全ての可能な対応付けからスコアを最大にするものを選択するように修正すればよい。逆順の単調なアラインメントは,片方の系列を逆順にしたうえで,単調性を仮定した動的計画法によるアラインメント法を実行することで求めることができる. } $ \bar{w}_{i j k l}=w_{i j k l}+\log \lambda-\sum_{n=i}^{j} \hat{u}_{n}-\sum_{m=k}^{l} \hat{v}_{m} $ を最大とするものを一つ求める問題である。ここで, $\hat{u}_{n}$ は RMP の双対問題の最適解における変数 $u_{n}$ の値, $\hat{v}_{m}$ は変数 $v_{m}$ の値とする.以下では $\bar{w}_{i j k l}$ のことを被約費用とよぶ. ある RMP を解いた後に各変数に対する被約費用がすべて負となるとき,RMP の最適解は MP の最適解となることが知られている。最適解において多くの変数の値がゼロとなるような問題においては, 出現する変数の数が MP よりも大幅に少ないRMP を解くことで MP の最適解が得られることが期待できるため, 列生成法は大規模な最適化問題を高速に解くことができる. 列生成部分問題を解くことを考える。前述のとおり,変数は $|F||E|(|F|+1)(|E|+1) / 4$ 個あるため, その全てについて被約費用を求めるのは困難である。 しかし, スコア $w_{i j k l}$ が 3 章で述べたように動的計画法によって求められること,および被約費用の式 (10)において $\hat{u}_{n}, \hat{v}_{m}$ が対応する文ごとにそれぞれ独立に作用していることを利用すると,最大の被約費用を SmithWaterman 法 (Smith and Waterman 1981)に類似した動的計画法によって求めることができる. Smith-Waterman 法はバイオインフォマティクスの分野で提案された, 配列の局所アラインメントを求めるためのアルゴリズムであり, 動的計画法に基づいて長さ $N, M$ の二本の配列に対する局所アラインメントを $O(N M)$ 時間で求めることができる. ここで局所アラインメントとは, 二本の配列の可能な部分配列間の系列アラインメントのうち, スコアを最大とするもののことである.動的計画法は以下の局所アラインメントの再帰的な定義に沿って計算する。なお,以下では説明を簡単にするため, 提案法内で利用する単調なアラインメントを求める手法が一対一のアラインメントのみを求めると仮定している. しかし, 多対多のアラインメントを求めることができる手法を利用した場合であっても,下記の再帰式を容易に拡張することが可能である ${ }^{6}$. $q[j, l]$ をその末尾の要素がそれぞれ $f_{j}, e_{l}$ であるような文のまとまりのぺアの被約費用 $\bar{w}_{i j k l}$ $(1 \leq i \leq j, 1 \leq k \leq l)$ の最大値とすると, $q[j, l]$ は $ q[j, l]=\max \left.\{\begin{array}{l} \log \lambda \\ q[j-1, l-1]+S\left(f_{j}, e_{l}\right)-\hat{u}_{j}-\hat{v}_{l} \\ q[j-1, l]+S\left(f_{j}\right)-\hat{u}_{j} \\ q[j, l-1]+S\left(e_{l}\right)-\hat{v}_{l} \end{array}\right. $ として再帰的に計算することができる. なお $q[0,0]=\log \lambda$ とする. ここで $S\left(f_{j}, e_{l}\right), S\left(f_{j}\right), S\left(e_{l}\right)$ は,既存の単調性を仮定した(例えば(Moore 2002)など)対訳文アラインメント法において利用されるスコアであり,それぞれ文 $f_{j}$ と文 $e_{l}$ とを対応付けたときのスコア, $f_{j}$ を $E$ どの文  とも対応させなかったときのスコア,$e_{l}$ を $F$ のどの文とも対応させなかったときのスコアである. 最上段の選択肢 $\log \lambda$ は, $f_{j+1}, e_{l+1}$ を開始位置とする文のまとまりのぺアの被約費用が, $f_{j}, e_{l}$ を含む文のまとまりのペアの被約費用よりも必ず大きくなるときに選択される。すべての $1 \leq j \leq|F|, 1 \leq l \leq|E|$ について動的計画法によって $q[j, l]$ を計算したのちに, それらのうち最大値をとることで被約費用の最大値を求めることができる。 さらに, $q[j, l]$ を計算する際に (11) のどの式をもとに計算したかを記憶しておけげ,最大值をとる $q[j, l]$ からバックトラッキングを実行することによって被約費用を最大とする $x_{i j k l}$ を求めることができる。すなわち, (11)の 4 種類の選択肢のうち,下 3 種類の選択肢のいずれかが利用されたのであればそれぞれの式中に出現している $q[j-1, l-1], q[j-1, l], q[j, l-1]$ のいずれかに遷移し, バックトラッキングを続ける. もし最上段の選択肢 $\log \lambda$ が利用されたのであれば,そこでバックトラッキングを終了する. バックトラッキングを終了したときの状態を $q\left[j^{\prime}, l^{\prime}\right]$ とすると, $i=j^{\prime}+1, \quad k=l^{\prime}+1, \quad$ として $i$ と $k$ が求まる. すべての $q[j, l]$ を計算する動的計画法は $O(|F||E|)$, バックトラッキングは高々 $O(|F|+|E|)$ 時間で実行できるため,Smith-Waterman 法によって被約費用を最大とするアイテムを効率的に選択できる。 列生成法の手順を図 4 に示す。まず RMP に含まれる変数の集合を $\mathcal{M}^{\prime}=\left.\{x_{1|F|, 1|E|}\right.\}$ として初期化する (line 1)、 $x_{1|F|,|| E \mid}$ はすべての文からなる文のまとまりであり, 実行可能解であることから,以降の RMP は必ず実行可能解をもつことが保証される.以降,RMP の求解7 (line 3) と Smith-Waterman 法による列生成部分問題の求解 (line 4) とを繰り返す。もしすべての変数で被約費用が負となったら (line 5), その時点で MP の最適解が得られていることになるので,最後に現在の RMP に整数制約を追加したうえで整数線形計画問題を解いて得られた解を出力する (line 8).ここで,RMP に整数制約を追加して得られた解が必ずしも元の MP に整数制約を追加して得られた解と一致するわけではないことに注意する必要がある。 すなわち, 提案法 1: $\bar{w}_{1|F|, 1|E|}$ を計算し変数 $x_{1|F|, 1|E|}$ を RMP に追加する. ## 2: loop RMP を解く. 列生成部分問題を解き,被約費用を最大とするアイテム $x_{i j k l}$ を選択する. if 最大の費約費用 $\bar{w}_{i j k l}$ が負 then ## break end if RMP に変数 $x_{i j k l}$ を追加する. end loop 10: RMP に整数制約を追加し,整数線形計画問題として解く. 図 4 列生成法を用いた近似アルゴリズム  はヒューリスティクスであり,必ずしも厳密な最適解を得られるわけではない,そこで検証によって厳密解との差を評価する。 ## 6 検証 ## 6.1 検証設定 提案手法の有効性を検証する。非単調な系列アラインメントはいくつかの研究で検証されているが,正解の対応付けが公開されていないことから,今回は検証のためのデータとして文対応が既知である日本語と英語の対訳文書から生成した人工データを用いた。対訳文書はそれぞれ約 25,000 文からなる。この文書から取り出した 2,500 文から文の長さが一定以上に長いものと短いものとを除いたものをテストデータを生成する元データ,残りを翻訳確率等を推定するための訓練データとして用いた。 テストデータの生成手順は以下のとおりとする。まず,元デー夕のそれぞれの文書集合から, $K$ 個の対応関係にある連続する文のまとまりをランダムに取り出す。なお,対応関係にある文のまとまりには,対訳関係になっていない文も含まれる,その後,取り出した文のまとまりをランダムに並べなおしたのちに,各まとまりに含まれる文を順に並べることで文のまとまり単位での移動があるデータセットを作成した. テストデータの文の数は日本語, 英語ともに 60 文とし,まとまりの数は $K=1,3,6,12,20$ とした。このデータセットを以下では対称データセットとよぶ. $K=1$ のときは単調な対訳文アラインメントを求める問題となっている. 次に, 日本語と英語の文の数が異なるデータセットも同様に作成した。こちらでは日本語の文数を 60 文,英語の文数を 40 文とし, 日本語の 20 文は対応する文が存在しないようにした。日本語のまとまりの数は $K=3,6,12$ とし, 英語のまとまりの数は日本語のまとまりの数の $2 / 3$ とした. このデータセットを以下では非対称データセットとよぶ。最後に,日本語と英語からそれぞれ 60 文選ぶが,そのうち対応関係にあるのは 40 文であり, 残りの日本語・英語の 20 文は対応する文が存在しないようなデータも作成した,以下では対応なしデータセットとよぶ,文のまとまりの数は $K=3,6,12$ とし, そのうち $1 / 3$ については対応する文が存在しないものとした. 比較対象として, Moore らによる系列マッチングに基づく手法 (Moore) と, 二部グラフの重み最大マッチングとして解いた方法 (BM) とを用いた。なお,重み最大マッチングにおける対応付けの重みは式 (1)を用いた。評価は Moore(Moore 2002) にならって, 文の対応付けの再現率 (recall), 適合率 (precision), F 値 (F-measure) を算出した。対称, 非対称の各データセットについて, 異なる $K$ ごとに 5 つのデータセットを生成し, その平均値を最終的な評価値とした.翻訳確率の算出には GIZA++(Och and Ney 2003) を用いた. 整数線形計画問題のソルバとして ILOG CPLEX を用いた。文のまとまりの個数に対するぺナルティ $\lambda$ は, $\lambda=0.1$ と $\lambda=0.01$ の 2 種類を試した。 ## 6.2 結果 実験結果を表 $1,2,3$ に示す. 表中の SP + ILP は集合分割問題を整数線形計画問題ソルバで解いた結果, SP + CGは集合分割問題を列生成法で解いた結果を表す。また,BM は二部グラフマッチングによって対訳文アラインメントを行った結果, Moore は Moore らの手法 (Moore 2002)を適用した結果をそれぞれ表す。表より,対称データセットで $K=1$ の場合を除く,いずれのデータセット,および $K$ の值においても, $\lambda=0.1$ としたときの提案手法 (厳密解) が 2 種類のベースラインよりも高い $\mathrm{F}$ 值を示していることが分かる。対称データセットで $K=1$ の場合は単調な対訳文アラインメントとなることから,単調性を仮定する Moore の手法の方がやや高い $\mathrm{F}$ 値を示している。しかし, 提案法との差分は 0.003 ポイントと小さい. 次に $\lambda$ の值の 表 1 再現率, 適合率, $\mathrm{F}$ 値の比較(対称デー夕) 表 2 再現率, 適合率, $\mathrm{F}$ 値の比較(非対称デー夕) 表 3 再現率, 適合率, $\mathrm{F}$ 値の比較(対応なしデータ) 違いによる影響を厳密解同士で比較すると, いずれのデータセットにおいても $K=1,3$ のときは $\lambda=0.01$ の方が $\lambda=0.1$ のときよりもやや高い $\mathrm{F}$ 值を示し, 一方で $K=6,12,20$ のときには $\lambda=0.1$ の方が高い值を示していることが分かる. これは, $\lambda$ が文のまとまりの個数に対するぺナルティであり,入が小さいほど大きなぺナルティを与えていることによって説明できる。つまり,Kが小さいときは文のまとまりの個数が小さくなりがちな $\lambda=0.01$ の方がよい結果を出力し, $K$ が大きいときはより多くのまとまりが出現することを許容する $\lambda=0.1$ の方がよい結果を出力していると考えられる.Mooreによる対応付け手法は単調性を仮定した手法であるため,他の方法と比べると極端に $\mathrm{F}$ 値が悪くなっているのが確認できる. 次に提案手法で厳密解を求めたときと, 列生成法による近似解を求めたときとの結果を比較する。再現率, 適合率, $\mathrm{F}$ 値の低下度合いは, 今回の検証では最大で 0.08 ポイント程度の低下におさまっていることが確認できた. 特に $\lambda=0.1$ のときはいずれのデータに対しても 0.03 ポイント程度の低下におさまっている。なお, 表 1 では列生成法のほうが厳密解法よりも再現率,適合率, $\mathrm{F}$ 値が大きくなる結果が得られているが, これは目的関数と評価指標とが必ずしも一致するわけではないことに起因すると考えられる. 厳密解法と列生成法との平均計算時間の比較を表 4 に示す。表より, CPLEXで数十秒から数百秒かかっていた問題が列生成法によって数秒で解けていることが確認できる。すべてのデー 夕で 30 倍から 400 倍程度の高速化が達成できたが,特に変数の総数が多い対称デー夕, 対応なしデータではほぼすべての設定で 100 倍以上の高速化が確認できた。表 5 に利用された変数の数を示す。集合分割問題をそのまま整数線形計画問題ソルバによって解くと,今回扱ったような数十文程度の対応付けであっても $10^{6}$ 個程度の変数を明示的に扱う必要がある. 扱う変数の個数が多いほどソルバによる求解には時間がかかるため, 文の数が増加するとさらに求解に時間がかかる可能性が高い。一方で列生成法を用いた場合は,最適解において非零になる可能性がある変数しか扱わないため, 最終的に利用された変数は $10^{3}$ 個程度となり, 問題をソルバで素朴に解いた場合と比較して利用される変数の数が大幅に少ないことが分かる. 問題中に出現する変数の個数が少ないとソルバによって高速に解を求めることが可能であるため, 列生成法 表 4 実行時間の比較 (a) 対称データ $(\lambda=0.1)$ (b) 対称データ $(\lambda=0.01)$ (c) 非対称データ $(\lambda=0.1)$ (e) 対応なしデータ $(\lambda=0.1)$ (d) 非対称データ $(\lambda=0.01)$ (f) 対応なしデータ $(\lambda=0.01)$ は高速に動作したと考えられる。 提案法は NP 困難問題である集合分割問題を解いているため,厳密解法の実行時間は問題サイズに対して指数的に増加する。一方で,既存の単調性を仮定した動的計画法に基づく対訳文アラインメント法は, 問題サイズに対して多項式時間で動作する。 そのため, 提案法は列生成法による近似解法を用いたとしても実行時間的には既存手法に対する優位性はない。一方で,対訳文アラインメントはおもに対訳文コーパスを作成するために用いられる技術であり,コー パス生成に用いるために問題とならない速度で動作することが重要である。実験結果が示すように,列生成法による対訳文アラインメント法は数十文からなる対訳文書の文アラインメントを数秒で行うことができるため,提案法は十分に実用に足る技術であるといえる. 最後に,対称データにおいて入力文のサイズを変化させたときの,厳密解法と列生成法の実行時間の変化を図 5 に示す。図の横軸が入力のサイズであり,縦軸が実行時間を表す。なお,実行時間が 3,600 秒を超えたら実験を打ち切りとしている。 入力サイズが大きくなるほど,列生成法と厳密解法の差が広がる傾向があることが分かる. 表 5 出現した変数の数の比較 (a) 対称データ $(\lambda=0.1)$ (b) 対称データ $(\lambda=0.01)$ (c) 非対称デー夕 $(\lambda=0.1)$ (e) 対応なしデータ $(\lambda=0.1)$ (d) 非対称データ $(\lambda=0.01)$ (f) 対応なしデータ $(\lambda=0.01)$ 図 5 入力サイズを変化させたときの実行時間の変化 ## 7 おわりに 本論文では,対応付けの連続性を考慮しつつ非単調な系列アラインメントを求めるための方法を提案した。集合分割問題として定式化し, 整数線形計画法を用いて解くことによって, 既存手法では対応付けをとるのが難しい状況でも対応付けができることを示した. このような方法は,特に単調性を仮定できないような文書対に対する対訳文アラインメントにおいて効果的である。 さらに,数理計画法の分野で大規模な問題を解く際に利用される技法である列生成法を適用することによって, 最適化問題を解くときに扱わなけれげならない変数の数および各変数のスコアの計算に必要となる動的計画法の実行回数を劇的に減らすことができ, 結果として高速な求解を可能とした。 ## 参考文献 Braune, F. and Fraser, A. (2010). "Improved Unsupervised Sentence Alignment for Symmetrical and Asymmetrical Parallel Corpora." In Proceedings of COLING 2010, pp. 81-89. Brown, P. F., Petra, S. A. D., Pietra, V. J. D., and Mercer, R. L. (1993). "The Mathematics of Statistical Machine Translation: Parameter Estimation." Computational Linguistics, 19 (2), pp. 263-311. Deng, Y., Kumar, S., and Byrne, W. (2007). "Segmentation and Alignment of Parallel Text for Statistical Machine Translation." Natural Language Engineering, 13 (3), pp. 235-260. Gale, W. A. and Church, K. W. (1993). "A Program for Aligning Sentences in Bilingual Corpora." Computational Linguistics, 19 (1), pp. 75-102. Korte, B. H. and Vygen, J. (2008). Combinatorial Optimization: Theory and Algorithms. Springer Verlag. Lübbecke, M. E. and Desrosiers, J. (2005). "Selected Topics in Column Generation." Operations Research, 53 (6), pp. 1007-1023. Moore, R. C. (2002). "Fast and Accurate Sentence Alignment of Bilingual Corpora." In Proceedings of AMTA'02, pp. 135-144. Nie, J.-Y., Simard, M., Isabelle, P., and Durand, R. (1999). "Cross-language Information Retrieval Based on Parallel Texts and Automatic Mining of Parallel Texts from the Web." In Proceedings of the 22nd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 74-81. ACM. Och, F. J. and Ney, H. (2003). "A Systematic Comparison of Various Statistical Alignment Models." Computational Linguistics, 29 (1), pp. 19-51. Qu, Z. and Liu, Y. (2012). "Sentence Dependency Tagging in Online Question Answering Forums." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 554-562, Jeju Island, Korea. Association for Computational Linguistics. Quan, X., Kit, C., and Song, Y. (2013). "Non-Monotonic Sentence Alignment via Semisupervised Learning." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 622-630, Sofia, Bulgaria. Association for Computational Linguistics. Smith, T. F. and Waterman, M. S. (1981). "Identification of Common Molecular Subsequences." Journal of Molecular Biology, 147, pp. 195-197. 竹中要一, 若尾岳志 (2012). 地方自治体の例規比較に用いる条文対応表の作成支援. 自然言語処理, 19 (3), pp. 193-212. 角田孝昭, 乾孝司, 山本幹雄 (2015). 対をなす二文書間における文対応関係の推定. 自然言語処理, $22(1)$, pp. 27-58. Wu, D. (1997). "Stochastic Inversion Transduction Grammars and Bilingual Parsing of Parallel Corpora." Computational Linguistics, 23 (3), pp. 377-403. ## 略歴 西野正彬:2008 年京都大学大学院情報学研究科修士課程修了. 同年, 日本電信電話株式会社入社. 現在, コミュニケーション科学基礎研究所研究員. 自然言語処理, アルゴリズムの研究に従事. 博士 (情報学). 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. 鈴木潤:1999 年慶應義塾大学理工学部数理科学科卒業. 2001 年同大学院理工学研究科計算機科学専攻修士課程修了. 同年, 日本電信電話株式会社入社. 2005 年奈良先端大学院大学博士後期課程修了. 2008-2009 年 MIT CSAIL 客員研究員. 現在, NTTコミュニケーション科学基礎研究所に所属. 博士(工学). 主として自然言語処理, 機械学習に関する研究に従事. ACL, 情報処理学会, 言語処理学会各会員. 梅谷俊治:1998 年大阪大学大学院基礎工学研究科博士前期課程修了. 2002 年京都大学大学院情報学研究科博士後期課程指導認定退学. 博士 (情報学). 豊田工業大学助手, 電気通信大学助教を経て, 現在, 大阪大学大学院情報科学研究科准教授. 組合せ最適化の研究に従事. 日本オペレーションズ・リサー 千学会, 情報処理学会, 人工知能学会, INFORMS, MOS, AAAI 各会員. 平尾努:1995 年関西大学工学部電気工学科卒業. 1997 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 同年株式会社 NTT データ入社. 2000 年より NTT コミュニケーション科学基礎研究所に所属. 博士(工学). 自然言語処理の研究に従事. 言語処理学会, 情報処理学会, ACL 各会員.永田昌明:1987 年京都大学大学院工学研究科修士課程修了. 同年, 日本電信電話株式会社入社. 現在, コミュニケーション科学研究所主幹研究員 (上席特別研究員). 工学博士. 統計的自然言語処理の研究に従事. 電子情報通信学会, 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 基づく機械学習による自動分類 大山 浩美 $\dagger$ $\cdot$ 小町守柿 ・松本 裕治 $\dagger$ } 近年, 様々な種類の言語学習者コーパスが収集され, 言語教育の調査研究に利用されて いる。ウェブを利用した言語学習アプリケーションも登場し, 膨大な量のコーパスを収集することも可能になってきている。学習者が生み出した文には正用だけでなく誤用 も含まれており, それらの大規模な誤用文を言語学や教育などの研究に生かしたいと考 えている、日本語教育の現場では, 学習者の書いた作文を誤用タイプ別にし, フィード バックに生かしたい需要があるが, 大規模な言語学習者コーパスを人手で分類するのは 困難であると考えられる。 そのような理由から, 本研究は機械学習を用いて日本語学習者の誤用文を誤用タイプ別に分類するというタスクに取り組む. 本研究は, 以下の手順 で実験を行った。まず,誤用タイプが付与されていない既存の日本語学習者コーパスに 対し, 誤用タイプ分類表を設計し, 誤用タイプのタグのアノテーションを行った. 次 に,誤用タイプ分類表の階層構造を利用して自動分類を行う階層的分類モデルを実装し た. その結果, 誤用タイプの階層構造を利用せず直接多クラス分類を行うベースライン 実験より 13 ポイント高い分類性能を得た。また, 誤用タイプ分類のための素性を検討 した。機械学習のための素性は, 単語の周辺情報, 依存構造を利用した場合をべースラ イン素性として利用した。言語学習者コーパスの特徴として, 誤用たけではなく正用も 用いることができるため, 拡張素性として正用文と誤用文の編集距離, ウェブ上の大規模コーパスから算出した正用箇所と誤用箇所の置換確率を用いた。分類精度が向上した 誤用タイプは素性によって異なるが,全ての素性を使用した場合は分類精度がベースラ インより 6 ポイント向上した. キーワード:機械学習, 誤用タイプ自動分類, 日本語学習者, 学習者コーパス, 誤用コーパス,編集距離,置換確率,階層的アノテーション ## Hierarchical Annotation and Automatic Error-Type Classification of Japanese Language Learners' Writing \author{ Hiromi Oyama $^{\dagger}$, Mamoru Komachi $^{\dagger \dagger}$ and Yuji Matsumoto ${ }^{\dagger}$ } Recently, various types of learner corpora have been compiled and utilized for linguistic and educational research. As web-based application programs have been developed for language learners, we can now collect a large amount of language learners' output on the web. These learner corpora include not only correct sentences but also incorrect ones, and we aim to take advantage of the latter for linguistic and educational research. To this end, this study aims to automatically classify incorrect sentences  written by learners of Japanese according to error types (or classes) by a machinelearning method. First, we annotate a corpus of the learners' writing with error types defined in a tree-structured class set. Second, we implement a hierarchical error-type classification model using the tree-structured class set. As a result, the proposed method performs better in the error-classification task than in the flat-structured multiclass classification baseline model by 13 points. Third, we explore features for error-type classification tasks. We use contextual information and syntactic information, such as dependency relations, as the baseline features. In addition, because a corpus of language learners contains not only correct sentences but also incorrect ones, we propose two extended features: the edit distance between correct usages and incorrect ones and the substitution probability at which characters in a sequence change to other characters. Although the performance varies according to error types, the proposed model with all features outperforms the model with the baseline features by six points. Key Words: Machine Learning, Error Type Classification, Learners of Japanese, Learner Corpora, Error Corpus, Edit Distance, Substitution Probability, Hierarchical Annotation ## 1 はじめに 近年,ビッグデー夕に象徴されるように,世の中のデー夕量は飛躍的に増大しているが,教育分野ではそれらのデータをまだ十分に活用している状態には至っていない。例えば,Lang-8 という SNS を利用した言語学習者のための作文添削システムがある。現在,このウェブサイトは 600,000 人以上の登録者を抱えており,90の言語をサポートしている。このサイトでは,ユーザーが目標言語で書いた作文を入力すると,その言語の母語話者がその作文を添削してくれる.このウェブサー ビスにより蓄積されたデータは,言語学習者コーパスとして膨大な数の学習者の作文を有している ${ }^{1}$ それらは言語学習者コーパスとして調査や研究のための貴重な大規模資源となりえるが,それらを教師や学習者がフィードバックや調査分析などに利用したい場合, 誤用タイプの分類などの前処理が必要となる. しかしながら, 日本語教師のための学習者コーパスを対象とした誤用例検索システムを構築するというアプリケーションを考えると,誤用タイプに基づいて得られる上位の事例に所望の誤用タイプの用例が表示されればよい。つまり, 人手で網羅的に誤用タイプの夕グ(以後, 「誤用タグ」と呼ぶ)を付与することができなくても,一定水準の適合率が確保できるのであれば,自動推定した結果を活用することができる. そこで,本稿では実用レベル(例えば, 8 割程度)の適合率を保証した日本語学習者コーパスへの ^{1}$ http://lang-8.com } 誤用タグ付与を目指し,誤用タイプの自動分類に向けた実験を試みる。学習者の作文における誤用についてフィードバックを行ったり,調査分析したりすることは,学習者に同じ誤りを犯させないようにするために必要であり, 学習者に自律的な学習を促すことができる (Holec 1981; 梅田 2005). そのため,学習者の例文を誤用タイプ別に分類し,それぞれの誤用タイプにタグを付与した例文検索アプリケーションは教師や学習者を支援する有効なツールとなり得る. 現在まで, 誤用夕グ付与作業は人手に頼らざるを得なかったが, Lang-8のようなウェブ上の学習者コーパスは規模が大きく, かつ日々更新されるため, 人手によって網羅的に誤用夕グを付与することは困難である。誤用タイプの自動分類を行うことで, 誤用タグ付与作業を行う際, 人手に頼らなくてもよくなり, 人間が誤用タグ付与を行う際の判定の不一致や一貫性の欠如などの問題を軽減しうる。これまでは, このような誤用タグの自動付与というタスクそのものが認知されてこなかったが, 自動化することで大規模学習者コーパスを利活用する道を拓くことができ, 新たな応用や基礎研究が発展する可能性を秘めている。 今回, 誤用タグが付与されていない既存の日本語学習者コーパスに対し, 階層構造をもった誤用タイプ分類表を設計し,国立国語研究所の作文対訳 DBの事例に対してタグ付け作業を行った.次に,階層的に誤用タイプの分類を行う手法を提案し,自動分類実験を行った。誤用タイプ分類に用いるベースライン素性として, 単語の周辺情報, 統語的依存関係を利用した. さらに, 言語学習者コーパスから抽出した拡張素性として1) 正用文と誤用文の文字列間の編集距離,2)ウェブ上の大規模コーパスから算出した正用箇所と誤用箇所の置換確率を用い, それらの有効性を比較した. 本研究の主要な貢献は, 以下の 3 点である. ・誤用タグが付与されていない国語研の作文対訳DB に誤用タグを付与し, NAIST 誤用コー パスを作成した,異なるアノテーターによって付与されたタグの一致率が報告された日本語学習者誤用コーパスは, 我々の知る限り他に存在しない. - NAIST 誤用コーパスを対象に機械学習による誤用タイプ自動分類実験を行い,かつアプリケーションに充分堪えうる適合率を実現した(8 割程度).英語学習者コーパスの誤用タイプの自動分類タスクは過去に提案されている (Swanson and Yamangil 2012) が, 日本語学習者コーパスの誤用タイプの自動分類タスクに取り組んだ研究はこれが初めてであり, 将来的には学習者コーパスを対象とした誤用例検索システムを構築するアプリケーションの開発を目指しているため,その実現化に道筋を付けることができた。 - タグの階層構造を利用した階層的分類モデルを提案し, 階層構造を利用しない多クラス分類モデルと比較して大幅な精度向上を得られることを示した. また,英語学習者の誤用タイプ自動分類で提案されていた素性に加え, 大規模言語学習者コーパスから抽出した統計量を用いた素性を使用し,その有効性を示した。 ## 2 関連研究 現在, 研究・教育目的で利用されている日本語学習者コーパスは, 大阪大学の寺村コーパス (寺村 $1990)^{2}$, 名古屋大学の学習者コーパス (大曽, 杉浦, 市川, 奥村, 小森, 白井, 滝沢, 外池 1997) ${ }^{3}$,東京外国語大学の「オンライン日本語「誤用コーパス」辞典」44, 筑波大学の「日本語学習者作文コーパス」(李, 林, 宮岡, 柴崎 2012$)^{5}$, 大連理工大学の中国人日本語学習者による日本語作文コー パス (清水, 宋, 孟, 杜, 壇辻 2004), 国立国語研究所(国語研)で収集された「日本語学習者による日本語作文と, その母語訳との対訳データベースオンライン版」6(以下, 作文対訳 DB)(デー 夕総数は 2009 年時点で 1,754 件)がある. 上記の作文対訳 DB は, 大規模な日本語学習者コーパスの1つであるが, 誤用タイプの情報が付与されていなかった。上記のコーパスのうち, 作文対訳 DB 以外のコーパスは誤用夕グが付与されているが,夕グが一部にしかついていなかったり,入手ができなかったり,コーパスそれぞれにおいて誤用タグの分類基準が異なっていたりする。また, 既存の言語学習者コーパスは言語学や教育の目的で収集されたもので, 自動分類や誤用検出・訂正などの機械処理を考慮した設計にはなっていないため, 人手アノテーション以外の分類処理には必ずしも向いていない,具体的には,コーパスのタグ付けに関するアノテーションの一致率が報告されておらず,機械処理に適した誤用タグ体系になっているかどうか不明である。そこで,今回機械学習用に誤用夕グを付与した NAIST 誤用コーパスを作成した。 また, 自動で誤用検出, 誤用タイプ分類を行うといった言語学習者コーパス整備作業に関する研究は, 英語教育においても日本語教育においても様々なタスクで進められている. 例えば, 英語教育において以下のような研究が行われている。 誤用判定として, 英語のスペルミス検出研究 (WilcoxO'Hearn, Hirst, and Budanitsky 2008), 英語の名詞の可算性 (数えられる名詞), 不可算性 (数えられない名詞) の誤用検出研究 (Brockett, Dolan, and Gamon 2006; 永田, 若菜, 河合, 森広, 桝井,井須 2006), 前置詞の誤用検出に関する研究 (Chodorow, Tetreault, and Han 2007; De Felice and Pulman 2007, 2008; Tetreault and Chodorow 2008; Gamon, Gao, Brockett, Klementiev, Dolan, Belenko, and Vanderwende 2008), 冠詞誤用検出に関する研究 (Han, Chodorow, and Leacock 2006; De Felice and Pulman 2008; Gamon et al. 2008; Yi, Gao, and Dolan 2008; 永田, 井口, 脇寺, 河合, 桝井, 井須 2005) がある. 日本語を対象とする研究では, 格助詞を対象とした研究が多い (大木, 大山, 北内, 末永, 松本 2011; Oyama, Matsumoto, Asahara, and Sakata 2008; 今枝, 河合, 石川, 永田, 桝井 2003; 南保, 乙武, 荒木 2007 ; Suzuki and Toutanova 2006; 今村, 齋藤, 貞光, 西川 ^{6} \mathrm{http} / / /$ jpforlife.jp/taiyakudb.html } 2012). さらに,誤用タイプに特に着目せずに文を誤用文と正用文とに分類する研究もある (Sun, Liu, Cong, Zhou, Xiong, Lee, and Lin 2007; 水本, 小町, 永田, 松本 2013). これらの誤用検出タスクにおいて,対象となる誤用タイプは限定されている。つまり,誤用タイプがあらかじめわかっていることが前提である。 さらに,誤用タイプを網羅的に夕グ付けするような研究は以下に示す 1 件を除いて存在しない。実際の言語学習者コーパスでは教師によって添削された正用例があったとしても,誤用タイプまで示すことは稀であり,誤用タイプを網羅的にタグ付けし,誤用例を検索できるようにすることは困難である。 誤用タイプ分類タスクを行っているのは, Swanson and Yamangil (2012)のみである。彼らは英語学習者の誤用タグ付きコーパスを用いた教師あり学習による多クラス分類によって,誤用箇所を与えた上で,誤用タグが付与された文を入力とし15 クラスの誤用タイプにに分ける実験を最大エントロピー法で行っている。しかし,日本語における誤用タイプ分類実験はまだ見られない。また, Swanson and Yamangil (2012) は既存の英語学習者コーパスを用いて自動分類器を学習しているが,自動分類に適した誤用タイプのタグ集合を設計しているわけではない,言い換えると,タグの体系が自動分類の精度に与える影響は考慮されていない。さらに,彼らの自動分類器で用いられていた素性は誤用・正用の対応に基づく文字列・単語(品詞)情報,そして文脈素性としては直前の単語のみを用いる非常に単純なものであったが,本研究ではそれらに加えて大規模言語学習者コー パスから計算した置換確率と,正用文と誤用文の編集距離,文脈素性として周辺 3 単語および依存関係も用いた。 ## 3 機械学習による誤用タイプ分類実験 ## 3.1 データ 誤用タイプ分類実験のために NAIST 誤用コーパスを作成した.NAIST 誤用コーパスは,作文対訳 DBの中で添削が施された 313 名の作文中の誤用箇所にタグを付与し,様々な情報を補完したコーパスである (大山 2009 ; 大山,小町,松本 2012),ファイル数は作文者ごとに 313 ,総文字数は 191,994 字である。NAIST 誤用コーパスは,作文対訳 DBに対しアノテーションを行っているため,作文対訳 DB とデータは共通しているが,作文対訳 DBには誤用タグがアノテーションされていない.  ## 3.2 NAIST 誤用コーパスにおける誤用タグのアノテーション ## 3.2.1誤用タグのアノテーション 先に述べた作文対訳 $\mathrm{DB}$ のアアテーションの方法について説明する.基本的に作文対訳 $\mathrm{DB}$ の添削に基づいて誤用タグを付与しており,添削は変更せず,誤用タイプ分類をした後にタグを付与する。作文対訳 DB の誤用箇所に<goyo>タグを設け,そのタグ内に添削された正用箇所を crr 属性にて示し,誤用タイプを示す type 属性を付与した。誤用を正用にするために複数の誤りを修正する必要がある場合,それぞれ typeN(ただし N は自然数で,順不同)という属性を用いて明示した。また,文章中で複数の添削が相互に依存関係を持っている場合がありうるが,依存関係のアノテーションは今回のタグの精緻化という独立した別のタスクとして切り出すことが可能なため,今回のアノテーションでは依存関係は考慮しない。例えば,以下の例文を考える。 $ \begin{aligned} & \text { <s>それで, <goyo type1="sem" type2="not/kj" crr="常に">まいにち</goyo>がいこくの } \\ & \text { えんじょがいります. </s> } \end{aligned} $ 上記の例で,誤用として添削者によって添削された「まいにち」をくgoyo>タグで囲み,添削者による正用例「常に」を crr 属性で示す.この誤用を正用にするためには,「まいにち $\rightarrow$ ねにと 「つねに常に」を訂正する必要があるため, 誤用タイプは, この事例では語彙選択 ("sem") と表記・漢字 ("not/kj")の 2 種類を付与している. ## 3.2 .2 誤用タイプ表の設計方針 誤用タイプ表の設計方針を立てる際に,英語学習者の話し言葉を集めたSST コーパス,日本語学習者の作文を集めた名古屋大学の学習者コーパス (大曽他 1997), 大連理工大学の中国人日本語学習者による日本語作文コーパス (清水他 2004 ), さらに市川 $(1997,2000)$ による「日本語誤用例文小辞典」を基にした。 SSTコーパスは, 学習者の誤用が多岐にわたるため, 体系的な分類が比較的容易な文法的・語彙的誤りに対して, 独自の誤用タイプ表を構築し, 人手でタグ付与を行っている (石田, 伊佐原, 齋賀, Thepchai, 成田, 内元, 和泉 2003). SSTコーパスの誤用タイプ表は, 品詞を第 1 階層に有し,「名詞, 動詞, 助動詞, 形容詞, 副詞, 前置詞, 冠詞, 代名詞, 接続詞, 関係詞, 疑問詞」とに分かれている, さらに, 品詞の第 1 階層の下は第 2 階層に「活用の誤り, 格の誤り, 単複の誤り, 語彙選択の誤り」など文法的・語彙的ルールとに細分化される。 また, ある誤用タイプは各品詞の力テゴリーにまたがっている場合もある,例えば,「活用の誤り」は「名詞」「動詞」,「副詞」,「代名詞」のそれぞれの下位分類に属している。「語彙選択の誤り」も複数のカテゴリーに属している. このように, 品詞の階層カテゴリーの下位階層にそれぞれ同様のタイプが存在すると, 誤用夕グ付与のアノテーターが意識しなければならないタグが増大するため, 人手による夕グ付与作業が煩雑になる,そこで,我々は多クラスの夕グ付けをするのではなく,多ラべルの夕グ付けをするように NAIST 誤用コーパスを設計し,複雑な階層カテゴリーを把握しなくても夕グ付けが可能なようにした.たたし,SSTコーパスでの品詞の分類は,自動分類をする際に素性として取り出しやすく有効な素性となりうる。そのため, NAIST 誤用コーパスでも品詞による分類を第 1 階層に持つようにした。 誤用タグを構築する際に誤用タイプ分類の方法として, 清水他 (2004) では, 誤用タグの構築方法を2つあげている. (1) 言語学的な特定の文法記述に基づき誤用を分類し誤用タグを構築している場合 (2) 実際の誤用分析で抽出された誤用タイプに基づいてタグを構築する場合 名古屋大学の学習者コーパス (大曽他 1997) は, 上記 (1) の方法に従い, 言語学的な特定の文法記述に基づき誤用を分類し誤用タグを構築しているが,「脱落, 付加, 混同, 誤形成, 位置」などの分類はない。 大連理工大学の中国人学習者による日本語作文コーパス (清水他 2004) は, 上記 (2) の方法に従い, 中国人日本語学習者の作文を添削し, 独自の誤用夕グを設計, 付与している。清水他 $(2004)$ では,大連工業大学の日本語学習者の作文を誤用分析した結果から抽出した誤用に基づく誤用タイプを用いているため, 大曽他 $(1997)$ や市川 $(1997,2000)$ とは異なる「指示詞」,「形式名詞」,「数量詞」,「漢語」などの誤用タイプが見られる. 市川 $(1997,2000)$ も, 上記 $(2)$ の方法に従い, 日本語学習者の作文によく見られる誤用をムー ド,テンス,アスペクトなどの 8 つの主要分類に分け,その次に細分化された 86 の項目に分ける (表 1)。市川 (2001)では, さらに,下位項目のそれぞれについてさらに「脱落, 付加, 混同, 誤形成,位置,その他」の 6 種類に分類している。 それらの言語学習者コーパスの誤用タイプ分類を基礎に, NAIST 誤用コーパスでは全 76 種の誤用タイプ分類を構築した。その全誤用タイプは, 付録 B「誤用タイプ 76 項目」(表 7) に示す.表 8 は,「誤用タイプ 76 項目」のタグにおいてさらに細かく説明を加えた表である。清水他 (2004)の 表 1 市川の誤用分類 誤用タイプ分類には,市川 $(1997,2000)$ にはないが,必要だと考えられる誤用タグが見られるため,それらを含めた。しかし,清水他 (2004)では,「は/が」の使用誤りの項目と「助詞」を分けていたりと項目の選出には彼ら独自の理由が見られる。また, 中国人日本語学習者を対象にしているため,中国人特有の誤用タイプが見られる。NAIST 誤用コーパスの誤用タイプ分類については, そのような点を割愛し,「指示詞」,「形式名詞」,「数量詞」など詳細かつ重要な誤用夕グを含めた. 市川 $(1997,2000)$ の分類も,日本語学習者がよく誤りやすい項目を基に構成されている。表 1 にあるムードは表 7 の 76 の項目中の「モダリティ」に含めている。テンス,アスペクト,自動詞,他動詞, ヴォイスなどの項目は本稿では「動詞」の下位項目にまとめている。また, 取り立て助詞,格助詞, 連体助詞, 複合助詞は「助詞」の下位項目にしている。連用修飾, 連体修飾は, 「名詞修飾節」の項目に入れている。従属節は,「接続」の項目に含まれている。しかし, 市川 $(1997,2000)$ では「脱落, 付加, 混同 (本稿では, 不足, 余剩, 置換)」などをそれぞれの下位項目のさらに下の項目に分類しているが,本稿では,「Nobu $\{* \phi /$ という $\}$ レストランに行きました」8のような, タグを新たに設定しにくい,もしくは修正部分が長く,誤用分類しにくい添削を「脱落,付加」に入れた。作文対訳 DBにも,市川 $(1997,2000)$ の分類を採用すると,助詞の下位項目に「不足,余剰」などの項目を持つ事例がある。しかし, 付録 A,「不足」の項目で述べているように,それらは少数である,そのため,本コーパスでは,「不足,余剰」を各分類の下位項目ではなく,独立した項として新たに設立した。本研究で使用した誤用タグの構築方法について詳しくは大山 (2009),大山他 (2012)を参照されたい. ## 3.2 .3 本稿における実験に使用した誤用タイプ 実験に使用した誤用タイプは,表 2 に示した 17 種である。全誤用タイプ 76 種が階層的に定義され,その第 1 階層の 23 種から 17 種を選択して使用した。全誤用タイプを第 1 階層までまとめ上げた誤用タイプと研究に必要な誤用タイプとを選択した。誤用タイプのそれぞれの説明は付録 A「誤用タイプ項目」に詳細に示す. 表 2 において,上位 17 種の誤用タイプを実験に利用した。下位の「名詞」や「名詞修飾」などの誤用タイプは今回事例数が少なかっため, 実験対象としなかった「「モダリティ」は,意味や文の作者の主観に起因する場合が多いので, 文脈情報や依存情報よりも意味を扱える素性を考えるべきであるので,今回は困難であると考え実験対象としなかった。「モダリティ」の場合は, 稿を改めて「モダリティ」を中心に必要な素性を追加した実験を行いたいと考えている。「成句」は,きまったフレーズ(「〜たり〜たり」など)がうまく使えなかった誤りを含む.「全文変換」は,文がすべて書き換えられている誤用事例である。「成句」や「全文変換」も,今回誤用タイプ分類実験の対象としなかった。「成句」はフレーズの要素が「〜たり〜たり」などのように離れているもの  表 2 NAIST 誤用コーパスにおける誤用タイプ表(17 種+非使用の 6 種) 表中の $\phi$ は,要素がないことを示す。*は,誤用例を指す. が多く,アラインメントを取ることが困難であった,また,「全文変換」も同様で,文全体を書き換えているので誤用箇所の特定が難しかったことが理由である。「その他」についても今回実験に用いた誤用タイプよりもより詳細で個別的な誤用タイプであり, 個々が少数事例のものもあったので今回対象外とした。 上記以外にも,研究に必要な「“だ”の誤用」「否定」,「副詞」,「代名詞」「エコロケーション」を誤用タイプに含めて実験を行った。「“だ”の誤用」,「否定」,「副詞」、「代名詞」の誤用タイプにおいては,作文対訳 DB や KYコーパス (鎌田,山内 1999)9を対象とした研究の中で「“だ”の誤用」 (蔭山ハント 2004; 王 2003),「副詞」(浅田 2007, 2008; 松田,森,金村,後藤 2006),「否定」(峰 2011; 吉永 2013),「代名詞」(張 2010) などに関する研究が見られ,言語学習者コーパスを利用した ^{9} \mathrm{KY}$ コーパスは, 英語, 韓国語, 中国語を母語とする日本語学習者各 30 名位, 計 90 名のインタビューが収集された話し言葉コーパスである。 } このような研究がこれから増えてくると思われるからである.「否定」と「コロケーション」に関しては, Swanson and Yamangil (2012)における誤用タイプ 15 種にも含まれている.「コロケーション」は,コーパスデータを利用する利点があり,重要な誤用タイプだと考えられる (寺嶋 2013). 語彙選択の誤りとコロケーションの誤りとを明確に区別し, 語彙選択の誤りでは, 単語単位のみを対象とした。コロケーションの誤りでは,「形容詞+名詞」のようなコロケーションも見られるが「名詞+格助詞+動詞」の誤りのみを対象とした。 ## 3.2.4 アノテーター間の一致率 誤用タグは 2 人のアノテーターによって付与された. 2 人ともアノテーターとして 5 年以上勤務している.コーパス中の一部のデータ(170 文)を対象に 2 人に同じデータへの誤用タグの付与を依頼し, $\kappa$ 值 (Carletta 1996)によりその 2 人のタグ付け一致率を計った. タグ付けの対象とした 170 文は,誤用タイプ 17 種をそれぞれ 10 文ずつ抽出した(10 文× 17 種)、それは,全体の約 $1.2 \%$ に当たる。アノテーターに 1 位に選ぶ誤用タイプと次に選ぶ誤用タイプまで(2 位まで)を選択してもらった。表 2 の誤用タイプにおける一致率は, 1 位までの場合 $\kappa=0.602$ であった. 2 位までの場合, $\kappa=0.654$ であった. $\kappa$ が $0.81 \sim 1.00$ の間にあればほぼ完全な一致, $0.61 \sim 0.80$ の間にあれば実質的に一致しているとみなされることから,今回は実質的に一致していると考えられる (Carletta 1996). 信頼度の高いコーパスを作成するためには,付与したタグがアノテーター間で異なる「夕グの不一致」の問題をできるだけ解決した方がよい,付与したタグの一致率が高ければ, そのタグは一貫性が高く,信頼性が高いタグセットであることが言える。 ## 3.2.5 階層構造誤用タイプ分類表を使用した階層的誤用タイプ分類 先行研究の Swanson and Yamangil (2012) では, 誤用タイプ分類実験にフラットな構造の分類表を使用していたので, Oyama, Komachi, and Matsumoto (2013)でもフラットなタイプの誤用タイプ分類表を用いたが,人間はどのように誤用タイプを分類するのか分析するために,誤用タイプ分類に向けた予備実験を行った. 11 人の現役の日本語教師に依頼し, テストデータから無作為に選んた 20 文について誤用タイプ分類を行わせた。その後, 日本語教師各個人に対して聞き取り調査を行い,ある誤用文に対してある誤用タイプに分類する理由を聞いた。この分類実験の結果,次のようなことがわかった. (1)日本語教師は,多くの誤用文を「語彙選択」に分類しやすい. (2) 日本語教師は,「動詞」と他の誤用タイプを混同しやすい. (3)日本語教師は, 誤用タイプを判断する際に 1 文すべて与えられていても誤用箇所と正用箇所で主に判断している. (4)日本語教師は,誤用箇所と正用箇所の次に参考にする素性は,依存構造である. 日本語教師に行った実験では, 「語彙選択」が他の誤用タイプ(助詞,動詞,コロケーションな どの誤用タイプ)に最も間違われやすかった。これは,「語彙選択」が最も選択を迷う項目であるということを示している。聞き取り調査の結果,日本語教師は誤用タイプを判断する際に 1 文すべて与えられていても誤用箇所と正用箇所などで主に判断していることがわかった. さらに, 日本語教師は,最小の素性で判断しきれない場合,前後 2 単語, 前後 3 単語先をみるより, 依存している単語は何かに焦点を当てていた。「助詞」の誤りかどうか判断迷った時は,それが依存している動詞を見ている。「副詞」の誤りかどうかの分類も同様である。この結果を受け,「語彙選択」は, どの誤用タイプにも入りやすく, この点が分類を妨げている要因と考えたため, 17 種の誤用タイプ 図 1 階層構造誤用タイプ分類表 をさらに 3 階層に分類し直し, 図 1 に示す構造に変更した. 上記のような流れを受けて, 本実験において 3 段階の階層構造に基づく分類を行った,細川 (1993) では, 寺村 (1972)の誤用の領域を基にし誤用を分類しており,1)語彙レベルの誤用,2)文構成レベルの誤用,3)談話レベルの誤用の 3 レベルを立てている.談話レベルまで扱うのは今回の実験の範疇にないので, 細川 (1993) の分類に従い, 第 2 段階を語彙レベルか文構成レベルかに分類した.図 1 で見られるように,第 1 段階で「不足」,「余剰」,「置換」とに分類する。第 2 段階では,「置換」内部において「文法的誤用」であるか「語彙的誤用」であるかの 2 値分類を行った. 第 3 段階では, 前段階で成功した事例において「文法的誤用」と「語彙的誤用」のそれぞれのグループ内において,多クラス分類を行った。 ## 3.3 実験方法 誤用タイプ自動分類実験は, 先行研究の Swanson and Yamangil (2012)にならい, 機械学習法を用いた分類実験を行った. 3.2 節で説明したように誤用タイプ分類実験のデータとして言語学習者が書いた誤用文と正用文に文単位の対応をつけ,誤用タイプを付与した NAIST 誤用コーパスを用意した,実験には,そのコーパスから誤用箇所,正用箇所や誤用タイプラベルを取り出し,さらに素性を抽出し使用した。また,誤用タイプ表(表 2)を階層構造化し実験を行った(図 1). NAIST 誤用コーパスから,13,152 事例を取り出し, 10 分割交差検定を行った. 1 の文に別々の誤用が 2 つ以上ある場合は, 1 誤用につき 1 事例として取り出した. ## 3.3.1 実験の流れ 実験の概要を図 2 に示す。まず,NAIST 誤用コーパスから正用文と誤用文のペアを取り出す. それらの 2 種類の文から, 対応する誤用箇所 $(x)$ と, 正用箇所 $(y)$, 誤用タイプ $(t)$ の 3 つ組のラべル $(x, y, t)$ を取り出す. その後, その事例ごとに素性を付与する. ベースラインの素性として, 誤用箇所, 正用箇所の表層の語彙素と, 誤用箇所, 正用箇所の形態素解析結果, 周辺単語情報 (前後 1 から 3 単語), 依存関倸情報を付与した. テストデータにおいても同様の素性を取り出し, 分類判定実験に使用した。分類実験には,最大エントロピー法 ${ }^{10}$ 利用し,多クラス分類を試みた ${ }^{11}$. 最大エントロピー法は確率値を出力することができるため, 閥値を用いて予測結果を調整しやすく,英語・日本語の誤用検出・訂正で広く用いられている (Suzuki and Toutanova 2006; Swanson and Yamangil 2012).  図 2 機械学習による誤用タイプ分類実験の流れ ## 3.3.2 素性 この節では,実験で使用した事例と素性について説明する。表 3 は,今回使用した全ての素性を 用箇所「を」が $x$, 正用箇所「が」が $y, 「$ 助詞」の誤用が $t$ という 3 つ組みのラベルが 1 事例として抽出される。 - (誤)英語をわかる $\cdot$(正)英語がわかる - 誤用タイプ:「助詞 $(\mathrm{P})\rfloor$ 使用の誤用 依存関係情報は, 誤用箇所の単語にかかる文節内の単語の bag-of-words および誤用箇所の単語からかかる文節内の単語の bag-of-words を用いた。誤用箇所内が複数の文節にまたがる場合, その全ての文節内の全ての単語の bag-of-words を用いた。さらに,係り元・係り先の文節内にある全形態素の語彙素を用いた。例えば,「*私はりんごを食べった」という文において「食べった」が誤用箇所の場合,誤用箇所に係っている文節内の係り元の「私」,「は」,「りんご」「を」を素性として利用している。 表 3 誤用タイプ分類実験に用いた素性と具体例 :「英語を(誤) $\rightarrow$ が(正)わかる.」の例文に打ける素性 形態素解析には, UniDic-2.1.2 辞書 ${ }^{12}$ と MeCab-0.994 ${ }^{13}$ を利用し, 依存構造解析器 CaboCha$0.68^{14}$ で形態素情報と依存関係を抽出した. 言語学習者コーパスには,ひらがな文字が多く含まれたり,辞書に存在しないような単語が出現したりする。そのためにアライメントに失敗し, 分類精度に影響する。そこで,言語学習者コーパスにおける誤用による影響を軽減するために次の 2 つの拡張素性を用いた実験も行った. ## 編集距離素性 2 の文字列がどの程度異なっているかを示す距離である編集距離を用いた. 正用文と誤用文において動的計画法によるマッチングを用いて置換対の抽出を行い (藤野, 水本, 小町, 永田,松本 2012), 誤用文には存在するが正用文には存在しない文字列を余剩箇所とみなした。同様に, 正用文には存在するが誤用文には存在しない文字列を不足箇所とみなした。ある文字列がある文字列に置き換えられている場合,置換箇所とした。その際に,置換,不足,余剰の誤りの編集距離をいずれも 1 と定義し, 編集距離は実数値素性として用いた。 ## 置換確率 拡張素性として, Lang-8 から抽出した正用箇所と誤用箇所のペアの置換確率を利用した. Lang-8 には,言語学習者の書いた誤用文と添削された正用文とが大量に含まれている。この置換確率は,  Lang-8 のような大規模な言語学習者コーパスを利用したことから得られる一つの新しい知見である. Lang-8 から抽出した正用箇所と誤用箇所のペアから, 誤用はどのように訂正されているか(誤用置換確率)と正用文はどのような誤用から訂正されているか(正用置換確率)を計算し,利用した. Lang-8において取り出されたペアは 796,403 ペアである. 例えば,「を」が誤用で「が」が正用である場合の誤用置換確率の式は以下のようになる。 $ P(\text { 正用 }=\text { が } \mid \text { 誤用 }=\text { を })=\frac{P(\text { 正用 }=\text { が, 誤用 }=\text { を })}{P(\text { 誤用 }=\text { を })} $ 「が」が誤用で「は」が正用である場合の正用置換確率の式は以下のようになる. $ P(\text { 誤用 }=\text { が } \mid \text { 正用 }=\text { は })=\frac{P(\text { 誤用 }=\text { が, 正用 }=\text { は })}{P(\text { 正用 }=\text { は })} $ ## 3.3.3 評価尺度 評価尺度としてF\cjkstart値を利用した。再現率は対象とする各誤用タイプの中で正しく分類された誤用タイプを指し,適合率は,システムがある誤用タイプだと分類したもののうち正解を当てた率である。 $\mathrm{F}$ 値はそれらの調和平均を表している。 $ \text { 再現率 }=\frac{\text { 正しく分類された事例数 }}{\text { 各誤用タイプの全事例数 }} \times 100 $ 適合率 $=\frac{\text { 正しく分類された事例数 }}{\text { システムがある誤用タイプだと分類した事例数 }} \times 100$ $ F \text { 値 }=\frac{2 \times \text { 適合率 } \times \text { 再現率 }}{\text { 適合率 }+ \text { 再現率 }} $ ## 4 実験結果 ## 4.1 階層構造を使用した場合の実験結果 NAIST 誤用コーパスにおける誤用タイプ分類実験の 10 分割交差検定による結果について述べる. 表 4 は,階層構造を使用した場合と使用しなかった場合とを比較した表である。簡単のため前後 1 単語の素性を用いた場合を W1, 前後 2 単語までの素性を用いた場合を W2, 前後 3 単語までの素性を用いた場合を W3 とする。最後の行は, 全体のマクロ平均を示す。この表で分かるように,階層構造を利用したことで分類性能(F 值)が全体的に 49.6 から 62.4 へ向上した. また, $\mathrm{F}$値で 80 以上を達成した誤用タイプは「助詞」,「不足」,「余剩」の3つのみであったが, 階層構造を利用することにより,「語彙選択」,「表記」,「動詞」,「指示詞」も新たに F 値が 80 を超え,実用的な精度で自動推定が行えることが分かった。 「不足」と「余剩」の値は, 階層構造を使用した場合において階層構造を使用しなかった場合よ 表 4 階層構造を使用した場合と使用しなかった場合の実験結果(10 分割交差検定)(F 値) り精度が下がっている。「不足」と「余剩」の誤用タイプは第 1 階層において「不足」か「余剩」か 「置換」の 3 值分類をする。その際,「不足」は 1,441 事例,「余剩」は 1,177 事例,「置換」は 10,534 事例となり,「置換」の事例数は,「不足」と「余剰」の事例数よりもはるかに多くなる,これが,「不足」と「余剰」の階層構造を使用した場合での精度を下げる原因となったと考えられる。 ## 4.2 編集距離,置換確率を加えた実験結果 編集距離, 置換確率を加えた誤用タイプ分類実験の結果を表 5 に示す. ベースライン (BL.) は,誤用タイプの構造が階層構造であり周辺素性および依存関係情報を付加した素性とし, 表 4 における「階層構造あり」の結果を用いた。 さらに,拡張素性として,1) ベースライン+編集距離 (edit), 2) ベースライン+置換確率 (sub.)(F 值)を示した. ALLは,それら全ての拡張素性を付加したものである. 表 5 の最下行はマクロ平均値を表し, 表 5 より編集距離を加えることで 4.1 ポイントの分類性能の上昇, 置換確率を加えることで 3.4 ポイントの上昇が見られる。 それら拡張素性を合わせた素性 (ALL) においては 6 ポイントの上昇が見られる. 表 6 は,階層ごとの分類の難しさを示している。まず 1 行目は「不足」か「余剩」か「置換」かの多値分類での平均値である.2行目は「文法的誤用」における多值分類, 3 行目は,「語彙的誤用」 における多値分類での平均値である。 表 5 NAIST 誤用コーパスにおける誤用タイプごとの分類実験結果(10 分割交差検定)(F 値) 表 6 各階層における分類実験結果(10 分割交差検定)(F 値) 表 6 のマクロ平均值において,第 1 段階(余剩,不足,置換)実験において編集距離を加えることで 1.8 ポイントの上昇,置換確率を加えることで 2.4 ポイントの上昇が見られる. ALLでは, 2.5 ポイントの上昇が見られる。文法タイプ内実験において編集距離を加えることで 0.8 ポイントの下がっているが,置換確率を加えることで 2.4 ポイントの上昇が見られる.ALLでは, 1.2 ポイントの上昇が見られる語彙タイプ内実験において編集距離を加えることで 4.0 ポイントの上昇, 置換確率を加えることで 3.4 ポイントの上昇が見られる. ALLでは, 6.3 ポイントの上昇が見られる. ## 5 分類実験に関する考察 この節では, どの素性がどのように自動分類に役立つかについて考察する.「不足」,「余剰」,「語彙選択」,「表記」,「助詞」,「動詞」は事例数が多く, 全体の事例の $91 \%$ 占めている。そのため, それらについて説明する ${ }^{15}$. 全体的に編集距離素性と置換確率素性を入れた実験 (ALL) において精度の向上が見られる. 個別に見ると「語彙選択」、「表記」と「余剰」において, 編集距離素性を用いた実験で精度の向上が見られる。 「語彙選択」において漢字同士の誤用は数多く見られる. 置換確率を入れるとさらに半数程度改善している(成功事例中 44.8\%),語彙の選択誤りは多種多様であるため,Lang-8のような巨大なコーパスから置換確率を計算したとしても出現しない可能性もある. そのような場合においても編集距離素性が効果があったと考えられる。下に例を示す. 《語彙選択 $(\mathrm{SEM})$ 》のたばこという物はどうして人々の必用(誤)-必需品(正)になっているのがわからない. 「語彙選択」の場合, ひらがなやカタカナを漢字に変換する(またはその逆)事例の精度も上がっていた(成功事例中 $41.8 \%$ ) 、日本語学習者の作文ではひらがな, カタカナ, 漢字の混合もよく見られる、ひらがなやカタカナと漢字では, 表記が長くなるか短くなるかで編集距離が異なるため, その差が素性の効果に影響したと考えられる。 《語彙選択 (SEM)》いろい万な飾りが大好きだからたばこを買う代わりにほしがっている飾り物(誤) $\rightarrow$ アクセサリー(正)を買った方がいい. 「表記」の事例において編集距離素性で精度の向上が見られる事例を分析する. 最も向上した事例のパターンは, 以下のようなひらがなが漢字に変更された事例である。そのような事例が編集距離素性を入れたことで分類に成功しており, 成功事例の半分を占めていた $(55.9 \%)$. 《表記 (NOT)》家の外と中をそうじ(誤)~掃除(正)しました. 次に,「余剰」の事例を見る。比較的文字列数が長い物が成功するようになっている。これは, 編集距離の素性の効果だと考える。 《余剰 $(\mathrm{AD})$ 私はその中でいろいろな食べもの(誤) $\rightarrow \phi$ (正) 一番好きなものはレマンです. 次に, 置換確率素性を用いた実験で精度の向上が見られた場合を検証する.全ての素性を組み合  わせた実験 (ALL) において,分類に成功した事例と失敗した事例においての置換確率が利用可能である場合を比較した。分類に成功した事例においては,置換確率が出現した場合が $69.9 \%$ あるるのに対し,分類に失敗した事例中では, $57.8 \%$ となっており,置換確率値があった方が分類に成功していることが分かる. 以下では置換確率素性を用いた実験で精度の向上が見られた「不足」,「動詞」の事例を見る。まず,「動詞」において置換確率を付加したことで分類に成功した事例を見る. 《動詞 $(\mathrm{V})$ 》個人的には, 軽い生活磁器よりも韓国のたましいが感じる(誤)~$\rightarrow$ れる(正)非生活磁器が気に入りました。 誤用置換確率 $=0.046$, 正用置換確率 $=0.475$ 上記の例は,「ベースライン+編集距離」の実験では,「文体」に分類されていた。「動詞」と「文体」が共に文末の誤りであることから,お互い間違われる事例が多いが,誤用箇所「る」正用箇所「られる」の誤用正用パターンが Lang-8 中に出現し, 置換確率が得られたことで分類が成功したと考えられる。「文体」は,付録 Aにあるように,通常「です・ます体」か「だ・である体」で統一されているかどうかの誤用である。この添削文は作文対訳 DBの添削に基づいており,日本語教師が添削を施している ${ }^{16}$ ,その際,日本語教師によって誤用箇所の「る」が「ます」に修正されている。誤用タグを付与するときに,その添削にそってタグをつけている。よって,誤用箇所が「る」 であり,正用箇所が「ます」である事例(またはその反対)が多く出現しており,「文体」に特徴的なパターンとして認識されている。 「不足」、「余剩」の場合の性能についての考察をする.「不足」と「余剩」は一見誤用文字列・正用文字列の長さで簡単に判別できるように思われるが,もし不足しているものあるいは余剰に書かれているものが助詞とはっきりわかるものであれば,助詞へ分類されており(付録参照),誤用文字列・正用文字列の長さを見ただけでは必ずしも判断できない。そして, 助詞は夕グ全体の $1 / 4 を ~$占める誤用タイプ(「不足」と「余剰」はそれぞれ全体の $11 \%$ と 9 )であるため,「不足」「余剩」 の分類性能に影響を及ぼしたのではないかと思われる。 また,「不足」より「余剰」の分類精度が低いことに関して,「不足」と「余剰」の事例が分類に失敗する場合を比べてみると,「余剩」の方に 10 ポイントほど多く, 他の誤用タイプ(助詞や“だ” の誤用など)に含まれる可能性のある事例が含まれていた,前の段落で書いたように,これが「不足」と「余剩」の分類精度に影響したと考えられる。「不足」と「余剰」の分類精度において差が見られたが,全ての素性を入れた実験においては $3.6 \%$ の差であり, ベースラインと比較すると差が減っている。これは,拡張素性によって正用例と誤用例の文字列を考慮することができるように  なり,より助詞の誤用等と区別しやすくなったからではないかと考えられる。 さらに,全体に共通する傾向として,文脈長を長くすることが必ずしも分類性能の向上につながっていない, ということが確認できる. Swanson and Yamangil (2012)も文脈に関する素性は直前の 1 単語しか使っていないが, これは英語学習者の誤用タイプ分類タスクにおいても文脈の情報が寄与していない可能性がある。誤用の発生している箇所の周辺は形態素解析が失敗しやすいことに加え, そもそも言語学習者の作文自身の形態素解析が困難であることが背景にあると考えられる.言語学習者のテキストに頑健な形態素解析器の作成は今後の課題である. ## 6 おわりに 本稿では,大規模コーパスを言語資源として活用するために,コーパス整備タスクの1つとして日本語学習者コーパスへの誤用タグ付与のための半自動的な処理を目指し, 誤用タイプの自動分類に向けた実験を試みた。 まず,日本語学習者の誤用タグつきコーパスを設計し, 誤用タグ付与作業を行った. 作成したコーパスのアノテーター間の $\kappa$ 值は 0.602 であり, 高い一致率であった. また, 作成したコーパスを用い, 最大エントロピー法によって誤用タグの自動分類タスクに取り組んだ。素性にはべースラインとして単語の周辺情報と依存関係を利用した. さらに, 誤用タイプ分類表を階層構造にし, 分類性能の向上を計った。誤用文の性質を考慮し, 拡張素性として「ベースライン+編集距離」,「ベー スライン+置換確率」を付加した結果,分類性能を向上させることができた. その結果, F 值のマクロ平均は 49.6 から 68.4 に向上した. 事例数が少なく十分な精度が得られていない誤用タイプも存在するが, 初の誤用タイプ自動分類器において実用的な精度と考えられる.F 値 80 を達成していた誤りタイプはベースライン法では「助詞」,「脱落」,「余剰」の3 種類のみであったのに対し,階層構造を利用することによって新たに「語彙選択」,「表記」,「動詞」,「指示詞」が,置換確率を用いることで新たに「形容詞」が,それぞれ $\mathrm{F}$ 値 80 を達成することができ,自動化に向けて大きく前進することができた。事例数の少ない誤用タイプは精度も低いので, その問題を解決するためにセルフトレーニングを用いて,事例を増やし,精度向上を図ることも現在検討中である. 今回,Lang-8 のように正用文と誤用文の両方が大量に存在するが誤用タイプが不明な場合を想定し, 誤用文を考慮に入れた素性を試したが, 誤用箇所および正用例が示されていない言語学習者コーパスも多数存在する。そのような場合, 誤用タイプ分類の前に誤用検出・訂正をする必要がある. 本研究により, 正用例が誤用タイプ分類に貢献することが示されたが, 誤用タイプが誤用検出・訂正に影響を与えている可能性も考えられる。 そこで, 誤用タグに関しては, 誤用タイプ分類と誤用検出・訂正を同時に行う手法を今後検討していきたい. さらに, 言語教育現場でどのように使用されるかを考慮に入れたタグの使いやすさの評価のためには, 他の誤用タグと比較してどのように自動分類性能が異なるかなども考慮に入れるべきであるが, 自動分類に対応できる誤用タイプの構 築を目指しているため本稿では対象とせず,今後の課題とした. 現在,様々な言語学習者コーパスが存在するが,学習者コーパスをそのまま用いるには情報が足りないため,誤用検出をしたり,誤用タイプに分類し誤用タグを付与したりと前処理をしなければならない,機械学習による誤用タイプ分類の精度が高くなれば,研究のために利用できる学習者コーパスの量が増え,大規模なコーパスでさらに普遍的な現象なども見ることが可能になると考えられる。 ## 謝 辞 Lang-8という貴重な資料を提供して頂いた株式会社 Lang-8社長喜洋洋氏に感謝申しげます.論文に対して貴重なご意見を頂いた査読者の方と編集委員の方にも感謝申しげます. ## 参考文献 浅田和泉 (2007). 日本語学習者作文コーパスにみる多義的副詞の習得について. 熊本大学社会文化科学研究科 2007 年度プロジェクト研究報告, 7, pp. 79-96. 浅田和泉 (2008). 中国人日本語学習者の副詞の語順. 熊本大学社会文化科学研究科 2008 年度プロジェクト研究報告, 8 , pp. 37-58. Brockett, C., Dolan, W., and Gamon, M. (2006). "Correcting ESL Errors Using Phrasal SMT Techniques." In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 249-256, Sydney, Australia. Carletta, J. (1996). "Assessing Agreement on Classification Tasks: The Kappa Statistic." Computational Linguistics, 22 (2), pp. 249-254. 張希朱 (2010). 話者を表す「私は」の用法について:日本語母語話者と日本語学習者の意見文を比較して. 学校教育学研究論集, 22, pp. 23-35. Chodorow, M., Tetreault, J., and Han, N.-R. (2007). "Detection of Grammatical Errors Involving Prepositions." In Proceedings of the 4 th ACL-SIGSEM Workshop on Prepositions, pp. 45-50, Prague, Czech Public. De Felice, R. and Pulman, S. (2007). "Automatically Acquiring Models of Prepositional Use." In Proceedings of the 4th ACL-SIGSEM Workshop on Prepositions, pp. 45-50, Prague, Czech Public. De Felice, R. and Pulman, S. (2008). "A Classifier-based Approach to Preposition and Determiner Error Correction in L2." In Proceedings of the 22nd International Conference on Computational Linguistics (COLING 2008), pp. 169-176, Manchester, U.K. 藤野拓也, 水本智也, 小町守, 永田昌明, 松本裕治 (2012). 日本語学習者の作文の誤り訂正に向け た単語分割. 言語処理学会第 18 回年次大会, pp. 26-29. Gamon, M., Gao, J., Brockett, C., Klementiev, A., Dolan, W., Belenko, D., and Vanderwende, L. (2008). "Using Contextual Speller Techniques and Language Modelling for ESL Error Correction." In Proceedings of the 3rd International Joint Conference on Computational Linguistics (IJCNLP 2008), pp. 449-456, Hyderabad, India. Han, N. R., Chodorow, M., and Leacock, C. (2006). "Detecting Errors in English Article Usage by Non-Native Speakers." Natural Language Engineering, 12 (2), pp. 115-129. Holec, H. (1981). Autonomy and foreign language learning. Pergamon Press, Oxford. 細川英雄 (1993). 留学生日本語作文における格関係表示の誤用について. 早稲田大学日本語研究教 育センター紀要, 5 , pp. 70-89. 市川保子 (1997). 日本語誤用例文小辞典. 凡人社. 市川保子 (2000). 続 ・日本語誤用例文小辞典接続詞・副詞. 凡人社. 市川保子 (2001). 日本語の誤用研究. 国際交流基金日本語グループ (編), 日本語教育通信 (40 版), pp. 14-15. 国際交流基金. 今枝恒治, 河合敦夫, 石川裕司, 永田亮, 桝井文人 (2003). 日本語学習者の作文における格助詞の 誤り検出と訂正. 情報処理学会研究報告コンピュータと教育研究会報告, pp. 39-46. 情報処理学会. 今村賢治, 齋藤邦子, 貞光九月, 西川仁 (2012). 識別的系列変換を用いた日本語助詞誤りの訂正. 言語処理学会第 18 回年次大会, pp. 18-21. 石田亨, 伊佐原均, 齋賀豊美, S. Thepchai, 成田真澄, 内元清貴, 和泉恵美 (2003). 適合型コミュ ニケーションの研究開発. 平成 15 年度通信・放送機構研究発表会, pp. 572-581. 蔭山ハント悠子 (2004). 新・はじめての日本語教育 1 日本語教育の基礎知識. アスク, 東京. 鎌田修, 山内博之 (1999). KYコーパス Ver 1.1. テクニカル・レポート, 第二言語としての日本語 の習得に関する総合研究グループ. http://www.opi.jp/shiryo/ky_corp.html. 李在鎬, 林炫情, 宮岡弥生, 柴崎秀子 (2012). 言語処理の技術を利用したタグ付き日本語学習者 コーパスの構築. 2012 年度日本語教育学会春季大会予稿集. 松田真希子, 森篤嗣, 金村久美, 後藤宽樹 (2006). 日本語学習者の名詞句の誤用と言語転移. 留学 生教育, 11, pp. 45-53. 峰布由紀 (2011). 言語処理の発達の観点からみたナイデとナクテの習得過程. In 7th International Conference on Practical Linguistics of Japanese (ICPLJ7), pp. 92-93, San Francisco, U.S.A.水本智也, 小町守, 永田昌明, 松本裕治 (2013). 日本語学習者の作文自動誤り訂正のための語学学 習 SNS の添削ログからの知識獲得. 人工知能学会論文誌, 28 (4), pp. 420-432. 永田亮, 井口達也, 脇寺健太, 河合敦夫, 桝井文人, 井須尚紀 (2005). 前置詞情報を利用した冠詞誤り検出. 電子情報通信学会論文誌, J88-D-I (4), pp. 873-881. 永田亮, 若菜崇宏, 河合敦夫, 森広浩一郎, 桝井文人, 井須尚紀 (2006). 可算/不可算名詞の判定に基づいた英文の誤り検出. 電子情報通信学会論文誌, J89-D-8, pp. 1777-1790. 南保亮太, 乙武北斗, 荒木健治 (2007). 文節内の特徵を用いた日本語助詞誤りの自動検出・校正. 情報処理学会研究報告自然言語処理研究報告, pp. 107-112. 情報処理学会. 大木環美, 大山浩美, 北内啓, 末永高志, 松本裕治 (2011). 非日本語母国話者の作成するシステム 開発文書を対象とした助詞の誤用判定. 言語処理学会第 17 回年次大会, pp. 1047-1050. 大曽美恵子, 杉浦正利, 市川保子, 奥村学, 小森早江子, 白井英俊, 滝沢直宏, 外池俊幸 (1997). 日本語学習者の作文コーパス:電子化による共有資源化. 言語処理学会第 3 回年次大会論文集, pp. 131-145. 大山浩美 (2009). 日本語学習者コーパスのための誤用タグの構築について. 国文研究,54, pp. 102-114. 大山浩美, 小町守, 松本裕治 (2012). 日本語学習者の作文における誤用タグつきコーパスの構築に ついて一NAIST 誤用コーパスの開発一. 第一回テキストアノテーションワークショップ. Oyama, H., Komachi, M., and Matsumoto, Y. (2013). "Towards Automatic Error Type Classification of Japanese Language Learners' Writings." In Proceedings of the 27th Pacific Asia Conference on Language, Information, and Computation (PACLIC 27), pp. 163-172, Taipei, Taiwan. Oyama, H., Matsumoto, Y., Asahara, M., and Sakata, K. (2008). "Construction of an Error Information Tagged Corpus of Japanese Language Learners and Automatic Error Detection." In Proceedings of the Computer Assisted Language Instruction Consortium, San Francisco, U.S.A. CALICO. 清水政明, 宋哲, 孟慶栄, 杜鳳剛, 壇辻正剛 (2004). 中国人日本語学習者対訳作文コーパスの構築における誤りタグの構築について. 日本語言文化教学与研究国際学術研討会. Sun, G., Liu, X., Cong, G., Zhou, M., Xiong, Z., Lee, J., and Lin, C. (2007). "Detecting Erroneous Sentences using Automatically Mined Sequential Patterns." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 81-88, Prague, Czech Public. Suzuki, H. and Toutanova, K. (2006). "Learning to Predict Case Makers in Japanese." In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1049-1056, Sydney, Australia. Swanson, B. and Yamangil, E. (2012). "Correction Detection and Error Type Selection as an ESL Educational Aid." In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics (NAACL), pp. 357-361, Montreal, Canada.寺嶋弘道 (2013). 日本語教育におけるコーパスの応用一デー夕駆動型学習とその実践方法の考察一. ポリグロシア, pp. 91-103. 寺村秀夫 (1972). 日本語の文法上・下. 国立国語研究所. 寺村秀夫 (1990). 外国人学習者の日本語誤用例集接続詞・副詞.テクニカル・レポート, 大阪大学・ 国立国語研究所. Tetreault, J. and Chodorow, M. (2008). "The Ups and Downs of Preposition Error Detection in ESL Writing." In Proceedings of the 22nd International Conference on Computational Linguistics (COLING 2008), pp. 865-872, Manchester, U.K. 梅田康子 (2005). 学習者の自律性を重視した日本語教育コースにおける教師の役割. 愛知大学言 語と文化, 12, pp. 59-77. 王国華 (2003). 中国人日本語学習者が間違えやすい表現について. 北陸大学紀要, 27, pp. 115-122. Wilcox-O'Hearn, A., Hirst, G., and Budanitsky, A. (2008). "Real-word Spelling Correction with Trigrams: A Reconsideration of the Mays, Damerau, and Mercer Model." In Gelbukh, A. (Ed.), Proceedings of 9th International Conference on Intelligent Text Processing and Computational Linguistics (CICLing-2008)(Lecture Notes in Computer Science Vol. 4919), pp. 605-616, Berlin. Springer. Yi, X., Gao, J., and Dolan, W. (2008). "A Web Based English Proofing System for ESL Users." In Proceedings of the 3rd International Joint Conference on Computational Linguistics (IJCNLP 2008), pp. 619-624, Hyderabad, India. 吉永尚 (2013).「ナイデ」と「ナクテ」の相違について. 園田学園女子大学論文集, 47, pp. 133-140. ## 付録 ## A 誤用タイプ項目 助詞 $(\mathbf{P})$ は, 助詞の不足, 余剰, 誤った助詞の選択であり, 複合助詞の誤用も含まれる。「に関する」や「について」などの複合助詞はしばしば誤用を引き起こす原因となる。表 2 以外の例として「宇宙に関した仕事をする」ではなく「*宇宙に関して仕事をする」といった誤用も見られる。 これは,「仕事」を修飾しているので,「に関して」ではなく「に関した」とならなければならない. 語彙選択 (SEM) は, 一単語内での誤った選択で, ふさわしい語彙を選べなかった(例えば,「国民」を「人民」と書いた)誤りである。表 2 にある例では,誤用は「*部分の人」で,正用は「一 部の人」であり,英語では "some people”となる. 表記 (NOT) には,ひらがな,かたかな,漢字に関する誤りなどが入る。 不足 (OM) は, 不足している単語, 句があれば, このタイプに分類される. 日本語において未知の固有名詞について説明するときには「という」をつけるが(例:「Nobu というレストランに行きました」),日本語学習者はそれを落としやすい(「*Nobu фレストランに行きました」),たたし,それが「助詞」や「形容詞」などにも入る事例は,そちらを優先する。さらに,「不足の助詞」 や「不足の形容詞」の場合,「助詞」や「形容詞」に分類している。判断がつきにくい事例の場合, (例えば,「の」については,複数の用法がある)。その場合は「不足」や「余剩」に入れる 動詞 $(\mathrm{V})$ カテゴリーの誤用には, 下位分類として動詞の活用, 自動詞か他動詞か, 受け身の誤り,テンスアスペクトの誤り,「〜ている」の不適切な使用が含まれる。「〜ている」はアスペクトと深く関わる問題であるため, 誤用として多く見られる。 そのため, 上級の日本語学習者でさえ「日本に住んでいる」がなかなか使えず,「*日本に住む」という場合がある。 余剰 (AD) は,余分な単語や表現などの付加を指す.「不足」と同様に,「助詞」や「形容詞」などにも入る事例は,そちらを優先する。判断のつきにくい事例においては,「不足」の場合と同様の扱いをする,日本語学習者は,「*天気が寒くて」という文を作りたがるが,日本語では,「天気が」にわざわざ言及せず,「(今日は) 寒くて」とする。 文体 (STL) は,「です・ます体」に関する誤りを指す。日本語の作文では,文末の「です・ます体」か「だ・である体 $\left.{ }^{17}\right.\rfloor の一$ 致を重要視するため, このような誤りが日本語学習者の作文でしばしば見られる。 名詞化 (NOM) の誤りとは,動詞を名詞化するときの「の」と「こと」に関する誤用である.日本語において,英語の “to watch/watching” などのように名詞化するときに,「の」を使う場合と 「こと」を使う場合とがある,例えば,「趣味は英語をみるのです」の文では,「の」は不適切であり,また,「*鳥が飛ぶことをみました」では,「こと」は不自然となる.「の」と「こと」の使い分けは,文脈によって決まっている。 接続 (CONJ) は,文同士,または単語同士を接続させるときに見られる誤用のことである。日本語では,“because”に相当する表現として,「ので」や「から」があるが,文脈,話し言葉,書き言葉の違いによって使用が異なる. 形容詞 (ADJ) は,形容詞に関係する誤用を指す. 形容詞の活用の誤用,選択の誤用などが含まれる. 日本語の形容詞は活用するため, 活用がない言語を母語に持つ学習者にはこの間違いが多い.表 2 にあるように,「*僕は太くて人ですから」は名詞を修飾しているので,「くて」と変換するのは誤りである,実際は,「僕は太い人です」としなければならないが,活用の区別がついておらず,「太くて」と書いてしまう学習者が多々いる。  指示詞 $(D E M)$ は,「こ・そ・あ」に関する誤用を指す。他の言語では,この区別が 2 つしかない場合もあり,日本語学習者にとって使い分けが難しい項目の一つである. 語順 (ORD) は,誤った語順を指す。日本語では助詞があるため文節の出現順が自由である。しかし,名詞と助詞の語順は固定している。例えば,英語のような語順「*より 7 月」ではなく「7 月より」が正しい. コロケーション (COL) は, 1 単語内の誤りである「語彙選択 (SEM)」とは異なり,「名詞 + 助詞 + 動詞」といった組み合わせについての誤りは,こちらへ分類される。例えば,学習者は「*影響 $($ 名詞 $)+$ を助詞 $)+$ くれる(動詞 $)\rfloor$ と書くが, 日本人教師は「影響(名詞)+を(助詞 $)$十及ぼす (動詞)」に訂正している。それは 3 つの要素間の共起関係が影響していると見られる。 “だ”の使用 (AUX) は,日本語の複文における従属節に付与するコピュラ“だ”の不適切な使用を指す。例えば,「*あの人は,きれいと思います」のような文における「だ」の不使用誤りなどが含まれる。 さらに,「*あの人はきれいですと思います」という文もこのタイプに含まれる。 否定 (NEG) は,「打ち消し」の意味を表す表現形式での誤りを指す。これには,否定辞「〜ない」の使用誤りや「なくて」と「ないで」の使い分けの誤りなどが含まれる。表 2 にあるように,否定理由を表す時には「なくて」を使用し(「家にいられなくて,外へ行きました」),否定付帯状況を示すときには「ないで」を使用する(「傘をもたないで,外へ行きました」). 副詞 (ADV) の誤用は, 副詞句の使用誤りや副詞語彙の選択誤りなどを指す. 形容詞に「に」や 「と」を添えて,副詞を作り出すことがある.どちらを使うかはその副詞ごとに決まっている.例えば,「のんびりと過ごした」とは言えても,「*のんびりに過ごした」とは言えない,日本語学習者はこの「に」か「と」かで迷う場合が多い. 代名詞 (PRON) に関する誤用は代名詞に関する誤りで,例えば,「*彼たち」は不適切で,「彼ら」としなくてはならない. ## B 誤用タイプ 76 項目 表 7 誤用タイプ 76 項目 & $\overline{\operatorname{not}} / \mathrm{hg}$ & ねえん \\ & org & \\ *これは"v"(動詞)というカテゴリーの中で"othr"(others: 他の単語)から"vol"(volitional form: 意向形)へと添削されたことを示している. 表 8 誤用タイプ 76 項目におけるタグの説明 ## 略歴 大山浩美:1998 年熊本県立大学大学院日本語日本文学課程修了。2001 年イギリスランカスター大学言語学部修士課程修了. 2010 年奈良先端科学技術大学院大学情報科学研究科博士後期課程指導認定退学. 現在, 同大学研究員. 研究テー マは自然言語処理技術を用いた教育支援,第二言語習得,教育工学,日本語教育などである。日本語教育学会員, 日本語文法学会員, 教育システム情報学会員.小町守:2005 年東京大学教養学部基礎科学科科学史・科学哲学分科卒. 2007 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2008 年より日本学術振興会特別研究員 (DC2). 2010 年博士後期課程修了. 博士 (工学). 同年より同研究科助教を経て, 2013 年より首都大学東京システムデザイン学部准教授. 大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある. 情報処理学会, 人工知能学会, 言語処理学会, 電子情報通信学会, ACL 各会員. 松本裕治:1977 年京都大学工学部情報工学科卒. 1979 年同大学大学院工学研究科修士課程情報工学専攻修了. 同年電子技術総合研究所入所. 1984 85 年英国インペリアルカレッジ客員研究員. 1985~87 年(財)新世代コンピュータ技術開発機構に出向. 京都大学助教授を経て, 1993 年より奈良先端科学技術大学院大学教授. 工学博士. 専門は自然言語処理. 情報処理学会, 人工知能学会, 言語処理学会, AAAI, ACL, ACM 各会員. 情報処理学会フェロー. ACL Fellow.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 機能的なリテラルを含む公理体系における仮説推論の効率化 山本 風人 $\dagger \cdot$ 井之上直也 ${ }^{\dagger} \cdot$ 乾 健太郎 } \begin{abstract} 仮説推論は,与えられた観測に対する最良の説明を見つける推論の枠組みである.仮説推論は 80 年代頃から主に人工知能の分野で長らく研究されてきたが,近年,知識獲得技術の成熟に伴い,大規模知識を用いた仮説推論を実世界の問題へ適用する ための土壌が徐々に整いつつある。しかしその一方で,大規模な背景知識を用いる 際に生じる仮説推論の計算負荷の増大は,重大な問題である。特に言語の意味表示上の依存関係を表すリテラル(本論文では機能リテラルと呼ぶ)が含まれる場合に 生じる探索空間の爆発的増大は, 実問題への仮説推論の適用において大きな障害と なっている。これに対し本論文では,機能リテラルの性質を利用して探索空間の枝刈りを行うことで,効率的に仮説推論の最適解を導く手法を提案する。具体的には,意味的な整合性を欠いた仮説を解空間から除外することで,推論全体の計算効率を 向上させる,また,このような枝刈りが,ある条件が満たされる限り本来の最適解 を損なわないことを示す. 評価実験では, 実在の言語処理の問題に対して, 大規模背景知識を用いた仮説推論を適用し, その際の既存手法との計算効率の比較を行っ た. その結果として, 提案手法が既存のシステムと比べ, 数十〜数百倍ほど効率的 に最適解が得られていることが確かめられた. キーワード:仮説推論, 談話理解, 共参照解析 \end{abstract ## Boosting Abductive Reasoning with Functional Literals \author{ Kazeto Yamamoto ${ }^{\dagger}$, NaOya Inoue $^{\dagger}$ and Kentaro Inui $^{\dagger}$ } \begin{abstract} Abduction is also known as Inference to the Best Explanation. It has long been considered as a promising framework for natural language processing (NLP). While recent advances in the techniques of automatic world knowledge acquisition warrant developing large-scale knowledge bases, the computational complexity of abduction hinders its application to real-life problems. In particular, when a knowledge base contains functional literals, which express the dependency relation between words, the size of the search space will substantially increase. In this study, we propose a method to enhance the efficiency of first-order abductive reasoning. By exploiting the property of functional literals, the proposed method prunes inferences that do not lead to reasonable explanations. Furthermore, we prove that the proposed method is sound under a particular condition. In our experiment, we apply abduction having a large-scale knowledge base to a real-life NLP task. We show that our method significantly improves the computational efficiency of first-order abductive reasoning when compared with a state-of-the-art system. \end{abstract} Key Words: Abduction, Discourse Understanding, Coreference Resolution  ## 1 はじめに 仮説推論 (Abduction) は,与えられた観測に対する最良の説明を見つける,論理推論の枠組みのひとつである。仮説推論は,自然言語処理や故障診断システムなどを含む,人工知能分野の様々なタスクにおいて古くから用いられてきた (Ng and Mooney 1992; Blythe, Hobbs, Domingos, Kate, and Mooney 2011; Ovchinnikova, Hobbs, Montazeri, McCord, Alexandrov, and Mulkar-Mehta 2011; 井之上, 乾, Ovchinnikova, Hobbs 2012; 杉浦, 井之上, 乾 2012). 自然言語処理への応用のうち, 代表的な先行研究の一つに Hobbs ら (Hobbs, Stickel, Martin, and Edwards 1993) の Interpretation as Abduction (IA) がある. Hobbs らは, 語義曖昧性解消,比喻の意味理解, 照応解析や談話関係認識などの, 様々な自然言語処理の夕スクを, 一階述語論理に基づく仮説推論により統合的にモデル化できることを示した. 詳しくは 2.1 節で述べるが,IA の基本的なアイデアは,談話解析(文章に対する自然言語処理)の問題を「観測された文章(入力文)に対し,世界知識(言語の知識や常識的知識など)を用いて, 最良の説明を生成する問題」として定式化することである。最良の説明の中には, 観測された情報の背後で起きていた非明示的な事象,共参照関係や単語の語義などの情報が含まれる。例文 “John went to the bank. He got a loan.” に対して,IA による談話解析を行う様子を図 1 に示す。まず, 入力文の論理式表現が観測として, 世界知識の論理式表現が背景知識として与えられ, 背景知識に基づいて説明が生成される。例えば, $g o\left(x_{1}, x_{2}\right)$ (John が bank に行った) という観測に対して, $\operatorname{issue}(x, l, y) \Rightarrow g o(y, x) ( x$ が $y$ に対して $l$ を発行するには, $y$ は $x$ の所に行かなければならない)という因果関係(行為の前提条件)の知識を用いて, issue $\left(x_{2}, u_{1}, x_{1}\right)$ (bank が John に対して何か $\left(u_{1}\right)$ を発行した)という説明を生成している. これは, 非明示的な情報の推定に相当する。また, この非明示的な情報を根拠の一つとして生成された説明 $x_{1}=y_{1}$ (John と He は同一人物)は,共参照関係の推定に相当する,以上のように IA では,談話解析の様々なタスクが,説明生成という統一的な問題に帰着される. 仮説推論は,以下の様な点で談話解析の枠組みとして適していると考えられる: (1) 入力から出力が導かれるまでの過程が,解釈可能な形で得られる。すなわち,どのような仮説を立てて,どのような知識を用いて観測を説明しているかが,図1のような証明木という形で陽に得られる。 (2)様々な種類の世界知識を統一的,かつ宣言的に記述し利用することができる。すなわち, どのような種類の知識であっても,その知識を解析にどう利用するかの手続きを定義する必要がなく,論理式として宣言的に記述するだけで談話解析に利用できる. (3)語義曖昧性解消や照応解析,プラン認識など,談話理解の様々なサブタスクを一つのモデルに集約して解くことにより,サブタスク間の相互依存性を自然な形で考慮できる。図 1 においても,照応解析と語義曖昧性の解消が同時に起こっていることが確認できる. ## 入力文: John went to the bank. He got a loan. 図 1 仮説推論による談話解析の例. 点線の四角は観測を, 実線の四角は背景知識を表す. 変数対を繋ぐ点線はそれらがその仮説において同一の変数であることを表す。青い吹き出しは推論中で用いられている背景知識の元となった世界知識を表し,赤い吹き出しは得られた仮説に対する解釈を表す. IA を始めとした仮説推論に基づく談話解析の研究は,1990 年代が全盛期であったが,近年になって再び注目を浴びつつある (Blythe et al. 2011; Ovchinnikova et al. 2011; 井之上他 2012; 杉浦他 2012). これには, 大きく2つの背景があると考えられる. ひとつめに, 仮説推論を実用規模の問題に適用できる程度の,大規模な世界知識を取り揃える技術が昔に比べて大幅に成熟してきたことが挙げられる (Fellbaum 1998; Ruppenhofer, Ellsworth, Petruck, Johnson, and Scheffczyk 2010; Chambers and Jurafsky 2009; Schoenmackers, Etzioni, Weld, and Davis 2010). 例えば文献 (Ovchinnikova et al. 2011) では, WordNet (Fellbaum 1998) と FrameNet (Ruppenhofer et al. 2010)を用いて約数十万の推論規則からなる背景知識を構築し, 含意関係認識のタスクにIAを適用している。 ふたつめの背景には, 計算機性能の向上や効率的な仮説推論エンジンが提案された (Mulkar, Hobbs, and Hovy 2007; Blythe et al. 2011; Inoue and Inui 2011a; 井之上他 2012; Yamamoto, Inoue, Inui, Arase, and Tsujii 2015; Schüller 2015)ことにより,大規模知識を用いた論理推論が計算量の面で実現可能になってきたことが挙げられる。例えば (井之上他 2012) では,約数十万の推論規則からなる背景知識を用いて含意関係認識のデータセットに対して推論を行い, 先行研究より大幅に高速な推論を行えたことが報告されている. しかしながら, 仮説推論における計算コストの問題は未だ完全に解決されたとはいえないのが 実情である。詳しくは 3 節で詳述するが,とりわけ,主格関係や目的格関係などの単語間の統語的依存関係を表すためのリテラル(便宜的に「機能リテラル」と呼ぶ.形式的な定義は 3.1 節で与える)が知識表現に含まれる場合(例えば, $\operatorname{john}(j) \wedge \operatorname{get}(e) \wedge \operatorname{dobj}(e, l) \wedge \operatorname{loan}(l)$ における get と loanの目的格関係を表す $\operatorname{dobj}(e, l)$ ), 推論時間が増大するという問題がある. 最新の仮説推論エンジンである (Yamamoto et al. 2015) では, A*アルゴリズムに基づいて説明の構成要素(潜在仮説集合) を列挙し, 仮説推論の問題を「説明の構成要素の組み合わせ最適化問題」へ変換したのち, 整数線形計画ソルバにより最良の説明を求める。しかし, 機能リテラルが知識表現に含まれる場合, (1) 機能リテラルをもとにした推論により, 潜在仮説集合の中に, 最良の説明になりえない構成要素が多く入り达んでしまい (例えば, foolish $\left(e_{1}\right) \wedge \operatorname{smart}\left(e_{2}\right) \wedge \operatorname{nsubj}\left(e_{1}, x\right) \wedge \operatorname{nsubj}\left(e_{2}, y\right)$ から, $e_{1}=e_{2}$ を導く), 組み合わせ最適化問題のサイズが無用に肥大化し, 推論時間が増大する,(2) 潜在仮説集合の生成をガイドするヒューリスティック関数の精度低下が起きてしまい,潜在仮説集合の生成における計算効率が低下する,という問題が起こる。このように,実タスクへの適用は未だ困難な状況であり,前述のような利点が本当にあるかどうか,検証する環境が完全に整っていない状況である. 以上のような背景を踏まえ,本論文では,知識表現に機能リテラルを含む仮説推論において,機能リテラルの性質を利用して潜在仮説集合の生成手続きを改良し,効率的に最適解を求め,かつヒューリスティック関数の精度低下を抑制する手法を提案する。より具体的には,一つ目の問題に対しては,潜在仮説集合の生成を行う際に,最良の説明になりえない説明を事前チェックするように潜在仮説集合の手続きを拡張する。例えば,矛盾する二つの事象を等価とみなす説明の構成要素を生成する推論(前述の $e_{1}=e_{2}$ など)を禁止することで, 潜在仮説集合の肥大化を防ぐ。また,二つ目の問題に対しては,ヒューリスティック関数の中で,より良い説明の構成要素を優先的に探索するために用いられる述語グラフの生成手法を工夫することにより対処する. 問題の原因は, 背景知識に頻出する機能リテラルがハブとなり, あらゆる説明の構成要素の候補が最良の説明の生成に寄与すると誤って判断されてしまうことにある。これに対し, 述語グラフにおいて機能リテラルに繋がる一部の枝を適切に排除することにより, 解の最適性を保持しながらヒューリスティック関数の精度を上げる手法を提案する。 本論文における具体的な貢献は次の 3 点である。一つ目に,仮説推論の最新の実装である A*-based Abduction (Yamamoto et al. 2015)の手法に前述の枝刈りを導入する方法を示し, 機能リテラルを知識表現に含む場合でも推論の規模耐性を維持する方法を示す。二つ目に,機能リテラルの性質に基づく探索空間の枝刈りが,ある条件のもとでは本来の解を損なわないことを示す. 三つ目に,大規模な知識べースと実在の言語処理の問題を用いて, A*-based Abduction (Yamamoto et al. 2015)のシステムとの推論時間の比較を行い, 提案手法を評価する。本論文での実験においては,提案手法が (Yamamoto et al. 2015)のシステムと比べ数十〜数百倍ほど効率的に解仮説が得られていることが確かめられた. 仮説推論に基づく談話解析の枠組みを実 タスクへ適用する上で,効率的な推論アルゴリズムの確立は必須の要件である。本研究の成果により,仮説推論に基づく談話解析の研究を進めるための環境整備が大きく前進すると考えられる。 以降の節では,まず仮説推論とその実装に関する先行研究について述べたあと $(2$ 節 $)$, 本論文で取り組む問題について述べ(3節),提案手法について説明する(4 節, 5 節 $)$ 。次に,提案手法と既存手法の比較実験の結果について報告し(6 節), 最後に今後の展望を述べる. ## 2 背景 本節では, 本論文の提案手法の基になっている種々の既存研究, すなわち仮説推論およびその実装に関して説明する。 ## 2.1 仮説推論 仮説推論とは,与えられた観測に対して最良の説明を求める推論である。本論文では,仮説推論の意味表現として一階述語論理 1 を用い, 仮説推論の形式的な定義を次のように与える。なお, 本論文では関数記号のない (function-free) 一階述語論理を用いるものとし, 全てのリテラルは論理変数, 定数, スコーレム定数を引数に取る. Given: 背景知識 $B$, 観測 $O$. ただし, $B$ は含意型の一階述語論理式の集合であり, 各論理式の前件および後件にはリテラルの連言のみを許容する。各論理式の前件に含まれる論理変数は全称限量されており,前件に含まれない論理変数は存在限量されているものとする。形式的には, 各論理式は $\forall x_{1}, \ldots, x_{n}\left[\exists y_{1}, \ldots, y_{m}\left[p_{1}\left(x_{1}\right) \wedge \ldots \wedge p_{n}\left(x_{n}\right) \Rightarrow q_{1}\left(y_{1}\right) \wedge \ldots \wedge q_{m}\left(y_{m}\right)\right]\right]$ と表現される。ここで, $x_{i}, y_{i}$ はそれぞれ任意個数の引数列を表す2。また, $O$ は,一階述語論理リテラルおよび論理変数間の等価関係を表す等号あるいはその否定の連言であり, 全ての論理変数は存在限量されているものとする。なお以降の記述では, $B$ および $O$ がそれぞれ矛盾を含まないことを前提とする。 Find: 仮説(または説明)H.H は, 一階述語論理リテラル,および論理変数間の等価関係を表す等号・不等号の連言であり, $H \cup B \models O$ および $H \cup B \nvdash \perp を$ 満たす3.ここで $\models$ は論理的含意を表し, $H$ が $O$ を説明する,という。 $\perp$ は偽を表す。また,連言と集合は  相互変換可能であるとし, 連言 $l_{1} \wedge \ldots \wedge l_{n}$ とリテラル集合 $\left.\{l_{1}, \ldots, l_{n}\right.\}$ とも書けるものとする. なお, 本論文では背景知識, 観測, 仮説における限量子の記述は基本的に省略する. 一般には, 与えられた $B$ と $O$ に対して, 複数の仮説 $H_{1}, H_{2}, \ldots$ が存在する. 本論文では, それぞれの仮説 $H_{i}$ を候補仮説と呼び, 候補仮説 $H_{i}$ に含まれる各リテラル $h \in H_{i}$ を $H_{i}$ の要素仮説と呼ぶ. また, 可能な全ての候補仮説を $H \equiv\left.\{H_{1}, H_{2}, \ldots\right.\}$ で表す. 例えば図 1 では, 点線で囲まれたリテラルの集合 $\left(j o h n\left(x_{1}\right) \wedge g o\left(x_{1}, x_{2}\right) \wedge \ldots\right)$ が観測 $O$, 実線で囲まれた論理式(例えば, $\left.\operatorname{issue}\left(x_{2}, u_{1}, x_{1}\right) \Rightarrow g o\left(x_{1}, x_{2}\right)\right)$ が背景知識 $B$ の一部である. 候補仮説として, 例えば $H_{1}=j o h n\left(x_{1}\right) \wedge \operatorname{loan}\left(y_{2}\right), H_{2}=j o h n\left(x_{1}\right) \wedge \operatorname{issue}\left(u_{2}, y_{2}, y_{1}\right) \wedge$ financial_inst $\left(x_{2}\right) \wedge \operatorname{loan}\left(y_{2}\right)$ などが考えられる。 仮説推論の目的は, 何らかの評価指標のもとでの最良の候補仮説 $\hat{H}$ を見つけることである. この $\hat{H}$ を解仮説と呼び,形式的には次のように表す: $ \hat{H}=\underset{H \in \mathbb{H}}{\arg \max } \operatorname{Eval}(H) $ ここで,Eval は候補仮説 $H$ の蓋然性を表す何らかの評価値を返す関数を表し,このような関数を仮説の評価関数と呼ぶ. 先行研究では, さまざまな評価関数が提案されている (Hobbs et al. 1993; Singla and Mooney 2011; Inoue and Inui 2012; Raghavan and Mooney 2010). 例えば,代表的な評価関数の一つである重み付き仮説推論 (Hobbs et al. 1993) は,「単純な (小さい)仮説ほど良い」という基本的な仮定に基いており, 候補仮説の最小性を候補仮説の評価値として定義している。より具体的には, 候補仮説の評価値 $\operatorname{Eval}(H)$ は, $H$ の要素仮説のコストの負の総和 $-\sum_{h \in H} \operatorname{cost}(h)$ で定義される. 要素仮説のコスト $\operatorname{cost}(h)$ の詳細な計算方法は (Hobbs et al. 1993) に委ねるが,基本的には,(1) 要素仮説 $h$ が観測 $O$ を説明するのに要する背景知識の信頼度, (2) 要素仮説 $h$ が他の要素仮説に説明されているか, の二つの要因を基にコストが決定される. 本研究では, 3 節で示す仮説の整合性条件を保証する任意の評価関数を想定する. ## 2.2 潜在仮説集合に基づく候補仮説の表現 $H \cup B \models O, H \cup B \not \models \perp$ を満たす全ての候補仮説を陽に列挙して最良の仮説を求めることは, 時間・空間的計算量の観点で非現実的である. そのため, 仮説推論エンジンの先行研究 (Inoue and Inui 2011a; 井之上他 2012; Yamamoto et al. 2015) では, (1) 観測からの後ろ向き推論によって各候補仮説を構成するリテラルの集合 $P$ を列挙するに留め, (2) $P$ の要素の組み合わせ(部分集合)で暗に候補仮説を表現し, 組み合わせ最適化問題を解くことで効率化を実現している.この $P$ は,潜在仮説集合と呼ばれる,例えば,図 2 の例では,観測 $O=\operatorname{animal}(x) \wedge \operatorname{bark}\left(e_{1}, x\right)$ と背景知識より, 潜在仮説集合 $P=\{\operatorname{cat}(x), \operatorname{poodle}(x), \operatorname{dog}(x), \operatorname{dog}(y), x=y\}$ を得る. この集合 入力文: 動物が吠えている。 図 2 潜在仮説集合の例。背景知識は, 図中の実線の四角で囲まれた 4 つの含意型論理式である. の要素の組み合わせ(例えば $\{\operatorname{cat}(x), \operatorname{dog}(x)\} )$ が,一つの候補仮説に対応する. 本研究では, この潜在仮説集合の生成方法を効率化する手法を提案するため,潜在仮説集合の生成手続きについて,より詳しく説明する. まず,観測に含まれるリテラルの集合を初期状態として $(P=O)$, 次のように定義される後ろ向き推論操作および単一化仮説生成操作を有限回だけ逐次適用することで,潜在仮説集合 $P$ を生成する。図 2 では, $P=\left.\{\operatorname{animal}(x), \operatorname{bark}\left(e_{1}, y\right)\right.\}$ が初期状態となる. 後ろ向き推論後ろ向き推論は, 背景知識に含まれる含意型の論理式 $p_{1}\left(x_{1}\right) \wedge \ldots \wedge p_{n}\left(x_{n}\right) \Rightarrow$ $q_{1}\left(y_{1}\right) \wedge \ldots q_{m}\left(y_{m}\right)$ と, $\bigwedge_{i=1}^{m} y_{i} \theta=y_{i}^{\prime}$ を満たす変数置換 $\theta$ が存在するようなリテラルの連言 $q_{1}\left(y_{1}^{\prime}\right) \wedge \ldots \wedge q_{m}\left(y_{m}^{\prime}\right)$ を含む潜在仮説集合 $P$ を入力として,前件部のリテラルの連言 $\bigwedge_{i=1}^{n}\left.\{p_{i}\left(x_{i} \theta\right)\right.\}$ を $P$ に追加する操作である. 本論文では, $q_{1}\left(y_{1}^{\prime}\right), \ldots, q_{m}\left(y_{m}^{\prime}\right)$ をそれぞれ $p_{1}\left(x_{1} \theta\right), \ldots, p_{n}\left(x_{n} \theta\right)$ の根拠と呼ぶこととする。図 2 では, 背景知識 $\operatorname{cat}(x) \Rightarrow \operatorname{animal}(x)$ と $P=\left.\{\operatorname{animal}(x), \operatorname{bark}\left(e_{1}, y\right)\right.\}$ を入力として, $\operatorname{cat}(x)$ を $P$ に追加している.このとき, $\operatorname{cat}(x)$ の根拠は $\operatorname{animal}(x)$ である. 単一化仮説生成単一化仮説生成は,同一の述語を持つリテラルの対 $p\left(x_{1}, x_{2}, \ldots\right), p\left(y_{1}, y_{2}, \ldots\right)$ に対して,それらのリテラルの引数間の等価関係 $x_{1}=y_{1}, x_{2}=y_{2}, \ldots$ を潜在仮説集合 $P$ に追加する操作である,本論文では, $x=y$ のような, 単一化仮説生成操作によって仮説される論理変数間の等価関係を等価仮説と呼ぶ. 図 2 では, $P=\{\ldots, \operatorname{dog}(x), \operatorname{dog}(y), \ldots\}$ に対して,本操作を適用し, $x=y$ を $P$ に追加している. 操作の適用回数の決め方には様々な基準が考えられるが, 先行研究 (Inoue and Inui 2011a; 井之 上他 2012; Yamamoto et al. 2015) では, リテラルの深さという概念を用いて, 適用回数を制限している. リテラル $l$ の深さとは, $l$ を潜在仮説集合に追加するまでに実行した後ろ向き推論の回数である,例えば,図 2 では,観測に含まれる全てのリテラルは深さ 0 であり, poodle $(x)$ の深さは 2 である. 先行研究では, 後ろ向き推論を適用する対象をある深さ $d_{\max }$ までのリテラルに制限することにより,操作の適用回数の上限を決めている。このように操作の適用範囲を定めることは,再帰的な推論規則(例えば $p(x) \Rightarrow q(y)$ と $q(y) \Rightarrow p(x)$ )が背景知識に含まれる場合において, 特に重要である。操作の適用回数が有限回であるならば, 潜在仮説集合に含まれる各リテラルもまた有限回の後ろ向き推論によって仮説されたリテラルであるので, 全ての候補仮説 $H \in \mathbb{H}$ について $H \cup B \models O$ の決定可能性が保証される。また,アルゴリズムの停止性,および潜在仮説集合が有限集合であることについても同様に保証される.以上の議論に基づき,本研究においても以上の手続きによって生成された潜在仮説集合の部分集合を候補仮説として扱う。 ## 2.3 仮説推論の実装に関する先行研究 まず,仮説推論の分野における代表的な実装としては Mulkar らの Mini-TACITUS (Mulkar et al. 2007) が挙げられるが,これは計算量の面では非常に非効率であった. そのため,大規模知識を用いた仮説推論を行うにあたっては,より効率的な推論アルゴリズムが必要とされた. これを受けて Blythe らは, 仮説推論の枠組みを Markov Logic Network (MLN) (Richardson and Domingos 2006)の上で定式化する手法 (MLN-based Abduction) を提案した (Blythe et al. 2011),彼らは,仮説推論を MLN上で実装することによって,MLN の分野における成熟した最適化手法を仮説推論にも利用することを可能にした.これにより Mini-TACITUS と比べ遥かに高速な推論が実現可能になった。 そしてこれよりも更に高い効果をあげたのが, 井之上らが提案した整数線形計画法 (Integer Linear Programming, ILP) に基づく仮説推論 (ILP-based Abduction) であった (Inoue and Inui 2011a, 2012). 井之上らは, 仮説推論の問題を整数線形計画問題により定式化する手法を提案した。これにより, 仮説推論において解仮説を導出する処理はそのまま ILP 問題の最適解を導く処理と対応付けられ,外部の高速な ILPソルバを利用することで解仮説を効率的に導出することが可能になった。文献 (Inoue and Inui 2012)では, ILP-based Abduction の枠組みが MLN-based Abduction と比べても遥かに高速であることが実験によって定量的に示されている. Yamamoto らは, ILP-based Abduction (Inoue and Inui 2011a, 2012) における計算コストが潜在仮説集合の規模に強く依存することに着目し, 背景知識における述語間の関連度を事前に推定しておくことで,ILP-based Abduction の潜在仮説集合生成の手続きにおいて解仮説に含まれる見込みの無い要素仮説を潜在仮説集合から除外し, ILP 問題の最適化にかかる時間を大幅に短縮する手法 (A*-based Abduction) を提案した (Yamamoto et al. 2015). しかしながら, 3 節で示すように, A*-based Abduction には,機能リテラルを含む知識表現において推論時間が増大するという問題がある。本研究は, 我々が知る限り最も効率的な枠組みである A*-based Abduction を拡張する手法を提案するものである。A*-based Abduction の詳細については 5.1 節で述べる. ## 3 関係を表すリテラルに起因する計算非効率性 本節では, 3.1 節で示される意味表現と評価関数に基づくIA を先行研究の仮説推論エンジン (Inoue and Inui 2011a, 2012; Yamamoto et al. 2015) で実現する場合に生じる,潜在仮説集合の計算の非効率性について論じる。本節では,まず本研究が前提とする意味表現・評価関数について述べたあと (3.1 節), 既存研究の問題点について述べる (3.2 節). ## 3.1 本研究が前提とする意味表現と評価関数 仮説の評価関数は,2.1 節で述べたとおり仮説の良さを評価する関数であるが,「良さ」の因子には少なくとも,(1)仮説が表す情報の良さ,(2)仮説に含まれる意味表現の文法的正しさ (well-formedness), の二種類が考えられる。本研究は, これらに対してある前提が成立する状況での推論の非効率性を改善するものであるから, 本節では, 前提とする意味表現と, 仮説の評価関数の概形について述べる. (1) 意味表現言語表現によって表される情報を, どのような論理式として表すかは重要な問題の一つである。特に, 述語と項の関係の表現形式については, これまでに様々な議論が交わされてきた (Davidson 1980; Hobbs 1985; McCord 1990; Parsons 1990; Copestake, Flickinger, Pollard, and Sag 2005, etc.). 述語項関係の表現形式の基本形としては, 大きくDavidsonian 形式 (Davidson 1980) と Neo-Davidsonian 形式 (Parsons 1990) があり,本論文では Neo-Davidsonian 形式の意味表現の利用を想定する. Davidsonian 形式では,イベントの必須格をリテラルの項の順番に対応させる.例えば,例文“Brutus stabbed Caesar with a knife.”を stab(e,Brutus, Caesar $) \wedge$ with(e,knife) のように表現する。ここでは $\operatorname{stab}(e$, Brutus, Caesar $)$ の 1 番目の引数が stabイベントそのものを参照する変数, 2 番目の引数がイベントの主格, 3 番目の引数がイベントの目的格に対応している. 一方, Neo-Davidsonian 形式では, 全ての格関係を個別のリテラルとして記述する。例えば,前述の例文を $\operatorname{stab}(e) \wedge n \operatorname{subj}(e$, Brutus $) \wedge \operatorname{dobj}(e$, Caesar $) \wedge$ with $(e, k n i f e)$ のように表現する.こ あることを, $\operatorname{dobj}(e, x)$ はイベント $e$ の目的格が個体 $x$ であることを表すリテラルである. 本論文では, $n \operatorname{subj}(e, x)$ や $\operatorname{dobj}(e, x)$ のような単語間の統語的な依存関係を表すリテラルを機能リテラルと呼び, その述語を機能述語と呼ぶ。一方, $\operatorname{stab}(e)$ などの, 機能リテラル以外のリテラ ルを内容語リテラルと呼ぶ.また,ある機能リテラルの第一引数を他の内容語リテラルが引数に持つとき,その内容語リテラルを機能リテラルの親と呼び,逆にそのような内容語リテラルが存在しない場合には,その機能リテラルは親を持たないと表現する。例えば上の例において, Neo-Davidsonian 形式は,イベントに対する部分的な説明を表現できる(例えば police $(x) \Rightarrow$ $\operatorname{arrest}(e) \wedge n s u b j(e, x)$ のようにイベントの主格だけを取り上げた推論が記述できる)ことや,個々のイベントの必須格と任意格の境界を決める必要が無いなどの利点を持つ. 自然言語の動詞は,動詞ごとに必須格・任意格が異なるため,実世界の様々な文を扱う上では, Neo-Davidson 形式は Davidsonian 形式より IA に適した表現形式であると考えられる。 以上の理由により,本論文では Neo-Davidsonian 形式の意味表現を想定する. ところで,上で述べたように,機能リテラルは言語表現における単語間の統語的依存関係を表すので,親を持たない機能リテラルは文法的に不正である。このことから本論文では,全ての観測が以下の条件を充足することを仮定する: 条件 1. 全ての観測は親を持たない機能リテラルを含まない. すなわち, この条件を充足しない観測は,元となった文が文法的に不正であると考えられるので,本研究ではそのような観測は入力として考えないものとする. (2) 評価関数次に, 本論文で想定する評価関数の概形について述べる。まず第一に, 仮説に含まれる等価仮説の正しさを評価することを前提とし, 次のような条件として定義する: 条件 2 . 評価関数は,不正な等価仮説を含む候補仮説を解仮説として選択しない. ここでの不正な等価仮説とは, 同一事象を表し得ない変数間の等価仮説を指し, 本論文ではこのような等価仮説を $e_{1}=* e_{2}$ と書く. 2.2 節で述べたとおり, 候補仮説の生成時には, 同じ述語を持つリテラル対に単一化仮説生成を適用することにより等価仮説が生成される。このとき,例えば $\operatorname{smart}\left(e_{1}\right) \wedge$ foolish $\left(e_{2}\right) \wedge e_{1}=e_{2}$ のように, 同一でない二つの事象を表す論理変数が等価であるという候補仮説が生成されてしまう場合がある。条件 2 が満たされる限り,このような候補仮説は解仮説として選択されない. 等価仮説が不正であるか否か,すなわちある 2 つの論理変数が同一事象を表し得るかどうかの判断については,変数の等価性について閉世界仮説 (Reiter 1978)を仮定することで対応する. すなわち, ある論理変数対 $a, b$ が潜在仮説集合 $P$ において同じ型 4 を持つ可能性が存在しないならば(すなわち同じ述語を持ち, 単一化仮説生成によって等価仮説 $a=b$ を導くような内容語リテラル対が潜在仮説集合 $P$ に存在しないならば) 等価仮説 $a=b$ は不正である $\left(a={ }^{*} b\right)$ とする.  第二に,仮説に含まれる論理式の文法的正しさを評価することを前提とし,以下のような条件で表す: 条件 3. 評価関数は親を持たない機能リテラルを含む候補仮説を解仮説として選択しない. 前述のとおり,親を持たない機能リテラルは文法的に不正であるので,本論文ではこの文法的正しさに関して,評価関数が条件 3 を満たしていることを前提とする。以降では,これらの条件 $1,2,3$ をまとめて仮説の整合性条件と呼ぶ. ## 3.2 機能リテラルに係る推論による計算の非効率化 3.1 節で述べた意味表現と評価関数のもとで, 先行研究の仮説推論エンジンを用いて IA を実現する場合, 機能リテラルを根拠とした単一化仮説生成操作および後ろ向き推論操作により, 解仮説に含まれることのない要素仮説が潜在仮説集合に追加され,推論時間を増大させてしまうという問題がある。 例えば図 3 では, 観測に含まれる $\operatorname{nsubj}\left(e_{3}, j\right)$ と $n \operatorname{subj}\left(e_{4}, t\right)$ に対して単一化仮説生成操作を適用することで, 等価仮説 $e_{3}=e_{4}$ (smart イベントと foolish イベントは同一事象), および $j=t$ (John と Tom は同一人物)が潜在仮説集合に追加されている。また図 4 では, 観測に含まれる $\operatorname{smart}\left(e_{1}\right)$ と foolish の主格を表すリテラル $\operatorname{nsubj}\left(e_{2}, t\right)$ を根拠として, $e_{1}=e_{2}$ という仮定のもと知識適用を行い, $\left.\{\operatorname{study}\left(e_{3}\right), n \operatorname{subj}\left(e_{3}, t\right)\right.\}$ を潜在仮説集合に追加している. しかしながら,これらの推論は論理的には可能であるものの, 3.1 節で述べた仮説の評価関数に関する前提より, これらの仮説が最良の説明として選択されることは無い.このような推論は同じ述語を持つリテラルに対して組み合わせ的に発生し(例えば,「smartを述語に持つリテラルの数 $\times$ $n s u b j$ を述語に持つリテラルの数」の分だけ発生する),かつ候補仮説の数は潜在仮説集合の規模に対して指数関数的に増大するため, 計算負荷の観点において重大な問題であると考えられる. 入力文: John is smart. Tom is foolish. 図 3 不適切な単一化仮説生成によって誤った解釈が導かれる例 入力文: John is smart. Tom is foolish. 図 4 不適切な後ろ向き推論によって誤った解釈が導かれる例 この問題の本質的な原因は, 先行研究の潜在仮説集合生成手続き(2.2 節)における各操作において, 論理変数間の等価性の意味的な整合性を考慮できていないことにある. 例えば図 3 において, $\operatorname{nsubj}\left(e_{3}, j\right)$ と $\operatorname{subj}\left(e_{4}, t\right)$ に対する単一化仮説生成操作によって等価仮説 $e_{3}=e_{4}$ が潜在仮説集合に追加されるが,このとき,この等価仮説が不正かどうか(つまり,解釈「studyであり,かつ mistakeであるようなイベント $e_{3}\left(=e_{4}\right)$ が存在する」が実現可能なものか)は考慮されていない,その結果,図 3 のように,不正な等価仮説であっても,潜在仮説集合に追加されてしまう。 本節で述べた問題は,意味表現として Neo-Davidsonian 形式を採用した場合に一すなわち述語と項の関係を $\operatorname{nsubj}(x, y)$ のように個別のリテラルとして表現した場合に起こる問題である. しかし, これに限らず, Hobbs らの研究 (Hobbs et al. 1993)のように, 名詞間の意味的関係(部分全体関係など)や統語的関係(複合名詞を構成する名詞間の関係など)を part_of $(x, y)$ や $n n(x, y)$ のようなリテラルで表現する場合にも, 上述のような問題が生じる. このようなリテラルは一階述語論理式で自然言語の情報を表す上で必要不可欠であり,本節で述べた問題は IA の研究において決して些末な問題ではない. このような問題に対し本論文では, 2.2 節で述べた潜在仮説集合生成に係る操作において等価仮説の生成を伴う場合, 等価仮説が不正でない場合にのみ操作の適用を許すことで, 解として選ばれない等価仮説を潜在仮説集合から除外する手法を提案する。例えば図 3 における $n s u b j\left(e_{3}, j\right)$ と $n \operatorname{subj}\left(e_{4}, t\right)$ に対する単一化仮説生成操作の適用時には,まず 3.1 節で述べた基準により $e_{3}=e_{4}$ の正しさをチェックする(つまり,studyかつ mistakeであるような事象が存在しうるか)。ここで仮に「studyと mistake が同一事象に成り得ない」ことがわかったとすると, $e_{3}=e_{4}$ は不正な等価仮説であり, $e_{3}=e_{4}$ が解仮説に含まれる可能性がないため, 操作の適用を行わない. 4 節では, これらのアイデアに基づき, 2.1 節で説明した潜在仮説集合生成の手続きを拡張し, より効率的に潜在仮説集合を生成する方法を提案する。また 5 節では, これらのアイデアに基 づき, A*-based Abduction (Yamamoto et al. 2015) の計算効率を改善する手法を提案する. なお,以降の記述では便宜的に,機能リテラルは全て次のような形式をとるものとする: ・アリティは 2 . ・リテラルの第一引数が依存関係の governor, 第二引数が dependent を表す. 自然言語における単語間の依存関係の多くは 2 項間関係として表されること, 多項関係は一般に 2 項間関係の組み合わせとして一般化できることなどから,このように定義を限定した場合においても一般性は失われない. ## 4 等価仮説への制約による効率化 本節では, 2.2 節で定義した後ろ向き推論操作,および単一化仮説生成操作に対して適用条件を付加することにより,不正な等価仮説を探索空間から除外する方法を提案する。 ## 4.1 機能的述語の単一化に対する制約 2 節で述べた通り, 先行研究 (Inoue and Inui 2011a; 井之上他 2012; Yamamoto et al. 2015) における単一化仮説生成の適用は, 述語の同一性にのみ依拠している. しかしながら, 3.1 節で述べた設定の下では, 機能リテラル対に対する単一化仮説生成操作によって, 不正な等価仮説が潜在仮説集合に追加されてしまう可能性がある。仮説の整合性条件が充足されているとすると,不正な等価仮説を含む仮説は解仮説として選択されないため,そのような仮説が候補仮説に含まれてしまうことは, 推論効率の面で無駄が生じる. 我々はこの問題に対処するために,機能リテラル対に対する単一化仮説生成を行う際に「それぞれの governor(第一引数)の論理変数の間の等価性を導く, 不正でない等価仮説が既に仮説されていること」という条件を追加する。例えば図 3 の観測における機能リテラル対 $\operatorname{nsubj}\left(e_{3}, j\right)$, $n \operatorname{subj}\left(e_{4}, t\right)$ に対する単一化仮説生成の適用は, 等価仮説 $e_{3}=e_{4}$ が潜在仮説集合に既に含まれている場合に限定する。これにより,親が互いに同一事象に成り得ない機能リテラル対は単一化仮説生成の対象とならず, 不正な等価仮説が潜在仮説集合に追加されなくなるので, 推論効率の向上が期待できる. より一般的には, 潜在仮説集合 $P$ において, 機能述語 $d$ を持つ機能リテラル対 $d\left(x_{1}, y_{1}\right), d\left(x_{2}, y_{2}\right)$ に対して単一化可能性を認め, そこから導かれる等価仮説 $x_{1}=x_{2}, y_{1}=y_{2}$ を潜在仮説集合に追加するのは, $x_{1}, x_{2}$ が同一の変数である場合か, 等価仮説 $x_{1}=x_{2}$ が $P$ に含まれている場合に限る。このような制約により,機能リテラル間の単一化仮説生成が適用されるのは,それぞれの機能リテラルが表す依存関係の governor が互いに同一である可能性がある場合に限定され,常に不正な等価仮説を導くような単一化仮説生成操作の実行を防止できる。この制約をどのようなアルゴリズムとして実装するかについては 4.3 節で述べる. ## 4.2 後ろ向き推論への拡張 後ろ向き推論操作についても, 単一化仮説生成操作と同様の議論を行うことができる。本節ではそれを踏まえ,前節と同等の制約を後ろ向き推論操作にも課すことを考える。例えば図 4 において,論理式 $\operatorname{study}\left(e_{3}\right) \wedge \operatorname{subj}\left(e_{3}, t\right) \Rightarrow \operatorname{smart}\left(e_{1}\right) \wedge \operatorname{subj}\left(e_{1}, t\right)$ による後ろ向き推論を連言 $\operatorname{smart}\left(e_{1}\right) \wedge \operatorname{nsubj}\left(e_{2}, t\right)$ に対して適用する場合について, この後ろ向き推論操作の適用条件として「潜在仮説集合に不正でない等価仮説 $e_{1}=e_{2}$ が含まれていること」を課す.これにより,不正な等価仮説を導く後ろ向き推論を潜在仮説集合の生成手続きから除外することができる. このとき, 全ての後ろ向き推論に制約を課してしまうと, 本来除外するべきでない推論が除外されてしまう場合があることに注意する必要がある.例えば図 5 における後万向き推論に上の制約を課した場合, 等価仮説 $x_{1}=x_{3}$ が潜在仮説集合に含まれていることが後ろ向き推論適用の条件となるが, 等価仮説 $x_{1}=x_{3}$ を導くためにはその後ろ向き推論を実行する必要がある. そのため, 上の制約を課した場合にはこの推論は探索空間から除外されてしまう。しかしながら, 図 5 の仮説は最終的には不正な等価仮説を含まないため, 本来は除外するべきでない,以上の議論より本論文では, このような場合を引き起こしうる論理式を用いた後ろ向き推論については制約を課さないことによって,除外すべきでない候補仮説一すなわち不正な等価仮説を含まない候補仮説が探索空間から除外される事態を防ぐ. 上のような場合を引き起こしうる論理式とは, 具体的には, 論理式の後件中の機能リテラルの親になっているリテラルが前件に含まれるような論理式である。そのような論理式を用いた後ろ向き推論については, 制約の対象から除外する。例えば図 5 の例では, 後件の機能リテラル $i n\left(x_{1}, x_{2}\right)$ の第一引数 $x_{1}$ が前件のリテラル $\operatorname{student}\left(x_{1}\right)$ の引数に含まれており, $\operatorname{student}\left(x_{1}\right)$ は $\operatorname{in}\left(x_{1}, x_{2}\right)$ の親であると言えるので, この論理式を用いた後ろ向き推論については制約の対象としない. 以上のアイデアをより一般的に表そう.潜在仮説集合 $P$ において, 含意型論理式 $\bigwedge_{i=1}^{n} p_{i}\left(x_{i}\right) \Rightarrow$ $\bigwedge_{j=1}^{m} q_{j}\left(y_{j}\right)$ を用いた後ろ向き推論を, $P$ に含まれる連言 $\bigwedge_{j=1}^{m} q_{j}\left(z_{j}\right)$ に適用する場合を考える. 図 5 探索空間から除外すべきではないにも関わらず,等価仮説の制約によって実行不可能になってしまう後ろ向き推論の例. ここで,述語 $q_{f}$ が機能述語であるようなインデックス $f$ の集合を $F$ とすると, この逆向き推論を適用するのは, $F$ の各要素 $f$ が以下の条件のうち少なくとも一つを満たしている場合に限る: (1) $q_{f}\left(y_{f}\right)$ の第一引数 $y_{f}^{1}$ を引数に持つリテラルが論理式の前件に存在する. すなわち $y_{f}^{1} \in$ $\bigcup_{i=1}^{n} x_{i}$ が成り立つ. (2) 論理式の後件の $c$ 番目にある内容語リテラル $\left(q_{c}\left(y_{c}\right)\right.$ とおく) の任意の( $i$ 番目の)引数 $y_{c}^{i}$ が $y_{f}^{1}$ と同一であるとき, 変数対 $z_{c}^{i}, z_{f}^{1}$ が同一であるか, もしくは潜在仮説集合に等価仮説 $z_{c}^{i}=z_{f}^{1}$ が含まれる. この条件を満たさない逆向き推論は,常に不正な等価仮説を導くので,探索空間から除外できる.この制約をどのようなアルゴリズムとして実装するかについては 4.3 節で述べる. ## 4.3 潜在仮説集合の生成手続きの拡張 4.1 節および 4.2 節では, 単一化仮説生成操作および後ろ向き推論操作の適用条件として, 不正な等価仮説を生成しないことを条件とすることにより,不正な等価仮説が潜在仮説集合に追加されることを回避する手法を示した。本節では,これらの手法を実際にアルゴリズムとして実装する方法を議論する。 まず,各操作の適用条件の充足性と,潜在仮説集合の状態は互いに依存しているため(つまり, 適用条件の充足性は潜在仮説集合の状態で決まり, かつ潜在仮説集合の状態は各操作の適用条件の充足性により変化する), 各操作に対する条件の充足性判定は, 各操作の適用時に一度ずつ行うだけでは不十分である。なぜなら,潜在仮説集合を生成する過程において,ある時点では適用条件を充足せず適用不可能な操作であっても, その後の別の時点では, 別の操作の適用により条件が充足され,適用可能となる場合があるからである。そのため, 最終的に適用されなかった全ての操作が制約を充足しないことを保証できるよう,各操作に対する適用条件の充足性を漏れが無いように判定する必要がある. 以上のような考えに基づき, 2.2 節で述べた潜在仮説集合の生成手続きを次のように変更する: (1) 観測 $O$ を潜在仮説集合 $P$ に追加する。これが初期状態となる. (2) 潜在仮説集合 $P$ に対して適用可能な後ろ向き推論および単一化仮説生成操作を, A*-based Abduction の手法に基いて網羅的に適用する。ただし, 4.1 節および 4.2 節で提案した適用条件を満たさない単一化仮説生成・後ろ向き推論は実行しない. 制約条件を満たさずに実行されなかった単一化仮説生成・後ろ向き推論については, 別の記憶領域 $S$ に保持しておく. (3)この時点で $S$ が空の場合は,潜在仮説集合の生成を終了する. (4) $S$ に含まれる単一化仮説生成操作および後ろ向き推論操作のそれぞれについて,再び制約を満たすかどうかの判定を行う。満たすのなら操作を適用し, $S$ から除外する。 (5)手続き(4) において一つの操作も実行されなかった場合は潜在仮説集合の生成を終了し, そうでなければ手続き $(2)$ に戻る. このような実装を採ることにより,最終的に適用されなかった操作については全て適用条件を満たさないことが保証される。 4.1 節および 4.2 節での議論より, 適用条件を満たさない操作は不正な等価仮説を導くので,仮説の整合性条件より,これらの操作によって導かれる要素仮説が本来の解仮説に含まれることは無い。すなわち,等価仮説への制約を課す前後で解仮説が変化しないことが保証される。 ## $5 \quad A^{*$-based Abduction の効率化} 機能リテラルを含む背景知識を用いた仮説推論を A*-based Abduction (Yamamoto et al. 2015) に適用する際,探索空間の枝刈り精度が著しく低下するという問題がある.本節ではそのような問題の解決策として,探索のガイドとして用いるヒユーリスティック関数の計算方法を改良することにより,枝刈りの精度の低下を抑える手法を提案する。 本節では,まず $A^{*}$-based Abduction について説明し(5.1 節),機能リテラルが引き起こす枝刈り精度低下の問題(5.2 節)と解決策(5.3 節)について述べる. ## 5.1 A*アルゴリズムに基づく仮説推論 まず, A*-based Abduction のベースとなる ILP-based Abduction (Inoue and Inui 2011b, 2012) について説明する. ILP-based Abduction では, まず観測と背景知識を入力として受け取り, それらに対して 2.2 節の潜在仮説集合生成手続きを適用し, 潜在仮説集合を生成する. 次に, 潜在仮説集合と評価関数から,ILP 問題を生成する。ここでは,仮説中での各リテラルの有無が ILP 変数の 0-1 值に, 仮説に対する評価関数の値が ILP 問題の目的関数値に対応し, 各リテラル間の論理的な依存関係は ILP 制約として表現される。最後に,ILPソルバ5を用いて ILP 問題を解くことにより,解仮説が得られる. A*-based Abduction は, ILP-based Abduction の潜在仮説集合の生成手続きをA*アルゴリズムに基づいて改良するものであり,解仮説に含まれる見达みが高い仮説を生成する操作を優先的に適用していくアルゴリズムである。より具体的には,まず事前準備として,背景知識における述語間の意味的な距離を評価しておく。ここでの述語間の意味的な距離とは,一方の述語から他方の述語に至る推論によって生じる評価関数値の増減量のヒューリスティックな見積もりである。同じ論理式に含まれる述語を互いに隣接関係にあると見なすと, 図 6 のように節点を述語,枝を隣接関係とする無向グラフ(以後,述語グラフと呼ぶ)が得られる ${ }^{6}$. 述語間の意味的な距離は,このグラフにおける距離一即ち述語間を繋ぐ枝の長さの総和として与えられ ^{5}$ lp_solve (http://lpsolve.sourceforge.net) や Gurobi Optimizer (http://www.gurobi.com) などがある. 6 論理プログラミング分野の慣習に従い,アリティ(引数の数)が $\mathrm{n}$ であるような述語 $\mathrm{p}$ を $p / n$ と表す. } 図 6 図 1 の背景知識に対応した無向グラフ る. 各枝の長さは,枝に対応する知識ごとに自由に定義できる ${ }^{7}$ が,本論文では議論の簡単のために全ての枝の長さを 1 と定める。このとき述語グラフにおける述語間の距離は, 一方の述語から他方の述語に至る推論の段数と一致する。例えば図 6 によれば, 図 1 の背景知識において,述語 bank, issue を持つリテラル同士を推論で繋ぐには最低でも 3 つの論理式を経由しなければならず,また述語 he, moneyを持つリテラル間を結びつけるような推論は存在しない事が分かる。述語グラフの構造は背景知識にのみ依存するので,あらゆる述語対に対する距離を事前に計算しておき,行列として保持しておくことが可能である. 次に,述語グラフに基づいて後ろ向き推論操作の良さを見積もりながら,潜在仮説集合の生成を行う.A*-based Abduction の潜在仮説集合の生成手続きでは,「単一化仮説生成に寄与しないリテラルは解仮説に含まれない」という前提に基づき,解仮説に含まれる見达みがあるリテラル,すなわち単一化仮説生成に寄与しうるリテラルを仮説する後ろ向き推論操作のみを, 評価関数の増減量の見込みがより高いものから優先的に実行していく.より具体的には, 述語グラフにおける述語間の距離を A*アルゴリズムにおけるヒューリスティック関数として用いて,観測中の個々のリテラルから他のリテラルに至る推論を探索8することによって, 単一化仮説生成に寄与しない後ろ向き推論(すなわち他のどのリテラルとも距離が無限大になるようなリテラルを根拠とした後ろ向き推論)は適用対象から除外しつつ,評価関数値の増減量の見込みが高い後ろ向き推論(すなわち他のリテラルとの述語間距離が近いリテラルを根拠にした後ろ向き推論)から優先的に適用していく.これにより,解仮説に含まれ得ないリテラルを仮説するような後ろ向き推論操作は探索空間から除外され, 結果として推論全体の計算効率が改善される. 例えば図 2 の潜在仮説集合における $\operatorname{cat}(x)$ や poodle $(x)$ は, それ自身が単一化仮説生成操作の対象になることも,そこから仮説されたリテラルが単一化仮説生成操作の対象になることも無いので, これらのリテラルを仮説するような後ろ向き推論操作は実行されない.  また, 評価関数値の増減量の見込みが高い推論が優先して実行されることにより, 潜在仮説集合の生成にかけられる時間が制限された状況においても,より良い解が探索空間に含まれるように,与えられた時間内で可能な限り最善の探索を行う。これは実用においては極めて大きな利点である。 さて,以降の議論のために用語を一つ定義する。単一化仮説生成の対象となったリテラル対 $l_{1}$, $l_{2}$ と, それらの根拠である観測リテラル対 $o_{1}, o_{2}$ について, $o_{1}, o_{2}$ から $l_{1}, l_{2}$ をそれぞれ仮説するために必要な後ろ向き推論と, $l_{1}, l_{2}$ 間の単一化仮説生成操作から構成される操作の系列を, $o_{1}$, $o_{2}$ の間の推論パスと呼ぶことにする。例えば図 1 において, リテラル対 $\operatorname{go}\left(x_{1}, x_{2}\right), \operatorname{get}\left(y_{1}, y_{2}\right)$ の間の推論パスは, (1) $g o\left(x_{1}, x_{2}\right)$ から $\operatorname{issue}\left(x_{2}, u_{1}, x_{1}\right)$ への後ろ向き推論, $(2) g o\left(y_{1}, y_{2}\right)$ から $\operatorname{issue}\left(u_{2}, y_{2}, y_{1}\right)$ への後ろ向き推論, (3) issue $\left(x_{2}, u_{1}, x_{1}\right)$ と issue $\left(u_{2}, y_{2}, y_{1}\right)$ の間の単一化仮説生成によって構成される。定義より, 全ての推論パスは, 1 回の単一化仮説生成操作と 0 回以上の後ろ向き推論操作によって構成されることに注意されたい9.また,ある推論パスについて, そこに含まれる操作の系列に関与している観測リテラルの集合, すなわち推論パスで作られる推論が説明している観測リテラル集合を,推論パスの根拠と呼ぶ. さて, 現在の仮説推論の実装としては A*-based Abduction が最も高速であるが, 彼らの枠組みを適用する際,その評価関数は次の要件を満たしていなければならない。一つ目に,彼らの枠組みは ILP-based Abduction (Inoue and Inui 2011a, 2012)に基づいた枠組みであるため,評価関数は整数線形計画問題で表現可能であるものでなければならない. 二つ目に,壳長な仮説に対しては評価が低下すること,すなわち単一化仮説生成に寄与しないリテラルが解仮説に含まれ得ないことが保証されていなければならない。なお,この条件については, Hobbs らの重み付き仮説推論をはじめとして, Thagard (Thagard 1978)の提唱する「仮説の良さは簡潔さと顕現性によって決定される」とする主張に基づいて定義された評価関数であれば一般に充足される。 ここで, 二つ目の条件を Neo-Davidsonian 形式に合わせて拡張することを考えよう.例えば,図 7(a)の Neo-Davidsonian 形式で表現された推論は, 表す意味そのものは図 7(b)の Davidsonian 形式で表現された推論と同等であることから, 図 7(b) と同様に解仮説には含まれ得ないと考えてよい. すなわち図 7(a)のように,単一の内容語リテラルとそれを親とする機能リテラルだけを根拠とする推論パスは, Thagardの主張に従うならば,解仮説には含まれないものと考えてよい. 以上の議論から, 以降で扱う評価関数は, 整数線形計画問題で等価に表現可能であるとともに,以下に示す条件を充足すると仮定する: - 評価関数は, 単一化仮説生成に寄与しないリテラルを含む候補仮説を解仮説として選択  (a) john(J) $\wedge$ apple(A) 観測 (b) 入カ文: John bought an apple. 図 7 異なる意味表現形式における冗長な推論の例。推論 (a) は Neo-Davidsonian 形式で, 推論 (b) は Davidsonian 形式で,それぞれ同様の冗長な推論を表している。 しない. ・ 評価関数は, 単一の内容語リテラルとそれを親とする機能リテラルのみを根拠とした推論パスを含む候補仮説を解仮説として選択しない. 以降ではこれらの条件をまとめて仮説の簡潔性条件と呼ぶ. ## 5.2 述語間距離の推定精度の低下 5.1 節で述べたように A*-based Abduction では, 図 6 のような述語グラフを用いて, 背景知識における述語間の意味的な距離を事前に評価しておき,仮説の探索空間の枝刈りを行う。述語グラフの上では, 論理式の前件に含まれる各述語と後件に含まれる各述語のあらゆる組み合わせが接続されるため, 機能リテラルのような, 他のリテラルと高頻度で共起するリテラルを背景知識に含む場合には,述語グラフの中にハブとなるノードが形成される。その結果, 解仮説を含まれ得るような推論が実際には存在しないリテラル対に対しても,誤って距離を近く見積もってしまう,という問題がある. 例えば図 3 で用いられている背景知識 $B$ を考える: $ \begin{aligned} & \operatorname{mistake}\left(e_{1}\right) \wedge \operatorname{nsubj}\left(e_{1}, x\right) \Rightarrow \operatorname{foolish}\left(e_{2}\right) \wedge \operatorname{nsubj}\left(e_{2}, x\right) \\ & \operatorname{study}\left(e_{1}\right) \wedge \operatorname{nsubj}\left(e_{1}, x\right) \Rightarrow \operatorname{smart}\left(e_{2}\right) \wedge \operatorname{nsubj}\left(e_{2}, x\right) \end{aligned} $ この背景知識に対して 5.1 節で述べた手続きによって述語グラフを生成すると, 図 8(a)のような述語グラフが作られる。前述のように,背景知識に含まれる機能述語 $n s u b j / 2$ がハブノードとなり,あらゆる内容語述語のペアが互いに到達可能と判定されることがわかる. しかし, こ (a) (b) 図 8 提案手法による枝刈りの適用前後における述語グラフ. (a) が従来手法による述語グラフ, (b) が 5.3 節で提案する手法による述語グラフである. れらの推論パスにより生成される仮説の中には, 解仮説として選択されないことが保証されるものも含まれる,例えば,図 8(a)より,foolish と smart を述語に持つリテラル対を結ぶような推論パスは存在すると推定されるが,3節で見てきたように,この推論パスから生成される仮説は不正な等価仮説を導くため, 解仮説には成り得ない. このように,従来の述語グラフでは,述語間を繋ぐ推論が不正な等価仮説を導くかどうか考慮できていないために, 機能リテラルを含む背景知識の上での述語間距離の推定精度が低下し, A*-based Abduction の利点が失われてしまっている. ## 5.3 述語グラフの枝刈りによる高速化 本研究では, 5.2 節で述べた問題を解消するために, 述語グラフから特定の枝を除外することを提案する。つまり,図 3 における foolish(e) と smart(e)のように,あるリテラル対を繋ぐ推論パスが常に不正な等価仮説を導く時に,それらの間の距離が無限大となるように,述語グラフの枝を除外する。これにより不正な等価仮説を導く推論は探索空間から除外され,探索を効率化できる。 具体的な手法を述べる。本手法では, A*-based Abduction について,以下の 2 点の拡張を加える: - 述語グラフの構築において, 機能リテラルとその親の両方が前件あるいは後件に存在する含意型論理式に対しては,親に対する枝だけを述語グラフに追加するものとする.例えば $\operatorname{study}\left(e_{1}\right) \wedge \operatorname{nsubj}\left(e_{1}, x\right) \Rightarrow \operatorname{smart}\left(e_{2}\right) \wedge \operatorname{nsubj}\left(e_{2}, x\right)$ という論理式に対しては, study と smartの間の枝だけを追加し,nsubjへの枝は追加しない. - 潜在仮説集合の生成において, 機能リテラルと他のリテラルの間の述語間距離には, 機能リテラルの親の述語間距離を代わりに用いるものとする. 例えば図 3 の観測において, $n \operatorname{subj}\left(e_{1}, j\right)$ の親は $\operatorname{smart}\left(e_{1}\right)$ であるので, $\operatorname{nsubj}\left(e_{1}, j\right)$ と foolish $\left(e_{2}\right)$ の述語間距離には, $\operatorname{smart}\left(e_{1}\right)$ と foolish $\left(e_{2}\right)$ の述語間距離を用いる. なお,親が複数存在する場合には,それらの中での最低値を採用するものとする. このように拡張することで,不正な等価仮説を導く推論は探索空間から除外される.例えば,図 3 の背景知識では, 図 $8(\mathrm{a})$, (b) に示されるように, 機能述語 $n s u b j / 2$ の枝が述語グラフから取り除かれる。その結果, 述語 smart と foolishの間の距離が無限大となり, 不正な等価仮説を導くsmart, foolishを繋ぐ推論は,探索空間から除外される。 なお, 本手法を適用したときに得られる解は, 仮説の整合性条件および簡潔性条件が充足されている限り,手法を適用しない場合の解と同様の解が得られること,すなわち元々の解が提案手法によって探索空間から枝刈りされないことが保証される。詳細な説明は付録 $\mathrm{A} に$ 委ねるものとする。 ## 6 実験 ## 6.1 基本設定 本節では,本論文にて行った実験における基本的な設定について述べる. 本実験における観測としては, Rahman ら (Rahman and Ng 2012)によって構築されたWinograd Schema Challenge (Levesque 2011)の訓練デー夕の問題 1,305 問をそれぞれ論理表現に変換したものを用いた.具体的には,各問題文に対して Stanford Core NLP ${ }^{10}$ (Manning, Surdeanu, Bauer, Finkel, Bethard, and McClosky 2014) を用いて構文解析を行い, 文中の単語および単語間の依存関係をそれぞれリテラルに変換した.各観測は平均して 28 個のリテラルから構成される。観測の例を表 1 の $O$ に示す。なお,全ての観測について整合性条件を充足することを確認している。以降はこの観測集合を $O_{w s c}$ と表す. Winograd Schema Challenge は, 例えば “Tony helped Jeff because he wanted to help.”のような文を入力として,指定された照応表現(ここでは“he”)の照応先として相応しいものを $2 \supset$ の選択肢(ここでは “Tony”と“Jeff”)から選ぶタスクである。仮説推論の上では,照応先の選択は等価仮説の有無に対応する。例えば,表 1 の $O$ に対して得られた解仮説に $E_{1}=e_{5}$ が含まれるなら,“he”の照応先として“Tony”を選ぶことと等しい.なお,本実験では,各問題の照応先に対応する論理変数には定数(この例では $E_{1}, E_{3}$ )を割り当てることで,二つの照応先候補を同時に選択することを防いでいる。 また背景知識には,我々が ClueWeb1211から自動獲得した因果関係知識を用いた。具体的に  表 1 実験で用いた観測および背景知識の例。なお観測の例は “Tony helped Jeff because he wanted to help."という文に対応する論理表現である. $ \begin{aligned} & O=\text { tony_nn }\left(E_{1}\right) \wedge h e l p \_v b\left(E_{2}\right) \wedge j e f f \_n n\left(E_{3}\right) \wedge b e c a u s e_{-} i n\left(E_{4}\right) \wedge h e \_p r(e 5) \wedge \text { want_vb }\left(E_{6}\right) \wedge \\ & \operatorname{to\_ to}\left(E_{7}\right) \wedge h e l p \_v b\left(E_{8}\right) \wedge \operatorname{nsubj}\left(E_{2}, E_{1}\right) \wedge \operatorname{dobj}\left(E_{2}, E_{3}\right) \wedge \operatorname{mark}\left(E_{6}, E_{4}\right) \wedge \\ & \operatorname{nsubj}\left(E_{6}, e_{5}\right) \wedge \operatorname{advcl}\left(E_{2}, E_{6}\right) \wedge \operatorname{aux}\left(E_{8}, E_{7}\right) \wedge x \operatorname{comp}\left(E_{6}, E_{8}\right) \wedge \operatorname{nsubj}\left(E_{8}, e_{5}\right) \\ & B_{e p}=\text { meet_vb }\left(e_{1}\right) \wedge n \operatorname{subj}\left(e_{1}, x\right) \Rightarrow h a v e_{-} v b\left(e_{2}\right) \wedge n \operatorname{subj}\left(e_{2}, x\right) \wedge d o b j\left(e_{2}, y\right) \wedge \text { interest_nn }(y), \\ & \text { graduate_vb }\left(e_{1}\right) \wedge n s u b j\left(e_{1}, x\right) \Rightarrow \text { give_vb }\left(e_{2}\right) \wedge i o b j\left(e_{2}, x\right) \wedge d o b j\left(e_{2}, y\right) \wedge j o b \_n n(y) \\ & g e t_{-} v b\left(e_{1}\right) \wedge n \operatorname{subj}\left(e_{1}, x\right) \wedge \operatorname{dobj}\left(e_{1}, y\right) \wedge d i s c o u n t \_n n(y) \Rightarrow b u y_{\_} v b\left(e_{2}\right) \wedge n s u b j\left(e_{2}, x\right), \ldots \\ & B_{w n}=p l a y \_n n(x) \Rightarrow \text { action_nn }(x) \\ & \text { attack_vb }(e) \Rightarrow a f f e c t \_v b(e) \end{aligned} $ は,まず,ClueWeb12に含まれる各文に対して Stanford Core NLP を適用し,共参照関係にある項を持つ動詞・形容詞とその周辺文脈のペア 5 億個を獲得した。例えば, “Tom helped Mary yesterday, so Mary thanked to Tom.” より,Maryを介してぺアとなっている〈Tom help Mary yesterday, Mary thank to Tom〉を獲得した. 獲得したぺアは, そのまま因果関係知識として用いるには特殊すぎる可能性があるため, これらを統計的な基準によって一般化し, 論理表現に変換した。より具体的には,獲得したぺアをさまざまな抽象度に一般化した上で(例えば,〈Tom などに変換した)頻度カウントを行い,一定以上の頻度のぺアだけを残す,というフィルタリング処理を施した (以降, これらのペアをイベントペアと呼ぶ). 結果として, 278,802 個の含意型論理式の集合 $B_{e p}$ を得た. 知識の例を表 1 の $B_{e p}$ に示す. また, WordNetの Synset によって定義される同義語 ・上位語の知識を論理表現に変換し, 結果として 235,706 個の含意型論理式の集合 $B_{w n}$ を得た. WordNet から生成した論理式の例を表 1 の $B_{w n}$ に示す. 提案手法を適用するにあたっては, 背景知識に出現する格関係および前置詞による修飾関係を表す全ての述語を機能述語として扱うこととした. 評価関数には重み付き仮説推論 (Hobbs et al. 1993)を基に, 整合性条件および簡潔性条件を充足するような評価関数を用いた。具体的には, 重み付き仮説推論の評価関数に対して「全ての候補仮説は仮説の整合性条件および簡潔性条件を満たさなければならない」という制約を加えている。比較対象としては A*-based Abduction (Yamamoto et al. 2015)を用いた. 以降の記述における従来手法とは A*-based Abduction を指す. を拡張することによって実装した。 ## 6.2 推論効率の比較 本節では, 推論効率の比較実験について報告する。この実験では, 提案手法が従来手法と比べてどの程度効率的に最適解を導くことができるかを確かめるために, 従来手法でも最適解が導出できる程度に小規模な設定での比較を行った.また,従来手法のほかに, 4 節の制約のみを用いた設定,5 節の述語グラフの枝刈りのみを用いた設定との比較も行うことで,個々の手法による効率化の度合いを検証した。 具体的な設定を以下に述べる,観測には $O_{w s c}$ に含まれる全ての問題(1,305 問)を用いた。背景知識には, $B_{e p}$ から 187,732 個の論理式を抽出 ${ }^{13}$ して用いた. また, リテラルの深さの最大値は $d_{\text {max }}=1$ とした. これにより後ろ向き推論の入力は観測リテラルのみに限定される。また,推論時間が5分を超えるものについてはタイムアウトとした. この実験設定を, 以降は SMALL と呼ぶ. 実験設定 SMALL における実験結果を図 9 , 図 10, 図 11 に示す. 図中の各点は開発セット 1,305 問のうち, 少なくとも一方の実験設定がタイムアウトせずに最適解を求められた問題 1,095 図 9 実験設定 SMALL での, 提案手法と従来手法との速度比較. ^{13} B_{e p}$ の論理式のうち, ClueWeb 中での共起頻度がある閥値を超えるイベントペアから生成された論理式のみを抽出した。背景知識を適当な規模に縮小する以外の意図は無いので,詳細は省略する。 } 図 10 実験設定 SMALL での,等価仮説の制約の有無における速度比較. 図 11 実験設定 SMALL での, 述語グラフの枝刈りの有無における速度比較. 問14について, それぞれの問題における推論時間を表す. 各点の座標は, 横軸が提案手法による推論時間に対応し, 縦軸が比較対象での推論時間に対応する。図 9 では A*-based Abduction による推論時間, 図 10 では提案手法において 5 節で述べた述語グラフの枝刈りのみを適用した  場合の推論時間,図 11 では提案手法において 4 節で述べた等価仮説への制約のみを適用した場合の推論時間が,縦軸に対応する。なお,5 分以内に解を導くことが出来ずタイムアウトした問題については 300 秒としてプロットしている。また直線は $y=x$ を表す。よって,この直線よりも上にある点については提案手法によって推論時間が改善されていると見做すことができる. 図 9 からは,従来手法と比べたときの,提案手法による効率化の程度を確認できる。この結果より,どのような規模の問題においても提案手法は従来手法と比べて遥かに短い時間で,平均して数十倍から数百倍の速度で解を導けていることが確かめられた。 図 10 からは,4 節で提案した等価仮説の制約による効率化の程度を確認することができる。 この結果から,探索空間が極めて小さい一部の問題に対しては効率の低下が見受けられるものの,それ以外の問題についてはいずれもより効率的な推論が実現できていることが確かめられた. 推論効率が低下している一部の問題については, この制約によって除外されるような単一化仮説生成操作が探索空間に存在しない,あるいはその数が極めて少ないために,制約の判定にかかる計算量が制約を課すことで削減される計算量を上回ってしまっていると考えられる. 図 11 からは,5 節で提案した述語グラフの枝刈りによる効率化の程度を確認することができる。図 9 での結果とほぼ同様の結果であるものの, 述語グラフの枝刈りによって探索空間から除外される推論は,等価仮説の制約によって探索空間から除外される推論の大半を包含していることから,これは極めて自然な結果であるといえる。 また,タイムアウトせずに最適解が得られた問題については,問題設定に関わらず最適解の評価関数值が同じ値であったことが確かめられた。このことから, 提案手法が解の健全性を損なわないことが実験的にも示された. ## 6.3 現実的な設定での比較 前節の実験では,提案手法が従来手法と比べて遥かに効率的に解仮説を導出できていることが確かめられた。しかしながら前節の実験設定 (SMALL) では, 従来手法でも最適解が導けるようにするために, 背景知識や解の探索範囲の縮小や, タイムアウトの時間を長めにとるなど,実際のタスク適用とはかなり乘離した設定になってしまっている. それを踏まえ本節では,参考実験として,より実際のタスク適用に即した設定において比較実験を行った. この実験では,(本論文の本来のスコープではないものの, )夕スクの解析精度をみることで,我々のシステムが行っている推論が,意味的な解釈として一定の妥当性を持つ推論を実現できていることを確かめる. 具体的な設定を述べる。前述したように,今回用いたデータセットには,因果関係知識のみでは解くことの出来ない種類の問題一例えば否定や逆接を含む問題, 特定の固有名詞に関する知識が必要な問題, 数量表現を扱う問題など一が多数含まれている。そこで本実験では, $O_{w s c}$ に含まれる観測のうち無作為に選んだ 100 問について, 個々の問題を解くのに必要な知識の種類を 表 2 実験設定 LARGE における実験結果. 各列は従来手法および提案手法での結果を表す. 各行は上から順に, 正解できた問題数 (Correct), 不正解だった問題数 (Wrong), 出力が得られなかった問題数 (No Decision), それらの結果から計算した適合率 (Precision) および再現率 (Recall) を表す. 人手で分類した。そして,その 100 問のうち因果関係知識の適用のみで解けると思われる問題 32 問を観測として用いた。背景知識としては, $B_{e p}$ と $B_{w n}$ に含まれる全ての論理式 $(514,508$個)を用いた。またリテラルの深さの最大值は $d_{\max }=2$ とした. これは, 3 個以上の因果関係を繋げて導かれる仮説は意味的に不自然な説明であることが多いという経験則に基いている. また, 潜在仮説集合の生成は 10 秒で中断し,その時点での潜在仮説集合に対する解を解仮説として扱った,推論全体では,推論時間が 1 分を超えるものをタイムアウトとした。この実験設定を,以降はLARGE と呼ぶ. 実験設定 LARGE における実験結果を表 2 に示す。この結果より,従来手法では殆どの問題で解が得られていない一方で,提案手法ではそれがある程度改善されていることが分かる。これは,述語グラフの枝刈りを導入したことによって, A*-based Abduction における述語間の距離推定の精度が改善され, 後ろ向き推論の候補をより短い時間で列挙できるようになったことが大きいと考えられる。 また,夕スクの解析精度については,表 2 の適合率を見る限り,ある程度意味のある推論が実現できていることが伺える。その一方で再現率は低く, 今後, 解析精度を向上させていくためには, 背景知識の拡充・高精度化や, 評価関数のモデルパラメータの調整など, 様々な改善が必要である.しかしながら, 少なくとも今回の提案手法の導入により, 実世界の問題に即した規模の背景知識および論理表現の上での仮説推論が, 初めて実現可能になった.このことは,当該分野において非常に重要な貢献である. ## 7 まとめ 仮説推論は, 文章に明示されていない情報の顕在化を行うための有望な枠組みと考えられてきた一方,背景知識や観測の規模に対して指数関数的に増大する計算時間が,実問題への応用を阻んできた。 このような問題に対し本論文では, 格関係や前置詞による修飾関係などの依存関係を表すリテラルに関して起こる計算量の問題に着目し,そのようなリテラルに対して起こる朵長な推論を探索空間から除外することによって,仮説推論を効率化する手法を提案した.また,既存手法との比較実験から,構築したシステムが従来のシステムよりも遥かに高速であることを示した. 今後の展望としては,潜在仮説集合の生成において,言語そのものに対する知識を用いて探索空間の枝刈りをすることが考えられる。その一つの例としては,それぞれの依存関係が持つ性質を利用することが挙げられる。例えば,物体の位置的な上下関係のように推移律が成り立つ場合や, 述語項関係のように一つの governor に対して一つしか dependent が存在できない場合,物体同士の隣接関係のように対称律が成り立つ場合など,それぞれの関係は固有の性質を持つ. これらの性質を潜在仮説集合の生成の時に考慮することができれば,その性質に反するような推論を探索空間から除外できることが期待される。例えば,主格関係が一つの governor に対して一つしか定義できないことが分かっているなら, $g o\left(e_{1}\right) \wedge g o\left(e_{2}\right) \wedge \operatorname{nsubj}\left(e_{1}, x_{1}\right) \wedge \operatorname{nsubj}\left(e_{2}, x_{2}\right)$ のような観測が与えられたとき,$e_{1}=e_{2}$ かつ $x_{1} \neq x_{2}$ であるような仮説は適切な説明ではないことが分かる. よって, このような仮説を候補仮説として列挙するような手続きを探索空間から除外することが出来れば,計算負荷の軽減に繋げられる可能性がある. また, 潜在仮説集合の生成の手続きと, ILP 問題を最適化する手続きを, 相互にやりとりしながら進めることによって,推論速度を向上させることも考えられる. 現状ではこれらの手続きは完全に逐次的に行われるが,潜在仮説集合を生成する段階ではどこまで探索すれば十分なのかが全くの不明であるために, 必要最低限の範囲だけを探索することが難しいという問題がある。これに対して,潜在仮説集合の生成の途中の結果に対する解仮説を随時導出しながら,その結果に応じて潜在仮説集合の生成を適切に打ち切ることができれば,全体の計算量を削減できると考えられる。 他には,仮説推論を実問題へ適用していくことも進めていく.本研究によって仮説推論の計算負荷は大幅に効率化され, 大規模知識を用いた仮説推論は現実的な時間で実現可能となった. これにより,大規模知識を用いた仮説推論の枠組みにおいて,実タスク上での精度評価や,他の先行研究との定量的な比較が可能になったといえる. よって今後は, 仮説推論に用いるための高精度かつ大規模な背景知識の構築や, より談話理解のタスクに適した評価関数モデルの構築を進めていきたいと考えている. ## 謝 辞 本研究は, JST 戦略的創造研究推進事業 CREST および文部科学省科研費 (15H01702) から部分的な支援を受けて行われた。 ## 参考文献 Blythe, J., Hobbs, J. R., Domingos, P., Kate, R. J., and Mooney, R. J. (2011). "Implementing Weighted Abduction in Markov Logic." In Proceedings of the 9th International Conference on Computational Semantics, IWCS '11, pp. 55-64. Chambers, N. and Jurafsky, D. (2009). "Unsupervised Learning of Narrative Schemas and their Participants." In Proceedings of the 47th Annual Meeting of the Association for Computational Linguistics and the 4th International Joint Conference on Natural Language Processing of the AFNLP, ACL '09, pp. 602-610. Copestake, A., Flickinger, D., Pollard, C., and Sag, I. A. (2005). "Minimal Recursion Semantics: An Introduction." Research on Language and Computation, 3 (2-3), pp. 281-332. Davidson, D. (1980). Essays on Actions and Events. Oxford University Press. Fellbaum, C. (Ed.) (1998). WordNet: An Electronic Lexical Database. MIT Press. Gelfond, M. and Lifschitz, V. (1988). The Stable Model Semantics for Logic Programming, pp. 1070-1080. MIT Press. Hobbs, J. R., Stickel, M., Martin, P., and Edwards, D. (1993). "Interpretation as Abduction." Artificial Intelligence, 63, pp. 69-142. Hobbs, J. R. (1985). "Ontological Promiscuity." In Proceedings of the 23rd Annual Meeting of the Association for Computational Linguistics, ACL '85, pp. 61-69, Chicago, Illinois, USA. University of Chicago. Inoue, N. and Inui, K. (2011a). "ILP-Based Reasoning for Weighted Abduction." In Plan, Activity, and Intent Recognition, Papers from the 2011 AAAI Workshop, AAAI '11, pp. 25-32. Inoue, N. and Inui, K. (2011b). "An ILP Formulation of Abductive Inference for Discourse Interpretation.” 情報処理学会研究報告. 自然言語処理研究会報告, 2011 (3), pp. 1-13. Inoue, N. and Inui, K. (2012). "Large-scale Cost-based Abduction in Full-fledged First-order Predicate Logic with Cutting Plane Inference." In Proceedings of the 13th European Conference on Logics in Artificial Intelligence, pp. 281-293. 井之上直也, 乾健太郎, Ekaterina Ovchinnikova, Jerry R. Hobbs (2012). 大規模世界知識を用いた仮説推論による談話解析の課題と対策. 言語処理学会第 18 回年次大会論文集, pp. 119-122. Levesque, H. J. (2011). "The Winograd Schema Challenge." In AAAI Spring Symposium: Logical Formalizations of Commonsense Reasoning. AAAI. Manning, C. D., Surdeanu, M., Bauer, J., Finkel, J., Bethard, S. J., and McClosky, D. (2014). "The Stanford CoreNLP Natural Language Processing Toolkit." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 55-60. McCord, M. C. (1990). Slot Grammar. Springer. Moore, R. C. (1983). "Semantical Considerations on Nonmonotonic Logic." In Bundy, A. (Ed.), Proceedings of the 8th International Joint Conferences on Artificial Intelligence, pp. 272-279. William Kaufmann. Mulkar, R., Hobbs, J., and Hovy, E. (2007). "Learning from Reading Syntactically Complex Biology Texts." In Proceedings of the 8th International Symposium on Logical Formalizations of Commonsense Reasoning, Palo Alto. Ng, H. T. and Mooney, R. J. (1992). "Abductive Plan Recognition and Diagnosis: A Comprehensive Empirical Evaluation." In Proceedings of the 3rd International Conference on Principles of Knowledge Representation and Reasoning, pp. 499-508. Nienhuys-Cheng, S.-H. and De Wolf, R. (1997). Foundations of Inductive Logic Programming, Vol. 1228. Springer Science \& Business Media. Ovchinnikova, E., Hobbs, J. R., Montazeri, N., McCord, M. C., Alexandrov, T., and MulkarMehta, R. (2011). "Abductive Reasoning with a Large Knowledge Base for Discourse Processing." In Proceedings of the 9th International Conference on Computational Semantics, IWCS '11, pp. 225-234. Parsons, T. (1990). Events in the Semantics of English: A Study in Subatomic Semantics / Terence Parsons. MIT Press Cambridge, Mass. Raghavan, S. and Mooney, R. J. (2010). "Bayesian Abductive Logic Programs." In Proceedings of the AAAI-10 Workshop on Statistical Relational Artificial Intelligence, Vol. WS-10-06 of AAAI Workshops, pp. 82-87. Rahman, A. and Ng, V. (2012). "Resolving Complex Cases of Definite Pronouns: The Winograd Schema Challenge." In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 777-789, Jeju Island, Korea. Association for Computational Linguistics. Reiter, R. (1978). "On Closed World Data Bases." In Gallaire, H. and Minker, J. (Eds.), Logic and Data Bases, pp. 55-76. Springer US. Reiter, R. (1987). "A Logic for Default Reasoning." In Ginsberg, M. L. (Ed.), Readings in Nonmonotonic Reasoning, pp. 68-93. Kaufmann, Los Altos, CA. Richardson, M. and Domingos, P. (2006). "Markov Logic Networks." Machine learning, 62 (1-2), pp. 107-136. Ruppenhofer, J., Ellsworth, M., Petruck, M. R., Johnson, C. R., and Scheffczyk, J. (2010). "FrameNet II: Extended Theory and Practice.". Schoenmackers, S., Etzioni, O., Weld, D. S., and Davis, J. (2010). "Learning First-order Horn Clauses from Web Text." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, EMNLP '10, pp. 1088-1098. Schüller, P. (2015). "Modeling Abduction over Acyclic First-Order Logic Horn Theories in Answer Set Programming: Preliminary Experiments." In Proceedings of the 22nd RCRA International Workshop on Experimental Evaluation of Algorithms for Solving Problems with Combinatorial Explosion 2015 (RCRA 2015) A Workshop of the XIV International Conference of the Italian Association for Artificial Intelligence, pp. 76-90. Singla, P. and Mooney, R. J. (2011). "Abductive Markov Logic for Plan Recognition." In Proceedings of the 25th AAAI Conference on Artificial Intelligence, AAAI '11, pp. 1069-1075. 杉浦純, 井之上直也, 乾健太郎 (2012). 説明生成に基づく談話構造解析の課題分析. 言語処理学会第 18 回年次大会論文集, pp. 115-118. Thagard, P. R. (1978). "The Best Explanation: Criteria for Theory Choice." The Journal of Philosophy, 1, pp. 76-92. Yamamoto, K., Inoue, N., Inui, K., Arase, Y., and Tsujii, J. (2015). "Boosting the Efficiency of First-order Abductive Reasoning Using Pre-estimated Relatedness between Predicates." International Journal of Machine Learning and Computing, 5 (2), pp. 114-120. ## 付録 ## A 提案手法が解の最適性を保持することの証明 本節では, 仮説の整合性条件および簡潔性条件が充足されるならば, 5 節で提案した手法に基づく述語グラフの枝刈りを用いて得られる解が最適性を保つこと, 即ち手法適用後に探索空間から除外されるような要素仮説について,それらが常に解仮説とならないことを示す. 任意の述語 $p, q$ に対する, 述語グラフの枝刈り適用前の述語間距離を $h_{1}(p, q)$, 適用後の述語間距離を $h_{2}(p, q)$ と表す. まず,述語グラフの枝刈りを適用することによって除外される推論パスの集合 $\mathbb{R}$ に着目する.形式的には, $\mathbb{R}$ は, $h_{1}\left(o_{1}, o_{2}\right)<\infty$ かつ $h_{2}\left(o_{1}, o_{2}\right)=\infty$ を満たすような観測リテラル対 $o_{1}, o_{2}$ を端点とするような推論パスの集合,と定義される,本証明のゴールは,「㡳に含まれるすべての推論パス $R \in \mathbb{R}$ から生成される候補仮説 $H_{R}$ が, 整合性条件および簡潔性条件が充足される状況下では,常に解仮説とならないことを示す」ことである. 証明の戦略は次のとおりである。まず, $\mathbb{R}$ の部分集合について,整合性条件と簡潔性条件よ り,そこに含まれる推論パスから生成される候補仮説が解仮説とならないことを示す. 次に, それ以外の推論パスの集合 $\mathbb{R}^{\prime}$ につて, すべての $R^{\prime} \in \mathbb{R}^{\prime}$ が常に機能リテラルの単一化仮説生成を含むことを証明し,かつその単一化仮説生成操作が常に不正な等価仮説を導くことを示す。 まず, $\mathbb{R} に$ 含まれる推論パスのうち,以下に示すような推論パス $R \in \mathbb{R}$ から生成される候補仮説については, 整合性条件および簡潔性条件により解仮説とならないことが自明である: (1) $R$ は機能リテラルの単一化仮説生成を含み,かつ単一化仮説生成の対象である機能リテラル対の少なくとも一方が親を持たない. (2) $R$ は不正な等価仮説を導くような後ろ向き推論を含む. (3) $R$ の端点 $o_{1}, o_{2}$ は同じ親を持つ機能リテラルであり,親以外の内容語リテラルが推論パスの根拠に含まれない. (4) $R$ の端点 $o_{1}, o_{2}$ のうち一方は機能リテラルであり,他方がその親であり,親以外の内容語リテラルが推論パスの根拠に含まれない. (1) 扔よび (2) が示す場合については整合性条件 2,3 より,(3) 拈よび (4) が示す場合については簡潔性条件より,明らかに解仮説とならない。したがって,以降ではこれらの場合に当てはまらない推論パスの集合 $\mathbb{R}^{\prime} \subseteq \mathbb{R}$ についてのみ検討する。 $\mathbb{R}^{\prime}$ の定義より,すべての $R^{\prime} \in \mathbb{R}^{\prime}$ について,不正な等価仮説を導く後ろ向き推論が $R^{\prime}$ に含まれないことは自明であるから,以降 ことを示す. まず,すべての $R^{\prime} \in \mathbb{R}^{\prime}$ が常に機能リテラルの単一化仮説生成を含むことを証明する。 証明. 背理法を用いて証明する。すなわち,「推論パス $R^{\prime}$ が常に機能リテラル間の単一化仮説生成操作を含まない」ことを仮定すると,矛盾が生じることを以下に示す。 まず,背理法の仮定は, 3.1 節の定義より,「推論パス $R^{\prime}$ が内容語リテラル間の単一化仮説生成操作を含む場合がある」と言い換えることができる。形式的には, $h_{1}\left(o_{1}, o_{2}\right)<\infty$ かつ $h_{2}\left(o_{1}, o_{2}\right)=\infty$ を満たすような観測リテラル対 $o_{1}, o_{2}$ がそれぞれ内容語リテラル $c_{1}, c_{2}$ を仮説しており, $c_{1}, c_{2}$ が互いに単一化している場合が存在する,ということである. このとき, $c_{1}, c_{2}$ は同じ述語を持つことから, 明らかに $h_{1}\left(c_{1}, c_{2}\right)=h_{2}\left(c_{1}, c_{2}\right)=0<\infty$ である. $\mathbb{R}^{\prime}$ の定義より, $R^{\prime}$ には不正な等価仮説を導くような後ろ向き推論は含まれないので, $c_{1}$ の直接的な根拠となっている任意のリテラルを $d_{1}$ とおくと $h_{2}\left(c_{1}, d_{1}\right)<\infty$ が成り立つ. 同様に $c_{2}$ の直接的な根拠となっている任意のリテラルを $d_{2}$ とおくと $h_{2}\left(c_{2}, d_{2}\right)<\infty$ が成り立つ. よって, $h_{2}\left(c_{1}, c_{2}\right)<\infty$ であるので $h_{2}\left(d_{1}, d_{2}\right)<\infty$ も成り立つ. このような議論は $d_{1}$ および $d_{2}$ の根拠についても成り立つことから, 帰納的に $h_{2}\left(o_{1}, o_{2}\right)<\infty$ も成り立つ. しかし,これは前提である $h_{2}\left(o_{1}, o_{2}\right)=\infty$ と矛盾する,以上から, $R^{\prime}$ は,常に機能リテラル間の単一化を導く。 次に, $R^{\prime}$ におる機能リテラル $f_{1}, f_{2}$ の単一化仮説生成操作が, 常に不正な等価仮説を導くことを示す. 証明. $f_{1}, f_{2}$ の親をそれぞれ $p_{1}, p_{2}$ とおき, $p_{1}, p_{2}$ が同一事象を表し得ない, すなわち $h_{2}\left(p_{1}, p_{2}\right)=$ $\infty$ であることを,背理法により示す. 背理法の仮定は, $h_{2}\left(p_{1}, p_{2}\right)<\infty$ である. この仮定のもとでは, 機能リテラルにおける述語間距離の計算手続きより,$h_{2}\left(f_{1}, f_{2}\right)<\infty$ となるので, $f_{1}, f_{2}$ を経由する $o_{1}, o_{2}$ についても同様に $h_{2}\left(o_{1}, o_{2}\right)<\infty$ となる. しかし, これは前提である $h_{2}\left(o_{1}, o_{2}\right)=\infty$ と矛盾する. この事から, $h_{2}\left(p_{1}, p_{2}\right)=\infty$ であり, $R^{\prime}$ によって単一化仮説生成の対象である機能リテラルの親は, それぞれ同一事象には成り得ないこと,すなわち不正な等価仮説を導くことが示された. 以上から, 提案手法を適用することによって除外される推論パスの集合 $\mathbb{R}$ は, 最初に挙げた 4 つ場合のほかには,機能リテラルに対する単一化仮説生成操作を含み,かつそれらの親が同一事象に成り得ず,不正な等価仮説を導く場合に限定される。ゆえに,すべての $R \in \mathbb{R} につ$ いて, $R$ から生成される候補仮説は解仮説とならないことが証明される.以上より, 本手法によって得られる解は最適性を保つ. ## 略歴 山本風人:1987 年生. 2011 年東北大学工学部知能情報システム総合学科卒. 2013 年東北大学大学院情報科学研究科博士前期課程修了. 2016 年東北大学大学院情報科学研究科博士後期課程修了, 日本電気株式会社入社, 現在に至る.自然言語処理の研究に従事. 井之上直也:1985 年生. 2008 年武蔵大学経済学部経済学科卒業. 2010 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2013 年東北大学大学院情報科学研究科博士後期課程修了. 2015 年より東北大学大学院情報科学研究科助教, 現在に至る. 自然言語処理の研究に従事. 言語処理学会, 情報処理学会各会員. 乾健太郎:1995 年東京工業大学大学院情報理工学研究科博士課程修了. 同研究科助手, 九州工業大学助教授, 奈良先端科学技術大学院大学助教授を経て, 2010 年より東北大学大学院情報科学研究科教授, 現在に至る. 博士 (工学).自然言語処理の研究に従事. 言語処理学会, 情報処理学会, 人工知能学会, ACL, AAAI 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 統語ベース翻訳のための構文解析器の自己学習 吉野幸一郎 } 構文情報を考慮する機械翻訳手法である統語ベース翻訳では, 構文解析器の精度が 翻訳精度に大きな影響を与えることが知られている。また,構文解析の精度向上を 図る手法の一つとして, 構文解析器の出力を学習データとして用いる構文解析器の 自己学習が提案されている。しかし, 構文解析器が生成する構文木には誤りが存在 することから, 自動生成された構文木が常に精度向上に寄与するわけではない. そ こで本論文では,機械翻訳における自動評価尺度を用いて,このような誤った構文木を学習データから取り除き,自己学習の効果を向上させる手法を提案する.具体的には,解析された $n$-best 構文木それぞれを用いて統語ベース翻訳を行い,それぞ れの翻訳結果に対し, 自動評価尺度でリスコアリングする。この中で,良いスコア を持つ構文木を自己学習に使用することで, 構文構造はアノテーションされていな いが,対訳が存在するデータを用いて,構文解析・機械翻訳の精度を向上させるこ とができる,実験により,本手法で自己学習したモデルを用いることで,統語べー ス翻訳システムの翻訳精度が 2 つの言語対で有意に向上し, また構文解析自体の精度も有意に向上することが確認できた。 キーワード:機械翻訳, 構文解析, 自己学習 ## Parser Self-Training for Syntax-Based Machine Translation \author{ Makoto Morishita ${ }^{\dagger}$, Koichi Akabe ${ }^{\dagger}$, Yuto Hatakoshi ${ }^{\dagger}$, Graham Neubig ${ }^{\dagger}$, \\ Koichiro Yoshino $^{\dagger}$ and Satoshi NaKamura ${ }^{\dagger}$ } In syntax-based machine translation, it is known that the accuracy of parsing greatly affects the translation accuracy. Self-training, which uses parser output as training data, is one method to improve the parser accuracy. However, because automatically generated parse trees often include errors, these parse trees do not always contribute to improving accuracy. In this paper, we propose a method for removing noisy incorrect parse trees from the training data to improve the effect of self-training by using automatic evaluation metrics of translations. Specifically, we perform syntax-based machine translation using $n$-best parse trees, then we re-scoring parse trees based on the automatic evaluation score of translations. By using the parse trees that have higher score among the candidates for self-training, we can improve parsing and machine translation accuracy by using parallel corpora that are not annotated syntax structure. In experiments, using higher score parse trees for self-training, we found  that our self-trained parsers significantly improve a state-of-the-art syntax-based machine translation system in two language pairs, and self-trained parsers significantly improve the accuracy of the parsing itself. Key Words: Machine Translation, Syntax Parsing, Self-Training ## 1 はじめに 統計的機械翻訳 (Statistical Machine Translation, SMT) では, 翻訳モデルを用いてフレーズ単位で翻訳を行い,並べ替えモデルを用いてそれらを正しい語順に並べ替えるフレーズベース翻訳 (Phrase Based Machine Translation) (Koehn, Och, and Marcu 2003),構文木の部分木を翻訳に利用する統語べース翻訳 (Yamada and Knight 2001) などの翻訳手法が提案されている.一般的に,フレーズベース翻訳は英仏間のような語順が近い言語間では高い翻訳精度を達成できるものの,日英間のような語順が大きく異なる言語間では翻訳精度は十分でない.このような語順が大きく異なる言語対においては,統語べース翻訳の方がフレーズベース翻訳と比べて高い翻訳精度を達成できることが多い. 統語ベース翻訳の中でも,原言語側の構文情報を用いる Tree-to-String (T2S) 翻訳 (Liu, Liu, and Lin 2006)は,高い翻訳精度と高速な翻訳速度を両立できる手法として知られている。たたし, T2S 翻訳は翻訳に際して原言語の構文解析結果を利用するため, 翻訳精度は構文解析器の精度に大きく依存する (Neubig and Duh 2014).この問題を改善する手法の一つとして, 複数の構文木候補の集合である構文森をデコード時に利用する Forest-to-String (F2S) 翻訳 (Mi and Huang 2008) が挙げられる。しかし,F2S 翻訳も翻訳精度は構文森を作成した構文解析器の精度に大きく依存し, 構文解析器の精度向上が課題となる (Neubig and Duh 2014). 構文解析器の精度を向上させる手法の一つとして, 構文解析器の自己学習が提案されている (McClosky, Charniak, and Johnson 2006). 自己学習では, アノテーションされていない文を既存のモデルを使って構文解析し,自動生成された構文木を学習データとして利用する。これにより,構文解析器は自己学習に使われたデータに対して自動的に適応し, 語彙や文法構造の対応範囲が広がり, 解析精度が向上する。しかし, 自動生成された構文木は多くの誤りを含み, それらが学習データのノイズとなることで自己学習の効果を低減させてしまうという問題が存在する。 Katz-Brown $ら$ (Katz-Brown, Petrov, McDonald, Och, Talbot, Ichikawa, Seno, and Kazawa 2011) は構文解析器の自己学習をフレーズベース翻訳のための事前並べ替えに適用する手法を提案している。フレーズベース翻訳のための事前並べ替えとは,原言語文の単語を目的言語の語順に近くなるように並べ替えることによって,機械翻訳の精度を向上させる手法である。この手法では, 構文解析器を用いて複数の構文木候補を出力し, この構文木候補を用いて事前並べ 替えを行う,その後,並べ替え結果を人手で作成された正解並べ替えデータと比較することによって, 各出力にスコアを割り振る。これらの並べ替え結果のスコアを基に, 構文木候補の中から最も高いスコアを獲得した構文木を選択し,この構文木を自己学習に使用する。このように,学習に用いるデータを選択し,自己学習を行う手法を標的自己学習 (Targeted Self-Training) という.Katz-Brown らの手法では,正解並べ替えデー夕を用いて,自己学習に使用する構文木を選択することで,誤った並べ替えを行う構文木を取り除くことができ,学習データのノイズを減らすことができる。また, Liuら (Liu, Li, Li, and Zhou 2012) は,単語アライメントを利用して構文解析器の標的自己学習を行う手法を提案している。一般に, 構文木と単語アライメントの一貫性が取れている場合,その構文木は正確な可能性が高い。そのため,この一貫性を基準として構文木を選択し,それらを用いて構文解析器を学習することでより精度が向上することが考えられる。 以上の先行研究を基に,本論文では,機械翻訳の自動評価尺度を用いた統語べース翻訳のための構文解析器の標的自己学習手法を提案する. 提案手法は, 構文解析器が出力した構文木を基に統語べース翻訳を行い,その翻訳結果を機械翻訳の自動評価尺度を用いて評価し,この評価値を基にデータを選択し構文解析器の自己学習を行う,統語ベース翻訳では,誤った構文木が与えられた場合, 翻訳結果も誤りとなる可能性が高く, 翻訳結果を評価することで間接的に構文木の精度を評価することができる,以上に加え,提案手法は大量の対訳コーパスから自己学習に適した文のみを選択し学習を行うことで,自己学習時のノイズを減らす効果がある. Katz-Brown らの手法と比較して,提案手法は事前並べ替えだけでなく統語べース翻訳にも使用可能なほか,機械翻訳の自動評価尺度に基づいてデータの選択を行うため,対訳以外の人手で作成された正解データを必要としないという利点がある。これにより,既存の対訳コーパスが構文解析器の標的自己学習用学習データとして使用可能になり, 構文解析器の精度や F2S 翻訳の精度を幅広い分野で向上させることができる。また, 既に多く存在する無償で利用可能な対訳コーパスを使用した場合,本手法におけるデータ作成コストはかからない.さらに,Liu らの手法とは異なり,翻訳器を直接利用することができる利点もある。このため,アライメント情報を通して間接的に翻訳結果への影響を計測する Liuらの手法に比べて, 直接的に翻訳結果への影響を構文木選択の段階で考慮できる. 実験により,提案手法で学習した構文解析器を用いることで,F2S 翻訳システムの精度向上と, 構文解析器自体の精度向上が確認できた¹.  ## 2 Tree-to-String 翻訳 SMT では, 原言語文 $\boldsymbol{f}$ が与えられた時に, 目的言語文 $\boldsymbol{e}$ へと翻訳される確率 $\operatorname{Pr}(\boldsymbol{e} \mid \boldsymbol{f})$ を最大化する $\hat{e}$ を推定する問題を考える。 $ \hat{\boldsymbol{e}}:=\underset{\boldsymbol{e}}{\operatorname{argmax}} \operatorname{Pr}(\boldsymbol{e} \mid \boldsymbol{f}) $ 様々な手法が提案されている SMT の中でも, T2S 翻訳は原言語文の構文木 $T_{\boldsymbol{f}}$ を使用することで,原言語文に対する解釈の曖昧さを低減し,原言語と目的言語の文法上の関係をルールとして表現することで,より精度の高い翻訳を実現する。T2S 翻訳は下記のように定式化される。 $ \begin{aligned} \hat{\boldsymbol{e}} & :=\underset{\boldsymbol{e}}{\operatorname{argmax}} \operatorname{Pr}(\boldsymbol{e} \mid \boldsymbol{f}) \\ & =\underset{\boldsymbol{e}}{\operatorname{argmax}} \sum_{T_{\boldsymbol{f}}} \operatorname{Pr}\left(\boldsymbol{e} \mid \boldsymbol{f}, T_{\boldsymbol{f}}\right) \operatorname{Pr}\left(T_{\boldsymbol{f}} \mid \boldsymbol{f}\right) \\ & \simeq \underset{\boldsymbol{e}}{\operatorname{argmax}} \sum_{T_{\boldsymbol{f}}} \operatorname{Pr}\left(\boldsymbol{e} \mid T_{\boldsymbol{f}}\right) \operatorname{Pr}\left(T_{\boldsymbol{f}} \mid \boldsymbol{f}\right) \\ & \simeq \underset{\boldsymbol{e}}{\operatorname{argmax}} \operatorname{Pr}\left(\boldsymbol{e} \mid \hat{T}_{\boldsymbol{f}}\right) \end{aligned} $ ただし, $\hat{T}_{f}$ は構文木の候補の中で, 最も確率が高い構文木であり, 下記の式で表される. $ \hat{T}_{\boldsymbol{f}}=\underset{T_{\boldsymbol{f}}}{\operatorname{argmax}} \operatorname{Pr}\left(T_{\boldsymbol{f}} \mid \boldsymbol{f}\right) $ 図 1 に示すように, T2S 翻訳 2 で用いられる翻訳ルールは, 置き換え可能な変数を含む原言語文構文木の部分木と,目的言語文単語列の組で構成される。図 1 の例では, $x_{0}, x_{1}$ が置き換え可能な変数である.これらの変数には, 他のルールを適用することにより翻訳結果が挿入され,変数を含まない出力文となる。訳出の際は, 翻訳ルール自体の適用確率や言語モデル, その他 図 1 日英 $\mathrm{T} 2 \mathrm{~S}$ 翻訳における翻訳ルールの例  の特徴などを考慮して最も事後確率が高い翻訳結果を求める。また,ビーム探索などを用いることで確率の高い $n$ 個の翻訳結果を出力することが可能であり,これを $n$-best 訳という. $\mathrm{T} 2 \mathrm{~S}$ 翻訳では,原言語文の構文木を考慮することで,語順が大きく異なる言語対の翻訳がフレーズベース翻訳と比べて正確になる場合が多い。しかし, T2S 翻訳は翻訳精度が構文解析器の精度に大きく依存するという欠点がある。この欠点を改善するために,複数の構文木を構文森と呼ばれる超グラフ (Hyper-Graph) の構造で保持し,複数の構文木を同時に翻訳に使用する F2S 翻訳 (Mi and Huang 2008) が提案されている。この場合, 翻訳器は複数ある構文木の候補から構文木を選択することができ,翻訳精度の改善が期待できる (Zhang and Chiang 2012). F2S 翻訳は $\boldsymbol{e} T_{\boldsymbol{f}}$ の同時確率の最大化として下記のように定式化される. $ \begin{aligned} \left.\langle\hat{\boldsymbol{e}}, \hat{T}_{\boldsymbol{f}}\right.\rangle & :=\underset{\left.\langle\boldsymbol{e}, T_{\boldsymbol{f}}\right.\rangle}{\operatorname{argmax}} \operatorname{Pr}\left(\boldsymbol{e}, T_{\boldsymbol{f}} \mid \boldsymbol{f}\right) \\ & \simeq \underset{\left.\langle\boldsymbol{e}, T_{\boldsymbol{f}}\right.\rangle}{\operatorname{argmax}} \operatorname{Pr}\left(\boldsymbol{e} \mid T_{\boldsymbol{f}}\right) \operatorname{Pr}\left(T_{\boldsymbol{f}} \mid \boldsymbol{f}\right) \end{aligned} $ しかし, 1節で述べたとおり F 2 S 翻訳であっても翻訳精度は構文森を生成する構文解析器の精度に大きく依存する。 そこで, この問題を解決するため, 自己学習によって構文解析器の精度を向上する手法について説明する。 ## 3 構文解析の自己学習 ## 3.1 自己学習の概要 構文解析器の自己学習とは, 既存のモデルで学習した構文解析器が解析・生成した構文木を学習データとして用いることで, 構文解析器を再学習する手法である。言い換えると, 自己学習対象の各文に対して, 式 (6) に基づいて確率が最も高い構文木 $\hat{T}_{\boldsymbol{f}}$ を求め, この構文木を構文解析器の再学習に用いる. この手法は追加のアノテーションを必要としないため, 構文解析器の学習データ量が大幅に増え, 解析精度が向上する. Charniak は, Wall Street Journal (WSJ) コーパス (Marcus, Marcinkiewicz, and Santorini 1993) によって学習された確率文脈自由文法 (Probabilistic Context-Free Grammar, PCFG) モデルを用いた構文解析器では,自己学習の効果は得られなかったと報告している (Charniak 1997)。一方で, 潜在クラスを用いることで構文解析の精度を向上させた PCFG-LA (PCFG with Latent Annotations) モデルは自己学習により大幅に解析精度が向上することが知られている (Huang and Harper 2009). これは, PCFG-LA モデルを用いることで自動生成された構文木の精度が比較的高くなることに加え, PCFG-LA モデルが通常の PCFG モデルと比べて多くのパラメータを持つので,学習データが増加する恩恵が大きいことが理由として挙げられる.これらの先行研究を基にして, 本論文では PCFG-LA モデルを用いた構文解析器の自己学習を考える. ## 3.2 機械翻訳における構文解析器の自己学習と効果 ## 3.2.1事前並べ替えのための標的自己学習 1 節でも述べたように, 構文解析器の自己学習により機械翻訳精度を改善した研究が存在する. Katz-Brown らは,自己学習に使用する構文木を外部評価指標を用いて選択する手法を提案し, これにより翻訳精度自体も向上したと報告している (Katz-Brown et al. 2011). この手法の概要を図 2 に示す.この研究では, 構文解析器により複数の構文木候補を自動生成し, これらの候補を基にした事前並べ替えの結果が人手で作成した正解並べ替えデー夕に最も近いものを選択し, 自己学習に使用する。これにより, 構文木の候補からより正しい構文木を選択することができるため, 自己学習の効果が増すと報告されている. このように一定の基準を基に学習データを選択し,自己学習を行う手法を標的自己学習 (Targeted Self-Training) という. 事前並べ替えでは,構文木 $T_{\boldsymbol{f}}$ に基づいて,並べ替えられた原言語文 $f^{\prime}$ を生成する並べ替え関数 $\operatorname{reord}\left(T_{f}\right)$ を定義し, システムによる並べ替えを正解並べ替え $f^{\prime *}$ と比較するスコア関数 $\operatorname{score}\left(\boldsymbol{f}^{\prime *}, \boldsymbol{f}^{\prime}\right)$ で評価する。学習に使われる構文木 $\bar{T}_{\boldsymbol{f}}$ は,構文木の候補 $\boldsymbol{T}_{\boldsymbol{f}}$ から以下の式によって選択される。 $ \bar{T}_{\boldsymbol{f}}=\underset{T_{\boldsymbol{f}} \in \boldsymbol{T}_{\boldsymbol{f}}}{\operatorname{argmax}} \operatorname{score}\left(\boldsymbol{f}^{\prime *}, \operatorname{reord}\left(T_{\boldsymbol{f}}\right)\right) $ 本論文ではこれらの先行研究を基に, 統語べース翻訳のための構文解析器の標的自己学習手法を提案する,4節以降において,提案手法の詳細を示し,実験により提案手法の効果を検証する。 ## 3.2.2フロンティアノードを利用した構文解析器の標的自己学習 統語ベース翻訳を利用して構文解析器の標的自己学習を行う手法として, フロンティアノー ド (Frontier Node)を利用する手法が提案されている (Liu et al. 2012). 図 2 事前並べ替えのための標的自己学習手法 一般に, 構文木と単語アライメントの一貫性が取れている場合, その構文木は正確な可能性が高い. この一貫性を評価する指標として,フロンティアノードの数が挙げられる.フロンティアノードとは,対象ノードから翻訳ルールを抽出できるノードのことを指す。例として,5つのフロンティアノードを持つ構文木を図 3 に示す. 図中の灰色で示されたノードがフロンティアノードである。各ノード中の数字は上から順にスパン (span), 補完スパン (complement span) を示している ${ }^{3}$. ノード $\mathrm{N}$ のスパンとは,ノード $\mathrm{N}$ から到達可能な全ての目的言語単語の最小連続単語インデックスの集合であり,ノード $\mathrm{N}$ の補完スパンとは, $\mathrm{N}$ おび $\mathrm{N}$ の子孫ノード以外のノードに対応する, 目的言語単語インデックスの和集合とする ${ }^{4}$. フロンティアノードは, スパンと補完スパンが重複しておらず,かつスパンが nullでないという条件を満たすノードのことを指す (Galley et al. 2006). フロンティアノードの数が多いほど,構文木と単語アライメントの一貫性が取れているといえる. 図 35 つのフロンティアノードを含む構文木の例 3 スパンおよび補完スパンは, 文献によってはアライメントスパン (alignment span), 補完アライメントスパン (complement alignment span) とも称される. 4 フロンティアノードについての詳細は (Galley, Graehl, Knight, Marcu, DeNeefe, Wang, and Thayer 2006)を参照. 例えば, 「助詞の P」のスパンは 3-5であり, “of this restaurant"に対応する。また, 補完スパンは 1-2,4であり, “the speciality", “this”に対応する. この場合, $3-5$ のスパンと, 4 の補完スパンが部分的に重複しているためフロンティアノードではない. Liu らの手法では, 構文解析結果の 5 -best の中からフロンティアノードの数が最も多くなる構文木を選択し,選ばれた構文木を自己学習に使用する。これにより,5-best 中で最も精度が高いと考えられる構文木を選択することができ,従来の自己学習手法よりも効果が高くなる。この手法で自己学習した構文解析器により,統語ベース翻訳の翻訳精度が有意に改善されたと報告されている。本論文では,Liuらの手法も比較対象として実験を行う ${ }^{5}$. ## 4 統語ベース翻訳のための構文解析器の標的自己学習 標的自己学習において, どのように自己学習用のデータを選択するかは最も重要な点である.本論文では $\mathrm{F} 2 \mathrm{~S}$ 翻訳の精度を向上させるために, 自己学習に使用する構文木および文の選択法をいくつか提案する。構文木の選択法を用いることで, 一つの文の構文木候補から精度向上につながる構文木を選択し,文の選択法を用いることで,コーパス全体から精度向上に有効な文のみを選択する。以降ではそれぞれの手法について説明する。 ## 4.1 構文木の選択法 3.2.1 節で述べたように, Katz-Brown らによって提案された標的自己学習手法 (Katz-Brown et al. 2011) では, 自動生成された構文木と人手で作成した正解並べ替えデー夕を比較することにより, $n$-best 候補の中から最も評価値の高い構文木を選択する。しかし,人手で正解並べ替えデータを作成するには大きなコストがかかるため, この手法のために大規模なデータセットを作成することは現実的でない。一方で,統計的機械翻訳は対訳コーパスの存在を前提としており,対訳デー夕は容易に入手できることが多い。そこで,この問題を解決するために,対訳コーパスのみを使用して構文木を選択する方法を 2 つ提案する。一つは, 翻訳器によって選択された 1-best 訳に使われた構文木を自己学習に使用する手法である(翻訳器 1-best)。もう一つは, $n$-best 訳の中から, 最も参照訳に近い訳(Oracle 訳)を自動評価尺度により選択し, Oracle 訳に使われた構文木を自己学習に使用する手法である(自動評価尺度 1-best). ^{5}$ Liu らは翻訳器が強制的に参照訳を出力する forced decoding を用いる手法も提案しているが, これを実現するために特殊なデコーダが必要であり,翻訳に用いるデコーダ自体に大幅な変更を加える必要がある.そのため,フロンティアノードに基づく手法や本研究の提案法に比べて実装が困難である。ゆえに,本論文ではフロンティアノー ドに基づく手法のみを比較対象とした。 } ## 4.1.1 翻訳器 1-best 2 節でも述べたように, F 2 S 翻訳では, 構文森から翻訳確率が高くなる構文木を翻訳器が選択する. 先行研究では, 翻訳ルールや言語モデルの確率を使用することで, F $2 \mathrm{~S}$ 翻訳器は構文森から正しい構文木を選択する能力があることが報告されている (Zhang and Chiang 2012). 翻訳器の事後確率を用いることで, 構文解析器だけでは考慮できない特徴を使用して構文木を選択するため, F2S 翻訳器が出力した 1-best 訳に使われた構文木は, 構文解析器が出力した 1-best 構文木よりも自己学習に効果的たと考えられる。この際の自己学習に使われる構文木は式 (7)の $\hat{T}_{f}$ となる. ## 4.1.2 自動評価尺度 1-best 翻訳の際, 翻訳器は複数の翻訳候補の中から, 最も翻訳確率が高い訳を 1-best 訳として出力する。しかし, 実際には翻訳候補である $n$-best 訳の方が, 翻訳器が出力した 1 -best 訳よりも翻訳精度が高いと考えられる場合が存在する。そこで本論文では, 翻訳候補の集合 $\boldsymbol{E}$ の中から最も参照訳 $\boldsymbol{e}^{*}$ に近い訳を Oracle 訳 $\overline{\boldsymbol{e}}$ と定義し, $\overline{\boldsymbol{e}}$ に使われた構文木を自己学習に使用する。翻訳候補 $\boldsymbol{e}$ と参照訳 $\boldsymbol{e}^{*}$ の類似度を表す評価関数 $\operatorname{score}(\cdot)$ を用いて, Oracle 訳 $\overline{\boldsymbol{e}}$ は下記の通り表される。 $ \bar{e}=\underset{\boldsymbol{e} \in \boldsymbol{E}}{\operatorname{argmax}} \operatorname{score}\left(\boldsymbol{e}^{*}, \boldsymbol{e}\right) $ ## 4.2 文の選択法 4.1 節では, 1 つの対訳文の $n$-best 訳から学習に有用だと考えられる構文木を選択する方法について述べた. しかし, 正しい訳が $n$-best 訳の中に含まれていない場合もあり, これらの例を学習に用いること自体が構文解析器の精度低下を招く可能性がある. そのため, $n$-best 訳の中に良い訳が含まれていない場合その文を削除するように,学習データ全体から自己学習に用いる文を選択する手法を提案する,具体的には,翻訳文の自動評価値が一定の閾値を超えた文のみを学習に使用する(自動評価値の閾値)また,学習デー夕全体から翻訳精度を改善すると考えられる構文木を選択する手法も提案する。具体的には, 翻訳器 1-best 訳と Oracle 訳の自動評価値の差が大きい文のみを使用する (自動評価値の差). 従来の標的自己学習手法では, 構文木の選択手法は提案されていたものの, 文の選択手法については検討されていなかった. 本論文では,この文の選択手法についても検討を進める。 文の選択法を使用する場合は, 構文木の選択法として, 自動評価尺度 1-best を使用する。自動評価尺度 1-best を用いて構文木を選択する手法と, 文の選択法を組み合わせた提案手法を図にすると, 図4のようになる. 図のように原言語文を構文解析器に入力し, 出力された構文森を翻訳器に入力する。これにより $n$-best 訳と, 翻訳に使われた構文木のペアが出力される。その 図 4 提案手法の概要 後,参照訳を基に自動評価尺度を用いて $n$-best 訳をリスコアリングする。これを基に学習デー 夕を選択し,自己学習を行う。 ## 4.2.1 自動評価値の閾値 本節では,学習のノイズとなる誤った構文木を極力除外するために,自動評価値を基にデー 夕を選択する手法を提案する。 コーパスの中には,翻訳器が正しく翻訳することができず,自動評価値が低くなってしまう文が存在する。自動評価値が低くなる原因としては以下のような理由が考えられる. - 誤った構文木が翻訳に使用された. ・ 翻訳モデルが原言語文の語彙やフレーズに対応できていない. - 自動評価値を計算する際に用いられる参照訳が,意訳となっていたり,誤っていたりするため, 翻訳器が参照訳に近い訳を出力することができない. このような場合は, たとえ Oracle 訳であっても自動評価値は低くなってしまうことがある. これらのデータは, F 2 S 翻訳器が正しい構文木を選択することができていない場合や, 自動評価尺度が実際の翻訳品質との相関が低い場合があるため, Oracle 訳で使われた構文木であっても誤った構文情報を持つ可能性がある。そのため, これらのデータを学習データから取り除くことで,学習データ中のノイズが減ると考えられる。そこで,より正確な構文木のみを使用するために, Oracle 訳の自動評価値が一定の閾値を超えた文のみ学習に使用する手法を提案する.自己学習に使用される構文木 $T_{f^{(i)}}$ の集合は下記の式のように定義される. ここで, $t$ は閾値, $\boldsymbol{e}^{*(i)}$ は文 $i$ の参照訳, $\overline{\boldsymbol{e}}^{(i)}$ は文 $i$ の Oracle 訳, $\overline{\boldsymbol{E}}$ は Oracle 訳全体の集合, $\operatorname{score}(e)$ は訳の自動評価関数を示す. $ \left.\{T_{f^{(i)}} \mid \operatorname{score}\left(\boldsymbol{e}^{*(i)}, \overline{\boldsymbol{e}}^{(i)}\right) \geq t, \overline{\boldsymbol{e}}^{(i)} \in \overline{\boldsymbol{E}}\right.\} $ ## 4.2.2 自動評価値の差 本節では,翻訳結果を大きく改善すると考えられる構文木を中心に選択する手法を提案する. この際に着目した指標は, 翻訳器 1-best 訳と Oracle 訳の自動評価値の差である. 構文解析器により誤った構文木が高い確率を持った構文森が出力された場合, 翻訳器は誤った構文木を選択し,誤った翻訳を 1-best 訳として出力することが多い. 一方, Oracle 訳では構文森の中から正しい構文木が使われた可能性が高い. そのため, 翻訳器 1-best 訳と Oracle 訳の自動評価值の差が大きい場合, Oracle 訳に使われた構文木を学習データとして使用することで,構文解析器が出力する確率が正しい値へ改善される可能性がある. これにより, 自己学習した構文解析器を用いた翻訳システムは正しい訳を 1-best 訳として出力するようになり, 翻訳精度が向上すると考えられる. 文を選択するために,翻訳器 1-best 訳 $\hat{\boldsymbol{e}}^{(i)}$ と Oracle 訳 $\overline{\boldsymbol{e}}^{(i)}$ の自動評価値の差を表す関数 $\operatorname{gain}\left(\overline{\boldsymbol{e}}^{(i)}, \hat{\boldsymbol{e}}^{(i)}\right)$ を定義し, 式 (11) と同様に, 自動評価値の差が大きい文の構文木を選択する. 自動評価値の差を表す関数 $\operatorname{gain}\left(\overline{\boldsymbol{e}}^{(i)}, \hat{\boldsymbol{e}}^{(i)}\right)$ は下記のように定義される. $ \operatorname{gain}\left(\overline{\boldsymbol{e}}^{(i)}, \hat{\boldsymbol{e}}^{(i)}\right)=\operatorname{score}\left(\boldsymbol{e}^{*(i)}, \overline{\boldsymbol{e}}^{(i)}\right)-\operatorname{score}\left(\boldsymbol{e}^{*(i)}, \hat{\boldsymbol{e}}^{(i)}\right) $ 本手法ではこれに加えて, 学習に用いる文の長さの分布をコーパス全体と同様に保つため, Gascó ら (Gascó, Rocha, Sanchis-Trilles, Andrés-Ferrer, and Casacuberta 2012)によって提案された下記の式を用いて, 文の長さに応じて選択数を調節する ${ }^{6}$. 以下の式では, $|e|$ は目的言語文 $\boldsymbol{e}$ の長さ, $|\boldsymbol{f}|$ は原言語文 $\boldsymbol{f}$ の長さ, $N_{c}(|\boldsymbol{e}|+|\boldsymbol{f}|)$ はコーパス全体で目的言語文, 原言語文の長さの和が $|e|+|f|$ となる文の数, $N_{c}$ はコーパス全体の文数を表す. $ p(|\boldsymbol{e}|+|\boldsymbol{f}|)=\frac{N_{c}(|\boldsymbol{e}|+|\boldsymbol{f}|)}{N_{c}} $ $N_{t}$ を自己学習データ全体の文数とすると, 自己学習データの内, 目的言語文, 原言語文の長さの和が $|\boldsymbol{e}|+|\boldsymbol{f}|$ となる文数 $N_{t}(|\boldsymbol{e}|+|\boldsymbol{f}|)$ は下記の式で表される. $ N_{t}(|\boldsymbol{e}|+|\boldsymbol{f}|)=p(|\boldsymbol{e}|+|\boldsymbol{f}|) N_{t} $ ## 5 評価 ## 5.1 実験設定 本論文では, 日本語の構文解析器を用いる日英・日中翻訳(それぞれ Ja-En, Ja-Zh と略す)を  対象に実験を行った,翻訳データとして,科学論文を抜粋した対訳コーパスである $\mathrm{ASPEC}^{7}$ を用いた,ASPECに含まれる対訳文数を表 1 に示す 8 ,自己学習の効果を検証するためのべースラインシステムとして,アジア言語間での翻訳ワークショップ Workshop on Asian Translation 2014 (WAT2014) (Nakazawa, Mino, Goto, Kurohashi, and Sumita 2014) において高い精度を示した,Neubigのシステムを用いた $($ Neubig 2014)9․ デコーダには Travatar (Neubig 2013)を用い,F2S 翻訳を行った。構文解析器には (Neubig and Duh 2014) で最も高い日英翻訳精度を実現した PCFG-LA モデルに基づく Egret ${ }^{10}$ を用い,日本語係り受けコーパス (JDC) (Mori, Ogura, and Sasada 2014)(約 7,000 文)に対して Travatar の主辞ルールで係り受け構造を句構造に変換 ${ }^{11}$ しものを用いて学習したモデルを, ベースラインの構文解析器として使用した。構文森は 100-best 構文木に存在する hyper-edge のみで構成し,その他については枝刈りした ${ }^{12}$. 機械翻訳の精度は BLEU (Papineni, Roukos, Ward, and Zhu 2002)と RIBES (Isozaki, Hirao, Duh, Sudoh, and Tsukada 2010)の 2 つの自動評価尺度, Acceptability (Goto, Lu, Chow, Sumita, and Tsou 2011) という人手評価尺度を用いて評価した。また,文単位の機械翻訳精度は BLEU+1 (Lin and Och 2004) を用いて評価した。自己学習に用いるデー夕は既存のモデルで使用している JDC に加え,ASPECのトレーニングデータの中から選択されたものとした.自己学習したモデルは,テスト時にDev セット,Test セットを構文解析する際のみに使用し,Train セットについては JDC で学習した既存のモデルで行った. Train セットについても自己学習したモデルで構文解析することにより, さらなる精度向上の可能性はあるが,翻訳器を学習し直すには多くの計算量が必要になってしまう,そのため,本実験では Dev セット,Test セットについてのみ自己学習したモデルで構文解析を行った.実験で得られた結果は,ブートストラップ・リサンプリング法 (Koehn 2004) により統計的有意差を検証した。次節では,下記の手法を比較評価する。 表 1 ASPEC に含まれる対訳文数  / / /$ code.google.com/p/egret-parser 11 https://github.com/neubig/travatar/blob/master/script/tree/ja-adjust-dep.pl https://github.com/neubig/travatar/blob/master/script/tree/ja-dep2cfg.pl 12 Egret は極希に構文解析に失敗し, 構文木を出力しない場合がある。そのため, 構文解析に失敗した文は学習デー タから取り除いた。 } ## 構文木の選択法 ## Parser 1-best 式 (6) のように, 構文解析器が出力した 1-best 構文木を自己学習に用いる. ## Frontier Node 1-best 3.2.2 節のように, 既存の構文解析器が出力した 5-best 構文木の中から, フロンティアノードの数が最も多くなる構文木を学習に使用する. ## MT 1-best 4.1.1 節のように, 構文森を翻訳器に入力し, 1-best 訳に使われた構文木を自己学習に使用する。 ## BLEU+1 1-best 4.1.2 節のように, 構文森を翻訳器に入力し, 翻訳器が出力した 500 -best 訳の中から, 最も BLEU+1 スコアが高い訳に使われた構文木を選択し, 自己学習に用いる.この際, 出力される $n$-best 訳は全て重複が無い文となるようにする. ## 文の選択法 ## Random 全トレーニングデータからランダムに文を選択する。この際ランダムに選択される文は手法毎に異ならず,同一になるようにする ${ }^{13}$. ## $\mathrm{BLEU+\mathbf{1} \geq t$} 4.2.1 節のように, Oracle 訳とその構文木の中でも, 訳の BLEU +1 スコアが閾値 $t$ を超えた文のみを自己学習に使用する. ## BLEU+1 Gain 4.2.2 節のように, Oracle 訳とその構文木の中でも, 翻訳器 1-best 訳と Oracle 訳 の BLEU+1 スコアの差が大きい文のみを自己学習に使用する。この手法では, 文の長さの分布を式 (13),(14) に従って調節する. なお文をランダムに抽出する場合は,日英翻訳では全トレーニングデータの $1 / 20$, 日中翻訳では $1 / 10$ を抽出した,また,他の手法とほぼ同様の文数となるように,BLEU+1 Gainに関しては上位 10 万文を抽出した。 以下, 5.2 節では, 自己学習した構文解析モデルを使用して翻訳を行った際の翻訳器の精度評価, 5.3 節では, 構文解析器の精度評価を行う.  ## 5.2 翻訳器の精度評価 各手法で自己学習した構文解析器を用いて, 翻訳精度の変化を確認する5.2.1 節では自動評価尺度を用いた評価結果を示し,5.2.2 節で人手評価による評価結果を示す。また,5.2.3 節では提案手法により改善された翻訳例を示し,どのような場合に提案手法が有効かを検討する. ## 5.2.1自動評価尺度による翻訳精度の評価 日英・日中翻訳の実験結果を表 2 に示す。表中の短剣符は,提案手法の翻訳精度がベースラインシステムと比較して統計的に有意に高いことを示す $(\dagger: p<0.05, \ddagger: p<0.01)$. また, 表中の星印は, 提案手法の翻訳精度が Liu らの手法(手法 (c))と比較して統計的に有意に高いことを示す $(\star: p<0.05, \star \star: p<0.01)$. 表 2 中の (b), (c), (d), (e) の手法で自己学習に使用している文は, Egretが構文解析に失敗した場合を除いて同一である ${ }^{14}$ 。なお,表中の “文数”は自己学習に使用した文数を示し, 既存モデルで使用している JDC の文数は含まない. 本実験では, BLEU+1 を文や構文木選択を行う際の指標としたため, 以降では, 主に BLEU スコアに着目して分析を行う。 実験により,以下の 3 つの仮説について検証を行った。 - 構文木の選択法を用いた標的自己学習(4.1 節)は翻訳精度向上に効果があるのか - 文の選択法(4.2 節)は学習データ中のノイズを減らし, 精度を向上させる効果があるのか ・ 標的自己学習したモデルは目的言語に依存するのか,多言語に渡って使用できるのか 表 2 日英・日中翻訳の実験結果  構文木の選択法による効果 : Parser 1-best の構文木を自己学習に使用する手法では,日英,日中翻訳ともに BLEU スコアの向上は見られなかった(表 $2(\mathrm{~b})$ ). Frontier Node 1-best を用いた場合, Parser 1-best を用いた手法と比較して多少の精度向上は見られたものの, ベースラインとの有意な差は見られなかった(表 $2(\mathrm{c})$ ).また, 日英翻訳で MT 1-best を自己学習に用いた手法では,Parser 1-bestを用いた手法と比較すると精度は向上したもののべースラインシステ么と比較すると精度は向上しなかった(表 2 (d))。日中翻訳では,MT 1-best を使用した手法は Parser 1-best を用いた手法とほぼ同じ結果となった(表 $2(\mathrm{~d})$ )。この際に自己学習に用いられた構文木を確認したところ,正しい構文木もあるが誤った構文木も散見され,精度向上が確認できなかったのは誤った構文木が学習の妨げになったからたと考えられる。 次に BLEU+1 1-best を用いた手法では, Oracle 訳に使われた構文木が選択されることにより,BLEU スコアが日英,日中翻訳ともに向上していることがわかる(表 $2(\mathrm{e})$ ). 特に,日中翻訳についてはべースラインより有意に精度が向上している。図 5 に,この手法で自己学習に使われた Oracle 訳の BLEU+1 スコア分布を示す. 横軸の値 $x$ は, $x$ 以上 $x+0.1$ 未満の BLEU +1 を持つ文を表しており,縦軸が該当する文の数である。この図からもわかるように,Oracle 訳であっても BLEU+1 スコアが低い文は多く存在する。このため, 4.2 節の文選択を実施した. 文の選択法による効果 : 次に, BLEU +1 スコアの閥値を用いた文選択手法の効果を確認する.結果から,日英翻訳,日中翻訳ともに,この手法は効果的であることがわかった(表 $2(\mathrm{f}),(\mathrm{g})$, (h)).Liuらの手法(表 2 (c))と比較を行った場合でも,提案手法の一部では有意に高い精度が得られている。この結果から,自己学習を行う際には,精度が低いと思われる構文木を極力取り除き,精度が高いと思われる構文木のみを学習データとして使用することが重要であると言える。さらに,翻訳器 1-best 訳と Oracle 訳で BLEU+1 スコアの差が大きい文のみを使用する手法でも,BLEU+1 スコアの閾値を用いた手法と同程度の精度向上を達成することができた (表 2 (i)). 図 5 表 2 手法 (e) の BLEU+1 スコア分布 目的言語への依存性 : 最後に, 日英対訳文で自己学習し, 日英翻訳の精度改善に貢献した構文解析器のモデルを, 他の言語対である日中翻訳に使用した場合の翻訳精度の変化を検証した。興味深いことに,この場合でも直接日中対訳文で自己学習したモデルとほぼ同程度の翻訳精度の改善が見られた(表 $2(\mathrm{j})$ ).これにより,学習されたモデルの目的言語に対する依存性はさほど強くなく複数の目的言語のデータを合わせて学習データとすることで, さらに効果的な自己学習が行える可能性があることが示唆された. ## 5.2.2 人手による翻訳精度の評価 提案手法により BLEU スコアは改善されたが, 自動評価尺度は完璧ではなく, 実際にどの程度の質で翻訳できたか明確に判断することは難しい. そのため, 人手評価による翻訳精度の評価を行い,実際にどの程度翻訳の質が改善されたかを確認した,評価基準は,意味伝達と訳の自然性を両方加味する Acceptability (Goto et al. 2011) とした. 本研究と関わりが無いプロの翻訳者に各翻訳文に対し評価基準を基に 5 段階のスコアをつけてもらい,これらの平均を評価値とする。評価は日英翻訳システムを対象とし,Test セットからランダムで抽出した 200 文について評価を行った。 各システムの評価結果を表 3 に示す。既存の自己学習手法で学習したモデルでは, ベースラインシステムと比較して有意な翻訳精度向上は確認できなかった(表 $3(\mathrm{~b})$ ). 一方, 提案手法で自己学習したモデルでは,ベースラインシステムより有意に良い翻訳精度が実現できており, かつ既存の自己学習手法と比較しても $p<0.1$ 水準ではあるが精度が向上している(表 3 (c)). このように, 自動評価尺度だでなく, 人手評価でも提案手法で自己学習したモデルを用いることにより,有意に翻訳精度が向上することが確認できた。 ## 5.2 .3 自己学習による訳出改善の例 構文解析器の自己学習によって改善された日英訳の例を表 4 に示す. また, 表 4 の訳出の際に使用された構文木を図 6 に示す.この文では, 「C 投与群」と「R の活動」という名詞句が含まれている。ベースラインシステムの構文木は, これらの名詞句を正しく解析できておらず, この構文解析誤りが翻訳結果にも悪影響を与えてしまっている。一方, 提案手法で自己学習したシステムでは,これらの名詞句を正しく解析できており,翻訳も正しく行われている.これ 表 3 人手による日英翻訳精度の評価 表 4 日英翻訳における訳出改善例 (a) 自己学習前の構文木の例 動詞 $P$ (b) 自己学習後の構文木の例 図 6 自己学習により構文解析の精度が改善した例 は McClosky ら (McClosky, Charniak, and Johnson 2008) が報告していたように, 既存モデルで使用している JDC で既知の単語が,ASPEC で異なる文脈で現れた際に解析精度が向上した結果であると考えられる. 表 5 自己学習した日本語構文解析器の精度 ## 5.3 構文解析器の精度評価 次に, 提案手法により自己学習した構文解析器自体の精度を測定した,ASPEC に含まれる日英対訳データの内,Test セット中の 100 文を人手でアノテーションを行い, 正解構文木を作成した. その後, 各構文解析器の精度を Evalb ${ }^{15}$ 用いて測定した. 評価には, 再現率, 適合率, およびそれぞれの調和平均である $\mathrm{F}$ 値を用いる。表 5 に構文解析器の精度評価結果を示す. 表からもわかるように, Parser 1-best を用いて自己学習したモデルはベースラインシステムと比較して $p<0.05$ 水準で有意に精度が向上している. これに加えて, Frontier Node 1-best を用いた手法や提案手法で自己学習したモデルは $p<0.01$ 水準で有意に精度が向上している. これらの結果から, 提案手法は機械翻訳の精度だけでなく, 構文解析器自体の精度もより向上させることがわかった. よって, 本手法は構文解析器を分野適応させる場合においても有効であるといえる。 ## 5.4 翻訳器の精度が低い場合の自己学習効果 提案手法では, 翻訳結果を用いて間接的に構文木を評価し構文解析器を改良する。そのため,使用する翻訳器の精度によっては十分な学習効果が得られない可能性がある. 本節では, 精度が低い翻訳器を使用し構文解析器の自己学習を行い, 翻訳精度と自己学習効果の依存性について検討する。なお本実験では日英翻訳のみを対象として実験を行った。 ## 5.4.1 実験設定 200 万文使用していた学習データを 25 万文に制限し, 低精度の翻訳器を新たに作成した。使用した対訳文数,および翻訳精度を表 6 に示す。学習データが減ったことにより,以前のシステムと比較して BLEU, RIBES ともに低下している。これ以外の条件は全て 5.1 節と同一である。なお, 5.2 節の実験結果との比較のために, 自己学習後の翻訳精度評価には 200 万文を使用して学習したシステムを用いる。  表 6 使用した対訳文数と翻訳精度 表 7 日英翻訳の実験結果(低精度の翻訳器を用いて自己学習を行った場合) 表 8 自己学習した日本語構文解析器の精度(低精度の翻訳器を用いて自己学習を行った場合) ## 5.4.2 実験結果,考察 低精度翻訳器を自己学習時に使用し, 自己学習した構文解析器を用いて翻訳器を構築しその精度を測定した。この実験結果を表 7 に示す.また, 構文解析器自体の精度も 5.3 節と同様に測定した。,測定結果を表 8 に示す. 結果は, 低精度翻訳器を使用した場合でも, 以前の高精度翻訳器を使用して自己学習を行った場合(表 7 (b))と遜色ない自己学習効果が得られた。構文解析器の精度自体も,高精度翻訳器を用いた場合(表 $8(\mathrm{~b})$ ) と大きな差は無いことがわかった. これらの結果から, 提案手法は既存翻訳器の翻訳精度に依存しないことが示された。これは, 翻訳器が出した 500-best の中から Oracle 訳を選択しており,翻訳器が低精度の場合でも 500-best の中にはある程度誤りが少ない訳が含まれているため,比較的正確な構文木が選択できたからだと考えられる。そのため, $n$-best の $n$ を変えるとこの結果は多少変化する可能性がある. ## 5.5 自己学習を繰り返し行った場合の効果 構文解析器の自己学習では, 1 回自己学習を行った構文解析器をベースラインとして使用し 2 回目の自己学習を行うことで, さらなる精度向上が期待できる. 本節では, 自己学習を繰り 表 9 日英翻訳の実験結果(2 回の繰り返し学習) 表 10 自己学習した日本語構文解析器の精度(2 回の繰り返し学習) 返し行うことで,翻訳精度および構文解析精度にどのような影響が及ぶかを検証する。なお本実験では日英翻訳のみを対象として実験を行った。 本実験では, 1 回自己学習を行ったものの構文解析モデルとして, 表 2 中の (g)のモデルを用いる。その他の実験設定は 5.1 節と同一である. 自己学習を 2 回行った構文解析モデルを使用して翻訳精度を測定した結果を表 9 に示す。また, 構文解析器の精度自体も 5.3 節と同様に測定した. 測定結果を表 10 に示す. 実験より,2 回の繰り返し学習を行っても, 1 度のみの場合と比較して翻訳精度, 構文解析精度ともに向上は見られなかった。これは, 学習時に 500-best の中から Oracle 訳を選択しているため, 1 度目でも既にある程度精度の高い構文木が選ばれていたことが原因として考えられる。 また,スコアを基に学習データを制限しているため,2度目の学習時に改善された構文木であっても,翻訳結果がスコアの制限を満たさず学習データとして使われなかった可能性がある。そのため, 本手法では繰り返し学習の効果は薄いと考えられる。 ## 6 おわりに 本論文では,統語べース翻訳で用いられる構文解析器の標的自己学習手法を提案し,これにより F 2 S 翻訳および構文解析の精度が向上することを検証した。具体的には,日英,日中翻訳を対象に実験を行い,本手法で標的自己学習した構文解析器を用いることで,ベースラインシステムと比較して有意に高精度な翻訳結果を得られるようになったことが確認できた。また,日 英で自己学習した構文解析器のモデルを, 日中の翻訳の際に用いても同様に精度が向上することが確認できた。日英翻訳については訳の人手評価も実施し,人手評価においても有意に翻訳精度の改善が見られた。さらに,提案手法では翻訳精度だけでなく,構文解析の精度自体も向上することを実験により検証した。また,既存翻訳器の精度が十分でない場合でもこの手法は適用可能であることを確認した。本手法の繰り返し適用に関する検討も行ったが,本手法では繰り返し学習の効果は薄いと考えられる。 今後の課題としては, さらに多くの言語対で提案手法が適用可能であることを確認することが挙げられる。また, 自己学習による効果は目的言語によらないという可能性が示唆されたため,実際に多言語で学習データを集めて適用することで,より翻訳精度および構文解析精度を向上させることが期待される。 さらに,対訳コーパスに対して他の複数の構文解析器を用いて解析し, それらの解析結果が一致している文を正解とみなして構文解析器の学習に使用する tri-training との比較についても検討を行いたいと考えている。 ## 謝 辞 本論文の一部は, JSPS 科研費 25730136 および 24240032 の助成を受け実施したものである. ## 参考文献 Charniak, E. (1997). "Statistical Parsing with a Context-Free Grammar and Word Statistics." In Proceedings of AAAI, pp. 598-603. Galley, M., Graehl, J., Knight, K., Marcu, D., DeNeefe, S., Wang, W., and Thayer, I. (2006). "Scalable Inference and Training of Context-Rich Syntactic Translation Models." In Proceedings of $A C L$, pp. 961-968. Gascó, G., Rocha, M.-A., Sanchis-Trilles, G., Andrés-Ferrer, J., and Casacuberta, F. (2012). "Does More Data Always Yield Better Translations?" In Proceedings of ACL, pp. 152-161. Goto, I., Lu, B., Chow, K. P., Sumita, E., and Tsou, B. K. (2011). "Overview of the Patent Machine Translation Task at the NTCIR-9 Workshop." In Proceedings of NTCIR, Vol. 9, pp. $559-578$. Huang, Z. and Harper, M. (2009). "Self-Training PCFG Grammars with Latent Annotations Across Languages." In Proceedings of EMNLP, pp. 832-841. Isozaki, H., Hirao, T., Duh, K., Sudoh, K., and Tsukada, H. (2010). "Automatic Evaluation of Translation Quality for Distant Language Pairs." In Proceedings of EMNLP, pp. 944-952. Katz-Brown, J., Petrov, S., McDonald, R., Och, F., Talbot, D., Ichikawa, H., Seno, M., and Kazawa, H. (2011). "Training a Parser for Machine Translation Reordering." In Proceedings of EMNLP, pp. 183-192. Koehn, P. (2004). "Statistical Significance Tests for Machine Translation Evaluation." In Proceedings of EMNLP, pp. 388-395. Koehn, P., Och, F. J., and Marcu, D. (2003). "Statistical Phrase-based Translation." In Proceedings of HLT, pp. 48-54. Lin, C.-Y. and Och, F. J. (2004). "Orange: A Method for Evaluating Automatic Evaluation Metrics for Machine Translation." In Proceedings of COLING, pp. 501-507. Liu, S., Li, C.-H., Li, M., and Zhou, M. (2012). "Re-training Monolingual Parser Bilingually for Syntactic SMT." In Proceedings of EMNLP, pp. 854-862. Liu, Y., Liu, Q., and Lin, S. (2006). "Tree-to-String Alignment Template for Statistical Machine Translation." In Proceedings of ACL, pp. 609-616. Marcus, M. P., Marcinkiewicz, M. A., and Santorini, B. (1993). "Building a Large Annotated Corpus of English: The Penn Treebank." Computational Linguistics, 19 (2), pp. 313-330. McClosky, D., Charniak, E., and Johnson, M. (2006). "Effective Self-training for Parsing." In Proceedings of HLT, pp. 152-159. McClosky, D., Charniak, E., and Johnson, M. (2008). "When is Self-training Effective for Parsing?" In Proceedings of COLING, pp. 561-568. Mi, H. and Huang, L. (2008). "Forest-based Translation Rule Extraction." In Proceedings of EMNLP, pp. 206-214. Mori, S., Ogura, H., and Sasada, T. (2014). "A Japanese Word Dependency Corpus." In Proceedings of LREC, pp. 753-758. Morishita, M., Akabe, K., Hatakoshi, Y., Neubig, G., Yoshino, K., and Nakamura, S. (2015). "Parser Self-Training for Syntax-Based Machine Translation." In Proceedings of IWSLT, pp. 232-239. Nakazawa, T., Mino, H., Goto, I., Kurohashi, S., and Sumita, E. (2014). "Overview of the 1st Workshop on Asian Translation." In Proceedings of WAT, pp. 1-19. Neubig, G. (2013). "Travatar: A Forest-to-String Machine Translation Engine based on Tree Transducers." In Proceedings of ACL Demo Track, pp. 91-96. Neubig, G. (2014). "Forest-to-String SMT for Asian Language Translation: NAIST at WAT2014." In Proceedings of WAT, pp. 20-25. Neubig, G. and Duh, K. (2014). "On the Elements of an Accurate Tree-to-String Machine Translation System." In Proceedings of ACL, pp. 143-149. Oda, Y., Neubig, G., Sakti, S., Toda, T., and Nakamura, S. (2015). "Ckylark: A More Robust PCFG-LA Parser." In Proceedings of NAACL, pp. 41-45. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of ACL, pp. 311-318. Yamada, K. and Knight, K. (2001). "A Syntax-based Statistical Translation Model." In Proceedings of $A C L$, pp. 523-530. Zhang, H. and Chiang, D. (2012). "An Exploration of Forest-to-String Translation: Does Translation Help or Hurt Parsing?" In Proceedings of ACL, pp. 317-321. ## 略歴 森下睦:2015 年同志社大学理工学部インテリジェント情報工学科中途退学 (大学院への飛び入学のため). 現在, 奈良先端科学技術大学院大学情報科学研究科博士前期課程在籍. 機械翻訳, 自然言語処理に関する研究に従事. 赤部晃一:2015 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了。機械翻訳, 自然言語処理に関する研究に従事. 波多腰優斗:2015 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 現在, セイコーエプソン株式会社にて勤務。 Graham Neubig: 2005 年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業. 2010 年京都大学大学院情報学研究科修士課程修了. 2012 年同大学院博士後期課程修了. 同年奈良先端科学技術大学院大学助教. 機械翻訳, 自然言語処理に関する研究に従事. 吉野幸一郎:2009 年慶應義塾大学環境情報学部卒業. 2011 年京都大学大学院情報学研究科修士課程修了. 2014 年同博士後期課程修了. 同年日本学術振興会特別研究員 (PD). 2015 年より奈良先端科学技術大学院大学情報科学研究科特任助教. 京都大学博士 (情報学)。音声言語処理および自然言語処理, 特に音声対話システムに関する研究に従事. 2013 年度人工知能学会研究会優秀賞受賞. IEEE, ACL, 情報処理学会, 言語処理学会各会員. 中村哲:1981 年京都工芸繊維大学電子卒.京都大学博士(工学)。シャー プ株式会社. 奈良先端大学助教授, 2000 年 ATR 音声言語コミュニケーション研究所室長, 所長, 2006 年(独)情報通信研究機構研究センター長, けいはんな研究所長などを経て, 現在, 奈良先端大学教授. ATR フェロー. カー ルスルーエ大学客員教授. 音声翻訳, 音声対話, 自然言語処理の研究に従事.情報処理学会喜安記念業績賞, 総務大臣表彰, 文部科学大臣表彰, Antonio Zampoli 賞受賞. ISCA 理事, IEEE SLTC 委員, IEEE フェロー. (2016 年 1 月 5 日受付) (2016 年 4 月 20 日再受付) (2016 年 6 月 9 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 商品の属性値抽出タスクにおけるエラー分析 新里 圭司 $\dagger$ ・関根聡 $\dagger$ ・村上 浩司 $\dagger$ } 本稿では商品の属性値抽出タスクにおけるエラー分析のひとつの事例研究について 報告する。具体的には, 属性値辞書を用いた単純な辞書マッチに基づく属性値抽出 システムを構築し, 人手により属性値がアノテーションされたコーパスに対してシ ステムを適用することで明らかとなる False-positive, False-negative 事例の分析を 行った. 属性値辞書は商品説明文に含まれる表や箇条書きなどの半構造化デー夕を 解析することで得られる自動構築したものを用いた。 エラー分析は実際のオンライ ンショッピングサイトで用いられている 5 つの商品カテゴリから抽出した 100 商品 ページに対して行った。そして分析を通してボトムアップ的に各事例の分類を行っ てエラーのカテゴリ化を試みた。本稿ではエラーカテゴリおよびその実例を示すた けでなく,誤り事例を無くすために必要な処理・データについても検討する。 キーワード:商品の属性値抽出, オンラインショッピング, エラー分析, エラーのカテゴリ化 ## Error Analysis on Product Attribute Value Extraction \author{ KeIdi Shinzato $^{\dagger}$, Satoshi SeKine ${ }^{\dagger \dagger}$ and Koji Murakami ${ }^{\dagger}$ } This paper reports error analysis results on the product attribute value extraction task. We built the system that extracted attribute values from product descriptions by simply matching the descriptions and entries in an attribute value dictionary. The dictionary is automatically constructed by parsing semi-structured data such as tables and itemizations in product descriptions. We run the extraction system on the corpus where product attribute values were annotated by a single subject, and then investigated false-positives and false-negatives. We conducted the error analysis procedure on 100 product pages extracted from five different product categories of an actual e-commerce site, and designed error type categories according to the results of the error analysis on those product pages. In addition to show the error type categories and their instances, we also discuss processing and data resources required for reducing the number of error instances. Key Words: Product Attribute Value Extraction, Online Shopping, Error Analysis, Error Type Category  ## 1 はじめに 場所や時間を気にすることなく買い物可能なオンラインショッピングサイトは重要なライフラインになりつつある。オンラインショッピングサイトでは商品に関する説明はテキスト形式で提供されるため, この商品説明文から商品の属性-属性值を抽出し構造化された商品デー夕を作成する属性值抽出技術は実世界でのニーズが高い。ここで「商品説明文から商品の属性值を抽出する」とは, 例えばワインに関係した以下の文が入力された時, (生産地, フランス), (ぶどう品種, シャルドネ), (タイプ, 辛口) といった属性と属性值の組を抽出することを指す. ・フランス産のシャルドネを配した辛ロワイン. このような商品の属性值抽出が実現できれば, 他の商品のレコメンドやファセット検索での利用,詳細なマーケティング分析1等が可能になる。 商品の属性値抽出タスクは従来より多くの研究がなされており, 少数のパターンにより属性値の獲得を試みる手法 (Mauge, Rohanimanesh, and Ruvini 2012), 事前に人手または自動で構築した属性値辞書に基づいて属性値抽出モデルを学習する手法 (Ghani, Probst, Liu, Krema, and Fano 2006; Probst, Ghani, Krema, Fano, and Liu 2007; Putthividhya and Hu 2011; Bing, Wong, and Lam 2012; Shinzato and Sekine 2013),トピックモデルにより属性値を獲得する手法(Wong, Wong, and Lam 2008) など様々な手法が提案されている. 本研究の目的は商品属性値抽出タスクに内在している研究課題を洗い出し, 抽出システムを構築する上でどのような点を考慮すべきか,またどの部分に注力するべきかという点を明らかにすることである。夕スクに内在する研究課題を洗い出すため, 属性-属性値辞書に基づく単純なシステムを実装し,このシステムが抽出した結果の False-positve, False-negative 事例の分析を行った.エラー分析という観点では,Shinzato らがワインとシャンプーカテゴリに対して得られた結果から無作為に 50 件ずつ False-positive 事例を抽出し,エラーの原因を調査している (Shinzato and Sekine 2013). これに対し本研究では 5 の商品カテゴリから 20 件ずつ商品ペー ジを選びだして作成した 100 件のデータ(2,381文)を対象に分析を行い,分析を通してボトムアップ的に各事例の分類を行ってエラーのカテゴリ化を試みた。システムのエラー分析を行い, システム固有の問題点を明らかにすることはこれまでも行われてきたが,この規模のデー夕に対して商品属性値抽出タスクに内在するエラーのタイプを調查し,カテゴリ化を行った研究は筆者らの知る限りない. 後述するように, 今回分析対象としたデータは属性-属性値辞書に基づく単純な抽出システムの出力結果であるが,これは Distant supervision (Mintz, Bills, Snow, and Jurafsky 2009)に基づく情報抽出手法で行われる夕グ付きコーパス作成処理と見なすことができる。したがって,  本研究で得られた知見は商品属性値抽出タスクだけでなく, 一般のドメインにおける情報抽出タスクにおいても有用であると考えられる。 ## 2 分析対象データ 楽天データ公開 2 より配布されている商品データから, 論文 (Shinzato and Sekine 2013) を参考に,ワイン, シャンプー, プリンターインク, Tシャツ, キャットフードカテゴリに登録されている商品ページを無作為に 20 件ずつ, 計 100 件抽出した。 そして,抽出したぺージをブロック要素タグ,記号3を手がかりに文に分割した。 カテゴリ毎に分析対象とした属性を表 1 に示す。これらの属性は論文 (Shinzato and Sekine 2013) で抽出対象とされたものに以下の修正を加えたものである. ・同じ意味を表す属性名を人手で統合した. ・誤った属性を人手で削除した。 - ブランド名, 商品名, メーカー名などの重要な属性が抽出対象となっていなかったので, これらを分析対象として加えた。 続いて, 各商品ページのタイトル, 商品説明文, 販売方法別説明文に含まれる属性値を 1 名の作業者によりアノテーションした。アノテーション時には, 後述する 3.2.1節の方法で作成した属性-属性值のリストを提示し, これらと類似する表現をアノテーションするよう依頼した。 また。アノテーションにあたり作業者に以下の点を指示した. 長い表現をとる属性値を $v$, 任意の語を $w$ とした時, 表現「 $w$ の $v$ が属性値として見なせる 場合, $w$ もまた属性值として見なせる場合であっても「 $w$ の $v$ を 1 の属性値としてアノテーションする。例えば「フランスのブルゴーニュ産ワインです」という文があった場合,「フランス」,「ブルゴーニユ産」をそれぞれアノテーションするのではなく,「フ 表 1 対象カテゴリ, 対象属性および対象データの規模. 商品ページ数は各カテゴリ共に 20 件.  $3 \llbracket, \rrbracket, \circ, ?, !, ग, ※, \bigcirc, \bigcirc, O, \star, \uparrow$, 『』) に出現している場合は区切らない. $\mathbf{\square}, \square, \boldsymbol{\nabla}, \nabla, \boldsymbol{\Delta}, \triangle, \diamond, \diamond, 《, \gg, \ll$. ただし, これらが括弧内(「」, ランスのブルゴーニュ産」をアノテーションする. 記号で区切る記号を挟んで属性値が列挙されている場合は別々にアノテーションする。例えば,「フランス・ブルゴーニュ産ワインです」という文があった場合, 記号「・」で区切り, 「フランス」,「ブルゴーニュ産」をそれぞれアノテーションする。ただし固有名詞 (e.g.,「カベルネ・ソーヴィニョン」), 数値 (e.g.,「3,000 ml」), サイズ (e.g., 「19.5×24.1×8.0 $\mathrm{cm}\rfloor$ ), 数値の範囲 (e.g., 「10〜15cm」) の場合は例外とし, 記号があっても区切らない.括弧の扱い括弧の直前,中にある表現が共に属性值と見なせる場合は別々にアノテーションする。例えば「ブルゴーニュ (フランス) のワインです.」の場合,「ブルゴーニュ」,「フランス」を個別にアノテーションする。一方,「シャルドネ $(100 \%)\rfloor$ の場合は,「シャルドネ $(100 \%)$ 」をアノテーションする. 以上の作業により得られた分析対象データの規模を表 1 の文数および属性値数列に示す. カテゴリ毎に文数およびアノテーションされた属性值数に差があることがわかる. ## 3 商品の属性値抽出システム 本節では商品の属性值を商品説明文から抽出するシステムについて述べる。本研究で用いる情報抽出システムは,オンラインショッピングサイト上の商品データの特徴を考慮したものであるため, まず商品データの特徴について整理する. (a) 表 (b) 箇条書き 図 1 商品ページ中に含まれる半構造化データ(枠で囲まれた部分) ## 3.1 商品データの特徵 オンラインショッピングサイト上の商品データの特徵として以下の点が挙げられる. (1) 商品カテゴリ数が多い. (2)一部の商品ぺージには表や箇条書きなどの形式で整理された属性情報が含まれている.一般にオンラインショッピングサイトの商品カテゴリ数は多く,例えば,今回分析対象とした楽天では 4 万以上のカテゴリが存在する。そのため, それぞれのカテゴリにおいて学習デー夕を準備することはとてもコストの高い作業となるため現実的ではない.その一方で,一部の商品ページにおいては,図 1 に挙げたように商品の属性情報が表や箇条書きなどを使って整理されている場合がある. これら半構造化データはショッピングサイトに出店している店舗ごとにその形式が異なるものの,いくつかのパターンを用いれば,そこから属性-属性値情報をある程度の精度で抽出することができる。例えば, Shinzato ら (Shinzato and Sekine 2013) は簡単な正規表現パターンを適用することで,ワインとシャンプーカテゴリに対して $70 \%$ 程度の精度で属性-属性値辞書が構築できたと報告している。 ## 3.2 抽出システム タスクに内在する研究課題を明らかにするためには, 少なくとも 2 つの方法が考えられる。 1 つは複数のシステムを同じデータで実行し, 多くのシステムがエラーとなる事例の分析を通してタスクの研究課題を明らかにする方法である。もう1つはシステムがシンプルでどのような動きになっているかをグラスボックス的に分析できるものを実行し,その結果を基に課題を明らかにする方法である。今回の商品属性值抽出夕スクは, 標準的な夕グ付きコーパスや属性値抽出のためのソフトウェア等が公開されているわけではないため, 多くのシステムを実行させることは現実的ではない. そこで,今回のエラー分析は 2 つ目の方法により行った. 具体的には, 商品ページに含まれる半構造化データから属性-属性値辞書を自動構築し, この辞書を使った辞書マッチによって商品ページのタイトル, 商品説明文, 販売方法別説明文から属性値を抽出する。この辞書マッチに基づくシステムは, 辞書に属性値が登録されているか否かで属性値の抽出を行うためエラーの原因の特定が容易である。このような単純なシステムのエラー分析を行うことで,このタスクに含まれるエラーのタイプおよびその割合が明らかとなり,この結果は複雑なシステムを実装する際も,その素性の設計や重みの調整などに役立つと考えられる。 近年, 図 2 に示すような Distant supervision に基づく情報抽出手法が多く提案されている (Mintz et al. 2009; Wu and Weld 2010; Takamatsu, Sato, and Nakagawa 2012; Ritter, Zettlemoyer, Mausam, and Etzioni 2013; Xu, Hoffmann, Zhao, and Grishman 2013). これらは Freebase や Wikipediaの Infoboxなどの人手で整備された辞書を活用してテキストデータに対し自動でアノテーションし,これを訓練データとして抽出規則を学習する。本手法で Freebase や Wikiepdia の Infoboxを用いない理由は, これら辞書にはオンラインショッピングで有用となる商品の属 抽出モデル 図 2 Distant supervision の流孔 性-属性值が記述されていない商品カテゴリが多く, 教師データを自動構築する際の辞書デー夕としては利用できないためである。 本手法は単純なものであるが, これは Distant supervision における初期タグ付きデータ作成部分に相当する(図 2 の破線の部分),多くの手法では,この後, 固有表現抽出と組み合わせたフィルタリングや,統計量を用いたフィルタリング等の処理を行ってタグ付きコーパスから False-positive, False-negative を減らすように工夫している (Roth, Barth, Wiegand, and Klakow 2013). そのため, 本研究で得られたエラー分析の結果は商品の属性値抽出のみならず, Distant supervision に基づく一般の情報抽出タスクにおいても, どのようなエラーについて後続のフィルタリング処理で考慮しないといけないのかを示唆する有用な知見になると考えられる. 以下, 属性-属性値辞書の構築方法, および辞書に基づく属性値抽出方法について述べる。 ## 3.2.1 属性-属性値辞書の構築 属性-属性值辞書の構築は Shinzato らの手法 (Shinzato and Sekine 2013) に基づいて行った. この手法は「属性-属性値の抽出」,「同じ意味を持つ属性の集約」の 2 つの処理からなる. 属性-属性值の抽出前述したように一部の商品ぺージには表や箇条書きなどの半構造化デー夕が含まれており,辞書の構築にはこれらのデータを利用する。まずドメイン特有の属性を得るため,正規表現パターン $<\mathrm{TH} . * ?>.+?</ \mathrm{TH}>$ を使って表のヘッダーから属性を獲得する(<TH> は表のヘッダーを表す HTML タグ),獲得された属性のうち「保存方法」「その他」「商品説明」「広告文責」「特徴」「仕様」は適切な属性と見なせないため除く. 続いて属性-属性值の組を抽出するため, 以下の正規表現パターンを商品ページに適用し, [ANY] にマッチした表現を $[$ ATTR $]$ に対応する属性の値として抽出する. P1: $\quad<\mathrm{T}(\mathrm{H} \mid \mathrm{D}) . * ?>[\mathrm{ATTR}]</ \mathrm{T}(\mathrm{H} \mid \mathrm{D})><\mathrm{TD} . * ?>[\mathrm{ANY}]</ \mathrm{TD}>$ P2: $\quad[\mathrm{P}][$ ATTR $][\mathrm{S}][$ ANY $][\mathrm{P}]$ P3: $\quad[\mathrm{P}][$ ATTR $][$ ANY $][\mathrm{P}]$ P4: $[$ ATTR $][S][A N Y][A T T R][S]$ ここで [ATTR] は事前に獲得しておいた属性を表す文字列, [ANY] は任意の文字列, [P] はO, 字を表す.なお $\mathrm{P} 4$ において, [ANY] は最初に出現した $[$ ATTR] の値とする. 抽出された属性-属性値の組に対して, それらを表や箇条書きなどの形式で記述した店舗の異なり数を計数する。この店舗の異なり数を以降では店舗頻度と呼ぶ. この店舗頻度が高いほど抽出された属性-属性値が正しい関係にあることが報告されており (Shinzato and Sekine 2013),次節で述べる属性値抽出システムでは, 店舗頻度を用いて属性値の曖昧性解消を行っている。 同じ意味を持つ属性の集約前述の方法で抽出した属性-属性値には属性の表記に摇れがある. これは商品データを店舗が記述するための標準的な方法(規則)がないためである。例えば,「イタリア」「フランス」はワインカテゴリにおいて「生産地」であるが, 店舗 $m_{1}$ は「生産地」,店舗 $m_{2}$ は「生産国」として記述することがある. そこで Shinzato らは「属性 $a, b$ が同一の半構造化データに出現しておらず, $a, b$ が店舗頻度の高い同一の属性値をとる場合, $a, b$ は同義である」という仮説を用いて表記の摇れた属性の認識・集約を行っている。具体的には,まず,店舗頻度が $N$ を超える属性-属性值を対象に, 同じ属性値を持つ属性のベクトル $\left(a_{1}, a_{2}\right)$ を生成する. そして,属性 $a_{1}, a_{2}$ が同一の半構造化デー夕に含まれているかどうかチェックし,含まれていなければそれらを同義語と見なす. $N$ は $N=\max \left(2, M_{S} / m\right)$ で求まる値であり, $M_{S}$ は対象カテゴリにおいて半構造化データを提供している店舗数を表す。 $m$ は店舗頻度の間値を決定するパラメータであり, 本手法では経験的に 100 としている.この処理により, 例えばワインカテゴリであれば $v_{1}=$ (生産国, 生産地 $), v_{2}=$ (ぶどう品種, 品種) が得られる. 得られた属性のべクトルの集合 $\left(\left.\{v_{1}, v_{2}, \cdots\right.\}\right)$ を $S_{a t t r}$ で表す. 続いて, 属性ベクトルの集合 $S_{a t t r}$ の中で類似度の高い属性のベクトル同士をマージする. 例えば, (地域,生産国,生産地)は, (地域,生産国), (生産国,生産地)をマージすることで得られる. ベクトル間の類似度はコサイン尺度で求め, マージ処理は類似度の最大值が 0.5 を下回るまで繰り返し行う。この閾値 0.5 は経験的に決定した. 以上の操作を楽天市場のワイン, シャンプー, プリンターインク, $\mathrm{T}$ シャツ, キャットフードカテゴリに登録されている商品データに対して適用した. 獲得された属性-属性値をカテゴリ毎に 400 件無作為に抽出し, 正しい関係になっているかどうかを 1 人の被験者により評価した.獲得された属性-属性値の数, および正解率を表 2 に示す. T シャツカテゴリで極端に低い精度 (43.5\%) が得られたが,それ以外は Shinzato らの報告と同程度,もしくはより高い精度が達成できていることがわかる. 最後にワインカテゴリに対して獲得された属性-属性值の例を表 3 に示す. 括弧([ ] )内の数字は店舗頻度を表す。 ## 3.2.2 属性値の抽出 まず入力文を形態素解析し,属性-属性値辞書中の属性値と最長一致した形態素列を対応する属性の値として抽出する。この時, 抽出された属性值からさらに別の属性値を取ることは考えない。また,誤抽出の影響を少なくするため属性值が数值のみからなる場合は抽出しなかった。形態素解析器には JUMAN 7.014を用いた。一部の表現は複数の属性の値となることがあるため抽出時に曖昧性を解消する必要がある。例えば「 $55 \mathrm{~cm} 」$ は $\mathrm{T}$ シャカテゴリの属性「身幅」, 表 2 属性-属性値の数と正解率 表 3 ワインカテゴリに登録された商品データから自動構築した属性-属性値辞書の例 \\ [ ] 内の数字は店舗頻度を表す. ^{4}$ http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN } 「着丈」のどちらの値にもなりえる。本システムでは店舗頻度が高いほど自動抽出された属性属性值の信頼性が高いことに注目し, 複数の属性が考えられる場合は店舗頻度の高い属性の値として抽出した。先程の例の場合,(身幅, $55 \mathrm{~cm}$ )の店舗頻度は 35 , (着丈, $55 \mathrm{~cm}$ )の店舗頻度は 7 であるため, T シャツカテゴリでは, 表現「55 cm」は「身幅」の属性値として常に抽出される. ## 4 エラー分析 2節で述べたデー夕に対し属性值の抽出を行った時の True-positive/False-positive/False-negative の事例数および精度 (Prec.) と再現率 (Recall) を表 4 に示す. 5 カテゴリ中 3 カテゴリでは, 辞書の正解率は $80 \%$ に近かったにも関わらず,それらを用いて行った自動抽出の精度は $50 \%$ 程度であることがわかる. 以下では,まず,False-positive, False-negativeの事例について分析し,各エラーを除くためにどのような処理・データが必要となるかを検討する, 4.3 節では,エラー分析を通して得られた知見のうち, Distant supervision に基づく一般の情報抽出タスクにおいても有用なものについて考える。 ## 4.1 False-positive の分析 False-positive となった 1,057 事例について, 以下の項目を順次チェックすることで分類を試みた。 (1)誤った属性-属性値に基づいて属性値が抽出されている (2) 属性値を抽出するべき商品ぺージでない (3) 商品と関係ないパッセージから属性値が抽出されている 分類の結果を表 5 に示す。表より誤った辞書エントリに起因する誤抽出が多いことがわかる.各チェック項目の詳細については 4.1.1 節, 4.1.2 節, 4.1.3 節で述べる. 表 4 True-positive/False-positive/False-negative の数および精度と再現率 表 5 事前チェック項目の該当事例数 & ワイン & シャンプー & & $\mathrm{T}$ シャツ & \\ チェック項目 (1), (2), (3) をパスした抽出結果は, 適切な商品ページの適切なパッセージから適切な属性-属性値に基づいて抽出されたものであるにも関わらず誤抽出と判断されたものである。そこで,残った事例を調査し,何が原因なのかを検討した。この結果については 4.1.4 節で述べる。 ## 4.1.1誤った属性-属性值に基づいて属性値が抽出されている 属性値の抽出は商品ページの半構造化データより構築した辞書に基づいて行っている. 辞書は自動構築しているため,誤った属性-属性值の組も含まれている。そこでまず,誤った属性-属性値に基づいて抽出された結果であるかどうかを確認した。この項目に該当する事例数は 712 であり,False-positive 事例の $67.4 \%$ に相当する。自明ではあるが,高い精度で辞書を構築することが,辞書べースの情報抽出システムにおいて重要であることがわかる。 この項目に該当する事例を減らすためには辞書構築の方法を見直す必要がある.今回は表・箇条書きデータに注目して辞書を構築しているため,辞書構築の精度を改善するためには,商品ページ中のこれら半構造化データの解析をより正確に行う必要があるだろう。また,表・箇条書き以外の手がかり(例えば語彙統語パターン)を取り入れることも辞書構築の精度向上に有効であると考えられる。 次に人手でチェックするなどして属性-属性值辞書に含まれる誤ったエントリを削除した場合,辞書マッチに基づく抽出システムの精度がどの程度改善されるのかについて確認する。誤った属性-属性値に基づいて抽出されてしまった事例を除いた後, 再度計算したカテゴリ毎の精度を表 6 に示す. 表 4 および表 6 を比べると,平均で精度が $45.2 \%$ から $71.6 \%$ に改善されていることがわかる。この結果から,エントリが全て正しい辞書を用いたとしても 3 割程度は誤抽出となることがわかる。 表 6 エントリが全て正しい辞書を用いた場合の精度 ## 4.1.2属性値を抽出するべき商品ページでない 楽天では商品ページを商品カテゴリに登録する作業は店舗によって行われており,そこには誤りが含まれている。そこで誤って分析対象カテゴリに登録された商品ぺージかどうかを確認した,誤ったカテゴリに登録されている商品ぺージは今回のデータセット中に 4 件 5 あり, そこに含まれる False-positive 事例数は 53 件 $(5.0 \%)$ であった。 このような誤りを除くためには,与えられた商品ページが商品カテゴリに該当するものであるかどうかを判定する処理が必要である.例えば,村上ら(村上,関根 2012)は辞書に基づく方法で商品ページが正しい商品カテゴリに登録されているかを判定する手法を提案している。このような手法を用いることで,この項目に該当する事例を減らすことができると考えられる. ## 4.1.3商品と関係ないパッセージから属性値が抽出されている 商品ページには当該ページで販売している商品以外のことについて記述されることも多い.例えば,商品ぺージ閲覧者を店舗サイト内で回遊させるために,当該ぺージで販売されている商品以外の商品の広告を掲載していたり,検索結果に頻繁に表示されるようキーワードスタッフィングが行われている商品ページがある。 そこで 3 番目の項目として, 当該ぺージにて販売されている商品に関係ないパッセージから属性値抽出が行われたかどうかを確認した。結果, 99 件 $(9.4 \%)$ の事例がこの項目に該当した。このうち 90 件は以下のような他の商品へのナビゲー ションであった(括弧内はカテゴリ名). $\cdot$ その他のシャンパンタイプ\&スパーク\&ワイン関連はコチラをクリック ※順次追加中! (ワイン) ・ ミルボンメーカー一覧はこちら(シャンプー) - 色違い”ナチュラル色” ', THERE ARE WAVES NAT', クルーネック Tシャツ(T シャツ) ・《チャオ缶国産原産国》(キャットフード) $ シャツカテゴリに帽子, キーホルダーが登録されていた. } 他の商品ページへのリンクが埋め込まれているかどうかの確認や, 他の商品へのナビゲーションは複数の商品ページに対して設置されることが多いため,商品ぺージのテンプレートを認識した結果を利用することで,このような事例は減らせるのではないかと考えられる。 残りの 9 件はキーワードスタッフィングが行われた領域から抽出されたものであった. 前処理としてキーワードスタッフィングが行われているかどうかを判定することで,これらの事例を削除することが期待できる. ## 4.1.4 残りの誤り事例はどんなものか? ここまでの項目をパスした抽出結果は, 適切な商品ページの適切なパッセージから適切な属性-属性値に基づいて抽出されたものであるが誤抽出となった事例である。このような誤りは 193 件 $(18.2 \%)$ あり,これら事例を重複を考慮して分類すると表 7 のようになった. 以下エラータイプ毎に事例を列挙するとともに,エラーを除くために必要となる処理・デー 夕について検討する。 人手アノテーションと部分一致人手アノテーションと部分一致している事例が 84 件あった. このうち以下の例のように正解とみなしても問題ない事例が 37 件あった(太字が人手アノテー 表 7 各商品カテゴリにおける誤りの種類とその事例数. & ワイン & シャンプー & & T シャツ & \\ ション, 下線が自動抽出結果). ・ドメーヌ・レ・グリフェはボジョレーの南産地に位置する歴史あるドメーヌです。 - 国内製製造国ヘアケア品 - 薄手のコットン素材素材で着心地抜群。 - 表記 Lサイズ これらは「どのような表現を属性値として抽出するか」という属性値の定義と関係している.定義は抽出結果を利用するアプリケーションに依存する部分であり, アプリケーションによっては上に挙げた抽出結果でも問題ない場合がある。そのため, これらは False-positiveであるが, ほぼ正解と見なしても問題ないと考えられる. 残りの 47 件中 41 件はシャンプーの成分に関するものであり, 以下の例のように人手アノテー ションと部分一致しているものの,これが抽出されても意味をなさないものであった. ・ 2 -アルキル - N - カルボキシメチルヒドロキシエチルイミダゾリニウムべタイン、ラウロイルメチルーB-アラニン成分 N A 液、ヤシ油脂肪酸アミドプロピルベタイン液このような事例は属性-属性値辞書のカバレージを改善することで減らせると考えられる. 他のエンティティの部分文字列からの抽出次に多かった誤りは他のエンティティの部分文字列から抽出している事例であり 40 件あった. これらはエンティティのタイプから組織名やイベント名, 型番, ブランド名などの固有表現, ドメイン固有の用語, 一般的な名詞句に分類できた.固有表現の一部から抽出されていた例を示す(太字が固有表現相当の表現). - フランス産地革命の戦いの舞台にもなった歴史あるシャトー。 ・また、フランスで最も古いAOC、ブランケット・ド・リムー産地を産出します。 - 醸造方法もシャトー・マルゴー産地と同じ手法をとって、セカンドながらも品質は他の特級シャトーに匹敵するほどです。 - 2011 年度のトロフィー・リョン・ボジョレー産地・ヌーヴォーコンクールでは見事金賞を受賞! - 1 円 3 個までリピート歓迎 CANON (キヤノン) 対応の純正互換インクカートリッジBCI - 6 PM(残量表示機能付)(関連商品 B C I - 6 B Kュラ- B C I - 6 C BCI - 6 M BCI -6 Y $\quad$ BCI -6 PC $\quad$ BCI -6 PM $\quad$ BCI $-6 \mathrm{R} \quad$ B C I - 6 G) - アメリカンイーグル (AMERICAN EAGLE)は、ABERCROMB I Eブランド \& FITCH(アバクロンビー\&フィッチ)と並んで人気のカジュアルブランドで、北米では 800 店舗の直営店を持っています。 ・ ブラック色メタルページ正規ライセンスTシャツ販売 このような事例は全部で 25 件あり,前処理として固有表現認識を行い,固有表現の一部からは 属性値を抽出しない, 等のルールを適用することで事例を減らすことができると考えられる。 たた,ブランド名等は従来の固有表現タイプではカバーされていないため, 従来にはない夕イプの固有表現の認識技術が求められる. 次にドメイン固有の用語から抽出していた例を示す. ・ ボジョレー産地・ヌーヴォー2 013 年(新酒)! ・ パーマ・デジパー(デジタルパーマ)・縮毛矯正ストレートパーマエアウエーブ・水成分パーマ・フィルムパーマなどパーマのウエーブを長持ちさせたい方に。 このような例は全部で 12 件であった. 固有表現の場合と同様に,ドメイン毎に専門性の高い用語を抽出するなどし, 用語の部分文字列からは属性値を抽出しないなどのルールを設ける必要があると考えられる。 最後に名詞句の一部から抽出されていた事例を示す.このような事例は以下の 3 件であった. ・ 2 位にルイ・ロデレール・ブリュット、 7 位にテタンジュ・ブリュットなど大手のシャンパンタイプハウスも名を連ねています。 ・ ジョエル・ファルメ氏が引き継いたころは、栽培した葡萄をシャンパンタイプメーカーに売っていましたが、現在は、葡萄の栽培・醇造・瓶詰めまで行うRM(レコルタン・マニピュラン) です。 - アメリカ製造国各種機関で厳しい環境基準をクリアした分解作用で污れだけ分解してくれるから髪や頭皮を傷めません。 これらを除くためには名詞句の構造を解析し, 主辞以外の部分からは属性値を抽出しない, 等の処理が考えられる。 当該商品の属性値の説明とは関係ない記述からの抽出このような事例は 37 件あった. 以下に例を示す。 ・ スペイン産地のロマネ・コンティで知られるヴェガ・シシリア社がハンガリーで造るワイン。 ・ 米国ではアメリカンイーグル、アバクロ、GAPブランド(ギャップ)は3大アメカジブランドとして、3つとも同じくらいの知名度となっています。 - M,L モデル着用サイズ:M(モデル身長: $170 \mathrm{CM}$, 体重:58 K , ウ 首周り:37 CM) - 成猫体重 $1 \mathrm{KG}$ 内容量当り 1 日約 1.4 袋を目安として、1 日の給与量を 2 回以上に分けて与えてください。 ・レビューで $5 \%$ 粗脂肪 OF F ククーポン! 上の例からわかるように,ワインはワイナリーに関する記述から, T シャツはブランドの説明 およびモデルの体型に関する記述から,キャットフードはその利用方法やクーポンに関する記述から誤った情報が抽出されている。このような誤抽出を除くためには, 商品ページ内の各文が何について言及しているのかといった文中の主題を認識する必要がある. 属性値の多義性に起因する誤抽出このような事例は 33 件あった. この中で最も多かったタイプはサイズに関する属性値であり, 16 件であった。以下に例を示す. - 54 . $5 \mathrm{CM}_{\text {身幅 }}$ 1つ目の例のように,サイズに関する情報は属性名とともに属性値が記述されることがあるため, 属性名に相当する表現と属性値がどのくらい離れた場所に記述されているか, という指標を考慮することで誤りを減らせる可能性がある.2つ目の例は表のセルに記述されたものであった. そのため,表形式で記述されたデータの理解も重要な処理と考えられる. 次に多かったタイプは割合に関する表現であった。このタイプの事例は 9 件であった。以下にその例を示す。 - 粗たん白質: $4.0 \%$ 以上粗脂肪、粗脂肪: $0.1 \%$ 以上、粗緎維: $0.1 \%$ 以下、粗灰分:1.0\%以下、水分:9 4.0\%以下、エネルギー:約 $15 \mathrm{KCAL}$ /袋 - $0.05 \%$ 以上粗脂肪 1つ目の例のように混合比が素材と一緒に併記されることがある。そのため, 素材に相当する表現の間に挟まれる割合表現を抽出対象としないことでエラーを減らせると考えられる。サイズ同様,割合についても 2 つ目の例のように属性名にあたる表現と併記されることがあるため,属性名との距離を考慮することである程度事例数を減らすことが期待できる。また割合も表形式のデータで記述されることがあるため, 表デー夕の理解は重要であろう. 以下は本来であれば,ワインの属性「タイプ」の値として抽出されるべきであるが,地名として抽出されてしまった例である. ・NYタイムズで、ベストシャンパーニュ産地(40ドル以下)に選ばれました。 - モエ・シャンドン・ドンペリニョンの最高級品、通称「ドンペリ・ゴールド」最高の葡萄を熟成させ生産量が極めて少なく本場フランスと日本でしか手に入れることのできない究極の「公のシャンパーニユ産地」と呼ばれています。 このような地名に関係した誤りは 3 件あり, サイズ,割合表現についで多かった。最初の例は $\lceil 40$ ドル以下」, 次の例は「幻の」や「フランスと日本でしか手に入れることのできない」という表現から「シャンパーニュ」が「地名」ではなく「タイプ」の意味で使われていることがわかる.このことから, 属性値の周辺の語彙を見ることで多義性解消を行う従来手法で解決できそうである。しかし従来手法は機械学習に基づくものが多く, 教師データを曖昧性のある属性 值ごとに作成するのは膨大なコストがかかる。 そのため, 教師なし学習に基づく解消方法が求められる。 メトニミーに起因する誤抽出このタイプに該当する事例は 5 件あり,すべて「ボジョレー」に関するものであった。以下に例を示す. ・本物のボジョレー産地の味わいを感じさせてくれる、自然派! ・ ボジョレー産地に求める要素をすべて備えていると言っても過言ではありません。 「ボジョレー」はワインの産地の 1 つであるが,ここでは産地としてではなく,「ボジョレー産のワイン」という意味で用いられている。咧は「の味わい」という表現に注目することで 「産地」でないことがわかる。 その一方で下の例は文単体では「産地」という理解も可能である. しかしながら,当該文の直前の文が「彼らのスタイルは飲み心地が良く、フルーティで果実味が豊か。」であることを考えると「産地」ではないことがわかる。このタイプのエラー事例を減らすには,ある表現がメトニミーなのかどうかを判定する処理が必要であり,さらに 2 つ目の例のように一文中の情報では判定できない事例もあるため, 文を跨いだ解析が求められる. 形態素解析器の過分割による誤抽出形態素解析器により過分割されたために誤って抽出された事例が 1 件あった。以下に示す. ## ・トカイ・フルミント・ドライ・マンデュラス品種[20006](オレムス) マンデュラス (mandulas) とはハンガリー語でアーモンドを意味する語である. 形態素解析器の辞書にマンデュラスが登録されていなかったため,過分割されてしまい誤った属性値が抽出されていた。しかしながら,マンデュラスのような語が形態素解析器の辞書にあらかじめ登録されていることは期待できないため,あるドメインに関するテキスト集合から自動的に語彙を獲得し, 形態素解析器の辞書を動的に拡充する手法 (例えば, 村脇らの手法 (村脇, 黒橋 2010)) が必要であると考えられる。 商品ページ内の誤った情報からの抽出誤った情報が商品ページに記述されており, そこから誤った属性值が抽出されている事例が 1 件あった. 以下に示す. $\cdot$アリミノミントシャンプー フローズンクール $220 \mathrm{ML}$ 容量 商品タイトルには $1000 \mathrm{ml}$ と記述されており, 商品画像も $1000 \mathrm{ml}$ のものであったことから $220 \mathrm{ml}$ は誤りであることがわかった。このように抽出元となるテキストの信頼度や,画像データなどのテキスト以外の情報を考慮することも精度の向上に必要である. ## 4.2 False-negative の分析 False-negative に該当する事例は全部で 831 件あった,分析にあたり,まず,キャットフードカテゴリについては全 18 件, キャットフード以外のカテゴリからは無作為に 50 件ずつ選び出した。そして,以下の条件のいずれかに一致する事例を削除して残った 188 件について分析を行った. - 誤ったカテゴリに登録された商品ページ. - 人手アノテーションと部分一致し,かつ正解と見なしても問題ないもの. 分析の結果, False-negative 事例は (1) 異表記すら辞書に含まれていない, (2) 異表記は辞書に含まれている,(3) 抽出手法の問題の 3 種類に分類できた。本節では各タイプについて述べる. ## 4.2.1異表記すら辞書に含まれていない 当該表現たけけでなく, その異表記すら辞書に含まれていない事例が 100 件 $(53.2 \%)$ あった.表 8 に異表記が辞書に含まれていない属性値のタイプと例を示す。組織名, 地名, 割合表現, 人名など既存の固有表現のタイプが見てとれる。そのため, 固有表現のタイプと属性の間に変換ルールを設けることで,辞書に含まれていない属性值についても固有表現認識技術を用いることで抽出できる可能性がある。しかしながら, この操作によって False-positive の数が増えてしまう可能性があることに留意する必要がある. 表 8 異表記すら辞書に含まれていない属性値の例 \\ ## 4.2 .2 異表記は辞書に含まれている 属性値自身は辞書に含まれていないが,その異表記が辞書に含まれている事例は 69 件 $(36.7 \%)$ あった.異表記のタイプ,各タイプの数および例を表 9 に示す. 空白,中黒,ハイフンの有無や入れ替わり, 長音とハイフンの入れ替わり, 接辞の有無, 翻字の違い, 小数点の扱い, 送り仮名の有無など,テキスト中と辞書中の表現の柔軟なマッチングを行うことで改善できる事例が多いことがわかる,その一方で,略語,翻訳,言い換えなど事前の知識獲得処理を必要とする事例も見られる。 ## 4.2.3 抽出手法の問題 辞書に正しい属性-属性値の組が登録されているにも関わらず 3 節で述べた手法の問題により抽出されなかった事例が 19 件 $(10.1 \%)$ あった。この中で最も多かったタイプは数値単体からなる属性値であった(13 件),誤抽出の影響を減らすため数値のみの属性値は抽出しないようにしたことが原因である,数値に関する抽出手法を洗練することで,このタイプの誤りは減らせると考えられる。 残り 6 件のうち 3 件は,辞書エントリとテキストの最長一致による属性値抽出方法が問題となっていた,具体的には,正解の属性値(例えば,(メーカー, デミコスメティクス))よりも文字列長の長い誤った属性値(例えば,(メーカー, 日華化学株式会社デミコスメティクス))が先に抽出されてしまい,正しい属性値が抽出されなくなっていた。文字列長だけではな 表 9 テキスト中の表現と辞書エントリの表記の違い & 18 & P I XUS $990 \mathrm{I}$ & P I XUS 990 I \\ く, 属性-属性値としての正しさも考慮に入れて抽出を行うことで改善できる可能性がある. 残りの 3 件は属性値に多義性がある場合であった。属性値抽出を行う際, 店舗頻度をもとに多義性解消を行っているが,この処理が誤っていた。そのため, 店舗頻度だけでなく, 前後の文脈を考慮するなどして多義性解消を行う必要があると考えられる。 ## 4.3 Distant supervision に基づく一般の情報抽出タスクに対して有用な知見 一般に Distant supervision に基づく情報抽出手法では, Freebase や Wikipedia の Infobox などの人手で整備された辞書に登録されているエンティティ(もしくはエンティティの組)がテキストに出現している際,エンティティに紐づいている辞書内の情報(例えば,エンティティのタイプやエンティティ間の関係)を当該テキストに付与することで教師データを自動的に作成する。例えば Distant supervisionの考え方を一般的な関係抽出タスクに初めて用いた Mintz ら (Mintz et al. 2009)の手法では,まず固有表現抽出器をテキストに対して適用し, 任意の文 $s$ に固有表現 $e_{1}, e_{2}$ が含まれ,かつ Freebase に< $e_{1}, e_{2}, r>$ というレコードが登録されている時, 文 $s$ を関係 $r$ の学習データとして利用する。 Distant supervision に基づく方法で教師データを作成する際, エンティティの誤認識が問題となる. どのような誤認識のタイプがあるのか, という点で 4.1 .4 節で述べた以下のエラーカテゴリは Distant supervision に基づく一般の情報抽出においても有用な知見になると考えられる. - 他のエンティティの部分文字列からの抽出 - 形態素解析器の過分割による誤抽出 - 属性値の多義性に起因する誤抽出 ・メトニミーに起因する誤抽出 「他のエンティティの部分文字列からの抽出」に関しては, 固有表現の認識を事前に行うことで, ある程度の誤認識は減らせるかもしれない. しかしながら, 4.1.4節で述べたように, 従来の固有表現抽出で定義されたタイプ以外の表現の認識も求められることから, 依然としてこの問題点は考慮する必要がある。「形態素解析器の過分割による誤抽出」についても, 固有表現の認識に失敗する可能性があるため, タグ付け対象となるテキストのドメインに特化した表現の自動獲得手法が求められる。 関係抽出では「文に 2 つのエンティティが含まれている」という条件が各エンティティの多義性解消の手がかりになると考えられるが,この条件だけで全ての多義性を解消できるとは考えにくい.また, 固有表現抽出のような 1 つエンティティを対象としたタスクの場合は上述の条件が適用できない。そのため,「エンティティがどの意味で用いられているのか」を認識することが一般の情報抽出においても重要である。このことから,「属性値の多義性に起因する誤抽出」および「メトニミーに起因する誤抽出」で列挙した事例については, 商品属性值抽出タスクに限らず,一般の情報抽出においても考慮する必要があるだろう。 エンティティの誤認識以外には,エンティティが出現しているにも関わらず認識されない False-negative の問題がある。この問題のうち, 異表記が辞書に含まれているエンティティについては 4.2.2 節で得られた結果が役立つと考えられる。この結果は, 辞書中とテキスト中の表現のマッチングを行う際,どのような「ずれ」について考慮しなければならないか,を検討する 1 つの知見になりえる. ## 5 おわりに 本稿では商品の属性値抽出タスクにおけるエラー分析のひとつの事例研究について述べた. まず,楽天市場のワイン,シャンプー,プリンターインク, Tシャツ,キャットフードカテゴリに登録された商品データ 100 件に対して, 人手で属性值のアノテーションを行った。次に属性-属性值辞書に基づく情報抽出システムを実装し,このシステムを属性値がアノテーションされた商品データに対して適用した。その結果明らかとなる False-positive, False-negtive 事例を調査し, 各事例をそのエラーのタイプに応じて分類した. こjすることで, 商品属性值抽出夕スクに内在する研究課題を洗い出し, 抽出システムを構築する上でどのような点を考慮するべきか,またどのような点に注力するべきかという部分を明らかにした。 本研究で行ったエラー分析の結果, より高い精度で属性値を抽出するためには, 以下の処理・ データが必要になることがわかった. - 質とカバレージの高い属性-属性値辞書 ・適切でない商品カテゴリに登録されている商品ページの検出 - 商品ページで販売されている商品と関係のあるパッセージの同定 ・ブランド名や商品名といったオンラインショッピングに特化した固有表現の認識 - 商品説明文中の主題の認識 - 属性値を抽出する際の多義性解消技術 - メトニミーの認識 - 商品説明文中に含まれる表形式データの解釈 - 知識獲得 (新規辞書エントリの獲得, 辞書エントリの同義語獲得, 形態素解析辞書の動的な拡張) ・ 辞書エントリとテキスト中の表現の柔軟なマッチング エラー分析に用いた属性值抽出システムは, Distant supervision における夕グ付きデータ作成方法と見なせる。そのため, 今後は本稿で挙げた問題点を考慮した高品質な夕グ付きコーパス作成方法を実装し, それを基にした機械学習べースの属性値抽出システムの開発を考えている. ## 参考文献 Bing, L., Wong, T.-L., and Lam, W. (2012). "Unsupervised Extraction of Popular Product Attributes from Web Sites." In Proceedings of the 8th Asia Information Retrieval Societies Conference, pp. 437-446. Ghani, R., Probst, K., Liu, Y., Krema, M., and Fano, A. (2006). "Text Mining for Product Attribute Extraction." ACM SIGKDD Explorations Newsletter, 8 (1), pp. 41-48. Mauge, K., Rohanimanesh, K., and Ruvini, J.-D. (2012). "Structuring E-Commerce Inventory." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 805-814. Mintz, M., Bills, S., Snow, R., and Jurafsky, D. (2009). "Distant Supervision for Relation Extraction without Labeled Data." In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP, pp. 1003-1011. 村上浩司, 関根聡 (2012). カテゴリに強く関連する語の発見と商品データクリーニングへの適用. 言語処理学会第 18 回年次大会発表論文集, pp. 195-198. 村脇有吾, 黒橋禎夫 (2010). 形態論的制約を用いたオンライン未知語獲得. 自然言語処理, 17 (1), pp. 55-75. Probst, K., Ghani, R., Krema, M., Fano, A., and Liu, Y. (2007). "Semi-supervised Learning of Attribute-value Pairs from Product Descriptions." In Proceedings of the 20th International Joint Conference in Artificial Intelligence, pp. 2838-2843. Putthividhya, D. and Hu, J. (2011). "Bootstrapped Named Entity Recognition for Product Attribute Extraction." In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 1557-1567. Ritter, A., Zettlemoyer, L., Mausam, and Etzioni, O. (2013). "Modeling Missing Data in Distant Supervision for Information Extraction." In Transactions of the Association of Computational Linguistics - Volume 1, pp. 367-378. Roth, B., Barth, T., Wiegand, M., and Klakow, D. (2013). "A Survey of Noise Reduction Methods for Distant Supervision." In Proceedings of the 2013 Workshop on Automated Knowledge Base Construction, pp. 73-78. Shinzato, K. and Sekine, S. (2013). "Unsupervised Extraction of Attributes and Their Values from Product Description." In Proceedings of the 6th International Joint Conference on Natural Language Processing, pp. 1339-1347. Takamatsu, S., Sato, I., and Nakagawa, H. (2012). "Reducing Wrong Labels in Distant Supervi- sion for Relation Extraction." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 721-729. Wong, T.-L., Wong, T.-S., and Lam, W. (2008). "An Unsupervised Approach for Product Record Normalization across Different Web Sites." In Proceedings of the 23rd AAAI Conference on Artificial Intelligence, pp. 1249-1254. Wu, F. and Weld, D. S. (2010). "Open Information Extraction Using Wikipedia." In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, pp. 118-127. Xu, W., Hoffmann, R., Zhao, L., and Grishman, R. (2013). "Filling Knowledge Base Gaps for Distant Supervision of Relation Extraction." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 665-670. ## 略厤 新里圭司:2006 年北陸先端科学技術大学院大学情報科学研究科博士後期課程 修了. 博士 (情報科学). 京都大学大学院情報学研究科特任助教, 特定研究員を経て,2011 年から楽天技術研究所.自然言語処理,特に,知識獲得,情報抽出, 評判分析の研究に従事. 関根聡:New York University, Associate Research Professor. 1998 年 NYU Ph.D.. 松下電器産業, University of Manchester, ソニー CSL, MSR, 楽天技術研究所ニューヨークなどでの研究職を歴任. ランゲージ・クラフト代表.専門は自然言語処理, 特に情報抽出, 固有表現抽出, 質問応答の研究に従事.村上浩司: 2004 年北海道大学大学院工学研究科博士課程単位取得退学. ニュー ヨーク大学コンピュータサイエンス学科, 東京工業大学統合研究院, 奈良先端科学技術大学院大学情報科学研究科を経て 2010 年より楽天技術研究所ニュー ヨークに所属. 博士 (工学). 自然言語処理の研究に従事. $(2015$ 年 5 月 21 日受付 $)$ $(2015$ 年 8 月 6 日再受付) $(2015$ 年 11 月 3 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 自動要約における誤り分析の枠組み 西川 仁 ${ }^{\dagger}$ } 本稿では自動要約システムの誤り分析の枠組みを提案する。この誤り分析の枠組み は, 要約が満たすべき 3 つの要件と誤った要約が生じる 5 つの原因からなり, 要約 の誤りをこれらからなる 15 種類の組み合わせに分類する。また, システム要約にお いて 15 種類の誤りのうちどの誤りが生じているかを調査する方法もあわせて提案す る。提案する誤り分析の枠組みに基づき,本稿ではまず,システム要約を分析した 結果を報告する。さらに,分析の結果に基づいて要約システムを改良し,誤り分析 の結果として得られる知見を用いてシステムを改良することでシステム要約の品質 が改善されることを示す。 キーワード:自動要約,誤り分析 ## Error Analysis Framework for Automatic Summarization \author{ Hitoshi NishikaWa ${ }^{\dagger}$ } \begin{abstract} We propose an error analysis framework for automatic summarization. The framework presented herein incorporates five problems that cause automatic summarization systems to produce errors and three metrics for quality. We classify errors in automatic summaries into 15 categories comprising a combination of the three quality metrics and five problems. We also present a method to classify automatic-summary errors into these categories. Using our error analysis framework, we analyze the errors in an automatic summary produced by our system and present the results. We use these results to refine our system and then show that the quality of the automatic summary is improved. The error analysis framework that we propose is demonstrably useful for improving the quality of an automatic summarization system. \end{abstract} Key Words: Automatic Summarization, Error Analysis ## 1 はじめに 自動要約の入出力は特徴的である。多くの場合, 自動要約の入出力はいずれも, 自然言語で書かれた, 複数の文からなる文章である。自動要約と同様に入出力がともに自然言語である自然言語処理課題として機械翻訳や対話,質問応答が挙げられる。機械翻訳や対話の入出力が基本的にはいずれも文であるのに対して, 自動要約や一部の質問応答は基本的には入出力がいず  れも文章である点が特徴的である。また形態素解析や係り受け解析などの自然言語解析課題においては, 入力は文であるが, これらの出力は品詞列や係り受け構造などの中間表現であり, 自然言語ではない.談話構造解析は文章を入力として想定するものの,やはり出力は自然言語ではない. この特徴的な入出力が原因となり, 自動要約の誤り分析は容易ではない. 自動要約研究の題材として広く用いられるコーパスの多くは数十から数百の入力文書と参照要約 ${ }^{1}$ の組からなるが,入出力が文章であるがために,詳しくは 3 節で述べるが,自動要約の誤りの分析においては考慮しなければならない要素が多い,そのため,数十の入力文書と参照要約の組といった入出力の規模でも,分析には多大な時間を要することになる。人手による詳細な分析を必要としない簡便な自動要約の評価方法として ROUGE (Lin 2004) があるが, ROUGE による評価では取りこぼされる現象が自動要約課題に存在することも事実であり,詳細な分析が十分になされているとはいいがたい。そのため, 何らかの誤りを含むと思われる要約をどのように分析すればよいのかという体系的な方法論は存在せず,したがって自動要約分野の研究者が各々の方法論をもって分析を行っているのが現状と思われる. この状況を鑑み,本稿では,自動要約における誤り分析の枠組みを提案する.まず,要約システムが作成する要約が満たすべき 3 つの要件を提案する。また, 要約システムがこれらの要件を満たせない原因を 5 つ提案する.3つの要件と 5 つの原因から, 15 種類の具体的な誤りが定義され,本稿では,自動要約における誤りはこれらのいずれかに分類される。 本稿の構成は以下の通りである。 2 節では本稿が置く基本的な前提について説明し, 本稿での議論の範囲を明らかにする.3節では誤り分析の枠組みを提案し,自動要約の誤りが提案する 15 種類の誤りのいずれかに分類できることを示す. 4 節では実際の要約例に含まれる誤りを提案した朹組みに基づいて分析した結果を示す. 5 節では 4 節で得られた分析の結果に基づいて要約システムを改良し,要約の品質が改善することを示す。 6 節では関連研究について述べる。 7 節では本稿をまとめ, 今後の展望について述べる. ## 2 基本的な前提 一般に,誤りといえば,本来得られるべき何らかの正しい結果があるものの,それとは異なる,すなわち正しくない別の結果が得られた際にそれを指していうものである。文書分類であれば与えられた文書を正しい分類先に分類できなかった際にそれを誤りということができる。 そのため,何らかの正しい結果,すなわち正解が定まらなけれげ誤りも定めることができない.  自動要約においては,この正解,すなわち参照要約 2 すささか一意に定めづらい 3 。自動要約課題において, 複数の作業者に参照要約の作成を依頼したとき, 作業者に与える指示にもよるものの,まったく同一の参照要約が作成されるということはまずない。そのため,ある参照要約を基準とした際には誤りとなる要約が, 別の要約を基準とした際には誤りとならないことがある。 本稿では, この問題は脇に置く。すなわち, ある 1 つの参照要約が存在するとき,それと要約システムが作成した要約(以下,便宜的にこれをシステム要約と呼ぶ)とを比較し,その差分を誤りとする。すなわち,何か差分があれば誤りを含むし,そうでなければ誤りを含まない.誤りについては次節にて述べる。この単純化は以下の理由に基づく: - 単一の参照要約の誤り分析の枠組みが存在しない状況において, 複数の参照要約の誤り分析の枠組みを設定するのは困難であること。 - 単一の参照要約の誤り分析の枠組みを設定できれば, それに基づいて複数の参照要約が存在する場合を検討することができること。 これらの点から, 本稿でのこの単純化は, 問題の過度な単純化ではなく, 合理的な問題の分割であると考える。 また, 自動要約課題には, 入力文書が単一である場合と複数である場合, 要約システムが特に焦点を当てて出力するべき情報がクエリなどを通じて与えられる場合と与えられない場合などの下位分類が存在する。また,テキスト以外にも映像などの自動要約を考えることもできる.本稿では, 対象はテキストに限定することとし, また自動要約課題の最も単純な形態である, 単一文書が入力として与えられ,特にクエリなどは別途与えられない状況を仮定することとする。 さらに,要約の対象となるテキストの種類についても新聞記事 (Luhn 1958; Aone, Okurowski, Gorlinsky, and Larsen 1999), 技術文献 (Luhn 1958; Edmundson 1969; Pollock and Zamora 1975), メール (Muresan, Tzoukermann, and Klavans 2001; Sandu, Carenini, Murray, and Ng 2010), マイクロブログ (Sharifi, Hutton, and Kalita 2010; Takamura, Yokono, and Okumura 2011)など様々なテキストを考えることができるが,本稿ではこれまで単一文書要約課題において広く研究されてきた新聞記事を特に分析の対象として扱う。参照要約に関する仮定とそれに伴う単純化と同様に, 本稿では, まず自動要約課題の最も単純な形態の誤り分析を扱うことによって, 自動要約の基本的な誤り分析の枠組みを検討する。より複雑な自動要約課題の誤り分析については将来の課題とする。 これらの点を踏まえて,本稿が示す自動要約の誤り分析の枠組みの限界を述べておく. - 上で述べたように, 本稿が提案する自動要約の誤り分析の枠組みは多くの仮定に基づい  ており,それらの仮定が成り立たない状況においては必ずしも有効に働くものではない. - また,提案する誤り分析の枠組みに基づいて,本稿において行われる分析は,ある単一の要約システムを利用し,またある単一の入力文書を用いて行われるため,その結果が一般的なものであるとは必ずしもいうことはできない. - 本稿で示す分析の枠組みに基づいて行われた分析は, 枠組みを提案した著者による分析であり,そのため複数の異なる分析者間での結果の一致については議論されていない. 上に示すように, 本稿で示す自動要約の誤り分析の朹組みは完全なものでは決してない. 本稿の目的は,あくまで,自動要約の基本的な誤り分析の枠組みを提案することにあり,より広範な自動要約課題への適用や,異なる複数の分析者による分析結果の一致に関する議論などは将来の課題である. ## 3 誤り分析の枠組み ここではまず,自動要約が最低限満たすべき原則を 3 つ述べ,それが満たされないときに誤りが生じることを説明する。次に,誤りの原因を 5 つ取り上げる。最後に,これらの組み合わせから要約の誤りが 15 種類に分類されることをみる. ## 3.1 自動要約の誤りの種類 本稿で扱う自動要約課題は入力および出力がいずれもテキストである。また,少なくとも人間がそのテキストを読解することを想定している 4 . そのため, 要約システムが出力するテキス卜,すなわち要約は,まず何よりも人間が読解可能である必要があろう。すなわち,想定される読者が読み取れるような言語で記述されていることや,非文法的な文などが含まれていないことが必要であろう. 次に, 要約は, 入力されたテキストから読み取れる情報のうちのいずれかのみを選択して出力するものである。そのため, 当然のこととして, 要約システムは入力されたテキストから読み取れることのみが含まれる要約を出力する必要がある。 すなわち, 入力されたテキストと矛盾する内容や, 入力されたテキストが含意しない内容を含む要約を出力することは許されないであろう。 最後に, 要約は, 字義通り, 入力されたテキストから読み取れる情報のうち, 重要だと思われる情報のみを含んでいる必要がある. これらの点をまとめると, 要約システムによって生成される要約は, 以下の 3 つ原則を満たすべきと考えられる:  (1)出力から情報を読み取れること。情報を読み取れないような文章が出力されていないこと。情報を読み取れないような文が出力された場合には,以下の 3 つのケースが考えられる. (a)要約がユーザの要求とは異なる言語で出力されている場合や,要約システムがその内部処理において利用している制御記号などが出力されており, 要約から文意を読み取れない場合. 何らかの理由により要約が出力されない場合も含む. (b) 文法的でない文(非文)が要約を構成しており,要約の文意が取れない場合. (c) 個別の文は文法的であるが, 要約を構成する文同士の論理関係などが明らかでなく, 全体として文意が取れない文章が要約となっている場合. 本稿ではこれら 3 点をまとめて, 内容を適切に読み取ることのできない要約を便宜的に 「非文章」と呼ぶ. (2)読み取れる情報が,入力と矛盾せず,入力が出力を含意すること。読み手が入力を読んだ際と出力を読んだ際に異なる結論に至らないこと。 (3)出力から読み取れる情報が,入力および読み手の希望を鑑みて,重要であると思われること. 重要でない,枝葉末節の情報が出力に含まれないこと. これらの原則が満たされない場合を誤りとして,自動要約の誤りの分析における 3 つの観点が導出できる: (1)非文章の出力:要約システムが出力した文章から文意が読み取れない場合, それは誤りとなる.この観点は自動要約の言語的品質の評価 (National Institute of Standards and Technology 2007; Nenkova and McKeown 2011) と概ね対応する.この観点の誤りはシステム要約のみで検出することができる. (2)文意の歪曲:要約から読み取れる情報が, 入力文書に記載されている情報と矛盾する場合, それは誤りとなる。この観点を評価するためには入力文書とシステム要約が必要となる。この観点はこれまで自動要約において大きく取り上げられてこなかった。これには 2 つの理由が考えられる。第 1 に, 現時点では, この観点に関してシステム要約を評価するためには人手での丁寧な読解が不可欠であり, そのため非常に費用がかかり実施しづらいということが挙げられる。上で述べた (1)については出力されたシステム要約のみを人手で確認すればよく, また次に述べる (3)については参照要約とシステム要約の機械的な比較によって人手をかけずに一定の評価が可能である。これらに対して, (2) を評価するためには入力文書とシステム要約の両方を評価者が読解した上で, 内容の無矛盾を確認しなければならず,その費用は多大なものとなる,第 2 に,文の書き換えなどを行わずに単に重要文を選択するだけの手法などで要約を作成した場合, 文意の歪曲 はさほど頻繁には生じず5,そのため誤りとしてこれまで重要視されてこなかったということも考えられる。 文意の歪曲の例を表 1 および表 2 に示す。表 1 は TSC- 2 のデータ6に含まれる文書番号 981225042 のテキストから要約システム7によって作成されたシステム要約であり, 表 2 は元のテキストである。表 1 に示すシステム要約の 4 文めの冒頭には,「このため」とあり,「輸出に過度に依存しない国内生産体制が急務」である原因が前の文で述べられていることが示唆されている。システム要約を読むと,「トヨタ自動車が検討し始めた生産能力の削減」およびそれに伴う「雇用や地域経済への影響」がこの原因であるように読解できる。一方,表 2 に示す元の入力文書を読むと, 11 文めの「輸出に過度に依存しない国内生産体制が急務」の原因は,「国内販売は、保有期間の長期化もあり新車需要の大きな伸びは期待できない」であることがわかる。この例では, システム要約と入力文書とで,読解した際に別の読みが可能になっており,そのためシステム要約が,入力文書で述べられている本来の文意を歪曲している。 (3) 重要部同定の失敗:要約から読み取れる情報の中に入力文書および読み手の希望を鑑みて重要でないものが混ざっているとき, それは誤りとなる。同様に, 入力文書および読み手の希望を鑑みて重要であると思われる情報が要約に含まれていない場合もそれは誤りとなる。この観点は内容性の評価に概ね対応する (Nenkova and McKeown 2011) . この観点を評価するためには参照要約とシステム要約が必要となる. この 3 つの観点が,要約システムの誤りを考える際に,最初の分類としてあらわれるものと思われる。 表 1 文書番号 981225042 のシステム要約 (1) トヨタ自動車が、生産能力の削減を検討し始めた。 (2) 約 380 万台といわれる国内の能力を今後 3 年間で 30 万台削減する方向で、系列車体メー カーである関東自動車工業(神奈川県横須賀市)の一部工場などが閉鎖対象に挙がっている。 (3) 現在、自動車業界の国内過剩生産力は約300万台といわれているが、今後、部品メーカーなどを巻き込んだ雇用や、地域経済への影響も広がりそうだ。 (4)このため、輸出に過度に依存しない国内生産体制が急務になっている。 (5)また、工場を閉鎖すれば、需要が上向いた時、即座に増産ができず、国内販売シェアを落とす恐れもあるため、「稼働率は 8 割程度がちょうどいい」(同社幹部) とも語っていた。 (6) 今後の競争力を左右する環境対応技術や、高度道路交通システム(ITS)などの開発投資には巨額の資金が必要になる。  表 2 文書番号 981225042 のテキスト (1) トヨタ自動車が、生産能力の削減を検討し始めた。 (2) 約 380 万台といわれる国内の能力を今後 3 年間で 30 万台削減する方向で、系列車体メー カーである関東自動車工業(神奈川県横須賀市)の一部工場などが閉鎖対象に挙がっている。 (3)業績が悪化している日産自動車や三菱自動車工業に続き、業界最大手のトヨタが大掛かりなリストラに乗り出したことで、激化する国際競争の中、「雇用維持」を前提にした生産体制の継続が困難な状況にあることが鮮明になった。 (4)現在、自動車業界の国内過剩生産力は約300万台といわれているが、今後、部品メーカーなどを巻き迄んだ雇用や、地域経済への影響も広がりそうだ。 (5)トヨ夕の国内生産拠点は6カ所の組み立て工場のほか、トヨタ車体、ダイハツ工業、日野自動車工業など委託工場を合わせると約 20 カ所。 (6) ピークの1990年には約420万台を生産した。 (7)しかし、バブル崩壊以降の自動車需要の長期低迷と海外生産の拡大で、98 年の国内生産台数は317万台(前年比 $9 \%$ 減)と、90年と比べて100万台余り減少した。 (8) うち、4 割強の 147 万台は欧米中心の輸出向け。 (9) しかし、2001年にはフランスに建設中の欧州第2工場が生産を始める。 (10) 国内販売は、保有期間の長期化もあり新車需要の大きな伸びは期待できない。 (11)このため、輸出に過度に依存しない国内生産体制が急務になっている。 (12)奥田碩社長はこれまで、雇用最優先の経営姿勢を強調し、「国内で300万~350万台の生産があれば雇用は維持できる」と述べていた。 (13)また、工場を閉鎖すれば、需要が上向いた時、即座に増産ができず、国内販売シェアを落とす恐れもあるため、「稼働率は 8 割程度がちょうどいい」(同社幹部) とも語っていた。 (14)しかし、独ダイムラー・ベンツと米クライスラーが国境を越えて合併するなど、国際競争は一段と激化している。 (15) 今後の競争力を左右する環境対応技術や、高度道路交通システム(ITS)などの開発投資には巨額の資金が必要になる。 (16)「99年は優勝劣敗が決する重要な時期。従来以上にコスト競争力を高める必要がある」(奥田社長)との判断から、国内生産能力の削減に踏み切った。 (17) 売上高に対する利益率で、日本メーカーは欧米勢に大きく立ち遅れている。 (18)「高コストを温存していては国際競争に生き残れない」(南光成・日産自動車副社長)との認識は業界共通のものになりつつある。 毎日新聞'98 データ集より引用した。 ## 3.2 要約システムの誤りの原因 近年の要約システムの多くは Multi-Candidate Reduction Framework (Zajic, Dorr, Lin, and Richard 2007; Jurafsky and Martin 2008) に従っているとみなせる.これは, 入力された文書を,文分割などによって文 8 に分割する機構 (Gillick 2009), 得られた文を文短縮 (Jing 2000;  Knight and Marcu 2002) などによって別の表現に書き換え元の入力のある種の亜種を生成する機構,そののちにそれらの中から要約長などの要件を満たすものを選択し要約を生成する機構からなる (Filatova and Hatzivassiloglou 2004; McDonald 2007)。最後の要約を生成する機構はさらに, 文の組み合わせの中から要約として適切なものに高いスコアを与える機構と高いスコアを持つものを探索する機構に分割できる。 さらに,文の組み合わせの中から要約として適切なものに高いスコアを与える際には,典型的には機械学習が用いられるため,学習が正しくなされているか否かと, 適切な特徴量が設定されているかの 2 点を考慮する必要がある. これらのことから,文分割に関する問題は要約以前の前処理の問題として脇に置くと,近年の要約システムは以下の構成要素からなる。 (1) 入力された文などの言語単位を別の表現に書き換える機構. (2) 要約としてふさわしい文などの単位に高いスコアを与えるための機械学習に関する機構. (3) 文などの単位に特徴量を与える機構. (4) 要約としてふさわしい文などを探索する機構. 典型的な要約システムを構成する上述の要素を踏まえると, 要約システムが前節の原則を満たせず,誤りを生じさせる原因には以下の観点が考えられる: (1) 操作の不足: 要約システムが, 人間の作業者がテキストに対して施す操作と同等の機構を保持してないことに伴って生じる誤り。言い換えなどの操作ができないために入力された文を短縮することができず,人間と同等の情報量を要約に含めることができない場合や,要約システムが入力された文において省略されているゼロ代名詞を復元できず,要約の文意を損なう場合が含まれる。 (2)特徵量の不足:特徴量が不足している場合.この場合は 2 つにわけることができる. (a) 特徴量の設定不足:要約システムにおいて設定されていない特徴量が要約の作成において重要な役割を果たすと思われる場合.段落に関する情報を入力文書から得ることができ,かつその情報が要約の作成において重要な役割を果たすと目されるのにもかかわらず,要約システムはそれを特徴量として認識できない場合など。 (b) 言語解析の失敗: 解析器が誤り, 特徵量として設定されている情報が正しく取得できなかった場合. 固有表現認識器が固有表現を認識し損ね, 要約システムがそれを特徴量として利用できなかった場合など。 (3) パラメタの誤り:訓練事例の不足, 不適切な学習手法の利用などによって, 推定されたパラメタが精度よく推定されていない場合. (4)探索の誤り:探索誤りのために誤った要約を生成した場合. 重要文集合の選択において,本来はより良好な文の組み合わせがあるにもかかわらず,探索誤りによって不適切な文の集合を出力として選択した場合など. (5) 情報の不足:そもそも要約システムに対して入力された情報だけでは参照要約まで到達で きない場合. 人間の要約作成者が入力以外の情報源を利用して要約を作成した場合など. 6 節で述べるが, これらの誤りの原因はより詳細化することが可能である。一方, 自動要約には単一文書要約と複数文書要約といういささか風合いの異なる 2 つの下位課題が存在し,また文短縮なども独立した課題として扱いうる。そのため,個々の要約システムの設計の詳細は様々であり, 誤りの原因の詳細は分析の対象とする要約システムの設計の詳細に依存する. このことを鑑み,本稿ではより詳細な誤りの原因には踏み込まず,多くの要約システムにおいて共通する機構に基づき,誤りの原因として上の 5 種類の原因を定義する 9. ## 3.3 自動要約の誤り分析の枠組み 3.1 節で述べた 3 種類の誤りの種類と, 3.2 節で述べた 5 種類の誤りの原因から, 自動要約における誤りは 15 種類のいずれかに分類できると期待できる。これをまとめたものを表 3 に示す. なお, これらとは別に, 参照要約作成者の読みが誤っていると思われる場合など, そもそも参照要約が信頼できないと思われる場合がありうるが,ここではそれは除外し,あくまで参照要約が正しく,機械はそれを模倣することのみを考えればよいという場合を想定した。 次に,分析の枠組みを自動要約の結果に適用する際の具体的な方法を表 4 に示す。表 4 は, ある誤りの種類がある誤りの原因によって生じる際に,どのようにそれを同定できるかをまとめたものである. ## 3.4 誤り分析の手続き 本稿で提案する枠組みに基づく誤りの分析は, 一例として, 以下の手続きで行うことができる. (1)非文章の出力:まず,要約システムが出力したシステム要約を読解し, 非文章が出力されていないか確認する。主語や述語などが存在しない非文が存在しないか, また談話構造が不明瞭で文章全体から意味が取れなくなっていないかを確認する。非文章が生じていた場合は,その原因を特定する。例えば,主語が存在しない文が存在し,文脈からもその主語を読み取ることができず,そのためその文の文意を正しくとることができない場合, そのような文が生じた原因を特定する。このとき, 入力文書とシステム要約でその文が異なる場合,すなわちその文をシステムが書き換えたか否かを確認する必要がある.仮に書き換えたのであれば,なぜその書き換えが発生したかを特定する.  表 3 自動要約の誤り分析の枠組み & & \\ 表 4 自動要約の誤り分析の枠組みの適用方法 (2)文意の歪曲:次に,入力文書の文意がシステム要約において歪曲されていないかを確認する.この作業には, 入力文書の読解と, システム要約の読解の両方が必要である. システム要約から, 入力文書に含まれていない情報や, あるいは入力文書と矛盾する情報が読み取れる場合は,要約システムによって入力文書の文意が歪曲されていることになる. 文意が歪曲されている場合は, なぜ歪曲が生じたのか確認する。抽出型の要約システムにおいてこの誤りが生じる状況の 1 つは, 主語が省略されている文がシステム要約において誤った文脈におかれることで,読者が,入力文書での本来の主語とは異なる主語を文にあてはめてしまい,その結果として誤った解釈に至る状況である。他にも,談 話標識が入力文書と異なる文脈におかれることで,前後の文から異なる解釈を得ることできる場合もある。 3.1 節で示した例はこの場合である。書き換えまで行う要約システムであれば,入力文書と異なる表現が用いられることで文意が変化していないか確認する。 このような文意の歪曲が生じている場合は, どのような修正をシステム要約に加えることで,正しい文意を得ることができるか確認する,上の例では,省略された主語を復元する機構の追加,談話標識を除去,あるいは修正する機構の追加などが考えられ,これらを要約システムが備えていないために誤りが生じたと考えられる場合は「操作の不足」 が原因となろう。一方, これらの機構が存在しているにもかかわらず文意の歪曲が生じた場合は,パラメタの誤りや特徴量の不足を調査する必要がある. (3)重要部同定の失敗: 最後に, 参照要約とシステム要約を比較し, 参照要約に含まれているがシステム要約には含まれていない情報がないか確認する。この確認には ROUGE (Lin 2004), Basic Element (Hovy, Lin, Zhou, and Fukumoto 2006)などを援用することが可能であろう。参照要約に含まれている重要な情報がシステム要約に含まれていない場合には,その情報がシステム要約に含まれなかった理由を調査する。特に,パラメタが正しく学習されているか,またそのような情報を重要な情報であると特定するための特徴量が設定されているかを確認する必要があろう. ## 4 分析の実践 本節では前節で提示した分析の枠組みを,本稿で分析の対象とした文書に対して適用する。 まず,分析の枠組みを適用するシステム要約を作成する。次に,それらに対して人手による分析を行い,その後分析の結果を提案した分析の枠組みに基づいて整理する。 ## 4.1 実験設定 ## 4.1.1 データ 実験には,自動要約の評価型プロジェクトである TSC-210のデータを用いた.TSC-2 のデー 夕は 60 記事からなり, 各文書に対して 3 人の作業者が参照要約を付与している。また, 各文書に対して長い参照要約と短い参照要約の 2 種類が付与されている。今回は特に分析の対象として文書番号 990305053 のテキストを用いた。参照要約には, 作成者 1 による長い参照要約を用いた. 文書番号 990305053 のテキストの長い参照要約の長さは 495 文字であり,要約システムを動作させる際には 495 文字以内の要約を作成するようにした.  ## 4.1.2 要約システム 要約システムについては, 西川らによる単一文書要約システム (Nishikawa, Arita, Tanaka, Hirao, Makino, and Matsuo 2014) を利用した. 西川らの要約システムは, 入力として単一文書を想定しており,特に単一の新聞記事を入力として想定している。また, クエリの入力は想定していない。要約の手法は Multi-Candidate Reduction Framework (Zajic et al. 2007; Jurafsky and Martin 2008) に基づいており,まず入力された各文の亜種を文短縮を利用して生成し,その後に元の文とそれらの文の亜種からなる文の集合の中で, 文の重要度と文間の結束性が最も高くなる文の系列のうち, 要約長の制限を満たすものを選び出すものである. 文短縮を利用することもできるものの, 西川らの要約システムは文短縮が行われた文が要約に選択されることがあまり多くないため, 今回は文短縮を用いずに要約を出力させた. ## 4.2 結果 表 6 に入力文書(文書番号 990305053)を示す.太字は入力文書と参照要約とで文アライメントを取り,対応づけが取れた文同士において共通の単語である。下線は要約システムによって重要文と認定された文である。表 7 に参照要約を示す。分析の対象となると思われる点については下線を加え, どのような現象が生じているか下線の後に上付き文字で示した. 表 8 にシステム要約を示す。太字は参照要約とシステム要約とで文アライメントを取り, 対応づけが取れた文同士において共通の単語である。表 7 と同様に分析の対象となると思われる点について下線を加え, どのような現象が生じているか下線で示された部分の後に加筆した. 表 5 に入力文書および参照要約,システム要約の統計量を示しておく。 ## 4.3 誤り分析 ## 4.3.1重要部の同定の失敗 まず,ROUGE-1 (Lin 2004)の值は 0.385 であった ${ }^{11}$. 文単位でみると, システム要約に含まれる文のうち, 完全に参照要約に含まれない文は 2 文めと 11 文のみであり, 11 文中 2 文に 表 5 入力文書および参照要約, システム要約の統計量. ^{11}$ ROUGE-1 は抽出的な要約手法に基づく要約システムを評価する際に広く用いられている指標であり,また新聞記事においては人手による評価と強い相関があることが知られている (Lin 2004).そのため, まずこれを用いて, 要約システムが出力した要約の品質を大まかに把握することにした. } 表 6 文書番号 990305053 のテキスト (1) 中国の国会、全国人民代表大会(全人代)が 5 日から始まる。 (2)朱鎔基首相の「政府活動報告」と予算案を審議し、私有制経済の存在を保障する憲法の一部改正などを行う予定だ。 (3)昨年の全人代で、新首相に選ばれた朱首相は、「8\%成長」と「三つの実行」(国有企業改革、金融体制改革、行政機構改革の 3 年以内解決)などを公約した。 (4) 国有企業改革、行政機構改革は計二千数百万人規模の大リストラ計画であり、「命をかけてやる」と言い切った首相の強い決意に称賛の声があがった。 (5) 本来なら改革 2 年目の今年が正念場となるはずである。 (6)ところが現実には、改革の熱気は薄い。 (7)アジア金融危機の影響が中国に及び、経済環境が急速に悪化した。 (8) 改革で生まれる失業者を他の産業に吸収できない。 (9) 改革のテンポを緩めても、社会不安を抑え込むべきだという空気が強まっている。 (10) 安定追求とのジレンマがあっても意志の強いことで知られる朱首相は改革路線を貫くと期待したい。 (11) しかし、中国の経済が悪化するとともに、中国に対する信頼を摇るがせるような問題もいくつか発生している。 (12) 例えば、朱首相が昨年公約した「8\%成長の確保」は、7・8\%に終わった。 (13) ほぼ8\%であり、公約は達成されたとされた。 (14) だが西側の経済専門家からは「本当は $7 \cdot 8 \%$ より低いのではないか」という疑問が出されている。 (15)電力消費量や国内輸送量が増えていないのに、国内総生産(GDP) が増えるのはおかしいと統計の公正さに疑問が出された。 (16) 広東省など地方の成長率が $10 \%$ を超えたのも水増しを疑われている。 (17) 金融改革については、外資の取り扱いで大きく摇れている。 (18)昨年秋、突然倒産した広東国際信託投資公司(GITIC)の負債の処理について、「正規に登録された外資は返済を保証する」という中国政府の方針が、今年になって引っくり返った。 (19) 外資は「貸手にも責任がある」と突き放された。 (20)各地方の国際信託投資公司(ITIC)にも同様の問題が飛び火している。 (21) そこでも同じ方針が貫かれると、今後中国へ向かう勇気のある外資はなくなるかもしれない。 (22) 香港に対しても、最近の中国の姿勢は、硬直した感じが否めない。 (23)香港人が中国国内でもうけた子供に香港居留権があると判断した香港の裁判所を、中国当局者が激しく批判した。 (24)「香港基本法」の解釈権は中国の全人代にある。 (25)一地方政府にすぎない香港の裁判所に解釈権はない、という趣旨たっった。 (26)香港の最終審長官が、「全人代の解釈権を侵害する意図はない」と釈明して収拾された。 (27)だが「1 国 2 制度」に対する香港市民の自信はこの一件で急落した。 (28) 中国の国有企業は、香港の株式市場で資金を調達する予定たった。 (29)ところが香港の不況で、上場延期に追い达まれている。 (30)香港の繁栄回復が、中国の改革と切り離せないことを肝に銘じているのは中国のはずだ。 (31) にもかかわらず、中国の対応はあまりにも官僚主義的だった。 (32)改革の直面する困難が大きければ大きいほど、柔軟な対応が必要になるだろう。 毎日新聞'99デー夕集より引用した。太字は入力文書と参照要約とで対応づけが取れた文における共通の単語である。下線は要約システムによる重要文である. 表 7 文書番号 990305053 の参照要約 (1) 中国の国会、全国人民代表大会が始まる。 (2) 昨年、朱首相は「8\%成長」と「三つの実行」などを公約した。 (3) 国有企業改革や行政機構改革など省略を「命をかけてやる」と言い切った首相の決意に称賛の声があがった。 (4)本来なら改革 2 年目の今年が正念場となるはずだが、現実には改革の熱意は薄い。文融合 も強まっている。文融合 (6)この省略ジレンマがあっても、朱首相は改革路線を貫くと期待したい。 (7) しかし、経済悪化とともに、問題もいくつか発生している。 (8)公約の $8 \%$ 成長は $7 \cdot 8 \%$ ・たったが、本当はこの数字より低いのではないかという疑問が専門家からも出されている。 (9)また参照要約の信頼性、電力消費量が増えないのに、国内総生産が増えるのはおかしいと統計の公正さにも疑問が出された。 (10)地方の成長率が10%を超えたことも水増しを疑われている。 (11) 金融改革も、外貨の扱いで大きく摇れており、香港に対する姿勢も、硬直した感じが否めない。 (12)香港の繁栄が中国改革と切り離せないことが、分かっているはずなのに、中国の対応は官僚主義的である。文融合 (13) 改革の困難が大きければ大きいほど、柔軟な対応が必要だろう。 下線とその後の上付き文字はその部分においてどのような現象が生じているかを示したものである. 表 8 文書番号 990305053 のシステム要約 (1) 中国の国会、全国人民代表大会(全人代)括弧の除去が5 日から始まる。 (2)朱鎔基首相の「政府活動報告」と予算案を審議し、私有制経済の存在を保障する憲法の一部改正などを行う予定だ。重要部同定の失敗 (3)昨年の全人代で、新首相に選ばれた朱首相は 、「8\%成長」と「三つの実行」(国有企業改革、金融体制改革、行政機構改革の 3 年以内解決) 括弧の除去などを公約した。文短編 (4)国有企業改革、行政機構改革は計二千数百万人規模の大リストラ計画であり、「命をかけてやる」と言い切った首相の強い決意に称賛の声があがった。 (5) 本来なら改革 2 年目の今年が正念場となるはずである。 (6)アジア金融危機の影響が中国に及び、経済環境が急速に悪化した。 (7)改革のテンポを緩めても、社会不安を抑え込むべきだという空気が強まっている。文矮縮 (8)安定追求とのジレンマがあっても意志の強いことで知られる朱首相は改革路線を貫くと期待したい。文短縮 (9)しかし、中国の経済が悪化するとともに、中国に対する信頼を摇るがせるような問題もいくつか発生している。文短縮 (10) 例えば、朱首相が昨年公約した「 $8 \%$ 成長の確保」は、 7 ・8\% に終わった。 太字は入力文書と参照要約とで対応づけが取れた文における共通の単語である。下線とその後の上付き文字は表 7 と同様である. とどまっている。このことから,要約システムの精度(適合率)は $\frac{9}{11}$ に達しており,要約システムは高精度に重要文を同定していることがわかる。一方,再現率の観点から見ると,参照要約は入力文書 33 文のうち 15 文を要約として採用しており12, 再現率は $\frac{9}{15}$ に留まっている.再現率はまだ大きく改善の余地が残されているため,文と単語という差異はあるが,同様に再現率を評価する ROUGE-1の値についても改善の余地があると思われる. 次に,重要部同定の失敗の原因を探る。表 6 を見ると,要約システムは特に後半の文を選択できていない,これは,要約システムが入力文書における話題の遷移を捕捉できていないためであると思われる。入力文書において,どのように話題が遷移しているかを表 9 に示す。全人代が開催されるということ(話題 1)と中国の改革とその行く末が危ぶまれるということ(話題 2-4)と,その具体的な例(話題 5-6)が並び,最後の文は入力文書のまとめとなっている.参照要約を見ると,参照要約の作成者はできる限りこれらの情報を網羅的に要約に含めることを狙っていることが読み取れる。要約システムが後半の文を選択できなかったのはこのような話題の構造を理解することができなかったためで,この構造を要約システムに理解させることは重要部の同定に決定的に重要である ${ }^{13}$. ## 4.3.2 括弧の除去 表 6 の例において頻繁に行われている操作の 1 つは括弧の除去である。括弧を通じて提供されている補足的な情報は全て要約から除去されていることがわかる。これによって文を短くし文字数を減らすことができるため, 要約システムもこの操作を実行できるようにする必要がある。 表 9 入力文書に含まれる話題の遷移  ## 4.3.3 文短縮・言い換え 表 6 を見ると,文書全体にわたって文の書き換えが行われていることがわかる.不要な修飾節などを除去し文を短く書き換える操作は文短縮あるいは文圧縮と呼ばれており (Nenkova and McKeown 2011), この表 6 の例でも文 1 , 文 10 などで典型的に行われている. 文短縮は, 典型的には係り受け木の枝刈りを通じて行われるが, 参照要約に含まれる文のうち係り受け木の枝刈りによって実現できるものは少数であり,参照要約作成者はより洗練された,言い換えなどの操作を通じて参照要約を作成していることがわかる. ## 4.3.4 文融合 異なる複数の文から 1 つの文を作成することは文融合と呼ばれている (Barzilay and McKeown 2005). 参照要約を見ると, この文融合が行われていることがわかる. 表 10 から 13 にその例を示す. 参照要約の中では 4 回この操作が行われており, 入力文書における表現と比べ情報量を維持したまま文字数の削減が行われている。これらの操作によって削減された文字数を利用して参照要約作成者はさらに情報を要約に詰め达んでおり,この操作を行う機構を持たない要約システムは再現率において劣後せざるを得ない. 表 10 文融合の例 1 \\ 文頭の数字はそれぞれ入力文書および参照要約中での文番号である. 表 11 文融合の例 2 \\ 文頭の数字はそれぞれ入力文書打よび参照要約中での文番号である. 表 12 文融合の例 3 \\ 文頭の数字はそれぞれ入力文書および参照要約中での文番号である. ## 4.3.5 省略 便宜的に「省略」としたが,「この」や「など」の表現を用いて,入力文書における情報を除去している箇所がある,表 14 に示す参照要約の文 3 では,朱首相の「三つの実行」のうち金融機構改革が失われており,これが「など」として表現されている。また表 15 に示す参照要約の文 6 では, 「改革と安定追求のジレンマ」を「この」で表現しており,同様に文字数を節約している. ## 4.3.6 参照要約の信頼性 一方,参照要約の品質が疑われる部分もある。 入力文書の文 14 と文 15 とは並列の関係にはないと思われるため, 参照要約の文 9 先頭の接続詞「また」は要約作成者の読みの誤りを示唆している. ## 4.4 誤り分析の枠組みの適用 ここまでの分析を,本稿で提案した誤り分析の枠組みに適用した結果を表 16 に示す. 表 16 に示されているように,今回は文短縮などの書き換え機構を利用していないため, 非文が出力されることはなかった。一方で,文を短く書き換える操作を行えないため,情報の被覆において参照要約に大きく劣後しており,これが低い再現率の直接の原因となっている。 表 13 文融合の例 4 \\ 文頭の数字はそれぞれ入力文書および参照要約中での文番号である. 表 14 省略の例 1 \\ 文頭の数字はそれぞれ入力文書および参照要約中での文番号である. 表 15 省略の例 2 \\ 文頭の数字はそれぞれ入力文書および参照要約中での文番号である. 表 16 自動要約の誤り分析の一例. ## 5 分析に基づく要約システムの改良 本節では,4節で述べた分析に基づいて実際に要約システムを改良した結果について述べる. 5.1 節では要約システムに文の書き換え操作を追加する. 5.2 節では要約システムに特徴量を追加する.5.3 節ではパラメ夕の調整を行う.5.4 節ではこれらの改良によってなされた要約の改善について議論する。 5.5 節では, 改良したシステムを文書番号 990305053 以外のテキストに 適用し,本節で行った改良の効果をみる. なお,本節での改良が要約システムを真に改良としたと言うことは難しい。要約システムが真に改良されたと言うためには,少なくとも,ある特定の分野における複数の異なる入力文書を用意し, これらから生成される要約の品質が, 改良前の要約システムのそれと比べて改善されていることを検証する必要がある。この点を踏まえ,本稿における本節の意義は以下の 2 点にある: - 4 節で述べた分析に基づいて行うことができる要約システムの改良方法について具体的に述べること。 - 本稿で提案している分析が, 少なくとも, ある入力文書の要約システムによる要約結果を人手で分析し, それに基づいて要約システムの改良を行うことによって,その入力文書を要約する限りにおいては,よりよい要約を出力するために役立つということを示すこと. ## 5.1 文の書き換え操作の追加 表 16 に示したように,今回の事例において操作の不足は深刻な問題である。そのため, 参照要約において行われている書き換え操作の一部を要約システムも行えるようにした. ## 5.1.1 括弧の除去 西川らの要約システムは括弧を除去する機能を持つ14ため, この機能を動作させるようにした. ## 5.1.2 文短縮 同様に,文短縮機能も動作させるようにした。 ## 5.1.3 文融合 西川らの要約システムは文融合の機能を持たないため,表 10 から 13 に示した文融合が行われた文を人手で作成し,要約システムが選択可能な文集合に加えた。 ## 5.1.4 省略 文融合と同様に, 省略が行われている文についても人手で参照要約と同様の文を作成し, それを要約システムが選択可能な文集合に加えた。具体的には,表 14 および 15 の参照要約の文を入力文書の文の書き換え後の文として要約システムに追加した.  ## 5.2 特徵量の追加 表 16 に示したように,一部の特徴量を要約システムが認識できないことは要約の作成に悪影響を与えている。そのため, 分析の結果として重要と思われた特徵量を追加した. ## 5.2.1段落情報に関する特徵量 4.3.1 節で述べたように, 重要文の同定に失敗した主因の 1 つは入力文書の話題の遷移を捉えることができないためであった。西川らの要約システムは段落に関する情報を特徴量として利用することができるため,入力文書に表 9 に基づいて段落情報を付与した,具体的には,同一の話題番号に属する文は同一の段落に属するものとした. 西川らの要約システムは段落の先頭の文を重要文として選択する傾向があるため, これによって各話題の先頭の文を重要文として選択できると期待できる。 ## 5.2.2 最後の文に関する特徴量 表 7 の参照要約を見ると, 入力文書の最後の文を入力文書におけるある種のまとめとして重要文とみなしていることがわかる。この点を鑑み,最後の文にはその文が最後の文であるとわかる特徴量を追加した。 ## 5.3 パラメタの調整 最後に,パラメタの調整を人手で行った。 パラメタの調整は, 調整後に要約システムが生成する要約が参照要約に近づくように人手で各特徴量の重みを調整することで行った. 具体的に行ったのは以下の調整である: - 括弧が含まれる文の重要度を下げるようにした.参照要約においては入力文書に含まれる括弧は全て除去されているため, これが除去されるようにした. - 冒頭の段落に含まれる文の重要度を下げるようにした。通常, 新聞記事は逆三角形と呼ばれる構造をなしており (一般社団法人共同通信社 2010), 冒頭の段落がほぼ当該記事の要約をなしている。そのため,西川らの要約システムは冒頭の段落に含まれる文に大きな重みを与えている。しかし, 今回分析の対象とした入力文書はいささか散文的であり, その点を鑑みてか参照要約の作成者は記事の冒頭以外からも多く文を選択している。このことから,冒頭の段落に含まれる文の重みを小さくし,文書全体から文が選ばれるようにした。 - 長い文が選ばれづらくなるようにした,参照要約は長い文をあまり含んでおらず,文短縮や文融合, 省略が施された短い文を含んでいる。 そのため, それらの文が選ばれやすくなるように文の長さに対して負の重みを与えた. - 百分率の固有表現を含む文が選ばれやすくした,参照要約には中国の経済成長に関する具体的な百分率が含まれており,これらの情報が要約に含まれるように百分率の固有表現の重みを大きくした。 - 類似する文が選ばれづらくした。西川らの要約システムは文同士の類似度を特徴量として設定しており,類似した文が要約に選択されやすくなっている。しかし,今回分析の対象とした入力文書の参照要約を見る限り,参照要約の作成者はできるだけ幅広い話題を入力文書において網羅しようとしているように観察される。そのため,むしろ類似する文は要約に含まれないようにした方がよいと思われたため,類似する文が選ばれづらくなるようにした. - 段落の先頭の文の重みを大きくした,5.2.1 節で述べたように,参照要約の作成者は入力文書に含まれる様々な話題を網羅するように要約を作成したように思われる。特に,各話題に関する段落の先頭の文を参照要約の作成者は参照要約に含ませているように観察されるため, これらが要約に含まれやすくなるようにした。 - 最後の文の重みに大きな値を与えた。5.2.2 節で述べた特徴量は新しく追加したものであるため, 当該特徵量に対する重みがパラメ夕集合内には存在しない。そのため, 最後の文が選ばれるように最後の文であることを示す特徴量に大きな重みを与えた。 ## 5.4 結果と考察 書き換え操作を追加したのちのシステム要約を表 17 に示す。書き換え操作および特徴量を追加したのちのシステム要約を表 18 に示す。書き換え操作, 特徴量およびパラメ夕調整を追加したのちのシステム要約を表 19 に示す.これらの要約システムの改良による ROUGE の変化を表 20 に示す. Rw は書き換え操作が追加された要約の評価, $\mathrm{Rw}+\mathrm{Ft}$ は書き換え操作および特徴量が追加された要約の評価, $\mathrm{Rw}+\mathrm{Ft}+\mathrm{Pm}$ は書き換え操作, 特徴量, およびパラメ夕調整が追加された要約の評価である。 $\Delta$ で示した数値はある改良によってどの程度 ROUGE-1 の値が改善したかを示す. なお,本節の目的は,書き換え操作の追加,特徴量の追加,パラメ夕調整それぞれの ROUGE への影響を見ることそのものにはなく, 各改良によってどのような変化がシステム要約に生じるかを見ることにある。また,これらの改良は,後で述べるように 3 つ全てを合わせたときにこそ大きく要約に影響を及ぼすものであるため,個別の改良の影響に必ずしも注目するものではないことに注意されたい. 書き換え操作の追加によっていくらか ROUGE が改善されたものの, 表 17 が示すように,書き換え後の文の一部は要約システムによって選択されておらず,その効果が十分に発揮されていない。そのため, ROUGEの改善も必ずしも大きなものではない.このことから,単に書き換え操作を追加するだけではなく, 書き換え後の文が重要文として選択されるように特徴量お 表 17 書き換え操作を追加したのちの文書番号 990305053 のシステム要約 (1) 中国の国会、全国人民代表大会(全人代)が5 日から始まる。 (2)昨年の全人代で、新首相に選ばれた朱首相は、「8\%成長」と「三つの実行」(国有企業改革、金融体制改革、行政機構改革の 3 年以内解決)などを公約した。 (3) 国有企業改革、行政機構改革は計二千数百万人規模の大リストラ計画であり、「命をかけてやる」と言い切った首相の強い決意に称賛の声があがった。 (4)本来なら改革 2 年目の今年が正念場となるはずだが、現実には改革の熱意は薄い。 (5)アジア金融危機の影響が中国に及び、経済環境が急速に悪化した。改革のテンポを緩めても、社会不安を抑え込むべきだという空気が強まっている。 (6)安定追求とのジレンマがあっても意志の強いことで知られる朱首相は改革路線を貫くと期待したい。 (7)しかし、中国の経済が悪化するとともに、中国に対する信頼を摇るがせるような問題もいくつか発生している。 (8)例えば、朱首相が昨年公約した「8\%成長の確保」は、7・8\%に終わった。 (9)香港人が中国国内でもうけた子供に香港居留権があると判断した香港の裁判所を、中国当局者が激しく批判した。 (10)香港の最終審長官が、「全人代の解釈権を侵害する意図はない」と釈明して収拾された。 表 18 書き換え操作および特徴量を追加したのちの文書番号 990305053 のシステム要約 (1)中国の国会、全国人民代表大会が5日から始まる。 (2)朱鎔基首相の「政府活動報告」と予算案を審議し、私有制経済の存在を保障する憲法の一部改正などを行う予定だ。 (3)昨年の全人代で、新首相に選ばれた朱首相は、「8\%成長」と「三つの実行」(国有企業改革、金融体制改革、行政機構改革の 3 年以内解決)などを公約した。 (4) 国有企業改革や行政機構改革などを「命をかけてやる」と言い切った首相の決意に称賛の声があがった。 (5)本来なら改革 2 年目の今年が正念場となるはずだが、現実には改革の熱意は薄い。 (6) アジア金融危機の影響が中国に及び、経済環境が急速に悪化した。 (7) 改革のテンポを緩めても、社会不安を抑え迄むべきだという空気が強まっている。 (8)安定追求とのジレンマがあっても意志の強いことで知られる朱首相は改革路線を貫くと期待したい。 (9)しかし、中国の経済が悪化するとともに、中国に対する信頼を摇るがせるような問題もいくつか発生している。 (10)香港人が中国国内でもうけた子供に香港居留権があると判断した香港の裁判所を、中国当局者が激しく批判した。 (11)香港の繁栄が中国改革と切り離せないことが、分かっているはずなのに、中国の対応は官僚主義的である。 表 19 書き換え操作, 特徴量およびパラメ夕調整を追加したのちの文書番号 990305053 のシステム要約 (1) 中国の国会、全国人民代表大会が5 日から始まる。 (2)昨年の全人代で、新首相に選ばれた朱首相は、「8\%成長」と「三つの実行」などを公約した。 (3) 国有企業改革や行政機構改革などを「命をかけてやる」と言い切った首相の決意に称賛の声があがった。 (4)本来なら改革 2 年目の今年が正念場となるはずだが,現実には改革の熱意は薄い。 (5) アジア金融危機の影響が中国に及び、経済環境が急速に悪化した。 (6)改革のテンポを緩めても、社会不安を抑え达むべきだという空気が強まっている。 (7)このジレンマがあっても、朱首相は改革路線を貫くと期待したい。 (8)しかし、中国の経済が悪化するとともに、中国に対する信頼を摇るがせるような問題もいくつか発生している。 (9) 例えば、朱首相が昨年公約した「8\%成長の確保」は、7・8\%に終わった。 (10)広東省など地方の成長率が10%を超えたのも水増しを疑われている。 (11)金融改革も、外貨の扱いで大きく摇れており、香港に対する姿勢も、硬直した感じが否めない。 (12)香港人が中国国内でもうけた子供に香港居留権があると判断した香港の裁判所を、中国当局者が激しく批判した。 (13) 改革の直面する困難が大きければ大きいほど、柔軟な対応が必要になるだろう。 表 20 要約システムの改良による ROUGE の変化 よびパラメタを調整しないといけないことがわかる. 次に,特徴量の追加による影響についてみる。表 20 が示すように,特徴量の追加により,大きくROUGE が改善されていることがわかる。これは全て段落情報に関する特徴量の影響である。最後の文に関する特徴量は新しく追加したものであるため,この時点では生成される要約に対して影響を与えない。参照要約の作成者は入力文書に含まれる各話題からそれらに対応する文を選択しているため,段落情報を通じてこの情報を要約システムが利用できるようになった影響は大きい. 最後に, パラメタの調整による影響をみる。表 20 が示すように, パラメタの調整により ROUGE が劇的に改善されていることがわかる。表 19 に示す要約には参照要約に含まれていない文が 1 つだけ含まれているものの(文12),参照要約にかなり類似した要約を生成することに成功している.このことから, 適切な書き換え操作と特徴量を追加した上で適切なパラメ夕を得ることができれば,参照要約に近い要約を生成できることがわかる。 ROUGE とは別に,表 21 に各システム要約から読み取れる参照要約中に含まれる言明を示す。参照要約は 20 の言明からなる。 パラメタの調整まで加えた最良のものでも 16 個の言明を含むに留まっており,4個の言明を取りこぼしている。特に 13 番目の言明についてはいずれのシステム要約も選択することができておらず,これを選択するためにはより詳細な特徴量を設定するなどの工夫が必要であろう. ## 5.5 他の文書に対する適用 最後に, 改良前の要約システムによるシステム要約と, 改良を加えた要約システムによるシステム要約を比較した,TSC-2のデータに含まれる残りの 59 文書を入力とし, 改良前後の要約システムで要約を作成した, 4 節と同様に,長い方の参照要約を参照要約とし,要約システム 表 21 システム要約から読み取ることができる参照要約中の言明 & 0 & O & O & O \\ 表 22 文書番号 990305053 以外の文書を入力とした場合の ROUGE による評価結果 が各文書の要約を作成する際には参照要約の長さ以内の要約を作成するようにした. ROUGE-1 で評価を行った結果を表 22 に示す. 有意水準 $\alpha$ は 0.05 としてウィルコクソンの符号順位検定 (Wilcoxon 1945) を用いて検定を行ったところ, 改良前後での ROUGE-1 の変化は有意であった. 要約システムに加えた改良はあくまで文書番号 990305053 に特化したものとなっているため, 改善は大きくないものの, 文書番号 990305053 に基づいて行った改良が他の文書に対しても有効に働いたことがわかる。ある特定の文書ではなく,あるコーパスを構成する全ての文書に対するシステム要約の品質を全体的に向上させようとする際には,例えば,そのコーパスを構成する文書の中から代表性を持つ文書を特定し,そのような文書を集中的に分析し要約システムを改良するといった手段が考えられる。 ## 6 関連研究 ## 6.1 自動要約の誤り分析 要約システムから出力された要約を評価する方法は大きく 2 つにわけられる (Spärck Jones 2007).1つは内的な評価で,要約そのものの品質を評価するものである。もう1つは外的な評価で,要約の品質を他の課題を通じて評価するものである。後者は, 例えば, 異なる要約システムから出力された要約を用いて同一の情報検索課題を解き,より良好な検索結果が得られた要約システムをよい要約システムとするものである (Nomoto and Matsumoto 1997).本稿は特に要約そのものの品質を扱うため, ここでは前者に焦点を当てる. 要約そのものの品質は 2 つの観点から評価されてきた (Nenkova and McKeown 2011).1つは要約の内容性であり, 入力文書に含まれる重要な情報がシステム要約にも含まれているか評価するものである。もう1つは要約の言語的品質であり, システム要約が読みやすいものになっているかを評価するものである。これらはそれぞれ,前者については本稿における「重要部同定の失敗」,後者については「非文章の出力」と対応している. 要約の内容性については,人間の作業者が重要文として認定した文を要約システムが重要文として認定できた割合に基づいて評価するもの (奥村,難波 2005),システム要約と参照要約の, n-gram 頻度分布の類似度に基づいて評価するもの (Lin 2004), 人手によって複数の参照要 約に頻繁に出現する情報を特定し,それが要約に含まれる数に基づいて評価するもの (Nenkova, Passonneau, and McKeown 2007) などの評価方法がある. 要約の内容性を改善するための網羅的な分析として, Paice による分析がある (Paice 1990). Paice は, 文を選択する際の特徴量である, 手がかり語の有無や文の位置, 入力文書のタイトルに含まれる語の有無などの効果を論じた,Paiceのこの分析は,「重要部同定の失敗」に関する 「特徵量の設定不足」に該当する分析といえる. Hirao らは,機械学習を用いて重要文同定を行った際のパラメ夕について分析している (Hirao, Isozaki, Maeda, and Matsumoto 2002). 機械学習を通じて得られたパラメタの傾向を観察することで,有効に働く特徴量を簡便に分析することができる. Hirao らのこの分析は, Paiceの分析と同様に,「重要部同定の失敗」に関する「特徴量の設定不足」に該当する分析といえる. 要約の言語的品質については, 一般に, 要約の言語的品質を測定するためのテスト (National Institute of Standards and Technology 2007) を通じて評価される。言語的品質に関する分析としては,Vanderwende らが文の書き換えが引き起こす問題を (Vanderwende, Suzuki, Brockett, and Nenkova 2007), Nenkova が照応詞が引き起こす問題を指摘している (Nenkova 2008). Vanderwende らは,要約の内容性を改善するために,入力文書に含まれる不要な節や句を除去することを提案した (Vanderwende et al. 2007). この方法によってより要約の内容性が改善されることを Vanderwende らは示したが,その一方で文の書き換えによって非文法的な文が生成され,これが要約に含まれることで要約の言語的品質が低下することも指摘した. 特に,文の書き換えの結果,コンマ,ピリオドが誤った位置に置かれることが頻繁に問題となることを示した. Vanderwende らのこの分析は, 「操作の不足」が「非文章の出力」を招くことを指摘するものといえる。 Nenkova は,要約に含まれる照応詞が問題を引き起こすことを指摘した (Nenkova 2008).特に, 言語的品質の観点において, 先行詞が不明膫な照応詞が出現することで, 要約の品質が低下することを指摘した.Nenkova は実際に,要約を構成する文の名詞句を書き換える要約システムと,単に文を選択するだの要約システムの,それぞれから出力された要約の言語的品質を比較した. Nenkovaは,前者が出力した要約は,書き換えに伴い統語的に正しくない文が生成されることがあること, また同一の名詞句が過剩に繰り返されることがあることから, 後者に比べて著しくその言語的品質が悪化することを報告している. Nenkovaのこの分析は, Vanderwende らと同様に,「操作の不足」が「非文章の出力」を招くことを指摘するものといえる. 照応詞の問題は Paice (Paice 1990) や Nanba ら (Nanba and Okumura 2000) も指摘している. Paice (Paice 1990) と Nenkova (Nenkova 2008)の研究の間には約 20 年の時間の経過があるが,依然として照応詞の問題は自動要約における難題である. 最後に, 上で述べた, これまで自動要約において行われてきた分析と, 本稿で提案する分析の枠組みを比較しておく。まず,「文意の歪曲」という観点がこれまでの自動要約研究では指摘さ れてこなかった. この点については, 3.1 節で述べたように, 分析に要する費用の大きさが原因となって,あまり指摘されてこなかったものと思われる。加えて,これまで行われてきた分析は,本稿におけるある特定の観点の誤りがある特定の原因によってもたらされるといった,いわば局所的なものであったのに対して,本稿で提案する誤り分析の朹組みは,これまで行われてきた分析を系統的に包含する点に特徴がある. ## 6.2 他の自然言語処理課題における誤り分析 ここでは,自動要約と同様に自然言語を生成する課題として機械翻訳を,また自動要約とは異なり自然言語を解析する課題として語義曖昧性解消を取り上げ,それぞれ本稿で取り扱った自動要約の誤り分析と比較する。 まず,赤部らによる機械翻訳の誤り分析 (赤部, Neubig, 工藤, Richardson, 中澤, 星野 2015) を取り上げる。機械翻訳は自動要約と同様にテキストを入力としてテキストを出力する課題であり,誤り分析の形態も似通ったものになると考えられる。赤部らは誤り分析を 2 種類に分類している ${ }^{15} .1$ つはブラックボックス分析であり, システムの出力にのみ着目して誤りを分析するものである。もう1つはグラスボックス分析であり,システム内部の性質に着目して誤りを分析するものである。本稿で扱った誤り分析は要約システム内部の構成要素に着目しているため,グラスボックス分析に相当する。本稿の 3.1 節で提案した誤りの種類のみに注目して誤り分析を行うのであればこれはブラックボックス分析になる. 赤部らの提案しているブラックボックス分析の誤り体系は, 出力のみを分析するものであり, その点において本稿の 3.1 節と概ね対応している。本稿の提案した要約の誤りの種類は赤部らのブラックボックス分析の誤り体系を抽象化したものになっている。例えば,自動要約の誤りの種類の 2 つめ「入力が出力を含意しない」の原因の 1 つとして赤部らのブラックボックス分析の誤り体系の「モダリティ」を考えることができる。自動要約の満たすべき要件を敷衍し機械翻訳の誤りを考えると,「出力から(目標言語で)情報が読み取れること」「(言語は異なるものの)入出力が意味的に等価であること」の2点を要件として考えることができ,その点において赤部らの提案したブラックボックス分析の誤り体系の一部は自動要約の誤り分析のより具体的な誤りの分類として考えることもできょう. 本稿の提案した要約の誤りの種類と赤部らのブラックボックス分析の誤りの体系を比較すると, 自動要約と機械翻訳には 2 つの違いがあることがわかる。1つは非文章の存在である。自動要約の出力は多くの場合, 文ではなくて文章であるため, 文としては解釈できても文章としては適切に解釈できない場合が生じる。一方, 現在の機械翻訳は基本的には文単位の処理を行っ  ている16.もう 1 つは,自動要約の満たすべき要件の 3 つめ「入力および読み手の希望を鑑みて重要な情報のみが出力に含まれること」という点である。自動要約はその名の通り, 重要な情報のみを読み手に提示することが目標であるが,機械翻訳は入力を目標の言語に入力と意味的に等価に変換することが目標であり, 重要な情報を選別するという要件が存在しない. 赤部らが提案したもう 1 つの誤り体系である, グラスボックス分析の誤り体系は本稿の 3.2 節で提案した要約の誤りの原因にほぼ直接対応している。対応を表 23 に示す。表 23 に示すように, 自動要約の誤りの原因と赤部らのグラスボックス分析の誤り体系はほぼ直接対応している。 これは, 現在の自動要約システムも機械翻訳システムも,自然言語の入力に形態素解析器などの基本的な解析器を用いて適切な解析を加える機構, 入力を入力とは異なる表現に変換する機構, 変換された表現の中で正しいと思われるものに高いスコアを与える機構, 高いスコアが与えられる表現を探索する機構の 4 点をその基盤としているためである. 次に, 自然言語の解析を目的とする課題として語義曖昧性解消課題の誤り解析を取り上げる.新納らは 7 名の分析者による誤り分析の結果を統合し, 語義曖昧性解消課題において生じる誤りの原因を 9 種類に分類している (新納, 白井, 村田, 福本, 藤田, 佐々木, 古宮, 乾 2015).語義曖昧性課題における誤りは正しい語義に単語を分類することができないがために生じるものであり,その点において本稿で提案した自動要約の誤りの種類や赤部らのブラックボックス分析の誤りの体系のように複数の誤りの種類は存在せず,単に誤分類のみが誤りとなっている. 新納らの提案した 9 種類の誤り原因は, 本稿で提案した 5 種類の誤りの原因の一部を詳細化したものとみなせる。対応を表 24 に示す。語義曖昧性解消課題は自然言語の生成を行わないため, 当然, 書き換え操作の不足に対応する誤りは存在しない。同様に, 候補となる語義のいず 表 23 自動要約の誤りの原因と機械翻訳のグラスボックス分析の誤り体系との対応 \\ & ることと直接対応する. \\  表 24 自動要約の誤りの原因と語義曖昧性解消の誤りの原因の対応 れかに単語を分類する問題であるため, 複雑な探索も行う必要がなく, そのため探索の誤りも存在しない. ## 7 おわりに 本稿では,自動要約の誤り分析を扱った。自動要約の誤りの分類を提案し,それを利用して 1つの文書の分析結果を分類した。また,どのような誤りが生じているかを調査するための具体的な方法についても提案した。 それらを用いて,ある文書をある要約システムを用いて要約したとき,内部でどのような誤りが生じているか分析した。さらに,分析の結果を踏まえて要約システムに改良を施し,その結果を報告した。 本稿で提案した朹組みについては,今後,提案した分類をより精緻化し,個別の分析事例を蓄積していく予定である。特に,今後,重要となるであろう分析は「操作の不足」と「文意の歪曲」の点にあると思われる。「文意の歪曲」についてはこれまで十分にその問題点が指摘されていないが, 要約システムが出力する要約を, 入力文書と矛盾したものにしてしまうという点において, 要約システムの致命的な問題になりうる. そのため, このような問題のあるシステ么要約を少ない費用で検出する仕組みが必要になるだろう。また,「文意の歪曲」を防ぐには洗練された書き換え操作が必要であり,「文意の歪曲」を防ぐ機構の分析も重要である. ## 謝 辞 究に基づくものである。その過程において, 国立国語研究所浅原正幸准教授, 東京工業大学奥村学教授, 東京工業大学菊池悠太氏, 早稲田大学酒井哲也教授, 九州工業大学嶋田和孝准教授, ニューヨーク大学関根聡研究准教授, 東京工業大学高村大也准教授, 日本電信電話株式会社平尾努研究主任, および京都大学森田一研究員よりご助言を頂戴した。記して感謝する。 また, 論文の採録に際しては担当編集委員および 2 名の査読者の方々より様々なご助言を頂戴した。記して感謝する。 ## 参考文献 赤部晃一, Neubig Graham, 工藤拓, Richardson John, 中澤敏明, 星野翔 (2015). Project Next における機械翻訳の誤り分析. 言語処理学会第 19 回年次大会ワークショップ「自然言語処理におけるエラー分析」発表論文集. Aone, C., Okurowski, M. E., Gorlinsky, J., and Larsen, B. (1999). "A Trainable Summarizer with Knowledge Acquired from Robust NLP Techniques." In Mani, I. and Maybury, M. T. (Eds.), Advances in Automatic Text Summarization, pp. 71-80. MIT Press. Barzilay, R. and McKeown, K. R. (2005). "Sentence Fusion for Multidocument News Summarization." Computational Linguistics, 31 (3), pp. 297-328. Edmundson, H. P. (1969). "New Methods in Automatic Extracting." Journal of ACM, 16 (2), pp. 264-285. Filatova, E. and Hatzivassiloglou, V. (2004). "A Formal Model for Information Selection in Multi-Sentence Text Extraction." In Proceedings of Coling 2004, pp. 397-403. Gillick, D. (2009). "Sentence Boundary Detection and the Problem with the U.S." In Proceedings of NAACL HLT 2009: Short Papers, pp. 241-244. Hardmeier, C., Nivre, J., and Tiedemann, J. (2012). "Document-Wide Decoding for PhraseBased Statistical Machine Translation." In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL), pp. 1179-1190.  Hirao, T., Isozaki, H., Maeda, E., and Matsumoto, Y. (2002). "Extracting Important Sentences with Support Vector Machines." In Proceedings of the 19th International Conference on Computational Linguistics (COLING), pp. 342-348. Hovy, E., Lin, C.-Y., Zhou, L., and Fukumoto, J. (2006). "Automated Summarization Evaluation with Basic Elements." In Proceedings of the 5th Conference on Language Resources and Evaluation (LREC), pp. 604-611. Jing, H. (2000). "Sentence Reduction for Automatic Text Summarization." In Proceedings of the 6th Conference on Applied Natural Language Processing (ANLP), pp. 310-315. Jurafsky, D. and Martin, J. H. (2008). Speech and Language Processing (2nd Edition). Prentice Hall. Knight, K. and Marcu, D. (2002). "Summarization beyond Sentence Extraction: A Probabilistic Approach to Sentence Compression." Artificial Intelligence, 1 (139), pp. 91-107. 一般社団法人共同通信社 (2010). 記者ハンドブック新聞用字用語集 (第 12 版). 共同通信社. Lin, C.-Y. (2004). "ROUGE: A Package for Automatic Evaluation of Summaries." In Proceedings of ACL Workshop Text Summarization Branches Out, pp. 74-81. Luhn, H. P. (1958). "The Automatic Creation of Literature Abstracts." IBM Journal of Research and Development, 22 (2), pp. 159-165. McDonald, R. (2007). "A Study of Global Inference Algorithms in Multi-document Summarization." In Proceedings of the 29th European Conference on Information Retrieval (ECIR), pp. 557-564. Muresan, S., Tzoukermann, E., and Klavans, J. (2001). "Combining Linguistic and Machine Learning Techniques for Email Summarization." In Proceedings of CoNLL 2001 Workshop at ACL/EACL 2001 Conference, pp. 152-159. Nanba, H. and Okumura, M. (2000). "Producing More Readable Extracts by Revising Them." In Proceedings of the 19th International Conference on Computational Linguistics (COLING), pp. 1071-1075. National Institute of Standards and Technology (2007). "The Linguistic Quality Questions." http://www-nlpir.nist.gov/projects/duc/duc2007/quality-questions.txt. Nenkova, A. (2008). "Entity-driven Rewrite for Multi-document Summarization." In Proceedings of the 3rd International Conference on Natural Language Processing (IJNLP), pp. 118-125. Nenkova, A. and McKeown, K. (2011). Automatic Summarization. Now Publishers. Nenkova, A., Passonneau, R., and McKeown, K. (2007). "The Pyramid Method: Incorporating Human Content Selection Variation in Summarization Evaluation." ACM Transactions on Speech and Language Processing, 4 (2), pp. 1-23. Nishikawa, H., Arita, K., Tanaka, K., Hirao, T., Makino, T., and Matsuo, Y. (2014). "Learning to Generate Coherent Summary with Discriminative Hidden Semi-Markov Model." In Proceedings of the 25th International Conference on Computational Linguistics (COLING), pp. 1648-1659. Nomoto, T. and Matsumoto, Y. (1997). "A New Approach to Unsupervised Text Summarization." In Proceedings of the 24th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 26-34. 奥村学,難波英嗣 (2005). テキスト自動要約. オーム社. Olive, J., Christianson, C., and McCary, J. (Eds.) (2011). Handbook of Natural Language Processing and Machine Translation. Springer New York. Paice, C. D. (1990). "Constructing Literature Abstracts by Computer: Techniques and Prospects." Information Processing $\& 9$ Management, 26 (1), pp. 171-186. Pollock, J. J. and Zamora, A. (1975). "Automatic Abstracting Research at Chemical Abstracts Service." Journal of Chemical Information and Computer Sciences, 15 (4), pp. 226-232. Sandu, O., Carenini, G., Murray, G., and Ng, R. (2010). "Domain Adaptation to Summarize Human Conversations." In Proceedings of ACL Workshop on Domain Adaptation in NLP, pp. 16-22. Sharifi, B., Hutton, M.-A., and Kalita, J. (2010). "Summarizing Microblogs Automatically." In Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 685-688. 新納浩幸, 白井清昭, 村田真樹, 福本文代, 藤田早苗, 佐々木稔, 古宮嘉那子, 乾孝司 (2015).語義曖昧性解消の誤り分析. 言語処理学会第 19 回年次大会ワークショップ「自然言語処理におけるエラー分析」発表論文集. Spärck Jones, K. (2007). "Automatic Summarising: The State of the Art." Information Processing $\mathcal{E}$ Management, 43, pp. 1449-1481. Takamura, H., Yokono, H., and Okumura, M. (2011). "Summarizing a Document Stream." In Proceedings of the 33rd European Conference on Information Retrieval (ECIR), pp. 177-188. Vanderwende, L., Suzuki, H., Brockett, C., and Nenkova, A. (2007). "Beyond SumBasic: Taskfocused Summarization with Sentence Simplification and Lexical Expansion." Information Processing 83 Management, 43 (6), pp. 1606-1618. 渡辺太郎,今村賢治,賀沢秀人,Neubig Graham,中澤敏明 (2014). 機械翻訳. コロナ社. Wilcoxon, F. (1945). "Individual Comparisons by Ranking Methods." Biometrics Bulletin, 1 (6), pp. 80-83. Xiong, D., Ding, Y., Zhang, M., and Tan, L. C. (2013). "Lexical Chain Based Cohesion Models for Document-Level Statistical Machine Translation." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1563-1573. Zajic, D. M., Dorr, B. J., Lin, J., and Richard, S. (2007). "Multi-Candidate Reduction: Sentence Compression as a Tool for Document Summarization Tasks." Information Processing 8 Management, 43, pp. 1549-1570. ## 略歴 西川仁:2006 年慶應義塾大学総合政策学部卒業. 2008 年同大学大学院政策・メディア研究科修士課程修了. 同年日本電信電話株式会社入社. 2013 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士 (工学). NTT メディアインテリジェンス研究所研究員を経て, 2015 年より東京工業大学大学院情報理工学研究科計算工学専攻助教. 自然言語処理, 特に自動要約の研究に従事. The Association for Computational Linguistics, 人工知能学会, 情報処理学会, 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 特許請求項に特有の文構造に基づく英中日特許請求項翻訳 富士 秀 ${ }^{\dagger} \dagger \dagger$ ・藤田 篤 $\dagger \cdot$ 内山 将夫 $^{\dagger} \cdot$ 隅田英一郎 ${ }^{\dagger}$ 松本 裕治 $^{\dagger}$ 近年の統計的機械翻訳の進展によって特許文翻訳の精度は大きく向上したが, 特許文中で特に重要性の高い特許請求項文に対する翻訳精度は依然として低い. 特許請求項文は,(1) 極めて長い 1 文から構成される,(2) 特殊な文構造を持っている,と いう 2 つの特徴を持つサブ言語であるとみなせる. そしてこれらが翻訳精度の低さ の原因となっている。本論文では,サブ言語に特有の特徴を処理する枠組みの導入 によって, 特許請求項の翻訳精度を向上させる手法について述べる。提案手法では,同期文脈自由文法を用いて原言語文が持つサブ言語に特有の文構造を目的言語側の 文構造に変換することにより,適切な文構造を持った訳文を生成する。さらに本手法では, 文全体ではなく, 文を構成する構造部品を翻訳の処理単位とすることによ り長文の問題に対処する. 英日 -日英・中日・日中の 4 翻訳方向で評価実験を行っ たところ, 全翻訳方向において RIBES 值が 25 ポイント以上向上し, 本手法によっ て訳文品質が大幅に改善したことがわかった. 英日・日英翻訳ではさらに BLEU 值 が 5 ポイント程度, 中日・日中では 1.5 ポイント程度向上した. キーワード:文構造, 統計的機械翻訳, 特許請求項文, 同期文脈自由文法 ## Patent Claim Translation based on Sublanguage-specific Sentence Structure \author{ Masaru Fuji $^{\dagger, \dagger \dagger}{ }^{\dagger}$, Atsushi Fujita ${ }^{\dagger}$, Masao Utiyama ${ }^{\dagger}$, Eilchiro Sumita ${ }^{\dagger}$ and \\ Yuji Matsumoto ${ }^{\dagger \dagger}$ } Patent claim sentences, despite their legal importance in patent documents, still pose difficulties for state-of-the-art statistical machine translation (SMT) systems owing to their extreme lengths and their special sentence structure. This paper describes a method for improving the translation quality of claim sentences, by taking into account the features specific to the claim sublanguage. Our method overcomes the issue of special sentence structure, by transferring the sublanguage-specific sentence structure from the source language to the target language, using a set of synchronous context-free grammar rules. Our method also overcomes the issue of extreme lengths by taking the sentence components to be the processing unit for SMT. An experiment demonstrates that our proposed method significantly improves the translation quality in terms of RIBES scores by over 25 points, in all of the four translation directions i.e., English-to-Japanese, Japanese-to-English, Chinese-to-Japanese and Japanese-toChinese directions. Alongside the improvement in RIBES scores, improvements of  approximately five points in BLEU scores are observed for English-to-Japanese and Japanese-to-English directions, and that of 1.5 points are observed for Chinese-toJapanese and Japanese-to-Chinese directions. Key Words: Sentence Structure, Statistical Machine Translation, Patent Claim Sentences, Synchronous Context-free Grammar ## 1 はじめに 日英間や日中間のような, 文法構造の大きく異なる言語間における特許文書を対象とした統計的機械翻訳の精度は, 利用可能な特許対訳コーパスのデータ量の増加に加え, 構文解析にもとづく単語並べ替え技術 (Isozaki, Sudoh, Tsukada, and Duh 2010b; de Gispert, Iglesias, and Byrne 2015) の進展によって大きく向上した (Goto, Utiyama, Sumita, and Kurohashi 2015). しかし特許明細書中の請求項文は, 特に重要性が高いにもかかわらず,明細書中の他の文と比較しても依然として翻訳が困難である。 特許請求項文は, 以下の 2 つの特徵を持つサブ言語 (Buchmann, Warwick, and Shann 1984; Luckhardt 1991) と考えることができる.1つ目の特徴は, 非常に長い単一文で構成されることであり,2つ目の特徴は,対象言語に依存しない部品のセットから構成されるということである. 特許請求項翻訳の困難さは,まさにこれらの 2 つの特徴に根差している. 1 つ目の特徴である特許請求項文の長さによって, 事前並べ替え等で用いられる構文解析器が解析誤りを生じる可能性が高くなり,ひいては事前並べ替えの精度が下がる.2つ目の特徴であるサブ言語に特有の文構造は, 特許明細書の他の部分で学習された統計的機械翻訳を用いるだけでは正確にとらえることができない. 本稿では, 特許請求項文に対する統計的機械翻訳の精度を向上させるための手法について述べる. なお以降の説明では, 特許請求項を構成する要素を「構造部品」と呼ぶ. 我々は, 前述の特許請求項文の特徵に起因する問題を解決するためのモジュールを追加した統計的機械翻訳の枠組みを構築した。サブ言語に特有の文構造に基づく我々の手法は 2 つの狙いがある. (1) 事前並べ替えおよび統計的機械翻訳処理を,入力文全体にではなく, 文の構造部品を単位として実行する。この構成により事前並べ替えおよび機械翻訳への入力を実質的に短縮し, 結果として翻訳精度を向上させる。(2) 特許請求項文の文構造を明示的に捉えた上で翻訳を行うことにより構造的に自然な訳文を生成できるようにする。具体的には,言語非依存の構造部品を得るための同期文脈自由文法規則および正規表現を人手で構築し, これら構造部品を非終端記号とした同期文脈自由文法を用いることによって,原文の文構造を訳文の文構造に反映させる. 我々は,英日・日英・中日・日中の 4 言語対の翻訳について上記提案手法を適用し,その効果を定量的に評価した.提案手法を事前並べ替えと併用した場合に,英日・日英・中日・日中 の 4 言語方向すべての翻訳実験において翻訳品質が RIBES 值 (Isozaki, Hirao, Duh, Sudoh, and Tsukada 2010a) で 25 ポイント以上向上した.これに加えて, 英日・日英翻訳では BLEU 値が 5 ポイント程度, 中日・日中翻訳では 1.5 ポイント程度向上した. 英中日 3 言語の請求項文構造を記述するための共通の構造部品は 5 種類のみであり, これら構造部品を単位として記述した英日・日英・中日・日中の 4 言語方向の同期文脈自由文法の規則はそれぞれ 10 個以内である.非常に少ない数で,この翻訳精度改善を実現することができた. ## 2 関連研究 語順の大きく異なる言語間の機械翻訳の品質は, 構文情報を取り込む近年の研究によって大幅に向上した (Collins, Koehn, and Kucerova 2005; Quirk, Menezes, and Cherry 2005; Katz-Brown and Collins 2008; Sudoh, Suzuki, Tsukada, Nagata, Hoshino, and Miyao 2013; Hoshino, Miyao, Sudoh, and Nagata 2013; Cai, Utiyama, Sumita, and Zhang 2014; Goto, Utiyama, Sumita, and Kurohashi 2015).この構文情報を取り込む手法を産業文書等のサブ言語を構成する文書に適用するためには, サブ言語に特有の情報を取り込む必要があると考えられている (Buchmann et al. 1984; Luckhardt 1991). 産業文書等に見られるサブ言語の特徴としては, 一文が非常に長いことと, 特殊な文構造を持っていることがあげられる. このため, 長文を含む入力においてサブ言語に特有の文構造を適切に扱うことが課題となる。 ヨーロッパ言語間のように語順が近い言語間では, 長文を構成する複数の節を連結する談話連結詞 (discourse connective) の曖昧性を解決することによって訳文の文構造が改善することがわかっている (Miltsakaki, Dinesh, Prasad, Joshi, and Webber 2005; Pitler and Nenkova 2009; Meyer, Popescu-Belis, Zufferey, and Cartoni 2011; Hajlaoui and Popescu-Belis 2012; Meyer, PopescuBelis, Hajlaoui, and Gesmundo 2012).これに対して語順の大きく異なる言語間では, 談話連結詞を扱うだけでは不十分であり,例えば長い並列句を含むような原文の文構造を把握して訳文の文構造に変換するような, 文構造変換を行う必要がある. 文構造変換の1つの手法として, 入力文に対する何らかの解析を行ってから訳文構造に変換する様々な研究が行われてきた。初期の研究では, 日英翻訳における文構造変換を目的として, 修辞構造理論 (RST: rhetorical structure theory) に基づくパーザを用いて得られた入力文の修辞構造を目標言語の構造に変換する手法が提案されている (Marcu, Carlson, and Watanabe 2000). これを発展させた研究としては, RST パーザで得られた結果から目標言語構造への変換規則を自動獲得する研究も行われている (Kurohashi and Nagao 1994; Wu and Fung 2009; Joty, Carenini, Ng, and Mehdad 2013; Tu, Zhou, and Zong 2013). 骨格構造 (skeleton)を用いる手法 (Mellebeek, Owczarzak, Grobes, Van Ganabith, and Way 2006; Xiao, Zhu, and Zhang 2014) では, 入力文の構文解析結果から文の骨格を形成するキー要素やキー構造を抽出し, 原言語文と 目的言語文それぞれから抽出した骨格構造同士を一般文同士の場合と同様の手段で学習させる.翻訳実行時には,入力文から骨格構造を抽出して骨格構造翻訳を行い,最後に骨格以下の構造を翻訳して訳文を生成する。分割翻訳 (divide-and-translate) (金, 江原 1994; Jin and Liu 2010; Shinmori, Okumura, Marukawa, and Iwayama 2003; Xiong, Xu, Mi, Liu, and Liu 2009; Sudoh, Duh, Tsukada, Hirao, and Nagata 2010; Bui, Nguyen, and Shimazu 2012) では,入力文を句や節の単位に分割してそれぞれを目標言語に翻訳し,最後にこれら翻訳された分割部品を結合して訳文を生成する手法である。ルールベース翻訳による分割翻訳では,接続構造を用いて分割を行う手法 (金, 江原 1994) や,概念素性を用いて分割する手法 (Jin and Liu 2010) 等が提案されている。並列構造解析に基づく翻訳 (Roh, Lee, Choi, Kwon, and Kim 2008)では, 入力文の解析結果から並列構造を見つけ出し,これをもとに訳文構造への変換を行う.以上述べてきた文構造変換の手法は,パーザを用いて入力文を解析するため, 特許請求項のような長文を多く含むサブ言語ではパーザの解析精度が低く, 結果として訳文の品質も低くなるという問題がある。 文構造変換のもう1つの手法としてはパターン翻訳の研究がある (Xia and McCord 2004; 池原, 阿部, 徳久, 村上 2004; 中澤, 黒橋 2008; Murakami, Tokuhisa and Ikehara 2009; 西村, 村上,徳久, 池原 2010; Murakami, Fujiwara and Tokuhisa 2013; 坂田, 徳久, 村上 2014) . パターン翻訳では,原文側と訳文側それぞれについて固定部と変数部を持つパターンを用意しておき,入力文が原文側パターンにマッチしたら変数部を自動翻訳して訳文側固定部に埋め达んで出力する.この手法は,パターンにマッチさえすれば原文全体を構文解析することなく翻訳できるため, 長文におけるパーザの解析精度の問題を回避することができる反面, 表層的な手がかりをもとに入力文とのマッチを行うので長文に頻出する並列構造や階層を適切に扱うことができないという問題がある. ## 3 サブ言語に特有の文構造の変換 特許請求項は, 特許明細書文書の他の部分と比べて, 使われている語彙や表現は共通である一方, 請求項固有の記述スタイルで記述されるという特徵がある. このことから, 請求項自体が 1 つのサブ言語を構成しているとみなす.この請求項特有の記述方法は, 特許出願の歴史の中で徐々に形成され,最近では公的な特許文書の執筆基準書等でも取り上げられるようになってきた. 国際特許機関 WIPO の特許執筆基準 (WIPO 2014) によると, 英語の請求項は, 次の 3 つの部品から構成される 1 文として記述されなければならない. $ \mathrm{S} \rightarrow \text { PREA TRAN BODY } $ ここで, $\mathrm{S}$ は請求項文, PREA は前提部, TRAN は移行部, BODY は本体部をそれぞれ表す.図 1 に英語・日本語・中国語それぞれの, 前提部, 移行部, 本体部の例を示す. 前提部は特許 (a) 英語 (b) 日本語 (c) 中国語 図 1 英語・日本語・中国語の請求項の例 発明の範疇を表す導入的な要素であり, 本体部は特許発明の中心部であって発明の構成要素や目的を表し,移行部は前提部と本体部を接続する役割を担っている。なお,実際の特許請求項における本体部は,発明を構成する要素である「構成要素」,もしくは発明の目的を説明する 「目的部」のいずれかとして記述される。降の図や例では,構成要素を ELEMで,目的部を PURPで表す. 図 1 (a)は, 典型的な英語請求項の構造の例である.この例では, 本体部は構成要素から構成されている。図 1 (b) は, (a) の英語請求項構造に対応した日本語請求項構造であり, 図 1 (c) は, (a) の英語請求項構造に対応した中国語請求項構造である.ここで, 3 言語の構造において用いられている構造部品のセットは共通である一方, 言語によって構造部品の出現する順番は異なることがわかる. 以降では, 英語請求項と日本語請求項の対を例に, 提案手法の概要を説明する. 図 1 (a)および (b) から, 両言語において用いられる構造部品のセットは限定されていることがわかったが, さらに我々の調査から,両言語にはそれぞれ厳密な生成規則が存在することがわかった。図 1 (a)の英語請求項文は, 図 2 (a)の英語生成規則によって表される。ここで, ELEM は図 1 (a) における構成要素を表し, 記号“十”は左に隣接する要素が 1 回以上繰り返されることを表す.図 2 (b) はこれに対応する日本語規則であり, 同一の構造部品セットで構成される. このようにして, 特許請求項は言語に関わりなく文構造の規則性が高いことから, 我々は言語間の構造変換のために,同期文脈自由文法 (synchronous context-free grammar: SCFG)を用いることとした,例えば,図 2 (a)と (b)の対応する規則を接続することによって,図 2 (c)の SCFG を獲得できる。ここで, 添字の数字は, 両木構造における対応する非終端記号間の関係を表す。我々は特許請求項の翻訳のために,このような SCFG 規則を人手で構築した。詳細については 4.1 節において述べる. 図 3 は英日対訳の請求項文の例である。ここで,PREA,TRAN,BODYはこれら請求項文の構造部品名を表すが, 構造部品の出現順は英日で逆順となっていることがわかる。例えば,分割翻訳等の従来の翻訳手法では, 分割して得られた入力文の分割要素をどのような順番で出力するかを制御することが困難である。請求項の翻訳では,入力文の文構造を認識し,それに対応する目的言語の文構造で出力する必要がある. $ \begin{array}{ll} \text { S } & \rightarrow \text { PREA TRAN BODY } \\ \text { TRAN } \rightarrow \text { "comprising:" } \\ \text { BODY } \rightarrow \text { ELEM }+ \end{array} $ (a) 英語の生成規則 $ \begin{array}{ll} \text { S } & \rightarrow \text { BODY TRAN PREA } \\ \text { TRAN } \rightarrow \text { “備える” } \\ \text { BODY } \rightarrow \text { ELEM }+ \end{array} $ (b) 日本語の生成規則 $ \begin{aligned} & \begin{aligned} \mathrm{S} & \rightarrow\left.\langle\mathrm{PREA}_{(1)} \mathrm{TRAN}_{(2)} \mathrm{BODY}_{(3)}, \mathrm{BODY}_{(3)} \mathrm{TRAN}_{(2)} \mathrm{PREA}_{(1)}\right.\rangle \\ \mathrm{BODY} & \rightarrow\left.\langle\mathrm{ELEM}^{+}, \mathrm{ELEM}^{+}\right.\rangle \end{aligned} \\ & \text {TRAN } \rightarrow \text { 〈“comprising:", “備える”〉 } \end{aligned} $ (c) (a)および(b)から得られた SCFG 規則 図 2 英語・日本語の生成規則とそこから得られた SCFG 規則 $ \begin{aligned} & \text { [PREA An apparatus] [TRAN comprising:] [BODY a pencil; an eraser attached to the } \\ & \text { pencil; and a light attached to the pencil.] } \\ & \text { [BODY 鉛筆と;鉛筆に取り付けられた消しゴムと;鉛筆に取り付けられたラ } \\ & \text { イトとを] [TRAN 備える] [PREA 装置。] } \end{aligned} $ 図 3 英日対訳の請求項文の例 ## 4 請求項翻訳のための処理パイプライン 特許請求項文は, 文構造が特殊である一方, 文中で使われる語彙や表現は他の特許明細書文と共通である。このため本研究の実験では, 特許請求項文のための文構造変換機能を前処理モジュールとして用意し, その後段として特許明細書用にチューニングした従来の機械翻訳エンジンをつなげたパイプラインを構築した。具体的には以下に示す 3 ステップから構成されるパイプラインを構築し, 特許請求項文が入力されると, 特許請求項に対応した文構造変換が行われ, 事前並べ替えを経て, 統計的機械翻訳による翻訳が行われる(図 4). - ステップ 1 文構造変換:入力文に対して,人手で構築した SCFG 規則を搭載したパーザを用いて解析を行う。ここでの目的は,入力文に対する精䋊な構文木を得ることではなく, 図 1 に示すようなサブ言語に特有の文構造を入力文の中で見つけ出し, この文構造に沿って出力の文構造を生成することにある。同時文脈自由文法を用いることにより,入力文の構造部品を認識すると同時に出力側での文構造を生成する。(図 4 (a) $\rightarrow$ (b), (c)) - ステップ 2 事前並べ替え:上述の各構造部品について単語の事前並べ替えを行い, 原言語文の単語を, 目的言語の語順に即して並べ替える。ここで使う事前並べ替えは, 句構造解析をべースにしたものである。なお,上記ステップ10出力が当事前並べ替えへの入力となるため, 結果として高い解析結果が得られる。(図 $4(\mathrm{c}) \rightarrow(\mathrm{d})$ ) - ステップ 3 統計的機械翻訳による翻訳 : 各構造部品について統計的機械翻訳による翻訳を行う。上述のように特許請求項文は, 文構造は特殊でも語彙や表現は他の特許明細書文と共通であるため,特許明細書用にチューニングした統計的機械翻訳をそのまま用いている。ここでも,ステップ1に打いて得られた短い文が入力となるため翻訳品質が向上する. (図 $4(\mathrm{~d}) \rightarrow(\mathrm{e}))$ 以降では,上記ステップ 1 およびステップ 2 の詳細について述べる. ## 4.1 文構造変換 1 章で述べたように, 特許請求項翻訳における大きな課題は, 特許明細書の他の項目を用いて学習させた統計的機械翻訳では, 請求項サブ言語に特有の文構造を正確に捉えてこの文構造を目的言語に正確に伝えることができないということである. 本ステップは, 入力請求項文の文構造を認識し, これに対応する出力側の文構造を同時に生成することを目的とする,本ステップは,人手で作成した $\mathrm{SCFG}$ 規則を用いて実行される。我々は,これら規則を以下の手順で作成した。最初に,開発セット中の英中日それぞれの特許請求項を人手で分析することにより,文構造を構成する構造部品は一定であること,ならびに,これら構造部品のセットは英中日の 3 言語で共通であることがわかった.このようにして我々が A button comprising: a plurality of first ribs integrally formed on the surface of the plate-like base portion, each rib radially extending from a center towards the circumference of the plate-like base portion; and an annular portion integrally formed on the surface of the plate-like base portion, to which each center ends of the plurality of first ribs are coupled. (a) 入力英語請求項文 [S [PREA A button] [TRAN comprising:] [BODY [ELEM a plurality of first ribs integrally formed on the surface of the plate-like base portion, each rib radially extending from a center towards the circumference of the plate-like base portion;] [ELEM and an annular portion integrally formed on the surface of the plate-like base portion, to which each center ends of the plurality of first ribs are coupled.]]] (b) 同期的に生成された英語文構造 [S [BODy [ELEm a plurality of first ribs integrally formed on the surface of the plate-like base portion, each rib radially extending from a center towards the circumference of the plate-like base portion;] [ELEM and an annular portion integrally formed on the surface of the plate-like base portion, to which each center ends of the plurality of first ribs are coupled]] [TRAN を備える] [PREA A button]] (c) 同期的に生成された日本語文構造 [s [BODY [ELEm plate like base portion of circumference towards center from extending plate like base portion of surface on formed integrally first ribs of plurality, each rib radially;] [ELEM and plate like base portion of surface, plurality of first ribs of each center ends coupled are which to on formed integrally annular portion]] [TRAN を備え b] [PREA A button]] (d) 各構造部品に対する並べ替え結果 [s [BODy [ELEM 前記板状ベース部の前記表面で一体に形成され、各々が前記板状ベース部の中心から外周に向かって放射状に延在する複数の第 1 リブと、] [ELEM 前記板状ベース部の前記表面で一体に形成され、前記複数の第 1 リブ各々の中心端が連結された環状部と、]] [TRANを備える] [PREAボタン]] (e) 英日 SMT による各構造部品の翻訳 図 4 翻訳パイプラインの概要 抽出した構造部品セット Uは次のとおりである. $U \in\{$ PREA, TRAN, BODY, ELEM, PURP $\}$ ここで, これら 5 項目 (PREA は前提部, TRAN は移行部, BODY は本体部, ELEM は構成要素,PURPは目的部をそれぞれ表す)はすべて前章で説明したとおりである. 次に, 構造部品セットUを非終端記号とする英語生成規則および日本語生成規則を作成し, 対応する英語生成規則と日本語生成規則を組み合わせることによって, 英日翻訳用および日英翻 訳用の SCFG 規則を作成した。図 5 は,このようにして作成した英日翻訳用のすべての SCFG 規則のセットである。同様にして,構造部品セットUから中国語生成規則を作成し,対応する中国語生成規則と日本語生成規則を組み合わせることによって,中日翻訳用および日中翻訳用のSCFG 規則を作成した。日英翻訳・中日翻訳・日中翻訳のためのSCFG 規則は付録を参照されたい。付録には日英翻訳のための SCFG 規則に対応する日英対訳例文も掲載している。規則の数は,英日翻訳用 8 個, 日英翻訳用 10 個, 中日翻訳用 6 個, 日中翻訳用 10 個である. 図 5 は,英日翻訳用 $S C F G$ 規則である $R_{\mathrm{ej} 2}$ の処理対象となるような対訳の例である.入力英文において PREA・TRAN ・BODY ・ TRAN ・BODY の順番で出現する構造部品が, 日本語では BODY・TRAN・BODY・TRAN・PREAの順番に並べ替えられることによって,日本語として適切な文構造となることがわかる。 今回作成したSCFG 規則では,規則適用で曖昧性が生じるのは終端記号に対応する規則であり,これ以外は決定的に動作する解析アルゴリズムとなっている。実際の SCFG 規則の実装では, 終端記号とのマッチングに正規表現を用いることによって, 各規則について高々 1 回のマッチのみを認め,終端記号においても決定的に動作するような設計とした.決定的な動作を行うためには対象言語の主辞方向性を用いており, 例えば主辞先導型言語の英語と中国語では最も文頭に近い TRAN一つを採用し, 主辞後置型言語の日本語では最も文末に近い TRANを採用している.例えば,英語の入力特許請求項文中に文字列 “comprising” が複数回出現する場合には, 入力文中の最初の “comprising”のみとマッチするような正規表現を用意した. 実際の特許請求項では, 執筆者が最初の表現がTRAN となるように意識して書くことが多いため, 最初の TRAN を採用することでほぼ誤りなくマッチする,以下に,Perl 言語風の英語と日本語の正規 \\ 図 5 英日翻訳のための SCFG 規則一覧(日英・中日・日中翻訳のための SCFG 規則は付録に掲載している) [s [PREA An energy management system] [TRAN comprising:] [BODy [ELEm (a) a helmet shell having a bottom edge;] [ELEM (b) a plurality of bell-shaped pockets situated on an inside surface of the helmet shell, each of the bell-shaped pockets having a bottom surface; and [ELEM (c) a bladder positioned inside of each bell-shaped pocket;]] [TRAN wherein] [BODy [PURP the bottom surface of each bell-shaped pocket is configured to allow the bladder to extend beyond the bottom surface of the pocket and beyond the bottom edge of the helmet upon impact.]]] $ \text { (a) 入力英語請求項文 } $ (b) 対応する日本語請求項文 図 $6 \mathrm{SCFG}$ 規則 $R_{\mathrm{ej} 2}$ に対応する英日対訳文の例 表現の例を示す.“+”は最長マッチ,“+?”は最短マッチを表す. $\left(\right.$ \$prea, \$tran, \$body) $=/{ }^{\wedge}(.+?)($ comprising $)(.+) \$ / ;$ $($ \$body, $\$$ tran, \$prea $)=/ `(.+)($ 備えることを特徴とする $)(.+?) \$ / ;$ このようにして作成したヒューリスティック規則はほぼ誤りなくマッチするが,マッチしない場合には入力文をそのまま返す仕様としている. ## 4.2 事前並べ替え 既存の事前並べ替え技術は, 句構造解析技術に基づくもの (Isozaki et al. 2010b; Goto et al. 2015; Hoshino, Miyao, Sudoh, Hayashi, and Nagata 2015) と依存構造に基づくもの (Yang, Li, Zhang, and Yu 2012; Lerner and Petrov 2013; Jehl, de Gispert, Hopkins, and Byrne 2014; de Gispert et al. 2015) が多い. 以下では,句構造解析技術に基づく例で説明する。英日機械翻訳では,例えば,入力文 “He likes apples.” に対してまず,図 7 に示すような二分木構造を得る.次に, 分類器によって, 特定の内部ノードの 2 つのノードを入れ替えることによって単語の並べ替えを行う. 図 7 の例では, 分類器の判定によって, VPノードの 2 つの子ノードである VBZ と NPの入僣えが行われる。 子ノードを 2 つのみ持つすべてのノードについて,入れ替えをすべきかどうかの判定が分類器によって行われ, 入れ替えが行われると, 結果として “He apples likes."のような日本語の語順に近い英語文が得られる。2つの子ノードを入れ替えるか否かは, 図 7 “He likes apples.”の二分木構造と入れ替え結果 ルールに基づく手法 (Isozaki et al. 2010b)や,語順の順位相関係数 $\tau$ を指標として原言語文と目的言語文の語順が近くなるよう並べ替えを実現する統計的なモデル化 (Goto et al. 2015; Hoshino et al. 2015) などが考えられる.評価実験では後者の統計的なモデル化を採用した.詳しくは 5.3 節を参照されたい。ただし,提案手法自体は特定の事前並べ替え手法に依存しない. 1 章で説明したように, 請求項翻訳におけるもう1つの課題は, 極端な文の長さへの対処である。上述のような事前並べ替え技術は, ある程度正しい構文解析結果が得られることを前提としているが,極めて長い文が入力された場合に構文解析が失敗し,結果として並べ替え精度が低くなる。この問題に対して,本ステップでは,長い入力文全体ではなく,前ステップで認識された各構造部品に対して既存の事前並べ替え手法を適用することによって, 構文解析の精度の向上, ならびに事前並べ替えの精度の向上を図る。 ## 5 評価実験 文構造変換と事前並べ替えによる翻訳品質の向上度合いを定量的に評価するための評価実験を行った. 第 4 章でも述べているように,本実験は既存統計的機械翻訳への付加モジュールとして実現しているため, 既存のフレーズベース統計的機械翻訳 (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007) をベースラインとして設定した. ## 5.1 データ 統計的機械翻訳の学習には特許文のコーパスを使っている。中日・日中翻訳では, 特許請求項文だけで大量の対訳コーパスを作ることができたが,英日・日英翻訳では,特許請求項文のみでは分量が不十分のため特許全体から作成したコーパスと特許請求項文から作成したコーパスを併用した,最終的に,英日・日英・中日・日中翻訳の 4 つの設定で訓練コーパスの規模(文 数)が同じになるようにして実験を行った. 英日・日英の統計的機械翻訳の学習には 2 種類のコーパスを利用した. 1 種類目は,NTCIR-9 ワークショップの特許翻訳タスク (PatentMT) (Goto et al. 2011) において提供された約 320 万文対の日英特許翻訳データから無作為に抽出した 300 万文対である. 以降,この対訳コーパスをコーパス $\mathrm{A}$ と呼ぶ.コーパス $\mathrm{A}$ を用いて統計的機械翻訳を学習させることによって, 請求項翻訳においても語彙選択の面では良好な性能が得られるが,これは語彙や表現は特許文書全体で共通であり,コーパス Aによって大部分がカバーされるからである。しかしながら、コーパス A は請求項文を含まないため, 請求項特有の文構造を適切に扱うことができない。このため,請求項文特有の文構造を取り込むために,100万文の請求項対訳文から構成されるコーパス B を用意し,これをコーパス $\mathrm{A}$ と併用した。コーパス $\mathrm{B}$ の請求項対訳文は,文アラインメント手法 (Utiyama and Isahara 2007) を用いて英日対訳特許文書から抽出したものである. 英日対訳特許文書とは,日本国特許庁が提供する日本語特許明細書データと米国特許庁が提供する英語特許明細書データとを出願番号を用いて対応付けたものであり,2013 年提供分までのデータを対応付けの対象としている。コーパス $\mathrm{A}$ とコーパス $\mathrm{B}$ を結合して学習コーパスを作成し,この学習データを用いて, ベースラインシステムおよび提案手法を組み达んだシステムのための統計的機械翻訳を学習させた。 中日・日中の統計的機械翻訳の学習には ALAGIN 言語資源・音声資源として提供される JPO 中日対訳コーパス1の特許請求項文から作成したコーパスのみを用いた。前述の英日・日英用のコーパス B と同様の方法によって中日対訳の特許請求項文から 400 万文対を抽出した. 開発データおよびテストデータについては, 英日・日英・中日・日中の 4 言語対について, 上述の学習データとは独立に次の手順で構築した。まず,学習データより後の特定の年(2014年) の米国特許明細書データから, 明細書毎に最大 5 個の請求項文を抽出した。具体的には, 明細書中の請求項が 5 個以内の場合はすべての請求項を抽出し, 6 個以上の場合は 5 個目までを抽出している。次に,ここから無作為に 2,000 文を抽出し,機械翻訳の学習やチューニングで用いるという用途を伏せて,特許翻訳専門の翻訳者に依頼して日本語訳文打よび中国語訳文を作成した。このようにして作成した 2,000 文の英中日多言語コーパスを 1,000 文ずつ 2 つに分けて開発用とテスト用とした. な打上記翻訳作業では, 各英語原文について 1 文の訳文を作成した. ## 5.2 システム 本評価実験では, 統計的機械翻訳のツールキットである Moses のフレーズベース翻訳 (Koehn, Och, and Marcu 2003) および階層的フレーズベース翻訳 (Chiang 2005) をベースラインとして用いた. 文構造変換, 事前並べ替えおよび両者の組み合わせについて, ベースラインとの比較 ^{1}$ ALAGIN 言語資源・音声資源サイトの JPO 中日対訳コーパス https://alaginrc.nict.go.jp/resources/jpo-info/ jpo-outline.html\#jpo-zh-ja } を行った。 すべての実験において, 言語モデルの学習に KenLM (Heafield, Pouzyrevsky, Clark, and Koehn 2013) を,単語アラインメントに SyMGIZA++ (Junczys-Dowmunt and Szał 2010) を用いた. モデルの重みづけでは, BLEU 值 (Papineni, Roukos, Ward, and Zhu 2002) を指標として n-best batch MIRA (Cherry and Foster 2012) によるチューニングを行った。各評価実験において,重み付けチューニングを 3 回繰り返し,開発セットにおいて最大の BLEU 值を獲得した重み設定を採用した。 ベースラインとしてのフレーズベース翻訳では, 歪み範囲 (d) が 6 の場合と 20 の場合の測定を行った. Mosesのデフォルトの歪み範囲である 6 と, それに対する長めの歪み範囲として 20 を選んだ。 なお,テストデータに対して文構造変換を行う実験構成でも,学習デー夕に対しては文構造変換を行わずにモデルの学習を行った。文構造変換を行うためには学習データとして請求項文を用いる必要があるが,今回扱わなかった他の言語も含め, 請求項文の入手可否は対象言語によって変わってくるため, 比較のために一律の構成とした. この実験構成にしたことによって, Moses の学習段階における長文除去処理で除外される文は発生する. ## 5.3 事前並べ替え 本評価実験では,構文解析パーザとして Berkeley Parser (Petrov, Barret, Thibaux, and Klein 2006)を用いて, 提案手法によって分割された各構造部品に対して事前並べ替えを行った. この基本的な構成は,4言語方向いずれも同じである。なお,学習デー夕は二分化されたものを用いている. Berkeley Parser のドメイン適応では自己学習の手法を用いた。具体的には, 最初に, 初期モデルを用いて 200,000 文の特許文の解析を行い,次に,得られた 200,000 件の構文解析結果から構文解析モデルを学習することにより, 特許文に適応した解析モデルを構築した. 英語の初期モデルについては, Penn Treebankの文,および我々が人手で木構造を記述した 3,000 文の特許文を用いて学習した。日本語の初期モデルについては, EDRコーパス²の 200,000 文を用いて学習させた.中国語の初期モデルについては,CTB-6 (Zhang and Xue 2012)の文を用いて学習させた。日本語および中国語のモデル学習では特許文は用いていない. 並べ替えモデルの学習では,内製の大規模な特許文対訳コーパスを用いて次の手順によって事前並べ替えモデルを学習させた (de Gispert et al. 2015). 1. 対訳コーパスの原言語文を構文解析する 2. 対訳コーパスに対して単語アラインメントを行う 3. 原言語文と目的言語文の間でケンドールの順位相関係数 $\tau$ が最大化されるような原言語 ^{2}$ EDR コーパス https://www2.nict.go.jp/out-promotion/techtransfer/EDR/JPN/Struct/Struct-CPS.html } 文に対する並べ替えを行う.このようにして各 2 分ノードは,子ノードの入れ替えを行うことを表すSWAP と,入れ替えを行わないことを表すSTRAIGHT に分類される。 4. 上記のデータを用いて,各ノードの SWAP,STRAIGHT を判定するためのニューラルネットワーク分類器を学習する. 上述のように, 各ノードの SWAP, STRAIGHT の判定を二值分類問題としてニューラルネットワーク学習器に学習させるが, 本実験では, ニューラルネットワーク学習器としてオープンソースの Neural Probabilistic Language Model Toolkit (NPLM) 3 を用いた。基本的な構成はデフォルト構成をそのまま使ったが, 出力層では SWAP と STRAIGHT に対応した 2 個の出力を用いた,入力層では,以下を入力としている:親の親,親,自分,直前の兄弟,直後の兄弟,左の子供, 右の子供, 左の子供のスパンの左端の前終端記号と単語, 左の子供のスパンの右端の前終端記号と単語, 右の子供のスパンの左端の前終端記号と単語, 右の子供のスパンの右端の前終端記号と単語. ## 5.4 評価指標 各システムは, BLEU (Papineni et al. 2002) と RIBES (Isozaki et al. 2010a) の 2 種類の評価指標を用いて評価した。これは, n-gramベースの評価手法である BLEUのみでは長距離の関係を十分に評価することができず,本研究が目標としている構造レベルの改善を十分に測定できないと考えたからである.RIBES は順位相関係数に基づく自動評価手法であり,評価対象の機械翻訳出力文中の語順と,参照訳中の語順の比較を行う. RIBES のこのような特性によって,語順の大きく異なる言語間で頻繁に発生する,構造部品の入れ替えを評価することができると考えられる。なお, RIBES は, NTCIR-9 ワークショップの特許翻訳タスク (PatentMT) (Goto et al. 2011) 等においても,英日・日英の翻訳方向において,人間評価との高い相関性が報告されている. 実験で得られた各 BLEU 值と RIBES 值は, MTEval ${ }^{4}$ を用いた反復数 1,000 回の 100 分割ブー トストラップ検定を行ってべースラインとの有意差を調べた. ## 5.5 自動評価結果 本評価実験の結果を表 1 , 表 2 , 表 3, 表 4 に示す. 表中, PB および HPB は各々, Moses のフレーズベース翻訳および階層的フレーズベース翻訳を表し,PBにおける $\mathrm{d}$ は歪み範囲の値を表す.カッコ内の数値はベースラインであるフレーズベース翻訳 (P1) との差分を表す.また, P1'から P4のそれぞれについて, ベースラインに対して $5 \%$ 水準で有意差があるものに†を, $1 \%$ 水準で有意差があるものにきを付してある。テスト文としては 5.1 節で述べた 1,000 文を使っ ^{3}$ Neural Probabilistic Language Model Toolkit http://nlg.isi.edu/software/nplm/ }^{4}$ MTEval Toolkit https://github.com/odashi/mteval 表 1 英日翻訳の評価結果(N/A は評価対象外を表す) } & \multirow{2}{*}{} & \multirow{2}{*}{} & \multicolumn{2}{|c|}{ 全文 } & \multicolumn{2}{|c|}{200 トークン以内(805 文) } \\ 表 2 日英翻訳の評価結果(N/A は評価対象外を表す) } & \multirow{2}{*}{} & \multirow{2}{*}{} & \multicolumn{2}{|c|}{ 全文 } & \multicolumn{2}{|c|}{200 トークン以内(860 文) } \\ 表 3 中日翻訳の評価結果(N/A は評価対象外を表す) } & \multirow{2}{*}{} & \multirow{2}{*}{} & \multicolumn{2}{|c|}{ 全文 } & \multicolumn{2}{|c|}{200 トークン以内(874 文) } \\ 表 4 日中翻訳の評価結果(N/A は評価対象外を表す) } & \multirow{2}{*}{} & \multirow{2}{*}{} & \multicolumn{2}{|c|}{ 全文 } & \multicolumn{2}{|c|}{200 トークン以内(806 文) } \\ ているが,参考情報として,この 1,000 文からトークン数が 200 以下の文を抜き出して使った場合の結果も併記している。これは,P3の事前並べ替えで用いている句構造パーザ (Berkeley Parser) に入力長制限があり,1,000 文全文に対する事前並べ替えを行うことができないためである。このため,テスト文全文を使った評価では P3 は評価対象外としており,表ではこれを N/Aで表している. 表から, 文構造変換と事前並べ替えの組み合わせである $\mathrm{P} 4$ において, 英日・日英・中日・日中翻訳すべての翻訳方向において,RIBES 值および BLEU 值に大幅な上昇がみられる.有意差検定からも,P4のみが,すべての翻訳方向の RIBES 値および BLEU 値の双方において, P1 と比較して $1 \%$ 水準で有意に上昇している。文構造解析のみを用いた $\mathrm{P} 2$ ,および事前並べ替えのみを用いた P3 でも RIBES 值は大幅に上昇しているが,BLEU 值の上昇は限定的である.文構造解析と事前並べ替えを併用したときに大きな BLEU 値の上昇がみられるが,これは文構造解析と事前並べ替えの相乗効果によるものと考えられる。 参考情報として掲載した,200トークン以内の文に対する翻訳でも,全文を用いた場合と同様の傾向がみられるが,200 トークンを超える長文を含まないため,ほぼすべてのシステムに対して高い評価値となっている。言語によって事前並べ替えの精度に差があり,特に日英,中日翻訳では $\mathrm{P} 3$ の方が $\mathrm{P} 4$ よりも高い評価値を達成している場合がある。ただし, P4における文構造変換と事前並べ替えの組み合わせでは,P3 の精度に差に関わらず安定した精度向上がみられる。 ## 5.6 考察 前述の評価結果から,翻訳方向に関わらず,文構造解析と事前並べ替えによって翻訳品質が大幅に改善することがわかった,以下ではまず,当初の課題としてあげていた特許請求項文の長さと特有の文構造の問題が,文構造変換と事前並べ替えの導入によっていかに改善されたか分析する。また,文構造解析の副次的な効果である文短縮についても分析する。さらに,翻訳方向に固有の翻訳特性について述べる. ## 5.6.1 文構造変換と事前並べ替えの相補的効果 図 8 は,日英翻訳における 4 つの実験設定 (P1,P2, P3,P4) の典型的な出力例である. 図では一貫してラベル付き括弧表示を用いて請求項の構造部品を表している。文構造変換および事前並べ替えによる効果について以下に述べる. 1. 文構造解析の効果:P1 では入力文と比較して構造部品の順番に変化がみられないが, P2 では文構造解析を導入することによって構造部品が英語の順番に並べなおされていることがわかる。これによって,移行部である“comprising”が生成されるようになり,文全体の可読性が上がっている。一方, P1 と P2 を比較したときに, 各構造部品の翻訳品質 \\ 図 8 典型的な日英翻訳の例(P2 と $\mathrm{P} 4$ の部品ラベルはシステムが自動的に付与したものだが,それ以外の部品ラベルは,意味的に対応する部分に人手で付与している) は顕著には向上していない。これに対して,P4では P3 と比較して 2 番目の要素の翻訳品質が向上している。このことから,文構造変換は事前並べ替えと併用したときに効果的に動作することがわかる. 2. 事前並べ替えの効果:従来研究でも示されているとおり,事前並べ替え手法を用いることによって,目的言語の語順に即した訳文を生成することができる。図中の例でも,P3 は,P1 と比較して単語がより適切に並んでおり,英語としてより自然な訳文が得られている.しかしながら, 前提部が 2 回出現するなど,構造部品が適切に配置されておらず, 文構造の観点からは不適切である。これに対して,P4のように文構造変換を用いて文構造を明示的に指定することによって,このような不適切な現象を抑制することができる。 さらに, 入力文をより短い構造部品に分解することにより, 各構造部品中の単語が適切に並べ替えられるようになる。 以上の分析から, 構造的かつ語順的に適切な訳文を生成する過程において, 文構造変換と事前並べ替えが相補的に動作することが確認できた。 ## 5.6.2 文短縮の効果 これまで述べたように,事前並べ替えは,入力文全体に対してよりも文構造解析で得られた構造部品に対して, より適切に機能する. 文構造変換による文短縮の効果を見積もるために, まずは実験に用いた構文解析パーザの解析精度を文長毎に評価した。表 5 は,英日翻訳のテストセット全文から無作為に抽出した 100 文を対象に, 事前並べ替えで用いる英語構文解析器の解析成功率を集計した結果である。構文解析結果を目視でチェックし,文中で 1 か所でも誤った構成素があれば誤りとしてカウントし,すべて正しい場合に正解としてカウントした.表から, 短い入力文に対する解析精度は高いものと比較して, 長い入力文に対する解析精度が著しく低いことがわかる.特に,80トークンを超える長さの入力文では, 正しい構文解析結果を得られた文が 16 文中 1 文のみと,きわめて正解率が低い. 次に, 分割前である P1 と分割後である P2 の双方の実験設定において, 後段処理への入力となる文字列のトークン数の分布を比較した,図 9 は, (a) 英語入力文, (b) 日本語入力文, (c) 中国語入力文のそれぞれについて,入力文の累積比率と文構造解析結果の累積比率をそれぞれ表した図である。なお,日英翻訳と日中翻訳では入力日本語文に対して同じ分割結果が得られる。例えば (a) 英語入力文では, 80 トークンを超える長さの入力文が,分割前では全体の $31 \% を$ 占めていたのに対して, 分割後では全体の $3 \%$ と大幅に減少している。上述の文長毎の解析精度と併せて考えると,分割によって入力文が高精度に解析される可能性が大幅に高くなったことが 表 5 英日翻訳における英語パーザの解析精度 (a) 英語入力文 (b) 日本語入力文 (c) 中国語人力文 図 9 入力文の累積比率と文構造解析結果の累積比率 わかる。 なお参考情報として, 表 6 に, 入力文数と文構造解析によって得られた構造部品の数を載せている。言語によって出現する構造部品の分布は異なるものの, いずれの言語でも入力文 1,000 文に対して 4,000 個前後の構造部品が得られており, 1 入力文が平均して 4 構造部品に分割されていることがわかる.また,表 7 には,入力文 100 文に対する文構造解析の成功および失敗数を言語毎に載せている。英語と中国語の成功率が高いのは, これらの言語における請求項の記述の定型性の高さが要因にあると思われる。機械翻訳の精度評価では,日本語を原言語とした言語対においても,英語や中国語を原言語としたときと同等の翻訳精度が得られていることか 表 6 入力文および構造解析後の構造部品数 (a) 英語の入力文数と構造部品数 (b) 中国語の入力文数と構造部品数 (c) 日本語の入力文数と構造部品数 表 7 文構造解析の成功数・失敗数(100 文あたり) ら,文構造解析の失敗は影響の少ないものが多いと考えられる. ## 5.6.3言語方向による傾向 実験では,提案手法によって英日・日英・中日・日中すべての翻訳方向において RIBES 値が 25 ポイント以上と大幅に向上している. これは, 英日・日英・中日・日中のすべての翻訳方向において構造部品の並べ替えが必要であるが, 提案手法によって構造部品が適切に並べ替えられた結果,長距離の並びの適切さを反映する RIBES 値に表れたものと考えられる。 一方,BLEU 值の向上は,中日・日中で 1.5 ポイント程度と十分に大きな値が得られたが,英日・日英では 5 ポイント程度と極めて大きな向上となった。各構造部品の内部では事前並べ替えが行われるが,中日と日中翻訳では動詞の移動が中心であるのに対して,英日と日英翻訳では動詞の移動に加えて修飾方向の移動も関わるため, 事前並べ替えの難易度はより高い.このため,英日と日英翻訳において,文短縮による事前並べ替えの効果が大きく表れたものと考えられる。 ## 6 おわりに 本論文では,英日・日英・中日・日中の特許請求項翻訳において,サブ言語に特有の文構造を,原言語側から目標言語側に変換するための手法について述べた,我々の手法では,これらの品質向上を, 非常に少数の同期文脈自由文法規則を用いて実現した,評価実験を行ったところ,文構造変換と事前並べ替えの組み合わせを用いた場合に,英日・日英・中日・日中の 4 方向の翻訳において RIBES 值で 25 ポイントという大幅な訳質向上が見られた。これに加えて BLEU 値では,英日・日中の翻訳で 5 ポイント程度,中日・日中の翻訳で 1.5 ポイントの大幅な向上が見られた。 本手法により, 特許請求項翻訳の翻訳品質を, 特許明細書中の他の部分の翻訳品質と同水準に引き上げることができた. 今後の研究では, 特許請求項の中でも特に長文で複雑な, 独立請求項文の翻訳に注力したい. ## 謝 辞 本論文は,国際会議 The Machine Translation Summit XVで発表した論文に基づいて日本語で書き直し, 説明や評価を追加したものである (Fuji, Fujita, Utiyama, Sumita, and Matsumoto 2015). ## 参考文献 Buchmann, B., Warwick, S., and Shann, P. (1984). "Design of a Machine Translation System for a Sublanguage." In Proceedings of the 9th International Conference on Computational Linguistics, pp. 334-337. Bui, T. H., Nguyen, M., L., and Shimazu, A. (2012). "Divide and Translate Legal Text Sentence by Using its Logical Structure." In Proceedings of 7th International Conference on Knowledge, Information and Creativity Support Systems, pp. 18-23. Cai, J., Utiyama, M., Sumita, E., and Zhang, Y. (2014). "Dependency-based Pre-ordering for Chinese-English Machine Translation." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 155-160. Cherry, C. and Foster, G. (2012). "Batch Tuning Strategies for Statistical Machine Translation." In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 427-436. Chiang, D. (2005). "A Hierarchical Phrase-Based Model for Statistical Machine Translation." In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics, pp. 263-270. Collins, M., Koehn, P., and Kucerova, I. (2005). "Clause Restructuring for Statistical Machine Translation." In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics, pp. 531-540. de Gispert, A., Iglesias, G., and Byrne, B. (2015). "Fast and Accurate Preordering for SMT using Neural Networks." In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics - Human Language Technologies, pp. 1012-1017. Fuji, M., Fujita, A., Utiyama, M., Sumita, E., and Matsumoto, Y. (2015). "Patent Claim Translation based on Sublanguage-specific Sentence Structure." In Proceedings of the Machine Translation Summit XV, pp. 1-16. Goto, I., Lu, B., Chow, K. P., Sumita, E., and Tsou, B. K. (2011). "Overview of the Patent Machine Translation Task at the NTCIR-9 Workshop." In Proceedings of the 9th NII Test Collection for Information Resources (NTCIR) Conference, pp. 559-578. Goto, I., Utiyama, M., Sumita, E., Kurohashi, S. (2015). "Preordering using a Target-Language Parser via Cross-Language Syntactic Projection for Statistical Machine Translation." In ACM Transactions on Asian and Low-Resource Language Information Processing, Vol. 14, No. 3, Article 13, pp. 1-23. Hajlaoui, N. and Popescu-Belis, A. (2012). "Translating English Discourse Connectives into Ara- bic: A Corpus-based Analysis and an Evaluation Metric." In Proceedings of the Workshop on Computational Apagesroaches to Arabic Script-based Languages, pp. 1-8. Heafield, K., Pouzyrevsky, I., Clark, J. H., Koehn, P. (2013). "Scalable Modified Kneser-Ney Language Model Estimation." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, pp. 13-21. Hoshino, S., Miyao, Y., Sudoh, K., Hayashi, K., and Nagata, M. (2015). "Discriminative Preordering Meets Kendall's $\tau$ Maximization." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, pp. 139-144. Hoshino, S., Miyao, Y., Sudoh, K., and Nagata, M. (2013). "Two-Stage Pre-ordering for Japaneseto-English Statistical Machine Translation." In Proceedings of the International Joint Conference on Natural Language Processing, pp. 1062-1066. 池原悟, 阿部さつき, 徳久雅人, 村上仁一 (2004). 非線形な表現構造に着目した日英文型パター ン化. 情報処理学会研究報告 2004-NL-160(8), pp. 49-56. Isozaki, H., Hirao, T., Duh, K., Sudoh, K., Tsukada, H. (2010a). "Automatic Evaluation of Translation Quality for Distant Language Pairs." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 944-952. Isozaki, H., Sudoh, K., Tsukada, H., and Duh, K. (2010b). "Head Finalization: A Simple Reordering Rule for SOV Languages." In Proceedings of the Joint 5th Workshop on Statistical Machine Translation and MetricsMATR, pp. 244-251. Jehl, L., de Gispert, A., Hopkins, M., and Byrne, W. (2014). "Source-side Preordering for Translation using Logistic Regression and Depth-first Branch-and-Bound Search." In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics, pp. 239-248. Jin, Y. and Liu, Z. (2010). "Improving Chinese-English Patent Machine Translation Using Sentence Segmentation." In Proceedings 2010 International Conference on Natural Language Processing and Knowledge Engineering, pp. 1-6. Joty, S., Carenini, G., Ng, R., and Mehdad, Y. (2013). "Combining Intra- and Multi-sentential Rhetorical Parsing for Document-level Discourse Analysis." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, pp. 486-496. Junczys-Dowmunt, M. and Szał, A. (2010). "SyMGiza++: A Tool for Parallel Computation of Symmetrized Word Alignment Models." In Proceedings of the International Multiconference on Computer Science and Information Technology, pp. 397-401. Katz-Brown, J. and Collins, M. (2008). "Syntactic Reordering in Preprocessing for Japanese- English Translation: MIT System Description for NTCIR-7 Patent Translation Task." In Proceedings of the NTCIR-7 Workshop Meeting, pp. 409-414. 金淵培,江原暉将 (1994). 日英機械翻訳のための日本語長文自動短文分割と主語の補完. 情報処理学会論文誌, 35 (6), pp. 1018-1028. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the Association for Computational Linguistics Demo and Poster Sessions, pp. 177-180. Koehn, P., Och, F. J., and Marcu, D. (2003). "Statistical Phrase-Based Translation." In Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology, pp. 48-54. Kurohashi, S. and Nagao, M. (1994). "Automatic Detection of Discourse Structure by Checking Surface Information in Sentences." In Proceedings of the 15th International Conference on Computational Linguistics, pp. 1123-1127. Lerner, U. and Petrov, S. (2013). "Source-Side Classifier Preordering for Machine Translation." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Luckhardt, H. D. (1991). "Sublanguages in Machine Translation." In Proceedings of the 5th Conference of the European Chapter of the Association for Computational Linguistics, pp. 306-308. Marcu, D., Carlson, L., and Watanabe, M. (2000). "The Automatic Translation of Discourse Structures." In Proceedings of the 1st North American Chapter of the Association for Computational Linguistics Conference, pp. 9-17. Mellebeek, B., Owczarzak, K., Groves, D., Van Genabith, J., and Way, A. (2006). "A Syntactic Skeleton for Statistical Machine Translation." In Proceedings of the 11th Conference of the European Association for Machine Translation, pp. 195-202. Meyer, T., Popescu-Belis, A., Hajlaoui, N., and Gesmundo, A. (2012). "Machine Translation of Labeled Discourse Connectives." In Proceedings of the 10th Biennial Conference of the Association for Machine Translation in the Americas, 10 pages. Meyer, T., Popescu-Belis, A., Zufferey, S., and Cartoni, B. (2011). "Multilingual Annotation and Disambiguation of Discourse Connectives for Machine Translation." In Proceedings of 12th SIGdial Meeting on Discourse and Dialogue, pp. 194-203. Miltsakaki, E., Dinesh, N., Prasad, R., Joshi, A., and Webber, B. (2005). "Experiments on Sense Annotations and Sense Disambiguation of Discourse Connectives." In Proceedings of the 4th Workshop on Treebanks and Linguistic Theories. Murakami, J., Fujiwara, I., and Tokuhisa, M. (2013). "Pattern-Based Statistical Machine Translation for NTCIR-10 PatentMT." In Proceedings of the 10th NTCIR Conference, pp. 350-355. Murakami, J., Tokuhisa, M., Ikehara, S. (2009). "Statistical Machine Translation adding Patternbased Machine Translation in Chinese-English Translation." In Proceedings of 6th International Workshop on Spoken Language Translation, pp. 107-112. 中澤敏明, 黒橋禎夫 (2008). 自動学習された機能語の翻訳パターンを用いた用例べース機械翻訳. 言語処理学会第 14 回年次大会発表論文集, pp. 37-40. 西村拓哉, 村上仁一, 徳久雅人, 池原悟 (2010). 文単位のパターンを用いた統計翻訳. 言語処理学会第 16 回年次大会発表論文集, pp. 676-679. Papineni, K., Roukos, S., Ward, T., and Zhu, W. J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Petrov, S., Barrett, L., Thibaux, R., and Klein, D. (2006). "Learning Accurate, Compact, and Interpretable Tree Annotation." In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 433-440. Pitler, E. and Nenkova, A. (2009). "Using Syntax to Disambiguate Explicit Discourse Connectives in Text." In Proceedings of the Joint conference of the 47th Annual Meeting of the Association for Computational Linguistics and the 4th International Joint Conference on Natural Language Processing of the Asian Federation of Natural Language Processing, Short Papers, pp. 13-16. Quirk, C., Menezes, A., and Cherry, C. (2005). "Dependency Treelet Translation: Syntactically Informed Phrasal SMT." In Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics, pp. 271-279. Roh, Y. H., Lee, K. Y., Choi, S. K., Kwon, O. W., and Kim, Y. G. (2008). "Recognizing Coordinate Structures for Machine Translation of English Patent Documents." In Proceedings of the 22nd Pacific Asia Conference on Language, Information and Computation, pp. 460-466. 坂田純, 徳久雅人, 村上仁一 (2014), 意味的等価変換方式による句レベルパターン翻訳方式の調查. 言語処理学会第 18 回年次大会発表論文集, pp. 1-20. Shinmori, A., Okumura, M., Marukawa, Y., Iwayama, M. (2003). "Patent Claim Processing for Readability-Structure Analysis and Term Explanation-." In Proceedings of the Workshop on Patent Corpus Processing, Association for Computational Linguistics, pp. 56-65. Sudoh, K., Duh, K., Tsukada, H., Hirao, T., and Nagata, M. (2010). "Divide and Translate: Improving Long Distance Reordering in Statistical Machine Translation." In Proceedings of the Joint 5th Workshop on Statistical Machine Translation and MetricsMATR, pp. 418-427. Sudoh, K., Suzuki, J., Tsukada, H., Nagata, M., Hoshino, S., and Miyao, Y. (2013). "NTT-NII Statistical Machine Translation for NTCIR-10 PatentMT." In Proceedings of 9th NTCIR Conference 2013, pp. 294-300. Tu, M., Zhou, Y., and Zong, C. (2013). "A Novel Translation Framework Based on Rhetorical Structure Theory." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, pp. 370-374. Utiyama, M. and Isahara, H. (2007). "A Japanese-English Patent Parallel Corpus." In Proceedings of the 11th Machine Translation Summit, pp. 475-482. The World Intellectual Property Organization (WIPO) (2014). "WIPO Patent Drafting Manual." In IP Assets Management Series. Wu, D. and Fung, P. (2009). "Semantic Roles for SMT: A Hybrid Two-Pass Model." In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics, Companion Volume: Short Papers, pp. 13-16. Xia, F. and McCord, M. (2004). "Improving A Statistical MT System with Automatically Learned Rewrite Patterns." In Proceedings of the 20th International Conference on Computational Linguistics, pp. 508-514. Xiao, T., Zhu, J., and Zhang, C. (2014). "A Hybrid Approach to Skeleton-based Translation." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 563-568. Xiong, H., Xu, W., Mi, H., Liu, Y., and Liu, Q. (2009). "Sub-Sentence Division for Treebased Machine Translation." In Proceedings of the Joint Conference of the 47th Annual Meeting of the Association for Computational Linguistics and 4th International Joint Conference on Natural Language Processing of the Asian Federation of Natural Language Processing Conference Short Papers, pp. 137-140. Yang, N., Li, M., Zhang, D. and Yu, N. (2012). "A Ranking-based Approach to Word Reordering for Statistical Machine Translation." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics, pp. 912-920. Zhang, X. and Xue, N. (2012). "Extending and Scaling up the Chinese Treebank Annotation." In Proceedings of the 2nd CIPS-SIGHAN Joint Conference on Chinese Language Processing, pp. 27-34. ## 付録 ## A 実験に用いた SCFG 規則 本研究の実験で用いた, 日英翻訳用, 中日翻訳用, 日中翻訳用の SCFG 規則一覧を図 10 , 図 11 ,図 12 に示す。なお,英日翻訳用の SCFG 規則一覧は図 5 に掲載している。図 13 には,日英翻訳用 SCFG 規則 $R_{\mathrm{je} 2}$ に対応する日英対訳例を掲載している。この例では, 入力日本語文で文頭と文末に重複して現れる PREA の構造部品が,対応する英語文では一つの PREA となっているような, 典型的な特許請求項の対訳文を示している. \\ 図 10 日英翻訳のための SCFG 規則一覧 \\ 図 11 中日翻訳のための SCFG 規則一覧 \\ 図 12 日中翻訳のための SCFG 規則一覧 [S [PREA 安全ヘルメット] [TRANであって、] [BODY [PURP 接合手段が、一組の防振要素を互いに連結する単一構造を含み、] [PURP 前記単一構造が蜘蛛の形態であり、その蜘蛛の頭部が上部防振要素に固定され、かつその蜘蛛の各脚が、前記上部防振要素と周囲防振要素との間をつなぎ合わせるように働き、] [PURP 前記上部および周囲防振要素が前記単一構造にオーバーモールドすることにより得られることを特徴とする、]] [PREA 安全ヘルメット。]] (a) 入力日本語請求項文 [s [PREA A safety helmet,] [TRAN wherein:] [BODy [PURP the joining means comprises a single structure connecting the set of damping elements to one another,] [PURP wherein the single structure is in the form of a spider, the head of which is fixed to a top damping element and each leg of which performs joining between the top damping element and a peripheral damping element, and] [PURP wherein the top and peripheral damping elements are obtained by overmolding on the single structure.]]] (b) 対応する英語請求項文 図 13 日英翻訳用 $S C F G$ 規則 $R_{\mathrm{j} 22}$ に対応する日英対訳例 ## 略歴 富士秀:1987 年英国王立ロンドン大学キングス校工学部卒業. 1988 年より 株式会社富士通研究所研究員, シニアリサーチャー. 2014 年より国立研究開発法人情報通信研究機構に出向中. 2015 年より奈良先端科学技術大学院大学博士後期課程在学中. 機械翻訳, 多言語処理の研究に従事. 情報処理学会, 言語処理学会, AAMT, 日本言語類型論学会等各会員. 藤田篤:2000 年九州工業大学情報工学部卒業. 2005 年奈良先端科学技術大 学院大学情報科学研究科博士後期課程修了. 博士 (工学). 現在, 国立研究開発法人情報通信研究機構主任研究員. 自然言語処理, 主に言い換え表現の生成と認識, 機械翻訳の研究に従事. 情報処理学会, 言語処理学会等各会員. 内山将夫:1992 年筑波大学卒業. 1997 年同大学院工学研究科修了. 博士 (工学). 現在, 国立研究開発法人情報通信研究機構主任研究員. 主な研究分野は機械翻訳. 情報処理学会, 言語処理学会等各会員. 隅田英一郎:1982 年電気通信大学大学院修士課程修了. 1999 年京都大学大学院博士 (工学) 取得. 1982 年 1991 年((株)日本アイ・ビー・エム東京基礎研究所研究員. 1992 年 2009 年国際電気通信基礎技術研究所研究員, 主幹研究員, 室長. 2007 年国立研究開発法人情報通信研究機構 (NICT), 現在, 先進的音声翻訳研究開発推進センター (ASTREC) 副センター長. 2016 年 NICT フェロー. 機械翻訳の研究に従事. 松本裕治:1977 年京都大学工学部情報工学科卒. 1979 年同大学大学院工学研究科修士課程情報工学専攻修了. 同年電子技術総合研究所入所. 1984 85 年英国インペリアルカレッジ客員研究員. 1985~87 年(財)新世代コンピュー 夕技術開発機構に出向. 京都大学助教授を経て, 1993 年より奈良先端科学技術大学院大学教授, 現在に至る. 工学博士. 専門は自然言語処理. 情報処理学会, 人工知能学会, AAAI, ACL, ACM 各会員. 情報処理学会フェロー. ACL Fellow. $(2016$ 年 3 月 24 日受付 $)$ $(2016$ 年 7 月 3 日再受付 $)$ $(2016$ 年 8 月 26 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 言語横断質問応答に適した機械翻訳評価尺度の調査 杉山享志朗 $\dagger$ ・水上 雅博 $^{\dagger} \cdot$ Graham Neubig $^{\dagger}$ $\cdot$ 吉野幸一郎 $\dagger$鈴木 優† $\cdot$ 中村 哲 $\dagger$ 質問応答システムが高い精度で幅広い質問に解答するためには,大規模な知識べー スが必要である。しかし,整備されている知識べースの規模は言語により異なり,小規模の知識べースしか持たない言語で高精度な質問応答を行うためには,機械翻訳を用いて異なる言語の大規模知識べースを利用して言語横断質問応答を行う必要 がある. ところが, このようなシステムでは機械翻訳システムの翻訳精度が質問応答の精度に影響を与える。一般的に, 機械翻訳システムは人間が与える評価と相関 を持つ評価尺度により精度が評価されている。そのため, この評価尺度による評価值が高くなるように機械翻訳システムは最適化されている。しかし, 質問応答に適 した翻訳結果は, 人間にとって良い翻訳結果と同一とは限らない。つまり, 質問応答システムに適した翻訳システムの評価尺度は, 人間の直感に相関する評価尺度と は必ずしも合致しないと考えた。そこで本論文では, 複数の翻訳手法を用いて言語横断質問応答データセットを作成し, 複数の評価尺度を用いてそれぞれの翻訳結果 の精度を評価する。そして,作成したデータセットを用いて言語横断質問応答を行 い,質問応答精度と翻訳精度との相関を調査する。これにより,質問応答精度に影響を与える翻訳の要因や,質問応答精度と相関が高い評価尺度を明らかにする。さ らに,自動評価尺度を用いて翻訳結果のリランキングを行うことによって, 言語横断質問応答の精度を改善できることを示す. キーワード:言語横断質問応答,機械翻訳,自動評価尺度 ## An Investigation of Machine Translation Evaluation Metrics in Cross-lingual Question Answering Kyoshiro Sugiyama ${ }^{\dagger}$, Masahiro Mizukami $^{\dagger}$, Graham Neubig $^{\dagger}$, Koichiro $^{\text {Yoshino }}{ }^{\dagger}$, Yu SuzukI ${ }^{\dagger}$ and Satoshi NaKamura ${ }^{\dagger}$ Through using knowledge bases, question answering (QA) systems have come to be able to answer questions accurately over a variety of topics. However, knowledge bases are limited to only a few major languages, and thus it is often necessary to build QA systems that answer questions in one language based on an information source in another language (cross-lingual QA: CLQA). Machine translation (MT) is one tool to achieve CLQA, and it is intuitively clear that a better MT system improves QA accuracy. However, it is not clear whether an MT system that is better for human consumption is also better for CLQA. In this paper, we investigate the relationship  between manual and automatic translation evaluation metrics and CLQA accuracy by creating a data set using both manual and machine translation, and performing CLQA using this created data set. As a result, we find that QA accuracy is closely related with a metric that considers frequency of words, and as a result of manual analysis, we identify two factors of translation results that affect CLQA accuracy. One is mistranslation of content words and another is lack of question type words. In addition, we show that using a metric which has high correlation with CLQA accuracy can improve CLQA accuracy by choosing an appropriate translation result from translation candidates. Key Words: Cross-lingual Question Answering, Machine Translation, Evaluation Metrics ## 1 はじめに 質問応答とは, 入力された質問文に対する解答を出力するタスクであり, 一般的に文書, Web ページ,知識ベースなどの情報源から解答を検索することによって実現される.質問応答はその応答の種類によって, 事実型 (ファクトイド型) 質問応答と非事実型(ノンファクトイド型)質問応答に分類され, 本研究では事実型質問応答を取り扱う。近年の事実型質問応答では, 様々な話題の質問に解答するために, 構造化された大規模な知識ベースを情報源として用いる手法が盛んに研究されている (Kiyota, Kurohashi, and Kido 2002; Tunstall-Pedoe 2010; Fader, Zettlemoyer, and Etzioni 2014). 知識ベースは言語によって規模が異なり, 言語によっては小規模な知識べー スしか持たない.例えば,Web上に公開されている知識べースには Freebase ${ }^{1}$ や DBpedia ${ }^{2}$ などがあるが,2016 年 2 月現在, 英語のみに対応している Freebase に収録されているエンティティが約 5,870 万件, 多言語に対応した DBpedia の中で英語で記述されたエンティティが約 377 万件であるのに対し,DBpediaに含まれる英語以外の言語で記述されたエンティティは 1 言語あたり最大 125 万件であり,収録数に大きな差がある.知識べースの規模は解答可能な質問の数に直結するため,特に言語資源の少ない言語での質問応答では,質問文の言語と異なる言語の情報源を使用する必要がある。このように,質問文と情報源の言語が異なる質問応答を,言語横断質問応答と呼ぶ. こうした言語横断質問応答を実現する手段として,機械翻訳システムを用いて質問文を知識ベースの言語へ翻訳する手法が挙げられる (Shimizu, Fujii, and Itou 2005; Mori and Kawagishi 2005)。一般的な機械翻訳システムは,人間が高く評価する翻訳を出力することを目的としているが,人間にとって良い翻訳が必ずしも質問応答に適しているとは限らない. Hyodo ら (Hyodo ^{1}$ https://www.freebase.com/ 2 http://wiki.dbpedia.org/ } and Akiba 2009) は,内容語のみからなる翻訳モデルが通常の翻訳モデルよりも良い性能を示したとしている。また, Riezler らの提案した Response-based online learning では, 翻訳結果評価関数の重みを学習する際に質問応答の結果を利用することで,言語横断質問応答に成功しやすい翻訳結果を出力する翻訳器を得られることが示されている (Riezler, Simianer, and Haas 2014; Haas and Riezler 2015). Reponse-based learning では学習時に質問応答を実行して正解できたかを確認する必要があるため, 質問と正解の大規模な並列コーパスが必要となり, 学習にかかる計算コストも大きい。これに対して,質問応答に成功しやすい文の特徴を明らかにすることができれば, 質問応答成功率の高い翻訳結果を出力するよう翻訳器を最適化することが可能となり, 効率的に言語横断質問応答の精度を向上させることが可能であると考えられる. さらに,質問と正解の並列コーパスではなく, 比較的容易に整備できる対訳コーパスを用いて翻訳器を最適化することができるため, より容易に大規模なデータで学習を行うことができると考えられる。 本研究では,どのような翻訳結果が知識べースを用いた言語横断質問応答に適しているかを明らかにするため,知識べースを利用する質問応答システムを用いて 2 の調査を行う. 1 目の調査では, 言語横断質問応答精度に寄与する翻訳結果の特徴を調べ, 2 つ目の調査では, 自動評価尺度を用いて翻訳結果のリランキングを行うことによる質問応答精度の変化を調べる。調査を行うため,異なる特徴を持つ様々な翻訳システムを用いて,言語横断質問応答データセットを作成する(3節).作成したデータセットに対し,4節に述べる質問応答システムを用いて質問応答を行い,翻訳精度(5.1 節)と質問応答精度(5.2 節)との関係を分析する(5.3 節)。また, 個別の質問応答事例について人手による分析を行い,翻訳結果がどのように質問応答結果に影響するかを考察する (5.4 節)。さらに, 5.3 節および 5.4 節における分析結果から明らかとなった, 質問応答精度と高い相関を持つ自動評価尺度を利用して,翻訳 $N$ ベストの中から翻訳結果を選択することによって,質問応答精度がどのように変化するかを調べる(5.5 節)。このようにして得られる知見は日英という言語対に限られたものとなるため, さらに一般化するために様々な言語対で言語横断質問応答を行い,言語対による影響を調査する (5.6 節). 最後に,言語横断質問応答に適した機械翻訳システムを実際に構築する際に有用な知見をまとめ, 今後の展望を述べて本論文の結言とする(6節). ## 2 本調査の概観 本論文では 2 種類の調査を行う。 1 つ目は言語横断質問応答に対する翻訳結果の影響に関する調査である。翻訳結果の訳質評価結果と言語横断質問応答精度の関係を求め, その結果からどのような特徴を持つ翻訳結果が言語横断質問応答に適しているかを明らかにする。2つ目は 1 つ目の調査結果から,言語横断質問応答に適応した翻訳をできるかについての調査である。具 体的には 1 つ目の調査で質問応答精度との相関が高かったスコアを用いて翻訳結果のリランキングを行い,質問応答精度がどのように変化するかについて調べる。これにより,質問応答精度との相関が高いスコアを用いた翻訳結果によって質問応答精度を改善できることを確認する。 ## 2.1 言語横断質問応答精度に影響する翻訳結果の調査 1つ目の調査では,翻訳結果がどのように言語横断質問応答精度に影響を与えるかを調べる。実験の概要を図 1 に示す。本調査は,以下の手順で行う。 翻訳を用いたデータセット作成質問応答に使用されることを前提として作成された英語質問応答データセットを用意し,その質問文を理想的な翻訳結果と仮定する。まず,理想的な英語質問セットを人手で和訳し(図中の「人手翻訳」),日本語質問セットを作成する.続いて, これらの日本語質問セットを,様々な翻訳手法を用いて英訳し(図中の「翻訳手法 $1 \sim n\rfloor)$ ,英語質問セットを作成する。 翻訳精度測定作成した英語質問セットについて,複数の評価尺度を用いて翻訳精度の評価を行う(翻訳精度評価システム)。この時,参照訳は理想的な英語質問セットに含まれる質問文とする。 質問応答精度測定理想的な英語質問セットと, 作成した英語質問セットそれぞれについて, 同一の質問応答器による質問応答実験を行い,質問応答精度を測定する。 分析複数の翻訳精度評価尺度それぞれについて, どのような特徴を持つ評価尺度が質問応答精度と高い相関を持つかを調べる。また, 質問セット単位ではなく, 文単位でも翻訳精度と質問応答精度との相関を分析する。この際,正確な翻訳であっても正解するのが難しいと思われる質問が存在することを考慮するため,理想的な質問文で正解したかどう 図 1 質問応答精度に影響する翻訳結果の調査実験概要 図 2 自動評価尺度を用いた翻訳結果選択 かで 2 グループに分けて分析する。 さらに,個別の質問応答事例について人手で確認し, どのような翻訳結果が質問応答の結果を変化させるかを考察する. ## 2.2 自動評価尺度を用いた翻訳結果選択による質問応答精度改善 前節に述べた実験により得た知見を元に,できる限り既存の資源・システムを用いて言語横断質問応答精度を向上させる可能性を探る。図 2 に調査方法の概要を示す。まず,翻訳結果をもっともらしいものから $N$ 通り出力する $N$ ベスト出力を行う。質問応答精度と高い相関を持つ評価尺度を用いて, $N$ ベストから翻訳結果を選択することによって質問応答精度の向上が見られれば,そのような評価尺度が高くなるように翻訳結果を選択することで質問応答システムの精度が向上することが期待できる. ## 3 データセット作成 本調査では, 日英言語横断質問応答を想定した実験を行うため, 基本となる英語質問応答セットとそれを和訳した日本語質問応答セット,日本語質問応答セットから翻訳された英語質問応答セットという 3 種類の質問応答セットを用いた。本節では, これらのデータセットの作成方法について述べる。 ## 3.1 作成手順 基本となる英語質問セットとして, Free917 (Cai and Yates 2013)を用いた. Free917 は Freebase と呼ばれる大規模知識べースを用いた質問応答のために作成されており,知識ベースを用いた質問応答の研究に広く利用されている (Cai and Yates 2013; Berant, Chou, Frostig, and Liang 表 1 各質問セットに含まれる質問文と正解クエリの例 2013).このデータセットは 917 対の英語質問文と正解で構成され, 各正解は Freebase のクエリの形で与えられている. 先行研究 (Cai and Yates 2013) に従い, このデータセットを train セット(512 対), devセット(129 対), test セット(276 対)に分割した. 以降,この翻訳前の test セットを OR セットと呼ぶ。まず,OR セットに含まれる質問文を和訳し,日本語質問セット (JA セット)とした。和訳は,1名による人手翻訳で行った。なお, 今回は日本語の人手翻訳を各セットに対して 1 通りのみ用意するが,この人手翻訳における微妙なニュアンスが以降の機械翻訳に影響を与える可能性がある。次に,JA セットに含まれる質問文を後述する 5 種類の翻訳手法によって翻訳し, 各英語質問セット (HT, GT, YT, Mo, Tra)を作成した. 質問応答セットの一部を表 1 に示す. ## 3.2 比較した翻訳手法 本節では,質問セット作成で比較のため用いた 5 種類の翻訳手法について述べる. 人手翻訳翻訳業者に日英翻訳を依頼し,質問文の日英翻訳を行った。これによって作成したデータセットを HT セットと呼ぶ。人手による翻訳結果は人間にとってほぼ最良の翻訳であると考えられ,人間が高く評価する翻訳結果が言語横断質問応答にも適しているかを調べるために HT セットを作成した。 商用翻訳システム Web ページを通して利用できる商用翻訳システムである Google 翻訳 ${ }^{3}$ と Yahoo!翻訳4を利用して日英翻訳を行った。これらの枠組みや学習に用いられているデー 夕の詳細は公開されていない. Google 翻訳の翻訳結果を用いて作成した英語質問応答セットをGT セット,Yahoo!翻訳の翻訳結果を用いて作成したものを YTセットと呼ぶ. これらの機械翻訳システムは商用目的に作成されており,実用的な品質を持つと考えられるため,機械翻訳の精度についての目安となることを期待して使用した.  フレーズベース翻訳統計的機械翻訳で最も代表的なシステムである Moses (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007) を用いて作成されたフレーズベース機械翻訳を用いて質問文を翻訳した,学習には,英辞郎例文 ${ }^{5}$ ,京都フリー翻訳タスクの Wikipediaデータ ${ }^{6}$, 田中コーパス 7 , 日英法令コーパス ${ }^{8}$, 青空文庫 ${ }^{9}$, TED 講演 ${ }^{10}$, BTEC,オープンソース対訳11を利用した。また, 辞書として英辞郎, WWWJDIC ${ }^{12}$, Wikipediaの言語間リンク13 を利用した。合計で,対訳コーパス約 255 万文, 辞書約 277 万エントリーである. Moses による翻訳結果を用いて作成したデータセットを Mo セットと呼ぶ. Tree-to-string 翻訳Tree-to-string 機械翻訳システムである Travatar (Neubig 2013) を用いて質問文を英訳した。学習に用いたデー夕は Moses と同様である。Travatarによる翻訳結果を用いて作成したデータセットを Tra セットと呼ぶ. Mo セット,Tra セットの作成に用いた翻訳器は,翻訳過程に用いられる手法が明らかであり,翻訳過程という観点からの分析に必要であると考え,これらのセットを作成した。 ## 4 質問応答システム 本研究では, 質問応答を行うために SEMPRE ${ }^{14}$ という質問応答フレームワークを利用した. SEMPRE は,大規模知識ベースを利用し,高水準な質問応答精度が示されている (Berant et al. 2013).本節ではSEMPREの動作を述べ,言語横断質問応答に利用する場合に,どのような翻訳が各動作に影響を与えるかを考察する。図 3 に SEMPRE フレームワークの動作例を示し,その動作についてアライメント,ブリッジング,スコアリングの三段階に分けて説明する. アライメント (Alignment) アライメントでは, 質問文中のフレーズからクエリの一部となるエンティティやプロパティを生成する。このためには, レキシコン (Lexicon)と呼ばれる,自然言語フレーズからエンティティ/プロパティへのマッピングを事前に作成する必要がある。レキシコンは大規模なテキストコーパスと知識ベースを用いて共起情報などを元に作成される. 本研究では先行研究 (Berant et al. 2013) に従い, ClueWeb09 ${ }^{15}$ (Callan, Hoy,  Yoo, and Zhao 2009) と呼ばれるデータセットに含まれる新聞記事のコーパスと Freebase を用いて作成されたレキシコンを用いた。図 3 の例では, “college”から Type.University のエンティティが生成され,“Obama”から BarackObama のエンティティが生成されている. アライメントに最も影響を及ぼすと考えられる翻訳の要因は,単語の変化である。質問文の中の部分文字列はアライメントにおける論理式の選択に用いられるため, 誤って翻訳された単語はアライメントでの失敗を引き起こすと考えられる。 ブリッジング (Bridging) アライメントによって作成されたエンティティノプロパティの系列について, 隣接するエンティティやプロパティを統合し, 知識ベースに入力するクエリを生成する。ブリッジングは隣接する論理式から新たな論理式を生成し, 統合する動作である。図 3 の例では, Type.University と BarackObama が隣接しており, 両者を繋ぐ論理式として Education が生成されている. ブリッジングに影響を及ぼすと考えられる翻訳の要因は,語順の変化である.語順が異なるとアライメントで生成される論理式の順序が変化するため, 隣接する論理式の組み合わせが変化する。したがって,翻訳結果の語順が誤っていた場合,ブリッジングでの失敗を引き起こすと予想される。 スコアリング (Scoring) アライメントとブリッジングでは, 網羅的に組合せを試し, 多数のクエリ候補を出力する。 スコアリングでは, 評価関数に基づいて候補の導出過程を評価し, ## Occidental College, Columbia University ## Type.UniversityпEducation.BarackObama 図 3 SEMPRE フレームワークによる質問応答の動作例 最も適切な候補を選択する。図 3 の例では, Type.University $\sqcap$ Education.BarackObama というクエリ候補のスコアを,「“college”から Type.University を生成」し,「“Obama”から BarackObama を生成」し,「Education でブリッジする」という導出過程に対して決定する。質問応答システムの学習では,正解を返すクエリを導出することができた導出過程に高いスコアが付くよう評価関数を最適化する。 言語横断質問応答に最適な評価関数は単言語質問応答と異なる可能性があり,翻訳はこの処理にも影響する可能性がある。しかしながら,言語横断質問応答に最適化するよう学習するためには翻訳された学習データセットが必要であり,その作成には大きなコストがかかる。そのため, 本論文ではこれに関する調査は行っていない. ## 5 実験 本実験では,言語横断質問応答においてどのような翻訳の要因が質問応答精度に影響を及ぼすかを調査した.そのために, 3 節で述べたデータセットと 4 節で述べた質問応答システムを用い,日本語の質問文を翻訳システムで英語の質問文に変換し,英語の単言語質問応答器によって解答を得るという状況を想定した実験を行った。 ## 5.1 実験 1:翻訳された質問セットの訳質評価 翻訳精度と質問応答精度の関係を調査するため, まず翻訳結果の訳質を評価した。 ## 5.1.1 実験設定 本実験では,JA セットの質問文から翻訳された 5 つの英語質問応答セットに含まれる質問文の訳質をいくつかの自動評価尺度および人手評価によって評価した。自動評価尺度の参照訳としては, OR セットの質問文を用いた。これは, JA セットの質問文の理想的な英訳が OR セットの質問文であると仮定することに相当する。評価尺度には,4つの訳質自動評価尺度 (BLEU+1 (Lin and Och 2004), NIST (Doddington 2002), RIBES (Isozaki, Hirao, Duh, Sudoh, and Tsukada 2010), WER (Leusch, Ueffing, and Ney 2003)) と, 人手による許容性評価 (Acceptability) (Goto, Chow, Lu, Sumita, and Tsou 2013)を用いた. BLEU+1 BLEU+1は, 最初に提案された自動評価尺度である BLEU (Papineni, Roukos, Ward, and Zhu 2002)の拡張 (平滑化版) である,BLEUは,参照訳と翻訳仮説との間の n-gram 適合率を基準とした評価を行うため,局所的な語順を評価する評価尺度であると言える。短い訳出には参照訳の長さに応じたペナルティを与えることで極端な翻訳に高いスコアを与えないよう設計されている,BLEU はコーパス単位の評価を想定した評価尺度であるが,BLEU+1 は平滑化を導入することで文単位での評価でも BLEU と比べて極端な值 が出づらくなっている。評価値は $0 \sim 1$ の実数で,参照訳と完全に一致した文の評価は 1 となる. RIBES RIBES は単語の順位相関係数に基づいた評価尺度であり,大域的な語順を捉えることができる。その特性から,日英・英日のように大きく異なる文構造の言語対の翻訳評価で人間評価と高い相関が認められている。評価値は $0 \sim 1$ の実数で, 参照訳と完全に一致した文の評価は 1 である. NIST NIST スコアは, BLEU や BLEU +1 と同じく n-gram 適合率に基づいた評価尺度であるが, 各 n-gramに出現頻度に基づいて重み付けをする点でそれらと異なる。低頻度の語ほど大きな重みが与えられ,結果として頻出する機能語よりも低頻度な内容語に重点を置いた評価尺度となる。評価値は正の実数で与えられ,上限が設定されない。本研究では,参照訳と完全に一致した文の評価値で除算することで,01の範囲に正規化した値を用いる。 WER WER (Word Error Rate: 単語誤り率) は参照訳と翻訳仮説の編集距離を語数で割ることで得られる尺度で, BLEU や RIBES より厳密に参照訳との語順・単語の一致を評価する。WER は誤り率を表し,低いほどよい翻訳仮説となるため,他の評価尺度と軸向きを揃えるために $1-W E R$ の値を用いた. 許容性 (Acceptability) 許容性は人間による 5 段階の評価である。この評価尺度では, 意味的に正しくなければ 1 と評価され, 意味理解の容易さ, 文法的な正しさ, 流暢性によって2から5の評価が行われる。評価値は 1~5の整数であるが,他の評価尺度と比率を合わせるため,0〜1に正規化した値を用いる. ## 5.1.2 実験結果 JA セットの質問文を入力とし, OR セットの質問文を参照訳とした時の各翻訳結果の評価値を図 4 に示す. 図 4 より, 人手翻訳の訳質は全ての評価尺度において機械翻訳のものよりも高いことが読み取れる。次に,GTとYTに着目すると,BLEUと NIST では GT が高く, RIBES と許容性では YTが高い. これは先行研究 (Isozaki et al. 2010)と同様の結果となっており, 日英翻訳での RIBES と人手評価による許容性との相関が高いという特性が確認された. また, Mo と Traを比べると,Traの翻訳精度が劣っている,通常,日英間の翻訳では,文構造を捉える Tree-to-string 翻訳の精度が比較的良くなるとされているが, 今回は翻訳対象が質問文であるため, 通常と異なる文型に偏っていることと, 各入力文がそれほど長くなく構造が単純である傾向があるため,文構造を捉える長所が生かされなかったことなどが原因と考えられる。次節で,このような特性が人間相手ではなく質問応答システムの入力として用いた場合でも同様に現れるかどうかを検証する。 図 4 訳質評価値(平均) ## 5.2 実験 2: 翻訳された質問セットを用いた質問応答 次に,翻訳精度との関係を調査するため,作成したデータセットを用いて質問応答を行い,質問応答精度を測定した。 ## 5.2.1 実験設定 本実験では 4 節で述べた質問応答フレームワーク SEMPREを用いて,3節で述べた手順で作成した 4 つの質問セット及び OR セットの質問応答実験を行い,各セットの質問応答精度を測定した.レキシコンには, ClueWeb09 の新聞記事コーパスと Freebase から構築されたものを使用した。また, 評価関数の学習には, Free917の Train セットとDev セットを用いた。テストセットとして使用した質問 276 問のうち 12 問で, 正解論理式を Freebase に入力した際に出力が得られなかったため,これらを除いた 264 問の結果を用いて質問応答精度を測定した. ## 5.2.2 実験結果 各データセットの質問応答の結果を図 5 に示す。図 5 より,元のセット(OR セット)であっても約 $53 \%$ の精度に留まっていることがわかる。また, HT セットの精度は機械翻訳で作成した他のデータセットと比較して高いことが読み取れる。しかしながら図 4 に示したように高い訳質を持つ HT セットであっても,OR セットと比べると質問応答精度は有意水準 $5 \%$ で有意に低いという結果となった(対応有り $\mathrm{t}$ 検定),機械翻訳で作成したセットの中では,GTが最も 図 5 各データセットにおける質問応答精度 質問応答精度が高く,HT セットの結果との差は有意と言えない結果となった。また,YT は た.これらの結果は,人間にとって分かりやすい翻訳結果は必ずしも質問応答に適する翻訳結果であるとは限らないことを示唆している. 5.3 節, 5.4 節で, これらの現象について詳細な分析を行う. ## 5.3 質問応答精度と機械翻訳自動評価尺度の関係 質問応答精度に影響を及ぼす翻訳結果の要因をより詳細に分析するため, 訳質評価値と質問応答精度の相関を文単位で分析した。まず,図 5 に示すように,質問応答用に作成されたデー タセット (OR セット)であっても約半数の質問は正解できていない.参照訳で正解できていない質問は翻訳の結果に関わらず正解することが難しいと考え,質問を 2 つのグループに分けた.「正解グループ」は,OR セットにおいて正解することができた 141 問の翻訳結果 $141 \times 5=705$問からなるグループであり,「不正解グループ」は残りの 123 問の翻訳結果 $123 \times 5=615$ 問からなるグループである. 正解グループにおける質問応答精度と訳質評価值の関係を図 6 に示す. このグラフにおいて,棒グラフは評価値に対する質問数の分布を表し,折れ線グラフは評価値に対する正答率の変化 の質問の正答率は $35 \%$ 程度である。図中の $R^{2}$ は決定係数である。決定係数は, 線形回帰における全変動に対する回帰変動の割合を示し,値が 1 に近いほどよく当てはまる回帰直線である ことを示す。この図より,本実験に使用した全ての評価尺度は質問応答精度と相関を持ち,言語横断質問応答において訳質は重要であることを示している。また,質問応答精度は NIST スコアと最も高い決定係数を示した,前述したように,NIST スコアは単語の出現頻度を考慮した尺度であり,機能語よりも内容語を重要視する特徵を持つ。この結果から,内容語が言語横断質問応答において重要な役割を持つことが確認でき,これを考慮した翻訳を行うことで質問応答精度が改善できると考えられる。これは,内容語が 4 節に述べたアライメントにおける論理式選択において重要であることを考えると自然な結果と言える。また,NIST スコアによってこの影響を自動的に適切に評価できる可能性もこの結果から読み取れる. 一方で,人手評価との相関が高かった RIBES は, 質問応答精度においては決定係数が低いという結果となった。つまり,大域的な語順が言語横断質問応答のための翻訳にはそれほど重要ではない可能性があると言える。これらの結果を合わせると,語順に影響を受けやすいブリッジングよりも,単語の変化に影響を受けやすいアライメントの方が誤りに敏感であると考えられる。 Acceptability の図に着目すると, $1 \rightarrow 2$ と $3 \rightarrow 4$ で精度の上昇の幅が大きく, $2 \rightarrow 3$ や $4 \rightarrow$ 5 ではほとんど変化していない. Acceptability における評価値 1 は,「重要な情報が欠落しているか,内容が理解できない文」であることを示し,評価値 2 は「重要な情報が含まれており内容も理解できるが,文法的に誤っており理解が困難な文」であることを表す。このことからも,重要な情報や内容が欠落することは質問応答の精度に大きな影響を与えることがわかる。評価値 2 と 3 の差異は「容易に理解できるかどうか」である。この 2 つ評価値間で質問応答精度が大きく変わらないことは,人間にとっての理解の容易さは,質問応答精度の向上にはそれほど寄与しない可能性を示唆している。評価値 3 と 4 の差異は「文法的に正しいかどうか」である.この 2 つの間でも精度が大きく上昇しており文法が重要な可能性があるが, 評価值 4 と評価された文が少ないため誤差が含まれている可能性もある.この点については後の分析で述べる. 評価值 4 と 5 差異は「ネイテイブレベルの英語かどうか」である. この間では質問応答精度がほとんど変わらず, 評価値 5 の方が少し下がる傾向が見られた. 前述したように評価値 4 の文が少ないことによる誤差の可能性もあるが, ネイティブに用いられる言い回しが質問応答器にとっては逆効果となっている可能性も考えられる. 次に, 不正解グループにおける訳質評価値と質問応答精度の関係を図 7 に示す. 不正解グルー プにおいては, 全ての自動評価尺度において正解グループと比較して決定係数が低いという結果となった. この結果より, 参照訳で質問応答器が解答できない問題では, 翻訳を改善することで正解率を向上させるのが難しいということが言える。これは,言語横断質問応答のための翻訳器を評価する際の参照訳は質問応答器で正解可能であることが望ましいと言うこともできる。また, 質問応答成功率を予測できれば,質問応答成功率が高い文を参照訳として機械翻訳を最適化することでこの問題を軽減できると考えられる。 しかし, 正解グループ・不正解グルー 図 6 評価尺度値と質問応答精度の相関(正解グループ) 横軸:評価値の範囲 棒グラフ(左縦軸):質問数の割合 $(\%)$折れ線 (右縦軸):質問応答精度(範囲内平均) 図 7 評価尺度値と質問応答精度の相関(不正解グループ) 横軸:評価值の範囲 棒グラフ (左縦軸):質問数の割合 $(\%)$折れ線 (右縦軸):質問応答精度(範囲内平均) プのどちらにおいても,訳質評価尺度の値に対する質問数の分布は似通っており,訳質評価尺度でこの問題を解決することは困難であると考えられる。 ## 5.4 質問応答事例分析 本節では,翻訳によって質問応答の結果が変化した例を挙げながら,どのような翻訳結果の要因が影響しているかを考察する。 内容語の変化による質問応答結果の変化の例を表 2 に示す. 第 1 列は, 各質問文での質問応答が成功したかどうかを表す記号であり,○が成功, $\times$ が失敗を表す。表 2 の 1 つ目の例では, “interstate 579”という内容語が翻訳によって様々に変化している(“interstate highway 579”, “expressway 579”など). OR と Traの文のみが “interstate 579”というフレーズを含んでおり,これらを入力とした場合のみ正しく答えることができている.出力された論理式を見比べると,不正解であった質問文では interstate_579 のエンティティが含まれておらず,別のエンティティに変換されていた.例えば,HT に含まれる“interstate highway 579”というフレー ズは interstate_highway という音楽アルバムのエンティティに変換されていた. 2 つ目の例も同様に, “ibrettist”という内容語が翻訳によって様々に変化し, 不正解となっている. ここで, “librettist magic flute”という質問文を作成し質問応答を行ったところ正解することができたが, “who made magic flute”では不正解であったことから,“ibrettist”が重要な語であることがわかる.この例でも 1 つ目の例と同様に, librettist という Freebase 内のプロパティと一致する表 表 2 内容語の変化による質問応答結果の変化の例 現を含むことが質問応答の精度に寄与することが示唆される例である. このような例から, 内容語が変化することでアライメントが失敗し, 正しいエンティティが生成されないことや誤ったエンティティが生成されることが重要な問題であることが確認できる. この問題は,正しいエンティティと結びつきやすい内容語の表現を翻訳の過程で考慮することで改善できる可能性がある。また,これらの結果は本実験で使用した質問応答器の問題であるとも考えられ,言い換えを考慮できる質問応答器を用いることでも改善できる可能性がある. 次に,質問タイプを表す語の誤訳が質問応答結果の変化の原因となる例を表 3 に示す. 1 つ目の例では,内容語と考えられる "tv (television) programs”, “danny devito” (YT は綴りミスあり), “produce(d)”の3つは全ての翻訳結果に含まれているが,HT 以外は正解できていなかった. 正解できた質問文とそれ以外の質問文を比較すると,“how many”という質問タイプを表す語を含んでいることが必要であると考えられる.GT Poの質問文に対する解答を確認したところ,番組名をリストアップして答えており,正解とされる数と同じ数だけ答えていた。この例より,解答の形式を変化させるような質問タイプを示す語を,正確に翻訳する必要があることがわかる。一方で, 2 つ目の例では, “what”や“which”といった語が含まれていない Mo の質問文でも正解することができている。この例より,質問タイプを表す語であっても重要度が低いものがあると考えられる。したがって,言語横断質問応答のための翻訳器は,解答の形式を変えるような質問タイプ語の一致を重視することが求められる.質問タイプを表す語は内容語と異なり頻出するため,NIST スコアのように頻度に基づいて重要度を決めることは難しく,質問応答固有の指標が必要であると考えられる. 表 3 質問タイプ語の誤訳による質問応答結果の変化の例 文法や語順に関連する例を表 4 に示す。 1 つ目の例では,YT 以外の機械翻訳の結果は文法が整っていないにも関わらず全て正解している。一方,2つ目の例では,OR と HTでは文法が正しいにも関わらず不正解となっている. OR と HT の質問応答の結果を調べると, ベーブルー スの打撃成績を出力していた。これは,“babe ruth”と“play”が隣接しており,ブリッジングの際に結びついたためと考えられる。これらの例は,少なくともFree917に含まれるような単純な事実型質問においては,語順を正しく捉えることは質問応答精度の向上の観点からは必ずしも重要でないことを示している。ただし,より複雑な事実型質問や,非事実型質問に対して解答する際には,誤った語順の影響が強くなる可能性は否定できない. これらの例は,使用した質問応答システムが語順の影響を受けづらいものであったことによる可能性も考えられる。これを明らかにするためには様々な質問応答システムを用いて実験を行うことが必要であるが,それは今後の課題とする。 5.2.2 節で述べたように,人間にとってわかりやすい翻訳が質問応答にも成功しやすい翻訳とは限らない可能性がある,実際に質問応答の結果を見ると,質問応答の正誤と Acceptability の評価が反する例が確認された。その一例を表 5 に示す. 1 つ目の例では, “do you”というフレー ズを含むことによって文章の意味が変わっているため Acceptability は 1 と評価されているが,質問応答では正解できている。この例では内容語は正しく翻訳できており,“do you”というフレーズを無視することができたため正解することができたと考えられる.2つ目の例では,主に前置詞の意味の違いによって,GTは 2 という低い評価が付けられている。一方で YT は GT と比較して意味的に正しく翻訳されており 3 と評価されているが,質問応答の結果は不正解で 表 4 文法誤りを含む訳による質問応答結果の例 表 5 許容性と質問応答結果が反する例 あった. 質問応答の過程を見ると,OR と GTの文からは areas というテーマパークのエリアを示すプロパティが得られたのに対し, YTの文からは area という面積を示すプロパティが得られていた. このことから, 意味的に正しい文であることよりも内容語の表層的な一致がより重要であることがわかる.3つ目の例では,YT は固有名詞である“manny pacquiao”を“mannie pacquiao”としており,質問応答結果が不正解となっている.人間が固有名詞を判断するときには少々の誤字が含まれていたとしても読み取れることから,YTの文に 3 という評価値が付けられたと考えられるが,機械による質問応答においては,特に固有名詞中の誤字は重大な問題であることがこの例により示唆される. ## 5.5 実験 3: 自動評価尺度を用いてリスコアリングされた翻訳結果を用いた質問応答 5.3 節,5.4 節の分析の結果,質問応答精度と最も高い相関を持つ自動評価尺度は NIST スコアであった. したがって, NIST スコアが高評価となるよう翻訳システムを学習させることで,質問応答に適した翻訳システムとなる可能性がある。そこでまず,多数の翻訳結果から NIST スコアが最も高い翻訳結果を選択することで,質問応答精度が向上するかどうかを調べる。 ## 5.5.1 実験設定 翻訳 $N$ ベストの内,最も NISTの高い翻訳を使用した時の質問応答精度を調査する。本実験では, 翻訳器に Moses と Travatar を用い, $N=100$ とした。また, 比較のため BLEU +1 についても同様の実験を行った。 表 6 翻訳 100 ベスト選択実験結果 ## 5.5.2 実験結果 表 6 に実験結果を示す。また,比較のため翻訳システム第一位の結果を用いた場合の精度も表中に示す。表より,翻訳 $N$ ベストの中から適切な選択を行うことで,質問応答の精度が向上することがわかる.特に Travatar を用いた言語横断質問応答において,BLEU+1 および NIST スコアを用いて翻訳結果を選択することで,有意水準 $5 \%$ 統計的有意に質問応答精度が向上している。また,選択基準に NIST スコアを選んた場合の正答率は,選択基準に BLEU +1 を選んだ時の正答率よりも向上する傾向にある。これらの結果は, 機械翻訳器の最適化によって言語横断質問応答の精度を改善できる可能性を示している. 本実験で使用した選択手法は,質問応答精度の高い参照訳が必要であり,未知の入力の翻訳結果選択に直接用いることはできない。しかし, 質問応答精度と高い相関を持つ評価尺度に基づいて翻訳器を最適化することで, 質問応答精度の高い翻訳結果を得ることが可能であると考えられる。 ## 5.6 実験 4: 様々な言語対での翻訳精度と質問応答精度の関係調査 実験 1 から 3 では,日英言語横断を行い,訳質と翻訳精度の関係について調査した。次に,日英以外の言語対における言語横断質問応答においても,同様の結果が得られるかどうかを調査する。 ## 5.6.1 データセット作成 Haas らによって作成されたドイツ語版の free917 セット (Haas and Riezler 2015) を入手し, そのテストセットに含まれる質問文を Google 翻訳16および Bing 翻訳17を用いて英訳し,DE-GT  セットおよび DE-Bing セット(独英)を作成した。また, 3 章に示す手順に従い,OR セットに含まれる質問文を中国語,インドネシア(尼)語,ベトナム(越)語の母語話者に依頼して人手翻訳してもらい,それぞれの言語の質問セットを新たに作成した。次に,これらの 3 つの質問セットをそれぞれ Google 翻訳および Bing 翻訳を用いて英訳し,ZH-GT セット(中英), ID-GT セット (尼英), VI-GT セット (越英), ZH-Bing セット, VI-Bing セット, ID-Bing セットの 6 つの英語質問セットを作成した。また比較のため,JA セットをBing 翻訳を用いて英訳し, JA-Bing セット(日英)を作成した. ## 5.6.2 訳質評価と質問応答精度の関係 作成した 9 つの質問セットを用いて,4章に示す質問応答システムによる質問応答を行い, 質問応答精度を評価した。その結果を図 8 に示す。比較のため, 同翻訳手法を用いた日英の質問セット (JA-GT) での結果を合わせて示す. 図より, どの言語対においても, 翻訳による質問応答精度の低下は起こっており,その影響を緩和するような翻訳結果を得ることは重要であると言える。また,中英セットと越英セットの質問応答精度が他と比較して低いことから,同じ翻訳手法を用いても言語対によって影響に差があることがわかる. 次に,5.1.1 節に示す評価尺度の内,許容性評価を除く4つの評価尺度を用いて,前節で作成した 9つの質問セットの訳質を評価した。また各質問セットについて, 5.3 節と同様に参照訳での質問応答が正解できているかどうかで 2 つグループに分け,各グループ内での各評価尺度と質問応答精度との相関を測定した。ただし本実験では,評価値の範囲で平均するのではなく,各文の評価値と質問応答結果(完全正解で 1 ,完全不正解で 0 )を直接使用した。表 7 ,表 8 に示す結果より, どの言語対においても不正解グループの決定係数は正解グループに比べて小さ 図 8 様々な言語対における質問応答精度 表 7 評価尺度と質問応答精度との決定係数 (GT) (太字は正解グループ内の最大値) 表 8 評価尺度と質問応答精度との決定係数 (Bing) (太字は正解グループ内の最大値) く, 無相関に近いことがわかる. 正解グループの決定係数も最大 0.200 となっており図 6 の值と比べると小さいが,これはほぼ 2 值で表現される質問応答結果と連続值で表される評価尺度の間で相関を計算したことが原因であると考えられる。まず,全言語対の結果をまとめて計算した時(表中の右端の列),最も相関が高い評価尺度は NIST スコアであり,本実験で使用したどの言語対においても内容語の表層の一致が重要であることがうかがえる. 各言語対の正解グループの決定係数に着目すると, 日英と中英では似た傾向がある一方で, 尼英では $1-W E R$ が最大の決定係数を持っており,言語対によっては異なった特徴が現れている。また独英では,他言語対と比べて NIST スコアと BLEU +1 の差が大きく, 両評価尺度の差である内容語の一致が特に重要であることが予想できる。このことから,全体として NIST スコアが質問応答精度と強く相関するが,言語対の特徵を考慮することでより強い相関を持った尺度を得ることができると考えられる。しかしながら,言語対によって異なる特徴については, 現段階では詳細に至るまで分析できておらず,今後さらなる分析が必要とされる。 ## 6 まとめ 本研究では, 言語横断質問応答システムの精度を向上させるため, 翻訳結果が質問応答の結果に与える影響を調査した。 具体的には,翻訳精度評価(5.1 節)と言語横断質問応答精度の評価(5.2 節)を行い, 両者の関係を分析した (5.3 節)。その結果,内容語の一致を重視する NIST スコアが質問応答精度と高い相関を持つことがわかった。これは質問応答において内容語が重要であるという直感にも合致する結果である。一方で,人手評価が NIST スコアや BLEU+1 といった自動評価よりも 相関が低いこともわかった。この結果より,人間が正しいと評価する翻訳が必ずしも質問応答に適しているとは限らないという知見が得られた。 この結果に対して, 質問応答結果の事例分析(5.4 節)を行ったところ, 以下の 2 つのことがわかった. 1 つ目は,人間が正しいと評価した内容語でも質問応答システムが正しく解答できない場合もあり,翻訳結果に含まれる内容語の正しさの評価基準は人間と質問応答システムで必ずしも一致しないということがわかった,2つ目は, 質問タイプを表す語の中には, 正しい解答を出すために重要な語と重要でない語があることがわかった.具体的には,“how many”など解答の形式を変化させる語は正しい翻訳が必須であり,“what”や“which”などの語は翻訳結果に含まれていなくても正しく解答することができている例が確認できた. また,NIST スコアに基づいて選択された翻訳結果の質問応答実験(5.5 節)により,内容語に重点を置いた翻訳結果を使用することで言語横断質問応答精度が改善されることがわかった。 この結果から,機械翻訳器の最適化を行うことで,言語横断質問応答の精度を改善できる可能性を示した。 最後に,日英以外の言語対における言語横断質問応答実験(5.6 節)では,日英以外の 3 言語対においても日英と同様に内容語を重視する訳質評価尺度が質問応答精度と相関が高い傾向が見られた。このことから,内容語を重視した訳質評価尺度と質問応答精度が高い相関を持つという知見は多くの言語対で見られ,一般性のある知見であることが示された。 今後の課題としては,様々な言語対および質問応答システムを用いた言語横断質問応答を行うことでより一般性のある知見を得ることや, 質問応答精度と高い相関を持つ評価尺度の作成, そのような尺度を用いて機械翻訳器を最適化することによる質問応答精度の変化を確認することなどが挙げられる. ## 謝 辞 本研究の一部は, NAIST ビッグデータプロジェクトおよびマイクロソフトリサーチ CORE 連携研究プログラムの活動として行ったものである. また, 本研究開発の一部は総務省 SCOPE (受付番号 152307004)の委託を受けたものである. ## 参考文献 Berant, J., Chou, A., Frostig, R., and Liang, P. (2013). "Semantic Parsing on Freebase from Question-Answer Pairs." In Proceedings of EMNLP, pp. 1533-1544. Cai, Q. and Yates, A. (2013). "Large-scale Semantic Parsing via Schema Matching and Lexicon Extension." In Proceedings of ACL, pp. 423-433. Callan, J., Hoy, M., Yoo, C., and Zhao, L. (2009). "Clueweb09 Dataset.". Doddington, G. (2002). "Automatic Evaluation of Machine Translation Quality Using N-gram Co-occurrence Statistics." In Proceedings of HLT, pp. 138-145. Fader, A., Zettlemoyer, L., and Etzioni, O. (2014). "Open Question Answering over Curated and Extracted Knowledge Bases." In Proceedings of ACM SIGKDD, pp. 1156-1165. Goto, I., Chow, K. P., Lu, B., Sumita, E., and Tsou, B. K. (2013). "Overview of the Patent Machine Translation Task at The NTCIR-10 Workshop." In Proceedings of NTCIR-10, pp. 260-286. Haas, C. and Riezler, S. (2015). "Response-based Learning for Machine Translation of Opendomain Database Queries." In Proceedings of NAACL HLT, pp. 1339-1344. Hyodo, T. and Akiba, T. (2009). "Improving Translation Model for SMT-based Cross Language Question Answering." In Proceedings of FIT, Vol. 8, pp. 289-292. Isozaki, H., Hirao, T., Duh, K., Sudoh, K., and Tsukada, H. (2010). "Automatic Evaluation of Translation Quality for Distant Language Pairs." In Proceedings of EMNLP, pp. 944-952. Kiyota, Y., Kurohashi, S., and Kido, F. (2002). "Dialog Navigator: A Question Answering System based on Large Text Knowledge Base." In Proceedings of COLING, pp. 1-7. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of ACL, pp. 177-180. Leusch, G., Ueffing, N., and Ney, H. (2003). "A Novel String-to-string Distance Measure with Applications to Machine Translation Evaluation." In Proceedings of MT Summit IX, pp. 240-247. Lin, C.-Y. and Och, F. J. (2004). "ORANGE: A Method for Evaluating Automatic Evaluation Metrics for Machine Translation." In Proceedings of COLING, pp. 501-507. Mori, T. and Kawagishi, M. (2005). "A Method of Cross Language Question-answering based on Machine Translation and Transliteration." In Proceedings of NTCIR-5, pp. 182-189. Neubig, G. (2013). "Travatar: A Forest-to-String Machine Translation Engine based on Tree Transducers." In Proceedings of ACL, pp. 91-96. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of ACL, pp. 311-318. Riezler, S., Simianer, P., and Haas, C. (2014). "Response-based Learning for Grounded Machine Translation." In Proceedings of $A C L$, pp. 881-891. Shimizu, K., Fujii, A., and Itou, K. (2005). "Bi-directional Cross Language Question Answering using a Single Monolingual QA System." In Proceedings of NTCIR-5, pp. 455-462. Tunstall-Pedoe, W. (2010). "True Knowledge: Open-domain Question Answering Using Structured Knowledge and Inference." AI Magazine, 31 (3), pp. 80-92. ## 略歴 杉山享志朗:2014 年呉工業高等専門学校機械電気専攻卒業. 2016 年奈良先端科学技術大学院大学情報科学研究科修士課程修了. 同年より, 同大学院博士後期課程在学. 自然言語処理に関する研究に従事. 水上雅博: 2012 年同志社大学理工学部卒業. 2014 年奈良先端科学技術大学院大学情報科学研究科修士課程修了. 同年より同大学院博士後期課程在学. 自然言語処理および音声対話システムに関する研究に従事. 人工知能学会,音響学会, 言語処理学会各会員. Graham Neubig: 2005 年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業. 2010 年京都大学大学院情報学研究科修士課程修了. 2012 年同大学院博士後期課程修了. 同年奈良先端科学技術大学院大学助教. 2016 年より米国カーネギーメロン大学助教. 機械翻訳, 自然言語処理に関する研究に従事. 吉野幸一郎:2009 年慶應義塾大学環境情報学部卒業. 2011 年京都大学大学院情報学研究科修士課程修了. 2014 年同博士後期課程修了. 同年日本学術振興会特別研究員 (PD). 2015 年より奈良先端科学技術大学院大学情報科学研究科特任助教. 2016 年より同助教. 京都大学博士 (情報学)。音声言語処理および自然言語処理,特に音声対話システムに関する研究に従事。2013 年度人工知能学会研究会優秀賞受賞. IEEE, ACL, 情報処理学会, 言語処理学会各会員. 鈴木優:2004 年奈良先端科学技術大学博士後期課程修了. 博士 (工学). 現在, 奈良先端科学技術大学院大学情報科学研究科特任准教授. 情報検索やクラウドソーシングに関する研究開発に従事. 情報処理学会, 電子情報通信学会, ACM, IEEE Computer 各会員. 中村哲:1981 年京都工芸繊維大学工芸学部電子工学科卒業. 京都大学博士 (工学).シャープ株式会社. 奈良先端科学技術大学院大学助教授, 2000 年 ATR 音声言語コミュニケーション研究所室長, 所長, 2006 年(独)情報通信研究機構研究センター長, けいはんな研究所長などを経て, 現在, 奈良先端科学技術大学院大学教授. ATRフェロー. カールスルーエ大学客員教授. 音声翻訳, 音声対話, 自然言語処理の研究に従事. 情報処理学会喜安記念業績賞, 総務大臣表彰, 文部科学大臣表彰, AntonioZampoli 賞受賞. IEEESLTC 委員, ISCA 理事, IEEE フェロー. (2016 年 4 月 4 日受付) (2016 年 7 月 11 日再受付) (2016 年 8 月 31 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 文書間類似度について ## 浅原 正幸 $十$ 加藤 祥 $\dagger$ 文書間類似度は, 内容の類似度と表現の類似度の二つの側面を持っている。自動要約や機械翻訳ではシステム出力の内容評価を行うために参照要約(翻訳)との類似度を評価する尺度が提案されている。一方,表現を対照比較するための手段として,形態素(列)を特徴量とする空間上の計量が用いられる。本稿では,さまざまな文書間類似度について, 距離・類似度・カーネル・順序尺度・相関係数の観点から, 計量間の関係や同値性を論じた。さらに内容の同一性保持を目標として構築したコー パスを用いて, 内容の差異と表現の差異それぞれに対する各計量のふるまいを調査し,文書間類似度に基づく自動評価の不安定さを明らかにした。 キーワード:文書間類似度,距離空間,カーネル,順序尺度,文体 ## On Document Similarity Measures \author{ MASAYUKI Asahara $^{\dagger}$ and SACHI $\mathrm{KATO}^{\dagger}$ } Document similarity measuring techniques are used to evaluate both content and writing style. Evaluation measures for comparing the summary or translation of a system-generated source text with that of human-generated text have been proposed in text summarization and machine translation fields. The distance metrics are measures in terms of morphemes or morpheme sequences to evaluate or register different writing styles. In this study, we discuss the relations among the equivalence properties of mathematical metrics, similarities, kernels, ordinal scales, and correlations. In addition, we investigate the behavior of techniques for measuring content and style similarities for several corpora having similar content. The analysis results obtained using different document similarity measurement techniques indicate the instability of the evaluate system. Key Words: Document Similarity Measures, Distance Metrics, Kernels, Ordinal Scale, Writing Style ## 1 はじめに 文書間類似度がはかるものとして「伝える内容の一致」(内容一致)だけでなく「伝える表現の一致」(表現一致) がある。文書間類似度は自動要約や機械翻訳ではシステム出力の内容評価を行うために参照要約(翻訳)との差異を評価する指標として用いられる。一方,文書間類似度は表現の差異を評価することを目的としてテキストの文体の計量比較にも用いられる。  本稿では, 文書間類似度の数理的構造の説明し, 様々な内容もしくは文体が同じであることが想定されるテキストを用いて, 各計量の特性について検討する. (難波, 平尾 2008) は 2008 年時点での自動要約の評価指標についての評価をまとめている。2008 年以降に提案された語順を考慮した内容評価のための指標を含めて,語順に対する順序尺度を含めた距離空間・類似度・ カーネル・相関係数などの尺度を用いて,数理的構造について整理する。 具体的には,一致部分文字列による尺度・一致部分列による尺度・ベクトル型順序尺度・編集型順序尺度の四つに分類し議論する。これらの四つの尺度に基づき,内容一致(内容の同一性)と表現一致(文体の類似性)の観点から,言語生産過程の多様性を評価する。複数人が同一課題を実施した場合の各評価尺度の分散や,同一人が同一課題を繰り返し実施した場合の各評価尺度の分散などを検討する。生産過程においては口述・筆術・タイプ入力の三種類について評価し, 課題においては要約・語釈・再話について評価する。要約は長い文書を同等の内容で短く言い換えることを目的とする言語生産過程であるが,語䣋は短い単語が指し示す意味と同等の内容を長く言い換えることを目的とする言語生産過程であることから,要約は語积の逆写像の一般化ととらえることができる,また,再話は長い文書を再度同等の内容でそのまま提示することを目的とする言語生産過程であることから,要約の一般化であるととらえることができる. この評価を通して,四つの指標における差異がどのような生産過程の差異に現れるのかを調查する。また同一言語生産課題に対する生成物の多様性についても議論する. 表現一致をつかさどるものとして, 情報の提示順序を含む修辞法 (rhetoric) ・使用域 (register) や位相 (phase) ${ }^{1}$ に内在する文体・個人に内在する文体などが考えられる。要約を評価するにあたり,内容一致は重要であると考えるが,表現一致はどの程度重要であるのだろうか.さらにこれらはどの評価尺度に表出するのだろうか,対照比較を介して,各言語生産過程に共通のふるまいを示す評価尺度と課題に特有のふるまいを示す評価尺度について調查する。 自動要約評価のための参照文書は一般に口述筆記の専門家や記者経験者などにより作成され,統制された少数のものが提供される。自動翻訳評価においても職業翻訳家等により限られた数の参照文書が作成される. 統制は距離空間上の凸問題として課題を設定し, その課題設定の枠組内で評価したい工学研究者の都合で行われているものである. さらに, 工学研究者は参照文書の差異がユークリッド距離空間上に規定され,文書間類似度で比較可能なレベルで統制できうるものだと考えているきらいがある。一方,文書を介したコミュニケーションにおいて,言語生産者ではない者による受容過程は統制されるものではなく, 複数の受容者間で共有されるものではない。一人の受容者においても時間的経過などで統制できるものでもない.本稿では,  人間の要約作成時の不安定な言語受容過程 2 において文書の重要箇所選択がどの程度ゆれるものなのかを評価するとともに,そのゆれは評価指標を構成するどの尺度に表れるのかを調査する。 この調査を通して,本来誤りでないものが課題設定の時点で誤りになっている可能性があるという実態を明らかにする。 本稿の貢献は以下のとおりである: - 既存の文書要約や機械翻訳の自動評価に利用される評価指標と, 距離空間・類似度・カー ネル空間・順序尺度・相関係数などの尺度との関係を整理した ・ 同一課題について複数人の言語生産者間で生成される文書のゆれを定量的に評価した - 課題ごとに同一人の言語生産者の課題試行間で生成される文書のゆれを定量的に評価した -上に述べたゆれの評価に基づき, 内容評価と表現評価の尺度上のふるまいの不安定さを明らかにした 尚, 本稿では,「評価指標」と「尺度」を区別して用いる.自動要約や機械翻訳ではシステム出力の内容評価を行うための ROUGE や BLEU など広く知られているものを表す際に「評価指標」と呼び,「評価指標」を構成する距離空間・類似度・カーネル・相関係数などを「尺度」 と呼ぶ.「評価指標」が単一の「尺度」から構成されることもあり,「評価指標」=「尺度」である場合もある。 以下,2 節では既存の自動評価指標を距離・類似度・カーネル・順序尺度・相関係数により説明することで,文書間類似度を四つに分類し整理する. 3 節では尺度を適用して比較するさまざまな言語生成過程を記録した言語資源について説明する.4 節では評価尺度の定性的な評価について示す. 5 節にまとめと今後の研究の方向性について示す. ## 2 評価指標と距離・類似度・カーネル・順序尺度・相関係数 ## 2.1 本節の趣旨 本節では,過去に提案されている自動要約と機械翻訳の評価指標を距離・類似度・カーネル・順序尺度・相関係数などの尺度により説明することを試みる。この説明の過程で,いくつかの評価指標が擬距離の公理の対称性,三角不等式や,距離の公理の非退化性を満たさないことに言及する。 まず,部分文字列 (substring) と部分列 (subsequence)の違いを明確にするため,2.2 節で部分文字列と部分列に基づく類似度について解説する. 2.3 節で先行研究で言及されている評価指標について解説する.2.4 節で関連するカーネル・順序尺度について示す. 2.5 節で指標の一般化について述べる.  評価指標においては,二つのデー夕比較という観点から,単一の参照テキストと単一のシステム出力テキストの対の文書間類似度に限定して議論する。複数の参照テキストを考慮する場合には退化性等を考慮する必要がある。尚, 本節で用いる用語や記号の定義は $\mathrm{A}$ 節にまとめてある。 ## 2.2 LCSubstr と LCS ## 2.2.1記号列と文字列と部分文字列と部分列 評価指標の議論を始める前に, 記号列, 文字列, 部分文字列, 部分列の違いについて確認する.何らかの全順序が付与されている記号集合のことを記号列と呼ぶ. 本稿では記号列べクトル $s=\left.\langle s_{1}, \ldots, s_{m}\right.\rangle, t=\left.\langle t_{1}, \ldots, t_{m}\right.\rangle$ などで表現する. 参照テキスト,システム出力テキストは, ともに文字 (character) ベースの記号列もしくは形態素解析後の形態素 (morpheme) ベースの記号列とみなすことができる. 評価する記号列上の連続列のことを文字列 (string) と呼ぶ.記号列の要素が文字 (character) である場合を「文字べースの文字列 (character-based string)」, 記号列の要素が形態素 (morpheme) である場合を「形態素べースの文字列 (morpheme-based)」と呼ぶこととする. 記号列に対して隣接性と順序を保持した部分的記号列のことを部分文字列 (substring) と呼ぶ. 長さ $n$ の部分文字列を特に n-gram 部分文字列と呼ぶ. 記号列 $s$ の $i$ 番目の要素からはじまる n-gram 部分文字列を $s_{i \ldots i+n-1}$ で表現する. 記号列に対して順序を保持した部分的記号列のことを部分列 (subsequence) と呼ぶ. 隣接性は保持しなくてよい. 長さ $p$ の部分列を特に p-mer 部分列と呼ぶ. 記号列 $s$ の p-mer 部分列を,インデックスベクトル $\vec{i}=\left.\langle i_{1}, \ldots, i_{p}\right.\rangle\left(1 \leq i_{1}<i_{2}<\cdots<i_{p} \leq|s|\right)$ を用いて, $s[\vec{i}]$ と表す. ## 2.2.2 最長共通部分文字列 (Longest Common Substring: LCSubstr) 長 最長共通部分文字列 (Longest Common Substring) の略称は LCS だが,一般には 2.2 .3 節に示す最長共通部分列 (Longest Common Subsequence)のことを LCS と呼ぶことが多い. 本稿では前者を LCSubstr, 後者を LCS と呼び,区別する. 記号列 $s, t$ を与えた際の最長共通部分文字列を次式で定義する: $ \operatorname{LCSubstr}(s, t)=\underset{s_{i \ldots i+n-1} \mid \exists j, s_{i \ldots i+n-1}=t_{j \ldots j+n-1}}{\arg \max } n $ 記号列 $s, t$ を与えた際の最長共通部分文字列長(LCSubstr 長)を次式で定義する: $ |\operatorname{LCSubstr}(s, t)|=\max _{\forall i, \forall j, s_{i \ldots i+n-1}=t_{j \ldots j+n-1}} n $ これを $[0,1]$ 区間に正規化すると以下のようになる: $ \operatorname{Score}_{\mathrm{LCSubstr}}(s, t)=\frac{2 \cdot|\operatorname{LCSubstr}(s, t)|}{|s|+|t|} $ ## 2.2.3 最長共通部分列 (Longest Common Subsequence: LCS) 長と Levenshtein 距離 記号列 $s, t$ を与えた際の最長共通部分列 (Longest Common Subsequence: LCS) を次式で定義する: $ \operatorname{LCS}(s, t)=\underset{s[\vec{i}] \exists \vec{j}, s[\vec{i}]=t[\vec{j}]}{\arg \max }|\vec{i}| $ 記号列 $s, t$ を与えた際の最長共通部分列長(LCS 長)を次式で定義する: $ |\operatorname{LCS}(s, t)|=\max _{\forall \vec{i}, \forall \vec{j}: s[\vec{i}]=t[\vec{j}]}|\vec{i}| $ $[0,1]$ 区間に正規化すると,以下のようになる: $ \operatorname{Score}_{\mathrm{LCS}}(s, t)=\frac{2 \cdot|\operatorname{LCS}(s, t)|}{|s|+|t|} $ た場合の Levenshtein 距離(編集型距離)と LCS 長の関係は以下のようになる: $ \mathrm{d}_{\text {Levenshtein }}(s, t)=|s|+|t|-2 \cdot|\operatorname{LCS}(s, t)| $ さらに LCS は2.4.2 節で示すとおり, 対称群上の編集型距離のうちの Ulam 距離と深く関連し,一種の順序尺度であるとも考えられる。 ## 2.2.4 ギャップ加重最長共通部分列長による指標 部分列 LCS は部分文字列 LCSubstr と異なり,ギャップを伴う.ギャップが多い LCS に減衰させた值を割り当てるために,「LCS の記号列上の長さ」に対して加重を行うことができる. $\left.\lceil\mathrm{LCS}\right.$ の記号列上の長さ」は参照テキスト ${ }^{3}$ 側 $\left(|\operatorname{LCS}(C, R)|_{R}\right.$ で表す) とシステム出力テキスト 4 側 $\left(|\operatorname{LCS}(C, R)|_{C}\right.$ で表す) とで異なるために,それぞれ計算する必要がある. $ \begin{aligned} |\operatorname{LCS}(C, R)|_{R} & =\underset{\left(j_{|\vec{j}|}-j_{1}\right) \mid \forall \vec{i}, \forall \vec{j}, C[\vec{i}]=R[\vec{j}]}{\arg \max }|\vec{j}| \\ |\operatorname{LCS}(C, R)|_{C} & =\underset{\left(i_{|\vec{i}|}-i_{1}\right) \mid \forall \vec{i}, \forall \vec{j}, C[\vec{i}]=R[\vec{j}]}{\arg \max }|\vec{i}| \end{aligned} $  参照テキスト側で重みを付けて正規化する再現率的な指標を $\mathrm{R}_{\mathrm{WLCS}}(C, R)$ とし,システム出力テキスト側で重みを付けて正規化する精度的な指標を $\mathrm{P}_{\mathrm{WLCS}}(C, R)$ とすると以下のようになる。 $ \begin{aligned} \mathrm{R}_{\mathrm{WLCS}}(C, R) & =\frac{\alpha^{|\operatorname{LCS}(C, R)|_{R}-|\operatorname{LCS}(C, R)|} \cdot|\operatorname{LCS}(C, R)|}{|R|} \\ \mathrm{P}_{\mathrm{WLCS}}(C, R) & =\frac{\alpha^{|\operatorname{LCS}(C, R)|_{C}-|\operatorname{LCS}(C, R)|} \cdot|\operatorname{LCS}(C, R)|}{|C|} \end{aligned} $ 全体を正規化すると以下のようになる. $ \operatorname{Score}_{\mathrm{WLCS}}^{(\gamma)}(C, R)=\frac{\left(1+\gamma^{2}\right) R_{\mathrm{WLCS}}(C, R) P_{\mathrm{WLCS}}(C, R)}{R_{\mathrm{WLCS}}(C, R)+\gamma^{2} P_{\mathrm{WLCS}}(C, R)} $ ここで $\gamma$ は $\mathrm{R}_{\mathrm{WLCS}}$ と $\mathrm{P}_{\mathrm{WLCS}}$ のどちらを重視するかの混ぜ合わせ係数である. ## 2.3 自動評価指標 次に自動要約と機械翻訳の自動評価指標を確認するが,基本的には文単位の評価かつ参照テキストが一つであるという仮定をおく。 ## 2.3.1 要約の評価指標 ROUGE-L (Lin 2004) は, システム出力テキストと参照テキストの最長共通部分列 (LCS) 長を指標として正規化したものである. $ \operatorname{Score}_{\mathrm{ROUGE}-\mathrm{L}}^{(\gamma)}(C, R)=\frac{\left(1+\gamma^{2}\right) \cdot R_{\mathrm{LCS}}(C, R) \cdot P_{\mathrm{LCS}}(C, R)}{R_{\mathrm{LCS}}(C, R)+\gamma^{2} P_{\mathrm{LCS}}(C, R)} $ ここで再現率に相当する $R_{\mathrm{LCS}}(C, R)$ と精度に相当する $P_{\mathrm{LCS}}(C, R)$ は以下のように定義する: $ \begin{aligned} & R_{\mathrm{LCS}}(C, R)=\frac{|\mathrm{LCS}(\mathrm{C}, \mathrm{R})|}{|R|} \\ & P_{\mathrm{LCS}}(C, R)=\frac{|\mathrm{LCS}(\mathrm{C}, \mathrm{R})|}{|C|} \end{aligned} $ 上記指標は文単位のものであり, 文書レベルに拡張するために,システム出力テキスト中の文 $c_{i} \in C$ と参照テキスト中の文 $r_{j} \in R$ の $\mathrm{LCS}$ 記号列中の記号の集合和を用いて評価する. 同様の議論が他の指標においても行われているが,以下本稿ではこの議論を省略する。 ROUGE-W ROUGE-W (Lin 2004) は, ギャップ加重最長共通部分列長に似た概念である。違いとしては「LCS の記号列上の長さ」を参照テキスト側とシステム出力テキスト側 $|\operatorname{LCS}(C, R)|_{R}+$ $|\operatorname{LCS}(C, R)|_{C}$ でとった上で, 加重関数 $f(x): f(x+y)>f(x)+f(y), x>0, y>0, x \in N, y \in N$ ( $N$ は自然数)を別に定義して「LCS の記号列上の長さ」に対して加重を行う. ROUGE-W の実 装では $f(x)=x^{\alpha}$ という多項式を用いており, ギャップ加重最長共通部分列長 $\operatorname{Score}_{\mathrm{WLCS}}^{(\gamma)}(C, R)$ の変種と考えることができる. ROUGE-NROUGE-N (Lin and Hovy 2003; Lin 2004)は n-gram の一致度を指標として用いるものである. $ \operatorname{Score}_{\text {ROUGE-N }}^{(R)}(C, R)=\frac{\sum_{e \in(\mathrm{n}-\operatorname{gram}(C) \cap \mathrm{n}-\operatorname{gram}(R))} \min \left(|e|_{C},|e|_{R}\right)}{\sum_{e \in \mathrm{n}-\operatorname{gram}(R)}|e|_{R}} $ 但し, $\mathrm{n}-\operatorname{gram}(C)$ はシステム出力テキスト $\mathrm{C}$ 中の $\mathrm{n}-\operatorname{gram}$ 集合, $\mathrm{n}-\operatorname{gram}(R)$ は参照テキスト $\mathrm{R}$ 中の n-gram 集合, $|e|_{C}$ は $\mathrm{C}$ に含まれる $e$ の要素数 (のべ出現数), $|e|_{R}$ は $\mathrm{R}$ に含まれる $e$ の要素数とする. ROUGE-S(U) ROUGE-S (Lin 2004) は, 2-mer の部分列の一致度を指標として用いるものである。 $ \operatorname{Score}_{\text {ROUGE-S }}^{(\gamma)}(C, R)=\frac{\left(1+\gamma^{2}\right) P_{S}(C, R) R_{S}(C, R)}{R_{S}(C, R)+\gamma^{2} P_{S}(C, R)} $ ここで精度に相当する $P_{S}(C, R)$ と再現率に相当する $R_{S}(C, R)$ は以下のように定義する: $ \begin{aligned} P_{S}(C, R) & =\frac{\sum_{e \in\left(2-\operatorname{mer}_{C} \cap 2-\operatorname{mer}_{R}\right)} \min \left(|e|_{C},|e|_{R}\right)}{\sum_{e \in 2-\operatorname{mer}(C)}|e|_{C}} \\ R_{S}(C, R) & =\frac{\sum_{e \in\left(2-\operatorname{mer}_{C} \cap 2-\operatorname{mer}_{R}\right)}^{\sum_{e \in 2-\operatorname{mer}(R)}}|e|_{R}}{\min \left(|e|_{C},|e|_{R}\right)} \end{aligned} $ 但し, $\mathrm{p}-\operatorname{mer}(C)$ は $\mathrm{C}$ 中の $\mathrm{p}-\mathrm{mer}$ 集合, $\mathrm{p}-\operatorname{mer}(R)$ は参照テキスト $\mathrm{R}$ 中の $\mathrm{p}-\mathrm{mer}$ 集合とする. ROUGE-SU は上の ROUGE-S の $p=2$ を $p \leq 2$ に拡張したものである. ESK ESK (平尾, 奥村, 磯崎 2006) は畳み込みカーネルの一つである拡張文字列カーネルのうち, ギャップ加重 p-mer 部分列カーネルを評価指標として定義したものである. $ \begin{aligned} & \text { Score }{ }_{\text {ESK }}^{\text {p-mer }}(C, R) \end{aligned} $ (平尾他 2006) では 2-mer の部分列に制限するほか, 文単位に比較し精度重視の指標と再現度重視の指標の二つの重みつき調和平均 $(0 \leq \lambda \leq 1)$ を定義している. ESK は他に各形態素に付与される意味ラベルを考慮した評価指標を提案しているが,本稿で用いる ESKは意味ラベルを考慮しない形態素基本形に基づくものとする. ## 2.3.2 翻訳の評価指標 BLEU BLEU (Papineni, Roukos, Ward, and Zhu 2001) は機械翻訳評価のための指標で, $n$ の值を変えた n-gram の精度系指標の重み $\left(\omega_{n}\right)$ 付き相乗平均により指標を定義する. $ \begin{aligned} P_{\mathrm{BLEU}}^{\mathrm{n}-\operatorname{gram}}(C, R) & =\frac{\sum_{e \in(\mathrm{n}-\operatorname{gram}(C) \cap \mathrm{n}-\operatorname{gram}(R))} \min \left(|e|_{C},|e|_{R}\right)}{\sum_{e \in \mathrm{n}-\operatorname{gram}(C)}|e|} \\ \operatorname{Score}_{\mathrm{BLEU}}(C, R) & =B P(C, R) \cdot \exp \left(\sum_{n=1}^{N} \omega_{n} \log P_{\mathrm{BLEU}}^{\mathrm{n}-\operatorname{gram}}(C, R)\right) \end{aligned} $ ここで相乗平均の計算を簡単にするために $\sum_{n=1}^{N} \omega_{n}=1$ という制約がある. 短いシステム出力テキストに対して高い精度が出やすいこの精度系の指標に対し, 精度と再現率の重み付き調和平均という方法を取らず, Brevity Penalty (BP)という項を入れて補正している. $ \mathrm{BP}(C, R)= \begin{cases}1 & \text { if }|C|>|R| \\ \exp \left(1-\frac{|R|}{|C|}\right) & \text { if }|C| \leq|R|\end{cases} $ IMPACTIMPACT(Echizen-ya and Araki 2007)は LCS に基づく指標ではなく, LCSubstrの再帰的な取得による指標である. $ \begin{aligned} R_{I P}(C, R)= & \left(\frac{\sum_{r=0}^{\mathrm{RN}}\left(\alpha^{r} \sum_{e \in \operatorname{LCSubstr}\left(C^{(r)}, R^{(r)}\right)}|e|^{\beta}\right)}{|R|^{\beta}}\right)^{\frac{1}{\beta}} \\ P_{I P}(C, R)= & \left(\frac{\sum_{r=0}^{\mathrm{RN}}\left(\alpha^{r} \sum_{e \in \operatorname{LCSubstr}\left(C^{(r)}, R^{(r)}\right)}|e|^{\beta}\right)}{|C|^{\beta}}\right)^{\frac{1}{\beta}} \end{aligned} $ ここで $\alpha$ はイテレート回数 $r(r \leq \mathrm{RN})$ に対する重み $(\alpha<1.0), \beta$ は LCSubstr 長に対する重み $(\beta>1.0), C^{(1)}=C, R^{(1)}=R, C^{(r)}=C^{(r-1)} \backslash\left.\{\operatorname{LCSubstr}\left(C^{(r-1)}, R^{(r-1)}\right)\right.\}, \quad R^{(r)}=$ $R^{(r-1)} \backslash\left.\{\operatorname{LCSubstr}\left(C^{(r-1)}, R^{(r-1)}\right)\right.\}$ とする. $ \text { Score }_{\mathrm{IP}}=\frac{\left(1+\gamma^{2}\right) R_{\mathrm{IP}} P_{\mathrm{IP}}}{R_{\mathrm{IP}}+\gamma^{2} P_{\mathrm{IP}}} $ この指標は 2.4.1 節に示す文字列長加重全部分文字列カーネルに関連がある。文字列長加重全部分文字列カーネルに対して,再帰的に LCSubstr を選択する際に既選択の LCSubstr を排除し,再帰の回数を RN で制限するという制約を入れたものである. RIBES RIBES (平尾, 磯崎, 須藤, Duh, 塚田, 永田 2014) は, システム出力テキストと参照テキストのアラインメントをとったうえで,語順の編集型順序尺度を考慮したものである。 $ \begin{aligned} \operatorname{Score}_{\mathrm{RIBES}}= & \left(d_{\operatorname{Kendall}}\left(1-\operatorname{gram}_{\text {align }}(C, R)\right)\right) \\ & \left(P_{\operatorname{RIBES}}(C, R)\right)^{\alpha} \cdot(\operatorname{BP}(C, R))^{\beta} \end{aligned} $ ここで $d_{\text {Kendall }}(\mu, \nu)$ は 2.4.2 節で定義する順位べクトル $\mu, \nu$ に対する Kendall 距離, 1-gram align $(\mu, \nu)$ は元論文(平尾他 2014)の worder で出力されるアラインメントされた二つの順序べクトルの対を表す. 右辺 2 項目は 1-gram (単語ベースのもの) 精度とよび $P_{\mathrm{RIBES}}(C, R)=\frac{\left|1-\operatorname{gram}_{\text {align }}(C, R)\right|}{|C|}$ とする。|1-gramalign $(\mu, \nu) \mid$ は worder で出力されるアラインメントされた順序べクトルの長さ (二つ出力されるが等しい) である. $\alpha$ は 1-gram 精度に対する重み, $\beta$ は BLEU で用いられた BP に対する重みである。 なお, $P_{\mathrm{RIBES}}(C, R)$ は, それぞれの記号列に重複する記号がない場合, 以下が成り立つ: $ \begin{aligned} & P_{\text {RIBES }}(C, R)=\operatorname{Score}_{\text {ROUGE-1 }}^{(P)}(C, R) \\ & =\frac{\sum_{e \in(1-\operatorname{gram}(C) \cap 1-\operatorname{gram}(R))} \min \left(|e|_{C},|e|_{R}\right)}{\sum_{e \in 1-\operatorname{gram}(R)}|e|} \end{aligned} $ LRscore LRscore (Birch and Osborne 2010) も同様に,アラインメントをとったうえで,語順の順序尺度を考慮したものである。順序尺度としてべクトル型である Hamming 距離と編集型である Kendall 距離を用いている. $ \operatorname{Score}_{\text {LRscore }}^{\operatorname{Hamming}}(C, R)=\alpha \cdot B P(C, R) \cdot d_{\text {Hamming }}(C, R)+(1-\alpha) \operatorname{Score}_{\operatorname{BLEU}(C, R)} $ $ \operatorname{Score}_{\text {LRscore }}^{\operatorname{Kendall}}(C, R)=\alpha \cdot B P(C, R) \cdot d_{\text {Kendall }}(C, R)+(1-\alpha) \operatorname{Score}_{\mathrm{BLEU}(C, R)} $ $\alpha$ は語順をどの程度考慮するかの重みつけ係数. ## 2.4 関連するカーネル・順序尺度 上に述べた指標は,基本的には以下のカーネルおよび順序尺度の組み合わせで構成することができる。以下では,各種指標に関連するカーネルおよび順序尺度について確認する。 ## 2.4.1 カーネル・距離(文字列の共有) 畳み込みカーネルのうち系列データに対するカーネルは, 共通する部分文字列・部分列を数え上げる。いずれも効率よく計数する方法が提案されている (Shawe-Taylor and Cristianini, 大北訳 2010). また,適切に正規化することにより部分文字列・部分列の共有についての距離や指標を規定することができる. 様々なカーネルの説明に入る前に, $[0,1]$ 区間正規化について示す. カーネルの $[0,1]$ 区間正規化はカーネルの研究分野でよく用いられており以下の式により行われる: $ \operatorname{Score}_{K_{-}}(s, t)=\frac{K_{-}(s, t)}{\left.\|K_{-}(s, s)\right.\| \cdot\left.\|K_{-}(t, t)\right.\|} $ 各種指標のように,再現率-精度間の重み $\gamma$ をれたい場合には以下のようにする: $ \operatorname{Score}_{K_{-}}^{(\gamma)}(s, t)=\frac{\left(1+\gamma^{2}\right) K_{-}(s, t)}{\sqrt{\left(K_{-}(s, s)\right)^{2}+\gamma^{2}\left(K_{-}(t, t)\right)^{2}}} $ 全部分文字列カーネルと文字列長加重全部分文字列カーネル全部分文字列カーネル (All String Kernel or Exact Matching Kernel) は共通する全ての部分文字列の数を数える. 任意の長さの部分文字列 $u$ の出現数を座標軸とする特徴量空間 $F_{\text {all_str }}$ を考える. $ \begin{aligned} \Phi_{\text {Str }}^{*}: \sigma^{*} & \rightarrow F_{\text {all_str }} \sim R^{|\sigma|^{*}} \\ \Phi_{\text {Str }}^{*}(s) & =\left(\phi_{u}^{*}(s)\right)_{u \in \sigma^{*}} \\ \phi_{u}^{*}(s) & =\left|\left.\{i \mid s_{i \ldots *}=u\right.\}\right| \\ K_{\text {all_str }}(s, t) & =\left.\langle\Phi_{\text {Str }}^{*}(s), \Phi_{\text {Str }}^{*}(t)\right.\rangle_{F_{\text {all_str }}} \\ & =\sum_{u \in \sigma^{*}} \phi_{u}^{*}(s) \phi_{u}^{*}(t) \end{aligned} $ カーネル関数を直接計算すると以下のようになる: $ K_{\text {all_str }}(s, t)=\sum_{n=1}^{\min (|s|,|t|)} \sum_{i=1}^{|s|-n+1} \sum_{j=1}^{|t|-n+1} \delta\left(s_{i \ldots i+n-1}, t_{j \ldots j+n-1}\right) $ ここで $\delta$ はクロネッカーのデルタとする. 言語処理の場合, 得られる n-gram に対して加重をかけることが一般に行われている。文字列長に対して加重をかけたものを文字列長加重全部分文 字列カーネル (Length Weighted All String Kernel or Length Weighted Exact Matching Kernel) と呼ぶ. $ \begin{aligned} & K_{\text {W_all_str }}(s, t) \\ & \quad=\sum_{n=1}^{\min (|s|,|t|)} \sum_{i=1}^{|s|} \sum_{j=1}^{-n+1} \omega_{|s|} \delta\left(s_{i \ldots i+n-1}, t_{j \ldots j+n-1}\right) \end{aligned} $ ここで $\omega_{n}$ は長さ $n$ に対する重みを表す. 2.3.2 節で述べた IMPACT はこのカーネルの特殊形とみなすことができる. このカーネルと次の $\mathrm{n}$-スペクトラムカーネルは Suffix Tree を用いて効率よく計算する方法が提案されている. $\mathbf{n}$-スペクトラムカーネル $\mathrm{n}$-スペクトラムカーネル (Spectrum Kernel) は共通する長さ $n$ の部分文字列 (n-gram) の数を数える. 長さ $n$ の部分文字列 $u$ の出現数を座標軸とする特徴量空間 $F_{\mathrm{n} \text {-gram }}$ を考える. $ \begin{aligned} \Phi_{\mathrm{str}}^{n}: \sigma^{n} & \rightarrow F_{\mathrm{n}-\mathrm{gram}} \sim R^{|\sigma|^{n}} \\ \Phi_{\mathrm{str}}^{n}(s) & =\left(\phi_{u}^{n}(s)\right)_{u \in \sigma^{n}} \\ \phi_{u}^{n}(s) & =\left|\left.\{i \mid s_{i \ldots i+n-1}=u\right.\}\right| \\ K_{\text {n-gram }}(s, t) & =\left.\langle\Phi_{\mathrm{str}}^{n}(s), \Phi_{\mathrm{str}}^{n}(t)\right.\rangle_{F_{\text {n-gram }}} \\ & =\sum_{u \in \sigma^{n}} \phi_{u}^{n}(s) \phi_{t}^{n}(t) \end{aligned} $ 直接計算すると以下のようになる: $ K_{\mathrm{n}-\operatorname{gram}}(s, t)=\sum_{i=1}^{|s|-n+1} \sum_{j=1}^{|t|-n+1} \delta\left(s_{i \ldots i+n-1}, t_{j \ldots j+n-1}\right) $ ROUGE-N は, 分子に $K_{\mathrm{n}-\operatorname{gram}}(C, R)$ より小さい値を持ち, 分母に参照テキストののべ出力 n-gram 数を持つことから, 再現率として正規化したものに相当する. 通常の正規化した $K_{\mathrm{n}-\operatorname{gram}}(s, t)$ は再現率と精度の調和平均と解釈できる. また 1-gram スペクトラムカーネルは 1-mer 部分列カーネルと同值で, これらは近似的に BLEU などで利用されている BP 相当の値を計算すると考える. 全部分列カーネル全部分列カーネルは共通するすべての部分列の数を数える. 任意の長さの部分列 $v$ の出現数を座標軸とする特徴量空間 $F_{\text {all_seq }}$ を考える. $ \begin{gathered} \Psi_{\text {Seq }}^{*}: \sigma^{*} \rightarrow F_{\text {all_seq }} \sim R^{|\sigma|^{\infty}} \\ \Psi_{\text {Seq }}^{*}(s)=\left(\psi_{v}^{*}(s)\right)_{v \in \sigma^{*}} \end{gathered} $ $ \begin{aligned} \psi_{v}^{*}(s) & =|\{\vec{i} \mid s[\vec{i}]=v\}| \\ K_{\text {all_seq }}(s, t) & =\left.\langle\Psi_{\text {Seq }}^{*}(s), \Psi_{\text {Seq }}^{*}(t)\right.\rangle_{\text {all_seq }} \\ & =\sum_{v \in \sigma^{*}} \psi_{v}^{*}(s) \cdot \psi_{v}^{*}(t) \end{aligned} $ $K_{\text {all_seq }}(s, t)$ は以下のように再帰的に計算することにより $O(|s| t \mid)$ で計算することができる. $\epsilon$ を空記号列とすると $K_{\text {all_seq }}(s, \epsilon)=K_{\text {all_seq }}(t, \epsilon)=1$ とし, $K_{\text {all_seq }}(s, t)$ が求まると $K_{\text {all_seq }}(s \cdot a, t)=K_{\text {all_seq }}(s, t)+\sum_{1 \leq i \leq|t|, j: t_{j}=a} K_{\text {all_seq }}\left(s, t_{i \ldots j-1}\right)$ と $s$ 再帰的に定義できる. さらに $\tilde{K}_{\text {all_seq }}(s \cdot a, t)=K_{\text {all_seq }}\left(s, t_{i \ldots j-1}\right)$ とすると, $\tilde{K}_{\text {all_seq }}(s \cdot a, t \cdot b)=\tilde{K}_{\text {all_seq }}(s \cdot a, t)+$ $\delta(a, b) K_{\text {all_seq }}(s, t)$ と $t$ 再㷌的に定義できる. 固定長部分列カーネル固定長部分列カーネルは共通する長さ $p$ の部分列 (p-mer) の数を数えあげる。 長さ $p$ の部分文字列 $v$ の出現数を座標軸とする特徴量空間 $F_{\mathrm{p}-\mathrm{mer}}$ を考える. $ \begin{aligned} \Psi_{\text {Seq }}^{p}: \sigma^{p} & \rightarrow F_{\mathrm{p}-\text { mer }} \sim R^{|\sigma|^{p}} \\ \Psi_{\text {Seq }}^{p}(s) & =\left(\psi_{v}^{p}(s)\right)_{v \in \sigma^{p}} \\ \psi_{v}^{p}(s) & =|\{\vec{i} \mid s[\vec{i}]=v\}| \\ K_{\mathrm{p}-\operatorname{mer}}(s, t) & =\left.\langle\Psi_{\mathrm{Seq}}^{p}(s), \Psi_{\mathrm{Seq}}^{p}(t)\right.\rangle_{\mathrm{p}-\mathrm{mer}} \\ & =\sum_{v \in \sigma^{p}} \psi_{v}^{p}(s) \cdot \psi_{v}^{p}(t) \end{aligned} $ ROUGE-S は, 分子に $K_{2-\operatorname{mer}}(C, R)$ より小さい值を持ち, 分母に参照テキストののべ出力 2-mer 数を持つことから, 再現率として正規化したものに相当する. ROUGE-SU は, 分子に $K_{1-m e r, 2-m e r}(C, R)$ より小さい値を持ち, 分母に参照テキストののべ出力 1-mer, 2-mer 数を持つことから, 再現率として正規化する。通常の正規化した $K_{\mathrm{p}-\operatorname{mer}}(s, t)$ は再現率と精度の調和平均と解釈できる. ギャップ加重部分列カーネルギャップ加重部分列カーネルは p-mer の部分列の数え上げの際に隣接性を考慮して重み $\lambda$ を加重する。ESK (平尾他 2006)は, このカーネルを用いた尺度である。 長さ $p$ の部分列 $v$ を座標とする特徴量空間 $F_{\mathrm{p}-\mathrm{mer}}$ を考える. $ \begin{aligned} & K_{\text {gap_p-mer }}(s, t)=\left.\langle\Psi_{\text {Seq }}^{\text {gap_p }}(s), \Psi_{\text {Seq }}^{\text {gap_p }}(t)\right.\rangle_{F_{\mathrm{p}-\mathrm{mer}}} \\ &=\sum_{v \in \sigma^{p}} \psi_{v}^{g a p_{-} p}(s) \cdot \psi_{v}^{\text {gap_p }}(t) \\ & \text { ここで } \psi_{v}^{\text {gap_p }}(s)=\sum_{\vec{i}: v=s[\vec{i}]} \lambda^{l(\vec{i})} \text { とし, } l(\vec{i})=\left|s_{i_{1} \ldots i_{|v|}}\right|\left(\vec{i}=\left.\langle i_{1}, \ldots, i_{|v|}\right.\rangle\right) \text { とする. } \end{aligned} $ ## 2.4.2 順序尺度 以下では順序尺度について考えるが,文献 (神嶌 2009)に詳しい解説がある.基本的には同じ長さ $m$ の二つの順位ベクトル $\mu, \nu \in S_{m}$ に対する 2 種類の距離を考える. 順位ベクトル型距離一つ目の距離は「順位ベクトル型」の距離で順位ベクトルを $m$ 次元空間中の点を表すべクトルとみなし, ベクトル空間上の距離を定義する. ベクトル空間上の $\theta$-ノルムを用いると以下のようになる: $ d_{\|\operatorname{Rank}\|_{\theta}}(\mu, \nu)=\left(\sum_{i=1}^{m}|\mu(i)-\nu(i)|^{\theta}\right)^{1 / \theta} $ ここで $\theta=1$ の場合, 特に Spearman footrule と呼ぶ. $ d_{\text {Footrule }}(\mu, \nu)=\left(\sum_{i=1}^{m}|\mu(i)-\nu(i)|\right) $ $\theta=2$ の場合は通常の Euclid 距離だが,この Euclid 距離を 2 乗したものを特に Spearman 距離と呼ぶ. $ d_{\text {Spearman }}(\mu, \nu)=\left(\sum_{i=1}^{m}|\mu(i)-\nu(i)|^{2}\right) $ Spearman 距離は, 距離の公理のうち対称性と正定值性を満たす. しかし, Euclid 距離を 2 乗したものなので三角不等式を満たさないが,慣習的に距離として扱われる。さらに $[-1,1]$ 区間に正規化したものは Spearman の順位相関係数 $\rho$ として知られている. $ \text { Spearman's } \rho=1-\frac{6 \cdot d_{\text {Spearman }}(\mu, \nu)}{m^{3}-m} $ この値は順序尺度に基づく二つの順位ベクトル $\mu, \nu$ の Pearson 相関係数と等しい5. その他, 順位べクトルの同一順位のものが同じ要素である要素数を数えた Hamming 距離がある。 $ d_{\text {Hamming }}(\mu, \nu)=\sum_{i=1}^{m} \delta(\mu(i), \nu(i)) $ Hamming 距離は文字列上で代入(コスト 1)のみを許した編集距離としても解釈できる. また, 距離 $\mathrm{d}_{\| \text {|rank } \|_{\theta}}, d_{\text {Footrule, }} d_{\text {Spearman }}, d_{\text {Hamming }}$ に対応するスコア Score $\|_{\| \text {rank } \|_{\theta}}$, Score $_{\text {Footrule, Score }}^{\text {Spearman, }}$, Score Hamming を次のように規定することができる. $ \text { Score }_{-}=\frac{1}{1+d_{-}} $  対称群上の編集型距離二つ目の距離は「編集型」の距離である. 順序べクトルを記号列とみなした場合,順位べクトル $\mu$ をもうひとの順位ベクトル $\nu$ に変換するために必要な最小操作数を意味する Levenshtein 距離について述べた.以下では,順序ベクトルを対称群とみなした場合の編集型距離について述べる。編集に許される操作によっていくつかの距離のバリエーションがある. - Kendall 距離 : Kendall 距離 $d_{\text {Kendall }}(\mu, \nu)$ は順序べクトルを対称群とみなした際に隣接互換で置換する最小回数によって定義される。言い換えると隣接する対象対を交換 (Swap) する操作の最小回数を用いたものである. Kendall 距離は, 二つの順位ベクトル中の $\frac{m(m-1)}{2}$ 個の対象対のうち逆順になっている対の数に等しい. $ \begin{gathered} d_{\text {Kendall }}(\mu, \nu)=\min (\arg \max \\ \bar{q} \\ \left.\left.\left.d_{\text {Kendall }}(\mu, \nu)=\sum_{i=1}^{m} \sum_{j=i+1}^{\bar{q}} \pi_{2=1}^{m}\left(k_{q}, k_{q}+1\right)\right) \cdot \mu, \nu\right)\right) \end{gathered} $ ここで, $k_{q}$ は順位ベクトル $\mu$ のインデックス. また, $\chi$ は対象対 $\langle i, j\rangle$ が同順のとき 0 ,逆順のとき 1 を返す指示関数: $ \chi= \begin{cases}1 & \text { if }(\mu(i)-\mu(j))(\nu(i)-\nu(j))<0 \\ 0 & \text { if }(\mu(i)-\mu(j))(\nu(i)-\nu(j)) \geq 0\end{cases} $ $\pi_{2}=(i, i+1)$ は隣接する二つの元のみを入れ替えて他の元は変えない操作である隣接互換を意味する。 これを指標として使いやすくするために $[0,1]$ 区間の範囲に正規化すると以下のようになる: $ \operatorname{Score}_{\text {Kendall }}(\mu, \nu)=1-\frac{2 \cdot d_{\text {Kendall }}(\mu, \nu)}{m^{2}-m} $ これを $[-1,1]$ 区間の範囲に正規化したものは Kendall の順位相関係数 $\tau$ として知られている. $ \text { Kendall's } \tau=1-\frac{4 \cdot d_{\text {Kendall }}(\mu, \nu)}{m^{2}-m} $ - Cayley 距離 : Cayley 距離 $d_{\text {Caylay }}$ は順序べクトルを対称群とみなした際に互換で置換する最小回数によって定義される。言い換えると隣接していなくても良い対象対を交換 (Swap) する最小回数を用いたものである. $ d_{\text {Caylay }}(\mu, \nu)=\min \left(\arg \max \delta\left(\left(\Pi_{q=1}^{\bar{q}} \pi_{2}\left(k_{q}, l_{q}\right)\right) \cdot \mu, \nu\right)\right) $ ここで $, k_{q}, l_{q}$ は順位ベクトル $\mu$ のインデックス. $\pi_{2}=(i, j)$ は二つの元のみを入れ替えて他の元は変えない操作である互換を意味する. - Ulam 距離 : Ulam 距離 $d_{\text {Ulam }}$ は順序ベクトルを対称群とみなした際に連続した順序べクトル部分列 $\langle i, i+1, \ldots, j-1, j\rangle$ の巡回置換の操作のみで置換する最小回数によって定義される. これは「本棚の本の入れ換え」で例えられる。順位べクトル $\mu$ で並んでいる本棚の本を順位ベクトル $\nu$ に並べ替えるために,ある要素を抜いて別の場所に插才するということを行う. Ulam 距離は同じ要素が記号列に存在しないという前提のもと, 最長一致部分列長と以下の関係にあることが知られている. $ d_{\operatorname{Ulam}}(\mu, \nu)=m-|\operatorname{LCS}(\mu, \nu)| $ これを $[0,1]$ 区間の範囲に正規化すると以下のように正規化最大共通部分列と同じになる: $ \begin{aligned} \operatorname{Score}_{\operatorname{Ulam}}(\mu, \nu) & =1-\frac{d_{\mathrm{Ulam}}(\mu, \nu)}{m} \\ & =\frac{|\operatorname{LCS}(\mu, \nu)|}{m} \\ & =\operatorname{Score}_{\mathrm{LCS}}(\mu, \nu) \end{aligned} $ 図 1 に順序べクトルによる置換により表現した編集型距離の例を示す。編集型距離の定義で許される編集の回数を数えると, 順序べクトル $(1,4,3,2)$ と $(1,2,3,4)$ の Kendall 距離は 3 , Caylay 距離は 1, Ulam 距離は 2 となる。また, 順序べクトル $(2,3,1,4)$ と $(1,2,3,4)$ の Kendall 距離は 2, Caylay 距離は 2, Ulam 距離は 1 となる. 以下は,我々の意見だが,言語生産時の編集作業の工数を評価する場合には,(Nivre 2009)の swap に代表されるような Kendall 距離のような編集よりもUlam 距離のような編集を考慮すべきであると考える。言語生産時に, Kendall 距離で考慮される列内絶対位置よりも,Ulam 距離で考慮される列内相対位置を考えながら編集を行う方が人にとって自然な処理であると考える.順序尺度間の関係ベクトル型の Spearman's $\rho$ と Kendall's $\tau$ との間には以下の Daniels の不等式が成立する: $ -1 \leq \frac{3(m+2)}{m-2} \tau-\frac{2(m+1)}{m-2} \rho \leq 1 $ $m \rightarrow \infty$ の極限をとると $-1 \leq 3 \tau-2 \rho \leq 1$ が成り立つ. このことから二つの相関係数の間の 図 1 対称群上の編集型距離 相関が高いことが示される. 距離の観点からは, $d_{\text {Caylay }} \leq d_{\text {Kendall }}$ が成り立つ. さらに Footrule 距離と Kendall 距離と Cayley 距離の間に以下の不等式が成り立つ (Diaconis-Graham inequality): $ d_{\text {Kendall }}+d_{\text {Caylay }} \leq d_{\text {Footrule }} \leq 2 \cdot d_{\text {Kendall }} $ また Spearman 距離と Kendall の距離の間には以下の不等式が成り立つ (Durbin-Stuart inequality): $ \frac{4}{3} d_{\text {Kendall }}\left(1+\frac{d_{\text {Kendall }}}{m}\right) \leq d_{\text {Spearman }} $ つまり,評価指標のデザインにおける順序尺度の選択による差異は,これらの不等式の範囲によって制限される. ## 2.5 指標の一般化 以上, 評価指標・距離・カーネル・相関係数を議論してきた。まとめると付記 B 表 2 のようになる。 各指標と人手の評価結果をできるかぎり合わせるという観点からすると, (平尾, 奥村, 安田,磯崎 2007) のように,表 2 にあげたすべての尺度 Score_ $\in\left.\{\right.$ Score $\left._{*}\right.\}$ の加重相乗平均(下式)を考え, 加重 $\omega_{-}$と各指標に付随するパラメータを,各指標の従属性や相関に注意しながら人手の評価結果との回帰により求めれば良い. $ \begin{gathered} \overline{\text { Score }_{*}}=\sum \omega_{-} \sqrt{\text { ПScore }_{-}^{\omega_{-}}} \\ \log \overline{\text { Score }_{*}}=\frac{1}{\sum \omega_{-}}\left(\sum w_{-} \cdot \log \text { Score }_{-}\right) \end{gathered} $ この指標のあり方については注意すべき点がいくつかある. - substring(部分文字列:n-gram 系)と subsequence(部分列:p-mer 系)との違いを踏まえる。 ・ 最長一致部分長は対称群上の編集型距離である Ulam 距離と深く関連する. - 順序に対する順位ベクトル型距離と編集型距離の間には 2.4 .2 節に示される関係が成り立つ. 本稿では,先に述べた四つの尺度がそれぞれどのような特性があるかを明らかにすることを目的としており,最適な指標の組み合わせについては検討を行わない. 次節以降,各尺度がさまざまな言語資源上でどのようなふるまいをするのかについてみていきたい. ## 3 評価に用いる言語資源 ここでは様々な言語生成過程を記録した言語資源におけるテキスト対の尺度の差異を検証することにより,各尺度がとらえようとしているものが何なのかを分析する。 表 1 に,利用する言語資源について示す. まず言語生産過程として,要約 (BCCWJ-SUMM) と語釈 (GLOSS) と再話 (RETELLING) の 3 種類の言語資源を用いる。要約は長い元文書を短くする情報提示手法である。語釈は短い単語を長い文書で説明する情報提示手法である.再話は長い元文書をできるだけその内容を保存したまま示す情報提示手法である.情報提示手法を比較することで,各尺度が何を評価しているのかを明らかにすることを試みる。 要約と語釈については, クラウドソーシングにより安価で大量にデータを得る手法(タイプ 表 1 指標評価に使う言語資源 入力)と実験室にて被験者に繰り返し同一課題を依頼してデータを得る手法(筆述)の 2 種類の方法を用いた。再話のデータについては既存のデータを用い,筆述による形態と口述による形態のデータを準備した。言語生産形態として,タイプ入力・筆術・述の 3 種類のデータを対照比較する。これは評価尺度が, 要約の内容の類似度だけでなく, 個人の文体の類似度を評価してしまう部分を分析するために準備した,それぞれ文体の統制が可能なレベルが異なっており,評価尺度に影響を与えるものだと考え,これを評価することを試みる,さらに,大勢の実験協力者に同じタスクを行わせる場合の協力者間の尺度のふるまいと,同一の実験協力者に同じタスクを複数回行わせる場合の尺度のふるまいを検証し,どの尺度にゆれが生じるかを明らかにする。 以下各言語資源について解説する。 ## 3.1 BCCWJ-SUMM_C BCCWJ-SUMM_Cは『現代日本語書き言葉均衡コーパス』(Maekawa, Yamazaki, Ogiso, Maruyama, Ogura, Kashino, Koiso, Yamaguchi, Tanaka, and Den 2014)(BCCWJ)の新聞記事(PNサンプル)の要約を Yahoo! クラウドソーシング(15 歳以上の男女)により被験者実験的に作成したもの (浅原,杉,柳野 2015) である. BCCWJ の1サンプルには複数の記事が含まれており,それを記事単位に分割したうえで元文書集合 19 文書を構築した。元文書集合は BCCWJ コアデータ PN サンプル (優先順位 A) から選択した. 40 文字毎に改行した元文書を画像として提供し, 実験協力者に 50-100 文字に要約せよという指示で収集した。自動要約の本来のあり方としては, 文字数の削減ではなく,読み手の読み時間の削減が本質であると考えるが,実験の都合上,文字数による制限を課した.実験協力者の環境は PCに限定した. 元文書毎に約 100-200人の実駼協力者が要約に従事した.実験実施時期は 2014 年 9 月である. 得られたデータには,文字数制限を守っていないもの・実験の趣旨を理解していないもの・既に実験を行った実験協力者から同一回答を提供されたと考えられるものなどが含まれており, これらを排除したものを有効要約とする。統計分析においてこの有効要約のみを用いる. ## 3.2 BCCWJ-SUMM_L BCCWJ-SUMM_Lは BCCWJ の新聞記事の要約を実験室環境で筆述により作成したもの (浅原他 2015) である.BCCWJ-SUMM_C で用いた元文書を印刷紙面で提供し,実験協力者に 50-100 文字に要約せよという指示で収集した。一つの元文書に対して,3回まで繰り返して要約文作成を行った.実験協力者は 1 回の要約文作成に 10 分間の時間制限を設定した.各回の間には休㦝時間をおかず,早く要約課題が完成した場合には,ただちに次の回の要約作成を行った. 尚,各実験協力者は要約対象文書を含む文書群の読文時間を評価する実験を,本実験の前に行っており,要約文作成前に元新聞記事を 1 回読んでいる。今後,読文時間と要約抽出箇所との評価を進める予定である。繰り返しに際しては,特別に「前と同じ要約文を作成してくたささい」などといった指示は行わず,質問された場合にも「自由に要約文を作成してください」と教示した. 実験協力者は原稿用紙上で筆述(鉛筆と消しゴム利用)で要約を行い,そのデー夕を電子化した。 本実験の実験参加者は要約作業前に要約元文書の読み時間のデータも取得した. さらに被験者の特性(最終学歴・語彙数・言語形成地・記憶力)などのデー夕についても取得した. 実験実施時期は 2014 年 8 月-10 月であるが,今後このデータは引き続き拡充していく予定である. 統計分析においては, 同一課題について, 異なる被験者間のスコア (1回目のみを評価:BCCWJSUMM_L(P))と, 同一被験者の回数間のスコア (BCCWJ-SUMM_L(T)) の両方を評価する. ## 3.3 GLOSS_C GLOSS_C は語釈文を Yahoo! クラウドソーシング(15歳以上の男女)により被験者実験的に作成したものである。実験実施時期は 2014 年 2 月である. 「その動物を全く知らない人がどのようなものかわかるように説明してくたさい」と教示し,同意した実験協力者は鬼(単語親密度 6.6)・鶏(同 6.4)・象(同 6.0)の 3 種類から対象物を選択回答した. 単語親密度は (天野, 近藤 1999) による. 150 文字以上 250 文字以内で 3 文字以上の同文字連続は認めない設定とした.実験協力者 300 名を募集したところ得られた解答数は,鶏:71・鬼:111・象: $113(295 / 300)$ であった. 尚, このデータの質的分析は (加藤 2015b) を参照されたい. ## 3.4 GLOSS_L GLOSS_L は語釈文を実験室環境で筆述により収集したものである。実験実施時期は 2013 年 5 月-6月である. 実験協力者 8 名(20 代-50 代の男女)に,GLOSS_C と同様に「その動物を全く知らない人 がどのようなものかわかるように説明してくたさいいと教示した.実験協力者は, 10 分間で鬼 (単語親密度 6.6)・鵎(同 6.4)・象(同 6.0)の 3 種類から 2 種類の対象物を選択回答した。目安として 5 分経過時にブザー音を鳴らした。選択した対象物について同様に記述を繰り返すことを 4 回行った。得られた解答数は,兔 7 人分 $\times 4$ 回,鶏 6 人分 $\times 4$ 回,象 3 人分 $\times 4$ 回である。平均 145 文字 ( $\max 227$ 文字, $\min 85$ 文字)を得た。 統計分析においては, 同一課題について, 異なる被験者間のスコア(1 回目のみを評価: GLOSS_L(P))と,同一被験者の回数間のスコア (GLOSS_L(T))の両方を評価する. 尚, このデータを用いた認知的な分析は (加藤 $2015 \mathrm{a}$; 加藤, 浅原 2015) を参照されたい. ## 3.5 RETELLING_I 最初の再話のデータは「独話 Retelling コーパス」(保田, 田中, 荒牧 2013a, 2013b)である. このコーパスは (宮部, 四方, 久保, 荒牧 2014)でも用いられている. 実験協力者は 5 名で, 同一人が同内容をそれぞれ 10 回独話を繰り返した. 就職活動を前提とした模擬面接の設定で,実験協力者は自ら予め用意した「学生生活で力を入れてきたこと(3 分間程度)」についての独話を行った. 同内容を繰り返すことや何回依頼するかは知らせていない. 5 人分 $\times 10$ 回(50 話分)の独話を取得した. 面接官(聴衆)は有無を交互とした.奇数回 $(1 \cdot 3 \cdot 5 \cdot 7 \cdot 9$ 回)は聴衆なしの独話, 偶数回 $(2 \cdot 4 \cdot 6 \cdot 8 \cdot 10$ 回 $)$ は聴衆に対する独話である。聴衆には,聴いていることを表すために領くことのみを許可しており,話者への質問や意見など,発話は一切行わなかった,収録は録音と録画を行い,音声デー夕を書き起こした. 被験者によってインタビュー内容が異なるために,統計分析においては同一被験者の回数間のスコア (RETELLING_I(T))のみを評価する. ## 3.6 RETELLING_K 次の再話のデータは怪談を繰り返し口述したものであり, 先行研究 (保田, 荒牧 2012)によるものである. 実験協力者は 3 名6で, 実験は 1 名ずつ個別に行った. 実験協力者は怪談を聞いたのち,その怪談について 3 回の再話を行った. 怪談は 3 種類を用意したため, 各人 9 回の語りを行った.語りに関しては,「怪談として他の人に伝えるよう話す」との指示をした. 既存の物語では, 個人の記憶による先入観の影響が予測されたため, 4 分間程度の新規な怪談を 3 本作成した. 実験環境は図 2 のように,ビデオカメラと録音機により,録音と録画を行った。聴衆の影響を除去するために, 聴衆は設置しなかった. 実験協力者は以下の配置で録音機に向かって話した.本稿では音声データを書き起こしたものを用いる.  図 2 RETELLING_Kデータの収録環境 統計分析においては, 同一課題について, 異なる被験者間のスコア(1 回目のみを評価: RETELLING_K $(\mathrm{P})$ ) と, 同一被験者の回数間のスコア (RETELLING_K(T)) の両方を評価する. ## 3.7 RETELLING_M 最後の再話のデータは桃太郎の物語を筆述で繰り返し記述したものであり, 先行研究 (保田 2014)によるものである. 実験協力者 10 名(20 代-50 代の男女)に,「桃太郎の物語を全く知らない人に向けて記述してください」と教示し,実験協力者は 10 分間で記述(筆述)した. 同様に記述を繰り返すことを 4 回行った。平均のべ 284 語(min: 150 語・max: 451 語),異なり語 107 語(min: 74 語・max: 152 語)の「桃太郎」 10 人分 $\times 4$ 回(40 話分)を取得した. 統計分析においては, 同一課題について, 異なる被験者間のスコア(1 回目のみを評価: RETELLING_M $(\mathrm{P})$ ) と, 同一被験者の回数間のスコア (RETELLING_M $(\mathrm{T})$ ) の両方を評価する. ## 4 尺度の定性的な分析 ## 4.1 尺度の分析方法 本節では前節で述べたコーパスを用いて各尺度がどのように振る舞うかを観察する。利用する尺度は以下の 30 種類である。 - n-gram スペクトラム $(1,2,3,4)(\mathrm{char} / \mathrm{mrph})$ - n-gram 以下スペクトラム $(\leq 2, \leq 3, \leq 4)($ char $/ \mathrm{mrph})$ - p-mer 部分列 $(2,3,4)$ (char/mrph) - p-mer 以下部分列 $(\leq 2, \leq 3, \leq 4)$ (char/mrph) - 1-gram スペクトラム+Footrule (char/mrph) (=Spearman) - 1-gram スペクトラム+Kendall (char/mrph) 付記 $\mathrm{C}$ 表 4,5 に各コーパス中の 2 サンプル間の尺度の平均値 (Mean) と標準偏差 (SD) 7 を示す.スコアについて (char)“_c”は文字単位の記号列として評価したもの,(mrph)“_m”は形態 )$ と, 被験者を固定した場合 $(\mathrm{P})$ と部分集合群を規定し, 各部分集合中で全組み合わせに対する算術平均を得た。標準偏差も同様. } 素単位の記号列 (MeCab-0.98+IPADIC-2.7.0による) として評価したものである. 括弧内の数字は部分文字列長(n-gram における n)もしくは部分列長(p-mer における p)を示す.シャピロ・ウィルク検定の結果, ほとんどの場合 $\mathrm{p}$ 値が 0.05 未満であり, 正規分布とはいえない傾向が見られた。 ## 4.2 尺度のグラフ 図 3 に形態素単位に評価した, n-gram(1), n-gram(2), p-mer(2), Kendall の尺度のタスク毎の平均値グラフを示す. エラーバーは標準誤差を表す. unigram(n-gram(1))を用いた場合, 要約と語釈は中程度, 再話はかなり高い值である. GLOSS_ L(T) がほぼ再話と同程度の值である一方, BCCWJ-SUMM_L(T) が低いことから, 要約を繰り返す際の言語生産の特殊性が見られる。要約を繰り返す際には, 回数毎に文章中の重要箇所を変更するサンプル・被験者が存在し, 標準偏差も高くなっている. bigram(n-gram(2)), skip-bigram(p-mer(2))を用いた場合, 異なる被験者間と繰り返し間との間に差が見られるようになる。これは何らかの個人の文体差が形態素の連接に影響を与えているのではないかと考える。 bigram(n-gram(2))と skip-bigram(p-mer(2))の間の差として, 語釈の場合のみ bigram の値が下がった。語釈という課題の性質上, 物語や要約と異なり, 情報の提示順が変わることも考え p-mer(2) mrph Kendall mrph 図 3 課題と評価尺度 (n-gram(1), n-gram(2), p-mer(2), Kendall: 形態素単位平均値と標準誤差) られる。しかし, 順序尺度である Kendall の値では bigram の值ほど顕著な差が見られなかった。単語の隣接性が語釈のみ下がるという値のふるまいについては今後検討していきたい. クラウドソーシングと研究室内被験者実験との差 (BCCWJ-SUMM_C $\Leftrightarrow$ BCCWJ-SUMM_L(P), GLOSS_C $\Leftrightarrow$ GLOSS_L $(\mathrm{P})$ )については, 各尺度・各課題(要約・語釈)で差が見られなかった. ## 4.3 課題間の評価 以下,課題間を比較するために, 6 種類の評価軸を分析する.ほとんどの場合,正規分布であることも等分散であること(F 検定による)も仮定できない. ここではウィルコクソンの順位和検定(0.05 未満で 2 群の代表値が左右にずれている)を行う ${ }^{8}$. 多重比較に対応するために Bonferroni 法を用いた。付記 C 表 3 に結果のまとめを示す. - 実験室における複数人の課題間の違いの評価 BCCWJ-SUMM_L $(\mathrm{P}) \Leftrightarrow$ GLOSS_L $(\mathrm{P}) \Leftrightarrow$ RETELLING_K(P) $\Leftrightarrow$ RETELLING_M(P) - BCCWJ-SUMM_L(P) $\Leftrightarrow$ GLOSS_L(P) 文字単位の評価の場合 n-gram(2,3,4)_char に有意差が見られた. 形態素単位の評価の場合 n-gram $(2,3,4) \_m r p h$ に有意差が見られた. - BCCWJ-SUMM_L(P) $\Leftrightarrow$ RETELLING_K(P) n-gram(4)_char, n-gram(3,4)_mrph 以外で有意差が見られた. - BCCWJ-SUMM_L(P) $\Leftrightarrow$ RETELLING_K(M) n-gram(4)_mrph 以外で有意差が見られた。 - $\quad$ GLOSS_L $(\mathrm{P}) \Leftrightarrow$ RETELLING_ $_{-}\{\mathrm{K}, \mathrm{M}\}(\mathrm{P})$ 全ての尺度について,有意差が見られた。 - RETELLING_K(P) $\Leftrightarrow$ RETELLING_M(P) 全ての尺度について, 有意差が見られなかった。 要約 $\Leftrightarrow$ 語釈間は n-gram(1) で有意差が見られなかった。同じ文字・同じ形態素を使うという観点では一致度のレベルが等しいが,語の連接が入ると有意差が見られることがわかった。グラフからは語釈の方が語の連接や順序尺度の一致度が低い。これは語釈の目的としては情報の提示順に重要性のないことが伺える。 要約 $\Leftrightarrow$ 再話, 語釈 $\Leftrightarrow$ 再話の間においては有意差が見られた。再話は同じ話をするという特性から一致度が高くなる一方,要約・語釈は目的を達成するがために同じ表現を用いなければならないという制約がなく, 一致度が低くなる傾向にある。また同一課題の語釈間では有意差はなかった.  - 実験室における単一人の回数間距離の課題間の違いの評価 BCCWJ-SUMM_L(T) $\Leftrightarrow$ GLOSS_L(T) $\Leftrightarrow$ RETELLING_I(T) $\Leftrightarrow$ RETELLING_K(T) $\Leftrightarrow$ RETELLING_M(T) - BCCWJ-SUMM_L(T) $\Leftrightarrow$ GLOSS_L(T) 文字単位の評価の場合 n-gram $(1, \leq 2, \leq 3, \leq 4) \_c h a r, p-m e r(2,3,4, \leq 2, \leq 3, \leq 4) \_c h a r$ に有意差があった。 形態素単位の評価の場合 n-gram $(1, \leq 2, \leq 3) \_m r p h$, Kendall_mrph に有意差があった. - BCCWJ-SUMM_L $(\mathrm{T}) \Leftrightarrow$ RETELLING_$_{-}$I,K,M $\}(\mathrm{T})$ n-gram(4)_char (BCCWJ-SUMM_L(T) $\Leftrightarrow$ RETELLING_\{K\}(T)), n-gram(4)_mrph (BCCWJ-SUMM_L $(\mathrm{T}) \Leftrightarrow$ RETELLING_$_{-}\{\mathrm{K}, \mathrm{M}\}(\mathrm{T})$ ) 以外の全ての尺度について,有意差が見られた。 - $\quad$ GLOSS_L $(\mathrm{T}) \Leftrightarrow$ RETELLING_\{I,K,M $\}(\mathrm{T})$ 全ての尺度について, 有意差があった。 - RETELLING_I(T) $\Leftrightarrow$ RETELLING_K(T) n-gram(1)_mrphについてのみ有意差があった. - RETELLING_I(T) $\Leftrightarrow$ RETELLING_M(T) 文字単位の評価の場合 n-gram(4)_char, footrule_char, kendall_char 以外に有意差があった.形態素単位の評価の場合, kendall_mrph 以外に有意差があった. - RETELLING_ $\mathrm{I}(\mathrm{T}) \Leftrightarrow$ RETELLING_M( $\mathrm{T})$ 文字単位の評価の場合全ての尺度に有意差がなかった。形態素単位の評価の場合, n-gram( $\leq 2, \leq 3, \leq 4) \_m r p h$, footrule_mrph,kendall_mrph 以外に有意差があった. 複数人間の評価ではなく, 複数回間の評価でも同じ傾向が見られる. 再話課題間については, 形態素単位の評価において, 三課題のうちどの二つ組においても有意差が出る傾向にある. 口述による再話 (RETELLING_\{I,K\}) の方が筆述による再話 (RETELLING_M) より一致度が高くなる。また口述による再話においては, 自身の体験に基づく再話 (RETELLING_I)の方が,他者から聞いた話の再話 (RETELLING_K)よりも一致度の高くなることが認められた。 ・クラウドソーシングにおける課題間の違いの評価 BCCWJ-SUMM_C $\Leftrightarrow$ GLOSS_C について,全ての尺度について,有意差があった. クラウドソーシングにおける課題間の違いについても, 前項と同じ傾向が見られる. - 要約課題においてクラウドソーシングと実験室との違いの評価(複数人間) BCCWJ-SUMM_C $\Leftrightarrow$ BCCWJ-SUMM_L(P) について, n-gram(2)_char, n-gram(3)_char, n-gram(4)_charにのみ有意差があった. これは, タイプ入力 (BCCWJ-SUMM_C) と筆述 (BCCWJ-SUMM_L(P))とで, 表記ゆれ統制の差の影響が考えられる。 ・ 語釈課題においてクラウドソーシングと実験室との違いの評価(複数人間) GLOSS_C $\Leftrightarrow$ GLOSS_L(P) について, n-gram(2,3,4)_char, n-gram(2,3,4)_mrph, Footrule_mrph, Kendall_mrph 以外について有意差があった. 語釈においては, クラウドソーシングの場合 wikipedia や辞書サイトからのコピーが行われる傾向にある一方,実験室の場合は特にリファレンスもなく筆述で行うために差が出たのではないかと考える。 $\cdot$ 複数人間距離と単一人の回数間距離の違いの評価 BCCWJ-SUMM_L(P) $\Leftrightarrow$ BCCWJ-SUMM_L(T), GLOSS_L(P) $\quad \Leftrightarrow \quad$ GLOSS_L(T), RETELLING_K $(\mathrm{P}) \Leftrightarrow$ RETELLING_K(T), RETELLING_M(P) $\Leftrightarrow$ RETELLING_M(T) について, 全ての尺度について有意差があった。 基本的に単一人が実施したほうが一致度が高いと考えられるが,統計分析の結果からもそれが確認できる。 ## 4.4 各評価尺度の特性 課題間の議論から考えられる各尺度の特性について論じる。 まず, 文字 n-gram はタイプ入力と筆述入力の差として認められることから, 表記ゆれレベルで一致度の下がる特性があると考える。形態素 n-gram は再話と繰り返しで顕著に高くなったことから,個人の文体などを反映していると考える。 p-mer, Footrule, Kendall などは語順の一致を反映していると考えられるが, ストーリー性がある要約・再話で一致度が高い一方,語釈などにおいては低い傾向にあることがわかった.語順に対して,ストーリーの一致を評価するのか,説明の順序を評価するのかについて深く検討する必要があると考える,ストーリーの一致については (加藤, 富田, 浅原 2016)において, 被験者実験的に人が何を同一の物語とみなすかについて検討されている。また,語釈などにおいても情報提示順序により伝わりやすさが変わること (加藤, 浅原 2015) が報告されている. 自動要約の評価尺度で導入された語順の尺度については,ストーリーの一致(内容一致)を目的とするのか,伝わりやすさの一致(表現一致)を目的とするのかについては言及されていない.今回の調査では,夕スクの設定によりこれらを切り分けることを試みたが,夕スク間の差異は確認できなかった。 n-gram, p-mer ともに $n, p$ の值が高くなるにつれて尺度の値が低くなる.このために有意差が出にくくなる傾向にある. n-gram, p-mer ともに $n$ (or p) 以下の尺度として設定した場合に, より低い $n$ (or $p$ ) の方が一致が多くなる傾向にあるために, より高い $n$ (or $p$ ) の差異が見られなくなる傾向がある。これは尺度の自然な解釈であると考えられるが,何らかの用途で長い n-gram, p-mer を重要視する場合には部分(文字)列長に対して加重を行う必要があるだろう. n-gram(1)_* と Kendall_* と比較した場合, n-gram(1)_*では有意差が出るが, 順序尺度を入れた Kendall_*では有意差が出ない尺度の組み合わせがいくつかあった。これは文字順・語順の一致度が低い場合に,順序尺度を掛けあわせたがために全体の一致度の差がなくなったことが考えられる。 ## 5 おわりに 本稿では,まず自動要約・機械翻訳で用いられている評価指標の数理的構造を説明した。評価指標がどのカーネル・距離・相関係数などの尺度と対応しているのかを説明し, n-gram 系, p-mer 系, ベクトル型順序尺度,編集型順序尺度の四つに抽象化した. 次に様々な言語資源を用いて各指標を構成する尺度の特性を明らかにした。要約・語釈・再話からなる 7 種類の言語資源を用いて, 課題 - 多人数産出・複数回産出 ・産出手段(口述・筆述・タイプ)の軸を用いて,どのような分散が観察されるかを確認した。結果, 各評価尺度において, 表現一致と内容一致の識別は困難であり, 評価の識別限界としての分散があることを示した. 今後の展開として以下の五つを考えている. 一つ目は要約評価に求められる尺度とは何かを明らかにすることである。 尺度が捉える言語の特性については明らかにしたが,自動要約に必要な内容評価と読みやすさの観点については何も言っていないに等しい. 現在, 収集した要約に対して, 以下の五つの軸で人手による評価を付与している (浅原他 2015). - 文法性 (Grammaticality): 誤字・文法的でない文が含まれていないか - 非㔯長性 (Non-redundancy): 全く同じ情報が繰り返されていないか - 指示詞の明解さ (Referential clarity): 先行詞のない指示詞 (代名詞) が含まれていないか - 焦点 (Focus): 要約全体と無関係な情報が含まれていないか - 構造と一貫性 (Structure and Coherence): 接続詞を補ったり削除したりする必要のある箇所はないか 人手による評価を悉皆的に付与したうえで,各評価軸がどの尺度に表れるのかを引き続き分析していきたい. 二つ目は情報構造アノテーションとの重ね合わせである,尺度において,語順の評価を入れるかどうかが一つの論点であった。日本語において語順を決める一つの要素として情報構造がある. 情報構造は言語生産者側の観点である情報状態 \{speaker-new, speaker-old\} と言語受容者側の観点である共有性 $\{$ hearer-new, hearer-old $\}$ の区別を行い,後者については被験者実験的にアノテーションを行う。これらのアノテーション結果を用いて,なぜ要約文はその順序で情報 を提示する必要があるのかについて検討する。 三つ目は要約文の言語受容者側の観点からの認知的な評価である。今回は元文書の言語受容者であり要約文の言語生産者側の観点からの認知的な評価を主に扱った. 生産された要約文が他の言語受容者にとって同じ話として認定されるか (加藤他 2016; 加藤, 浅原 2015) を検討していきたい。一方, 日本語複数文書要約についての拡張も考えられるが, 元文書側の言語生産者が複数人になるという問題がある. 複数の言語生産者側が考慮している情報構造が, 要約作成者と要約受容者にどのように受容されるか追跡可能な認知実験手法を検討する. 四つ目は人文系の研究者が評価する文体についての尺度を明らかにすることである.文体の研究は使用域 (register) や位相 (phase) などに着目して行われるが, 現在のところ役割語など単一の語についての研究がほとんどである。語の連接や語の順序などの使用域や位相を, 先に述べた尺度で捉えることを目標とする. 五つ目は同じ話とは何かということを定量的に評価する手法の提案である. 内容を捉える尺度と表現を捉える尺度を分離することで, 人が内容が一致していると認知できる表現のゆれを捉えることを目標とする。既に同じ話を構成する要素について,様々な分析 (保田, 荒牧 2012;保田他 2013b; 保田 2014; 加藤 2015c; 加藤, 浅原 2016) を進めているが, これらの結果が尺度にどのように表れるのかについて分析を行う. ## 謝 辞 要約文の作成および評価については NTT CS 研の平尾努氏の助言を受けました。本研究の一部は, 国立国語研究所基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」 (2011-2015) および国立国語研究所「超大規模コーパス構築プロジェクト」(2011-2015)によるものです. 本研究は JSPS 科研費基盤研究 (B) 25284083, 若手研究 (B) 26770156 の助成を受けたものです. ## 参考文献 天野成昭, 近藤公久 (1999). 日本語の語彙特性第 1 期 CD-ROM 版. 三省堂. 浅原正幸, 杉真緒, 柳野祥子 (2015). BCCWJ-SUMM: 『現代日本語書き言葉均衡コーパス』を元文書とした要約文書コーパス. 第 7 回コーパス日本語学ワークショップ予稿集, pp. 285-292. Birch, A. and Osborne, M. (2010). "LRscore for Evaluation Lexical and Reordering Quality in MT." In Proceedings of the Joint 5th Workshop on Statistical Machine Translation and MetricsMATR, pp. 327-332. Echizen-ya, H. and Araki, K. (2007). "Automatic Evaluation of Machine Translation based on Recursive Acquisition of an Intuitive Common Parts Continuum." In Proceedings of the MT Summit XI Workshop on Patent Translation, pp. 151-158. 平尾努, 磯崎秀樹, 須藤克仁, K. Duh, 塚田元, 永田昌明 (2014). 語順の相関に基づく機械翻訳の自動評価法. 自然言語処理, 21 (3), pp. 411-444. 平尾努,奥村学,磯崎秀樹 (2006). 拡張ストリングカーネルを用いた要約システムの自動評価 法. 情報処理学会論文誌, 47 (6), pp. 1753-1765. 平尾努, 奥村学, 安田宣仁, 磯崎秀樹 (2007). 投票型回帰モデルによる要約自動評価法. 人工知 能学会論文誌, $22(2)$, pp. 115-126. 神嶌敏弘 (2009). 順序の距離と確率モデル. 人工知能学会研究会資料 SIG-DMSM-A902-07. 加藤祥 $(2015 \mathrm{a})$. テキストから対象物認識に有用な記述内容一動物を例に一. 国立国語研究所論 集, 9, pp. 23-50. 加藤祥 $(2015 b)$. 象は鼻が長いか—テキストから取得される対象物情報. 第 7 回コーパス日本語学ワークショップ, pp. 35-44. 加藤祥 $(2015 \mathrm{c})$. 同じ話における共通語彙. 社会言語科学会第 36 回大会. 加藤祥, 浅原正幸 (2015). テキストからの対象物認識における情報提示順序の影響. 2015 年度 日本認知科学会第 32 回大会, pp. 362-369. 加藤祥, 浅原正幸 (2016). 恋愛小説において物語を特徴づける表現一タイトルと帯に見られる 表現分析の試み一. 社会言語科学会第 38 回大会, pp. 128-131. 加藤祥, 富田あかね, 浅原正幸 $(2016)$. 物語がその物語であるための要素一何が同じであれば 同じで何が違えば違うのか一. 言語処理学会第 22 回発表論文集, pp. 266-269. Lin, C.-Y. (2004). "ROUGE: A Package for Automatic Evaluation of Summaries." In Proceedings of Workshop on Summarization Branches Out, Post Conference Workshop of ACL 2004, pp. 74-81. Lin, C.-Y. and Hovy, E. (2003). "Automatic Evaluation of Summaries Using N-gram Cooccurrence Statistics." In Proceedings of the 4th Meeting of the North American Chapter of the Association for Computational Linguistics and Human Language Technology, pp. 150-157. Maekawa, K., Yamazaki, M., Ogiso, T., Maruyama, T., Ogura, H., Kashino, W., Koiso, H., Yamaguchi, M., Tanaka, M., and Den, Y. (2014). "Balanced corpus of contemporary written Japanese." Language Resources and Evaluation, 48, pp. 345-371. 宮部真衣, 四方朱子, 久保圭, 荒牧英治 (2014). 音声認識による認知症・発達障害スクリーニングは可能か? 一言語能力測定システム “言秤” の提案一. グループウェアとネットワー クサービスワークショップ 2014. 難波英嗣, 平尾努 (2008). テキスト要約の自動評価. 人工知能学会誌, 23 (1), pp. 10-16. Nivre, J. (2009). "Non-Projective Dependency Parsing in Expected Linear Time." In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP, pp. 351-359. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2001). "Bleu: a Method for Automatic Evaluation of Machine Translation." Tech. rep., IBM Research Report RC22176 (W0109022). Shawe-Taylor, J., Cristianini N., 大北剛(訳) (2010). カーネル法によるパターン解析 (Kernel Methods for Pattern Analysis), 第 11 章構造化データに対するカーネル:文字列, 木など.共立出版. 保田祥 (2014). 同じ話を成立させる語一「桃太郎」を「桃太郎」として成立させる語彙一. 社会言語科学会第 33 回大会発表論文集, pp. 138-141. 保田祥, 荒牧英治 (2012). 人が同じ話を何度もするとどうなるか?:繰り返しによって生じる物語独話の変化. 日本認知科学会第 29 回大会, pp. 217-223. 保田祥, 田中弥生, 荒牧英治 (2013a). 繰り返しにおける独話の変化. 社会言語科学会第 31 回大会発表論文集, pp. 190-193. 保田祥, 田中弥生, 荒牧英治 (2013b). 同じ話であるとはどういうことか. 社会言語科学会第 32 回大会発表論文集, pp. 30-33. ## 付録 ## A 2 節で用いる用語定義 以下 2 節で用いる用語を定義する: - 記号集合:本稿では記号の集合を $\sigma$ で表す. - 記号列:何らかの全順序が付与されている記号集合.本稿では記号列ベクトル $s=\left.\langle s_{1}, \ldots, s_{m}\right.\rangle, t=\left.\langle t_{1}, \ldots, t_{m}\right.\rangle$ などで表現する. - 文字 (character), 文字ベース (character-based): 記号集合 $\sigma$ の要素の記号 $s_{i} \in \sigma$ としての文字. 記号集合 $\sigma$ の要素が文字であること. - 形態素 (morpheme), 形態素ベース (morpheme-based): 記号集合 $\sigma$ の要素の記号 $s_{i} \in \sigma$ としての形態素. 記号集合 $\sigma$ の要素が形態素であること. - 文字列 (string): 評価する記号列上の連続列. 記号列の要素が文字 (character)である場合を「文字ベースの文字列 (character-based string)」,記号列の要素が形態素 (morpheme) である場合を「形態素べースの文字列 (morpheme-based string)」と呼ぶこととする. - 部分文字列 (substring): 記号列に対して隣接性と順序を保持した部分的記号列. 長さ $n$ の部分文字列を特に n-gram 部分文字列と呼ぶ. 記号列 $s$ の $i$ 番目の要素からはじまる n-gram 部分文字列を $s_{i \ldots i+n-1}$ で表現する. - 部分列 (subsequence): 記号列に対して順序を保持した部分的記号列. 隣接性は保持しなくてよい. 長さ $p$ の部分列を特に p-mer 部分列と呼ぶ. 記号列 $s$ の p-mer 部分列を,インデックスベクトル $\vec{i}=\left.\langle i_{1}, \ldots, i_{p}\right.\rangle\left(1 \leq i_{1}<i_{2}<\cdots<i_{p} \leq|s|\right)$ を用いて, $s[\vec{i}]$ と表す. - 参照テキスト (reference): 人間が作成した正解要約/翻訳. 本稿では記号列 $R$ で表す. - システム出力テキスト (candidate): 要約作成器/機械翻訳器が出力した要約/翻訳. 本稿では記号列 $C$ で表す。 - 距離 (distance): 集合 $X$ 上で定義された 2 変数の実数値関数で, 本稿では $d: X \times X \rightarrow R$ などの記号を使う。 正定値性 $(d(x, y) \geq 0)$, 非退化性 $(x=y \Rightarrow d(x, y)=0)$, 対称性 $(d(x, y)=d(y, x))$, 三角不等式 $(d(x, y)+d(y, z) \geq d(x, z))$ を満たす. - 絶対値 (absolute value): 大きさの一般化概念. 実数については 0 からの距離, 集合については要素数を表すのに用い $|x|$ で表す.また, テキスト C 中の単語/n-gram/p-mer の要素数(のべ出現数)を $|e|_{C}$ で表す. - $\theta$-ノルム (norm): ベクトル空間上に距離を規定する長さの一般化概念. ベクトル $x=$ $\left.\langle x_{1}, \ldots, x_{n}\right.\rangle$ の $\theta$-ノルムを $\|x\|_{\theta}=\left(\sum_{i=1}^{n}\left|x_{i}\right|^{\theta}\right)^{1 / \theta}$ により定義する. 特に $\theta$ を定義しない場合 $(\|x\|)$ は 2-ノルムを用いる. - 内積記号 $\cdot$ : 文字列に対しては連結, 整数・実数については積, ベクトルなどについては内積, 対称群については写像の合成(積)を扱うために用いる. - 類似度 (similarity): 二つの元の距離は遠さを表すのに対し, 類似度は近さを表す. 距離の逆数は類似度として扱える. - 相関係数 (correlation): 二つの確率変数の間の相関を表す指標で, 類似度として扱える. $[-1,1]$ 区間の値をとり,1に近い場合は正の相関があると呼び, -1 に近い場合には負の相関があると呼ぶ. 0 に近い場合には相関が弱いという意味がある. - カーネル関数 (kernel function): 特徴空間中の座標の明示的な計算を経由せずに特徴量空間における内積 (正定值性と非退化性をもち, 実数べクトル空間では対称性ももつ)を定義するもの. 本稿では $K(s, t)$ と表記する. 内積を正規化することにより cosine 類似度 $\left(\frac{K(s, t)}{\|K(s, s)\| \cdot\|K(t, t)\|}\right)$ を定義することができる. - スコア (score): 類似度などを $[0,1]$ 区間に正規化したもの. 本稿では score などの記号で示す. - 接頭辞 (prefix): 記号列の先頭要素を含む連続文字列. - 接尾辞 (suffix): 記号列の末尾要素を含む連続文字列. - 部分集合 (subset): 記号列を集合とみなした場合の部分集合. 隣接性と順序は保持しなくてよい.要素数 $k$ の部分集合を特に $k$-element 部分集合と呼ぶ. - 順位ベクトル (rank vector): インデックス $i$ 要素が対象 $i$ の順位を表すベクトル. 本稿では $m$ 次元の順位ベクトル空間を $S_{m}$ で表し, 順位べクトル空間の要素である順位べクトルを $\mu=\langle\mu(1), \ldots, \mu(m)\rangle$ で表す. $\mu(i)$ には対象 $i$ の順位を表す自然数が入る. - 順序ベクトル (order vector): 順位が $i$ 番目である要素がインデックス $i$ の位置に格納されているべクトル.本稿では $m$ 次元の順序べクトル空間を $T_{m}$ で表し,順位べクトル $\mu(i)$ に対応する順序べクトルを $\mu^{-1}=\left.\langle\mu^{-1}(1), \ldots, \mu^{-1}(m)\right.\rangle$ で表す. $\mu^{-1}(i)$ には順位が $i$ である要素(の順位べクトル上でのインデックス)が入る. - 同順 (concordant): 二つの順位ベクトル中で対象対 $i$ と $j$ が以下を満たすとき, その対象対が同順であるという。 $(\mu(i)-\mu(j))(\nu(i)-\nu(j)) \geq 0$ - 逆順 (discordant): 二つの順位べクトル中で対象対が同順でないことを逆順という. - 文字列上の編集 : 插入 (insertion), 削除 (deletion), 代入 (substitution)の三つを規定する. - 順序べクトル上の編集:順序べクトルを対称群 (symmetric group) と考えて編集する際の操作を規定する。 - 対称群 : 並び替えの編集操作(置換:permutation)を元とする群. 順序ベクトル $\mu^{-1}=$ $\left.\langle\mu^{-1}(1), \ldots, \mu^{-1}(m)\right.\rangle$ のうち, $\mu^{-1}\left(k_{1}\right), \mu^{-1}\left(k_{2}\right), \ldots, \mu^{-1}\left(k_{r}\right)$ 以外は動かさず, $\mu^{-1}\left(k_{1}\right) \rightarrow$ $\mu^{-1}\left(k_{2}\right), \mu^{-1}\left(k_{2}\right) \rightarrow \mu^{-1}\left(k_{3}\right), \ldots$ のように順にずらす置換 $\left(\begin{array}{cccc}\mu^{-1}\left(k_{1}\right) & \mu^{-1}\left(k_{2}\right) & \ldots & \mu^{-1}\left(k_{r}\right) \\ \mu^{-1}\left(k_{2}\right) & \mu^{-1}\left(k_{3}\right) & \ldots & \mu^{-1}\left(k_{1}\right)\end{array}\right)$ のことを巡回置換と呼び, $\pi_{r}=\left(k_{1}, k_{2}, \ldots, k_{r}\right)$ で表す. 二つの元のみを入れ替えて他の元は変えないもの(2元の巡回置換)を互換 (transposition) と呼び, $\pi_{2}=(i, j)$ で表す. 隣接する二つの元のみを入れ替えて他の元は変えないものを隣接互換 (adjacent transposition) と呼び, $\pi_{2}=(i, i+1)$ で表す. - クロネッカーのデルタ $\delta: \delta(i, j)= \begin{cases}1 & (i=j) \\ 0 & (i \neq j)\end{cases}$ - $s$ 再帰 ( $s$-recursive), $t$ 再帰 ( $t$-recursive): それぞれ変数 $s, t$ に対して再帰的に定義すること. 本稿では $s, t$ は文字列を想定し, 1 文字増やした際の文字列を定義する差分方程式の説明に用いる. B 指標・スコア・距離・カーネル・相関係数の関係まとめ ## C言語生成過程と尺度 表 3 に 4.3 節で行った検定の結果のまとめを示す. 表 4 に要約課題・語釈課題と各尺度の比較を表 5 に再話課題と各尺度の比較を示す。標準偏差は BCCWJ-SUMM_L(T) が最も大きい.これは繰り返し要約する際に全く同じ要約文を再生産する被験者と全く異なる要約文を再生産する被験者とが存在するからだと考えられる。しかし, 他の再話 (RETELLING_K(T),RETELLING_M(T)) でも被験者間の標準偏差と比して高いことから要約文特有の現象ではないと考える. 表 34.3 節で行った検定の結果のまとめ(有意差があったもの一覧) \\ ## 略歴 浅原正幸:2003 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 2004 年より同大学助教. 2012 年より国立国語研究所コーパス開発センター特任准教授. 国立国語研究所言語資源研究系准教授を経て, 現在国立国語研究所コーパス開発センター准教授. 博士 (工学). 加藤祥 : 2011 年神戸大学人文学研究科博士後期課程修了. 2012 年より国立国語研究所コーパス開発センタープロジェクト PDフェロー. 現在国立国語研究所コーパス開発センタープロジェクト非常勤研究員. 博士 (文学). (2016 年 5 月 12 日受付) (2016 年 8 月 17 日再受付) (2016 年 10 月 4 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 中間言語情報を記憶するピボット翻訳手法 統計的機械翻訳において, 特定の言語対で十分な文量の対訳コーパスが得られない 場合,中間言語を用いたピボット翻訳が有効な手法の一つである。複数のピボット 翻訳手法が考案されている中でも, 特に中間言語を介して 2 つの翻訳モデルを合成 するテーブル合成手法で高い翻訳精度を達成可能と報告されている。ところが,従来のテーブル合成手法では,フレーズ対応推定時に用いた中間言語の情報は消失し,翻訳時には利用できない問題が発生する。本論文では,合成時に用いた中間言語の 情報も記憶し, 中間言語モデルを追加の情報源として翻訳に利用する新たなテーブ ル合成手法を提案する。また,国連文書による多言語コーパスを用いた実験により,本手法で評価を行ったすべての言語の組み合わせで従来手法よりも有意に高い翻訳精度が得られた。 キーワード:統計的機械翻訳,多言語翻訳,ピボット翻訳,同期文脈自由文法,言語モデル,対訳コーパス ## Improving Pivot Translation by Remembering the Pivot \author{ Akiva Miura $^{\dagger}$, Graham Neubig ${ }^{\dagger, \dagger \dagger}$, Sakriani Sakti ${ }^{\dagger}$, Tomoki Toda ${ }^{\dagger \dagger \dagger}$ and \\ SATOShi NAKAMURA ${ }^{\dagger}$ } In statistical machine translation, the pivot translation approach allows for translation of language pairs with little or no parallel data by introducing a third language for which data exists. In particular, the triangulation method, which translates by combining source-pivot and pivot-target translation models into a source-target model is known for its high translation accuracy. However, in the conventional triangulation method, information of pivot phrases is forgotten, and not used in the translation process. In this research, we propose a novel approach to remember the pivot phrases in the triangulation stage, and use a pivot language model as an additional information source at translation phase. Experimental results on the united nations parallel corpus showed significant improvements in all tested combinations of languages. Key Words: Statistical Machine Translation, Multilinguality, Pivot Translation, Synchronous Context-Free Grammars, Language Models, Parallel Corpora  ## 1 はじめに ## 1.1 研究背景 言語は,人間にとって主要なコミュニケーションの道具であると同時に,話者集団にとっては社会的背景に根付いたアイデンティティーでもある。母国語の異なる相手と意思踈通を取るためには,翻訳は必要不可欠な技術であるが,専門の知識が必要となるため,ソフトウェア的に代行できる機械翻訳の技術に期待が高まっている。英語と任意の言語間での翻訳で機械翻訳の実用化を目指す例が多いが,英語を含まない言語対においては翻訳精度がまだ実用的なレべルに達していないことが多く, 英語を熟知していない利用者にとって様々な言語間で機械翻訳を支障なく利用できる状況とは言えない。 人手で翻訳規則を記述するルールベース機械翻訳 (Rule-Based Machine Translation; RBMT (Nirenburg 1989)) では,対象の 2 言語に精通した専門家の知識が必要であり,多くの言語対において,多彩な表現を広くカバーすることも困難である。 そのため,近年主流の機械翻訳方式であり,機械学習技術を用いて対訳コーパスから自動的に翻訳規則を獲得する統計的機械翻訳 (Statistical Machine Translation; SMT (Brown, Pietra, Pietra, and Mercer 1993))について本論文では議論を行う,対訳コーパスとは, 2 言語間で意味の対応する文や句を集めたデータのことを指すが,SMTでは学習に使用する対訳コーパスが大規模になるほど,翻訳結果の精度が向上すると報告されている (Dyer, Cordova, Mont, and Lin 2008). しかし, 英語を含まない言語対などを考慮すれば,多くの言語対において,大規模な対訳コーパスを直ちに取得することは困難と言える。このような,容易に対訳コーパスを取得できないような言語対においても,既存の言語資源を有効に用いて高精度な機械翻訳を実現できれば,機械翻訳の実用の幅が大きく広がることになる。 特定の言語対で十分な文量の対訳コーパスが得られない場合, 中間言語 $(P v t)$ を用いたピボッ卜翻訳が有効な手法の一つである (de Gispert and Mariño 2006; Cohn and Lapata 2007; Zhu, $\mathrm{He}, \mathrm{Wu}, \mathrm{Zhu}$, Wang, and Zhao 2014). 中間言語を用いる方法も様々であるが, 一方の目的言語と他方の原言語が一致するような 2 つの機械翻訳システムを利用できる場合,それらをパイプライン処理する逐次的ピボット翻訳 (Cascade Translation (de Gispert and Marino 2006)) 手法が容易に実現可能である。より高度なピボット翻訳の手法としては, 原言語・中間言語 $(S r c-P v t)$ と中間言語・目的言語 (Pvt-Trg)の 2 組の言語対のためにそれぞれ学習された SMT システムのモデルを合成し,新しく得られた原言語・目的言語 $(S r c-T r g)$ の SMT システムを用いて翻訳を行うテーブル合成手法 (Triangulation (Cohn and Lapata 2007)) も提案されており, この手法で特に高い翻訳精度が得られたと報告されている (Utiyama and Isahara 2007). これらの手法は特に,今日広く用いられているSMT の枠組の一つであるフレーズべース機械翻訳 (Phrase-Based Machine Translation; PBMT (Koehn, Och, and Marcu 2003)) について数 (a) 日-英単語対応 $(S r c-P v t$ 対訳から学習) (c) 日-伊単語対応推定時の全候補 (b) 英-伊単語対応 (Pvt- $T r g$ 対訳から学習) (d) 正しく推定された日-伊単語対応 図 12 組の単語対応から新しい単語対応を推定 多く提案され,検証されてきた。しかし,PBMTにおいて有効性が検証されたピボット翻訳手法が,異なるSMT の枠組でも同様に有効であるかどうかは明らかにされていない. 例えば英語と日本語, 英語と中国語といった語順の大きく異なる言語間の翻訳では, 同期文脈自由文法 (Synchronous Context-Free Grammar; SCFG (Chiang 2007))のような木構造べースのSMT によって高度な単語並び替えに対応可能であり,PBMTよりも高い翻訳精度を達成できると報告されている。そのため, PBMT において有効性の知られているピボット翻訳手法が, SCFGによる翻訳でも有効であるとすれば, 並び替えの問題に高度に対応しつつ直接 $S r c-T r g$ の対訳コー パスを得られない状況にも対処可能となる. また,テーブル合成手法では, $S r c-P v t$ フレーズ対応と $P v t-T r g$ フレーズ対応から, 正しい $S r c-T r g$ フレーズ対応と確率スコアを推定する必要がある. 図 1 に示す例では, 個別に学習された (a)の日英翻訳および (b) の英伊翻訳における単語対応から,日伊翻訳における単語対応を推定したい場合,(c)のように単語対応を推定する候補は非常に多く,(d)のように正しい推定結果を得ることは困難である。その上, 図 1(c)のように推定された $S r c-T r g$ の単語対応からは,原言語と目的言語の橋渡しをしていた中間言語の単語情報が分からないため,翻訳を行う上で重要な手がかりとなり得る情報を失ってしまうことになる。このように語義曖昧性や言語間の用語法の差異により,ピボット翻訳は通常の翻訳よりも本質的に多くの曖昧性の問題を抱えており, さらなる翻訳精度の向上には課題がある. ## 1.2 研究目的 本研究では,多言語機械翻訳,とりわけ対訳コーパスの取得が困難である少資源言語対における機械翻訳の高精度化を目指し, 従来のピボット翻訳手法を調査, 問題点を改善して翻訳精 度を向上させることを目的とする,ピボット翻訳の精度向上に向けて,本論文では 2 段階の議論を行う。 第 1 段階目では, 従来の PBMT で有効性の知られているピボット翻訳手法が異なる枠組の SMT でも有効であるかどうかを調査する.1.1 節で述べたように,PBMT によるピボット翻訳手法においては, テーブル合成手法で高い翻訳精度が確認されているため, 木構造ベースの SMT であるSCFGによる翻訳で同等の処理を行うための応用手法を提案する. SCFG とテーブル合成手法によるピボット翻訳が,逐次的ピボット翻訳や,PBMT におけるピボット翻訳手法よりも高い精度を得られるどうかを比較評価することで,次の段階への予備実験とする¹. 第 2 段階目では,テーブル合成手法において発生する曖昧性の問題を解消し,翻訳精度を向上させるための新たな手法を提案する。従来のテーブル合成手法では, 図 1(c) に示したように, フレーズ対応の推定後には中間言語フレーズの情報が失われてしまうことを 1.1 節で述べた。この問題を克服するため, 本論文では原言語と目的言語を結び付けていた中間言語フレーズの情報も翻訳モデル中に保存し,原言語から目的言語と中間言語へ同時に翻訳を行うための確率スコアを推定することによって翻訳を行う新しいテーブル合成手法を提案する。通常の SMT システムでは,入力された原言語文から,目的言語における訳出候補を選出する際,文の自然性を評価し,適切な語彙選択を促すために目的言語の言語モデル(目的言語モデル)を利用する.一方,本手法で提案する翻訳モデルと SMT システムでは,原言語文に対して目的言語文と中間言語文の翻訳を同時に行うため, 目的言語モデルのみではなく, 中間言語の言語モデル(中間言語モデル)も同時に考慮して訳出候補の探索を行う. 本手法の利点は, 英語のように中間言語として選ばれる言語は豊富な単言語資源を得られる傾向が強いため, このような追加の言語情報を翻訳システムに組み込み,精度向上に役立てられることにある1. ## 2 統計的機械翻訳 本節では, SMT の基本的な動作原理となる対数線形モデル(2.1 節), SMT の中でも特に代表的な翻訳方式であるフレーズベース機械翻訳(PBMT, 2.2 節)と木構造に基づく翻訳方式である同期文脈自由文法 (SCFG, 2.3 節), SCFG 3 言語以上に対応できるよう一般化して拡張された複数同期文脈自由文法(Multi-Synchronous Context-Free Grammar; MSCFG, 2.4 節)について説明する。  ## 2.1 対数線形モデル SMT の基本的なアイディアは,雑音のある通信路モデル (Shannon 1948) に基いている.ある原言語の文 $\boldsymbol{f}$ に対して,訳出候補となり得るすべての目的言語文の集合を $\mathcal{E}(\boldsymbol{f})$ とする. $\boldsymbol{f}$ が目的言語文 $\boldsymbol{e} \in \mathcal{E}(\boldsymbol{f})$ へと翻訳される確率 $\operatorname{Pr}(\boldsymbol{e} \mid \boldsymbol{f})$ をすべての $\boldsymbol{e}$ について計算可能とする. $\mathrm{SMT}$ では, $\operatorname{Pr}(\boldsymbol{e} \mid \boldsymbol{f})$ を最大化する $\hat{\boldsymbol{e}} \in \mathcal{E}(\boldsymbol{f})$ を求める. $ \begin{aligned} \hat{\boldsymbol{e}} & =\underset{\boldsymbol{e} \in \mathcal{E}(\boldsymbol{f})}{\arg \max } \operatorname{Pr}(\boldsymbol{e} \mid \boldsymbol{f}) \\ & =\underset{\boldsymbol{e} \in \mathcal{E}(\boldsymbol{f})}{\arg \max } \frac{\operatorname{Pr}(\boldsymbol{f} \mid \boldsymbol{e}) \operatorname{Pr}(\boldsymbol{e})}{\operatorname{Pr}(\boldsymbol{f})} \\ & =\underset{\boldsymbol{e} \in \mathcal{E}(\boldsymbol{f})}{\arg \max } \operatorname{Pr}(\boldsymbol{f} \mid \boldsymbol{e}) P(\boldsymbol{e}) \end{aligned} $ しかし,このままでは様々な素性を取り入れたモデルの構築が困難であるため,近年では以下のような対数線形モデルに基づく定式化を行うことが一般的である (Och 2003). $ \begin{aligned} \hat{\boldsymbol{e}} & =\underset{\boldsymbol{e} \in \mathcal{E}(f)}{\arg \max } \operatorname{Pr}(\boldsymbol{e} \mid \boldsymbol{f}) \\ & \approx \underset{\boldsymbol{e} \in \mathcal{E}(\boldsymbol{f})}{\arg \max } \frac{\exp \left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{h}(\boldsymbol{f}, \boldsymbol{e})\right.}{\sum_{e^{\prime}} \exp \left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{h}\left(\boldsymbol{f}, \boldsymbol{e}^{\prime}\right)\right)} \\ & =\underset{\boldsymbol{e} \in \mathcal{E}(\boldsymbol{f})}{\arg \max } \boldsymbol{w}^{\mathrm{T}} \boldsymbol{h}(\boldsymbol{f}, \boldsymbol{e}) \end{aligned} $ ここで, $h$ は素性べクトルであり, 翻訳の枠組毎に定められた次元数を持ち, 推定された対数確率スコア, 導出に伴う単語並び替え, 各種ペナルティなどを与える。素性ベクトル中のとりわけ重要な要素として,言語モデルと翻訳モデルが挙げられる。言語モデル $\operatorname{Pr}(\boldsymbol{e})$ は, 与えられた文の単語の並びが目的言語においてどの程度自然で流暢であるかを評価するために用いられる.翻訳モデル $\operatorname{Pr}(\boldsymbol{f} \mid \boldsymbol{e})$ は,翻訳文の尤もらしさを規定するための統計モデルであり,対訳コーパスから学習を行う。翻訳モデルは SMT の枠組によって学習・推定方法が異なっており,次節以降で詳細を述べる。 $\boldsymbol{w}$ は $\boldsymbol{h}$ と同じ次元を持っており, 素性べクトルの各要素に対する重み付けを行う, $w$ の各要素を最適な値に調整するためには,対訳コーパスを学習用データや評価用データとは別に切り分けた, 開発用データを利用し, 原言語文の訳出と参照訳(目的言語側の正解訳)との類似度を評価するための自動評価尺度 BLEU(Papineni, Roukos, Ward, and Zhu 2002) などが最大となるようパラメータを求める (Och 2003). 2.2 節以降で説明する各種翻訳枠組も,この対数線形モデルに基いているが,用いる素性はそれぞれで異なる. ## 2.2 フレーズベース機械翻訳 Koehn らによるフレーズベース機械翻訳 (PBMT (Koehn et al. 2003)) は SMT で最も代表的な翻訳枠組である.PBMTの翻訳モデルを学習する際には, 先ず対訳コーパスから単語アラインメント (Brown et al. 1993) を学習し,アラインメント結果をもとに複数の単語からなるフレーズを抽出し,各フレーズ対応にスコア付けを行う。 例えば,学習用対訳データから図 2 のような単語対応が得られたとする ${ }^{2}$. 得られた単語対応からフレーズの対応を見つけ出して抽出を行う例を図 3 に示す. 図のように,与えられた単語対応から抽出されるフレーズ対応の長さは一意に定まらず, 複数の長さのフレーズ対応が抽出される。ただし, 抽出されるフレーズ対応には, フレーズの内外を横断するような単語対応が存在しないという制約が課され,フレーズの最大長なども制限される。このようにして抽出されたフレーズ対の一覧を元に,フレーズ対や各フレーズの頻度を計算し,PBMT の翻訳モデルが学習される. PBMT の翻訳モデルは抽出されたフレーズを翻訳の基本単位とし, これによって効率的に慣用句のような連続する単語列の翻訳規則を学習し,質の高い翻訳が可能である.フレーズの区切り方によって,与えられた原言語文から,ある目的言語文へ翻訳されるための導出も複数の候補があり,それぞれの導出で用いられるフレーズ対の確率スコアや並び替えも考慮して最終的な翻訳確率を推定する。式 (6) の対数線形モデルによって確率スコア最大の翻訳候補を探索するが,素性関数として用いられるものには,双方向のフレーズ翻訳確率,双方向の語彙翻訳確率, 単語ペナルティ, フレーズペナルティ, 言語モデル, 並び替えモデルなどがある. PBMT は,翻訳対象である 2 言語間の対訳コーパスさえ用意すれば,容易に学習し,高速な翻訳を行うことが可能であるため, 多くの研究や実用システムで利用されている. しかし, 文の構造を考慮しない手法であるため,単語の並び替えが効果的に行えない傾向にある。高度な並び替えモデルを導入することは可能であるが (Goto, Utiyama, Sumita, Tamura, and Kurohashi 2013),長距離の並び替えは未だ困難であり,ピボット翻訳で用いることは容易ではない. 図 2 英-日単語アラインメント 図 3 英-日フレーズ抽出  ## 2.3 同期文脈自由文法 本節では,木構造に基づくSMT の枠組である同期文脈自由文法 (SCFG (Chiang 2007))について説明する.SCFGは,階層的フレーズベース翻訳 (Hierarchical Phrase-Based Translation; Hiero (Chiang 2007))を代表とする様々な翻訳方式で用いられている.SCFGは,以下のような同期導出規則によって構成される. $ X \longrightarrow\langle\bar{s}, \bar{t}\rangle $ ここで,Xは同期導出規則の親記号であり, $\bar{s}$ とはそれぞれ原言語と目的言語における終端記号と非終端記号からなる記号列である。 $\bar{s}$ とにはそれぞれ同じ数の非終端記号が含まれ, 対応する記号に対して同じインデックスが付与される.以下に日英翻訳における導出規則の例を示す. $ X \longrightarrow\left.\langle X_{0} \text { of } X_{1}, X_{1} \text { の } X_{0}\right.\rangle $ Hiero 翻訳モデルのための SCFG の学習手法では, 先ず PBMT と同等のアイディアで, 対訳コーパスから学習された単語アラインメントを元にフレーズを抽出する。そしてフレーズ対応中の部分フレーズ対応に対しては, 非終端記号 $X_{i}$ で置き換えてよいというヒューリスティックを用いて,多くのSCFGルールが自動抽出される。例えば,図 2 の単語アラインメントを用いて,以下のような同期導出規則を得ることができる。 $ \begin{aligned} & X \longrightarrow\left.\langle X_{0} \text { hit } X_{1} \text {., } X_{0} \text { は } X_{1} \text { を打った。 }\right.\rangle \\ & X \longrightarrow\langle\text { John, ジョン }\rangle \\ & X \longrightarrow\langle\text { a ball, ボール }\rangle \end{aligned} $ また, 初期非終端記号 $S$ と初期導出規則 $S \longrightarrow\left.\langle X_{0}, X_{0}\right.\rangle$, 抽出された上記の導出規則を用いて,以下のような導出が可能である. $ \begin{aligned} S & \Longrightarrow\left.\langle X_{0}, X_{0}\right.\rangle \\ & \Longrightarrow\left.\langle X_{1} \text { hit } X_{2} ., X_{1} \text { は } X_{2} \text { を打った。 }\right.\rangle \\ & \Longrightarrow\left.\langle\text { John hit } X_{2} ., \text { ジョンは } X_{2} \text { を打った。 }\right.\rangle \\ & \Longrightarrow\langle\text { John hit a ball ., ジョンはボールを打った。 }\rangle \end{aligned} $ 対訳文と単語アラインメントを元に自動的にSCFG ルールが抽出される。抽出された各々のルールには, 双方向のフレーズ翻訳確率 $\phi(\bar{s} \mid \bar{t}), \phi(\bar{t} \mid \bar{s})$, 双方向の語彙翻訳確率 $\phi_{l e x}(\bar{s} \mid \bar{t}), \phi_{l e x}(\bar{t} \mid \bar{s})$, ワードペナルティ ( $\bar{t}$ の終端記号数), フレーズペナルティ(定数 1)の計 6 つのスコアが付与される。 翻訳時には,導出に用いられるルールのスコアと,生成される目的言語文の言語モデルスコアの和を導出確率として最大化するよう探索を行う。言語モデルを考慮しない場合, $\mathrm{CKY+ \text { 法 }}$ (Chappelier and Rajman 1998) によって効率的な探索を行ってスコア最大の導出を得ることが可能である。言語モデルを考慮する場合には, キューブ枝狩り (Chiang 2007) などの近似法により探索空間を抑えつつ, 目的言語モデルを考慮した探索が可能である. ## 2.4 複数同期文脈自由文法 SCFG を複数の目的言語文の同時生成に対応できるように拡張した手法として, 複数同期文脈自由文法 (MSCFG (Neubig, Arthur, and Duh 2015)) が提案されている. SCFG では導出規則中の目的言語記号列 $\bar{t}$ が単一であったが, MSCFG では以下のように $N$ 個の目的言語記号列を有する。 $ X \longrightarrow\left.\langle\bar{s}, \overline{t_{1}}, \cdots, \overline{t_{N}}\right.\rangle $ 通常のMSCFG 学習手法では, SCFG ルール抽出手法を一般化し, 3 言語以上の言語間で意味の対応する文を集めた多言語コーパスから多言語導出規則が抽出され, 複数の目的言語を考慮したスコアが付与される。本手法の利点として, 原言語に対して主要な目的言語が 1 つ存在する場合に, 他の $N-1$ 言語のフレーズを補助的な言語情報として利用し, 追加の目的言語モデルによって翻訳文の自然性評価を考慮した訳出を行うことで,結果的に主要な目的言語においても導出規則の選択が改善されて翻訳精度を向上可能なことが挙げられる。 SCFG は対応するフレーズ間で同一のインデックス付き非終端記号を同期して導出させることで,翻訳と単語並び替えを同時に行えるという単純な規則から成り立つために,多言語間の翻訳モデルへの拡張も容易であった.PBMT はフレーズの翻訳と単語並び替えを個別の問題としてモデル化しているため, MSCFG と同様の方法で 3 言語以上のフレーズ対応を学習して複数の目的言語へ同時に翻訳を行うには,並び替え候補をどのように翻訳スコアに反映させるかなどを新たに検討する必要がある。例えば日本語と朝鮮語のように語順が似通っており,ほとんど単語並び替えが発生しない言語の組み合わせでは,並び替えをまったく行わない場合でも高い並び替え精度となるため, 並び替え距離に応じたぺナルティを与える単純な手法でも高精度となるが, 例えば日本語・朝鮮語とは語順の大きく異なる英語を加えた 3 言語間で並び替えをモデル化することは容易ではなく, 第二の目的言語の存在が悪影響を与える可能性もある.そのため, 本稿では PBMT の多言語拡張を行うことはせず, MSCFGに着目して議論を行う. ## 3 ピボット翻訳手法 2節では, SMT は対訳コーパスから自動的に翻訳規則を獲得し, 統計に基づいたモデルによって翻訳確率スコアが最大となるような翻訳を行うことを述べてきた.統計モデルであるため,言語モデルの学習に用いる目的言語コーパスと翻訳モデルの学習に用いられる対訳コーパスが大規模になるほど確率推定の信頼性が向上し, 精度の高い訳出が期待できる. 言語モデルについては,目的言語の話者数やインターネット利用者数などの影響はあるものの, 比較的取得が容易であるため問題になることは少ない. 一方で対訳コーパスは SMT の要であり, 学習デー 夕にカバーされていない単語や表現の翻訳は不可能なため, 多くの対訳データ取得が望ましく,実用的な SMT システムの構築には数百万文以上の対訳が必要と言われている. ところが英語を含まない言語対,例えば日本語とフランス語のような言語対を考えると,それぞれの言語では単言語コーパスが豊富に取得可能であるにも関わらず,100万文を超えるような大規模な対訳データを短時間で獲得することは困難である. このように, SMT の大前提である対訳コーパスは多くの言語対において十分な文量を直ちに取得できず,任意の言語対で翻訳を行うには課題がある. PBMT におけるピボット翻訳手法が数多く考案されており,本節では代表的なピボット翻訳手法について紹介する。また,4節では,PBMTで有効性の確認されたピボット翻訳手法であるテーブル合成手法を SCFG で応用するための手法を提案し, 実験による比較評価と考察を述べる. 本節では原言語を $S r c$, 目的言語を $T r g$, 中間言語を Pvt と表記し, これらの言語対を Src-Pvt, Src-Trg,Pvt-Trgのように表記して説明を行うこととする. ## 3.1 逐次的ピボット翻訳手法 逐次的ピボット翻訳手法 (Cascade) (de Gispert and Marino 2006)によって Src から $T r g$ いと翻訳を行う様子を図 4 に示す.この方式では先ず,Src-Pvt, Pvt-Trg それぞれの言語対で,対訳コーパスを用いて翻訳システムを構築する。そして Src の入力文を $P v t$ へ翻訳し, Pvt の訳文を $\operatorname{Trg}$ に翻訳することで, 結果的に $S r c$ から $\operatorname{Trg}$ の翻訳が可能となる.この手法は機械 図 4 逐次的ピボット翻訳 翻訳の入力と出力のみを利用するため, PBMT である必然性はなく, 任意の機械翻訳システムを組み合わせることができる。優れた 2 つの機械翻訳システムがあれば,そのまま高精度なピボット翻訳が期待できることや,既存のシステムを使い回せること,実現が非常に容易であることが利点と言える。逆に,最初の翻訳システムの翻訳誤りが次のシステムに伝播し,加法性誤差によって精度が落ちることは久点となる.Src-Pvt 翻訳システムで確率スコアの高い上位 $n$ 文の訳出候補を出力し, $P v t-T r g$ 翻訳における探索の幅を広げるマルチセンテンス方式も提案されている (Utiyama and Isahara 2007) が, 通常より $n$ 倍の探索時間が必要であり, 大きな精度向上も報告されていない. ## 3.2 擬似対訳コーパス手法 擬似的に $S r c-T r g$ 対訳コーパスを作成することで SMT システムを構築する擬似対訳コーパス手法 (Synthetic) (de Gispert and Mariño 2006)によって,Src-Trg 翻訳を行う様子を図 5 に示す. この手法では先ず, $S r c-P v t, P v t-T r g$ のうちの片側, 図の例では $P v t-T r g$ の対訳コーパスを用いて SMT システムを構築する。そして Src-Pvt 対訳コーパスの $P v t$ 側の全文を $P v t-T r g$翻訳にかけることで,Src-Trg 擬似対訳コーパスが得られる。これによって得られた $S r c-T r g$ 擬似対訳コーパスを用いて, SMTの翻訳モデルを学習することが可能となる。対訳コーパスの翻訳時に少しの翻訳誤りが含まれていても,統計モデルの学習に大きく影響しなければ,高精度な訳出が期待できる.既存のシステムから新しい学習データやシステムを作り直すことになるため, 一度擬似対訳コーパスを作ってしまえば,それ以降は通常のSMT と同じ学習手法を用いられることは利点となる。 De Gispert らは, スペイン語を中間言語としたカタルーニヤ語と英語のピボット翻訳で, 逐次的ピボット翻訳手法と擬似対訳コーパス手法によるピボット翻訳手法の比較実験 (de Gispert and Mariño 2006)を行った. その結果, これらの手法間で有意な差は示されなかった. 図 5 擬似対訳コーパス手法 ## 3.3 テーブル合成手法 PBMT, SCFGでは,対訳コーパスによってフレーズ対応を学習してスコア付けした翻訳モデルを,それぞれフレーズテーブル,ルールテーブルと呼ばれる形式で格納する.フレーズテー ブルを合成することで Src-Trg のピボット翻訳を行う様子を図 6 に示す. Cohn らによるテーブル合成手法 (Triangulation) (Cohn and Lapata 2007) では, 先ず Src-Pvt および Pvt-Trg の翻訳モデルを対訳コーパスによって学習し, それぞれをフレーズテーブル $T_{S P}, T_{P T}$ として格納する。得られた $T_{S P}, T_{P T}$ から,Src-Trg の翻訳確率を推定してフレーズテーブル $T_{S T}$ を合成する. $T_{S T}$ を作成するには,フレーズ翻訳確率 $\phi(\cdot)$ と語彙翻訳確率 $\phi_{l e x}(\cdot)$ を用い, 以下の数式に従って翻訳確率の推定を行う. $ \begin{aligned} \phi(\bar{t} \mid \bar{s}) & =\sum_{\bar{p} \in T_{S P} \cap T_{P T}} \phi(\bar{t} \mid \bar{p}) \phi(\bar{p} \mid \bar{s}) \\ \phi(\bar{s} \mid \bar{t}) & =\sum_{\bar{p} \in T_{S P} \cap T_{P T}} \phi(\bar{s} \mid \bar{p}) \phi(\bar{p} \mid \bar{t}) \\ \phi_{\text {lex }}(\bar{t} \mid \bar{s}) & =\sum_{\bar{p} \in T_{S P} \cap T_{P T}} \phi_{\text {lex }}(\bar{t} \mid \bar{p}) \phi_{\text {lex }}(\bar{p} \mid \bar{s}) \\ \phi_{\text {lex }}(\bar{s} \mid \bar{t}) & =\sum_{\bar{p} \in T_{S P} \cap T_{P T}} \phi_{\text {lex }}(\bar{s} \mid \bar{p}) \phi_{\text {lex }}(\bar{p} \mid \bar{t}) \end{aligned} $ ここで, $\bar{s}, \bar{p}, \bar{t}$ はそれぞれ $S r c, P v t, \operatorname{Trg}$ のフレーズであり, $\bar{p} \in T_{S P} \cap T_{P T}$ はフレーズ $\bar{p}$ が $T_{S P}, T_{P T}$ の双方に含まれていることを示す. 式 (17)-(20) は, 以下のような条件を満たす無記憶通信路モデルに基づいている。 $ \begin{aligned} \phi(\bar{t} \mid \bar{p}, \bar{s}) & =\phi(\bar{t} \mid \bar{p}) \\ \phi(\bar{s} \mid \bar{p}, \bar{t}) & =\phi(\bar{s} \mid \bar{p}) \end{aligned} $ 図 6 テーブル合成手法 この手法では,翻訳確率の推定を行うために全フレーズ対応の組み合わせを求めて算出する必要があるため,大規模なテーブルの合成には長い時間を要するが, 既存のモデルデータから精度の高い翻訳を期待できる。 Utiyama らは, 英語を中間言語とした複数の言語対で, 逐次的ピボット翻訳手法とテーブル合成手法によるピボット翻訳で比較実験を行った (Utiyama and Isahara 2007). その結果, テー ブル合成手法では, $n=1$ の単純な逐次的ピボット翻訳や, $n=15$ のマルチセンテンス方式よりも高い BLEU スコアが得られたと報告している. ## 4 同期文脈自由文法におけるテーブル合成手法の応用 3 節で説明したピボット翻訳手法のうち, 逐次的ピボット翻訳および擬似対訳コーパス手法はSMT の朹組にとらわれない手法であるため, SCFG を用いるSMTでもそのまま適用可能であるが,テーブル合成手法は本来, PBMT のフレーズテーブルを合成するために提案されたものである. SCFG を用いる翻訳方式では, 式 (7)のように表現される同期導出規則をルールテー ブルという形式で格納する。次節以降では, SCFGルールテーブルを合成することで, PBMT におけるテーブル合成手法と同等のピボット翻訳を行うための手法について説明し,その後に PBMT およびSCFGにおける複数のピボット翻訳手法による翻訳精度の差を実験によって比較評価し, 考察を行う. ## 4.1 同期導出規則の合成 SCFG ルールテーブル合成手法では, 先ず Src-Pvt, Pvt-Trg それぞれの言語対について, 対訳コーパスを用いて同期導出規則を抽出し(2.3 節),各規則の確率スコアなどの素性を算出してルールテーブルに格納する。 その後, Src-Pvt, Pvt-Trg ルールテーブル双方に共通の Pvt 記号列を有する導出規則 $X \rightarrow\langle\bar{s}, \bar{p}\rangle, X \rightarrow\langle\bar{p}, \bar{t}\rangle$ をすべて見つけ出し,新しい導出規則 $X \rightarrow\langle\bar{s}, \bar{t}\rangle$ の翻訳確率を,式 (17)-(20) に従って推定する. PBMT においては $\bar{s}, \bar{p}, \bar{t}$ が各言語のフレーズ (単語列)を表しており,SCFGにおいては非終端記号を含む各言語の記号列を表す点で異なるが,計算式については同様である。また, $X \rightarrow\langle\bar{s}, \bar{t}\rangle$ のワードペナルティおよびフレーズペナルティは $X \rightarrow\langle\bar{p}, \bar{t}\rangle$ と同じ值に設定する. 本節で提案したルールテーブル合成手法によるピボット翻訳が, 他の手法や他の翻訳枠組と比較して有効であるかどうかを調査するため, 後述する手順によって比較実験を行った. ## 4.2 実験設定 3 節で紹介したピボット翻訳手法のうち, 実現が非常に容易で比較しやすい逐次的ピボット翻訳手法と, PBMT で高い実用性が示されたテーブル合成手法によるピボット翻訳を, PBMT およびSCFGにおいて実施し, 翻訳精度の比較評価を行った。 本実験では,学習および評価に用いる対訳コーパスとして,国連文書を元にして作成された国連多言語コーパス (Ziemski, Junczys-Dowmunt, and Pouliquen 2016)を用いて翻訳精度の比較評価を行った,本コーパスには,英語 $(\mathrm{En})$, アラビア語 $(\mathrm{Ar})$, スペイン語 $(\mathrm{Es})$, フランス語 $(\mathrm{Fr})$, ロシア語 $(\mathrm{Ru})$, 中国語 $(\mathrm{Zh})$ の 6 言語間で意味の対応する約 1,100 万文の対訳文が含まれている。これら 6 言語は複数の語族をカバーしているため, 言語構造の違いにより複雑な単語並び替えが発生しやすく,SMTの枠組とピボット翻訳手法の組み合わせの影響を調査する目的に適している。現実的なピボット翻訳タスクを想定し,英語を中間言語として固定し,残りの 5 言語のすべての組み合わせでピボット翻訳を行った. ピボット翻訳では, Src-Pvt, Pvt-Trg のそれぞれの言語対の対訳を用いて Src-Trg の翻訳を行うが,ピボット翻訳が必要となる場面では直接的な対訳はほとんど存在しないものと想定し,それぞれの対訳の $P v t$ 側には共通の文が存在しない方が評価を行う上で望ましい。本コーパスのアーカイブには学習用データ (train)約 1,100 万文,評価用データ (test) 4,000 文,パラメータ調整用データ (dev) 4,000 文が予め用意されているが,前処理として,それぞれのデータに対して重複して出現する英文を含む対訳文を取り除き,また,長い文は学習・評価時の計算効率上の妨げとなるため train に対して 60 単語, test, dev に対して 80 単語を超える文はすべて取り除いたところ, train は約 800 万文, test, dev はそれぞれ約 3,800 文が残った。しかし,評価対象となる組み合わせ数が膨大であるため,前処理後のデータサイズに比較すると小規模であるが,前処理後の train から Src-Pvt の学習用に train1,Pvt-Trg の学習用に train2をそれぞれ 10 万文, 英文の重複がないように取り出し, test, devはそれぞれ 1,500 文ずつを実際の評価とパラメータ調整に用いた. 複数の言語の組み合わせで PBMT, SCFG のそれぞれについて以下のようにSMT の学習と評価を行い,ピボット翻訳手法の違いによる翻訳精度を比較した。 ## Direct (直接翻訳): 直接的な対訳を得られる理想的な状況下における翻訳精度を得て比較を行うため, $P v t$ を用いず $S r c-T r g$ の直接対訳コーパス train1, train2 を個別に用いて翻訳モデルを学習し評価. train1, train2による翻訳スコアをそれぞれ 「Direct 1$\rfloor$,「Direct 2$\rfloor$ とし,まとめて「Direct $1 / 2\rfloor$ と表記 ## Cascade(逐次的ピボット翻訳): Src-Pvt, Pvt-Trg それぞれの対訳 train1, train2 で学習された翻訳モデルでパイプライン処理を行い, $S r c-T r g$ 翻訳を評価 ## Triangulation (テーブル合成手法): Src-Pvt, Pvt-Trg それぞれの対訳 train1, train2 で学習された翻訳モデルから, 翻訳確率の推定により $S r c-T r g$ 翻訳モデルを合成し評価 コーパス中の中国語文は単語分割が行われていない状態であったため, KyTea (Neubig, Nakata, and Mori 2011) の中国語モデルを用いて単語分割を行った. PBMT モデルの構築には Moses (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007), SCFG 翻訳モデルの構築には Travatar (Neubig 2013)の Hiero 学習ツールを利用した. すべての翻訳システムでは KenLM (Heafield 2011)と train1+train2 の目的言語側 20 万文を用いて学習した 5-gram 言語モデルを訳出の自然性評価に用いている。また, 翻訳結果の評価には, 自動評価尺度 BLEU (Papineni et al. 2002) を用い, 各 SMT システムについて MERT (Och 2003)により, 開発用データセットに対して BLEU スコアが最大となるようにパラメータ調整を行った. ## 4.3 実験結果 様々な言語と機械翻訳方式の組み合わせについて Direct $1 / 2$, Triangulation, Cascade の各ピボット翻訳手法で翻訳を行い評価した結果を表 1 に示す。太字は言語と翻訳枠組の各組み合わせで精度の高いピボット翻訳手法を示す. 先行研究では, PBMT のピボット翻訳手法において Triangulation で Cascade よりも高い翻訳精度が示されており, このことは実験結果の表からも,すべての言語の組み合わせで確認できた. 同様に,4.1節で提案したSCFGルールテーブルの Triangulation によっても, Cascade より高い翻訳精度が示された.このことから, SMTの枠組によらず,Triangulation 手法を用いることで Cascade 手法よりも安定して高いピボット翻訳精度が得られるものと考えられる。また, Triangulation の翻訳精度を Direct と比較した場合,例えばスペイン語・フランス語の Hiero 翻訳における Direct の平均 BLEU スコアが 35.34 であるのに対し, Triangulation の BLEU スコアが 32.62 と, 2.72 ポイントの大きな差が開いており, Direct 翻訳で高い精度が出る言語対では Triangulation 手法でも依然として精度が大きく低下する傾向が見られた。逆に,Direct 翻訳の BLEU スコアが 15 を下回っていて翻訳が困難な言語対では, Triangulation 手法でも大きな差は見られず, フランス語・中国語の Hiero 翻訳のように, Triangulation のスコアが僅かながら Direct のスコアを上回る例も少数見られたが,誤差の範囲であろう. 一方, 翻訳精度を PBMT と Hiero で比較した場合, 言語対によって優劣が異なっているものの,傾向としては中国語を含む言語対において Hiero の翻訳精度が PBMT を大きく上回っており,ロシア語を含む言語対では僅かに下回り,それ以外の言語対では僅かに上回る例が多く見られた。 20 組の言語対のうち 14 組で Hiero における Triangulation のスコアが PBMT の場合を上回っており, 平均して 0.5 ポイント以上の BLEU スコアが向上しているため, Hiero をピボット翻訳に応用する手法は総じて有効であると考えられる. 表 1 ピボット翻訳手法毎の翻訳精度比較 ## 4.4 異なるデータを用いた場合の翻訳精度 4.3 節までは,国連文書コーパスを用いた,複数の語族にまたがる言語間でのピボット翻訳を行った内容について説明し考察している。本研究の過程で, 国連文書コーパスの他, 欧州議会議事録を元にした Europarl コーパス (Koehn 2005) を用いて 4.2 節と同様の実験も実施している.このコーパスは, 欧州の諸言語を広くカバーしており, 多言語翻訳タスクに多用されるが,語族がほとんど共通しており比較的似通った言語間での翻訳となる。この実験では英語を中間言語として固定し, 欧州でも話者数の多いドイツ語, スペイン語, フランス語, イタリア語の 4 言語の組み合わせでピボット翻訳を行った. Europarl からも 10 万文の対訳で学習し, 1,500文ずつの評価とパラメータ調整を行ったが,Src-Pvt と Pvt-Trgそれぞれの翻訳モデルの学習にはすべて中間言語データが一致しているものを用い, 直接的な翻訳と比較してどの程度精度に影響があるかも調査した. この実験結果から, 4.3 節の実験結果と同様に, PBMT と Hiero の双方において, すべての言語対において Triangulation が Cascade よりも高精度となることが確認された。また,2つの翻訳モデルの学習で中間言語側が共通のデータを用いているにも関わらず, Triangulation の精度は Direct と比較して大きく減少しており, この精度差が中間言語側の曖昧性の影響を強く受けて発生したものであると考えられる。一方, PBMT と Hieroの精度を比較した場合には,精度差が言語対に依存するのも同様であり,大きな単語並び替えが発生しないような言語の組み合わせが多いため, 計算コストが低く, 標準設定でより長いフレーズ対応を学習できる PBMT の方が有利と考えられる点も多かった. ## 4.5 考察および関連研究 3 節では, PBMT で提案されてきた代表的なピボット翻訳手法について説明し, 本節ではテー ブル合成手法をSCFG のルールテーブルに適用するための手法について述べ,また言語対・機械翻訳方式・ピボット翻訳手法の組み合わせによって翻訳精度の影響を比較評価した. その結果,SCFGにおいてもテーブル合成手法によって高い翻訳精度を得られることが示され,また言語対や用いるデータによっては PBMT の場合よりも高い精度が得られることも分かった. ピボット翻訳におけるその他の関連研究は,PBMT のテーブル合成手法をべースに,さらに精度を上げるための議論が中心である。テーブル合成手法はピボット翻訳手法の中でも高い翻訳精度が報告されているが (Utiyama and Isahara 2007), 1節で述べたような中間言語側の表現力に起因する曖昧性の問題や, 異なる言語対やデータセット上で推定された単語アラインメントから抽出されるフレーズの不一致によって, 得られる翻訳規則数が減少する問題などがあり, 直接的な対訳が得られる理想的な状況と比較すると翻訳精度が大きく下回ってしまう。これらの問題に対処するための関連研究として, 翻訳確率推定の前にフレーズの共起頻度を推定することでサイズが不均衡なテーブルの合成を改善する手法 (Zhu et al. 2014), 単語の分散表現を用いて単語レベルの翻訳確率を補正する手法 (Levinboim and Chiang 2015), 複数の中間言語を用い る手法 (Dabre, Cromieres, Kurohashi, and Bhattacharyya 2015) などが挙げられ,曖昧性の解消には中間表現の工夫と信頼度の高い言語資源の有効利用が必要と言える。 ## 5 中間言語情報を記憶するピボット翻訳手法の提案 3 節では SMT で用いられているピボット翻訳手法について紹介し, 4 節では従来手法の中で高い翻訳精度が報告されているテーブル合成手法をSCFGで応用するための手順について説明した。また, 比較評価実験により, SCFGにおいても PBMT と同様, テーブル合成手法によって逐次的ピボット翻訳手法よりも高い精度が得られた。しかし, 直接の対訳を用いて学習した場合と比較すると, 翻訳精度の差は未だ大きいため, 精度が損なわれてしまう原因を特定し, 解消することができれば,さらなる翻訳精度の向上が期待できる。テーブル合成手法で翻訳精度が損なわれる原因の一つとして,翻訳時に重要な手がかりとなるはずの中間言語の情報はテー ブル合成後には失われてしまい, 不正確に推定された Src-Trg のフレーズ対応と翻訳確率のみが残る点が挙げられる。本節では, 従来では消失してしまう中間言語情報を記憶し, この追加の情報を翻訳時に用いることで精度向上に役立てる,新しいテーブル合成手法を提案する. ## 5.1 従来のテーブル合成手法の問題点 従来のテーブル合成手法の問題点について,1節中でも紹介したが,本節で改めて説明を行う. テーブル合成手法では, Src-Pvt,Pvt-Trgそれぞれの言語対におけるフレーズの対応と翻訳確率のスコアが与えられており,この情報を元に,Src-Trg 言語対におけるフレーズ対応と翻訳確率の推定を行う.ところが,語義曖昧性や言語間の用語法の差異により,Src-Trg のフレーズ対応を正確に推定することは困難である。 図 7 はテーブル合成手法によって対応を推定するフレーズの例を示しており, 図中では日本語とイタリア語それぞれにおける 3 つの単語が,語義曖昧性を持つ英単語「approach」に結び付いている。このような場合, Src-Trg のフレーズ対応を求め, 適切な翻訳確率推定を行うのは複雑な問題となってくる,その上, 図 8 に示すように, 従来のテーブル合成手法では, 合成時に Src と $\operatorname{Trg}$ の橋渡しをしていた Pvt フレーズの情報が, 合成後には保存されず失われてしまう.現実の人手翻訳の場合を考えても,現在着目しているフレーズに関する追加の言語情報が 図 7 モデル学習に用いるフレーズ対応(日-英-伊) 与えられているなら, その言語を知る者にとって重要な手がかりとなって曖昧性解消などに用いることができる。そのため, $S r c-T r g$ 結び付ける Pvt フレーズは重要な言語情報であると考えられ,本研究では,この情報を保存することで機械翻訳にも役立てるための手法を提案する. ## 5.2 中間言語情報を記憶するテーブル合成手法 前節で述べた問題を克服するため, 本研究では $S r c$ と $T r g$ を結び付けていた $P v t$ フレーズの情報も翻訳モデル中に保存し,Src から $T r g$ と Pvtへの同時翻訳確率を推定することによって翻訳を行う新しいテーブル合成手法を提案する。図 9 に,本提案手法によって得られるフレー ズ対応の例を示す. 本手法の利点は, 英語のように中間言語として選ばれる言語は豊富な単言語資源も得られる傾向が強いため, このような追加の言語情報を翻訳システムに組み込み, 翻訳文の導出時に利用できることにある. 中間言語フレーズの情報を翻訳時に役立てるため, SCFG(2.3 節)を複数の目的言語文の同時生成に対応できるよう拡張した MSCFG(2.4 節)を用いて翻訳モデルの合成を行う.MSCFG による翻訳モデルを構築するためには, Src-Pvt, Pvt-Trg の SCFG 翻訳規則が格納されたルー ルテーブルを元に, SCFG ルールテーブルとしてではなく, Src-Trg-Pvt の MSCFG ルールテー ブルとして合成し, これによって $P v t$ フレーズを記憶する。訳出候補の探索時には, 生成文の 図 8 従来手法によって得られるフレーズ対応 図 9 提案手法によって得られるフレーズ対応 自然性を評価し,適切な語彙選択を促すために言語モデルを用いるが,目的言語モデルのみでなく, 中間言語モデルも同時に用いた探索を行う。次節から, SCFG 翻訳モデルの同期導出規則から MSCFG 翻訳モデルの複数同期導出規則を合成するための手順について説明する。 ## 5.3 同期導出規則から複数同期導出規則への合成 4.1 節では, SCFGの同期規則を合成するために,Src-Pvt, Pvt-Trg ルールテーブル双方に共通の $P v t$ 記号列を有する導出規則 $X \rightarrow\langle\bar{s}, \bar{p}\rangle, X \rightarrow\langle\bar{p}, \bar{t}\rangle$ を見つけ出し,新しい導出規則 $X \rightarrow\langle\bar{s}, \bar{t}\rangle$ の翻訳確率を,式 (17)-(20) に従って確率周辺化を行い推定することを述べた。一方, 中間言語情報を記憶するテーブル合成手法では $X \rightarrow\langle\bar{s}, \bar{p}\rangle, X \rightarrow\langle\bar{p}, \bar{t}\rangle$ を元に,以下のように複数同期規則を合成する. $ X \longrightarrow\langle\bar{s}, \bar{t}, \bar{p}\rangle $ このような規則を用いて翻訳を行うことによって, 同時生成される中間言語文を通じて中間言語モデルなどのような追加の素性を取り入れることが可能となる。式 (17)-(20)に加えて, $T r g$ と Pvt を同時に考慮した翻訳確率 $\phi(\bar{t}, \bar{p} \mid \bar{s}), \phi(\bar{s} \mid \bar{p}, \bar{t})$ を以下のように推定する. $ \begin{aligned} \phi(\bar{t}, \bar{p} \mid \bar{s}) & =\phi(\bar{t} \mid \bar{p}) \phi(\bar{p} \mid \bar{s}) \\ \phi(\bar{s} \mid \bar{p}, \bar{t}) & =\phi(\bar{s} \mid \bar{p}) \end{aligned} $ Src-Pvt の翻訳確率 $\phi(\bar{p} \mid \bar{s}), \phi(\bar{s} \mid \bar{p}), \quad \phi_{\text {lex }}(\bar{p} \mid \bar{s}), \quad \phi_{\text {lex }}(\bar{s} \mid \bar{p})$ はルールテーブル $T_{S P}$ のスコアをそのまま用いることが可能である。これら 10 個の翻訳確率 $\phi(\bar{t} \mid \bar{s}), \phi(\bar{s} \mid \bar{t}), \phi(\bar{p} \mid \bar{s}), \phi(\bar{s} \mid \bar{p})$, $\phi_{\text {lex }}(\bar{t} \mid \bar{s}), \quad \phi_{\text {lex }}(\bar{s} \mid \bar{t}), \quad \phi_{\text {lex }}(\bar{p} \mid \bar{s}), \quad \phi_{\text {lex }}(\bar{s} \mid \bar{p}), \phi(\bar{t}, \bar{p} \mid \bar{s}) , \phi(\bar{s} \mid \bar{p}, \bar{t})$ に加えて, $\bar{t}$ とに含まれる非終端記号数を 2 つのワードペナルティとし, 定数 1 のフレーズペナルティの, 合わせて 13 個のスコアがMSCFGルールにおける素性となる. ## 5.4 同期規則のフィルタリング 前節で説明した, 中間言語情報を記憶するテーブル合成手法は,このままでは $\langle\bar{s}, \bar{t}\rangle$ ではなく, $\langle\bar{s}, \bar{t}, \bar{p}\rangle$ の全組み合わせを記録するため,従来より大きなルールテーブルが合成されてしまう.計算資源を節約するためには,幾つかのフィルタリング手法が考えられる.Neubig らによると,主要な目的言語 $T_{1}$ と補助的な目的言語 $T_{2}$ で翻訳を行う際には, $T_{1}$-フィルタリング手法 (Neubig et al. 2015) が効果的である. このフィルタリング手法を,提案するテーブル合成手法に当てはめると, $T_{1}=\operatorname{Tr} g, T_{2}=P v t$ であり, 原言語フレーズ $\bar{s}$ に対して,先ず $T r g$ において $\phi(\bar{t} \mid \bar{s})$ が上位 $L$ 個までの $\bar{t}$ 残し,それぞれの $\bar{t} に$ 対して $\phi(\bar{t}, \bar{p} \mid \bar{s})$ が最大となるような $\bar{p}$ を残す. ## 6 実験的評価 前節で提案した中間言語情報を記憶するテーブル合成手法の有効性を検証するため,多言語コーパスを用いたピボット翻訳の比較評価実験を実施した。 ## 6.1 実験設定 用いたデータやッールは,4.2 節の実験と大部分が共通しているため, 差分を明らかにしつつ説明を行う. 本実験では,4.2 節の実験で得られた同じ対訳データを用いて各翻訳モデルの学習に用いた。すなわち,国連多言語コーパスを用いて,英語 (En)を中間言語とするアラビア語 $(\mathrm{Ar})$ ,スペイン語 $(\mathrm{Es})$, フランス語 $(\mathrm{Fr})$, ロシア語 $(\mathrm{Ru})$, 中国語 $(\mathrm{Zh})$ の 5 言語の組み合わせでピボット翻訳の翻訳精度を比較し, それぞれの言語対について Src-Pvt 翻訳モデルの学習用 (train1) に 10 万文,Pvt-Trg 翻訳モデルの学習用 (train2) に 10 万文, 評価 (test) とパラメー 夕調整用 $(\mathrm{dev})$ にそれぞれ 1,500 文ずつを用いた。目的言語モデルの学習にも, 4.2 節と同様に train1+train2 の目的言語文 20 万文を用いている,また,多くの場合,英語に扔いては大規模な単言語資源が取得可能であるため, 最大 500 万文までのデータを用いて段階的に学習を行った複数の中間言語モデルを用意した. SCFG およびMSCFG を用いるデコーダとして Travatar (Neubig 2013)を用い, 付属の Hiero ルール抽出プログラムを用いて SCFG 翻訳モデルの学習を行った。翻訳結果の比較には,自動評価尺度 BLEU (Papineni et al. 2002)を用い,各翻訳モデルは MERT (Och 2003)により,開発用デー夕に対して BLEU スコアが最大となるようにパラメータ調整を行った. 提案手法のテーブル合成手法によって得られた MSCFG ルールテーブルは, $L=20$ の $T_{1}$-フィルタリング手法によって枝刈りを行った. 本実験では先ず,以下の 6 つの翻訳手法を比較評価する。 Cascade (逐次的ピボット翻訳): Src-Pvt および Pvt-Trgの SCFG 翻訳モデルで逐次的ピボット翻訳 (3.1節)。「w/ PvtLM $200 \mathrm{k} / 5 \mathrm{M}\rfloor$ は Src-Pvt 翻訳時にそれぞれ 20 万文,500万文で学習した中間言語モデルを用いることを示す ## Tri. SCFG(SCFG ルールテーブル合成手法): $S r c-P v t$ および Pvt-Trg の SCFG モデルを合成し, $S r c-T r g$ の SCFG モデルによって合成 (3.3節, ベースライン) ## Tri. MSCFG(MSCFGルールテーブル合成手法): $S r c-P v t$ および Pvt-Trg の SCFG モデルを合成し,Src-Trg-Pvt の MSCFG モデルによって翻訳(5 節)。「w/o PvtLM」は中間言語モデルを用いないことを示し,「w/ PvtLM $200 \mathrm{k} / 5 \mathrm{M}\rfloor$ はそれぞれ 20 万文, 500 万文で学習した中間言語モデルを用いることを示す ## 6.2 翻訳精度の比較 表 2 に,英語を介したすべての言語対におけるピボット翻訳の結果を示す。実験で得られた結果は,ブートストラップ・リサンプリング法 (Koehn 2004) により統計的有意差を検証した. それぞれの言語対において,太字は従来手法 Tri. SCFGよりもBLEU スコアが高いことを示し,下線は最高スコアを示す。短剣符は各ピボット翻訳手法の翻訳精度が Tri. SCFG よりも統計的有意に高いことを示す $(\dagger: p<0.05, \ddagger: p<0.01)$. 評価值から,提案したテーブル合成手法で中間言語モデルを考慮した翻訳を行った場合,すべての言語対において従来のテーブル合成手法よりも BLEU スコアの向上が確認できる。 すべての組み合わせにおいて,テーブル合成手法で中間言語情報を記憶し,500万文の言語モデルを考慮して翻訳を行った場合に最も高いスコアを達成しており, 従来法に比べ最大で 1.8 , 平均で 0.75 ほどの BLEU 值の向上が見られる。このことから,中間言語情報を記憶し,これを翻訳に利用することが曖昧性の解消に繋がり,安定して翻訳精度を改善できたと言えよう。 また,異なる要因による影響を切り分けて調査するため,MSCFGへ合成するが,中間言語モデルを用いずに翻訳を行った場合の比較も行った (Tri. MSCFG w/o PvtLM). この場合, 保 表 2 ピボット翻訳手法と中間言語モデル規模の組み合わせによる翻訳精度比較 & & & & & \\ 存された中間言語情報が語彙選択に活用されないため, 本手法の優位性は特に現れないものと予想できたが,実際には,SCFGに合成する場合よりも多くの言語対で僅かに高い翻訳精度が見られた。これは, 追加の翻訳確率などのスコアが有効な素性として働き, パラメータ調整を行った上で,適切な語彙選択に繋がったことなどが原因として考えられる. 大規模な中間言語モデルを用いる手法は,本稿で提案するテーブル合成後のモデルのみならず,従来の逐次的ピボット翻訳手法でも可能であるため,500万文の大規模な中間言語モデルを用いた場合の精度評価も行った (Cascade w/ PvtLM 5M). Cascade w/ PvtLM 5M は 20 万文の中間言語モデルしか用いない逐次的ピボット翻訳手法 (Cascade w/ PvtLM 200k) と比較した場合に Zh-Ar,Zh-Ruを除いたすべての言語対で高精度であり,単純に大規模な言語モデルを用いることで精度向上に繋がることは確認された。しかし,従来のテーブル合成手法である Tri. SCFG と比較した場合の精度差は言語対依存であり, 安定した精度向上とはならなかった。また, 本稿の提案手法 Tri. MSCFG w/ PvtLM 5M と, Cascade w/ PvtLM 5M を比較すると, 同じ規模の中間言語モデルを用いていてもすべての言語対で提案手法の方が高精度であり,このことからもテーブル合成手法と大規模な中間言語モデルを用いることの有効性が高いと言えるだろう。 ## 6.3 中間言語モデルの規模が翻訳精度に与える影響 中間言語モデルの規模がピボット翻訳精度に与える影響の大きさは言語対によって異なってはいるが, 中間言語モデルの学習データサイズが大きくなるほど精度が向上することも確認できる。図 10 は,中国語・スペイン語(左)およびアラビア語・ロシア語(右)のピボット翻訳において異なるデータサイズで学習した中間言語モデルが翻訳精度に与える影響を示す。図からも中間言語モデルが曖昧性を解消して翻訳精度向上に寄与している様子が確認できる。中間 図 10 中間言語モデル規模がピボット翻訳精度に与える影響 言語モデルの学習データサイズを増加させることによる翻訳精度への影響は対数的であることも見てとられるが, これは目的言語モデルサイズが翻訳精度へ与える影響と同様の傾向である (Brants, Popat, Xu, Och, and Dean 2007). 中国語・スペイン語の翻訳ではグラフの傾向から, さらに大規模な中間言語モデルを用いることで精度向上の見込みがあるが,一方でアラビア語・ ロシア語の場合には学習データサイズが 200 万文から 500 万文に増加しても精度にほとんど影響が見られないため, これ以上の精度向上には限界があると考えられる。 ## 6.4 曖昧性が解消された例と未解決の問題 本提案手法によって中間言語側で曖昧性が解消されて翻訳精度向上に繋がったと考えられる訳出の例を示す. 入カ文 (フランス語): Le nom du candidat proposé est indiqué dans l'annexa à la présente note . 参照訳(スペイン語): El nombre del candidato propuesto se presenta en el anexo de la presente nota . 対応する英文: The name of the candidate thus nominated is set out in the annex to the present note . Tri. SCFG: El nombre del proyecto de un candidato se indica en el anexo a la presente nota . (BLEU+1: 34.99) Tri. MSCFG w/ PvtLM 5M: El nombre del candidato propuesto se indica en el anexo a la presente nota . (BLEU+1: 61.13) The name of the candidate proposed indicated in the annex to the present note . (同時生成された英文) 上記の例では,入力文中のフランス語の分詞「proposé(指名された)」には参照役中のスペイン語の分詞「propuesto」が対応しているが,従来のテーブル合成手法では,誤った対応である名詞「proyecto(計画,立案)」が結び付き翻訳に用いられた結果, 不正確な訳出となっている。一方で提案手法においては,入力文の「proposé」に対してスペイン語の「propuesto」と英語の「proposed」が同時に結び付いており, 生成される英文中の単語の前後関係から適切な語彙選択を促し,訳出の改善に繋がったものと考えられる。 逆に,提案手法では語彙選択がうまくいかず,直接対訳で学習した場合よりも精度が落ちた訳出の例を示す. 入カ文 (フランス語): J . Risques d'aspiration : citère de viscosité pour la classification des mélanges ;参照訳(スペイン語): J . Peligros por aspiración : criterio de viscosidad para la clasificación de mezclas ;対応する英文: J . Aspiration hazards : viscosity criterion for classification of mixtures ; ## Direct 1: J . Riesgos d'aspiration : criterio de viscosité para la clasificación de los mélanges ; (BLEU+1: 34.20) ## Direct 2: J . Riesgos d'aspiration : criterio de viscosité para la clasificación de mezclas ; (BLEU+1: 49.16) Tri. MSCFG w/ PvtLM 2M: J . Riesgos d'aspiration : viscosité criterios para la clasificación de mélanges ; (BLEU+1: 27.61) J . Risk d'aspiration : viscosité criteria for the categorization of mélanges ; (同時生成された英文) この例では,フランス語の「d'aspiration(吸引)」や「mélanges(混合物)」といった専門用語は,コーパス中の出現頻度が少なく, 「d'aspiration」は train1 や train2にも一度も出現しないため, Direct $1 / 2$ の双方で翻訳不可能で未知語扱いとなっており,「mélanges」は train2 でのみ出現しており, Direct 1 では未知語扱いである.テーブル合成手法では, 2 つの翻訳モデルで共通して出現する中間言語フレーズのみしか学習できないため, 他方のみにしか含まれない専門用語は未知語となってしまう。この問題は, その他のピボット翻訳手法である逐次的ピボット翻訳手法や擬似コーパス手法でも当然解決不可能なため, 複数の対訳データでカバーできない表現は外部辞書などを用いて補う必要があるだろう。 また, この例では未知語の問題以外にもスペイン語の単数形の名詞「criterio(基準)」がテー ブル合成手法では複数形の「criterios」となっていたり語順が誤ったりしている問題も見られる. こういった問題は, 本提案手法である程度は改善されているものの, 活用形や語順の問題により正確に対処するためには,統語的情報を明示的に扱う手法の導入が必要であると考えられる。 ## 6.5 Europarl を用いた評価および品詞毎の翻訳精度 提案手法の有効性を調査するための比較評価実験も, 国連文書コーパスのみでなく, 研究の過程で 4.4 節と同様に Europarl を用いた欧州の言語間でのピボット翻訳においても実施した. この実験においても 10 万文の対訳データを用いて学習した翻訳モデルを合成するが,中間言語モデルの学習には最大 200 万文までの英文を利用した。この実験からも,中間言語情報を記憶するテーブル合成手法と 200 万文で学習した中間言語モデルを用いた場合に, すべての言語対において従来のピボット翻訳手法である Tri. SCFG や Cascade を上回る精度が得られた. このことから,本提案手法は言語構造の類似度に関わらず有効に機能するものと考えられる。 また,英語は他の欧州諸言語と比較して,性・数・格に応じた活用などが簡略化された言語として有名であり,語形から統語情報が失われることで発生する曖昧性の問題もある。本節では, 英語を介したドイツ語・フランス語の両方向の翻訳において, 誤りの発生しやすい品詞について調査する,先ず,独仏・仏独翻訳における評価データの参照訳および各ピボット翻訳手法の翻訳結果に対して Stanford POS Tagger (Toutanova and Manning 2000; Toutanova, Klein, Manning, and Singer 2003) を用いて品詞付与を行い, 参照訳と翻訳結果を比較して, 語順は考慮せずに適合率と再現率の調和平均である $\mathrm{F}$ 値を算出した。 表 3 および表 4 は,各翻訳における高頻出品詞の正解率を表している,出現頻度は,参照訳中の各品詞の出現回数を意味し, 丸括弧内に示された数値は, 提案手法とベースライン手法の $\mathrm{F}$ 值の差分である。結果は言語対依存であるが, 特に目的言語に強く依存していることが明らかである. 表 3 の独仏翻訳の例では,提案手法によって, ベースライン手法よりも特に前置詞,定冠詞,動詞で $\mathrm{F}$ 値が大きく向上している。一般名詞, 形容詞, 動詞, 副詞は重要な内容語であり, 語彙選択の幅も広いため, どの手法でも全体的に $\mathrm{F}$ 値が低くなっている。一般名詞に関しては, 通常のテーブル合成手法でも Direct と大きな差は出ておらず,そのため提案手法でもほとんど改善されなかった。一方で,動詞の $\mathrm{F}$ 值は提案手法で大きく向上しており, 中間言語モデルによって語の並びを考慮して語彙選択を行うことで翻訳精度向上に繋がったと考えられる。しかし, それでも Direct には大きく及ばず,頻度が比較的低い内容語の語彙選択を適切に行うことは困難と言えるだ万う。一方で,機能語においては提案手法において Direct と近い $\mathrm{F}$ 值となった. 表 3 独仏翻訳における品詞毎の翻訳精度 & Tri.SCFG \\ P (前置詞) & 6,553 & 92.58 & $92.46(+1.02)$ & 91.44 \\ DET(定冠詞) & 5,363 & 91.04 & $90.63(+1.50)$ & 89.13 \\ PUNC (区切り記号) & 4,258 & 93.89 & $93.77(+0.44)$ & 93.33 \\ ADJ (形容詞) & 3,725 & 71.36 & $69.85(+0.67)$ & 69.18 \\ V (動詞) & 3,324 & 69.52 & $63.86(+1.06)$ & 62.80 \\ ADV (副詞) & 2,238 & 81.98 & $77.81(+0.34)$ & 77.47 \\ 表 4 仏独翻訳における品詞毎の翻訳精度 & Tri.SCFG \\ ART(冠詞) & 4,502 & 90.38 & $87.21(+1.24)$ & 85.97 \\ CARD(数詞) & 3,849 & 94.56 & $94.38(-0.44)$ & 94.82 \\ APPR(前置詞) & 2,577 & 89.66 & $84.73(+1.50)$ & 83.23 \\ ADJA(形容詞) & 2,311 & 65.96 & $65.29(+0.47)$ & 64.82 \\ NE(固有名詞) & 2,005 & 77.52 & $75.34(+0.47)$ & 74.87 \\ ADV(副詞) & 1,848 & 74.32 & $70.13(+0.18)$ & 69.95 \\ PPEF (再帰代名詞) & 1,665 & 92.64 & $87.46(+1.67)$ & 85.79 \\ 表 4 の仏独翻訳の例では, 表 3 の場合と少し変わっており, 冠詞, 前置詞, 再帰代名詞のような機能語で,提案手法によって $\mathrm{F}$ 値が大きく改善されているものの, Direct と比べると大きな差があり,ピボット翻訳で精度が大きく落ちる原因と考えられる。冠詞や前置詞は機能語であるものの,ドイツ語では男性系・女性系に加えて,英語にもフランス語にもない中性系の活用を持っているため, フランス語よりも活用の種類が多く, また冠詞や前置詞も格に応じた活用をすることが知られている。原言語を英語に翻訳した際には統語的情報が失われることが多いため,機能語にも活用幅があるような目的言語に対してはピボット翻訳が特に困難になることが多い. 本節では, 品詞毎の単語正解率の分析を行ったが,言語対毎に特定品詞の翻訳精度が落ちる現象が見られた,英語には同じ語形で多品詞の語が多いため,単語の対応だけで統語的な役割を判断するのは不可能な場合もある,統語的な情報を汲み取るには複数の単語からなるフレー ズを考慮する必要があるが,文頭と文末のような離れた位置での依存関係も存在するため,単語列としてではなく構文構造を考慮することも重要と考えられる。そこで,本研究の今後の課題として,構文構造を中間言語の表現として用いるピボット翻訳手法を検討している. ## 7 まとめ 本研究の目的は, 多言語機械翻訳におおる播訳精度の向上を目指し,従来のピボット翻訳手法を調查,問題点を改善して翻訳精度を図ることであった,そのために,PBMTで既に有効性が示されている,テーブル合成手法によるピボット翻訳をSCFG に適用し,どのような処理が有効であるかに着目した,さらに,従来のテーブル合成手法では中間言語情報が失われ,曖昧性により翻訳精度が減少する問題に対処するため, 中間言語情報を記憶し, 中間言語モデルを利用して自然な語順の語彙選択を促すことで精度を向上させるテーブル合成手法についても提案した。本論文で提案した手法を用いて,国連文書を元にした多言語コーパスの 6 言語のデー夕を用いてピボット翻訳の比較評価を行ったところ,英語を中間言語としたすべての言語の組み合わせで従来のテーブル合成手法よりも高い翻訳精度が示された.また,特に大規模な中間言語モデルを用いることで,より適切な語彙選択が促されて翻訳の質を高められることが分かった.しかし, 提案手法でも, 直接の対訳コーパスを用いて学習を行った理想的な状況と比較すると, 精度の開きが大きく, 中間言語モデルをさらに大きくするだけでは解決できないであろう点も示唆された. 本提案手法で解決できなかった曖昧性の問題を調査すべく, 特定の言語対で品詞毎の単語正解率を求めたところ, 語順を考慮するだけでは解消されない曖昧性の問題もあり,構文情報を用いてこの点を改善することが今後の課題として考えられる。 ピボット翻訳の曖昧性の問題は, 主として中間言語の表現力に起因しており, 中間言語の単語列だけでは原言語の情報が失われてしまい,目的言語側で確率的に正しく再現することは困 難である。そのため, 今後の課題として,中間言語を特定の言語の単語列としてではなく, より高い表現力を持った構文構造を中間表現とすることで, 中間言語側の多品詞語の問題に対処したり,原言語側の情報を保存して,より正確に目的言語側で情報を再現するための手法を検討する. 1つ目は,中間表現に統語情報を用いた翻訳規則テーブルの軽量化・高精度化である.本研究で提案した手法では,SCFGの翻訳モデルを学習するために,階層的フレーズベース翻訳という枠組の翻訳手法で翻訳規則を獲得している。これは,翻訳において重要な,単語並び替え問題を高精度に対処できる点で優れているが,統語情報を用いず,総当り的な手段で非終端記号を含んだ翻訳規則を学習するため,テーブルサイズが肥大化する傾向がある。その上,テーブル合成時には,中間表現の一致する組み合わせによってテーブルサイズはさらに増加する。これは,曖昧性により多くの誤ったフレーズ対応も保存されることを意味するため,不要な規則は除去してサイズを削減するべきである。このような, 中間表現が一致する組み合わせの中には,文法上の役割は異なるが表記上同じようなものも含まれるため,意味の対応しない組み合わせに対して高い翻訳確率が推定されてしまう場合もある。こういった問題は,中間言語の表現に統語情報を組み込むことで,品詞や句構造が異なればフレーズの対応も結び付かないという制約が働き,誤った句対応を容易に除外できるため,テーブルサイズは減少し,曖昧性が解消されて翻訳精度の向上が期待できる. 2 つ目は, 中間表現に原言語の統語情報を保存するピボット翻訳手法の提案である。ピボット翻訳においては,中間言語の表現力が悪影響を及ぼして,原言語の情報が失われてしまうことを述べてきたが,これは機械翻訳に限らず,人手による翻訳でも度々起こる問題である。例えば,英語には人称接尾辞のような活用体系がないため,英語に訳した際に性・数・格などの統語的情報が失われ,結果的に英語を元にした翻訳では原意と大きく異なってしまう現象などがある。本枠組では,前述の中間言語側の統語情報と組み合わせることで,より原意を汲んだ翻訳の実現を目指す. ## 謝 辞 本研究の一部は JSPS 科研費 $16 \mathrm{H} 05873,24240032$ および ATR-Trek 社共同研究の助成を受けて実施されました。 ## 参考文献 Brants, T., Popat, A. C., Xu, P., Och, F. J., and Dean, J. (2007). "Large Language Models in Machine Translation." In Proceedings EMNLP, pp. 858-867. Brown, P. F., Pietra, V. J., Pietra, S. A. D., and Mercer, R. L. (1993). "The Mathematics of Statistical Machine Translation: Parameter Estimation." Computational Linguistics, 19, pp. 263-312. Chappelier, J.-C. and Rajman, M. (1998). "A Generalized CYK Algorithm for Parsing Stochastic CFG." In Proceedings TAPD, Vol. 98, No. 5, pp. 133-137. Chiang, D. (2007). "Hierarchical Phrase-based Translation." Computational Linguistics, 33 (2), pp. 201-228. Cohn, T. and Lapata, M. (2007). "Machine Translation by Triangulation: Making Effective Use of Multi-Parallel Corpora." In Proceedings ACL, pp. 728-735. Dabre, R., Cromieres, F., Kurohashi, S., and Bhattacharyya, P. (2015). "Leveraging Small Multilingual Corpora for SMT Using Many Pivot Languages." In Proceedings NAACL, pp. 1192-1202. de Gispert, A. and Mariño, J. B. (2006). "Catalan-English Statistical Machine Translation without Parallel Corpus: Bridging through Spanish." In Proceedings of LREC 5th Workshop on Strategies for Developing Machine Translation for Minority Languages, pp. 65-68. Dyer, C., Cordova, A., Mont, A., and Lin, J. (2008). "Fast, Easy, and Cheap: Construction of Statistical Machine Translation Models with MapReduce." In Proceedings WMT, pp. 199-207. Goto, I., Utiyama, M., Sumita, E., Tamura, A., and Kurohashi, S. (2013). "Distortion Model Considering Rich Context for Statistical Machine Translation." In Proceedings ACL, pp. 155-165. Heafield, K. (2011). "KenLM: Faster and Smaller Language Model Queries." In Proceedings, WMT, pp. 187-197. Koehn, P. (2004). "Statistical Significance Tests for Machine Translation Evaluation." In Lin, D. and Wu, D. (Eds.), Proceedings EMNLP, pp. 388-395. Koehn, P. (2005). "Europarl: A Parallel Corpus for Statistical Machine Translation." In MT Summit, Vol. 5, pp. 79-86. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings ACL, pp. 177-180. Koehn, P., Och, F. J., and Marcu, D. (2003). "Statistical Phrase-Based Translation." In Proceedings NAACL, pp. 48-54. Levinboim, T. and Chiang, D. (2015). "Supervised Phrase Table Triangulation with Neural Word Embeddings for Low-Resource Languages." In Proceedings EMNLP, pp. 1079-1083. 三浦明波, Neubig Graham, Sakti Sakriani, 戸田智基, 中村哲 (2014). 階層的フレーズベース翻訳におけるピボット翻訳手法の応用. 情報処理学会第 219 回自然言語処理研究会 (SIG-NL), 20 号, pp. 1-7. 三浦明波,Neubig Graham,Sakti Sakriani,戸田智基,中村哲 (2015). 中間言語モデルを用いたピボット翻訳の精度向上. 情報処理学会第 222 回自然言語処理研究会 (SIG-NL), 2 号, pp. $1-5$. Miura, A., Neubig, G., Sakti, S., Toda, T., and Nakamura, S. (2015). "Improving Pivot Translation by Remembering the Pivot." In Proceedings ACL, pp. 573-577. Neubig, G. (2013). "Travatar: A Forest-to-String Machine Translation Engine based on Tree Transducers." In Proceedings ACL Demo Track, pp. 91-96. Neubig, G., Arthur, P., and Duh, K. (2015). "Multi-Target Machine Translation with MultiSynchronous Context-free Grammars." In Proceedings NAACL, pp. 484-491. Neubig, G., Nakata, Y., and Mori, S. (2011). "Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis." In Proceedings ACL, pp. 529-533. Nirenburg, S. (1989). "Knowledge-Based Machine Translation." Machine Translation, 4 (1), pp. 5-24. Och, F. J. (2003). "Minimum Error Rate Training in Statistical Machine Translation." In Proceedings ACL, pp. 160-167. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings ACL, pp. 311-318. Shannon, C. E. (1948). "A Mathematical Theory of Communication." Bell System Technical Journal, 27 (3), pp. 379-423. Toutanova, K., Klein, D., Manning, C. D., and Singer, Y. (2003). "Feature-rich Part-of-speech Tagging with a Cyclic Dependency Network." In Proceedings NAACL, pp. 173-180. Toutanova, K. and Manning, C. D. (2000). "Enriching the Knowledge Sources Used in a Maximum Entropy Part-of-Speech Tagger." In Proceedings EMNLP, pp. 63-70. Utiyama, M. and Isahara, H. (2007). "A Comparison of Pivot Methods for Phrase-Based Statistical Machine Translation." In Proceedings NAACL, pp. 484-491. Zhu, X., He, Z., Wu, H., Zhu, C., Wang, H., and Zhao, T. (2014). "Improving Pivot-Based Statistical Machine Translation by Pivoting the Co-occurrence Count of Phrase Pairs." In Proceedings EMNLP, pp. 1665-1675. Ziemski, M., Junczys-Dowmunt, M., and Pouliquen, B. (2016). "The United Nations Parallel Corpus v1.0." In Proceedings LREC, pp. 3530-3534. ## 略歴 三浦明波:2013 年イスラエル国テクニオン・イスラエル工科大学コンピュー 夕・サイエンス専攻卒業. 2016 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 現在, 同大学院博士後期課程在学. 機械翻訳, 自然言語処理に関する研究に従事. 情報処理学会, 言語処理学会, ACL 各会員. Graham Neubig: 2005 年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業. 2010 年京都大学大学院情報学研究科修士課程修了. 2012 年同大学院博士後期課程修了.2012~2016 年奈良先端科学技術大学院大学助教. 現在, カーネギーメロン大学言語技術研究所助教, 奈良先端科学技術大学院大学客員准教授. 機械翻訳, 自然言語処理に関する研究に従事. Sakriani Sakti: 1999 年インドネシア・バンドン工科大学情報卒業. 2002 年ドイツ・ウルム大学修士,2008 年博士課程修了。2003 2011 年 ATR 音声言語コミュニケーション研究所研究員, 情報通信研究機構主任研究員. 現在, 奈良先端科学技術大学院大学情報科学研究科助教.2015~2016 年フランス INRIA 滞在研究員. 統計的パターン認識, 音声認識, 音声翻訳, 認知コミュニケー ション, グラフィカルモデルの研究に従事. JNS, SFN, ASJ, ISCA, IEICE, IEEE 各会員. 戸田智基:1999 年名古屋大学工学部電気電子・情報工学科卒業. 2003 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 同年日本学術振興会特別研究員-PD. 2005 年奈良先端科学技術大学院大学情報科学研究科助手. 2007 年同助教. 2011 年同准教授. 2015 年より名古屋大学情報基盤センター教授. 工学博士.音声情報処理の研究に従事. IEEE,電子情報通信学会, 情報処理学会, 日本音響学会各会員. 中村哲:1981 年京都工芸繊維大学工芸学部電子工学科卒業. 京都大学工学博士. シャープ株式会社. 奈良先端科学技術大学院大学助教授, 2000 年 ATR 音声言語コミュニケーション研究所室長, 所長, 2006 年 (独) 情報通信研究機構研究センター長, けいはんな研究所長などを経て, 現在, 奈良先端科学技術大学院大学教授. ATRフェロー.カールスルーエ大学客員教授. 音声翻訳,音声対話, 自然言語処理の研究に従事. 情報処理学会喜安記念業績賞, 総務大臣表彰, 文部科学大臣表彰, Antonio Zampoli 賞受賞. ISCA 理事, IEEE SLTC 委員, IEEE フェロー.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# テキストチャットを用いた雑談対話コーパスの構築と 対話破綻の分析 東中竜一郎 ・船越孝太郎 ${ }^{\dagger+}$ ・荒木 雅弘 ${ }^{\dagger \dagger}$ ・ 対話システムが扱う対話は大きく課題指向対話と非課題指向対話(雑談対話)に分 けられるが, 近年 Web からの自動知識獲得が可能になったことなどから, 雑談対話 への関心が高まってきている。課題指向対話におけるエラーに関しては一定量の先行研究が存在するが, 雑談対話に関するエラーの研究はまだ少ない. 対話システム がエラーを起こせば対話の破綻が起こり,ユーザが円滑に対話を継続することがで きなくなる. しかし複雑かつ多様な内部構造を持つ対話システムの内部で起きてい るエラーを直接分析することは容易ではない。そこで我々はまず,音声誤認識の影響を受けないテキストチャットにおける雑談対話の表層に注目し, 破綻の類型化に 取り組んた。本論文では, 雑談対話における破綻の類型化のために必要な人・機械間の雑談対話コーパスの構築について報告し,コーパスに含まれる破綻について分析・議論する。 キーワード:対話システム,非課題指向対話,雑談,破綻,エラー分析 ## Text Chat Dialogue Corpus Construction and Analysis of Dialogue Breakdown \author{ Ryuichiro Higashinaka ${ }^{\dagger}$, Kotaro Funakoshi ${ }^{\dagger \dagger}$, Masahiro Araki $^{\dagger \dagger \dagger}$, \\ Hiroshi Tsukahara ${ }^{\dagger \dagger \dagger}$, Yuka Kobayashi ${ }^{\dagger \dagger \dagger \dagger \dagger}$ and Masahiro Mizukami ${ }^{\dagger \dagger \dagger \dagger \dagger}$ } In general, there are two types of dialogue systems: the task-oriented dialogue system and the non-task-oriented or chat dialogue system. In recent years, chat dialogue systems have received much attention mainly because of the advances in automatic knowledge acquisition from the web. Nevertheless, few studies are dedicated to the error analysis of chat dialogue systems. This is in contrast with the many error-analysisrelated studies on task-oriented dialogue systems. An error in a chat dialogue system can lead to the dialogue breakdown, where users are no longer willing to continue the conversation. Therefore, error analysis is crucial in such systems. However, it is difficult to analyze errors in chat dialogue systems because of the complex internal structures of the systems. In the present study, we analyze and categorize the errors  in a text chat dialogue system on the basis of the surface form of the conversations. We construct a chat dialogue corpus between a chat system and users and analyze the dialogue breakdowns included in the corpus. Key Words: Dialogue System, Non-Task-Oriented Dialogue, Chat, Breakdown, Error Analysis ## 1 はじめに 近年 Twitter による人間同士の短文のやりとりを始めとしたインターネット上の大量の会話データから自動知識獲得 (稲葉, 神園, 高橋 2014) が可能になったことや, 高性能な音声認識機能が利用可能なスマートフォン端末を多くの利用者が所有するようになったことで,雑談対話システムへの関心が,研究者・開発者側からも利用者側からも高まっている. 対話システムが扱う対話は大きく課題指向対話と非課題指向対話に分けられるが,雑談は非課題指向対話に分類される。課題指向対話との違いについていえば,課題指向対話では対話によって達成する(比較的)明確な達成目標がユーザ側にあり,一般に食事・天気など特定の閉じたドメインの中で対話が完結するのに対し,雑談では,対話をすること自体が目的となり,明確な達成目標がないなかで多様な話題を扱う必要がある。また, 課題指向対話では基本的に対話時間(目標達成までの時間)が短い方が望ましいのに対し,雑談ではユーザが望む限り対話を長く楽しめることが望まれる。そのため, 適切な応答を返すという点において, 雑談対話システムは,課題指向対話とは異なる側面で,様々な技術的困難さを抱える. これまで, 雑談対話システムの構築における最も大きな技術的障壁の 1 つは, 多様な話題に対応する知識(応答パターン)を揃えるコストであった,上記のように,この問題はインターネットからの自動獲得によって解消されつつある。また,ユーザを楽しませる目的 (Wallace 2004; Banchs and Li 2012; Wilcock and Jokinen 2013) だけであれば,システムがおかしな発言をしてしまうことを逆手にとって,適切な応答を返しつづける技術的な困難さを(ある程度)回避してしまうことも可能である. その一方で,雑談対話には,ユーザを楽しませるという噈楽的な価値だけでなく,ユーザとシステムの間の信頼関係の構築 (Bickmore and Cassell 2001) や, ユーザに関する情報(ユーザの好みやユーザの知識の範囲)をシステムが取得することでユーザによりよいサービスを提供することを可能にする (Bang, Noh, Kim, and Lee 2015), 遠隔地にいる老齢ユーザの認知・健康状態を測定したり認知症の進行を予防する (小林, 山本, 大内,長,瀬戸口,土井 2011), グループ内のコミュニケーションを活性化し人間関係を良好にする (Matsuyama, Akiba, Saito, and Kobayashi 2013), といった工学的・社会的価値が存在する. このため, 情報爆発, 少子高齢化, 生活様式の多様化と急激な変化による人間関係の複雑化といった諸問題を抱える現代社会において, 雑 談対話技術の更なる高精度化, すなわち適切な応答を返しつづける能力の向上が今まで以上に求められている. 雑談対話の高精度化のためには, 現状の技術の課題をエラー分析によって特定することが必要である。しかしながら, 課題指向対話, 特に音声対話システムにおける, 主に音声誤認識に起因するエラーに関しては一定量の先行研究が存在するが, テキストのレベルでの雑談対話に関するエラーの研究はまだ少なく, エラー分析の根本となる人・機械間の雑談対話デー夕の蓄積もなければ,そのデータに含まれるエラーを分析するための方法論・分類体系も十分でない.雑談対話システムがその内部でエラーを起こせば対話の破綻が起こり,ユーザが円滑に対話を継続することできなくなる。しかし, 対話システムは, 形態素解析, 構文解析, 意味解析, 談話解析,表現生成など多くの自然言語処理技術の組み合わせによって実現され,かつシステム毎に採用している方式・構成も異なるため, システム内部のエラーを直接分析することは困難であるし,システム間で比較したり,知見を共有することも容易ではない。そこで我々はまず雑談対話の表層に注目し,破綻の類型化に取り組んだ。本論文では,対話破綻研究を目的とした雑談対話コーパスの構築,すなわち人・機械間の雑談対話データの収集と対話破綻のアノテー ションについて報告する。そして,構築したコーパスを用いた分析によって得た破綻の分類体系の草案を示し, 草案に認められる課題について議論する。 以降,2 節で対話データの収集について説明する,今回,新たに対話データ収集用の雑談対話システムを 1 つ用意し, 1,146 対話の雑談対話データを収集した. 3 節及び 4 節では,上記の雑談対話データに対するアノテーションについて述べる。 24 名のアノテータによる 100 対話への初期アノテーションについて 3 節で説明し,その結果を踏まえて,残りの 1,046 対話について, 異なりで計 22 名, 各対話約 2 名のアノテータが行ったアノテーションについて 4 節で説明する.5節では,4節で説明した 1,046 対話に対するアノテーション結果の分析に基づく,雑談対話における破綻の類型について議論する,6節で関連研究について述べ,7節でまとめ,今後の課題と展開を述べる。 ## 2 雑談対話データの収集 本研究は, Project Next NLP の対話タスク (関根 2015)の活動の一部として行われた。そのため,データ収集も対話タスクの参加者を中心に行った。本タスクに参加したのは,表 1 に示す大学・企業を含む 15 の拠点からの総勢 32 名である。これは,対話システムに関する国内のプロジェクトとして最大級の規模である. 雑談対話の収集は, 本研究のために新たに設けた専用のWeb サイト1で行った.この Web サ ^{1}$ http://beta.cm.info.hiroshima-cu.ac.jp/ inaba/projectnext/ } イトでは,NTT ドコモが一般公開している雑談対話 API(大西,吉村 2014)2を用いた雑談対話システムが稼動しており,Web ブラウザでアクセスすることで,テキストでの雑談を行える。 このサイトでは,ユーザが 10 発話を入力すると対話が終了し,対話ログが出力されるようになっている。サイト側ではユーザ管理を行っておらず,ユーザが自己の対話を䌂めて後日提出することによって,ユーザと対話ログの対応が取れるようになっている。図 1 に雑談対話収集サイトのスクリーンショットを示す. 各拠点の参加者および参加者の知人にこの雑談対話システムと対話をしてもらい, 全部で 1,146 対話を収集した。収集は 2014 年 8 月 2 日から 31 日の間に行った。対話をする際には,図 2 に示す「対話ガイドライン (10箇条)」に沿うように教示をした。これは,現状の雑談対話システム技術が成熟していないこともあって,破綻だらけの対話ばかり収集されてしまわないためである。 ユーザ毎の対話数は 1 から 40 までばらつきがあるが, 全体のユーザ数は 100 名を超えている.表 2 は収集された雑談対話データの統計情報である. 収集した雑談対話の一例を以下に示す. 表 1 対話タスクの参加状況 \\ 図 1 雑談対話収集サイトの画面 ^{2}$ https://www.nttdocomo.co.jp/service/developer/smart_phone/analysis/chat/ } (1)たまたま待合室や飛行機などで隣り合った見知らぬ人と話すイメージで対話しましょう.特定の個人を想定して対話を行わないように注意してください。 (2)システムの発話はなるべく好意的に解釈し,対話を続けるように努力しましょう.システムの力量を試すような発話は控えてください. また,長文の入力や,人間でも答えにくいような難しい問いかけは避けてください. (3) 対話毎に新しい気持ちで話しましょう.残念ながら,システムは前のあなたとの対話を覚えていません.新しい対話セッションでは,前回の対話のことは忘れて対話してください。 (4)自分から話題を開始しましょう. システムは, 話題となる単語(主に名詞)があると, その単語に基づいて対話を行うことができますが, そのような単語が見つからないとうまく対話ができないことがあります. システムから話題を振られるのを待つのではなく, 自分から話題を振りましょう。なお, マニアックな話題にはうまく対応できないことがあります. (5) 自分から話題を変えましょう. システムは, 自分から話題を変えることをあまりしません. 対話が進展しなかったり, システムがよく分からない応答を繰り返したりするようなときは, 自分から新しい話題に変えてみましょう。 (6)何度も同じことを繰り返さないようにしましょう. システムの理解力が対話中に突然改善することはありません. ある発話について満足のいく回答が得られなくても, システムに対して, 同じ質問や発話を繰り返ししたりしないようにしましょう。 (7)誹謗中傷は控えましょう.ここで収集しているデータは公開されます。データを見た人が不快になるような発言は避けて下さい。誹謗中傷とは, システムに対するもの, 特定の個人に対するものの両方を含みます. (8)個人情報を人力しないようにしましょう,公開されるデータであることを念頭において,名前,住所,電話番号などの個人情報は発話に含めないで下さい. 第三者の個人情報の入力は絶対にやめてください. (9)日本語で大力しましょう.システムは日本語しか理解できません.また,大阪弁や博多弁などの方言にも対応していませんので,標準語で大力してください,顔文字・フェイスマークなども理解できませんので使用しないでください. (10) 上記を守っていれば,あとは自由です.対話を楽しみましょう. 図 2 対話ガイドライン(10箇条) 表 2 収集された雑談対話データの統計情報 形態素解析には MeCab の version 0.996 (辞書は ipadic-2.7.0-20070801)を使用した. システム発話数は 12,606 となっているが,これは最初のプロンプト発話の 1,146 とユーザへの返答の 11,460 を合わせた値である. S はシステム発話, U はユーザ発話を表す. S: こんにちは! 声かけてくれるのを待ってたんだ。 $\mathrm{U}$ : 今日は最高気温 36 度だって。暑いねえ $\mathrm{S}$ : 最高気温は 17 度が予想されます?? U: いやいや猛暑ですよ $\mathrm{S}:$ 猛暑に備えてますか? $\mathrm{U}:$ うん、日傘さしたり、水飲んたり、クーラー入れたりしてる $\mathrm{S}:$ クーラーは快適ですね $\mathrm{U}:$ うん、会社だと朝はつけられないから死にそう S:会社は冷房が効きますよねえ $\mathrm{U}$ : 昼間は効くね。ここはパソコンがいっぱいあるからないと大変 S: 動きが悪いです $\mathrm{U}:$ そうなの?こっちは快適だよ $\mathrm{S}:$ パソコンは使い勝手が悪いです ## 3 初期アノテーション 収集した雑談対話データ全体に対して対話破綻をアノテーションする前に,その一部について初期アノテーションを行った。具体的には, 1,146 対話からランダムに 100 対話を抽出し, 夕スク参加者の中で全 100 対話のアノテーションを行える 24 人によってアノテーションを行った。作業期間は 2014 年 10 月 7 日から 17 日の間である。このアノテーションの目的は, 残りの 1,046 対話に対して,1 対話あたり何人のアノテータを割り当てるのが妥当かを検討することである。ここで作成したデータセットのことを以後 init100と呼ぶ. アノテーションについては, どのようなエラーがあるのかを網羅的に分析したいという目的 ンするように指示した。それぞれの意味は以下の通りである。 破綻ではない:当該システム発話のあと対話を問題無く継続できる. 破綻と言い切れないが,違和感を感じる発話:当該システム発話のあと対話をスムーズに継続することが困難. × 明らかにおかしいと思う発話(破綻):当該システム発話のあと対話を継続することが困難. 多人数でアノテーションする場合には,○×の判断の分布によりそれらの中間状態を表現できるため,必ずしも $\triangle$ ような中間レベルを表すカテゴリを用意する必要はないが,アノテー アノテーションには, 図 3 に示す専用のツールを使用した. ツールでは, 非文のチェックの他に,各発話に対してコメントを記入できるようになっている.また,先行する文脈のみに基づいて対話破綻のアノテーションが出来るように, 1 発話アノテーションする毎に,次のユー つけた後の発話をどうアノテーションするかについては, 対話の先頭から, 破綻と夕グ付けされた発話を含むこれまでの文脈を「ありき(与えられたもの)」として,アノテーションするように教示した。すなわちアノテータは,破綻があったところで対話がリセットされたとはせず, 破綻も含めて先行文脈として作業を行った. 非文の定義は,「文法エラーなどにより日本語としての意味をなさない文」とし,会話体で許容される程度の「助詞落ち」や「ら抜き」は非文に該当しないとした。また, 全く意味が通らない発話であれば当然×を付けることになるが,非文であっても発話意図が汲み取れるのであれば,○やメを付けてもよいとした。 ## 3.1 非文の割合 使用した対話システム (大西, 吉村 2014)の応答生成は, 人がすべて確認したテンプレートによるものではないので,非文の発生を完全に無くすことはできない. そこで,アノテーション時の非文のチェックの結果に基づき,文法レベルでの対話コーパスの品質を確認しておく. 最初のプロンプトを除くシステム発話全 1,000 発話において非文のチェックが付けられた発話の分布を表 3 に示す. 表 3 の 1 行目は, ある発話に対して非文と判断したアノテータの数を 図 3 雑談データ用破綻アノテーションツール 表 3 init100における非文の分布 表す. 2 行目は各人数のアノテータに非文と判断された発話の数を表す. 1 人でも非文と付けた発話は 1,000 発話中 127 あったが,過半数(13 人以上)が非文と付けたものはわずか 7 発話しかなかった,実際のデータを見ると,非文と判定したのが数名である発話はどれもアノテー ション指示者からみて非文と判断するようなものではなかった。(「ルールは多いです」「価値観は欲しいです」「話し相手に飢えます」など,不自然ではあるが『日本語としての意味をなさない文』とまでいえない発話であった),仮に過半数以上が非文としたものを真の非文とし,それ以外をアノテーションの誤りとすれば,init100での非文の発生率は $1 \%$ 未満である。 今回の初期アノテーションでは, 24 人全員が 100 対話を同じ順序でアノテーションしている。その中で最も非文であると判定したアノテータが多いシステム発話は「熱中症に気をつけか??」というものであった。この発話は 100 対話中で 4 回発生しており,4 発話に対して非文とチェックした人数は, 出現順で 19 人, 17 人, 13 人, 9 人であった. つまり過半数が破綻と付与した 7 発話のうち 3 発話は同一の発話であった. 同一内容の発話に対して「非文」とアノテーションした人数が大きくばらついているのは, 既に非文と付けた発話に対する非文のチェックをアノテータが省略したことが原因と思われる。非文のチェックは,任意とも指示していないが,厳守するようにも指示しなかった。また,非文のチェックボックスは任意入力のフィールドであったコメント闌の直前に置かれていた(図 3 参照).このため, 非文のチェックがアノテーションの主たる目的ではなく補助的な作業であったことから,後の方になるほどチェックを省略されてしまった可能性が高い。その事を考慮して,仮に四半(7 人)以上が非文と判定したものを「真の非文」と考えても,非文の発生率はおよそ $2 \%$ \%゙る。このことから, 今回のデータ中のシステム発話の品質は, 個々の発話の日本語文法のレベルでは,当面の研究に必要なレベルが担保されていると考える. ## 3.2 アノテータ間の一致度の分析 init100 に対して, 24 人のアノテータが付与したラベル $\bigcirc , \triangle , \times$ の割合を表 4 に示す. 24 人のアノテータ間の一致の程度を測るために Fleiss の $\kappa を$ 算出すると, 0.276 であった. (Landis and Koch 1977) も参考にすると,この値の解釈は「ランダムではないが,よく一致していると と, 0.396 とやや一致の具合が高まる。 $\triangle$ ○含めると $\kappa$ は 0.277 にしか改善されないため,【は×により近いことが分かる。 表 4 init100 中の $\bigcirc \triangle \times$ の発生割合(発生数) 24 人のアノテータを Cohenの $\kappa$ 値をもとに Ward 法で階層クラスタリングを行うと, 図 4 のようになった,距離の定義やクラスタリングの手法を変えると, 2 つのクラスタの中でのまとまり方は細かく変わるものの, 大きな 2 つのクラスタ間での移動はほとんど見られなかった.図 5 に示す 24 人のアノテータの分布を見ると,○をつける傾向の大小で,前述の 2 クラスタ 0.414 (11人) と 0.474 (13人) であり,これらの值は「適度に一致している」と解釈できる。前者, 図 4 の左側のクラスタ, を $\mathrm{C} 1$ と呼ぶ. このクラスタは○を多く付けるアノテータのクラスタである.後者, 同右側のクラスタ,を $\mathrm{C} 2$ と呼ぶ. このクラスタは○を少なく付ける破綻に厳しいアノテータのクラスタである。 表 5 に, 24 人のアノテータの属性(性別, 年齢層, 職業, 関係性)の分布を示す. 職業の「学生」は大学生および大学院生, 教員は大学教員を指す. 関係性の「当事者」は, 対話タスクに参加している研究者 (会社員, 教員, 学生) のことで, 関係者は, 対話タスクには直接参加し 図 4 アノテータのクラスタリング結果(番号はアノテータ ID) 図 5 アノテータ毎の $\bigcirc \triangle \times$ を付与した割合(横軸はアノテータ ID) ていないが,前述の当事者と同じグループで対話システムに普段から関わりのある仕事をしていることを意味する,無関係は,当事者と知己であるが,対話システムの研究開発とは普段関わりがないことを指す。性別・年齢層には, C1 と $\mathrm{C} 2$ の間に目立った違いは見て取れない.職業・関係性をみると,教員・当事者が C1 側にやや多い印象を受けるが,Fisher の正確確率検定では $\mathrm{C} 1, \mathrm{C} 2$ 間に統計的に優位な差はない(いずれも $p>.2$ ),従って,表 5 に示した属性だけでは,新規のアノテータがどちらのグループに属するかを予測することは難しく,実際にアノテーションを行ってもらって傾向を把握するしかない. 24 人のアノテータからランダムに $N$ 人を選び出したとき,ラベルの分布がどれだけ全体の分布から離れているのかを表したグラフを図 6 に示す。横軸は $N$ の数で,縦軸は Kullback-Leibler divergence の対称平均の値である。黒丸が 1,000 回サンプリングした際の平均値を示す。下向き三角は 1,000 回中の最大值,上向き三角は 1,000 回中の最小値を表す. アノテータが 1 人から 2 人になる段階で,平均值からの乘離は半分近く縮まり,あとは,なだらかに 24 人の分布に近寄っていくことが分かる. 図 7 に, $\triangle \times$ の各ラベルを付与された数毎の発話数のグラフを示す. 左側のグラフは集計結果をそのまま示したもので,横軸が,ある発話について付与された特定のラベルの数(0 から 表 5 アノテータの属性分布 図 624 人のラベル分布とランダムサンプリングした $N$ 人のラベル分布の異なり 図 7 各ラベルを付与された数毎の発話数(横軸:付与されたラベルの数, 縦軸:発話の度数)左図 : 元データ, 右図 : 5 区間に集約した結果 24)を表し, 縦軸が,そのような発話の度数を表す。右側のグラフは, 解り易さのため, 左側のグラフを加工したものである。 0 から 24 までのラベルの数を 5 区間に区切り, 各区間の積算值をプロットしてある。このグラフから,破綻ラベル×が過半数以上に付与されてる発話の数 ことを表している, $\triangle$ とを併せて計数した場合のグラフは,図中の○のグラフを左右反転させたものに等しくなる。 ○の数と, $\triangle$ と庰せた数とが 12 対 12 で半分に割れた発話の分析も行った。すると,表面的には間違ってるとは言えないけれども, 違和感がありそうな応答が多かった.「こういうことは普通ここでは言わない」という印象は持つものの,なぜそれを言わないかの説明が難しいものが多い。また,発言の意図が読みにくそうな発話,ユーザの話を聞いていないと感じられる発話, 社会的に問題がある発話, ふざけているようにも見える発話なども判断が割れていた. これらの判定を分析することは, 対話における認知の研究として学術的に面白い課題となり得る。以下は,評価が半分に割れた発話(下線部)を含む対話の例である。 $\mathrm{U}:$ 他に好きな楽器はありますか? S: サックスがいいですね $\mathrm{U}:$ サックスは木管楽器なんですよね S: 相性がいいですね $\mathrm{U}:$ 台風は大丈夫でしたか S: 台風は必要です U: 雨は必要ですよね ## $\mathrm{S:$ 朝から雨が降るのです} これは発話の意図が読みにくいため,「それがどうしたのか」という印象を受ける発話である. U: 夏って感じがします S: 海は騒がしいですよねえ $\mathrm{U}:$ 海に行くと盛り上がりますもんね $\mathrm{S}: \quad$ 海は静かなんですよねー U: 騒がしいのか静かなのかどっちですか $\mathrm{S}: \quad$ 海はサイコーですよねえ $\mathrm{U}:$ サイコーですねえ これは人によっては,質問に答えずにごまかしているように感じられるだろう発話である。 ## 3.3 コメントに基づく破綻の分類 init100 中の一部の対話について,アノテータによって対話破綻箇所に付与されたコメントを人手で分類したところ,大きく「同じ内容の繰り返し」「矛盾した内容」「発話として唐突」「ユー ザ発言内容の無視」「質問に答えていない」に分類できることが分かった. 同じ内容の繰り返し表層としては少し異なっていたとしても内容として同じものを繰り返す場合,破綻とアノテーションされることが多かった。たとえば,「美味しいですね」「いいですね」などと同じような発話を繰り返す場合である. 矛盾した内容システム発話間で矛盾が見られる場合は破綻とされることが多かった。たとえば,「イチゴが好き」という発言の直後に「リンゴが好き」と発言するなど,一貫性を欠く発話は問題視された。 発話として唐突 「おはようございます」に対して「明けましておめでとうございます」のように,文脈とは関係のない発言を突然行うことがあり,このような発話は破綻とされていた。 ユーザ発言内容の無視対話はお互いが協調して進めていくものであるので,ユーザ発話を全く受けずにシステムが発話を行った場合には対話の破綻とみなされることが多かった. たとえば,旅行の話をしていて「車で行きましょう」とユーザが話しかけたのに「車はかっこいいですね」と車そのものについて言及したりする場合である。 質問に答えていないユーザ発言内容の無視に近いが,特に質問に答えていないものが破綻とされていた。たとえば,「チワワは欲しいですね」とシステムが話し,それに応じてユー ザが「飼う予定はあるの?」と質問したが,システムは「チワワはいいらしいですよ」と答えたような場合である。 上記以外にも口調の唐突な変化などが, 問題のある現象として観察された. さらに詳しい分類については 5 節で述べる. ## 4 残りの対話へのアノテーション init100 に対するアノテーション結果について, タスク参加者で議論を行った結果, 残りの 1,046 対話 (以後, rest1046 と呼ぶ)のアノテーションについては, 1 対話につき 2 人で実施するという結論に至った。2 名とした理由は以下の通りである. - 人的・経済的コストの面から,アノテーションにかかる作業量は最小限が望ましい. $\cdot$ アノテーションのコストを最小化できるのは1名でアノテーションを行う場合であるが, この場合, アノテータ間の摇れのために, 破綻とされるべき発話が見逃されてしまう可能性がある。よって, 複数名が望ましい. ・前述の分析でアノテータは大きく 2 つのクラスタに分かれることが分かっている. これらの 2 つのクラスタから 1 名ずつ割り当てることで, 見逃しを最も効率的に減らせる可能性がある. 実際に,init100にアノテーションをした 24 人からランダムに $N$ 人をランダムに選んた場合と, $\mathrm{C} 1$ と $\mathrm{C} 2$ の両クラスタから $N / 2$ 人ずつ選び出した場合とで, 図 6 と同じ方法でラベル分布の距離を比較すると,図 8 に示す結果になる。 $1, \mathrm{C} 2$ のクラスタから 1 人ずつ, 計 2 名選んた場合の結果は, 全体からランダムに 3 人選んだ場合と 4 人選んだ場合の中間程度になっており, より少ない人数で全体での分布に近い結果を得られることが分かる. 1,046 対話をランダムに 11 個のサブセット $(\mathrm{a}-\mathrm{k})$ に分割した. $\mathrm{a}-\mathrm{j}$ の 10 個のサブセットはそれぞれ 100 対話を含み, 最後のサブセット $\mathrm{k}$ だけが 46 対話を含む. 図 824 人のラベル分布とランダムサンプリングした $N$ 人のラベル分布の異なりの比較: 完全にランダムな場合 (random) と, クラスタ $\mathrm{C} 1 \cdot \mathrm{C} 2$ を考慮した場合 (cluster) アノテーションには, 22 名のアノテータの協力が得られることになった. 22 名のうち 19 名が,init100 に対するアノテーションに参加していたアノテータである。まずこの 19 名について, 図4のクラスタに基づき, 2 つの大クラスタ $\mathrm{C} 1$ および $\mathrm{C} 2$ からなるべく 1 名ずつのアノテー タが割り当てられるように,サブセット $\mathrm{k}$ を除く 10 サブセットに割り当てた。その後残りの 3 名を同 10 サブセットに割り当てた. 1 名当りの分担量を 2 サブセットと固定して 22 名を 10 サブセットに割り当てたので,i, jの 2 つのサブセットだけ 3 名のアノテータを割り当てた。サブセット $\mathrm{k} については ,$ 余力のある 2 名に割り当てた。 アノテータが各対話にアノテーションを行う方法は, init100の場合(3 節)と同じである. ア せて見た場合には,init100のときとほぼ同じ分布と考えられる。また,各サブセット毎の Fleiss の $\kappa$ 值を表 7 に示す. 2 名のアノテータが同じ判断傾向を持つかどうかによって,サブセット間で $\kappa$ 值にばらつきが生じているが,全体平均としては init100とほぼ同じ値になっている。 rest1046 全体について,2 名のアノテータが付けたラベルの組み合わせ毎の頻度と割合を図 9 に示す(計算にあたりサブセット $\mathrm{i}, \mathrm{j}$ の 3 人目のアノテーションは利用していない)。先に述べたように,アノテータは $\bigcirc を$ 多く付ける傾向のクラスタ $\mathrm{C} 1$ と, そうでないクラスタ $\mathrm{C} 2$ とに大きく分かれており,各サブセットに割り当てるアノテータは,なるべく 2 つのクラスタから 1 名ずつ選ぶようにした。図 9 では,整合した判定である $(\times, \times)$ の組よりも,矛盾した判定である $(\bigcirc, \times)$ の方が数が多くなってしまっているが, これは上記の割当の結果を反映しているもので想定内の結果であると同時に,破綻の捉え方が人によって異なることを改めて示している. rest1046のアノテーションに際しては, 担当する対話の最初の 5 対話と最後の 5 対話, 計 10 対話だけ, $\triangle, \times$ をつけた箇所には,必ずその判断理由をコメントとして書くことを求めた。こ 表 6 rest1046 中の $\bigcirc \triangle \times$ の発生割合(発生数) 表 7 サブセット $\mathrm{a}-\mathrm{k}$ 毎の Fleiss の $\kappa$ 値(i, $\mathrm{j}$ のみ 3 名でのアノテーション,その他は 2 名ずつ) 図92名のアノテー夕によるラベルの組み合わせの頻度と割合 れにより,総数で 3,748 個,異なりで 2,468 個のコメントを得た。アノテーション作業は 2014 年 12 月 2 日から 20 日の間に行った. ## 5 対話破綻の類型化 本節では,収集したデータを基に策定を進めている対話破綻の分類体系の,現時点での案と課題について議論する. 3 節では init100 に対して付与された $\triangle , \times$ の破綻アノテーションに付随するコメントを大まかに分類した結果を示したが,ここではそれを土台としつつ, rest1046に対して付与されたコメントを分析し, 雑談対話における対話破綻の類型化を行った結果を示す.対話が,ある発話によって破綻するとき,原因はその発話だけにあるとは限らない。もちろん,その発話が文法的におかしなものであったり,意味がわからなかったりする場合もある。 しかし, その発話が文として正しいものであったとしても,「相手の発話に対して,このように応答するのはおかしい」場合や,「前に言ったことと矛盾している」という場合においても,対話の継続が困難となる。このように,対話の破綻を分析するに当たっては,当該発話そのものに原因があるのか,または広い意味での文脈(直前の発話,対話履歴,状況なども含む)に原因があるのかを特定する必要がある。 また,破綻が生じた原因が存在する範囲が同じであっても,その内容は様々である。必要な情報の欠落や曖昧性のために意味が特定出来ない場合や,意味が特定できても文脈と矛盾する場合,矛盾はしなくても冗長な場合などがある. そこでまず,破綻の根拠となっている情報に基づき大分類を決定し,その後,破綻の種類を表す小分類を決定した,大分類は,破綻を認定する際にどの範囲に関連した破綻であるかという基準で,以下の 4 つに決定した(図 10 参照). 発話 応答 文脈 環境 図 10 大分類を決める基準(範囲の違いを模式化した図であり,図中の発話は必ずしも各ケースに実際に該当する発話ではない)。太字は破綻と認定された発話. - 発話 当該システム発話のみから破綻が認定できるケース.典型的には非文が該当する.「意味不明」というコメントの場合でも,この発話単独で意味がわからないのではなく,前の発話や文脈との関係で意味が取れない,というケースがあるので注意した. - 応答 直前のユーザ発話と当該システム発話から破綻が認定できるケース,典型的には,発話対制約違反や,前発話の話題を無視した応答などが該当する。あくまでもそれまでの対話の流れは無視して,1つ前の発話との関係たけで判断した。 - 文脈 対話開始時点から当該システム発話までの情報から破綻が認定できるケース。典型的には,対話の流れから判断できる不適切な発話・矛盾する情報の提供・不要な繰り返しなどが該当する。 - 環境 破綻原因が,「環境」すなわち「外部要因」にあり,上記の 3 分類には当てはまらないケース,典型的には,一般常識に反するシステム発話が該当する. ## 5.1 対話破綻の分類体系案 表 8 に示す対話破綻の分類体系案を考案した.「発話」・「環境」の大分類については,検討の段階で多数を占めた「誤り」と分類される発話に対して,より分解能が高まるようにそれぞれ小分類を設定した。 一方,「応答」・「文脈」の大分類においては,(Bernsen, Dybkjær, and Dybkjær 1996; Dybkjær, Bernsen, and Dybkjær 1996) に倣い,対話における協調の原則である Griceの公準 (Grice 1975) に基づき小分類を設定した,Griceの公準は,量・質・関係・様態の各公準からなるもので,対話において参与者が遵守するように期待されている原則である。つまり,ユーザの直前の発話あるいはこれまでの対話履歴を受けてなされるシステム発話が守ると期待されている原則であ 表 8 分類体系草案 & & \\ るので,一般的にはこの原則が守られていないと,ユーザはシステムの発話意図を推測することができずに,対話が破綻すると考えられる。 (Bernsen et al. 1996; Dybkjær et al. 1996)は,課題指向対話のエラー分析に Griceの公準を用いて,一定の成果を得ている。アノテータのコメントに「答えていない」「無視しすぎ」「唐突すぎる」といった「違反」を示唆するものが多かったことも,対話の「規範」である Griceの公準を用いた理由の1つである.破綻を分類することの一義的な目的は,ユーザが破綻であると考えた箇所で,システム内部のどこに問題(エラー) があったのかを探ることであり,それを知ることによって,システムの改善が可能になる。しかしながら,一般にシステム内部でおきたエラーを対話の表面から直接特定することは難しい. そこで,システムが何をしてしまったのか(どういう問題行動をしたか)を Grice の公準に基づいて分類することを基本とした。ただし,問題行動の原因が比較的解り易いエラーについては,「応答」大分類中の「誤解」および「文脈」大分類中の「不追随」として追加した. 以下で,大分類毎に,小分類について事例を基に説明する。 ## 5.1.1「発話」の小分類 基本的に, システム発話の生成過程に問題がある場合が該当する.「非文」の概念に近い. - 構文制約違反(構文制約違反) 必須格の欠如や助詞の誤りなどが原因で,発話内容が理解できないもの. 例)「S: 熱中症に気をつけか??」 - 意味制約違反(意味制約違反) 意味素性の異なる語の組合せなどが原因で, 発話内容が理解できないもの. 例)「S: 便乗に重ねますよねえ」 - 不適切発話 (不適切発話) 発話として機能を果たさないもの. 例)「S: ちゅっちゅ」 ## 5.1.2「応答」の小分類 前発話との関係において協調の原則が守られていない破綻を, Griceの公準に基づいて分類する。誤解は内部的なエラーであり,対話行動自体の問題ではないが,比較的解り易いので小分類として加えた。 - 量の公準違反(情報過不足) 前発話に対して,応答に含むべき内容が欠落している,あるいは,不要な内容が含まれており,これが会話の進行を阻害する場合. 例)「U: ラーメンが好きです」 $\rightarrow$ 「S: 豚骨で有名ですね」 - 質の公準違反 (不理解) 前発話と矛盾する内容の発話. 前発話の話題に追随しながらも, 前発話で示された命題内容と矛盾する命題内容を含む場合。なお,意味理解の失敗などによって生じる「ずれ」を含む発話は,関係の公準違反とする。 例)「U: 最近,山登りを始めました」 $\rightarrow$ 「S: 山登りが出来ないのですか?」 - 関係の公準違反 (無関係) 発話対として不自然な発話で,これによって会話の継続ができなくなっている状況. あるいは,前発話の意味内容と関係しない内容の発話を行った場合.相手の発話を無視している状況を含む。 - 様態の公準違反(意図不明) 発話意図の曖昧性のため, 会話の継続ができなくなっている状況. 例)「U: 退屈は嫌いですか?」 $\rightarrow$ 「S: 退屈は心ですね」 - 誤解 (誤解) 内容の解釈エラーによって, 不適当な発話になっている状況. 多義語の意味の取り違いなどが該当する。 例)「U: スイカを食べたらお腹を壊します」 $\rightarrow$ 「S: スイカで買い物できてるのですか?」 ## 5.1.3「文脈」の小分類 基本的には,「応答」の小分類と同様の考え方で, 協調の原則に対する違反で分類する. - 量の公準違反 (不要情報) 与える情報が何もない無情報発話, あるいは, これまでの文脈に出現した発話の不要な繰り返し。 例)海に行っていないという文脈において:「S: 海に行かないなあ」 - 質の公準違反 (矛盾) これまでの文脈と矛盾する内容の発話。また, これまでの話題に対する態度(Positive/Negative の極性)が急に転換する発話. 例)人間関係が薄いという文脈において:「S: 人間関係は深いです」 - 関係の公準違反 (無関係話題) これまでの文脈における話題から逸脱する発話. 話の主たる話題ではなく, 直前のユー ザ発話中の話題語でない単語から話を展開させてしまうような場合が典型例. 例)定期券を無くすという文脈において:「U: 首からかけておくとか?」~「S: 左右に振りますよねえ」 - 様態の公準違反(関連性不明) 話題は継続しており,直前発話との関係だけで見ると意味が通るように見えるが,それ以前の文脈を踏まえると,その発話の意図が理解できない状況. 例)薬の話題において:「S: 薬は大丈夫ですね」 - 話題展開への不追随(不追随) ユーザからの話題の展開が起こっているにも関わらず,それに追随できていない状況。 例)ドイツの話題の後:「U: あなたは海外経験ありますか?」~「S: ドイツは小売価格が高いです」 ## 5.1.4「環境」の小分類 会話の文脈以外の原因で生じた破綻を分類する。 - 無根拠(共通基盤欠如) 根拠のない, 一方的な主張. 例)「S: マグロは鮮度が悪いですよねえ」 - 矛盾 (一般常識欠如) 一般的に正しいと信じられている常識と矛盾する発話. 例)「S: 熱中症はいいですね」 - 非常識(社会性欠如) 黑䍗雑言など,対話相手との社会的関係を破壊する発話. あるいは口調(人格や社会 的属性)が突然変化する発話. ## 5.2 分類体系草案の課題 考案した分類体系は一見よく䌂まっており,それなりの一致度で分類を行えることが期待できた。そこで,破綻アノテータが付けたコメントを参考にしながら,夕スク参加者で予備的に破綻の分類を行ってみた。しかしながら,予想以上にアノテータ間で一致しないことがわかった ( $\kappa$ 値で 0.1 から 0.3 程度の範囲 $)$ ,個々人の主観に任せた破綻アノテーションでは低めの一致度でもよいが,破綻の分類についてはなるべく客観性の高い分類ができることが望ましい。 破綻の分類においてアノテータ間の不一致が大きい原因が,主にアノテーションの手順や教示,アノテータの訓練不足などにあるのか,それとも分類体系自体にあるのか,まだはっきりしていないが,少なくとも以下のような課題が分かっている. - 検討に際しての分類作業は排他的に一発話・一分類で行ったが, 複数の大分類に渡ると思われる破綻がいくつか見られた。例えば,非文・発話対制約違反・話題からの逸脱のように,複数の大分類に渡る破綻が同時に起こることがあり得る. - 発話の意味制約違反については, 典型的な例は「発話」レベルのものと判断しやすいが,解釈次第であることも多い。例えば,「仕事は真面目ですね」という発話は,「仕事」を一般的な概念として捉えれば意味制約違反と判断できるが,ある個人の「業績・仕事ぶり」を意味すると解釈すれば,発話のレベルでは問題がないことになる。「文脈という概念を持ち达むと, 文の意味と発話(話し手)の意味を区別することはもはやできない (Levinson 2000)」という見方に立てば,そもそも意味制約違反の小分類を「発話」のレベルに設けることが不適切かもしれない. - 誤解は, 直前の発話に対するものという定義から「応答」の大分類に含めていたが, 実際には文脈まで見ないと誤解とは言えない場合も見つかった。これも「応答」でなく「文脈」に含めるか,あるいは「応答」「文脈」の両方に設ける必要があると思われる. - 分類の問題というよりは, 多分に破綻の認定自体の問題であるが, 読み手側の知識不足や,表現に対する不慣れによって解釈できなかったため,破綻とされていることもある.例えば,「みんっ」という発話は,意味のある表現に解釈できない人と,「見ない」という意味に解釈できる人がいる。この場合, 結果的に, 破綻の分類も人により異なってくる. - 「応答」「文脈」のレベルに導入した Griceの公準に基づく分類は, 特に一致率が低かった.これは現状のシステムが出力する発話が, 自分のことなのに伝聞で話すなどの不自然な様態や,対話相手のキャラクタが突然変わるなど,通常の人同士の対話で見られないようなものであるために,解釈が難しいことも一因であると考えている. Griceの公準に基づく類型化は, 典型例の整理・説明には有用であっても, あまり典型的ではない破 綻の分類には適していない可能性がある。そうたとすれば,小分類のレベルで,各公準違反を事例別にさらに細分化するか,あるいは別の視点での分類を用意する必要がある. ## 6 関連研究 本研究では, 非課題指向型対話(雑談対話)に焦点を絞っているが, 課題指向型対話システムの文脈では対話システムのエラー分析は活発に行われてきており,いくつものエラーの分類体系が提案されている。 まず, Clarkの提案するコミュニケーション階層モデルに基づくエラーの分類体系 (Clark 1996) が挙げられる。 Clarkによれば,コミュニケーションのエラーは 4 つのレベルからなっている. チャネルレベル, 信号レベル, 意図レベル, 会話レベルである。 チャネルレベルとはやり取りが開始されているかどうかに関わる。信号レベルとはシンボルのやり取りに関わり,意図レベルは対話相手の意図の認識に関わる。会話レベルは,共同行為に関わるものである。下位レべルのエラーが起きていれば,上位レベルでもエラーとなり (upward causality), 上位レベルにエラーがなければ,下位レベルにエラーがないとされる (downward evidence).このような階層に基づいて, 会議室予約システムの不理解によるエラーを分析するという研究がなされている (Bohus and Rudnicky 2005)。また,スマートホームとレストラン情報案内というドメインにおいて, 同様の分析もなされている (Möller, Engelbrecht, and Oulasvirta 2007). Paek は Clark の 4 つ階層が対話システムのエラー分析に一般性を持っているということを, 教育や医療といった複数分野での対話分析の事例から議論している (Paek 2003). 本論文では Grice の公準 (Grice 1975) をエラーの類型化に用いているが, 課題指向型対話システムのエラー分析においても Grice の公準は利用されてきた. Dybkjær et al. (Dybkjær et al. 1996) および Bernsen et al. (Bernsen et al. 1996) はフライト情報案内システムのエラー分析を Griceの公準および独自の対話分析から得られた知見をもとにエラーの類型化を行っている.たとえば,Griceの公準以外の要素として,対話の非対称性, 背景知識, メ夕対話能力に関わるエラーが挙げられている。電話応答システムにおける対話評価の観点として, Griceの公準に基づく要素を導入することも提案されている (Möller 2005). 特定のモデルや理論をべースにするのではなく, 特定のシステムや対話ドメインの対話を綿密に分析することによりエラーを類型化した例も多い. Aberdeen and Ferro はフライト情報案内システムの分析により, 命令に応答しない, 何度も同じプロンプトを表示するなどのエラーに類型化している (Aberdeen and Ferro 2003). また, Green らによって対話機能を持つサービスロボットについてもエラー分析がされており,ロボットに特有のエラーとして,動作と発話のタイミングがずれるというエラーや,指さしなどのポインティング動作のエラーなどが独自のカテゴリとして分類されている (Green, Eklundh, Wrede, and Li 2006). Dzikovska らは, 教育 対話システム (tutoring system)のエラーの類型化を行っている (Dzikovska, Callaway, Farrow, Moore, Steinhauser, and Campbell 2009). 対話システムはいくつかのモジュールから構成される。このため, エラーの類型化の一つの方法として,エラーを起こしたモジュールがどれかによって分類する研究もある (Ward, Rivera, Ward, and Novick 2005)。たとえば,音声認識,音声理解,発話生成,音声合成といった単位でエラーを類型化する。音声認識によるエラーが多ければ,音声認識モジュールを改善すればよいという方針に繋がる。モジュール構成が明確で,各モジュールのエラーが比較的独立と考えられるのであれば, このような類型化の手法は有効である. 本研究の類型化の手順は (Dybkjær et al. 1996)のものに近い. Grice の公準を用いながら,対話コーパスについて独自の分析を行いエラーを類型化しているからである. 本研究と Dybkjær らのものとの違いは,本研究が雑談対話システムを扱っていることである。課題指向型対話システムに比べタスクやドメインの制約が少ない雑談対話において, エラーの定義, どのようなエラーが起こりうるかは把握されてこなかった。本研究は,そのような背景に基づき,雑談対話コーパスの作成およびその類型化を行ったものである。なお,本研究では Clarkの階層モデルは用いていない。これは,主にテキスト対話を扱っていることによる。テキストのやり取りであれば,チャネルレベルと信号レベルのやり取りは基本的に担保されており,残りの二つの階層のみに基づいて分類をすることになる。雑談対話の内容の複雑さを鑑みればこの粒度は粗い. また,モジュールごとにエラーを分析する方法論についてであるが,雑談対話システムの構成は複雑であり,単体のモジュールにエラーの分析を起因させることは難しい.また,エラー分析として対話システムの内部構造に立ち入らない方が,システムに依らないエラー分析が可能であり,特定のシステムに依存しない,汎用性の高いエラーの類型化が期待できる。 なお,雑談対話システムのエラー分析は,対話破綻の自動検出につながるものとして期待されている。自動検出ができれば,対話システムが自身の発話を行う前に,その発話に問題があれば,別の発話候補に切り替えるといったことが可能になる。また,何らかのエラーを伴う発話をしてしまった後に,自身の誤りに気づいて,それを訂正するといったことも可能となる。 課題指向型の音声対話対話システムの文脈では,音声認識,発話理解,対話管理などの各モジュールから得られる特徵量から対話に破綻が起きているかどうかを判定する手法がいくつか提案されている。たとえば, Walker ら (Walker, Langkilde, Wright, Gorin, and Litman 2000)や Herm ら (Herm, Schmitt, and Liscombe 2008) は, コールセンタにおける通話について, 問題が起こっているかどうかを数ターンで判定する判定器を機械学習の手法で構築している. 対話中のユーザの満足度の遷移を推定する研究もされている (Schmitt, Schatz, and Minker 2011).これらは雑談対話を扱ってはいないが,目的意識は本論文での取り組みと近い. 雑談対話においては, Chai らがユーザの対話行為の系列の情報を用いて,問題のある質問応答ペアかどうかの判別を行っている (Chai, Zhang, and Baldwin 2006). Xiang らは, 対話行為に加 え,感情の系列を用いることで,雑談対話における問題発話の検出を行っている (Xiang, Zhang, Zhou, Wang, and Qin 2014). Higashinaka らも, 雑談対話システムの発話の結束性をさまざまな素性から推定する手法を提案している (Higashinaka, Meguro, Imamura, Sugiyama, Makino, and Matsuo 2014b). しかしながら, これらの研究は精度がいまだ高いとは言えず,また,対話破綻の類型化なども行われていない,今後エラー分析を詳細に行うことで,対話破綻の原因を明らかにし,高精度な破綻検出を実現したいと考えている。 ## 7 おわりに 本論文では, 雑談対話におけるエラー分析にむけた人・機械間の雑談対話コーパスの構築と対話破綻のアノテーションについて報告した。そして,構築したコーパスに含まれる破綻を分析し,考案した破綻の分類体系について議論した。 アノテーション方法の開発にあたっては,破綻の認定における主観性の高さを認めつつ,許容可能な範囲のコストで, 客観的な分析の対象となりうる有用なデータを得られるように, 著者らを含む 15 拠点からの研究者で議論・試行し, 工夫を施した. 今回報告した方法と結果は,破綻に関する今後のコーパス構築に限らず,同じように主観性の高い別種の言語現象についてのコーパス構築においても手法開発の参考として寄与するものと考える. 構築したコーパスでは, 対話を破綻させているシステムの発話に対して, 複数の作業者によってラベルとコメントが付与されている。破綻の判断については, 事細かなガイドライン・判定方法は示さず,各個の主観に基づいたアノテーションを行った。このためアノテーションの一致率はそれほど高くないが,システムとの対話に対して人間が不満を持つ点, 持たない点, その個人差について,興味深いデータを収集できた。また,アノテータ間の一致についての分析からは,破綻でない発話よりも破綻発話のほうが判定が摇らぎがちであること,アノテータが大きな傾向の違いを持つグループに分かれる可能性があること,などが明らかになった. 一方で, 今回のコーパス構築手法には, 改善の余地があることも確かである. 破綻の判定が摇らぐ要因の 1 つとして,ユーザが想定した対話相手のイメージの違いが存在する。今回は「待合室や飛行機などで隣り合った見知らぬ人」とだけ指定したが,性別・年齢・性格など,ユーザができる想定には依然大きな自由度があった。例えば,子供染みた発言や冗談は,想定する相手によって許容できる範囲が変わってくる,今後のデー夕収集においては, 対話相手のイメー ジをもっと細かくユーザに指定する,あるいは対話前にユーザが想定した相手のイメージ,対話後に残った相手のイメージを,対話データと同時に収集すると,より踏み达んだ分析が可能になるだろう。 アノテーションにおける, 破綻を含む先行文脈の扱いについても, さらなる検討が望まれる.例えば,今回は破綻があったところで対話がリセットされたとはせず,破綻も含めて先行文脈 として作業を行うように指示をした。これにより,会話が進んでいけばいくほど破綻が認定されやすくなった可能性があるが,一度破綻したことで文脈上の制約が減り破綻が認定されにくくなっていた可能性もある. これまで人・機械の雑談対話を体系的に収集し,整備したコーパスは存在せず,今回の収集は初の試みである。今回構築したコーパス中の雑談対話は,1つの雑談システムだけを用いて収集したものであるので,破綻の種類の網羅性やその分布の普遍性について言えることには限りがあるが,システム構築に使用した雑談 API は (Higashinaka, Imamura, Meguro, Miyazaki, Kobayashi, Sugiyama, Hirano, Makino, and Matsuo 2014a)に基づく, 現時点で最も複雑な雑談システムの 1 つであり, 少なくとも網羅性については他のシステムを利用した場合と同等かそれ以上, 確保できていると考えている。今後, 他の雑談システムを使い, 本論文で示した方法でデータの収集とアノテーション・分析を行っていくことで,破綻の分布の普遍性を高め,現在の雑談技術・自然言語処理技術が抱える課題により深くアプローチできると期待している. 本稿で示した破綻の分類体系の草案にはまた改善しなければならない点があるが,破綻の種類を事例的に整理したことで,雑談対話で起こりうる問題について一定の見通しを示すことができた。雑談対話において破綻の種類を分類しようする際に何が問題となるのかを明らかにしたことも,今回の取り組みで得た成果の1つである. 今回構築したコーパスは, 破綻検出技術の開発・評価データとして利用することができる ${ }^{3}$.雑談システム自体はそれぞれの目的や利用状況,対象ユーザの想定などが異なるため,直接に比較することが難しく, システム内部の技術的課題について研究者間で議論することが難しい. しかし, 雑談システムの入出力であるテキストたけを対象とし, 複数の機関が並行して共通のデータで破綻検出技術について開発とエラー分析を進めれば,より一般性の高い議論ができるし,そこから各々の雑談システム自体の技術課題に対しても知見を得られるだろう。また開発された破綻検出技術は,それ自体,多くの研究者・開発者にとって有用なツールを提供できるだうう。 今後は, 別システムでのデータの収集や破綻の分類体系の改良を行いながら, 破綻検出技術の研究を進めていきたい.  ## 謝 辞 対話データの収集,および,対話破綻アノテーションにご協力頂いた Project Next NLP 対話タスクの拠点参加者とその関係者の皆さま, 対話データ収集のためのシステム構築とサーバ運営にご協力いただた広島市立大の稲葉通将氏に感謝いたします。システム構築には株式会社 NTT ドコモの雑談対話 API を使わせていただきました。 本稿の著者は, タスク共同リーダ 2 名と, 5 節の類型化に直接的に貢献したワーキンググルー プのメンバに限っていますが,その他の拠点参加者の方々におかれても,電話会議やメーリングリストでの議論を通じて本稿の執筆に様々に貢献していたたききました。一人一人お名前を挙げるのは控えさせていただきますが, 改めて拠点参加者の皆さまのご協力にお礼申し上げます. 最後になりますが,有益なコメントをいただいた編集委員・査読者の皆さまにお礼申し上げます。 ## 参考文献 Aberdeen, J. and Ferro, L. (2003). "Dialogue Patterns and Misunderstandings." In Proceedings of ISCA Workshop on Error Handling in Spoken Dialogue Systems, pp. 17-21. Banchs, R. E. and Li, H. (2012). "IRIS: A Chat-oriented Dialogue System Based on the Vector Space Model." In Proceedings of the ACL 2012 System Demonstrations, pp. 37-42. Bang, J., Noh, H., Kim, Y., and Lee, G. G. (2015). "Example-based Chat-oriented Dialogue System with Personalized Long-term Memory." In Proceedings of BigComp, pp. 238-243. Bernsen, N. O., Dybkjær, H., and Dybkjær, L. (1996). "Principles for the design of cooperative spoken human-machine dialogue." In Proceedings of ICSLP, Vol. 2, pp. 729-732. Bickmore, T. W. and Cassell, J. (2001). "Relational Agents: A Model and Implementation of Buliding User Trust." In Proceedings of CHI, pp. 396-403. Bohus, D. and Rudnicky, A. I. (2005). "Sorry, I Didn't Catch That!-An Investigation of Nonunderstanding Errors and Recovery Strategies." In Proceedings of SIGDIAL, pp. 128-143. Chai, J. Y., Zhang, C., and Baldwin, T. (2006). "Towards Conversational QA: Automatic Identification of Problematic Situations and User Intent." In Proceedings of COLING/ACL, pp. 57-64. Clark, H. H. (1996). Using Language. Cambridge University Press. Dybkjær, L., Bernsen, N. O., and Dybkjær, H. (1996). "Grice Incorporated: Cooperativity in Spoken Dialogue." In Proceedings of COLING, Vol. 1, pp. 328-333. Dzikovska, M. O., Callaway, C. B., Farrow, E., Moore, J. D., Steinhauser, N., and Campbell, G. (2009). "Dealing with Interpretation Errors in Tutorial Dialogue." In Proceedings of SIGDIAL, pp. 38-45. Green, A., Eklundh, K. S., Wrede, B., and Li, S. (2006). "Integrating Miscommunication Analysis in Natural Language Interface Design for a Service Robot." In Proceedings of IEEE/RSJ, pp. 4678-4683. Grice, H. P. (1975). "Logic and Conversation." In Cole, P. and Morgan, J. (Eds.), Syntax and Semantics 3: Speech Acts, pp. 41-58. New York: Academic Press. Herm, O., Schmitt, A., and Liscombe, J. (2008). "When Calls Go Wrong: How to Detect Problematic Calls Based on Log-files and Emotions?" In Proceedings of INTERSPEECH, pp. 463-466. 東中竜一郎, 船越孝太郎, 小林優佳, 稲葉通将 (2015). 対話破綻検出チャレンジ. 言語・音声理解と対話処理研究会第 75 回研究会 (第 6 回対話システムシンポジウム), 人工知能学会研究会資料 SIG-SLUD-75-B502 巻, pp. 27-32. Higashinaka, R., Imamura, K., Meguro, T., Miyazaki, C., Kobayashi, N., Sugiyama, H., Hirano, T., Makino, T., and Matsuo, Y. (2014a). "Towards an Open-domain Conversational System Fully Based on Natural Language Processing." In Proceedings of COLING, pp. 928-939. Higashinaka, R., Meguro, T., Imamura, K., Sugiyama, H., Makino, T., and Matsuo, Y. (2014b). "Evaluating Coherence in Open Domain Conversational Systems." In Proceedings of INTERSPEECH, pp. 130-133. 稲葉通将, 神園彩香, 高橋健一 (2014). Twitter を用いた非タスク指向型対話システムのための発話候補文獲得. 人工知能学会論文誌, 29 (1), pp. 21-31. 小林優佳, 山本大介,大内一成,長健太,瀬戸口久雄,土井美和子 (2011). 安心でワクワクさせるロボット対話インタフェースを目指して:対話とセンサによる高齢者の健康情報収集.電子情報通信学会技術研究報告クラウドネットワークロボット, 111 巻, pp. 11-16. Landis, J. R. and Koch, G. G. (1977). "The Measurement of Observer Agreement for Categorical Data." Biometrics, 33, pp. 159-174. Levinson, S. C. (2000). Presumptive Meaning: The Theory of Generalzied Conversational Implicature. MIT. (邦訳 :「意味の推定:新グライス学派の語用論」, 研究社, 2007). Matsuyama, Y., Akiba, I., Saito, A., and Kobayashi, T. (2013). "A Four-Participant Group Facilitation Framework for Conversational Robots." In Proceedings of SIGDIAL, pp. 284-293. Möller, S. (2005). "Parameters for Quantifying the Interaction with Spoken Dialogue Telephone Services." In Proceedings of SIGDIAL, pp. 166-177. Möller, S., Engelbrecht, K.-P., and Oulasvirta, A. (2007). "Analysis of Communication Failures for Spoken Dialogue Systems." In Proceedings of INTERSPEECH, pp. 134-137. 大西可奈子, 吉村健 (2014). コンピュータとの自然な会話を実現する雑談対話技術. NTT DoCoMo テクニカル・ジャーナル, 21 (4), pp. 17-21. Paek, T. (2003). "Toward a Taxonomy of Communication Errors." In Proceedings of ISCA Workshop on Error Handling in Spoken Dialogue Systems, pp. 53-58. Schmitt, A., Schatz, B., and Minker, W. (2011). "Modeling and Predicting Quality in Spoken Human-computer Interaction." In Proceedings of SIGDIAL, pp. 173-184. 関根聡 (2015). Project Next NLP 概要 (2014/3-2015/2). 言語処理学会第 21 回年次大会ワークショップ:自然言語処理におけるエラー分析. Walker, M., Langkilde, I., Wright, J., Gorin, A., and Litman, D. (2000). "Learning to Predict Problematic Situations in a Spoken Dialogue System: Experiments with How May I Help You?" In Proceedings of NAACL, pp. 210-217. Wallace, R. S. (2004). "The Anatomy of A.L.I.C.E." Tech. rep., A.L.I.C.E Artificial Intelligence Foundation, Inc. Ward, N. G., Rivera, A. G., Ward, K., and Novick, D. G. (2005). "Root Causes of Lost Time and User Stress in a Simple Dialog System." In Proceedings of INTERSPEECH, pp. 1565-1568. Wilcock, G. and Jokinen, K. (2013). "Wikitalk Human-robot Interacitons." In Proceedings of ICMI, pp. 73-74. Xiang, Y., Zhang, Y., Zhou, X., Wang, X., and Qin, Y. (2014). "Problematic Situation Analysis and Automatic Recognition for Chinese Online Conversational System." In Proceedings of $C L P$, pp. 43-51. ## 略歴 東中竜一郎:1999 年慶應義塾大学環境情報学部卒業, 2001 年同大学大学院政策 $\cdot$ メディア研究科修士課程, 2008 年博士課程修了. 2001 年日本電信電話株式会社入社. 現在, NTTメディアインテリジェンス研究所に所属. 質問応答システム・音声対話システムの研究開発に従事. 博士 (学術). 言語処理学会, 人工知能学会, 情報処理学会, 電子情報通信学会各会員. 船越孝太郎:2000 年東京工業大学工学部情報工学科卒業. 2002 年同大学大学院情報理工学研究科計算工学専攻修士課程修了. 2005 年同博士課程修了. 同年同大学院特別研究員. 2006 年より株式会社ホンダ・リサーチ・インスティチュート・ジャパン入社. 2013 年より同シニア・リサーチャ. 博士 (工学).自然言語理解, マルチモーダル対話に関する研究に従事. 情報処理学会, 人工知能学会, 言語処理学会, ヒューマンインタフェース学会, ACM SIGCHI 各会員. 荒木雅弘:1988 年京都大学工学部卒業. 1993 年京都大学大学院工学研究科博士課程研究指導認定退学. 京都大学工学部助手, 同総合情報メディアセンター 講師を経て, 現在京都工芸繊維大学大学院工芸科学研究科准教授. 音声対話システムおよびマルチモーダル対話記述言語の研究に従事.ACL,ISCA,情報処理学会等各会員. 博士 (工学). 小林優佳 : 2004 年東京工業大学大学院理工学研究科修士課程終了(機械制御システム専攻)。同年東芝家電製造株式会社(現東芝ライフスタイル株式会社)入社. 2008 年株式会社東芝研究開発センター入社. 音声対話システムの研究開発に従事. 電子情報通信学会, 情報処理学会, 人工知能学会各会員.塚原裕史:1994 年中央大学理工学部物理学科卒業. 1996 年同大学大学院博士課程前期修了. 1999 年同大学院博士課程後期修了. 博士(理学)。2000 年日立ソフトウェアエンジニアリング株式会社入社. 分散オブジェクト地理情報システムの研究・開発に従事. 2005 年株式会社デンソーアイティーラボラトリ入社. 現在同社研究開発グループ勤務. 自動車向け人工知能応用システムに関する研究・開発に従事. 日本物理学会, 情報処理学会各会員. 水上雅博:2012 年同志社大学理工学部卒業. 2014 年奈良先端科学技術大学院大学情報科学研究科修士課程修了. 同年より同大学院博士後期課程在学. 自然言語処理および音声対話システムに関する研究に従事. 人工知能学会, 音響学会, 言語処理学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 機械翻訳システムの誤り分析のための誤り箇所選択手法 赤部 晃一 $^{\dagger} \cdot$ Graham Neubig ${ }^{\dagger} \cdot$ Sakriani Sakti ${ }^{\dagger}$ 戸 戸田 智基 ${ }^{\dagger}$ 中村 哲 $\dagger$ } 複雑化する機械翻訳システムを比較し,問題点を把握・改善するため,誤り分析が 利用される。 その手法として, 様々なものが提案されているが, 多くは単純にシス テムの翻訳結果と正解訳の差異に着目して誤りを分類するものであり, 人手による 分析への活用を目的とするものではなかった。本研究では, 人手による誤り分析を 効率化する手法として, 機械学習の枠組みを導入した誤り箇所選択手法を提案する.学習によって評価の低い訳出と高い訳出を分類するモデルを作成し, 評価低下の手 がかりを自動的に獲得することで, 人手による誤り分析の効率化を図る。実験の結果,提案法を活用することで,人手による誤り分析の効率が向上した. キーワード:統計的機械翻訳,誤り分析,誤り検出,評価尺度,コーパス ## Error Selection Methods for Machine Translation Error Analysis \author{ Koichi Akabe ${ }^{\dagger}$, Graham Neubig ${ }^{\dagger}$, Sakriani Sakti ${ }^{\dagger}$, \\ Tomoki Toda ${ }^{\dagger}$ and Satoshi NaKamura ${ }^{\dagger}$ } Error analysis is used to improve accuracy of machine translation (MT) systems. Various methods of analyzing MT errors have been proposed; however, most of these methods are based on differences between translations and references that are translated independently by human translators, and few methods have been proposed for manual error analysis. This work proposes a method that uses a machine learning framework to identify errors in MT output, and improves efficiency of manual error analysis. Our method builds models that classify low and high quality translations, then identifies features of low quality translations to improve efficiency of the manual analysis. Experiments showed that by using our methods, we could improve the efficiency of MT error analysis. Key Words: Statistical Machine Translation, Error Analysis, Error Detection, Evaluation Metric, Corpus ## 1 はじめに 最新の機械翻訳システムは, 年々精度が向上している反面, システムの内部は複雑化しており,翻訳システムの傾向は必ずしも事前に把握できるわけではない.このため, システムによっ  てある文章が翻訳された結果に目を通すことで,そのシステムに含まれる問題点を間接的に把握し,システム同士を比較することが広く行われている。このように,単一システムによって発生する誤りの分析や,各システムを比較することは,各システムの利点や欠点を客観的に把握し,システム改善の手段を検討することに役立つ。ところが,翻訳システムの出力結果を分析しようとした際,機械翻訳の専門家である分析者は,システムが出力した膨大な結果に目を通す必要があり,その作業は労力がかかるものである. この問題を解決するために,機械翻訳の誤り分析を効率化する手法が提案されている (Popović and Ney 2011; Kirchhoff, Rambow, Habash, and Diab 2007; Fishel, Bojar, Zeman, and Berka 2011; El Kholy and Habash 2011). この手法の具体的な手続きとして,機械翻訳結果を人手により翻訳された参照訳と比較し,機械翻訳結果のどの箇所がどのように誤っているかを自動的にラベル付けする。さらに,発見した誤りを既存の誤り体系 (Flanagan 1994; Vilar, Xu, d'Haro, and Ney 2006) に従って「挿入・削除・置換・活用・並べ替え」のように分類することで,機械翻訳システムの誤り傾向を自動的に捉えることができる. しかし, このような自動分析で誤りのおおよその傾向をつかめたとしても,機械翻訳システムを改善する上で,詳細な翻訳誤り現象を把握するためには,人手による誤り分析が欠かせない.ところが, 先行研究と同じように, 参照文と機械翻訳結果を比較して差分に基づいて誤りを集計する手法で詳細な誤り分析を行おうとした際に,問題が発生する。具体的には,機械翻訳結果と参照訳の文字列の不一致箇所を単純な方法でラベル付けすると, 人間の評価と一致しなくなる場合がある。つまり,機械翻訳結果が参照訳と同様の意味でありながら表層的な文字列が異なる換言の場合, 先行研究では不一致箇所を誤り箇所として捉えてしまう。このような誤った判断は,誤り分析を効率化する上で支障となる. 本研究では, 前述の問題点を克服し, 機械翻訳システムの誤りと判断されたものの内,より誤りの可能性が高い箇所を優先的に捉える手法を提案する。図 1 に本研究の概略を示す。まず,対訳コーパスに対して翻訳結果を生成し,翻訳結果と参照訳を利用して誤り分析を優先的に行うべき箇所を選択する。次に,重点的に選択された箇所を中心に人手により分析を行う。誤りの可能性が高い箇所を特定するために,機械翻訳結果に含まれる $n$-gram を,誤りの可能性の高い順にスコア付けする手法を提案する(3節)。また,誤りかどうかの判断を単純な一致不一致より頑健にするために,与えられた機械翻訳結果と正解訳のリストから,機械翻訳文中の各 $n$-gram に対して誤りらしさと関係のあるスコア関数を設計する。設計されたスコア関数を用いることで, 誤り $n$-gram を誤りらしさに基づいて並べ替えることができ,より誤りらしい箇所を重点的に分析することが可能となる,単純にスコアに基づいて選択を行った場合,正解訳と一致するような明らかに正しいと考えられる箇所を選択してしまう恐れがある。この問題に対処するため, 正解訳を利用して誤りとして提示された箇所をフィルタリングする手法を提案し,選択精度の向上を図る (4 節). 図 1 本研究の流れ図 実験では,まず 5.1 節〜 5.2 節で提案法の誤り箇所選択精度の測定を行い,単一システムの分析,及びシステム間比較における有効性の検証を行う,実験の後半では,提案法の課題を分析し (5.3 節), 提案法を機械翻訳システムの改善に使用した場合の効果について検討を行う(5.4 節). ## 2 機械翻訳の自動評価と問題点 本節では, 従来から広く行われている機械翻訳の自動評価について説明し,その問題点を明らかにする。 ## 2.1 評価の手順 自動評価尺度は,機械翻訳結果 $\boldsymbol{e}$ と参照訳 $\boldsymbol{r}$ の差異に基づき機械翻訳結果の良し悪しをスコアとして計算するものである (Papineni, Roukos, Ward, and Zhu 2002; Doddington 2002; Banerjee and Lavie 2005).また,「品質推定」と呼ばれる技術は,参照訳を利用せずに評価を行う,具体的には,誤りのパターンを学習したモデルによって機械翻訳文の精度を推定することや (Specia, Turchi, Cancedda, Dymetman, and Cristianini 2009),翻訳結果の精度を部分的に評価することが行われている (Bach, Huang, and Al-Onaizan 2011). 自動評価尺度を利用する場合は参照訳を用意する必要があるが,翻訳精度の計算を翻訳システムに依らず一貫して行える利点がある。一方, 品質推定は参照訳を必要としない分, 翻訳精度を正しく推定することが比較的困難である。本研究は,参照訳が与えられた状況で機械翻訳の誤り分析を行う場合を対象とする。 ## 2.2 代表的な自動評価尺度 機械翻訳の自動評価尺度は,様々なものが提案されており,尺度ごとに異なった特徴がある。 BLEU (Papineni et al. 2002) は機械翻訳の文章単位の自動評価尺度として最も一般的に使われるものであり, 参照訳 $\boldsymbol{r}$ と機械翻訳結果 $\boldsymbol{e}$ の間の $n$-gram の一致率に基づきスコアを計算する.機械翻訳結果と参照訳が完全に一致すれば 1 となり,異なりが多くなるに連れて 0 に近くなる。BLEU を文単位の評価に対応させたものに BLEU+1 (Lin and Och 2004) がある. BLEU や $\mathrm{BLEU}+1$ は, $\boldsymbol{e} \boldsymbol{r}$ の表層的な文字列の違いにしか着目しないため, $\boldsymbol{e}$ が $\boldsymbol{r}$ の換言である場合にスコアが不当に低くなる場合がある1. BLEU とは異なり,評価尺度自体が換言に対応したものに, METEOR (Banerjee and Lavie 2005) がある.METEOR を利用する場合,単語やフレーズの換言を格納したデータベースを事前に用意しておく。これにより,参照訳と機械翻訳結果の $n$-gram が一致しない場合であっても,データベース中に含まれる換言を利用することで一致する場合,スコアの低下を小さくすることが可能となる. ## 2.3 自動評価の課題 表 1 に,英日翻訳における原文,機械翻訳結果,参照訳の例を示す。機械翻訳システムとして,句構造に基づく機械翻訳システムを利用した。自動評価尺度の一例として,BLEU +1 スコアを示す。また, 図 2 はシステムが翻訳結果を出力した際の導出過程の一部である。自動評価尺度を用いることで,翻訳システムの性能を数値で客観的に比較することが可能であるが,この例から自動評価尺度に頼り切ることの危険性も分かる。前節で述べたように,自動評価尺度は人間の評価と必ずしも一致しない評価を行う場合がある。表 1 の例では, "For this reason" が機械翻訳で「このため」と正しく翻訳されているが,参照訳では「それゆえ」と翻訳されているため, 文字列の表層的な違いにしか着目しない BLEU+1 では誤訳と判断されて, スコアが不当に低くなる.METEOR を用いた場合,換言によるスコアの低下は発生しにくくなるが,逆 表 1 機械翻訳の誤訳の例 文脈から “right”は「正しい」と訳すべきだが「右」と訳されている。また“choose"に相当する語句が機械翻訳結果では削除されている。 ^{1} \mathrm{BLEU}$ や BLEU+1 を用いる場合,複数の異なった言い回しの参照訳を与えることで,複数の言い回しに対応した評価が行える。 } 図 2 機械翻訳システムの導出過程の例 この文脈で形容詞 (JJ) “right”を「右」と訳すのは誤りである。また動詞 (VB) “choose"を削除する規則をここで使用することも誤りである. に誤った換言が使用され,スコアが不当に高くなることも考えられる。 自動評価尺度は,機械翻訳結果の正確さを判断する上で有用であるが,その結果からシステムの特徴を把握することは困難である。しかし,このように翻訳結果に目を通すことで,自動評価尺度の数値たけからは分からない情報を把握することが可能となる。 ## 3 スコアに基づく誤り候補 $n$-gram の順位付け 機械翻訳の誤り箇所を自動的に提示する際に,単純に誤り箇所を列挙するのではなく,より誤りの可能性が高い箇所から順に示すことができれば,後の人手による誤り分析の効率が上がると考えられる。本節では, 機械翻訳結果に含まれる $n$-gramに対して, 分析の優先度に対応するスコアを与える手法を提案する,分析者はこのスコアを参考にし,最初に分析する箇所を決定する。図 3 に $n$-gram のスコアに基づく誤り分析の例を示す.この例では, 提案法によってい.」が最も優先的に分析すべき $n$-gram と判断されているため, 最初に機械翻訳結果全体からこの $n$-gram が含まれる箇所を見つけ, 誤り分析をする。分析が終了したら, 次に優先度の高いれるがを,最後にられる。を分析する。 ある $n$-gram を提示した際に,もし分析者が機械翻訳の誤りでない箇所を分析対象としてしまうと,余計な分析作業を行うこととなり,分析効率が低下する原因となる。このため, 効率的な誤り分析が行われるためには, 最初に提示される $n$-gram ほどシステムの特徴的な誤りを捉えていることが望ましい. ## 3.1 正解訳を用いた $n$-gram のスコア計算法 本節では,このようなスコア付けを行う手法を 5 つ説明する。 そのうち, 2 つ(ランダム選択と誤り頻度に基づく選択)はべースラインであり,3つ(自己相互情報量に基づく選択,平滑化 図 $3 n$-gram のスコアに基づく誤り分析 された条件付き確率に基づく選択,識別言語モデルの重みに基づく選択)は提案法である. まず,すべての手法に共通する以下の関数を定義する。 $\phi(e)$ : 文 $e$ に対する素性ベクトル,各要素は文 $e$ に含まれる $n$-gram の出現頻度. $e_{M T}(n):$ コーパス中の $n$ 番目の文に対応する機械翻訳結果. $e_{C}(n):$ コーパス中の $n$ 番目の文に対応する正解訳 (3.2 節で定義). これらの関数を利用し, 次節以降で述べるスコア関数に従って, コーパス全体から $n$-gram のスコアを計算する。 ## 3.1.1 ランダム選択 ランダム選択は, $n$-gram の順位付けを一切行わずに誤り分析を進めることに等しい. 4 章で誤り候補のフィルタリングの説明を行うが,フィルタリングを一切行わない場合はチャンスレー トとなる。また,ランダム選択と参照訳を用いた厳密一致フィルタリングを組み合わせた場合は, 先行研究 (Popović and Ney 2011) で提案されている参照訳との差分に基づく分析となる. ## 3.1.2 誤り頻度に基づく選択 誤り頻度に基づく手法は,機械翻訳結果に多く含まれ,正解訳に含まれない回数が多い $n$-gram は重点的に分析すべきという考え方に基づく. $n$-gram のスコア計算では,ある $n$-gram $x$ が機械翻訳結果 $e_{M T}(n)$ に含まれていて,かつ正解訳 $\boldsymbol{e}_{C}(n)$ に含まれていない回数を計算し,スコアとする。 $ S(x)=-\sum_{n}\left[\phi_{x}\left(\boldsymbol{e}_{M T}(n)\right)-\phi_{x}\left(\boldsymbol{e}_{C}(n)\right)\right]_{+} $ ここで []$_{+}$はヒンジ関数である。このスコアが低い $n$-gram から順に選択することで,誤って出現した回数が多い $n$-gram を優先的に分析することとなる. しかし,頻繁に発生する誤りが必ずしも分かりやすく有用な誤りとは限らない,表 2 は,ある英日機械翻訳システムが出力した翻訳結果に含まれ,参照訳には含まれなかった $n$-gram を, 表 2 機械翻訳で頻繁に起こる誤り 回数が多いものから順に一覧にしたものである。この表で,右側の数字はテストコーパス内で誤って出現した回数を示している。この表を見ると, 単純に頻繁に検出される誤りは目的言語に頻繁に出現するものに支配されており, この結果だけからは翻訳システムの特徴を把握しにくいことが分かる. ## 3.1.3 自己相互情報量に基づく選択 誤り頻度に基づいて $n$-gram の選択を行った場合, 表 2 に示したように誤りとして検出されるものの多くは単純に目的言語の特徴を捉えたものとなってしまう. 本研究ではこの問題に対処するため, 出現頻度より正しく, ある $n$-gram が誤った文の特徴であるかどうかを判断する手法を提案する。 最初のスコア付け基準として, 自己相互情報量 (PMI: Pointwise Mutual Information) に基づく手法を提案する,PMI は, 2 つの事象の関係性を計る尺度であり,本研究では与えられた $n$-gram と機械翻訳結果との関係性をスコアとして定式化する。機械翻訳結果と関係が強い $n$-gram は,正解訳との関係は逆に弱くなる. PMI は以下の式によって計算される (Church and Hank 1990). $ \begin{aligned} P M I\left(x, \boldsymbol{e}_{M T}\right) & =\log \frac{p\left(\boldsymbol{e}_{M T}, x\right)}{p\left(\boldsymbol{e}_{M T}\right) \cdot p(x)} \\ & =\log \frac{p\left(\boldsymbol{e}_{M T} \mid x\right)}{p\left(\boldsymbol{e}_{M T}\right)} \end{aligned} $ ここで, 各原文につき機械翻訳結果と正解訳が 1 つずつ与えられるため, $p\left(\boldsymbol{e}_{M T}\right)=1 / 2$ である.条件付き確率 $p\left(\boldsymbol{e}_{M T} \mid x\right)$ は以下の式で計算される. $ p\left(\boldsymbol{e}_{M T} \mid x\right)=\frac{\sum_{n} \phi_{x}\left(\boldsymbol{e}_{M T}(n)\right)}{\sum_{n}\left.\{\phi_{x}\left(\boldsymbol{e}_{M T}(n)\right)+\phi_{x}\left(\boldsymbol{e}_{C}(n)\right)\right.\}} $ 最終的に, 自己相互情報量の期待値に比例する以下の値をスコアとし, スコアが低いものから順に $n$-gram を選択する。 $ \begin{aligned} S(x) & =\phi_{x}\left(\boldsymbol{e}_{M T}(n)\right) \cdot\left(-P M I\left(x, \boldsymbol{e}_{M T}\right)\right) \\ & \propto p\left(x, \boldsymbol{e}_{M T}\right) \cdot\left(-P M I\left(x, \boldsymbol{e}_{M T}\right)\right) \end{aligned} $ ## 3.1.4 平滑化された条件付き確率に基づく選択 「誤り頻度に基づく選択」では, 目的言語に頻繁に出現する $n$-gram が分析対象の上位を占めてしまう問題があった。そこで,2つ目のスコア付け基準は,誤り頻度を全体の出現回数で正規化し, 条件付き確率として定式化することを考える。平滑化された条件付き確率に基づく選択では, ある $n$-gram がシステム出力に含まれながら参照文に含まれない確率をスコアとし, このスコアが高いものを優先的に分析する。まず,以下の関数を定義する。 $ \begin{aligned} F_{M T}(x) & =\sum_{n}\left[\phi_{x}\left(\boldsymbol{e}_{M T}(n)\right)-\phi_{x}\left(\boldsymbol{e}_{C}(n)\right)\right]_{+} \\ F_{C}(x) & =\sum_{n}\left[\phi_{x}\left(\boldsymbol{e}_{C}(n)\right)-\phi_{x}\left(\boldsymbol{e}_{M T}(n)\right)\right]_{+} \end{aligned} $ ここで, $F_{M T}(x)$ は誤り頻度に基づく選択で利用した式 (1) に等しい. また, $F_{C}(x)$ は $n$-gram が正解訳により多く出現した回数を表す。ある $n$-gram を選択した際,その $n$-gram が正解訳に多く含まれる条件付き確率は以下の通りである. $ p\left(\boldsymbol{e}_{M T} \mid x\right)=\frac{F_{M T}(x)}{F_{M T}(x)+F_{C}(x)} $ しかし, 確率を最尤推定で計算すると,正解訳として出現せず,機械翻訳結果に 1 回しか出現しないような稀な $n$-gram の確率が 1 となり,頻繁に選択されてしまう。上述の問題点を解決するために, 確率の平滑化を行う. 文献 (Mackay and Petoy 1995) では平滑化の手法としてディリクレ分布を事前分布として確率を推定しており,本手法もこれに習う。平滑化を用いた際の $n$-gram $x$ についての評価関数は式 (4) の通りであり, $S(x)$ が低いものを代表的な $n$-gram とする. $ S(x)=-\frac{F_{M T}(x)+\alpha P_{M T}}{F_{M T}(x)+F_{C}(x)+\alpha} $ ただし, $ P_{M T}=\frac{\sum_{x} F_{M T}(x)}{\sum_{x} F_{M T}(x)+\sum_{x} F_{C}(x)} $ このとき平滑化係数 $\alpha$ を決定する必要がある. $n$-gram を利用して参照文もしくはシステム出力文を選択する際,選択される文の種類がディリクレ過程に従うと仮定すると,コーパス全体に対する尤度は式 (5) で表される. $ P=\prod_{x} \frac{\left.\{\prod_{k=0}^{F_{M T}(x)-1}\left(k+\alpha P_{M T}\right)\right.\}\left.\{\prod_{k=0}^{F_{C}(x)-1}\left(k+\alpha P_{C}\right)\right.\}}{\prod_{k=0}^{F_{M T}(x)+F_{C}(x)}(k+\alpha)} $ 式 (5)の $P$ が最大化されるような $\alpha$ をパラメーターとする,Pは全区間で微分可能であり,唯 一の極があるとき,その点で最大値となる。 よって $\alpha$ は $P$ の微分からニュートン法により計算できる. ## 3.1.5識別言語モデルの重みに基づく選択 最後に, 識別言語モデルの重みに基づくスコア付け基準を提案する。識別言語モデルは, 自然な出力言語文の特徴を捉えるように学習される通常の言語モデルとは異なり,ある特定のシステムについて, 起こりやすい出力誤りを修正するように学習される。 さらに学習時に正則化を行えば, モデルのサイズが小さくなり, 少ない修正で出力を改善するような効率的な修正パターンが学習される。誤り分析の観点から見ると, モデルによって学習された効率的な修正パターンに目を通せば,システムの特徴的な誤りを発見できると考えられる。 ## 構造化パーセプトロンによる識別言語モデル 識別言語モデルの学習は構造学習の一種である. 先行研究では, 構造学習の最も単純な手法である構造化パーセプトロン (Collins 2002) を, 識別言語モデルの学習において有用な手法であると示している (Roark, Saraclar, and Collins 2007). 構造化パーセプトロンでは, 候補集合の中で誤りの修正先として学習される目標 $E^{*}$ を定める。本研究では目標として, 機械翻訳結果の $n$-best の中で評価尺度が最も高かった文(オラクル訳, 3.2 節参照)を選択する。学習では, モデルによって最も大きなスコアが与えられる現在の仮説 $\hat{E}$ と $E^{*}$ の素性列を比較する. 1 回の更新において, $\hat{E}$ と $E^{*}$ の差分を用いて重み $\boldsymbol{w}$ を更新する。重みが更新されると,重みと素性列から計算されるスコアが変化し,仮説 $\hat{E}$ が更新される。 $\hat{E}$ と $E^{*}$ が等しいときは差分が $\mathbf{0}$ のため更新を行わない,重みの更新はコーパス全体に対して一文ごとに逐次的に行い,反復回数や重みの収束といった終了条件が満たされるまで反復する。学習のアルゴリズムを Algorithm 1 に示す.ここで, $\hat{\boldsymbol{E}}(n)$ は $n$ 番目の文に対応する機械翻訳結果の $n$-best リスト, $T$ は反復回数である。また, $E V(E)$ は機械翻訳結果 $E$ の翻訳精度を評価するための自動評価尺度である. ## L1 正則化による素性選択 機械翻訳システムの誤り傾向をより明確にするため,重みの学習時にL1 正則化を行う.L1 正則化は, 重みべクトルに対して L1ノルム $\|\boldsymbol{w}\|_{1}=\sum_{i}\left|w_{i}\right|$ に比例するペナルティを与える. L1 正則化を用いる時に,重み $\boldsymbol{w}$ の中で多くの素性に対応するものが 0 となるため, 識別能力に大きな影響を与えない素性をモデルから削除することが可能となる。 L1 正則化された識別モデルを学習する簡単かつ効率的な方法として, 前向き後ろ向き分割 (forward-backward splitting; FOBOS) アルゴリズムがある (Duchi and Singer 2009). 一般的なパーセプトロンでは正則化を重みの更新時に行うが,FOBOSでは重みの更新と正則化の処理を分割し,重みの利用時に前回からの正則化分をまとめて計算し,効率化を図る. ## 識別言語モデルの素性 識別言語モデルの素性として様々な情報を利用できるが,本研究では $n$-gram に基づく選択を行うため,以下の 3 種類の素性を利用する。 翻訳仮説を生成したシステムのスコア: システム出力を修正するように学習するため, 学習の初期においてシステムスコアによる順位付けが必要である. 翻訳仮説に含まれる $n$-gram の頻度: $n$-gram に対して重み付けをすることで,システムが出力する誤った $n$-gram を捉える。 翻訳仮説の単語数:翻訳システムが利用する評価尺度が単語数によって大きく影響される場 合,単語数を調整するのに用いられる。 $n$-gram の選択時には, 識別言語モデルによって学習された重みが低いものを優先的に選択する。 ## 3.2 スコア計算に用いる正解訳 $e_{C(n)$ の選択} 機械翻訳の評価では,正解訳として事前に人手で翻訳された参照訳を利用することが多い. しかし参照訳は機械翻訳とは独立に翻訳されるため, 使用する語彙が機械翻訳結果とは異なる場合が多いと考えられる。本研究では参照訳の代わりに,機械翻訳システムが出力した翻訳候補の中で,自動評価尺度により最も高いスコアが与えられた文(オラクル訳)を正解訳として利用し,参照訳を用いた場合との比較を行う. 表 3 にオラクル訳の例を示す。この例では, 日本語の「宗派」が機械翻訳結果で “sect”と正しく翻訳されているが,参照訳では “school” となっているため, 差分を取ると誤り $n$-gram として選択されやすくなってしまう。オラクル訳は機械翻訳システムの探索空間の中で,参照訳の表現に最も近い文であるため, 訳出に近い表現を維持しながら正しい翻訳に近づく。この場合,誤りでない “sect” がオラクル訳でも使用されているため,差分をとった際に誤り $n$-gram として扱われにくくなる。このように,オラクル訳は翻訳仮説と同じシステムから出力されるため, 表 3 オラクル訳の例 & & BLEU+1 \\ オラクル訳は参照訳に比べて翻訳仮説との表層的な異なりが少なくなり,換言を誤り $n$-gram として誤選択する可能性が低くなると考えられる。一方,オラクル訳は機械翻訳システムから出力されている以上,誤訳を含む場合もあることに注意されたい. ## 4 誤り候補 $n$-gram のフィルタリング $n$-gram に基づく誤り箇所選択では, $n$-gram のスコアはコーパス全体から計算される。このため,コーパス全体を見た際に分析すべきと判断された $n$-gramであっても,ある特定の文では誤りとは考えにくい場合がある。本節では,選択された箇所に対してフィルタリングを適用することにより誤選択を回避し,機械翻訳の誤り箇所選択率の向上を行う. ## 4.1 厳密一致フィルタリング このフィルタリングは, 機械翻訳結果中のある $n$-gram が誤り箇所として選択された際に, その $n$-gram が正解訳の一部に厳密一致するかどうかを確認し, 一致する場合は選択を行わないようにする。フィルタリングの具体例を表 4 に示す. $n$-gram「、右」が誤り箇所の候補とされた際,1つ目の例では機械翻訳結果の一致箇所が選択されるが,2つ目の例では正解訳に同一の $n$-gram があるため, 誤り箇所の候補から除外される。これは, 正解訳に含まれている文字列は翻訳誤りではないだろうという直感に基づく. ## 4.2 換言によるフィルタリング 機械翻訳結果と正解訳の文字列が,表層的に異なりながら意味が等しい場合, 厳密一致フィルタリングを用いただけでは選択された箇所が正解訳に含まれず,誤選択を回避することができない。この問題を解決するため, 本研究では正解訳の換言を用いたフィルタリングを行う. 換言によるフィルタリングの例を図 4 に示す. 正解訳として “I don't like IT!”が与えられている中, 機械翻訳結果が "I like information technology!" となり, "like information" が誤りの候補として挙げられたとする。換言によるフィルタリングでは,まず正解訳に含まれる全ての部分単語列を用意した換言データベースの中から検索し,ある閥値以上の確率で置換可能な換言を抽出する。次に,抽出された換言を利用して参照訳のパラフレーズラティス (Onishi, 表 4 厳密一致フィルタリングの例 & \\ 図 4 パラフレーズラティスによる誤り箇所候補のフィルタリング Utiyama, and Sumita 2010) を構築する。最後にラティス上を探索し, 誤りの候補として挙げられた $n$-gram “like information”が見つかった場合は,この $n$-gramを誤りの候補から除外する. ## 4.3 フィルタリングに用いる正解訳の選択 3.2 節で,スコア計算に用いる正解訳として参照訳またはオラクル訳を利用するが,フィルタリングの際にも正解訳として参照訳のみ用いた場合と,参照訳に加えてオラクル訳を用いた場合で比較を行う。オラクル訳の選択では,機械翻訳の自動評価尺度を用いるが,本研究では以下の 2 つの評価尺度で選択を行った場合の比較を行う。 BLEU+1: 機械翻訳の自動評価に一般的に用いられる尺度である BLEUを, 文単位の評価に対応させたもの.換言を考慮しない. METEOR: BLEU +1 は,参照訳と機械翻訳結果の表層的な文字列の違いにしか着目しないため,換言に対して不当な罰則を行ってしまう,METEOR は事前に与えられた換言テー ブルを用いるため,換言に対する罰則が BLEU+1に比べて小さくなる.METEORを用いた場合,BLEU+1を用いた場合に比べ,オラクル訳と参照訳の違いは表層的に多くなると考えられるが,逆に機械翻訳結果との表層的な違いが少なくなり,換言の誤選択が発生しにくくなると考えられる。 ## 5 実験 本節では,各実験を通して,提案法を利用することで機械翻訳の誤り分析をより効率的に行えることを示す。まず, 各スコア基準に従って単一の機械翻訳システム(5.1.2 節)及び複数の機械翻訳システム (5.1.4 節) の誤り箇所選択を行い, 人手評価を行う。これにより, 提案法の選択精度とシステム間比較における有効性を検証する。次に,誤りとして選択された箇所のフィルタリングを複数の手法によって行い,フィルタリングの効果を自動評価によって測定する(5.2 節)。さらに, 提案法が翻訳誤りでない箇所を誤選択する場合についても分析を行い,提案法が抱える課題を明らかにし, その改善策について検討する(5.3 節)。また, 提案法によって発見された翻訳誤りを修正した際の効果について検討する(5.4 節). ## 5.1 選択された誤り箇所の調査 本節では,各手法によって順位付けされた誤り $n$-gram を人手で分析する。人手評価の方法は赤部, Neubig, Sakti, 戸田, 中村 (2014a) に従い 2 段階で行う。まず,各誤り箇所選択手法によって選択された箇所に対し, 分析者はその箇所が機械翻訳の誤り箇所を捉えているかどうかをアノテーションする。これにより, 優先的に選択された上位 $k$ 個の $n$-gramについて, 誤り箇所の適合率を測定することが可能となる。次に,誤り箇所を捉えている場合は,以下に示す誤りの種類をアノテーションする. 文脈依存置換誤り:別の文脈では正しい翻訳だが,この文脈では不適切な翻訳。 文脈非依存置換誤り:いかなる文脈であっても,不適切な翻訳. 挿入誤り:不必要な語句の挿入. 削除誤り:必要な語句の不適切な削除. 並べ換え誤り:選択された箇所が語順の誤りを捉えている。 活用誤り: 活用形が誤っている. これにより, 選択された誤り箇所の誤り傾向を把握する。これらの結果を元に, 翻訳システ么の比較を行う。 ## 5.1.1 実験設定 すべての実験で京都フリー翻訳タスク (KFTT) (Neubig 2011)の日英翻訳を利用した。コー パスの大きさを表 5 に示す. 単一の機械翻訳システムを用いた実験では, Travatarツールキット (Neubig 2013)に基づく forest-to-string (F2S) システムを利用した。システム間比較では, F2S システムに加え, Moses ツールキット (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007) に基づくフレーズベース翻訳 (PBMT) システム及び階層的フレーズベース (HIERO) システムを利用した。 翻訳システムを構築する上で, $\mathrm{F} 2 \mathrm{~S}$ システムでは単語間アラインメントに $\mathrm{Nile}^{2}$ を利用し,構文木の生成には Egret $^{3}$ を利用した,PBMT システムと HIERO システムでは,単語間アラインメントに GIZA++ (Och and Ney 2003) を利用した。チューニングには MERT (Och 2003)を利用し,評価尺度を BLEU (Papineni et al. 2002) とした. $n$-gram の選択には 3 章で説明したスコア計算法を利用した。実験を行ったスコア計算法とスコアの学習に利用したデータの組み合わせを表 6 に示す. $n$-best による識別言語モデルの学習は, 反復回数を 100 回とした。学習時に FOBOS (Duchi and Singer 2009)によるL1 正則化を行った. 正則化係数は $10^{-7}-10^{-2}$ の中から選び,KFTT のテストセットに対して高い精度を示す値を利用した。学習には 1-gram から 3 -gram までの $n$-gram を長さによる区別を行わずに利用した。 オラクル文の選択には BLEU +1 を利用し,選択される $n$-gram の誤り傾向を分析した。各手法で,参照訳を用いた厳密一致フィルタリングを行った。 ## 5.1 .2 選択する $n$-gram の個数と適合率の関係 まず,識別言語モデルの重みに基づく選択,機械翻訳結果と参照訳から計算された誤り頻度に基づく選択,ランダム選択の比較を行った。図 5 に,上位の $n$-gramを順に選んだ際の誤り箇所適合率を示す。この結果から,識別言語モデルの重みに基づき選択された $n$-gram が,ランダ 表 5 KFTT のデータサイズ 表 6 実験に用いた誤り箇所選択手法 } & 誤り頻度 & O & O & \\ ^{3}$ http://code.google.com/p/egret-parser/ } 么選択,誤り頻度に基づく選択の 2 手法に比べ,機械翻訳の誤り箇所を高い精度で捉えていることが分かる. ## 5.1.3選択された $n$-gram の統計 次に, 各手法で上位 30 個に選ばれた誤り $n$-gram を選択した際の誤り箇所適合率を調査した。結果を表 7 に示す. 表から,誤り箇所選択率が高い手法は,平滑化された条件付き確率に基づく手法と,識別言語モデルの重みに基づく手法であることが分かる。その他の手法はランダム選択を下回っており,誤り箇所選択率が高いとは言えない。上位 3 つの手法を比較すると,参照文を利用した条件付き確率に基づく手法では,置換誤りや挿入誤りを多く捉えているが,削除誤りをほとんど 図 5 分析対象となった $n$-gram の誤り箇所選択率横軸は選択した $n$-gram の種類数,縦軸は誤り箇所適合率. 表 7 各手法により選択された $n$-gram の内訳 誤り箇所選択率がランダムよりも高い 3 つの手法を太字で示した。また, 3 つの手法の中で各種類の誤りについて多く検出されたものを太字とした。 捉えていないことが分かる。一方,識別言語モデルの重みに基づく手法では,他の手法に比べて 2 倍以上の削除誤りを捉えていることが分かる. 識別言語モデルの重みに基づく手法以外で削除誤りの検出率が悪い原因として,削除誤りを検出する際には削除された単語列ではなく,その前後の文脈を見る必要があることが挙げられる. 削除誤りが発生する前後の文脈は原文によって大きく変わるため, $n$-gram の発生頻度が小さく候補から外れやすくなる。しかし識別言語モデルの重みに基づく手法の場合,同じ文脈における削除誤りが $n$-best 中の複数の候補に発生するため, 削除誤りが修正されるまで $n$-gram の重みを大きくしようとする,結果として,識別言語モデルの重みに基づく手法では,削除誤りも多く捉えることができる。 各手法とも,ランダム選択に対して捉えられた誤りの分布は大きく異なる。この点から, 別々の手法によって捉えられた誤りの分布を比較することはできないことが分かる。また,あるシステムの分析結果に対して,どの誤りが多い,あるいは少ないという絶対的な評価はできず,システム同士の相対的な評価にしか利用できないことに注意されたい. 識別言語モデルの重みによって選択された箇所の例を表 8 に示す.この結果を見ると, 誤り頻度に基づいて選択した場合(表 2)に比べ,選択された $n$-gram が目的言語の言語現象に支配されていないことが分かる. 表 8 識別言語モデルによって選択された上位の $n$-gram \\ 枠で囲まれた部分は選択された箇所および選択箇所に対応する箇所を示す. ## 5.1.4 システム間比較 分析対象とするシステムによって, 含まれる誤りの分布が異なる。本節では, 提案法によって検出される誤りが, 本来の誤り分布を適切に捉えることを確認する。具体的には, PBMT, HIERO, $\mathrm{F} 2 \mathrm{~S}$ の 3 つの翻訳システムで日英・英日の両方向に対して翻訳を行い,単一システムの評価を行った際と同様に,識別言語モデルの重みに基づく誤り箇所選択法を利用して抽出された上位 30 個の誤り $n$-gramに対し,分析を行った。その結果を表 9 に示す. この結果から, PBMT と HIEROの両システムでは, 並べ換え誤りが上位の誤りとして検出されている一方,F2S システムの特に英日翻訳では下位の誤りとして検出された。一般的に, 統語情報を使った翻訳システムは並べ換え誤りに強いことが知られており, 本結果はこれを裏付けることとなった。次に,日英翻訳では挿入誤りが多く検出され,逆に英日翻訳では日本語で多様な活用誤りが多く検出されていることが分かる. このように僅か 30 個の誤り $n$-gramに目を通すだけで,各翻訳システムが苦手とする分野に目を通すことがある程度できたことが分かる。 ## 5.2 選択された箇所に対するフィルタリングの効果 本節では,翻訳誤りとして選択された箇所に対し,各フィルタリング法を適用した際の効果について,誤り箇所アノテーションコーパスを用いた自動評価により検証する。自動評価には,先行研究で提案されている機械翻訳結果を後編集した際の編集パターンを利用した手法 (赤部, Neubig, Sakti, 戸田,中村 2014b)を利用する。評価の際は,事前に選択精度評価用の機械翻訳結果を後編集したコーパスを作成する。後編集のパターンから,機械翻訳結果の各部分に対して, 挿入誤り, 削除誤り, 置換誤り, 並べ換え誤りのラベルを付与することが可能である.これを誤り箇所の正解ラベルとし,評価用の機械翻訳結果に対して各誤り箇所選択法を適用した際に,誤り箇所の正解ラベルをどの程度予測できるかを適合率と再現率により評価する. 表 93 種類のシステムで両方向の翻訳を行った際の比較 太字は各システムで発生した誤りの上位 3 種類. ## 5.2.1 実験設定 人手評価の際と同様に, 機械翻訳システムとして京都フリー翻訳タスク (KFTT) (Neubig 2011) の日英データで構築された $\mathrm{F} 2 \mathrm{~S}$ システムを利用した。誤り候補のフィルタリングでは,正解訳として参照訳のみ利用した場合と, 参照訳とオラクル訳の 2 つを利用した場合で比較を行った. オラクル訳の選択には, 評価尺度として BLEU+1 または, METEOR version 1.5 (Denkowski and Lavie 2014) を利用し,それぞれ 500-best の中で評価尺度が最大となるものを選択し,比較を行った. パラフレーズラティスの構築のため, 英語換言データベース (PPDB) (Ganitkevitch, Van Durme, and Callison-Burch 2013)のXL サイズ(43.2 M ルール)を利用した。また日本語のラティス構築のため, 日本語換言データベース (Mizukami, Neubig, Sakti, Toda, and Nakamura 2014)の XL サイズ(11.7 M ルール)を利用した. 誤り箇所選択率の評価のため, KFTT の開発セットを日英翻訳した結果 503 文 (12,333 単語),英日翻訳した結果 200 文(4,846 単語)に対して後編集を行い,誤り箇所アノテーションコーパスを作成した。 ## 5.2.2参照訳による厳密一致フィルタリングの効果 予備実験として,コーパス全体をランダムに選択した場合と,参照訳によるフィルタリングを行った場合で,誤り箇所の選択精度がどのようになるか確認を行った.表 10 はすべての箇所をランダムに分析した場合の結果である。「フィルタリングなし」はチャンスレート,「フィルタリングあり」は分析の際にフィルタリングを行った結果である ${ }^{4}$.この表から, 参照訳によるフィルタリングを行うだけでも,再現率の低下を抑えつつ適合率が大きく改善したことが分かる。 ## 5.2.3換言を考慮した正解訳の効果 各正解訳(参照訳,参照訳+オラクル訳)を用いたフィルタリング法を,換言あり・なしの場合について適用した実験を行った。表 11 は各設定における誤り箇所適合率と再現率の結果である.この表から,フィルタリングに用いる正解訳として,参照訳のみを用いた場合に比べて 表 10 参照訳によるフィルタリングの効果  BLEU +1 によるオラクル訳を加えた方が適合率が高く,また評価尺度として METEORを用いた場合は,BLEU+1を用いた場合に比べ更に適合率が高くなったことが分かる。このことから, METEORにより選択されたオラクル訳は,機械翻訳の 1-best 出力で利用される語彙に似ており,換言表現が含まれにくくなっていることが分かる. 次に正解訳の換言を用いた場合の結果を見ても,選択箇所の誤り箇所適合率が高くなっていることが分かる。これらから,正解訳の換言を用いたフィルタリングを行うことによって,機械翻訳の誤り箇所がより適切に捉えられるようになったことが分かる. 一方,再現率について注意しなければならない点がある。特にオラクル訳を正解訳として利用した場合に,誤り箇所選択の再現率が大きく低下している。これは,オラクル訳は機械翻訳システムが出力した文であり,1-best と同様の誤りが発生する場合があるためである。しかし,今回提案した各手法は,コーパスの中の少なくとも $20 \%$ の誤り箇所を捉えており,提案法を利用する際には大きな問題とはならないと考えられる。誤り分析を効率的に行う際には, 適合率の高い手法から先に利用し,選択された箇所を全て分析してしまった場合は順次再現率の高い選択法に切り替えることが可能である. 表 12 にフィルタリングされた箇所の例を示す. 1 つ目の日英翻訳の例では, “foundation of" が誤り箇所の候補として選択されている。しかし参照訳に含まれる “a foundation for" は換言デー タベースによると“a foundation of"に置き換えることが可能である。その結果, “foundation of" は誤りの候補から正しく除外された,2つ目の英日翻訳の例では,換言データベースにより 表 11 各フィルタリング法における適合率と再現率 表 12 換言によりフィルタリングされた $n$-gram の例 & \\ 句点「、」が削除されたことで,不適切な選択箇所が正しく除外された。 この際注意すべきこととして,生成されたパラフレーズラティスが言語的に正しいものとは限らないという点が挙げられる。このため, 誤った翻訳が発生している箇所が候補から除外される可能性もあることに注意されたい. ## 5.2.4換言テーブルのドメインの影響 次に,日英翻訳において異なる換言データベースを使用した際の選択精度の調査を行った。前節の実験で利用した英語 PPDB には,分析対象であるKFTTのデータが含まれていない。このため,KFTTのデータが含まれている日本語 PPDB の構築データを利用して英語の PPDBを新たに作成した.前者を「ドメイン外」,新しく作成した後者を「ドメイン内」とし,評価結果を表 13 に示す. この表から, 分析対象のドメインのデータが含まれた換言データベースを利用することで,誤り箇所選択の適合率が向上したことが分かる。換言データベースは機械翻訳のパラレルデー タがあれば容易に作成可能なため (Bannard and Callison-Burch 2005),誤り分析で利用する際には独自に作成することが望ましいと言える。 ## 5.2.5 選択された誤り箇所の分布 誤り箇所選択法によって見つかった誤りの傾向が,本来の誤り傾向と異なる場合,機械翻訳システムの傾向を正しく把握できないことにつながる。このため, 誤り分析コーパスに含まれる誤りの分布と,各誤り箇所選択法によって見つかった誤りの分布の比較を行った. 各手法によって見つかった誤りの統計を図 6 に示し, 表 14 に KL ダイバージェンス (Kullback and Leibler 1951) $D_{\mathrm{KL}}\left(P_{\text {corpus }} \| P_{\text {select }}\right)$ を示す.ここで, $P_{\text {corpus }}$ はコーパスに含まれる誤りの分布, $P_{\text {select }}$ は各手法によって見つかった誤りの分布である。この結果から,参照訳を用いたフィルタリング法によって検出される誤りが,翻訳システムの誤り傾向を最も正確に捉えていると言えるが,他の手法でも KL ダイバージェンスの値が 0.001 程度に収まっている。この結果から, いずれの手法においても選択された誤りの種類に大きな偏りが生じず,機械翻訳システムの誤り傾向を適切に捉えていることが分かった。 表 13 異なるドメインの PPDB を利用した場合の結果 図 6 各手法で選択された誤り箇所の分布 “All”は誤り分析コーパスに含まれる誤りの分布を示す. 表 14 コーパスに含まれる誤り分布と見つかった誤り分布の間の KL ダイバージェンス ## 5.3 誤選択箇所の分析 5.1 節及び 5.2 節の実験から,各誤り箇所選択法が誤って正しい翻訳箇所を選択する場合,またはフィルタリングによって誤り箇所が選択できなくなってしまう場合が存在することが明らかとなった。また,誤り箇所選択の自動評価の際,後編集結果に基づいて誤り箇所がアノテー ションされたコーパスを用いるが,そもそもこのコーパスに誤りが含まれている場合は,精度評価が正しく行えないと考えられる。本節では, 5.2 節と同様に, 日英翻訳の誤り箇所アノテー ションコーパスを用いて誤り箇所選択を行い, 自動評価によって誤選択と判断された箇所について原因の調査を行った. ## 5.3.1誤選択された正しい翻訳箇所に対する分析 誤り箇所選択法は,優先的に分析すべきと判断された箇所を選択するが,選択された箇所が本当は誤りでない場合がある。このような誤選択の分析を行うため, 各手法により誤り箇所選択を行い,さらに選択箇所の自動評価を行った際に,誤選択と判断された部分について以下のアノテーションを人手で行う. 厳密一致: $n$-gram は正解訳にも存在し, 換言を利用しないフィルタリングによって除外可能.換言: $n$-gram は正解訳の局所的な換言であり, 適切な換言ルールを利用できれば, 除外可能.統語的換言: $n$-gram は正解訳の換言だが,局所的な換言が困難と考えられる.文全体に影響 する複雑な換言を利用できれば,除外可能. 正解訳の誤り: 正解訳が誤っているため, フィルタリングによって除外されない. 無くても良い: $n$-gram は正解訳に一致せず,フィルタリングできない。しかし,その $n$-gram が正解訳に含まれていなくても正解訳は誤りでない. 後編集誤り: 正解ラベルの誤り(後編集誤り)により誤選択と判断されたが,実際は適切な選択. その他: 上記以外の誤り。 $n$-gram が長すぎるためフィルタリングできない等. ## 実験設定 京都フリー翻訳タスク (KFTT) の日英データで構築された $\mathrm{F} 2 \mathrm{~s}$ システムに対し,「識別言語モデルの重みに基づく誤り箇所選択」を行い,再現率が $5 \%$ となる上位の $n$-gram について分析を行った。選択の際,各手法によりフィルタリングを行った。オラクル訳を選択する際の評価尺度として BLEU+1を利用した。 ## 実験結果 まず,選択箇所のフィルタリングを一切しない場合に検出された誤選択箇所の内訳を表 15 に示す. 誤選択と判断された箇所の内,誤り箇所アノテーションコーパスの誤りであり,誤選択 次に,各フィルタリング法を適用した場合に検出された誤選択箇所の個数を表 16 に示す。この結果から,識別言語モデルの重みに基づく誤り箇所選択を行った際に,参照訳を用いたフィルタリングを行うことによって 4 割以上の誤選択を回避できることが分かった。また,誤選択された箇所が正解訳の換言に含まれる場合,参照訳の換言を用いたフィルタリングによって 3 割以上,さらにオラクル訳やオラクル訳の換言を用いたフィルタリングを合わせることで 8 割以上の誤選択を回避できることが分かった。 表 15 誤選択された $n$-gram の内訳 正解訳を「参照訳」とした場合の統計. オラクル訳を正解訳としてフィルタリングを行った場合の「正解訳の誤り」がフィルタリングをしなかった場合に比べて多く現れている。これは,オラクル訳に含まれる誤りが参照訳に対して多いためである。また,「厳密一致」に分類される誤選択箇所であっても,フィルタリングで除外されない誤りがある。これは短い $n$-gram で一致していても,長い $n$-gram では一致しない場合にフィルタリングを通過し,誤選択されてしまうためである。 表 17 に誤り箇所の誤選択例を示す。「統語的換言」に分類された例を見ると,機械翻訳結果の“1392 , started” が誤り箇所として選択されている。これは参照訳の統語的な換言であり,実験で使用した PPDB では対応できないため,参照訳のみを正解訳とした場合は誤り箇所として扱われてしまう。しかし,オラクル訳は機械翻訳結果と同じ文の構造をしており,“began”を "started"に置き換えるだけで選択箇所に一致する。このため, オラクル訳の換言を使ったフィルタリングによって分析対象から除外可能となる. 表 16 各フィルタリング適用後の誤選択箇所の個数 } & \multicolumn{6}{|c|}{ + 参照訳 } \\ 括弧内の数字は,フィルタリングを行わなかった場合(-参照訳,-オラクル)に対する比率 $(\%)$. 表 17 各種類の誤選択例 & & \\ 枠で囲まれた文字列は誤選択箇所を示す. ## 5.3.2選択されなかった誤り箇所に対する分析 誤り箇所選択によって選択された箇所に対してフィルタリング法を適用することで,正解訳に一致する $n$-gram や正解訳の換言に含まれる $n$-gram を誤り箇所から除外することができる. しかしそれらの手法によって,逆に正しく選択されるべき機械翻訳の誤り箇所を誤り箇所の候補から除外する場合があり,再現率の低下として現れている。このような問題の分析を行うため, 誤り箇所アノテーションコーパスで誤りとされている箇所で,フィルタリングにより選択できなくなる部分について,以下の基準に従って分類を行う. 誤った部分に一致: 正解訳の異なる位置に対応する $n$-gram に一致した. 誤った換言: 換言テーブルの不適切なルールが使用された。 文脈的に誤った換言:この文脈では使うべきでない換言ルールが使用された. 文脈的後編集: 文脈に依存する誤り箇所.後編集の表現方法を変えれば,誤り箇所ではなくなる。 正解訳の誤り: 正解訳が誤っているため, 誤り箇所がフィルタリングによって除外された. 後編集誤り: 正解ラべルの誤り(後編集誤り,または不要な後編集)により誤り箇所とされているが,実際は適切な翻訳。 日本人の名前:日本人の名前(姓名の順序が正解訳・機械翻訳結果と後編集の間で異なる). コーパス特有の問題であり後編集誤りに分類できるが,多く含まれているため特別に分類を行う。 ## 実験設定 5.2 節で利用した日英機械翻訳の誤り箇所アノテーションコーパスについて,「参照訳を用いた厳密一致フィルタリング」及び「参照訳のパラフレーズを用いたフィルタリング」を適用し,選択されなくなってしまう誤り箇所の調査を行った。 ## 実験結果 各フィルタリング法を適用することによって選択されなくなった誤り箇所の統計を表 18 に示す.この結果から, 参照訳のみによるフィルタリングを行った場合, 選択されなくなる箇所の約 3 割は誤り箇所アノテーションコーパスの誤りによるもの, 約 6 割は姓名の順序の違いに起因する誤りであり,実用上問題となる誤り箇所がほとんど除外されていないことが分かった.次に,参照訳の換言によるフィルタリングを適用した場合の結果を見ると,間違った換言が使用されたことによる誤選択が $20 \%$ 以上あることが分かった. また,誤り箇所アノテーションコーパスの誤りにより誤り箇所として誤判断された箇所が約 3 割検出されており,各選択法の再現率を評価する際,無視できないほどの影響が出ることが分かった。 ## 5.4 誤り箇所選択の誤り分析における効果 本節では,実際の誤り分析を想定し,各誤り箇所選択法を用いて一定時間分析を行った際の効果を検証する。 図 7 は本節の実験の手順を示す。まず, 3 章で述べた各手法によって $n$-gram にスコアを与え,優先的に分析すべき $n$-gram を順に抽出する。次に,機械翻訳の訳出の中で各 $n$-gram が含まれている文を列挙し, $n$-gram に一致する箇所を選択する。その際, 4 章で述べたフィルタリング処理を行う.分析シートは, $n$-gram が正解訳に含まれないものを先に表示し, 正解訳に含まれるものを後に表示するようにした。このようにすることで,分析者はフィルタリングの対象とならなかった結果を優先的に分析しつつ,分析者の時間が許せば,誤ってフィルタリングされた機械翻訳文も分析対象とすることができる。分析者は各 $n$-gram が選択した箇所について誤り分析を行い,翻訳時に誤って使用された翻訳ルールを記録する。その際,誤り箇所が 5.1 節で 表 18 フィルタリングで除外された誤り箇所の内訳 図 7 分析時間と誤り発見数の関係の調査 述べた「文脈依存誤り」か「文脈非依存誤り」かを記録しておくことで,翻訳ルールそのものが誤っているのか,あるいはモデル化が誤っているのかが把握可能となる。 1 個の $n$-gramにより複数の文が選択された場合は,実際の誤り分析と同様に,分析者の判断ですべての文を見ずに分析を中断しても良いこととする。最後に,各 $n$-gram 毎に誤り分析に要した時間を記録する. ## 5.4.1 実験設定 機械翻訳システムとして京都フリー翻訳タスク (KFTT) で構築された $\mathrm{F} 2 \mathrm{~s}$ 英日翻訳システムを利用した, $n$-gramのスコアリングに「ランダム」,「誤り頻度」,「識別言語モデルの重み」に基づく3つの手法を利用し, 自動評価で $\mathrm{F}$ 値が最大となった「参照訳の換言によるフィルタリング」を利用した.KFTTの開発セットに対して誤り箇所選択を行い,誤って使用された翻訳ルールを記録した。 ## 5.4.2 実験結果 各手法を利用して誤り分析を行った際に,経過した分析時間と誤って使用された翻訳ルールが発見された個数の関係を図 8(a) に示す.また図 8(b) は発見された誤りの中でも文脈非依存誤りの原因となるルールが見つかった個数を示す.グラフの傾きが大きいほど,誤りルールを効率的に発見できることを意味する。これらの結果から,各手法とも分析時間と誤りルール発見数の間に大きな違いは見られなかった。一方で,文脈非依存誤りの原因に限って見れば,識別言語モデルの重みに基づく誤り箇所選択では,他の手法に比べて早い段階から誤りが見つかることが分かった。 文脈非依存誤りは,その誤りを修正しようとした際に文脈を考慮する必要がないため,文脈依存誤りに比べて誤りを容易に修正できる。このため,識別言語モデルの重みに基づく手法を (a) すべての種類 (b)文脈非依存誤りのみ 図 8 分析時間と記録された誤りルール数の関係 表 19 文脈非依存誤りの原因として記録されたルールが KFTT のテストセット翻訳時に使用された回数 利用することで,修正が容易な誤りを早期に発見することができ,システムの改善を比較的効率良く行うことができると言える。 次に,文脈非依存誤りの原因として記録された翻訳ルールを機械翻訳システムから削除することによって,システムをどの程度改善できるかを見積もった.KFTTのテストセット 1,160 文を機械翻訳した際,21,080 個の翻訳ルールが使用された。この内,各手法で文脈非依存誤りの原因として記録されたルールが使用された回数を表 19 に示す. この結果から,文脈非依存の誤りの原因となるルールを具体的に記録しても,そのルールが機械翻訳システムで使用されることは稀であることが分かる。翻訳システムの誤りを修正する際には,見つかった誤りルールを 1 つずつ修正するのではなく,見つかった誤りルールを一般化し,テストセットにおけるカバー率を向上させる必要がある. ## 6 おわりに 本論文では,機械翻訳システムの比較・改善のための誤り分析を効率的に行うことを目的として, 機械学習の枠組みを利用した機械翻訳の誤り箇所選択法, 及び選択箇所のフィルタリング法を提案した。その結果, 人手評価において従来法に比べて高い精度で適切な誤り箇所を捉えることに成功した。また,優先的に選択された少量の誤り箇所を分析するだけで,各システムの誤り傾向を捉えることができ,システム間比較の効率化に貢献した. 次に,機械翻訳の誤り箇所選択法が誤選択した箇所の分析を行ったところ,オラクル訳や換言を利用したフィルタリングは適合率の向上に効果的であるが,誤った換言が使用されることによる再現率の低下が明らかとなった。 最後に,今回の提案法を実際の誤り分析に利用した場合の効果を検証した。その結果,翻訳システムを容易に修正可能な文脈非依存誤りについては,提案法により比較的早い段階から捉えることが可能であることが分かった. 一方ですべての種類の誤りについて見ると, 各手法とも誤りの発見数に大きな違いが見られなかった. この理由として, 各手法によって選択された誤り箇所の特徴が挙げられる。誤り頻度に基づき選択された誤り箇所は, 識別言語モデルの重みに基づいて選択された箇所に比べ,目的言語に頻繁に出現する $n$-gram を多く含む。このため, 識別言語モデルの重みに基づく手法を利用した際, 誤り分析者が比較的効率良く選択箇所 に目を通すことができたと考えられる。今回の実験では,目を通した文の数については記録を行っていないため, 今後の調査項目として検討する必要がある. また,発見したルールを単独で見ても,システム全体から見ればそのような翻訳ルールが使用されることはごく稀であることが分かった。一方で,具体的な誤りルールを一般化することで,同様の翻訳ルールをまとめて修正することは可能と考えられる。 今後の課題として,見つかった具体的な誤りをどのように一般化するかを検討する必要がある。具体的には,見つかった翻訳ルールを品詞列などのより抽象的な情報に自動的に変換することや,誤ったルールを元に,人手によって複数の修正ルールを列挙する手法が考えられる. ## 謝 辞 本研究の一部は, JSPS 科研費 25730136 と (独) 情報通信研究機構の委託研究「知識・言語グリッドに基づくアジア医療交流支援システムの研究開発」の助成を受け実施したものである. ## 参考文献 赤部晃一, Graham Neubig, Sakriani Sakti, 戸田智基, 中村哲 (2014a). 機械翻訳システムの詳細な誤り分析のための誤り順位付け手法. 情報処理学会第 216 回自然言語処理研究会 (SIG-NL), 東京. 赤部晃一, Graham Neubig, Sakriani Sakti, 戸田智基, 中村哲 (2014b). パラフレーズを考慮した機械翻訳の誤り箇所選択. 情報処理学会第 219 回自然言語処理研究会 (SIG-NL), 神奈川. Bach, N., Huang, F., and Al-Onaizan, Y. (2011). "Goodness: A Method for Measuring Machine Translation Confidence." In Proceeding of ACL, pp. 211-219. Banerjee, S. and Lavie, A. (2005). "METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments." In Proceeding of ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization. Bannard, C. and Callison-Burch, C. (2005). "Paraphrasing with Bilingual Parallel Corpora." In Proceeding of $A C L$, pp. 597-604. Church, K. W. and Hank, P. (1990). "Word Association Norms, Mutual Information, and Lexicography." Computational Linguistics, 16 (1), pp. 22-29. Collins, M. (2002). "Discriminative Training Methods for Hidden Markov Models: Theory and Experiments with Perceptron Algorithms." In Proceeding of EMNLP, pp. 1-8. Denkowski, M. and Lavie, A. (2014). "Meteor Universal: Language Specific Translation Evaluation for Any Target Language." In Proceedings of the EACL 2014 Workshop on Statistical ## Machine Translation. Doddington, G. (2002). "Automatic Evaluation of Machine Translation Quality using N-gram Co-occurrence Statistics." In Proceeding of HLT, pp. 128-132, San Diego, CA. Duchi, J. and Singer, Y. (2009). "Efficient Online and Batch Learning using Forward Backward Splitting." Journal of Machine Learning Research, 10, pp. 2899-2934. El Kholy, A. and Habash, N. (2011). "Automatic Error Analysis for Morphologically Rich Languages." In Proceeding of MT Summit, pp. 225-232. Fishel, M., Bojar, O., Zeman, D., and Berka, J. (2011). "Automatic Translation Error Analysis." In Text, Speech and Dialogue, pp. 72-79. Springer. Flanagan, M. (1994). "Error classification for MT evaluation." In Proceeding of AMTA, pp. 65-72. Ganitkevitch, J., Van Durme, B., and Callison-Burch, C. (2013). "PPDB: The Paraphrase Database." In Proceeding of NAACL, pp. 758-764. Kirchhoff, K., Rambow, O., Habash, N., and Diab, M. (2007). "Semi-automatic Error Analysis for Large-scale Statistical Machine Translation Systems." In Proceeding of MT Summit. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceeding of ACL, pp. 177-180. Kullback, S. and Leibler, R. (1951). "On Information and Sufficiency." The Annals of Mathematical Statistics, 22, pp. 79-86. Lin, C.-Y. and Och, F. J. (2004). "Orange: A Method for Evaluating Automatic Evaluation Metrics for Machine Translation." In Proceeding of COLING, pp. 501-507. Mackay, D. J. and Petoy, L. C. B. (1995). "A Hierarchical Dirichlet Language Model." Natural Language Engineering, 1 (3), pp. 289-308. Mizukami, M., Neubig, G., Sakti, S., Toda, T., and Nakamura, S. (2014). "Building a Free, General-Domain Paraphrase Database for Japanese." In Proceeding of COCOSDA. Neubig, G. (2011). "The Kyoto Free Translation Task." http://www.phontron.com/kftt. Neubig, G. (2013). "Travatar: A Forest-to-String Machine Translation Engine based on Tree Transducers." In Proceeding of ACL Demo Track, pp. 91-96. Och, F. J. (2003). "Minimum Error Rate Training in Statistical Machine Translation." In Proceeding of ACL, pp. 160-167. Och, F. J. and Ney, H. (2003). "A Systematic Comparison of Various Statistical Alignment Models." Computational Linguistics, 29 (1), pp. 19-51. Onishi, T., Utiyama, M., and Sumita, E. (2010). "Paraphrase Lattice for Statistical Machine Translation." In Proceeding of $A C L$, pp. 1-5. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceeding of ACL, pp. 311-318. Popović, M. and Ney, H. (2011). "Towards Automatic Error Analysis of Machine Translation Output." Computational Linguistics, 37 (4), pp. 657-688. Roark, B., Saraclar, M., and Collins, M. (2007). "Discriminative N-gram Language Modeling." Computer Speech 83 Language, 21 (2), pp. 373-392. Specia, L., Turchi, M., Cancedda, N., Dymetman, M., and Cristianini, N. (2009). "Estimating the Sentence-level Quality of Machine Translation Systems." In Proceeding of EAMT, pp. 28-37. Vilar, D., Xu, J., d'Haro, L. F., and Ney, H. (2006). "Error Analysis of Statistical Machine Translation Output." In Proceeding of LREC, pp. 697-702. ## 略歴 赤部晃一:2015 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 同大学院博士後期課程に在学中. 機械翻訳, 自然言語処理に関する研究に従事. Graham Neubig: 2005 年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業. 2010 年京都大学大学院情報学研究科修士課程修了. 2012 年同大学院博士後期課程修了. 同年奈良先端科学技術大学院大学助教. 機械翻訳,自然言語処理に関する研究に従事. Sakriani Sakti: 1999 年インドネシア・バンドン工科大学情報卒業. 2002 年ドイツ・ウルム大学修士,2008 年博士課程修了。2003 2011 年 ATR 音声言語コミュニケーション研究所研究員, 情報通信研究機構主任研究員. 現在, 奈良先端科学技術大学院大学情報科学研究科助教。2015~2016 年フランス INRIA 滞在研究員. 統計的パターン認識, 音声認識, 音声翻訳, 認知コミュニケー ション, グラフィカルモデルの研究に従事. JNS, SFN, ASJ, ISCA, IEICE, IEEE 各会員. 戸田智基:1999 年名古屋大学工学部電気電子・情報工学科卒業. 2003 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 同年日本学術振興会特別研究員-PD. 2005 年奈良先端科学技術大学院大学情報科学研究科助手. 2007 年同助教。2011 年同准教授。2015 年より名古屋大学情報基盤センター教授. 工学博士.音声情報処理の研究に従事. IEEE,電子情報通信学会,情報処理学会,日本音響学会各会員. 中村哲:1981 年京都工芸繊維大学工芸学部電子工学科卒業. 京都大学工学博士. シャープ株式会社. 奈良先端科学技術大学院大学助教. 2000 年 ATR 音声言語コミュニケーション研究所室長, 所長. 2006 年独立行政法人情報通信研究機構研究センター長, けいはんな研究所長などを経て, 現在, 奈良先端科学技術大学院大学教授. ATRフェロー. カールスルーエ大学客員教授. 音声翻訳, 音声対話, 自然言語処理の研究に従事. 情報処理学会喜安記念業績賞. 総務大臣表彰, 文部科学大臣表彰, Antonio Zampoli 賞受賞. IEEE SLTC 委員, ISCA 理事, IEEE フェロー. (2015 年 5 月 21 日受付) (2015 年 8 月 6 日再受付) (2015 年 8 月 29 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 自動生成した学習データを用いた文書分類器に基づく FAQ 検索システム 牧野 拓哉 $\dagger$ ・野呂 智哉 $\dagger$ $\cdot$岩倉 友哉 $\dagger$ } 本論文では,ユーザからの自然文による問い合わせを対応する Frequently Asked Question (FAQ) に分類する文書分類器を用いた FAQ 検索手法を提案する. 本文書分類器は, 問い合わせ中の単語を手掛かりに,対応する $\mathrm{FAQ}$ を判別する。しかし, FAQの多くは宇長性がないため, FAQを学習データとして文書分類器を作成する方法では,ユーザからの多様な問い合わせに対応するのが難しい。 そこで,この問題 に対処するために,蓄積されたユーザからの問い合わせ履歴から学習データを自動生成し, 文書分類器を作成する。 さらに, FAQ および文書分類用に自動生成した学習デー夕を用いて, 通常使われる表層的な手がかりに加えて, 本文書分類器の出力 を考慮するランキングモデルを学習する。ある企業のコールセンターの 4,738 件の FAQ および問い合わせ履歴 54 万件を用いて本手法を評価した。その結果,提案手法が, pseudo-relevance feedback および,統計的機械翻訳のアライメント手法を用い て得られる語彙知識によるクエリ拡張手法と比較し, 高いランキング性能を示した. キーワード:FAQ 検索,文書分類,ランキング学習 ## An FAQ Search Method Using a Document Classifier Trained With Automatically Generated Training Data \author{ Takuya Makino ${ }^{\dagger}$, Tomoya $\mathrm{Noro}^{\dagger}$ and Tomoya Iwakura ${ }^{\dagger}$ } We propose an Frequently Asked Question (FAQ) search method that uses a document classifier for classifying a natural language query to a corresponding FAQ. The document classifier classifies a query with words that occur in the query. However, since FAQs have little redundancy, using FAQs as training data for the document classifier is not sufficient for classifying queries that have the similar meaning but different surface expressions. To tackle this problem, our method generates training data automatically from FAQs and corresponding histories and trains the document classifier with them. Furthermore, with the automatically generated training data, our method learns a ranking model that uses classification results of the document classifier. Experimental results on a company FAQs and corresponding histories showed that our method outperformed pseudo-relevance feedback and query expansion model that uses word alignment model in statistical machine translation. Key Words: FAQ Retrieval, Document Classification, Learning to Rank  ## 1 はじめに 製品やサービスを提供する多くの企業は顧客の問い合わせに対応するために,コールセンター を運営している。 コールセンターでは, オペレータが電話やメールによる顧客問い合わせに対応する際や, 顧客自身が答えを探す際の支援のために, Frequently Asked Question (FAQ)の整備および,FAQ 検索システムを導入していることが多い. FAQ 検索の利用者は, 自然文や単語の集合を検索クエリとして, 検索を実施するのが一般的である。しかし, FAQは過去の問い合わせ履歴の中から,同様の質問をまとめ,それらを代表するような抽象的な表現で作成されることが多いため, 類義語や同義語, 表記の摇れといった問題により,正しく検索できない場合がある,たとえば,以下の例のように入力の問い合わせと対応する FAQ で語彙が一致しないことがある. - 問い合わせ:○○カードの再度発行をしたい. 今から出張だが、カードが見当たらない. どうしたらよいか. - 正解の FAQの質問部分:○○カードを紛失・盗難・破損した場合の手続き方法 - 不正解の FAQの質問部分:○○カードを新規発行する方法 この例では, 正解の FAQへの語彙の一致は「○○カード」のみである. 一方, 不正解の FAQ には,「○○カード」に加え,「発行」も一致するため, 不正解の FAQが上位にランクされてしまう。 このような問題に対して, たとえば, Yahoo!知恵袋などのコミュニティ型質問応答サイトにおける類似質問検索では, 統計的機械翻訳で用いられるアライメントモデルを適用する方法が提案されている (Riezler, Vasserman, Tsochantaridis, Mittal, and Liu 2007; Soricut and Brill 2004; Xue, Jeon, and Croft 2008).また,Web 検索においては,ユーザのクエリに対して得られた検索結果の上位の文書集合を適合文書とみなしてクエリを拡張する pseudo-relevance feedback といった手法も用いられている. しかし, アライメントモデルが学習しているのは, 単語と単語の対応確率であり, FAQを特定するために有効な語を学習しているとは言えない. また, Webやコミュニテイ型質問応答サイトなど複数の適合文書が得られる可能性がある場合に用いられる pseudo-relevance feedback は, 適合する FAQが複数存在することが Web 検索ほど期待できない FAQ 検索では十分な効果が得られない可能性がある. 本論文では, 問い合わせを対応する FAQに分類する文書分類器を利用した FAQ 検索システムを提案する.本システムでは,機械学習を基に各FAQに関連のある単語を学習することで,問い合わせ中の単語が検索対象の FAQに一致していなくてもFAQを精度良く検索することを目指す. しかし,FAQだけを文書分類器のための学習データとして用いる場合は,FAQに出現する単語だけの判別しかできないという問題が残る。 そこで, 文書分類器を学習するために, コー ルセンターにて蓄積されている顧客からの問い合わせとオペレータの対応内容である問い合わせ履歴から自動生成した学習データを用いる。問い合わせ履歴には,問い合わせに対するオぺレータの対応内容は記入されているものの, 明示的にどの FAQが対応するという情報は付与されていない場合がある。そのため,本論文では,Jeon らの (Jeon, Croft, and Lee 2005)「似た意味の質問には似た回答がされる」という仮定に基づき,FAQの回答部分と問い合わせ履歴の対応内容の表層的類似度を計算し, 閾値以上となった対応内容と対になっている問い合わせをそのFAQに対応するものとみなして学習データとする方法を用いる。 さらに,本論文では,文書分類器の判別結果に加え, 問い合わせと検索対象のコサイン類似度といった多くの手法で用いられている特徴を考慮するために, 教師有り学習に基づくランキングモデルの適用を提案する。素性には,問い合わせと FAQの単語ベクトル間のコサイン類似度などに加えて,文書分類器が出力するスコアを用いる。 ある企業のコールセンターの FAQ および問い合わせ履歴を用いて提案手法を評価をした。提案手法は, pseudo-relevance feedback および統計的機械翻訳のアライメント手法を用いて得られる語彙知識によるクエリ拡張手法と比較して, 高いランキング性能を示した. ## 2 関連研究 類似質問を検索する方法として,機械翻訳で用いられる単語単位のアライメントモデルである IBM Model (Brown, Pietra, Pietra, and Mercer 1993) を用いた手法が提案されている (Jeon et al. 2005; Riezler et al. 2007; Soricut and Brill 2004; Xue et al. 2008). IBM Model は単語の対応確率を EM アルゴリズムで推定する手法である.統計的機械翻訳では,アライメントモデルは, 原言語と, 目的言語の文の対からなる対訳コーパスを用いて, 単語間の対応確率を推定するために用いられる。類似質問検索においては,質問とその回答の対を対訳コーパスとみなしたり, あるいは類似する回答を持つこの方法では, FAQ と問い合わせ間の単語の対応確率を学習する。しかしながら, 単語間の対応確率は, 対応する FAQを検索するために有効な語彙知識であるとは言えない. 例えば,入力の「方法」とFAQの「方法」が対訳コーパス中で良く共起して出現し, 学習の結果, 対応確率が高くなったとする。この対応確率を利用して FAQをスコアリングすると,「方法」が出現する誤った FAQが上位になりうる. Cao ら (Cao, Cong, Cui, and Jensen 2010; Cao, Cong, Cui, Jensen, and Zhang 2009) は Yahoo! Answersのカテゴリ情報を考慮して,回答済みの質問を検索する手法を提案した.Yahoo! Answers の質問にはユーザによってカテゴリが付与されているため, この手法はカテゴリが付与された質問を学習データとして, 事前に入力の質問をカテゴリに分類するための分類器を作成する. 実際に検索する際には,まず入力の質問が検索対象の質問に付与されているカテゴリに所属する確率を分類器を使って計算する。入力の質問と検索対象の質問との間の単語の一致や, 単語の対応確率に対して,カテゴリの確率を重みとして与え,検索対象の質問に対するスコアを計算する.文書分類器を用いて検索するという観点で本論文と類似する研究であるが,本論文で扱う問い合わせ履歴の問い合わせには事前にカテゴリが付与されていないこと,本論文では FAQ を直接カテゴリとみなしていることが異なる。 Singh(Singh 2012), Zhou ら (Zhou, Liu, Liu, Zeng, and Zhao 2013) は Wikipedia を外部知識として利用して,コミュニティ質問応答サイトの類似質問検索性能を上げる手法を提案した。 たとえば FAQ 検索においては,業務ルールなどのドメイン固有の知識を含むため,一般的な知識源だけでは十分ではない. ## 3 提案手法 提案手法の学習時の処理を図 1 に示す. 提案手法の学習は大きく 3 つの処理からなる.まず,既存の方法を用いて FAQ と問い合わせ履歴を用いて学習データを自動生成する (3.1節)。続いて, 問い合わせを対応する FAQに分類するための文書分類器を学習する (3.2 節). 最後に, 学 図 1 提案手法のモデルを学習する処理の概要と例 習データと, 分類器の出力を素性に加えて, 問い合わせに対して, 正解の FAQ が不正解の FAQ よりもスコアが高くなるようにランキングモデルを学習する (3.3 節)。文書分類器の出力するスコアは問い合わせと FAQの単語の厳密一致や単語の関連度に依存せずに出力することができる。ランキング学習を適用することで,文書分類器から得られるスコアを,問い合わせと FAQ の単語べクトルのコサイン類似度などの素性とともに用いて FAQ 検索結果のランキングをおこなうことが可能となる. ## 3.1 学習データの自動生成 先行研究 (Jeon et al. 2005) に従い, FAQ と問い合わせのぺアについてお互いの回答部分の類似度をもとに自動で学習データを生成する。 この手法は,似た意味の質問には似た回答がされるという仮説に基づき,回答間の表層的な類似度が閾値以上の回答済み質問文の対を収集した。この仮説はコールセンターではより有効であると考えられる.なぜならば,オペレータは問い合わせに対して対応する際に,対応する FAQ を検索し,その回答部分を引用することが少なくないためである. 学習データの生成には, FAQの質問 $Q$ および回答 $A$, 問い合わせ履歴中の問い合わせ $I$ およびオペレータの対応内容 $R$ を用いる。図 1 の例では $Q, A, I, R$ はそれぞれ $\Gamma \bigcirc$ カードを紛失」,「ヘルプデスクへご連絡ください」,「○○カードを失くしたかも」,「へルプデスクへご連絡くたさい」を形態素解析して得た名詞,動詞,形容詞の集合である. 学習データの自動生成には, 質問 $Q$ と回答 $A$ の対からなる FAQの集合 $F=\left.\{\left(Q_{1}, A_{1}\right), \ldots\right.$, $\left.\left(Q_{|F|}, A_{|F|}\right)\right.\}$ および, 問い合わせ $I$ とオペレータの対応内容 $R$ の対からなる問い合わせ履歴の集合 $H=\left.\{\left(I_{1}, R_{1}\right), \ldots,\left(I_{|H|}, R_{|H|}\right)\right.\}$ を用いる. 具体的には全文検索を使って,オペレータの対応内容,FAQの回答の内容語でお互いに OR 検索し,式 (1)によってスコア $\operatorname{hrank}\left(A_{i}, R_{j}\right)$ を計算する. $ \operatorname{hrank}\left(A_{i}, R_{j}\right)=\frac{1}{2}\left(\frac{1}{\operatorname{rank}_{A_{i}}}+\frac{1}{\operatorname{rank}_{R_{j}}}\right) $ $\operatorname{rank}_{A_{i}}$ は問い合わせ履歴の回答 $R_{j}$ を入力として FAQの回答 $A_{1}, \ldots, A_{|F|}$ を検索した場合の $A_{i}$ の順位, $\operatorname{rank}_{R_{j}}$ は FAQの回答 $A_{i}$ を入力として問い合わせ履歴の回答 $R_{1}, \ldots, R_{|H|}$ を検索した場合の $R_{j}$ の順位である. $\operatorname{hrank}\left(A_{i}, R_{j}\right)$ があらかじめ人手で設定した閥値を超えた FAQ と問い合わせのぺアの集合 $D=\left.\{\left.\langle\left(Q_{i}, A_{i}\right), I_{j}\right.\rangle|1 \leq i \leq| F|, 1 \leq j \leq| H \mid\right.\}$ を生成する. 例えば,問い合わせ履歴の回答 $R_{j}$ で FAQの回答を検索して, FAQの回答 $A_{i}$ の順位が 2 位で FAQの回答 $A_{i}$ で問い合わせ履歴の回答を検索して,問い合わせ履歴の回答 $R_{j}$ が 1 位だった場合, hrank は 0.75 となる. 学習データの自動生成手順を Algorithm 1 に示す. hrankを計算するために, 事前に問い合わせ履歴の回答を入力としたときの FAQの回答の順位の逆数を $\mathbf{M}_{1} \in \mathbb{N}^{|F| \times|H|}, \mathrm{FAQ}$ の回答 を入力としたときの問い合わせ履歴の回答の順位の逆数を $\mathbf{M}_{2} \in \mathbb{N}^{|H| \times|F|}$ に格納する。順位のリスト ranks を得るために, GetRanks の第一引数を入力 $(A$ もしくは $R$ ), 第二引数を順位を付与する対象の文書集合(Fもしくは $H$ ) として実行する。順位を付与するために,全文検索エンジンを使う。もし検索時に該当の文書が得られない場合, その文書の順位は, 入力が問い合わせ履歴の回答であれば $|F|, \mathrm{FAQ}$ の回答であれば $|H|$ とする. ## 3.2 文書分類器の学習 文書分類器の学習には, 3.1 節で生成した学習データ $D$ を用いて, FAQごとに正例と負例を作成して二值分類器を学習する。対象の FAQ と対応する問い合わせの集合を正例, その他の FAQ と対応する問い合わせの集合をすべて負例として学習データとする.対応する問い合わせを持たない FAQも存在するため, 対象の FAQ そのものも正例に追加している. 例えば,「○○カードを紛失・盗難・破損した場合の手続き方法」という FAQ の分類器を学習するときには,正例に「○○カードの再発行をしたい,今から出張だが、カードが見当たらない. どうしたらよいか.」という問い合わせがあった場合,「○○カード」,「再発行」,「見当らない」といった素性の重みを正の方向に大きく更新する。学習には Adaptive Regularization of Weights Learning (Crammer, Kulesza, and Dredze 2009)を用いた. 素性には,内容語(名詞,動詞,形容詞),係り受け関係にある名詞と動詞の対を用いる。名詞句は同一の文節中に連続して出現する接頭詞と名詞とした。また,少なくとも片方が内容語であるような単語 bigram の出現も素性として用いる. ## 3.3 ペアワイズランキング学習 ペアワイズランキング学習では, 3.1 節で生成した学習データ $D$ を用いて, 問い合わせに対して, 正解の FAQが, 不正解の FAQよりもスコアが高くなるように重みべクトルを更新する. ランキングの重みの学習アルゴリズムには SOLAR-IIを用いた (Wang, Wan, Zhang, and Hoi 2015). SOLAR-II はペアワイズランキングのオンライン学習手法であり, Adaptive Regularization of Weights Learning (Crammer et al. 2009)のように, 素性の重み $\mathbf{w} \in \mathbb{R}^{d}$ に対して共分散行列 $\Sigma \in \mathbb{R}^{d \times d}$ を保持する,重みの更新時に,分散の値が小さい素性ほど,学習の信頼度が高いとみなして,重みの更新幅を小さくする。 ランキングの重みべクトルの更新手順を Algorithm 2 に示す。最初に重み $\mathbf{w}$ を , 共分散行列 $\Sigma$ を単位行列 $\mathbf{E}$ として初期化する。問い合わせに対する正解の FAQ およびランダムに選択した不正解の FAQ から抽出した素性べクトル $\mathbf{x}_{p} \in \mathbb{R}^{d}$ および $\mathbf{x}_{n} \in \mathbb{R}^{d}$ を ExtractFeatureVector り,値が大きいほど重みの更新幅を小さくする.本論文では 1.0 とした, $\alpha$ はヒンジ損失であり, 正解の FAQ のスコアが不正解の FAQ のスコアよりも低い値となったときに 0 以上の値を取る。 $\beta$ は事例に含まれる素性の分散が小さい,つまり信頼度が高いほど大きな値を取る。そのため,信頼度が高い素性を多く含む事例に対して順位の予測を誤った場合には重みの更新幅や信頼度の更新幅を減らし,学習が過敏になり過ぎないようにする役割を持つ. 学習を高速化するために,負例の生成にランダムサンプリングを適用した。 ランダムサンプリングによるランキング学習でも, ペアワイズランキング学習で良い性能を出している Ranking SVM(Joachims 2002) と同等の性能であることが示されている (Sculley 2009). 負例の数 $K$ は 300 とした. ExtractFeatureVector では基本的な素性のグループ Base features および自動生成した学習データを用いた素性 tfidf_FAQ+query および faq-scorer を抽出する. ## - Base features - cos-q, cos-a: cos-q は, 問い合わせと FAQの質問に対する内容語(名詞, 動詞,形容詞)のコサイン類似度. cos-a は, 問い合わせと FAQ の回答に対する内容語のコサイン類似度. これらの値は, 問い合わせに出現する単語をより含み, 出現する単語の異なり数が少ない FAQ ほど 1 に近い值を取り, そうでないほど 0 に近い値を取る。 - dep: 係り受け関係にある文節に出現する名詞, 名詞句, 動詞の対の一致回数. - np: FAQの質問と問い合わせに対して, 出現する名詞句が一致する割合. - tfidf_FAQ+query: FAQの質問 $Q$, 回答 $A$ および $D$ 中のその FAQ に対して生成された $L$ 個の学習データ $\left.\{I_{l}^{\prime}\right.\}_{l=1}^{L}$ を用いて計算する tfidf に基づくスコア $\operatorname{score}\left(Q, A,\left.\{I_{l}^{\prime}\right.\}_{l=1}^{L}, I\right)=\max _{Q, A}\left(\operatorname{tfidf}\right.$ _sim $\left.(Q, I), \operatorname{tfidf\_ sim}(A, I)\right)+\max _{I^{\prime}{ }_{l}}$ tfidf_sim $\left(I, I_{l}^{\prime}\right)$.付録 $\mathrm{A}$ の式 (8) を用いて計算した。 入力の問い合わせに対して質問もしくは回答と一致している単語が多いほど高く, さらに学習データの問い合わせ集合の中で一致している単語が多いものが存在する FAQに対して高いスコアとなる. - faq-scorer: 問い合わせに対して, 該当する FAQの二値分類器のマージンを計算し, sigmoid 関数によって $[0,1]$ へ変換した値を素性に用いる.この分類器は過去の問い合わせ履歴を使って, どのような表現が出現する問い合わせならばこの FAQが正解らしいかどうかを学習したものである。 そのため, この素性は問い合わせに対してこの FAQが正解らしいほどスコアが 1 に近く,そうでないほど 0 に近い值を取る。 学習した重みべクトル $\mathrm{w}$ を使って未知の問い合わせ $I$ に対して FAQをランキングするときには,各 FAQ から抽出した素性べクトル $\mathrm{x}$ と $\mathrm{w}$ の内積を計算して,その值をもとに $\mathrm{FAQ}$ ソートする. ## 4 実験 本実験では, 文書分類器の出力を用いたランキングの有効性を確認するために, ある企業の FAQ および問い合わせ履歴を用いて, 既存手法との比較をおこなう. また, 自動生成した学習データを分析し,ランキングの評価値への影響を調べる。 ## 4.1 実験設定 実験にはある企業の FAQ および問い合わせ履歴を用いた。問い合わせ履歴は個人情報を含むため, 人名や個人を特定しうる数字列や地名, 所属などの情報をパターンマッチによって秘匿化している,そのため,本来は個人情報ではない文字列も秘匿化されていることがある。 今回の実験で用いた FAQの数は 4,738 件で, 問い合わせ履歴はおよそ 54 万件である。評価のために, 問い合わせ履歴中の 286 件に対し, 3 人のアノテータで正解の FAQ を付与したデー 夕を作成した. アノテータには, 問い合わせに対してもっとも対応する FAQを 1 つ付与するよう依頼した。評価データ中に付与された FAQの異なり数は 186 件となった. 正解を付与した問い合わせ履歴の 286 件のうち, 86 件は開発用のデータ, 残りは評価デー夕に用いた。開発用データは,学習データ自動生成の閾値を決定するために用いた。本実験では,閾値を 0 から 1 まで 0.1 刻みで変えて, MRRが最も高くなる 0.4 とした. 評価デー夕は, 各手法の精度評価に用いる。回答が短いFAQ は, 誤った問い合わせが多くぺアになりうるため, 文字数が 10 文字以下の FAQに対しては学習データの自動生成候補から除外した. また, 学習デー 夕の生成後, 学習データの中から評価データに含まれる問い合わせを削除した. 形態素解析器, 係り受け解析器にはそれぞれ, $\mathrm{MeCab}^{1}, \mathrm{CaboCha}{ }^{2}$ を用いた. システム辞書には mecab-ipadic-NEologd (Sato 2015)を用いた. ユーザ辞書には秘匿化で用いた夕グを追加し,秘匿化した際に用いたタグが分割されないようにしている. 評価尺度にはランキングの評価で用いられる MRR (Mean Reciprocal Rank), Precision@N $(\mathrm{P} @ \mathrm{~N})$ を用いた. MRR は式 $(2)$ で表され, 正解の順位 $r_{i}$ の逆数に対して平均を取った值であり,正解のFAQを 1 位に出力できるほど 1 に近い值を取り,そうでないほど 0 に近い值を取る. $\mathrm{P} @ \mathrm{~N}$ は式 (3) で表され, 正解が $N$ 位以上になる割合である. 正解が $N$ 位以上に出力している問い合わせが多いほど 1 に近い値を取り, そうでないほど 0 に近い値を取る. $ \operatorname{MRR}=\frac{1}{N} \sum_{i=1}^{N} \frac{1}{r_{i}} $ ^{1}$ MeCab: Yet Another Part-of-Speech and Morphological Analyzer 〈https://taku910.github.io/mecab/〉 (2016 年 5 月 20 日アクセス) 2 CaoboCha: Yet Another Japanese Dependency Structure Analyzer 〈https://taku910.github.io/cabocha/〉 (2016 年 5 月 20 日アクセス) } $ \mathrm{P} @ \mathrm{~N}=\frac{\text { 正解が } \mathrm{N} \text { 位以上の評価データの数 }}{\text { 評価データの数 }} $ ## 4.2 比較手法 tf-idf 法に基づく全文検索 2 種類,pseudo-relevance feedback および翻訳モデルを用いる手法と比較する。 全文検索には Elasticsearch ${ }^{3}$ を用いた。索引語は形態素解析器の kuromoji ${ }^{4}$ にって形態素解析をおこない, 品詞で指定された条件 ${ }^{5}$ と一致しない形態素の原形とした. また, 全角半角は統一し,アルファベットはすべて小文字化した. tfidf_FAQ 検索対象は FAQの質問および回答として tfidfにもとづく類似度を計算する。類似度は付録 $\mathrm{A}$ の式 (7)を用いた。 tfidf_FAQ+query 3.3 節と同じ計算式を用いた. pseudo-relevance feedback pseudo-relevance feedback には offer weight (Robertson and Jones 1994)を用いた. offer weight は式 (4)のようにして, 単語 $w$ に対するスコアを計算する. $ \operatorname{score}(w)=r \log \left(\frac{(r+0.5)(N-n-R+r+0.5)}{(n-r+0.5)(R-r+0.5)}\right) \text {, } $ 翻訳モデル翻訳モデルに基づく検索には, Jeon ら (Jeon et al. 2005)の手法を用いる. この手法では入力の問い合わせ $I$ を受け付け, 式 (5) によって検索対象の FAQを,質問部分 $Q$ を用いてスコアリングする. $ P(Q \mid I)=\prod_{w \in Q} P(w \mid I) $ ただし $P(w \mid I)$ は式 $(6)$ のように計算する. $ P(w \mid I)=(1-\lambda) \sum_{t \in Q}\left(P_{t r}(w \mid t) P_{m l}(t \mid I)\right)+\lambda P_{m l}(w \mid C) $ 式 $(6)$ の $P_{t r}(w \mid t)$ は,3.1 節で生成した $D$ における $\mathrm{FAQ}$ の質問と問い合わせを対訳部分とみなして GIZA $++{ }^{6}$ 使って学習した単語 $w$ と $t$ の対応確率である. $P_{m l}(t \mid I)$ は問い合わせ $I$ における単語 $t$ の相対的な重要度である。本論文では文書頻度の逆数に対して対数を掛けた値を求め, 問い合わせに出現する単語の値の総和で割った値とした. $C$ は ^{3}$ Elastic Revealing Insights from Data (Formerly Elasticsearch)〈https://www.elastic.co/jp/〉(2016 年 5 月 20 日アクセス) 4 elastic/elasticsearch-analysis-kuromoji: Japanese (kuromoji) Analysis Plugin 〈https://github.com/elastic/ elasticsearch-analysis-kuromoji〉(2016 年 5 月 20 日アクセス) 5 〈https://svn.apache.org/repos/asf/lucene/dev/branches/lucene3767/solr/example/solr/conf/lang/stoptags_ ja.txt〉(2016 年 5 月 20 日アクセス) 6 GIZA++〈http://www.statmt.org/moses/giza/GIZA++.html〉(2016 年 5 月 20 日アクセス) } $D$ の問い合わせの集合とした。そのため $P_{m l}(w \mid C)$ は単語 $w$ の一般的な重要度を表す. Jeon らの設定に従い, $P_{t r}(w \mid w)=1$ というヒューリスティクスを加えている.入は 0 から 1 まで 0.1 刻みで変えて実験をおこない,開発データのMRR が最も良くなる值を用いた. ## 4.3 実験結果 ## 4.3.1 自動生成した学習データの分析 Algorithm 1 の自動生成手法により,学習データ $D$ のサイズは 38,420 件となった, 3,185 件の FAQ に対して学習データを生成し,学習データが生成されていないFAQも含めて平均すると 1 件の FAQ につき 8.03 件の問い合わせを生成した。 問い合わせと対応する FAQの対は自動生成するため,学習データ $D$ の問い合わせと FAQが正しく対応しているとは限らない。自動生成した学習データ $D$ の中からランダムに 50 件の事例を抽出し, 問い合わせと FAQの対応が正しいかそうでないかを人手で評価した結果を表 1 に示す. おおよそ半分のデータは正解の FAQ と正しい対応になっており, 残りの半分は不正解の FAQ と対応する. FAQの回答が短い場合には, 類似する回答がされる問い合わせが多くなることがあるのと,回答の内容は同じであるが,FAQの質問と対応する問い合わせの内容が意味的に一致しないような事例がみられた。 提案手法の文書分類器の性能は FAQ に対して学習データとして生成できた問い合わせの数が影響すると想定される。FAQごとに正例として生成できた問い合わせ数を調べた。図 2 は評価データおよび開発データに含まれる FAQ に対して生成された問い合わせ数を表すヒストグラムである。区間の幅を 10 とした,評価デー夕に含まれる FAQのうち, 1 件も正例となる学習データが生成できなかった FAQは 7 件となった. ## 4.3.2 ランキングの評価 比較手法と提案手法の実験結果を表 2 に示す. faq-scorer は, 3.2 節で作成した文書分類器の出力に応じて FAQをランキングした場合の結果である. Base features\&tfidf_FAQ+query および Base features\&tfidf_FAQ+query\&faq-scorer は 3.3 節で挙げた素性を用いて学習したランキングモデルである. faq-scorer は比較手法よりも高い P@1となった。一方で他の評価値は tfidf_FAQ+query を下 表 1 人手による FAQと問い合わせの対応の評価 図 2 正例として生成された問い合わせ数ごとの FAQ の度数分布. $\mathrm{x}$ 軸はひとつの FAQに対して正例として生成された問い合わせの数で, $\mathrm{y}$ 軸は FAQの数を表す. 表 2 評価結果 paired t-testをおこない, 有意水準 0.05 で Base features\&tfidf_FAQ+query\&faq-scorer と有意差がある比較手法の結果に†を付与した。 回った. Base features およびtfidf_FAQ+query に加えて faq-scorerを素性としてランキングモデルを学習することでどの評価値も他の比較手法より高くなったことから, 文書分類器を素性として加えることで,精度改善に貢献することがわかる. ## 4.3.3 結果分析 正例として生成された問い合わせ数が文書分類器に及ぼす影響を調べるため, 評価デー夕に含まれるFAQを正例として生成された問い合わせ数でまとめて faq-scorer およびtfidf_FAQ+query のMRR を算出した結果を図 3 に示す.プロットする学習データの数は 25 までとした。評価データの数が多くないためばらつきがみられるが, 生成される学習データの数が多い FAQ ほど,文書分類器は正しく分類できる傾向にあることを確認できる。一方で学習データが少ない FAQ に対しては tfidf_FAQ+query よりも誤りが多い. 提案手法に対する学習データの影響を調べるため, 学習データの数を変えて実験した. Base features+tfidf_FAQ+query の MRR の学習曲線を図 4 に示す。MRR の学習曲線をプロットするために,学習データとして FAQ と問い合わせの対応を 1,000 件ずつ増やして文書分類器およびランキングモデルを学習している。提案手法は学習データの量に応じて MRRが向上している。表 1 が示すようなある程度ノイズを含むような学習データであっても,量を増やすことでランキングの性能向上に貢献していることがわかる. 文書分類器は問い合わせに出現する単語などを素性として分類するため, 問い合わせのトピックが複数存在するような場合に誤りやすいと考えられる。ただし,トピックを明示的に与える 図 3 評価データ中の FAQ の集合を正例として生成された問い合わせ数でまとめて算出した MRR 図 4 Base features+tfidf_FAQ+query の MRR の学習曲線.横軸は利用した学習データの件数を表し,縦軸は MRRを表す。 表 3 全文検索と Base features+tfidf_FAQ+query の単語数ごとの MRR 表 4 FAQ「○○カードを紛失・盗難・破損した場合の手続き」の学習結果の中で重みが大きい素性 ことが難しい。そこで問い合わせの単語数が長いほど複数のトピックが出現しやすいという仮定のもと, 問い合わせの単語数に応じて MRRの評価値を算出する. 評価データを単語数で 10 刻みで分割し, 単語数が 1 から 100 までの問い合わせ集合に対して, Base features\&faq-scorer と tfidf_FAQについて MRR を評価した. 結果を表 3 に示す。単語数が 1 から 10 個の問い合わせは, 単語数が 10 個以上の問い合わせに比べて MRRが高くなる傾向にあるが分かる. このことから,単語数が多い問い合わせに対しては質問のトピックを認識するような技術が必要であるが, これは今後の課題とする. 最後に, 学習結果の内容の詳細を確認するため,「○○カードを紛失・盗難・破損した場合の手続き」という FAQについて, 文書分類器の学習結果の内容を調べた. 大きい重みのついた素性から順に眺め,人手で選択した素性を表 4 に示す。自動生成した学習データを用いることで,「磁気不良」「おとした」等のこのFAQの質問や回答には出現しない表現であるが, 判別に寄与する語彙を学習していることがわかる. ## 5 おわりに 本論文では, FAQおよび問い合わせ履歴が持つ特徴を利用して自動生成した学習デー夕を用いて, 問い合わせを対応する FAQへ分類する文書分類器を学習し, その文書分類器の出力をランキング学習の素性として用いる手法を提案した。ある企業の FAQを用いた評価実験から, 提案手法が $\mathrm{FAQ}$ 検索の性能向上に貢献することを確認した. 今後は, 学習データの自動生成方法をより改善すること, さらに, より検索対象が多い場合でも同様の結果が得られるか検証したい. ## 参考文献 Brown, P. F., Pietra, V. J. D., Pietra, S. A. D., and Mercer, R. L. (1993). "The Mathematics of Statistical Machine Translation: Parameter Estimation." Computational Linguistics, 19 (2), pp. 263-311. Cao, X., Cong, G., Cui, B., and Jensen, C. S. (2010). "A Generalized Framework of Exploring Category Information for Question Retrieval in Community Question Answer Archives." In Proceedings of the 19th International Conference on World Wide Web, WWW '10, pp. 201-210. ACM. Cao, X., Cong, G., Cui, B., Jensen, C. S., and Zhang, C. (2009). "The Use of Categorization Information in Language Models for Question Retrieval." In Proceedings of the 18th ACM Conference on Information and Knowledge Management, CIKM '09, pp. 265-274. ACM. Crammer, K., Kulesza, A., and Dredze, M. (2009). "Adaptive Regularization of Weight Vectors." In Bengio, Y., Schuurmans, D., Lafferty, J. D., Williams, C. K. I., and Culotta, A. (Eds.), Advances in Neural Information Processing Systems 22, pp. 414-422. Curran Associates, Inc. Jeon, J., Croft, W. B., and Lee, J. H. (2005). "Finding Similar Questions in Large Question and Answer Archives." In Proceedings of the 14th ACM International Conference on Information and Knowledge Management, CIKM '05, pp. 84-90. ACM. Joachims, T. (2002). "Optimizing Search Engines Using Clickthrough Data." In Proceedings of the 8th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD '02, pp. 133-142. ACM. Riezler, S., Vasserman, A., Tsochantaridis, I., Mittal, V., and Liu, Y. (2007). "Statistical Machine Translation for Query Expansion in Answer Retrieval." In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 464-471. Association for Computational Linguistics. Robertson, S. E. and Jones, K. S. (1994). "Simple, Proven Approaches to Text Retrieval." Tech. rep. Technical Report No. 356. Sato, T. (2015). "Neologism Dictionary based on the Language Resources on the Web for MeCab." https://github.com/neologd/mecab-ipadic-neologd. Sculley, D. (2009). "Large Scale Learning to Rank." In NIPS Workshop on Advances in Ranking. Singh, A. (2012). "Entity based Q\&A Retrieval." In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 1266-1277. Association for Computational Linguistics. Soricut, R. and Brill, E. (2004). "Automatic Question Answering Using the Web: Beyond the Factoid." In Susan Dumais, D. M. and Roukos, S. (Eds.), HLT-NAACL 2004: Main Proceedings, pp. 57-64. Association for Computational Linguistics. Wang, J., Wan, J., Zhang, Y., and Hoi, S. (2015). "SOLAR: Scalable Online Learning Algorithms for Ranking." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1692-1701. Association for Computational Linguistics. Xue, X., Jeon, J., and Croft, W. B. (2008). "Retrieval Models for Question and Answer Archives." In Proceedings of the 31st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '08, pp. 475-482. ACM. Zhou, G., Liu, Y., Liu, F., Zeng, D., and Zhao, J. (2013). "Improving Question Retrieval in Community Question Answering Using World Knowledge." In Proceedings of the 23rd International Joint Conference on Artificial Intelligence, IJCAI '13, pp. 2239-2245. AAAI Press. ## 付録 ## A Elasticsearch で利用した tfidf スコアの計算式 本論文で Elasticsearch を利用した FAQのスコア計算は 2 種類ある。1つは FAQの質問と回答を利用する場合で,もう 1 つは FAQの質問と回答および $D$ 中のその FAQに対して生成された学習データを利用する場合である. FAQ が質問 $Q$, 回答 $A$ とフィールドを分けて索引付けしている場合, 問い合わせ $I$ を力としたときの FAQのスコアは次のように計算する. $ \operatorname{score}(Q, A, I)=\max _{Q, A}(\text { tfidf_sim }(Q, I), \text { tfidf_sim }(A, I)), $ この計算では入力の問い合わせに対して, 質問もしくは回答と一致している単語が多いほど高いスコアとなる. FAQ が質問 $Q$, 回答 $A$ に加えて, $D$ 中でその FAQに対して生成された学習データ $\left.\{I_{l}^{\prime}\right.\}_{l=1}^{L}$ と 3 つのフィールドで索引付けしている場合, 問い合わせ $I$ に対する FAQのスコアを次のように計算する. $ \operatorname{score}\left(Q, A,\left.\{I_{l}^{\prime}\right.\}_{l=1}^{L}, I\right)=\max _{Q, A}\left(\operatorname{tfidf} \_\operatorname{sim}(Q, I), \text { tfidf_sim }(A, I)\right)+\max _{I^{\prime} l} \text { tfidf_sim }\left(I, I_{l}^{\prime}\right) $ この計算では入力の問い合わせに対して,質問もしくは回答と一致している単語が多いほど高く, さらに学習データの問い合わせ集合の中で一致している単語が多いものが存在する FAQに対して高いスコアとなる. 質問, 回答, 学習データなどの検索対象を $T, T$ の索引語の数を $|T|, T$ の索引語と一致する問い合わせ中の名詞, 動詞, 形容詞からなる単語集合を $\left.\{i_{s}\right.\}_{s=1}^{S}$ とすると, 以下のように tfidf に基づく類似度を次のように設定した。 $ \operatorname{tfidf\_ sim}(T, I)=\text { coord } \sum_{s=1}^{S}\left(\operatorname{tf}\left(i_{s}\right) \cdot \operatorname{idf}\left(i_{s}\right)^{2} \cdot \text { fieldNorm }\right), $ ただし, $ \begin{aligned} \text { coord } & =\frac{S}{|I|}, \\ \text { fieldNorm } & =\frac{1}{|T|}, \end{aligned} $ とする。 coord は $T$ がより多くの単語を含んでいる検索クエリを含んでいるほど高い値を取る. fieldNorm は $T$ の索引語の数 $|T|$ が大きいほど小さい値を取る. ## 略歴 牧野拓哉:2012 年東京工業大学総合理工学研究科物理情報システム専攻修士課程修了. 同年, (株) 富士通研究所入社. 自然言語処理の研究開発に従事.言語処理学会会員. 野呂智哉:2002 年東京工業大学大学院情報理工学研究科計算工学専攻修士課程修了。2005 年同専攻博士課程修了. 同専攻助手, 助教を経て, 2015 年 (株)富士通研究所入社.現在に至る.博士 (工学).自然言語処理の研究開発に従事. 言語処理学会会員. 岩倉友哉:2003 年 (株) 富士通研究所入社. 2011 年東京工業大学大学院総合 理工学研究科物理情報システム専攻博士課程修了. 博士 (工学). 現在, (株)富士通研究所主任研究員. 自然言語処理の研究開発に従事. 情報処理学会,言語処理学会会員. $(2016$ 年 5 月 20 日 $\quad$ 受付 $)$ $(2016$ 年 8 月 5 日 $\quad$ 再受付 $)$ $(2016$ 年 9 月 30 日 $\quad$ 採録 $)$
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 社会学における職業・産業コーディング自動化システムの活用 高橋 和子†・多喜 弘文 ${ }^{\dagger \dagger}$ ・田辺 俊介计・李偉 ${ }^{+\dagger \dagger}$ 社会学では, 職業や産業は性別や年齢などと同様に重要な変数であるとの認識から,正確を期するために,自由回答で収集したデー夕を研究者自身によりコードに変換 することが多い. これは職業・産業コーディングとよばれるが,大規模調査の場合,膨大な労力と時間がかかる上に, 結果における一貫性の問題も存在する。そこで, ルールベース手法と機械学習 (SVM) を適用したコーディング自動化システムを開発した,本システムは,国内・国際標準の職業・産業コードを第 3 位まで予測し, 第 1 位の予測コードには, 自動コーディング後に人手によるチェックが必要か否かの 目安となる 3 段階の確信度も付与する. 現在, 本システムは, 東京大学社会科学研究所附属社会調査・データアーカイブ研究センター (CSRDA) から Webによる利用 サービスが試行提供されており,研究目的であれば,たれもが指定された形式の入 カファイルをアップロードして, 希望するコードに変換された結果ファイルをダウ ンロードすることができるようになっている. キーワード:社会調査, 職業・産業コーディング, 自動コーディングシステム, 3 段階の確信度, Webを通じた一般公開 ## An Automatic Occupation and Industry Coding System in Sociology Kazuko Takahashi ${ }^{\dagger}$, Hirofumi Taki ${ }^{\dagger \dagger}$, Shunsuke Tanabe ${ }^{\dagger \dagger \dagger}$ and Li WeI ${ }^{\dagger \dagger \dagger \dagger}$ In sociology, occupation and industry variables are as important as sexual and age variables. For the purpose of statistical processing, answers collected from open-ended questions in social surveys need to be converted into code, which requires considerable time and effort and often results in inconsistencies in large scale surveys. This work deals with occupation and industry coding. In this work, we develop an automatic system using hand-crafted rules and Support Vector Machines. Our system can assign three candidate codes to an answer and estimates the confidence level of the primary predicted code for each national/international standard code sets. The system has now been released through the website of the Center for Social Research and Data Archives. The user can get the required coding result by uploading the data file in a specific format. Key Words: Social Surveys, Occupation and Industry Coding, Automaic Coding System, Three Grade Confidence Level, Open to the Public through the Website  ## 1 はじめに 社会学においては,職業や産業デー夕は性別や年齢などと同様に重要な属性であり,正確を期する必要がある。このため,国勢調査でも行われているように,自由回答で収集したものを研究者自身が職業・産業分類コードに変換する場合が多い (原 1984).この作業は「職業・産業コーディング」とよばれるが,国内の社会学において標準的に用いられる職業コード(SSM 職業小分類コード)は約 200 個,産業コード(SSM 産業大分類コード)は約 20 個あり (1995 年 SSM 調査研究会 1995), 分類すべきクラスの数が非常に多く, コード化のルールも複雑なことから, 特に大規模調査の場合は多大な労力や時間を要するという染刻な問題を抱えている (盛山 2004). また, 多人数で長期間にわたる作業となるため, コーディング結果における一貫性の問題も指摘されている (䡛, 杉野 2013). そこで, これらの問題を軽減する目的で, 職業・産業コーディングを自動化するシステムの開発を行ってきた. 最初に開発したシステムは,SSM 職業・産業分類コードを決定するルールを生成し,これに基づいて自動コーディングを行った結果を CSV 形式のファイルにするもので (高橋 2000),主として大規模調査に利用された (高橋 2002b, 2003; 高橋,須山,村山,高村,奥村 2005a),その後,自動コーディングの精度向上のため,自動化のアルゴリズムを,文書分類において分類性能の高さで評価されている機械学習のサポートベクターマシン (SVM) (Joachims 1998; Sebastiani 2002)とルールベース手法を組み合わせた手法に改良した (Takahashi, Takamura, and Okumura 2005; 高橋, 高村, 奥村 2005b). また, 社会学を取り巻く環境の変化に対応するために,ILOにより定められた国際標準コードに変換するシステムも開発した (高橋 2008, 2011). さらに,いずれのシステムにも,自動コーディングの結果に対してシステムの確信度を付与する機能を追加した (高橋, 田辺, 吉田, 魏, 李 2013a). この結果, 自動化システムは職業・産業コーディングにおける前述の 2 つの問題解決に大きく貢献するものとして, 社会調査分野において評価を得た (原 2013). 自動化システムはまた,職業・産業コーディングの実施方法も変えた,以前は,コーダは調査票を見ながらコーディングを行い,その結果を調査票に書き入れていた。しかし,システムの開発以降,依頼者が作成したデータファイルを開発者が事前に処理し,コーダはその結果付きのファイルを画面に表示してコーディングを行い,結果を入力するようになった. この方法は,自動化システムを利用する場合の標準的な方法となった. 現在, 自動化システムは整理統合され, 東京大学社会科学研究所附属社会調査・データアー カイブ研究センター (CSRDA) から, Webを通じた利用サービスとして試行提供されている1 (Takahashi, Taki, Tanabe, and Li 2014). 利用希望者は, 自動コーディングを希望するコードの ^{1}$ http://csrda.iss.u-tokyo.ac.jp/joint/autocode/ } 種類を明記した書類を CSRDA に申請し,受理されれば,所定の形式の入力ファイルを指定された場所にアップロードすることができ,その場所から,CSRDAのシステム運用担当者が処理した結果をダウンロードできる仕組みとなっている。これにより,一般の研究者や研究グルー プが開発者を通すことなく,自由にシステムを利用することができるようになった. 海外においても職業・産業コーディングは実施されており,負担の大きい作業であるとの認識から,コンピュータによる支援方法が検討されている。しかし,単なる単語のマッチング以外のものは,韓国と米国における 2 例のみである。いずれもルールベース手法が中心で,機械学習は適用されていない。また,以上に述べた自動化システムと大きく異なるのは,職業や産業コードそのものを重要な変数として分析に用いる社会学の研究を支援するものではない点である。 本稿では,現在公開中の自動化システム(以下,本システムと略す)について報告する。本システムにおける新規性は次の 3 つである. - 分類精度向上のために, ルールベース手法と機械学習の組み合わせ手法の適用 ・コーダの作業負担軽減のため, 第 1 位に予測された候補に対する確信度を付与 ・国内標準コードだけでなく,近年利用が高まっている国際標準コードにも対応 本システムは,CSRDAに置かれたのを機に,だれもが容易に操作することができるように, ユーザーインターフェイスを改良した。これは,システムの運用担当者が社会学研究者であることと,短期間で交代する状況を考慮したためである。 以下では,最初に自動化システムのこれまでの変遷について補足説明を行った後,本システムについて述べる,そこでは,実際に本システムを利用する社会学研究者による評価も報告する。また,CSRDAにおける本システムの利用方法についても述べる. ## 2 自動化システムの変遷 1節で述べたように, 自動化システムは開発当初とはアルゴリズムを変え, 国際標準コードへの変換も行うようになった。国際標準の職業コードは, ISCO (International Standard Classification of Occupations) ${ }^{2}$, 産業コードは ISIC (International Standard Industrial Classification of All Economic Activities $)^{3}$ で,いずれもSSM コードとはコード体系が異なり,4桁の階層構造で, SSM コードより分類クラスの個数が多い.新規にシステムを開発した理由は,SSMコードはもともと 1968 年版の国際標準コードを源とするが,1988 年の国際標準コードの大幅な改訂により両者の対応関係が複雑化し,変換表の作成が困難であると判断したためである (田辺 2006). ^{3} \mathrm{http} / /$ laborsta.ilo.org/applv8/data/isic3e.html } これにより,個々に独立したシステムではあるが,国内標準コードと国際標準コードに対する自動コーディングが可能となった. 自動化システムを利用すれば,コーダは提示されたコードを参考にコーディングを行うことができる。このため,特に初心者のコーダに対する有効性が評価され,国内の代表的な社会調査において利用が広がった。例えば,我が国初の二次分析のための大規模調査 JGSS(Japanese General Social Surveys ; 日本版総合的社会調査) 4 においては, 初回の 2000 年以降, 毎回利用されてきた (高橋 $2002 \mathrm{~b}, 2003$; 高橋他 2005a; 高橋 2011).また, 10 年ごとに実施される SSM (Social Stratification and socila Mobility) 調査(社会階層と社会移動全国調查)においても,2005 自動化システムの利用によりコーダの作業は楽になったが, 熟練コーダがすべてのコーディング結果に対して再チェックを行って最終コード(正解)を決定する状況は変わらなかった. そこで, 熟練コーダの作業量についても軽減できるように, 自動コーディングの結果に対して,人手によるコーディングが必要かどうかを示す目安として, 3 段階 (A: 不要, B: できれば行う方がよい,C: 必要)の確信度を付与する機能の追加を行った (高橋他 2013a). この確信度は,一般のコーダが自動コーディングの結果を参考にする場合の判断基準としても有用であると考えられる。 自動化システムは開発以来, 大規模調查での利用が多かった. しかし, 近年は, 一般の研究者や研究グループからも利用の要請が増えてきたため, Webを通じてだれもが自由に利用できる仕組みの検討を始めた (高橋, 田辺, 吉田, 魏, 李 $2013 \mathrm{~b}$ ). その際, 利用者の多くが文系の研究者であることや, システムの稼働環境がやや複雑であることから, 利用者自身がシステムをダウンロードして用いるのではなく,入力データのファイルをアップロードしたものをシステ么運用担当者が処理する方法を想定した。また,システムの運用業務についても,開発者以外のだれもが担当できるように改良する必要があると判断した。これらの課題を解決し, CSRDA から公開されているものが本システムである. ## 3 職業・産業コーディング自動化システム ## 3.1 職業・産業コーディング 最初に,職業・産業コーディングが対象とする質問と回答について具体的に説明する. ^{4}$ http://jgss.daishodai.ac.jp/surveys/sur_top.html 5 http://www.l.u-tokyo.ac.jp/2015SSM-PJ/index.html 6 SSM 調査は大規模である上に,社会学の中でも職業や産業データがとりわけ重要な役割を果たす階層移動研究の調査で, 本人の初職から現職にいたるまでの職業や産業の履歴に加え, 配偶者, 父親, 母親についても収集されるため, 作業量の問題は重大である。例えば 2015SSM 調査の場合, コーディングを行う事例は約 60,000 にのぼっている. } 表 1 質問文の例と回答の形式(JGSS の場合) & & 自由回答 \\ 職業・産業コーディングは, 自由回答である「仕事の内容」(職業の場合) または「従業先の事業内容」(産業) を中心に, 選択回答である「従業上の地位・役職」, 「従業先の事業規模」から構成される質問群により収集される回答に対して実施される (1995 年 SSM 調査研究会 1996).質問文は調査により多少異なるが,JGSS における質問文と回答の形式を表 1 に示す (大阪商業大学比較地域研究所・東京大学社会科学研究所 2005) ${ }^{7}$. 表 1 における選択回答の選択肢は注に示す通りである8. 職業・産業コーディングの例として,「仕事の内容」が「配車等を手配」,「従業先の事業内容」 が「荷物をつみおろす業務等」,「従業上の地位・役職」が「2」,「従業先の事業規模」が「8」であるようなデータの場合, SSM 職業コードは「563」(運輸事務員) が付与され (高橋他 2005b), SSM 産業コードは「80」(運輸業) が付与される。なお, 社会学においては職業と産業の両方をコーディングする場合が多いが,産業のデータ(「従業先の事業内容」「従業先の事業規模」) が収集されず,職業コーディングのみ実施される場合もある。このような場合,本システムは, それぞれを「無回答」「13」とした入力ファイルにより処理を行う。  ## 3.2 変換を行うコードの種類 職業・産業コーディングにおいて本システムが変換するコードは, 表 2 に示す 4 種類で, いずれも現在の社会学で必要性が高いものである ${ }^{9}$. 特に, SSM 職業コードは, 初回の 1955 年 SSM 調査以来,社会学における標準的なコードとして用いられている.表 2 に示す小分類コードの上位には 16 の大分類がある (表 3 参照). 社会学の研究では, この大分類または 4.2 節で述べる別の種類の大分類レベルに小分類コードを統合して分析する場合が多い. SSM コードは 1995 年に改定されて以来,コード体系は変えていないが,職業や産業を取り巻く環境の変化を反映するために,新規のコードが追加されている.例えば,SSM 職業コードは,1995 年調査で用いられた 189 個(表 3 参照)が基本であるが,2005 年 SSM 調查では既存のコードから 700 番台のコードを分化させ $10 , 2015 \mathrm{SSM}$ 調査では 800 番台のコードを分化させた ${ }^{11}$. 国内の社会学では SSM 調査や JGSS で用いられるコードに倣うことが多いため, 本システムでも 2005SSM 調査に合わせ,表 3 に示したコードに 700 番台のコードを追加した 193 個の 表 2 変換するコードの種類と個数 } & SSM 職業コード (小分類) & 約 200 & 1995 年版 (1995 年 SSM 調査研究会 1995) を基本 \\ \cline { 1 - 3 } & ISCO (小産業コード (大分類) & 約 20 & とする \\ \cline { 2 - 4 } コー類) & 約 400 & ISCO-88 (階層構造 4 桁をすべて利用) \\ 表 3 SSM 職業コードにおける大分類と小分類の対応  コードに分類する。コードの分化は SSM 産業コードにおいても行われている ${ }^{12}$. ## 3.3 入カファイルと結果ファイルの形式 入力データは, $\mathrm{A}$ 列から $\mathrm{F}$ 列までの各列がこの順に,「ID」「学歴」「従業上の地位・役職」「従業先の事業内容」「仕事の内容」「従業先の事業規模」である CSV 形式のファイルである(表 4 参照)。学歴は選択肢で収集される ${ }^{13}$. 利用者は,この形式のファイルを用意すれば,表 2 に示す 4 種類のコードのうち希望するコー ドを最大 4 種類まで自由に選択できる。入力ファイルの作成方法については, CSRDAの Web サイト ${ }^{14}$ に詳細な説明が掲載されている。 本システムでは,過去の調査等ですでにSSM コードが付与された事例に対し,このコードを利用して新たに ISCO や ISIC を付与することも可能である。このため,表 4 に示した入力ファイルの右列に「付与ずみのSSM コード」を追加したものも受け付ける,例えば,ISCO を希望する場合は G 列に SSM 職業コード, ISIC を希望する場合は H 列に SSM 産業コードを入力すれば, 3.7 節で述べるように,システムはこのSSM コードを利用して処理を行う。 本システムでは, 結果ファイルとして, 第 3 位までに予測したコードを提示した CSV 形式のファイルをコードの種類ごとに出力する(表 5 参照),表 5 において, rank1, rank2, rank3 はそれぞれ「第 1 位に予測されたコード」「第 2 位に予測されたコード」「第 3 位に予測されたコー ド」を意味する。また,確信度は,システムが第 1 位に予測したコードに対する信頼度で,本システムでは,「A: 人手によるコーディングは不要, B: できれば人手によるコーディングを行う方がよい, C: 人手によるコーディングが必要」の 3 段階を出力する.確信度については 3.8 節で説明する。 表 4 入力ファイルの例  表 5 結果ファイルの例(SSM 職業コードの場合) 図 1 操作画面(開始時) 図 2 操作画面 (入力ファイルとコードを指定) ## 3.4 操作用の画面 図 1 は,本システムを稼働させたときに最初に表示される操作用画面である。実行を開始するには,この画面上で入力ファイルを指定し,変換を希望するコードのチェックボックスをクリックした後,Run ボタンを押せばよい,図 2 は,SSM 職業コードとISCO を選択した場合の例である. 本システムは,図 2 に示すように,実行開始までは人間が操作するが,これ以降は結果ファイルを出力するまですべて人手を介さずにコンピュータが自動的に処理をする.結果ファイルは, SSM 職業コード, ISCO, SSM 産業コード, ISIC の順に作成する。例えば, 図 2 の場合は, SSM 職業コードの結果ファイルを作成後, ISCO の結果ファイルを作成して処理を完了する.途中の処理状況は画面に表示される。その一部を図 3 , 図 4 に示す. ## 3.5 システム構成図と自動化の手法 本システムの構成を図 5 に示す。図 5 より明らかなように,本システムでは,すべてのコー ドに対して,直接または間接的にルールベース手法とSVM を組み合わせた手法を適用する. 直接的にルールベース手法と SVM を組み合わせる手法は SSM コードに適用するもので, ルー ルベース手法により決定されたコードを直接,SVM の素性として利用する.ISCOとISICにはルールベース手法がないためにこの手法は適用せず, SVM の素性として, ルールベース手法と SVM を組み合わせた手法により予測されたSSM コードを利用する。このため, ISCO や ISIC 図 3 処理状況の表示(ISCO 処理中) 図 4 処理状況の表示(処理完了) 図 5 システム構成図 も間接的にルールベース手法と SVM を組み合わせた手法を適用している。たたし,例外として図 5 には示していないが,過去の調査等ですでにSSM コードが付与された事例に ISCO や ISIC を付与する場合はこのコードを利用するため,ルールベース手法の適用は行わない. 自動化の手法について, 次節でルールベース手法 (高橋 2000)について述べた後, 3.7 節でこれをSVM に組み合わせる方法 (高橋他 2005b) について述べる。 ## 3.6 ルールベース手法 ## 3.6.1 格フレームの概念による職業・産業データの理解 職業・産業コーディングにおいて最も重要な情報は, 自由回答の記述内容である。職業コー ドや産業コードの定義 (1995 年 SSM 調査研究会 1995) から, 職業デー夕は個人, 産業デー夕は 従業先の事業という違いはあるが,いずれも基本的には動作の違いにより大きく分かれ,さらに,その動作が何を対象とするのか,どこで行われるのかにより細かく分類されると解釈できる。したがって,本システムでは自由回答に記述された内容すべてを解析せず,分類に必要なものとして,「格フレーム」の概念に基づく情報のみを抽出する。 最初に, 入力ファイル中の自由回答に対して形態素解析 (黑橋, 長尾 1998) を行う. その結果から,職業・産業コーディングにおいて不要であると判断できる語を削除する。具体的には,品詞が「形容詞」、「副詞」,「接頭辞」,「接尾辞」である語および原形が「等」,「他」,「関係」,「仕事」,「作業」などの語(118 種類)である。 次に,動作を表す語(本稿ではこれを「述語」とよぶ)を抽出するが,本システムでは構文解析を行わずに,単純に回答の末尾にある語を述語とする。このため,本システムでは,動詞だけでなく, サ変名詞や普通名詞も述語として扱われる ${ }^{15}$. 以下では,職業を例に述べる。述語には,述語だけでSSM 職業コードが決定できるものと,述語が必要とする格とその格が取る語(本稿ではこれを「名詞」とよぶ)が必要なものがある. 前者の例は, 「薬剂師」や「栄養士」のような職業名が多く, 述語のみでSSM 職業コード「510」 (薬剤師)や「513」(栄養士)が付与される。後者の例は,「製造」や「教える」で,それぞれ 「何を」や「どこで」の内容により SSM 職業コードが異なるため,格と名詞が必要となる。この場合,述語の前に助詞(「を」や「で」)があれば,これを手がかりにして名詞を抽出し,く述語,格,名詞>の三つ組を生成する,例えば,述語が「製造」の場合,述語の前に助詞「を」 があればこれを抽出した後,「を」の直前にある名詞も抽出する,同様に,「教える」の場合は,述語の前に助詞「で」があればこれを抽出し,「で」の直前にある名詞も抽出する.本システムでは,前者の場合も,格と名詞を抽出する必要のない三つ組として扱う. 本システムは,回答から複数の述語が抽出されたり,回答の途中に「。」があると,複数の文 (単語のみの場合もある)が存在すると判断し,各文に対してそれぞれ三つ組を生成する。例えば,「仕事の内容」が「野菜の生産と販売」や「野菜を生産する。販売もする」である場合,いずれも,最初の文からは<生産, ヨ,野菜>,2つめの文からは<販売>なる三つ組を生成する。また,1文であっても,「米や野菜を作っている」のように,複数の名詞が並列で表現されている場合には,〈作る, ヨ,野菜 $>$, <作る, ヨ,米>のように複数の三つ組を生成する. 最後に,このようにして生成された三つ組に対し,あらかじめ三つ組と職業コードのぺアにより構築しておいたルールセットを探し,マッチするものがあれば該当するSSM 職業コードを付与し,なければ不明を意味する「999」を付与する。三つ組が複数ある場合には,その各々に対してこの処理を行う。このルールを本稿ではルール $\alpha$ とよぶ.  ルール $\alpha$ は次の形式で表現されるが,左辺において,格と名詞が省略される場合もある。また,実際には,ルール $\alpha$ では,述語ではなく,3.6.2 節で述べる述語コードを用いるが,説明の都合上,ここでは述語を用いて表現した. $ \text { ルール } \alpha \text { : <述語, 格, 名詞 }>\Rightarrow<\mathrm{SSM} \text { 職業コード }> $ 例えば,「仕事の内容」が「アルバイトでケーキを作っている」の場合,〈作る, ヲ,ケーキ $>$ を抽出し,ルール $\alpha<$ 製造, ヨ,菓子 $>\Rightarrow<644>$ により,SSM 職業コード「644」(パン.菓子・めん類・豆腐製造工)を付与する。このとき,「作る」を「製造」「ケーキ」を「菓子」とみなすことができるのは,次節で述べる「述語シソーラス」や「名詞シソーラス」を利用するためである. 同様に,「仕事の内容」が「大学で哲学を教えている」であれば,<教える,デ,大学 $>$ を抽出し,ルール $\alpha<$ 教える,デ,大学 $>\Rightarrow<524>$ により,SSM 職業コード「524」 (大学教員)を付与する. ルール $\alpha$ は, 文献 (1995 年 SSM 調査研究会 1995) に記載された定義や例に基づいて人手で生成した. その後, 自動化システムが処理した事例から得られた情報を追加した。その際, ルー ル $\alpha$ の右辺に 2 つ以上のコードを記述したものも生成した. 例えば,「仕事の内容」に「営業」 としか記述されていない場合, 内勤の営業事務 (「557」) であるのか外回りの営業 (「573」) であるのかは判断できないが,どちらかである可能性が非常に高い,そこで,少しでもコーダの参考となるように,実際には存在しないが,「5570573」(営業・販売事務員または外交員(保険・不動産を除く))なるコードを生成した ${ }^{16}$. 「従業先の事業内容」から SSM 産業コードを決定するためのルール(産業ルール)もルール $\alpha$ と同様の形式であり, ルール $\alpha$ と同様の手続きにより生成した. 現在, ルール $\alpha$ は 4,224 個.産業ルールは 948 個存在する. ## 3.6.2 シソーラスによる語の拡張 社会の変化に伴い,「仕事の内容」や「従業先の事業内容」には多様な語が記述される. そこで, 本システムでは, ルール $\alpha$ は, 出現するすべての語ではなく代表的な語により生成し, ルー ル $\alpha$ で用いた述語や名詞に対してそれぞれシソーラスを構築することで対応することとした.述語シソーラスは, 語や品詞が異なっていても, 職業や産業コードに分類する観点からは同一視できる語同士に同一の述語コードを付けてグループ化したものである. 例えば,「製造」(サ変名詞),「製作」(サ変名詞),「作る」(動詞)にはすべて同一の述語コード「3861」を付ける. 3.6.1 節の例において, 「作る」を「製造」と同一視できたのはこのためである. 現在, 述語シ  ソーラスの述語コードは 2,880 個, 異なり語は 10,871 個であり, 1 つの述語コードは平均 4 個の異なり語をもつ。 名詞シソーラスは,ルール $\alpha$ で用いた名詞を見出し語とし,職業や産業コードに分類する観点からはこの見出し語と同一視できる語とともにグループ化したものである.見出し語は,「自動車 $1 」$ や電気機械器具」のように,複数の形態素に切り出される語であってもよいが,見出し語以外の語は, 回答とのマッチングを行うために, 形態素が 1 個である必要がある. 1 つのグループに $\mathrm{k}$ 個の語が含まれる場合, 名詞シソーラスは次の形式で表現される $(1<i<k)$. (見出し語語 1 ・. 語 $\mathrm{i} \cdot$. 語 $\mathrm{k}$ ) 3.6.1 節の例で,「ケーキ」を「菓子」とみなすことができたのは,「ケーキ」が見出し語「菓子」のグループに含まれるためである. 名詞シソーラスでは,同じ語が別のグループに出現する場合もある。例えば,「菓子」は先の例では見出し語であったが,見出し語「小売店」のグループにおいては,見出し語以外の語としても出現する. 現在, 名詞シソーラスのグループは 331 個, 見出し語以外の語は延べで 3,994 個であり,1つのグループに平均 12 個の語が含まれる. 2 つのシソーラスによりルール $\alpha$ で用いられた語が拡張され,ルール $\alpha$ の適用範囲が広がる.例えば,「コンピュータの製造」と「テレビを作る」は,いずれも述語コードが「386 1」で,名詞である「コンピュータ」と「テレビ」のいずれも名詞シソーラスにおける見出し語「電気機械器具」のグループに含まれるため, どちらにも $<3861$ , ヲ,電気機械器具 $>\Rightarrow<634>$ なるルール $\alpha$ がマッチし, 同一の SSM 職業コード「634」(電気機械器具組立工) が付与される. 以上に述べたルール $\alpha$ におけるシソーラスによる語の拡張は, 産業ルールにおいても同様に適用される。 ## 3.6.3職業コードの修正 職業コーディングにおいては「仕事の内容」の記述内容が重要であるが,選択回答である「従業先の事業規模」や「地位・役職」, さらには「従業先の事業内容」の情報も用いて総合的に判断される。したがって,ルール $\alpha$ によって付与されたコードの中で, これらの情報により影響を受けるものに対しては,ルール $\alpha$ の適用後にチェックを行って最終的なコードを決める必要がある. このチェックのためのルールを, 本稿ではルール $\beta$ とよぶ. ルール $\beta$ 必要とするコー ドは,管理職, 自営業, 建設関係に多い. 以下では,SSM 職業コードを区別するために,ルール $\alpha$ によって付与されたものを「SSM 職 れたものを「SSM 職業コード(ルールベース)」とよび,「SSM 職業コード」とよぶのは本シス テムにより最終的に決定されたものとする.SSM 産業コードにおいても同様に,産業ルールにより決定されたものを「SSM 産業コード(産業ルール)」とよぶが,SSM 産業コードではルー ル $\beta$ に該当するものがないため,これがそのまま「SSM 産業コード(ルールベース)」となる. ルール $\beta$ は次の形式で表現される. 左辺の条件のすべてが必要ではない場合もある. ルール $\beta$ : < SSM 職業コード (ルール $\alpha$ ), 従業上の地位・役職, 従業先の事業規模,従業先の事業内容, SSM 産業コード(産業ルール)> $\Rightarrow<\mathrm{SSM}$ 職業コード(ルールベース)> ルール $\beta$ の適用例として, 管理職(「545」〜「553」)の場合を示す. 管理職は, 「従業上の地位・役職が常時雇用の課長以上」かつ「従業先の事業規模が 30 人以上」を条件とするため (1995 年 SSM 調査研究会 1996), SSM 職業コード(ルール $\alpha$ )により管理職が付与されたコードに対してはルール $\beta$ によるチェックを行う,条件を満たさない場合は,SSM 産業コードを参照して変更する ${ }^{17}$.これとは逆に,ルール $\alpha$ ではコードが特定できずに「999」とされた場合に,ルー ル $\beta$ により管理職の条件がチェックされて,該当する管理職コードが付与される場合もある. ルール $\beta$ は文献 (1995 年 SSM 調査研究会 1996) にしたがって人手で生成した. ルール $\beta$ は 43 個で, その内訳は, 管理職 14 個, 自営 9 個, 建設関係 7 個, その他 13 個である. ルール $\beta$ の限界は, 形式化できるものしか扱えないことである,実際には,コードの決定にあたっては, 回答者の性別や学歴, 本人の場合はこれまでの職歴, さらに父職, 配偶者職などのように回答者以外の職業や産業の情報を含め, 収集されたあらゆる情報を利用する場合が多く,これらをすべて反映したルール $\beta$ を生成することは非常に困難である。また,調査によりルール $\beta$ を重視する程度に違いがある場合もある 18 。これにより, 熟練コーダや調査が異なる場合は, 最終的なコードを決定するためのルールに一貫性が欠如し, 最終コードに摇れが生じる可能性がある. ## 3.7 ルールベース手法とSVM の組み合わせ手法 本システムにおけるルールベース手法では, 自由回答の内容を格フレームで表現してコードを決定するルールが必要になるが,回答の中にはこの形式で表現できないものも存在する ${ }^{19}$.例えば, 「仕事の内容」に商品名や生産物のみが記述された場合, 本システムでは述語として扱  われるが,動作を表すものではない.また,コードの修正方法もルールとして表現することが困難な場合があった。これらはシステムの性能を低下させる要因になると考えられる。さらに,自由回答に出現する用語や変換するコードは時代とともに変化するため,ルールベース手法においては,シソーラスやルールのメンテナンスを随時行わなければならないが,これを開発者以外の人間が長期間継続することは,時間的にも労力的にも負担となることが予想される.以上の理由により,ルールベース手法以外の方法を適用する必要があると考えた. SVM を選択した理由は,文書分類において分類性能の高さで評価が高かった (Joachims 1998; Sebastiani 2002) ためである。 本システムが対象とする自由回答は, 文書分類が対象とする文書に比較すると非常に短いという懸念はあったが20, 職業・産業コーディングは調査が完了するたびに実施されてコードが決定されるため, これを正解とみなすことで, 今後も訓練事例の蓄積が容易であるという利点を考慮した。なお,職業・産業コーディングは多値分類のタスクであるため,2 值分類器であるSVM を one-versus-rest 法 (Kressel 1999) により多値分類器に拡張した. SSM 職業コードを対象に, SVMによる方法をルールベース手法と比較し, さらに,ルールベース手法とSVM を組み合わせた手法(ルールベース手法により得られた結果をSVM の素性として活用する方法)とも比較した結果, ルールベース手法とSVMを組み合わせた手法, SVM による手法, ルールベース手法の順に分類精度が高かったため (高橋他 2005b), 本システムでもこの組み合わせ手法を適用する.SSM 産業コードについては実験を行っていないが,SSM 職業コードと同様の効果が得られると考え, 同様の組み合わせ手法を適用する。 表 6 にコードごとの自動化の手法と SVM で用いる素性を示す。本稿では,「仕事の内容」「従業先の事業内容」「地位・役職」を基本素性とよぶ.「仕事の内容」と「従業先の事業内容」 はいずれも自由回答であるために,形態素解析により分割された形態素を素性とするが,品詞付き単語と素性番号を対にして生成した素性辞書により素性番号に変換したものを用いる。素性辞書は現在, 15,069 語から構成されるため, 素性番号の最大值は 15069 である. 回答に出現した単語が素性辞書に存在しない場合の素性番号は 20000 にする。また, 素性として用いる語が「仕事の内容」と「従業先の事業内容」のどちらに出現したかを区別するために,「仕事の内容」に出現したものは素性番号をそのまま用いるが,「従業先の事業内容」に出現したものは素性番号に 200,000をプラスした番号を用いる. ISCO や ISIC において,SVM の素性として用いるSSM コードはルールベース手法と SVM の組み合わせ手法により第 1 位に予測されたコードである。これは, ISCO においてSSMコー  表 6 自動化の手法と SVM で用いる素性 \\ * 過去の調査等ですでにSSM コードが付与されている場合は,本システムにより予測されたコードではなく付与ずみのコードを用いる. ドを利用する方法として,第 1 位から第 3 位までに予測されたコードをさまざまに用いた実験を行った結果,この方法がもっとも正解率が高かったためである (高橋 2008). ただし, 前述したように,もし過去の調査等ですでに付与されたSSM コードが入力されていれば,予測されたコードではなくこのコードをSVM の素性として用いる.ISICについては実験を行っていないが,ISCO の場合と同様の効果が得られるものと考え,ISCO と同様の方法を適用する. ISCO では, SVM の素性として「学歴」も用いる。この理由は, ISCO ではコードの決定時に,職業の遂行に必要なスキルレベル(=教育・職業資格)が用いられるが,我が国ではこれがデータとして収集されないため,スキルレベルが国際標準教育分類 (ISCED) と対応することや学歴を判断基準とする点 (田辺 2008) に注目し, 学歴で代用可能であると判断したためである. 本システムにおいて 4 種類のコードすべてに変換する場合は,STEP 1 STEP 6 の順に連続処理を行う。また,SSM 職業コードのみに変換する場合はSTEP 1,STEP 2,STEP 3, SSM 産業コードのみの場合は STEP 1, STEP 2, STEP 5, ISCO のみの場合はSTEP 1 , STEP 2, STEP 3, STEP 4, ISIC のみの場合はSTEP 1, STEP 2, STEP 5, STEP 6 の順に実行する。ただし,ISCO(またはISIC)のみに変換する場合に,すでに付与されたSSM コードが入力されている場合は,STEP 2 と STEP 3(またはSTEP 2 と STEP 5)は省略し, STEP 4(またはSTEP 6)ではこのSSM コードを用いる. STEP 1 職業・産業データに対する形態素解析 STEP 2 ルールベース手法の適用により,SSM 職業コード(ルールベース)とSSM 産業コー ド(ルールベース)を決定 STEP 3 基本素性に,STEP 2 により決定されたSSM 職業コード(ルールベース)を追加してSVM を適用し,SSM 職業コードを第 1 位から第 3 位まで決定 STEP 4 基本素性に, 学歴とSTEP 3 により決定されたSSM 職業コード(第 1 位のみ)を追加してSVM を適用し, ISCO を第 1 位から第 3 位まで決定 STEP 5 基本素性に,STEP 2 により決定されたSSM 産業コード(ルールベース)を追加してSVM を適用し,SSM 産業コードを第 1 位から第 3 位まで決定 STEP 6 基本素性に,STEP 5 により決定されたSSM 産業コード(第 1 位のみ)を追加して SVM を適用し,ISIC を第 1 位から第 3 位まで決定 ## 3.8 確信度の付与 SVM は,予測したコードとともにスコア(分離平面からの距離)も出力するため,これを利用して,予測したコードのクラス所属確率を推定することが可能である (Takahashi, Takamura, and Okumura 2008). そこで,この推定値を予測したコードに対する信頼度として利用することを考えた。ただし,本システムでは厳密な確率值までは必要としないため,文献 (Takahashi et al. 2008) における提案手法を特徴づける考え方である「複数のスコア利用」に基づく簡便な方法を提案し, 3 段階の確信度として付与することとした (高橋他 2013a). 各確信度の決定条件は次の通りである。ただし, rank1,rank2 は,それぞれ SVMにより第 1 位, 第 2 位に予測されたコードにともなって出力されるスコアを示す. $\alpha$ は閥値で, $r a n k 1$ と rank2 の差を示す. $\alpha$ を大きく設定するほど予測されたコードのクラス所属確率が高まるため (Takahashi et al. 2008), 確信度 A の信頼性は $\alpha$ を大きく設定するほど向上することになる. 2 節で述べたように,確信度付与の目的は,コーディング結果のすべてに対して再チェックを行う熟練コーダの作業量を削減するためである。したがって,特に,人手によるコーディングを不要とする確信度 A に注目する必要があり, 確信度 A が付与された事例のカバー率(確信度が付与された評価事例数を評価事例数で割った値)が高いことが望ましい. しかし,この場合の正解率(正解した評価事例数を評価事例数で割った値 (高村 2010))も,熟練コーダが作業不要であることを納得する程度に高い値である必要がある。このように, 確信度 A においては, 正解率とカバー率はいずれも高い値である必要があるが, 両者はトレードオフの関係がある. 本システムでは,職業・産業コーディングの目的が研究のための基礎データを提供するものであることから,カバー率を考慮しながらも正解率を優先し,その值を熟練コーダの要望にしたがって $95 \%$ 以上とした。なお, 本稿では, 「正解」を最終的に決定されたコードとするため, 本稿における正解率は最終コードとの一致率である. 図 6 閾値 $\alpha$ の変化による確信度 $\mathrm{A}$ が付与された事例の正解率とカバー率 閥値 $\alpha$ を決定するために, SSM 職業コードについて 2005SSM 調査データセット(16,083 事例)を用いた 3 分割交差検定による実験を行った. 図 6 は,閥値 $\alpha$ を 1 から 4 まで変化させたときの確信度 A における正解率とカバー率の状況を示したものである (Takahashi et al. 2014). $\mathrm{X}$ 軸が $\alpha, \mathrm{Y}$ 軸が正解率とカバー率を示す。図 6 より, 正解率が $95 \%$ 以上であるのは, $\alpha=3$ と $\alpha=4$ の場合である。両者を比較すると, $\alpha=4$ の方が正解率が $97.5 \%$ と高いが,カバー率が約 $10 \%$ と低く, $\alpha=3$ では, $\alpha=4$ の場合より正解率は 1.7 ポイント劣るが,カバー率は 18.2 ポイント向上して $28.9 \%$ となる. これより, 本システムでは最適な閾値として $\alpha=3$ を選択した. 実際には,確信度は上記の目的だけでなく,一般コーダが自動コーディングの結果を参考にする際の判断基準としても利用されるようになったため,確信度 A だけでなく,確信度 B や確信度 C についても,妥当性を調查しておく必要が生じた。確信度を一般コーダの判断基準として用いるためには,カバー率ではなく正解率に注目する必要がある。前述の実験において閥値 $\alpha=3$ とした場合, 確信度 B の正解率は $71.9 \%$ (カバー率は $47.8 \%$ ), 確信度 C の正解率は $35.8 \%$ (カバー率 $23.3 \% )$ であった.これより, $\alpha=3$ は, 確信度 $\mathrm{B}$, 確信度 Cに対しても妥当な閾値であると判断した。 ## 4 システムの評価 一般コーダの正解率は,コーダやデータの違いにより差があるが,記録が残されている 6 つの調査(SSM 職業コード)においては $68.8 \%$ から $80.0 \%$ で, 平均は約 $75 \%$ であった (高橋 2002a). コーダに対する有効な支援を行うにはこの値を上回る必要があるため,本システムにおける正解率の目標を, いずれのコードも $80 \%$ に設定する ${ }^{21}$ 。また, 確信度ごとの正解率は, 確信度 A では $95 \%$ ,確信度 B では一般コーダの平均値 $75 \%$ を目標とする。 システムの評価実験では,まず,コードの種類ごとの正解率と確信度付与の有効性を報告した後,処理時間についても報告する(実験 1)。次に,視点を変え,実際に本システムを利用す  る社会階層分野の研究者による評価について簡単に報告する(実験 2). ## 4.1 実験 1 実験は現実の場面を想定し,交差検定ではなく,評価事例を訓練事例より新しいデータセットや別の調査により収集されたものを用いた(表 7 参照) ${ }^{22}$.その際, 4 種類のコード間における結果を比較するため,すべてのコードが付与された「本人現職」を用いた。「本人現職」は社会学においてもっともよく用いられる変数であるが,新しい仕事内容が新しい用語により表現されるケースが多いため, 他の場合(「本人初職」や「父職」など)より正解率が低い傾向がある。 ## 4.1.1 正解率 コードの種類別の正解率(第 3 位に予測されたコードまで含む)を表 8 に示す。表中, ISCO* と ISIC*は,SVMの素性としてルールベース手法による結果ではなく,過去の調査等ですでに付与された SSM コードを用いた場合を表す(以下,同様である). SSM コードでは, 2 種類の評価事例のいずれにおいても,職業コードは約 $80 \%$, 産業コードは約 $90 \%$ で目標値に達しており, 安定している. ISCO や ISIC は,SSM 職業コードや SSM 産業 表 7 コードの種類別訓練事例と評価事例 表 8 正解率(第 3 位に予測されたコードまで含む)  コードよりそれぞれ約 8 ポイント,約 10 ポイント低いが,ISICは目標値に達している。また, ISCO や ISIC においてすでに付与された SSM コードを利用した場合は,いずれもこの値より約 5 ポイントずつ高く,付与ずみの SSM コードを利用することは有効である。ただし,ISCO はこの場合も目標值に達しておらず,SSM 職業コードより約 4 ポイント低い.ISCO や ISIC の正解率ががSSM コードより低い理由としては, 分類クラスの数が多く困難なタスクであることと,訓練事例として用いられるデータの蓄積が不足していることが考えられる. ## SSM 職業コードの状況 社会学でもっとも関心の高いSSM 職業コードについて,JGSS-2006 データセットを用いてより詳細に調査する。このとき, 正解とされるコードごとの正解率は, 再現率(注目した正解コードの事例数のうち,システムが正解した事例が占める割合)を計算していることになる. 本システムで用いる SSM 職業コードは全部で 193 個であるが,正解として本データセットに出現したコードは 150 個 $(77.7 \%)$ であった. この中で, 正解率が $100 \%$ のコードは 39 個 $(26 \%)$ で,表 3 に示す大分類では専門・技術が多く,0\%のコードは 12 個 (8\%) で製造が多かった.ただし,これらはいずれもコードの出現度数が非常に少なく,特に正解率が $100 \%$ のコードはすべて頻度 15 以下, $0 \%$ のコードもすべて頻度 7 以下で,合計しても $178(8 \%)$ で,全体に与える影響は大きくない,そこで,以下では,正解コードの度数が全体の $1 \%$ (頻度 22 )以上の 31 個のコードについて調査する。これらは出現したコードの $21 \%$ を占め, 累積度数は $1,499(68 \%)$ である。 まず,表 9 に正解率のベスト 10 とワースト 10 を示す. 正解率が高いものはサービス, 農林,専門・技術, 販売, 低いものは労務や建設が多いことがわかる. 次に,本システムが間違えた状況を調查する,間違い方には,正解がコード Xであるのに本 表 9 SSM 職業コードにおける正解率のベスト 10 とワースト 10(第 3 位に予測されたコードまで含む) システムが X 以外のコードを付与する場合と, 正解が X 以外のコードであるのに本システムが間違えてコード Xを付与する場合がある。前者の結果を表 10 , 後者の結果を表 11 に示す. ただし,全体に及ぼす影響を考慮し,間違えた事例数が全体の 1 割(頻度 22 )以上のコードに限定した。いずれの表においても,コードの後に,本システムが間違えた事例数をカッコ内に示す. また, 最右欄においてコード名を示していないものは, 間違えた事例数が 1 のコードである. 不正解がもっとも多かったのは, 正解である「554」を他のコードに間違えたり(表 10 参照),他のコードを「554」に間違える(表 11 参照)場合である.具体的には,「554」を販売や管理に間違えたり,「554」と同じ事務の「556」「557」「559」や専門・技術や製造を「554」に間違えている。次に多いのは,「557」と「573」を相互に間違える場合である。さらに,事務を「569」 (販売店員)や「550」(会社・団体等の管理職員)に間違える場合も多い. 事務は,表 9 によると,「557」以外は特に正解率が低いわけではないが,事務同士や販売または管理との間で間違うケースが多い. ここで, 不正解であった全 467 事例を調査した結果, 誤りの原因は次の 9 種類に分類できた. - 入力データに誤りがある(誤字や脱字など)(A) - 文末の語を述語とする方法も含め, 格フレームの形式では有効な情報を抽出できない (B) ・ ルール $\alpha$ が不十分である $(\mathrm{C})$ ・ ルール $\beta$ が不十分である(「従業先の事業内容」を参照していないなど) ・ シソーラスが不十分である $(\mathrm{E})$ 表 10 正解コードからみた不正解の状況(SSM 職業コード) & 本システムの結果(第 1 位のコード) \\ 2 & $557(33)$ & 0.625 & $573(12) 550(4) 554(4) 569(3) 575(2) 592(2)$ 他 6 個のコード \\ 表 11 本システムのコード付与からみた不正解の状況(SSM 職業コード) & & \multicolumn{1}{|c}{ 正解コード } \\ - 正解がルール $\beta$ を適用していない $(\mathrm{F})$ - 回答に複数の職業内容が記述された場合に, 本システムが正解が異なるものに決定 $(\mathrm{G})$ - 回答の情報が不足している(正解が曖昧)(H) - 正解が誤っている可能性がある (I) 1つの事例に誤りの原因が複数含まれるものもあるが, 表 12 に誤りの原因別に回答例を示し,誤りの原因について順に分析する。 原因 A は, 人間であれば理解可能でも, コンピュータは正しい処理が行えない. 本システムの場合も最初の形態素解析で失敗してしまうため, 後の処理が正しく行えない. 例では, もっとも重要な述語「評価」が「表価」と誤入力または調査票に誤記入されたため, マッチするルー ルが見つからず,また,SVMにおける素性としても「評価」がないために,不正解となった. 表 12 誤りの原因別の回答例と決定されたコード(SSM 職業コード) & & 正解 \\ 社会調査においては, メイキング防止のため, 調查票の記入通りに入力を行う.したがって, 調査員による誤記入が予想できる場合でもそのまま入力されるため,入力ミス以外に調査票における誤字や脱字も正解率を低下させる。調査票記入における別の問題として,調査員が,単語の一部またはすべてをひらかなやカタカナで記入する場合も多い(例えば,「き械」「キカイ」など) ${ }^{23}$. 原因 A は人手によるコーディングでは大きな問題とはならないために, 社会学研究者からの理解が得にくいが,コンピュータによる自動処理を行う本システムにとっては大きな問題であり, 今後, この問題に取り組む必要がある. 原因 B の最初の例では,<組み立て, ヲ,部品>なる三つ組を生成するが,この名詞が意味する範囲が広く,職業の特定ができない。もし,「部品」の前に位置する「電化製品」が抽出できれば,ルールベース手法の段階でコードが決定でき,SVM の素性として有効に作用することが期待できる. このように, 名詞が「部品」や「製品」のような場合には, その前の語を抽出する必要がある。二番目の例では 3 個の三つ組を生成するが,いずれも「999」のため,SVM の素性として有効ではない。このように, 複雑な構成の文に対しては, 単純に文末の語を述語とする三つ組を生成する方法では,有効な情報の抽出ができない場合がある。逆に,三番目の例は非常に単純で 1 個の単語から構成される文であるが, この語が動作を表すものではないために述語コードを付与できず,この場合も文末の語を述語とする方法では対応できない. 原因 Cの例では,<検査, ヲ,パン>なる三つ組を生成するが,これを「644(パン・菓子・ めん類・豆腐製造工)」に結びつけるルール $\alpha$ が存在しないため, 「999」となり, 不正解につながった. 原因 D の例はいずれも,「仕事の内容」からは「554」でよいが, 正解では「従業先の事業内容」を参照し,より妥当なコードに修正されている ${ }^{24}$. ルール $\beta$ に SSM 職業コード(ルー ル $\alpha )$ が「554」の場合も追加する必要がある。原因 $\mathrm{E}$ の例では,形態素解析により切り出された結果,述語が「上絵」, 名詞が「紋章」となるが,どちらもシソーラスにないために「999」となり, 不正解につながった. 原因 $\mathrm{C}, \mathrm{D}, \mathrm{E}$ につては,ルール $\alpha$, ルール $\beta$, 述語シソーラス,名詞シソーラスの改善が有効である. 原因 F の最初の例は,ルール $\alpha$ により管理とされたが,ルール $\beta^{25} より 「 554 」 と$ 修正され, SVM による結果も「554」となった. 正解でも,「従業先の事業規模」により修正が必要とされたが,「従業先の事業内容」ではカッコ内の「電子機器の部品を作る会社」に注目して「503」 (機械・電気・化学技術者)としたため, 不正解となった. 二番目の例は, ルール $\alpha$ により管理 (「548」(会社役員))とされ,ルール $\beta$ における管理の条件を満たすために修正されず,SVM  による結果も「548」であった。しかし,正解ではルール $\beta$ を適用せず,「従業先の事業内容」 が「建設住宅コンサルタント会社」であることに注目して「541」(経営コンサルタント)とされた.このように,正解においては,特に管理の場合にルール $\beta$ を適用する場合としない場合があり ${ }^{26}$, コーダの間でも混乱が生じている。人間にとってもコンピュータにとっても,管理コードの付与方針を整理しておく必要がある。 原因 G はしばしば起きるもので,今回も全不正解事例のうち 125 事例 $(27 \%)$ が該当した。ただし, 複数の内容を記述した全 384 事例 $(17 \%)$ においては正解が 259 事例で, 不正解の事例の 2 倍である. 複数の内容が記述された場合, どれを正解とするかについては, 重要なものから記述されるとの考えから, 先に記述されたものを正解とすることが多いが, 本システムは記述された順番の情報を用いていないため,結果が正解と異なる場合もあり得る。また,「2つ以上の勤務先で異なる仕事に従事している場合には, 就業時間の長い仕事, 収入の多い仕事の順であり,1つの勤務先で異なる仕事に従事している場合には,就業時間の長い仕事,生産・製造作業, 主要工程または最終工程という順に決定する.」なるルール (1995 年 SSM 調査研究会 1995) が適用されることもあり, この中では, 「生産・製造作業が他より優先される」はルール化が可能である. 原因 $\mathrm{H}$ は,コンピュータだけでなく人間においても誤りの原因となる。これは,回答者も調查員も,職業分類の決め手となる情報についての知識が不足するために生じる場合 (二番目, 三番目, 四番目の例)と,回答者が情報を開示したくない場合(最初と最後の例)がある. 原因 $\mathrm{H}$ の場合,コーディング現場において可能な限り「999」や「689」(分類不能の職業)を付与しない方針が強く要請されると,正解を誤ってしまう危険性がある。回答における情報不足の問題については, 原因Aの問題とも併せ,データの質向上というより一般的な観点から,新たな課題として取り組む予定である。 原因 I は, 現職までの職歴データや他の情報も考慮された結果, このような正解となった可能性も否定できないが, 「本人現職」からは正解が誤っており, 本システムの結果が不正解であるとは言い切れない,正解が誤っているという状況は,新しい職業が登場した当初に解釈が分かれ,その時点で正解としたものが後に定められるコード(新規に生成される場合もある)と異なる場合にも生じる。このため, 訓練事例は適宜見直し, 必要に応じて正解を更新する必要がある. ところで, 表 12 における例では, 本システムの結果がルールベース手法による結果と一致する場合が多かった,そこで,全事例における両者の一致率を調査した結果,約 80\%(1,811 事例)であった.両者における正解・不正解の関連を表 13 に示す。カッコ内の数値は全体に占める割合である。ここで正解としたのは,ルールベース手法では複数のコードが付与された場合  表 13 ルールベース手法のみと本システムの正解・不正解事例数(SSM 職業コード) はその中に,本システムでは第 3 位までのコードの中にそれぞれ正解が含まれる場合である. 表 13 より,ルールベース手法の正解率は $60.7 \%$ であるが,ルールベース手法で不正解となった事例の半数がSVM の適用により正解となり, 特に, ルールベース手法でコードが決定できなかった事例の約 7 割が正解となったため, 本システムの正解率は 18 ポイント上昇した. これより,両手法を組み合わせる手法の有効性が再確認できた。一方で,ルールベース手法で正解であった事例のうち, SVM の適用により不正解となったものは約 $2 \%$ しかなく, ルールベース手法の正解率を向上させることは, 本システムの正解率向上に有効であると考えられる. ## ISCO における追加実験 ISCO における正解率の向上を目的に,ISCO のコード体系が階層構造であることを利用した追加実験を行った。まず大分類(10 個)を学習させた後に,大分類ごとに小分類を学習する方法の有効性を実験した,第 1 位に予測されたコードについて,階層構造を利用した方法の有効性を調査した結果, 効果あり 5 個, 効果なし 3 個, 変化なし 1 個であった ${ }^{27}$. 次に,大分類ごとに, この方法と本システムにおける手法(直接, 小分類を学習する)のうち正解率の高い方を選択して全体の正解率を算出したが,本システムにおける手法より 0.5 ポイントしか向上せず,両者を組み合わせた方法の有効性も認められなかった. ISCO やISIC は,今後,国際標準コードが普及するにつれ,正解付きの事例が蓄積されていく.実験によれば,訓練事例のサイズが大きいほど正解率が向上するため (高橋他 2005b), 今後, この正解付きの事例を既存の訓練事例に追加していくことで, 正解率の向上が見达める. このためには,訓練事例の追加処理を容易に行うことができる必要がある. ## 4.1.2確信度の有効性 表 14 に, 確信度別の正解率とカバー率(カッコ内)をコードの種類ごとに示す. 確信度は第 1 位に予測されたコードに対するものである。表 14 において,SSM コードの值は 2 種類の評価事例の平均である. 表 14 より, 確信度 A が付与された事例の正解率は, ISIC (94\%)を除くすべてのコードで目  表 14 確信度別の正解率とカバー率 \\ SSM 産業コード & $0.975(0.32)$ & $0867(0.54)$ & $0.437(0.14)$ & 0.881 \\ ISCO & $0.963(0.05)$ & $0.701(0.67)$ & $0.276(0.28)$ & 0.595 \\ ISIC & $0.941(0.01)$ & $0.919(0.56)$ & $0.574(0.43)$ & 0.771 \\ ISCO* $^{*}$ & $0.947(0.05)$ & $0.759(0.65)$ & $0.300(0.30)$ & 0.631 \\ ISIC* & $1.000(0.01)$ & $0.971(0.55)$ & $0.671(0.44)$ & 0.839 \\ 最低値 & $0.941(0.01)$ & $0.701(0.48)$ & $0.276(0.14)$ & 0.595 \\ 平均 & $0.963(0.12)$ & $0.822(0.58)$ & $0.436(0.30)$ & 0.737 \\ 標值 $(95 \%)$ を上回っているため, 有効であると判断できる. 特に ISCO では, 第 1 位の正解率は $60 \%$ 未満で,第 3 位までを含めても 70\%(表 8 参照)と低いが,確信度 $\mathrm{A}$ が付与された事例については $96 \%$ と高い值であった。一方, カバー率は, SSM コードは約 $30 \%$ であるのに対し, ISCO は $5 \%$, ISIC \& $1 \%$ と非常に低く, 有用性の点で問題がある。今後, ISCO と ISIC は訓練サイズの増大による正解率の向上が期待できるが,カバー率についても向上させる必要がある.確信度 B と確信度 Cにおける正解率は, それぞれ $70 \%$ から $97 \%$ と $28 \%$ から $67 \%$ で, 確信度 $\mathrm{A}$ に比較するといずれもバラツキが大きい。確信度 B は, 国内・国際職業コードのいずれも目標値 $(75 \%)$ をやや下回ったが,一般コーダの正解率の範囲内である。確信度 B がもっとも高い ISIC $(92 \%)$ は, 確信度 A がもつとも低く, 両者の差が $2 \%$ しかない上に, 確信度 Cにおける正解率も比較的高い.これは SSM 産業コードにおいても同様の傾向である。職業コードでは,確信度 A, 確信度 B, 確信度 C がそれぞれ $95 \%, 70 \%$ 台, $30 \%$ で安定していることと対照的である ${ }^{28}$ 、いずれにしても, すべてのコードにおいて,任意の確信度の最低値は下位の確信度の最高値より高く,3つの確信度は信頼性の程度を明確に区別する,以上より,本システムにおける確信度は, 自動コーディング後の人手の要・不要の程度を表す指標として有効であるといえる。 最後に,表 13 の状況を確信度別に調査した結果を, 表 15 (確信度 A), 表 16 (確信度 B),表 17 (確信度 C)に示す.カッコ内の数値は全体に占める割合である. 表 15 ,表 16 ,表 17 より,本システムで正解であった事例について,ルールベース手法における正解・不正解の比率を調査すると, 確信度 A では約 80 倍でもっとも高く, 確信度 B で約 2.7 倍, 確信度 C で約 0.7 倍と, 確信度のレベルが下がるにつれて大きく低下した. また, ルー ルベース手法で正解であった事例が本システムにおいても正解となる割合を確信度別に調査す  表 15 ルールベース手法のみと本システムの正解・不正解事例数(確信度 A)(SSM 職業コード) 表 16 ルールベース手法のみと本システムの正解・不正解事例数(確信度 B)(SSM 職業コード) 表 17 ルールベース手法のみと本システムの正解・不正解事例数(確信度 C)(SSM 職業コード) ると,それぞれ約 $100 \%, 98 \%, 91 \%$ で,確信度のレベルが高いほど高かった. ## 4.1.3 処理時間 処理時間は, PC の性能 29 や訓練事例, 評価事例のサイズにより異なるが, 評価事例が JGSS2006 データセットの場合, STEP 1 から STEP 6 にそれぞれ 0 分, 7 分, 34 分, 7 分, 13 分, 2 分(計 63 分)を要した. 1 事例当たり, 約 1.7 秒かかる計算となる. 本システムで 1 度に処理できる事例数は最大 5,000 であり, これより大きなサイズのデータセットの場合は数回に分けて処理する必要がある。 5,000 事例の場合, 1 回の処理時間は約 2 時間半弱である. ## 4.2 実験 2 SSM 調査のような大規模プロジェクトによる調査では, 自動コーディングの結果が得られても, 従来通り一般コーダによるコーディングを実施し,その後に熟練コーダによる再チェックを行うことが可能である. しかし, 多くの調査では, コーディング作業にこのような労力や時間ををかけることは困難である。また,実際の分析においては,研究の目的に応じ,類似した性質をもつ小分類コードは大分類にまとめて扱う場合が多いため,この大分類レべルで正解で $ を使用した. } あれば問題はない,例えば,本システムの利用が多い社会階層分野でも,職業威信スコアを用いる研究 30 を除くと,大分類にまとめたものを分析する場合が多い. このため, 自動コーディングの性能が高まるにつれ,この結果をそのまま利用できるのではないかと考える研究者も出てきた。そこで,本システムの利用者である社会階層分野の研究者の立場から,自動コーディングの結果をそのまま利用した場合の有効性と問題点についての検討を開始した (高橋,多喜,田辺 2016). 本稿では,SSM 職業コードを対象に,第 1 位に予測されたコードの正解率や確信度について報告する。 実験 2 では,実験 1 で用いた訓練事例(表 7 参照)に,JGSS-2006, JGSS-2008, JGSS-2010 データセットを加えた計 49,795 事例を訓練事例とした ${ }^{31}$. 評価事例は, 東京大学社会科学研究所が実施する「働き方とライフスタイルの変化に関する全国調査」(若年・壮年パネル調査; JLPS) 32 の第 1 波のうち,本システムを利用するための項目を満たす 3,619 事例を用いた. 前述したように,職業威信研究では小分類コードを用いることと, 実験 2 における訓練事例と評価事例はいずれも実験 1 と異なるため,まず小分類コードの結果を報告し,次に,大分類にまとめた場合の結果を報告する,以下では,すべて第 1 位に予測されたコードを対象とする。 ## 4.2.1 小分類コードにおける正解率と確信度 正解率は $67.1 \%$ で,表 14 に示した実験 1 の結果 $(70.2 \%)$ と比較すると, 訓練事例のサイズが増大したにもかかわらず約 3 ポイント低かった。この理由として, 実験 2 は実験 1 と異なり,評価事例が訓練事例とは性質が大きく異なる調査により収集されたデータセットであることと, パネル調査のため,第 2 波以降に得られた情報により正解が修正された可能性があることが考えられる。ただし,第 3 位に予測されたコードまで含むと,正解率は $79.0 \%$ となり,実験 1 の結果 $(78.8 \%)$ をやや上回っており,本システムの頑強性が確認できた. 表 18 に,正解コードの出現度数が全体の $1 \%$ (頻度 $35 )$ 以上であるコードのうち,正解率が $50 \%$ 以下のものを示す.「557」や労務が含まれる点は, 実験 1 の結果(表 9 参照 ${ }^{33}$ )と類似する. 表 18 正解率が 50\%以下の小分類コード(SSM 職業コード)  全体に及ぼす影響の大きさから, 不正解の事例数が多いコードを調査した. 10 位までのコー ドを表 19 に示す. 実験 2 においても実験 1 (表 10参照)と同様,「554」や「557」を他のコー ドに間違う場合が多い34. 次に, 確信度ごとの正解率とカバー率(カッコ内)を表 20 に示す.いずれの確信度も実験 1 の結果(表 14 参照)を上回っている。特に,確信度 $\mathrm{A}$ が付与された事例では正解率が $97.8 \%$ に達しており,ここでも確信度 A の有効性が確認された。これより,「確信度 A が付与された場合は人手によるコーディングは不要」と主張することに一定の説得力があるといえる。たたし, 確信度 A が付与された事例が全体の $14 \%$ と低いことは,有効性の点からは問題である。 確信度 B の正解率は $76.4 \%$ で,一般コーダの平均を約 1.5 ポイント上回っている。このため,確信度 A または B が付与された事例については, 自動コーディングの結果をそのまま利用しても大きな支障はないと考えられる。この場合のカバー率は合計で約 $66 \%$ となる. 確信度 $\mathrm{C}$ の正解率は $40.2 \%$ と低いため, そのまま利用することは危険で,人手によるチェックが必要である. ## 4.2.2 大分類に合併後の正解率と確信度 国内の階層研究において実際に分析が行われる場合,表 3 に示す大分類が用いられることは 表 19 不正解事例数が多い小分類コード(SSM 職業コード) 表 20 確信度別の正解率とカバー率(SSM 職業コード)  ほとんどなく,表 21 に示すものが用いられることが多い 35 . また,分析の目的によっては,小分類コードを表 3 に示す大分類に変換し,さらに表 21 に近い 8 つのカテゴリ(「専門・技術職」「管理職」「事務職」「販売職」「サービス職」「生産現場・技能職」「運輸・保安職」「農林」)に合併することもしばしばある.このカテゴリは小分類コードと自然な対応関係にあり,両者の比較がもっとも容易に行えるため,ここでは,これを大分類として扱う. 表 22 に,小分類コードの正解率を大分類別に平均した値と,大分類に合併したときの正解率を比較した結果を示す。表中,確信度 A のカバー率の平均とは,注目する正解コードにおいて確信度 A が付与された事例がその正解コードの全事例に占める割合を大分類別に平均した値である。 大分類に合併すると,正解率の平均は $67.1 \%$ から $79.9 \%$ に上昇し,特に「生産現場・技能職」 の上昇幅は約 24 ポイントと大きい。「運輸・保安職」の上昇幅は約 4 ポイントであるが,確信度 A のカバー率は $34 \%$ と高い. 表 21 階層研究で用いられる大分類と分類の単位 & 専門管理事務販売熟練半熟練非熟練農林 \\ 表 22 分類レベルの違いによる正解率の比較と確信度 A のカバー率(SSM 職業コード) & & & \\ 管理職 & 0.8 & 0.571 & 0.571 & 0.00 \\ 事務職 & 25.4 & 0.607 & 0.754 & 0.11 \\ 販売職 & 14.2 & 0.688 & 0.777 & 0.11 \\ サービス職 & 9.0 & 0.759 & 0.836 & 0.12 \\ 生産現場・技能職 & 22.7 & 0.571 & 0.811 & 0.08 \\ 運輸・保安職 & 4.0 & 0.779 & 0.814 & 0.34 \\ 農林 & 0.9 & 0.813 & 0.813 & 0.28 \\  表 23 大分類に合併後の確信度別の正解率 逆に,「管理職」では小分類でも大分類合併後でも $60 \%$ 未満で低く, また確信度 A のカバー 率も $0 \%$ である。これより,「管理職」が付与されたコードをそのまま用いるのは危険であり, コーダも十分に注意する必要がある。ただし,管理職の出現率は $0.8 \%$ で,全体に及ぼす影響は大きくない 36 . また,「事務職」と「販売職」も小分類での正解率が $70 \%$ 未満と低く, 大分類合併後も $80 \%$ に達していない. これら 3 つに共通する特徴として, 職務が明確に限定されていない職業を多く含むことが挙げられる。これは,資格との対応や必要な技能および職務が明確な 「専門・技術職」の正解率が小分類でも高く, 大分類合併後にもっとも高くなることと対照的である. 表 23 に, 大分類に合併後の正解率を確信度ごとに示す. 小分類レベル(表 20 参照)と比較すると, 大分類合併後は, いずれの確信度も正解率が上昇し, 特に確信度 Bでは 10 ポイント,確信度 C では 20 ポイント以上上昇する,大分類に合併すると,確信度 A または B が付与された事例の正解率は十分に高い値となるため, 自動コーディングの結果をそのまま利用することが可能である. ## 5 システムの利用方法 最後に, 本システムの利用方法について述べる. 利用者は, 3.3 節で述べた所定の形式の入力ファイルを準備し,CSRDA の Web サイトを通じて図 7 に示す (1)~(4) の手続きを行えば,自動コーディングの結果を得ることができる. 図 7 において, [CSRDA] 自動化システムによる処理とは, 運用担当者が行う次の 2 つである. - システムを稼働させて図 1 に示す操作画面を表示させ, 図 2 に示すように, 指定場所に置かれた入力データファイルと利用者から希望のあったコードを指定する ・本システムが出力した結果ファイルを指定場所に置く なお,CSRDAでは, セキュリティの点から, システム運用担当者は利用者からの入力ファ 組みとしている.  (4) (1) [利用者] 利用申請書をメイルによりCSRDAに送信 (希望する職業$\cdot$産業コードの種類を明記) (2) [CSRDA] 利用申請書のチェック/承認オンラインストレージ(Proself)用IDとパスワードの発行 (3) [利用者] 入カデータファイルをオンラインストレージにアップロード [CSRDA]自動化システムによる処理 (4)[利用者]結果ファイルをオンラインストレージからダウンロード 図 7 Web 公開版システム(試行提供中)の利用手順 ## 6 関連研究 ここでは,韓国と米国における自動化システムについて述べる。本システムとの大きな違いは,いずれも社会学の研究支援が目的ではなく,職業や産業コードそれ自体が分析に用いられる変数ではないこと,また,自動化のアルゴリズムに機械学習を適用していないことである. 韓国では,2008 年に大韓民国統計庁において Web-based AIOCS (A Web-based Automated System for Industry and Occupation Coding) が開発された (Jung, Yoo, Myaeng, and Han 2008). Web-based AIOCS は, ISCO や ISIC に由来する韓国独自の職業コード(442 個)や産業コード (450 個)への変換を行う,自動化のアルゴリズムは,文献 (高橋 2000; Takahashi et al. 2005) を参考にしながらも,処理時間の問題から SVM は用いずに,ルールベース手法, 最大エントロピー法 (MEM), 情報検索技術 (IRT) の 3 種類を単独または後の 2 つをルールベース手法と組み合わせた計 6 種類が提案されている。この中で正解率が最も高いのは, ルールベース手法, MEM, IRT をこの順に実行する方法で $76 \%$ である. 利用方法は一問一答方式で, Web サイト上に, 会社名 (自由回答), ビジネスカテゴリ, 部門, 役職, 仕事の内容(自由回答)を入力すると, 同一画面に結果が表示される. Web-based AIOCS における入力データは本システムと類似するが, ファイルによる入出力については不明で 38 , 利用も統計庁内部に限定され, 一般に公開されていない. 米国では, これまで CDC (Centers for Disease Control and Prevention; 米国疾病予防管理センター)の Web サイト上に,単語のマッチングを主とする SOIC (Standardized Occupation  \& Industry Coding) システム39を公開し, 利用者自身がソフトウェアをダウンロードして処理を行っていた.SOICは 1990 年のセンサス・コードに変換するもので,正解率は,職業コード $75 \%$, 産業コード $76 \%$ で,職業コードと産業コードの両方では $63 \%$ であった. CDC では, 2000 年以降のセンサス・コードに対応するため, 2013 年に SOIC を含む NIOCCS (The NIOSH Industry \& Occupation Computerized Coding System) を構築した ${ }^{40}$. NIOCCS における入力データは,職業や産業を記述したテキストのみで,これは本システムにおける自由回答部分に該当する. 自動化のアルゴリズムはルールベース手法で, 単語だけでなく知識についてもデータベース化したものとのマッチングを行う.知識の表現形式についての説明はないが,本システムにおけるルール $\alpha$ による処理に該当すると考えられる,ただし,本システムではルール $\alpha$ で決定されたコードをチェックするルール $\beta$ が存在するのに対し, NIOCCS にはこれに該当するものがないため,「従業上の地位」や「役職」「従業先の事業規模」も参照して総合的かつ慎重な判断を必要とする社会学研究のためには厳密さに欠ける. NIOCCS においても,本システムにおける確信度と同様に,自動コーディングの結果に 3 段階 (High, Medium, Low) の信頼度を付与するが,機械学習を適用しないため,その算出方法が本システムと異なることは明らかである ${ }^{41}$. NIOCCS では一問一答方式とファイルによる入出力が可能である.SOIC と異なり, 利用者はシステムをダウンロードせずに, NIOCCS のアカウントを取得した上で処理を依頼する点は本システムと共通するが,マッチングを行うデータベースを 2000 年, 2002 年, 2010 年の中から選択できる機能は本システムにはないものである.本システムでは,同一コード体系内におけるさまざまな版(例えば,SSM 職業コードにおいて 700 番台や 800 番台のコードを含む/含まないなど)に対応するルールや訓練事例を複数種類用意し, 利用者の希望に応じて版を選択できる機能の追加を予定している. ## 7 おわりに 本稿では, 社会学で活用されている職業・産業コーディング自動化システムについて, 現在, CSRDA の Web から試行提供されているシステムを中心に, 運用・利用方法も含めて述べた. 本システムは, 国内 /国際標準の計 4 種類の職業・産業コードへの変換を行うが, 社会学において重要な職業コードの正解率は, 第 3 位に予測されたものまで含め, 国内標準コードで約 $80 \%$, 国際標準では $70 \% \sim 75 \%$ であり, 正解率の向上が今後の大きな課題である.このため, もっとも利用の多い国内標準コードについて, 誤り分析の結果に基づき, ルールベース手法にお : / /$ wwwn.cdc.gov/niosh-nioccs/ 41 信頼度を算出するための根拠が不明で, Frequently Asked Questionsm の回答として, High が $90 \%$ 以上, Medium が $70 \%$ 以上との説明があるたけけである。カバー率も示されていない. } けるルールやシソーラスの見直しを行っている.また,SVM で用いられる訓練事例の正解の見直しも開始した。さらに,訓練事例のサイズを拡大するため,2015SSM 調査における職業コー ディングの最終結果が決定された時点で, これを正解付き事例として追加する予定である. 正解率は全体では満足できる程度に高くないが,確信度 A が付与された場合は,職業・産業 る有効性が確認できた。ただし,この場合のカバー率は $1 \% \sim 32 \%$ と低いため, カバー率の向上が今後の課題である。確信度 B や確信度 C が付与された場合の正解率はそれぞれ $70 \% \sim 97 \%$ (平均 $79 \%$ ), $28 \% \sim 67 \%$ (平均 $42 \%$ )で,国内・国際に関係なく産業コードは職業コードを上回った。 社会学研究者がもっともよく利用する SSM 職業コードについて, 実際の利用状況を想定した大分類レベルに合併すると, 正解率は第 1 位に予測されたもので約 $80 \%$ となり, 確信度 A が付与された場合は $99 \%$ となった。また, 確信度 B, 確信度 C が付与された場合の正解率もそれぞれ $87 \%, 62 \%$ となった. これより, 確信度 $\mathrm{C}$ が付与されない事例は, 本システムの結果をそのまま利用できる可能性がある,今後は,別の種類の大分類に合併した場合についても同様の調査を行った後,より高度な分析として多変量解析に利用された場合についても調査する予定である. 国内の社会学において用いられる職業・産業コードは, 今後の社会変動に伴い, さらなる改変が予想される。これは,個々のコードレベルにとどまらず,コード体系が変更される可能性もある。実際,SSM 職業コードでは,すでにISCOに倣った 4 桁の階層的なコード体系が提案されている (三輪 2011)。また,SSM 産業コードも,2015SSM 調査では,ISICとの関係を重視し,これまでの大分類コードから中分類コードに変更された。 さらに,ISCO についても,近い将来, 本システムで用いた ISCO-88(1988 年版)から ISCO-08(2008 年版)に移行することが予想され,この動きはISICにおいても同様であると思われる. このような状況の中で, 新規のコードまたはコード体系が現行のものと単純な対応関係にある場合は問題ないが,そうでない場合には次のような対応を行う予定である。まず,コード体系が変更されずに新規のコードが追加される場合は, 必要に応じてコードを決定するルールや訓練事例の正解を修正する。その際,どの新規コードを用いるかが調査により異なる可能性がある場合には, さまざまな版を用意し, 利用者の希望に応じて選択できる機能が必要である.本機能は, 現在開発中である。次に,コード体系が新しく変更される場合は,これに対応する正解付きの事例を蓄積し, 新規の訓練事例を生成する必要がある (高橋 2016). 職業・産業コー ディングは,大規模調査が終了するたびに正解付きの事例が大量に得られるという利点があるため, この事例から訓練事例を容易に生成することができる機能があれば,迅速な対応が可能になる。本機能はほぼ完成しており,本システムへの追加を予定している. ## 謝 辞 日本版 General Social Surveys (JGSS) は, 大阪商業大学 JGSS 研究センター(文部科学大臣認定日本版総合的社会調査共同研究拠点)が, 東京大学社会科学研究所の協力を受けて実施した研究プロジェクトである。2005 年 SSM 調査データの利用に関して, 2015 年 SSM 調査研究会の許可を得た。東大社研パネル調査プロジェクトにおける職業・産業コーディングの精度向上を目的として,職業・産業の自由記述データの提供を受けた。本研究は JSPS 科研費 25380640 の助成を受けた。 ## 参考文献 1995 年 SSM 調査研究会 (1995). SSM 産業分類・産業分類(95 年版). 1995 年 SSM 調査研究会 (1996). 1995 年 SSM 調查コード・ブック. 原純輔 (1984). 社会調查演習. 東京大学出版会. 原純輔 (2013). 職業自動コーディング. 社会と調査, 11, p. 3. Joachims, T. (1998). "Text Categorization with Support Vector Machines: Learning with Many Relevant Features." In Proceedings of the European Conference on Machine Learning, pp. 137-142. Jung, Y., Yoo, J., Myaeng, S.-H., and Han, D.-C. (2008). "A Web-based Automated System for Industry and Occupation Coding." In Proceedings of the 9th International Conference on Web Information Systems Engineering (WISE-08), Vol. 3518, pp. 443-457. Kressel, U. (1999). "Pairwise Classification and Support Vector Machines." In Schölkopf, B., Burgesa, C. J. C., and Smola, A. J. (Eds.), Advances in Kernel Methods ${ }^{*}$ Support Vector Learning, pp. 255-268. The MIT Press. 黒橋禎夫, 長尾真 (1998). 日本語形態素解析システム JUMAN version 3.61. テクニカル・レポー 卜, 京都大学大学院情報学研究科. 三輪哲(編) (2011). SSM 職業分類・産業分類の改定に向けて(科学研究費補助金基盤研究 A 「現代日本の階層状況の解明一ミクローマクロ連結からのアプローチ」研究成果報告書別冊).大阪商業大学比較地域研究所・東京大学社会科学研究所 (2005). 日本版 General Social Surveys 基礎集計表・コードブック JGSS-2003. Sebastiani, F. (2002). "Machine Learning Automated Text Categorization." ACM Computing Surveys, 34 (1), pp. 1-47. 盛山和夫 (2004). 社会調査法入門. 有斐閣. 高橋和子 (2000). 自由回答のコーディング支援について一格フレームによる SSM 職業コーディ ング自動化システム一. 理論と方法, 15 (1), pp. 149-164. 高橋和子 (2002a). 職業・産業コーディング自動化システムの活用. 言語処理学会第 8 回年次大会論文集, pp. 491-494. 高橋和子 (2002b). JGSS-2000 における職業・産業コーディング自動化システムの適用. 日本版 General Social Surveys 研究論文集JGSS で見た日本人の意識と行動[東京大学社会科学研究所資料第 20 集 $], \mathbf{1}$, pp. 171-184. 高橋和子 (2003). JGSS-2001における職業・産業コーディング自動化システムの適用. 日本版 General Social Surveys 研究論文集 [2] JGSS で見た日本人の意識と行動[東京大学社会科学研究所資料第 21 集], 2, pp. 179-191. 高橋和子 (2008). 機械学習による ISCO 自動コーディング. 2005 年 SSM 調査シリーズ 12 社 会調査における測定と分析をめぐる諸問題, 12, pp. 53-78. 高橋和子 (2011). ISCO 自動コーディングシステムの分類精度向上に向けて一SSM および JGSS データセットによる実験の結果一. JGSS Research Series No. 8: 日本版総合的社会調査共 同研究拠点研究論文集 [11],11, pp. 193-205. 高橋和子 (2016). 職業・産業コーディング自動化システム (平成 $25 \sim 27$ 年度科学研究費補助金 基板研究 (C)「社会調査の基盤を提供する自動コーディグシステムの Web 提供 : その国際化と汎用化」)。 高橋和子,須山敦,村山紀文,高村大也,奥村学 (2005a). 職業コーディング支援システム (NANACO) の開発と JGSS-2003 における適用.日本版 General Social Surveys 研究論文集 [4] JGSS で見た日本人の意識と行動, 4, pp. 225-242. 高橋和子, 高村大也, 奥村学 (2005b). 機械学習とルールベース手法の組み合わせによる自動職 業コーディング. 自然言語処理, $12(2)$, pp. 3-24. Takahashi, K., Takamura, H., and Okumura, M. (2005). "Automatic Occupation Coding with Combination of Machine Learning and Hand-Crafted Rules." In Proceedings of the 9th International Conference on Pacific-Asia Knowledge Discovery and Data Mining (PAKDD'05), Vol. 3518, pp. 269-279. Takahashi, K., Takamura, H., and Okumura, M. (2008). "Direct Estimation of Class Membership Probabilities for Multiclass Classification using Multiple Scores." Knowledge and Information Systems, 19 (2), pp. 185-210. 高橋和子, 田辺俊介, 吉田崇, 魏大比, 李偉 (2013a). 確信度付き職業・産業コーディング自動 化システムの開発と公開. 数理社会学会第 55 回大会報告要旨集, pp. 38-41. 高橋和子, 田辺俊介, 吉田崇, 魏大比, 李偉 (2013b). Web 版職業・産業コーディング自動化シ ステムの開発. 言語処理学会第 19 回年次大会論文集, pp. 769-772. 高橋和子,多喜弘文,田辺俊介 (2016). 職業コーディング自動化システム利用に関する評価一 社会階層研究を事例に一. 数理社会学会第 61 回大会報告要旨集, pp. 31-36. Takahashi, K., Taki, H., Tanabe, S., and Li, W. (2014). "An Automatic Coding System with a Three-Grade Confidence Level Corresponding to the National/International Occupation and Industry Standard: Open to the Public on the Web." In Proceedings of the 6th International Conference on Knowledge Engineering and Ontology Development (KEOD 2014), pp. 369-375. 高村大也 (2010). 自然言語処理シリーズ 1 言語処理のための機械学習入門. コロナ社. 田辺俊介 (2006). ISCO と SSM 職業分類の相違点の検討一国際比較調査における職業データに 関する研究ノート一. 社会学論考, 27, pp. 47-68. 田辺俊介 (2008). SSM 職業分類と ISCO-88 の比較分析. 2005 年 SSM 調査シリーズ 12005 年 SSM 日本調査の基礎分析一構造 ・趨勢 $\cdot$ 方法一, 1, pp. 31-45. 轟亮, 杉野勇 (2013). 入門社会調査法. 法律文化社. ## 略歴 高橋和子: 東京女子大学文理学部数理学科卒. 2007 年東京工業大学大学院総合理工学研究科博士課程修了. 1993 年千葉敬愛短期大学専任講師, 1997 年敬愛大学国際学部専任講師,2001 年同助教授,2008 年より同教授. 博士(工学). 言語処理学会, 数理社会学会, 情報処理学会, 人工知能学会各会員. 多喜弘文 : 2005 年同志社大学文学部社会学科卒 (社会学専攻). 2011 年同大学大学院社会学研究科社会学科博士後期課程修了. 2012 年東京大学社会学研究所助教. 2014 年法政大学社会学部社会学科専任講師, 2016 年より同准教授.博士 (社会学). 日本社会学会, 国際社会学会, 日本教育社会学会, 数理社会学会各会員. 田辺俊介:1999 年東京都立大学人文学部卒 (社会学専攻)。2005 年同大学大学院社会科学研究科社会学専攻博士課程単位取得退学. 2007 年東京大学社会科学研究所助教, 2009 年同准教授. 2013 年より早稲田大学文学学術院准教授.博士 (社会学). 日本社会学会, 数理社会学会, アメリカ社会学会各会員. 李偉:2015 年東京工業大学大学院理工学研究科博士課程単位取得退学. 2016 年株式会社シービーエージャパン入社.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 文脈限定 Skip-gram による同義語獲得 城光 英彰 $\dagger \cdot$ 松田 源立 ${ }^{\dagger \dagger} \cdot$ 山口 和紀咕 } 本論文では, 分布仮説に基づく同義語獲得を行う際に, 周辺単語の様々な属性情報 を活用するために,文脈限定 Skip-gram モデルを提案する.既存の Skip-gram モデ ルでは, 学習対象となる単語の周辺単語 (文脈) を利用して, 単語べクトルを学習 する。一方, 提案する文脈限定 Skip-gram モデルでは, 周辺単語を, 特定の品詞を 持つものや特定の位置に存在するものに限定し, 各限定条件に対して単語ベクトル を学習する。したがって,各単語は,様々な限定条件を反映した複数の単語べクト ルを所持する。提案手法では, これら複数種類の単語ベクトル間のコサイン類似度 をそれぞれ計算し,それらを,線形サポートベクトルマシンと同義対データを用い た教師あり学習により合成することで, 同義語判別器を構成する。提案手法は単純 なモデルの線形和として構成されるため, 解釈可能性が高い. そのため, 周辺単語 の様々な単語属性が同義語獲得に与える影響の分析が可能である。また,限定条件 の変更も容易であり,拡張可能性も高い。実際のコーパスを用いた実験の結果, 多数の文脈限定 Skip-gram モデルの組合せを利用することで,単純な Skip-gram モデ ルに比べて同義語獲得の精度を上げられることがわかった。また, 様々な単語属性 に関する重みを調査した結果,日本語の言語特性を適切に抽出できていることもわ かった. キーワード:同義語獲得,Skip-gram モデル,サポートベクトルマシン ## Automatic Synonym Acquisition Using a Context-Restricted Skip-gram Model \author{ Hideaki Joko ${ }^{\dagger}$, Yoshitatsu Matsuda ${ }^{\dagger \dagger}$ and Kazunori Yamaguchi ${ }^{\dagger \dagger}$ } This research proposes a context-restricted Skip-gram model for acquiring synonyms by employing various properties of the context words. The original Skip-gram model learned the word vector of each target word by utilizing all the context words around it. In contrast, the proposed context-restricted Skip-gram model learns multiple word vector types of each target word by limiting the context words to those pertaining to specific parts of speech or those present at specific relative positions. The proposed method calculates the cosine similarities on multiple word vector types and combines these similarities using linear support vector machines. The proposed method has high interpretability because it is a weighted linear summation of simple models. The interpretability of the proposed method enables us to investigate the degree of influence for acquiring synonyms from various properties of the context words. Moreover,  the proposed method has high extendability because the conditions of context restriction can be easily changed and added. Experimental results using actual Japanese corpora showed that the proposed method aggregating multiple context-restricted models achieved a higher performance than the previous single Skip-gram model. In addition, the estimated weights of various properties of the context words could appropriately elucidate some grammatical characteristics of the Japanese language. Key Words: Synonym Acquisition, Skip-gram Model, Support Vector Machine ## 1 序論 自然言語処理において高度な意味処理を実現する上で,同義語の自動獲得は重要な課題である (乾 2007). 例えば,近年の検索エンジンのクエリ拡張においては同義語辞書が用いられている (内海,小町 2013) が,新出単語に対し全て人手で同義語辞書を整備することは現実的ではない. 同義語の獲得には様々な手法が提案されている. 例えば笠原ら (笠原, 稲子, 加藤 2003) は国語辞典を用いて,見出し語に対して語義文により単語のべクトルを作成した後,シソーラスにより次元圧縮を行う方法で同義語の獲得を行った。また, 渡部ら (渡部, Bollegala, 松尾, 石塚 2008) は,検索エンジンを用いて,同義対を共に含むようなパターンを抽出し,得られたパターンから同義語の候補を得るという手法で同義語の抽出を行い,係り受け解析を行わずとも既存手法と同様の性能が得られることを示した. 一方, これらの研究とは異なり「同じ文脈に現れる単語は類似した意味を持つ」という分布仮説 (distributional hypothesis) (Zellig 1954)に基づいたアプローチも存在する。実際に文脈情報が同義語獲得に有用であるとの報告 (Hagiwara, Ogawa, and Toyama 2006) もあり,加えてその他の手法と組み合わせて使用することが可能であるという利点もある。そこで,本研究では文脈情報を用いたアプローチを検討する。 文脈情報の獲得にも手法が多数存在するが,近年では,分布仮説に基づきニューラルネットワーク的な手法を用いて単語の “意味”を表すべクトル(単語ベクトル)を求める Skip-gram モデル (Mikolov, Chen, Corrado, and Dean 2013) が注目されている. Skip-gram モデルで得られた単語べクトルを利用するとコサイン類似度により単語の意味の類似度が計算できることが知られており,その性能は既存手法より良いという報告 (Schwartz, Reichart, and Rappoport 2015) もある。しかし, Skip-gram モデルでは周辺単語の品詞や語順を無視したものを文脈情報として用いており,有用な情報を無視している可能性がある。実際に既存の Skip-gram モデルでは同義語獲得に失敗する例として,「カタカナ語」と「和語」からなる同義語対の場合, コサイン類似度が低くなることなどが知られており (城光,松田,山口 2015),改善が望まれる。 そこで, 本研究では, Skip-gram を拡張し, 周辺単語の品詞情報や語順情報を取り込み可能なモデル(文脈限定 Skip-gram)を提案する。文脈限定 Skip-gram では,既存の Skip-gram と違い, 周辺の単語のうち, ある条件を満たすもの(特定の単語分類属性(品詞等)や特定の相対 位置)のみを文脈として利用し,単語ベクトルを学習する。たとえば,「カタカナ語」あるいは 「カタカナ語」ではないもの(これを「非カタカナ語」と呼ぶ)のみに周辺単語を限定することによって, 周辺の「カタカナ語」あるいは「非カタカナ語」との関係を強く反映した単語べクトルを学習することができる。そして,そのような様々な限定条件ごとに単語ベクトル及びコサイン類似度を計算し,それらを線形サポートベクトルマシン (SVM) と同義対データを用いた教師あり学習による合成することで,同義語獲得を行った。その結果,日本語の言語特性を適切に抽出して利用できていることがわかった。たとえば,同義語の獲得精度が一番高かったモデルにおいては,「非カタカナ語」および「直後の単語」などの特定の限定条件から得られたコサイン類似度への重みが大きいことがわかった。また,これらの限定条件への重みを大きくすることは,既存の Skip-gram モデルでは獲得が難しかった「カタカナ語」と「和語」からなる同義対の獲得の精度へ大きな影響をあたえることもわかった。 本論文の構成は以下のとおりである。第 2 節では,関連研究について述べる。第 3 節では,提案手法について述べる, 3.1 節では,既存の Skip-gram モデルについて概説し, 3.2 節では,提案する文脈限定 Skip-gram モデルについて説明する,第 4 節では,使用データと予備実験について述べる.4.1節では実験に使用したコーパス及び同義語対/非同義語対の教師デー夕作成方法について,4.2 節では Skip-gram における設定と SVM の素性作成方法に関する予備実験について述べる。第 5 節では提案手法による結果を示し,有効性を議論する。最後に第 6 節において結論を述べる. ## 2 関連研究 同義語の自動推定には様々な手法が存在する,笠原ら (2003) は, 第 1 節に述べたように, 国語辞典の語義文と大規模なシソーラスを用いて単語ベクトルを作成し, 同義語の獲得を行った. また,渡部ら (2008) は,検索エンジンを用いて同義対 (X,Y)を共に含むようなパターンを抽出した後に, 得られたパターンから同義対の候補を抽出し順位付けを行うことで, 同義対(と関連語)を獲得し,係り受け解析を行わずとも既存手法と同様の性能が得られることを示した。これらの手法では, 同義語の推定に, 何らかの単語の素性を使用している。例えば, 笠原ら (2003) はVSM(ベクトル空間モデル)を使用しており,渡部ら (2008) は同義対を共に含むようなパターンを使用している,笠原ら (2003)のような文章中の単語の出現頻度のみを用いた VSM は,語の位置関係を無視し(必然的に,周辺文脈を無視し)ているが,特異値分解やシソーラスなどによる次元圧縮手法が適用可能であり,スパースネスなどの問題を緩和できるという利点を持つ。また,渡部ら (2008)の手法は,パターンを事前に獲得しておくことで新出の同義語を新たに学習すること無く獲得できるという利点がある。これらの素性による同義語獲得は一定の成果を上げているものの,精度の面においてはまだ課題が残る。 一方,第 1 節において述べたように,文脈情報からニューラルネットワーク的な手法を用いて単語の“意味”を表すべクトル(単語ベクトル)を求める手法が,その高い意味獲得精度から注目されている (Schwartz et al. 2015). 文脈情報から単語べクトルを獲得する研究には様々なものがある. 周辺単語の相対位置や語順に着目したものとしては Ling et al. (Ling, Tsvetkov, Amir, Fermandez, Dyer, Black, Trancoso, and Lin 2015)のものや, Trask et al. (Trask, Gilmore, and Russell 2015)のものが挙げられる. Ling et al. (2015)は周辺単語の相対位置を考慮した重み付けを行うことで, Trask et al. (2015) は単語の語順や文字列を利用した Skip-gram モデルを作成することで,文法構造をより反映する単語べクトルが学習できることを示した。また,有賀, 鶴岡 (2015) は周辺単語から中心単語の言い換え表現を予測するタスクにおいて, 周辺単語の語順を考慮して単語べクトルを学習することで, 精度が向上することを報告した. 一方, 周辺単語だけでなく, 他の事前情報を加えた研究も存在する. 例えば, Levy and Goldberg (2014) は係り受け構造を考慮して, 単語ベクトルの学習をし, 意味の類似度判定テストで Skip-gram モデルより高い精度を報告した. Bian, Gao, and Liu (2014) は辞書などの意味情報を加えることで, Yu and Dredze (2014) は辞書情報とコーパスから単語ベクトルを同時に学習することで,意味の類似度判定テストの精度が高まることを示した。 これらの研究は, 周辺文脈に出現する単語の種類だけでなく, 語順や係り受け構造などの条件を加え,その上で単語ベクトルを「同時に」学習することで単語ベクトルの質を高める研究である。このようなモデルそのものに様々な要因をまとめて組み达んで新たなモデルを構築する研究に対して, 本研究では単語ベクトルを限定条件ごとに「個別に」学習し, その後, 同義語を教師あり学習により獲得するアプローチを試みる。具体的には, 第 1 節に述べたように様々な限定条件ごとの単語べクトルを学習し, それらを線形 SVM にて合成することで同義語の獲得を行う. 提案手法では, 線形SVM を用いた重み付けの際に, 教師例として同義対を用いることから, 「同義語の獲得」において重要なものの重みを学習する。そのため, 線形 SVM で学習された重みを見ることで,周辺単語が「同義語の獲得」に与える影響を知ることができる。このように,提案手法には高い解釈可能性がある。また, Skip-gram のモデル自体は変更せず,文脈限定関数で学習データを変更するだけで, 利用する単語属性の追加や変更が可能であるという高い拡張可能性もある. これらの解釈可能性と拡張可能性の二点が, 既存手法に対する提案手法の大きな優位点である. ## 3 提案手法 ## 3.1 既存の Skip-gram モデル ここでは Skip-gram モデル (Mikolov et al. 2013) について概説する. Skip-gram モデルは, ニューラルネットワーク的な手法を用いて,コーパスの文脈情報から,各単語の単語ベクトル を学習する手法の一種である. Skip-gram モデルでは, ある単語 $w_{t}$ が文章内の位置 $t$ に存在した場合,その周辺単語 $w_{t+j}(j \neq 0)$ の発生確率 $p\left(w_{t+j} \mid w_{t}\right)$ を以下の式で与える. $ p\left(w_{t+j} \mid w_{t}\right) \propto e^{v^{\prime}\left(w_{t+j}\right)^{T} v\left(w_{t}\right)} $ ここで,ニューラルネットワークモデル的に言えば, $v(w)$ はある入力単語(中心単語) $w$ に依存した入力用べクトル,$v^{\prime}(w)$ はある周辺単語 $w$ の出力確率を計算するための出力用べクトルである. $v$ および $v^{\prime}$ の次元は事前に与えられる。出力確率は,入力用ベクトルと出力用ベクトルの内積に依存し, 内積が大きい程確率は高くなる。本論文では, わかりやすさのため, $v(w)$ を単語 $w$ の単語ベクトル, $v^{\prime}(w)$ を文脈ベクトルと呼ぶことにする,なお,確率分布は 1 に正規化されるので,語彙に含まれるすべての単語 $w$ での正規化により, $p\left(w_{t+j} \mid w_{t}\right)$ は以下で与えられる。 $ p\left(w_{t+j} \mid w_{t}\right)=\frac{e^{v^{\prime}\left(w_{t+j}\right)^{T} v\left(w_{t}\right)}}{\sum_{w} e^{v^{\prime}(w)^{T} v\left(w_{t}\right)}} $ さらに $p\left(w_{t+j} \mid w_{t}\right)$ から,あるコーパスが与えられたときの尤度関数 $\ell$ あ下の式 (3) で定義する. $ \ell=\sum_{t=1}^{T} \sum_{-c \leq j \leq c, j \neq 0} \log p\left(w_{t+j} \mid w_{t}\right) $ ここで $T$ はコーパスのサイズ, $c$ は文脈空サイズであり, $1 \leq c \leq K$ の範囲で一様分布でランダムに決定される.Kは事前に与えられる最大文脈密サイズである.実際のコーパスを利用して, $\ell$ を最大化する単語べクトル $v(w)$ および文脈べクトル $v^{\prime}(w)$ を求めることが, Skip-gram モデルにおける学習である。なお,本来のモデルは以上の通りであるが,尤度関数 $\ell$ をのままの形で最大化することは,計算量等の問題で困難であるため,実際にはいくつかの近似が用いられる。例えば, (Mikolov et al. 2013) では, 階層的 softmax モデル近似が利用されているが,本論文では説明を省略する。 ## 3.2 文脈限定 Skip-gram モデル 既存の Skip-gram モデルでは, 周辺単語として, 文脈密の中に存在するすべての単語を利用している。そのため, 周辺単語の種類, 語順等の情報を利用することはできない. 本研究では,文脈として利用される単語を限定することで,Skip-gram を改良する。なお,単語べクトルの推定に文脈での語順を考慮した既存研究としては第 2 節に述べた有賀ら (有賀, 鶴岡 2015)のものがあるが,本研究は,文脈間の依存関係を考慮していないという点において有賀らの研究とは異なる。 文脈限定 Skip-gram モデルでは,式 3 の目的尤度関数 $\ell$ が以下のように変更される. $ \ell=\sum_{t=1}^{T} \sum_{-c \leq j \leq c, j \neq 0} \log p\left(w_{t+j} \mid w_{t}\right) \phi\left(w_{t+j}, j\right) $ ここで,文脈限定関数 $\phi\left(w_{t+j}, j\right)$ は,周辺単語 $w_{t+j}$ および相対位置 $j$ がある条件を満たす時のみ 1 となり,それ以外は 0 となる関数である。詳細は省略するが,式 4 は既存の Skip-gram と同様の方法で最大化することが可能である。なお, $w_{t+j}$ とに関係なく常に 1 となる文脈限定関数 ( $\phi_{\text {ALL }}$ と呼ぶ)においては, 式 4 は式 3 と同一である. さて, 本研究では, 基本的な文脈限定関数 $\phi\left(w_{t+j}, j\right)$ として, 周辺単語の品詞, 種類に依存した $\phi_{\mathrm{POS}}^{p}\left(w_{t+j}\right)$, 周辺単語の左右に依存した $\phi_{\mathrm{LR}}^{p}(j)$, 周辺単語の相対距離に依存した $\phi_{\mathrm{WO}}^{p}(j)$ の 3 種類を用いる (これらの文脈限定関数を POS, LR, WO と参照する)。さらに,それらの組み合わせとして「POS-LR」「POS-WO」 も利用する。 $\phi_{\mathrm{POS}}^{p}(w)$ は,単語 $w$ が品詞等のある分類属性を持つ時のみ 1 となる文脈限定関数である.本論文では, 「副詞, 助詞, 動詞, 名詞, 固有名詞, 形容詞, 接頭詞, 数, 記号, カタカナ, 非力タカナ」の計 11 個を分類属性として利用する. 従って, $\phi_{\mathrm{POS}}^{1}(w), \ldots, \phi_{\mathrm{POS}}^{11}(w)$ の 11 種類が存在する。 $\phi_{\mathrm{LR}}^{p}(j)$ は, $j$ が正の時のみ 1 となる関数もしくは $j$ が負の時のみ 1 となる関数である.具体的には $j$ が正の時のみ 1 となる関数 $\phi_{\mathrm{LR}}^{0}(j)$ と, $j$ が負の時のみ 1 となる関数 $\phi_{\mathrm{LR}}^{1}(j)$ の二つが存在する。これらは, 周辺単語が右側にある場合と左側にある場合に対応している。 $\phi_{\mathrm{WO}}^{p}(j)$ は, $\phi_{\mathrm{LR}}^{p}(j)$ のある種の拡張であり, $j=p$ の時のみ 1 となる関数である. 本論文では, 前後 10 単語を対象とすることとした. したがって $, p=-10, \ldots,-1,1, \ldots, 10$ として与えられ,文脈空の特定の相対位置にある時のみに限定する 20 種類の関数となる。さらに,組み合わせにより, $\phi_{\mathrm{POS}-\mathrm{LR}}^{p q}(w, j)=\phi_{\mathrm{POS}}^{p}(w) \phi_{\mathrm{LR}}^{q}(j)$ および $\phi_{\mathrm{POS}-\mathrm{WO}}^{p q}(w, j)=\phi_{\mathrm{POS}}^{p}(w) \phi_{\mathrm{WO}}^{q}(j)$ として新たな文脈限定関数を構成可能である。表 1 に構成可能な文脈限定関数の個数一覧を示す。一つの文脈限定関数に関して一つの Skip-gram モデルが学習されるので, 最大で, 276 個のモデルが利用可能である。なお,相対位置を全て区別する WO, POS-WO に関しては, 元の Skip-gram と異なり, 文脈密サイズ $c$ は常に最大値 $K$ をるものとした. 実際の同義語獲得を行う際には, 学習された各 Skip-gram モデルにおいて単語間のコサイン類似度を計算する (コサイン類似度を用いる理由は 4.2 .2 節において後述する)。本研究では, 各モデルでの類似度を素性とみなし,教師デー夕に基づいて,線形SVM で各々の素性に対する重み 表 1 文脈限定関数の個数一覧 を学習することにより,判定関数を構築する。そのため,提案手法は教師なし学習の Skip-gram を教師あり学習により拡張しているといえる。更に,素性の重みについては線形SVM の値を利用するが, 闇値については $\mathrm{F}$ 值を最大化をするようなものを推定することで(F 值最大化), さらなる最適化を行った。また, SVM 使用の際には加算平均が 0 , 分散が 1 となるように各素性の正規化処理を行った。 ## 4 使用データと予備実験 ## 4.1 使用データ 単語ベクトル作成において用いたコーパスとして,日本語 Wikipedia データ11 (2 Gbytes)を $\mathrm{MeCab}^{2}$ により mecab-ipadic-neologd 辞書 3 を用いて基本形出力でわかち書きと品詞付与を行った後に, 出現回数が 100 回未満の低頻度語を除いたものを使用した。最終的に, Skip-gram モデルで単語ベクトルが獲得された単語は 104,630 種類となった. ただし, 同じ単語であっても品詞が異なるものは区別して扱った. Skip-gram モデル4では,階層的 softmax モデルを用いて学習を行った。 文脈限定 Skip-gram の計算時間については,各々の文脈モデルは独立に学習していることから,計算時間は ALL(既存 Skip-gram)とモデル数を乗算した値で見積もることができる.実際には学習する回数が文脈限定により減少することから,各文脈限定モデルでは基本的に ALL より学習時間が短くなり,計算時間は見積もりより短くなる.実際に全ての文脈限定 Skip-gram $(\mathrm{N}=300)$ の学習に要したトータルの計算時間は, CPU として AMD $1.4 \mathrm{GHz}$ を用いて 20 スレッドの並列処理を行った場合, 60 時間程度であった。なお, ALL $(\mathrm{N}=300)$ の学習時間は 2 時間程度である。また, 一旦単語ベクトルの獲得を行えば, 線形SVM の学習や個々の判定には長い時間は要さない. 同義対の正例として, WordNet 同義対データベーズに含まれる同義対を利用した. 発生頻度が極端に低く Skip-gram で単語ベクトルの獲得できなかった単語を除き, 最終的に 5,848 対を正例として用いた,負例(非同義対)としては,まず,単語べクトルが獲得可能であった単語 (</s>は除く)の中から,ランダムに作成した 17,544 対(正例の 3 倍)を利用した. 更に, 正例に含まれる単語群をランダムに組み合せることで作成した 5,848 対(正例と同数)を,負例として追加した。この負例の追加により, 正例に含まれる特定の単語の出現のみによって同義 ^{1} \mathrm{http}$ ://dumps.wikimedia.org/jawiki/, 2015 年 6 月 5 日取得 2 http://taku910.github.io/mecab/ 3 https://github.com/neologd/mecab-ipadic-neologd, 2015 年 12 月 9 日取得 ${ }^{4}$ https://code.google.com/p/word2vec/にて Google が公開している実装を使用した. 5 http://nlpwww.nict.go.jp/wn-ja/jpn/downloads.html にて NICT が提供する, WordNet (Wen, Eshley, and Bond 2006) を元に人手で作成された同義対データベースである. } 対と誤判定してしまう問題を緩和した. SVM のパッケージとしては Weka(SMO) と SVMlight を用いた。 ## 4.2 予備実験 ## 4.2.1 文脈空 $K$ と次元 $N$ の与える影響 提案手法に関する実験を行う前に, 既存 Skip-gram (ALL) における適切な文脈密 $K$ と単語ベクトルの次元 $N$ を調べる目的で, $K$ と $N$ 違いによる同義語獲得性能の比較を行った. 調查対象とした $K$ は, $1,2,3,4,5,6,7,8,9,10,20,30,50$ の 13 種類, $N$ は 100, 200, 300, 500, $1,000,1,500,2,000,2,500,3,000$ の 9 種類である. $K$ を変更させた際は $N=300$ に, $N$ を変更させた際は $K=5$ に固定した。また,同義語獲得においては ALL で獲得されたコサイン類似度を素性とし,F 值が最大となるような閾値を調べ,その時の F 値を結果として記した。実験結果を図 1 に示す. 実験結果から F-Measure は $K$ が $2 \sim 7$ の時に高くなり,8 以降は減少傾向にあることが分かった.また, $K=2$ の時に $\mathrm{F}$ 値が最大となったが,27の間での $\mathrm{F}$ 值には大きな差がない.そこで,Skip-gramの結果が初期值に依存することを考え,5節の評価実験では,ALLを用いる際は 2〜7の中間付近である $K=5$ を用いることにした. 単語ベクトルの次元 $N$ においては, 100 次元から 500 次元までは次元が高くなるにつれ,急激に $\mathrm{F}$ 值が高くなるが,以降は伸びが緩やかとなり, 1,500 次元から 3,000 次元にかけて $\mathrm{F}$ 值は下がる事がわかる。上記の結果から, 1,000 次元 1,500 次元が最適な次元数であることが分かった。そこで,5 節の評価実験においては,計算時間を考慮しALLについては 1,000 次元としたものを用いる. (a) 文脈空のサイズ $(K)$ による $\mathrm{F}$ 值の変化 $(N=300)$ (b) 次元 $(N)$ による $\mathrm{F}$ 值の変化 $(K=5)$ 図 1 文脈空のサイズ $K$ と次元 $N$ による同義語獲得における $\mathrm{F}$ 値の変化 ## 4.2.2 ベクトル結合方法の比較 第 1 節に述べたようにコサイン類似度に単語の意味の近さが表れるという報告があるが, 本章では実際にコサイン類似度が線形 SVM の素性の作成方法として妥当であることを同義語獲得性能の比較によって示す. 単語べクトルの結合方法には様々考えられる。例えば, (Oyama and Manning 2004)では, 異表記されている同一著者の判定問題において, 著者の論文タイトルや共著者情報などから作成された単語のべクトルをSVM で判定している. Oyama et al. (Oyama and Manning 2004) の研究では素性の作成方法だけでなく, カーネルの変更によっても性能が高まることが示されている。 そこで,予備実験では比較対象として単語べクトルの要素をSVM の素性とし, 同義語獲得を行った。具体的には, 単語べクトルの各々の要素を結合するもの (Combine) と乗算するもの (Multiplication) SVM の素性とした. 例えば, 着目している単語対の単語べクトルを $\left(a_{1}, a_{2}, a_{3}, \ldots, a_{N}\right),\left(b_{1}, b_{2}, b_{3}, \ldots, b_{N}\right)$ とすると, これらの単語べクトルの Combine により作成された SVM の素性は $\left(a_{1}, a_{2}, a_{3}, \ldots, a_{N}, b_{1}, b_{2}, b_{3}, \ldots, b_{N}\right)$ の $2 N$ 次元となり, Multiplication により作成された SVM の素性は $\left(a_{1} \times b_{1}, a_{2} \times b_{2}, a_{3} \times b_{3}, \ldots, a_{N} \times b_{N}\right)$ の $N$ 次元となる. SVM のカーネルにおいては線形カーネルの他に多項式カーネル゙と RBF カーネル7を用いた. また, 閥値の学習は 3.2 節に述べたように $\mathrm{F}$ 值最大化を用いて行った。使用した組み合わせは以下の 6 つである. - Combine + 線形カーネル - Combine + 多項式カーネル(二次) - Combine + RBF カーネル - Multiplication + 線形カーネル - Multiplication + 多項式カーネル(二次) - Multiplication + RBF カーネル とした。 線形 SVM を用いた同義語獲得に関しては, 教師例のデー夕量が 29,240 対(4.2.1 節)と少なくオーバーフィットの可能性が考えられる。そのため, 線形SVM による同義語獲得の際には, 5 分割交差検定により, 精度, 再現率, $\mathrm{F}$ 値を評価した。交差検定の分割はそれぞれの結果について同じであり,結果の比較が可能である. 結果を表 2 に示す。比較対象として, 一番下の行に実験 1 の結果 1 における $K=5(N=300)$ の結果を記した. “Combine + 線形カーネル", "Combine + RBF カーネル", "Multiplication + RBF カーネル"においては正例(同義対)と負例(非同義対)を分離可能な超平面が作成できず,  表 2 SVM における素性作成方法や使用カーネルと同義語獲得精度の関係 単語ベクトルの次元は全てにおいて $N=300$ SVM が全てのデータを負例として識別するように学習したため, 精度も $\mathrm{F}$ 值も計算不能であった. F 值が計算可能であった"Combine + 多項式”, “Multiplication + 線形”, “Multiplication + 多項式”に関しても,コサイン類似度の $\mathrm{F}$ 值を大幅に下回った。以上の結果から本論文においては素性の作成方法としてコサイン類似度を用いて分析を行うこととする。 ## 5 実験結果 ここでは,提案手法(文脈限定 Skip-gram)による同義語獲得の性能の評価実験を行った,学習時における最大文脈窓サイズ $K$ に関しては,文脈限定の無い既存 Skip-gram (ALL) については 4.2.1 節に述べたように $K=5$ とし, 他のモデルに関しては学習対象になる周辺単語の数が減少することを考慮に入れ $K=10$ とした。単語べクトルの次元数 $N$ も 4.2 .1 節に述べたように ALLのみ $N=1,000$ とし, その他のモデルに関しては計算時間を考慮し $N=300$ とした. ある文脈限定関数について一つの素性が対応する。本研究では, 表 1 の文脈限定関数の組み合わせにより素性群を作成した。なお,すべての素性群は必ず ALLを含むものとした。 与えられた素性群について線形 SVM で重みを学習した.4.2.2 節と同様の理由で, 線形 SVM による同義語獲得においては 5 分割交差検定により,精度,再現率, $\mathrm{F}$ 值を評価した.交差検定の分割も,4.2.2 節と同様にそれぞれの結果について同じである. 提案手法を用いた同義語獲得の結果を表 3 に示す. 最初の 5 行は, ALL と一つのタイプの文脈限定関数群を組み合せた結果である ${ }^{8}$. その次の行は, ALL と複数タイプの組み合わせ $2^{5}$ の 32 通りの中で,F 值が最も高くなった結果を表示している。たたし,十分に素性を含んでいるものに関しては F 値の差がそれほど見られなかった. 最後の行に, 既存の Skip-gram モデルと  の比較として,ALLのみを用いた結果を示した。表 3 において,ALLと一つのタイプのみの文脈限定関数を組み合わせた場合でも,「ALL + WO」「ALL + POS-LR」「ALL + POS-WO」で既存手法の $\mathrm{F}$ 值を上回ることが示されている。これは, 同義語獲得において, 周辺単語の相対的な位置およびその品詞などの分類属性が, 重要な情報であるということを示している。また,提案手法における $\mathrm{F}$ 値最大となる組み合わせは,「ALL + POS-LR + POS-WO 」であり,F 値は 0.792 となった. これは既存手法の最大 $\mathrm{F}$ 値である 0.712 より高い. 次に,本手法の解釈可能性の高さを実証するために,提案手法において $\mathrm{F}$ 值が最大であった $\lceil\mathrm{ALL}+$ POS-LR + POS-WO」の組み合わせ(以後,「MAX」と参照)の線形SVM の重みについてのグラフを図 2 から図 5 に示す。重みの値が大きければ同義対の判定に正の影響を,值が小さければ負の影響を与え,0であれば影響を及ぼさない,R1, L1 など中心単語から見た時の相対的位置が「右 1 つ目」,「左 1 つ目」であることを示している。 まず,図 2 と図 3 の考察を行う. 図 2 を見ると, 中心単語の直後の単語が同義語獲得に大き 表 3 文脈限定 Skip-gram による同義語獲得精度の評価 単語ベクトルの次元は ALL は $\mathrm{N}=1,000$, その他は $\mathrm{N}=300$ 図 2 MAXにおける相対的位置ごとの重みの合計:各相対位置について,POS-WO における重みを,すべての POS 分類属性に関して合計した値を示した. な影響を及ぼしていることが分かる。また,影響の大きさは中心単語から離れれば離れるほど減っていくこともわかる。また,図 3 からは,非カタカナ語の重みが他の分類属性と比較した時に一番大きいことが分かる。これは 1 節で述べたように非カタカナ語に注目することが重要であることを示している. 次に,図 4 と図 5 の考察を行う,図 4 から, 一般に同義語獲得においては, 右側 $(R, R 1 \sim R 10)$ の影響が左側 $(\mathrm{L}, \mathrm{L} 1$ L 10$)$ の影響より大きいことがわかる。一方で,これを品詞ごとにわけたものが図 5 である。図 5 から,動詞や非カタカナ語に関しては右側にある単語の与える影響が大きいことがわかる。これは,全体として右側が与える影響が強い(図 4)ことから,その性質を反映していると考えられる。一方,形容詞や接頭詞においては,左側にある単語の方が同義語獲得に大きな影響を与えることがわかる。これは,形容詞や接頭詞は修飾する単語の左側に付くことが多いためであると考えられる。このように,周辺単語の単語属性や相対位置をそれ 図 3 MAXにおける分類属性ごとの重みの合計:各 POS 分類属性について, POS-WO と POS-LR における重みを,全ての相対位置 (L, R, L1-L10, R1-R10) に関して合計した値を示した. 図 4 MAXにおける左右に着目した相対的位置ごとの重みの合計 : 左側は L と L1 から L10 までの POSWO と POS-LR における重みの合計を,右側は R と R1 から R10 までの合計を示した。すべての POS 分類属性についても合計している. ぞれ区別して扱うことで,日本語の性質を反映した同義語獲得が可能になると考えられる. さて, 同義語獲得の具体的な問題として, 第 1 節において, カタカナ語と和語からなる同義対のコサイン類似度が低くなるという報告があると述べた。そこで,提案手法でこの問題が解決されるかを調べた。そこで,ALLと MAXについて,カタカナ語と和語からなる対の同義語獲得問題に関する性能を比較した,正例の同義対の中で,対の片方がカタカナ語であり,もう一方が和語のものは, 2,457 対存在した. 同様に負例は 7,782 対存在した. このデータセットを利用した性能比較の結果を表 4 に示す. 既存手法 ALL と比べ, 提案手法 MAX の精度, 再現率は高い値を示している。また,具体的な成功例として,ALLでは非同義対と判定され MAXにて同義対と正しく判定されたもののうち ALLでの順位が低いもの 10 例を表 5 に示す。一方,失敗例として ALLでは獲得できていたが MAX で獲得不可能になった同義対のうち ALLでの 図 5 MAXにおける単語分類属性に着目した左右の相対位置ごとの重みの合計:POS 分類属性ごとに左側 (L, L1~L10) と右側 $(\mathrm{R}, \mathrm{R} 1 \sim \mathrm{R} 10)$ の POS-WO と POS-LR における重みを合計した値を示した. 表 4 カタカナ語と和語からなる対の同義語獲得における ALLと MAXの性能比較 表 5 MAXにおいて獲得可能となった同義対のうち ALLでの順位が低い対 表 6 ALL においては獲得できたが MAXでは獲得不可能になった同義対のうち ALLでの順位が高い対 順位が高いもの 10 例を表 6 に示す。また,それぞれの表には ALL と MAXにおけるSVM の学習に用いた単語対 $(29,240$ 対) の中での順位も示した. なお,ここでいう順位とは線形SVM の値と $\mathrm{F}$ 値最大化によって得られた閾値の距離を降順に並べた時の順位である. 表 5 の 10 例中 7 例はカタカナ語と和語からなる対であるが, ALLでは獲得が難しかったこれらの対の順位がMAXでは高くなっていることがわかる. このことから, カタカナ語と和語からなる対に対してMAX が有効であるといえる。一方,MAXにおいて獲得不可能になった対(表 6)を見ると, カタカナ語と和語からなる対が少ないことが読み取れる。これは, カタカナ語と和語からなる対の ALLの値が低くなること, および, MAXにおいてはカタカナ語と和語/漢語の対の獲得性能が向上しているためであると考えられる。 第 1 節に述べたように, カタカナ語は周辺単語にカタカナ語を生じやすいが, 非カタカナ語は周辺単語に非カタカナ語を生じやすいという傾向がある. そのため, 周辺単語から中心単語のベクトル表現を学習するというモデルでは,「カタカナ語と非カタカナ語からなる同義対」の獲得が難しいという問題点があった. 提案手法では, 図 3 に示したように, 周辺単語を非カタカナ語に限定した要素の重みを線形 SVM を用いて最適に調節することで,上記の問題を緩和し, カタカナ語と和語/漢語からなる同義対の獲得精度を高めることができたと考えられる。 ## 6 結論 本研究では, 同義語獲得において周辺単語の相対位置や品詞等の様々な属性情報を利用するために, Skip-gram モデルを改良し, 文脈限定関数を利用した手法を提案した. 実験の結果, 周辺単語の語順や品詞を考慮して文脈を限定し, それらの影響の重みを線形SVM で推定することで,同義語獲得の精度を向上させることができることがわかった。また, 中心単語の直後の 単語と非カタカナ語が同義語獲得に大きな影響を与えていること, 及び, 全体としては相対位置が右側にある単語の与える影響が大きいが,形容詞や接続詞においては,逆に左側の与える影響が大きいことがわかった。 本研究のひとつの大きな優位点は,文脈情報や単語分類属性(品詞等)を用いて Skip-gram を「個別に」学習したものを組み合わせることで,同義語獲得において重要であると考えられる周辺単語の性質を知ることができる高い解釈可能性である。もうひとつの大きな優位点は, Skip-gram のモデル自体は変更せず,文脈限定関数で学習データを変更するだけで,利用する単語属性の追加や変更が可能であるという高い拡張可能性である。本論文で挙げた属性以外にも,容易に他の有用と考えられる単語属性を利用することができる。本手法を,既存の辞書べースの手法 (笠原他 2003) や検索エンジンを利用する手法 (渡辺他 2008) 等と組み合わせることで, さらに同義語獲得精度を向上させることができると期待される. 以下,今後の課題について述べる。最初に多義性の問題に関して述べる。提案手法と既存手法の両者において獲得に失敗した単語対の傾向を観察したところ,その単語の多くに多義性が見られた.既存手法の Skip-gram モデルおよび提案手法である文脈限定 Skip-gram モデルは 1 つの単語につき 1 つの “意味”しか学習できないため, このような傾向が生じると考えられる. この問題は, 多義性の問題の解決を試みた Skip-gram モデル(Neelakantan, Shankar, Passos, and McCallum (2015), Bartunov, Kondrashkin, Osokin, and Vetrov (2015), Cheng, Wang, Wen, Yan, and Chen (2015) など)を提案手法と組み合わせ同義語獲得に適用することで解決できる可能性がある. 第二に,データスパースネスの問題について述べる。既存手法では獲得に成功していたが提案手法において失敗するようになった単語については一般的には使われない単語が多く見受けられたが,これは文脈限定 Skip-gram モデルでは文脈を限定していることから既存手法よりもデータスパースネスに弱くなり,低頻度語の“意味”の獲得精度が弱まっていることが原因であると考えられる。この問題は, “Yahoo! 知恵袋データ"9など,他のコーパスも加えデータサイズを増やすことで本問題を緩和可能であると考えられる。また, Skip-gram における学習の特徵として, 局所最適解の影響により, 単語べクトルが実行ごとに結果が変化することが知られている (Suzuki and Nagata 2015),そこで,コーパスのデータサイズを増やすことでこのような局所最適解の影響を調査することも必要であると考えられる. 第三に,文脈限定関数の構築方法に関して述べる。本研究では多くの文脈限定関数について (品詞)辞書を使用したが, 表 3 からもわかるように, (品詞) 辞書情報を必要としない ALL+WO においても既存手法に比べて大きな $\mathrm{F}$ 値の向上が見られた. このことから,位置情報を始めとする,辞書情報を必要としない文脈限定関数を利用することでも精度が更に高まる可能性があ ^{9}$ http://www.nii.ac.jp/dsc/idr/yahoo/chiebkr2/Y_chiebukuro.html } ると考えられる。このような文脈限定関数としては, 本研究で述べた LR $\mathrm{WO}$ 以外にも「ある特定の文脈窓内(例えば,L2~L5 以内)に含まれるかどうか」によって限定するものも考えられる。また, 辞書を使用するものに関しても「内容語か機能語か」という限定の仕方なども考えられる。これら「文脈空内に含まれるかどうか」や「内容語か機能語か」といった限定条件の変更は, 文脈の限定の程度を緩和することから,上に述べたデータスパースネスの問題を緩和することにも繋がる点でもメリットがある. 最後に, 同義対教師データについて述べる,今回は教師例が少ないため最善モデルの $\mathrm{F}$ 値の推定にとどまったが,今後はさらに教師例を収集して,提案手法の正確な $\mathrm{F}$ 値の推定を行う必要があると考えられる。 以上を踏まえ,今後は多義性の問題緩和と,コーパスのサイズや同義対教師例の増加,文脈限定関数の変更・追加により,提案手法のさらなる精度向上を目指していく予定である. ## 参考文献 有賀竣哉, 鶴岡慶雅 (2015). 単語のベクトル表現による文脈に応じた単語の同義語拡張. 言語処理学会第 21 回年次大会発表論文集 (NLP2015), pp. 752-755. Bartunov, S., Kondrashkin, D., Osokin, A., and Vetrov, D. (2015). "Breaking Sticks and Ambiguities with Adaptive Skip-gram." CoRR, arXiv:1502.07257. Bian, J., Gao, B., and Liu, T.-Y. (2014). "Knowledge-powered Deep Learning for Word Embedding." In Joint European Conference on Machine Learning and Knowledge Discovery in Databases, pp. 132-148. Springer. Cheng, J., Wang, Z., Wen, J.-R., Yan, J., and Chen, Z. (2015). "Contextual Text Understanding in Distributional Semantic Space." In ACM International Conference on Information and Knowledge Management (CIKM). ACM - Association for Computing Machinery. Hagiwara, M., Ogawa, Y., and Toyama, K. (2006). "Selection of Effective Contextual Information for Automatic Synonym Acquisition." In Proceedings of Coling/ACL2006, pp. 353-360. 乾健太郎 (2007). 自然言語処理と言い換え. 日本語学, 26 (13), pp. 50-59. 城光英彰, 松田源立, 山口和紀 (2015). 同義語判定問題を用いた語義べクトルの評価の検討. 人工知能学会インタラクティブ情報アクセスと可視化マイニング研究会, 10, pp. 21-25. 笠原要, 稲子希望, 加藤恒昭 (2003). テキストデータを用いた類義語の自動作成. 人工知能学会論文誌, $18(4)$, pp. 221-232. Levy, O. and Goldberg, Y. (2014). "Dependency-Based Word Embeddings." In Proceedings of $A C L$, pp. 302-308. Ling, W., Tsvetkov, Y., Amir, S., Fermandez, R., Dyer, C., Black, A. W., Trancoso, I., and Lin, C.-C. (2015). "Not All Contexts Are Created Equal: Better Word Representations with Variable Attention." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1367-1372, Lisbon, Portugal. Association for Computational Linguistics. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013). "Efficient Estimation of Word Representations in Vector Space." Proceedings of Workshop at International Conference on Learning Representations (ICLR), arXiv:1301.3781. Neelakantan, A., Shankar, J., Passos, A., and McCallum, A. (2015). "Efficient Non-parametric Estimation of Multiple Embeddings per Word in Vector Space." CoRR, arXiv:1504.06654. Oyama, S. and Manning, C. D. (2004). "Using Feature Conjunctions across Examples for Learning Pairwise Classifiers." In Prodeedings of the 15th European Conference on Machine Learning (ECML2004), pp. 322-333. Schwartz, R., Reichart, R., and Rappoport, A. (2015). "Symmetric Pattern Based Word Embeddings for Improved Word Similarity Prediction." In Proceedings of CoNLL, pp. 258-267. Suzuki, J. and Nagata, M. (2015). "A Unified Learning Framework of Skip-Grams and Global Vectors." In Proceedings of $A C L$, pp. 186-191. Trask, A., Gilmore, D., and Russell, M. (2015). "Modeling Order in Neural Word Embeddings at Scale." In Proceedings of the 32nd International Conference on Machine Learning (ICML), pp. 2266-2275. 内海慶, 小町守 (2013). ウェブ検索クエリログとクリックスルーログを用いた同義語獲得. 情報処理学会論文誌, 6 (1), pp. 16-28. 渡部啓吾, Danushka Bollegala, 松尾豊, 石塚満 (2008). 検索エンジンを用いた関連語の自動抽出. 人工知能学会全国大会論文集. Wen, H. M. S., Eshley, G. H., and Bond, F. (2006). "Using WordNet to predict numeral classifiers in Chinese and Japanese." In The 6th International Conference of the Global WordNet Association, p. 211. Yu, M. and Dredze, M. (2014). "Improving lexical embeddings with semantic knowledge." In Proceedings of $A C L$, pp. 545-550. Zellig, H. (1954). "Distributional Structure." Word, 10 (23), pp. 146-162. ## 略歴 城光英彰:2014 年早稲田大学基幹理工学部応用数理学科卒業. 2016 年東京大学大学院総合文化研究科広域科学専攻修士課程修了. 同年, 三菱電機 (株) 情報技術総合研究所入社. 言語処理に関する研究開発に従事. 松田源立:1997 年東京大学教養学部卒業. 2002 年東京大学大学院総合文化研究科博士課程修了. 博士 (学術). 学振特別研究員 (PD), 青山学院大学理工学部助教を経て, 2013 年より東京大学大学院総合文化研究科学術研究員. 山口和紀 : 1979 年東京大学理学部数学科卒業. 1985 年理学博士 (東京大学). 1992 年東京大学教養学部助教授. 2007 年より東京大学大学院総合文化研究科教授.コンピュータのためのモデリング全般に興味を持つ.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 文字列正規化パタンの獲得と崩れ表記正規化に基づく 日本語形態素解析 斉藤いつみ $\dagger$ ・貞光 九月 $\dagger \cdot$ 浅野 久子†・松尾 義博 $\dagger$ } ソーシャルメディア等の崩れた日本語の解析においては, 形態素解析辞書に存在し ない語が多く出現するため解析誤りが新聞等のテキストに比べ増加する. 辞書に存在しない未知語の中でも, 既知の辞書語からの派生に関しては, 正規形を考慮しな がら解析するという表記正規化との同時解析の有効性が確認されている. 本研究で は, これまで焦点があてられていなかった, 文字列の正規化パタン獲得に着目し, ア ノテーションデータから文字列の正規化パタンを統計的に抽出する。統計的に抽出 した文字列正規化パタンと文字種正規化を用いて辞書語の候補を拡張し形態素解析 を行った結果,従来法よりも再現率,精度ともに高い解析結果を得ることができた. キーワード:表記正規化,形態素解析,文字列アライメント ## Morphological Analysis for Japanese Noisy Text based on Extraction of Character Transformation Patterns and Lexical Normalization \author{ Itsumi Saito ${ }^{\dagger}$, Kugatsu Sadamitsu ${ }^{\dagger}$, Hisako Asano ${ }^{\dagger}$ and \\ YOSHIHIRO Matsuo ${ }^{\dagger}$ } \begin{abstract} Social media texts are often written in a non-standard style and include many lexical variants such as insertions, phonetic substitutions, and abbreviations that mimic spoken language. The normalization of such a variety of non-standard tokens is one promising solution for handling noisy text. A normalization task is very difficult for the morphological analysis of Japanese text because there are no explicit boundaries between words. To address this issue, we propose a novel method herein for normalizing and morphologically analyzing Japanese noisy text. First, we extract character-level transformation patterns based on a character alignment model using annotated data. Next, we generate both character-level and word-level normalization candidates using character transformation patterns and search for the optimal path based on a discriminative model. Experimental results show that the proposed method exceeds conventional rule-based system in both accuracy and recall for word segmentation and POS (Part of Speech) tagging. \end{abstract} Key Words: Normalization, Morphological Analysis, Character Alignment  ## 1 はじめに 近年 Twitter 等を代表とするマイクロブログが普及し, 個人によって書かれたテキストを対象とした評判分析や要望抽出, 興味推定に基づく情報提供など個人単位のマーケティングのニー ズが高まっている。一方このようなマイクロブログ上のテキストでは口語調や小文字化, 長音化, ひらがな化, カタカナ化など新聞等で用いられる標準的な表記から逸脱した崩れた表記(以下崩れ表記と呼ぶ)が多く出現し, 新聞等の標準的な日本語に比べ形態素解析誤りが増加する. これらの崩れ表記に対し, 辞書に存在する語にマッピングできるように入力表記を正規化して解析を行うという表記正規化の概念に基づく解析が複数提案され, 有効性が確認されている (Han and Baldwin 2011; Han, Cook, and Baldwin 2012; Li and Liu 2012). 日本語における表記正規化と形態素解析手法としては, 大きく (1)ルールにもとづいて入力文字列の正規化候補を列挙しながら辞書引きを行う方法 (Sasano, Kurohashi, and Okumura 2013; 岡, 小町, 小木曽,松本 2013; 勝木, 笹野, 河原, 黒橋 2011), (2) あらかじめ定めた崩れ表記に対し, 適切な重みを推定するモデルを定義し,そのモデルを用いて解析を行う方法 (Kaji and Kitsuregawa 2014;工藤, 市川, Talbot, 賀沢 2012) が存在する. (1) では事前に定めた文字列レベルの正規化パ夕ンに基づいて崩れた文字列に対し正規文字列を展開しながら解析するシンプルな方法が提案されている。(2)においては鍜治ら (Kaji and Kitsuregawa 2014)は形態素正解データから識別モデルを学習し, 崩れ表記を精度よく解析する方法を提案した. 工藤ら (工藤他 2012)は崩れ表記の中でもひらがな化された語に着目し, 教師なしでひらがな語の生成確率を求める手法を提案した。 (1), (2)いずれの手法においても, 崩れ表記からの正規表記列挙に関しては人手によるルー ルやひらがな化などの自明な変換を用いているが, 実際に Web 上で発生する崩れ表記は多様でありこれらの多様な候補も考慮するためには実際の崩れ表記を収集したデータを用いて正規化形態素解析に導入することが有効と考えられる. 本研究では, 基本的には従来法 (勝木他 2011; 岡他 2013) と同様の文字列正規化パタン (「うう」)等を用いて辞書引きを拡張するという考え方を用いるが,文字列正規化パ夕ンを人手で作成するのではなく,正規表記と崩れ表記のアノテーションデータから自動的に推定される文字列アライメントから統計的に求める。また, 文字列正規化パタンと, ひらがな化・カタカナ化などの異文字種展開を組み合わせることによって正規化の再現率を向上させる.さらに,今回の手法では可能性のある多数の正規化文字列を列挙するため, 不要な候補も多く生成される. これらの不要な候補が解析結果に悪影響を及ぼさないようにするため, 識別学習を用いて文字列正規化素性や文字種正規化素性, 正規語言語モデルなどの多様な素性を考慮することにより,崩れ表記の正規化解析における再現率と精度の双方の向上を試みる。 本研究の対象範囲は, 音的な類似という点で特定のパタンが存在すると考えられる口語調の 崩れ表記や, 異表記(小文字化, 同音異表記, ひらがな化, カタカナ化)とした。これらを対象とした理由は, (Saito, Sadamitsu, Asano, and Matsuo 2014; Kaji and Kitsuregawa 2014)などでも示されているように,音的な類似性のある崩れ表記が全体の中で占める割合が大きいとともに今回の提案手法で統一的に表現できる現象であったためである. ## 2 関連研究 日本語の正規化と形態素解析に関する研究は先に述べたように大きく 2 つ存在する. 文字列正規パタンに基づいて入力文を動的に展開しながら解析する笹野らの手法 (Sasano et al. 2013) では,小文字 $\rightarrow$ 大文字,長音 $\rightarrow$ 母音,促音 $\rightarrow$ 削除などのシンプルな正規化パタンを用いている.例えば,「すっごーい」という入力文に対し,促音と長音を削除した「すごい」も辞書引きの候補とする方法である。この手法はシンプルでありながら結果の有効性が示されているが,パタンは人手で作成され変換コストも一定値が用いられている. Web 上には多様な表記摇れバリエーションが存在し, 人手でカバーできる範囲には限界がある。また崩れ表記には生起しやすいパタンと生起しにくいパタンが存在するため, 変換ルールを増やして精度を向上させる場合にはそれらの生起しやすさを適切に考慮する必要がある。コストを適切に推定する,という観点では, 鍜治ら (Kaji and Kitsuregawa 2014), 工藤ら (工藤他 2012) がそれぞれ教師あり学習の手法, 教師なし学習の手法を示しており有効性が確認されているが, いずれも正規化パタンについては人手で設定しており, 正規化パタンのバリエーションを拡張する検討はなされていない.これらの手法においても,どのように正規化パタンそのものを増やすかという問題はより高精度な正規化解析において検討すべき重要な課題である。また,崩れ表記のカバー率を増やすと同時に,正規化によるデグレードをできるだけ抑制することも形態素解析においては重要な観点となる. 本研究では, 正規化パタンのカバー率を向上させるため, Web 上から崩れ表記を収集し各崩れ表記に対し正規表記をアノテーションしたぺアデータを用いて文字列レベルの正規化パタンとその生起確率を計算する。そして, これらのパタンを用いて崩れ表記に対応する正規化候補を形態素ラティス内に拡張し正規語も含めた正解系列を推定することにより,崩れ表記の正規化解析における再現率と精度の双方の向上を試みる. ## 3 提案手法 ## 3.1 提案手法の全体像 本研究の全体構成を図 1 に示す. 我々の提案手法は, まずWeb 上から収集した崩れ表記に対し,正規表記のアノテーションを施したぺアデータから自動的に文字列正規化パタンを抽出す 図 1 提案手法の全体構成 る.そして,その文字列正規化パタンに基づき辞書語の拡張を行い解析を行う。辞書語の拡張においては,計算量削減のため事前に展開可能なものは事前に正規化辞書として展開を行い,動的照合が必要なものに関しては入力文に対して動的に文字列を拡張させながら辞書引きを行うことで実現する。デコーディングに際しては, 複数の素性を用いた識別モデルを用いて最適な表記,正規表記,品詞系列を選択する,以下,それぞれに関して詳細を記述する. ## 3.2 崩れ表記と正規表記の文字列アライメント 本研究では, 文字列正規化パタンとその生起しやすさを推定するため, 正規 - 崩れ表記の正解ペアデータを用いる.英語における表記正規化の研究 (Yang and Eisenstein 2013) においては人手アノテーションをせずに単語区切りを利用して自動的に正規 - 崩れ表記のぺアを抽出する研究も存在するが, 日本語の場合は単語区切りが不明であり, 英語に対して提案されている手法を適用するのは困難なため正解データのアノテーションを行うこととした. 正解ペアデータの作成に際しては,まず崩れ表記を含むテキスト(ブログや Twitter)から崩れ表記(例:おいし一い)を人手で抽出する。そして, 抽出した崩れ表記に対して人手で正規 これらのペアデータ(おいしーい,おいしい)から文字列アライメントの推定に基づき文字列レベルの正規化パタンを統計的に抽出する(例: $\rightarrow$ null, い $\rightarrow \omega)$. 本研究では, 複数文字列のアライメントが扱える Jiampojamarn らの研究 (Jiampojamarn, Kondrak, and Sherif 2007) を参考に,ペア文字列間の最適系列を下記のように定式化する. $ \hat{\mathbf{q}}=\underset{\mathbf{q} \in K(d)}{\arg \max } \prod_{q \in \mathbf{q}} p(q) $ 表 1 崩れ表記抽出と正規表記付与の例 ここで, $d$ は崩れ表記と正規表記のぺアを表す変数である(例:かなあーり,かなり). $q$ は $d$ 中の部分文字列アライメントを表し(“なあー,な”など), $\mathbf{q}$ は $d$ 中のアイメント $q$ の系列を表す(例えば図 2 中の経路 1 の部分文字列アライメント系列 \{(“かな,かな”),“あ一,null”), (“り,り”)\}. $K(d)$ は,dにおける部分文字列アライメント系列 $\mathbf{q}$ の可能な集合を表す. 本研究では, $p(q)$ を (Bisani and Ney 2008) や (Kubo, Kawanami, Saruwatari, and Shikano 2011)によって提案された $\mathrm{EM}$ アルゴリズムを用いて求める。 $p(q)$ は下記の式 $(2)$ によって定められる。 $ \begin{aligned} & p(q)=\frac{\gamma(q)}{\sum_{q^{\prime} \in Q} \gamma\left(q^{\prime}\right)} \\ & \gamma(q)=\sum_{d \in D} \sum_{\mathbf{q} \in K(d)} p(\mathbf{q}) \sum_{\bar{q} \in \mathbf{q}} \delta(\bar{q}=q)=\sum_{d \in D} \sum_{\mathbf{q} \in K(d)} \frac{\prod_{q^{\prime} \in \mathbf{q}} \bar{p}\left(q^{\prime}\right)}{\sum_{\mathbf{q}^{\prime} \in K(d)} \prod_{q^{\prime} \in \mathbf{q}^{\prime}} \bar{p}\left(q^{\prime}\right)} \sum_{\bar{q} \in \mathbf{q}} \delta(\bar{q}=q), \end{aligned} $ ここで, $D$ は $d$ の集合, $Q$ は $q$ の集合を表す.また, $\delta(\bar{q}=q)$ は $\bar{q}=q$ のときに 1 となる変数であり, $\sum_{\bar{q} \in \mathbf{q}} \delta(\bar{q}=q)$ は $\mathbf{q}$ おける $q$ の出現数を表す. $\bar{p}(q)$ は下記で示す繰り返し計算ステップにおける,前回の $p(q)$ の計算結果を表す。部分文字列に関しては, 崩れ表記の正規化においてできるだけ単語間で共通して起こる短い文字列のパタンを抽出したいという目的から,6文字以下のみのパタンを考慮することとした。また, 本研究では, $K(d)$ として n-best 解を用いた. (1) step1: 初期值設定 EM アルゴリズムを用いた推定は初期値に大きく影響されるため, 初期値としてまずあらかじめ定めたコストに基づいてアライメントを行い, その後式 (2)に従ってアライメントを求めた. 初期値として, 同じ文字同士と同じ文字同士のひらがな・カタカナ変換 (あ-ア,オ-お,など)の 1 文字変換のコストを 0 とし, 複数文字アライメントに関しては文字列 $a, b$ の文字長 $l_{a}, l_{b}$ を用いて $l_{a}+l_{b}$ をアライメントのコストとした. たたし, 同 図 2 正規表記と崩れ表記の文字列アライメント計算例 じ文字同士の複数文字のアライメントに関するコストは 0 とした(例:い-いいい)。これらの設定は, 同じ文字同士のアライメント確率が高くなるような事前知識として導入した. (2) step2: 期待値の計算 現在の確率値 $\bar{p}(q)$ を用いて, 各アライメント $q$ の期待出現回数 $\gamma(q)$ を計算する. (3) step3: 経路確率とアライメントの計算 step2 で求めた $\gamma(q)$ を用いて, 各アライメントの確率值 $p(q)$ を更新する. (4) step4: 繰り返し アライメントが収束するまで step2,3 を繰り返す。 アライメントの具体例を図 2 に示す. また,アライメントモデルからは非常に出現頻度が低い文字列正規化パタンも抽出されるため, 抽出されたアライメントから正規化形態素解析に用いる文字列正規化パタンをフィルタリングした. フィルタに際しては, $\gamma(q)$ と $r(q)$ を閥値として用いた. ここで, $q=\left(c_{w}, c_{v}\right)$ とし, $c_{w}$ を抽出された文字列正規化パタンにおける崩れ表記の部分文字列, $c_{v}$ を正規表記の部分文字列と表すと,$r\left(c_{w}, c_{v}\right)$ は $r\left(c_{w}, c_{v}\right)=\gamma(q) / n_{c_{w}}$. として計算した. ここで, $n_{c_{w}}$ は $c_{w}$ が学習コー パス中に出現する総出現数である.今回は, $\gamma_{\text {thres }}=0.5, r_{\text {thres }}=0.0001$ として閥値を設定し, $\gamma(q)<\gamma_{\text {thres }}$ または $r\left(c_{w}, c_{v}\right)<r_{\text {thres }}$ の場合は削除した. また, $r\left(c_{w}, c_{v}\right)$ は 3.5.2で述べる識別モデルの素性の一つとしても使用した. ## 3.3 文字列正規化パタンと文字種変換を用いた基本辞書の拡張 前項で示した文字列正規化パタンを形態素解析に組み込むにあたり, 計算の効率化のため事前展開可能な候補についてはあらかじめ基本辞書に存在する辞書語に対し文字列変換を行って正規化辞書として事前展開する. ここで, 基本辞書とは一般に配布されている形態素解析用の辞書のことを指す. 具体的には, 得られた文字列正規化パタンのうち, 正規文字列の削除・置換パタンに関してはあらかじめ基本辞書の文字列を変換して崩れ表記化を行い, 正規化辞書を作成した. 崩れ文字列の插入に関しては, 正規単語のあらゆる箇所に插入されることが考えられ,すべてのパタンを事前展開することは非効率的であるため, 動的展開の文字列パタンとし て用いた. さらに, Twitterなどのテキストでは, 標準的な表記が漢字やカタカナの単語に関してひらがな表記される,あるいは標準的な表記が漢字やひらがなの単語がカタカナで表記される場合が多く存在する。これらの現象に関しては文字列正規化パタンから文字列単位で候補生成を行うことは非効率であるため,基本辞書の読みを利用して辞書を拡張する。これらを文字種正規化候補と呼ぶ。学習データが大量に存在すれば,このような文字種変換についても文字列正規化パタンとして獲得することが可能であるが,人手で作成する正解データの量は限られるため,あらゆる文字種変換を文字列レベルで効率よくカバーすることは難しい.文字列正規化候補展開と文字種正規化候補展開を組み合わせることで,「カワイイ」 $\rightarrow$ 「かいい」,「かj れ表記に対する正規化候補の展開も行うことが可能になる. 事前生成の具体的な手順としては,まず基本辞書から読み情報を利用して,読みのひらがな表記,カタカナ表記の生成を行った。この際,カタカナ表記の生成に関しては一文字目から順に部分的にカタカナ化した表記も生成した。例えば,“うれしい”という表記に対しては,“ウれしい”, “ウレしい”, “ウレシい”, “ウレシイ”, というパタンを生成した. その後, 獲得した文字列正規化パタンを用いて,崩れ表記の生成を行った。表 2 に事前生成の例を示す. 表 2 からもわかるように,文字種と文字列正規化の双方を用いて多様な候補を生成することができる。この崩れ表記を基本辞書に追加して正規化辞書として用いる。ここで,今回は辞書サイズが不要に大きくなることを避けるため, 文字列変換を行う際のシードとする形態素について, Twitter テキストで計算した正規表記の出現頻度が閥値以上となる形態素に限定し, さらに 1 形態素内での文字列正規化パタンの適用による文字変換を 2 回までとした。これらの制約によって,動的にすべての候補を考慮する場合に比べカバー率が下がる可能性があるが,あらゆる候補を考慮すると形態素ラティスが非常に大きくなり計算時間が増大するため, 現実的に出現しやすい崩れ表記を効率良く列挙するための制約として用いた。これらの事前生成の結果, 756,463 エン 表 2 文字列アライメントを用いた崩れ表記事前生成の例 トリの基本辞書が 9,754,196 エントリに拡張された. また動的照合のためのルール(崩れ文字削除候補)は 105 パタンであった. ## 3.4 形態素ラティス生成 形態素ラティスの生成は, 文字列正規化の動的照合と前項で述べた正規化辞書, 基本辞書を用いて行う。この際,「っ」と「一」の連続に関しては 1 文字まで縮約させた文字列,母音の連続に関しては 3 文字まで縮約させた文字列も照合の対象とした。これらの文字列については,任意個の文字挿入がありえるため, 意味が変わらない範囲で正規化可能な処理として定めた.次に, 3.3 で述べたように正規 - 崩れ文字列アライメントモデルで抽出された文字列正規化パ夕ンのうち, 正規表記が空文字となるパタンについては動的に展開を行い, 展開された文字列に対して基本辞書と正規化辞書による辞書引きを行って形態素ラティスを生成した。これにより,事前展開しきれなかった候補についても動的展開と組み合わせることでより多様な崩れ表記に対して正規の辞書表記を列挙することが可能になる. ## 3.5 識別モデルによる表記正規化と形態素解析の定式化 3.4 節で示したように文字列や文字種を拡張して形態素ラティスを生成する場合, 不要な候補も多く生成されるため既存の形態素コストや品詞連接コストをそのまま用いると解析誤りが増加するなどの悪影響が考えられる.精度を向上させるためには生成した形態素ラティスに対し適切な重み付けを行うことが必要となる。本研究では文字列や文字種といった多様な崩れ表記を対象としているため, 多様な素性を柔軟に考慮することができる構造化パーセプトロン (Collins 2002)を用いて表現することにする. ## 3.5.1 目的関数 本研究では, 入力文 $s$ に対し正しい表出表記系列 $\boldsymbol{w}=\left(w_{1}, w_{2}, \ldots w_{n}\right)$, 正規表記系列 $\boldsymbol{v}=$ $\left(v_{1}, v_{2}, \ldots v_{n}\right)$, 品詞系列 $\boldsymbol{t}=\left(t_{1}, t_{2}, \ldots t_{n}\right)$ を求める問題を考える. この問題は次のように定式化できる. $ (\hat{\boldsymbol{w}}, \hat{\boldsymbol{v}}, \hat{\boldsymbol{t}})=\underset{(\boldsymbol{w}, \boldsymbol{v}, \boldsymbol{t}) \in L(s)}{\arg \max } \mathbf{w} \cdot \mathbf{f}(\boldsymbol{w}, \boldsymbol{v}, \boldsymbol{t}) $ ここで $(\hat{\boldsymbol{w}}, \hat{\boldsymbol{v}}, \hat{\boldsymbol{t}})$ は最適な系列, $L(s)$ は入力文 $s$ に対し構築される形態素ラティス(各ノードは表出表記, 正規表記, 品詞の 3 つ組情報を持つ), $\mathbf{w} \cdot \mathbf{f}(\boldsymbol{w}, \boldsymbol{v}, \boldsymbol{t})$ は重みベクトル $\mathbf{w}$ と素性べクトル $\mathbf{f}(\boldsymbol{w}, \boldsymbol{v}, \boldsymbol{t})$ の内積を表す。最適系列は $\mathbf{w} \cdot \mathbf{f}(\boldsymbol{w}, \boldsymbol{v}, \boldsymbol{t})$ の値にしたがって選択される. ## 3.5 .2 素性 表 3 に本研究で使用した素性の一覧を示した.このうち, 品詞連接素性 $h\left(t_{i-1}, t_{i}\right)$, 正規語素性 $h\left(w_{i}, t_{i}\right)$ は MeCabで提供されている品詞連接コスト, 形態素コストの推定値を用いた。ここで, $t_{i}$ は $i$ 番目の品詞, $w_{i}$ は $i$ 番目の単語を表す. 正規語 bi-gram 素性 $-\log p\left(w_{i}, t_{i} \mid w_{i-1}, t_{i-1}\right)$ は新聞,ブログの形態素正解が付与されていないラベルなしコーパスの自動解析結果を用いて計算した.文字列正規化素性については, 3.2 節の文字列アライメントモデルで述べた値を用いている,文字列言語モデル素性は文字列正規化の妥当性を表す素性であり,文字列正規化前と後の文字 n-gram を用いて計算する。ここで, $s_{\text {trans }}, s_{\text {org }}$ はそれぞれ文字列正規化した後の文字列,正規化する前の元の文字列を表し, $p\left(s_{\text {trans }}\right), p\left(s_{\text {org }}\right)$ は Twitterテキストから計算した文字 5-gram モデルを用いて計算する。 $c_{j}$ は対象となる文字列の $j$ 文字目を表す. 本研究では,不要な候補の増大を防ぐためラティス生成時に本素性を閾値として用い,形態素ラティスに追加する正規化候補をフィルタリングした。閾値は $\log p\left(s_{\text {trans }}\right)-\log p\left(s_{\text {org }}\right) \geq-1.5$ と定めた. ここで, $\phi_{\text {trans }_{i}}, \phi_{h_{i}}, \phi_{k_{i}}$ はそれぞれ,注目ノード $i$ が文字列正規化を用いて生成されたノード, ひらがな変換を用いて生成されたノード,カタカナ変換を用いて生成されたノードである場合に 1,それ以外の場合は 0 となる変数である。変換処理を施したノードにのみに追加的にコストを付加することによってデグレードを抑える目的でこのような素性設計を行った。ひらがな正規化素性 $\phi_{h_{i}}$ とカタカナ正規化素性 $\phi_{k_{i}}$ については, それぞれ辞書からひらがな化, カタカナ化により生成したエントリに対して適用される素性である. 崩れ形態素素性は,着目ノードが文字列変換を行って生成されたノードである場合に適用されるノードごとの素性である。この素性は, 現在の着目ノードにおける表出表記, 正規表記, 品詞の組み合わせが $\left(w_{i}, v_{i}, t_{i}\right)=(w, v, t)$ のときに 1 ,それ以外に 0 となるバイナリ変数である. ただし, $w \in W, v \in V, t \in T$ であり, $W$ は全表出表記の集合, $V$ は全正規表記の集合, $T$ は全品詞の集合を表す. 本素性では表出表記 $w$, 正規表記 $v$, 品詞 $t$ の組み合わせ数分のバイナリ 表 3 素性リスト 素性を扱うため,組み合わせごとに異なるコストを付加することが可能となる. ## 3.5.3 学習 パラメータ推定は, 平均化パーセプトロン学習に基づいて行う. 平均化パーセプトロンでは,正解系列 $\left(\boldsymbol{w}^{*}, \boldsymbol{v}^{*}, \boldsymbol{t}^{*}\right)$ が付与された $\mathrm{N}$ 個の文が与えられたとき, 現在のパラメータ $\mathbf{w}^{i}$ に基づいて一文ずつ最適解 $(\hat{\boldsymbol{w}}, \hat{\boldsymbol{v}}, \hat{\boldsymbol{t}})$ を求め, もしこの系列が正解と異なる場合は次式で重みパラメータ $\mathbf{w}^{i+1}$ を更新する。 $ \mathbf{w}^{i+1}=\mathbf{w}^{i}+\mathbf{f}\left(\boldsymbol{w}^{*}, \boldsymbol{v}^{*}, \boldsymbol{t}^{*}\right)-\mathbf{f}(\hat{\boldsymbol{w}}, \hat{\boldsymbol{v}}, \hat{\boldsymbol{t}}) $ もし現在のパラメータに基づいて出力された最適解が正解と一致する場合にはパラメータの更新を行わない. 最後に, 文数と繰り返し回数の積で平均化した重みパラメータを計算する。(Collins 2002) ## 4 実験 ## 4.1 実験データと文字アライメント結果 文字列正規化パタン推定に使用したデータは 2008 年のブログ 8,023 文から抽出した正規 - 崩れ表記 9,603 ゚アと,2011〜2012 年の Twitter 4,805 文から抽出した正規 - 崩れ表記ぺア 3,610 ペアである。本ぺアデータを用いたアライメント計算の結果, 得られた文字列正規化パタン数は 3,127 種類であった.表 4 に獲得された文字列正規化パタンの例を示す.「ない」や「たい」 といった正規文字列に対しては特に多くのパタンが獲得できた. また,「ヴァーバ」といった音 多様な崩れパタンが獲得できた。 形態素解析用識別モデルの素性として用いる正規語 bi-gram モデルの構築には, ブログと新聞の形態素正解ラベルなしデータを MeCabを用いて自動解析した結果を使用した。また, 形態素, 正規語正解データはランダム抽出した $2013 \sim 2014$ 年の Twitter 4,280 文に対してアノテー ションを行い, そのうち 1,000 文をテストデータ, 3,280 文を学習データに使用した. テストデー 夕中の崩れ表記は 308 形態素存在した。また, 基本辞書として MeCab-IPA 辞書を使用した. ## 4.2 評価方法と比較手法 本研究では,テストデータに対し下記の条件で評価を行った. (1) MeCab-IPA 辞書として提供されている辞書と品詞連接コスト, 形態素コストを用いて解析した場合(辞書や文字列の拡張なし, 以下通常解析と呼ぶ) 表 4 獲得された文字列正規化パタン例 (2)正規化候補展開に関して文字列正規化の従来手法 (笹野, 黒橋, 奥村 2014) の小文字, 長音に関するルール)を実装し,素性として品詞連接素性, 正規語素性, 文字列正規化素性(全候補で一定)を用いた場合。(以下,ルールベースと呼ぶ)。文字列正規化素性の重みは学習データから決定した。 (3)提案手法(全てを実装した場合(all),文字列正規化候補展開を除いた場合,各素性を 1 つずつ取り除いた場合を比較) (1)に関しては, 文字列や文字種の正規化を一切行わない, 通常の形態素解析手法との比較を行うための, ベースラインとして比較した. (2) は人手で確認されているシンプルなルールで崩れ表記をどこまでカバーできるかを確認するために比較した.(3)に関しては,今回提案した正規化文字列による候補展開や識別モデルの素性がそれぞれ精度にどの程度影響を与えるかを比較するために行った.評価は,形態素解析の再現率と精度,F 値を用いて行った。 ## 4.3 実験結果 ## 4.3.1 形態素解析の結果 表 5 には形態素解析の精度評価を示した.この集計結果より, 提案手法 (all) が単語分割 + 品詞の精度で最も良い結果となっている. (1)の通常解析に比べ, 単語区切り, 単語区切り + 品詞ともに約 2 ポイントの精度向上が確認できた。(2)の単純なルールを用いた場合と比較しても,約 1.0 ポイントの精度向上を確認した。また,ブートストラップ再サンプリング法で $\mathrm{F}$ 值の検 表 5 テストデー夕における各手法の性能比較 定を行ったところ,通常解析,ルールベースに比べ有意な差が確認できた $(\mathrm{p}<0.01)$. 次に,今回提案した各素性の効果について考察する。文字列正規化を除いた場合, 各素性を抜いた場合の比較より, 単語十品詞の精度では提案手法 (all) が最も良い結果となった. また,各素性値を抜いた実験の結果においても,崩れ形態素素性なしを除いては単語分割 + 品詞付与に関して提案手法 (all) とそれ以外で有意な差が確認できた $(\mathrm{p}<0.01)$. 特に, 提案素性の中では文字列正規化素性を用いない場合最も精度が低下することが分かった。これより, 文字列正規化素性の導入は過剰な正規化による解析悪化を抑制することができたと考えられる。他の条件に関しても提案手法が上回る結果となったが, 文字列正規化素性に比べ影響は小さかった.特に文字列言語モデル素性については精度向上にほとんど影響がなかったが,これは今回の実験では計算量を減らすために, 形態素ラティス生成時に文字列言語モデル素性で枝狩りを行ったため, その時点で当該素性の効果が反映されていると考えられる。また, 単語分割のみ見ればひらがな・カタカナ正規化素性なしの精度がよいが, 品詞も含めた精度ではすべて考慮した場合よりも精度が低い. これも, 誤った正規化を行った結果単語分割は改善したが, 品詞で悪影響が生じているといえる。これらの結果から, 文字列, 文字種などの多様な正規化候補を列挙し, かつ解析悪化を抑制しながら解析を行う場合, 各正規化候補に対して適切なコストを付加することが重要であるということが明らかになった. ## 4.3.2 正規化に関する結果 表 6 には, 各正規化候補列挙手法のカバー率を確認するため, 崩れ表記に限定した再現率比較を示した. 提案手法は, ルールベースに比べ約 2.2 倍, 文字列正規化なしに比べ約 4 倍の再現率を達成した。このことから, 今回獲得した文字列正規化パタンが正規化の再現率向上への寄与が大きいことがわかる。一方で文字種正規化の影響も提案法で解析できた箇所全体の約 $25 \% を$ 表 6 正規化候補列挙方法の違いによる正規化再現率の比較 & \\ 表 7 正規化適合率の比較 占めているため, 文字列正規化と文字種正規化を組み合わせることが再現率向上に有効であることがわかる,次に,表 7 に正規化の適合率を示す.表 7 の適合率(全体)とはシステムが正規化を行って出力した形態素のうち, 表記, 品詞, 正規表記の全てが一致した形態素の数を表す.ここで,一致しなかった箇所が必ずしも解析悪化を起こしているとは限らないため,一致しなかった形態素のうち 50 箇所について,通常解析との比較を行い人手調査によって「悪化」 と「その他」の内訳を分析した。ここで,悪化,その他の分類は笹野ら (笹野他 2014)を参考とし, 分割や品詞の優劣によって判断した. この結果, ルールベースの場合には不一致箇所における悪化の割合が $8 \%$ と副作用の割合が低いことがわかる.提案法においても,不一致箇所における悪化の割合が $18 \%$ とルーベースに比べて高くなっているものの, 全体では改善が大きく上回っており副作用を抑制しながら解析を行えていることがわかる。提案法で悪化した例としては,たとえば「カープ/ねえー(カープ/ない)」や,「うーん(うん)」などの誤った正規化が存在した. 主に長音の削除や助詞・助動詞で副作用が数件見受けられ,このような例に関しては素性関数をより精緻にする,学習データを増やすなどして対応する必要があると考えられる。また,その他に分類されたものとしては下記(例 1 )~(例 3)のような例が存在した. -(例 1)通常解析:ふみ/づき, 提案法:ふみづき(文月) - (例 2 ) 通常解析:だい/き,提案法:だいき(大樹) -(例 3)通常解析:たら/あ/ー/ま/あ, 提案法:たらあーい(たらい)/まあ (例 1),(例 2)のように,主にもともと解析誤りを起こしていた部分に対し正規化を行った結果区切りや品詞が改善したものの正規表記が誤った例,(例 3)のように,もとと間違っていた箇所に対し正規化を行った結果異なる誤り方をした例などが存在した. これらに関しては, 固有名詞と崩れ表記を区別する仕組みや,崩れ表記の再現率をさらに上げる方法の検討が必要になると考えられる。 ## 4.3.3形態素解析結果の実例と考察 表8には, 提案システムの出力結果例を示す。“/”は単語区切りを表し,括弧内が正規表記を表す. 太字で表している部分が解析が正解したもので,(1)~(6) は提案手法によって解析が改善された例である。 (7) は区切りが改善したが品詞・正規語が誤った例, (8), (9) は通常解析でも提案手法でも改善されなかった例,(10) は提案手法によって悪化した例を示している。 (1)〜 (6) の例から, 提案手法によって文字種, 文字列の多様な崩れ表記が解析できていることがわかる。(7) に示した例は, 固有名詞などでいくつかみられた例であるが, 固有名詞の文字列を正規化した表記が辞書に存在し, 正規化によって区切りが改善したが, 正規語が誤った例である.この例の他にも, ふみづき一文月,ヤスダー安田など,入力表記の漢字表記が辞書に存在し区切りや品詞が改善したが, 正解デー夕においては固有名詞の正規表記は入力表記のままにしたため正規語の不一致が生じた例も多く見られた(表7における「その他」の分類)。このような固有名詞については, 正規表記を表記のままにするなどの処理を行うことで対応できると考えられる. (8) に示した例は, 正解の候補展開ができなかった例(文字列正規化パタンが不足していた例) である。今回の手法では学習データ中に出現した文字列パタン以外の新しいパ夕ンについては適応できないため, 獲得したパタンからの類似パタン生成やアノテーションなしコーパスからの文字列正規化パタンの自動獲得などの手法を検討することで,このような誤りには対応できると考えられる。(9)の例に関しては, 正解の系列は列挙できていたにも関わらず正しい系列を選択できなかった例である。このような例に関しては素性を工夫したり正解デー 夕を堌強することで精度向上を図る必要がある。(10) に関してはデグレードしてしまった例である。この連接の場合,システムが推定した正規語系列の方が単語数が少なく正規語 bigram からみても推定値は起こりやすい系列であるため, 今回の目的関数や素性設計では推定値の方がもっともらしいと判断されてしまったと考えられる. この点に関しては, Twitterの単語連接の分布や単語ごとの崩れやすさの指標などを取り达む必要があると考えられる. 表 8 システムの出力結果例 表 9 UniDic 辞書を用いた場合の崩れ表記正解割合 ## 4.4 UniDic 辞書との比較 IPA 辞書以外で表記摇れに強い辞書として UniDic (unidic-mecab) 辞書 (伝, 小木曽, 小椋 2007) があげられる. 本研究では, 広く用いられている辞書のひとつとして MeCab-IPA 辞書を用いて実験を行ったが,UniDic 辞書による崩れ表記のカバー率を調べるため,1) テストデータ中の崩れ表記 100 個について UniDic 辞書で正しく解析可能な割合,2)システムが正解した崩れ表記 100 個について UniDic で正しく解析できる割合,の2つについて人手で調査を行った. 1) では,崩れ表記全体のどの程度をカバーできるか,2)では,提案法で解析できる表記のうちどの程度をカバーできるかを確認した。結果を表 9 に示す. 表 9 に示すように,UniDic 辞書はすでに崩れた表記が辞書に含まれている場合も多く,半数以上は辞書でカバーできている.表 6 で示した提案法のカバー率と比較しても高い値を示していることから, 崩れた文に対してべースラインとして MeCab-IPA 辞書よりも頑健に動作することがわかる,ただし,UniDicでも解析できない崩れ表記が $44 \%$ 存在した。また,提案法で解析が改善した例における UniDic のカバー率は $53 \%$ のあった。たとえば,「センパイ (先輩)」「予定/でーす (予定/です)」といった崩れ表記に関してはUniDic 辞書, 提案法の双方で正しく解析できた。一方,「さてーーーっ(さて)」「走っ/て/まふ(走っ/て/ます)」といった崩れ表記に関しては提案法では正しく解析できたが UniDic では正しく解析できなかった.UniDic のみで解析できた例としては,「ファンデ(ファンデーション)「スカし(すかし)/て」などが存在した.このことから, IPA 辞書を用いた場合に比べ提案法による効果は限定的と考えられるものの, UniDicのような崩れた表記に頑健な辞書を用いた場合であってもあらゆる崩れ表記をカバーできているわけではなく,提案手法と組み合わせることで崩れ表記のカバー率をさらに向上させられる可能性があると考えられる. ## 5 まとめと今後の課題 本研究では, Web 上から収集した崩れ - 正規表記のぺアから文字列レベルの正規化パタンを学習し, 抽出したパ夕ンを形態素解析に導入することにより崩れた日本語の解析精度が向上することを確認した。実験結果から個々の文字列正規化パタンごとに異なる生起しやすさの指標を素性として用いることで解析精度が向上することがわかり, 現実の分布を反映することで解析精度の向上と再現率の向上に有効であることが確認できた。また,文字種正規化を組み合わ せることによる再現率向上の効果も大きく, 全体の約 $25 \%$ 占めていることも明らかになった.課題としては,未知語に対して過剰に正規化を行ってしまうこと, 未知の文字列正規化パ夕 ンに対応するためには正規 - 崩れのアノテーションコストが必要となること, 文字列正規化パタンや文字種正規化パタンよりも細かいレべルの素性関数を取り入れることなどがあげられる。 これらについては今後の課題として取り組む予定である. ## 謝 辞 本研究の一部は, The 25th International Conference on Computational Linguistics (COLING 2014) で発表したものである (Saito, Sadamitsu, Asano, and Matsuo 2014) ## 参考文献 Bisani, M. and Ney, H. (2008). "Joint-sequence Models for Grapheme-to-phoneme Conversion." Speech Communication, pp. 434-451. Collins, M. (2002). "Discriminative Training Methods for Hidden Markov Models: Theory and Experiments with Perceptron Algorithms." In Proceedings of the 2002 Joint Conference on Empirical Methods in Natural Language Processing, pp. 1-8. 伝康晴, 小木曽智信, 小椋秀樹 (2007). コーパス日本語学のための言語資源一形態素解析用電子化辞書の開発とその応用(特集コーパス日本語学の射程).日本語科学, 22, pp. 101-123. Han, B. and Baldwin, T. (2011). "Lexical Normalisation of Short Text Messages: Makn Sens a \#Twitter." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics, pp. 368-378. Han, B., Cook, P., and Baldwin, T. (2012). "Automatically Constructing a Normalisation Dictionary for Microblogs." In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 421-432. Jiampojamarn, S., Kondrak, G., and Sherif, T. (2007). "Applying Many-to-Many Alignments and Hidden Markov Models to Letter-to-Phoneme Conversion." In Proceedings of the 2007 Conference of the North American Chapter of the Association for Computational Linguistics, pp. 372-379. Kaji, N. and Kitsuregawa, M. (2014). "Accurate Word Segmentation and POS Tagging for Japanese Microblogs: Corpus Annotation and Joint Modeling with Lexical Normalization." In Proceedings of the 2014 Joint Conference on Empirical Methods in Natural Language Processing, pp. 99-109. 勝木健太, 笹野遼平, 河原大輔, 黒橋禎夫 (2011). Web 上の多彩な言語表現バリエーションに対応した頑健な形態素解析. 言語処理学会年次大会講演集, pp. 1003-1006. Kubo, K., Kawanami, H., Saruwatari, H., and Shikano, K. (2011). "Unconstrained Many-to-Many Alignment for Automatic Pronunciation Annotation." In Proceedings of APSIPA ASC. 工藤拓, 市川宙, David Talbot, 賀沢秀人 (2012). Web 上のひらがな交じり文に頑健な形態素解析. 言語処理学会年次大会講演集, pp. 1272-1275. Li, C. and Liu, Y. (2012). "Improving Text Normalization using Character-Blocks Based Models and System Combination." In Proceedings of the 24th International Conference on Computational Linguistics, pp. 1587-1602. 岡照晃, 小町守, 小木曽智信, 松本裕治 (2013). 表記のバリエーションを考慮した近代日本語の形態素解析. 人工知能学会全国大会講演集, 27, pp. 1-4. Saito, I., Sadamitsu, K., Asano, H., and Matsuo, Y. (2014). "Morphological Analysis for Japanese Noisy Text based on Character-level and Word-level Normalization." In Proceedings of the 25th International Conference on Computational Linguistics, pp. 1773-1782. Sasano, R., Kurohashi, S., and Okumura, M. (2013). "A Simple Approach to Unknown Word Processing in Japanese Morphological Analysis." In Proceedings of the 6th International Joint Conference on Natural Language Processing, pp. 162-170. 笹野遼平, 黒橋禎夫, 奥村学 (2014). 日本語形態素解析における未知語処理の一手法一既知語から派生した表記と未知オノマトぺの処理一. 自然言語処理, 21 (6), pp. 1183-1205. Yang, Y. and Eisenstein, J. (2013). "A Log-Linear Model for Unsupervised Text Normalization." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 61-72. ## 略歴 斉藤いつみ:2010 年早稲田大学理工学部社会環境工学科卒業, 2012 年東京大学大学院工学系研究科博士前期課程修了. 同年, 日本電信電話株式会社入社.自然言語処理に関する研究開発に従事. 現在, NTTメディアインテリジェンス研究所研究員, 情報処理学会, 言語処理学会各会員. 貞光九月:2004 年筑波大・第三学群・情報学類卒. 2009 年同大大学院システム情報工学研究科コンピュータサイエンス専攻了. 同年, 日本電信電話株式会社入社. 自然言語処理の研究開発に従事. 現在, NTTメディアインテリジェンス研究所研究主任. 言語処理学会会員. 浅野久子:1991 年横浜国立大学工学部卒業. 同年, 日本電信電話株式会社入社. 現在, NTTメディアインテリジェンス研究所主幹研究員. 自然言語処理 に関する研究開発に従事. 情報処理学会, 言語処理学会各会員. 松尾義博:1988 年大阪大学理学部卒業, 1990 年同大学大学院理学研究科博士前期課程修了. 同年, 日本電信電話株式会社入社. 現在, NTTメディアインテリジェンス研究所, 音声言語メディアプロジェクト, 音声・言語基盤技術グループリーダ. 自然言語処理に関する研究開発に従事. 情報処理学会, 言語処理学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 語彙の概念化と Wikipedia を用いた英字略語の意味推定方法 後藤 和人 $\dagger \cdot$ 土屋 誠司 $\dagger+$ ・渡部 広一 $\dagger \dagger$ } 元来から日本は外来語を受け入れやすい環境にあるといわれており,外来語が益々増加する中,特に,英語の場合,外国語の表記を利用するシーンも増えている。ま た,英単語など頭文字をつなげて表記する略語も利用されている。しかし, 英字略語は別のことを表現しても,表記が同じになる多義性の問題を持っている.そこで,本稿では,英字略語の意味を推定する方法を提案する,提案手法では,英字略語の 意味推定を未知語の意味推定とみなし, ある概念から様々な概念を連想する語彙の 概念化処理を可能とする概念べースと, 概念化した語彙の意味的な近さを判断でき る関連度計算または Earth Mover's Distance を用いる. さらに, 英字略語ゆえの情報の欠如を, 世界で最も収録語数が多いとされているWikipedia を使用することで 補完する。これらを用いることで, 英字略語の多義性を解消し, 英字略語の本来の 意味を推定する。提案手法は, 129 件の新聞記事に対して, 最高で $80 \%$ 近い正答率 を示したことに加え,比較方法より良好な結果を得ることができた。 キーワード:意味推定,英字略語,概念化,Wikipedia ## Meaning Estimation Scheme of Alphabetical Abbreviations using Conceptualization of Words and Wikipedia \author{ Kazuto Goto $^{\dagger}$, Seiui Tsuchiya ${ }^{\dagger \dagger}$ and Hirokazu Watabe ${ }^{\dagger \dagger}$ } \begin{abstract} It is believed that Japan is open to loanwords, and they are often used in daily activities. Particularly, in English, scenes using foreign language notation are increasing. In addition, alphabetical abbreviations, which comprise initials of each English word, are used. However, polysemy is a major concern for the alphabetical abbreviations. In this paper, we propose a scheme to estimate the meaning of an alphabetical abbreviation. The proposed scheme considers the meaning estimation of an alphabetical abbreviation as the meaning estimation of an unknown word. This scheme uses the concept base, and, Calculation of Degree of Association or Earth Mover's Distance. The scheme allows for the conceptualization of a word and the evaluation of semasiological association between conceptualized words. In addition, Wikipedia is used to complement the lack of information due to alphabetical abbreviations. This paper makes use of 129 articles to evaluate the proposed scheme. The experiments showed that the accuracy of the proposed scheme was nearly $80 \%$ and that the scheme was more effective than other schemes. \end{abstract} Key Words: Meaning Estimation, Alphabetical Abbreviation, Conceptualization, Wikipedia  ## 1 研究背景 元来から日本は,外来語を受け入れやすい環境にあるといわれており,数多くの外国の言葉を片仮名として表記し,そのまま使用している。近年になり,今まで以上にグローバル化が進展すると共に, 外来語が益々増加する中, 外来語の発音を片仮名表記にしないケースが見受けられる. 特に,英語の場合,外国語の表記をそのまま利用することも増えてきている.また,英単語などの頭文字をつなげて表記する,いわゆる略語もよく利用されるようになっている.例えば,「IC」といった英字略語がそれにあたる. しかし, 英字略語は英単語の頭文字から構成される表現であるため, まったく別のことを表現しているにも関わらず,同じ表記になることが多い,先の英字略語「IC」には,「集積回路」 という意味や高速道路などの「インターチェンジ」という意味がある。 さらには,ある業界では,これらとはまた別の意味で使用されることもある. このように, 英字略語は便利な反面, いわゆる一般的な単語よりも非常に多くの意味を有する多義性の問題を持つ, そのため, 英字略語が利用されている情報は, すべての人が容易に, また,正確に把握できるとは言い難い. そこで,例えば,新聞記事などでは,記事の中で最初に英字略語が使用される箇所において,括弧書きでその意味を日本語で併記する処理をとっていることが多い. しかし,よく知られている英字略語にはそのような処置がとられていないなど, 完全に対処されているわけではない. また, 記事中の最初の箇所にのみ上記のような処置がとられており, それ以降はその意味が併記されていないことが多い. そのため, 記事の途中から文書を読んだり, 関連する記事が複数のページに渡って掲載されている時に先頭のページではない部分から記事を読んだりした場合には, 最初にその英字略語が出現した箇所を探さなくてはならず,解読にはひと手間が必要となり, 理解の妨げとなる。 さらに,一般的な文章の場合では,このように英字略語の意味を併記するという処置をとる方が珍しいと言える. ## 2 関連研究 上記を踏まえて本論文では, 英字略語の意味を推定する方法について提案する.本研究と同様の主旨の研究には, (岡崎, 石塚 2007)の研究が報告されている. この方法では, 新聞記事などの文章では, 英字略語の意味を括弧書きで併記する表現に着目し, 英字略語の意味の自動推定を実現している。しかし,すべての英字略語に対してこのような表現が適用されているわけではない,そのため, うまく自動推定できない場合がある。また, (吉田, 遠間, 増山, 酒井 2005) では, 片仮名表記の外来語を英語に復元した後に, 辞書を用いて日本語訳を獲得する方法が提案されている。しかし, 本方法では, 対象が片仮名に限定されており, かつ, 多義性を有する 語彙には対応できない問題がある. さらに, (Stevenson, Guo, Amri, and Gaizauskas 2009) や (Okazaki, Ananiadou, and Tsujii 2010) は, 英字略語が頻出する生物医学の分野に着目し, 医学関連のデータベースから抽出したデータセットをもとに作成したコーパスやクラスタリング技術を適用することに加え,語の共起情報を有効に活用することで,英字略語の意味を推定している。しかし,本方法は医学領域に特化した情報源を利用しているからこそ,語の共起情報が生物医学に関する英字略語の曖昧性解消に対して有効に機能していることに加えて, 英字略語の意味を推定する教師データを自動生成するために大規模な文書集合を必要とすることから,汎用的に活用することは難しい. また,英字略語を対象としているわけではないが,単語(語義)の曖昧性を解消する方法が研究されている。(Mihalcea 2007) は, Wikipedia における各記事の参照情報であるハイパーリンクを利用することで,一般的な単語と当該単語を含む文章を入力した際に,当該単語の曖昧性を解消し, 意味推定を実現している。本方法は品詞情報を利用して意味推定を実施しており,有効に機能する単語が限定(当該論文では曖昧性を有する普通名詞の意味推定を実施)されるという問題がある,他には,文章内の単語を知識べースのエントリにマッピングすることで曖昧性を解消する技術 (Entity Disambiguation) として, (Sun, Lin, Tang, Yang, and Wang 2015) は Wikipedia から収集した情報をもとにニューラルネットワークを構築し, 入力単語と入力文書のペアとエントリ間の類似性を判断している。しかし,本方法は 2 つのニューラルネットワー クのトレーニング及びメンテナンスが必要であり, 対象領域などに応じた適切な運用が要求される。 一方,従来の情報検索でよく用いられるべクトル空間モデル (Salton, Wong, and Yang 1975) などでは,文書における単語の出現頻度や統計情報などを利用して単語と文書間の類似性を判断している。このような方法は単語と文書内の各単語の表記が一致しない場合は関連性がないとの仮定に基づいている。そのため,多義性を持つ単語をはじめ,表記摇れや類義性を持つような単語に対して意味の推定を行うことは困難である。 そこで,本論文では,多義性を有する英字略語に対して,意味の推定を実現する方法を提案する. 提案方法では, 我々がすでに提案している, あらゆる語彙の意味的な近さを判断できるメカニズムを組み合わせ,英字略語の意味を推定する,具体的には,ある概念から様々な概念を連想する語彙の概念化処理が可能な概念ベース (小島, 渡部, 河岡 2002; 広瀬, 渡部, 河岡 2002;奥村, 土屋, 渡部, 河岡 2007), 及び, 世界で最も収録語数が多いとされる Wikipedia (ウィキメディア財団) を使用する。 さらに,概念化した語彙の意味的な近さを判断するため,関連度計算 (渡部, 奥村, 河岡 2006), または, Earth Mover's Distanceを応用した文章間関連度計算方法 (藤江, 渡部, 河岡 2009) を用いる. これらを用いて英字略語の多義性を解消し, 英字略語の本来の意味を推定する.この技術により,英字略語の意味を理解しやすくすることができ,情報検索や自動要約, 情報推薦や自動翻訳など多くのアプリケーションの性能向上に加え, 知能 を有するロボットの研究開発における自然な知的対話の実現に寄与することも期待できる. ## 3 提案方法の概要 図 1 に提案方法である英字略語の意味推定方法の概略図を示す. 英字略語が含まれる文章を入力として,入力文章から英字略語を抽出する。当該英字略語を Wikipedia で検索し, 意味が 1 つであれば,その意味を出力する.意味が複数ある場合には,それらの意味と入力文章との意味的な近さを判断し, 最も近いと判断した意味を決定する。この際, 当該意味と英字略語(が含まれる文章)の意味的な近さを判断するために, 語彙の概念化を行う,なお, ここで述べる「意味」とは, 英字略語の意味を表現する語, つまり, 英字略語のもととなっている英単語の日本語での表現を「意味」と定義している. 例えば,前述した英字略語「IC」の意味を推定する場合,「集積回路」や「インターチェンジ」という語を「意味」 として出力する. 4 章では, 本論文において使用した要素技術として, 語彙を概念化する方法と, 概念化した語彙の意味的な近さを判断する方法に関して詳細に説明する. 図 1 英字略語の意味推定方法の概略図 ## 4 使用要素技術 ## 4.1 語彙の概念化処理 ## 4.1.1 概念ベース 概念ベース (小島他 2002; 広瀬他 2002; 奥村他 2007) とは, 複数の電子化国語辞書などの見出し語を概念, その語義文に使用されている自立語を概念の意味特徴を表す属性と定義して構築された大規模なデータベースである。本論文で使用した概念べースは自動的に概念および属性を構築した後,人間の常識に沿った属性の追加や削除を人手で行ったものであり,概念数は約 9 万語である. 概念べースでは, ある概念 $A$ は $m$ 個の属性 $a_{i}$ とその属性の重要性を表す重み $w_{i}$ の対によって構成されており,以下のように表現することができる。ここで,属性 $a_{i}$ を概念 $A$ の一次属性と呼ぶ. $ \text { 概念 } \mathrm{A}=\left.\{\left(a_{1}, w_{1}\right),\left(a_{2}, w_{2}\right), \cdots,\left(a_{m}, w_{m}\right)\right.\} $ 概念べースの大きな特徴として, 属性である単語は概念として必ず定義されている点がある. これにより, 概念 $A$ の一次属性である属性 $a_{i}$ を概念とみなし, 更に属性を導くことができる.概念 $a_{i}$ から導かれた属性 $a_{i j}$ を,元の概念 $A$ の二次属性と呼ぶ.概念べースの具体例を表 1 に示す. 例えば,表 1 のように,概念「医者」の一次属性である「患者」は,概念「患者」としても定義されている。また, この概念「患者」の一次属性である「病人, 看病, 治療, ㄱ」は, 元の概念「医者」の二次属性ということになる。このように,概念ベースにより概念の意味特徴を定義し,連鎖できる構造を利用することで語彙の意味の近さを評価できる。詳細は 4.2 節で説明する。 ## 4.1.2 未定義語の概念化 前節で述べた通り,概念べースは複数の電子化国語辞書などを用いて構築されており,大規模かつ品質が高いというメリットがある。しかし,すべての語彙を網羅できていないという欠 表 1 概念ベースの例 点もある。そのため,概念ベースに登録されていない未定義語は概念化されておらず,意味の近さを評価することはできない. そこで,未定義語については,Web上の言語情報を利用し,自動的に概念化すること (辻,渡部, 河岡 2004; 後藤, 土屋, 渡部, 河岡 2008) で対処する. 具体的には, Web 検索エンジン (Google, Inc.) により未定義語をキーワードとして情報検索し, 検索結果の上位 100 件の検索結果ページの内容を取得する。その内容から概念べースに登録されている自立語のみを抽出し, それらを未定義語の一次属性とする。また,一次属性に対する重みは,情報検索の分野で広く用いられている $t f \cdot i d f($ 徳永 1999) の考え方を応用することで算出する. 語の網羅性である $t f$ 值は, 検索結果ページ $A$ 中に出現する自立語 Word $_{A}$ の出現頻度 $t f r e q$ $\left(\operatorname{Word}_{A}, A\right)$ を, 検索結果ページ $A$ 中のすべての自立語の語数 $\operatorname{tnum}(A)$ で割ることで算出される. 算出式は以下のようになる. $ t f\left(\operatorname{Word}_{A}, A\right)=\frac{\text { tfreq }\left(\operatorname{Word}_{A}, A\right)}{\operatorname{tnum}(A)} $ 次に, 語の特定性である $i d f$ 値は, Statics Web-Inverse Document Frequency (SWeb-idf) 值を用いる (辻他 2004; 後藤他 2008). idf 值の算出には,対象となる全文書空間の情報が必要になる。しかし,Webを利用する場合,Web上のすべての情報が必要ということになり,正確な $i d f$ 值を算出することは現実的には不可能である。そこで,無作為に選択した固有名詞 1,000 個をそれぞれキーワードとして,Web 検索エンジン (Google, Inc.) で検索する。続いて,検索結果の上位 10 件の検索結果ページの内容を取得する。そして,それらの内容に含まれるすべての自立語の集合を疑似的な Web の全情報空間とみなし $S W e b$-idf 值を算出する. $S W e b$ - idf 値の算出式は以下のように定義される。ここで $N$ は固有名詞 1,000 個を検索キーワードとした際の各検索結果上位 10 件の合計ぺージ数 $(N=10,000), d f\left(W o r d_{A}\right)$ は $\operatorname{Word}_{A}$ が出現する検索結果ページ数である. $ S W e b-i d f\left(\operatorname{Word}_{A}\right)=\log \frac{N}{d f\left(\text { Word }_{A}\right)} $ この 10,000 ページから,複数の電子化国語辞書などから概念を抽出したデータベースである概念ベースの収録語数である約 9 万語を超える単語数が得られたことから,獲得した 10,000 ペー ジをWebの全情報空間とみなしている。なお,固有名詞の選び方を変えても SWeb-idf 值に大きな変化は見られないことが報告されている (辻他 2004). 以上に示した式より,自立語 Word $_{A}$ へ付与する重み $w$ は次の式で定義される. $ w=t f\left(\text { Word }_{A}, A\right) \cdot S W e b-i d f\left(\text { Word }_{A}\right) $ つまり,ある自立語の重みは,網羅性を表す $t f$ 値と特定性を表す $S W e b$ - $i d f$ 値を掛け合わせる ことで与えられる。 Web 上の言語情報を利用するため, 品質は概念べースより劣るというデメリットはあるが, すべての語彙を概念化できるという大きなメリットがある。また,(辻他 2004;後藤他 2008) などの研究成果から,Web 情報を利用して未定義語を概念化する方法の有効性が確認されており,本論文での処理においても十分な性能を確保していると考えられる。 ## 4.2 意味的関連性評価方法 ## 4.2.1 関連度計算 関連度計算とは,概念と概念の関連の強さを定量的に評価する計算である。概念間にある関連性を定量的に評価する方法として, ベクトル空間モデルが広く用いられている。しかし, 本論文では,概念を定義する属性集合とその重みを含めた一致度に基づいた関連度計算方式を利用する。これは,関連度計算方式が有限ベクトル空間によるべクトル空間モデルよりも良好な結果が得られるという報告がなされているためである (渡部,河岡 2001).本論文では,重み比率付き関連度計算方式を使用する (渡部他 2006). 任意の概念 $A, B$ について, それぞれ一次属性を $a_{i}, b_{j}$ とし, 対応する重みを $u_{i}, v_{j}$ とする. また, 概念 $A, B$ の属性数を $L$ 個, $M$ 個 $(L \leq M)$ とする。なお, 各概念の一次属性の重みは, その総和が 1.0 となるよう正規化している. $ \begin{aligned} & A=\left.\{\left(a_{i}, u_{i}\right) \mid i=1 \sim L\right.\} \\ & B=\left.\{\left(b_{j}, v_{j}\right) \mid j=1 \sim M\right.\} \end{aligned} $ このとき, 重み比率付き一致度 (Degree of Match) は以下のように定義される.ここで, $\operatorname{DoM}(A, B)$ は概念 $A, B$ の重み比率付き一致度である. $ \begin{array}{r} D o M(A, B)=\sum_{a_{i}=b_{j}} \min \left(u_{i}, v_{j}\right) \\ \min (\alpha, \beta)= \begin{cases}\alpha & (\beta>\alpha) \\ \beta & (\alpha \geq \beta)\end{cases} \end{array} $ この定義は, 概念 $A, B$ に対し, $a_{i}=b_{j}$ となる属性(概念 $A, B$ に共通する属性)があった場合, 共通する属性の重みの共通部分, つまり, 小さい重み分のみ一致するという考えに基づいている. 次に,属性数が少ない方の概念を $A$ とし $(L \leq M)$, 概念 $A$ の属性を基準とする. $ A=\left.\{\left(a_{1}, u_{1}\right), \cdots,\left(a_{i}, u_{i}\right), \cdots,\left(a_{L}, u_{L}\right)\right.\} $ そして, 概念 $B$ の属性を, 概念 $A$ の各属性との重み比率付き一致度 $\operatorname{DoM}\left(a_{i}, b_{x i}\right)$ の和が最大になるように並び替える。 $ B_{x}=\left.\{\left(b_{x 1}, v_{x 1}\right), \cdots,\left(b_{x i}, v_{x i}\right), \cdots,\left(b_{x L}, v_{x L}\right)\right.\} $ これによって,概念 $A$ の一次属性と概念 $B$ の一次属性の対応する組を決める.対応にあふれた概念 $B$ の属性は無視する。ただし,一次属性同士が一致するものがある場合(概念表記が同じ : $a_{i}=b_{j}$ )は別扱いにする.これは概念べースには約 9 万語の概念が存在し, 属性が一致することは稀であるという考えに基づく,従って,一致した属性の扱いを別にすることで,属性が一致した場合を大きく評価する,具体的には,対応する属性の重み $u_{i}, v_{j}$ の大きさを重みの小さい方にそろえる。このとき,重みの大きい方はその值から小さい方の重みを引き,もう一度, 他の属性と対応をとる.例えば, $a_{i}=b_{j} て ゙ ~ u_{i}=v_{j}+\alpha$ とすれば,対応を決定する箇所は $\left(a_{i}, v_{j}\right)$ と $\left(b_{j}, v_{j}\right)$ であり, $\left(a_{i}, \alpha\right)$ はもう一度他の属性と対応させる. このように対応を決め, 対応がとれた属性の組み合わせの数を $T$ 個とする. 重み比率付き関連度とは, 重み比率付き一致度を比較する概念の各属性間で算出し, その和の最大值を求めることで計算する。重み比率付き関連度 (Degree of Association) は以下の式で定義される。ここで, $\operatorname{Do} A(A, B)$ は概念 $A, B$ の重み比率付き関連度である。 $ D o A(A, B)=\sum_{i=1}^{T}\left.\{D o M\left(a_{i}, b_{x i}\right) \cdot\left(u_{i}+v_{x i}\right) \cdot\left(\min \left(u_{i}, v_{x i}\right) / \max \left(u_{i}, v_{x i}\right)\right) / 2\right.\} $ 以下, 重み比率付き一致度を一致度, 重み比率付き関連度を関連度と略し, この関連度 (渡部他 2006)を用いる。関連度は概念間の関連の強さを 0〜1の間の連続値で表す. ## 4.2.2 Earth Mover's Distance 前節において,概念間の関連の強さを評価する方法として関連度計算について説明した。関連度計算は関連性が高い順に属性の対応をとることで計算を行う,つまり,1 対 1 で対応をとる方法である。そのため, 両概念に対して, 少ない方の属性数分しか対応がとれない. 例えば,概念 $A$ が持つ属性が 3 語, 概念 $B$ が持つ属性が 100 語であった場合, 概念 $B$ の属性 97 語は計算の対象外となる。そこで,本論文では,両概念の属性数に差がある状況にも対応するため, 関連度計算に加えて,M対 N で対応をとることができる Earth Mover's Distance (EMD) を用いて意味的な関連性を評価する方法を利用する. EMD を用いた意味的な関連性評価方法は, ヒッチコック型輸送問題 (Hoffman 1963)(需要地の需要を満たすように供給地から輸送を行う際の最小輸送コストを解く問題)で計算される距離尺度である EMD を概念間の関連性評価に適用したものである。EMDは,2つの概念間の関連性を定量的に表現することが可能であり, (藤江他 2009)の研究によりその有用性が報告さ れている. EMD とは,2つの離散分布があるとき,一方からもう一方の分布への変換を行う際の最小コストを指す。離散分布は当該分布を構成する要素と重みの対の集合で表現される。コスト算出の際には,変換前の離散分布の要素が持つ重みを供給量,変換先の離散分布の要素が持つ重みを需要量と考え,要素間の距離を供給量,需要量にしたがって重みを運送すると考える。できるだけ短い距離で,かつ,需要量に対して効率的に重みを運送する経路が EMD となる. これを概念間の関連性評価に適応させる場合,概念の一次属性を要素として捉え,一次属性の集合を離散分布と考える。ある概念の離散分布を違う概念の離散分布へ変換すると考えると, その際のコストが最小となる概念が元の概念に最も近い概念となることから,概念間の関連性評価へ適用することが可能となる。 EMD を用いた意味的な関連性評価方法について,図 2 に示す簡略図を用いて説明する。ある概念 $A$ と $B$ があったとき,概念 $A$ を概念 $B$ に変換する際のコストを考える。それぞれの概念をそれらの一次属性 $a_{i}, b_{j}$ の離散分布と考える.EMDでは変換コストの算出を行う際に離散分布を構成する要素同士の距離を用いる.EMDを用いた意味的な関連性評価方法では,この距離を一次属性同士の関連性であると考え,一致度によってこれを求める。 属性 $a_{i}, b_{j}$ の距離 $\operatorname{dis}\left(a_{i}, b_{j}\right)$ は次の式で表される。一致度は関連性が高いと値が大きくなる. また, 一致度の最大值は 1 であるため, 1 から一致度を引いた値を距離としている。 $ \operatorname{dis}\left(a_{i}, b_{j}\right)=1-\operatorname{DoM}\left(a_{i}, b_{j}\right) $ ここで,図 2 の例における $a_{1}$ と $b_{1}$ の間の変換コスト $\operatorname{cost}\left(a_{1}, b_{1}\right)$ は次の式で算出される. これは $a_{1}$ と $b_{1}$ の距離に重みを掛けたものである. $a_{1}$ と $b_{1}$ が持つ重みは同じく 0.3 であるため供給量と需要量が合致し, $a_{1}$ からの重みの運送はこの時点で終了する. $ \operatorname{cost}\left(a_{1}, b_{1}\right)=\operatorname{dis}\left(a_{1}, b_{1}\right) \cdot 0.3 $ 同様にコストの計算を行い,最終的にすべての運送経路のコストを足し合わせたものが EMD 図 2 EMD を用いた意味的な関連性評価方法 となる. 図 2 の例では概念 $A, B$ 間の EMD は次のように表される. $ E M D(A, B)=\operatorname{cost}\left(a_{1}, b_{1}\right)+\operatorname{cost}\left(a_{2}, b_{2}\right)+\operatorname{cost}\left(a_{2}, b_{3}\right) $ 以上の式で算出された EMD の最小值を最適化計算で求め, 概念間の関連性(意味的な近さ) を算出している. ## 5 英字略語の意味推定方法 ## 5.1 英字略語の抽出 本論文で提案する英語略語の意味推定方法の処理対象として扱う英字略語は, 英単語の頭文字から構成される表記とする,例えば,商品の型番や「W杯」のように記号や数字,日本語などアルファベット以外の文字が混じる表記の場合,それらは英字略語ではないものとする。また,1 文字で構成される英字略語の場合,英単語の頭文字ではなく,例えば, $\mathrm{S}$ 字カーブの「 $\mathrm{S}\rfloor$ のように,アルファベットの形状などに起因する意味で使用されることがある.本研究は,語彙の意味に着目し,多義性を有する英字略語の意味推定を目的としている.また,英字略語は大文字のアルファベットで構成されることが多いため, 本論文では, 2 文字以上の大文字アルファベットのみで構成されている語を英字略語として扱うこととする。 入力として受け付ける情報は,英字略語が含まれている文章とし,その文章から 2 文字以上の大文字アルファベットの羅列を英字略語として抽出する. ## 5.2 Wikipedia による意味候補の検索 5.1 節で抽出した英字略語を Wikipedia (ウィキメディア財団) で検索する。検索の結果,当該英字略語を説明する意味が 1 つであった場合には,その意味を出力する.意味を複数有する場合には,次節で述べる意味的な近さに基づく多義性の解消を行うため,それぞれの意味を概念化する。概念化には,4.1.1 節で述べた概念べースと 4.1.2 節で述べた Webを用いた未定義語の概念化方法を用いる.今回, 6.1 節にあるように,英字略語の概念化は新聞記事を用いて実施しているため, Wikipedia から取得した意味候補の概念化も新聞記事を利用して実施したいが,各意味候補が新聞記事に含まれているとは限らない。一方, Wikipedia 内の情報は辞書的に構成されており,新聞記事内の情報とは系統が異なる。そこで,今回は新聞記事と同様に雑多な情報から構成される Web 情報を利用して意味候補の概念化を実施することにした. 一例として,英字略語「IC」をWikipedia で検索した際の結果を表 2 に示す。英字略語「IC」 の場合, 13 種類の意味を有していた。 Wikipedia から抽出した意味には,当該意味を説明・補助する情報(例えば,表 2 の 3 番における「-」以降の記述)が含まれるが,当該情報は意味の概念化処理における雑音となる。そこ で, Wikipedia から抽出した意味に表 3 に示した規則を上から順に適用することで雑音を削除する. さらに, Wikipedia に掲載されている意味の中には, 商品の型番やある種のコードなど英字略語ではないアルファベットの羅列(表 2 の例では 10 番と 11 番)が多数含まれているため,表 4 に示したストップワードを適用することで当該意味を削除した上で意味候補を取得する。 ## 5.3 英字略語の多義性解消 5.2 節で検索した英字略語が複数の意味を有した場合,その多義性を解消する必要がある.具体的には,5.2 節で概念化された意味候補と入力された英字略語を含む文章との意味的な近さを評価することで実現する。この際,概念化された意味候補と英字略語の意味的な近さを評価す 表 2 英字略語「IC」をWikipedia で検索した際の結果 1. 集積回路 (Integrated Circuit) - 電子機器に用いられる部品。関連:IC カード 2. インタークーラー (Inter Cooler) 3. インターチェンジ (Inter Change) - 道路交通同士が接続するための合分流構造。 4. イメージカラー (Image Color) 5. イオンクロマトグラフィー (Ion Chromatography) の略 6. インフォームド・コンセント (Informed Consent) 7. インターシティ (InterCity) - (特にヨーロッパの)都市間特別急行列車 8. インターシティ(ドイツ)-そのうちドイツにおける都市間列車について 9. インデックスカタログ - 星団や星雲、銀河を収載した 2 つの星表のこと (Index Catalogue) 10. NHK 富山放送局のラジオ第 2 放送・教育テレビのコールサイン (JOIC/JOIC-DTV) 11. イリノイ・セントラル鉄道の報告記号 (Illinois Central railroad) 12. インターコンチネンタル (Inter Continental) の略 13. 間質性膀胱炎 (Interstitial cystitis) の略 表 3 Wikipedia から英字略語の意味候補を取得する規則 ・意味候補にストップワード(表 4 参照)が含まれる場合,意味候補から除外 ・意味候補内の括弧開き $(\Gamma)$, 右矢印 $(\rightarrow)$, ハイフン $(-)$ より後ろの語を削除 $\cdot$意味候補内の「など」を削除 - 意味候補内の「のこと」,「の略」,「の略符」,「の通称」,「の愛称」,「の名称」,「の英文略称名」 より前の語を取得 $\cdot$意味候補内の「の一つ、」より後ろの語を取得 表 4 設定したストップワードのリスト 型番, 型式, 形式, シリーズ, 略号, 単位, ドメイン, 拡張子, 記号, 符号, 係数, コマンド, 国名コード, 行政区画コード, 県名コード, 郵便コード, 空港コード, 港コード, IATAコード, 航空会社コード, 形式コード, 通貨コード, 言語コード, 作品, 楽曲, 登場, アルバム, コールサイン, 一覧, 上記, その他, 以下 るため,英字略語も概念化する必要がある. 入力された文章に含まれる自立語をすべて抽出し,それを英字略語の一次属性と見立てる. これにより,英字略語を疑似的に概念化できる。なお,英字略語の一次属性とした自立語の中には概念べースに登録されている語と登録されていない語(未定義語)が存在する.未定義語については,4.1.2 節で説明した方法により概念化を行う.この処理により,英字略語を概念とし,一次,二次へと属性を展開することができ,意味的な近さを評価することが可能になる. なお,英字略語を疑似的に概念化する際,一次属性として抽出した自立語が未定義語であった場合,当該一次属性に対する重みは,4.1.2 節で説明した未定義語の概念化における属性への重み付けの考え方と同様にして付与する. 具体的には, 語の網羅性である $t f$ 値は, 入力された文章 $A$ 中に出現する自立語 Word $_{A}$ の出現頻度 $t$ freq $\left(W\right.$ ord $\left._{A}, A\right)$ を文章 $A$ 中のすべての自立語の語数 tnum $_{A}$ で割ったもので算出される.算出式は以下のようになる. $ t f\left(\operatorname{Word}_{A}, A\right)=\frac{\text { tfreq }\left(\text { Word }_{A}, A\right)}{\text { tnum }_{A}} $ 語の特定性である $i d f$ 値は $S W e b$-idf ではなく Statics Article-Inverse Document Frequency $(S A$-idf $)$ を用いる。これは,疑似的な全文章空間の情報として, tf 值を算出する際に使用した文章と同じカテゴリ,ジャンルである文章集合を利用する必要があるためである. SA-idf 値の算出式は以下のように定義される。ここで, $N$ は利用する文章集合の全文章数, $d f\left(W o r d_{A}\right)$ はその文章集合の中で Word $_{A}$ が出現する文章数である. $ S A-i d f\left(\operatorname{Word}_{A}\right)=\log \frac{N}{d f\left(\operatorname{Word}_{A}\right)} $ 以上に示した式より,自立語 $\operatorname{Word}_{A}$ へ付与する重み $w$ は次の式で定義される. $ w=t f\left(\operatorname{Word}_{A}, A\right) \cdot S A-i d f\left(\operatorname{Word}_{A}\right) $ このように,概念化された英字略語と意味候補との意味的な近さを 4.2 節で説明した語彙の意味的な近さを評価する方法により評価する。その結果, 最も意味的に近いと判断された意味候補を英字略語の意味とする。 ## 6 評価実験 ## 6.1 実験条件 本論文では,新聞記事から英字略語を抽出し,当該英字略語が含まれている記事を入力文章とすることで評価を実施した。今回使用した新聞記事は全国紙 1 か月分(約 12,000 記事)であ り,2 文字以上の大文字アルファベットの羅列が含まれる記事は約 3,700 記事であった. 当該約 3,700 記事から表 4 に示したストップワードに該当する略語として意味がない文字列を含む記事を人手で削除した上で,無作為に 129 記事を抽出し,評価実験データとして使用した。なお, その中で, 表記が異なる英字略語の数は 58 個であった. つまり, 129 種類の英字略語の意味と 58 種類の英字略語の表記が含まれる記事を評価実験データとして使用した.また,当該 58 個の英字略語の表記を Wikipedia で検索し, 表 3 と表 4 に示した規則を適用した結果, 707 個の意味を取得できた(1つの英字略語の表記につき,平均で 12.2 個, 最少で 2 個, 最多で 29 個の意味が存在). 提案方法により推定した英字略語の意味が,当該英字略語を含む新聞記事における意味と一致した場合を正答として評価した。なお,意味の一致に関する判定は人手で実施しており, Wikipedia から取得した意味候補の中に正解となる候補が複数含まれることもある(例えば,表 2 における 7 番と 8 番の候補「インターシティ」は両方ともヨーロッパにおける都市間列車を指しており,どちらを選択しても正解と判定している),今回は評価の簡略化のため, 英字略語として扱う 2 文字以上の大文字アルファベットの羅列が 1 つ含まれる記事を評価対象としている. 5.3 節で述べた通り,入力した文章を用いて英字略語を疑似的に概念化する際には, 4.1 .2 節での考え方に基づき属性に重み付けを行う,今回の実験における入力対象は新聞記事である. そのため, 概念べースに登録されていない未定義語である一次属性に対する重み付けに必要な $S A$-idf 値の算出には, 1 か月分の新聞記事集合を使用した. この 1 か月分の新聞記事集合から,概念べースの収録語数である約 9 万語を超える単語数が得られたことから,当該集合を疑似的な全文章空間の情報とみなしている. ## 6.2 比較方法 本節では, 本論文における提案方法の比較に使用するべクトル空間モデル (Salton et al. 1975) について述べる. ベクトル空間モデルは,情報検索の分野で幅広く利用されている検索モデルである.各語の重みから構成されるべクトルとして入力語と文書をそれぞれ表現し, 二つのベクトルの成す角度の余弦によって類似度を計算する点に特徴がある。 ベクトル空間モデルにおいて使用される重みにはいくつかの種類があるが, 本評価では, 情報検索の分野で広く用いられている $t f \cdot i d f($ 徳永 1999)を使用する.5.2 節で概念化された英字略語を含む入力文章を $q$, 同様に概念化された意味候補を $d_{i}$, 両者における自立語の語の総数(異なり)を $M$ とすれば, 入力文章 $q$ と意味候補 $d_{i}$ はそれぞれ以下のような $M$ 次元のベクトルで表現できる. $ \begin{aligned} q & =\left(w_{q 1}, w_{q 2}, \cdots, w_{q M}\right) \\ d_{i} & =\left(w_{i 1}, w_{i 2}, \cdots, w_{i M}\right) \end{aligned} $ 入力文章 $q$ に対する意味候補 $d_{i}$ の得点 $s_{q}\left(d_{i}\right)$ は二つのベクトルの余弦により求まる. 式を以下に示す. $ s_{q}\left(d_{i}\right)=\frac{\sum_{j=1}^{M} w_{i j} w_{q j}}{\sqrt{\sum_{j=1}^{M} w_{i j}^{2}} \sqrt{\sum_{j=1}^{M} w_{q j}^{2}}} $ ## 6.3 評価結果 本論文では, 提案方法に対して, 以下に示す 3 種類の入力文章 $(\mathrm{A}, \mathrm{B}, \mathrm{C})$ および 3 種類の関連性評価方法 $(1,2,3)$, つまり, 合計 9 パターンの評価を行った.評価方法(入力文章) - (A) 英字略語を含む記事全体 - (B) 英字略語を含む一文とその前後一文 - (C) 英字略語を含む一文のみ 評価方法(関連性評価方法) - (1) 関連度計算(関連度) - (2)Earth Mover's Distance (EMD) ・ (3) ベクトル空間モデル (VSM) 評価結果を表 5 に示す. 表 5 における数値は正答率を示す. なお, 2 章で紹介した先行研究 (岡崎, 石塚 2007; 吉田他 2005) は, 適用可能な英字略語に制約条件(英字略語の意味を括弧書きで併記することが必要, 片仮名表記が必要)がある,今回の評価で使用した 129 記事に対して, 当該先行研究が適用できた英字略語はそれぞれ $35 \%$ 程度であったため, これらの先行研究の正答率は最高でも $35 \%$ 程度となる. 表 5 より,関連度計算はベクトル空間モデルよりも正答率が $5-8 \%$ 高く, EMD はべクトル空間モデルよりも正答率が 8-12\%高くなっており,提案方法が既存方法であるべクトル空間モデルよりも優れた結果を示した。また,EMDは関連度計算よりも 3-4\%と若干ではあるが高い正答率を獲得した,他には,入力文章が長い(入力情報量が多い)ほど高い正答率を得ていることが分かる。意味推定結果の一例を図 3 , 図 4 , 図 5 に示す. 表 5 評価結果 & & & 入力文章 & & 評価手法 & 推定結果 & 判定 \\ 図 3 英字略語の意味推定結果一例(その 1) & & & 入力文章 & & 評価手法 & 推定結果 & 判定 \\ 図 4 英字略語の意味推定結果一例(その 2) 図 3 では, 英字略語 AFC に対して, Wikipedia から取得した 13 個の意味候補から,9つのすベてのパターンにおいて正しい意味を推定できており,英字略語の意味を十分に理解できていることが分かる. 次に, 図 4 では, 英字略語 HD に対して, 20 個の意味候補から, 入力文章に英字略語を含む & & & 入力文章 & & 評価手法 & 推定結果 & 判定 \\ 図 5 英字略語の意味推定結果一例(その 3) 記事全体を使用した場合(パターン (A))は正しい意味を推定できた一方,推定に失敗したパターンがある,具体的には, ベクトル空間モデルを使用し,かつ,入力文章に英字略語を含む一文とその前後一文または英字略語を含む一文のみを使用した場合(パターン (B)-(3), パター ン (C)-(3))と, 関連度計算を使用し, かつ, 入力文章に英字略語を含む一文のみを使用した場合(パターン (C)-(1))に失敗している。前者(パターン (B)-(3), パターン (C)-(3))は, 単語の表記をもとに関連性を判断するべクトル空間モデルより,単語の意味を考慮して関連性を判断する関連度計算や EMD が有効に機能したためだと考えらえる。後者(パターン (C)-(1))は,関連性の高い属性を 1 対 1 で対応をとって計算を行うために他の関連性の高い属性を除外する可能性がある関連度計算より,すべての属性を計算に利用する EMD が有効に機能したことが考えられる。 最後に,図 5 では, 英字略語 $\mathrm{FB}$ に対して, 16 個の意味候補から,9つのすべてのパターンにおいて正しい意味を推定することができなかった。これは, 入力文章に金銭に関連する語が多く含まれていたため, 正しい意味である「フェイスブック」より金銭に関連する意味候補である「政府短期証券」のほうが意味的に近いと判定されたためだと考えられる。 Wikipedia は現存する辞書の中で収録語数が最も多いとされるが, 提案方法は, 処理の拠り所である辞書に登録されていない単語には対応できないという問題がある。これは,辞書を使用する以上,避けられない問題である。たたし, 評価実験で使用したデータとは異なる 100 件の新聞記事を無作為に調査した結果, Wikipedia に登録されていない英字略語の出現頻度は約 $4.5 \%$ てっった. よって, 新聞記事に登場するような比較的一般的な英字略語を対象とする場合, Wikipedia に未登録の語があることに起因する正答率の低下は $5 \%$ 程度であると考えられる。な お,今回実施した評価に関しては,Wikipedia に登録されていない英字略語は評価実験データから除外している。 ## 7 まとめ 本論文では,英単語の頭文字から構成される表現である英字略語に焦点を当て,その意味を推定する方法について提案した.提案方法では,英字略語の意味推定を未知語の意味推定とみなし,語彙の概念化方法と語彙の意味的な近さを評価できる関連性評価方法を使用する。さらに,英字略語ゆえの情報の欠如をWikipedia を辞書として用いて補完することで,英字略語の多義性を解消し, 英字略語の本来の意味を推定することを実現した。 提案方法に対して, 129 件の新聞記事を入力文章として評価を行った。評価結果より,最高で $80 \%$ 近い正答率を示したことに加え, 表記に頼る比較方法より良好な結果を得ることができた. 本論文で提案した技術により, 英字略語の意味を理解しやすくすることができ, 情報検索や自動要約など多くのアプリケーションの性能向上や知能ロボットの研究開発における自然な知的対話の実現に寄与することができると考えられる. 今後の研究課題としては, 近年, 盛んに研究が行われている Word2Vec(Mikolov, Chen, Corrado, and Dean 2013)のようなニューラルネットワークを応用したべクトルモデルを適用する方法の検討が考えられる。ベクトルモデルを構築するために使用する情報源を適切に選択・構築することで,概念べースそのものを拡張(性能向上)できる可能性がある。このような検討により,語彙の概念化処理を発展させ,より円滑な自然言語処理の実現が期待できる. ## 謝 辞 本研究の一部は, JSPS 科研費 $16 \mathrm{~K} 00311$ の助成を受けたものです. ## 参考文献 藤江悠五, 渡部広一, 河岡司 (2009). 概念ベースと Earth Mover's Distance を用いた文書検索.自然言語処理, $16(3)$, pp. 25-49. Google, Inc. "Google." http://www.google.co.jp. 後藤和人, 土屋誠司, 渡部広一, 河岡司 (2008). Web を用いた未知語検索キーワードのシソー ラスノードへの割付け手法. 自然言語処理, 15 (3), pp. 91-113. 広瀬幹規, 渡部広一, 河岡司 (2002). 概念間ルールと属性としての出現頻度を考慮した概念ベー スの自動精錬手法. 信学技報, NLC2001-93, pp. 109-116. Hoffman, A. J. (1963). "On Simple Linear Programing Problems." In Proceedings of the 7th Symposium in Pure Mathematics of the AMS, Vol. 7, pp. 317-323. 小島一秀, 渡部広一, 河岡司 (2002). 連想システムのための概念べース構成法一属性信頼度の考え方に基づく属性重みの決定. 自然言語処理, 9 (5), pp. 93-110. Mihalcea, R. (2007). "Using Wikipedia for Automatric Word Sense Disambiguation." In Proceedings of NAACL HLT, pp. 196-203. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013). "Efficient Estimation of Word Representations in Vector Space." arXiv preprint, arXiv:1301.3781, pp. 1-12. 岡崎直観, 石塚満 (2007). 日本語新聞記事からの略語抽出. 第 21 回人工知能学会全国大会論文集, 2G4-4, pp. 1-3. Okazaki, N., Ananiadou, S., and Tsujii, J. (2010). "Building a High-quality Sense Inventory for Improved Abbreviation Disambiguation.” Bioinformatics, 26 (9), pp. 1246-1253. 奥村紀之, 土屋誠司, 渡部広一, 河岡司 (2007). 概念間の関連度計算のための大規模概念べー スの構築. 自然言語処理, 14 (5), pp. 41-64. Salton, G., Wong, A., and Yang, C. S. (1975). "A Vector Space Model for Automatic Indexing." Communications of the ACM, 18 (11), pp. 613-620. Stevenson, M., Guo, Y., Amri, A. A., and Gaizauskas, R. (2009). "Disambiguation of Biomedical Abbreviations." In Proceedings of the Workshop on BioNLP, pp. 71-79. Sun, Y., Lin, L., Tang, D., Yang, N., and Wang, X. (2015). "Modeling Mention, Context and Entity with Neural Networks for Entity Disambiguation." In Proceedings of the 24th International Joint Conference on Artificial Intelligence (IJCAI 2015), pp. 1333-1339. 徳永健伸 (1999). 情報検索と言語処理. 東京大学出版会. 辻泰希, 渡部広一, 河岡司 (2004). wwwを用いた概念べースにない新概念およびその属性獲得 手法. 第 18 回人工知能学会全国大会論文集, 2D1-02, pp. 1-4. 渡部広一, 河岡司 (2001). 常識的判断のための概念間の関連度評価モデル. 自然言語処理, $8(2)$, pp. 39-54. 渡部広一, 奥村紀之, 河岡司 (2006). 概念の意味属性と共起情報を用いた関連度計算方式. 自然言語処理, 13 (1), pp. 53-74. ウィキメディア財団. ウィキペディアフリー百科事典. https://jp.wikipedia.org.吉田辰巳, 遠間雄二, 増山繁, 酒井浩之 (2005). 可読性の向上を目的とした片仮名表記外来語の換言知識獲得. 電子情報通信学会論文誌, J88-D-II (7), pp. 1237-1245. ## 略歴 後藤和人:2008 年同志社大学大学院工学研究科博士前期課程修了. 同年, 日本電信電話株式会社入社. 知識情報処理等の研究に従事. 電子情報通信学会会員. 土屋誠司 : 2007 年同志社大学大学院工学研究科博士後期課程修了. 工学博士. 2017 年同志社大学理工学部教授. 意味解釈等の研究に従事. 言語処理, 人工知能, 情報処理, 電子情報通信, 日本認知科学会各会員. 渡部広一:1987 年北海道大学大学院工学研究科博士後期課程中途退学. 工学博士. 2006 年同志社大学工学部教授. 概念処理等の研究に従事. 言語処理,人工知能, 情報処理, 電子情報通信, システム制御情報, 精密工学会各会員. (2016 年 11 月 21 日受付) (2017 年 2 月 2 日再受付) (2017 年 3 月 28 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 音声対話ロボットのための傾聴システムの開発 高齢者の認知症や孤独感の軽減に貢献できる対話ロボット開発のため, 回想法に基 づく傾聴を行う音声対話システムの開発を行った. 本システムは,ユーザ発話の音声認識結果に基づき,相桘をうったり,ユーザ発話を繰り返したり,ユーザ発話中 の述語の不足格を尋ねたりする応答を生成する。さらに,感情推定結果に基づき, ユーザ発話に対して共感する応答を生成する. 本システムの特徵は, 音声認識結果 に誤りが含まれることを前提とし, 音声認識信頼度を考慮して応答を生成する点で ある. 110 名の一般被験者に対する評価実験の結果, 「印象深い旅行」を話題とした 場合で, $45.5 \%$ の被験者が 2 分以上対話を継続できた. また, システムの応答を主観的に評価した結果,約 $77 \%$ のユーザ発話に対して対話を破綻させることなく応答生成ができた。さらに,被験者へのアンケートの結果,特に高齢の被験者から肯定的な主観評価結果が得られた。 キーワード:音声対話ロボット,傾聴,回想法,高齢者 ## Active Listening System for a Conversation Robot \author{ Kazuya Shitaoka $^{\dagger}$, Ryoko Tokuhisa $^{\dagger}$, Takayoshi Yoshimura ${ }^{\dagger}$, Hiroyuki Hoshino $^{\dagger}$ \\ and NARImASA WatanABE ${ }^{\dagger \dagger}$ } We have developed an active listening system for a conversation robot, specifically for reminiscing. The aim of the system is to contribute to the prevention of dementia in elderly persons and to reduce loneliness in seniors living alone. Based on the speech recognition results from a user's utterance, the proposed system produces backchannel feedback, repeats the user's utterance and asks information about predicates that were not included in the original utterance. Moreover, the system produces an appropriate empathic response by estimating the user's emotion from their utterances. One of the features of our system is that it can determine an appropriate response even if the speech recognition results contain some errors. Our results show that the conversations of $45.5 \%$ of the subjects $(n=110)$ with this robot continued for more than two minutes on the topic "memorable trip". The system response was deemed correct for about $77 \%$ of user utterances. Based on the results of a questionnaire, positive evaluations of the system were given by the elderly subjects. Key Words: Dialogue Robot, Active Listening, Reminiscence Therapy, Elderly Person  ## 1 はじめに 日本は, 2007 年に高齢化率が $21.5 \%$ となり「超高齢社会」になった (総務省統計局 2013 ).世界的に見ても,高齢者人口は今後も増加すると予想されており,認知症治療や独居高齢者の孤独死が大きな問題となっている。 また, 若い世代においても, 学校でのいじめや会社でのストレスなどにより精神状態を崩すといった問題が起きている。このような問題を防ぐ手段として, カウンセリングや傾聴が有効であると言われている (池見 1996). しかし, 高齢者の介護職は人手不足であり,また,家庭内においても,身近に,かつ,気軽に傾聴してもらえる人がいるとは限らない. このような背景のもと, 本論文では, 音声対話ロボットのための傾聴対話システムを提案する. 我々は, 介護施設や病院, あるいは, 家庭に存在する音声対話ロボットが傾聴機能を有することにより,上記の問題の解決に貢献できると考えている. 傾聴とは,話を聴いていることを伝え,相手の気持ちになって共感を示しつつ,より多くのことを話せるように支援する行為であり,聴き手は,表 1 に挙げる話し方をすることが重要であるとされる (ホールファミリーケア協会 2004; 三島, 久保田 2003; 榆木 1989). また, 傾聴行為の一つとして回想法が普及している。回想法とは,アメリカの精神科医 Butlerによって 1963 年に提唱されたものであり (Butler 1963), 過去の思い出に, 受容的共感的に聞き入ることで高齢者が自分自身の人生を再評価し, 心理的な安定や記憶力の改善をはかるための心理療法である (黒川 2005). 本論文は, この回想法による傾聴を行う音声対話システムの実現を目指す. 音声対話システムとして, 音声認識率の向上やスマートフォンの普及などを背景に, Appleの Siri (Bellegarda 2013) や Yahoo!の音声アシスト (磯, 颯々野 2013), NTT ドコモのしゃべってコンシェル (東中, 貞光, 内田, 吉村 2013) といった様々な音声アプリケーションが登場し, 一般のユーザにも身近なものになってきた。単語単位の音声入力や一問一答型の音声対話によって情報検索を行うタスク指向型対話システムに関しては,ある一定の性能に達したと考えられる (河原 2013). しかしながら, これらの音声対話システムは, 音声認識率を高く保つために, ユーザが話す内容や発声の仕方(単語に区切るなど)を制限している. 一方で,雑談対話のような達成すべきタスクを設定しない非タスク指向型対話システムも多く提案されており (Tokuhisa, Inui, and Matsumoto 2008; Banchs and Li 2012; Higashinaka, 表 1 傾聴において重要とされる話し方 Imamura, Meguro, Miyazaki, Kobayashi, Sugiyama, Hirano, Makino, and Matsuo 2014; Higashinaka, Funakoshi, Araki, Tsukahara, Kobayashi, and Mizukami 2015), 傾聴対話システムも提案されている. 傾聴対話システムの先行研究として, Han らの研究 (Han, Lee, Lee, and Lee 2013; Han, Bang, Ryu, and Lee 2015), および, 大竹らの研究がある (大竹, 萩原 2012, 2014). これらの研究は, いずれも対話システムによる傾聴の実現を目的としており,5W1H 型の疑問文による問い返し (e.g., Usr: とっても美味しかったよ. $\Rightarrow$ Sys: 何が美味しかったの?)や,固有名詞に関する知識ベースに基づく問い返し (e.g., Usr: I Like Messi. $\Rightarrow$ Sys: What is Messi's Position?), あるいは,評価表現辞書を用いた印象推定法による共感応答 (e.g., Usr: 寒いしあまり炬烽から出たくないね。 $\Rightarrow$ Sys: 炬燵は暖かいよね))などの生成手法が提案されている.Han ら,大竹らの研究は傾聴対話システムの実現を目的としている点において, 我々と同様である。しかしながら, これらの研究はテキスト入力を前提としているため, 音声入力による対話システムへ適用する際には,音声認識誤りへの対応という課題が残る. 傾聴のような聞き役対話システムの先行研究としては, 目黒らの研究がある (目黒, 東中, 堂坂, 南, 磯崎 2009 ; 目黒, 東中, 南, 堂坂 2011; 目黒, 東中, 堂坂, 南 2012). この研究では,人同士の聞き役対話と雑談を収集し, それぞれの対話における対話行為の頻度を比較・分析し, さらに,聞き役対話の流れをユーザ満足度に基づいて制御する手法を提案している。ただし, この研究の目的は, 人と同様の対話制御の実現であり, また, カウンセリングの側面を持つ傾聴ではなく,日常会話においてユーザが話しやすいシステムの実現を目指している点で,我々と異なる。 また, 山本, 横山, 小林らの研究 (山本, 小林, 横山, 土井 2009 ; 横山, 山本, 小林, 土井 2010 ; 小林, 山本, 横山, 土井 2010 ; 小林, 山本, 土井 2011,2012 ) は, 対話相手の画像や音声から会話への関心度を推定し, 関心度が低い場合は話題提示に, 関心度が高い場合は傾聴に切り替えることで雑談を継続させる。発話間の共起性を用いて, 音声の誤認識による不適切な応答を低減する工夫も導入している。さらに, 病院のスタッフと患者間の対話から対話モデル(隣接ペア)を用いた病院での実証実験を行っており,ロボットとの対話の一定の有効性を示している。しかしながら,傾聴時において生成される応答は「単純相槌」「反復相槌」「質問」の 3 種類であり,ユーザ発話中のキーワードを抽出して生成されるため,ユーザ発話中に感情表現がない場合に (e.g., Usr: 混雑していたよ),傾聴において重要とされる「共感応答」(e.g., Sys: それは残念でしたね)は扱っていない. 同様に,戦場の兵士らの心のケアを目的とした傾聴対話システム SimCoach や,意思決定のサポートをする SimSensei という対話システムも構築されている (Morbini, Forbell, DeVault, Sagae, Traum, and Rizzo 2012; DeVault, Artstein, Benn, Dey, Fast, Gainer, Georgila, Gratch, Hartholt, Lhommet, Lucas, Marsella, Morbini, Nazarian, Scherer, Stratou, Suri, Traum, Wood, Xu, Rizzo, and Morency 2014). SimCoach や SimSensei は CGによる Agent 対話システムで,発話内容に合わせた豊かな表情や領きを表現することで,人間とのより自然な対話を実現している点も特徴である. 我々は,対話システムの機能を,回想法をべースとした傾聴に特化することにより,音声認識や応答生成のアルゴリズムをシンプル化し, 対話が破綻することなく継続し, 高齢者から若者まで満足感を感じさせるシステムの実現を目指す. Yamaguchi ら, Kawahara らは, 傾聴対話システムがユーザ発話に対して傾聴に適した相槌を生成する手法とその有効性について報告している (Yamaguchi, Inoue, Yoshino, Takanashi, Ward, and Kawahara 2016; Kawahara, Uesato, Yoshino, and Takanashi 2016). 具体的には, 人同士の傾聴時の対話で生じる相桘を対象として相槌が持つ先行発話との関係を分析し,それに基づいて相槌生成の形態,韻律を決定する手法を検討した. 結果として, 先行発話の境界のタイプや構文の複雑さに応じて相槌を変えることや, 先行発話の韻律的特徴と同調するように韻律的特徴を制御することの有効性を述べている.相槌の生成ではタイミング,形態,韻律が重要であるが,今回のシステムでは,適切な内容の応答生成による対話の継続と満足感の評価を目的としている. 本論文の貢献は, 音声認識誤りを考慮した上で, 傾聴時に重要な応答の生成を可能にする手法の提案, および, 提案手法が実装されたシステムの有効性を, 応答正解率の観点と, 100 人規模の被験者実験による対話継続時間と主観評価による満足度の観点で評価した点である。本論文の構成は,次のようになっている.第 2 章で本傾聴対話システムの概要を述べる。第 $3,4,5$章は, 本対話システムの機能である音声認識, および, 認識信頼度判定部, 問い返し応答生成部, 共感応答生成部に関する実装に関して, 第 6 章で評価実験と結果について説明し, 第 7 章でまとめる. ## 2 傾聴システムの概要 本章では,提案する傾聴システムの概要について述べる. ## 2.1 目指す対話例 図 1 に,回想法の実施事例を示す (須田 2013),聞き手 (S) は,話し手 (A) が自身の過去を思い出しやすいように「問い返し」を重ね,それに対して話し手が答える,というスタイルがベー スとなって対話が進行している。また, 聞き手は, 適切なタイミングで, 「言い換え」「要約」「相桘」「共感」「繰り返し」といった, 傾聴に重要とされる応答を行っていることが分かる. 我々は,図 1 に示すような回想法による傾聴対話を実現するため,対話のテーマを「過去の出来事」 に設定し, ユーザが語る過去の行動や感情に対して, 音声認識誤りを考慮した上で, システムが傾聴に重要とされる応答を生成するための手法を提案する. 図 1 回想法の実施例(須田 2013 より抜粋) なお, 本論文では, 上記の応答のうち, 「繰り返し」「問い返し」「共感」「相桘」の 4 種類の応答を対象とする。なぜなら,「言い換え」および「要約」については「繰り返し」により粗い近似が可能である,と考えたためである.次節では,このような対話を実現するための傾聴システムの機能構成について述べる. ## 2.2 傾聴システムの機能構成 提案する傾聴システムの機能構成を図 2 に示す. 大きく分けて,「音声認識・信頼度判定」「繰り返し/問い返し応答の生成」「共感応答の生成」「相槌応答の生成」「応答選択」の 5 つ機能で構成されている。以下で,それぞれの機能の概要を述べる。 ## 【 音声認識・信頼度判定 入力されたユーザ発話を音声認識し, 音声認識結果の信頼度を算出する。認識結果が信頼できると判定された場合は,当該認識結果を用いて,繰り返し/問い返し応答,および,共感応答を生成する。一方,信頼できないと判定された場合には,当該認識結果を用いた応答を行うのではなく,予め用意された相槌応答を生成する。これにより,誤認識結果を用いた応答生成を低減し,対話の破綻を防ぐ,詳細は 3 章で述べる. ## ■ 繰り返し/問い返し応答の生成 ユーザ発話の最終述語に着目し, 認識信頼度が高いと判定された当該述語,および,当該述語が持つ格に基づき,繰り返し/問い返し応答を生成する。ここで,本論文では,以下のものを「述語」と定義し,ユーザ発話に含まれるこれら全ての表現のうち,最後に出現するものを 「最終述語」として抽出する. (1) 表 2 に示す語のうち, 表 3 に示す過去表現を伴っているもの. (2)ただし,表 2 に示す語と,表 3 に示す過去表現との間にアスペクト(〜していた,~しに行った),ムード(ししたった,~しなかった), ヴォイス(~してもらった,〜された)などの表現が含まれる場合には,それらも含む。 過去表現を伴うものに限定するのは, 2.1 節でも述べたように,本論文では,対話のテーマを 「過去の出来事」に設定するためである。また,アスペクトやムードなどを考慮することにより, より自然なシステム応答の生成(e.g., Usr:もっと食べたかったよ. Sys: 食べたかったんですか.)を可能にする. 図 2 傾聴システムの機能構成 表 2 本論文で定義する「述語」の候補となる語 表 3 本論文で扱う過去表現 問い返し応答は,以下で述べる $(\mathrm{A}),(\mathrm{B})$ の手法により生成する. これら 2 つの手法により,音声認識の信頼度が高い場合のみ, 繰り返し応答や問い返し応答を生成することで, ユーザの発話内容を正確に繰り返し「聴いている」ことを示すと同時に,ユーザの過去を思い出しやすくし, 次の発話を促す。 ## (A) 最終述語の不足格判別に基づく問い返し ユーザ発話の最終述語が動詞, および, 「サ変名詞+する」の場合に,当該述語に対する不足格の判別を行うことにより,ユーザ発話には含まれない格を問い返す応答を生成する。図 2 の例では, ユーザ発話の最終述語「貪う」について, あらかじめ作成した動詞の必須格辞書を用いて,発話に必須格「誰から」が含まれていないことを判別し,『誰からもらったんですか?』 を生成する. 不足格判別に基づく問い返し応答の生成の詳細は 4.1 節で述べる. ## (B) 辞書を用いた適切性判断に基づく問い返し ユーザ発話の最終述語, および, 格要素について, 表 4 に示す問い返しが適切かどうかを辞書に基づき判断し, 応答を生成する。図 2 の例では, 最終述語「貪う」に対する感想, および,格要素「お花」の詳細については, 問い返すことが適切であると判断され, 『どうでしたか?』, および, 『どんなお花ですか?』が生成されている。辞書を用いた適切性判断に基づく問い返しの詳細については 4.2 節で述べる. ## 共感応答の生成 感情推定に関しては様々な研究がある (乾, 奥村 2006). Balahur らは感情が非明示的に表現された文から感情を推定することを目的として,感情生起のトリガーとなる事態を記述した EmotiNet の構築を提案している (Balahur and Hristo 2016)。 また, 長谷川らは, 聞き手にター ゲットとなる感情を生起させるための応答生成手法を考案している (長谷川, 鍛冶, 吉永, 豊田 2014). この中で長谷川らは, Twitter から構築した感情夕グ付き対話コーパスを利用することで,「一緒に夕食に行かない?」という入力に対して「38 度の熱があるのでいけません」と応答し,聞き手に「悲しみ」を喚起するような応答生成を実現している. これに対して我々は,話し手であるユーザの発話内容に対するユーザ自身の感情を推定し, その結果を利用することにより,ユーザへの共感応答を生成する,図 2 の例では,「誕生日にお花を貪う」に対するユーザ自身の感情が「嬉しい」であると推定した結果,共感応答『それは嬉しいですね』が生成されている,本論文では,この例のように,ユーザ発話中に明示的な感 表 4 辞書を用いた適切性判断に基づき生成される問い返しの種類 情表現(e.g., 嬉しい)が含まれていない場合であっても,音声認識誤りが含まれるユーザ発話からデー夕駆動型で感情推定を行い,共感応答を生成する。詳細は 5 章で述べる. ## 相桘忘答の生成 認識信頼度が低いと判定された場合は,相槌応答を生成する。ここでは,相槌応答として,以下の 2 種類を生成する。 (1)システムの直前発話として,「感情・形容表現に対する理由を尋ねる」問い返し応答が生成されていた場合は,システムが「理解」あるいは「納得」したことをより強くユーザに示した方が,対話の自然性が向上するため,相槌『なるほど』を生成する. (2)それ以外の発話が生成されていた場合は,相槌『そうですか』を生成する. ## ■ 応答選択 認識信頼度が高いと判定され, 繰り返し応答, 問い返し応答, 共感応答のいずれかの応答が生成された場合は,以下の考えに基づき,繰り返し/問い返し応答を優先的に選択する。 - 繰り返し応答により,「聴いている」ことを効果的にユーザに伝えることができる - 問い返し応答により, ユーザが過去の記憶を思い出しやすくなると同時に,対話をより継続することができる - 共感応答は, 繰り返し応答と同時に出力することで, 「共感している」ことをより効果的に伝えることができる 具体的には,以下のように応答選択を行う. (1)繰り返し/問い返し応答のいずれかが生成されている場合は, それらの中からランダムに選択する。なお,ランダムに選択した結果が繰り返し応答の場合は,繰り返し応答の後に続けて出力する応答を,以下のように選択する。 - 問い返し応答が生成されている場合は, それらの中からランダムに選択し, 繰り返し応答に続けて出力する (e.g., お花を貪ったんですか. 誰から貪ったんですか? ). - 問い返し応答は生成されていないが, 共感応答が生成されている場合は, 共感応答を繰り返し応答に続けて出力する (e.g., お花を貪ったんですか. それは嬉しいですね.). - 問い返し応答, 共感応答のいずれも生成されていない場合は, 繰り返し応答のみを出力する. (2)繰り返し/問い返し応答が一切生成されていない場合は,共感応答を選択する. ## 3 音声認識, および,認識信頼度アルゴリズム 本章では,音声認識,および,認識信頼度判定アルゴリズムについて述べる。 ## 3.1 音声認識 まず,音声認識については, 音声認識エンジンとして Julius (Lee, Kawahara, and Shikano 2001)を使用した. ここで,音響モデルは,不特定話者 PTM モデル (李 2000) を利用した. 言語モデルについては,想定する対話の特性を踏まえ,次の 2 点を考慮して作成した。なお,作成した言語モデルの語彙数は 6 万語である. (1) ユーザ発話の多くは,過去の行動や感情に関する発話である システムは回想法によりユーザに過去の出来事に関する発話を促すため,ユーザ発話には行動や感情に関する単語が含まれることが予想される。表 5 に試作版の傾聴システムへの入力例を示す。 (2) ユーザ発話中に, 名詞単独の発話が含まれる 我々の傾聴システムは, 問い返し応答の 1 つとして, 不足格を問い返す応答を生成する.この問い返しに対し,ユーザが名詞単独で発話することが予想される (e.g., Sys: どこで食べたんですか? Usr: お店). 以上 2 点を踏まえ, 言語モデルは以下のように作成した. 手順 [1]:Web 上のテキストデータ (Kawahara and Kurohashi 2006)において,行動や感情が記述されやすい Webページを選別し, 学習コーパスとした。学習コーパスの総量は, 約 215 万ページ, 3350 万文であった。これまでに,行動や感情が記述されたコーパス作成手法として,大規模ブログデータから, 人間の経験(時間と空間, 動作とその対象, 感情)を, 適切な動詞と 121 個の感情語を用いて抽出する手法 (倉島, 藤村, 奥田 2009) や, 過去時制動詞を主とした特徵語と, 未来と現在時制動詞を主とした特徴語により, 個人的な話題をブログデータから抽出する手法 (Gordon and Swanson 2009) などが提案されている.ここでは, 言語モデル作成のためであり,コーパス内容をそれほど限定する必要がないことから,以下に示す方法で Webペー ジを選別した。 (1) 行動や感情が記述されやすい日記の Webページを学習デー夕とする。具体的には, URL に「BLOG, Blog, blog, DIARY, Diary, diary」のいずれかを含む Webぺージを採用した. (2)試作版の傾聴システムを用いて,開発者数名で予備実験したところ,対話ログに述語 691 語が含まれていた。この述語のうち, 30 語以上を 1 ページ内に含む Webページを採用 表 5 試作版の対話システムへの入力例 した。これは,日記や物語などに関して記述された Webぺージが中心である。 手順 [2]:上記コーパスに出現した名詞を対象に,それらの名詞単独からなる文 (e.g., 映画)を, その出現頻度に従い学習コーパスに追加した。なお, 追加した名詞は 40,239 語である. ## 3.2 認識信頼度アルゴリズム 次に,認識信頼度判定アルゴリズムについて述べる。認識信頼度判定の目的は, 繰り返し/問い返し応答生成, および, 共感応答生成を行う前に, 認識結果に含まれる認識誤りした単語を棄却し,信頼できると判定された認識結果のみを用いて,応答生成を行うことである。ここで,繰り返し/問い返し応答を生成する場合と,共感応答を生成する場合では,以下に述べるように,ユーザ発話中の着目すべき要素,つまり,信頼できるかどうかを判定すべき要素が異なると考えられる。 まず, 繰り返し/問い返し応答については, 2.2 節で述べたように, ユーザ発話中の最終述語, および,その述語が持つ格から生成される。つまり, 繰り返し/問い返し応答の生成において, ユーザ発話中で着目すべき要素は〈格要素, 格助詞, 最終述語〉である. 一方, 共感応答を適切に生成するためには, 〈格要素, 格助詞, 最終述語〉といったようにユー ザ発話の一部分のみに着目することはできない。例えば,ユーザ発話『会社の飲み会で,すごく美味しいお酒を飲んだ』に対する共感応答(e.g., それは楽しかったですね)や,『会社の飲み会で,我慢してお酒を飲んだ』に対する共感応答(e.g.,それは大変でしたね)を適切に生成するためには,「お酒を飲んだのみに着目するのではなく,「すごく美味しい」や「我慢して」といった情報も考慮した上で,それに対するユーザの感情を推定する必要がある。そのため, 共感応答生成においては, 生成に必要な要素をあらかじめ特定しておくことは難しい。つまり,共感応答を生成する場合には,認識結果全体に対する信頼度判定が必要となる。 以上の考察に基づき,認識信頼度判定は,以下のように,繰り返し/問い返し応答を目的とした場合と, 共感応答を目的とした場合とで, 異なる手法により行う。なお, 「相槌応答」は,以下のいずれの認識信頼度判定においても「信頼度が低い」と判定された場合に生成される. ## ■ 繰り返し/問い返し応答の生成を目的とした場合 ここでの目標は, 認識結果中の最終述語, および, 当該述語に付随する格助詞, および, 格要素(具体的には, 最終述語とその一つ前の述語との間に出現する格助詞, および, 格要素. 以降, このようにして得られた結果を〈格要素, 格助詞, 最終述語〉と記述する.)について, 以下のような繰り返し/問い返し応答生成のために,信頼度が高いもののみを高精度に抽出すること, である. ○繰り返し応答:お花を貪ったんですか/お花をですか/お花ですか/貪ったんですか ○不足格の問い返し応答:誰に貪ったんですか? 本論文では, 「Julius から得られる認識結果の候補 10Best において, 多くの候補に出現する ほど信頼度は高い」という考え方をべースに, 〈格要素, 格助詞, 最終述語〉のそれぞれに対する認識信頼度を判定する. Hazen ら (Hazen, Seneff, and Polifroni 2002)は, 単語の認識信頼度を 10 種類の特徴量を用いて算出し, それらの単独使用と複合使用の時のエラー率の比較結果を示しており, ここで用いた手法は, その単独特徴量中でもっとも性能の良かった特徴量 (N-best Purity)の考え方と近い.例として,ユーザ発話『東京に行った』を考える.認識候補 10Best において,「東京に行った」や「東京に行って」以外に, 例えば「故郷に行った」や 「遠くに行った」などの誤った候補が得られていた場合, 格助詞「に」の格要素については曖昧であるが,格助詞「に」,および,述語「行く」は多くの候補に出現していることから,少なくとも「〜に行った」という部分については,信頼度が高いと判定することができる。同様に,ユーザ発話『ボールを投げた』に対する認識候補 10Best において,認識結果が「ボールを」「ボールと」「ボールで」の場合には,どのような格助詞に対する格要素かは曖昧だが,格要素「ボール」については信頼度が高いと判定することができる。 このように,〈格要素, 格助詞, 最終述語〉のそれぞれの項目に対する個別の信頼度については,10Best におけるそれぞれの項目の出現頻度をべースとした手法により信頼度判定が可能である. しかし, ここでは, 〈格要素, 格助詞, 最終述語〉の組み合わせとして信頼度が高いかどうかを判定する必要があるため,以下の方法をとる。 提案手法の処理のフローを図 3 に,手続きを以下に示す. 手順 [1]:Julius より得られる音声認識結果の 10Best それぞれに対し,「(文頭) 格助詞最終述語」や「動詞の連用形最終述語」などのように, 着目すべき最終述語の周辺の品詞の並び 図 3 繰り返し/問い返し応答生成を目的とした認識信頼度判定の処理フロー が不適切な候補を棄却する。 手順 [2] : 手順 [1] で残った認識結果の候補について, まず, 最終述語, 格助詞, および, 格要素を, それぞれの単語認識信頼度 (河原,李 2005) と共に抽出する。また, 最終述語が持つ格(格要素 + 格助詞) の認識信頼度を, 格助詞と格要素の単語認識信頼度の平均により算出する。なお,格要素を抽出する際,連続する名詞は複合名詞と判断し,それぞれの名詞の単語認識信頼度の平均を,当該複合名詞の認識信頼度とする。 手順 [3]:10Best それぞれについて得られた手順 [2] の結果を, 格要素, 格助詞, 格, および, 最終述語ごとに合算する。この結果を, ユーザ発話に含まれる格要素, 格助詞, 格, および, 最終述語の候補とする。得られる結果の例を図 4 に示す。なお, この例では, 手順 [1] により, 残り 5 つ認識候補が棄却されたとする. 手順 [4] : ここまでの結果を用いて, ユーザ発話中の着目すべき要素のうち, どの認識結果が信頼できるのかを判定する.具体的には,以下のように判定する. (1) 格要素, 格助詞, 格, 最終述語のそれぞれについて, 最大, かつ, 閥值以上の信頼度を持つ候補を抽出する,なお,格助詞,および,格については,それぞれの格ごとに判定を行う。また, 信頼度判定の間値は, 格要素, 格助詞, 格, 最終述語のそれぞれについて, 個別に設定する。本論文で設定した間値を表 6 に示す. 表 6 の値は, 開発者 2 名が実験的に,「積極的な繰り返し/問い返し応答の生成」と「相桘応答の生成」とのバランスを鑑みた上で決定した値である。この値に従うと, 図 4 の例では, 以下のものが信頼できる認識結果として抽出される. - 格要素 : 彼, ボール $\cdot$ 格助詞:に,を ## ユーザ発話:彼にボールを渡した 認識結果 [ ( )内は単語認識信頼度] \author{ 【格要素の候補】 \\ 彼(2.2) あれ(0.2) \\ ボール(1.8) ホール(0.5) } 【格助詞の候補】に(3.9)を(2.1) と(0.7) 【格の候補】 ■格:彼に(2.35) あれに(0.8) ■格 : ボールを(1.35) ホールを(0.5) ■ ト格 : ボールと(0.45) ホールと(0.25) 【最終述語の候補】渡す(2.0) 果たす(0.3) 図 4 手順 [3] までの処理で得られる結果の具体例 表 6 本論文で設定した認識信頼度判定のための閥値 - 格:彼に - 最終述語:渡す なお,これら 4 つの閥値のうち,「格要素」「格」「最終述語」に関しては,「より積極的に認識結果を利用して応答生成する」のか「誤認識を用いた応答生成を防ぐために相槌を生成するのか」を判断する値である。具体的には,閾値を低く設定すると,より積極的にそれらの認識結果を利用して応答生成するようになり,反対に,閾値を高く設定すると, 認識結果は信頼できないと判定されて相槌を生成する可能性が高くなる。一方, 「格助詞」に関しては,「より積極的に,不足格の問い返し応答を生成する」かどうかを判断する值である,具体的には,閥値を低く設定すると,「当該格助詞はユーザ発話に含まれている」と判断しやすくなり, 不足格の問い返し応答の生成数は減少する. 反対に, 閾値を高く設定すると,「当該格助詞はユーザ発話に含まれていない」と判断しやすくなり,不足格の問い返し応答の生成数は増加する。なお, 格助詞についての間値は, 他と比べ低く設定した。これは,格助詞は誤認識が起こりやすく(藤原, 伊藤, 荒木 2005), 格要素や最終述語と比べ認識信頼度の判断が難しいため, 格助詞認識に対する Recall を高くし,「ユーザ発話に含まれているにも関わらず不足格として問い返してしまうエラーによる満足度低下」を防ぐことを目的としたためである。 また,本論文では認識候補の 10Best を利用したが,ある閥値以上の認識結果を利用するなど,利用する認識候補の数を一定にしない方法も考えられる。このような場合には,単語信頼度の合算値を,利用した認識候補の数で正規化した上で閾値判定を行う必要がある。 (2) 格要素, 格助詞, および, 最終述語の個別の項目については, (1)で抽出された結果を信頼できる要素と判定する。一方, 〈格要素, 格助詞, 最終述語〉の共起の信頼度については, 格 (e.g., 彼に) と最終述語 (e.g., 渡す) の共起が日本語として適切かどうかを判定する必要がある。なぜなら, 個別の認識候補については言語モデルにより共起の適切性が考慮されているが, 提案手法では, 〈格要素, 格助詞, 最終述語〉を一旦独立したものとして扱うため, 例えば「格(格要素 + 格助詞)については 10Best 中の上位 4 候補にのみ含まれる(下位 6 候補には含まれない)結果が信頼できると判定されるが,最終述語については下位 6 候補にのみ含まれる(上位 4 候補には含まれない)結果が信頼できると判定される」という可能性があるためである. 日本語として適切かどうかの判定には Web5 億文コーパス (Kawahara and Kurohashi 2006) を用いる。今回は, Webテキストに〈格要素, 格助詞, 最終述語〉の組み合わせが 10 回以上出現した場合に, 日本語として適切であるとみなした. 以上の手順で,信頼できると判定された「格要素」「格助詞」「格」「最終述語」を用いて繰り返し/問い返し応答を生成する。なお,信頼できると判定された「格要素」「格助詞」「格」「最 終述語」が全く存在しない場合は, 繰り返し/問い返し応答は生成されない. ## ■ 共感応答の生成を目的とした場合 共感応答の生成では, ユーザ発話の音声認識結果に対し, 1 単語単位ではなく, 1 発話単位の信頼性を評価し,信頼できる発話候補のみ共感応答生成への入力とする。しかし, Julius から得られる単語単位の信頼度は, 音響モデル尤度, および, 3-gram 言語モデル尤度に基づき算出された值であるため, 後段で,この値を用いて 1 発話全体の信頼性を判定することは容易ではない. そこで, 「発話全体が信頼できる認識候補かどうか」ではなく,「感情推定がロバストに行える認識結果の候補であるかどうか」という観点で認識結果を精査することとした。具体的には,名詞や動詞, 形容詞などの自立語が一語の場合には, 発話の曖昧性が高く正確な感情推定できない場合が多いが,「プレゼントを貪った」や「足をぶつけた」のように自立語を 2 語以上含む場合には,発話の曖昧性が下がり「それは良かったですね」や「それは大変でしたね」といった共感応答の生成が期待できる。そこで,10Best それぞれに含まれる「名詞」「動詞」「形容詞」「副詞」,および, 「否定表現」の総数が 2 以上の候補を, 感情推定がロバストに行える認識候補と判定し, 5 章で述べる共感応答生成への入力とする. ## 3.3 音声認識性能, および, 認識信頼度判定アルゴリズムの有効性評価 本節では, 提案システムの音声認識性能, および, 認識信頼度判定アルゴリズムの有効性評価についての予備実験結果を示す。なお, テストセットとして, 被験者 39 名による 1,042 発話を用いた。 まず,音声認識性能についての結果について述べる。テストセットに対する単語認識率は, recall: $70.1 \%$, precision: $66.7 \%$ であった. 提案システムのように項構造を用いる場合は, ユー ザ発話に含まれる格要素, 格助詞, 最終述語をどの程度適切に認識できるかでシステムの応答精度が大きく変わってくる。一般的に, 格助詞は誤認識されやすく, 藤原らの調査 (藤原他 2005) によると,「認識信頼度が 0.5 以上の範囲で, 助詞は動詞より約 $13 \%$ 程度認識率が低下する」というデータがある. 彼らの試算に従うと, 提案システムにおいて, ユーザ発話に含まれる格助詞の認識精度は約 $50 \%$ 程度になると考えられる。 次に,このように多くの誤認識を含むユーザ発話に対して,提案手法により,高精度な応答生成が可能かどうかを検証した結果について述べる。自然な話し言葉においては,省略,音声認識器の誤認識, 文境界の不明確さなどにより, 項構造を誤って理解する可能性があり, これまでに, タスク依存型モデルにおける部分的な構文解析, 多数の音声認識候補 (N-Best) の利用, 1 単語単位の信頼度と 1 発話単位の信頼度の組み合わせ, 会話内容全体を考慮した信頼度尺度の使用等により,意味解釈の精度を向上させる多くの手法が検討されてきた (De Mori, Bechet, Hakkani-Tur, McTear, Riccardi, and Tur 2008). 今回のシステムでは, 応答生成の種類に応じ 図 5 認識信頼度アルゴリズムの有効性検証結果 て, N-Best 利用による 1 単語単位の信頼度と, ロバストに感情推定できるかという尺度での 1 発話単位の信頼度を使い分けることにより,適切な応答を引き出している。また,いずれの認識信頼度判定においても信頼度が低いと判定された場合には「相槌応答」を生成することで,誤認識による不適切な応答生成を最小限にしている. 3.2 節で述べた認識信頼度アルゴリズムの有効性を, 上記テストセットを用いて検証した結果を図 5 に示す。図 5 の「1Bsetのみ利用」は, Julius から得られる認識結果の 1bestのみを用い全ての認識結果が信頼できるとして応答生成した場合で,「認識信頼度判定有り」は, 我々の提案アルゴリズムにより信頼度が高い候補を抽出して応答生成した場合を示す。なお,ここでは,応答正解率 $=$ 適切な応答数 $/$ (適切な応答数 + 誤応答数) とし, 提案アルゴリズムにより相槌が生成された場合(452 発話)については, 評価の対象外とした。図 5 が示す通り, Julius から得られる認識結果の 1best を用いて応答生成した場合には, 応答正解率は $55.8 \%$ だが,我々が提案する認識信頼度判定を用いた場合には, 応答生成の正解率は $74.7 \%$ であった. このことから,音声認識誤りにロバストな認識信頼度判定アルゴリズムが構築できたと考える. 音声認識器の誤認識に関しては, 今後さらに低減されていくと考えられるが, 周囲騒音の大きい環境や高齢者の小声発話などに対しては認識が難しく, 誤認識の問題は依然として残ると予想される. 今回採用したような認識信頼度の利用手法は, 今後のシステムにおいても必須であると考えることができる. ## 4 問い返し応答の生成アルゴリズム 本章では, 問い返し応答の生成アルゴリズムについて述べる, 2.2 節で述べたように,問い返し応答には,「最終述語の不足格の問い返し」と「辞書を用いた適切性判別に基づく問い返し」 の 2 種類がある。以下,それぞれについて述べる。 ## 4.1 最終述語の不足格判別に基づく問い返し応答の生成アルゴリズム 本節では, 最終述語の不足格判別に基づく問い返し応答の生成アルゴリズムについて述べる.提案システムでは,最終述語が「動詞」および「サ変名詞+する」の場合のみ不足格判別に基づく問い返し応答を生成し,他の最終述語に関しては不足格の問い返し応答は生成しないものとした.なぜなら,ユーザの行動を表す「動詞」および「サ変名詞+する」に関しては,不足格(e.g., 誰と,どこに,何を)を問い返すことがユーザの次発話を促す効果があると期待されるが, ユーザの感情や形容表現を表す「形容詞」「形容詞+なる」「形容動詞」「名詞+だ」に関しては, 不足格判別に基づく問い返し応答(e.g., いつより嬉しかったんですか?,何より美味しかったんですか)は不自然な応答となる場合が多いためである。なお,ユーザの感情や形容表現を表すこれらの述語に関しては,4.2.3 節で述べる理由を問い返す表現により次発話の生成を促す。 ## 4.1.1問い返し応答生成アルゴリズムの概要 図 6 に, 問い返し応答生成アルゴリズムの概要を示す. 3.2 節で述べた信頼度判定アルゴリズムにより,信頼度が高いと判定された動詞,および,格助詞を用いて,以下の手順により問い返し応答を生成する. 手順 [1] : 当該動詞をキーとして, 予め作成された必須格辞書を検索する. ここで, 必須格辞書には, 図 6 に示すように,ある動詞についての必須格が深層格レベルで登録されていると同時に,当該格を尋ねる際に最適な疑問詞と表層格がぺアで登録された辞書である。ここで,図 6 中の「ヲ (object)」などの表記は,「表層に現れた格助詞(深層格)」を意味する.なお,想定している対話の性質上, ユーザ発話内の「ガ (agent)」は省略されることが多いため, ここでは,必須格としては登録しない. 必須格辞書の作成手法の詳細は, 4.1.2 節で述べる. 図 6 最終述語の不足格の問い返し応答生成アルゴリズムの概要 手順 [2] : 信頼度が高いと判定された格助詞と, 手順 [1] で検索された必須格との照合を行うことで,当該動詞の不足格を判別し応答を生成する,例えば,ユーザ発話中の動詞「貪う」の不足格が「カラ格 (source)」と判別された場合, 問い返し応答として『誰から貣ったんですか?』 を生成する。不足格判別手法の詳細は,4.1.3 節で述べる。 ## 4.1.2 必須格辞書の作成 本節では, 必須格辞書の作成について述べる. ## (ア)「不足格の問い返し応答」に適した深層格の定義 前述したように,必須格は深層格レべルで登録する,なぜなら,表層的には同じ「二格」であっても,それが「goal 格」なのか「time格」なのかで尋ね方が異なる上に,深層格レベルで考慮しないと,どちらが必須格なのかを適切に判定できないためである。 一般的に, 表層格は「ガ」「尹」「二」「デ」「ト」「へ」「カラ」「ヨリ」「マデ」の 9 種類とする定義が広く用いられているのに対し,深層格については,どのような種類をどのような基準で認定するかの共通見解がない。そこで, 我々は, EDR 日本語共起辞書 (日本電子化辞書研究所 2001)に打いて定められている意味的関係の定義をべースに深層格を定義した。具体的には, EDR 日本語共起辞書において, 名詞と動詞の間に付与されている「概念関係子」をべースに深層格を定義する。表 7 に,概念関係子の例を示す。 本論文では,「動詞の不足格を問い返す」という目的を鑑み,以下の考察に基づいて深層格を定義した。 ## 1. 概念関係子の細分化が必要 例として,EDRで定義されている概念関係子 object に着目する,表層格「ヲ」に付与された object,および,表層格「ト」に付与されたobjectの例を,表8と表 9 に示す,EDRにおける object の定義は「動作・変化の影響を受ける対象」であり,どちらもその定義に従っているが,意味的には,「ヲ」が示す object は動作の「対象」,一方「ト」が示す object は動作の「相手」と 表 7 EDR における概念関係子の付与例 事務所を開設する [object] 大阪に開設する [place] 奈良に着く[goal] 表 8 表層格「ヲ」に付与された概念関係子 object の例 表 9 表層格「ト」に付与された概念関係子 object の例 表 10 表層格「ト」に付与された概念関係子 goal の例 表 11 表層格「ヲ」に付与された概念関係子 object および basis の例 考えられ,全く異なるものである。仮に,動詞「競い合った」を考えた際,「ヲ」が示す object (=「対象」)が不足格であった場合,それを問い返す適切な応答は「何を競い合ったの?」であるのに対し,「ト」が示す object(=「相手」)が不足格であった場合の適切な問い返し応答は 「誰と競い合ったの?」となる.つまり, 動詞の不足格を問い返すことを目的とした場合, 動詞「競い合う」にとっての概念関係子 object を 2 種類の深層格に細分化する必要がある. このような細分化は,上記の例のように,異なる表層格に付与された概念関係子を対象とした場合だけではなく,同一の表層格に付与された概念関係子も対象となる。例えば,表 10 に示すような, 表層格「ト」に付与された概念関係子 goalに着目すると, 上 2 つの動詞(一致する,関係する)では,不足格を尋ねる際に「〜と…?.」と尋ねるのが自然なのに対し,下 2 つの動詞(なる,考える)では,「どう……」と尋ねるのが自然である. ## 2. 概念関係子の統合が可能 また,格の尋ね方が同一かどうかの観点で考えると,異なる概念関係子を統合できる場合もある.例えば,表 11 に示すような,表層格「ヲ」に付与されている概念関係子 object および basisの場合,どちらも「対象」を示しているが,動詞の意味が「過不足・優劣」などの場合は basis,それ以外の場合には object が付与されている。ここで,これらの格を尋ねる際には,いずれも「〜を……」と尋ねるのが自然である.つまり,上記の観点では,これらの概念関係子は全て「〜を…?.」と尋ねる object に統合可能と言える. 以上の考察に基づき,本論文で定義した深層格の一部を表 12 に示す. 表 12 本研究で再定義した深層格(抜粋) & goal & $\sim に$ \\ ## (イ)必須格辞書の作成 (ア)で述べた定義に従い,動詞の必須格辞書を作成する。具体的には,以下の手順で作成した。 手順 [1] : 毎日新聞記事 5 年分 (毎日新聞社 1991-1995) を対象として, 全ての文に対し係り受け解析を行い,〈格要素,格助詞,動詞〉を抽出する。 手順 [2] : 手順 [1] の抽出結果に対し「格助詞置換分析法」(大石,松本 1995)を用いて深層格の判別を行う。この手法は, 格要素や動詞の意味属性情報に加え, 当該動詞がどのような表層格のパターンを持っているか, 別の表層格に置換可能であるかどうか, などの情報を統計的に獲得し,これらの情報を利用して,ルールベースにより深層格の判別を行うものである。具体的な処理を図 7 に示す. 例として,「飛行機が成田空港を出発する」の「ヲ」格の深層格を判別する. A)まず,図 $7(A)$ に示す通り,上記の毎日新聞記事 5 年分から,「出発する」が持つ表層格パターンを抽出する。 B)次に,「ガーヲ」の格パターンの「ヲ」が,別の表層格に置換されたパターンが存在するかどうかを検索する。その結果,「出発する」は「ガーカラ」という「ヲ」が「カラ」に置換されたパターン,あるいは,「ガー二」という「ヲ」が「二」に置換されたパターンを持つことが分かる.ここで,置換されたパターンが存在するかどうかは, シソーラス (国立国語研究所 2004) から得られる格要素の意味属性を利用して判断する. C)最後に, 図 $7(\mathrm{C})$ に示す通り, あらかじめ作成した深層格判別ルールに従い, 「ヲ」の深層格が「source」であると判別する. なお, EDR 日本語共起辞書内で付与されている概念関係子を, 本研究で再定義した深層格体系(表 12)に人手で変換したデー夕 685 事例(e.g., 変換前:「群衆と握手する(ト= object)」 $\Rightarrow$ 変換後 :「群衆と握手する $($ ト = partner) 」) を深層格の正解データとし, 上記提案手法の深層 図 7 格助詞置換分析法 (大石, 松本 1995) の概要 格判別精度を評価した結果,判別精度は $75.7 \%$ であった. 手順 [3] : 手順 [2] の結果を動詞ごとにまとめ,それぞれの染層格について頻度が一定以上あるものを当該述語の必須格とする. 手順 [4] : 手順 [3] で必須格と判断された深層格それぞれについて, シソーラスを用いて, 出現した全ての格要素の意味属性を【人/場所/人工物/․といったレベルで判別する. 手順 [5]:手順 [4] で得られたそれぞれの意味属性を【人 $\Rightarrow$ 誰/場所 $\Rightarrow$ どこ/物 $\Rightarrow$ 何/“】のように,尋ねる際に最適な疑問詞に置換し,最頻出の疑問詞を,当該深層格を尋ねる際に最適な疑問詞として登録する。 なお,受動態や使役態の場合は,能動態とは必須格が異なる。しかし,本論文で作成した深層格判別ルールは能動態のみにしか対応していない. したがって,例えば,ユーザ発話「ずいぶんと怒られたよ」に対し, 「誰に怒られたんですか?」といったような不足格の問い返し応答は生成できない(2.2 節で述べたように,「怒られたんですか.」という繰り返し応答の生成は可能).この点については, 今後の課題とする. ## 4.1.3 不足格の判別手法 本節では不足格の判別手法について述べる。音声認識誤りがない場合には, 入力された〈格要素, 格助詞, 動詞〉を用いて 4.1.2 節と同様の方法で深層格解析をし, 不足格を尋ねる応答を生成する方法をとることができるが, 我々のタスクでは〈格要素, 格助詞, 動詞〉の全てが間値 以上の信頼度で認識できるとは限らない. 特に, 格要素の信頼度が低いと判定され抽出されなかった場合には,深層格解析を行うことができない,しかし,このような場合であっても,格助詞と動詞の信頼度が高いと判定された場合には, 表層格レベルでの不足格判別は可能である. したがって, ここでは, 格要素も含めて信頼度が高いと判定されたかどうかに関わらず, 格助詞と動詞のみを用いて,表層格の情報に基づいた不足格の判別を行う。具体的には, 以下の手順で行う。例として, ユーザ発話「北海道に行ったよ」に対し, 認識信頼度判定の結果, 格助詞「二」,および,動詞「行く」のみが,信頼度が高いと判定されて抽出された場合を考える。手順 [1] : 信頼度が高いと判定された動詞について,4.1.2節で述べた手法により作成された必須格辞書を検索し,それぞれの必須格について,当該深層格を表現し得る全ての表層格に置き換える. 上記の例では, 動詞「行く」の必須格として登録されている深層格「goal」および「partner」 を,対応する全ての表層格「二・へ」および「ト」に置き換える。 手順 [2] : 手順 [1] で置き換えた表層格のいずれもがユーザ発話に含まれていない深層格に限り,当該必須格を不足格と判別する,上記の例では,表層格「二」が含まれているため,深層格「goal」 はユーザ発話に含まれており, 深層格「partner」が不足格であると判断して, 不足格を問い返す応答「誰と行ったんですか?」を生成する。 前述したように, 音声認識において, 格助詞は他の単語に比べて誤認識されやすい. また, 話し言葉においては格助詞の省略も頻繁に起こる.これらに対する提案手法の有効性に関して考察する。 まず,音声認識誤りに関して,ユーザ発話「北海道に行ったよ」の認識が難しく,認識候補の上位に格助詞「に」が認識されなかった場合を考える。仮に, 単純に 1 best の認識結果に対して,上記の不足格判別手法を適用したとすると,「goal」は不足格であると判別され,「どこに行ったんですか?」という誤応答が生成されてしまう。しかし, 提案手法では, 3.2 節でも述べたように, 認識結果の 10best を利用し, 格助詞については, 認識信頼度判定の閥値を低い值に,つまり,「当該格助詞がユーザ発話に含まれている」と判定しやすい値に設定してある。したがって,上位の認識結果では格助詞「二」が認識されていなかったとしても,10best 内の下位の認識結果では認識されており,単語認識信頼度の合計が閥値以上であれば,格助詞「二」は認識信頼度が高いと判定され抽出される。これにより,「goal」は不足格ではないと判別され,「どこに行ったんですか?」という誤応答の生成を防ぐことが可能となる. 次に, 格助詞の省略に関しては, 例えば, 「北海道行ったよ」といった発話の場合, 提案手法で手がかりとする格助詞(この例では「二」)が,信頼度が高い結果として抽出されることは考えにくいため,実際には「goal」が含まれているにも関わらず誤って不足格であると判別される.この発話に対して,「goal」が含まれていることを正しく判別するためには, 格要素(北海道)の意味属性から深層格を理解するような手法や, 省略された格助詞を補完するような技術の開発が必要となる.この点については今後の課題とする. ## 4.2 辞書を用いた適切性判別に基づく問い返し応答の生成アルゴリズム 本節では,辞書を用いた適切性判別に基づく問い返し応答の生成アルゴリズムについて述べる。前述したように,この応答には,「格要素の詳細」「感想」「感情・形容表現に対する理由」 をユーザに尋ねる 3 種類の応答がある。以下,それぞれについて述べる。 ## 4.2.1格要素の詳細を尋ねる問い返し応答の生成アルゴリズム まず,ユーザ発話「お花を貪った」に対するシステム応答「どんなお花ですか?」といったような,格要素の詳細を尋ねる問い返し応答の生成アルゴリズムについて述べる. 手順 [1]:Webテキスト (Kawahara and Kurohashi 2006) において,格要素の詳細を尋ねる際の疑問詞(「どんな」「何の」「どこの」の 3 種類)と係り受け関係にある名詞の頻度をカウントする. 手順 [2] : 手順 [1] で各疑問詞との係り受け関係が頻度間値以上の名詞については, 当該疑問詞で詳細を尋ねることが適切であると判定する。 表 13 に,登録されている名詞の例を示す. 表 13 の (a)は疑問詞「どんな」との係り受け関係が間値以上で出現した名詞で, 例えば『どんな動物なの?』『どんなドラマなの?』などの応答を生成する。しかし, 当該名詞がユーザ発話に含まれたとしても, ユーザ発話には既にその詳細についての情報が含まれている可能性がある。そこで, ここでは, 信頼度が高いと判定された格要素を含む認識候補について,当該格要素の直前に「形容詞」「形容動詞」または「〜の」 が存在する認識候補が 1 つでも存在すれば,ユーザ発話には既に格要素の詳細についての情報が含まれていると判断し,格要素の詳細を尋ねる問い返しの生成は行わない. ## 4.2 .2 感想を尋ねる問い返し応答の生成アルゴリズム 次に,ユーザ発話「お花を貪った」に対してシステム応答「どうでしたか?」というユーザ発話の感想を尋ねる問い返し応答の生成アルゴリズムについて述べる。我々のシステムでは,言語モデルに含まれる述語を対象に,感想を尋ねることが自然であるかどうかを人手により判断 表 13 詳細を尋ねることが適切であると判定された格要素の例 (a) 疑問詞「どんな」で尋ねる格要素の例 (エントリ数:1,754) (b) 疑問詞「何の」で尋ねる格要素の例 (エントリ数:1,510) (c) 疑問詞「どこの」で尋ねる格要素の例 (エントリ数:2,169) してもらい,「感想を尋ねることが不自然な述語の辞書」を構築した. 辞書の一部を表 14 に示す. 我々のシステムは, ユーザ発話の最終述語がこの辞書に登録されていない場合に,感想を尋ねる問い返し応答を生成する。例えば,ユーザ発話が「お花を貪ったの」の場合には「貪った」は辞書に登録されていないため「どうでしたか?」という発話を生成するが,ユーザ発話が「ムキになったの」の場合には表 14 に示す辞書に「ムキになる」が登録されているため「どうでしたか?」というシステム発話は生成しない. ただし,「ディズニーランドに行った」の場合は「どうでしたか?」と尋ねることが適切だが,「食堂に行った」のように日常的な事態に関しては「どうでしたか?」と尋ねることは適切でないというように,感想を尋ねることが適切かどうかの判断は,述語のみではなく格要素などの情報も考慮した上で行う必要がある。この点に関しては今後の課題である. ## 4.2.3 感情・形容表現に対する理由を尋ねる問い返し応答の生成アルゴリズム 最後に,ユーザ発話「楽しかったよ」に対するシステム応答「どうして楽しかったんですか?」 のような, 感情・形容表現に対する理由を尋ねる問い返し応答の生成アルゴリズムについて述べる. 提案手法では,「人手により,理由を尋ねることが適切であると判定された感情・形容表現」が登録された辞書に基づき, 当該応答の適切性を判定する. 登録されている感情・形容表現の例を表 15 に示す. たたし, ユーザ発話に,既に当該感情・形容表現に対する理由が含まれている可能性があるため, 単純に辞書に登録されているかどうかのみで応答生成の適切性を判定することはできない. そこで,ここでは,信頼度が高いと判定された感情・形容表現を含む認識候補について,当該感情・形容表現の直前に,「ので」「から」などの接続詞が存在する認識候補が 1 つでも存在すれば,ユーザ発話には既に理由が含まれると判断し,当該応答の生成は行わないこととした. 表 14 感想を尋ねることが不自然であると人手により判断された述語の例(エントリ数:422) 表 15 理由を尋ねることが適切であると人手により判断された感情・形容表現の例(エントリ数:130) ## 5 共感応答の生成アルゴリズム 本章では, 共感応答の生成アルゴリズムについて述べる. ## 5.1 応答生成アルゴリズムの概要 図 8 に共感応答の生成アルゴリズムの概要を示す. 3.2 節で述べたように, 本論文では, 前段で認識誤りを含む認識結果を棄却するのではなく,「誤認識結果が含まれる場合でも適切に感情推定を行う」手法を提案する. 具体的には, 「感情推定の際に重要となるキーワードが正しく認識されていれば, 複数の認識候補に共通して出現し, それらの認識候補に対する感情推定結果は同一となる」という仮説に基づき, 前段の認識信頼度判定アルゴリズムにより得られた 3 つの認識候補に対して感情推定を行い,多数決,および,間値判定に基づき,得られた感情推定結果が適切であるかどうかを判断する. 手順 $[\mathbf{1}]$ : 認識信頼度判定により得られた 3 つの各認識結果に対して, 5.2 節で述べる手法によりユーザの感情を推定する。 その際, それぞれの感情推定結果には信頼度 $(0 \sim 1)$ が付与される. また,具体的な感情のレベル(e.g., 嬉しい/恐い)での推定結果が高信頼度で得られた場合は当該結果が出力されるが,推定信頼度が低い場合には,感情極性のレベル(ポジティブ/ネガティブ/ニュートラル)で出力される. 手順 [2] : 3 つの認識候補毎に得られた推定結果について, 感情と感情極性ごとに信頼度の和を算出し, 值が最大, かつ, 閾値以上の信頼度を持つ結果を, ユーザ発話に対する感情推定結果とする。もし閥値を以上の信頼度を持つ結果がなければ,感情極性はニュートラルとする。 手順 [3] : 手順 [2] で得られた最終的な推定結果を用いて共感応答を生成する. 具体的には, 最終的な推定結果が「嬉しい」であれば,「それは嬉しいですね」という応答が生成され,最終的な推定結果が「ポジティブ」であれば,「それはいいですね」という応答が生成される。一方,最終的な推定結果が「ニュートラル」の場合は, 共感応答は生成しない. これにより, 大きな感情の変化が起きない内容のユーザ発話(e.g., 電話をした)や, 誤認識により信頼できる感情推定結果が得られなった場合に,不適切な共感応答を生成することを防ぐことができる. 図 8 共感応答の生成アルゴリズムの概要 ## 5.2 感情推定アルゴリズム ここでは, 感情推定アルゴリズムについて説明する。本論文では, 德久らの手法 (Tokuhisa et al. 2008)により感情推定を行う,具体的には,感情推定を「ユーザ発話をある感情クラスに分類する問題」ととらえ,大量の学習データに基づく機械学習によりこの問題を解く手法である.ここで,我々は,システムがユーザに共感していることをより明確に示すために,単に感情極性(ポジティブ,ネガティブ,ニュートラル)を推定するだけではなく,より具体的なレベルでの感情(「嬉しい,楽しい,安心,怖い,悲しい,残念,嫌,寂しい,不安,腹立たしい」 の 10 クラス)を推定する。感情推定は,次の 3 つの処理により実現する。 ## 処理 1 : 感情生起要因コーパスの作成 機械学習を行う際の学習データとなる感情生起要因コーパスを作成する。感情生起要因コー パスとは,ある事態に対してどのような感情が生起するかが記述されたコーパスであり, 感情が生起する要因となる事態と〈感情〉とで構成される。 まず,獲得対象とする感情表現を定義する,寺村(寺村 1982)は,感情表現に関して,『X =感情主, $\mathrm{Y}=$ 対象, $\mathrm{Z}$ = 当該語のとき, 「X $\mathrm{X} \mathrm{Y}$ を $\mathrm{Z}\rfloor \mathrm{X}$ は $\mathrm{Y}$ に $\mathrm{Z}\rfloor \Gamma \mathrm{X}$ は $\mathrm{Y}$ が $\mathrm{Z} 」$ のいずれかの表現ができれば,Zは感情表現である。』と定義している。この定義を参考にして,小林らの評価値表現辞書 (小林, 乾, 松本, 立石, 福島 2005) から感情表現を抽出した結果, 349 語の感情表現を得た. 表 16 に,感情ごとの感情表現の数と例を示す. 次に, 図 9 に示す言語パターンを用いてWebコーパスから自動的に感情生起要因を獲得する.獲得の手がかりとする感情表現には表 16 の 349 語を, 接続表現には右記の 8 種類(ので,から, ため,て,のは,のが,ことは,ことが)を用いる。例えば,「突然雨が降り出したのはがっかりだ」という文からは,〈がっかり〉が生起する要因として㷝然雨が降り出した\}を獲得する。 表 16 感情ごとの感情表現の数と例 この方法で, 河原らの Web 5 億文コーパス (Kawahara and Kurohashi 2006) から感情生起の要因を獲得した結果, 約 130 万件の感情生起要因が獲得された。表 17 に 10 種類の感情ごとの感情生起要因の獲得数を示す. ## 処理 $2:$ 感情極性のレベルでの推定 上記で作成した感情生起要因コーパスを学習データとして, 感情生起要因コーパスに含まれるポジティブの事例とネガティブの事例を用いて感情極性推定モデルを構築し,ユーザ発話の感情極性推定結果が感情極性推定モデルの分離面に近い場合にニュートラルと推定する. 感情極性の推定に関しては, さまざまな手法が提案されている (Turney 2002; 乾, 奥村 2006;工藤, 松本 2004). これらを参考にして, 我々は単語を特徵量として文の感情極性を推定する.図 10 に「福祉の費用の負担が増えてしまう」という感情極性がネガティブである文を形態素単位で記述した例を示す。図 10 の例について 3-gram 以下の列を展開すると,「福祉,福祉の,福祉の費用,の,の費用,‥などが得られる。これらを素性としてSVM で学習し感情極性推定モデルを構築する。判別した結果, SVM のスコアが正, かつ, 閾值以上ならば感情極性はポジティブ,スコアが負,かつ, 閾値以下ならば感情極性はネガティブ, それ以外ならばニュートラルを出力する. ## 処理 3 : 具体的な感情のレベルでの推定 ここでは,ポジティブ,および,ネガティブのそれぞれを細分類化し,処理 2 と同様に機械学 図 9 感情生起要因を獲得するための言語パターン 表 17 感情生起要因コーパスの規模 福祉の負担が増えるてしまう 図 10 形態素列の例 図 11 感情推定の判別モデル 習によりユーザ発話に対する感情を推定する。表 16 に示すように, 我々は先行研究 (Plutchik 1980; 中村 1993)による知見を考慮し,ポジティブな感情として嬉しい,楽しい,安心\} の 3 種類, ネガティブな感情として恐い, 悲しい, 残念, 嫌, 寂しい, 心配, 腹立たしい\} の 7 種類の感情を対象として感情推定を行う. SVM は 2 クラス判別器が, 多クラスへの分類を行うため, 図 11 に示す 2 種類の方式を試す.一般に,大量のデータから少量の事例を識別することは難しい. 図 11 の〈方式 1 は, 表 17 に示す感情生起要因の獲得数を考慮して事例の多い順に識別モデルを配置した方式である。まず入力文が $\{$ 嫌 $\}$ か嬉しい, 残念, 楽しい, 恐い, 不安, 寂しい, 腹立たしい, 悲しい, 安心 $\}$ かを判別し, 続いて嬉しい\} か残念, 楽しい, 恐い, 不安, 寂しい, 腹立たしい, 悲しい,安心\} かを判別し, さらに残念\} か楽しい, 恐い, 不安, 寂しい, 腹立たしい, 悲しい, 安心かを判別する。このような方法で判別を繰り返し,最後に悲しい\} か侒心\} かを判別する。一方, 図 11 の〈方式 2 〉は, 感情極性(ポジティブまたはネガティブ)を判別した上で,感情生起要因の獲得数を考慮して判別モデルを配置した方式である.感情極性の推定には処理 2 で構築したモデルを用いる. 方式 1 と方式 2 のどちらの方法を採用するかについては, 5.3 節で評価実験を行い,その結果を踏まえて決定する。 ## 5.3 感情推定アルゴリズムの評価 本節では, 5.2 節で述べた感情推定アルゴリズムのそれぞれのモジュールを評価する. ## 評価 1 :感情生起要因コーパスの構築精度の評価 感情生起要因コーパスの評価のため, ランダムに 2,000 事例を抽出し, 獲得した感情生起要因の精度を調べた。評価は,感情生起要因コーパスの獲得に関わっていない評価者 1 名で行っ 表 18 感情生起要因コーパスの評価 表 19 感情生起要因コーパスの評価の例 た. 表 18 に評価結果を,表 19 に具体例を示す。表 18 および表 19 の「感情極性」は獲得した事態が実際にその感情極性であったかどうかを評価した結果を,「感情」は獲得した事態が実際にその感情を表すかどうかを評価した結果である。また,「正例」は“正例”,「文脈依存」は“文脈によっては正例”,「負例」は“負例”を示す. 表 18 に示す通り,感情極性については, $57.0 \%$ が正例,文脈によって正例となる事例も加えると $90.9 \%$ の事態が正例であった.また,感情に関しては, $49.4 \%$ が正例,文脈によって正例となる事例を加えると $73.9 \%$ が正例であった,負例について分析したところ,表 19 の「ジュースが飲みたい」と「大変だ」のように,本来は係り受け関係にない従属節と感情表現が係り受け解析誤りにより獲得されることが原因であることが分かった. 感情生起要因コーパスの精度が十分かどうかは, 感情生起要因コーパスを用いた感情推定精度を評価して初めて言及できるが,大規模で比較的信頼性の高いコーパスが構築できたと考えている. ## 評価 2 : 感情極性推定の評価 感情極性推定の精度を評価するため,以下の 2 つのテストセットを構築した。 TestSet1: 1 つ目は, システムの開発者以外の弊所所員 6 名がキーボード対話によるプロトタイプ対話システムに入力した発話に対して話者自身が感情極性を付与した 65 発話である。これらには,ポジティブ 31 発話, ネガティブ 34 発話が含まれる. TestSet2: 2 つ目は,表 18 で感情極性が正例の 1,140 事例(ポジティブ 491 事例,ネガティブ 649 事例)事例である。なお,実験の際は,感情極性推定モデルはこれらを除いた事例で学習する。 上記のテストセットで評価した結果を表 20 に示す. 数値は $\mathrm{F}$ 値を算出した結果である.感情極性推定精度に関しても, この精度で十分かどうかは言及しにくいが, 特徴量は単語 n-gram と いう非常にシンプルなものであるものの,1)大規模な学習コーパスを利用したことで比較的高精度であること,2)音声認識による対話システムへの実用化を想定した場合には,単語 n-gram のようなシンプルな特徴量の方が利用しやすいという 2 つ理由から,実用的な感情極性推定モデルが構築できたと考えている. ## 評価 3 : 感情推定の評価 以下の 3 つのテストセットを用いて感情推定の評価実験を行う. TestSet1: 1 つ目は, 感情極性の評価実験の TestSet1(65 発話)に対して, 作業者 2 名が 10 種類の感情クラスを独立に付与したものである。なお,ある発話に対して複数の感情が該当する場合には,もっとも適切な感情クラスをひとつ選択した. 作業者の付与した感情の一致率は $\kappa=0.76$ であった. 評価では, 作業者のひとり以上が付与した感情が出力されれば正解とした.表 21 に例を示す. TestSet2: 2 つ目は, 感情極性の評価実験の TestSet1(65 発話)に対して,作業者 1 名が 10 種類の感情クラスを付与したものである。ある発話に対して複数の感情が該当する場合には,該当する感情クラスをすべて付与した. その結果, ポジティブの発話に対しては平均 1.48 個, ネガティブの発話に対しては平均 2.47 個の感情クラスが付与された. 表 22 に例を示す. TestSet3: 3 つ目は,表 18 で感情が正例の 988 事例である。実験の際は, 感情推定モデルはこれらを除いた事例で学習する。 評価結果を表 23 に示す。表 23 の「感情推定」は図 11 の方式 1 の結果を,表 23 の「感情極性 + 感情推定」は図 11 の方式 2 の結果を示す. 表 23 の結果から, どのテストセットにおいても感情極性を推定した上で感情クラスを推定するという図 11 の方式 2 の精度が高かった. したがって, 次章以降の評価実験では, 方式 2 の方法により感情推定するモデルを採用し, 共感応答を生成する。 表 20 感情極性推定結果( $\mathrm{F}$ 値) 表 212 名の作業者による感情クラス付与の例 表 221 名の作業者による感情クラス付与の例 表 23 感情推定の評価実験結果 (Accuracy) ## 6 評価実験 提案した傾聴システムの評価するため,20~70 代の男女 110 名の一般被験者に対する評価実験を行った,本章では,評価実験結果について述べる。 ## 6.1 実験条件 まず,表 24 に,実験に参加した 110 名の内訳を示す. 次に,実験設定について説明する。対話ロボットとしては犬型ロボット AIBO(ソニー製,型番:ERS-210)を用いた。対話実験は防音室内で行い,実験進行と対話システムの開始・終了作業は,オペレータが防音室外で行った。防音室内には椅子とテーブル,オペレータが被験者に実験開始終了を伝えるためのスピーカを設置し,テーブル上に,ロボット,および,ロボットの声を出すためのスピーカを設置した.被験者は椅子に座り,単一指向性のヘッドセットマイク(オーディオテクニカ製,型番:ATM75)を装着して,ロボットに向かって発話した。また, 話しかけやすさを考慮し, 常時, ロボットのしっぽを左右に動かした. さらに,ロボットが話を聴いていると被験者が感じるように,相桘を生成する際には,ロボットの耳が動くよう 表 24 実験参加者の性別・年代別の内訳 にした。なお,これらのロボットの動作音,および,音声合成音は,ヘッドセットマイクに入り込まない十分小さな音であった. 本実験では,回想法におけるテーマとして「1: 印象深い旅行」と「2: 子どもの頃の遊び」の 2 種類の話題を用意し,それぞれの話題について 1 回ロボットと対話をしてもらった。各話題において,対話は,以下の 2 つのシステム発話でスタートする. (1)「これまでの印象深い旅行についてお聞かせ下さい。これまでにどこに行きましたか?」 (2)「子どもの頃の遊びについてお聞かせ下さい,子どもの頃,何をして遊びましたか?」被験者への教示としては, 「各話題について, 対話を終了したくなったら『バイバイ』という発話でいつでも対話の終了が可能である」ことを示したのみで,事前に練習しなかった. これは,事前練習が評価に影響することを避けるためである. 以上の実験設定のもと, 被験者には 5 章までに述べた方法で構築した傾聴システムとの対話を体験してもらい,実験終了後,アンケートによる主観評価や意見を収集した. ## 6.2 継続対話時間 はじめに,継続対話時間に関する評価結果について述べる。対話が長く継続するということは,「より多くのことを話せるように助ける」という傾聴の本質的な点であり, システムの重要な客観的評価基準の一つと考えられる。なお, ここでの継続対話時間とは, 上記 2 種類の各話題において,システム側からのスタートの発話からユーザが対話を終了させる(=「バイバイ」 と発話)までの時間のことである。継続対話時間に関する結果を図 12 に,また,継続対話時間毎の平均発話数, および, 平均発話単語数を表 25 , 表 26 に示す. 話題が「印象深い旅行」の場合は, $45.5 \%$ (50/110)の被験者が 2 分以上(ユーザ発話数の平均 12.40)対話を継続していた。一方,話題が「子どもの頃の遊び」の場合, $95.5 \%(105 / 110)$ 図 12 継続対話時間に関するヒストグラム 表 25 継続対話時間毎の平均発話数, および, 平均発話単語数(印象深い旅行) 表 26 継続対話時間毎の平均発話数, および, 平均発話単語数(子どもの頃の遊び) の被験者が 2 分以内(ユーザ発話数の平均 4.76)に対話を終了していた.対話継続時間の平均はそれぞれ, 1 分 46 秒, 1 分 8 秒であり,「印象深い旅行」の方が対話が継続しやすいことがわかった. これは, 話題が「印象染い旅行」の場合, 旅先で自分がとった行動を思い出すことにより, 話す内容がスムーズに思い浮かびやすいのに対し, 話題が「子どもの頃の遊び」の場合,「何をして遊んだか?」を答えた後,何を話して良いのかなかなか思い浮かばないことが原因の一つとして考えられる。継続時間について何分以上なら良いというような絶対評価を行うことは難しいが, 旅行の話題では 3 分以上対話が継続した被験者が観察されるなど, ロボットでも比較的長い時間傾聴を行えることが分かった。 なお, 1 分以内に対話が終了してしまった事例を分析したところ, 主に, 次の 2 つ現象が見られた。 (1)最初のユーザ発話に対して,誤認識により不適切な応答を生成している 例 1 Usr: 公園でよく遊びました。 $\Rightarrow$ Sys: いつを過ぎたんですか? 例 $2 \mathrm{Usr}$ : 鬼ごっこをして. $\Rightarrow$ Sys: 子猫ですか. 例 3 Usr: え?っと,留学と旅行ですね.7Sys: 遊学ですか. (2)システムから問い返し応答がないため,ユーザが次に何を話して良いか分からない 例 1 Usr: ショッピングです. $\Rightarrow$ Sys: ショッピングですか. 例 2 Usr: かくれんぼ. $\Rightarrow$ Sys: かくれんぼですか. いずれの場合も,ユーザが早々に「対話がつまらない」と感じて対話を終了させた(『バイバイ』と発話した)と考えられる。ここで,(1)については,6.1節で述べたように,システムから 「これまでにどこに行きましたか?」や「何をして遊びましたか?」と話し始め, 最初のユーザ発話の認識が高精度で行えるようにユーザ発話を誘導したにも関わらず,誤認識した事例であ る。誤認識を防ぐ手段として,認識信頼度判定の閥値を高くすることも考えられるが,その場合のシステム応答は相槌となり,ユーザに最初に与える印象が改善されるとは考えにくい.したがって, 音声認識性能の向上が重要な課題となる。一方, (2)については, 音声認識精度ではなく, 対話を継続させるための応答生成の課題である。(2)の例にあるように, 名詞(格要素) のみが発話された場合,提案手法では,問い返し応答として,適切と判断された場合にのみ,その詳細を尋ねる応答しか生成されない。したがって,この例のように,「どんな」や「どこの」 などの疑問詞で問い返すことが不適切だと判定された場合には,その名詞について話題を広げることができない。このような事例の対策としては, 例えば, (2) 例 2 で,「かくれんぼ」と「鬼ごっこ」は関連が深い,という知識を利用して,「かくれんぼですか.鬼ごっこもしましたか?」 といった問い返し応答を生成することなどが考えられる。また,本論文では,ユーザの 1 発話のみを利用して応答を生成しているが,過去のユーザ発話を利用することにより,さらに多様な応答生成が可能になると考えられる。その際には,ゼロ代名詞などの省略された情報の補完が重要な課題となる,今後は,例えば,今村らの手法 (今村, 東中, 泉 2015) を用いてゼロ代名詞照応解析により項を補完した上で応答生成を行うことなども検討していきたい. ## 6.3 応答正解率 次に, 応答正解率に関する評価結果について述べる. 110 名の被験者以外の 2 名の評価者が, ユーザ発話とそれに対するシステム応答の全ペアに対し, 応答の適切性を主観で判断し, 両名が共に「適切」と判定したシステム応答のみを正解とした。なお,相槌が生成されている場合は,「相槌応答」として分類した。 まず,図 13 に,生成されたシステム応答の「正解応答」「誤応答」「相桘応答」の割合を示す. なお,後述するように,相桘応答についても「適切」「不適切」の分類を行っている。図 13 から,実験における相槌応答は全体の $38.0 \%(34.9+3.1)$, また,相槌応答を除く応答を対象にした応答正解率は $68.06 \%(42.2 / 62.0)$ であった,以降では,まず,相槌を除く応答を対象に考察 図 13 生成されたシステム応答の分類結果 を行い,次に,相槌も含めた応答全体についての考察を行う。 図 14 に,相槌を除く応答を対象にした,年代別/男女別の応答正解率の結果を示す.この結果から, 男女別では女性に対する応答正解率が, 年代別では 20 代 40 代に対する応答正解率が相対的に高いことが分かる. 次に,図 15 に,生成されたシステム応答種別毎の割合,および,図 16 に,システム応答種別毎の正解率を示す。図 16 から,共感応答(e.g., それは良かったですね.),および,感情・形容表現の理由を尋ねる問い返し(e.g., どういう所がおもしろかったんですか?)については約 $80 \%$ 程度と高い精度が得られているが, 不足格判別に基づく問い返し(e.g., どこで遊んたんですか?)については, 他の応答種別と比べ著しく精度が低いことが分かる. ここで, 共感応答, および,感情・形容表現の理由を尋ねる問い返しの精度が高い理由としては,次のことが考えられる。 - 共感応答は, 認識結果を直接的に用いて応答を生成するのではなく, 感情推定結果を利 図 14 相槌を除く応答を対象にした応答正解率(男女別/年代別) ■繰り返し 不足格判別に基づく問い返し ■格要素の詳細を尋ねる問い返し ■感想を尋ねる問い返し 【感情$\cdot$形容表現の理由を尋ねる 問い返し 共感 図 15 生成されたシステム応答種別毎の割合 図 16 生成されたシステム応答種別毎の応答正解率 用するため, 仮に誤認識結果が含まれていたとしても, 感情推定結果として正しければ適切な共感応答が可能となる。 - 感情・形容表現の理由を尋ねる問い返しは, 最終述語が「おもしろい」や「楽しい」の場合に生成されるが,このようなユーザ発話は,システムからの「感想を尋ねる応答 (e.g., にに行ったんですか. どうでしたか?)」に対して発話されることが多く,しかも多くの場合は, 「楽しかったよ」といった短い発話でユーザが返答するため, 精度良く認識することが可能となる. また, 当該応答の生成が適切であるかどうかを判定するための辞書は人手により作成されているため,辞書の精度も高い。 一方, 不足格判別に基づく問い返しの応答精度が低い理由としては, 誤認識結果を利用した応答が生成されていることに加え, 次のことが挙げられる。 (1)格情報が含まれているにも関わらず,当該格を不足格と判別してしまう 例 1 Usr: ご飯を食べたりしました $\Rightarrow$ Sys: 何をしたんですか? 例 2 Usr: 缶蹴りしました $\Rightarrow$ Sys: 何をしたんですか? (2) 最終述語が「〜した」の場合に,「した」のみを最終述語として抽出してしまう 例 1 Usr: ご飯を食べたりしました $\Rightarrow$ Sys: 何をしたんですか? 例 2 Usr: 缶蹴りしました $\Rightarrow$ Sys: 何をしたんですか? ## (3) 深層格解析エラーにより, 必須格辞書に誤りがある 例Usr: 海で泳ぎました $\Rightarrow$ Sys: どこを泳いだんですか? ここで, (1)の例 1 は,ユーザ発話中の格助詞「二」が,認識信頼度判定アルゴリズムによって「信頼できない」と判定され, 結果として不足格と判別された例である. 4.1.3 節で述べた通り, 我々の提案手法では, 格助詞の音声認識誤りが極力少なくなるような対策をしているが, (1)の例 1 のような事例も観察された. 誤応答を減らすためのシステム改良は今後も続けていきたい.また,(1)の例 2 は, ユーザ発話において格助詞が省略されたことにより, 不足格判別を誤った例である.4.1.3 節でも述べたように,このような場合の不足格判別については今後の課題である. 一方, (2)の例については, 2 つも, 最終述語が適切に抽出できなかった例である. 2.2 節で述べた通り,「最終述語の不足格判別に基づく問い返し」はユーザ発話の最終述語が動詞, もしくは,「サ変名詞+する」の場合に生成されるが,上述の事例のように,「する」はサ変名詞以外の品詞と接続する場合も多い. 最終述語の抽出精度の向上については今後の課題である. 最後に, (3) の例については, 深層格解析エラーにより, 必須格辞書に誤りがある例である.具体的には, 動詞「泳ぐ」について, 深層格解析の段階で,「〜で泳ぐ」の格助詞「デ」を深層格「place (act)」として, 一方,「〜を泳ぐ」の格助詞「ヲ」を深層格「object」として解析し, 双方ともが必須格として登録されたため,既に泳いた「場所」が発話されたにも関わらず,その情報を誤って不足格として問い返している。この例については,「デ」「ヲ」共に「動作の場所」を表す深層格であることを適切に解析する, というように, 深層格解析の精度向上が必要である. ここまでで,「相槌応答」を除いた応答を対象に述べてきた.次に,「相桘応答」も含めた応答全体について述べる,我々は,誤認識を含む場合でもロバストに応答を生成する手法として,認識信頼度を判定し, 信頼度が低い場合には相槌を生成することで, 誤認識結果を用いた応答生成を防ぐ手法を提案した。しかし,ユーザが発話を終える前に生成された相槌(e.g., Usr: 子供のころは,す $\cdots \cdots \Rightarrow$ Sys: そうですか),あるいは,システム応答が聞き取れずユーザがシステムに問い返した際に生成された相槌(e.g., Usr: はい?7Sys: そうですか)などは, 誤認識結果を用いた応答ではないものの, 応答として不適切であると考えられる.今回の実験で生成された相槌応答(応答全体の $38.0 \%$ )の中に, このような不適切な相桘が $8.04 \%$ (応答全体の $3.1 \% )$ 含まれていた,前者については,発話の区切りを検出する性能の向上, 後者については, ユーザ発話が問い返しであるかどうかを判定する機能の構築が必要である. 以上を踏まえて, 適切な相桘も含めた応答正解率は $77.1 \%$ 含あった。また, 図 17 に, 適切な相槌も含めた年代別/男女別の応答正解率を示す. 男女別, 年代別で, 応答正解率に極端に大きな差はないが, 男性では 50,70 代, 女性では 40 代の応答正解率がやや低いことがわかる. 最後に,図 18 に,年代別/男女別の相槌応答の割合を示す.これより, 20,30 代,および, 50,60 代の女性については,相槌応答の割合が低く,一方, 70 代については,男女ともに相槌応答の 割合が高いことが分かる. ## 6.4 アンケートによる主観評価結果 『システムと話してみて, 満足度はどのくらいでしたか?』という質問に対する, 年代別/男女別の結果を図 19 に示す。全体的に女性の評価が高かったことがわかる。特に 50 代以上の女性と 70 代の男性の満足度は相対的に高く, 高齢者に対して有効なシステムとなる可能性が示唆された。その中でも 70 代については,相槌応答の割合が高く(図 18),単調な対話であったに 図 17 適切な相桘も含めた応答正解率(男女別/年代別) 図 18 相桘応答の割合 (男女別/年代別) も関わらず,満足度が顕著に低下していないことから,単調な対話でも受容性が高いことも示唆された。 40 代女性の評価が低いのは, 50,60 代の女性と比べて応答正解率が低い(図 17),および,相槌応答の割合が高い(図 18)ことが原因と考えられる。一方,男性については, 30,40 代の被験者の評価が他の年代に比べて相対的に低く,満足感は与えられていないことがわかった. ただし,女性の結果とは異なり,30,40代の男性に対する応答正解率が低い,あるいは,相桘応答の割合が高い, といった傾向は見られない.この点についての要因の解明は, 今後の課題とする. また, 実験後, ユーザから得られた自由記述の感想の抜粋を, 表 27 に示す. 表 27 のネガティ 図 19 設問『システムと話して, 満足度はどのくらいでしたか?』に対する主観評価結果(男女別/年代別) 表 27 ユーザから得られた自由記述の感想(抜粋) & \\ ブな意見や対話ロボットへの要望については, 今後の開発に生かしたい. ## 6.5 実際の対話例 最後に,実際の対話例 (下岡,徳久,吉村,星野,渡部 2010)を図 20 に示す。なお, 図中のシステム応答「そこで何をしたんですか」「そこで他になにをしましたか?」「他には何をしましたか?」については,本実験で対象とした 2 の話題に合わせて,問い返し応答として用意 (a) 対話例 1 (20代女性:子どもの頃の遊び) (b) 対話例 2 (30代男性:印象深い旅行) (c) 対話例 3 (50代女性:印象深い旅行) 図 20 実際の対話例 した定型応答であり,ユーザが沈黙した場合などに発話を促すために生成される。この結果よ り,対話が大きな破綻なく継続していることがわかる. ## 7 まとめ 本稿では, 回想法の効果による高齢者の認知症予防や, 独居高齢者の孤独感の軽減, あるいは, 若い世代のストレス軽減, などへの貢献を目的として, 音声対話ロボットのための傾聴システムの開発について述べた。ユーザ発話中の述語の不足格判別などによる「繰り返し/問い返し応答」, ユーザ発話に対する感情推定による「共感応答」の生成アルゴリズム, および, それらの応答と「相桘応答」とを, 音声認識信頼度を考慮した上で適切に生成するアルゴリズムを提案した,110名の一般被験者に対する評価実験の結果,「印象深い旅行」を話題とした場合で, $45.5 \%$ の被験者が 2 分以上(ユーザ発話数平均 12.40)対話を継続していた.また,システムの応答を主観的に評価した結果,相桘を除いた場合で約 $68 \%$, 適切な相术含めた場合で約 $77 \%$ のユーザ発話に対して対話を破綻させることなく応答生成ができていた。また,生成された応答種別毎では,共感応答や感情・形容表現の理由を尋ねる問い返しについては高い応答正解率が得られていたが,一方で,特に不足格判別に基づく問い返しについては応答正解率が低かった. さらに, 被験者へのアンケートの結果, 特に高齢の被験者から肯定的な主観評価結果が得られた。 今後の課題としては, 主に, 下記の事項が挙げられる。これらの問題を解決することにより,高齢者のみならず,若い世代に対する満足度向上につながると期待される. (1) 深層格解析精度の向上(格助詞の省略,および,動詞の受動態・使役態への対応) (2)より多様な応答の生成(名詞の関連語知識の利用や,過去のユーザ発話の利用など) (3)発話区切り検出精度の向上(ユーザ発話を遮って応答生成を行わない) (4) ユーザ発話の談話行為推定(ユーザの問い返しなどに対して相槌を生成しない) (5) 音声認識精度の向上 また,実際のユーザへの効果の評価として,本傾聴システムを体験したことによる,ユーザの話し方や顔表情などの状態変化に関する評価を行い, システムの改良を進める予定である. ## 謝 辞 Web 上の 5 億文のテキストを提供して頂いた京都大学の河原大輔氏に深く感謝致します. ## 参考文献 Balahur, A. and Hristo, T. (2016). "Detecting Implicit Expressions of Affect from Text using Semantic Knowledge on Common Concept Properties." In the 10th International Conference on Language Resources and Evaluation (LREC 2016), pp. 1165-1170. Banchs, R. and Li, H. (2012). "IRIS: A Chat-oriented Dialogue System based on the Vector Space Model." In the 50th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 37-42. Bellegarda, J. (2013). "Large-Scale Personal Assistant Technology Deployment: The Siri Experience." In INTERSPEECH, pp. 2029-2033. Butler, R. (1963). "The Life Review: An Interpretation of Reminiscence in the Aged." Psychiatry, 26, pp. 65-76. De Mori, R., Bechet, F., Hakkani-Tur, D., McTear, M., Riccardi, G., and Tur, G. (2008). "Spoken Language Understanding." IEEE Signal Processing Magazine, 25 (3), pp. 50-58. DeVault, D., Artstein, R., Benn, G., Dey, T., Fast, E., Gainer, A., Georgila, K., Gratch, J., Hartholt, A., Lhommet, M., Lucas, G., Marsella, S., Morbini, F., Nazarian, A., Scherer, S., Stratou, G., Suri, A., Traum, D., Wood, R., Xu, Y., Rizzo, A., and Morency, L. (2014). "SimSensei Kiosk: A Virtual Human Interviewer for Healthcare Decision Support." In the 2014 International Conference on Autonomous Agents and Multi-agent Systems, pp. 137-139. 藤原敬記, 伊藤敏彦, 荒木健治 (2005). 音声言語理解のための助詞・付属語の信頼度利用に関する調査. 日本音響学会 2006 年春季研究発表会講演論文集, 1-P-28, pp. 199-200. Gordon, A. and Swanson, R. (2009). "Identifying Personal Stories in Millions of Weblog Entries." In the 3rd International Conference on Weblogs and Social Media, Data Challenge Workshop, pp. 16-23. Han, S., Bang, J., Ryu, S., and Lee, G. G. (2015). "Exploiting Knowledge Base to Generate Responses for Natural Language Dialog Listening Agents." In the 16th Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL), pp. 129-133. Han, S., Lee, K., Lee, D., and Lee, G. G. (2013). "Counseling Dialog System with 5W1H Extraction." In the 14th Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL), pp. 349-353. 長谷川貴之,鍛冶伸裕,吉永直樹,豊田正史 (2014). オンライン上の対話における聞き手の感情の予測と喚起. 人工知能学会論文誌, 29 (1), pp. 90-99. Hazen, T. J., Seneff, S., and Polifroni, J. (2002). "Recognition Confidence Scoring and its Use in Speech Understanding Systems." Computer Speech 83 Language, 16 (1), pp. 49-67. 東中竜一郎, 貞光九月, 内田渉, 吉村健 (2013). しゃべってコンシェルにおける質問応答技術. NTT 技術ジャーナル, $25(2)$, pp. 56-59. Higashinaka, R., Funakoshi, K., Araki, M., Tsukahara, H., Kobayashi, Y., and Mizukami, M. (2015). "Towards Taxonomy of Errors in Chat-oriented Dialogue Systems." In the 16th Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL), pp. 97-95. Higashinaka, R., Imamura, K., Meguro, T., Miyazaki, C., Kobayashi, N., Sugiyama, H., Hirano, T., Makino, T., and Matsuo, Y. (2014). "Towards an Open-domain Conversational System Fully Based on Natural Language Processing." In the 25th International Conference on Computational Linguistics (COLING), pp. 928-939. 池見陽 (1996). 傾聴とフォーカシングの臨床心理学. 聴能言語学研究, 13 (3), pp. 213-220. 今村賢治, 東中竜一郎, 泉朋子 (2015). 対話解析のためのゼロ代名詞照応解析付き述語項構造 解析. 自然言語処理, 22 (1), pp. 3-26. 乾孝司, 奥村学 (2006). テキストを対象とした評価情報の分析に関する研究動向. 自然言語処 理, 13 (3), pp. 201-241. 磯健一, 颯々野学 (2013). 「音声アシスト」の音声認識と自然言語処理の開発. 情報処理学会研 究報告, 2013-SLP-98 (4), pp. 1-6. 河原達也 (2013). 音声対話システムの進化と淘汰一歴史と最近の技術動向一. 人工知能学会誌, 28 (1), pp. 45-51. Kawahara, D. and Kurohashi, S. (2006). "Case Frame Compilation from the Web using High- Performance Computing." In the 5th International Conference on Language Resources and Evaluation, pp. 1344-1347. 河原達也, 李晃伸 (2005). 連続音声認識ソフトウェア Julius. 人工知能学会誌, 20 (1), pp. 41-49. Kawahara, T., Uesato, M., Yoshino, K., and Takanashi, K. (2016). "Toward Adaptive Generation of Backchannels for Attentive Listening Agents." In International Workshop Spoken Dialogue Systems (IWSDS), pp. 1-10. 小林のぞみ, 乾健太郎, 松本裕治, 立石健二, 福島俊一 (2005). 意見抽出のための評価表現の 収集. 自然言語処理, $12(2)$, pp. 203-222. 小林優佳, 山本大介, 横山祥恵, 土井美和子 (2010). 高齢者向け対話インタフェース一雑談時 における関心度検出方法とそれを利用した対話システム一. 人工知能学会言語・音声理解 と対話処理研究会, SIG-SLUD-B001-01, pp. 1-6. 小林優佳, 山本大介, 土井美和子 (2011). 高齢者向け対話インタフェース一発話間の共起性を利 用した傾聴対話の基礎検討一. 情報科学技術フォーラム FIT2011(第 2 分冊), pp. 253-256. 小林優佳, 山本大介, 土井美和子 (2012). 高齢者向け対話インタフェース一病院スタッフ・患者間の対話モデルを使用したコミュニケーションロボツト一. 人工知能学会言語・音声理 解と対話処理研究会, SIG-SLUD-B103-12, pp. 253-256. 国立国語研究所 (2004). 分類語彙表一増補改定版一. 秀英出版. 工藤拓,松本裕治 (2004). 半構造化テキスト分類のためのブースティングアルゴリズム. 情報処理学会論文誌, 45 (9), pp. 2146-2156. 倉島健,藤村考,奥田英範 (2009). 大規模テキストからの経験マイニング. 電子情報通信学会論 文誌, J92-D (3), pp. 301-310. 黒川由紀子 (2005). 高齢者の心理療法一回想法. 誠信書房. Lee, A., Kawahara, T., and Shikano, K. (2001). "Julius-An Open Source Real-time Large Vocabulary Recognition Engine." In European Conference on Speech Communication and Technology (EUROSPEECH2001), pp. 1692-1694. 李晃伸 (2000). Phonetic Tied-Mixture モデルを用いた大語彙連続音声認識. 電子情報通信学会 論文誌, J83-DII (12), pp. 2517-2525. 毎日新聞社 (1991-1995). CD一毎日新聞データ集 91 版〜95版. 日外アソシエーツ. 目黒豊美, 東中竜一郎, 堂坂浩二, 南泰浩 (2012). 聞き役対話の分析および分析に基づいた対 話制御部の構築. 情報処理学会論文誌, 53 (12), pp. 2728-2801. 目黒豊美, 東中竜一郎, 堂坂浩二, 南泰浩, 磯崎秀樹 (2009). 聞き役対話システムの構築を目 的とした聞き役対話の分析. 情報処理学会研究報告, pp. 1-7. 目黒豊美, 東中竜一郎, 南泰浩, 堂坂浩二 (2011). POMDP を用いた聞き役対話システムの対 話制御。言語処理学会第 17 回年次大会発表論文集(2011 年 3 月), pp. 912-915. 三島徳雄, 久保田進也 (2003). 積極傾聴を学ぶ一発見的体験学習法の実際一. 中央労働災害防止 協会. Morbini, F., Forbell, E., DeVault, D., Sagae, K., Traum, D. R., and Rizzo, A. (2012). "A Mixed- Initiative Conversational Dialogue System for Healthcare." In the 13th Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL), pp. 137-139. 中村明 (1993). 感情表現辞書. 東京堂出版. 日本電子化辞書研究所 (2001). EDR 電子化辞書 2.0 版使用説明書. 榆木満生 (1989). 積極的傾聴法. 医学教育, 20 (5), pp. 341-346. 大石亨, 松本裕治 (1995). 格パターン分析に基づく動詞の語彙知識獲得. 情報処理学会論文誌, 36 (11), pp. 2597-2610. 大竹裕也, 萩原将文 (2012). 高齢者のための発話意図を考慮した対話システム. 日本感性工学会論文誌, 11 (2), pp. 207-214. 大竹裕也, 萩原将文 (2014). 評価表現による印象推定と傾聴型対話システムへの応用. 日本知能情報ファジィ学会誌, 26 (2), pp. 617-626. Plutchik, R. (1980). "A General Psycho-evolutionary Theory of Emotion." In Theories of Emo- tion. Academic Press. 下岡和也, 徳久良子, 吉村貴克, 星野博之, 渡部生聖 (2010). 音声対話ロボットのための傾聴シ ステムの開発. 人工知能学会言語・音声理解と対話処理研究会, SIG-SLUD-58, pp. 61-66.総務省統計局 (2013).高齢者の人口. http://www.stat.go.jp/data/topics/topi721.htm/.須田行雄 (2013). 回想法実施マニュアル. 第 1 回公募研究,一般社団法人日本産業カウンセラー 協会. 寺村秀夫 (1982). 日本語のシンタクスと意味. くろしお出版. Tokuhisa, R., Inui, K., and Matsumoto, Y. (2008). "Emotion Classification Using Massive Examples Extracted from the Web." In the 22th International Conference on Computational Linguistics (COLING), pp. 881-888. Turney, P. (2002). "Thumbs Up? Thumbs Down? Semantic Orientation Applied to Unsupervised Classification of Reviews." In the 40th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 417-424. ホールファミリーケア協会 (2004). 傾聴ボランティアのすすめ. 三省堂. Yamaguchi, T., Inoue, K., Yoshino, K., Takanashi, K., Ward, N., and Kawahara, T. (2016). "Analysis and Prediction of Morphological Patterns of Backchannels for Attentive Listening Agents." In International Workshop Spoken Dialogue Systems (IWSDS), pp. 1-12. 山本大介,小林優佳,横山祥恵,土井美和子 (2009). 高齢者対話インタフェース〜『話し相手』 となって,お年寄りの生活を豊かに〜.ヒューマンコミュニケーション基礎研究会, 109 (224), pp. 47-51. 横山祥恵, 山本大介,小林優佳, 土井美和子 (2010). 高齢者向け対話インタフェース一雑談継続を目的とした話題提示・傾聴の切替式対話法一. 情報処理学会研究報告音声言語情報処理, 2010-SLP-80 (4), pp. 1-6. ## 略歴 下岡和也:2002 年京都大学工学部情報学科卒業. 2005 年京都大学大学院知能情報学専攻修士課程修了.同年(株)豊田中央研究所入社.現在,空間情報処理とその応用に関する研究, 開発に従事. 徳久良子:2001 年九州工業大学大学院情報科学専攻修士課程修了. 同年 (株)豊田中央研究所入社. 2009 年奈良先端大学大学院博士後期課程修了. 博士 (工学). 感情や対話研究に従事. 人工知能学会, 情報処理学会, 言語処理学会会員. 吉村貴克:1997 年名古屋工業大学知能情報システム学科卒. 2002 年同大学大学院博士後期課程修了. 博士 (工学). 現在, (株) 豊田中央研究所にて, 車 両の走行データのデータ処理とその応用に関する研究に従事. IEEE 会員. 星野博之:1988 年名古屋大学大学院工学研究科修士課程修了. 同年(株)豊田中央研究入社, 現在に至る. 音声認識, ヒューマンインタフェース等の研究に従事. 電子情報通信学会, 日本音響学会他. 博士 (情報科学). 渡辺生聖 : 2000 年筑波大学第三学群情報学類卒業. 2002 年同大学院修士課程修了. 現在, トヨタ自動車(株)パートナーロボット部にて, シニアライフ支援のための対話ロボットの開発に従事. (2016 年 5 月 20 日受付) (2016 年 8 月 5 日再受付) (2016 年 9 月 15 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 大域的な並べ替えによるサブ言語翻訳の高精度化 法律文書や技術文書等の専門文書に対する機械翻訳では,翻訳対象のサブ言語に特有の大域的な文構造を適切に捉えて翻訳することが高品質な訳文を得る上で必要不可欠である.本論文では,文内の長距離な並べ替えに焦点を当てることによって,大域的な並べ替えを行うための手法を提案する。提案する大域的並べ替え手法では, アノテートされていない平文学習データを対象として, 構文解析を行うことなく大域的な並べ替えモデルを学習する。そして,大域的な並べ替えを従来型の構文解析 による並べ替えと併用することによって, 高精度な並べ替えを実現する。公開特許公報英文抄録 (Patent Abstracts of Japan, PAJ) のサブ言語を対象とした日英翻訳お よび英日翻訳の評価実験を行ったところ,両言語方向において,大域的な並べ替え と構文に基づく並べ替えを組み合わせることによって翻訳品質向上が達成できるこ とがわかった。 キーワード:機械翻訳,並べ替え,サブ言語,文構造,大域的な並べ替え ## Improving Sublanguage Translation via Global Pre-ordering \author{ Masaru Fuji ${ }^{\dagger, \dagger}{ }^{\dagger}$, Masao Utiyama $^{\dagger}$, Eirchiro Sumita $^{\dagger}$ and Yuj $^{2}$ Matsumoto $^{\dagger \dagger}$ } When translating formal documents, capturing the sentence structure specific to the sublanguage is extremely necessary to obtain high-quality translations. This paper proposes a novel global reordering method that focuses on long-distance reordering to capture the global sentence structure of a sublanguage. The proposed method learns global reordering models without syntactic parsing from a non-annotated parallel corpus and works in conjunction with conventional syntactic reordering. The experimental results regarding patent abstract sublanguage show concrete improvements in translation quality, both for Japanese-to-English and English-to-Japanese translations. Key Words: Machine Translation, Reordering, Sublanguage, Sentence Structure, Global Reordering  ## 1 はじめに 法律文書や技術文書等の専門文書は,その文種に特有の表現を持っていることから,サブ言語を形成していると考えることができる。サブ言語を対象とした翻訳に関する従来の研究では, サブ言語の翻訳品質を向上させるには, 対象のサブ言語に特徴的に表れる文構造を適切に捉え,対象言語の文構造に変換することが不可欠であることが指摘されている (Buchmann, WarwickArmstrong, and Shane 1984; Luckhardt 1991; Marcu, Carlson, and Watanabe 2000). 図 1 は, 特許抄録のサブ言語に特有な 2 対の対訳文である。いずれの文対でも,適切な訳文を得るためには, 原言語文における $\mathrm{ABC}$ という文構造を目的言語において CBA に変換しなければならない. このようなサブ言語に特徴的な文では,文構造を適切に捉えられなければその後の処理でも良い翻訳に結びつく可能性が低いため, 初期段階での正確な文構造の把握が極めて重要である. この課題に対して様々な研究が行われてきた。骨格構造を用いた機械翻訳 (Mellebeek, Owczarzak, Groves, Genabith, and Way 2006; Xiao, Zhu, and Zhang 2014) では, 構文解析器を用いて入力文から骨格構造, つまり文の大域的な構造を抽出し,従来の統計的機械翻訳を用いて大域的な構造の学習を行って翻訳文を生成する。しかしながらこの方法は, 構文解析の精度の影響を受けるため, 解析精度が低い場面では結果的に翻訳の精度も低くなるという問題がある.もう一つの手法としては, 文構造変換のための同時文脈自由文法の規則を人手で構築し, これを用いて入力文の文構造を出力側言語の構造に変換する手法が提案されている (Fuji, Fujita, Utiyama, Sumita, and Matsumoto 2015; 富士, 藤田, 内山, 隅田, 松本 2016). こちらの手法は,新規のサブ言語に対して人手で規則を作成しなければならないという問題がある。これらの手法では, 構文解析精度による制約の問題があったり, 人手による規則作成の問題があるなど,新たなサブ言語に対して柔軟に適用できる翻訳を実現することができていない. \\ \\ 図 1 大域的な並べ替えが必要な, 特許抄録のサブ言語に特徵的な対訳文の例. $\mathrm{A}, \mathrm{B}, \mathrm{C}$ は,文の大域的構造を構成する構造部品を表す. 本論文では,サブ言語に特有な大域的な文構造を捉えるための,大域的な並べ替え手法を提案する。提案手法は,構文解析を用いることなく,アノテートされていない平文テキストデー 夕から大域的並べ替えモデルを学習し,このモデルを用いて新規の入力文に対する大域的な並べ替えを行う。本手法は構文解析器を用いないため,構文解析器の解析精度の影響を受けることはなく,また新規のサブ言語にも容易に適用できる。 特許抄録のサブ言語を対象にした日英および英日翻訳実験を行って本手法の評価を行ったところ,大域的な並べ替えと従来型の構文解析に基づく並べ替えを併用することによって,翻訳品質が向上することがわかった. 本論文の貢献は次のとおりである. - 構文解析を用いることなく,アノテートされていない平文テキストデータから大域的並ベ替えモデルを学習できる手法を提案する。 - 大域的な並べ替えと構文解析に基づく並べ替えを併用したときに翻訳品質が向上することが確認できた。 - 特に特許抄録文では, サブ言語に特有な文構造を持った入力文に対して, 日英・英日双方向において翻訳精度が向上した。 ## 2 関連研究 翻訳処理の一環として,入力文中の単語の並べ替えを行うことは翻訳品質の向上において有効であることが示されており,様々な手法が提案されてきた。 ## 2.1 階層的フレーズベース機械翻訳 階層的フレーズベース機械翻訳 (Chiang 2005) における並べ替え手法は, 統計的機械翻訳研究の初期の頃に提案され,並べ替えを必要とする言語対にとって現在も有効な手法となっている.この並べ替え手法では, 統計的機械翻訳の学習段階において, アノテートされていない平文学習データから並べ替え規則が自動的に学習され,翻訳実行時にはこの並べ替え規則を用いた翻訳が行われる,構文解析を用いないことと,平文テキストデータから自動的に規則を学習することから, 新規のサブ言語への適用は容易である。しかしながら, 本手法では, 長距離の単語間の関係を捉えにくいという問題が指摘されており (Dyer, Gimpel, Clark, and Smith 2011), また文の大域的な構造を捉えるための手段は設けられていない. ## 2.2 Tree-to-String 翻訳および String-to-Tree 翻訳 これらの手法では,原言語か目的言語かのいずれかの言語のための構文解析が利用可能なときに,その構文解析を用いて言語対の翻訳精度を向上させるものである (Yamada and Knight 2001; Ambati and Chen 2007). 片方の言語における言語リソースが限られている場合でも,もう片方の言語の構文情報によって翻訳精度を向上させられるという特長がある. しかしながら, これら手法も構文解析の解析精度に影響されるという問題がある. ## 2.3 骨格構造を用いた機械翻訳 本手法は,文の大域的な構造を捉えることを主眼においた研究である (Mellebeek et al. 2006; Xiao et al. 2014). 手法では, 入力文に対して構文解析器を用いて解析を行い, 骨格構造と言われる, 文の大域的な構造を抽出し, これに対して従来の統計的機械翻訳を適用して翻訳を行う.本手法も, 構文解析器を用いているため解析精度の影響を受ける。なお, 関連した研究としては述語項構造による手法も提案されている (Komachi, Matsumoto, and Nagata 2006). ## 2.4 構文解析による事前並べ替え翻訳 構文解析を用いた事前並べ替え翻訳に関する研究は幅広く行われてきた (Isozaki, Sudoh, Tsukada, and Duh 2010; Goto, Utiyama, Sumita, and Kurohashi 2015; de Gispert, Iglesias, and Byrne 2015; Hoshino, Miyao, Sudoh, Hayashi, and Nagata 2015). 現状, 実用面と精度の面からもっとも使われている手法である。本手法は, 構文解析器を用いるため解析精度の影響を受けるという問題がある。また,新規分野に適用させるためには,人手によってアノテートした対象分野の対訳コーパスが大量に必要となるという問題がある. なお, 本論文の提案する大域的並べ替え手法は, この従来型の構文解析による事前並べ替え手法の前処理として動作することにより, 従来手法のこれら欠点を補うものである. ## 3 大域的並べ替え手法 本論文で我々は,入力文に対してサブ言語に特有な大域的な文構造を把握して並べ替えるための手法を提案する。サブ言語に特有な大域的な文構造は, 対象文書を読みやすくするために,特徴的な表層的手掛かりを使いながら記述される傾向にある (Buchmann et al. 1984). このため, 本手法では, 対象サブ言語において頻出する表層的な手掛かり表現を取り出し, この手掛かりをもとに文構造の認識および並べ替えを行う,表層的な手掛かり表現は,単語 $\mathrm{N}$ グラムとして取り出す. 大域的な並べ替えを含む学習文から Nグラムを取り出し, 新たに入力された文に対してこのNグラムを照合することによって, 大域的な並べ替えの有無を検知し, 必要な場合に並べ替えを行う。 例えば,図 1 は,特許抄録文のサブ言語に属する学習データ中に表れる,大域的な並べ替えを必要とする 2 文の例文である。本論文では以降, 大域的な並べ替えにおける並び替え単位となる文字列を構造部品と呼ぶ. この例文では, 入力文の大域的構造を $\mathrm{ABC}$ という 3 の構造部 図 2 大域的な並べ替えと従来の並べ替えの両方を適用した後の入力文 品で表しているが, 訳文では大域的な並べ替えを行って構造部品を CBA の順番で出力することによって訳文として自然な文を得る。 ここで, これら学習データにおいて, 入力文を構成する構造部品の境界の左右からユニグラムを抽出するとユニグラムが得られる。ここで“いは構造部品の境界位置を表す. $ \begin{gathered} \{\text { provide } \mid, \text { a }\} \\ \{\text { apparatus, } \mid, \text { capable }\} \end{gathered} $ 新たな文 “To provide a heating apparatus capable of maintaining the temperature.”が入力されると,上記ユニグラムとの照合が行われ, “To provide | a heating apparatus | capable of maintaining the temperature"のように構造部品の境界がマーキングされた文が得られる。ここで,ピリオドは並べ替え処理の対象外としており,一通りの並べ替えおよび翻訳処理が完了してから最後にピリオドに相当する句点等を訳文に戻す。入力文において認識されたこれら構造部品は大域的に並べ替えられて, “Capable of maintaining the temperature | heating apparatus | to provide"が得られる. さらに,各構造部品について従来型の並べ替えを行うことによって, “The temperature maintaining of capable | heating appratus | provide to"という文が得られる. これは,目的言語である日本語の文構造および単語順を持った文となっており,図 2 に示すように,統計的機械翻訳を用いて容易に翻訳することができるようになる。 本手法は,2つの手順から構成される。手順 1 では,大域的な並べ替えを必要とする文対を学習データから抽出する。この抽出した文対の原文側文は, 構造部品の境界位置を付与して格納されるが,このコーパスを以降,大域的並べ替えコーパスと呼ぶ,手順 2 では,大域的並べ替えコーパスから $\mathrm{N}$ グラム等の文の素性を抽出してモデルを学習し,新規入力文に対してこのモデルを用いて構造部品の推定を行う.推定した入力文中の構造部品を大域的に並べ替えることにより,大域的な並べ替えが完了する,本論文では,手順 2 の実現方法として,ヒューリスティックな方法と機械学習による方法の両者を試した. 次節では, 手順 1 と手順 2 について説明する. ## 3.1 大域的な並べ替えを必要とする文対の抽出 以下では,統計的機械翻訳用の学習コーパスを対象に大域的な並べ替えが必要な文対を抽出するためのアルゴリズムについて説明する. 大域的な並べ替えを必要とする文対とは,単語アラインメントされた文対において,文を 2 つもしくは 3 つの構造部品に区切ったときに, これら構造部品が原文と訳文の間で, フレーズ 単位 (phrase-based) で swap の位置関係 (Galley and Manning 2008) にある文対,と定義する. なお,3つの構造部品に区切った場合には,隣接する 2 の構造部品同士がそれぞれ $\operatorname{swap}$ の関係にある場合に条件が適用される。例えば図 3 は,3つの構造部品から構成される英日対訳文の例であり,隣接する 2 つの構造部品の組み合わせがすべて原文側と訳文側で swap の関係に配置されているため, 大域的な並べ替えの対象となる. なお提案手法は, 理論上は 4 つ以上の構造部品に区切っても適用できるが, 人手による分析から,2つもしくは 3 つの構造部品に区切ったときに境界位置に特徴的な $\mathrm{N}$ グラムが現れやすいことから,2つもしくは 3 つとしている. さらに,区切る数が多くなると,構文的な単位と差がなくなって効果が出にくくなることもあげられる. 大域的な並べ替えを必要とする文対を対訳コーパスから抽出するための手順を以下に順を追って述べる。 (1)原文・訳文それぞれについて,すべての隣接する 2 単語間位置が構造部品の境界になり得るとみなし,すべての原文境界位置に対するすべての訳文境界候補を作成する。ここで,文長 $F$ の原文 $f$ では単語間位置の個数は $F-1$ であり, 文長 $E$ の訳文 $e$ では単語間位置の数が $E-1$ あることから, $(F-1) \times(E-1)$ 個の単語間位置の組み合せを候補として作成する. (2)上記各々の組み合わせ候補の中から,境界で区切ることで得られた構造部品が原文と訳文の間で swap の位置関係にある候補を抽出する。ここで, 原文中の $k$ 番目の構造部品が $\phi_{k}$ であり, $K$ 個の構造部品から構成される文が $\left(\phi_{1}, \phi_{2} \cdots \phi_{K}\right)$ であり, 原文中の $k$ 番目の構造部品が訳文中の $\alpha_{k}$ 番目の構造部品と対応するときに, $\alpha_{k}=\alpha_{k+1}+1$ が成り立つ構造部品の組み合わせが swap の関係にある構造部品であるが, このような $\operatorname{swap}$ の位置関係にある構造部品から構成される文対をすべて抽出する。なお,上述の「大域的な並べ替えを必要とする文対」の定義で述べたとおり, 本実験では $K$ は 2 もしは 3 である. 図 3 英日対訳文において, 構造部品 $\phi_{1}, \phi_{2}, \phi_{3}$ が swap の位置関係に配置された例 候補 1 候補 2 図 4 入力言語の主辞位置による候補の選択の例 (3)前記の手順で候補を選択した結果,複数個の候補が残った場合には, 原文言語が主辞先行型か主辞終端型かによって,候補を一つに絞り込む. 我々の分析から,主辞先行型言語では,もっとも重要な構造部品が文頭の近くに表れる傾向があるのに対して,主辞終端型では文末の近くに表れる,という特徴を用いる。実験では,主辞先行型言語の場合には,文頭に近い構造部品が最短である候補を選択し,主辞終端型言語の場合には,文末に近い構造部品が最短である候補を選択する. 図 4 は, 3 つの構造部品から構成される英語文で, 複数 $(2$ つ) の候補が存在する場合の例を示す. ここで英語は主辞先行型言語のため, 文頭に近い構造部品である $\phi_{1}$ と $\phi_{2}$ の長さ (単語数) の合計が短い方を選択する。候補 1 の $\phi_{1}$ と $\phi_{2}$ の単語数の合計は $2+5=7$ であり, 候補 2 の $\phi_{1}$ と $\phi_{2}$ の単語数の合計は $2+2=4$ であるため, この合計値がより短い候補 2 を選択する。 ## 3.2 大域的な並べ替えの学習と推定 前項で抽出した大域的並べ替えコーパスを用いて大域的並べ替えモデルを学習し,翻訳実行時には,大域的並べ替えモデルを用いて入力文を大域的に並べ替えるためのアルゴリズムを以下に説明する。大域的並べ替えコーパスの各例文から単語 N グラムを抽出し,これを用いて大域的並べ替えモデルを学習させる,大域的な並べ替えの学習と推定を実現する手段として,以下に,ヒューリスティックに基づく手法と機械学習に基づく手法について説明する. ## 3.2.1ヒューリスティックに基づく手法 ヒューリスティックに基づく手法では, 大域的な並べ替えの学習と推定において,Nグラム照合の手順や推定候補の推定など各々の手順をヒューリスティックに基づいて決める. $\mathbf{N}$ グラム抽出構造部品 $\phi_{k}$ と $\phi_{k+1}$ の境界の左右両方から $\mathrm{N}$ グラムを抽出する. ヒューリス ティックに基づく方法では, 構造部品の境界の左右で異なる $\mathrm{N}$ グラムの $\mathrm{N}$ を持つことができるようにしている。ここで, $B$ が $\phi_{k+1}$ 中の 1 番目の単語位置, $f$ が原言語文, $f_{B}$ が原言語文における位置 $B$ の単語, $n_{L}$ が左側から抽出する $\mathrm{N}$ グラムの $\mathrm{N}$ だとすると, $f_{B}$ の左側から 抽出する $\mathrm{N}$ グラムは式 (1)の通りとなる. $ \left(f_{B-n_{L}}, f_{B-n_{L}+1} \cdots f_{B-1}\right) $ 同様にして,境界の右側から抽出する $\mathrm{N}$ グラムの $\mathrm{N}$ を $n_{R}$ とすると, $f_{B}$ の右側から抽出する Nグラムは式 (2) の通りとなる. $ \left(f_{B} \cdots f_{B+n_{R}-2}, f_{B+n_{R}-1}\right) $ デコード前項で抽出した $\mathrm{N}$ グラムを用いた,新規入力文に対する大域的並べ替えの推定方法 について以下に説明する,大域的な並べ替えの推定は,入力文に対する $\mathrm{N}$ グラム照合によって行う。ここでは,(a) 候補に対する $\mathrm{N}$ グラム合致長が長いほど,およびまたは, (b) 候補の N グラム頻度が高いほどその候補の信頼性が高い,という仮説に基づいて計算する。具体的には,len が候補に対する $\mathrm{N}$ グラム合致長であり,freqが候補の N グラム頻度だとしたとき,仮説に基づき信頼性を式 (3) で計算する。 $ \log (\text { freq }) \times \text { len } $ 以下では, 具体例を用いて, 2 つ構造部品を含む大域的な並べ替えと, 3 つの構造部品を含む大域的な並べ替えによるデコードについてそれぞれ説明する。なお照合の結果,2つの構造部品を持つ並べ替えと 3 つの構造部品を持つ並べ替えの両方に合致した場合は, 照合箇所が多いほうがより信頼度が高いという仮説から,3つの構造部品を持つ並べ替えのほうを採用する。 表 1 は, 2 つの構造部品を含む場合,つまり $K=2$ の場合の大域的な並べ替えの例である.構造部品が 2 つの場合, 隣接する構造部品の間の境界の数は 1 つである. $\mathrm{M} 2: 1$ から M2:4 の候補は,入力文“To prevent imperfect coating and painting.” が入力されたときに合致した N グラムであり,“境界位置を表す。ここで,構造部品境界に関わる合致長は, 境界左側の $\mathrm{N}$ グラムである $n_{L}$ と右側 $\mathrm{N}$ グラムである $n_{R}$ を足し合わせた len である.例えば候補 $\mathrm{M} 2: 3$ では, len $=n_{L}+n_{R}=2+1=3$ であり, この候補の出現頻度である freqの値は表 1 から 120 として与えられている。入力文について, 全候補の評価値を式 (3)に基づいて計算し,すべての候補の評価值が計算できたところで評価値順に候補をソートして最高点を得た候補を出力する. 表 12 つの構造部品から構成される入力文に対する照合の例 表 23 つの構造部品から構成される入力文に対する照合の例 表 2 は, 3 つの構造部品を含む場合, つまり $K=3$ の場合の大域的な並べ替えの例である.構造部品が 3 つの場合, 隣接する構造部品の間の境界の数は 2 つである. M3:1 から M3:5の候補は,入力文 "To provide a household heating device capable of maintaining the room temperature." が入力されたときに合致した $\mathrm{N}$ グラムであり, “”は境界位置を表す.ここで,合致長 len は, 1 番目の境界の左右の $\mathrm{N}$ グラムと, 2 番目の境界の左右の $\mathrm{N}$ グラムを足したものである.例えば候補 M3:3では, len $=2+1+1+1=5$ となる. そしてこの候補の出現頻度は 112 として与えられている,2つの構成部品を含む場合と同様に,入力文について,全候補の評価値を式 (3) に基づいて計算し,すべての候補の評価値が計算できたところで評価値順に候補をソートして最高点を得た候補を出力する. ## 3.2 .2 機械学習に基づく手法 ヒューリスティックに基づく手法では直観に基づいて計算方法などを決める場面が発生するため,他ドメインへの適応において画一的な方法でチューニングすることが困難である。このことから,機械学習を導入することによって画一的な最適化を可能にする. ここでは,境界推定を 2 值分類問題として位置づけ,機械学習器としてサポートベクターマシン $(\mathrm{SVM})$ を導入する。入力文の各単語について, その次の単語との間の位置が構造部品境界であるか否かの 2 値判定ができるように,当該単語の周辺の素性を与えてSVM モデルを学習させる,実験では,以下の 2 種類の素性を用いて,学習および判定を行った. N グラム SVMに与える素性として, 学習・推定対象の単語の左右の Nグラムを用いる。ヒュー リスティックに基づく手法とは異なり, 単純化のために, 単語の左側と右側で同じ $\mathrm{N}$ のグラムを用いる。学習・推定に利用する $\mathrm{N}$ グラムは式 4 の通りとなる. $ \left(f_{i-n+1}, f_{i-n+2} \cdots f_{i} \cdots f_{i+n-1}, f_{i+n}\right) $ 文中の単語出現位置学習・推定対象の各単語について, 文中におけるその単語の出現位置を素性として与える。この素性は, $\mathrm{N}$ グラム素性が同一の単語が複数個存在する場合に, 適切な境界位置を学習・推定するために導入した。素性の与え方としては, 当該単語の文頭から の位置を文長で割った数値を用いている。 $i$ が学習・推定対象の単語の文頭からの位置であり, $F$ が文長であるとして, 文中単語出現位置の素性は式 (5)に示すとおりに計算する. $ \frac{i}{F} $ 新規入力文に対する推定の段階では, 各単語位置について素性を抽出して学習されたSVM モデルに渡して, 境界か否かの推定を繰り返す。全単語に対してこの処理を繰り返すことによって, 入力文 $f$ の各単語位置 $i$ に境界であるか否かのマークが付与された状態になる. なお本手法では, 学習時において構造部品の個数についての制約をかけないため, 新規入力文に対する推定においても,不特定数の構造部品が得られることがある.学習データ中には構造部品が 2 つと 3 つの文しか入っていないため, 出力において 4 つ以上の構造部品が出力された場合には選択を行って 3 つになるようにする。選択は, 入力言語の主辞方向性を基に行う.具体的には, 英語のような主辞先行型言語ではもっとも文頭に近い構造部品区切り 2 つを採用し, 日本語のような主辞終端型言語ではもっとも文末に近い構造部品区切り 2 つを採用する. ## 4 評価実験 大域的並べ替え手法の導入による効果を評価するための実験をついて以下に述べる。最初に,大域的並べ替え手法をべースラインや他の並べ替え手法と比較するための設定について説明する. そして, 大域的並べ替え実験のための準備について説明し, 次に翻訳実験における各種設定について説明する. ## 4.1 比較対象の設定 大域的並べ替え手法の効果を評価するために,以下の 4 つの評価対象構成を設定し,それぞれに対して評価を行った。 T1 並べ替えを行わない, ベースラインの統計的機械翻訳. T2 T1に加えて, 大域的並べ替え手法のみを適用した場合. 入力文は構造部品に分解され,大域的な並べ替えが行われる。各構造部品はべースライン統計的機械翻訳によって目的言語に翻訳され,結合されて出力文が作成される. T3 T1に加えて, 従来型の構文に基づく並べ替えを行った場合. 入力文の単語は,そのまま構文に基づく従来型の並べ替えによって並べ替えられ,単語が並べ替えられた文が統計的機械翻訳で目的言語に翻訳される. T4 T1に加えて, 大域的並べ替え手法と, 従来型の構文に基づく並べ替えの双方が適用された場合. 入力文は構造部品に分解され, 構造部品は目的言語の並びになるように並べ替えられる。そして, 各構造部品に対して構文に基づく並べ替えが実行され,最後にこれ らの翻訳された構造部品を結合することによって出力文を作成する. なお, これまで述べてきたように,大域的並べ替え手法は,構文による並べ替えと併用することによって精度向上につながることを想定している。 ## 4.2 大域的な並べ替えの構築 3.2 節で述べたように本実験では,大域的な並べ替えの学習において,ヒューリスティックに基づく手法と機械学習に基づく手法の両者を用いている。 ヒューリスティックに基づく手法では, 出力を見ながら直観に基づいて計算式等を決めており,大域的な並べ替え単体についての,各パラメータを変化させての定量的な測定は行っていない.これに対して機械学習に基づく手法では, 構成を変化させながら機械学習器の推定機能を使って定量評価を行い, 実験に先立って最適な構成を決めている。 以下では, 機械学習に基づく手法における最適化について述べる. 3.2.2 節で説明したように, 機械学習に基づく手法では, $\mathrm{N}$ グラムと, 文中単語出現位置の両者を素性として用いる.このうち $\mathrm{N}$ グラムについては,学習条件を変化させることで推定精度が変化するため, 実験に先立って最適な推定精度が得られる学習条件を見つけるための予備実験を行った. 具体的には, $\mathrm{N}$ グラム抽出対象の文数と, $\mathrm{N}$ グラムの $\mathrm{N}$ を変化させて,推定精度の変化を測定した.機械学習の学習器としては, 学習・推定ともに, liblinear 1.94 (Fan, Chang, Hsieh, Wang, and Lin 2008)を用いた. liblinearの実行に先立って, ツールキットに同梱された svm-scale によるスケール調整,および grid.pyによるグリッド探索によるパラメータ調整を試みたがデフォルトと比較して改善が得られなかったため, デフォルト設定のまま学習を行った。 図 5 は,大域的並べ替えコーパスの文数と $\mathrm{N}$ グラムの $\mathrm{N}$ を変化させたときの,日本語入力文に対する推定精度の変化であり, 図 6 は英語入力文に対して同様の測定を行った結果である. 図 5 SVM モデルを用いた日本語入力文に打ける構造部品境界の推定精度について, $\mathrm{N}$ グラムの $\mathrm{N}$ と大域的並べ替えコーパスの文数を変化させることによる変化. 右側の凡例は,大域的並べ替えコーパスの文数を表す。 図 6 SVM モデルを用いた英語入力文における構造部品境界の推定精度について, $\mathrm{N}$ グラムの $\mathrm{N}$ と大域的並べ替えコーパスの文数を変化させることによる変化. 右側の凡例は, 大域的並べ替えコーパスの文数を表す. ここで精度とは, 10 分割による交差確認による, 入力文における構造部品境界の推定精度である。なお図中, 大域的並べ替えコーパスの文数が 10 万文(「100kJ)のときに $\mathrm{N}$ を増やすに連れて逆に精度が下がるという現象がみられるが,これは過学習によることが考えられる。 この測定から, 推定精度が最大となる学習条件を選択した。具体的には, 日本語入力と英語入力の双方において, $\mathrm{N}$ グラムの $\mathrm{N}$ として 5 を選択し, 大域的並べ替えコーパスの文数としては $100 \mathrm{k}$ ,つまり 100,000 文を選択した. ## 4.3 翻訳評価実験の設定 データ翻訳評価実験の評価データとしては, 日本特許抄録の英語訳である,公開特許公報英文抄録(Patent Abstracts of Japan, 以下 PAJ)1を用いた. PAJ およびPAJ の元となった日本語抄録文の間で自動対応付けを行い,日英対訳文の自動抽出を行った (Utiyama and Isahara 2007). 自動対応付けした対訳文から,1,000,000 文を学習データ,1,000 文を開発デー夕, 1,000 文を評価データとして無作為抽出した,評価データ 1,000 文のうち,Nグラムとの合致があつた 300 文を対象として評価実験を行った。なお, この翻訳実験用の学習データは, 前述のように,大域的並べ替え手法の学習データとしても用いた。 翻訳評価実験では,学習の一環として,1,000,000 文の学習デー夕に対する単語対応付けを行った. 現時点では, 大域的な並べ替えの必要な文対を判定するためのソフトウェアプログラムの速度性能に問題があるため,翻訳用にアラインメントされた $1,000,000$ の対訳文のうち,100,000 文対を対象に大域的な並べ替えの必要な文対を抽出した。抽出の結果, 38.194 文  対が得られ,この対訳文の原文を大域的並べ替えコーパスに格納して後段の実験に用いた。 ヒューリスティックに基づく手法では,上記で作成した大域的並べ替えコーパスから $2 \sim 5$ グラムを抽出したところ,381,311 個が得られた。 ベースライン統計的機械翻訳翻訳評価実験のベースラインとしては,統計的機械翻訳のツー ルキットである Moses phrase-based SMT (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007)を用い,歪み範囲としては, システムのデフォルト値である 6 を使用した,単語クラスの学習には $m k \operatorname{ls}^{2}$ (Och 1999) を用い,単語クラス数としてはデフォルトの 50 個を用いた。言語モデルの学習には, KenLM (Heafield, Pouzyrevsky, Clark, and Koehn 2013)を用い, 単語アラインメントには SyMGIZA++ (Junczys-Dowmunt and Szal 2010)を使用した. モデルの重みづけでは, BLEU 值 (Papineni, Roukos, Ward, and Zhu 2002)を指標として n-best batch MIRA (Cherry and Foster 2012) によるチューニングを行った. 各評価実験において, 重み付けチューニングを 3 回繰り返し,開発セットにおいて最大の BLEU 值を獲得した重み設定を採用した。べー スラインの変形として, フレーズベース統計的機械翻訳における歪み範囲として 20 をした場合と,階層的フレーズベースの実装である Moses hierarchical phrase-base SMT (Chiang 2005) を使用した場合についても併せて評価を行った.また, Tree-to-String 方式の統計的機械翻訳である $\operatorname{Travatar}^{3}$ (Neubig 2013) についても評価を行った. Travatarの学習では, 入力言語文の解析において Travatar 推奨の構文解析器である Ckylark ${ }^{4}$ (Oda, Neubig, Sakti, Toda, and Nakamura 2015)を用いた. 従来型の構文解析に基づく並べ替え本評価実験では, 構文解析器として Berkeley Parser (Petrov, Barrett, Thibaux, and Klein 2006)を用いて, 提案手法によって分割された各構造部品に対して事前並べ替えを行った。この基本的な構成は,日英・英日方向いずれも同じである. Berkeley Parserのドメイン適用では自己学習の手法を用いた,具体的には最初に,初期モデルを用いて 200,000 文の特許文の解析を行い, 次に, 得られた自動解析結果から構文解析モデルを学習することにより,特許文に適応した解析モデルを構築した.英語の初期モデルについては, Penn Treebank ${ }^{5}$ の文, および我々が人手で木構造を記述した 3,000 文の特許文を用いて学習した.日本語の初期モデルについては, EDR Treebank ${ }^{6}$ の 200,000 文を用いて学習させた。日本語の初期モデル学習では特許文は用いていない. 並べ替えモデルの学習では,内製の大規模な特許文対訳コーパスを用いて次の手順によって ^{4}$ Ckylark http://odaemon.com/?page=tools_ckylark 5 The Penn Treebank Project https://www.cis.upenn.edu/〜 treebank/ 6 国立研究開発法人情報通信研究機構, EDR コーパス https://www2.nict.go.jp/out-promotion/techtransfer/EDR/index.html } 事前並べ替えモデルを学習させた((Goto et al. 2015)の 4.5 節). (1) 対訳コーパスの原言語文を構文解析する (2) 対訳コーパスに対して単語アラインメントを行う (3) 原言語文と目的言語文の間でケンドールの順位相関係数 $\tau$ が最大化されるような原言語文に対する並べ替えを行う。このようにして各 2 分ノードは, 子ノードの入れ替えを行うことを表すSWAP と,入れ替えを行わないことを表すSTRAIGHT に分類される. (4)上記のデータを用いて,各ノードの SWAP,STRAIGHT を判定するためのニューラルネットワーク分類器を学習する. なお, 従来型の並べ替えの変形として, top-down bracketing transducer grammar (TDBTG) ベースの並べ替え ${ }^{7}$ (Nakagawa 2015) の結果を併記した,TDBTGベースの並べ替えでは, ベー スラインの統計的機械翻訳の学習の過程で得られた mkcls の出力および SyMGIZA++の出力を用いて並べ替えの学習を行った。 大域的並べ替えモジュール大域的並べ替えモジュールは,入力文に対する構造部品の推定と,推定した構造部品の大域的な並べ替えから構成される。大域的な並べ替えの学習および推定ではヒューリスティックに基づく手法と機械学習に基づく手法の両方の手法を用いて実験を行ったが,双方に対しての評価を行った。 評価尺度各システムは, BLEU (Papineni et al. 2002)と RIBES (Isozaki, Hirao, Duh, Sudoh, and Tsukada 2010)の 2 種類の評価指標を用いて評価した。これは,Nグラムベースの評価手法である BLEUのみでは長距離の関係を十分に評価することができず,本研究が目標としている構造レべルの改善を十分に測定できないと考えたからである. RIBES は順位相関係数に基づく自動評価手法であり, 評価対象の機械翻訳出力文中の語順と, 参照訳中の語順の比較を行う. RIBES のこのような特性によって,語順の大きく異なる言語間で頻繁に発生する,構造部品の入れ替えを評価できると考えられる,なお,RIBESは,NTCIR-10ワークショップの特許翻訳タスク (PatentMT) (Goto, Chow, Lu, Sumita, and Tsou 2013) や 2nd Workshop on Asian Translation (WAT) (Nakazawa, Mino, Goto, Neubig, Kurohashi, and Sumita 2015; Isozaki and Kouchi 2015) 等においても, 英日・日英の翻訳方向において, 人間評価との高い相関性が報告されている. なお,実験で得られた各 BLEU 值と RIBES 値は,MT Eval Toolkit8を用いた反復数 1,000 回の 100 分割ブートストラップ法による両側検定を行って, 各設定での最高値との有意差を調べた.  ## 5 実験結果 表 3 は日英翻訳,表 4 は英日翻訳の実験結果であり,ともに 4 つの比較対象における BLEU 值掉よびRIBES 値を揭載している。 カッコ内の数字は, ベースライン翻訳システム(歪み範囲 6 の場合)を基準としたときの向上の差分を表している。太字で表した数値は,各列における最高値に対してブートストラップ法に基づく片側有意差検定を行い,5\%水準で有意差が認められない,つまり最高値と同等とみなされる値を示す (Koehn 2004). 実験結果から, 日英翻訳・英日翻訳ともに, 大域的な並べ替えと構文解析に基づく並べ替えを併用したときに, ベースラインと比較して RIBES 值が 20 ポイント以上と大幅に向上してい 表 3 日英翻訳の翻訳評価結果 glob-pre は大域的な並べ替えを表し, pre は従来型の構文解析に基づく並べ替えを表す. $d l$ は歪み範囲を表し,HPBは階層的フレーズベース翻訳を表す. 表 4 英日翻訳の評価結果 ることがわかる. BLEU 值は, 構文解析に基づく並べ替えのみの構成である T3 と比較しても有意な差が出ていないが,これは,BLEU 値が大域的な変換を捉えにくいということに起因している可能性もある。このようにして, RIBES 值と BLEU 值で異なった傾向が得られたため,次節の考察では, さらに訳文中の文構造の正しさ,および人手評価を行った. ## 6 考察 本手法の目的は適切な文構造を持った訳文を出力するための大域的な並べ替えを行うことであるが,本手法の適用によって,どのくらいの訳文が文構造的に正しく出力されているかの評価を行った。これまでにも述べてきているとおり,サブ言語の翻訳では,まずは文構造を正しく出力できなければそもそも全体の訳文を適切に出力することができないことから,本評価は重要であると考えている.評価文としては, 4.3 節の「デー夕」項において,無作為抽出して作成した翻訳評価用文 1,000 文のうち $\mathrm{N}$ グラムに合致した 300 文について述べているが,本評価ではこの 300 文の先頭 100 文を用いている,本評価では,評価対象訳文が以下の条件を満たしている場合に, 文構造が正しく翻訳されているとみなした. なお, 各構造部品の内部の訳は評価していない. - 出力文において, 入力文中のすべての構造部品が過不足なく訳出されていること. - 出力文において, 入力文中のすべての構造部品が適切な順番で訳出されていること. - 入力文中で一続きで現れる構造部品が, 出力文中でも一続きの構造部品として訳出されていること。 表 5 は,100 文の日英翻訳中で文構造が正しく出力された文の文数を表す。表 6 は,100 文の英日翻訳中で文構造が正しく出力された文の文数を表す。太字で表した数値は,各列における最高値に対して比率検定に基づく片側有意差検定を行い,5\%水準で有意差が認められない,つまり最高値と同等とみなされる値を示す. いずれの表においても,大域的な並べ替えと構文的並べ替えを併用した $\mathrm{T} 4$ は, $\mathrm{T} 1$ および $\mathrm{T} 2$ と比較して文構造の正解率が有意に改善していることがわかる。 さらにいずれの表でも, T2 と $\mathrm{T} 4$ を比較すると T4のほうが有意に改善している。これは, T2で構造部品の並べ替えのみを行うと構造部品の境界での単語並びが不自然になり結果として訳文中の構造部品境界が不適切になる場合があったのが,T4でさらに構文的並べ替えを行うことでこの問題が解消する場合があることに起因すると考えられる,日英翻訳では,従来の並べ替えである T3 のみと比較して T4 の正解率が有意に改善していることがわかる。これに対して英日翻訳では, 従来の構文解析に基づく並べ替えの精度がすでに高いため,T3 から T4への精度向上はそれほど顕著ではない. なお,表 3 および表 4 において HPB の BLEU 值がベースラインと比べて大きく上がっていたが,表 5 および表 6 ではそれほど大きな改善とはなっていない.このことから,HPBによる改 表 5 日英翻訳における文構造が正しく出力された文数(100 文中) 表 6 英日翻訳における文構造が正しく出力された文数(100 文中) 善は比較的局所的なために, BLEU 値には反映されやすいが, 文構造の変換にはそれほど寄与していないと考えられる。 次に,各翻訳結果に対する人手評価を行った。評価文としては,上述の文構造評価で用いた 100 文を用いた. これは, 表 3 および表 4 において, RIBES 值による傾向と BLEU 值による傾向に異なりが見られるため,より人手に近い評価結果を見極めるためである.特に,BLEU 値で比較すると, 例えば表 3 では, T4 の値は $\mathrm{T} 1$ および $\mathrm{T} 3$ と比較して有意差が見られないという結果になるが, RIBES 値で比較すると,有意差があるという結果になる。人手評価には手間がかかるため, T1 および T2ではそれぞれ,表 3 および表 4 においてもっと高い値となった設定について評価を行った, $\mathrm{T} 3$ と $\mathrm{T} 4$ について,設定によって大きな異なりが見られなかったた め,すべての設定について評価を行った,評価は,対象文書である特許文書の技術内容に精通した 1 名の評価者が行った,評価文はシャッフルし,評価者には $\mathrm{T} 1, \mathrm{~T} 2, \mathrm{~T} 3, \mathrm{~T} 4$ のいずれの文であるかがわからないようにして評価作業を行った。評価尺度は, S (Native level), A (Good), B (Fair), C (Acceptable), D (Nonsense)の 5 段階として,評価者が直観的に付与した。従来の人手評価では正確さと流暢さの 2 つに分けて評価する場合も多い (Denkowski and Lavie 2010) が,正確さと流暢さは相関性が高く実際の場面では分離困難なことも多い (Callison-Burch, Fordyce, Koehn, Monz, and Schroeder 2007) ため上記の 1 つの指標を用いた. 表 7 に日英翻訳の人手評価結果を,表 8 に英日翻訳の人手評価結果を示す.太字で表した数 表 7 日英翻訳に対する人手評価(100 文中) } \\ 表 8 英日翻訳に対する人手評価(100 文中) } \\ 值は,各列における最高値に対して比率検定に基づく片側有意差検定を行い,5\%水準で有意差が認められない,つまり最高値と同等とみなされる値を示す。結果として,表 7 の日英翻訳では, $\mathrm{T} 4$ は $\mathrm{T} 1, \mathrm{~T} 2, \mathrm{~T} 3$ のいずれと比べても有意に評価値が向上しており, このことから, 表 3 の RIBES 值と BLEU 值では,RIBES のほうが人手評価に傾向が似ていると考えられる。表 8 の英日翻訳では, $\mathrm{T} 4$ は $\mathrm{T} 1, \mathrm{~T} 2$ ,と比べて有意に評価値が向上しており, $\mathrm{T} 3$ との比較では,用いた並べ替え手法によって比較結果が異なっている.英日翻訳でも,RIBES のほうが人手評価に傾向が似ていると考えられる. 表 9 は,参照訳,および 4 つの比較構成である $\mathrm{T} 1, \mathrm{~T} 2, \mathrm{~T} 3, \mathrm{~T} 4$ のそれぞれについて,典型的な翻訳結果を載せたものである。 $\mathrm{T} 1$ ベースラインである $\mathrm{T} 1$ では, 参照訳と比較すると, 原文の構造部品 $\mathrm{C}$ に相当する部分が訳文から欠落しており, また構造部品 $\mathrm{A}$ と構造部品 $\mathrm{B}$ が適切な順番で出力されていない. さらに, T1 の訳文では, 構造部品内での単語も適切な順番で訳出されていない. T2 ベースラインに対して大域的な並べ替えのみを行った T2では, すべての構造部品が訳文中に出力されているとともに, これら構造部品が目標言語として適切な順番で出力されている。しかしながら, 各構造部品内の単語は適切でないため, 構造部品単位での訳質はべースラインと比べて向上していない. T3 ベースラインに対して従来型の構文解析ベース並べ替えのみを行った $\mathrm{T} 3$ では, 各構造部品内での単語の並びが目的言語としてより適切になっている. しかしながら, 構造部品は適切な順番で出力されていない. T4 ベースラインに対して大域的な並べ替えと従来型の構文解析に基づく並べ替えの両者を 表 9 日英翻訳における典型的な翻訳例 \\ 用いた T4では, 構造部品が目的言語として適切な順番で並べられ, かつ各構造部品内の 単語もより目的言語にふさわしい順番で出力されて翻訳品質が向上している. なお人手評価では, $\mathrm{T} 4$ であっても評価 $\mathrm{C}$ 以上の評価となる文が日英で $65 \%$ ,英日で $55 \%$ とそれほど高くないため, 翻訳失敗文の目視分析を行った。まず,最初の段階の構造部品の認識が誤った場合は,そこから適切な訳文を生成することは困難となり,人手評価はほぼ D となる. 次に,構造部品の認識および大域的な並べ替えが正しくても,訳文として不適切となり人手評価が低くなる場合がある。このような翻訳失敗の典型例およびその中間処理結果を表 10 に示す.ここでは,大域的な並べ替えまでは適切に処理されているが, 各構造部品に対する構造解析に基づく並べ替えにおいて,3つめの構造部品に対する並べ替えが適切に行われていない.具体的には,「うる」のトークンが構文解析に基づく並べ替えによって構造部品の先頭にくるべきところが,先頭から 5 番目のトークンとして誤って並び替えられ,代わりに「中心部」が構造部品の先頭にきている。これによって SMT 適用後の訳文において, 「光学投影装置」に対応する "an optical projection device”の後に,本来くるべき “which can ..." ではなく,「中心部」 に対応する“center part”が来てしまい,読み手には “an optical projection device center part" のような一続きの文字列として認識されてしまう。結果として,読み手は訳文において構造部品, ひいては文の構造を認識することができず,低い評価結果となってしまう.原因としては,現在の実験構成では,構文解析に基づく並べ替えを,文単位での入力を前提として訓練しているが,実験には構造部品を対象に並べ替えていることが考えられる。 表 10 日英翻訳の翻訳失敗例とその中間結果 \\ ## 7 おわりに 本論文では,大域的な並べ替えを行うことによって従来型の構文解析に基づく並べ替えを補い,対象サブ言語の翻訳精度を向上させるための手法を提案した,提案手法は,大域的な並べ替えモデルを,構文解析を行うことなく,平文対訳テキストから抽出する.本手法を対象とした評価実験を行ったところ,日英・英日双方向の翻訳において,大域的な並べ替えと従来型の構文解析に基づく並べ替えを併用することによって,従来の手法による翻訳精度を向上させられることが確認できた. 特に日英翻訳では, RIBESによる自動評価, 文構造評価, 人手評価のいずれにおいても,提案手法が従来の手法より有意に訳質を向上させることがわかった. ## 謝 辞 本論文の内容の一部は, The 3rd Workshop on Asian Translation (WAT 2016) (Fuji, Utiyama, and Sumita 2016) で発表したものである. ## 参考文献 Ambati, V. and Chen, W. (2007). Cross Lingual Syntax Projection for Resource-Poor Languages. CMU. Buchmann, B., Warwick-Armstrong, S., and Shane, P. (1984). "Design of A Machine Translation System for a Sublanguage." In 10th International Conference on Computational Linguistics and 22nd Annual Meeting of the Association for Computational Linguistics, Proceedings of COLING '84, July 2-6, 1984, Stanford University, California, USA, pp. 334-337. Callison-Burch, C., Fordyce, C., Koehn, P., Monz, C., and Schroeder, J. (2007). "(Meta-) Evaluation of Machine Translation." In Proceedings of the 2nd Workshop on Statistical Machine Translation, pp. 136-158. Association for Computational Linguistics. Cherry, C. and Foster, G. (2012). "Batch Tuning Strategies for Statistical Machine Translation." In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL HLT '12, pp. 427-436, Stroudsburg, PA, USA. Association for Computational Linguistics. Chiang, D. (2005). "A Hierarchical Phrase-based Model for Statistical Machine Translation." In Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics, ACL '05, pp. 263-270, Stroudsburg, PA, USA. Association for Computational Linguistics. de Gispert, A., Iglesias, G., and Byrne, W. (2015). "Fast and Accurate Preordering for SMT using Neural Networks." In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics - Human Language Technologies (NAACL HLT 2015). Denkowski, M. and Lavie, A. (2010). "Choosing the Right Evaluation for Machine Translation: An Examination of Annotator and Automatic Metric Performance on Human Judgment Tasks." In Proceedings of the 9th Conference of the Association for Machine Translation in the Americas. AMTA. Dyer, C., Gimpel, K., Clark, J. H., and Smith, N. A. (2011). "The CMU-ARK German-English Translation System - Research." In Proceedings of the Workshop on Statistical Machine Translation, pp. 337-343. Fan, R.-E., Chang, K.-W., Hsieh, C.-J., Wang, X.-R., and Lin, C.-J. (2008). "LIBLINEAR: A Library for Large Linear Classification." Journal of Machine Learning Research, 9, pp. 1871-1874. 富士秀, 藤田篤, 内山将夫, 隅田英一郎, 松本裕治 (2016). 特許請求項に特有の文構造に基づく英中日特許請求項翻訳. 自然言語処理, 23 (5), pp. 407-435. Fuji, M., Fujita, A., Utiyama, M., Sumita, E., and Matsumoto, Y. (2015). "Patent Claim Translation based on Sublanguage-specific Sentence Structure." In Proceedings of the 15th Machine Translation Summit, pp. 1-16. Fuji, M., Utiyama, M., and Sumita, E. (2016). "Global Pre-ordering for Improving Sublanguage Translation." In Proceedings of the 3rd Workshop on Asian Translation (WAT 2016), pp. 84-93. Galley, M. and Manning, C. D. (2008). "A Simple and Effective Hierarchical Phrase Reordering Model." In Proceedings of the Conference on Empirical Methods in Natural Language Processing, EMNLP '08, pp. 848-856, Stroudsburg, PA, USA. Association for Computational Linguistics. Goto, I., Chow, K.-P., Lu, B., Sumita, E., and Tsou, B. K. (2013). "Overview of the Patent Machine Translation Task at the NTCIR-10 Workshop." In Proceedings of the 10th NTCIR Conference on Evaluation of Information Access Technologies, NTCIR-10, National Center of Sciences, Tokyo, Japan, June 18-21, 2013, pp. 260-286. Goto, I., Utiyama, M., Sumita, E., and Kurohashi, S. (2015). "Preordering Using a TargetLanguage Parser via Cross-Language Syntactic Projection for Statistical Machine Translation." ACM Transaction on Asian and Low-Resource Language Information Processing, 14 (3), pp. 13:1-13:23. Heafield, K., Pouzyrevsky, I., Clark, J. H., and Koehn, P. (2013). "Scalable Modified Kneser-Ney Language Model Estimation." In $A C L$ (2), pp. 690-696. Hoshino, S., Miyao, Y., Sudoh, K., Hayashi, K., and Nagata, M. (2015). "Discriminative Preordering Meets Kendall's $\tau$ Maximization." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 139-144, Beijing, China. Association for Computational Linguistics. Isozaki, H., Hirao, T., Duh, K., Sudoh, K., and Tsukada, H. (2010). "Automatic Evaluation of Translation Quality for Distant Language Pairs." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, EMNLP '10, pp. 944-952, Stroudsburg, PA, USA. Association for Computational Linguistics. Isozaki, H. and Kouchi, N. (2015). "Dependency Analysis of Scrambled References for Better Evaluation of Japanese Translation." In Proceedings of the 10th Workshop on Statistical Machine Translation, pp. 450-456, Lisbon, Portugal. Association for Computational Linguistics. Isozaki, H., Sudoh, K., Tsukada, H., and Duh, K. (2010). "Head Finalization: A Simple Reordering Rule for SOV Languages." In Proceedings of the Joint 5th Workshop on Statistical Machine Translation and MetricsMATR, WMT '10, pp. 244-251, Stroudsburg, PA, USA. Association for Computational Linguistics. Junczys-Dowmunt, M. and Szal, A. (2010). "SyMGiza++: A Tool for Parallel Computation of Symmetrized Word Alignment Models." In International Multiconference on Computer Science and Information Technology - IMCSIT 2010, Wisla, Poland, 18-20 October 2010, Proceedings, pp. 397-401. Koehn, P. (2004). "Statistical Significance Tests for Machine Translation Evaluation." In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, EMNLP 2004, A Meeting of SIGDAT, a Special Interest Group of the ACL, held in Conjunction with ACL 2004, 25-26 July 2004, Barcelona, Spain, pp. 388-395. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the ACL on Interactive Poster and Demonstration Sessions, ACL '07, pp. 177-180, Stroudsburg, PA, USA. Association for Computational Linguistics. Komachi, M., Matsumoto, Y., and Nagata, M. (2006). "Phrase Reordering for Statistical Machine Translation based on Predicate-argument Structure." In IWSLT, pp. 77-82. Citeseer. Luckhardt, H.-D. (1991). "Sublanguages In Machine Translation." In EACL 1991, 5th Conference of the European Chapter of the Association for Computational Linguistics, April 9-11, 1991, Congress Hall, Alexanderplatz, Berlin, Germany, pp. 306-308. Marcu, D., Carlson, L., and Watanabe, M. (2000). "The Automatic Translation of Discourse Structures." In $A N L P$, pp. 9-17. Mellebeek, B., Owczarzak, K., Groves, D., Genabith, J. V., and Way, A. (2006). "A Syntactic Skeleton for Statistical Machine Translation." In Proceedings of the 11th Conference of the European Association for Machine Translation, pp. 195-202. Nakagawa, T. (2015). "Efficient Top-Down BTG Parsing for Machine Translation Preordering." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 208-218, Beijing, China. Association for Computational Linguistics. Nakazawa, T., Mino, H., Goto, I., Neubig, G., Kurohashi, S., and Sumita, E. (2015). "Overview of the 2nd Workshop on Asian Translation." In Proceedings of the 2nd Workshop on Asian Translation, pp. 1-28. Neubig, G. (2013). "Travatar: A Forest-to-String Machine Translation Engine based on Tree Transducers." In Proceedings of the ACL Demonstration Track, pp. 91-96, Sofia, Bulgaria. Och, F. J. (1999). "An efficient method for determining bilingual word classes." In Proceedings of the 9th Conference on European Chapter of the Association for Computational Linguistics, pp. 71-76. Association for Computational Linguistics. Oda, Y., Neubig, G., Sakti, S., Toda, T., and Nakamura, S. (2015). "Ckylark: A More Robust PCFG-LA Parser." In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations, pp. 41-45, Denver, Colorado. Association for Computational Linguistics. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting on Association for Computational Linguistics, ACL '02, pp. 311-318, Stroudsburg, PA, USA. Association for Computational Linguistics. Petrov, S., Barrett, L., Thibaux, R., and Klein, D. (2006). "Learning Accurate, Compact, and Interpretable Tree Annotation." In Proceedings of the 21st International Conference on Computational Linguistics and the 44th Annual Meeting of the Association for Computational Linguistics, ACL-44, pp. 433-440, Stroudsburg, PA, USA. Association for Computational Linguistics. Utiyama, M. and Isahara, H. (2007). "A Japanese-English Patent Parallel Corpus." In Proceedings of the Eleventh Machine Translation Summit, pp. 475-482. Xiao, T., Zhu, J., and Zhang, C. (2014). "A Hybrid Approach to Skeleton-based Translation." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, ACL 2014, June 22-27, 2014, Baltimore, MD, USA, Volume 2: Short Papers, pp. 563-568. Yamada, K. and Knight, K. (2001). "A Syntax-based Statistical Translation Model." In Proceedings of the 39th Annual Meeting on Association for Computational Linguistics, pp. 523-530. Association for Computational Linguistics. ## 略歴 富士秀:1987 年英国王立ロンドン大学キングス校工学部卒業. 1988 年より 株式会社富士通研究所研究員,シニアリサーチャー.2014~2017 年国立研究開発法人情報通信研究機構に出向. 2017 年奈良先端科学技術大学院大学博士後期課程終了. 博士 (工学). 2017 年より富士通研究所主任研究員. 機械翻訳の研究に従事. 情報処理学会, 言語処理学会, AAMT, 日本言語類型論学会等各会員. 内山将夫:1992 年筑波大学卒業. 1997 年同大学院工学研究科修了. 博士 (工学). 現在, 国立研究開発法人情報通信研究機構研究マネージャー. 主な研究分野は機械翻訳. 情報処理学会, 言語処理学会等各会員. 隅田英一郎:1982 年電気通信大学大学院修士課程修了. 1999 年京都大学大学院博士 (工学) 取得. 1982 年 1991 年(株)日本アイ・ビー・エム東京基礎研究所研究員. 1992 年 2009 年国際電気通信基礎技術研究所研究員, 主幹研究員, 室長. 2007 年現在国立研究開発法人情報通信研究機構 (NICT) 先進的音声翻訳研究開発推進センター (ASTREC) 副センター長. 2016 年 NICT フェロー. 機械翻訳の研究に従事. 松本裕治:1977 年京都大学工学部情報工学科卒. 1979 年同大学大学院工学研究科修士課程情報工学専攻修了. 同年電子技術総合研究所入所. 1984 85 年英国インペリアルカレッジ客員研究員.1985~1987 年 (財) 新世代コンピュー 夕技術開発機構に出向. 京都大学助教授を経て, 1993 年より奈良先端科学技術大学院大学教授, 現在に至る. 工学博士. 専門は自然言語処理. 情報処理学会, 人工知能学会, AAAI, ACL, ACM 各会員. 情報処理学会フェロー. ACL Fellow.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# シンボルグラウンディングによる分野特有の単語分割の精度向上 本稿は,自動単語分割における精度向上を実現するために,非テキスト情報とその 説明文に対するシンボルグラウンディングを用いた新しい単語分割法を提案する。本手法は,説明文が付与された非テキスト情報の存在を仮定しており,説明文を擬似確率的単語分割コーパスとすることで, 非テキスト情報と分野固有の単語との関係をニューラルネットワークにより学習する。学習されたニューラルネットワーク から分野固有の辞書を獲得し, 得られた辞書を単語分割のための素性として用いる ことでより精度の高い自動単語分割を実現する。将棋局面が対応付けされた将棋解説文から成る将棋解説コーパスを用いて実験を行い, シンボルグラウンディングに より得られた辞書を用いることで単語分割の精度が向上することが確認できた。 キーワード:シンボルグラウンディング,単語分割,辞書 ## Improvement in Domain Specific Word Segmentation by Symbol Grounding \author{ Suzushi Tomori ${ }^{\dagger}$, Hirotaka Kameko $^{\dagger \dagger}$, Takashi Ninomiya ${ }^{\dagger \dagger}$, Shinsuke Mori ${ }^{\dagger \dagger \dagger \dagger}$ \\ and Yoshimasa Tsuruoka ${ }^{\dagger \dagger}$ } \begin{abstract} We propose a novel framework for improving a word segmenter using information acquired from symbol grounding. The framework uses a dataset consisting of pairs of non-textual information and a commentary. We generate a pseudo-stochastically segmented corpus from the commentaries, and then build a neural network to predict relationships between non-textual information and the words. We generate a domain specific term dictionary by using the neural network for word segmenter. We applied our method to game records of Japanese chess with commentaries. The experimental results show that the accuracy of a word segmenter can be improved by incorporating the generated dictionary. \end{abstract} Key Words: Symbol Grounding, Word Segmentation, Dictionary  ## 1 はじめに 近年,インターネットなどからテキストとそれに紐づけられた非テキスト情報を大量に得ることができ,画像とそのキャプションや経済の解説記事とその株価チャートなどは web などから比較的容易に入手することができる。 しかし, テキストと非テキスト情報を対応させる研究の多くは, 画像から自然言語を出力する手法 (Farhadi, Hejrati, Sadeghi, Young, Rashtchian, Hockenmaier, and Forsyth 2010; Yang, Teo, Daumé, and Aloimonos 2011; Rohrbach, Qiu, Titov, Thater, Pinkal, and Schiele 2013)のように非テキスト情報から自然言語を出力することを目的としている.Kiros らは非テキスト情報を用いることにより言語モデルの性能向上を示した (Kiros, Salakhutdinov, and Zemel 2014). 本稿では, 非テキスト情報を用いた自動単語分割について述べる。本稿では, 日本語の単語分割を題材とする。単語分割は単語の境界が曖昧な言語においてよく用いられる最初の処理であり, 英語では品詞推定と同等に重要な処理である。情報源として非テキスト情報とテキストが対応したデータが大量に必要になるため, 本研究では将棋のプロの試合から作られた将棋の局面と将棋解説文がぺアになったデータ (Mori, Richardson, Ushiku, Sasada, Kameko, and Tsuruoka 2016)を用いて実験を行う,似た局面からは類似した解説文が生成されると仮定し,非テキスト情報である将棋の局面からその局面に対応した解説文の部分文字列をニューラルネットワー クモデルを用いて予測し,その局面から生成されやすい単語を列挙する。列挙された単語を辞書に追加することで単語分割の精度を向上させる。 本手法は 3 つのステップから構成される(図 1).まず,将棋の局面と単語候補を対応させるために生テキストから単語候補を生成する。単語候補は将棋解説文を擬似確率的分割コーパスを用いて部分単語列に分割することで得られる。次に,生成した単語候補と将棋の局面をニュー ラルネットワークを用いて対応させることでシンボルグラウンディングを行う. 最後にシンボ 図 1 提案手法の概観 ルグラウンディングの結果を用いて将棋解説文専用の辞書を生成し, 自動単語分割の手法に取り入れる。 本稿の構成は以下の通りである。まず 2 章で単語の候補を取り出すために確率的単語分割コー パスを用いる手法について述べる. 3 章で将棋解説文と局面が対応しているデータセットのゲー ム解説コーパスについて触れ, シンボルグラウンディングとして単語候補と将棋局面を対応させる手法の説明を行う, 4 章ではベースラインとなる自動単語分割器について述べたあと, 非テキスト情報を用いた単語分割として, シンボルグラウンディングの結果を用いて辞書を生成し,単語分割器を構築する手法を述べる. 5 章で実験設定と実験結果の評価と考察を行い,6 章で本手法と他の単語分割の手法を比較する。最後に 7 章で本稿をまとめる. ## 2 確率的単語分割コーパス 本研究では将棋の局面とその言語表現をシンボルグラウンディングの対象とし, 将棋解説文専用の辞書を獲得する。本章では, 辞書獲得のために用いる確率的単語分割コーパス (Mori and Takuma 2004)について説明する。確率的単語分割コーパスは文字列の分割境界が確率的に与えられたコーパスであり, 確率的単語分割コーパスを用いることでコーパスに出現する各単語の期待頻度を計算することができる。しかし, 辞書に追加するための単語候補を確率的単語分割コーパスから選択するためには,コーパスに出現するほとんどすべての文字列を単語候補として期待頻度を計算する必要があり, 語彙サイズが非常に大きくなり, 高い計算コストを要する. そのため,本研究では擬似的な確率的単語分割コーパス (森, 小田 2009)を用いる. ## 2.1 確率的単語分割コーパス 確率的単語分割コーパスは生テキストコーパス $C_{r}$ (以下,文字列 $x_{1}^{n_{r}}$ として表す)と境界の分割確率 $P_{i}$ の組み合わせで定義される。ここで $P_{i}$ はある文字 $x_{i}$ と $x_{i+1}$ の間に分割境界が存在する確率である。この分割確率は $x_{i}$ と $x_{i+1}$ の周辺の文字列を参照したロジスティック回帰モデル (Fan, Chang, Hsieh, Wang, and Lin 2008)により推定される。ただし, ここで用いるロジスティック回帰モデルは人手で単語分割したコーパスを用いて学習される。コーパスの最初の文字の前と最後の文字の後は分割確率を 1 とする $\left(P_{0}=P_{n_{r}}=1\right)$. 確率的単語分割コーパスで推定される単語の期待頻度 $f_{r}(\boldsymbol{w})$ は以下で計算される。 $ \begin{aligned} f_{r}(\boldsymbol{w}) & =\sum_{i \in O} P_{i}\left.\{\prod_{j=1}^{k-1}\left(1-P_{i+j}\right)\right.\} P_{i+k} \\ O & =\left.\{i \mid x_{i+1}^{i+k}=\boldsymbol{w}\right.\} \end{aligned} $ ここで, $O$ はテキストの単語候補となりうる部分文字列 $x_{i+1}^{i+k}$ における $i$ の集合である. ## 2.2 擬似確率的単語分割コーパス 確率的単語分割コーパスを用いた単語の期待頻度の推定は非常に高い時間的・空間的計算コストを要する。そのため, 本研究では, 確率的単語分割コーパスから直接単語の期待頻度を推定するのではなく, 擬似確率的単語分割コーパス (森, 小田 2009) と呼ばれる具体的に単語分割が付与されたコーパスを用いて単語の期待頻度を推定する。 疑似確率的単語分割コーパスは, 確率的単語分割コーパスにより定義される確率分布に従って単語分割を行うことにより得られる。具体的には, 確率的単語分割コーパスの各文に対し, その文に与えられた確率分布に従って単語分割を行うことで,単語分割文の生成を行う.たたし,同じ文に対して 1 度だけ単語分割文を生成するのではなく, 複数回単語分割を行い, 複数の単語分割文を生成する。この手法はサンプリングの一種であり,より多くの単語分割文を生成することで,より良く確率的単語分割コーパスを近似する。生成された疑似確率的単語分割コー パスは陽に単語分割がされているため容易に各単語の期待頻度を推定することができる。次の手続きは, 確率的単語分割コーパスから擬似確率的単語分割コーパスを生成する具体的な手続きを表す。 - For $i=1$ to $n_{r}-1$ (1) $x_{i}$ を出力 (2) $0<p<1$ となる $p$ をランダムに生成 (3) if $p<P_{i}$ : 単語境界を出力 otherwise: 何も出力しない 上記のプロセスを $m$ 回繰り返し, $x_{i}$ と $x_{i+1}$ の分割境界の数を $m$ で割ることで $P_{i}$ の推定値を得ることができる. ここで $m \rightarrow \infty$ とすると, 大数の法則より $P_{i}$ と $P_{i}$ の推定値の誤差が 0 になることが保証される。 ## 3 シンボルグラウンディング 本稿では,将棋の局面とその言語表現をシンボルグラウンディングの対象とする.後述する実験では, ゲーム解説コーパス (Mori et al. 2016) を用いる。本研究の手法は素性設計を除いて分野特有ではないので, 画像とその説明文の組み合わせ (Regneri, Rohrbach, Wetzel, Thater, Schiele, and Pinkal 2013) など他の種類のデータにも適用可能である. ## 3.1 ゲーム解説コーパス 将棋は 2 人で行うボードゲームで,お互いに自分の駒を動かしながら相手の玉の駒を取ることを目的とする.将棋の大きな特徴として, 取った相手の駒は自分の持ち駒として使うことができることや一部の駒は相手の敵陣に入るなど特定の条件を満たした場合に駒を裏返して別の 動きに変えることができることが挙げられる. 多くのプロ棋士間での対局は,他のプロ棋士により指し手の評価やその局面の状況,次の指し手の予想などが解説されている.ゲーム解説コーパスの各解説文には, 対象とする局面が対応しており,ほとんどの解説文は局面に対するコメントをしているが局面に関係のないコメント(対局者に関する情報など)が少量含まれる. ## 3.2 グラウンディング 将棋局面 $S_{i}(i=1, \ldots, n)$ とその解説文 $C_{i}$ の大量のペアを学習セットとし, 将棋局面 $S_{i}$ は素性ベクトル $f\left(S_{i}\right)$ に変換して用いる。ここで $n$ は学習セットに含まれる局面の数である。まず, $C_{i}$ から擬似確率的単語分割コーパス $C_{i}^{\prime}$ を生成する。 $C_{i}^{\prime}$ は $m$ 個のコーパス $C_{i j}^{\prime}(j=1, \ldots, m)$ を含んでおり,それぞれのコーパスは同じ解説文から成るが,異なる単語分割が与えられている(本実験では $m=4$ とした),次に将棋局面の素性べクトル $f\left(S_{i}\right)$ を入力として用いて $C_{i}^{\prime}$ の単語を予測するモデルを 3 層のフィードフォワードニューラルネットワークで構築する。隠れ層の次元数は 100 とし, 活性化関数には標準シグモイド関数を用いる. 出力は $d$ 次元の実数値ベクトル(d は単語候補の総数 $)$ であり, 実数値べクトルのそれぞれの要素はある特定の単語候補に対応しており,解説文にその単語候補が含まれている確率を出力する.学習の際には解説文にその単語候補が含まれていれば 1 , 含まれていなければ 0 とし, 損失関数として 2 乗誤差を用いる。つまり, 将棋局面からその解説文の単語候補の Bag-of-Words 3 層のニューラルネットワーク用いて予測することでグラウンディングを行う. 将棋局面の素性はコンピュータ将棋プログラムの激指 (Tsuruoka, Yokoyama, and Chikayama 2002)によるゲーム木探索の素性や結果, 評価の一部を用いた。本実験では以下の素性を用いた. a: 将棋の駒の位置 b: 持ち駒 c: $\mathbf{a}$ と $\mathbf{b}$ の組み合わせ $\mathrm{d}:$ その他ヒューリスティックな素性 $\mathbf{c}$ は, 2 駒関係(ある 2 の駒の位置関係)や 3 駒関係などであり,d のヒューリスティックな素性の例として, 駒の価値に関する素性や玉の危険度に関する素性などがある. 将棋局面の素性の多くは a, b, c であり,次元数では $94.7 \%$, 発火数では $87.9 \%$ を占めている. 一般のシンボルグラウンディングとは違い, 解説文から作られた擬似確率的単語分割コーパスに出現する単語の候補は, 正しい単語文字列と正しく分割されていない文字列が含まれる. それらの正しく分割されていない文字列は正しい単語文字列よりも出現する確率が低いと推測できる,似た局面からは同じ文字列が出現しやすいと仮定すると,ニューラルネットワークを用いたモデルでは,それらの局面と正しく分割されていない文字列は強い関係を結ぶことができず,出力する値は正しい単語文字列よりも小さくなると推測される. ## 4 シンボルグラウンディングの結果を用いた単語分割 この章ではベースラインとなる自動単語分割とシンボルグラウンディングの結果を用いた単語分割について述べる。 ## 4.1 ベースラインとなる単語分割 さまざまな日本語の単語分割手法や形態素解析手法があるが, 品詞情報なしで新しい単語を追加することができる唯一の単語分割手法である点予測に基づく手法 (Neubig, Nakata, and Mori 2011)を採用する. 点予測による単語分割の入力は分割されてない文字列 $x=x_{1}, \ldots, x_{n_{r}}$ である. この単語分割器はサポートベクターマシン (Fan et al. 2008) を用いて単語境界があれば $P_{i}=1$ なければ $P_{i}=0$ として境界を推定する. このときの素性は周辺の 6 文字から文字 $n$-gram と文字種 $n$-gram $(n=1,2,3)$ を用いる.また,もし周辺の文字 $n$-gram が辞書の文字列と一致した場合にはそれも素性として用いる. ## 4.2 非テキスト情報を用いた自動単語分割器の学習 非テキスト情報を自動単語分割に用いる最初の試みとして, 非テキスト情報と関連性の高い単語候補を加えた辞書を生成する手法を提案する。非テキスト情報から単語候補を予測するニュー ラルネットワークを構築することでシンボルグラウンディングを行う. 構築されたニューラルネットワークを用いることで非テキスト情報と関連する単語候補を取得できる。例えば将棋の場合, 局面と局面から生成される解説文の単語は強い関連があり, 似た局面からは同じ単語が生成される可能性が高いと考える。つまり, 非テキスト情報と強い関連の単語候補を選ぶことで良い辞書を作ることができる。 辞書生成のために, シンボルグラウンディングの結果として将棋局面 $S_{i}$ から $d$ 次元の実数値ベクトルを計算し単語候補のスコアを得る。本稿では, 単語候補のスコアから以下の 3 つの方法で辞書を生成する. sum すべての局面の $d$ 次元の実数値ベクトルの和をとり,上位 $R \%$ の単語を辞書に追加する. $\max$ すべての局面の $d$ 次元の実数値べクトルの要素の最大値を取り, 上位 $R \%$ の単語を辞書に追加する. each 各局面の $d$ 次元の実数値べクトルの上位 $R \%$ の単語を辞書に追加する. 例えば,以下のように局面 $S_{1}, S_{2}$ から計算される単語候補 [四間, 間, 間飛, 飛, 飛車] の 5 次元の実数値ベクトルがあり,その上位 $40 \%$ の単語候補を辞書に加えるとする. - $S_{1}$ から計算される単語候補のベクトル $[1.4,1.5,0.2,0.5,3.8]$ - $S_{2}$ から計算される単語候補のべクトル $[4.9,0.8,0.1,0.9,3.2]$ sum では $S_{1}, S_{2}$ から計算される単語候補のべクトルの要素を足しあわせた $[6.3,2.3,0.3,1.4,7.0]$ について上位 $40 \%$ の単語候補である「四間」と「飛車」を辞書に加える。 $\boldsymbol{m a x}$ ではそれぞれの要素の最大値からなるべクトル $[4.9,1.5,0.2,0.9,3.8]$ から「四間」と「飛車」を辞書に加える. each では $[1.4,1.5,0.2,0.5,3.8]$ と $[4.9,0.8,0.1,0.9,3.2]$ のそれぞれの上位 $40 \%$ の単語候補「間」「飛車」と「四間」「飛車」を辞書に追加する。この時すでに辞書に登録されている単語候補(この場合は「飛車」)は二重に登録しない. 最後に,それぞれの方法で生成された辞書を用いて自動単語分割器の再学習を行う。 ## 5 評価 4 章で述べた提案手法の効果を検証するために自動単語分割の実験を行った.提案手法の効果を検証するために,シンボルグラウンディングにより獲得された辞書を用いる場合(提案手法)と用いない場合を比較した。 ## 5.1 コーパス 表 1 は今回の実験で用いたコーパスの詳細を示している. コーパスは, シンボルグラウンディングのためのコーパス(シンボルグラウンディング用コーパス)と自動単語分割のための訓練/開発/テストコーパスから成る. シンボルグラウンディング用コーパスは, 33,151 組の将棋局面と将棋解説文から成る. ただし, シンボルグラウンディング用コーパスの将棋解説文には単語分割が付与されていない. この将棋解説文から疑似確率的単語分割コーパスを生成し, シンボルグラウンディングの学習 (ニュー 表 1 コーパスの概要 & 33,151 & — & — & 33,151 & \\ ラルネットワークの学習) を行った. 自動単語分割のための訓練コーパスには, 現代日本語書き言葉均衡コーパス (BCCWJ) (Maekawa, Yamazaki, Ogiso, Maruyama, Ogura, Kashino, Koiso, Yamaguchi, Tanaka, and Den 2014) と,日経新聞 (1990-2000) の一部からなる新聞記事のコーパス, 英語表現辞典からなる日常会話文のコーパスを用いた.BCCWJの一部は学習には用いず,テストコーパスとして用いた。将棋解説文からランダムに抽出した 5,041 文を人手で単語分割し, これを開発コーパス (253 文),局面なしテストコーパス $\left(3,000\right.$ 文), 局面ありテストコーパス(1,788 文)の 3 つに分けた ${ }^{1}$.将棋解説文のための辞書は,局面ありテストコーパスに対し提案手法を適用することで獲得する. 局面なしテストコーパスは局面の情報を持たない将棋解説文だけから成るコーパスであり,局面ありテストコーパスから得られた辞書の汎用性を評価するために用意した.実験では,局面ありテストコーパスから得られた辞書を用いて,局面なしテストコーパスの単語分割精度を評価した。 ## 5.2 単語分割システム 本実験では以下の 2 つの単語分割モデルを用いてその精度を評価した. ベースライン: 単語分割のための訓練コーパスと UniDic (234,652 単語)2 を用いて学習されたモデル. 十擬似確率的単語分割辞書: ベースラインで用いた言語資源に加え,擬似確率的単語コーパスから出現頻度の高い単語候補を加えた辞書を用いて学習されたモデル。 +シンボルグラウンディング: ベースラインで用いた言語資源に加え, シンボルグラウンディングにより獲得された辞書を用いて学習されたモデル。 ベースラインおよび提案手法のいずれにおいてもUniDic を辞書として用いた. 提案手法では UniDic に加えて, シンボルグラウンディング用コーパスから獲得される辞書を用いる. ベースラインの単語分割モデル構築と辞書獲得のために必要となる擬似確率的単語分割コーパスの生成にはロジスティック回帰を用いており,表 1 に示した自動単語分割のための訓練コーパスを学習用に用いた. ロジスティック回帰は単語境界の確率値 $P_{i}$ を出力し, ベースラインではこの $P_{i}$ が 0.5 以上なら分割境界があるとし, 擬似確率的単語分割コーパスには $P_{i}$ の出力值をそのまま用いて生成した. このとき $m=4$ とし, 擬似確率的単語分割コーパスを 4 つ生成した. シンボルグラウンディングの手法を評価するために, 擬似確率単語分割コーパスの単語を頻度順に並べ,その上位 $R^{\prime} \%$ を追加した辞書を生成し, モデルを構築した。  辞書獲得において, シンボルグラウンデイングの辞書生成の手法 (sum, max, each) と $R^{\prime}, R$ の值には開発セットの単語分割精度(F 値)を用いて最も高くなるパラメータを採用した。擬似確率的単語分割辞書では $R^{\prime}=0.074$ のときに最も精度が高くなり, 辞書には 110 単語が追加された。提案手法では, 手法 eachで $R=0.074$ のときに最も精度が高くなり, 辞書には 110 単語が追加された。 ## 5.3 結果と考察 単語分割精度の評価尺度には以下で表される,適合率と再現率, $\mathrm{F}$ 値を用いた。 $ \begin{aligned} \text { 適合率 } & =\frac{\text { 正解単語数 }}{\text { システムの出力文の単語数 }} \\ \text { 再現率 } & =\frac{\text { 正解数単語数 }}{\text { 正解文の単語数 }} \\ \mathrm{F} \text { 値 } & =\frac{2 \cdot \text { 適合率 } \cdot \text { 再現率 }}{\text { 適合率 }+ \text { 再現率 }} \end{aligned} $ 表 2 は BCCWJに対する単語分割の精度を示しており, 表 3 は局面なしの将棋解説文に対する単語分割精度と局面ありの将棋解説文に対する単語分割の精度を示している。このときの辞書は局面ありの解説文のみを用いて生成された.BCCWJに対する単語分割精度(表 2)と将棋解説文に対するの単語分割精度(表 3)を比較すると,将棋解説文の単語分割は一般ドメインの単語分割より難しいことが分かる.将棋解説文には将棋特有の単語や表現が大量に含まれるため単語分割の精度が低くなったことが考えられる。 表 3 において,提案手法はべースラインや擬似確率的単語辞書を追加した手法に比べて精度が向上しており,再現率についてはマクネマー検定で $1 \%$ の統計的有意差があった. 本手法における辞書獲得は教師なし学習にもかかわらず自然注釈による手法 (Liu, Zhang, Che, Liu, and 表 2 BCCWJ (6,025 文)の単語分割結果 表 3 将棋解説文 (4,788 文) の単語分割結果 $\mathrm{Wu}$ 2014) と同程度のエラー削減率を実現できた. この結果よりシンボルグラウンディングによる単語分割は注釈付けと同様に有用であると言える. 表 3 において, ベースラインと辞書を追加した手法の適合率と再現率を詳しくみると, 再現率は適合率よりも大きく向上していることが分かる。この結果より, 正しい単語と少量の間違った単語を学習していることが分かる。実際に,擬似確率的単語分割辞書とシンボルグラウンディングによる辞書の両方には「飛車」や「同歩」,「先手」などの将棋解説文に出現する頻度が高い単語が登録されていた. シンボルグラウンディングによる辞書には「休䄭」や「成」など擬似確率的単語分割辞書には無い単語が追加されており,擬似確率的単語分割辞書には「.」や「・」 などのシンボルグラウンディングによる辞書には存在しなかった単語が追加されていた。また,表 2 より本手法は一般のドメインに深刻な精度低下をもたらさないことが分かる. 表 4 と表 5 は局面なしの将棋解説文と局面ありの将棋解説文の単語分割精度を示している。表 4 より,辞書を追加する 2 つの手法において,局面なしの将棋解説文の単語分割の精度が向上しており,生成された辞書が将棋解説文の分野に対して有効であることがわかる。この精度向上は高頻度で出現する将棋用語によるものと考えられる.局面なしの将棋解説文では,擬似確率的単語分割辞書を追加する手法が最も精度が高かった。しかし, 局面ありの将棋解説文において, シンボルグラウンディングによる辞書を追加した手法が最も精度が高かった(表 5)。 また,局面なしの将棋解説文よりも局面ありの将棋解説文の方が精度向上の割合が大きい.以上より,本稿で提案する手法は局面に対応した単語を効果的に学習できていると結論できる. 最後に, ニューラルネットワークを用いて将棋局面と解説文をグラウンディングする際のデー タサイズを変更し,その学習曲線を図 2 に示す。横軸が学習に用いる局面数であり,縦軸が将棋解説文(4,788 文)における単語分割の精度(F 値)を表している。局面数が 12,000 程度で学習が収束している. 表 4 局面なしの将棋解説文 (3,000 文) の単語分割結果 表 $\mathbf{5}$ 局面ありの将棋解説文 (1,788 文) の単語分割結果 局面数 図 2 学習のデータサイズを変更したときの学習曲線 ## 6 関連研究 本稿では日本語の単語分割を行った。単語分割の代表的な手法は隠れマルコフモデル (Nagata 1994)である。また, Sproat らは類似した手法で中国語の単語分割を行った (Sproat, Gale, Shih, and Chang 1996). これらの手法は単語をモデルの単位として扱っている. 近年,Neubig らはそれぞれの文字の間に単語分割があるかどうかを点予測によって判定する手法 (Neubig et al. 2011)を提案しており,タグの制約のない,文字への BI タグのタグ付けとして解くことができる。中国語の単語分割では BIES タグをタグ付けし系列ラベリング問題 (Xue 2003) として解く手法がある.BIES はそれぞれ単語の始まり,その続き,単語の終わり,1文字の単語を表している,我々の予備的な実験で日本語の単語分割では BI タグを用いたサポートベクターマシンは BIES タグを用いた CRF よりもわずかに精度が高かった。これが本稿で点予測を用いた理由の 1 つである。しかし,本手法は BIES タグと CRF の単語分割にも適用可能である. 本稿で述べた提案手法は教師なし学習でハイパーパラメーターを調整するための少量の注釈付きデータを必要とした。この観点では,この手法は自然注釈 (Yang and Vozila 2014; Jiang, Sun, Lü, Yang, and Liu 2013; Liu et al. 2014) に類似している. しかし, これらの研究ではハイパーテキストのタグは部分的な注釈と見なし,部分的な注釈を含むデータを用いて学習された CRF で単語分割の性能を向上させた。 また, Tsuboi らは大量の生のテキストから新しい単語を抽出する手法を提案し (Tsuboi, Kashima, Mori, Oda, and Matsumoto 2008), Mori らは類似した設定でのオンライン手法を提案した (Mori and Nagao 1996). グラウンディングに基づく教師なし単語分割には (Roy and Pentland 2002; Nguyen, Vogel, and Smith 2010) がある.Roy らは音声情報と画像情報をグラウンディングすることにより,音声情報から単語を獲得する手法を提案した。これは, 音声信号と画像の物体の類似性を用いて,物体とその名前を連続音声から獲得する. Nguyen らは機械翻訳のための教師なし単語分割を提案した. 分かち書きされている翻訳先の言語の単語と対応するように翻訳元の言語をノンパラメトリックな手法で単語分割した。これらの研究に対して, 本稿では言語以外のモダリティを扱い,単一言語内でテキストの単語分割を行う最初の試みとして将棋局面を用いた. ## 7 終わりに 本稿では非テキスト情報を用いた教師なし学習により辞書を生成し, それを用いることによる自動単語分割の精度向上について述べた。単語候補を生テキストから取り出すために,まず確率的に文を分割し, 単語の候補と元の解説文に対応する将棋局面をニューラルネットワークを用いて結びっけてシンボルグラウンディングを行った。最後にシンボルグラウンディングの結果を参照しスコアの高い単語の候補を辞書に追加した。実験結果より非テキスト情報を用いた手法はテキスト情報のみを用いた手法よりも精度が高く, 非テキスト情報を用いる手法の有効性が確認できた,今後は,この手法を他の深層学習のモデルに適用することやシンボルグラウンディングの結果を分散表現として単語分割の手法 (Ma and Hinrichs 2015) に適用, 及び画像などの他の非テキスト情報を用いることが課題としてあげられる. ## 謝 辞 本研究は JSPS 科研費 26540190 及び 16K00293, 25280084 の助成を受けたものである.ここに敬意を表する。 ## 参考文献 Fan, R.-E., Chang, K.-W., Hsieh, C.-J., Wang, X.-R., and Lin, C.-J. (2008). "LIBLINEAR: A Library for Large Linear Classification." Journal of Machine Learning Research, 9, pp. 1871-1874. Farhadi, A., Hejrati, M., Sadeghi, M. A., Young, P., Rashtchian, C., Hockenmaier, J., and Forsyth, D. (2010). "Every Picture Tells a Story: Generating Sentences from Images." In Proceedings of the 11th European Conference on Computer Vision, pp. 15-29. Jiang, W., Sun, M., Lü, Y., Yang, Y., and Liu, Q. (2013). "Discriminative Learning with Natural Annotations: Word Segmentation as a Case Study." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, pp. 761-769. Kiros, R., Salakhutdinov, R., and Zemel, R. (2014). "Multimodal Neural Language Models." In Proceedings of the 31st International Conference on Machine Learning, pp. 595-603. Liu, Y., Zhang, Y., Che, W., Liu, T., and Wu, F. (2014). "Domain Adaptation for CRF-based Chinese Word Segmentation using Free Annotations." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 864-874. Ma, J. and Hinrichs, E. W. (2015). "Accurate Linear-Time Chinese Word Segmentation via Embedding Matching." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics, pp. 1733-1743. Maekawa, K., Yamazaki, M., Ogiso, T., Maruyama, T., Ogura, H., Kashino, W., Koiso, H., Yamaguchi, M., Tanaka, M., and Den, Y. (2014). "Balanced Corpus of Contemporary Written Japanese." Language Resources and Evaluation, 48, pp. 345-371. 森信介,小田裕樹 (2009). 擬似確率的単語分割コーパスによる言語モデルの改良. 自然言語処理, 16 (5), pp. 7-21. Mori, S. and Nagao, M. (1996). "Word Extraction from Corpora and Its Part-of-Speech Estimation Using Distributional Analysis." In Proceedings of the 16th International Conference on Computational Linguistics, pp. 1119-1122. Mori, S., Richardson, J., Ushiku, A., Sasada, T., Kameko, H., and Tsuruoka, Y. (2016). "A Japanese Chess Commentary Corpus." In Proceedings of the 10th International Conference on Language Resources and Evaluation, pp. 1415-1420. Mori, S. and Takuma, D. (2004). "Word n-gram probability estimation from a Japanese raw corpus." In Proceedings of the 8th International Conference on Speech and Language Processing, pp. 1037-1040. Nagata, M. (1994). "A Stochastic Japanese Morphological Analyzer Using a forward-DP backward-A* N-best Search Algorithm." In Proceedings of the 15th Conference on Computational Linguistics, pp. 201-207. Neubig, G., Nakata, Y., and Mori, S. (2011). "Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533. Nguyen, T., Vogel, S., and Smith, N. A. (2010). "Nonparametric Word Segmentation for Machine Translation." In Proceedings of the 23rd International Conference on Computational Linguistics, pp. 815-823. Regneri, M., Rohrbach, M., Wetzel, D., Thater, S., Schiele, B., and Pinkal, M. (2013). "Grounding Action Descriptions in Videos." Transactions of the Association for Computational Linguistics, 1 (Mar), pp. 25-36. Rohrbach, M., Qiu, W., Titov, I., Thater, S., Pinkal, M., and Schiele, B. (2013). "Translating Video Content to Natural Language Descriptions." In Proceedings of the 14th International Conference on Computer Vision, pp. 433-440. Roy, D. K. and Pentland, A. P. (2002). "Learning Words from Sights and Sounds: A Computational Model." Cognitive Science, 26 (1), pp. 113-146. Sproat, R., Gale, W., Shih, C., and Chang, N. (1996). "A Stochastic Finite-state Wordsegmentation Algorithm for Chinese." Computational Linguistics, 22 (3), pp. 377-404. Tsuboi, Y., Kashima, H., Mori, S., Oda, H., and Matsumoto, Y. (2008). "Training Conditional Random Fields Using Incomplete Annotations." In Proceedings of the 22nd International Conference on Computational Linguistics, pp. 897-904. Tsuruoka, Y., Yokoyama, D., and Chikayama, T. (2002). "Game-Tree Search Algorithm Based On Realization Probability." Journal of the International Computer Games Association, 25, p. 2002. Xue, N. (2003). "Chinese Word Segmentation as Character Tagging." The Association for Computational Linguistics and Chinese Language Processing, 8, pp. 29-48. Yang, F. and Vozila, P. (2014). "Semi-Supervised Chinese Word Segmentation Using PartialLabel Learning With Conditional Random Fields." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 90-98. Yang, Y., Teo, C. L., Daumé, III, H., and Aloimonos, Y. (2011). "Corpus-guided Sentence Generation of Natural Images." In Proceedings of 2011 the Conference on Empirical Methods in Natural Language Processing, pp. 444-454. ## 略歴 友利涼:2016 年愛媛大学工学部卒業. 同年より京都大学大学院情報学研究科修士課程在学. 亀甲博貴:2015 年東京大学大学院工学系研究科修士課程卒業. 同年より同大学院博士課程在学. 二宮崇:2001 年東京大学大学院理学系研究科情報科学専攻博士課程修了.同年より科学技術振興事業団研究員. 2006 年より東京大学情報基盤センター 講師. 2010 年より愛媛大学大学院理工学研究科准教授, 2017 年同教授. 東京大学博士 (理学). 言語処理学会, 情報処理学会, 人工知能学会, 電子情報通信学会, 日本データベース学会, ACL, ACM 各会員. 森信介:1998 年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了. 同年, 日本アイ・ビー・エム株式会社入社. 2007 年より京都大学学術情報メディアセンター准教授, 2016 年同教授. 京都大学博士(工学). 1997 年情報処理学会山下記念研究賞受賞. 2010 年, 2013 年情報処理学会論文賞受賞. 2010 年第 58 回電気科学技術奨励賞受賞. 言語処理学会, 情報処理学会,日本データベース学会, ACL 各会員. 鶴岡慶雅 : 2002 年東京大学大学院工学系研究科博士課程修了. 同年より科学技術振興事業団研究員. 2005 年マンチェスター大学研究員. 2009 年北陸先端科学技術大学院大学准教授. 2011 年より東京大学大学院准教授. 東京大学博士 (工学). 言語処理学会, 情報処理学会, 人工知能学会, 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 統語的一貫性と非冗長性を重視した機械翻訳のための 能動学習手法 三浦 明波 $^{\dagger} \cdot$ Graham Neubig ${ }^{\dagger, \dagger \dagger} \cdot$ Michael Paul ${ }^{\dagger+\dagger} \cdot$ 中村 哲 ${ }^{\dagger}$ } 能動学習は機械学習において, 逐次的に選択されたデータに対してのみ正解ラベル を付与してモデルの更新を繰り返すことで, 少量のコストで効率的に学習を行う枠組みである。この枠組みを機械翻訳に適用することで,人手翻訳のコストを抑えつ つ高精度な翻訳モデルを学習可能である。機械翻訳のための能動学習では, 人手翻訳の対象となる文またはフレーズをどのように選択するかが学習効率に大きな影響 を与える要因となる. 既存研究による代表的な手法として, 原言語コーパスの単語 $n$-gram 頻度に基づき $n$-gram カバレッジを向上させる手法の有効性が知られている. この手法は一方で, フレーズの最大長が制限されることにより, 句範疇の断片のみ が提示されて, 人手翻訳が困難になる場合がある。また, 能動学習の過程で選択さ れるフレーズには, 共通の部分単語列が繰り返し出現するため, 単語数あたりの精度向上率を損なう問題も考えられる。本研究では原言語コーパスの句構造解析結果 を用いて句範疇を保存しつつ,包含関係にある極大長のフレーズのみを人手翻訳の 候補とするフレーズ選択手法を提案する。本研究の提案手法の有効性を調査するた め,機械翻訳による擬似対訳を用いたシミュレーション実験および専門の翻訳者に よる人手翻訳と主観評価を用いた実験を実施した。その結果,提案手法によって従来よりも少ない単語数の翻訳で高い翻訳精度を達成できることや, 人手翻訳時の対訳の品質向上に有効であることが示された. キーワード: 統計的機械翻訳, 能動学習, 人手翻訳, 対訳コーパス, 構文解析, 句構造解析 ## Selecting Syntactic, Non-redundant Segments in Active Learning for Machine Translation \author{ Akiva Miura ${ }^{\dagger}$, Graham Neubig ${ }^{\dagger}{ }^{\dagger \dagger}$, Michael Paul ${ }^{\dagger \dagger}$ and Satoshi Nakamura ${ }^{\dagger}$ } Active learning is a framework that makes it possible to efficiently train statistical models by selecting informative examples from a pool of unlabeled data. Previous work has found this framework effective for machine translation (MT), making it possible to train better translation models with less effort, particularly when annotators translate short phrases instead of full sentences. However, previous methods for phrase-based active learning in MT fail to consider whether the selected units are coherent and easy for human translators to translate, and also have problems with  selecting redundant phrases with similar content. In this paper, we tackle these problems by proposing two new methods for selecting more syntactically coherent and less redundant segments in active learning for MT. Experiments using both simulation and extensive manual translation by professional translators find the proposed method effective, achieving both greater gain of BLEU score for the same number of translated words, and allowing translators to be more confident in their translations. Key Words: Statistical Machine Translation, Active Learning, Manual Translation, Parallel Corpus, Syntactic Parsing, Phrase Strucuture Analysis ## 1 はじめに 統計的機械翻訳 (Statistical Machine Translation: SMT (Brown, Pietra, Pietra, and Mercer 1993)) で高い翻訳精度 1 を達成するには, 学習に用いる対訳コーパスの質と量が不可欠である.特に,質の高い対訳データを得るためには,専門家による人手翻訳が必要となるが,時間と予算の面で高いコストを要するため, 翻訳対象は厳選しなければならない。このように, 正解デー夕を得るための人手作業を抑えつつ高い精度を達成する手法として, 能動学習 (Active Learning) が知られている.SMTにおいても,能動学習を用いることで人手翻訳のコストを抑えつつ高精度な翻訳モデルを学習可能である (Eck, Vogel, and Waibel 2005; Turchi, De Bie, and Cristianini 2008; Haffari, Roy, and Sarkar 2009; Haffari and Sarkar 2009; Ananthakrishnan, Prasad, Stallard, and Natarajan 2010a; Bloodgood and Callison-Burch 2010; González-Rubio, Ortiz-Martínez, and Casacuberta 2012; Green, Wang, Chuang, Heer, Schuster, and Manning 2014). SMT や,その他の自然言語処理タスクにおける多くの能動学習手法は,膨大な文書データの中からどの文をアノテータに示すか, という点に注目している。これらの手法は一般的に,幾つかの基準に照らし合わせて,SMT システムに有益な情報を多く含んでいると考えられる文に優先順位を割り当てる。単言語データに高頻度で出現し, 既存の対訳データには出現しないようなフレーズを多く含む文を選択する手法 (Eck et al. 2005),現在のSMT システムにおいて信頼度の低いフレーズを多く含む文を選択する手法 (Haffari et al. 2009),あるいは翻訳結果から推定される SMT システムの品質が低くなるような文を選択する手法 (Ananthakrishnan et al. 2010a)などが代表的である。これらの手法で選択される文は, 機械学習を行う上で有益な情報を含んでいると考えられるが,その反面,既存システムに既にカバーされているフレーズも多く含んでいる可能性が高く,余分な翻訳コストを要する欠点がある. ^{1}$ SMT システムの性能を評価する場合, 評価用原言語コーパスの翻訳結果が目標となる正解訳にどの程度近いかを示す自動評価尺度を翻訳精度の指標とすることが多く,本稿では最も代表的な自動評価尺度と考えられる BLEU スコア (Papineni, Roukos, Ward, and Zhu 2002)を用いて評価する. 2 本稿では, フレーズとは特定の文中に出現する任意の長さの部分単語列を表すものとし, 文全体や単語もフレーズの一種として扱う。また,後述する句構造文法における句とは区別して扱うこととする. } このように文全体を選択することで過剰なコストを要する問題に対処するため,自然言語処理タスクにおいては短いフレーズからなる文の部分的アノテーションを行うための手法も提案されている (Settles and Craven 2008; Tomanek and Hahn 2009; Bloodgood and Callison-Burch 2010; Sperber, Simantzik, Neubig, Nakamura, and Waibel 2014). 特にSMT においては,文の選択手法では翻訳済みフレーズを㔯長に含んでしまう問題に対処するため,原言語コーパスの単語 $n$-gram 頻度に基づき,対訳コーパスにカバーされていない原言語コーパス中で最高頻度の $n$-gram 自体を翻訳対象のフレーズとして選択する手法が提案されている (Bloodgood and Callison-Burch 2010). この手法では,選択されたフレーズ全体が必ず翻訳モデルの $n$-gram カバレッジ ${ }^{3}$ 向上に寄与し, 余分な単語を選択しないため, 文選択手法よりも少ない単語数の人手翻訳で翻訳精度を向上させやすく,費用対効果に優れている。しかし,この手法には $2 \supset の$問題点が挙げられる。先ず,図 1 (a)に示すように, $n$-gram 頻度に基づくフレーズの選択手法では複数のフレーズ間で共有部分が多いため宇長な翻訳作業が発生し, 単語あたりの精度向上率を損なう問題がある(フレーズ間の重複問題)。また,最大フレーズ長が $n=4$ などに制限されるため, “one of the preceding”のように句範疇の一部がたびたび不完全な形で翻訳者に提示されて人手翻訳が困難になる問題もある(句範疇の断片化問題). 本研究では, 前述の 2 つの問題に対処するために 2 種類の手法を提案し, 部分アノテーショ (a) 従来手法による $n$-gram フレーズ選択 $(n=4)$ (b) 提案手法による極大フレーズ選択 (c) 提案手法による部分構文木選択 図 1 フレーズ選択手法の例,および従来手法と提案手法の比較  ン型の能動学習効率 4 と翻訳結果に対する自信度の向上を目指す(4 節)。フレーズ間の重複問題に対しては,図 1 (b) に示すように包含関係を持つフレーズを統合して,より少ないフレー ズでカバレッジを保つことで学習効率の向上が可能と考えられる(極大フレーズ選択手法, 4.1 節),重複を取り除き,なるべく長いフレーズを抽出する基準として,本研究では極大部分文字列 (Yamamoto and Church 2001; Okanohara and Tsujii 2009)の定義を単語列に適用し,極大長となるフレーズの頻度を素性に用いる. 句範疇の断片化問題に対しては, 図 1 (c) に示すように,原言語コーパスの句構造解析を行い,部分木をなすようなフレーズを統語的に整ったフレー ズとみなして選択することで,人手翻訳が容易になると考えられる(部分構文木選択手法, 4.2 節)。また,これら 2 つの手法を組み合わせ,フレーズの極大性と構文木を同時に考慮する手法についても提案する (4.2 節). 本研究で提案するフレーズ選択手法による能動学習効率への影響を調査するため, 先ず英仏翻訳および英日翻訳において逐次的にフレーズ対の追加・モデル更新・評価を行うシミュレー ション実験(5 節)を実施し,その結果, 2 つの提案手法を組み合わせることで従来より少ない追加単語数でカバレッジの向上や翻訳精度の向上を達成することができた. 次に,部分構文木選択手法が人手翻訳に与える影響を調査するため, 専門の翻訳者に翻訳作業と主観評価を依頼し,述べ 120 時間におよぶ作業時間で収集された対訳データを用いて実験と分析を行った結果 (6 節), 同様に高い能動学習効率が示された。また,翻訳者は構文木に基づくフレーズ選択手法において,より長い翻訳時間を要するが,より高い自信度の翻訳結果が得られるという傾向も得られた 5 . ## 2 機械翻訳のための能動学習 本節では, 機械翻訳のための能動学習手法について述べる。翻訳対象の候補となるフレーズを含む原言語コーパスから,逐次的に新しい原言語フレーズを選択し翻訳,学習用データとして対訳コーパスに加える手順をまとめると Algorithm 1 のように一般化できる. 1 行目から 4 行目でデータの定義, 初期化を行う. SrcPool は原言語コーパスの各行を要素とする集合である。Translated は翻訳済みの原言語フレーズと目的言語フレーズの対を要素とする集合であり, 初期状態は空でもよいが, 既に対訳データが与えられている場合には, Translated を設定することで効率的に追加フレーズの選択を行うことができる. Oracle は任意の入力フレーズに対して正解訳を与えることができるオラクルであり, 人手翻訳を模したモデルである.  5 行目から 9 行目で翻訳モデルの逐次的な学習を行う. 5 行目の停止条件には, 任意の終了夕イミングを設定できるが,実際の利用場面では一定の翻訳精度に達成した時点や,予算の許容する単語数を翻訳し終えた時点などで能動学習を打ち切ることになるだろう。6行目では,その時点で保持している対訳コーパス Translated を用いて翻訳モデルの学習を行う。また,実験的評価においては, 翻訳モデルの学習直後に翻訳精度の評価を行う. 7 行目では $S r c P o o l$, Translated,TMを判断材料として,次に翻訳対象となる原言語フレーズを選択する。ここでフレーズ選択時に基準となる要素として,学習済みモデルにおける各フレーズ対の信頼度,コー パス中に出現する各フレーズの代表性,翻訳候補のフレーズから正解訳を得るためのコストなどが考えられる。 次節からは, 先述のアルゴリズム 7 行目で述べたフレーズ選択基準に用いられる具体的な手法として, 既存のフレーズ選択手法 (3節) 扔よび本研究の提案手法 (4 節) について述べる. ## 3 単語 $n$-gram 頻度に基づく文・フレーズ選択手法 本節では, 従来手法である単語 $n$-gram 頻度に基づく文選択手法とフレーズ選択手法について紹介する。 ## 3.1 単語 $n$-gram 頻度に基づく文選択手法 単語 $n$-gram 頻度に基づく文選択手法では, 原言語コーパスに含まれる単語数が $n$ 以下の全フレーズのうち,翻訳済みの原言語データに出現せず,かつ頻度が最大となるようなものを含む文を選択する。逐次的に文を追加していき,翻訳済みのデータが原言語コーパスの全 $n$-gram フレーズをカバーした時点で能動学習を停止する。この手法によって最頻出の $n$-gram フレーズを効率的にカバー可能であり,翻訳コストを抑えつつ高い精度を達成できる.Bloodgood らは, $n=4$ の $n$-gram 頻度に基づく文選択手法を用いた能動学習のシミュレーション実験によって, 原言語データ全てを翻訳する場合に比べて, $80 \%$ 未満の文数で同等の BLEU スコア (Papineni et al. 2002)を達成できたと報告している (Bloodgood and Callison-Burch 2010). しかし,1節で述べたように,この手法は文全体を選択するため,翻訳済みのデー夕に既に力バーされているフレーズも多く含んでおり,重複部分の単語数だけ余分な翻訳コストがかかると考えられる,そのため,文全体ではなく高頻出のフレーズのみを選択する手法を 3.2 節から紹介する。 ## 3.2 単語 $n$-gram 頻度に基づくフレーズ選択手法 単語 $n$-gram 頻度に基づくフレーズ選択手法では, 3.1 節の文選択手法とは異なり, 原言語コーパス中で翻訳済みデータにカバーされていない単語数 $n$ 以下のフレーズそのものを頻度順に選択する。この手法では,文全体の選択を行うよりも少ない単語数の追加で $n$-gram カバレッジを高めることができるため,翻訳コストの低減によって高い能動学習効率が期待できる. Bloodgood らは, ベースとなる対訳データを元に, 追加の原言語デー夕中の高頻度の未カバー $n$-gram フレーズを順次選択し,アウトソーシングサイトを用いた人手翻訳実験により,少ない追加単語数と短い翻訳時間でベースシステムよりも大幅に BLEU スコアの向上を確認できたと報告している (Bloodgood and Callison-Burch 2010). ただし,このフレーズ選択手法では, 1 節で述べたようにフレーズ長が $n=4$ などに制限されるため, 選択されるフレーズどうしの重複が多い問題や, 句範疇の断片が選択される問題があり,また長いフレーズ対応を学習できないことも機械翻訳を行う上で不利である. $n=5$ などの,より長いフレーズ長を設定することは根本的な解決にならないばかりか,さらに多くのフレーズ間の重複が発生して逆効果となり得る. ## 4 極大フレーズ選択手法と部分構文木選択手法 本節では,提案手法である極大フレーズ選択手法と,部分構文木選択手法,また,それらの組み合わせ手法について説明する. ## 4.1 極大フレーズ選択手法 本節では, 単語 $n$-gram 頻度に基づくフレーズ選択手法でフレーズ長の制限によって発生する,フレーズ間の重複問題を解消するために,極大部分文字列 (Yamamoto and Church 2001; Okanohara and Tsujii 2009)の定義を利用したフレーズ選択手法を提案する. 極大部分文字列は効率的に文書分類器を学習するために提案された素性であり, 形式的には「その部分文字列を常に包含するような, より長い部分文字列が存在しない」という性質を持った部分文字列として定義される。この極大部分文字列の定義は,文字列を任意の要素列に読み替えて,極大部 分要素列とすることができる. 極大部分要素列は下記のような半順序関係の定義を用いて示すことができる. $ s_{1} \preceq s_{2} \Leftrightarrow \exists \alpha, \beta: s_{2}=\alpha s_{1} \beta \wedge o c c\left(s_{1}\right)=o c c\left(s_{2}\right) $ ここで $s_{1}, s_{2}, \alpha, \beta$ は長さ 0 以上の要素列であり, $o c c(\cdot)$ は文書中の要素列の出現回数である.例えば, $ \begin{array}{ll} p_{1}=\text { "one of the preceding", } & \operatorname{occ}\left(p_{1}\right)=200,000 \\ p_{2}=\text { "one of the preceding claims", } & \operatorname{occ}\left(p_{2}\right)=200,000 \\ p_{3}=\text { "any one of the preceding claims", } & \operatorname{occ}\left(p_{3}\right)=190,000 \end{array} $ のようなフレーズが原言語コーパス中に出現している場合, $p_{2}=\alpha p_{1} \beta, \alpha="$ “,$\beta=$ "claims" が成り立ち, すなわち $p_{1}$ は $p_{2}$ の部分単語列であり, 同様に $p_{2}$ は $p_{3}$ の部分単語列である. $p_{1}$ は $p_{2}$ の部分単語列であり, コーパス中の出現頻度について $\operatorname{occ}\left(p_{1}\right)=\operatorname{occ}\left(p_{2}\right)=200,000$ が成り立つため, 式 (1)により $p_{1} \preceq p_{2}$ が成り立つ. 一方, $p_{2}$ は $p_{3}$ の部分単語列であるが, $o c c\left(p_{2}\right)=200,000 \neq 190,000=o c c\left(p_{3}\right)$ であるため, $p_{2} \preceq p_{3}$ とはならない. 式 (1) で定義される半順序 $\preceq$ を用いて,単語列 $p$ について $p \preceq q$ となるような $q$ が $p$ 自体を除いて存在しない場合に, $p$ は極大性 6 を有し,本稿では極大フレーズと呼ぶこととする.先述の例では, $p_{1} \preceq p_{2}$ であるため $p_{1}$ は極大フレーズではなく, $p_{2} \preceq q$ となるような $q$ は $p_{2}$ 自体を除いて存在しないため $p_{2}$ は極大フレーズである. 原言語コーパス中のすべての極大フレーズは拡張接尾辞配列 (Kasai, Lee, Arimura, Arikawa, and Park 2001)を用いて原言語コーパスの単語数 $N$ に対して線形時間 $O(N)$ で効率的に列挙可能であるが, 出現頻度を同時に得るためには二分探索のためにそれぞれ $O(\log N)$ 回の文字列比較が必要なため, 合計 $(N \log N)$ 回の文字列比較が必要となる (Okanohara and Tsujii 2009). 列挙されうる極大フレーズの数は高々 $N-1$ 個であるが, 頻度で降順に列挙するためには $O(N \log N)$ のソートアルゴリズムを用いることができる,ただし,本提案手法では,極大フレーズが改行文字を含む場合は分割し,また,出現回数が 2 以上のものを列挙するようにしている。これは,原言語コーパス中のほとんどの文を含めた膨大な部分単語列が出現頻度 1 の極大フレーズとして選択されることを防止するためである. 極大フレーズのみを人手翻訳の対象とし,翻訳済みデータに出現していない最高頻度の極大フレーズを順次選択する手法を極大フレーズ選択手法として提案する。本提案手法には 2 つの利点があると考えられる.1つ目の利点は,互いに重複するような複数のフレーズを 1 つ極  大フレーズにまとめ上げて翻訳対象とすることで, 1 度の人手翻訳で複数の高頻度フレーズを同時にカバーすることが可能となり,翻訳コスト減少による能動学習効率の向上が見込めることである。2つ目の利点は, 既存手法でフレーズ長が 4 単語などの固定長に制限される問題を解消できることである. ただし,先述の例で述べたが, $p_{2}$ は $p_{3}$ の一部であり, 二者の出現頻度も近いが一致はしておらず,そのため二者とも極大フレーズとなる.実際の用途を考慮すると,このように出現頻度が完全に一致していなくてもほとんどの場合に重複して出現するフレーズは統合することが望ましいが,すべての極大フレーズをそのまま翻訳候補とする実装では重複を取り除けない場合がある。そこで,式 (1) の制約をパラメータ $\lambda$ で緩和して,より一般化した半順序関係を下記のように定義する. $ s_{1} \stackrel{*}{\preceq} s_{2} \Leftrightarrow \exists \alpha, \beta: s_{2}=\alpha s_{1} \beta \wedge \lambda \cdot \operatorname{occ}\left(s_{1}\right)<\operatorname{occ}\left(s_{2}\right) $ 可能であり,通常の極大フレーズ(以下,標準極大フレーズとする)と区別するため $\lambda$-極大フレーズと呼ぶことにし, このような特徴を持つフレーズを列挙し, 未カバーフレーズを頻度順に追加する手法を $\lambda$-極大フレーズ選択手法として併せて提案する. $\lambda$-極大フレーズ選択手法のパラメータ $\lambda$ を 1 より小さく設定することで, 2 つの重複するフレーズの一致条件を取り除き,近似する出現頻度を許容するようになる.特殊な場合として $\lambda=1-\epsilon$ のときには標準極大フレーズ選択手法と同一であり ( $\epsilon$ は正の極小値), $\lambda=0$ のときには部分的アノテーションを行わない, 文の乱択手法となる。両者の利点を両立できる可能性を考慮して,本研究では特に中間の値となる $\lambda=0.5$ を用いた際の影響を他の手法と比較に用いている. $\lambda<1$ における $\lambda$-極大フレーズは, 常に標準極大フレーズの条件を満たすため, 原言語コーパス中の $\lambda$-極大フレーズの候補は,すべての標準極大フレーズの中から探せばよい.標準極大フレーズは $O(N)$ 時間で列挙可能であることは先に述べた通りであるが, これは接尾辞配列に対応する接尾辞木の内部ノードをたどりながら列挙する。この時に, 極大フレーズ $p$ に対応するノードから祖先ノードをたどっていき, 対応する祖先ノードのフレーズ $p_{1}$ が $\lambda \cdot \operatorname{occ}\left(p_{1}\right)<\operatorname{occ}(p)$ である場合, $p_{1}$ は $\lambda$-極大フレーズの条件を満たさないため除外できる.接尾辞木のすべての内部ノードについて,このような処理を行うことで,除外されなかったフレーズは $\lambda$-極大であり,高々 $N-1$ 個の内部ノードに対し, $O(\log N)$ 回の文字列比較で出現頻度比較を行い, 根ノードから帰りがけ順で処理を行えば $O(N \log N)$ 回の文字列比較で $\lambda$-極大フレーズを列挙できる。また, 標準極大フレーズと同様に, $\lambda$-極大フレーズとその出現頻度は, $O(N \log N)$ 時間で頻度順に列挙可能である. ## 4.2 部分構文木選択手法 本節では 4.1 節で述べた提案手法とは別に, 原言語コーパスの句構造解析結果に基くフレー ズ選択手法を提案する。本手法では,図 2 に示すように,翻訳候補となる原言語コーパスの全文を句構造解析器で処理し, 得られた構文木の全部分木をたどりながらフレーズを数え上げ, その後にフレーズを頻度順に選択する。これにより,木をまたがるようなフレーズ選択は行われないため, 句範疇が分断されるような問題は発生せず,選択されるフレーズは構文的にまとまった意味を持つと考えられる。本研究では選択されるフレーズが能動学習効率に与える影響の調査を目的とするため,他の手法と比較しやすいように構文木をフレーズ抽出のみに用いており, そのため異なる構造の部分木であっても単語列が一致している場合には同一のものとしてカウントする. 本手法で選択された翻訳候補のフレーズは, 統語情報を用いない他の手法と比べて, 人手翻訳を行う際に有用で, 同じ追加単語数でも質の高い正解データが得られるものと期待できる. $n$-gram 頻度や極大フレーズの選択手法では, 表層的な単語列を数え上げるため, "two methods are proposed" というフレーズがあると, その一部である “are proposed”も頻度に加えるが,構文木に基づく場合, 図 2 (b) に示すように “are proposed and discussed” の一部である “are proposed”は部分木をまたがるために頻度に加えない.このため, 構文木に基づくフレーズ選択手法では,フレーズの頻度が他の手法による表層的な数え上げよりも小さくなる傾向があり,結果として 2 単語以上からなるフレーズを選択する優先順位が低くなりやすい. この手法では, 全部分木のフレーズを数え上げるため, 単語 $n$-gram 頻度に基づくフレーズ選択手法と同様に,フレーズの重複により追加単語数あたりの能動学習効率に悪影響を及ぼす可能性がある.従って, 4.1 節で提案した $\lambda$-極大フレーズと併用することで, 重複を取り除き,選択するフレーズを絞り込む手法も同時に提案する( $\lambda$-極大部分構文木選択手法). (a) “are proposed” がカウントされる (b) “are proposed” はカウントされない 図 2 構文木に基づく手法のフレーズカウント条件 ## 5 シミュレーション実験 ## 5.1 実験設定 4 節で提案したフレーズ選択手法が, 機械学習のための能動学習にどのような影響を与えるかを調査するため, 本研究では先ず,逐次的にフレーズの対訳を追加して翻訳モデルを更新するシミュレーション実験を実施し,各ステップにおける翻訳精度の比較評価を行った.本実験では,高精度な句構造解析器を利用可能な英語を原言語とし, 目的言語にはフランス語と日本語を選択した. 対訳コーパスが全く存在しない状態から能動学習を用いることも可能であるが,より現実的な利用方法を考慮し, 一般分野の対訳コーパスが存在している状態に, 専門分野の追加コーパスからフレーズを選択し,翻訳モデルの高精度化を目指す。英仏翻訳には, WMT $2014^{7}$ の翻訳タスクで用いられた欧州議会議事録の Europarl コーパス8 (Koehn 2005) をべースとし, 医療翻訳タスクで用いられたデータのうち EMEA ${ }^{9}$ (Tiedemann 2009), PatTR ${ }^{10}$ (Wäschle and Riezler 2012), Wikipedia タイトルを合わせて追加コーパスとした. 英日翻訳には, 日常的な英語表現を広くカバーする英辞郎例文データ11をべースの対訳コーパスとし, 科学論文の概要を元に抽出された ASPEC ${ }^{12}$ (Nakazawa, Yaguchi, Uchimoto, Utiyama, Sumita, Kurohashi, and Isahara 2016) を追加の対訳コーパスとして用いた. 前処理として, 日本語コーパスの単語分割には KyTea(Neubig, Nakata, and Mori 2011)を用いており, 句構造解析と単語アラインメント推定の精度を確保するため, 学習用対訳コーパスのうち, 単語数が 60 を超える文の対訳は取り除いた。前処理後の対訳データの内訳を表 1 にまとめる. 本実験では,逐次的なデータの追加とモデルの再学習を行うものの,各ステップで 1 フレー ズずつ追加するのでは数十万フレーズ以上ある翻訳候補すべての影響を現実的な時間で評価できないと判断したため,ステップ毎の追加フレーズ数は次式に従い可変とした ${ }^{13}$. $ \# \text { additional_phrases }=\left.\lfloor\frac{\# \text { accmulated_additional_phrases }}{10}\right.\rfloor+1 $ 翻訳の枠組みには,フレーズベース機械翻訳 (Koehn, Och, and Marcu 2003)を用い, Moses ツールキット ${ }^{14}$ (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007) を利用して翻訳モデルの学習やデコードを行った. ただし, 少量の対訳を追加して単語アラインメントの再学習およびフレーズテーブルの再  表 1 対訳コーパスのデータ内訳(有効数字 3 桁) \\ 構築を行うには計算コストが非常に大きい. そのため, 単語アラインメントには GIZA++(Och and Ney 2003) を逐次学習に対応させたinc-giza-pp ${ }^{15}$ を用いており, 翻訳モデルの学習には Moses の MMSAPT(Memory-mapped Dynamic Suffix Array Phrase Tables (Germann 2014)) 機能を利用して,フレーズ抽出を行わずに接尾辞配列による動的なフレーズテーブルの構築を行った。言語モデルの学習には KenLM (Heafield 2011)を用いて, ベースコーパスと追加コーパスの全学習用データから $n=5$ の $n$-gram 言語モデルを学習した. デコード時のパラメータ調整には MERT (Och 2003) を用いたが,フレーズ追加の度に最適化を行うのは時間的に現実的でないため, ベースコーパス全文で学習した翻訳モデルに対して, 追加コーパス用の開発データセットで自動評価尺度の BLEU スコア (Papineni et al. 2002) が最大となるよう学習を行い, その後はパラメータを固定し能動学習を行った。能動学習に用いるフレーズ選択手法には従来手法と提案手法を含め, 以下のように8つのタスクを設定した. ## 文の乱択 (sent-rand): 追加コーパスの順序をシャッフルし,順次選択 ## フレーズの乱択 (4gram-rand): ベースコーパス中に含まれない追加コーパス中の単語数 4 以下のフレーズを列挙後にシャッフルし,順次選択  ## 4-gram 頻度に基づく文選択 (sent-by-4gram-freq): 翻訳済みデータに含まれず, 単語数 4 以下で最高頻度のフレーズを含む文を順次選択 (ベー スライン, 3.1 節) ## 4-gram 頻度に基づくフレーズ選択 (4gram-freq): 翻訳済みデータに含まれず,単語数 4 以下で最高頻度のフレーズを順次選択(ベースライン, 3.2 節) ## 標準極大フレーズ選択手法 (maxsubst-freq): 翻訳済みデータに含まれず,追加コーパス中で最高頻度の標準極大フレーズを順次選択 (提案手法, 4.1 節) ## $\lambda$-極大フレーズ選択手法 (reduced-maxsubst-freq): 翻訳済みデータに含まれず,追加コーパス中で最高頻度の $\lambda$-極大フレーズ $(\lambda=0.5)$ を 順次選択(提案手法,4.1 節) ## 部分構文木選択手法 (struct-freq): 追加コーパスの句構造解析結果を元に,部分木を成すようなフレーズの中から翻訳済み データに含まれず最高頻度のものを順次追加(提案手法, 4.2 節) ## $\lambda$-極大部分構文木選択手法 (reduced-struct-freq): 追加コーパスの句構造解析結果を元に,部分木を成すような $\lambda$-極大フレーズの中から翻 訳済みデータに含まれない最高頻度のものを順次追加(提案手法, 4.1 節, 4.2 節) それぞれの手法で選択されたフレーズの正解訳を得るために,文の選択に対しては対応する対訳文をそのまま選択,フレーズの選択に対してはべースコーパスと追加コーパスの全文を用いて学習した翻訳モデルをオラクルとして,翻訳結果を対訳フレーズとした。構文木に基づく手法では,句構造解析を行うために Ckylark ${ }^{16}$ (Oda, Neubig, Sakti, Toda, and Nakamura 2015) を使用した ${ }^{17}$. maxsubst-freq や reduced-maxsubst-freq では出現頻度 1 のものを取り除くことを 4.1 節で述べたが,文を含まないフレーズの出現頻度を扱う他の全ての手法においても条件を揃えるために,出現頻度 1 のフレーズは除外した ${ }^{18}$. ## 5.2 実験結果 能動学習効率の比較 : シミュレーション実験により得られた結果から,追加単語なし, 1 万単語追加直後, 10 万単語追加直後, 100 万単語追加直後, 全フレーズ追加時点における各手法  の BLEU スコアの推移を表 2 に示す 19 ,全フレーズ追加時点でのスコアは,各手法で選択されうるフレーズの全対訳を用いて学習した翻訳精度であるため, 各手法の性能限界と考えられるが,追加される単語数が大きく異なるため能動学習効率という観点では単純比較ができない. この表から, 2 つの乱択手法と 2 つのベースライン手法と比較した場合, 10 万単語追加直後までは安定して 4gram-freq での精度の伸びが良く, 文全体ではなく高頻度のフレーズのみを選択することによる利点を確認できる。ただし,英仏翻訳における 100 万単語追加時点では, 4gram-freq のスコアが sent-by-4gram-freq を下回っており,また,両言語対における全フレー ズ追加時点では 4gram-freq のスコアが sent-by-4gram-freq や sent-rand を下回っていることから,一定量以上の単語数を追加する場合には 4gram-freq では文選択手法より能動学習効率が低下し, 性能限界も高くないことが分かる。これは, 3.2 節でも述べたように, 4gram-freqでは選択されるフレーズの最大長が 4 単語までに制限されており,より長いフレーズの対応を学習できないことが翻訳する上で不利であるためと考えられる. 次に,提案手法とベースライン手法との比較を行う,提案手法の中では, reduced-maxsubst- 表 2 各手法における BLEU スコアの推移(100万単語追加直後までの各時点において下線は乱択手法とべースライン手法の中でスコア最大であることを示し,このスコアを上回る提案手法のスコアをボールド体で示す。また,全手法でスコア最大のものには短剣符†を付記した.)  freq は maxsubst-freq よりほぼ常に高スコアであり, reduced-struct-freq は struct-freq よりほぼ常に高スコアであったため, $\lambda$-極大性を利用して長いフレーズを優先することで,結果的に少ない単語数でカバレッジが向上したと考えられる。このため, $\lambda$-極大性を利用する 2 つの提案手法と 2 つのベースライン手法との, より詳細な比較を行いたい. 図 3 には,それぞれの言語対で 10 万単語まで追加した場合と 100 万単語まで追加した場合の追加単語数と翻訳精度の変化を示す。また, ベースコーパスと追加コーパスの全対訳データを用いて学習・評価したスコアをオラクルスコアとして,右側の 100 万単語追加までのグラフに併せて示す. reduced-maxsubst-freq は, 英日翻訳ではベースライン手法よりも安定して高いスコアであったが, 英仏翻訳では 100 万単語追加時点まで 4 gram-freq とほぼ同程度のスコアとなった。ただし,両言語対において全フレーズ追加時点でのスコアは 4 gram-freq や 4 gram-rand を大きく上回っ 図 3 追加単語数あたりの BLEU スコア(左上:10 万単語まで追加の英仏翻訳, 右上 : 100 万単語まで追加の英仏翻訳, 左下:10万単語まで追加の英日翻訳,右下:100万単語まで追加の英日翻訳) ているため性能限界は高く, 提案手法では先述のような最大フレーズ長制限の問題が発生しないことが大きな原因と考えられる。また,英仏翻訳において reduced-maxsubst-freq と 4gram-freq で大きな差が見られなかった原因として, 両手法で選択された高頻度フレーズを見たところ, 最高頻度順に “according to claim”(1,502,455 回), “claim 1”(1,133,243 回), "characterized in that”(858,404 回)などと共通のフレーズが選択されており,1節で述べたような,フレーズ間の重複はあまり発生しておらず,句範疇の断片化の方が目立っていた.複数の高頻度な 4-gram フレーズが共通の部分単語列を多く有するという状態は, 特に高頻度の $n>4$ 単語からなる長い未カバーフレーズが出現する場合であり,本実験で用いた医療文書コーパス中の高頻度の長いフレーズは,専門的な表現をあまり含んでいないために一般分野の大規模コーパス中に既に含まれていたことが原因と考えられる。一方, 英日翻訳では, 4gram-freq で選択された高頻度フレーズは "results suggest that”(6,352 回), "these results suggest” (5,115 回), "these results suggest that”(4,791 回)などのように多くの重複が見られ, reduced-maxsubst-freq では, こういったフレーズを 1 つにまとめられたことが大きいと考えられる。特に,英日翻訳で用いた一般分野のコーパスは訳 40 万文と比較的小規模であり,日常表現をまとめたものであるため長いフレーズはあまりカバーされていなかったことの影響もあるだろう。 reduced-struct-freq は, 両言語対においてほぼ安定して最高スコアのフレーズ選択手法であった. 英日翻訳における 10 万単語追加時点のみ, reduced-maxsubst-freqが最大スコアとなっているが僅差であり,学習曲線の振れ幅も大きいため誤差の範囲であろう 20 . 特に英仏翻訳シミュレーション結果では, 最初から reduced-struct-freq や struct-freq での精度の伸びが良く, 他の手法よりも精度が大きく上回り, 100 万単語追加時点でも差はほとんど縮まらなかった. 一方で,英日翻訳の追加単語数が少ないうちは reduced-maxsubst-freq や 4gram-freq とあまり大きな差は見られなかったが,約 4 万単語追加時点から他の手法よりも精度が高くなっており,約 50 万単語追加時点からはフレーズ選択手法の精度がほぼ横這いとなった。 選択されたフレーズ長の傾向:手法毎に翻訳対象のフレーズ選択基準が異なるため, フレー ズ長制限の有無や重複の削減方法の違いによって, 翻訳対象を選び尽くした場合のフレーズ数等に大きな差が出ることになる.フレーズ頻度に基づくそれぞれの手法によって選択されるフレーズの傾向を調べるため, 翻訳候補を全て追加し終えた時点および約 1 万単語のみ追加した時点でのフレーズ数, 単語数, 平均フレーズ長を表 3 にまとめる。全翻訳対象を翻訳し終えた時点でカバレッジが収束するため, 翻訳対象の単語数が少ないほどカバレッジの収束が速く,翻訳精度が向上しやすいと考えられる。一方, 一度に追加するフレーズが長いほど, 同時に複数の $n$-gram をカバーできるため, 平均フレーズ長が大きいほど 4 -gram カバレッジ等を向上させ  表 3 手法ごとに選択されるフレーズ内訳(有効数字 3 桁) る上で有利と考えられる。提案手法によって選択されたフレーズの平均フレーズ長が英日翻訳で 3.03 3.58 単語, 英仏翻訳で 5.30 6.68 単語と大きく差が開いているが, これは原言語側のベースコーパスと追加コーパスの組み合わせのみに依存しており, 目的言語には当然依存しない.また, 表 3 のフレーズ頻度に基づく手法において, 全フレーズ追加時の平均フレーズ長に比べ, 1 万単語追加時の平均フレーズ長が短いことを確認できる.短いフレーズほど高頻度となりやすく優先的に選択されるため当然であるが,構文木に基づく手法では 1 万単語追加時点の平均フレーズ長が極端に小さくなっており, 長いフレーズの頻度が大幅に下がりやすい傾向が見られる. カバレッジの影響:また,各手法によって,翻訳済みのデータが実際に評価データをどの程度カバーしているかを調査する。各手法でフレーズを 1 つずつ選択していき,追加単語数が 1 万,10万,100万にそれぞれ達する時点での評価データの 1-gram カバレッジおよび 4-gram カバレッジを表 4 にまとめる。この結果から, reduced-struct-freqではどの場合でも最も 1-gram カバレッジが向上していることが分かり,効率的に未知語がカバーされることになる. struct-freq や, reduced-struct-freq において,他の手法よりも高い 1-gram カバレッジを得られた理由としては, 4.2 節で述べたように木構造に基づくフレーズ選択手法では, 表層的な単語列の出現回数ではなく特定の部分木の句範疇をなすフレーズとして出現頻度を数え上げるため, 2 単語以上からなるフレーズの頻度は大きく低下し,優先的に高頻度の未カバー 1-gram を選択したことの影響が大きいと考えられる。一方で,4-gram カバレッジに関しては, 3 単語以下のフレー ズを追加しても全く影響が出ないため,長いフレーズを追加する方が有利であることは明らかであり, sent-by-4gram-freq で最も効率的に向上が見られる. 英仏翻訳では, 1 万単語追加時点 で 4-gram カバレッジの上 4 桁に変化が見られなかった。このように,フレーズ選択時に長いフレーズを選ぶか,短いフレーズを選ぶかは,カバレッジの影響を考える際にトレードオフの関係が生じるが, $\lambda$-極大性に基いて重複を取り除くことによって,1-gram カバレッジと 4-gram カバレッジを両立して向上させられることが確認できた. 削減された単語数:3.2 節では, 4gram-freq の問題として, 選択されるフレーズ間で重複して出現する共通の部分単語列が多いことを挙げ,この問題に対処するために 4.1 節で $\lambda$-極大フレー ズ選択手法を提案した. 表 5 に, 4gram-freq で 1 万単語追加直後, 10 万単語追加直後, 100 万単語追加直後の各時点で選択されたフレーズが, maxsubst-freq や reduced-maxsubst-freq でより長いフレーズに統合されて削減された単語数と割合をまとめる.表から,英仏翻訳において 表 4 各フレーズ選択手法がカバレッジに与える影響(小数点第三位を四捨五入, ボールド体は一定の単語数追加時点でのカバレッジ最大値を示す 表 54 gram-freqで重複して選択されるフレーズの提案手法による削減量 も英日翻訳においても, maxsubst-freq では $1 \%$ から $4 \%$ 程の少量の単語数しか削減できていないが, これは 4.1 節で述べたように,標準極大フレーズでは包含関係にあるフレーズの出現頻度が完全一致するという厳しい制約があるため, 多くのフレーズが極大フレーズとなったことに起因する。一方, 両言語対において, reduced-maxsubst-freq では $24.70 \%$ 以上, 最大で $50.79 \%$ の単語が削減された。この結果からも, フレーズの出現頻度の一致条件を緩めることで, 包含されたフレーズを効果的により多く削減することができると言えるだろう. ## 6 人手翻訳実験 ## 6.1 実験設定 前節のシミュレーション実験で得られた結果が, 現実の人手翻訳による能動学習を行う際にも有効と言えるかどうかを調査するため,外部委託機関を通じて翻訳作業を依頼し,それによって得られた結果を用いて従来手法との比較評価を行った。特に,翻訳に要した実作業時間や,得られる対訳の自信度評価も能動学習の効果を比較する上で重要である。 人手翻訳の依頼を行うため, 図 4 に示すような作業用ユーザーインターフェイスを持つ Web ページを作成した。翻訳対象のフレーズのみ提示されても翻訳が困難であったり多くの時間が必要となる可能性があるため, Bloodgood らの実験手法 (Bloodgood and Callison-Burch 2010) に従い,翻訳候補のフレーズを含むような文を表示して文脈を明らかにした上で,ハイライトされたフレーズのみを翻訳するよう依頼した。フレーズを含む文は複数存在し得るが,本実験では単純に最も短い文を選択して表示した。各フレーズの翻訳後には, 翻訳者がその翻訳結果にどの程度確証を持てるかという主観的な自信度を 3 段階で評価するよう併せて依頼した.翻訳時の自信度評価は表 6 に掲載した翻訳作業ガイドラインを基準とし, 翻訳が困難で自信度評価が 1 の場合のみ,翻訳のスキップを許容した。また,翻訳候補が表示されてから対訳が送信されるまでの時間の記録も行った。 図 4 人手翻訳ユーザーインターフェイスのイメージ 表 6 翻訳作業ガイドライン 比較評価に用いたフレーズ選択手法には, ベースラインとして従来手法の $n=4$ における単語 $n$-gram 頻度に基づく文選択手法 (sent-by-4gram-freq) および単語 $n$-gram 頻度に基づくフレー ズ選択手法 (4gram-freq)の 2 つを, 提案手法として, 前節のシミュレーション実験で最も高い能動学習効率を示した $\lambda$-極大部分構文木選択手法 (reduced-struct-freq) を用いて比較評価を行った。翻訳作業を行ったのは専門の翻訳者 3 名であり, それぞれの手法で 1 万単語以上のフレー ズに対する翻訳が得られるよう発注を行った。翻訳者毎の能力や評価の偏りによる影響を小さくするため, 毎回異なる手法からフレーズを選択して新しい翻訳対象の表示を行った. 実験に用いたデータやツールは,英日翻訳のシミュレーション実験で用いたものと同一である (5 節)。しかし, 人手翻訳によって収集した対訳データは, ベースシステムの学習に用いた対訳データと比較して非常に小規模であり, 追加されたフレーズ対が与える影響が非常に小さくなってしまう可能性があるため, フレーズ対を追加する度に, ベースシステムの対訳データ と収集した追加データで個別に 5-gram 言語モデルを学習し, 開発用データセットにおけるパー プレキシティが最小となるよう SRILM (Stolcke 2002)を用いて二者を線形補間で合成して用い $た^{21}$. ## 6.2 実験結果 能動学習効率 : 図 5 のグラフは,本実験で収集した対訳データを用いて翻訳モデルを学習した際の翻訳精度の推移を表している。翻訳者が翻訳をスキップしたフレーズに関しては, 追加単語数には含めず,累計作業時間には含めているが,実際にスキップされたフレーズ数は極少数であったため, この影響は小さい. 左のグラフから, reduced-struct-freq で, 従来手法よりも急激に翻訳精度が向上している様子が分かる. クラウドソーシングのような形で翻訳作業を委託する際には, 文章量, 特に単語数に応じた予算が必要となることから (Bloodgood and Callison-Burch 2010), こういった状況では提案手法で高い費用対効果を発揮できることになる. 一方, 右のグラフから, 作業時間あたりの能動学習効率は, 4gram-freq を上回ることはなかった. これは,前節でテーブル 4 をもとに議論したように, 部分構文木選択手法では, 未カバーの 1-gram, 即ち未知語を優先的にカバーする傾向があるため, 本実験夕スクでは科学分野の専門用語が多く,翻訳に多くの時間を要したものと考えられるため,後の議論で詳細な分析を行う. 作業時間と自信度評価: 表 7 に, 各手法で 1 万単語をすべて翻訳し終えるのに要した時間と, 3 図 5 各手法における追加単語数あたりの BLEU スコア推移(左)と累計作業時間あたりの BLEU スコア推移(右) (e)$ とすると, 2 つの言語モデル $L_{1}, L_{2}$ を線形補間で合成したモデル $L_{1+2}$ の生起確率は $P_{L_{1+2}}(e)=\alpha P_{L_{1}}(e)+(1-\alpha) P_{L_{2}}(e)$ となる. $\alpha$ は 0 から 1 の間を取る補完係数であり,開発用データ $E_{d e v}$ に対して, $P P L\left(E_{d e v}\right)=\exp \left(\frac{\sum_{e \in E_{d e v}}-\log P_{L_{1+2}}(e)}{\left|E_{d e v}\right|}\right)$ が最小となるように調整される. } 段階で主観評価を行った自信度評価の統計値をまとめる. 表 8 は, 各手法で選択されたフレーズ数の内訳である。提案手法では,合計作業時間が他の手法の倍近い値になっているが,提案手法では先述のように専門用語を重点的に選択する傾向が確認されており, 表 8 からは, 4gram-freq と比較していて 4 倍近い数の未知語が選択され,全体的なフレーズ数も多いことが大きな要因であろう。一方で,選択されたフレーズの翻訳作業に対する自信度評価は提案手法が最大で,全体の約 $79 \%$ のフレーズ翻訳作業で最大評価の 3 が選択されており,質の高い対訳を得られたと考えられる。この結果は, 句構造を保つようなフレーズが選択されることで, 構文的に対応の取れた翻訳を行えた点が大きく影響していると考えられる. 表 9 には,各手法で選択されたフレーズの翻訳に要した平均時間の傾向を示す。手法の内外で翻訳候補のフレーズ長に大きく差があり,単純な比較を行うことができないため,フレーズ長に応じて個別に平均作業時間を求めて比較を行うことにした。この表から, 1 単語の翻訳作業に要した平均時間は,24単語からなるフレーズの翻訳よりも長くなるという現象が見られるが, 未カバーの単語はほとんどが専門用語であるため, 辞書やオンライン検索で慎重に意味を調べる必要性を考えれば納得できる。また,これらは 1 フレーズの翻訳に要した平均時間であるため, 1 単語の翻訳に要する時間コストとして換算した場合, 1 単語フレーズの翻訳時間は 表 7 合計実作業時間と自信度評価の統計 表 8 各手法で選択されたフレーズ数の内訳 表 9 各手法におけるフレーズの翻訳に要した平均時間 2 単語フレーズの単語翻訳時間の倍以上であり, 専門用語の翻訳に要するコストがいかに大きいかが分かる. 各手法におけるフレーズ長ごとの平均自信度評価を表 10 に示す。この表から,提案手法では 1 単語の翻訳時の平均自信度はベースライン手法よりも低くなっているのが分かるが, ベースライン手法では 1 単語のみ選択されることが少なく, 提案手法では多くの専門用語が選択されたことが原因と考えられる。一方で,従来手法ではフレーズ長が長くなるほど劇的に自信度が下がる傾向が見られるが,提案手法においては長いフレーズに対しても安定して高い自信度が得られており,構文的に整ったフレーズを選択する手法の有効性が如実に現れている。専門用語の対訳を得るには時間がかかるが,調べれば対応する訳語を得られる可能性も高いため,対訳の自信度が高くなる傾向も見られた。 自信度帯による翻訳精度 : 各手法によって得られたフレーズ対をすべて学習に用いた場合の翻訳精度を表 11 に示す。また,それぞれのフレーズ対に自信度評価が記録されているため,最低保証値を定めて全フレーズ対のうち自信度が 2 以上や 3 のフレーズ対のみを学習に用いた翻訳モデルの評価も行った。その結果, どの手法においても自信度 1 の対訳を除去して 2 以上のフレーズ対のみを用いた場合の方が,全フレーズ対を用いる場合よりも翻訳精度の向上が見られた。一方,自信度 3 の対訳のみを用いる場合は精度がかえって減少したが,これは大幅に対訳データを削ってしまうことによる悪影響であろう,追加データ無しのベースシステムでは BLEU スコアが約 $9.37 \%$ であったが, 提案手法によって収集した 1 万単語分の追加デー夕のうち自信度 2 以上のものを用いて翻訳モデルを学習することで,BLEU スコアは約 $10.72 \%$ となり, 約 1.35 ポイントの翻訳精度向上を達成することができた。 表 10 各手法におけるフレーズ長ごとの平均自信度評価 表 11 保証値以上の自信度を持つフレーズ対のみを学習に用いた場合の翻訳精度 & 自信度 2 以上 & 自信度 3 \\ 4gram-freq & 10.48 & 10.54 & 10.36 \\ reduced-struct-freq & 10.70 & $\mathbf{1 0 . 7 2}$ & 10.67 \\ ## 7 まとめ 本研究では, 機械翻訳のための能動学習における, 新しいフレーズ選択手法として, フレー ズの極大性を導入し,それをパラメータ $\lambda$ で一般化して頻度順に追加する $\lambda$-極大フレーズ選択手法と, 句構造解析結果から部分木のみを頻度順に選択する部分構文木選択手法, およびそれらの組み合わせである $\lambda$-極大部分構文木選択手法を提案した。提案手法の有効性を調査するため, 先ず,人手翻訳によるアノテーション作業を擬似的にSMT で行うシミュレーション実験を実施したところ,㔯長に選択されるフレーズを $\lambda$-極大性に基づいて削減することで,従来より少ない追加単語数で精度向上を達成することができた。また, $\lambda$-極大部分構文木選択手法が実際の人手翻訳に与える影響を調査するため,人手翻訳実験を実施したところ,翻訳精度と翻訳者の自信度評価のどちらにおいても従来手法より高い結果が得られた。 しかし, 今回用いた手法では専門用語が重点的に選択されるため, 従来のフレーズ選択手法よりも長い翻訳時間を要することも示された。そのため,翻訳時間を短縮しつつ,有効にモデルを高度化させられるような能動学習手法を考案することが今後の課題である. 具体的には,未知語の獲得手法 (Daumé III and Jagarlamudi 2011)や,時間効率を最適化するフレーズ選択手法 (Sperber et al. 2014) が改善の手がかりとなり得る。また,フレーズ中の部分フレーズを “one of the preceding X”のように変数でテンプレート化する手法 (Chiang 2007) を用いて能動学習に利用する手法の検討も興味深いと考えている. ## 謝 辞 本研究は,(株)ATR-Trekの助成を受け実施されたものです.また,(株)バオバブには人手翻訳実験のための翻訳作業を支援して頂きました。 ## 参考文献 Ananthakrishnan, S., Prasad, R., Stallard, D., and Natarajan, P. (2010a). "A Semi-Supervised Batch-Mode Active Learning Strategy for Improved Statistical Machine Translation." In Proceedings of CoNLL, pp. 126-134. Ananthakrishnan, S., Prasad, R., Stallard, D., and Natarajan, P. (2010b). "Discriminative Sample Selection for Statistical Machine Translation." In Proceedings of EMNLP, pp. 626-635. Bloodgood, M. and Callison-Burch, C. (2010). "Bucking the Trend: Large-Scale Cost-Focused Active Learning for Statistical Machine Translation." In Proceedings of ACL, pp. 854-864. Brown, P. F., Pietra, V. J., Pietra, S. A. D., and Mercer, R. L. (1993). "The Mathematics of Statistical Machine Translation: Parameter Estimation." Computational Linguistics, 19, pp. 263-312. Chiang, D. (2007). "Hierarchical Phrase-Based Translation." Computational Linguistics, 33 (2), pp. 201-228. Daumé III, H. and Jagarlamudi, J. (2011). "Domain Adaptation for Machine Translation by Mining Unseen Words." In Proceedings of ACL, pp. 407-412. Eck, M., Vogel, S., and Waibel, A. (2005). "Low Cost Portability for Statistical Machine Translation based in N-gram Frequency and TF-IDF." In Proceedings of IWSLT, pp. 61-67. Germann, U. (2014). "Dynamic Phrase Tables for Machine Translation in an Interactive Postediting Scenario." In Proceedings of AMTA 2014 Workshop on Interactive and Adaptive Machine Translation, pp. 20-31. González-Rubio, J., Ortiz-Martínez, D., and Casacuberta, F. (2012). "Active Learning for Interactive Machine Translation." In Proceedings of EACL, pp. 245-254. Green, S., Wang, S. I., Chuang, J., Heer, J., Schuster, S., and Manning, C. D. (2014). "Human Effort and Machine Learnability in Computer Aided Translation." In Proceedings of EMNLP, pp. 1225-1236. Haffari, G., Roy, M., and Sarkar, A. (2009). "Active Learning for Statistical Phrase-based Machine Translation." In Proceedings of NAACL, pp. 415-423. Haffari, G. and Sarkar, A. (2009). "Active Learning for Multilingual Statistical Machine Translation." In Proceedings of ACL, pp. 181-189. Heafield, K. (2011). "KenLM: Faster and Smaller Language Model Queries." In Proceedings of WMT, pp. 187-197. Kasai, T., Lee, G., Arimura, H., Arikawa, S., and Park, K. (2001). "Linear-Time LongestCommon-Prefix Computation in Suffix Arrays and Its Applications." In Proceedings of CPM, pp. 181-192. Koehn, P. (2004). "Statistical Significance Tests for Machine Translation Evaluation." In Lin, D. and Wu, D. (Eds.), Proceedings of EMNLP, pp. 388-395. Koehn, P. (2005). "Europarl: A Parallel Corpus for Statistical Machine Translation." In MT Summit, Vol. 5, pp. 79-86. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of ACL, pp. 177-180. Koehn, P., Och, F. J., and Marcu, D. (2003). "Statistical Phrase-Based Translation." In Pro- ceedings of NAACL, pp. 48-54. 三浦明波, Graham Neubig, Michael Paul, 中村哲 (2015). 構文木と句の極大性に基づく機械翻訳のための能動学習. 情報処理学会第 224 回自然言語処理研究会 (SIG-NL), 19 号, pp. 1-7.三浦明波, Graham Neubig, Michael Paul, 中村哲 (2016). 構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価. 言語処理学会第 22 回年次大会 (NLP2016), pp. 605-608. Miura, A., Neubig, G., Paul, M., and Nakamura, S. (2016). "Selecting Syntactic, Non-redundant Segments in Active Learning for Machine Translation." In Proceedings of NAACL, pp. 20-29. Nakazawa, T., Yaguchi, M., Uchimoto, K., Utiyama, M., Sumita, E., Kurohashi, S., and Isahara, H. (2016). "ASPEC: Asian Scientific Paper Excerpt Corpus." In Proceedings of LREC, pp. 2204-2208. Neubig, G., Nakata, Y., and Mori, S. (2011). "Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis." In Proceedings of ACL, pp. 529-533. Och, F. J. (2003). "Minimum Error Rate Training in Statistical Machine Translation." In Proceedings of $A C L$, pp. 160-167. Och, F. J. and Ney, H. (2003). "A Systematic Comparison of Various Statistical Alignment Models." Computational Linguistics, 29 (1), pp. 19-51. Oda, Y., Neubig, G., Sakti, S., Toda, T., and Nakamura, S. (2015). "Ckylark: A More Robust PCFG-LA Parser." In Proceedings of NAACL, pp. 41-45. Okanohara, D. and Tsujii, J. (2009). "Text Categorization with All Substring Features." In Proceedings of SDM, pp. 838-846. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of ACL, pp. 311-318. Settles, B. and Craven, M. (2008). "An Analysis of Active Learning Strategies for Sequence Labeling Tasks." In Proceedings of EMNLP, pp. 1070-1079. Sperber, M., Simantzik, M., Neubig, G., Nakamura, S., and Waibel, A. (2014). "Segmentation for Efficient Supervised Language Annotation with an Explicit Cost-Utility Tradeoff." TACL, 2, pp. 169-180. Stolcke, A. (2002). "SRILM—An Extensible Language Modeling Toolkit." In Proceedings of ICSLP, pp. 901-904. Tiedemann, J. (2009). "News from OPUS-A Collection of Multilingual Parallel Corpora with Tools and Interfaces." In Proceedings of RANLP, Vol. 5, pp. 237-248. Tomanek, K. and Hahn, U. (2009). "Semi-Supervised Active Learning for Sequence Labeling." In Proceedings of ACL, pp. 1039-1047. Turchi, M., De Bie, T., and Cristianini, N. (2008). "Learning Performance of a Machine Transla- tion System: A Statistical and Computational Analysis." In Proceedings of WMT, pp. 35-43. Wäschle, K. and Riezler, S. (2012). "Analyzing Parallelism and Domain Similarities in the MAREC Patent Corpus." Multidisciplinary Information Retrieval, pp. 12-27. Yamamoto, M. and Church, K. W. (2001). "Using Suffix Arrays to Compute Term Frequency and Document Frequency for All Substrings in a Corpus." Computational Linguistics, 27 (1), pp. 1-30. ## 略歴 三浦明波:2013 年イスラエル国テクニオン・イスラエル工科大学コンピュー タ・サイエンス専攻卒業. 2016 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 現在, 同大学院博士後期課程在学. 機械翻訳, 自然言語処理に関する研究に従事. 情報処理学会, 言語処理学会, ACL 各会員. Graham Neubig: 2005 年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業. 2010 年京都大学大学院情報学研究科修士課程修了. 2012 年同大学院博士後期課程修了.2012~2016 年奈良先端科学技術大学院大学助教. 現在, カーネギーメロン大学言語技術研究所助教, 奈良先端科学技術大学院大学客員准教授. 機械翻訳, 自然言語処理に関する研究に従事. Michael Paul: 1988 年ドイツサーランド大学コンピュータ・サイエンス専攻卒業. 2006 年神戸大学工学博士. 1995 年 ATR 音声翻訳通信研究所研究員, 2000 年 ATR 音声言語コミュニケーション研究所主任研究員, 2006 年 (独) 情報通信研究機構研究センター主任研究員. 2013 年株式会社 ATR-Trek. 音声翻訳,自然言語処理に関する研究・ビジネスソリューション開発に従事.第 58 回前島密賞受賞, アジア太平洋機械翻訳協会 (AAMT) 長尾賞受賞. 中村哲:1981 年京都工芸繊維大学工芸学部電子工学科卒業. 京都大学工学 博士. シャープ株式会社. 奈良先端科学技術大学院大学助教授, 2000 年 ATR 音声言語コミュニケーション研究所室長, 所長, 2006 年 (独) 情報通信研究機構研究センター長, けいはんな研究所長などを経て, 現在, 奈良先端科学技術大学院大学教授. ATR フェロー. カールスルーエ大学客員教授. 音声翻訳,音声対話, 自然言語処理の研究に従事. 情報処理学会喜安記念業績賞, 総務大臣表彰, 文部科学大臣表彰, Antonio Zampoli 賞受賞. ISCA 理事, IEEE SLTC 委員, IEEEフェロー. (2016年 11 月 8 日受付) (2017 年 2 月 2 日再受付) (2017 年 3 月 2 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 絵本検索システム「ぴたりえ」 〜子どもにぴったりの絵本を見つけます〜 藤田 早苗 ${ }^{\dagger} \cdot$ 服部 正嗣 $\dagger$-小林 哲生 ${ }^{\dagger} \cdot$ 奥村 優子†・青山 一生 ${ }^{\dagger}$ 本稿では,子どもに「内容」と「読みやすさ」がぴったりな絵本を見つけるための システム「ぴたりえ」を提案する。本システムは, 親や保育士, 司書など, 子ども に絵本を選ぶ大人が利用することを想定している. 絵本を読むことは, 子どもの言語発達と情操教育の両面で効果が期待できる. しかし, 難しさも内容も様々な絵本 が数多くある中で, 子ども 1 人 1 人にとってぴったりな絵本を選ぶのは容易なこと ではない,そこで,ぴたりえでは,ひらがなの多い絵本のテキストを高精度に解析 できる形態素解析や, 文字の少ない絵本に対しても精度の高いテキストの難易度推定技術などの言語処理技術により, 子どもにぴったりな絵本を探す絵本検索システ ムを実現する。本稿では,こうした言語処理技術を中心にぴたりえの要素技術を紹介し, 各技術の精度が高いことを示す。 また, システム全体としても,アンケート 評価の結果,ぴたりえで選んた絵本は「読みやすさ」も「内容」も, 5 段階評価で 平均值が 4.44 4.54 と高い評価が得られたことを示す. キーワード:形態素解析,難易度推定,類似探索,表記ゆれ,ひらがな ## Picture-Book Search System "Pitarie" —Finding Appropriate Books for Each Child- \author{ Sanae Fujita $^{\dagger}$, Takashi Hattori ${ }^{\dagger}$, Tessei Kobayashi ${ }^{\dagger}$, \\ Yuko Okumura $^{\dagger}$ and Kazuo Aoyama ${ }^{\dagger}$ } In this paper, we present a novel picture-book search system Pitarie, which can find a picture book that matches a child's interests and language developmental stage. By reading the appropriate picture book to children, positive effects such as faster language development and enhanced emotional education are expected. Pitarie searches are based on two new natural language processing technologies particularly designed for picture books: morphological analysis and text readability estimation for sentences written mainly in Hiragana script. In this paper, we introduce Pitarie with a focus on such novel technologies and their level of quality. Finally, we report the results of the questionnaire for the entire system. Books that were selected based on recommendations by Pitarie had an average rating of $4.44-4.54$ on a 5 -point evaluation scale from both children's interest and language developmental stage viewpoints. Key Words: Morphological Analysis, Text Readability, Similarity Search, Orthographical Variants, Hiragana  ## 1 はじめに 絵本の読み聞かせは幼览の言語発達を促す重要な情報の 1つと考えられる (Mol, Bus, de Jong, and Smeets 2008; Reese and Cox 1999; Whitehurst, Falco, Lonigan, Fischel, DeBaryshe, ValdezMenchaca, and Caulfield 1988). 例えば,読み聞かせを開始する月齢が早いほど, 2 才や 4 才の時点での言語理解や発話の能力が高くなること (Debaryshe 1993; Payne, Whitehurst, and Angell 1994), そして 8 ヶ月時点での絵本の読み聞かせが多い方が, 12 , および, 16 ヶ月時点での語彙が発達していること (Karrass and Braungart-Rieker 2005) などが示されている. また, 読み聞かせでは, 読み手と聞き手という少なくとも 2 者が存在し, 絵本という共通の対象がある.このような状況において, 聞き手である幼児は自分以外の他者と同一の対象に注意を向ける共同注意 (joint attention)という行動を頻繁にとることが知られており (Karrass, VanDeventer, and Braungart-Rieker 2003), それが言語発達に影響する可能性などが指摘されている (Tomasello and Farrar 1986). こうしたインタラクションによる効果以外にも, 例えば, Sulzby (1985) は, 日常の会話でほとんど出現しない語彙やフレーズが絵本に多数含まれていることが幼児の言語発達を進めることを指摘している。 さらに, 絵本の読み聞かせは言語発達を促すだけではなく,読み手と子どものコミュニケーションを促したり,登場人物の感情を推定したりするなど, 情操教育にも役立つと考えられる (佐藤, 堀川, 内山 2016 ; 古見, 小山内, 大場 2014). このように, 絵本を読むことは, 言語発達と情操教育の両面での効果が期待できる. しかし絵本には, 赤ちゃん向けの絵本から, 年長児(5才児)以上を対象とする絵本, 大人向けの絵本まで存在し, その内容も難しさも様々である. そのため, 子どもの興味や発達段階にあった絵本を選ぶのは難しい,親など日常的に接している保護者が子どもに絵本を選ぶ場合,書店や図書館などで手にとって確認すれば,その子に読めそうかどうか,興味を引きそうかどうかは分かるかもしれないが, 非常に多くの絵本を 1 冊 1 冊手に取って確認するのは容易ではない. また,ある程度大きな子どもであれば,子ども自身でも絵本を選べるかもしれない,しかし,書店や図書館では, 多くの本は背表紙が見える向きでずらりと並べて置かれている,そのため,表紙が目立つように置かれてる一部の絵本の中から手に取りやすい傾向がある.多くの書店や図書館では, 目立つ場所に置く本を定期的に入れ替えたり, 季節やテーマに応じた本の展示コー ナーを作ったり,定期的に読み聞かせの会を開いたりするなど,絵本と出会うための様々な工夫がされている。こうした取り組みでは, 本に詳しい書店員や司書の方が選んだ本を紹介してくれるため, 良い本と出会いやすいという利点がある. しかし, タイミング良くその時にその場所に足を運ばなければ,手に取る機会を逃してしまうという状況は変わらない.また,そうして手にとった本がその子に合った読みやすさではない場合, 簡単すぎてつまらなかったり, あるいは難しすぎて途中で投げ出してしまったりということが起こり易い. 内容も,多くの子 ども達には人気があるとしても,子ども 1 人 1 人を考えた時に,ちょうど興味のある内容であるとは限らない。このように,興味のある内容でちょうど良い読みやすさの本と出会えない場合,本をあまり読まなくなってしまったり,同じ本ばかり繰り返して読んたりすることもある. もちろん,繰り返して読むことは決して悪いことではない。お気に入りの本を繰り返して読みたがる時期もあるし,同じ本でも子どもの成長とともに理解が深まったり,最初とは違う読み方ができるようになることもあるだ万う。しかし, 同じ本ばかり読んだり借りたりする理由が,「他に興味を引く本が見つからないから」だったら問題である。しかも,03才くらいまでの幼い子どもの場合は,そもそも自分で本を選ぶことも難しい. そこで我々は,子どもに内容と読みやすさがぴったりな絵本を見つけるためのシステム「ぴたりえ」を開発している。幼い子どもには入力インタフェースの利用が難しいため, 親や保育士,司書などの大人が利用することを想定している. ## 2 関連システム 本章では,インターネットを介して,絵本を含む本を検索したり購入したりすることのできる既存システムを紹介する。 まず,多くの図書館では,インターネットを通じた検索サービスを提供している,例えば,国立国会図書館サーチ1 では,複数の機関が所蔵する児童書の検索サービスを提供しており, WorldCat ${ }^{2}$ は,世界中で同様のサービスを提供することを目指している。国立国会図書館サー チには,子どもを想定利用者とした国際子ども図書館子ども $\mathrm{OPAC}^{3}$ もある. これらの検索サー ビスでは,タイトルや作者などの書誌情報による検索や,テーマからの検索等ができるようになっている.多くの蔵書から検索でき,実際に借りることのできる図書館を探せるなど,有用性の高いサービスである。しかし,書誌情報による検索は,ユーザー側で探している本が明確な場合にはよいが,探している本が見つかるだけでは本との新たな出会いのきっかけにはなりにくい.テーマからの検索を利用すれば,興味のあるテーマから本を見つけることができるが, あらかじめ設定されたテーマに限定されてしまうという問題がある. 一方で, Amazon 4 や絵本ナビ5 など,多くの通信販売サイトが絵本を含む本を扱っている. こうした通信販売サイトでは,ユーザーレビューが集められていることが多く,購入の際の参考とされている。 さらに, Amazon では, 同じような購買履歴を持つ他のユーザーが購入している本を推薦するという,協調フィルタリングによる推薦が行われている。一般に満足度の高 ^{1}$ http://iss.ndl.go.jp/ 2 https://worldcat.org 3 http://iss.ndl.go.jp/children/top 4 http://www.amazon.co.jp/ 5 http://www.ehonnavi.net/ } い推薦方法ではあるが, 一方で, 売れ筋の本ばかりが推薦されやすくなるという問題点がある. さらに,英語版の Amazon 6 では,対象年齢 (Age Range) やテーマ (Bugs \& Spiders, Counting 等)を選んで本を探すこともできる,有益なサービスだが,出版社等によって登録された情報に拠っており,あらかじめ設定されたテーマ等に限定されるという問題は変わらない. 絵本ナビは,絵本や児童書に特化したサービスを展開しており,懸賞をかけたりすることでユーザーレビューを大量に集めている。また,ユーザーに子どもの年齢を入力してもらうことにより,どういった年齢の子どもによく読まれている本かといった情報収集を行い,年齢ごとの推薦を可能にしている。素晴らしいサービスだが,必ずしもすべての本に十分な数のユーザー レビューが得られているわけではなく, ユーザーレビューのない本には適用できない. ## 3 システム概要と言語処理 本章では,ぴたりえのシステム概要と,内容と読みやすさがぴったりな絵本を見つけるために必要な言語処理技術を中心に紹介する。 図 1 にぴたりえのシステム概要を示す.ぴたりえでは,事前に構築している絵本データベー ス (4 章) から, 絵本の探索(あるいは,検索), 推薦を行う,絵本データベースに対して事前準備として行っておく処理と,検索実行時に行う処理があるが,両方の処理で,まず言語処理による様々な処理を行い(図 1,【1】),探索部分にデータを渡している(図 1,【2】)。 言語処理部分では, まず, 形態素解析 (5.2 節) を行う.この結果はすべての後続処理で利用す 図 1 ぴたりえ:システムの概要  る。次に,難易度推定(5.3 節)を行う。これにより,絵本を探している子どもにちょうどぴったりな読みやすさの本の推薦を実現する。 さらに, 表記ゆれの吸収処理 $(5.4$ 節) や, 必要に応じて概念辞書による検索語の拡張(5.5 節)を行う。これらの処理を行った後,探索部分にデー 夕を渡す(図 1,【2】)。探索部分では,絵本テキストの解析結果や書誌情報,あるいは,自由入力されたテキストの解析結果や拡張結果を特徵量として,グラフ索引型類似探索法(5.1 節) を実行しており,これによりぴったりな内容の推薦を実現する。 2 章で紹介した関連システムと比較すると, ぴたりえでは絵本自体のテキストに基づく難易度推定を行っているので, レビューや出版社で付与された対象年齢の有無にかかわらず,一貫した難易度の推定が可能であり,ちょうど良い読みやすさの本の推薦が可能である。また,人手であらかじめ設定されたテーマに限らず,自分の興味のあるテーマの本を中身に基づいて探したり,興味のある本に似た本を探すことができるため,子ども 1 人 1 人の興味にあった推薦が可能である. ## 4 絵本データベース 本章では, 絵本データベースに含まれる本の選定規準とデータベースのサイズについて述べる.絵本データベースには,多くの子どもに読まれていると考えられる本,名作として専門家によって推薦されている本, 長年に渡り愛されてきている本が含まれるよう選定している。具体的には, 2010 年, および, 2015 年の紀伊国屋書店グループの売上冊数が上位 1,000 位以内のファーストブックと絵本 7 , 小学校国語教科書シェアトップ 3 社(東京書籍, 光村書店, 教育出版)8発行の 2015 年度小学校教科書で掲載・推薦されている図書, ミリオンセラー , 図書館の推薦図書から選定している。こうした推薦本に児童書が含まれる場合には,データベースに览童書も含めている。また, シリーズ作品の一部のみがこれらに含まれる場合には, シリーズの他の作品も含めている。 さらに, 対象年齢が比較的はっきりしていることを選定理由として,福音館書店の月刊誌 190 冊を含めている ${ }^{10}$.これにより, 合計 2,415 冊 $^{11}$ がデータベースに含まれている. 絵本データベースには, これらの絵本について, タイトルや作者, 出版社, 出版年, ISBN などの書誌情報と, 本文のテキスト, 記載がある場合には出版社が付与している対象年齢も保存している。絵本データベースのサイズを表 1 に示す。絵本データベースには,お話集のように 1 冊に複数の話が含まれる本も含まれており, 1 話 1 冊の本と分けてサイズを示した.  表 1 絵本データベースのサイズ(児童書,お話集を含む) 表 1 で,文字数が 0 となっている絵本は,「アンジュール 12 など,字のない絵本である。また,文字数が最大(133,724 文字)だった本「本だらけの家でくらしたら」13は,絵本というより児童書である。 絵本データベースは,文字数で 700 万文字を越えており(表 1), 形態素解析の正解アノテー ション済みデータは約 26 万文字である(5.2 節,表 2 参照)。なお,京都大学テキストコーパス14 は約 168 万文字,基本語データベース (笠原,佐藤,Francis,田中,藤田,金杉,天野 2004) (以下,Lexeed)は約 192 万文字である. この絵本データベースは, ぴたりえでの絵本の推薦に利用するだけでなく, 言語発達で重要な意味を持つ語の絵本での出現傾向の調査を行う (Okumura, Kobayashi, Fujita, and Hattori 2016) など,幼児を対象とするテキストの貴重なコーパスとして研究利用している. ## 5 要素技術 本章では,ぴたりえで用いている各要素技術を紹介する。処理の順番は前後するが,まず, 5.1 節でぴたりえで利用している探索技術(図 1,【2】)について紹介し,5.2 節から 5.5 節で言語処理部分(図 1,【1】)について紹介する。 ## 5.1 探索方法 ぴたりえでは,内容がぴったりな絵本を見つける探索技術として,グラフ索引型類似探索法 (服部,青山 2013)を用いている。類似探索は,入力データと探索対象の間に「似ている度合い (類似度)」を定義して,類似度が高いものを探す方法であり,直感的には,入力した大量の情報に基づいてできるだけ多くの条件を満たすものを探す探索方法である.特に,グラフ索引型 $ 出版 $)$ 13 「本だらけの家でくらしたら」(作:N. E. ボード絵:ひらいたかこ訳:柳井薫, 2009, 徳間書店) 14 http://nlp.ist.i.kyoto-u.ac.jp/index.php } 類似探索法では, 高速な検索を実現するための索引として類似の絵本同士が結合したグラフ構造(ネットワーク構造)を用いて検索を行う,本手法は,検索する対象間に何らかの「距離」15 を定義することができれば適用できるため汎用性が高い。例えば,画像特徴量を用いて似ている絵を見つけたり,音声の特徴量を用いて似ている声の人を見つけたり,テキストから得られる特徴量を用いて似ている内容のテキストを見つけることができる. ぴたりえでは,絵本の著者などの書誌情報や,1 冊 1 冊に現れる内容語と名詞句,それらの表記ゆれをすべて特徴量として利用している ${ }^{16}$ ,具体的には,絵本ごとに出現する内容語, 名詞句,それらの表記ゆれを TF$\cdot$IDFによって重み付けし(5.4 節),ノルムを 1 に正規化したべクトルを用いて計算した絵本間のコサイン類似度を距離としている。文書間の距離尺度としては様々な計算方法が提案されているが (浅原, 加藤 2015), 内容語を用いるだけで, 出てくる動植物やキャラクター,「食べる」「遊ぶ」などの行動が表れる絵本を発見できる。また,より長い n-gram を用いる場合より, 他の絵本と一致しやすくなるため, より多くの類似した絵本を発見することができる。これにより,お気に入りの絵本を入力データとし,その絵本と作者等の書誌情報が似ている絵本や, 出てくる動植物や行動が似ている絵本など,様々な点で似ている絵本を探すことができる. 図 2 に,「はらぺこあおむし」17を入力データとして類似探索を実行した結果を示す。図 2 で 図 2 「はらぺこあおむし」で検索した結果(各絵本の書誌情報は付録を参照)  は,絵本データベースの中から,内容語や書誌情報などの特徵量が,「はらぺこあおむし」とできるだけ多く共通する絵本が検索結果として出力されている.著者が同じという点で似た絵本もあれば,「あおむし」「葉っぱ」「たべる」などの語が共通する絵本もある。そのため, 例えば,青虫に興味が湧いたのであれば青虫の出てくる他の絵本, 色々な食べ物を食べるのが面白かったのであれば色々な食べ物の出てくる他の絵本, といった選び方をすることもできる. このように, 我々は, 書誌情報が一致する本を見つけるだけでなく, お気に入りの一冊と色々な点で「似ている」絵本を検索結果として提示することによって,書誌情報との一致だけでは見つけることができない本との新たな出会いを提供することができると考えている. また, 入力データとする本を 1 冊ではなく, 最近のお気に入りの数冊とする拡張も容易である. あるいは, 絵本を入力データとするのではなく, 「タイトルは忘れたけど昔好きたっった絵本で, 『一人ぼっちのきかんしゃが旅をして, 最後には友達ができる絵本』を見つけたい」とか,「友達とケンカしちゃったけど仲直りしたいから,『ケンカしたけど仲直りする絵本』を見つけたい」などという検索も実現できる。ただし, 現在は物語の順序や語順を考慮していないため,「ケンカしたけど仲直りする絵本」と「仲直りしたけどケンカする絵本」の区別はつけられない. こうした順序情報や, 類型化した物語の構造の類似度の反映は今後の課題としたい. ぴたりえでは, 次節以降で紹介する言語処理の結果を特徴量として用いることで,信頼度とユーザビリティが高い類似探索を実現している. ## 5.2 形態素解析 まず,すべての後続処理で利用している言語処理技術として,形態素解析について述べる。形態素解析は多くの言語処理技術の基盤技術となるものであり,新聞などの大人向けの整った文章に対しては非常に高い解析精度が実現されている。また, JUMAN ${ }^{18}$ (京都大学黒橋・河原研究室 2012), ChaSen ${ }^{19}$ (松本, 高岡, 浅原 2008), MeCab ${ }^{20}$ (Kudo, Yamamoto, and Matsumoto 2004), $\mathrm{KyTea}^{21}$ (森, 中田, Neubig, 河原 2011) など, 多くの形態素解析器と解析モデルが公開されている. しかし, 絵本のテキストを対象とした場合, 新聞などを対象とした場合と異なり, 既存の解析モデルで必ずしも高い解析精度を得られるわけではない. 絵本のテキストの特徴については,藤田, 平, 小林, 田中 (2014) の論文で詳しく分析されており, ひらがなの占める割合が非常に大きいことが,精度低下の大きな要因である. そこで藤田他 (2014) は, 絵本の特徴に合わせて既存の辞書や学習デー夕を変換することで, $ ///mecab.googlecode.com/svn/trunk/mecab/doc/index.html 21 http://www.phontron.com/kytea/ } 絵本テキストの解析に強い形態素解析モデルを構築する手法を提案している.ぴたりえでは,藤田他 (2014) の提案手法を適用した上で, 順次絵本テキストへのアノテーションによる学習データの拡充,および,辞書の追加を行い,絵本のテキストに対する形態素解析精度を向上させている。ただし, 藤田他 (2014) の実験では, 品詞体系は IPA 品詞体系とし, 解析器には KyTea を利用していたが, 現在は UniDic 品詞体系 (伝, 山田, 小椋, 小磯, 小木曽 2008$)^{22}$ の短単位に変更し, 解析器には MeCabを利用している. UniDic 品詞体系に変更した理由は, UniDic が普及し,UniDic に基づく言語資源が増えつつあるためである。また,UniDic では,語彙素・語形・書字形・発音形という 4 階層からなる階層的見出しを採用しており,表記ゆれの吸収のために有効だと考えたためである(5.4 節). 表 2 に,藤田他 (2014) の実験で,ランダムサンプリングによって選んだ評価デー夕(以下, Random)のサイズを掲載する ${ }^{23}$. 表 2 中の, FIRST はファーストブック, EHON はその他の絵本を示している。また, 表 2 には正解アノテーション済で学習に利用している絵本テキストのデータサイズも掲載している. 表 3 に,表 2 の評価デー夕 (Random) に対する本稿のモデルによる解析精度を示す. ここでは評価のため,学習デー夕に Random を含めずにモデルを構築している。また,参考までに, UniDic の MeCab 用配布モデル 24 による解析精度も掲載した。なお,品詞体系が異なるため一概には比較できないが, 藤田他 (2014) は, Random に対する精度は, 単語区切り $98.3 \%$, 品詞大分類 $94.7 \%$, 品詞完全一致 $91.1 \%$, と報告しており, 精度はより向上している. このように,ひらがなの多い絵本に対しても,既に高い精度を達成しているが,形態素解析はすべての後続処理に影響する重要な処理であるため,今後のさらなる精度向上を目指してより詳細な分析を行う,具体的には,正解アノテーション済みのデータを分析することで,どのような語が絵本で出現し,未知語として辞書に追加されたかを分析する。 表 2 アノテーション済み絵本データのサイズ  表 3 形態素解析精度 表 4 正解アノテーション済み絵本データ中の出現形態素の内訳 まず,表 4 に,正解アノテーション済みのデータにおける,UniDic の配布辞書と,本システム用に追加したエントリの出現傾向を示す。表 4 から,出現形態素の異なりのうち, $78 \%$ が UniDic の配布辞書でカバーされていることが分かる.残りのエントリは,元の UniDic では未知語となるエントリであり, Lexeed 等他の既存辞書から UniDic 形式に変更して追加したエントリ $(5.9 \%)$ と, その他の追加エントリ $(16.1 \%)$ に分けて表示した. さらにその他の追加エントリの中でも,UniDic にあるエントリの表記ゆれと捉えられるエントリと, Lexeed 等のエントリの表記ゆれと捉えられるエントリ,いずれにも一致しないエントリとに分けて内訳を示した。 ここで,表記ゆれとは,語彙素は一致するが,書字形出現形等が異なるエントリである.表 4 から,追加されたエントリのうち,約 $1 / 3$ は, UniDic や Lexeed などの既存辞書に存在するエントリの表記ゆれだが,約 $2 / 3$ は,表記ゆれではない事が分かる. 笹野,黒橋,奥村 (2014) は Web データを解析した時に出現する未知語をタイプ分類しており, 大きく「既知形態素からの派生」と「既知形態素からの派生以外」に分けている。同様に, 表 4 の「その他の追加エントリ」のうち, UniDic や Lexeed の表記ゆれは「既知形態素からの派生」であり,それ以外は「既知形態素からの派生以外」と捉えられる。これらのエントリの品詞大分類の内訳と例を表 5 に示す。表 5 の例からわかるように, 既知形態素からの派生では,小書き文字(「あ」など)や長音記号(「〜」「一」など)の挿入,置換による表記ゆれが多く見られる。笹野他 (2014) はこうした表記ゆれとオノマトペが未知語の約 4 割を占めると報告している。本稿では絵本のテキストを対象としているが, 未知語の出現傾向は Webデータの場合と同様であることがわかる. 一方,追加された形態素エントリの約 $2 / 3$ は,既知形態素からの派生以外である。この中で,異なり数の多い品詞は順に,感動詞,副詞,固有名詞,名詞である,それ以外の品詞は合わせても $1 \%$ に満たず,ほとんどが方言たっった。 こうした未知語への対応方法として, のべ出現回数の最も多い固有名詞については, 項構造を考慮した発見方法 (笹野, 黒橋 2008) が有力だろう. また, 名詞には, 恐竜名を含む動植物名が多く含まれており,専門用語辞書からエントリを追加しておくことで対応可能だと考えられる. 感動詞や副詞は非常に生成的で, 繰り返しを含むオノマトぺ (笹野他 2014) 以外は網羅的なエントリ追加は難しく, Web データを対象に提案されている入力文の正規化 (斉藤, 貞光, 浅野, 松尾 2015 ; 笹野他 2014) が絵本でも有効だと考えられる. これらの辞書や技術は, 今後導入を検討したい. 表 5 形態素解析用辞書に追加したエントリの品詞内訳 & 0 & $(0.0)$ & 0 & $(0.0)$ & \\ 品詞は大分類を利用たただし,固有名詞は,その他の名詞と別項目とした. ## 5.3 難易度推定方法 本節では, 読みやすさがぴったりな絵本を推薦するために用いられているテキストの難易度推定方法を紹介する. 絵本には, 出版社によって付与された対象年齢が記載されている場合もあるが, 記載されていない場合も多い,絵本データベース中の絵本では, 2,415 冊のうち, 対象年齢の記載がない絵本が 1,255 冊 $(51.9 \%)$ を占めた。また, 対象年齢の記載がある場合も,「3 歳から小学校初級むき」「乳児から」「4才から」「しゃべりはじめた小さな子どもにぴったり」のように表現が多様で幅広い. そのため, 出版社が付与している対象年齢だけでは, 子どもに読みやすさがぴったりな絵本を選ぶことは難しい. 一方で,難易度推定方法は,特に英語を対象とすると古くから研究されている (DuBay 2004; Benjamin 2012). しかしこれらのほとんどは, 一般向けか (佐藤 2011), 外国人学習者向けか (Petersen and Ostendorf 2009; 李 2011), 小学生以上向け (Tanaka-Ishii, Tezuka, and Terada 2010;柴崎, 玉岡 2010)であり, 幼背向けテキストを対象とする研究はほとんど行われていなかった. そこで,我々は幼児向けテキスト(絵本)を対象とした難易度推定方法を提案した (藤田,小林, 南, 杉山 2015b). 絵本の場合, 学童以上を対象とする場合とは異なり, 教科書のように明確な規準として利用できるコーパスがないという問題点があった。また,日本語での難易度推定では通常大きな手がかりとなる漢字がほとんど出現せず,かつ, 非常に少ない文字数から推定しければならないという難しさがあった. そこで, 藤田他 $(2015 b)$ は, 対象年齢が出版社によって $0 \cdot 1 \cdot 2$ 才児向け, 3 才児向け, 4 才児向け, 5 才児向けと, 比較的細かく付与されている 123 冊を規準データとして利用し, 対象年齢ごとの語の出現頻度を考慮して重み付けした言語モデルを構築し, 各言語モデルとの近さや平均文節数などを特徴量として利用することで, $87.8 \%$ の精度で対象年齢を推定できることを示した。また,教科書を規準コーパスとする評価実験も行い,提案手法が絵本以外のコー パスに対しても高精度であることを示した (藤田, 藤野, 小林 $2015 \mathrm{a}$ ). 藤田らの提案手法 (藤田他 2015a, 2015b) ではランキング学習を行っており,すべての絵本を難しさによってランキングすることが可能である。また, 閥値を設定することで,対象年齢に分けることも可能である. 藤田他 $(2015 b)$ は, 提案手法の評価のため, 出版社によって付与されていた対象年齢を正解として $0 \cdot 1 \cdot 2$ 才児を一つのクラスとしてまとめているが,0才から 2 才の間も子どもの発達は著しい. より詳細に分けるため, 本システムでは, 子どもがおぼえた言葉とその習得時期を調査したデータベース (小林, 奥村, 南 2016) も利用し, 0 才, 1 才, 2 才を別クラスとして難易度推定モデルを再構築したものを利用している。つまり, 全ての絵本に対して難易度によるランキングを行い,さらに,閥値を設定して,0才から 6 才以上までの各年齢(7クラス)に分けている. 本難易度推定モデルの評価として, 子どものいる評価者 3 名 (うち 2 名は, 保育士, 幼稚園 教諭の資格と勤務経験がある)によって評価実験を行った。まず,「読んであげるなら何才向きか」という観点で 100 冊の本を対象年齢ごと( 0 才, 1 才, , , 6 才以上の 7 クラス)に分けてもらい,さらにそれらを易しい順にランキングしてもらった。つまり,100 冊を易しい順にランキングし,評価に利用した。 まず,評価者 3 名によって選ばれた対象年齢のクラスを比較した。 その結果, 完全に一致した本は 13 冊のみであり,2 名が一致した本は 62 冊, 全員が異なるクラスに分けた本は 25 冊だった.一方, 3 人の分けたクラスの差は平均 0.82 だった。つまり, クラスへの分類は人によって摇れやすく,完全に一致するクラスに分けられた絵本は多くないが,前後のクラスなど近いクラスに分けられていることが分かる. ここで,評価者間のスピアマンの順位相関係数 $\rho$ とケンドールの順位相関係数 $\tau$ を調査した.評価者を $w_{1}, w_{2}, w_{3}$ とすると, $\rho$ は $w_{1}$ と $w_{2}$ で $0.93, w_{1}$ と $w_{3}$ で $0.88, w_{2}$ と $w_{3}$ で 0.90 であり, $\tau$ は, $w_{1}$ と $w_{2}$ で $0.77, w_{1}$ と $w_{3}$ で $0.71, w_{2}$ と $w_{3}$ で 0.74 だった. また, 3 人のランキング結果のケンドールの一致度係数は 0.93 だった. これらから, 評価者間の順位相関は非常に高いことが分かる,つぎに,各評価者による結果と,本システムで利用している難易度推定結果 $(g)$ の相関を調査した. その結果, $\rho$ は, $g$ と $w_{1}$ で $0.88, g$ と $w_{2}$ で $0.85, g$ と $w_{3}$ で $0.79, \tau$ は, $g$ と $w_{1}$ で $0.70, g$ と $w_{2}$ で $0.66, g$ と $w_{3}$ で 0.60 だった ${ }^{25}$. 評価者間の相関係数よりは若干低いが,自動推定の結果と評価者間の相関係数も高いと言える。 このように高い精度での難易度推定を実現しているため,ぴたりえでは,テーマや内容の似ている絵本の中から子どもの年齢に合った絵本を探したり,より易しい本を探したり,子どものお気に入りの本と難易度(読みやすさ)が近い本を選ぶこともできる.特に,言語発達は子どもによって個人差が大きく,評価者間でも対象年齢のクラスへの分け方は完全一致しにくいなど,年齢で分けた場合には,子どもによっては読みやすさが合わない場合も考えられるが,お気に入りの本と近い難易度の本を選ぶことにより,ちょうどいい読みやすさの本を選ぶことができるという利点がある. ## 5.4 表記ゆれ吸収 本節では, ぴたりえで導入している表記ゆれへの対応方法について紹介する. 日本語には様々な文字種が存在するため, 同じ語でも, ひらがな, カタカナ, 漢字, これらの混合など,様々な表記方法が存在する(例えば,おおかみ,オオカミ,狼など)。しかし例えば,「オオカミ」で検索したとしても,ユーザーは,「おおかみ」「狼」「オオカミ」のいずれの表記で出てくる話であっても検索結果に含まれてほしいだろう. UniDic で定義している「語彙素」とは, 出現形の変異や表記のゆれを考慮せず, 同一とみな しうる語に対して同一の見出しを与えたものである (伝他 2008). そこで, Unidic 辞書で定義されている語彙素の読みと見出しを利用して表記ゆれを吸収する. 一方で,作者は意図をもってこれらの表記を使い分けていると考えられる.例えば,「狼」は絵本ではほとんど出現しないが,「おおかみ」は赤ちゃん向けの絵本でも出現している。こうした表記ゆれだけでなく,接尾辞等によっても変化がつけられる。例えば,「おおかみさん」なのか「おおかみどん」なのかによって,与えられる印象は異なるたろう。 そこで表記ゆれを吸収しつつ,元の表記の重みを大きくする方法を考案,導入した,まず,接頭辞や接尾辞, 名詞連続を含めた名詞句をひと塊として重み 1 を与える。その上で, その名詞句から得られる表記ゆれ候補やその組み合わせを,形態素解析結果から抽出する。これらが $m$個得られたとすると,各重みを $1 / m$ として,特徴量として利用する。 例えば,「おおかみさん」の場合,「おおかみ(名詞)」と「さん(接尾辞)」から成る。ここで,語彙素の読みとして「オオカミ」「サン」, 語彙素の見出しとして「狼」「さん」, 書字形 (あるいは出現形)として「おおかみ」「さん」が得られる。これらを用いて,まず,元々の表記を接尾辞ごと取り出し(「おおかみさん」),重み 1 を付与する。 さらにそれ以外の表記ゆれとして,「才オカミサン」「狼さん」「狼」「オオカミ」「おおかみ」の 5 通りを抽出し, それぞれ, $1 / 5=0.2$ を重みとして付与し, 特徴量として利用する。これにより,「狼」や「オオカミ」などの表記ゆれを吸収しつつ,元の表記である「おおかみさん」に最も重みをおいた探索を実現している。 なお,接頭辞と接尾辞を含め,最も表記にバリエーションのある名詞句は,「名詞,普通名詞,一般,*,カア,母」を含むもので, 28 通り出現している ${ }^{26}$. ## 5.5 テーマ分類と検索語の拡張 ぴたりえでは,「はみがき」や「トイレ」などの「しつけ」や,「むし」や「きょうりゅう」などの「好きなもの」,「クリスマス」や「お誕生日」などの「イベント」など,よくある検索テー マをあらかじめ設定しておくことで,目的に応じた検索を行いやすくしている.事前に設定されたテーマ以外に,ユーザー自身でテーマを登録することも可能である. 図 3 に,テーマ「むし」で検索し,難易度が「易しい順」に並び替えた結果を示す。 一般に,こうしたテーマへの本の分類は人手で行われることが多いが,ぴたりえでは自動的に行っている。新規テーマを登録するときに必要なのは,テーマに関連するキーワードや文を入力することである。そうして入力されたキーワードや文を言語処理部分に渡し,類似探索を実行することで,テーマに関連する本を自動的に推定している.  図 3 テーマ「むし」で検索し,「易しい順」にソートした結果(図中の絵本の書誌情報は付録を参照) また,ここで,キーワード等を概念辞書によって拡張することもできる (服部,藤田,青山 2015). 例えば,「花」という語が出てきている絵本だけではなく,「ひまわり」や「あさがお」 など, 他の花もキーワードとして扱いたい場合に有効である。拡張には, 日本語語彙大系 (池原, 宮崎, 白井, 横尾, 中岩, 小倉, 大山, 林 1997)の意味クラスを利用しており, 同じ意味クラスや近い意味クラスに含まれる語を検索語に含めることで拡張している. ただし,表記ゆれを吸収する場合(5.4 節)とは違い,意味クラスで検索語を拡張したいかどうかはケースバイケースである。例えば,「ハロウィン」のテーマのために「かぼちゃ」をキー ワードとして入力した場合, 他の野菜を検索語に含めてはいけないだろう。そのため, 現在は,検索語を拡張するかどうかはユーザーが選択するようにしている. ## 6 システム評価 形態素解析(5.2 節)や,難易度推定(5.3 節)については,個々の技術の評価を各節で紹介してきた。本節では,アンケートによるシステムのユーザー評価の結果を示す. ## 6.1 評価手順 評価者は小学 2 年生までの子どもを持つ成人である ${ }^{27}$. 成人を評価者としたのは,ぴたりえ  による絵本選びは 0 才から対象としているが, 小さな子どもには入力インタフェースが利用できないからである。 評価手順は次の通りである。 (1)ぴたりえを利用し,絵本を選んでいただく(利用方法の説明はしない). (2)選んた絵本を借りていただく。 (3)借りた絵本を,一回以上読み聞かせるか,子ども自身に読んでいただ。 (4) 配布したアンケートにお答えいただく. アンケートは 2 枚 (A 面, B面)あり, A 面には絵本選び全般についての質問とぴたりえの全体的な評価を, B面には選んだ絵本と子どもの組み合わせごとの評価を記入する。そのため, $\mathrm{A}$面は 1 人 1 枚だが, B 面は子どもの人数や借りた絵本の数によって複数枚記入していたたいた. ## 6.2 評価結果 評価参加者は成人 16 名であり, 子ども 20 名分の回答があった. 子どもと絵本との組み合わせ数は 52 通りあった。つまり,アンケートの $\mathrm{A}$ 面は 16 枚,B面は 52 枚の回答が得られた。 なお, 子どもの年齢は, 11 ヶ月から 8 才 0 ヶ月(小 2 )までの全年齢に分布していた. ## 6.2.1 絵本選び全般についての調査結果 「Q1. 普段お子様にどのように絵本を選んでいますか?」という質問(複数回答可)には, 15 人 $(93.8 \%)$ が「書店や図書館などで絵本を手に取りながら」を選んでおり,次に多かった「インターネットの検索エンジンで」の 6 人 $(37.5 \%)$ を大きく引き離した. 大多数の方が, 絵本を選ぶときには実際に手に取って選んでいることが分かる. また,「Q2. 絵本を選ぶ時に困ったことがありますか?」という質問に「ある」と答えた方は, 16 人中 14 人 $(87.5 \%)$ を占めた. その理由を複数回答で答えてもらった結果(表 6 ), 絵本を選ぶとき,「子どもがちょうど読めるむずかしさの絵本」や「子どもの興味を引く内容の絵本」を選ぶのが難しい,あるいは,大変たと答えた方が過半数を占めた。この結果からも,内容と読みやすさが子どもにぴったりな絵本をみつけるシステムの需要は高いと考えられる. 表 6 質問「Q3. 絵本選びでどのようなことに困りましたか?」に対する回答 ## 6.2.2 ぴたりえの全体的な評価 ぴたりえの全体評価として,普段の絵本の選び方と比較して,「簡単かどうか」「読みやすさ」 や「内容」がぴったりの絵本を選ぶのに良いかどうかを評価してもらった(表 7, Q4)。表 7 はいずれも 5 段階評価で, 数値が高い方が評価が高い. いずれの項目も評価は高かったが, 「簡単さ」(平均 4.25) と「読みやすさ」(平均 4.13) は特に評価が高かった.「内容」に関しても平均値は 3.88 であり, 平均的な評価は高いが, 他の項目にくらべて低めの点数をつけた方が多かった. 中身やあらすじが見たいとの自由記述も多く, 出現する語による類似探索だけではストー リーがわからないため, 他項目よりも低い得点になったのだと考えられる. また,「Q5. 今後もぴたりえを利用したいと思いますか?」という質問には,平均 4.31 という高い評価が得られた(表 7, Q5)。「どちらとも言えない」を選んだ 4 名の内, 2 名は自由記述によって「図書館ではなく, 本の購入時なら利用したい」「親が選ぶにはよいかもしれないが, やはり子供に現物を見せて時間をかけて選げせるのがいいと思う」と記載しており,システムとして評価が低いというより, 絵本選びに対する考え方から低くなったと考えられる。 表 7 アンケート評価の結果(5 段階評価) & 6 & 6 & 4 & 0 & 0 & 4.13 \\ 5: ぴたりえのほうがとても良い,3: どちらともいえない,1:普段の万がとても良い,等 ## 6.2.3子どもと絵本の組み合わせごとの評価 本節では子どもと選んだ絵本の組み合わせごとの評価結果(アンケート B 面)を紹介する。 52 枚, 1 人平均 2.6 冊分の回答が得られた. 表 7 の下部に, 5 段階評価の結果を示す. まず,「Q7. どのような絵本を探したいか決まっていましたか?」という質問には, 21 枚 (40.4\%) で「決まっていた」が選択されていた.決まっていた場合「Q8. どのような絵本を探したいと考えていましたか?」という質問には, 「もうすぐ夏休みなので夏らしい本がいいと考えていました」「子どもが好きな, 虫が出てくる絵本が良いと考えていました」「『ぞうさん』と言えるようになったので,ぞうの出てくる簡単な絵本を探しました」などの記述が見られた. 表 7 の Q9は,このように探したい絵本が決まっていた場合に目的通りの絵本が探せたかどうかについての評価である. 平均 4.62 と評価が高く, 多くの方が目的通りの本を探せたことを示している. 表 7 の Q10と Q11は「読みやすさ」, Q12と Q13 は内容」がぴったりだったと思うかどうかの質問であり,Q10と Q12は,親がぴったりの絵本を選べたと考えたかどうか, Q11と Q13は,子どもの反応を見た結果どうだったかについての評価である。いずれの項目も平均値が $4.44 \sim$ 4.54 の間であり, 評価が高かった。つまり, 多くの場合, ぴたりえによって「読みやすさ」と 「内容」がぴったりの絵本を選ぶことが出来たと考えられる,Q11,13の平均値は, Q10と Q12 の平均値より, それぞれ 0.8 ずつ高いが, $\mathrm{t}$ 検定で有意差はなかった. 個々のアンケート結果でも, Q11,13より Q10, Q12の方が評価が高い場合も, 逆の場合もあった. Q10では 1 枚だけ評価値 1 がつけられていたが,自由記述のコメントで,「年齢の制限を 2 才から 5 才としたせいか, 非常に文字数の多い小学校低から中学年向きと思える本が出ました」 との記載があり,選ぶ時に年齢の制限をあまりかけなかったことが伺える。しかも,借りられていた絵本は本システムで 6 才以上向けと推定されている絵本だったため, 実際には 5 才までという制限もかけられていなかったと考えられる。評価者は 2 才の子ども用の本を選ぼうとしているため, 年齢制限をより細かく設定したり,今ちょうど読める本を規準にして,読みやすさが近い本を選ぶようにすれば,このような問題は起こらなかった可能性がある.本評価実験では,使い方の説明を全くせずに利用してもらったが,簡単な利用説明を用意するか,インター フェースの工夫により改善できると考えられる. また, 5.1 節で述べたように, ぴたりえでは様々な理由で似ている絵本を提示するため, 書誌情報の一致だけでは見つけられない絵本との新しい出会いを提供できる。実際,「Q14. この絵本は,ぴたりえを利用しなければ手に取らなかった(出会わなかった)と思いますか?」という質問には,「そう思う」が 26 冊 (50.0\%) あり,「そう思わない」の 19 冊 (36.5\%)を引き離した.これにより,ぴたりえによって新しい本との出会いを提供できたことが示せた. 自由記述でも,「自分では選ばない種類の絵本でしたが,子供は興味深々で見ていました」「キー ワードと年齢を入力するだけで,ぴったりの絵本が見つかりました.店頭で探すと,つい大人 目線で選びがちですが,子供の目線で探すことができました」「絵の簡単さや出てくるキャラクター(動物)の種類などがほぼ狙い通りの本が見つかったのがとても便利たった」など好意的な意見が多かった。 ## 6.2.4 今後の課題 アンケート(A 面)では,ぴたりえに追加して欲しい機能についても調査した(表 8)。選択肢の中でもっとも多く選ばれた項目は,「絵の印象(可愛い,迫力がある等)で検索」であり,半数の方が選んでいる. 現在, こうした機能を実現するための研究に取り組んでおり (藤田,木村,服部,小林,奥村 2016),精度向上とぴたりえへの導入に努めたい. 次に多く選ばれた項目は,「読み聞かせにかかる時間で検索」だった。これは, 絵本中の文字数などから比較的容易に推定できると考えられるため,今後ぴたりえに導入したい. 3 番目に多かった「ストーリー展開(ハッピーエンドかどうか等)で検索」は,ストーリー 展開をどのように定式化し推定するかという問題があるが,よりぴったりな内容の本を選ぶためにも重要だと考えられるため,今後取り組んでいきたいと考えている。 また,「その他」には,「中身が見たい」「せめてあらすじが見たい」という記入が多かった.著作権の関係上,検索システムから中身をそのまま見せることはできないが,今後はあらすじ (要約)の表示も検討したい. 最後に, 2 章で紹介したように,多くの購買サイトではユーザーレビューなどのデー夕を収集, 利用している。テキストの難易度によらず様々な年齢層の子どもに受け入れられる本も多いことから,実際に何才の子ども達に読まれているかといったデータやレビューは, ユーザー にとって非常に参考になると考えられる。こうしたユーザー由来のデータとぴたりえで実現している技術や機能は決して相反するものではなく,併用したり,目的に応じて使い分けることで, よりユーザビリティの高いシステムにできると考えられるため, 今後の検討課題としたい. 表 8 質問「Q6.ぴたりえに追加して欲しい機能はありますか?」に対する回答 ## 7 まとめ 絵本を読むことは,子どもにとって,言語発達と情操教育の両面での効果が期待できる。しかし, 難しさも内容も様々な絵本がある中で, 子ども 1 人 1 人にとってぴったりな絵本を選ぶのは容易なことではない,そこで,我々は,子どもに「読みやすさ」と「内容」がぴったりの絵本を見つけるための絵本検索システム「ぴたりえ」を開発している. ぴたりえでは,まず,内容がぴったりな絵本を見つけるために,グラフ索引型類似探索(5.1 節)を導入している,類似探索では,厳密に一致する本を検索するだけでなく,検索元の本や自由入力を検索キーとして, 出てくる内容語や書誌情報等ができるだけ近い絵本を複数提示する. 様々な要因で近いと考えられる本を提示することで, お気に入りの本や興味のある事から,無理なく次の一冊を手にとっていただけるのではないかと考えている. 次に,読みやすさがぴったりな絵本を見つけるために,絵本テキストの難易度推定(5.3 節) を行っている,絵本を難易度順にランキングすることで,その子にちょうどいい読みやすさの本を見つけられると考えている. また, これら 2 つのぴったりを高精度に実現し, ユーザビリティを向上するために, 絵本用のひらがなに強い形態素解析 (5.2 節) や, 表記ゆれの吸収処理 (5.4 節), 必要に応じて概念辞書による検索語の拡張(5.5 節)等を行っている. 我々は, これらの各技術によって, これまでにない絵本の検索システムを実現した。 ユーザー アンケート (6 章) でも, ぴたりえを利用して選んた絵本の読みやすさや内容が子どもにぴったりだったと思うかという 5 段階評価で,平均 4.44~4.54 と高い評価が得られた(表 7 ). 今後は, 図書館における実証実験 28 での司書と利用者からのフィードバックの収集 (郷原, 米満, 中, 佐々木, 大竹, 奥村, 服部, 藤田, 山田, 小林 2016 ; 佐々木, 郷原, 大竹, 米満, 中,奥村, 渡邊, 藤田, 服部, 山田, 小林 2016 ; 大竹, 郷原, 中, 米満, 佐々木, 奥村, 渡邊, 藤田, 服部, 山田, 小林 2017) や, 保育現場での有効性の検証 (藤本, 齋藤, 奥村, 服部, 藤田,渡邊, 小林 2017), 言語発達に対する効果の検証を進めると共に, 各要素技術のさらなる精度向上と, 要望の多い機能の実現 (安尾, 服部, 藤田, 松下 2017) に取り組みたい.  ## 参考文献 浅原正幸, 加藤祥 (2015). 文書間距離尺度の特性. 第 7 回コーパス日本語学ワークショップ予稿集, pp. 45-54. Benjamin, R. G. (2012). "Reconstructing Readability: Recent Developments and Recommendations in the Analysis of Text Difficulty." Educational Psycholgy Review, 24, pp. 63-88. Published online: 4 October 2011. Debaryshe, B. D. (1993). "Joint Picture-book Reading Correlates of Early Oral Language Skill." Journal of Child Language, 20 (2), pp. 455-461. 伝康晴,山田篤,小椋秀樹,小磯花絵,小木曽智信 (2008). UniDic version 1.3.9 ユーザーズマニュアル. http://www.gavo.t.u-tokyo.ac.jp/〜 mine/japanese/nlp+slp/UNIDIC_manual.pdf. DuBay, W. H. (2004). The Principles of Readability. Impact Information. http://www.impactinformation.com/impactinfo/readability02.pdf. 藤本有香,齋藤慈子,奥村優子,服部正嗣,藤田早苗,渡邊直美,小林哲生 (2017). 絵本検索システム「ぴたりえ」の保育現場での有効性一学生を対象にした検討一.ヒューマンコミュニケーション基礎研究会 (HCS), pp. 115-120. 藤田早苗,藤野昭典,小林哲生 (2015a). 教科書を規準とする難易度推定. 第 29 回人工知能学会全国大会 (JSAI-2015). 2N3-5. 藤田早苗,木村昭悟,服部正嗣,小林哲生,奥村優子 (2016). 絵本のレビュー解析と画像特徵量による直感に沿った画像評価. 言語処理学会第 22 回年次大会発表論文集 (NLP-2016), pp. $745-748$. 藤田早苗,小林哲生,南泰浩,杉山弘晃 $(2015 b)$. 幼児を対象としたテキストの対象年齢推定方法. 認知科学, 22 (4), pp. 604-620. 藤田早苗,平博順,小林哲生,田中貴秋 (2014). 絵本のテキストを対象とした形態素解析. 自然言語処理, 21 (3), pp. 515-539. 古見文一, 小山内秀和, 大場有希子 (2014). 他児の知識状態や自己の役割が幼览の発話の変化 に及ぼす影響:絵本の読み聞かせ場面を用いて. 発達心理学研究, 25 (3), pp. 313-322. 郷原皓彦,米満文哉,中響子,佐々木恭志郎,大竹裕香,奥村優子,服部正嗣,藤田早苗,山 田祐樹,小林哲生 (2016). こどもの興味にぴったりな絵本検索システム「ぴたりえ」を用いた福岡市東図書館での試み. 第 18 回図書館総合展, 掲示番号 49. 服部正嗣, 青山一生 (2013). グラフ索引を用いた絵本の類似探索〜特徴の融合と結果のグラフ 可視化〜. 情報処理学会研究会第 10 回ネットワーク生態学シンポジウム, P4. 服部正嗣, 藤田早苗, 青山一生 (2015). テキストから得られる複数特徴量を融合する絵本類似探索法. 第 29 回人工知能学会全国大会 (JSAI-2015). 2E4-NFC-01b-5. 池原悟, 宮崎雅弘, 白井諭, 横尾昭男, 中岩浩巳, 小倉健太郎, 大山芳史, 林良彦 (1997). 日本語語彙大系. 岩波書店. Karrass, J. and Braungart-Rieker, J. M. (2005). "Effects of Shared Parent-Infant Book Reading on Early Language Acquisition." Journal of Applied Developmental Psychology, 26 (2), pp. 133-148. Karrass, J., VanDeventer, M. C., and Braungart-Rieker, J. M. (2003). "Predicting Shared ParentChild Book Reading in Infancy." Journal of Family Psychology, 17 (1), p. 134. 笠原要, 佐藤浩史, FrancisBond, 田中貴秋, 藤田早苗, 金杉友子, 天野昭成 (2004).「基本語意味データベース:Lexeed」の構築. 情報処理学会自然言語処理研究会 (2004-NLC-159), pp. $75-82$. 小林哲生, 奥村優子, 南泰浩 (2016). 語彙チェックリストアプリによる幼背語彙発達データ収集の試み. 電子情報通信学会技術研究報告, 115 (418), pp. 1-6. (HCS2015-59). Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Lin, D. and Wu, D. (Eds.), Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing: EMNLP-2004, pp. 230-237, Barcelona, Spain. Association for Computational Linguistics. 京都大学黒橋・河原研究室 (2012). 日本語形態素解析システム JUMAN version 7.0 使用説明書.李在鎬 (2011). 大規模テストの読解問題作成過程へのコーパス利用の可能性. 日本語教育学会論文誌, 148, pp. 84-98. 松本裕治, 高岡一馬, 浅原正幸 (2008). 形態素解析システム『茶筌』version 2.4.4 使用説明書. Mol, S. E., Bus, A. G., de Jong, M. T., and Smeets, D. J. H. (2008). "Added Value of Dialogic Parent-Child Book Readings: A Meta-Analysis." Early Education and Development, 19 (1), pp. $7-26$. 森信介, 中田陽介, Graham Neubig, 河原達也 (2011). 点予測による形態素解析. 自然言語処理, 18 (4), pp. 367-381. Okumura, Y., Kobayashi, T., Fujita, S., and Hattori, T. (2016). "Why is Shared Book Reading Effective for Children's Theory of Mind Development?: Frequency Analysis of Cognitive Mental State Terms in Japanese Picture Books." In International Conference on Language Acquisition, ID1-18. 大竹裕香, 郷原皓彦, 中響子, 米満文哉, 佐々木恭志郎, 奥村優子, 渡邊直美, 藤田早苗, 服部正嗣,山田祐樹,小林哲生 (2017). 絵本検索システム「ぴたりえ」を用いた絵本探し支援の効果. ヒューマンコミュニケーション基礎研究会 (HCS), pp. 109-114. Payne, A. C., Whitehurst, G. J., and Angell, A. L. (1994). "The Role of Home Literacy Environment in the Development of Language Ability in Preschool Children from Low-Income Families." Early Childhood Research Quarterly, 9 (3), pp. 427-440. Petersen, S. E. and Ostendorf, M. (2009). "A Machine Learning Approach to Reading Level Assessment." Computer Speech $\mathcal{E}$ Language, 23 (1), pp. 89-106. Reese, E. and Cox, A. (1999). "Quality of Adult Book Reading Affects Children's Emergent Literacy." Developmental Psychology, 35 (1), pp. 20-28. 斉藤いつみ, 貞光九月, 浅野久子, 松尾義博 (2015). 崩れ表記語の生成確率を用いた表記正規 化と形態素解析. 言語処理学会第 21 回年次大会発表論文集, pp. 51-54. 佐々木恭志郎, 郷原皓彦, 大竹裕香, 米満文哉, 中響子, 奥村優子, 渡邊直美, 藤田早苗, 服 部正嗣,山田祐樹,小林哲生 (2016). 絵本検索システムを用いた図書館での母親の絵本探し支援の試み. 九州心理学会第 71 回大会, 掲示番号 48. 笹野遼平, 黒橋禎夫 (2008). 大域的情報を用いた日本語固有表現認識. 情報処理学会論文誌, 49 (11), pp. 3765-3776. 笹野遼平, 黒橋禎夫, 奥村学 (2014). 日本語形態素解析における未知語処理の一手法一既知語 から派生した表記と未知オノマトぺの処理一. 自然言語処理, 21 (6), pp. 1183-1205. 佐藤鮎美,堀川悦夫,内山伊知郎 (2016). 母子の絵本遊びが子どもの心の理論および共感性発 達に及ぼす効果 : 縦断的研究から. 電子情報通信学会技術研究報告, 115 (418), pp. 25-30. (HCS2015-63). 佐藤理史 (2011). 均衡コーパスを規範とするテキスト難易度測定. 情報処理学会論文誌, 52 (4), pp. 1777-1789. 柴崎秀子, 玉岡賀津雄 (2010). 国語科教科書を基にした小・中学校の文章難易度学年判定式の 構築. 日本教育工学会論文誌, 33 (4), pp. 449-458. Sulzby, E. (1985). "Children's Emergent Reading of Favorite Storybooks: A Developmental Study." Reading Research Quarterly, 20 (4), pp. 458-481. Tanaka-Ishii, K., Tezuka, S., and Terada, H. (2010). "Sorting Texts by Readability." Association for Computational Linguistics, 36 (2), pp. 203-227. Tomasello, M. and Farrar, M. J. (1986). "Joint Attention and Early Language." Child Development, 57 (6), pp. 1454-1463. 渡辺敦司 (2010). 2011 年度小学校教科書採択状況文科省まとめ. 内外教育, 6045, pp. 10-11. Whitehurst, G. J., Falco, F. L., Lonigan, C. J., Fischel, J. E., DeBaryshe, B. D., Valdez-Menchaca, M. C., and Caulfield, M. (1988). "Accelerating Language Development through Picture Book Reading." Developmental Psychology, 24 (4), pp. 552-559. 安尾萌, 服部正嗣, 藤田早苗, 松下光範 (2017). 物語の類型に着目した絵本の類似探索手法に関する一検討. ヒューマンコミュニケーション基礎研究会 (HCS), pp. 103-108. ## 付録 図中の絵本は以下の通りである。 図 2 の 1 段目左から: -「はらぺこあおむし」(エリック・カールさく/もりひさしやく, 1976, 偕成社) -「たんじょうびのふしぎなてがみ」(エリック・カールさく・え/もりひさしやく, 1978, 偕成社) - 「ありのぎょうれつ」(さく得田之久, 1975, 童心社) $\cdot$「月ようびはなにたべる?(エリック・カールさく/もりひさしやく, 1994, 偕成社) - 「パパ、お月さまとって!」(エリック・カールさく/もりひさしやく, 1986, 偕成社) - 「くまさんくまさんなにみてるの?」(エリック・カールえ/ビル・マーチンぶん, 1984, 偕成社) - 「ごきげんななめのてんとうむし改訂大型版」(エリック・カールさく/もりひさしやく, 1998,偕成社) 図 2 の 2 段目左から: -「どこミニたべものどこ?」(山形明美, 2007, 講談社) - 「1ねん 1 くみ 1 ばんワル」(後藤竜二作長谷川知子絵, 1984 , ポプラ社) - 「むし」(監修須田孫七, 2000, 学研マーケティング) - 「おとしぶみ」(文:岡島秀治絵:吉谷昭憲, 1987 , 福音館書店) - 「おさかなちゃんのばいば〜い」(ヒド・ファン・ヘネヒテン古藤ゆず, 2014 , 学研教育出版) $\cdot$「だるまさんと」(かがくいひろし/さく, 2009, ブロンズ新社) $\cdot$「どこミニどうぶつどこ?」(山形明美, 2007, 講談社) 図 3 の 1段目左から: -「てんてんてん」(わかやましずこさく, 1996, 福音館書店) ・「てんとうむしくん」(ジョー・ガーデン, 2013, 主婦の友社) - 「きいろいのはちょうちょ」(五味太郎作・絵, 1983, 偕成社) -「2さいまるごとひゃっか」(作・絵のぶみ, 2006, ひかりのくに) - 「かわいいてんとうむし」(メラニー・ガースローラ・ハリスカ・ベイスきたむらまさお,2001,大日本絵画) ・「のぞいてごらん」(accototo ふくだとしお+あきこ, 2009,イースト・プレス) -「ねえ、しってる?」(accototo ふくだとしお十あきこ, 2010, 幻冬舎) 図 3 の 2 段目左から: - 「ごきげんななめのてんとうむし改訂大型版」(エリック・カールさく/もりひさしやく, 1998,偕成社) -「いもむしれっしゃ」(にしはらみのり, 2007, PHP 研究所) $\cdot$「どこミニどうぶつどこ?」(山形明美, 2007, 講談社) -「はらぺこあおむし」(エリック・カールさく/もりひさしやく, 1976, 偕成社) - 「ありのぎょうれつ」(さく得田之久, 1975, 童心社) - 「とべないほたる 1 ほたるたちのたんじょう」(小沢昭巳原作/関重信画, 2003, ハート出版) -「ぼく」(えとぶん井上洋介, 月刊予約絵本「こどものとも年中向き」通巻 275 号, 2009 , 福音館書店) ## 略歴 藤田早苗:1999 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 同年, NTT 日本電信電話(株)入社. 現在, NTT コミュニケーション科学基礎研究所主任研究員. 博士 (工学). 自然言語処理の研究に従事. 2013 年言語処理学会優秀論文賞受賞, 言語処理学会, 情報処理学会, 人工知能学会各会員。 服部正嗣:2004 年京都大学大学院情報学研究科修士課程修了. 現在, NTT コミュニケーション科学基礎研究所協創情報研究部研究員. 複合的メディアを対象とした類似探索の研究に従事. 情報処理学会, 人工知能学会各会員. 小林哲生 : 2004 年東京大学大学院総合文化研究科博士課程修了. 博士 (学術).現在, NTT コミュニケーション科学基礎研究所協創情報研究部主任研究員 (特別研究員).幼背の言語習得メカニズムの研究に従事. 言語処理学会第 15 回年次大会最優秀発表賞,第 18 回年次大会優秀賞受賞.日本心理学会,日本認知科学会, 日本教育心理学会各会員. 奥村優子:2014 年京都大学大学院文学研究科博士課程修了. 博士 (文学)。現在, NTT コミュニケーション科学基礎研究所協創情報研究部リサーチアソシエイト,乳幼览の社会的認知および言語発達の研究に従事。日本心理学会,日本発達心理学会, 日本赤ちゃん学会各会員. 青山一生:1988 年東京工業大学大学院総合理工学研究科修士課程修了. 現在, NTT コミュニケーション科学基礎研究所協創情報研究部主任研究員. アルゴリズムとデー夕構造の研究に従事. 応用物理学会, 電子情報通信学会, 情報処理学会, IEEE 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 対話行為に固有の特徴を考慮した自由対話システムにおける 対話行為推定 福岡 知隆 ${ }^{\dagger+\dagger} \cdot$ 白井 清昭 $^{\dagger}$ } 対話行為の自動推定は自由対話システムにおける重要な要素技術のひとつである.機械学習を用いた既存の対話行為の推定手法では, 機械学習に用いる特徵のセット を 1 つ設定するが,この際に個々の対話行為の特質は十分に考慮されていなかった.機械学習の特徴の中にはある特定の対話行為の分類にしか有効に働かないものもあ り,そのような特徴は他の対話行為の分類精度を低下させる要因になりうる。これ に対し, 本論文では対話行為毎に適切な特徴のセットを設定する。まず, 28 個の初期の特徴を提案する。次に,対話行為毎に初期特徴セットから有効でない特徴を削除することで最適な特徴セットを獲得する。これを基に,入力発話が対話行為に該当するかを判定する分類器を対話行為毎に学習する. 最後に, 個々の分類器の判定結果ならびに判定の信頼度から, 適切な対話行為をひとつ選択する。評価実験の結果, 提案手法は唯一の特徴セットを用いるべースラインと比べて $\mathrm{F}$ 值が有意に向上 したことを確認した. キーワード:自由対話, 対話システム, 対話行為, 機械学習, 特徵選択 ## Dialog Act Classification Using Features Intrinsic to Dialog Acts in an Open-Domain Conversation \author{ Tomotaka Fukuoka ${ }^{\dagger, \dagger \dagger}$ and Kiyoaki Shirai ${ }^{\dagger}$ } The classification of dialog acts of user's utterance is one of the important fundamental techniques in open-domain conversational systems. Most previous studies on the classification of dialog acts were based on supervised machine learning; however, the characteristics of individual dialog acts were not considered. Some features for machine learning may increase the accuracy of classification for a particular dialog act, whereas decrease the accuracy for other dialog acts. In this study, an appropriate feature set is defined for each dialog act to improve the performance of the classification of the dialog acts. First, 28 features are proposed as an initial set. Second, for each dialog act, an optimal set of the features is identified by removing ineffective features from the initial set. Third, binary classifiers that judge whether a dialog act is suitable for a given utterance are trained using the optimized feature set. Finally, one dialog act is chosen based on the results provided by the binary classifiers. The reliability of the judgment of the binary classifiers is also considered. Results of  experiments showed that our proposed method significantly outperformed a baseline that was trained using a single feature set. Key Words: Open Domain Conversation, Dialog System, Dialog Act, Machine Learning, Feature Selection ## 1 はじめに 近年, 対話の内容を特定のタスクに限定しない自由対話システムの研究が盛んに行われている (Libin and Libin 2004; Higashinaka, Imamura, Meguro, Miyazaki, Kobayashi, Sugiyama, Hirano, Makino, and Matsuo 2014). 対話システムの重要な要素技術の 1 つにユーザの発話の対話行為の自動推定がある。対話行為の推定は自由対話システムにおいて重要な役割を果たす. 例えば,対話行為が「質問」の発話に対しては知識べースから質問の回答を探して答えたり,映画の感想を述べているような「詳述」の発話に対しては意見を述べたり単にあいづちを返すなど,対話システムは相手の発話の対話行為に応じて適切な応答を返す必要がある. 対話行為の推定手法として機械学習を用いた手法が既に提案されている (Milajevs and Purver 2014; 磯村, 鳥海, 石井 2009; 関野, 井上 2010; Kim, Cavedon, and Baldwin 2010; 目黒, 東中,杉山, 南 2013). しかし, 機械学習に用いる特徵 ${ }^{1}$ を設定する際, 個々の対話行為の特質が十分に考慮されていないという問題点がある. 既存研究の多くは, 対話行為の自動推定を多值分類問題と捉え, 対話行為の分類に有効と思われる特徵のセットを 1 つ設定する. しかし, 機械学習の特徴の中には,ある特定の対話行為の分類にしか有効に働かないものもある. 例えば,ユー ザの発話の対話行為が(質問に対する)「応答」であるかを判定するためには,発話者が交替したかという特徴は重要だが,対話行為が「質問」であるかを判定するためには,相手の発話の後に質問することもあれば自身の発話に続けて質問することもあるので, 話者交替は重要な特徵とは考え難い. 本論文では,上記の問題に対し,対話行為毎に適切な特徴のセットを設定することで個々の対話行為の推定精度を改善し, それによって全体の対話行為推定の正解率を向上させる手法を提案する. ## 2 関連研究 対話を形成する上で, 話者の対話行為は対話の展開に強い影響を与えるだけでなく, 対人印象や対人関係にも影響を及ぼしている (西田 1992). 自由対話においては, 対話を継続するか否  かの判断はユーザに委ねられており,対話の内容のみならず,対話システムの不自然な応答や不快な発話は対話の破綻に繋がる。自由対話を継続するには,ユーザと対話システムが良好な関係を築く必要があり,そのためには,話者の対話行為を正確に推測し,それに応じて適切な応答を返さなければならない。 ## 2.1 対話行為の利用 対話システムにおける対話行為情報の利用目的として,ユーザ意図の理解,システムの応答文生成における条件,システムの対話制御などが挙げられる (Higashinaka et al. 2014; Inui, Ebe, Indurkhya, and Kotani 2001; 前田, 南, 堂坂 2011; Sugiyama, Meguro, Higashinaka, and Minami 2013). 例えば,ユーザの発話を分析し,対話行為にクラス分けすることは,ユーザの意図理解の 1 つとみなせる. ユーザが挨拶をしているか,何かを質問しているのかなどをシステムが理解することで,その後の対話の展開を決定する。南らは行動予測確率に基づく報酬を設定する部分観測マルコフ決定過程 (POMDP) を用いた対話制御手法において,対話行為列の tri-gram による行動予測確率を導入した手法を提案し, その有効性を確認した (南, 東中, 堂坂, 目黒,森, 前田 2012). また,発話からの情報抽出のためのフィルタリング条件としても対話行為の情報は用いられる. 平野らは,ユーザの発話からユーザ情報を抽出する手法を提案し,その手法では発話がユー ザ情報を含むか否かを対話行為に基づき判断している (平野, 小林, 東中, 牧野, 松尾 2016). ## 2.2 対話行為推定 教師あり機械学習に基づく対話行為の自動推定では,機械学習に用いる基本的な特徵として単語 n-gram が利用されることが多い. これに加えて独自の特徵も提案されている. 単語 uni-gram は語順を考慮していないため, Milajevs らは単語 bi-gramを特徴として用い, 単語 uni-gramのみよりもbi-gram を併用したときの方が高い精度が得られることを示した (Milajevs and Purver 2014). また, 対話の流れを考慮するために前の発話の対話行為を特徴として利用し, その効果を評価した. 磯村らは, 頻度 2 以上の単語 uni-gram と単語 bi-gram, 及び 1 前の発話の対話行為を特徴として, Conditinal Random Field (CRF) を用いて対話行為を推定し, $75.77 \%$ の推定精度を得たと報告している (磯村他 2009). 機械学習アルゴリズムとして Support Vector Machine (SVM) と Naive Bayes を用いた実験も行ったが, これらでは 1 つ前の発話の対話行為を特徴として利用しておらず,推定精度はそれぞれ $66.95 \%$ と $60.14 \%$ となり,CRFより劣る. 関野らは, 特徴として発話文字数, 内容語数, 発話順番を提案し, 磯村の手法 (磯村他 2009) の特徵にこれらを 1 つ以上追加したモデルを評価した (関野, 井上 2010). 全ての組み合わせにおいてその有効性が確認され,内容語数と発話順番を追加した場合が最も高い精度となった. Kim らは, bag-of-wordsに加え, 対話中の話者の役割などの構造的な情報と, 直前の発話 や同一話者によるこれまでの対話行為などといった対話の依存関係を機械学習の特徴として提案した (Kim et al. 2010)。ドメインが限られた対話を評価の対象としているが, $96.86 \%$ という高い推定精度が得られている。 目黒らは,多種多様な話題や語彙を含み,また非文法的な文が多いマイクロブログ中の発話に対する対話行為自動付与のため, シソーラスを用いて抽象化した単語 n-gram と文字 n-gram を特徴とする手法を提案した (目黒他 2013).評価実験の結果,Bag-of-Ngrams を特徴として用いたべースライン手法よりも高い精度を得た。 これらの先行研究では,機械学習のために用いる特徴のセットは 1 つであり, それで全ての対話行為を推定している。しかし,どの特徴がどの対話行為の推定に有効に働くかなど,特徴と対話行為の関係については議論されていない。本研究では,発話がある対話行為を持つか否かを推定する機械学習において,対話行為それぞれに対して有効な特徴を自動的に選択する. ## 3 提案手法 本節では,自由対話における発話を入力とし,その対話行為を推定する手法について述べる.対話行為の分類クラスをあらかじめ定義し, その中から適切な対話行為のクラスを 1 つ選択する. 従来手法の多くは教師あり機械学習に基づくが,学習のための特徴のセットはあらかじめ一律に定められている。しかし, 全ての特徴が全ての対話行為の分類に必要というわけではなく, ある特徴が特定の対話行為の分類に貢献しないことがある。そのような特徴は正解率を低下させる要因となりうる。この問題を解決するために,提案手法では,対話行為の分類クラス毎に異なる特徴のセットを設定する. 提案手法の処理の流れを図 1 に示す。対話行為毎に,入力発話がその対話行為に該当するか否かを判定する二値分類器を学習する。その際, 対話行為毎に最適な特徴のセットを実験的に決める。また, 分類と同時に判定の信頼度も算出する. 次に, 二値分類器による判定の結果, ならびに判定の信頼度を基に,入力発話の対話行為をひとつ選択する。本論文では,対話行為を選択するアルゴリズムとして, 3.5 項で述べる 4 つの手法を提案する. 本論文では, 各対話行為の二值分類器を L2 正則化ロジスティック回帰によって学習し, 学習ツールとして LIBLINEAR(Fan, Chang, Hsieh, Wang, and Lin 2008)を用いた. LIBLINEARの学習パラメタはデフォルト値を用いた。判定の信頼度は LIBLINEAR が出力する確率を用いた. ## 3.1 対話行為の定義 対話行為の定義としては SWBD-DAMSL(Jurafsky, Shriberg, and Biasca 1997) が著名だが, かなり詳細な対話行為が定義されており,また自由対話を対象としたものではない.自由対話を想定した対話行為のセット (Meguro, Minami, Higashinaka, and Dohsaka 2014) も提案されて 図 1 提案手法の流れ 表 1 対話行為の定義 はいるが,本研究では,今後構築を目指す自由対話システムの仕様を考慮して独自に定義した 9 つの対話行為のセットを用いる。その一覧を表 1 に示す. ## 3.2 機械学習に用いる特徵 人間同士の自由対話を人手で分析し,対話行為の言語的特徴を考慮して,対話行為の推定に有効と思われる 28 個の特徴を設定した. その一覧を表 2 に示す.これらは大きく 4 つのグルー プに分けられる. グループ $1 \quad f_{1} \sim f_{10}$ は, 発話の内容を表わし, 全ての対話行為の分類に有効と考えられる特徴である.現在の発話(対話行為を推定するべき入力発話)ならびにその直前の発話に含まれる 表 2 対話行為推定のための特徴 単語 n-gram, 自立語, 文末に出現する単語 n-gram ならびに付属語の列を特徴とする。 $f_{9}, f_{10}$ は, それぞれ現在の発話と前発話の単語 n-gram, 付属語列の組を表わす. 単語 n-gram を用いた特徴 $\left(f_{1}, f_{2}, f_{5}, f_{6}, f_{9}\right)$ では $n=1,2,3$ とした. グループ $2 f_{11} \sim f_{17}$ は,発話の内容を表わし,特定の対話行為の推定に有効に働くと考えられる特徵である. $f_{11} \sim f_{15}$ はそれぞれの対話行為の発話で頻出すると思われるキーワードである.これらのキーワードは訓練データを参照して人手で選定した. $f_{16}$ は要求の発話の文末によく見られる表現であり,文末が命令形の動詞,動詞基本形+「な」の否定の命令形,動詞連用 表わす. $f_{17}$ は,あいづちを示唆する文末表現「ね」が出現するかを表わす. グループ $\mathbf{3} f_{18} \sim f_{21}$ は,発話の内容以外の情報を表わし,全ての対話行為の分類に有効と考えられる特徴である. $f_{18}, f_{19}$ は,それぞれ相手もしくは話者自身の直近のいくつかの発話の対話行為の列である. 対話行為列の長さは実験的に定める.詳細は 3.3 .2 で述べる, $f_{20}$ は発話文中の文字数に基づく発話の長さである.発話長を機械学習の特徴として用いる場合, 長さを適当な間隔( $1 \sim 5,6 \sim 10,11$ 以上, など)に切って発話長を分類するのが一般的であるが, その適切な間隔を決めるのは難しい,本論文では,「発話長が $l \pm 2$ である」 $(3 \leq l \leq 19)$,「発話長が 20 以上である」といった特徴量で発話長を表現する。例えば,発話長が 10 の発話に対しては, $l=8,9,10,11,12$ の特徴量の重みを 1 とする. $f_{21}$ は現在と直前の発話の話者が同じかどうかを表わす。実験に用いた自由対話コーパスでは,同じ話者が 2 つ以上の発話を連続して発言することがあるため, この特徴を導入した. グループ $\mathbf{4} \quad f_{22} \sim f_{28}$ は,発話の内容以外の情報を表わし,特定の対話行為の推定に有効に働くと考えられる特徴である. $f_{22}$ の「自立語の有無」は自立語を含まなくても生成できる「応答 (YesNo)」,「あいづち」,「フィラー」とその他の対話行為の区別に有効であると考えられる. $f_{23}$ $\sim f_{25}$ における「自立語繰り返し」とは, 相手の前発話の自立語が現在の発話で繰り返し用いら れるかを表わす。単語を繰り返して聞き返す「確認」や,反復による「あいづち」の特徴を捉えられる。 $f_{23}$ は単純に自立語が繰り返されるか否かを考慮するが, より厳密に「確認」,「あいづち」を示唆する自立語の繰り返しを区別するため,繰り返される自立語が相手の前発話の文末に出現する場合を $f_{24}$, 発話で繰り返される自立語が現在の発話における唯一の自立語である場合を $f_{25}$ とする. $f_{26}, f_{27}$ はそれぞれ発話が自立語 1 語, 非自立語 1 語で構成されているかを表わす. 自立語 1 語で表現されることの多い対話行為としては「応答 (平叙)」や「あいづち」 がある. $f_{28}$ は同じ単語が発話の中で複数回使われているかを表わす。応答表現や「あいづち」 によく見られる繰り返しによる強調表現に対応するために導入した。 対話行為を推定する二值分類器を学習する際には,発話を特徴量のベクトルで表現する.特徵量ベクトルの重みは,その特徵量が発話に出現していれば 1 , それ以外は 0 とする. ## 3.3 特徴セットの最適化 ここでは, 個々の対話行為毎に, 対話行為推定のための特徵を最適化する手法について述べる. ## 3.3.1最適な特徴セットの決定 個々の対話行為に対し, 表 2 に示した特徴の中から, その対話行為の分類に有効でないものを削除することで,対話行為毎に最適な特徴のセットを決める,そのアルゴリズムを図 2 に示す. $E$ は全特徴の集合, $E^{\prime}$ は最適化された特徴の集合である。 $f(X)$ は, $X$ を特徴として学習した分類器の開発データにおける $\mathrm{F}$ 値 2 である. 特徴 $f_{i}$ を除いたときの $\mathrm{F}$ 値 $f\left(E \backslash\left.\{f_{i}\right.\}\right)$ が全特 図 2 特徴の選択アルゴリズム $ 值. } 徵を用いたときの $\mathrm{F}$ 値 $f(E)$ よりも低ければ, $f_{i}$ を有効な特徴とみなして $E^{\prime}$ に入れ,そうでなければ削除する。これを全ての特徴について行い,1つ以上の特徴が削除されたら,残された特徴を新たに全特徴の集合とみなして同様の操作を行う. たたしし, 個別に評価したときに有効でない特徴は $E^{\prime}$ に残されていないにも関わらず, 7 行目の段階で複数の特徴が削除された $E^{\prime} を$用いたときの $\mathrm{F}$ 值がもとの $E$ と比べて低くなることがある. そのときは, 特徴を削除することによって最も $\mathrm{F}$ 値が向上する(最も悪影響を与える)ものを 1 つ選択し,それのみを削除した特徴の集合を新たな $E$ とする (10 行目).これを特徴が削除されなくなるまで繰り返す. ## 3.3.2 対話行為列の長さの最適化 特徴 $f_{18}$ と $f_{19}$ は,「質問 $(\mathrm{YesNo}) 」$ の次には「応答 $(\mathrm{YesNo}) 」$ の発話が出現しやすいといったように,対話行為の並びを考慮するために導入した。しかし,直前だけでなく,2つ以前の発話からの対話の流れが対話行為の推定に有効である場合も考えられる. このとき,どれくらい前の発話を辿ればよいか, つまり過去の発話の対話行為列の長さをいくつに設定すればよいかは,分類対象とする対話行為によって異なると考えられる。 本研究では, 特徴 $f_{18}$ と $f_{19}$ をそれぞれ相手もしくは話者自身の過去の $N_{h}(=1,2,3,4,5)$ 個の発話の対話行為の列とし, $N_{h}$ の値を対話行為に応じて最適化する。 すなわち, 対話行為毎に,開発データでの $\mathrm{F}$ 值が最大となる $N_{h}$ を選択する。また, $N_{h}$ の値が大きいときには特徴量の数が増えるため, 特徴量の選択を行う. 具体的には, 特徴量と対話行為の相関の強さを $\chi^{2}$ 值で測り,それが間値 $T_{h}$ よりも小さい特徴量を削除する。 $T_{h}$ は $0,1,5,10$ のいずれかとし, $N_{h}$ と同様に開発データでの $\mathrm{F}$ 値が最大となる值を選択することで最適化する。 $N_{h}$ と $T_{h}$ の最適化は, 3.3.1で述べた最適な特徴セットを決定する前に行う.このとき, 特徴は $f_{1}$ (単語 n-gram) と $f_{18}$ もしくは $f_{19}$ のみを使用する ${ }^{3}$. ## 3.4 組み合わせ特徵量 本研究で使用する LIBLINEAR では特徴量間の相関関係は考慮されていない. しかし, 特徴量の組み合わせが対話行為の分類に特に有効に働く可能性がある. そのため,2つの特徴量を組み合わせた特徴量も使用する。以下,これを「組み合わせ特徴量」と呼ぶ.ただし,全ての特徴量を組み合わせると特徴量の数が増大するため, 図 2 のアルゴリズムにより得られたそれぞれの対話行為に最適な特徴セットの $\mathrm{F}$ 値と, その特徴セットから 1 つの特徴を除いた場合の $\mathrm{F}$ 值の差が最も大きい特徴を「最も有効な特徴」と定義し, 最も有効な特徴の特徴量とそれ以外の特徴量の組のみを組み合わせ特徴量として導入する. $ と $T_{h}$ の最適化を行う手法も試したが, 対話行為推定の $\mathrm{F}$ 値はわずかに低下した。 } ## 3.5 対話行為の選択 本項では, 個々の対話行為の二値分類器の出力結果から, 最も適切な対話行為を 1 つ選択する手法について述べる。 ## 3.5.1 判定の信頼度による選択 対話行為の二值分類器が出力する信頼度を比較し, それが最も高い対話行為を選択する。具体的には,式 (1) にしたがって最終的に選択する対話行為 $\hat{d}$ を決定する。 $r\left(d_{i}\right)$ は対話行為 $d_{i}$ の判定の信頼度を表わす。 $ \hat{d}=\arg \max _{d_{i}} r\left(d_{i}\right) $ ## 3.5.2 信頼度を特徵量とする機械学習による手法 9 つの対話行為の二值分類器の出力結果を特徴量とし, 対話行為を選択するモデルを機械学習する。当然だが,3.5.1 で述べた手法において,信頼度 1 位の対話行為が常に正解となるわけではない,ここでの狙いは,「対話行為 $d_{a}$ と $d_{b}$ について, $d_{a}$ の信頼度が 1 位であるが, $d_{a}$ と $d_{b}$ の信頼度の差がそれほど大きくないときは, $d_{b}$ が正解である可能性が高い」といった傾向を自動的に学習することにある。この手法では以下の特徵量を用いる. - 対話行為 $d_{i}$ の判定の信頼度. - 信頼度の順位が $n$ 位の対話行為の判定の信頼度. $(n=1,2,3)$ 上記の特徴量の重みは信頼度の値とする。後者の特徴量は, テキスト分類において, 他クラスの信頼度を考慮する有効性が高橋らにより報告されている (Takahashi, Takamura, and Okumura 2007) ことから設定した. 機械学習アルゴリズムとしてロジスティック回帰 (LIBLINEAR)を用いた. ## 3.5.3信頼度に対する重み付けに基づく手法 予備実験の結果, 「自己開示」以外の対話行為を持つ発話に対して「自己開示」が誤って選択される事例が多いことがわかった。「自己開示」の信頼度は他の対話行為に比べて平均的に高く,「自己開示」が最終的に選ばれやすいためであった. これは, 4.1 項で後述するように, 訓練データにおける「自己開示」の出現頻度が高いためと考えられる。このような信頼度の不均衡を是正するため, 式 (2) にしたがって対話行為を選択する。 $ \hat{d}= \begin{cases}\arg \max _{d_{i}} w_{i} \cdot r\left(d_{i}\right) & \text { if } \operatorname{rank}(1)=\text { 自己開示 } \\ \arg \max _{d_{i}} r\left(d_{i}\right) & \text { if それ以外 }\end{cases} $ $\operatorname{rank}(1)$ は信頼度の順位が 1 位の対話行為を表わす. $w_{i}$ は対話行為 $d_{i}$ の信頼度に与える重みであり,「自己開示」以外の対話行為の信頼度を大きくする働きをする。また,「自己開示」に対 する重みは 1 と設定する。 信頼度の重みを反復推定するアルゴリズムを図 3 に示す. 変数 $j$ は反復のステップを表わす変数で, $7 \sim 13$ 行目の処理を繰り返す. 開発データ $D_{\text {dev }}$ における発話 $u_{k}$ に対し, その正解の対話行為が自己開示ではなく, 誤って自動推定された対話行為が自己開示であり, uncertainty $\left(u_{k}\right)$ が間値 $T U_{i}$ より大きいとき ( 9 行目), 正解の対話行為 $d_{i}$ に対する重み $w_{i}^{(j)}$ を 10 行目の式にしたがって更新する. uncertainty $\left(u_{k}\right)$ は発話 $u_{k}$ に対する対話行為推定の不確かさを表わす指標であり,9つの対話行為に対する判定の信頼度 $r\left(d_{i}\right)$ を得たとき, その 1 位の信頼度と 2 位の信頼度の比と定義する ${ }^{4} . T U_{i}$ は対話行為 $d_{i}$ に対する重みを更新するか否かを決める uncertainty $\left(u_{k}\right)$ の間値である.基本的には,不正解となった「自己開示」の信頼度と正解の対話行為 $d_{i}$ の信頼度の差が大きいときほど $w_{i}^{(j)}$ により大きい値を加える, $w_{i}^{(j)}$ の値を増やすことにより,正解の対話行為 $d_{i}$ の信頼度が高くなり, 選ばれる可能性が増す。 $\delta$ は重みの 1 回当たりの変動量を調整するパラメタである。本研究では $\delta=0.001$ とした. 開発データの全ての発話について重みの調整が終わったら,新しい重みを用いて,システムによる自動推定の結果を更新する(13行目). 一般に $w_{i}^{(j)}$ は収束するが, 本研究では収束後の重みではなく, 1 回の反復毎に開発デー夕における対話行為推定の改善度 eval $_{j}\left(d_{i}\right)$ を測り, これが最も高い時点での重みを選択する(15行目). $e v a l_{j}\left(d_{i}\right)$ の定義は式 (3) であり, 対話行為が $d_{i}$ である発話のうち重み付けによって新た 1: $\operatorname{gold}\left(u_{k}\right) \stackrel{\text { def }}{=}$ 発話 $u_{k}$ の正解の対話行為 2: predict $_{j}\left(u_{k}\right) \stackrel{\text { def }}{=} j$ 回目の反復が終わった時点で自動推定された $u_{k}$ の対話行為 3: $w_{i}^{(j)} \stackrel{\text { def }}{=} j$ 回目の反復における対話行為 $d_{i}$ の重み 4: $r_{j}^{\prime}\left(d_{i}\right) \stackrel{\text { def }}{=} w_{i}^{(j)} \cdot r\left(d_{i}\right) \quad$ \# 重み付けによって調整された対話行為 $d_{i}$ の信頼度 5: $\forall i w_{i}^{(0)} \leftarrow 1 \quad$ \# 初期化 for $j=1$ to 500 do 7: $\quad \forall i w_{i}^{(j)} \leftarrow w_{i}^{(j-1)}$ 8: $\quad$ for all $u_{k} \in D_{\text {dev }}$ do 9: uncertainty $\left(u_{k}\right)>T U_{i}$ then $10:$ 11: 12 : end if $w_{i}^{(j)} \leftarrow w_{i}^{(j)}+\delta \times\left(\frac{r_{j-1}^{\prime}(\text { 自己開示 })-r_{j-1}^{\prime}\left(d_{i}\right)}{r_{j-1}^{\prime}(\text { 自己開示 })}\right)$ end for 13: $\quad$ update $\left(\right.$ predict $\left._{j}\right)$ 14: end for 15: $\forall i \quad w_{i} \leftarrow w_{i}^{(j)}$ where $j=\arg \max _{j}$ eval $_{j}\left(d_{i}\right)$ 16: return $\left.\{w_{i}\right.\}$ 図 3 信頼度に対する重みを決定するアルゴリズム ^{4} 1$ 位と 2 位の信頼度が近ければ近いほど, 1 位の対話行為が正しくない可能性が高い. } に正解となった発話数 $(|B|)$ と,対話行為が「自己開示」である発話のうち重み付けによって新たに不正解となった発話数 $(|W|)$ の差である ${ }^{5}$. $ \begin{aligned} & \operatorname{eval}_{j}\left(d_{i}\right)=|B|-|W| \\ & \qquad B=\left.\{u_{k} \mid \operatorname{gold}\left(u_{k}\right)=d_{i} \wedge \operatorname{predict}_{0}\left(u_{k}\right) \neq \operatorname{gold}\left(u_{k}\right) \wedge \operatorname{predict}_{j}\left(u_{k}\right)=\operatorname{gold}\left(u_{k}\right)\right.\} \\ & W=\left.\{u_{k} \mid \operatorname{gold}\left(u_{k}\right)=\text { 自己開示 } \wedge \operatorname{predict}_{0}\left(u_{k}\right)=\operatorname{gold}\left(u_{k}\right) \wedge \operatorname{predict}_{j}\left(u_{k}\right) \neq \operatorname{gold}\left(u_{k}\right)\right.\} \end{aligned} $ 本手法では, uncertainty $\left(u_{k}\right)$ が低いときは重みの更新を行わない. これは個々の対話行為の二値分類器の結果が十分に信頼できるとみなしているためである。閾値 $T U_{i}$ は重みの更新を行うか行わないかをコントロールする働きをする. $T U_{i}$ は重み $w_{i}$ の推定に用いたものとは別の開発データを用いて最適化する. $T U_{i}$ を変動させ,学習した重みを用いたシステムの eval の値が最大となる間値を選択する。 ## 3.5.4 特定の対話行為の組に対して機械学習で識別する手法 対話行為の中には互いに識別が難しい組み合わせがある。表 3 は,対話行為のそれぞれの組に対し, 一方の対話行為の信頼度の順位が 1 位でかつ不正解, もう一方の対話行為の信頼度の順位が 2 位でかつ正解となる発話の開発データにおける数を示している。この表において発話数(誤り数)の多い対話行為の組は, 特に判定が難しいと考えられる。ここでは,このような対話行為の組に対し,適切な対話行為を選択する分類器を機械学習することを試みる。たたし,「自己開示」 $\left(d_{1}\right)$ については, 3.5.3で述べた信頼度の重み付けによる手法で対応することとし, ここでは $d_{1}$ を含まない組の中で表 3 における誤り発話数が多い組に着目する,具体的には,他と比べて誤り発話数の多い(あいづち,フィラー)と(質問 (YesNo), 確認)の2つの組につい 表 3 信頼度 1 位が不正解, 2 位が正解となる対話行為の組と発話数 $d_{1}$ : 自己開示, $d_{2}$ : 質問 (YesNo), $d_{3}$ : 質問 (What), $d_{4}$ : 応答 (YesNo), $d_{5}$ : 応答 (平叙), $d_{6}$ : あいづち, $d_{7}$ : フィラー, $d_{8}$ : 確認, $d_{9}$ : 要求 ^{5}$ predict $_{0}\left(u_{k}\right)$ は重み付けしない手法で選択された発話 $u_{k}$ の対話行為を表わす. } て, 機械学習により適切な対話行為を選択する。以上をまとめると, 本手法は式 (4) にしたがって $\hat{d}$ を決定する。 $ \hat{d}= \begin{cases}\arg \max _{d_{i}} w_{i} \cdot r\left(d_{i}\right) & \text { if } \operatorname{rank}(1)=d_{1}(\text { 自己開示 }) \\ \operatorname{classify}(\operatorname{rank}(1), \operatorname{rank}(2)) & \text { if }\{\operatorname{rank}(1), \operatorname{rank}(2)\}=\left.\{d_{6}, d_{7}\right.\} \text { or }\left.\{d_{2}, d_{8}\right.\} \\ \arg \max _{d_{i}} r\left(d_{i}\right) & \text { if それ以外 }\end{cases} $ $\operatorname{rank}(1), \operatorname{rank}(2)$ は判定の信頼度が 1 位, 2 位の対話行為を表わし, classify $(x, y)$ は 2 つ対話行為 $x, y$ の中から一方を選択する分類器である。 classify $(x, y)$ の学習に使う特徵量は, 組み合わせ特徴量も含めて対話行為 $x$ と $y$ の分類に用いる特徴量の和集合とし,学習には LIBLINEAR を用いる。 ## 4 評価実験 ## 4.1 データ 対話コーパスとして, 人間同士の自由対話を書き起こした名大会話コーパス (国立国語研究所 2001)を用いた,実験では,対話コーパスの中から参加者が二名の対話のみを選択し,各発話に対し対話行為夕グを人手で付与した。対話数は 97 , 発話数は 91,906である. 3 対話について二者によって対話行為タグを付与したところ,一致率は $77.3 \% , \kappa$ 係数は 0.636 であった. コーパスにおける対話行為の出現頻度ならびに割合を表 4 に示す. $d_{1}$ (自己開示) が最も多く, 全体の 6 割弱を占めている。一方, $d_{9}$ (要求) は最も少なく, それが占める割合は $1 \%$ 未満である。コー パスをおよそ $80 \%, 10 \%, 10 \%$ に分割し, 77 対話(74,228 発話)を訓練デー夕, 10 対話( 8,984 発話)を開発データ, 10 対話(8,694 発話)をテストデータとした。開発データは最適な特徴の選択やパラメ夕の最適化のために用いた。それぞれのデータにおける対話行為の頻度分布は全体とほぼ同じであった。 ## 4.2 パラメータ最適化 特徴 $f_{18}$ (相手の過去の発話の対話行為列), $f_{19}$ (話者の過去の発話の対話行為列)について, 3.3.2で述べたように, 過去の対話行為列の長さ $N_{h}$ ならびに特徴量選択の間値 $T_{h}$ の最適化を行った. 表 4 実験デー夕における対話行為の出現頻度の分布 本実験では,テストデータにおける発話の対話行為を推定する際, $f_{18}$ と $f_{19}$ の特徴量は正解の対話行為を用いる,実際には,過去の発話の対話行為は自動的に推定するべきである。しかし, このような実験設定では, 対話行為推定の誤りが次の発話の対話行為の推定に影響し, 対話行為の誤推定が前の発話の対話行為の誤りによるものか, それとも提案手法の不備など他の要因によるものなのかを区別できない,今回の実験では,提案手法の有効性を確認することに重点を置き, 過去の発話の対話行為の分類に誤りはないという理想的な条件下で実験を行った.開発データにおける $\mathrm{F}$ 值が最大となった $N_{h}$ と $T_{h}$ の值を表 5 に示す.この表ではパラメ夕の最適化を行わないとき $\left(N_{h}=1, T_{h}=0\right)$ の $\mathrm{F}$ 値も示した。“' 'は $N_{h}=1, T_{h}=0$ のときに $\mathrm{F}$ 値が最大になった場合,すなわちパラメ夕の最適化によって $\mathrm{F}$ 値が向上しなかった場合を表わす. この結果から,対話行為毎に話者自身の過去の発話の対話行為列,相手の過去の発話の対話行為列の最適な長さが異なることが示された。特に,「フィラー」については $\mathrm{F}$ 值が 11 もしくは 14 ポイント向上しており,パラメータ最適化の影響が大きい. これは「フィラー」の発話を認識するためにはそれまでの対話の流れが重要な情報であることを示唆する,一方で,「質問 $(Y e s N o) 」$ 「応答 (YesNo)」については自身の過去の発話, 相手の過去の発話ともに $N_{h}=1$, $T_{h}=0$ のときが最良となっている.「質問 (YesNo)」については, 前の発話の対話行為の影響が小さいと考えられるので,対話行為列の長さを変化させても影響がなかったと考えられる.「応答 (YesNo)」については, 前の相手の最後の発話が「質問」であることが多いため, $f_{18}$ についてはひとつ前の相手の発話の対話行為だけを特徴量とすれば十分と考えられる。一方, $f_{19}$ については, $\mathrm{F}$ 値が他の対話行為と比べて極端に低い, $N_{h}, T_{h}$ の最適化の際には $f_{1}$ (単語 n-gram) のみを特徴としていることが原因と考えられる。 表 5 過去の発話の対話行為の特徴のパラメ夕 ## 4.3 特徴セットの最適化の結果 個々の対話行為に対して選択された特徴を表 6 に示す. 表 6 の結果から, 対話行為毎に有効な特徵が大きく異なることが確認された. $f_{1}$ (単語 n-gram)は全ての対話行為に共通して有効な特徴である。一方で, $f_{2}$ (前発話の単語 n-gram)や $f_{8}$ (前発話の文末付属語列)は全ての対話行為で不要であり, 前の相手の発話の内容は有効な特徴ではないと考えられる. 表 7 は 3.4 項で定義した最も有効な特徴の一覧である。これらも対話行為毎に異なるが, $f_{1}, f_{18}, f_{19}$ のいずれかが選ばれており, これらが特に重要な特徴であることがわかる. ## 4.4 信頼度の重みの推定 3.5.3で述べた手法において, 対話行為毎の信頼度の重み $w_{i}$ は開発データを用いて推定した.一方, 閾値 $T U_{i}$ は, 開発データとは別のデータで最適化する必要がある。本実験では, 訓練デー 夕の 8 分割交差検定により $T U_{i}$ を最適化した。 交差検定の際には, 機械学習の特徴や重み $w_{i}$ は開発データで決定したものを用いるが, 分類器の学習は分割されたデータ毎にやり直した. $T U_{i}$ 表 6 選択された特徴 $d_{1}$ : 自己開示, $d_{2}$ : 質問 (YesNo), $d_{3}$ : 質問 (What), $d_{4}$ : 応答 (YesNo), $d_{5}$ : 応答 (平叙), $d_{6}$ : あいづち, $d_{7}$ : フィラー, $d_{8}$ : 確認, $d_{9}$ : 要求 表 7 対話行為の分類に最も有効な特徴 表 8 対話行為ごとの $w_{i}$ と $T U_{i}$ 表 98 分割交差検定における分割デー夕毎の eval 值 を 0 から 0.9 まで 0.1 刻みで変動させ,式 (3) の eval の値が一番大きい閾値を選択した。「自己開示」以外の対話行為に対する $w_{i}$ と $T U_{i}$ の一覧を表 8 に示す. $d_{4}($ 応答 $(Y e s N o)), d_{7}$ (あいづち), $d_{8}$ (確認) の 3 つの対話行為については,信頼度に対する重み付けを行っても対話行為推定結果は向上しなかったため,重みを 1 に設定している。すなわち, これらの対話行為の信頼度に対しては重み付けを行わない。 表 9 は,例として $d_{2}, d_{5}, d_{7}$ の 3 つの対話行為について,8 分割交差検定において分割された個々のデータ $\left(T R_{1} \sim T R_{8}\right)$ に対する eval の値を示している ${ }^{6}$. eval の値は対話デー夕によってばらつきが見られ,負の値になる(重み付けによって悪化する)こともある。この結果から,信頼度に対する重み付けに基づく手法は,対話によって効果的に働く場合とそうでない場合があることがわかった.信頼度に対する重み付けは,「自己開示」の判定の信頼度が他の対話行為に比べて高いことを是正するための手法であるが,自己開示の発話の出現のしやすさは対話の内容に強く依存しており,自己開示の発話が多く出現する対話に対しては,「自己開示」以外の対話行為を選択しやすくする本手法が有効に働かなかったと推察できる. ## 4.5 対話行為推定の評価 対話行為を推定する提案手法の性能を評価する,評価基準は,各対話行為の推定の精度,再現率, $\mathrm{F}$ 値, ならびにこれら 3 つの全対話行為についてのマクロ平均とマイクロ平均である。なお, 精度および再現率のマイクロ平均は正解率 (システムが選択した対話行為と正解の対話行為が一致する割合)に等しい,提案手法を 2 つのべースラインと比較する。一つは,全ての特徴を用いて,9つの対話行為のいずれかを選択する分類器を LIBLINEAR で学習する手法 $\left(B L_{a}\right)$ である。もう一つは, 3.3 項で説明した方法で特徴を選択する手法 $\left(B L_{s}\right)$ である。提案手法が個々の対話行為毎に最適な特徴を選択するのに対し, $B L_{s}$ では特徴のセットを 1 つだけ選択し, ^{6} T U_{i}$ は表 9 における「合計」が最も大きい值を選んで最適化している. } それを用いて全ての対話行為を分類する。一方,提案手法として,3.5.1で述べた信頼度を比較する手法 $\left(\right.$ Pro $\left._{p}\right)$, 3.5.2で述べた信頼度を特徴量とした機械学習を用いる手法 $\left(\right.$ Pro $\left._{m}\right), 3.5 .3$ で述べた「自己開示」以外の対話行為の信頼度に対して高い重みを与える手法 $\left(P_{r o w}\right), 3.5 .4$ で述べた判定の難しい対話行為の組に対して機械学習で適切な対話行為を選択する手法 $\left(P r O_{b}\right)$ の 4 つを評価する。 まず,発話がある対話行為を持つか否かを判定するタスク(以下,「個別対話行為判定タスク」 と呼ぶ)についてベースラインと提案手法を比較する。言い換えれば,個別対話行為判定タスクでは, 図 1 の第 1 段階における対話行為毎に学習した分類器の性能を評価する。表 10 は同タスクにおける $B L_{s}$ と $\operatorname{Pro}_{p}$ の精度 $(\mathrm{P})$ ,再現率 $(\mathrm{R}), \mathrm{F}$ 值 $(\mathrm{F})$ を示している。表 10(a) は開発データの結果であり,対話行為毎に特徴を最適化することによって,全ての対話行為について評価値が同等もしくは向上していることが確認できる。一方,表 10(b) はテストデータの結果であり, $\operatorname{Pro}_{p}$ は $B L_{s}$ に比べて $\mathrm{F}$ 値のマクロ平均が 2.9 ポイント向上した. しかしながら, 「あいづち」と「要求」については $\mathrm{F}$ 值が低下している。これは開発データとテストデータとで対話の内容が異なるため, 両データにおいて最適な特徵が一致していないためと考えられる。この結果は, 自由対話では様々なトピックが話題に挙がるため, 対話行為分類のための最適な特徵を実験的に決定することが難しいことを示唆する。 表 11 は,発話に対して9つの対話行為の中から該当するものを推定するタスク(以下,「対話行為推定タスク」と呼ぶ)における各手法の評価値を示している.2つのベースラインを比較すると, $B L_{s}$ はマクロ平均では $B L_{a}$ を上回るが,マイクロ平均は等しい. 対話行為を区別せずに単純に特徴を最適化しても,正解率は向上しないことがわかる。一方, 4 つの提案手法の $\mathrm{F}$ 値のマイクロ平均はいずれもべースラインよりも高い. 最も結果が良かったのは手法 $P r O_{b}$ であった. $B L_{s}$ と $\operatorname{Pro}_{b}$ の結果をマクネマー検定で検定したところ,5\%の有意水準で有意差が 表 10 個別対話行為判定タスクの結果 (a) 開発データ (b) テストデータ 表 11 対話行為推定タスクの結果 $d_{1}$ : 自己開示, $d_{2}$ : 質問 (YesNo), $d_{3}$ : 質問 (What), $d_{4}$ : 応答 (YesNo), $d_{5}$ : 応答 (平叙), $d_{6}$ : あいづち, $d_{7}$ : フィラー, $d_{8}$ : 確認, $d_{9}$ : 要求, Ma: マクロ平均, Mi: マイクロ平均 あった. Pro $_{b}$ が選択した対話行為と正解の対話行為の対応表を付録 Aに示す. 対話行為毎に結果を比較すると,「応答 (YesNo)」「あいづち」「確認」「要求」については $P_{B} O_{b}$ は $B L_{s}$ に比べて $\mathrm{F}$ 值は改善しなかったが, 「自己開示」「質問 (YesNo)」「質問 (What)」「応答 (平叙)」「フィラー」については $\mathrm{F}$ 值が $0.3 \sim 9.7$ ポイント改善した. Pro $_{p}$ と Pro $_{m}$ を比較すると, Prom $_{m}$ はあいづち」「確認」「要求」以外の対話行為でより高い $\mathrm{F}$ 值が得られており,信頼度を特徵量とした機械学習の手法が有効であることを示している。「自己開示」について $\operatorname{Pro}_{p}$ と $\operatorname{Pro}_{w}$ を比較すると, 再現率は $\operatorname{Pro}_{p}$ の方が高いが, 精度ならびに $\mathrm{F}$ 値では $\operatorname{Pro}_{w}$ が上回る。信頼度に重み付けを行う $\operatorname{Pro}_{w}$ は,判定の信頼度が全般に高い「自己開示」が過度に選ばれることを抑制するための手法であるが,この手法により「自己開示」の false positiveの誤りが減少したことが確認された。また,表 8 で重みを 1 より大きく設定した全ての対話行為で $\mathrm{F}$ 值が向上した. Pro $_{b}$ は $\operatorname{Pro}_{w}$ と比べて, 誤りが多かったために改めて機械学習で分類し直した「質問 (YesNo)」「フィラー」「確認」の結果が改善されていることが確認できた. ただし,「あいづち」については,精度,再現率に変化はあったが,F 值は変化しなかった。 本論文では, ベースラインで精度や再現率が低い対話行為に対して推定の性能を向上させることを目指したが,一部の対話行為についてはその目標が達成されていない。具体的には,べー スラインで性能の低い「フィラー」の評価値は向上しているが, 「確認」や「要求」については逆にベースラインよりも低くなっている。「確認」については, 表 10 より, 個別対話行為分類タスクでは提案手法はベースラインを上回っているため, 図 1 における二段階の処理のうち,第 1 段階で「確認」に該当するかを判定する時点では性能の向上が見られるものの, 第 2 段階 表 12 組み合わせ特徴量の評価 の対話行為を推定する段階で誤りを多く生じていることがわかる。一方, 「要求」については表 10 でも表 11 でも提案手法はべースラインより劣る. この原因として,コーパスにおいて「要求」の対話行為を持つ発話の数が他の対話行為と比べて極端に少ないことが考えられる. 組み合わせ特徴量の有効性を評価するために,組み合わせ特徴量を使用したモデルと使用しないモデルの $\mathrm{F}$ 値のマイクロ平均(正解率)を比較した。結果を表 12 に示す. いずれの手法も組み合わせ特徴量を用いることで $\mathrm{F}$ 值が向上していることから, 組み合わせ特徴量の有効性が確認できた。 ## 4.6 機械学習アルゴリズムの比較 前項までの実験では機械学習アルゴリズムとして L2 正則化ロジスティック回帰を用いたが,本項ではこれと他の機械学習アルゴリズムを比較する。また, 対話行為毎に適切な特徴セットを設定するという提案手法の基本的な考え方が他の機械学習アルゴリズムでも有効であるかを検証する。そのため, $B L_{a}$ (全特徴を用いたべースライン), $B L_{s}$ (対話行為を区別しないで特徴を選択したべースライン),ならびに提案手法のうち最も基本的な Pro $_{p}$ を比較する実験を行う. 比較する機械学習アルゴリズムはSVM とする. カーネル関数として, 線形カーネル, 多項式カーネル (カーネルの次数は 3), Radial Basis Function (RBF) カーネル, シグモイドカーネルの 4 つを用いる. Pro $_{p}$ では, 対話行為毎に特徴を選択するために, 特徴セットを変えて学習とテストを繰り返す必要があるが,SVM の学習は非常に時間がかかるため, 現実的な時間では特徴選択が終了しない. そこで,高速な LIBLINEAR を用いて選択された特徴のセット(表 6)を用い, 対話行為毎の二值分類器を学習するときのみ SVM を用いる. 同様に, $B L_{s}$ も LIBLINEAR を用いて選択された特徴のセットを用いる。また,L2 正則化ロジスティック回帰とは異なり多項式カーネルのSVM では特徴量の組み合わせも学習時に考慮されるため, ここでの実験では組み合わせ特徴量は用いない. SVM の学習には LIBSVM7 を用いる。学習パラメタはデフォルト値を用いる. Pro p で用いる個々の対話行為判定の信頼度は, LIBSVM が出力する確率とする. SVM による対話行為推定の $\mathrm{F}$ 値のマイクロ平均(正解率)を表 13 に示す. 比較のため, L2 正則化ロジスティック回帰を用いたときの結果(表 12 の組み合わせ特徴量なしの結果)も再掲する。*と†はマクネマー検定で Pro $o_{p}$ と他の手法の差を検定した結果を表わす。*はロジス  表 13 機械学習アルゴリズムの比較 *: $p<0.05$ (vs. ロジスティック回帰の Pro $_{p}$ ) $, \quad \dagger: p<0.05$ (vs. $B L_{s}$ ) ティック回帰の $\operatorname{Pro}_{p}$ との間に有意水準 $5 \%$ で有意差が, †は同じ学習アルゴリズムの $B L_{s}$ との間に有意差があることを示している。多項式カーネルのSVMでは全ての発話に対して「自己開示」が選択された。これは過学習のためと考えられる。 異なる機械学習アルゴリズムの Pro $_{p}$ の結果を比較すると, L2 正則化ロジスティック回帰は全てのSVM よりも正解率が有意に高い。線形カーネルの SVM については, Pro ${ }_{p}$ よりも $B L_{s}$ の方が正解率が高いが,ロジスティック回帰の $\operatorname{Pro}_{p}$ よりは劣る,ただ,今回の実験では,特徵選択の際に用いた機械学習アルゴリズム(ロジスティック回帰)と対話行為推定の分類器の学習に用いたアルゴリズム (SVM) が異なる. 特徴選択もSVM で行えば, SVM での分類に適した特徴セットが選ばれて,正解率が向上する可能性がある.SVM の中で最も結果が良かった線形カーネルの $B L_{s}$ については,特徴選択も線形カーネルのSVM を用いてモデルを学習する追加実験を行ったところ, $\mathrm{F}$ 値は 0.806 と変化しなかった ${ }^{8}$. このモデルと提案手法(ロジスティック回帰の Pro $_{p}$ )とは $5 \%$ の有意水準で有意差があった。他のカーネルの $B L_{s}$ や Pro $_{p}$ についても特徴選択の段階からSVM を用いるべきであるが,LIBLINEAR 以外では特徴選択に非常に時間がかかるという問題がある。例えば, Intel Xeon $2.93 \mathrm{GHz}$, メモリ $8 \mathrm{~GB}$ のサーバを用いて,対話行為「自己開示」に該当するかを判定する二値分類器の学習に,LIBLINEAR では 16 秒を要したのに対し,LIBSVM ではおよそ 168 倍の 2,697 秒を要した。今回の実験結果からは,LIBLINEAR を用いる手法が対話行為推定の $\mathrm{F}$ 値ならびに計算時間の両方の観点から最も優れているといえる。 機械学習アルゴリズム毎に $B L_{s}$ と $\operatorname{Pro}_{p}$ を比較すると, ロジスティック回帰, RBF カーネルのSVM,シグモイド関数のSVM において,差はそれほど顕著ではないものの,Pro $\operatorname{Pr}_{p}$ は $B L_{s}$ よりも正解率が高かった。有意義な分類器が学習できなかった多項式カーネルのSVM を除けば, 4 つのうち 3 つの機械学習アルゴリズムについて, 対話行為毎に最適な特徴を選択するというアプローチは有効と言える。但し,提案手法のアプローチの妥当性をより正確に検証するためには,異なる対話行為のセットを用いた実験や,異なる対話コーパスを用いた実験などを , f_{5}, f_{8}, f_{14}, f_{15}, f_{18}, f_{19}, f_{20}, f_{22}$, $f_{24}$ であったのに対し,線形カーネルの SVM で選択された特徴は $f_{1}, f_{5}, f_{6}, f_{8}, f_{10}, f_{11}, f_{12}, f_{13}, f_{16}, f_{17}, f_{18}$, $f_{19}, f_{20}, f_{21}, f_{23}, f_{24}, f_{25}, f_{26}, f_{27}, f_{28}$ であった. } 表 $14 \mathrm{CRF}$, ランダムフォレストの結果 行う必要があるだろう。 次に,多值分類の機械学習アルゴリズムである CRF ならびにランダムフォレスト (Breiman 2001) と提案手法を比較する。CRF で分類されるのは系列(本論文の場合は発話列)であることに注意していただきたい。ここでは,対話全体の発話列を入力として与える手法 $\left(C R F_{\text {all }}\right)$ と,対話の先頭から解析対象となる発話までの発話列を逐次的に入力として与える手法 $\left(C R F_{\text {seq }}\right)$ の 2 つを評価する。実際に対話システムでの利用を想定しているのは $C R F_{\text {seq }}$ である. $C R F_{\text {all }}$ は対話が全て終了するまで対話行為を分類できないため,実際の対話システムに組み込むことは不可能だが, 文献 (磯村他 2009)のようにコーパスへの対話行為の夕グ付けを目的とする場合には利用できる。 CRFの学習には CRFsuite ${ }^{9}$ を, ランダムフォレストの学習には scikit-learn ${ }^{10}$ を用いる。 $C R F_{\text {all }}, C R F_{\text {seq }}, R F$ (ランダムフォレスト)のそれぞれについて, $B L_{a}$ と同じ特徴セット (28 個の全ての特徴)を用いたときと, $B L_{s}$ と同じ特徴セットを用いたときの対話行為推定の $\mathrm{F}$ 值を表 14 に示す. 最良の提案手法である $\operatorname{Pro}_{b}$ ( $\mathrm{F}$ 値 0.825)は, $C R F_{s e q}$ と $R F$ を上回り, マクネマー検定で $5 \%$ の有意水準で有意差があることを確認した. $C R F_{\text {all }}$ は $C R F_{\text {seq }}$ よりも解析に利用できる発話数が多いため, $\mathrm{F}$ 値が高い. $B L_{s}$ と同じ特徴セットを用いたときの $C R F_{\text {all }}$ は $\operatorname{Pro}_{b}$ を上回るが,CRF all は対話システムでの利用を想定したモデルではない. ## 5 おわりに 本論文では,自由対話における発話の対話行為を自動推定する新しい手法を提案した.提案手法は,個々の対話行為毎に発話がその対話行為に該当するかを判定する第 1 段階と, 第 1 段階の結果から最終的に最も適切な対話行為を選択する第 2 段階から構成される. 第 1 段階において, 教師あり機械学習のために有効な特徴は対話行為毎に異なるという仮定の下,対話行為毎に最適な特徴のセットを自動的に決定する点に特長がある。評価実験の結果,対話行為を区別せずに特徴の選択を行う手法と比べて, 提案手法の対話行為推定の $\mathrm{F}$ 値は 0.6 ポイント高かった. $\mathrm{F}$ 値の差はそれほど大きくはないものの,統計的に有意な差があることを確認した。  本論文の貢献は以下の通りである。表 6 に示すように, 有効な特徴のセットは対話行為によって異なることを実験的に確認し, 対話行為毎に特徴の最適化を行う提案手法のアプローチが有望であることを示した.表 13 に示したロジスティック回帰ならびに 4 種のカーネル関数の SVM を用いた検証実験では,ロジスティック回帰,SVM (RBF),SVM(シグモイド)について,対話行為毎に特徴の最適化を行うことで $\mathrm{F}$ 値の向上が見られた。ただし,統計的に有意差が確認されたのは $\mathrm{SVM}(\mathrm{RBF})$ のみであった。また, 過去の対話行為を特徴とするとき,その最適な長さは対話行為毎に異なることを確認した. さらに,提案手法の第 2 段階において,分類の信頼度を単純に比較して対話行為を 1 つ選択すると,分類の信頼度が対話行為によって大きく差があるために特定の対話行為(具体的には「自己開示」)が選ばれやすいという問題に対し,適切な対話行為を選択する 3 つの手法を提案し, それらが $\mathrm{F}$ 値の向上に貢献することを確認した.一方, 対話行為によっては, 特徴の最適化により, 開発データでは $\mathrm{F}$ 値が向上するもののテストデータは低下することがわかった。 自由対話システムでは様々なトピックが話題になることから, 対話によって有効な特徴が異なる可能性があり, 特徴の最適化を実験的に行う提案手法のアプローチの問題点も明らかにした。表 9 に示したように,信頼度の重み付けに基づく手法が対話によって有効に働く場合とそうでない場合があることがわかったが,これも自由対話システムにおけるトピックの多様性に起因すると考えられる。 今後の課題としては,F 值が依然として低い「フィラー」「確認」「要求」に対して対話行為推定の性能を向上させることが挙げられる。これらの対話行為の推定に有効な新たな特徵を発見したり,提案手法の第 2 段階における対話行為選択手法を洗練する必要がある.また,上記の考察を踏まえ,領域適応の技術を応用し,対話の内容が訓練データ・開発データとテストデー 夕とで異なる場合でも $\mathrm{F}$ 値を低下させない方法を探究することも重要な課題である. 4.6 項で述べたように,対話行為毎に適切な特徴のセットを設定するという提案手法のアプローチの妥当性を検証するためには更なる実験が必要である。また, 自然言語処理分野でも近年盛んに利用されるようになった深層学習 (Kim 2014) との比較も重要である. ## 謝 辞 本論文の査読にあたり,查読者の方から数多くの有益なコメントをいただきました. 深く感謝いたします。 ## 参考文献 Breiman, L. (2001). "Random Forests." Machine Learning, 45 (1), pp. 5-32. Fan, R.-E., Chang, K.-W., Hsieh, C.-J., Wang, X.-R., and Lin, C.-J. (2008). "LIBLINEAR: A Library for Large Linear Classification." The Journal of Machine Learning Research, 9, pp. 1871-1874. Higashinaka, R., Imamura, K., Meguro, T., Miyazaki, C., Kobayashi, N., Sugiyama, H., Hirano, T., Makino, T., and Matsuo, Y. (2014). "Towards an Open-domain Conversational System Fully Based on Natural Language Processing." In Proceedings of COLING 2014, pp. 928-939.平野徹, 小林のぞみ, 東中竜一郎, 牧野俊朗, 松尾義博 (2016). パーソナライズ可能な対話シ ステムのためのユーザ情報抽出. 人工知能学会論文誌, 31 (1), pp. DSF-B_1-10. Inui, N., Ebe, T., Indurkhya, B., and Kotani, Y. (2001). "A Case-Based Natural Language Dialogue System Using Dialogue Act." In Proceedings of IEEE International Conference on Systems, Man, and Cybernetics, pp. 193-198. 磯村直樹, 鳥海不二夫, 石井健一郎 (2009). 対話エージェント評価における夕グ付与の自動化. 電子情報通信学会論文誌. A, 基礎 - 境界, 92 (11), pp. 795-805. Jurafsky, D., Shriberg, E., and Biasca, D. (1997). "Switchboard SWBD-DAMSL ShallowDiscourse-Function Annotation Coders Manual." Tech. rep., Institute of Cognitive Science Technical Report. Kim, S. N., Cavedon, L., and Baldwin, T. (2010). "Classifying Dialogue Acts in One-on-one Live Chats." In Proceedings of EMNLP, pp. 862-871. Kim, Y. (2014). "Convolutional Neural Networks for Sentence Classification." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1746-1751.国立国語研究所 (2001). 名大会話コーパス. 科学研究費基盤研究 (B)(2) 「日本語学習辞書編纂に向けた電子化コーパス利用によるコロケーション研究」(平成 13 年度〜 15 年度), http://pj.ninjal.ac.jp/conversation/nuc.html. Libin, A. V. and Libin, E. V. (2004). "Person-robot interactions from the robopsychologists' point of view: the robotic psychology and robotherapy approach." In Proceedings of the IEEE, 92 (11), pp. 1789-1803. 前田英作, 南泰浩, 堂坂浩二 (2011). 人ロボット共生におけるコミュニケーション戦略の生成. 日本ロボット学会誌, $29(10)$, pp. 887-890. 目黒豊美, 東中竜一郎, 杉山弘晃, 南泰浩 (2013). 意味属性パターンを用いたマイクロブログ中の発言に対する自動対話行為付与. 研究報告音声言語情報処理 (SLP), 2013 (1), pp. 1-6. Meguro, T., Minami, Y., Higashinaka, R., and Dohsaka, K. (2014). "Learning to Control Listening-oriented Dialogue Using Partially Observable Markov Decision Processes." ACM Transactions on Speech and Language Processing, 10 (4), pp. 1-20. Milajevs, D. and Purver, M. (2014). "Investigating the Contribution of Distributional Semantic Information for Dialogue Act Classification." In Proceedings of the 2nd Workshop on Continuous Vector Space Models and their Compositionality (CVSC), pp. 40-47. 南泰浩, 東中竜一郎, 堂坂浩二, 目黒豊美, 森啓, 前田英作 (2012). 対話行為夕イプ列 Trigram による行動予測確率に基づく POMDP 対話制御. 電子情報通信学会論文誌. A, 基礎・境界, 95 (1), pp. 2-15. 西田公昭 (1992). 対話者の会話行為が会話方略ならびに対人認知に及ぼす効果. The Japanese Journal of Phychology, 63 (5), pp. 319-325. 関野嵩浩, 井上雅史 (2010). 発話に対する拡張談話夕グ付与. 第 6 回情報処理学会東北支部研究会報告. Sugiyama, H., Meguro, T., Higashinaka, R., and Minami, Y. (2013). "Open-domain Utterance Generation for Conversational Dialogue Systems using Web-scale Dependency Structures." In Proceedings of SIGDIAL, pp. 334-338. Takahashi, K., Takamura, H., and Okumura, M. (2007). "Estimation of Class Membership Probabilities in the Document Classification." In Proceedings of the 11th Pacific-Asia Conference on Advances in Knowledge Discovery and Data Mining (PAKDD), pp. 284-295. ## 付録 ## A 対応表 正解の対話行為と提案手法のうち最も $\mathrm{F}$ 值の高い $P r o_{b}$ が選択した対話行為の対応表を表 15 に示す. 表 15 正解の対話行為と $P r o_{b}$ の出力との対応表 $d_{1}$ : 自己開示, $d_{2}$ : 質問 (YesNo), $d_{3}$ : 質問 (What), $d_{4}$ : 応答 (YesNo), $d_{5}$ : 応答 (平叙), $d_{6}$ : あいづち, $d_{7}$ : フィラー, $d_{8}$ : 確認, $d_{9}:$ 要求 ## 略歴 福岡知隆:2010 年東京工科大学コンピュータサイエンス学科コンピュータサイエンス学部卒業. 2012 年同大学院バイオ・情報メディア研究科修士課程修了. 2017 年北陸先端科学技術大学院大学情報科学研究科博士課程修了. 同年株式会社 Nextremer AI エンジニア.現在に至る.博士(情報科学),電子情報通信学会会員. 白井清昭:1993 年東京工業大学工学部情報工学科卒業. 1998 年同大学院情報理工学研究科博士課程修了. 同年同大学院助手. 2001 年北陸先端科学技術大学院大学情報科学研究科助教授. 現在に至る. 博士 (工学). 統計的自然言語解析に関する研究に従事. 情報処理学会, 人工知能学会, 電子情報通信学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 株式価格情報を用いた金融極性辞書の作成 ## 五島 圭一 ・高橋 大志 $\dagger \dagger$ 本研究では, 金融分野に特化した極性辞書の作成を目的とし, ニュースデータと株式価格データから極性辞書の作成を行う。株式価格情報から単語のポジティブ/ネガティブの情報を獲得するため, ニュース記事が言及している銘柄の株式価格変動を算出する,株式価格変動をニュース記事の教師情報として,教師あり学習を行ったのち,学習器から単語の極性情報を抽出することで,単語に対して重み付き極性値の付与を試みた。そして, 作成した極性辞書を用いて, 学習に用いたメディアのニュース記事分類と他メディアのニュース記事分類を行うことにより, 本研究手法の有効性を検証した。検証の結果, ニュース記事配信日の株式リターンに関して,将来のニュース記事を分類できること,また,異なるメディアのニュース記事も分類できることを示した。一方で,ニュース記事配信日から 2 営業日以上離れると, ニュース記事分類が困難であることが示された. キーワード:極性辞書,ニュースアナリティクス,株式市場 ## Building a Sentiment Dictionary for News Analytics using Stock Prices \author{ KeIIchi Goshima $^{\dagger}$ and Hiroshi TaKahashi ${ }^{\dagger \dagger}$ } This paper proposes a method of building a sentiment dictionary using only news and stock price data for textual analysis in finance. To obtain word polarity from stock price fluctuations, we calculate stock price returns following announcements of news articles. We constructed learners with support vector regression, using stock price returns as supervised labels of news articles, and built a sentiment dictionary by extracting word polarity from learners. Furthermore, we examined whether our sentiment dictionary is effective in classifying news articles as negative or positive. We found that our sentiment dictionary is also effective in classifying news articles provided by other news media other than news media we employed in constructing the algorithm. In addition, we found that it is difficult to classify news articles on a date that is two trading days away from the news announcement date. Key Words: Sentiment Dictionary, News Analytics, Equity Market  ## 1 はじめに 投資家は,資産運用や資金調達のために数多くの資産価格分析を行っている. とりわけ,ファイナンス理論の発展と共に,過去の資産価格情報や決算情報などの数值情報を用いた分析方法は数多く報告されている。しかしながら,投資家にとって,数值情報だけでなく,テキスト情報も重要な意思決定材料である。テキスト情報には数値情報に反映されていない情報が含まれている可能性があり,テキスト情報の分析を通じ,有用な情報を獲得できる可能性がある.そのため近年,これまで数值情報だけでは計測が困難であった情報と資産価格との関連性の解明への期待から, 経済ニュースや有価証券報告書, アナリストレポート,インターネットへの投稿内容などのテキスト情報を用いた様々な資産価格分析がなされている (Kearney and Liu 2014; Loughran and McDonald 2016). 本研究では, これらファイナンス分野及び会計分野の研究に用いるための金融分野に特化した極性辞書の作成を試みる. テキスト情報の分析を行う際には,テキスト内容の極性(ポジティブ or ネガティブ)を判断する必要がある.極性辞書を用いた手法は, この課題を解くための主流の方法の一つである.極性辞書によるテキスト分析は,キーワードの極性情報を事前に定義し,テキスト内容の極性を判断することで分析が行われる。ファイナンス分野及び会計分野の研究では, 極性辞書による分析が標準的な手法となっている. 極性辞書が標準的な手法となっている理由の一つとして, どの語句や文が重要であるかが明確であり, 先行研究との比較が容易である点が挙げられる。また, 金融実務の観点からすると, テキスト情報を利用して資産運用や資金調達をする際には株主や顧客への説明責任が必要であるという事情がある。そのため, 内部の仕組みがブラックボックス化してしまう機械学習よりも,重要な語句や文が明確である極性辞書の方が説明が容易であることから,好まれる傾向がある。 極性辞書には, General Inquirer ${ }^{1}$ や DICTION ${ }^{2}$ などの心理学者によって定義された一般的な極性辞書や金融分野に特化したオリジナルの極性辞書 ${ }^{3}$ が用いられる,金融分野では,独自の語彙が用いられる傾向があることから, Henry (2008) や Loughran and McDonald (2011)では, 金融分野に特化した極性辞書を用いることで分析精度が上がるとの報告がなされている. しかしながら,金融分野に特化した極性辞書を作成するためには,人手によるキーワードの選択と極性の判断が必要であり, 評価者の主観が結果に大きく影響するという問題点が存在する。また,価格との関連性の高いキーワードも,年々変化することが想定される.例えば,新たな経済イベントの発生や資産運用の新手法などがあれば,その都度キーワードの極性情報を ^{1}$ http://www.wjh.harvard.edu/ inquirer/ 2 http://www.dictionsoftware.com/ 3 金融分野に特化した極性辞書として, Loughran and McDonald Sentiment Word Lists (http://www3.nd.edu/〜mcdonald/Word_Lists.html) がある. } 更新する必要があり,専門家による極性判断を要することとなる。自然言語処理におけるブー トストラップ法をはじめとする半教師あり学習を用いる方法はあるものの, これも最初に選択するキーワードによって,分析結果に大きな影響を与えてしまうことなる。そこで,これら問題点に対する解決策の一つとして,本研究では人手による極性判断を介さずに,ニュースデー 夕と株式価格データのみを用いて極性辞書を作成する方法論を提示する. 株式価格デー夕を用いて日本語新聞記事を対象に,重要語の抽出を試みた研究報告として,小川,渡部 (2001) や張,松原 (2008), 廣川,吉田,山田,増田,中川 (2010) などがあるものの, これらは,株式価格情報からマーケット変動を十分に調節できていない,具体的には,株式固有のリスクを調節できていない,例えば,同じ銘柄であっても時期によって株式が有するリスクプレミアムに違いがあり, リスクに伴う株式価格変動が荒い時期と穏やかな時期があり,株式リターンが一見同じであっても,そこから得られる情報は異なることが広く知られている (Campbell, Lo, and MacKinlay 1997). また,異なる銘柄について同様である. リスクに伴う株式価格変動が荒い銘柄と穏やかな銘柄があり,株式リターンが一見同じであっても,そこから得られる情報は異なることも広く知られている (Campbell et al. 1997). 加えて, 新聞記事には必ずしも資産価格変動と関連性の高い新鮮な内容のみが記述されているだけではない. 本研究では, これら問題点も考慮し,なおかつ,金融市場における資産価格形成と関連性の高いメディアである日経 QUICKニュースを用いて,重み付き属性値付きキーワードリスト(以下,本稿では「重み付き属性值付きキーワードリスト」のことを単に「キーワードリスト」と記述する.)の作成を行う。 さらに,作成したキーワードリストによってどの時点でのニュース記事を分類できるかを,キーワードリストの作成に用いた日経 QUICKニュースと他メディアであるロイターニュースの分類を通じて検証する.次章は,本分析で用いるデータに触れ, 3 章ではキーワードリストの作成方法,4 章ではキーワードリストを用いた分類検証を記す。 5 章は, まとめである. ## 2 データ ## 2.1 マーケットデータ 本研究では, 株式価格情報からキーワードの極性評価を行うために, 個別銘柄の株式リターンとリスクファクター・リターンのデータを用いた。個別銘柄の株式リターンとして, Thomson Reuters Datastream から,トータルリターンの日次データを用いた。トータルリターンとは,株式の価格変動に加え,株式の配当も含めた株式の収益率のことを指す. また,リスクファクター・リターンのデータは,株式会社金融データソリューションズが提供する日本版 Fama-French ベンチマークからマーケットリターン $(R m)$, リスクフリーレート $(R f)$, バリューファクター・リターン $(H M L)$, サイズファクター・リターン $(S M B)$ の日次 データを使用した。マーケットリターンは東証 1 部及び 2 部における全銘柄の時価総額加重平均配当込みの収益率,リスクフリーレートは新発 10 年国債利回りであり,バリューファクター・ リターン及びサイズファクター・リターンは, Fama and French (1993) や久保田, 竹原 (2007) において定義された方法によって算出された簿価時価比率のリスクファクター及び時価総額のリスクファクターである。 ## 2.2 ニュースデータ 株式価格からキーワードリストを作成するためのニュースデータには日経 QUICKニュースを用いた。日経 QUICKニュースは,株式会社日本経済新聞社と株式会社 QUICK の許諾を受けて使用した。日経QUICKニュースは, 日本経済新聞社と QUICK 社によって投資家向けに専用の端末を通じて配信されるニュースである。このニュースデータに対して,株式会社金融工学研究所が付与したタグ情報を利用した。日経 QUICKニュースの利用したタグ情報は,「ニュー ス記事の配信日付」・「ニュース記事本文に含まれるキーワード」・「対象ニュース記事と関連する主要銘柄名(証券コード)」である. また, 本研究手法によって得られたキーワードリストをもとに, ニュース記事分析をするためのニュースデータとして, 日経 QUICKニュースに加えて, 異なるメディアに対してもキーワー ドリストの有効性を検証するために,ロイターニュースを用いた,ロイターニュースは,世界で最も広く知られたニュース提供会社の一つであるトムソンロイター社が配信しているニュー スである。ロイターニュースの利用したタグ情報は,「ニュース記事の配信日時」・「対象ニュー ス記事と関連する銘柄名(証券コード)」を利用した。日経 QUICK ニュースとロイターニュー スは, どちらも日本語で書かれたニュース記事を分析対象としている. これらニュースデータの一部は, 日本経済新聞社やトムソンロイター社のウェブページから閲覧することが出来るが,本研究では,機関投資向けの専用端末を通じて 24 時間配信される全経済ニュースを分析に用いる. 日経 QUICK ニュースとロイターニュースは, 各団体が発信する一次情報に比べると, 各义ディアの記者やアナリストによる情報の取捨選択が行われており, 社会や市場に対して相対的に重要な情報が含まれていると考えられる。また,日本証券市場に参加している多くの(機関)投資家が閲覧するメディアであることから,新聞や雑誌のニュースに比べ,経済イベントからニュース記事配信までのラグが小さく, 金融市場における資産価格形成との関連性が高い新鮮な内容であることが想定される. ## 2.3 ニュースデータの前処理 ここでは, 分析を行う前のデー夕整形を記述する. 本研究の分析対象期間は, 2008 年から 2011 年までとした。 日経 QUICKニュースは, 2008 年から 2011 年までの間に配信された 719,633 本 のニュース記事を,ロイターニュースは, 2009 年から 2011 年までの間に配信された 395,819 本のニュース記事を,極性辞書の作成及び作成した極性辞書による分類検証に用いる. はじめに,ニュース記事配信日の調整を行う。日経 QUICK ニュースとロイターニュースは東京証券取引所の休業日に配信されたニュース記事に関して, 翌営業日に配信されたニュース記事として分析を進めた。また,ロイターニュースは秒単位でのタイムスタンプ情報を獲得できたため, 大引けの 15 時以降に配信されたニュース記事は翌営業日に配信されたニュース記事として分析を進めた。例えば, 2016 年 9 月 3 日は土曜日なので,この日に配信されたニュース記事は翌営業日である 2016 年 9 月 5 日に配信されたニュース記事として扱い,2016 年 9 月 1 日 16 時に配信されたニュース記事は取引所が閉まった後に配信されたものなので,翌営業日である 2016 年 9 月 2 日のニュース記事として扱うということである. これらの調整は, マーケットが閉まっている間に配信されたニュース記事内容は, 直後の営業日において株式価格に反映されると仮定したためである。 次に,ニュース記事の選別を行う。本研究では,夕グ情報(証券コード)をもとに東証一部上場企業と関連するニュース記事を抽出した.東証一部に鞍替えした銘柄は,鞍替え前のニュー ス記事も分析対象としている。また,後述のイベントスタディ分析において推定ウィンドウ及びイベントウィンドウを確保できる,すなわち,ニュース記事が配信される 140 営業日前から 10 営業日後までにおいて株式価格データが取得できる銘柄のニュース記事のみを分析対象としている. 日経 QUICKニュースの選別は,ニュース記事の本文を分析対象としたため,「ニュース記事本文に含まれるキーワード」が付与されていないニュース記事は使用しなかった.ロイター ニュースの選別についても同様にヘッドラインのみのニュース記事は分析対象外とし, さらに,第一報のニュース記事のみを分析対象とするため,再送記事と訂正記事は分析対象外とした。加えて, 本研究ではニュース記事のテキスト情報に注目したため, 決算情報や社債の発行要項, テクニカルデータなどの数值情報のみのニュース記事についても分析対象外としている。また,複数の銘柄の内容について報じているニュース記事は, 関連する銘柄数の分だけニュース記事を増やし,一つのニュース記事に一つの銘柄を対応付け,分析を進めた,日経 QUICKニュー スはタグ情報(証券コード)を基に主要銘柄を一つに絞ることが出来たが,ロイターニュースは絞ることが出来なかったため, 一つのニュース記事から複数銘柄の株式価格変動の観察を行っている、しかしながら,厳密には,ニュース記事の内容を加味して分析することが望ましいと考えられる. 分析手法の改善は今後の課題である. 選別後のそれぞれのニュース記事数は, 表 1 に示す. ロイターニュースは, 延ベニュース記事数を表している。延べニュース記事数とは,一つのニュース記事に複数の証券コードタグが付随している場合,重複して計数した値である。また,カッコ内はニュース記事が報じている内容と関連する銘柄の異なり数を表している。 表 1 ニュース記事数 表 2 キーワード数 また,選別後の日経 QUICKニュースのタグ情報から取得できたキーワード数(異なり数・延べ数)は, 表 2 に示す. ここで得られたキーワードが本研究のキーワードリストのもとになる. ## 3 キーワードリストの作成方法 ## 3.1 作成手順の概略 ここでは,ニュースデータと株式価格データからキーワードリストを作成する方法論の手順の概略を記す。はじめに,株式価格情報からイベントスタディ分析によって,各ニュース記事へ教師スコアを付与をする。次に,ニュースデータに付与されているキーワードをもとに,ニュース記事内容を bag-of-words によってべクトルで表現する。最後に,サポートベクター回帰 (SVR; Support Vector Regression) (Bishop 2006) によって教師あり学習を行ったのち, 学習器から各キーワードの極性情報を抽出することで,キーワードリストの作成を試みた。 3.2 節及び 3.3 節において,それぞれの作成方法の詳細を記述する。 ## 3.2 株式価格データからニュース記事への教師スコアの付与 本研究手法の想定する二つの仮定を記述する。一つ目は, ニュースが報じられたことによって,株式価格が変動した場合である。ある銘柄の株式価格が上昇した場合,それは投資家がニュー ス記事を見て,銘柄に対してポジティブな感情を持ち,高値をつけたと考える,逆に,株式価格が下落した場合は,ネガティブな感情を持ち,安値をつけたと考える,そのため,株式価格変動にはニュース記事の内容のポジティブ/ネガティブの情報が含まれていることが想定され る。二つ目は,ある銘柄の株式価格の変動を受けて,その概況がニュースとして報じられた場合である.株式価格が上昇したときに報じられたニュース記事にはポジティブな内容,株式価格が下落したときに報じられた場合にはネガティブな内容が記述されていると考える。この場合にも,株式価格変動にはニュース記事の内容のポジティブ/ネガティブの情報が含まれていることが想定される.いずれの場合においても,株式価格変動の大きさは,ニュース記事内容のポジティブ/ネガティブと密接な関係があることが想定される. そこで,本研究ではイベントスタディ分析の枠組みによって, 株式価格データからニュース記事への教師スコアの付与を試みた (Campbell et al. 1997),イベントスタディ分析とは, 経済上のイベントが株式価値にどのような影響を与えるかを測定する方法論であり,各銘柄と各時期の共変動リスクを調整した株式価格変動である異常リターンを算出するために用いた. 異常リターンの概念図を,図 1 に示す。 具体的な算出手順は以下の通りである. (1)はじめに,ニュース記事 $i$ ごとにイベント日, 推定ウィンドウ, イベントウィンドウを設定する。ニュース記事への教師スコアの付与は,イベント日はニュース記事配信日,推定ウインドウはニュース記事配信日の 140 営業日前から 21 営業日前までの 120 営業日間,イベントウィンドウはニュース記事配信日当日からその翌日までとした. 本研究では, 日数は東京証券取引所の営業日をもとに計数している. 図 2 は, 本研究の設定を図示したものである。例えば,2016 年 9 月 1 日に配信されたニュース記事であれば,イべント日は 2016 年 9 月 1 日であり, 推定ウィンドウは 2016 年 2 月 5 日から 2016 年 8 月 2 日までの 120 営業日間であり, イベントウインドウは 2016 年 9 月 1 日から 2016 年 9 月 2 日まで 2 営業日間となる. 図 1 異常リターンの概念図 図 2 本研究の設定 (2) 次に,推定ウィンドウにおいて,各ニュース記事 $i$ に関連する銘柄に関して, Fama-French の 3 ファクターモデルによって,切片及び各リスクファクターに対する感応度を算出する. Fama-French の 3 ファクターモデルは, $ R_{i}[t]-R f[t]=\alpha_{i}+\beta_{i}^{M}\left(R_{M}[t]-R f[t]\right)+\beta_{i}^{S M B} S M B[t]+\beta_{i}^{H M L} H M L[t]+\varepsilon_{i}[t] $ にて定義される (Fama and French 1993) ${ }^{4} R_{i}$ はニュース $i$ と関連する銘柄の株式リター ン, $R f$ はリスクフリー・レート, $R_{M}$ はマーケット・リターン, $S M B$ はサイズファクター・リターン,HMLはバリューファクター・リターン, $\varepsilon_{i}$ は誤差項を表しており,このモデルを用いることで, マーケット全体の価格変動の影響のほかに, 小型株効果及び割安株効果の共変動の影響を取り除いている。また, $[t]$ はイベント日からの日数を表しており,例えば, $R_{i}[-100]$ であればニュース記事配信日の 100 営業日前のニュース記事 $i$ と関連する銘柄の株式リターンを表し,SMB[+1] であればニュース記事配信日の 1 営業日後のサイズファクター・リターンを表す。モデルのパラメータ $\left(\alpha_{i}, \beta_{i}^{M}, \beta_{i}^{S M B}, \beta_{i}^{H M L}\right)$ が切片及び各リスクファクターに対する感応度であり,推定ウィンドウにおいてこれらパラメータを推定する。推定は最小二乗法による線形回帰によって行われる. (3) 3 番目に, 推定したパラメータを用いて, イベントウィンドウにおける日次の異常リター ン $(A R$; Abnormal Return) と累積異常リターン (CAR; Cumulative Abnormal Return)を算出する。ニュース記事 $i$ のイベントウィンドウにおける $t$ 日の異常リターン $A R_{i}[t]$ は, $ A R_{i}[t]=R_{i}[t]-\left(\alpha_{i}+\beta_{i}^{M}\left(R_{M}[t]-R f[t]\right)+\beta_{i}^{S M B} S M B[t]+\beta_{i}^{H M L} H M L[t]\right), $ によって算出される。 すなわち, 異常リターンとはイベントウインドウにおいて実際に実現したリターン $\left(R_{i}[t]\right)$ から,イベントが起きなかった時に達成されていたであろうと期待され  るリターンである正常リターン $\left(\alpha_{i}+\beta_{i}^{M}\left(R_{M}[t]-R f[t]\right)+\beta_{i}^{S M B} S M B[t]+\beta_{i}^{H M L} H M L[t]\right)$ を差し引いた值である。続いて,イベントウィンドウにおける $t_{1}$ 日から $t_{2}$ 日までの累積異常リターン $C A R_{i}\left[t_{1}, t_{2}\right]$ は, $ C A R_{i}\left[t_{1}, t_{2}\right]=\sum_{t=t_{1}}^{t_{2}} A R_{i}[t] $ と算出される。本研究ではニュース記事に対する教師スコア付与のために,ニュース記事配信日の当日から 1 営業日後までの 2 営業日間の累積異常リターンである $C A R[0,+1]$ を算出する. (4)最後に,累積異常リターン $C A R_{i}\left[t_{1}, t_{2}\right]$ を過去の株式価格変動を用いて標準化する。具体的には,ニュース記事 $i$ ごとに, $t_{3}$ 日から $t_{4}$ 日までの $L$ 日間の推定ウィンドウにおける Fama-Frenchの 3 ファクターモデルの残差 $e_{i}$ の標準偏差 $\sigma_{e_{i}}\left[t_{3}, t_{4}\right]$ を, $ \begin{aligned} & \sigma_{e_{i}}\left[t_{3}, t_{4}\right]=\left(\frac { 1 } { L - k } \sum _ { t = t _ { 3 } } ^ { t _ { 4 } } \left(R_{i}[t]-\left(\alpha_{i}+\beta_{i}^{M}\left(R_{M}[t]-R f[t]\right)\right.\right.\right. \\ &\left.\left.\left.+\beta_{i}^{S M B} S M B[t]+\beta_{i}^{H M L} H M L[t]\right)\right)^{2}\right)^{\frac{1}{2}} \end{aligned} $ によって算出する. ここで $k$ はモデルのパラメータ数を表している. 本研究では, $L=120$, $k=4$ として, $\sigma_{e_{i}}[-140,-21]$ を算出する. そして, 累積異常リターン $C A R_{i}\left[t_{1}, t_{2}\right]$ を, $ S C A R_{i}\left[t_{1}, t_{2}\right]=\frac{C A R_{i}\left[t_{1}, t_{2}\right]}{\sigma_{e_{i}}\left[t_{3}, t_{4}\right]} $ とすることで, 標準化された累積異常リターン (SCAR; Standardized Cumulative Abnormal Return) が算出される。本研究においては, ニュース記事配信日の当日から 1 営業日後までの標準化された累積異常リターン $S C A R_{i}[0,+1]$ を, ニュース記事内容と関連する株式価格変動とし,ニュース記事の教師スコアとした。 すべてのニュース記事に対して,(1)から(4)までのプロセスを経ることで,時期の違いと銘柄間の違い, 共変動の影響を調整した教師スコアである $S C A R[0,+1]$ を算出している. ## 3.3 ニュース記事内容のベクトル表現方法とキーワードの極性評価 ここでは,ニュース記事内容のベクトル表現方法とキーワードの極性評価を記述する。ニュー スデータに付与されているキーワードをもとに,ニュース記事内容を bag-of-words によってべクトルで表現する。日経 QUICKニュースには,ニュース記事の内容を表すキーワード群が付与されており,それらをニュース記事のベクトルの特徴量とした。キーワード数は表 2 を参照されたい,例えば,あるニュース記事 $\mathrm{A} に , 「$ 続落」,「原油高」,「懸念」の 3 つのキーワード が付与されているとき, ニュース記事 $\mathrm{A}$ は前述の 3 つのキーワード特徴量の值は 1 となり, 他のキーワード特徴量の値は 0 となるようなべクトルとなる. 加えて, ニュース記事に付与されたキーワードの数を考慮するために, 各ニュース記事のキー ワードベクトルを作成した後, ベクトルの長さが 1 になるうに次式によって各特徴量の調整を行った。 $ \frac{1}{\sqrt{x_{i}}} $ ここで, $x_{i}$ はニュース記事 $i$ の特徴量数を表す.キーワードの極性評価は, 前節の方法にて算出した教師スコアをニュース記事ベクトルに紐付け, 入力 $(X)$ を bag-of-words のベクトル,出力 $(Y)$ を $S C A R[0,+1]$ として, SVR(+線形カーネル)によって学習器を作成する ${ }^{5}$. そして, 学習器から法線べクトルを各キーワードの極性情報と見なして抽出することで, キーワー ドリストの作成を試みた。法線ベクトルを抽出せず,直接テストデータヘスコアを付与することは可能であるが, 本研究では極性辞書の作成を研究目的としているため, あえて行っている. パラメータチューニングに関しては, 10 分割の交差検定を繰り返し, 平均二乗誤差が最小になるようなハイパーパラメータを決定している. ## 3.4 作成したキーワードリスト 本研究手法によって得られたキーワードリストとその極性値を表 3 に示す. 2008 年は 13,806 , 2009 年は 13,893, 2010 年は 14,019 のキーワードに対して極性値が振られている. 表 3 は,各年のポジティブキーワードとネガティブキーワードとして, 特徴量に対する重みの大きいあるいは小さいキーワードをそれぞれ上位 30 位までのキーワードを抽出し,記載したものである. つまり,これらは株式価格変動との関連性の高いニュース記事内のキーワードであり,重みがプラス方向に大きければ大きいほど,株式価格の値上がりの時によく現れていることを示しており, 逆に, 重みがマイナス方向に大きければ大きいほど, 株式価格の値下がりのときによく現れていることを示している. ポジティブなキーワードとして,「買い」や「上方修正」,「増益」などのキーワード群を, ネガティブなキーワードとして,「嫌気」や「反落」,「悪化」などのキーワード群をそれぞれ獲得することができた。これらのキーワードは一般的にポジティブあるいはネガティブだと想定されるキーワードであり, 本研究手法により, ニュースデータと株式価格データを用いてキーワー ドの極性情報を取り出すことのできる可能性を示すものである.抽出されたキーワードを見ると, 「値上がり」や「急伸」,「続伸」,「反落」,「急落」,「値下が  り」などの株式価格の動きを表したキーワードが多く抽出された. そして同時に,「上方修正」,「下方修正」, 「資本増強」, 「公募増資」,「オーバーアロットメント」などの, 会計利益やコー ポレートアクションなどと関連するキーワードも抽出された。一方で,「自動車株」や「ハイブリッド車」,「事務所」など極性を持つと考えにくいキーワードも抽出された。これは年によって特定の経済イベントが頻出したためだと考えられる。長期間のデータを用いれば,改善できる可能性があり,今後の課題である. ## 3.5 英文用の金融極性辞書との比較 ここでは,作成したキーワードリストと英文用の金融極性辞書との比較を行う.和文では,入手可能な金融用の極性辞書は存在しないため, 英文用の金融極性辞書と比較を通じて, 抽出した単語の極性情報の評価を試みる.筆者が直接単語の極性情報を評価することは可能であるが,恣意的な評価を避けるために行っている. 英文用の金融極性辞書には, Loughran and McDonald Sentiment Word Lists ${ }^{6}$ (以下, LM 辞書と略表記する.) を用いた (Loughran and McDonald 2011). LM 辞書は, Form 10- $\mathrm{K}^{7}$ の分析用に開発された極性辞書であり,金融関連の英文テキストの分析に広く用いられている.LM 辞書には,ポジティブな英単語が 354 語, ネガティブな英単語が 2,355 語, それぞれ収録されおり,これら単語との比較を行う。具体的な評価手順は以下の通りである。 はじめに, Google 翻訳8によって, LM 辞書に記載されている単語を和訳する。次に, 本研究のキーワードリストと LM 辞書のどちらにも記載されている単語を抽出する。 3 番目に,抽出した単語の極性情報を比較する。このとき,LM 辞書は単にポジティブ/ネガティブの二値なのに対して, 本研究のキーワードリストは重み付き属性値であるため, LM 辞書に収録されているポジティブな単語群及びネガティブな単語群がどのような重み付き属性値を取っているかを考察することで評価を行う,表 4 は,比較結果をまとめたものである。 2008 年と 2009 年では, ポジティブな単語群は平均値(重み付き属性値)がプラスで, ネガ 表 4 英文用の金融極性辞書との比較結果  ティブな単語群はマイナスの傾向はあるもの,2010 年ではその傾向は見られない. また, 表 3 と比較すると, 重み付き属性値は 0 付近の値を取っており, LM 辞書に記載されている単語は本研究のキーワードリストの重み上位に出てくる単語とのオーバーラップは少ないことが伺える. LM 辞書ではポジティブな単語であるのに対して,どの年においても,本研究の重み付き属性値がマイナスになった単語として,「leadership(リーダーシップ)」,「transparency(透明性)」があった。また,LM辞書ではネガティブな単語であるのに対して,どの年においても,本研究の重み付き属性値がプラスになった単語として,「delisting (上場廃止)」,「rationalization (合理化)」,「antitrust (独占禁止法)」,「challenge (チャレンジ)」,「conciliation (和解)」などがあった。このような単語が抽出された原因として,文脈を見なければならない単語であることや英文と和文とでは用いられ方が異なる単語で直訳しただけでは上手く評価できない可能性がある,次章では,作成したキーワードリストをもとにニュース記事の分類を行うことで有効性を検証する。 ## 4 キーワードリストを用いた分類検証 ## 4.1 ニュース記事の分類 本章では, 本研究手法によって作成したキーワードリストをもとにニュース記事の分類を行い,分類した各ニュース記事クラスのニュース記事配信日付近の株式リターンの推移を観察することで,キーワードリストの有効性を検証する。そこではじめに,前章のキーワードリストをもとに,日経 QUICKニュース及びロイターニュースを 5 のクラス (Very Positive・Positive・ Neutral ・ Negative ・ Very Negative) に分類する. 本分析では,前年の日経 QUICKニュースと株式価格から得られたキーワードリストを用いて,翌年のニュースの分類を試みる。学習データと評価データの対応表は表 5 に示す. 例えば,2009 年に配信されたニュース記事の分類は,2008 年の日経 QUICK ニュースデータとマーケットデータを用いて作成したキーワードリストをもとに分類をする. 同様に,2010 年に配信されたニュース記事は, 2009 年のデータを用いて作成したキーワードリストを用いる. これは,ニュース記事配信時点での将来情報を用いないようにするためである. 表 5 学習データと評価データの対応表 さらに,経済・金融分野に特化していない一般的な極性辞書との比較を行うため,テキストの評判分析に広く用いられる日本語評価極性辞書 (名詞編) ${ }^{9}$ (東山,乾,松本 2008)を用いて同様にニュース記事の分類を行う。 本研究では,キーワードリストをもとに,各ニュース記事内に出現するキーワードを計数し,極性を表す重みで掛け合わせた値を,計数したキーワード数で割ることでニュース記事のスコアを算出した。日本語評価極性辞書は, $\mathrm{p}$ と $\mathrm{n}$ のベルが付与されているキーワードを用いて同様にニュース記事のスコアを算出した。重みは, $\mathrm{p}$ を $+1, \mathrm{n} を-1$ とした. ここで,キーワードを重複して計数しないように,あらかじめニュース記事を形態素解析 ${ }^{10}$行ってわかち書きをした後,キーワードの計数を行っている。具体的には, ニュース記事 $i$ のスコアは以下の数式で表される。 $ \text { Score }_{i}=\frac{\sum_{k=1}^{n} T F_{w_{k}} \times W \text { eight }_{w_{k}}}{\sum_{k=1}^{n} T F_{w_{k}}} $ ここで, Score $_{i}$ はニュース記事 $i$ のスコア, $T F_{w_{k}}$ は本研究のキーワードリストあるいは日本語評価極性辞書に定義されている $k$ 番目のキーワード $w_{k}$ がニュース記事内に出現した頻度, Weight $w_{w_{k}}$ はキーワード $w_{k}$ の極性度合いを表す実数值, $n$ は本研究のキーワードリストあるいは日本語評価極性辞書に定義されているキーワード数を表す.ここで, 本研究のキーワードリストあるいは日本語評価極性辞書に定義されたキーワードが存在しないニュース記事は,スコアが定義されないため分析からは除外した. そして,各ニュース記事のスコアを上式によって算出した後, 次式によって年ごとにニュー ス記事のスコアを標準化した。 $ Z-\text { Score }_{i}=\frac{\text { Score }_{i}-\overline{\text { Score }}}{s_{\text {Score }}} $ ここで, $\overline{\text { Score }}$ と $s_{\text {Score }}$ は年ごとのスコアの標本平均値と標本標準偏差を表す. そして,標準化されたスコア $Z$-Score $i_{i}$ をとに,ニュース記事を 5 分割する。具体的には,標準化されたニュース記事のスコアが,Z-Score $i_{i}>=2$ となるとき,とても良い内容が記述されているニュ ^{9}$ http://www.cl.ecei.tohoku.ac.jp/index.php?Open\%20Resources\%2FJapanese\%20Sentiment\%20Polarity\%20 Dictionary 10 形態素解析には, MeCab (http://taku910.github.io/mecab/) を用いた.システム辞書には IPA 辞書を用いた. また,ユーザ辞書として,ニュース記事の分類を行う際のキーワードリスト(本研究で作成したキーワードリストあるいは日本語評価極性辞書) を追加している。 } 以上の手順によって本研究手法から得られたキーワードリスト及び日本語評価極性辞書を用いて分類した日経 QUICKニュースとロイターニュースの各ニュース記事クラスのスコアの要約統計量に関して, 評価データ 3 年分をまとめたものを表 6 に示す. 表 6 各ニュース記事クラスのスコアの要約統計量 (a) 日経 QUICK ニュース(本研究のキーワードリスト) (b) ロイターニュース(本研究のキーワードリスト) (c) 日経 QUICK ニュース(日本語評価極性辞書) (d) ロイターニュース(日本語評価極性辞書) 日本語評価極性辞書を用いて分類した場合, 日経QUICKニュース及びロイターニュースのどちらも, Very Positive に分類されたニュース記事は一つも存在しなかった. そのため, 日本語評価極性辞書によって分類したニュース記事クラスに関しては,以降の分析からは Very Positive は除外して進める。また,日本語評価極性辞書に定義されたキーワードを含まず,スコアが付与されなかったニュース記事数は, 日経 QUICK ニュースは 5,201 , ロイターニュースは 753 の事例が存在し, 相対的に本研究のキーワードリストよりも多いことが分かる. ## 4.2 分類検証における各種指標 ここでは次節以降の分類検証における各種指標の詳細な記述を行う,本研究では,キーワー ドリストによって分類されたニュース記事のクラスごとにニュース記事配信日の 10 営業日前から 10 営業日後までの株式リターンの推移を観察することで, 本研究のキーワードリストの有効性を検証する。具体的には,二種類の株式リターンに関する指標を考察する。一つ目は,各ニュース記事クラスの加工していない生の平均株式リターン $(\bar{R}$; Average Return) 及び累積平均株式リターン $(\overline{C R}$; Cumulative Average Return) である。 ある日 $t$ におけるニュース記事クラス $j$ の $\overline{R_{j}}[t]$ と $\overline{C R_{j}}\left[t_{1}, t_{2}\right]$ の算出方法は以下の通りである. $ \begin{gathered} \overline{R_{j}}[t]=\frac{1}{N} \sum_{i=1}^{N} R_{i}[t] \\ \overline{C R_{j}}\left[t_{1}, t_{2}\right]=\sum_{t=t_{1}}^{t_{2}} \overline{R_{j}}[t] \end{gathered} $ ここで, $N$ はニュース記事クラス $j$ に分類されたニュース記事数である. 二つ目は, 各ニュー ス記事クラスの平均異常リターン ( $\overline{A R}$; Average Abnormal Return) 及び累積平均異常リターン ( $\overline{C A R}$; Cumulative Average Abnormal Return) である. $\overline{A R}$ 及び $\overline{C A R}$ は,イベントスタディ分析によってマーケット全体の価格変動の影響のほかに, 小型株効果と割安株効果に関する共変動の影響を調整した株式リターンである。ニュース記事クラス $j$ の $\overline{A R_{j}}[t]$ と $\overline{C A R_{j}}\left[t_{1}, t_{2}\right]$ は, 3.2 節にて記述した手順によってニュース記事クラス $j$ に分類されたニュース記事 $i$ ごとに $A R_{i}[t]$ と $C A R_{i}\left[t_{1}, t_{2}\right]$ を算出した後,それぞれ平均値を算出することで求められる. 算出方法は, 以下の式によって算出される. $ \begin{aligned} \overline{A R_{j}}[t] & =\frac{1}{N} \sum_{i=1}^{N} A R_{i}[t] \\ \overline{C A R_{j}}\left[t_{1}, t_{2}\right] & =\frac{1}{N} \sum_{i=1}^{N} C A R_{i}\left[t_{1}, t_{2}\right] \end{aligned} $ イベント日はニュース記事配信日, 推定ウィンドウはニュース記事配信日の 140 営業日前か ら 21 営業日前までの 120 営業日間, イベントウインドウはニュース記事配信日の 10 営業日前から 10 営業日後までの 21 営業日間とする. ## 4.3 ニュース記事配信日付近における株式リターン推移の検証結果 はじめに,ニュース記事配信日付近における $\bar{R}$ と $\overline{C R}$ を検証する。本研究手法によって作成されたキーワードリストによって分類した各ニュース記事クラスごとの $\overline{C R}$ の推移を考察する.本節では, ニュース記事配信日 10 営業日前から $t$ までの累積平均リターン $\overline{C R}[-10, t]$ を $\overline{C R}$ と表記する, $\overline{C R}$ の推移を図示したものが図 3 である。図 3 は, 縦軸がニュース記事配信日 10 営 $\square$ Very Positive - Positive $\triangle$ Neutral + Negative $*$ Very Negative (a) 日経 QUICK ニュース (b) ロイターニュース 図 3 本研究のキーワードリストを用いて分類した各ニュース記事クラスの $\overline{C R}$ の推移 業日前から $t$ 日までの累積平均株式リターン $\overline{C R}$, 横軸がイベント日からの日数 $t$ を表している.そして,(a)が日経 QUICK ニュースを,(b)はロイターニュースを分類した結果を図示し が表 7 の表である。図と表について, どちらも単位は\%である. 図 3 から, 日経 QUICK ニュース及びロイターニュースに関して, どちらもニュース記事クラスごとに $\overline{C R}$ の動きが異なることが見て取れる。特に,ニュース記事配信日においてVery Positive は大きくプラスに, Very Negative は大きくマイナスになっている. Positiveと Negative は, Very Positive と Very Negative と比較して, 相対的に変動は小さいものの, プラスあるいはマイナスとなっている。そして, Neutral は, ニュース記事配信日に $\overline{C R}$ の変化はあまり見られないことが分かった。表 7 から数値を読み取ると, 日経 QUICKニュースの $\bar{R}[0]$ について, Very Positive は $3.21 \%$, Positive は $1.51 \%$, Neutral は $0.05 \%$, Negative は-1.03\%, Very Negative は $-1.94 \%$ とっていることから, $\bar{R}[0]$ の符号と大きさについて分類したクラスと整合的であり,前年の日経 QUICKニュースから作成したキーワードリストが翌年の日経 QUICKニュースの分類に対して,うまく機能していることを示している。 また,ロイターニュースの $\bar{R}[0]$ は, Very Positive は $4.72 \%$, Positive は $3.15 \%$, Neutral は $0.20 \%$, Negative は $-1.75 \%$, Very Negative は $-3.85 \%$ とっていることから, 同様に符号と大きさについて分類したクラスと整合的であり,前年の日経 QUICKニュースから作成したキーワードリストが翌年のロイターニュースの分類に対しても,うまく機能していることを示している. そして, ニュース記事配信日から離れると, どのニュース記事クラスも $\overline{C R} の$ 変化は小さくなることが見て取れる。日経 QUICKニュースの $\bar{R}[-1]$ について, Very Positive は $0.49 \%$, Positive は $0.26 \%$, Neutral は $0.01 \%$, Negative は $-0.25 \%$, Very Negativeは $-0.29 \%$ であり, $\bar{R}[+1]$ について, Very Positiveは $0.25 \%$, Positive は $0.15 \%$, Neutral は $0.01 \%$, Negative は $-0.35 \%$, Very Negative は-0.52\%である. また, ロイターニュースの $\bar{R}[-1]$ について, Very Positive は $0.64 \%$, Positive は $0.32 \%$, Neutral は $-0.01 \%$, Negative は $-0.26 \%$, Very Negative は $-0.43 \%$ であり, $\bar{R}[+1]$ について, Very Positive は $0.15 \%$, Positive は $0.18 \%$, Neutral は $-0.17 \%$, Negative は $-0.49 \%$, Very Negative は $-0.84 \%$ である. これらの結果は, 符号と大きさは, 分類したクラスと整合的であることを示している. しかしながら, その水準は $\bar{R}[0]$ よりも小さいことが伺える. さらに, ニュース記事配信日から 2 日以上離れると, $\bar{R}[t]$ の符号と大きさは, 分類したクラスと整合的でない様子が見て取れる。例えば,日経 QUICKニュースの $\bar{R}[-2]$ では Very Positive は 0.14\%, Positiveは $0.09 \%$, Neutral $0.03 \%$, Negativeは $-0.05 \%$, Very Negative は $-0.08 \%$ であり, $\bar{R}[+2]$ では, Very Positive は $-0.03 \%$, Positive は $-0.02 \%$, Neutral は $-0.02 \%$, Negative は $-0.09 \%$, Very Negativeは-0.17\%である. また, ロイターニュースの $\bar{R}[-2]$ では, Very Positive は $0.41 \%$, Positiveは $0.05 \%$, Neutral $-0.05 \%$, Negativeは $-0.28 \%$, Very Negative は $-0.22 \%$ であり, $\bar{R}[+2]$ では, Very Positiveは $-0.10 \%$, Positiveは $-0.08 \%$, Neutral は $-0.09 \%$, Negative は $-0.30 \%$, Very Negative は-0.15\%である,他のイベントウィンドウにおいても,これらの傾向は同様であることから, 本研究のキーワードリストはニュース記事配信日及び前後 1 営業日の株式リターンに関する極性情報を持つキーワードリストとなっていることを示している. 続けて,日本語評価極性辞書によって分類した各ニュース記事クラスごとの $\overline{C R}$ の推移を同様に考察する. $\overline{C R}$ の推移を図示したものが図 4 である. 図 4 を見ると, 日経 QUICK ニュース及びロイターニュースの $\overline{C R}$ の動きは, 一部のニュー ス記事クラスではニュース記事配信日付近において変化が見られるものの, 図 3 と比較すると変化の水準は小さく,また,分類したニュース記事クラスの順序と $\overline{C R}$ の順序が整合的でない (a) 日経 QUICK ニュース (b) ロイターニュース 図 4 日本語評価極性辞書を用いて分類した各ニュース記事クラスの $\overline{C R}$ の推移 様子を見て取れる. 表 7 の数値を読み取ると, 日経 QUICK ニュースの $\bar{R}[0]$ について, Positive は $0.19 \%$, Neutral は $0.28 \%$, Negative は $-0.51 \%$, Very Negativeは $-0.59 \%$ となっており,分類したニュース記事クラスの順序と整合的でないことがわかる.ロイターニュースの $\bar{R}[0]$ についても, Positiveは $1.15 \%$, Neutral は $0.40 \%$, Negative は $-0.95 \%$, Very Negative は $-0.82 \%$ となっていることから, 同様の傾向が伺える。また, 変化の水準についても, 本研究のキーワー ドリストを用いて分類したニュース記事クラスと比較すると, 小さいことが分かる. これらの傾向は, $\bar{R}[-1]$ や $\bar{R}[+1]$ でも同様であり, 本研究のキーワードリストの方が日本語評価極性辞書よりも,生の株式リターンに関して,うまく分類できていることを示している.次に, ニュース記事配信日付近における $\overline{A R}$ 及び $\overline{C A R}$ について検証する。 $\overline{A R}$ 及び $\overline{C A R}$ は, マーケット全体の価格変動の影響のほかに, 小型株効果と割安株効果についても共変動の影響を調整した株式リターンである。本節では, ニュース記事配信日 10 営業日前からの $t$ 日までの累積平均異常リターン $\overline{C A R}[-10, t]$ を $\overline{C A R}$ と表記する. $\overline{C A R}$ の推移を図示したものが図 5 であり, $\overline{A R}$ と $\overline{C A R}$ をとめたものが表 8 である. 図 5 を見ると, $\overline{C R}$ と同様に, ニュース記事クラスの $\overline{C A R}$ について, 符号と大きさが分類したクラスと整合的であることがわかる。ニュース記事配信日において Very Positive は大きくプラスに, Very Negative は大きくマイナスになっており, Positive と Negative は, Very Positive と Very Negative と比較して, 相対的に変動は小さいものの, プラスあるいはマイナスとなっている. そして, Neutral は変化はあまり見られない. 表 8 から数值を読み取ると, 日経 QUICKニュー スの $\bar{R}[0]$ は, Very Positive は $2.75 \%$, Positive は $1.19 \%$, Neutral は $0.04 \%$, Negative は $-0.79 \%$, Very Negative は $-1.53 \%$ とっており,また,ロイターニュースの $\bar{R}[0]$ は, Very Positive は $4.57 \%$, Positive は $2.91 \%$, Neutral は $0.25 \%$, Negativeは $-1.46 \%$, Very Negativeは $-3.50 \%$ となっている. $\bar{R}[-1] や \bar{R}[+1]$ の符号と大きさについても, 変化の水準は小さいものの, 分類したクラスと整合的であることが見て取れる。調整済みの株式リターンについても,前年の日経 QUICK ニュースから作成したキーワードリストを用いて翌年の日経 QUICKニュースとロイターニュースを分類できることを示している. $\overline{C A R}$ が $\overline{C R}$ と比較すると, 変化の水準が小さいのは,本研究のキーワードリストが個別銘柄に関して良いあるいは悪いかどうかだけでなく, マーケット全体に関する記述も拾っているためだと考えられる。そして,ニュース記事配信日から 2 営業日以上離れると, $\overline{A R}[t]$ の符号と大きさは分類したクラスと整合的でなく, 分類が困難であることが示されている。また, 日本語評価極性辞書によって分類した各ニュース記事クラスごとの $\overline{C A R}$ の推移を, 図示したものが図 6 である. 図 6 を見ると,同様に $\overline{C A R}$ の動きは,一部のニュース記事クラスではニュース記事配信日付近において変化が見られるものの, その変化の水準は図 3 と比較すると小さく, また, 分類したニュース記事クラスの順序と $\overline{C A R}$ の順序が整合的でない様子を見て取れる. 表 8 からもそれらの傾向が読み取ることが出来る。調整済みの株式リターンについても, 本研究のキーワー (a) 日経 QUICK ニュース (b) ロイターニュース $ \begin{aligned} & \square \text { Very Positive } \\ & - \text { Positive } \\ & \triangle \text { Neutral } \\ & + \text { Negative } \\ & * \text { Very Negative } \end{aligned} $ ■ Very Positive $\odot$ Positive $\triangle$ Neutral + Negative $*$ Very Negative 図 5 本研究のキーワードリストを用いて分類した各ニュース記事クラスの $\overline{C A R}$ の推移 ドリストの方が日本語評価極性辞書よりも,うまく分類できていることを示しており,本研究手法によって作成したキーワードリストが日本語評価極性辞書と比較して, 金融分野に特化した極性辞書となっていることを示している. 株式リターン推移の検証結果のまとめとして,本研究のキーワードリストを用いて分類したニュース記事は, ニュース記事配信日の株式リターンとの関連性が最も高く, 符号と大きさは,分類したクラスと整合的である。さらに,ニュース記事配信日 1 営業日前と 1 営業日後の株式リターンとの関連性も高いことが分かった。 とりわけ, 生の株式リターンだけでなく, 銘柄間の共変動を考慮した株式リターンとの関連性も見られることは,個別銘柄の変動を分類できて (a) 日経 QUICK ニュース (b) ロイターニュース 図 6 日本語評価極性辞書を用いて分類した各ニュース記事クラスの $\overline{C A R}$ の推移 いることを示している。これらの結果から,本研究手法で作成したキーワードリストがニュー ス記事の分類に対して有効である可能性を示している. 一方で, ニュース記事配信日から 2 営業日以上離れると, 分類したクラスと株式リターンの符号と大きさが整合的でないため, 困難であることが示された. すなわち, 本研究のキーワー ドリストはニュース記事配信日及び前後 1 営業日の株式リターンに関する極性情報を持つキー ワードリストとなっていることを示している。 また,各ニュース記事クラスは,ニュース記事配信日以前に既に株式価格が変動しており,その変動方向も分類したクラスと整合的であることから,マーケットに対して後追いのニュースが存在することが示唆され,同時に,ニュース 記事の内容を起因とし, マーケットが変動するような内容のニュース記事も存在していることが示唆される。 さらに,本研究手法によって作成したキーワードリストは,日本語評価極性辞書と比較して金融分野に特化した辞書となっていることが示された. ## 4.4 ニュース記事クラス間の株式リターンの多重比較検定結果 前節では,本研究のキーワードリストを用いて分類された各ニュース記事クラスが,ニュー ス記事配信日付近における絶対的な株式リターンがどのように推移するか観察することでキー ワードリストの有効性を検証した。ここでは最後に,ニュース記事クラス間の相対的な株式リターンの差を考察することで,キーワードリストの有効性の検証を行う.そのため,各ニュース記事クラス間の株式リターンの平均値の多重比較検定を行った。本節では株式リターンの平均値として,株式価格変動の銘柄間の共変動のノイズが相対的に少ない $\overline{A R}$ 及び $\overline{C A R}$ みを用いて検定を行った。多重比較検定には, Games-Howell 法を用いた (Games and Howell 1976)。ここでは, $\overline{A R}[0], \overline{A R}[-1], \overline{A R}[+1], \overline{C A R}[-10,-6], \overline{C A R}[-5,-2], \overline{C A R}[+2,+5], \overline{C A R}[+6,+10]$ の 7 つの指標の検定を行う,表 9 は, 日経 QUICK ニュース及びロイターニュースに対して本研究のキーワードリストを用いて分類した各ニュース記事クラス間の $\overline{A R}$ 及び $\overline{C A R}$ の平均値の 表 9 本研究のキーワードリストを用いて分類したニュース記事クラス間の多重比較検定 (a) 日経 QUICK ニュース (b) ロイターニュース 差と有意水準をまとめたものである,有意水準は, Games-Howell 法を用いて算出した平均値の差の対する有意確率に基づいており,***,**,*はそれぞれ,両側確率で有意水準 $0.1 \%$, 有意水準 $1 \%$, 有意水準 $5 \%$ で差が有意であることを表している。本研究はサンプルサイズが大きく,統計検定における検出力が高いため有意確率に加え,平均值の差の大きさも含めて考察する. 日経 QUICKニュースの検定結果の表 9 を見ると, $\overline{A R}[0]$ では有意水準 $0.1 \%$, 全てのニュー ス記事クラス間の平均値に有意に差があり, 符合についてもプラスであることから, 全てのニュー ス記事クラス間の分類ができていることが伺える。 $\overline{A R}[-1]$ は, Negative - Very Negative では有意差が認められないものの, 他のニュース記事クラス間では平均値の差は $1 \%$ 以下ではあるが,有意に差があり, 符合についてもプラスである。 また, $\overline{A R}[+1]$ についても同様に, Negative Very Negative では有意差が認められないものの, 他は有意差があり, 符合もプラスである。これらの結果から,ニュース記事クラス間の $\overline{A R}$ に統計的な差があり, 分類可能であることが示された。特に,ニュース記事配信日だけでなく,配信日前後の $\overline{A R}$ では分類できていることは,注目すべき点である。 一方で, $\overline{C A R}[-10,-6] や \overline{C A R}[+6,+10]$ では, 分類が困難であることが分かる. $\overline{C A R}[-10,-6]$ では,一部のニュース記事クラス間で $\overline{C A R}$ の平均値が有意に差があるものの,その大きさは $\overline{A R}[0], \overline{A R}[-1], \overline{A R}[+1]$ と比較すると小さく, 相対的に有効でないことが分かる。また, $\overline{C A R}[+6,+10]$ は,すべて有意な値を取っておらず,符号もマイナスであることから,有効でないことが示されている. さらに, $\overline{C A R}[-5,-2]$ や $\overline{C A R}[+2,+5]$ についても, 有意な值を取らないニュース記事クラス間が多く, 有意であったとしても差の符号がマイナスであることから, 分類したクラスとは逆である。これらの結果から,本研究手法により作成したキーワードリストは,ニュース記事配信日付近において有効であることが見て取れる。 ロイターニュースの検定結果の表 9 を見ると, 日経 QUICK ニュースの検定結果と同様に, $\overline{A R}[0]$ では有意水準 $0.1 \%$ で, 全てのニュース記事クラス間の平均値に有意に差があり,符合についてもプラスであることから,全てのニュース記事クラス間の分類ができていることが伺える. しかしながら, $\overline{A R}[+1]$ や $\overline{A R}[-1]$ では, 日経 QUICK ニュースでは有意差があったものの, ロイターニュースでは, 有意差が認められないクラス間があった. とりわけ, $\overline{A R}[+1]$ では顕著に異なる結果となった. $\overline{C A R}[-10,-6]$ や $\overline{C A R}[+6,+10]$ では, 同様に, ニュース記事クラス間では有意差が認められず,分類が困難であることを示している。具体的には, $\overline{C A R}[-10,-6]$ では一つのクラス間でのみ有意差が認められるだけであり, $\overline{C A R}[+6,+10]$ では有意な値を取っているニュース記事クラス間はあるものの, 符号がマイナスであるものは, 分類したクラスとは逆であり,これらは分類できているわけではない。 さらに, $\overline{C A R}[+2,+5]$ も Very Positive Negative 以外のクラス間では有意な値は取っていないため,分類が困難であることが示された.一方で, $\overline{C A R}[-5,-2]$ において Very Positive は,他のクラスとの間に有意差を取っている. さらに,表 10 は,日本語評価極性辞書によって分類した各ニュース記事クラス間の $\overline{A R}$ 及び 表 10 本研究のキーワードリストを用いて分類したニュース記事クラス間の多重比較検定 (a) 日経 QUICK ニュース (b) ロイターニュース $\overline{C A R}$ の平均値の差について,検定結果をまとめたものである. 日経 QUICKニュースの検定結果である表 10 を見ると, $\overline{A R}[0]$ では六つのニュース記事クラス間のうち 4 つでは有意差が見られることから,一部のクラス間では分類できていることを示している. しかしながら, Positive - Neutral では符号が逆であり, Negative - Very Negative では有意な値を取っていない。そのため, 日本語評価極性辞書ではニュース記事配信日の株式リターンという観点では,日経 QUICKニュースの分類が困難であることが示されている.有意な値を取っているニュース記事クラス間についても, 差の大きさは本研究のキーワードリストによって分類したニュース記事クラス間と比較すると小さく, 本研究のキーワードリストの方がよく分類できていることを示している. $\overline{A R}[-1]$ や $\overline{A R}[+1]$ についても一部のクラス間では有意差が見られるが,本研究のキーワードリストによって分類したニュース記事クラス間と比較すると, 平均値の差の大きさは小さい. また, $\overline{C A R}[+2,+5]$ や $\overline{C A R}[+6,+10]$ では有意差が見られず,ニュース記事配信日から離れると同様に分類が難しいことが見て取れる. $\overline{C A R}[-10,-6]$ や $\overline{C A R}[-5,-2]$ では一部にクラス間に有意差が見られることから,日本語評価極性辞書は過去の状況を表したキーワードが多い可能性がある. ロイターニュースの検定結果である表 10 を見ると, $\overline{A R}[0]$ では Negative - Very Negative 以外で有意差があり, 分類できている可能性はあるものの, 表 9 と比べると平均值の差は小さいため,ロイターニュースについても同様に本研究手法のキーワードリストの方が日本評価極性辞書よりもうまく分類できていることを示している。そして,ニュース記事配信日から離れる と分類が困難である様子は同様である. 多重比較検定結果のまとめとして, 本研究のキーワードリストを用いて分類された各ニュー ス記事クラス間の相対的な株式リターンの差はニュース記事配信日において顕著に観察された。 そして,日経 QUICKニュースでは,ニュース記事配信日前営業日と翌営業日でにおいても,差の大きさ自体は小さいが統計的な差があり, キーワードリストの有効性が認められた. しかしながら,ロイターニュースではニュース記事配信日の株式リターンは,統計的な差があるものの, 他の営業日では必ずしも統計的な差が認められず,日経 QUICKニュースとは異なる結果となった。そのため, 本研究手法で作成したキーワードリストを他のメディアに適用するためのより適切な方法は今後の課題である。そして, ニュース記事配信日から離れると統計的な差は認められず,本研究のキーワードリストはニュース記事配信日及び前後 1 営業日の株式リター ンに関する極性情報を持つキーワードリストとなっていることを示している。 さらに,本研究手法によって作成したキーワードリストは,金融分野に特化した辞書となっていることが示された。 ## 5 極性辞書の自動生成に関する先行研究 日本語極性辞書の自動作成を試みた先行研究として, 小林, 乾, 乾 (2001), 乾, 乾, 松本 (2004),小林, 乾, 松本, 立石, 福島 (2005), Kanayama and Nasukawa (2006), Kaji and Kitsuregawa (2007), 鳥倉, 小町, 松本 (2012) などがある. これら先行研究のアプローチは, 半教師あり学習に分類される (Pang and Lee 2008; Liu 2012). 半教師あり学習には,最初に少量ではあるが教師データが必要となる. 教師データは人手で用意するか, あるいは General Inquirer のような既に人手でラベル付けされた辞書を用意する必要がある。とりわけ,金融分野に特化した極性辞書を作成する場合, 専門家によるラベル付けが必要となる。これら半教師あり学習によるアプローチに対して, 本研究では,(機関)投資家向けのニュースデータという特性に注目し,外部のデータベース(株式価格データ)から極性情報を獲得することで,人手による極性判断を介さずに金融分野に特化した極性辞書の作成を行った点が特長である. ## 6 おわりに 本研究では,ファイナンス分野及び会計分野の研究に用いるための金融分野に特化した極性辞書の作成を目的とし,ニュースデータと株式価格データからキーワードリストの作成を行った. 本研究の主な貢献は,1)イベントスタディ分析の枠組みによって,各銘柄と各時期の共変動リスクを調整した株式価格変動をもとにキーワードリストを作成したこと,2)金融市場の価格形成と関連性の高いメディアを用いることで,ニュース記事配信日の調整や個別銘柄への紐 付けなど精緻に行ったこと。加えて,3) 本研究手法によって作成したキーワードリストを用いて,作成に用いたメディアのニュース記事分類と他メディアのニュース記事分類を行い,一般的な極性辞書による分類との比較を通じて,本研究手法の有効性を検証したこと,の三点である。そして検証の結果,キーワードリストを用いることで,ニュース記事配信日の株式リター ンに関して,将来のニュース記事を分類できること,加えて,異なるメディアのニュース記事も分類できることを示した。また,経済・金融分野に特化していない一般的な極性辞書よりもうまく分類できていることから,金融分野に特化した辞書になっていることが示された。一方で,キーワードリストはニュース記事配信日から 2 営業日以上離れると,ニュース記事分類が困難であることが示された。 本研究手法によって作成されたキーワードリストを用いることで,経済ニュースや有価証券報告書,アナリストレポート,インターネットへの投稿内容などのテキスト情報を用いた資産価格分析を可能にし,これまで数值情報だけでは計測が困難であった情報と資産価格との関連性の解明できる可能性がある。本研究の手法は, これまで一回でも出現したキーワードに対して対応することは可能であるが,完全な新単語に対応できるわけではないため,手法の改善は今後の課題である。より長期間のデータを用いた実験やニュースデータ以外のメディアへの応用などについても,今後の課題である. ## 謝 辞 本稿の作成にあたり,株式会社日本経済新聞社,株式会社 QUICK,株式会社金融工学研究所から研究支援を受けた。記して感謝したい. ## 参考文献 Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer. Campbell, J. Y., Lo, A. W., and MacKinlay, A. C. (1997). The Econometrics of Financial Markets. Princeton University Press. 張へい, 松原茂樹 (2008). 株価データに基づく新聞記事の評価. 第 22 回人工知能学会全国大会論文集, pp. 1-3. Fama, E. F. and French, K. R. (1993). "Common Risk Factors in the Returns on Stock and Bonds." Journal of Financial Economics, 33 (1), pp. 3-56. Games, P. A. and Howell, J. F. (1976). "Pairwise Multiple Comparison Procedures With Unequal N's and/or Variances: A Monte Carlo Study." Journal of Educational Statistics, 1 (2), pp. 113-125. Henry, A. (2008). "Are Investors Influenced by How Earnings Press Releases Are Written?" Journal of Business Communication, 45 (4), pp. 363-407. 東山昌彦, 乾健太郎, 松本裕治 (2008). 述語の選択選好性に着目した名詞評価極性の獲得. 言語処理学会第 14 回年次大会論文集, pp. 584-587. 廣川敬真, 吉田稔, 山田剛一, 増田英孝, 中川裕志 (2010). 業種別による新聞記事と株価動向の関係の解析. 言語処理学会第 16 回年次大会発表論文集, pp. 1070-1073. 乾孝司, 乾健太郎, 松本裕治 (2004). 出来事の望ましさ判定を目的とした語彙知識獲得. 言語処理学会第 10 回年次大会論文集, pp. 91-94. Kaji, N. and Kitsuregawa, M. (2007). "Building Lexicon for Sentiment Analysis from Massive Collection of HTML Documents." In Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 1075-1083. Kanayama, H. and Nasukawa, T. (2006). "Fully Automatic Lexicon Expansion for Domainoriented Sentiment Analysis." In Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing, pp. 355-363. Kearney, C. and Liu, S. (2014). "Textual Sentiment in Finance: A Survey of Methods and Models." International Review of Financial Analysis, 33, pp. 171-185. 小林のぞみ, 乾孝司, 乾健太郎 (2001). 語釈文を利用した「 $\mathrm{p} / \mathrm{n}$ 辞書」の作成. 言語・音声理解と対話処理研究会, 33, pp. 45-50. 小林のぞみ, 乾健太郎, 松本裕治, 立石健二, 福島俊一 (2005). 意見抽出のための評価表現の収集. 自然言語処理, 12 (3), pp. 203-222. 久保田敬一, 竹原均 (2007). Fama-French ファクターモデルの有効性の再検証. 現代ファイナンス, 22, pp. 3-23. Liu, B. (2012). Sentiment Analysis and Opinion Mining. Morgan \& Claypool Publishers. Loughran, T. and McDonald, B. (2011). "When Is a Liability Not a Liability? Textual Analysis, Dictionaries, and 10-Ks." Journal of Finance, 66 (1), pp. 35-65. Loughran, T. and McDonald, B. (2016). "Textual Analysis in Accounting and Finance: A Survey." Journal of Accounting Research, 54 (4), pp. 1187-1230. 小川知也, 渡部勇 (2001). 株価データと新聞記事からのマイニング. 情報処理学会研究報告情報学基礎(FI), 2001 (20), pp. 137-144. Pang, B. and Lee, L. (2008). "Opinion Mining and Sentiment Analysis." Foundations and Trends in Information Retrieval, 2 (1-2), pp. 1-135. 鳥倉広大,小町守,松本裕治 (2012). Twitter を利用した評価極性辞書の自動拡張. 言語処理学会第 18 回年次大会論文集, pp. 551-554. ## 略歴 五島圭一:2012 年慶應義塾大学経済学部卒業. 2014 年同大学院経営管理研究科修士課程修了. 2017 年東京工業大学大学院総合理工学研究科知能システム科学専攻博士後期課程修了. 博士 (工学). 現在は, 日本銀行金融研究所にてファイナンス研究に従事. 高橋大志:1994 年東京大学工学部卒業. 富士写真フイルム(現・富士フイルム) 研究員. 三井信託銀行(現・三井住友信託銀行)シニアリサーチャー.筑波大学大学院経営 - 政策科学研究科修士課程修了. 同大学院博士課程修了.博士 (経営学). 岡山大学准教授, キール大学客員研究員, 慶應義塾大学准教授を経て, 2014 年より, 慶應義塾大学大学院経営管理研究科・慶應義塾大学ビジネススクール教授、日本ファイナンス学会, SICE, 人工知能学会等各会員. 経営情報学会誌編集委員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 素性空間拡張法に基づくフレーズベース統計翻訳の マルチドメイン適応 今村 賢治 ${ }^{\dagger}$ 隅田英一郎† ドメイン適応は,機械翻訳を実用に使用するときの大きな課題の一つである.本稿 では,複数ドメインを前提とした,統計翻訳の適応方式を提案する。本稿の方式は, カバレッジが広い (未知語が少ない) コーパス結合モデルと, 素性関数の精度がよい 単独ドメインモデルを併用する。これらを,機械学習のドメイン適応に用いられて いる素性空間拡張法の考え方で結合する。従来の機械翻訳における素性空間拡張法 は, 単一のモデルを用いていたが, 本稿の提案方式は, 複数のモデルを用いること により,両者の利点を活かすことが特徴である,実験では,単独ドメインモデルに 比べ,翻訳品質が向上または同等を保持した。提案法は,当該ドメインの訓練コー パスが小規模である場合に高い効果を持ち,100万文規模の大規模コーパスを持つ ドメインへの適応に使用しても, 翻訳品質を下げることなく, ドメインによっては 品質向上の効果がある。基本的な対数線形モデルでも, モデルの選択と設定を適切 に行うことで,最先端品質の適応方式が実現できることを示す. キーワード:ドメイン適応,フレーズベース統計翻訳,素性空間拡張法,コーパス結合モデ ル, empty 值 ## Multi-domain Adaptation for Statistical Machine Translation Based on Feature Augmentation \author{ Kenji Imamura $^{\dagger}$ and Eirchiro Sumita ${ }^{\dagger}$ } Domain adaptation is a major challenge when machine translation is applied to practical tasks. In this study, we present domain adaptation methods for machine translation that assume multiple domains. The proposed methods combine two typesof models: a corpus-concatenated model covering multiple domains and single-domain models that are accurate but sparse in specific domains. We combine the advantages of both the models using feature augmentation for domain adaptation in machine learning; however, a conventional method of feature augmentation for machine translation uses a single model. Our experimental results show that the translation qualities of the proposed method improved or were at the same level as those of the single-domain models. The proposed method is extremely effective in low-resource domains. Even in domains having a million bilingual sentences, the translation quality was at least preserved and even improved in some domains. These results demonstrate that stateof-the-art domain adaptations can be realized with appropriate model selection and appropriate settings, even when standard log-linear models are used.  Key Words: Domain Adaptation, Phrase-based Statistical Machine Translation, Feature Augmentation, Corpus-concatenated Model, Empty Value ## 1 はじめに さまざまな種類のテキストや,音声認識結果が機械翻訳されるようになってきている.しかし, すべてのドメインのデータにおいて,適切に翻訳できる機械翻訳器の実現はいまだ困難であり,翻訳対象ドメインを絞りこむ必要がある. 対象ドメインの翻訳品質を向上させるには, 学習デー夕(対訳文)を大量に収集し, 翻訳器を訓練するのが確実である。しかし,多数のドメインについて,対訳文を大量に収集することはコスト的に困難であるため, 他のドメインの学習データを用いて対象ドメインの翻訳品質を向上させるドメイン適応技術が研究されている (Foster and Kuhn 2007; Foster, Goutte, and Kuhn 2010; Axelrod, He, and Gao 2011; Bisazza, Ruiz, and Federico 2011; Sennrich 2012; Sennrich, Schwenk, and Aransa 2013). このドメイン適応は,機械翻訳を実用に供するときには非常に重要な技術である. 本稿では, 複数ドメインを前提とした, 統計翻訳の適応方式を提案する。本稿の提案方式は,複数のモデルを対数線形補間で組み合わせる方法である. シンプルな方法であるが, 機械学習分野のドメイン適応方法である素性空間拡張法 (Daumé 2007)の考え方を流用することで, 複数ドメインの利点を活かす。具体的には,以下の 2 方式の提案を行う. (1)複数ドメインの同時最適化を行う方法. この場合, 拡張された素性空間に対して, マルチドメイン対応に変更した最適化器で同時最適化を行う. (2)複数ドメインを一つ一つ個別に最適化する方法. この場合, 素性空間を制限し,通常の対数線形モデルとして扱う.既存の翻訳システムへの改造が少なくても実現できる. いずれの方法も,さまざまなドメインで未知語が少ないコーパス結合モデルと, ドメインを限定した際に翻訳品質がよい単独ドメインモデルを併用する. さらに, 複数モデル組み合わせ時のハイパーパラメータをチューニングする. 素性空間拡張法を機械翻訳に適用した例には, Clark, Lavie, and Dyer (2012)がある.これは,翻訳文の尤度の算出に用いられる素性ベクトルの重みだけを適応させていて,素性関数は適応させていない,本稿の新規性は,コーパス結合モデルと単独ドメインモデルを使って,素性関数を適応させていること, および,複数モデル組み合わせ時のハイパーパラメータを適切に設定することの 2 点である. モデルの選択と設定を適切に行うことによって, 最先端のドメイン適応と同等以上の精度が出せることを示す. なお,本稿では,事前並べ替えを使ったフレーズベース統計翻訳方式 (PBSMT)(Koehn, Och, and Marcu 2003; Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007) を対象とする.以下,第 2 節では, 統計翻訳のドメイン適応に関する関連研究を述べる。第 3 節では,提案方式を詳細に説明する。第 4 節では,実験を通じて本方式の特徴を議論し,第 5 節でまとめる. ## 2 統計翻訳のドメイン適応 機械翻訳のドメイン適応は,翻訳対象のドメイン(内ドメイン)データが少なく,他のドメイン(外ドメイン)データが大量にある場合,内外ドメインのデータ双方を使って,内ドメインの翻訳品質を向上させる技術である. ドメイン適応には,「ニュース」「Web」のように,あらかじめデータがどのドメインに属するか決まっている場合の他に,自動クラスタリングによって仮想的に作られる場合もある。自動で分割されたドメインでも,重みを最適化することによって,トータルの翻訳品質が向上するという報告もある (Finch and Sumita 2008; Sennrich et al. 2013). 本稿では,前者のあらかじめデータのドメインが決まっている場合で議論する. ## 2.1 コーパス結合 最もシンプルなべースラインとして用いられている方法は, 内ドメインと外ドメインのデー 夕を結合して学習し,1つのモデルを構築する方法である(本稿ではコーパス結合方式と呼ぶ).学習された結合モデルは, 各ドメインの開発セットで最適化される. 一般的な機械学習では,結合されたコーパスで学習したモデルは,内ドメイン,外ドメイン双方の中間的性質を持つため, その精度も内ドメインデータのみ, 外ドメインデータのみで学習されたモデル(単独ドメインモデルと呼ぶ)の中間の精度になることが多い. 一方,機械翻訳の場合,コーパスを結合することにより,カバーする語彙が増加するため未知語が減少し, 単独ドメインモデルより翻訳品質が向上する場合もある。最終的に翻訳品質が向上するか否かは,未知語の減少とモデルパラメータの精度低下のトレードオフになる。 ## 2.2 線形補間,対数線形補間 統計翻訳では,翻訳に使用するサブモデル(フレーズテーブル,言語モデル,並ベ替えモデルなど)が返す値(素性関数値)を,線形または対数線形結合して,翻訳文の尤度を算出する。対数線形モデルでは,以下の式で尤度 $\log P(e \mid f)$ を算出する. $ \log P(e \mid f) \quad \propto \quad \mathbf{w} \cdot \mathbf{h}(e, f) $ ただし, $e$ は翻訳文, $f$ は原文, $\mathbf{h}(e, f)$ は素性ベクトル, $\mathbf{w}$ は素性関数の重みベクトルである. このとき,重みべクトル $\mathrm{w}$ をドメイン毎に切り替えることで, ドメイン依存訳を生成する方 法がある.たとえば,Foster and Kuhn (2007) は, PBSMTのサブモデルをドメイン毎に訓練し,線形補間,対数線形補間でドメイン毎の重みを変えて翻訳を行った.彼らはパープレキシティなどを目標関数にして,独自の重み推定を行ったが,近年は,重みの推定に誤り率最小訓練法 (MERT) (Och 2003) などの最適化方法が用いられている (Foster et al. 2010). 素性空間拡張法 (Daumé 2007) は,翻訳に限らず,機械学習全般に使われるドメイン適応方式で,素性関数の重みをドメイン毎に最適化する (3.1節参照). Clark et al. (2012)は, これを対数線形補間方式の一種として翻訳に適用し,効果があったと報告している。 なお, 彼らは単一のモデルを用い,モデルの重みのみをドメイン適応させている. ## 2.3 モデル適応 重みベクトルではなく, 素性べクトル $\mathbf{h}(e, f)$ (素性関数)を変更することによってドメイン適応する方法は,大きく 2 つに分けられる。一つは,訓練済みサブモデル自身を変更する方法である。もう一つは,ドメインに適応させたコーパスからモデルを訓練する方法である。このうち, サブモデル自身を変更する方法には, fill-up 法 (Bisazza et al. 2011), 翻訳モデル混合 (Sennrich 2012), インスタンス重み付け (Foster et al. 2010; Matsoukas, Rosti, and Zhang 2009) が知られている. fill-up 法は,フレーズテーブルから翻訳候補を取得する際,内ドメインの単独モデルにフレー ズが存在する場合はその素性関数值を使用, 存在しない場合は外ドメインの単独モデルからフレーズを取得し,その値を使用する。 翻訳モデル混合は, 2 つのフレーズテーブルに記録された翻訳確率を重み付きで混合し,新たなフレーズテーブルを生成する。重みは開発セットのパープレキシティが最小になるように,素性関数毎に設定される. インスタンス重み付けは,フレーズテーブルのモデルパラメーターつ一つを,内ドメインと外ドメインを識別するように内ドメインの開発セットで混合する. これらの方法は, 素性関数値のみでなく, デコード時のフレーズ候補も 2 つのモデルのフレー ズを使用するため,一般的には未知語は減少する。しかし,フレーズテーブル以外のサブモデルは, 別の構築・混合法を使わなければならないというデメリットも存在する. ## 2.4 コーパスフィルタリング 素性ベクトル $\mathbf{h}(e, f)$ を変更するもう一つの方法は, モデル訓練用コーパスをドメイン適応させる方法である,最初に述べたコーパス結合も,この一種であるが,よりドメインに適応させるには,外ドメインコーパスから対訳文を取捨選択した方がよい。この,外ドメインコーパスから対訳文を取捨選択し,内ドメインコーパスとともにモデルを作成する方式を,コーパスフィルタリングと呼ぶ. Axelrod et al. (2011)は,内ドメインに適した対訳文を,内外ドメインの交 差エントロピーの差に基づき, 外ドメインコーパスから取捨選択した. 選択された文を内ドメインコーパスに追加してモデルを訓練することで, ドメイン適応を行った。 コーパスフィルタリングは,翻訳器が使用する全サブモデルを,その種類を問わず適応させることができる点がメリットであるが,最適な追加訓練文数は,あらかじめ予想できない点がデメリットである. ## 2.5 その他の方法 その他の方法としては, 2 つの翻訳器を直列に接続し, 外ドメイン翻訳器による翻訳結果を, さらに内ドメイン翻訳器を使って訂正する方法もある (Jeblee, Feely, Bouamor, Lavie, Habash, and Oflazer 2014).これは, ドメイン依存訳の生成を一種の誤り訂正ととらえていることに相当する。 ## 3 マルチドメイン適応方式 ## 3.1 素性空間拡張法 素性空間拡張法 (Daumé 2007) は, 一般的な機械学習におけるパラメータ(統計翻訳では素性の重みに対応)のドメイン適応に用いられる方式である。素性空間を共通,内ドメイン(ター ゲットドメイン),外ドメイン(ソースドメイン) に分割し,素性を,それが由来するドメインごとに異なる空間に配置する。内ドメインの素性は共通空間と内ドメイン空間に,外ドメインの素性は共通空間と外ドメイン空間にコピーして配置するのが特徴である。そして,全体を最適化することにより,適応された重みべクトルを得る。 素性が踈な二值素性の場合,共通空間に格納される素性は,内ドメインデータから得られる素性と,外ドメインデータから得られる素性の和 $(\mathrm{OR})$ になる,そのため,共通空間にある素性が,内外ドメインの枑いに欠落した素性を補完し,精度が向上する。統計翻訳のような密な実数素性の場合, 共通空間を介して, 外ドメインの素性が内ドメインの事前分布として作用し,より内ドメインに適合した重みに調整される(Daumé (2007)の 3.2 節参照). 通常は,外ドメインを内ドメインに適応するために使用されるが,素性空間拡張法では,外ドメインと内ドメインを同等に扱っており,容易に $D$ ドメインに拡張することができる。その場合,素性空間は共通,ドメイン $1, \ldots$ ドメイン $D$ のように, $D+1$ 空間に分割される(図 1 ). すなわち, $ \mathbf{h}(f, e)=\left.\langle\mathbf{h}_{c}, \mathbf{h}_{1}, \ldots, \mathbf{h}_{i}, \ldots, \mathbf{h}_{D}\right.\rangle $ ただし, $\mathbf{h}_{c}$ は共通空間の素性ベクトル, $\mathbf{h}_{i}$ はドメイン依存空間の素性ベクトルである。共通空 図 1 素性空間拡張とコーパス結合モデル/単独ドメインモデルの併用 間には常に素性が配置されるが,ドメイン依存空間には,データの属するドメインが一致する場合だけ,素性が配置される。 $ \begin{aligned} & \mathbf{h}_{c}=\boldsymbol{\Phi}(f, e) \\ & \mathbf{h}_{i}= \begin{cases}\boldsymbol{\Phi}(f, e) & \text { if domain }(f)=i \\ \emptyset & \text { otherwise }\end{cases} \end{aligned} $ ただし, $\boldsymbol{\Phi}(f, e)$ はモデルスコア等を格納した部分べクトルで, 素性空間を拡張しない場合は, $\mathbf{h}(f, e)$ と同じになる.この素性マトリクスを最適化し, 重みべクトルを得る. 4 節の実験では, Mosesツールキット (Koehn et al. 2007)のデフォルト素性(15 次元)を使用する。素性の一覧を表 1 に示す。これに素性空間拡張法を適用すると, 共通空間では 15 次元, ドメイン依存空間では各 14 次元となる 1 . Clark et al. (2012)は,アラビア語 $\rightarrow$ 英語翻訳(ドメインは News と Web)およびチェコ語 $\rightarrow$ 英語翻訳(ドメインは Fiction など 6 ドメイン)について素性空間拡張法を適用し,効果が観測されたと報告している,ただし,彼らは,翻訳モデル,言語モデルなどのサブモデルは,コー パス結合モデル 1 種類だけを使用しており,純粋に素性関数の重みだけをドメイン最適化している.  表 1 本稿で用いる素性の一覧 \\ ## 3.2 提案法 ## 3.2.1コーパス結合モデルと単独ドメインモデルの導入 機械翻訳では,素性の重みより素性関数の方が翻訳品質に対する影響が大きいため,素性空間によってモデルを切り替えるのは自然な拡張である. 本稿で用いる素性関数は,実数值を返す関数であるが,その実態は,モデルファイルに記録されているインスタンスを読み込み,それに対応する值を返している。もし,訓練データ不足などの理由でモデルファイル中にインスタンスが存在しない場合, 素性関数値は極小值になる. つまり,実数値の素性関数であっても,実際には二値素性と同様に,スパースネスの問題がある。そこで本稿では,二値素性の素性空間拡張法の考え方を素性関数に適用し,共通空間に対応するモデルとして,全ドメインのコーパスから作成したコーパス結合モデルを使用する。ドメイン依存空間には,それぞれの単独ドメインモデルを使用する。具体的には, ・フレーズテーブル, 語彙化並び替えモデル, 言語モデルなどのサブモデルについて, 単独ドメインモデルとコーパス結合モデルを作成しておく. - 素性空間拡張では, 共通空間にはコーパス結合モデルのスコアを素性関数値として配置し, 各ドメインの空間には, 単独ドメインモデルのスコアを配置し, 最適化する(図 1).式 (3)(4) は以下の式に置換される。 $ \begin{aligned} \mathbf{h}_{c} & =\boldsymbol{\Phi}_{c}(f, e) \\ \mathbf{h}_{i} & = \begin{cases}\boldsymbol{\Phi}_{i}(f, e) & \text { if domain }(f)=i \\ \emptyset & \text { otherwise }\end{cases} \end{aligned} $ ただし, $\boldsymbol{\Phi}_{c}(f, e)$ はコーパス結合モデルから得られた素性ベクトル, $\boldsymbol{\Phi}_{i}(f, e)$ は, 単独ドメインモデル $i$ から得られた素性ベクトルである. ・ デコーディングの際は,まず,単独ドメインモデルとコーパス結合モデルのフレーズテー ブルをすべて検索し,翻訳仮説を生成する,探索の際には,共通空間と対象ドメインの空間の素性だけを使って尤度計算をする。 翻訳仮説生成にコーパス結合フレーズテーブルを使用することにより,他のドメインで出現した翻訳フレーズも利用でき,未知語の減少が期待できる。また,翻訳仮説が単独ドメインモデルに存在している場合, 高い精度の素性関数値が得られると期待される. 本方式は, 拡張素性空間を最適化することによって, 重みベクトル $\mathbf{w}$ を適応し, コーパス結合モデルと単独ドメインモデルを併用することで, 素性関数 $\mathbf{h}(e, f)$ の適応を行っている. どちらもモデルの種類に依存しないため, 翻訳に使用する全サブモデルについて,適応させることができる. なお,機械翻訳では,言語モデルを大規模な単言語コーパスから作成する場合がある。このモデルは,いわば非常に多くのドメインを含むコーパス結合モデルに相当するため,共通空間に配置するとよい。このように,外部知識から得られたモデル(素性関数)を追加する場合には,共通空間の次元を増加させる。 ## 3.2.2 empty 値 本方式では, コーパス結合モデル, 単独ドメインモデルのどちらか一方にのみ出現するフレー ズ対が多数存在する。これらフレーズなどのインスタンスに関しても素性関数は値を返す必要がある。この值を本稿では empty 值と呼ぶ.これはいわばn-gram 言語モデルにおける未知語確率に相当するものであるので,フレーズの翻訳確率分布から算出されるべきものであるが,本稿では, パイパーパラメータとして扱い, 開発コーパスにおける BLEU スコアが最高になるよう,実験的に設定する² ## 3.3 最適化 ## 3.3.1 同時最適化 一般的な機械学習における素性空間拡張法の利点の一つは, 素性空間を操作しているだけなので,最適化アルゴリズムは既存の方法が使えるという点である. 機械翻訳の場合, 最適化方法には, 誤り率最小訓練 (MERT)(Och 2003), ペアランク最適化 (PRO)(Hopkins and May 2011), k ベストバッチ MIRA (KBMIRA) (Cherry and Foster 2012)が知られている。本稿では,高次元の最適化に適した KBMIRA を使用する ${ }^{3}$.  通常の機械学習における最適化と, 機械翻訳の最適化の大きな相違点は, 多くの機械学習の損失関数が,尤度などデコーダが出力するスコアを使用しているのに対して,機械翻訳は BLEU (Papineni, Roukos, Ward, and Zhu 2002)のような, 翻訳文の自動評価値を使用する点である. この自動評価値は,翻訳文と参照訳との比較によって算出され,コーパス単位に計算される場合が多い. 実際, MERT, KBMIRA は開発セットの BLEU スコアを損失関数の一部に使用している 4 . つまり,複数ドメインを同時に最適化する場合は,ドメイン毎に BLEUスコアを算出しないと,結果がドメイン最適にならないことを意味している. 上記問題を解決するため,本稿では KBMIRAを変更する. Cherry and Foster (2012)のアルゴリズム 1 に対する変更点は,以下のとおりである. (1) 処理済み翻訳文の BLEU 統計量(n-gram一致数など)を保存する変数 $B G$ を,1つからドメイン数 $D$ 個に拡張する. (2) 各翻訳文の BLEU スコアは,その翻訳文のドメイン $i$ の $B G_{i}$ から算出する. (3) 素性重みを更新後, その翻訳文の BLEU 統計量を $B G_{i}$ に追加する. この変更によって, 各ドメイン空間の素性重みは, そのドメインの開発セットに最適化される. ## 3.3.2 個別最適化 同時最適化は,適応させたいドメインが限られている場合にも,すべてのドメインを最適化しなければならないので, 少々非効率である。そこで, 全 $D$ ドメインのうち, ドメイン $i$ だけ適応させたい場合, ドメイン $i$ に関連する空間だけに限り, 最適化を行う。これを本稿では個別最適化と呼ぶ. 個別最適化は,素性空間を共通空間とドメイン $i$ 空間に制限し,チューニングデータもドメイン $i$ に関するものだけにする。すなわち, 式 (2) は式 (7)に置き換える. $ \begin{aligned} \mathbf{h}(f, e) & =\left.\langle\mathbf{h}_{c}, \mathbf{h}_{i}\right.\rangle \\ \mathbf{h}_{c} & =\boldsymbol{\Phi}_{c}(f, e) \\ \mathbf{h}_{i} & =\boldsymbol{\Phi}_{i}(f, e) \end{aligned} $ これは, 一般的な対数線形モデルであるので, 同時最適化を行わなくても, 既存の最適化器をそのまま使うことができる。また,デコーダも,(1) 複数モデルを同時に使えること, (2) empty 值を設定できること,の 2 点を満たすものであればよいため, 既存のものを少し修正するだけで利用可能となる. 同時最適化に比べると, 共通空間の最適化が弱くなる恐れがあるが, もともと機械翻訳は素性の重みより素性関数の影響の方が大きいため, 実用上は問題は少ないと考えられる。ただし, ^{4}$ Clark et al. (2012) が素性空間拡張法の最適化に使用した PRO は文単位に近似した BLEU スコアを用いている. } 以下の 2 点に関しては, 同時最適化と共通に満たす必要がある. (1) 共通空間の素性にコーパス結合モデルを使うこと。 (2) empty 值を適切に設定すること. ## 4 実験 ## 4.1 実験設定 ## 4.1.1 ドメイン/コーパス 本稿では, 英日/日英翻訳を対象に,以下の 4 つのドメインの最適化を行う,各ドメインのコーパスサイズを表 2 に示す. MEDコーパスは比較的小規模で, それ以外のドメインは 100 万文規模である。なお, 訓練文は 80 単語以下のものだけを使用した. - MED: 病院等における医師(スタッフ)と患者の疑似対話のコーパス. 内部開発. - LIVING: 外国人が日本に旅行や在留する際の疑似対話コーパス. 内部開発. - NTCIR: 特許コーパス. 訓練コーパスと開発コーパスは国際ワークショップNTCIR-8, テストコーパスは NTCIR-9のものを使用 ${ }^{5}$. - ASPEC: 科学技術文献コーパス (Nakazawa, Yaguchi, Uchimoto, Utiyama, Sumita, Kurohashi, and Isahara 2016) ${ }^{6}$. ASPEC-JEのうち, 対訳信頼度の高い 100 万文を使用. ## 4.1.2翻訳システム 各コーパスの対訳文は,内部開発の事前並べ替え(Goto, Utiyama, Sumita, and Kurohashi (2015)の 4.5 節)を適用したのちに使用した. これは, 新聞, Wikipedia, 旅行会話, 生活会話,科学技術文, ブログなどを混合した対訳コーパスから,ランダムに 500 万文程度を抽出して訓練した,特定のドメインに依存しない事前並び替えである,今回は,全ドメイン,全方式について同一の事前並び替えを適用した。 表 2 コーパスサイズ  また, 日本語に関しては, 訓練, テスト等すべての文について, あらかじめ形態素解析器 MeCab(Kudo, Yamamoto, and Matsumoto 2004) で単語分割を行ってから使用した. 英語に関しては, Mosesツールキット (Koehn et al. 2007) 付属の tokenizer, truecaser で前処理した.翻訳システムの訓練のうち, フレーズテーブル, 語彙化並び替えモデルの学習には Moses ツー ルキットをデフォルト設定で使用した。言語モデルは KenLM(Heafield, Pouzyrevsky, Clark, and Koehn 2013) を用いて, 訓練セットの目的言語側から5 グラムモデルを構築した. 最適化は 3.3.1 節で述べたマルチドメイン KBMIRA を使用した. デコーディングには,内部開発の Moses のクローンデコーダを使用した. デコーダの設定値は Moses のデフォルト値と同じ phrase_table_limit $=20$, distortion_limit $=6$, ビーム幅 200 とした. なお, フレーズ候補取得の際には, 複数のフレーズテーブルをすべて検索して候補を取得後, 拡張素性空間で算出された尤度に従って, 20 個に絞り达んた。 ## 4.1.3 empty 值 3.2.1節で述べた empty 値は, -3 から -20 の間の整数値のうち, 全ドメインの開発セット翻訳結果を 1 ドキュメント扱いしたときの BLEU スコアが最高值になる値を採用した. 結果, 英日翻訳に関しては -7 , 日英翻訳は -6 となった. これを確率値とみなした場合, 英日は $\exp (-7) \approx 0.0009$,日英は $\exp (-6) \approx 0.0025$ となる. ## 4.1.4 評価指標 評価指標には BLEU, 翻訳編集率 (TER) (Snover, Dorr, Schwartz, Micciulla, and Makhoul 2006), Meteor (Denkowski and Lavie 2014) (英語のみ), RIBES (Isozaki, Hirao, Duh, Sudoh, and Tsukada 2010)(日本語のみ)を使用し, MultEval ツール (Clark, Dyer, Lavie, and Smith 2011) ${ }^{7}$ で有意差検定を行った ${ }^{8}$. 危険率は $p<0.05$ とした. 最適化の摇れを吸収するため, 5 回最適化を実施し,その平均値を使用した。なお,単純化のため,本文では BLEUで説明する. ## 4.1.5 比較方式 各ドメインコーパスだけでモデルを構築, 最適化, テストする単独ドメインモデル方式をべー スラインにし,他の方式と比較する。従来法としては, 2 節で述べた以下の方式を使用する. ・ コーパス結合:全ドメインのコーパス結合モデルを使用し, 各ドメインの開発セットで最適化, テストした場合. - 素性空間拡張法 (Clark):共通空間, ドメイン空間共に, コーパス結合モデルの素性関  数を使った素性空間拡張法. Clark et al. (2012)の設定と同じだが, 最適化にはマルチドメイン KBMIRAを使用した。 - Fill-up 法:ドメイン適応方式に fill-up 法 (Bisazza et al. 2011) を用いた場合. ・ 翻訳モデル混合:ドメイン適応方式に翻訳モデル混合 (Sennrich 2012)を用いた場合. Moses 付属の tmcombine プログラムで混合した. - コーパスフィルタリング : Axelrod et al. (2011) が提案した修正 Moore-Lewis フィルタリングで,自分以外のドメインのコーパスから対訳文を選択し, ドメインの訓練文に加えた場合.追加文数は, 10 万文単位に文数を変え,各ドメインの開発セットの BLEU スコアが最高になった文数を採用した9. 提案法は,以下のバリエーションをテストする. - 提案法(同時最適化):提案法のうち,3.3.1 節で述べた同時最適化を使用した場合. - 提案法 (個別最適化) : 提案法のうち, 3.3.2 節で述べた個別最適化を使用した場合. - 提案法 $($ empty $=-100)$ :提案法の empty 值を, Moses と同じ -100 に設定した場合. なお,最適化は個別最適化を使用したが,同時最適化でも同じ傾向が観察された。 - 提案法(外ドメイン):提案法のうち, 共通空間に対応するモデルとして, コーパス結合モデルではなく,内ドメインデータを取り除いた外ドメインコーパス(つまり,内ドメイン以外の 3 ドメインのコーパス)だけから学習したモデルを使用した場合. これも個別最適化を使用した。 ## 4.2 翻訳品質 各方式について,英日翻訳および日英翻訳における自動評価スコアを,それぞれ表 3 ,表 4 に示す. なお, 表中太字は方式間最高値, (+) は, 単独ドメインモデル方式をべースラインとしたとき有意に向上したもの,()は有意に悪化したものを表す $(p<0.05)$. 今回用いたデータは,ドメイン同士の関連性が比較的薄かったため,従来法では,適応によって翻訳品質は軒並み悪化した。たとえば,コーパス結合方式と素性空間拡張法 (Clark) は, 単独モデルより翻訳品質が低下する傾向が強かった. コーパス結合方式は各ドメインが平均化されたモデルが作成され,素性関数の精度が落ちたためと考えられる。 Fill-up 法は,コーパス結合方式に比べると翻訳品質は向上する場合が多かったが,単独ドメインモデルより悪化した.翻訳モデル混合は, ドメインによって有意に向上する場合と悪化する場合があり,この実験での有効性は確認できなかった。コーパスフィルタリングは, ASPEC の英日翻訳を除き,単独ドメインモデルより有意に向上,または同等品質となった. ASPEC 英日翻訳は 10 万文を加えただけだったが,これが悪影響しており,コーパスフィルタリングは有  表 3 方式別の自動評価スコア(英日翻訳) 効だが,最適な追加文数の決定は難しいことを示している。 一方, 提案法は, 同時最適化, 個別最適化ともに, すべてのドメインにおいて単独ドメインモデルより向上あるいは同等品質となり, 適切に適応できた. 同時最適化に比べ, 個別最適化の方が, BLEU スコアが高い傾向がある。なお, empty 值を -100 にすると, 最適化時に BLEU スコアが振動して, 最適化できない場合があった(表中の N/A)。また, 提案法でも, 共通空間に使用するモデルを外ドメインモデルにすると,大部分のケースでは提案法に比べ品質が悪化した. 共通空間に使用するモデルは,内ドメインを含むコーパス結合モデルの方が望ましいことを示している. まとめると, 提案法はドメイン適応方式の中ではほぼ最高品質を確保できた. 特に, 個別最適化方式のような標準的な対数線形モデルであっても,適切な設定をすれば,最先端方式と同等以上のドメイン適応が実現できることを示している. 表 4 方式別の自動評価スコア(日英翻訳) ## 4.3 シングルドメイン適応としての効果 ドメイン適応が必要となる場面は,新たなドメインデータの翻訳を行わなければならないにも関わらず,十分な量の訓練文が集まらない場合である。本節では, MED 英日翻訳に絞って,訓練コーパスのサイズを変えて翻訳品質を測定する。なお,他のドメインについては変更せず,全訓練文を使用する. 表 5 は,単独ドメインモデル,コーパス結合,コーパスフィルタリングと提案法(個別最適化)を比較した結果である。表中の(+)は単独ドメインモデルと比較して有意に高く,()は有意に低いことを表す。(†)はコーパス結合と比較して有意に高く,(个)はコーパスフィルタリングと比較して有意に高いことを表している $(p<0.05)$. 訓練コーパスが 1,000 文 (1 k) しかない場合は, 提案法は単独ドメインモデルに比べて非常に 表 5 訓練コーパスサイズ別 BLEU スコア(MED コーパス,英日翻訳) & コーパス結合 & \multicolumn{1}{|c}{} & \multicolumn{1}{|c}{} \\ $3 \mathrm{k}$ & 8.99 & $17.52(+)$ & $17.42(+)$ & $\mathbf{1 7 . 9 5}(+)(\dagger)(\uparrow)$ \\ $10 \mathrm{k}$ & 12.54 & $18.19(+)$ & $18.38(+)$ & $\mathbf{1 9 . 0 2}(+)(\dagger)(\uparrow)$ \\ $30 \mathrm{k}$ & 16.49 & $19.18(+)$ & $20.21(+)(\dagger)$ & $\mathbf{2 0 . 2 8}(+)(\dagger)$ \\ $100 \mathrm{k}$ & 20.63 & 20.92 & $22.14(+)(\dagger)$ & $\mathbf{2 2 . 5 3}(+)(\dagger)(\uparrow)$ \\ $223 \mathrm{k}$ (全訓練文) & 23.23 & $22.65(-)$ & $\mathbf{2 4 . 0 2}(+)(\dagger)$ & $23.75(+)(\dagger)$ \\ 高い品質となっているが,コーパス結合とはほぼ同じである。訓練コーパスサイズが増えるにしたがい,全方式ともに BLEU スコアが向上するが,コーパス結合の品質向上は単独ドメインモデルより緩やかで, 約 10 万文 $(100 \mathrm{k})$ で単独ドメインモデルの品質が逆転する. 提案法は, 3,000 文 $(3 \mathrm{k})$ 以上では常に単独ドメインモデル,コーパス結合の品質を上回っており,両者の利点をうまく融合させた方式であることを示している. コーパスフィルタリングは,提案方式とほぼ同様に, 3 万文 $(30 \mathrm{k})$ 以上では,単独ドメインモデル,コーパス結合を有意に上回ったが,提案法を有意に上回ることはなかった, 4.2 節でも述ベたように,コーパスフィルタリングは,最適な追加文数の決定が難しい.実際,この実験では, 10 万文単位での最適な追加文数を決定するため, 1 試行あたり 10 回以上の訓練, 最適化, テストを繰り返した。提案法の訓練回数は, 個別最適化の場合, コーパス結合モデルと単独ドメインモデルの 2 回に固定されており, 使いやすさの観点では提案法がコーパスフィルタリングより優れていると考える. ここで,表 3,4 に戻る,表 $3 4$ では,MEDコーパスにおける提案法(同時最適化, 個別最適化)の翻訳品質が英日,日英ともに向上した。この理由は,MEDコーパスが約 22 万文と, 他のコーパスに比べて小規模で,翻訳品質向上の余地を残していたためと推測できる。一方, MED 以外のドメインは, 100 万文規模の大規模コーパスから学習しているため, 必ずしも翻訳品質が向上するわけではない,しかし,特筆したいのは,大規模コーパスに提案方式を適用しても,翻訳品質が下がることがなく,データによっては向上する場合もあるという点である。 その点で,提案方式はコーパスサイズに対して非常にロバストな方式といえる. ## 4.4 末知語 本稿の提案方式の特徵は,コーパス結合モデルと単独ドメインモデルの利点を融合させたものとまとめられる。本節では各モデルの未知語の観点から分析する。 本稿では, Irvine, Morgan, Carpuat, Daumé, and Munteanu (2013) に準じて, 未知語を原言 表 6 未知語を含む文の割合(英日翻訳) 語未知と目的言語未知に分けて考える ${ }^{10}$. 原言語未知は入力の単語あるいはフレーズがフレー ズテーブルに存在しない場合である,目的言語未知は,原言語のフレーズは存在するが,目的言語の単語あるいはフレーズが存在しないために,参照訳が生成できない場合である。これは,強制デコーデイング (Yu, Huang, Mi, and Zhao 2013) を行い,参照訳が生成できるかどうかで判定できる. 英日翻訳におけるドメイン毎の未知語率を表 6 に示す。これは, 5 回の最適化のうちの 1 試行を取り出した結果である。ドメイン毎に割合の差はあるが,単独ドメインモデルに比べ,コー パス結合は原言語未知, 目的言語未知ともに減少する。たとえば,MEDコーパスでは,原言語未知は $9.1 \% \rightarrow 0.9 \%$, 目的言語未知は $38.5 \% \rightarrow 16.1 \%$ と減少し, 他のドメインの単語が利用可能になっている。しかし,最終的な翻訳品質は単独ドメインモデルの方がよかったことを考えると, 未知語の減少が直接品質向上に寄与したわけではない,最適化が重要であることがわかる。 提案法は,NTCIRを除き,さらに未知語が減少した。提案法はコーパス結合モデルと単独ドメインモデルのフレーズテーブルを OR 検索している. 2 つのフレーズテーブルは,重複する訓練コーパスを使用しているにも関わらず,訓練によって得られるフレーズは異なるため,結果的にカバレッジが向上したものと考えられる. ## 4.5 ドメイン適応による翻訳の変化例 統計翻訳のモデルを変更した場合,翻訳文の変化を適切に分類するのは非常に難しい,本提案のドメイン適応に関しても,正確な分類は困難だと判断したが,翻訳品質が向上している場合,典型的には以下の 3 パターンが観察された. ここでは表 7 に示す翻訳例を参照しながら説明する。この例は MED ドメインの英日翻訳から抜き出したものである. - 単語の翻訳がドメイン依存訳に変化したものがある。例 1 の “first visit” の翻訳に関しては,コーパス結合では「初めて」と一般的な訳になっているが,単独ドメインモデルと  表 7 翻訳の変化例(MED ドメイン, 英日翻訳,テストセット) & \\ 提案法では,「初診」となり, 病院における対話に適応した訳となっている. 同様に, 例 2 では “opening hours”の訳が「診療時間」と翻訳されている. - 例 3,4 のように, コーパス結合では常体の翻訳文になっているが, 単独ドメインモデル,提案法では敬体の翻訳文となっている。コーパス結合モデルでは, 特許や論文のコーパスを用いているため,常体が多数派を占めているためたとと考えられる,提案法は,コー パス結合モデルを併用しているにも関わらず,MEDの単独ドメインモデルを適切に利用して,敬体の翻訳文を生成した。これも一種のドメイン依存訳であると考えられる. - 例 5,6 では, 単独ドメインモデルでは原言語未知になる単語があった (starvation, Sangenjaya, Shimokitazawa) が,コーパス結合,提案法ではこれが解消されている. ## 5 まとめ 本稿では,複数ドメインを前提とした,統計翻訳の適応方式を提案した。本稿の方式は,カバレッジが広い(未知語が少ない)コーパス結合モデルと, 素性関数の精度がよい単独ドメインモデルを併用し, 機械学習分野のドメイン適応方法である, 素性空間拡張法の考え方を利用して両者を結合した。また, empty 值をチューニング対象に追加した. 実験では同時最適化を行った場合,個別最適化を行った場合ともに,単独ドメインモデルに比べ,翻訳品質が向上または同等を保持した,提案法は,当該ドメインの訓練コーパスが小規模である場合に高い効果を持ち,100万文規模の大規模コーパスを持つドメインへの適応に使用しても,翻訳品質を下げることなく, ドメインによっては品質向上の効果がある.基本的な対数線形モデルでも,モデルの選択とチューニングを慎重に行うことで,最先端方式と同等以上の適応方式になることを示した。 提案方式は, 対数線形モデルに基づく統計翻訳にはすべて適用可能であるので, 木構造変換のような翻訳方式でも効果を確認したいと考えている。ただし,木構造変換の翻訳方式は,構文解析を利用しているため, 翻訳品質は構文解析自身の精度にも影響を受ける。本稿で用いた事前並び替えも,構文解析を利用している。構文解析などの翻訳に使われているコンポーネントについては, 別途ドメイン適応させる必要がある (森下, 赤部, 波多腰, Neubig, 吉野, 中村 2016) が, 本稿の提案方式は, コンポーネントの適応とは独立に併用可能である. ## 謝 辞 本研究は総務省の情報通信技術の研究開発「グローバルコミュニケーション計画の推進一多言語音声翻訳技術の研究開発及び社会実証一I. 多言語音声翻訳技術の研究開発」の一環として行われました。 ## 参考文献 Axelrod, A., He, X., and Gao, J. (2011). "Domain Adaptation via Pseudo In-Domain Data Selection." In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 355-362, Edinburgh, Scotland, UK. Birch, A., Osborne, M., and Koehn, P. (2007). "CCG Supertags in Factored Statistical Machine Translation." In Proceedings of the 2nd Workshop on Statistical Machine Translation, pp. 9-16, Prague, Czech Republic. Bisazza, A., Ruiz, N., and Federico, M. (2011). "Fill-up versus Interpolation Methods for Phrasebased SMT Adaptation." In Proceedings of the International Workshop on Spoken Language Translation (IWSLT), San Francisco, California, USA. Cherry, C. and Foster, G. (2012). "Batch Tuning Strategies for Statistical Machine Translation." In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 427-436, Montréal, Canada. Clark, J. H., Dyer, C., Lavie, A., and Smith, N. A. (2011). "Better Hypothesis Testing for Statistical Machine Translation: Controlling for Optimizer Instability." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 176-181, Portland, Oregon, USA. Clark, J. H., Lavie, A., and Dyer, C. (2012). "One System, Many Domains: Open-Domain Statistical Machine Translation via Feature Augmentation." In Proceedings of the 10th biennial conference of the Association for Machine Translation in the Americas (AMTA 2012), San Diago, California, USA. Daumé, III, H. (2007). "Frustratingly Easy Domain Adaptation." In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 256-263, Prague, Czech Republic. Denkowski, M. and Lavie, A. (2014). "Meteor Universal: Language Specific Translation Evaluation for Any Target Language." In Proceedings of the 9th Workshop on Statistical Machine Translation, pp. 376-380, Baltimore, Maryland, USA. Finch, A. and Sumita, E. (2008). "Dynamic Model Interpolation for Statistical Machine Translation." In Proceedings of the 3rd Workshop on Statistical Machine Translation, pp. 208-215, Columbus, Ohio, USA. Foster, G., Goutte, C., and Kuhn, R. (2010). "Discriminative Instance Weighting for Domain Adaptation in Statistical Machine Translation." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 451-459, Cambridge, Massachusetts, USA. Foster, G. and Kuhn, R. (2007). "Mixture-Model Adaptation for SMT." In Proceedings of the 2nd Workshop on Statistical Machine Translation, pp. 128-135, Prague, Czech Republic. Goto, I., Utiyama, M., Sumita, E., and Kurohashi, S. (2015). "Preordering Using a TargetLanguage Parser via Cross-Language Syntactic Projection for Statistical Machine Translation." ACM Transactions on Asian and Low-Resource Language Information Processing, 14 (3), pp. 13:1-13:23. Heafield, K., Pouzyrevsky, I., Clark, J. H., and Koehn, P. (2013). "Scalable Modified Kneser-Ney Language Model Estimation." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 690-696, Sofia, Bulgaria. Hopkins, M. and May, J. (2011). "Tuning as Ranking." In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 1352-1362, Edinburgh, Scotland, UK. Irvine, A., Morgan, J., Carpuat, M., Daumé, III, H., and Munteanu, D. (2013). "Measuring Machine Translation Errors in New Domains." Transactions of the Association for Computational Linguistics, 1, pp. 429-440. Isozaki, H., Hirao, T., Duh, K., Sudoh, K., and Tsukada, H. (2010). "Automatic Evaluation of Translation Quality for Distant Language Pairs." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 944-952, Cambridge, Massachusetts, USA. Jeblee, S., Feely, W., Bouamor, H., Lavie, A., Habash, N., and Oflazer, K. (2014). "Domain and Dialect Adaptation for Machine Translation into Egyptian Arabic." In Proceedings of the EMNLP 2014 Workshop on Arabic Natural Language Processing (ANLP), pp. 196-206, Doha, Qatar. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic. Koehn, P., Och, F. J., and Marcu, D. (2003). "Statistical Phrase-Based Translation." In HLTNAACL 2003: Main Proceedings, pp. 127-133, Edmonton, Alberta, Canada. Koehn, P. and Schroeder, J. (2007). "Experiments in Domain Adaptation for Statistical Machine Translation." In Proceedings of the 2nd Workshop on Statistical Machine Translation, pp. 224-227, Prague, Czech Republic. Kudo, T., Yamamoto, K., and Matsumoto, Y. (2004). "Applying Conditional Random Fields to Japanese Morphological Analysis." In Lin, D. and Wu, D. (Eds.), Proceedings of EMNLP 2004, pp. 230-237, Barcelona, Spain. Matsoukas, S., Rosti, A.-V. I., and Zhang, B. (2009). "Discriminative Corpus Weight Estimation for Machine Translation." In Proceedings of the 2009 Conference on Empirical Methods in Natural Language Processing, pp. 708-717, Singapore. 森下睦, 赤部晃一, 波多腰優斗, G.Neubig, 吉野幸一郎, 中村哲 (2016). 統語ベース翻訳のための構文解析器の自己学習. 自然言語処理, 23 (4), pp. 353-376. Nakazawa, T., Yaguchi, M., Uchimoto, K., Utiyama, M., Sumita, E., Kurohashi, S., and Isahara, H. (2016). "ASEPC: Asian Scientific Paper Excerpt Corpus." In Proceedings of the 10th Edition of the Language Resources and Evaluation Conference (LREC-2016), Portoroz, Slovenia. Och, F. J. (2003). "Minimum Error Rate Training in Statistical Machine Translation." In Proceedings of the 41st Annual Meeting of the Association for Computational Linguistics, pp. 160-167, Sapporo, Japan. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "Bleu: a Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 311-318, Philadelphia, Pennsylvania, USA. Sennrich, R. (2012). "Perplexity Minimization for Translation Model Domain Adaptation in Statistical Machine Translation." In Proceedings of the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 539-549, Avignon, France. Sennrich, R., Schwenk, H., and Aransa, W. (2013). "A Multi-Domain Translation Model Framework for Statistical Machine Translation." In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 832-840, Sofia, Bulgaria. Snover, M., Dorr, B., Schwartz, R., Micciulla, L., and Makhoul, J. (2006). "A Study of Translation Edit Rate with Targeted Human Annotation." In Proceedings of the 7th Biennial Conference of the Association for Machine Translation in the Americas (AMTA-2006), pp. 223-231, Cambridge, Massachusetts, USA. Yu, H., Huang, L., Mi, H., and Zhao, K. (2013). "Max-Violation Perceptron and Forced Decoding for Scalable MT Training." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1112-1123, Seattle, Washington, USA. ## 略歴 今村賢治:1985 年千葉大学工学部電気工学科卒業. 同年 2014 年日本電信電話株式会社. 1995 年 1998 年 NTT ソフトウェア株式会社. 2000 年 2006 年 ATR 音声言語コミュニケーション研究所. 2014 年より (株) ATR-Trek 所属として, 国立研究開発法人情報通信研究機構 (NICT) へ出向. 現在 NICT 先進的音声翻訳研究開発推進センター主任研究員. 主として自然言語処理技術の研究 - 開発に従事. 博士 (工学). 電子情報通信学会, 情報処理学会, 言語処理学会, ACL 各会員. 隅田英一郎:1982 年電気通信大学大学院修士課程修了. 1999 年京都大学大学院博士 (工学) 取得. 1982 年 1991 年(株)日本アイ・ビー・エム東京基礎研究所研究員. 1992 年 2009 年国際電気通信基礎技術研究所研究員. 主幹研究員. 室長. 2007 年現在国立研究開発法人情報通信研究機構 (NICT) 先進的音声翻訳研究開発推進センター (ASTREC) 副センター長. 2016 年 NICT フェロー. 機械翻訳の研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 実世界参照による分野特有の固有表現認識の精度向上 友利 涼 $十$ 二宮 崇㠹・森 信介怰 本稿では, 将棋の解説文に対する固有表現を題材として, テキスト情報に加えて実世界情報を参照する固有表現認識を提案する。この題材での実世界情報は,固有表現認識の対象となる解説文が言及している将棋の局面である. 局面は, 盤面上の駒 の配置と持ち駒であり,すべての可能な盤面状態がこれによって記述できる。提案手法では,まず各局面の情報をディープニューラルネットワークの学習方法の 1 つ である stacked auto-encoderを用いて事前学習を行う. 次に, 事前学習の結果をテ キスト情報と組み合わせて固有表現認識モデルを学習する。提案手法を評価するた めに, 条件付き確率場による方法等との比較実験を行った。実験の結果, 提案手法 は他の手法よりも高い精度を示し,実世界情報を用いることにより固有表現認識の 精度向上が可能であることが示された。 キーワード:実世界参照,ニューラルネットワーク,固有表現認識 ## Improvement in Domain-Specific Named Entity Recognition by Utilizing the Real-World Data \author{ Suzushi Tomori ${ }^{\dagger}$, Takashi Ninomiya ${ }^{\dagger \dagger}$ and Shinsuke Mori ${ }^{\dagger \dagger}$ } In this paper, we propose a method that utilizes real-world data to improve named entity recognition (NER) for a particular domain. Our proposed method integrates a stacked auto-encoder (SAE) and a text-based deep neural network for achieving NER. Initially, we train the SAE using real-world data, then the entire deep neural network from sentences annotated with named entities (NEs) and accompanied by real world information. In our experiments, we chose Japanese chess as our subject. The dataset consists of pairs of a game state and commentary sentences about it annotated with game-specific NE tags. We conducted NER experiments and verified that referring to real-world data improves the NER accuracy. Key Words: Real World Information, Neural Network, Named Entity Recognition 近年, 情報化技術の発展により, インターネット上やデータベース上にはテキストとそのテキストに付随する実世界情報が大量に存在している。実世界情報を用いる自然言語処理の研究  として,テキストを用いて画像を検索する研究 (Karpathy, Joulin, and Li 2014) や画像の解説文を生成する研究 (Socher, Karpathy, Le, Manning, and Ng 2014) などが行われている. また,実世界情報を用いることで言語モデルの性能を向上させる研究 (Kiros, Salakhutdinov, and Zemel 2014)も行われており,実世界情報の活用は自然言語処理の基礎技術の精度向上に有効たと考えられる。そこで本稿では実世界情報とテキスト情報を素性として入力した際の固有表現認識を提案する。 本稿では,将棋の解説文に対する固有表現認識を題材として,テキスト情報に加えて実世界情報を参照する固有表現認識器を提案する。固有表現とは, 文書の単語列に人名や地名など約 8 種類の定義 (Tjong Kim Sang and De Meulder 2003) を行ったものが一般的であるが,近年では医療の専門用語を定義したバイオ固有表現 (Settles 2004) なども提案されており, 本研究では将棋解説コーパス (Mori, Richardson, Ushiku, Sasada, Kameko, and Tsuruoka 2016) で定義される将棋固有表現を扱う。将棋解説コーパスは, 将棋の解説文に対して単語分割と固有表現夕グが人手で与えられた注釈つきテキストデータであり,各解説文には解説の対象となる将棋の局面情報が対応付けされている,局面は,盤面上の駒の配置と持ち駒であり,すべての可能な盤面状態がこれによって記述できる。本研究では局面情報を実世界情報として用いる.提案手法では,まず各局面の情報をディープニューラルネットワークの学習方法の 1 つである stacked auto-encoder (SAE) を用いて事前学習を行う,次に,事前学習の結果をテキスト情報と組み合わせて固有表現を学習する。提案手法を評価するために, 条件付き確率場による方法等との比較実験を行い,実世界情報を用いることにより固有表現認識の精度向上が可能であることを示す. 将棋の固有表現認識の精度が向上すると, 文書から戦型名や囲い名などを自動的に抽出でき,将棋解説文の自動生成のための基礎技術となる。また,一般の固有表現認識を高い精度で行えるようになると質問応答や文の自動生成などの高度な応用の基礎技術となる. ## 2 関連研究 本章では, まず本研究で扱う固有表現認識について述べる。 その後, 実世界情報を用いた自然言語処理の研究について述べる. 最後に将棋の局面情報を用いた自然言語処理の先行研究について述べる. ## 2.1 固有表現認識 本稿で行う固有表現認識は自然言語処理の重要な応用の一つである。一般的な固有表現認識は,対象を新聞記事,固有表現として人名,地名,組織名等を扱った研究が広く行われている (Tjong Kim Sang and De Meulder 2003; Ratinov and Roth 2009). 固有表現認識は, ある系列 (単語列) の各要素(各単語)に適切なラベル列を付与する問題である系列ラベリング問題と して解かれることが一般的である。サポートベクターマシンや最大エントロピーモデルなどを用いた様々な手法が提案されており (Borthwick 1999; Tjong Kim Sang and De Meulder 2003; Finkel, Grenager, and Manning 2005),条件付き確率場 (CRF) による系列ラベリング (Lafferty, McCallum, and Pereira 2001) がよく用いられる. また,近年では染層学習を用いて解く手法が提案されており,Bi-directional LSTM を用いて解く手法が CoNLL 2003 コーパス (Tjong Kim Sang and De Meulder 2003) において最高精度を記録している (Ma and Hovy 2016). 系列ラベリング問題として固有表現認識を解く際に,BIO タグ体系を用いて各単語のタグを学習することが多い. BIO の B (Begin) はある固有表現の最初の単語, I (Intermediate) は同種の固有表現の継続, O (Other) はいずれの固有表現でもないことを意味する. 固有表現が $J$ 種類ある場合, 固有表現ごとに B夕グと I夕グが存在し,どの固有表現でもない単語には O が対応するので, BIO タグ数は $2 J+1$ 種類存在する。各単語にはいずれか 1 種類のタグが付与されるが, BIO タグ系列には接続制約がある。例えば,固有表現がI夕グから始まってはいけない.また,BIO夕グ体系の他にも,同種の固有表現の終端を表す $\mathrm{E}(\mathrm{End}) や 1$ 単語からなる固有表現を表す S (Single) のタグを加えた BIESO タグ体系で記述されることもある. ## 2.2 実世界情報を用いた自然言語処理 実世界情報を用いた自然言語処理の研究はいくつか存在するが,その多くは教師なし学習を用いてマルチモーダルなべクトル表現を獲得する手法である. それらに対し, 本研究はテキストに付随した実世界情報を用いて固有表現認識を直接解く。 Bruni らは,テキストのベクトルと画像のベクトル表現の一種である Bag-of-Visual-Words に特異値分解 (SVD) を用いることでマルチモーダルなべクトルを獲得する手法を提案した (Bruni, Tran, and Baroni 2014). 似た手法を用いて音情報を用いたべクトルを獲得する研究がある (Lopopolo and van Miltenburg 2015). これはテキスト側のベクトルは潜在的意味解析 (LSA) を用いて獲得し, 音情報のべクトルは Bag-of-Audio-Words を用いた. Ngiam らや Srivastava and Salakhutdinov は教師なし学習のニューラルネットワークである deep restricted Boltzmann machines を用いて,マルチモーダルなベクトルを獲得する手法を提案した (Ngiam, Khosla, Kim, Nam, Lee, and Ng 2011; Srivastava and Salakhutdinov 2012). これはテキストとそのテキストに対応した画像,またはテキストとそのテキストに対応した音情報などのぺアから学習し,隠れ層から分散表現を獲得する手法である.また,Ngiam らはマルチモーダルなべクトルを獲得した後, 獲得したべクトルを入力として用いて, 音声認識や画像検索などの教師あり学習を行う手法を提案した (Ngiam et al. 2011). Silberer and Lapata は深層学習を用いてマルチモーダルなべクトルを獲得する手法を提案した (Silberer and Lapata 2014). 単語の分散表現にマルチモーダル情報を用いる研究がある. 単語の分散表現とは, 自然言語処理においてよく用いられる低次元の実数値べクトルであり, word2vec (Mikolov, Chen, Corrado, and Dean 2013a; Mikolov, Sutskever, Chen, Corrado, and Dean 2013b) がよく用いられる. Lazaridou らは word2vec を拡張し, 画像情報と組み合わせる手法を提案した (Lazaridou, Pham, and Baroni 2015). Kiela and Clark も同様に word2vec を音情報と組み合わせる手法を提案した (Kiela and Clark 2015). ## 2.3 将棋の局面を用いた自然言語処理 Kameko らは,将棋の局面に将棋解説文が付与された将棋解説コーパスを用いて,ニューラルネットワークを応用した将棋解説文のための単語分割手法を提案している (Kameko, Mori, and Tsuruoka 2015). この手法は,まず将棋局面情報を入力とするニューラルネットワークを用いることで将棋用語辞書を獲得し, 得られた将棋用語辞書を用いて単語分割を行うことで単語分割の精度向上を実現している。具体的には,将棋用語辞書を作成するために,まず確率的単語分割手法により確率的に単語分割されたコーパスを生成する。次に, 将棋局面情報を入力とし,確率的コーパスの単語を出力とするフイードフォワード型のニューラルネットワークを学習し,学習されたニューラルネットワークを用いて単語候補をスコア付けし抽出することで, 将棋用語辞書が得られる。本研究と彼らの研究との違いは次の通りである。(1) 彼らは局面の素性に, コンピュータ将棋プログラムを用いて作成した複雑な素性を用いているが, 本研究では単純な駒の位置情報のみを素性として用いていること, (2) 彼らは将棋の局面との対応により事前に獲得しておいた語彙を参照し単語分割しているが, 本研究では将棋の局面との対応を直接参照して固有表現認識を行うことが挙げられる。 ## 3 将棋解説コーパス 将棋は 2 人で行うボードゲームで $9 \times 9$ のマスの盤面と成った駒も含めて 14 種類の駒を用いる.盤面上の駒の配置と持ち駒からゲームの状態に関するすべての情報が得られる完全情報ゲームである。将棋にはプロ制度があり, 日々多数のプロ間の対局が行われている.多くの対局には,対局者以外のプロが解説を行い,その解説文がインターネットで配信されている. 本稿で用いる将棋解説コーパス (Mori et al. 2016) は, 将棋の解説文に対して単語分割と固有表現夕グが人手で与えられた注釈つきテキストデータである。固有表現は, 将棋の解説に特化されており,表 1 のように 21 種類が定義されている. 出現割合はコーパス中に出現する各固有表現の割合を示す. 実際のアノテーションは, BIO2 形式であり, 各単語ごとに $\mathrm{BIO}$ 夕グが 1 つ付与されており,夕グの種類数は 43 種類 $(21 \times 2+1=43)$ ある. 各解説文には, 解説の対象となる局面が対応付けされており, ほとんどの解説文は局面に関するコメントをしているが,局面に関係のないコメント(対局者に関する情報など)も少量含まれる,局面の情報は,解説文が言及する実世界情報とみなすことができ,これを参照するこ 表 1 将棋の固有表現の種類とその意味 とによる固有表現認識が本稿の中心となるアイデアである. ## 4 提案手法 将棋解説文の固有表現認識を行うために用いたフィードフォワード型のニューラルネットワー クと実世界情報(将棋の局面)の事前学習について説明する. ## 4.1 ニューラルネットワークの構成 図 1 は実世界を参照する固有表現認識のニューラルネットワークの全体図である。テキストの素性は, 左側の入力層に $\left(f_{1}^{t}, f_{2}^{t}, \ldots, f_{n}^{t}\right)$ として入力する. 図の右下の 5 つの層は実世界に関するニューラルネットワークであり, $\left(f_{1}^{r}, f_{2}^{r}, \ldots, f_{m}^{r}\right)$ に実世界情報の素性を入力する. 図の上側のニューラルネットワークでテキスト情報と実世界情報を統合して固有表現認識を行う。実世 Real-world-input 図 1 実世界を参照する固有表現認識のためのディープニューラルネットワーク 界に関するニューラルネットワークの中間層の層数については開発データを用いて調整する ${ }^{1}$. このネットワークは出力層において,注目している単語が属する各夕グの確率を出力する. ## 4.2 実世界情報の事前学習の入力とテキストの入力 実世界情報は, 図 1 の右下に示されるニューラルネットワークの入力として参照される。本研究では実世界情報として, 図 2 に示すように盤面上の全てのマス $(9 \times 9)$ における先手と後手を区別した駒の種類 $(2 \times 14)$ の有無に対応する 2,268 次元 $(2,268=9 \times 9 \times 2 \times 14)$ のバイナリ素性と, 持ち駒を記述する先手と後手の 7 種類の駒の個数に対応する 14 次元 $(14=7 \times 2)$ の整数素性の合計 2,282 次元の素性を用いる. 表 2 に実験で用いたテキスト素性を示す。 $w_{i}$ は現在着目し, タグを推定している単語であり,単語の素性には 1-of- $k$ 表現を用いた. $\operatorname{type}(w)$ は $w$ の文字の種類, 平仮名, 片仮名, 漢字, 数字,記号やそれらの組み合わせを表し, $\operatorname{pos}(w)$ は $w$ の品詞を表す. ## 4.3 実世界情報の事前学習 本研究では事前学習手法の一つであるSAE を用いて実世界情報の事前学習を行う。図 3 の左側のように,まず 3 層のニューラルネットワークの入力層と出力層に同じ実世界情報を与え,  図 2 将棋盤面の素性 表 2 タグを推定している $w_{i}$ のテキスト素性 図 3 Stacked auto-encoder 入力されたべクトルと同じベクトルを出力として予測するニューラルネットワークを学習する. このとき中間層の次元数を入力層よりも少ない次元数とすることで, 中間層において次元圧縮された実世界情報を得ることができる,次に図 3 の中央のように,出力層を取り除き,新しい中間層を 1 つ増やしたネットワークを再定義する。その後,先ほど得られた中間層(下から 2 層目)のベクトルと同じベクトルを出力層で予測するニューラルネットワークを学習する。このとき,新しく定義しなおした部分(上から 3 層)の重みのみを更新していく,同様に,層を積み重ねることで,より深く一般化された特徵量 $\left(a_{1}, a_{2}, \ldots, a_{l}\right)$ を学習することができる。本研究では,実世界情報のみを用いて事前学習を行うこととする. ## 4.4 テキスト情報と実世界情報の統合 事前学習後, テキスト情報側のニューラルネットワークと実世界情報側のニューラルネットワークを統合し, 固有表現認識タスク用にファインチューニングを行う。固有表現認識器のネットワークは出力層において, タグの種類数のユニット(本研究では 43 個)が存在する.学習の際には,テキスト側の素性とそのテキストに対応する実世界情報側の素性を入力とし,各単語の正解の BIO タグの尤度が最大になるように, 図 1 に示されているニューラルネットワーク全体が最適化される。具体的には, 中間層の活性化関数には標準シグモイド関数を用い, 出力層ではソフトマックス関数を用いて各夕グの確率を出力し, 損失関数には交差エントロピー誤差を用いる。したがって, 固有表現認識のための中間層だけでなく, 事前学習された実世界情報側のニューラルネットワークも同時に調整される。 ## 4.5 最適タグ列の探索 固有表現認識は各単語に対する BIO 夕グを推定することで実現されるが,各単語ごとに確率が最も高い BIO タグを出力すると, 推定した固有表現がI タグから始まってしまう場合など, BIO 夕グ制約を満たさない場合がある。本研究では BIO夕グ制約を満たすために,各夕グの推定確率を用いて, ビタビアルゴリズムを適用し, 制約を満たす遷移のみからなる確率最大の BIO タグ列を探索する。 ## 5 評価実験 提案手法の有効性を確認するために,固有表現認識の実験を行った。この章では,まず評価の方法を説明する.その後,実験設定を説明し,それぞれの結果を提示する。 ## 5.1 評価の方法 評価の方法として以下のように定義される再現率と適合率, $\mathrm{F}$ 値を用いる(式 (1) 参照)。ここで正解数は図 4 のように, 将棋解説コーパスに出現する実際の固有表現とシステムが出力し た固有表現の始点と終点が完全に一致した数である.これらに加えて各単語のタグ一致率も調ベた. $ \begin{aligned} \text { 再現率 } & =\frac{\text { 正解数 }}{\text { コーパスに出現する固有表現の総数 }} \\ \text { 適合率 } & =\frac{\text { システム正解数 }}{\text { シズ出力した固有表現の総数 }} \\ \mathrm{F} \text { 値 } & =\frac{2 \cdot \text { 適合率 } \cdot \text { 再現率 }}{\text { 適合率 }+ \text { 再現率 }} \end{aligned} $ ## 5.2 実験設定 実験には将棋解説コーパスを用いた ( 3 章参照),表 3 に実験で用いたコーパスの詳細を示す. まず,将棋の局面情報のみを用いて事前学習を行い,学習されたネットワークを用いて固有表現認識器を構築した。表 4 に局面を事前学習する際に用いた各層の次元数を示す. 今回の実験では, 中間層の層数 $0 \sim 5$ 層に設定し, それぞれの中間層での次元数は固定して実験を行った.中間層の次元数は開発セットを用いて, $\mathrm{F}$ 值が最も高くなるよう調整し,今回は中間層の層数を 4 層にした。また, 既存手法として, 条件付き確率場 (CRF) (Lafferty et al. 2001) と実世界 正解データ: この/O あと/O 三/St-B 間/St-I 飛車/St-I に/O対/O し/O $\ldots$ 出力結果 : この/O あと/O 三/St-B 間/St-I 飛車/St-I に/O 対/O L/O … この/O あと/O 三/Cs-B 間/Cs-I 飛車/Cs-I に/O対/O L/O $\ldots$... $\times$ この/O あと/O 三/St-B 間/St-I 飛車/O に/O 対/O L/O $\ldots$... この/O あと/O 三/St-B 間/St-I 飛車/St-I に/St-I 対/O L/O 図 4 評価方法 表 3 将棋解説コーパスの諸元 表 4 将棋盤面埋め迄みに用いたニューラルネットワークの各層の次元数 情報を用いないディープニューラルネットワーク(テキスト情報のみを用いたディープニュー ラルネットワーク)を提案手法と比較した. このとき従来手法と提案手法では同じテキスト素性を用いており,ハイパーパラメータは開発セットを用いて調整した。テキスト素性では各単語の品詞情報も用いるが, 将棋解説コーパスは単語分割は与えられているが各単語の品詞情報は与えられていない. そのため, KyTeaを用いて品詞推定を行った. ## 5.3 実験結果 表 5 に実験の結果を示す。提案手法の有効性を示すために従来手法の「CRF」(条件付き確率場)「DNN」(ディープニューラルネットワーク)を比較対象とした.「局面」は局面の参照 (4.3,4.4 節参照)を示しており,「DNN + 局面」は提案手法である.表 5 より「CRF」よりも「DNN」が精度が高く, ディープニューラルネットワークが固有表現認識に効果的であることが分かる。また,いずれの従来手法よりも提案手法の精度が高く, 実世界情報を用いることで,「CRF」,「DNN」よりも「DNN + 局面」の方がそれぞれ 1.57 ポイント, 0.64 ポイント高かった. 提案手法の BIO タグ推定精度は「CRF」と「DNN」の精度に対して,マクネマー検定において有意水準 $1 \%$ で統計的に有意差があった. これより,テキスト情報と実世界情報を用いた提案手法の有効性が確認できる. 将棋解説コーパスを詳しくみると, 各単語に対する O夕グ(どの固有表現でもない単語)の割合は約 $68 \%$ であり, 固有表現は $\mathrm{Pi}$ (駒名)や Ot(その他重要な表現)などが多く出現する.「DNN」での出力と「DNN + 局面」の出力を比較し局面を参照することによる精度向上を分析すると, 正解は Ot の単語に対し, 「DNN」では不正解でO タグを出力しているが,「DNN + 局面」では適切に Ot を出力する例が多数あり, 局面を参照することにより, 不正解から正解に変化した固有表現の約 $1 / 3$ が Otに関する単語であった。例えば,「応手」や「効果」,「バリケード」などが提案手法では正しくOt と認識されていた.「と金」や「と」は歩が成った駒を指し, 提案手法では正しく $\mathrm{Pi}$ と認識できた例があった. これは実世界情報としてその駒に対する素性が効いていると考えられ,と金の局面素性を発火させずに入力した際には Pi に分類する確率が低下した。また,「DNN」の適合率に比べ, 「DNN + 局面」の適合率は減少している. 表 5 固有表現認識の結果  図 5 事前学習の際, 層数を変化させたときの精度(F 値) これは, 出力が一致せず,どちらの出力も不正解の固有表現が 12 個存在したが,そのほとんどについて「DNN」では O タグを出力しており,「DNN + 局面」では何らかの固有表現夕グを出力しているためである。例えば,St(戦型名)の固有表現「橋本流」に対し,「DNN」では $\mathrm{O}$ を出力し,「DNN + 局面」では Ot を出力していた. 局面情報を事前学習した際のSAEの中間層の層数を変化させた場合の精度(F 値)の変化を図 5 に示す. 中間層 0 層のときは事前学習せずに局面情報を入力とした場合の精度である。図 5 より, 中間層 $0 \sim 1$ 層のときはテキスト情報のみを用いた「DNN」よりも精度が低く, 中間層 $2 \sim 5$ 層のときに「DNN」よりも精度が高くなった. これより, ある程度次元圧縮された局面情報が有効であることがわかる. 局面情報は精度を向上させたが,その差はわずかである。それは,固有表現インスタンスの多くは $\mathrm{Tu}$ (手番)や $\mathrm{Pi}$ (駒名), Po(位置)であるが,それらはテキストのみの情報でも高精度で認識することができており, 局面情報を加えることで精度向上が見达める St (戦型) や $\mathrm{Ca}$ (囲い) のインスタンスは割合が少ないためと考えられる. ## 6 おわりに 本稿では, 新たな固有表現認識の解法として, 実世界情報の参照を提案した,提案手法では,全体の枠組みとしてディープニューラルネットワークを用いる。まず実世界情報だけを用いて SAE の事前学習を行い,これをテキスト情報のみを参照する通常の固有表現認識器と統合し,統合されたニューラルネットワークの再学習を行う. 実験では,将棋解説に駒の配置という実世界情報と固有表現タグが付与された将棋解説コー パスを用いた。将棋解説コーパスに対する固有表現認識の精度評価を行い,既存手法に対する 優位性や実世界情報参照の効果を実験的に示した。 本稿で提案した実世界情報を参照する固有表現認識の手法は,将棋解説コーパスのように実世界情報と固有表現タグが付与されたコーパスが利用可能であれば,実世界情報の素性とテキスト素性を同時に入力することができるため,他ドメインの固有表現認識にも適用することが可能である.また,入力される実世界情報によってはネットワークの構造を変更する必要がある (画像情報の入力には畳み込みニューラルネットワークを用いる等). 例えば,ニュース記事とそれに付随した画像情報を参照することにより,一般の固有表現認識の精度向上が期待できる。 ## 謝 辞 本研究の一部は, The 54th Annual Meeting of the Association for Computational Linguistics (ACL 2016) で発表したものである (Tomori, Ninomiya, and Mori 2016). 本研究は JSPS 科研費 26540190 及び 25280084 の助成を受けたものである。ここに謝意を表する。 ## 参考文献 Borthwick, A. E. (1999). A Maximum Entropy Approach to Named Entity Recognition. Ph.D. thesis, New York, NY, USA. AAI9945252. Bruni, E., Tran, N. K., and Baroni, M. (2014). "Multimodal Distributional Semantics." Journal of Artificial Intelligence Research, 49, pp. 1-47. Finkel, J. R., Grenager, T., and Manning, C. (2005). "Incorporating Non-local Information into Information Extraction Systems by Gibbs Sampling." In Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics, pp. 363-370. Kameko, H., Mori, S., and Tsuruoka, Y. (2015). "Can Symbol Grounding Improve Low-Level NLP? Word Segmentation as a Case Study." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2298-2303, Lisbon, Portugal. Association for Computational Linguistics. Karpathy, A., Joulin, A., and Li, F. F. (2014). "Deep Fragment Embeddings for Bidirectional Image Sentence Mapping." In Ghahramani, Z., Welling, M., Cortes, C., Lawrence, N., and Weinberger, K. (Eds.), Advances in Neural Information Processing Systems 27, pp. 1889-1897. Curran Associates, Inc. Kiela, D. and Clark, S. (2015). "Multi- and Cross-Modal Semantics Beyond Vision: Grounding in Auditory Perception." In Proceedings of the 2015 Conference on Empirical Methods in Nat- ural Language Processing, pp. 2461-2470, Lisbon, Portugal. Association for Computational Linguistics. Kiros, R., Salakhutdinov, R., and Zemel, R. (2014). "Multimodal Neural Language Models." In Proceedings of the 31st International Conference on Machine Learning, pp. 595-603. Lafferty, J. D., McCallum, A., and Pereira, F. C. N. (2001). "Conditional Random Fields: Probabilistic Models for Segmenting and Labeling Sequence Data." In Proceedings of the 18th International Conference on Machine Learning, ICML '01, pp. 282-289, San Francisco, CA, USA. Morgan Kaufmann Publishers Inc. Lazaridou, A., Pham, N. T., and Baroni, M. (2015). "Combining Language and Vision with a Multimodal Skip-gram Model." In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 153-163. Lopopolo, A. and van Miltenburg, E. (2015). "Sound-based distributional models." In Proceedings of the 11th International Conference on Computational Semantics, pp. 70-75. Ma, X. and Hovy, E. (2016). "End-to-end Sequence Labeling via Bi-directional LSTM-CNNsCRF." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1064-1074. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013a). "Efficient Estimation of Word Representations in Vector Space." In arXiv preprint arXiv:1301.3781. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J. (2013b). "Distributed Representations of Words and Phrases and Their Compositionality." Advances in Neural Information Processing Systems, 26, pp. 3111-3119. Mori, S., Richardson, J., Ushiku, A., Sasada, T., Kameko, H., and Tsuruoka, Y. (2016). "A Japanese Chess Commentary Corpus." In Proceedings of the 10th International Conference on Language Resources and Evaluation, pp. 1415-1420. Ngiam, J., Khosla, A., Kim, M., Nam, J., Lee, H., and Ng, A. (2011). "Multimodal Deep Learning." In Proceedings of the 28th International Conference on Machine Learning, pp. 689-696. Ratinov, L. and Roth, D. (2009). "Design Challenges and Misconceptions in Named Entity Recognition." In Proceedings of the 13th Conference on Computational Natural Language Learning, CoNLL '09, pp. 147-155. Settles, B. (2004). "Biomedical Named Entity Recognition Using Conditional Random Fields and Rich Feature Sets." In Proceedings of the International Joint Workshop on Natural Language Processing in Biomedicine and its Applications, pp. 33-38. Silberer, C. and Lapata, M. (2014). "Learning Grounded Meaning Representations with Autoen- coders." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 721-732. Socher, R., Karpathy, A., Le, Q. V., Manning, C. D., and Ng, A. Y. (2014). "Grounded Compositional Semantics for Finding and Describing Images with Sentences." Transactions of the Association for Computational Linguistics, 2, pp. 207-218. Srivastava, N. and Salakhutdinov, R. (2012). "Multimodal Learning with Deep Boltzmann Machines." In Advances in Neural Information Processing Systems 25, pp. 2222-2230. Tjong Kim Sang, E. F. and De Meulder, F. (2003). "Introduction to the CoNLL-2003 Shared Task: Language-independent Named Entity Recognition." In Proceedings of the 7th Conference on Natural Language Learning at HLT-NAACL 2003-Volume 4, CoNLL '03, pp. 142-147. Tomori, S., Ninomiya, T., and Mori, S. (2016). "Domain Specific Named Entity Recognition Referring to the Real World by Deep Neural Networks." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 236-242. ## 略歴 友利涼:2016 年愛媛大学工学部卒業. 同年より京都大学大学院情報学研究科修士課程在学. 二宮崇:2001 年東京大学大学院理学系研究科情報科学専攻博士課程修了. 同年より科学技術振興事業団研究員. 2006 年より東京大学情報基盤センター講師。2010 年より愛媛大学大学院理工学研究科准教授, 2017 年同教授. 東京大学博士 (理学). 言語処理学会, 情報処理学会, 人工知能学会, 電子情報通信学会, 日本データベース学会, ACL 各会員. 森信介:1998 年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了. 同年,日本アイ・ビー・エム株式会社入社. 2007 年より京都大学学術情報メディアセンター准教授, 2016 年同教授. 京都大学博士 (工学). 1997 年情報処理学会山下記念研究賞受賞. 2010 年, 2013 年情報処理学会論文賞受賞. 2010 年第 58 回電気科学技術奨励賞受賞. 言語処理学会, 情報処理学会, 日本データベース学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 大規模コーパスに基づく日本語二重目的語構文の基本語順の分析 笹野 遼平 $\dagger$ ・奥村 学帡 } 日本語二重目的語構文の基本語順に関しては多くの研究が行われてきた。しかし, それらの研究の多くは,人手による用例の分析や,脳活動や読み時間の計測を必要 としているため, 分析対象とした用例については信頼度の高い分析を行うことがで きるものの, 多くの仮説の網羅的な検証には不向きであった。一方,各語順の出現傾向は,大量のコーパスから大規模に収集することが可能である。そこで本論文で は,二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するとい う仮説に基づき,大規模コーパスを用いた日本語二重目的語構文の基本語順に関す る分析を行う, 100 億文を超える大規模コーパスから収集した用例に基づく分析の 結果,動詞により基本語順は異なる,省略されにくい格は動詞の近くに出現する傾向がある,Pass タイプと Show タイプといった動詞のタイプは基本語順と関係しな い,二格名詞が着点を表す場合は有生性を持つ名詞の方が「にを」語順をとりやす い,対象の動詞と高頻度に共起するタ格名詞およびニ格名詞は動詞の近くに出現し やすい等の結論が示唆された。 キーワード:二重目的語構文,基本語順 ## Corpus-Based Analysis of the Canonical Word Order of Japanese Double Object Constructions \author{ Ryohei Sasano ${ }^{\dagger}$ and Manabu Okumura ${ }^{\dagger \dagger}$ } \begin{abstract} Several studies have investigated the canonical word order of Japanese double object constructions. However, most of these studies use either manual analyses or measurements of human characteristics such as brain activities or reading times for each example. Thus, although these analyses are reliable for the examples they focus on, the findings cannot be generalized to other examples. In contrast, the trend of actual usage can be automatically collected from a large corpus. Thus, in this study, we assume that there is a relation between the canonical word order and the proportion of each word order in a large corpus and present a corpus-based analysis of the canonical word order of Japanese double object constructions. Our analysis is based on a very large corpus comprising more than 10 billion unique sentences and suggests that the canonical word order of such constructions varies from verb to verb. Moreover, it suggests an argument whose grammatical case is infrequently omitted with a given verb tends to be placed near the verb and that there is few relation between the canonical word order and the verb type: show-type and pass-type. The dative-accusative order is more preferred when the semantic role of dative argument \end{abstract}  is animate Possessor than when the semantic role is inanimate Goal. Furthermore, an argument that frequently co-occurs with the verb tends to be placed near the verb. Key Words: Dobule Object Construction, Canonical Word Order ## 1 はじめに 日本語は比較的語順が自由な言語であるとされるが, 多くの研究において日本語にも基本語順が存在していることが示唆されている (Mazuka, Ito, and Kondo 2002; Tamaoka, Sakai, Kawahara, Miyaoka, Lim, and Koizumi 2005). しかし, どの語順を基本語順とみなすかについては意見が分かれる場合があり, 二重目的語構文についても,二つの目的語の基本語順に関し多くの説が提案されている。具体的な争点としては, 二重目的語構文の基本語順は「がにを」である (Hoji 1985) か,「がにを」と「がをに」の両方である (Miyagawa 1997) かや, 後者の立場の類型として基本語順は動詞の種類に関係するという説 (Matsuoka 2003)や,二格の意味役割や有生性が関わっているとする説 (Miyagawa and Tsujioka 2004; Ito 2007) などが存在している. また, これらの研究の分析方法に関しても, 理論研究 (Hoji 1985; Miyagawa and Tsujioka 2004) に加え,心理実験 (Koizumi and Tamaoka 2004; 中本, 李, 黒田 2006; Shigenaga 2014) や脳科学 (高祖,萩原, 曽雌 2004 ; 犬伏, 飯島, 小泉, 酒井 2009)に基づく実証的研究など, 多くの側面からの分析が行われている. しかし, これらの分析手法はいずれも分析の対象とした各用例について人手による分析や脳波等の計測が必要となるため, 分析対象とした用例については信頼度の高い分析を行うことができるものの,新たな用例に対し分析を行う場合には改めてデー夕を収集する必要があり,多くの仮説の網羅的な検証には不向きである。一方,各語順が実際にどのような割合で出現するかの傾向は,コーパスから大規模に収集することが可能である。コーパス中の個別の事例から, それが基本語順なのか, かき混ぜ語順なのかを自動的に判定するのは容易でないものの, 大規模に収集した用例において多数を占める語順であるならば,その語順が基本語順である可能性が高いと考えられる. たとえば,(1)に示すように11, 動詞が「感じる」, 二格要素が「言葉」, ヲ格要素が「愛情」の場合,「にを」語順が $97.5 \%$ 占めていることから, この動詞と格要素の組み合わせの場合, 「にを」語順が基本語順であると考えられる,一方,(2)に示すように,動詞が「誘う」,二格要素が「デート」, ヲ格要素が「女性」である場合は,「をに」語順が $99.6 \%$ 占めており,この語順が基本語順であると考えられる。 (1)にを:言葉に愛情を感じる。[用例数:118 (97.5\%)] をに:愛情を言葉に感じる。[用例数 : $3(2.5 \%)]$ ^{1}(1),(2)$ に示した用例数は本研究で収集した各語順の用例数を表している. 具体的な収集手順は 4 節で説明する. } (2)にを:デートに女性を誘う。[用例数:4 (0.4\%)] をに:女性をデートに誘う。[用例数: $923(99.6 \%)]$ そこで本研究では, 二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するとの仮定に基づき, 100 億文を超える大規模コーパスから収集した用例を用いた日本語二重目的語構文の基本語順に関する各種の仮説の検証を行う. 日本語二重目的語構文の基本語順を解明することができれば,日本語二重目的語構文の統語構造や言語理解プロセスの解明における重要な手掛りとなることが期待できる。本研究で行う大規模コーパスに基づく分析は, コー パス中で多数を占める語順が基本語順と同じであるとは限らないことから, 基本語順の解明に直結するとは言えないものの, 心理実験や脳科学等などのよりコストの掛かる検証を行う前段階の検証として有用であると考えられる。 ## 2 日本語二重目的語構文と語順 二重目的語構文とは,(3) に示す各文における「次郎」と「写真」のように,典型的には二格とヨ格で表される 2 つ目的語を取る構文である。これらの格はそれぞれの与格 (dative, DAT),対格 (accusative, ACC) を表す.また,ガ格(主格)項も含めて 3 つの項を取ることから三項動詞文とも呼ばれる。(3) に示す $\mathrm{a} \sim \mathrm{f}$ の 6 の文は語順は異なるものの, 本質的には同じ事象を表している. (3) a: 太郎が次郎に写真を見せた。 b: 太郎が写真を次郎に見せた。 c: 次郎に太郎が写真を見せた。 $\mathrm{d}$ : 次郎に写真を太郎が見せた。 e : 写真を太郎が次郎に見せた。 $\mathrm{f}:$ 写真を次郎に太郎が見せた。 二重目的語構文の基本語順に関しては多くの研究が行われている. これらの研究の主張は大きく3つに分けることができる (Koizumi and Tamaoka 2004).1つ目は,いかなる場合であっても基本語順は (3)-aのように「がにを」語順であるという説 (Hoji 1985),2つ目は「がにを」 と「がをに」のいずれもが基本語順であるという説 (Miyagawa 1997), 3つ目は動詞のタイプにより「がにを」語順が基本語順である場合と「がをに」語順が基本語順である場合があるという説 (Matsuoka 2003) である. これらの 3 つの説において, 基本語順において 3 つの項のうちガ格項の位置は先頭であるということは共通していることから,以下本論文では「がにを」語順を単に「にを」語順,「がをに」語順を単に「をに」語順と表記する.また,基本語順という用語の意味が研究により異 なっていることに注意する必要がある。具体的には,基本語順は語彙によらず構文ごとにたた 1 つ存在しているという立場 (Hoji 1985), 動詞のタイプや動詞と各項に入る名詞の組み合わせによって基本語順は異なるという立場 (Matsuoka 2003; 中本他 2006), ある文における基本語順が複数存在しうるという立場 (Miyagawa 1997)が存在しており,各立場により基本語順という用語の意味は異なっている。本論文では, 基本語順は動詞と各項に入る名詞の組み合わせが与えられた場合に定まる, 日本語使用者にとってもっとも自然で理解しやすい語順のことであるとし,動詞と各項に入る名詞の組み合わせによって基本語順は異なるものの,基本的に 1 つの組み合わせに対する基本語順は 1 つだけ存在しているという立場で考察を行う. 日本語における動詞の項の並び順に影響を与える要因は多く知られている。代表的なものとしては, 多数の語で構成される長い項は動詞から遠い位置に, 少数の語で構成される短い項は動詞の近くに置かれることが多いといった性質 (Yamashita and Chang 2001)や, 既知の情報は前方に,新情報は後方に置かれやすいという性質 (Kuno 2006)などが挙げられる. これらの性質は日本語特有のものではなく,たとえば英語の与格交替に関しても類似した性質が確認されており,これらの性質が与格交替が起こるかどうかの予測に有用であることが報告されている (Bresnan, Cueni, Nikitina, and Baayen 2007). 他にも, 日本語における動詞の項の並び順に関する研究は古くから多く行われており,たとえば佐伯は 4 編の小説, 計 67 ページに含まれる文を手作業で分析し,上記の 2 つの傾向に加えて「与格の二は対格のヲのまえにくる」,「慣用表現では特定の補語は動詞の直前にくる」などの傾向を抽出している (佐伯 1975). 本研究では, 基本語順の分析を目的とすることから, 項の長さや, 新情報であるかどうかなどの文脈に基づく要因を取り除いた分析を行う,具体的には,極めて大規模なコーパスから得られる統計情報を用いることで, 個別の用例における項の長さ等の要因は無視できると仮定し,分析を行う。 ## 3 本研究で検証する仮説 本研究では, 日本語二重目的語構文の基本語順に関する代表的な仮説およびその類型として,以下の 5 つ日日本語二重目的語構文の基本語順に関する仮説を検証する. A. 動詞によらず基本語順は「にを」である (Hoji 1985) B. 基本語順は動詞のタイプによって異なる (Matsuoka 2003) C. 省略されにくい格は基本語順において動詞の近くに位置する D. 基本語順は二格名詞の意味役割や有生性によって異なる (Matsuoka 2003; Ito 2007) E. 対象の動詞と高頻度に共起するヲ格, 二格名詞は基本語順において動詞の近くに位置するまず,仮説 A,B,Cはいずれも二格名詞やヲ格名詞の性質を考慮に入れない仮説であり,収集したテキストにおける語順の割合を動詞ごとに調べることで検証が可能である.このうち仮 説 B は,(4)-a に示す「見せる」のように使役起動交替を適用したときにニ格名詞が主語となるものを Show タイプ, (4)-bに示す「渡す」のようにチ格名詞が主語となるものを Pass タイプと分類した上で,Show タイプの動詞は「にを」が,Pass タイプの動詞は「をに」が基本語順であるとする仮説である (Matsuoka 2003).また,仮説 C は「役立てる」の二格や「もたらす」のヨ格などのように,省略されることが少ない格は,動詞の直前に出現することが多いとする仮説である. (4) a. 彼に本を見せる。(cf. 彼が見る。) b. 本を彼に渡す。(cf. 本が渡る。) 一方, 仮説 $\mathbf{D}, \mathbf{E}$ は二格やヲ格の性質も考慮に入れた仮説である. 仮説 $\mathbf{D}$ は基本語順は二格名詞の意味役割によって異なるという仮説で,特に (5)-a における「先生」のようにニ格名詞が有生性を持つ所有者(着点)を表す場合,(5)-bにおける「学校」のように有生性を持たない場所(着点)を表す場合よりも「にを」語順をとりやすいとする仮説である (Matsuoka 2003; Ito 2007). (5) a. 先生に本を返却した。 b. 本を学校に返却した。 仮説 $\mathbf{E}$ は「思ったことを口に出す」や「人のことに口を出す」などのような慣用表現を含む文に関する Miyagawa らの分析 (Miyagawa and Tsujioka 2004)を拡張したものであり,「変化をもたらす」などのように, 慣用表現として特別な意味を持っていない場合であっても, 高い頻度で動詞と共起するヲ格名詞や二格名詞は動詞の近くに出現しやすいとする仮説である。中本ら (中本他 2006) は, 日本語の語順選好は動詞に還元できない文レベルの意味と相関する,すなわち, 基本語順は単純な動詞のタイプや二格の意味役割から決めることはできず, 文を構成する主要な要素間の相互作用の結果としての文レべルの意味が語順選好に関係していると主張しているが, 基本語順は動詞の種類だけでなく, 動詞とチ格名詞, 二格名詞との組み合わせによって決まるという意味で仮説 $\mathbf{E}$ は中本らの説に近い説であると言える。 ## 4 分析に使用する用例の収集 大規模コーパスに基づく日本語二重目的語構文の基本語順の分析は, 理論研究や, 心理実験や脳科学などに基づく実証的手法と比べ, 圧倒的に多くの用例を使用できるという利点がある一方で,自動的に用例を収集する必要があるため, 誤った用例が収集されてしまうことが問題となる,たとえば,単純に動詞の前に出現した格助詞を収集すると,(6)のような文から「鍵を彼に教わった」という用例が収集されてしまう。このような問題は, 係り受け解析を行い, 名詞句「鍵を」の係り先が「教わった」ではなく「置いた」であることを考慮することで防ぐことができ るが,現状の構文解析システムの精度はたかだか $92 \%$ 程度であり (Yoshinaga and Kitsuregawa 2014),係り受け解析を利用するだけでは,依然として多くの適切でない用例を収集してしまう可能性が残る。 (6)鍵を彼に教わった場所に置いた。 そこで本研究では, 非常に規模の大きいコーパスから,二格やヲ格が明示的に出現しており, かつ,構文的な曖昧性の少ない用例たけを抽出,利用することによりこの問題に対処する.具体的には,河原らの手法 (河原,黒橋 2002)を基にした下記の手順を,Webから収集したテキスト集合に適用することにより,大規模かつ高精度な用例の収集を実現する². 1. 收集したテキスト集合を句点等を手がかりに文に分割. この際、コピーページなどから 1 つの用例を重複して収集するのを防ぐため,完全に同一の文は 1 つに統合する. 2. 構文解析システム $\mathrm{KNP}^{3}$ を用いて構文解析を行い 4 , 構文的曖昧性がないと解析された係り受け関係から動詞とガ格名詞,二格名詞, ヨ格名詞を収集 ${ }^{5}$.この際,格要素が複合名詞となっている場合は, 主辞が 1 文字の場合はその直前の形態素とセットで, それ以外の場合は主辞のみを収集する。また,動詞は「れる」や「たい」などの接尾辞を伴わず出現したもののみを収集対象とする. 3. 収集した用例を動詞ごとにまとめ, 以下の条件すべてを満たす動詞を分析の対象とする. (a) 形態素解析システム JUMAN ${ }^{6}$ の基本的語彙に含まれる動詞である. (b) ヨ格名詞, 二格名詞をともに持つ用例の割合が動詞の出現数の $5 \%$ 以上である. (c) ヨ格名詞,二格名詞をともに持ち,かつ,いずれも JUMAN の基本的語彙に含まれる用例の異なり数が 500 以上である. 上記 2 において,たとえば,(6)に示す文が与えられた場合,「鍵を」と「彼に」の2つの文節は後方に 2 つ動詞が存在するため係り先に曖昧性があることから「鍵を」と「彼に」を含む用例は収集されず,係り先に曖昧性のない「場所に」とその係り先である「置いた」で構成される「場所に置いた」という用例だけが収集される7.また, 3 の (b)の条件は三項動詞のみを収集対象とするための条件である。目的語が 2 つ出現する用例が $5 \%$ 以上というのは緩い条件のように思えるが,該当の項が省略されている,被連体修飾要素として出現している,係り受けに曖昧性がある等の理由で,三項動詞であっても目的語が 2 つ明示的に出現しないことが多い  ことから,実際にこの条件を満たした動詞の多くは三項動詞であった. 100 億文を超える文集合から用例を抽出した結果,上記の 3 の (a)~(c)の条件をすべて満たす動詞は 648 種類収集された。 1 動詞あたりの出現数の平均は約 35 万,中央値は約 8.3 万,収集されたチ格名詞,二格名詞をともに持つ用例数の平均は約 3.8 万,中央值は約 0.9 万であった. ## 5 大規模コーパスに基づく基本語順の分析 ## 5.1 動詞ごとの基本語順の分析 仮説 $\mathbf{A}, \mathbf{C}$ の検証を行うため,前節で収集した 648 動詞それぞれに対し, ヲ格とニ格の一方のみが出現した用例に占める二格のみが出現した用例の割合 $R_{\text {DAT-only }}$ と, ヨ格とニ格の両方が出現した用例に占める「をに」語順の割合 $R_{\mathrm{ACC}-\mathrm{DAT}}$ を算出し,これらの相関を調査した。このうち,以下の式で算出される $R_{\text {DAT-only }}$ は,二格がヲ格と比べてどのくらい省略されにくいかを表す値であり基本的に語順に関する情報を含まない値である。 $ R_{\text {DAT-only }}=\frac{N_{\text {DAT-only }}}{N_{\text {DAT-only }}+N_{\text {ACC-only }}} $ ここで, $N_{\text {DAT-only }}, N_{\text {ACC-only }}$ は,それぞれニ格のみが出現した用例数, ヨ格のみが出現した用例数を表す.たとえば,(7)に示す文は, ヨ格は出現するものの,二格は出現しないため,後者の用例として計数される。 (7) 学長が学位を授与した。 しかし,4節で収集した用例のうち,ヲ格とニ格の一方のみが収集された用例すべてを使用すると, $R_{\mathrm{ACC}-\mathrm{DAT}}$ の値が大きい動詞ほど, $R_{\mathrm{DAT}-\mathrm{only}}$ の值も大きくなりやすいというバイアスが生じてしまう。これは,動詞の近くに出現しやすい項の方が,実際の係り先との間に他の述語が出現する可能性が少ないため,係り先となる述語の曖昧性が相対的に少ないためである。このバイアスを軽減するため, 本研究では $R_{\text {DAT-only }}$ の値を算出する際に,(7) に示す文のようにガ格も収集された用例のみを使用した。これは,ガ格項, ヲ格項,二格項の中で,多くの場合,先頭に出現するガ格項が収集されているならば,収集されなかった項は出現していない可能性が高いと考えられるためである. 表 1 に動詞ごとの $R_{\text {DAT-only }}$ と $R_{\text {ACC-DAT }}$ の値の例を, 図 1 に分析対象とした 648 動詞それぞれの 2 つの値を 2 次元にプロットした結果を示す. 図中の各点は 648 個の動詞をそれぞれ表しており,破線は線形回帰直線を表している,相関係数は 0.391 であった。また,右の棒グラフは $R_{\mathrm{ACC-DAT}}$ の值が該当する区間に含まれる動詞の数を表している。図 1 に示す結果から, ヲ格とニ格の一方のみが出現した用例に占める二格の割合と, ヲ格と二格の両方が出現した用例に占める「をに」語順の割合の間には弱いながらも正の相関があることが確認できる。この結果は仮 表 1 動詞ごとの二格のみ出現した用例の割合 $R_{\mathrm{DAT}-\mathrm{only}}$ と「をに」語順の割合 $R_{\mathrm{ACC}-\mathrm{DAT}}$ の例 図 1 動詞ごとの, 二格のみ出現した用例の割合 $R_{\mathrm{DAT}-\mathrm{only}}$ (横軸)と,「をに」語順の割合 $R_{\mathrm{ACC}-\mathrm{DAT}}$ (縦軸). $\cdot$は各動詞,破線は線型回帰直線を表し,右の棒グラフは各区間に含まれる動詞の数を表す. 説 $\mathbf{C}$ が主張するように,省略されにくい格は動詞の近くに位置する傾向があることを示唆している。一方, $38.2 \%$ の動詞 8 は「をに」語順の方が優勢であり,仮説 $\mathbf{A}$ が主張するようにすべての動詞の基本語順が「にを」であるとは考えにくい.ただし, 648 動詞全体では「にを」語順の割合は $67.2 \%$,「にを」語順が優勢な動詞は 648 個中 400 個であり,全体としては「にを」語順の方が優勢であった. 動詞 9 につては優勢な語順であってもその占める割合は $80 \%$ 以下であり,動詞によって基本語順が決定されるとは考えにくい結果であった。表 1 に示した例のうち「近付ける」, 「適用す  る」,「詰める」,「挙げる」の 4 動詞は 2 つの語順がほほ拮抗していた動詞の例となっている. ## 5.2 動詞のタイプと基本語順 仮説 Bをさらに詳細に検証するため, Show タイプに分類される動詞と,Pass タイプに分類される動詞をそれぞれ抜き出し,コーパス中での語順の分布を調査した。各タイプの動詞として,基本的に Koizumi ら (Koizumi and Tamaoka 2004) が心理実験で使用した動詞を使用した。たたし, Show タイプの動詞に関しては Koizumi らが使用した 10 動詞のうち「はかせる」は JUMAN において 2 形態素に分割されることから除外し, 代わりに「知らせる」と「言付ける」の 2 動詞を追加し,全体で Show タイプ 11 動詞, Pass タイプ 22 動詞を調査対象とした. 各動詞のヲ格,ニ格を両方とる用例数と「をに」語順の割合を表 2 に示す. Show タイプに属する動詞の「をに」語順の割合の分布と,Pass タイプに属する動詞の「をに」語順の割合の分布の差を Wilcoxon の順位和検定により検定した結果, $\mathrm{p}$ 値は 0.359 となり,両者に有意な差は確認できなかった。この結果は, 容認性判断課題においてこれらの動詞タイプの間で反応時間の差が見られなかったとする Koizumi らの報告 (Koizumi and Tamaoka 2004)と一致しており,仮説 B は正しくないことを示唆している。 ## 5.3 二格名詞の性質と基本語順 二格名詞の性質と基本語順の関係に関する仮説 $\mathbf{D}$ を検証するため, 二格名詞のカテゴリと語順の関係を調査した。ここで,二格名詞のカテゴリには,JUMAN 辞書に付与されているカテゴリ情報 10 をとに決定し,そのカテゴリに属する二格名詞の用例数が 100 万を超える 8 つの 表 2 Show タイプと Pass タイプの動詞ごとのヲ格とニ格を両方とる用例数と「をに」語順の割合  カテゴリを対象に「をに」語順の割合を調査した。結果を表 3 に示す. 二格名詞のカテゴリによって「をに」語順の割合に違いがあることが確認できるが,二格名詞が有生名詞の典型である 『人』カテゴリを持つ場合に着目すると, 全体では $35.3 \%$ である「をに」語順の割合が $38.7 \%$ と僅かに大きな値となっている。これは二格が有生名詞の場合「にを」語順をとりやすいという仮説と合致しない結果である. しかしながら,この結果は,二重目的語構文をとるものの, ヨ格,二格の意味役割がまったく異なる動詞間で比較を行ったため生じた可能性が考えられる。そこで本研究ではさらに,滝本ら (滝本, カフラマン, 広瀬 2015) が使用した実験文を参考に,(8) に示すような二格が着点を表す典型的な文を対象に,二格の有生性の有無による語順選好の違いを調査した。 (8) a. 本を学校に返却した. b. 先生に本を返却した. 具体的には, ヲ格名詞のカテゴリが『人工物-その他』である用例に限定した上で, 所有者 (着点)を表す有生名詞の典型として『人』カテゴリに属する名詞,場所(着点)を表す無生名詞の典型として『場所-施設』カテゴリに属する名詞を考え, 二格名詞のカテゴリが『人』である用例数と,『場所-施設』である場合の用例数がいずれも 100 以上である動詞を対象に,二格名詞のカテゴリごとの「をに」語順の割合を調査した 調査の結果, 用例数がいずれも 100 以上であった 126 動詞のうち, 有意水準 0.05 で比率の差の検定を行った結果, 二格名詞のカテゴリが『人』である場合と『場所-施設』である場合で,語順の出現割合に有意な差があると判定された動詞は 94 個存在し, そのうち 64 動詞はニ格名詞のカテゴリが『人』である場合の方が「にを」語順となる割合が大きいという結果が得られた. すなわち,二格名詞が有生性を持つ場合の方が「にを」語順をとりやすい動詞が 64 個存在するのに対し,「をに」語順をとりやすい動詞は 30 個であり,この差を二項検定を用いて検定を行うと $\mathrm{p}$ 值は 0.00059 と算出され, 有意な差であるとの結果が得られた. この結果は, 二格 表 3 二格名詞のカテゴリごとの「をに」語順の割合 表 4 二格の性質と語順の関係の調査に使用した動詞の例とその語順の割合および用例 & 出現頻度の高い用例とその頻度 \\ 名詞が所有者(着点)である場合の方が場所(着点)である場合と比べて「にを」語順をとりやすいという仮説 Dを支持している. 表 4 に,用例数がいずれも 100 以上であった 126 動詞のうちの 6 動詞について,二格が『人』 であった場合と『場所-施設』であった場合,それぞれの場合の「をに」語順となる割合と出現頻度の高い用例の例を示す。表中で太字記載された「をに」率はもう一方と比べて有意に割合が大きいことを表している。二格が『人』である場合の方が「をに」語順となる割合が大きかった動詞の1つに動詞「据える」があったが,その用例にはニ格が『人』である場合であっても 「主役に据える」などのようにニ格が所有者(着点)を表していないものが多く含まれていた. また, 動詞「展示する」の場合, 副詞的に使用されている「一同」にカテゴリ『人』が付与されているため, 二格が『人』である場合の方が「をに」語順となる割合が大きくなったと考えられる。このように,分析においてノイズとなるような不適切な用例は,二格が『人』である場合の方が「をに」語順となる割合が大きい動詞に多く出現していた. ## 5.4 動詞と名詞の共起度合と語順の関係 続いて,仮説 $\mathbf{E}$ の検証を行うため, ヲ格名詞,二格名詞,動詞の 3 つ組が与えられた場合の, ヨ格名詞と動詞, 二格名詞と動詞, それぞれの共起のしやすさと,「をに」語順の関係を調査した. 本研究では, ある格 $c$ を埋める名詞 $n$ と動詞 $v$ の共起度合いの尺度として, 以下の式によ り定義される正規化自己相互情報量 (NPMI) を使用した. $ \operatorname{NPMI}_{c}(n, v)=\frac{\operatorname{PMI}_{c}(n, v)}{-\log \left(p_{c}(n, v)\right)}, \text { ただし, } \operatorname{PMI}_{c}(n, v)=\log \frac{p_{c}(n, v)}{p_{c}(n) p(v)} $ ここで, $p_{c}(n)$ は対象の格 $c$ を埋める名詞が $n$ である確率, $p(v)$ は動詞が $v$ である確率, $p_{c}(n, v)$ は対象の格 $c$ を埋める名詞と動詞の組み合わせが $(n, v)$ となる確率をそれぞれ表す. NPMI は自己相互情報量 (PMI) を $[-1,1]$ の範囲に正規化した尺度となっており, $n$ と $v$ が常に共起する場合に 1 , 独立に出現する場合に 0 , 一度も共起しない場合に -1 の値をとる。本研究では, 仮説 $\mathbf{E}$ を検証するため, 二格名詞と動詞の $\mathrm{NPMI}_{\mathrm{DAT}}$ の值と, ヨ格名詞と動詞の $\mathrm{NPMI}_{\mathrm{ACC}}$ の值の差を算出し,「をに」語順の割合との関係を調査した,仮説 $\mathbf{E}$ が正しい場合,二格名詞の方が動詞と高頻度に共起する場合, すなわち, 二格名詞と動詞の NPMI の方が大きな値となる場合,二格名詞は動詞の近くに出現しやすいことになるので,「をに」語順の割合が大きくなる. まず,検証に使用する用例の収集を行った,具体的には, 500 回以上出現したチ格名詞,ニ格名詞,動詞の組み合わせを収集した.収集の結果,2,417個の組み合わせが収集された.たたし,仮説 E を検証するにあたり,慣用表現の影響を考慮する必要がある.たとえば, (9) に示す「足を運ぶ」,「棚に上げる」は慣用表現であるが,このような慣用表現は多くの場合,間に別の項を挟まないことが知られている.たとえげ (9)-bと同じ意味で「棚に自分を上げる。」などと言うことはできない. (9) a. 美術館に足を運ぶ。(ヲ型慣用表現) b. 自分を棚に上げる。(二型慣用表現) そこで,慣用表現による影響を確認するため,収集された 2,417 個の組み合わせを人手で確認し, 慣用表現として使用されることが大半であると考えられる組み合わせであるかどうかの判定を行った. (9)-aのようにヲ格名詞と動詞が慣用表現を構成しているものをヲ型慣用表現, (9)-bのように二格名詞と動詞が慣用表現を構成しているものを二型慣用表現と呼ぶことにすると, 2,417 個の組み合わせのうち, 404 個がヲ型慣用表現, 84 個がニ型慣用表現と判定された. また, この過程で検証に使用するのに適していないと考えられる事例, 具体的には, (10)-aのようにニ格が副詞的に使用されている「最大限」や「最小限」であるものが 58 個, (10)-bの「友達に知らせる」のようにSNS 等で定型句として自動生成されていると考えられるものが 57 個見つかったため, 検証に使用する用例からこれらを除いた。この結果, 最終的に検証に使用する組み合わせは 2,302 個, そのうち,404 個がヲ型慣用表現, 84 個がニ型慣用表現であった. 1 組み合わせあたりの用例数の平均は 1,534 であった. (10) a. 魅力を最大限に生かす。 b. 美容室を友達に知らせる。 続いて, 2302 個の組み合わせに対して, $\operatorname{NPMI}_{\mathrm{DAT}}(n, v)-\mathrm{NPMI}_{\mathrm{ACC}}(n, v)$ と,「をに」語順の割 合 $R_{\mathrm{ACC-DAT}}$ を算出した.表 5 に算出された値の例を示す。表中で斜体となっている值は, 仮説 $\mathbf{E}$ と合致しない用例であることを示している。また,図 2 に 2,302 個の組み合わせそれぞれの値を 2 次元にプロットした結果を示す。図中の+はヲ型慣用表現,×は二型慣用表現,・はそれ以外の組み合わせを表しており,破線は線形回帰直線,右の棒グラフは $R_{\mathrm{ACC}-\mathrm{DAT}}$ の値が該当する区間に含まれる組み合わせの数を表している。 二格名詞と動詞,ヲ格名詞と動詞の NPMI の値の差と,「をに」語順の割合の相関係数は全体 表 5 名詞と動詞の共起度合と「をに」語順の割合 $R_{\mathrm{ACC}-\mathrm{DAT}}$ の例 図 2 ヨ格名詞, 二格名詞, 動詞の組み合わせごとの名詞と動詞の共起度合 $\operatorname{NPMI}_{\mathrm{DAT}}(n, v)-\operatorname{NPMI}_{\mathrm{ACC}}(n, v)$ と「をに」語順の割合 $R_{\mathrm{ACC}-\mathrm{DAT}}$ の関係.+がヲ型慣用表現,×がニ型慣用表現,・がそれ以外の組み合わせ,破線は線型回帰直線を表し,右の棒グラフは各区間に含まれる組み合わせの数を表す. では 0.567 , 慣用表現を除いた場合は 0.513 であった。ほぼすべてのヲ型慣用表現は「にを」語順を,二型慣用表現は「をに」語順をとっており,これらの影響で相関係数がより大きくなっていると言えるが,これらの影響を除いた場合であっても正の相関があった。この結果は全体的な傾向として仮説 $\mathbf{E}$ が正しいことを示唆している. さらに,図 2 の棒グラフに示すように, 格名詞,二格名詞と動詞の組み合わせごとの語順の割合の分布を見ると, $80.1 \%$ の組み合わせ 11 では,優勢となる語順が $90 \%$ 以上を占めていることが分かる。この結果は,優勢な語順であってもその占める割合は限定的であった動詞ごとの分析と対照的な結果であり,ヲ格名詞,二格名詞と動詞の 3 つ組が与えられた場合は,「をに」 または「にを」のいずれかに優勢な語順が定まる可能性が高いと考えられる。ヲ格名詞,二格名詞と動詞の 3 つ組が与えられた場合,文レベルの意味も定まると考えられることから,この結果は,日本語の語順選好は動詞に還元できない文レべルの意味と相関するという中本ら (中本他 2006)の説を支持する結果であると考えられる. ## 6 おわりに 本研究では, 100 億文を超える大規模コーパスから収集された用例を用い, 日本語二重目的語構文の基本語順,具体的には 2 つの目的語の基本語順が「をに」であるか「にを」であるかに関する各種の仮説の検証を行った。大規模コーパスに基づく分析結果が示唆する結論は以下のように要約される ${ }^{12}$. - 省略されにくい格は動詞の近くに出現する傾向がある $[5.1$ 節, 仮説 $\mathbf{C}$ を支持 $]$ - 約 6 割の動詞は「にを」語順, 4 割の動詞は「をに」語順が優勢である $[5.1$ 節, 仮説 $\mathbf{A}$ 否定 $]$ ・ 優勢な語順であってもその割合が $80 \%$ 以下である動詞が 6 割を占める [5.1 節] - Pass タイプと Show タイプなどの動詞タイプは基本語順と関係しない $[5.2$ 節, 仮説 $\mathbf{B}$ 否定 $]$ ・ 二格名詞が着点を表す場合, 有生性を持つ場合の方が「にを」語順をとりやすい [5.3 節,仮説 $\mathbf{D}$ を支持] - 対象の動詞と高頻度に共起するタ格名詞, 二格名詞は動詞の近くに出現しやすい [5.4 節,仮説 $\mathbf{E}$ を支持] - ヨ格名詞, 二格名詞, 動詞の3つ組が与えられた場合,「をに」語順と「にを」語順のいずれか一方の語順が $90 \%$ 以上となる場合が 8 割を占める $[5.4$ 節 $]$ 本研究で行った日本語二重目的語構文の基本語順の分析の限界として, 基本的にニ格とヨ格の両方が明示的に出現した構文的曖昧性のない用例のみを分析に使用しているため,ヨ格が副  助詞「は」や「も」を用いて表現されやすい動詞や,連体節などを含む長い項を取りやすく項と動詞の間の係り受け関係に曖昧性が存在することが多い動詞等については正しく分析できていない可能性が考えられる。また,大規模コーパスに基づく基本語順の分析は,多くの仮説の網羅的な検証に向いていると言えるが,これらの分析は二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するとの仮定に基づいており,実際に人がどのように二重目的語構文を処理し,どのような語順を基本語順として捉えているかの信頼度の高い結論を得るためには,脳科学などのより直接的な検証も行うことが望ましいと考えられる。 ## 謝 辞 本研究で用例収集に使用した述語項構造データを提供していただた京都大学の河原大輔准教授および黒橋禎夫教授に感謝いたします。本論文の一部は The 54th Annual Meeting of the Association for Computational Linguistics で発表したものです (Sasano and Okumura 2016).また,本研究の一部は JSPS 科研費 25730131,16K16110 の助成を受けたものです. ## 参考文献 Bresnan, J., Cueni, A., Nikitina, T., and Baayen, H. (2007). "Predicting the Dative Alternation." In Bouma, G., Krämer, I., and Zwarts, J. (Eds.), Cognitive Foundations of Interpretation, pp. 69-94. Amsterdam: Royal Netherlands Academy of Science. Hoji, H. (1985). Logical Form Constraints and Configurational Structures in Japanese. Ph.D. thesis, University of Washington. 犬伏知生, 飯島和樹, 小泉政利, 酒井邦嘉 (2009). 日本語二重目的語文の脳内処理における基本語順の効果. 日本言語学会第 138 回大会予稿集, pp. 286-289. Ito, A. (2007). "Argument Structure of Japanese Ditransitives." In Takita, K. and Fuji, C. (Eds.), Nanzan Linguistics Special Issue 3, pp. 127-150. 河原大輔, 黒橋禎夫 (2002). 用言と直前の格要素の組を単位とする格フレームの自動構築. 自然言語処理, $9(1)$, pp. 3-19. 河原大輔, 黒橋禎夫 (2005). 格フレーム辞書の漸次的自動構築. 自然言語処理, 12 (2), pp. 109-131. Koizumi, M. and Tamaoka, K. (2004). "Cognitive Processing of Japanese Sentences with Ditransitive Verbs." Gengo Kenkyu, 125, pp. 173-190. 高祖歩美, 萩原裕子, 曽雌崇弘 (2004). 三項動詞文処理の多チャンネル脳波研究. 電子情報通信学会技術研究報告. TL, 思考と言語, 104 (170), pp. 31-36. Kuno, S. (2006). "Empathy and Direct Discourse Perspectives." In Horn, L. and Ward, G. (Eds.), The Handbook of Pragmatics, Blackwell Handbooks in Linguistics, pp. 315-343. Wiley. Matsuoka, M. (2003). "Two Types of Ditransitive Consturctions in Japanese." Journal of East Asian Linguistics, 12, pp. 171-203. Mazuka, R., Ito, K., and Kondo, T. (2002). "Costs of Scrambling in Japanese Sentence Processing." In Nakayama, M. (Ed.), Sentence Processing in East Asian Languages, pp. 131-166. Stanford, CA: CSLI Publications. Miyagawa, S. (1997). "Against Optional Scrambling." Linguistic Inquiry, 28, pp. 1-26. Miyagawa, S. and Tsujioka, T. (2004). "Argument Structure and Ditransitive Verbs in Japanese." Journal of East Asian Linguistics, 13, pp. 1-38. 中本敬子, 李在鎬, 黒田航 (2006). 日本語の語順選好は動詞に還元できない文レベルの意味と 相関する. 認知科学, 13 (3), pp. 334-352. 佐伯哲夫 (1975). 現代日本語の語順. 笠間書院. Sasano, R. and Okumura, M. (2016). "A Corpus-Based Analysis of Canonical Word Order of Japanese Double Object Constructions." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 2236-2244. Shigenaga, Y. (2014). "Canonical Word Order of Japanese Ditransitive Sentences: A Preliminary Investigation Through a Grammaticality Judgment Survey." Advances in Language and Literary Studies, 5 (2), pp. 35-45. 滝本宮美, カフラマンバルジュ, 広瀬友紀 (2015). 日本語の二重目的語構文における文理解の難易度について一二格名詞の有生性に着目して一. 日本言語学会第 150 回大会, pp. 110-115. Tamaoka, K., Sakai, H., Kawahara, J., Miyaoka, Y., Lim, H., and Koizumi, M. (2005). "Priority Information Used for the Processing of Japanese Sentences: Thematic Roles, Case Particles or Grammatical Functions?" Journal of Psycholinguistic Research, 34 (3), pp. 281-332. Yamashita, H. and Chang, F. (2001). "LLong Before Short" Preference in the Production of a Head-final Language." Cognition, 81 (2), pp. B45-B55. Yoshinaga, N. and Kitsuregawa, M. (2014). "A Self-adaptive Classifier for Efficient Text-stream Processing." In Proceedings of the 24th International Conference on Computational Linguistics, pp. 1091-1102. ## 略歴 笹野遼平:2009 年東京大学大学院情報理工学系研究科博士課程修了. 京都大学特定研究員, 東京工業大学助教を経て, 2017 年より名古屋大学准教授. 博士 (情報理工学). 自然言語処理, 特に照応解析, 述語項構造解析に関する研究に従事. 言語処理学会, 情報処理学会, 人工知能学会, ACL 各会員. 奥村学:1989 年東京工業大学大学院理工学研究科博士課程修了. 同年, 東京工業大学助手. 1992 年北陸先端科学技術大学院大学助教授, 2000 年東京工業大学助教授, 2009 年同教授, 現在に至る. 工学博士. 自然言語処理, 知的情報提示技術, 語学学習支援, テキスト評価分析, テキストマイニングに関する研究に従事. 情報処理学会, 電子情報通信学会, 人工知能学会, AAAI,言語処理学会, ACL, 認知科学会, 計量国語学会各会員. (2017 年 6 月 7 日受付) (2017 年 8 月 30 日再受付) (2017 年 10 月 4 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# nwjc2vec: 国語研日本語ウェブコーパスから構築した 単語の分散表現データ 新納 浩幸 $\dagger$ ・浅原 正幸 $\dagger \dagger \cdot$ 古宮嘉那子 $\dagger$ ・佐々木 稔 $\dagger$ } 我々は国語研日本語ウェブコーパスと word2vec を用いて単語の分散表現を構築し, その分散表現のデータを nwjc2vec と名付けて公開している. 本稿では nwjc2vec を 紹介し, nwjc2vec の品質を評価するために行った 2 種類の評価実験の結果を報告す る. 第一の評価実験では, 単語間類似度の評価として, 単語類似度データセットを利用して人間の主観評価とのスピアマン順位相関係数を算出する. 第二の評価実験で は, タスクに基づく評価として, nwjc2vec を用いて語義授昧性解消及び回帰型ニュー ラルネットワークによる言語モデルの構築を行う.どちらの評価実験においても,新聞記事 7 年分の記事データから構築した分散表現を用いた場合の結果と比較する ことで, $n w j c 2 v e c$ が高品質であることを示す. キーワード:分散表現,国語研日本語ウェブコーパス, word2vec ## nwjc2vec: Word Embedding Data Constructed from NINJAL Web Japanese Corpus \author{ Hiroyuki Shinnou $^{\dagger}$, Masayuki Asahara $^{\dagger \dagger}$, Kanako $^{\dagger}$ Komiya $^{\dagger}$ and Minoru Sasaki ${ }^{\dagger}$ } We constructed word embedding data (named as 'nwjc2vec') using the NINJAL Web Japanese Corpus and word2vec software, and released it publicly. In this report, $n w j c 2 v e c$ is introduced, and the result of two types of experiments that were conducted to evaluate the quality of nwjc2vec is shown. In the first experiment, the evaluation based on word similarity is considered. Using a word similarity dataset, we calculate Spearman's rank correlation coefficient. In the second experiment, the evaluation based on task is considered. As the task, we consider word sense disambiguation (WSD) and language model construction using Recurrent Neural Network (RNN). The results obtained using the nwjc2vec were compared with the results obtained using word embedding constructed from the article data of newspaper for seven years. The nwjc2vec is shown to be high quality. Key Words: Word Embedding, NINJAL Web Japanese Corpus, word2vec  ## 1 はじめに 一般に, 自然言語処理システムでは単語を何らかの数值べクトルとして表現する必要がある.単純にベクトル化する方法としては one-hot 表現がある。これは単語の種類数が $N$ の場合, $N$次元ベクトルを用意し,単語 $w$ が $i$ 番目の種類の単語であれば, $N$ 次元ベクトルの $i$ 番目だけを 1 に,他は 0 にして $w$ をべクトル化する方法である. one-hot 表現によるべクトル化は単にベクトル化しただけであり,べクトル間の関係はその単語間のなんらかの関係を反映しているわけではない,処理の意味を考えれば,単語のべクトルはその単語の意味を表し, ベクトル間の関係は,単語の意味の関係を反映したものになっていることが望ましい.このような背景下で, Mikolov は word2vec を発表し (Mikolov, Sutskever, Chen, Corrado, and Dean 2013b; Mikolov, Chen, Corrado, and Dean 2013a), 単語の意味を低次元密なべクトルとして表現する分散表現が大きな成功を収めた。その後, 自然言語処理の様々なタスクにおいて, 分散表現が導入され,既存のシステムを改善している。また同時に近年, 自然言語処理の分野でも深層学習の利用が活発だが,そこでは単語のべクトル化に分散表現が用いられる (岡崎 2016).つまり,現在, 自然言語処理システムにおける単語のベクトル化には分散表現を用いることが一般的な状況となっている. 分散表現は, 単語分割されたコーパス1があれば word $2 \mathrm{vec}^{2}$ や $\mathrm{GloVe}^{3}$ などの公開されているツールを用いて簡単に構築できる。また深層学習で利用する場合は, ネットワークの一部として分散表現を学習できる。このため分散表現のデータ自体の品質に関心が持たれることは少ない. ただし分散表現を利用したシステムでは,分散表現の品質がそのシステムの精度に大きな影響を与えている。また深層学習では, 学習時間や得られるモデルの品質の観点から, 分散表現を学習時に構築するよりも,既存の学習済みの分散表現を用いる方が望ましい. このような観点から容易に利用できる高品質の分散表現データがあれば, 様々な自然言語処理システムの構築に有益であることは明らかである. 以上の潜在的な需要に応えるために我々は国語研日本語ウェブコーパス(以下,NWJC)(Asahara, Maekawa, Imada, Kato, and Konishi 2014)を利用して分散表現を構築し,それを nwjc2vec と名付けて公開している4.NWJC は約 258 億語からなるコーパスである。1 年分の新聞記事中のプレーンな文のデータが約 2,050 万語5であることを考えると, NWJC は 1,200 年分以上の新聞記事に相当し, 超大規模コーパスといえる。そのためそのコーパスから構築された nwjc2vec が高品質であることが期待できる.  本稿では nwjc2 vec を紹介するとともに, nwjc2vec の品質を評価するために行った二種類の評価実験の結果を報告する,第一の評価実験では,単語間類似度の評価として,単語類似度デー夕セットを利用して人間の主観評価とのスピアマン順位相関係数を算出する。第二の評価実験では,タスクに基づく評価として,nwjc2vec を用いて語義曖昧性解消及び回帰型ニューラルネットワーク(Recurrent Neural Network, 以下 RNN)による言語モデルの構築を行う。なおここでの言語モデルとは確率的言語モデルであり単語列に対する確率分布を意味する.構築した言語モデルはパープレキシティにより評価できるので,その評価値により構築の基になった分散表現データを評価する。どちらの評価実験においても,新聞記事 7 年分の記事データから構築した分散表現を用いた場合の結果と比較することで, nwjc2vec が高品質であることを示す. ## 2 nwjc2vec の構築 ## $2.1 \quad$ NWJC NWJC はウェブを母集団とし, 100 億語規模を目標として構築した日本語コーパスである. ウェブアーカイブの構築で用いられる Heritrix-3.1.16クローラを運用することで, 1 年間, 3 か月おきに,固定した約 1 億 URLのウェブページを収集している.得られたウェブページは nwc-toolkit-0.0.2 $2^{7}$ を用いて,日本語文抽出と正規化を行う。コピーサイトの問題を緩和するために, 文単位の単一化(文の異なりを用いる)を行った。アノテーションはすべて自動解析を用い, 形態論情報, および係り受け情報を付与している。形態素解析には形態素解析器 MeCab$0.996^{8}$ と UniDic-2.1.2 $2^{9}$ を使用し, 係り受け解析には係り受け解析器 CaboCha-0.69 $9^{10}$ と UniDic 主辞規則11を使用した。 収集したデータを研究者に提供することが求められているが,著作権の問題があり,収集したデータをそのまま外部の研究者に提供することは難しい,そこで,文字列のみならず,形態論情報や係り受け構造に基づく検索系を構築し, 例文とともに元データが含まれる URLへのリンクを含めて提示するサービスを構築した (Asahara, Kawahara, Takei, Masuoka, Ohba, Torii, Morii, Tanaka, Maekawa, Kato, and Konishi 2016). このサービスから利用可能なデータは, 2014 年 10-12 月期収集データ(NWJC-2014-4Qデー 夕)に基づく,基礎統計は表 1 のとおりである。 ^{6} \mathrm{http}$ //webarchive.jira.com/wiki/display/Heritrix/Heritrix/ 7 https://github.com/xen/nwc-toolkit 8 https://taku910.github.io/mecab/ 9 http://unidic.ninjal.ac.jp/ 10 https://taku910.github.io/cabocha/ 11 CaboCha コンパイル時に ./configure --with-posset=UNIDIC と指定することで, 解析器の主辞規則を UniDic 品詞体系に適応することができる. } ## 2.2 word2vec による分散表現の構築 表 1 に示した NWJC-2014-4Q データを用いて分散表現データを構築する。分散表現デー夕の構築には word2vec ${ }^{12}$ の $\mathrm{CBOW}$ モデルを用いた.表 2 に word2 vec 実行時の各種パラメータを示す 13. 分散表現の学習に利用するコーパスは単語分割されている必要がある。ここではこの単語として,書字形出現形のみを使った word と,形態論情報14を含めた $\operatorname{mrph} の 2$ 種類を用意し,それぞれの単語単位に対してモデルを構築した。 ## 2.3 nwjc2vec 上記により構築できた 2 つのモデルのうち特に有用であるのは形態論情報を含めた分散表現である.このモデルの分散表現を nwjc2vec と名付けて公開している. nwjc2vec は柔軟な利用が可能なように, 分散表現をテキストファイルの形式で保存している. 1 行は 1 形態素に相当し,以下の形式になっている. 形態素 e_1 e_2 $\cdot$ $\cdot$ e_200 表 1 基礎統計: NWJC-2014-4Qデー夕 表 2 word2vec の実行時のパラメータ  e_i がその形態素の分散表現の i 次元目の値である. 例えば,以下は「意味」に対応する分散表現である。 $ \begin{aligned} & \text { 意味, 名詞, 普通名詞, サ変可能,*,*, }{ }^{*}, \text { イミ, 意味, 意味, イミ, 意味, イミ, 漢, }{ }^{*},{ }^{*},{ }^{*} \text {, } \\ & -10.491043-2.121982-3.084628 \cdots 4.0247053 .57007212 .781445 \end{aligned} $ つまり“意味, 名詞, 普通名詞, サ変可能, ${ }^{*},{ }^{*}, *$, イミ, 意味, 意味, イミ, 意味, イミ, 漢, ${ }^{*},{ }^{*},{ }^{*}$, , が 1 形態素である。またべクトル値は word2vec の出力値をそのまま書き出しており,大きさ15を 1 とする正規化はされていない. nwjc2vec 全体としては $1,738,455$ 形態素からなる ${ }^{16}$ 。書字形出現形は $1,541,651$ 種類存在するので,書字形出現形が同じでも形態論情報が異なるものが多数存在する. 従来の単語分散表現は書字形出現形を形態素としたものが一般的であり, その場合, 品詞の違いによる別単語を同一の分散表現にしているという明らかな欠点がある. nwjc2vec ではその欠点を回避できている. 大分類の品詞別の形態素数を頻度順に表 3 にまとめる. etc は半角英単語などの未知語であり,語彙素の付与に失敗しているものである. 表 3 品詞別の形態素数  次に表 3 の etc 以外の分散表現のベクトルの大きさを調べた。平均は 9.261, 標準偏差は 9.641,中央値は 5.105 であった。またべクトルの大きさを 0.1 刻みに丸め, その頻度分布を調べた。結果を図 1 に示す. 参考として, ベクトルの大きさとその単語の関係を調べた. ベクトルの大きさの小数点以下を切り捨て,大きさ $3,15,75^{17}$ の単語をランダムに 10 個取り出した. その結果を表 4 に示す.ここから明確な特徴を示すことはできないが, 頻度が小さな単語はそのべクトルも小さく,頻度が大きな単語はそのべクトルも大きいという傾向があると考えられる。 図 1 分散表現ベクトルの大きさの頻度分布 表 4 ベクトルの大きさと単語の関係 \\ 17 この 3 つの数値は, ベクトルの大きさは 3 が最頻出であったことから選んだ. ## 3 評価実験 一般に分散表現の評価法には単語間類似度の観点からのものと, 分散表現を用いたタスクの精度の観点からのものが存在する。単語間類似度から nwjc2vec を評価したものとして, 分類語彙表との対応をみた評価が報告されている (浅原, 岡 2017). そこでは主観的な評価ではあるが, nwjc2vec が高品質であることが示されている. ここでは更に定量的な評価を行うために,単語類似度データセットを利用する。またタスクの精度の観点としては, 語義曖昧性解消と言語モデル構築という 2 つのタスクから評価を行う。どちらの評価実験においても,新聞記事 7 年分の記事データから構築した分散表現を用いた場合の結果と比較することで, nwjc2vec が高品質であることを示す. ## 3.1 比較のための分散表現 mai2vec の構築 $n w j c 2 v e c$ との比較のために, 新聞記事 7 年分から分散表現を構築する。用いたコーパスは毎日新聞' 93 年度版から '99 年度版の 7 年分の記事であり, そこから見出しや表内の文字列等を取り除き, 文として認められるものだけを取り出した. 取り出した文は $6,791,403$ 文であった. これを MeCab-0.996 と UniDic-2.1.2を用いて分かち書きし, これを word2vec にかけることで分散表現を構築した。この分散表現デー夕をここでは mai2vec と名付ける. word2 vec 実行時の各種パラメータは nwjc2vec を構築したもの(表 2)と合わせた. 最終的に得られた mai2vec の形態素数は 132,509 であった. ## 3.2 単語間類似度による評価 分散表現を単語間類似度の観点から評価する方法として, 単語類似度データセットを利用する方法がある。単語類似度データセットは用意された単語ぺアに対して, 複数の人間が主観的にその類似度を付けたものである。複数人の類似度の平均を,その単語ぺアの類似度とみなす。 単語類似度データセット中の単語ペアの類似度を, 分散表現データを用いて算出する。デー タセットに記されている類似度が高い単語ぺアに対しては, 分散表現データも高い類似度を算出し, 低い単語ぺアに対しては分散表現データも低い類似度を算出するというように, デー夕セット内に記された類似度と分散表現が算出する類似度に相関があれば,その分散表現デー夕の単語間類似度が概ね正しいと考えられる。この相関の算出には一般にスピアマン順位相関係数が用いられる。 ここでは首都大学東京の小町研究室が以下で公開している単語類似度データセットを利用する.このデータセットは形容詞, 副詞, 名詞及び動詞の 4 つの単語類似度データセットからなる. 10 人のアノテータにより各単語ぺアに対して 11 段階(0 から 10)の類似度が付与されている. 表 5 単語類似度データセット中の利用した単語ぺア数 表 6 単語間類似度の実験結果 https://github.com/tmu-nlp/JapaneseWordSimilarityDataset このデータセット中の単語ペアのうち mai2vec と nwjc2vec の両方に登録されている単語ぺアだを評価に利用した. 利用した単語ペア数を表 5 に示す. 上記の単語ペアに対して mai2vec あるいは nwjc2vec から類似度を求め ${ }^{18}$, 形容詞, 副詞, 名詞及び動詞の各データセットに対して,スピアマン順位相関係数を算出した. 結果を表 6 に示す. 全てのデータセットにおいて nwjc2vec は mai2vec よりも評価値が高く, 単語間類似度の観点では mai2vec よりも品質が高いと言える. ## 3.3 タスクに基づく評価 ## 3.3.1語義曖昧性解消タスク 分散表現を用いて, 教師あり学習による語義曖昧性解消を行う。語義曖昧性解消に分散表現を用いる手法には Sugawara が提案した手法 (Sugawara, Takamura, Sasano, and Okumura 2015) を用いる. Sugawara の手法は語義曖昧性解消に対して通常設定する素性群(基本素性と呼ぶ) の他に対象単語の前後 2 単語の分散表現を素性として加えるというものである. 例えば以下の文を考える。語義曖昧性解消の対象単語は「意味」であり,単語区切りを“/” で示す。 江戸/時代/の/庶民/たち/が/そこ/に/新た/な/意味/の/付与/を/おこなっ/て/き/た/。 標準的な教師あり学習の手法では「意味」の前後の文脈情報(例えば前後に現れる自立語や直前の品詞など)を素性で表す。これが基本素性となる。この基本素性をべクトル表現したものを $V$ とする. Sugawara 手法は対象単語の前後 2 単語, つまり「新た」「な」「の」「付与」の 4 単語の分散表現 $V_{\text {新た, }} V_{\text {な, }} V_{\text {の, }}, V_{\text {付与 }} V$ に結合させ, それを新たな上記文の素性ベクトル  表 7 平均正解率 $(\%)$ として教師あり学習を行うというものである. ここでの実験では分散表現の差異を明確にするために基本素性を利用せずに,前後 2 単語の する。各分散表現を求める際に nwjc2vec あるいは mai2vec を利用する. ただし nwjc2vec の形態素には形態論情報が付与されているが, ここでは大分類の品詞だけを用いることにした. 例えば上記文では, 形態素解析時に各単語に大分類の品詞名を付与し, 以下のような形に直すことで分散表現を求めている. 江戸-名詞/時代-名詞/の-助詞/庶民-名詞/たち-接尾辞/が-助詞/そこ-代名詞/に一助詞/新た-形状詞/な-助動詞/意味-名詞/の-助詞/付与-名詞/を一助詞/おこなっ-動詞/てー助詞/ き-動詞/た-助動詞/。-補助記号 語義曖昧性解消のデータセットとしては SemEval-2 の日本語辞書タスク (Okumura, Shirai, Komiya, and Yokono 2011)のデータセットを用いる. このタスクでは 50 単語の対象単語が設定され,各対象単語に対して,50 用例の訓練データと 50 用例のテストデータが与えられている. 各対象単語に対して訓練データで分類器を学習し, その単語のテストデータにより分類器の正解率を測る。そして 50 単語に対する正解率の平均によって評価を行う. 実験結果を表 7 に示す。表中の baseline は SemEval-2 でのベースラインである。表中の mai2vec は分散表現 mai2vec から素性ベクトルを作る手法である。表中の nwjc2vec は分散表現 nwjc2vec から素性べクトルを作る手法である. どちらの場合も分散表現のベクトルは大きさを 1 に正規化している.また大きさを 1 に正規化せずに, word2vec から求まった値を直接使った場合を mai2vec-0 と nwjc2vec-0 により示した. ベースラインも含め, いずれのシステムも学習アルゴリズムとしては線形の $\mathrm{SVM}^{19}$ を用いた. nwjc2vec が最も高い正解率を出しており,nwjc2vec が高品質であると考えられる.また分散表現のべクトルの大きさは 1 に正規化して利用した方がよいことも確認できる. ## 3.3.2RNN による言語モデル構築 RNN は時系列デー夕を処理する深層学習のモデルである,様々な応用があるが,最も典型的な応用は言語モデルの構築である。時刻 $t$ の入力データを, 文 $s$ 内の $t$ 番目の単語 $w_{t}$ とし,  その教師データを次に現れる単語 $w_{t+1}$ とすることで言語モデルが学習できる. ここでは RNN の拡張版である Long Short-Term Memory (以下 LSTM) (Gers, Schmidhuber, and Cummins 2000) を用いる。言語モデルを学習する LSTM の時刻 $t$ 時の入出力を表したネットワークを図 2 に示す. 時刻 $t$ で単語 $w_{t}$ が入力され,それを $w_{t}$ の分散表現のべクトルに変換し,その分散表現のベクトルをLSTM ブロックに入力する.LSTM ブロックでは次の時刻 $t+1$ への LSTM ブロックへ $w_{0}$ から $w_{t}$ の単語列の情報を圧縮したべクトル $h_{t}$ と記憶セル $c_{t}$ を渡す. 同時に $y_{t}$ を出力し, それを線形作用素 $W$ で one-hot 形式のベクトルに直すことで次に現れる単語を予測する。学習時には $W y_{t}$ と $w_{t+1}$ との誤差からネットワークの重みを学習する。 上記ネットワークでは, $w_{t}$ をその分散表現のべクトルに変換するが,その変換,つまり $w_{t}$ の分散表現自体を LSTM 内で学習している。その際, 学習対象の分散表現の初期値は通常ランダムな値を設定する。しかしこの初期值に既存の分散表現のデータを利用することも可能である. あるいは, 分散表現を学習対象から外し, 分散表現への変換は既存の分散表現のデータを利用する形でも良い. ここでの実験では分散表現の品質の比較を目的としているために, 分散表現を学習対象から外し, 分散表現への変換は評価対象の分散表現デー夕を利用する形で実験を行う。つまり分散表現への変換に mai2vec を用いて構築した言語モデル (mai2vec-lm), 及び分散表現への変換に nwjc2vec を用いて構築した言語モデル (nwjc2vec-lm) を比較することで nwjc2vec を評価する. また参考として分散表現を LSTM 内で学習して構築した言語モデル (base-lm) も評価する。言 図 $2 \operatorname{LSTM}$ の時刻 $t$ 時の入出力 語モデルの評価にはパープレキシティを用いる. 言語モデルの学習用のコーパスとしては現代日本語書き言葉均衡コーパス (Maekawa, Yamazaki, Ogiso, Maruyama, Ogura, Kashino, Koiso, Yamaguchi, Tanaka, and Den 2014)の Yahoo! ブログと Yahoo! 知恵袋から取り出した 7,330 文のうち 7,226 文を学習用コーパス, 104 文を評価用コーパスとした. 1 epoch $^{20}$ 毎に構築した言語モデルのパープレキシティを表 8 と図 3 に示す. 表 8 エポック毎のパープレキシティ ## perplexity 250 50 図 3 分散表現の違いによる言語モデルのパープレキシティ  mai2vec-lm と nwjc2vec-lm は base-lm よりもパープレキシティが低く, 言語モデルの学習には分散表現への変換を同時に学習するよりも,既存の分散表現を利用した方がよいと言える. また nwjc2vec-lm は mai2vec-lm よりもパープレキシティが低く, nwjc2vec の方が mai2vec よりも品質が高いと言える. ## 4 考察 単語間類似度に基づく評価実験では, mai2vec も nwjc2vec もスピアマン順位相関係数の値自体は低かった. ただし nwjc2vec は mai2vec よりも明らかに評価値が高く, 少なくとも mai2vec よりも品質が高いと言える. 分類語彙表との対応をみた実験 (浅原, 岡 2017) からも単語間類似度の精度は良く,しかもタスクに基づく評価実験から mai2vec もかなり品質が高いことがうかがえるため, nwjc2vec は単語間類似度の観点からは高品質であると考える. タスクに基づく評価実験では, 語義曖昧性解消でも言語モデルの構築でも nwjc2vec は mai2vec よりも良い値を出したが,その差はわずかであった。ただし品質の差は数値の差以上のものがあると考えられる。 まず語義曖昧性解消では SemEval-2 の日本語辞書タスクのデータを用いたが,このタスクは baseline がかなり高く,通常のリソースを使う限りでは baseline を超えることは困難である.実際に SemEval-2 の参加システムで baseline を超える正解率を出したシステムはなかった. また新納はこのタスクにおいて様々なシソーラスの情報を試したが, baseline を $0.2 \%$ 以上改善できるものはなかった (新納, 佐々木, 古宮 2015). そこではシソーラスの粒度を混合して利用することで $77.28 \%$ まで改善しているが, nwjc2vec はこの值よりも $0.43 \%$ 高い. Yamaki は wikipedia から構築した分散表現と独自の手法を利用して, $77.10 \%$ の正解率を出したが (Yamaki, Shinnou, Komiya, and Sasaki 2016), この值は mai2vec と同程度である. mai2vec も nwjc2vec も baseline を超えているので, どちらの分散表現もかなり品質は高いといえるが, nwjc2vec は mai2vec よりも $0.64 \%$ 高い.この $0.64 \%$ の差はなかなか埋めることができないものである. 次に言語モデルを用いたここでの実験では,未知語の問題を避けていることを注記したい. ここで利用した学習用コーパスと評価用コーパスには mai2vec および nwjc2vec のどちらにも未知語が存在しないように, どちらかに未知語が存在する場合は, その文を予めコーパスから取り除いている。初期のコーパス (175,302 単語, 異なり単語数 15,082 単語) では mai2vec を用いた場合の未知語は 7,424 単語(異なり数 3,204 単語)存在したが, nwjc2vec を用いた場合の未知語は 404 単語(異なり数 324 単語)であり,大きな差がある。本実験において,学習用コー パスあるいは評価用コーパス内の分散表現データにおける未知語の出現が, 構築できる言語モデルにどの程度悪影響を与えるかは不明である。ただし明らかに未知語の出現により評価値は悪くなるはずであり,この点から nwjc2vec と mai2vec の品質の差は更にあると考えられる. 表 9 fine-tuning の効果 最後に nwjc2vec の fine-tuning について述べる。 あるモデルの学習を行う際に, 訓練データが少量しかないことは通常起こりえる。このとき別の訓練データから学習された既存のモデルが利用できれば, 手持ちの少量の訓練データからその既存のモデルを自分の用途に調整することができる。これを fine-tuning という。分散表現も fine-tuning が可能であるため, nwjc2vec の存在意義は更に高い. この点を確認するため, 分散表現の学習プログラム21を作成し(新納 2016), その分散表現の初期値を nwjc2vec に設定し,学習用コーパスとしては mai2vec の基になったコーパスから 30 万文をランダムに取り出したものを用いて nwjc2vec の fine-tuning を行った. 得られた分散表現を用いて, 前章で行った LSTM による言語モデルの学習を再度行った. 学習用コーパスと評価用コーパスも前章のものと同じである。結果を表 9 と図 4 に示す. 各 epoch 後に学習できた言語モデルのパープレキシティは fine-tuning による分散表現を用いたものの方が優れており, fine-tuning の効果が確認できる. ## 5 おわりに 本稿では我々が構築, 公開している日本語単語の分散表現のデー夕 nwjc2vec を紹介した. $n w j c 2 v e c$ は超大規模コーパスである国語研日本語ウェブコーパスから word2vec を用いて構築した分散表現のデータである。ここでは nwjc2vec の品質を評価するため 2 種類の評価実験を行った.第一の評価実験では単語間類似度の評価として,単語類似度データセットを利用して人間の主観評価とのスピアマン順位相関係数を算出した。第二の評価実験では,タスクに基づく評価として, nwjc2vec を用いて語義曖昧性解消及び回帰型ニューラルネットワークによる言 perplexity 50 図 4 fine-tuning による言語モデルのパープレキシティ 語モデルの構築から nwjc2vec の評価を行った。二つの評価実験から nwjc2vec が高品質であることが示された. 今後は nwjc2vec の fine-tuning の可能性を調査したい. ## 謝 辞 本研究の一部は国語研コーパス開発センター「超大規模コーパス」プロジェクト (20112015)・コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」(2016-2021) ・新領域創出型共同研究プロジェクト「all-words WSD システムの構築及び分類語彙表と岩波国語辞典の対応表作成への利用」(2016-2017) によるものです. ## 参考文献 Asahara, M., Kawahara, K., Takei, Y., Masuoka, H., Ohba, Y., Torii, Y., Morii, T., Tanaka, Y., Maekawa, K., Kato, S., and Konishi, H. (2016). '“BonTen'—Corpus Concordance System for 'NINJAL Web Japanese Corpus'." In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: System Demonstrations, pp. 25-29. Asahara, M., Maekawa, K., Imada, M., Kato, S., and Konishi, H. (2014). "Archiving and Analysing Techniques of the Ultra-large-scale Web-based Corpus Project of NINJAL, Japan." Alexandria: The Journal of National and International Library and Information Issues, 25 (1-2), pp. 129-148. 浅原正幸,岡照晃 (2017). nwjc2vec:『国語研日本語ウェブコーパス』に基づく単語の分散表現データ. 言語処理学会第 23 回年次大会発表論文集, pp. 94-97. Gers, F. A., Schmidhuber, J., and Cummins, F. (2000). "Learning to Forget: Continual Prediction with LSTM." Neural Computation, 12 (10), pp. 2451-2471. Maekawa, K., Yamazaki, M., Ogiso, T., Maruyama, T., Ogura, H., Kashino, W., Koiso, H., Yamaguchi, M., Tanaka, M., and Den, Y. (2014). "Balanced Corpus of Contemporary Written Japanese." Language Resources and Evaluation, 48 (2), pp. 345-371. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013a). "Efficient Estimation of Word Representations in Vector Space." In ICLR Workshop Paper. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J. (2013b). "Distributed Representations of Words and Phrases and Their Compositionality." In Advances in Neural Information Processing Systems, pp. 3111-3119. 岡崎直観 (2016). 言語処理における分散表現学習のフロンティア(〈特集〉ニューラルネットワーク研究のフロンティア). 人工知能 : 人工知能学会誌, $\mathbf{3 1}(2)$, pp. 189-201. Okumura, M., Shirai, K., Komiya, K., and Yokono, H. (2011). "On SemEval-2010 Japanese WSD Task.” 自然言語処理, 18 (3), pp. 293-307. 新納浩幸 (2016). Chainer による実践深層学習. オーム社. 新納浩幸, 佐々木稔, 古宮嘉那子 (2015). 語義曖昧性解消におけるシソーラス利用の問題分析.言語処理学会第 21 回年次大会発表論文集, pp. 59-62. Sugawara, H., Takamura, H., Sasano, R., and Okumura, M. (2015). "Context Representation with Word Embeddings for WSD." In PACLING-2015, pp. 149-155. Yamaki, S., Shinnou, H., Komiya, K., and Sasaki, M. (2016). "Supervised Word Sense Disambiguation with Sentences Similarities from Context Word Embeddings." In PACLIC-30, pp. 115-121. ## 略歴 新納浩幸: 1985 年東京工業大学理学部情報科学科卒業. 1987 年同大学大学院理工学研究科情報科学専攻修士課程修了. 同年富士ゼロックス, 翌年松下電器を経て, 1993 年より茨城大学工学部. 現在, 茨城大学工学部情報工学科教 授. 博士 (工学). 機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会, 情報処理学会, 人工知能学会各会員. 浅原正幸:1998 年京都大学総合人間学部卒. 2003 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 2004 年より同大学助教. 2012 年より国立国語研究所コーパス開発センター特任准教授.現在同准教授. 博士(工学).自然言語処理・コーパス言語学の研究に従事.情報処理学会,言語処理学会, 言語学会, 日本語学会各会員. 古宮嘉那子 : 2005 年東京農工大学工学部情報コミュニケーション工学科卒. 2009 年同大大学院博士後期課程電子情報工学専攻修了. 博士(工学)。同年東京工業大学精密工学研究所研究員, 2010 年東京農工大学工学研究院特任助教, 2014 年茨城大学工学部情報工学科講師. 現在に至る. 自然言語処理の研究に従事. 情報処理学会, 人工知能学会, 言語処理学会各会員. 佐々木稔:1996 年徳島大学工学部知能情報工学科卒業. 2001 年同大学大学院博士後期課程修了。博士(工学).2001 年 12 月茨城大学工学部情報工学科助手. 現在, 茨城大学工学部情報工学科講師. 機械学習や統計的手法による情報検索, 自然言語処理等に関する研究に従事. 言語処理学会, 情報処理学会各会員. (2017 年 6 月 1 日受付) (2017 年 8 月 4 日再受付) (2017 年 9 月 5 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# Bilingual KWIC一対訳表現抽出の可視化による翻訳支援 小川 泰弘 ${ }^{\dagger, \dagger \dagger} \cdot$ 外山 勝彦 $\dagger,+\dagger$ } 計算機による対訳表現抽出を可視化することにより, 対訳辞書の構築や翻訳を支援す るツール Bilingual KWIC を開発した. 本ツールは, 入力されたキーワードに対する 対訳表現を自動的に推定し,それらを含む原言語文と対象言語文をそれぞれ KWIC 形式で表示することにより,ユーザの翻訳作業などを支援する。技術的には,形態素解析などを利用せずに文字列情報だけから対訳を抽出するため, どのような言語対にも適用可能であり,さらには単語以外の表現に対しても対訳を表示することが 可能である。また対訳表現を KWIC 形式で表示することにより,システムの抽出誤 りに対する修正を容易にするだけでなく, 派生表現の獲得や複数の対訳表現の比較 も可能としている。本稿では, Bilingual KWIC の特徵と開発経緯について述べる. キーワード:翻訳支援, 対訳辞書構築, バイリンガル・コンコーダンサ, Dice 係数 ## Bilingual KWIC-GUI Translation Support Tool Based on Bilingual Expression Extraction \author{ Yasuhiro Ogawa ${ }^{\dagger, \dagger \dagger}$ and Katsuhiko Toyama $^{\dagger, \dagger \dagger}$ } This paper proposes a GUI support tool for bilingual dictionary compilation and translation, called "Bilingual KWIC." Bilingual KWIC acquires bilingual expressions from a parallel corpus and displays the result in KWIC format. Displaying in KWIC format enables users to easily correct errors of word alignment and compare two or more types of equivalents. Since Bilingual KWIC does not use morphological information and uses only character-level information, it can deal with any language pairs and can acquire translation equivalents for any input other than words. In this paper, we introduce Bilingual KWIC and describe its features and development process. Key Words: Translation Support Tool, Bilingual Dictionary Compilation, Bilingual Concordancer, Dice Coefficient ## 1 はじめに 機械翻訳システムの性能向上や大量のコーパスを伴なう翻訳メモリなどの導入により,機械支援翻訳 (CAT) が広く行われるようになってきている。その一方で,翻訳の対象となる文書の内容が専門的である場合, その分野特有の専門用語や定型表現に関する対訳辞書が必要となる.  そうした辞書を人手で作成することはコストが高いため,あらかじめ翻訳された対訳コーパスから専門用語や定型表現の対訳を自動抽出する研究が盛んである (Matsumoto and Utsuro 2000). しかし, 自動抽出の結果は必ずしも正確ではなく, 間違った対訳表現を抽出したり, 対訳表現の一部だけを抽出する場合がある。また,一つの語に対して複数の対訳表現を抽出した場合には,訳し分けに関する知見が必要となる。 そこで,対訳表現を抽出するだけでなく, 対訳表現の各候補を, それが出現した文脈と一緒に表示することによって, ユーザによる対訳表現の選定を支援し,対訳辞書構築を支援するシステム Bilingual KWIC ${ }^{\circledR}$ を開発した. Bilingual KWICは,対訳抽出の技術と KWIC (KeyWord In Context) 表示 (Luhn 1960)を統合し, 文単位で対応付けされたパラレル・コーパスから,与えられたキーワードとその対訳表現の候補をそれぞれ文脈付きで表示する. Bilingual KWIC の開発過程については 5 章において詳しく述べるが, 最初は法律分野の対訳辞書構築を支援する目的で開発した。しかし,このシステムは対訳辞書構築だけでなく,翻訳支援にも有用であるため, その後に開発された法務省・日本法令外国語訳データベース・システム $(\mathrm{JLT})^{1}$ (外山, 齋藤, 関根, 小川, 角田, 木村, 松浦 2012 )においても採用されるに至った. JLT は, 日本の主要法令とその英訳, 法令用語日英標準対訳辞書, および日本法令の英訳に関する関連情報をインターネット上において無償で提供するウェブサイトである。また, Bilingual KWIC は名古屋大学が開発した学内情報翻訳データベース NUTRIAD ${ }^{2}$ (福田, 外山, 野田 2013) でも採用され,学内文書の英文化を支援し, 大学の国際化に寄与している. NUTRIADのシステムは, 九州大学・熊本大学・東北大学でも導入され, Bilingual KWIC も同様に利用されている. Bilingual KWIC の現在の目的は, 対訳辞書のようにあらかじめ登録された訳語と少数の用例を提示するのではなく, 任意の入力キーワードに対して対訳表現を計算し,豊富なパラレル・ コーパスからの情報を一緒に提示することにより,従来の対訳辞書や翻訳メモリとは異なるアプローチでの翻訳支援を実現することである. 以下に本論文の構成を示す。まず 2 章において Bilingual KWIC の概要について述べ, 3 章においてその特徴を紹介する。 4 章において, Bilingual KWIC の技術的詳細を, 5 章においてその開発過程をそれぞれ述べる。 6 章ではユーザによる Bilingual KWIC の評価について述べ, 7 章では類似するシステムとの比較を行う. 8 章は本論文のまとめである.  ## 2 Bilingual KWIC の概要 Bilingual KWIC の概観を図 1 に示す.これは Bilingual KWIC が「文脈検索」という名前で採用されている JLT版での画面である。なお, Bilingual KWIC 自体は JLT に先立って開発されたものであり, 以降の説明は, 特に断わりがない限り, JLT 版以外の Bilingual KWIC に共通するものである. 左上のキーワード入力欄にキーワードを入力し, その横の [検索] ボタンを押すと, 左側に原言語, 右側に対象言語で対応付けられた対訳文を表示する。その際, 原言語ではキーワードを中心に,また,対象言語では自動的に推定したその対訳表現を中心に,それぞれ KWIC 形式で表示する。また,注目したい文をマウスでクリックすると,その文全体が下側に表示される。その際, コーパスが複数の文書から構成される場合には, 注目文の出典である文書名を表示できる. 右上の対訳表現入力欄には Bilingual KWIC が推定した対訳表現が表示されるが, それが間違っていたときには, ユーザが自分で適切な対訳表現をここに入力し, [訳語再検索] ボタンを押 図 1 Bilingual KWIC の概観 図 2 “negotiation”に対する実行結果 が推定した他の対訳表現が表示され,ユーザは別の対訳表現を選択することができる。なお, キーワードおよび対訳表現ともにコーパス中における出現回数がそれらのすぐ横に表示され,対訳表現選定の一助となっている. また,KWIC 表示欄の上部にある [並び替え] と表示された部分をクリックすることにより,出力結果をソートすることが可能である。原言語欄もしくは対象言語欄の中心にある表現の左側・右側でそれぞれソートすることができる。これにより対訳表現や用例の比較が簡単に行える. 図 1 では, キーワード「専用利用権」の右側に続く語を基準にソートされている. なお, 図 1 では, 原言語が日本語, 対象言語が英語となっているが, キーワード入力欄に英単語を入力すれば,図 2 のように原言語を英語,対象言語を日本語として対訳表現の自動抽出が行える。またキーワード・対訳表現ともに複合語を含め,任意の文字列を入力することができる。 ## 3 Bilingual KWIC の特徵 Bilingual KWIC は次のようなことが可能であるという特徴を持つ. (1) 対訳表現の抽出における誤りの訂正 (2) 派生表現の獲得 (3) 訳し分けに関する知見の獲得 (4) 対訳辞書との併用 (5) 対訳表現の指定 (6) 他の言語への応用 以下, これらの特徴を詳しく述べる. ## 3.1 対訳表現の抽出における誤りの訂正 Bilingual KWIC では, 自動対訳抽出における誤りをユーザが簡単に修正できる. 図 1 の例では,JLT版で公開されている日本法令の日英対訳コーパスを「専用利用権」をキーワードとして検索している。正しい対訳は, “exclusive exploitation right”であるが, 自動対訳抽出の結果は “exclusive exploitation”となっている.しかし, 図 1 の KWIC 形式で表示された英語文において “exclusive exploitation”の右側の文脈を見れば, “exclusive exploitation right” が対訳として正解であることが直観的に理解できる. ## 3.2 派生表現の獲得 Bilingual KWIC では,派生表現とその対訳を容易に獲得できる,図 1 の例では,「専用利用権」“exclusive exploitation right”の下に続いて表示される用例から「専用利用権者」という派生語と,その対訳 “holder of an exclusive exploitation right”を得ることができる. このような特徴は対訳表現の抽出を支援するときに有用であるが,対訳表現に加えて,実際の用例も表示されることから, Bilingual KWIC は翻訳支援に対しても有用である. ## 3.3 訳し分けに関する知見の獲得 翻訳支援システムとして捉えたとき, Bilingual KWIC は訳し分けに関する知見が容易に獲得できる点が優れている。図 2 の例では, “negotiation”の対訳として,「譲渡」と「交涉」が表示されている,そのような場合には,前後の文脈から,対訳語がどのように使い分けられているかを比較することが容易であり,この例では “between”が後続する場合は「交涉」と翻訳するのが適当であるといった知識を得ることができる。 ## 3.4 対訳辞書との併用 Bilingual KWICでは,あらかじめ対訳辞書が用意されていれば,それを組み达んで併用することも可能である.辞書に対訳表現が登録されている場合は,その対訳を優先的に表示し,その後,自動的に推定した対訳表現を含む文を表示する,図 2 の例では,「譲渡」がこれに該当し,辞書に登録されている対訳であることを示すために緑色で表示される。その下に続く「交渉」は自動推定された対訳であり,辞書に登録されているものと区別するために青色で表示される。 JLT においては, 「法令用語日英標準対訳辞書」が公開されており, JLT 版 Bilingual KWIC に組み达まれている。 ## 3.5 対訳表現の指定 Bilingual KWICでは,対訳表現の抽出に失敗した場合や,特定の対訳表現に注目したい場合 図 3 「検証」の訳語として“review”を指定した結果 は,対訳表現入力欄にそれを入力することにより,対訳を指定できる.図 3 の例では,「検証」 の訳語として少数ながら出現した “review”を入力することにより,その用例を表示している. なお,ユーザが指定した対訳表現は赤色で表示され,辞書にある対訳よりもさらに優先して表示される. ## 3.6 他の言語への応用 また Bilingual KWIC は,後述するように形態素解析を利用せず,文字レベルの情報だけを利用しているため,様々な言語対での利用が可能である。図 4 は, ベトナム語と英語の対訳コー パスを利用した例である ${ }^{3}$ 。なお,この例のように,言語の種類の判定が入力文字列からでは容易でない言語対で利用する場合は,入力言語を切り替えるトグル・ボタンをキーワード入力欄の左に用意している. 図 4 ベトナム語-英語コーパスへの適用  ## 4 Bilingual KWIC の技術的詳細 本章では, Bilingual KWIC の技術的な詳細について述べる。まず,対訳表現の自動抽出手法について述べたあと,どのような文字列を対訳ぺアの単位とするかについて述べる. ## 4.1 対訳表現の自動抽出 本節では, Bilingual KWICにおける対訳表現の自動抽出の手法について述べる. ## 4.1.1 Dice 係数の利用 対訳コーパスから対訳表現を自動的に抽出する手法については, これまでも様々な手法が提案されている。 基本的な手法は,対訳コーパスから統計的に得られる情報をもとに類似度を計算するものである。すなわち, 対訳コーパスの中から対訳表現の候補を求め, 入力語との類似度を計算して, もっとも類似したものを対訳表現として抽出する.類似度としては,Dice 係数・相互情報量・ $\phi^{2}$ 統計量・対数尤度比などが知られているが, これらに関しては文献 (Matsumoto and Utsuro 2000) が詳しい。また,類似度として翻訳確率を利用する IBM モデル (Brown, Pietra, Pietra, and Mercer 1993)とそれを HMM に基づいて実装した GIZA++ (Och and Ney 2003) も広く利用されている. IBM モデルの場合,与えられた入力語の対訳表現を求めるのではなく, 原言語文中の各単語と対象言語文中の各単語の間に対応を付ける。さらに対応付けを単語の連続として表現されるフレーズに拡張したものとして, 統計的機械翻訳システム Moses (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007) が出力するフレーズ・テーブルも利用されている. GIZA++ P Moses は, 出現回数がある一定以上の単語やフレーズに対しては高い精度で対応を付けることが可能である. その他, 統計情報に加えて, 既存の対訳辞書など, 他の言語情報を利用する手法も提案されている (熊野, 平川 1994; 出羽 2004). Bilingual KWICにおいては,より多くの言語対に適用できるようにするため,言語情報はできるたけ利用せず,統計情報たけけから対訳表現を求めることとした。この場合, 高い精度をもつ GIZA++や Mosesの結果を利用することも考えられるが, GIZA++は単語, Moses はフレー ズを単位として対応を付けるため, 単語の一部などのような単位にそぐわない表現に対しては対訳を推定することができない. Bilingual KWICでは,ユーザがキーワードを入力することを前提としており, 特に日本語のように 1 単語の定義が曖昧な言語では, 入力キーワードがシステムが想定する単位に合致しない場合が発生しやすいと考えられる。 そこで,どのようなキーワードに対しても対訳表現を計算できるよう, Bilingual KWICでは類似度を計算する手法を採用した。類似度にも複数の候補があるが,文献 (北村, 松本 1997) において, 候補間の類似度を計算する手法として相互情報量と Dice 係数を比較し, Dice 係数の方が高い精度を出すことが示されている。これを参考にし, Bilingual KWICでも以下に示す Dice 係数を類似度として採用した。 $ \operatorname{Dice}(x, y)=\frac{2 \times \text { freq }(x, y)}{\text { freq }(x)+\text { freq }(y)} $ ここで freq $(x)$ と freq(y) は,入力キーワード $x$ および対訳表現候補 $y$ がそれぞれ原言語コー パスおよび対象言語コーパス中に出現する回数であり, freq $(x, y)$ は, 対応付けられた文に $x$ と $y$ が同時に出現する回数である. よって, $0 \leq \operatorname{Dice}(x, y) \leq 1$ となる. 実際に Bilingual KWIC で使用する場合は,入力キーワード $x$ を固定した上で,Dice $(x, y)$ が最大となる $y$ を探すことになることから,以下の式を用いる。 $ \hat{y}=\arg \max _{y} \frac{2 \times \text { freq }(x, y)}{\text { freq }(x)+\text { freq }(y)} $ 実装においては,まずキーワード $x$ が出現した文に対応する対訳文を集めて探索範囲とし,その中に出現するあらゆる候補 $y$ について上記の式 (1)を計算し, 最大となるものを求めている. ## 4.1.2 再帰的な対訳表現の抽出 上述の式 (2)を使用した場合, $\hat{y}$ は一つしか求められない. しかし, 実際には同じ入力キー ワードが複数の対訳表現をもつことがある. そこで, Bilingual KWICでは, 下記に示す方法で複数の対訳表現を再帰的に抽出する. まず,最初の $\hat{y}$ が求まった場合,探索範囲から $\hat{y}$ 含んだ文を削除する。そして残った文を新たな探索範囲とし, 式 (2) を再度計算することにより, 異なる対訳表現を求める. 探索範囲に含まれる文数や, $\hat{y}$ に対する Dice 係数の値が閥値以下になった場合は計算を終了し, そうでない場合はさらに対訳表現を再帰的に求める. 単純に Dice 係数の値が大きな順に対訳候補とすると, 最初に求めた表現の部分文字列などが含まれる場合があるが,既に抽出した対訳表現が出現しない文から対訳候補を求めることにより,最初の候補とは別の対訳表現を抽出できる. 以上の方法により, 図 2 のように入力キーワードが複数の対訳表現をもつ場合に,それぞれを抽出できる。 ## 4.2 文字レベルの情報のみの利用 GIZA++ や文献 (北村, 松本 1997) を含め, 先行研究では日本語・英語とも形態素解析を利用するものが多いが, Bilingual KWIC では, 形態素解析を利用せずに文字レベルの情報だけを 用いている。ここで文字レベルの情報とは, 日本語の平仮名は対訳表現に含めない 4 , 英語の単語は空白で区切られる,といった情報である,具体的には,日本語は文字 $\mathrm{N}$ グラム,英語は単語 $\mathrm{N}$ グラムを用いて,ある程度の長さ $\mathrm{N}$ をつ対訳表現の候補を求めている。なお, $\mathrm{N}$ の最大値は言語ごとに指定できる. ところで, 形態素解析を利用する利点として, 対訳表現抽出の精度向上が期待できる点が挙げられる。特に動詞のように活用する語や, 英語名詞の複数形などは, 形態素解析を利用しないと, 変化形が別の語として認識されてしまう. しかし,形態素解析の誤りは対訳抽出に影響を与える,他の言語に応用する場合はその言語に対応した形態素解析システムが必要といった問題もある. さらに, 形態素解析システムの辞書にない単位では利用できないという問題がある. そうした点を考慮し, さらに対訳表現抽出の誤りを容易に修正できることから, Bilingual KWIC では形態素解析を利用しないこととした,それにより,語の一部だけをキーワードとして入力するなど,柔軟な入力も可能になった,ただし,単語の途中からを候補対象とすると,精度や速度の点で問題があるため, 接頭語として含まれている場合だを数え上げている。例えば, "search"の出現回数を数えるときには “searches", "searching", "searched", "searcher”なども含めて数えている。これにより,動詞の活用形や名詞の複数形が規則変化する語については,形態素解析の利用なしでも,ある程度対処できている. ## 5 Bilingual KWIC の開発 本章では, Bilingual KWIC の開発について, その段階にそって述べる. ## 5.1 プロトタイプ版の開発 プロトタイプ版となる最初の Bilingual KWIC の実装は, 2003 年に筆者が独自に行った. PC 上でスタンドアロンで動作するように設計し, 使用した言語は Ruby, GUI作成のために Tk のライブラリを利用した,Ruby はスクリプト言語であり,プログラム開発が容易である一方,実行速度が遅いという欠点がある. Bilingual KWIC の実装においては, Dice 係数の計算のために文字列の出現回数を高速に数え上げる必要がある。 そこで,文字列検索の高速化のために, Suffix Array(山下 2000)のライブラリである sary 5 を使用した. なお,今日では当然であるが,文字コードには UTF-8 を採用した。これにより,図 4 の例のように,各種言語に対応した.  ## 5.2 対訳辞書作成支援版の開発 プロトタイプ版 Bilingual KWIC は, JLT(外山他 2012)で公開される「法令用語日英標準対訳辞書」の構築において利用された (外山, 小川 2008)。その際には, この標準対訳辞書に収録する対訳ぺアの候補を収集することが必要になるため, Bilingual KWIC 上から対訳ぺアを候補として登録できるようにした。具体的には,登録したい単語を指定して右クリックすると図 5 に示すポップ・ウィンドウが表示されるようにした。このウインドウ上で, 必要に応じてデー 夕を修正・追加して,登録できるようにした。 実際に,このシステムがインストールされたノート $\mathrm{PC}$ を作業担当者に配布することにより,標準対訳辞書に収録する対訳ぺアの候補が収集された. この時点では, Bilingual KWIC が利用する対訳コーパスの大きさは 39,560 文であったが, ノート PC 上で問題なく動作していた. なお, この対訳ぺア登録機能は, 対訳辞書の構築には有用であるが, 翻訳支援の目的とは異なるため,次節のウェブ対応版では採用しなかった. ## 5.3 ウェブ対応版の開発 プロトタイプ版はスタンドアロンな PC 上で起動するが, あらかじめ Ruby の処理系などを用意する必要があり,インストールは簡単ではなかった。また,利用者が各自で対訳コーパスを用意する必要があり,広く使用してもらうことができなかった。 そこで多くのユーザに利用してもらうために, ウェブ・サーバ上で動作可能なバージョンを開発した. 基本的なエンジンはプロトタイプ版と同じであるが, ウェブ・ブラウザを利用する 図 5 対訳ペア登録用ウィンドウ ための GUI 部分の開発は業者に委託した。この時点で, ユーザ・インターフェイスも含めて, Bilingual KWIC は一通り完成した。 なお, Bilingual KWIC の完成後, 日本法令外国語訳データベースシステム (JLT) の開発が始まったが,Bilingual KWIC は翻訳支援における有用性も認められ,2009 年のJLT 開設当初から「文脈検索」の名前で採用されている。その際には,より多くのウェブ・ブラウザに対応させるなどの改良を施した。これにより多くの一般ユーザに Bilingual KWICを利用してもらえるようになった。 ## 5.4 高速化 最初のプロトタイプ版では,対訳コーパスとして数万文程度のサイズを想定していた。しかし, JLT 版では新しい対訳法令が次々に追加されるため,コーパスのサイズが 10 万文を超える段階において,実行速度の点で問題が発生した,特に入力キーワードの出現回数が 1 万を超えるような場合は,結果が表示されるまでに数十秒かかることもあった。 この問題には 2010 年から取り組み,以下の二つの方法で対処した。この手法は JLT 版には適用していないが,1 章で述べた NUTRIAD 版において適用している. ## 5.4.1 対訳表現抽出の高速化 実行速度が遅い原因の一つは、コーパスが大きくなると対訳表現抽出に時間が掛かるためである. 式 (2)においては, $\hat{y}$ を求めるために, あらゆる対訳表現候補 $y$ について freq $(y)$ と freq $(x, y)$ の計算が必要となる。 $y$ は, 上限(デフォルトは日本語で 6 文字, 英語で 4 単語)までのあらゆる $\mathrm{N}$ グラムを候補とするため, 入力キーワード $x$ が出現する文数が大きくなると, $f r e q(y)$ と freq $(x, y)$ の計算回数がそれだけ多くなる. このうち freq $(y)$ の計算は,コーパスの並び替えとインデックス化を事前に行う Suffix Array を用いることにより,高速に実行できるため問題ない. しかし, freq $(x, y)$ に関しては, $y$ の出現回数を数える探索範囲が $x$ に依存して変化する.そのため,探索範囲を事前にインデックス化することが不可能であり,Suffix Array を用いた高速化ができない。 そこでプロトタイプ版および JLT 版では,探索範囲内を順次 Nグラムに分割し, その出現回数を数え上げていた。 この freq $(x, y)$ の計算を高速化するため,コーパスの各文をあらかじめ一定サイズ以下の $\mathrm{N}$ グラムに分割したデータを別に保持し,それを数え上げることとした。すなわち,デフォルトでは日本語は 8 文字以下, 英語は 10 単語以下の $\mathrm{N}$ グラム単位であらかじめ分割したデー夕を保持しておく,また実装においては,テキストデータ自体へのアクセスを高速化するために Tokyo Cabinet ${ }^{6}$ 導入した。 ^{6}$ http://fallabs.com/tokyocabinet/ } ## 5.4.2 表示の高速化 実際の利用の上では, 表示速度においてもボトルネックがあった. 入力キーワード $x$ が出現する文が多くなると,ブラウザ側に負担が掛かり,表示が遅くなっていた,そのため, JLT 版においては,デフォルトで 100 文を超える分は表示しないこととし,オプションとして表示できる文数の上限の設定を $200,400,800$ と変更できるようにした. このため, 入力キーワードを含むすべての対訳文を表示することができない場合があるが,通常の利用では, 800 文を表示できれば充分に比較ができると考えた。また,入力キーワードに文字列を付加したり,対訳表現を指定することにより,希望する対訳文を表示することができる. しかし,JLT版においては,別の問題があった,JLT版においては,表示結果のソートをブラウザ側で実現していた。しかし, これもブラウザに負担を掛け, 表示が遅くなる結果となっていた。よってソート自体をサーバで実行し, その結果をブラウザ側に再送して再表示することにより,高速化を実現した。 ## 5.4.3 高速化の効果 上述した二つの高速化手法の効果を測定するために, 高速化を適用していない JLT 版と, 適用した NUTRIAD 版とにおける表示速度を比較した。具体的には, 出現回数が異なるキーワー ド 50 語を選び, そのキーワードを入力してから結果が表示されるまでの時間を測定した. 時間の計測には, ウェブ・ブラウザを利用してウェブ・アプリケーションをテストするツールである Selenium WebDriver7を Ruby から使用した. 表示する文数の上限はデフォルト値である 100 とした。また,組み込まれている対訳辞書を併用した場合,対訳表現の自動推定の一部が省略されて訳語推定の時間が異なってくるため, 併用しない設定で測定した. その結果を図 6 に示す. この結果から分かるように, 結果が表示されるまでの時間は出現回数が増えるに従って増加する傾向にあるが,単純に比例する訳ではない。これは再帰的な対訳表現の抽出が主な原因と考えられる.4.1.2 節で述べたように, Bilingual KWICでは,最初の対訳表現を求めた後,それが含まれない残りの文から再帰的に対訳表現を求める。そのため, 多くの対訳表現をもつキー ワードほど,すべての対訳表現を抽出するまでの時間が長くなる. JLT 版と NUTRIAD 版では, サーバの性能や登録されているコーパスの量・内容, 入力されるキーワードが異なるため, 単純な数値の比較はできないが, 高速化を施した NUTRIAD 版の方がキーワードの出現回数が増えた場合でも,実行時間の増加が緩やかであり,高速化手法が有効であったことが分かる.  図 6 出力時間の比較 ## 6 ユーザによる評価 本章では,実際に利用したユーザに対するアンケートに基づく Bilingual KWIC の評価について述べる. ## 6.1 アンケートの対象と内容 法学部の講義の一環として法令翻訳の課題が実施されており, 受講生は Bilingual KWICを利用して法律文を翻訳している,今回は,この講義の受講生に Bilingual KWIC の評価を依頼した。 受講生は,まず初回の講義において,使用する道具に関する説明なしで与えられた法律文を翻訳した。それから,次の回の講義において JLT 版の Bilingual KWIC である「文脈検索」の説明を受けた後,改めて別の法律文を翻訳した。なお,説明の内容は,キーワードを入力して結果が表示される例を示すという単純なものであり,一般のユーザがウェブサイトに辿り着いてキーワード入力を実行し,その動作を理解する場合と同程度と想定した. Bilingual KWIC を使用しない場合と使用した場合の両方の翻訳を試みることにより,Bilingual KWIC が翻訳に有用であったかを評価してもらった,評価項目は,表示の見やすさ(視認性)・ 図 7 ユーザによる評価結果 訳語の推定精度(推定精度)・表示速度・役に立ったか(有用性)に関する満足度であり,それぞれ 5 段階で評価してもらった。 ## 6.2 評価結果 受講生 49 人に対するアンケートの集計結果を図 7 に示す. 視認性と訳語の推定精度に関しては, 約 5 割が満足している一方で,表示速度に関しては 4 割以上が不満を感じている。JLT版の Bilingual KWIC には, 5.4 節で述べた高速化が適用されていないため,その点も低い評価に繋っていると考えられる。しかし, 有用性に関しては 8 割以上が肯定的な評価であり, Bilingual KWIC が翻訳支援として役に立つことが示された. ## 7 関連研究 コーパスに対して検索や分析を行うツールはコンコーダンサと呼ばれるが, これを 2 言語コー パスに拡張したものはバイリンガル・コンコーダンサもしくはパラレル・コンコーダンサと呼ばれる. Bilingual KWIC はバイリンガル・コンコーダンサの一種であると言える。本章では, いくつかのバイリンガル・コンコーダンサについて紹介し, Bilingual KWIC との違いについて述べる。 文献 (内山,井佐原 2003) における翻訳メモリの利用方法はバイリンガル・コンコーダンサといえる。ここでは,与えられたキーワードの日本語コーパスにおける出現を KWIC 形式で表示し,コーパス中においてキーワードと良く共起した日本語単語と英語単語を提示する。ユーザが対訳候補となる英語単語を選ぶと,それに基づいた絞り込み検索を行い,対訳文のぺアを別 ウィンドウに表示する,ただし,別ウィンドウに表示される対訳文のペアでは, キーワードと対訳候補の部分がそれぞれ下線で明示されるが,中心に揃えて表示される訳ではない. Bilingual KWIC では,最初に対訳候補を自動的に決定する点,任意の対訳表現を指定できる点,原言語だけでなく対象言語も同時に KWIC 形式で表示する点が異なる. TransSearch ${ }^{8}$ (Macklovitch, Simard, and Langlais 2000) はオンラインのバイリンガル・コンコーダンサであり,原言語文と対象言語文を左右に並べて表示する,当初は原言語文中の入カキーワードがハイライトされるだけであり,対訳語はユーザが推測する必要があった.文献 (Bourdaillet, Huet, Langlais, and Lapalme 2010)による改良により,対訳語の自動推定機能が追加され, 対訳語はハイライトされるようになったが, KWIC 形式の表示は導入されていない.一方で, 単数形と複数形などのように類似した訳語をまとめるなど, Bilingual KWICにはない機能を備えている. Linear B(Callison-burch and Bannard 2005) はパラレル・コーパスを翻訳メモリとして捉え,検索できる翻訳メモリというコンセプトに基づくバイリンガル・コンコーダンサである。原言語文と対象言語文が上下交互に表示される形式であり,KWIC 形式は導入されていない.対訳語は自動推定されるが,同じ対訳語を含む文が多数ある場合,その一部だけを表示し,複数の対訳語が同じ画面に表示されるようになっている点が Bilingual KWICとは異なる. なお,TransSearch および Linear B の自動推定は GIZA++ や Moses などで利用される単語やフレーズの対応付け技術を応用したものであり, キーワードが入力される前にあらかじめ推定している点が Bilingual KWIC と異なる。よって, 両者では対訳自動推定の精度をいかに向上させるかが重視されており, 特に文献 (Bourdaillet et al. 2010)では様々な自動推定の方法が比較・検討されている。一方, Bilingual KWIC では表示方法を工夫することにより,ユーザが自動推定の誤りを訂正しやすくするというアプローチで,自動推定の誤りに対処している. 原言語文と対象言語文の両者を KWIC 形式で表示するバイリンガル・コンコーダンサとしては ParaConc ${ }^{9}$ (Barlow 2004) が挙げられる。ただし,その KWIC 表示は半自動というべきものである。ユーザがキーワードを入力すると,原言語文は上ウィンドウにおいて KWIC 形式で表示されるが,対象言語は下ウィンドウに通常の形式で表示される。その際, 対訳語の候補が示されており,それをクリックすることにより KWIC 形式での表示に変化する.ただし,原言語文と対象言語文が上下のウィンドウで完全に分割されており, 例えば上ウィンドウの 3 文目に対応する文は下ウィンドウの 3 文目に表示されるといった具合であり, 左右に並べて表示する Bilingual KWIC と比べた場合,原言語文と対象言語文の対応は分かりにくい。なお,対訳語候補の選出方法は出現頻度に基づくものであり, Dice 係数と類似したものと考えられるが, 具体  的な計算式が掲載されていないため,詳細は不明である. ## 8 まとめ 本論文では,対訳表現抽出を可視化することで翻訳を支援する Bilingual KWIC の開発について述べた. Bilingual KWICは,任意の入力キーワードに対して対訳表現を自動抽出し,パラレル・コーパス中での用例と一緒に提示することにより,ユーザの翻訳作業を支援する. 本システムは,既に述べた通り,法務省・日本法令外国語訳データベースシステム (JLT) および名古屋大学・学内情報翻訳データベース NUTRIAD において採用されている. 現在,JLT では 36 万文 150 MB 以上からなる対訳コーパスを用いて Bilingual KWIC を運用している. 出現回数の少ない入力キーワードに対しては問題なく動作しているが, 5.4 節で述べた高速化が適用されていないため, 出現回数が多いキーワード,特に出現回数が 1 万回を超えるような場合には結果が表示されるまでに数十秒かかることがある。また,高速化が適用された NUTRIAD 上の実装においても, 出現回数が極端に多いキーワードに対しては応答に時間がかかっており, Bilingual KWICの一層の高速化が求められている。 それに対しては, 出現回数や入力頻度の多いキーワードに対する計算結果をキャッシュしておくなどの対応を検討している.さらには, Moses などを利用してフレーズ・テーブルをあらかじめ計算しておき,入力キーワードがフレーズ・テーブルにある場合はその結果を,そうでない場合はDice 係数によりその場で計算するなどのハイブリッドな手法を導入することにより, 高速化と高精度化を同時に実現する方法も検討している。 ## 謝 辞 Bilingual KWIC の開発にあたっては, ウェブ版インターフェイスの開発,高速化などにおいて株式会社リーガルアストレイに協力していたたいた,ユーザによる評価実験においては,名古屋大学大学院法学研究科附属法情報研究センターの中村誠特任准教授と佐野智也特任講師に協力していただいた. ## 参考文献 Barlow, M. (2004). "Parallel Concordancing and Translation." In Proceedings of ASLIB Translating and the Computer, Vol. 26. Bourdaillet, J., Huet, S., Langlais, P., and Lapalme, G. (2010). "TransSearch: from a Bilingual Concordancer to a Translation Finder." Machine Translation, 24 (3-4), pp. 241-271. Brown, P. F., Pietra, V. J. D., Pietra, S. A. D., and Mercer, R. L. (1993). "The Mathematics of Statistical Machine Translation: Parameter Estimation." Computational Linguistics, 19 (2), pp. 263-311. Callison-burch, C. and Bannard, C. (2005). "A Compact Data Structure for Searchable Translation Memories." In 10th EAMT Conference: Practical Applications of Machine Translation, pp. 59-65. 福田薫, 外山勝彦, 野田昭彦 (2013). 学内情報翻訳データベースの構築と運用. 大学 ICT 推進協議会 2013 年次大会論文集, pp. 146-152. 出羽達也 (2004). 対訳文書から自動抽出した用語対訳による機械翻訳の訳語精度向上. 電子情報通信学会論文誌. D-II, 情報・システム, II-パターン処理, 87 (6), pp. 1244-1251. 北村美穂子, 松本裕治 (1997). 対訳コーパスを利用した対訳表現の自動抽出. 情報処理学会論文誌, $38(4)$, pp. 727-736. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the ACL on Interactive Poster and Demonstration Sessions, ACL '07, pp. 177-180, Stroudsburg, PA, USA. Association for Computational Linguistics. 熊野明, 平川秀樹 (1994). 対訳文書からの機械翻訳専門用語辞書作成. 情報処理学会論文誌, 35 (11), pp. 2283-2290. Luhn, H. P. (1960). "KeyWord-In-Context Index for Technical Literature (KWIC Index)." American Documentation, 11 (4), pp. 288-295. Macklovitch, E., Simard, M., and Langlais, P. (2000). "TransSearch: A Free Translation Memory on the World Wide Web." In 2nd International Conference on Language Resources and Evaluation (LREC), pp. 1201-1208. Matsumoto, Y. and Utsuro, T. (2000). "Lexical Knowledge Acquisition." In Robert, D., Hermann, M., and Harold, S. (Eds.), Handbook of Natural Language Processing, pp. 563-610. Marcel Dekker. Och, F. J. and Ney, H. (2003). "A Systematic Comparison of Various Statistical Alignment Models." Computational Linguistics, 29 (1), pp. 19-51. 外山勝彦, 小川泰弘 (2008). 自然言語処理の応用に基づく法令外国語訳支援. 人工知能学会誌, 23 (4), pp. 521-528. 外山勝彦, 齋藤大地, 関根康弘, 小川泰弘, 角田篤泰, 木村垂穂, 松浦好治 (2012). 日本法令外国語訳データベースシステムの設計と開発. 情報ネットワーク・ローレビュー, 11, pp. 33-53. 内山将夫, 井佐原均 (2003). 日英新聞記事対応付けデータを用いた翻訳メモリと言語横断検索. 情報処理学会全国大会講演論文集, 65-5 巻, pp. 355-358. 山下達雄 (2000). 用語解説「Suffix Array」. 人工知能学会誌, 15 (6), p. 1142. ## 略歴 小川泰弘:1995 年名古屋大学工学部情報工学科卒業. 2000 年同大学院工学研究科情報工学専攻博士課程後期課程修了. 同工学研究科助手, 同情報科学研究科助教を経て,2012 年名古屋大学情報基盤センター准教授(同大学院情報科学研究科兼担),現在に至る.博士(工学),自然言語処理および法律情報処理に関する研究に従事. 言語処理学会, 情報処理学会, 電子情報通信学会各会員. 外山勝彦:1984 年名古屋大学工学部電気学科卒業. 1989 年同大学院工学研究科情報工学専攻博士課程満了. 同工学部助手, 中京大学情報科学部講師,同助教授, 名古屋大学大学院工学研究科助教授, 同情報科学研究科助教授を経て,2013 年名古屋大学情報基盤センター教授(同大学院情報科学研究科兼担). 現在に至る. 工学博士. 論理に基づく知識処理, 自然言語処理に関する研究に従事. 近年は法制執務支援や法令翻訳支援に関心を持つ. 言語処理学会, 電子情報通信学会, 情報処理学会, 人工知能学会, 日本認知科学会, ACL 各会員. $(2016$ 年 5 月 20 日受付 $)$ $(2016$ 年 8 月 3 日再受付 $)$ $(2016$ 年 9 月 15 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 多様性の導入による推薦システムにおけるユーザ体験向上の試み 関 喜史 $\dagger,+\dagger$ ・福島 良典 $\dagger \cdot$ 吉田 宏司 $\dagger$ ・松尾 豊 $\dagger \dagger$ } 推薦システムのユーザ体験を高めるために重要な指標の 1 つが多様性 (Diversity) で ある。多様性は推薦システムが提示するリスト内には様々なコンテンツが含まれる ベきという考え方であり, 過去の研究では多様性が含まれるリストの方がユーザに 好まれるとされている。しかし実際のサービス上で推薦システムを検証したという 報告は少なく,サービス上で多様性がユーザにどのような影響を与えるのかは明ら かになっていない。本研究では実際にサービスとして提供されているウェブページ 推薦システムを分析し, その推薦システムに多様性を導入して比較を行った事例に ついて報告する。まず多様性が導入されていない推薦システムのユーザ行動を分析 し, 結果としてリストの中位以降に表示するウェブページに課題があることを明ら かにした。その上で多様性を導入し, 多様性のない既存システムとサービス上での ユーザ行動を比較した。結果として継続率やサービス利用日数が有意に改善してい ることを示し, 従来研究で示されていた多様性を含む推薦リストの方がユーザに好 まれるということを実サービス上で示した。そして利用日数が増えるに従ってリス ト全体のクリック数が改善していくこと,特にリスト下部のクリック率が多様性の ない手法では下がっていくのに対して,多様性のある手法では向上していくことを 示した。 キーワード:推薦システム,多様性,キュレーション,ウェブサービス,ユーザ体験 ## Improving User Experience for Recommender System using Diversity Yoshifumi Seki $^{\dagger}$, Yoshinori Fukushima ${ }^{\dagger}$, Koji Yoshida $^{\dagger}$ and Yutaka Matsuo $^{\dagger \dagger}$ Diversity is an important indicator for improving user experience in recommender systems. Previous research indicate that people prefer diverse recommended item lists. However, few studies have experimented with online user experience of recommender systems owing to lack of clarity regarding the effects of diversity of recommender systems on user experience. This paper reports the online experience of diversity of web service recommender systems. We analyzed the recommender system without diversity for user activity in web services. As a result, the second half of the recommended list is underwhelming. We have constructed a diverse recommender system by decreasing user features, and have compared our system to the existing system for user activity in web services. Consequently, our system has succeeded in improving the weekly retention and active rates. Therefore, the number of clicks on the recommended list have increased.  Key Words: Recommender Systems, Diversity, Curation, Web Service, User Experience ## 1 はじめに インターネットを通じたサービス利用はスマートフォンの普及を背景に近年ますます増加している (総務省 2014),スマートフォンでの各種サービスの利用はこれまでの PC を経由して利用するインターネットサービスに比べて, 画面の大きさや操作性という面で大きく制限されており,サービス提供者はスマートフォンに合わせたユーザ体験を新たに構築する必要に迫られている. このような背景の中で推薦システムに注目が集まっている。推薦システムはユーザの興味関心に合わせて商品などを提示することを目的としたシステムであり, Amazon ${ }^{1}$ での商品推薦や, Facebook2での友人推薦をはじめとして幅広く利用されている. 画面の大きさや操作性が制限されているスマートフォンにおいて,推薦システムを用いてユーザに合わせて最適な選択肢を提示することでユーザ体験を大きく改善することが期待されており,今後様々な場面での利用が進んでいくと考えられる。 このような背景から推薦システムのユーザ体験に関する研究が近年注目を集めており,その中で重要だと言われている指標の 1 つに多様性 (Diversity) がある. 推薦システムが悪いとそのサービスが悪いとみなされると指摘されており (Cosley, Lam, Albert, Konstan, and Riedl 2003),推薦システムのユーザ体験を考慮することはそのサービス設計のためにも重要である.多様性がユーザにもたらす影響については Ziegler らの研究がよく知られており (Ziegler, McNee, Konstan, and Lausen 2005), 多様性を含んだリストをユーザに提示するとユーザは自分に最適化されていないものが含まれていることは認識するが, 多様性が含まれたものを好むという結果が報告されている. また推薦システムについては FilterBubble という問題が指摘されているが, その問題への対応のためにも推薦リストの多様性が重要であると言われている (Pariser 2011). ジャーナリストであるイーライ・パリサーは検索エンジンや SNS (Social Network Service) が推薦システムの技術を用いてパーソナライズ化されていくことに対して, 情報のタコツボ化が起こることを懸念し,人々が正しい意思決定をすることを阻害していると警鐘を鳴らした。その動きに対応して推薦システムに関する国際会議である Recsys3では, 2011 年に FilterBubble に関するワークショップを開催し, FilterBubble 問題に関する見解を示した (Resnick, Konstan, and Jameson 2011). その中で FilterBubble とパーソナライズはトレードオフであること,すべての情報を人が網羅 ^{1} \mathrm{http} / /$ www.amazon.com/ 2 https://www.facebook.com/ 3 https://recsys.acm.org/ } することは不可能なのでフィルタリング技術は必要であることを指摘した上で,推薦システムを作る過程において,そのシステムの説明性,透明性を担保すること,推薦される個々のアイテムだけでなくリスト全体を評価し,多様性も考慮して設計することが必要であるとした このような背景から近年推薦システムを構築する上で多様性を考慮することは一般的になったが,推薦結果の多様性がユーザやサービスにどのような影響をあたえるかについては分かっていない点が多い,多様性に関する研究の多くは多様性がユーザ体験を向上させるという前提に立っているが,关の根拠はユーザへのアンケートによるものであり,サービスにどのような形で利益をもたらすかについては明らかになっていない.これは推薦システム研究の多くが過去のデータを用いたオフラインテストで行われており,実際にサービス上でシステムを提供して比較した例が少ないことが要因である。 本研究の目的は推薦システムを用いて提供されているサービスに対して多様性を導入し,推薦結果の多様性がユーザに与える影響について明らかにすることである。本研究ではウェブペー ジ推薦システムを提供しているグノシー4というサービスにおいて,推薦システムに多様性を導入しそのユーザ行動への影響について報告する。まず多様性がない既存システムにおけるユー ザの行動を分析し,どのような特性をもったシステムであるかを示した。その上で多様性を導入したユーザ減衰モデルを構築した上で実際にサービス上でユーザに対して提供し, 既存システムとの比較を行った. その結果多様性がサービスの継続率の改善や利用日数の増加という形でユーザの満足度を高めていることを示した。これはユーザは多様性を含むリストの方を好むという従来研究で指摘されていた点がサービス上に打いても有用に働くことを示したといえる。 また利用日数が浅い段階ではユーザがクリックするウェブページの数は既存システムと同程度であるが,利用日数が増えるにしたがって多様性をもったユーザ減衰モデルのほうがクリックするウェブページの数が増えていくことを明らかにした.そして多様性のない既存システムでは, 利用日数が増えるに従って推薦リスト下部のクリック率が下がっていくのに対して, 多様性を取り入れたユーザ減衰モデルでは,推薦リスト下部のクリック率が向上していくことを示した。これは従来研究は確認できなかった多様性の中長期における影響を示したものである. 本研究では実際に事業として開発・運用されているウェブサービスを利用しているため, ビジネス上の制約により用いている手法をすべて公開することはできない.既存システムのユー ザ行動の分析によって推薦システムとして有効に作用していることを示すことによってその代わりとしたい. 本研究の目的は多様性がユーザ体験にどのような影響を与えるかについて論じることであり,手法が非公開であることが本研究の結果に与える影響は軽微であると考える. 以下に本論文の構成を示す. 2 章に関連研究と本研究の位置付けを示す. 3 章において本研究で利用するグノシーというサービスと, そこで用いられている推薦システムについて紹介し, そ  のシステムのユーザ行動とその課題について分析する. 4 章で前章で述べた課題を元に推薦システムに多様性を導入する方法について述べる。 5 章で既存システムと比較手法の比較実験を行い, 推薦システムの多様性がサービスにもたらす影響について考察し, 6 章で本研究のまとめを行う。 ## 2 関連研究 本章では本研究の関連研究についてまとめる. 推薦システムの初期の研究では検索エンジンと同様に結果の適合度によって推薦システムが評価されていた (Jannach, Zanker, Felfernig, and Friedrich 2010). しかし Herlocker らの研究によって多様性, 意外性, 新規性などが推薦システムのユーザ満足度を高める可能性があると指摘され (Herlocker, Konstan, Terveen, and Riedl 2004),現在では Konstan らが推薦システムとユーザ体験に関する研究についてまとめたように様々な試みがなされている (Konstan and Riedl 2012). 多様性に関する研究としては Ziegler らの研究がよく知られている (Ziegler et al. 2005). Ziegler らはリスト内の多様性を表す intra-list-similarity という多様性に関係する指標を提案し, 通常の類似度による推薦との重み付け和によって推薦を行う推薦システムを提案した。本の推薦システムによって多様性を持つシステムのユーザへのアンケートを行い,ユーザは自分に最適化されていないことは認識するものの,多様性が含まれている推薦リストのほうが好ましいと答えた。この結果が多様性が推薦システムにおいて重要だとされる根拠となり,推薦システムにおいて多様性を考慮する研究が数多く生まれているが,多様性がユーザに与える影響についてより踏み込んた分析は我々の知る限りでは行われていない (村上, 森, 折原 2009; Zhang and Hurley 2008; Lathia, Hailes, Capra, and Amatriain 2010). 本研究は実サービスでの推薦システムの比較を行うことで, 多様性がユーザに与える影響について新たな示唆を与えるものである. 推薦システムのユーザ行動に関する知見が少ない理由として実際にサービス上で行われた実験が少ないことが挙げられる。ここではサービス上で行われた実験をいくつか紹介する.Davidson らは Youtube において推薦システムを導入した際の効果について報告した (Davidson, Liebald, Liu, Nandy, Van Vleet, Gargi, Gupta, He, Lambert, Livingston, and Sampath 2010). そのシステムは co-view を用いた単純なものであるとされており, 手法の詳細については公開されていないが,単純な人気ランキングを表示するのと比べて $207 \%$ クリック率が向上したと報告されている. Belluf らはブラジルの EC サイトを対象に $5 \%$ のユーザに対して推薦システムを適用しユー ザ行動の差を分析する研究を行い, 結果として 8-20\%の売上の向上が見込めることを報告している (Belluf, Xavier, and Giglio 2012). なおこちらの研究においても推薦システムの手法の詳細は公開されていない。サービス上での評価とは少し異なるが, Fleder らは推薦システムを経済シミュレーションにより分析し (Fleder and Hosanagar 2007), 経路依存性が存在すること, 推 薦システムによってその特性が様々に変わることを指摘している. このように推薦システムがサービスにどのような影響を与えるかを調べた研究はまだ少ない.本研究ではウェブページ推薦を行うサービスであるグノシー上において提供する推薦システムを対象に実験を行い,推薦システムがどのように利用されており,多様性がサービスにどのような影響を与えているかを実データを分析することで示す. ## 3 グノシーの推薦システム 本研究は株式会社 Gunosy が提供している情報キュレーションサービスであるグノシー内において行われている,本章ではグノシーがどのようなサービスなのかを述べ,サービス内で用いられている推薦システムの概要を説明し, 本システムがどのような特性を持っているのかをいくつかの実験の結果を元に説明する。その上で本システムの課題について分析を行い, 多様性がどのような影響を与えるかを考察する. ## 3.1 グノシーについて グノシーは株式会社 Gunosy が運営する情報キュレーションサービスである. 2011 年 9 月にサービスを開始し,翌年 11 月に法人化された.スマートフォンアプリケーションを中心にサー ビスを展開しており,アプリケーションのダウンロード数は 2016 年 10 月で 1600 万を超えている国内最大級の情報キュレーションサービスである 5. 情報キュレーションサービスはウェブ上の様々なコンテンツを取捨選択し, サービス上でユー ザに提示するサービスである。国内ではグノシーの他に Smartnews ${ }^{6}$, Anntena $^{7}$, NewsPicks $^{8}$ 等がよく知られている.情報キュレーションサービスで扱うコンテンツはニュースが中心ではあるが,コラムやブログ,まとめサイトなど様々なコンテンツを扱っていることが多い. 2014 年に矢野経済研究所が行った調査ではキュレーションサービスの市場規模は 2012 年は 60 億円程度であったが,2014 年には 178 億円,2017 年には 395 億円と急成長していくとしている (矢野経済研究所 2014$)$. 本研究は 2011 年 9 月のサービスリリース時から 2012 年末までの期間を対象に行われたものである。その期間においてグノシーは Twitter ${ }^{9}$, Facebook, はてなブックマーク10のアカウントを連携することにより,登録したユーザのそれぞれのサービス内での行動から 1 日 25 件のウェ  ブページをユーザに提示するサービスを提供していた。提示されたコンテンツはウェブブラウザでログインして見ることができる他,登録したメールアドレスに指定した時間に送ることもできる.現在のグノシーではこの機能は ‘マイニュース’というサービス上の一部の機能として提供されている. ## 3.2 グノシーの推薦システムの概要 本節ではグノシーで利用されている推薦システムがどのようなものかについて述べる。 システムの詳細についてはビジネス上の制約により紹介することはできないが,本研究の目的は多様性がもたらすユーザ体験の変化を明らかにすることであり, システムの詳細が明らかでなくても問題はないと考える. グノシーの推薦システムは内容ベースフィルタリングをベースにしたシンプルなものである (Jannach et al. 2010). 推薦対象となるウェブページ集合 $W$ とユーザ集合 $U$ を考える。ここであるウェブページ $w \in W$ がユーザ $u \in U$ にどれだけ好まれるかの予測値を $r$ として表す.この予測値は正の値をとり,正規化されておらず值域は $[0, \infty)$ となる.この評価値を元にユーザ $u$ に対して $r$ が大きい順にウェブページを $w_{1}, w_{2}, \ldots, w_{|W|}$ と並べると, $w_{1}, \ldots, w_{K}$ のウェブペー ジがユーザに提示するウェブページのリストとなる.Kはユーザに提示するウェブページの個数で, Gunosy の場合は $K=25$ となる. 多くの内容ベースフィルタリングによる推薦システムがそうであるように,ユーザ $u$ の興味関心とウェブページ $w$ の特徵量を共通の $N$ 次元べクトル空間で表現し,評価値 $r$ はべクトルの類似度により求められる. ウェブページ特徴量 $\vec{w}$ とユーザ特徴量 $\vec{u}$ は単語によって構築される共通の次元空間を持っており,評価関数はウェブページの特徴量 $\vec{w}$ とユーザ特徵量 $\vec{u}$ と内積をべースに重み付けや正規化にいくつかのヒューリステイクスを用いている. ウェブページの特徴量 $\vec{w}$ 構築にはウェブページ内のテキストにおける単語の TF-IDF 値を出現位置によって重み付けした值をべースに, そのウェブページが誰によって書かれたかによって幾つかの単語に值が追加されるルールや,そのウェブページについて SNS,ソーシャルブックマークサービス, ブログなどの外部のウェブサイトに投稿された内容を解析した結果なども用いている. ユーザの特徴量 $\vec{u}$ にはサビス登録時は連携したサービスでのプロフィール文などから構築した特徵量と,連携したサービスに投稿したウェブページとグノシー内でクリックしたウェブページの特徴量 $\vec{w}$ 重み付け和を組み合わせたものを利用している. このように手法は様々なルールやヒューリスティクスを含む形で構築されている. ウェブペー ジの特徴量を生成するための詳細や連携サービスからの特徴量抽出, 重み付けの詳細などは事業上の理由により公開することができない. しかし本研究の目的は多様性を導入した際のユー ザ行動の変化を明らかにすることであるため,多様性を導入した手法と既存システムで非公開 図 $1 r$ とクリック率の関係 にしているウェブページの特徴量 $\vec{w}$, ユーザの特徴量 $\vec{u}$, 評価値関数 $f$ は共通であることと, 既存システムにおけるユーザ行動の分析が十分に行われていることで, 本研究の目的と結果の有効性に対する影響は軽微であると我々は考えている。 まず本システムが推薦システムとして有効に作用しているのかを検証する。本システムはユー ザ $u$ がウェブページ $w$ に興味の持つ度合い $r$ を求めている. $r$ が適切に求められているのであれば, $r$ が高ければ高いほどユーザ $u$ がウェブページ $w$ を閲覧する確率は高くなると考えられる. 2012 年 5 月から 9 月にサービスを利用した全ユーザに対して, 推薦された記事の $r$ とその記事のクリック率を比較し相関関係を求めた。 各ウェブページの $r$ を $0 \sim 9.9$ まで 0.1 刻みとそれ以上に分け,各区分でのクリック率を多ックしたユーザ数として求める. クリック率と $r$ の関係を図 1 に示す。相関係数は 0.958 となり, この結果からクリック率と $r$ には強い正の相関があることが示された. このことからウェブページのクリック率がユーザの興味関心の度合いを示すと仮定すれば, $r$ はそのウェブページに対するユーザの興味関心の度合いを示すことができていると考えられる. ## 3.3 表示位置とクリック率 本節では記事の表示順位がクリック率にどのような影響を及ぼしているのかについて述べ,多様性の導入が本システムにどのような影響をもたらすのかについて考察する.本システムではユーザごとに $r$ の大きい順に 25 件のウェブページを縦に並べて提示している. これは一般的な検索エンジンが検索結果を表示するのと似ており,検索エンジンのクリック率は順位によっ て変動することが知られている (Manning, Raghavan, and Schütze 2008). 前節では $r$ とクリック率に強い相関があることを示したが, $r$ が高ければ本システムでは高い位置に表示されることになる。本システムにおいてリスト内での表示位置がウェブページのクリック率にどのような影響を与えているのかを調べるために 2 つの実験を行った. 第 1 の実験として一部のユーザに対して推薦結果のリストを逆順に表示し比較を行った。本システムでは通常 25 件のウェブページを $r$ の大きい順に表示しているが, この実験では $k$ 番目のウェブページを $26-k$ 番目に表示するようにした. つまり元々 1 番目に表示されていたウェブページが 25 件目に表示され,25 番目に表示されていたウェブページが 1 番目に表示されることになる. 対象ユーザとしてアクティブなユーザの中から 2,000 人のユーザをランダムに抽出し,一定期間実施した。この実験の目的はウェブページのクリック率が表示位置によってどの程度変わるのかを知ることである。もし前節で示した $r$ とクリック率の相関関係が, $r$ が高いウェブページが上位に表示されることによるのであれば,逆表示であっても最上位に表示されたウェブページのクリック率は高くなり, 最下位に表示された $r$ の高いウェブページのクリック率は低くなる。図 2 に順表示と逆表示での位置ごとのクリック率を比較したグラフを示す.ここでクリック率は前節とは異なり,そのリスト内のウェブページを 1 つ以上クリックしたユー ザを母数として求めている。まず順表示のほうのクリック率を見ると, 順位が高いほどクリック率が高くなることがわかる。またリストの最下部で若干の上昇がみられるが, これはリストの最下部はスクロールが止まるため若干クリック率が上がるためであると考えられる。次に逆 図 2 順表示と逆順表示の際のクリック率の比較 順表示のクリック率をみると, 最上部は少し高いものの順表示と比べてると大幅に低く, その後 5 番目からゆるやかに上昇しだし,最下部では最上部と同じようなクリック率を計測した,逆表示において最上部以外は順位が下がるにつれてクリック率が上昇すること,最上部のクリック率は順表示と逆表示で大きな差があることから,rとクリック率の相関関係が表示位置のみによるものではなく,$r$ がユーザの興味関心度合いをある程度表していることが明らかとなった。 第 2 の実験として人手で選択したウェブページを 25 件のランダムな位置に挿入し, システムによって推薦されたウェブページとのクリック率の差分を調べた. ウェブページの選択に際しては外部のメディア運営者に協力を依頼し, 運営するメディアの記事から日 1 件選択されたものを利用した.選択されたウェブページは対象となったユーザのウェブページリストのランダムな位置に插入される。本実験は一定期間すべてのユーザを対象に行われた。 この実験の目的は $r$ の値にしたがってウェブページのリストを構築することがどれだけユー ザのクリック率に寄与しているのかを確認することである. $r$ の値に関係なく人手で選んだウェブページのクリック率が高くなるような表示位置があるのであれば,推薦システムのウェブペー ジの選び方に課題があると考えられる。図 3 に比較結果を示す.リストの上位の記事は人手で挿入された記事と比較して高いクリック率を有しているが,リストの中位の記事は手動で挿入された記事と比較し同程度のクリック率をもち, 下位では人手で插入した記事のほうが高いクリック率を持つようになっている。この結果は本システムが中位以降については $r$ に従って推薦することがユーザのクリック率を高めることに寄与しない可能性があることを示唆している. 図 3 人為的に選んだウェブページと推薦結果の比較 2 つの実験によって以下の事柄が明らかとなった. - $r$ の大きさとウェブページのクリック率の相関は表示順位のみによるものではないため, $r$ の値はある程度ユーザの興味関心度合いを反映しているといえる. - $r$ の大きさにしたがってリストを構築した場合,上位においては高いクリック率を得ることができるが,中位以降では無作為に挿入した記事と同等のクリック率であり,下位では無作為に挿入した記事のほうが高いクリック率をもつ. つまり本システムは興味関心をある程度表現できてはいるものの, 推薦リストの構築として考えた際に中位以降の表示に対して課題があることが明らかになった.本システムではユーザの特徴量 $\vec{u}$ とウェブページの特徴量 $\vec{w}$ の類似度が高いものから順に並べてリストを構築している. ここでユーザの特徴量 $\vec{u}$ において $i$ 番目の次元の $u_{i}$ の値が他の次元の値と比べ非常に大きいとする $\left(u_{i} \gg u_{\backslash i}\right)$. その時 $i$ 次元が高い特徴量を持つウェブページの $r$ が高くなるため, 推薦リスト内のウェブページがそのようなウェブページばかりになってしまう. 特徴量の各次元はユーザの興味関心の方向を表しているため, 結果として推薦リスト内が同じようなウェブペー 記事と同じような内容になるため中位以降では飽きが生じてしまい,結果として人手で挿入した記事のほうが新鮮さがあるためクリック率が同程度かそれ以上になるのではないかと考える。 このような結果から本システムに多様性を導入することにより, 中位以降のクリック率を改善することができ,ユーザ満足度を向上させることに繋がるのではないかと考えた. ## 4 推薦システムへの多様性の導入 本章では既存の推薦システムに多様性を導入する方法について述べる。まず多様性の手法としてよく知られている Ziegler らの Topic Diversification Algorithm (TDA)を紹介する (Ziegler et al. 2005). そしてTDA をべースにグノシーの推薦システムに多様性を導入するためのユー ザ減衰モデルについて述べ,TDA との関連について議論する。そしてユーザ減衰モデルがどのように多様性を向上させているのかを比較実験によって示す. ## 4.1 Topic Diversification Algorithm 本節では推薦リストの多様性に関する手法としてよく知られている Ziegler らの手法を紹介する (Ziegler et al. 2005). Ziegler らは多様性を表す指標 Intra-List Similarity と, 関連度順に与えられた推薦リストから多様性を持った推薦リストを生成する Topic Diversification Algorithm (TDA) を提案している. TDA は既に関連度順に並んでいるアイテムリスト $L$ があるときに,そのリストを多様性を持つように並び替えたリスト $L_{\text {diver }}$ を構築することを目的としている. ここで多様性リスト $L_{\text {diver }}$ はもともとのリスト $L$ と同じ長さかそれより短いものとする. ここでアイテムリスト $l$ とアイテム $p$ の類似度を表す関数を $c(l, p)$ と,アイテム $p$ のリスト $l$ 内での位置を表す関数を $\operatorname{rank}(p, l)$ とする。またリスト $L$ の $i$ 番目のアイテムを $L(i)$ とすることにする。つまり $\operatorname{rank}(L(i), L)=i$ と書ける。 TDA ではまず $L_{\text {diver }}(0)=L(0)$ として, その後 $L_{\text {diver }}$ に含まれない $L$ 内のアイテムリスト $L_{\backslash \text { diver }}$ から $L_{\text {diver }}$ にアイテムを 1 つずつ追加する。まず $L_{\backslash \text { diver }}$ 内のアイテム $p$ とリスト $L_{\text {diver }}$ との類似度 $c\left(L_{\text {diver }}, p\right)$ の昇順になるようにソートしたリスト $L_{\text {similar }}$ を構築し, 以下の条件を満たす $p$ を $L_{\text {diver }}$ の末尾に加える. $ \min _{p}\left.\{(1-\alpha) \times \operatorname{rank}(p, L)+\alpha \times \operatorname{rank}\left(p, L_{\text {similar }}\right)\right.\} $ 式 1 では既に作られているリストとの類似度の少なさの順位と, 推薦システムとしての関連度の順位を平均した順位が最も高いアイテムを選ぶ。このようにして選ばれたアイテムをリストに加えることを繰り返し, 多様性のあるリストを作る。この手法によって構築した推薦リストは $\alpha$ を高めると Presicion や Recall は低下するが多様性は高まっていき,アンケートによる実験の結果ユーザは $\alpha$ が $0.3 \sim 0.4$ のリストを最も好むと報告された. 特に内容ベースフィルタリングを用いた推薦リストにおいて著しいユーザ満足度の向上が見られたことが示されている. ## 4.2 多様性の導入 本節では 3 章で述べた手法に多様性を導入する方法について述べる,前節で紹介した TDA は既に推薦されたリスト内のアイテムと類似度が高いアイテムが推薦されにくくなることを目的とした手法である。この考え方を元に既存システムに多様性を組み込むために,本研究では推薦されたアイテムの特徴量を,ユーザの特徵量から減衰することによって同様の多様性効果を得ることを目指す。以降本手法をユーザ減衰モデルと呼ぶ. このユーザ減衰モデルは TDAの考えをグノシーのシステムで実現するための手法であり,本論文の貢献としてユーザ減衰モデルの提案は含まない. まず推薦リストをいくつかのブロックに分割する.K個のウェブページを推薦する場合それを $N<K$ となる $N$ 個のリストに分割する. ここで $i$ 番目のリスト内のウェブページの個数を $k_{i}$ とすると $K=\sum_{i=0}^{N} k_{i}$ と書ける。また $i$ 番目のブロックまでに推薦されているウェブページの数を $n_{i}$ とすると, $n_{0}=0, i$ が 1 以上のときは $n_{i}=\sum_{j=0}^{i} k_{j}$ と書ける. このようにリストを $N$ 個に分割した上で, 各ブロックごとに推薦を行いながらユーザの特徴量を減衰させていく, $i$ 番目のリストを生成するためのユーザの特徵量を $\overrightarrow{u_{i}}$ とすると,以下のように書ける。 $ \begin{gathered} \overrightarrow{u_{0}}=\vec{u} \\ \overrightarrow{u_{i+1}}=\overrightarrow{u_{i}}-\alpha \sum_{j=n_{i}}^{n_{i+1}} \vec{w}_{j}(i \geq 0) \end{gathered} $ ここで $\alpha$ は定数である. このユーザ減衰モデルが TDA と同じような性質を持つことを示す. ユーザ減衰モデルにおいて $k_{0}=3$ であり, $\overrightarrow{u_{0}}$ を用いて $w_{0}, w_{1}, w_{2}$ を推薦したとする. ここで次の推薦のための減衰されたユーザの特徵量 $\overrightarrow{u_{1}}$ は式 2 から以下のように求められる。 $ \overrightarrow{u_{1}}=\overrightarrow{u_{0}}-\alpha *\left(\overrightarrow{w_{0}}+\overrightarrow{w_{1}}+\overrightarrow{w_{2}}\right) $ ここで次に推薦されるアイテム $w_{4}$ は以下のように書ける. $ w_{4}=\max _{w \in W_{\backslash w_{0}, w_{1}, w_{2}}} f\left(\overrightarrow{u_{1}}, \vec{w}\right) $ ここで $f(\vec{u}, \vec{w})$ は同じベクトル空間上のユーザ特徴量とウェブページ特徴量の類似度をべースに表現されることから $f$ では以下が成立すると仮定する. $ \begin{gathered} f\left(\overrightarrow{u_{1}}+\overrightarrow{u_{2}}, w\right) \propto f\left(\overrightarrow{u_{1}}, \vec{w}\right)+f\left(\overrightarrow{u_{2}}, \vec{w}\right) \\ f(\alpha \vec{u}, \vec{w}) \propto \alpha f(\vec{u}, \vec{w}) \end{gathered} $ これを利用すると $f\left(u_{1}, w\right)$ は以下のように展開できる. $ f\left(u_{1}, w\right) \propto f\left(u_{0}, w\right)+f\left(-\alpha\left(w_{1}+w_{2}+w_{3}\right), w\right) \propto f\left(u_{0}, w\right)-\alpha f\left(w_{1}+w_{2}+w_{3}, w\right) $ ここで第一項の $f\left(\overrightarrow{u_{0}}, w\right)$ は減衰前のユーザ特徴量と $w$ の類似度を返すものであり, 第二項目は既に構築された推薦リストと $w$ の類似度を返すものである。つまりユーザ減衰モデルでは元々のユーザ特徴量の評価値から, 既に構築された記事リストとの評価値に一定の値を乗じた値を引いた値が最大になるウェブページを推薦しているといえる。ここで式 1 と式 3 を比較すると, TDA における順位を返す関数を評価値を返す関数と考えれば,ユーザ減衰モデルと TDA は一致するといえる。 ユーザ減衰モデルと TDA の違いを以下にまとめる. - TDA ではリストとの類似度を順位として重み付け平均で計算しているが, 本研究では評価値の重み付け平均とすることでユーザ特徴量の減衰によって実現している. ・ TDA では構築したリストにアイテムを 1 つずつ追加しているが, ユーザ減衰モデルではブロックにわけて複数個ずつ追加している。 このように細部の違いはあるもののユーザ減衰モデルの基本的な考え方は TDA と一致している. 表 1 多様性指標の比較 ## 4.3 既存システムとの比較実験 本節ではユーザ減衰モデルがどれだけ多様性を向上させているのかを既存システムと比較することによって示す. 2012 年 11 月の 1 週間の記事データを用いて 1 日ずつ当該期間にアクティブであったユーザから無作為に抽出した 1,000 人のユーザに対して, 既存システムとユーザ減衰モデルを用いてそれぞれ 25 件の記事リスト生成し比較を行う。このとき推薦リストの分割数 $N=5$ とし,各ブロックの大きさは $k_{1}=3, k_{2}=4, k_{3}=5, k_{4}=6, k_{5}=7$ とした.比較のために Zieger らの研究でも用いられていた Intra-List-Similarity (ILS) と overlap の 2 つの指標を用いる (Ziegler et al. 2005). ILS は Ziegler らが提案した多様性を評価するための指標であり,多様性を評価する上で代表的な手法である (Konstan and Riedl 2012). 定義を以下に示す. $ I L S\left(P_{w_{i}}\right)=\frac{\sum_{b_{k} \in P_{w_{i}}} \sum_{b_{e} \in P_{w_{i}}, b_{k} \neq b_{e}} c_{o}\left(b_{k}, b_{e}\right)}{2} $ このように ILS はリスト内のすべてのアイテムの組み合わせの類似度の総和である。本節では各記事の特徵量のコサイン類似度によって ILSを求めることとする。overlap は元の推薦リストと多様性のある記事リストが何件一致しているかによって求められる。これによって多様性によってどれだけ推薦結果が変化するのかを知ることができる. まず 7 日間全体での各指標の平均値を表 1 に示す. ユーザ減衰モデルでは既存システムに比べて ILSが下がっていることが分かる。これはユーザ特徴量を減衰しながら推薦することで, 既存システムでは推薦されていたリスト上位で既に推薦された記事と類似している $r$ が高い值をもつ記事が推薦されにくくなったためである. overlap は 8.06 であり既存システムと提案手法では約 8 件と約 $2 / 3$ の記事が変化していることが分かる.最上位ブロックは両方の手法で変化しない. $k_{1}=3$ であるため今回の実験では 3 件の記事は必ず一致する。そのため残りの 22 件のうち 17 件が多様性によって変化したと言える。このようにユーザ減衰モデルがリスト内の類似度を低下させ,記事リストを変化させていることが明らかになった。 ## 5 多様性の導入によるユーザ行動の変化 本章ではユーザ減衰モデルを実際にサービスに適用することでユーザ行動におこった変化について述べ,推薦システムの多様性がユーザ体験に与える影響について考察する。 ## 5.1 実験方法 本節では実験方法について述べる。本研究ではグノシーのサービス上で 3 章で述べた既存システムと 4 章で述べたユーザ減衰モデルの比較を行った。実験は 2012 年の 8 月から 12 月において行われた,既存システムによってサービスを提供する期間と,ユーザ減衰モデルによってサービスを提供する期間に分け,それぞれの期間における新規登録ユーザのサービス内でのユー ザ行動を比較した。また本サービスでは各種ウェブサービスとの連携によって初期のユーザ特徵量を構築しているが,連携したウェブサービス上での行動が少ない場合は初期のユーザの特徵量を構築することができない。本サービスではそのようなユーザに対してランダムな記事リストの生成を初期段階で行い,クリックしたウェブページのみによってユーザ特徴量を生成している。このようなユーザは継続率やウェブページのクリック率がそうでないユーザに比べて低いことが経験的に知られており,期間中のそのようなユーザの登録人数の比率が実験結果に影響を及ぼすと予想されることから,今回登録時にユーザ特徵量が生成できなかったユーザは比較実験の対象外とした。 このようにして実験対象となるユーザ群を定義した. 既存システムによるサービスを受けたユーザは 3,465 人,ユーザ減衰モデルによるサービスを受けたユーザは 3,482 人であり比較実験として同程度のユーザ数となった,各手法でユーザの登録期間は異なるが,実験期間において手法の変更以外のサービスのアップデートはデザインなども含めて行われてはいないため,実験として期間の違いは問題にならないと考えている. ## 5.2 評価方法 本節では行った実験の評価方法について述べる。 ユーザ減衰モデルでは多様性の導入により, サービスを利用しているユーザの満足度が向上することが期待されている。それを測るために,週次でのユーザの継続率を比較する.登録してから 7 日目以内にウェブページを 1 つでもクリックした場合はそのユーザは 1 週目継続したとする。そして 8 日目以降 14 日目以内にウェブペー ジを 1 つでもクリックした場合はそのユーザは 2 週目に継続したとする。このようにユーザが登録日から 7 日毎に推薦されたウェブページをクリックしたかを対象期間の登録ユーザ数を母数とした週次の継続率として評価に用いる。継続率はウェブサービスの改善の指標としてよく用いられる指標であり,これが高いとユーザがサービスに満足していると評価することができる.その上で各週に継続しているユーザがその週次内で何日間サービスを利用したかを比較する. この数値が高いとサービスを利用している日数が多いといえるため, ユーザがよりサービスに定着していると考えられる。そして順位ごとのクリック率を 3 章と同様に比較し,ユーザが推薦リストをどのように利用しているか, それが利用日数が増えるごとにどのように変化していくかを評価する. ## 5.3 サービス利用の比較 本節では既存システムとユーザ減衰モデルの継続率の比較結果について述べる. 既存システムとユーザ减衰モデルのそれぞれの週次継続率を表 2 に示す. ユーザ减衰モデルのほうがすべての週次で良い継続率を記録していることがわかる。この継続率が同等であるという仮説は 1 週目から 4 週目まですべてカイ二乗検定において有意水準 $1 \%$ で棄却することができるため, ユーザ減衰モデルがユーザの継続率を有意に改善しているといえる. 次に各週内でのサービスの利用日数を調べる。ユーザ減衰モデルがユーザの満足度を向上させているのであれば,利用日数も高くなっていることが期待される. 表 3 に既存システム,ユーザ減衰モデルそれぞれの週次での平均利用日数とその分散を示す. ユーザ減衰モデルのほうが平均利用日数が高いことがわかる. 2 つの手法の平均利用日数は差がないという仮説は平均利用日数が正規分布に従うとすると $\mathrm{t}$ 検定によって有意水準 $1 \%$ で棄却されるため, この平均利用日数の差は統計的に有意であるといえる. このようにユーザ減衰モデルによって推薦リストに多様性を導入した結果,ユーザのサービス利用の満足度が向上したことが示唆された。 ## 5.4 表示順位ごとのクリック率の変化 本節では多様性の導入がユーザのリスト内のクリック率に対してどのような変化を与えたのかを分析する。ユーザ減衰モデルでは上位で推薦したウェブページに関係するユーザの特徴量が減衰され, 既存システムでは推薦されなかったウェブページが推薦されるようになっている。 その結果として順位ごとのクリック率がどのように変化しているのかを調べる。 ユーザ減衰モデルによって新たに推薦されるようになったウェブページは, 既存システムでは $r$ が低いためにより低い位置で推薦されるウェブページであるため,r とクリック率の相関関係のみを考え 表 2 週次継続率の比較 表 3 週次の利用日数の比較 ればクリック率が低下する恐れがある。ユーザ減衰モデルではリスト内の多様性が生まれることによって既存システムと同等かそれ以上のクリック率が生まれることを期待している. 表 4 に週次のリスト内での平均クリック数と 10 段目までと 11 段目以降の平均クリック数を示す。平均クリック数はユーザ減衰モデルが既存システムをすべての期間で上回っており,登録から日数が経つごとにその差は拡大していく.平均クリック数が正規分布に従うと仮定し $\mathrm{t}$検定を行った結果, 3 週目と 4 週目においてリスト全体の平均クリック数と 11 段目以降の平均クリック数, 4 週目において 10 段目までの平均クリック数においてそれらが等しいという仮説が有意水準 $1 \%$ で棄却された,以上のことからユーザ減衰モデルによって平均クリック数, 特にリスト下部での平均クリック数が 3 週目以降で改善していることが示される. 特に 11 段目以降のクリック数は既存システムは低下していくのに対してユーザ減衰モデルでは中位以降のクリック数が上昇していっており, 既存システムの課題が改善していることが分かる. 図 4 に登録 1 週目の表示位置によるクリック率の既存システムとユーザ減衰モデルの比較を 表 4 リスト内の一人あたりクリック数 図 $4 \quad 1$ 週目の表示位置ごとのクリック率 図 $\mathbf{5} 3$ 週目の表示位置ごとのクリック率 示す.ばらつきはあるものの各表示位置においてクリック率はほぼ同等の傾向を示しており,多様性を導入することによってクリック率に対して悪影響が出ていないことが確認された. 2 週目も 1 週目と同等に既存システムとユーザ減衰モデルには大きな差は見られなかった. しかし図 5 に示す 3 週目には,中位以降でユーザ減衰モデルのほうがわずかではあるがクリック率が高い傾向になる。そして図 6 に示す 4 週目にはリスト全体でユーザ減衰モデルのほうがクリック率が上回る傾向にある。このように登録してから日が浅い段階ではユーザ減衰モデルと既存システムは同等であったが,利用日数が伸びるにしたがってユーザ減衰モデルの方がよりクリック数が多くなることが明らかになった. ## 5.5 考察 本章では多様性を持たない既存システムと多様性を導入したユーザ減衰モデルを実際のサー ビス上で提供し,ユーザに与える影響を比較した。その結果多様性によってユーザのサービス利用の継続率と利用日数が有意に向上することが示された。また利用開始から日が浅い段階では記事リストのクリック率に変化はないが,利用日数が増えるにつれて記事リスト全体でクリック率が高くなる。特にリスト下部のクリック率が既存システムでは低下していくが,ユーザ減衰モデルでは上昇していくことが示された. 既存システムでリスト下部のクリック率が利用日数が増えていく中で低下していく理由を考察する。本システムでは初期段階ではユーザが連携しているウェブサービスから得られるデー 図 64 週目の表示位置ごとのクリック率 夕を用いてユーザの特徴量を構築し, その後システム内でクリックしたウェブページの特徴量を元にユーザ特徴量を更新していく.リストに多様性がある場合には個々のユーザがクリックしたウェブページ集合にも多様性が生まれると考えられることから,ユーザ減衰モデルにおけるユーザの特徴量 $\vec{u}$ は既存システムでは得られなかった多種多様な興味関心を内包したものとなり,ユーザ特徴量減衰後のウェブページがより興味に即したものになっていく.既存システムではリストに多様性がないためユーザのクリックするウェブページが同じような特徴量をもったウェブページに集中するため, ユーザ特徴量がそのようなウェブページにより更新されることから,利用日数が増えるほどに一層推薦されるウェブページリストに偏りが生まれる。その結果リスト下部のクリック数が既存システムではサービスへの飽きから徐々に下がっていくのに対し,ユーザ減衰モデルではリスト下部のコンテンツのユーザとのマッチング精度が向上していくことにより, リスト全体のクリック率がユーザ減衰モデルにおいて長期で高い値になっていることが考えられる. 推薦リストの多様性については,評価者にリストを見せてどちらかを選げせるような実験の結果をもって有効であるとされていたが,本研究ではその結果が実際にサービスの利用頻度という点で現れることを示した。その上でリスト全体のクリック率は初期段階では差がないが,利用日数が増えるにしたがって向上していくことが示され,特にリスト下部でのクリック率が多様性がある場合とない場合で大きな差になっていくことが明らかとなった. サービスにおけるユーザの継続率はユーザの満足度を表す重要な指標であると言われている (Rust and Zahorik 1993). 週次の継続率と利用日数が向上したことにより推薦システムの多様性がサービスのユーザ満足度の向上をもたらすことを示したと我々は考えている。そして利用日数が増えるに従ってクリック率の差が大きくなっていく点については, 推薦システムのオンラインでの評価を行う上で短期的な評価だけでなく中長期的な評価も行う必要性があることを示した。 以上のように本実験では推薦システムの多様性によって利用ユーザのクリック率,週次継続率, 週次利用日数の向上が確認でき,多様性が推薦システムのユーザ満足度を改善することを示した。そしてその影響が継続的な利用によって観測されることを明らかにし,オンライン評価における中長期的な評価の必要性を示した. ## 6 まとめ 本研究では推薦システムに多様性を導入することによるサービス上のユーザ行動の変化について比較実験を行い,多様性がユーザ体験を改善したことを示した。まずサービスのユーザ体験を改善することを目的に推薦システムの分析を行い,多様性がユーザの満足度を高める可能性があることを示した。 その上でユーザ特徴量を減衰していく形で推薦システムに多様性もたらす手法との比較実験によってユーザ行動の変化を分析した. 結果として継続率やサービス利用日数が有意に改善していることを示し,従来研究で言われていた多様性を含む推薦リストのほうがユーザに好まれるということを実サービス上で示した。そして利用日数が増えるにしたがってリスト全体のクリック率が改善していくこと, 特にリスト下部のクリック率が多様性のない手法では下がっていくのに対して, 多様性のある手法では向上していくことを示した. これは従来研究で示されていなかった多様性の中長期における影響を示したものである. 推薦システムを実サービスに適用した際の効果については不明な点が多い. 本研究ではリストの多様性が中長期的な視点でみたときにユーザ体験の改善に貢献することを示唆しており,今後推薦システムにおいて多様性を考慮する上で重要な知見を示すことができたと考えている. また中長期でよりよい影響が生まれていることから推薦システムを評価する上で実サービス上で,なおかつある程度期間を設けて実験を行う重要性を示したものであると言える。 推薦システムのユーザ体験を考慮する上で多様性と並んで説明性や透明性が重要であると言われている (Konstan and Riedl 2012). 今後はこれらの指標の有効性についても実サービス上で考察をしていきたい。また推薦システムにかぎらず本稿のように言語処理技術を実サービスに適用する上での課題や改善の手法について, サービス運営者としての視点から知見の共有や検証を行っていきたい. ## 参考文献 Belluf, T., Xavier, L., and Giglio, R. (2012). "Case Study on the Business Value Impact of Personalized Recommendations on a Large Online Retailer." In Proceedings of the 6th ACM Conference on Recommender Systems, pp. 277-280. ACM. Cosley, D., Lam, S. K., Albert, I., Konstan, J. A., and Riedl, J. (2003). "Is Seeing Believing?: How Recommender System Interfaces Affect Users' Opinions." In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, pp. 585-592. ACM. Davidson, J., Liebald, B., Liu, J., Nandy, P., Van Vleet, T., Gargi, U., Gupta, S., He, Y., Lambert, M., Livingston, B., and Sampath, D. (2010). "The YouTube Video Recommendation System." In Proceedings of the 4th ACM Conference on Recommender Systems, pp. 293-296. ACM. Fleder, D. M. and Hosanagar, K. (2007). "Recommender Systems and Their Impact on Sales Diversity." In Proceedings of the 8th ACM Conference on Electronic Commerce, pp. 192-199. ACM. Herlocker, J. L., Konstan, J. A., Terveen, L. G., and Riedl, J. T. (2004). "Evaluating Collaborative Filtering Recommender Systems." ACM Transactions on Information Systems (TOIS), 22 (1), pp. 5-53. Jannach, D., Zanker, M., Felfernig, A., and Friedrich, G. (2010). Recommender Systems: An Introduction (1st edition). Cambridge University Press, New York, NY, USA. Konstan, J. A. and Riedl, J. (2012). "Recommender Systems: from Algorithms to User Experience." User Modeling and User-Adapted Interaction, 22 (1), pp. 101-123. Lathia, N., Hailes, S., Capra, L., and Amatriain, X. (2010). "Temporal Diversity in Recommender Systems." In Proceedings of the 33rd International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 210-217. ACM. Manning, C. D., Raghavan, P., and Schütze, H. (2008). Introduction to Information Retrieval, Vol. 1. Cambridge University Press, Cambridge. 村上知子, 森紘一郎, 折原良平 (2009). 推薦の意外性向上のための手法とその評価. 人工知能学会論文誌, $24(5)$, pp. 428-436. Pariser, E. (2011). The Filter Bubble: What the Internet is Hiding from You. The Penguin Group. Resnick, P., Konstan, J., and Jameson, A. (2011). "Panel on The Filter Bubble." In Proceedings of the 5th ACM Conference on Recommender Systems. https://acmrecsys.wordpress. com/2011/10/25/panel-on-the-filter-bubble/ 2016 年 5 月 3 日閲覧. Rust, R. T. and Zahorik, A. J. (1993). "Customer Satisfaction, Customer Retention, and Market Share." Journal of Retailing, 69 (2), pp. 193-215. 総務省 (2014). 平成 26 年度版情報通信白書. 矢野経済研究所 (2014). キュレーションサービス市場に関する調査結果. Zhang, M. and Hurley, N. (2008). "Avoiding Monotony: Improving the Diversity of Recommendation Lists." In Proceedings of the 2008 ACM Conference on Recommender Systems, pp. 123-130. ACM. Ziegler, C.-N., McNee, S. M., Konstan, J. A., and Lausen, G. (2005). "Improving Recommendation Lists through Topic Diversification." In Proceedings of the 14th International Conference on World Wide Web, pp. 22-32. ACM. ## 略歴 関喜史:2008 年富山商船高等専門学校情報工学科卒業. 2011 年東京大学工学部システム創成学科卒業. 2013 年東京大学大学院工学系研究科技術経営戦略学専攻修士課程修了. 同大学院博士課程後期課程在学中. 2012 年に株式会社 Gunosy を創業し, 研究開発業務に従事. 福島良典:2011 年東京大学工学部卒業. 2013 年同大学院工学系研究科修了.大学院在籍中に Gunosy を共同開発し,2012 年株式会社 Gunosyを創業し代表取締役社長に就任. 2012 年度未踏スーパークリエイター. 吉田宏司:2011 年東京大学工学部卒業. 2013 年同大学院工学系研究科修了.大学院在籍中に Gunosyを共同開発し, 2012 年株式会社 Gunosy を創業し現在データ分析部の部長を勤め, データ分析, アルゴリズム構築. Webの開発等を担当. 2012 年度未踏スーパークリエイター. 松尾豊:1997 年東京大学工学部卒業. 2002 年同大学院博士課程修了. 博士 (工学),産業技術総合研究所,スタンフォード大学を経て, 2007 年より, 東京大学大学院工学系研究科技術経営戦略学専攻准教授. 2012 年より人工知能学会理事・編集委員長, 2014 年より倫理委員長. 人工知能学会論文賞, 情報処理学会長尾真記念特別賞, ドコモモバイルサイエンス賞など受賞. 専門は, Web 工学, Deep Learning, 人工知能. $(2016$ 年 5 月 20 日受付 $)$ $(2016$ 年 8 月 5 日再受付) $(2016$ 年 9 月 15 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 技術資料 ## 病名アノテーションが付与された医療テキスト・コーパスの構築 岡久太郎 ${ }^{\dagger+\dagger} \cdot$ 伊藤薫 $\dagger$ 高度な人工知能研究のためには, その材料となるデータが必須となる. 医療, 特に臨床に関わる分野において, 人工知能研究の材料となるデータは主に自然言語文を含む電子カルテである。このようなデータを最大限に利用するには,自然言語処理による情報抽出が必須であり,同時に,情報抽出技術を開発するためのコーパスが必要となる。本コーパスの特徴は,45,000テキストという我々の知る限りもっとも大規模なデータを構築した点と, 単に用語のアノテーションや用語の標準化を行っただけでなく, 当該の疾患が実際に患者に生じたかどうかという事実性をアノテー ションした点の 2 点である。本稿では病名や症状のアノテーションを対象に, この医療コーパス開発についてその詳細を述べる。人工知能研究のための医療コーパス開発について病名や症状のアノテーションを中心にその詳細を述べる。本稿の構成は以下の通りである。まず,アノテーションの基準について,例を交えながら,概念の定義について述べる。次に,実際にアノテーターが作業した際の一致率などの指標を算出し, アノテーションのフィージビリティについて述べる。最後に, 構築したコーパスを用いた病名抽出システムについて報告する。本稿のアノテーション仕様は,様々な医療テキストや医療表現をアノテーションする際の参考となるであろう. キーワード:電子カルテ, 医療テキスト, 症例報告, 病名, ICD-10, 医療情報 ## Development of the Clinical Corpus with Disease Name Annotation Eiji Aramaki ${ }^{\dagger}$, Shoko Wakamiya ${ }^{\dagger}$, Ken Yano $^{\dagger}$, Hiroyuki Nagai ${ }^{\dagger, \dagger \dagger}$, TARo OKahISA ${ }^{\dagger, \dagger \dagger}$ and Kaoru Ito ${ }^{\dagger}$ Sufficient data is required for research on advanced AI. In the field of medicine, especially clinical medicine, information retrieval is necessary to utilize the data fully since the data-mainly clinical records - uses natural language. The corpus we developed in this study has the following strong points: (i) The corpus consists of 45,000 case reports, which is the largest to our knowledge, and (ii) not only did we standardized the terminology and the method for annotation, we also annotated "factness," which notes whether or not a disease name is actually the state of the patient in a case  report. This paper describes the methods to develop the medical corpus for AI research, focusing on the annotation of the disease or symptom name. First, we define the concepts contained in the annotation criteria using examples. Next, we discuss the feasibility of the annotation through giving some indexes such as agreement rate. Finally, we report the development of the disease-name extraction system based on the corpus. We believe this corpus is a good reference for future clinical annotation. Key Words: Electronic Health Record (EHR), Clinical Text, Case Reports, Disease Name, ICD-10, Medical Infomatics ## 1 はじめに 医療現場で生成される多様なデー夕(以下,医療データと呼ぶ)の大部分は自然言語文であり,今後もその状況はただちに変わりそうにない. 医療デー夕の利活用としては, 診療への応用, もしくは学術研究や政策への応用が挙げられるが, 現在, 盛んに医療デー夕の利活用の重要性が叫ばれているのは, 後者の二次利用である (科学技術振興機構研究開発戦略センター 2017). 二次利用されることが期待される医療データとしては, 健診データや診療報酬データがある。健診データは健康診断の際に作成されるデータであり, 検査名と検査値から構成される。健診デー 夕は受診者が多く,組織で一括して収集されるため,大規模な医療データとしてよく用いられる。一方,診療報酬データは医療費の算定のために用いられるデータであり,医療行為がコー ド化されたものである.このデータは厚生労働省が収集し管理するため, 同じく大規模な医療データとしてよく用いられる。両データは,数値やコードから構成される構造化されたデータのためコンピュータでの扱いは容易であるが,詳細な情報が含まれていないことが解析の限界となっていた。 そこで,より詳細な情報が含まれる診療録,退院サマリ,症例報告といったテキスト化された医療データの活用に注目が集まっている。診療録とは,病院において患者が受診した際や入院時の回診の際に記述されるテキストであり, 詳細な患者情報が記述される。また,退院サマリとは, 退院時に記述される情報であり, 入院中の診療録の要約である. 症例報告も退院サマリと同じく入院時の要約であるが,学会に報告されるものである。他にも, 病院内にはテキス卜化された医療データが存在しており,本稿ではこれらのテキスト化された医療デー夕全般を指し, 電子カルテと呼ぶ. 電子カルテは, 自然言語文が中心となる非構造データであるため, 扱いは困難であるが, 詳細な情報が記述されており, その量は年々増加しつつある。この動きは, 1999 年に医療データであっても,一定の基準を満たした電子媒体への保存であれば,記録として認められる,という法改正が行われて以降, 特に急速に進展した. 2008 年には, 400 床以上の大規模病院で $14.2 \%$,一般診療所で $14.7 \%$ であった電子化率は, 2014 年には, 400 床以上の大規模病院で $34.2 \%$, 一 般診療所で $35.0 \%$ と倍以上に増加している 1 .このまま増加すれば,ほとんどの病院で電子カルテが用いられるであろう. 電子化の第一の目的は, 病院の運営の効率化によるコスト削減であるが, 副次的な利用法として,これまで膨大な労力をかけて行われてきた調査への応用が期待されている.例えば,医薬品の安全に関わる情報や疫学的情報の収集をより大規模かつ容易に実行可能にしたり,これまで不可能であった医療情報サービスも構築可能にすると期待されている。しかし,このような期待は高まるものの,具体的な成功事例は乏しい。これは,電子カルテに多く含まれる自然言語文の扱いが困難であることが原因で,電子カルテの情報を最大限に活用するには自然言語処理が必須となる. 本研究では病名のアノテーション基準を提案し, 45,000 例もの症例報告を材料としてアノテー ションを行う.このアノテーションでは,症例報告の対象患者の疾患や症状についての情報を整理することを目指し,単に病名のみをマークするだけでなく,症状が患者に発生しているかどうかの区別まで行う. 海外では, 医療分野における同様のコーパスは政府の協力のもと開発,公開がされているが,日本では公開された大規模コーパスは存在せず,コーパスの仕様についても十分な資料がなかった。本稿では,日本で初となる大規模な医療分野のコーパス開発の詳細について述べる。 本研究が提案するアノテーションは, 症例報告のみならず, さまざまな医療テキストへ利用可能である汎用的なものである。 また,これが実行可能なアノテーションであることを示すために, 複数のアノテーター間における一致率やその問題点などの指標を示し, フィージビリティの検討を行った。最後に, 病名アノテーションを利用して構築した病名抽出器についても紹介する. 本コーパスの特徴は, 以下の 2 点である. (1) 従来, 小規模な模擬データが配布されるにとどまっていた利用可能な医療分野のコーパス (Morita, Kano, Ohkuma, Miyabe, and Aramaki 2013; Aramaki, Morita, Kano, and Ohkuma 2014, 2016) と比較し, 約 45,000テキストという大規模なデータを構築した点. (2)単に用語の範囲をアノテーションしただけでなく,用語で示された症状が実際に患者に生じたかどうかという事実性をアノテーションした点. 特に,症状の事実性を記述することは応用を考えると重要である。例えば,以下のような 2 つの応用システムを用いたシナリオを想定できる。 【医薬品副作用調査シナリオ】ある医薬品 $\mathrm{A}$ と医薬品 B がどれくらい副作用を起こすかを比較したいとする。この場合, 医薬品 $\mathrm{A}$ と医薬品 B で検索して得られたテキストセット $\mathrm{A}$ とテキストセット $\mathrm{B}$ をつり,それぞれに出現する副作用と関連した病名の頻度を比較  すればよい.だが,これを実際に行うと,「副作用による軽度の $<\mathrm{P}>$ 咳嗽 $</ \mathrm{P}>$ は認めたが、<N>間質性肺炎 $</ N>$ は認めなかった。」2といったように,想定はされるが実際には起こっていない副作用も記述される。よって,事実性を判定する必要が生じる. 【診断支援シナリオ】診断を行う際には,ガイドラインに沿って症状の有無を調べ,合致する診断を下す。これはフローチャートになっており,例えば,意識消失,痙攣あり,嘔吐あり,発熱ありの際に考えられる症状には心筋炎,脳梗塞,脳炎など曖昧性があるが,ここで血液検査を行って炎症所見のない場合は心筋炎が除外される。このような場合,診断がガイドラインに沿っていることを明確にするために,事実性のない症状についても記述される(この例では「炎症所見なし」)。よって,診断支援のデータとして用いる場合には,事実性を判定する必要が生じる。 本研究の貢献は以下の通りである. (1) 医療テキストへのアノテーションについての詳細な仕様を示した. (2)実際にアノテーションした結果について,一致率や問題点などのフィージビリティを議論した。 (3) 本研究で構築したコーパスを用いて病名抽出器を構築し,アノテーションの妥当性を検証した。 ## 2 関連研究 海外でも電子カルテに自由記載された自然言語文からどのように有益な情報を抽出するかについて関心が高まっていた。このため, 2006 年から NIH (National Institutes of Health)のサポートで開始された i2b2 NLP Challenge (Uzuner 2008) というワークショップにより,様々なコーパスのリリースが行われている。 i2b2 NLP では,退院サマリを利用してコーパスが構築されており,これは,筆者らの知る限り,医療分野のコーパスを最初に公開したワークショップである。その後, 日本語ワークショップの MedNLP(Morita et al. 2013; Aramaki et al. 2014, 2016) やヨーロッパでの CLEF e-Health (Kelly, Goeuriot, Suominen, Schreck, Leroy, Mowery, Velupillai, Chapman, Martinez, Zuccon, and Palotti 2014)など, i2b2 NLP の仕様を参考にしたコーパス開発が行われているが,いずれも小規模なものに留まっている。例えば,MedNLP で扱われたコーパスの一部は,言語資源協会 (GSK) により「GSK2012-D 模擬診療録テキスト・ データ」として公開されている 3 が, わずか 20 件にすぎない. ^{2}<\mathrm{P}>$ で示した病名は事実性のあるもの,<N>で示した病名は事実性のないものを表す. 詳しくは 4.2 節. }^{3}$ http://www.gsk.or.jp/catalog/gsk2012-d/ また, 本研究でも利用する医学オントロジーである ICD-104 と, 自然言語文に含まれる疾患名や症状名を対応させるための辞書は,これまでにも何度か作成が試みられている (Fabry, Baud, Ruch, Le Beux, and Lovis 2003; Yamada, Aramaki, Imai, and Ohe 2010; Bouchet, Bodenreider, and Kohler 1998). しかし, これらの研究は病名辞書を記述することに終始しており, 電子カルテ内の文脈がもつ情報が失われている。本研究では,コーパス中に出現する病名に対してアノテーションすることで,文脈も含んだ形で利用可能なリソースの構築を目指す. 本研究は,大規模な日本語の医療コーパスを構築する初めての試みである。これまでにも医療コーパスを用いた研究はあったが,その仕様の詳細については明らかにされておらず,全体像がつかめないのが実情であった。本稿では,今後同様のアノテーションにおいて指針となるように,アノテーションの仕様を実際にコーパスが構築可能な程度の粒度で紹介する。 ## 3 コーパス構築の全体像 ## 3.1 材料 本研究で扱う電子カルテは症例報告といわれるテキストである(表 1 )。症例報告とは, 学会に提出される患者情報の要約である。 症例報告には, 患者の診断名・転帰, 入院時の症状および所見,治療後の経過などが簡潔に記述され,医師の教育や,類似した症例の参考のために参照される.このため, 症例報告は患者に相対して記述する診療録よりも高い可読性で記述される傾向にある,症例報告は学会への報告であるため, 記録先は異なるが, 入院時の患者の要約であるという点で退院サマリ(図1)と類似しており, 症例報告のアノテーションの枠組みを退院サマリに転移することが可能である. 本コーパスの材料となったテキストは日本内科学会に報告された 44,761 の症例報告5である. これは, 2004 年以降に報告された全症例であり,11,866 施設,26,235人の医師からなる。また, これらがカバーする診療科は内科全領域である。症例報告が対象としている分野と, 各分野における報告数を表 2 に示す。なお, 日本内科学会の会員は学会ホームページ6を通じて本コーパスのデータを検索,閲覧可能である。また,本コーパスの研究利用についてはウェブサイト7にて,利用に関しての最新情報を参照可能なようにしている. ^{4}$ ICD とは, 世界保健機関 (WHO) による, 疾病及び関連保健問題の国際統計分類 (International Statistical Classification of Diseases and Related Health Problems) の略称であり,世界中で集計された死亡や疾病のデータに基づく分類体系である。ICD にはいくつかのバリエーションがあり,日本ではICD-10 が用いられている.詳しくは 3.4 節を参照. 5 この段階ではコーパスから除外する複数症例についての報告(3.2 節参照)も含まれているため, 完成後のコーパスの症例報告件数とは一致しないことに注意. 6 http://www.naika.or.jp/ 7 http://mednlp.jp/ } 表 1 症例報告「澒部硬膜外血腫を合併した特発性血小板減少性紫斑病」の例 ## 3.2 除外データ:複数症例を扱った記録 症例報告の中には,ある症状について,1つの病院で観察された複数の患者のことをまとめて報告したものや特定の病気に対し特定の治療法が有効であるかどうかを複数の事例から考察したものが含まれている。このような報告においては, 患者 1 人 1 人についての記述が少なく,記述されている情報がどの患者に当てはまるものであるかを判断することが難しい場合が多々ある.そのため,特定の患者 1 名に関する報告のみをアノテーションの対象とすることとした. ## 3.3 アノテーションの流れ 電子カルテには専門用語が多く含まれており, 正確なデータ整理のためには医学知識が必須となる。例えば,「DICあり」という表現に含まれる「DIC」が「播種性血管内凝固」という疾患を指すといった判断は,医師や看護師,医療事務員といった医療関係者(以降,医療従事者)以外の者(以降,非医療従事者)にとっては容易ではないため,本来はすべての作業を医療従事者によって行うのが理想的である。しかし,それはコスト的にも人材的にも非常に困難である.最も人数が多い医療従事者は看護師であるが,慢性的に人手不足であり,また,雇用単価も高い(時給換算で 2,000 円 2,300 円),そもそも,看護師の本来の職務はアノテーションの作業と大きく乘離しており,熱意を持ってアノテーションに従事可能な人材の確保は容易でない. そこで, 本研究では, デー夕整理の作業に熟練し, かつ, 事務作業とも親和性の高い, 医療 図 1 退院サマリの例 (GSK2012-D 模擬診療録テキスト・データから抜粋) 表 2 症例報告の対象分野と各分野における報告数 事務員の経験者を中心に雇用し,コーパスの構築を行う.ただし,医療事務員は看護師や検査技師などの他の医療従事者と比較し,そもそも人数が多くない,そこで,アノテーションのプロセスを医療事務経験者でなくとも従事可能な部分と,医療事務経験者が必要な部分という以下の 2 つに分けた. ## (1) a. 病名タグ付け 医学知識を用いず,非医療従事者が病名だと判断したもの全てに夕グを付与する。 b. 病名コーディング 上記 (1a)のプロセスでタグ付けされた表現のうち, 頻度の高いものから順に医療従事者が医学知識を用いて,病名であるか否かを判断し,病名である場合は後述する ICD コードを付与する. 本稿では, 病名の範囲の同定 (1a)をタグ付け, 病名の分類 (1b)をコーディングと呼び,(1a) タグ付けと (1b) コーディングの両方を含む作業をアノテーションと呼ぶことにする. な押, 作業の効率化を測るため, 予め非医療従事者によってタグ付けがなされた少数のデー 夕を教師データとして,機械学習によって自動で全てのデータにタグ付けしたデータ(以降,自動タグ付けデータ)を作成し,(1)の両プロセスにこのデータを利用している。具体的には, (1a)の作業は, 自動タグ付けデータをアノテーターが修正(タグの追加・削除)する形で行う. また,(1b)の作業においては,(1a)のプロセスが完了するよりも前に,自動夕グ付けデータにおける頻度に基づいてコーディングを行い,(1)の作業が完了次第,自動夕グ付けデータからは収集することができなかった表現に対して,(1b)のコーデイング作業を行う. ## 3.4 ICD-10 ICD (WHO 1992) とは疾病及び関連保健問題の国際統計分類 (International Statistical Classification of Diseases and Related Health Problems) の略であり,世界中で集計された死亡や疾病のデータの体系的な記録, 分析, 解釈打よび比較を行うため, 世界保健機関憲章に基づき, 世界保健機関 (WHO) が作成したオントロジー的な性質を持つ分類体系である. ICD には各国の事情を反映したバリエーションがあり,例えば米国ではICD-9-CM,オーストラリアではICD-9-AM,日本では ICD-10が用いられている。 ICD-10 は,アルファベット 1 桁と数字 $2 \sim 4$ 桁の組み合わせによって表記され,この表記はコード(またはICDコード)と呼ばれる,それぞれのコードには,体系的に分類された疾病や死因の概念が対応づけられている。また,実際の電子カルテ内に現れる疾病や病名などを表す表現に対して,コードを割り当てる行為はコーディング(ICDコーディング)と呼ばれる。一般の計算機科学で用いられる,プログラムを構築する意味でのコーディングとは異なるので注意されたい.コードは表 3 のような階層構造を持つ、コードの最初のアルファベット(軸と呼ばれることもある)は, 感染症や新生物(がん)などの全身症 (A-E), 循環器や消化器系疾患な 表 3 ICD-10 の概要 & 分類見出し \\ ど $(\mathrm{F}-\mathrm{N})$, 奇形や新生児疾患 $(\mathrm{O}-\mathrm{Q})$, 症状や兆候 $(\mathrm{R})$, 障害 $(\mathrm{S}-\mathrm{T})$, 傷病 $(\mathrm{V}-\mathrm{Y})$ などの分類記号となっている。 さらに,次桁からの数字で詳細な部位などが示される。例えば,「右上肺葉がん」は C341 に分類されるが,最初の 3 桁の C34 が「気管支および肺の悪性腫瘍」を示し, 最後の 1 が上肺を示している。ただし,コードに左右の区別はなく, 右肺に生じた疾患であるということは C341 というコードから判別することはできない. なお, 本コーパスの規模としては, 56 万の病名の出現 (TOKEN) を収載し, 異なり病名としては 19,000 種類の病名 (TYPE) をカバーしている。これを ICD-10コードの種類にまとめると 2,260コードとなる。なお, ICD-10は全体として膨大な体系であり, 実際には頻出しない病名や日本では存在しない病名も含めると, 数万規模の体系となっている. 実際に日本で一般的に用いられている ICD-10 コードの数は約 4,900 であり ${ }^{8}$, 本コーパスはこのうち約半分 $(2,260$ コー ド)をカバーしていることになる. ^{8}$ https://www.medis.or.jp } ## 4 病名タグ付け ## 4.1 病名タグ付けの指針 病名夕グ付けは, 症例報告に含まれる病名に夕グを付与する作業である。しかし, 3.3 節で述べた通り医療従事者の確保は容易ではないことから, この作業は特に医療やその他の学術的知識を持たない作業者にも可能なように基準を設定した。また,実際に作業を行ったのは, 2017 年 7 月現在で医療従事者・非医療従事者を共に含む 10 名である。以下では,夕グ付けの指針や基準の詳細,および作業結果の一致率について述べる. 病名タグ付けは, 以下の 3 つの指針に基づいて行った。 ## (I)非医療従事者がタグ付け対象の言語的単位を判断しやすい基準を設ける 症例報告においては, 同一の症状・疾患の記述であっても, 医師によって様々な表現の仕方が用いられる. 特に, 複数の形態素によって特定の症状・疾患を表している場合, 非医療従事者がタグ付けの範囲を決定することが困難である場合が多い。そこで,夕グ付けに際しては医療的知識を用いることなく, 言語的な情報から夕グ付けの有無や範囲の決定を行うことができる基準を設ける。 ## (II) 病名コードを付与できる可能性を持つ表現を最大限抽出するための基準を設ける 本コーパスは, ICDコードに基づいて, 複数の表現がなされている病名を標準化することを目指している。しかし,夕グ付けを行う非医療従事者は ICDコードに関する知識を有していないため,データ中に見られる症状のどれが ICD コードを持っているのかを判断をすることが難しい. そこで, ICDコードが付与される可能性を持つ表現を最大限抽出するための基準を設ける. ## (III)症例報告の患者に関する情報(事実性)を整理する 1 節で述べた通り, 本研究は症例報告の対象患者の疾患や症状の情報について整理することを目的としている。しかし, 実際の症例報告には, 患者による罹患が実際に確認された病名たけではなく, 存在が否定された病名や施設名等に含まれる病名, さらに特定の症例報告のレべルではなく一般論のレベルで登場する病名も多い,例えば,表 1 の症例報告では,実際の患者に生じた症状ではなく, 医学的な知識として「ITPは時に重篤な深部出血をきたす」といった記述がなされている。そこで,病名アノテーションにおいては,患者に実際に確認された病名と,そうではない病名を区別し,それぞれに対応する夕グを設ける。 以下では,上記の指針に基づき行った実際の夕グ付け作業の詳細を述べる。 ## 4.2 タグの種類 指針 (III) に則り,本コーパスで用いるタグは次の 3 種とする。 (2) a. 陽性タグ(Pタグ:<P> ...</P>) 患者に関する症状,疾患名で実際に罹患が認められたもの,あるいは疑われたものに対してP夕グを付与する。 b. 陰性タグ ( $\mathrm{N}$ タグ : $<\mathrm{N}>\ldots</ \mathrm{N}>)$ 患者に関する症状, 疾患名で罹患が否定されたものに対して $\mathrm{N}$ タグを付与する. c. スキップタグ(SKIP タグ:<SKIP/>...) 各データ末尾の一般論には P タグ,N タグを付さず,直前に SKIP タグを付すこと で,以降のテキストは夕グ付け対象外とすることを明示する,P夕グ, N夕グと異な り, 終了タグは付与しない. なお, 一般論であっても,データの末尾以外にある場合には SKIP タグを付与せず,Nタグを付与する。 症例報告において, 一般論はテキスト末尾に考察として記述される場合が多く, 考察部分はそれ以前の具体的な症例報告とは性質が異なる。そこで, テキスト末尾に登場する一般論は SKIP タグによって区別し,本コーパスからは除外する。なお,テキスト末尾以外に登場する一般論に関しては,Nタグを付与することで患者が実際に罹患した病気と区別する。これらのタグの種類の決定方法については,4.5節にて例とともに詳細を述べる. 先行研究においては, $\mathrm{N}$ タグの内容を区別するものも存在する。例えば, (Aramaki, Miura, Tonoike, Ohkuma, Mashuichi, and Ohe 2009) では,「疑い」,「必要」,「可能性」,「否定」,「延期」,「予定」,「希望」,「勧める」,「方針」といった細かい区別を用いていた。また,NTCIRの MedNLP2 タスクでは,「否定」,「疑い」、「家族歴」を区別していた。しかし,場合によってはこの区別が困難な場合がある。 さらに,今回対象とするコーパスが大規模であることから,できるだけタグの仕様を単純化するのが好ましい,想定される応用例においても, $\mathrm{N}$ タグを除外して検索したい要求はあっても, $\mathrm{N}$ タグの内容を区別して扱うケースは多くないと考えている.以下に想定される応用例を列挙する. ・作用調査:Pタグのみを抽出 ・ 副診断支援(類似した症状の患者を検索):P夕グのみを抽出 - 診断支援(次に行うべき検査や見るべき所見を予測):P夕グと $\mathrm{N}$ タグの両方を抽出 - 病名表現の統計調査:P夕グと $\mathrm{N}$ タグの両方を抽出 ・ 入力支援 (サジェスト):P夕グと $\mathrm{N}$ タグを区別せず抽出 ## 4.3 病名タグ付けの原則 病名タグ付けは,4.1 節に挙げた指針を反映し,下記の原則に基づいて行った. (3) a. 名詞で表現される病名に対してのみ夕グを付与する b. P タグを付与するのは患者が罹患したと医師が判断した病名(陽性所見)とする原則 (3a) は, 指針 (I, II) を反映している。症例報告において, 当該の報告を記述した医師によって病名の表現の仕方や表記法が異なるため, そのような表記の摇れに対して, 非医療従事者であっても言語的な特徴から夕グ付け範囲の決定をすることができる基準を設ける必要がある。そこで,夕グ付け対象を名詞(サ変動詞の語幹も名詞に含めることとする)に限定することによって,統一的なタグ付けを目指した。 原則 (3b) は,指針 (III) を踏まえている,症例報告には,実際に患者が罹患していると医師が判断していない病名が多く含まれている。この点を明示化するために,患者が罹患したと医師が判断したと考えられる病名には $\mathrm{P}$ タグを付与することで, それ以外の病名と区別した. 次節では各原則が実際の夕グ付けにおいてどのように実現されるかを述べる. ## 4.4 タグ付けの単位 原則 (3a)に示したように本コーパスでは,夕グ付け対象を名詞に限定することで,非医療従事者による夕グ付け単位の判断の統一化を図っている。これは, 症例報告において以下のような表記の摇れが散見されるためである. (4) a. 腎機能低下が見られた b. 腎機能が低下していた c. 腎機能が高度に障害されていた 「腎機能低下」は ICD コード (N289) を有する症状である。しかし, 症例報告には (4) に例示したように,様々な表現の仕方で,同一の事象が記述されている。このような表記摇れを過不足ない単位で医療知識の無いアノテーターが全て採取することは極めて困難である.また,仮に全ての表記摇れを統一的な単位でタグ付けすることができたとしても,そのような表記摇れは病名コーディングの段階で, 頻度の少なさからコーディング対象外となってしまうことが予想される。 以降,4.4.1 節から 4.4.7 節では具体的にどのような表現をタグ付け単位として認定したかを詳細に述べる。 ## 4.4.1 複合名詞 複合名詞は,1つの名詞として扱い,まとめて夕グ付け対象とする. ## (5) 複合名詞の例 a. $<\mathrm{P}>$ 軽度網膜血管炎 $</ \mathrm{P}>$ b. $<\mathrm{P}>\mathrm{AFP}$ 高値 $</ \mathrm{P}>$ c. $<\mathrm{P}>$ 腎機能異常 $</ \mathrm{P}>$ d. $<\mathrm{P}>$ 全身倦总感著明 $</ \mathrm{P}>$ e. $<\mathrm{P}>$ 両側肺門リンパ節腫大 $</ \mathrm{P}>$ f. $<\mathrm{P}>\mathrm{Cl} \mathrm{l}$ a s s V腺癌 $</ \mathrm{P}>$ また,病名そのものではなくても,患者の症状を表す特定の語彙を含んたものについても夕グ付け対象とする。 (6) 患者の症状を伴う特定の語彙を含む複合名詞の例 a. $<\mathrm{P}>$ 血痰程度 $</ \mathrm{P}>[\sim$ 程度 $]$ b. $<\mathrm{P}>$ 皮虐病変痂皮傾向 $</ \mathrm{P}>[\sim$ 傾向 $]$ c. $<\mathrm{P}>$ 壊疽部 $</ \mathrm{P}>[\sim$ 部 $]$ d. $<\mathrm{P}>$ 腫瘤辺縁 $</ \mathrm{P}>[\sim$ 辺縁 $]$ e. $<\mathrm{P}>$ 項部硬直陽性 $</ \mathrm{P}>[\sim$ 陽性(陰性)] ## 4.4.2 英語表記・略号 英語表記やアルファベットによる略記も名詞として扱い,夕グ付け対象とする。 (7) 英語表記・略号の例 a. <P> c a r c ino i d t umor $</$ P $>$ [英語表記] b. $<$ P $>$ A I P $</$ P $>$ [英語略記] ## 4.4.3修飾句 本コーパスでは,以下のような修飾句を形成する表現については夕グ付け対象外とする。 (8) タグ付け対象としない修飾句の例 a. 急性肝炎様に $<\mathrm{P}>\mathrm{A}$ I $\mathrm{H}</ \mathrm{P}>$ を発症した b. ポリープ状の $<\mathrm{P}>$ 腫瘍 $</ \mathrm{P}>$ を認め c. 肉芽腫性の $<\mathrm{P}>$ 炎症 $</ \mathrm{P}>$ ただし,以下のように,「に」や「の」等の助詞が介入せず,複合名詞となっている場合は,原則 4.4.1に示したように,合わせてタグを付与する。 (9) 助詞の介入しない修飾句を伴う複合名詞の例 a. $<\mathrm{P}>$ 急性肝炎様症状 $</ \mathrm{P}>$ b. $<\mathrm{P}>$ ポリープ状腫瘍 $</ \mathrm{P}>$ c. $<\mathrm{P}>$ 肉芽腫性炎症 $</ \mathrm{P}>$ ## 4.4.4動詞 本コーパスでは,以下のような動詞が表す症状は夕グ付け対象外とする。 (10) タグ付け対象としない動詞の例 a. 両足が痛み, 右膝が腫れてきた b. 皮膚はいずれも硬くなった c. 夜はなかなか寝つけない, とのこと ただし,サ変動詞の語幹については,それ単体で病名を表す名詞と認定できるものに限ってタグを付与する。 (11)病名を表す名詞と認定できるサ変動詞の語幹の例 a. $<\mathrm{P}>$ 狭窄 $</ \mathrm{P}>$ していると考えられた b. $<\mathrm{P}>$ 腎機能低下 $</ \mathrm{P}>$ する ## 4.4.5 セパレーション 中黒 (・), スラッシュ (/), ハイフン(-) や, 読点(,)をはさむ場合は,その前後が独立した名詞の場合,それぞれを別の名詞として個別に夕グを付与する。一方,前部ないし後部がもう一方と連結して複合名詞を作る場合は,当該記号を挟んで 1 つのタグを付与する。 (12)分割された前後が独立した名詞として認定できる例 $<\mathrm{P}>$ 血痰 $</ \mathrm{P}>\cdot\langle\mathrm{P}>$ 下血 $</ \mathrm{P}>$ も出現した (13) 前部または後部がもう一方と連結する例 a. < P>ウイルス性,細菌性肺炎 $</ \mathrm{P}>$ 疑いあり [ウイルス性肺炎 + 細菌性肺炎] b. $<\mathrm{N}>$ 腸蠕動音低下, 方進 $</ \mathrm{N}>$ ともになし. [腸蠕動音低下 + 腸蠕動音立進] c. $<\mathrm{P}>$ 下咽頭、気管、甲状腺浸潤 $</ \mathrm{P}>$ 、 $<\mathrm{P}>$ 頙部リンパ節転移 $</ \mathrm{P}>$ と診断され [下咽頭湿潤 + 気管湿潤 + 甲状腺湿潤] 「および」「ならびに」といった表現は中黒やスラッシュと同様に扱う. ## 「および」「ならびに」が使用されている例 a. $<\mathrm{P}>$ 体幹および四肢運動失調 $</ \mathrm{P}>$ などを認めた。 [体幹運動失調 + 四肢運動失調] b. <P>結節性ならびに小浸潤性陰影く/P>を認めた。[結節性陰影+小湿潤性陰影] ## 4.4.6 丸括弧 丸括弧で囲まれた言い換えの表現がある場合は,個別にタグを付与する。 (15) 丸括弧による言い換え表現の例 $<\mathrm{P}>$ 胃食道逆流症 $</ \mathrm{P}>(<\mathrm{P}>\mathrm{GER} \mathrm{D}</ \mathrm{P}>)$ ## 4.4.7 特殊記号を含む名詞 症例報告においては, 患者の症状を表すために医師の間で慣習的に使用されている記号が現れることがある。そのような記号は, 複合名詞を構成する一部として解釈し, まとめて夕グ付けする。 a. $\quad<\mathrm{P}>$ I g A $2800 \uparrow</ \mathrm{P}>$ (IgA 高値は慢性肝疾患や感染症等を示す血液検査所見) b. $\quad<\mathrm{P}>$ 皮膚ツルゴール $\downarrow</ \mathrm{P}>$ (皮膚ツルゴール低下は脱水症、特に低張性脱水症) $ \text { 「陽性/陰性」という意味で「(+) / (-)」が使用されている例 } $ a. $<\mathrm{P}>$ 項部硬直 $(+)</ \mathrm{P}>$ b. 検尿も $<\mathrm{N}>$ 蛋白 $(-)</ \mathrm{N}>$ 、 $<\mathrm{P}>$ 潜血 $(+)</ \mathrm{P}>$ であった ## 4.5 タグの種類決定 症例報告に登場する病名には,医師が実際に患者に認めたものだけでなく,検査の結果否定された病名や一般論において登場する病名,患者の症状とは関係のない複合名詞の一部として登場するものが多く存在する。本コーパスでは, そのような表現に対応するために, 4.2 節に挙げた 3 種のタグ(P夕グ, N タグ,SKIP夕グ)をアノテーションに用いる。本節では,具体的にどのような表現に各夕グを付与するかを述べる。 ## 4.5.1 患者の症状以外の病名を含む複合名詞 患者の症状としてではなく, 施設名, 手術名, 検査名といった複合名詞の一部に含まれた病名にはタグを付与しない. (18)患者の症状を表さない病名を含む複合名詞の例 a. かかりつけのロ口内科リウマチ科クリニックより当院紹介受診となった. b. 左下肢静脈瘤手術を行った。 c. 細菌培養、膠原病検査を行い 1 週間経過観察 ## 4.5.2 まだ発症していない病名 実際には,まだ発症していないが,今後患者に発症が予想されている病名には $\mathrm{N}$ タグを付与する. ## 発症が予想されている病名の例 a. $<\mathrm{N}>$ 気道閉塞 $</ \mathrm{N}>$ の危険が高く b. $<\mathrm{N}>$ 肺塞栓症 $</ \mathrm{N}>$ の発症が危惧された ## 4.5.3 家族歴 家族歴(患者の家族が罹患したことのある症状)は,患者が実際に罹患していない病名であるため, $\mathrm{N}$ タグを付与する。 (20) 家族歴の例 a. 母が $<N>$ 高脂血症 $</ N>$ b. 長兄、祖母にも $<\mathrm{N}>$ 大動脈疾患 $</ \mathrm{N}>$ の既往歴があり なお, 患者本人の既往歴(過去に患っていた症状)に関しては,患者の罹患した病名であるため,P タグを付与する. (21) 患者の既往歴の例 $\mathrm{XX}$ 歳時に $<\mathrm{P}>$ 胃潰瘍 $</ \mathrm{P}>$ のため胃亜全摘術既往歴がある。 ## 4.5.4 罹患が疑われている病名 罹患が疑われている病名に関しては, 同一文内で陰性であることが示されている場合に限り $\mathrm{N}$ タグを付与し,それ以外は $\mathrm{P}$ タグを付与する。 ## 同一文内で罹患が否定されている例 a. $<\mathrm{N}>$ 脳血管障害 $</ \mathrm{N}>$ を疑い C T・MRIを施行したが異常所見を認めなかった。 b. $<\mathrm{N}>$ 抗酸菌感染症 $</ \mathrm{N}>$ を疑い喀痰抗酸菌検査を施行したが陰性で、外来での厳重な経過観察とした。 同一文内で罹患が否定されていない例 a. 臨床経過より、アミオダロンによる $<\mathrm{P}>$ 薬剤性肺障害 $</ \mathrm{P}>$ を疑った。 b. 喘息既往や血液検査から $<\mathrm{P}>$ 好酸球性肉芽腫性多発血管炎 $</ \mathrm{P}>$ を疑った。 また,疑いを表す述部の例としては以下のものが挙げられる. 疑いを表す述部を伴う例 a. バルサルバ負荷による TMFの変化、肺静脈血流と流入血流左室内伝播速度を観察したところ、いずれも $<\mathrm{P}>$ 左室拡張障害 $</ \mathrm{P}>$ を示唆する結果であった。 b. モニター心電図上、心拍数 200 回 $/ \mathrm{m} \mathrm{i} \mathrm{n}$ 程度の $<\mathrm{P}>\mathrm{w}$ i d e QRS t a c h y c a r d i a </P>を認めており、<P>心室頻拍</P>と考え、マグネゾール $1 \mathrm{~A} を$静注後に $<\mathrm{N}>$ 頻拍 $</ \mathrm{N}>$ は停止した。 で全身病態に関連少ないと判断し、 $<\mathrm{P}>\mathrm{GBS}</ \mathrm{P}>$ を想定し、免疫吸着を行った。 d. $<\mathrm{P}>$ 脳卒中 $</ \mathrm{P}>$ が疑われる $<\mathrm{P}>$ 神経症状 $</ \mathrm{P}>$ を認めたため脳 M R I を施行、右小脳・右脳幹に比較的最近に発症したと思われる $<\mathrm{P}>$ 脳梗塞所見 $</ \mathrm{P}>$ を認めた。 e. $<\mathrm{P}>$ ペ゚リン起因性血小板減少症 $</ \mathrm{P}>$ の可能性を考え抗へパリン-P F 4 複合体抗体を測定したところ陽性であった。 f. $<\mathrm{P}>$ 悪性腫瘍 $</ \mathrm{P}>$ も否定できないため、診断目的でエコー下肝生検を施行。 ## 4.5.5 治癒表現 治癒を表す表現が伴っている病名については, 症状や疾患が完全に消失したことが明示されている場合のみ $\mathrm{N}$ タグを付与する. ## 完全に消失したことが分かる治癒表現を伴う例 a. $<\mathrm{N}>$ リンパ腫所見 $</ \mathrm{N}>$ は消失しており b. $<\mathrm{N}>$ 血尿 $</ \mathrm{N}>$ は陰性化し なお, 症状・疾患が完全に消失したことが明示されていない場合は P 夕グを付与する. (26) 症状・疾患が完全に消失したことが判断できない例 a. $<\mathrm{P}>$ 腫瘤 $</ \mathrm{P}>$ はほぼ消失していた b. $<\mathrm{P}>$ 発疹 $</ \mathrm{P}>$ も消退傾向となり c. $<\mathrm{P}>$ 心不全症状 $</ \mathrm{P}>$ の軽快を認めた d. 腸管壁の $<\mathrm{P}>$ 肥厚 $</ \mathrm{P}>$ は改善した 「宽解」「完全宽解」「奏効」「完全奏効」という用語は, 癌の徴候が消失しただけであり, 完全な治癒を表すわけではないため, これらを伴う病名には $\mathrm{P}$ タグを付与する. ## 4.5.6 一般論に見られる病名 症例報告に見られる病名には,個別のケースについて言及しているのではなく,これまでに得られている知見の一般的記述の中に登場するものが多く存在する。また, そのような一般論は,本文末尾に記述されることが極めて多い,本研究における夕グ付け作業は, 3.3 節で述べたように,自動夕グ付けデー夕を修正する形で実施したため, 本文末尾の一般論に含まれる病名に予め付与されたタグを 1 つ 1 つ人手で削除する作業は非効率的である。そのため,夕グ付け作業では SKIP タグを設け,本文末尾の一般論の直前にこれを付すことで,それ以降のテキストに付されたタグを無視するようにした。 ## 本文末尾に登場する一般論の例 a. ... その後徐々にA L Tは低下し、ウィルス量も低下したが、 $<\mathrm{P}>$ 肝不全 $</ \mathrm{P}>$ からの回復には至っておらず、現在も治療中である。<SKIP/>近年ではステロイドフリー の化学療法や、他の免疫抑制剤でも、免疫抑制の回復期におこる H B V の再活性化が数多く報告されている。また劇症化症例においては肝炎発症後のラミブジン投与では効果に乏しく、予後も不良である。化学療法に伴うHBVの再活性化、劇症肝炎はいかなる化学療法においても引き起こす可能性があり、H B e 抗原やキャリアの肝予備能に関わらず、ラミブジンの予防投与をすることが必要と考える。 b. ... 薬物的除細動は合部調律が続き、その後洞調律となり、薬物療法を行って整脈を維持出来た。 <SKIP/>長年に渡り心房細動が続き、左心房の拡大がかなり拡大している症例でも心筋シンチ検査を行い、その所見から、除細動が可能かの判定に役立て る事が出来ると思われた。 なお,本文末尾以外に登場する一般論については,患者に実際に見られた症例とは区別して, Nタグを付与することとした. ## 本文末尾以外に登場する一般論の例 a. $<\mathrm{N}>$ 平滑筋肉腫 $</ N>$ は、進行又は再発症例では有効な治療法が確立されておらず、 その予後も不良であるのが現状である。今回我々は Ge m c i t a b i n e / Do c e t a x e 1 の化学療法にて予後の改善が得られた後 $<P>$ 腹膜原発平滑筋肉腫肝転移 $</ P>$ の 1 例を経験したので報告する。... ## 4.6 作業者間一致率 本節でこれまで述べてきた, 病名夕グ付けの基準の妥当性を調査するため, 実際に作業に従事した 10 名のうち 2 名(非医療従事者)がランダムに抽出された 100 件の症例報告を対象に行ったタグ付け結果について,一致率の評価を行った. 評価は一方の作業者の作業結果を正解, もう一方の結果をシステムの出力結果とみなし, 再現率 (recall), 精度 (precision), F 値を算出した。正解か否かについては,夕グ種類とタグ範囲が共に一致した場合に正解,それ以外は全て不正解とした。結果を表 4 に示す. まず,病名に関するタグ(P夕グ, $\mathrm{N}$ タグ)付与の不一致の原因について述べる,P夕グについては,「菲薄化」「心室細動」などの医学用語に関する知識の差が原因とみられる不一致がみられた。一方, $\mathrm{N}$ タグについては,P夕グに比べ一致率が低くなる傾向がみられた。また,作業者間で SKIP タグの範囲が異なる場合,その範囲の P タグと $\mathrm{N}$ タグは一方で作業対象となるが,もう一方では SKIP タグの範囲内として処理されることになり,必ず不一致が生じる。このため, P夕グ, N夕グの一致率は SKIP夕グの一致率にも影響される. SKIP タグについては一致率が顕著に低い値となった. 不一致の場合, 同一の症例報告に対し,両方の作業者がSKIP タグを付与しているものの,その範囲が異なっている例が散見された。そのような例を,原因とともに $(29),(30)$ に示す. 表 4 タグ付与についての作業者間一致率 表 5 タグ範囲が一致した場合の作業者間タグ種類一致率 ## 一般論や考察部分とも, 患者に関しての言及とも捉えることが可能で判断が分かれる 場合 a. 考察:不明熱にて発症し、確定診断まで難渋した症例を経験した。<SKIP/>A b i ot rophia defectivaは... b. <SKIP/>考察:不明熱にて発症し、確定診断まで難涉した症例を経験した。Abio trophi a def ect i v aは... ## 位置がほぼ一致しているが,開始時点の見出しの扱いに相違が見られる場合 a.【考察】<SKIP/>透析患者における悪性リンパ腫の報告は少ない。... b. <SKIP/>【考察】透析患者における悪性リンパ腫の報告は少ない。... このように,何をもって一般論・考察の開始とするかについては判断が難しいと考えられ,今後ガイドラインの検討を要する。また,見出しの取扱いについてもガイドラインの修正が必要である. 両作業者が同一の範囲に $\mathrm{P}$ タグもしくは $\mathrm{N}$ タグを付与した場合についても同様に,一方の作業者の結果を正解,もう一方の作業者の結果を出力とみなし評価した(表 5)。なお,SKIP夕グについては $\mathrm{P}$ ダや $\mathrm{N}$ タグと同一範囲に付与された例は見られなかった. 結果として, $\mathrm{F}$ 値が 98.6 と高い一致率を示した。 ## 5 病名コーディング 病名コーディングとは,前節で述べた病名タグ付けの作業によって症例報告の文章中から抽出された症状や疾患を表す表現に対して, ICD コードと標準病名を属性として付与する作業である。なお, 病名コーディングは, P夕グが付与された表現のみを対象とする。この作業は, 先の病名タグ付けとは異なり, 医療知識を有する医療従事者が行った。 本研究では,コーパスの作成にあたり 3 名の医療従事者(以下,「作業者」と呼ぶ)が病名コー ディングの作業を担当した。 コーディングにあたっては, 3 名の作業者が意見を交換しつつ,P タグが付与された表現に対して可能な限り ICDコードを付与することを目指し,コーディングを実施した,本節では,病名コーディング作業の基本的な手順,およびコーディング作業にあたっての留意点について述べる。 ## 5.1 コーディング作業の手順 病名コーデイングの作業には万病辞書を用いた。万病辞書とは, 奈良先端科学技術大学院大学が開発しているデータベースであり, ICDコードと, それに対応する標準病名が記載されている ${ }^{9} 、$ コーディング作業は, $\mathrm{P}$ タグが付与された表現と, 万病辞書に記載された項目との一致を利用して行った。 具体的なコーディング作業の流れは次の通りである.P夕グが付与された表現について,まず,全文一致検索による自動コーディング処理を行い,そこでコーディング処理がされなかったものについては,作業者が人手によるコーディングを行った。詳細な手順を以下に述べる. ## 5.1.1 自動コーディング P タグが付与された全ての表現を万病辞書で全文一致検索する. 万病辞書の記載に全文一致する項目が見つかった場合,その項目に対応するICDコードを付与する。 ## 5.1.2 人手によるコーディング 人手によるコーディングは, (I) 全文一致検索に基づくコーディングと, (II) 部分一致検索に基づくコーディングの 2 段階に分かれる。それぞれの手順を以下に述べる. ## (I) 全文一致検索に基づくコーディング 先の自動コーディング処理による全文一致検索の取りこぼしを補うため, P夕グが付与された表現のうち,略語や英語を伴う表現をパラフレーズしながら万病辞書で検索を行う.全文一致する項目が見つかった場合,そのICDコードを付与する. 例えば,(31)では “Wegener” という英語表記が用いられている。この語は,「ウェゲナー」あるいは「ウェジナー」と読まれることもあるため,「ウェゲナー」もしくは「ウェジナー」としても検索を行う (31) Wegener(ウェゲナー, ウェジナー)肉芽腫(M313:多発血管炎性肉芽腫症) (II) 部分一致検索に基づくコーディング P夕グが付与された表現について, 万病辞書と全文一致する項目がみられない場合, 部分的に一致する項目を検索したうえで,対応する ICDコードを付与する.部分検索は,P夕グを付与された表現が最も多くの修飾語を含む状態から始め, 万病辞書内の適切な項目に一致するまで,段階的に修飾語を省略しながら実施する。万病辞書と部分的に一致する項目が見つかった場合,その段階で検索を終了する。 例えば, 「LQT2 型 QT 延長症候群」という表現は, 万病辞書内に全文一致する項目が存在しない.そこで「LQT2 型」という修飾語を省略し,「QT 延長症候群」で万病辞書を検索するこ ^{9}$ http://www.mednlp.jp/dic-ja.html } 表 6 修飾語を伴う病名の例「重症熱性血小板减少症候群(A938:重症熱性血小板症)」 とで,対応する ICDコードである「I490:QT 延長症候群」を見つけることができる。なお,「LQT2 型」は遺伝子の型別を表すと解釈できるため, 病名は「遺伝性 QT 延長症候群」とする. (32) a.「LQT2 型QT 延長症候群」で検索 $\rightarrow$ 一致なし b.「QT 延長症候群」で検索 $\rightarrow$ I490:QT 延長症候群 また,夕グ付けの段階で欠損したと考えられる情報を補完することで対応する ICDコードの特定が可能になる場合は,情報を補完してコーディングを行った,例えば,(33) は病名の一部が欠けた状態で抽出された表現である。この場合,まず「グレン症候群」で検索を行い,部分一致した項目である「シェーグレン症候群」のICDコードを付与した。 (33) グレン症候群(M350:シェーグレン症候群) 修飾語の有無がコーディングに影響する疾患名や病名も存在するため, 部分一致の検索を行う際には特に留意する必要がある(5.2.3 節参照)。なお,部分一致検索にあたって修飾語を省略する際は,表 6 のように修飾語が表す意味のカテゴリごとに区分を設けた。 ## 5.2 コーディング作業の指針 本節では,コーディング作業における具体的な指針について,実例を挙げながら述べる。 ## 5.2.1表記のゆれ P夕グが付与された表現の中には, 同じ疾患や症状を表すものであっても異なる表記で出現するものがある.例えば,「R91:胸部異常陰影」という ICDコードに対応する表現は,(34)のようにさまざまな表記で現れる。このような場合は,表記の異なりを捨象してすべて同一の ICD コードを付与した。 (34) \{スリガラス/すりガラス/スリガラス状/すりガラス状/スリガラス様 $\}$ 陰影 ## 5.2.2 ウェブ上の情報の利用 P タグが付与された表現の中には, 略語で表記されたものや希少疾患, 作業者に馴染みが薄い病名など,一見するとコーディングが難しいものがある。 (35) に例を示す. (35) a. 電撃性紫斑病(D692:紫斑病) b. ペットボトル症候群(E872:ケトアシドーシス) このような表現についても可能な限り ICD コードを付与するために, ウェブサイトの情報を参考にすることもあった。なお, ウェブサイトの情報の利用頻度にはそれぞれの作業者の間で個 人差があった. なお,インターネット上の情報を参照するにあたり,情報の信頼性についても考慮した.特に, 公的機関のウェブサイトや, 日本内科学会症例検索システム「症例くん」 ${ }^{10}$, または検索上位のウェブサイトを参考に,最も妥当であると考えられる ICDコードを付与した。 ## 5.2.3 コーディングの精度 同じ病名を含む表現であっても,修飾語の有無によって対応する ICD コードが異なることがある。そのような場合は最も妥当な分類に対応する ICDコードを付与するように留意した.例えば,(36)に挙げたような修飾語は,コーディングに影響する。(37) はその具体例である。また, (38)のように, 癌に関わる表現は, 「術後」や「再発」などの語の有無によって対応する ICD コードが異なることがある。 (36)二次性, 心因性, 1 型 $\cdot 2$ 型, 原発性, 中枢性, 家族性, 遺伝性, 細菌性, 完全性, 再発性,本態性,疾患部位を表す表現など (37) a. H814:心血管性めまい b. H811:体位性めまい c. T752:低音性めまい d. F456:心因性めまい (38) a. C169:早期胃癌 b. Z080:早期胃癌術後 c. C761:乳癌術後胸壁再発 d. C798: 乳癌術後胸壁転移 ## 5.2.4複数コーディング ある 1 つの P タグが付与された表現に対して, 複数の ICDコードや病名が対応すると考えられる場合, 最大 2 つまでICDコードおよび病名を付与した。 (39) a. 嘔気嘔吐 $(R 11:$ 嘔気・嘔吐症 $)$ b. 脂肪肝合併 2 型糖尿 $(\mathrm{K} 760 :$ 脂肪肝 $\cdot \mathrm{E} 11 : 2$ 型糖尿病 $)$ c. 呼吸障害 (J060:呼吸困難 $\cdot \mathrm{J} 969$ :呼吸不全 $)$ d. 全身関節痛(M2550:多発性関節症・M2559:関節痛) (39a, 39b)のように,2つの語が並列されて 1 つ表現を構成している場合は, それぞれの単語について万病辞書の検索を行ったうえで,対応する ICD コードおよび病名を 2 つまで付与する。また, (39c)のように, 病状の程度を表す表現の意味が曖昧で, 病状の重症度が特定できな  い場合は,対応すると考えられる ICD コードを最大 2 つまで付与する。(39d)のように,作業者の間でコーディングについて意見が分かれ,協議の結果 1 つの ICD コードに断定できなかった場合,最大 2 つまでICDコードを付与する。 なお,P夕グが付与された 1 つの表現に対して,3つ以上の ICDコードが対応すると考えられる場合は,その表現をコーディングの対象外とする。(40) はコーディング対象外とされた表現の例である。 (40) a. 血管炎 b. 血栓 c. 肉芽腫 作業者間での意見の相違と, その解決方法については, 5.4.2 節にて改めて詳述する. ## 5.2.5 医学的知識の利用 コーディングを行う際には,医学的知識を利用して表現の意味を解釈しなければならない場合がある,そのような場合は,解釈を補った上でコーディングを行った. ある検査の異常な結果を表す表現には,その検査異常に対応する ICDコードを付与する。 (41) a. 動脈血ガス(R798:血液ガス値異常) b. 膵性胸水 (R848:胸水検査異常) c. 陰性 T 波 (R943:心電図異常) ある検査で陽性の反応が出たことを示す表現の場合も,その検査結果に対応する ICDコードを付与する。 (42)胸水結核菌陽性(R845:胸水結核菌陽性) 表現中の医学用語を解釈することで対応する ICD コードが同定できる場合は, その ICD コー ドを付与する。例えば (43)では「副腎外」という語が用いられているが,副腎外という人体の部位は存在しないため,「異所性」を含む病名を付与する。 (43)副腎外褐色細胞腫(D447:異所性褐色細胞腫) 病状の程度を含む表現は, 病状の程度を解釈し, それに応じて対応する ICD コードを付与する。 (44) a. 腎機能障害(N289:腎機能低下) b. 腎障害(N289:腎障害) c. 急性腎障害(N289:腎障害) d. 腎病変(N289:腎疾患) e. 腎機能異常 (R944:腎機能検査異常) f. 軽度腎機能障害(N289:腎機能低下) 疾患を特定できる臨床所見を表す表現には,対応する疾患のICD コードを付与する. (45) a. 骨破壊(M0690:関節リウマチ) b. ニボー像(K567:イレウス) 症状を表す表現であっても,対応する ICDコードが存在する場合は,そのコードを付与する. (46) a. 脱水 ( $\mathrm{E} 86$ : 脱水症) b. めまい (R42:めまい) ## 5.2.6 コーディング対象外の表現 以下に挙げる表現は,コーディングの対象外とした。 (47)患者に生じている疾患, 症状を表さない表現 a. 急性期 b. ステージ II c. 予後不良 (48)細胞変性などを表す表現 a. $\bigcirc$ 変化 b. $\bigcirc$ 浸潤 c. 形態異常 (49)病変部位を 1 つに特定できない表現 a. 多発潰瘍 b. 囊胞 c. 基礎疾患 (50)意味が漠然としており,対応する ICD コードが推測できない表現 a. 拡張 b. 貯留 c. 多発病変 d. 偶発症 (51)部分一致検索で対応項目が見つからず,ICDコードを推測できない表現 a. 症 b. 壁運動障害 c. 囊胞状 (52)検査所見を表す表現(「R91:胸部異常陰影」に対応する表現を除く) a. ○○状陰影 b. 狭窄所見 c. 壁肥厚 d. low density area e. 異常集積 ## 5.3 病名コーディングの具体的作業 本節では,コーディング作業の具体的な内容について述べる。特に, 作業者間でのコーディング作業の分担およびコーディングの結果について詳しく述べる. ## 5.3.1 コーディング作業の分担 病名のコーディングは,コーディング対象デー夕の総数 13,207 件のうち, 自動コーディング処理がされた 4,603 件を除いた 8,604 件のコーディングを 3 名の作業者が担当した. この 8,604 件のうち, 出現頻度が 5,055 回から 30 回までの, 1,071 件の表現については, 3 名全員がコー ディングを行った. 残りの 7,533 件については, 3 名がそれぞれ分担して個別にコーディングを行った. ただし, 判断に迷う場合は 3 名で協議しながらコーディングを実施した. ## 5.3.2 コーディングの統一作業 上述の通り, 高頻度の表現(出現頻度 5,055 回から 30 回の 1,071 件)のコーディングは 3 名の作業者全員が行ったものであるため,3名の間でコーディングの判断が分かれる部分もあった. この 1,071 件のコーディングについては 3 名で協議を行い, 最終的なコーディングを決定した. 最終的なコーディングは, 以下の基準にしたがって決定した. (53) a. 1つのPタグが付与された表現に対し, 3 名全員がコーディングの対象外と判断した場合は,その表現をコーディング対象外とする。 b. 1 つの P タグが付与された表現に対し, 3 名全員が同一の ICDコードを付与した場合は,そのICDコードを採用する。 c. 作業者の間でコーディングについて見解の相違があった場合は,協議を行い,統一したICDコードを付与する。 最終的なコーディング決定に至る手順は次の通りである。(I) 作業者各自が行ったコーディングの結果を照らし合わせた後, (II) 作業者間で意見の対立がある部分について協議し, (III) 最終的なコーディングを決定した。 ## (I) 作業者各自が行ったコーディング結果の照合 まず,それぞれの作業者が個別に行ったコーディングの結果を照合した。この時点で, (53) の基準に従い 3 名の作業者間でコーディング結果が一致した場合,コーディングを確定した.結果を表 7 に示す. また, 作業者間のコーディングの一致率 $(\%)$ を以下の式によって求めた. $ \frac{\text { 作業者間のコーディングの一致数 }}{\text { コーデイングされた表現数 }} \times 100 $ 表 7 コーディングの照合結果 表 8 コーディング作業の一致率 表 9 最終的に決定したコーディングの結果 結果を表 8 に示す. 表 8 では便宜上それぞれの作業者を $h_{1}, h_{2}, h_{3}$ と表記する. 表 8 から, 3 名の作業者全員のコーディングを対照すると, 7 割程度の一致がみられたことがわかる. ## (II) 作業者間での協議 3 名の間でコーディングについて見解の相違がみられた場合,協議を行ったうえで最終的なコーディングを決定した (5.4.2 節参照). ## (III) 最終的に決定したコーディング結果 作業者間での協議の結果, 最終的に決定したコーディングの件数を表 9 に示す. ## 5.4 コーディング作業の問題点 本節では,実際に病名コーディング作業を行った結果,明らかになった問題点について述べる。具体的な問題点としては, ICDコードそのものが抱える問題(5.4.1節)と,3名の作業者間での意見の対立によって生じた問題(5.4.2節)の 2 点がある。以下,それぞれについて述べる. ## 5.4.1ICD コードそのものが抱える問題 病名コーディングの作業を行う中で, ICD コードの分類や表記が抱える問題が示唆された. この問題は,ICDコードそのものが原因であるため,コーディング作業者の努力だけでは解決することができなかった. 今後の課題といえる. まず,ICDコードが,どのような基準によって分類されているか不明確なため, $\mathrm{P}$ タグを付与された表現に対応する ICD コードの検索や同定が困難になることがあった。例えば,(54) は,類似した病名に対応するが異なる分類をもつICD コードの例である. (54) a. N40:前立腺症 b. N429:前立腺障害 また,さまざまな部位に発生すると考えられる疾患ではあるが,特定の部位についての ICD コードしか存在しないため, 推測によるコーディングをしなければならない場合があった. (55) a. 伸展不良(Q344:軟産道伸展不良) b. 側副血行 (Q258:主要大動脈肺動脈側副血行路) ICD コードに対応する病名の表記にゆれがあり,検索が困難になることがあった。 (56) a.「癌」と「がん」 b. 「囊胞」と「のう胞」 ## 5.4 .2 作業者間での意見の対立によって生じた問題 コーディング作業は, 3 名の作業者が行ったものであるため, 意見の相違が生じることもあった. この問題に対しては, 作業者間で協議を行うことによって解決を試みた。本節では, 作業者間の意見の相違から生じた問題と, その解決法について述べる. 具体的な問題としては, (I) P タグが付与された表現のコーディング可否についての問題と, (II) P タグが付与された表現にどの ICD コードを付与するかという 2 つ問題が生じた. ## (I) コーディング可否の問題 ある P タグが付与された表現をコーディングの対象とみなすかどうかという基準について, 3 名の作業者の間で意見が分かれることがあった。本コーパスの目的からすると, P夕グが付与された表現には可能な限りコーディングをすることが望ましい. しかし, 作業者の主観的な推測によって,本来コーディングの対象外である表現にまでコーディングをするようなことは避けなければならない. 例えば,作業者の中には,(57) に挙げた表現には対応する ICD コードの存在が推測できるため,コーディング可能であるという意見があった(カッコ内はコーディング候補).しかし,これらの表現は,ある疾患や症状の発生を推測する手掛かりになりうる表現ではあるものの,患者に生じている疾患や症状そのものを示す表現ではない。そこで, このような場合はコーディングの対象外と判断した (57) a. 転移(C80:転移性腫瘍 $)$ b. 単核球(B270:EB ウイルス伝染単核症, B279:伝染性単核症) c. 止血困難 (R58 : 出血) 画像所見を表す表現に対しても,可能な限りコーディングを施した。たたし,コーディング の対象は,実際に患者にその症状が生じていることが明らかな表現に限った.例えば,(58)に挙げた「腫瘤影」や「腫瘤陰影」という表現は, 患者の身体に腫瘤が存在することを示唆するため,「R229:腫瘤」のICDコードが対応するという意見があった。しかし,「腫瘤影」や「腫瘤陰影」という表現は,実際に患者の身体に腫瘤が存在がしているかどうかにかかわらず,腫瘤を疑わせる影が認められるだけの場合でも用いることができる。これに対して,「腫瘤形成」 や「腫瘤病変」といった表現は,医師が患者を診察した結果,腫瘤が存在することを確認した場合に用いられる。したがって,最終的に「腫瘤影」と「腫瘤陰影」は,実際に患者の身体に腫瘤が存在していることが明らかではない表現と判断して,コーディングの対象外とした. (58) a. 腫瘤影(コーディング対象外) b. 腫瘤陰影 (コーディング対象外) c. 腫瘤像 (R229:腫瘤) d. 腫瘤形成 (R229:腫瘤) e. 腫瘤病変 (R229:腫瘤) なお, 異常陰影を表す表現も画像所見であるが,「R91:胸部異常陰影」のみ ICD コードが存在するため, 胸部の陰影を表すと解釈できる表現についてはコーディングを行った. (59) スリガラス陰影 (R91:胸部異常陰影) ## (II) 対応する ICD コードの問題 P夕グが付与された表現の中には, 作業者によって, どの ICDコードを付与するか見解が分かれたものがあった。そのような場合, 3 名の作業者で協議したのち, 統一したICDコードを付与するか,統一できない場合は 2 つまでICDコードを付与した.(60)は多数意見を採用した例である。なお,以下では 3 名の作業者をそれぞれ $h_{1}, h_{2}, h_{3}$ と表記し,それぞれが行ったコー ディング結果をカッコ内に例示する. (60) 心窩部不快感 (R198:心窩部不快) $h_{1}, h_{2}, h_{3}$ :(R198 : 心窩部不快, R198:心窩部不快, R908:胸部不快) なお, ICDコード付与の判断にあたっては,必ずしも多数意見を採用するのではなく,特に重要と思われるものであれば少数意見も採用した. (61)はその例である. (61)虚血性小腸炎(K559:虚血性腸炎) $h_{1}, h_{2}, h_{3}$ :(K529:小腸炎, K529:小腸炎, K559:虚血性全腸炎) また,1つの表現に対応する ICDコードを 1 つに断定できない場合は,5.2.4 節に示した基準に依拠して,2つまでICDコードを付与した. (62) 呼吸障害 (J060:呼吸困難 - J969:呼吸不全) $h_{1}, h_{2}, h_{3}$ :(R060:呼吸困難, J969:呼吸不全, R060:呼吸困難) ## 6 応用システム:病名抽出器の構築 ここまで,医療テキストコーパスの構築方法について述べてきたが,本節ではこのコーパスを用いた応用システムの可能性について議論する。本コーパスの最も素朴な応用は, このコー パスを学習データとして類似症例検索システムや診断支援システムといった, 様々な高次の応用システムで利用可能な病名抽出器を作ることである. 以下では, タグ付けされていない医療テキストから自動で病名を抽出する病名抽出器の概要について述べる。なお, 前節までは疾患名・症状名などを区別してきたが,本節では 4 節で夕グ付け対象とされていたものを単に病名と呼ぶことにする。 ## 6.1 病名抽出器の処理 前節までに説明した医療テキストコーパスを教師データとして用いて, 病名を自動で抽出する病名抽出器を開発した. 以下では, 本病名抽出器の処理方法について述べる. 提案する病名抽出器は以下の 2 つの処理を同時に行う. (i) 事象認識 (ER): 医療テキストにおける病名および疾患名を識別する。これは,一般的な固有表現認識タスクと類似した処理である。以降,この処理を ER (Entity Recognition) とも呼ぶ. (ii) 陽性/陰性 $(\mathrm{P} / \mathrm{N})$ 分類:テキスト中の $\mathrm{P}$ タグと $\mathrm{N}$ タグの区別を行うタスクである。以降, この処理を $\mathbf{P} / \mathbf{N}$ 分類と呼ぶ. 病名抽出器の 2 つの処理は,4節で説明したアノテーションによる病名タグと対応している。夕グの学習にあたっては, 文字単位で事象認識と事象の事実性判別を同時に系列ラベリングの問題として解いた。一般的に, 医療テキストには長く複雑な複合名詞(例えば, 「傍大動脈リンパ節郭清」など)や,ひらがなのみからなる医療用語(例えば,「びまん」など)が多く出現することにより, 形態素解析の誤りがしばしば発生する。 そのため, 病名抽出器では, 単語単位ではなく,より頑健な文字べースでの解析 (Asahara and Matsumoto 2003) を採用した. 図 2 に文字ベースでの系列ラベリングと単語ベースでの系列ラベリングの違いを示す. 事実性の判定に関しては, これまでにも多くの先行研究があるが (北川, 小町, 荒牧, 岡崎,石川 2015; 松田, 吉田, 松本, 北 2016), 本研究では一般的かつ実装が簡易な手法でコーパスの規模と精度の関係を調査するため,事象認識のラベルとして事実性を表現した。通常,事実性判定(P/N 分類)は事象認識の後に適用される。しかし, $\mathrm{P} / \mathrm{N}$ 分類に必要な情報は ER で必要な情報と重複する部分も多い. 例えば,「〜が認められる」「〜が認められない」は,ともに病名出現の大きな手がかりであるとともに, $\mathrm{P} / \mathrm{N}$ 分類の手がかりにもなる.このため, $\mathrm{ER}$ と $\mathrm{P} / \mathrm{N}$ 分類の 2 タスクを 1 つに融合する方式を採用した. # 6.2 実験 6.1 節では, 医療テキストコーパスの応用システムとして, 病名抽出器の処理方法について述べた。 以下では, 実際に病名抽出器を用いて症例報告に自動夕グ付けを行い, 精度について評価を行った。まず,教師データには夕グ付けにより病名に対して P夕グ, $\mathrm{N}$ タグが付与された 500 件の症例からなるコーパスを用いた。なお,本タスクは病名抽出を目的としているため, コーパスの SKIP タグを削除し,本来 SKIP タグがあった箇所以降も通常のP タグ,N タグの基準によって夕グ付けを行った。前処理として,初めにテキストデータを文に分解し,一般の固有表現抽出の手法にしたがって, 文字単位で開始 (B), 内側 $(\mathrm{I})$, 外側 $(\mathrm{O})$ の IOB2 ラベルを付与した(図 2)。系列ラベリングの学習には $\mathrm{CRF}^{11}$ を用いた。表 10 に CRF で用いた文字べー スの特徴テンプレートを示す. 特徴として表層文字と文字種(漢字, ひらがな, カタカナ, 英数字)のみを用いた. ウィンドウサイズは前方 2 文字, 後方 5 文字に設定した. 後方のウィンドウサイズを大きく設定したのは, $\mathrm{P} / \mathrm{N}$ 分類の手がかりとなる, 否定に関わる述語が病名の後方に現れるためである. 評価は 500 件の症例報告を用いた 10 分割交差検証で行い, 結果は $\mathrm{ER}$ と $\mathrm{P} / \mathrm{N}$ 分類を個別に評価した。表 11 に $\mathrm{ER}$ の結果,表 12 にタグ, $\mathrm{N}$ タグのそれぞれの抽出性能を示す. 評価 \begin{abstract} スカテキスト 腫瘤は肝細胞癌ではなく肝の孩立性形質細胞腫と診断された。 \end{abstract} 単語ベース系列ラベリング 文字ベース系列ラベリング ## タグ付き出カテキスト 腫㿔はくN>肝細胞癌く/ $N>$ ではなく肝のくP>孤立性形質細胞腫く/ $P>$ と診断された。 図 2 提案する病名抽出器による医療テキストからの病名抽出の例, ならびに, 単語べースの系列ラベリングと文字ベースの系列ラベリング(本病名抽出器で適用)の比較 表 10 文字ベース CRF における特徴テンプレート  表 11 病名抽出器による $\mathrm{ER}$ の精度 表 $12 \mathrm{P} / \mathrm{N}$ 分類の精度 (a) P タグ抽出性能 (b) $\mathrm{N}$ タグ抽出性能 は CoNLL200012で提供されたツールを用いた。比較のために単語べース CRFでの結果も並記する. 結果としては, ER, P/N 分類いずれにおいても, 若干であるが文字べースによる手法が単語ベースによる手法の性能を上回った. ER については 85.0 以上の高い精度であり,P夕グについても 80.0 以上の高い精度での抽出に成功している。一方, $\mathrm{N}$ タグについては,文字べースでも 55.0 と低い精度であった(いずれも評価指標は $\mathrm{F}$ 値)。この原因の 1 つとしては,P夕グに比べて N夕グの出現頻度が低いことが考えられる。また,もう1つの原因として,陰性であると判断するためには,設定よりも大きな文脈を要する場合があり,CRFではこれが困難であることが挙げられる. 本医療テキストコーパスを利用し,いかに $\mathrm{N}$ タグを高い精度で捉えられるかが今後の課題の 1 つである。なお,本システムはウェブサイト 13 にて配布している。 ## 7 おわりに 本稿では, 自然言語処理による電子カルテからの情報抽出に必須となる, 病名がアノテーションされたコーパスの開発について述べた。また, 実際にアノテーターが作業した際の問題を, 一致率を含め議論を行った。 さらに、コーパスを用いて構築した病名抽出器を題材に,コーパスの応用可能性について議論した. 本稿のアノテーション仕様が,今後の医療分野におけるコー パス開発の一助となることを祈念する.  ## 謝 辞 本研究の一部は国立研究開発法人日本医療研究開発機構(AMED)の臨床研究等 ICT 基盤構築研究事業 : 総合診療医の診療支援及び診療業務効率化の支援基盤構築に関する研究(課題番号:16930323)の支援によって行われた。また,本論文の内容の一部は,言語処理学会第 23 回年次大会で発表したものである (荒牧, 岡久, 矢野, 若宮, 伊藤 2017). ## 参考文献 Aramaki, E., Miura, Y., Tonoike, M., Ohkuma, T., Mashuichi, H., and Ohe, K. (2009). "Text2table: Medical Text Summarization System Based on Named Entity Recognition and Modality Identification." In Proceedings of the Workshop on Current Trends in Biomedical Natural Language Processing, pp. 185-192. Association for Computational Linguistics. Aramaki, E., Morita, M., Kano, Y., and Ohkuma, T. (2014). "Overview of the NTCIR-11 MedNLP-2 Task." In Proceedings of the 11th NTCIR Conference, pp. 147-154. Aramaki, E., Morita, M., Kano, Y., and Ohkuma, T. (2016). "Overview of the NTCIR-12 MedNLPDoc Task." In Proceedeings of the 12th NTCIR Conference on Evaluation of Information Access Technologies, pp. 71-75. 荒牧英治, 岡久太郎, 矢野憲, 若宮翔子, 伊藤薫 (2017). 大規模医療コーパス開発に向けて. 言語処理学会第 23 回年次大会発表論文集, pp. 1200-1203. 言語処理学会. Asahara, M. and Matsumoto, Y. (2003). "Japanese Named Entitiy Extraction with Redundant Morphological Analysis." In Proceedings of HLT-NAACL 2003, pp. 8-15. Bouchet, C., Bodenreider, O., and Kohler, F. (1998). "Integration of the Analytical and Alphabetical ICD10 in a Coding Help System. Proposal of a Theoretical Model for the ICD Representation." Medinfo 1998, 9 (1), pp. 176-179. Fabry, P., Baud, R., Ruch, P., Le Beux, P., and Lovis, C. (2003). "A Frame-based Representation of ICD-10." Studies in Health Technology and Informatics, 95, pp. 433-438. 科学技術振興機構研究開発戦略センター (2017). 研究開発の俯瞰報告書:ライフサイエンス・臨床医学分野(2017 年). 技術資料, 国立研究開発法人科学技術振興機構. Kelly, L., Goeuriot, L., Suominen, H., Schreck, T., Leroy, G., Mowery, D. L., Velupillai, S., Chapman, W. W., Martinez, D., Zuccon, G., and Palotti, J. (2014). "Overview of the ShARe/CLEF eHealth Evaluation Lab 2014." In Information Access Evaluation: Multilinguality, Multimodality, and Interaction, Vol. 8685, pp. 172-191. Springer, Heidelberg; New York; Dordrecht; London. 北川善彬, 小町守, 荒牧英治, 岡崎直観, 石川博 (2015). インフルエンザ流行検出のための事実性解析. 言語処理学会第 21 回年次大会発表論文集, pp. 218-221. 松田紘伸, 吉田稔, 松本和幸, 北研二 (2016). Twitter を用いた病気の事実性解析及び知識べー ス構築. In Proceedings of the 30th Annual Conference of the Japanese Society for Artificial Intelligence, pp. 1-4. Morita, M., Kano, Y., Ohkuma, T., Miyabe, M., and Aramaki, E. (2013). "Overview of the NTCIR-10 MedNLP Task." In Proceedings of the 10th NTCIR Conference, pp. 696-701. Uzuner, O. (2008). "Second i2b2 Workshop on Natural Language Processing Challenges for Clinical Records." In AMIA Annual Symposium Proceedings, pp. 1252-1253. WHO (1992). ICD10: International Statistical Classification of Diseases and Related Health Problems. World Health Organization. http://www.who.int/classifications/icd/en/. Yamada, E., Aramaki, E., Imai, T., and Ohe, K. (2010). "Internal Structure of a Disease Name and Its Application for ICD Coding." Studies in Health Technology and Informatics, 160 (2), pp. 1010-1014. ## 略歴 荒牧英治:2000 年京都大学総合人間学部卒業. 2005 年東京大学大学院情報理工系研究科博士課程修了. 博士 (情報理工学). 以降, 東京大学医学部附属病院特任助教を経て, 奈良先端科学技術大学院大学特任准教授. 医療情報学, 自然言語処理の研究に従事. 若宮翔子:2013 年兵庫県立大学大学院環境人間学研究科博士後期課程修了. 博士(環境人間学).以降,京都産業大学コンピュータ理工学部研究員を経て,2015 年より奈良先端科学技術大学院大学博士研究員. ソーシャル・コンピューティングに関する研究に従事. 情報処理学会会員. 矢野憲: 2009 年広島大学大学院工学研究科情報工学専攻博士後期課程修了. 博士 (工学). 以降, 大阪大学臨床医工学融合研究教育センター技術補佐員,福岡大学工学部ポストドクター, 国際電気通信基礎技術研究所研究技術員を経て, 2016 年より奈良先端科学技術大学院大学博士研究員. 機械学習, 自然言語処理に関する研究に従事. 情報処理学会, 電子情報通信学会, 人工知能学会各会員. 永井宥之:2017 年京都大学大学院人間・環境学研究科修士課程修了. 修士 (人間・環境学),現在,同大学院博士後期課程在学中,専門は日本語学,認知言語学。日本認知言語学会会員. 岡久太郎:2016 年京都大学大学院人間・環境学研究科修士課程修了. 修士 (人間・環境学). 現在, 同大学院博士後期課程在学中. 専門は認知言語学. コミュニケーション研究, マルチモーダル研究. 日本語用論学会, 日本社会言語科学会各会員. 伊藤薫 : 2012 年京都大学大学院人間・環境学研究科修士課程修了. 修士 (人間・環境学). 現在, 奈良先端科学技術大学院大学研究員. 自然言語処理に関する研究に従事. 専門は認知言語学, 談話・テクスト言語学. 言語処理学会,日本認知言語学会, 日本語用論学会各会員. $(2017$ 年 5 月 22 日受付) $(2017$ 年 8 月 7 日再受付) $(2017$ 年 9 月 21 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 二値符号予測と誤り訂正を用いたニューラル翻訳モデル \author{ 小田悠介 ${ }^{\dagger, \dagger \dagger} \cdot$ Philip Arthur ${ }^{\dagger} \cdot$ Graham Neubig ${ }^{\dagger,+\dagger \dagger}$ $\cdot$ \\ 吉野幸一郎 ${ }^{\dagger,+\dagger \dagger \dagger}$ ・中村哲 $\dagger$ } 本論文では, ニューラル翻訳モデルで問題となる出力層の時間・空間計算量を, 二值符号を用いた予測法により大幅に削減する手法を提案する。提案手法では従来のソフトマックスのように各単語のスコアを直接求めるのではなく, 各単語に対応付けられたビット列を予測することにより,間接的に出力単語の確率を求める。これにより, 最も効率的な場合で従来法の対数程度まで出力層の計算量を削減可能である.このようなモデルはソフトマックスよりも推定が難しく, 単体で適用した場合には翻訳精度の低下を招く。このため, 本研究では提案手法の性能を補償するために, 従来法との混合モデル,および二值符号に対する誤り訂正手法の適用という 2 点の改良も提案する。日英・英日翻訳タスクを用いた評価実験により, 提案法が従来法と比較して同等程度の BLEU を達成可能であるとともに, 出力層に要するメモリを数十分の 1 に削減し, CPU での実行速度を 5 倍から 10 倍程度に向上可能であることを示す. キーワード:ニューラル翻訳,二値符号予測,誤り訂正 ## Neural Machine Translation Models using Binarized Prediction and Error Correction \author{ Yusuke Oda $^{\dagger, \dagger \dagger}$, Philip Arthur ${ }^{\dagger}$, Graham NeubiG ${ }^{\dagger, \dagger \dagger \dagger}$, Koichiro Yoshino ${ }^{\dagger,+\dagger \dagger \dagger}$ \\ and Satoshi NaKamura ${ }^{\dagger}$ } In this paper, we propose a new method for calculating the output layer in neural machine translation systems with largely reduced computation cost based on binary code. The method is performed by predicting a bit array instead of actual output symbols to obtain word probabilities, and can reduce computation time/memory requirements of the output layer to be logarithmic in vocabulary size in the best case. In addition, since learning proposed model is more difficult than softmax models, we also introduce two approaches to improve translation quality of the proposed model: combining softmax and our models and using error-correcting codes. Experiments on English-Japanese bidirectional translation tasks show proposed models achieve that their BLEU approach the softmax, while reducing memory usage on the order of one  tenths, and also improving decoding speed on CPUs by x5 to x10. Key Words: Neural Machine Translation, Binalized Prediction, Error Correction ## 1 はじめに 機械翻訳システムでより多くの文を対象に翻訳精度を維持したい場合, その量に応じた大きさの語彙をシステムが取り扱う必要がある。語彙サイズは様々な機械翻訳手法の性能や効率に影響を及ぼすが,特に近年活発に研究されているニューラル翻訳モデル (Sutskever, Vinyals, and Le 2014) では, 語彙サイズの増加に伴う影響が顕著である. 図 1 はエンコーダ (Encoder: 符号化器), デコーダ (Decoder: 復号器) および注意機構 (Attention) と呼ばれる個々のネットワーク構造からなる翻訳モデル (Bahdanau, Cho, and Bengio 2014; Luong, Pham, and Manning 2015) であり,ニューラル翻訳モデルとして典型的に使用される構造である。 エンコーダは入カシンボル列を連続空間上のベクトル集合に変換し,この情報をもとにデコーダが出力シンボルを 1 個ずつ順に決定する。エンコーダとデコーダの内部構造はモデルによって様々であり,典型的には複数のリカレントニューラルネットワーク (Recurrent Neural Network: RNN)を用いて構成される。注意機構はエンコーダが生成したべクトルに関する重み付き和を与えるモデルで,デコーダが次回のシンボル推定に使用する文脈情報を生成する. ここで, ニューラルネットワークで単語等の離散的なシンボルを扱う場合, モデルの入出力 図 1 エンコーダ・デコーダモデルに注意機構を導入した典型的なニューラル翻訳モデルの概観. このうち, 出力層における内部べクトルから単語への変換が大きな計算負荷となる. 層でシンボルと内部ベクトルとの相互変換を行う必要がある。この特徴は特に出力層側で問題となる。入力層側は毎回特定の単語が与えられるため,無関係な単語に関する計算は行われないのに対し, 出力層側はあらゆる候補の中から妥当な出力単語を選択する必要があるためである. 単語選択のアルゴリズムとして語彙サイズに対する時間・空間計算量の大きな手法を選択した場合,実質的な計算コストが語彙サイズに依存することとなり,翻訳モデルを構築・運用する上での問題となる。実際,ニューラルネットワークによる単語推定で最も単純かつ標準的な手法であるソフトマックス演算は,語彙に含まれる全単語のスコアを隠れ層の一次結合として愚直に計算するため, 計算量は語彙サイズに比例する。このため, 出力層の計算をいかにして軽量化するかが重要な課題であると言える. この問題はよく認識されており,2.2で紹介するように,従来様々な解決手法が提案されてきた. 出力層を改良するにあたっての着眼点は様々であり, 従来手法が何を重点的に解決しようとしているかはそれぞれ異なる。この中で, 特に重要と考えられる 4 つの観点を以下に示す.翻訳精度手法を適用した際, 平均的な翻訳精度が大幅に低下してはならない. 特に, 単純なソフトマックスと比較して同等程度の性能が維持可能, あるいは, 可能であればより高い性能を達成可能である手法が望ましい. 空間効率(使用メモリ量) 膨大なメモリを必要とする手法を実行するためには大規模かつシステムが専有可能な計算資源が必要であり, 携帯デバイス等の計算資源の制約の強い機器での直接実行には適さない,多くの環境に搭載可能なシステムを構築するためには,手法自体が可能な限り少ないメモリ消費の下で動作可能である必要がある. 時間効率(実行速度) 可能な限り高速に動作する手法が望ましい。高速にパラメータを学習可能であればシステムをチューニングする利便性が向上し, また運用時に高速なシステムは計算資源やユーザへの負担を減少させることとなる,空間効率と同様に,運用時に強力な計算資源が使用可能とは限らず, このため非力な CPUでも効率的に動作可能な手法がより望ましい. 並列計算との親和性運用時とは対照的に, パラメータの学習時には GPU 等の強い並列性を持つ計算資源を使用することができる場合がある.並列化の容易な手法であれば,学習時にこれらの強力な計算資源の恩恵に与ることが可能である. これらの観点のうち,いずれの項目を特に重視するかが手法自体の特徴となる。提案手法では特に空間効率と時間効率に関して,モデルの定式化段階での計算量を削減することに主眼を置き, 翻訳精度は既存手法で最も表現力の高いソフトマックスモデルと同等程度の実現を目標とした. 提案手法による出力層はソフトマックスとは異なり,語彙中の単語に対して直接スコアを計算することは行わない,その代わり,各単語に一意な二値符号を割り当て,そのビット列を単語の表現として出力層で学習することで,間接的に単語の推定を行う。この手法を用いること で, 最も理想的な場合で $2^{n}$ 種類の単語を $n$ ビットのみを使用して表現することが可能となるため, その推定に必要な時間・空間計算量を語彙サイズ $V$ に対して $O(\log V)$ まで減少させることが可能となる. 提案手法の基本的なアイデアはこのように単純だが,実験で示すように,単に二値符号のみを用いる手法では翻訳精度が従来手法と比べて大幅に低下してしまうという問題がある。本論文では更に,この問題に対して 2 種類の観点から提案手法を改良する手法を導入する。まず,従来のソフトマックスモデルを部分的に導入することで,高頻度語と低頻度語を分離して学習可能とする手法を提案する。また,二値符号そのものの頑健性を向上させるために,誤り訂正符号, 特に畳込み符号 (Viterbi 1967) による宇長化を施す. 実験では,二值符号予測とこれらの改善手法について,難易度の異なる 2 種類の英日・日英翻訳タスクを用いて翻訳精度の比較を行った。この結果より, 提案手法が従来のソフトマックスと遜色ない翻訳精度を達成可能であるとともに, 出力層の動作に必要なパラメー夕数, および計算時間の両面においてソフトマックスよりも優れていることを示す. ## 2 詳細な問題定義と従来研究 ## 2.1 単純なソフトマックスモデルの定式化 近年のニューラル翻訳モデルでは, 多くのモデルがワンホット表現と呼ばれる単語の表示手法を入出力層に導入している。つまり, 語彙サイズ $V$ と同じ数の次元の連続空間 $\mathbb{R}^{V}$ を考え, このうちある単語 $\operatorname{ID} \operatorname{id}(w) \in\{x \in \mathbb{N} \mid 1 \leq x \leq V\}$ に対応する次元のみ 1 , 他の次元を 0 とする単位べクトル $e_{\mathrm{id}(w)} \in \mathbb{R}^{V}$ を単語の表現と見なす. 本研究では特に出力層について着目するため, 以降は単語や語彙に関する用語は全て目的言語側のみを指して用いることとする。さて, $\mathbb{R}^{V}$ の部分空間 $ \mathbb{R}_{\text {Cat }}^{V}:=\left.\{\boldsymbol{x} \mid \boldsymbol{x} \in \mathbb{R} \wedge \forall i .0 \leq x_{i} \leq 1 \wedge \sum_{i=1}^{V} x_{i}=1\right.\} $ は $V$ 次元のカテゴリカル分布の空間を表し, 各 $e_{\mathrm{id}(w)}$ はちょうどその頂点に位置する. ここから,ワンホット表現で得られるべクトルは特定の語彙を定義域とする確率質量関数の一種と見なすことができる。ここで添字付き細字変数 $x_{i}$ はべクトル $\boldsymbol{x}$ の $i$ 番目の要素を表し,以降の式においても,他のベクトルに対して同様の記法を用いるものとする. 典型的なニューラル翻訳モデルの出力層では, 出力された $V$ 次元ソフトマックス確率分布 $\boldsymbol{v} \in \mathbb{R}_{\mathrm{Cat}}^{V}$ と, ある単語 $w$ のワンホット表現 $\boldsymbol{e}_{\mathrm{id}(w)}$ との交差エントロピーを最小化するようパラメータを学習する。図 1 に示すように, 出力層は典型的には 1 層の全結合ネットワークと見なすことができ,損失関数の計算は以下の手順となる. $ \begin{aligned} L_{\mathcal{H}}(\boldsymbol{v}, \mathrm{id}(w)) & :=\mathcal{H}\left(\boldsymbol{e}_{\mathrm{id}(w)}, \boldsymbol{v}\right), \\ & =-u_{\mathrm{id}(w)}+\log \sum_{i=1}^{V} \exp u_{i}, \\ \boldsymbol{v} & :=\frac{\exp \boldsymbol{u}}{\sum_{i=1}^{V} \exp u_{i}} \\ \boldsymbol{u} & :=W_{h u} \boldsymbol{h}+\boldsymbol{\beta}_{u} . \end{aligned} $ ここで, $W_{h u} \in \mathbb{R}^{V \times H}$ と $\boldsymbol{\beta}_{u} \in \mathbb{R}^{V}$ は勾配法で学習可能なパラメータであり, $\boldsymbol{h}$ は出力層の計算に用いる隠れ層のベクトル,H は $\boldsymbol{h}$ の次元数を表す。また $\exp \boldsymbol{u}$ はべクトル $\boldsymbol{u}$ に関する要素ごとの指数関数であり,他のベクトルに関しても同様の表記を用いるものとする.ワンホット表現はただ一つの要素が 1 であるべクトルのため, 式 (2)を交差エントロピーの定義に従って分解することで式 (3) が得られる。複数の隠れ層から出力が計算されるネットワークの場合は, $\boldsymbol{h}$ として出力層に直結する全てのべクトルを結合したものを考えればよい. 式 (5)より明らかに, 単純なソフトマックスモデルの計算には $O(H V)$ だけの時間・空間計算量が必要となる.このうち, 隠れ層の次元数 $H$ は典型的には数百から千程度で決め打ちされることが多いのに対し, 語彙サイズ $V$ は使用するコーパスによって数千から数万程度の値を選択することとなり (Sutskever et al. 2014), 出力層の計算量に直接影響を与える. ## 2.2 出力層の軽量化に関する従来手法 出力層の軽量化は, ニューラル翻訳モデルと同様のネットワーク構造を持つモデル群の中心的な話題のひとつであり,様々な着眼点に基づく手法が提案されている。これらの着眼点は以下のようなグループに分類でき,グループの異なる手法はいくつかの例外を除き基本的に併用可能である. 後処理による隠れ層の大きさの削減前述のように, ソフトマックスモデルの計算量は時間 $\cdot$ 空間ともに $O(H V)$ となる。本グループに属する手法は, 学習済みのモデルに対して後処理を行い,隠れ層のサイズ $H$ の大きさを縮小することで,全体的な計算量の圧縮を行うことを目的としている。また, 出力層の直前のみでなく, モデルの隠れ層全体を削減する手法についても本グループに属するものと考えられる. このような考えに基づく一般的な手法としては, 学習済みパラメータのノルムを比較し,実際の計算への寄与が小さいものを削除してしまう重み枝刈り (Weight Pruning) (See, Luong, and Manning 2016),学習済みモデルの最終的な出力を教師データとし,これを再現するより小さなモデルを再学習する蒸留 (Distillation) (Kim and Rush 2016) などが挙げられる。いずれの手法においても,その着眼点は隠れ層側の圧縮であり,語彙サイズ $V$ に関しては元の計算量が維持される点に特徴がある. 確率分布の変形本グループに属する手法は, 隠れ層のサイズ $H$, 及び語彙サイズ $V$ を変えず,最終的な確率の定式化に変更を加えることで計算量を削減することを目的としており,後述するように本論文の提案手法はこのグループに属する. 階層的ソフトマックス (Hierarchical Softmax) (Morin and Bengio 2005)では, 二分木を用いて単語を階層的にクラスタリングした後, 木の根から左右どちらの枝を辿るかを二値分類問題として順に判定してゆくことで単語の推定を行う。このとき単語の生成確率は, 木の根から単語に至るまでに経由した全ての分岐に関する二値分類確率の総乗として得られる. 本手法を用いる場合, すべての単語に関する確率を求める操作は通常行わず,各分岐において選択されなかった側の枝に付属する単語は全て候補から除外される.このような貪欲探索を適用することで, 選出される単語の大域最適性が保証されない代わりに, 出力層の時間計算量を理想的には $O(H \log V)$ まで削減することが可能となる1,一方,木に含まれる分岐の数は $V-1$ であり,それぞれが固有のパラメータを持つため, 出力層全体の空間計算量はソフトマックスと同様 $O(H V)$ となり, パラメータの保持に必要なメモリの削減は期待できない。また木構造を使用することにより計算手順が複雑化するため, 並列計算を行うには実装の工夫が必要となる. 階層的ソフトマックスは単語に対応するある種の二値符号を学習するモデルであると考えられるが, 異なる観点から単語を二值符号化し, そのビット列を学習する手法としてブルームフィルタ (Bloom Filter) を適用する研究がある (Serrá and Karatzoglou 2017). この手法ではフィルタ中の各ビットが 1 になる確率を尤度関数としてモデルの学習を行っているが, フィルタ自体の特性により, ビット列から単語を復元する写像の定義が曖昧であるため,機械翻訳をはじめとした文生成タスクへ直接適用するのは難しいと考えられる。 区分ソフトマックス (Differentiated Softmax) (Chen, Grangier, and Auli 2016a) では, 単語を複数のグループに分類し, それぞれのグループを隠れ層の異なる部分と対応させることで, 比較的小さな行列の組み合わせで出力層を表現し, 計算時間・使用メモリ量の両面での向上を実現している。これはパラメータ行列 $W_{h u}$ を部分的にゼロ行列に固定することと等しい. ところが時間・空間計算量の観点では $O(H V)$ から変化がなく, 語彙サイズ $V$ が増加した際の拡張性の面では問題が残る。また, 異なるグループに属する単語間の関連性を出力層で十分扱うことができず,全結合型のネットワークを用いるソフトマックスと比較すると改善の余地が残されている. 適応ソフトマックス (Adaptive Softmax) (Grave, Joulin, Cissé, Grangier, and Jégou  2017) では, 単語を出現頻度に基づいて複数のグループに分類し,まず高頻度語のグルー プにおいて通常のソフトマックスを実行する。このときグループ内の単語とは別に,各低頻度語のグループそのものに対応するラベルを追加しておき,ソフトマックスによってそのラベルが選出された場合には該当するグループで再びソフトマックス計算を行う. この手法では,パラメータ数が低頻度語グループの推定の分だけ通常のソフトマックスから若干増加しており,推定に使用するグループ数を $G$ とすると,パラメータに関する空間計算量は $O(H(V+G))$ となる。一方で, 上位のソフトマックスで選択されなかったグループに属するパラメータは階層的ソフトマックスと同様に無視されるため, 実質的な出力層の計算の大部分を高頻度語グループのソフトマックスのみで終了することができ, 時間計算量の短縮が見込める。ただし, 選出される単語の大域最適性がモデルの設定によっては保証されない可能性があり, この点も階層的ソフトマックスと同様である. LightRNN (Li, Qin, Yang, and Liu 2016) は各単語に 2 種類の異なるワンホット表現を割り当て, 単語推定を 2 つのソフトマックスの積に分解することで出力層の時間・空間計算量を $O(H \sqrt{V})$ に削減する手法である。この手法では 2 つのソフトマックスを RNN の異なる時刻に割り当てるため, RNN の系列長は通常のソフトマックスのちょうど 2 倍となるが,全体として階層的ソフトマックスより効率的に動作することを報告している. また,前回の学習結果を用いてワンホット表現の割り当てを修正することで,推定精度をより向上させる手法についても提案している. サンプリング出力層が生成する確率分布を全体の計算なしに近似する手法として, 適当な数の不正解ラベルを選択し,これらと正解ラベルとの関係を損失として学習するサンプリング法が適用されることがある (Gutmann and Hyvärinen 2010; Mnih and Teh 2012; Mikolov, Sutskever, Chen, Corrado, and Dean 2013). これらの手法は学習時に語彙サイズ $V$ の時間計算量への影響を取り除くことができ,学習速度を向上させることが可能である一方, テスト時には元のモデルと同じ時間計算量を必要とする。空間計算量, 特にパラメータ数に関しては元のモデルと同一であり, 元のモデル構造を維持したまま学習時の時間計算量を削減する手法であると言える。また, 確率分布の定式化手法によっては, サンプリング法の適用に制約を受ける場合がある。 サンプリング法の効果的な応用として,単語間で分散表現を共有することでパラメータ数を削減する手法が提案されている (Chen, Mou, Xu, Li, and Jin 2016b). この手法では,各単語の分散表現を予め選出した共通単語の分散表現の線形和として定義することで, ネットワーク内のパラメータ数に関する空間計算量を語彙サイズ $V$ から共通単語数 $V^{\prime}$ (論文では $V^{\prime}=8 \mathrm{k}$ に固定)に削減している.純粋なモデルの目的関数はソフトマックスと同一であるため,このままでは線形和の操作分だけ計算量が増加してしまうが,サンプリング法を適用することでこの欠点を回避している. 語彙の変更以上の手法がすべて語彙が与えられた下での軽量化手法であるのに対し, 語彙の定義自体を変更することで $V$ そのものを小さくしてしまう手法が適用されることがある.最も単純には語彙として文字を使用する手法 (Ling, Trancoso, Dyer, and Black 2015) が挙げられるが, これはエンコーダやデコーダの生成する系列長が単語を用いた場合と比べて著しく増加してしまう欠点がある。より効率的な手法として,学習デー夕に含まれる全ての文字列を被覆する部分文字列の集合を学習し,これを語彙として使用するサブワード (Subword) 法 (Wu, Schuster, Chen, Le, Norouzi, Macherey, Krikun, Cao, Gao, Macherey, Klingner, Shah, Johnson, Liu, Kaiser, Gouws, Kato, Kudom Kazawa, Stevens, Kurian, Patil, Wang, Young, Smith, Riesa, Rudnick, Vinyals, Corrado, Hughes, and Dean 2016; Sennrich, Haddow, and Birch 2016; Chitnis and DeNero 2015; Mikolov, Sutskever, Deoras, Le, Kombrink, and Černocký 2012) が挙げられる. 語彙サイズを適切に設定し, コーパスに対し最適化されたサブワード列は, 単語列と比較して遜色ない程度の系列長を実現できることが知られているが,効果的なサブワード集合の学習に関する知識が別途必要となる ${ }^{2}$. ## 3 二値符号予測に基づく単語推定モデル 本研究で提案する手法は, いずれも前節の着眼点のうち, 確率分布の変形に基づいて計算量を削減する手法のグループに属する。本節では提案手法の基本的な定式化, 及び単純な手法からの性能の改善手法について導入する。 ## 3.1 二値符号を用いた単語の表現手法 図 2(a) は従来のソフトマックスモデルによる単語推定モデルを表す. また図 2(b) は本研究で提案する二値符号を用いた単語推定モデルを表す。提案手法はソフトマックスモデルとは異なり, 各単語の生成確率をモデルが直接求めることは行わず, 二值符号の各ビットの生成確率から間接的に単語の生成確率の推定を行う。まず, $ \boldsymbol{b}(w):=\left[b_{1}(w), b_{2}(w), \cdots, b_{B}(w)\right]: \mathcal{V} \rightarrow\{0,1\}^{B} $ を各単語 $w$ に直接対応するビット列とする。ここで各 $b_{i}(w) \in\{0,1\}$ はそれぞれ独立した $w$ に関する二值決定関数であり,B はビット列に含まれるこれらの関数の個数とする.また $\mathcal{V}$ は語彙を表す。なお,本節における $V$ は単語 ID $\operatorname{id}(w)$ の異なり数を表し,実際の語彙サイズ $|\mathcal{V}|$ と  (a) ソフトマックスによる推定 (b) 二値符号推定 図 2 ソフトマックスモデルと提案手法における出力層の設計の相違点 は異なることをここで注記しておく。 議論を明確にするために, $\boldsymbol{b}(w)$, \}よびビット列から単語への逆方向の写像 $b^{-1}(\cdot):\{0,1\}^{B} \rightarrow \mathcal{V}$ に対して以下のような制約が存在するものとする。 ・ $\boldsymbol{b}(w)$ は単語 $\operatorname{ID} \operatorname{id}(w)$ に関して単射である。つまり, $ \operatorname{id}(w) \neq \operatorname{id}\left(w^{\prime}\right) \Rightarrow \boldsymbol{b}(w) \neq \boldsymbol{b}\left(w^{\prime}\right) $ が成立する。この制約は,学習時に各単語を明確に区別して扱うために必要である ${ }^{3}$. - $b^{-1}(\cdot)$ は左逆写像であり, 定義域は $\{0,1\}^{B}$ 全体である。つまり $b^{-1}(\boldsymbol{b}(w))=w$ が成り立つとともに, $\boldsymbol{b}(\cdot)$ の像に含まれるかどうかに関わらず,あらゆるビット列が何らかの単語に関連付けられているものとする。この制約は, 翻訳モデルの不安定性により解釈不能なビット列が生成される可能性を排除するために必要であるとともに, 4.2 節で導入する誤り訂正符号の根拠としても重要である. これらの制約により, $V$ 種類の単語を十分に識別するために必要なビット数として $ B \geq\left.\lceil\log _{2} V\right.\rceil $ が自明な制約として得られる。 提案手法の出力層では, $\boldsymbol{b}(w)$ の各ビットが 1 となる確率 $ \boldsymbol{q}(\boldsymbol{h}):=\left[q_{1}(\boldsymbol{h}), q_{2}(\boldsymbol{h}), \cdots, q_{B}(\boldsymbol{h})\right] \in[0,1]^{B} $ (w)$ の設計に隠蔽されているものとする. } を,式 (10) に示すように,現在の隠れ層の値 $\boldsymbol{h}$ からそれぞれ独立したロジスティック回帰モデルで推定する. $ \begin{aligned} \boldsymbol{q}(\boldsymbol{h}) & =\sigma\left(W_{h q} \boldsymbol{h}+\boldsymbol{\beta}_{q}\right) \\ \sigma(\boldsymbol{x}) & :=\frac{1}{1+\exp (-\boldsymbol{x})} \end{aligned} $ ここで $W_{h q} \in \mathbb{R}^{B \times H}$ と $\boldsymbol{\beta}_{q} \in \mathbb{R}^{B}$ は学習可能なパラメータである. これより, ある単語 $w$ が $\boldsymbol{q}(\boldsymbol{h})$ から生成される確率は, $\boldsymbol{q}(\boldsymbol{h})$ に含まれる各ビットごとの確率の積 $ \operatorname{Pr}(\operatorname{id}(w) \mid \boldsymbol{h}):=\prod_{i=1}^{B}\left(b_{i}(w) q_{i}(\boldsymbol{h})+\left(1-b_{i}(w)\right)\left(1-q_{i}(\boldsymbol{h})\right)\right) $ として得られる. 生成確率が最大となるビット列を $\boldsymbol{q}(\boldsymbol{h})$ から得るには, 単に $q_{i}(\boldsymbol{h}) \geq 1 / 2$ である場合は 1 , そうでなければ 0 を出力ビットとすればよい. ここまでで記述したビット列に関する制約は非常に一般的なものであり,単語とビット列を対応させる手法には様々なものが考えられる。また, 翻訳モデルにとってどのようなビット列の割り当て手法が効果的であるかは自明ではない。このため本研究では, 事前実験として複数種の割り当て手法で実際に翻訳モデルの学習を行い, その中で経験的に最も高い翻訳精度を記録した Algorithm 1 に示す単語の出現頻度に基づく手法を採用しだ ${ }^{4}$.ここで, UNK (unknown) は語彙に含まれない単語, BOS (begin-of-sentence) は文頭記号, EOS (end-of-sentence) は文末記号である。また $\operatorname{rank}(w) \in \mathbb{N}_{>0}$ は学習データ中の出現頻度に基づく各単語の順位である. Algorithm 1 によるビット列の割り当ては最も効率的な手法 $\left(B=\left.\lceil\log _{2} V\right.\rceil\right)$ であることが保証される。また, 高位のビットの組み合わせが単語のおおよその出現頻度を示していると考えられる一方, 下位のビットほどランダム性が強まり, 単語に関する頻度以外のどのような情報も保持していないと考えられる。 ## 3.2 損失関数 従来のモデルと同様に, 提案手法による出力層は勾配法を用いて翻訳モデル全体と同時に最適化を行う.このため,ビット列のための損失関数はいたるところ (劣) 偏微分可能であり,また $ L_{\mathcal{B}}(\boldsymbol{q}, \boldsymbol{b}) \begin{cases}=\epsilon_{L}, & \text { if } \boldsymbol{q}=\boldsymbol{b} \\ \geq \epsilon_{L}, & \text { otherwise. }\end{cases} $ を満たすべきである.ここで $\epsilon_{L} \in \mathbb{R}$ は損失関数の最小値であり,学習には影響しない. ^{4}$ Algorithm 1 以外に事前に実験した手法としては, 完全なランダム, Huffman 符号 (Huffman 1952), Brown Clustering (Brown, Desouza, Mercer, Pietra, and Lai 1992), word2vec の単語ベクトルの符号に基づいた割り当て等がある. 可変長の符号については末尾を 0 で埋めることで固定長として扱った. } 明示的に確率モデルを学習する観点では, このような損失関数として交差エントロピー $ L_{\mathcal{B}}(\boldsymbol{q}, \boldsymbol{b}):=-\sum_{i=1}^{B}\left(b_{i} \log q_{i}+\left(1-b_{i}\right) \log \left(1-q_{i}\right)\right) $ を用いるのが望ましいが,事前実験により二乗誤差 $ L_{\mathcal{B}}(\boldsymbol{q}, \boldsymbol{b}):=\sum_{i=1}^{B}\left(q_{i}-b_{i}\right)^{2} $ を用いる方が最終的な翻訳精度が僅かに向上することが確認された. このため, 実験では損失関数として式 $(15)$ を使用することとした. ## 3.3 二値符号予測モデルの計算量 二値符号予測を用いた場合の出力層の計算量は, 空間計算量・時間計算量ともにビット数 $B$ に関して $O(H B)$ となる. ここで単語とビット列間の割り当てに Algorithm 1 で示したような最も効率的な手法を用いた場合, この計算量は $O(H \log V)$ に等しくなる. これは従来のソフトマックスモデルで必要とされた $O(H V)$ と比較して顕著に小さく,また $V$ 種類のラベルを識別するモデルとしては最小の計算量であると考えられる。 例として $V=65536=2^{16}$ とした場合, 出力層に必要とされるのは 16 ビット分のパラメータであり,従来法と比較して $16 / 65536=1 / 4096$程度までパラメータ数が削減されることとなる。 ここで,二值符号予測モデルは従来手法である階層的ソフトマックス (Morin and Bengio 2005) に強い制約を導入したものと捉えることが可能である.具体的には,単語のビット列への割り当てを二分法の一種に基づいて行う点は階層的ソフトマックスと提案手法の共通点であり,各ビットの推定にビット間の従属性を仮定しない点,および二分木上の同一階層で常に同じパラメータを使用する 2 点が異なる。これらの制約により,提案手法のビット列 $\boldsymbol{b}$ の各ビットは完全に並列に計算することが可能であり,式 (10)でも示したように,実質的に単一の行列による積算として表現可能である。この特徵は, 提案手法が GPU などの並列計算に特化した計算資 源上で特別な処理なしに計算可能であることを示している。また,ビット間の従属性を仮定しないため, ビットごとの独立した推定結果から常に大域最適なビット列を得られる点も階層的ソフトマックスと異なる. ## 4 二値符号予測モデルの改良 前節までで示した単純な二值符号予測には, 翻訳精度の点で問題が残っている。実験で示すように, 二値符号予測を単体で用いた翻訳モデルは, 従来のソフトマックスモデルと比較して大幅に翻訳精度の低下を招くこととなる. 4.1 節と 4.2 節では, このような翻訳精度の問題を解決するために, 2 種類の改良を導入することで二值符号予測モデルの翻訳精度を向上させる手法を提案する。 ## 4.1 ソフトマックスとニ值符号予測の混合モデル 自然言語の単語のユニグラム出現頻度は Zipf の法則 (Zipf 1949)に従うことが知られており,学習データ全体のほとんどが一部の頻出語のみに偏っていると言える。その結果, ニューラル翻訳モデルの出力層から伝えられる勾配も頻出語由来のものが多数となり, 語彙全体を効率よく学習できない可能性があるという問題がある。従来のソフトマックスモデルでは, 各単語のスコアをそれぞれ独立したパラメータを用いて推定しており, 単語の出現頻度の偏りに起因する問題はこれらのパラメータ全体に分散する形で回避されていた。一方, 提案手法である二値符号予測モデルでは同一のパラメータで頻出語と希少語の両方に対応する必要があり, 学習機会の少ない希少語のビット列の学習を頻出語によって阻害されてしまう可能性がある. この問題を回避する単純な方法として, 頻出語と希少語の予測をモデル的に分離し, 一方の勾配が他万に影響を与えないようにすることが考えられる。このようなモデルとして, 本節では図 3 に示すソフトマックスと二値符号予測の混合モデルを提案する. 具体的には, 図 3 左側のソフトマックス層で, 上位 $N-1$ 位までの頻出語と「その他の単語」に相当する記号 OTHER を識別するモデルを学習する,希少語を出力するには,まず OTHER 記号をソフトマックス層で推定し, 図 3 ソフトマックスと二值符号予測の混合モデル その後図 3 右側の二值符号推定により具体的な単語のビット列を推定する, という二段構造の推定を行う。ここで,ソフトマックス層と二値符号推定はそれぞれ独立したパラメータにより計算されるため,実際には並列計算が可能である点に注意する。この手法による各単語の生成確率は, ソフトマックス層の確率と二値符号推定による確率の積となり, $ \begin{aligned} \operatorname{Pr}(w \mid \boldsymbol{h}) & := \begin{cases}v_{\mathrm{id}(w)}^{\prime}, & \text { if } \operatorname{id}(w)<N, \\ v_{N}^{\prime} \cdot \pi(w, \boldsymbol{h}), & \text { otherwise },\end{cases} \\ \boldsymbol{v}^{\prime} & :=\frac{\exp \boldsymbol{u}^{\prime}}{\sum_{i=1}^{V} \exp u_{i}^{\prime}}, \\ \boldsymbol{u}^{\prime} & :=W_{h u^{\prime}} \boldsymbol{h}+\boldsymbol{\beta}_{u^{\prime}}, \\ \pi(w, \boldsymbol{h}) & :=\prod_{i=1}^{B}\left(b_{i} q_{i}+\left(1-b_{i}\right)\left(1-q_{i}\right)\right), \end{aligned} $ と書くことができる. ここで $W_{h u^{\prime}} \in \mathbb{R}^{N \times H}$ と $\boldsymbol{\beta}_{u^{\prime}} \in \mathbb{R}^{N}$ は学習可能なパラメータであり, $\operatorname{id}(w)$ は単語の出現頻度の順位 $\operatorname{rank}(w)$ に基づいて定義されているものとする。また, 損失関数はソフトマックス層の交差エントロピーと二値符号推定の損失の和で表記でき, $ \begin{aligned} L & := \begin{cases}l_{\mathcal{H}}(\operatorname{id}(w)), & \text { if } \operatorname{id}(w)<N, \\ l_{\mathcal{H}}(N)+l_{\mathcal{B}}, & \text { otherwise },\end{cases} \\ l_{\mathcal{H}}(i) & :=\lambda_{\mathcal{H}} L_{\mathcal{H}}\left(\boldsymbol{v}^{\prime}, i\right), \\ l_{\mathcal{B}} & :=\lambda_{\mathcal{B}} L_{\mathcal{B}}(\boldsymbol{q}, \boldsymbol{b}), \end{aligned} $ となる.ここで $\lambda_{\mathcal{H}}$ と $\lambda_{\mathcal{B}}$ はソフトマックスと二值符号推定の学習重みを決めるハイパーパラメータである。これらは実際には調整が必要だが,本研究では簡単のために $\lambda_{\mathcal{H}}=\lambda_{\mathcal{B}}=1$ のみを使用した,前述のように,希少語の推定にはソフトマックス層と二値符号予測の両者を使用するが,式 (20) の出力層における偏微分を考えれば,隠れ層 $\boldsymbol{h}$ より後段では両者の勾配が独立していることが分かる. 混合モデルの計算量は, ソフトマックス層の追加により単純な二值符号予測モデルから増加し, $O(H(N+\log V))$ となる.ただしソフトマックス層は頻出語のみを対象とするため, $N$ は $V$ と比較して通常非常に小さく抑えられることとなり,実際の計算コストの増加はそれほど大きくならないことが期待される。ソフトマックス層の大きさを変化させたときの翻訳精度への影響については,実験で詳しく調査する。 混合モデルにより頻出語と希少語を分離するという考えは, 区分ソフトマックス (Chen et al. 2016a) や適応ソフトマックス (Grave et al. 2017) で用いられた,単語クラスタごとに異なるスコア計算を用いる手法が元となっている。ただし,区分ソフトマックスでは隠れ層と出力層の 結合に制約が設けられているのに対し,混合モデルでは全結合ネットワークを使用しており,隠れ層の値全てを各出力の推定に用いる点が異なる。これは,混合モデルを適用してもモデル全体の計算量を小さく抑えられるためである。また,混合モデルの希少語部をソフトマックスに置き換えた場合, 適応ソフトマックスの分割数が 2 の場合とモデル的に一致する。このため, 混合モデルは 2 分割適応ソフトマックスの計算量に改善を加えたものと捉えることも可能である. ## 4.2 誤り訂正符号の適用 前節までで述べた単純な二値符号予測モデル,および混合モデルは,使用する二值符号自体の頑健性を考慮していない点で問題がある。具体的には, $\boldsymbol{q}(\boldsymbol{h})$ は全てのビットを誤りなく推定しなければ正しい単語を予測することができず, 1 ビット誤っただけで全く異なる単語を出力してしまう可能性がある。この問題は, ビット列全体の空間 $\{0,1\}^{B}$ に全ての単語が密に配置されていることに起因するものであり,ビット列に対して何らかの壳長性を導入することで解決できるものと考えられる。 図 4 はこの考えを簡単な例で示したものである. ここでは 2 種類の単語 “a”, “b”を 3 ビッ卜を使用して推定することを考え,各単語はそれぞれ「重心」ビット列 [000], [111] に写されるものと考える。このようなビット列の配置を選択すると, 重心同士の間には 3 ビットのハミング距離を持つこととなり,1 ビットだけの間違いであれば,その近傍にある重心ビット列を選択することで元の単語を正しく復元可能であることが分かる. 図 4 では各々の重心の近傍を灰色の領域で示している。このように,実際に記号が関連付けられたビット列同士の間隔に余裕を持たせることで多少のビット誤りを許容する手法は, 誤り訂正符号 (Shannon 1948)の中心的な考えである。より具体的には,ビット列同士が少なくとも $d$ ビットのハミング距離を持つとき, 符号化手法全体では高々 $\lfloor(d-1) / 2\rfloor$ ビットまでの誤りを訂正可能であることが知られている.この距離は選択した誤り訂正手法によって定まる定数であり, 最小ハミング距離または自由距離と呼ばれる。 誤り訂正をクラス分類問題に適用する考えは多く提案されており, タスクごとにうまく手法を 図 4 壳長な符号表現による予測の簡単な例 設計することで,単純なクラス分類に対する優位性が示されている (Dietterich and Bakiri 1995; Klautau, Jevtić, and Orlitsky 2003; Liu 2006; Kouzani and Nasireding 2009; Kouzani 2010; Ferng and Lin 2011, 2013). 本研究では, 特定の誤り訂正手法を Algorithm 1 で得られるビット列へ適用することで冗長化を行い,二値符号予測へ冗長性の導入を行う。ここで,過去に誤り訂正が検証されたクラス分類問題では高々 100 種類程度のクラスを扱っていたのに対し, 本研究では語彙サイズに応じて数万種類程度のクラスを識別する必要があり,問題の複雑さが大きく異なる点に注意が必要である。本研究では,このような巨大なクラス分類問題においても誤り訂正手法の適用が有効であることを示す. 図 5(a) と 5 (b) は誤り訂正手法を導入した際の学習時・テスト時の挙動を示している。学習時には,まず元となるビット列 $\boldsymbol{b}(w)$ を誤り訂正符号の重心となる冗長なビット列 $ \boldsymbol{b}^{\prime}(\boldsymbol{b}(w)):=\left[\boldsymbol{b}_{1}^{\prime}(\boldsymbol{b}(w)), \boldsymbol{b}_{2}^{\prime}(\boldsymbol{b}(w)), \cdots, \boldsymbol{b}_{B^{\prime}}^{\prime}(\boldsymbol{b}(w))\right]:\{0,1\}^{B} \rightarrow\{0,1\}^{B^{\prime}} $ に写す.ここで $B^{\prime}(B) \geq B$ は壳長化後のビット列に含まれるビット数である. この写像は単射であり,各 $\boldsymbol{b}(w)$ をより大きな空間のお互いに離れた位置に配置し直すこととなる。ニュー ラル翻訳モデルはこの壳長なビット列 $\boldsymbol{b}^{\prime}(\boldsymbol{b}(w))$ を出力層で学習する。なお, 典型的な誤り訂正手法では $B^{\prime}$ は $B$ の高々定数倍, つまり $O\left(B^{\prime} / B\right)=O(1)$ であり, 誤り訂正手法の適用前後で出力層の計算量自体が変化しない点は重要である. 翻訳モデルから実際の単語を生成する際は,モデルにより推定された確率列 $\boldsymbol{q}(\boldsymbol{h})$ を元に,元の単語に相当する確率列 $ \tilde{\boldsymbol{q}}(\boldsymbol{q}(\boldsymbol{h})):=\left[\tilde{\boldsymbol{q}}_{1}(\boldsymbol{q}(\boldsymbol{h})), \tilde{\boldsymbol{q}}_{2}(\boldsymbol{q}(\boldsymbol{h})), \cdots, \tilde{\boldsymbol{q}}_{B}(\boldsymbol{q}(\boldsymbol{h}))\right]:[0,1]^{B^{\prime}} \rightarrow[0,1]^{B} $ の復元を行う.このとき誤り訂正の効果により, $\boldsymbol{q}(\boldsymbol{h})$ に含まれる多少の誤りは許容され得ることとなる。写像 $\tilde{\boldsymbol{q}}(\cdot)$ は少なくとも $\boldsymbol{b}^{\prime}(\cdot)$ の左逆写像であり, $[0,1]^{B^{\prime}}$ 全体が定義域となる (復元結果が曖昧になるような入力が存在しない) ような手法を選択可能である. ここまでの議論で, 3 節で導入したビット列に関する制約は誤り訂正の導入後も満たすことが分かる。このため, (a) 学習時 (b) 生成時 図 5 誤り訂正を導入した場合の学習時・テスト時の動作 図 5 全体を単一の単語とビット列間の関連付け手法であると見なすことが可能である. ここで,誤り訂正手法により壳長化されたビット列の特徴は,翻訳モデルの精度に直接影響を与えると考えられる。どのようなビット列が最適であるかは自明ではないが,ここでは望ましい特徴についての定性的な議論を行う。まず,図 4 は 1 ビット訂正可能な誤り訂正符号の一種であるが,ニューラルネットワークの出力としては明らかに適切でないことが直ちに分かる。 なぜなら,重心ビット列の全てのビットが完全に一致しており,ニューラルネットワーク側から見ると各ビットの違いを区別できず,実質的に 1 ビットしか学習しない場合と同一のモデルになってしまうからである。このため,㔯長化後のビット列は,ビット同士が可能な限りお互いに異なる傾向を持つことが望ましいと判断できる。また,出力層がどのようなビット誤りを生成するのかは自明ではないため,ランダムに発生する誤りを均等に訂正可能な手法を選択するのが妥当であると考えられる。更に,ニューラルネットワークが生成する出力 $\boldsymbol{q}(\boldsymbol{h})$ は 0 から 1 の間の連続値であり,単なるビット列よりも多くの情報を保持していると考えられる。このため, これらの連続値を直接使用してビット列を復元できる手法がより望ましい. これらを満たす誤り訂正手法として,本研究では畳込み符号 (Viterbi 1967) を用いることとした。畳込み符号は入力ビット列とハイパーパラメータである重みビット列の畳込み和で表現され,ビット列中の離れた位置にあるビット同士が独立となるため,ランダムなビット誤りに特に頑健に動作するという特徵がある。また確率過程に基づくビット列の復号手法を用いることで,ビットごとの確率を直接考慮することが可能である. Algorithm 2 は実験で実際に用いた疊み込み符号のアルゴリズムである。ここで, 重みべクトル [1001111] および [1101101] は事前実験の結果により複数の設定から計算効率と復号能力のバランスを考慮して定めた。なお, $\boldsymbol{x}[i . . j]:=\left[x_{i}, \cdots, x_{j}\right], \boldsymbol{x} \cdot \boldsymbol{y}:=\sum_{i} x_{i} y_{i}$ である. 畳込み符号は単一の冗長化手法に対して複数の復号手法が存在するが, 実験では Algorithm 3 に示すアルゴリズムを使用した.ここで $\boldsymbol{x} \circ \boldsymbol{y}$ はべクトル $\boldsymbol{x}$ と $\boldsymbol{y}$ の結合を表す. Algorithm 3 はビタビアルゴリズム (Viterbi 1967) に基づく手法であり, 畳込み符号を隠れマルコフモデルの一種として解釈し, 入力された確率列 $\boldsymbol{q}(\boldsymbol{h})$ から確率的に最も妥当な元のビット列を推定する. Algorithm 3 は一見複雑だが,実際には CPU 上で効率的に処理可能であり,ニューラルネットワークの計算とは分離されているため, 翻訳モデル自体の計算効率への影響は避けることが可能である. ## 5 実験 ## 5.1 実験設定 提案手法の翻訳精度を比較するために, 英日・日英双方向の翻訳タスクでの実験を行った。使用したコーパスは ASPEC (Nakazawa, Yaguchi, Uchimoto, Utiyama, Sumita, Kurohashi, and Isahara 2016) と BTEC (Takezawa 1999)であり,ASPEC は上位 200 万文, BTEC は検証・テスト用以外の全文を学習データとした。表 1 にコーパスの詳細を示す. これらのコーパスは平均文長や語彙サイズの面で難易度が大きく異なるため, 難易度に起因するモデルの差異を比較するのに役立つと考えられる.英語のトークン化には Moses (Koehn, Hoang, Birch, Callison-Burch, 表 1 実験に使用したコーパスの詳細 Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007) に含まれる tokenizer.perl を使用し,日本語のトークン化には KyTea (Neubig, Nakata, and Mori 2011)を使用した。また同じく Moses に含まれる lowercase.perlにより小文字化を行った.語彙は単語の出現頻度に基づいて選択し, 出現順位が $V-3$ 位より大きい単語は全て UNK 記号に置換した。 ニューラル翻訳モデルを含む全てのアルゴリズムは $\mathrm{C}++$ 言語で記述し,特にニューラルネットワークの構築には DyNet (Neubig, Dyer, Goldberg, Matthews, Ammar, Anastasopoulos, Ballesteros, Chiang, Clothiaux, Cohn, Duh, Faruqui, Gan, Garrette, Ji, Kong, Kuncoro, Kumar, Malaviya, Michel, Oda, Richardson, Saphra, Swayamdipta, and Yin 2017)を使用した. 全てのモデルは 1 個の GPU (NVIDIA GeForce GTX TITAN X) を用いて学習した。テストに関しては,実行時間を検証するために GPU 上と CPU 上の両方で行った. 提案手法が従来のソフトマックスモデルと異なるのは出力層のみであり, 他の部分は完全に同一である。 ニューラル翻訳モデル全体の構成には, エンコーダに双方向 RNN (Bahdanau et al. 2014),注意機構およびデコーダは Luong らによる Concat Global Attention モデル (Luong et al. 2015)を使用した.エンコーダおよびデコーダを構成する RNN には,入力・忘却・出カゲートを含む 1 層の LSTM (Gers, Schmidhuber, and Cummins 2000) を使用した。また過学習を避けるために, 各 RNN の入出力部のみ $30 \%$ のドロップアウト (Dropout) (Srivastava, Hinton, Krizhevsky, Sutskever, and Salakhutdinov 2014) を導入した. ニューラルネットワークの学習には Adam 最適化器 (Kingma and Ba 2014) を使用した. Adam のハイパーパラメータは $\alpha=0.001, \beta_{1}=0.9 \beta_{2}=0.999, \varepsilon=10^{-8}$ で固定し, 文長に基づいてグループ化された 64 文によるミニバッチ学習を行った。各モデルの評価には大文字・小文字を考慮しない BLEU (Papineni, Roukos, Ward, and Zhu 2002) を使用し, ミニバッチ 1000 個の学習が終了するごとにスコアの計算を行った。 なお, 文中に未知語が存在することを正しく推定したかどうかを評価するために,本実験での BLEU の評価には UNK も計算対象に含めているが,UNK を取り除いて計算した場合でも最終的なスコアの傾向は同様であることを注記しておく. 表 2 に本実験で比較した手法の凡例を示す. 特に提案手法については, 混合モデルと誤り訂 正の適用の有無,および混合モデルにおけるソフトマックス層のサイズ $N$ による影響を実験により検証する.また,混合モデルとの直接比較が可能な 2 分割の場合の適応ソフトマックス (Grave et al. 2017) についても実験を行い,同様に性能の測定を行った. ## 5.2 実験結果と考察 表 3 に各手法の Test データにおける BLEU, 二値符号のビット数 $B$ と出力層で実際に計算される値の個数 $\#_{\mathrm{out}}$, 出力層の推定に必要なパラメータ数 $\#_{W, \boldsymbol{\beta}}$, および出力層とモデル全体におけるパラメータ数の Softmax との比率を示す. 表 4 には英語 $\rightarrow$ 日本語下での各手法の学 表 2 比較を行ったモデルの名称と詳細 表 3 各手法の BLEU, 出力層のパラメータ数とその Softmax に対する比率 表 4 各手法の平均計算時間 習時・テスト時における平均実行時間を示す。また図 6,7 には学習済みミニバッチ数 180,000 までの英日翻訳におけるソフトマックス及び提案手法の Test データ上での BLEU の変化を示す. 図 6, 7 から明らかなように,学習中の BLEU の変動は不安定であり, 比較には何らかの平滑化が必要である.このため, Dev デー夕上で BLEU が最大となった世代を中心とした 5 世代について Test データ上で BLEU を求め, 表 3 にはその平均値を示した. ## 5.2.1 空間効率 まず,提案手法のいずれにおいても,Softmax と比較して大幅に出力層のパラメータ数を削減していることが確認できる。 モデル全体のパラメータ数では, いずれの提案手法も Softmax と比較して $70 \%$ 程度のパラメータ数に抑えられており, 実質的には従来のソフトマックスモデルで必要とされた出力層のためのパラメータが無視可能なレべルまで削減されたと考えられる. なお,残りのパラメータの大部分はエンコーダおよびデコーダの入力部における単語べクトルとして確保されているものであり,これらは依然として $O(E V)$ だけのメモリ空間を専有している. ここで $E$ は原言語・目的言語ごとの単語べクトルに用いられる次元数だが,典型的には $H$ と同程度 (つまり $O(E / H)=O(1))$ と見なすことが可能である. 1 節で述べたように, これ 図 6180,000 世代までの学習の推移 (ASPEC En $\rightarrow \mathrm{Ja}$ ) 図 7 180,000 世代までの学習の推移 (BTEC En $\rightarrow \mathrm{Ja}$ ) らのパラメータ数の削減は本研究の対象ではないが, 出力層と同様の符号化を導入することは可能であると考えられる。このような手法が翻訳モデルにどう影響するかは今後の研究課題である。また 2.2 節で述べたように,適応ソフトマックスのパラメータ数は基本的に単純なソフトマックスと同等であり,使用するグループ数に比例した分だけ増加している.具体的には,本実験で使用した適応ソフトマックスは分割数が 2 であるため, 出力層のサイズは各コーパスの語彙サイズに 1 を足した大きさとなる. ## 5.2.2 翻訳精度 Binary の BLEU 値に着目すると, 他のいずれの手法と比較しても大幅に低い値となっていることが観察される。これは 3 節で述べた事実から予測され得る結果であり, 単純な二値符号予測では頑健性に問題があるという特徴を反映していると考えられる。これとは対照的に, Hybrid- $N$ と Binary-EC では Binary と比較して十分に高いBLEU を示しており,実験設定によってはほぼ Softmax に近似する値を達成していることが分かる。この傾向は, 混合モデルと誤り訂正符号の導入がどちらも二値符号予測に対して有効であることを示している. 特に Binary-EC と Hybrid-512を比較すると, 前者のパラメータ数が $1 / 10$ 程度なのにも関わらず基本的に高い BLEU を達成しており, この結果からビット列に壳長性を導入することがより推定精度の向上に効果的であると言うことができる。また, 2 種類の改良を両方導入した Hybrid- $N-E C$ では更なる精度の向上が見られ,設定次第では Softmax と同等かそれ以上の BLEUを達成していることが観察できる。この挙動から,混合モデルと誤り訂正の両者が手法として概ね直交しており,組み合わせることでより高い効果を示すことが可能であると言える。特に BTEC において,Softmax が低い翻訳精度となったのは,コーパスの難易度に対してソフトマックス層のパラメータ数が適切な大きさでなかった点が考えられる. Adaptive2- $N$ と Hybrid-N-EC の比較では, ASPECでは Adaptive2-512 と Hybrid-2048-EC が同等程度, BTECでは Adaptive2-2048 と Hybrid-2048-EC が同等程度の性能と考えられる. これらの手法の本質的な違いは希少語グルー プの単語推定にソフトマックスと誤り訂正符号のどちらを使用したかのみであり, 各モデルによる希少語の推定精度を間接的に反映しているものと考えられる。適応ソフトマックスと提案手法の混合モデルでは希少語に関するパラメータ数が数百から数千倍程度異なることを考えると,適応ソフトマックスの翻訳精度が混合モデルより高くなることが自然に考えられ, 実際 ASPEC では希少語グループのサイズが同等である Adaptive2-2048 と Hybrid-2048-ECでは前者の方が翻訳精度が高いことが観察される.BTECで両者の性能が接近しているのは,Softmax との比較でも言及したように,コーパスの難易度に対する Adaptive2- $N$ の過剰なパラメータ数が関係していると考えられる。また, Adaptive2-2048 はいずれのコーパスでもSoftmax より高い性能を達成しており, これは混合モデルと同様に, 単語の出現頻度に基づいて推定を分割したことによる効果と考えられる。 ## 5.2.3 時間効率 表 4 の計算時間に着目すると, いずれの提案手法も Softmax と比較して高速に動作していることが分かる. 特に CPU 上でのテスト時の実行速度は ASPEC で 10 倍, BTEC で 5 倍程度に高速であり,強力な計算資源が期待できない環境でも提案手法が効率的に動作可能であることを示している。また, 誤り訂正手法の復号アルゴリズムはいずれの実験でも CPU 上で実行しているが, これに起因する計算速度の低下は翻訳モデル全体から見ると部分的であることが分 かり,この点でも誤り訂正手法の適用が効果的であることを示している. Adaptive2- $N$ に関しては,GPU 上でのテスト時の実行速度は提案手法と遜色ない性能を示しており,単語の出現頻度に基づいて適切にソフトマックスを分割するだけでも高い高速化効果が得られることを示している。一方, $\mathrm{CPU}$ 上でのテスト時の速度は, Softmax と比較した際には Adaptive2- $N$ でも十分高速化されていると言えるが,提案手法は更にその数割から数倍程度高速という結果となっている.この実行速度の差異は希少語の推定に要する計算量を反映していると考えられ,GPU のように十分な並列化の可能でない状況下では, 依然として計算量そのものを削減する利点が大きいことが観察される。なお,Adaptive2-512より Adaptive2-2048 の方が高速に動作している点は, 提案論文に示されている 2 分割時の実行速度とのトレードオフに関する議論と一致する (Grave et al. 2017). ここで, 適応ソフトマックス (Grave et al. 2017) の本来の目的は学習時間の削減であるが,本実験では Adaptive2- $N$ の学習時間が Softmax と比較して若干増加しており, 提案論文の結果に従っていないことが確認される。これはミニバッチ学習時の実用上の問題に起因するものである. 原理的には, 適応ソフトマックスは頻出語の推定時に希少語のスコア計算を除外することが可能であり,このときうまく計算を回避する実装を用いることで計算量の削減が得られるものである.本実験の場合,入力データを個別に処理するテスト時の動作がこれに該当し,実際に期待通りの高速化効果が得られている。一方,学習時には DyNet を用いた実装の制約上, ミニバッチに含まれる全データに対して同様の計算を行う必要があり,ある時刻で推定しなければならない単語に頻出語と希少語が混在しているような, ネットワークにデータごとの条件分岐が存在する場合への対処が難しい。本実験ではこの問題を回避するため, 頻出語に対してもダミーの希少語ラベルを与えて計算を行っているが,このときの計算量は通常のソフトマックスとほぼ等しくなり, また計算過程が複雑になる分, 実際の計算効率はソフトマックスよりも低下する.表4では実際にこの効果を確認した形となっている.汎用的なニューラルネットワークのツールがこの問題に対処できるかどうかは, データごとに異なるネットワーク構造が与えられたとき, ツール側で効率的に処理する能力を持っているかどうかに依存している.このような手法の候補としては,実際のネットワーク計算の直前にミニバッチ計算の最適化を行う手法が考えられる (Neubig, Goldberg, and Dyer 2017). なお,提案手法である混合モデルに関しても, 計算グラフ上では適応ソフトマックスとほぼ同様のネットワーク構造を持っており, Hybrid- $N$, Hybrid-N-EC の学習時間も上記と同じ理由によるオーバーヘッドを含んでいる. ## 5.2.4 混合モデルの翻訳精度への影響 図 8 は Hybrid- $N$ においてソフトマックス層の大きさ $N$ を指数的に変化させた際の翻訳精度への影響である。ここで混合モデルの定義より,Softmax と Binary はそれぞれ $N$ を $V$ 1 に設定した場合の極限であり,Hybrid- $N$ による翻訳精度の近似的な上限と下限を表わすと考 図 8 Hybrid- $N$ において $N$ を変化させた場合の BLEU の変化 $(\mathrm{En} \rightarrow \mathrm{Ja})$ えられる。実際, 図 8 の曲線はおおよそ Softmax とBinary の間を推移しており,ここから混合モデルのソフトマックス層の大きさと翻訳精度にはトレードオフの関係があることが分かる。また BTEC と ASPEC の曲線をそれぞれ観察すると, BTEC ではより小さな $N$ (例えば $N=1024$ 程度) で翻訳精度が Softmax 付近に飽和しているのに対し, ASPEC ではより大きな $N$ においても精度の向上が見られる.ここから, $N$ による翻訳精度の変動はコーパス自体の難易度をいくらか反映しているものと考えられる。つまり,より簡単なコーパスを学習する場合は $N$ として小さな値を取ることができ,より難しいコーパスになるほど大きな $N$ を選択する必要があると考えられる。また表 3 で示したように,誤り訂正を併用することで混合モデル単体よりも翻訳精度の向上が期待できるため, 実際の $N$ の値には図 8 から読み取れるものより小さな値を設定することが可能であると言える. ## 5.2.5 単語の出現頻度と推定精度の関係 前節までの議論により,提案手法によるコーパス全体としての翻訳精度の傾向については判明した。しかし,ニューラル翻訳は出力文を単語単位で逐次的に生成するモデルであり,具体的な単語単位の推定精度に関しても議論が必要である. 図 9,10 に示すのは, 表 3,4 に示した 7 手法について, 日本語 Test データ中の各単語を学習データ中での出現頻度の順位でグループ化し,各グループについてユニグラム再現率および適合率を示したものである。ここで,適合率の計算は BLEU の方法に準拠し, 再現率については BLEU の方法の分母を正解データに置き換えることで計算した,なお,分母が 0 となる場合は便宜的に値を 0 と表示した. まず,再現率についてはいずれの手法・コーパスにおいてもほほ同様の傾向を示しており, 手 図 9 各手法の出現頻度ごとのユニグラム推定精度 $(\mathrm{ASPEC} \mathrm{En} \rightarrow \mathrm{Ja})$ 法の違いによる全体的な値の増減が確認できる。特に Binaryのみは, 他の手法と比べて全てのグループで全体的に低い值となっており,単純な二値符号予測ではどのような単語もうまく推定することができないことが分かる。また ASPEC と BTEC の両コーパスで, 出現頻度が数十位付近の単語で再現率が低下し,その後また上昇するという共通の傾向を示しており,両コーパスのドメインや難易度が大きく離れていることから, これは言語に共通の何らかの特徴を捉えているものと考えられる。 一般的に単語を出現頻度でグループ化した場合, 頻出語のグループには機能語が多く集まり,希少語には内容語が多く集まる傾向にある。内容語と比較して機能語は用例が複雑であり,内容語と同一のモデルで推定するには難易度が高くなると考えられる。表 5 および 6 は ASPEC および BTEC の日本語学習データにおける頻出語たが, 両者とも出現頻度が 64 位の付近で機 図 10 各手法の出現頻度ごとのユニグラム推定精度 $(\mathrm{BTEC} \mathrm{En} \rightarrow \mathrm{Ja}$ ) 表 5128 位までの頻出語 (ASPEC Ja) \\ 表 6128 位までの頻出語 (BTEC Ja) \\ 能語と内容語が执よそ交代していることが観察できる。つまり,前述の Recall の低下と再上昇は,機能語と内容語の推定難易度の違いを反映しているものと考えられる。 一方,適合率の傾向を観察すると,Binary が他の手法より全体的に低い点,および誤り訂正の適用により全体的なスコアが引き上げられている点は再現率と同様であるが,Hybrid- $N$ において出現頻度の順位が $N$ 付近を超えた単語は, そうでない単語と比較して大幅に適合率が低下していることが確認できる。これは明らかに,学習の比較的容易なソフトマックス層のみによる推定から二值符号予測を用いる推定に切り替わるために起こる現象であり,二値符号予測が本質的にソフトマックスよりも難しい推定問題であることを表していると考えられる。混合モデルと誤り訂正符号の併用により,このような適合率の大幅な低下が緩和されており,両者をバランス良く組み合わせることで全体的な推定精度を補償することが可能であることが分かる. ## 6 おわりに 本研究では, ニューラル翻訳モデルの出力層の計算量を圧縮することを目的とし, 単語に割り当てられた二值符号を予測することで間接的に単語の推定を行う手法を提案した。 また,単純な二值符号予測の精度を向上させるために,従来のソフトマックスモデルを部分的に採用した混合モデル,および二値符号に対し誤り訂正符号を適用することによる頑健性の向上を提案した,実験により,これらの手法を組み合わせて用いることで,従来のソフトマックスモデルと比較して数十分の 1 程度のパラメータ数と短い実行時間(特に CPU 上でのテスト時に 5 分の 1 から 10 分の 1 程度)で,同等程度の翻訳精度を実現可能であることを示した。 本研究では二値符号予測の基本的なフレームワークを提案したが,実験で使用した手法には事前実験に基づく様々なヒューリスティクスが残っており,各部分問題には,より翻訳モデルに適した手法を開発する余地が残されている。具体的には次のような課題が挙げられ,これらについてより深い研究を今後行ってゆく予定である. - 翻訳モデルにより適した単語のビット列への割り当て手法. より本質的には, どのような特徴量を保持したビット列であれば効率的に予測することが可能か. また,ビット数を制御することで任意に冗長性が設定可能となるような割り当て手法の設計. - ニューラル翻訳モデルの学習により適した形の誤り訂正手法の開発. また, 誤り訂正符号を学習することを前提とした損失関数の設計. - 入力層側の単語ベクトルも二值符号に制約することで,モデルのパラメータ数をより削減することが可能と考えられるが, そのようなモデルで同様の翻訳精度を達成することは可能か. - 翻訳モデルの内部状態やパラメータが獲得した表現に関する調査. 特に,ソフトマックスモデルと比較した際にどのような共通点・相違点が見出だるか. ## 謝 辞 本研究の一部は JSPS 科研費 JP16H05873, 及び JP17H00747 の助成を受けて行ったものである. ## 参考文献 Bahdanau, D., Cho, K., and Bengio, Y. (2014). "Neural Machine Translation by Jointly Learning to Align and Translate." arXiv preprint arXiv:1409.0473. Brown, P. F., Desouza, P. V., Mercer, R. L., Pietra, V. J. D., and Lai, J. C. (1992). "Class-based N-gram Models of Natural Language." Computational Linguistics, 18 (4), pp. 467-479. Chen, W., Grangier, D., and Auli, M. (2016a). "Strategies for Training Large Vocabulary Neural Language Models." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1975-1985, Berlin, Germany. Association for Computational Linguistics. Chen, Y., Mou, L., Xu, Y., Li, G., and Jin, Z. (2016b). "Compressing Neural Language Models by Sparse Word Representations." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 226-235, Berlin, Germany. Association for Computational Linguistics. Chitnis, R. and DeNero, J. (2015). "Variable-Length Word Encodings for Neural Translation Models." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2088-2093, Lisbon, Portugal. Association for Computational Linguistics. Dietterich, T. G. and Bakiri, G. (1995). "Solving Multiclass Learning Problems via Error- correcting Output Codes." Journal of Artificial Intelligence Research, 2, pp. 263-286. Ferng, C.-S. and Lin, H.-T. (2011). "Multi-label Classification with Error-correcting Codes." Journal of Machine Learning Research, 20, pp. 281-295. Ferng, C.-S. and Lin, H.-T. (2013). "Multilabel Classification using Error-correcting Codes of Hard or Soft Bits." IEEE Transactions on Neural Networks and Learning Systems, 24 (11), pp. 1888-1900. Gers, F. A., Schmidhuber, J., and Cummins, F. (2000). "Learning to Forget: Continual Prediction with LSTM." Neural Computation, 12 (10), pp. 2451-2471. Grave, É., Joulin, A., Cissé, M., Grangier, D., and Jégou, H. (2017). "Efficient Softmax Approximation for GPUs." In Proceedings of the 34th International Conference on Machine Learning, pp. 1302-1310, Sydney, Australia. Gutmann, M. and Hyvärinen, A. (2010). "Noise-contrastive Estimation: A New Estimation Principle for Unnormalized Statistical Models." In Proceedings of the 13th International Conference on Artificial Intelligence and Statistics, pp. 297-304, Sardinia, Italy. Huffman, D. A. (1952). "A Method for the Construction of Minimum-Redundancy Codes." Proceedings of the Institute of Radio Engineers, 40 (9), pp. 1098-1101. Kim, Y. and Rush, A. M. (2016). "Sequence-Level Knowledge Distillation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1317-1327, Austin, Texas. Association for Computational Linguistics. Kingma, D. and Ba, J. (2014). "Adam: A Method for Stochastic Optimization." arXiv preprint arXiv:1412.6980. Klautau, A., Jevtić, N., and Orlitsky, A. (2003). "On Nearest-neighbor Error-correcting Output Codes with Application to All-pairs Multiclass Support Vector Machines." Journal of Machine Learning Research, 4 (April), pp. 1-15. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic. Association for Computational Linguistics. Kouzani, A. Z. (2010). "Multilabel classification using error correction codes." In International Symposium on Intelligence Computation and Applications, pp. 444-454. Springer. Kouzani, A. Z. and Nasireding, G. (2009). "Multilabel Classification by BCH Code and Random Forests." International Journal of Recent Trends in Engineering, 2 (1), pp. 113-116. Li, X., Qin, T., Yang, J., and Liu, T.-Y. (2016). "LightRNN: Memory and Computation-Efficient Recurrent Neural Networks." In Advances in Neural Information Processing Systems, Vol. 29. Ling, W., Trancoso, I., Dyer, C., and Black, A. W. (2015). "Character-based Neural Machine Translation." arXiv preprint arXiv:1511.04586. Liu, Y. (2006). "Using SVM and Error-correcting Codes for Multiclass Dialog Act Classification in Meeting Corpus." In INTERSPEECH, pp. 1938-1941. Luong, T., Pham, H., and Manning, C. D. (2015). "Effective Approaches to Attention-based Neural Machine Translation." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421, Lisbon, Portugal. Association for Computational Linguistics. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J. (2013). "Distributed Representations of Words and Phrases and Their Compositionality." In Advances in Neural Information Processing Systems, pp. 3111-3119. Mikolov, T., Sutskever, I., Deoras, A., Le, H.-S., Kombrink, S., and Černocký, J. (2012). "Subword Language Modeling with Neural Networks." Mnih, A. and Teh, Y. W. (2012). "A Fast and Simple Algorithm for Training Neural Probabilistic Language Models." In Proceedings of the 29th International Conference on Machine Learning. Morin, F. and Bengio, Y. (2005). "Hierarchical Probabilistic Neural Network Language Model." In Proceedings of 10th International Workshop on Artificial Intelligence and Statistics, Vol. 5, pp. 246-252. Nakazawa, T., Yaguchi, M., Uchimoto, K., Utiyama, M., Sumita, E., Kurohashi, S., and Isahara, H. (2016). "ASPEC: Asian Scientific Paper Excerpt Corpus." In Proceedings of the 9th International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portoro, Slovenia. European Language Resources Association (ELRA). Neubig, G., Dyer, C., Goldberg, Y., Matthews, A., Ammar, W., Anastasopoulos, A., Ballesteros, M., Chiang, D., Clothiaux, D., Cohn, T., Duh, K., Faruqui, M., Gan, C., Garrette, D., Ji, Y., Kong, L., Kuncoro, A., Kumar, G., Malaviya, C., Michel, P., Oda, Y., Richardson, M., Saphra, N., Swayamdipta, S., and Yin, P. (2017). "DyNet: The Dynamic Neural Network Toolkit." arXiv preprint arXiv:1701.03980. Neubig, G., Goldberg, Y., and Dyer, C. (2017). "On-the-fly Operation Batching in Dynamic Computation Graphs." In Conference on Neural Information Processing Systems (NIPS), pp. 3974-3984, Long Beach, California, USA. Neubig, G., Nakata, Y., and Mori, S. (2011). "Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533, Portland, Oregon, USA. Association for Computational Linguistics. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "Bleu: a Method for Automatic Evaluation of Machine Translation." In Proceedings of 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA. Association for Computational Linguistics. See, A., Luong, M.-T., and Manning, C. D. (2016). "Compression of Neural Machine Translation Models via Pruning." In Proceedings of The 20th SIGNLL Conference on Computational Natural Language Learning, pp. 291-301, Berlin, Germany. Association for Computational Linguistics. Sennrich, R., Haddow, B., and Birch, A. (2016). "Neural Machine Translation of Rare Words with Subword Units." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany. Association for Computational Linguistics. Serrá, J. and Karatzoglou, A. (2017). "Compact Embedding of Binary-coded Inputs and Outputs using Bloom Filters." In Proceedings of the 5th International Conference on Learning Representations, Vancouver, BC, Canada. Shannon, C. E. (1948). "A Mathematical Theory of Communication." Bell System Technical Journal, 27 (3), pp. 379-423. Srivastava, N., Hinton, G. E., Krizhevsky, A., Sutskever, I., and Salakhutdinov, R. (2014). "Dropout: A Simple Way to Prevent Neural Networks from Overfitting." Journal of Machine Learning Research, 15 (1), pp. 1929-1958. Sutskever, I., Vinyals, O., and Le, Q. V. (2014). "Sequence to Sequence Learning with Neural Networks." In Advances in Neural Information Processing Systems, pp. 3104-3112. Takezawa, T. (1999). "Building a Bilingual Travel Conversation Database for Speech Translation Research." In Proceedings of the 2nd International Workshop on East-Asian Resources and Evaluation Conference on Language Resources and Evaluation, pp. 17-20. Viterbi, A. (1967). "Error Bounds for Convolutional Codes and an Asymptotically Optimum Decoding Algorithm." IEEE Transactions on Information Theory, 13 (2), pp. 260-269. Wu, Y., Schuster, M., Chen, Z., Le, Q. V., Norouzi, M., Macherey, W., Krikun, M., Cao, Y., Gao, Q., Macherey, K., Klingner, J., Shah, A., Johnson, M., Liu, X., Kaiser, Ł., Gouws, S., Kato, Y., Kudo, T., Kazawa, H., Stevens, K., Kurian, G., Patil, N., Wang, W., Young, C., Smith, J., Riesa, J., Rudnick, A., Vinyals, O., Corrado, G., Hughes, M., and Dean J. (2016). "Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation." arXiv preprint arXiv:1609.08144. Zipf, G. K. (1949). Human Behavior and the Principle of Least Effort. Addison-Wesley Press. ## 略歴 小田悠介:2011 年神戸市立工業高等専門学校電子工学科卒業. 2013 年同専攻科電気電子工学専攻卒業. 2015 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 修士 (工学). 現在, 同博士後期課程に在籍. 2015 年日本学術振興会特別研究員 (DC1). 2017 年より情報通信研究機構先進的音声翻訳研究開発推進センター研究技術員. 機械翻訳, 自然言語処理, ソフトウェア工学に関する研究に従事. 言語処理学会年次大会優秀賞 $(2015$ 年・2016 年). ACL, 電子情報通信学会, 情報処理学会, 教育システム情報学会, 言語処理学会各会員. Philip Arthur: 2013 年インドネシア大学計算機科学科卒業. 2015 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 現在, 同学博士後期課程に在籍. 修士 (工学). 機械翻訳, 自然言語処理に関する研究に従事. Graham Neubig: 2005 年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業. 2010 年京都大学大学院情報学研究科修士課程修了. 2012 年同大学院博士後期課程修了. 同年奈良先端科学技術大学院大学助教. 2016 年より米国カーネギーメロン大学助教. 機械翻訳, 自然言語処理に関する研究に従事. 吉野幸一郎:2009 年慶應義塾大学環境情報学部卒業. 2011 年京都大学大学院情報学研究科修士課程修了. 2014 年同研究科博士後期課程修了. 同年, 日本学術振興会特別研究員 (PD). 2015 年奈良先端科学技術大学院大学情報科学研究科特任助教. 2016 年より同助教. 同年より科学技術振興機構さきがけ研究員 (兼任). 京都大学博士 (情報学). 音声言語処理および自然言語処理, 特に音声対話システムに関する研究に従事. 2013 年度人工知能学会研究会優秀賞受賞. IEEE, ACL, SIGdial, 情報処理学会, 言語処理学会各会員. 中村哲:1981 年京都工芸繊維大学工芸学部電子工学科卒業. 京都大学博士 (工学). シャープ株式会社. 奈良先端科学技術大学院大学助教授, 2000 年 ATR 音声言語コミュニケーション研究所室長, 所長, 2006 年 (独) 情報通信研究機構研究センター長, けいはんな研究所長などを経て, 現在, 奈良先端科学技術大学院大学教授. ATR フェロー. カールスルーエ大学客員教授. 音声翻訳, 音声対話, 自然言語処理の研究に従事. 情報処理学会喜安記念業績賞, 総務大臣表彰, 文部科学大臣表彰, Antonio Zampoli 賞受賞. IEEE SLTC 委員, ISCA 理事, IEEEフェロー. $(2017$ 年 4 月 8 日 $\quad$ 受付 $)$ $(2017$ 年 10 月 2 日 $\quad$ 再受付 $)$ $(2017$ 年 11 月 30 日 $\quad$ 採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 平易なコーパスを用いないテキスト平易化 梶原 智之咕 ・小町守 $\dagger$ } 難解なテキストと平易なテキストからなる大規模な単言語パラレルコーパスを用い て, テキスト平易化が活発に研究されている. しかし, 英語以外の多くの言語では平易に書かれた大規模なコーパスを利用できないため,テキスト平易化のためのパラレ ルコーパスを構築するコストが高い. そこで本研究では,テキスト平易化のための 大規模な疑似パラレルコーパスを自動構築する教師なし手法を提案する. 我々の提案するフレームワークでは,リーダビリティ推定と文アライメントを組み合わせる ことによって, 生コーパスのみからテキスト平易化のための単言語パラレルコーパ スを自動構築する。統計的機械翻訳を用いた実験の結果,生コーパスのみを用いて 学習した我々のテキスト平易化モデルは, 平易に書かれた大規模なコーパスを用い て学習した従来のテキスト平易化モデルと同等の性能で平易な同義文を生成できた. キーワード:テキスト平易化, 疑似パラレルコーパス, リーダビリティ推定, 文アライメント ## Text Simplification without Simplified Corpora ## Tomoyuki Kajiwara $^{\dagger$ and Mamoru Komachi ${ }^{\dagger}$} Several studies on automated text simplification are based on a large-scale monolingual parallel corpus constructed from a comparable corpus comprising complex text and simple text. However, constructing a parallel corpus for text simplification is expensive as large-scale simplified corpora are not available in many languages other than English. Therefore, we propose an unsupervised method that automatically builds a pseudo-parallel corpus to train a text simplification model. Our framework combines readability assessment and sentence alignment and automatically constructs a text simplification corpus from only a raw corpus. Experimental results show that a statistical machine translation model trained using our corpus can generate simpler synonymous sentences performing comparably to models trained using a large-scale simplified corpus. Key Words: Text Simplification, Pseudo-parallel Corpus, Readability Assessment, Sentence Alignment  ## 1 はじめに 難解なテキストの意味を保持したまま平易に書き換えるテキスト平易化は, 言語学習者や子どもをはじめとする多くの読者の文章読解を支援する.近年,テキスト平易化を同一言語内の翻訳問題と考え,統計的機械翻訳を用いて入力文から平易な同義文を生成する研究 (Specia 2010; Zhu, Bernhard, and Gurevych 2010; Coster and Kauchak 2011a, 2011b; Wubben, van den Bosch, and Krahmer 2012; Štajner, Bechara, and Saggion 2015a; Štajner, Calixto, and Saggion 2015b; Goto, Tanaka, and Kumano 2015) が盛んである. しかし, 異言語間の機械翻訳モデルの学習に必要な異言語パラレルコーパスとは異なり,テキスト平易化モデルの学習に必要な単言語パラレルコーパスの構築はコストが高い. これは, 日々の生活の中で対訳(異言語パラレル)データが大量に生産および蓄積されるのとは異なり,難解なテキストを平易に書き換えることは自然には行われないためである。そのため, 公開されておりテキスト平易化のために自由に利用できるのは, English Wikipedia と Simple English Wikipedia ${ }^{2}$ から構築された英語のパラレルコー パス (Zhu et al. 2010; Coster and Kauchak 2011b; Hwang, Hajishirzi, Ostendorf, and Wu 2015) のみであるが, Simple English Wikipediaのように平易に書かれた大規模なコーパスは英語以外の多くの言語では利用できない. そこで本研究では, 任意の言語でのテキスト平易化を実現することを目指し, 生コーパスから難解な文と平易な文の同義な対(テキスト平易化のための疑似パラレルコーパス)を抽出する教師なし手法を提案し,獲得した疑似パラレルコーパスと統計的機械翻訳モデルを用いて英語および日本語でのテキスト平易化を行う,図 1 に示すように,我々が提案するフレームワー クでは, リーダビリティ推定と文アライメントの 2 つのステップによって生コーパスからテキスト平易化のための疑似パラレルコーパスを構築する。 大規模な生コーパスには, 同一の(あるいは類似した)イベントや事物に対する複数の言及や説明が含まれると期待でき,それらからは同義や類義の関係にある文対を得ることができるだろう。さらに我々はリーダビリティ推定によって難解な文と平易な文を分類するので,生コーパスから難解な文と平易な文の同義な対を抽出することができる. 我々は 2 つの設定で提案手法の効果を検証した。まず先行研究と同様に,難解なテキストと平易なテキストのコンパラブルコーパスからテキスト平易化のためのパラレルコーパスを構築した. 我々の提案する文アライメント手法は難解な文と平易な文のアライメント性能を改善し,高品質にテキスト平易化コーパスを構築できた. さらに, 我々のコーパスで学習したモデルは従来のコーパスで学習したモデルよりもテキスト平易化の性能も改善できた. 次に,コンパラブルコーパスを利用しない設定で, 生コーパスのみからテキスト平易化のための疑似パラレル  図 1 疑似パラレルコーパスと統計的機械翻訳モデルを用いたテキスト平易化 コーパスを構築し,フレーズベースの統計的機械翻訳モデルを用いてテキスト平易化を行った。平易に書かれた大規模コーパスを使用しないにも関わらず,疑似パラレルコーパスで学習したモデルは従来のコーパスで学習したモデルと同等の性能で平易な同義文を生成することができた. 本研究の貢献は次の 2 つである. - 単語分散表現のアライメントに基づく文間類似度を用いて, 難解な文と平易な文の文アライメントを改善した。 - 生コーパスのみから教師なしで擬似パラレルコーパスを自動構築し, これがコンパラブルコーパスから得られる従来のパラレルコーパスと同等に有用であることを確認した. これまでは, 人手で構築された難解な文と平易な文のパラレルコーパス3 ${ }^{3}(\mathrm{Xu}$, Callison-Burch, and Napoles 2015), 平易に書かれた大規模なコーパス (Simple English Wikipedia), 文間類似度のラべル付きデータ4 (Agirre, Cer, Diab, and Gonzalez-Agirre 2012; Agirre, Cer, Diab, Gonzalez-Agirre, and Guo 2013; Agirre, Banea, Cardie, Cer, Diab, Gonzalez-Agirre, Guo, Mihalcea, Rigau, and Wiebe 2014; Agirre, Banea, Cardie, Cer, Diab, Gonzalez-Agirre, Guo, Lopez-Gazpio, Maritxalar, Mihalcea, Rigau, Uria, and Wiebe 2015), 言い換え知識 5 (Ganitkevitch, Van Durme, and CallisonBurch 2013; Pavlick, Rastogi, Ganitkevitch, Van Durme, and Callison-Burch 2015; Pavlick and Callison-Burch 2016) などの言語資源が豊富に存在する英語を中心にテキスト平易化の研究が進 ^{4}$ http://ixa2.si.ehu.es/stswiki/index.php/Main_Page 5 https://www.seas.upenn.edu/〜 epavlick/data.html } められてきたが,本研究ではこれらの外部知識を利用することなく生コーパスのみからテキスト平易化のための疑似パラレルコーパスを自動構築し,統計的機械翻訳を用いたテキスト平易化における有用性を確認した,生コーパスは多くの言語で大規模に利用できるので,今後は本研究の成果をもとに多くの言語でテキスト平易化を実現できるだろう. 本稿の構成を示す。2 節では, 関連研究を紹介する。 3 節では, 生コーパスから擬似パラレルコーパスを構築する提案手法を概説する.4節では,テキスト平易化のための文アライメントとして,単語分散表現のアライメントに基づく文間類似度推定手法を提案する。続いて, 5 節から 7 節で実験を行う。まず 5 節では, 4 節の提案手法を評価し,テキスト平易化のための最良の文アライメント手法を決定する, 6 節では, 3 節から 5 節に基づき, 英語の疑似パラレルコー パスを構築し,テキスト平易化を行う, 7 節では,同様に日本語の疑似パラレルコーパスを構築し,テキスト平易化を行う。最後に 8 節で,本研究のまとめを述べる. ## 2 関連研究 ## 2.1 統計的機械翻訳を用いたテキスト平易化 2010 年以降, 統計的機械翻訳を用いたテキスト平易化の研究が盛んである. 特に英語では, English Wikipedia と Simple English Wikipediaをコンパラブルコーパスと考え,ここから抽出された単言語パラレルコーパス (Zhu et al. 2010; Coster and Kauchak 2011b; Hwang et al. 2015) とフレーズベースの統計的機械翻訳モデルを用いたテキスト平易化 (Zhu et al. 2010; Coster and Kauchak 2011a, 2011b; Wubben et al. 2012; Štajner et al. 2015a) が盛んに研究されている. Coster and Kauchak (2011b) は,標準的なフレーズベースの統計的機械翻訳ツール Moses (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007) を用いて英語のテキスト平易化を行った. 本研究でも, 同じくMoses を用いてテキスト平易化を行うが, 我々は任意の言語でのテキスト平易化を実現することを目的に, Simple English Wikipediaに頼ることなく English Wikipedia のみから構築する疑似パラレルコーパスでモデルを学習する。 ## 2.2 テキスト平易化のための単言語パラレルコーパス これまでに 3 種類の英語のテキスト平易化のための単言語パラレルコーパスが, English Wikipedia と Simple English Wikipediaの文アライメントによって構築されている. Zhu et al. (2010)は, 文を TF-IDF ゙クトルとして表現し, そのベクトル間のコサイン類似度を用いて初めてテキスト平易化のための単言語パラレルコーパス6を構築した. Coster and Kauchak (2011b) ^{6}$ https://www.ukp.tu-darmstadt.de/data/sentence-simplification/simple-complex-sentence-pairs/ } は,TF-IDFベクトル間のコサイン類似度に加えて文の出現順序を考慮することで,より高精度にテキスト平易化コーパス7を構築した. しかし, Zhu et al. や Coster and Kauchakの手法では,異なる単語間の類似度を考慮していない.難解な表現から平易な表現への書き換えが頻繁に行われるテキスト平易化タスクにおいては,異なる単語間の類似度も適切に測定したい. Hwang et al. (2015)は,国語辞典の見出し語と定義文中の単語の共起を用いて,異なる単語間の類似度も考慮してテキスト平易化コーパス8を構築した。 本研究では,単語分散表現を用いることで辞書などの外部知識に頼らず異なる単語間の類似度を考慮する文アライメントを行う。 ## 2.3 文間類似度推定 文間の意味的類似度を計算する Semantic Textual Similarity (STS) タスク (Agirre et al. 2012, 2013, 2014, 2015)では,単語分散表現の成功を受け,異なる単語間の類似度を考慮する手法が提案されている。 SemEval-2015のSTS タスク (Agirre et al. 2015) では, word2vec (Mikolov, Chen, Corrado, and Dean 2013a) の単語分散表現や PPDB: paraphrase database (Ganitkevitch et al. 2013) の言い換えを用いた単語アライメントに基づく教師あり学習の手法 (Sultan, Bethard, and Sumner 2015; Hänig, Remus, and de la Puente 2015; Han, Martineau, Cheng, and Thomas 2015) が上位を独占している,同じく word2vecの単語分散表現のアライメントに基づく教師なしの文間類似度計算手法 (Song and Roth 2015; Kusner, Sun, Kolkin, and Weinberger 2015) も提案されている. 文間類似度のラベル付きデータを必要としないこれらの教師なし手法は,テキスト平易化のための単言語パラレルコーパスの自動構築にも応用できる. ## 2.4 リーダビリティ推定 テキストの可読性を評価するリーダビリティ尺度としては, Flesch Reading Ease Formula (Flesch 1948) や Flesch-Kincaid Grade Level (Kincaid, Fishburne Jr., Rogers, and Chissom 1975) がよく知られている。これらはいずれも,単語数と音節数を用いてリーダビリティを計算する. また, 単語数に加えて難解な表現が出現する割合を考慮する Dale-Chall Readability Formula (Chall and Dale 1995) や言語モデルに基づく手法 (Collins-Thompson and Callan 2004) も提案されている。これらの研究は英語を対象としているが, リーダビリティ尺度は言語ごとに開発されており, 例えば日本語では柴崎, 玉岡 (2010), 佐藤 (2011), 藤田, 小林, 南, 杉山 (2015) の研究がある. 本研究ではシンプルなリーダビリティ尺度を採用するが, 我々の提案するフレームワークに $ 8 http://ssli.ee.washington.edu/tial/projects/simplification/ } 基づいて, リーダビリティ推定のステップには任意のリーダビリティ尺度を適用できる. ## 2.5 テキスト平易化の評価 統計的機械翻訳を用いたテキスト平易化 (Specia 2010; Zhu et al. 2010; Coster and Kauchak 2011a, 2011b; Wubben et al. 2012; Štajner et al. 2015a, 2015b; Goto et al. 2015) では, 機械翻訳のための評価尺度である BLEU (Papineni, Roukos, Ward, and Zhu 2002)による自動評価が一般的である. BLEUではリファレンスとの比較によって出力文の意味や文法の正しさを評価するが,テキスト平易化では入力文よりも平易な文を出力したいため, 入力文と出力文の比較も行いたい. 本研究では,テキスト平易化のために新たに提案された SARI (Xu, Napoles, Pavlick, Chen, and Callison-Burch 2016)による自動評価も行う,SARIは入力文と出力文とリファレンスの 3 つを用いる自動評価尺度であり, 特に平易さの観点で BLEUよりも人手評価との相関が高いことが知られている. ## 3 生コーパスから疑似パラレルコーパスを構築するためのフレームワーク 本研究では, 生コーパスからテキスト平易化のための疑似パラレルコーパスを自動構築するフレームワークを提案する。これは,より一般的には図 2 のように説明できる。生コーパスから無作為に抽出した 2 つの文に対して,タスクに応じた品質推定を行い,一定以上の尤度を持つ文対を擬似パラレルコーパスとして抽出する。品質推定 (Štajner, Popović, Saggion, Specia, and Fishel 2016) とは入力文と出力文の比較によってリファレンスなしで出力文を評価する技術の総称であり,テキストからのテキスト生成タスク,特に機械翻訳 (Callison-Burch, Koehn, Monz, Post, Soricut, and Specia 2012; Bojar, Buck, Callison-Burch, Federmann, Haddow, Koehn, 図 2 品質推定を用いた生コーパスからの疑似パラレルコーパス構築 Monz, Post, Soricut, and Specia 2013; Bojar, Buck, Federmann, Haddow, Koehn, Leveling, Monz, Pecina, Post, Saint-Amand, Soricut, Specia, and Tamchyna 2014; Bojar, Chatterjee, Federmann, Haddow, Huck, Hokamp, Koehn, Logacheva, Monz, Negri, Post, Scarton, Specia, and Turchi 2015; Bojar, Chatterjee, Federmann, Graham, Haddow, Huck, Jimeno Yepes, Koehn, Logacheva, Monz, Negri, Neveol, Neves, Popel, Post, Rubino, Scarton, Specia, Turchi, Verspoor, and Zampieri 2016) を中心に研究されている. 図 2 に戻ると, 品質推定のステップでは言い換え生成であれば 2 文間の同義性を評価し, 文圧縮であれば 2 文間の同義性および文 $\mathrm{A}$ に対する文 B の圧縮率を評価し,応答文生成であれば文 $\mathrm{A}$ を質問文として文 B の応答文らしさを評価する.このように,タスクごとの品質推定を高精度に実現できれば,このフレームワークを用いてタスクに応じた疑似パラレルコーパスを生コーパスから抽出できる. 本研究では,テキスト平易化のための疑似パラレルコーパスを構築したい。テキスト平易化は意味を保持したまま平易に書き換えるタスクなので, 図 2 における品質推定のステップでは,各文の難易度および 2 文間の同義性を評価する。我々は文の難易度を評価するために,各言語で開発されているリーダビリティ尺度を用いる,各文に対してリーダビリティ推定を行い,絶対的あるいは相対的なリーダビリティの高低がわかれば,続いてリーダビリティの低い難解な文とリーダビリティの高い平易な文の同義性を評価する。一般に長い文よりも短い文の方が読みやすいので,テキスト平易化では難解な表現から平易な表現への言い換えの他に,重要ではない表現の省略も頻繁に行われる (Xu et al. 2015).そのため, テキスト平易化における同義性は,言い換えタスクのような相互に置換可能な「同義性」には限定されない。そこで我々は,4 節で説明する意味的文間類似度を用いて 2 文間の同義性を評価する。最終的に,難解な文と平易な文の対であり,かつ類似度が高い文対のみをテキスト平易化のための擬似パラレルコーパスとして採用する。 ## 4 単語分散表現のアライメントに基づく文間類似度を用いた文アライメント 難解な文と平易な文の同義性を評価するために, 我々は単語分散表現のアライメントに基づく4 種類の文間類似度の計算手法を提案する.4.1 節から 4.3 節で説明する手法は, Song and Roth (2015)によって提案された単語分散表現のアライメントに基づく文間類似度の計算手法を本タスクに応用するものである. 4.4 節の Word Mover's Distance (Kusner et al. 2015) も, 単語分散表現のアライメントに基づく文間類似度の計算に用いることができる. ## 4.1 Average Alignment 文 $x$ と文 $y$ の間の全ての単語の組み合わせについて単語間類似度を計算し, それらの $|x||y|$ 個の単語間類似度を平均して文間類似度 $S_{\text {ave }}(x, y)$ を求める. $ S_{\text {ave }}(x, y)=\frac{1}{|x||y|} \sum_{i=1}^{|x|} \sum_{j=1}^{|y|} \phi\left(x_{i}, y_{j}\right) $ ここで, $x_{i}$ およ゙ $y_{j}$ は,それぞれ文 $x$ および文 $y$ に含まれる単語を表す.また, $\phi\left(x_{i}, y_{j}\right)$ は単語 $x_{i}$ と単語 $y_{j}$ の間の単語間類似度を表し, 本研究ではコサイン類似度を用いる. ## 4.2 Maximum Alignment Average Alignment は単語分散表現に基づく文間類似度として直感的であるが,同義の文対を考えても全ての単語の組み合わせについて単語間類似度が高くなるとは考えにくく, 多くの単語間類似度は 0 に近い値を取るノイズになると考えられる。そこで文 $x$ に含まれる各単語 $x_{i}$ に対して最も類似度が高い文 $y$ 中の単語 $y_{j}$ を選択し, それらの $|x|$ 個の単語の組み合わせについてのみ計算した単語間類似度 $\phi\left(x_{i}, y_{j}\right)$ を平均して $S_{\text {asym }}(x, y)$ を求める. $S_{\text {asym }}(x, y)$ は非対称なスコアであるため, $S_{\text {asym }}(x, y)$ と $S_{a s y m}(y, x)$ の平均値を用いて対称な文間類似度 $S_{\max }(x, y)$ を計算する。 $ \begin{aligned} S_{\text {asym }}(x, y) & =\frac{1}{|x|} \sum_{i=1}^{|x|} \max _{j} \phi\left(x_{i}, y_{j}\right) \\ S_{\text {max }}(x, y) & =\frac{1}{2}\left(S_{\text {asym }}(x, y)+S_{\text {asym }}(y, x)\right) \end{aligned} $ ## 4.3 Hungarian Alignment Average Alignment および Maximum Alignment は,それぞれ多対多および多対一の単語アライメントに基づく文間類似度である。本節では $x$ および $y$ の 2 文を単語をノードとする 2 部グラフとして考え, 一対一の単語アライメントに基づく文間類似度を定義する。この 2 部グラフは, 単語間類似度 $\phi\left(x_{i}, y_{j}\right)$ を重みとする重み付きの辺を持つ重み付き完全 2 部グラフである. この完全 2 部グラフの最大マッチングを求めることで, 単語間類似度の総和を最大化する一対一の単語アライメントを得ることができる. 2 部グラフの最大マッチング問題は, Hungarian 法 (Kuhn 1955) を用いて解くことができる。そこで文 $x$ に含まれる各単語 $x_{i}$ に対して Hungarian 法によって文 $y$ 中の単語 $h\left(x_{i}\right)$ を選択し, それらの $|x|$ 個の単語の組み合わせについて計算した単語間類似度を平均して文間類似度 $S_{h u n}(x, y)$ を求める。 $ S_{h u n}(x, y)=\frac{1}{\min (|x|,|y|)} \sum_{i=1}^{|x|} \phi\left(x_{i}, h\left(x_{i}\right)\right) $ ## 4.4 Word Mover's Distance Word Mover's Distance (Kusner et al. 2015) も,単語の分散表現を用いた多対多の単語アライメントに基づく文間類似度の計算に用いることができる. Word Mover's Distance は, 文 $x$ から文 $y$ へと単語を輸送する輸送問題を解くEarth Mover's Distance (Rubner, Tomasi, and Guibas 1998)の特殊な場合に相当する. $ \begin{aligned} S_{w m d}(x, y) & =1-\operatorname{WMD}(x, y) \\ \operatorname{WMD}(x, y) & =\min \sum_{u=1}^{n} \sum_{v=1}^{n} \mathcal{A}_{u v} \psi\left(x_{u}, y_{v}\right) \\ \text { subject to }: \sum_{v=1}^{n} \mathcal{A}_{u v} & =\frac{1}{|x|} \operatorname{freq}\left(x_{u}\right) \\ \sum_{u=1}^{n} \mathcal{A}_{u v} & =\frac{1}{|y|} \operatorname{freq}\left(y_{v}\right) \end{aligned} $ ここで, $\psi\left(x_{u}, y_{v}\right)$ は単語 $x_{u}$ と単語 $y_{v}$ の間の単語間非類似度(距離)を表し, 本研究ではユー クリッド距離を用いる。また, $\mathcal{A}_{u v}$ は文 $x$ 中の単語 $x_{u}$ から文 $y$ 中の単語 $y_{v}$ へ輸送量を表す行列であり, $n$ は語彙数, $f r e q\left(x_{u}\right)$ は文 $x$ 中での単語 $x_{u}$ の出現頻度である. ## 5 実験 1:難解な文と平易な文のアライメント 本節では,難解な文と平易な文の組に対してパラレルおよびノンパラレルの 2 值分類を行い,単語分散表現のアライメントに基づく文間類似度の有効性を評価する。 ## 5.1 実験設定 Hwang et al. (2015) は, English Wikipedia と Simple English Wikipedia から抽出した 67,853 文対に対して以下の 4 つのラベルを人手で付与したデータを公開している. - Good : 2 文間の意味が等しい(277 文対) - Good Partial : 一方の文が他方を含意する(281 文対) - Partial:部分的に関連する(117 文対) - Bad:無関係 $(67,178$ 文対) 我々はこの評価用データセットを用いて, 以下の 2 つの設定で, 文間類似度によって各文対をパラレルデータとノンパラレルデータに 2 值分類する. - Gvs.O:Goodのラベル付きデータのみをパラレルデータとする - G+GP vs. $O$ : Good と Good Partialの 2 つのラベル付きデータをパラレルデータとする評価には, Hwang et al. と同じく以下の 2 つの尺度を用いる. - MaxF1:F1 スコアの最大値 - AUC-PR : Precision-Recall 曲線(PR 曲線)上の Area Under the Curve 比較手法には, English Wikipedia と Simple English Wikipedia からテキスト平易化のためのパラレルコーパスを構築する Zhu et al. (2010), Coster and Kauchak (2011b) および Hwang et al.の 3 つの先行研究に加えて, Additive Embeddings (Mikolov, Sutskever, Chen, Corrado, and Dean 2013b) を用いる. Additive Embeddings は, 単語アライメントを使用しない比較手法であり,単語の分散表現を足し合わせることによって文の分散表現を構成し,コサイン類似度によって文間類似度を計算する。 単語分散表現に基づく文間類似度計算のために, 我々は公開されている学習済みの単語分散表現9を用いる。これは, Google News dataset 上でword2vec (Mikolov et al. 2013a)の CBOW モデルによって学習された 300 次元の単語分散表現である. 提案手法のうち, Average Alignment, Maximum Alignment および Hungarian Alignment については, Song and Roth (2015)にならって単語アライメントのノイズ除去を行った. 4.2 節でも述べたが,同義の文対 $(x, y)$ を考えても全ての単語対について単語間類似度が高くなるとは考えにくく, どの単語アライメントの手法を用いても単語間類似度が低いにも関わらず対応付けられてしまう単語対が存在する。このようなノイズとなる単語対の影響を抑えるため, 我々は $\phi\left(x_{i}, y_{j}\right)>\theta$ の単語間類似度を持つ単語対 $\left(x_{i}, y_{j}\right)$ のみを用いて単語アライメントを行った。 この閥値 $\theta$ は MaxF1を最大化するように選択し, Average Alignment については $G$ vs. Oの分類時に $0.89, G+G P$ vs. $O$ の分類時に 0.95, Maximum Alignment については $G$ vs. $O$ の分類時に 0.28, $G+G P$ vs. $O$ の分類時に 0.49, Hungarian Alignment については $G$ vs. $O$ の分類時に $0.98, G+G P$ vs. $O$ の分類時に 0.98 を採用した. ## 5.2 実験結果 パラレルデータとノンパラレルデータの 2 值分類の結果を表 1 に示す. Good とその他の 2 值分類においては多対多の単語アライメントに基づく Word Mover's Distanceが最も高い性能を示した。また, Good+Good Partialとその他の 2 值分類においては多対一の単語アライメントに基づく Maximum Alignment が最も高い性能を示した。なお, Maximum Alignment は Good とその他の 2 值分類においても 3 つの先行研究よりも高い性能を示した. 図 3 および図 4 に, パラレルデータとノンパラレルデータの 2 值分類における Precision-Recall 曲線を示す. 図 4 の Good +Good Partial とその他の 2 値分類において,太実線の Maximum Alignment が他の単語分散表現に基づく文間類似度計算手法よりも高い性能を示した. 3 節で述べたように,テキスト平易化タスクでは省略も頻繁に行われる。そこで,テキスト  表 1 パラレルデータとノンパラレルデータの 2 值分類精度 図 3 Gvs.Oの 2 值分類における $\mathrm{PR}$ 曲線 図 $4 G+G P$ vs. Oの 2 値分類における $\mathrm{PR}$ 曲線 平易化のための単言語パラレルコーパスには,対応する難解な文と平易な文が同義である Good の文対だけでなく,難解な文が平易な文の意味を含意する Good Partial の文対も含めることが重要である。そのため,Good+Good Partialとその他の 2 値分類において最も高い性能を示す Maximum Alignment が,テキスト平易化のための単言語パラレルコーパス構築に最も適した文間類似度の計算手法であると言える。 図 5 および図 6 から, Maximum Alignment では (genus, genus) と (species, genus)のような多対一の単語アライメントが可能であるが, Hungarian Alignment には (as, genus) や (tree, is)のような誤った単語アライメントが見られる。機能語は色々な単語とある程度の単語間類似度を持つため, Hungarian Alignment における一対一の制約は厳しすぎる。また, Maximum Alignment は多対一の単語アライメントを許すので,フレーズと単語の言い換えも上手く捉えられる. 図 5 Maximum Alignment による単語アライメント図 6 Hungarian Alignment による単語アライメント ## 6 実験 2: 英語のテキスト平易化 Simple English Wikipediaのような平易に書かれた大規模コーパスは英語以外の多くの言語では利用できないため, 本研究では生コーパス (English Wikipedia) からテキスト平易化のための疑似パラレルコーパスを構築し,それを用いてフレーズベースの統計的機械翻訳モデルを訓練することによってテキスト平易化を実現する. 本節では,平易に書かれた大規模コーパスが利用できる英語での実験によって,文アライメント手法の改善によるテキスト平易化の性能の変化を確認する。 また,平易なコーパスに頼らない疑似パラレルコーパスから訓練されたモデルが,既存のパラレルコーパスから訓練されたモデルに匹敵する性能を発揮できることを示す. ## 6.1 疑似パラレルコーパスの構築 3 節で述べたように,我々はリーダビリティ推定と文アライメントによって各文対に対してテキスト平易化のための品質推定を行い,コーパスに含める文対を選抜する。 ## 6.1.1 生コーパス まず, 生コーパスを用意する。本研究では, English Wikipedia ${ }^{10}$ の各記事に対して WikiExtractor $^{11}$ を用いた本文抽出と NLTK 3.2.112を用いたトークナイズを行い, 10 単語以上の $6,283,703$文を対象とした。  ## 6.1.2 リーダビリティ推定 次に,英文のリーダビリティ推定のために,我々は英語のテキスト平易化 (Zhu et al. 2010; Bingel and Søgaard 2016) でよく利用される Flesch Reading Ease Formula (Flesch 1948)を用いる. Flesch Reading Ease Formula では, $\alpha$ を単語数, $\beta$ を 1 単語あたりの平均音節数として, 文のリーダビリティを次のように定義する。 $ \text { FleschReadingEase }=206.835-1.015 \alpha-84.6 \beta $ Flesch Reading Ease Formula で計算されたリーダビリティスコアは, おおよそ 0 以上 100 以下の値を取り, $[60,70)$ を標準レべルとして,高いほど読みやすい平易な文であることを意味する. そこで我々は, English Wikipedia から抽出した $6,283,703$ 文を以下のように分割した. ・ 難解なサブコーパス : $[0,60)$ のリーダビリティスコアを持つ $3,689,227$ 文 ・平易なサブコーパス : $[60,100]$ のリーダビリティスコアを持つ $2,358,921$ 文 ・リーダビリティを測定不能として棄却:数百単語の長文や箇条書きなど, 0 未満または 100 を超えるリーダビリティスコアを持つ 235,555 文 ## 6.1.3 文アライメント 我々は 5 節で最も高い性能を示した Maximum Alignment を用いて全ての難解な文と平易な文の組み合わせに対して文間類似度を計算した。単語分散表現には,5 節と同じく公開されている学習済みの CBOW モデル ${ }^{13}$ 使用した. ノイズを軽減するために単語間類似度が 0.5 以上の単語対のみを単語アライメントに使用し, 文間類似度が 0.5 以上である $2,072,572$ 文対を抽出して英語のテキスト平易化のための疑似パラレルコーパスを構築した. ## 6.2 疑似パラレルコーパスの妥当性 図 7 に, English Wikipedia と Simple English Wikipediaの文のリーダビリティの分布を示す.縦軸は各リーダビリティスコアの文数を正規化したものであり, 各ヒストグラムの面積が 1 となる. Flesch Reading Ease Formula に基づくリーダビリティスコアの 60 未満の範囲では, 難解なコーパスである English Wikipediaの文が出現する割合が高い. 同じく, 60 以上の範囲では平易なコーパスである Simple English Wikipediaの文が出現する割合が高い. よって, 本研究で難解な文と平易な文を分割した閾値 60 の基準も妥当であると言える。また,English Wikipediaには難解な文が多いとは言え,全ての文が難解なわけではないこともわかる.そのため, English Wikipedia から平易な文を抽出することで, 平易な文書に頼ることなく平易なサブコーパスを得ることができる.  図 8 に, 我々が構築した疑似パラレルコーパスの文間類似度ごとの同義性の品質を示す. Good, Good Partial,Partial および Badの各ラベルは,5 節の実験設定と対応しており,Hwang et al. (2015) に準ずるものである. 文間類似度の範囲ごとに 100 文対を無作為抽出し, 合計 500 文対を 2 人のアノテータが評価した. 各文対に 4 つのラベルのうちの 1 つを割り当てたところ,アノテータ間の一致率はピアソンの相関係数で 0.629 と十分に高かった。この同義性に関する人手評価から,文間類似度が高くなるにつれて無関係な Badの文対が減少し,同義な Goodの文対が増加していることがわかる。また,一方の文が他方を含意する Good Partialの文対は文間類似度 $[0.9,1.0)$ の範囲でのみ減少しているが,これは難解な文と平易な文の文長に関係している。文間類似度 $[0.8,0.9)$ の範囲では,難解な文の平均文長は平易な文の平均文長よりも約 3 語長い.しかし, 文間類似度 $[0.9,1.0)$ の範囲では, その差は 1 語未満である. 文長の近い文対では意味的な包含関係が成立しにくく, 文間類似度の高い文対は同義になりやすいと考えられる。 表 2 に,我々が構築したテキスト平易化のための疑似パラレルコーパスの例を示す. Goodの 図 7 リーダビリティの分布 図 8 疑似パラレルコーパスの品質 表 2 English Wikipedia から構築したテキスト平易化のための疑似パラレルコーパスの例 文対には,難解な語句から平易な語句への言い換え (precipitation $\rightarrow$ rainfall) の例が見られる. Good Partialの文対には省略の例が見られる,Partialの文対は,同義関係や含意関係ではないが,共通する語句や関連する語句を含み,関連する内容について書かれている。 English Wikipediaを分割した難解なサブコーパスと平易なサブコーパスの組は, English Wikipedia と Simple English Wikipediaの組とは異なりコンパラブルコーパスではない. そのため, 図 8 に示したように,同義や含意の関係にある文対の割合は多くはない. しかし, 本研究ではフレーズベースの統計的機械翻訳を用いてテキスト平易化を行うため,以下の 3 つの理由でこの問題の影響は少なく,雑音の多い文対からでも重要な知識を獲得できる. - テキスト平易化は同一言語内の翻訳問題であるため, 入力文に含まれる多くの単語をそのまま出力できる(変換しないことが正解である)。そのため,異言語間の翻訳問題とは異なり,適切な変換対が少量しか得られないことが致命的な問題にはならない. - フレーズベースの統計的機械翻訳では,フレーズ単位の変換対を学習する。難解なフレー ズとその言い換えである平易なフレーズの組は,同義や含意の関係にある文対からだけではなく,類義の関係にある文対からも得ることができる。 ・フレーズベースの統計的機械翻訳では, 最終的に言語モデルによるリランキングを行うため,雑音の多いフレーズペアを獲得していても,平易な言い換えとして適切なフレー ズペアをその中に含むことができれば適切な平易文が得られる. ## 6.3 実験設定 我々は生コーパスのみから構築したテキスト平易化のための疑似パラレルコーパスの有効性を調査するために,フレーズベースの統計的機械翻訳を用いてテキスト平易化モデルを学習し, Simple English Wikipedia を使って構築された既存のテキスト平易化のためのパラレルコーパスを用いて学習したモデルとの比較を行う。本研究では,テキスト平易化を難解な文から平易な文への翻訳問題と考え,対数線形モデルを用いてモデル化する. $ \begin{aligned} \hat{s} & =\underset{\text { simple }}{\operatorname{argmax}} P(\text { simple } \mid \text { complex }) \\ & =\underset{\text { simple }}{\operatorname{argmax}} P(\text { complex } \mid \text { simple }) P(\text { simple }) \\ & =\underset{\text { simple }}{\operatorname{argmax}} \sum_{m=1}^{M} \lambda_{m} h_{m}(\text { simple }, \text { complex }) \end{aligned} $ 対数線形モデルでは $M$ 個の素性関数 $h_{m}($ simple, complex $)$ および各素性の重み $\lambda_{m}$ を考え,翻訳確率 $P$ (simple complex) をモデル化する。テキスト平易化の場合は,入力の難解な文に対して素性関数の重み付き線形和を最大化する平易な文 $\hat{s}$ を探索する問題を考える。素性関数としては,フレーズの平易化モデル $\log P($ complex $\mid$ simple $)$ や言語モデル $\log P($ simple $)$ などを用いる. 我々はフレーズベースの統計的機械翻訳ツールである Moses 2.1 (Koehn et al. 2007) を使用し,パラレルコーパスからの単語アライメントの獲得には GIZA++ (Och 2003)を用いた。また, KenLM (Heafield 2011) を用いて各パラレルコーパスの平易側の文から 5-gram 言語モデルを構築した。 テストデータには, Xu et al. (2016)によって公開されているマルチリファレンスのパラレルコーパス14を使用した。これは, English Wikipedia から抽出された難解な 350 文に対して,それぞれ 8 人が平易な同義文を付与したものである。本研究では,このマルチリファレンスのパラレルコーパスを用いて Flesch Reading Ease (FRE), BLEU (Papineni et al. 2002) および SARI (Xu et al. 2016)による自動評価を行った。なお,トレーニングデータからはテストデータに含まれる English Wikipediaの文を除外した。 ## 6.4 実験結果 表 3 および表 4 にフレーズベースの統計的機械翻訳を用いたテキスト平易化の実験結果を示す. Baseline は,書き換えを行わず入力文をそのまま出力する弱いべースラインである.Zhu 定と同じくフレーズベースの統計的機械翻訳ツール Moses によってテキスト平易化を行うが, 表 3 英語のテキスト平易化の実験結果 & & & & 平易化規則数 & \multirow{2}{*}{ FRE } & BLEU & SARI \\ Zhu et al. corpus & 108,016 & 181,459 & 149,643 & 21.2 & 17.4 & $7,441,535$ & 59.7 & 84.7 & 34.7 \\ Coster and Kauchak corpus & 137,362 & 132,567 & 120,620 & 23.6 & 21.1 & $11,871,929$ & 59.8 & 86.4 & 34.1 \\ Hwang et al. corpus & 284,738 & 212,138 & 164,979 & 26.0 & 19.8 & $25,482,261$ & 61.0 & 81.3 & 34.5 \\ Our parallel corpus & 492,993 & 274,775 & 198,043 & 25.3 & 17.9 & $34,370,284$ & 61.7 & 78.4 & 34.9 \\ Our pseudo-parallel corpus & $2,072,572$ & 174,310 & 156,271 & 43.5 & 32.7 & $146,522,360$ & 58.9 & 78.0 & 34.0 \\ 表 4 疑似パラレルコーパスの文対数と性能の変化 & 文対数 & & & & & 平易化規則数 & FRE & BLEU & SARI \\  難解なコーパス (English Wikipedia) と平易なコーパス (Simple English Wikipedia) の両方を用いて構築されたパラレルコーパスをトレーニングに使用する. Our parallel corpus ${ }^{18}$ は, 同じく English Wikipedia と Simple English Wikipedia のコンパラブルコーパスを用いるが, 4.2 節の Maximum Alignment によって構築したテキスト平易化のためのパラレルコーパスをトレーニングに使用する強いべースラインである. Our pseudo-parallel corpus は我々の提案手法であり,生コーパスのみを用いて構築したテキスト平易化のための疑似パラレルコーパスを使用する. ## 6.4.1 語彙数 我々のパラレルコーパスや既存の他のパラレルコーパスでは,難解なコーパスの方が平易なコーパスよりも語彙数が多い. これは, Simple English Wikipedia が 850 語の基本語彙を用いるというガイドラインに従って書かれているためである. 850 語の制約が厳密に守られているわけではないとはいえ, Simple English Wikipediaの語彙の方が少なくなっている. しかし, 我々の疑似パラレルコーパスでは,文間類似度の高い 100 万文対までは難解なコーパスの語彙数の方が少ない。これは, 文間類似度を用いて貪欲に文アライメントを取るため, 同じ文が繰り返し使用される場合があるからである。例えば 10 万文の疑似パラレルコーパスでは,平易なコー パスの異なり文数が 25,817 であるのに対して,難解なコーパスの異なり文数は 3,674 である. ## 6.4.2 平均文長 我々のパラレルコーパスは既存の他のパラレルコーパスよりも難解なコーパスと平易なコーパスの文長の差が大きく, English Wikipedia と Simple English Wikipediaの全体の平均文長 (25.1 および16.9)に近い。これは,Maximum Alignment が文長に関わらず適切に文間類似度を計算できていることを意味する. ## 6.4.3平易化規則数(フレーズテーブルのエントリ数) 10 万文や 50 万文の部分に注目すると, 我々の疑似パラレルコーパスは得られる規則が少ない。これは類似度の低い文対ほど多くの平易化が実施されるためである。例えば, Zhu et al. corpus や我々のパラレルコーパスには, 0.5 以上の類似度の文対が含まれている,一方,疑似パラレルコーパスには, 10 万文で 0.94 以上, 50 万文で 0.79 以上の類似度の文対しか含まれていない. 同じ 10 万文や 50 万文で比較したときには我々の疑似パラレルコーパスでは類似度の高い文対が多くなり, 平易化のバリエーションは少ない。しかし, 疑似パラレルコーパスは大量に用意できるため, 最終的には十分な量の規則を獲得することができる.  ## 6.4.4 FRE: Flesch Reading Ease (リーダビリティ) 疑似パラレルコーパスを用いて学習したモデルでも,入力文よりもリーダビリティの高い文を出力できた。平易な大規模コーパスを使用していないにも関わらず,文間類似度の上位 200 万文を用いて学習した場合には, Simple English Wikipediaを使って学習した場合と同等の 59 を超えるリーダビリティを持つ文を出力することができた. ## 6.4.5 BLEU およびSARI FRE が出力文のみを用いてリーダビリティのみを評価するのに対して, BLEU は出力文とリファレンスの両方を, SARI は入力文と出力文とリファレンスの全てを用いて文法や意味も評価する. Xu et al. (2016)は, BLEU が Grammar や Meaning の観点で人手評価との相関が高く, SARI が Simplicity の観点で人手評価との相関が高いことを報告しており,テキスト平易化のために提案された SARI は Grammar/Meaning/Simplicity の全てのバランスが取れた自動評価尺度であると結論付けている。表 3 によると, BLEU は Baselineが最も高い. これは, 入力文を何も変換しない場合には意味も文法も損なわれないためである.完全に意味を保持することはできないため, 平易化の操作を加えることによってリーダビリティが向上する一方で BLEU は低下してしまう.BLEUを高く保ちつつリーダビリティのより高い文を出力することが良い平易化である。 我々のパラレルコーパスを用いて学習したモデルは, SARI で最高性能を達成した. 他の先行研究との違いは文アライメントの手法であり, 5 節の内的評価の結果と同様に Maximum Alignment の有効性が確認できた。 疑似パラレルコーパスを用いて学習したモデルでは, 文間類似度の上位 150 万文を使った場合にSARIが最大となった. 平易な大規模コーパスを利用しないにも関わらず, 先行研究のパラレルコーパスを用いて学習したモデルと同等の性能を発揮することができた. また,このときの BLEU も先行研究と同等であり, 入力文の文法や意味を保持した文を出力することができた. ## 6.4.6 テキスト平易化の例 表 5 に,フレーズベースの統計的機械翻訳を用いたテキスト平易化の例を示す。疑似パラレルコーパスを用いて学習したモデルは, Reference 1 と同様に不要な表現 “both”を省略し, Reference 2 や 3 と同様に難解な表現 “numerous”を平易な表現 “many”に言い換えた. 比較手法の中には,難解な表現 “extremely” から平易な表現 “very”への言い換えも見られた一方で, “world”など必要以上の省略も見られた. 表 5 英語のテキスト平易化の例 \\ ## 7 実験 3: 日本語のテキスト平易化 提案手法が言語やコーパス (English Wikipedia) に依存しないことを確認するために,本節では日本語の均衡コーパスを用いた実験を行う. ## 7.1 疑似パラレルコーパスの構築 6.1 節と同じく, リーダビリティ推定と文アライメントによって生コーパスからテキスト平易化のための疑似パラレルコーパスを構築する。生コーパスには現代日本語書き言葉均衡コーパス (BCCWJ) (Maekawa, Yamazaki, Maruyama, Yamaguchi, Ogura, Kashino, Ogiso, Koiso, and Den 2010)を, リーダビリティ推定には文中の各単語の単語難易度 ${ }^{19}$ (梶原, 小町 2017)の平均値をそれぞれ使用した。この単語難易度は, 571,023 語の日本語の単語に 3 段階 $(1:$ 初級, 2 : 中級, 3 : 上級)の難易度が自動的に付与されたものである. Maximum Alignment の文アライメントに使用する単語分散表現は, word2vec (Mikolov et al. 2013a)の CBOW モデルを BCCWJ 上で学習した。ノイズを軽減するために単語間類似度が 0.5 以上の単語対のみを単語アライメントに使用し, 文間類似度が 0.6 以上である 470,885 文対を抽出して日本語のテキスト平易化のための疑似パラレルコーパスを構築した。 ## 7.2 実験設定 6.3 節の英語の実験と同じ設定で,フレーズベースの統計的機械翻訳モデルを用いてテキスト平易化を行った。テストデータには, $\mathrm{Web}^{20}$ から収集した 2,000 文対を使用した,収集したデータは難解なテキストと平易なテキストからなるコンパラブルコーパスである. Maximum Alignment の文間類似度が $[0.75,1.0)$ の範囲の各文対について, 2 人のアノテータが Hwang et al. (2015)に準ずる 4つのラベル (Good, Good Partial, Partial,Bad)のうちの1つを割り当てたところ,アノテータ間の一致率はピアソンの相関係数で 0.769 と十分に高かった. テストデー 夕として使用するのは,2 人のアノテータがいずれも Goodまたは Good Partialのラベルを付与した 2,000 文対である. ## 7.3 実験結果 表 6 に,フレーズベースの統計的機械翻訳を用いた日本語のテキスト平易化の実験結果を示す. 日本語ではテキスト平易化のためのパラレルコーパスが公開されていないため,書き換えを行わず入力文をそのまま出力する弱いべースラインのみと比較する.疑似パラレルコーパスを用いて学習したモデルは,いずれも SARIにおいて Baseline(入力文)よりも高い性能を示した. 英日の実験結果から,我々は提案手法が言語やコーパスに依存せず有効であることを確認できた. なお, 表 3 の英語の実験結果に比べて全体に BLEUが低いのは, シングルリファレンスのテストデータで評価を行っているためである. 表 7 に,日本語のテキスト平易化の例を示す。疑似パラレルコーパスで訓練したテキスト平易化モデルは,難解な表現“定休日” から平易な表現“休みの日”などの言い換えを漏らしてい  表 6 日本語のテキスト平易化の実験結果 & & & & 平易化規則数 & & BLEU & SARI \\ $S_{m a x} \geq 0.80$ & 867 & 697 & 677 & 17.3 & 16.8 & 14,356 & 2.53 & 52.9 & 30.9 \\ $S_{\text {max }} \geq 0.75$ & 2,299 & 2,118 & 1,980 & 16.2 & 15.8 & 49,688 & 2.54 & 46.5 & 32.1 \\ $S_{\text {max }} \geq 0.70$ & 11,941 & 8,732 & 7,470 & 15.9 & 15.8 & 307,275 & 2.51 & 40.1 & 34.4 \\ $S_{\text {max }} \geq 0.65$ & 90,542 & 33,535 & 28,573 & 16.4 & 16.6 & $2,609,793$ & 2.49 & 28.6 & 31.7 \\ $S_{\text {max }} \geq 0.60$ & 470,885 & 78,651 & 66,177 & 17.4 & 17.7 & $15,128,855$ & 2.51 & 19.9 & 28.3 \\ 表 7 日本語のテキスト平易化の例 & \\ るものの,難解な表現 “電話で聞く”から平易な表現 “電話をする”などの言い換えや,ガ格と二格の並び替えに成功した。 ## 8 おわりに 本稿では,フレーズベースの統計的機械翻訳モデルを用いる生コーパスのみからのテキスト平易化について述べた,提案手法では,平易に書かれた大規模なコーパスや言い換え知識などの外部知識に頼らず,生コーパスのみを用いてリーダビリティと文間類似度によってテキスト平易化のための疑似パラレルコーパスを構築する。我々が提案した単語分散表現のアライメントに基づく文間類似度は,外部知識に頼ることなく難解な単語と平易な単語の単語間類似度を考慮することができ,従来の文間類似度よりも文長に頑健なため,テキスト平易化コーパスを構築するための文アライメントに適した手法である.フレーズベースの統計的機械翻訳を用いたテキスト平易化の実験結果は,疑似パラレルコーパスを用いて学習したモデルが,平易な大規模コーパスを用いて学習する先行研究のモデルと同等の性能で入力文を平易な同義文に変換できることを示した。 これまでは,豊富な言語資源が存在する英語を中心にテキスト平易化の研究が進められてき たが,生コーパスは英語以外の多くの言語でも大規模に利用できるので,今後は多くの言語でテキスト平易化が実現できるだろう. また,パラレルコーパスは文圧縮や応答文生成などの他のテキストからのテキスト生成タスクにおいても有用な言語資源である。日本語など,英語以外の言語の単言語パラレルコーパスが不足している現状を考えると, 本研究で提案した疑似パラレルコーパスの自動構築手法は, これらのタスクにおいても有望である. ## 謝 辞 本研究は首都大学東京傾斜的研究費 (全学分) 学長裁量枠戦略的研究プロジェクト戦略的研究支援枠「ソーシャルビッグデータの分析・応用のための学術基盤の研究」から部分的な支援を受けた。 ## 参考文献 Agirre, E., Banea, C., Cardie, C., Cer, D., Diab, M., Gonzalez-Agirre, A., Guo, W., LopezGazpio, I., Maritxalar, M., Mihalcea, R., Rigau, G., Uria, L., and Wiebe, J. (2015). "SemEval-2015 Task 2: Semantic Textual Similarity, English, Spanish and Pilot on Interpretability." In Proceedings of the 9th International Workshop on Semantic Evaluation, pp. 252-263. Agirre, E., Banea, C., Cardie, C., Cer, D., Diab, M., Gonzalez-Agirre, A., Guo, W., Mihalcea, R., Rigau, G., and Wiebe, J. (2014). "SemEval-2014 Task 10: Multilingual Semantic Textual Similarity." In Proceedings of the 8th International Workshop on Semantic Evaluation, pp. 81-91. Agirre, E., Cer, D., Diab, M., and Gonzalez-Agirre, A. (2012). "SemEval-2012 Task 6: A Pilot on Semantic Textual Similarity." In *SEM 2012: The 1st Joint Conference on Lexical and Computational Semantics - Volume 1: Proceedings of the Main Conference and the Shared Task, and Volume 2: Proceedings of the 6th International Workshop on Semantic Evaluation, pp. 385-393. Agirre, E., Cer, D., Diab, M., Gonzalez-Agirre, A., and Guo, W. (2013). "*SEM 2013 shared task: Semantic Textual Similarity." In 2nd Joint Conference on Lexical and Computational Semantics, Volume 1: Proceedings of the Main Conference and the Shared Task: Semantic Textual Similarity, pp. 32-43. Bingel, J. and Søgaard, A. (2016). "Text Simplification as Tree Labeling." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 337-343. Bojar, O., Buck, C., Callison-Burch, C., Federmann, C., Haddow, B., Koehn, P., Monz, C., Post, M., Soricut, R., and Specia, L. (2013). "Findings of the 2013 Workshop on Statistical Machine Translation." In Proceedings of the 8th Workshop on Statistical Machine Translation, pp. $1-44$. Bojar, O., Buck, C., Federmann, C., Haddow, B., Koehn, P., Leveling, J., Monz, C., Pecina, P., Post, M., Saint-Amand, H., Soricut, R., Specia, L., and Tamchyna, A. (2014). "Findings of the 2014 Workshop on Statistical Machine Translation." In Proceedings of the 9th Workshop on Statistical Machine Translation, pp. 12-58. Bojar, O., Chatterjee, R., Federmann, C., Graham, Y., Haddow, B., Huck, M., Jimeno Yepes, A., Koehn, P., Logacheva, V., Monz, C., Negri, M., Neveol, A., Neves, M., Popel, M., Post, M., Rubino, R., Scarton, C., Specia, L., Turchi, M., Verspoor, K., and Zampieri, M. (2016). "Findings of the 2016 Conference on Machine Translation." In Proceedings of the 1st Conference on Machine Translation, pp. 131-198. Bojar, O., Chatterjee, R., Federmann, C., Haddow, B., Huck, M., Hokamp, C., Koehn, P., Logacheva, V., Monz, C., Negri, M., Post, M., Scarton, C., Specia, L., and Turchi, M. (2015). "Findings of the 2015 Workshop on Statistical Machine Translation." In Proceedings of the 10th Workshop on Statistical Machine Translation, pp. 1-46. Callison-Burch, C., Koehn, P., Monz, C., Post, M., Soricut, R., and Specia, L. (2012). "Findings of the 2012 Workshop on Statistical Machine Translation." In Proceedings of the 7th Workshop on Statistical Machine Translation, pp. 10-51. Chall, J. and Dale, E. (1995). Readability Revisited: The New Dale-Chall Readability Formula. Cambridge, MA: Brookline Books. Collins-Thompson, K. and Callan, J. P. (2004). "A Language Modeling Approach to Predicting Reading Difficulty." In Proceedings of the Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, pp. 193-200. Coster, W. and Kauchak, D. (2011a). "Learning to Simplify Sentences Using Wikipedia." In Proceedings of the Workshop on Monolingual Text-To-Text Generation, pp. 1-9. Coster, W. and Kauchak, D. (2011b). "Simple English Wikipedia: A New Text Simplification Task." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 665-669. Flesch, R. (1948). "A New Readability Yardstick." Journal of Applied Psychology, 32, pp. 221-233. 藤田早苗, 小林哲生, 南泰浩, 杉山弘晃 (2015). 幼児を対象としたテキストの対象年齢推定方法. 認知科学, 22 (4), pp. 604-620. Ganitkevitch, J., Van Durme, B., and Callison-Burch, C. (2013). "PPDB: The Paraphrase Database." In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 758-764. Goto, I., Tanaka, H., and Kumano, T. (2015). "Japanese News Simplification: Task Design, Data Set Construction, and Analysis of Simplified Text." In Proceedings of MT Summit XV, pp. 17-31. Han, L., Martineau, J., Cheng, D., and Thomas, C. (2015). "Samsung: Align-and-Differentiate Approach to Semantic Textual Similarity." In Proceedings of the 9th International Workshop on Semantic Evaluation, pp. 172-177. Hänig, C., Remus, R., and de la Puente, X. (2015). "ExB Themis: Extensive Feature Extraction from Word Alignments for Semantic Textual Similarity." In Proceedings of the 9th International Workshop on Semantic Evaluation, pp. 264-268. Heafield, K. (2011). "KenLM: Faster and Smaller Language Model Queries." In Proceedings of the 6th Workshop on Statistical Machine Translation, pp. 187-197. Hwang, W., Hajishirzi, H., Ostendorf, M., and Wu, W. (2015). "Aligning Sentences from Standard Wikipedia to Simple Wikipedia." In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 211-217. 梶原智之, 小町守 (2017). “Simple PPDB: Japanese.” 言語処理学会第 23 回年次大会発表論文集, pp. 529-532. Kincaid, J. P., Fishburne Jr., R. P., Rogers, R. L., and Chissom, B. S. (1975). "Derivation of New Readability Formulas (Automated Readability Index, Fog Count and Flesch Reading Ease Formula) for Navy Enlisted Personnel." In Technical Report, Defence Technical Information Center Document, pp. 8-75. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180. Kuhn, H. W. (1955). "The Hungarian Method for the Assignment Problem." Naval Research Logistics Quarterly, 2, pp. 83-97. Kusner, M., Sun, Y., Kolkin, N., and Weinberger, K. (2015). "From Word Embeddings to Document Distances." In Proceedings of The 32nd International Conference on Machine Learning, pp. 957-966. Maekawa, K., Yamazaki, M., Maruyama, T., Yamaguchi, M., Ogura, H., Kashino, W., Ogiso, T., Koiso, H., and Den, Y. (2010). "Design, Compilation, and Preliminary Analyses of Balanced Corpus of Contemporary Written Japanese." In Proceedings of the 7th International Conference on Language Resources and Evaluation, pp. 1483-1486. Mikolov, T., Chen, K., Corrado, G. S., and Dean, J. (2013a). "Efficient Estimation of Word Representations in Vector Space." In Proceedings of Workshop at the International Conference on Learning Representations. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J. (2013b). "Distributed Representations of Words and Phrases and Their Compositionality." In Advances in Neural Information Processing Systems, pp. 3111-3119. Och, F. J. (2003). "Minimum Error Rate Training in Statistical Machine Translation." In Proceedings of the 41st Annual Meeting of the Association for Computational Linguistics, pp. 160-167. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Pavlick, E. and Callison-Burch, C. (2016). "Simple PPDB: A Paraphrase Database for Simplification." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 143-148. Pavlick, E., Rastogi, P., Ganitkevitch, J., Van Durme, B., and Callison-Burch, C. (2015). "PPDB 2.0: Better Paraphrase Ranking, Fine-grained Entailment Relations, Word Embeddings, and Style Classification." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, pp. 425-430. Rubner, Y., Tomasi, C., and Guibas, L. J. (1998). "A Metric for Distributions with Applications to Image Databases." In Proceedings of the 6th International Conference on Computer Vision, pp. 59-66. 佐藤理史 (2011). 均衡コーパスを規範とするテキスト難易度判定. 情報処理学会論文誌, 52 (4), pp. 1777-1789. 柴崎秀子, 玉岡賀津雄 (2010). 国語科教科書を基にした小・中学校の文章難易度学年判定式の構築. 日本教育工学会論文誌, 33 (4), pp. 449-458. Song, Y. and Roth, D. (2015). "Unsupervised Sparse Vector Densification for Short Text Similar- ity." In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1275-1280. Specia, L. (2010). "Translating from Complex to Simplified Sentences." In Proceedings of the 9th International Conference on Computational Processing of the Portuguese Language, pp. 30-39. Štajner, S., Bechara, H., and Saggion, H. (2015a). "A Deeper Exploration of the Standard PB-SMT Approach to Text Simplification and its Evaluation." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, pp. 823-828. Štajner, S., Calixto, I., and Saggion, H. (2015b). "Automatic Text Simplification for Spanish: Comparative Evaluation of Various Simplification Strategies." In Proceedings of the International Conference Recent Advances in Natural Language Processing, pp. 618-626. Štajner, S., Popović, M., Saggion, H., Specia, L., and Fishel, M. (2016). "Shared Task on Quality Assessment for Text Simplification." In LREC 2016 Workshop 83 Shared Task on Quality Assessment for Text Simplification, pp. 22-31. Sultan, M. A., Bethard, S., and Sumner, T. (2015). "DLS@CU: Sentence Similarity from Word Alignment and Semantic Vector Composition." In Proceedings of the 9th International Workshop on Semantic Evaluation, pp. 148-153. Wubben, S., van den Bosch, A., and Krahmer, E. (2012). "Sentence Simplification by Monolingual Machine Translation." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics, pp. 1015-1024. Xu, W., Callison-Burch, C., and Napoles, C. (2015). "Problems in Current Text Simplification Research: New Data Can Help." Transactions of the Association for Computational Linguistics, 3, pp. 283-297. Xu, W., Napoles, C., Pavlick, E., Chen, Q., and Callison-Burch, C. (2016). "Optimizing Statistical Machine Translation for Text Simplification." Transactions of the Association for Computational Linguistics, 4, pp. 401-415. Zhu, Z., Bernhard, D., and Gurevych, I. (2010). "A Monolingual Tree-based Translation Model for Sentence Simplification." In Proceedings of the 23rd International Conference on Computational Linguistics, pp. 1353-1361. ## 略歴 梶原智之:2013 年長岡技術科学大学工学部電気電子情報工学課程卒業. 2015 年同大学大学院工学研究科修士課程電気電子情報工学専攻修了. 同年, 首都 大学東京大学院システムデザイン研究科博士後期課程情報通信システム学域に進学, 現在に至る. 自然言語処理の研究に従事. 情報処理学会, 人工知能学会, 言語処理学会各学生会員. 小町守:2005 年東京大学教養学部基礎科学科科学史・科学哲学分科卒業. 2007 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2008 年より日本学術振興会特別研究員 (DC2) を経て, 2010 年博士後期課程修了.博士 (工学)。同年より同研究科助教を経て, 2013 年より首都大学東京システムデザイン学部准教授. 大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. (2017 年 9 月 21 日受付) (2017 年 11 月 30 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## かな漢字換言を通した日本語語義曖昧性解消の分析 \author{ 桾澤優希†・山本和英 $\dagger$ } 本論文では, 日本語語義曖昧性解消に存在する問題点を文中のひらがなを漢字に直すかな漢字換言タスクを通して明らかにする。素性について分散表現と自己相互情報量を組み合わせる手法を考案し実験を行った結果,かな漢字換言においてべースラインに比べ約 2 ポイント高い精度を得ることができた. 日本語の語義曖昧性解消タスクを用いた検証においても,PMI を用い文全体から適切な単語を素性として加えることが有効であることを示した,かな漢字換言の利点を活かし,大量の訓練データを用いたときのかな漢字換言の精度の比較を行った結果, 非常に大きい訓練データを用いた場合分散表現を用いたどの手法でもほぼ同じ精度を得られることがわかった。その一方で同じ精度を得るために必要な訓練デー夕は指数関数的に増えていくため, 少ない訓練データで精度を上げる手法が語義曖昧性解消において重要であることを確認した。また, BCCWJ と Wikipedia から作成した訓練データとテストデータを相互に使い実験し,各ドメインにあった訓練データを使うことが精度向上において重要であることを確認した. キーワード:かな漢字換言, 語義曖昧性解消, 分散表現 ## Analysis of Japanese Word Sense Disambiguation through Kana-Kanji Conversion \author{ Yuki Gumizawa $^{\dagger}$ and Kazuhide Yamamoto $^{\dagger}$ } In this paper, we investigate a problem existing in Japanese word sense disambiguation (WSD) through a HiraganaKanji conversion task. In choosing words to consider as features, we propose a method that employs word embeddings and pointwise mutual information and evaluate the proposed method. The experimental results suggest that our method is more effective than other methods using word embeddings. We conduct an experiment using SemEval 2010 Japanese WSD Task and our proposed method achieve better accuracy. We also compare the accuracy when changing the amount of training data. We find that the difference in accuracy between the methods becomes small when a very large amount of training data is used. We have confirmed that the method of improving accuracy while using fewer training data is important in WSD because the number of sentences required to obtain high accuracy increases exponentially. We also experiment on the domain of data and confirmed that using datasets for ambiguity matching in each domain is important in improving accuracy.  Key Words: KanaKanji Conversion, Word Sense Disambiguation, Word Embedding ## 1 はじめに 語義曖昧性解消はコンピュータの意味理解において重要であり, 古くから様々な手法が研究されている自然言語処理における課題の一つである (Navigli 2009, 2012). 語義曖昧性解消の手法には大きく分けて教師あり学習, 教師なし学習, 半教師あり学習の 3 つが存在する. 教師なし学習を用いるものにはクラスタリングを用いた手法 (Petersen 2006) や分散表現を用いた手法 (Wawer and Mykowiecka 2017) などが存在するが, どの手法においても精度は高くなく実用的な性能には至っていない,知識べースを用いた教師なし学習の手法についても,単純な教師なし学習よりは高いものの教師あり学習を用いる手法と比べると精度が劣ることが報告されている (Raganato, Camacho-Collados, and Navigli 2017). それらに対して, 教師あり学習を用いた語義曖昧性解消は比較的高い精度を得られることが知られており, SemEval2007 (Pradhan, Loper, Dligach, and Palmer 2007) や Senseval3 (Mihalcea, Chklovski, and Kilgarriff 2004)の英語語義曖昧性解消タスクにおいても教師あり学習を用いた手法が最も良い精度を記録している。 一方, 教師あり学習を用いて語義曖昧性解消を行う上で「訓練データが不足する」という問題が存在する.教師あり学習での語義曖昧性解消では訓練データの作成に人手での作業が必要になるため,コストの問題から大きなデータセットを用意することは難しい。語義曖昧性解消において周辺の文脈情報は有効な手掛かりであることが知られており, 訓練データを増やし様々なパターンを学習させることが精度を上げる上で必要になる (Yarowsky 1995). しかしながら,上述の SemEval2007 Task17 語義曖昧性解消タスクの Lexical Sample Taskにおいて, 訓練デー 夕の 1 単語あたりの平均訓練事例数は約 222 と決して多い数字とは言えない. SemEval2010の日本語語義曖昧性解消タスク (Okumura, Shirai, Komiya, and Yokono 2010)に至っては 1 単語あたりの訓練事例数がおよそ 50 であり, 圧倒的に訓練データが足りていないと言える。また,訓練データの不足に関連してデータスパースネスも語義曖昧性解消において大きな問題となる。先に述べたように周辺の文脈パターンを語義ごとに学習させるためには非常に大量の訓練事例が必要となりコストの問題から現実的でない. これらの問題を解決するため, 半教師あり学習によって確度の高いデータを訓練データとして追加し学習を行う方法が研究されており, 日本語語義曖昧性解消タスクにおいて高い精度が得られたことが報告されている (藤田, Duh, 藤野,平, 進藤 2011; Fujita and Fujino 2013; 井上, 斎藤 2011). また, これらを解決する別のアプロー チとして語の分散表現を教師ありの語義曖昧性解消に用いる研究があり (Sugawara, Takamura, Sasano, and Okumura 2015; 山木,新納,古宮,佐々木 2015; Iacobacci, Pilehvar, and Navigli 2016), 既存の素性と組み合わせることによって高い精度が得られたことを報告している。 ところで, 日本語の言語処理にはかな漢字換言というタスクがある. これは, 入力された文 中のひらがなについて漢字に換言できる対象がある場合,その周辺の文脈を考慮して正しい漢字に換言するというものである。例えば「私は犬をかっている」という文があった際,犬という単語から「かって」というひらがなが「買って」ではなく「飼って」を意味することは容易に理解できる。このようなひらがな語について漢字に換言を行うタスクを我々はかな漢字換言と呼んでおり,以前から研究を行ってきた (Yamamoto, Gumizawa, and Mikami 2017). ここで行っていることは語義曖昧性解消そのものであり,かな漢字換言の誤り分析を行うことは日本語語義曖昧性解消タスクにおいて誤り分析することとほぼ同義であると考えられる。また,通常の語義曖昧性解消タスクに比べかな漢字換言の訓練データは大量のコーパスから自動で構築することが可能なため, 訓練デー夕の増減による精度の変化や誤り分析などが容易に行えるという利点がある。 本論文では日本語語義曖昧性解消タスクにおける問題点についてかな漢字換言タスクを通して確認し,既存の手法において何が不足しているのかを明らかにする. 本論文の構成は以下の通りである.2章にて本論文に関連する研究および本研究の位置付けについて述べ, 3 章にて我々が今回行うかな漢字換言タスクについて日本語語義曖昧性解消夕スクと比較しながら詳細を述べる。 4 章では提案手法について既存手法との比較を行いながら説明をする. 5 章ではそれらの手法を用いてかな漢字換言と通常の語義曖昧性解消タスクにおける提案手法の有効性の検証を行い,語義曖昧性解消タスクにおける問題点を明確にする.6章にて結論を述べる。 ## 2 関連研究 本章ではまず教師あり学習に基づく語義曖昧性解消について先行研究を概観する。さらに, かな漢字換言タスクにおいて我々が以前行っていた研究について先行研究として併せて概観し,最後に本研究が本論文を通して明らかにしたいことについて示す. ## 2.1 教師あり語義曖昧性解消 Yarowsky らの報告 (Yarowsky 1995) によると教師あり学習に基づく語義曖昧性解消では周辺の文脈情報が有効だと言われている。そのため,教師あり学習での語義曖昧性解消では従来周辺に出現した単語を主に素性として用い, さらに品詞や文の構造情報, Bag-of-Words (BoW) 等を素性として加えることで精度を向上させてきた (Navigli 2009). 日本語の語義曖昧性解消においても同じであり,SemEval2010の日本語語義曖昧性解消タスクにおいて使われたべースラインのシステムでは対象単語前後の単語や品詞,係り受け関係などを素性として用い,高い精度を得ている (Okumura et al. 2010). また近年では単語のベクトル表現を用いて精度向上を図ろうとする取り組みも存在する (Cai, Lee, and Teh 2007). これらのベクトル表現は単語の意味的な特徴を捉えており, 特に Mikolov らが考案した Word2Vec(Mikolov, Sutskever, Chen, Corrado, and Dean 2013)では, Countinuous Bag-of-Words と Skip-gram の各手法によって得られる単語のべクトルが従来のカウントモデルに比べて秀でた性能を持っていることが知られている (Baroni, Dinu, and Kruszewski 2014). そのため, Word2Vec は語義曖昧性解消だけでなく係り受け解析 (Bansal, Gimpel, and Livescu 2014) 等様々なタスクにおいて利用されている. 教師あり学習の語義曖昧性解消に対して単語の分散表現を用いる手法の研究には Sugawara らの研究 (Sugawara et al. 2015) と山木らの研究 (山木他 2015), Iacobacci らの研究 (Iacobacci et al. 2016) がある. Sugawara らの先行研究では曖昧性解消の対象となる単語の前後 $\mathrm{N}$ 単語の単語べクトルをつなぎ合わせたものを素性とする Context-Word-Embeddings (CWE)という手法を提案し,BoWに比べて高い精度が得られたことを報告している。 それに対し,山木らは CWEの手法における 「単語の位置が規定される」点と「自立語以外の単語を考慮している」点について問題点として上げ,分散表現から得られる用例間類似度を用いる手法を提案している。この手法では既存の素性と組み合わせることで従来よりも高い精度が得られたことを報告している。また Iacobacci らの論文では周辺単語のベクトルを足し合わせる際に単語間の距離を考慮する手法について提案し,SemEval2007等のデータセットで有効性を確認した結果最も良い性能が得られたことを報告している. ## 2.2 かな漢字換言 かな漢字換言は 1 章で述べたように文中の一部のひらがなを漢字に直すタスクである。我々は以前,自己相互情報量 (Pointwise Mutual Information; PMI)を用いて対象となるひらがなの換言候補の中で最も PMI が高い漢字について換言するという手法を実装している (Yamamoto et al. 2017). ここでは精度よく換言できないひらがなと漢字の対については換言対象から外す処理をしているが,換言対象となった 71 語の換言精度は $94.1 \%$ と非常に高いことを報告している.この換言手法は語義曖昧性解消に必要な情報が周辺単語 1 単語で決定できるという考察に基づいたものであるが,この論文中では周辺単語から換言を行えると考えられる対象のみを換言対象としていたため, すべての漢字に当てはめたときの精度は不明であり, 語義曖昧性解消の分析としては不十分である. ## 2.3 本研究の目的 我々が本論文において明らかにしたい問題は主に 3 つである. 1 つ目は素性選択の手法である。従来, 日本語語義曖昧性解消の手法として提案されてきたものの多くが素性として主に対象単語前後 2 単語の情報を使い,そこに係り受け関係や LDAの結果などを追加する形で精度を向上させてきた (Okumura et al. 2010; 藤田他 2011). 分散表現 を用いた Sugawara らの語義曖昧性解消においては対象単語前後 5 単語の分散表現を使い実際に精度が向上したことが報告されているが, 日本語語義曖昧性解消において考慮する周辺単語の窓幅によって精度がどのように変化するのか調査した文献は存在しない. また,新納らは論文中で「特に対象単語からかなり離れた後方位置にある単語が対象単語の語義の選択に影響を与えているとは考えづらい」と述べている (新納,古宮,佐々木 2017). 我々はこれらについて改めて調査, 報告を行った上で新たに自己相互情報量を用い, 対象単語から離れた位置の単語を考慮する手法を提案する。 2 つ目は訓練データのサイズである.2.1 節で述べたように教師ありの語義曖昧性解消ではその精度評価として規模の小さい訓練データが使われることが多い. その為, 曖昧性解消の精度が低い主な理由について「訓練データが不足している」と考察している論文も少なくない (藤田他 2011; 新納, 村田, 白井, 福本, 藤田, 佐々木, 古宮, 乾 2015). 一方でそれらの論文中でどれくらいの訓練データが必要になるのかの考察はほぼ行われておらず,少ない訓練データを用いて精度の改善を行うことにのみ注力しているように見える。どのくらいの規模の訓練データを用意すれば十分な精度が得られるのかが明確に示されているのならば,まず訓練データを増やすことができるはずである。逆に訓練事例の数によって精度の差がないのであれば現状の夕スクにおいてより精度を出せる手法を検討していくことが重要となる。そこで,我々はかな漢字換言の特性を活かして非常に大規模なデータを用意し,訓練データを増減させたときの精度の変化を調査する. 3 目は訓練データのドメインについてである. Fujitaらは対象語毎に訓練データの分野の組合せを変えて学習するより,分野に関係なくすべての訓練デー夕を学習に用いる方が精度が良いと報告をしているが (Fujita, Duh, Fujino, Taira, and Shindo 2010), ドメインごとに同量の訓練データを用いた際の精度の変化についてそれぞれ比較を行い,どのような訓練データがどの程度精度に寄与するのかを明らかにする。 以上 3 点についてが,本論文において我々が報告したい内容である. ## 3 かな漢字換言 ## 3.1 概要 かな漢字換言は文章中の特定のひらがなを漢字に換言するタスクである。例えば「私は犬をかっている」という文が存在した場合, ここでの「かって」という単語は「買う」ではなく「飼う」という意味での使われ方をしている。一方「購買でノートをかう」という文の場合, ここでの「かう」という単語が「買う」という意味を示していることは容易く理解できる。このような換言対象となるひらがな語を含む文についてひらがな語を該当する漢字に同定するタスクを我々はかな漢字換言と呼んでいる。意味の曖昧性を持つひらがな語を特定の漢字に同定する 処理はそのひらがな語の語義曖昧性を解消することに相当する。また,この換言はひらがな語と漢字語の表記ゆれ解消にもなっている。つまり,本タスクは語義曖昧性解消,換言処理,表記ゆれ解消のいずれにも該当する。 我々が通常の語義曖昧性解消タスクではなくかな漢字換言による語義曖昧性解消で分析を行う理由に,その訓練データの作りやすさがある。通常の語義曖昧性解消では訓練データをコストをかけて人手で作る必要があるが,かな漢字換言では対象となる漢字さえ分かれば大量のコーパスから自動的に訓練データを増やすことが可能であり,訓練デー夕の増減による精度の検証が容易い。そのため,今回我々はかな漢字換言を通して語義曖昧性解消の分析を行うこととした。 かな漢字換言の対象となるひらがな語は同じ読みで異なる語義を持つ漢字が複数存在するものである.以前 Yamamoto らが実装したかな漢字換言では換言の対象を手動にて抽出しているが (Yamamoto et al. 2017), 我々はかな漢字換言を通して日本語語義曖昧性解消について分析を行うため, 語義の定義について形態素解析辞書 UniDic ${ }^{1}$ の語彙素を用いた. UniDic では語彙素を選定する際の同語異語判別に明確な基準を設けている (小椋, 原, 小木曽, 小磯, 宮内 2010).基準の一つとして「漢字表記の頻度よりも仮名表記の頻度が非常に高い場合,一つの語彙素にまとめることを優先する」というものがあり,これは例えば「収まる」や「治まる」の語彙素が「収まる」にまとめられるようなものである。この基準は通常のかな漢字換言では「収まる」 と「治まる」のような漢字を対象にすることができないため不適当である。しかし,本論文の目的はかな漢字換言を通した日本語語義曖昧性解消の分析であるため,大規模なコーパスからデータセットを自動的に抽出する際,十分な訓練事例を用意できないこれらの語義を解析対象とするのは適当でない,さらに,明確に使い分けされていないこれらの漢字をデータセットとして抽出することは誤解析の原因となる。そのため,ここではこれらの語義を明確に分けている形態素解析辞書 UniDic を用いている。 かな漢字換言において活用を持つ動詞に関してはその語の形を用いることで一意に意味を決定できる場合がある.例えば「寝る」「練る」のような単語に関して「寝る」の未然形は「ね」 なのに対し「練る」の未然形は「ねら」である。そのため,「私は惹麦をねらない」といった文に含まれる「ねらない」は一意に「練らない」に変換することが可能である。しかし,本論文中ではかな漢字換言を通して語義曖昧性解消について分析することが目的であるため, 語の形は素性として使わないこととした。 以後の実験において使用する訓練データとテストデータについて,我々は現代日本語書き言葉均衡コーパス $(\mathrm{BCCWJ})^{2}$ に含まれる全文章の中から換言の対象となる文を,訓練データでは 1 語義あたり 200 文を,テストデータでは 1 語義あたり 50 文を無作為に抽出した. 出現頻度が ^{1}$ http://pj.ninjal.ac.jp/corpus_center/unidic/ 2 http://pj.ninjal.ac.jp/corpus_center/bccwj/ } 表 1 かな漢字換言データセットの一部 & 部隊 \\ 250 文に満たない漢字については換言対象から除外している。抽出の対象となる文は日本語解析システム雪だるま (山本, 高橋, 桾澤, 西山 2016$)^{3}$ の出力単語が 15 語以上のものとした. 文長を 15 語以上に制限する理由は「窓幅と素性の選び方」について調査する上で窓幅による精度への影響を調査しやすくするためである。換言対象のひらがなは計 311 語,換言の候補となる漢字は計 734 語である。換言対象のひらがな語は BCCWJ 中において 438,360 回出現し, 全約 600 万文章中約 13.5 文に 1 回出現する計算となる. 以後の実験では特筆しない場合上記のデー 実際にデータセットとして抽出された文の一部を表 1 に示す. 表中の下線部が換言の対象となるひらがなである. ## 3.2 他タスクとの比較 通常, 語義曖昧性解消タスクの多くは WordNet や辞書などに存在する語義の定義に併せて単語を分類することが多い (McCarthy 2009). これらの語義曖昧性解消の語義夕グは比較的細かいことから,実アプリケーションへの実装を考えた際にその粒度が問題となることが指摘されており (Lopez de Lacalle and Agirre 2015), 近年ではより粗い粒度を語義曖昧性解消へ用いる動きも見られる (Navigli, Litkowski, and Hargraves 2007). また, 拡張固有表現階層を用いて構築した意味カテゴリに基づく語義曖昧性解消のアプローチも存在し, これは荒い粒度の語義曖昧性解消と同等だと考えられる (村本, 鍜治, 吉永, 喜連川 2011). かな漢字換言では前述の通り語義が完全に異なる漢字のみを対象としており,語義同士の距離が近い漢字を曖昧性解消の対象としていないことから,かな漢字換言はこれらの語義曖昧性解消タスクと同等,またはそれ以上に粗い曖昧性解消と考えることが可能である. ^{3}$ http://snowman.jnlp.org/snowman } 今回の分析に用いるかな漢字換言のデータと通常の語義曖昧性解消の間のその他の違いとして文長が考えられる,前節にて抽出したデータセットでは 1 文が 15 単語以上のものを語義曖昧性解消の対象として選択している。一方で, 日本語語義曖昧性解消タスクでは文章自体は長いが 1 文 1 文がかな漢字換言のデー夕に比べて短くなっている。つまり 1 文のみを使うことによる語義曖昧性解消の難易度はかな漢字換言の方が易しいと考えられる。 ここではかな漢字換言タスクと通常の語義曖昧性解消タスクとの関連性を調べるため, Semeval2010 の日本語語義曖昧性解消タスクとの比較を行う,白井らは語義曖昧性解消の難しさについて語義の頻度分布のエントロピーを用いて分析を行っている (白井 2003). 頻度分布のエントロピー $E(w)$ は次式で求めることができる. $ E(w)=-\sum_{i} p\left(s_{i} \mid w\right) \log p\left(s_{i} \mid w\right) $ ここで $p\left(s_{i} \mid w\right)$ は単語 $w$ の語義が $s_{i}$ である確率を表す. 表 2 に各夕スクにおける平均語義数,頻度分布のエントロピーを示す.なお SemEval2010 のタスクについては語義の頻度分布のエントロピーを用いて決められた難易度ごとのデータについても記す (Okumura, Shirai, Komiya, and Yokono 2011). 前節で作成したかな漢字換言のデー タセットでは各語義のデータ数を揃えているため, 今回はエントロピーの計算に BCCWJ の漢字の出現回数をカウントし用いている. 各タスクにおける平均語義数を比較するとかな漢字換言の平均語義数は日本語語義曖昧性解消夕スクの $D_{\text {easy }}$ に相当することがわかる。一方でかな漢字換言のエントロピーの値は 0.87 と $D_{m i d}$ と同じ程度の值を取っている. かな漢字換言では対象となる漢字をコーパス中で 250 回以上出現するものに限定しているため, 偏りが少なくなったことでエントロピーの值が大きくなったのだと考えられる. これらを踏まえると,かな漢字換言タスクは日本語語義曖昧性解消タスクにおける $D_{\text {easy }}$ と同等かそれ以上に簡単なものであると考えられる。白井らの報告によれば新聞記事中に出現する出現頻度 10 以上の単語に対して付与された語義タグの異なり数の多くは 2 であり, エントロピーに関しても 1 以下の形態素が多い (白井, 柏野, 橋本, 德永, 有田, 井佐原, 荻野, 小船,高橋, 長尾, 橋田, 村田 2001). それゆえに, $D_{\text {easy }}$ 相当と考えられるかな漢字換言は日本語の語義曖昧性解消の大きな部分タスクの一つであるとみなせる。 表 2 各データセットの比較 ## 4 提案手法 本章では,Yamamoto らが実装した PMI を用いたかな漢字換言 (Yamamoto et al. 2017)について改めて実験を行った結果を 4.1 節に示し, その結果に基づいて提案した手法について 4.2 節にて説明する。 ## $4.1 \mathrm{PMI$ のみを用いたかな漢字換言} ## 4.1.1 手法の説明 以下に以前 Yamamoto らが実装を行った PMI に基づくかな漢字換言の手法について以下に説明を述べる (Yamamoto et al. 2017).また,その概略図を図 1 に示す. (1)文全体を検索し,換言対象が含まれているかどうかを調べる. (2) 換言対象が含まれている場合対象から前後 4 単語の内容語と換言対象の漢字の PMI を計算する。 (3) PMI が 5 以上の漢字の中から最も PMI が高い漢字の換言対象についてその漢字を出力する. (4) 計算結果がすべて PMI5 以下である場合は換言を行わない. 図 1 の各工程について詳しく説明していく. まず,入力文に対する手掛かりの選定を行う。この手法では PMI が高い単語を用いてかな漢字換言を行っている。そのため, どの文においても頻出しPMI の値が低くなる助詞や記号等の機能語は計算から省いてしまっても結果に影響しないと考え, 換言に用いる手掛かり語を内容語のみに絞って PMI の計算を行うこととしている。また換言対象の前後 4 単語について手掛かりとする語の選定に用いているが, この数字は我々の経験に基づいて決めた数字である. 2 番目の工程として漢字候補の読み込みを行うが, ここでは 3 章で説明したように BCCWJ とUniDic を用いて作成された日本語解析システム雪だるま (山本他 2016)の辞書を基に手動で候補を作成しているため, 候補の作り方の詳細な説明は省く。 次に自己相互情報量の計算を行う。この換言方法において我々は共起する確率が高い漢字ほどそのかな漢字換言の候補として適切だと考え,共起する組み合わせを数值化するために PMI を用いた. $p(x, y)$ を $x$ とが同時に出現する確率, $p(x)$ を $x$ が出現する確率とした時 2 つの語 $x, y$ における自己相互情報量 $P M I(x, y)$ は次式で表される. $ P M I(x, y)=\log \frac{p(x, y)}{p(x) p(y)} $ 式 (2) から分かる通り自己相互情報量の計算にはそれぞれの出現確率が必要になる. 出現確 手掛かり語の選定 正面 , ノート 漢字候補の読込 かう:買う,飼う PMIの計算 $\mathrm{PMI}$ (正面,買う) $=0.0$ $\mathrm{PMI}($ 正面,飼う $)=1.1$ $\mathrm{PMI}($ ノート,買う) $=5.2$ $\mathrm{PMI}($ ノート,飼う $)=0.0$ ## しきい値との比較 $\mathrm{PMI}($ ノート,買う)=5.2>しきい値5.0 よって“買う”に決定 図 1 PMI を用いたかな漢字換言の換言過程 率はなるべく大量の文章から正しい頻度を数え正しい数字を計算する必要があるが, 非常に大規模なテキストを用意するのは難しい,そのため,我々は Web 日本語 $\mathrm{N}$ グラム(第 1 版)4を利用し,擬似的に各単語の出現確率とそれぞれの単語の組み合わせが共起する確率の計算を行った. Web 日本語 $\mathrm{N}$ グラムでは 200 億文について頻度が 20 回以上の ngram を収録しており,頻度の計算としては十分な規模を持つ. ここで利用するのは $7 \mathrm{gram}$ のデータであり, 単語間の距離が 7 以内である場合にその単語ぺアを共起したとみなし頻度の計算を行っている。 PMI には闇値を設け,周辺単語と換言対象の漢字のペアの PMI すべてが閥値を下回った場合換言を行わないようにしているが,これは低いPMI の値の漢字を出力することによる換言器の精度低下を防ぐためである。以前の実装において我々は事前の調査からその閥値を 5 に設定している. 今回, 我々は改めて上記の手法を用いてかな漢字換言の精度を改めて調査することとした。以下にこの実験において調査した内容について示す. - PMI の閥値 5 は正しい設定なのか - 空幅 4 の設定は正しい設定なのか ^{4}$ http://www.gsk.or.jp/catalog/gsk2007-c/ } PMI の閾値の設定を上げることでその換言の適合率をあげられるのであれば,PMI が高い単語が含まれている文ではその単語を素性として使うことでより高精度な換言が行えるはずであり,逆に間値の設定によらず適合率が上がらないのであれば PMI のみを用いて語義曖昧性解消を行う手法があまり適さないということを明らかにできる。 窓幅の設定に関する実験もまた重要である。これまでの語義曖昧性解消では周辺の 2 から 5 単語程度を素性とした手法が多く文全体を考慮する手法は少なかったが, それらの窓幅の設定が本当に正しいのかをこの実験で明らかにすることができ,今後の教師あり語義曖昧性解消において重要な設定の一つを明確にすることができる. ## 4.1.2 実験 3 章にて作成したかな漢字換言のテストデータを用いて周辺単語として考慮する単語の密幅を変化させたときの精度と,PMIの閾値を変化させたときの精度を確認した.窓幅に関する実験の際は PMI の閾値を 5 に設定し窓幅を 2 から 20 まで 1 刻みで変化させたときの適合率と再現率,F 值の変化を見る,PMI に関する実験の際は窓幅を 20 に固定し,PMI の閾値を 0 から 20 まで1刻みで変化させたときの適合率と再現率,F 值の変化を見る.PMI の計算には前項での説明と同様に Web 日本語 N グラムの 7gram から擬似的に計算した頻度情報を用いた. 図 2 に PMI の間値を変化させたときの結果, 図 3 に空幅を変化させたときの結果を示す. まず,窓幅を固定しPMIの間値を変化させていったときの影響について考察をする.図 2 を見ると, PMI の間値が 3 までに関しては再現率と適合率がほぼ同じ值になっている。これは対象のひらがなの前後の内容語に PMI が 3 以下のものがなかったため, すべての文において何らかの換言が行われたからである.PMI の閥値を 3 より上げていくと再現率は下がり,それに対応して PMI が 10 まで適合率が上がっており,PMI が 10 を超えると換言の精度は $95 \%$ 超え 図 2 PMI の閥値を変化させたときの各値の変化 図 3 空幅を変化させたときの各値の変化 高い精度での換言が行えていることが見て取れる。一般に閥値を上げることでよりPMI の高い候補を持つひらがなのみが換言されることから適合率は上がると考えられるが,この実験結果はそれが正しいことを示した形になる。一方で再現率はそれを上回る勢いで減少しており,結果として F 値は減少している。この結果は一部の単語について PMI が高い語を素性として用いる方法が精度を上げる上で効果的であるということを示唆するものである。 次に PMI の閥値を固定し空幅を変化させていったときの影響について考察する.図 3 を見ると窓幅を上げることで再現率, $\mathrm{F}$ 値をともに上げることができていることがわかる。これは換言対象の単語から遠いところにも素性となる単語が現れていることを示し, 文全体を考慮することでより正しく多くのひらがなを換言することができている。しかしながら適合率の値は密幅を大きくすることで減少しており,単純に PMI が高い単語を選ぶ方法では素性としては不充分であり,前後の文脈なども同時に考慮する必要があるといえる. ## 4.2 分散表現と PMI を用いたかな漢字換言 前節の結果から我々は分散表現と PMI を用いることで文全体の文脈を考慮してより正確にかな漢字換言を行う手法を提案する。ここで提案する手法は Sugawara らの提案手法に対して改善を加え,山木らが上げた「単語の位置が規定される」という問題を解消するものである. まずSugawara らの手法について説明をする.Sugawara らは周辺の単語の分散表現を用いて語義曖昧性解消を行う手法として AVEと CWEの 2 手法を提案している. AVE は対象単語の周辺単語について分散表現を平均し素性として用いる手法である. CWEは周辺単語の分散表現をつなぎ合わせる手法である。具体的には,空幅 $N$ を , 換言対象前の単語を $w_{-N}, w_{-N+1}, \ldots, w_{N-1}, w_{N}$ とし,それらの分散表現を表すべクトルを $v_{w_{-N}}, v_{w_{-N+1}}, \ldots, v_{w_{N-1}}, v_{w_{N}}$ とした時に AVE は素性 $v_{\text {ave }}$ (式 3)を,CWEでは素性 $v_{\text {cwe }}$ として周辺の単語べクトルをつなぎ合わせたべクトル(式 4)を素性として用いる手法である。この素性の次元は分散表現の次元を $L$ とすると AVEでは $L, \quad \mathrm{CWE}$ では $2 \times N \times L$ となる. $ \begin{gathered} v_{\text {ave }}=\frac{v_{w_{-N}}+v_{w_{-N+1}}+\ldots+v_{w_{N-1}}+v_{w_{N}}}{2 N} \\ v_{\text {cwe }}=v_{w_{-N}}, v_{w_{-N+1}}, \ldots, v_{w_{N-1}}, v_{w_{N}} \end{gathered} $ Sugawara らはこれらの素性を用いた手法について実験を行い,AVEよりも CWEのほうがより高い精度が得られたことを報告している。また, その理由として AVEでは周辺の文脈情報が落ちるため精度が出ないとし, CWE は単語の位置が考慮できるためより精度が高くなったと考察している。しかし, 山木らが挙げたように CWEでは単語の位置が規定されるため, 訓練データにおいて出現した単語がテストデータに出現したとしても, 出現位置によってはその類似性が反映されないという問題があると考えられる。そこで我々はこの問題を解消する新たな 手法を提案する. 一つは CWE で素性として用いる周辺の単語ベクトルに対して, 周辺単語の分散表現の平均ベクトル AVE を足し合わせる手法である。 CWE , AVE の頭文字を取ってこの手法を CA と呼ぶ. 換言対象前の単語を $w_{-N}, w_{-N+1}, \ldots, w_{N-1}, w_{N}$ としたとき,それらのべクトルを足し合わせた $v_{w_{-N}}+v_{w_{-N+1}}+\ldots+v_{w_{N-1}}+v_{w_{N}}$ のベクトルは周辺単語のコンテキストをよく表すべクトルになっている。 そこで我々は CWEの手法の各ベクトルに対してこのベクトルの平均 AVE を足し合わせることによって単語の位置が規定され,精度が落ちるという問題に対処できると考えた ${ }^{5}$. 具体的には周辺単語の平均ベクトルとして考慮する窓幅を $N_{a v e}=5$ とし周辺単語の平均ベクトルを式 5 とした際に式 6 を素性として使う手法である。平均ベクトルとして考慮する単語の数は $N_{\text {ave }} \times 2$ となる. これによって各単語の位置を考慮しつつ周辺単語のコンテキストを考慮することができる。 $ \begin{gathered} v_{\text {ave }}=\frac{v_{w_{-N}}+v_{w_{-N+1}}+\ldots+v_{w_{N-1}}+v_{w_{N}}}{2 N_{\text {ave }}} \\ v_{C A}=v_{w_{-N}}+v_{\text {ave }}, v_{w_{-N+1}}+v_{a v e}, \ldots, v_{w_{N-1}}+v_{a v e}, v_{w_{N}}+v_{a v e} \end{gathered} $ しかしながら,この手法でも空幅の大きさ分しか周辺単語を考慮することができず,また空幅を闇雲に大きくしても機能語などの本質的に文の周辺文脈と関係のないノイズ成分が増えてしまうため精度の向上は見込めない。そこでそれらの素性に対してさらに文中で PMI の大きい単語のベクトルを末尾につなぎ合わせる手法を提案する。 CWE, AVE, PMI の頭文字を取ってこの手法を CAP と呼ぶ. これは対象となる文全体の中から換言候補となる漢字と PMI が最も高い単語の分散表現を末尾につなぎ合わせるという手法である。図 1 を例として説明すると, 計算によって「ノート」と換言候補の「買う」が最も PMI が高くなった場合, 単語「ノート」の分散表現を末尾につなぎ合わせる。かな漢字換言ではなく通常の語義曖昧性解消の場合,換言候補となる単語と周辺単語の間の PMI を計算し, 最も PMI が高い単語を素性として選ぶ. これにより語義曖昧性解消において重要な単語のコンテキストを考慮することができ,かつ分散表現を用いることで似ている単語がテストデータに出てきた場合にも対応できると考えられる。 これをまとめると,CAPで用いる素性は文中で最も PMI が高い単語のベクトルを $v_{w_{\text {maxpmi }}}$ とすると式 7 となり, 素性の次元数は $(2 \times N+1) \times L$ となる. $ v_{C A P}=v_{w_{-N}}+v_{\text {ave }}, v_{w_{-N+1}}+v_{\text {ave }}, \ldots, v_{w_{N-1}}+v_{\text {ave }}, v_{w_{N}}+v_{\text {ave }}, v_{w_{\text {maxpmi }}} $ 提案した素性についての説明図を図 4 に示す. ^{5} \mathrm{CWE}$ に対して平均べクトル AVE をつなぎ合わせる手法も考えられるが, 5 章と同等の条件で実験を行った結果精度の向上が見られなかったためここでは手法の説明について省略している。 } 図 4 分散表現を用いた各手法における素性の例 ## 5 実験 本章ではまず前章において提案した手法についてかな漢字換言タスクにおける評価を行う.続いて日本語語義曖昧性解消タスクでも同様に評価を行い提案手法の有効性を実証する。その後, 教師データを増減させることによる精度への影響, データのドメインによる精度への影響について調査, 考察する. ## 5.1 かな漢字換言による実験 ## 5.1.1 実験設定 4 章で説明した素性を用いて既存の手法との精度の比較を行う. データセットには 3 章で BCCWJ と UniDic から抽出したデータを用い, 分散表現の構築に用いるコーパスは 2016 年 3 月 5 日にダンプされた日本語の Wikipediaのデータ 6 から wp2txt $7{ }^{7}$ を用いて作成したものを用いる. 単語分割に用いる解析器には我々の研究室で開発, 研究している日本語解析システム雪たるま (山本他 2016) を用いる。この解析器は UniDic を辞書として用いた MeCab のラッパーとして開発されており, その特徴として活用を持つ単語に関しては活用を落として出力し, 活用は活用形態素と言う形で活用を持つ単語の後ろに対して 1 形態素として出力をするようになっている.また,「サ変名詞 + する」のような組み合わせの単語を 1 単語として出力するようになっている.活用形態素を考慮するかしないかによって語義曖昧性解消の精度が変化する可能性は存在するが本論文の主旨からそれてしまうため, ここでの実験では活用を考慮せずに行う.  作成した Wikipediaコーパスを雪だるまにて解析し,それらを gensim 8 の Word2Vec の実装で学習させ単語の分散表現として使う.Word2Vecの学習では Skip-gram を用い階層的ソフトマックスとネガティブサンプリング両方を使用する。学習に使用する窓幅の設定は 5 とし, ネガティブサンプリングの值は 5, ダウンサンプリングの割合は $10^{-3}$ に設定し各ベクトル表現はすべて 200 次元に設定した。分類器には Scikit-learn ${ }^{9}$ で実装されている SupportVectorMachine (SVM) の LinearSVC を使用し, 正則化パラメータとして $C=1.0$ を使用した. 比較する素性として対象単語の周辺単語の分散表現をつなぎ合わせる CWE, 対象単語の周辺単語のベクトルを足し合わせる AVE, CWE に対して周辺単語の BoWを素性として加えた $\mathrm{CWE}+\mathrm{BoW}, 4$ 章にて提案した $\mathrm{CWE}$ と AVE を組み合わせる手法 $(\mathrm{CA})$, さらに $\mathrm{PMI}$ を組み合わせた手法 (CAP) に関して精度の比較を行う。 ## 5.1.2 結果 前項で説明した各素性を用いた手法について実験を行った.窓幅を 2 から 20 まで変化させたときの換言精度の変化を示したグラフを図 5 に示す。また,各手法について,一番精度が良かったときの窓幅の大きさとその時の精度を表 3 に示す。なおグラフ中の AVE (CW) は AVE で足し合わせる単語を内容語のみに制限した時の結果となっている. $\mathrm{CA}$ や $\mathrm{CAP}$ の手法において, 足し合わせて使う周辺単語の密幅は訓練データを用い 4 分割交差検定にて最も精度の良かった 3 に固定してある. 図 5 各素性を用いたかな漢字換言精度 ^{9}$ http://scikit-learn.org/ } 表 3 素性ごとのかな漢字換言の精度比較 結果として, CWE や AVE, CWE+BoW の精度を CAの精度が 1 ポイント以上上回り, さらに PMI を組み合わせた CAP の手法が最も高い精度を示した。CWEでは単語ごとのべクトルを並べることによって単語の出現位置を考慮することができているが,単語の位置が規定されることによって周辺単語のコンテキストを考慮することができなかった. これらの手法に対して CWE+BoW は BoW を素性として加えることで単語の位置が規定される問題を若干解消しているが精度の向上はあまり大きくない。一方 CWE に対してAVE を加えた手法では大きく精度が向上している。これは AVEを素性として加えることにより似た文脈を持つ文などをより考慮することができるようになったからと考察できる。一般に BoW 等の count モデルに比べて Word2Vec などの predict モデルは性能が良いと言われており (Baroni et al. 2014) より密になったべクトルを使うことでモデルが特徴を学習しやすくなったのだと考えられる。また,それらの手法に対して PMI の高い単語の分散表現を加えた手法 (CAP) では, 周辺単語だけではなく対象単語から遠い位置にある重要な単語に関して考慮することができていることからより高い精度を示している。 窓幅の設定に関して,窓幅をある一定まで増やしていくと顕著に精度が上がっていくが,ある程度の窓幅がある場合はそれ以上空幅を大きくしても精度が上がらないことが見て取れ,一定以上の密幅があればそれらから似た文脈を持つ文の語義曖昧性も解消できるということを表している。またAVEに関しては窓幅 4 までは精度が上がっているがそれ以降は精度が下がっている,AVEでは空幅内の単語について分散表現をすべて平均する手法になっているため, 対象単語から離れた機能語などが多く足し合わさることによって雑音が増え, 正しく分類できない文が増えたからだと考えられる。実際に内容語のみを足し合わせた手法のグラフを確認すると内容語のみを足し合わせることで精度の低下が起こらなくなっていることがわかる. しかしその精度が通常の AVEに比べ非常に低いことから,対象単語の周辺の機能語が語義曖昧性解消において重要であることをこの結果は示している. 次に実際にどのような文が正解に変わり,どのような文が換言できなかったのかについて誤り分析を通して考察をしていく.空幅を 10 に設定した際に CWEで正しく換言できなかった文 についてランダムに 100 文抽出しそれらに対して各手法における分析を行った. 表 4 に入力文と各システムが出力した漢字の一部を示す。表内の H の列に関しては人間が同じ文を見たときに換言できるかどうかを著者が個人の主観で判断したものである。抽出した 100 文中人間の目で見て正しい漢字が選択できた対象は 67 文であり,その 67 文中 CAP の手法で正しい漢字を選択できるようになった文は 45 文であった. 表 4 中の 1, 2 の例では CWE に対して AVE の素性を組み合わせることで解けるようになっていることがわかる.例 1 において CWE では単語の位置が規定されることによって「勤め」という単語から帰るという言葉が連想されることを学習できずに「返る」という単語を出力してしまっているが,AVEの素性を足すことによって正しく換言が行えるようになったのだと推察できる.2に関しても同様で CWE では「アダージオ」という音楽用語から本来は「弾く」という意味を導けていないが,AVEを素性として加えることで単語の位置が規定されるという問題を解消し正しい漢字が導けていることがわかる. 3, 4 の例は PMI を素性として加えることで正しい漢字を導けている例である. 3 の例では密幅 10 の設定では「練る」という単語を導くために必要な「構想」という単語を考慮することができないが,PMIを用いることで「構想」単語の分散表現を素性として加えることができるよ 表 4 入力文とシステムが実際に出力した漢字 & 帰る & 返る & 帰る & 帰る & 1 \\ うになっている。そのため正解である「練る」という漢字を導けるようになったものだと考察できる.4の例も同様で人間が「共生」という漢字を導くために必要な「サンゴ」や「褐虫藻」 といった単語は窓幅 10 では考慮できないが PMI を用いることで位置が離れた単語でも素性として使え, 結果として正しい漢字が出力できるようになったのだと推察できる. 実際に PMI によって素性として選ばれた単語は「褐虫」であった。 一方で 5,6 の例はどの手法でも正しく換言できなかった文である。例 5 に関しては「暖かい」 といった単語や「柔らかい」という単語に引っ張られて「感性」という単語をどの手法においても出力しているが,「部屋」を完成させていることが人間の場合わかるため「完成」が正しい漢字であることを我々は認識できる。このような例に関しては構文情報などのより高度な意味理解が必要になる. 7,8 は著者の主観では正しい漢字を導くことができなかった例である.例 7 に関しては「二五世紀の戦士」という固有名詞を認識し知識として学習させる必要があるため, このような対象は我々の手法では正しく解けない。そもそも固有名詞に関しては一部をひらがなで書くということはほほ状況として無く, これらは固有表現抽出の問題になるはずである。例 8 に関しては「創作」「捜索」どちらの漢字が割り当てられても文としては自然なため曖昧性を解くのに必要な周辺文脈が不十分であることがわかる. 最後に PMIによって選ばれた単語の換言対象単語との距離について考察をする。換言対象単語と PMIによって素性として選択された単語の距離のヒストグラムを図 6 に示す. 図 6 PMIによって選ばれた単語の換言対象単語との距離 図 6 を見ると PMI が高い単語の多くが周辺 2 単語に存在していることがわかる. PMI の計算時に使う頻度情報として距離が 7 単語以内に出現した単語を共起したとみなして計算しているため, 距離が近いところに PMI が高い単語が出てくるのは当然であるが,それを考慮しても周辺 2 単語以内によく共起する単語が出現している. 周辺 2 単語以内に最も PMI が高い単語が出 置でも PMI の高い単語がかなりの割合で出現しており,これらを素性として加えることで一部の文において正しいコンテキストを選択できるようになり,かな漢字換言の精度が 0.8 ポイン卜向上したのだと言える。距離 10 より大きい位置に最も PMI が高い単語が出現した文の割合は全データ 158,750 件中 52,337 件と約 $33 \%$ の割合を占める。この結果からもより精度の高い語義曖昧性解消を行う際にはより幅広い周辺文脈から重要な素性を選択する必要があると言える。 ## 5.2 日本語語義曖昧性解消タスクによる実験 ## 5.2.1 実験設定 続いて提案手法の日本語語義曖昧性解消タスクでの有効性を調査する.各手法を比較するために用いるデータとして SemEval2010の日本語語義曖昧性解消タスク (Okumura et al. 2010)を使用し検証を行う.SemEval2010 のデータでは語義曖昧性解消の対象となる単語は 50 単語であり 1 語あたりの事例数は訓練データ,テストデータでそれぞれ 50 事例となっている。この数字は 1 語義あたり 200 の訓練事例があるかな漢字換言タスクに比べて非常に規模が小さい.また, 3 章で述べたように日本語語義曖昧性解消タスクはかな漢字換言に比べ 1 語あたりの平均語義数が多く,頻度分布のエントロピーも大きいことからかな漢字換言よりも難しいと言える. 実験設定は基本的に前節と同様のものを用いる。なお,データセット自体が単語分割されているため,単語分割について雪だるまは使用していない. 比較する素性として前節同様対象単語の周辺単語の分散表現をつなぎ合わせる CWE,対象単語の周辺単語のベクトルを足し合わせる AVE, CWEに対して周辺単語の BoWを素性として加えた $\mathrm{CWE}+\mathrm{BoW} , 4$ 章にて提案した $\mathrm{CWE}$ と $\mathrm{AVE}$ を組み合わせる手法 $(\mathrm{CA})$, さらに $\mathrm{PMI}$ を組み合わせた手法 (CAP) に関して精度の比較を行う。 ## 5.2.2 結果 5.1 節で用いた素性を使用して日本語語義曖昧性解消タスクでの実験を行った.各素性において空幅を変化させていったときの精度の変化のグラフを図 7 に示す. また, 各素性において最も精度が良かったときの数字とその時の窓幅を表 5 に示す。 なお, $\mathrm{CA}$ や $\mathrm{CAP}$ の手法において, 足し合わせて使う周辺単語の密幅は訓練データで 5 分割交差検定を行い最も精度の良かった 2 に固定してある。 まず,図 7 から見て分かる通り, どの手法においても窓幅が小さい時の精度が非常に高く, 図 7 各素性を用いた日本語の語義曖昧性解消 表 5 素性ごとの語義曖昧性解消の精度比較 空幅を広げていくとその精度が落ちていっていることがわかる。この結果は粒度の粗いかな漢字換言と違い, 細かい粒度の語義は前後の単語から決定的に行えるということを示している。 CWE と CA の間に大きな精度の差が見られなかったのはこれが一つの理由であると考えられる。空幅が小さい際は「単語の位置が規定される」という問題が少なく, 周辺語の出現パター ンを比較的少ない訓練事例で学習することが可能である。そのため 2 つの素性の間に差が生まれなかったのだと考察できる. 一方で CWE に比べ PMI を組み合わせた手法は約 1 ポイント精度が向上している。これは先程の考察の一方で一部の語義の決定には曖昧性解消の対象となる単語から離れた単語も有効であるということを示している。CAP の素性において PMI で選んだ単語の曖昧性解消の対象となる単語の距離のヒストグラムは図 8 になっている. 図 8 を見るとかな漢字換言での検証と同様, PMI が高い単語は前後 2 単語に集中していることがわかる. 周辺 2 単語以内に最も PMI が高い単語が出現した割合は訓練データ中では約 $26 \%$ であった。一方で換言対象からの距離が 3 以上のものも一定数出現しておりこれらを素性として加えることで一部の語義が正しく導くこ 図 8 PMI によって選ばれた単語の語義曖昧性解消図 9 PMI の窓幅を変化させたときの精度の変化の対象単語との距離 とができ,精度が約 1 ポイント向上したのだと考えられる,距離 3 以上の位置に最も PMI が高 遠くの位置の単語が語義を決定するのに有効であると言える. また,SemEval2010の日本語語義曖昧性解消タスクでは 1 文ではなく文章全体から PMI によって素性を選ぶ手法についても検討することができる。従来の日本語の語義曖昧性解消は 1 文単位での手法がほとんどである。しかしながら,同文章中であれば似た文が多く含まれていると考えられるため,精度の向上に寄与する可能性がある。図 9 に語義曖昧性解消の対象単語が含まれる文章を用い,PMI で考慮する窓幅を変化させていった時の精度の変化を示す. 図 9 を見ると空幅 50 以下で $\mathrm{CWE}$ 等の手法に比べて高い精度を記録していることが見て取れる。また窓幅 40 において精度 $78.6 \%$ を記録しており,PMI での空幅を適切に考慮することで 1 文ではなく文章単位でも精度を向上させることが可能であると言える。一方で,ある一定以上 PMI の窓幅を上げていくとその精度は低下していき, その他の手法とあまり変わらない値となっている。これは距離が遠すぎる単語は対象単語を含む文と比べて周辺文脈が大きく変わっており, PMIが大きい単語でも曖昧性解消の素性として効果がないからであると言える。 結論として日本語の語義曖昧性解消では,広い窓幅から重要な単語を適切に素性として加えることで一定の精度の向上が見达めることがわかる。 ## 5.3 訓練データの増減による換言精度の変化 ## 5.3.1 実験設定 ここでは前節で有効性が確認できた各手法において,訓練デー夕を増やすことによる換言精度への影響について調査する。 Marquez らは訓練データの規模を 1 語義あたり 200 件以上に増 やすことで分類精度が向上することを報告しているが (Marquez, Escudero, Martinez, and Rigau 2006),それ以上に規模を大きくした論文については存在しない.しかし,かな漢字換言を通した語義曖昧性解消の調査では訓練デー夕を自動で抽出することが可能である。そこで今回,我々はかな漢字換言の特性を活かして訓練データを 1 語義あたり 5,000 件用意し, 規模を増加させたときの精度の変化を確認した。訓練データを抽出する上で BCCWJではそのコーパスの大きさが不十分で,すべての漢字の例について十分な規模の訓練データを抽出することができなかったため, 本実験ではすべて日本語ウェブコーパス $(2010)^{10}$ のテキストアーカイブから 3 章で抽出した方法と同様にして抽出したものを使った。BCCWJ の規模はテキスト形式でおよそ $600 \mathrm{MB}$ であるがウェブコーパスの規模は 396 GB であり,またその文数は BCCWJ 約 600 万文に対してウェブコーパスでは約 56 億文と,かな漢字換言の訓練データ作成において十分な量である。訓練デー夕には 3 章で構築した 1 語義あたり 200 件の訓練デー夕は使わず,全てウェブコーパスから抽出したもののみを使う。これはドメインの違うデータを用いることによる精度の変化の影響を排除するためである。語義曖昧性解消において訓練デー夕はその大きさだけではなく多様性によっても左右される。そのため,より多様性に富んだデー夕を意図的に抽出することで訓練データを増やしていった時の精度をより向上させることが可能であると考えられる。しかし,ここでの調査は訓練データの大きさによる精度への影響を調べることに焦点を当てるため, 恣意的に抽出するデータを選ぶようなことはせずウェブコーパスのみから無作為に訓練データを選択している。テストデータには 3 章で構築したものと同じものを使用する. ## 5.3.2 実験結果 訓練事例数を増やしていった際のかな漢字換言における各手法の精度の変化を図 10 に示す. なお,訓練データの規模を示す横軸は対数表示である。またグラフ中の $\mathrm{CAP}_{J}$ は SemEval2010 の日本語語義曖昧性解消タスクについて訓練データを制限した際の数値を示す。かな漢字換言では横軸の値は 1 語義あたりの訓練事例なのに対し,日本語語義曖昧性解消タスクでは横軸の値は 1 単語あたりの訓練事例であることに注意されたい。また,日本語語義曖昧性解消タスクでは純粋な訓練事例の変化による精度を確認するため,訓練データ中の各語義のバランスを考慮し各語義の訓練データを順に追加している。 グラフを見ると,かな漢字換言においてある程度まではデータが増えることによって大きく精度が変わっているが,徐々にその傾きが緩やかになっていき, 1 語義あたりの訓練データが 5,000 件前後になるとほぼ精度が変わらなくなることがわかる. このことから,訓練データの規模は大きければ大きいほどよいが, 1 語義あたり 1,000 から 5,000 件程度訓練事例を用意することで精度が収束すると言える。また, 訓練データが少ない 10 から 100 までの間では訓練データ  図 10 訓練データの大きさによる精度の変化 サイズの変化に応じて精度が大きく向上しており,このことからも一定量の訓練デー夕を用意することが語義曖昧性解消において非常に重要であることを示している. 日本語語義曖昧性解消タスクにおいてデータを制限した際の学習曲線においても訓練事例の増加に伴って精度の向上が確認できる。かな漢字換言に比べ学習曲線が緩やかになっているものの,データ数を指数関数的に増やすことによって一定の精度向上が見られる.かな漢字換言では横軸が 1 語義あたりのデー夕数なのに対し日本語語義曖昧性解消タスクでは 1 単語あたりのデータ数である。平均語義数が多い日本語語義曖昧性解消タスクでは語義あたりのデータの増加量がかな漢字換言に比べ緩やかになっていると考えられ,グラフの傾きが緩やかになっているのだと考えられる。また,かな漢字換言と違い語義曖昧性解消タスクでの検証ではデータに語義の偏りが存在するためここでの比較は公平ではないが,訓練事例を指数関数的に増加させることが精度向上に寄与することはこのグラフから読み取ることができる。 使う素性によってグラフの傾きも変わり, CAPのグラフは教師データが非常に少ない場合でも CWE 単体に比べて 10 ポイント近く高い精度を示している.このことから CAP は分散表現の特徴をうまく捉え,似た文脈に関しても正しい漢字を予測することができていることがわかる。逆に教師データの量が大きければ大きいほど各手法の差は小さくなっている.訓練事例を 1 語義あたり 10 事例用意した際の CWE と CAP の精度の差は 9.7 ポイントであり,訓練事例を 5,000 事例用意した際の精度の差は 1.2 ポイントである. これは, CWE で問題であった単語の位置が規定されるという問題が,教師データの規模を非常に大きくすることで無理やり解消できたからだと考えられる。この結果からも一定数の訓練データを用意した上で手法の有効性を評価することが,実用的な語義曖昧性解消の検証につながると考えられる.また,ここでの実 験では訓練データの多様性は考慮していないためこのような結果になっているが, より多様性を考慮したデータセットを作ることでより少ない訓練事例で精度が収束することも考えられる。 しかしながら語義曖昧性解消のデータセットとして 1 語義あたり 1,000 事例の非常に大きな訓練データを作るのは非常にコストがかかるため現実的ではない.この結果からある一定量のデータと精度よく曖昧性解消できる手法を組み合わせることが最も高い精度を出すために重要であると言える。また,小規模な訓練データを用いて確度の高いデータを訓練デー夕に追加し学習を行っていく半教師あり学習が語義曖昧性解消に有効であると考えられる. ## 5.4 訓練データのドメインによる精度の変化の確認 ## 5.4.1 実験設定 この節では訓練データのドメインとテストデータのドメインによって精度がどの程度変わるかを検証する。一般に異なるドメインのデータで学習させたモデルを, 別のドメインのテストデータに合うようにチューニングすることは領域適応と呼ばれ構文解析や語義曖昧性解消において精度を上げる上で重要な研究の一つになっている (McClosky, Charniak, and Johnson 2010). また語義曖昧性解消において訓練データの多様性を考慮することは周辺の文脈パターンをモデルにより幅広く学習させることができ, 精度の向上が期待できる. 異なるドメインのデータを用いて語義曖昧性解消を行う実験は新納ら (新納, 佐々木 2013)などが行っているが, ここで使われている SemEval2010の日本語語義曖昧性解消夕スクではドメインごとに訓練データのサイズが異なるため, 単純なドメインの変化による精度の影響の調査としては不十分である. そこで,訓練データを大量のテキストから自動で作れるかな漢字換言の特性を活かし,異なるドメインのデータで学習したモデルを別のドメインのテストデータで用いた際の精度について検討する。また, 複数ドメインの訓練データを混ぜて学習させることによる精度への影響についても検討する。 この実験では訓練データ,テストデータとして使用するドメインの異なるデータセットとして 3 章にて BCCWJ より構築したデータセットと, 2016 年 3 月 5 日にダンプされた日本語の Wikipediaのデータから抽出したテキストを元に 3 章と同じ方法で構築したデータセットを用いる,BCCWJには新聞や Webデータなど様々なドメインの文章が含まれているが, Webデー 夕として使われているものは Yahoo!知恵袋と Yahoo!ブログから収集されたテキストデータである。そのため, Wikipedia 等の事物を説明するための文章とは異なるドメインであると考え,実験を行う.訓練データ,テストデータの大きさはどちらのデータセットにおいても同じ量になっている。その他の実験設定は 5.1 節と同じものを使用する. 比較のための手法には 5.1 節で最も精度の良かった CAP を用いる。周辺単語の分散表現を足し合わせる際の窓幅は 3 , 分散表現をつなぎ合わせて考慮する窓幅の設定は 10 としている. ## 5.4.2 実験結果 BCCWJ, Wikipediaより構築された訓練データを用いてモデルを学習させ,それぞれ異なるテストセットで評価を行った。実験結果を表 6 に示す。表中の BCCWJ+Wikipedia はそれぞれの訓練データ 200 件のうち, ランダムで 100 件ずつ抽出し統合したものを訓練データとして使用した場合となっている. 表を見るとそれぞれのドメインで学習させて同じドメインのテストデータで評価したものに比べて, 相互にテストデー夕を入れ替えた結果は精度が落ちていることがわかる.特に訓練デー 夕として Wikipedia から抽出したデータを使い BCCWJ で曖昧性解消をしたものは約 5 ポイントほど精度が低下している。このことから, 語義曖昧性解消においてドメインごとにあった訓練データを用いることが精度向上に大きく寄与するといえる。一方で BCCWJ から抽出したデー 夕を使い Wikipedia のテストデータで評価したものは精度の減少はあるものの約 1.2 ポイントと少なくなっている。これは BCCWJ が均衡コーパスであり様々なドメインのデータを含んでいるため多様性に富んでいるからだと考えられる。これは多様性に富んだ訓練デー夕を用いることが精度向上に貢献することを示唆するものである. また,それぞれのドメインの訓練データを混ぜ学習させたモデルは BCCWJ, Wikipedia から作成したテストデータ両方において高い精度が発揮できており,それぞれのドメインの訓練データのみを学習させ, 同ドメインのテストデータで評価したときの精度とほぼ変わらない值を得ることができている。この結果からも語義曖昧性解消で用いる訓練データは広いドメインから幅広い文を対象に抽出したほうが訓練デー夕の多様性を考慮でき, より高い精度での曖昧性解消が期待できることを表している。また, この結果は「対象語毎に訓練データの分野の組合せを変えて学習するより, 分野に関係なくすべての訓練データを学習に用いる方が精度が良い」という Fujita らの報告 (Fujita et al. 2010)が,訓練デー夕の大きさが同じ場合でもほぼ変わらない精度を得ることができることを示している。 結論として, 語義曖昧性解消においてテストデータにあった訓練デー夕を用いることが精度 表 6 ドメイン変化時の精度 向上に大きく寄与する一方で,訓練デー夕の多様性を考慮することで様々なドメインのデータにも対応できると言える。 ## 6 結論 本論文ではかな漢字換言を通して日本語の語義曖昧性解消において幾つかの問題点を明らかにした。 まず素性として使う単語の選び方である。我々は事前の実験を通して文全体を見て文中から正しく素性を選ぶことが重要であることを示し, 分散表現と PMI を用いて周辺文脈と曖昧性解消の対象となる単語から離れた単語について考慮する手法を考案した。手法の有効性に関して BCCWJ から作成したかな漢字換言のデータセットを用いて実験を行ったところ, ベースラインとなる単純な単語の分散表現のつなぎ合わせに比べ約 2 ポイント高い精度を得ることができた. また考慮する窓幅についても検討したところ,周辺 5 単語以上を考慮することでより高い精度を得ることができることを確認した。このことからより文中の様々な単語を考慮することがかな漢字換言において重要であるということを明らかにした. さらに日本語の語義曖昧性解消タスクを用いて提案手法の有効性について検証した。その結果, 単純な単語の分散表現のつなぎ合わせに対して周辺単語の平均ベクトルを足し合わせる方法の有効性は確認できなかったが, PMI を用い文全体から適切な単語の分散表現を素性として加えることが有効であることを確認した. また,我々は訓練データの大きさによる語義曖昧性解消への影響も調査した。訓練データを 10 件から 5,000 件まで増やしていったときのかな漢字換言の精度を確認し,分散表現を用いた各手法で実験を行った。その結果, 分散表現を用いた手法では, 非常に大きな規模の訓練デー 夕を用意することでどの手法においてもほぼ変わらない精度を得られることを確認した. その一方で高い精度を得るために必要なデー夕は指数関数的に増えていくため, より少ないデー夕で高い精度を得られる手法が教師ありの語義曖昧性解消において重要であることを確認した。 さらに我々は訓練データのドメインについても調査を行った. BCCWJ と Wikipedia から作成した訓練データとテストデータを相互に使い実験し,各ドメインにあった訓練データを使うことが精度向上において重要であることを確認した。また,各ドメインの訓練デー夕を混ぜて学習させた結果から, 幅広いドメインの文章から多様性に富んた語義曖昧性解消のデータセットを作ることが語義曖昧性解消に対して有効であることを確認した. 語義曖昧性解消はコンピュータの意味理解において重要な役割を果たすため, より精度の高い手法やツールが求められるはずである。本論文を通して自然言語処理における語義曖昧性解消という問題が少しでも解消できればいいと願う. ## 謝 辞 本研究は, 平成 $27 \sim 31$ 年科学研究費補助・基盤 (B) 課題番号 $15 \mathrm{H} 03216$, 課題名「日本語教育用テキスト解析ツールの開発と学習者向け誤用チェッカーへの展開」, 及び平成 $29 \sim 31$ 年科学研究費助成事業挑戦的萌芽課題番号 $17 \mathrm{~K} 18481$, 課題名「やさしい日本語化実証実験による言語資源構築と自動平易化システムの試作」の助成を受けています。 ## 参考文献 Bansal, M., Gimpel, K., and Livescu, K. (2014). "Tailoring Continuous Word Representations for Dependency Parsing." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 809-815, Baltimore, Maryland. Association for Computational Linguistics. Baroni, M., Dinu, G., and Kruszewski, G. (2014). "Don’t Count, Predict! A Systematic Comparison of Context-Counting vs. Context-Predicting Semantic Vectors." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 238-247, Baltimore, Maryland. Association for Computational Linguistics. Cai, J., Lee, W. S., and Teh, Y. W. (2007). "Improving Word Sense Disambiguation Using Topic Features." In Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL), pp. 1015-1023, Prague, Czech Republic. Association for Computational Linguistics. 藤田早苗, Duh, K., 藤野昭典, 平博順, 進藤裕之 (2011). 日本語語義曖昧性解消のための訓練データの自動拡張. 自然言語処理, 18 (3), pp. 273-291. Fujita, S., Duh, K., Fujino, A., Taira, H., and Shindo, H. (2010). "MSS: Investigating the Effectiveness of Domain Combinations and Topic Features for Word Sense Disambiguation." In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 383-386, Uppsala, Sweden. Association for Computational Linguistics. Fujita, S. and Fujino, A. (2013). "Word Sense Disambiguation by Combining Labeled Data Expansion and Semi-Supervised Learning Method." ACM Transactions on Asian Language Information Processing, 12 (2), pp. 7:1-7:26. Iacobacci, I., Pilehvar, M. T., and Navigli, R. (2016). "Embeddings for Word Sense Disambiguation: An Evaluation Study." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 897-907, Berlin, Germany. Association for Computational Linguistics. 井上裁都, 斎藤博昭 (2011). ラベルなしデータの二段階分類とアンサンブル学習に基づく半教師あり日本語語義曖昧性解消. 自然言語処理, 18 (3), pp. 247-271. Lopez de Lacalle, O. and Agirre, E. (2015). "A Methodology for Word Sense Disambiguation at 90\% based on Large-scale CrowdSourcing." In Proceedings of the 4th Joint Conference on Lexical and Computational Semantics, pp. 61-70, Denver, Colorado. Association for Computational Linguistics. Marquez, L., Escudero, G., Martinez, D., and Rigau, G. (2006). Word Sense Disambiguation: Algorithms and Applications, Chap. 7, pp. 184-195. Springer. McCarthy, D. (2009). "Word Sense Disambiguation: An Overview." Language and Linguistics Compass, 3 (2), pp. 537-558. McClosky, D., Charniak, E., and Johnson, M. (2010). "Automatic Domain Adaptation for Parsing." In Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 28-36, Los Angeles, California. Association for Computational Linguistics. Mihalcea, R., Chklovski, T., and Kilgarriff, A. (2004). "The Senseval-3 English Lexical Sample Task." In Proceedings of Senseval-3: 3rd International Workshop on the Evaluation of Systems for the Semantic Analysis of Text, Barcelona, Spain, July 2004. Association for Computational Linguistics (ACL). Mikolov, T., Sutskever, I., Chen, K., Corrado, G., and Dean, J. (2013). "Distributed Representations of Words and Phrases and their Compositionality." CoRR, abs/1310.4546. 村本英明,鍜治伸裕,吉永直樹,喜連川優 (2011). Webテキストを対象とした語義曖昧性解消のための言語資源の半自動構築. 情報処理学会論文誌, 52 (12), pp. 3338-3348. Navigli, R. (2009). "Word Sense Disambiguation: A Survey." ACM Computing Surveys, 41 (2), pp. 10:1-10:69. Navigli, R. (2012). A Quick Tour of Word Sense Disambiguation, Induction and Related Approaches, pp. 115-129. Springer Berlin Heidelberg, Berlin, Heidelberg. Navigli, R., Litkowski, K. C., and Hargraves, O. (2007). "SemEval-2007 Task 07: Coarse-Grained English All-Words Task." In Proceedings of the 4th International Workshop on Semantic Evaluations (SemEval-2007), pp. 30-35, Prague, Czech Republic. Association for Computational Linguistics. 小椋秀樹, 原裕, 小木曽智信, 小磯花絵, 宮内佐夜香 (2010). 形態素解析辞書 UniDic における同語異語判別について. 言語処理学会第 16 回年次大会発表論文集, pp. 486-489. Okumura, M., Shirai, K., Komiya, K., and Yokono, H. (2010). "SemEval-2010 Task: Japanese WSD." In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 69-74, Uppsala, Sweden. Association for Computational Linguistics. Okumura, M., Shirai, K., Komiya, K., and Yokono, H. (2011). "On SemEval-2010 Japanese WSD Task.”自然言語処理, 18 (3), pp. 293-307. Petersen, T. (2006). Word Sense Disambiguation: Algorithms and Applications, Chap. 6, pp. 133-166. Springer. Pradhan, S., Loper, E., Dligach, D., and Palmer, M. (2007). "SemEval-2007 Task-17: English Lexical Sample, SRL and All Words." In Proceedings of the 4th International Workshop on Semantic Evaluations (SemEval-2007), pp. 87-92, Prague, Czech Republic. Association for Computational Linguistics. Raganato, A., Camacho-Collados, J., and Navigli, R. (2017). "Word Sense Disambiguation: A Unified Evaluation Framework and Empirical Comparison." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 99-110, Valencia, Spain. Association for Computational Linguistics. 新納浩幸, 古宮嘉那子, 佐々木稔 (2017). 順方向多層 LSTM と分散表現を用いた教師あり学習 による語義曖昧性解消. テクニカル・レポート 4 , 茨城大学工学部情報工学科. 新納浩幸, 村田真樹, 白井清昭, 福本文代, 藤田早苗, 佐々木稔, 古宮嘉那子, 乾孝司 (2015). クラスタリングを利用した語義曖昧性解消の誤り原因のタイプ分け. 自然言語処理, $22(5)$, pp. 319-362. 新納浩幸, 佐々木稔 (2013). $\mathrm{k}$ 近傍法とトピックモデルを利用した語義曖昧性解消の領域適応. 自然言語処理, 20 (5), pp. 707-726. 白井清昭 (2003). SENSEVAL-2 日本語辞書タスク. 自然言語処理, 10 (3), pp. 3-24. 白井清昭, 柏野和佳子, 橋本三奈子, 徳永健伸, 有田英一, 井佐原均, 荻野紫穂, 小船隆一, 高 橋裕信, 長尾確, 橋田浩一, 村田真樹 (2001). 岩波国語辞典を利用した語義夕グ付きテキス トデータベースの作成. 情報処理学会研究報告自然言語処理 (NL), 2001 (9), pp. 117-124. Sugawara, H., Takamura, H., Sasano, R., and Okumura, M. (2015). "Context Representation with Word Embeddings for WSD." In International Conference of the Pacific Association for Computational Linguistics, pp. 108-119. Wawer, A. and Mykowiecka, A. (2017). "Supervised and Unsupervised Word Sense Disambiguation on Word Embedding Vectors of Unambigous Synonyms." In Proceedings of the 1st Workshop on Sense, Concept and Entity Representations and their Applications, pp. 120-125, Valencia, Spain. Association for Computational Linguistics. 山木翔馬, 新納浩幸, 古宮嘉那子, 佐々木稔 (2015). 分散表現を用いた教師あり機械学習による語義曖昧性解消. テクニカル・レポート 17 , 茨城大学工学部情報工学科. Yamamoto, K., Gumizawa, Y., and Mikami, Y. (2017). "Word Sense Implantation by Or- thographical Conversion." International Journal of Asian Language Processing, 27 (2), pp. 79-94. Chinese and Oriental Languages Information Processing Society (2017.12).山本和英, 高橋宽治, 桾澤優希, 西山浩気 (2016). 日本語解析システム「雪だるま」(第 2 報)進捗報告と活用形態素の導入(言語理解とコミュニケーション)-(第 9 回テキストマイニング・シンポジウム).電子情報通信学会技術研究報告, 116 (213), pp. 63-68. Yarowsky, D. (1995). "Unsupervised Word Sense Disambiguation Rivaling Supervised Methods." In Proceedings of the 33rd Annual Meeting on Association for Computational Linguistics, ACL '95, pp. 189-196, Stroudsburg, PA, USA. Association for Computational Linguistics. ## 付録 ## A 換言対象となるひらがなと漢字候補 ## 略歴 桾澤優希 : 2017 年長岡技術科学大学工学部電気電子情報工学課程卒業. 同年,同大学工学研究科修士課程電気電子情報工学専攻に進学. 現在に至る. 自然言語処理の研究に従事. 山本和英:1996 年 3 月豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了. 博士 (工学)。1996 年〜2005 年(株)国際電気通信基礎技術研究所 (ATR) 研究員. 1998 年中国科学院自動化研究所国外訪問学者. 2002 年から長岡技術科学大学, 現在准教授. 自然言語処理, 人工知能(知識構築), 日本語教育 (支援ツール作成) の研究開発に従事. 2012 2014 年電子情報通信学会言語理解とコミュニケーション (NLC) 研究会委員長, 2016 年から言語処理学会理事. 言語処理学会, 人工知能学会, 日本語教育学会, 情報処理学会, 電子情報通信学会, 言語資源協会, アジア太平洋機械翻訳協会各会員。 (2017 年 9 月 14 日受付) (2017 年 12 月 31 日再受付) (2018 年 2 月 13 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 自然演繹に基づく論理推論の文間類似度学習・含意関係認識への応用 谷中瞳 ${ }^{\dagger}$ 峯島宏次 ${ }^{\dagger \dagger}$ P Pascual Martínez-Gómez ${ }^{\dagger \dagger+}$ 戸次大介方 文と文がどのような意味的関係にあるかという文間の関連性の計算は, 情報検索や文書分類,質問応答などの自然言語処理の基盤を築く重要な技術である.文の意味をべクトルや数值で表現する手法は未だ発展途上であり,自然言語処理分野においては,様々な機械学習による手法が活発に研究されている。これらの手法では,文字や単語を単位としたべクトルを入力として, それらの表層的な出現パターンとその振る舞いを学習することで,文ベクトルを獲得している。しかし,否定表現を含む文など,文の構造的意味を正確に表現できるかは自明ではない。一方で, 形式意味論においては, 表現力の高い高階論理に基づいて意味の分析を行う研究が発展しているが,文間の関連性のような,連続的な意味的関係を表現することが困難である. そこで本研究では, 機械学習と論理推論という二つの手法を組み合わせて文間の関連性を計算する手法を提案する。具体的には,文間の含意関係を高階論理の推論によって判定するシステムの実行過程から, 文間の関連性に寄与する特徴を抽出し,文間の関連性を学習する。文間類似度学習と含意関係認識という 2 つの自然言語処理タスクに関して提案手法の評価を行った結果,推論の過程に関する情報を特徵量に用いることによって,いずれのタスクにおいても精度が向上した。また,含意関係認識用データセットの一つである SICK データセットの評価では, 最高精度を達成した。 キーワード:文間類似度,含意関係認識,自然演繹,論理推論 ## Learning Semantic Textual Relatedness using Natural Deduction Proofs \author{ Hitomi Yanaka $^{\dagger}$, Koji Mineshima ${ }^{\dagger \dagger}$, Pascual Martínez-Gómez ${ }^{\dagger \dagger \dagger}$ and \\ DAISUKE BEKKI ${ }^{\dagger \dagger}$ } Learning semantic textual relatedness is a core research subject in natural language processing. Vector-based models are often used to compute sentence representations from words or predicate-argument structures, but these models cannot capture semantics accurately with consistency. Conversely, logical semantic representations can capture sentence semantics in depth and with much greater accuracy, but their symbolic  nature does not offer graded notions of textual similarity. We propose a method for learning semantic textual relatedness by combining shallow features with features extracted from natural deduction proofs using bidirectional entailment relations between sentence pairs. For the natural deduction proofs, we use ccg2lambda, a higher-order automatic inference system that converts Combinatory Categorial Grammar (CCG) derivation trees into semantic representations and conducts natural deduction proofs. We evaluate our system using two major NLP tasks: learning textual similarity and recognizing textual entailment. Our experiments demonstrate that our approach can outperform other logic-based systems and we obtain high performance levels for the RTE task using the SICK dataset. Our evaluations also demonstrate that features derived from the proofs are effective for learning semantic textual relatedness and we quantify our contribution to the research area. Key Words: Semantic Textual Similarity, Recognizing Textual Entailment, Predicate Logic, Inference, Natural Deduction ## 1 はじめに ある二つの文について,それぞれの文がどのような意味を持ち,一方の文と他方の文とがどのような意味的関係にあるかという文間の関連性の評価は,情報検索や文書分類,質問応答などの自然言語処理の基盤を築く重要な技術である。これまでの自然言語処理における文の意味表現の方法は,ベクトル空間モデルが主流である。情報検索においては,単語や文字の出現頻度といった表層的な情報を用いて,統計的機械学習に基づいて文べクトルを導出する手法が用いられてきた。また,さらに正確な文の意味表現を目指して,単語やフレーズといった構成要素を組み合わせて文の意味を計算するべクトル空間モデル (Wong and Raghavan 1984; Mitchell and Lapata 2010; Le and Mikolov 2014) が提案されてきた。近年では,深層学習を用いて高精度で文の意味表現を獲得する手法 (Mueller and Thyagarajan 2016; Hill, Cho, and Korhonen 2016) が多く提案されている。これらの手法では,単語べクトルや文字ベクトルを入力として学習を行い,文べクトルを獲得しているが,獲得した文べクトルが否定表現や数量表現などを含む文の意味を正確に表現しているかは自明ではない.たとえば,Tom did not meet some of the players と Tom did not meet any of the players という文はほとんど単語が共通しており, some や any といった機能語は通常捨象されるか, ほぼ同じ単語ベクトルとして扱われる。しかし, 前者は 「Tom は選手の何人かとは会わなかった(別の何人かの選手とは会った)」, 後者は「Tom はどの選手とも会わなかった」という意味を表しており, これらの文の意味の違いを単語や文字からの情報を用いてどのようにして捉えるかが課題となっている。そこで,統語構造を考慮したモデルなど,より高度な意味解析を取り入れたモデルの構築が期待されている。 一方で, 文の意味を論理式で表現し, 論理推論によって高度な意味解析を行う手法 (Mineshima, Martínez-Gómez, Miyao, and Bekki 2015; Mineshima, Tanaka, Martínez-Gómez, Miyao, and Bekki 2016; Abzianidze 2015, 2016) は,論理式による意味表現と整合性の高い組合せ範疇文法 (Combinatory Categorial Grammar, CCG) (Steedman 2000)による頑健な統語解析の発展に伴い, 近年研究が進められている。論理推論を用いた手法は, 文ぺアに対して一方の文を他方の文が内容的に含意しているかどうかを判定する含意関係認識のタスクで高精度を達成しており,様々な自然言語処理タスクへの応用が期待されている。一方で, 論理推論を用いた手法は元来厳密な手法であり,部分的・段階的な含意関係や類似関係を扱うことが困難である. そこで本研究では, 機械学習と論理推論とを組み合わせることで, 柔軟かつ正確に文の関連性を学習する方法を検討する。具体的には, 文の意味を論理式で表現し, 2 文間の双方向の含意関係について自然演繹による推論を試み, 推論の過程と結果を抽出する. このとき, 必要に応じて, 文間の意味的関係を正しく判定するために必要な語彙知識を公理として追加して推論を試みる。語彙知識の利用によって文間の意味的関係が判定できれば,純粋な論理推論だけでは意味的関係を判定できない文ぺアにおいても,部分的な推論過程から文の関連性を示す情報を抽出することが可能となる。抽出した推論の過程と結果に関する情報を用いて,文の関連性を学習する。 ## 2 関連研究 文の意味表現を獲得し,文の関連性を学習する手法はこれまでに幅広く研究されている。特に, 文の意味は文を構成する部分の意味から合成されるという構成性の原理に基づいて,単語べクトルの加法と乗法を用いて文の意味を表現する手法 (Mitchell and Lapata 2008, 2010) が提案された. しかし, この手法には, 単語の出現順序が捨象されてしまうという問題があった. そこで, 述語や機能語を高階テンソル, 名詞をベクトルで表現し, 縮約を用いて文の意味を計算する Categorical Compositional Distributional Semantic Model (Clark, Coecke, and Sadrzadeh 2011; Grefenstette and Sadrzadeh 2011; Kartsaklis, Kalchbrenner, and Sadrzadeh 2014; Kartsaklis and Sadrzadeh 2016) が提案されている. しかし, これらの手法では比較的単純な構造の文のみを対象としており,否定や条件などの機能的な表現をどのように扱いうるかは明らかではない. 近年では,深層学習の手法を用いた文の意味表現に関する研究が活発に進められている。文間類似度学習タスクでは, 単語ベクトルと類義語ベクトルから双方向型 LSTM を用いて文の意味表現を学習するモデル (Mueller and Thyagarajan 2016) が提案されており,最高精度を記録している。また,構文木に沿って文の意味表現を再帰的に構築する Tree-LSTM を用いたモデル (Tai, Socher, and Manning 2015; Zhou, Liu, and Pan 2016)や, LSTM を用いて文脈全体の意味を学習したのちに, CNNを用いて各文の局所的な特徴を学習するモデル (He and Lin 2016) など, より文の構造を考慮した深層学習のモデルが提案されている。しかし, 深層学習による アプローチは大量の文を入力として end-to-end で文の意味表現を学習するため, 内容語と機能語の意味をどのように区別して扱っているのかは明らかではない. 一方で,論理推論によるアプローチは個々の文について意味解析を行い,直接的に文の意味表現(論理式)を獲得する。ここでの意味解析は理論言語学の知見に基づくものであり,内容語と機能語の意味を区別して扱う。文を論理式に変換し,論理推論を用いて文間の意味的関係を判定する手法には大きく分けて 2 つの手法が提案されている. 1 つは, 論理推論のみを用いていわゆる教師なし学習で文間の意味的関係を判定する手法である. 具体的には,タブローを用いた手法 (Abzianidze 2015, 2016) や,自然演繹を用いた手法 (Mineshima et al. 2015, 2016) が提案されている.これらの手法は, 文を一階述語論理式よりも表現力の高い高階述語論理式で表現し,効率的な自然言語推論を実現することによって,含意関係認識のタスクで高精度を達成している。一方で, 文間類似度の計算といった, よりソフトな推論への適用が課題となって $いる$. もう 1 つの手法は, 統計的機械学習と, 論理推論とを組み合わせて, 教師あり学習で意味的関係を判定する手法である。この手法では, 論理推論で得られた結果を機械学習や確率モデルを用いて近似することで, ソフトな推論を実現している. Bjervaらは, 分散表現から導出した文中の単語間類似度と,一階述語論理による推論を用いて判定した含意関係とをそれぞれ特徴量に用いて,文間類似度や含意関係を学習する手法を提案している (Bjerva, Bos, van der Goot, and Nissim 2014) 。また, Beltagy らは, Probabilistic Soft Logicによる類似度学習方法を提案している (Beltagy, Roller, Boleda, Erk, and Mooney 2014). Probabilistic Soft Logic では, 文を一階述語論理式に変換し, 含意関係を満たす度合いとして単語の分散表現を用いて一方の文と他方の文との論理式間の重みを計算する。この重みを特徵量として, 加法回帰モデルを用いて文間類似度を予測している。これらの先行研究から,推論による文間の含意関係の判定結果や論理式は文の言語的な情報を良質な形式で表現しているため, 文間類似度学習に有用な情報であることが示唆されている。しかし, 先行研究で学習に利用している推論に関する情報は, 推論の判定結果(文間の意味的関係が含意・矛盾・不明のいずれであるか)や,2つの文において共通する論理式の割合にとどまっており, これらは推論から得られる情報のほんの一部でしかない. ## 3 提案手法 ## 3.1 提案手法の全体像 本研究では文の意味を文間の含意関係に基づいて規定する証明論的意味論 (Bekki and Mineshima 2017) の観点から, 文間の双方向の含意関係の証明を介して文間の関連性を計算する手法を提案する。一方の文と他方の文との関連が低いほど, 2 文間の含意関係を証明する にはより多くの公理生成や推論規則の適用が必要となり, 証明の過程が複雑になる. したがって,証明の結果だけではなく,含意関係を判定するまでの証明の実行過程も,文間の関連性の評価に有用なはずである。一方の文を前提,他方の文を結論とみなして,前提から結論を導く推論の手法である自然演繹 (Prawitz 1965) に基づく証明では, 証明の実行過程を分析することが可能である。そこで提案手法では, 2 文間の双方向の含意関係について自然演繹による証明を試み,証明の実行過程から文間の関連性を表現する特徴量を導出する。 提案手法の全体像を図 1 に示す。提案手法ではまず,自然言語の英文のペア $A, B$ を入力として, CCG パーザによる統語解析によって, $A, B$ をCG の導出木に変換する. 次に,ラムダ計算に基づく意味合成によって, CCG の導出木から高階述語論理式 $A^{\prime}, B^{\prime}$ に変換する。次に,定理証明器を用いて, 2 つの論理式 $A^{\prime}, B^{\prime}$ の双方向の含意関係について, 自然演繹による証明を試みる。文から論理式への変換と文間の含意関係の証明には, ccg2lambda (Martínez-Gómez, Mineshima, Miyao, and Bekki 2016)を用いる。ccg2lambda は,CCGに基づく統語解析の結果を用いて文の意味を高階述語論理式で表現し,文間の含意関係について自動推論を行う統合的システムである.各入力文に対して, CCGの導出木と意味表示を出力し,また,文ぺアに対しては含意関係の判定結果を出力する。本研究では文間の含意関係の証明の実行過程を取得できるように ccg2lambdaを改良した ${ }^{1}$.この ccg2lambda が導出した文間の含意関係の証明の実行過程と判定結果を用いて,文間の関連性に関する特徵量を設計する。最後に,ランダムフォレストを用いて, 文間類似度学習では回帰分析, 含意関係認識では含意・矛盾・不明の 3 値分類を行う,次節以降で,各手順の詳細を述べる。 図 1 提案手法の全体像  ## 3.2 CCGに基づく意味表現 まず,CCG パーザによる統語解析によって,英語の自然言語文を CCG の導出木に変換する. CCG は語彙化文法の一つであり, 統語構造から合成的に意味表示を導出することに適した文法体系である. CCGでは, 基本的な統語範疇として, $N$ (普通名詞), $N P$ (名詞句), $S$ (文) 等の基底範疇が定義されている。また, 複合範疇は基本範疇と二項演算子 $/$ 、組み合わせによって定義される. CCG は語の統語範疇と意味表示を記述する辞書と, 語から句や文を構成する際の統語構造と意味合成の計算方法を指定する少数の組合せ規則から成り立つ. 図 2 に提案手法に用いる CCGの代表的な組合せ規則を示す。たとえば,関数適用規則 $(>)$ を適用することによって, $X / Y$ という形の統語範疇および意味 $f$ をつ語は, その右側にある $Y$ という形の統語範疇および意味 $a$ をも語と結びつき, $X$ という統語範疇および意味 $f a$ をもつ句が形成される. CCG の導出木から文の意味表示である高階述語論理式への変換は, ラムダ計算に基づいて行われる。語の意味はラムダ項によって表現され,組合せ規則によってラムダ項の意味合成を行い,文の意味表示となる論理式を導出する。 提案手法では, Neo-Davidsonian Event Semantics (Parsons 1990)に基づく意味表示を採用する. たとえば, 他動詞文 (1a), 量化文 (2a), 否定量化文 (3a)はそれぞれ次のように分析される. (1) a. Bob surprised Susan. b. $\exists e(\operatorname{surprise}(e) \wedge(\operatorname{subj}(e)=\mathbf{b o b}) \wedge(\operatorname{dobj}(e)=\operatorname{susan}))$ (2) a. Some women are singing loudly. b. $\exists x(\boldsymbol{\operatorname { w o m a n }}(x) \wedge \exists e(\boldsymbol{\operatorname { s i n g }}(e) \wedge(\boldsymbol{\operatorname { s u b j }}(e)=x) \wedge \operatorname{loudly}(e)))$ (3) a. No women are singing loudly. b. $\neg \exists x(\boldsymbol{\operatorname { w o m a n }}(x) \wedge \exists e(\boldsymbol{\operatorname { s i n g }}(e) \wedge(\boldsymbol{\operatorname { s u b }} \mathbf{j}(e)=x) \wedge \operatorname{loudly}(e)))$ $ \begin{aligned} \frac{X / Y: f \quad Y: a}{X: f a}> & \frac{Y: a \quad X \backslash Y: f}{X: f a}< \\ \frac{f: X / Y \quad g: Y / Z}{\lambda x \cdot f(g x): X / Z}>\mathbf{B} & \frac{g: Y \backslash Z \quad f: X \backslash Y}{\lambda x \cdot f(g x): X \backslash Z}<\mathbf{B} \\ \frac{f: X / Y \quad g: Y \backslash Z}{\lambda x \cdot f(g x): X \backslash Z}>\mathbf{B}_{\times} & \frac{g: Y / Z \quad f: X \backslash Y}{\lambda x \cdot f(g x): X / Z}<\mathbf{B}_{\times} \end{aligned} $ 図 $2 \mathrm{CCG}$ の代表的な組合せ規則. 関数適用規則 $(<,>)$, 関数合成規則 $(>\mathbf{B},<\mathbf{B})$, 交差関数合成規則 $\left(>\mathbf{B}_{\times},<\mathbf{B}_{\times}\right)$ Neo-Davidsonian Event Semantics では, 動詞をイベントを項に持つ 1 項述語として分析し, 副詞や前置詞などの修飾表現をイベントを項に持つ述語として扱う。そのため, (2a)や (3a)の loudly のような修飾表現を含む文も統一的に記述できるという利点がある。また,ここで採用する方法では, $x$ が表す項がイベント $e$ を表す動詞に対して主語の関係にあることを $\operatorname{subj}(e)=x, x$ が表す項がイベント $e$ を表す動詞に対して直接目的語の関係にあることを $\operatorname{dobj}(e)=x$ のように表すことで,動詞の必須格にイベントを項にとる関数を対応させる。このため,個々の動詞の必須格と非必須格の境界を定める必要がないという点で, 従来の Davidsonian 形式 (Davidson 1967) よりも柔軟な意味表現となっている。 さらに,動詞をイベントに対する 1 項述語として統一的に扱うことで,動詞に関する公理もまた統一的に記述することが可能となり,自然言語の推論により適した表現形式となっている。なお,項とイベントとの関係(意味役割)については様々な分類手法が提案されている (Peter and Wilkins 1984; Ray 1990) が, 本稿では英語 CCGBank (Hockenmaier and Steedman 2007) に基づくCCG の解析結果から確認できる項とイベントの関係を意味表示に反映する ${ }^{2}$. 本論文では $, \operatorname{subj}(e)=x, \operatorname{dob} \mathbf{j}(e)=y$ のようなイベントに関する機能的な関係を表す論理式を機能論理式と呼び,内容語を担う情報を表す $\operatorname{sing}(e), \operatorname{loudly}(e)$ のような論理式を内容論理式と呼ぶことで区別する。 辞書では, 統語範疇単位で意味を指定する意味割り当てのテンプレートと, 量化や否定表現などの論理語・機能語に対して語単位で意味を指定する語彙項目の 2 種類を使用する. 文の意味表現を合成的に与えるにあたって,イベントの量化をどのようにして正しく扱うかという問題がある。量化名詞句や否定を含む文では,一般的にイベントの存在量化よりも量化名詞句や否定が広いスコープをとることが知られている。そこで本論文では,先行研究 (Champollion 2015; Mineshima et al. 2016)に従い, 動詞自体をイベントの量化を導入する表現として扱う. また,副詞等の修飾表現は,動詞によって導入された存在量化子のスコープ内に出現しなくてはならない,そこで,動詞の型を繰り上げ,動詞が修飾表現を項にとるように扱う. 以上の分析に従った CCG 導出木の具体例として, 文 (3a)の CCG 導出木を図 3 に示す.ここで,丁はトートロジーに対応する命題定項であり,丁の挿入は意味合成の過程で必要となる操作である (Mineshima et al. 2015). 最終的に導出された論理式は (3b) の論理式と同値である. ccg2lambda の先行研究 (Martínez-Gómez, Mineshima, Miyao, and Bekki 2017) では, 複数の $\mathrm{CCG}$ パーザを組み合わせて統語解析に用いることによって,構文的曖昧性が解消され,含意関係の推論精度が向上したことが報告されている。提案手法では C\&C (Clark and Curran 2007), EasyCCG (Lewis and Steedman 2014), depccg (Yoshikawa, Noji, and Matsumoto 2017) という  図 3 No women are singing loudly. の CCG 導出木と意味表示 3 種類の $\mathrm{CCG}$ パーザを用いて統語解析を行う。得られた 3 種類のパーズ結果を用いて意味合成と推論を行い,適切なパーズ結果を選択する。含意関係の正解ラベルが付与されたデータセットによる評価においては,トレーニングデータから特徴量を抽出する際に,含意関係の正解ラベルと同じ結果を導出するパーズ結果を優先して採用する。正解ラベルと同じ結果を導出できたパーズ結果が存在しなければ,統語解析に成功した結果を優先して採用する.含意関係の正解ラベルが存在しないデータセットによる評価では,統語解析に成功した結果を優先して採用する。また,複数の CCG パーザの結果において,含意関係の判定結果(yes, no, unknown のいずれか)が得られた場合は,より正確なパーズ結果を採用するため,パーザの精度が高い順に, depccg,EasyCCG,C\&Cの順に優先してパーズ結果を採用する. ## 3.3 自然演繹による証明戦略の概要 本節では,提案手法で用いる自然演繹による証明戦略の概要について述べる。文間の含意関係とは一方の文の情報が他方の文の情報を含むという関係であり,方向性を持った関係であるが,類似関係は方向性を持たない対称的な関係である。よって,「 $A$ ならば $B\rfloor$ が成り立つか否かという一方向の含意関係ではなく,「 $A$ ならば $B\rfloor\lceil B$ ならば $A\rfloor$ がそれぞれ成り立つか否かという双方向の含意関係の証明を試みることによって,文間の関連性に関してより多くの情報が取得できると考えられる。そこで,本研究では文 $A, B$ 間の双方向の含意関係の証明を介して,文 $A, B$ 間の関連性を表す特徴を獲得する. 文間の含意関係の証明には,高階論理・型理論に基づく定理証明器である Coq (Bertot and Castran 2010)を用いる。Coqは自然演繹に基づいて推論規則を適用し,証明を行う。また,Ltac という記述言語を用いて証明探索の手続きを定義することによって,証明の自動化が可能である. ccg2lambda は Coqの一階述語論理の部分系に対する自動推論を含む自動証明機能と,高階の公理とを組み合わせることで,自然言語の効率的な推論を可能にしている。 提案手法で用いる文間の含意関係の証明の全体的な流れは次の通りである。まず,文 $A, B$ を論理式 $A^{\prime}, B^{\prime}$ に変換し,一方の文を証明に用いる前提,他方の文を証明対象である結論(ゴー ル)とみなして $, A^{\prime} \Rightarrow B^{\prime}, B^{\prime} \Rightarrow A^{\prime}$ の証明を行う.証明に失敗した場合は,結論を否定した $A^{\prime} \Rightarrow \neg B^{\prime}, B^{\prime} \Rightarrow \neg A^{\prime}$ の証明を行う.これは結論の否定が証明可能な場合は, 結論も結論の否定も証明不可能な場合と比較して, 論理式が共通の部分を多く含み, 文間の関連度が高くなることを考慮している,実際に,評価に用いる文の意味的類似度データセットである SemEval2014 Task1 の Sentences Involving Compositional Knowledge (SICK) (Marelli, Menini, Baroni, Bentivogli, Bernardi, and Zamparelli 2014) では,含意関係の正解ラベルが「矛盾」である文ペアの 7 割において,正解の類似度スコアが高く設定されている。 結論の証明,結論の否定の証明の両方に失敗した場合は,前提のプールにある論理式からは導くことができない論理式 (サブゴール) が結論中に残っていることを意味する。そこで次に, 前提のプールにある論理式と証明できないと判定されたサブゴールとの述語間の意味的関係について, 語彙知識を用いてチェックし, 公理の生成を試みる。生成した公理を用いて再度 $A^{\prime} \Rightarrow B^{\prime}$, $B^{\prime} \Rightarrow A^{\prime}$ の証明を試みる. $A^{\prime} \Rightarrow B^{\prime}, B^{\prime} \Rightarrow A^{\prime}$ の証明に失敗した場合は, 生成した公理を用いて結論を否定した $A^{\prime} \Rightarrow \neg B^{\prime}, \quad B^{\prime} \Rightarrow \neg A^{\prime}$ の証明を試みる. 公理を生成しても,結論と結論の否定の両方の証明に失敗した場合は, $A^{\prime} \Rightarrow B^{\prime}, B^{\prime} \Rightarrow A^{\prime}$ の証明の途中で証明不可能と判定されたサブゴールをスキップして,強制的に証明を終了させる. ここまでの推論における,生成した公理に関する情報や,強制的にスキップしたサブゴールの情報といった推論の情報を Coqの出力結果から抽出し, 文間の関連性を表す特徴量として利用する. ## 3.4 含意関係の証明 含意関係の証明の例として, 以下の 2 つの文 $A, B$ 間の含意関係について, 自然演繹による証明を試みる。 A: A man is singing in a bar. $B$ : $A$ man is singing. 文 $A, B$ は統語解析,意味解析を経て,以下のような論理式 $A^{\prime}, B^{\prime}$ に変換できる. $ \begin{aligned} & A^{\prime}: \exists e_{1} x_{1} x_{2}\left(\operatorname{man}\left(x_{1}\right) \wedge \mathbf{s i n g}\left(e_{1}\right) \wedge\left(\mathbf{s u b j}\left(e_{1}\right)=x_{1}\right) \wedge \operatorname{bar}\left(x_{2}\right) \wedge \operatorname{in}\left(e_{1}, x_{2}\right)\right) \\ & B^{\prime}: \exists e_{1} x_{1}\left(\mathbf{m a n}\left(x_{1}\right) \wedge \operatorname{sing}\left(e_{1}\right) \wedge\left(\operatorname{subj}\left(e_{1}\right)=x_{1}\right)\right) \end{aligned} $ まず, $A^{\prime} \Rightarrow B^{\prime}$ について,自然演繹による証明を試みる。ここで,論理式 $A^{\prime}, B^{\prime}$ は推論規則を適用することによって分解することができる。図 4 に本研究で用いる推論規則の例を示す. 自然演繹の推論規則には導入規則と除去規則の 2 つがある。導入規則は結論をどのように証明するかを指定するための規則である。除去規則は前提をどのように証明に利用するかを指定するための規則であるが,主に前提のプールにある論理式をより小さい論理式に分解するために用いられる。 $A^{\prime} \Rightarrow B^{\prime}$ の証明プロセスを図 5 に示す. 図 5 において, 論理式 $A^{\prime}$ は前提 $P_{0}$, 論理式 $B^{\prime}$ は結 図 4 自然演繹の証明で用いる推論規則の例。 $P, P_{1}, \ldots P_{n}$ は前提の論理式, $G, G_{1}, G_{2}$ は結論(ゴール) の論理式を表す.いずれの推論規則においても,規則適用前の論理式は矢印の上部に,規則適用後の論理式は矢印の下部に示す. $ \begin{aligned} & \exists \text {-ELim }\left(P_{0}\right), \exists \text {-INTRo }\left(G_{0}\right) \\ & \frac{P_{1}: \operatorname{man}\left(x_{1}\right) \wedge \operatorname{sing}\left(e_{1}\right) \wedge\left(\operatorname{subj}\left(e_{1}\right)=x_{1}\right) \wedge \operatorname{bar}\left(x_{2}\right) \wedge \operatorname{in}\left(e_{1}, x_{2}\right)}{G_{1}: \operatorname{man}\left(x_{1}\right) \wedge \operatorname{sing}\left(e_{1}\right) \wedge\left(\operatorname{subj}\left(e_{1}\right)=x_{1}\right)} \\ & \wedge \text {-ELIm }\left(P_{1}\right), \wedge \text {-INTRo }\left(G_{1}\right) \\ & \frac{P_{2}: \operatorname{man}\left(x_{1}\right), P_{3}: \operatorname{sing}\left(e_{1}\right), P_{4}: \mathbf{s u b j}\left(e_{1}\right)=x_{1}, P_{5}: \mathbf{b a r}\left(x_{2}\right), P_{6}: \operatorname{in}\left(e_{1}, x_{2}\right)}{G_{2}: \operatorname{man}\left(x_{1}\right), G_{3}: \operatorname{sing}\left(e_{1}\right), G_{4}: \operatorname{subj}\left(e_{1}\right)=x_{1}} \end{aligned} $ 図 52 文間の含意関係の証明プロセスの例 論 $G_{0}$ に配置される. $P_{0}$ と $G_{0}$ は除去規則 $(\wedge$-ELIm, $\exists$-ELIm $)$ と導入規則 $(\wedge$-INTRO, $\exists$-INTRo $)$ の適用によって, 前提の集合 $\mathcal{P}=\left.\{P_{2}, P_{3}, P_{4}, P_{5}, P_{6}\right.\}$ とサブゴールの集合 $\mathcal{G}=\left.\{G_{2}, G_{3}, G_{4}\right.\}$ に分解される。証明はサブゴール $G_{j}$ と述語と項が一致する前提 $P_{i}$ を探索する形で進められ,マッチする前提が見つかればそのサブゴールを解決できる。全てのサブゴールが解決できれば $A^{\prime} \Rightarrow B^{\prime}$ の証明が示せたことになる. この例では, サブゴール $G_{2}, G_{3}, G_{4}$ と前提 $P_{2}, P_{3}, P_{4}$ の述語と項がそれぞれマッチし, 全てのサブゴールが解決できるため, 公理を生成せずに $A^{\prime} \Rightarrow B^{\prime}$ を示すことができる. 次に, 図 5 の前提 $P_{0}$ と結論 $G_{0}$ を逆転させて, $B^{\prime}$ を証明の前提, $A^{\prime}$ を証明の結論とみなし, $B^{\prime} \Rightarrow A^{\prime}$ の証明を試みる. 先ほどと同様に, 推論規則の適用によって, 前提の集合 $\mathcal{P}$ とサ ブゴール $\mathcal{G}$ の集合を得ることができる. $ \begin{aligned} \mathcal{P} & =\left.\{P_{2}: \operatorname{man}\left(x_{1}\right), P_{3}: \operatorname{sing}\left(e_{1}\right), P_{4}: \operatorname{subj}\left(e_{1}\right)=x_{1}\right.\} \\ \mathcal{G} & \left.=\left.\{G_{2}: \operatorname{man}\left(x_{1}\right), G_{3}: \mathbf{s i n g}\left(e_{1}\right), G_{4}: \operatorname{subj}\left(e_{1}\right)=x_{1}, G_{5}: \operatorname{bar}\left(x_{2}\right), G_{6}: \operatorname{in}\left(e_{1}, x_{2}\right)\right)\right.\} \end{aligned} $ この場合, 2 つのサブゴール $G_{5}, G_{6}$ は前提のプールにあるどの論理式ともマッチしないため,解決できずに残り, $B^{\prime} \Rightarrow A^{\prime}$ の証明に失敗する。そこで次に,語彙知識からの公理生成を試みる.しかし, この場合は残っているサブゴールの述語 $\operatorname{bar}\left(x_{2}\right)$ の項 $x_{2}$ をシェアする述語が前提 $\mathcal{P}$ 中に存在しないため, 公理を生成することができない. そのため, このような例からも部分的な証明プロセスの情報を Coq から取得するため, 本研究では解決できなかったサブゴール $\boldsymbol{\operatorname { b a r }}\left(x_{2}\right), \boldsymbol{i n}\left(e_{1}, x_{2}\right)$ をスキップして, 強制的に $B^{\prime} \Rightarrow A^{\prime}$ の証明を終了させる. ## 3.5 矛盾関係の証明 矛盾関係の証明について述べる上で,まず否定の推論規則について説明する.否定の基本的な含意関係は, 論理式 $A$ の否定 $\neg A$ を, 命題定項 False を用いて, $A \rightarrow$ False( $A$ が偽を含意する)と定義することで捉えることができる。この定義に従って,否定の推論規則は図 6 に示す規則を用いる。 否定の導入規則 (ᄀ-INTRO) は,もしゴールの論理式が $\mathcal{A}$ という形であれば, $\mathcal{A}$ を新たに前提に加えて, 矛盾 (False) の証明を試みるという形をとる。一方,否定の除去規 ルを $\mathcal{A}$ に更新しこの新たなゴールの証明を試みる,というものである. 矛盾関係の証明の例として, 以下の 2 つの文 $A, B$ 間の矛盾関係について, 自然演繹による証明を試みる。 A: No man is singing. B: There is a man singing loudly. 図 7 に矛盾関係の証明プロセスを示す. 文 $A, B$ は論理式 $A^{\prime}, B^{\prime}$ に変換後, 前提 $P_{0}, P_{1}$ にそれぞれ配置され,結論 $G_{0}$ には False が配置される。否定の除去規則 $\neg$ ELIM を $P_{0}$ に適用することによって,ゴールは $G_{1}$ に更新される。ここで,除去規則を適用することによって,前提 $P_{1}$ は前提の集合 $P_{2}, P_{3}, P_{4}, P_{5}$ に分解される. 同様に, 導入規則を適用することで, ゴール $G_{1}$ はサ 図 6 否定の推論規則 $ \begin{aligned} & P_{0}: \neg \exists e_{1} x_{1}\left(\boldsymbol{\operatorname { m a n }}\left(x_{1}\right) \wedge \operatorname{sing}\left(e_{1}\right) \wedge\left(\boldsymbol{\operatorname { s u b }}\left(e_{1}\right)=x_{1}\right)\right) \\ & P_{1}: \exists e_{1} x_{1}\left(\operatorname{man}\left(x_{1}\right) \wedge \operatorname{sing}\left(e_{1}\right) \wedge\left(\mathbf{\operatorname { s u b j }}\left(e_{1}\right)=x_{1}\right) \wedge \text { loudly }\left(e_{1}\right)\right) \\ & G_{0}: \text { False } \\ & \downarrow \neg-\operatorname{ELIM}\left(P_{0}, G_{0}\right) \\ & \frac{P_{1}: \exists e_{1} x_{1}\left(\operatorname{man}\left(x_{1}\right) \wedge \operatorname{sing}\left(e_{1}\right) \wedge\left(\mathbf{s u b j}\left(e_{1}\right)=x_{1}\right) \wedge \text { loudly }\left(e_{1}\right)\right)}{G_{1}: \exists e_{1} x_{1}\left(\operatorname{man}\left(x_{1}\right) \wedge \operatorname{sing}\left(e_{1}\right) \wedge\left(\mathbf{s u b j}\left(e_{1}\right)=x_{1}\right)\right)} \\ & \exists \text {-ELIM, } \wedge \text {-ELIM }\left(P_{1}\right), \exists \text {-INTRO, } \wedge \text {-INTRO }\left(G_{1}\right) \\ & \frac{P_{2}: \operatorname{man}\left(x_{1}\right), P_{3}: \operatorname{sing}\left(e_{1}\right), P_{4}: \operatorname{subj}\left(e_{1}\right)=x_{1}, P_{5}: \operatorname{loudly}\left(e_{1}\right)}{G_{2}: \operatorname{man}\left(x_{1}\right), G_{3}: \operatorname{sing}\left(e_{1}\right), G_{4}: \operatorname{subj}\left(e_{1}\right)=x_{1}} \end{aligned} $ 図 72 文間の矛盾関係の証明プロセスの例 ブゴールの集合 $G_{2}, G_{3}, G_{4}$ に分解される。全てのサブゴールが前提とマッチするため, 文 $A, B$ の矛盾関係,すなわち, $A^{\prime} \Rightarrow \neg B^{\prime}$ を示すことができる. ## 3.6 語彙知識を用いた公理の生成 本節では,自然演繹の推論に用いる公理の具体的な生成手順について述べる。まず,証明の途中で証明不可能と判定されたサブゴールに関して, 前提と結論で同じ項をシェアしている述語を生成する公理の候補として絞り込む,さらに,同じ項をシェアしている述語の中でも,項の格が同じである述語について優先して公理を生成する。 公理生成を導入した証明の例として,以下の 2 つの文 $A, B$ 間の含意関係の証明を考える. A: A kitten plays in a house colored in green. $B$ : A young cat plays in a green house. 文 $A, B$ は統語解析,意味解析を経て,以下のような論理式 $A^{\prime}, B^{\prime}$ に変換できる. $ A^{\prime}: \exists e_{1} e_{2} x_{1} x_{2} x_{3}\left(\operatorname{kitten}\left(x_{1}\right) \wedge \operatorname{play}\left(e_{1}\right) \wedge\left(\operatorname{subj}\left(e_{1}\right)=x_{1}\right)\right. $ $ \left.\wedge \operatorname{house}\left(x_{2}\right) \wedge \operatorname{color}\left(e_{2}\right) \wedge\left(\operatorname{dobj}\left(e_{2}\right)=x_{2}\right) \wedge \operatorname{in}\left(e_{1}, x_{2}\right) \wedge \operatorname{green}\left(x_{3}\right) \wedge \operatorname{in}\left(e_{2}, x_{3}\right)\right) $ $ B^{\prime}: \exists e_{1} x_{1} x_{2}\left(\operatorname{young}\left(x_{1}\right) \wedge \operatorname{cat}\left(x_{1}\right) \wedge \operatorname{play}\left(e_{1}\right) \wedge\left(\operatorname{subj}\left(e_{1}\right)=x_{1}\right)\right. $ $ \left.\wedge \operatorname{green}\left(x_{2}\right) \wedge \operatorname{house}\left(x_{2}\right) \wedge \operatorname{in}\left(e_{1}, x_{2}\right)\right) $ これら 2 の論理式 $A^{\prime}, B^{\prime}$ について, $A^{\prime}$ を証明の前提, $B^{\prime}$ を証明の結論(ゴール)とみなし,公理生成を行わずに $A^{\prime} \Rightarrow B^{\prime}$ の証明を試みる。図 5 と同様に $A^{\prime} \Rightarrow B^{\prime}$ の含意関係の証明を進めると,下記のような前提の集合 $\mathcal{P}$ とサブゴール $\mathcal{G}$ の集合が得られる。このステップでは,存在量化子が除去され, $A^{\prime}, B^{\prime}$ に共通する述語については,変数の単一化が起こっている. $ \begin{aligned} \mathcal{P}= & \left.\{P_{1}: \operatorname{kitten}\left(x_{1}\right), P_{2}: \operatorname{play}\left(e_{1}\right), P_{3}: \operatorname{subj}\left(e_{1}\right)=x_{1}, P_{4}: \operatorname{house}\left(x_{1}\right),\right. \\ & \left.P_{5}: \operatorname{color}\left(e_{2}\right), P_{6}: \operatorname{dobj}\left(e_{2}\right)=x_{2}, P_{7}: \operatorname{in}\left(e_{1}, x_{2}\right), P_{8}: \operatorname{green}\left(x_{3}\right), P_{9}: \operatorname{in}\left(e_{2}, x_{3}\right)\right.\} \\ \mathcal{G}= & \left.\{G_{1}: \operatorname{young}\left(x_{1}\right), G_{2}: \operatorname{cat}\left(x_{1}\right), G_{3}: \operatorname{green}\left(x_{2}\right)\right.\} \end{aligned} $ この例では, $\operatorname{young}\left(x_{1}\right), \boldsymbol{\operatorname { c a t }}\left(x_{1}\right), \operatorname{green}\left(x_{2}\right)$ という 3 つのサブゴールが残り, 証明に失敗する. ここで, 前提中の論理式 $\operatorname{kitten}\left(x_{1}\right)$ と共通の項 $x_{1}$ をシェアしているサブゴール $\operatorname{young}\left(x_{1}\right), \boldsymbol{\operatorname { c a t }}\left(x_{1}\right)$ が生成する公理の候補となる。語彙知識から young cat と kitten 間の意味的関係が確認できれば, young cat と kitten 間に関する公理を生成でき, 生成した公理を利用することで, これら 2 つのサブゴールを解決できる。 なお, 証明に用いた公理の数や確信度はのちに文間の関連性を学習するための特徴量として使用するが, $\forall x \cdot \operatorname{kitten}(x) \Rightarrow \operatorname{young}(x), \forall x \cdot \operatorname{kitten}(x) \Rightarrow \operatorname{cat}(x)$ のように, 複数のサブゴールに関して同じ前提から導出した公理については, まとめて1つのフレーズの公理とみなす。また, 残りのサブゴール $\operatorname{green}\left(x_{2}\right)$ については, 述語の表層形が同一である論理式 $\operatorname{green}\left(x_{3}\right)$ が前提中に存在するが, 項は一致していない. このように, サブゴー ルに残っている述語と表層形が完全に一致する述語が前提中に含まれる場合に限り,例外的に,述語の型や項が異なっていても公理を生成して証明に用いる. 本研究では公理生成に用いる語彙知識として, WordNet (Miller 1995) と, Word2Vec (Mikolov, Sutskever, Chen, Corrado, and Dean 2013) で学習した単語べクトルを用いる。まず, WordNet を用いて形態変化, 派生形, 同義語, 反意語, 上位語, 類似性, 下位語の順に, 前提と結論中の述語間の意味的関係をチェックし, いずれかの関係にマッチした場合は確信度つき公理を生成する. WordNetに述語間の関係が存在しない場合は, Word2Vecで学習した単語べクトルを用いて前提と結論中の述語間の類似度を計算し, やはり確信度つきの公理を生成する。本研究では, Google News Corpus(約 30 億語)で学習済みの 200 次元の単語ベクトルを語彙知識に用いる。ここで, 公理の確信度には, 述語間の類似度を採用し, 生成された公理の中で確信度が最も高い公理を証明に採用する。また,確信度が閥値よりも低い公理は意味的関係が低い公理であるとみなして採用しない. 公理の確信度はいずれも 0.0 から 1.0 の範囲の值をとり, 本研究では公理の確信度の間値を 0.25 とする. WordNetを用いて公理を生成した場合は, 述語間に共通する上位概念への最短経路の長さを公理の確信度とし,Word2Vec を用いて公理を生成した場合は,Word2 Vecのコサイン類似度を公理の確信度とする。 ## 3.7 証明に基づく特徴量の導出 ここまでの自然演繹の証明の実行過程と結果に関する情報から, 計 9 種類の特徵量を導出する.いずれも 0.0 から 1.0 の範囲の値に正規化する. - 公理の数と公理の確信度 証明に利用した公理の数と確信度をそれぞれ特徴量に用いる。複数の公理を生成した場 合は, 導入した各公理の確信度の平均を公理の確信度の特徴量として採用する。また, 公理を 1 つも利用しなかった場合は,公理の確信度の特徴量を 1.0 とする. ・ 証明可能なサブゴールの数の割合 証明可能なサブゴールの数の割合が高いほど文間の関連度が高くなると仮定して, $n / m$ $(m$ : 前提のプールに現れる論理式の数, $n$ : 証明でスキップしなかったサブゴールの数) を特徴量として導出する。ここで,サブゴールとして残る論理式には $\operatorname{bar}\left(x_{2}\right)$ のような内容論理式と, $\operatorname{subj}\left(e_{1}\right)=x_{1}$ のような機能論理式の 2 種類がある. そこで, 内容論理式と機能論理式のそれぞれについてサブゴールの数の割合を計算し,それぞれ別の特徴量とした。また,公理生成による証明を試みた場合は,証明可能なサブゴールの割合は公理生成の前後によって変わるため,公理生成前と公理生成後のそれぞれについてサブゴールの数の割合を計算し,それぞれ別の特徴量とした。 ・ 証明不可能なサブゴールの項の関係文の主語や目的語が異なると, 修飾語が異なる場合よりも文間の関連度が低くなると仮定して, 証明不可能と判定されたサブゴールの項とイベントの関係をチェックする。本研究では, 内容論理式中の主語 $(\mathbf{s u b j})$, 直接目的語 $(\mathbf{d o b} \mathbf{j})$, 間接目的語 $(\mathbf{i o b j})$ をチェック対象とする.証明不可能と判定された全てのサブゴールにおける当該サブゴールの割合を特徴量として導出する。 ・ 証明のステップ数 証明が簡潔であるほど文間の関連度が高くなると仮定して, 自然演繹の証明図の推論ステップ数を特徴量に用いる. - 推論規則の適用回数 証明において推論規則の適用回数が多いほど証明が複雑になり, 文間の関連度が低くなると仮定して,全推論規則の適用回数における各推論規則の適用回数の割合を特徴量に用いる。提案手法では図 4 に示した連言の除去規則と導入規則 ( $\wedge$-ELIM, $\wedge$-INTRO), 含意の除去規則と導入規則 $(\rightarrow$-ELIM,$\rightarrow$-INTRO), 存在量化の除去規則と導入規則 ( $\exists$-ELIM, ヨ-INTRO),等号の除去規則 (=-ELIM) という計 7 種類の推論規則を対象とする. - 証明の結果 結論が証明可能か,結論の否定が証明可能か,結論も結論の否定も証明不可能かチェックし,それぞれ該当する場合は 1.0 , 該当しない場合は 0.0 を特徴量とする. - 前提と結論における述語の一致率 前提と結論との間で述語が一致しているほど,文間の意味的関係を証明できる可能性が高いことを考慮して, 前提と結論で述語が一致している割合を特徵量に用いる。 - 前提と結論における型の一致率 前提と結論との間で論理式の型が一致しているほど,文間の意味的関係を証明できる可 能性が高いことを考慮して, 前提と結論で型が一致している割合を特徴量に用いる. - 否定演算子の有無 前提と結論のどちらか一方だけに否定演算子 (ᄀ) が含まれる場合と, 両方に含まれる, または,どちらにも含まれない場合とでは,前者の方が文間の関連度が低くなると仮定して, 前者の場合は 0.0 , 後者の場合は 1.0 として特徴量に用いる. ## 3.8 表層情報と外部知識から導出した特徵量の設計 提案手法では学習精度を向上させるため,表層情報と外部知識から導出した特徵量を自然演繹の証明に基づく特徴量と組み合わせて用いる。表層情報と外部知識から導出した特徵量は 10 種類の特徴量を用いる。特徴量はいずれも 0.0 から 1.0 の範囲の値に正規化する. - 品詞の一致率 文中の各単語の品詞 (本研究で使用する品詞は Penn Treebank 品詞体系に準ずる)を C\&C POS tagger (Curran and Clark 2003) を用いてチェックし,2 文間において単語の品詞が一致する割合を特徴量に用いる。 - 名詞の一致率 文中の名詞をレンマ化し, 2 文間の名詞が一致する割合を特徵量に用いる. - 動詞の一致率 文中の動詞をレンマ化し,2 文間の動詞が一致する割合を特徴量に用いる. - 文字列の類似度 ${ }^{2}$ Difflib ${ }^{3}$ を用いて文字列の類似度を計算し,計算結果を特徴量に用いる。 - 同義語集合の一致率 2 文中の全ての単語について, 同義語集合をWordNet を用いてチェックし, 2 文間の同義語集合の一致率を特徴量に用いる. - 概念間の距離 一方の文と他方の文の全ての単語間について, 単語間類似度を WordNet の概念間の距離を用いて導出し,概念間の距離の平均を特徴量に用いる. - 文の長さ 2 文間の文字数の差と, 2 文間の文字数の平均を特徴量に用いる. ・ ベクトル空間モデルにおけるコサイン類似度 TF/IDF ベクトル間のコサイン類似度, latent semantic analysis (LSA) (Deerwester, Dumais, Landauer, and Harshman 1990)ベクトル間のコサイン類似度, latent Dirichlet allocation (LDA) (Blei, Ng, and Jordan 2003) ベクトル間のコサイン類似度をそれぞれ特  徴量に用いる. 各べクトルの次元は 200 次元とする. - CCG 導出木のマッピングコスト 文ぺアの導出木の形が似ていないほど,一般的には文間の関連度が低くなることが見达まれる,そこで,文ぺアの CCG 導出木の各ノード間の対応度合い(CCG 導出木のマッピングコスト)を計算する手法 (Martínez-Gómez and Miyao 2016) を用いて,マッピングコストを計算する。このマッピングコストを文ぺアの導出木のノード数合計で除算した値を特徴量に用いる。 - 受動態表現の有無 前提と結論のどちらか一方だけに受動態表現が含まれる場合と,両方に含まれる,または, どちらにも含まれない場合とでは, 前者の方が類似度が低くなると仮定して, 一方の文と他方の文の受動態表現の有無をチェックし, 前者の場合は 0.0 , 後者の場合は 1.0 として特徴量に用いる。 ## 3.9 文の関連度学習 導出した特徴量を用いて, 文の意味類似度と含意関係を予測する。本研究では, ロジスティック, SVM,ランダムフォレストという 3 種類の学習モデルで事前学習を行った結果, 文の意味類似度学習はランダムフォレスト回帰, 含意関係認識ではランダムフォレスト分類を学習モデルとして採用する。ハイパーパラメータはグリッドサーチを用いて最適化する. ## 4 実験 ## 4.1 データセット 文の意味的類似度と含意関係認識の評価用データセットである SemEval2014 Task1 SICK デー タセット (Marelli et al. 2014) と, 文の意味的類似度の評価用データセットである SemEval2012 MSR-video データセット (Agirre, Cer, Diab, and Gonzalez-Agirre 2012)の 2 種類のデータセットを用いて,提案手法の評価を行った。 SICK は,2つの文の意味的類似度と含意関係を予測するタスクであり,表 1 に示すように,類似度と含意関係 (yes, no, unknown) が人手によって付与されている。類似度は 1.0 から 5.0 の範囲の值で付与されている。このデータセットには計 9,927 件の文ぺアが含まれており,そのうち訓練データ,開発データ,テストデータはそれぞれ 4,500 件, 500 件, 4,927 件含まれている. MSR-video は表 2 に示すように,含意関係のラベルは付与されておらず,類似度の正解スコアのみが 0.0 から 5.0 の範囲の値で付与されており, 開発データ,テストデータが 750 件ずつ含まれている. SICKデータセットに含まれる文ぺアの方が MSR-video データセットに含まれる文よりも単語数が多くなっており, それぞれのデータセットにおける一文あたりの平均単語 表 1 SICK データセットに含まれる文ぺアの例 & & 表 2 MSR-video データセットに含まれる文ペアの例 & 2.7 \\ 数は, SICK データセットは 10 単語, MSR-video データセットは 6 単語である. ## 4.2 既存手法との比較評価の概観 ## 4.2.1 文間類似度学習 まず,文間類似度学習の評価を行った。なお,評価指標は,各タスクで標準的に使用されている評価指標に基づいて,SICKデータセットについては,提案手法によって計算された類似度スコアと,データセットに付与された正解スコアとの Pearson 相関係数 $\gamma$, Spearman 相関係数 $\rho$,平均二乗誤差 (MSE) という 3 種類の指標を, MSR-video データセットについては Pearson 相関係数 $\gamma$ のみを用いる,比較対象は, SICK データセット, MSR-video データセットにおける最高精度のモデル (Mueller and Thyagarajan 2016; Bär, Biemann, Gurevych, and Zesch 2012)と,推論を用いた既存手法として,先行研究で紹介した The Meaning Factory (Bjerva et al. 2014), UTexas (Beltagy et al. 2014) とする. 表 3 にSICK データセットにおける提案手法と既存手法との類似度学習の評価結果を示す.提案手法の結果と推論を用いた既存手法の結果とを比較すると, Pearson 相関係数と Spearman 相関係数に関しては,提案手法は推論を用いた既存手法よりも高精度を達成した. 一方で, MSE に関しては, 既存手法よりも精度が低かった。この原因としては複数の要因が挙げられるが,大きく分けて統語解析によるエラー,意味表示の誤りによるエラー,語彙知識の不足などに起 表 3 提案手法と既存手法との類似度学習の評価結果 (SICK) 表 4 提案手法と既存手法との類似度学習の評価結果 (MSR-video) 因する誤った推論によるエラーに分けられる。これらのエラーの詳細は 4.6 節で述べる. また,文間類似度学習においては,提案手法は深層学習を用いたモデルによる最高精度に達しなかった.この原因を分析するため,テストデータ 4,927 件の文例に対して,提案手法と最高精度のモデルが予測した類似度スコアの比較を 4.5 節で行った. 表 4 に MSR-video データセットにおける提案手法と既存手法との類似度学習の評価結果を示す. MSR-videoデータセットにおいても,提案手法は推論を用いた既存手法よりも高精度を達成した。また,公理生成に使用する語彙知識については,SICKでは WordNet のみを語彙知識に使用した場合,MSR-video では WordNet とWord2Vec の両方を語彙知識に使用した場合において最も精度が高かった。この原因は SICK と MSR-video のデータセットの違いによるものであると考えられる.4.1節で述べたように,SICK データセットに含まれる文ぺアの方が MSR-video データセットに含まれる文よりも単語数が多く, burrow a hole と dig the earth の言い換えといったフレーズレベルの言い換えが多く含まれていた。そのため, MSR-video データセットにおける評価では Word2Vec を用いて単語間の語彙知識を拡充することによって精度が向上したが,SICK データセットにおいてはフレーズ間の公理を生成できず,Word2 Vec の利用によって誤った公理の過剰生成が起こり,精度が低下したと考えられる。公理の過剰生成に関する具体例については 4.6 節で紹介する。今後, フレーズレベルの語彙知識の拡充や公理生成の改善を行うことで,更なる精度向上が見込まれる。 ## 4.2.2 含意関係認識 次に,SICK データセットを用いて含意関係認識の評価を行った。評価指標は,適合率(yes, no と予測した文ぺアに対して, 正解ラベルと同じ結果だったケースの割合), 再現率 (正解ラベルが yes, no である文ぺアに対して, 正解ラベルと予測ラベルが同じ結果だったケースの割合), 正答率 (yes, no, unknown のすべての文ぺアに対して正解ラベルと予測ラベルが同じ結果だったケースの割合)の 3 種類の指標を用いた。比較対象は, SICKデータセットにおける最高精度のモデル (Yin and Schütze 2017) と, 推論を用いた既存手法として, 先行研究で紹介した The Meaning Factory (Bjerva et al. 2014), UTexas (Beltagy et al. 2014),また,改良前の ccg2lambda (Martínez-Gómez et al. 2017)の結果とする. 表 5 に提案手法と既存手法との含意関係認識の評価結果を示す。語彙知識に WordNet のみ, WordNet と Word2Vec の両方を使用した場合において, 提案手法は最高精度を達成した。 公理生成に使用する語彙知識については, 含意関係認識のタスクにおいてもWordNet のみを語彙知識に使用した場合が最も精度が高かった。この原因について, 4.2.1節で挙げた問題に加えて, Word2Vec を用いた場合は season(味付けする)と pour(注ぐ)間の意味的関係(Word2Vec における単語間類似度は 0.07), draw と paint 間の意味的関係(どちらも描くという意味であるが, Word2Vecにおける単語間類似度は 0.155)といった, 多義語を含む単語間の意味的関係のチェックに失敗し, 公理が生成されない傾向が見られた。この結果から, 語義曖昧性を考慮して単語間の意味的関係をチェックすることで, 公理生成の改善が見込まれることが示唆されたが,これは今後の課題とする。 ## 4.3 特徵量別の評価 ## 4.3.1 文間類似度学習 SICK データセットにおける, 各特徴量単独で文間類似度を学習した場合のモデルの評価結果を表 6 に示す.この表が示すように, 述語の一致率のみを特徴量に用いた場合が最も精度が高かった. この結果は, 動詞・名詞の一致率と比較して, 論理式による意味表現が文の言語的 表 5 提案手法と既存手法との含意関係認識の評価結果 (SICK) な情報を良質な形式で表現しているという先行研究の知見と合致している。導出木のマッピングコストのみを使用した場合と受動態の有無のみを使用した場合は, Pearson 相関係数がほぼ 0 の值をとり,ほぼ全ての文ペアで 3.5 の類似度スコアを予測していた。この結果から, これらの特徴量は単独では予測性能はないと考えられる。しかし, SICK データセット中の $76 \%$ の文ペアに 3 から 5 の範囲の正解スコアが付与されているという正解スコアの分布の偏りが原因で,導出木のマッピングコストのみを使用した場合と受動態の有無のみを使用した場合は予測性能がないのにも関わらず,MSEの値は 1 程度の結果となったと考えられる。 全特徴量から各特徴量を取り除いて学習させた場合のモデルの評価結果を表 7 に示す。各特徴量を単独で取り除いた結果は精度にほとんど変化が見られなかったが,推論由来の特徴量の中では証明の結果を取り除いた場合において,最も性能が低下した。この結果は 3.3 で述べたように,SICK データセットでは含意関係が yes または no の文例において高い文間類似度が付与されているため,含意関係の証明の結果が文間類似度の予測性能に寄与していると考えられる. また, 表層由来の特徴量の中ではベクトル空間モデルを取り除いた場合が最も性能が低下した。この結果は, 文間類似度の予測においては表層的な一致率の影響が大きいことを示唆している. 表 6 各特徴量単独で学習した場合の類似度学習の評価結果 表 7 類似度学習のアブレーションの評価結果 推論を用いた特徴量をまとめて取り除いた場合は,推論以外の特徴量をまとめて取り除いた場合と比較して,大きな性能低下が見られた。このことから,推論を用いた特徵量は推論以外の情報を用いた特徴量よりも精度への影響が大きいことが示唆された。また,推論由来の特徴量の中でも, 論理式由来の特徵量(述語の一致率, 型の一致率, 否定表現の有無)をまとめて取り除いた場合よりも,推論の過程由来の特徵量(サブゴール,サブゴールの項の関係,ステップ数,推論規則,公理の確信度)をまとめて取り除いた場合の方が性能低下が見られた。この結果は証明の実行過程が文間の関連性を表す特徴として性能に寄与していることを示唆している. ## 4.3.2 含意関係認識 SICK データセットにおける, 各特徴量単独で学習した場合の含意関係認識モデルの評価結果を表 8 に示す。含意関係認識においては, 証明の結果のみを特徴量に用いた場合が最も精度が高かった. 型の一致率, 受動態の有無, 品詞タグの一致率, 文の長さの一致率, 導出木のマッピングコストは再現率が 0.1 以下と著しく低かった。これらの特徴量はほぼすべての文例で unknown を予測(型の一致率はすべて unknown と予測)し,単独では含意関係の予測性能がないことを示唆している. 表 8 各特徴量単独で学習した場合の含意関係認識の評価結果 表 9 含意関係認識のアブレーションの評価結果 全特徴量から各特徴量を取り除いて学習させた場合の含意関係認識モデルの評価結果を表 9 に示す。含意関係認識においても,各特徴量を単独で取り除いた結果は精度に大きな変動が見られなかったが,推論由来の特徴量は推論以外の情報を用いた特徴量よりも精度への影響が大きいこと, 推論由来の特徴量の中でも, 推論の過程由来の特徴量(サブゴール, サブゴールの項の関係, ステップ数, 推論規則, 公理の確信度) の方が論理式由来の特徵量(述語の一致率,型の一致率,否定表現の有無)よりも精度への影響が大きいことが示唆された. また,含意関係認識においては,推論由来の特徵量の中では,証明のステップ数が性能に最も大きく寄与する特徵量であることが示唆された。この結果は, 文間類似度の予測では文間の表層的な一致率の影響が大きいのに対して,含意関係の予測では文間の意味的な一致率の影響が大きいという,含意関係認識と文間類似度学習のタスク内容の違いを表していると考えられる。さらに,公理の確信度の特徴量を取り除いた場合は性能が低下するのに対して,概念間の距離や同義語の一致率の特徴量を取り除いた場合, 性能が向上した。公理の確信度と概念間の距離・同義語の一致率の特徴量の導出方法の比較からこの結果を考察すると, 概念間の距離と同義語の一致率では 2 文中の全ての単語間について概念間の距離や同義語集合を計算し, その平均を特徴量としているのに対して, 公理の確信度では 2 文間の意味的関係の判断に必要な単語間に限定して類似度を計算し, その平均を特徴量としている。そのため, 公理の確信度は概念間の距離・同義語の一致率よりも効率的な特徵量として, 含意関係の予測性能に寄与したと考えられる。 ## 4.4 正解ラベル別の評価 ## 4.4.1 文間類似度学習 SICK データセットにおける, 正解スコア別の類似度学習の評価結果を表 10 に示す.この結果から,提案手法は $4 \leq x<5$ の範囲の類似度スコアが付与されている文ぺアにおいて最も精度が高いことが確認された。実際に, $4 \leq x<5$ の範囲の類似度スコアが付与されている文ぺアの 8 割が含意か矛盾の関係にある文ぺアであり,提案手法は特に論理的関係がある文ぺアにおいて高精度で類似度を予測することが示唆された。 表 10 正解スコア別の類似度学習の評価結果 (SICK) ## 4.4.2 含意関係認識 次に, SICKデータセットにおける, 正解ラベル別の含意関係認識の評価結果を表 11 に示す. なお, ここでは yes, no, unknownの 3 値分類におけるすべてのラベルに関してスコアを算出し, その重み付け平均によって算出した適合率, 再現率, F1 値を評価指標に用いた。この結果から,提案手法は特に文間の矛盾関係の判定において高精度を発揮することが確かめられた.SICK データセットにおいて,矛盾関係にある文ぺアの多くは否定表現を含んでいることから,この結果は,提案手法が論理推論を用いて否定表現を含む文の意味を正確に捉えていることを示唆している. ## 4.5 本研究の手法と深層学習による手法との比較 SICK テストデータ 4,927 件の文例に対して, 提案手法の推論由来の特徴量のみを用いて学習したモデルによる予測類似度と, 本タスクで最高精度を達成した深層学習のモデル (Mueller and Thyagarajan 2016) による予測類似度との比較を行った。その結果, 4,927 件中 2,666 件は提案手法の方が正解スコアに近い類似度を予測していた. さらに,この 2666 件について,特にどのような言語現象を含む文例において推論由来の特徴量が有用であるか,傾向を分析した。テストデータ全体に含まれる否定・量化・等位接続・関係代名詞を含む文例数をそれぞれカウントした結果を表 12 に示す. また, これらの文例のうち, 提案手法が高精度で予測した文例数とテストデータ中の割合を計算した結果を表 13 に示す. 表から, 推論由来の特徵量は否定表現や量化表現, 等位接続を含 表 11 各正解ラベルの含意関係認識の評価結果 (SICK) 表 12 言語現象の例 \\ む文例において, 深層学習のモデルよりも高精度で類似度を予測する傾向が示唆された. ## 4.6 エラー分析 最後に, 推論由来の特徴量のみで学習したモデルで予測したスコアが正解スコアと 1.5 以上離れていた文例 119 件について,エラー分析を行った.SICKデータセットの類似度・含意関係の評価結果のエラー分析の例を表 14 に示す. 1264 では,各文中の onstage と on a stage をどちらも副詞として捉えるのが正しい統語解析結果であるが, 統語解析のエラーによって onstage が perform の目的語として捉えられてしまい,統語解析の結果に従って誤った論理式に変換されたため,含意関係を証明できず,予測スコアが正解スコアよりも低くなってしまった例である。このような例では 2 文間の統語解析の結果の整合性を考慮するなど,統語解析の改善が必要である, 6637 では, 1 文目の leap over を 1 つ動詞のイデイオムとして論理式に変換する必要があるが,変換に失敗し,予測スコアが正解スコアよりも低くなってしまった例である。このような例では,イディオムに関する外部知識を参照して論理式に変換するといった改善策が考えられる.2831 は含意関係がある文ぺアであるが, penciling on eyeshadow と using an eye pencil on her eyelid 間の公理を生成できなかったため含意関係を証明できず,予測スコアが正解スコアよりも低くなってしまった例である。 表 13 言語現象ごとの分析結果 \\ 表 14 エラー分析 } & & 4.6 & 2.9 & no & unk & \\ このような例では,フレーズ間の関係知識を用いて公理を生成する必要がある。 1941 は含意関係のない文ぺアであるが,公理の過剰生成によって含意関係を証明できてしまい,予測スコアが正解スコアよりも高くなってしまった例である。本研究では公理の確信度に単語間類似度を採用し,確信度が閥値以上である場合のみに公理を採用しているが,このような公理の過剰生成を防ぐためには, 文脈に合わせて正しく公理の確信度を算出するよう改善する必要がある. ## 5 まとめ 本研究では,文を高階述語論理式に変換し,文間の含意関係を高階論理の推論によって判定するシステムの実行過程に関する情報から, 文間の関連性に寄与する特徴を抽出し, 文間の関連性を学習する手法を提案した。文間類似度学習と含意関係認識という 2 の自然言語処理タスクに関して複数のデータセットを用いて評価を行った結果, 推論の過程を特徴量として組み合わせることによって,いずれのタスクにおいても精度が向上した. また, 含意関係認識用デー タセットの一つである SICK データセットの評価では最高精度を達成した. 今後の展望としては,統語解析,意味合成,論理推論のそれぞれのフェーズにおいて改善策を検討していく.統語解析においては,文ぺア間で統語解析結果が異なるために証明に失敗した例が数件見られたため,文ぺア中に同じ動詞が含まれていれば,各文の動詞に同じ統語範疇を優先して割り当てるといった改善策が挙げられる。意味合成においては,統語解析の結果に加えて外部知識を利用することで,イディオムなどを含む文についても適切な論理式に変換するといった改善策が挙げられる。論理推論においては, フレーズ間の公理の生成方法の検討, 公理の確信度の計算方法の改善などが今後の課題として挙げられる。また,本稿では含意関係認識と文間類似度学習のタスクにおいて提案手法の評価を行ったが,今後,質問応答など他の自然言語処理タスクへの適用が期待される。 ## 謝 辞 本研究は, JST 戦略的創造研究推進事業 CREST (JPMJCR1301) およびAIP チャレンジの支援を受けて行われた。また, 本研究の一部は, the 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP2017) で発表したものである (Yanaka, Mineshima, Martínez-Gómez and Bekki, 2017) . ## 参考文献 Abzianidze, L. (2015). "A Tableau Prover for Natural Logic and Language." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP-2015), pp. 2492-2502. Abzianidze, L. (2016). "Natural Solution to FraCaS Entailment Problems." In Proceedings of the 5th Joint Conference on Lexical and Computational Semantics, pp. 64-74. Agirre, E., Cer, D., Diab, M., and Gonzalez-Agirre, A. (2012). "SemEval-2012 Task 6: A Pilot on Semantic Textual Similarity." In Proceedings of the 6th International Workshop on Semantic Evaluation (SemEval-2012), pp. 385-393. Bär, D., Biemann, C., Gurevych, I., and Zesch, T. (2012). "UKP: Computing Semantic Textual Similarity by Combining Multiple Content Similarity Measures." In Proceedings of the 6th International Workshop on Semantic Evaluation (SemEval-2012), pp. 435-440. Bekki, D. and Mineshima, K. (2017). "Context-Passing and Underspecification in Dependent Type Semantics." In Chatzikyriakidis, S. and Luo, Z. (Eds.), Modern Perspectives in Type Theoretical Semantics, Studies of Linguistics and Philosophy, pp. 11-41. Springer. Beltagy, I., Roller, S., Boleda, G., Erk, K., and Mooney, R. (2014). "UTexas: Natural Language Semantics using Distributional Semantics and Probabilistic Logic." In Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval-2014), pp. 796-801. Bertot, Y. and Castran, P. (2010). Interactive Theorem Proving and Program Development: Coq'Art The Calculus of Inductive Constructions. Springer, New York, USA. Bjerva, J., Bos, J., van der Goot, R., and Nissim, M. (2014). "The Meaning Factory: Formal Semantics for Recognizing Textual Entailment and Determining Semantic Similarity." In Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval-2014), pp. 642-646. Blei, D. M., Ng, A. Y., and Jordan, M. I. (2003). "Latent Dirichlet Allocation." Journal of Machine Learning, 3, pp. 993-1022. Champollion, L. (2015). "The Interaction of Compositional Semantics and Event Semantics." Linguistics and Philosophy, 38 (1), pp. 31-66. Clark, S., Coecke, B., and Sadrzadeh, M. (2011). "Mathematical Foundations for a Compositional Distributed Model of Meaning." Linguistic Analysis, 36 (1-4), pp. 345-384. Clark, S. and Curran, J. R. (2007). "Wide-coverage Efficient Statistical Parsing with CCG and Log-linear Models." Computational Linguistics, 33 (4), pp. 493-552. Curran, J. R. and Clark, S. (2003). "Investigating GIS and Smoothing for Maximum Entropy Taggers." In Proceedings of the 10th Conference on European Chapter of the Association for Computational Linguistics (EACL-2003), pp. 91-98. Davidson, D. (1967). "The Logical Form of Action Sentences." In Rescher, N. (Ed.), The Logic of Decision and Action, pp. 81-95. University of Pittsburgh Press, Pittsburgh, PA. Reprinted in (Davidson 1980), pp. 105-148. Davidson, D. (1980). Essays on Actions and Events. Clarendon Press, Oxford. Deerwester, S., Dumais, S. T., Landauer, T. K., and Harshman, R. (1990). "Indexing by Latent Semantic Analysis." Journal of the American Society for Information Science, 41 (6), pp. 391-407. Grefenstette, E. and Sadrzadeh, M. (2011). "Experimental Support for a Categorical Compositional Distributional Model of Meaning." In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing (EMNLP-2011), pp. 1394-1404. He, H. and Lin, J. (2016). "Pairwise Word Interaction Modeling with Deep Neural Networks for Semantic Similarity Measurement." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL/HLT-2016), pp. 937-948. Hill, F., Cho, K., and Korhonen, A. (2016). "Learning Distributed Representations of Sentences from Unlabelled Data." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL/HLT-2016), pp. 1367-1377. Hockenmaier, J. and Steedman, M. (2007). "CCGbank: A Corpus of CCG Derivations and Dependency Structures Extracted from the Penn Treebank." Computational Linguistics, 33 (3), pp. 355-396. Kartsaklis, D., Kalchbrenner, N., and Sadrzadeh, M. (2014). "Resolving Lexical Ambiguity in Tensor Regression Models of Meaning." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (ACL-2014), pp. 212-217. Kartsaklis, D. and Sadrzadeh, M. (2016). "Distributional Inclusion Hypothesis for Tensor-based Composition." In Proceedings of the 26th International Conference on Computational Linguistics: Technical Papers (COLING-2016), pp. 2849-2860. Le, Q. V. and Mikolov, T. (2014). "Distributed Representations of Sentences and Documents." In Proceedings of the 31th International Conference on Machine Learning, (ICML-2014), pp. 1188-1196. Lewis, M. and Steedman, M. (2014). "A* CCG Parsing with a Supertag-factored Model." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP-2014), pp. 990-1000. Marelli, M., Menini, S., Baroni, M., Bentivogli, L., Bernardi, R., and Zamparelli, R. (2014). "A SICK Cure for The Evaluation of Compositional Distributional Semantic Models." In Proceedings of the 9th International Conference on Language Resources and Evaluation (LREC2014), pp. 216-223. Martínez-Gómez, P., Mineshima, K., Miyao, Y., and Bekki, D. (2016). "ccg2lambda: A Compositional Semantics System.” In Proceedings of ACL-2016 System Demonstrations, pp. 85-90. Martínez-Gómez, P., Mineshima, K., Miyao, Y., and Bekki, D. (2017). "On-demand Injection of Lexical Knowledge for Recognising Textual Entailment." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics (EACL2017), pp. 710-720. Martínez-Gómez, P. and Miyao, Y. (2016). "Rule Extraction for Tree-to-Tree Transducers by Cost Minimization." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing (EMNLP-2016), pp. 12-22. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J. (2013). "Distributed Representations of Words and Phrases and their Compositionality." In Burges, C. J. C., Bottou, L., Welling, M., Ghahramani, Z., and Weinberger, K. Q. (Eds.), Advances in Neural Information Processing Systems 26, pp. 3111-3119. Curran Associates, Inc. Miller, G. A. (1995). "WordNet: A Lexical Database for English." Communications of the ACM, 38 (11), pp. 39-41. Mineshima, K., Martínez-Gómez, P., Miyao, Y., and Bekki, D. (2015). "Higher-order Logical Inference with Compositional Semantics." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP-2015), pp. 2055-2061. Mineshima, K., Tanaka, R., Martínez-Gómez, P., Miyao, Y., and Bekki, D. (2016). "Building Compositional Semantics and Higher-order Inference System for a Wide-coverage Japanese CCG parser." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing (EMNLP-2016), pp. 2236-2242. Mitchell, J. and Lapata, M. (2008). "Vector-based Models of Semantic Composition." In Proceedings of the 46th Annual Meeting of the Association for Computational Linguistics (ACL2008), pp. 236-244. Mitchell, J. and Lapata, M. (2010). "Composition in Distributional Models of Semantics." Cognitive Science, 34 (8), pp. 1388-1429. Mueller, J. and Thyagarajan, A. (2016). "Siamese Recurrent Architectures for Learning Sentence Similarity." In Proceedings of the 30th AAAI Conference on Artificial Intelligence (AAAI- 2016), pp. 2786-2792. Parsons, T. (1990). Events in the Semantics of English: A Study in Subatomic Semantics. MIT Press, Cambridge, USA. Peter, W. C. and Wilkins, W. K. (1984). Locality in Linguistic Theory. Academic Press, Florida, USA. Prawitz, D. (1965). Natural Deduction - A Proof-Theoretical Study. Almqvist \& Wiksell, Stockholm, Sweden. Ray, J. (1990). Semantic Structures. MIT Press, Cambridge, USA. Steedman, M. (2000). The Syntactic Process. MIT Press, Cambridge, USA. Tai, K. S., Socher, R., and Manning, C. D. (2015). "Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (ACL/IJCNLP-2015), pp. 1556-1566. Wong, S. K. M. and Raghavan, V. V. (1984). "Vector Space Model of Information Retrieval: A Reevaluation." In Proceedings of the 7th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 167-185. Yin, W. and Schütze, H. (2017). "Task-Specific Attentive Pooling of Phrase Alignments Contributes to Sentence Matching." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics (EACL-2017), pp. 699-709. Yoshikawa, M., Noji, H., and Matsumoto, Y. (2017). "A* CCG Parsing with a Supertag and Dependency Factored Model." In Proceedings of the 55nd Annual Meeting of the Association for Computational Linguistics (ACL-2017), pp. 277-287. Zhou, Y., Liu, C., and Pan, Y. (2016). "Modelling Sentence Pairs with Tree-structured Attentive Encoder." In Proceedings of the 26th International Conference on Computational Linguistics (COLING-2016), pp. 2912-2922. ## 略歴 谷中瞳:1989 年生. 2011 年早稲田大学先進理工学部応用化学科卒業. 2013 年東京大学大学院工学系研究科科学システム工学専攻修士課程修了. 同年,株式会社野村総合研究所入社後, 2015 年東京大学大学院工学系研究科システ公創成学専攻博士課程進学. 峯島宏次:2013 年慶應義塾大学文学研究科博士課程修了. 博士 (哲学). 現在, お茶の水女子大学シミュレーション科学・生命情報学教育研究センター 特任准教授. Pascual Martínez-Gómez: received his Ph.D. degree in Computer Science at the University of Tokyo in 2014 for his research on eye-tracking and readability diagnosis. He is a research scientist at the Artificial Intelligence Research Center in the National Institute of Advanced Industrial Science and Technology (AIST), Japan. 戸次大介:2000 年東京大学大学院理学系研究科情報科学専攻博士課程修了.博士 (理学). 現在, お茶の水女子大学基幹研究院自然科学系准教授. $(2017$ 年 10 月 15 日受付 $)$ $(2018$ 年 1 月 17 日再受付) $(2018$ 年 3 月 6 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 『現代日本語書き言葉均衡コーパス』に対する 文節係り受け・並列構造アノテーション 本稿では『現代日本語書き言葉均衡コーパス』のコアデータに対する文節係り受け・並列構造情報のアノテーションについて述べる。統語構造のアノテーションに対して, 文節係り受け情報と並列・同格構造を分離してアノテーションする方法を提案する。さらに節境界を越える係り受け関係について,節の分類に基づきスコープを決めることでよりアノテーションの精緻化を行う,実作業の工程上の問題などにも言及しながら,アノテーション基準を概説する。また,アノテーションデータの基礎統計量について示す. キーワード:コーパス, アノテーション, 係り受け, 並列, 同格 ## Bunsetsu-based Dependency Relation and Coordinate Structure Annotation on 'Balanced Corpus of Contemporary Written Japanese' \author{ MASAYUKI ASAHARA $^{\dagger}$ and Yuji MATSUMOTO ${ }^{\dagger \dagger}$ } This article presents syntactic annotation for 'Balanced Corpus of Contemporary Written Japanese'. We propose a syntactic annotation schema wherein the bunsetsu dependency and coordinate structure are separated. In addition, we propose an annotation standard to determine the attachments beyond clause boundaries. Our annotation schema and standard have issues associated the hierarchical annotation processes. Furthermore, we present the basic statistics of the annotation data. Key Words: Corpus, Annotation, Dependency Relation, Coordination, Apposition ## 1 はじめに 文節係り受け解析は情報抽出・機械翻訳などの言語処理の実応用の前処理として用いられている. 文節係り受け解析器の構成手法として, 規則に基づく手法とともに, アノテーションを正解ラベルとしたコーパスに基づく機械学習に基づく手法が数多く提案されている (Uchimoto, Sekine,  and Isahara 1999; Kudo and Matsumoto 2002; Sassano 2004; Iwatate, Asahara, and Matsumoto 2008; Yoshinaga and Kitsuregawa 2010, 2014). 文節係り受け情報は,新聞記事 (黒橋, 居倉, 坂口 2000) $\cdot$話し言葉 (内元, 丸山, 高梨, 井佐原 2003) ・ブログ (橋本, 黒橋, 河原, 新里, 永田 2011) などにアノテーションされているが, 使用域 (register) 横断的にアノテーションされたデータは存在しない. 我々は『現代日本語書き言葉均衡コーパス』(以下 BCCWJ)に対する文節係り受け・並列構造アノテーションを整備した。対象は BCCWJ のコアデータで新聞・書籍・雑誌・白書・ウェブデータ(Yahoo!知恵袋・Yahoo!ブログ)の 6 種類からの使用域からなる。これらに対して係り受け・並列構造を付与したものを BCCWJ-DepPara として公開した. 本稿では, アノテーション作業における既存の基準上と工程上の問題について議論し, どのように問題を解決したかについて解説する。既存の基準上の問題については, 主に二つの問題を扱う。一つ目は, 並列構造・同格構造の問題である。係り受け構造と並列構造は親和性が悪い.本研究では,アノテーションの抽象化としてセグメントとそのグループ(同値類)を新たに定義し, 係り受け構造と独立して並列構造と同格構造を付与する基準を示し,アノテーションを行った。二つ目は,節間の関係である。我々は,節境界を越える係り受け関係に対する判断基準を示し,アノテーションを行った. 工程上の問題においては,文節係り受けアノテーションのために必要な先行工程との関係について述べ,作業順と基準により解決を行ったことを示す.本論文の貢献は以下のとおりである. - 使用域横断的に 130 万語規模のコーパスにアノテーションを行い, アノテーションデー 夕を公開した。 - 係り受けと並列・同格構造の分離したアノテーション基準を策定した. ・節境界を越える係り受け関係に対する判断基準を明示した。 ・ 実アノテーション問題における工程上の問題を示した. 2 節では『現代日本語書き言葉均衡コーパス』の概要について述べる。 3 節ではアノテーション作業で扱った問題について紹介する. 4 節では先行研究である京都大学テキストコーパスのアノテーション基準 (黒橋他 2000) や日本語話し言葉コーパス (内元他 2003) のアノテーション基準と対比しながら基準を示す. 5 節では基準の各論について示す. 6 節ではまとめと今後の課題について述べる. また,以下では二文節間に係り受け関係を付与することを便宜上「かける」と表現する. ## 2 『現代日本語書き言葉均衡コーパス』 本節では『現代日本語書き言葉均衡コーパス』の概要 (国立国語研究所コーパス開発センター 2015)について述べる. 『現代日本語書き言葉均衡コーパス』は, 約 1 億語からなる現代日本語の均衡コーパスである. このうち約 130 万語からなるコアデータは, 新聞 $(\mathrm{PN})$ ・書籍 $(\mathrm{PB}) \cdot$ 雑誌 $(\mathrm{PM}) \cdot$ 白書 $(\mathrm{OW}) \cdot$ Yahoo! 知恵袋 $(\mathrm{OC}) \cdot Y a h o o !$ ブログ $(\mathrm{OY})$ の 6 種類の使用域からなる.この使用域を表すアルファベット 2 文字は, サンプルの識別子であるサンプル ID の接頭辞として用いられている. 2006 年に整備がはじまり, 2008 年以降,毎年サンプル版が内部公開された。 2011 年に version 1.0 が一般公開され,2015 年に修正版 version 1.1 が公開された. すべてのサンプルについて, 自動解析による短単位 (Short Unit Word: SUW)(小椋, 小磯, 冨士池, 宮内, 小西, 原 2011a) $\cdot$ 長単位 (Long Unit Word: LUW)(小椋, 小磯, 冨士池, 宮内, 小西, 原 $2011 b)$ 二つの形態論情報が提供されている. コアデータについては, 人手で短単位・長単位形態論情報が全数チェックされ,長単位に基づく文節境界が付与されている,2008 年〜2010 年のサンプル版はコアデータの量が増えるとともに,形態論情報の誤りの修正がなされた. 2011 年に公開された BCCWJ version 1.0 の文境界は不完全であることが報告されている (田野村 2014).これを受けて, 非コアデータ全体に対して特定の誤りパターンに基づく文境界修正 (小西, 中村, 田中, 間淵, 浅原, 立花, 加藤, 今田, 山口, 前川, 小木曽, 山崎, 丸山 2015) が行われた.このデータは BCCWJ version 1.1 として, 2015 年に公開された. なお, version 1.0 から version 1.1 へ更新時には, 文境界にかかわる形態論情報のみが修正された. コアデータに対しては,さまざまな研究機関がアノテーションを行った1. できるだけアノテーションが重なるようにするために,アノテーションの優先順位が研究者間で共有されてい $る^{2}$. 成果物は BCCWJ の DVD 版所有者のみが利用可能なダウンロードサーバ3で公開されており,本研究の成果物も含まれている。 ## 3 アノテーション作業で扱った問題 本節では,アノテーション作業で扱った問題について示す. アノテーション基準の策定には,扱う言語表現をどのように記号化するかを決める必要がある. BCCWJに対する文節係り受け・並列構造アノテーションでは, 既存の係り受けアノテー ション基準で表現できなかった構造を表現することを目標とし,基準の再設計を行った。具体的には並列・同格構造を文節係り受けと分離してアノテーションを行い,新聞記事を対象にしていたときには問題にならなかった, 倒置や係り先のない文節の認定を行った. アノテーションの実作業では, 上流工程としてサンプリング・電子化・著作権処理・文境界認定・短単位形態論情報付与・長単位形態論情報付与・文節認定などがあった. これらの作業 ^{1}$ https://pj.ninjal.ac.jp/corpus_center/anno/ 2 https://github.com/masayu-a/BCCWJ-ANNOTATION-ORDER/ 3 https://bccwj-data.ninjal.ac.jp/mdl/ } と並行して行ったために, 工程上に発生する問題を解決しながら行う必要があった. 工程上の問題は,上流工程が完了するまで作業が開始できないという作業順の問題と, 上流工程で付与されたアノテーションが文節係り受け・並列構造を付与するのに適さないという基準上の問題の二つがあった。 ## 3.1 基準で扱う言語学的な問題 アノテーション作業および基準において, 重点的に取り扱った言語学的な問題について示す.一つ目は並列・同格構造である。並列・同格構造は文節係り受け関係との親和性が悪く, 特に部分並列 (non-constituent conjuncts) の場合に表現に無理が生じる. 以下の例文では, 1 文節目から 3 文節目までと 4 文節目から 6 文節目までの二つの構成要素による並列構造をなすが, この並列構造を係り受け関係により自然に表現することは難しい. 部分並列 (non-constituent conjuncts) の例 本を兄の太郎にノートを弟の三郎にかしている 本稿ではこの例も含めて, 係り受け構造・並列構造・同格構造をどのように表現するか, 過去の研究と対照しながら議論する. 我々の基準では, 文節係り受けとは別に並列や同格構造の構成要素の範囲を形態素単位(国語研短単位)に同定し,構成要素間に無向リンク(同値関係)をはることでグループ(同値類) としてアノテーションを行う,並列や同格のアノテーションを分離したうえで,文節係り受け関係は本来係かるべき要素に係かるようにする. この結果, 非交差条件を満たさない構造 (non-projectivity) を許す. さらに並列構造の構成要素二つ以上のヲ格を含む構成要素から一つの述語に係かることを許すため, 二重ヲ格制約を満たさない. テ形や連用中止の連続などの述語並列については,並列構造を認定しない方針をとる。これは, 日本語の節間の並列関係を従属関係と識別するのが困難であるために作業から除外する. そのかわり,節に対する格要素の係り受け関係の曖昧性については,南の節分類 (南 1974)を参考に, (野田 1985)の議論を参考にしながら厳密に行う. Web 上のテキストには倒置であったり,係り先のない文節が含まれたりする。これらについては基準において主辞後置制約 (strictly head final)を緩和し右から左に係ることを許すほか,係り先のない文節にラべルを付与したうえで連結根付き木 (single rooted) 制約も緩和してアノテーションを行う ${ }^{4}$. 現実のテキストには外国語や顔文字など,日本語の係り受け関係が認定できないものも存在  する。これらについては,係り受けアノテーションを放棄するセグメントを導入して対処する。 ## 3.2 作業順で扱う工程上の問題 係り受けの上流工程として, サンプリング・電子化・著作権処理・数值表現正規化・文境界認定・短単位形態論情報付与・長単位形態論情報付与がある. サンプリングはコーパスに収録するテキストを選択する工程である。電子化は紙媒体のテキストを機械可読な形式に入力する工程である。著作権処理はコーパスに採録して公開してよいかを権利者に確認する工程である。数值表現正規化は,アラビア数字や漢数字など多様な数値表現を位取り記数法を用いて正規化する工程 (NumTrans) である。文境界認定は日本語文として適切な文単位を認定する工程である。BCCWJ において形態論情報付与は, 二重形態素解析と呼ばれ,短単位・長単位の二つの単位を付与する。短単位形態論情報付与 (小椋他 2011a) は,形態素解析器 $\mathrm{MeCab}^{5}$ と辞書 UniDic ${ }^{6}$ による解析を行い, 人手で修正を行う工程である. 長単位形態論情報付与 (小椋他 2011b) は, 長単位解析器 Comainu(小澤, 内元, 伝 2014) ${ }^{7}$ により文節境界と長単位形態論情報を推定したうえで人手で修正を行う工程である。 2008 年の時点で, 新聞・書籍・白書・Yahoo!知恵袋のデータに短単位形態論情報が付与されたデータが内部公開された. 文節係り受け付与には長単位形態論情報が必要なために, 並列構造・同格構造を先行して付与した. その後, 雑誌・Yahoo!ブログのデータが得られ次第, 並列構造・同格構造を付与した。この作業は基本的に 1 人の作業者により全データに対してアノテー ションを行った。 2009 年の時点で, 長単位形態論情報が得られ,文節係り受けアノテーションを開始した。文節係り受けアノテーションは既に付与されている並列構造・同格構造アノテーションと, 文節係り受け解析器 CaboCha 8による自動解析結果を重ね合わせたものを修正することで行った. 作業者は十数名により並行で行った。 この時点でのデータを BCCWJ-DepPara version 1 とした. 2011 年 12 月に BCCWJ DVD version 1.0 が公開された. BCCWJ-DepPara version 1 と BCCWJ DVD version 1.0 とで, 係り受けアノテーション作業と形態論情報修正作業が並行して実施されたために,二つのデー夕間で形態論情報に齯䶣が発生した. この齯䶣を動的計画法を用いて検出し, 一意に構造が決められる 1 対多対応もしくは多対 1 対応の䶡䶣については自動的に修正した。一意に構造が決められない多対多の構造については, 人手で確認することで解消を行い,BCCWJ-DepPara version 2 を公開した。 その後, BCCWJ DVD version 1.0 は文境界に問題があることが報告された (田野村 2014).  係り受けアノテーションにおいては根が文末にあるため, 文末の定義が重要である。 このため, DVD 版とは異なる独自の文境界基準を規定したうえで,文境界の修正と節境界を越える係り受け関係の修正に着手した。文境界修正については基準で扱う工程上の問題として次小節で扱う. 2015 年に BCCWJ DVD version 1.1 が公開され, これには数值表現正規化前のデータ (OT) も含めることになった.表層文字列を数值表現正規化後のデータ (NT) ではなく数值表現正規化前のデータ $(\mathrm{OT})$ に変更するという作業を行い, それに基づいて発生した䶡齬の吸収作業を行った.この BCCWJ DVD version 1.1 に対応する,節境界を超える係り受け関係を修正したものを BCCWJ-DepPara version 3 として公開した,並行して非コアデータを含むコーパス全体の文境界修正を行ったために, BCCWJ DVD version 1.1 の文境界 (小西他 2015) と BCCWJ-DepPara version 3 の文境界 (小西, 小山田, 浅原, 柏野, 前川 2013) との間に文境界の齯䶣が発生している.前者の文境界は文境界の右端を認定したもので文の入れ子の最小スパンを文として規定しているが,後者の文境界は文の入れ子を許した最大スパンを文として規定しており,基準にはカギカッコ内の要素の意味に基づいた判断を行っている。このため, 節間の関係が複雑になり,今回改めて節境界を超える係り受け関係を整理した。なお,BCCWJ-DepPara version 3 における文境界は,BCCWJ コアデータについて付与されているが,BCCWJ 非コアデータ全体について付与することは作業工数が膨大になるために断念した. ## 3.3 基準で扱う工程上の問題 工程上, 他の基準のデー夕をもとに作業を行うが, 上流工程で付与された情報が必ずしも文節係り受けを付与するために適した基準でない場合がある。この基準の䶡䶣を解決するため, アノテーションラベルに䶡䶣の情報を持たせる方策をとる. 一つは文節境界である。国語研文節境界は形態論情報に基づき定義する作業が上流工程で行われているが,係り受け構造を厳密に判定しながら決められたものではない.文節係り受け構造をアノテーションする際,文節が細かく分かれているがためにアノテーションしがたい構造については,「文節をつなぐ」というラべルを定義し,それを付与することにより解決する。 もう一つは文境界である。文境界は係り受け木の根を決める重要な概念であるが,BCCWJ においては version 1.0 の時点では文境界認定を実質的に放棄しており,DVD が頒布された時点で,BCCWJ の整備とは独立に修正を始めた (小西他 2013)。その際に節境界を作業者が内省により分類しながら,節を越える文節のスコープを再定義した。なお,本研究の文境界修正 (小西他 2013) と DVD 版の文境界 (小西他 2015) は独立のものである. ## 4 既存のアノテーション基準との違いの概要 本節では,係り受け関係ラベルを比較することで先行研究の基準との違いを概観する。『現代日本語書き言葉均衡コーパス』(BCCWJ) の基準については BCCWJと記し, 『日本語話し言葉コーパス』(CSJ)の基準については CSJと記し, 『京都大学テキストコーパス』(KC)の基準については $\overline{\mathrm{KC}}$ と記す. 各基準の違いをまとめたものを表 1 に示す. 表 1 係り受けアノテーション基準の比較 まず, 本論文の主貢献である並列構造関連の違いについて簡単に説明する。中俣は「並列関係とは元来範列的関係であったものを言語の線条性の要請に従って統合的関係に変換したものである. そのために非現実性を帯びる」と述べている (中俣 2015).いわゆる部分並列 (non-constituent conjuncts)のような統語木の部分木を満たさないものが範列的関係であった場合に, 並列構造を木構造として表現する際に無理が生じる。 $\mathrm{KC}$ においては, 並列構造に対してラベル $\mathrm{P}$, 同格構造についてラベル A を準備し,係り受け関係にラベルを付与することにより表現する。部分並列についてはラベル I を付与した上で, 係り受け関係が交差しないよう並列構造の構成要素の最右要素に係り先を決める。 $\overline{\mathrm{CSJ}}$ においては, $\mathrm{KC}$ の基準をもとに同格構造を狭義の同格(ラベル A)と総称や数值表現などの広義の同格(ラベル A2)を区別し,係り受け関係にラベルを付与することにより表現する。 BCCWJにおいては, 並列構造・同格構造のような範列的関係を, 係り受け関係で表現することを放棄する。並列構造・同格構造はその構成要素の範囲(セグメント)とその同値類(グループ)を定義することで表現する。セグメント・グルー プに対するラベルとして Parallel (並列構造) ・Apposition(狭義の同格)・Generic(総称など) を定義する。なお, 以下の例では Parallel を実線角丸四角で, Apposition を点線角丸四角で, Generic を破線角丸四角で囲み,それぞれの隣接構成素をラベル矢印のない太いスプライン曲線(Parallel は実線・Apposition は点線・Generic は破線)で結ぶことにより表現する. 非交差制約 (projectivity) や主辞後置制約 (strictly head final) を違反する場合のラベルについ 場でアノテーションを行っており, 特別なラベルを設定していない. CSJにおいては, 交差する関係にはラベル X を付与し,倒置などで右から左に係る関係には左から右に係る関係をラべル R として付与する。 BCCWJにおいては, 交差する関係および倒置などで右から左に係る関係を許すが,それらは正しい係り先に係る関係を導入することにより表現し,ラべルとしては通常の係り受け関係と同じラベル Dを用いる. 次に,上流工程のアノテーションを修正するラベルについて示す. $\mathrm{KC}$ にいては, すべてのアノテーションが一機関で作成されているために工程間で発生する齯䶣を吸収するという機構は基準に組み込まれていない. CSJにおいては,ポーズが入ったがために書き起こしレベルで文節境界が入ったが,統語的には文節境界が入るべきではないという場合がある。その場合には,後続文節と接続するためのラベル B+ を定義する。 BCCWJにおいては, 文節境界ア, テーションと係り受けアノテーションが別機関で作成されており, これらの間の文節境界の齯齬を吸収するためのラベル B を定義する。また, BCCWJには文の入れ子を許した文境界単位を認定するため, 文中に文境界が出現する場合がある。その場合にはラベル Z 定義する. 係り受けアノテーションを放棄するラベルについて示す. KCにおいては, 対象が新聞記事であるため, 基本的には係り受けアノテーションを放棄するという方策はとられていない. 一方, CSJにおいては, 係り受け関係が不定なものとして,接続詞(ラベル C)・感動詞(ラベル $\mathrm{E}) \cdot$ 言い直し (ラベル $\mathrm{D}^{9}$ (or S1:複数文節の言い直し))・フィラー (ラベル $\left.\mathrm{F}\right) \cdot$ 係り先のない文節 (ラベル N) ・古典 (ラベル K (or K-S1, K-E1: 複数文節の場合) )・呼びかけ(ラベル Y) などにラベルを定義している. BCCWJにおいては,接続詞・感動詞に対して,係り受け関係が認定できるものはラベル D を付与し,認定できないものはラベル $\mathrm{F}$ を付与し係り先を不定とする(根にかける),言い直しに対して,言い直す前のものから言い直した後のものへの係り受けをラベル D で付与するが,言い直した後のものが存在しない場合にはラベル $\mathrm{F}$ を付与し,根にかける,また,言い直す前の範囲に対してセグメント Disfluency を規定する. フィラー・顔文字・非言語音・係り先のない文節・記号・補助記号 $10 \cdot U R L \cdot$ 空白など係り先が不定になるものに対してラベル $\mathrm{F}$ を付与し,根にかける,外国語・ローマ字文・漢文・古文などの係り受けを放棄する範囲については Foreign のセグメントを定義し, セグメント内の係り受け関係は基本的には右連接要素にかける. 呼びかけや文末要素であって係り受けが決まらないものに対しては,ラベル Zを定義するとともに,根にかける ${ }^{11}$.なお,以下の例では Disfluency や Foreign を破線角丸四角で囲むことにより表現する。 その他, $\mathrm{CSJ}$ 特有のラベルとして, 話し手の文法的誤りを示すラベル $\mathrm{S}$ :格表示誤りがある. BCCWJにおいては,文法的誤りを示すラベルは認定していない. ## 5 各論 以下では,本論文における係り受け・並列構造アノテーション基準を既存のアノテーション基準と比較しながら用例を用いて示す. BCCWJの右に付与されているXXXXX_Y_ZZZZ_ZZZZZ は用例が出現したファイルを示す. XXXXX が作業の優先順位 ${ }^{12}$ ,Y が優先順位を表す部分集合名 ${ }^{13}$ ,ZZZZ_ZZZZZ が DVD に収録されている元データのファイル名である。明示されていないものは,各コーパスのマニュアルの用例などに基づいた作例である.  ## 5.1 係り受け関係 ## 5.1.1 係り受け関係の表現法 以下では係り受け関係を次のような図で示す. BCCWJ 00079_D_PM11_00322 \|次|の\|||特集|で|は|、||具体|的|な\|||取り組み|を\|\|紹介|し|たい|。| | は国語研短単位形態素境界 ( $(\overline{B C C W J}) \overline{\mathrm{CSJ}})$ もしくは JUMAN 品詞体系形態素境界 ( $\overline{\mathrm{KC}})$ を表す。係り受け関係の説明に形態素境界が問題にならない場合には省略する。 || は国語研文節境界 ( $\overline{\mathrm{BCCWJ}} \overline{\mathrm{CSJ}})$ もしくは京都大学テキストコーパス文節境界 ( $\mathrm{KC})$ を表す。係り受け関係の説明に文節境界が問題にならない場合には省略する. 係り受け関係は文節列上に矢印で表現する。倒置を除いて格要素 $\rightarrow$ 述語, 修飾語 $\rightarrow$ 被修飾語などの方向に付与する. ## 5.1.2 倒置 KCJ基準においては, 主辞後置 (strictly head final)の原則から常に左から右に係る。 BCCWJCSJ の基準においては, 右から左に係ることを許す. CSJでは右から左に係ることをラベル Rを用いて示すが, BCWJ においては特に明示しない. BCCWJにおいて, 最初の「何だ万う」は係り先なしになるが, アノテーションッール上では末尾の文外の根ノード(以下 ROOT と呼ぶ)にかけることにより表現する. 倒置箇所は通常の係り受けとしてラベル D を用いる。倒置などにより係り先が不定になる箇所には ROOT にかけてラベル F を用いる. BCCWJ ## 5.1.3 交差 KCの基準においては, 非交差制約 (projectivity)の原則から係り受け関係が同格表現以外においては交差することを許さない. BCCWJCSJの基準においては,係り受け関係が交差することを許す。 CSJでは係り受け関係が交差することをラベル X を用いて明示するが,BCCWJにおいては特に明示しない. BCCWJ 地面を大きな削るドリルみたいだね $\overline{\mathrm{CSJ}}$ ## 5.1.4 係り先のない文節 KC の基準においては, 最右文節以外に係り先のない文節を許さない. (BCCWJ CSJの基準においては,最右文節以外でも係り先のない文節を許す. BCCWJにおいては係り先のない文節を ROOT(CaboCha 出力における文節 ID -1)に係るように表現する。係り先のない文節の分類については,後述する係り受け関係ラベル分類に基づいて記述する。 尚, CSJにおいては係り先のない文節をラベル $\mathrm{N}$ により表現する. 以下の例では「中学校を」が ROOT に係る。文末の「いたんですね」も係り先がなくROOT に係る。 BCCWJにおいて, 文末以外の係り先がないノードはラベル $\mathrm{F}$, 文末はラベル Z として区別する。 $\overline{\mathrm{BCCWJ}}$ $\overline{\mathrm{CSJ}}$ 中学校を山が好きな友達がいたんですね ROOT ## 5.1.5 文節境界修正 文節境界を修正する記述を係り受け関係ラベル BCCWJにおいてラベル B,CSJにおいてラベル B+を用いて表現する。係り受けアノテーションにそぐわない文節単位のみを,上のような係り受け関係を用いて表現する。このような例は, BCCWJにおいては複合動詞に, CSJ においては発話時にポーズが入った場合に出現する. ## BCCWJ ## 5.2 並列構造・同格構造とアノテーションを放棄する範囲 本小節では BCCWJにおける並列構造・同格構造とアノテーションを放棄する範囲について れているものである. ## 5.2.1 セグメントとグループの導入 BCCWJにおいて, 係り受け関係とは別に, 文に含まれる並列構造・同格構造をアノテーションする。並列構造もしくは同格構造の構成要素に対しては, 国語研短単位形態素境界に基づいてセグメントと呼ばれる範囲を付与し, 複数のセグメントをグループ化することによりアノテー ションを行う。 ## 5.2 .2 並列構造の表現法 並列構造のセグメントとグループを Parallel と呼ぶ. 並列構造を以下のように表現する.並列構造の構成要素は文節単位ではなく形態素単位でセグメントにより範囲指定する。図中, 実線の角丸四角を用いて Parallel を示す. BCCWJ 00079_D_PB46_00066 Parallel 並列構造は形態素単位・文節単位・複数文節単位・節単位など様々な単位に規定できる.基本的には入れ子を許して全ての単位に対して付与する。 Parallel 名詞句については,対応する名詞句をセグメント Parallel で切り出し,グループ化する.係り受け関係は通常の係り受けと同じラベル D を付与する。 尚, $\overline{\mathrm{CSJ}} \overline{\mathrm{KC}}$ においては, ラベル $\mathrm{P}$ を付与する. $\mathrm{CSJ} \mathrm{KC}$ BCCWJにおいては,形態素単位・文節単位・複数文節単位・節単位など様々な単位に規定できる並列構造を,基本的には入れ子を許して全てのレベルに対してアノテーションする。しかしながら述語並列については並列かどうかの判定が困難なため,全て並列とみなさず,通常の係り受けとして定義する。 CSJ $\mathrm{KC}$ では一部の述語並列について, 並列構造を認定しラベル $\mathrm{P}$ を付与しているが, BCCWJでは通常の係り受けとしてラベル D を付与する。 次に部分並列 (non-constituent coordination) について示す. CSJKC゙は以下ような構造について,非交差制約を順守するためにラベル I 付与し,真の係り先でないものにかける。 BCCWJにおいては, 範囲を規定したうえで, 通常の係り受け関係として真の係り先にかける。 ## BCCWJ $\overline{\mathrm{KC}} \mathrm{CS}$ BCCWJにおいて,並列句の間に接続詞が出現する場合には,右隣接する並列句の最右文節にかける。 次に,並列構造の複数の要素に左から係る場合について示す。以下のように「赤い」が「シャツと」と「ジャケットを」の両方に係り受け関係がある。 その場合には, 最左要素である「シャツと」にかける,並列構造の外側から,並列構造の要素にかける場合には両方が係り先であることを意味する。これは, 項を共有するなど,部分文字列を共有するような係り受け関係を対象とする。 以下のように「赤い」が「パプリカと」に係り,「黒オリーブが」に係らない場合, 並列構造の範囲を「赤いパプリカ」と「黒オリーブ」に定義して,「赤い」の係り先を限定する. ## BCCWJ BCCWJにおいて,3つ以上の並列構造の場合, 隣接する並列句にかける.3つのセグメントによって並列句のグループ化を行うことによりこれを表現する. 並列句の間に接続詞が出現する場合には,右隣接する並列句の最右文節にかける,以下の事例では,「風合い」「風格」「高級感あふれる質感」が並列構造をなす。 ## 5.2.3 狭義の同格構造 BCCWJにおいては, 同格構造についても形態素単位のセグメントとグループで表現する. 造を文節単位の係り受け関係としてラベル A を用いて表現する。 ## BCCWJ Apposition $\overline{\mathrm{KC}} \overline{\mathrm{CSJ}}$ ## 5.2.4 具体例と総称の同格関係・具体例と数詞の同格関係 BCCWJにおいては, Parallel と Apposition の他に Generic という「セグメント」と「グルー プ」を規定する. Generic は具体例と総称の同格関係や具体例と数詞の同格関係に対して規定する。 ## $\overline{\mathrm{BCCWJ}$} $\overline{\mathrm{CSJ}}$ $\overline{\mathrm{KC}}$ ## 5.2.5 アノテーションの放棄 BCCWJにおいては, Foreign, Disfluency などのセグメントを規定する.Foreign は外国語・ ローマ字・漢文・古典などを表し,Disfluency は言い直し・言いよどみを表す.基本的にはセグメント内の係り受けアノテーションを放棄し, 範囲内のすべての要素は右隣接要素にかける. BCCWJ 00004_A_PB22_00002 言い直した後の要素が存在する場合, 言い直しのセグメント外の係り先をその要素に認定する. (BCCWJ 00329_A_OC03_00651 Disfluency ## 5.3 節境界を越える係り受け関係 BCCWJでは節境界を越える係り受け関係について,次に示す基準を明確にして修正を行った. 従属節が埋め込まれている場合, 埋め込まれている節境界より前の要素について係り受け関係が判定しにくい場合が多い。具体的には,述語項関係が認められるが,節のスコープに入る要素の制限により係り受け関係が認められない場合である。項の省略により主節と従属節(もしくは複数の従属節)で一つの項を共有する場合に,作業者が述語項関係と係り受け関係を混同し,誤った節間の係り受け関係を認定してしまう。そこで,表 2 に示す南の節分類に基づいて節間の係り受け関係の再認定を行った。南の $\mathrm{A}$ 類・B 類・ $\mathrm{C}$ 類を,その構成要素(表 2 上部分)と述語的部分の要素(表 2 左下部分)により判別し, 述語的部分以外の節内要素が当該節のスコープに入る $(+)$ か入らない $(-)$ かを決める,具体的には,提示の「は」は, $\mathrm{A}$ 類・B 類のスコープに入らないが, $\mathrm{C}$ 類のスコープに入る。一方,主語の「が」は $\mathrm{A}$ 類のスコープに入らないが, $\mathrm{B}$ 類・ $\mathrm{C}$ 類のスコープに入る. 次の「つつ」は付帯状況を表す節末表現でA類である。以下の二例において,「彼女が」および「彼女は」は「飲みつつ」と「食べた」の双方の主語になるという述語項構造を持つ. 南の分類においては,目的語の「を」は A 類のスコープに入るが,主語の「が」や提示の「は」は A 類のスコープに入らない。ゆえに,「彼女が」および「彼女は」の係り先は「食べた」になる。 「が」とツツ節(付帯状況:A 類) 「は」とツツ節(付帯状況:A 類) 次の「ないで」は逆接を表す節末表現で B類である,以下の二例において,「彼女が」および 「彼女は」は,「飲まないで」と「食べた」の双方の主語になるという述語項構造を持つ. 南の分類においては,主語の「が」や目的語の「を」は B 類のスコープに入るが,提示の「は」は B類のスコープに入らない,ゆえに,「彼女が」の係り先は「飲まないで」になるが,「彼女は」 の係り先は「食べた」になる。 「が」とナイデ節(逆接:B 類) 「は」とナイデ節(逆接:B 類) 次の「から」は理由を表す節末表現で C 類である。以下の二例において,「彼女が」および 「彼女は」は,「飲まないから」と「食べた」の双方の主語になるという述語項構造を持つ. 南 の分類においては, 提示の「は」・主語の「が」・目的語の「を」全てが $\mathrm{C}$ 類のスコープに入る. ゆえに,「彼女が」および「彼女は」の係り先は「飲まないから」になる. 「が」とカラ節(理由:C 類) 「は」とカラ節(理由:C 類) この判定は一人の作業者により,BCCWJ-DepPara version 2 から version 3 への変更の際に全数見直しを行った. ## 6 BCCWJ-DepPara の基礎統計 本節では, BCCWJ-DepParaの基礎統計量を示す. 表 3 は, 各レジスタの短単位数 (SUW), 長単位数 (LUW), 文節数, 係り受けラベル数 'D' $\cdot$ 表 3 BCCWJ-DepPara の基礎統計(形態素数とラベル数) & 340 & 308,504 & 224,140 & 116,955 & & & & & 16,042 \\ 割合 $(\%)$ は, ラベル数 $\left.\{{ }^{\prime} \mathrm{D}\right.$ ', 'B', 'F', and 'Z' $\}$ / 総文節数. 表 4 BCCWJ-DepPara の基礎統計(並列構造と同格構造) 'B' $\cdot$ 'F' $\cdot$ 'Z', 文末数 ('EOS') である。ラベル 'F' は白書 $(\mathrm{OW})$ と Yahoo! ブログ (OY) とで他のレジスタよりも,割合が大きい傾向にある。白書は箇条書きの行頭記号が多く出現する一方,ブログは顔文字などが多く出現し,ラベル 'F'が多い傾向にある. BCCWJ-DepPara では, BCCWJ の元データとは異なる文境界を認定しており (小西他 2013), 文の入れ子を許しているため,入れ子のすべての文末を表すラベル 'Z' が,アノテーション単位としての文末 'EOS' よりも多い傾向にある. 表 4 は,並列構造・同格構造の統計である。seg はセグメントの数(並列構造の部分構成要素数), grp はグループの数 (並列構造全体の数), seg/grp は 1 グループあたりのセグメントの数 (並列構造を構成する平均部分構成要素数)を表す. 白書 (OW) は並列構造が多い傾向にある.並列構造 (Parallel) は 2 つ以上の構成要素を許し, 平均部分構成要素数 (seg/grp) は 2.19-2.35 であった。同格構造 (Apposition, General) は,基本的に構成要素対に基づく構造である。しかしながら, 新聞 $(\mathrm{PN})$ と書籍 $(\mathrm{PB})$ に, 2 回以上言い換える例外的な表現があった. ## 7 おわりに 本稿では『現代日本語書き言葉均衡コーパス』に対する係り受け・並列構造アノテーションについて, その基準とともに概説した。基準においては, 係り受け構造と並列構造を分けてアノテーションを行うことを提案し, 並列構造は, 構成要素範囲(セグメント)と構成要素集合 (グループ)により表現する方法を提案した. 節間の関係については,南の節分類 (南 1974) に基づき,係り先を決めることを提案した. 3 次チェック時に節を超える係り先を再確認することで,整合性を保たせた,節間のラベルについては, 現在『鳥バンク』(池原 2007)の節間の関係 (池原 2009) を付与しつつある (松本, 浅原, 有田 2017; 松本 2017, 2018; Matsumoto, Asahara, and Arita 2018). BCCWJ-DepPara データは, 『現 代日本語書き言葉均衡コーパス』 DVD 版を購入した方に http://bccwj-data.ninjal.ac.jp/mdl/ より公開している. 本提案手法に適合する係り受け解析モデルとして, (岩立 2012) は並列構造と係り受け構造を双対分解 (dual decomposition) して,推定する手法を提案している. ## 謝 辞 本研究の一部は, 国立国語研究所基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」,および国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです. 本研究は JSPS 科研費特定領域研究 18061005, 基盤研究 (A) 23240020, 基盤研究 (B) 25284083, 挑戦的萌芽研究 15K12888,基盤研究 (A) 17 H00917 の助成を受けたものです. ## 参考文献 橋本力, 黒橋禎夫, 河原大輔, 新里圭司, 永田昌明 (2011). 構文・照応・評価情報つきブログ コーパスの構築. 自然言語処理, $18(2)$, pp. 175-201. 池原悟 (2007). 鳥バンク (Tori-Bank). http://unicorn.ike.tottori-u.ac.jp/toribank.池原悟 (2009). 非線形言語モデルによる自然言語処理. 岩波書店. 岩立将和 (2012). Development of Pairwise Comparison-based Japanese Dependency Parsers and Application to Corpus Annotation. Ph.D. thesis, Nara Institute of Science and Technology, Japan. Iwatate, M., Asahara, M., and Matsumoto, Y. (2008). "Japanese Dependency Parsing Using a Tournament Model." In Proceedings of the 22nd International Conference on Computational Linguistics, pp. 361-368. 国立国語研究所コーパス開発センター (2015). 『現代日本語書き言葉均衡コーパス』利用の手 引き第 1.1 版. 大学共同利用機関法人人間文化研究機構. 小西光, 中村壮範, 田中弥生, 間淵洋子, 浅原正幸, 立花幸子, 加藤祥, 今田水穂, 山口昌也, 前川喜久雄, 小木曽智信, 山崎誠, 丸山岳彦 (2015). 『現代日本語書き言葉均衡コーパス』 の文境界修正. 国立国語研究所論集, 9, pp. 81-100. 小西光, 小山田由紀, 浅原正幸, 柏野和佳子, 前川喜久雄 (2013). BCCWJ 係り受け関係アノ テーション付与のための文境界再認定. 第 3 回コーパス日本語学ワークショップ発表論文集, pp. 135-142. Kudo, T. and Matsumoto, Y. (2002). "Japanese Dependency Analysis using Cascaded Chunking." In Proceedings of the 6th Conference on Natural language learning, pp. 63-69. 黒橋禎夫, 居倉由衣子, 坂口昌子 (2000). 形態素・構文タグ付きコーパス作成の作業基準 (Version 1.8). テクニカル・レポート, 京都大学. 松本理美, 浅原正幸, 有田節子 (2017). 『現代日本語書き言葉均衡コーパス』に対する節の意 味分類情報アノテーション一基準の策定、仕様書の作成の必要性について一. 言語資源活 用ワークショップ 2016 , pp. 336-346. 松本理美 (2017). 従属節の意味分類基準策定について一鳥バンク基準互換再構築の検討一. 言語 資源活用ワークショップ 2017, pp. 39-50. 松本理美 (2018). 日本語研究のための日本語従属節意味分類基準の試案一「鳥バンク」節間意 味分類体系の再構築一. 言語処理学会第 24 回年次大会, pp. 769-772. Matsumoto, S., Asahara, M., and Arita, S. (2018). "Japanese Clause Classification Annotation on the 'Balanced Corpus of Contemporary Written Japanese'." In Shirai, K. (Ed.), Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC 2018), Paris, France. European Language Resources Association (ELRA). 南不二男 (1974). 現代日本語の構造. 大修館書店. 中俣尚己 (2015). 日本語並列表現の体系. ひつじ書房. 野田尚史 (1985). はとが. 日本語文法セルフ・マスターシリーズ (1). くろしお出版. 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕 (2011a). 『現代日本語書き言葉 均衡コーパス』形態論情報規定集第 4 版(下). 特定領域研究「日本語コーパス」平成 22 年度研究成果報告書, 国立国語研究所. 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕 (2011b). 『現代日本語書き言葉 均衡コーパス』形態論情報規定集第 4 版(上). 特定領域研究「日本語コーパス」平成 22 年度研究成果報告書, 国立国語研究所. 小澤俊介, 内元清貴, 伝康晴 (2014). 長単位解析器の異なる品詞体系への適用. 自然言語処理, 21 (2), pp. 279-401. Sassano, M. (2004). "Linear-Time Dependency Analysis for Japanese." In Proceedings of the 20th International Conference on Computational Linguistics, pp. 8-14. 田野村忠温 (2014). BCCWJ の資料特性. 田野村忠温(編),コーパスと日本語学, 講座日本語 コーパス 6. 朝倉書店, 東京. 内元清貴, 丸山岳彦, 高梨克也, 井佐原均 (2003). 『日本語話し言葉コーパス』における係り受 け構造付与 (Version 1.0). テクニカル・レポート, 『日本語話し言葉コーパス』の解説文書. Uchimoto, K., Sekine, S., and Isahara, H. (1999). "Japanese Dependency Structure Analysis Based on Maximum Entropy Models." In EACL '99: Proceedings of the 9th Conference on European Chapter of the Association for Computational Linguistics, pp. 196-203. Yoshinaga, N. and Kitsuregawa, M. (2010). "Kernel Slicing: Scalable Online Training with Conjunctive Features." In Proceedings of the 23rd International Conference on Computational Linguistics (Coling 2010), pp. 1245-1253. Yoshinaga, N. and Kitsuregawa, M. (2014). "A Self-adaptive Classifier for Efficient Text-stream Processing." In Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics, pp. 1091-1102. ## 略歴 浅原正幸:2003 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了。2004 年より同大学助教. 2012 年より国立国語研究所コーパス開発センター准教授. 現在に至る. 博士 (工学). 自然言語処理・認知言語学の研究に従事. 松本裕治:1977 年京都大学工学部情報工学科卒. 1979 年同大学大学院工学研究科修士課程情報工学専攻修了. 同年電子技術総合研究所入所. 1984 85 年英国インペリアルカレッジ客員研究員. 1985~87 年(財)新世代コンピュー 夕技術開発機構に出向. 京都大学助教授を経て, 1993 年より奈良先端科学技術大学院大学教授, 現在に至る. 2016 年 9 月より理研 AIP 知識獲得チーム PI 兼務. 工学博士. 専門は自然言語処理. 情報処理学会, 人工知能学会, AAAI, ACL, ACM 各会員. 情報処理学会フェロー. ACL Fellow. $(2017$ 年 12 月 26 日 $\quad$ 受付 $)$ $(2018$ 年 3 月 26 日 $\quad$ 再受付 $)$ $(2018$ 年 4 月 17 日 $\quad$ 採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 音声認識を用いた言語能力自動測定システム“言秤”の構築 \author{ 宮部真衣 } 言語に関する能力を,客観的かつ自動的に把握する需要が高まっている.例えば,近年, 日本において認知症は身近なものとなっているが, 認知症は, 言語能力に何らかの特徴が表出する可能性があることはよく知られている。言語能力を測り,それらの兆候を捉えることができれば,早期発見や療養に役立つ可能性がある.また,現在, 多くの留学生が日本語教育機関において日本語を学んでおり, 学習者の習熟度に対し, 適切な評価を与えることが各教育機関に求められている。 しかし, 書く能力や話す能力の評価は, 主に評価者の主観によって行われており, 評価者によって判断に摇れが生じうる。機械によって自動的かつ客観的に言語能力を測定することができれば,評価者による摇れの生じない評価の一つとして活用できる可能性がある. これまでにも,言語能力の測定に関する取り組みはあるものの,いずれも人手を介して測定を行うためコストが高く, 気軽に測定することは難しい。そこで本研究では,手軽に言語能力を測定可能なシステム「言秤(コトバカリ)」を提案する.本提案システムでは, (1) 音声認識システムの組み込み, および (2) テキストデータから定量的に言語能力を測定する指標の採用を行うことで, 従来人手で行っていたテキスト化および言語能力スコアの算出を自動化し, コストの軽減と手軽な測定を実現する。また,「被測定者自身による自己把握・状況改善(用途 1)」および「被測定者以外による能力の高低の判断(用途 2)」という観点から,言語能力スコア(Type $\cdot$ Token 比)算出における音声認識システムの利用可能性について検証を行った。書き起こし結果および音声認識結果から得られる言語能力スコアは異なるため, 閥値との比較のような, 単純な言語能力スコアの対比による能力の高低の判断 (用途 2) は難しいことがわかった。また, 同一時期に複数回測定し,書き起こし結果および音声認識結果から得られる言語能力スコアの相関を調べたところ, 集団としては相関が見られなかった。一方,個人で分けると,相関が見られる発話者と見られない発話者がいることがわかった. 相関が見られる発話者については, 被測定者の言語能力スコアを継続的に測定し,その変化を観察することによる能力の判断(用途 1) や言語能力の現状把握・維持・改善(用途 2)ができる可能性が示唆された. キーワード:言語能力,音声認識,自動測定,認知症スクリーニング †諏訪東京理科大学経営情報学部, Faculty of Business Administration and Information, Tokyo University of Science, Suwa † 京都大学大学院人間 - 環境学研究科, Graduate School of Human and Environmental Studies, Kyoto University †† 大阪大学日本語日本文化教育センター, Center for Japanese Language and Culture, Osaka University ††† 奈良先端科学技術大学院大学研究推進機構, Center for Frontier Science and Technolopgy, Nara Institute of Science and Technology # Development of Language Ability Measurement System (KOTOBAKARI) using Voice Recognition \author{ Mai Miyabe ${ }^{\dagger}$, Shuko Shikata ${ }^{\dagger \dagger}, \mathrm{Kay} \mathrm{Kubo}^{\dagger \dagger \dagger}$ and Eiji Aramaki ${ }^{\dagger \dagger \dagger \dagger}$ } There is a growing need for automatic measurements of language ability. With increase in the aging population, the number of older adults with dementia is expected to increase. Language disorder is considered one of the most fundamental symptom with which dementia can be detected. The identification of language defects particular to dementia symptoms may contribute to the early detection of dementia. Currently, many foreign students learn Japanese at educational institutions, which are required to provide appropriate evaluations to their students. However, differences occur because evaluators judge the language abilities of foreign students subjectively. The measured results from an automatic language ability measurement system could be used for objective evaluations. Although traditional studies manually measured language abilities, such methods are often costly. In this study, we propose the automatic language ability measurement system, "KOTOBAKARI," as an alternative to traditional manual measurement methods. This system is expected to reduce the cost and time of measuring the language ability using the following steps: (1) voice recognition to obtain text data and (2) quantitative indicators for automated language ability measurement. We verify the capacity of voice recognition to measure language ability by comparing language ability to a threshold value and by assessing language ability score changes. The experimental results show that it is difficult to judge language ability by threshold value comparison, using our system. On the contrary, the language ability score of some individuals, measured with our system, was correlated with the correct score. This result indicates that these individuals can use our system to assess language ability changes by continuous measurements. Key Words: Language Ability, Voice Recognition, Auto Measurement, Screening of Dementia ## 1 はじめに 言語に関する能力を, 客観的かつ自動的に把握する需要が高まっている.言語能力把握の需要がある場面の一つに, 認知症スクリーニングがある。日本は世界に先駆けて超高齢社会に突入した. 2013 年の高齢化率は $25.1 \%$ のぼり ${ }^{1}$, 世界でも例を見ないスピードで高齢化が進行している。高齢化の進行に伴い,認知症高齢者の増加も見込まれる。2012 年 8 月の厚生労働省発  表によると, 2010 年における日常生活自立度 $\mathrm{II}^{2}$ 以上の認知高齢者数 3 は 280 万人にのぼり, 将来推計として 2025 年には 323 万人, 65 歳以上の人口比率にして $9.3 \%$ にまで昇するだろうと予測されている 4 . また, 日本における人口 10 万人当たりの若年性認知症者数(18 64 歳)は, 47.6 人にものぼるとされている ${ }^{5}$. 今や,認知症は我々にとって非常に身近なものとなっている. 厚生労働省の調査によると ${ }^{6}$, 最初に認知症に気づくきっかけとなる症状の一つとして, 言語障害がある。言語能力は長期にわたる学習や経験によって発達するものであり,一定レべルまで発達した後は, 加齢によっても衰えにくいとされる (Hampshire, Highfield, Parkin, and Owen 2012). 一方で,構文をあやつる能力は, 70 代後半を境に低下しはじめるという報告もある (Kemper, Marquis, and Thompson 2001). Kemperによると, 英文における認知症の進行度は語彙能力,構文能力ともに相関関係にあり, 症状が進行するにつれ,構文能力の顕著な低下がみられるという。つまり,認知症は言語能力,とりわけ語彙能力に,加齢の影響ではない何らかの特徴が表出する可能性をもつものである。もし言語能力を測り,その兆候を捉えることができれば,早期発見や療養に役立つのではないかと考えた。 また, 留学生の日本語能力評価においても,言語能力の自動測定への期待が高まっている.現在, 多くの留学生が日本語教育機関において日本語を学んでいる。学習者の習熟度に対し, 適切な評価を与えることが各教育機関に求められているが,言語能力の評価は,一概に容易とは言えない。具体的には, 作文課題やスピーチテストなどの,「書く能力」「話す能力」の評価は,評価者の主観によって行われることが一般的であるが (木村 2009; 鳥井 2013; 金久保 2016), このような評価は評価者の能力や判断に大きく依存してしまうという問題を孕む.機械による客観的かつ自動的な評価が実現できれば,評価者による判断の摇れという問題を排除した尺度として活用できる可能性がある. 近年,大規模なコホート研究によって,数十年の言語能力の経過を観察する試みが行われている.その結果,老化や認知症などと加齢によるさまざまな能力との関係は徐々に明らかになりつつある (Kubo, Kiyohara, Kato, Tanizaki, Arima, Tanaka, Nakamura, Okubo, and Iida 2003; Snowdon, Kemper, Mortimer, Greiner, Wekstein, and Markesbery 1996).しかし, これらの取り組みには, 人手でのテキストデータの作成・収集, テキストの分類, 各評価スコアの算出などが必要であり,時間・金銭的コストが高い,また,テキストの分類には訓練をつんだ専門家が必要であるなど,言語能力測定のハードルが高い. ^{3} 65$ 歳以上を指す. 4 認知症高齢者数について, http://www.mhlw.go.jp/stf/houdou/2r9852000002iau1.html 5 若年性認知症の実態等に関する調査結果の概要および厚生労働省の若年性認知症対策について. http://www.mhlw.go.jp/houdou/2009/03/h0319-2.html 6 厚生労働省の認知症施策等の概要について. http://www.mhlw.go.jp/file/05-Shingikai-12301000-Roukenkyoku-Soumuka/0000031337.pdf } そこで本研究では,言語能力測定システム「言科(コトバカリ)」を提案する.言語能力測定における大きな課題の一つとして, 分析対象となるテキストデー夕の作成がある. 従来は, 音声デー夕の書き起こしなど,人手でのテキスト化が必要であり,多大な時間を要していた,提案システムでは, 音声認識システムにより, 言語能力の被測定者の発話データを自動的にテキスト変換することで,コストの大幅な軽減を行う,ただし,音声認識システムの認識精度には限界があり,常に正しい認識結果が得られるとは限らない. 我々はこれまでに,テキストデータに基づいて定量的に言語能力を測定する指標(以降,言語 能力指標と表記する) を提案してきた (荒牧, 久保, 四方 2014 ). また, 提案指標を用いたテキスト分析の結果, 一部の指標 (TTR (Type・Token 割合) および JEL (日本語学習語彙レベル)) によって認知症者の特徴的な傾向などを観察できる可能性を示した (四方, 荒牧 2014; 荒牧他 2014). このうち, TTRは, Type(異なり語数)と Token(延べ語数)の比率 (Type/Token) であるため, TTR スコアは語の内容ではなく, 出現回数のみに基づいて算出される指標であり,発話されたのがどのような語であるかという点については関与しない. そのため, TTRを用いた場合, たとえ語の内容の認識結果が誤っていたとしても, 算出されるスコアに問題は生じにくいと考えられる。よって, 提案システムでは, 先行研究における提案指標を採用し, 特に TTR スコアに着目することで, 音声認識による認識誤りの影響を受けにくく, さらに人手作業を排除した定量的なスコア算出を実現する. 本提案のポイントを以下に整理する. 分析テキスト作成コストの軽減音声認識システムを組み込むことにより,音声を録音/入力するだけで,言語能力の測定を可能にする。 スコアリングコストの軽減定量的に算出可能な言語能力指標を採用することにより,認識誤 りを許容し,さらにスコア算出のための人間の介在を省略可能にする。 本論文では, 採用する言語能力測定指標と提案システムについて概説した後, 低コストな言語能力測定の要となる音声認識システムの利用可能性について, 検証実験の結果から議論する. ## 2 関連研究 本研究で実現を目指す言語能力の自動測定は, 認知症のスクリーニングや留学生の言語能力評価などの様々な場面において応用が期待されるものである。本章では, 言語能力と老化/疾患に関する先行研究および音声認識の活用事例について述べる. ## 2.1 言語能力と老化/疾患 一般に,老化と言語能力とは相関しないといわれている。例えば,一部の言語能力は, 高齢者においても伸び続けるため, 老人が理解している語彙数は, 若者の約 1.3 倍だという報告も ある (呉田, 伏見, 佐久間 2002). その一方で, 人間が構文をあやつる能力は, 70 代後半を境に低下しはじめるという報告もある (Kemper et al. 2001). 失語症などの言語との関連が深い疾患を除けば,罹患中の言語能力の変化についての調査は少ない. しかし, 85 歳以上の $40 \%$ が罹患している認知症 (厚生労働省研究班 2013 ) については近年研究が進んでいる.Snowdon は,認知症者は認知症の症状が認められ始める 50 年前から語彙能力が低いと報告した (Snowdon et al. 1996)。また, Kemperによると,英文における認知症の進行度は語彙能力, 構文能力ともに相関関係にあり, 症状が進行するにつれ, 構文能力の顕著な低下がみられるという (Kemper et al. 2001). ただし,ある人間が認知症か否かを判定するための項目に,言語能力に関するものがあることを考慮すれば,認知症患者が言語能力の低下を示すことは,ある種のトートロジーであり,言語能力と認知症, さらに老化の関係は, 複雑な様相を呈しているといえる. 文章から認知症などの疾患を推定することが可能となれば,測定の侵襲度が低く,かつ,超早期からの検出が可能となる. ## 2.2 音声認識の活用事例 近年, 音声認識技術が進展し, 様々な場面で音声認識が利用されている。例えば, スマートフォンの普及に伴い,ブラウザ上での音声検索なども利用できるようになった.また,旅行対話を対象とした音声翻訳 (Ikeda, Ando, Satoh, Okumura, and Watanabe 2002; 笹島, 井本, 下森, 山中, 矢島, 福永, 正井 2005 ; 花沢, 荒川, 岡部, 辻川, 長田, 磯谷, 奥村 2009) や, コー ルセンターの自動案内のための電話音声認識 (加藤 2010), 英語字幕の生成 (下郡, 坪井 2010),議事録の作成 (別所,松永,大附,廣嶋,奥 2008) など,音声認識を利用した多様なシステムがこれまでに提案されている。 旅行対話など,分野を限定した場合,音声認識によって高精度な認識を実現することは可能であるが,分野を制限せずに精度のよい認識結果を得ることは未だ容易ではない.従来の音声認識を利用したシステムは, 限定的な分野を対象にするなどして精度改善の工夫を行い,正しい認識結果を取得し,その結果を利用することが前提となっている. 本研究では,言語能力の測定において,音声認識を利用する。精度の良い認識結果が得られれば,より正確な言語能力測定が可能であるが,認識誤りが生じていても,その影響を受けにくいと考えられる言語能力指標を採用することで,頑健な言語能力測定の実現を目指している. ## 3 言語能力指標 我々はこれまでに,言語能力指標の提案および提案指標を用いたテキスト分析を行い,提案指標によって認知症者の特徴的な傾向などを観察できる可能性を示してきた (四方,荒牧 2014; 荒牧他 2014). 本論文では, この先行研究で提案した言語能力指標を採用し, 提案システムを実現する。 そこで本章では,まず,提案システムで採用する言語能力指標について概説する. 一般に,言語能力は「話す (speaking)・聞く (listening)・読む (reading)・書く (writing)」の 4 つに大別される. 本研究は, 人間からの出力に関わる,〈話す〉能力および〈書く〉能力に注目する。〈話す〉能力および〈書く〉能力は,大別すると語彙に関する能力(以降,語彙能力とよぶ)と文法に関する能力(以降,文法能力とよぶ)の 2 つになる (Kintsch and Keenan 1973; Turner and Greene 1977). 本研究で採用する言語能力指標は, 主に語彙能力に関わるものであり,以下の 2 つの観点で分類できる. 単位: 語単位で算出され,それを全文で平均するタイプのもの(単語指標), 文単位で算出され,それを全文で平均するタイプのもの(単文指標),および使用語彙数など,全文から導出されるタイプのもの(文章指標) 方法:辞書などで定義された基準に基づいてレべル付けされたもの(辞書定義尺度)および大規模コーパスから統計的に算出されるもの(統計量) これらの観点から指標を分類した結果を表 1 に示す. 以下,各指標の定義を述べる。 (1) Type $\cdot$ Token 割合 (Type Token Ratio; TTR): Type(異なり語数)と Token(延べ語数)の比率 (Type/Token) を示す.この值が大きいほど,語彙量が多いことを意味する,文章全体で集計した値をTTR スコアとする。 (2) 頻度 ・使用者数比 (Frequency per User Popularity; FPU):語の特殊性を示す指標である。語の特殊性は, 語の出現頻度を語のユーザ数で割った値と定義する。この値が低いほど,その語は一般的であり,高いほど,その語のユーザ数が少ない語(特殊な語)であることを示す。例えば,スラングや専門用語などは高い値を持つ.ソーシャルメディア上の 10 万人の発言を 8 ヶ月間調査して得たデータをもと 表 1 本研究で用いる言語能力指標 \\ に, 語のユーザ数および出現頻度を算出し, 各語の頻度・使用者数比コーパスを構築した (Aramaki, Maskawa, Miyabe, Morita, and Yasuda 2013). このコーパスを参照して語ごとに頻度・使用者数比を算出し,全単語の値を平均した値を FPU スコアとする. (3) 日本語学習語彙レベル (Japanese Educational Lexicon Level; JEL): 語彙の難易度を示す指標である。難易度は日本語学習辞書 7 に収載されている語彙レベルを用いた。語彙レベルは, 1 (初級前半), 2 (初級後半), 3 (中級前半), 4 (中級後半), 5 (上級前半), 6 (上級後半) に分けられる (砂川 2012). 語ごとに算出し, 全単語の平均を JEL スコアとする。 (4) 機能表現難度 (Difficulty of Functional Expression; FNC): 機能表現 8 の難易度を示す. この値が大きいほど,文章内で用いられている機能表現の難易度が高いことを意味する。難易度の定義は「日本語機能表現辞書つつじ」(松吉, 佐藤,宇津呂 2007) で設定されている難易度による。難易度は A1, A2, B , C, F の 5 段階に分かれておりここれを $1(\mathrm{~A} 1)$ から $5(\mathrm{~F})$ に変換した。文ごとに算出し,平均した値を $\mathrm{FNC}$ スコアとする. (5) ポライトネス (Politeness of Functional Expression; PLT) : 機能表現の丁寧さの度合いを示す.この値が大きいとき,機能表現が丁寧であることを表す.ポライトネスは「日本語機能表現辞書つつじ」(松吉他 2007 ; 松吉, 佐藤 2008)の分類を採用した.分類では機能表現が常体 (normal), 敬体 (polite), 口語体 (colloquial),堅い文体 (stiff)の 4 種類に分けられており, 口語体 (colloquial) $=1$, 常体 (normal) $=$ 3 , 敬体 $($ polite $)=5$, 堅い文体 $($ stiff $)=5$ に変換した. 文ごとに算出し,平均した値を PLT スコアとする. (6)具体性 (Named Entity Ratio; NER): 固有名詞の割合を示す。具体性は,固有名形態素数を全名詞形態素数で割った値と定義する.この値が大きければ,文章の内容がより具体的であることを示す. 固有名詞の判定は,形態素解析器 $\mathrm{JUMAN}^{9}$ (Kawahara and Kurohashi 2006) を用いて行う。地名,数詞,固有名詞の割合を文ごとに算出し,平均した値を NER スコアとする. 以降,これらの言語能力指標をもとに算出される値を「言語能力スコア」と総称する.なお, これらの指標は, 人間の言語能力によって表出したテキストの特徴を表すものの一つであると見なし, 本論文では「言語能力指標」と呼ぶこととしているが, これらの指標は人間の言語能力を直接的に表すものではない.  ## 4 提案システム:言秤(コトバカリ) 本章では,まず,想定するシステムの用途を整理し,提案システムの構成について述べる. ## 4.1 想定するシステムの用途 前述したように, 本研究で提案する言語能力測定は, 様々な場面へと適用できる可能性があるが,本論文では,適用対象の一つとして想定している認知症者を例として, システムの用途を整理する。 認知症予防回復支援のアプローチの一つとして,認知的アプローチがある (大武 2010).これは, 知的活動と社会的ネットワークの構築により, 認知症になると衰える認知機能を必要とする認知活動を行い,認知機能の低下を遅らせるものである。本人が認知症であると自分の状態を認識しており,その状態の維持や改善に取り組みたいと考えている場合,被測定者自身が前向きかつ積極的にシステムを利用する可能性がある. 一方で, 認知症の疑いのある人の言語能力を測定する場合などは, 上述したケースとは異なると考えられる。日本イーライリリー株式会社が行った調查10によると,認知症を疑うきっかけとなる変化に気づいてから,最初に医療機関を受診するまでにかかった期間は平均 9.5 か月,変化に気づいてから確定診断までにかかった期間は平均 15.0 か月であるとの調査結果がある.認知症には様々な原因があり,早期診断で治療可能なものがあるが,上述の調査では,確定診断までに時間がかかったことによる患者や家族の負担に関して,「適切な治療がなされなかった」 という回答が $36.7 \%$ を占めており, 早期診断の重要性が見て取れる。しかし,それにも関わらず,認知症の疑いのある人自身が受診を嫌がる11ことなども多い。このような場合, 被測定者の周囲の人々(家族など)は測定に対して前向きであっても,言語能力の被測定者がシステムの利用に後ろ向きである可能性がある. そこで本提案システムでは,以下の 2 種類の用途を想定し,システムの検討を行う。 用途 1 : 被測定者自身による自己把握・状況改善 被測定者が自発的にシステムを利用し,その結果を自分自身で確認することにより,言語能力の現状を把握し,改善などに役立てることを想定している。 用途 2:被測定者以外による能力の高低の判断 例えば,認知症の疑いのある人(被測定者)の家族などが,被測定者の発話を音声デー 夕として保存しておき,そのデータから言語能力を測定することにより,被測定者の言語能力傾向を把握するために用いることを想定している。  なお,用途の整理においては認知症者を例としたが,他の分野においてもこれらの用途はあると考えらえる,例えば,留学生の能力評価の場合, 留学生自身による自己の能力把握が用途 1 ,教師などの評価者による能力評価が用途 2 に該当する. ## 4.2 システム構成 本研究では, 3 章で述べた 6 指標に基づき,言語能力を測定するシステム「言秤」を提案する。言秤のシステム構成を図 1 に示す. 4.1 節で述べたシステムの用途を考慮し, 音声データの入力は, 入力方式 (1) ユーザ端末に保存された音声データ(wavファイルなど),または入力方式 (2) マイクによるリアルタイム入力を想定する。 入力方式 (1) は, 用途 2 のように, 被測定者以外がシステムを利用する場合に必須となり,また用途 1 でも利用可能である。 入力方式 (2)については, 用途 1 のように自発的な測定を行う際, 音声データの作成の手間を減らし, その場で直接入力するために必要であると考えた。 音声データあるいはマイク入力に対し, 以下の 3 つのモジュールでの処理を行い, 言語能力スコアを出力する. (A) 音声認識モジュール音声認識ソフトウェアにより, 入力音声をテキストデータに変換する。 (B) 言語処理モジュール音声認識モジュールにより変換したテキストデータに対し, 形態素 図 1 システム構成 解析を行う。 (C) スコアリングモジュール言語処理モジュールによって得られた解析結果をもとに, 3 章で述べた言語能力スコアを算出する。 方式 (1) 保存された音声データおよび方式 (2) マイクによるリアルタイム入力については, 全てのモジュールでの処理が必要となる。 また, 本システムでは, 音声入力だけでなく, テキストによる入力も可能であり, その場合は, 音声認識モジュールを除いた 2 つのモジュール(言語処理モジュールおよびスコアリングモジュール)によって処理される. 提案システムの画面例を図 2 および図 3 に示す. スコアリングモジュールにより算出された 6 つの言語能力スコアは, 図 2 のようにレーダーチャートとして画面上に表示される。なお, 方式 (2) マイクによるリアルタイム入力の場合, 入力結果を随時可視化し, ユーザへとフィードバックする(図 3)こともできる. 図 2 言語能力スコア表示画面 図 3 リアルタイムフィードバック画面 ## 5 検証実験 音声認識システムによる言語能力の測定可能性を検証するために, 音声データを用いた言語能力スコアの比較実験を行う,本章では,検証仮説と評価に用いるデータについて説明する. ## 5.1 検証仮説 音声認識システムの認識精度が高い場合, 認識結果が発話内容と完全一致することも考えられる。もし, 完全一致するならば, 算出される言語能力スコアには何の問題もない. しかし, 現在の音声認識システムでは, 常に高精度な認識ができるとは限らない. では, 認識結果と実際の発話内容にずれがある場合, 正しい言語能力スコアの算出はできないのだろうか. これまでに行った分析の結果, 我々が提案・採用する 6 つの言語能力指標のうち, 認知症の傾向把握に大きく寄与しうる ${ }^{12}$ 指標は, TTR (Type・Token 割合) およびJEL(日本語学習語彙レベル) の 2 つであることが判明した (荒牧他 2014). この 2 つの指標はまた, 日本語学習者の日本語習熟度の変遷を把握する際にも活用できる可能性がある指標でもある (久保, 宮部, 四方,荒牧, 李 2015). 特にTTR は, Type(異なり語数)と Token(延べ語数)の比率 (Type/Token) であり, TTR スコアの算出において, 発話されたのがどのような語であるかという点については関与しない. 我々はこの点において, 音声認識システムによる認識結果が不完全であっても, TTR スコアを算出できる可能性があると考えた。具体的には, ある語の認識を誤った(例えば,「機械」という発話を「機会」と変換したり, 全く異なる語として認識するなど)としても,発話者によって語の発声の仕方が変わらないと仮定すれば, 音声認識システムは毎回同じ誤りとして出力し,総じて異なり語数, 述べ語数が大きく変わらない可能性があると考えている. 異なり語数, 述べ語数が大よそ合っていれば,仮説上はTTR スコアも実際の発話内容から算出されるものと類似するはずである. そこで, 本実験では, 「音声認識システムの認識結果が正しくなくとも, Type 数, Token 数は実際の発話データと相関する」という仮説を立て, 言語能力スコアの算出・比較を行う。本検証では,理論的に認識誤りに頑健な指標であると考えられるTTRスコアをもとに,音声認識システムを介した言語能力の測定可能性を議論することとし,認識内容の影響を受けるその他の指標については,参考値として掲載する。  なお, 今回は, 音声認識することを想定していない録音音声データを評価用音声データとし,検証を行う,マイクに向かい, 音声認識することを意図して入力するよりも認識精度が低くなると考えられ,より劣悪な環境下を想定した検証結果になると考えている. ## 5.2 評価用音声データ 評価用音声データとして,模擬面接の設定で収録された音声デー夕 (保田, 田中, 荒牧 2013) を用いた,今回用いたデー夕は,模擬面接の設定において, 5 名の実験協力者(男性 2 名,女性 3 名であり,年齢は $20 \sim 40$ 代である)が各 10 回収録したデー夕(合計 50 回分)である. 就職活動を前提とした模擬面接の設定で, 実験協力者はあらかじめ考えてきた「学生生活で力を入れてきたこと」についての発話(3分間程度)を行ってもらった. なお, 収録時, 偶数回のみ聴衆(面接官役)を配置したが,聴衆には聴いていることを表すためにうなずくことのみを許可し,話者への質問や意見など,発話は一切行わないようにしている. 発話内容は,ボイスレコーダーおよびビデオカメラにおいて収録した.収録環境のイメージを図 4 に示す. ボイスレコーダーは机の上に置き, 被験者からは少し距離のある状態で録音している。評価用音声データとしては,ボイスレコーダーで収録したものを利用した。なお,このデータの収録においては,同じ内容を話してもらっているが,テキストを読み上げるのではなく, 面接の設定でその場で話してもらっているため, 実験協力者の 10 回の発話内容はそれぞれ異なっている 13. 発話者には,発話内容を録音していることを伝えているが,音声認識によるテキスト化を前提として収録したものではない. したがって,このデー夕は,録音を意識している可能性はあるが,音声認識することを意識した発話データではないといえる. 図 4 音声データの収録環境  ## 5.3 評価用テキストデータの作成 音声認識による言語能力測定の可能性を検証するためには, 5.2 節で述べた各評価用音声デー 夕に対して,テキストデータを作成する必要がある. まず,音声認識結果と比較するための正解データを作成した,正解データについては,音声を聞きながら,人手で書き起こし作業を行い作成した。なお,書き起こしの際は,「えー」や 「あー」などの言いよどみ (フィラー) もテキストとして書き起こしている. 次に, 音声認識システムによるテキストデータの生成を行った ${ }^{14}$. 現在, 様々な音声認識システムが公開されているが,その精度はシステム毎に異なると考えられる。そこで,実験結果に対する音声認識システムの精度の影響を考慮し, 異なる 2 種類の音声認識システムを用いて実験を行うこととした.本実験においては,以下の 2 種類の音声認識システム 15 を用いて,音声認識結果を生成する. - 大語彙連続音声認識エンジン Julius (Rev. 4.2)(河原, 李 2005) ・アドバンスト・メディア社の AmiVoice $\mathrm{SP}^{16}$ 本検証実験で用いるテキストデータは以下の 3 種類である. 各テキストの一部を表 2 に示す. (1)書き起こしデー夕(以下,「書き起こし」と表記する) (2)Julius を用いた認識結果(以下,Julius と表記する) (3) AmiVoice SP2 を用いた認識結果(以下,AmiVoiceと表記する) 表 2 各テキストデータの一部 & & \\ Julius, AmiVoice のテキストについては, 音声認識システムから出力された結果をそのまま掲載している.  ## 6 実験結果と考察 本章では,それぞれのテキストに対する,スコアリングモジュールによる言語能力スコアの算出結果を比較する。なお,本論文では理論的に認識誤りに頑健な指標である TTR スコアをもとに, 音声認識システムを用いた言語能力測定の可能性を議論する. TTRスコア以外の言語能力スコアについては, 今回は参考値として提示することとし, 今後, 認識結果と併せた詳細な分析を行うことにより,測定可能性を検証する。 ## 6.1 平均スコアとデータ間の相関 Type(異なり語数), Token (延べ語数) および 3 章で述べた 6 指標, 音声認識率 ${ }^{17}$ の平均値を表 3 に示す. 表 3 より, Type については書き起こしよりも, Julius, AmiVoiceの方が多い傾向がみられる。一方, Tokenについては, 書き起こしょりも Julius, AmiVoiceの方が少ない傾向がみられた. TTRについては, Julius, AmiVoiceが, 書き起こしょりも若干高い值となった. その他の言語能力スコアについては, 大きな違いはみられなかった. 各スコアに関する,テキストデータ間のピアソンの相関係数を表 4 にそれぞれ示す. 表 4 より, Type, Tokenについてはいずれの組み合わせでも 0.9 前後の強い正の相関 $(p<0.05)$ が確認できた。一方, TTRスコアについては,書き起こしと Julius, 書き起こしと AmiVoiceの相関係数はいずれも 0.2 未満であった. 表 4 における相関係数は, 50 回分の発話デー夕全体での相関を調べたものである. 発話者ごとの各スコアの相関係数および音声認識率を表 5 および表 6 に示す. 表 5 , 表 6 の TTR スコア 表 3 各スコアの平均値 $ : 書き起こしデータの総単語数, $\mathrm{D}$ : 脱落誤りの数, $\mathrm{S}$ : 置換誤りの数, $\mathrm{I}$ :挿入誤りの数 } の相関係数より,正の相関がある発話者が一部見られるものの,全発話者に相関が見られるわけではなく,相関の有無には個人差があることがわかった。 また, TTR スコアの相関係数と音声認識率とを比較すると, 相関係数が 0.4 以上だが音声認識率が低い場合(表 5 発話者 D)や,相関係数が 0.4 未満だが音声認識率が高い場合(表 6 発話者 C)などが見られ,書き起こしと音声認識とのTTR スコアの相関の高さには,音声認識精度による大きな影響は見られなかった。ただし,今回の検証は 5 名の発話者のみで行っている 表 4 テキストデータ間の相関係数 *: $p<0.05$ 相関係数が 0.4 以上であったものを太字で示している. 表 5 話者別に見た言語能力指標に関する書き起こしデータ・音声認識結果 (Julius) 間の相関係数 * : $p<0.05$ 相関係数が 0.4 以上または -0.4 以下であったものを太字で示している. 表 6 話者別に見た言語能力指標に関する書き起こしデータ・音声認識結果 (AmiVoice) 間の相関係数 *: $p<0.05$ 相関係数が 0.4 以上であったものを太字で示している. ため,今後より多数の話者データを確保した上で影響の有無を検証する必要がある. ## 6.2 発話音声データに基づく言語能力測定の可能性 ## 6.2.1 TTR スコアの測定可能性 6.1 節で示したように,検証の結果,Type,Token については実際の発話内容(書き起こし) と音声認識システムの認識結果 (Julius, AmiVoice) との間に強い正の相関がみられたが, 50 回分の発話データ全体で検証すると,TTR スコアの相関は確認できなかった. 一方, 発話者ごとにTTR スコアの相関係数(表 5)をみると,5\%水準で有意なものは一部のみであるが,一部の発話者については正の相関が見られており,相関の見られる発話者とそうでない発話者に分かれることが示された. 以上の結果から, 音声認識システムを用いた言語能力の測定可能性について議論する. 6.1 節で示したように,単純に TTR スコアのみを比較した場合, 本来の TTR スコア(表 3 では「書き起こし」が相当)よりも高くなる可能性がある。したがって,単純にある閾値を下回ったかどうか, といった観点から,TTR スコアを認知症の初期症状の発見など,能力の高低の判断 (4.1 節用途 2)に用いることは難しい,ただし,本研究で,音声認識により各指標がどの程度バイアスを受けるかが明らかになった,今後,これを補正することで,さらに精度の高い推定を実現できる可能があると思われる。 一方, 発話者ごとに分けて検証を行った結果, 音声認識によるTTR スコアと本来の TTR スコアに相関が見られる発話者と,相関が見られない発話者がいることが分かった. 有意な相関が見られた発話者 A (Julius 使用, AmiVoice使用), 発話者D (AmiVoice使用)に関して, 音声認識による TTR スコアと本来のTTR スコアとの比例定数を調査した結果, 発話者 A (Julius 使用)の比例定数は平均 0.66, 標準偏差 0.02 , 発話者 A(AmiVoice 使用)の比例定数は平均 0.59 ,標準偏差 0.02 , 発話者 D(AmiVoice 使用)の比例定数は平均 0.57 , 標準偏差 0.03 となり, ほぼ一定の比例定数が確認された。また, TTR スコアに相関が見られなかった発話者の発話内容を確認すると,Juliusを用いた場合(表 5)に相関が見られなかった発話者 B(相関係数 0.049), $\mathrm{E}($ 相関係数 - 0.156)については, どちらの発話者も, 発話の中で「えーと」「えー」といったフィラーを頻繁に使用している傾向が見られた。また, AmiVoice を用いた場合(表6)に強い相関が見られなかった発話者 C(相関係数 $0.379 )$ は,5 名の発話者の中でも音声認識率が高く,発話者 Cの 10 回分のデータの中で, TTR スコアの大きな変化が生じていない傾向が見られた.音声認識率が高いにも関わらず,TTR スコアに相関が見られなかった原因としては,このTTR スコアの変化の小ささが関係すると考えられる。発話者 $\mathrm{C}$ と, 表 6 において有意な相関が見られた発話者AのTTRスコアの取りうる幅(最大値一最小値)を比較すると,発話者Aの幅が 0.054 (書き起こし)および 0.107 (AmiVoice) であったのに対し, 発話者 Cの幅は 0.019 (書き起こし)および 0.066 (AmiVoice) であり, 発話者 A と比較すると, 発話者 C の TTR スコアは ごく狭い範囲に密集する傾向が見られた. そのため, 発話者 $\mathrm{C}$ の 10 回の計測データでは TTR スコアの摇れがあまり見られず,その中でやや傾向の異なる TTR スコアの一つのぺアが外れ值となり,相関係数が低くなった可能性がある。このような発話者については,より多くの発話データを収集することで,音声認識によるTTR スコアと本来の TTR スコアとの高い相関が得られる可能性がある。な押,今回検証に用いた発話者デー夕は 5 名分であり,今後より多くの発話者デー夕を用いた比較を行うことで,TTR スコアに相関が見られない発話者らに,今回見られたこれらの傾向が現れるかどうか確認する必要がある. これまでの調査では,長期的に認知症者の言語能力スコアの変化を見ていくと,徐々に減少していく傾向が確認されている (四方,荒牧 2014)。このような傾向を鑑みると,スコアに相関が見られる一部の発話者に関しては,継続的に被測定者のTTR スコアを測定・記録し,その変化を見るという利用法において,認知症の初期症状の発見(4.1 節用途 2)に役立てることができる可能性がある,同様に,被測定者自身が現状把握・言語能力の維持・改善目的で継続的に言語能力スコアを計測し比較するといった利用方法(4.1 節用途 1)も可能であると考えられる。なお,音声認識結果から算出された言語能力スコアに基づいて言語能力の変化を把握していくためには,本来のスコアと音声認識によるスコアとの相関が見られた上で,比例定数が一定となる必要があると考えられる,そのため,完璧でない音声認識システムを用いる場合,提案システムによって能力の測定が可能な発話者かどうかは, 複数回の測定を行い, スコアの相関と比例定数を確認した上で判断する必要がある。 ## 6.2.2 その他のスコアの測定可能性 5.1 節でも述べたが,今回,理論的に認識誤りに頑健な指標であると考えられる TTR スコアに基づいて,音声認識システムを介した言語能力の測定可能性を議論することとし,TTRについては前述のような測定可能性があることを明らかにした。一方, TTR 以外の指標は,各語に紐づいた特有の値(例えば,FPU の場合は頻度・使用者数の比)や, 品詞(NER の場合, 固有名詞の数)に基づいてスコアが算出される。つまり, 発話内容が正しく認識されなければ,正しいスコア算出が難しい指標であるといえる,表 4,表 5 ,表 6 においては,参考値として TTR スコア以外の指標についても相関係数を示した。表 4 , 表 5 , 表 6 より, FPU と FNC については,全体および一部の発話者において, 0.4 以上の正の相関が見られた. FPU スコアに相関が見られた発話者と見られなかった発話者に関して, 特徴があるのかどうかを確認したところ,相関の高さに影響を与えるような特徴は見られなかった.ただし,相関の見られなかった発話者 B の書き起こしデータには,FPUの算出に用いたコーパスに含まれない専門用語が含まれていたのに対し,その音声認識結果では,それらの専門用語が,コーパスに含まれる(FPUの算出対象となる)単語として誤って認識されている,という場合が見られた.また, FNC スコアの相関が高かった発話者 C (Julius:0.479, AmiVoice:0.602) の特徴を 確認したところ, 音声認識率が高く, 機能表現も比較的正確に認識できていたのに対し, その他の発話者については,機能表現を認識できていなかったり,誤った機能表現として認識されていたりする場合が見られた。たたし,これらの傾向は,今回用いたデータから見られた少数の事例であるため,その他のデータにおいても同様の傾向が見られるのかどうか,専門用語の有無や,使用する機能表現のパターンなどが十分な検証用データを収集した上で,今後,検証する必要があると考えられる. また, 今後音声認識の精度が向上し, 正確な認識結果が得られるようになれば, TTR 以外の 5 指標についても自動測定が可能になると考えられる. ## 6.3 高齢者施設におけるシステムの試用 5 章で述べた実験において用いた音声デー夕には, 高齢者の音声デー夕は含まれていない. 本提案システムの適用対象の一つである認知症患者は高齢者に多いため, 高齢者の音声データによる検証についても今後行う必要があると考えている. これまでに我々は, 高齢者施設が主催した認知症相談会において, システムの試用を行った。図 5 に試用時の様子を示す. なお, 認知症相談会における試用時には, システムの説明などを行うため, 説明者が試用者の側に同席する形で行った. 相談会での試用においては,マイクを用いたリアルタイム入力による測定を行った。ただし,言語能力スコアの算出にはある程度の発話量が必要となる. 自由な発話を測定対象とした場合, 発話内容を思いつかないなど, 測定のための十分な発話量が確保できない可能性があると考え, 3 つの設問を用意し, 被測定者に 図 5 試用時の様子 図 6 試用時のインタフェース はその設問に沿って発話してもらう形式を取った。また, システムのインタフェースについては,測定環境に合わせて変更している。具体的には,発話中には設問が表示され(図 6), 全ての設問に答えた後, 言語能力スコアがレーダーチャートとして表示される形式に変更した. 相談会においては, 51 歳 92 歳(平均 78 歳)の高齢者 19 名にシステムを試用してもらった. システムによる測定結果(音声認識ソフトウェア Julius を使用 ${ }^{18}$ )と,録音した音声データの書き起こし結果との比較を行った結果, TTR スコアの相関係数は 0.379 であり, 相関は見られなかった。 小沼らの研究では,一般的な音響モデルは成人の音声を用いていること,また,高齢者話者の音声には口をあまり開けないことによる不明膫な音声などがあることから,高齢者の音声の音響特性と音響モデルとの間にミスマッチを生じ,認識率が低下することが報告されている (小沼, 桑野, 木村, 渡辺 1997). 高齢者を測定対象とした際に, 一般的な音響モデルを用いた音声認識システムを使うことで認識率が低下し,それが言語能力スコアの検証結果に影響を及ぼす可能性もある.ただし, 5 章で述べた検証実験と異なり,同一発話者による複数回の測定は行っていない. そのため, 今後, 高齢者に本システムを継続的に利用してもらい, 同一発話者 (高齢者)による測定の可能性について,検証していく必要がある。また,高齢者音声の高精度な認識を目指した研究も進められており (馬場, 芳澤, 山田, 李, 鹿野 2002), 今後このような研究が発展したとき,ユーザに応じて音響モデルの変更などができるようになれば,より正確な測定が可能になると考えられる。 は,個々人によって相関の高い音声認識システムが異なっていた。そのため,この試用においては,フリーのソフトウェアである Julius を使用することとした. } ## 7 おわりに 本研究では,発話者の音声から言語能力を測定するシステム「言秤」を提案した.提案システムは, 認知症における初期症状の発見や自己把握・状況改善, 留学生の日本語能力の客観的な評価などにおいて利用されることを想定したシステムである。(1) 音声認識システムの組み込み,および (2) テキストデータから定量的に言語能力を測定する指標の採用を行うことで,従来人手で行っていたテキスト化および言語能力指標の算出を自動化し,コストの軽減と手軽な測定を実現した。ただし,テキスト化に音声認識システムを用いることで,正確な言語能力スコアの算出が困難となる可能性がある. そこで, 言語能力測定の適用先の一つである認知症の初期発見を想定して用途を整理し, 「被測定者自身による自己把握・状況改善(用途 1)」および「被測定者以外による能力の高低の判断(用途 2)」という観点から,言語能力スコア算出における音声認識システムの利用可能性について検証を行った. 検証実験の結果, 以下の点を明らかにした. (1) Type(異なり語数), Token(延べ語数)は, 発話内容と音声認識結果で強い正の相関がある。また, TTRスコア(Type・Tokenの比率)は, 複数発話者の混在するデー夕において相関はみられなかったが,同じ発話者の発話デー夕においては,相関が見られる発話者と,相関が見られない発話者とに分かれる傾向がみられた. (2) Type, Token, TTRスコアのいずれも,相関関係はみられるものの, 実際の値には発話データとの差異がみられた。 (3) 上記の (1), (2)より, 閥値との比較のような, 単純な言語能力スコアの対比による能力の高低の判断(用途 2)は難しい。一方, TTR スコアに相関が見られる発話者については,被測定者の言語能力スコアを継続的に測定し,その変化を観察することによる初期症状の発見(用途 1)や言語能力の現状把握・維持・改善(用途 2)ができる可能性がある. 今回の検証においては, 評価用音声データとして, 音声認識することを想定していない録音音声データを用いた,ただし,発話者に対し,録音していることを伝えているため,録音されることを意識している可能性はある,今後,録音を全く意識していない発話データでの検証を行い, 同様の傾向が得られるかを確認する。また, 今回用いた音声データには, 高齢者の音声データは含まれていないため,それを用いた検証も行う必要があると考えている.今回の検証においては, TTRスコア以外の言語能力スコアを参考値として提示したが, 今後, 認識結果と併せた詳細な分析により,それらの測定可能性を検証する。 また, 今回得られた結果は, 音声認識エンジン Julius (Rev. 4.2) および音声認識システム AmiVoice SP2 を用いて検証した結果であり,より高精度な認識結果の得られるソフトウェアを用いた場合には,結果が変わる可能性がある。完璧な認識結果が得られるようになれば,正確な言語能力スコアを測定することが可能になるため, 今後は音声認識の認識率向上に併せて, 本 論文と同様の検証を行い,スコアの相関について検証していく必要がある. ## 謝 辞 評価に用いた音声データの収録・書き起こしにあたり,国立国語研究所の加藤祥氏に多大なるご協力をいただいた。音声認識システム AmiVoice SP2 は,アドバンスト・メディア社にご提供いただいた。ここに深く感謝の意を表する。本研究の一部は,JST 戦略的創造研究推進事業, 日本学術振興会補助金番号 JP16H06395 および 16H06399, 16K12489 の助成による. ## 参考文献 荒牧英治, 久保圭, 四方朱子 (2014). 老いと〈ことば〉:ブログ・テキストから測る老化. 電子情報通信学会技術研究報告 $=$ IEICE technical report: 信学技報, 114 (173), pp. 131-136. Aramaki, E., Maskawa, S., Miyabe, M., Morita, M., and Yasuda, S. (2013). "A Word in a Dictionary is used by Numerous Users." In Proceedings of International Joint Conference on Natural Language Processing (IJCNLP2013), pp. 874-877. 馬場朗, 芳澤伸一, 山田実一, 李晃伸, 鹿野清宏 (2002). 高齢者音響モデルによる大語彙連続音声認識. 電子情報通信学会論文誌. D-II, 情報・システム, II-パターン処理 $=$ The transactions of the Institute of Electronics, Information and Communication Engineers. D-II, 85 (3), pp. 390-397. 別所克人, 松永昭一, 大附克年, 廣嶋伸章, 奥雅博 (2008). 話題構造抽出に基づく会議音声インデクシングシステム。電子情報通信学会論文誌. D, 情報・システム, 91 (9), pp. 2256-2267. Hampshire, A., Highfield, R. R., Parkin, B. L., and Owen, A. M. (2012). "Fractionating Human Intelligence." Neuron, 76 (6), pp. 1225-1237. 花沢健, 荒川隆行, 岡部浩司, 辻川剛範, 長田誠也, 磯谷亮輔, 奥村明俊 (2009). 携帯電話試作機上で動作する旅行会話向け音声認識システム. 情報処理学会第 71 回全国大会講演論文集 (人工知能と認知科学), pp. 39-40. Ikeda, T., Ando, S., Satoh, K., Okumura, A., and Watanabe, T. (2002). "Automatic Interpretation System Integrating Free-style Sentence Translation and Parallel Text Based Translation." In Proceedings of the ACL-02 Workshop on Speech-to-speech Translation: Algorithms and Systems, Vol. 7, pp. 85-92. 金久保紀子 (2016). 日本語スピーチコンテスト実態と課題. 筑波学院大学紀要, 11, pp. 13-23. 加藤恒夫 (2010). 携帯電話における分散型音声認識システムの実用化. 情報処理学会誌, 51 (11), pp. 1394-1400. Kawahara, D. and Kurohashi, S. (2006). "A Fully-Lexicalized Probabilistic Model for Japanese Syntactic and Case Structure Analysis." In Proceedings of the Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics (HLT-NAACL2006), pp. 176-183. 河原達也, 李晃伸 (2005). 連続音声認識ソフトウェア Julius. 人工知能学会誌, 20 (1), pp. 41-49. Kemper, S., Marquis, J., and Thompson, M. (2001). "Longitudinal Change in Language Production: Effects of Aging and Dementia on Grammatical Complexity and Propositional Content." Psychology and Aging, 16 (4), pp. 600-614. 木村かおり (2009).「書く」能力を評価する一評価プロセスの見える評価を目指して一. 2009 年度日本語教育実践研究フォーラム, pp. 1-9. Kintsch, W. and Keenan, J. (1973). "Reading Rate and Retention as a Function of the Number of the Propositions in the Base Structure of Sentences." Cognitive Psychology, 5 (3), pp. 257-274. 小沼知浩, 桑野裕康, 木村達也, 渡辺泰助 (1997). 高齢者音声の解析と認識評価. 日本音響学会研究発表会講演論文集, 1997 (2), pp. 117-118. 厚生労働省研究班. 都市部における認知症有病率と認知症の生活機能障害への対応. http://www.tsukuba-psychiatry.com/wp-content/uploads/2013/06/H24Report_Part1. pdf. Kubo, M., Kiyohara, Y., Kato, I., Tanizaki, Y., Arima, H., Tanaka, K., Nakamura, H., Okubo, K., and Iida, M. (2003). "Trends in the Incidence, Mortality, and Survival Rate of Cardiovascular Disease in a Japanese Community: The Hisayama Study." Stroke, 34 (10), pp. 2349-2354.久保圭, 宮部真衣, 四方朱子, 荒牧英治, 李在鎬 (2015).『言秤』による日本語運用能力の自動測定 : 日本語学習者の書き言葉と話し言葉との差異を定量的に示す試み. 2015 年度日本語教育学会春季大会予稿集, pp. 267-268. 呉田陽一, 伏見貴夫, 佐久間尚子 (2002). 言語能力の加齢変化. 第 9 回東京都老年学会誌, pp. 200-205. 松吉俊, 佐藤理史, 宇津呂武仁 (2007). 日本語機能表現辞書の編纂. 自然言語処理, $14(5)$, pp. 123-146. 松吉俊, 佐藤理史 (2008). 文体と難易度を制御可能な日本語機能表現の言い換え. 自然言語処理, $15(2)$, pp. 75-99. 大武美保子 (2010). 認知症予防回復支援サービスの開発と忘却の科学一会話における思考の状態遷移モデルと会話相互作用量計測法の開発一. 人工知能学会論文誌, 25 (5), pp. 662-669.笹島宗彦, 井本和範, 下森大志, 山中紀子, 矢島真人, 福永幸弘, 正井康之 (2005). 発話意図理解と回答誘導による異言語間会話支援ツール「グローバルコミュニケーター」。インタラ クション 2005 予稿集, pp. 119-126. 四方朱子, 荒牧英治 (2014). 言語能力検査としての言語処理:長期間のブログ執筆を継続した認知症の 1 例. 言語処理学会第 20 回年次大会, pp. 1126-1129. 下郡信宏, 坪井創吾 (2010). 音声認識で生成した英語字幕による英語理解向上の測定実験. 情報処理学会論文誌, 51 (9), pp. 1951-1959. Snowdon, D. A., Kemper, S. J., Mortimer, J. A., Greiner, L. H., Wekstein, D. R., and Markesbery, W. R. (1996). "Linguistic ability in early life and cognitive function and Alzheimer's disease in late life." Findings from the Nun Study, JAMA, 275 (7), pp. 528-532. 砂川有里子 (2012). 学習辞書編集支援データベース作成について一『学習辞書科研』プロジェ クトの紹介. 日本語教育連絡会議論文集, 24, pp. 164-169. 鳥井俊祐 (2013). 日本語スピーチ授業におけるピア・フィードバック活動の試み:中国の大学生 を対象として. Polyglossia: The Asia-Pacific's Voice in Language and Language Teaching, 25, pp. 141-148. Turner, A. and Greene, E. (1977). "The Construction and Use of a Propositional Text Base." Technical Report 63, Institute for the Study of Intellectual Behavior, pp. 1-87. 保田祥, 田中弥生, 荒牧英治 (2013). 繰り返しにおける独話の変化. 社会言語科学会第 31 回大 会発表論文集, pp. 190-193. ## 略歴 宮部真衣:2006 年和歌山大学システム工学部デザイン情報学科中退. 2008 年同大学大学院システム工学研究科システム工学専攻博士前期課程修了. 2011 年同大学院システム工学研究科システム工学専攻博士後期課程修了. 博士 (工学)。同年, 東京大学知の構造化センター特任研究員。2013 年京都大学学際融合教育研究推進センター特定研究員. 2015 年和歌山大学システム工学部講師. 現在, 諏訪東京理科大学経営情報学部講師. コミュニケーション支援, ソーシャルメディア分析に関する研究に従事. 四方朱子:2000 年北海道大学大学院文学研究科日本文化論修士課程修了(文学修士). 2006 年北海道大学大学院文学研究科歴史地域文化学博士後期課程単位取得満期修了. 2017 年京都大学大学院人間 - 環境学研究科博士後期課程.現在, 長浜バイオ大学バイオサイエンス学部非常勤講師・学習支援センター 講師 (現代文/英語). 主に, 比較文化論, 日本および英米文学研究に従事. 久保圭:2007 年神戸市外国語大学外国語学部卒業. 2010 年京都大学大学院人間 - 環境学研究科修士課程修了. 2017 年京都大学大学院人間 - 環境学研究科博士後期課程修了. 人間 - 環境学博士. 現在, 大阪大学日本語日本文化教 育センター非常勤講師. 主に日本語学, 日本語教育学の研究に従事. 荒牧英治:2000 年京都大学総合人間学部卒業. 2002 年京都大学大学院情報学研究科修士課程修了. 2005 年東京大学大学院情報理工系研究科博士課程修了.博士 (情報理工学)。2005 年東京大学医学部附属病院特任助教, 2008 年東京大学知の構造化センター特任講師,2013 年京都大学デザイン学ユニット特定准教授を経て, 奈良先端科学技術大学院大学特任准教授. 医療情報学, 自然言語処理の研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## スポーツ要約生成におけるテンプレート型手法と ニューラル型手法の提案と比較 ## 田川 裕輝 ${ ^{\dagger}$ 嶋田 和孝 ${ }^{\dagger}$} 本研究では, 日本で人気のある野球に着目し, Play-by-playデータからイニングの要約文の生成に取り組む.Web 上では多くの野球に関する速報が配信されている.戦評は試合終了後にのみ更新され, “待望の先制点を挙げる”のような試合の状況をユーザに伝えるフレーズ(本論文では Game-changing Phrase; GP と呼ぶ)が含まれているのが特徴であり, 読み手は試合の状況を簡単に知ることができる。このような特徴を踏まえ, 任意の打席に対して, GPを含む要約文を生成することは, 試合終了後だけでなく,リアルタイムで試合の状況を知りたい場合などに非常に有益であるといえる。 そこで, 本研究では Play-by-play データから GP を含む要約文の生成に取り組む. また, 要約生成手法としてテンプレート型文生成手法と Encoder-Decoder モデルを利用した手法の 2 つを提案する. キーワード: スポーツ要約生成, テンプレート型要約, エンコーダーデコーダー, 転移学習 ## Comparison of Template- and Neural-based Methods for Sports Summary Generation \author{ Yuki Tagawa $^{\dagger}$ and Kazutaka Shimada ${ }^{\dagger \dagger}$ } In this study, we propose inning summarization methods to generate a simple and sophisticated summary of baseball games using play-by-play data. We focus on the two information sources of inning reports and game summaries. First, we generate a basic sentence using an inning report; further, the basic sentence is integrated with an explanatory phrase to generate inning summaries that contain expressions such as "the long-awaited first score" in game summaries. We refer to these phrases as the game-changing phrases (GPs). Readers can easily understand the situation of a game using GPs. In this study, we investigate the template- and neural-based methods of summary generation. Additionally, we evaluate the two methods and discuss their advantages and disadvantage. Key Words: Sports Summary Generation, Template-based Summarization, Encoder-Decoder, Transfer Learning  ## 1 はじめに スポーツの分野で特に人気の高い野球やサッカーなどでは,試合の速報が Webなどで配信されている。特に,日本で人気のある野球では,試合中にリアルタイムで更新される Play-by-play データやイニング速報, 試合終了直後に更新される戦評など様々な速報がある. Play-by-play データ,イニング速報, 戦評の例をそれぞれ表 1 , 表 2 , 表 3 に示す. Play-by-playデー夕(表 1) 表 12016 年 3 月 27 日ソフトバンク対楽天戦 10 回表の Play-by-play データ 表 22016 年 3 月 27 日ソフトバンク対楽天戦 10 回表のイニング速報 表 32016 年 3 月 27 日ソフトバンク対楽天戦の戦評 は打席ごとにアウト数や出畕状況の変化, 打撃内容などの情報を表形式でまとめたデータである.イニング速報(表 2 )はイニング終了時に更新されるテキストであり,イニングの情報を網羅的に説明したテキストである。戦評(表 3)は試合が動いたシーンにのみ着目したテキストであり,試合終了後に更新される。特に,戦評には“0-0のまま迎えた”や“試合の均衡を破る” のような試合の状況をユーザに伝えるフレーズ(本論文では Game-changing Phrase; GP と呼ぶ)が含まれているのが特徴である。戦評では,“先制”という単語のみでイニングの結果を説明するだけでなく,“試合の均衡を破る”といったフレーズを利用することで,先制となった得点の重要度をユーザは知ることができる。また,“0-0のまま迎えた”というフレーズが利用されていると, ユーザは試合が膠着し, 緊迫しているという状況を知ることができる. 本研究ではこのような試合の状況をユーザに伝えるフレーズを GP と定義する. これらの速報は,インターネットを介して配信されているため,スマートフォンやタブレッ卜端末など様々な表示領域のデバイスで閲覧されている。また,ユーザはカーナビなどに搭載されている音声対話システムを通じてリアルタイムで速報にアクセスすることも考えられる。 このような需要に対して,イニング速報はイニングの情報を網羅的に説明したテキストであり,比較的長い文であるため, 表示領域に制限のあるデバイスでは読みづらい。音声対話システムの出力だと考えると,より短く,端的に情報を伝えられる文の方が望ましい.また戦評は GP が含まれており試合の状況を簡単に知ることができるが,試合が動いた数打席にのみ言及したものであり, 試合終了後にしか更新されない.このようなそれぞれの速報の特徴を考慮すると,任意の打席に対して GP を含むイニングの要約文を生成することは, 試合終了後だけでな, リアルタイムで試合の状況を知りたい場合などに非常に有益であると考えられる。そこで, 任意の打席に対して GPを含むイニングの要約文を自動生成する. 本研究では Play-by-play データからイニングの要約文の生成に取り組む. また, 要約文を生成する際に,GPを制御することで,GPを含まないシンプルな要約文と GPを含む要約文の 2 つを生成する. 文を生成する手法としては, 古くから用いられてきた手法にテンプレート型文生成手法 (McKeown and Radev 1995) がある。また,近年では Encoder-Decoder モデル (Sutskever, Vinyals, and Le 2014)を利用した手法 (Rush, Chopra, and Weston 2015) も盛んに研究されている. 本研究では, テンプレート型生成手法, Encoder-Decoder モデルを利用した手法の 2 つを提案する。 テンプレート型文生成手法 (McKeown and Radev 1995; McRoy, Channarukul, and Ali 2000) とは,生成する文の雛形となるテンプレートを事前に用意し,テンプレートに必要な情報を補完することで文を生成する手法である。岩永ら (岩永, 西川, 徳永 2016) は, 野球の試合を対象とし,テンプレート型文生成手法により,戦評の自動生成に取り組んでいる。彼らは,事前に人手でテンプレートとそのテンプレートを利用する条件を用意し, 戦評を自動生成する手法を提案している。テンプレート型文生成手法では,文法的に正確な文が生成できるといった利 点があるが,テンプレートを事前に用意することはコストが大きいといった欠点がある。そこで,本研究ではこの欠点を補うためにテンプレートを自動で生成する文生成手法を提案する. また, 近年では深層学習の発展により, 機械翻訳 (Cho, van Merrienboer, Gulcehre, Bahdanau, Bougares, Schwenk, and Bengio 2014; Luong, Pham, and Manning 2015) やヘッドライン生成 (Rush et al. 2015) など文生成分野における様々なタスクで Encoder-Decoder モデルを利用した多くの研究成果が報告されている. 本研究では, テンプレート型生成手法に加え, Encoder-Decoder モデルを利用した要約文生成手法も提案する。本研究の目的は, 読み手が試合の状況を理解しやすい要約文を生成するため, 要約文に GP を組み込むことである。そこで,入力データが与えられたときに,GPを含む戦評を出力するように大量の入出力の組を用いて Encoder-Decoder を学習させることが考えられる。しかし, 戦評は試合終了後にしか更新されないため, 1 試合に 1つの戦評しか手に入れることができず,大量の学習デー夕を用意することが困難である.この問題を緩和するため, Encoder-Decoder モデルと転移学習を組み合わせたモデルを提案する. 本研究では, テンプレート型生成手法 (3 章), Encoder-Decoder モデルを利用した手法(以降, ニューラル型生成手法)(4 章)の2つを提案し, 生成された要約文を比較, 考察する. 本論文の主な貢献は以下の 4 つである. ・ 野球のイニング要約タスクについて, テンプレート型生成手法とニューラル型生成手法を提案する。 ・ テンプレート型手法では, テンプレートを自動獲得する手法を導入する. - ニューラル型手法では, 転移学習を利用し, 戦評のデー夕数が十分ではないという問題点を緩和する。 - GPを含まないシンプルな文と GPを含む文の 2 種類の要約文の生成を提案し,その有効性を検証する。 ## 2 関連研究 スポーツを題材とし, 要約文を自動で生成する研究は試合のスタッツや選手の成績などのデー 夕を入力とした研究 (村上, 笹野, 高村, 奥村 2016; Robin 1994) やマイクロブログ, テキストコメンタリーに投稿されるテキストを入力とした研究 (Nichols, Mahmud, and Drews 2012; Takamura, Yokono, and Okumura 2011; Sharifi, Hutton, and Kalita 2010; Kubo, Sasano, Takamura, and Okumura 2013; Tagawa and Shimada 2016; Jianmin, Jinge, and Xiaojun 2016), テキスト速報などのニュース記事を入力とした研究 (Allen, Templon, McNally, Birnbaum, and Hammond 2010; Oh and Shrobe 2008; 岩永他 2016) など盛んに行われている. 特に, マイクロブログの普及とともに Twitter を対象としたサッカーの要約生成の研究 (Takamura et al. 2011; Nichols et al. 2012; Kubo et al. 2013)が盛んに取り組まれている. Twitter を対象とした要約生成の研究の多くは抽出型要約手法を用いている. 抽出型要約手法では文や tweet を抽出単位とするため, ある程度の文法性が担保されるといった利点があり, 口語表現,表記ゆれ,誤字脱字といった言語現象が多く見られるマイクロブログにおいて有効である。そのため, マイクロブログを対象とした要約生成の研究では抽出型要約手法が主流となっている. しかし, 抽出した文や tweet の一部のみが重要な情報を含み, 他の部分が冗長な要素である場合が考えられる. この場合, 要約文中に要約に必要な要素と冗長な要素が混在するといった問題がある。このような問題点に対して, Tagawa and Shimada (Tagawa and Shimada 2016) は, 生成型要約手法で Twitter を対象としたサッカーの要約生成に取り組んでいる. Sharifi ら (Sharifi et al. 2010)は,Twitter を対象としたスポーツの試合や政治,事件などのイベントに対する要約を生成型要約手法により生成している。より柔軟に要約を生成するためには, 生成型の要約手法の実現が不可欠である。また,生成型の要約手法などに代表される文生成の研究において,生成する動詞の選択に着目した研究に Smiley ら (Smiley, Plachouras, Schilder, Bretz, Leidner, and Song 2016)の研究がある. Smiley らはニュース記事において, "rocketed up 19 percent" や“moved up 2 percent”のように“percent”の直前の数値によって“上昇する”や“下降する”という同じ意味を持つ単語であっても単語の表層が変化していることに着目している。また, “increase" や “decrease”のような一般的な動詞を利用するだけでなく, パーセントの直前の数値などに代表されるような度合いの強さを動詞を選択する際に組み込むことができれば, より自然に聞こえるテキストを生成することができると報告している. Smileyらは, Reuters News Agency のニュース記事 1400 万記事を分析し, “percent”の直前の数値が大きい場合には “skyrocket” や “rocket” という表現が利用され,\%の直前の数值が小さい場合には “edge up” や “nudge up”という表現が利用されることを報告している. また, “Net profits dropped 2\%"と “Net profits plummeted $2 \%$ ののよな動詞のみが異なる 2 つの文に対して, どちらがもう片方より自然に聞こえるかを被験者が選択する実験を行っている。この例では, “dropped” は $2 \%$ の直前に出現しやすい動詞であり, “plummeted" $2 \%$ 前に出現しにくい動詞となっている.実験の結果,2000問の質問のうち,1372 問が直前に出現しやすい動詞を含む文が自然に聞こえるテキストとして選択される結果となり,チャンスレートである $50 \%$ を有意に上回る結果となったことを示している. Smiley らの研究を加味すると,本研究においても先制したイニングでは “先制”という一般的な単語のみを利用するだけでなく, “試合の均衡を破る”や“幸先良く先制する”のようなフレーズを利用することで,先制となった得点の重要度をユーザに伝えることができると考えられる。また,“0-0のまま迎えた”というフレーズが要約文に組み込まれていると, ユーザは試合が膠着し, 緊迫しているという状況をユーザは知ることができる。一方, “タイムリーヒット”という単語は得点が入ったという事実以上の意味は含まれておらず,GP には含まれない. 本研究ではこのような試合の状況を伝えることのできるフレーズを GP と定義し, 要約文に組み込む。 本研究と同じく, 野球を対象とした研究 (村上他 2016; Oh and Shrobe 2008; Allen et al. 2010) も盛んに取り組まれている。Oh and Shrobe (Oh and Shrobe 2008)は,野球に関するニュース記事からホームチーム視点の記事とアウェイチーム視点の試合の記事の生成に取り組んでいる.同様に, Allen ら (Allen et al. 2010)は, 野球に関する様々なデータから新聞記者が書いたような試合の記事の生成に取り組んでいる. Allen らやOh and Shrobe らの研究は, 試合全体に関する記事を作成することを目的としており, 生成される文は比較的長く, 本研究とは目的が異なる. 村上ら(村上他 2016)は,表 2 のようなイニング速報を自動で生成している. 村上らは,速報中のそれ以上細かく分割できない一連の事象のことをイベントと定義し,イニング速報の自動生成を打者成績の系列からイベントの系列を予測する系列ラベリング問題として扱っている. 具体的には,イベント文中の打者名やアウト数をスロット化し,イベントテンプレートを作成する。そして, 打者成績系列とイベントテンプレート系列を学習することで, 未知の打者成績系列に対してイベントテンプレートを予測し,イニング速報を自動生成している。村上らの目的はイニング速報を再現することが目的であり,本研究と目的が異なる.また,GP を要約文に組み込むことが野球を対象としたこれらの研究と本研究との違いである. スポーツ以外を対象とした文生成の研究に McRoy ら (McRoy et al. 2000)の研究がある. McRoy らは, has-property(John,age,20)のような形式から, “John's age is 20.”のような文を生成するシステムを開発している。具体的には, 事前に定義された文をそのまま返すルール (The String rule) や事前に定義されたテンプレートのスロットを埋めた文を返すルール (The Template rule) などの 10 のルールを用意している. しかし, 人手でテンプレートを用意するのはコストのかかる作業であり,現実的であるとはいい難い. そこで,本研究では,既に Web 上に大量に存在するイニング速報からテンプレートを自動生成する手法を提案する. また, 近年では機械翻訳 (Cho et al. 2014; Luong et al. 2015), ヘッドライン生成 (Rush et al. 2015), キャプション生成 (Vinyals, Toshev, Bengio, and Erhan 2015; Xu, Ba, Kiros, Cho, Courville, Salakhudinov, Zemel, and Bengio 2015), 対話応答生成 (Li, Galley, Brockett, Spithourakis, Gao, and Dolan 2016; Sato, Yoshinaga, Toyoda, and Kitsuregawa 2017), 要約生成 (Chopra, Auli, and Rush 2016) など多くの系列変換タスクで Encoder-Decoder モデルを利用した研究成果が報告されている. 特に, 系列変換タスクの近年の傾向として, 出力系列を所望する出力に制御, 変化させる研究が盛んに取り組まれている. 出力系列を所望する出力に制御する手法として, Decode 時の各タイムステップに追加的な情報を付与する方法が多くの研究 (Li et al. 2016; Kikuchi, Neubig, Sasano, Takamura, and Okumura 2016; Murakami, Watanabe, Miyazawa, Goshima, Yanase, Takamura, and Miyao 2017; 村上, 笹野, 高村, 奥村 2017) に応用されている. Li ら (Li et al. 2016) は, 不特定多数の対話データから学習された応答生成モデルが,たとえば,“出身はどこですか?”という発話に対しては,“東京です.” と応答し, “どこの出身ですか?”という発話に対しては“福岡です.” と応答すると いったように応答に一貫性がないことを問題とした。この問題に対して, 個人の属性を表すべクトルを Decoder に追加的に入力することで,個人の背景などの特徴を捉えた一貫性のある応答生成に成功している. Kikuchi ら (Kikuchi et al. 2016) は, Encoder-Decoder モデルを用いた要約生成において, 出力系列の長さを制御するための探索べースの手法や学習べースの手法の 4 つの手法を提案している,学習べースの手法のうちの 1 つは, 出力すべき長さを表す長さ埋め込みべクトルを Decoder へ追加的に入力する手法であり,要約精度を落とすことなく,出力系列の長さを制御する機能を獲得できたと報告している. Murakami ら (Murakami et al. 2017) は, 日経平均株価の 1 日分のデータと 7 営業日分の終值のデータから概況テキストの自動生成に取り組んでいる,特に,時間带に関する “前引け” ゃ “大引け” などの表現を正しく出力するため,概況テキストが配信される時間带を表すべクトルを Decoder に追加的に入力している. その結果,入力しないモデルに比べ,時間帯に関する表現を正しく出力することに成功したと報告している。村上ら (村上他 2017) は, 気圧や気温, 風向きなどの予測值が格納された数値予報マップから天気予報コメントの自動生成に取り組んでいる。村上らも同じく, Decode 時に天気予報コメント配信時の日時や季節などのメ夕情報を追加的に入力することで,“今日”,“明日”などの時間帯に関する表現や,“春の陽気”のような季節特有の表現を正しく出力できるようになり, 単語の一致率を基にした評価指標である BLEU 值が向上したと報告している. 本研究においても,表 1 の打席に関するデータ以外の時間情報などのイニング情報を考慮することで,GPの制御を試みる。 Decode 時の各タイムステップに追加的な情報を入力する手法以外には, 入力系列に特定のトー クンを付与することで出力を制御を試みる研究 (Sennrich, Haddow, and Birch 2016; Yamagishi, Kanouchi, Sato, and Komachi 2016) がある. Sennrich ら (Sennrich et al. 2016)は,英独機械翻訳において,出力であるドイツ語側の敬意表現の制御に取り組んでいる,入力である英文に出力であるドイツ文の敬意表現の有無を単語として組み込んだコーパスで学習し,テスト時にも敬意表現を入力文に付与することで付与した情報を考慮した翻訳文を出力することができ,参照訳と同じ敬意表現を入力文に付与した場合,BLEU 值が向上することを報告している。同じく, Yamagishi ら (Yamagishi et al. 2016) は, Sennrich らの手法を基に, 日英翻訳での出力文の態制御に取り組んでいる,出力である英文の態情報を入力である日本語文に態情報として組み込んだコーパスで学習し,テスト時にも態情報を入力である日本語文に付与することで,付与した情報を考慮した態表現を持つ翻訳文を出力することができ, 参照訳と同じ態表現を入力文に付与した場合, BLEU 值が向上することを報告している。本研究では, 提案手法と入力系列に特定のトークンを付与する手法 (SideConstraints) を比較し, 出力結果の考察を行う. また,上述した研究は大規模な学習データを用いてモデルを学習している。一方,十分なデー 夕量とデータの質が確保できない場合において,本来の解きたい問題と関連する別のデータで事前に学習を行い,事前の学習で得られた学習結果を本来の解きたい問題に再利用することで モデルの精度向上を図る手法に転移学習がある。転移学習は, 固有表現抽出 (Arnold, Nallapati, and Cohen 2007) やレビューの極性分類 (Blitzer, Dredze, Pereira, et al. 2007), 機械翻訳 (Koehn and Schroeder 2007; Zoph, Yuret, May, and Knight 2016) など様々なタスクで有効性が報告されている. 赤間ら (赤間, 稲田, 小林, 乾 2017) は, 対話応答生成において, 発話者のキャラクタを印象付ける応答生成に取り組んでいる。Twitter から抽出した大規模な対話データで事前学習した後, 特定の話者による応答からなる小規模な対話データで転移学習することで, 人手によるルールなどを必要とせずに, 入力された発話に対する応答の適切さを保ちつつ, 特定の話者の発話スタイルを応答に付与することに成功している。本研究では,入力データが与えられたときに,GP を含む戦評を出力するように大量の入出力の組を用いて Encoder-Decoder を学習させることが考えられる。しかし, GPを含む戦評は試合終了後にしか更新されないため, 1 試合に 1つの戦評しか手に入れることができず,大量の学習デー夕を用意することが困難である.この問題を解決するため, Encoder-Decoder モデルと転移学習を組み合わせたモデルを提案する. これまで述べてきたように, Encoder-Decoder モデルを利用した手法では, メ夕情報や転移学習などによって, 出力系列を所望する出力に制御, 変化させる研究が盛んに取り組まれている. 一方で, 本研究で扱うスポーツ要約生成において, 出力を制御, 変化させるといった研究は明示的に取り組まれていない. ## 3 テンプレート型生成手法 テンプレート型生成手法では,イニング中の全打席ではなく,注目すべき打席に焦点をあてた要約文を生成する。まず,要約文として生成すべき注目打席を選択する.今回は 2 打席を注目打席として選択する。次に,テンプレートを自動で生成し,要約文を生成する。また, 生成されたテンプレートに GP を融合することで,ユーザが試合の状況を理解しやすい要約文を生成する。 ## 3.1 打席の選択 各打席ごとにスコアリングし,スコア上位 2 打席を要約文として生成する.スコアリングには以下の式を用いる. $ \text { Score }_{\text {atbat }}=S+R $ (1) 式は打席ごとに算出されるスコアであり, $S$ と $R$ の和である. $S$ はその打席で得点した得点数である.Rはホームランやタイムリーヒットなどの重要なイベントに対しては高く,フライや三振などのイベントに対しては低くなるように設計されたスコアである.Rスコアを表 4 に示す。たとえば,表5のイニングでは,陽と杉谷の打席が要約すべき打席として選択される。 表 $4 \mathrm{R}$ スコア ## 3.2 テンプレートの自動生成 本研究では類似したデータを持つ打席同士は,その打席を説明する文の構造も類似していると考える。表 6 は表 5 とは別の試合のイニングで 3.1 節の (1) 式のスコアリングにより選択された 2 打席のデータである. 表 5 の陽と杉谷のデータと表 6 の茂木と銀二のデー夕を比較すると類似していることがわかる。ここで表 6 に対応するイニング速報(表 7)に着目する.提案手法では,この表 7 のイニング速報中の類似打席(茂木選手と銀次選手)に関するデー夕を注目 表 62016 年 8 月 7 日西武対楽天 7 回裏の Play-by-play デー夕 表 72016 年 8 月 7 日西武対楽天 7 回裏のイニング速報 (1) 先頭聖澤の二畕打、藤田の犠打で 1 死三畦とすると、嶋のスクイズで 1 点。 (2) その際にピッチャー高橋光の野選で二畕とすると、ここで 2 人目野田が登板。 (3) 島内の安打で一三畕とすると、茂木のタイムリーで 1 点。 (4) ペゲーロの四球で満塁とすると、ここで 3 人目牧田が登板。 (5) ウィーラーの押し出し死球で 1 点。 (6) 銀次のタイムリーで 1 点。 (7)この回計 4 点で攻撃終了。 打席のデータに置き換え,類似打席以外の打席に関する部分は文圧縮処理により削除することで,文法的に正確な注目打席を説明する文を生成することができると考える。また,イニング速報は人手で書かれているため,文法的に正確なテンプレートを生成することができる。このような考え方に基づき,注目打席と類似したデータを持つ類似イニングを検出し,テンプレー トを自動生成する。 ## 3.2.1 類似イニング検出 類似イニングを検出する際には,注目打席とその他のイニングの注目打席の間でデー夕の類似度を計算し, 最も類似度の高いものを類似イニングとする。一致率は表 5 に示す打者名以外の 5 つの項目を用いて計算する。ただし,打席結果の一致は絶対条件とし,打席結果の異なる打席の一致率は 0 とする。また, 打席結果は実際の Play-by-play デー夕には含まれていないが,試合開始時から該当するイニングまでの得点数から求めることができるため,その情報を利用する。打席間の類似度は以下の式で計算される。 $ \operatorname{sim}(T, A)=\frac{\sum_{n=1}^{2} \sum_{i=1}^{5} \operatorname{co}\left(T_{n}^{i}, A_{n}^{i}\right)}{5} $ $A$ は入力である要約したいイニング中の注目打席群であり, $A_{n}$ は $n$ 番目の注目打席を指す。 $T$ は入力のイニング以外のイニングの注目打席群であり, $T_{n}$ は $n$ 番目の注目打席である. $A_{n}^{1} \sim A_{n}^{5}$, $T_{n}^{1} \sim T_{n}^{5}$ はそれぞれの打席のイベント前のアウト数,イベント前の出畕状況,イベント後の出塁状況, イベント, 打席結果の 5 つの項目を表し, $c o\left(T_{n}^{i}, A_{n}^{i}\right)$ は項目が一致しているときは 1 ,一致しないときは 0 となる. たとえば,表 5 の陽の打席と表 6 の茂木の打席は全ての項目が一致している。よって類似度は $\frac{5}{5}=1.0$ となる. 同様に, 表 5 の杉谷の打席と表 6 の銀次の打席は類似度が $\frac{2}{5}=0.4$ (イベン卜と打席結果が一致)となり,最終的に表 5 と表 6 のイニング間の類似度は 1.0 と 0.4 の和である 1.4 となる. ## 3.2.2 文圧縮処理 次に,類似イニングのイニング速報中の類似打席に関する部分はスロット化,それ以外は文圧縮処理により削除することでテンプレートを生成する. まず,文圧縮処理の前処理として文分割を行う。類似イニングのイニング速報を動詞の連用形, 句読点, 並立助詞, 接続助詞で分割する,ただし,分割点の直前が野球専門語の場合は分割しない.野球専門語はイニング速報から人手で 97 語を用意した。野球専門語の例を表 8 に示す. 次に文圧縮処理を行う.表 9 に文圧縮処理から文生成までの手順を示す。表 9 のイニング速報は既に直前の文分割処理により分割されており,斜線 (/) は分割点を表す. 表 9 の“先頭聖澤の二塁打” の直後に分割点である読点が出現しているが, 読点の直前の “二畕打” という単語が野球専門語であるため,分割しない,分割された文のうち,選手名を含む分割文が文圧縮の対象となり,類似打席以外の打席に関するイベントを文圧縮処理により削除する.表 9 の“この回計 4 点で攻撃終了。”という分割文は選手名を含んでいないため, 文圧縮処理の対象となら 表 8 野球専門用語の例 表 9 文圧縮から文生成までの手順 \\ ず,その他の分割文は文圧縮の対象となる。文圧縮では以下の 2 つの処理を順に行う。 文圧縮 1 類似打席以外の選手名からその選手の野球専門語までを削除する。またアウ卜数や投手の情報,試合に依存する“\#Num 号”や選手名の直前の“先頭”や“代打”などの表現も削除する。 文圧縮 2 選手名を含んでいない分割文は文ごと削除する. たとえば,文圧縮 1 の処理では表 9 に示すように, “先頭聖澤の二畦打”や“野田が登板”といった下線が引かれている部分を削除する。文圧縮 2 の処理においても同様に下線が引かれている部分を削除する。文圧縮処理の後,選手名や野球専門語などをスロットとし,テンプレートを生成する. 選手名は入力である Play-by-playデータ中の選手名とのマッチングによりスロット化を行う. 同じく野球専門語は野球専門語リストとのマッチングによりスロットとする。また,得点数などの数值表現のスロット化を行う際は, 事前に数值表現は全て “\#Num’7 に置き換えた上でスロット化を行う。まず,“回\#Num 点”, “計\#Num 点”, “\#Num 点で攻撃終了”, “\#Num 点で試合終了”のいずれかに当てはまる場合に“\#Num”の部分を“[ALLSCORE]”に置き換える. “[ALLSCORE]” で置き換えた後に,“[NAME1]”に最も近く, “[NAME1]”より後に出現する“\#Num”を“[SCORE1]” へ置き換える。同様に,“[NAME2]”に最も近く,“[NAME2]”より後に出現する“\#Num”を“[SCORE2]” 置き換える。このように,テンプレートを生成する際のスロット化の処理において人手による処理は介入していない. 最後に,スロットに注目打席のデータを補完することで,文を生成する。 ## 3.2.3 Game-changing Phrase (GP) の融合 生成されたテンプレートに Game-changing Phrase (GP) を融合することでユーザが試合の状況を理解しやすい要約文を生成する.GPは戦評から自動で獲得する。表 3 の戦評の例では, “0-0 のまま迎えた”のようにイニングを修飾する GP (Inning Phrase; GP $\mathrm{GPP}_{\mathrm{IP}}$ ) と“待望の先制点を挙げる”のようにイニング結果を表現する GP (Result Phrase; GP RP) が含まれている。他には,“走者一掃の”のように打撃内容を修飾する GP (Action Phrase; GP ${ }_{\text {AP }}$ ) が戦評では使用されている。本研究では, $\mathrm{GP}_{\mathrm{IP}}, \mathrm{GP}_{\mathrm{RP}}, \mathrm{GP}_{\mathrm{AP}}$ の 3 種類の $\mathrm{GP}$ を定義し,これらを戦評からパター ンマッチにより獲得する. $\mathrm{GP}_{\mathrm{IP}}$ はチーム名を含む文節とイニング数の間に出現するものを獲得する. GP $\mathrm{AP}_{\mathrm{AP}}$ は打者名を含む文節と打撃内容の間に出現するものを獲得する。 $\mathrm{GP}_{\mathrm{RP}}$ は戦評に言及されている最後の選手の野球専門語を含む文節以降から文末の間に出現するものを獲得する. 次に,獲得された GP に対して,ルールを作成する。たとえば,“試合を振り出しに戻す”という $\mathrm{GP}_{\mathrm{RP}}$ が使われている得点シーンは,全て “同点に追いついた 6 回以降”であることが確認できた。このように, 各 GPに対して, イニング数やイニング結果などからルールを作成する.獲得された $\mathrm{GP}$ とそのルールの例を表 10 に示す。パターンマッチにより, $\mathrm{GP}_{\mathrm{IP}}, \mathrm{GP}_{\mathrm{AP}}, \mathrm{GP}_{\mathrm{RP}}$ はそれぞれ $8 , 3 , 11$ 種類を獲得した。また,それらに対するルールは表 10 に示している得点数, イニング数, 出畕状況, イニング結果, イベント, 打者数, 得点差の 7 つの項目から構成されている。同時に複数の項目を満たす場合は項目が多いGPを優先的に選択する。たとえば, 表 10 獲得された GPとルールの例 & 1 点以上 & 6 回以降 & $*$ & 先制 & $*$ \\ & $*$ & 攻撃側の得点数 - 守備側の得点数 $<0$ \\ }} \\ 図 1 テンプレートと $\mathrm{GP}_{\mathrm{RP}}$ の融合手順 「3 点以上, 9 回, 満畕, 同点, ホームランまたは適時打」の場合, “值千金の”と“走者一掃の” の 2 つの GPのルールを満たす。この場合, “値千金の” という GP は得点数, イニング数, イニング結果,イベントの 4 つの項目を満たす必要があり,“走者一掃の”という GP は得点数,出塁状況,イベントの 3 つの項目を満たす必要があるため,項目が多い“値千金の”を選択する。また,同じルールの GP はランダムに選択する,たとえば,“試合の均衡を破る”と“待望の先制点を挙げる”は同じルールであるため,どちらかをランダムで選択する. そして,3.1 節で選択された注目打席のデータが作成したルールにマッチする場合,テンプレートに対して,該当する GPを融合する。GP $\mathrm{GP}_{\mathrm{IP}}$ と $\mathrm{GP}_{\mathrm{AP}}$ は,獲得した際に用いたルールを逆に適用し,融合する。要するに, $\mathrm{GP}_{\mathrm{IP}}$ はチーム名と回数の間に, $\mathrm{GP}_{\mathrm{AP}}$ は打者名と打撃内容の間に挿入する。 $\mathrm{GP}_{\mathrm{RP}}$ は図 1 に示す手順で融合する。最後にテンプレート中のスロットにデー 夕を補完することで,最終的な文を生成する。 ## 4 ニューラル型生成手法 本研究では, 時系列順の打席データから単語系列を生成する系列変換タスクとして考え, Encoder-Decoder モデルの一つである Sequence-to-Sequence モデル (Sutskever et al. 2014)を用いてイニング要約文を生成する。このモデルは Encoder, Decoder ともに Reccurent Neural Network (RNN) の枠組みを用いている. Encoder の RNN は入力系列 $\left(x_{1}, \ldots, x_{N}\right)$ が与えられると時刻 $t$ において, 以下の式で隠れ層 $h_{t}$ の状態を更新する. $ h_{t}=g\left(h_{t-1}, x_{t}\right) $ ここで, $g$ は任意の活性化関数を表しており,従来の RNNでは学習が困難であった長期系列を扱えるようにするため, Long-Short Term Memory (LSTM) (Hochreiter and Schmidhuber 1997) が使われることが多く,本研究においても Encoder の RNN に LSTM を利用する. Decoder は Encoder の RNN によって入力系列全てをエンコードすることで得られた内部状態を利用し, Encoderの RNN とは別の RNN により系列を一つずつ出力していく.本研究では, Decoder の RNN においても LSTM を利用する。 Decoder は, 入力系列 $x=\left(x_{1}, \ldots, x_{N}\right)$ から出力系列 $y=\left(y_{1}, \ldots, y_{M}\right)$ を出力する条件付確率 $p(y \mid x)$ を以下の式で計算する. $ p(y \mid x)=\prod_{t=1}^{M} p\left(y_{t} \mid v, y_{1}, \ldots, y_{t-1}\right) $ $v$ は,全ての入力系列をエンコードすることで得られた内部状態であり, Encoder の LSTM の最終的な隠れ層である。また, Decoder の LSTM が出力系列のうちの 1 つ目の要素 $y_{1}$ を出力する時, $y_{0}$ にあたる要素は存在しないため, $<\mathrm{s}>$ という文頭を表すトークンの単語べクトルを入力する. 提案手法のモデルを図 2 に示す. 本研究の目的の一つは, 読み手が試合の状況を理解しやすい要約文を生成するため,要約文に GP を組み込むことである,そこで,入力データが与えられたときに,GP を含む戦評を出力するように Encoder-Decoder を学習させることが考えられ ## 事前学習 図 2 提案手法のモデル図 る. 一般に, Encoder-Decoder モデルの学習には大量の学習データが必要とされている. しかし, 戦評は試合終了後にしか更新されないため, 1 試合に 1 つの戦評しか手に入れることができず,大量の学習データを用意することが困難である。この問題を解決するため,本研究では, Encoder-Decoder モデルと転移学習を組み合わせたモデルを提案する. ## 4.1 Play-by-play データから打席ベクトルへの変換 表 1 に示すような表形式の Play-by-play データから打席べクトルを作成する,具体的には,アウ卜数, 出塁状況, 打撃内容, 打順, 代打か否か, 先頭か否か, その打席での得点数毎に One-hot ベクトルを作成し,全てを結合したべクトルを打席ベクトルとする。 ## 4.2 イニング情報の考慮 Li ら (Li et al. 2016)の研究では Decoder の隠れ状態に個人の人格情報を, Murakami ら (Murakami et al. 2017)の研究では, Decoderの隠れ状態に時間帯などのメ夕情報を付与することで,出力単語系列が変化することを報告している。 また, Kikuchi ら (Kikuchi et al. 2016) は, 要約生成タスクにおいて,出力すべき残りの長さを表す長さ埋め达みべクトルを Decoder の LSTM へ追加的に入力することで,出力系列の長さを制御する機能を獲得できたと報告している. 本研究ではこれらの知見に基づき, Play-by-playデータ以外のイニングの情報を表すイニング情報ベクトルを作成し,そのべクトルを Decoder の LSTMへ追加的に入力することでGPを制御する。“待望の先制点を挙げる”という GPには “待望の”という時間帯に言及した表現や, “\#Num 点を追う”という GPには“追う”という得点差に言及した表現が含まれている。このような GP を制御するためには, 1 回や 2 回などの時間帯を表す情報やリードやビハインドなどの得点差を表す情報が必要であると考えられる。 そこで, 時間帯の情報 Time (e.g., 1 回, 2 回,...), 得点差の情報 CurrentScore (e.g., リード, ビハインド, 同点), イニング結果の情報 Event(e.g., 先制, 同点, 勝ち越し), イニングでの総得点の情報 TotalScore, 打者が一巡したか否かの情報 Batter Around ごとに One-hot ベクトルを作成し, 全てを結合したべクトルをイニング情報ベクトルとする,イニングでの総得点を表すべクトルの次元数は学習データ中のイニングでの最大得点数と同じ数とする,イニング情報ベクトルは図 2 に示すように,毎ステップ Decoder の LSTM へ追加的に入力する. ## 4.3 事前学習 事前学習として打席ベクトルと GP が含まれていないイニング速報を用いて打席説明文生成モデルを学習する。事前学習に用いるデータとしてイニング速報中の打席に言及している文のみを利用し,投手に関する“先発”や“登板”といった単語を含む文,“三者凡退”のような選手名を含んでいない文は利用しない。また,“盗畦”や“捕逸”など打席以外に言及している文 も利用しない,具体的には,表 2 のイニング速報では $1 , 4 , 8 , 9$ 文目は打席に言及していない文であり,3文目は “盗畕”に言及しているため,2,5,6,7文目を学習デー夕に用いる.たとえば, 2 文目は,中村,今宮,長谷川,本多の 4 打席に言及しているため, この 4 打席の打席べクトル系列を入力したとき,2 文目を生成するように Encoder,Decoder の LSTM 学習する。 このように学習することで, 可変長の入力系列に対して, 入力された情報を網羅した打席説明文を出力するモデルを学習することができる. ## 4.4 転移学習 事前学習では可変長の打席系列の入力に対して, 打席を説明する文を生成するように Encoder, DecoderのLSTMを学習した. 転移学習では, 事前学習で学習したモデルパラメータを転移学習のモデルパラメータの初期値として用いる。転移学習では, 可変長の打席系列の入力に対して,GP を含む打席説明文を生成するように Encoder,Decoderの LSTM を学習する。 一般的に, Encoder-Decoder モデルが出力する系列の長さは学習デー夕の統計值に依存することが知られている (Kikuchi et al. 2016). 転移学習で学習に用いる戦評は, 表 3 の例のように, 1 打席にのみ言及したものが多く,比較的短い文であり,実際に我々が収集した戦評のうち,約 8 割が 1 打席にのみ言及したものであった。一方, 事前学習で学習に用いるイニング速報は, 1 打席に言及したものは約 $36 \%, 2$ 打席に言及したものは約 $33 \%, 3$ 打席に言及したものは約 $23 \%$ と一文に言及されている打席数は戦評に比べて均一な分布となっている。そのため, 事前学習で可変長の打席系列の入力に対して,打席を説明する文を生成するように Encoder, Decoder の LSTM を学習したにも関わらず,戦評を生成するように転移学習すると,入力打席系列の情報を網羅的に説明する文を生成することが困難となる。 そこで,転移学習用の新たな学習データを作成する。新たな学習デー夕を作成する際のルー ルを以下に示す. ・ 戦評に言及されている打席が 1 打席のみ - イニング速報中の各文において, 最後に言及されている打席と戦評に言及されている打席が同じ打席である文が存在する -上の 2 つのルールを満たす場合に,イニング速報中の該当文の最後の打席の選手名以前のテキストを抽出する ・ 抽出したテキストを戦評に言及されている選手名の直前に挿入する たとえば, 戦評(表 3)に言及されている打席は本多選手の 1 打席のみであり,イニング速報 (表 2)の 2 文目の最後に言及されている打席と戦評の最後に言及されている打席は本多選手の打席であり共通している。このような場合, 戦評の“本多”という選手名の直前にイニング速報中の 2 文目の “本多” という選手名以前の“先頭中村晃の安打、今宮の犠打、代打長谷川の四球などで 2 死二三畦とすると、”というテキストを挿入する。この操作によって, “ソフトバ ンクは 0-0のまま迎えた延長 10 回表、先頭中村晃の安打、今宮の犠打、代打長谷川の四球などで 2 死二三畦とすると、本多の 2 点適時打で待望の先制点を挙げる。”といった複数の打席に言及し,かつGPを含む学習デー夕を作成することができる。 また, 戦評には $\mathrm{GP}_{R P}$ が必ず含まれているとは限らず,たとえば,“1 回に先制”したイニングの戦評では“幸先良く先制する”を含むものは 61 件,“幸先良く先制する”を含まず,“先制” という単語のみを含むものは 245 件であった. このような分布のデータでモデルを学習すると, “1 回に先制”したデータに対して“幸先良く先制” という $\mathrm{GP}_{R P}$ を生成しにくいモデルが学習されると考えられる.そこで,各イニング結果 1 の各イニング数 2 ごとに $\mathrm{GP}_{R P}$ を含むものから最大 20 件 $^{3}$ を選択するように転移学習用データをサンプリングする。 サンプリングする際は上述したイニング速報と戦評から作成したデータと元の 2 打席以上に言及している戦評からサンプリングする. ## 5 実験 提案したテンプレート型生成手法とニューラル型生成手法の 2 つを用いて要約文を生成し,比較, 考察を行う. 提案手法の入力である Play-by-playデータは 2016 年 3 月 25 日から 2017 年 6 月 2 日までの期間に行われた NPB の試合のデー夕を週間ベースボール ONLINE 4 から収集した。イニング速報も同様の期間に行われた NPB の試合に関するものをエキサイトベースボール5から収集した。戦評は 2016 年 3 月 25 日から 2017 年 5 月 14 日までの期間に行われた NPB の試合の戦評を Yahoo!SportsNaviか収集した。また,テストデータとして MLB の Play-by-playデータを収集した7 ${ }^{7}$ MLBの Play-by-playデータは BASEBALL REFERENCE8 ら 2016 年度のデータを収集した. 収集したデータの統計を表 11 に示す. イニング速報と戦評は, 出眰状況, アウト数, 選手名, 得点数を事前にスロット化したものを利用した. 形態素解析器には $\mathrm{MeCab}^{9}$ を利用した。 生成された要約文が入力されたデータを正確に表現できているかを確かめるため, 事実性という観点から評価する。また,提案した 2 の手法は生成型文生成手法であり, 文法性は担保されない。そこで,提案手法によって生成された要約文を可読性という観点からも評価する。可読性の評価指標を表 12 に示す.  ## 5.1 テンプレート型生成手法の評価 提案したテンプレート型生成手法を用いて,イニングの要約文を生成した. 要約文を生成する際には. 収集した MLB の Play-by-play データからランダムに 100 イニング選択し, 生成された 100 文に対して,入力データと生成したデー夕に矛盾がないかを確かめ, 事実性を評価した. また, 本研究には関わっていない 4 人の被験者 ${ }^{10} により$, 生成された 100 の要約を 3 段階で可読性を評価した。事実性と可読性の評価結果を表 13 に示す。事実性の各行は,テストデー 夕 100 件から生成された文のうち, 入力されたイベントが正しく説明されていた文の数を記している。また, 可読性の値は 3 段階評価の平均値を記している. 評価結果からテンプレート型生成手法によって生成された要約文は事実性, 可読性ともに高い評価を得ていることが確認できた。 テンプレート型生成手法により生成された文の例を表 14 に示す。これらは事実性, 可読性ともに最も良い評価を受けた生成文である。テンプレート型生成手法は, 人手で書かれたイニング速報からテンプレートを自動生成しているため, 文法的にも正確であり,読みやすい要約文を生成することができた。また,GP 融合前と GP 融合後の要約文の事実性, 可読性の評価結果を比較すると, 大きな変化はなく, 図 1 に示した手順で適切に GPを融合することができたといえる。 生成された文の評価結果は高い評価であったが, 実際には事実でない文も 100 件中 3 件生成 表 11 収集したデー夕の統計量 表 12 可読性の評価基準 表 13 テンプレート型生成手法の評価結果  表 14 テンプレート型生成手法によって生成された要約文の例 Castilloの値千金のホームランで試合の均衡を破る。 生成文 (GP 無し) Xander Bogaerts のタイムリーヒットで 2 点。David Ortiz のタイムリーヒットでさらに 1 点。この回計 4 点を取り、逆転に成功。 $ \text { 生成文(GP 有り) } $ Boston Red Sox は 2 点ビハインドで迎えた 3 回裏、Xander Bogaerts のタイムリーヒットで 2 点。 David Ortizのタイムリーヒットでさらに 1 点。この回計 4 点を取り、逆転に成功。 されており,その主な原因は文圧縮処理でのエラーであった。 エラーを含む生成文の例を表 15 に示す.この例では, Kris Bryant 選手と Willson Contreras 選手の 2 打席が注目打席として選択され,その 2 打席に対する類似打席として田中選手と丸選手の 2 打席が検出されている. その後, 3.2.2 節で説明した文圧縮 1 の処理により, 田中選手と丸選手以外に言及している“続く菊池が三振”が削除され, テンプレートが生成されている。しかし, “一畦走者田中が二畦を狙うもタッチアウト”という部分は田中選手に言及しているが, 打席とは関係なく出畕した後に起きたイベントであるため, 削除する必要があるが残ったままテンプレートが生成され, 事実とは異なる文が生成されるエラーがあった。 ## 5.2 ニューラル型生成手法の評価 実験データの詳細を表 16 に示す.また, テンプレート型生成手法の評価と同様に MLB の Play-by-playデータをテストデータとして利用した。語彙は事前学習用データ, 転移学習用デー 夕を MeCabで形態素解析し, 各形態素を 1 つの語彙とした. 語彙埋め込みべクトルの次元数は 128, 打席ベクトルの次元数は 48 , イニング情報ベクトルの次元数は 32 とした. Encoder, 表 15 テンプレート型生成手法によって生成されたエラーを含む要約文の例 注目打席 2016/10/28 Cleveland Indians 対 BChicago Cubs 4 回裏 類似打席 2016/10/14 横浜 DeNA ベイスターズ対広島カープ 6 回裏 注目打席 2016/10/28 Cleveland Indians 対 BChicago Cubs 4 回裏 類似イニング速報 先頭田中が四球で出塁し、続く菊池が三振の際に一畕走者田中が二塁を狙うもタッチアウト。丸も倒れ、この回結局 3 人で攻撃終了。 ## 文圧縮処理 先頭田中が四球で出壘し、続く菊池が三振の際に一塁走者田中が二畕を狙うもタッチアウト。丸も倒れ、この回結局 3 人で攻撃終了。 $ \text { " テンプレート化 } $ [NAME1] が [ACTION1] で出畦し、の際に一眰走者 [NAME1]が二畕を狙うもタッチアウト。[NAME2] も倒れ、この回結局 [ALLBATTER] 人で攻撃終了。 生成文 (GP 無し) Kris Bryant が四球で出畕し、の際に一畦走者 Kris Bryant が二畦を狙うもタッチアウト。Willson Contreras も倒れ、この回結局 4 人で攻撃終了。 表 16 実験データの詳細 Decoderの隠れ層の次元数は 256 とした. モデルパラメータの最適化手法には Adam (Kingma and Ba 2015) $\left(\alpha=0.001, \beta_{1}=0.9, \beta_{2}=0.999, \epsilon=10^{-8}\right)$ を利用した. また, 事前学習ではミニバッチを適用し, サイズは 40 とした。転移学習ではバッチサイズを 1 とした。事前学習, 転移学習の epoch数はそれぞれ 30,5 とした。また, 出力系列を生成する際には貪欲法 (ビーム幅 1) を用いた。これらのパラメータは 1,400 件の開発データから生成された要約文において,文の事実性や GP の制御性などの観点から主観的に判断し決定した. モデルの実装には Chainer ${ }^{12}$ を利用した。  テンプレート型生成手法の入力打席系列は 2 打席であったが,ニューラル型生成手法は任意の入力打席系列に関して, 要約文を生成するように学習した。そこで, 入力打席系列が 1 打席, 2 打席, 3 打席の場合のデータをランダムに 100 件ずつ選択し,転移学習したモデルで生成された要約文を事実性, 可読性の観点からテンプレート型生成手法と同じ方法で評価した. 評価結果を表 17 に示す. ニューラル型生成手法により生成された文の例を表 18 に示す. これらは事実性,可読性ともに最も良い評価を受けた生成文である. 可読性の評価結果は,テンプレート型生成手法には劣るものの,概ね事前学習モデル,転移学習モデルともに高い評価を得ることができた。しかし,転移学習モデルにおける事実性の評 表 17 ニューラル型生成手法の評価結果 表 18 ニューラル型生成手法によって生成された要約文の例 生成文 (事前学習モデル) 先頭 Yasmany Tomas がヒットで出塁すると、Welington Castillo の\#Num 号 2 ランで 2 点を先制。 生成文(転移学習モデル) Arizona Diamondbacks は 0-0 のまま迎えた 7 回表、無死から Yasmany Tomas がヒットで出畦すると、続くWelington Castilloの 2 ランで試合の均衡を破る。 2016/05/03 Detroit Tigers 対 Cleveland Indians 5 回裏 生成文 (事前学習モデル) 先頭 Carlos Santana の四球、Jason Kipnis のヒットで 12 壘とすると、Francisco Lindor の\#Num 号 3 ランで 3 点。 生成文(転移学習モデル) Cleveland Indians は 2 点リードの 5 回裏、無死から Carlos Santana の四球、Jason Kipnis のヒットで 12 塁とすると、Francisco Lindor の 3 ランで加点する。 洒結果は事前学習モデルと比べて低い評価結果となった。事実でない文が生成されたエラーの分析を行ったところ,先頭13でない選手名の直前に “先頭”という単語が生成されるエラーが起きていた. Encoderへの入力である打席べクトルは,先頭か否かを表す情報を含んでいるにも関わらず, このような現象が観測された. 表 17 に示した 3 つの打席系列を入力した場合の事前学習モデルにより生成された非事実文 11 文のうち 3 件,転移学習モデルが生成した非事実文 27 文のうち 14 件がこのエラーであった。このエラーを含む生成された文の例を表 19 に示す.表 19 の Jacoby Ellsbury 選手は先頭の選手でないが, 転移学習モデルは “先頭 Jacoby Ellsbury” と生成している。転移学習モデルの学習データ中に“先頭”という単語が含まれているのは 58 件存在し, この 58 件のうち, 入力打席系列が 3 打席のデータは 51 件であった. つまり, 転移学習では,事前学習の知識を転用し,GP を生成するようにモデルを学習させたが,同時に,入力打席系列が 3 打席の場合, 入力ベクトルに関係なく, “先頭”という単語を生成しやすいモデルが学習されたと考えられる。また,“連続タイムリー”のような言い回しで使われる “連続”という単語についても,実際には連続タイムリーではない場面で誤生成が見られた。実際に,“連続”という単語は転移学習に用いた学習データ中に 65 件含まれており,この 65 件のうち, 50 件が “player1 と player2 の連続タイムリー”のようなパターンで出現していた。そのため, 上述した “先頭”を間違えて生成するエラーと同じように,“player2”という単語の後には,“連続”という単語を生成しやすい言語モデルを転移学習時に学習してしまい,連続でないにもかかわらず “連続”という単語を生成するエラーが見られた。このエラーは, 転移学習モデルにおける入力打席系列が 2 打席の場合の非事実文 32 文のうち, 24 件を占めていた。 テンプレート型生成手法では, GPごとに生成する基準を作成し, その基準にマッチしたイニ 表 19 ニューラル型生成手法によって生成されたエラーを含む要約文の例 1 死から Jacoby Ellsbury のヒット、Mark Teixeira の二穌打で 23 畦とすると、Brian McCann の内野ゴロ間に 1 点先制。 生成文(転移学習モデル) New York Yankees は 1 回裏、先頭Jacoby Ellsbury のヒット、Mark Teixeira の二塁打で 1 死 23 塁とすると、Brian McCann の内野ゴロで幸先良く先制する。  ングの要約文に GP を融合した。一方,ニューラル型生成手法では,イニング情報ベクトルを Decode 時に追加的に入力することでモデルに GP を制御する機能を学習させた。そのため,表 10 に示したルールに該当するイニングで正確に該当する GP を生成できているかを各 GP 毎に正例と負例をそれぞれ 100 件ずつ用意し,F 值で評価した。ここでいう正例, 負例とは,GP毎に作成した基準にマッチするデータ,マッチしないデータのことである。たとえば,“幸先良く先制する”という GP の基準は “初回に先制”であり,正例は“初回に先制”したデータを指し,負例は “2 回以降に先制”したデータを指す. $\mathrm{F}$ 值の計算式を以下に示す. $ \begin{gathered} \text { F-measure }=\frac{2 \times \text { Precision } \times \text { Recall }}{\text { Precision }+ \text { Recall }} \\ \text { Precision }=\frac{T P}{T P+F P} \\ \text { Recall }=\frac{T P}{T P+F N} \end{gathered} $ $T P$ は正例データに対して, 該当の GP を生成したデータ数, $F P$ は負例データに対して該当の GP を生成したデータ数, $F N$ は正例データに対して該当の GP を生成しなかったデータ数を指す。また, 同じ基準の GPに対しては, どちらかの GP を生成しているか否かで評価した. たとえば,“試合の均衡を破る”と“待望の先制点を挙げる”というGP は同じ基準であるため,正例データに対してどちらかを生成できていれば, $T P$ をカウント,負例データに対して,どちらかを生成していれば,FPをカウントした,加えて,GP の基準にマッチしないデータが入力として与えられたときに,GPを生成しないこともGPの制御においては重要である。そのため, $\mathrm{F}$ 値に加えて, Accuracyを計算した. Accuracyの計算式を以下に示す. $T N$ は負例データに対して該当の GPを生成しなかったデー夕数である. $ \text { Accuracy }=\frac{(T P+T N)}{200} $ また,評価する際は,以下の 3 つの手法と比較した. ## - Mix このモデルは転移学習は行わず, 事前学習と転移学習で利用したデー夕を混ぜて学習したモデルである。イニング情報ベクトルは Decode 時に追加的に入力している。転移学習の有効性を検証するため,提案手法とこのモデルを比較する. ## - NoInning このモデルは転移学習は行うが, イニング情報ベクトルは Decode 時に追加的に入力しないモデルである,イニング情報を考慮することの有効性を検証するため,提案手法とこのモデルを比較する. ## - SideConstraints 2 章で説明したように, Sennrich ら (Sennrich et al. 2016) は, 英独機械翻訳において, 出力であるドイツ語側の敬意表現の制御に取り組んでいる。入力である英文の最後に “<T>” (敬意表現無し)や“くV>”(敬意表現有り)といった敬意表現の有無を表すトークンを付与したコーパスで学習し,テスト時にはユーザの所望する敬意表現トークンを入力文に付与することで付与した情報を考慮した翻訳文を出力することができたと報告している.また, Yamagishi ら (Yamagishi et al. 2016)は, Sennrich らの手法を基に “<Active>” (能動態)と “<Passive>”(受動態)といったトークンを利用することで,出力文の態制御に取り組んでいる。このように,入力系列の最後に特定の出力を制御するためのトー クンを付与する SideConstraints は,本研究の GP の制御に対しても有効に働くと考えられる. Sennrich らの手法は, Bahdanau らによる Attention 機構 (Bahdanau, Cho, and Bengio 2014) と Encoder には入力系列を順方向に読み込む LSTM と逆方向に読み込む LSTM の 2 つの LSTM (Bi-Directional LSTM) を利用している. 本モデルでは Sennrich らの手法を基に,入力打席系列の最後に“<GP>”(GP を付与する)と“<NoGP>”(GP を付与しない)の2つのトークンを利用し,GPの制御を試みる。学習データは出力文に GP が含まれている場合,つまり 4.4 節で新たに作成したデータを生成するように学習する場合,入力系列の最後に“<GP>”を付与した. 出力文に GP が含まれていない場合, つまりイニング速報を生成するように学習する場合は,“<NoGP>”を付与した。この学習データを利用して, 転移学習は行わず, 事前学習と転移学習で利用したデー夕を混ぜてモデルを学習した。ただし,イニング情報べクトルは Decode 時に追加的に入力する. Sennrich らはトークンベクトルを単語ベクトルと同時学習しているが,今回は簡単化のため,“<GP>”を表すトークンベクトルは 1 で埋めた 48 次元のべクトル,“<NoGP>”を表すトークンベクトルは 0 で埋めた 48 次元のべクトルを使用した14. $\mathrm{F}$ 值による評洒結果を表 20 に示す. 表 20 中の Nan はゼロ除算による定義不可能を示している。提案手法と Mix, NoInning を比較すると,“試合を振り出しに戻す”という GPを除き,有意な差を確認することができた.また, $\mathrm{F}$ 値の平均値を比較すると, 提案手法の平均値が最も高く,転移学習,イニング情報の考慮ともに,GPの制御において有効に働いたと考えられる。一方で, SideConstraintsは, “\#Num 点リードで迎えた”や“\#Num 点ビハインドで迎えた”などのイニングを修飾する $\mathrm{GP}_{\mathrm{IP}}$ (3.2.3 節参照)において高い $\mathrm{F}$ 値を記録しているが, “幸先良く先制する”などのイニング結果を表現する $\mathrm{GP}_{\mathrm{RP}}$ においては低い $\mathrm{F}$ 值となっている. SideConstraints は,GPを制御するトークンを打席系列の最後に入力するモデルであるため, Decoder の内部で行列演算が繰り返し行われるにつれて,トークンの影響が小さくなったと考え  表 20 各手法による $\mathrm{F}$ 値と Accuracy 値 } & P 0.906 & P 0.566 & P Nan & P 1.000 \\ *は各行について太字で示した最高値と比較して, 両側符号検定により, 有意な差が確認できた値を示している. 同様に, †は各行について提案手法の $\mathrm{F}$ 值と比較して, 有意な差が確認できた値を示している. また, Bonferroni の補正により,検定総数 $N$ により補正された有意水準 $\alpha=0.05 / N$ で検定を行った. られる。実際に, 各 GP の学習データ中での出現位置 Position を表 20 に示している. この值は単語数で正規化されており,文頭に近いほど 0 ,文末に近いほど 1 に近い値となる。表 20 から $\mathrm{GP}_{\mathrm{RP}}$ は文末の近くで出現していることが確認でき, Decoder 内部で行列演算が繰り返し行われた後,トークンの影響が小さくなった状態で生成されるため,制御することができずに低い $\mathrm{F}$ 値となったと考えられる。一方, $\mathrm{GP}_{\mathrm{IP}}$ は文頭の近くで出現していることが確認でき,トークンの影響が大きい状態で生成されるため,高い $\mathrm{F}$ 値となったと考えられる.また,今回はトー クンベクトルに 0 埋め,1 埋めベクトルを使用したが,Sennrich らと同様に学習ベースで獲得したトークンベクトルを利用する方法での実験は今後の調査すべき課題といえる. 同様の Play-by-play データを入力として与え,擬似的にイニング情報の一部を変化させた際の転移学習モデルによる生成文の例を表 21 に示す.イニング数が 1 回の生成文には“幸先良く先制する”という GP が適切に生成できていることが確認できる.イニング数を 6 回に変更した際の生成文においては“0-0のまま迎えた”と“試合の均衡を破る”という GPが適切に生成できていることが確認できる. それぞれのモデルで生成された文の例を表 22 に示す。転移学習モデルによって生成された文には“0-0のまま迎えた”や“試合の均衡を破る”といった GP が正確に生成されていることが確認できる。一方,Mix と SideConstraintsには“試合の均衡を破る”といった GP は生成されていない.Mixは転移学習をせず,事前学習と転移学習に用いたデータを全て混ぜて学習するモデルであり,GPを含むデー夕数(557 件)と含まないデー夕数 $(8,937$ 件) に大きな差があることから, 正確に生成されなかったと考えられる。また, SideConstraints は, 上述したように Decoder の内部で行列演算が繰り返し行われるにつれて,トークンの影響が小さくなったと考えられ,実際の生成文からも同様の現象が起きているのが見て取れる,加えて,NoInning は,イニング情報べクトルを追加的に入力しないモデルであり,GP を制御するための情報を何も入力していない,そのため,“同点で迎えた”や“勝ち越し”といった事実とは異なる文を生成している。他にも“0点リードで迎えた”といった事実と異なる文も生成していた.表 20 の $\mathrm{F}$ 值の評価結果や実際の生成例を定性的に考慮すると,GPを制御するといったタスクにおいて,転移学習とイニング情報の考慮は有効に働いているといえる。 表 21 イニング情報中のイニング数を変化させた際の転移学習モデルによる生成文の違い ## 5.3 テンプレート型生成手法とニューラル型生成手法の比較 表 13 と表 17 の可読性の評価結果を比較すると, テンプレート型生成手法の方が高い評価を受けていた。実際に被験者による可読性評価で,ニューラル型生成手法が低い評価を受けた例を表 23 に示す。転移学習モデルが生成した文は“ 2 死から”という表現が 2 度出現しており, 表 22 各手法によって生成された要約文の例 生成文 (事前学習モデル) 先頭 Mitch Moreland の二壘打などで 1 死 3 塁とすると、Elvis Andrus のタイムリーヒットで 1 点を先制。 生成文(転移学習モデル) Texas Rangers は 0-0 のまま迎えた 7 回表、無死から Mitch Moreland の二塁打などで 1 死 3 畦とすると、Elvis Andrusのタイムリーヒットで試合の均衡を破る。 $ \text { 生成文 (Mix) } $ Texas Rangers は 7 回表、先頭 Mitch Moreland の二塁打などで 1 死 3 畦とすると、Elvis Andrus のタイムリーヒットで先制する。 ## 生成文 (NoInning) Texas Rangers は同点で迎えた 7 回表、先頭 Mitch Moreland の二魼打などで 1 死 3 魼とすると、Elvis Andrus のタイムリーヒットで勝ち越しに成功する。 ## 生成文 (SideConstraints) Texas Rangers は 7 回表、無死から Mitch Moreland が二塁打で出畕すると、Elvis Andrus のタイムリーヒットで先制に成功する。 表 23 可読性評価において転移学習モデルがテンプレート型生成手法と比べ,低い評価を受けた例 } \\ 壳長な文であるため,低い評価を受けたと考えられる ${ }^{15}$. 事実性の評価結果を比較すると, 可読性の評価結果と同様にテンプレート型生成手法の方が高い評価を受けていた。これらの評価結果を考慮すると,テンプレート型生成手法の方が優れたイニング要約生成手法だと考えられる。一方で,テンプレート型生成手法も事実でない文を生成しており,主な原因は 3.2.2 節で説明した文圧縮 1 の処理であった. 文圧縮 1 の処理は,選手名からその選手の野球専門語までを削除するといった最もシンプルなアプローチであったため,まれに複雑な表現を含むイニング速報では関係のない情報を圧縮処理しきれずに,事実でない情報を含んだテンプレートが生成された。このエラーを解決するためには文圧縮処理手法の改善が必要であるが,関係のない情報を全て圧縮処理するように人手でルールを網羅するのは限界がある。したがって,文圧縮処理には統計的なアプローチを取り入れる必要があると考えられる。また, テンプレート型生成手法は 3.2 .3 節で説明したテンプレートと GP の融合手順 (図 1)によって,GP を融合する前後で事実性,可読性に大きな変化はないこと(表 13)や, ニューラル型生成手法の事前学習モデルは事実性の観点から転移学習モデルと比較すると優れていること(表 17)を考えると,ニューラル型生成手法の事前学習モデルでテンプレートを生成し, そのテンプレートに対して, 表 10 と図 1 に示した人手で作成したルールと融合手順により,GPを含む要約文を生成するのが,事実性,可読性の観点から質の高い要約文を生成することができると考えられる。 加えて,テンプレートと GP の融合手順(図 1)は,本質的には野球に特化したルールではないため,野球以外のスポーツにも適応することができる,実際に,我々はサッカーの要約生成タスクにおいて,同様のルール(例えば,開始 $n$ 分以内の場合は“幸先良く先制する”を生成など)を用いて,以下のような要約文の生成に成功している (Tagawa and Shimada 2018). ・ ネイマールのスルーパスからイニエスタのアシストをラキテイッチがゴール、バルセロナが幸先良く先制する. - 両軍無得点のまま迎えた後半 42 分、岩㴊の値千金のゴール、日本が試合の均衡を破る. このように,GPは野球以外のスポーツにおいても汎用的なフレーズであると考えられ,サッカーにおいてのGPの融合手順は簡単な手順で設定可能であった。今後の課題として, サッカー 以外のスポーツへの適用が挙げられる。  ## 6 おわりに 本研究では, 日本で人気のある野球に着目し, Play-by-playデータからイニングの要約文の生成に取り組んだ.Web上で配信されている速報にはイニング速報と戦評があり,それぞれの以下のような特徴がある. - イニング速報中の各文はシンプルな読みやすい文で構成されているが, イニング速報そのものはそれらの文の集合であり,全体としては長く,読みづらい. - 戦評には“0-0のまま迎えた”や“待望の先制点を挙げる”のような試合の流れを考慮したフレーズ (Game-changing Phrase; GP) が含まれているのが特徴であり, 読み手は試合の状況を簡単に知ることができる。 ・ 戦評は試合が動いたシーンにのみ着目したテキストであり, 試合終了後にしか更新されない. このような特徴を踏まえ,任意の打席に対して,GP を含む要約文を生成することは,試合終了後だけでなく, リアルタイムで試合の状況を知りたい場合などに非常に有益であると考えた.また,イニング速報や戦評は現在人手で作成されているが,自動で生成することで人手で作成する際にかかるコストを削減することができる。そこで, Play-by-play データから GPを含む要約文の生成に取り組んた。 実際に,テンプレート型生成手法と Encoder-Decoder モデルを利用した手法の 2 つを提案し, それぞれの手法から生成された要約文に対して,事実性や可読性について人手評価をした。また Encoder-Decoder モデルについては,GP の生成に関していくつかの手法と比較し, 転移学習を用いる提案手法が最も良いことを $\mathrm{F}$ 値, Accuracyによって評価した. テンプレート型および Encoder-Decoder モデルの実験結果からそれぞれのメリット・デメリットを考察した. その考察に基づき,今後の課題としては Encoder-Decoder モデルにより入力打席系列を説明する文の雛形となるテンプレートを自動で生成した後, 各 GP 毎に人手で作成したルールを利用してテンプレートと融合することで最終的な要約文を生成するという手法の有効性の検証が挙げられる。加えて, 今回は攻撃側の視点たけに着目した手法を提案したが, 守備側の視点も加味した要約文生成にも取り組みたいと考えている. ## 謝 辞 本論文の查読にあたり,著者の曖昧な記述などに対して丁寧なご意見・ご指摘をくださいました査読者の方々へ感謝します。本論文の内容の一部は, The 21st International Conference on Asian Language Processing (IALP2017) で発表したものです. 本研究の一部は, 科研費 17 H01840 の助成を受けています. ## 参考文献 赤間怜奈, 稲田和明, 小林颯介, 乾健太郎 (2017). 転移学習を用いた対話応答のスタイル制御.言語処理学会第 23 回年次大会発表論文集, pp. 338-341. Allen, N. D., Templon, J. R., McNally, P. S., Birnbaum, L., and Hammond, K. (2010). "StatsMonkey: A Data-Driven Sports Narrative Writer." In AAAI Fall Symposium Series, pp. 2-3. Arnold, A., Nallapati, R., and Cohen, W. W. (2007). "A Comparative Study of Methods for Transductive Transfer Learning." In Data Mining Workshops, 2007. ICDM Workshops 2007. Seventh IEEE International Conference on, pp. 77-82. IEEE. Bahdanau, D., Cho, K., and Bengio, Y. (2014). "Neural Machine Translation by Jointly Learning to Align and Translate." arXiv preprint arXiv:1409.0473. Blitzer, J., Dredze, M., Pereira, F., et al. (2007). "Biographies, Bollywood, Boom-boxes and Blenders: Domain Adaptation for Sentiment Classification." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics, Vol. 7, pp. 440-447. Cho, K., van Merrienboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., and Bengio, Y. (2014). "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1724-1734, Doha, Qatar. Association for Computational Linguistics. Chopra, S., Auli, M., and Rush, A. M. (2016). "Abstractive Sentence Summarization with Attentive Recurrent Neural Networks." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 93-98, San Diego, California. Association for Computational Linguistics. Hochreiter, S. and Schmidhuber, J. (1997). "Long Short-term Memory." Neural Computation, 9 (8), pp. 1735-1780. 岩永朋樹, 西川仁, 徳永健伸 (2016). テキスト速報を用いた野球ダイジェストの自動生成. 言語処理学会第 22 回年次大会発表論文集, pp. 238-241. Jianmin, Z., Jinge, Y., and Xiaojun, W. (2016). "Toward Constructing Sports News from Live Text Commentary." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 1361-1371. Kikuchi, Y., Neubig, G., Sasano, R., Takamura, H., and Okumura, M. (2016). "Controlling Output Length in Neural Encoder-Decoders." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1328-1338, Austin, Texas. Associa- tion for Computational Linguistics. Kingma, D. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." In The International Conference on Learning Representations. Koehn, P. and Schroeder, J. (2007). "Experiments in Domain Adaptation for Statistical Machine Translation." In Proceedings of the 2nd Workshop on Statistical Machine Translation, pp. 224-227. Association for Computational Linguistics. Kubo, M., Sasano, R., Takamura, H., and Okumura, M. (2013). "Generating Live Sports Updates from Twitter by Finding Good Reporters." In Proceedings of the 2013 IEEE/WIC/ACM International Joint Conferences on Web Intelligence and Intelligent Agent Technologies, pp. 527-534. Li, J., Galley, M., Brockett, C., Spithourakis, G., Gao, J., and Dolan, B. (2016). "A PersonaBased Neural Conversation Model." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 994-1003. Lin, C.-Y. and Hovy, E. (2003). "Automatic Evaluation of Summaries using N-gram Cooccurrence Statistics." In Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology-Volume 1, pp. 71-78. Association for Computational Linguistics. Luong, M. T., Pham, H., and Manning, C. D. (2015). "Effective Approaches to Attention-based Neural Machine Translation." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421. McKeown, K. and Radev, D. R. (1995). "Generating Summaries of Multiple News Articles." In Proceedings of the 18th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 74-82. ACM. McRoy, S. W., Channarukul, S., and Ali, S. S. (2000). "YAG: A Template-based Generator for Real-time Systems." In Proceedings of the 1st International Conference on Natural Language Generation-Volume 14, pp. 264-267. Association for Computational Linguistics. 村上総一郎, 笹野遼平, 高村大也, 奥村学 (2016). 打者成績からのイニング速報の自動生成. 言語処理学会第 22 回年次大会発表論文集, pp. 338-341. 村上総一郎, 笹野遼平, 高村大也, 奥村学 (2017). 数値予報マップからの天気予報コメントの自動生成. 言語処理学会第 23 回年次大会発表論文集, pp. 1121-1124. Murakami, S., Watanabe, A., Miyazawa, A., Goshima, K., Yanase, T., Takamura, H., and Miyao, Y. (2017). "Learning to Generate Market Comments from Stock Prices." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 1374-1384. Nichols, J., Mahmud, J., and Drews, C. (2012). "Summarizing Sporting Events Using Twitter." In Proceedings of the 2012 ACM International Conference on Intelligent User Interfaces, pp. 189-198. Oh, A. and Shrobe, H. (2008). "Generating Baseball Summaries from Multiple Perspectives by Reordering Content." In Proceedings of the 5th International Natural Language Generation Conference, pp. 173-176. Robin, J. (1994). "Revision-based Generation of Natural Language Summaries Providing Historical Background." Master's thesis, Ph.D. thesis New York University. Rush, A. M., Chopra, S., and Weston, J. (2015). "A Neural Attention Model for Abstractive Sentence Summarization." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389. Sato, S., Yoshinaga, N., Toyoda, M., and Kitsuregawa, M. (2017). "Modeling Situations in Neural Chat Bots." In Proceedings of ACL 2017, Student Research Workshop, pp. 120-127. Association for Computational Linguistics. Sennrich, R., Haddow, B., and Birch, A. (2016). "Controlling Politeness in Neural Machine Translation via Side Constraints." In Proceedings of the 15th Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 35-40. Sharifi, B., Hutton, M.-A., and Kalita, J. (2010). "Summarizing Microblogs Automatically." In Proceedings of HLT '10 Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 685-688. Smiley, C., Plachouras, V., Schilder, F., Bretz, H., Leidner, J. L., and Song, D. (2016). "When to Plummet and When to Soar: Corpus Based Verb Selection for Natural Language Generation." In Proceedings of The 9th International Natural Language Generation Conference, pp. 36-39. Sutskever, I., Vinyals, O., and Le, Q. V. (2014). "Sequence to Sequence Learning with Neural Networks." In Advances in Neural Information Processing Systems, pp. 3104-3112. Tagawa, Y. and Shimada, K. (2016). "Generating Abstractive Summaries of Sports Games from Japanese Tweets." In Proceedings of the 7th International Conference on E-Service and Knowledge Management, pp. 82-87. Tagawa, Y. and Shimada, K. (2018). "Sports Game Summarization Based on Sub-events and Game-changing Phrases." In New Trends in E-Service and Smart Computing, Springer, 2018, pp. 65-80. Takamura, H., Yokono, H., and Okumura, M. (2011). "Summarizing a Document Stream." In Proceedings of the 33rd European conference on Advances in Information Retrieval, pp. 177-188. Vinyals, O., Toshev, A., Bengio, S., and Erhan, D. (2015). "Show and Tell: A Neural Image Caption Generator." In Proceedings of Computer Vision and Pattern Recognition, pp. 3156-3164. Xu, K., Ba, J., Kiros, R., Cho, K., Courville, A., Salakhudinov, R., Zemel, R., and Bengio, Y. (2015). "Show, Attend and Tell: Neural Image Caption Generation with Visual Attention." In Proceedings of the 32nd International Conference on Machine Learning, pp. 2048-2057. Yamagishi, H., Kanouchi, S., Sato, T., and Komachi, M. (2016). "Controlling the Voice of a Sentence in Japanese-to-English Neural Machine Translation." In Proceedings of the 3rd Workshop on Asian Translation (WAT), pp. 203-210. Zoph, B., Yuret, D., May, J., and Knight, K. (2016). "Transfer Learning for Low-resource Neural Machine Translation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1568-1575. ## 付録 ## A ROUGEによる評価 5 節ではテンプレート型生成手法, ニューラル型生成手法により生成された要約文を被験者により可読性, 事実性の観点から評価した。加えて, 自動評価指標である ROUGE (Lin and Hovy 2003)による評価も行った. 本研究の目的は任意の打席に対して GP を含むイニングの要約文を生成することであり,任意の打席に対して GP を含むイニングの要約文の正解デー夕は存在しない. そこで,テンプレート型生成手法の GP を含まない要約文とニューラル型生成手法の事前学習モデルによって生成された要約文に対して ROUGE 値を計算した(計算の際には品詞のフィルタリングなどは行っていない),実際に, 100 件の NPB の Play-by-playデータを入力として与え, 生成された要約文と入力データに対応するイニング速報中の文を正解データとし, ROUGE 值を計算した。評価結果を表 24 に示す。評価結果からテンプレート型生成手法はニューラル型 表 24 ROUGE 値 生成手法と比べ低い ROUGE 值となった。これはテンプレート型生成手法では, 文圧縮処理の際に,アウト数や “先頭”, “代打” といった表現を削除しているため, 単語の一致率を基にしたROUGEではニューラル型生成手法と比べ低い ROUGE 值となったと考えられる。 ## 略歴 田川裕輝:2016 年九州工業大学情報工学部知能情報工学科卒. 2018 年九州工業大学大学院情報工学府先端情報専攻修了. 現在, 富士ゼロックス株式会社.在学中は,スポーツデータを対象とした文章生成や要約に関する研究に従事. 嶋田和孝:1997 年大分大学工学部知能情報システム工学科卒. 1999 年同大大学院博士前期課程修了. 2002 年同大大学院博士後期課程単位取得退学. 同年より九州工業大学情報工学部知能情報工学科助手. 2007 年, 同助教. 2012 年, 九州工業大学大学院情報工学研究院知能情報工学研究系准教授. 博士 (工学). 自然言語処理, 特に評判分析や情報要約の研究に従事. 言語処理学会,電子情報通信学会, 情報処理学会, 人工知能学会, 観光情報学会各会員. (2017 年 11 月 15 日受付) (2018 年 3 月 2 日再受付) (2018 年 4 月 23 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 株主招集通知における議案タイトルとその分類及び開始ページの 推定システム 岡田 奈奈 ${ }^{\dagger \dagger \dagger} \cdot$ 水内 利和 ${ }^{\dagger+\dagger \dagger}$ } 本論文では,テキストマイニング技術を用いて,株主招集通知の情報をデータベー スに格納する業務の効率化を実現するための応用システムの研究について述べる.効率化したい業務とは,株主招集通知に記載されている議案の開始ぺージを予測し, その開始ぺージにおける議案の議案タイトルと議案内容を分類する業務である。本研究では, これらの業務を株主招集通知のテキスト情報を用いて自動的に行うシス テムを開発し,実際に運用している。本研究によって実装したシステムと従来の人手による作業の比較実験の結果, 作業時間は $1 / 10$ 程度に短縮された. 議案分類の手法としては, 学習データから抽出した特徴語の重みを用いた分類, 多層ニューラル ネットワーク (深層学習) を用いた分類, 抽出した議案タイトルを用いた分類の三手法を用いた。さらに,各手法の評価を行い,各手法の議案ごとの有効性を確認した. キーワード:株主招集通知,議案分類,深層学習,テキストマイニング ## A System for Classifying Proposals and Estimating Start Pages Stated in Notice of Annual Meeting of Shareholders \author{ Kaito Takano ${ }^{\dagger}$, Hiroyuki SakaI ${ }^{\dagger \dagger}$, Hiroki Sakaji ${ }^{\dagger \dagger}$, Kiyoshi Izumi $^{\dagger \dagger \dagger}$, } Nana OKada ${ }^{\dagger \dagger \dagger}$ and Toshikazu Mizuuchi ${ }^{\dagger \dagger \dagger}$ In this paper, we describe research on applied systems for realizing efficiency of work to store information of notice of annual meeting of shareholders in the database by using text mining technology. We aim to estimate start pages of proposals stated in notice of the meeting of shareholders and classify which proposal the page is. And we developed a system that automatically performs these tasks using text information of the notice of convocation of shareholders, and actually operates it. As a result of comparative experiment between our implemented system and conventional manual work, the working time was shortened to about $1 / 10$. We propose three methods for classifying proposals. The first method classifies proposals by specialized terms extracted  from training data. The second method classifies proposals by using deep learning. The final method classifies proposals by extracted proposal title. We evaluated our methods, and the effectiveness of each method was verified. Key Words: Notice of Annual Meeting of Shareholders, Proposal Classification, Deep Learning, Text Mining ## 1 はじめに 人工知能分野の手法や技術を,金融市場における様々な場面に応用することが期待されており,例えば,膨大な金融情報を分析して投資判断の支援を行う技術が注目されている。その一例として,日本銀行が毎月発行している「金融経済月報」や企業の決算短信,経済新聞記事をテキストマイニングの技術を用いて,経済市場を分析する研究などが盛んに行われている (和泉,後藤, 松井 2011; 北森, 酒井, 坂地 2017; Peramunetilleke and Wong 2002; Sakai and Masuyama 2008 ; 坂地, 酒井, 増山 2015). 日経リサーチでは,各種データを収集し,様々なデータベースを構築している。データ処理にあたっては,たとえばXBRL 形式のように値に付与されたタグ等の付加情報を利用し,自動分類によるデータベース化を行っている。しかしデータ分類用付加情報が付与されているデー 夕はまだ少数で,データベース構築の多くは自動分類化がすすんでおらず,人手をかけた作業による分類が大半を占めている,手作業で必要な情報を抽出するには,専門的知識や経験が必要となる。 そのような環境の中,「株主招集通知の議案別開始ページの推定」を研究課題として設定し $た^{1}$. 企業が株主総会を開催する場合,企業は招集の手続きが必要になる.会社法では公開会社である株式会社が株主総会を招集する場合,株主総会の日の二週間前までに,株主に対してその通知を発しなければならないと定めている(会社法第二百九十九条)。また,株式会社が取締役会設置会社である場合, その通知は書面で行わなければならない(会社法第二百九十九条第二項)。この株主総会に関する書面通知が株主招集通知である. 取締役会設置会社においては, 定時株主総会の招集の通知に際し, 取締役会の承認を受けた計算書類及び事業報告を提供しなければならない, 株主総会の目的が役員等の選任, 役員等の報酬等, 定款の変更等に係る場合, 当該事項に係る議案の概要を通知する必要がある等, 会社法および株主招集通知にて通知する事項は会社法および会社法施行規則で定められている(会社法第二百九十八条, 会社法施行規則第六十三条). 一般的な株式公開会社の株主招集通知は,株主総会の日時・場所 - 目的事項(報告事項・決  議事項)が記載される他, 参考書類・添付書類として決議事項の議案概要, 事業内容等の株式会社の現況に関する事項,株式に関する事項,会社役員に関する事項,会計監査人の状況,計算書類, 監査報告書等が記載される。記載内容が法令で定められている株主招集通知だが,有価証券報告書等のように様式が定められておらず,その形式は記載順序や表現方法を含め各社で異なっており, ページ数も数ページのものから 100 ページを超えるものもある. 今回の研究の対象は, 株主招集通知に記載されている決議事項に関する議案である。議案については,その記載がどのページにあるか, 何の事項の前後に記載されるかは各社各様であり,多様なパターンを識別するには株主招集通知を読み解く経験を積む必要があった. 従来は抽出したい議案(「取締役選任」「剰余金処分」などの項目)が報告書のどのページに記載されているか人手により確認し, データを作成していたが, 各社で報告書のページ数や議案数が異なるため, 確認に時間を要していた,現状は,株主招集通知を紙で印刷するとともに,PDFファイルで取得, 人手にてデータベースに収録, 校正リストの出力, チェックという流れで収録業務を行っている。ここで,抽出したい議案がその報告書にあるのか, どのページに記載されているのかが自動で推定できれば,時間の短縮やペーパーレス化などの業務の効率化につながる.したがって本研究の目標は, 株主招集通知の各ぺージが議案の開始ぺージであるかそうでないかを判別し,さらに,開始ページであると判断されたぺージに記述されている議案が,どのような内容の議案であるかを自動的に分類することである². 株主招集通知の開示集中時期には,短時間に大量の処理を進めるため,臨時的に収録作業者を配置し,データ入力を行う.臨時作業者には,株主招集通知の理解から始まり,収録定義に関する教育時間や練習時間が 2 日程度必要となる。この教育時間を経て, 実際のデータ入力を始めると,慣れるまでは 1 社あたりのデータベース化に 1 時間半 2 時間を要し, 本研究で対象としている議案分類のみの作業でも,慣れた作業者さえ数分かかる. 特に議案など必要なぺー ジにたどりつくまでに株主招集通知を一枚一枚めくって探すこと, 議案分類について議案タイトルやその詳細から対応する語を見つけ出すことに時間を要している. 処理・判断が早くなるには,各社で異なる株主招集通知の構成を見極め,構造の特徴をつかむことが必要になる.しかし,これらの勘をつかむには,およそ 1 週間程度かかっている。 さらに,信頼性の高いデー 夕収録ができるようになるには, 3 ヶ月以上を要している. 本研究によるシステムによって, これらの構造理解と勘の習得が不要になると共に, 議案の開始ページの推定や議案内容が分類されることにより,当該部分の 1 社あたりにかかる処理時間の短縮が期待される.さらに,理解の十分でない作業者の判断ミスや判断の摇れが減少し, 信頼度の高いデータ生成を支えることとなる。その結果, データベース収録に係る人件費の削減と, データベース化に伴うデータ収  表 1 出力結果 録の早期化をはかることが可能となる. 一般的に株主は,株主招集通知に掲載されている議案を確認し,「この議案に賛成もしくは反対」の判断をしている.多数の企業の株式を保有している株主は,これに時間がかかることが推測される。株主招集通知に載っている議案が分類されれば,議案の内容をより早く把握することができ,判断に集中できるようになると考える. ここで,本論文で提案するシステムの全体像について述べる。本論文で提案するシステムは,株主招集通知を入力として,表 1 に示すような結果を返すシステムである。この結果を得るためには,まず議案が何ぺージから記載されているのかを推定する必要がある。そして推定したページに対して,議案がいくつ存在し,どの議案分類に分類されるかを自動で行う. 本論文の第 2 章では議案がある開始ページの推定について述べる。第 3 章から第 5 章では各議案分類の手法について詳細な内容について述べる。第 6 章では各手法の評価を適合率, 再現率, $\mathrm{F}$ 值を用いて述べる。第 7 章では第 6 章の評価結果を踏まえて考察を述べる。第 8 章では応用システムについて述べる。第 9 章では関連研究について述べ,関連研究と本研究の違いについて述べる。 ## 2 議案がある開始ページの推定 株主招集通知から議案を分類するために,議案が開始するぺージの推定を行う必要がある.開始ページの推定は,テキスト情報を用いてルールベースで行う。まず,株主招集通知の PDF を 1 ぺージごとに分割したうえで,テキストデータに変換する。変換には pdftotext ${ }^{3}$ を用いた. PDF データをテキストデータに変換するとき,以下の処理を加えて変換を行った。 処理 1 半角を全角に変換する ^{3} \mathrm{http} / /$ www.foolabs.com/xpdf/home.html } 高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム 処理 2 空白は除去する 処理 3 ()が含まれる文は括弧ごと除去する 処理 4 「の件」または「する件」を含んでいる場合,「件」の後に改行を加える 処理 5 行頭が「第○号議案」または「議案」と一致する場合, 行頭に改行を加える 議案及び参考事項 第 1 号議案剩余金の処分の件 第69期の期末配当につきましては、安定的な配当の継続と当事業年度の業 績等を勘案いたしまして以下のとおりといたしたいと存じます。 (1) 配当財産の種類 金銭といたします。 (2) 配当財産の割当てに関する事項及びその総額 当社普通株式 1 株につき金 12 円といたしたいと存じます。 なお、この場合の配当総額は $210,728,688$ 円となります。 (注)中間配当を含めた当事業年度年間配当は、 1 株につき金 24 円となります。 (3) 剩余金の配当が効力を生ずる日 平成28年10月21日といたしたいと存じます。 ## 第 2 号議案 定款一部変更の件 1 . 提案の理由 経営体制の強化・充実を図るため、取締役の員数を 10 名以内から 12 名以内 に変更するものであります。 2. 変更の内容 変更の内容は次のとおりであります。 図 1 株主招集通知のテキストデータ変換の例 1 処理 6 「。」は改行に置き換える 上記の処理によって PDF デー夕は図 1 や図 2 のようなテキストデータに変換される. 議案がある開始ページは,以下の条件のもと推定した。ここで,「決議事項」または「目的事項」という表現が含まれているぺージを目次ぺージとし, 「参考書類」,「議題及び参考事項」または「議題および参考事項」という表現が含まれているぺージを参考ぺージとする。 条件 1 議案がある開始ぺージは,「議案」または「第 $X$ 号議案」が先頭に含まれるぺージを対象とする 条件 2 目次ページは議案がある開始ページの候補から除外する 条件 3 参考ページから議案に関する記載が始まるため,参考ページ以降を対象とする 議案がある開始ページの推定は上記の条件に関わるページ番号の抽出の他に,議案数の推定とぺージ数の抽出が必要となる.「第 $X$ 号議案」という語が株主招集通知に含まれている場合, 図 2 株主招集通知のテキストデータ変換の例 2 高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム 表 2 抽出された情報 1 表 3 抽出された情報 2 表 4 抽出された情報 3 議案数は「 $X 」 の$ 最大値であると推定できる.「第 $X$ 号議案」という語が株主招集通知に含まれていない場合, 議案という語が含まれていれば, 議案数は 1 であると推定できる。 ページ数の抽出は, PDF データを 1 ページずつテキストデータ化し, テキストデータが取得できた最後のページ番号をページ数として抽出する. これらを踏まえて, 変換されたテキストデータから必要な情報を抽出した例を表 2 , 表 3 , 表 4 に示す. 例えば, 図 1 は, 株主招集通知の P. 40 の例であり, そのページから抽出される議案は「第 1 号議案」,「第 2 号議案」となる. これらの情報を基にページの推定を以下の図 3 のフローチャートに従って行う. 表 2 と表 4 の例の場合, まず参考ページの最も後ろのページである 42 ページが探索開始ぺー ジとなるが,第 1 号議案が 42 ページ以降に出現しないため, 探索開始ページを 40 に更新して行うことで, 第 1 号議案から第 8 号議案の開始ページの推定に成功する. ## 3 提案手法 1 特徵語による議案分類 本章では, 特徴語による議案分類について説明する. この提案手法は以下のステップで議案の分類を行う. Step 1: 議案分類ごとの特徴語の獲得 Step 2: 議案の分類 図 3 議案の開始ページ推定のためのフローチャート ## 3.1 議案分類ごとの特徵語の獲得 ## 3.1.1 特徴語候補の抽出 株主招集通知に出現する議案を分類するために,議案分類ごとの特徵語の抽出をする。例えば,「取締役選任」の特徴語として,「現任取締役」のような語を抽出する。議案分類ごとの特徵語の獲得をするために, 株主招集通知における議案別の開始ぺージとその議案の分類が記述されたデータ(6,444 件)を,株主招集通知のPDF 1 ページごとに分割したうえで,テキストデータに変換し, 学習データとして使用する. 特徴語の抽出は上記の学習デー夕を形態素解析し, それから以下の条件のもと, 各議案分類の開始ページに 2 回以上出現する語を特徴語の候補とする。 条件 1 名詞を対象 条件 2 分割は $N$-gram 単位 条件 325 文字以上の長すぎる複合名詞は除外 例えば,名詞を対象に N-gram 単位の分割を「株主招集通知における議案タイトル」に対し イトル」,「議案タイトル」のように分割される. 高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム ## 3.1.2 特徴語候補への重み付け 特徴語の候補 $n_{i}$ に対して議案分類ごとに重み付けを行い, 特徴語を選択する. 重み付けの式には式 1 を用いる。 $ W\left(n_{i}, C(t)\right)=\left(0.5+0.5 \frac{T F\left(n_{i}, C(t)\right)}{\max _{j=1, \ldots, m} T F\left(n_{j}, C(t)\right)}\right) \times H\left(n_{i}, C(t)\right) \log _{2} \frac{N}{d f\left(n_{i}\right)} $ ここで,学習データにおいて, $C(t)$ : 議案分類 $t$ の開始ページの文書集合. $T F(n, C(t)): C(t)$ において, 名詞 $n$ が出現する頻度. $H(n, C(t)): C(t)$ の各文書である $d$ に名詞 $n$ が出現する確率 $P(n, d)$ に基づくエントロピー.以下の式 2 によって求める. $ H(n, C(t))=-\sum_{d \in C(t)} P(n, d) \log _{2} P(n, d) $ ここで, $P(n, d)$ は $d$ に名詞 $n$ が出現する確率である. $d f(n)$ : 名詞 $n$ を含む文書の数. $N :$ 学習データにおける文書の総数. エントロピーを用いた理由は,各議案分類の文書集合中で多くの文書に分散して出現している語の方が, 少数の文書に集中して出現している語と比較して, よりその議案分類の特徴を表し, 特徴語としても有効であるという仮定に基づく. 例として, 議案分類「監査役選任」の特徵語候補への重み付けを, エントロピーを用いて行った結果を表 5 に示し, エントロピーを用いずに行った結果を表 6 に示す. 表 6 に示した特徴語候補は上位 6 単語だが, 上位 300 単語のほとんどが固有名詞であるため議案分類の特徴としては適切でなく, エントロピーを計算に用いることは有用と思われる. 表 5 エントロピーを用いた重み付けの結果 表 6 エントロピーを用いずに重み付けをした結果 ## 3.1.3 特徵語の選択 各議案分類ごとの特徴語候補の重み付けの平均値を算出し, 平均値よりも重みの高いものを特徴語として選択する。すなわち, 以下の条件が成り立つ語 $n_{i}$ を特徴語として選択する. $ W\left(n_{i}, C(t)\right)>\frac{1}{m} \sum_{j=1}^{m} W\left(n_{j}, C(t)\right) $ $m$ : 議案分類 $t$ の特徴語候補の総数. 例えば,「取締役選任」の特徴語の一部を表 7 ,「定款変更」の特徴語の一部を表 8 に示す。表 8 に注目すると,「定款変更」の項目なので「変更」,「施行」,「定款」などを含む特徴語が上位に来ることは想像できるが,それ以上に「下線部」のような単語に高い重みが付与されることは,機械学習のメリットである,実際,図 2 は「定款変更」に分類される議案の開始ページであるが,「下線部」という単語が出現している. ## 3.2 議案の分類 3.1 節で得られた特徴語の重みと第 2 章の手法で推定した議案の開始ページを用いて, 開始ページごとの議案の分類を行う。議案分類 $t$ の開始ページ $j$ に対するスコア付与は式 4 を用いる. $ \operatorname{score}(j, t)=\frac{\boldsymbol{V}(\boldsymbol{t}) \cdot \boldsymbol{V}(\boldsymbol{j})}{|\boldsymbol{V}(\boldsymbol{t})||\boldsymbol{V}(\boldsymbol{j})|} $ ここで, $V(t):$ 議案分類 $t$ の特徴語を要素, 特徴語の重みを要素値とするべクトル $V(j):$ 開始ページ $j$ の名詞 N-gram を要素, 出現数を要素値とするベクトル複数の議案が同ぺージに存在する場合,スコアが上位のものから順に選ばれるものとする. 表 7 「取締役選任」の特徴語 表 8 「定款変更」の特徴語 高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム ## 4 提案手法 2 多層ニューラルネットワークによる議案分類 提案手法 1 では, 学習データから各議案の特徴語を抽出し, それに基づいて議案を分類している.この学習データを使用すれば,機械学習手法に基づく手法でも議案分類が可能である.そこで, 本研究では多層ニューラルネットワーク(深層学習)4を用いた議案分類も試みた. ## 4.1 素性選択 株主招集通知に記載されている議案の開始ページの議案分類を, 深層学習により行う。すなわち, 議案の開始ぺージが, ある議案分類であるかそうでないかを判別する分類器を議案分類の数だけ生成し, テストデータとなる議案の開始ぺージがどの議案分類に属するかを判定する. したがって, 例えば議案分類「取締役選任」を判別するための学習データは,「取締役選任」の開始ページが正例, それ以外の議案分類の開始ぺージが負例となる。また, テストデー夕は, 学習データとして使用した株主招集通知を除き,株主招集通知を 1 ページごとに分割したうえで,第 2 章の手法を用いて推定されたページを対象とした. まず,入力層の要素となる語(素性)を選択する。具体的には,学習データにおいて正例に含まれる内容語(名詞, 動詞, 形容詞)に対して, 以下の式 5 にて重みを計算する. $ W_{p}\left(t, S_{p}\right)=T F\left(t, S_{p}\right) H\left(t, S_{p}\right) $ ただし, $S_{p}$ : 学習データにおいて正例に属する文の集合 $T F\left(t, S_{p}\right):$ 文集合 $S_{p}$ において,語 $t$ が出現する頻度 $H\left(t, S_{p}\right)$ : 文集合 $S_{p}$ における各文に含まれる語 $t$ の出現確率に基づくエントロピー $H\left(t, S_{p}\right)$ が高い語ほど, 正例の文集合に均一に分布している語であることが分かる. $H\left(t, S_{p}\right)$ は次の式 6 で求める. $ \begin{gathered} H\left(t, S_{p}\right)=-\sum_{s \in S_{p}} P(t, s) \log _{2} P(t, s) \\ P(t, s)=\frac{t f(t, s)}{\sum_{s \in S_{p}} t f(t, s)} \end{gathered} $ ここで, $P(t, s)$ は文 $s$ における語 $t$ の出現確率を表し, $t f(t, s)$ は文 $s$ において語 $t$ が出現する頻度を表す. 次に, 負例に含まれる内容語(名詞, 動詞, 形容詞)に対しても, 同様に重みを計算する. $ W_{n}\left(t, S_{n}\right)=T F\left(t, S_{n}\right) H\left(t, S_{n}\right) $  ただし, $S_{n}$ は学習データにおいて負例に属する文の集合である. ここで,ある語 $t$ の正例における重み $W_{p}\left(t, S_{p}\right)$ が負例における重み $W_{n}\left(t, S_{n}\right)$ より大きければ,その語 $t$ を素性として選択する。もしくは,語 $t$ の負例における重み $W_{n}\left(t, S_{n}\right)$ が正例における重み $W_{p}\left(t, S_{p}\right)$ の 2 倍より大きければ,その語 $t$ を素性として選択する。すなわち,以下の条件のどちらかが成り立つ語 $t$ を素性として選択する。 $ \begin{aligned} W_{p}\left(t, S_{p}\right) & >W_{n}\left(t, S_{n}\right) \\ W_{n}\left(t, S_{n}\right) & >2 W_{p}\left(t, S_{p}\right) \end{aligned} $ 上記の条件を課すことで,正例,負例における特徴的な語のみを素性として選択し,ともによく出現するような一般的な語を素性から除去する.以下に議案分類「取締役選任」を判別するための学習データから選択された素性の一部を例示する. 取締役, 監査, 議案, 配当, 株主, 社外, 変更, 事業, 代表, 現任, 責任, 部長, 社長 上記の学習データでは, 2,845 語が素性として選択された. ## 4.2 モデル 入力は, 学習データから抽出された語(素性)を要素, 語 $t$ における $\log \left(W_{p}\left(t, S_{p}\right)\right.$ ), もしくは, $\log \left(W_{n}\left(t, S_{n}\right)\right)$ の大きいほうを要素值としたべクトルとする.モデルの入力層のノード数を入力ベクトルの次元数(すなわち素性の数)と同じとし, 隠れ層は, ノード数 1,000 が 3 層, ノード数 500 が 3 層, ノード数 200 が 3 層, ノード数 100 が 3 層の計 12 層とする. 出力層は 1 要素である. 深層学習のパラメータとして, 活性化関数はランプ関数 (ReLU) (Glorot, Bordes, and Bengio 2011)を, 出力層は sigmoid を使用した. また, エポック数は 50 回とした. 機械学習による分類を 2 値で行った理由は,1つのページに複数の議案が記載されており, 複数の議案分類が割り当てられる可能性があるからである. 例えば,「取締役選任」と「監査役選任」が同じページに記載されている場合があり,その場合は,そのページを「取締役選任」と 「監査役選任」に分類する必要がある。そのため,ある議案分類とそれ以外を分類する分類器を議案分類数だけ生成するアプローチを採った。 ## 5 提案手法 3 抽出した議案タイトルを用いた議案分類 本章では, 議案タイトルの抽出手法と, 抽出した議案タイトルを用いた議案分類手法について説明する。議案タイトルとは, 図 1 の第 1 号議案の隣に記載されている「剰余金の処分の件」 高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム や,第 2 号議案の隣に記載されている「定款一部変更の件」のことを指す. 議案タイトルを正確に抽出することは難しいが, 正しく議案タイトルを抽出できれば議案分類の大きな手助けとなるとともに,議案タイトルを人手で入力する手間を省くことができる. ## 5.1 議案タイトルの抽出 $\mathrm{PDF}$ データを第 2 章と同様の条件でテキストデータに変換し, 図 4 のフローチャートの条件で議案タイトルの抽出を行う. 議案タイトルは第 2 章の手法を用いて推定された開始ページを用いて, ハッシュに保存された議案タイトルが選択される。以下の優先順位でハッシュは選ばれ,優先すべきハッシュに議案タイトルがない場合, 次順位のハッシュに保存された議案タイトルを選択する. ここで, $h a s h 3\{$ ページ数 $\}\{m\}$ はそのページに出現する $m$ 番目の議案タイトルである. 図 4 議案タイトル抽出のフローチャート 図 5 抽出した議案タイトルを用いた分類のフローチャート ## 5.2 議案タイトルを用いた議案分類手法 議案タイトルに含まれるキーワードを用いたルールベースによって議案分類を行う ${ }^{5}$. 図 5 に本手法である議案分類のフローチャートを示す. ## 6 評価 本手法を実装した.学習データとして,2016 年 4 月から 8 月までの株主招集通知から,人手にて議案開始ページとその分類を作成し使用した(学習デー夕数は 6,444 件)。実装にあたり,形態素解析器として MeCab 6 を使用した。深層学習においては TensorFlow ${ }^{7}$ 使用した。評価において,正解データとして,2016 年 9 月から 10 月までの株主招集通知から,人手にて議案開始ページとその分類を作成した(正解デー夕数は 345 件)。議案分類ごとの学習データと正解データは以下の表 9 の通りである。次に,正解データと同じ 9 月から 10 月までの株主招集通知から,各手法を用いて議案開始ぺージとその議案分類を推定した.表 10 はある企業の株主招集  通知における正解データと提案手法 1 による議案開始ページと議案分類の推定結果を示す。そして, 各手法の推定結果と正解データが一致すれば正解とし, 議案ごとの適合率, 再現率, $\mathrm{F}$ 値を算出した。また,比較手法として,Support Vector Machine (SVM) (Vapnik 1999)による分類も行った8. 素性選択の方法は深層学習と同様である. 評価結果を表 11 に示す. 表 11 の手法 1 は提案手法 1 の特徴語による議案分類手法, 手法 2 は提案手法 2 の深層学習による議案分類手法, 手法 3 は提案手法 3 の抽出した議案タイトルを用いた議案分類手法の結果を示す. 深層学習による提案手法 2 を評価するために, 素性選択を行わなかった場合, 深層学習ではなくSVM を使用した場合, 深層学習の隠れ層やエポック数を変化した場合の評価を行った.表 12 に各手法や設定を示す.ここで,比較手法 2 の「素性選択なし」とは,学習デー夕における内容語を全て素性として使用し, 重みとして情報利得を使用したものである。また, 各手法や設定ごとに全ての議案分類の適合率, 再現率を載せるのは数値が多すぎるため, 各手法や設計ごとの全議案における適合率, 再現率のみを表 13 に示す. 表 9 議案別デー夕数 表 10 提案手法 1 による議案開始ページと議案分類の推定結果とその正解データ ^{8}$ SVM のカーネルとして線形カーネルを使用した. } 表 11 評価結果 表 12 比較手法と設定 高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム ## 7 各手法に対する考察 各手法の評価の結果, 提案手法 3 , 提案手法 2 , 手法 (SVM), 提案手法 1 の順に良好な結果が得られた. 各手法には特徴があり,「ストックオプション」の $\mathrm{F}$ 值では提案手法 1 が最も高く,「剰余金処分」の $\mathrm{F}$ 值は提案手法 2 が最も高い. 提案手法 1 は「ストックオプション」の結果が他の手法と比較して良好な結果となった. これは特徴語の選択とその重み付けに起因している。得られた特徴語と重みを表 14 に示す。また,特に提案手法 3 と比較すると高い結果が得られているが, これは「ストックオプション」に該当する議案のタイトルは多種多様であることから, 提案手法 3 のタイトルを用いた分類は難しいことが原因でもある。 提案手法 1 の分類推定が誤っていたものを確認したところ, 誤分類は 46 件だった. その誤分類の詳細を確認したところ,「取締役選任」の項目が,「監査役選任」の項目に誤分類されている件数が 15 件あった. これはどちらの項目も選任の件であり, 分類が難しいことと, 議案としての出現確率が高いことに起因している。また,分類には「その他」といった項目が存在するが,今回は「その他」への分類をしていないため,15 件が誤分類となった.「その他」の項目は, どの議案にも分類されない議案で構成されるため, 特徵語となるものが抽出できない. そのため分類対象から除外した. 表 13 比較評価結果 表 14 「ストックオプション」の特徴語 提案手法 1 は議案の分類をスコアが上位のものから順に割り当てるため, 同一ページに対し同じ議案分類を割り当てることができない,そのため,同じ議案分類が複数出てきた開始ぺー ジの推定に影響を与え, 6 件の誤分類となった。また,その場合の推定は「退職慰労金」に分類される傾向にあり,それに起因して「退職慰労金」の分類の適合率が低くなってしまった。その際の正解データと提案手法 1 の出力結果を表 15 に示す。この例は,P. 53 に「役員報酬」に関する議案が 2 件記載されているが,「役員報酬」の次にスコアが高い「退職慰労金」が議案分類として割り当てられてしまった結果である. 提案手法 1 の分類推定を向上させるためには, 「取締役選任」と「監査役選任」の項目の特徴語の選択をヒューリスティックに調整することが考えられる。また,「その他」の項目も,同様の手法で分類できるようにすることも考えられる。同じ議案が複数存在するページに関しては,「退職慰労金」の項目に分類されることが多いため,「退職慰労金」への分類に制約を与えることで,解消されると考えられる。 提案手法 2 の結果は,議案があると推定されたページに対して各分類器を適用するため,そのページにある議案数とは異なった結果を返すことがある。提案手法 1 で述べた, 同じ議案が複数存在するぺージに関しては, 結果を余分に返さないメリットがある。しかし, 提案手法 2 は 1 ページ毎に分類を行うため, 議案が複数存在し, 該当ページの後半以降から始まり, 次のページに跨ぐような議案に対しては,正しい分類結果を返せないデメリットが存在する。 提案手法 3 の抽出した議案タイトルを用いた議案分類は, 高い適合率, 再現率を示しているが, 議案タイトルの抽出の結果に強く依存しているため, 他の分類手法と照らし合わせる必要がある.他の分類手法はページに出現する特長語を用いて分類を行うため,議案タイトルが正しく抽出できない場合においても分類を行うことが可能である. 議案がある開始ぺージの推定は,議案があると推定された株主招集通知に対しては $100 \%$ 推定できていた。しかし, 議案が本来は記載されているが, 議案がないと判断された株主招集通 表 15 同じ議案が同一ページに複数出てきた例 高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム 知が 2 件あった。原因を調べたところ, PDF からテキストデータへの変換のとき,「議案」といった表現が抽出されてないことが原因であった。その例を図 6 に示す. 図 6 の矢印で示した位置に,本来 PDF に記載されている「議案」という文字列がテキストに変換されるはずだができていない。これは文字列「議案」の PDFへの入力が特殊であるために生じる。PDF を画像ファイルとして読み込み,文字認識をかけるなど解決策はあるが,本研究から内容が逸脱するため例外として処理した。 表 13 における本手法と素性選択なしの比較手法 1 との比較により, 素性選択ありのほうが素性選択なしよりも高い $\mathrm{F}$ 値を達成した。従って,本手法における素性選択は本タスクにおいて有効であると考える.SVM との比較では,SVM のほうが適合率が高いが再現率が低いという結果となり, $\mathrm{F}$ 値はほぼ同じ結果となった. 隠れ層の数やエポック数の変化でも本手法とほぼ同じ結果となっており,機械学習に基づく手法では,手法の如何にかかわらず,この結果が上限であると考える。 図 6 議案が正しく変換できなかったテキストデータの例 ## 8 応用システム 評価の結果と考察を踏まえ, 特徴語の重みによる議案分類と抽出した議案タイトルを用いた議案分類を, 実際に運用できるシステム構築を行った. システムへのインプットは株主招集通知の PDF, アウトプットには議案のあるぺージ, 抽出した議案タイトル, 各手法の議案分類の結果, 分類の信頼度とする. 図 7 にシステムの構造を示す. ここで,信頼度とは,抽出したタイトルを用いた議案分類の結果の確からしさを示したものであり,值が 1 に近いほど議案分類の推定結果が正しいことを意味している.人が最終確認をする際に確認対象の判断を行うため, 抽出した議案タイトルを用いた議案分類の分類結果の信頼度を追加した。信頼度の計算は, Bayesian Biostatistics (Lesaffre and Lawson 2012)を参考にベイズ推定を利用した。 ## 8.1 ベイズ推定による信頼度の推定 ここで説明のため, 議案集合を $U$ とし, 抽出した議案タイトルによる分類結果 $\lceil t\rfloor$ が得られたときの事象を以下のように定義する. $A(t)$ : 議案分類は「t」である. $B(t)$ : 抽出した議案タイトルによる議案分類結果が「 $t$ 」であった. $C(m):$ 特徴語による議案分類が「 $m$ 」であった ${ }^{9}$. 図 7 システム構造 ^{9} m$ は $m=t$ でも可. また, 複数議案が選ばれることもある. 例 $: t=\lceil$ 定款変更 $\rfloor, m=\lceil$ 定款変更 $\rfloor$. } 高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム このとき求めたい信頼度は以下の式 12 で得られる。 $ P(A(t) \mid B(t), C(m))=\frac{P(B(t), C(m) \mid A(t)) P(A(t))}{\sum_{d \in U} P(B(t), C(m) \mid A(d)) P(A(d))} $ ベイズ推定では, $P(A(t) \mid B(t), C(m))$ を事後確率, $P(B(t), C(m) \mid A(t))$ を尤度, $P(A(t))$ を事前確率と呼ぶ. すなわち式 12 は, 元々の議案の出現確率に尤度をかけることで, $B(t), C(m)$ という根拠を加味した条件付き確率を得ることができる。しかし, 特徴語による議案分類は, 同ページに議案が複数ある場合, 複数の分類結果を返すため, 全パターンの尤度の計算はデータ数の関係もあり困難である。よって,事象を以下のように変更した。 $A:$ 議案分類は「 $t$ 」である. $\bar{A}: \quad$ 議案分類は「t」でない. $B :$ 抽出した議案タイトルによる議案分類結果が「 $t$ 」゙゙あった. $C:$ 特徴語による議案分類が「 $t$ 」を含む. $\bar{C}:$ 特徴語による議案分類が「 $t$ 」を含まない. よって先ほどの式 12 は式 13 のようになる 10. $ P(A \mid B, C)=\frac{P(B, C \mid A) P(A)}{P(B, C \mid A) P(A)+P(B, C \mid \bar{A}) P(\bar{A})} $ また, ベイズ流のアプローチは条件をひとつずつ加え, 事後確率を変化させていくのが基本となる。したがって,条件 $B$ を加えたことによって得られた事後確率を,更新された事前確率として条件 $C$ を加えたときに用いることで,最終的な事後確率を計算する ${ }^{11}$.これは, 事象 $B$ と事象 $C$ はマルコフ性のある確率過程であるという仮定に基づく. ## 8.1.1 条件 $B$ を加えた事後確率 $P(A \mid B)$ の算出 まずは事前確率 $P(A)$ に,条件 $B$ を加えた事後確率 $P(A \mid B)$ を求める必要がある, $P(A \mid B)$ はベイズの定理より以下の式 14 で求めることができる. $ P(A \mid B)=\frac{P(B \mid A) P(A)}{P(B \mid A) P(A)+P(B \mid \bar{A}) P(\bar{A})} $ これは議案タイトル抽出の議案分類の適合率の計算と同様であるため, 評価で得られた各議案の適合率を $P(A \mid B)$ として用いる。例えば,「定款変更」の事前確率 $P(A)$ は 0.133 であるが, べイズ更新によって事後確率 $P(A \mid B)$ は 0.9737 となる. ^{10} \bar{C}$ の場合もほぼ同様であるためここでは省略する。 11 これはべイズ更新と呼ばれる. } ## 8.1.2 条件 $C$ を加えた事後確率 $P(A \mid B, C)$ の算出 すでに条件 $B$ を加えたので,更新された事前確率 $P(A \mid B)$ を用いて $P(A \mid B, C)$ を求める. $P(A \mid B, C)$ はべイズの定理より以下の式 15 で求めることができる. $ P(A \mid B, C)=\frac{P(C \mid A, B) P(A \mid B)}{P(C \mid A, B) P(A \mid B)+P(C \mid \bar{A}, B) P(\bar{A} \mid B)} $ ここで,事象 $B$ は議案タイトルを用いた分類による分類結果,事象 $C$ は文中に出現した特徴語を用いた分類結果であるため, 分類に用いる情報源が異なることから,分類結果は独立であるという仮定の下,式 15 は以下の式 16 で表すことができる. $ P(A \mid B, C)=\frac{P(C \mid A) P(A \mid B)}{P(C \mid A) P(A \mid B)+P(C \mid \bar{A}) P(\bar{A} \mid B)} $ ここで, $P(A \mid B):$ 抽出した議案タイトルによる議案分類の適合率. $P(\bar{A} \mid B): \quad 1-P(A \mid B)$. $P(C \mid A):$ 特徴語による議案分類の再現率. $P(C \mid \bar{A}):$ 特徴語による議案分類の誤検知率 ${ }^{12}$. 同様に $P(A \mid B, \bar{C})$ も以下の式 17 で表すことができる. $ P(A \mid B, \bar{C})=\frac{P(\bar{C} \mid A) P(A \mid B)}{P(\bar{C} \mid A) P(A \mid B)+P(\bar{C} \mid \bar{A}) P(\bar{A} \mid B)} $ ここで, $P(\bar{C} \mid A): \quad 1-P(C \mid A)$. $P(\bar{C} \mid \bar{A}): \quad 1-P(C \mid \bar{A})$. ## 8.2 システムの実行例 株主招集通知の PDF ファイルをアップロードすると, ページ数, 議案番号, 議案タイトル,抽出した議案タイトルを用いた議案分類の結果, 特徵語を用いた議案分類の結果, 信頼度が画面に表示される. システムの実行結果の例を, 図 8 と図 9 に示す. 左上の「〜.pdf」のリンクをクリックすると,アップロードしたPDFファイルの閲覧が可能である。また,右の PDFのリンクをクリックすると, 該当ページの PDF ファイルを閲覧することが可能である. 図 9 の第 4 号議案の結果に注目すると, 抽出した議案タイトルを用いた分類では「取締役選  高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム ## サムコ PDF : 6387 1495247685.pdf & & 信頼度 & \\ 図 8 「サムコ」の株主招集通知をアップロードした出力結果 ## テクノメディカ PDF : 6678 1495247399.pdf & & 信頼度 & \\ 図 9 「テクノメディカ」の株主招集通知をアップロードした出力結果 任」となっているが,特徴語を用いた分類では「監査役選任」に分類結果となっている。ここで信頼度を見ると,抽出した議案タイトルによる分類結果である「取締役選任」は約 $96 \%$ の信頼度である。実際に確認したところ,真の分類は「取締役選任」だった。これは,「取締役選任」 の分類において, 抽出した議案タイトルを用いた手法は高い適合率を誇る一方で, 特徴語による議案分類は,「取締役選任」の再現率が低いため, 約 $96 \%$ の信頼度という結果が得られた.これは実際に人手で確認するとき,有用であると考えられる. ## 9 応用システムの評価 本応用システムによる業務の効率化を評価するために,実装した応用システムと従来の人手による作業の比較評価を行った。評価基準は実際の業務に基づいたデー夕収録にかかった時間と適合率・再現率とする。応用システムは,2つの議案分類手法を採用しているため 2 つ結果が得られるが,信頼度は抽出したタイトルを用いた議案分類の結果の確からしさを示したものであることから,適合率と再現率は抽出したタイトルを用いた議案分類の結果を用いた。 ## 9.1 評価方法 学習データとテストデータとは別に, 新たに 95 社分の株主招集通知を人手にて確認し, 実際の業務と同じ手順によりデータベースに収録した。その後チェックを行ったものを正解データとする。この 95 社分のデータを 1 社ずつ時間を計り収録する作業を, 12 人の方に行ってもらい, 12 人から得られた各 1 社ずつの収録時間の平均を算出した. 応用システムは 95 社分のデー タをアップロードし, 出力結果を $\operatorname{csv}$ ファイルでダウンロードし, データベースに収録するまでの時間を測定した。この時点までにかかった時間を測定し,収録されたデータがどのくらい正しく入力されているかを確認した. ## 9.2 収録時間 実装した応用システムの収録時間の結果と人手による収録時間の結果を表 16 に示す 13. ## 9.3 適合率・再現率 各作業者の適合率・再現率と応用システムの適合率・再現率を表 17 に示す. ## 9.4 考察 応用システムの実装によって, 当該部分の 1 社あたりにかかる処理時間は約 10 分の 1 となった。また, 適合率・再現率から明らかなように,人手による作業よりも高い精度で開始ぺージの推定と議案分類が実現できた. 応用システムは例外に対応できないことや $100 \%$ の正解率で議案の分類ができないため, この後の作業工程であるチェックの際に,人手で作成したデータよりも時間がかかると考えていた.しかし, 人手にて作成したデータは, 勘違いによるミスや誤分類が多く, 応用システムよ 表 16 収録にかかった時間の結果  高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム 表 17 収録されたデー夕の適合率・再現率 表 18 信頼度別応用システムの適合率 りも質の低い結果となっているため, 応用システム以上に時間をかける必要がある。また, この後のチェック段階において, 人手によるデータには信頼度はないため, 全収録データを複数人で確認する必要がある。しかし, 応用システムの信頼度が 0.9 を越えるものと下回るものに対しての議案数と適合率は表 18 のようになっており, 信頼度が 0.9 を下回るものに対しては複数人での確認が必要だが, 信頼度が 0.9 を越えるものに対しては一人が確認を行えば十分であると思われる。これにより, さらなる業務の効率化が期待される. ## 10 関連研究 本研究は, 金融テキストマイニング (和泉, 松井 2012 )の一環であるが, 関連研究として酒井らは, 企業の業績発表記事から業績要因を抽出し (Sakai and Masuyama 2008), 抽出した業績要因に対して業績に対する極性(「ポジティブ」,「ネガティブ」)を付与する手法 (Sakai and Masuyama 2009)や, 抽出される複数の業績要因から重要な業績要因を自動的に抽出する手法を提案している (酒井, 増山 2013). 更に, 酒井らは, 上記の手法 (Sakai and Masuyama 2008)を決算短信 PDF に適用し, 決算短信 PDF から, 例えば「半導体製造装置の受注が好調でした」の ような業績要因を含む文を抽出する手法を提案している (酒井, 西沢, 松並, 坂地 2015). その発展研究として北森らは, 決算短信 PDF からの業績予測文の抽出する手法を提案している (北森他 2017). 松田らは, 日本銀行政策委員会金融政策決定会合議事要旨のテキストデータから, トピック抽出の研究を行っている (松田, 岡石, 白田, 橋本, 佐倉 2014). それらの研究を踏まえ本研究では,株主招集通知のデータを扱う点や,トピックや業績要因の抽出ではなく,議案の開始ページの推定, 議案タイトルの抽出, その議案分類をする点が異なっている. 開始位置の推定に関する関連研究としては, XML ドキュメントを対象とした研究はあるが,株主招集通知を対象とし,議案ごとの開始ぺージを推定する研究はない (Kamps, Koolen, and Lalmas 2007). 機械学習による分類手法の比較に関しては数多くの論文が存在するが (Feldman and Sanger 2007; Li and Yamanishi 2017; Chen and Ho 2000; Zhang and Yang 2003), それらの論文のほぼすべてが手法の比較を行い,新規手法によって「適合率や再現率の改善が見られた」のような内容である。しかし,実際のシステムにおいては,一つの手法に依存するのは大変危険であるため(機械学習は過去のデータを学習データとすることから, 新規データの変化に弱いため), 複数の手法によって結果を出し, 統合した確からしさ(信頼度)をユーザーに与える必要がある.個々の手法の適合率や再現率を示しても,ユーザーはどの結果を信頼するべきか迷うため,結果の統合は価値があると考えられる。この結果の統合による信頼度の算出が本研究の特色の一つである.複数の分類手法の統合の関連研究としては, 線形結合による分類手法の統合を行っているが (Fumera and Roli 2005), 本研究ではべイズ推定を用いた確率的なアプローチを行っている. ## 11 まとめ 本研究では, 株主招集通知における議案の開始ページを推定し, その議案を分類する手法を提案した. 本研究により, 人手で株主招集通知から議案の開始ぺージを探しだし,分類をする作業時間を大幅に削減できた。議案の開始ページ推定は,議案がある開始ぺージには「議案」または「第 $X$ 号議案」が先頭に含まれるといった規則に基づく. 議案分類の推定は, 議案ごとの特徴語を抽出し, その特徴語のスコアに基づき分類する手法, 深層学習を用いた分類, 議案夕イトルを用いたキーワードによる分類, の 3 手法を用いた. 評価の結果, 特徴語による議案分類, 深層学習による議案分類, 抽出した議案タイトルを用いた議案分類, どの手法も良好な適合率,再現率を達成した。これらの結果を踏まえ,応用システムの実装により,株主招集通知の構造理解の習得が不要になると共に, 議案の開始ぺージの推定や議案内容が分類されることにより,当該部分の 1 社あたりにかかる処理時間が 10 分の 1 程度に短縮された. また,信頼度により, その後の作業工程であるチェックの時間も短縮されることが見込まれる. これらのこ 高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム とから, 理解の十分でない作業者の判断ミスや判断の摇れが減少し, 信頼度の高いデータ生成を支えることとなる。その結果, 収録に係る人件費の削減と,データベース化に伴うデータ収録の早期化をはかることができるであろう. ## 参考文献 Chen, H. and Ho, T. K. (2000). "Evaluation of Decision Forests on Text Categorization." In Proceedings of the 7th SPIE Conference on Document Recognition and Retrieval, pp. 191-199. Feldman, R. and Sanger, J. (2007). The Text Mining Handbook. Cambridge University Press. Fumera, G. and Roli, F. (2005). "A Theoretical and Experimental Analysis of Linear Combiners for Multiple Classifier Systems." IEEE Transactions on Pattern Analysis and Machine Intelligence, 27 (6), pp. 942-956. Glorot, X., Bordes, A., and Bengio, Y. (2011). "Deep Sparse Rectifier Neural Networks." In Proceedings of the 14th International Conference on Artificial Intelligence and Statistics, pp. 315-323. 和泉潔, 後藤卓, 松井藤五郎 (2011). 経済テキスト情報を用いた長期的な市場動向推定. 情報処理学会論文誌, 52 (12), pp. 3309-3315. 和泉潔, 松井藤五郎 (2012). 金融テキストマイニング研究の紹介. 情報処理, 53 (9), pp. 321-332. Kamps, J., Koolen, M., and Lalmas, M. (2007). "Unsupervised Word Sense Disambiguation Rivaling Supervised Methods." In Proceedings of the 30th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 723-724. 北森詩織, 酒井浩之, 坂地泰紀 (2017). 決算短信 PDF からの業績予測文の抽出. 電子情報通信学会論文誌 D, J100-D (2), pp. 150-161. Lesaffre, E. and Lawson, A. B. (2012). Bayesian Biostatistics. John Wiley \& Sons. Li, H. and Yamanishi, K. (2017). "Text Classification Using ESC-based Stochastic Decision Lists." Information Proceedings and Management, 38 (3), pp. 343-361. 松田安咲子, 岡石一真, 白田由香利, 橋本隆子, 佐倉環 (2014). LDA 方式による金融経済月報からのトピック抽出〜第 2 次安倍内閣の金融政策と経済動向分析〜. 信学技報, $114(204)$, pp. 79-84. Peramunetilleke, D. and Wong, R. K. (2002). "Currency Exchange Rate Forecasting from News Headlines." In Proceedings of the AAAI Spring Symposium on Exploring At titude and Affect in Text, pp. 131-139. Sakai, H. and Masuyama, S. (2008). "Cause Information Extraction from Financial Articles Concerning Business Performance." IEICE Transactions Information and Systems, E91-D (4), pp. 959-968. Sakai, H. and Masuyama, S. (2009). "Assigning Polarity to Causal Information in Financial Articles on Business Performance of Companies." IEICE Transactions Information and Systems, E92-D (12), pp. 2341-2350. 酒井浩之, 増山繁 (2013). 企業の業績発表記事からの重要業績要因の抽出. 電子情報通信学会論 文誌 D, J96-D (11), pp. 2866-2870. 酒井浩之, 西沢裕子, 松並祥吾, 坂地泰紀 (2015). 企業の決算短信 PDF からの業績要因の抽出. 人工知能学会論文誌, J98-D (5), pp. 172-182. 坂地泰紀, 酒井浩之, 増山繁 (2015). 決算短信 PDF からの原因・結果表現の抽出. 電子情報通 信学会論文誌 D, J98-D (5), pp. 811-822. Vapnik, V. (1999). Statistical Learning Theory. Wiley. Zhang, J. and Yang, Y. (2003). "Robustness of Regularized Linear Classification Methods in Text Categorization." In Proceedings of the 26th Annual International ACM SIGIR Conference on Research and Development in Informaion Retrieval, pp. 190-197. ## 略歴 高野海斗:2013 年成蹊大学理工学部情報科学科入学. 2016 年成蹊大学大学院理工学専攻理工学研究科入学. 在学中は, 統計学, 特に, 欠測デー夕解析, 集計データ解析の研究と, 自然言語処理, 特に, 言語情報を用いたデー夕の自動分類の研究に従事. 日本計算機統計学会学生会員. 酒井浩之:2005 年豊橋技術科学大学大学院工学研究科博士後期課程電子 ・ 情報工学専攻修了. 博士 (工学). 2005 年豊橋技術科学大学知識情報工学系助手. 2012 年成蹊大学理工学部情報科学科講師. 2014 年成蹊大学理工学部情報科学科准教授. 自然言語処理, 特に,テキストマイニング,テキスト自動要約の研究に従事. 人工知能学会, 言語処理学会, 電子情報通信学会, 情報処理学会等会員. 坂地泰紀:2012 年豊橋技術科学大学大学院工学研究科博士後期課程電子・情報工学専攻修了. 博士 (工学)。2012 年株式会社ドワンゴ入社. 2013 年成蹊大学理工学部情報科学科助教. 2017 年東京大学大学院工学系研究科システム創成学専攻助教. 自然言語処理, 特に, テキストマイニングの研究に従事. 人工知能学会, 電子情報通信学会, 言語処理学会等会員. 和泉潔:1998 年東京大学大学院総合文化研究科広域学専攻博士課程修了.博士 (学術). 同年より 2010 年まで, 電子技術総合研究所(現産業技術総合研究所)勤務. 2010 年より東京大学大学院工学系研究科システム創成学専攻 高野, 酒井, 坂地, 和泉, 岡田, 水内株主招集通知における議案タイトルとその分類及び開始ページの推定システム 准教授. 2015 年より同教授. マルチエージェントシミュレーション, 特に社会シミュレーションに興味がある. IEEE,人工知能学会, 情報処理学会, 電子情報通信学会会員. 岡田奈奈:株式会社日経リサーチ企業情報部長. 1997 年入社. 企業調査部,企業経営研究部など企業に係る各種情報に関するデー夕収集・収録関連業務,従業員満足度ほか企業・病院等の評価軸の分析等に従事. 分析評価に使用可能な企業データベースの構築に長年従事し,構築に係る運用設計を担当. 2017 年より現職. 水内利和:株式会社日経リサーチ企業情報部所属. 会計事務所勤務を経て, 2000 年入社, 企業財務部で有価証券報告書, 決算短信などの主に企業の財務諸表等の情報のデータ収録関連業務に従事. 2007 年より部内で使用するシステムの開発にも従事。2015 年から 2 年間システム統括室と兼務. 2017 年 1 月より企業情報部のみの所属となる。近年は主にスケジュール管理等の管理系,資料 PDF やXBRL を活用しての社内的なシステム開発に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 正誤情報と文法誤りパターンを考慮した単語分散表現を 用いた文法誤り検出 \author{ 金子正弘 ${ }^{\dagger}$ 堺澤勇也 } 本稿では, 文法誤り検出のための正誤情報と文法誤りパターンを考慮した単語分散表現の学習手法を提案する。これまでの文法誤り検出で用いられている単語分散表現の学習では文脈だけをモデル化しており,言語学習者に特有の文法誤りを考慮していない,そこで我々は,正誤情報と文法誤りパターンを考慮することで文法誤り検出に特化した単語分散表現を学習する手法を提案する。正誤情報とは, n-gram 単語列内のターゲット単語が誤っているのか正しいのかというラベルである. これは単語単位の誤りラベルを元に決定される,誤りパターンとは,学習者が誤りやすい単語の組み合わせである。誤りパターンは大規模な学習者コーパスから単語分散表現の学習のために抽出することが可能である。この手法で学習した単語分散表現で初期化した Bidirectional Long Short-Term Memoryを分類器として使うことで, First Certificate in Englishコーパスに対する文法誤り検出において世界最高精度を達成した. キーワード:学習者支援, 文法誤り検出, 単語分散表現, 深層学習 ## Grammatical Error Detection Using Error- and Grammaticality-Specific Word Embeddings \author{ Masahiro Kaneko $^{\dagger}$, Yuya Sakaizawa ${ }^{\dagger}$ and Mamoru Komachi ${ }^{\dagger}$ } In this study, we improve grammatical error detection by learning word embeddings that consider grammaticality and error patterns. Most existing algorithms for learning word embeddings usually model only the syntactic context of words and do not consider grammatical errors specific to language learners. Therefore, we propose methods to learn word embeddings specialized for grammatical errors by considering grammaticality and grammatical error patterns. We determine grammaticality of n-gram sequence from the annotated error tags and extract grammatical error patterns for word embeddings from large-scale learner corpora. Experimental results show that a bidirectional long-short term memory model initialized by our word embeddings achieved the state-of-the-art accuracy by a large margin in an English grammatical error detection task on the First Certificate in English dataset. Key Words: Educational Application, Grammatical Error Detection, Word Embedding, Deep Learning  ## 1 はじめに 作文中における誤りの存在や位置を示すことができる文法誤り検出は, 第二言語学習者の自己学習と語学教師の自動採点支援において有用である。一般的に文法誤り検出は典型的な教師あり学習のアプローチによって解決可能な系列ラベリングのタスクとして定式化できる。例えば, Bidirectional Long Short-Term Memory (Bi-LSTM) を用いて英語の文法誤り検出の世界最高精度を達成している研究 (Rei and Yannakoudakis 2016) がある. 彼らの手法は, 言語学習者コーパスがネイテイブが書いた生コーパスと比較してスパースである問題に対処するために,事前に単語分散表現を大規模なネイティブコーパスで学習している. しかし, Rei と Yannakoudakis の研究を含む多くの文法誤り検出の研究において用いられている分散表現学習のアルゴリズムのほとんどは, ネイティブコーパスにおける単語の文脈をモデル化するだけであり, 言語学習者に特有の文法誤りを考慮していない。一方で, 単語分散表現に言語学習者に特有の文法誤りを考慮することは,より文法誤り検出に特化した単語分散表現を作成可能であり有用であると考えられる。 そこで, 我々は文法誤り検出における単語分散表現の学習に正誤情報と文法誤りパターンを考慮する 3 つの手法を示す.ただし, 3 つ目の手法は最初に提案する 2 つの手法を組み合わせたものである. 1つ目の手法は, 学習者の誤りパターンを用いて単語分散表現を学習する Error specific word embedding (EWE) である。具体的には, 単語列中のターゲット単語と学習者がターゲット単語に対して誤りやすい単語を入れ替え負例を作成することで, 正しい表現と学習者の誤りやすい表現が区別されるように学習する. 2 つ目の手法は, 正誤情報を考慮した単語分散表現を学習する Grammaticality specific word embedding (GWE) である。単語分散表現の学習の際に,n-gram の正誤ラベルの予測を行うことで,正文に含まれる単語と誤文に含まれる単語を区別するように学習する。この研究において, 正誤情報とは周囲の文脈に照らしてターゲット単語が正しいまたは間違っているというラベルとする. 3つ目の手法は, EWEとGWEを組み合わせた Error \& grammaticality specific word embedding (E\&GWE)である. E\&GWE は正誤情報と誤りパターンの両方を考慮することが可能である. 本研究における実験では, 英語学習者作文の文法誤り検出タスクにおいて, E\&GWEで学習した単語分散表現で初期化したBi-LSTM を用いた結果, 世界最高精度を達成した. さらに, 我々は大規模な英語学習者コーパスである Lang-8 (水本, 小町, 永田, 松本 2013) を使った実験も行った。 その結果, 文法誤り検出においてノイズを含むコーパスからは誤りパターンを抽出して学習することが有効であることが示された. 本研究の主要な貢献は以下の通りである. - 正誤情報と文法誤りパターンを考慮する提案手法で単語分散表現を初期化した Bi-LSTM を使い, First Certificate in English (FCE-public) コーパス (Yannakoudakis, Briscoe, and Medlock 2011) において世界最高精度を達成した。 - FCE-public と NUCLE データ (Dahlmeier, Ng, and Wu 2013) に Lang-8 から抽出した誤りパターンを追加し, 単語分散表現を学習することで文法誤り検出の精度が大幅に向上することを示した。 ・ 実験で使用したコードと提案手法で学習された単語分散表現を公開した11. 本稿ではまず第 2 章で英語学習者作文における文法誤り検出に関する先行研究を紹介する. 第 3 章では従来の単語分散表現の学習方法について述べる。次に,第 4 章では提案手法である正誤情報と誤りパターンを考慮した単語分散表現の学習モデルについて説明する。そして第 5 章では FCE-public と NUCLE の評価データである CoNLL データセットを使い提案手法を評価する. 第 6 章では文法誤り検出モデルと学習された単語分散表現における分析を行い,最後に第 7 章でまとめる. ## 2 先行研究 文法誤り検出の研究の多くは前置詞の正誤 (Tetreault and Chodorow 2008), 冠詞の正誤 (Han, Chodorow, and Leacock 2006) や形容詞と名詞の対の正誤 (Kochmar and Briscoe 2014)のように特定のタイプの文法誤りに取り組むことに焦点が当てられている。一方で,特定のタイプの文法誤りではなく文法誤り全般に取り組んだ研究は少ない. Rei と Yannakoudakis (2016)は, word2vec を埋め込み層の初期値とした双方向の Bi-LSTM を提案し,FCE-public に対して全ての誤りを対象とする文法誤り検出タスクにおいて現在世界最高精度を達成している,我々も全ての文法誤り検出タスクの手法に取り組むが,正誤情報や学習者の誤りパターンを考慮した単語分散表現を使う。 誤りパターンを考慮した研究としては, Sawai, Komachi, and Matsumoto (2013) の学習者誤りパターンを用いた動詞の訂正候補を提案する手法や, Liu, Han, Li, Stiller, and Zhou (2010) の類義語辞書および英中対訳辞書から作成した誤りパターンを元に中国人英語学習者作文の動詞置換誤りを自動訂正する手法がある。これらの研究とは,動詞置換誤りだけを検出対象としている点が異なり,Liuらの研究に関しては,我々が学習者コーパスから誤りパターンを作成している点が異なる。 正誤情報のような正解ラベルを考慮した単語分散表現を学習する研究としては, 英語学習者作のスコア予測タスクにおいて Alikaniotis, Yannakoudakis, and Rei (2016) は, 各単語の作文 ^{1}$ https://github.com/kanekomasahiro/grammatical-error-detection } スコアへの影響度を学習することによって単語分散表現を構築するモデルを提案した. 具体的には,スコア予測により特定の単語の作文スコアに対する影響度を学習し, 作成した負例とのランキングにより文脈を学習する。この研究では平均 2 乗誤差を用いて文書レベルのスコアから単語埋め込みを学習する。一方で, 我々の研究ではヒンジ損失を用いて単語レベルの 2 值誤り情報から単語埋め込みを学習する。 大規模な言語学習者コーパスである Lang-8を用いた文法誤り訂正の研究として, 統計的機械翻訳手法 (Xie, Avati, Arivazhagan, Jurafsky, and Ng 2016)とニューラルネットワークを用いた同時解析モデル (Chollampatt, Taghipour, and Ng 2016b) などがある. 我々の研究では上記の研究のように Lang-8を直接学習データとして使うのではなく, Lang-8 から文法誤りパターンを抽出し単語分散表現の学習に使用した. Lang-8を直接学習データとして使った LSTMベースの分類器では期待するような結果は得られなかったが, 誤りパターンとして有益な情報を抽出することで文法誤り検出の精度を向上させることが可能であることを示す. ## 3 単語分散表現学習の従来手法: C\&W Embedding 本研究での提案手法は Collobert と Weston (2008) の研究を正誤情報と誤りパターンを考慮できるように拡張している。そのため,まず初めに C\&W の単語分散表現学習について説明する. C\&W は局所的な文脈を元にターゲット単語の分散表現を学習するための n-gram べースのニューラルネットワーク手法である。具体的には, サイズ $n$ の単語列 $S=\left(w_{1}, \ldots, w_{t}, \ldots, w_{n}\right)$中のターゲット単語 $w_{t}$ の表現を同じ単語列に存在する他の単語 $\left(\forall w_{i} \in S \mid w_{i} \neq w_{t}\right)$ を元に学習する,分散表現を学習するために,モデルはターゲット単語 $w_{t}$ を語彙 $V$ からランダムに選択した単語と入れ替えることにより作成した負例 $S^{\prime}=\left(w_{1}, \ldots, w_{c}, \ldots, w_{n} \mid w_{c} \sim V\right)$ と $S$ を比較する. そして, 負例 $S^{\prime}$ とともとの単語列 $S$ を別するように学習する。単語列の単語を埋め达み層でベクトルに変換し, 単語列 $S$ と負例 $S^{\prime}$ モデルに入力する.変換されたそれぞれのべクトルを連結し入力べクトル $x \in \mathbb{R}^{n \times D}$ とする. $D$ は各単語の埋め达み層の次元数である. そして, 入力ベクトル $x$ は線形変換式 (1) に渡される。 その後, 隠れ層のべクトル $i$ は線形変換式 (2) に渡され, 出力 $f(x)$ を得る. $ \begin{aligned} i & =\sigma\left(W_{h i} x+b_{h}\right) \\ f(x) & =W_{o h} i+b_{o} \end{aligned} $ $W_{h i}$ は入力ベクトルと隠れ層の間の重み行列, $W_{o h}$ は隠れ層のベクトルと出力層の重み行列, $b_{o}$ と $b_{h}$ はそれぞれバイアス, $\sigma$ は要素ごとの非線形関数 $\tanh$ である. このモデルは正しい単語 ることで分散表現を学習する。そして式 (3) によって正しい単語列とノイズを含む単語列の差が少なくとも 1 になるように最適化される. $ \operatorname{loss}_{\text {context }}\left(S, S^{\prime}\right)=\max \left(0,1-f(x)+f\left(x^{\prime}\right)\right) $ $x^{\prime}$ は負例 $S^{\prime}$ の単語 $w_{c}$ を埋め达み層で変換されたべクトルに変換することで得られた值である. $1-f(x)+f\left(x^{\prime}\right)$ の結果と 0 を比較し, 大きい方の値を誤差とする. ## 4 正誤情報と誤りパターンを考慮した単語分散表現 この章では提案手法である EWE, GWE と E\&GWEにおける単語分散表現の学習方法について詳しく述べていく. ## 4.1 文法誤りパターンを考慮した表現学習 (EWE) EWE は, C\&W Embedding と同じモデルで単語分散表現を学習する。ただし,負例をランダムで作成するのではなく, 学習者がターゲット単語 $w_{t}$ に対して誤りやすい単語 $w_{c}$ と入れ替えることで作成する。こうすることで,学習者の誤りパターンを考慮して負例を作成し,ター ゲット単語の分散表現が誤りやすい単語と区別されるように学習される。学習の際, $w_{c}$ は条件付き確率 $P\left(w_{c} \mid w_{t}\right)$ によりサンプリングされる. $ P\left(w_{c} \mid w_{t}\right)=\frac{\left|w_{c}, w_{t}\right|}{\sum_{w_{c}{ }^{\prime}}\left|w_{c^{\prime}}, w_{t}\right|} $ ここで $w_{t}$ はターゲット単語, $w_{c}^{\prime}$ は $w_{t}$ と対応する $w_{c}$ の集合である. 学習者の誤りパターンとして,学習者コーパスから抽出した誤りの訂正前の単語に対して誤りの訂正後の単語を入れ替え候補とする。図 1(a)はEWEの表現学習におけるネットワーク構造を示している. ## I think I can win this price/* prize. 上の文は FCE-public のテストデータに含まれている文である。この文では, price が誤りで prize が正しい単語である。この場合, $w_{t}$ は price であり $w_{c}$ が prizeである.今回の実験では, 1 対 1 の誤りパターンのみを使用する. 一方,入れ替え候補を学習者が誤りやすい単語にすることで,入れ替え候補がない単語や頻度の少ない単語で文脈を適切に学習できないという問題が生じる。この問題を word2 vec を使い事前学習したべクトルを単語それぞれの初期値とすることで解決する。文脈が既に学習されたベクトルをファインチューニングすることで,入れ替え候補がない単語や少ない単語も文脈を学習することが可能になる。 (a) (b) 図 1 単語分散表現を学習する提案手法 (a) EWE (b) GWE の構造. 両方のモデルは window サイズの単語列の単語ベクトルを結合し隠れ層に入力している。その際, EWEの出力はスカラー値であり, GWE の出力はスカラー値と単語列の中央単語のラベルである. ## 4.2 正誤情報を考慮した表現学習 (GWE) Alikaniotis ら (2016)の作文スコア予測のように,C\&W Embeddingをそれぞれの単語の局所的な言語情報だけでなく, ターゲット単語がどれだけ単語列の正誤ラベルに貢献しているかを考慮して学習するように拡張する。 図 1(b) は GWEの表現学習のネットワーク構造を示している。単語の正誤情報を分散表現に含めるために, 我々は単語列の正誤ラベルを予測する出力層を追加し,式 (3)を 2 つの出力の誤差関数から構成されるように拡張する. $ \begin{aligned} f_{\text {grammar }}(x) & =W_{\text {oh } 1} i+b_{o 1} \\ y & =\operatorname{softmax}\left(f_{\text {grammar }}(x)\right) \\ \operatorname{loss}_{\text {predict }}(S) & =-\sum \hat{y} \cdot \log (y) \\ \operatorname{loss}_{\text {overall }}\left(S, S^{\prime}\right) & =\alpha \cdot \operatorname{loss}_{\text {context }}\left(S, S^{\prime}\right)+(1-\alpha) \cdot \operatorname{loss}_{\text {predict }}(S) \end{aligned} $ 式 (5) の $f_{\text {grammar }}$ は, 単語列 $S$ のラベルの予測值である。式 (6)のように, $f_{\text {grammar }}$ に対してソフトマックス関数を用いて予測確率 $y$ を計算する。式 (7) で交差エントロピー関数を用い 誤差関数の重み付けを決定するハイパーパラメータである. 我々は, 学習のための単語列の正誤情報として FCE-publicにもともと付けられている正誤の 2 値ラベルを用いた. Lang-8に関しては動的計画法を使い夕グ付けを行った. GWEの負例は, $\mathrm{C} \& \mathrm{~W}$ と同様にランダムに作成されている. ## 4.3 誤りパターンと正誤情報を考慮した表現学習 (E\&GWE) E\&GWE は, EWEと GWEを組み合わせたモデルである。具体的には,E\&GWE モデルは負例をEWEのように誤りパターンから作成し,GWEのようにスコアと正誤の予測を行う. ## 5 文法誤り検出の実験設定 我々は分類器と単語分散表現のための学習データとして, FCE-public 学習デー夕, NUCLE データと Lang-8を用いる。そして, テストデータとして FCE-public テストデータと CoNLL-14 (Ng, Wu, Briscoe, Hadiwinoto, Susanto, and Bryant 2014)テストデータを用いる。表 1 はそれぞれのコーパスの統計情報を示している。我々の文法誤り検出では FCE-public, NUCLE, CoNLL と同様に, ある程度英文が書けるような上級レべルの英語学習者を対象にしている². 一方で, Lang-8にはさまざまなレべルの英語学習者が含まれている。開発データはそれぞれ FCE-public 開発データと CoNLL-13 (Dahlmeier et al. 2013) 開発データとする. 単語の削除誤りに関しては,削除誤りの直後の単語に誤りタグを付けた。過学習を防ぐために,学習データ上で頻度が 1 の単語を未知語とした。 我々はまず単語分散表現の学習について, 提案手法 (EWE, GWE と E\&GWE) と既存手法 (word2vec と C\&W)を比較する。そのために, 従来手法と提案手法それぞれの単語分散表現で初期化された分類器 Bi-LSTM を FCE-public の学習データを使って学習し, 文法誤り検出を行った. FCE-public データセット. FCE-public データセットは文法誤り訂正における最も有名な英語学習者コーパスの 1 つである. このコーパスには上級レベルで英語を評価する First Certificate 表 1 コーパスの統計情報  in English (FCE) 試験を受けた英語学習者によって書かれた作文が含まれている. そして, 文法誤りの種類に基づいてタグ付けがされている。我々は公式に分割されたコーパスを使用した:学習データ 30,953 文, テストデータ 2,720 文と開発デー夕 2,222 文である. FCE-public では,誤りパターンのターゲット単語として 4,184 単語が含まれている。 入れ替え候補としては 9,834 トークン,6,420タイプが含まれている. $N U C L E$ と $C o N L L$. 提案手法による誤り検出精度の向上を FCE-public だけではなく他のデータでも検証するために, CoNLL-13 (Dahlmeier et al. 2013), CoNLL-14 (Ng et al. 2014)の共通タスクのデータと NUS Corpus of Learner English (NUCLE) (Dahlmeier et al. 2013) を用いる. NUCLE は英語学習者であるシンガポールの大学の学生によって書かれた 1,414 個の作文が含まれている。作文のテーマとしては環境污染や健康問題などがある. 含まれている文法誤りは,英語を母語とするプロの英語教師によって訂正とアノテーションがされている. 学習データとして NUCLE の 57,151 文, 開発データとして CoNLL-13 の 1,381 文そしてテストデータとして CoNLL-14の 1,312 文を用いる。誤りパターンのターゲット単語として 6,204 単語が含まれている。入れ替え候補としては13,617トークン,9,249 タイプが含まれている。誤った文に対して動的計画法により正誤のタグ付けを行った. Lang-8コーパス. さらに, 我々は単語分散表現の学習のために大規模な英語学習者コーパス Lang-8 を FCE-public と NUCLE に追加し使う. その際, 分類器 Bi-LSTM の学習には FCEpublic と NUCLEだけをそれぞれの実験で使う,Lang-8コーパスには,英語学習者によって書かれた英文を人手でタグ付けした 100 万文以上のデータがある.Lang-8を単語分散表現の学習に使うのは,大規模データにおける提案手法の効果について調べるためである. Lang-8 は大規模な学習者コーパスであるが,専門家がアノテートしているわけではないため訂正されていない箇所が正用例と判断された結果訂正されていないとは限らず,単にアノテー ションされていない場合もあるというノイズが含まれている (水本他 2013). 専門家にアノテー トされているコーパスであれば教育的観点から意図的に誤りを訂正しなかった場合も考えられるが,Lang-8では意図しているのか意図していないのか区別することができない. 一方で,訂正された箇所は正しい可能性が高いという特徵がある. そのため我々は, Lang-8を直接学習データとして用いるより誤りパターンを抽出し単語分散表現を学習したほうが文法誤り検出の精度が向上するのではないかと考え, これについても調査を行った. Lang-8 は誤りパターンのターゲット単語として10,372 タイプが含まれている. そして,入れ替え候補として272,561トークン,61,950 タイプが含まれている. ## 5.1 動的計画法を用いたタグ付け FCE-public はもともとデータに正誤夕グが付与されているが NUCLE, CoNLL と Lang-8 には付与されていない. そのため, 誤文に対しては動的計画法を用いて原文と正解文の単語のア ライメントを取り正誤タグの付与を行う。一致にはスコア 1 をえ, 不一致と対応する単語がない場合にはスコア 0 を各単語に与える。各単語単位のスコアを足し合わせアライメントのスコアを計算し, Viterbi アルゴリズムでスコアが最大となるアライメントを求める。得られたアライメント結果を元に, 対応する単語が不一致またはない場合は誤用タグを付与し, 一致だった場合は正用タグを付与する。 ## 5.2 評価尺度 先行研究 (Rei and Yannakoudakis 2016)のように, 我々はメインの評価手法として $F_{0.5}$ を使う。 $ F_{0.5}=\left(1+0.5^{2}\right) \cdot \frac{\text { precision } \cdot \text { recall }}{0.5^{2} \cdot \text { precision }+ \text { recall }} $ この評価尺度は, 誤り訂正タスクの CoNLL-14の共通タスクでも用いられている (Ng et al. 2014). $F_{0.5}$ は precision と recall の両方の組み合わせであり, precisionに 2 倍の重みを割り当てている. なぜなら, 誤り検出においては正確なフィードバックがカバレッジより重要であるからである (Nagata and Nakatani 2010). ## 5.3 単語分散表現 先行研究 (Rei and Yannakoudakis 2016) で用いられていた単語分散表現と揃え, C\&W, EWE, GWE と E\&GWE の埋め込み層の次元数は 300 とし, 隠れ層の次元数は 200 とした. 単語分散表現の事前学習で用いられる word2vec (Chelba, Mikolov, Schuster, Ge, Brants, Koehn, and Robinson 2013) として Google News33からクロールしたデータから学習したモデルを用いる. 単語列の長さは 3 , 予備実験により単語列から作成する負例は 600 , 式 (8) の線形補間の $\alpha$ は 0.03 , パラメータの初期学習率は 0.001 とし, ADAM アルゴリズム (Kingma and Ba 2015) によって最適化した。そしてGWEの初期値はランダムとし, EWE は事前学習された word2vec を初期値にした。 Lang-8 から誤りパターンを抽出した実験では,単語分散表現の学習のために FCE-public と Lang-8の学習データを組み合わせて誤りパターンとした. しかしながら, Lang-8の誤りパター ンの数が FCE-public と比較して非常に多いため, 我々はそれぞれの頻度の比率が 1 対 1 となるよう正規化した。単語分散表現を学習するために Lang-8 から誤りパターンを抽出する負例作成の過程は以下の通りである: (1) 動的計画法を使い正しい文と誤った文から単語のペアを抽出する. (2) 抽出された単語のペアがFCE-public によって抽出された語彙に含まれていた場合誤りパターンとする。 ^{3}$ https://github.com/mmihaltz/word2vec-GoogleNews-vectors } ## 5.4 分類器 EWE,GWE と E\&GWE を Bi-LSTM を用いた文法誤り分類器の単語分散表現の初期値として使用し,入力文中の単語の正誤の予測を行う,Bi-LSTM はこのタスクにおいて Conditional Random Field (CRF) や Convolutional Neural Networks (CNN) などの他のモデルと比較して高い精度(世界最高精度)を出しており, Rei と Yannakoudakisの研究でも用いられている。彼らの Bi-LSTM は隠れ層と出力層の間に線形変換を行う追加の隠れ層が導入されている. ネットワークおよびパラメータの設定は, word2vec を初期値にした Bi-LSTM を使った先行研究 (Rei and Yannakoudakis 2016) と同じ設定である. 具体的には, 埋め込み層の次元数は 300 とし, 隠れ層の次元数は 200 とし, 隠れ層と出力層の間の隠れ層の次元数は 50 とした。初期学習率を 0.001 とした。そして, ADAM アルゴリズム (Kingma and Ba 2015) で,バッチサイズを 64 文として最適化した. ## 6 文法誤り検出の実験結果 ## 6.1 FCE-public と NUCLE を用いた実験結果 表 2 は,Bi-LSTMを 2 つのベースラインで初期化したモデル(FCE + word2vec, FCE + $\mathrm{C} \& \mathrm{~W}, \mathrm{NUCLE}+$ word2vec と NUCLE $+\mathrm{C} \& \mathrm{~W})$ と提案手法を使ったモデル(FCE + EWE, FCE + GWE, FCE + E\&GWE, NUCLE + EWE, NUCLE + GWE と NUCLE + E\&GWE) の FCE-public と NUCLE を用いて学習した誤り検出の結果である. アスタリスクは Precision, Recall と $F_{0.5}$ のそれぞれが FCE + word2vec ((R\&Y 2016)の再実装) または NUCLE + word2vec 表 2 上表は FCE-public だけ,下表は NUCLE だけで学習された Bi-LSTM と単語分散表現のそれぞれのテストデータにおける誤り検出精度 に対して有意水準 0.05 で有意差があることを示す. FCE-public で学習したモデルは FCE-public のテストデータを使い, NUCLEで学習したモデルは CoNLL-14 (Ng et al. 2014) のテストデー 夕を使い評価した. FCE + word2vecに関しては 2 つのモデルがある. FCE + word2vec (R\&Y 2016) は先行研究 (Rei and Yannakoudakis 2016) で報告されている值である. FCE + word2vec ((R\&Y 2016)の再実装)は先行研究の再実装の結果である. NUCLE + E\&GWE と FCE + E\&GWE は,それぞれのコーパスの EWE とGWEを組み合わせためモデルである. まず, ベースラインと提案手法(FCE + EWE, FCE + GWE, NUCLE + EWEと NUCLE $+\mathrm{GWE} ) を$ 比較すると, 一貫して精度が向上していることがわかる.このことから, 誤りパターンと正誤情報を考慮する提案手法が文法誤り検出では有効であることがわかる。さらに, 2 つの手法を組み合わせた FCE + E\&GWEと NUCLE + E\&GWEのほうが EWE と GWE それぞれを単体で使ったモデルより高い精度を出している。このことから,EWEと GWEを組み合わせることが有効であることがわかる. ## 6.2 Lang-8を用いた実験結果 Lang-8を直接学習データとして用いるより誤りパターンを抽出し単語分散表現を学習したほうが文法誤り検出の精度が向上につながることを検証するために, 以下の 2 つの設定で比較する:(1) FCE-public と NUCLE それぞれの誤りパターンに Lang-8 から抽出した誤りパター ンを追加する。そして,誤りパターンを用いて学習された単語分散表現によって初期化された Bi-LSTM を FCE-public と NUCLEのそれぞれだけを使い学習する(FCE + EWE-L8, FCE + E\&GWE-L8, NUCLE + EWE-L8 と NUCLE + E\&GWE-L8, 表 3);(2) word2vec で初期化 Bi-LSTM の学習データとして FCE-public と NUCLE のそれぞれに直接 Lang-8 を追加する (FCE\&L8 + W2V と NUCLE\&L8 + W2V , 表 3). 表 3 は Lang-8を学習データに追加した文法誤り検出の結果である。アスタリスクは Precision, Recall と $F_{0.5}$ のそれぞれが FCE + word2vec ((R\&Y 2016)の再実装)または NUCLE + word2ve に対して有意水準 0.05 で有意差があることを示す. その際, 我々はウィルコクソンの符号順位検定 $(p \leq 0.05)$ を 5 回行った. 表 3 大規模な Lang-8 コーパスを追加で使い Bi-LSTM か単語分散表現のどちらかを学習した場合の FCE-public または NUCLE のテストデータにおける誤り検出精度 表 2 と表 3 から, Precision, Recall と $F_{0.5}$ に関してそれぞれの手法を以下のようにランク付けすることができる:(FCE, NUCLE) + E\&GWE-L8 > (FCE, NUCLE) + EWE-L8 > (FCE, NUCLE $)+$ E\&GWE $>$ (FCE, NUCLE $)+$ GWE $>($ FCE, NUCLE $)+$ EWE $>$ (FCE, NUCLE $)$ + word2vec > (FCE, NUCLE $)+\mathrm{C} \& \mathrm{~W}$. 文法誤り検出において誤りパターンと正誤情報を考慮することで一貫して精度が向上している。このことから,提案手法が文法誤り検出では有効であることがわかる。 そして,我々の提案手法は Lang-8コーパスを使うことなく先行研究と比較して統計的有意差がある。我々の提案手法は FCE-public において全ての評価尺度において世界最高精度である Rei と Yannakoudakisの先行研究を上回った。そして, FCE\&L8 + word2vec と FCE + EWE-L8 の結果から, 直接分類器の学習データとして使うより誤りパターンとして抽出し使うほうが良いことがわかる。これは Lang-8の正しい文にノイズが多く含まれているためと考えられる.Lang-8のような専門家がアノテートしたわけではないノイズを多く含むコー パスを直接学習データとして使わず,大規模である利点を活かし多様な誤りパターンを抽出するために使う。そして, FCE-public や NUCLEのような小規模ではあるが専門家がアノテートしたコーパスを専門家のアノテーションの特徴を捉えた質の高い学習をするために使う。これにより,それぞれのコーパスの利点を活かした学習を行うことができていると言える。そして,上記の実験から GWE と組み合わせることでさらに精度が向上することがわかる. ## 7 考察 それぞれの手法ごとにどのような違いがあるかを調べるために, 誤りタイプごとの正解数について見ていく.表4は,FCE-publicのテストデータにおけるそれぞれのモデルの誤りタイプごとの正解数と正解率を示している。ここでは, 比較対象のモデル同士でもっとも誤りタイプの正解数の差が大きかった 2 つの誤りタイプを上げている. 従来手法と提案手法, Lang-8ありの提案手法と Lang-8なしの提案手法を比較した。誤りタイプは FCE-public にもともと付与さ 表 4 誤りタイプごとの正解数と正解率 れていた正解ラベルを用いる ${ }^{4}$. まず,従来手法と提案手法で最も正解数が異なる,動詞置換誤りと限定詞欠損誤りについて分析する(表 4 の(a)と (b)). 動詞置換誤りに関しては提案手法の正解数が多い. 一方で, 限定詞欠損誤りに関してはベースラインである FCE + word2vec と FCE + C\&W のほうが正解数が多い,提案手法のほうが限定詞欠損誤りの正解数が少ないのは,誤りパターンが単語ぺアを抽出し作成されており,単語が欠落している誤りが含まれていないためと考えられる,1-gram ベースの誤りパターンを用いた単語分散表現では入れ替え誤りに特化した学習を行うため,誤りパターンに含まれていないような他の誤りを文脈を手がかりに学習することは難しいと考えられる。 次に,我々は Lang-8 から抽出した誤りパターンを使うことによる影響について調べる(表 4 の (b)と (c)). FCE + EWE と FCE + EWE-L8 は名詞置換誤りと名詞語形誤りにおいて最も正解数が異なる. 名詞置換誤りとは suggestion と adviceのような誤りであり, 名詞語形誤りとは timeと timesのような誤りである。FCE + EWE-L8 は, 名詞置換誤りと名詞語形誤りの両方で正解数が多い.理由としては,名詞置換誤りと名詞語形誤りともにLang-8に含まれている誤りパターンの数が FCE-public と比較して 10 倍ほど多いためと考えられる. 表 5 は従来手法である FCE + word2vec と最も精度の高い提案手法である FCE + E\&GWE-L8 のテストデータに対する検出例を示している。表 5 (a) は名詞置換誤りの検出例を示している 5 . FCE + word2vec は名詞置換誤りを検出できていないが,FCE + E\&GWE-L8 は名詞置換誤りを検出することができている。名詞語形誤りに関しては表 5(b) で示されている。ここで,FCE + word2vec は誤りを 1 つ検出することができていない. 一方で, FCE + E\&GWE-L8 は名詞 表 5 FCE + word2vec と FCE + E\&GWE-L8を用いた誤り検出の例 & \\ 正解をイタリック体とし検出結果を太字で表す.  語形誤りを検出することができている。これは, Lang-8 から抽出した誤りパターンに含まれていたためと考えられる. sale と cloths の検出は両方のモデルが失敗している.しかし,前者は構文的情報を必要とし,後者は常識を必要とするため誤り検出が難しいと考えられる.表 5(c) では,FCE + W2V は限定詞欠損誤りの検出に成功したが,FCE + E\&GWE-L8 は検出に失敗した.この結果は限定詞欠損誤りと同様に誤りパターンの構造上,挿入誤りを適切に学習できていないことを示している. 図 2 は,学習デー夕内で高頻度な誤りの単語分散表現 (FCE + word2vec と FCE + E\&GWEL8)を t-SNE を用いて可視化した図である。我々は誤りとして出現頻度が多い前置詞と動詞をいくつかプロットした,頻度を元に可視化したのは,高頻度で誤っているほど学習データに多く出現するため単語分散表現がよく学習され違いがわかりやすくなると考えたからである。ここでは誤りとして高頻度な単語を誤りやすい, 低頻度な単語を誤りにくい単語としている。学習者が誤りにくい単語は FCE + E\&GWE-L8 と FCE + word2vec で似たような位置として学習されている。一方で, 学習者が誤りやすい単語に関しては誤りの出現頻度に比例して FCE + E\&GWE-L8 と FCE + word2vec で離れた位置として学習されていることがわかる. 例えば, under や walkのようにあまり誤りとして出現しない単語は FCE + word2vec の近くに位置している。一方で, was やatのようによく誤られる単語は FCE + E\&GWE + L8 の点は FCE + word2vec と比較してより遠くに移動している。そして,この図中のほとんどすべての単語が上に移動しているので,上方向に移動する距離が誤りやすさに対応していると推測される。この 図 2 FCE + word2vec と FCE + E\&GWE-L8によって学習された単語分散表現の t-SNEによる可視化.大文字が FCE + word2vecの単語であり,小文字が FCE + E\&GWE-L8 の単語である. 可視化は学習者による誤りに対する分析に使うことができる. ## 8 まとめ 本稿で我々は, 文法誤り検出のための正誤情報と文法誤りパターンを考慮した単語分散表現の学習手法を提案した. その結果, FCE-public と NUCLEの 2 つのコーパスにおいて文法誤り検出の精度向上を行うことができた。そして, 提案手法で単語分散表現を初期化した Bi-LSTM モデルを使い FCE-public データセットにおいて世界最高精度を達成した。学習者コーパスによって学習された単語分散表現は正しいフレーズと誤ったフレーズを区別することが可能である. さらに我々は, Lang-8コーパスを用いた追加の実験を行った. その結果, 我々は誤りパター ンを抽出して学習するほうが直接 Lang-8コーパスを分類器の学習データに追加するより良いことがわかった。そして,いくつかの典型的な誤りに対して検出結果を分析し,学習された単語分散表現の特徴を明らかにした。 今回の提案手法では, Lang-8の添削者を一律に誤りの見逃しなどのノイズを含む可能性があるとしている。一方で, Lang-8の添削者中でも専門家のように質の高い添削を行っている添削者もおり,Lang-8にも学習データとして直接使うことが可能な文が多く含まれていると考えられる. そのため, Lang-8の添削者の評価や添削数などのメ夕情報を活用した文法誤り検出などが考えられる。また,学習者の母語などのメ夕情報を活用した文法誤り訂正の研究 (Chollampatt, Hoang, and Ng 2016a) が報告されている ${ }^{6}$. そこで,学習者の第二言語習得過程 (Settles, Brust, Gustafson, Hagiwara, and Madnani 2018) を考慮した文法誤り訂正にも取り組んでいきたい. ## 謝 辞 本研究は JSPS 科研費 JP16K16117 の助成を受けたものである. ## 参考文献 Alikaniotis, D., Yannakoudakis, H., and Rei, M. (2016). "Automatic Text Scoring Using Neural Networks." In $A C L$, pp. 715-725. Chelba, C., Mikolov, T., Schuster, M., Ge, Q., Brants, T., Koehn, P., and Robinson, T. (2013). "One Billion Word Benchmark for Measuring Progress in Statistical Language Modeling." arXiv preprint arXiv:1312.3005.  Chollampatt, S., Hoang, D. T., and Ng, H. T. (2016a). "Adapting Grammatical Error Correction Based on the Native Language of Writers with Neural Network Joint Models." In EMNLP, pp. 1901-1911. Chollampatt, S., Taghipour, K., and Ng, H. T. (2016b). "Neural Network Translation Models for Grammatical Error Correction." In IJCAI, pp. 2768-2774. Collobert, R. and Weston, J. (2008). "A Unified Architecture for Natural Language Processing: Deep Neural Networks with Multitask Learning." In ICML, pp. 160-167. Dahlmeier, D., Ng, H. T., and Wu, S. M. (2013). "Building a Large Annotated Corpus of Learner English: The NUS Corpus of Learner English." In BEA@NAACL-HLT, pp. 22-31. Daudaravicius, V., Banchs, R. E., Volodina, E., and Napoles, C. (2016). "A Report on the Automatic Evaluation of Scientific Writing Shared Task." In BEA Shared Task, pp. 53-62. Han, N.-R., Chodorow, M., and Leacock, C. (2006). "Detecting Errors in English Article Usage by Non-native Speakers." Natural Language Engineering, pp. 115-129. Kingma, D. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." ICLR. Kochmar, E. and Briscoe, T. (2014). "Detecting Learner Errors in the Choice of Content Words Using Compositional Distributional Semantics." In COLING, pp. 1740-1751. Liu, X., Han, B., Li, K., Stiller, S. H., and Zhou, M. (2010). "SRL-based Verb Selection for ESL." In EMNLP, pp. 1068-1076. 水本智也, 小町守, 永田昌明, 松本裕治 (2013). 日本語学習者の作文自動誤り訂正のための語学学習 SNS の添削ログからの知識獲得. 人工知能学会論文誌, 28 (5), pp. 420-432. Nagata, R. and Nakatani, K. (2010). "Evaluating Performance of Grammatical Error Detection to Maximize Learning Effect." In COLING, pp. 894-900. Napoles, C., Sakaguchi, K., and Tetreault, J. (2017). "JFLEG: A Fluency Corpus and Benchmark for Grammatical Error Correction." In EACL, pp. 229-234. Ng, H. T., Wu, S. M., Briscoe, T., Hadiwinoto, C., Susanto, R. H., and Bryant, C. (2014). "The CoNLL-2014 Shared Task on Grammatical Error Correction." In CoNLL Shared Task, pp. $1-14$. Nicholls, D. (2003). "The Cambridge Learner Corpus: Error Coding and Analysis for Lexicography and ELT." Corpus Linguistics, pp. 572-581. Rei, M. and Yannakoudakis, H. (2016). "Compositional Sequence Labeling Models for Error Detection in Learner Writing." In $A C L$, pp. 1181-1191. Sawai, Y., Komachi, M., and Matsumoto, Y. (2013). "A Learner Corpus-based Approach to Verb Suggestion for ESL." In $A C L$, pp. 708-713. Settles, B., Brust, C., Gustafson, E., Hagiwara, M., and Madnani, N. (2018). "Second Language Acquisition Modeling." In BEA Shared Task, pp. 56-65. Tetreault, J. R. and Chodorow, M. (2008). "The Ups and Downs of Preposition Error Detection in ESL Writing." In COLING, pp. 865-872. Xie, Z., Avati, A., Arivazhagan, N., Jurafsky, D., and Ng, A. Y. (2016). "Neural Language Correction with Character-based Attention." arXiv preprint arXiv:1603.09727. Yannakoudakis, H., Briscoe, T., and Medlock, B. (2011). "A New Dataset and Method for Automatically Grading ESOL Texts." In $A C L$, pp. 180-189. ## 付録 7 章の考察で取り上げた FCE-public で用いられている誤りタイプ (Nicholls 2003) について説明する.2つのタグから誤りタイプは構成されている.1つ目のタグは誤りの種類を表しており,2つ目のタグは対象単語のクラスを表す。2つのタグを組み合わせることで誤りタイプを表現する。例えば,動詞置換誤りであれば 1 つ目の夕グが置換の $\mathrm{R}, 2$ つ目のタグは動詞の $\mathrm{V}$, この 2 つを組み合わせた RV として表す. ## 単語クラス ( 2 つ目のタグ) A 照応 (Anaphoric) C 接続詞 (Conjunction) D 限定詞 (Determiner) $\mathrm{J}$ 形容詞 (Adjective) $\mathrm{N}$ 名詞 (Noun) Q 数量詞 (Quantifier) $\mathrm{T}$ 前置詞 (Preposition) V 動詞 (Verb) $\mathrm{Y}$ 副詞 (Adverb) ## 記号誤り(誤りの種類 $+\mathbf{P$ )} MP 記号欠損 (punctuation Missing) MP 記号置換 (punctuation needs Replacing) UP 記号不必要 (Unnecessary punctuation) ## 空似言葉 (False friend) (FF + 単語クラス) 全ての空似言葉は FF でタグ付けされる。必要な単語クラスは $\mathrm{A}, \mathrm{C}, \mathrm{D}, \mathrm{J}, \mathrm{N}, \mathrm{Q}, \mathrm{T}, \mathrm{V}$ と $\mathrm{Y}$ のいずれかである。この誤りは空似言葉を扱っていることが確実な場合にのみ使用される。 その他の場合は置換 $\mathrm{R}$ が使われる。 ## その他の誤り AS 項構造誤り (incorrect Argument Structure) $\mathrm{CE}$ 複合誤り (Compound Error) CL コロケーション誤り (CoLlocation error) ID 慣用句誤り (IDiom error) IN 名詞複数形の形成誤り (Incorrect formation of Noun plural) IV動詞の不正な活用 (Incorrect Verb inflection) L 不適切なレジスター (inappropriate register) S スペリング誤り (Spelling error) SA アメリカ英語 (American Spelling) SXスペル混同誤り (Spelling confusion error) TV 動詞の時制誤り (wrong Tense of Verb) $\mathrm{W}$ 語順誤り (incorrect Word order) $\mathrm{X}$ 否定形誤り (incorrect formation of negative) $\mathrm{CN}$ は,学習者が意図された意味で利用できない名詞形を使用したことを表す。例えば, the country's natural beauties や two transports など゙ある。一方で,可算または不可算に関わらず間違った形が使用された場合,その誤りは FN とする。例えば, vacation と vacationsである。 AS(項構造誤り)は MT(前置詞の欠損, 例えば he explained me)またはUT(不必要な前置詞,例えば he told to me)では網羅できない誤りを対象とする,AS は,特に第 4 文型をとる動詞に対して使用される。例えば, it caused trouble to me は it caused me trouble と 1 つの誤りとして訂正する. $\mathrm{CE}$ (複合誤り)は,意図した意味が推定できない複数の誤りや単語の集合をカバーする包括的な誤りである。この誤りを用いることで,学習者の誤りに関する有用な情報をほとんど得ら れない箇所を除外することができる. SX(スペル混同誤り)は,スペルの混同の可能性をカバーする,例えば to と too, their と there や weather と whether などである. ## 略歴 金子正弘:2016 年北見工業大学工学部情報システム工学科卒業. 同年, 首都大学東京システムデザイン研究科博士前期課程に進学. 2018 年博士前期課程修了. 同年, 首都大学東京システムデザイン研究科博士後期課程に進学. 堺澤勇也:2015 年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業. 同年, 同大学院システムデザイン研究科博士前期課程に進学. 2017 年博士前期課程修了. 現在株式会社ジャストシステム勤務. 小町守:2005 年東京大学教養学部基礎科学科科学史・科学哲学分科卒業. 2007 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 2008 年より日本学術振興会特別研究員 (DC2) を経て, 2010 年博士後期課程修了.博士 (工学). 同年より同研究科助教を経て, 2013 年より首都大学東京システムデザイン学部准教授. 大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 語系列の類似性・可換性の特徴表現による並列句の範囲同定 \author{ 寺西裕紀 $^{\dagger} \cdot$ 進藤裕之 ${ }^{\dagger} \cdot$ 松本裕治 $\dagger$ } 並列構造解析の主たるタスクは並列する句の範囲を同定することである.並列構造は文の構文・意味の解析において有用な特徴となるが, これまで決定的な解析手法が確立されておらず,現在の最高精度の構文解析器においても誤りを生じさせる主たる要因となっている.既存の並列句範囲の曖昧性解消手法は並列構造の類似性のみの特性や構文解析器の結果に強く依存しているという問題があった。本研究では,近年自然言語解析に広く使用されているリカレントニューラルネットワークを用いて,構文解析の結果を用いずに単語の表層形と品詞情報のみから並列句の類似性と可換性の特徴ベクトルを計算し, 並列構造の範囲を予測する手法を提案する. Penn Treebank と GENIA コーパスを用いた実験の結果, 提案手法によって先行研究を上回る解析精度を得た。 キーワード:並列構造解析,並列句の類似性,並列句の可換性,構文解析 ## Similarity and Replaceability Feature Representations of Word Sequences for Identifying Coordination Boundaries \author{ Hiroki Teranishi $^{\dagger}$, Hiroyuki Shindo $^{\dagger}$ and Yuji Matsumoto ${ }^{\dagger}$ } The task of coordinate structure analysis is to identify coordinating phrases called conjuncts. Although coordination reveals a large amount of syntactic and semantic information, it is one of the difficulties that state-of-the-art parsers cannot cope with. Some existing approaches are based only on the similarity of conjuncts while others rely heavily on syntactic information obtained by external parsers. Here, we propose a neural network model for identifying coordination boundaries. This model is composed of recurrent neural networks, which are widely used in natural language processing. Our method considers two properties of conjuncts, i.e., similarity and replaceability, and predicts the spans of the coordinate structures without using syntactic parsers. We further demonstrate that the proposed model outperforms the existing state-of-the-art methods for the Penn Treebank and GENIA corpus. Key Words: Coordinate Structure Analysis, Similarity of Conjuncts, Replaceability of Conjuncts, Syntactic Parsing  ## 1 はじめに 並列構造は等位接続詞などの句を連接させる働きのある語にともなって, 句や文が並列して出現する構造である。並列構造は自然言語において高い頻度で現れるが, 並列構造が包含する句の範囲には曖昧性があり,また並列構造によって 1 文が長くなるため, 自然言語解析を困難にしている主な要因となっている。近年, 句構造や依存構造などの構文解析の手法は顕著に発展してきているが, 並列構造を高い精度で解析する決定的な手法は確立されていない. 並列構造の曖昧性が解消されることで構文解析の誤りを減らすだけではなく, 科学技術論文の解析や文の要約,翻訳など広い範井のアプリケーションでの利用が期待される. 並列構造の構成要素である個々の並列句には二つの特徴がある。一つは並列構造内の個々の並列句はそれぞれ類似した意味・構造となる特徵であり,もう一つはそれぞれの並列句の入れ替え・省略を行っても文法上の誤りが生じることや元の文意を損なうことがなく, 文として成立するという特徴である. 並列句の範囲を同定する夕スクにおいて, 従来の研究では並列構造を同定するための重要な手がかりのうち, 並列句の候補となる句のぺアの類似度に基づくモデルが提案されてきた (Kurohashi and Nagao 1994; Shimbo and Hara 2007; Hara, Shimbo, Okuma, and Matsumoto 2009; Hanamoto, Matsuzaki, and Tsujii 2012). しかしながら, 並列句は必ずしも類似するとは限らず,異なる種類の句が並列した場合や動詞句や文の並列では並列句はしばしば非類似となり,類似性のみを利用した手法では非類似の並列句をとらえることができなかった。また従来手法では類似度の計算に構文情報やシソーラスを用いて人手で設計された素性を利用しており,素性設計のコストや外部リソースの調達コストの点で問題がある. これらの問題を克服するために, Ficler ら (Ficler and Goldberg 2016b) は, 並列句の類似性のみならず可換性に着目し, ニューラルネットワークによって類似性・可換性の特徴ベクトルを計算し, 並列句範囲の同定を行うモデルを提案した. Ficler らの手法では外部の構文解析器を用いて並列句範囲の候補を抽出したのち, 候補に対してスコア付けをして範囲を同定するというパイプライン処理を行っている. Ficler らの手法は Penn Treebankでの並列句範囲の同定のタスクにおいて, 既存の句構造の構文解析器を上回る精度を達成し, GENIAコーパスにおいても新保ら (Shimbo and Hara 2007), 原ら (Hara et al. 2009)の並列句の類似性に基づく手法より高い性能を発揮した. Ficler らの手法は従来の手法の欠点であった非類似となる並列句の範囲をとらえられない点や人手による素性設計のコストの点をいくらか解決しているものの, 外部の構文解析器の出力に強く依存しており, 解析器の誤りに起因する誤り伝搬やパイプライン処理による解析速度の低下の点で課題が残っている。 本研究では, 単語の表層形と品詞情報のみから並列句の類似性・可換性の特徴を抽出し, 並列構造の範囲を同定する手法を提案する。また句を結びつける働きを持つかどうかが曖昧である語に対して, 連接する並列句が存在しない場合の取り扱いや, 並列句が存在しない場合を検 出する方法についても示す. 提案手法では, 近年自然言語の解析で広く用いられている双方向型リカレントニューラルネットワークを使用して候補となる並列句の文脈情報を考慮した類似性・可換性の特徵ベクトルを計算する,実験の結果,Penn Treebankにおける並列句の範囲同定のタスクにおいて,構文情報を用いない提案手法が構文情報を利用した既存手法と同等以上の F 值を得た。さらに GENIA コーパスにおいては,類似となる傾向の高い名詞句の並列,非類似となる傾向の高い文の並列の両方について,提案手法が既存手法を上回る再現率を達成したことを示す。提案手法の貢献は, Ficler らの手法のような構文解析の結果に依存したパイプライン処理やニューラルネットワークのアーキテクチャを使用することなく, 原らの手法で課題となっていた非類似となる並列句の範囲同定の再現率を向上させ,全体として既存手法と同等以上の解析精度を達成したことである. ## 2 並列構造解析 本稿では, 句を連接する働きを持つ可能性のある語を並列キーと呼び, “ word $_{\text {position }}$ の形式で表す。並列キーに属する語として主に等位接続詞が挙げられるが,英語の but が等位接続詞のほかに前置詞となる場合があるように,等位接続詞以外の品詞となり得る語は語の表層形から並列キーが句を連接する働きがあるかどうかを判別することは必ずしもできない. 並列キー が句を連接している場合, 結びつけられる句を並列句と呼び, 並列キーと並列句から成る一連の語句を並列構造と呼ぶ. 反対に並列キーが句を連接する働きがない場合は並列キーによって結びつけられる句や対応する並列構造は存在しない. また, 文頭の並列キーは品詞が等位接続詞の場合であっても後続の句と並列関係にある句が文内に存在しないため, 並列キーは文内において句を連接する働きがないと見なし, 対応する並列構造を持たないものとする. ## 2.1 並列構造の解析の困難さ 並列句が包含する語の範囲は構文上一意に決まる場合があるが,文の意味や前後の文脈から決定づけられることが多い. 並列構造の範囲が曖昧であることに起因して, 並列構造を有する文は構文・意味の面においても複数の解釈がされ得る。並列構造は範囲・構文・意味の非一意性を持つばかりではなく,次の二つのような解析の困難性を有している(図 1). (i) 並列キーが句を連接する場合と連接しない場合があり,連接する場合であっても一つの並列キーによって連接される句は必ずしも並列キーの前後の二つの句に限定されず,三つ以上の句を伴う場合がある. (ii) 文中に複数の並列構造が現れる場合があり, さらには一方の並列構造が他方の並列構造の句に含まれるような入れ子構造となるケースがある. (i) の性質によって, 並列構造の解析には並列キーに隣接する句だけではなく, 隣接する句に連なる句が同一の並列構造に属するかを考慮する必要性が生じる。また, 並列キーが等位接続の役割を果たさない場合に並列キーに対する並列句の数は 0 となり, 並列キーに対する並列句の出現数が必ず二つ以上となるような限定ができない. (ii)については, 文中に出現する並列キー の数は文によって異なっており, 複数の並列構造が出現する場合に全ての並列構造の範囲が互いに整合しているかを確認しなければならない. すなわち, 個々の並列構造の範囲を独立に確定するのではなく, ある並列構造が他の並列構造に覆われて入れ子となるか, あるいは範囲が交差せず重なり合っていない状態のどちらかになるという条件を満たすよう範囲を決定しなければならない. ## 2.2 タスクの定義 本研究で取り組む英語における並列句範囲の曖昧性解消のタスク定義について述べる。文に現れる並列キーに対して, 並列キーが等位接続の働きをし, 並列キーによって結び付けられる句がある場合にはそれぞれの句の始点と終点を返す。並列キーが並列の役割を果たさず,並列キーに連接する並列句が存在しない場合にはNONE を返す. 図 2 は夕スクの入出力の例である.例から分かるように, 本タスクで期待される出力を得るためには, 2.1 節で示したような文中の複数の並列構造, 三つ以上の並列句について取り扱える必要がある. 本研究の提案手法は文中 It was not an unpleasant evening, certainly, thanks to [the high level of performance], [the compositional talents of Mr. Douglas], $a n d_{25}$ [the obvious sincerity with which Mr. Stoltzman chooses his selection]. (a) 三つ以上の並列句が連接する例 Aside from [the Soviet economic plight] and $d_{7}$ [talks on cutting (strategic) and $_{12}$ (chemical) arms], one other issue the Soviets are likely to want to raise is naval force reduction. (b) 並列構造が入れ子となる例 図 1 並列構造の範囲の例 入力 "But $1_{1}$ it said Charles Johnston, ISI chairman and 9 president, agreed to sell his $60 \%$ stake in ISI to Memotec upon completion of the tender offer for a combination of cash, Memotec stock and $_{37}$ debentures." 出力 but $_{1}:$ NONE and $_{9}:(8,8)$ chairman ; $(10,10)$ president and $_{37}$ : $(33,33)$ cash ; $(35,36)$ Memotec stock ; $(38,38)$ debentures 図 2 タスクの入出力の例 の複数の並列構造を検出し, 各々の並列構造に属する並列句の範囲同定を行うことができるが,複数の並列構造の範囲が競合しないような制約を満たすには至っていない. また,三つ以上の並列句についても範囲同定ができるものの,並列キーに前出する並列句が二つ以上出現する場合はそれらを結合して一つの並列句として見なして学習をし,範囲同定を行う際に個々の並列句に分割している。 ## 2.3 並列構造の特徵 並列構造には,並列句の範囲を同定するために有用な二つの特徴がある. (a) 類似性:同一の並列構造に属する並列句は,句の構文構造・意味の点で類似性を持つ. (b)可換性:同一の並列構造に属する並列句は,互いに入れ替えても文の流暢性が保たれる.上記の性質についてそれぞれ例を挙げる。類似性について図 1(a) の例では, and $_{25}$ に対する並列句は全て名詞句 (NP) となっており, いずれも冠詞 (DT), 形容詞 (JJ), 名詞 (NN, NNS),前置詞 (IN) という類似の品詞系列が見られる(図 3(a))。また可換性については, 図 1(b) の例の並列句を, “Aside from [talks on cutting (chemical) and $d_{12}$ (strategic) arms] and 7 [the Soviet economic plight], one other issue ..."と入れ替えても構文上誤りのない文として成立している (図 3(b)).また,可換性の性質によって各々の並列句を並列構造の前後の文脈と流暢性を損なうことなく接続でき,並列句のうち一つを残して並列構造を取り除いても文として成立する. 二つの特徴は並列句の範囲を同定する強力な手がかりとなり得るが, 全ての並列構造で普遍的に利用できるわけではない,例えば同一の並列構造に属する複数の並列句が,それぞれ異なる種類の句であったり,文の並列であったりする場合は並列句の類似性は必ずしも高くない(異なる種類の句による非類似の例 : “Bill is [in trouble] and $_{5}$ [trying to come up with an excuse].", (a) 並列句の類似性の例 1. Aside from [the Soviet economic plight], one other ... 2. Aside from [talks on cutting (strategic) arms], one other ... 3. Aside from [talks on cutting (chemical) arms], one other ... (b) 並列句の可換性の例 図 3 並列句の特徴 文の並列による非類似の例:“[The value of the two transactions wasn't disclosed], but ${ }_{11}$ [an IFI spokesman said no cash would change hands].”)。また, 先行する並列句に出現した語が後続する並列句では省略されている場合は,適切に語を補わずに句を交換すると文の構文的な正しさが損なわれるため, 可換性が成り立つとは言えない(語の省略による非可換の例:“Honeywell's contract totaled $\$ 69.7$ million], and $d_{9}$ [IBM's $\$ 68.8$ million]."). 本研究では, 類似性・可換性のどちらか一方の特徴だけを用いるのではなく, 両方を特徵量として用いることで,並列句の範囲の同定を行う. ## 3 関連研究 これまで並列構造解析の多くの研究では並列句の類似性に基づいた手法が発展してきた。日本語における並列句の範囲同定のタスクにおいて,黒橋ら (Kurohashi and Nagao 1994) は並列句の類似度計算にチャートを用い, 動的計画法によって並列構造の検出と範囲の同定を行った。新保ら (Shimbo and Hara 2007) は英語の並列構造解析において, 系列アラインメントと単語・品詞・形態情報に基づく素性により,並列句の内部の複数単語間の類似度を動的計画法を用いて計算した.黑橋らの手法においてチャートの経路に付与されるスコアはあらかじめ定義された少数のルールに基づくスコア関数によって付与されていたのに対し,新保らの手法では編集グラフの枝と頂点に与えられるスコアは人手で設計された素性の重み付き線形和で表され,重みのパラメータの調整は機械学習の手法であるパーセプトロンが用いられた.新保らのモデルは入れ子となる並列構造を扱うことができなかったが, 原ら (Hara et al. 2009) は新保らの手法を拡張し,並列構造を木として導出するためのルールを設けることで,複数の並列構造・三つ以上の並列句について取り扱った。原らの手法では個々の並列構造に対して並列句の類似度を計算し, 複数の並列構造のスコアの総和が最も高くなるような並列構造の範囲の組み合わせを文全体の並列構造の木として解析した. 花元ら (Hanamoto et al. 2012) は HPSG の構文解析器を拡張し,原ら(Hara et al. 2009)のモデルと組み合わせて使用し,並列句の範囲を双対分解を用いて同定する手法を提案した。 類似度に基づく並列構造解析の手法に対して, Ficler ら (Ficler and Goldberg 2016b) は並列句の類似度に加えて並列句の可換性についても並列句候補のスコア計算の素性として取り入れた. Ficlerらの手法は三つのコンポーネントから成り立っており,並列構造の検出のための二值分類器, 並列句の範囲の候補を抽出するための外部の構文解析器 (Berkeley Parser (Petrov, Barrett, Thibaux, and Klein 2006)), 並列句候補のスコア計算によって範囲を一意に決定する識別器という構成となっている。並列句候補のスコア計算に打いては,人手で設計した素性ではなくニューラルネットワークを用いることで素性設計のコストの問題を克服している。類似度計算には Berkeley Parserによって出力された構文情報を用いて並列句候補をべクトル表現と して算出し, ベクトル同士のユークリッド距離を求めており, グラフを用いた類似度計算手法に比べて計算量が削減されている。可換性については,まず並列句のうち一つを残して並列構造を取り除いて元の文を簡易化した新たな文として取り出すという手順を,並列構造に属する二つの並列句に対してそれぞれ適用することで二つの文を得る。次にそれら二つの文を双方向型 LSTM によって処理をし,出力された隠れ状態べクトルを並列句の接続部分の文脈情報を考慮した素性ベクトルとして使用している。類似性と可換性の特徵に加えて Berkeley Parser の出力から並列句の候補を生成した際の確率値や候補の順位なども追加の素性としてスコア計算に用いている. Ficler らの手法は GENIA コーパスにおいて原らの類似度に基づく手法を上回る精度を達成しているが,素性べクトルの計算において構文情報に依存しているため,三つのコンポーネントの誤り伝搬や外部の構文解析器への依存の点で課題が残る. Ficler らは, (1) 類似 性, (2) 可換性, (3) 候補の生成確率に基づく順位に関連する素性の三つの素性をそれぞれ一つずつ用いてスコア計算をした場合について比較実験をしており,(3) のみを用いる場合の精度が (1) または $(2)$ のみを用いる場合の精度よりも高いことを報告している.ただし構文解析の結果に基づく候補の抽出は共通して行われており, 構文解析を利用しない場合は候補の抽出や (1), (3) の素性は利用できないため, Ficler らが報告している数値よりも精度が下がることが考えられる。しかしながら, 構文解析器や解析対象のドメインの変更などによって構文解析の精度が変化した際に, Ficler らの手法がどの程度影響を受けるかについては定量的な分析がされておらず,また我々のほうでも定性的な分析をするに留まった1. 河原ら (Kawahara and Kurohashi 2008)は類似度の素性を用いずに依存構造と格フレームに基づいて並列句の生成確率を学習し, 範囲の同定を行っている。吉本ら (Yoshimoto, Hara, Shimbo, and Matsumoto 2015) はグラフベースの依存構造解析の手法を拡張し, 依存構造解析とともに並列構造の範囲を同定するアルゴリズムを提案している. ## 4 提案手法 本研究では並列キーに対して個々の並列句の範囲ではなく並列構造全体の範囲を直接的に同定する。すなわち,並列キーに先行する並列句の終点を並列キーの直前,並列キーに後続する並列句の始点を並列キーの直後に仮定を置き, 並列構造全体の始点と終点のみを提案モデルで学習・推定する。また, 英語においては並列キーに先行する並列句は, カンマを伴って二つ以上出現する場合があるが,その場合においては最初に出現する並列句の始点と並列キーの直前に出現する並列句の終点をスパンとする一つの並列句と見なすことでモデルを適用する(図 2 の $\operatorname{and}_{37}$ の例:先行する並列句 $(33,36)$ cash, Memotec stock; 後続する並列句 $(38,38)$ debentures; ^{1}$ Berkeley Parser の改変部分や実験設定についての詳細を得ることができず,再現実験をすることができなかった. } 並列構造全体の始点・終点 $(33,38)$ ). ただし, これらの仮定は並列句の範囲の可能な組み合わせを制限し,計算量を削減するために行っているため,並列句の始点・終点の制限をなくして並列キーに先行する二つ以上の並列句の各々の範囲を同定する手法として,本研究のモデルを適用することは可能である². 語数 $N$ の文 $x=\left.\{x_{1}, x_{2}, x_{3}, \ldots, x_{N}\right.\}$ における並列キー $x_{k}$ に対して, 並列キーに先行する並列句を $s_{1}=\left.\{x_{i}, \ldots, x_{k-1}\right.\}(1 \leq i \leq k-1)$, 後続する並列句を $s_{2}=\left.\{x_{k+1}, \ldots, x_{j}\right.\}(k+1 \leq j \leq N)$ と書き表す。また,並列キー $x_{k}$ に連接する並列句が存在しない場合は並列句の範囲のぺアを NONE として表す。提案手法では, 並列構造全体の始点 $i$ と終点 $j$ の全ての可能な組み合わせ (並列句が存在しない場合のNONE を含む)についてスコア計算を行い,最もスコアの高い組み合わせを二つの並列句の範囲 $(i, k-1),(k+1, j)$ とし, NONE のスコアが最も高い場合は並列句が存在しないものとする。並列キーに隣接するカンマは並列句の始点・終点ではなく並列キー の一部として見なされるため,解析・評価時には並列キーの直前・直後のカンマを並列キーに含むものとして範囲の修正をする。また,モデルが学習・予測した二つの並列句の範囲に対して,並列キーに先行する並列句の範囲からカンマを区切り文字として個々の並列句の範囲の復元をし,評価を行う。 図 4 は本研究で用いるニューラルネットワークのアーキテクチャの概要である. 提案モデルは以下の四つの部分で構成される。 図 4 提案手法で用いるニューラルネットワークのアーキテクチヤの概要 \left(N^{2}\right)$ に対し, 配列句の範囲の制限をなくしてカンマを区切り文字として先頭の並列句の範囲と終端の並列句の範囲を求める場合の計算量は $\mathcal{O}\left(N^{4}\right)$ となる. } 入力層: 単語・品詞の one-hot ベクトルからなる系列に分散表現のベクトルを割り当てる. RNN 層:双方向型リカレントニューラルネットワーク(双方向型 RNN)により, 単語・品詞のベクトルの系列から文脈情報を考慮した隠れ状態のベクトルの系列を取り出す. 特徵抽出関数: 並列構造の範囲の可能な組み合わせについて, 双方向型 RNN の出力を用いて特徵ベクトルを抽出する。 出力層: 個々の並列構造の範囲の候補に対して, 特徴ベクトルからスコア計算を行う.以降の小節ではこれらのネットワーク構造の詳細について説明をする. ## 4.1 入力層 提案モデルはまず,語彙数次元の one-hot ベクトルで表された単語・品詞の系列を入力として受け取り, 埋め达み表現 (Bengio, Ducharme, Vincent, and Jauvin 2003)として知られる分散表現のベクトルの系列に変換する。これらの単語・品詞の実数値のベクトルは連結されて次の層の入力として渡される。 $ \begin{aligned} \mathbf{h}_{t}^{\text {word }} & =W^{\text {word }} \mathbf{x}_{t}^{\text {word }} \\ \mathbf{h}_{t}^{\text {tag }} & =W^{\text {tag }} \mathbf{x}_{t}^{\text {tag }} \\ \mathbf{h}_{t}^{(0)} & =\left[\mathbf{h}_{t}^{\text {word }} ; \mathbf{h}_{t}^{\text {tag }}\right] \\ \mathbf{h}^{(0)} & =\left.\{\mathbf{h}_{1}^{(0)}, \ldots, \mathbf{h}_{N}^{(0)}\right.\} \end{aligned} $ ここで $\mathbf{x}_{t}^{w o r d}$ は単語系列の $t$ 番目の語, $\mathbf{x}_{t}^{t a g}$ は品詞系列の $t$ 番目の品詞を指す one-hot ベクトルである.また, W ${ }^{\text {word },} W^{\text {tag }}$ はそれぞれ単語, 品詞の分散表現を表すべクトルから成るパラメータの行列である. ## 4.2 RNN 層 分散表現のベクトル系列は多層の双方向型 RNN によって RNN の隠れ状態のベクトル系列に変換される. 双方向型 RNN は時系列の入力を過去から未来の方向と未来から過去の方向へ順次計算を行う。提案手法ではこのネットワークを用いて左から右(順方向)の文脈と右から左 (逆方向)の文脈の情報を取り出し, 後のネットワークでの計算に利用する.多層双方向型 RNN の第 $\ell$ 層の時刻 $t$ における順方向の隠れ状態べクトル $\mathbf{h}_{\ell, t}^{f}$ は, 同じ層の直前の時刻 $t-1$ における順方向の隠れ状態ベクトル $\mathbf{h}_{\ell, t-1}^{f}$ と直前の層の同一時刻 $t$ における隠れ状態ベクトル $\mathbf{h}_{\ell-1, t}$ から計算される。 $ \mathbf{h}_{\ell, t}^{f}=f\left(\mathbf{h}_{\ell, t-1}^{f}, \mathbf{h}_{\ell-1, t}\right) $ 第 $\ell$ 層の時刻 $t$ における逆方向の隠れ状態べクトル $\mathbf{h}_{\ell, t}^{b}$ も同様に計算される. 本研究で用いる多層双方向型 $\mathrm{RNN}$ は層ごとの出力で順方向の隠れ状態ベクトルの系列 $\left.\{\mathbf{h}_{\ell, t}^{f}\right.\}_{t=1}^{N}$ と逆方向の隠 れ状態べクトルの系列 $\left.\{\mathbf{h}_{\ell, t}^{b}\right.\}_{t=1}^{N}$ が各時刻 $t$ で連結され, 次の層の入力値として用いられる. 一般にRNN は以下に表現されるような関数 $f$ を持つ. $ f\left(\mathbf{x}_{t}, \mathbf{h}_{t-1}\right)=g\left(W \mathbf{x}_{t}+U \mathbf{h}_{t-1}\right) $ ここで関数 $g$ は双曲線正接関数 $\tanh$ や正規化線形関数 ReLU などの任意の非線形関数であり, $W, U$ はパラメータ行列である. RNN は勾配消失の問題から学習が困難であるため (Pascanu, Mikolov, and Bengio 2013), 本研究では RNN の関数 $f$ に代わって LSTM (Long Short-Term Memory) (Hochreiter and Schmidhuber 1997)を用いる. ## 4.3 特徵抽出関数 特徴抽出関数のレイヤーでは, 双方向型 $\mathrm{RNN}$ の出力系列 $\left.\{\mathbf{h}_{t}\right.\}_{t=1}^{N}$ を用いて並列構造の並列キーに先行する並列句候補と後続する並列句候補のべクトル表現を計算し, 類似性に基づく特徵ベクトルと可換性に基づく特徴べクトルの二つの特徴ベクトルを出力する. 並列構造の並列キーに先行する並列句候補のベクトル表現 $\mathbf{v}_{i}^{\text {pre }}$ と後続する並列句候補のベクトル表現 $\mathbf{v}_{j}^{\text {post }}$ は関数 $f_{\text {pooling }}$ から計算される。本研究では, 関数 $f_{\text {pooling }}$ としてべクトルの要素ごとの平均をとる関数を用いる. $ f_{\text {pooling }}\left(\mathbf{h}_{l: m}\right)=\operatorname{average}\left(\mathbf{h}_{l}, \mathbf{h}_{l+1}, \ldots, \mathbf{h}_{m-1}, \mathbf{h}_{m}\right) $ したがって, $\mathbf{v}_{i}^{\text {pre }}$ と $\mathbf{v}_{j}^{\text {post }}$ はそれぞれ以下のように表される. $ \begin{gathered} \mathbf{v}_{i}^{\text {pre }}=f_{\text {pooling }}\left(\mathbf{h}_{i: k-1}\right) \quad(1 \leq i \leq k-1) \\ \mathbf{v}_{j}^{\text {post }}=f_{\text {pooling }}\left(\mathbf{h}_{k+1: j}\right) \quad(k+1 \leq j \leq N) \end{gathered} $ ベクトル $\mathbf{v}_{i}^{\text {pre }}, \mathbf{v}_{j}^{\text {post }}$ は次小々節に定義される特徴抽出関数に入力される. ## 4.3.1 類似性に基づく特徴ベクトル 並列構造の並列キーに先行する並列句候補と後続する並列句候補の類似性に基づく特徴べクトルは以下のように計算される。 $ f_{\text {sim }}\left(\mathbf{v}_{i}^{\text {pre }}, \mathbf{v}_{j}^{\text {post }}\right)=\left[\left|\mathbf{v}_{i}^{\text {pre }}-\mathbf{v}_{j}^{\text {post }}\right| ; \mathbf{v}_{i}^{\text {pre }} \odot \mathbf{v}_{j}^{\text {post }}\right] $ ここで $\left|\mathbf{v}_{i}^{\text {pre }}-\mathbf{v}_{j}^{\text {post }}\right|$ はべクトルの要素ごとの差の絶対值であり, $\mathbf{v}_{i}^{\text {pre }} \odot \mathbf{v}_{j}^{\text {post }}$ はべクトルの要素ごとの積である。これらの差と積の演算は二つのべクトルの距離と関連性をモデル化するために用いている (Ji and Eisenstein 2013; Tai, Socher, and Manning 2015; Hashimoto, Xiong, Tsuruoka, and Socher 2017). ## 4.3.2 可換性に基づく特徵ベクトル 可換性に基づく特徴べクトルは以下のように定義をする。 $ \begin{aligned} & f_{r e p l}\left(\mathbf{h}_{1: N}, i, j, k\right)= \\ & \quad\left[\left|\mathbf{h}_{i-1} \odot \mathbf{h}_{i}-\mathbf{h}_{i-1} \odot \mathbf{h}_{k+1}\right| ;\right. \\ & \left.\quad\left|\mathbf{h}_{j} \odot \mathbf{h}_{j+1}-\mathbf{h}_{k-1} \odot \mathbf{h}_{j+1}\right|\right] \end{aligned} $ ここで $\mathbf{h}_{i-1}$ は並列構造の直前の語における文脈を表すべクトルであり, 二つの並列句候補 $(i, k-1)$ と $(k+1, j)$ が可換であれば,それぞれの並列句候補の先頭の語 $i, k+1$ と流暢性を損なわず結びつくと考えられる。また $\mathbf{h}_{j+1}$ は並列構造の直後の語における文脈を表すべクトルであり, 同様に各並列句候補の末尾の語に接続される. 1 番目の差 $\left|\mathbf{h}_{i-1} \odot \mathbf{h}_{i}-\mathbf{h}_{i-1} \odot \mathbf{h}_{k+1}\right|$ は並列構造の直前の文脈と二つの並列句候補の始点との接続の差を表している. 2 番目の差 $\left|\mathbf{h}_{j} \odot \mathbf{h}_{j+1}-\mathbf{h}_{k-1} \odot \mathbf{h}_{j+1}\right|$ は並列構造の直後の文脈と二つの並列句候補の終点との接続の差を表している.これらの差は二つの並列句候補の交換のしにくさ(コスト)を表していると解釈できる。また, 並列構造が文の先頭で始まる場合 $(i=0)$, 関数 $f_{r e p l}\left(\mathbf{h}_{1: N}, i, j, k\right)$ が返すべクトルのうち, $\left|\mathbf{h}_{i-1} \odot \mathbf{h}_{i}-\mathbf{h}_{i-1} \odot \mathbf{h}_{k+1}\right|$ をゼロベクトルとし, 文の末尾で終わる場合 $(j=N)$ は $\left|\mathbf{h}_{j} \odot \mathbf{h}_{j+1}-\mathbf{h}_{k-1} \odot \mathbf{h}_{j+1}\right|$ をゼロべクトルとする. ## 4.4 出力層 出力層では並列構造の範囲の候補に対して類似性・可換性に基づく特徵ベクトルに基づいてスコア計算を行う. 出力層のニューラルネットワークは計算ユニットを持つ層が順方向に多層に接続された多層パーセプトロン (MLP) から成る。並列キーに先行する並列句候補 $(i, k-1)$ と後続する並列句候補 $(k+1, j)$ のぺアに対するスコアは以下のように計算される. $ \begin{aligned} & \operatorname{Score}(i, j)= \\ & \operatorname{MLP}\left(\left[f_{\text {sim }}\left(\mathbf{v}_{i}^{\text {pre }}, \mathbf{v}_{j}^{\text {post }}\right)\right.\right. \\ & \left.\left.f_{\text {repl }}\left(\mathbf{h}_{1: N}, i, j, k\right)\right]\right) \end{aligned} $ また,並列キーに対して並列構造が存在しない場合を考慮するために,範囲の候補 NONE ついてもスコアの計算を行う. NONEのスコアは並列キーに対する RNN 層の隠れ状態べクトル $\mathbf{h}_{k}$ に重みべクトルを乗ずることで求める. $ \operatorname{Score}(\mathrm{NONE})=\mathbf{w} \cdot \mathbf{h}_{k}+\mathbf{b} $ これらのスコア関数を用いて並列句の全ての可能な範囲の組み合わせ $(i, j)$ に対してスコアを計算する。したがって, 文の長さを $N$, 並列キーの出現位置を $k$ 番目の語とおいた場合, 並列 句の範囲の組み合わせの候補は全部で $(k-1) \times(N-k)+1$ 個得られ, それらのうち最もスコアの高い候補を softmax 関数によって求めてモデルが最終的に出力する並列句の範囲とする. $ \begin{aligned} \mathbf{s}= & {[\operatorname{Score}(\mathrm{NONE}) ; \operatorname{Score}(1, \mathrm{k}+1) ; \ldots ;} \\ & \operatorname{Score}(1, \mathrm{~N}) ; \ldots ; \operatorname{Score}(k-1, N)] \\ \hat{p_{\theta}}(y \mid x)= & \operatorname{softmax}(\mathbf{s}) \\ \hat{y}= & \arg \max _{y}\left(\hat{p_{\theta}}(y \mid x)\right) \end{aligned} $ ただし, $\theta$ をパラメータの集合, $x$ を単語系列・品詞系列から成る文, $y$ を並列句範囲の組み合わせとする。 ## 4.5 学習 モデルの学習には各並列キーに対する並列構造の予測範囲と正解範囲との交差エントロピー 誤差を損失関数として用いる. $ J(\theta)=-\sum_{d=1}^{D} \log \hat{p_{\theta}}\left(y^{(d)} \mid x^{(d)}\right)+\frac{\lambda}{2}\|\theta\|^{2} $ ここで $D$ はトレーニングのデータセットにおける並列キーの出現数であり, $x^{(d)}$ を単語系列・品詞系列から成る文の集合中の 1 事例, $y^{(d)}$ を並列句範囲の正解となる組み合わせの集合中の 1 事例とする。また, $\theta$ はモデルのパラメータの集合, $\lambda$ は L2 正則化の強度を調整するハイパー パラメータである。モデルのパラメータ $\theta$ は損失関数を確率的勾配降下法 (SGD) によって最小化することによって最適化する。 ## 5 実験 本研究では提案手法の評価実験を並列構造のアノテーションが付与された Penn Treebank コーパス (Ficler and Goldberg 2016a)と GENIA コーパス (beta) (Kim, Ohta, Tateisi, and Tsujii 2003) で行う.各コーパスにおける評価対象となる並列キーの出現数と文数を表 1 にまとめる.なお, 先行研究との比較のため, Penn Treebankの並列キーは “and”, “or”, “but”, “nor”, "and/or"3とし, GENIAコーパスの並列キーは “and", "or", "but”とする (Ficler and Goldberg 2016b; Hara et al. 2009).  表 1 コーパスにおける並列キーの出現数 括弧内は実際に並列構造が存在する場合のみの集計. ## 5.1 Penn Treebankでの実験 ## 5.1.1 実験設定 Penn Treebank での実験には,コーパスの Wall Street Journal のパートのうち, セクション 2 から 21 を訓練データ,セクション 22 を開発データ,セクション 23 を評価データとして用いた.単語の分散表現には English Gigaword コーパス第 5 版 (Parker, Graff, Kong, Chen, and Maeda 2011)の New York Times パートを Word2Vec 4 のデフォルトのパラメータで事前に学習した 200 次元のベクトル表現を用いた. 品詞は Stanford Parser (Toutanova, Klein, Manning, and Singer 2003)を用いて訓練データに対する 10 分割ジャックナイフ法にて付与し, 品詞の分散表現として区間 $[-1,1]$ の一様分布でランダムに初期化をした 50 次元のベクトルを用いた. RNN 層には 3 層の双方向型 LSTM を用い, 各単方向の LSTM の隠れ状態のベクトルの次元数は $\{400,600\}$次元から選択した。出力層は隠れ層を 1 層とし, 活性化関数には ReLUを使用した。また, 隠れ層のユニット数は $\{1,200,2,400\}$ から選択した. モデルのパラメータはバッチサイズ 20 のミニバッチを利用した確率的勾配降下法で最適化を行った。学習率は Adam (Kingma and Ba 2014) によって自動調整した. モデルの訓練時には入力層の出力, 1 層目を除くRNN 層の入力, 出力層の隠れ層に Dropout (Srivastava, Hinton, Krizhevsky, Sutskever, and Salakhutdinov 2014) を適用した. Dropoutの適用ユニットの比率は $\{0.33,0.50\}$ から選択した. L2 正則化の強度 $\lambda$ は $\{0.0001,0.0005,0.001\}$ から選択した。学習のイテレーション数は 50 とし, 開発データにおける F1のスコア5が最も高いモデルとハイパーパラメータの設定を評価データでの評価に用いるモデルとして採用した。最終的なハイパーパラメータの設定は表 2 のとおりである. ## 5.1.2 評価指標 本研究では, 並列構造に属する並列句の始点・終点の一致について, 四種類の一致基準で評価を行う(図 5 ). ^{4}$ https://code.google.com/archive/p/word2vec/ 5 モデルの選択に用いた $\mathrm{F} 1$ スコアは複数の並列句のうち最初の並列句の開始位置と最後の並列句の終了位置の適合率・再現率の調和平均(whole の評価)によるものとする(後述). } 表 2 Penn Treebank の実験に使用した最終的なハイパーパラメータの設定 例文 "As the rally gained strength at 3:15 p.m., he [smiled broadly], [brandished his unlit cigar] and $_{18}$ [slapped Stanley Shopkorn, his top stock trader, on the back]." 正解範囲 whole: $(11,30)$ inner: $(14,17),(19,30)$ outer: $(11,12),(19,30)$ exact: $(11,12),(14,17),(19,30)$ 図 5 評価方法による正解範囲の違い - whole: 最初の並列句の始点と最後の並列句の終点の一致 - inner: 並列キーに隣接する並列句の始点・終点の一致 - outer: 最初と最後の並列句の始点・終点の一致 - exact: 全ての並列句の始点・終点の一致 whole の一致基準は並列構造全体の始点と終点の一致と同義であり, inner の一致基準は Ficler ら (Ficler and Goldberg 2016b)の手法による実験の評価で用いられているものである. また,本研究の提案モデルが学習・予測する並列構造の範囲は whole に相当するため, 個々の並列句についての評価である inner, outer, exact においては, 並列キー $k$ に先行する並列句 $(i, k-1)$ を文字 “,”によって分割して個々の並列句として評価を行っている。それぞれの一致基準について, 適合率 $(\mathrm{P}) \cdot$ 再現率 $(\mathrm{R})$ およびそれらの調和平均である $\mathrm{F}$ 値によってモデルの評価を行う。また,全ての並列構造ではなく名詞句の並列構造のみを対象として評価を行った結果についても示す 6 . 提案手法で用いた特徴抽出関数の有効性を検証するために,式 3 によって求めた二つの平均ベクトルだけを出力層でのスコア計算(式 7)に用いたモデルをベースラインとして, 特徵抽出関数の有無による実験・評価も行う. ## 5.1.3 実験結果 表 3 に実験結果を示す. whole の指標において適合率と比較して再現率が低いことから,提案手法では並列キーに対して誤って並列構造が存在しない(範囲 NONE)という予測をしてい ^{6}$ Ficler ら (Ficler and Goldberg 2016b) と同様に, NP に加えて NX の並列構造も名詞句の並列構造と見なす. } ると考えられる。またinnerの評価に比べて outerの評価による結果では適合率, 再現率, $\mathrm{F}$ 値のいずれも低い値となった。これは innerの評価では評価対象の並列句は並列キーに隣接しているのに対し, outer の評価では三つ以上の並列句が出現した場合に 1 番目の並列句が並列キー から離れてしまうことから, inner の評価は outer の評価と比較して範囲の予測が容易であることが理由として考えられる。 表 4 は特徴ベクトルの使用の有無による結果の違いを示している. 類似性に基づく特徴べクトルと可換性に基づく特徴ベクトルを各々使用したモデルはどちらもべースラインのモデルの性能を上回った。また両方の特徴ベクトルを使用したモデルは最も高い $\mathrm{F}$ 値を達成し,類似性・可換性に基づく特徴ベクトルを併用することは有効であった. 先行研究との実験結果(inner 評価)の比較について表 5 に示す. 全ての並列構造を対象とした実験では,先行研究のうち最も高い Ficler ら (Ficler and Goldberg 2016b)の手法を F 值で 0.11 ポイント上回り, 最高の値となる $72.81 \%$ を達成した. Ficler らの手法は句構造の構文解析器の出力結果を利用し, 並列句の始点・終点が句の境界となる並列句の範囲の候補のうち生成確率が上位のものを候補としてあらかじめ限定し, 候補とその生成確率の順位に基づく素性をニューラルネットワークの入力としてスコア計算をしている。対して提案手法では外部の構文解析器を使用せず並列句の範囲を制限することで,構文解析の結果を用いずにニューラルネッ 表 3 評価方法ごとの実験結果の比較(開発データ) 表 4 特徴ベクトルの組み合わせによる実験結果の比較(開発データ,whole 評価) “ $f_{\text {sim }}$ ”は類似性に基づく特徵ベクトル,“ $f_{\text {repl }}$ ”は可換性に基づく特徴ベクトル,“Both”は両方の特徴ベクトルを使用したモデルを表す. 表 5 Penn Treebank での評価 (inner) 提案手法を除いた結果は Ficler ら (Ficler and Goldberg 2016b) の報告している結果より抜粋. トワークによって範囲を同定している。また,名詞句を対象とした評価においても先行研究と同程度の結果を得た. Ficler らの手法では三つ以上の並列句については並列キーに隣接する二つの並列句の範囲を学習・予測しているのに対し, 提案手法では並列構造全体の範囲を学習したのちに個々の並列句は 5.1.2 節に示したルールによって取り出しているため, 個々の並列句の取り出し方を改善することによって先行研究の結果をさらに上回る性能を達成することが期待できる. ## 5.2 GENIA コーパスでの実験 ## 5.2.1 実験設定 原ら (Hara et al. 2009), Ficler ら (Ficler and Goldberg 2016b)の手法と提案手法の性能の比較を行うため, GENIA コーパス (beta) での実験を行った。 実験設定は以下のものを除いて 5.1.1 節と同様である. - 単語の分散表現には BioASQ (Tsatsaronis, Schroeder, Paliouras, Almirantis, Androutsopoulos, Gaussier, Gallinari, Artieres, Alvers, Zschunke, and Ngomo 2012) が提供している 200 次元のベクトル表現を使用した. これらのべクトル表現は PubMed7で入手できる生物医学系の論文のアブストラクトから Word2Vec を使って訓練したものである. - 品詞は原ら (Hara et al. 2009) と同様にコーパスに付与されている品詞を使用し, 品詞の分散表現として区間 $[-1,1]$ の一様分布でランダムに初期化をした 50 次元のベクトルを  用いた。 ・ L2 正則化の強度を決定するハイパーパラメータである $\lambda$ の値は 0.0005 とした. ・学習のイテレーション数は 20 とした. ## 5.2.2 評価指標 GENIA コーパスでの実験は原ら (Hara et al. 2009) と同様に, 個々の並列句の範囲の一致については評価をせず,並列構造全体の範囲での一致 (whole) について再現率によって評価を行う。これは,GENIAコーパスにおいては全ての並列キーに対応する並列構造が存在し,正解の範囲が NONE となるような事例が存在しないためである(表 1)。ただし,並列構造の範囲の候補から NONE を除くような変更は加えていないため,提案モデルが並列構造の範囲の予測として誤って NONE を出力することは起こり得る。提案手法の学習・予測結果と先行研究の手法による結果を直接比較することが可能であるため,本実験では 5.1 .2 節に示したような個々の並列句の取り出しは行わない. GENIA コーパスでは並列構造となっている句に対して明示的に COOD という特別なラベルが付与されており, COOD のラベルが付与されている句の種類別に提案手法の性能の評価を行った。モデルの訓練・評価には原らと同様に 5 分割交差検定によって行った. ## 5.2.3実験結果 実験結果を表 6 に示す。全ての並列構造を対象とした並列構造の始点と終点の一致の評価について, 提案手法は Ficler ら (Ficler and Goldberg 2016b) と原ら (Hara et al. 2009)の手法による再現率を上回った。また, 並列構造となる句の種類別の評価においては従来手法と比べて 表 6 GENIA コーパスでの評価(再現率) "Ficler16", “Hara09” の実験結果はそれぞれ (Ficler and Goldberg 2016b; Hara et al. 2009)より抜粋. 文 (S) の並列において再現率が顕著に上回った。動詞句 (VP) や従属節 (SBAR) においても原らの手法よりも高いスコアとなっているが, Ficler らの手法より 10 以上低いスコアとなった.並列句が類似する傾向が高い名詞句 (NP) の並列については最も高い再現率を達成した.提案手法の動詞句の誤りについて分析をしたところ,正解の範囲が “... has been [developed] and [compared with] a common ..." であったのに対し, モデルの予測範囲が “... [has been developed] and [compared with] a common ..."となるような,助動詞を並列句に含むか否かを誤りやすい傾向にあった.また,並列キーに後続する動詞句の直後に出現する前置詞句を並列句の範囲に含むかどうかについても誤る場合が見られた。動詞句の誤りのどちらのケースにおいても文法的には並列句が可換であるため,語法や前後の文脈をより考慮することが有効であると考えられる.文の並列と従属節については並列句の語長が長くなる傾向があるため,提案手法では並列句に含まれるカンマによって誤って並列句を分割するという傾向があった.三つ以上の並列句の範囲同定をする場合, 名詞句の並列ではカンマを区切り文字として最初と最後以外の並列句の範囲を予測しても誤りが少ないが,文や従属節の並列の場合は同格表現で使用されるカンマが含まれる場合があるため,カンマを区切り文字として並列句を分割した場合に誤ることが考えられる。 先行研究の手法と比較をすると並列句の類似性のみに着目した原らの手法では, 非類似となる傾向の高い並列句については範囲を捉えることができなかったが,提案手法では類似性に基づく特徴ベクトルのみならず可換性に基づく特徴べクトルを取り入れることで並列句の範囲同定の再現率が向上している。また, Ficler らの手法では並列句の可換性についての特徴べクトルの計算には, 並列キーに先行する並列句と並列構造の直後に出現する語句との接続, 並列キー に後続する並列句と並列構造の直前に出現する語句との接続についての演算は行われておらず,非類似だが可換である傾向の高い文において精度が低いことの一因となっている可能性がある.代わりに文の先頭から並列キーの直前までと文の末尾から並列キーの直後までを LSTM で演算を行っていることから,動詞句の並列のような文脈・語法の情報がより有効に働くと考えられる並列句の場合は,提案手法より優れた性能を発揮すると考えられる. ## 6 おわりに 本研究では,並列句の類似性・可換性の二つの性質を特徴として用い, 並列句の範囲の同定を行う手法を提案した。ニューラルネットワークによって単語の表層的な情報だけではなく文脈情報などの深層的な情報を用いることで,類似となる並列句のみならず非類似となる並列句の範囲同定でも高い性能を発揮し,英語の並列句の範囲同定のタスクにおいて先行研究を上回る再現率を達成した。提案手法は外部のシソーラスや構文解析器を必要とせず解析が行える点で貢献が大きい. 提案手法の課題として,提案手法は個々の並列句の範囲を直接的に学習・予測する手法ではないため,モデルを拡張して個々の並列句を取り扱えるようにすることが挙げられる。その際には,並列句の範囲の組み合わせが爆発的に増加するが,それらの計算量を抑えつつ,三つ以上の並列句についても同時に取り扱うことも課題として挙げられる。また,提案手法は文中の複数の並列構造の範囲について独立して学習・予測をしているため, 今後は複数の並列構造の範囲が競合しないような制約を与え,同時に解析できるよう改善する予定である. ## 謝 辞 本研究の一部は, JST CREST(課題番号:JPMJCR1513)の助成を受けて実施された.また,本研究の一部は, 情報処理学会第 232 回自然言語処理研究会 (寺西, 進藤, 松本 2017) および The 8th International Joint Conference on Natural Language Processing (IJCNLP2017) (Teranishi, Shindo, and Matsumoto 2017) で発表したものである. ## 参考文献 Bengio, Y., Ducharme, R., Vincent, P., and Jauvin, C. (2003). "A Neural Probabilistic Language Model." Journal of Machine Learning Research, 3, pp. 1137-1155. Ficler, J. and Goldberg, Y. (2016a). "Coordination Annotation Extension in the Penn Tree Bank." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 834-842, Berlin, Germany. Association for Computational Linguistics. Ficler, J. and Goldberg, Y. (2016b). "A Neural Network for Coordination Boundary Prediction." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 23-32, Austin, Texas. Association for Computational Linguistics. Hanamoto, A., Matsuzaki, T., and Tsujii, J. (2012). "Coordination Structure Analysis using Dual Decomposition." In Proceedings of the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 430-438, Avignon, France. Association for Computational Linguistics. Hara, K., Shimbo, M., Okuma, H., and Matsumoto, Y. (2009). "Coordinate Structure Analysis with Global Structural Constraints and Alignment-Based Local Features." In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP, pp. 967-975, Suntec, Singapore. Association for Computational Linguistics. Hashimoto, K., Xiong, C., Tsuruoka, Y., and Socher, R. (2017). "A Joint Many-Task Model: Growing a Neural Network for Multiple NLP Tasks." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1923-1933, Copenhagen, Denmark. Association for Computational Linguistics. Hochreiter, S. and Schmidhuber, J. (1997). "Long Short-Term Memory." Neural Computation, 9 (8), pp. 1735-1780. Ji, Y. and Eisenstein, J. (2013). "Discriminative Improvements to Distributional Sentence Similarity." In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 891-896, Seattle, Washington, USA. Association for Computational Linguistics. Kawahara, D. and Kurohashi, S. (2008). "Coordination Disambiguation without Any Similarities." In Proceedings of the 22nd International Conference on Computational Linguistics (Coling 2008), pp. 425-432, Manchester, UK. Coling 2008 Organizing Committee. Kim, J. D., Ohta, T., Tateisi, Y., and Tsujii, J. (2003). "GENIA corpus - a semantically annotated corpus for bio-textmining." Bioinformatics, 19 (suppl 1), pp. i180-i182. Kingma, D. P. and Ba, J. (2014). "Adam: A Method for Stochastic Optimization." arXiv preprint arXiv:1412.6980. Kurohashi, S. and Nagao, M. (1994). "A Syntactic Analysis Method of Long Japanese Sentences Based on the Detection of Conjunctive Structures." Computational Linguistics, 20 (4), pp. 507-534. Parker, R., Graff, D., Kong, J., Chen, K., and Maeda, K. (2011). "English Gigaword Fifth Edition." LDC2011T07. Pascanu, R., Mikolov, T., and Bengio, Y. (2013). "On the Difficulty of Training Recurrent Neural Networks." In Dasgupta, S. and McAllester, D. (Eds.), Proceedings of the 30th International Conference on Machine Learning, Vol. 28 of Proceedings of Machine Learning Research, pp. 1310-1318, Atlanta, Georgia, USA. PMLR. Petrov, S., Barrett, L., Thibaux, R., and Klein, D. (2006). "Learning Accurate, Compact, and Interpretable Tree Annotation." In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 433-440, Sydney, Australia. Association for Computational Linguistics. Shimbo, M. and Hara, K. (2007). "A Discriminative Learning Model for Coordinate Conjunctions." In Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL), pp. 610-619, Prague, Czech Republic. Association for Computational Linguistics. Srivastava, N., Hinton, G. E., Krizhevsky, A., Sutskever, I., and Salakhutdinov, R. (2014). "Dropout: A Simple Way to Prevent Neural Networks from Overfitting." Journal of Machine Learning Research, 15, pp. 1929-1958. Tai, K. S., Socher, R., and Manning, C. D. (2015). "Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1556-1566, Beijing, China. Association for Computational Linguistics. Teranishi, H., Shindo, H., and Matsumoto, Y. (2017). "Coordination Boundary Identification with Similarity and Replaceability." In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 264-272, Taipei, Taiwan. Asian Federation of Natural Language Processing. 寺西裕紀, 進藤裕之, 松本裕治 (2017). ニューラルネットワークに基づく並列句表現の学習と構造解析. 情報処理学会第 232 回自然言語処理研究会 (SIG-NL), 5 号. Toutanova, K., Klein, D., Manning, C. D., and Singer, Y. (2003). "Feature-rich Part-of-speech Tagging with a Cyclic Dependency Network." In Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology - Volume 1, NAACL '03, pp. 173-180, Stroudsburg, PA, USA. Association for Computational Linguistics. Tsatsaronis, G., Schroeder, M., Paliouras, G., Almirantis, Y., Androutsopoulos, I., Gaussier, E., Gallinari, P., Artieres, T., Alvers, M. R., Zschunke, M., and Ngomo, A.-C. N. (2012). "BioASQ: A Challenge on Large-Scale Biomedical Semantic Indexing and Question Answering." In AAAI Fall Symposium Series: Information Retrieval and Knowledge Discovery in Biomedical Text. Yoshimoto, A., Hara, K., Shimbo, M., and Matsumoto, Y. (2015). "Coordination-Aware Dependency Parsing (Preliminary Report)." In Proceedings of the 14th International Conference on Parsing Technologies, pp. 66-70, Bilbao, Spain. Association for Computational Linguistics. ## 略歴 寺西裕紀:2014 年慶應義塾大学商学部卒. 同年, 株式会社アイスリーデザイン入社. Web・モバイルアプリケーションの開発・運用に従事。2018 年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了. 同年, 同学先端科学技術研究科情報科学領域博士後期課程入学. 自然言語処理の研究に従事. 進藤裕之:2009 年, 早稲田大学先進理工学研究科博士前期課程修了. 同年 NTT コミュニケーション科学基礎研究所入所. 2013 年, 奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 2014 年より現在まで,奈良先端科学技術大学院大学情報科学研究科助教. これまで, 主に自然言語処理の研究に従事. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. 松本裕治:1977 年京都大学工学部情報工学科卒. 1979 年同大学大学院工学研究科修士課程情報工学専攻修了. 同年電子技術総合研究所入所. $1984 \sim 85$ 年英国インペリアルカレッジ客員研究員. $1985 \sim 87$ 年(財)新世代コンピュー 夕技術開発機構に出向. 京都大学助教授を経て, 1993 年より奈良先端科学技術大学院大学教授, 現在に至る。2016 年 9 月より理研 AIP 知識獲得チーム PI 兼務. 工学博士. 自然言語理解と機械学習に興味を持つ. 情報処理学会, 人工知能学会, AAAI, ACL, ACM 各会員. 情報処理学会フェロー. ACL Fellow. $(2018$ 年 1 月 21 日受付 $)$ $(2018$ 年 4 月 6 日再受付) $(2018$ 年 5 月 23 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 日英ニューラル機械翻訳におけるアテンションを用いた 未知語置き換えの手法 \author{ 伊部早紀 } ニューラル機械翻訳では, 従来の統計的機械翻訳に比べ文法的に流暢な文が生成されるが,出力結果に未知語が含まれることがしばしば指摘される。この問題に対処する方法としては, 学習コーパス中の低頻度語を分割したり, 未知語に位置情報を付け加えるなどの方法があるが,どれも日英翻訳では効果が低い.そこで本論文では, アテンションから構成した単語アライメント表を用いて出力文中の未知語と対応する入力文中の単語を見つけ,その単語を翻訳した単語で未知語を置き換えることで未知語をなくす手法を提案する。本論文の有効性を示すために ASPEC, NTCIR-10 の 2 種類のコーパスを用いて実験を行った結果, 本論文で提案する単語アライメント表の構成法を用いると,未知語を全く発生させず,かつ,BLEU 値を向上させることができた。 キーワード:機械翻訳,ニューラルネットワーク,未知語, アテンション ## Replacement of Unknown Words Using an Attention Model in Japanese to English Neural Machine Translation \author{ SAKI Ibe $^{\dagger}$, Yoshitatsu Matsuda $^{\dagger}$ and Kazunori Yamaguchi ${ }^{\dagger}$ } \begin{abstract} It is well known that machine translation using recurrent neural networks often composes fluent sentences but may include many unknown words. Although there have been many works to address the unknown word problem, they are ineffective in Japanese to English translation. In this study, we propose a hybrid method that makes an alignment table using an attention weight matrix, detects input words that are aligned with each unknown words, and finally replaces those unknown words with the translated words using a statistical machine translation method. We evaluate our approach by using two corpora: ASPEC and NTCIR-10. The results showed that the proposed method generated no unknown words and improved the BLEU (BiLingual Evaluation Understudy) score. \end{abstract} Key Words: Machine Translation, Neural Networks, Unknown Words, Attention Mechanism  ## 1 はじめに ニューラル機械翻訳 (Bahdanau, Cho, and Bengio 2014; Sutskever, Vinyals, and Le 2014; Cho, van Merrienboer, Gulcehre, Bahdanau, Bougares, Schwenk, and Bengio 2014)は,ソース言語を数値ベクトルによる分散表現で表し,それをニューラルネットワークを用いて変換して求めた数値ベクトルからターゲット言語の単語列を求めることで翻訳を行う手法である. 従来の統計的機械翻訳 (Koehn, Och, and Marcu 2003) では対訳コーパスから求めた変換規則の確率を用いてソース言語の単語やフレーズをターゲット言語への単語やフレーズに変換していたため, フレーズ同士の長い区間でのつながりが十分に反映されていなかった。これに対して, ニューラル機械翻訳では, リカレントニューラルネットワークおよびLSTM (Long Short Term Memory) の利用により,長い区間での単語のつながりが考慮されている。そのため, ニューラル機械翻訳を用いると従来の統計的機械翻訳と比べて流暢な文を生成できるが,訳抜けや繰り返しがあることや, 出力結果に未知語 (UNK) が含まれる (Luong, Sutskever, Le, Vinyals, and Zaremba 2015; Jean, Cho, Memisevic, and Bengio 2015) という問題が指摘されている.未知語が含まれる問題に対処するこれまでに提案されている主な手法には以下のものがある. まず,コーパスに前処理を行う方法としては,コーパス中の未知語をすべて未知語トークンに置き換え,位置情報を付け加えて学習を行う PosUNK(Luong et al. 2015) がある. 通常の手法では, 語彙制限のために未知語が生じた場合は, ソース言語およびターゲット言語内の未知語を一律に特殊な未知語トークンUNKで置き換える。一方 PosUNKにおいては, ソース言語内の未知語はすべて UNKに置き換えるのは同じだが, ターゲット言語の未知語は位置情報を利用して区別する。具体的には,ソース言語を $f_{1}, \ldots, f_{n}$ とし, ターゲット言語を $e_{1}, \ldots, e_{m}$ として, ソース言語に未知語 $f_{i}$ が存在したとする. $f_{i}$ に対応する未知語 $e_{j}$ がターゲット言語内に存在した場合は, 相対位置 $d=j-i$ を利用して, $e_{j}$ を位置情報付き未知語トークン PosUNK ${ }_{d}$ に置き換える。ただし,ソース言語に対応する未知語を持たないターゲット言語の未知語は,空集合 $\phi$ に対応する $\operatorname{PosUNK}_{\phi}$ に置き換える. これにより学習した翻訳機は, 未知語を一律に UNK としてではなく, $\operatorname{PosUNK}_{d}$ として相対位置付きで推定するため, $\mathrm{d}$ を利用して対応するソース言語内の単語を推定することができる。しかしながら, この手法を日英の言語対で実験を行ったところ, 効果が低かった (4.3 節参照). この手法は, ターゲット言語とソース言語において, 単語間の相対位置は同一であると仮定しているため, 日英のような文法構造が大幅に異なる言語間では適用が困難であるためと考えられる. また,コーパス中の単語を分割して全体の単語の種類を少なくする BPE (Byte Pair Encoding) (Sennrich, Haddow, and Birch 2016) がある,BPEは頻度の低い単語を複数の文字列に分割することで,単語の頻度を増やし学習しやすくする方法である.この手法も日英の言語対で実験を行ったところ, 効果が低かった (4.3 節参照)、ヨーロッパ言語などの文字の種類が少なく単 語の成り立ちが類似する言語間に比べ,日本語と英語では単語の構成が大きく異なり,日本語は文字の種類が多いことが原因たと考えられる。ニューラル機械翻訳のモデルを変更する方法としては,アテンションの計算で単語翻訳確率を考慮する方法 (Arthur, Neubig, and Nakamura 2016), coverage を導入する方法 (Tu, Lu, Liu, Liu, and Li 2016; Tu, Liu, Lu, Liu, and Li 2017),統計的機械翻訳で作成したフレーズテーブルを組み入れる方法 (Stahlberg, Hasler, Waite, and Byrne 2016; Khayrallah, Kumar, Duh, Post, and Koehn 2017; Zhang, Utiyama, Sumita, Neubig, and Nakamura 2018), 入力文中の単語が既知語の場合はそのまま処理し, 未知語の場合は単語を文字に分解して処理する方法 (Luong and Manning 2016) などがあるが,いずれもニューラルネットワークの性能を改善させることが主眼であり,未知語そのものを完全に消去することを目的としていない。ニューラル機械翻訳の出力結果の単語列を統計的機械翻訳を用いて並べ替える手法 (Skadina and Rozis 2016) もあるが, この手法では単語の辞書を作るためだけにニュー ラル機械翻訳を使っており,最終的な翻訳は統計的機械翻訳で行っている。よってニューラル機械翻訳の利点である単語間の長区間でのつながりを考慮した流暢性が失われてしまう。以上のように従来の手法の多くは, 未知語を減少させることはできているが,日英翻訳では翻訳精度の向上が期待できない. そこで本論文では,ニューラルネットワークのモデルや探索方法を変更することなく未知語を減少させ,かつ翻訳精度を向上させる手法を提案する,そのために,アテンションに基づいたニューラル機械翻訳をソース言語に対して適用することで生成されたアテンションを利用する. アテンションは翻訳におけるソース言語の単語とターゲット言語の単語の対応を数値化したもの (Bahdanau et al. 2014)で,統計的機械翻訳における 2 言語間の単語の対応を表す単語アライメント表 (Koehn et al. 2003) と類似したものである. (Hashimoto, Eriguchi, and Tsuruoka 2016) 及び (Freitag and Al-Onaizan 2016) では, この性質を利用し,アテンションを元に対応する未知語を推定する手法を提案している。ともに未知語が対応する単語はアテンションが最も高い値を持つ単語だとしている。しかしながら,類似しているとはいえ,アテンションは単語アライメント表そのものではなく, 数値の大小と実際のアライメントが一致しない場合も多い. また, 言語学的な性質を満たしているとも限らない. 本研究では, 隣接関係等の, 単語間の対応関係の言語学的性質に関するヒューリスティックを利用して,アテンションから単語アライメント表を推定する手法を提案する。 そして,その単語アライメント表を利用して未知語を置き換える。これによりニューラル翻訳の利点を生かしたアテンションと言語学的な性質の双方を組み合わせた未知語問題の解決を行う。本論文はアテンションを用いた未知語解決に関する論文 (伊部, 松田,山口 2018)の内容を発展させたものである. ASPEC と NTCIR-10の 2 つのコーパスに提案手法を適用したところ,未知語を完全に除くことができ,BLEU 値も上昇させることができた. ## 2 背景 本章では,ニューラル機械翻訳の手法と統計的機械翻訳の手法の中から本論文で使用している手法の説明を行う. ## 2.1 フレーズに基づく統計的機械翻訳 本論文では, 未知語を置き換える単語を探す時にフレーズベース機械翻訳 (Koehn et al. 2003) で生成されるフレーズテーブルを使うため,フレーズベース機械翻訳について説明する。フレー ズベース機械翻訳は,統計的手法を用いて翻訳規則を学習し,翻訳を行う手法である。手順を以下に示す. (1)対訳コーパスにアライメントモデルを適用し,単語アライメント表を作成する。単語アライメント表の計算では同時に単語翻訳確率 $t(e \mid f)$ も計算される。単語アライメント表をソース言語からターゲット言語, またその逆に対して作成し, grow-diag-final-and (gdfa) などのヒューリスティックを用いて 2 つの表を重ね合わせたものを最終的な単語アライメント表とする. (2) 作成した単語アライメント表とソース言語・ターゲット言語をもとに, ソース言語における単語列がターゲット言語におけるどの単語列に翻訳されるかを表す翻訳規則と,フレー ズ翻訳確率 $P(\boldsymbol{e} \mid \boldsymbol{f})$ を学習する。規則の抽出は (Och and Ney 2004) などの方法がある. (3)翻訳規則を利用して出力候補文をいくつか生成する.各候補文に対し翻訳規則の確率と言語モデルを用いて翻訳確率を計算し,翻訳確率が最も高い候補文を出力結果とする。 ## 2.2 アテンションに基づくニューラル機械翻訳 アテンションに基づくニューラル機械翻訳 (Bahdanau et al. 2014) は, アテンションを用いて翻訳するソース言語の各単語に異なる重みを与えるニューラル機械翻訳である. 入力文 $\boldsymbol{f}=\left(f_{1}, f_{2}, \ldots, f_{J}\right)$ とその分散表現 $\boldsymbol{x}=\left(x_{1}, x_{2}, \ldots, x_{J}\right)$, 出力文 $\boldsymbol{e}=\left(e_{1}, e_{2}, \ldots, e_{I}\right)$ とその分散表現 $\boldsymbol{y}=\left(y_{1}, y_{2}, \ldots, y_{I}\right)$ のぺアの条件付き確率を最大化するように学習する. $ p(\boldsymbol{e} \mid \boldsymbol{f})=\prod_{i=1}^{I} p\left(e_{i} \mid e_{1}, \ldots, e_{i-1}, \boldsymbol{f}\right) $ $e_{i}$ の生成確率は以下で与えられる. $ p\left(e_{i} \mid e_{1}, \ldots, e_{i-1}, \boldsymbol{x}\right)=g\left(y_{i-1}, s_{i}, c_{i}\right) $ $s_{i}$ は $i$ 番目の出力単語列の隠れ状態であり, 以下の式 (3) で計算される. $ s_{i}=f\left(s_{i-1}, y_{i-1}, c_{i}\right) $ $c_{i}$ は出力文の $i$ 番目の単語の文脈ベクトルといい, 以下の式 (4)で計算される. $ c_{i}=\sum_{j=1}^{J} \alpha_{i j} h_{j} $ $\alpha_{i j}$ はアテンション值といい, $y_{i}$ に関連しているのが $x_{j}$ である確率である. 式 (5) と式 (6) に従って計算する。 $ \begin{gathered} \alpha_{i j}=\frac{\exp e_{i j}}{\sum_{k=1}^{J} \exp e_{i k}} \\ e_{i j}=a\left(s_{i-1}, h_{j}\right) \end{gathered} $ $h_{j}$ は入力文の $j$ 番目の単語の文脈ベクトルで, 式 (7) に従って計算する1. $ h_{j}=h\left(x_{j}, h_{j-1}\right) $ 以上の $a(), f(), g(), h()$ は入力変数の重み付き線形和を何らかの非線形関数(通常は $\tanh$ 関数)で変換したものである。具体的には, 入力変数群を $v_{1}, \ldots, v_{n}$ とすると, $a\left(v_{1}, \ldots, v_{n}\right)=$ $\tanh \left(\sum_{i} w_{i} v_{i}+c\right)$ と表される. $w_{i}$ は各変数の重みであり, $c$ は切片である. 全ての $\mathrm{w}_{i}$ および $\mathrm{c}$ がパラメータとして, 損失関数を最小化するために最適化される。学習では, 以下の式 (8)で定義されるクロスエントロピーを損失関数として用いる. $ L=-\sum_{j} z_{j} \log z_{j}^{\prime} $ $z_{j}$ はコーパスにおける $y_{j}$ に対応する単語 $e_{j}$ の出現確率, $z_{j}^{\prime}$ は学習したパラメータを用いて翻訳を行った時に $y_{j}$ に対応する単語 $e_{j}$ が出力される確率である。学習後の翻訳では式 (1)を最大化する eをビームサーチなどで求める. ## 3 手法 本章ではニューラル機械翻訳を用いてモデル学習し翻訳を行った後, アテンションから単語アライメント表を作成し, 作成した単語アライメント表を用いて未知語を適切な単語に置き換える手法を説明する, 3.1 節では, 単語アライメント表の作成の方法として, 従来手法である intersection と gdfaを説明し, 提案手法である gdfa-f (gdfa fill) を導入する. 3.2 節では, 生成した単語アライメント表にしたがって未知語に対応する単語を決定する方法を説明する. ^{\prime}$ を計算し, $h_{j}$ と $h_{j}^{\prime}$ を連結したベクトルを使うが,ここでは説明は省略する。 } ## 3.1 単語アライメント表の作成 単語アライメント表の作成アルゴリズムの intersection と gdfa は (Koehn et al. 2003) で提案されたもので, gdfa-f は gdfaを改良した提案手法である. ある $i, j$ に対する $a_{i j}$ や単語アライメント表の要素をセルと呼ぶ. intersection ソース言語とターゲット言語どちらから見てもアテンション値が最も高いセルを対応付ける. 各セルの値 $b_{i j}$ は以下の式に従って計算する. $ b_{i j}= \begin{cases}1 & \text { if } i=\underset{i^{\prime}}{\arg \max } a_{i^{\prime} j} \text { and } j=\underset{j^{\prime}}{\arg \max } a_{i j^{\prime}} \\ 0 & \text { otherwise }\end{cases} $ gdfa gdfa では, intersectionにより作成した $b_{i j}=1$ となるセルに隣接するセル群をまず候補として抽出する。最初は全ての候補セルの値は 0 である。 ある候補セルのアテンション値が,他のソース単語に対応するアテンション値と比べて大きい場合,そのセルの値を 1 とする。言い換えれば, そのセルのアテンション値が, その列内で最大値をとる場合, セルの値を 1 とする。また, ある候補セル内のアテンション値が, 他のターゲット単語に対応するアテンション値と比べて大きい場合(すなわち,行内で最大值をとる場合)も, そのセルの値を 1 とする(厳密な定義は以下の式を参照のこと)。これはソース言語の 1 つの単語がターゲット言語において複数の単語に対応している場合, それらは隣り合うことが多いので,すでに単語アライメント表に入っている単語と隣り合う単語のみを表に追加することを許すという考え方による. gdfaによる単語アライメント表 $b_{i j}^{\prime}$ は, $b_{p, q}$ の(上下左右の)隣接セルの中で 1 をるセルの個数を返す関数 $ n e i g h b o r\left(b_{p q}\right)=b_{(p-1) q}+b_{(p+1) q}+b_{p(q-1)}+b_{p(q+1)} $ を使って以下のように計算する. gdfa-f gdfaにおいて作成した行列 $b_{i j}^{\prime}$ をとに, ソース言語のそれぞれの単語に対して, 対応付けされているターゲット言語の単語がなければ, アテンション值が最も高いセルに対応付ける. ターゲット言語のそれぞれの単語に対しても同様の操作を行う. gdfa-fによる単語アライメント表 $b_{i j}^{\prime \prime}$ は以下の式に従い計算する. $ b_{i j}^{\prime \prime}= \begin{cases}1 & \text { if } b_{i j}^{\prime}=1 \text { or }\left(j=\underset{j^{\prime} \in \mathcal{J}}{\arg \max } a_{i j^{\prime}} \text { and } i \in \mathcal{I}\right) \text { or }\left(i=\underset{i^{\prime} \in \mathcal{I}}{\arg \max } a_{i^{\prime} j} \text { and } j \in \mathcal{J}\right) \\ 0 & \text { otherwise }\end{cases} $ e4 (a) アテンション $a_{i j}$ (c) gdfa の単語アライメント表 $b_{i j}^{\prime}$ (b) intersection の単語アライメント表 $b_{i j}$ (d) gdfa-f の単語アライメント表 $b_{i j}^{\prime \prime}$ 図 1 intersection, gdfa, gdfa-f の例 ここで $\mathcal{I}, \mathcal{J}$ はそれぞれ以下の式で定義される. $ \mathcal{I}=\left.\{i \mid \sum_{j} b_{i j}^{\prime}=0\right.\} \text { and } \mathcal{J}=\left.\{j \mid \sum_{i} b_{i j}^{\prime}=0\right.\} $ アテンションから intersection, gdfa, gdfa-f を求めた例を図 1 に示す. 図中の各セルはそれぞれ $b_{i j}, b_{i j}^{\prime}, b_{i j}^{\prime \prime}$ の值を表し, 白は 0 , 灰色は 1 とした. gdfa-fでは, 出力文中の各単語に対して,少なくとも一つの入力文中の単語が必ず対応する。言い換えれば,gdfa-f により,出力文中の全ての未知語に対して,既知の入力文中の単語を必ず割り当てることができる. ## 3.2 未知語の置き換え 生成した単語アライメント表を用いて, ニューラル機械翻訳の出力文中の未知語 $e_{i}$ を単語に置き換える方法について説明する。 まず, $e_{i}$ に対応している入力文中の単語列 $\boldsymbol{f}_{\boldsymbol{i}}$ を $\boldsymbol{f}_{\boldsymbol{i}}=\left.\{f_{j} \mid b_{i j}=1\right.\}$ とする。次に, $\boldsymbol{f}_{\boldsymbol{i}}$ の翻訳となる単語列を決定して未知語 $e_{i}$ と置き換える。本論文では $\boldsymbol{f}_{\boldsymbol{i}}$ の翻訳となる単語列の決定方法として IBM と ChangePhrase (Koehn et al. 2003) と Dict を用いた. IBM 単語アライメント表の主な作成法は (Hashimoto et al. 2016; Arthur et al. 2016) などで用いられている IBM モデルが挙げられる。ここではIBM モデル 4 を用いた。対訳コー パスに IBM モデル 4 を適用したときの単語翻訳確率 $t(e \mid f)$ を使い, $\boldsymbol{f}_{\boldsymbol{i}}=\left(f_{i_{1}}, \ldots, f_{i_{n}}\right)$ の要素それぞれにおいて最も確率の高い $e_{\text {best }}=\arg \max t\left(e \mid f_{i}\right)$ を選択する手法である. ChangePhrase $f_{i}$ の翻訳を統計的機械翻訳で作成したフレーズテーブルから参照し,コーパスから計算したフレーズ翻訳確率 $P(\boldsymbol{e} \mid \boldsymbol{f})=\frac{c(\boldsymbol{e}, \boldsymbol{f})}{c(\boldsymbol{f})}$ が最も高いフレーズ $\boldsymbol{e}_{\boldsymbol{b} \boldsymbol{e} \boldsymbol{s}}=\arg \max P\left(\boldsymbol{e} \mid \boldsymbol{f}_{\boldsymbol{i}}\right)$ を選択する手法である. $c(\boldsymbol{f})$ はコーパス中のフレーズ $\boldsymbol{f}$ の出現回数, $c(\boldsymbol{e}, \boldsymbol{f})$ はフレーズ $e$ との同時出現回数である. フレーズで置き換えるため, 未知語を複数単語と置き換えることもある。 Dict外部の辞書から $f_{j}$ の各単語の訳を検索した単語を選択する手法である. ## 4 実験 ## 4.1 実験データ・方法 対訳コーパスとしては ASPEC(Nakazawa, Yaguchi, Uchimoto, Utiyama, Sumita, Kurohashi, and Isahara 2016), NTCIR-10の patentMT(Goto, Chow, Lu, Sumita, and Tsou 2013)2を用いた. コーパスのサイズと単語数を表 1 に示す. モデル学習およびデコーダには nematus ${ }^{3}$ を用い,日英および英日の翻訳を行った。隠れ層の数は 1,000 , 単語べクトルの次元数は $512, \mathrm{RNN}$ は GRU,学習アルゴリズムは Adam, 学習率は 0.0001 , バッチサイズは 40 , dropout は未使用で学習を行った. 英語の構文解析には Stanford Parser4を,日本語のトークン化には KyTea ${ }^{5}$ を用いた。IBM モデル 4 の実装としては GIZA++ ${ }^{6}$ を用いた. フレーズテーブルの抽出は mosesdecoder ${ }^{7}$ 用いた.未知語の置き換えの手法の Dict では外部辞書として EDict (Breen 2000)を用いた. コー パスの前処理としては, (Neubig 2013) を参考に, 単語数 51 以上の文は学習データから取り除いた。 ASPEC で語彙数を 1 万から 5 万まで 1 万ずつ変化させた時の翻訳結果の BLEU 値を計算し 表 1 各コーパスのサイズと全語彙数 train は学習に, devはパラメータチューニングに, test はテストに用いた.  表 2 ASPEC において語彙数を変化させたときの日英の翻訳結果の BLEU 値 太字は最も高い値. 表 3 語彙数を制限した時の未知語の割合 た結果を表 2 に示す.この結果から, 最も BLEU 値が高かった語彙数 4 万を実験で用いた. パラメータを統一するために NTCIR-10でも同じパラメータで実験を行った.語彙数を 4 万に制限した時の(延べ)全単語数における未知語の割合を表 3 に示す. 次にニューラル機械翻訳のコーパスからの学習における適切な更新回数を調べるために,更新回数 1 万から 15 万まで 1 万ごとに損失関数の値を計算した。その結果 ASPEC は 10 万回, NTCIR-10 は 12 万回以降, 損失関数の値が変化しなくなったため, これらを更新回数として設定した。 ## 4.2 評価指標 翻訳精度の評価指標には BLEU (Papineni, Roukos, Ward, and Zhu 2002), METEOR (Banerjee and Lavie 2005)の 2 つを用いた.また METEOR は日本語の評価には対応していないため日英翻訳の評価のみに用いた。 ## 4.3 実験結果と考察 コーパスとして ASPEC を用いた翻訳の結果を表 4 に示す. baseline はアテンションベースのニューラル機械翻訳のシステムである nematus のデフォルトの設定で学習したモデルである。BPEは (Sennrich et al. 2016), PosUNK は (Luong et al. 2015) を再実装して実験した結果である。語彙数はそれぞれ 4 万とした。語彙数を変更した実験も行ったが,BLUE 値や未知語の割合に大きな変化はなかったため, ここでは提案手法と同様の 4 万とした,学習の更新回数については, 提案手法同様に損失関数の値が最も小さくなった時の BLEU 值を採用した. intersection+ChangePhrase 以下が提案手法を実装して実験した結果である.これは baseline である nematus で求めたアテンションから intersection, gdfa, gdfa-f のいずれかを用いて単語アライメント表を作成し, ChangePhrase, IBM, Dictのいずれかを用いて未知語に置き換える単語列を決めたものである。単語アライメント表の作成方法と未知語に置き換える単語列の決め 方の $3 \times 3$ 通りの全ての組合せを実行した。 表 4 より, 未知語を置き換える手法としては ChangePhrase よりIBM の方が良い結果が出ている. ChangePhraseでは未知語が複数連続している場合にそれらをまとめてフレーズとするため,そのフレーズの訳が見つからなければ置き換えることができないが,IBM では 1 単語ずつ未知語を置き換えているので,学習コーパス中にある単語であ机必ず置き換えることができるので,それが原因として考えられる。 単語アライメントを求める方法としては, gdfa-f とIBM を組み合わせるとすべての未知語を別の単語で置き換えることができている。またBLEU 値もよく使われる手法であるintersection と比べて大差がなく, 同等の結果となっている。一方, 既存手法である BPE と PosUNKでは,未知語の数を大幅に減らすことはできているが,翻訳性能そのものはむしろ悪化している,コー パスとして NTCIR-10を用いて同じ実験を行った結果を表 5 に示す. NTCIR-10では語彙数を 4 万に制限した場合に未知語の数自体が少なくBLEU 値などに差が少ないが,ASPEC と同様に gdfa-f+IBM を使うとすべての未知語を別の単語で置き換えることができている。また BLEU 値も intersection と比べて大差がなく,同等の結果となっている. 表 4 を見ると METEOR では gdfa-f + IBM が最も高い数值を出している. METEOR は BLEU と違い同義語に高いスコアを与える翻訳の評価指標であるため,これは gdfa-f を適用することで意味の近い単語を選択できているということを示唆する。 次に, gdfa-f+IBM において, パラメータ更新回数と BLEU 値および UNK の出現率の関係を 表 4 ASPEC コーパスでの翻訳結果の精度比較結果 & & & & \\ BPE & 21.47 & 28.34 & $\mathbf{0 . 0 0}$ & 29.54 & $\mathbf{0 . 0 0}$ \\ PosUNK & 24.25 & 31.63 & 0.07 & 34.47 & 0.17 \\ +intersection+ChangePhrase & 25.34 & 31.97 & 1.10 & 34.64 & 0.57 \\ +intersection+IBM & $\mathbf{2 5 . 5 6}$ & 32.06 & 0.42 & 34.63 & 0.50 \\ +intersection+Dict & 25.05 & 31.71 & 2.00 & 34.58 & 0.81 \\ + gdfa+ChangePhrase & 25.37 & 32.03 & 1.00 & 34.67 & 0.36 \\ + gdfa+IBM & 25.50 & 32.14 & 0.14 & 34.65 & 0.23 \\ +gdfa+Dict & 25.04 & 31.72 & 1.96 & 34.58 & 0.99 \\ +gdfa-f+Changephrase & 25.37 & 32.06 & 0.89 & $\mathbf{3 4 . 6 8}$ & 0.16 \\ + gdfa-f+IBM & 25.51 & $\mathbf{3 2 . 1 6}$ & $\mathbf{0 . 0 0}$ & 34.66 & $\mathbf{0 . 0 0}$ \\ +gdfa-f+Dict & 25.05 & 31.73 & 1.91 & 34.59 & 1.10 \\ 太字は最も高い(UNK の場合は最も低い)值. グラフに表したものが図 2 および図 3 である. ここからパラメータ更新回数が少ない場合でも gdfa-f+IBM を適用することで未知語をなくし,BLEU 値も若干あげることができることがわかる. 表 5 NTCIR-10 コーパスでの翻訳結果の精度比較結果 & & & & \\ BPE & 32.95 & 31.12 & $\mathbf{0 . 0 0}$ & 33.26 & $\mathbf{0 . 0 0}$ \\ PosUNK & 34.88 & 33.52 & 0.09 & 36.39 & 0.03 \\ +intersection+ChangePhrase & 35.33 & 33.92 & 1.12 & 36.76 & 0.20 \\ +intersection+IBM & $\mathbf{3 5 . 3 7}$ & 33.99 & 0.21 & $\mathbf{3 6 . 8 3}$ & 0.05 \\ +intersection+Dict & 35.33 & 33.91 & 1.16 & 36.74 & 0.28 \\ + gdfa+ChangePhrase & 35.31 & 31.88 & 1.08 & 36.77 & 0.18 \\ + gdfa+IBM & 35.31 & 34.02 & 0.10 & $\mathbf{3 6 . 8 3}$ & 0.03 \\ + gdfa+Dict & 35.32 & 33.91 & 1.20 & 36.74 & 0.27 \\ + gdfa-f+changePhrase & 35.33 & 33.90 & 1.01 & 36.77 & 0.21 \\ +gdfa-f+IBM & 35.31 & $\mathbf{3 4 . 0 3}$ & $\mathbf{0 . 0 0}$ & $\mathbf{3 6 . 8 3}$ & $\mathbf{0 . 0 0}$ \\ + gdfa-f+Dict & 35.32 & 33.91 & 1.17 & 36.73 & 0.26 \\ 太字は最も高い(UNK の場合は最も低い)値. iteration回数とBLEUおよびUNKの関係 図 2 パラメータ更新回数と BLEU 值の関係(日英) 図 3 パラメータ更新回数と BLEU 值の関係(英日) ## 5 おわりに 本論文では,ニューラル機械翻訳により生成されたアテンションをもとに,単語の重複がないように単語アライメント表を作成することで, 出力結果における未知語が入力文のどの単語に対応しているかを判別し, 統計的機械翻訳でのモデルを用いて未知語を適切な単語に置き換える手法を提案した. その結果, 提案手法の gdfa-f を用いて単語アライメント表を作ることで未知語をなくすことができ,BLEU 值なども向上させることができることがわかった. 今後はより大きな外部辞書を活用するなどしてさらに翻訳精度を高めていきたい. また, 本論文で提案した手法はターゲット言語における 1 つの未知語が単語もしくはフレーズに対応しているという仮定に基づいているが,未知語とその周辺の単語またはフレーズが一つの単語に対応している,すなわち置き換えた単語と周辺の単語が重複する状況も考えられる。 そのような場合も考慮した手法を検討していきたい。 ## 参考文献 Arthur, P., Neubig, G., and Nakamura, S. (2016). "Incorporating Discrete Translation Lexicons into Neural Machine Translation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1557-1567. Bahdanau, D., Cho, K., and Bengio, Y. (2014). "Neural Machine Translation by Jointly Learning to Align and Translate." arXiv preprint arXiv:1409.0473. Banerjee, S. and Lavie, A. (2005). "METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments." In Proceedings of ACL Workshop on In- trinsic and Extrinsic Evaluation Measures for Machine Translation And/or Summarization, Vol. 29, pp. 65-72. Breen, J. (2000). "A www Japanese Dictionary." Japanese Studies, 20 (3), pp. 313-317. Cho, K., van Merrienboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., and Bengio, Y. (2014). "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1724-1734, Doha, Qatar. Association for Computational Linguistics. Freitag, M. and Al-Onaizan, Y. (2016). "Fast Domain Adaptation for Neural Machine Translation." arXiv preprint arXiv:1612.06897. Goto, I., Chow, K.-P., Lu, B., Sumita, E., and Tsou, B. K. (2013). "Overview of the Patent Machine Translation Task at the NTCIR-10 Workshop." In NTCIR. Hashimoto, K., Eriguchi, A., and Tsuruoka, Y. (2016). "Domain Adaptation and Attentionbased Unknown Word Replacement in Chinese-to-Japanese Neural Machine Translation." In Proceedings of the 3rd Workshop on Asian Translation (WAT2016), pp. 75-83. 伊部早紀, 松田源立, 山口和紀 (2018). 日英ニューラル機械翻訳における未知語への対応. 言語処理学会第 24 年次大会発表論文集, pp. 1046-1049. Jean, S., Cho, K., Memisevic, R., and Bengio, Y. (2015). "On Using Very Large Target Vocabulary for Neural Machine Translation." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), Vol. 1, pp. 1-10. Khayrallah, H., Kumar, G., Duh, K., Post, M., and Koehn, P. (2017). "Neural Lattice Search for Domain Adaptation in Machine Translation." In Proceedings of the 8th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), Vol. 2, pp. 20-25. Koehn, P., Och, F. J., and Marcu, D. (2003). "Statistical Phrase-based Translation." In NAACL HLT-Volume 1, pp. 48-54. ACL. Luong, M.-T. and Manning, C. D. (2016). "Achieving Open Vocabulary Neural Machine Translation with Hybrid Word-Character Models." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Vol. 1, pp. 1054-1063. Luong, T., Sutskever, I., Le, Q., Vinyals, O., and Zaremba, W. (2015). "Addressing the Rare Word Problem in Neural Machine Translation." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), Vol. 1, pp. 11-19. Nakazawa, T., Yaguchi, M., Uchimoto, K., Utiyama, M., Sumita, E., Kurohashi, S., and Isahara, H. (2016). "ASPEC: Asian Scientific Paper Excerpt Corpus." In Calzolari, N., Choukri, K., Declerck, T., Grobelnik, M., Maegaard, B., Mariani, J., Moreno, A., Odijk, J., and Piperidis, S. (Eds.), Proceedings of the 9th International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, PortoroÅ, Slovenia. ELRA. Neubig, G. (2013). "Travatar: A Forest-to-String Machine Translation Engine based on Tree Transducers." In ACL System Demonstrations, pp. 91-96. Och, F. J. and Ney, H. (2004). "The Alignment Template Approach to Statistical Machine Translation." Computational Linguistics, 30 (4), pp. 417-449. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In $A C L$, pp. 311-318. ACL. Sennrich, R., Haddow, B., and Birch, A. (2016). "Neural Machine Translation of Rare Words with Subword Units." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Vol. 1, pp. 1715-1725. Skadina, I. and Rozis, R. (2016). "Towards Hybrid Neural Machine Translation for EnglishLatvian." In Human Language Technologies-The Baltic Perspective: Proceedings of the Seventh International Conference Baltic HLT 2016, Vol. 289, p. 84. IOS Press. Stahlberg, F., Hasler, E., Waite, A., and Byrne, B. (2016). "Syntactically Guided Neural Machine Translation." In The 54th Annual Meeting of the Association for Computational Linguistics, p. 299. Sutskever, I., Vinyals, O., and Le, Q. V. (2014). "Sequence to Sequence Learning with Neural Networks." In Advances in Neural Information Processing Systems, pp. 3104-3112. Tu, Z., Liu, Y., Lu, Z., Liu, X., and Li, H. (2017). "Context Gates for Neural Machine Translation." Transactions of the Association for Computational Linguistics, 5, pp. 87-99. Tu, Z., Lu, Z., Liu, Y., Liu, X., and Li, H. (2016). "Modeling Coverage for Neural Machine Translation." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Vol. 1, pp. 76-85. Zhang, J., Utiyama, M., Sumita, E., Neubig, G., and Nakamura, S. (2018). "Guiding Neural Machine Translation with Retrieved Translation Pieces." In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), Vol. 1, pp. 1325-1335. ## 略歴 伊部早紀:2017 年東京大学教養学部学際科学科卒業. 東京大学大学院総合文化研究科広域システム科学専攻修士課程在学中。言語処理に関する研究開発 ## に従事. 松田源立:1997 年東京大学教養学部卒業. 2002 年東京大学大学院総合文化研究科博士課程修了. 博士 (学術). 学振特別研究員 (PD), 青山学院大学理工学部助教を経て, 2013 年より東京大学大学院総合文化研究科学術研究員. 山口和紀 : 1979 年東京大学理学部数学科卒業. 1985 年理学博士 (東京大学). 1992 年東京大学教養学部助教授. 2007 年より東京大学大学院総合文化研究科教授、コンピュータのためのモデリング全般に興味を持つ. $(2018$ 年 5 月 1 日 $\quad$ 受付 $)$ $(2018$ 年 7 月 30 日 $\quad$ 再受付 $)$ $(2018$ 年 9 月 6 日 $\quad$ 採録 $)$
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 名詞句の情報の状態と読み時間について \author{ 浅原正幸 $\dagger$ } 日本語は冠詞のない言語である。日本語名詞句の情報の状態は, テキストに陽に表出せず,限られた文脈情報や世界知識のみに基づく手法では推定することは難しい.情報の状態は情報の新旧や定・不定などの観点で分析される. しかしながら, 日本語の言語処理においては, この概念が適切に扱われていない. そこで,本稿では, まず,日本語名詞句の情報状態について解説する,次に,読み時間を手がかりとして,名詞句の情報の状態(新旧・定不定)を推定することを検討する。具体的には日本語名詞句の情報の状態が文の読み時間にどう影響するかについて調査する.結果,名詞句の読み手の側の情報状態(情報)が読み時間に対して影響を与えることを明らかにしたので報告する。 キーワード:情報状態, 読み時間, アノテーション・ベイジアン線形混合モデル ## Between Reading Time and the Information Status of Noun Phrases \author{ MASAYUKI AsAHARA $^{\dagger}$ } Japanese noun phrases are not marked by articles. The information status of Japanese noun phrases is not overt. Due to limited contextual information and world knowledge, it is difficult to estimate the information status, which is analyzed through the given/new status or indefinite/definite status. However, in Japanese language processing, the notion of the information status is yet to be understood. In this paper, we explain the information status of Japanese noun phrases. Then, we explore how the information status of Japanese noun phrases is estimated through the reading time. As a first step, we investigate the correlation between reading time and the information status of Japanese noun phrases. The statistical evaluation shows that readers' information status affects reading time in Japanese. Key Words: Information Status, Reading Time, Annotation, Bayesian Linear Mixed Model ## 1 はじめに 本稿では日本語名詞句の情報の状態を推定するために読み時間を用いることを目指して, 情報の状態と読み時間の関連性について検討する,名詞句の情報の状態は,情報の新旧に関する  だけでなく, 定性・特定性など他言語の冠詞選択に与える性質や, 有生性・有情性などの意味属性に深く関連する。他言語では冠詞によって情報の性質が明確化されるが,日本語においては情報の性質の形態としての表出が少ないために推定することが難しい. 情報の状態は,書き手の立場のみで考える狭義の情報状態 (information status) と読み手の立場も考慮する共有性 (commonness) の 2 つに分けられる,前者の情報状態は,先行文脈に出現するか(既出:discourse-old)否か(未出:discourse-new)に分けられる.後者の共有性は,読み手がその情報を既に知っていると書き手が仮定しているか(既知:hearer-old), 読み手がその情報を文脈から推定可能であると書き手が仮定しているか(ブリッジング:bridging),読み手がその情報を知らないと書き手が仮定しているか(未知:hearer-new)に分けられる.以後,一般的な情報の新旧を表す場合に「情報の状態」と呼び,書き手の立場のみで考える狭義の情報の新旧を表す場合に「情報状態」(information status) と呼ぶ. これらの情報の状態は,言語によって冠詞によって明示される定性 (definiteness) や特定性 (specificity) と深く関連する。また, 情報の状態は, 有生性 (animacy), 有情性 (sentience), 動作主性 (agentivity) とも関連する。日本語のような冠詞がない言語においても,これらの「情報の状態」は名詞句の性質として内在しており, ヒトの文処理や機械による文生成に影響を与える. 機械翻訳を含む言語処理における冠詞選択手法は, これらの名詞句にまつわる様々な特性を区別せずに機械処理を行っているきらいがある。例えば,(乙武,永田 2016) は,本来,定・不定により決定される英語の冠詞推定に情報の新旧の推定をもって解決することを主張している.彼らの主張では,談話上の情報の新旧をもって定・不定が推定できると結論付けている. また,自動要約や情報抽出においても,既出・未出といった情報状態の観点,つまり書き手側の認知状態が主に用いられ, 既知・想定可能・未知といった共有性の観点, つまり読み手側の認知状態が用いられることは少ない. これらを適切に区別して, 識別することが重要である.特に,読み手の側の情報状態は,自動要約や情報抽出の利用者の側の観点である。さらにその推定には読み手の側の何らかの手がかりをモデルに考慮することが必要になると考える. 言語処理的な解決手法として,大規模テキストから世界知識を獲得して情報状態を推定する方法が考えられる一方,読み手の反応を手がかりとして共有性を直接推定する方法が考えられる. 読み手の反応に基づいて, 読み手側の解釈に基づく日本語の情報状態の分析は殆どない. そこで,本稿では,対象とする読み手に対する情報の状態が設定されているであろう新聞記事に対する読み時間データが,名詞句の情報の状態とどのような関係があるのかを検討する。 もし読み時間が名詞句の情報の状態と何らかの関係があるのであれば, 視線走查装置などで計測される眼球運動などから,情報の状態を推定することも可能であると考える.特に共有性は読み手の側の情報状態であるにかかわらず,既存の日本語の言語処理では読み手の側の特徴量を用いず推定する手法が大勢であった. なお, 本研究の主目的は冠詞選択にはなく, 日本語の名詞句の情報状態を推定することにある。その傍論として既存の冠詞選択手法が定・不定など の名詞句の特性と本稿で扱う書き手・読み手で異なる情報状態とで差異があり,言語処理の分野において不適切に扱われてきた点について言及する. 以下, 2 節では関連研究を紹介する. 3 節に情報状態の概要について示す. 4 節に読み時間の収集方法について示す。5 節では今回利用する読み時間データおよび情報の状態アノテーションデータと分析手法について示す. 6 節で実験結果と考察について示す. 7 節で結論と今後の方向性について示す. ## 2 関連研究 情報状態に関するアノテーションについての関連研究を示す. Götze らは情報状態(既出 (given)/想定可能 (accessible)/未出 (new))や話題 (aboutness/frame setting) や焦点(新情報焦点 (new-information focus)/対照焦点 (contrastive focus))に関する言語非依存のアノテーション基準を提案している (Götze, Weskott, Endriss, Fiedler, Hinterwimmer, Petrova, Schwarz, Skopeteas, and Stoel 2007). Prasad らは, Penn Discourse Treebank (Prasad, Dinesh, Lee, Miltsakaki, Robaldo, Joshi, and Webber 2008) および PropBank (Palmer, Gildea, and Kingsbury 2005) に対するブリッジングアノテーションの基準について議論している (Prasad, Webber, Lee, Pradhan, and Joshi 2015). 次に,英語の冠詞推定に関連する研究について言及する。先に述べた (乙武, 永田 2016)では,情報の新旧と定・不定の近似による手法を提案している。(竹内,河合,細田,永田 2013) では,ブリッジング(想定可能)にも言及しているが,単語の共起をもってブリッジングとしており,実際に読み手が想定可能かどうかについての言及はしていない.これらは,英語の冠詞が表出する定・不定を誤って理解していることによるものだと考える. 最後に, 視線走査関連についての関連研究を示す. Dundee Eye Tracking Corpus (Kennedy and Pynte 2005) は英語とフランス語の新聞社説をそれぞれ 10 人の母語話者に呈示して視線走査装置を用いて収集した読み時間データである。また, 視線走査データを用いた言語学的な分析について紹介する. Demberg らは Dundee Eye Tracking Corpus を用いて, Gibson の dependency locality theory (DLT)(Gibson 2008) や Hale の surprisal theory (Hale 2001)を検証した (Demberg and Keller 2008). Barret らは視線走査データに基づいて品詞タグ付けを行う手法を提案している (Barrett, Bingel, Keller, and Søgaard 2016). Klerke らは視線走査により,機械処理されたテキストの文法性判断を行う手法を提案している (Klerke, Martínez Alonso, and Søgaard 2015). このように視線走査を用いて,読み手側の要因をいれた研究が盛んに進められている。 ## 3 名詞句の情報の状態について 本節では名詞句の情報の状態について概説する。なお, 本節は (Miyauchi, Asahara, Nakagawa, and Kato 2018; 宮内, 浅原, 中川, 加藤 2018) に記載されているものの一部であるが, 查読者の指示で掲載する。 本研究で利用するアノテーションデータ BCCWJ-Infostr では以下の 7 種類の情報の状態にまつわる属性について検討する。 (1) a. 情報状態 (information status) 「新情報 (discourse-new)」「旧情報 (discourse-old)」 b. 共有性 (commonness) 「共有 (hearer-new)」「非共有 (hearer-old)」 c. 定性 (definiteness) 「定 (definite)」「不定 (indefinite)」 d. 特定性 (specificity) 「特定 (specific)」「不特定 (unspecific)」 e. 有生性 (animacy) 「有生 (animacy)」「無生 (inanimate)」 f. 有情性 (sentience) $\lceil$ 有情 (sentient)」「無生 (insentient)」 g. 動作主性 (agentivity) 「動作主 (agent)」「被動作主 (patient/theme)」 アノテーション対象とする『現代日本語書き言葉均衡コーパス』(BCCWJ) (Maekawa, Yamazaki, Ogiso, Maruyama, Ogura, Kashino, Koiso, Yamaguchi, Tanaka, and Den 2014) では, 長単位と短単位という 2 の単位が採用されているが, 本研究では, 短単位の名詞をアノテーション対象とする。アノテータは BCCWJ-DepParaPAS (植田, 飯田, 浅原, 松本, 徳永 2015; 浅原, 大村 2016) に付与された共参照情報を確認しながら, 作業を行う. ただし, 複合語については, 前部要素には指示性 (referentiality) がないこと等を考慮して, 前部要素まで含めて一つの名詞と捉えることにより,実質的に長単位名詞句へのアノテーションを行うことになる.この単位に対する方針については,基本的には BCCWJ-DepParaPAS の作業方針と同じである.上記に示したタグは言語学の専門的な知識を持つものでないとアノテーションができないために, 1 人の言語学博士課程の学生がアノテーションし, 3 人がその結果を確認した. 定性・特定性 ・有生性・有情性・動作主性については, 与えられた文脈から判断できない場 合に「どちらでもよい」というタグを認めた。特に動作主性については,ある名詞句が主節から見た場合と従属節から見た場合と異なる場合に付与した。なお,共有性・特定性・動作主性については,その概念が認めがたい場合に「どちらでもない」というタグを認めた. 以下,実例と共にそれぞれのラベルのアノテーション基準を示す. ## 3.1 情報状態・共有性 (1a)の情報状態とは,いわゆる旧情報と新情報の区別である。ある談話において,新たな情報は「新情報」となり,聞き手/読み手が知っている情報は「旧情報」となる。一つのテクスト(BCCWJ 新聞サンプルにおける記事単位)全体を一つの談話とみなし,アノテーションを行った. (2) a. 担任だった池田弘子先生は違った。 b. スクールカウンセラーでもあった先生の授業は 読売新聞 [BCCWJ:PN1c_00001] (2a)の下線部の名詞「池田弘子先生」はこのテクストで初出の実体であるために, 末尾の短単位名詞に新情報夕グが付与される。一方, (2b) 下線部の名詞「先生」は (2a)の「池田弘子」を指示しているため旧情報タグが付与される。これらの名詞は共参照関係にあり,BCCWJ-DepParaPAS のアノテーションから展開できるが, 展開したのち, 全数確認を行いラベル付与した. (1b) の共有性は, 情報を聞き手が既に知っていると話し手が想定しているか否かを示す分類である。聞き手が既に知っていると話し手が想定している情報は「共有 (hearer-old)」であり,知らないと想定している情報は「非共有 (hearer-new)」である. なお, この判断の際はアノテー 夕の世界知識を使ってもよいこととし, 「想定可能」というラベルも許す.このラベルは, ブリッジング (bridging) を起こしている際に付与される. (3) $a$ キャンティ街道を抜け、 $\underline{b}$ オリーブ畑に囲まれた田園地帯の $\underline{c}$ レストランで、読売新聞 [BCCWJ:PN4c_00001] 3 の下線部 a. の名詞「キャンティ街道」は, 世界遺産にも登録されている, ワインで有名な街道であり,アノテータは既にこの街道について知っていたため,共有の夕グが付与された. 下線部 b. の名詞「オリーブ畑」はこの記事からどんなオリーブ畑であるのか判断できないため,非共有のタグが与えられる。下線部 c. の名詞「レストラン」はキャンティ街道のレストランを指しており,ある種のブリッジングを起こしているため,想定可能の夕グが付与される. ## 3.2 定性 - 特定性 (1c) の定性とは,指示対象を聞き手が同定できるか否かを示す分類である。指示対象を聞き手が同定できると話し手が想定していれば「定 (definite)」であり,同定できないと想定してい れば「不定 (indefinite)」である。本研究では,判定する際に確認する文脈として前後 3 文を見ることとする。 (4)高等部では自由な校風もあって、流行に乗ってかばんを薄くつぶしたり、ピアスをしたり。呼び出して注意する先生もいたが、二、三年時に担任たっった池田弘子先生 (七十五)は違った。「そんな薄い ${ }_{a}$ かばんじゃ $\underline{b}_{b}$ 遊び道具も入らないよ」読売新聞 [BCCWJ:PN4c_00001] (4) の下線部 a. の名詞「かばん」はスコープである (4)の前 3 文以内に既出の名詞であり,ここでは具体的に聞き手の持ち物のかばんを指示している。話し手はこの「かばん」は聞き手により同定しうると想定していると考えられるため, 定のタグが与えられる。 (4)の下線部b.の名詞「遊び道具」は特に具体的な何か遊び道具を指示しているわけではないため, 不定のタグが付与される。 (1d) の特定性は,定性と少々似た概念であるが,話し手が特定の事物を想定しているか否かを示す意味論的カテゴリーである。話し手が特定の事物を想定しているならば「特定 (specific)」 となり,想定していなければ「不特定 (unspecific)」となる。定性と同様, 特定性に関しても文脈として前後 3 文を見ることとする. (5)米どころの同町では、降霜対策で農家による廃夕イヤの野焼きが行われてきたが、ダイオキシン問題や交通妨害が指摘され、行き場を失った $a_{a}$ 廃夕イヤがあぜ道や $\underline{b}_{\underline{b} \text { 納屋 }}$ の横に放置されてきた。同町が昨秋行った調査では、廃タイヤは農家が抱えるものや不法投棄を含め約三万本に上るという。 読売新聞 [BCCWJ:PN4c_00001] 5 の下線部 a. の名詞「廃タイヤ」は, 北海道鷹栖町に放置された約 30,000 本のタイヤを具体的に指しており, これは 5 の前後 3 文から読み取ることが可能であるため特定の夕グが付与される. 5 の下線部 b.の名詞「納屋」は特定の納屋が想定されているわけではなく, 不特定の夕グが与えられる. ## 3.3 有生性 ・ 有情性 (1e) の有生性とは,生きているか否かを示すカテゴリーである。生物(人間,動物など)は 「有生 (animate)」であり,無生物(植物を含む)は「無生 (inanimate)」である.有生性は名詞句レベルのみで判断し, 付与されるものとする. 有生性と似た概念として (1f) の有情性がある。これは, 情意があるか否かを示すパラメター である.自由意志による移動が可能な場合は「有情 (sentient)」となり, 自由意志による移動がないなら「非情 (insentient)」となる。日本語については, 有生/無性の区別よりも有情/非情 の区別が重要であるとする立場もあり,また,有生性と有情性の値が異なる場合もあり得ることから,このパラメターの設定が必要となる,情意の有無は名詞句単体では判定できない場合があるため,有情性は述語-項レべルまで見た上で判断し,付与されるものとする。 (6) オオクチバスなどの ${ }_{a}$ ブラックバス類が、少なくとも四十三都道府県の七百六十一のため池や $\underline{b}$ 湖沼に侵入し、 読売新聞 [BCCWJ:PN4c_00001] (6) の下線部 a. の名詞「ブラックバス」は生物であるため, 有生の夕グが付与される。 また, ブラックバスに情意があるか否かは判断が難しいが,その述語は「侵入する」となっており,これは意志的な動作,行為を表しているため,ここでの「ブラックバス」は有情の夕グが付与されることになる。(6)の下線部 b. の名詞「湖沼」は無生物であり,情意もないと判断されるため,それぞれ,無生,非情のタグが与えられる。 ## 3.4 動作主性 (1g)の動作主性は, 事態に関わる事物や人物がその事態で果たしている役割を示す. 行為を意図的に実現するものは「動作主 (agent)」とし,行為によって変化を被るものを「被動作主 (patient/theme)」とする. このパラメターについては節レべルまで見て判断し, タグを付与することとする。その際,主節と従属節の両方を考慮する。また,「どちらでもよい」「どちらでもない」を許す。 a. 編み笠をかぶった人なつっこい笑顔を見るだけで、 b. もみじの木にとまって仲良く寄り添う二羽のキジバト。 c. 独特な雾囲気の写真になりました。 読売新聞 [BCCWJ:PN1d_00001] (7a)の下線部の名詞「笑顔」は, 主節では被動作主であり従属節では動作主である。このような場合に「どちらでもよい」というタグを付与する。(7b)の下線部の名詞「キジバト」は,それを含む文がこの名詞で終わる体言止めの文であるため主節では動作主性の判断ができないが,従属節では動作主であるため,「動作主」というタグを付与する。(7c)の下線部の名詞「写真」 は動作主でも被動作主でもないため,「どちらでもない」となる. ## 3.5 名詞句の情報の状態のまとめ このように名詞句の情報の状態は, 多様な観点が分析される。しかしながら, 2 節で示した日本人工学研究者による英語の冠詞推定手法のように, これらが混同されて扱われてきた. なお,我々の興味は,冠詞推定にはなく,情報の状態にある。情報の状態は 3.1 節に示した 通り,書き手にとっての情報の新旧である情報状態と,読み手にとっての情報の新旧である共有性の 2 つの観点がある.前者の情報状態については,談話の出現について言及する共参照解析により言語処理に分野では扱われてきた。本稿では,後者の共有性を読み手の視線情報により捉えるかを検証する。一般に,情報抽出や自動要約のために必要なのは,アプリケーションを利用する受け手側から見た情報の新旧である共有性にある. ## 4 読み時間の収集方法 本節では読み時間の収集方法について説明する。なお, 本節は言語学会論文誌『言語研究』に投稿中のものの一部であるが,査読者の指示で掲載する. 読み時間を収集する対象は,BCCWJ(Maekawa et al. 2014)のコアデータの新聞記事データ (PN サンプル) の一部とした. コーパスアノテーションの分野では, できる限り同じテキストに様々な情報を付与するという取組が進められている。対象の記事は, 研究者コミュニティで共有されているアノテーションの優先順位 ${ }^{1}$ に基づいて選択した。これにより, 係り受け (Asahara and Matsumoto 2016) ・節境界 (Matsumoto, Asahara, and Arita 2018) $\cdot$ 分類語彙表番号 (加藤,浅原, 山崎 2017) ・情報構造 (Miyauchi et al. 2018; 宮内他 2018) ・述語項構造および共参照 (植田他 2015)・否定の焦点 (松吉 2014) などのアノテーションとの重ね合わせに基づく分析が可能になる. Dundee Eye Tracking Corpus においても Dundee Treebank (Kennedy, Hill, and Pynte 2003) など品詞・係り受け・共参照の整備が進んでいるが, 本研究の BCCWJ-EyeTrack のようにコーパス言語学的な統語・意味・談話レベルの情報が重畳的に付与されていない. 読み時間データの収集方法として,自己ペース読文法と視線走査法を用いた。 自己ペース読文法は, キーボード入力などに基づき, 逐次的に文字列を表示し, 実験協力者のペースで文を読む課題である。図 1 に課題の画面例を示す。最初,コンピューター画面上には,文の長さを表すアンダーバーが表示されている,被験者がスペースキーを押すごとに,刺激文の始めから 1 文節(もしくは 1 単語)ずつ表示され,直前に表示されていた文節はアンダー バーに戻る,文節が表示されてから,次にボタンを押すまでの時間が,その文節の読解時間としてミリ秒単位で記録される。英語においては視線走査で得られる読み時間との高い相関があることが知られており (Just, Carpenter, and Woolley 1982), 安価な機器で読み時間を取得することができる。刺激の呈示方法として移動空方式を用いた.自己ペース読文法を実施するソフトウェアとして Linger 2 を用いた。 視線走査法は,実験協力者がディスプレイ画面上のどの文字を注視しているのかを取得する  図 1 移動空方式による自己ぺース読文法 視線走査装置を用いて,視線注視箇所と注視時間を計測する手法である。自己ぺース読文法と異なり,読み戻しなどのより自然な読み時間を取得することができる。視線走査装置として SR Research 社の EyeLink 1000 シリーズ(タワーマウント)を用い, 時間解像度は $1,000 \mathrm{~Hz}$ で, ミリ秒単位のデータが収集可能である. 視線走査法においては刺激となるテキストは等幅フォント(MS 明朝 24 ポイント)を用いて横書きで 1 画面に最大 5 行を 21.5 インチのディスプレイに呈示した. 横方向には全角で最大 53 文字を呈示し,後述のとおり文節境界に半角スペースを入れた場合には,最大全角 53 文字を超えないようにした単位で折り返し, 1 画面に 5 行まで表示した。文境界には必ず改行を入れた.視線走査装置の上下方向の誤差を吸収するために, 各行は 3 行空けて呈示した. 実験協力者はあご台に顔を固定した状態で,ハーフミラー越しに画面を見るという姿勢で,課題に取り組んた.自己ペース読文法では,ハーフミラーつきのあご台を用いない以外は同条件で実験を行った. 文字列を呈示する基本単位として BCCWJ に付与されている国語研文節単位を用いた。自己ペース読文法では,文節単位でテキストを表示した。また文節境界に半角スペースを空けた条件と空けていない条件の 2 つの条件を用意し,読み時間を計測した。実験は新聞記事 20 件を A, B, C,Dの4つのユニットに分割し,視線走査法による計測を 2 セッション実施したのちに,自己ぺース読文法による計測を 2 セッション実施した。実験協力者は各新聞記事 20 件を一度だけ読む,各ユニットの文節数,文数,画面数を表 1 に示す。 1 件の新聞記事を読み終わり,次の新聞記事が始まる際には,必ず画面を改めた。実験協力者は 3 人ずつ 8 つのグループに分け,表 2 のように実験を行った.全実験協力者は視線走査法を行ったのちに,自己ぺース読文法を行った. 表 1 それぞれの記事ユニットに含まれる文節数,文数,画面数 表 2 実験計画 : 各被験者グループにおける記事ユニットと課題・文節境界の空白の有無の対応関係 ## 5 データと分析手法 本研究では『現代日本語書き言葉均衡コーパス』(Maekawa et al. 2014)(以下 BCCWJ)に対する読み時間データ BCCWJ-EyeTrack (Asahara, Ono, and Miyamoto 2016)に,情報の状態アノテーション BCCWJ-Infostr (Miyauchi et al. 2018; 宮内他 2018)を重ね合わせたもの(表 3) を用いる。これらをべイジアン線形混合モデル (Sorensen, Hohenstein, and Vasishth 2016) により回帰分析することにより,読み時間と情報の状態との関係を明らかにする. 以下では,それぞれのデータについて概説する。 ## 5.1 BCCWJ-EyeTrack: 読み時間のデータ 自己ぺース読文法で取得したデー夕は,取得時に語句が文節単位に呈示され,読み戻しができないために,文節単位の読み時間がそのままデータとなる。視線走査法で取得したオリジナルのデータは文字の半角単位に Start Fixation Time(注視開始時刻)と End Fixation Time(注視終了時刻)と Fixation Time(注視時間)を得た.このデータを国語研文節単位でグループ化しなおしたものを注視順データと呼ぶ。この注視順データを,視線走査法を用いた読み時間計測で標準的に用いられている,以下の5つの計測時間データ (measures) に加工した (Van Gompel, Fischer, Murray, and Hill 2007).これらは国語研文節単位を注視領域として作成した。 - First Fixation Time (FFT) - First-Pass Time (FPT) - Second-Pass Time (SPT) - Regression Path Time (RPT) - Total Time (TOTAL) 説明のために図 2 の例を用いる。図中 1-12 の数字が視線走査順を表す. First Fixation Time (FFT) はその注視領域に初めて視線が停留した際の注視時間である. 例中の「初年度決算も」の FFT は 5 の注視時間となる. 表 3 利用するデータの概要 図 2 視線走査順の例 First-Pass Time (FPT) は, 注視領域に初めて視線が停留し, その後注視領域から出るまでの総注視時間である. 出る方向は右方向でも左方向でも構わない. 例中の「初年度決算も」の FPT は 5,6 の注視時間の合計である. Second-Pass Time (SPT) は, 注視領域に初めて視線が停留し, 注視領域から出たあと, 2 回目以降に注視領域に停留する総注視時間である。例中の「初年度決算も」のSPT は 9,11 の注視時間の合計である。尚, FPT + SPT が後に説明する Total Time になる. Regression Path Time (RPT) は, 注視領域に初めて視線が停留し, その後領域の右側の境界を超えて次の領域に出るまでの総注視時間である。視線が領域の左側の境界を超えて戻った場合の注視時間も,元の注視領域の RPT として合算する。例中の「初年度決算も」のRPT は 5 , $6,7,8,9$ の注視時間の合計である. 左側に戻り再度注視領域に停留しない場合も合算する. つまり,「初年度決算も」に対する 9 の視線停留がない場合の RPT は $5,6,7,8$ の注視時間の合計となる. Total Time (TOTAL) は注視領域に視線が停留する総注視時間である。例中「初年度決算も」 の TOTAL は $5,6,9,11$ の注視時間の合計である. テキスト生起順データにおいて, サッケード(跳躍眼球運動)の時間は集計しない.これらの時間情報を各種情報とともに CSV 形式に整形して公開する。公開データにおいては, 平均読み時間や標準偏差などを用いたトリミングなどの時間情報削除処理は実施していない. データは,時間情報を元テキストの情報・実験協力者の情報などとともに読み時間の種類ごとの CSV 形式のデータである。表 3 左にデータ形式を示す. 出現書字形 (surface: factor) は実験協力者に呈示した文字列である。国語研文節単位にしたもので全角空白は除去する. 読み時間 (time: int) は各実験で得た時間情報である. 自己ぺース読文法の場合は実験協力者がその文節を見ていた時間である。視線走査法の場合は前小節で示した First Fixation Time (FFT), First-Pass Time (FPT), Second-Pass Time (SPT), Regression Path Time (RPT), Total Time (Total) の 5 種類のいずれかである。単位はミリ秒とする。読み時間の種類 (measure: factor) として \{'SelfPaced', 'EyeTrack:FFT', 'EyeTrack:FPT', 'EyeTrack:SPT', 'EyeTrack:RPT', 'EyeTrack:Total'\}を定義する. 尚, 配布データは読み時間の種類ごとに 1 ファイル作成する.対数読み時間 (logtime: num) は timeの常用対数をとったものである. 文字数 (length: int) は, 呈示した文節の出現書字形 surface を構成する文字の数である.注視対象の面積に相当する. 文節境界の有無 (space: factor) は呈示した画面に文節境界に半角スペースがあるかないかを表す。係り受け関係 (dependent: int) は当該文節に係る文節数. 文節係り受けは人手で付与したもの (Asahara and Matsumoto 2016)を重ね合わせた. 記事に関するデータとして sample, article, metadata_orig, metadata の 4 つを整備した. サンプル名 (sample: factor) は, 各セッションごとに準備した記事ユニットで $\{\mathrm{A}, \mathrm{B}, \mathrm{C}, \mathrm{D}\}$ から なる。各ユニットは新聞記事 5-6 件から構成されている。記事情報 (article: factor) は, 記事単位の一意な識別子で,BCCWJ のアノテーション優先順位・BCCWJ 内サンプル ID・記事番号をアンダースコアで連結したものとする。文書構造タグ (metadata_orig: factor) は BCCWJ 内文書構造タグで,BCCWJ の XML の ancestor axis にある夕グ情報をスラッシュで連結したものである.メタデータ (metadata: factor) は前述の metadata_orig から記事の特性のみを抽出したものである. \{authorsData (著者情報), caption(キャプション), listItem(リスト), profile(プロフィール), titleBlock(タイトル領域),未定義 \}のいずれかであり,BCCWJ 内の文書構造タグの誤り・久落を人手で修正したものである. 次に記事や画面の呈示順の情報について説明する。セッション順 (sessionN: int)は実験法ごとに文節境界空白有と文節境界空白無の 2 種類のセッションの順序を表す。記事呈示順 (articleN: int) はセッションごとの記事の呈示順 (1-5) を表す. 画面呈示順 (screenn: int) は複数の画面にわたる記事があり,記事ごとの画面呈示順を表す。行呈示順 (lineN: int) は画面ごとの行呈示順 (1-5)であり,画面上の垂直方向の位置を表す。文節呈示順 (bunsetsuN: int) は行ごとの文節呈示順である,画面上の水平方向の位置を表す。これらの呈示順情報により画面推移上の一意な識別が可能である. また, 文頭の文節は常に係り受けの数が 0 であり, 文末の文節は係り受けの数が多い傾向にある. また, 画面レイアウト上, 最左要素・最右要素・右から 2 番目の要素は眼球運動中に「復帰改行」の操作の影響がある. この問題を扱うために, レイアウト情報として, 最左要素 (is_first: bool) ・最右要素 (is_last: bool) ・右から 2 番目の要素 (is_second_last: bool)を固定要因とする. sample_screenは,画面に対する一意な識別子である. 実験協力者 ID (subj: factor) は実験協力者を表示する一意な識別子である. 実験協力者の特性として 2 の情報を持つ.1つはリーディングスパンテスト得点 (rspan: num)であり, 1.5-5.0 の 0.5 刻みの値を持つ。もう 1 つは語彙数テストの結果 (voc: num)であり, オリジナルの結果を 1,000 語で割ったもの (37.1-61.8)である. 視線走査法の場合にはゼロ秒(注視されていない文節)は排除して集計した. ## 5.2 BCCWJ-Infostr: 『現代日本語書き言葉均衡コーパス』に対する情報の 状態アノテーション 本節では BCCWJ に対する情報の状態アノテーション BCCWJ-Infostr (Miyauchi et al. 2018;宮内他 2018) について概説する。同データでは名詞句(文節)に対して 3 節に示した 7 種類の情報の状態を付与する。 - 情報状態 (infostatus:is) - 定性 (definiteness:def) - 特定性 (specificity:spec) - 有生性 (animacy:ani) - 有情性 (sentience:sent) - 動作主性 (agentivity:ag) - 共有性 (commonnness:com) 情報状態は名詞句が談話文脈中で新情報か旧情報かの区別である。書き手が新しい情報として提示しているものを未出 is:disc-new と呼び,書き手が談話文脈中に既に情報として提示しているものを既出 is:disc-old と呼ぶ. 同情報は, BCCWJ に対する共参照情報アノテーション (BCCWJ-PAS) などから展開することができる. 定性は,読み手が名詞句の参照対象が特定できるか否か (Lyons 1999; Heim 2011) を表す分類である。ある名詞句の参照対象を読み手が特定可能であると書き手が想定している場合に定 def:definite とし, そうでない場合に不定 def:indefinite とする. 特定性は, 書き手が名詞句の参照対象を特定しているか否か (von Heusinger 2011)を表す分類である.ある名詞句の参照対象が唯一無二もしくは書き手が特定可能であるとみなしている場合に特定 spec:specific とし,そうでない場合に spec:unspecific とする。定性と特定性はアノテーション時には前後 3 文を読んだうえでタグ付けを行う。 有生性は名詞句の参照対象が生きているか否かの区別である. 生物(ヒト,動物)は有生 ani:animate で,無生物(植物を含む)は無生 ani:inanimate とする. アノテーション時には名詞句単体で評価する。似た分類で有情性がある,有情性は名詞句の参照対象が感情を持つかどうかを表し, 他言語における有生性と対照して,日本語学で議論されている概念である.例えば,動詞「ある」「いる」のどちらが利用できるかにより識別される.有生性と区別するために名詞句とその係り先の述語の対をもって,有情 sent: sentient か無情 sent: insentient かを区別する。 動作主性は, 名詞句がある状況でどのような役割を担うかを表す分類である. 名詞句の参照対象が意思をもって行動する場合に動作主 ag: agent とし, ある動作により変化を伴う場合に被動作主 ag:patient とする. どちらでもないものを ag:neither とする.1つの名詞句が主節述語と従属節述語の両方と格関係を持つ場合がある。この場合に動作主であって被動作主でもあるもの ag:bothを許す. 共有性は, 聞き手が参照対象を既に知っていると書き手が仮定しているかを表す分類である.聞き手が既に知っていると書き手が仮定している場合に既知 com:hearer-oldとし, 聞き手が知らないと書き手が仮定している場合に未知 com:hearer-new とする。また, ブリッジングなどで聞き手が想定可能であると書き手が仮定している場合には想定可能 com:bridging とする. アノテーション時には, 作業者は世界知識を用いながら判定する. 表 4 に,BCCWJ-EyeTrack と重ね合わせた情報の状態のラベルの基礎統計を示す. 文脈によって判断ができず,どちらでもよいことを表す $*:$ either を定性 (def:either), 特定性 表 4 情報の状態の基礎統計 } & \multicolumn{2}{c}{ is:disc-old } \\ & 1,122 & 899 & 2 & - \\ & 1,157 & 749 & 116 & 1 \\ & 337 & 1,678 & 8 & - \\ & 192 & 338 & 2 & 1,491 \\ & 494 & 1,036 & 489 & 4 \\ (spec:either), 有生性 (ani:either), 有情性 (sent:either), 動作主性 (ag:either) に対して定義する.また,名詞句によっては定義することが不適切な場合に,どちらでもないことを表すneitherを特定性 (spec:neither), 動作主性 (ag:neither), 共有性 (com:neither) に対して定義する. 表 3 右に統計分析に利用するデータについて示す. なお, 分析対象は一般化線形混合モデルに基づく分析結果 (Asahara 2017) に基づき,各要因の相関関係をみながら,情報状態 (is:*)・定性 (def:*)・有生性 (ani:*)・共有性 (com:*)の 4 つに限定して行った. 具体的には定性・特定性間と有生性・有情性間に強い相関関係があり,モデル化において多重共線性の問題が発生する。さらに動作主性については, ag:neither が多く, 一般化線形混合モデルにおいて効果が見られなかったために排除した。交互作用については一般化線形混合モデル構築時に収束したモデルが構築できなかったために今回も考慮しない,今回は,視線走査法の結果のみについて検討する,統計分析においては,名詞句でない文節も検討し,それぞれ*:NILとする,また,ラベルとして*:neitherがついているものについては, 統計処理においては*:neitherのままとした. ## 5.3 Bayesian Linear Mixed Model: 統計分析手法 先に述べた読み時間データ BCCWJ-EyeTrack と情報の状態アノテーション BCCWJ-Infostr を重ね合わせたものをべイジアン線形混合モデルにより分析を行う (Sorensen et al. 2016). 帰無仮説を立てた仮説論証的な分析においては一般化線形混合モデルのような頻度主義的な考え方に基づき, 有意差を検証する試みが一般的である. しかし本稿のような仮説探索的な分析に おいては, ベイズ主義的な考え方に基づき, 強い証拠を探索する試みが適切だと考え, ベイジアン線形混合モデルを用いる。前処理として,手修正した metadata ${ }^{3}$ が $\{$ authorsData, caption, listItem, profile, titleBlock\} であるものを削除した。また読み時間データから全てのゼロミリ秒のデータポイントを排除した。統計分析は,読み時間 time をlognormal 関数により, レイアウト情報・提示順・係り受けの数・情報の状態などを固定要因とし,記事と被験者をランダム要因として, ベイズ推定を行う. 具体的には次のような式を用いる: $ \begin{aligned} \text { time } \sim & \text { lognormal }(\mu, \sigma) \\ \mu= & \alpha+\beta^{\text {length }} \cdot \text { length }(x)+\beta^{\text {space }} \cdot \chi_{\text {space }}(x)+\beta^{\text {dependent }} \cdot \text { dependent }(x) \\ & +\beta^{\text {sessionN }} \cdot \operatorname{sessionN}(x)+\beta^{\text {articleN }} \cdot \operatorname{articleN}(x)+\beta^{\text {screenN }} \cdot \operatorname{screenN}(x) \\ & +\beta^{\text {lineN }} \cdot \text { lineN }(x)+\beta^{\text {segmentN }} \cdot \operatorname{segmentN}(x) \\ & +\beta^{\text {is_first }} \cdot \chi_{\text {is_first }}(x)+\beta^{\text {is_last }} \cdot \chi_{\text {is_last }}(x)+\beta^{\text {is_second_last }} \cdot \chi_{\text {is_second_last }}(x) \\ & +\sum_{\text {is:* }} \beta^{\text {is:* }} \cdot \chi_{\text {is:* }}(x)+\sum_{\text {def:* }} \beta^{\text {def:* }} \cdot \chi_{\text {def:* }}(x)+\sum_{\text {ani:* }} \beta^{\text {ani:* }} \cdot \chi_{\text {ani:* }}(x) \\ & +\sum_{\text {com:* }} \beta^{\text {com:* }} \cdot \chi_{\text {com:* }}(x)+\sum_{\mathrm{a}(\mathrm{x}) \in \mathrm{A}} \gamma^{\text {article=a }(\mathrm{x})}+\sum_{\mathrm{s}(\mathrm{x}) \in \mathrm{S}} \gamma^{\text {subj=s }(\mathrm{x})} . \end{aligned} $ ここで time は推定する読み時間である. lognormal は rstan の対数正規分布関数である。 $\sigma$ は lognormal の標準偏差 $\mu$ は lognormal の平均で線形式で表される。 $\alpha$ は線形式の切片を表す. $\beta^{\text {length }}$ は文節の長さ length $(x)$ の傾きである。 $\beta^{\text {space }}$ は空白の有無 $\chi_{\text {space }}(x)^{4}$ の傾きである. $\beta^{\text {sessionN }}, \beta^{\text {articleN }}, \beta^{\text {screenN }}, \beta^{\text {lineN }}, \beta^{\text {segmentN }}$, 呈示順 $\operatorname{sessionN}(x), \operatorname{articleN}(x), \operatorname{screenN}(x)$, $\operatorname{lineN}(x), \operatorname{segmentN}(x)$ に対する固定要因である。 $\beta^{\text {is_first }}, \beta^{\text {is_last }}, \beta^{\text {is_second_last }}$ は,レイアウト $\chi_{\text {is_first }}(x), \chi_{\text {is_last }}(x), \chi_{\text {is_second_last }}(x)$ に対する固定要因である. $\sum_{\text {is:* }} \beta^{\text {is:* }} \cdot \chi_{\text {is:* }}(x)$ は情報状態に対する固定要因, $\sum_{\text {def:* }} \beta^{\text {def:* }} \chi_{\text {def:* }}(x)$ は定性に対する固定要因, $\sum_{\text {ani:* }} \beta^{\text {ani:* }}$. $\chi_{\mathrm{ani}: *}(x)$ は有生性に対する固定要因, $\sum_{\mathrm{com}: *} \beta^{\mathrm{com}: *} \cdot \chi_{\mathrm{com}: *}(x)$ は共有性に対する固定要因である. $\sum_{a(x) \in A} \gamma^{\text {article=a(x) }}$ は, $x$ の記事を意味する $a(x)$ に対するランダム要因である. $\sum_{s(x) \in S} \gamma^{\text {subj=s }(\mathrm{x})}$ は, $x$ の被験者識別子を意味する $s(x)$ に対するランダム要因である。ベイズ推定はウォームアップ(100 回)のあと,イテレーション 5,000 回を 4 chains 実施し, 全てのモデルは収束した. なお,一般化線形混合モデルにおけるモデリングは (Asahara 2017) を参照されたい。一般化 ^{3}$ BCCWJ の原版のメタデータ (metadata_orig) が不完全であったために改めて夕グ付けしたもの. }^{4} \chi_{A}$ は指示関数 $\chi_{A}(x)=\left.\{\begin{array}{lll}1 & \text { if } & x \in A, \\ 0 & \text { if } & x \notin A .\end{array}\right.$ 線形混合モデルにおいては AIC による前進的選択法に基づき, 6 種類の読み時間データ全てで収束したものを報告している。その過程で各変数の交互作用についても検討したが,うまく収束させたモデルが構築できなかった. 今回のベイジアンモデルにおいては, 既発表の読み時間全体の傾向で用いた固定効果(レイアウト情報・呈示順・係り受けの数)に対して, 情報の状態として情報状態・共有性・定性・有生性の 4 種に限定して分析を行う。これは,一般化線形混合モデルを構築する際に問題となった, 定性と特定性の相関・有生性と有情性の相関に基づく多重共線性の問題と, 動作主性において効果が観察されなかったことに基づき,回帰式を構成した。 ## 6 結果と考察 ## 6.1 結果 図 3(付録表 6)に Total Time の情報の状態以外の固定要因に対する係数を示す.グラフは,中央のラインで事後平均值を,曲線でカーネル密度推定量を,色付きの背景で $50 \%$ 区間を表 $\beta^{\text {sessionN }}, \beta^{\text {screenN }}, \beta^{\text {lineN }}, \beta^{\text {segmentN }}$ が負であることから, 実験が進むにつれて慣れていくことに をセットごとにある程度固定して行ったうえで,記事に対するランダム要因 $\gamma^{\operatorname{article}=\mathrm{a}(\mathrm{x}) \text { を入 }}$ れたために,これに吸収されたと考える。 $\beta^{\text {is_first }}, \beta^{\text {is_last }}, \beta^{\text {is_second_last }}$ は,レイアウト要因で先頭要素で読み時間を要し,末尾要素を読み飛ばしたうえで,末尾から 2 つ目の要素で読み戻しの眼球運動の準備のために時間がかかる傾向がみられる。これらは, 情報の状態要因なしの分析 (Asahara et al. 2016) と同様の結果である. 図4(および付録表 7)に Total Time の情報の状態の固定要因に対する係数を示す. 名詞句以外である $\beta^{*: N L L}$ は読み時間が短い. 別の調査において, 名詞句以外と名詞句とを比較すると名詞句のほうが読み時間が長くなる傾向がわかっており (Asahara and Kato 2017), それの追試となった. 情報の新旧の観点においては, 情報状態と共有性の双方, 新情報 $\beta^{\text {info:disc-new, }}$ とがわかった。旧情報は予測がつくため処理が早くなる一方,新情報は処理に時間がかかるためであろう.差異については情報状態よりも共有性のほうが明確な差がある.ブリッジング(想 定性においては,定名詞句 $\beta^{\text {def:definite }}$ のほうが,不定名詞句 $\beta^{\text {def:indefinite よりも読み時間 }}$ が長い傾向がある。また, 有生性においては, 有生 $\beta^{\text {ani:animate }}$ のほうが, 無生 $\beta^{\text {ani:inanimate }}$ よりも読み時間が短い傾向がある。 Total Time のみでは眼球運動の仔細について検討できないために,以下では First Fixation Time, First Path Time, Second Pass Time, Regression Path Time について検討する. First Fixation Time(図 5・付録表 8)では,領域の最初の停留のみを評価する.有生性と無生性の差が大きい傾向がある。また,情報の新旧において,情報状態では差がないが,共有性においては差がみられることがわかる. First Pass Time(図 6・付録表 9)では,領域内の最初の停留から,領域外に出るまでの停留時間の合計を評価する。ほぼ Total Time と同様な傾向がみられた. Second Pass Time(図 7 ・付録表 10)では, 2 回目以降の視線停留の合計を評価す 図 3 Total Time: 情報の状態以外の固定要因 図 5 First Fixation Time: 情報の状態の固定要因 図 4 Total Time: 情報の状態の固定要因 図 6 First Pass Time: 情報の状態の固定要因 る。定性, 有生性, 共有性で差がみられる. Regresion Path Time(図 8 ・付録表 11)では, 領域の最初の停留から,領域外を右に出るまでの停留時間の合計を評価する.有生性の差がもっとも大きい. ## 6.2 考察 表 5 に読み時間型ごとの情報の状態の固定要因の事後平均の差分を事後標準偏差とともに 図 7 Second Pass Time: 情報の状態の固定要因 図 8 Regression Path Time: 情報の状態の固定要因 表 5 情報の状態の固定要因の差分 示す. まず,共参照などに基づく情報状態は安定した差がどの読み時間型にも出ていないことがわかる。冠詞推定に重要な定性についても,1標準偏差を超える差は見られない. 有生性においては,すべての読み時間型において有生名詞句が無生名詞句より読み時間が短い傾向があり,First Pass Time と Regression Path Time においては 1 標準偏差を超える差であった. 共有性においては, 情報の新旧の観点 (com:hearer-new, com:hearer-old)では, First Fixation を除く読み時間型で新情報のほうが時間がかかる傾向にあり, Total Time, First Pass Time, Second Pass Time において 1 標準偏差を超える差があった. ブリッジングの観点 (com:hearer-new, com:bridging) では, すべての読み時間型で新情報のほうが時間がかかる傾向にあり, Total Time, First Pass Time において 1 標準偏差を超える差があった. 有生性はシソーラスなど語彙言語資源からその情報の性質を推定できる一方, 共有性は共参照情報や世界知識を入れてもその性質を推定することは難しい.しかしながら,今回得られた知見は読み時間などから読み手側の情報の新旧を読み手の反応である眼球運動から推定できる可能性を示唆する. ## 7 おわりに 本稿では,明確に表出しない日本語の名詞句の情報の状態を推定することを目標として,読み時間と日本語の名詞句の情報の状態について対照比較した。読み時間は視線走査装置を用いてミリ秒単位で計測を行ったデータを利用した。名詞句の情報の状態は,情報の新旧について書き手の観点による情報状態と読み手の観点による共有性のほか, 定性や有生性について検討した. ベイジアン線形混合モデルによる分析の結果,共有性や有生性の特性の違いにより読み時間に差があることがわかった. 情報の状態のうち, 残念ながら定性については読み時間に明確な差が見られなかったが, 表層の言語情報からはとらえにくい共有性に差があることが重要である。読み時間の事後平均の差は事後標準偏差 1 程度のものであるが, 周辺の言語情報とともに機械学習モデルの特徵量として用いることにより共有性の違いを明らかにできる可能性があることが示唆される。 本研究は, 言語学・認知科学的な観点に基づく調査であるが, 工学研究者に向けて 3 点言及する,1点目は,英語の冠詞推定においては, 定・不定を同定する必要があり, 多くの研究は情報の新旧に基づいて処理されており, 関連はするが, 本質的には異なる名詞句の性質を用いている, 2 点目は,情報の新旧には書き手視点と読み手視点の 2 つの考え方(情報状態・共有性) があり, 本研究は読み手側の反応である読み時間を入れることで, 既存の技術では適切に扱われてこなかった読み手視点の情報の新旧を得ようとするものである, 3 点目は, 情報抽出や自 動要約などのアプリケーションにおいて本質的に重要なのは,書き手視点の談話上の情報の新旧ではなく, アプリケーション利用者側の読み手視点の新旧である. 読み手視点の新旧を, 読み手側の反応を取り入れながら適切にモデル化することが工学応用に求められている. 今後の研究の方向性として,共通の読み手を想定している新聞記事ではなく,共通の読み手を想定していない読み手ごとに理解の差がある文書を用いて,読み時間に差があるかを検討したい.これにより読み手ごとの情報抽出・自動要約が眼球運動計測により実現する可能性を調查する。 他の研究の方向性として, 文章の可読性評価が考えられる. 文章の可読性は, 文字(漢字)や語彙の難易度および頻度に基づいて統制し,調査方法も評定評価等による研究が多かった.本研究は可読性に対する反応である読み時間を直接評価するものであり, 各文章の可読性は記事のランダム要因として得ることができる。書誌情報と対照比較することにより可読性の傾向を分析したい. ## 謝 辞 本研究の一部は, 国立国語研究所基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」, 国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテー ションの拡張・統合・自動化に関する基礎研究」, 国立国語研究所の所長裁量経費, および情報・システム研究機構の機構間連携・文理融合プロジェクト「わかりやすい情報伝達の実現に向けた言語認知機構の解明とその工学的応用」によるものです。本研究は JSPS 科研費 25284083 , 17H00917, 18H05521 の助成を受けたものです. なお,本論文は The 31st Pacific Asia Conference on Language, Information and Computation PACLIC 31(2017) の発表 “Between Reading Time and Information Structure”をもとに, ベイジアン線形混合モデルにより統計分析をしなおしたものです. 3 節は国立国語研究所論集 16 号「『現代日本語書き言葉均衡コーパス』への情報構造アノテーションとその分析」, 4 節は言語学会論文誌『言語研究』に投稿中の内容を含みます.これは查読者の指示により内容に含めたもので,著者には自己剽窃の意図はありません. ## 参考文献 Asahara, M. (2017). "Between Reading Time and Information Structure." In Proceedings of the 31st Pacific Asia Conference on Language, Information and Computation, pp. 15-24. The National University (Phillippines). Asahara, M. and Kato, S. (2017). "Between Reading Time and Syntactic/Semantic Categories." In Proceedings of the The 8th International Joint Conference on Natural Language Processing, pp. 404-412. Asahara, M. and Matsumoto, Y. (2016). "BCCWJ-DepPara: A Syntactic Annotation Treebank on the 'Balanced Corpus of Contemporary Written Japanese'." In Proceedings of the 12th Workshop on Asian Langauge Resources (ALR12), pp. 49-58. 浅原正幸,大村舞 (2016). BCCWJ-DepParaPAS: 『現代日本語書き言葉均衡コーパス』係り受け・並列構造と述語項構造・共参照アノテーションの重ね合わせと可視化. 言語処理学会第 22 回年次大会発表論文集, pp. 489-492. Asahara, M., Ono, H., and Miyamoto, E. T. (2016). "Reading-Time Annotations for 'Balanced Corpus of Contemporary Written Japanese'." In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 684-694. Barrett, M., Bingel, J., Keller, F., and Søgaard, A. (2016). "Weakly Supervised Part-of-speech Tagging Using Eye-tracking Data." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 579-584. Demberg, V. and Keller, F. (2008). "Data from Eye-tracking Corpora as Evidence for Theories of Syntactic Processing Complexity." Cognition, 109 (2), pp. 193-210. Gibson, E. (2008). "Linguistic Complexity: Locality of Syntactic Dependencies." Cognition, 68, pp. $1-76$. Götze, M., Weskott, T., Endriss, C., Fiedler, I., Hinterwimmer, S., Petrova, S., Schwarz, A., Skopeteas, S., and Stoel, R. (2007). "Information Structure." In Dipper, S., Götze, M., and Skopeteas, S. (Eds.), Information Structure in Cross-linguistic Corpora: Annotation Guidelines for Phonology, Morphology, Syntax, Semantics and Information Structure, Vol. 7, pp. 147-187. Universitätsverlag Potsdam. Hale, J. (2001). "A Probabilistic Earley Parser as a Psycholinguistic Model." In Proceedings of the 2nd Conference of the North American Chapter of the Association for Computational Linguistics, Vol. 2, pp. 159-166. Heim, I. (2011). "Definiteness and Indefiniteness." In von Heusinger, K., Maienborn, C., and Portner, P. (Eds.), Semantics: An International Handbook of Natural Language Meaning, Vol. 2, pp. 996-1025. Mouton de Gruyter. Just, M. A., Carpenter, P. A., and Woolley, J. D. (1982). "Paradigms and Processes in Reading Comprehension." Journal of Experimental Psychology: General, 3, pp. 228-238. 加藤祥, 浅原正幸, 山崎誠 (2017). 『現代日本語書き言葉均衡コーパス』に対する分類語彙表番号アノテーション. 言語処理学会第 23 回年次大会発表論文集, pp. 306-309. Kennedy, A., Hill, R., and Pynte, J. (2003). "The Dundee Corpus." In Proceedings of the 12th European Conference on Eye Movement. Kennedy, A. and Pynte, J. (2005). "Parafoveal-on-foveal Effects in Normal Reading." Vision Research, 45, pp. 153-168. Klerke, S., Martínez Alonso, H., and Søgaard, A. (2015). "Looking Hard: Eye Tracking for Detecting Grammaticality of Automatically Compressed Sentences." In Proceedings of the 20th Nordic Conference of Computational Linguistics (NODALIDA 2015), pp. 97-105. Lyons, C. (1999). Definiteness. Cambridge University Press, Cambridge. Maekawa, K., Yamazaki, M., Ogiso, T., Maruyama, T., Ogura, H., Kashino, W., Koiso, H., Yamaguchi, M., Tanaka, M., and Den, Y. (2014). "Balanced Corpus of Contemporary Written Japanese." Language Resources and Evaluation, 48, pp. 345-371. Matsumoto, S., Asahara, M., and Arita, S. (2018). "Japanese Clause Classification Annotation on the 'Balanced Corpus of Contemporary Written Japanese'." In Proceedings of Workshop on Asian Language Resources 13 (ALR13), pp. 1-8. 松吉俊 (2014). 否定の焦点情報アノテーション. 自然言語処理, 21 (2), pp. 249-270. 宮内拓也, 浅原正幸, 中川奈津子, 加藤祥 (2018). 『現代日本語書き言葉均衡コーパス』への情報構造アノテーションとその分析. 国立国語研究所論集, 16. Miyauchi, T., Asahara, M., Nakagawa, N., and Kato, S. (2018). "Annotation of Information Structure on "The Balanced Corpus of Contemporary Written Japanese." In Computational Linguistics: 15th International Conference of the Pacific Association for Computational Linguistics, PACLING 2017, Yangon, Myanmar, August 16-18, 2017, Revised Selected Papers, pp. 155-165. 乙武北斗, 永田亮 (2016). 冠詞推定のための情報構造仮説の検討. 言語処理学会第 22 回年次大会発表論文集, pp. 493-496. Palmer, M., Gildea, D., and Kingsbury, P. (2005). "The Proposition Bank: An Annotated Corpus of Semantic Roles." Conputational Linguistics, 31 (1), pp. 71-105. Prasad, R., Dinesh, N., Lee, A., Miltsakaki, E., Robaldo, L., Joshi, A., and Webber, B. (2008). "The Penn Discourse TreeBank 2.0." In Proceedings of the 6th International Conference on Language Resources and Evaluation (LREC'08), pp. 2961-2968. Prasad, R., Webber, B., Lee, A., Pradhan, S., and Joshi, A. (2015). "Bridging Sentential and Discourse-level Semantics through Clausal Adjuncts." In Proceedings of the 1st Workshop on Linking Computational Models of Lexical, Sentential and Discourse-level Semantics, pp. 64-69. Sorensen, T., Hohenstein, S., and Vasishth, S. (2016). "Bayesian Linear Mixed Models using Stan: A Tutorial for Psychologists, Linguists, and Cognitive Scientists." Quantitative Methods for Psychology, 12, pp. 175-200. 竹内裕已, 河合敦夫, 細田直見, 永田亮 (2013). 前方文脈を考慮した冠詞の推定. 言語処理学会第 19 回年次大会発表論文集, pp. 717-720. 植田禎子, 飯田龍, 浅原正幸, 松本裕治, 徳永健伸 (2015). 『現代日本語書き言葉均衡コーパス』に対する述語項構造・共参照アノテーション. 第 8 回コーパス日本語学ワークショップ, pp. 205-214. Van Gompel, R. P., Fischer, M. H., Murray, W. S., and Hill, R. L. (2007). "Eye-movement Research: An Overview of Current and Past Developments." Eye Movements: A Window on Mind and Brain, pp. 1-28. von Heusinger, K. (2011). "Specificity." In von Heusinger, K., Maienborn, C., and Portner, P. (Eds.), Semantics: An International Handbook of Natural Language Meaning, Vol. 2, pp. 1058-1087. Mouton de Gruyter. ## 付録 ## A 固定要因の詳細 表 $6,7,8,9,10,11$ では固定要因の係数の推定値を示す. 各列の意味は以下の通り: - Parameter: 推定する固定要因 - Rhat: 収束判定指標(1.1 以下を収束とみなす) - $\mathrm{n} \_$eff: 有効サンプル数 - mean: 事後平均値 - $\mathrm{sd}$ : 事後標準偏差 - se_mean: 事後平均の標準誤差 - $2.5 \%: 2.5 \%$ 位値 - $50 \%$ : 中央値 - $97.5 \%: 97.5 \%$ 位値 表 6 Total Time の係数(情報の状態以外) 表 7 Total Time の係数(情報の状態のみ) 表 8 First Fixation Time の係数(情報の状態のみ) 表 9 First Pass Time の係数(情報の状態のみ) 表 10 Second Pass Time の係数(情報の状態のみ) 表 11 Regression Path Time の係数(情報の状態のみ) ## 略歴 浅原正幸:2003 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 2004 年より同大学助教。2012 年より国立国語研究所コーパス開発センター准教授. (2018 年 4 月 30 日受付) (2018 年 7 月 30 日再受付) (2018 年 9 月 11 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 文法性・流暢性・意味保存性に基づく文法誤り訂正の 参照無し評価 \author{ 浅野広樹 ${ }^{+, \dagger \dagger} \cdot$ 水本智也 ${ }^{\dagger \dagger} \cdot$ 乾健太郎 ${ }^{\dagger,+\dagger}$ } 文法誤り訂正の研究開発では, 訂正システムの性能を自動評価することは重要であると考えられている,従来の自動評価手法では参照文が必要であるが,参照文は人手で作成しなければならないため, コストが高く網羅性に限界がある。この問題に対処するために,参照文を用いず,文法性の観点によって訂正を評価する参照無し手法が提案されたが, 従来の参照有り手法の性能を上回ることはできなかった. そこで本研究では, 先行研究で提案された手法を拡張し, 参照無し手法の可能性について調查する。具体的には, 文法性に加えて流暢性と意味保存性を組み合わせた参照無し手法が, 従来の参照有り手法よりも人手評価スコアを正確に予測できることを実験的に示す。また, 参照無し手法は文単位でも適切な評価が可能であることと,文法誤り訂正システムに応用可能であることを示す. キーワード:文法誤り訂正, 自動評価 ## A Reference-less Evaluation Metric Based on Grammaticality, Fluency, and Meaning Preservation in Grammatical Error Correction \author{ Hiroki Asano ${ }^{\dagger, \dagger \dagger}$, Tomoya Mizumoto ${ }^{\dagger \dagger}$ and Kentaro Inui ${ }^{\dagger, \dagger \dagger}$ } In grammatical error correction (GEC), the automatic evaluation of system performance is thought to be an essential driving force. Previous methods for automated system assessment require gold-standard references, which have to be created manually and thus tend to be both expensive and limited in coverage. To address this problem, a reference-less approach has recently emerged; however, previous referenceless metrics, which only consider the grammaticality of system outputs, have not performed as well as reference-based metrics. In this study, we explore the potential of extending a prior grammaticality-based method to establish a reference-less evaluation method for GEC systems. We empirically show that a reference-less metric that combines both fluency and meaning preservation with grammaticality provides a better estimate of manual scores than that of commonly used reference-based metrics. Additionally, we show that the reference-less metric can provide appropriate evaluation at the sentence-level and that it can be applied to GEC systems.  Key Words: Grammatical Error Correction, Evaluation Metric ## 1 序論 文法誤り訂正 (Grammatical Error Correction: GEC) は,言語学習者の書いた文の文法的な誤りを訂正するタスクである。GEC は本質的には機械翻訳や自動要約などと同様に生成タスクであるため, 与えられた入力に対する出力の正解が 1 つだけとは限らずその自動評価は難しい. そのため, GECの自動評価は重要な課題であり自動評価尺度に関する研究が多く行われてきた。 GEC システムの性能評価には, システムの出力を正解データ(参照文)と比較することにより評価する手法(参照有り手法)が一般的に用いられている。この参照有り手法では, 訂正が正しくても参照文に無ければ減点されるため, 正確な評価のためには可能な訂正を網羅する必要がある. しかし参照文の作成は人手で行う必要があるためコストが高く, 可能な訂正を全て網羅することは現実的ではない. この問題に対処するため, Napoles, Sakaguchi, and Tetreault (2016)は参照文を使わず訂正文の文法性に基づき訂正を評価する手法を提案した. しかし参照有り手法である GLEU (Sakaguchi, Napoles, Post, and Tetreault 2016) を上回る性能での評価は実現できなかった。 そこで本論文では Napoles et al. (2016) の参照無し手法を拡張し,その評価性能を調べる。具体的には, Napoles et al. (2016) が用いた文法性の観点に加え, 流暢性と意味保存性の 3 観点を考慮する組み合わせ手法を提案する。流暢性は GEC システムの出力が英文としてどの程度自然であるかという観点であり,意味保存性は訂正前後で文意がどの程度保たれているかという観点である。各評価手法により訂正システムの性能の評価を行ったところ, 提案手法が参照有り手法である GLEUよりも人手評価と高い相関を示した。 これに加えて, 各自動評価尺度の文単位での評価性能を調べる実験も行った。文単位での評価が適切にできれば,GEC システムの人手による誤り分析に有用であるが文法誤り訂正の自動評価において文単位の性能を調べた研究はこれまでない。そこで,文単位評価の性能を調べる実験を行ったところ,提案した参照無し手法が参照有り手法より高い性能を示した. この結果を受けて,参照無し手法のもうの可能性も調査した. 参照無し手法は正解を使わずに与えられた文を評価できるため, 複数の訂正候補の中から最も良い訂正文を選択するために本手法が使えると考えられる.このことを実験的に確かめるために複数の GEC システムの出力を参照無しで評価し, 最も良いものを採用するアンサンブル手法の誤り訂正性能を調べたところ,アンサンブル前のシステムの性能を上回った。 ## 2 自動評価尺度の評価方法 自動評価尺度に求められる性質のうち最も重要なものは, 人手評価との相関が高いことであるとされている (Banerjee and Lavie 2005). このため, 評価尺度の良さは人手との相関係数で評価されるのが一般的である。機械翻訳の評価尺度の shared task である WMT 2017 Metrics Shared Task (Bojar, Graham, and Kamran 2017) においても自動評価尺度は人手評価との相関によって比較されている。このタスクにおいて評価尺度のメ夕評価には, 翻訳システム単位と文単位で評価が行われている。システム単位のメ夕評価では, 人手評価によるシステムに対する評価と自動評価尺度によるシステムに対する評価を比べることで評価する. 文単位のメ夕評価では, システムの翻訳ごとに人手で優劣が付けられており, 自動評価尺度によってその優劣を識別できるかで評価する。システム単位の評価尺度に対してはピアソンの相関係数やスピアマンの順位相関係数, 文単位の評価尺度に対してはケンドールの順位相関係数1が用いられた。 文法誤り訂正の分野においても自動評価尺度の性能は, 訂正システムに対する人手評価スコアと自動評価スコアの相関によって検証されてきた (Grundkiewicz, Junczys-Dowmunt, and Gillian 2015; Sakaguchi et al. 2016; Napoles et al. 2016)。一方で,我々の知る限り,自動評価尺度の文単位での性能は検証されていない. そこで本研究では, 提案手法と従来手法の自動評価尺度を先行研究に従ってシステム単位で比較するとともに,機械翻訳タスクで行われているように各評価尺度の文単位評価における性能も調査する。システム単位評価, 文単位評価に関しては 5.1.1 節,5.2.2 節でそれぞれ詳述する。 ## 3 既存の評価尺度 機械翻訳の分野では, BLEU (Papineni, Roukos, Ward, and Zhu 2002)などの自動評価尺度によって翻訳システムが比較できるようになり, 研究が発展してきた. 文法誤り訂正の分野においても自動評価尺度は重要である. これまでの文法誤り訂正の研究では, 機械翻訳と同様に参照有り手法による自動評価が用いられてきた。 そこで本節では参照有り評価尺度の代表的な手法について述べ,その後参照無し評価尺度の手法について述べる. ## 3.1 参照有り手法 訂正システムの評価では,学習者の書いた文に対する訂正の正解デー夕(参照文)を使うことが一般的である。この参照有り評価は $\mathrm{M}^{2}$ (Dahlmeier and Ng 2012), I-measure (Felice and Briscoe 2015), GLEU (Napoles, Sakaguchi, Post, and Tetreault 2015; Sakaguchi et al. 2016) が ^{1}$ WMT 2017 Metrics Shared Task では人手評価で同順とされた文対を除外する計算法が使用された. } 考案されている,参照有り手法では正確な評価のために,各入力文に対する参照文を 1 個たけげなく複数個用いることができる。参照文を複数用いる場合, 各文の評価は $\mathrm{M}^{2}$ および I-measure では最大值が採用され,GLEU は平均値が採用される。 $\mathbf{M}^{2}$ 文法誤り訂正の初期の研究では, 訂正システムが行った編集操作がどの程度正解の編集と一致しているかを F 值で評価していた (Dale and Kilgarriff 2011; Dale, Anisimoff, and Narroway 2012). しかし, 長いフレーズの編集が必要な場合などに訂正システムを過小評価してしまうという問題があった。この問題を解決するために $\mathrm{M}^{2}$ は “edit lattice”を用いることにより,システムが行った編集操作を正解と最大一致するように同定する. $\mathrm{M}^{2}$ によって算出された $\mathrm{F}_{0.5}$ 值が CoNLL 2014 Shared Task on GEC で採用されて以降,文法誤り訂正の評価尺度として最も用いられている。 I-measure 上述の $\mathrm{M}^{2}$ の問題点として, 訂正を全く行わないシステムと誤った訂正をしたシステムに対するスコアがどちらも 0 となる点が挙げられる。 そこで, 入力文が改善されれば正の値,悪化すれば負の値をとる尺度である I-measure が提案された. I-measure は入力文, 訂正文, 参照文に対してトークンレベルでアライメントを行い, 精度 (accuracy) に基づきスコアを計算する。 GLEU 機械翻訳の標準的な評価尺度である BLEU (Papineni et al. 2002)を GEC のために改善した評価尺度である。GLEU は訂正文 $(H)$ と参照文 $(R)$ で一致する n-gram 数から, 原文 $(S)$ に現れるが参照文に現れない n-gram 数を減算することによって計算される。形式的には次式で表される。 $ \begin{gathered} \mathrm{GLEU}+=\mathrm{BP} \cdot \exp \left(\sum_{n=1}^{4} \frac{1}{n} \log \left(p_{n} \prime\right)\right) \\ p_{n} \prime=\frac{N(H, R)-[N(H, S)-N(H, S, R)]}{N(H)} \end{gathered} $ ただし, $N(A, B, C, \ldots)$ は集合間での n-gram 重なり数を表し,BP は BLEU と同様の brave penalty を表す. brave penalty は入力文に対して出力文が短い場合に n-gram 適合率を減点する項である。これまでに提案された参照有り手法の中では最も人手評価との相関が高い (Napoles et al. 2016). ## 3.2 参照無し手法 機械翻訳の分野では, 参照文を用いずに翻訳の品質を評価する品質推定 (Quality Estimation) と呼ばれるタスクも行われており, 近年は shared taskも開催されている (Bojar, Chatterjee, Federmann, Graham, Haddow, Huck, Jimeno Yepes, Koehn, Logacheva, Monz, Negri, Neveol, Neves, Popel, Post, Rubino, Scarton, Specia, Turchi, Verspoor, and Zampieri 2016; Bojar, Chatterjee, Federmann, Graham, Haddow, Huang, Huck, Koehn, Liu, Logacheva, Monz, Negri, Post, Rubino, Specia, and Turchi 2017). 機械翻訳の品質推定タスクでは, 翻訳システムの出力の良さを測るために, Human-targetd Translation Error Rate (HTER) (Snover, Dorr, Schwartz, Micciulla, and Makhoul 2006)と呼ばれる,人間の翻訳とシステムの翻訳の編集距離がどの程度近いかを計算する指標が用いられる。機械翻訳の品質推定の手法では, 各システムの出力に対して HTERが付与された大量のデータを用いてシステムを学習する。文法誤り訂正の参照無し評価用のデータセットには, 一部の少量の文に対してのみ人手の評価が付与されているため, 品質推定の手法を文法誤り訂正の参照無し評価に応用することは難しい. 文法誤り訂正の分野では,参照文を用いずに訂正の品質を評価する手法を Napoles et al. (2016) が初めて提案した。文法誤り訂正では訂正システムの入出力文に対して訂正の品質が付与されたデータが十分にないため, 訳文品質推定の標準的な手法を用いることができない。 そこで Napoles et al. (2016)は,訂正システムの出力文の文法性を評価する 3 つの手法を提案した. 1 つ目は e-rater ${ }^{\circledR}$ による文法誤り検出数に基づく評価, 2 つ目は Language Tool (Miłkowski 2010) による文法誤り検出数に基づく評価, 3 つ目は Heilman, Cahill, Madnani, Lopez, Mulholland, and Tetreault (2014)の言語学的な素性に基づく文法性予測モデルを用いた評価である。実験の結果, e-rater ${ }^{\circledR}$ を用いる手法が最も優れており, 参照有り手法である GLEU と同等の性能であることが示された. しかし, e-rater ${ }^{\circledR}$ は通常, 自然言語処理の研究目的でオープンに利用することはできない2,そこで,本研究では e-rater ${ }^{\circledR}$ を用いず, Language Tool および Heilman et al. (2014)のモデルなどを組み合わせることで性能向上を図る. ## 4 提案手法 人手評価に近い参照無し評価を実現するために, Napoles et al. (2016)の文法性に基づく参照無し評価を拡張する。人手による訂正の傾向を捉えるために,文法性,流暢性,意味保存性の 3 つの観点を考慮した参照無し評価手法(各観点, 意味保存性 (Meaning preservation), 流暢性 (Fluency), 文法性 (Grammaticality) の頭文字を取って MFG と呼ぶ.)を提案する。Napoles, Sakaguchi, and Tetreault (2017) が参照文作成の際に用いたガイドラインでは, 自然な文にすること,文法的な誤りは訂正すること,文意は保存することが指示されており,人手による訂正では一般的にこのような観点に基づいて訂正されることが多い. 文法性は,GEC システムの出力に標準英語上の文法誤りがあるかどうかという観点であり,先行研究でも用いられた (Napoles et al. 2016). 流暢性は, GEC システムの出力がどの程度自然な英文であるかという観点である。この観点は先行研究 (Sakaguchi et al. 2016) において文 ^{2}$ e-rater ${ }^{\circledR}$ は English Testing Service (ETS) の作文評価サービス Criterion の 1 機能として提供されており, Criterion は教育機関向けの有償サービスであるため. } 法性と区別され, 重要性が示された. 意味保存性は, 訂正の前後で文意が変わっていないかという観点である. 提案手法は, 参照文を使わずにこれら 3 つの観点に基づき GEC システムを評価する。本稿では,ある入力文 $s$ に対する訂正文が $h$ であったとき $(s, h)$ に対するスコアを,文法性のスコア $S_{G}$, 流暢性のスコア $S_{F}$, 意味保存性のスコア $S_{M}$ の重み付き和によって求める. $ \operatorname{Score}(h, s)=\alpha \mathrm{S}_{\mathrm{G}}(h)+\beta \mathrm{S}_{\mathrm{F}}(h)+\gamma \mathrm{S}_{\mathrm{M}}(h, s), $ ただし $\mathrm{S}_{\mathrm{G}}, \mathrm{S}_{\mathrm{F}}, \mathrm{S}_{\mathrm{M}}$ の値域は $[0,1]$ であり, $\alpha+\beta+\gamma=1$ である. システムのスコアは各 $\mathrm{Score}(\mathrm{h}, \mathrm{s})$ の平均を用いる。各観点は参照文を用いずに以下の手法によりモデル化する. ## 4.1 文法性 Napoles et al. (2016) が参照無し評価に用いたモデルのうち, Heilman et al. (2014)の言語学的な素性に基いたモデルを行う手法をべースに用いる。具体的には, 文法性のスコア $\mathrm{S}_{\mathrm{G}}(h)$ は言語学的な素性に基づくロジスティック回帰により求める。素性については, Heilman et al. (2014) が用いたスペルミス数, n-gram 言語モデルスコア, out-of-vocabulary 数, PCFG およびリンク文法に基づく素性に加え, 依存構造解析に基づく数の不一致素性と Language Tool3ㄹによ誤り検出数を素性として用いた. モデルの学習は GUGデータセット (Heilman et al. 2014) に対して Napoles et al. (2016)の実装4を用いた。さらに,言語モデルの学習のために Gigaword (Parker, Graff, Kong, Chen, and Maeda 2011)と TOEFL11 (Blanchard, Tetreault, Higgins, Cahill, and Chodorow 2013)を用いた. GUG データセットのテストセットにおいて文法性 2 值予測タスクを行ったところ,元々の Napoles et al. (2016) 実装の正解率が $77.2 \%$ だったのに対し, 我々が修正を加えたモデルの正解率は $78.9 \%$ であった。 ## 4.2 流暢性 文法誤り訂正における流暢性の重要性は (Sakaguchi et al. 2016; Napoles et al. 2017)において示されたが,流暢性を考慮する参照無し評価手法はこれまでに提案されていない.流暢性は言語モデルによってとらえることができる (Lau, Clark, and Lappin 2015). 具体的には, 訂正文 $h$ に対し, 流暢性 $\mathrm{S}_{\mathrm{F}}(h)$ を次のように求める ${ }^{5}$. $ \mathrm{S}_{\mathrm{F}}(h)=\frac{\log P_{m}(h)-\log P_{n}(h)}{|h|} $ ^{3}$ https://languagetool.org 4 https://github.com/cnap/grammaticality-metrics/tree/master/heilman-et-al }^{5} S_{N}$ は多くの場合 0 以上 1 未満であるが, 0 未満のとき $S_{N}=0,1$ 以上のとき $S_{N}=1$ とする $|h|$ は文長, $P_{m}$ は言語モデルによる生成確率, $P_{n}$ はユニグラム生成確率である. 本研究では,言語モデルには Recurrent Neural Network (RNN) 言語モデル (Mikolov 2012) を採用し,実装は faster-rnnlm²を用いた。学習には British National Corpus (BNC Consortium 2007) および Wikipedia の 1,000 万文を用いた. 作成したモデルは Lau et al. (2015) のテストデータにおいて,人間の容認性判断に対するピアソンの相関係数が 0.395 であった. ## 4.3 意味保存性 文法誤り訂正においては原文の意味が訂正後も保存されていることは重要である。例えば,以下の文 (1a)が文 (1b) に訂正される事例を考える. (1) a. It is unfair to release a law only point to the genetic disorder. (original) b. It is unfair to pass a law. (revised) 文 (1b) は文法的であるが, 文 (1a)の意味が保存されていないため, 文 (1b) は不適切な訂正である。 意味がどの程度保存されているかを測る単純な方法は, 原文の単語が訂正後の文でも出現する割合を計算する方法である。このような目的のために機械翻訳の評価尺度を用いる方法が考えられる。本研究では, METEOR (Denkowski and Lavie 2014) を訂正前後の文に適用することで,どの程度文意が保存されているかを評価する.METEOR は BLEU などの評価尺度と比べて意味的な類似度を重視した評価尺度である。本稿では入力文 $s$ と訂正文 $h$ に対する意味保存性のスコア $\mathrm{S}_{\mathrm{M}}(h, s)$ を次式により求める. $ \begin{aligned} P & =\frac{m\left(h_{c}\right)}{\left|h_{c}\right|} \\ R & =\frac{m\left(s_{c}\right)}{\left|s_{c}\right|} \\ \mathrm{S}_{\mathrm{M}}(\mathrm{h}, \mathrm{s}) & =\frac{P \cdot R}{t \cdot P+(1-t) \cdot R} \end{aligned} $ $h_{c}$ は GEC システムの出力中の内容語, $s_{c}$ は原文中の内容語である.$m\left(h_{c}\right)$ は出力中の内容語のうちマッチングされた単語数, $m\left(s_{c}\right)$ は原文中の内容語でマッチングされた単語数を表す. $t$ の値はデフォルト値である 0.85 を用いた.METEOR の単語マッチングでは表層だけでなく,活用形,類義語,パラフレーズも考慮される。これに加え,本稿ではスペルミスが訂正されてもマッチングされるよう,スペルチェッカを用いて METEOR を拡張した. ^{6}$ https://github.com/yandex/faster-rnnlm } ## 5 実験 2 節で述べたように, 本研究ではシステム単位と文単位で評価尺度のメ夕評価を行うことで参照無し評価の有効性を確かめる. ## 5.1 自動評価尺度による訂正システム単位評価 本節では, 提案手法および従来手法による自動評価がシステム単位の評価でどの程度人間に近いかを調べるための実験について述べる。 ## 5.1.1 実験設定 Napoles et al. (2016) と同様に, 各自動評価手法で訂正システムの出力文を評価し, 各文に対するスコアの平均を訂正システムに対するスコアとし, 図 1 のように人手評価と比較することで評価尺度のよさを調査した。人手評価との近さを測るためにピアソンの相関係数とスピアマンの順位相関係数を用いた。各相関係数は (Grundkiewicz et al. 2015) の Table 3cの人手評価を用いて計算した。 この実験では, CoNLL 2014 Shared Task (Ng, Wu, Briscoe, Hadiwinoto, Susanto, and Bryant 2014) のデータセット,およびそれに対してGrundkiewicz et al. (2015) が作成した人手評価を用いた. このデータセットは, テストデータ 1,312 文と, それに対する参加 12 システムの訂正結果を含む. このデータに対し, Grundkiewicz et al. (2015)は人手で文ごとに評価した少量のデータを使い, レーティングアルゴリズムである TrueSkill (Herbrich, Minka, and Graepel 2007) を用いて訂正システム単位の人手評価スコアを算出した。また,このテストデータに対しては多くの参照文が作成されている。公式の参照文が 2 個, Bryant and $\mathrm{Ng}(2015)$ による参照文が 8 個, Sakaguchi et al. (2016)による参照文が 8 個作成されている。本実験では, 従来の参照有り手法の性能を最大にするためにこれら 18 個全ての参照文を用いた. 提案手法である MFGの重み $\alpha, \beta, \gamma$ の選択は JFLEG データセットを用いて行った。これは 図 1 自動評価尺度のシステム単位評価 CoNLL データセットを dev データと test データに分割することができないためである. また,実際に MFGを使ってシステムを評価する際にも,全く同じシステムの集合に対して人手順位評価がついているデータセットが事前に手に入ることは期待できないため,システム単位の評価では devデータと test データに分割して重みを決めることは適切ではない. GEC の評価尺度の性能評価に使えるデータセットは現在 CoNLL と JFLEG の 2 つしかないため, 本研究では JFLEG データセットで重みを調整した,たたし,このデータセットは CoNLL データセットとは次の 2 点において性質が大きく異なる。(1) 訂正システムの数が異なる。 CoNLLデータセットには 12 システムが含まれているのに対し,JFLEGデータセットには 4 システムしか含まれていない. (2) 各システムの編集率の分散が小さい. CoNLL データセットにおいて各システム 質の大きく異なるデータセットを使った場合にも一方で調整した $\alpha, \beta, \gamma$ が他方でもうまく働くとすれば,将来においても $\alpha, \beta, \gamma$ の調整はそれほど困難にならない可能性がでてくると考えられる。 そこで,性質の大きく異なるデータセットで重みの調整が可能かを調査するために,実際に, CoNLL と JFLEG の 2 つのデータセットにおいて重みの値を 0.01 刻みでグリッドサーチし,ピアソンの相関係数を計算し各データセットの傾向を調查した.図 2 に結果を示す. どちらのデー タセットにおいても概ね同じ傾向が見られた。いずれのデータセットにおいても, $\alpha, \beta, \gamma$ 値の広い領域で安定的に高い性能を示しており,またその領域は 2 つのデータセットで概ね一致している. このことは, 一方のデータセットで調整した $\alpha, \beta, \gamma$ がもう一方のデータセットでも有効に働くことを意味している。そこで,JFLEGデータセットを使って適当な $\alpha, \beta, \gamma を$ 選択し,その重みが CoNLL データセットにおいても有効であるかを実験する。具体的には, JFLEGデータ JFLEG CoNLL 図 2 JFLEG データセットと CoNLL データセットにおけるピアソン相関係数. $x$ 軸は $\gamma, y$ 軸は $\beta, z$ 軸はピアソンの相関係数を表す。 セットにおいて相関が 0.9 以上となっている $\alpha, \beta, \gamma$ の領域(図 2 を $\mathrm{z}$ 軸から見た図 3 )の中心の点の重み,およびその周辺 4 点の重みを用いた。中心の重みは $(\alpha, \beta, \gamma)=(0.35,0.35,0.3)$, 周辺の 4 点の重みはそれぞれ $(\alpha, \beta, \gamma)=(0.25,0.35,0.4),(0.25,0.45,0.3),(0.45,0.25,0.3),(0.45,0.35,0.2)$ を使用した。 ## 5.1.2 実験結果 表 1 に各手法の人手との相関を示す. 3 つの観点を用いる提案手法は,中心点の重みを使つた場合とその周辺の点 4 つの内, 最も高い相関だった点と最も低い相関だった点の結果を示す.文法性のみ,流暢性のみの評価尺度では $\mathrm{M}^{2}$ を上回ったが GLEUには及ばなかった.意味保存 図 3 図 2 左を $\mathrm{z}$ 軸方向から見た図 表 1 自動評価による訂正システムのランキングと人手評価間の相関係数 性のみの評価は人手評価との相関が弱いという結果になった. しかし, 意味保存性に流暢性を組み合わせることにより性能が改善し,GLEU を上回った。意味保存性, すなわち METEOR は,表層の類似度に基づく評価となっているため,あまり訂正を行わないシステムに対し高い評価を与えてしまう。それにもかかわらず,流暢性と組み合わせたときに重要な役割を果たしていると考えられる。また, 3 観点を全て組み合わせるとさらに性能が向上 $(\rho=0.885)$ した. この結果の意義は, 参照無しでも参照有り手法である GLEUよりも人手に近い評価ができる可能性を初めて示したことである。また, 我々の知る限りこの値は参照無し手法の最高性能である. また, 中心点の周辺の点の重みで実験した結果,相関が最も高い点では $\rho=0.912$ となり, 相関が最も低い点で $\rho=0.851$ となった。相関が最も低い点でもGLEUとほぼ同等の性能であり, ピアソンの相関係数では GLEU を上回った。この結果は特定の 2 つのデータセットから得られた結果であり,全く新しいデータセットに必ずしも一般化して適応できるわけではないが,性質の異なるデータセットを開発データとして用いたとしても,参照無し手法で参照有り手法を越える可能性があることを実験的に明らかにしたことに意義がある. 一方,本実験では文法性の必要性は示されなかった,本実験では 3 観点から文法性を除いたときの方が高性能 $(\rho=0.929)$ となったことからも, 文法性は $\alpha, \beta, \gamma$ の調整次第ではかえって悪影響を与える場合があるといえる。本実験で流暢性モデルとして用いた RNN 言語モデルでは文構造を完全には捉えられないと言われているが (Linzen, Dupoux, and Goldberg 2016), 学習者の文の大半は単純な構造であることと,一般に流暢な文は文法的であることが多いことから,流暢性モデルが文法性モデルを包含している部分があり,文法性モデルを用いなくても十分正確な評価ができたと考えられる。流暢性を除いた場合の相関が $\rho=0.786$, 意味保存性をのぞいた場合の相関が $\rho=0.863$ となり, 3 つの観点を使った場合よりも低い相関になっていることから,流暢性・意味保存性は参照無し評価において重要であると言える. ## 5.2 文単位評価の性能調査 5.1 節の実験で, GLEU および提案手法はシステム単位では人手評価と強く相関していることを示した。しかし, システム単位評価が適切であるからといって, それぞれの文に対して正しくスコアがつけられているとは限らない。例えば,図 4 のような例を考える。この例の人手評価では,システム $\mathrm{A}$ が $\mathrm{B}$ よりもいと判断している。システム単位の評価を見ると,自動評価尺度も Aに対して $0.8, \mathrm{~B}$ に対して 0.6 をつけている。これは人手評価と同じ結果であり,システム単位では正しく評価ができている。文単位で見ると 3 文中 2 つがシステム $\mathrm{A}$ がよいと言っているが, 自動評価尺度の結果は真逆になっている(図 4 の右)。このように文単位のスコアを見たとき,自動評価による優劣判定が人手評価と異なっている文があれば,その自動評価尺度は文単位では訂正文を正しく評価できていないことになる。そこで本研究では,これまで提案された自動評価尺度である $\mathrm{M}^{2}$, I-measure, GLEU および参照無し評価尺度が文単位でどの程 度正確に評価できるかを調査する。 ## 5.2.1 文単位評価の実験設定 文単位評価の性能調査のためには,訂正システムの出力それぞれに対して人手評価が付与されているデータが必要である。本研究では前節で用いたデータ,すなわち Grundkiewicz et al. (2015) によって作られたデータを使用する。このデータはシステム単位の人手評価のために作られたものではあるが,訂正システムの各出力に対して人手評価が付与されているため,その情報を用いる.具体的には表 2 のように,1つの入力文に対して複数システムの出力が与えられており,それらに対して人手評価が 5 段階の相対評価で与えられている. 文単位評価の場合,あるテストセットに対する複数システムの出力が得られた時,そのごく一部を人手で評価し, 残りを自動評価尺度で評価することは, 必ずしも不自然な設定ではない. そこで,本実験では CoNLL データセットを devデータと test データに分割することで提案手法である MFGの重み $\alpha, \beta, \gamma を$ 調整した,今回は CoNLLデータセットをおよそ $1: 9$ の割合で dev セットと test セットに分割し, dev セット上で後述の正解率が最大となる重みを 0.01 刻みのグリッドサーチにより調整した。調整の結果, $(\alpha, \beta, \gamma)=(0.03,0.51,0.46)$ の重みとなった. 図 4 文単位評価が不適切な例 表 2 入力文 $s$ に対する複数の訂正システムの出力 $h$ と人手評価 5 が最も良く, 1 が最も悪い. ## 5.2.2 文単位評価のメタ評価方法 文法誤り訂正の評価尺度のシステム単位での性能を検証する場合には相関係数を用いた。しかしながら通常の相関係数は複数システムの出力に対する人手評価が全て同じ,もしくは自動評価が全て同じ値の場合に定義することができない,文単位の場合,自動評価尺度によっては訂正が異なっていても全て同じスコアになる場合があるため,相関係数では適切に評価できない。また,人手評価が同じ訂正に関しては自動評価尺度で近いスコアが付くことが望ましいと考えられる,そこで,本研究では任意の 2 つの訂正に対する人手評価が異なる場合と同じ場合に分けて評価した。 人手評価が異なるぺアに対しては,自動評価尺度が人手評価で優れている方に高いスコアが与えられていれば正答とみなし,正解率 (Accuracy) により評価した。 $ \text { Accuracy }=\frac{\text { 大小関係を適切に評価できたぺア数 }}{\text { 人手評価の順位が異なるぺア数 }} $ 例えば,表 2 の例では, $\left(h_{1}, h_{2}\right),\left(h_{1}, h_{3}\right),\left(h_{1}, h_{4}\right),\left(h_{2}, h_{3}\right),\left(h_{2}, h_{4}\right)$ の 5 つの組み合わせが人手評価の異なるぺアである。自動評価尺度がこのうち 2 つのぺアの大小関係を適切に評価できた場合,Accuracy $=2 / 5$ になる。また, 2 節で述べた,WMT17 Metrics Shared Taskで使用されたケンドールの順位相関係数 $\tau$ による評価も行った. $ \tau=\frac{\text { 大小関係を適切に評価できたぺア数 }- \text { 大小関係を逆順に評価したぺア数 }}{\text { 人手評価の順位が異なるぺア数 }} $ この $\tau$ は, Accuracy と比べると,人手評価の順位が異なっているにもかかわらず,自動評価で同じ值がつく事例を軽視している。この評価を優劣判定調査と呼ぶ. 人手評価が同じぺアは自動評価スコアもできるだけ近い値になるのが望ましい。そのため自動評価スコア同士の平均絶対誤差 (Mean Absolute Error: MAE) で評価した. $ M A E=\frac{\sum \mid \text { score }_{1}-\text { score }_{2} \mid}{\text { 人手評価が同順のペア数 }} $ 例えば表 2 における $\left(h_{3}, h_{4}\right)$ は人手評価が同じぺアであり,この 2 つに対して自動評価尺度で付けたスコアから MAEを計算する。ただし,もともとスコアの分散が小さい評価尺度が有利になるのを防ぐため, 各評価尺度のスコアは平均が 0 , 分散が 1 になるよう標準化した. この評価を類似性判定調査と呼ぶ. テストデータとして用いる Grundkiewicz et al. (2015)の人手評価は, 8 人の評価者がそれぞれ CoNLL2014 Shared Task のデータからサンプリングされた入力文および訂正文に対してランキングを付与することによって作成された.このため,一部の(入力文,訂正文)の組については複数人のランキングが付与されているが,本実験ではそれらを別インスタンスと見なして評価した。テストデータにおいて,優劣判定調查の対象は 14,822 組,類似性判定調査の対象は 5,964 組存在した. ## 5.2.3結果 優劣判定調査の結果人手評価が異なる 2 文に対する優劣判定の性能を表 3 に示す. 提案手法である MFG は参照有り手法と比べて高い正解率を示した。参照有り手法の中では GLEUが $M^{2}$ やI-measure よりも正解率が高かった. MFG と GLEU の正解率の差についてマクネマー検定を行ったところ,5\%水準で統計的に有意であった.ケンドールの順位相関係数においても提案手法は参照有り手法よりも高い性能を示した。参照有り手法の中では I-measure が最も高い $\tau$値を示した. 提案手法と I-measureの $\tau$ 值の差についてブートストラップ検定を行ったところ, $5 \%$ 水準で統計的に有意であった. 類似性判定調査の結果人手評価が同じ 2 文に対するスコアの平均絶対誤差を表 4 に示す. MFG の平均絶対誤差が小さく, 人手評価が同じ 2 文に対して最も近いスコアを与えることができている,参照有り評価手法の中では, GLEUが最も良い結果となっており, 優劣判定調査・類似性判定調査の両方で優れている。 システム単位評価の結果と文単位評価の結果を比較すると, 各評価尺度の性能の序列は文単位でも同じとなっている。しかし, システム単位評価では I-measure と GLEU の間に差があるが, 優劣判定能力においては差は認められない。一方, 類似性判定調査の結果では GLEUが I-measure を上回っている。これらの結果から I-measure は優劣判定はできるが, その評価スコア自体は適切につけられていないことが示唆される. ## 5.2.4 事例分析 参照無し手法が人手評価の異なる訂正を適切に評価できていた例を示す。表 5 の例で訂正 A は文法的であるが訂正 B は主語と述語の数が一致していないため文法的ではない. この例で参 表 3 人手評価が異なる 2 文に対する優劣判定の性能 表 4 人手評価が同じ 2 文に対するスコアの平均絶対誤差 照無し手法は A の方を高く評価できたが,参照有り手法は B の方を高く評価した. これは訂正 B の表層が参照文と似ているからであるが,参照有り手法は訂正と参照文が異なっている箇所の重大性を考慮せずに評価するからであると考えられる。 一方,参照無し手法は失敗したが従来手法は正答できたものとしては,冠詞だけが異なっている事例が多く見られた. 例えば,表 6 における訂正 $\mathrm{A}$ には冠詞誤りが 2 箇所存在しており,参照無し評価尺度では人手評価が高い方に低いスコアをつけてしまっている。これは適切な冠詞選択のためには文脈情報が必要なことが多く, 参照無し手法は文脈情報を一切用いないのに 表 5 リファレンスベース手法の優劣判定の誤り例 人手評価は 5 が最も良く, 1 が最も悪い. 表 6 リファレンスレス手法の優劣判定の誤り例 原文 In the view of my point , a carrier of a known genetic risk should not be obligated to tell his or her relatives. } \\ 人手評価は 5 が最も良く, 1 が最も悪い. 表 7 人手評価が同じ文に対するリファレンスベース手法の誤り例 } \\ 自動評価スコアは標準化前の値. 対し, 従来手法は文脈を考慮して作成された参照文と訂正を比較しているからであると考えられる。 人手評価が同じ訂正に対し,参照有り手法の絶対誤差が大きかった例を表 7 に示す. 訂正 A と B は人手評価に影響を与えるほどの差異は無い. しかし訂正 A は参照文に無く, 訂正 B は参照文と完全に一致している。このため $\mathrm{M}^{2}$ および I-measure は人手評価が同じにも関わらず大きく異なる評価を行っている。 GLEU は比較的近い值をつけている。理由としては,GLEUは n-gram 適合率に基づく評価である点や, 参照文が複数あるときにその平均值を採用している点が考えられる. しかし, 標準化を行うとその差は 0.674 となる。一方, 参照無し手法は標準化を行ってもその差は 0.109 に収まっており, 人間に近い評価ができている. ## 5.3 参照無し評価の文法誤り訂正への応用可能性の調査 5.2 節の実験より,提案手法が文単位においても参照有り手法を上回る可能性があることが明らかになった,それを受け,本節では参照無し評価尺度のもうの可能性を調査する.参照無し評価尺度は正解データを必要としないため, 正解データのない文に対しても評価スコアを与えることができる,つまり,参照無し評価尺度を使えば,GEC システムの出力した訂正文の候補の中から最もよい訂正文を選択することで誤り訂正の精度を改善できる可能性がある。そこで本節では,複数の訂正候補から最もよい訂正を選択する訂正システムを想定したときに実際に訂正性能が向上するかどうかを調べた,以下,この手法をアンサンブルシステムと呼ぶ. ## 5.3.1 実験設定 図 5 のように, 各入力文に対する複数の GEC 訂正システムの出力を参照無し手法で評価し, 最もスコアの高い訂正を選択するシステムを構築した。評価用のデータとして CoNLL 2014 Shared Task on GEC のテストセットを使用した.アンサンブルするシステムとしては, CoNLL 2014 Shared Task on GEC 参加 12 システムの訂正結果を使用する 7 . ## 5.3.2 評価方法 アンサンブルにより GEC システムの性能が向上するかどうかを調べるために, Grundkiewicz et al. (2015) や Napoles et al. (2017) がシステム単位の人手評価值を求めるために使った方法を使用する,彼らと同様に,システム単位の人手評価を Grundkiewicz らのデータセットを用いて各システムに対する人手評価を TrueSkill (Herbrich et al. 2007)により再計算することにより求めた。ただし,人手評価は一部の入力文(1,312 文中 663 文)に対する一部の訂正にしか与えられていないため, 人手評価が与えられている文のみを使用した. また, 全入力文に対する訂正を評価するために, 参照有り手法による評価も行った. 評価尺度としては $\mathrm{M}^{2}$ と GLEUを用いた. GECの先行研究と直接比較することができるように $\mathrm{M}^{2}$ は, GEC システムの評価で最も一般的な方法に従い計算した.5.1 節, 5.2 節で用いた $\mathrm{M}^{2}$ と異なるのは, 参照文には公式の 2 セットのみを用いる点, システム単位のスコアが macro- $\mathrm{F}_{0.5}$ 值によって算出される点である。GLEUについては 5.1 節, 5.2 節と同様, 正確な評価のために参照文に 18 セット全てを用い, システム単位のスコアは文単位のスコアの平均によって算出した. ## 原文1 評価値 原文2 評価値 ## 出力文1 出力文2 図 5 アンサンブルシステムの概要. 各システムの訂正を参照無し手法によって評価し,最善の文を出力する.  表 8 訂正システムに対するスコア トップシステムは CoNLL2014 参加システムで各スコアが最良のシステムを意味し, 括弧内にシステム名を示した。 ## 5.3.3結果 アンサンブルシステムによる文法誤り訂正の実験結果を表 8 に示す.いずれの評価尺度でも参照無し手法で訂正を選択することにより訂正性能が向上した. TrueSkill のスコアが約 2 倍になっていることは訂正が 2 倍改善したことを意味するものでは無いが,明らかな性能向上を示している. $\mathrm{M}^{2}$ スコアや GLEU+についても性能が改善することが確かめられた. この実験結果から参照無し評価手法は,文法誤り訂正の性能向上に有用であると言える。また, 本研究で行ったアンサンブル手法ではなく, 参照無し評価手法のコンポーネントである文法性, 流暢性, 意味保存性の尺度を直接 GEC システムの中に取り达んだモデルを作ることも考えることができる。アンサンブル手法は従来モデルの訂正候補から最良のものを選択するのに対し, そうしたモデルは 3 観点を考慮した訂正を出力できるため, さらなる性能向上が期待できる。 ## 6 結論 本研究では, GEC システムを自動で評価するための参照無し手法を提案し, 文法性, 流暢性,意味保存性の観点を組み合わせることにより,GEC システムの自動評価を従来手法よりも正確に行える可能性があることを実験的に示した。また,文単位での評価性能を調べる実験を行ったところ, 提案した参照無し手法が従来手法より高い性能を示した. さらに, 参照無し評価を使ったアンサンブル手法による誤り訂正の性能を調査し, 参照無し評価尺度を使うことで文法誤り訂正の性能を向上させることができることを明らかにした. 今後の展望としては,大量のデータを活用し,各観点の評価方法をより精緻な手法にすることで性能の向上を図ることが考えられる。例えば,誤り訂正の対訳コーパスから,ニューラルネットワークを用いて文法性を学習する手法が考えられる。また, 3 観点の組み合わせ方を線形和ではなく,意味保存性のスコアが減点項として働くような組み合わせ方に変更することが考えられる。 ## 謝 辞 本論文の查読にあたり,著者の不十分な記述などに対してご意見・ご指摘をくださった査読者の方々へ感謝します。本論文の内容の一部は, 情報処理学会第 4 回自然言語処理シンポジウ么・第 234 回自然言語処理研究会 (浅野, 水本, 松林, 乾 2017) および The 8th International Joint Conference on Natural Language Processing (Asano, Mizumoto, and Inui 2017) で発表したものです. ## 参考文献 Asano, H., Mizumoto, T., and Inui, K. (2017). "Reference-based Metrics can be Replaced with Reference-less Metrics in Evaluating Grammatical Error Correction Systems." In Proceedings of the 8th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 343-348. Asian Federation of Natural Language Processing. 浅野広樹, 水本智也, 松林優一郎, 乾健太郎 (2017). 文法誤り訂正の文単位評価におけるリファレンスレス手法の評価性能. 情報処理学会第 4 回自然言語処理シンポジウム・第 234 回自然言語処理研究会. Banerjee, S. and Lavie, A. (2005). "METEOR: An Automatic Metric for MT Evaluation with Improved Correlation with Human Judgments." In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72. Association for Computational Linguistics. Blanchard, D., Tetreault, J., Higgins, D., Cahill, A., and Chodorow, M. (2013). TOEFL11: A Corpus of Non-Native English. Technical report, Educational Testing Service. BNC Consortium (2007). The British National Corpus. version 3 (BNC XML Edition). Distributed by Oxford University Computing Services on behalf of the BNC Consortium. Bojar, O., Chatterjee, R., Federmann, C., Graham, Y., Haddow, B., Huang, S., Huck, M., Koehn, P., Liu, Q., Logacheva, V., Monz, C., Negri, M., Post, M., Rubino, R., Specia, L., and Turchi, M. (2017). "Findings of the 2017 Conference on Machine Translation." In Proceedings of the 2nd Conference on Machine Translation, pp. 169-214. Association for Computational Linguistics. Bojar, O., Chatterjee, R., Federmann, C., Graham, Y., Haddow, B., Huck, M., Jimeno Yepes, A., Koehn, P., Logacheva, V., Monz, C., Negri, M., Neveol, A., Neves, M., Popel, M., Post, M., Rubino, R., Scarton, C., Specia, L., Turchi, M., Verspoor, K., and Zampieri, M. (2016). "Findings of the 2016 Conference on Machine Translation." In Proceedings of the 1st Conference on Machine Translation, pp. 131-198. Association for Computational Linguistics. Bojar, O., Graham, Y., and Kamran, A. (2017). "Results of the WMT17 Metrics Shared Task." In Proceedings of the 2nd Conference on Machine Translation, pp. 489-513. Association for Computational Linguistics. Bryant, C. and Ng, H. T. (2015). "How Far are We from Fully Automatic High Quality Grammatical Error Correction?" In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 697-707. Association for Computational Linguistics. Dahlmeier, D. and Ng, H. T. (2012). "Better Evaluation for Grammatical Error Correction." In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 568-572. Dale, R., Anisimoff, I., and Narroway, G. (2012). "HOO 2012: A Report on the Preposition and Determiner Error Correction Shared Task." In Proceedings of the 7th Workshop on Building Educational Applications Using NLP, pp. 54-62. Association for Computational Linguistics. Dale, R. and Kilgarriff, A. (2011). "Helping Our Own: The HOO 2011 Pilot Shared Task." In Proceedings of the Generation Challenges Session at the 13th European Workshop on Natural Language Generation, pp. 242-249. Association for Computational Linguistics. Denkowski, M. and Lavie, A. (2014). "Meteor Universal: Language Specific Translation Evaluation for Any Target Language." In Proceedings of the 9th Workshop on Statistical Machine Translation, pp. 376-380. Association for Computational Linguistics. Felice, M. and Briscoe, T. (2015). "Towards a Standard Evaluation Method for Grammatical Error Detection and Correction." In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 578-587. Association for Computational Linguistics. Grundkiewicz, R., Junczys-Dowmunt, M., and Gillian, E. (2015). "Human Evaluation of Grammatical Error Correction Systems." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 461-470. Association for Computational Linguistics. Heilman, M., Cahill, A., Madnani, N., Lopez, M., Mulholland, M., and Tetreault, J. (2014). "Predicting Grammaticality on an Ordinal Scale." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 174-180. Association for Computational Linguistics. Herbrich, R., Minka, T., and Graepel, T. (2007). "TrueSkill"TM A Bayesian Skill Rating System." In Schölkopf, B., Platt, J. C., and Hoffman, T. (Eds.), Advances in Neural Information Processing Systems 19, pp. 569-576. MIT Press. Lau, J. H., Clark, A., and Lappin, S. (2015). "Unsupervised Prediction of Acceptability Judgements." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1618-1628. Association for Computational Linguistics. Linzen, T., Dupoux, E., and Goldberg, Y. (2016). "Assessing the Ability of LSTMs to Learn Syntax-Sensitive Dependencies." Transactions of the Association for Computational Linguistics, 4, pp. 521-535. Mikolov, T. (2012). "Statistical Language Models Based on Neural Networks." Presentation at Google, Mountain View, 2nd April. Miłkowski, M. (2010). "Developing an Open-source, Rule-based Proofreading Tool." Software: Practice and Experience, 40 (7), pp. 543-566. Napoles, C., Sakaguchi, K., Post, M., and Tetreault, J. (2015). "Ground Truth for Grammatical Error Correction Metrics." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 588-593. Association for Computational Linguistics. Napoles, C., Sakaguchi, K., and Tetreault, J. (2016). "There's No Comparison: Reference-less Evaluation Metrics in Grammatical Error Correction." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2109-2115. Association for Computational Linguistics. Napoles, C., Sakaguchi, K., and Tetreault, J. (2017). "JFLEG: A Fluency Corpus and Benchmark for Grammatical Error Correction." In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 229-234. Association for Computational Linguistics. Ng, H. T., Wu, S. M., Briscoe, T., Hadiwinoto, C., Susanto, R. H., and Bryant, C. (2014). "The CoNLL-2014 Shared Task on Grammatical Error Correction." In Proceedings of the 18th Conference on Computational Natural Language Learning: Shared Task, pp. 1-14. Association for Computational Linguistics. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: a Method for Automatic Evaluation of Machine Translation." In Proceedings of 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Parker, R., Graff, D., Kong, J., Chen, K., and Maeda, K. (2011). English Gigaword 5th Edition LDC2011T07. Philadelphia: Linguistic Data Consortium. Sakaguchi, K., Napoles, C., Post, M., and Tetreault, J. (2016). "Reassessing the Goals of Grammatical Error Correction: Fluency Instead of Grammaticality." Transactions of the Association for Computational Linguistics, 4, pp. 169-182. Snover, M., Dorr, B., Schwartz, R., Micciulla, L., and Makhoul, J. (2006). "A study of translation edit rate with targeted human annotation." In Proceedings of Association for Machine Translation in the Americas, pp. 223-231. ## 略歴 浅野広樹:1993 年生. 2017 年東北大学工学部情報科学研究科卒業. 同年, 同大学大学院情報科学研究科修士課程システム情報科学専攻に進学. 現在に至る. 自然言語処理の研究に従事. 水本智也:2015 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士 (工学). 同年より東北大学情報科学研究科特任助教を経て 2017 年より理化学研究所革新知能統合研究センター特別研究員. 文法誤り訂正や記述式答案の自動採点など自然言語処理による言語学習/教育支援に関心がある. 情報処理学会, 人工知能学会, 言語処理学会, ACL 各会員. 乾健太郎:東北大学大学院情報科学研究科教授. 1995 年東京工業大学大学院情報理工学研究科博士課程修了. 同大学助手, 九州工業大学助教授, 奈良先端科学技術大学院大学助教授を経て, 2010 年より現職. 2016 年より理化学研究所 AIP センター自然言語理解チームリーダー兼任. 情報処理学会論文誌編集委員長, 同会自然言語処理研究会主査等を歴任, 2018 年より言語処理学会論文誌編集委員長.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## ニューラル機械翻訳での訳抜けした内容の検出 ## 後藤 功雄 $^{\dagger \cdot$ 田中 英輝 $\dagger$} ニューラル機械翻訳 (NMT) は入力文の内容の一部が翻訳されない場合があるという問題があるため, NMT の実用には訳出されていない内容を検出できることが重要である.著者らはアテンションの累積確率と出力した目的言語文から入力文を生成する逆翻訳の確率という 2 種類の確率による, 入力文の内容の久落に対する検出効果を調査した. 日英の特許翻訳での訳抜けした内容の検出実験を実施し, アテンションの累積確率と逆翻訳の確率はいずれも効果があり, 逆翻訳はアテンションより効果が高く, これらを組み合わせるとさらに検出性能が向上することを確認した. また,訳抜けの検出を機械翻訳結果の人手修正のための文選択に応用した場合に効果があることが分かった. キーワード:ニューラル機械翻訳,訳抜け ## Detecting Untranslated Content for Neural Machine Translation \author{ IsAo Goto ${ }^{\dagger}$ and HideKi TANAKA ${ }^{\dagger}$ } Despite its promise, neural machine translation (NMT) presents a serious problem in that source content may be mistakenly left untranslated. The ability to detect untranslated content is important for the practical use of NMT. We evaluated two types of probability with which to identify untranslated content: the cumulative attention probability and the back translation probability from a target sentence to the source sentence. Experiments were conducted to discover missing content in Japanese to English patent translations. The results of the investigation revealed that both the types of probability were each effective, back translation was more effective than attention, and the combination of the two resulted in further improvements. Furthermore, we confirmed that the detection of untranslated content was effectual in terms of sentence selection for the human post-editing processing of machine translation results. Key Words: Neural Machine Translation, Missing Translation  ## 1 はじめに ニューラル機械翻訳 (NMT) (Sutskever, Vinyals, and Le 2014; Bahdanau, Cho, and Bengio 2015) は流暢な訳を出力できるが,入力文の内容を全て含んでいることを保証できないという問題があり,翻訳結果において入力文の内容の一部が欠落(訳抜け)することがある.欠落は単語レベルの内容だけでなく,節レベルの場合もある.NMTによる訳抜けを含む日英翻訳の翻訳例を図 1 に示す.この翻訳例では網掛け部の訳が出力されていない。内容の欠落は,実際の利用時に大きな問題となる.この他に NMT では, 入力文中の同じ内容を繰り返し訳出してしまうことがあるという問題もある。本稿は, これらの問題のうち訳抜けを対象として扱う. 従来の統計的機械翻訳 (SMT) (Koehn, Och, and Marcu 2003; Chiang 2007) は, デコード中にカバレッジベクトルを使って入力文のどの部分が翻訳済でどの部分が未翻訳であるかを単語レベルで明示的に区別し,未翻訳の部分がなくなるまで各部分を一度だけ翻訳するため,訳抜けの問題および訳出の繰り返しの問題はほとんど1起きない. しかし, NMT では対訳間での対応関係は, アテンションによる確率的な関係でしか得られないため, 翻訳済の原言語単語と未翻訳の原言語単語を明示的に区別することができない. このため, SMTでのカバレッジベクトルによって訳抜けを防ぐ方法をそのまま適用することは出来ない. 入力文中の各単語位置に応じた動的な状態べクトルを導入して, この状態ベクトルをソフトなカバレッジベクトル(カバレッジモデル)と見なす手法がある (Tu, Lu, Liu, Liu, and Li 2016; Mi, Sankaran, Wang, and Ittycheriah 2016). カバレッジモデルを用いる手法は, 訳抜けの問題を軽減できる可能性がある。しかし, 未翻訳部分が残っているかどうかを明示的に検出して翻 \\ 図 1 訳抜けを含む NMT による日英翻訳結果の例。入力の網掛け部の訳が機械翻訳出力に含まれていない。参照訳の網掛け部は入力の網掛け部に対応する部分を表している.  訳の終了を決定しているわけではない。そのため,カバレッジモデルを用いても訳抜けが発生する問題は残る。 本論文 2 では, 2 種類の確率に基づく値に対して,訳出されていない入力文の内容に対する検出効果を調べる.検出方法の 1 つはアテンション (ATN) の累積確率を用いる方法である(3.1 節)。もう 1 つは, 機械翻訳 (MT) 出力から入力文を生成する逆翻訳 (BT) の確率を用いる方法である (3.2 節),後者は,言語間の単語の対応関係の特定を必ずしも必要とせずに,MT 出力に入力文の内容が含まれているかどうかを推定できるという特徴がある。また, 2 種類の確率に基づく値を訳抜けの検出に使う場合に,それぞれ値をそのまま使う方法と確率の比を用いる方法の 2 つを比較する。さらに,これらの確率を NMT のリランキングに応用した場合(4 節) および機械翻訳結果の人手修正(ポストエディット)のための文選択に応用した場合(5 節)の効果も調べる。これらの効果の検証のために日英特許翻訳のデータを用いた評価実験を行い(6 節),アテンションの累積確率と逆翻訳の確率はいずれも訳抜け部分として無作為に単語を選択する場合に比べて効果があることを確認した。そして,逆翻訳の確率はアテンションの累積確率より効果が高く, これらを同時に用いるとさらに検出精度が向上した. また, アテンションの累積確率または逆翻訳の確率を NMT の $n$-best 出力のリランキングに用いた場合の効果がプレプリント $(\mathrm{Wu}$, Schuster, Chen, Le, Norouzi, Macherey, Krikun, Cao, Gao, Macherey, Klingner, Shah, Johnson, Liu, Kaiser, Gouws, Kato, Kudo, Kazawa, Stevens, Kurian, Patil, Wang, Young, Smith, Riesa, Rudnick, Vinyals, Corrado, Hughes, and Dean 2016; Li and Jurafsky 2016) で報告されているが3, これらと独立した本研究でも同様の有効性を確認した. さらに,訳抜けの検出をポストエディットのための文選択に応用した場合に効果があることが分かった. ## 2 ニューラル機械翻訳 本節では, Bahdanau et al. (2015) に基づく, 本論文で用いたべースラインの NMT について述べる。この NMT は入力文をエンコードするエンコーダーと訳文を生成するデコーダー からなる,入力文が与えられると,その各単語を one-hot 表現に変換し, one-hot 表現の系列 $\mathbf{x}=x_{1}, \ldots, x_{T x}$ を得る. $\mathbf{x}$ の単語位置 $j$ において, エンコーダーは単語の分散表現の行列 $E_{x}$ と LSTM (Hochreiter and Schmidhuber 1997) 関数 $f$ を用いて, 前向きの LSTM の出力ベクトル $\vec{h}_{j}=f\left(\vec{h}_{j-1}, E_{x} x_{j}\right)$ と後ろ向きの LSTM の出力ベクトル $\overleftarrow{h}_{j}=f\left(\overleftarrow{h}_{j+1}, E_{x} x_{j}\right)$ を生成し, それらをつなげたべクトル $h_{j}=\left[\vec{h}_{j}^{\top} ; \overleftarrow{h}_{j}^{\top}\right]^{\top}$ を作成する. デコーダーは入力 $\mathbf{x}$ を条件とする出力 $\mathbf{y}=y_{1}, \ldots, y_{T y}$ の確率を計算する. $\mathbf{y}$ も単語を表す  one-hot 表現の系列である. デコーダーは $\hat{\mathbf{y}}=\operatorname{argmax}_{\mathbf{y}} p(\mathbf{y} \mid \mathbf{x})$ となる $\hat{\mathbf{y}}$ を探索して出力する.確率 $p(\mathbf{y} \mid \mathbf{x})$ を次のように各単語の確率の積に分解する. $ p(\mathbf{y} \mid \mathbf{x})=\prod_{i} p\left(y_{i} \mid y_{1}, \ldots, y_{i-1}, \mathbf{x}\right) $ の各条件付き確率を次のようにモデル化する. $ \begin{aligned} p\left(y_{i} \mid y_{1}, \ldots, y_{i-1}, \mathbf{x}\right) & =\frac{\exp \left(y_{i}^{\top} W_{\mathrm{t}} t_{i}\right)}{\sum_{k \in \mathcal{Y}} \exp \left(k^{\top} W_{\mathrm{t}} t_{i}\right)} \\ t_{i} & =m\left(U_{\mathrm{s}} s_{i}+U_{\mathrm{y}} E_{\mathrm{y}} y_{i-1}+U_{\mathrm{c}} c_{i}\right) \end{aligned} $ ここで, $s_{i}$ は LSTM の隠れ状態, $c_{i}$ はコンテキストベクトル,$W$. と $U$. は重み行列, $E_{y}$ は目的言語の単語分散表現の行列を表しており, $m$ は Maxout (Goodfellow, Warde-Farley, Mirza, Courville, and Bengio 2013) 関数を表している. 状態 $s_{i}$ は次のように計算する. $ s_{i}=f\left(s_{i-1},\left[c_{i}^{\top} ; E_{\mathrm{y}} y_{i-1}^{\top}\right]^{\top}\right) $ コンテキストベクトル $c_{i}$ は $h_{j}$ の重み付け和として, $c_{i}=\sum_{j} \alpha_{i j} h_{j}$ で計算する. ここで, $ \begin{aligned} \alpha_{i j} & =\frac{\exp \left(e_{i j}\right)}{\sum_{j} \exp \left(e_{i j}\right)} \\ e_{i j} & =v^{\top} \tanh \left(W_{\mathrm{s}} s_{i-1}+W_{\mathrm{h}} h_{j}+W_{\mathrm{y}} E_{\mathrm{y}} y_{i-1}\right) \end{aligned} $ である. $v$ は重みべクトルである. $\alpha_{i j}$ がアテンション確率であり, $y_{i}$ と $x_{j}$ との確率的な対応関係をある程度表しているとみなすことができる. ## 3 訳抜けした内容の検出 訳抜けした内容の検出への効果について,2 種類の確率とそれらの利用方法について述べる $^{4}$. ## 3.1 累積アテンション確率の利用 高いアテンション確率が割り当てられた原言語単語は訳出された可能性が高く, アテンション確率がほとんど割り当てられなかった原言語単語は訳出されていない可能性が高いと考えられる (Tu et al. 2016). そのため, 入力文の各単語位置でのアテンション確率の累積は, 訳抜け ^{4} 2$ 種類の確率を組み合わせた利用方法は 6.2 節で説明する. } 検出の手がかりになると考えられる. 入力 $x_{j}$ の内容が $\mathbf{y}$ から欠落している度合いを表すスコア 「累積アテンション確率スコア」(Cumulative attention probability score; ATN-P) $a_{j}$ を (5) 式の $\alpha_{i j}$ を用いて次のように定義する. $ a_{j}=-\log \left(\sum_{i} \alpha_{i j}\right) $ (7) 式の括弧内 ${ }^{5}$ は $\mathrm{x}$ の単語位置 $j$ での累積アテンション確率である。 $i$ は $\mathbf{y}$ での目的言語単語位置を表す。 ただし, 本来, 原言語単語が対応する目的言語単語を持たない場合 6 や, 1 つ原言語単語が複数の目的言語単語に対応する場合があり, $a_{j}$ の値がそのまま訳抜けの度合いを表しているとは限らない. 訳抜けしている場合と訳抜けしていない場合とではアテンション確率の累積値に違いがある の累積值と訳抜けしていない $\mathbf{y}$ における $x_{j}$ のアテンション確率の累積值との比に換算することで,訳抜けの度合いを表すスコアを補正する,ただし,このスコアを計算するためには,訳抜けしていない場合のアテンション確率の累積値を得る必要がある。このために次を仮定する. ここで, $n$-best 出力を $\mathbf{y}^{1}, \ldots, \mathbf{y}^{n}$ と表す. 仮定 : 任意の入力単語の訳の存在入力中の任意の単語 $x_{j},\left(1 \leq j \leq T_{x}\right)$ の訳は, $n$-best 出力 $\mathbf{y}^{d},(1 \leq d \leq n)$ のどこかに存在する. ただし, 本来, 対応先を持たない原言語単語 $x_{j}$ を除く. 以下,この確率比に基づくスコア「累積アテンション確率比スコア」(Cumulative attention probability ratio score; ATN-R) を定義する. 先と同様に入力 $x_{j}$ の内容が $\mathbf{y}^{d}$ から久落している度合いを表すスコア ATN-P を $a_{j}^{d}$ と表す. ここで, $\min _{d} a_{j}^{d}$ 与える出力 $\mathbf{y}^{d}$ に仮定に従って $x_{j}$ の訳が出現しているとみなす 7 . そして, 入力 $x_{j}$ の内容が出力 $\mathbf{y}^{d}$ から欠落している度合いを表す累積アテンション確率比スコア ATN-R $r_{j}^{d}$ を次のように定義する. $ r_{j}^{d}=a_{j}^{d}-\min _{d^{\prime}}\left(a_{j}^{d^{\prime}}\right) $ この値は確率の比の対数を表している. $ であっても,アテンション確率の累積値が 0 になる訳ではなく通常は 0 より大きな値となる. その場合,その対数をとることで計算する $a_{j}$ は $+\infty$ にはならず, $\mathbf{y}$ の単語数を $T_{y}$ とすると $a_{j}$ の値域は $\left(-\log \left(T_{y}\right),+\infty\right)$ となる. } ## 3.2 逆翻訳確率の利用 MT 出力から入力文を生成することを逆翻訳と定義する。入力文の内容が訳抜けしている場合は,逆翻訳で MT 出力から訳抜けした内容を表す原言語単語を生成する確率(逆翻訳確率) が低くなると考えられる。これを訳抜け検出の手がかりとして利用する。この方法は, 言語間の単語の対応関係の特定を必ずしも必要としないという特徴がある。ここで, $\mathbf{y}^{d}$ける $x_{j}$ に対する逆翻訳確率に基づくスコア「逆翻訳確率スコア」(Back translation probability score; BT-P) $b_{j}^{d}$ を次のように定義する. $ b_{j}^{d}=-\log \left(p\left(x_{j} \mid x_{1}, \ldots, x_{j-1}, \mathbf{y}^{d}\right)\right) $ (9) 式での確率は 2 節で述べた NMT を用いて計算する. さらに前節と同様に訳抜けしていない場合の逆翻訳確率との比に換算する.ここで前節と同様に“任意の入力単語の訳の存在”を仮定し, $\min _{d}\left(b_{j}^{d}\right)$ を与える出力 $\mathbf{y}^{d}$ には $x_{j}$ の訳を含むとみなす 8 . そして, 入力 $x_{j}$ の内容が $\mathbf{y}^{d}$ から欠落している度合いを表す確率比に基づくスコア「逆翻訳確率比スコア」(Back translation probability ratio score; BT-R) $q_{j}^{d}$ を次のように定義する. $ q_{j}^{d}=b_{j}^{d}-\min _{d^{\prime}}\left(b_{j}^{d^{\prime}}\right) $ ## 4 翻訳スコアへの適用 前節で述べたスコアは $n$-best 出力から訳抜けが少ない出力の選択に役に立つと考えられる. そこで,これらを翻訳スコアに利用して $n$-best 出力をリランキングし,その効果を調べる。 リランキングのスコアには翻訳の尤度 $\left(\log \left(p\left(\mathbf{y}^{d} \mid \mathbf{x}\right)\right)\right)$ から重み付けした訳抜けのスコアを引いた値を用いる. $r_{j}^{d}$ を用いた場合のスコアとして $ \log \left(p\left(\mathbf{y}^{d} \mid \mathbf{x}\right)\right)-\beta_{r} \sum_{j} r_{j}^{d} $ $q_{j}^{d}$ を用いた場合のスコアとして $ \log \left(p\left(\mathbf{y}^{d} \mid \mathbf{x}\right)\right)-\beta_{q} \sum_{j} q_{j}^{d} $ を用いる.ここで, $\beta_{r}$ と $\beta_{q}$ は重みパラメータである。なお, リランキングでは同じ入力に対 $ の逆翻訳確率は, 訓練デー夕の目的言語文にある程度出現する語であれば $x_{j}$ を逆翻訳で生成できるように学習されるため, 通常は 0 より大きな確率となる.その場合,その対数をとることで計算する $b_{j}$ は $+\infty$ にはならず, $b_{j}$ の值域は $(0,+\infty)$ となる. } する出力間の比較となるため, ATN-R と ATN-P のリランキング結果は同じになる9ので, 本夕スクでは両方を併記して ATN-P/ATN-R と表記する。同様に BT-R と BT-P のリランキング結果も同じになるので,本タスクでは両方を併記して BT-P/BT-R と表記する。 $r_{j}^{d}$ と $q_{j}^{d}$ を同時に使う場合は, 重みパラメータ $\gamma, \lambda を$ 用いて $ \log \left(p\left(\mathbf{y}^{d} \mid \mathbf{x}\right)\right)-\gamma \sum_{j} r_{j}^{d}-\lambda \sum_{j} q_{j}^{d} $ をスコアとして用いる。 ## 5 ポストエディットのための文選択 訳抜けした内容の検出の応用先の 1 つとして,機械翻訳結果を人手で後修正するポストエディットへの応用がある。機械翻訳の翻訳品質の向上により,ポストエディットによる翻訳は費用や時間のコストを下げる手段として産業的な発展が期待されている. 完全な翻訳が必要な場合は全てのMT 出力文を確認して修正する必要があるが,多少の誤りを含む翻訳でも役に立つ場面も多く存在する,例えば,外国語で書かれた特許などのテキストを母国語で閲覧できるサービスや,歀楽向けのテレビ番組の外国語字幕などである。このような場合に,機械翻訳の出力をそのまま利用することも選択肢の1つとなるが,訳質の低い文を自動で選択して,一部の訳質の低い訳文だけを人手で後修正すれば,限られた労力で訳質を効果的に改善することができる ${ }^{10}$ 。翻訳の誤りは訳抜け以外にも訳語選択の誤りや語順の誤り,訳出の繰り返しなど複数の要因があるが, それぞれの要因の誤りを推定して訳文が含む誤りの程度を推測できることが理想的である ${ }^{11,12}$. 本稿では訳抜けの検出を目的にしているので,ここでは,入力文と訳文のぺアの集合から訳抜けを多く含むぺアの選択をタスクとして考える。このタスクの場合は, 異なる入力文間の比較となるため, ATN-P と ATN-R のスコアの違いや BT-P と BT-R のスコアの違いが結果に影響する。 文のスコアには 4 節と同様に単語のスコア $u_{j}$ の和 $ \sum_{j} u_{j} $  を用いる. ここで, $u_{j}$ は 3 節で説明した各単語のスコア( $a_{j}$ など)を表している. 2 種類のスコアを同時に使う場合は, 重みパラメータ $\gamma, \lambda$ を用いて文のスコアの重み付け和を用いる. 例えば $r_{j}$ と $q_{j}$ を用いる場合 $ \gamma \sum_{j} r_{j}+\lambda \sum_{j} q_{j} $ となる. ## 6 実験 本節では,長い文を含む日英特許翻訳のデータを用いて,訳抜け検出での効果,翻訳への効果,および訳抜けを多く含む文選択への効果を調べた実験について述べる. ## 6.1 設定 実験には, NTCIR-9 と NTCIR-10の日英特許翻訳タスク (Goto, Lu, Chow, Sumita, and Tsou 2011; Goto, Chow, Lu, Sumita, and Tsou 2013)のデー夕を用いた.この訓練デー夕の対訳文対の数は約 320 万である。この中で,日英いずれも 100 単語以下の長さの文ぺアを日英 $(\mathrm{JE})$ 翻訳の訓練に用いた,計算量を削減するために逆翻訳用の英日翻訳の訓練には,日英いずれも 50 単語以下の長さの文ぺアを訓練に用いた。これらの訓練で単言語データは用いていない。夕スクの公式開発データ 2,000 文のうち最初の 1,000 文を開発データとして用いた. テスト文と参照訳からなるテストデータは, NTCIR-9 が 2,000 文対, NTCIR-10 が 2,300 文対である。英語のトークナイザには stepp tagger ${ }^{13}$, 日本語の単語分割には Juman $7.01^{14}$ を用いた。 NMT のシステムには, Kyoto-NMT (Cromieres 2016)を用いた ${ }^{15}$. 本稿で用いたべースラインNMTの設定は次のとおりである。原言語と目的言語の語彙数はそれぞれ頻度が高い 30,000 語を用い,それ以外の語は特別な語 (UNK) に置き換えた. エンコーダーの前向きと後ろ向きの LSTM のユニット数はそれぞれ 1,000 , デコーダーの LSTM のユニット数は 1,000 , 単語の分散表現のベクトルサイズは 620 , 出力層の前のベクトルの次元は 500 とした. これらの設定は Bahdanau et al. (2015) と同じである。ミニバッチサイズには 64 を用いた。ただし,逆翻訳のモデルの訓練には 128 を用いた。 パラメータの推定には Adam (Kingma and Ba 2015)を用いた. NMT モデルの訓練は 6 エポック実施した. 開発データは, ミニバッチ 200 回毎に BLEU スコアを計算してスコアが高いモデルを保存するために利用した.翻訳の探索は,ビーム幅 20 でビームサーチした。出力長は入力長の 2 倍以下に制限した。このビームサーチで得られるす  べての出力文 ${ }^{16 を ~} n$-best 出力として用いた ${ }^{17}$. 4 節の重みパラメータ $\beta_{r}, \beta_{q}, \gamma, \lambda$ は開発データで BLEU スコアが高くなるものを $\{0.1,0.2$, $0.5,1.0,2.0\}$ から選択した. ## 6.2 入力文の内容の訳抜け検出での効果 NTCIR-10 のテストデータをベースライン NMT で英語に翻訳し,訳抜けした内容を人手で特定した. そして,3節のスコアによる訳抜けした内容の検出効果を比較した. ## 評価用データの作成 次の手順で評価用データを作成した。まずNTCIR-10 のテストデータからテスト文 (日本語) とその参照訳 (英語) の長さがいずれも 100 単語以下のテスト文を選択し, 選択したテスト文をベースライン NMT で英語に翻訳した.MT 出力にはビームサーチで 1 位の出力を用いた。訳抜けがありそうな MT 出力を選ぶため, (MT 出力の長さ/ min(参照訳の長さ,入力文の長さ))値が小さいテスト文から順番に選択し,テスト文中で翻訳されていない内容語に人手でタグを付与した。これによって 100 文を選択し, 選択した文の全単語 4,457 語のうち 632 語の訳抜けした内容語を認定した。これらの 632 語を正解データとした。この 100 文を選択する際に,入力文と訳文で訳出された部分の単語対応が特定できない部分があることで,訳抜けした部分を特定できなかった文は除いた。 また,内容語の判定には文字種を用い,漢字,数字,カタカナ,アルファベットのいずれかの文字種を含む語を内容語とした。なぜなら,今回対象とした特許文では,実質的な意味を持つ語は通常上記の文字種が用いられること, そして, 平仮名は文中で主に機能的表現に用いられ, 品詞が動詞などの場合でも平仮名で表記されるもの(例えば「する」など)の多くは形式的な働きが強く実質的な内容を持たないためである. なお,NMT の出力に含まれる UNK は翻訳元の語の意味を保持していないが,ここでは訳抜けとして扱わない.例えば,日本語の入力文中の表現が「陰極 $211 \mathrm{~b}\rfloor て ゙ ,$ 対応する英語の参照訳が「the cathode 211b」の時に, 対応する出力の表現が「the cathode UNK」の場合, UNK は日本語の「211b」に対応していると考えることができる. このような場合に, 日本語の単語「211」と「b」は訳抜けしていないとして扱う,なぜならば,扱う語彙が制限されているために英語の「211b」を出力する代わりに UNK を出力しているので, これは訳抜けの問題ではなく扱える語彙の問題であるためである.  ## 2 種類のスコアの組み合わせ方法 2 種類のスコア $r_{j}^{d}$ と $q_{j}^{d}$ を同時に用いて訳抜けを検出する場合 (BT-R \& ATN-R) は, 6.1 節で選択した重みパラメータ $\gamma, \lambda$ を用いて, $ \gamma r_{j}^{d}+\lambda q_{j}^{d} $ をスコアとして用いた。 ## 結果と議論 正解を付与した 100 文のテスト文中の全ての語を 3 節のそれぞれのスコアに基づいてランキングし, 正解 (632 語) と比較した ${ }^{18}$. 結果を図 2 に示す. 全単語(4,457 語)から無作為に単語を選択した際の精度の期待値は $0.14=632 / 4,457$ である.この結果から, 次のことが確認された。 図 2 訳抜けした内容の検出結果. Recall が 0.5 の時, グラフのラインは上から BT-R \& ATN-R, BT-R, BT-P, ATN-R, ATN-Pを表している.  - 累積アテンション確率スコア (ATN-P) と逆翻訳確率スコア (BT-P) は無作為な選択に比べて効果がある。 ・ 累積アテンション確率比スコア (ATN-R) は累積アテンション確率スコア (ATN-P) より検出精度が高く, 逆翻訳確率比スコア (BT-R) は逆翻訳確率スコア (BT-P) より検出精度が高い。 - 逆翻訳確率比スコア $(\mathrm{BT}-\mathrm{R})$ は累積アテンション確率比スコア $(\mathrm{ATN}-\mathrm{R})$ より検出精度が高い. - 2 種類のスコアを同時に利用する (BT-R \& ATN-R) とそれぞれのスコア (BT-R, ATN-R) のみを利用する場合より検出精度が高い. ここで,BT-R でスコアが大きくならずに検出の感度が低かった例を図 3 に示す. 図 3 では,入力文に同一の語 (ISO) が 2 回出現しているが, 出力中にそれらの訳語 (ISO) は 1 つしか出現していない.入力中の下線の “ISO”が訳抜けしていることを検出するためには, 入力中の下線のない “ISO”の訳抜けのスコアは小さく,下線の “ISO”のスコアは大きいことが必要である. しかし, 出力中に “ISO”が含まれているために,原言語単語の “ISO” が逆翻訳で生成されやすい状態となったため,下線の“ISO”のスコアが大きくならなかったと考えられる。 BT-P は,入力中に 1 回しか出現しない内容語の検出の感度は高いと考えられるが,入力中に複数回出現する内容語の検出の感度は低いと考えられる。これに対して, ATN-Pの累積確率は, 目的言語単語を生成する数に依存して値が変わるため, 入力に同一の内容語が複数出現した場合でも,検出の感度は BT-Pのようには低くならないと考えられる。なお, ATN-R は ATN-P に基づいているので,ATN-R は ATN-P と同じ特性があり,同様に BT-R は BT-P に基づいているので,BT-R は BT-P と同じ特性がある。すなわち,BT-R と ATN-R は訳抜けした内容の検出感度(表 1)において一部で相補的な関係にあるため,これが組み合わせで効果があった理由の一つと考えられる。 \\ 図 3 遟翻訳で訳抜けの検出感度が低かった例。入力の網掛け部が訳抜けした部分を表している。参照訳の網掛け部は入力で訳抜けした部分に対応した部分を表している。 表 1 訳抜けした内容の検出感度 ## $6.3 n$-best 出力のリランキングでの効果 4 節で説明した方法でベースライン NMT の $n$-best 出力をリランキングし,各スコアの翻訳への効果を調べた。 ## 比較したシステム 比較のために, ベースライン NMT システムに 2 つのカバレッジモデル (Mi et al. 2016; Tu et al. 2016) ${ }^{19}$ を導入した結果も計算した. これらのモデルはデコード時に利用するものである. なお, Mi et al. (2016)では, カバレッジモデルに GRU を用いている ${ }^{20}$ が,ここではLSTM を用いた ${ }^{21}$. Mi et al. (2016)のカバレッジモデルを neural カバレッジモデル (CovERAGE-neural) と呼ぶ. Tu et al. (2016) は linguistic と neural のカバレッジモデルを提案している. ここでは, これらのうち linguistic バージョンを用い, このモデルを linguistic カバレッジモデル (COVERAGE-linguistic) と呼ぶ. 参考として, Moses (Koehn, Hoang, Birch, Callison-Burch, Federico, Bertoldi, Cowan, Shen, Moran, Zens, Dyer, Bojar, Constantin, and Herbst 2007) で, フレーズベース SMT の distortionlimit を 20,階層フレーズベース SMT の max-chart-spanを 1,000 に設定した従来の SMT による結果も計算した。 さらに,言語モデルを用いた $n$-best 出力のリランキングも実施した ${ }^{22}$. このリランキング結果を Rerank with LM と呼ぶ. ## 結果と議論 表 2 に BLEU-4 (Papineni, Roukos, Ward, and Zhu 2002)の結果を示す.この結果から ATNP/ATN-R と BT-P/BT-R を翻訳スコアに利用することに効果があることが分かる。また, ベー $ et al. (2016) で $\mathbf{U}_{G R U}$ と表記されているモデル. ${ }^{21}$ NMT ベースラインで GRU より LSTM を用いた方が BLEU スコアが高く, カバレッジモデルで Chainer (Tokui, Oono, Hido, and Clayton 2015)の GRU の実装を使うより Chainer の LSTM の実装を使った方が学習速度が速かったためである. 22 KenLM を用いて訓練データの目的言語文で 5-gram の言語モデルを構築し,この言語モデルで出力文の生成確率の負の対数を計算した. 4 節と同様に重み付けして翻訳の尤度から引いた値でベースライン NMT の $n$-best 出力をリランキングした。この重みは, 他の重み( $\beta_{r}$ など)と同様に 6.1 節の手順で選択した。 } 表 2 翻訳結果 (BLEU $(\%))$ スライン NMT は従来の SMT より高い BLEU 值が得られている,以下,表記を簡素化するために, ATN-P/ATN-R では ATN-P を代表して用い, BT-P/BT-R では BT-Pを代表して用いる. 以下,要素毎の効果を議論する。まず,ATN-P と BT-P のリランキングでの効果について述べる. ATN-P と BT-Pのどちらもリランキングに効果があった. ATN-P とほほ同じスコアがリランキングに効果があることはプレプリント (Wu et al. 2016) でも確認されており, BT-P がリランキングに効果があることはプレプリント (Li and Jurafsky 2016)でも確認されている. これらの研究と互いに独立した我々の研究でもリランキングに関して同様の効果を確認した. ATN-P と BT-P を比較すると, BT-P のほうが ATN-P より少し BLEU 值が高かった. ATN-P と BT-Pの両方を用いる (Rerank with BT-P/BT-R \& ATN-P/ATN-R) とそれぞれを単独で用いるよりも BLEU 値が高かった。これらの結果は 6.2 節の結果と整合する。表 2 の Rerank with BT-P/BT-R と Rerank with BT-P/BT-R \& ATN-P/ATN-R の差は, ブートストラップ・リサンプリングテスト (Koehn 2004)のツール23を用いた計算で $\alpha=0.01$ で統計的に有意であった. また, Rerank with BT-P/BT-R と Rerank with ATN-P/ATN-R の差は, NTCIR-10では $\alpha=0.01$ で, NTCIR-9 では $\alpha=0.05$ で統計的に有意であった. 次に,カバレッジモデルの効果について議論する。表 2 の NMT Baseline と CovERAGE-neural とでは差が小さく (0.5 BLEU ポイント未満), このデータセットでは COVERAGE-neural の効果はあまりみられなかった. CoverAGE-linguistic は CovERAGE-neural より改善が大きかったが, NMT Baseline と CoveraGe-linguistic との差も 0.5 BLEU ポイント未満であった. それに対して,アテンション確率を用いてリランキングした場合 (Rerank with ATN-P/ATN-R) では, 1 BLEU ポイント以上の向上が得られている.カバレッジモデルはアテンション確率を利用する方法であるため,今回の実験では,アテンション確率の情報を十分に活用できていないこと ^{23}$ https://github.com/odashi/mteval } が分かる. すなわち,カバレッジモデルはアテンション確率の情報を十分に活用できるようにエンド・ツー・エンドで学習できるとは限らないと言える。学習の困難の度合いはデー夕に依存すると考えられる。 24 訳抜けが発生するとその分だけ出力が短くなるため, 出力長は訳抜けの程度をある程度表している25.そこで, NTCIR-10のテストデータで 100 単語以下の文を用いて出力長を比較した.入力文長の各クラスでの目的言語文の平均長を図 4 に示す. 図 4 から, NMT ベースラインの Input length class 図 4 目的言語文の平均長  出力の平均長が参照訳の平均長より短い傾向にあることが分かり,それだけ訳抜けが発生していると考えられる。 それに対して,表 2 の Rerank with BT-P/BT-R \& ATN-P/ATN-R の出力の平均長は NMT ベースラインより長く, 参照訳により近い長さになっている。これは, NMT ベースラインの出力より訳抜けが少なくなっていることを示唆していると考えられる. 表 2 の Rerank with LM はベースライン NMT と比べて BLEU 值が改善していない. 言語モデルを用いたリランキングでの効果は見られなかった. NMT ベースラインの $n$-best 出力をリランキングした場合の BLEU 値の上限を調べるため, $n$-best 出力から文単位の BLEU 值が最大の出力文を選択した場合の BLEU 值を計算した ${ }^{26}$. その結果は, NTCIR-10テストデータで 47.29, NTCIR-9テストデータで 46.33 であった. これより, $n$-best 出力のリランキングでさらなる改善の余地があることが分かる. 表 2 で最も結果が良かった BT-P と ATN-Pによるリランキング (Rerank with BT-P/BT-R \& ATN-P/ATN-R) で訳抜けが減少しているかどうかを確認するために, テストデータから 100 文を無作為に選択して, ベースライン NMT の結果と Rerank with BT-P/BT-R \& ATN-P/ATN-R の結果での訳抜けと訳出の繰り返しが発生した原言語の内容語の数を調べた。また,カバレッジモデルを用いた手法のうち表 2 で結果が良かった NMT Baseline with CovERAGE-linguistic の結果についても調べた。ここで,文を選択する際に入力長と参照訳長が 100 単語以内のものに限定した. 内容語は 6.2 節で説明した条件を満たす語とした. 結果を表 3 に示す.この結果から,BT-P と ATN-Pによるリランキングによって訳出の繰り返しが増加せずに訳抜けが減少したことを確認した.また,カバレッジモデルを用いても訳抜けが発生したことを確認した.発生した訳抜けはベースライン NMT より少なかったが,BT-P と ATN-P を用いたリランキングより多かった。 表 3 訳抜けした内容語の割合と訳出が繰り返された内容語の割合 括弧内の数字は原言語の内容語の数を表している.  ## 6.4 ポストエディットのための文選択での効果 ## 評価データと設定 評価データには, 6.2 節での訳抜けした内容語に夕グを付与した入力文 100 文とべースライン NMT の翻訳結果との文のペアと, 6.3 節での訳抜けした内容語に夕グを付与した入力文 100 文とべースライン NMT の翻訳結果との文のぺアを用いた。これらは 6 文が重複していたため,重複を除いた全体の文のペア数は 194 であった。これらの194ペアそれぞれに訳抜けした内容語の数(訳抜け数と呼ぶ)を付与したデータを作成し,これを評価データとして用いた. そして, 各ペアのスコアを計算し, 文のスコアと訳抜け数とのピアソンの積率相関係数を調べた。相関係数の値域は $[-1,1]$ で,相関が無い場合は 0 になる。相関係数が 1 に近いほど,訳抜け数の予測精度が高いことを示している。 用いた。 ## 結果と議論 結果を表 4 に示す. 各スコアは訳抜け数と相関があることから訳抜けを含む文の選択で効果があることが分かる.以下,表 4 の結果について考察する. まず, 6.2 節の結果から予想されることを示し,次に予想と結果を対比する. 6.2 節で示した単語レベルでの訳抜けした内容の検出精度がそのまま反映されるならば,次のことが予想される。予想 (1) ATN-PよりATN-R,BT-PよりBT-Rの方が相関係数が高い. 予想 (2) ATNより BT のほうが相関係数が高い. 予想 (3) BT-R と ATN-R との組み合わせは構成要素単独より相関係数が高い.これらの予想と結果を対比する. まず予想 (1)に関して,BT-P と BT-R について比較する,BT-P の相関係数より BT-R の相関係数が高く, BT について予想 (1) と結果は一致した,BT-R は BT-P よりも訳抜け数の多い文の選択で効果が高いことが分かった。 次に予想 (1) に関して, ATN-P と ATN-R について比較する.ATN-P の相関係数に対して 表 4 各文の訳抜けした内容語の数と文のスコアとのピアソンの積率相関係数 ATN-Rの相関係数は高くないため, ATN については予想 (1) と結果は一致しなかった. その原因について分析する。訳抜けするとそれだけ出力が短くなるため,訳出の繰り返しがなければ訳抜け数と入出力長差 ${ }^{27}$ とは相関する ${ }^{28}$. そこで我々は, 入出力長の違いがスコアに反映されている程度が ATN-P と ATN-R とで異なることが原因である可能性があると考え,入力文長から出力文長を引いた値(文長差スコアと呼ぶ)と文のスコアとの相関係数を調べた。その結果, ATN-P の文のスコアと文長差スコアとの相関係数は 0.943, ATN-R の文のスコアと文長差スコアとの相関係数は 0.903 で,ATN-P に基づく文のスコアの方が,ATN-R に基づく文のスコアより入出力長の違いを反映していることが分かった. すなわち, ATN-Pから比に基づくスコア ATN-R に換算することで,ATN-P に基づく文のスコアが保持している入出力長差の情報が劣化したと考えられる。このことが,ATN-Rの個々の単語に対する訳抜け検出精度の向上効果を打ち消したたため,ATN-Rの相関係数は ATN-P の相関係数より大きくならなかったと考えられる 29. 予想 (2) に関して, ATN と BT を比較する。ATN-P と ATN-R の相関係数が BT-P や BT-R の相関係数より高く, 予想 $(2)$ と結果は一致しなかった. その原因を分析する.BT-P および BT-Rの文のスコアと文長差スコアとの相関を調べた。その結果,BT-Pの文のスコアと文長差スコアとの相関係数は 0.695, BT-R の文のスコアと文長差スコアとの相関係数は 0.774 であった。これらは ATN-P の文のスコアと文長差スコアとの相関係数 (0.943) および ATN-R の文のスコアと文長差スコアとの相関係数 (0.903) より低い. そのため, ATN-P および ATN-R の文のスコアは, BT-P および BT-R の文のスコアに比べて入出力長の違いを反映していることが分かった。このことが,BTよりATNの方が相関係数が高かった原因と考えられる. 予想 (3) に関して,スコアの組み合わせの効果を調べる,BT-Rの文のスコアと ATN-R の文のスコアの組み合わせの相関係数は, 組み合わせの構成要素である文のスコア単独での相関係数より高かった。予想 (3)とこの結果は一致した。また,BT-Rの文のスコアと ATN-Pの文のスコアの組み合わせの相関係数も,組み合わせの構成要素である文のスコア単独での相関係数より高かった。個々の単語の訳抜けの検出精度が高い BT-R と入出力長差を文のスコアに反映しやすい ATN-P もしくは ATN-R との組み合わせ (BT-R \& ATN-P および BT-R \& ATN-R) は, それぞれの特徴を活用したことで相関係数が高くなったと考えられる. ポストエディットのための文選択では,相関係数が最も高かった BT-R と ATN-P の組み合  わせの文のスコアを利用することが良いと思われる。この文のスコアと文の訳抜け数は相関があった(相関係数が $0.925 )$ ため,この文のスコアはポストエディットのために訳抜けの多い文を選ぶのに役に立つことが分かった。 ## 7 関連研究 訳抜けを減らす既存研究として 1 節でカバレッジモデルを紹介した. これらの研究の他に, 我々の研究と互いに独立した研究がある (Tu, Liu, Shang, Liu, and Li 2017; Wu et al. 2016; Li and Jurafsky 2016). Tu et al. (2017) はデコーダーのステートから入力文を生成する確率をリランキングに用いている。この確率は入力文を生成する確率という点で逆翻訳の確率に類似しているが,逆翻訳では出力文の情報のみを用いて入力文の生成確率を計算するのに対して,この確率は出力文の情報に加えて入力文の情報も含んでいるデコーダーのステートから入力文の生成確率を計算しているという違いがある. Wu et al. (2016) は $\operatorname{arXiv}$ のプレプリントで, アテンション確率の累積をリランキングに用いて効果を確認している. Li and Jurafsky (2016)も arXiv のプレプリントで,逆翻訳の確率をリランキングに用いて効果を確認している。これらの研究は, アテンション確率の累積と逆翻訳の確率の訳抜け検出への効果を直接評価していない. それに対して我々の研究は,アテンション確率の累積と逆翻訳の確率の訳抜け検出への効果を直接評価し, これらの組み合わせの効果についても調査し, これらの関係についても考察している。また,ポストエディットのための文選択への効果も評価している。 ## 8 おわりに NMT での訳抜けの検出について,アテンションの累積確率と逆翻訳の確率を用いた場合の効果を評価し, 有効性を確認した. そして, これらの値を直接用いるよりも, $n$-best 出力で負の対数が最小の場合との比を用いる方が検出精度が高く, アテンションの累積確率比と逆翻訳の確率比を同時に用いるとさらに検出精度が向上した. また, これらを NMT の $n$-best 出力のリランキングに用いた場合の有効性も確認した。 さらに, 訳抜けの検出をポストエディットのための文選択に応用した場合の効果も評価し, 効果があることが分かった. ## 参考文献 Bahdanau, D., Cho, K., and Bengio, Y. (2015). "Neural Machine Translation by Jointly Learning to Align and Translate." In Proceedings of International Conference on Learning Representations. Chiang, D. (2007). "Hierarchical Phrase-Based Translation." Computational Linguistics, 33 (2), pp. 201-228. Cromieres, F. (2016). "Kyoto-NMT: A Neural Machine Translation implementation in Chainer." In Proceedings of the 26th International Conference on Computational Linguistics: System Demonstrations, pp. 307-311, Osaka, Japan. Goodfellow, I. J., Warde-Farley, D., Mirza, M., Courville, A., and Bengio, Y. (2013). "Maxout Networks." In Proceedings of the 30th International Conference on International Conference on Machine Learning - Volume 28, pp. III-1319-III-1327. JMLR.org. Goto, I., Chow, K. P., Lu, B., Sumita, E., and Tsou, B. K. (2013). "Overview of the Patent Machine Translation Task at the NTCIR-10 Workshop." In Proceedings of the 10th NTCIR Conference, pp. 260-286. Goto, I., Lu, B., Chow, K. P., Sumita, E., and Tsou, B. K. (2011). "Overview of the Patent Machine Translation Task at the NTCIR-9 Workshop." In Proceedings of the 9th NTCIR Workshop Meeting, pp. 559-578. Goto, I. and Tanaka, H. (2017). "Detecting Untranslated Content for Neural Machine Translation." In Proceedings of the 1st Workshop on Neural Machine Translation, pp. 47-55, Vancouver. Association for Computational Linguistics. 後藤功雄, 田中英輝 (2017). ニューラル機械翻訳での訳抜けした内容の検出. 言語処理学会第 23 回年次大会発表論文集, pp. 1018-1021. Hochreiter, S. and Schmidhuber, J. (1997). "Long Short-Term Memory." Neural Computation, 9 (8), pp. 1735-1780. Kingma, D. P. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." In Proceedings of the 3rd International Conference for Learning Representations. Koehn, P. (2004). "Statistical Significance Tests for Machine Translation Evaluation." In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 388-395. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., Dyer, C., Bojar, O., Constantin, A., and Herbst, E. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics: Demo and Poster Sessions, pp. 177-180. Koehn, P., Och, F. J., and Marcu, D. (2003). "Statistical Phrase-Based Translation." In Proceedings of the Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, pp. 48-54. Li, J. and Jurafsky, D. (2016). "Mutual Information and Diverse Decoding Improve Neural Machine Translation." arXiv preprint, arXiv:1601.00372. Mi, H., Sankaran, B., Wang, Z., and Ittycheriah, A. (2016). "Coverage Embedding Models for Neural Machine Translation." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 955-960, Austin, Texas. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "Bleu: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Sutskever, I., Vinyals, O., and Le, Q. V. (2014). "Sequence to Sequence Learning with Neural Networks." In Proceedings of Advances in Neural Information Processing Systems 27, pp. 3104-3112. Tokui, S., Oono, K., Hido, S., and Clayton, J. (2015). "Chainer: a Next-Generation Open Source Framework for Deep Learning." In Proceedings of Workshop on Machine Learning Systems in the 29th Annual Conference on Neural Information Processing Systems. Tu, Z., Liu, Y., Shang, L., Liu, X., and Li, H. (2017). "Neural Machine Translation with Reconstruction." In Proceedings of the 31st AAAI Conference on Artificial Intelligence, pp. 3097-3103. Tu, Z., Lu, Z., Liu, Y., Liu, X., and Li, H. (2016). "Modeling Coverage for Neural Machine Translation." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 76-85, Berlin, Germany. Wu, Y., Schuster, M., Chen, Z., Le, Q. V., Norouzi, M., Macherey, W., Krikun, M., Cao, Y., Gao, Q., Macherey, K., Klingner, J., Shah, A., Johnson, M., Liu, X., Kaiser, L., Gouws, S., Kato, Y., Kudo, T., Kazawa, H., Stevens, K., Kurian, G., Patil, N., Wang, W., Young, C., Smith, J., Riesa, J., Rudnick, A., Vinyals, O., Corrado, G., Hughes, M., and Dean, J. (2016). "Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation." arXiv preprint, arXiv:1609.08144. ## 略歴 後藤功雄:1995 年早稲田大学理工学部電気工学科卒業. 1997 年同大学院理工学研究科修士課程修了. 2014 年京都大学大学院情報学研究科博士課程修了.博士 (情報学)。1997 年 NHK 入局,(株)国際電気通信基礎技術研究所 (ATR) および(独)情報通信研究機構出向を経て,現在,放送技術研究所スマートプロダクション研究部にて自然言語処理の研究に従事. 田中英輝:1982 年九州大学工学部電子工学科卒業. 1984 年同大学院修士課程修了. 同年 NHK 入局, 1987 年放送技術研究所研究員. (株) 国際電気通信 基礎技術研究所 (ATR) 音声言語コミュニケーション研究所第 4 研究室室長, NHK 放送技術研究所上級研究員などを経て 2018 年 7 月より (一財) NHK エンジニアリングシステムシステム技術部上級研究員. テキストの平易化, 機械翻訳などの自然言語処理の研究に従事. 博士 (工学). (2018 年 4 月 27 日受付) (2018 年 8 月 2 日再受付) (2018 年 9 月 18 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 店舗レビューには何が書かれているか?調査及び自動分類システムの開発— ## 新里 圭司 ${ ^{\dagger}$ 小山山田由紀 $\dagger$} 本稿では,オンラインショッピングサイト出店者に対して書かれたレビュー(以下,店舗レビュー)内の各文を, 言及されているアスペクト(例えば,商品の配送や梱包)とその評価極性(肯定, 否定)に応じて分類するシステムについて述べる。店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでないため, まず店舗レビュー 100 件(487 文)を対象に,各文がどのようなアスペクトについて書かれているのか調査した。その結果, 14 種類のアスペクトについて書かれていることがわかった。そして,この調査結果をもとに 1,510 件の店舗レビューに含まれる 5,277 文に対して人手でアスペクトおよびその評価極性のアノテーションを行い,既存の機械学習ライブラリを用いてレビュー内の文を分類するシステムを開発した,本システムを用いることで,任意のアスペクトについて,その記述を含むレビューへ効率良くアクセスしたり, その評判の時系列変化を調べたりすることが可能になる。 キーワード:オンラインショッピング, レビュー, アスペクト分類, 評判分析 ## What Do People Write in Reviews for Sellers? -Investigation and Development of an Automatic Classification System- \author{ KeIJI Shinzato ${ }^{\dagger}$ and Yuki Oyamada ${ }^{\dagger}$ } Herein, we describe a system that classifies each sentence in reviews for the sellers of an online shopping website based on aspects, such as shipping and packaging, and sentiment polarity (positive and negative). First, we investigated 487 sentences that were extracted from randomly selected 100 seller reviews for revealing the aspects mentioned in the reviews. This was done because the aspects in the seller reviews are not obvious. Consequently, we found that 14 aspects were described in the seller reviews. We annotate 14 aspects and their sentiment polarity for 5,277 sentences in 1,510 seller reviews that are newly and randomly chosen. Then, we train the classification models using the existing machine learning software. Through the system based on these classification models, users can understand the trend for any aspect in a time series and easily access reviews describing aspects which they are interested in.  Key Words: Online Shopping, Review, Aspect Classification, Sentiment Analysis ## 1 はじめに オンラインショッピングでは出店者(以下, 店舗と呼ぶ)と顔を合わせずに商品を購入することになるため, 店舗とのやりとりは顧客満足度を左右する重要な要因となる. 商品の購入を検討しているユーザにとって, 商品を扱っている店舗が「どのような店舗か」という情報は, 商 ザが店舗 A から商品を購入したいと思うのではないだろうか. 店舗 A:こまめに連絡をとってくれ,迅速に商品を発送してくれる 店舗 B: 何の連絡もなく, 発注から 1 週間後に突然商品が届く ユーザに対して店舗に関する情報を提供するため, 楽天市場では商品レビューに加え,店舗に対するレビューの投稿・閲覧ができるようになっている.店舗レビューの例を図 1 に示す.自由記述以外に 6 つの観点(品揃え, 情報量, 決済方法, スタッフの対応, 梱包, 配送)に対する購入者からの 5 段階評価(5が最高, 1 が最低)が閲覧可能である.この 5 段階評価の結果から店舗について知ることができるが, 評価値からでは具体的にどう良かったのか, どう悪かったのかという情報は得られないのに加え, ここに挙がっている観点以外の情報も自由記述に含まれているため,店舗をより詳細に調べるには自由記述に目を通す必要がある。そのため,レビュー内の各文をその内容および肯定, 否定といった評価極性に応じて分類することができれば, 店舗の良い点, 悪い点などユーザが知りたい情報へ効率良くアクセスできるようになり,今まであった負担を軽減することが期待できる. 図 1 楽天市場における店舗レビューの例. 自由記述以外に 6 つ観点(品揃え, 情報量, 決済方法, スタッフの対応, 梱包, 配送)に対する購入者からの 5 段階評価(5 が最高, 1 が最低)がメタデー 夕として付いている。自由記述部分を読むと, 発送が遅れているにも関わらず, 店舗から何の連絡も来ていないことがわかる,店舗からの連絡に関する評価は, 評価対象となっている 6 の観点では明確に捉えられていない。 このような分類は,オンラインショッピングサイトの運営側にとっても重要である. 例えば楽天では, より安心して商品を購入してもらえるように,ユーザに対する店舗の対応をモニ夕リングしており,その判断材料の 1 つとして店舗レビューの自由記述部分を用いている。そのため,レビューに含まれる各文を自動的に分類することで,問題となる対応について述べられた店舗レビューを効率良く発見できるようになる。 こうした背景から,我々は店舗レビュー中の各文を記述されている内容(以下,アスペクトと呼ぶ)およびその評価極性(肯定,否定)に応じて分類するシステムの開発を行った. 店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでないため,まず無作為に選び出した店舗レビュー 100 件(487文)を対象に,各文がどのようなアスペクトについて書かれているのか調査した。その結果, 14 種類のアスペクトについて書かれていることがわかった.次いでこの調査結果に基づき,新しく選び出した 1,510 件の店舗レビュー(5,277 文)に対して人手でアスペクトおよびその評価極性のアノテーションを行い,既存の機械学習ライブラリを用いてレビュー内の文をアスペクトおよびその評価極性に分類するシステムを開発した。アスペクト分類の際は,2つの異なる機械学習手法により得られた結果を考慮することで,再現率を犠牲にはするものの,1つの手法で分類する場合より高い精度を実現している。このように精度を重視した理由は,システムの結果をサービスや社内ツールとして実用することを考えた場合, 低精度で網羅的な結果が得られるよりも, 網羅的ではないが高精度で確実な結果が得られた方が望ましい場合が多いためである。例えば 1 つ機能として実サービスに導入することを考えた際,誤った分類結果が目立つと機能に対するユーザの信頼を失う要因となる。このような事態を回避するため,本手法では精度を重視した。 以降,本稿では店舗レビュー中に記述されているアスペクト,機械学習を使ったアスペクト・評価極性の分類手法について述べた後, 構築した店舗レビュー分析システムについて述べる. ## 2 店舗レビューには何が書かれているか? 調査にあたり,まず楽天市場の店舗レビューを評価が高いものと低いものに分類した,具体的には,各店舗レビューに含まれる 6 つ評価観点に対する評価値の平均を求め, 値が 4.5 以上のものを高評価, 2.0 以下のものを低評価レビューとした.続いてレビューを「\n」「。」「!」 されたレビューのうち,3文以上含むものを無作為に 50 件ずつ選びだし,それらに記述されている内容を調査した。対象となったレビュー 100 件には 487 文含まれていた。 3 文以上含むレ  ビューを調査対象とした理由は,(1)「大変良かったです。」のように一言だけ書かれたレビュー を除くため,および $(2)$ 文数が多いレビューほど具体的にアスペクトを記述していると考えたためである. 調査により明らかとなったアスペクトを表 1 に示す。実際の調查では決済方法に関する記述は見当たらなかったが,決済方法に関する観点が店舗レビューのメタデータとして含まれるため追加した,表よりメール・電話などの店舗とのやりとり,店舗に対する評価,再度購入したいと思ったかどうか, キャンセル・返品時の対応など,先述した 6 つの評価観点では明確に捉えられていないアスペクトについてレビュー中で言及されていることがわかる。また店舗レビュー ではあるが,商品やその価格に関する言及もあることがわかる. ## 3 アスペクトおよび評価極性の自動分類 表 1 のアスペクトをもとに,新しく無作為に選び出した店舗レビュー 1,510 件(5,277 文)に対して人手でアノテーションを行い,これに基づいてアスペクトおよびその評価極性(肯定,中立,否定)を分類するモデルを構築した。本節ではこれらについて述べる。 ## 3.1 学習データの作成 まず 2 節で述べた方法で,店舗レビューを高評価および低評価に分類し,文分割処理を行った. そして表 2 に示す割合でレビューを無作為に選びだし,アノテーションの対象とした。 アノテーションは 1 名のアノテータで行った。まず調査に用いたレビュー 100 件を使って訓練した後,5,277 文に対して該当する全てのアスぺクトおよびその評価極性を付与するよう依頼した. アスペクトに「その他」を設けてあるため各文には必ず 1 つ以上のアスペクトおよびその評価極性が付与されることに注意されたい。また文単体ではアスぺクト・評価極性の同定が難しい場合は,前後の文脈を利用するように指示した。そのため,同じ文であっても前後の文脈により付与されるアスペクト・評価極性が異なる場合がある,以下に,文脈によってアスペクト・評価極性の判定結果が異なる例を示す(「/」は文の境界を表す)。 レビューA: 欲しかった商品の在庫がなかったのにすぐ手配してくれてとても助かりました。/注文した翌々日に届きました。/驚きました。 レビューB: 初めてこの店舗を利用しましたが、梱包が最低。/驚きました。/商品にクッショ ンもされず、コードが箱から出ちゃって、一度使うのに出した物を、また箱に戻してキレイに戻らなくて、セロテープでペタペ夕貼ってあるように見えました。/人となりが、解ってしまう様な店舗です。 レビュー A , B は文「驚きました。」をそれぞれ含んでいるが,そのアスペクト・評価極性は異っており,レビュー A は(配送,肯定),Bは(梱包,否定)が適切なアノテーションである. 表 1 店舗レビューで言及されるアスペクト \\ 表 2 アノテーションの対象とした店舗レビューの統計 表 3 店舗レビュー 1,510 件(5,277 文)中に言及されるアスペクトの評価極性の分布 5,277 文における各アスペクトおよびそれらの評価極性の分布を表 3 に示す. 1 文に対して複数のアスペクト,評価極性が付与されることがあるため実際の文数よりもアノテーションの件数は多くなっている。連絡,店舗,再購入,情報,商品価格など多くのアスペクトで評価極性の分布に偏りが見られる。 ## 3.2 分類モデルの構築 3.1 節で構築したアスペクトおよび評価極性がアノテートされたデータを使いアスペクト分類モデルおよび評価極性分類モデルを構築する。表 3 からわかるように,評価極性分類モデルの構築に十分な量の事例数が確保できないアスペクトがあるため, アスペクト分類および評価極性分類のモデル構築は独立に行った. 分類にあたり,文ごとに分類を行う文単体モデル,およびレビュー内の文に対する系列ラべリング問題とみなし,レビュー単位で各文の分類を行う文書モデルの 2 種類を考えた。文書モ デルを設けた理由は,先述の「驚きました。」の例のように前後の文脈を利用しないとアスぺクト・評価極性の同定が難しい曖昧な文があるためである. ## 3.2.1 アスペクトの分類 より高い精度 (Precision) を得るため, 文単体モデルおよび文書モデルの両方を構築し, 両モデルにより推定されたアスペクトが同じ場合のみアスペクトを出力した。そのため,現状では 1 文に対して1つのアスペクトしか推定できない. 複数のアスペクトを推定する方法については今後検討する予定である。 文単体モデルおよび文書モデルでは以下に示す共通の素性を用いた. 単語素性: 品詞の大分類が名詞 ${ }^{2}$, 形容詞, 動詞, 感動詞, 副詞となる単語の原形を素性とした。ただし接尾辞が後続している場合は,「良心:的」のように当該単語と接尾辞を連結した. また当該単語の直前が接頭辞「未」「不」, もしくは次の単語素性になりえる語(最後方の語の場合は文末)との間に否定を表す語(「ない」「無い」「無し」,助動詞「ぬ」「ん」のいずれか)が存在する場合は,否定を表すフラグを付与し,肯定の場合と区別した. 例えば文「余計な梱包もなく、ごみも出なくて助かります。」からは「余計」「梱包【否定】「ごみ」「出る【否定】」「助かる」が単語素性として抽出される. 辞書素性: 人手で構築した辞書の要素と一致する形態素(列)が文中に含まれていれば,要素に対応するラベルを素性とする。表 4 に構築した辞書の例を示す. 表 4 アスペクト分類用辞書の例(全 171 件) ^{2} 4.2$ 節で述べるように形態素解析を MeCab, NAIST Japanese dictionary を利用して行っているが,その際に品詞の細分類が非自立のものは除いた。 } ## 3.2 .2 評価極性の分類 アスペクトが推定された文に対してのみ分類を行う,同じ評価極性の文が続けて現れやすい文脈一貫性 (那須川,金山 2004; Kanayama and Nasukawa 2006) を利用するため,評価極性の判定には文書モデルを採用した. 文単体モデルと併用しなかった理由は, 4.2 節で示すように文書モデルだけである程度の精度が達成できたこと, および全体としてのカバレージがさらに下がることを避けるためである。評価極性の分類には以下の素性を用いた. 単語素性:アスペクト分類と同じ。 接続詞素性: 逆接の関係を表す接続詞「でも」「しかし」「だけど」で文が始まっているかどうか.これらの接続詞は,それ以前の文と評価極性が反転することがあるために素性として扱った. (那須川, 金山 2004; Kanayama and Nasukawa 2006; 乾, 梅澤, 山本 2013). 評価極性素性: 文内に含まれる肯定的な語, 否定的な語の数. 評価極性素性を抽出するにあたり,次の方法で単語に対してポジティブ,もしくはネガティブの度合いを計算した。まず 2016 年に楽天に投稿された店舗レビューの中から, 5 文以上含む高評価,低評価レビューを無作為に 5 万件ずつ集めた. 文分割方法および高評価,低評価の判定方法は 2 節と同じである。次に集められたレビューから単語素性と同様の方法で単語を抽出し,各語について高評価レビュー中での文書頻度 $d f_{p o s}$, 低評価レビュー中での文書頻度 $d f_{n e g}$ を算出した. そして, $d f_{p o s}>d f_{n e g}$ であれば肯定的, それ以外は否定的として各語の評価極性を決定した.この時, $d f_{p o s}$ と $d f_{n e g}$ の和が 100 未満のものは低頻度語として見なし削除した. この結果, 806 表現が肯定的, 2,102 表現が否定的として判定された. 得られた肯定的な語, 否定的な語の一部を表 5 に示す。表を見ると「ゴム(肯定的)」や「始める(否定的)」のように直感的でない事例も確認できるが,評価極性素性としては各単語の出現をそのまま用いるのではなく, 各評価極性に分類される語の頻度を集計してから用いているため,このような直感的でない事例による影響は小さいと考えられる。 表 5 肯定, 否定に分類された表現の例 ## 4 実験 本節では, 3.1 節で構築したアノテーションデータの評価, 3.2 .1 節, 3.2 .2 節で述べた分類手法の性能について報告する. ## $4.1 \kappa$ 統計量に基づくアノテーションの評価 3.1 節で述べたアノテーション済の 1,510 件のレビューから高評価レビュー 100 件, 低評価レビュー 100 件を無作為に選びだし,別の作業者に改めてアスペクトおよび評価極性のアノテー ションを依頼した。この 200 件のレビューには 752 文含まれていた。作業者には 2 節の調査に用いたレビュー 100 件を使って事前に訓練してからアノテーションに取り組んでもらった。今回の作業者を $\mathrm{A} , 1,510$ 件のレビューに対してアノテーションを実施した作業者を $\mathrm{B}$ とすると,作業者 A が 752 文に対して付与したラベル(アスペクトとその評価極性)の異なり数は 169 , 作業者 B は 168 であった ${ }^{3}$.またどちらの作業者にも共通するラベルの異なり数は 98 であった. $\kappa$ 統計量 (Landis and Koch 1977) を計算する際, 複数のラベルがアノテートされている文については, 作業者間で全てのラベルが一致しているかどうかをチェックした. その結果, 作業者間の $\kappa$ 統計量は 0.562 であった. これは moderate agreementとされる値である. ## 4.2 アスペクト分類および極性判定の評価 3.1 節で作成したデータをもとに 10 分割交差検定を行い分類手法の性能を評価した。評価の際,アスペクト「システム」および「決済方法」は事例数が少ないため学習が困難と判断し,「その他」として扱った.文単体モデルの学習には opal 4 を,文書モデルの学習には CRFsuite ${ }^{5}$ 用いた. opal で学習する際は 2 次の多項式カーネルを用い,他のパラメータはデフォルトを利用し,CRFsuiteでの学習は全てデフォルトのパラメータを利用した。素性を抽出する際は前処理として MeCab およびNAIST Japanese Dictionary7を使って文を形態素解析した. モデルを学習する際, 複数のアスペクト, 評価極性がアノテートされた文は, その全てのアスペクト・評価極性の訓練事例とした。例えば,図 2 は複数のアスペクトを持つ文を含むレビュー の例である.文単体モデルでは $\mathrm{s}_{3}$ を配送,梱包の事例として扱った。一方で文書モデルの場合は, 系列「その他 $\rightarrow$ 商品 $\rightarrow$ 配送 $\rightarrow$ 再購入」「その他 $\rightarrow$ 商品 $\rightarrow$ 梱包 $\rightarrow$ 再購入」を学習デー夕として利用した 8 .  評価極性判定を考慮したアスペクト分類の評価結果を表 6 ,アスペクト分類単体の評価結果を表 7 ,極性判定単体の評価結果を表 8 にそれぞれ示す。複数の正解ラベルを持つ文がある一方で,3.2.1 節で述べたように提案手法は 1 つの文に対して 1 つのアスペクト, 評価極性しか出力できない. そこで部分一致を考慮するために, 各表の精度 $P$, 再現率 $R$ を以下の方法により求め, $\mathbf{F}_{1}$ 値は以下の式において $\beta=1$ として計算した. $ \begin{aligned} & P=\frac{\text { 提案手法がラベル } l \text { を出力した際, 正解ラベルの集合に } l \text { が含まれていた文の数 }}{\text { 提案手法が } l \text { を出力した文の数 }} \\ & R=\frac{\text { 提案手法がラベル } l \text { を出力した際, 正解ラべルの集合に } l \text { が含まれていた文の数 }}{l \text { を正解ラベルの集合に含む文の数 }} \end{aligned} $ & & & & & & & $\sqrt{ }$ \\ $\mathbf{s}_{\mathbf{2}}$ & & & $\sqrt{ }$ & & & & \\ $\mathbf{s}_{3}$ 発送が迅速で、梱包が綺麗でした。 & $\sqrt{ }$ & & & & & \\ 図 2 複数のアスペクトが付与された文の例 表 6 アスペクト分類(評価極性判定込み)の評価結果 斜体はデータセット中での事例数が 100 件未満のものを意味する. 表 7 アスペクト分類のみの評価結果 表 8 評価極性判定のみの評価結果 $ F_{\beta}=\left(1+\beta^{2}\right) \times \frac{P \times R}{\left(\beta^{2} \times P\right)+R} $ ここでラベル $l$ は評価極性付きアスペクト,アスペクト単体,評価極性単体のいずれかである.表 6 , 表 8 より, 肯定, 否定に比べ中立の性能が低いことがわかる. 表 6 では事例数が 100 件未満のものを斜体で表示しており,これを見ると訓練事例数が少ないアスペクトが多く,これらは性能が低いことがわかる。このことが他の評価極性に比べて性能が低い理由と考えられる。 また表 6 , 表 7 より,アスペクト「商品」「その他」に関して性能が低いことがわかる。これは (1)そもそも店舗レビューは店舗について記述することが前提となっているため商品に関する記述が少ない, (2) 楽天では多種多様な商品が販売されており, それらをカバーするだけの商品に関する十分な量のテキストが学習データに含まれていないためと考えられる.「その他」についても様々な事柄について言及した文がこのアスペクトに分類されており, そのバリエーションの多さゆえに十分学習できておらず性能が低くなったと考えられる。 3.2.1節で述べたように,より高い精度を得るために,文単体モデルおよび文書モデルの両方の出力が一致した場合のみ,推定されたアスペクトを出力している。これが実際にどの程度の効果があるのかを確認した.表 9 に各モデル単体での性能および組み合わせた場合の性能を示す. $\mathrm{F}_{1}$ 值に加え, 精度を重視した尺度である $\mathrm{F}_{0.5}$ 值もあわせて示した. 全てのアスペクトにおいて,両モデルを組み合わせて用いることで精度を改善できていることが表よりわかる。より具体的には,組み合わせることで,再現率がマクロ平均で $8.6 \%$, マイクロ平均で $9.1 \%$そぞれ下がるが,それと引き換えに精度をマクロ平均で $7.4 \%$, マイクロ平均で $8.2 \%$ 改善できている. 表 9 文単体モデルおよび文書モデルの評価結果 \\ 図 3 評価極性判定を極端に誤った文の例 また $\mathrm{F}_{0.5}$ 值の値も,マクロ平均,マイクロ平均ともに改善されていることがわかる. 評価極性判定の精度については表 8 に示したとおりであるが,実応用を考えた時,肯定的な文を誤って否定的に分類してしまうケース,もしくはその反対のケースは致命的なエラーとなる。そこでこのような事例数がどの程度あるか調査した,具体的には,評価極性が 1 つみアノテーションされた 4,789 文を対象に両ケースの事例数を調べた。その結果, 肯定を誤って否定と判定してしまった件数は 99 件 $(2.1 \%)$, その反対のケースは 52 件 $(1.1 \%)$ であった。これより評価極性判定を極端に誤るような致命的なエラーはほとんど起きていないことがわかる。図 3 に判定を極端に誤った文の例を示す。店舗が好意で行った特別な梱包方法に対し,「送れない」 などの表現が引き金となって評価極性判定を誤ったと考えられる. ## 5 考察 5.1 節では 3.1 節で設計したアスペクトの妥当性について考察する.続いて,アスペクト「商品」「その他」の分類において, そのバリエーションの多さゆえに現状の学習デー夕量では不十分であることが示唆される結果が評価実験により得られたため, アスペクト分類の性能と学習データの量について調査した. 5.2 節ではこの結果について述べる. 5.3 節では, 前節で行った実験によりアスペクト分類の方が評価極性分類に比べ性能が低いことがわかったため,アスぺクト分類の誤り分析について報告する. ## 5.1 設計したアスペクトの分析 表 3 を見ると, 7,113 件のアノテーションのうち, 6,416 件が「その他」以外の 13 個のアスペ 果から,店舗レビュー中の大多数の文に対して「その他」以外のアスペクトが付与されていることがわかり,これは定義したアスペクトが店舗レビューに記載された内容を代表するものになっていることを示唆していると考えられる. 「決済方法」は,2節の調查では見つからなかったが,決済方法に関する評価観点が店舗レビューのメタデータに含まれているため追加したものである. 1,510 件の店舗レビューを対象にアノテーションを実施したところ,「決済方法」が付与された文数は 9 件であり, 楽天のレビュー においてメタデータとして特別扱いされているものの,それに関する記述はレビュー内にはほとんどないことがわかる。このことから,少なくとも楽天の店舗レビューにおいては,「決済方法」に関しては自由記述部分よりもメタデータを用いて分析する方が良いことがわかる. 類似の既存研究と比較すると, レビューではないが, 大野ら (大野, 楠村, 土方, 西田 2005) が,ネットオークションサイトの出品者に対する評価コメントを調査し 13 種類のアスペクトを定義している。これには「配送」「梱包」「連絡」「商品」「対応」など今回我々が設計したアスペクトとの重なりも見られる一方で,「お礼」「挨拶」「謝罪」「入金」「出品者」など評価コメント特有と考えられるアスペクトも含まれている,反対に,我々が設計した「店舗」「商品の在庫種類」「キャンセル・返品」「情報」「商品価格」「システム」「決済方法」は,大野らのアスペクトの定義に類似したものはなく, 店舗レビューに特有のものであると考えられる。これらのアスペクトが付与された文は全体(5,277 文)の $34.6 \%$ に相当する 1,826 文あり, 店舗レビューのアスペクトとして重要であることがわかる. ## 5.2 アスペクト分類の学習曲線 4.2 節の実験より,アスペクト「商品」「その他」の分類については記述内容のバリエーションが多く, 現状の学習データでは量が不足しているため性能が低い可能性が示唆された. 本節 図 4 アスペクト分類の学習曲線 では,これを確認するため「商品」「その他」について学習データの量を変えながら,性能がどのように変化するのかを確認する。具体的には,1,510 件の評価データセットから無作為に選び出した 510 件を評価用データ, 残りの 1,000 件を学習用データとし, 学習データに用いるレビューの数を 100 件ずつ増やした時の $\mathrm{F}_{1}$ 値を調査した. 調査の結果得られた学習曲線を図 4 に示す。図には「商品」「その他」に加え, これらと事例数が近い「店舗」および「再購入」の結果, さらに参考として全体(マクロ平均)の $\mathrm{F}_{1}$ 値の推移も含めた.図よりアスペクト「商品」「その他」は,「店舗」「再購入」に比べ,事例数が近いにも関わらず性能が低いことがわかる。これは「店舗」「再購入」に比べ「商品」「その他」は事例のバラつきが多く,難しい分類問題になっていることが原因と考えられる。また「商品」「その他」「全体」を見ると,学習に用いる事例数を増やすことで性能の改善が見られる.改善の幅は緩やかであるが,分類に用いる素性の工夫や複雑なモデルを用いるなどすることでその幅を大きくすることが期待できる. ## 5.3 アスペクト分類の誤り分析 無作為に選んだ 1,358 件のレビュー(4,740 文)で学習を行い,残り 152 件(537 文)をアスペクト分類した際の誤りについて分析した。,分析の対象となった事例は 63 件であり,各事例には 1 つ以上のエラータイプを付与した. 分析の結果を表 10 に示す. 最も数が多かったタイプは「分類に必要な素性が得られていない」で 42 件あった。例えば「欲しい色とサイズもあって、良かったです。」は「商品の在庫・ 表 10 エラーのタイプおよびその事例数 種類」に分類されるべきであるが,提案手法は「商品」に分類していた.抽出された素性と各アスペクトの関連を調べたところ,「商品」と関連の強い素性が多く,「商品の在庫・種類」と関連のある素性はなかった。また商品に関する記述を含む文はアスペクト「商品」と関連の強い素性が抽出されていない傾向にあった。これは, 楽天で多様な商品を扱っていること, 店舗レビューの性質上,商品に関する記述はメインでないことから十分な量の訓練事例が得られていないためと考えられる。「商品」以外では「親戚宅への訪問土産に購入しました。」のような購入背景,「重さのあるものも家の玄関に届くのでとっても助かっています。」のような感想を述べた文もこのタイプのエラーに分類された。購入背景や感想はユーザによって様々であるため,これらを正しく分類するためには,学習データを増やすほか,これらを認識するモデルを別途用意するなどの対応が考えられる. 次に多かったタイプは「文単体では分類が難しい」であり, 21 件が該当した。例えば文「あきれます。」は商品にも店舗にも当てはまる表現であり,この文を正しいアスペクトに分類するためには,この文の前後にどのような記述があるのかを捉える必要がある.現状では文単体モデル,文書モデルともに明確な素性として前後の文脈の内容を用いていない。このタイプのエラーを減らすには,何らかの方法で前後の文脈を取り込む素性が必要になる。 また「アノテーションの誤り」も確認された。例えば文「別に目立つほど悪い点は無かったです。」は「その他」が付与されていたが,提案手法は「商品」に分類していた. レビューを確認するとこれは商品についての記述であり「商品」が付与されることが妥当である。このようなエラーを減らすには複数人のアノテータにアノテーションを依頼し多数決をとる,または分類基準を精緻にするなどが考えられる。 ## 6 関連研究 従来より評判分析は多くの研究がなされてきており (乾, 奥村 2006; Pang and Lee 2008), その対象はレビューのみならず,新聞記事,ブログ,Twitter などのマイクロブログと様々である (関 2013).レビューを対象とした評判分析研究では, 映画 (Pang, Lee, and Vaithyanathan 2002), 宿泊施設 (Wang, Lu, and Zhai 2010), 商品 (Ding, Liu, and Yu 2008) に対して書かれたレ ビューに基づくデータセットが利用されている。また, 意味解析に関する国際的評価型プロジェクト SemEvalにおいて 2014 年より毎年実施されている Aspect Based Sentiment Analysis においてもデータセットが提供されており, その内容はノートパソコン, マウス, レストラン, デジタルカメラなど 7 種類の対象について英語, 中国語, ドイツ語など 8 言語で書かれたレビュー である (Pontiki, Galanis, Papageorgiou, Androutsopoulos, Manandhar, AL-Smadi, Al-Ayyoub, Zhao, Bing, Clercq, Hoste, Apidianaki, Tannier, Loukachevitch, Kotelnikov, Bel, Jimenez-Zafra, and Eryigit 2016). オンラインショッピングサイトを利用して商品を購入する際, 商品レビュー に加えて「どの店舗から購入するのか」も重要な指針の 1 つであるが,店舗の評判が記載されたレビューに基づくデータセットはない. 日本語で書かれたレビューを対象にした研究では Ando ら (Ando and Ishizaki 2012), 浅野ら (浅野, 乾, 山本 2014), Tsunoda ら (Tsunoda, Inui, and Sekine 2015) が宿泊施設レビューを対象に,記述されているアスペクトの調査や,特定のタスクを対象とした宿泊施設に関するアスペクトの設計を行っている. 安藤ら (安藤, 関根 2013) は商品レビューを対象に, そこに記述されている内容を調査し, 23 種類のアスペクトが書かれていると報告している。また,レビュー ではないが, Kobayashi ら (Kobayashi, Inui, and Matsumoto 2007) はレストラン, 車, 携帯電話,ゲームについて書かれたブログを対象に,アスペクトを含む 7 種類の情報を付与した意見タグ付きコーパスを構築している。 大野ら (大野他 2005) は, ネットオークションサイトの出品者に対する評価コメントの要約を目的に, コメントの記述内容を調査し 13 種類のアスペクトを定義している.いずれの研究もレビューやブログ,オークション出品者に対する評価コメントに記載されているアスペクトの調查や, その(自動)分類という点で本研究と類似しているが, 対象が宿泊施設, 商品・製品, レストラン, オークション出品者であり本研究で対象とした店舗ではない. 従来よりアスペクト分類に関する研究は数多く行われている。例えば先述した SemEval ではアスペクト分類およびその評価極性の判定というタスクが設定されており,対象は異なるものの解こうとしている問題は同じである。今回の分類手法はごく単純なものであるため, 既存研究の成果 (例えば論文(Wang, Huang, Zhu, and Zhao 2016) 等) を取り入れることで今よりも高い精度で分類を行える可能性がある. 山下ら (山下, 東野 2016) は商品レビューを商品について記述したものと, 店舗について記述したものに分類する手法を提案している。このような分類を行う背景には, 商品レビューにも関わらず店舗について記述したレビューの存在があり,これらは純粋に商品について知りたいユーザや,商品に関する評判を抽出したいサイト運営者にとってノイズとなるため自動検出したいという要望がある. 同様に新里ら (新里, 益子, 関根 2015)の研究においても, 商品の使用感を記述した文を抽出する際に,商品レビュー中に存在する店舗に関しての言及が問題となることが報告されている。 そのため, 商品レビューに対して事前に今回構築したアスペクト分類 モデルを適用することで,商品に関する記述だけを精度良く集めることが可能になり,これらの研究の改善が見达める. 評判分析システムに関する研究として富田らの研究がある (富田, 松尾, 福田, 山本 2012).彼らのシステムはブログを対象に評判分析を行い,任意のキーワードに対する評判を整理してユーザに提示するものである。評判抽出の際は係り受け解析を行い,アスペクトに相当する単語と,その係り先になっている単語の組を評判として抽出する。そのため, 係り受け解析に失敗した場合や,文をまたいで評判が記述されている場合は評判を抽出できない.我々の手法は文を単位にアスペクト分類を行っており,その際は当該文から得られる情報だけでなく,同一レビュー内の他の文から得られるアスペクトの遷移情報も用いている。このため, 当該文内にアスペクトに相当する語が含まれていない場合であっても正しく分類することが可能である。また, 係り受け解析を用いていないため, 係り受け解析に失敗するような長文や構文的に複雑な文であっても正しく分類できる可能性がある。しかしながら,富田らのシステムは 1 文から複数の評判を抽出することができるのに対し, 我々の手法は 1 つの文を複数のアスペクトに分類することができないという久点もある. ## 7 店舗レビュー分析システム これまでに述べた技術を用いて店舗レビュー分析システムを開発した。本節ではシステムの概要, およびその性能について報告する。 ## 7.1 システムの概要 開発した店舗レビュー分析システムの実行例を図 5 に示す。分析を行いたい店舗名およびアスペクトをクエリとしてユーザより受け取ると,システムは条件に一致するレビューをその評価極性分類結果と共に出力する。過去 2 年分の店舗レビューおよびその分類結果を Apache Solr9を用いてインデキシングしており,任意の店舗名およびアスペクト・評価極性(肯定, 否定)の組み合わせに対して分類結果を検索できるようになっている. 画面右側には, 分類結果に基づく肯定的レビュー, 否定的レビューの割合の時系列変化がグラフで表示される.グラフ中の実線は肯定的,破線は否定的なレビューの変化をそれぞれ表しており, 線の太さは細いものが 1 週間分の, 太いものが 3 ヶ月分の変化の単純移動平均を示している。このグラフを確認することで,ユーザの調べたいアスペクトに関する評判の推移が簡単に把握できるようになっている. 例えば図の場合, 一時期配送に関する否定的なレビューが増大したが,現在は収束していることが読み取れる。 ^{9}$ http://lucene.apache.org/solr/ } 図 5 店舗レビュー分析システムの実行例(クエリとして与えた店舗名およびレビューを投稿したユー ザ名は伏せてある). 画面右には, 自動分析結果に基づきグラフ化した肯定的レビュー, 否定的レビューの割合の時系列変化が表示される。画面左にはクエリとして与えられたアスペクトに分類された肯定的,否定的な文を含むレビューの一覧が表示される.画面では「配送」に関する肯定的な文を含むレビューのリストが表示されている. 一方,画面左側にはクエリに一致する店舗レビューのリストが,肯定,否定に分かれて表示される,肯定,否定の切り替えはリスト上部のタブをクリックすることでできる.図では肯定的なレビューが表示されており, クエリとして与えられたアスぺクトかつ肯定的と自動的に分類された文がハイライトされている。これにより,ユーザは任意のアスペクトについて具体的にどう良かったのか(またはどう悪かったのか)を簡単に調べることができる. 別の使い方として,ある店舗からの購入をやめた理由の検索が挙げられる,以下はある店舗に対して書かれたレビューのうち,再購入-否定に分類された文を含むものである. - X月X日に注文しましたが、まだ届きません。/連絡もないし.../こんなに遅い通販て珍しいですね。/どこ頼んでも 2 ~ 3 日で届きます。/2度と注文しません。 ・もう二度と購入しません。/間違えてすぐにショップにメールしたのに、発送してしまったとの事。/私が注文間違えた事に問題はありますが、キャンセル出来ないところでは購入しません。 太字は再購入-否定に分類された文, 下線の引かれた文・表現は購入をやめた理由について記述 しているものである。このような理由について記述した箇所を自動的に特定することは今後の課題であるが,現状のシステムを使って「再購入-否定」を含むレビューを検索することで,再購入しない理由を述べたレビューを効率よく集めることができる。このような再購入をやめた理由は運営サイト側にとって大変貴重なデータであり, 店舗やサービスの改善など,いろいろな場面で役立てることが可能である. 以上,ここで挙げた任意のアスペクト・評価極性について記述された文(を含むレビュー)の検索や,該当する文のハイライト機能,さらには検索結果に基づくレビューの活用は, 図 1 に示したレビューをユーザから得られる 5 段階評価のみで管理していては実現できない. 本稿で述べた手法を用いてレビュー本文を構造化することで初めてこれらが実現可能になる点を強調したい. ## 7.2 性能評価 店舗の良い点,悪い点を調べようとする際,従来はレビュー本文を 1 つずつユーザは読む必要があった. しかしながら, 図 5 に挙げたシステムを用いることで, ユーザは任意のアスペクト・評価極性について記述されたレビューに簡単にアクセスできるようになる。そこで,どのくらいの精度, 再現率で条件に一致するレビューにアクセスできるのかを調査した. 具体的には, 3.1 節で構築した学習データ中のそれぞれのレビューについて, 各文に付与されたアスペクト-評価極性のラベルを集約し,それをレビューに対するラベルと見なした,例えば,図 6 のレビューであれば,「配送-否定」「対応-肯定」をレビューに対するラベルと見なす. 実験結果を表 11 に示す. 表のマイクロ平均を見ると, 否定的なものに比べ, 肯定的なアスペクトを含むレビューをより高い精度で収集できることがわかる。一方で,マクロ平均に関しては,「キャンセル・返品-肯定」に関して性能が出ていないため,否定的なアスペクトを含むレビューの分類の方が $\mathrm{F}_{1}$ 值で高い結果となった. また表 6 の文単位での評価結果と比べると, 精度の改善に比べ,再現率の改善の方が大きい.これはラベルを集約した結果, 同一の評価極性付きアスペクトを複数含むレビューにおいて,そのいずれか 1 つを分類することができれば良くなったためであると考えられる. & & & & \\ 図 6 店舗レビューの例. 各文についたラベルを集約し,「配送-否定」,「対応-肯定」をこのレビューに対するラベルと見なす. 表 11 レビュー単位で評価した場合の評価結果 ## 8 おわりに 本稿では,オンラインショッピングサイト出店者(店舗)に対するレビュー中の各文を, 記述されている内容(アスペクト)およびその評価極性(肯定, 否定)に応じて分類するシステムについて述べた。店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでなかったため,まず無作為に選び出した店舗レビュー 100 件(487文)を対象に,各文がどのようなアスぺクトについて書かれているのか調査した。その結果, 配送や梱包など 14 種類のアスペクトについて書かれていることがわかった。このうち, 店舗とのやり取り, 店舗に対する評価, 再度購入したいと思ったかどうか, キャンセル・返品時の対応などは, 店舗レビューがもともとメタデータとして持っているアスペクトには含まれていないものであり, 自由記述部分には店舗に対するより詳細な評価が含まれていることがわかった. 次いでこの調査結果に基づき,新しく選び出した 1,510 件の店舗レビュー(5,277 文)に対して人手でアスペクトおよびその評価極性のアノテーションを行い, 既存の機械学習ライブラリを用いてレビュー内の文をアスペクトおよびその評価極性に分類する店舗レビュー分析システムを開発した. システムを用いることで肯定的レビュー,否定的レビューの割合の時系列変化を確認できたり,任意のアスペクト,評価極性に分類された文,およびそれらを含むレビュー へ簡単にアクセスすることが可能となる。このような利便性の向上はオンラインショッピングサイトのユーザのみならず,運営側にとっても店舗の対応をモニタリングする上で大変有用であり,社内ツールとしての運用に向けて関係部署と現在調整中である. 以下,今後の課題について述べる。現在の手法では 1 文に対して 1 つのアスペクト, 評価極性しか推定できないが,実際には複数のアスペクトおよび評価極性をもつ文が無視できない数あった,そのため,複数のアスペクト,評価極性を推定できるように分類手法を拡張する必要がある。またエラー分析の結果,アスペクト分類に必要な素性が抽出できていない場合が多いこともわかった。そのため,素性に関して再検討することも今後の課題である. さらに分析システムという観点から考えると, 分類結果の効果的な表示方法についても検討する必要がある.分類結果をどのように表示すればより良いのかはその利用方法と関連が深いため,今後システムの利用を想定している関係部署のメンバーと表示方法について検討していく必要があるであろう。 ## 参考文献 Ando, M. and Ishizaki, S. (2012). "Analysis of Travel Review Data from Reader's Point of View." In Proceedings of the 3rd Workshop on Computational Approaches to Subjectivity and Sentiment Analysis, pp. 47-51. 安藤まや, 関根聡 (2013). レビューには何が書かれているのか? ALAGIN \& NLP 若手の会合同シンポジウム. 浅野翔太, 乾孝司, 山本幹雄 (2014). 談話役割に基づくクラス制約規則を利用したレビュー文 の意見分類. 言語処理学会第 20 回年次大会発表論文集, pp. 880-883. Ding, X., Liu, B., and Yu, P. S. (2008). "A Holistic Lexicon-based Approach to Opinion Min- ing." In Proceedings of the 2008 International Conference on Web Search and Data Mining, pp. 231-240. 乾孝司, 奥村学 (2006). テキストを対象とした評価情報の分析に関する研究動向. 自然言語処 理, 13 (3), pp. 201-241. 乾孝司, 梅澤佑介,山本幹雄 (2013). 評価表現と文脈一貫性を利用した教師デー夕自動生成によるクレーム検出. 自然言語処理, 20 (5), pp. 683-706. Kanayama, H. and Nasukawa, T. (2006). "Fully Automatic Lexicon Expansion for Domainoriented Sentiment Analysis." In Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing, pp. 355-363. Kobayashi, N., Inui, K., and Matsumoto, Y. (2007). "Extracting Aspect-Evaluation and AspectOf Relations in Opinion Mining." In Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 1065-1074. Landis, R. and Koch, G. (1977). "The Measurement of Observer Agreement for Categorical Data." Biometrics, 33 (1), pp. 159-174. 那須川哲哉, 金山博 (2004). 文脈一貫性を利用した極性付評価表現の語彙獲得. 情報処理学会研究報告, pp. 109-116. 大野華子, 楠村幸貴, 土方嘉徳, 西田正吾 (2005). 社会的関係を用いたネットオークションの評 価コメントの自動要約. 電子情報通信学会論文誌. D, 情報・システム, $88(3), p p .668-683$. Pang, B. and Lee, L. (2008). Opinion Mining and Sentiment Analysis. Foundations and Trends in Information Retrieval. Pang, B., Lee, L., and Vaithyanathan, S. (2002). "Thumbs Up? Sentiment Classification using Machine Learning Techniques." In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 76-86. Pontiki, M., Galanis, D., Papageorgiou, H., Androutsopoulos, I., Manandhar, S., AL-Smadi, M., Al-Ayyoub, M., Zhao, Y., Bing, Q., Clercq, O. D., Hoste, V., Apidianaki, M., Tannier, X., Loukachevitch, N., Kotelnikov, E., Bel, N., Jimenez-Zafra, S. M., and Eryigit, G. (2016). "SemEval-2014 Task 5: Aspect based Sentiment Analysis." In Proceedings of the 10th International Workshop on Semantic Evaluation, pp. 19-30. 関洋平 (2013). 意見分析コーパスの現状と課題. 情報処理学会論文誌データベース, 6 (4), pp. 85-103. 新里圭司, 益子宗, 関根聡 (2015). オノマトぺを利用した商品の使用感の自動抽出. 情報処理学 会論文誌, 56 (4), pp. 1305-1316. 富田準二, 松尾義博, 福田浩章, 山本喜一 (2012). 大規模デー夕を対象とした文書情報集約デー タベースと評判分析サービスにおける検証. 電子情報通信学会論文誌. D, 情報・システム, 95 (2), pp. 250-263. Tsunoda, T., Inui, T., and Sekine, S. (2015). "Utilizing Review Analysis to Suggest Product Advertisement Improvements." In Proceedings of the 6th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis, pp. 41-50. Wang, H., Lu, Y., and Zhai, C. (2010). "Latent Aspect Rating Analysis on Review Text Data: A Rating Regression Approach." In Proceedings of the 16th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 783-792. Wang, Y., Huang, M., Zhu, Z., and Zhao, L. (2016). "Attention-based LSTM for Aspect-level Sentiment Classification." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 606-615. 山下達雄, 東野進一 (2016). 商品レビューに含まれるストア言及の抽出. 情報処理学会第 78 回全国大会講演論文集. ## 略歴 新里圭司:2006 年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士 (情報科学). 京都大学大学院情報学研究科特任助教, 特定研究員を経て,2011 年から楽天技術研究所. 自然言語処理, 特に, 知識獲得, 情報抽出, 評判分析の研究に従事. 小山田由紀 : 2017 年東京女子大学人間科学研究科人間文化科学専攻現代日本語.日本語教育分野博士前期課程修了. 修士 (人間文化科学). 楽天技術研究所で自然言語処理のためのアノテーション業務に従事. (2017 年 5 月 22 日受付) (2017 年 8 月 8 日再受付) (2017年 9 月 20 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# やさしい日本語ニュースの制作支援システム 田中 英輝 $\dagger \cdot$ 熊野 正 $^{\dagger} \cdot$ 後藤 功雄 $\dagger \cdot$ 美野 秀弥 $^{\dagger}$ NHK はインターネットサイト NEWS WEB EASY で外国人を対象としたやさしい 日本語のニュースを提供している。やさしい日本語のニュースは日本語教師と記者 の 2 名が通常のニュースを共同でやさしく書き換えて制作し,本文にはふりがな,難しい語への辞書といった読解補助情報が付与されている。本稿では NEWS WEB EASY のやさしい日本語の書き換え原則, および制作の体制とプロセスの概要と課題を説明した後, 課題に対処するために開発した 2 つのエディタを説明する. 1 つ は書き換えを支援する「書き換えエデイ夕」である。書き換えエデイ夕は先行のシ ステムと同様に難しい語を指摘し,書き換え候補を提示する機能を持つが, 2 名以上の共同作業を支援する点, 難しい語の指摘機能に学習機能を持つ点, また, 候補 の提示に書き換え事例を蓄積して利用する点に特徴がある。他の 1 つは「読解補助情報エデイ夕」である。読解補助情報エデイ夕は, ふりがなや辞書情報を自動推定 する機能, さらに推定誤りの修正結果を学習する機能を持つ. 以上のように 2 つの エディ夕は, 自動学習と用例の利用により, 読解補助情報の推定の誤り, やさしい 日本語の書き方の方針変更などに日々の運用の中で自律的に対応できるようになっ ている. 本稿では 2 つのエディタの詳細説明の後, 日本語教師および記者を対象に 実施したアンケート調査,およびログ解析によりエディタの有効性を示す. キーワード: やさしい日本語, NEWS WEB EASY, 書き換え支援システム, 機械学習 ## Rewrite Support System for Simplifying Japanese News Scripts \author{ Hideki Tanaka ${ }^{\dagger}$, Tadashi $\mathrm{Kumano}^{\dagger}$, Isao Goto ${ }^{\dagger}$ and Hideya Mino ${ }^{\dagger}$ } NHK launched a simplified Japanese news service on the Internet (NEWS WEB EASY) in April 2012 to improve news accessibility for foreign residents in Japan. Simplified news scripts are compiled daily by a Japanese language instructor and a news reporter working together using a custom news rewrite support system comprising a rewrite support editor and a reading support information editor. The rewrite support editor identifies difficult expressions and proposes simpler alternatives with similar expression search function, and the reading support information editor helps the Japanese language instructor add auxiliary information such as furigana and glossary information to the simplified news scripts. Both functions feature learning mechanisms that improve the precision of news simplification. This news rewrite support  system has been in daily use since 2012. A questionnaire evaluation administered to the Japanese instructors and reporters who produce NEWS WEB EASY showed that they highly evaluated both editors. Analysis of the rewrite support editor's $\log$ revealed that the difficult word rate and sentence length in the rewritten news were less than in the original and were similar across rewriters. Key Words: Simplified Japanese, NEWS WEB EASY, Japanese Text Simplification Support System, Machine Learning ## 1 はじめに 法務省の統計によれば日本の在留外国人数は第 2 次世界大戦以後,基本的に増加傾向にあり 2016 年 12 月には 238 万人,総人口の約 $1.9 \%$ 占めるに至っている.外国人の比率は欧米諸国と比較して必ずしも高いとは言えないが,東京都新宿区では外国人の比率が $10 \% を$ 超えるなど,日本でも大都市部などで欧米諸国並みの集中が発生している。日本人 ${ }^{1}$ と同等に日本語が使える国内在住の外国人は少数であり,彼らへの適切な情報提供は大きな課題となっている. 外国人へはそれぞれの母語で情報を提供するのが理想である.実際,母語を使ったサービスはすでに多言語サービスの中で一部実現されており,例えばNHK は現在国内向けに 5 言語でニュースを放送している ${ }^{2}$. しかし母語での情報提供は 10 言語程度にとどまることが多く, 国内の外国人の出身国数が 190 に達する状況に対応するには十分とは言えない。とはいえ外国人の全員をカバーするには膨大な数の翻訳が必要となり,コストや労力の大きさから実現は難しい (河原, 野山 2007). そこで母語ではなく,外国人に分かりやすい「やさしい日本語」で情報を伝えようという考え方が提唱されている (佐藤 2004; 庵, 岩田, 森 2009). その背景には, やさしい日本語を理解できる外国人が多いこと (岩田 2010), 外国人の中からも母語の他にやさしい日本語による情報提供を望む声が上がっていることなどがある (米倉, 谷 2012). 以上の背景の中,NHKは一般のニュースをやさしい日本語で提供できれば,外国人への有用な情報提供になると考えて研究を進め, 2012 年 4 月から Webでのサービス「NEWS WEB EASY」3を開始した,外国人に日本語でニュースを提供しようとする NEWS WEB EASYと同様のサービスは当時例がなく,著者らはまずやさしい日本語の作り方の原則を決め, Webで提供する内容を決めた。また書き換え作業にはやさしい日本語とニュース編集の知識が必要なことから日本語教師と記者の共同で進めることにした. ^{3}$ http://www3.nhk.or.jp/news/easy/index.html } 方針の決定と並行して,日々の作業を円滑に進めるための支援システムを開発することにしたが,先行事例がそしく明確にその仕様を決めることはできなかった。そこでプロトタイピングの手法 (Pressman 2005) を採用し,とりあえず有効と思われる機能をできるだけ早く実装し,作業者の要望に応じて改善を加えることにした,以上の過程で作成したのが,日本語教師と記者の共同のニュースの書き換えを支援する「書き換えエデイタ」と,ふりがな,辞書情報などを付与するための「読解補助情報エディ夕」である.本稿では 2 つのエディ夕を総称してやさしい日本語のニュースの「制作支援システム」と呼ぶ. NHK では制作支援システムのプロトタイプを 2012 年 4 月からの 1 年の公開実験期間中に利用し,不具合の修正,改良を加えた。そして書き換え作業が安定し,改修すべき項目が明らかになった 2013 年 9 月に本運用システムの開発を始め, 2014 年 6 月に新システムに移行した。このとき読解補助情報エディ夕に自動学習機能を加えたことにより, 6.3 節で詳述するように, 制作支援システム全体は日々のやさしい日本語のニュースの制作の中で自然と利便性が増すようになった。 やさしい日本語を使った情報提供は急速な広がりを見せている 4 。ほとんどの事例は佐藤らが公表している書き換え案文 5 や庵らの文法 (庵 2010,2011 ) など,いわゆる書物の知見を使ってほぼ人手で行われている。しかし今後やさしい日本語での情報提供を多様な人で効率的に進めるには,技術的な支援が必須になっていくと考えられる.実際,NEWS WEB EASY の制作フローを参考にしたやさしい日本語による自治体の情報提供のためのシステム開発が始まっている (庵 2016). 本稿は類似した開発の参考になると考えている. 以下,2 章ではやさしい日本語の書き換えの関連研究を概観し, 本研究の位置付けを示す. 3 章では NEWS WEB EASY のサービス画面には, やさしい日本語のニュースのテキストとふりがななどの読解補助情報の 2 つの構成要素があることを述べる.4章ではやさしい日本語の書き換え原則を概説し,当初の原則には網羅性の低さの問題があったことを指摘する.続く 5 章では制作の体制およびプロセスを報告し,特に,やさしい日本語の書き換え原則の網羅性の低さをカバーするため, NEWS WEB EASY の制作を記者と日本語教師の共同作業で実施する体制を採ったことを述べる。さらに 6 章では開発した「書き換えエディ夕」と「読解補助情報エディタ」を説明する,書き換えエディタは,記者と日本語教師の共同作業特有の問題,書き換え原則の不十分さに対処していることを述べる。また読解補助情報エディタは,ふりがななどの読解補助情報を自動で推定し,これを修正した結果を自動学習する機能を持つことを説明する. 続く 7 章では,制作に関わる記者および日本語教師全員に対して実施したアンケートと書き換えエディタのログの分析を通じて 2 つのエディタの効果を示す.  ## 2 関連研究 やさしい日本語での情報提供にはさまざまなプロセスが必要だが, 本章ではその中心となるやさしい日本語への書き換えの関連研究, 特に最も関連が深い文書の平易化 (text simplification) の研究を概観する. 文書の平易化とは与えられた文書の基本的な意味は変えずに, 文法的, 語彙的な複雑さを減らす操作であり (Siddharthan 2003) これまで英語を主な対象としてさまざまな研究が展開されている (Shardlow 2014; Siddharthan 2014). 平易化の目的は大きく 2 つに分類できる.1つは自然言語処理システムの前処理に平易化を入れることで全体の性能を向上させる研究である. 平易化はさまざまな処理に応用されており,構文解析 (Jonnalagadda, Tari, Hakenberg, Baral, and Gonzalez 2009; Chandrasekar, Doran, and Srinivas 1996), 関係抽出 (Miwa, Sætre, Miyao, and Tsujii 2010),意味役割付与 (Vickrey and Koller 2008) などの例を挙げることができる. 他の 1 つは言語の理解力が十分でない人の情報アクセシビリティの改善を目的とした研究である。失語症の人(英語) (Carroll, Minnen, Pearce, Canning, Devlin, and Tait 2009), 読み書き能力が不十分な人 (ブラジルポルトガル語) (Watanabe, Candido Jr., Uzêda, Fortes, Pardo, and Aluísio 2009), 知的障害のある人 (スペイン語) (Bott and Saggion 2012), 非母語話者(英語) (Siddharthan 2002)などを対象とした研究が行われている. 平易化の手段に目を向けてみると,研究の初期は使える言語資源や技術が限られていたことから, 経験則に基づいたルールで文書を変換する手法が主流であったが (Chandrasekar et al. 1996; Carroll et al. 2009; Siddharthan 2002), 近年 Simple English Wikipedia に代表されるやさしい言語で書かれた大きな言語資源が使えるようになってきたこと,単言語パラレルコーパスのアラインメント技術が進んできたこと (Barzilay and Elhadad 2003; Nelken and Shieber 2006) から, パラレルコーパスからデータ主導で自動書き換えシステムを構築する研究が進展している. 例えば, Coster and Kauchak (2011)は Wikipedia と Simple English Wikipedia を使ったパラレルコーパスを作成し, 統計翻訳ツールキット, Moses を使った統計的平易化システムを作成している. 次に,本稿と同じく日本語能力が十分でない人の情報アクセシビリティの改善を目的とした平易化の研究に目を転ずると 6 , 万う者を対象とした語彙・構文書き換えシステム (Inui, Fujita, Takahashi, and Iida 2003), 子供や日本語学習者への利用を目指した語彙変換システム (梶原,山本 2015) などがある。また英語ほどではないが, 近年パラレルコーパスが利用可能となったことから統計機械翻訳技術を使ったやさしい日本語自動変換システムも報告されている (松田  2010; Goto, Tanaka, and Kumano 2015; 熊野, 田中 2016). 以上で概観してきた研究は文書を自動的に平易化しようとするものであるが,人手による平易化作業を支援する研究もある。平易化の支援にも,自動平易化と同様に機械翻訳などの自然言語処理の前処理による性能向上 (Mitamura and Nyberg 2001) と人の情報アクセシビリティの改善を目的とした研究がある.以下では著者らと同じアクセシビリティの改善を目的としたシステムを概観したい。これまで提案されているシステムは 2 つ基本機能を持つ. (1) 文書中の難しい部分を指摘する機能 (2) その書き換え候補を提示する機能 例えば伊藤, 鹿嶋, 前田, 水野, 御園生, 米田, 佐藤 (2008) は外国人のためのやさしい日本語文書の作成支援を目的とした書き換え支援システムを提案している.同システムには入力された文書中の難しい語を指摘し,代わりに使える語を提案する機能が実装されている.難しい語は形態素解析システムに事前に登録された難しい語彙を使って指摘し,やさしい語は, 別途収集したやさしい語彙と難しい語の類似度を使って提示する。 さらに長文,および使うべきでない文法的表現を指摘する機能を持っている. ボーイング社は, 航空機の整備マニュアル用の Simplified English の基準に従った文書作成を支援する語彙と文法のチェッカーを開発している (Hoard, Wojcik, and Holzhauser 1992). Simplified Englishの読者には英語非母語話者が想定されている。また,語彙には強い制限があり,同じ概念に属する使える語と使えない語が辞書にまとめられている。チェッカーは辞書を使って,難しい語を指摘して代替候補を提示する. 以上, 自動平易化, 平易化支援についての研究を外観してきたが,ここで本稿の特徴をまとめたい。まず,本稿は NEWS WEB EASY というやさしい日本語のサービスを実現するためのより具体的,包括的な報告となっている点に特徴がある。実際本稿では,技術的な内容に先立ち, NEWS WEB EASY のためのやさしい日本語の特徵, Web で提供する全情報,および,NEWS WEB EASY の制作のために採用した体制と制作プロセスを説明し,制作支援システム構築の課題を明らかにする。そして,課題を反映して開発した「書き換えエディ夕」および「読解補助情報エディ夕」を報告する。一方, 上記一連の関連研究は, 自動平易化, あるいは平易化支援に関する個別の技術報告となっている。本稿のように具体的なサービスに関わった日本語の平易化の支援技術の報告は著者らの知る限り初めてである. 次に本稿の 2 つのエディタのうち書き換えエディタに着目する。書き換えエディ夕は平易化作業の支援という点で伊藤他 (2008), Hoard et al. (1992) と目的が同一であり, かつ前述の基本機能 (1) および (2) に基づく点が共通している. しかし以下の 3 点に違いがある. 1 点目は書き換えエディタの難しい語を指摘する機能に学習機能が備わっている点である.難しい語の指摘には語の難易度を使っており,難易度推定機能で語の難易度を自動認定する.難易度推定機能には学習機能があり,推定誤りを日々修正することで性能が自然に向上するよう になっている7. 2 点目は書き換え候補を直接提示しない代わりに, 用例検索機能を持っている点である。すなわち書き換え候補は作業者が自動蓄積された書き換え元の記事とやさしい日本語の書き換えの用例を検索して自ら見い出すようになっている。用例検索を利用したのは著者らのやさしい日本語の書き換え原則が当初不十分で,ニュースの難しい表現とやさしい代替表現を事前に準備できなかったために採用した措置であるが,あらかじめ候補を用意する手法に比べると,運用により自然に用例の蓄積が進み, さまざまな表現が検索可能になる特徴がある. 3 点目は複数作業者の書き換えを支援する共同作業支援システムになっている点である. ニュー スの書き換えにはニュース原稿の編集の知識, および外国人の日本語能力の知識が必須なため,書き換え作業を日本語教師と,経験豊かな記者が共同で担当するようにした.そして 2 名の作業を支援するため,書き換えエディ夕は複数作業者の共同作業ができるようにした. さらに日本語教師と記者の専門性が異なる点に配慮して, 共同作業が円滑に行える仕組みを提供した. なお上述の 3 点の特徴は NEWS WEB EASY の固有の状況を反映させたために生じている点を指摘しておく,詳細は次章以降に譲るが,固有の状況とは,当初の著者らの書き換え原則は先行事例に比べて不十分であったこと, 不十分さを補うため複数の専門家が共同作業する必要があったこと,網羅的な書き換え原則をあらかじめ用意することができず専門家が書き換えを通じて発展させていく方針を採用したことである。本稿の書き換えエディ夕は,先行研究が準拠する上述の 2 つの基本機能に NEWS WEB EASY の固有の状況を満足するため, 学習, 類似用例検索, 複数人での書き換え機能を組み合わせて統合したものと見ることができる. ## 3 NEWS WEB EASY の概要 本稿の制作支援システムで最終的に作成する NEWS WEB EASY のスクリーンショットを図 1 に示す8. NEWS WEB EASY は, NHK の通常のニュースページである NEWS WEB に揭載されたニュースをやさしい日本語に書き換えて作成する。画面の下部には情報の中心であるやさしい日本語に書き換えたニュースが揭載されている。やさしい日本語のニュースは次章で述べる書き換え原則に沿って作成するが,やさしく書き換えられず難しい表現が残ることがある. そこで難しい表現に対しては Webの機能を利用して読解を補助する情報を提供している. NEWS WEB EASYを Web で提供しているのは読解補助情報を提供しやすいという利点があるためであり (田中, 美野 2010), 具体的には以下を提供している. $\cdot$ふりがな  図 1 NEWS WEB EASY の画面 漢字を読むことは外国人にとって特に難しい。そこで,すべての漢字にはふりがなを付けている. - 辞書 すべての語をやさしくできるとは限らないため,難しい語に辞書の説明を表示するようにした. 原則として 2 級以上の難しい語にカーソルを合わせると小学生用の辞書 (田近 2011)の説明が現れる. - 語の色分け ニュースには地名, 人名, 組織名などの固有名詞が頻繁に現れる。固有名詞は辞書にほとんど収録されておらず,数が多いので説明を付ける労力は大きい.そこで,固有名詞をあらかじめ決めた色, 地名を紫, 人名をピンク, 組織名を空色で表示し, 意味が具体的に分からなくても,色によって地名,人名,組織名の判別ができるようにした.以上の読解補助情報に加えて,下記の追加情報も提供している. - 合成音声 読むのが苦手でも聞くのは得意な外国人のため,合成音声による原稿読み上げ機能を付加している. $\cdot$ 元のニュースへのリンク やさしい日本語のニュースには, 元のニュースへのリンクを付与しており, リンクを通じ てやさしい日本語を読解補助として, 元のニュースを読むことが可能である。また, やさしい日本語で削除された情報を元ニュースで確認することも可能である. 著者らの目的は以上で説明した NEWS WEB EASY の画面の制作であり,実施には,やさしい日本語への書き換え原則,書き換え作業の体制とプロセス,制作作業の支援の 3 項目の検討が必要となった.以下, 3 項目の内容を報告する。 ## 4 ニュースのためのやさしい日本語 本章では NEWS WEB EASY で利用しているニュースの書き換え原則の概要を説明する。どのような言語にも汎用的な制限言語は存在しないと言われているように (Mitamura and Nyberg 2001), すべての分野に共通するやさしい日本語の書き換え原則というのは存在しない. ニュー スのための書き換え原則は自ら作成する必要があった。しかし書き換え原則をゼロから作るのは膨大な作業となるため, 先行研究である「減災のためのやさしい日本語」(佐藤 2004)の原則を修正, 拡張するという手順に従った. 減災のためのやさしい日本語は, 災害発生から 72 時間以内に自治体, 公共機関などから発信される情報が主な対象であり, 日本語能力試験の 3 級と 4 級の語彙と文法の範囲で書くことを原則としている. 日本語能力試験は学習者が受験する試験であり,日本語能力を入門レベルの 4 級から最上級の 1 級までの 4 段階で認定する ${ }^{9}$ 。また試験の出題基準 (国際交流基金,日本国際教育協会 2007) には各級の出題の目安となる語彙や文法事項のリストが公開されている. 減災のためのやさしい日本語の対象とする災害情報は, 著者らの対象の一般のニュースと,話題, 文体, 文書の長さなどさまざまな要素が異なるため書き換え原則を修正する必要がある. そこで減災のためのやさしい日本語の原則に従ってニュースを実験的に書き換え,原則の不足やニュースとの不整合を拡張,修正することにした,書き換え作業は出題基準に精通している日本語教師 2 名が担当し, 検討は書き換えを担当した日本語教師, 記者 $\mathrm{OB}$, 記者, 著者らで実施した (田中, 美野 2010). 以下では, 本稿に直接関わる語彙, 文法, 内容の削除と追加に関わる書き換え原則の基本部分を説明する。詳細は (田中, 美野 2016)を参照されたい. ## 4.1 語彙 日本語能力試験の出題基準の 3 級と 4 級には合わせて約 1,600 語が記載されており, 基本的にはこの 1,600 語の範囲でニュースを書き換えるようにした. しかし 1,600 語の多くは日常生活で使われる語であり, 事件, 事故, 政治, 経済, 科学, スポーツ, 気象などの分野が中心と  なるニュースの語はかなり不足している。例えば, 「接待, 公共事業, 補正予算案, お内裏様」 などの語は書き換え実験で出てきたが 1,600 語には入っていない,1,600 語に入らない難しい語に対応するやさしい語があれば置き換えられるが,必ずしもあるとは限らない。また対応するやさしい語のない難しい語を無理にやさしく書き換えると不自然な日本語になるため,書き換えずに辞書などの読解補助機能を使うことにした。 ## 4.2 文法 - 文の長さ 文が長くなると文意が分かりにくくなりやすいため,文書作成の参考書では短文を勧めている。ニュースのやさしい日本語でもこの原則に従い,1文をできるだけ 50 文字以下に書き換えるようにした。ニュースは 1 文が長くなる傾向があり,短文化の作業は多く発生する。 - 受動態 受動態は日本語能力試験の 3 級に分類される文法であり学習の時期は早い. 一方, 意味が間接的になるので,多くの文章作成の参考書では能動態を使って直接的に書くことを勧めている,特に,日本語の場合には受動態の「れる・られる」が可能, 自発, 尊敬の意味でも使われるので,外国人が混乱する恐れがある,以上の要因を考慮して,ニュー スのやさしい日本語では受動態をできるだけ能動態に書き換えることにした. - 慣用表現 ニュースには「〜としています,~と見られています」や「この事件は〜したものです」 (田中 2012) などの独特の慣用表現が多く出てくるが, 日常会話にはほとんど出てこない.外国人にとっての慣用表現の難易度は高いと考え,普通の表現に書き換えることを原則とした. ## 4.3 内容の削除と追加 長いニュースは読者の負担になるため,次のような内容を削除して整理する。 - 重複の削除 ニュースには通常,冒頭のリードと本文がある。リードはニュースの要約であり,本文の一部を抜粋して作るため本文と重複する。重複はリードから,もしくは本文から削除することを原則とした。 - 周辺的な情報の削除 内容理解に必須でない背景,関連情報の文や段落を削除する. 一方,情報を追加する場合もある.特に専門用語などで対応するやさしい日本語がない場合説明を追加する。例えば実際のニュースでは「タブレット端末」に対して「(=薄い板のようなコ ンピューター)」という説明を直後に追加している. ## 4.4 ニュースの書き換え原則の課題 初期のニュースの書き換え原則には「不十分さ」の問題があったことを注意をしておきたい.制限言語の研究分野では言語の制限の仕方を 2 つに分類することがある (Mitamura and Nyberg 2001; Kuhn 2014). 1つは使うべき語彙と文法を規定する規範的なアプローチ (prescriptive approach) で, 他の1つは使ってはいけない語彙と文法を規定する禁止的なアプローチ (proscriptive approach) である。この分類で上述の原則を見ると, 当初は日本語能力試験の 3 級と 4 級の語彙と文法を使うという規範的な原則が支配的で,受動態を使わないという禁止的な原則が多少入っている状態であった. 日本語能力試験の 3,4 級レベルは日常会話が対象であるため, 規範的,禁止的原則のいずれもニュースを記述するには「不十分」であった. 実際,NHKのニュースには明文化されていない規範的原則と禁止的原則がある.例えば,人が亡くなっているように見えても脳死が判定される前は「心肺停止の状態」という表現を使わなければならないという規範的原則, 推量を表す「らしい」は主観が強く反映されるので使わないという禁止的原則などである。ニュースをやさしく書き換えるには,日本語教育とニュースの規範的,禁止的原則を整合させた原則が必要だが 10 , サービスの開始時までにニュースの表現を網羅的に検討することはできず,当初の書き換え原則にはニュースの観点が不足していた。 著者らのニュースの書き換えに対して, Hoard et al. (1992)の航空機マニュアルの書き換えは相当に「十分」な原則の元で行われる。また Mitamura and Nyberg (2001)の機械翻訳用の書き換えも著者らより多くの原則を設定していると思われる。書き換え原則の不十分さは著者らの問題の特徴と考える。なお,以後本稿では特に断らない場合,禁止的原則と規範的原則の両方を合わせて原則と呼ぶ. ## 5 体制と制作プロセス やさしい日本語のニュースの公開を 2012 年 4 月に開始した。土・日と祝日を除いて月曜から金曜まで毎日,一般向けのニュースをやさしい日本語に書き換えて提供している.最初は平日 1 日 1 記事から 2 記事を公開していたが, 作業手順の見直しなどを経て, 2013 年 6 月からは 1 日 5 記事を公開するようになっている。以下現状の制作の体制とプロセスを説明する。 ## 5.1 体制 書き換え原則に沿ってニュースをやさしい日本語の書き換える場合,4.4節で述べたように,当初は書き換え原則が不十分だったため, 日本語教育とニュースの両方の知識を持つ人が必要  となった. しかし, 両方の知識を持つ人はいなかったため, 日本語教師と記者の両者が相談しながら書き換えを進める体制を採用し,現在に至っている,日本語教師と記者のほか,書き換え内容を最終的に確認する編集責任者 ${ }^{11}$ よび,合成音声の付与作業を行う技術スタッフも参加する。なお特にサービス開始からしばらくは,すべての書き換えを元記事を書いた部局に確認してもらっていたが,現在は編集責任者の判断で必要に応じて確認を依頼するようになっている. ## 5.2 制作プロセス 現在 NEWS WEB EASY では原則,午前中に 2 記事,午後に 3 記事の 1 日 5 記事を公開している。午前中公開の 2 記事は前日に作成し,午後公開の 3 記事は当日作成する。日々の書き換えは日本語教師 2 名, 記者 1 名,および編集責任者 1 名が担当する,最終的な 5 記事の確認は編集責任者が担当する,編集責任者は内容の確認だけでなく,日本語教師との書き換え作業も一部担当している。以下,制作の流れを記す。 (1) 記事選択 一般向けのニュースサイト NHK NEWS WEB に当日までに揭載されたニュースから,大きな話題,外国人や子供 ${ }^{12}$ に適すると思われる話題を持つものが選ばれる。同一話題のニュースを継続して提供できるとは限らないため, 節目や一話で完結している記事が選ばれる。選ばれた記事を元記事と呼ぶ。記事の選択は編集責任者が行う。 (2) 引き継ぎ事項の確認 日本語教師は日々の書き換えで難しかった点などを日誌,メールで情報共有しており前日の内容を確認する。 (3) 背景情報のリサーチ 日本語教師を中心に,関連ニュース,関連サイト,報道発表などの関連情報をリサーチする。用例検索機能で過去の類似記事も検索し検討する. (4) やさしい日本語への書き換え 主に日本語教師が表現をやさしくし, 記者が元記事の再構成, 要約, 内容の確認を行う.書き換えが終わると編集責任者の確認を受ける。さらに元記事を書いた出稿部に確認を依頼することもあり, 出稿部から質問や修正の依頼があれば検討し, 必要に応じて修正する.このプロセス全体で 1 記事およそ 2 時間の作業である. (5)読解補助情報の付与 やさしい日本語のテキストが完成した後, 漢字のふりがな, 難語への辞書の説明, 固有名詞のカラー表示といった読解補助情報を付与する. 付与作業は日本語教師が担当する.  現在は 1 記事およそ 10 分の作業である. (6) 合成音付与と試写 やさしい日本語のテキストの合成音を付加して必要に応じてイントネーションの調整を 行う。最終的な画面が完成すれば試写を行い問題なければ公開する. (7) 日誌, メールの作成 日本語教師は書き換えの問題点, 気づいた点などを業務日誌に記載し, メールでも情報を共有する。 上記の仕事のうち,(4) やさしい日本語への書き換え,および (5) 読解補助情報の付与には手間と時間を要するため,それぞれを支援する「書き換えエディタ」と「読解補助情報エディ夕」 の開発を進めた。 ## 6 制作支援システム 本章では専門性の異なる日本語教師と記者の共同書き換えを支援するために開発した「書き換えエディ夕」と日本語教師の読解補助情報付与作業を支援するために開発した「読解補助情報エディ夕」について説明する。 ## 6.1 書き換えエディタ ## 6.1.1 日本語教師と記者の書き換えの課題 サービス開始前に日本語教師と記者でニュースを実験的に書き換えたところ 2 つ課題があることが分かった.1つは表現が迷走したり,極端な場合には書き換えが中座したりする「書き換えの停滞」の問題である. ニュースをやさしい日本語に書き換えるには 4.4 節で述べた記者の専門であるニュースと,日本語教師の専門である日本語教育に由来する 2 つの書き換え原則に熟知している必要がある.一方, 初期の日本語教師と記者は互いに相手の知識が不足していたため, 記者の表現の書き換えが外国人にとっては難しかったり,日本語教師が行った省略がニュースの重要箇所であったりという問題が何度も発生し,書き換えの停滞が発生していた。なお停滞は,実験時には書き換えに非常に長い時間がかかる結果となるが,サービス時には時間が限られているため,満足できない書き換えで我慢する結果となる。 他の 1 つは元記事が十分平易化されない問題である。大きな要因に書き換えの着目点の見過ごし, すなわち難しい語や長文の見過ごしがあった.書き換えの着目点が日本語教師と記者の組み合わせによらず,また日々一定していれば,原則に従った平易化レベルの安定した実現につながる。本稿では人によらず一定レベル以上の平易化を達成することを「平易化レべルの保証」と呼ぶ. 特に初期には書き換え原則を記憶しておくことが難しいため平易化レべルの保証が難しかった。 ## 6.1.2 解決方針と実装した機能 書き換えの停滞を軽減し平易化レベルを保証するため次の方針を立てた. - 方針 - 書き換えの役割分担による運用記者と日本語教師のそれぞれの専門知識に応じた平易化を担当するよう以下のように役割を分担した。 * 記者文の順番の入れ替えなどによる記事の再構成で平易化する.不要な部分を要約する.文を分割して不要な成分を省略する,日本語教師の書き換え結果を承認する。ただし表現の平易化は行わない. * 日本語教師 難しい語や表現を平易化する。文の分割は行うが省略は行わない. -書き換えエディ夕による難しい語と長文の指摘ニュースのやさしい日本語の書き換え原則に従って難しい語と長文を指摘する。難しい語や長文の見落としが減り, 作業者によらず平易化レベルを一定以上に保つ効果が期待できる.また,日本語教師と記者で書き換えを相談するときに指針として利用できる. -書き換えエディ夕による書き換え候補の提示 多様な書き換え候補の提示で停滞の軽減が期待できる。またニュースに必要な表現の統一にもつながる. 以上の方針を実現するよう書き換えエディタに下記の基本機能を実装した. ・書き換えエディ夕の基本機能 - 難しい語と長文の指摘 日本語能力試験に登録されて入る 1 級から 4 級までの語彙を形態素解析システム13のシステム辞書に登録し, それぞれ色分けして表示するようにした. 4.1 節で述べたように, 日本語能力試験出題基準の 3 級と 4 級の語彙を基本的に使うため,日本出題基準に登録されていない語 (未知語), 1 級および 2 級の語が書き換え候補となる。また,長文への注意を喚起するため 1 文の文字数を表示するようにした. - 書き換え候補の提示 難しい語は日本語能力試験の出題基準のリストで決定できるが,難しい語の書き換え候補をすべて事前に準備することは容易ではない。また,出題基準のリストがすべての語彙をカバーしているとは限らないという書き換え原則の不十分さへ $, IPA 辞書使用. } の対応が必要である。以上に対処するには,日々の元記事と書き換え後の記事をデータベースに自動的に登録し,表現を検索する手法が有効と考え「用例検索機能」を提供することにした.元記事の難しい表現の書き換え例を知りたい場合,用例検索機能に難しい表現を入力し,記事,もしくは文と共に提示されたやさしい書き換え例を参照する。用例検索機能には語,フレーズ,文など任意の長さの表現を入力することができる。 そして入力表現中の内容語の数,および内容語間の間隔を使って類似表現が元記事のデータベースで検索される.検索された難しい表現と, 対応するやさしい日本語の表現は, あらかじめ対応付けされてデータベースに格納されている記事,もしくは文の単位で表示される。本機能はすでに多言語翻訳の現場で利用実績のあった翻訳用例提示システム (熊野, 後藤, 田中,浦谷,江原 2001)を流用して実装した。 以上は難しい表現を指摘してその書き換え候補を提供する基本部分である。これに日本語教師と記者の共同作業のために以下の機能を設けた. ・ 共同作業のための書き換えエディタの機能 - 複数作業者の利用 ユーザとして登録された人は誰でも書き換え作業に参加できるようにし,任意の順番で 1 つの記事を書き換えることを可能とした.基本は記者と日本語教師の交互の書き換えである. - フラグ付き書き換え原稿の履歴保持 書き換えた原稿には記者や日本語教師といった「作業者属性」あるいは確認用などの「目的属性」を表すフラグを付与し履歴を保存するようにした.作業者属性と目的属性を明示することで,日本語教師は表現の書き換え,記者は内容の書き換えという役割を分離しやすくなる。また書き換えの履歴によって変更の詳細な経過を確認できる. - 原稿難易度スコアの表示 記者と日本語教師の書き換えがやさしくなる方向に進んでいるかどうかを確認するために原稿難易度スコアを提示するようにした。原稿難易度スコア $S$ は文書リー ダビリティの研究で用いられている属性 (野本 2016) を参考に「文書長 $d\rfloor$, 「平均文長 $l \downharpoonleft$,「難語率 $\left.w^{14}\right.\rfloor$ の積 $S=d l w$ で計算した.右辺の各項は小さいほどやさしいので,積の $S$ は小さいほど原稿がやさしいことを示す. 原稿のやさしさは書き換えエディタの画面に表示された個別の文長,語の色表示でもある程度把握できるが,1つのスコアにまとめることでより明確になる。さらに難易度スコアは専  門性の違う 2 人が書き換えを検討するときの指針としても有用と考えた. - コメント機能 専門性の違う作業者を支援するにはコミュニーケーションを支援するのが有効と考えた.直接会話できれば問題ないが,書き換えエディ夕は日本語教師,記者などが遠隔地で作業することも想定してWebのシステムとして実装した。このため,直接会話できない場合,作業時間がずれる場合もあると考え,文単位でコメントを残せるようにした。コメント欄には書き換えの意図,質問などを記入する。 ## 6.1.3書き換えエディタの機能の補足 前項の機能に関して下記 2 点を補足しておきたい. - 難しい語の指摘 日本語能力試験の級の認定は,難しい語の指摘,原稿の難易度スコアの計算に使われるため正確に実施したい,級の認定は形態素解析に基づいているため,その誤りの手軽な修正インターフェース,および学習機能を導入して自律的に性能を向上させる機構の必要性は明白だったが,サービス開始までに対応することができず, 6.2 節で説明するように後に対応することとなった。 - 用例検索機能の意義 やさしい日本語の書き換え原則は 4.4 節で述べたように NEWS WEB EASY の開始時には日本語教育のみを反映した「不十分」なものであった。しかしこの原則の不足を補いながら日々日本語教師と記者が日々作成する書き換えには, 規則の形で明示されてはいないが,さまざなニュースの書き換え原則も反映されているはずである。すなわち書き換えを蓄積して再利用することは,実質的に原則の開発を書き換え作業者に任せることを意味する.著者らはニュースの書き換え原則は作業者の高い専門性を頼りに用例検索システムを使って自律的に発展させるのが現実的だと考える。ただし一般に実用されている制限言語を見ると,言語仕様の開発や管理は作業者とは別の人,団体に任せることが普通のようである ${ }^{15}$ 。このような場合に単純に用例検索システムを導入するのは不適切と考える。 ## 6.1.4書き換えエディタの画面 書き換えエディタの主な機能を画面で説明する。図 2 にメイン画面を示す.メイン画面の上部は原稿の書き換え履歴,下部は書き換え作業の画面である。メイン画面からは後に説明する 3 原稿比較画面(図 3), 原稿差分画面, 文の重複画面, 単一原稿画面を表示させることができる.  図 2 書き換えエディタのメイン画面 図 3 書き換えエディ夕の 3 原稿比較画面 (1) 書き換えの履歴 図 2 の上段が元記事の書き換え原稿の履歴である。書き換え作業者はまず元記事のコピー を作成し最初の書き換えを作成する。次の作業者はそのコピーを作成し, さらに平易化する。 さらにその後もコピーと平易化を繰り返し,作成される書き換え原稿すべてが履歴として記録される。書き換えの記録には木構造を採用しており,線状に並ぶ履歴だけでなく, 兄弟ノードを作ることで複数系統の履歴を作ることができる。図 2 の履歴部分には「原文 (本稿の元記事),デスク校閲(本稿の記者の書き換え)(日)校閲(本稿の日本語教師の書き換え),報道確認用(本稿の編集責任者確認用),検索稿(本稿の検索機能への入力用) ・・・」といったフラグのついた書き換え原稿が並んでいる. (2) 作業画面 - 記事編集と登録 書き換えの履歴の下が作業画面である。枠で囲んだ 3 列の左端は元記事, 中央は直前稿,右端が作業稿,すなわち現在の書き換えである.表示される原稿の関係は常に同じである。それぞれの列には,文編集用の箱とコメント用の箱のペアが下方向に繰り返し表示される。図 2 ではタイトル,夕イトルへのコメント,書き換え稿の 1 行目の 3 つの箱が表示されている. 左端(元記事)と中央の列(直前稿)は閲覧のみ可能で, 右端(作業稿)の文編集用の箱とコメント用の箱は編集可能となっており, 最初は直前稿の対応部分がコピーされている. 作業者はコピー を書き換え,完了したら登録する。 - 文単位の書き換え 作業画面を横方向に見ると 3 つの箱が並んでいる.上で述べた文編集用の箱とコメント用の箱で, 元記事の 1 文単位に設けられ, 横に整列して表示される。作業者は右端の文編集用の箱の中で文の分割や書き換えを行う。文編集用の箱とコメント用の箱の数は元記事の文数に固定されており, 右方向に見ることで元記事の文の変化を観察できる.以上の元記事の文を基準に書き換えを表示する方式を箱表示と呼ぶ. - 文長の表示 文編集用の箱の直下に文長を表示している。目標が 50 文字程度以下であるため, 40 文字を超えて 60 文字までは青で, 60 文字を超えて 80 文字までは黄色で, 80 文字を超えると赤で文長を表示するようにしている. - コメント欄 コメント闌には文の書き換えに対するさまざまなコメントを記入する. - 語の難易度表示 直前稿と元記事の文編集用の箱の中の語はカラーで表示される。色は日本語能力 試験の級に対応しており,4 級を青, 3 級を緑, 2 級を黄色, 1 級を暗い赤,級外の難語を明るい赤とした。作業者は黄色や赤の語に注意して作業する. - 3 原稿比較画面 図 2 の作業画面に対応する 3 つの画面を並べて表示することができる(図 3)。义イン画面にはコメントや文長情報があり一覧性が悪いが,図 3 では全体を把握できる。元記事, 直前稿, 作業稿と進むにつれ,青色,緑色の語の割合が増え,書き換え稿の長さが短くなっていれば書き換えはやさしくなっていることになる。また,やさしさを数值で確認するため下段には原稿難易度スコアを表示している ${ }^{16}$. - その他 書き換えが進むと直前稿との差がほとんどなくなるため,書き換え原稿間の差分文字列をカラーで強調表示する画面(原稿差分画面),要約作業を支援するため, リード文と他の文の一致文字列をカラー表示する画面(文の重複画面)を用意した. また履歴中の任意の 1 つの書き換え原稿を色付きで表示することもできる(単一原稿画面). ## 6.2 読解補助情報エディタ 書き換え作業が完了したやさしい日本語のテキストに対して以下の読解補助情報を付与する. $\cdot$ ふりがな すべての漢字に付与する - 固有名詞の色表示 地名,人名,組織名に色をつける - 辞書の説明 日本語能力試験の 2 級, 1 級, それ以上の難語に原則付与する.ただ, 辞書に適切な語釈がない場合は付与しない 本節では上記の付与作業を支援する読解補助情報付与エディタを説明する。ふりがな,固有名詞は既存の形態素解析システムで付与できる。また, 日本語能力試験の級も形態素解析辞書の語に 1 級から 4 級までの級を記載しておけげ認定できる。また解析時に未知語を難語とすることで,1,2級の難語とそれ以上の難語を自動認定できる。そこで当初は形態素解析器を応用した読解補助情報付与システムを使用していた。しかし形態素解析を誤れば, ふりがな, 固有名詞,級の認定も誤ることになる。語の辞書引きには,形態素解析で得られる基本形の表記と読  みを使うため,辞書引きも解析誤りに影響される。また,辞書引きができても語釈が語の説明としてふさわしくないこともある。さらに,ニュースには固有名詞,複合名詞を中心とした新語が頻繁に出現するため, 1 語へのまとめ, 属性の付与などが必要となる. 運用開始時はプロトタイピングと割り切り,形態素解析システムを応用していたため誤りを日々人手で修正する必要があった。しかし修正はその場限りでその後に反映されない。そこで, ふりがな,固有名詞の属性,表示する辞書項目,および語の日本語能力試験の級を予測し,かつ予測誤りの人手修正結果をオンライン学習できる「難易度, 補助情報付与モジュール」を作成した。 さらに,予測結果を簡便に修正できるインターフェースを開発した,以上により読解補助情報の自動付与結果の誤りをインターフェースで修正すれば以後の解析に反映できるようになった (熊野, 田中 2014). 難易度, 補助情報付与モジュールは(ふりがな,日本語能力試験の級もしくは固有名詞の属性, 辞書項目)という3つ組のタグがついた形態素列をデータとして,学習時にはデータを最適分割して記憶する。学習は 1 記事ごとに行うので, 修正結果は直ちに学習される. さらに忘却の機能を持つため,例えば固有名詞の認定の方針が変わった場合などにも自動的に対応できる. 図 4 に読解補助情報エディタのインターフェースを示す。左が全体画面で,右は全体画面から呼び出された辞書項目の検索画面である。作業者は全体画面に表示されている解析結果を見て, 必要に応じて語の単位の変更, 級の修正, 辞書項目の変更などを行う。なお,全体画面を開いたときにはすでにその時点までの学習結果が反映されていることに注意されたい. 全体画面の右側は,左側の作業内容を確認する全体表示である.NEWS WEB EASY の画面と同様の形式で漢字のふりがなが表示され,書き換えエディ夕と同様の形式で語の級, 固有名 ## 自動解析ボタン 全体画面 辞書項目検索画面 検索結果 図 4 読解補助情報エディ夕 詞の種別が色分け表示されており, 作業者は直感的に内容を確認することができる. 学習の効果に関して, 熊野, 田中 (2014) は 1,372 記事の各記事を対象にオンライン学習する場合の解析精度と, 形態素解析システムを使った従来の解析精度を比較し, 形態素解析システムを使った精度は一定して $89 \%$ 程度であるのに対して, オンライン学習する手法では 250 記事程度を学習すると約 $95 \%$ に達して飽和したことを報告している. ## 6.3 制作支援システムのまとめ 原稿と書き換えエディ夕, 読解補助情報エディ夕, 用例検索の関係を図 5 に示す。管理システムとは原稿と各システムを制御するシステムである。図 5 では元記事が管理システムに登録された後,書き換えエディタにコピーされて,第 0 版から第 $n$ 版まで書き換えらえる状態を示している。さらに第 $n$ 版は読解補助情報エディ夕に入力されて補助情報が付加される. 図に示したように書き換え作業中には, 用例検索と, 難易度, 補助情報付与モジュールの語の難易度推定機能が利用される。書き換え終了時には元記事(図中では書換 0 )と第 $n$ 版の書き換え(図中では書換 $n$ )が用例検索システムに登録され,日々の運用で自然に用例が蓄積される.読解補助情報の付与作業中は難易度, 補助情報付与モジュールのさまざまな情報推定機能が利用される。そして誤りを訂正した結果が同システムに登録されて学習される. すなわち,書き換えエディ夕,読解補助情報エディ夕はそれぞれ日々の運用によって情報がフィードバックされ性能が向上する循環型のシステムになっている. 書き換え 読解補助情報付与 図 5 書き換え原稿の流れとシステムの関係 ## 7 書き換え支援システムの効果 本章では 2 つのエディタの効果を確認するために実施した調査を報告する. NEWS WEB EASYは実際のサービスであるため,エディ夕の利用・非利用の比較に基づく対照実験は困難である。そこで,まず制作に関わっている日本語教師と記者全員に対するアンケート,さらに, システムに記録されているログの分析により効果を調査した. ## 7.1 アンケート 現在, NEWS WEB EASY の書き換えを担当しているのは表 1 に示す J1 から J4 までの日本語教師 4 名,および R 1 から R 3 までの記者 3 名である.日本語教師 2 名および記者 2 名は 2012 年 4 月のサービス開始時から制作に参加している. 日本語教師は 15 年以上の豊富な教育経験を 持っている,今回のアンケートではまず文書で尋ね,回答中の興味深い点,疑問点をメールで再度聞き取る方法を採用した。 ## 7.1.1 システムの全体について システム全体としての利点と問題点を把握するため下記の質問に自由記述で回答してもらった。質問趣旨と主な回答は以下の通りである. (1) もし書き換えエディ夕のさまざまな機能および用例検索機能が現在使えないとすると品質,書き換え時間にどのような影響があるでしょうか. - 作業時間は大幅に増え 1 日 3 記事担当するのは負担が大きそうである(他類似回答 4 件). - システムを使わない場合, 異なる作業者間, 過去記事との間に大きな違いが出ると思う。一定の基準, レベルでの書き換えを保つためには必要だと思う(他類似回答 4 件). 表 1 回答者の属性(調査当時) 時間の短縮の効果を感じさせる 1 番目の回答より, 書き換えエディ夕は「書き換えの停滞」の解消に効果的であったことが伺える。また,2 番目の回答は「平易化レベルの保証」が実現できていることを示唆している。この他 - 自分の書き換えを他の作業者が参照すると思うと責任を持って書くようになるという回答もあり, 品質維持の動機につながっていることを伺わせる回答もあった。一方,システムがなければ - NHK のニュースという枠にとらわれずによりやさしくできる可能性があるという指摘もあった。なお,書き換え時間が短くなったという回答はあったが,日々の作業時間が短くなっているわけではない.事情を質問したところ, - 日々の作成本数が決まっているので書き換えに割り当てている総時間は変えておらず,書き換えの質を向上させるための記者と日本語教師との検討, 事前のリサー チに時間を費やしている とのことであった。すなわち,書き換えエデイ夕によって質の向上のための時間が生み出されていると考えられる. (2)書き換えエディ夕のさまざまな機能, 用例検索の機能, 読解補助情報エディ夕を使うことによる副作用(例えば書き換えが画一的になるなど)はないでしょうか. - 「前もこう言い換えた」は一見安全が保護されているように見えるが絶えず再検討しなければならないだろう(他類似回答 3 件). 全員上記のように過去用例を安易に再利用すべきでないという自覚があり, 現在は問題ないと回答していた。類似した回答に -(自分の書き換えに対して)日誌に次回はチャレンジすることなどと引き継ぎしている - 参加した 1 年目は先輩の用例に従わなければと思い込んでいたが, 現在は他の分かりやすい表現を探している などがあり,常に新しい表現を模索している姿勢が伺えた.書き換えエディタの支援機能や読解補助エディタへのコメントはなく, 副作用は特にないと考えられる. (3)書き換えエディ夕のさまざまな機能, 用例検索の機能, 読解補助情報エディ夕はやさしい日本語の学習や NEWS WEB EASY の新人への教育に有用でしょうか. - 用例検索は NEWS WEB EASY の書き換えスタッフの養成には有用(他類似回答 3 件). - 用例検索の記事にはニュースの特有の表現があるので他(のやさしい日本語)では有用とは言えない(他類似回答 1 件). 途中から NEWS WEB EASY の制作に参加した日本語教師からは ・い万い万なルールがそれぞれのシステムに反映されているので, 意識しながら(ルー ルを)身に付けることができた との回答があった。この回答は語の難易度, 文長の制限, NHKでの漢字の読みなどがシステムで提示されることを指している。一方, 別の日本語教師からは新人の教育に有用と回答した上で ・ システム操作に日本語教育と無関係な専門用語が多いので覚えるのに負担がかかる可能性がある との指摘があった,例えば,新たな書き換え稿の作成ボタンに使われている「make child」 (書き換え履歴の木構造の子ノード作成の意味)といった専門用語が分かりにくさにつながるという指摘である. ## 7.1.2書き換えエディタ 書き換えエディ夕の 10 の機能について,それぞれの「使用頻度」「有用性」「満足度」を 5 段階の選択肢で質問した。使用頻度と有用性は機能そのものについて,満足度はインターフェー スについての質問である。以後も同じ趣旨で質問した。 例として「履歴」についての問いを表 2 に,回答に使った 5 段階の選択肢を表 3 に示す. さらに, それぞれの機能についてコメント, 使用状況, 使用状況の変化について自由記述で回答してもらった,全員の選択結果を表 4 に示す。なお「箱による編集」は必ず使用するため使用頻度の質問はしていない. 表 4 の「日教師」の列は日本語教師 J1 から J4 の結果を示す.同様に「記者」の列は記者 R1 から R3 の結果を示す. まず個人に着目する.記者 $\mathrm{R} 3$ の使用頻度を他の記者と比べると 5 がかなり多い. 記者 $\mathrm{R} 3$ が 表 2 「履歴」情報に関する問い 表 3 選択肢 表 4 書き換えエディタの選択結果 } & 使用頻度 & $1,1,1,1$ & 1.00 & $1,1,5$ & 2.33 & 1.57 \\ 1 をつけているのは「文長表示」と「3 原稿比較画面」で,この他では「原稿難易度表示」に 3 をつけているのみである.他の記者と比較してみよう.記者 R 3 の使用頻度が 5 で他の記者が 1 あるいは 2 を付けている項目は,「履歴」「語難易度表示」「単一原稿画面」「原稿差分画面」である.「履歴」と「原稿差分画面」は日本語教師との共同作業で使うため, 日本語教師が使えば情報を共有できる。「単一原稿画面」については, 代わりに「3 原稿比較画面」を使っているとのコメントがあった.また「語難易度表示」は表現の平易化に使う機能であるため使っていないとのことであった. 6.1.2 項で述べたように,当初記者は表現の平易化を担当しないという原則を設けており,それに対応したコメントと思われる。以上を総合すると記者 $\mathrm{R} 3$ は求められ ている仕事に専念している度合いが他の記者より強いことが伺える。 次に各項目を概観する。「履歴」はよく使われ,有用性,満足度も高い,作業中の使い方には ・書き換えの各段階での情報の抜け落ちの確認 $\cdot$ 2 つの書き換え案があるときに両方を作って検討 ・ 編集責任者との確認で削除した情報を復活する場合に使用 という回答があった。履歴は木構造で表現しているため兄弟ノードの原稿を作ることができる.上述の 2 つの書き換え案は兄弟ノードを利用して作成している。また,作業の事前事後の使い方には ・ 微妙な外交問題などをどのように書き換えているかなどを観察する $\cdot$ 日誌を書く際の作業の振り返りに使用との回答があった。事前のリサーチ,振り返りにも活用されている. 「箱による編集」も有用性, 満足度とも高い。一方 - 元記事の文数に固定されている箱の数を増やせるようにしてほしい との要望があった。元記事の構成を大幅に変更した場合などに不便なようである. 「文長表示」は全員がすべての項目に 1 を付与している。人間が文字数を数えて確認するには大きな手間がかかる,文字数の計算は単純だが,効果の高い指標と考えられる.また,「文長表示」は編集責任者へ書き換えを説明する際に使われていた。 「語難易度表示」は日本語教師の評価が高い。記者 R1,R2 も積極的にこの指標を利用している. - 全体が色で表示されているため記事中の語彙難易度の状況が一目で把握できる点が良い ・ 学習機能により難易度の精度が上がった という回答があった.「語難易度表示」も編集責任者への説明に利用されている.なお,記者の - 最近では難しい単語はだいたい分かるようになったため以前ほどこの表示に頼らなくなった という回答もあった。 「コメント欄」については書き込みの頻度を尋ねたため, 記者の使用頻度は低いが, 有用性は高いという評価である。主に日本語教師が書き込んでおり,内容は ・参考情報の出典(Web サイトなど) - 書き換えの意図の説明 ・ 複数案あるときの代替案 - 不明点 などである。記者からは ・ 日本語教師の書き換えプランが理解できる ・代替案をコピーできる といった回答があった。なお ・ コメントが入っていない文の欄は非表示にしたい との要望も寄せられた。表示方法には工夫の余地がある. 「単一原稿画面」と「3 原稿比較画面」はどちらも書き換え原稿の表示であり,一方だけ使っている作業者, 目的に応じて使い分けている作業者がいた。それぞれ使い方を決めており,両者は必要な機能となっていた. 「原稿難易度表示」も利用頻度, 有用性, 満足度とも高い. - 原稿難易度を目標に書き換える - 記者や編集責任者に書き換えの必要性を説明するときに使う という回答があった. 原稿難易度を書き換えの目標に使っているという回答に関して, 現在,原稿難易度と外国人理解度との詳細な関係は分かっておらず,今後調查が必要である。 「文の重複画面」と「原稿差分画面」はどちらも単純な最長共通文字列検出アルゴリズムを利用している。「文の重複画面」は主に記者の要約する作業を支援する目的で作成しているため日本語教師は使っていない。また記者からは - 記事を読むと重複箇所はだいたい分かるので使っていない という回答を得た. 一方「原稿差分画面」は使用頻度, 有用性, 満足度とも高い. 特に修正箇所が少なくなり目視での書き換え稿間の差の確認が難しくなる後半で使われている. 直前稿との差の確認, 編集責任者への変更箇所の説明, 最終的な夕イポの発見などが主要な使い方である. ・日本語教師との「キャッチボール」17に欠かせない という記者のコメントもあった.「原稿差分画面」も単純だが有用な機能である. ## 7.1.3 用例検索機能 用例検索機能について,全員に選択肢と自由記述形式で質問した。選択肢は書き換えエディ夕と同じ使用頻度, 有用性, 満足度に加えて, 用例の蓄積の重要性について尋ねた。質問は「用例の蓄積は重要でしょうか」である。また回答は「1:重要, $2:$ や重要, $3:$ どちらとも言えない, 4:あまり重要でない, 5 :重要でない」の 5 段階である.結果を表 5 に示す。記者 R 1 の使用頻度は低いが,この項目以外の評価は高い。記者 R1 は自分では使わないが日本語教師が検索した結果を利用しているとコメントしており, 有用性は高いと評価している. 用例の蓄積の重要性についても高い重要性を認めている. さらに, 以下の自由記述形式の質問を行った. 質問趣旨と主な回答を記す. (1) 用例検索を使う目的とタイミングを教えてください. - 書き換え前に参考になる記事を探す(他類似回答 4 件)  表 5 用例検索の選択結果 - 書き換え中に表現の書き換え例を探す(他類似回答 5 件) - 作業外の時間で他の人が担当した記事を勉強する(他類似回答 2 件)想定の通り,作業中に書き換え表現を探す用途が多い。また - 当日の記事の選択時に過去との重複を調べる用途 - 編集責任者の説明に過去の書き換え事例を示す目的という回答もあった。 (2) どのような表現を入力しますか. - 固有名詞人名関連 (マララさん, ウルトラマン), 組織名 (IOC, IS イスラミックステート) - 専門用語 気象災害用語(豪雨,土砂崩忆,孤立状態,浸水),科学技術用語(AI,大気,生存率,GPS), 文化$\cdot$伝統関連用語(恵方巻き,かつ打節,こいのぼり,土用の丑の日),医療関係(手足口病,小頭症) - 難しい表現 2 級以上の語彙,使わざるを得ない受け身や使役の使用例(行われる,やめさせる,やめさせられる) 固有名詞は書き換えないが,加える説明を調べるために入力して調査する。また,関連記事を検索する場合にもキーワードとして入力している,専門用語は書き換え事例,および追加する説明を調査するために入力している。 (3)現在の用例検索は記事単位,もしくは文単位で検索結果が表示されます。この代わりに,「避難」に対して「逃げる」といったフレーズの辞書を作って検索することが考えられます. 現在の方式とどちらが有用でしょうか. - 同じ単語でも記事の内容によって書き換え方は異なるので文や記事が必要(他類似回答 5 件) ・どちらでも有用だが辞書ができるのだろうか 基本的には書き換え時に文脈,記事の全体を見るため現在の方式の方を有用と考えている. 特に, 現在は元記事とやさしい日本語の文を対応させて検索結果を表示できるため, 元記事の表現が省略されたことが分かるようになっている。このため $\cdot$ ある表現が文脈によって省略されやすい事実が分かる点が有用という回答もあった。 (4) 検索システムの用例が蓄積され検索できる記事や表現が増えています。このような効果を感じますか. あるいはまた, 蓄積が足りないと感じますか. ・ 蓄積効果を感じている(全員) ・ 同じ言い回しでも異なる書き換えがあるため蓄積はまだ必要(他類似回答 1 件) ・ 不足していると感じることがある ・不足はあまり感じない ・ 蓄積が進んだため,検索結果が多すぎたり,誤った結果が含まれたりすることがある(他類似回答 1 件) 用例の蓄積効果は全員感じていた。ただし 7.1.1 項の (2) で報告したシステム全体についての副作用のアンケートの回答にあったように,無条件に使ってはいけないという意識は強い。また, 現在記事数が 4,000 件を超えており, 過剩な検索結果, 不適切な検索結果が問題になりつつあることが分かった. ## 7.1.4読解補助情報エディタ 読解補助情報エディタについて日本語教師に選択形式と自由記述形式で質問した。選択肢は 5 段階でこれまでと同様である。また記者は作業を担当しないため質問していない. 選択肢問題の質問趣旨は以下の通りである. (1)読解補助情報エディタの使い勝手はいかがですか (2)以前の読解補助情報エディ夕には学習機能がありませんでしたが現在はこれが装備されています。学習機能は重要でしょうか (3) 学習機能の性能に満足ですか 結果を表 6 に示す. 現在の使い勝手, 学習機能とも満足度, 重要性とも大きい結果となった. また問題点,コメントを自由記述形式で求めたところ - 学習機能には大変助かっており性能にも概ね満足している. ただし自動推定された結果から誤りを探すのが大変であり,候補を出す方式の方が良いかもしれない 表 6 読解補助情報エディタの選択結果 表 7 読解補助情報付与の時間 という回答が 1 件あった,現在は誤り率 $5 \%$ 程度だと推定しているが,この程度になると誤りを見過ごしやすくなる問題がある. 自動推定結果をまとめて修正するのでなく, 回答のように候補を出して選択させる方式も検討したい。 次に, 読解補助情報エデイ夕の学習機能によりどれくらい作業時間が短縮されたかを調查するため次の質問を行った ${ }^{18}$ 。 (1) 現在の 1 記事あたりの読解補助情報の付与の時間はどれくらいですか. また学習機能がないころは何倍くらい時間がかかっていましたか. この質問は学習機能のないエデイタでの作業を経験している日本語教師 J1, J2, J3 に対しての久実施した,結果を表 7 に示す。日本語教師は打よそ類似した感覚を持っていることが分かった. 学習機能付きの場合の 1 記事の処理時間が拈よ 10 分で, 学習機能がない場合にはその最大 3 倍の処理時間がかかったという結果が得られた。なお, この質問は, 過去と現在の比較となるため, 結果には作業者自身の学習効果を含んでおり,単純に学習機能だの効果と言えない点に注意が必要である. ## 7.2 ログの分析 7.1.1 項の書き換えエディタのアンケート (1) では「書き換えの停滞」と「平易化レベルの保証」に対する効果が示唆されたことを述べた。本節では効果をさらに確認するため書き換えエディタのログを解析した。対象としたのは NEWS WEB EASY 開始の 2012 年 4 月から 2016 年 11 月までのログである。書き換えエディタのログは本来,本節で述べるような調査を目的に設計されていない。そこで,以下ではできるだけ安定していると思われるデータを抽出して解析した. この期間で元記事から完成まで普通に制作されたと推定できる記事は 4,164 件であった ${ }^{19}$. ## 7.2.1記者と日本語教師の平均ターン数 やさしい日本語のニュースは元記事を記者と日本語教師が交代で記事を書き換えて作成する.書き換え稿の数, ターン数は6.1.1 項で述べた書き換えの停滞, あるいは逆数を取ると日本語教  師と記者の互いの仕事への理解度合いの指標になると考えた。そこで,上記の 4,164 記事から,典型的と考えられる $ \text { 記者 } \rightarrow(\text { 記者 } \mid \text { 日本語教師 })^{\star} \rightarrow \text { 編集責任者確認用 } $ のパターンに従って書き換えられた記事 3,215 本を抽出した. そして各記事の最初の記者の書き換えから編集責任者確認用までの書き換え稿の数を算出し,これをターン数として月ごとに平均を計算した,通常,最短で「記者 $\rightarrow$ 日本語教師 $\rightarrow$ 編集責任者確認用」の 3 つの書き換え稿,すなわち 3 ターンが必要となる. 図 6 に結果を示す. NEWS WEB EASY 開始時の 2012 年 4 月の平均ターン数は 5 に近いが半年後の 2012 年 10 月には 3 近くにまで減少し, その後同じような数が続いている. すなわち,開始から半年程度で停滞が減少,あるいは互いの仕事への理解が深まったことを示唆していると考える20。アンケートの結果と本項の結果より,書き換え支援システムは書き換えの停滞の解消に効果があったと考える. ## 7.2 .2 平易化レベルの保証 平易化レベルの保証に対する書き換えエディタの効果は,文長と難語率を元記事とやさしい日本語のニュースで比較することでおよそ評価できる。 そこで,各月の平均文長と平均難語率 図 6 平均ターン数 20 記事の書き換え時間のログの分析も試みたが, 1 日の制作記事数が決まっていて, 制限時間内であれば時間をかけられること, 待ち時間, 休憇時間などの影響が見積もれないことから解析は困難と考え実施しなかった. を日本語教師ごとに調査した。調査した記事は全 4,164 件である。また日本語教師はこの期間,延べ 5 名が制作に関わったため,全員について上記の平均を計算した。平均文長と難語率の結果を図 7 および図 8 に示す. 図の左が元記事,右がやさしい日本語のニュースである。 2 つの図を見ると, 平均文長, 平均難語率ともやさしい日本語のニュースの方が元記事より明らかに小さくなっている。 またやさしい日本語の平均文長と平均難語率は, すべての日本語 図 7 平均文長 図 8 平均難語率 教師で似た値となっている。これらの結果は平易化レベルの保証に書き換えエディタが効果的であったことを示したものと考える。 さらに図 7 の平均文長と図 8 の平均難語率のやさしい日本語(右部分)のグラフの横軸方向の変化を観察すると,両者とも特に初期に右下がりの傾向を示している.7.1.1 項の書き換え支援システムの全体のアンケート (2) で担当者は常に書き換えの改善を目指しているという回答を得ており,グラフの右下がり傾向は日本語教師が文長と難語率を強く意識しながら日々書き換えの改善を試みていることの現れと思われる. ## 8 議論 アンケートでは書き換えエディタと読解補助情報エディ夕の機能のほとんどが高頻度に使われていること, また日本語教師, 記者ともに有用性を高く評価していることを示す回答を得た. ターン数のログ解析では,書き換えが初期に比べてよりスムーズに進むようになり,書き換えの停滞の問題が軽減されたこと, 平均文長と平均難語率の分析では, 両者とも元記事より大幅に減少し, 平易化レベルの保証が実現できていたことを確認した. 今後, 新たにやさしい日本語を使った情報提供を行う場合に有用と思われる点を指摘したい. 1 点目は学習機能である. ふりがななどの読解補助情報, 語の難易度推定に学習機能を入れて以来,2つのエディ夕とも特段の保守なしに順調に運用されている。アンケートでも学習機能の効果は高い評価を得た。日々繰り返す作業に自動システムを導入する場合, 学習機能は特に高い効果をもたらすと考える。 2 点目は用例の利用である. 書き換えエディタの用例検索機能は記事数が増え, 有用性が増していることが明らかになった,用例は積極的に利用すべきと考える.ただし,用例検索を利用することは 6.1.3 項で述べたように書き換え原則の開発をユーザが主体的に行うことにつながる. あらかじめ書き換え原則を網羅的に準備できず, ユーザに原則の書き換えを任せてよい場合には用例検索機能は有用と考える. 3 点目は書き換えの説明のしやすさである,当初,記者と日本語教師の共同作業を支援するため, コメント追加, 記事の履歴の保存などの機能を設けた. これらの機能は互いの書き換えの説明の材料になると考えたからである。次に詳述するように,記者と日本語教師の理解が進んだ結果, 彼らの間の説明の必要性はある程度減っているようである。一方, 編集責任者など他の参加者への説明はコメント,履歴などを使って引き続き行われている.書き下ろしでなく元文書を書き換える場合,元文書の作者に説明が必要な場合は多いと考える.また,放送局のように最終的な責任者がいる場合その人への説明も必要となる.書き換えの説明をしやすいシステムにしておくのが 1 つの要点と考える。 最後に日本語教師と記者の相互の理解の深まりから見たシステムの今後について触れたい. アンケートによると開始から 5 年を経て日本語教師と記者の互いの知識の理解が進んだことが明らかになった.例えば,語難易度表示に関する記者へのアンケートに - 最近では難しい単語はだいたい分かるようになったため以前ほどこの表示に頼らなくなった という回答があったことを 7.1.2 項で述べた。また日本語教師への追加質問では ・ ニュースの構成がそのままではやさしくしにくい時, 積極的に構成の変更を提案するようになった という回答を得た。いずれも相互理解が進んだことを示唆している. さらに 7.2 .1 項の平均ター ン数の分析では,相互理解が NEWS WEB EASY の開始から半年程度の間に進んだことを示唆する結果を得た。 記者がやさしい日本語に十分慣れれば,ボーイングの事例と同じく,専門家である記者がシステムの指摘に従って書き換えを進めることが可能になると考える.ただし,新たに担当する記者に,いかにやさしい日本語の知識を伝えるかが問題となる。知識の伝達に関して, 過去に日本語教師が 1 名交代したことがある,新たに参加した日本語教師からは,用例を使ってニュー スのやさしい日本語を学習したとのアンケートの回答があった. 新しい日本語教師と同様に記者が過去の用例を使ってやさしい日本語を学習することは可能だろう. ## 9 おわりに 本稿では NHK のやさしい日本語のニュースの Web サイト NEWS WEB EASY の概要, やさしい日本語の書き換え原則を説明し,続いてやさしい日本語のニュースの制作の体制とプロセス,および制作を支援する書き換えエディ夕と読解補助情報エデイ夕を報告した.書き換えエディタは日本語教師と記者という互いに異なる専門知識を持つ作業者が,専門性を相互補完しながらニュースをやさしい日本語に書き換えるエディタである。書き換えエディ夕には難しい語を指摘する機能があり,ユーザは難しい語の書き換え候補を日々の運用で蓄積された書き換え用例から検索することができる。読解補助情報エディ夕は漢字のふりがな, 辞書付与のための語彙の難易度情報などを自動的に付与する機能を持つ。また自動付与した結果を人手で修正するとその結果を学習することができる。これらのエディタは日々の運用によって用例が蓄積され,学習が進むと性能が向上していく特徴を有している。 また, 2 つのエディタのユーザである日本語教師と記者を対象に, 使用頻度, 有用性, 満足度をアンケートで調査した結果, どちらのエディタも高い評価を得たことを報告した。またログ解析により表現が平易になっていること,平易化は個人によらず同じ程度あったことなどを報告した. ## 謝 辞 本研究を進めるにあたってご協力いただいた NEWS WEB EASY の制作を担当している記者 OB および日本語教師の皆様, および,書き換えエディ夕,および読解補助情報エディ夕を日々運用して NEWS WEB EASY のサービスを実施している NHK 報道局ネットワーク報道部の皆様に感謝します。また日頃より研究の進め方のご指導をいたたく放送技術研究所ヒューマンインターフェース研究部岩城正和部長, 議論していただく同部のみなさまに感謝します. ## 参考文献 Barzilay, R. and Elhadad, N. (2003). "Sentence Alignment for Monolingual Comparable Corpora." In Proceedings of the 2003 Conference on Empirical Methods in Natural Language Processing (EMNLP 2003), pp. 25-32. Bott, S. and Saggion, H. (2012). "Automatic Simplification of Spanish Text for e-Accessibility." In Proceedings of the 13th International Conference on Computers Helping People with Special Needs (ICCHP 2012), pp. 527-534. Carroll, J., Minnen, G., Pearce, D., Canning, Y., Devlin, S., and Tait, J. (2009). "Simplifying Text for Language-Impaired Readers." In Proceedings of the 9th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2009), pp. 269-270. Chandrasekar, R., Doran, C., and Srinivas, B. (1996). "Motivations and Methods for Text Simplification." In Proceedings of the 16th International Conference on Computational Linguistics (COLING 1996), Volume II, pp. 1041-1044. Coster, W. and Kauchak, D. (2011). "Simple English Wikipedia: A New Text Simplification Task." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 665-669. Goto, I., Tanaka, H., and Kumano, T. (2015). "Japanese News Simplification: Task Design, Data Set Construction, and Analysis of Simplified Text." In Proceedings of MT Summit XV, Vol. 1, pp. 17-31. Hoard, J. E., Wojcik, R., and Holzhauser, K. (1992). "An Automated Grammar and Style Checker for Writers of Simplified English." In Holt, P. O. and Williams, N. (Eds.), Computers and Writing State of the Art, Chap. 19, pp. 278-296. Kluwer Academic Publishers. Inui, K., Fujita, A., Takahashi, T., and Iida, R. (2003). "Text Simplification for Reading Assistance: A Project Note." In Proceedings of the 2nd International Workshop on Paraphrasing (PARAPHRASE 2003), pp. 9-16. 庵功雄(編)(2010). 日本語これだけ!1.ココ出版. 庵功雄(編)(2011).日本語これだけ!2. ココ出版. 庵功雄 (2016). やさしい日本語一多文化共生社会へ. 岩波新書. 岩波書店. 庵功雄, 岩田一成, 森篤嗣 (2009). 「やさしい日本語」を用いた公文書の書き換え. 2009 年度日本語教育学会秋季大会, pp. 135-140. 伊藤彰則, 鹿嶋彰, 前田理佳子, 水野義道, 御園生保子, 米田正人, 佐藤和之 (2008). 「やさし い日本語」作成支援システムの試作. 平成 20 年度電気関係学会東北支部連合大会, p. 209.岩田一成 (2010). 言語サービスにおける英語指向一「生活のための日本語調査:全国調査」結果と広島の事例から一. 社会言語学, 13 (1), pp. 81-94. Jonnalagadda, S., Tari, L., Hakenberg, J., Baral, C., and Gonzalez, G. (2009). "Towards Effective Sentence Simplification for Automatic Processing of Biomedical Text." In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 177-180. 梶原智之, 山本和英 (2015). 日本語の語彙平易化システムの構築. 情報処理学会第 77 回全国大 会, 2 巻, pp. 167-168. 河原俊昭, 野山広 (2007). 外国人住民への言語サービス. 明石書店. 国際交流基金,日本国際教育協会 (2007).日本語能力試験出題基準改訂版. 凡人社. Kuhn, T. (2014). "A Survey and Classification of Controlled Natural Language." Computational Linguistics, 40 (1), pp. 121-171. 熊野正, 後藤功雄, 田中英輝, 浦谷則好, 江原暉将 (2001). 翻訳用例提示システムの設計・開 発・運用. 電子情報通信学会, J84-D-II (6), pp. 1175-1184. 熊野正, 田中英輝 (2014). Dependent Dirichlet Process を用いた日本語文書へのタグづけのオンライン学習. 言語処理学会第 20 回年次大会, pp. 1075-1078. 熊野正, 田中英輝 (2016). 統計機械翻訳によるやさしい日本語書き換えの性能向上. 言語処理学会第 22 回年次大会, pp. 713-716. 松田真希子 (2010). やさしい日本語への自動言い換えシステムの開発. 2010 年度日本語教育学会春季大会予稿集, pp. 91-93. Mitamura, T. and Nyberg, E. (2001). "Automatic Rewriting for Controlled Language Translation." In Proceedings of the NLPRS 2001 Workshop on Automatic Paraphrasing: Theory and Application, pp. 1-12. Miwa, M., Sætre, R., Miyao, Y., and Tsujii, J. (2010). "Entity-Focused Sentence Simplification for Relation Extraction." In Proceedings of the 23rd International Conference on Computational Linguistics (COLING 2010), pp. 788-796. Nelken, R. and Shieber, S. M. (2006). "Towards Robust Context-Sensitive Sentence Alignment for Monolingual Corpora." In Proceedings of the 11th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2006), pp. 161-168. 野本忠司 (2016). リーダビリティー研究の 100 年. 情報処理学会研究会資料, 2016-DC-101 号, pp. $1-7$. Pressman, R. S. (2005). 実践ソフトウエアエンジニアリング. 日科技連. 佐藤和之 (2004). 災害時の言語表現を考える. 日本語学, 23 (8), pp. 34-45. Shardlow, M. (2014). "A Survey of Automated Text Simplification." International Journal of Advanced Computer Science and Applications (IJACSA), Special Issue on Natural Language Processing, pp. 58-70. Siddharthan, A. (2002). "An Architecture for a Text Simplification System." In Proceedings of the Language Engineering Conference 2002 (LEC 2002), pp. 64-71. Siddharthan, A. (2003). Syntactic Simplification and Text Cohesion. Ph.D. dissertation, University of Cambridge. Siddharthan, A. (2014). "A Survey of Research on Text Simplification." International Journal of Applied Linguistics, 165 (2), pp. 259-298. 田近洵一 (編) (2011). 例解小学国語辞典第 5 版. 三省堂. 田中英輝, 美野秀弥 (2010). やさしい日本語によるニュースの書き換え実験. 情報処理学会研究会資料, 2010-NL-199-9 号, pp. 1-6. 田中英輝, 美野秀弥 (2016). ニュースのためのやさしい日本語とその外国人日本語学習者への効果. 情報処理学会論文誌, 57 (10), pp. 2284-2297. 田中伊式 (2012).「この事件は〜したものです」などの表現をめぐって. 放送研究と調査, pp. 72-82. Vickrey, D. and Koller, D. (2008). "Sentence Simplification for Semantic Role Labeling." In Proceedings of the 46th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies (ACL-08: HLT), pp. 344-352. Watanabe, W. M., Candido Jr., A., Uzêda, V. R. d., Fortes, R. P. d. M., Pardo, T. A. S., and Aluísio, S. M. (2009). "Facilita: Reading Assistance for Low-literacy Readers." In SIGDOC' 09 Proceedings of the 27th ACM International Conference on Design of Communication, pp. 29-36. 米倉律, 谷正名 (2012). 国内在住外国人のメディア環境とメディア行動一 4 国籍の外国人向け電話アンケート調査から一. 放送研究と調査 Aug., pp. 62-75. ## 略歴 田中\cjkstart英輝:1982 年九州大学工学部電子工学科卒業. 1984 年同大学院修士課程修了. 同年 NHK 入局, 1987 年放送技術研究所研究員. (株) 国際電気通信基 礎技術研究所 (ATR) 出向. 同音声翻訳通信研究所主任研究員, 音声言語コミュニケーション研究所室長を経て, 現在, 放送技術研究所ヒューマンインターフェース研究部上級研究員。テキストの平易化,機械翻訳などの自然言語処理の研究に従事. 博士 (工学). 熊野正:1993 年東京工業大学工学部情報工学科卒業. 1995 年同大学院理工学研究科情報工学専攻修了. 同年 NHK 入局.(株)国際電気通信基礎技術研究所 (ATR) 音声言語通信研究所および同音声言語コミュニケーション研究所出向を経て, 現在, 放送技術研究所ヒューマンインターフェース研究部主任研究員. 自然言語処理・音声言語処理の研究開発に従事. 後藤功雄:1995 年早稲田大学理工学部電気工学科卒業. 1997 年同大学院理工学研究科修士課程修了. 2014 年京都大学大学院情報学研究科博士課程修了.博士 (情報学),1997 年 NHK 入局,(株)国際電気通信基礎技術研究所 (ATR) および国立研究開発法人情報通信研究機構出向を経て, 現在, 放送技術研究所ヒューマンインターフェース研究部にて自然言語処理の研究に従事. 美野秀弥:2002 年東京工業大学情報理工学部計算工学科卒業. 2004 年同大学院情報理工学研究科修士課程修了. 同年 NHK 入局, 北見放送局, 国立研究開発法人情報通信研究機構出向を経て, 現在, 放送技術研究所ヒューマンインターフェース研究部研究員. 自然言語処理の研究に従事.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## タスク指向対話におけるユーザ要求の理解とその根拠の抽出 福永隼也 ${ }^{\dagger} \cdot$ 西川仁 $^{\dagger} \cdot$ 徳永健伸 $\dagger \cdot$ 横野光 $^{\dagger \dagger} \cdot$ 高橋哲朗 $^{\dagger}$ 本論文は,データベース検索対話においてデータベースフィールドに直接言及しないが,データベースへのクエリを構成する上で有益な情報をユーザ発話から取り出す課題を提案する。このような情報を本論文では非明示的条件と呼ぶ. 非明示的条件を解釈し,利用することによって,対話システムはより自然で効率的な対話を行うことができる。本論文では,非明示的条件の解釈を,ユーザ発話をデータベースフィールドに関連付け, 同時にその根拠となる発話の断片を抽出する課題として定式化する。この課題を解くために, 本論文では, サポートベクタマシン (SVM), 回帰型畳込みニューラルネットワーク (RCNN), 注意機構を用いた系列変換による 3 つの手法を実装した。不動産業者と顧客との対話を収集したコーパスを用いた評価の結果,注意機構を用いた系列変換による手法の性能が優れていた。 キーワード:夕スク指向対話システム,根拠抽出,サポートベクタマシン,回帰型ニューラルネットワーク,注意機構,系列変換モデル ## Interpretation of Implicit Conditions in Database Search Dialogues \author{ Shun-ya Fukunaga ${ }^{\dagger}$, Hitoshi Nishikawa $^{\dagger}$, Takenobu Tokunaga ${ }^{\dagger}$, Hikaru Yokono ${ }^{\dagger \dagger}$ \\ and Tetsuro Takahashi ${ }^{\dagger \dagger}$ } \begin{abstract} This study focuses on database (DB) search dialogue and proposes to employ user utterance information that does not directly mention the DB field of the back-end system but is useful for constructing DB queries. We name this type of information implicit conditions, the interpretation of which enables the dialogue system to be more natural and efficient in communication with humans. We formalise the interpretation of implicit conditions as the classification of user utterances into the related DB field while simultaneously identifying the evidence for such classification. Introducing this new task is one of the contributions of this paper. We implemented three models for this task: an SVM-based model, an RCNN-based model and a sequence-to-sequence model with an attention mechanism. In an evaluation via a corpus of simulated dialogues between a real estate agent and a customer, the sequence-to-sequence model outperformed than the other models. \end{abstract} Key Words: Task-oriented Dialogue System, Evidence Extraction, Support Vector Machine, Recurrent Neural Network, Attention Mechanism, Sequence-to-Sequence Model  ## 1 はじめに 対話システムがユーザ発話から抽出するべき情報は, 背後にあるアプリケーションに依存する. 対話システムをデータベース検索のための自然言語インタフェースとして用いる場合, 対話システムはデータベースへのクエリを作成するために,ユーザ発話中で検索条件として指定されるデータベースフィールドとその値を抽出する必要がある。データベース検索対話において, ユーザ発話中からこのような情報を抽出する研究はこれまで多くなされてきた。例えば, Raymond and Riccardi (2007), Mesnil, Dauphin, Yao, Bengio, Deng, Hakkani-Tür, He, Heck, Tur, Yu, and Zweig (2015), Liu and Lane (2016b)は, ATIS (The Air Travel Information System) コーパス (Hemphill, Godfrey, and Doddington 1990; Dahl, Bates, Brown, Fisher, Hunicke-Smith, Pallett, Pao, Rudnicky, and Shriberg 1994)を用いて, ユーザ発話からデータベースフィールドの值を抽出する研究を行っている. ATISコーパスは Wizard-of-Ozによって収集されたユーザと航空交通情報システムとの対話コーパスであり, 各ユーザ発話中の表現には, 出発地や到着日などのデータベースフィールドに対応するタグが付与されている. ATISコーパスを用いた研究の課題は夕グの付与された情報を発話から精度よく抽出することである. これらの研究の抽出対象である出発地や到着日などの情報はユーザ発話中に明示的に出現し, 直接データベースフィールドに対応するため, データベース検索のための明示的な条件となる. 一方,実際の対話には,データベースフィールドには直接対応しないものの,クエリを作成するために有用な情報を含む発話が出現し, 対話システムがそのような情報を利用することで, より自然で効率的なデータベース検索を行うことが可能になる. 例として, 不動産業者と不動産を探す客の対話を考える。不動産業者は対話を通じて客が求める不動産の要件を確認し,手元の不動産データベースから客の要件を満たす不動産を絞り込む. このとき, 客の家族構成は,物件の広さを絞り达む上で有用な情報であろう。しかし, 家族構成は物件の属性ではなく客の属性であるため, 通常, 不動産データベースには含まれない。客の家族構成のように,データベースフィールドには直接対応しないが,データベース検索を行う上で有用な情報を非明示的条件と呼ぶ (Fukunaga, Nishikawa, Tokunaga, Yokono, and Takahashi 2018). 我々は, 非明示的条件を「データベースフィールドに明示的に言及しておらず, 『x ならば一般的に y である』という常識や経験的な知識によってデータベースフィールドと値の組(検索条件)へ変換することができる言語表現」と定義する。例えば,「一人暮らしをします」という言語表現は,物件の属性について明示的に言及していない。しかし, 『一人暮らしならば一般的に物件の間取りは れは非明示的条件となる。一方,「賃料は 9 万円を希望します」や「築年数は 20 年未満が良いです」のような言語表現は,データベースフィールドに明示的に言及しているため, 非明示的条件ではない.また,「渋谷で探しています」のようにデータベースフィールドが省略されてい る場合でも,省略の補完によって【エリア】というデータベースフィールドに明示的に言及する表現に言い換えることが可能である場合は非明示的条件とはみなさない. Taylor (1968)による情報要求の分類に照らすと,明示的な検索条件は,ユーザ要求をデータベースフィールドとその値という形式に具体化しているため, 調整済みの要求 (compromised need) に対応する。一方,非明示的条件は,ユーザ自身の問題を言語化しているが検索条件の形式に具体化できていないため, 形式化された要求 (formalised need) に対応する. 非明示的条件を利用する対話システムを実現するためには,以下の 2 つの課題が考えられる. (1)非明示的条件を含むユーザ発話を,データベースフィールドとその値の組(検索条件)へ変換する。 (2) ユーザ発話中から,(1)で行った検索条件への変換の根拠となる部分を抽出する. 課題 (1) は,非明示的条件を含む発話からデータベースへのクエリを作成するために必要な処理である。図 1 に示す対話では,客の発話に含まれる「一人暮らし」という文言から,〈間取り $\leq 1 \mathrm{LDK}\rangle$ という検索条件へ変換できる,本論文では,課題 (1)を,発話が関連するデータベー スフィールドを特定し,そのフィールドの値を抽出するという 2 段階に分けて考え,第一段階のデータベースフィールドの特定に取り組む. 1つのユーザ発話が複数のデータベースフィー ルドに関連することもあるので,我々はこれを発話のマルチラベル分類問題として定式化する。発話からフィールドの值を抽出する第二段階の処理は, 具体的なデータベースの構造や内容が前提となるため, この論文では扱わず,今後の課題とする。 課題 (2) によって抽出された根拠はデータベースへのクエリに必須ではないが,システムがユーザへの確認発話を生成する際に役立つ。非明示的条件を検索条件へ変換する際に用いるのは常識や経験的な知識であり例外も存在するため,変換結果が常に正しいとは限らない.例えば,不動産検索対話において一人暮らしを考えている客が 2 LDK の物件を希望することもありうる。したがって,システムの解釈が正しいかどうかをユーザに確認する場合がある。この際, システムが行った解釈の根拠を提示することで,より自然な確認発話を生成することができる.図 1 のやり取りにおいて,「一人暮らしをしたいのですが.」というユーザ発話をシステムが〈間 対話例 4月から**大学に入学します. 一人暮らしをしたいのですが. 一人暮らしということですので,間取りは1LDK以下でよろしいですか?検索条件への変換 非明示的条件:一人暮らし 検索条件:間取りฏ1K 図 1 対話と非明示的条件から検索条件への変換の例 取り $\leq 1 \mathrm{LDK}\rangle$ という検索条件へ変換したとする。このとき,単に「間取りは $1 \mathrm{LDK}$ 以下でよろしいですか?」と確認するよりも,「一人暮らしということですので, 間取りは 1LDK 以下でよろしいですか?」とシステムが判断した理由を追加することでより自然な対話となる。また,対話として自然なだけではなく,ユーザがシステムの判断に納得するためにも根拠を提示することは重要である (Gunning 2018; Monroe 2018)。このような確認発話を生成する祭に,ユーザ発話中の「一人暮らし」という表現を〈間取り $\leq 1 L D K 〉 の$ 根拠として抽出することは有用である。 また,非明示的条件を含むユーザ発話が与えられたとき,その非明示的条件に関連するデー タベースフィールドについての質問を生成するためにも抽出した根拠を利用できる。例えば,図 1 中のユーザ発話を【間取り】というデータベースフィールドへ分類し,その根拠として「一人暮らし」を抽出した場合,「一人暮らしということですが,間取りはいかがなさいますか?」 という質問を生成できる。非明示的条件に対応できない対話システムでは,このようなユーザ発話に対して, ユーザ発話を理解できなかったという返答を行うか, まだ埋まっていない検索条件について質問を行うことしかできない. また,根拠を抽出し,蓄積することにより,対話中でどのような非明示的条件が出現しやすいかということを,システムの開発者が知ることができる。仮に,「一人暮らし」や「家族 4 人」 のような客の家族構成の情報が頻繁に出現することがわかれば,システムの開発者は,家族構成に関係する情報をデータベースに新規に追加するという改良を施すことができる. 本論文では,データベースフィールドへのマルチラベル分類と同時に,根拠抽出を行う.非明示的条件から検索条件への変換の根拠を各発話に対してアノテーションすることはコストが高いため,教師なし学習によって根拠抽出を行う. 本論文の貢献は,データベース検索を行うタスク指向対話において,非明示的条件を含むユー ザ発話をデータベースフィールドと値の組(検索条件)へ変換し,同時にその根拠をユーザ発話中から抽出する課題を提案することである。本稿では,この課題の一部であるデータベースフィールドへの分類と根拠抽出を行うために, (1) サポートベクタマシン (SVM), (2) 回帰型畳达みニューラルネットワーク $(\mathrm{RCNN}),(3)$ 注意機構を用いた系列変換による 3 種類の手法を実装し,その結果を報告する。 本論文の構成は以下の通りである.2節では関連研究について述べ,本論文の位置付けを明らかにする. 3 節では本論文で利用するデータと問題設定について詳述する.4節ではデータベー スフィールドへの分類とその根拠抽出手法について述べる。 5 節では評価実験の結果について述べ,6節で本論文をまとめる. ## 2 関連研究 伝統的なタスク指向対話システムは自然言語理解, 対話状態推定, 方策学習, 自然言語生成の4つのモジュールのパイプラインによって構成される (Chen, Liu, Yin, and Tang 2017). 自然言語理解はさらに, ユーザ意図推定とスロットフィリングの 2 つの処理に分けることができる. ユーザ意図推定はユーザ発話を意図のカテゴリに分類する処理である。一方,スロットフィリングはユーザ発話の意味的な内容をスロットと值の組として出力する処理であり,例えば「ニュー ヨークからシカゴまで行きます」というユーザ発話に対し, 〈出発地=ニューヨーク〉, 〈目的地 =シカゴ〉を出力する。この一般的な枠組みから言えば,我々の取り組む課題はスロットフィリングに相当する。 自然言語理解におけるスロットフィリングは,発話中の各単語に対して,意味的なスロットの IOB タグ (Ramshaw and Marcus 1995) を付与する系列ラベリング問題として定式化されることが多い. 近年では,多くの文献で,この問題を解くための手法として回帰型ニューラルネットワーク (RNN) (Mesnil, He, Deng, and Bengio 2013; Yao, Zweig, Hwang, Shi, and Yu 2013; Mesnil et al. 2015; Vu, Gupta, Adel, and Schutze 2016; Jaech, Heck, and Ostendorf 2016; Liu and Lane 2016b, 2016a; Bapna, Tur, Hakkani-Tür, and Heck 2017) や Long Short-Term Memory (LSTM) (Yao, Peng, Zhang, Yu, Zweig, and Shi 2014; Hakkani-Tür, Tur, Celikyilmaz, Chen, Gao, Deng, and Wang 2016) が用いられている. しかし, これらの文献で捉えようとしているのは発話中で明示的に言及された意味的なスロットのみであり,我々が対象としている非明示的条件はスロットフィリングの対象としていない. また, 対話状態推定のシェアドタスクとして Dialog State Tracking Challenge 5 (DSTC5) (Kim, D’Haro, Banchs, Williams, Henderson, and Yoshino 2016) がある. DSTC5 は,対話中の各時点での対話状態を推定する課題であり,1つの発話のみではなく,文脈を用いてスロットフィリングを行う必要がある。 そのため, 各時点の発話中に明示的に現れていない値をスロットに埋めることが必要となる.例えば, Hori, Wang, Hori, Watanabe, Harsham, Roux, Hershey, Koji, Jing, Zhu, and Aikawa (2016)は,指示形容詞や指示代名詞によって参照される,発話中には明示的に現れない値を抽出することを目指している。 しかし, 本研究で対象とする非明示的条件は,1 節で述べたように推論を必要とする表現であり,DSTC5ではそのような表現からのスロットフィリングを対象としていない. タスク指向対話システムにおいて, 非明示的条件からのスロットフィリングを対象とした研究はほとんど存在しない. Celikyilmaz, Hakkani-tür, and Tur (2012)は, 映画検索を行うタスク指向対話システムにおいて, ユーザ発話から, ユーザの求めている映画のジャンルを推定する課題に取り組んでいる。彼らの目的は,ジャンルについて明示的に言及していないユーザ発話からもジャンルの推定を行うことである。例えば, 彼らは “I wanna watch a movie that will make me laugh." というユーザ発話から, ユーザが求める映画のジャンルが comedyであるということを推定する.彼らの研究の動機は我々とほとんど同じであるが,彼らはジャンルの推定結果たけを出力し, そのユーザ発話からそのジャンルが推定できる理由を提示していない点で, 我々の目的とは異なる。また, 彼らは映画のジャンルという 1 つ属性についてのみ推定を行っているが,我々は複数のデータベースフィールドに対する推定を行う。 近年では,パイプライン処理による伝統的なタスク指向対話システムとは異なり,ひとつひとつのモジュールを明示的に作成せず, ユーザ発話から直接システム発話を生成する End-to-End のタスク指向対話システムも提案されている. Eric, Krishnan, Charette, and Manning (2017)は,知識ベースを検索するユーザ発話に対して,その検索結果を提示することが可能な End-to-End の対話システムを提案している。しかし,このシステムは,与えられたユーザ発話に対して,その検索結果が得られた理由については説明しない. 我々の課題では, 非明示的条件が与えられた際,データベースへのクエリを作成するために変換が必要となるが,システムが必ず正しい変換を行う保証は無い.近年,「説明のできる $\mathrm{AI} 」$ の重要性が指摘されているように (Gunning 2018; Monroe 2018), 自然で効率的な対話を実現するためには, システムによる変換理由の説明やユーザへの確認を行う発話を用意することが必要である。しかし, 現在の End-to-End の枠組みでは,これを実現することは難しい. ## 3 データと問題設定 本論文では,対話コーパスとして不動産検索対話コーパス (Takahashi and Yokono 2017)を用いる.このコーパスは物件を探す客と不動産業者を演じる 2 名の作業者間で行われる日本語テキストチャット対話を収集したものである。対話の目的は客の物件に対する希望を不動産業者が聞き出すことである.不動産業者は実際にデータベースの検索を行うことはしないが,検索に必要な情報が十分得られたと判断した場合に対話を終了する。それぞれの対話において,客は 10 種類のプロファイルのうち 1 つが割り当てられ, そのプロファイルに合致する条件の物件を希望するよう指示されている,客のプロファイルは不動産業者には開示されない.実際のプロファイルの例として以下のようなものがある。「30 代共働き夫婦、保育園坚の子ども 1 人。新婚時代から通勤利便性重視で都心寄りの 1LDK マンションに住んでいたが、2人目を考えるにあたって、少し郊外でも治安の良い地域で広めの家に引っ越したい。」 コーパス中の対話数は 986 対話, 総発話数は 29,058 発話であり, そのうち不動産業者の発話が 14,571 発話, 客の発話が 14,487 発話である. また, 1 対話あたりの平均発話数は 29.5 発話である. 我々は, このコーパス中の各発話に対し, 表 1 に示すデータベースフィールドタグをアノテー 表 1 データベースフィールドタグ ションした (Fukunaga et al. 2018)1. これらのデータベースフィールドタグは, 日本の不動産情報サイト SUUMO 2 で不動産検索を行う際に指定可能な検索条件をもとに設計した。また,どのデータベースフィールドにも該当しない発話に付与する【その他】タグを定義した。これらのタグを,2 名のアノテータによって 986 対話全てにアノテーションし,そのうち 50 対話については,アノテーションの一致率を調べるために両者によるアノテーションを行った.アノテー 夕には,対象の発話とそれ以前の文脈を見て,その発話で言及されているデータベースフィー ルドをタグ付けするよう指示した。また,どのデータベースフィールドにも該当しない発話に非明示的条件が含まれることを期待し,【その他】タグを付与する際には,その意味内容を自由記述するよう指示した。両者がアノテーションした 50 対話におけるアノテー夕間の Cohen's $\kappa$ (Cohen 1960)は 0.79 であり, アノテーションは十分に一致している.ここで,【その他】タグの意味内容は自由記述でありアノテータによって表記が異なるため, 意味内容の記述の一致は考慮していない. 表 2 に実際の対話とアノテーション例を示す.表中の「店」が不動産業者の発話,「客」が客の発話を表す.タグが“一”となっている発話は,対話を開始したり,客に発話を促すような,対話管理レベルの発話であるため,アノテーションの対象外とした.【その他】タグが付与された発話については,自由記述された意味内容を括弧内に示している。 本論文では,【その他】が付与された客の発話に非明示的条件が含まれると仮定し,それらを 38 種類のデータベースフィールドタグに分類することと, その分類の根拠となる発話の断片を  表 2 対話とアノテーション例 & 【その他】(住む人数) \\ 抽出することを課題とする,客の発話は,その直前の不動産業者側の発話と合わせて,ひとつのテキストとして扱う ${ }^{3}$. 本論文では,これを発話チャンクと呼ぶ,客の発話とその直前の不動産業者側の発話をひとつのテキストとして扱うのは,客が直前の不動産業者の問いに対する単なる肯定/否定の発話をすることがあるためである。例えば,表 2 中の 6 発話目は「はい、そうです。」という客による単なる肯定の発話であり,この発話単体では実質的な情報は得られない.しかし,直前の不動産業者の「現在はご夫婦とお子様お一人ということですね?」という問いと組み合わせることによって家族構成の情報が得られ,【間取りタイプ】のようなデータベー スフィールドへの分類が可能になる。対話コーパス中から, 非明示的条件を含む(【その他】夕  グが付与された客の発話を含む)発話チャンクは全部で 2,642 個収集できた. 1つの非明示的条件から複数のデータベースフィールドへ変換される場合もあるため, データベースフィールドへの分類問題は,通常のマルチラベル分類問題として定式化できる。すなわち,入力の発話チャンク $\boldsymbol{x}$ に対し,データベースフィールドタグの部分集合 $Y \subseteq\{$ 【沿線】,【駅徒歩】, ㄱ\} を出力することが本研究の課題である. また, 分類根拠の抽出は, 入力の発話チャンク $\boldsymbol{x}$ に対する分類結果中のそれぞれのデータベースフィールドタグ $y \in Y$ について,その根拠となる断片の集合 $E_{y} \subseteq \operatorname{Substr}(\boldsymbol{x})$ を出力する問題として定式化する.ここで, $\operatorname{Substr}(\boldsymbol{x})$ は発話チャンク $\boldsymbol{x}$ 中に含まれるすべての部分文字列の集合を表す. ## 4 データベースフィールドへの分類および根拠抽出手法 本論文では, サポートベクタマシン (SVM), 回帰型畳み込みニューラルネットワーク (RCNN),注意機構を用いた系列変換による 3 つの手法を実装する. ## 4.1 SVMによる手法 それぞれのデータベースフィールドタグについて,入力の発話チャンクをそのデータベースフィールドへ変換できるか否かを分類する二値分類器を線形SVM によって作成する。すなわち, 全部で 38 個の二値分類器を作成する。 入力の発話チャンクが与えられたとき, システムの最終的な出力は分類器が正と判断したデータベースフィールドの集合となる.SVM の素性として,発話チャンクの bag-of-words を用いる。素性に使用する単語はコーパス中で 2 回以上出現する名詞, 動詞, 形容詞, 副詞の原形である。発話チャンクの形態素解析には, $\mathrm{MeCab}^{4}$ を使用する。また,数と固有名詞については,抽象化のためにそれぞれ NUM と PROP という記号に置き換える。 分類の根拠抽出には, 各データベースフィールドタグの分類器で学習された素性の重みを用いる,入力の発話チャンク中で,あらかじめ決めた閥値以上の重みを持つ単語を全て抽出し, それらを分類の根拠とする。素性の重みは, 式 (1)によって 0 から 1 に正規化する. ここで, $w$ は正規化前の重み, $w_{\min }$ と $w_{\max }$ はそれぞれ, 学習デー夕に含まれる単語の重みの最小值と最大値である. $ \hat{w}=\frac{w-w_{\min }}{w_{\max }-w_{\min }} $ ^{4}$ http://taku910.github.io/mecab/ } ## $4.2 \mathrm{RCNN$ による手法} 我々は, Lei, Barzilay, and Jaakkola (2016) が提案した手法を拡張し, 我々の課題に利用する. Lei らの手法は, 商品レビューのテキストが入力として与えられたとき, それぞれの評価項目についてのユーザ評価を回帰によって推定し, その結果の根拠となる部分を入力テキストから抽出するものである.彼らのシステムは,回帰問題を解くニューラルネットワーク(エンコー ダ)と根拠の抽出を行うニューラルネットワーク(ジェネレータ)の2つの要素からなる。エンコーダの学習はレビューテキストに対する真のユーザ評価を用いた教師あり学習によって行われる。一方, ジェネレータの学習は教師なし学習で行われる. 彼らは, より短く, より連続した単語列が根拠として好ましいと仮定し, ジェネレータがそのような根拠抽出を行うよう損失関数を設計している。また,エンコーダは,ジェネレータが正しく根拠を抽出していると仮定し, ジェネレータによって抽出された単語のみをユーザ評価の推定に用いる. 彼らは, 教師あり学習でエンコーダの性能を向上させることで, 間接的にジェネレータの性能を向上させることを狙っている。 我々の課題は, 入力の発話チャンクからデータベースフィールドへのマルチラベル分類である. RCNNによる手法も,SVMによる手法と同様に,マルチラベル分類を各データベースフィー ルドへの二値分類として扱う。それぞれの二値分類とその根拠抽出を行うためにLei らの手法を利用する。本論文で用いる,1つのデータベースフィールドに対するエンコーダとジェネレー タのネットワークをそれぞれ図 2 , 図 3 に示す. $\boldsymbol{x}_{t}$ を入力発話チャンクの $t$ 番目の単語の埋め込みべクトルとすると, エンコーダは, 入力発話チャンクに対するそのデータベースフィールドへの二値分類の推定結果 $\tilde{y} \in[0,1]$ を, $ \begin{aligned} \boldsymbol{h}_{t} & = \begin{cases}f_{e}\left(\boldsymbol{x}_{t}, \boldsymbol{h}_{t-1}\right) & \left(\tilde{z}_{t}=1\right) \\ \boldsymbol{h}_{t-1} & \left(\tilde{z}_{t}=0\right)\end{cases} \\ \tilde{y} & =\sigma_{e}\left(W^{e} \boldsymbol{h}_{m}+\boldsymbol{b}^{e}\right) \end{aligned} $ 図 2 エンコーダ 図 3 ジェネレー夕 によって計算する。ここで, $\boldsymbol{h}_{t}$ は $t$ 番目の単語までの隠れ状態ベクトルを表し, $\tilde{z}_{t} \in\{0,1\}$ は後述するジェネレータによって $t$ 番目の単語が根拠として抽出されるかどうかを表す. $f_{e}$ は各時点の入力と直前の隠れ状態べクトルを受け取り, 次の隠れ状態べクトルを計算する関数であり,詳細は後述する.式 (2)では, $\tilde{z}_{t}=1$ である場合にのみ隠れ状態べクトルを更新する。これは根拠として選択された単語のみを二值分類に使用することを意味する. 最終的な出力は, 最後の隠孔状態べクトル $\boldsymbol{h}_{m}$ をさらに, 重み行列が $W^{e}$, バイアスが $\boldsymbol{b}^{e}$, 活性化関数がシグモイド関数 $\sigma_{e}$ である順伝播型ニューラルネットワーク (FFNN) に入力した結果である. Lei らの手法では回帰問題を解くために損失関数として二乗損失を用いているが, 我々は二值分類を解くため,代わりに以下の交差エントロピーをエンコーダの損失関数 $\mathcal{L}(\tilde{y}, y)$ として使用する. $ \mathcal{L}(\tilde{y}, y)=-(y \log (\tilde{y})+(1-y) \log (1-\tilde{y})) $ ここで $y \in\{0,1\}$ は二值分類の正解である. ジェネレータは以下の式によって, $t$ 番目の単語を根拠として抽出するかどうかを表す $\tilde{z}_{t} \in\{0,1\}$ を計算する。 $ \begin{aligned} \overrightarrow{\boldsymbol{h}}_{t} & =\vec{f}\left(\boldsymbol{x}_{t}, \overrightarrow{\boldsymbol{h}}_{t-1}\right) \\ \overleftarrow{\boldsymbol{h}}_{t} & =\overleftarrow{f}\left(\boldsymbol{x}_{t}, \overleftarrow{\boldsymbol{h}}_{t+1}\right) \\ p\left(\tilde{z}_{t} \mid \boldsymbol{x}_{1, t-1}, \tilde{z}_{1, t-1}\right) & =\sigma_{z}\left(W^{z}\left[\overrightarrow{\boldsymbol{h}}_{t} ; \overleftarrow{\boldsymbol{h}}_{t} ; \boldsymbol{s}_{t-1}\right]+\boldsymbol{b}^{z}\right) \\ \tilde{z}_{t} & \sim p\left(\tilde{z}_{t} \mid \boldsymbol{x}_{1, t-1}, \tilde{z}_{1, t-1}\right) \end{aligned} $ $ \boldsymbol{s}_{t}=f_{z}\left(\left[\overrightarrow{\boldsymbol{h}}_{t} ; \overleftarrow{\boldsymbol{h}}_{t} ; \tilde{z}_{t}\right], \boldsymbol{s}_{t-1}\right) $ ここで, $\overrightarrow{\boldsymbol{h}}_{t}, \overleftarrow{\boldsymbol{h}}_{t}$ はそれぞれ単語列を右向き,左向きに入力したときの隠れ状態べクトルを表し, $\vec{f}, \overleftarrow{f}$ はそれぞれの隠れ状態べクトルを更新する関数である。また,隠れ状態ベクトル $s_{t}$ は, $t$単語目までに, どのような単語を根拠として抽出したかを保存するためのべクトルである. これらの 3 つの隠れ状態べクトルを連結して, 重み行列が $W^{z}$, バイアスが $\boldsymbol{b}^{z}$, 活性化関数がシグモイド関数 $\sigma_{z}$ である FFNNに入力し, $\tilde{z}_{t}$ の確率分布 $p\left(\tilde{z}_{t} \mid \boldsymbol{x}_{1, t-1}, \tilde{z}_{1, t-1}\right)$ を推定する。 $\boldsymbol{x}_{1, t-1}$ は 1 単語目から $t$ 単語目までの埋め込みベクトルの列を表し, $\tilde{z}_{1, t-1}$ は 1 単語目から $t-1$ 単語目までの根拠抽出の推定結果を表す. 式 (8) は, 推定した確率分布 $p\left(\tilde{z}_{t} \mid \boldsymbol{x}_{1, t-1}, \tilde{z}_{1, t-1}\right)$ からサンプリングを行い, $\tilde{z}_{t}$ の値を決定する操作を表す。 $\tilde{z}_{t}$ は前述の通りエンコーダに入力する。また, $\tilde{z}_{t}$ を $\overrightarrow{\boldsymbol{h}}_{t}, \overleftarrow{\boldsymbol{h}}_{t}$ と連結し, 関数 $f_{z}$ によって隠れ状態べクトル $s_{t}$ を更新する。ジェネレータには,根拠抽出の正解を与えないが,代わりに根拠として望ましい性質を満たすよう損失関数を設計する.Lei らの手法と同様に,短く,連続した単語列が根拠として望ましいという仮定に基づき,式 (10)のように損失関数を定義する. $ \Omega\left(\tilde{z}_{1, m}\right)=\lambda_{1} \sum_{t=1}^{m} \tilde{z}_{t}+\lambda_{2} \sum_{t=1}^{m}\left|\tilde{z}_{t}-\tilde{z}_{t-1}\right| $ ここで, $\tilde{z}_{0}=0$ とする. 式 (10) の第 1 項は根拠が短くなることを, 第 2 項は根拠が連続することを,それぞれ促す罰則項である。これら 2 つの罰則項のバランスを調整するために 2 つのハイパーパラメータ $\lambda_{1}$ と $\lambda_{2}$ がある。エンコーダとジェネレータを合わせた全体の損失関数を, $ \operatorname{cost}\left(\tilde{z}_{1, m}, \boldsymbol{x}_{1, m}, y\right)=\mathcal{L}(\tilde{y}, y)+\Omega\left(\tilde{z}_{1, m}\right) $ ## とする. エンコーダとジェネレータにおいて,隠れ状態べクトルの更新に用いる関数 $f_{e}, \vec{f}, \overleftarrow{f}, f_{z}$ はすべて,以下のように,入力べクトル列の bi-gram までの畳み込みを用いて次の時刻の状態を計算する。 $ \begin{aligned} \lambda_{t} & =\sigma\left(W^{\lambda} \boldsymbol{x}_{t}+U^{\lambda} \boldsymbol{h}_{t-1}+\boldsymbol{b}^{\lambda}\right) \\ \boldsymbol{c}_{t}^{(1)} & =\lambda_{t} \boldsymbol{c}_{t-1}^{(1)}+\left(1-\lambda_{t}\right)\left(W_{1} \boldsymbol{x}_{t}\right) \\ \boldsymbol{c}_{t}^{(2)} & =\lambda_{t} \boldsymbol{c}_{t-1}^{(2)}+\left(1-\lambda_{t}\right)\left(\lambda_{t} \boldsymbol{c}_{t-1}^{(1)}+W_{2} \boldsymbol{x}_{t}\right) \\ \boldsymbol{h}_{t} & =\tanh \left(\boldsymbol{c}_{t}^{(2)}+\boldsymbol{b}\right) \end{aligned} $ $\boldsymbol{x}_{t}$ は時刻 $t$ の入力ベクトル, $\boldsymbol{h}_{t-1}$ は時刻 $t-1$ の隠れ状態ベクトルである. $\lambda_{t}$ は忘却係数であり, $\boldsymbol{x}_{t}$ と $\boldsymbol{h}_{t-1}$ によって計算する。 $\boldsymbol{c}_{t}^{(n)}$ は $n$-gram までの畳み込みべクトルであり,ここでは bi-gram までを使用し,次の時刻の状態 $\boldsymbol{h}_{t}$ を計算する. ## 4.3 注意機構を用いた系列変換による手法 対話データからスロットフィリングを行う手法として Hori et al. (2016) が提案する注意機構を用いた系列変換による手法を我々の課題に適用する。この手法は, Dialog State Tracking Challenge 5 (Kim et al. 2016)のために提案された手法であり, 入力として対話中の単語列を受け取ってスロットと値の組の系列を出力する,我々の課題では,出力をデータベースフィールドタグの系列とする。この手法では, SVM やRCNNによる手法とは異なり,1つのネットワー クによりマルチラベル分類を行う. 系列変換のネットワークは, エンコーダとデコーダの 2 つの部分からなる. $\boldsymbol{x}_{t}(1 \leq t \leq m)$ を入力発話チャンクの $t$ 番目の単語の埋め込みべクトルとすると, エンコーダでは以下の双方向 LSTM を用いて,各単語に対応する隠れ状態べクトル $\boldsymbol{h}_{t}$ を計算する. $ \begin{aligned} \boldsymbol{h}_{t} & =\left[\boldsymbol{h}_{t}^{(f)} ; \boldsymbol{h}_{t}^{(b)}\right], \\ \boldsymbol{h}_{t}^{(f)} & =\operatorname{LSTM}\left(\boldsymbol{x}_{t}, \boldsymbol{h}_{t-1}^{(f)}\right), \\ \boldsymbol{h}_{t}^{(b)} & =\operatorname{LSTM}\left(\boldsymbol{x}_{t}, \boldsymbol{h}_{t+1}^{(f)}\right) . \end{aligned} $ また, デコーダでは,注意機構によって重み付けした各単語の隠れ状態べクトルを用いて,デー タベースフィールドタグの系列を出力する。 $i$ 番目の出力における $t$ 番目の単語の隠れ状態べクトルに対する重み $\alpha_{i, t}$ を, $ \begin{aligned} \alpha_{i, t} & =\frac{\exp \left(e_{i, t}\right)}{\sum_{t=1}^{m} \exp \left(e_{i, t}\right)}, \\ e_{i, t} & =\boldsymbol{w}^{T} \tanh \left(W \boldsymbol{s}_{i-1}+V \boldsymbol{h}_{t}+\boldsymbol{b}\right) \end{aligned} $ によって計算する。ここで, $\boldsymbol{w}, \boldsymbol{b}$ はべクトルであり $, W, V$ は行列である. デコーダでは $\alpha_{i, t}$ によって重み付けしたエンコーダの隠れ状態ベクトルの和 $\boldsymbol{g}_{i}=\sum_{t=1}^{m} \alpha_{i, t} \boldsymbol{h}_{t}$ を LSTM に入力し,各データベースフィールドの確率を表すべクトル $\boldsymbol{p}_{i}$ を出力する. $ \begin{aligned} & \boldsymbol{s}_{i}=\operatorname{LSTM}\left(\boldsymbol{s}_{i-1}, \boldsymbol{y}_{i}, \boldsymbol{g}_{i}\right) \\ & \boldsymbol{p}_{i}=\operatorname{softmax}\left(W_{S O} \boldsymbol{s}_{i-1}+W_{G O} \boldsymbol{g}_{i}+\boldsymbol{b}_{S O}\right) \end{aligned} $ ここで, $\boldsymbol{y}_{i}$ は, $i$ 番目の出力を表すベクトルであり,学習時には正解のベクトルを与え,テスト時には以下のように $\boldsymbol{p}_{i}$ から最も確率の高いデータベースフィールドを推定したべクトル $\tilde{\boldsymbol{y}}_{i}$ を与える。 $ \left(\tilde{\boldsymbol{y}}_{i}\right)_{j}= \begin{cases}1 & \left(j=\underset{k}{\arg \max }\left(\boldsymbol{p}_{i}\right)_{k}\right) \\ 0 & (\text { otherwise })\end{cases} $ $\boldsymbol{y}_{i}$ は出力するデータベースフィールドに対応する要素のみが 1 で, 残りが 0 であるようなべクトルである。本来, 各発話チャンクに付与されるデータベースフィールドタグは系列では無いが, 本手法で学習データとして与える際には, 対応する添字の小さい順に正解のべクトルを作成し系列として与える。学習時の損失関数には交差エントロピー損失を用いる. Hori et al. (2016)の手法では根拠抽出を行っていないが, 我々は注意機構により計算される重み $\alpha_{i, t}$ が間値よりも大きい単語を, $i$ 番目に出力されるデータベースフィールドの根拠として抽出する。閥値には, 定数か, 各発話チャンクに含まれる単語数の逆数を用いる. 単語数の逆数を閥値に用いる理由は, 発話チャンク中の単語数の違いを考慮するためである. 注意機構による重みは各発話チャンクの単語全体で 1 となるため, 仮に全単語に均等な重みを割り当てた場合, 単語数が多いほど各単語に割り当てられる重みは小さくなる。したがって, 定数の閾値を用いた場合, 発話チャンク中の単語数によって閥値の価値が変わってしまう。このため, 単語数の逆数を閾値とする場合の実験も行う. ## 5 評価実験 ## 5.1 データ 我々は, コーパス中の 986 対話を, 客のプロファイルの分布を保ちながら 10 分割し, そのうち 9 つを学習データ, 残り 1 つをテストデータとして用いた. そして, 3 節で説明したように非明示的条件を含む発話チャンクを抽出した。その際, 発話チャンク内のユーザ発話が, 挨拶や対話の開始, 終了のような対話管理レベルの発話であるような発話チャンクは除いた. 学習データは 2,379 個, テストデータは 263 個の発話チャンクからなる. それぞれの発話チャンク内のユーザ発話には, 3 節で説明したように,【その他】夕グとその意味内容の記述が付与されている.我々は,意味内容の記述をデータベースフィールドタグに写像することで,分類の正解を発話チャンクに付与した. 例えば,「一人暮らしをしたいのですが」という発話に付与された「住む人数」という意味内容の記述は,【間取りタイプ】と【専有面積】の2つのタグに写像される。 また,分類の正解として付与されたそれぞれのデータベー スフィールドに対して, 発話チャンク中の各単語がそのフィールドへの分類の根拠に含まれるか否かを付与し,これを根拠抽出の正解とした。これらのアノテーションは著者のうち 1 人が行った。 ## 5.2 実験設定 データ数の制約から, 本論文では【周辺環境】,【間取りタイプ】,【専有面積】,【一部屋の広さ】,【エリア】の5つのデータベースフィールドタグについてのみ評価を行う。これらは, 最も多くの発話チャンクに付与された 5 つタグである。学習データ中でそれぞれのタグが付与 された発話チャンク数は,【周辺環境】について 1,033 , 【間取りタイプ】について 974, 【専有面積】について 964,【一部屋の広さ】について 927,【エリア】について 778 である. 学習データにおける 38 種類のデータベースフィールドタグの分布を図 4 に示す. SVM による手法には,単語を根拠として抽出するかを決定するための,素性の重みの閥値がハイパーパラメータとして存在する。このハイパーパラメータを決定するために,学習データ中から【周辺環境】が付与された発話チャンクをランダムに 200 個抽出し, 開発データとした. そして, 残りの学習データでSVMによる手法の学習を行い, 開発デー夕によって評価を行った. その結果,閥値を 0.58 とした場合に開発デー夕において最も良い性能を示したため, このハイパーパラメータを 5 のタグについての評価実験で使用した. 1つの発話チャンクに対する素性ベクトルの次元数は 1,730 である。また,不均衡デー夕に対応するためにSVM の正例(負例)に対する正則化パラメータ $C$ を全事例数 $/(2 \times$ 正例(負例)の数 $)$ とすることにより重み付けを行った。 RCNN による手法には,抽出する根拠の単語長と根拠の連続性のバランスを調整する 2 つの 図 4 学習データにおける各データベースフィールドタグの分布 表 3 ニューラルネットワーク手法の学習設定 ハイパーラパメータ $\lambda_{1}, \lambda_{2}$ がある.SVMによる手法で使用したものと同じ開発デー夕を用い,同様の方法で最適なパラメータを求めた結果, $\lambda_{1}=0.021, \lambda_{2}=0.003$ であった. また, 学習時の初期パラメータを,ランダムな值とする場合と,開発データで学習したネットワークのパラメータとする場合の 2 種類の設定で実験を行う. 開発データで学習したパラメータを初期値として用いる理由は, 【周辺環境】についての学習を通して, 他のデータベースフィールドタグに共通の表現を学習していることを期待するためである。単語埋め込みベクトルとして, 学習済みの日本語 Wikipedia エンティティベクトル 5 を用いた。各単語べクトルの次元数は 200 である.エンコーダおよびジェネレータの隠れ状態ベクトルは $s_{t}$ を除き 200 次元とし, $s_{t}$ は 30 次元とした. これらの設定は, Lei et al. (2016)と同一である. その他の学習の設定は表 3 の通りである。ドロップアウトは, Lei et al. (2016)による実装と同様に $s_{t}$ 以外の全ての結合に適用した. ネットワークの総パラメータ数は 694,319 である. 注意機構を用いた系列変換による手法においても,各単語を根拠として抽出するかどうかを決定するための, 注意機構の重みの閾値がハイパーパラメータとして存在する,RCNNによる手法, SVMによる手法と同様の開発デー夕を用い, 同様の方法で最適な間値を求めた結果, その値は 0.0525 であった. Hori et al. (2016)の手法では入力の単語埋め达みの学習も行っているが, ここでは, 分類・根拠抽出部分の比較を行うために, RCNNによる手法と同様の学習済みの単語埋め込みベクトルを用いる。エンコーダおよびデコーダの隠れ状態べクトルは Hori et al. (2016)に倣い 50 次元とした。その他の学習の設定は表 3 の通りである. ドロップアウトは全ての結合に適用した. ネットワークの総パラメータ数は 151,889 である. ## 5.3 評価尺度 各データベースフィールドの二值分類の評価尺度として精度, 再現率, $\mathrm{F}$ 值を使用する。根拠抽出の評価は, 分類に正解した事例のみに対して行い, 評価尺度として BLEU (Papineni, Roukos, Ward, and Zhu 2002) と ROUGE (Lin and Hovy 2003)を用いる. また, これらの尺度の類推として, $N$-gram までの F 值の幾何平均も評価に用いる。 $N$-gram までの BLEU, ROUGE, F 值の幾何平均を,それぞれ BLEU $N$, ROUGE- $N$, F- $N$ とすると, これらは次のように計算でき ^{5}$ http://www.cl.ecei.tohoku.ac.jp/ ${ }^{\text {m-suzuki/jawiki_vector/ }}$ } る.まず, $\tilde{\boldsymbol{z}}=\left(\tilde{z}_{1}, \tilde{z}_{2}, \cdots, \tilde{z}_{m}\right)$ と $\boldsymbol{z}=\left(z_{1}, z_{2}, \cdots, z_{m}\right)$ を,それぞれ推定された根拠と正解の根拠を表す二値べクトルとする。ここで, $\tilde{z}_{j}, z_{j} \in\{0,1\}(1 \leq j \leq m)$ であり,これらのべクトルの要素が 1 となることは,対応する位置の単語が根拠として選択されることを意味する,推定された根拠と正解の根拠に含まれる $n$-gram の集合をそれぞれ $\tilde{G}_{n}, G_{n}$ とし,式 $(24),(25)$ によって定義する。 $ \begin{aligned} & \tilde{G}_{n}=\left.\{\{j\}_{j=t}^{t+n-1} \mid 1 \leq t \leq m-n+1 \wedge\left(\prod_{j=t}^{t+n-1} \tilde{z}_{j}\right)=1\right.\}, \\ & G_{n}=\left.\{\{j\}_{j=t}^{t+n-1} \mid 1 \leq t \leq m-n+1 \wedge\left(\prod_{j=t}^{t+n-1} z_{j}\right)=1\right.\} . \end{aligned} $ ここで $\{j\}_{j=t}^{t+n-1}$ は $t$ から $t+n-1$ までのインデックスの系列を表す. これらの集合を用いて, BLEU- $N$ , ROUGE- $N$ ,F- $N$ をそれぞれ式 (26),(27),(28)によって計算する. $ \begin{aligned} \operatorname{BLEU}-N & =\left(\prod_{n=1}^{N} P_{n}\right)^{1 / N}, P_{n}=\left.\{\begin{array}{ll} 1 & \left(\left|\tilde{G}_{n}\right|=0\right) \\ \frac{\left|\tilde{G}_{n} \cap G_{n}\right|}{\left|\tilde{G}_{n}\right|} & (\text { otherwise) } \end{array},\right. \\ \operatorname{ROUGE}-N & =\left(\prod_{n=1}^{N} R_{n}\right)^{1 / N}, R_{n}=\left.\{\begin{array}{ll} 1 & \left(\left|G_{n}\right|=0\right) \\ \frac{\left|\tilde{G}_{n} \cap G_{n}\right|}{\left|G_{n}\right|} & (\text { otherwise) } \end{array},\right. \\ \mathrm{F}-N & =\left(\prod_{n=1}^{N} F_{n}\right)^{1 / N}, F_{n}=\left.\{\begin{array}{ll} 0 & \left(P_{n}+R_{n}=0\right) \\ \frac{2 P_{n} R_{n}}{P_{n}+R_{n}} & \text { (otherwise) } \end{array} .\right. \end{aligned} $ ROUGE- $N$ は一般的に $N$-gram のみの再現率を表すが,本稿では全ての $n$-gram $(n \leq N)$ の再現率の幾何平均を表す。また,BLEUには短すぎる出力に対する罰則を導入することが一般的であるが,本稿の評価では,短すぎる出力に対しては ROUGEの値が小さくなるため,BLEU に対する罰則は導入していない。 根拠抽出の評価における $N$ の範囲を定めるために,テストデータに対して各手法によって抽出された根拠,およびテストデータに付与された根拠抽出の正解に含まれる $n$-gram の数を調査した。その結果を表 4 に示す。表中の「ランダム」と「事前学習」の行はそれぞれ, RCNN の初期パラメータをランダムな値とした場合と, 5.2 項で述べた開発データによって学習したパラメータとした場合の結果である。また,「Seq2Seq」は注意機構を用いた系列変換による手法の結果を表し,「定数」と「逆数」の行はそれぞれ,根拠抽出の閥値を定数とした場合と,発話チャンク中の単語数の逆数とした場合の結果である。閾値を定数とした系列変換による手法を除いて,5-gram 以上は根拠抽出結果にほとんど含まれないことから,根拠抽出の評価は 4-gram 表 4 根拠抽出結果と正解の根拠に含まれる $n$-gram の数 まで行えば十分である。したがって,根拠抽出の評価には BLEU-1 から BLEU-4, ROUGE-1 から ROUGE-4, F-1 から F-4を用いる. また, 各事例ごとに式 (26), (27), (28) にしたがって BLEU- $N$, ROUGE- $N$, F- $N$ を計算すると, 各事例中の n-gram の少なさから分母が 0 となることが多いため, 全事例での評価にはマイクロ平均を用いる. ## 5.4 実験結果 データベースフィールドへの分類結果を表 5 に示す。また,【周辺環境】、【間取りタイプ】, 【専有面積】、【一部屋の広さ】、【エリア】に対する根拠抽出結果をそれぞれ表 6 から表 10 に示す.データベースフィールドへの分類については全体的に系列変換による手法が良好な結果を示した。なお,系列変換による手法では,根拠抽出の閾値の設定によらず分類結果は同じであるため,表 5 ではまとめて記載している。根拠抽出については全体的に,BLEU- $N$ においては SVM による手法が,ROUGE- $N$ においては,定数を閾値に用いた系列変換による手法がより高い評価值を示した。また, F- $N$ は, $N=1$ の場合は SVMによる手法の評価が高く, それ以上では系列変換による手法の評価が高かった。また, RCNNによる手法の 2 通りのパラメータの 表 5 データベースフィールドへの分類結果 & 0.789 & 0.796 & 0.793 & $\underline{0.918}$ & 0.865 & $\underline{0.891}$ & 0.891 & 0.874 & 0.882 \\ & 0.729 & 0.761 & 0.745 & 0.874 & 0.865 & 0.870 & $\underline{0.919}$ & $\underline{0.883}$ & $\underline{0.901}$ \\ & 0.900 & 0.862 & 0.880 & 0.875 & 0.895 & 0.885 \\ 表 6 【周辺環境】に対する根拠抽出結果 表 7 【間取りタイプ】に対する根拠抽出結果 & 0.525 & 0.444 & 0.404 & 0.507 & 0.342 & 0.192 & 0.106 & 0.000 & 0.414 & 0.264 & 0.160 & 0.000 \\ $\quad$ 逆数 & 0.449 & 0.432 & 0.365 & 0.307 & 0.311 & 0.181 & 0.097 & 0.059 & 0.367 & 0.249 & 0.145 & 0.094 \\ 表 8 【専有面積】に対する根拠抽出結果 表 9 【一部屋の広さ】に対する根拠抽出結果 初期値による結果を比較すると, 分類については【周辺環境】以外ではランダムな初期値としたほうが良好な結果であり,根拠抽出についてはあまり差がないことがわかる. 【周辺環境】タグの根拠抽出について,各手法が正しく抽出できた例と抽出を誤った例を図 5 に示す. 図中の網掛けされた単語または単語列は正解の根拠を, 枠で囲まれた単語または単語列は各手法で抽出した根拠を表す. 図中の発話チャンク $\mathrm{a}, \mathrm{d}, \mathrm{g}$ がそれぞれの手法で正しく根拠 表 10 【エリア】に対する根拠抽出結果 を抽出できた例である。ここで抽出できた根拠は,ユーザ発話に関係するデータベースフィー ルドについて質問するシステム発話を生成することに利用できる。例えば,発話チャンク $\mathrm{d} て ゙ ~$ は「治安」という根拠を抽出できているため,「治安のいいところがいいです。」というユーザ発話に対して,「『治安』を気にされているようですが,周辺環境のご希望はございますか?」という発話が可能である。 ## 5.5 考察 ## 5.5.1 SVM による手法 【周辺環境】への分類において,正解は負例であるにも関わらず正例だと判断した例(偽陽性の誤り)は 24 例存在した。これらの事例を個々に分析した結果, 正例によく出現する単語, すなわち大きな重みを持つ単語が発話チャンクに含まれるために正例だと判断された誤りが, 24 例中 12 例で最も多いことがわかった. これには, 分類の手がかりとなる単語と頻繁に共起するものの単独では手がかりにならない単語が含まれる場合と,発話チャンクの分割方法に問題がある場合の 2 種類がある。前者の場合では,例えば「面」という単語は「治安」という【周辺環境】への強力な手がかりとなる単語と共起しやすいため,大きな重みを持つ。これは,「治安面」という名詞句としてや,「立地面」への希望を尋ねる不動産業者の質問に対してユーザが 「治安の良い地域」と答える形で出現するためである。しかし,「面」という単語が含まれているだけでは【周辺環境】への手がかりとはならない,例えば,以下の発話チャンクには「面」という単語が含まれているものの,【周辺環境】を推論することができないため負例である。 店:お部屋の階数にご希望はございますか? 客:セキュリティーの面から 2 階以上がいいなと思ってます 発話チャンクの分割方法に問題がある例として,以下の発話チャンクにおける「治安面です ## SVMKよる手法 正しく根拠を抽出できた例 a. $ \begin{aligned} & \text { 店どういった物件をお探しですか? } \\ & \text { 客医向けの物件を希望します。 } \\ & \hline \end{aligned} $ 根拠抽出を誤った例 b. 店2階以上の御希望はございますか? 客帰りが深夜になることもありますので、1階にしておきます。 ## RCNNによる手法 正しく根拠を抽出できた例 d. $\begin{array}{ll}\text { 店物件についてその他ご希望はございますか? } \\ \text { 客治安のいいところがいいです。 }\end{array}$ 根拠抽出を誤った例 e. $\begin{array}{ll}\text { 店 } & \text { 近くにコンビニがあると良い等、周りの環境に希望はありますか? } \\ \text { 客周囲がうるさすぎるような場所は遠慮したいですね。 }\end{array}$ f. $\begin{array}{ll}\text { 店周辺環境についてのご希望はありますか? } \\ \text { 客買い物が便利なところだと嬉しいです。 }\end{array}$ ## 注意機構を用いた系列変換モデルによる手法 正しく根拠を抽出できた例 g. $\begin{array}{ll}\text { 店 } & \text { 御希望のエリアはございますか? } \\ \text { 客仕事で夜遅い日が多いので、職場の近くで探しています。 }\end{array}$ 根拠抽出を誤った例 h. i. はい【、共働きで息子が保育園なので、駅から徒歩圏内で、近隣に客いくつか保育園や保育所のあるエリアが希望です。多少郊外でもかまいませんゅ 図 5 【周辺環境】タグに対する根拠の抽出例(網掛け部:正解, 枠囲み部:システムの出力) ね。のような, 不動産業者が直前のユーザ発話への確認を行う部分に分類の手がかりとなる単語が含まれる場合がある。 店: 治安面ですね。子供が多いエリアがいいなどのご希望はございますか? 客:そうですね。子どもが多いエリアを強く希望します。 これは本来直前の発話チャンクに含まれるべき部分であるが,今回は対話コーパス中の話者交替で機械的に発話チャンクを分割したため,このような例が発生した. 一方,正解は正例であるにも関わらず負例だと判断した例(偽陰性の誤り)は 23 例存在した. そのうち 7 例については, 式 (1)による正規化前の重みが負であり, その絶対値が大きい単語を含む例であった。これらの中には,1つの発話チャンク内で,【周辺環境】に加えてそれ以外のデータベースフィールドに関する言及のある場合があった.例えば,以下の発話チャンクには,「落ち着いた地域」という【周辺環境】を推論可能な表現に加え,「練馬区周辺」という具体的なエリアに対する言及も含まれている。 店: 最寄り駅など、場所はどのあたりでお探しでしょうか? 客: 練馬区周辺で落ち着いた地域を希望します。 このうちの「区」という単語が,絶対値の大きな負の重みを持つために,この発話チャンクは負例だと判断された。これはこの手法がデータベースフィールドへのマルチラベル分類を,各データベースフィールドへの二值分類として扱い,他のデータベースフィールドについて考慮していないために発生した誤りである。また, 偽陽性の誤りの場合と同様に,直前のユーザ発話に対する確認の部分が発話チャンクに含まれてしまい,そこに絶対値の大きな負の重みを持つ単語が存在することにより分類を誤った例もあった. 根拠抽出を発話チャンク中の各単語が根拠に含まれるか否かの二值分類として考え,その混同行列を作成することで,どのような単語を根拠として誤って抽出したか,あるいはどのような単語を根拠として抽出できなかったかを分析する。表 11 は【周辺環境】タグにおけるそれぞれの手法の混同行列であり,表中の数は単語数を表す.SVMによる手法の混同行列を見ると,正解の根拠に含まれるにも関わらず根拠として抽出できなかった単語が 193 語と多い. これらの単語の多くは, 助詞であった. 例えば,図 5 の発話チャンク bでは「が」や「に」などの助詞を抽出できていない。これは,SVMによる手法が素性として用いる単語に助詞が含まれていないためである。また,SVMによる手法で用いられる発話チャンクの素性は bag-of-wordsであり,単語の隣接を無視した素性となっていることも原因である. しかし, 対話システムが, 後続の処理において確認発話を生成する際には, これらの助詞も分類の根拠に含まれることが望ましく,SVMによる手法が助詞を含めて根拠を抽出できるよう素性を改良することが必要である. 表 12 にそれぞれの手法で抽出された根拠と正解の根拠における 1 発話チャンクあたりの平均単語数と平均区間数および区間内単語数(1 区間あたりの平均単語数)の比較を示す。ここで,区間とは,連続して根拠となる単語列のことを指す。表を見ると,SVMによる手法が抽出した根拠の単語数は, 正解の根拠の単語数よりも特に少ない。また, 1 区間あたりの平均単語数(区間内単語数)はほぼ 1 であり,連続した単語列を根拠として抽出できていないことを示す。こ 表 11 【周辺環境】における根拠抽出の混同行列 表 12 根拠として抽出される平均単語数と平均区間数, および 1 区間あたりの平均単語数の比較 & 単語数 & 区間数 & & 単語数 & 区間数 & \\ & 単語数 & 区間数 & \\ ランダム & 4.40 & 2.82 & 1.56 & 4.00 & 3.43 & 1.17 \\ 事前学習 & 3.60 & 2.19 & 1.64 & 3.07 & 2.49 & 1.23 \\ $\quad$ 定数 & 5.90 & 2.65 & 2.23 & 5.12 & 2.33 & 2.20 \\ 逆数 & 2.63 & 1.91 & 1.37 & 2.31 & 1.77 & 1.31 \\ れは先述のとおり, 助詞を根拠として抽出できなかったためである. 素性の重みの大きさと分類根拠としての正しさとの関係を調べるために, 各単語の素性の重みの大きさとその単語がテストデータにおいて正解の根拠に含まれる割合を分析した. 5 つのデータベースフィールドタグについての分析結果を図 6 に示す. 図中の横軸は式 (1) によって 0 から 1 に正規化した素性の重みであり,縦軸は正解の根拠に含まれる割合である.5つのタグにおける,素性の重みの大きさと正解の根拠に含まれる割合との間のピアソンの積率相関係数はそれぞれ $0.39 , 0.36,0.36 , 0.39 , 0.32$ であった.いずれも弱い正の相関であり,必ずしも重みの大きい単語が正解の根拠に含まれるわけではないことを示す.これは上述のように,単独では分類の手がかりとは考えられないにも関わらず,分類の手がかりとなる単語と共起しやすいために大きな重みを持ってしまう単語が存在するためである。例えば,図 5 の発話チャンク cでは,分類の誤り分析でも述べたように「面」という単語が大きな重みを持つために根拠として抽出されているが,正解の根拠には含まれていない. ## 5.5.2 RCNNによる手法 初期パラメータをランダムな値にした場合と開発データによって事前学習を行った場合では,【周辺環境】タグを除いて, ランダムな値とした場合が分類においてより良好な結果であった. これは, 【周辺環境】の正例のみから作成した開発データで学習されたパラメータは, 他のタグへの分類には有効ではないことを示す。一方,【周辺環境】においては性能が向上していることから,他の夕グについても,夕グごとの開発データを用いて事前学習を行うことで性能が向上する可能性がある. RCNN による手法は,データベースフィールドへの分類を学習する際,発話チャンク中のすべての単語ではなく, 分類の根拠として抽出された単語のみを使用する。したがって, データベースフィールドへの分類の性能が根拠抽出の性能に大きく依存することが予想できる.パラメータを事前学習したRCNNによる手法において分類の性能と根拠抽出の結果との関係を分析するために,テストデータ中の事例を分類が正解したか否かと, 根拠抽出結果と正解の根拠との単語の重なりの有無に基づき 4 種類に分類する. ここで,根拠抽出結果 $\tilde{\boldsymbol{z}}=\left(\tilde{z}_{1}, \tilde{z}_{2}, \cdots, \tilde{z}_{m}\right)$ と正解の根拠 $\boldsymbol{z}=\left(z_{1}, z_{2}, \cdots, z_{m}\right)$ との単語の重なりがあるというのは, $\tilde{z}_{t}=z_{t}=1$ なる $t$ が少なくとも 1 つ存在することである. 正解の根拠がアノテーションされているのは分類の正例のみであるため, この分析は分類の正例のみについて行う.【周辺環境】,【間取りタイプ】,【専 有面積】、【一部屋の広さ】、【エリア】の5つのデータベースフィールドについて,テストデー 夕中の分類の正例を 4 種類に分類し,それぞれの事例数を数えた結果を表 13 に示す.【周辺環境】において,重なりがある 90 例のうち 73 例 (81\%) は分類結果が正解であるのに対し,重なりが無い 23 例中の正解は 14 例 $(60 \%)$ にとどまっている. この傾向は他の 4 つのデータベースフィールドタグについても同様である。このことから, 根拠抽出の性能とデータベースフィー (a)【周辺環境】 (c)【専有面積】 (e)【エリア】 (b)【間取りタイプ】 (d)【一部屋の広さ】 図 $6 \mathrm{SVM}$ の素性の重みの大きさと正解の根拠に含まれる割合との関係 ルドへの分類性能との間には相関があることがわかる. したがって, 根拠抽出の性能を向上させることで分類の性能も向上する可能性がある. しかし,表 13 は,RCNNによる手法の根拠抽出が完全に誤っているにも関わらず,分類に正解している例が存在することも示している,我々は【周辺環境】タグについて,推定の根拠と正解の根拠の重なりがないものの,分類に正解している 14 例(表 13 中の,重なりが「無し」 で分類が正解である例)について分析を行った。その結果,分類の手がかりとなっているものの,根拠の正解には含まれない単語があることがわかった。例えば,図 5 中の発話チャンク e では, 「近く」という単語が抽出されているが, この単語は, 【周辺環境】タグへ変換する根拠とは言えず,正解としてアノテーションされていない.しかし,RCNNによる手法はこの例を正しく【周辺環境】タグへ分類することができていた。これは,「近く」という単語が学習デー 夕中の正例において負例よりも 2 倍多く出現し, 【周辺環境】タグへの分類の手がかりとなったためだと考えられる。これは,発話中で人間が分類の根拠だと考える部分と, RCNNによる分類器が手がかりとして使用する部分が異なるということを意味する。この解釈を裏付ける結果として, 同じパラメータのエンコーダに対し, ジェネレータで抽出した単語を入力した場合と,根拠としてアノテーションされた単語, すなわち正解の根拠を入力した場合との分類結果の比較を表 14 に示す。ここで,根拠がアノテーションされているのは分類の正例のみであるため,再現率のみを示している。【専有面積】、【部屋の広さ】、【エリア】については, 正解の根拠を分類に使用しているにも関わらず,再現率はジェネレータの出力を入力した場合よりも低いことがわかる.このことから,エンコーダが正しい分類を行うためには,人間が根拠であると考える部分だけでは不十分であると言える。データベースフィールドへの分類性能を向上させるためには, このような, 根拠としてアノテーションされていないものの, 分類に役立つ情報を利用できるよう手法を拡張する必要がある. 表 13 各データベースフィールドタグの正例を,分類が正解したか否かと,根拠抽出結果と正解の根拠との単語の重なりの有無に基づいて分類した結果 表 $14 \mathrm{RCNN}$ による手法のエンコーダに, ジェネレータの出力を入力した場合と正解の根拠を入力した場合の再現率 表 12 において,RCNNによる手法で抽出された根拠と正解の根拠とを比較すると, RCNNによる手法は正解よりも少ない単語を根拠として抽出している一方, 抽出された区間数は正解よりも多い。その結果 1 区間あたりの平均単語数は正解の半分未満となったものの, SVM による手法のそれよりは若干多く,より長い根拠を抽出していることがわかる。これが, RCNNによる手法がSVM による手法よりも高いROUGE を達成した要因である。また,このことは,より連続した根拠を選ぶように設計したジェネレータの損失関数が期待通りのはたらきをしていることを示している. 表 11 を見ると, 正解の根拠に含まれるにも関わらずRCNNによる手法が根拠として抽出できなかった単語は 165 単語と多い. これらの単語には「が」や「に」のような助詞が多く含まれていた。例えば, 図 5 中の発話チャンク $\mathrm{f}$ では, 正解の根拠が「お買い物が便利」という単語列であるのに対し,推定した根拠では助詞である「が」を抽出できなかった。助詞はどのようなデータベースフィールドにおいても出現するため分類に重要な素性ではない. そのため, 根拠として抽出することが出来なかったと考えられる. また,RCNNによる手法によって出力された【周辺環境】タグに対する根拠について個々に分析を行ったところ, テストデータ中のすべての事例において疑問符「?」の直後の単語を根拠として抽出することがわかった.疑問符はほとんどの場合において不動産業者による質問の最後の単語であり,その直後の単語というのはユーザ発話の一番最初の単語である。実際に,図 5 中の発話チャンク $\mathrm{d}, \mathrm{e}, \mathrm{f}$ のいずれにおいても,ユーザ発話の一番最初の単語が根拠として抽出されている.【周辺環境】タグへの分類の強力な手がかりとなる語として「治安」という単語があるが,学習デー夕における「治安」の出現のうち $41.3 \%$ 疑問符の直後であるため, RCNN による手法のジェネレータはこの共起を学習したと考えられる。しかし, 実際のテストデータにおいて,疑問符の直後の単語が根拠の正解に含まれる例は全体の $40.4 \%$ だり,これによって根拠抽出の精度が低下した。 RCNN による手法がデータベースフィールドタグへの分類とその根拠抽出の両方において性能が低かった原因として,データの不足が考えられる。本論文では, 学習データに 2,379 個の発話チャンクのみを使用したが,RCNN による手法の元となる論文 (Lei et al. 2016)では, 約 8 万から 9 万のレビューテキストを用いている.我々の課題でもデータを増やすことによって RCNN による手法の性能を改善できる可能性がある。 ## 5.5.3注意機構を用いた系列変換による手法 表 12 を見ると, 定数を根拠抽出の閾値として用いた場合は, 正解と比較してより多くの単語を根拠として抽出している。閥値として単語数の逆数を用いた場合も,SVM や RCNNによる手法と比較するとより多くの単語を抽出しており, 正解の単語数や区間内単語数により近い. これが,注意機構を用いた系列変換による手法が根拠抽出において SVM による手法や RCNN による手法よりも良好な結果となった理由だと考えられる。図 5 の発話チャンク $\mathrm{g}$ は閾値として単語数の逆数を用いた場合の例であるが,SVM や RCNNによる手法で正しく抽出できた例 (a, d) と比較すると,より長い根拠を抽出することができている。実際,SVM や RCNNによる手法で完全に正しい根拠を抽出できた例はいずれも 1 単語のみの根拠であるため, この手法は他の手法と比べてより長い根拠を正しく抽出できたと言える。一方,表 11 見ると,注意機構を用いた系列変換による手法の根拠抽出では,偽陽性の誤りが多く,余分な単語を抽出しすぎていることがわかる.特に,定数を間値とした場合は,この誤りが非常に多い.図 5 の発話チャンクhは,定数を閾値とした場合の例であるが,正解が「治安」のみであるのに対し,推定結果では発話チャンクのほとんどの単語を根拠として抽出してしまっていることがわかる。これは,今回䦭値として用いた値が 0.0525 と非常に小さかったためである。また,発話チャンク i も同様に定数を閥值とした場合の例であるが,「共働きで息子が保育園」という根拠を正しく抽出することができているが,「、」「。」という,根拠にも分類の手がかりにもならない単語が抽出されてしまっている。これは, 注意機構で計算されるこれらの単語の重みが比較的大きいことを示す.したがって,このような単語を抽出しないように,閾値の設定などの抽出方法を工夫する必要がある. ## 5.5.4 非明示的条件を含むか否かの分類 本論文では,あらかじめ非明示的条件を含むとわかっている発話チャンクのみに焦点を当て, データベースフィールドへの分類および根拠抽出の対象とした。しかし, 実際の対話では, 非明示的条件を含まない発話も対話システムに入力されるため,事前に各発話チャンクが非明示的条件を含むか否かの二値分類を行う必要がある。そこで,双方向 RNN (Bi-RNN) と双方向 LSTM (Bi-LSTM) による 2 つの二値分類手法を実装し,その性能を評価する。これらの手法では入力発話チャンク中の単語列を, 順方向と逆方向の RNN または LSTM に入力し, それぞれの最終状態を連結したべクトルを FFNNへ入力することで,正負の二値を出力する.二値分類手法の学習およびテストには, 非明示的条件を含まない発話チャンクも合わせた全ての発話チャンクを用いる.学習に用いる発話チャンクは 13,034 個であり,そのうち 2,379 個 (18.3\%) が非明示的条件を含む。テストに用いる発話チャンクは 1,430 個であり,そのうち 263 個 $(18.4 \%)$ が非明示的条件を含む。用いる単語埋め込みべクトルは 5.2 項で述べたものと同様である.また,双方向 RNN と双方向 LSTM の隠れ状態ベクトルの次元数は 200 とし, その他の学習の設定は表 3 と同様である。二値分類の結果を表 15 に示す. これらのナイーブな手法で $77.4 \%$ の値を達成できているため, さらに洗練された手法を用いることでより高い性能を達成できる可能性がある。 表 15 非明示的条件を含むか否かの二値分類結果 ## 6 結論 本論文は,データベース検索を行うタスク指向対話を対象として,ユーザ発話中で明示的に述べられていないユーザ要求の解釈を行う課題を提案した. 我々はこのように明示的に述べられないユーザ要求を非明示的条件と呼び,その解釈を,ユーザ発話を関連するデータベースフィー ルドに分類し,また同時にその根拠となるユーザ発話中の文字列を抽出する課題として定式化した. この課題に対する 3 つの手法として, サポートベクタマシン, 回帰型畳込みニューラルネットワーク,注意機構を用いた系列変換による手法を実装した。不動産に関する対話のコー パスを利用した評価実験の結果,注意機構を用いた系列変換による手法がより良好な結果を示すことがわかった. 本論文では,ユーザ発話をデータベースフィールドに分類することと,発話からその根拠を抽出することにのみ焦点を当てたが,実際にユーザ発話からデータベースクエリを生成するためには,データベースフィールドの値も抽出することが必要である.また,データベースフィー ルドの値を抽出することができれば,「一人暮らしということですので,間取りは1LDK 以下でよろしいですか?」のようなユーザへの確認発話を生成することができる。 そのためには実際の値を含むデータベースが必要となるため,この問題に取り組むことは今後の課題である。また,本論文で取り組んだのは,非明示的条件を含むユーザ発話を,発話ごとに解釈する自然言語理解の課題である。発話ごとに解釈した結果は文脈を考慮していないため,それまでの対話で既に言及されたデータベースフィールドを再び抽出してしまう可能性があり,そのまま対話システムに使用することは不適切である. Dialogue State Tracking Challenge 5 (Kim et al. 2016) で行っているように,それまでにユーザが検索条件として指定したデータベースフィールドを内部状態として記憶しておき,ユーザ発話を解釈するたびにそれを更新する対話状態推定の課題に取り組む必要がある。本論文で提案した手法による分類結果を用いて,対話状態推定を行う手法を考案し,評価することは今後の課題である. ## 参考文献 Bapna, A., Tur, G., Hakkani-Tür, D., and Heck, L. (2017). "Sequential Dialogue Context Modeling for Spoken Language Understanding." In Proceedings of the 18th Annual SIGdial Meeting on Discourse and Dialogue (SIGDIAL 2017), pp. 103-114. Celikyilmaz, A., Hakkani-tür, D., and Tur, G. (2012). "Statistical Semantic Interpretation Modeling for Spoken Language Understanding with Enriched Semantic Features." In Spoken Language Technology Workshop (SLT), 2012 IEEE, pp. 216-221. Chen, H., Liu, X., Yin, D., and Tang, J. (2017). "A Survey on Dialogue Systems: Recent Advances and New Frontiers." SIGKDD Explorations Newsletter, 19 (2), pp. 25-35. Cohen, J. (1960). "A Coefficient of Agreement for Nominal Scales." Educational and Psychological Measurement, 20 (1), pp. 37-46. Dahl, D. A., Bates, M., Brown, M., Fisher, W., Hunicke-Smith, K., Pallett, D., Pao, C., Rudnicky, A., and Shriberg, E. (1994). "Expanding the Scope of the ATIS Task: The ATIS-3 Corpus." In Proceedings of the Workshop on Human Language Technology, HLT '94, pp. 43-48. Eric, M., Krishnan, L., Charette, F., and Manning, C. D. (2017). "Key-Value Retrieval Networks for Task-Oriented Dialogue." In Proceedings of the 18th Annual SIGdial Meeting on Discourse and Dialogue (SIGDIAL 2017), pp. 37-49. Fukunaga, S., Nishikawa, H., Tokunaga, T., Yokono, H., and Takahashi, T. (2018). "Analysis of Implicit Conditions in Database Search Dialogues." In Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC 2018), pp. 2741-2745. Gunning, D. (2018). "Explainable Artificial Intelligence (XAI)." https://www.darpa.mil/program/explainable-artificial-intelligence 2018 年 11 月 7 日閲覧. Hakkani-Tür, D., Tur, G., Celikyilmaz, A., Chen, Y.-n., Gao, J., Deng, L., and Wang, Y.-y. (2016). "Multi-Domain Joint Semantic Frame Parsing Using Bi-Directional RNN-LSTM." In INTERSPEECH-2016, pp. 715-719. Hemphill, C. T., Godfrey, J. J., and Doddington, G. R. (1990). "The ATIS Spoken Language Systems Pilot Corpus." In Proceedings of the Workshop on Speech and Natural Language, HLT '90, pp. 96-101. Hori, T., Wang, H., Hori, C., Watanabe, S., Harsham, B., Roux, J. L., Hershey, J. R., Koji, Y., Jing, Y., Zhu, Z., and Aikawa, T. (2016). "Dialog State Tracking with Attention-based Sequence-to-sequence Learning." In 2016 IEEE Spoken Language Technology Workshop (SLT), pp. 552-558. Jaech, A., Heck, L., and Ostendorf, M. (2016). "Domain Adaptation of Recurrent Neural Networks for Natural Language Understanding." In INTERSPEECH-2016, pp. 690-694. Kim, S., D'Haro, L. F., Banchs, R. E., Williams, J. D., Henderson, M., and Yoshino, K. (2016). "The Fifth Dialog State Tracking Challenge." In Proceedings of the 2016 IEEE Workshop on Spoken Language Technology (SLT), pp. 511-517. Kingma, D. P. and Ba, J. (2014). "Adam: A Method for Stochastic Optimization." arXiv preprint arXiv:1412.6980. Lei, T., Barzilay, R., and Jaakkola, T. (2016). "Rationalizing Neural Predictions." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing (EMNLP 2016), pp. 107-117. Lin, C.-Y. and Hovy, E. (2003). "Automatic Evaluation of Summaries using N-gram Cooccurrence Statistics." In Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology-Volume 1 , pp. 71-78. Liu, B. and Lane, I. (2016a). "Attention-Based Recurrent Neural Network Models for Joint Intent Detection and Slot Filling." In INTERSPEECH-2016, pp. 685-689. Liu, B. and Lane, I. (2016b). "Joint Online Spoken Language Understanding and Language Modeling with Recurrent Neural Networks." In Proceedings of the 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL 2016), pp. 22-30. Mesnil, G., Dauphin, Y., Yao, K., Bengio, Y., Deng, L., Hakkani-Tür, D., He, X., Heck, L., Tur, G., Yu, D., and Zweig, G. (2015). "Using Recurrent Neural Networks for Slot Filling in Spoken Language Understanding." IEEE/ACM Transactions on Audio, Speech, and Language Processing, 23 (3), pp. 530-539. Mesnil, G., He, X., Deng, L., and Bengio, Y. (2013). "Investigation of Recurrent-NeuralNetwork Architectures and Learning Methods for Spoken Language Understanding." In INTERSPEECH-2013, pp. 3771-3775. Monroe, D. (2018). "AI, Explain Yourself." Communications of the ACM, 61 (11), pp. 11-13. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting on Association for Computational Linguistics, pp. 311-318. Ramshaw, L. and Marcus, M. (1995). "Text Chunking using Transformation-Based Learning." In 3rd Workshop on Very Large Corpora, pp. 82-94. Raymond, C. and Riccardi, G. (2007). "Generative and Discriminative Algorithms for Spoken Language Understanding." In 8th Annual Conference of the International Speech Communication Association, pp. 1605-1608. Takahashi, T. and Yokono, H. (2017). "Two Persons Dialogue Corpus Made by Multiple Crowdworkers." In Proceedings of the 8th International Workshop on Spoken Dialogue Systems (IWSDS 2017). 6 pages. Taylor, R. S. (1968). "Question-Negotiation and Information Seeking in Libraries." College 8 Research Libraries, 29 (3), pp. 178-194. Vu, N. T., Gupta, P., Adel, H., and Schutze, H. (2016). "Bi-Directional Recurrent Neural Network with Ranking Loss for Spoken Language Understanding." In 2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 6060-6064. Yao, K., Peng, B., Zhang, Y., Yu, D., Zweig, G., and Shi, Y. (2014). "Spoken Language Understanding Using Long Short-Term Memory Neural Networks." In Spoken Language Technology Workshop (SLT), pp. 189-194. Yao, K., Zweig, G., Hwang, M.-y., Shi, Y., and Yu, D. (2013). "Recurrent Neural Networks for Language Understanding." In INTERSPEECH-2013, pp. 2524-2528. ## 略歴 福永隼也:2017 年東京工業大学工学部情報工学科卒業. 同年より東京工業大学情報理工学院修士課程在学中. 学士 (工学). 言語処理学会会員. 西川仁:2006 年慶應義塾大学総合政策学部卒業. 2008 年同大学大学院政策$\cdot$ メディア研究科修士課程修了. 同年, 日本電信電話株式会社入社. 2013 年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. NTTメディアインテリジェンス研究所研究員を経て, 2015 年より東京工業大学情報理工学院助教. 2017 年 IE 経営大学院修士課程修了. 博士 (工学)。自然言語処理, 特に自動要約, 自然言語生成の研究に従事. The Association for Computational Linguistics, 言語処理学会, 人工知能学会, 情報処理学会各会員. 徳永健伸:1983 年東京工業大学工学部情報工学科卒業. 1985 年同大学院理工学研究科修士課程修了. 同年 (株) 三菱総合研究所入社. 1986 年東京工業大学大学院博士課程入学. 現在, 東京工業大学情報理工学院教授. 博士 (工学).専門は自然言語処理, 計算言語学. 情報処理学会, 人工知能学会, 言語処理学会, 計量国語学会, Association for Computational Linguistics, ACM SIGIR, Cognitive Science Society, International Cognitive Linguistics Association 各会員. 横野光 : 2003 年岡山大学工学部情報工学科卒業. 2008 年同大大学院自然科学研究科産業創成工学専攻単位取得退学. 東京工業大学精密工学研究所研究員, 国立情報学研究所特任研究員, 同研究所特任助教を経て, 2016 年より株式会社富士通研究所研究員. 博士 (工学). 意味解析の研究に従事. 情報処理学会, 人工知能学会, 言語処理学会各会員. 高橋哲朗:2005 年奈良先端科学技術大学院大学博士後期課程修了. 博士(工 学). 同年株式会社富士通研究所入社. 2008 年〜2010 年ニフテイ株式会社にて Web サービス開発, 2011 年〜2012 年マサチューセッツ工科大学にて客員研究員を経て, 現在富士通研究所にて自然言語処理およびデー夕分析の研究に従事. (2018 年 8 月 1 日受付) (2018 年 11 月 15 日再受付) (2018 年 12 月 10 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 統計的機械翻訳のための Recursive Neural Network による 事前並び替えと分析 \author{ 瓦祐希 $\dagger \cdot$ Chenhui $\mathrm{Chu}^{\dagger \dagger}$ ・荒瀬由紀 $\dagger$ } 統計的機械翻訳において, 原言語と目的言語における語順の違いは翻訳精度に大きく影響することが知られている。この問題に対して, 翻訳器に入力する前に原言語の語順を並び替える事前並び替え手法が提案されている。先行研究において最高性能を達成している Nakagawa の手法では事前並び替えの学習のために素性テンプレートの設計が必要である。本稿では,データから直接素性べクトルを学習する Recursive Neural Network を用いた事前並び替え手法を提案する。英日・英仏・英中の言語対を用いた評価実験の結果, 英日翻訳では素性テンプレートの設計を必要とせず, Nakagawaの手法と遜色ない精度を達成した。また実験結果の詳細な分析を行い, 事前並び替えに影響を与える要因を分析した。そして近年の機械翻訳において主流となっているニューラル機械翻訳における事前並び替えの効果についても検証した。 キーワード:機械翻訳,事前並び替え, Recursive Neural Network ## Recursive Neural Network-Based Preordering for Statistical Machine Translation and Its Analysis \author{ Yuki Kawara ${ }^{\dagger}$, Chenhui $\mathrm{ChU}^{\dagger \dagger}$ and Yuki Arase ${ }^{\dagger}$ } Word-order differences between source and target languages significantly affect statistical machine translation. This problem can be effectively addressed by preordering. A state-of-the-art preordering method would involve manually designed feature templates. In this paper, we propose a method that uses a recursive neural network that can learn end-to-end preordering. English-Japanese, English-French, and EnglishChinese datasets are extensively evaluated. The results confirm that this method achieves an English-to-Japanese translation quality that is comparable with that of the state-of-the-art method, without manually designed feature templates. In addition, a detailed analysis examines the factors affecting preordering and translation quality as well as the effects of preordering in neural machine translation. Key Words: Machine Translation, Preordering, Recursive Neural Network  ## 1 はじめに フレーズベースの統計的機械翻訳 (Koehn, Och, and Marcu 2003) は, フレーズを翻訳単位として機械翻訳を行う手法である。この手法では局所的な文脈を考慮して翻訳を行うため,英語とフランス語のように,語順が似ている言語対や短い文においては高品質な翻訳を行えることが知られている.しかし, 英語と日本語のように, 語順が大きく異なる言語対では, 局所的な文脈を考慮するだけでは原言語のフレーズを目的言語のどのフレーズに翻訳するかを正しく選択することは難しいため, 翻訳精度が低い。 このような語順の問題に対し,翻訳器のデコーダで並び替えを考慮しつつ翻訳する手法 (Tillmann 2004), 翻訳器に入力する前に原言語文の語順を目的言語文の語順に近づくよう並び替える事前並び替え (Nakagawa 2015), 原言語文をそのまま翻訳した目的言語文を並び替える事後並び替えが提案されている (Hayashi, Sudoh, Tsukada, Suzuki, and Nagata 2013). 特に事前並び替え手法は, 長距離の並び替えを効果的かつ効率的に行える (Jehl, de Gispert, Hopkins, and Byrne 2014; Nakagawa 2015). 先行研究として, Nakagawa (Nakagawa 2015) は Bracketing Transduction Grammar (BTG) (Wu 1997) にしたがって構文解析を行いつつ事前並び替えを行う手法を提案している。この手法は事前並び替えにおいて最高性能を達成しているが, 並び替えの学習のために人手による素性テンプレートの設計が必要である. そこで, 本稿では統計的機械翻訳のための Recursive Neural Network (RvNN) (Goller and Kuchler 1996; Socher, Lin, Ng, and Manning 2011) を用いた事前並び替え手法を提案する. ニューラルネットワークによる学習の特徴として, 人手による素性テンプレートの設計が不要であり, 訓練データから直接素性べクトルを学習できるという利点がある。また,RvNN は木構造の再帰的ニューラルネットワークであり,長距離の並び替えが容易に行える。提案手法では与えられた構文木にしたがって RvNNを構築し, 葉ノードからボトムアップに計算を行っていくことで, 各節ノードにおいて,並び替えに対して重要であると考えられる部分木の単語や品詞・構文タグを考慮した並び替えを行う。 統計的機械翻訳をべースにすることで,事前並び替えのような中間プロセスに注目した手法の性能が翻訳全体に与える影響について明らかにできる利点がある。また統計的機械翻訳のようにホワイトボックス的なアプローチは, 商用翻訳においてシステムの修正やアップデートが容易であるという利点もある。 さらに現在主流のニューラル機械翻訳 (Luong, Pham, and Manning 2015)でも,統計的機械翻訳とニューラル機械翻訳を組み合わせることで性能を向上するモデルが先行研究 (Wang, Tu, Xiong, and Zhang 2017)により提案されており, 統計的機械翻訳の性能を向上させることは有益である. 英日・英仏・英中の言語対を用いた評価実験の結果, 英日翻訳において,提案手法は Nakagawa の手法と遜色ない精度を達成した,また詳細な分析を実施し,英仏,英中における事前並び替えの 性能,また事前並び替えに影響を与える要因を調査した。さらに近年,機械翻訳の主流となっているニューラル機械翻訳 (Luong et al. 2015) において事前並び替えが与える影響についても実験を行い検証した。 ## 2 関連研究 本章では,提案手法と関連の深い事前並び替えに関する既存研究について議論する. Collins ら (Collins, Koehn, and Kucerova 2005) や Gojun and Fraser (Gojun and Fraser 2012), Wang $ら$ (Wang, Collins, and Koehn 2007) は並び替えのルールを定め, そのルールにしたがって事前並び替えを行っている. Xu ら (Xu, Kang, Ringgaard, and Och 2009) や Isozaki ら (Isozaki, Sudoh, Tsukada, and Duh 2010)は木構造に対して並び替えのルールを定め, SVO 型言語である英語から SOV 型言語への翻訳における事前並び替えを行っている。これらの手法のように,ある言語対について並び替えのルールを定めるためには原言語と目的言語についての知識が必要であり,また全ての言語対において並び替えのルールを定めることは難しい.そのため,ルールに基づいた並び替えでは適用可能な言語対が限られてしまう. そこで,対訳コーパスから自動で並び替えを学習する手法も提案されている.Zhang ら (Zhang, Zens, and Ney 2007) や Crego and Habash (Crego and Habash 2008) は $n$-gram からなるチャンクに対して,並び替えルールを対訳コーパスから得る手法を提案している. Crego and Marino (Crego and Mariño 2006) や Tromble and Eisner (Tromble and Eisner 2009)は品詞タグを用いた事前並び替え手法を提案している。また Visweswariah ら (Visweswariah, Rajkumar, Gandhe, Ramanathan, and Navratil 2011) は単語をノードとしたグラフを作成し, 巡回セールスマン問題として並び替えの問題を定式化している. 木構造を用いることで長距離の部分フレーズの並び替えが容易に行えるという利点があるため,木構造を用いる手法も多く提案されている. Xia and McCord (Xia and McCord 2004)や Genzel (Genzel 2010)は木構造から並び替えパターンを抽出し,これを原言語文に適用することで並び替えを行っている。機械学習を用いて並び替えを学習する手法も提案されている. Li ら (Li, Li, Zhang, Li, Zhou, and Guan 2007) は構文木での各ノードにおいて最大エントロピーモデルを用いて,子ノードが 3 つ以内のノードに限定して学習および並び替えを行うモデルを提案している. Lerner and Petrov (Lerner and Petrov 2013) は依存木に対して,子ノードが7つ以内のノードに対して並び替えを行う手法を提案している. Yang ら (Yang, Li, Zhang, and Yu 2012)は並び替えを子ノー ドの順序を求める順序問題とし, Ranking-SVM (Joachims 2002) を用いて子ノードの順序を求めることで並び替えを行っている。 木構造を用いて各ノードにおける子ノードの順序を決定するようなモデルでは, 子ノードの数が多くなるにつれて並び替え候補が爆発的に増加するという問題がある。そこで,木構造を 2 分木に 限定することで,各ノードにおいて子ノードを並び替えるか否かという二値分類の問題として定義できる. Jehl ら (Jehl et al. 2014) は 2 分木に対して, アラインメントの交差が少なくなるようにロジスティック回帰モデルを用いて並び替えを学習する手法を提案している.Hoshino ら (Hoshino, Miyao, Sudoh, Hayashi, and Nagata 2015) は, 2 分木に対して順位相関係数である Kendall の $\tau$ (Kendall 1938) が最大となるように二値分類の分類器を用いて各ノードでの並び替えを行っている. DeNero and Uszkoreit (DeNero and Uszkoreit 2011) は構文解析をしつつ同時に並び替えも学習する手法を提案している. Neubig ら (Neubig, Watanabe, and Mori 2012)は BTGに基づいて構文木の構築および並び替えを行う手法を提案しているが,計算量が多く時間がかかるという問題があった。本稿で比較を行う Nakagawa (Nakagawa 2015)の手法は,BTGに基づく並び替えにおける計算量の問題を解決した手法であり,翻訳において最高性能を達成している,原言語文と単語アラインメントからトップダウンで 2 分木を構築しつつ, 各ノードで並び替えをするか否かを学習する. 2 単語以上のスパンのうち, どこで区切るか, 区切った部分の前後を並び替えるかをトップダウンで再帰的に計算していくことで, 最終的に構文木および各節ノードでのラベルが決定される.構文木を構築しながら並び替えも予測するため構文解析を事前に行う必要がなく, 構文解析器の精度に依ることなく並び替えを行える。しかしその学習のために素性テンプレートを人手で設計する必要がある。 近年では,素性テンプレートの設計を必要としないニューラルネットワークに基づいた手法も提案されている. de Gispert ら (de Gispert, Iglesias, and Byrne 2015) はフィードフォワードニュー ラルネットワーク (FFNN) を用いた 2 分木での並び替えを提案している. Botha ら (Botha, Pitler, Ma, Bakalov, Salcianu, Weiss, McDonald, and Petrov 2017)も FFNN を用いた並び替えを提案しているが,木構造を用いずに並び替えを行っている. Miceli-Barone and Attardi (Miceli Barone and Attardi 2015) は Recurrent Neural Network (RNN) を用いて依存木のノードを辿ることで並び替え手法を提案している,彼らは,単語を出力する “EMIT”,親ノードへ移動する “UP”, $j$ 番目のノードへ移動する“DOWN ${ }^{j}$ ”の 3 つの動作を定義し,RNNで動作を予測することで並び替えを行う. Kanouchi ら (Kanouchi, Sudoh, and Komachi 2016) は統計的機械翻訳の翻訳モデルにより抽出するフレーズペアについて,RvNNを用いて並び替えラべルを推定することで,翻訳システムの内部で翻訳と同時にフレーズの並び替えを行う,提案手法と同様 RvNN を用いているが,提案手法は翻訳システムとは独立して事前並び替えを行う点で異なる。また提案手法では原言語の構文木に対してボトムアップに構築される RvNN を用いて 2 種類のラべルの予測を行うことで,部分木全体を考慮した並び替えを行える。構文木を用いることで,長距離の並び替えがより簡単に行えるという利点がある. Kawara ら (Kawara, Chu, and Arase 2018) は英日対において RvNNを用いた事前並び替え手法を提案し, 提案手法が有効であることを示している。本稿では英日, 英仏,英中対に対して RvNNを用いた事前並び替えを適用し,詳細な分析を行う. ## 3 Recursive Neural Networkによる事前並び替え 本章では提案手法である RvNN による並び替え手法を説明する。まず提案手法のべースとなる,文対における語順の近さを測る指標である Kendall の $\tau$ を説明する。次に節ノードにおける正解ラベル付与のアルゴリズムについて述べ,RvNNを用いた事前並び替えモデルについて述べる. ## $3.1 \quad$ Kendall $の \tau$ Kendall の $\tau$ (Kendall 1938) は順位相関係数の 1 つであり,式 (1) で計算される. $ \begin{aligned} & \tau(\boldsymbol{a})=\frac{4 \sum_{i=1}^{n-1} \sum_{j=i}^{n} \delta\left(\boldsymbol{a}_{i}<\boldsymbol{a}_{j}\right)}{|\boldsymbol{a}|(|\boldsymbol{a}|-1)}-1, \\ & \delta(x)= \begin{cases}1 & (x \text { is true }) \\ 0 & \text { (otherwise) }\end{cases} \end{aligned} $ 数列 $\boldsymbol{a}$ の要素が完全に昇順に並んでいる場合, $\tau(\boldsymbol{a})$ は 1 を,完全に降順であれば -1 をり,それ以外であれば $-1<\tau(\boldsymbol{a})<1$ となる. 式 (1) は $\boldsymbol{a}$ に含まれる数值のぺア $\boldsymbol{a}_{i}$ と $\boldsymbol{a}_{j}(i<j)$ が昇順 $\left(\boldsymbol{a}_{i}<\boldsymbol{a}_{j}\right)$ になっている割合を -1 から 1 の間に正規化したものであり,この値が大きいほど昇順に並んでいるぺアの割合が多い. ## 3.2 正解ラベルの付与 提案手法では, 2 分木である句構文木の各節ノードにおいて子ノードの順序を入れ替えるかどうかのラベル付けを行い,並び替えの訓練データを作成する.Algorithm 1 に正解ラベル付与の擬似コードを示す. 入力は 2 分木のノード $n$ と単語アラインメント $\boldsymbol{a}$ である. ノードは左右の子ノー ドへのリンク(left および right)と,並び替えを示すラベル (label) を保持する. $\boldsymbol{a}[n]$ は,葉ノー ドにおける単語のアラインメントの目的言語におけるインデックスを表す。並び替えのラベルは関数 $\operatorname{KendallTau}\left(a_{l}, a_{r}\right)$ により,3.1 節で説明した手法で Kendall の $\tau$ の値を計算し,その結果に基づいて決定する,各節ノードにおいて,子ノードを並び替えた際に Kendall の $\tau$ が大きくなる場合は並び替えを行う“Inverted”ラベルを,小さくなるまたは変わらない場合はそのままの順序を維持する “Straight” ラベルを付与する。これをボトムアップで行うことで,与えられた構文木において Kendall の $\tau$ が最大となるようにラベルが付与される. ## 3.3 事前並び替えモデル RvNN は木構造型のニューラルネットワークである (Goller and Kuchler 1996; Socher et al. 2011). RvNNにおける各ノードは図 1 に示す構造を持ち, これを再帰的に結合することで, 木構造型のニューラルネットワークを構築する。 図 $1 \mathrm{RvNN}$ の基本となる構造 提案手法では句構文木にしたがって RvNN を構築し,各節ノードにおいて Algorithm 1 で付与した正解ラベルを予測する学習を行う.Algorithm 2 に予測したラベルを用いた並び替えの擬似コー ドを示す. 入力は Algorithm 1 によって正解ラベルが付与された 2 分木のノード $n$ であり, 左右の子ノードへのリンク(left および right)と並び替えの予測結果を保持する label を持つ. len($\cdot$)は要素の数を計算する。葉ノードはさらに自身の単語 word とそのベクトル表現 $e$ を保持する. $S_{l}$, $S_{r}$ は並び替え後の単語列である。節ノードにおいては, 左と右の子ノードから, それぞれのべクトル表現 $\boldsymbol{v}_{l}, \boldsymbol{v}_{r}$ を入力とし, 関数 $\operatorname{RvNN}\left(\boldsymbol{v}_{l}, \boldsymbol{v}_{r}\right)$ によって自身のべクトルの計算とラベルの予測を行う. $\operatorname{RvNN}\left(\boldsymbol{v}_{l}, \boldsymbol{v}_{r}\right)$ はべクトル表現 $\boldsymbol{v}_{l}, \boldsymbol{v}_{r}$ を受け取り,予測されたラベル Label と節ノードのベク トル $\boldsymbol{v}$ を返す関数である。左の子ノードと右の子ノードのベクトル表現を用いてラベルを予測することで,部分木を考慮しつつ並び替えを行うかどうかを決定できる。 図 2 に “My parents live in London”という文に対してRvNNを用いた並び替えの例を示す. 例えば “live in London”のフレーズに対応したノードにおいて, 式 (2) に従い “live”と "in London” の子ノードを考慮してべクトルを計算する。 $ \begin{aligned} \boldsymbol{v} & =f\left(\left[\boldsymbol{v}_{l} ; \boldsymbol{v}_{r}\right] W+\boldsymbol{b}\right) \\ \boldsymbol{s} & =\boldsymbol{v} W_{s}+\boldsymbol{b}_{\boldsymbol{s}} \end{aligned} $ $f$ は $\operatorname{ReLU}$ 関数, $W \in \mathbb{R}^{\lambda \times 2 \lambda}$ は重み行列, $\boldsymbol{v}_{l}, \boldsymbol{v}_{r} \in \mathbb{R}^{\lambda}$ はそれぞれ左, 右の子ノードのベクトル, 図 2 "My parents live in London"の RvNNによる並び替え(横線が引いてある節ノードは "Inverted").緑色はノードのベクトルを表し, 青色は品詞・構文タグのべクトルを表す. $W_{s} \in \mathbb{R}^{2 \times \lambda}$ は出力層における重み行列, $\boldsymbol{b} \in \mathbb{R}^{\lambda}, \boldsymbol{b}_{\boldsymbol{s}} \in \mathbb{R}^{2}$ はバイアス項を表す( $\lambda$ は隠れ層の次元数を表す).また $[\cdot ; \cdot]$ はベクトルを結合する. $\mathbf{s} \in R^{2}$ は各ラベルに対する重みのベクトルであり,式 (4) に示すソフトマックス関数に入力することで “Straight” および “Inverted” ラベルの確率を計算する. $ p_{i}=\frac{\exp \left(\boldsymbol{s}_{i}\right)}{\sum_{m=1}^{|s|} \exp \left(\boldsymbol{s}_{m}\right)} $ $|\cdot|$ はべクトルの次元数を表し, ここでは $|s|=2$ である. 葉ノードでは, 単語ベクトルを入力とし, 式 (5)によってべクトル表現を得る. $ \begin{aligned} \boldsymbol{e} & =\boldsymbol{x} W_{x} \\ \boldsymbol{v}_{e} & =f\left(\boldsymbol{e} W_{e}+\boldsymbol{b}_{e}\right) \end{aligned} $ ここで $\boldsymbol{x} \in \mathbb{R}^{V}$ は入力単語を表す one-hot ベクトル, $W_{x} \in \mathbb{R}^{V \times \lambda}$ は単語分散表現を表す行列( $V$ は語彙数を表す), $W_{e} \in \mathbb{R}^{\lambda \times \lambda}$ は重み行列, $\boldsymbol{b}_{e} \in \mathbb{R}^{\lambda}$ はバイアス項である. ロス関数は式 (6) で定義される交差エントロピーを用いる. $ L(\theta)=-\frac{1}{K} \sum_{k=1}^{K} \sum_{n \in \mathcal{T}} \log p\left(l_{k}^{n} ; \theta\right) $ $\theta$ はモデルのパラメータ, $n$ は構文木 $\mathcal{T}$ のノードであり,$K$ はミニバッチのサイズ, $l_{k}^{n}$ はミニバッチの $k$ 番目の構文木の $n$ 番目のノードのラベルを表す. 本稿では, 各ノードにおける品詞もしくは構文夕グを考慮する手法も提案する。これらを考慮する際は,式 (2)に代わり式 (7)を用いる. $ \boldsymbol{v}_{t}=f\left(\left[\boldsymbol{v}_{l} ; \boldsymbol{v}_{r} ; \boldsymbol{e}_{t}\right] W_{t}+\boldsymbol{b}_{t}\right) $ $\mathbf{e}_{t} \in \mathbb{R}^{\lambda}$ は品詞・構文タグの情報を表現するべクトルで, 各ノードの品詞または構文夕グを表す one-hot ベクトルを入力とし, 式 (5) と同様に計算する. $W_{t} \in \mathbb{R}^{3 \lambda \times \lambda}$ は重み行列, $\boldsymbol{b}_{t} \in \mathbb{R}^{\lambda}$ はバイアス項である. ## 4 翻訳性能評価 本章では事前並び替えを用いた翻訳評価実験について述べる。まず初めに実験設定について述べ,実験結果を示す.その後,翻訳結果の詳細な分析を行う。 ## 4.1 実験設定 英日,英仏,英中対において原言語文の事前並び替えを行い,その上で機械翻訳システムを訓練し,翻訳精度を評価する。英日翻訳は ASPEC コーパス (Nakazawa, Yaguchi, Uchimoto, Utiyama, Sumita, Kurohashi, and Isahara 2016)を用いた. ASPEC コーパスは Utiyama and Isahara (Utiyama and Isahara 2007) による文アラインメント類似度に基づいて対訳文がランク付けされている。本稿では上位 50 万文対から 10 万文対をサンプリングして事前並び替えの訓練データとした。英仏翻訳は Common Crawl コーパス (Bojar, Chatterjee, Federmann, Haddow, Huck, Hokamp, Koehn, Logacheva, Monz, Negri, Post, Scarton, Specia, and Turchi 2015)を用いた. Common Crawlコーパスに含まれる訓練デー夕は約 291 万文対, 開発データ (newstest2013) は 3,000 文対,テストデータ (newstest2014) は 3,003 文対である. 英中翻訳は IWSLT コーパス (Cettolo, Niehues, Stüker, Bentivogli, Cattoni, and Federico 2015)を用いた. IWSLTコーパスに含まれる訓練データは約 21 万文対, 開発データ $(\operatorname{dev} 2010)$ は 887 文対, テストデータ (tst2013)は 1,261 文対である.英仏,英中ともに,訓練データから無作為にサンプリングした 10 万文を並び替えの訓練データとした. 全ての言語対において, 先行研究 (Nakagawa 2015; Luong et al. 2015) と同様翻訳器の学習には原言語, 目的言語ともに 50 単語以下で, 文対の単語数の比は Moses の前処理スクリプトのデフォルト値である 9 以下の条件を満たす文対を用いた.表 1 に翻訳システムの訓練に用いたデータの統計量を示す. 英語文は Stanford CoreNLP 1 で単語分割と品詞夕グ付けを,Enju 2 で構文解析を行った。日本語文は MeCab 3 で形態素解析を, Ckylark 4 で構文解析を行った. フランス語文は Moses に付属しているスクリプト5で単語分割を行い, Berkeley Parser ${ }^{6}$ で構文解析を行った. 中国語文は KyotoMorph ${ }^{7}$ を用いて単語分割を行い,Berkeley Parserで構文解析を行った.KyotoMorphの訓練には CTB version 5 (CTB5) と SCTB (Chu, Nakazawa, Kawahara, and Kurohashi 2016) を用いた. 並び替えの学 表 1 翻訳の学習に用いたデータの統計量(文対) ^{4}$ https://github.com/odashi/Ckylark 5 https://github.com/moses-smt/mosesdecoder/blob/master/scripts/tokenizer/tokenizer.perl 6 https://github.com/slavpetrov/berkeleyparser 7 https://bitbucket.org/msmoshen/kyotomorph-beta } 習における単語アラインメントは MGIZA8を用い, IBM Model1 と hidden Markov model をそれぞれ 3 回繰り返して両方向のアラインメントを計算した. この時の単語クラス数は, 先行研究 (Nakagawa 2015) にしたがって 256 とした. その後, intersectionのルールにより最終的なアラインメントを獲得した。 提案手法である RvNN は Chainer ${ }^{9}$ を用いて実装し,語彙は頻度が高いものから 5 万語を用いた.最適化には Adam (Kingma and Ba 2015) に重み減衰 (0.0001) および GradientClipping (5) を適用して行った。ミニバッチサイズは 500 とした。開発データにおけるロス值が最小となったエポック(英日:2,英中・英仏:5)のモデルを用い,事前並び替えを行う.Nakagawa (Nakagawa 2015) を行った 10 万文対の対訳データを用い事前並び替えを行った。 統計的機械翻訳器として Moses ${ }^{11}$ のフレーズベース統計的機械翻訳 (PBSMT) を用いた。訓練データの目的言語文を用いて KenLM ${ }^{12}$ で 5-gram 言語モデルを訓練した. 並び替えモデルは Linear モデル (Koehn et al. 2003)を用いた。 ハイパーパラメータのチューニングは開発データを用いて MERT (Och 2003) で 3 回行った. それぞれの設定でテストデータの翻訳を評価した評価値の平均を最終的な評価値とする。また,ニューラル機械翻訳器として OpenNMT ${ }^{13}$ の注意機構モデルを用いた。語彙は原言語, 目的言語ともに頻度の上位 5 万語を用い, 単語ベクトルの次元数は 500 , 隠れ層のべクトルの次元数は 500 とした. デフォルトの設定に従い,エンコーダ,デコーダともに 2 層のLSTM を用いた. バッチサイズは 64 文とし, 13 エポックの学習を行った. 翻訳精度の評価指標として BLEU (Papineni, Roukos, Ward, and Zhu 2002), また語順の評価指標として RIBES (Sudoh and Nagata 2016) を用いた. それぞれの評価値の統計的有意差を検証するため, ブートストラップによる検定 (Koehn 2004)を行った. ## 4.2 実験結果 ## 4.2.1提案手法における品詞・構文タグの効果 RvNN における品詞・構文タグおよび単語べクトル, 節ノードのベクトルの次元数が事前並び替えおよび PBSMT の翻訳精度に与える影響を検証するため,英日対において ASPEC コーパスの上位 50 万文対を用いて実験を行った,表 2 に,単語のみを入力とした場合と品詞・構文夕グを付与した場合の開発セットにおける BLEU 値を示す. WAT2017 のベースラインシステム14 と同様に並び替えなしのものは歪み制約は 20 とし, BTG と RvNN で並び替えを行った場合の歪み制約は ^{9}$ http://chainer.org/ $10 \mathrm{http}: / /$ github.com/google/topdown-btg-preordering 11 http://www.statmt.org/moses/ 12 http://github.com/kpu/kenlm $13 \mathrm{http}: / /$ opennmt.net/ 14 http://lotus.kuee.kyoto-u.ac.jp/WAT/WAT2017/baseline/baselineSystemPhrase.html } 表 2 ベクトルの次元数と品詞・構文タグの有無による開発セットにおける BLEU の変化 (英日 ASPEC コー パスの 50 万文対で学習) 0 とした. 品詞・構文タグがない場合, ベクトルの次元数が 100 の時に比べて, 200 の時は BLEU 值が低下しているが, 500 の時は向上している. 品詞・構文タグを用いた場合, ベクトルの次元数が 100 の時に比べて,200 の時は BLEU 値が向上したが,500 の時は低下している.また,品詞$\cdot$構文タグを用いないべクトル次元数が 500 の時と,品詞・構文タグを用いたべクトル次元数が 200 の時を比較すると, 有意差は見られなかった. 以上の結果に基づき, 以降の実験では隠れ層のべクトルの次元数をより少ない 200 とし,品詞・構文タグを用いて事前並び替えを行う. ## 4.2.2 PBSMT およびNMT による翻訳精度 PBSMT,NMT により翻訳を行った結果を表 3 に示す. BTG と RvNNで事前並び替えを行ったものは PBSMT における歪み制約を 0 とした,並び替えなしのものは英日,日英では WAT2017 のベースラインシステムの設定に従い,歪み制約を 20 とした。 英中, 中英, 英仏, 仏英対では歪み制約を Moses のデフォルト値である 6 とした ${ }^{15}$. PBSMT で翻訳を行った場合,英日方向の翻訳では並び替えなしに比べて RvNN と BTGの両方でBLEU 值がそれぞれ 4.62 ポイント, 4.97 ポイント有意に向上した. また RIBES 值も事前並び替えなしに比べて, RvNN および BTG で 8.77 ポイント, 9.58 ポイント有意に向上した. これらの結果から, 英日翻訳において事前並び替えを行うことで翻訳精度が大きく向上していることが分かる. RvNN と BTGでは, BLEU 値およびRIBES 値において統計的有意差は認められなかった ( $p$ 值はそれぞれ $p=0.068, p=0.226$ であった). このことから提案手法では, 素性テンプレートの設計を必要とすることなく, 事前並び替え手法の state-of-the-art である BTG と同等の翻訳性能を達成していることが分かる. 英仏,英中方向における PBSMT を用いた翻訳結果の BLEU 值およびRIBES 值は,BTG では有意に向上したが, RvNNでは並び替えなしと同程度となった. 一方で, RvNN, BTG, 並び替えなしの三者について,英仏・英中翻訳における RIBES の値に有意差はなかった. これは英中,英仏の言語対では元々長距離の語順変換が不要であるため, 事前並び替えの効果が限定的だったこと  表 3 テストセットにおける BLEU および RIBES の評価結果(最も性能の高いものと有意差がないもの $(p<0.05)$ を太字で表す) を示唆していると考える。 また日英方向では, PBSMT を用いた翻訳結果では, 並び替えなしと比較して RvNNによる事前並び替えを行うことで,BLEU 值が有意に 1.99 ポイント向上している. しかしBTGでの並び替えによる BLEU 值の向上には及ばない結果となった. RIBES 值は RvNN と BTG でそれぞれ 7.65 ポイント, 8.27 ポイントの向上を達成している. 仏英, 中英方向において PBSMT による翻訳では, BTGによる並び替えでは BLEU 值が並び替えなしの場合に比べ有意に向上しているが,RvNNによる並び替えでは,並び替えなしの場合よりも低下している。これは構文木の精度が影響したものと考えられ,4.3.1 項において分析する。 NMT を用いた翻訳では,RvNNによる事前並び替えを行うと,英日,英中,日英,仏英方向の翻訳において BLEU 值, RIBES 值が低下した. しかし, 英仏方向では BLEU 値が 0.65 ポイント, RIBES 値が 0.18 ポイント, 中英方向では BLEU 值が 0.62 ポイント, RIBES 值が 0.57 ポイント向上した,BTGによる事前並び替えでは,NMT を用いて翻訳を行うと,並び替えなしの場合に比べ,すべての言語対で BLEU 値,RIBES 值が低下する結果となった。これは Sudoh ら (Sudoh and Nagata 2016)の英中翻訳における実験結果と共通の現象であり, 原因の1つとして, 事前並び 替えにより言語の構造が崩れてしまうことが考えられる.しかし英仏,中英対においては,RvNN の事前並び替えの結果,NMT の翻訳精度が向上しており,NMT においても事前並び替えによる効果が発揮される場合があることを示している,今後,提案手法をNMT のモデルに組み込み同時に学習を行うことで,NMT における翻訳精度の向上に取り組む予定である。 NMT による翻訳における RIBES 値について,英仏,仏英翻訳において BTGによる並び替えを行った PBSMT の性能が事前並び替えなしのNMT の性能をわずかに上回っているが,これらの結果には統計的有意差はなかった(それぞれ $p=0.329, p=0.323$ ). 先行研究でも示されている通り,本実験においても事前並び替えの有無に関わらず,NMT がSMT を上回る結果となっている. ## 4.3 分析 ## 4.3.1事前並び替えと翻訳精度の関係分析 事前並び替えの性能が翻訳結果に与える影響を調査するため,事前並び替えの性能と翻訳精度の関連を分析する。入力文の理想的な事前並び替えが行えると,原言語と目的言語の語順が等しくなる。つまり,並び替えた入力文と参照翻訳の語順が等しくなり,翻訳タスクは逐語翻訳に近づくと考えられる,そのため,並び替えた入力文と参照翻訳の語順の近さを評価する Kendall の $\tau$ と,翻訳結果と参照翻訳の語順を評価する RIBES 値には相関があると期待される。また逐語翻訳に近づくことで翻訳タスク自体が簡単になり,BLEU 値も向上すると期待できる。表 4 に,開発セットにおける並び替え前後の入力文それぞれと参照翻訳文間の Kendall の $\tau$ と, PBSMT による翻訳結果の BLEU 値, RIBES 値を示す。英日対において, RvNN は並び替えなしに比べて Kendall の $\tau$ が 27.07 ポイント向上しており, 英語, 日本語文での語順の一致率を大きく向上できている. BLEU 值, RIBES 值もそれぞれ 3.68 ポイント, 8.27 ポイント向上している.日英対においても並び替えなしと比較して RvNNによる事前並び替えで Kendall の $\tau$ が 10.83 ポイント向上し, BLEU 值, RIBES 値もそれぞれ 2.27 ポイント, 8.23 ポイント向上している. つまり RvNNでは, 語順の一致率を大きく向上できた英日,日英対では,BLEU 值および RIBES 值を改善できていることが分かる。一方, 仏英, 中英対では並び替えなしに比べて RvNN の Kendall の $\tau$ がそれぞれ 1.08 ポイント, 0.26 ポイント向上したが, BLEU 值, RIBES 値に有意な変化はみられなかった. このことから,事前並び替えにより語順の一致率を高めることができれば,翻訳精度に大きく貢献できるが, Kendall の $\tau$ の小規模な改善が翻訳精度に与える影響は限定的であることが分かる. 一方で, BTGでは仏英対において Kendall の $\tau$ を 1.43 ポイント向上できており,またBLEU 值, RIBES 值がそれぞれ 1.27 ポイント, 0.41 ポイント, 中英対においても Kendall の $\tau$ を 1.65 ポイント改善し, また RIBES 值が 0.24 ポイント向上している. 提案手法では中英対において BLEU, RIBES を向上できなかった理由として,構文解析エラーの影響が考えられる.BTGでは事前並び替えに適した木構造を構築しながら並び替えを行う。一方, RvNNでは構文解析器が出力する構文木に基づいて事前並び替えを行うため,構文解析器の精度が RvNN による並び替えの精度に影響 表 4 開発データにおける Kendall の $\tau$ と BLEU およびRIBES との関係(最も性能の高いものと有意差がないもの $(p<0.05)$ を太字で表す $)$ する。本実験で用いた構文解析器の精度は, 中国語で $77 \%$ (Che, Spitkovsky, and Liu 2012) と報告されており,英語の場合の $91 \%$ (Miyao and Tsujii 2008) より大幅に低い. 中英翻訳のため構文解析した中国語文のうち, 開発データから一文単位の BLEU 値が低下した 50 件を観察した結果,構文解析エラーと単語アラインメントの質が低いことによる複合的な要因により事前並び替えに失敗していることが明らかとなった。構文解析に失敗した文は 13 文あり,そのうち名詞句の解析誤りが 9 件, 動詞句の解析誤りが 6 件あった。これらの構文解析エラーにより, 事前並び替えに失敗したものは 6 件あった. このうち構文解析エラーによりどのような並び替えを行っても Kendall の $\tau$ を向上できないものが 3 件,単語アラインメントそのものができておらず,どのような並び替えを行ってもKendall の $\tau$ を向上できないものが 2 件あった.これらは中英翻訳の実験に用いた対訳コーパス (IWSLT2015) は TED より収集された口語体の文であるため構文解析が難しく,またコーパスサイズが小さいことから単語アラインメントも困難なためと考えられる。 ## 4.3.2 機械学習手法の効果 次に,提案手法では構文木に基づく機械学習により事前並び替えを行うが,構文木を用いる効果および機械学習手法の効果を分けて検証するため, 提案手法と同様に機械学習を用いて構文木の各 ノードで並び替えを行う手法である Hoshino ら (Hoshino et al. 2015) と英日対で比較実験を行った. Hoshino らの手法は,機械学習手法として Support Vector Machine を用いるものである。表 5 にその結果を示す. Hoshino らの手法と比較して,RvNN を用いた翻訳では BLEU 値が有意に 0.58 ポイント高い結果となった. この結果より, 単語ベクトルおよび品詞・構文タグベクトルを考慮し RvNN による事前並び替えを行うことで,構文情報をよりとらえた並び替えを実現できることが分かる. ## 4.3.3翻訳例の分析 表 6 に英日対において事前並び替えに成功した例,およびその PBSMT,NMT を用いた翻訳結果を示す。原文と参照訳では語順が大きく異なっているが,並び替えを行うことで語順が近づいていることが分かる.PBSMT による翻訳例では,並び替えなしの文と比べ,並び替えを行った文は意味が通るような訳文となっている.特に,動詞である“causes”が並び替えを行うことで文末に 表 5 機械学習手法の違いによる並び替えの PBSMT による英日対での翻訳評価(最も性能の高いものと有意差がないもの $(p<0.05)$ を太字で表す $)$ 表 6 英日対における並び替えの成功例とその翻訳例 \\ 移動し,参照訳の「ひきおこす」と同様の意味を表す「原因となる」と翻訳されており,並び替えなしの翻訳である「部品である」と比べて正しい翻訳結果となっている.NMTによる翻訳例では PBSMT による翻訳例と比較してより流暢な翻訳となっているが,低頻度語である “economizer" が 〈unk〉と翻訳されている. 表 7 に英日対において事前並び替えに失敗した例およびその PBSMT,NMT による翻訳結果を示す.RvNNによる並び替えの例では,元々括弧外にあった単語列が,並び替えの結果括弧の中に入っていたり, 左括弧と右括弧の順番が反対になっている。これは構文解析の結果, 図 3 に示すように“(c)”というフレーズが誤って二つの句に分断されており,その誤りが事前並び替えに影響してしまったためである。BTG では構文解析と並び替えを同時に行うため,このような構文解析誤りの影響を受けない. 表 8,9 に,英仏対および英中対での並び替えおよび翻訳結果を示す.これらの言語対では語順が似ているため,事前並び替えを行っても語順はほとんど変化せず,実際に並び替えなしの文と BTG,RvNN によって並び替えられた文も,それほど変化していない. 表 7 英日対における並び替えの失敗例とその翻訳例 \\ ) of sd rats was recorded to examine the effects of chinoform (c) on thermal reaction 図 3 失敗した構文解析結果の一部分(横線が引いてある節ノードは “Inverted”を示す) 表 8 英仏対における並び替えの例とその翻訳例 \\ ## 5 まとめ 本稿では統計的機械翻訳のための素性テンプレートの設計を必要としないRvNNを用いた事前並び替え手法を提案した,英日,英仏,英中言語対を用いた評価実験の結果,提案手法は英日統計的 表 9 英中対における並び替えの例とその翻訳例 \\ 機械翻訳において, 人手で設計した素性テンプレートに基づく事前並び替え手法の state-of-the-art (Nakagawa 2015) と同等の翻訳性能を達成している. しかし, 提案手法では構文解析を必要とするため, 構文解析の誤りが事前並び替えの精度に影響する。よって,構文解析とノードの並び替えを同時に行うモデルの構築が今後の課題の 1 つとして挙げられる. 先行研究 (Sudoh and Nagata 2016; Du and Way 2017) において, 事前並び替えを行った文対で NMT を訓練すると,翻訳精度が低下することが報告されている。しかし提案手法を用いた場合,英仏, 中英対では NMT において BLEU 值が有意に向上しており, 事前並び替えがNMT に貢献する可能性が示された. 提案手法では事前並び替えとNMT は完全に独立なモデルとなっているが, これらを統合し,事前並び替えモデルとNMT の訓練を同時に行うことでNMT に適した事前並び替えを行えると期待できる,今後,このような事前並び替えとNMT モデルを融合した手法に取り組む予定である. ## 謝 辞 本研究は, 日本電信電話株式会社コミュニケーション科学基礎研究所及び JSPS 科研費\#17H06822 の助成を受けたものです。本稿の評価実験を行うにあたり,ご協力いただた星野翔氏に深謝いたします。 ## 参考文献 Bojar, O., Chatterjee, R., Federmann, C., Haddow, B., Huck, M., Hokamp, C., Koehn, P., Logacheva, V., Monz, C., Negri, M., Post, M., Scarton, C., Specia, L., and Turchi, M. (2015). "Findings of the 2015 Workshop on Statistical Machine Translation." In Proceedings of the 10th Workshop on Statistical Machine Translation (WMT), pp. 1-46, Lisbon, Portugal. Botha, J. A., Pitler, E., Ma, J., Bakalov, A., Salcianu, A., Weiss, D., McDonald, R., and Petrov, S. (2017). "Natural Language Processing with Small Feed-Forward Networks." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2879-2885, Copenhagen, Denmark. Cettolo, M., Niehues, J., Stüker, S., Bentivogli, L., Cattoni, R., and Federico, M. (2015). "The IWSLT 2015 Evaluation Campaign." In Proceedings of the International Workshop on Spoken Language Translation (IWSLT), pp. 2-10, Tokyo, Japan. Che, W., Spitkovsky, V., and Liu, T. (2012). "A Comparison of Chinese Parsers for Stanford Dependencies." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), pp. 11-16, Jeju Island, Korea. Chu, C., Nakazawa, T., Kawahara, D., and Kurohashi, S. (2016). "SCTB: A Chinese Treebank in Scientific Domain." In Proceedings of the Workshop on Asian Language Resources (ALR), pp. 59-67, Osaka, Japan. Collins, M., Koehn, P., and Kucerova, I. (2005). "Clause Restructuring for Statistical Machine Translation." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), pp. 531-540. Crego, J. M. and Habash, N. (2008). "Using Shallow Syntax Information to Improve Word Alignment and Reordering for SMT." In Proceedings of the Workshop on Statistical Machine Translation, pp. 53-61, Columbus, Ohio. Crego, J. M. and Mariño, J. B. (2006). "Improving Statistical MT by Coupling Reordering and Decoding." Machine Translation, 20 (3), pp. 199-215. de Gispert, A., Iglesias, G., and Byrne, B. (2015). "Fast and Accurate Preordering for SMT using Neural Networks." In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 1012-1017, Denver, Colorado. DeNero, J. and Uszkoreit, J. (2011). "Inducing Sentence Structure from Parallel Corpora for Reordering." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 193-203, Edinburgh, UK. Du, J. and Way, A. (2017). "Pre-Reordering for Neural Machine Translation: Helpful or Harmful?" The Prague Bulletin of Mathematical Linguistics, 108, pp. 171-182. Genzel, D. (2010). "Automatically Learning Source-side Reordering Rules for Large Scale Machine Translation." In Proceedings of the International Conference on Computational Linguistics (COLING), pp. 376-384, Beijing, China. Gojun, A. and Fraser, A. (2012). "Determining the Placement of German Verbs in English-toGerman SMT." In Proceedings of the Conference of the European Chapter of the Association for Computational Linguistics (EACL), pp. 726-735, Avignon, France. Goller, C. and Kuchler, A. (1996). "Learning Task-dependent Distributed Representations by Backpropagation through Structure." In Proceedings of the IEEE International Conference on Neural Networks, 1996, Vol. 1, pp. 347-352. Goto, I., Utiyama, M., Sumita, E., Tamura, A., and Kurohashi, S. (2013). "Distortion Model Considering Rich Context for Statistical Machine Translation." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), pp. 155-165, Sofia, Bulgaria. Hayashi, K., Sudoh, K., Tsukada, H., Suzuki, J., and Nagata, M. (2013) In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1382-1386, Seattle, USA. Hoshino, S., Miyao, Y., Sudoh, K., Hayashi, K., and Nagata, M. (2015). "Discriminative Preordering Meets Kendall's $\tau$ Maximization." In Proceedings of the Annual Meeting of the Association for Computational Linguistics and International Joint Conference on Natural Language Processing (ACL-IJCNLP), pp. 139-144, Beijing, China. Isozaki, H., Sudoh, K., Tsukada, H., and Duh, K. (2010). "Head Finalization: A Simple Reordering Rule for SOV Languages." In Proceedings of the Workshop on Statistical Machine Translation and MetricsMATR, pp. 244-251, Uppsala, Sweden. Jehl, L., de Gispert, A., Hopkins, M., and Byrne, W. (2014). "Source-side Preordering for Translation using Logistic Regression and Depth-first Branch-and-Bound Search." In Proceedings of the Conference of the European Chapter of the Association for Computational Linguistics (EACL), pp. 239-248, Gothenburg, Sweden. Joachims, T. (2002). "Optimizing Search Engines using Clickthrough Data." In Proceedings of the ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 133-142, New York, USA. Kanouchi, S., Sudoh, K., and Komachi, M. (2016). "Neural Reordering Model Considering Phrase Translation and Word Alignment for Phrase-based Translation." In Proceedings of the Workshop on Asian Translation (WAT), pp. 94-103, Osaka, Japan. Kawara, Y., Chu, C., and Arase, Y. (2018). "Recursive Neural Network Based Preordering for English-to-Japanese Machine Translation." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), Student Research Workshop, pp. 21-27, Melbourne, Australia. Kendall, M. G. (1938). "A New Measure of Rank Correlation." Biometrika, 30 (1/2), pp. 81-93. Kingma, D. P. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." In Proceedings of the International Conference for Learning Representations (ICLR), San Diego, USA. Koehn, P. (2004). "Statistical Significance Tests for Machine Translation Evaluation." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 388-395, Barcelona, Spain. Koehn, P., Och, F. J., and Marcu, D. (2003). "Statistical Phrase-based Translation." In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology (NAACL-HLT), pp. 48-54, Edmonton, Canada. Lerner, U. and Petrov, S. (2013). "Source-Side Classifier Preordering for Machine Translation." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 513-523, Seattle, USA. Li, C.-H., Li, M., Zhang, D., Li, M., Zhou, M., and Guan, Y. (2007). "A Probabilistic Approach to Syntax-based Reordering for Statistical Machine Translation." In Proceedings of the Annual Meeting of the Association of Computational Linguistics (ACL), pp. 720-727, Prague, Czech Republic. Luong, T., Pham, H., and Manning, C. D. (2015). "Effective Approaches to Attention-based Neural Machine Translation." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1412-1421, Lisbon, Portugal. Miceli Barone, A. V. and Attardi, G. (2015). "Non-projective Dependency-based Pre-Reordering with Recurrent Neural Network for Machine Translation." In Proceedings of the Annual Meeting of the Association for Computational Linguistics and the International Joint Conference on Natural Language Processing (ACL-IJCNLP), pp. 846-856, Beijing, China. Miyao, Y. and Tsujii, J. (2008). "Feature Forest Models for Probabilistic Hpsg Parsing." Computational Linguistics, 34 (1), pp. 35-80. Nakagawa, T. (2015). "Efficient Top-Down BTG Parsing for Machine Translation Preordering." In Proceedings of the Annual Meeting of the Association for Computational Linguistics and International Joint Conference on Natural Language Processing (ACL-IJCNLP), pp. 208-218, Beijing, China. Nakazawa, T., Yaguchi, M., Uchimoto, K., Utiyama, M., Sumita, E., Kurohashi, S., and Isahara, H. (2016). "ASPEC: Asian Scientific Paper Excerpt Corpus." In Proceedings of the International Conference on Language Resources and Evaluation (LREC), pp. 2204-2208, Portorož, Slovenia. Neubig, G., Watanabe, T., and Mori, S. (2012). "Inducing a Discriminative Parser to Optimize Machine Translation Reordering." In Proceedings of the Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL), pp. 843-853, Jeju Island, Korea. Och, F. J. (2003). "Minimum Error Rate Training in Statistical Machine Translation." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), pp. 160-167, Sapporo, Japan. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: a Method for Automatic Evaluation of Machine Translation." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), pp. 311-318, Philadelphia, USA. Socher, R., Lin, C. C.-Y., Ng, A. Y., and Manning, C. D. (2011). "Parsing Natural Scenes and Natural Language with Recursive Neural Networks." In Proceedings of the on International Conference on Machine Learning (ICML), pp. 129-136, Bellevue, USA. Sudoh, K. and Nagata, M. (2016). "Chinese-to-Japanese Patent Machine Translation based on Syntactic Pre-ordering for WAT 2016." In Proceedings of the Workshop on Asian Translation (WAT), pp. 211-215, Osaka, Japan. Tillmann, C. (2004). "A Unigram Orientation Model for Statistical Machine Translation." In Proceedings of the Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics (HLT-NAACL), pp. 101-104, Boston, USA. Tromble, R. and Eisner, J. (2009). "Learning Linear Ordering Problems for Better Translation." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1007-1016, Singapore. Utiyama, M. and Isahara, H. (2007). "A Japanese-English Patent Parallel Corpus." In Proceedings of the Machine Translation Summit XI, pp. 475-482, Copenhagen, Denmark. Visweswariah, K., Rajkumar, R., Gandhe, A., Ramanathan, A., and Navratil, J. (2011). "A Word Reordering Model for Improved Machine Translation." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 486-496, Edinburgh, UK. Wang, C., Collins, M., and Koehn, P. (2007). "Chinese Syntactic Reordering for Statistical Machine Translation." In Proceedings of the Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL), pp. 737-745, Prague, Czech Republic. Wang, X., Tu, Z., Xiong, D., and Zhang, M. (2017). "Translating Phrases in Neural Machine Translation." In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1421-1431, Copenhagen, Denmark. Wu, D. (1997). "Stochastic Inversion Transduction Grammars and Bilingual Parsing of Parallel Corpora." Computational Linguistics, 23 (3), pp. 377-403. Xia, F. and McCord, M. (2004). "Improving a Statistical MT System with Automatically Learned Rewrite Patterns." In Proceedings of the International Conference on Computational Linguistics (COLING), pp. 508-514, Geneva, Switzerland. Xu, P., Kang, J., Ringgaard, M., and Och, F. (2009). "Using a Dependency Parser to Improve SMT for Subject-Object-Verb Languages." In Proceedings of Human Language Technologies: The Annual Conference of the North American Chapter of the Association for Computational Linguistics (HLT-NAACL), pp. 245-253, Boulder, Colorado. Yang, N., Li, M., Zhang, D., and Yu, N. (2012). "A Ranking-based Approach to Word Reordering for Statistical Machine Translation." In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL), pp. 912-920, Jeju Island, Korea. Zhang, Y., Zens, R., and Ney, H. (2007). "Chunk-level Reordering of Source Language Sentences with Automatically Learned Rules for Statistical Machine Translation." In Human Language Technologies: The Conference of the North American Chapter of the Association for Computational Linguistics (HLT-NAACL); Proceedings of the Main Conference, pp. 1-8, Rochester, USA. ## 略歴 瓦祐希:2018 年大阪大学大学院情報科学研究科博士前期課程修了. 現在同大学院博士課程. 機械翻訳の研究に従事. 言語処理学会, ACL, 各会員. Chenhui Chu: 2008 年重慶大学ソフトウェア工学部卒業. 2012 年に京都大学大学院情報学研究科修士課程修了. 2015 年同大学院博士課程修了. 博士(情報学). 日本学術振興会特別研究員 DC2, 国立研究開発法人科学技術振興機構研究員を経て,2017 年より大阪大学データビリティフロンティア機構特任助教. 機械翻訳, 自然言語処理の研究に従事. 言語処理学会, 人工知能学会, ACL, 各会員。 荒瀬由紀 : 2006 年大阪大学工学部電子情報エネルギー工学科卒業. 2007 年同大学院情報科学研究科博士前期課程, 2010 年同博士後期課程修了. 博士(情報科学). 同年, Microsoft Research Asia に入社, 自然言語処理に関する研究開発に 従事. 2014 年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授, 現在に至る. 言い換え表現抽出, 機械翻訳技術, 対話システム研究に興味を持つ. (2018 年 8 月 1 日受付) (2018 年 11 月 1 日再受付) (2018 年 12 月 12 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 事象に対する網羅的な時間情報アノテーションとその分析 ## 坂口 智洋 $\dagger \cdot$ 河原 大輔 + 黒橋 禎夫 $\dagger$ テキスト中には過去・現在・未来における様々な事象が記述されており, その内容を理解するためにはテキスト中の時間情報を正確に解釈する必要がある。これまで,事象情報と時間情報を関連付けたコーパスが構築されてきたが, これらは開始と終了が比較的明確な事象に着目したものであった. 本研究では, 網羅的かつ表現力豊かな時間情報アノテーション基準を導入し, 京都大学テキストコーパス中の 113 文書に対するアノテーションとその分析を行った. 同コーパスには既に述語項関係や共参照関係のアノテーションガなされており, 本アノテーションと合わせてテキスト中の事象・エンティティ・時間を対象とした統合的な時間情報解析に活用することが可能となった. キーワード:時間情報,時間軸,アノテーション ## Comprehensive Annotation and Analysis of Temporal Information of Events \author{ Tomohiro Sakaguchi $^{\dagger}$, Daisuke Kawahara $^{\dagger}$ and Sadao Kurohashi ${ }^{\dagger}$ } Various past, present, and future events are described in text. To understand such text, correct interpretation of temporal information is essential. For this purpose, many corpora associating events with temporal information have been constructed. Although these corpora focus on expressions with strong temporality, many expressions have weak temporality, but are still clues to understanding temporal information. In this article, we propose an annotation scheme that comprehensively anchors textual expressions to the time axis. Using this scheme, we annotated 113 documents in the Kyoto University Text Corpus. Because the corpus has already been annotated with predicate-argument structures and coreference relations, it can now be utilized for integrated information analysis of events, entities, and time. Key Words: Temporal Information Annotation, Temporal Anchoring ## 1 はじめに Web 上では日々多くのテキスト情報が発信されており,これまでに膨大な量のテキストが蓄積されている。この大量のテキストから, あるトピックについての知識を抽出するためには, 関  連するテキストの統合・要約・比較を行う情報分析技術が必要である.異なる時期に書かれたテキストや異なる時期について言及しているテキストを対象として分析を行うためには,テキストに含意されている時間情報を正しく解釈する必要があり,これまでに事象情報と時間情報の関係性という観点から多くの研究やタスクが行われてきた。例えば TempEval 1, 2, 3 では, 事象一事象表現間,事象一時間表現間の時間的順序関係の推定が行われた (Verhagen, Gaizauskas, Schilder, Hepple, Katz, and Pustejovsky 2007; Verhagen, Sauri, Caselli, and Pustejovsky 2010; UzZaman, Llorens, Derczynski, Allen, Verhagen, and Pustejovsky 2013). また, SemEval 15 では複数のテキストから事象表現を抽出し, 時系列に配置するタイムライン生成タスクが扱われた (Minard, Speranza, Agirre, Aldabe, van Erp, Magnini, Rigau, and Urizar 2015). このようなタスクにおいてモデルの学習やシステムの評価を行うため, テキスト中の事象情報と時間情報を関連付けたコーパスが作られてきた (Pustejovsky, Hanks, Saurí, See, Gaizauskas, Setzer, Radev, Beth Sundheim, Ferro, and Lazo 2003; Cassidy, McDowell, Chambers, and Bethard 2014; Reimers, Dehghani, and Gurevych 2016). これらのコーパスでは開始・終了時が比較的明確な事象表現を対象にアノテーションが行われたが, テキストの時間情報理解のための手がかりはこれにとどまらない. 本研究では, 時間性が曖昧な表現を含めた, テキスト中の様々な表現がもつ時間情報を表現力豊かにアノテーションするための基準を提案する. 先行研究における時間情報アノテーションのアプローチは 2 つに大別される.1つは事象間の時間的順序関係を付与する相対的なアノテーション方法である。もう1つは各事象を時間軸に対応させる絶対的なアノテーション方法である.前者は小説など時間情報の少ないテキストであっても情報量の多いアノテーションが可能である.後者は新聞などの時間情報の多いテキストにおいて少ないアノテーション量で正確に時間情報を表現できる。本研究は後者のアプロー チを発展させるものであり, 構築するコーパスはタイムライン生成など時間軸を用いてテキストの比較・統合を行うタスクにおいて学習/評価データとして使用することが可能である. 本アノテーション基準の特徴は次の 2 つである。1つは, 時間性をもち得る幅広い表現をアノテーション対象とすることである. 多くの先行研究は, TimeML (Sauri, Littman, Gaizauskas, Setzer, and Pustejovsky 2006) のガイドラインに従い,何か起きたことやその状態を表す一時性の強い表現である “event”に対してアノテーションを行っている。そのため次の例の「出現しており」のような一時性の弱い表現にはアノテーションが行われない. (1)インターネット上では様々な事業が急速に出現しており,政府でさえ把握できていない. しかし, 一時性の弱い表現がもつ時間情報もテキスト解釈の手がかりとなり得る。この例の場合,「出現しており」が数年前から現在にかけての事象であるという時間情報をアノテーションすることも重要である。そこで本研究では先行研究より対象を広げ,テキスト中で時間性をもち得る全ての事象表現, すなわちテキスト中の述語または事態性名詞(サ変名詞, 動詞連用 形の名詞化,形容動詞語幹)を含む基本句全て(以降,対象表現と呼ぶ)をアノテーション対象とする.ここで基本句とは,京都大学テキストコーパスで定義されている単位で,自立語とそれに続く付属語のことである。 本アノテーション基準のもう 1 つの特徴は, 頻度や期間などの多様な時間情報を扱えることである。(Reimers et al. 2016) は事象の起きる期間を開始点と終了点を用いて時間軸に対応付けたが,次の例で太字で示す「飛び飛びな時間」や「大きな区間の中のある一部の期間」に起きる事象を正確に時間軸に対応付けることはできなかった. (2)毎週日曜は球場で野球を見る。 (3) 来週は 3 日間京都に出張する。 (4) 昔はよく一緒に遊んでいた。 本研究では,テキスト中に含まれる多様な時間情報をより正確に時間軸に対応付けられる時間タグを導入する。 多様な表現に対して表現力豊かにタグ付けすることで,個人のテキスト解釈や常識がタグの摇れとして現れる。本研究ではこのような摇れも時間がどのように解釈されているかを知る上で重要だと考えているため,最終的に複数のアノテータの付与した時間タグを 1 つに統合することはしない,代わりに,解釈の違いを尊重しつつ明らかなアノテーションミスのみを修正するアノテーション方法を導入する。 本アノテーション基準を用いて, 京都大学テキストコーパス中の 113 文書 4,534 対象表現に対してアノテーションを行った。その結果,対象表現の $76 \%$ に時間性が認められ,そのうち $35 \%$ (全体の $26 \%$ )で本稿で新たに提案する記法が用いられた。同コーパスには, 既に述語項関係や共参照関係のアノテーションがなされているため, 本アノテーションと合わせてテキスト中の事象・エンティティ・時間を対象とした統合的な時間情報解析に活用することが可能となる. ## 2 関連研究 事象情報と時間情報を関連付けたコーパスは,これまでにも多く作られており,これらのアノテーション方法は大きく 2 つのアプローチに分けられる.1つは,事象間の時間的順序関係を付与する方法である。事象情報や時間情報を扱う多くのタスクで利用されている TimeBank Corpus (Pustejovsky et al. 2003)には, TimeMLの基準に基づいて事象・時間表現情報がアノテーションされており, さらに時間的順序関係を表す TLINK, 事象間の関係を表すSLINK,相動詞と事象の関係を表す ALINK の 3 つの関係が付与されている. 当初はアノテータが重要と判断した表現間にのみアノテーションがなされていたためスパースであったが, 後の TempEval 夕スクはこれを発展させ, 同一文中と隣接文間の関係に対してアノテーションを行った. BCCWJ- TimeBank (Asahara, Kato, Konishi, Imada, and Maekawa 2014) は, 現代日本語書き言葉均衡コーパス (BCCWJ)の新聞記事に対してTimeBank Corpusに準拠した基準でアノテーションを行ったものである. このような時間的順序関係をより密にアノテーションしたコーパスも存在する. (Kolomiyets, Bethard, and Moens 2012)は子ども向けの物語コーパス中の各事象表現に対してその最も近い事象表現との時間的順序関係をアノテーションした。また TimeBank Dense Corpus (Cassidy et al. 2014)は, 同一文内・隣接文間の全ての事象 - 時間表現間, 事象-事象表現間に対してアノテーションを行っている. もう1つのアプローチは, 事象を時間軸に対応させる方法である. EventStatus Corpus (Huang, Cases, Jurafsky, Condoravdi, and Riloff 2016) は, 社会不安に関する新聞記事中の事象表現に対して Past, On-going, Future Planned, Future Alert, Future Possible の 5 ののラベルをアノテー ションした. (Asakura, Hangyo, and Komachi 2016) は, ソーシャルメディアに投稿された洪水に関するテキストに含まれる事象表現に対して PAST, PRESENT, FUTUREのラベルと事実性に関する 3 つの値 (high probability, low probability, unmentioned)をアノテーションした. より細かい粒度で時間軸に対応付けたコーパスも存在する。 (Reimers et al. 2016) は, TimeBank Corpus 中の事象表現に対して時間値を付与した.時間値は日にちの粒度で付与されており,事象が 1 日内で終わるものか, 複数日に跨るものかで夕グが異なる。前者にはその事象が起きた日付を,後者にはその事象の開始日と終了日を付与する。次の例文の「出発した」は 1 日内の事象であり,この方法でアノテーションする場合は 1980-05-26を付与する。「過ごした」は複数日に跨る事象であるため, beginPoint=1980-05-26 endPoint=1980-06-01 のように開始日と終了日を付与する。 (5) 1980 年 5 月 26 日、彼は宇宙に向けて出発した。サリユート 6 号で 6 日間を過ごした。 事象の正確な日付が分からない場合は, after と before を用いて記述する。次の例文の「滞在した」には beginPoint=after 1984-10-01 before 1984-10-31 endPoint=after 1984-10-01 before 1984-10-31,「選ばれた」には after 2014-01-01 before 2014-12-31 が付与される. (6)サリバンは 1984 年 10 月、チャレンジャー号のメンバーとして宇宙に滞在した。 2014 年にはタイム 100 に選ばれた。 また,時間性をもたない事象に対しては,n/aを付与した。 彼らのアノテーションでは, 全事象の約 6 割が 1 日内の事象, 約 4 割が複数日に跨る事象である。前者のうち日付が明確なものは $56 \%$, 後者のうち開始日が明確なものは $20 \%$, 終了日が明確なものは $16 \%$ であり,全事象の $64 \%$ after または before を用いて表されている。時間性をもたない事象は全体の $0.7 \%$ であった。 本稿ではこの事象を時間軸に対応させるアプローチを発展させ,テキスト中の多様な時間情報に対応できる夕グ付け基準を提案する。 ## 3 アノテーション基準 1 章で述べたように,本研究ではテキスト中の述語または事態性名詞(サ変名詞,動詞連用形の名詞化, 形容動詞語幹)を含む基本句全てを対象表現として,それらに時間タグを付与する. ここで基本句とは,自立語とそれに続く付属語のことである.基本句を基本単位とすることにより,「行くつもりだ」や「勝てたかもしれない」のような助詞や接尾辞を含む動詞句をひとかたまりとして時間性を考えることができる.英語を対象とした先行研究の多くが,開始と終了が比較的明膫で一時性の強い事象である, TimeML における “event”をアノテーション対象とするのに対し, 本研究では時間性をもち得るより幅広いこれらの表現をアノテーション対象とする。対象表現の例を次に示す。例 (7)の「行くつもりた」は動詞を含む基本句であるため,また例 (8)の「所属」は事態性名詞であるため対象表現である。例 (9)には, 事態性名詞の基本句である「結婚を」と,動詞を含む基本句である「考えたい」の 2 つの対象表現が存在する. (7) 明日京都に行くつもりだ。 (8) 連合所属議員 (9) そろそろ結婚を考えたい。 アノテータには, 本章で述べるアノテーション基準に従って, 対象表現に対するアノテーションを依頼した。アノテータは,まず対象表現が時間性をもつかどうかを判定する,時間性をもつ場合はテキストの作成日 (Document Creation Time, DCT) と文脈を考慮して対応する時間夕グを付与する。時間性を持たない場合は $t: n / a$ (not applicable) という時間タグを記す. 時間性をもつ場合,時間タグは時間基本単位 (Time Base Unit, TBU) またはその組み合わせとして表す(表 1). 時間基本単位とは, 特定の時点や期間を表すもので, 5 種類の夕グを定義する. さらに, 時間基本単位中の一部の期間や繰り返しを表す 3 通りの方法を導入し, 多様な時間情報を表現する。(Reimers et al. 2016) が扱った時間情報は, 表 1 中の $1,3, \mathrm{~b}, t: n / a$ である.時間タグは, 先行研究と同様, 日にちを最小粒度とする。これは, 情報分析において着目したい粒度が数日から数年であることが多いことによる.例えば次の文のように, 2017 年 4 月 29 日に書かれたテキストでは,「帰った」はその日の 18 時のことであるが,日にち以下の粒度の情報は捨てて 2017 年 4 月 29 日という情報をタグ付けする. (10) [DCT: 2017-04-29] 今日は夜 6 時に帰った。 表 1 時間タグの一覧 *は本研究で新しく導入したタグを表す. ## 3.1 対象表現の時間性判定 対象表現が時間性をもつかどうかは,過去から未来の間において表現の表す動作や状態に変化があるか否かで判断する。文脈によって変化の有無や度合いの解釈は変わり得るため,次のような事例を共通認識としつつ,具体的な判断基準は各アノテータに委ねた。 時間性をもつ例をいくつか挙げる. (11) 明日京都に行く。 (12) 言語処理研究が盛んだ。 (13) あの子は背が低かった。 例 (11)の「行く」は,明日という特定の日に起きるものであるため,時間性をもつ.例 (12) の「盛んだ」は,いつからいつまでかは分からないがある限られた時期のことであるため時間性をもつと考える。例 (13)の「低かった」も, 現在はそうではないことを示唆しているため,時間性をもつと考える。これらの例において, 先行研究がアノテーション対象としているのは,例 (11)のみである. 次に時間性をもたない例を示す. ウサギは草を食べる動物だ。 (15) 彼の目は黒い。 例 (14)の「食べる」と「動物だ」は, 昔から変わらない一般的な事柄であるため時間性をもたないと考える,例 (15)の「黒い」も同様である.ただ,次の文のように現在は異なることを示唆する表現の場合は時間性をもつと解釈する。 (16) 以前は目の色が黒かった。 ## 3.2 時間基本単位 ## 3.2.1日付・期間を表すタグ 日付の時間情報は, $t$ タグにその時間の表す値を記すことで表現する。 $t: Y Y Y Y や t: Y Y Y Y-$ $M M-D D$ など, BCCWJ-TimeBank で定義されている時間表現の時間值の記法で記す. 次の例の「到着した」は 2017 年 4 月 28 日の出来事であるため, 時間値 $t: 2017-04-28$ を付与する. (17) [DCT: 2017-04-29] 昨日大統領がニューヨークに到着した。 $\rightarrow t: 2017-04-28$ 本研究では先行研究とは異なり, 日にちより大きな粒度の時間タグを許す。例えば次の例の 「暑かった」には, $t: 2016-08$ を付与する.このタグは,必ずしも厳密に 2016 年 8 月 1 日から 31 日までの期間を表すわけではない.「8月」という表現は「8月1日から 31 日まで」という表現と比べ,その表す期間は漠然と捉えられる。本研究における夕グの粒度はこのような漠然性を含意する。 (18) [DCT: 2017-04-29] 昨年の8月は暑かった。 $\rightarrow t: 2016-08$ アノテータの負担軽減のため, 次のような省略表記を導入する。 - 文書作成日時の日付は $t: D C T$ と記すことができる. - ある日から一定期間前/後の日を引き算/足し算で記すことができる. この際, 期間は BCCWJ-TimeBank で定義された期間表現の時間値の記法を用いる。例えば, 1 年間は $P 1 Y, 1$ ヶ月は $P 1 M, 1$ 週間は $P 1 W, 1$ 日間は $P 1 D$ と表す. 次の例の「行く」の時間値は $t: D C T+P 1 W$,「行った」の時間値は $t: D C T-P 1 W$ と表せる. (19) 私も来週そこに行く。 $\rightarrow t: D C T+P 1 W$ (20) 私も先週そこに行った。 $\rightarrow t: D C T-P 1 W$ ## 3.2.2 漠然とした時間を表すタグ テキスト中には漠然とした時間情報を表す表現も多く存在する。例えば次の文では,「住んでいた」が過去のいつ, どのくらいの期間のことであるのか具体的には分からない. (21) 昔広島に住んでいた。 (Reimers et al. 2016)はこれを「今日までのある日から,今日までのある日まで」と捉え, beginPoint=before DCT endPoint=before DCT とタグ付けした.本研究では, このような漠然とした時間情報をより正確に表現するため,新たなタグを導入する。 文書作成日を基準として, 漠然とした過去, 現在, 未来は, それぞれ $t: P A S T, t: P R E S E N T$, $t$ :FUTURE と記す.ここで,「現在」は文書作成日の少し前から少し後までを表す。例えば次の文の「持ち込める」は, 文書作成日だけでなく, 文書作成日から少し前や後でも成り立つこ (22) 国内線では飲み物を持ち込める。 $\rightarrow t: P R E S E N T$ 過去と未来については, それぞれ時間的距離に応じて $t: P A S T-M$ と $t: P A S T-Y, t: F U T U R E-M$ と $t$ :FUTURE-Yという表記を導入する. $t$ :PAST-M は数ヶ月前を, $t: P A S T-Y$ は数年前を表す 1 .数年以上前, あるいはどのくらい昔なのかが不明な場合は $t: P A S T$ を用いる.未来についても同様である。 漠然とした時間表現はこれ以外にもある。「1980年頃」や「約 3 年間」など数値の曖昧性が明示されている表現の場合, その曖昧な数值の直後に ap (approximately) と記す. 次の例の「建てられた」には $t: 1980 a p$ を付与する. (23) 1980 年頃に建てられた建物 $ \rightarrow t: 1980 \mathrm{ap} $ ## 3.2.3開始・終了時を用いて期間を表す方法 期間の時間値は, 開始時と終了時を〜で結ぶことで表す.これは (Reimers et al. 2016)の beginPoint, endPoint に対応する. 例 (5)の「過ごした」には $t: 1980-05-26 \sim 1980-06-01$ を付与する。 (5) 1980 年 5 月 26 日,彼は宇宙に向けて出発した。サリュート 6 号で 6 日間を過ごした。 $ \rightarrow t: 1980-05-26 \sim 1980-06-01 $  事象の開始時, 終了時のいずれかが不明かつ近い過去/未来である場合はこれを書かない.次の例文の「忙しかった」の時間タグは $t:$ 2017-04-28となる. [DCT: 2017-04-29] 昨日まで忙しかった。 $ \rightarrow t: \sim 2017-04-28 $ 事象の開始時, 終了時が遠い過去や未来である場合は, PASTや FUTUREを用いる. ## 3.2.4 相対的な時間を表すタグ 事象を時間軸に対応付けるアプローチの弱点の 1 つは, 小説など時間表現が少ないテキストでは多くの事象が時間軸と対応付けられない可能性があることである。このような場合, 事象表現間の相対的な時間関係をタグ付けするアプローチの方が情報量の多いアノテーションが可能である。そこで本研究では, 絶対的な時間値が分からない場合は相対的な時間値を付与する. 対象表現の具体的な日付が分からないが, 同一文中の他の基本句との時間関係が分かる場合, これを時間値として記す(時間共参照と呼ぶ),例えば次の文の「起きた」は,具体的な日付は分からないが基本句「選挙の」の表す日の翌日であることは分かる。この場合, $t$ :選挙の $+P 1 D$ と記す。 (25)選挙の翌日、大規模なデモが起きた。 $\rightarrow t$ :選挙の $+P 1 D$ 参照できる基本句が複数ある場合は, 1. 絶対的な時間値が付与されている基本句, 2. 距離が近い基本句の順で優先順位を付け, 最も優先順位の高いもの1つを選択する。 ## 3.2.5発話日時を表すタグ 会話文やインタビューなどでは,その発話日時が不明なことが多い. 文脈から具体的な日付が分かる場合はそれを利用して夕グ付けを行うが,分からない場合は発話日を $t: U D$ (Utterance Day)として記述する。例えば次の文の「頑張るしかない」には $t: U D+P 1 D$ を付与する. (26)「明日頑張るしかない」と監督は言った。 $ \rightarrow t: U D+P 1 D $ ただし, 上の文の「言った」のように, 発話の外の表現には $U D$ は用いず, 絶対的な時間値を記す。 ## 3.3 時間基本単位 (TBU) の一部分の表現 ## 3.3.1 TBU 内の一部の期間を表す方法 ある大きな TBU の中の一部の期間は, 大きい期間を表す $t$ タグと小さい期間を表す span夕グを組み合わせることで表現する。span夕グは, 期間の長さが分かる場合は BCCWJ-TimeBankで定義された期間表現の時間値の記法を用いて記す. 例えば 3 日間は span:P3D, 3 週間は span:P3W, 3 年間は span:P3Yと表す. 期間の長さが分からない場合は span:part と記す. 例 (6)の場合,「滞在した」は 1984 年 10 月のある期間なので $t: 1984-10, s p a n: p a r t を, 「$ 選ばれた」は 2014 年の (6)サリバンは 1984 年 10 月、チャレンジャー号のメンバーとして宇宙に滞在した。 2014 年にはタイム 100 に選ばれた。 $\rightarrow$ 「滞在した」t:1984-10,span:part 「選ばれた」t:2014,span:P1D (Reimers et al. 2016)と比較すると, span:partは彼らの before, afterを用いた記法に対応する. ## 3.3.2TBU 中の繰り返しを表す方法 対象表現は常に連続した期間として表せるわけではない。「毎週日曜日」に行う事象や「3日に 1 回」行う事象もある。このように飛び飛びで複数日に渡って起きる事象は, $t$ 夕グや span タグに加えて繰り返し規則を表す freq夕グを用いて表す. 繰り返しに関するアノテーション方法は次の 3 つがある. - 「週に 2 回」や「3日に 1 度」のように, 繰り返し規則が一定の期間中に起きた回数として表される場合,回数/期間を freq夕グに記す。次の例文の「通っている」には t:2016-07 DCT,freq:2/P1W とタグ付けする. (27) [DCT: 2017-04-29] 昨年 7 月から週に 2 回プールに通っている。 $\rightarrow t: 2016-07 \sim D C T$,freq:2/P1W - 「毎月 25 日」や「毎週日曜日」のように, 繰り返し規則が特定の日付や曜日として表される場合, その日付や曜日を freq夕グに記す.このとき, BCCWJ-TimeBankの夕グ付け基準を拡張し,いかなる数字も入るという意味で $Y Y Y Y-M M-D D$ の各部分に@を入れることを許す。例えば freq:@@@@-@@-25 は毎月 25 日を表す. 次に例を挙げる。 (28) 骨董市は毎月 25 日に開催される。 $\rightarrow$ t:PRESENT,freq:@@@@-@@-25 (29) 毎週日曜はプールに行く。 - 具体的な回数や頻度が文脈から分からない場合, 頻度を抽象的に表した 4 つの値, usually, often, sometimes, rarelyのいずれかを用いる。次の例文の「行く」には $t$ :PRESENT, freq:sometimes を付与する. (30) [DCT: 2017-04-29] スターバックスに時々行く。 $\rightarrow t: P R E S E N T$, freq:sometimes ## 4 アノテーション結果 ## 4.1 アノテーション対象 上述のアノテーション基準を用いて, 京都大学テキストコーパス (Kawahara, Kurohashi, and Hasida 2002) 中の一部の記事に対してアノテーションを行った. 同コーパスは, 1995 年 1 月 1 日から 17 日までの毎日新聞の記事に各種言語情報を人手で付与したものである. この中から当時話題になっていたトピックを 11 個選定し,トピックに関連する 113 記事 856 文,4,534 表現にアノテーションを行った(表 2),4,534 表現のうち,述語は 3,072 表現,事態性名詞は 1,462 表現であった. ## 4.2 アノテーション方法 3 名のアノテータにアノテーションを依頼した.本研究では個人の感覚や常識によって解釈が変わるような表現も対象としているため, アノテータの付与したタグを最終的に 1 つに統合 表 2 アノテーションを行った記事数の分布 図 13 名のアノテー夕によるアノテーション方法. データを 3 分割し,各アノテータは第 1 段階でそのうちの 2 つ, 第 2 段階で残りの 1 つを担当する. 第 2 段階では他の 2 人が第 1 段階で付与した夕グを見ることができる. することはしない. 代わりに,他のアノテータの解釈を尊重しつつ, 明らかなアノテーションミスは修正する 2 段階のアノテーションを行う。まず対象となる文書群全体を 3 つに分割し,各アノテー夕は第 1 段階でそのうちの 2 つ, 第 2 段階で残りの 1 つを担当する(図 1)。これにより,最終的に全員が各文書に 1 度ずつアノテーションを行う。第 1 段階では各アノテータが独立にアノテーションを行うのに対し,第 2 段階では他の 2 人が第 1 段階で付与したタグを見た上で同じタグもしくは独自の夕グを付与する。第 2 段階では,もし既に付けられたタグに明らかな誤りがある場合は印をつける。印を付けられた夕グは全体の $2 \%$ \%あり, 本稿における分析では欠損値として扱う. ## 4.3 時間タグの分布 アノテーションされた全時間タグの分布を表 3 に示す。約 $25 \%$ の対象表現が時間性をもたないと判定された. 日付タグが全体の約 $25 \%$, 期間を表すタグが約 $15 \%$ 占める一方で, 漠然とした時間タグは約 $10 \%$, 時間共参照を含む夕グは数\%と少ない. 新聞を対象に夕グ付けを行ったため, 表現の多くが時間軸に対応付けられたと考えられる。また, 繰り返しを表す freq夕グは全体の $1 \%$ ととんど表れなかった。 本稿で新たに提案したタグは, 全体の約 $25 \%$ 占めた. 表 4 は,アノテーションの第 2 段階における,述語と事態性名詞それぞれに付与された時間タグの分布を示したものである。述語に付与されたタグの $27 \% を日$ 付タグが占めるのに対し,事態性名詞では約半分の $12 \%$ である。一方, 事態性名詞では時間性なしと判定された表現が多く, 述語の約 2 倍の割合に当たる $35 \%$ 占める。これは, 「全欧安保協力機構」「地方旅行の自由化」など,事態性名詞が組織や一般的な事象などを表すことも多いためである. ## 4.4 アノテータ間一致率 Krippendorff's $\alpha$ (Krippendorff 2004; Hayes and Krippendorff 2007) を用いてアノテータ間一致率を算出した。(Reimers et al. 2016) と同様の 2 つの基準を用いた. 1 つはタグの一致度を厳格に測る基準 (Strict 基準) で, 時間タグが完全に一致するか否かを判定する. 例えば $t: 1994-12-31$ は $t: 1994-12-31$ と一致するが, $t: \sim 1994-12-31$ とは一致しない. もう1つは時間夕グの部分一致 表 3 第 1 , 第 2 段階でアノテーションされた全ての時間タグの分布 インデントされた項目は内訳を表す。また,*は本研究で新たに導入したタグを表す. 表 4 第 2 段階でアノテーションされた, 述語と事態性名詞に対する時間夕グの分布 を認める緩やかな基準(Relax 基準)である。アノテータ間の時間タグが 1 日でも重なっていたら一致とし, 全く重なっていなかったら不一致とする。例えば $t: 1994-12-31$ と $t$ : 1994-12-31 は,両者の範囲が重なっているため一致と判定する。一方, $t:$ 1994-12-31と $t: 1995-01-01$ のように, 1 日も重なっていない場合は不一致と判定する. このとき, $t: n / a$ と時間共参照については部分一致を認めず,完全に同じでない場合は不一致として扱う,各段階終了時の一致率を表 5 に記す。表の括弧内の 2 つの数值はそれぞれ述語, 事態性名詞のみを対象とした場合の一致率である。最終時とは,第 2 段階までのアノテーションを終えた,最終的な夕グを表す.「t:n/a を除く」は,各段階で 1 人でも $t: n / a$ を付けた表現(第 1 段階終了時, 最終時ともに約 1,300 個) を除いたものである。第 1 段階終了時では 2 名の, 最終時では 3 名のアノテー夕間一致率を算出した. 第 1 段階終了時と最終時の一致率を比較すると, 後者が大幅に上がっている. これは, 前者は独立に付与されたタグであるのに対し, 後者は他のアノテータのタグを見て付与された第 2 除いて評価すると, Strict 基準において大幅な一致率向上が見られた。このことから, Relax 基準での一致率が低い原因の 1 つが,時間性判定の難しさにあることが分かる. 述語と事態性名詞の一致率を比較すると,両基準ともに事態性名詞の一致率が低い。事態性名詞は述語に比べて時間性のない表現の占める割合が多いため, 時間性判定の難しさの影響を 名詞の一致率が低く, 時間が明確な表現は少ないことが分かる。たたし,これらの値は Relax 基準では大幅に上がり,また述語との差もほぼなくなるため,夕グは完全には一致しないもののアノテータ間の認識に大きな隔たりはないと考えられる。 (Reimers et al. 2016)の一致率と比較すると, 特に Strict 基準において低いものとなっている. これは時間タグのバリエーションを増やしたことにより個人の解釈の摇れが多く反映されたことを表している. 両基準におけるアノテータ間のタグの一致/不一致について,次章でより詳細に述べる. 表 5 Krippendorff's $\alpha$ を用いて算出したアノテータ間一致率 括弧内の数値は(述語/事態性名詞)における一致率を表す。 ## 5 アノテータ間でのタグの摇れ分析 本研究で提案した時間タグは, 先行研究と比べ時間情報をより正確に表現できるようになった一方でアノテータの解釈に敏感である。本章では,アノテータ間でどのように時間タグが摇れたかを分析する. 具体的な時間値にとらわれずに時間タグの特徴を扱うため,時間タグを粒度の面から抽象化する。例えば, $t: 1994-12-31$ や $t: D C T$ などの日付を表す時間タグは $D A Y, t:$ 1994-12-31 は 〜DAY, t:1994は YEAR とする。また, spanタグや freq夕グはその値を省略して表記する。例えば $t:$ 1994-12-31,span:P1D や $t: \sim 1994-12-31$, span:part は DAY,span とする. 本章では,アノテータが独立にアノテーションを行った,第 1 段階のアノテーション結果を対象として分析する。表 6 , 表 7 は, それぞれ Strict 基準と Relax 基準において, アノテータ間でどのように時間夕グが摇れたかをまとめたものである. ここで, アノテーションの一致の判定は元の時間値を用いて行い,集計のみ抽象化を行った値を使用した。 表 6 を見ると, Strict 基準ではアノテータ間で一致したタグの約 7 割が DAYと n/aであり,不一致の多くは $\mathrm{n} / \mathrm{a}$ か否かの判定, あるいは $D A Y$ と DAYなどの日付と期間の解釈の違いに起因するものであることが分かる,表 7 を見ると,Relax 基準における不一致のほとんどは $n / a$ か否かの判定である. Strict 基準で見られた日付と期間の解釈の違いのほとんどはこの基準では一致しており,領域が重なっていたことが分かる. このような, アノテータ間の時間性判定と日付・期間の解釈の摇れについて次節以降, 具体例を通して分析する。 表 6 第1 段階のアノテーション結果に対する,『Strict 基準』におけるアノテータ間の時間タグの一致不一致頻度 表 7 第 1 段階のアノテーション結果に対する, 『Relax 基準』におけるアノテータ間の時間タグの一致不一致頻度 ## 5.1 時間性の判定 Relax 基準において,アノテータ間でタグが一致しない最大の原因は,アノテータによって時間性の判断が摇れることにある。n/a夕グと共起しやすいタグは,頻度順に $\mathrm{n} / \mathrm{a}(76.6 \%), D A Y$ (5.3\%), PRESENT (5.0\%), DAY,span (1.7\%) となっており, 8 割近くの割合でアノテータ間で $\mathrm{n} / \mathrm{a}$ が一致し, そうでない場合の約 4 割は片方のアノテータが DAYか PRESENTを付与している。このような表現には状態や役職,組織を表すものが多く,ある程度普遍的なものと見るか,期間としては長くても一時的なものと見るかで判断が分かれている. 大統領官邸のある中心部 $\rightarrow t: P R E S E N T$ vs $t: n / a$ 時間性を認めたアノテータは,記事の執筆時前後では大統領官邸が中心部にあるものの,過去,あるいは未来にはそれが変わる可能性があると解釈したのに対し,時間性を認めなかったアノテータは,変わる可能性はほとんどない,半永続的なことと解釈したと考えられる. ## 5.2 日付と期間の解釈 (Reimers et al. 2016) も指摘しているとおり,ある事象がある日一日内のことなのか, 複数日に跨ることなのかをテキストから判断するのは難しい。また,ある事象の開始時や終了時を明確化することも容易ではない。このような曖昧性は, 本アノテーションにおいては $D A Y, \sim D A Y$, $\sim D A Y$,span, $D A Y \sim, D A Y \sim$, span, PRESENT の摇孔として現れる. 中でも多いのは $D A Y$ と D DAY,spanの間の摇れである. 特にDAYが DCT の場合が多く, 文書作成日に起きたのか, それまでに起きたのかの解釈が難しいことを表している. これはアノテーション対象が新聞記事であることが要因の 1 つであると考えられる. 次の例では,アノテータのタグが $t: D C T$ と $t: \sim D C T$,span:partで摇れた. 前者はこの表現を文書作成日のことと解釈したのに対し,後者はより長い期間であると解釈したと考えられる. (32)しかしデュダエフ政権部隊は頑強に抵抗,双方の死者は数百人に達する見込みだ。 $\rightarrow t: D C T$ vs $t: \sim D C T$,span:part 性から,その日のことを記事にしたと解釈したのに対し,後者はそうとは限らないと解釈したと考えられる。 (33)外相は,「非民営化・再国営化」の基本方針を打ち出した。 $\rightarrow t: D C T$ vs $t: \sim D C T$,span:P1D こうした新聞ならではの書き方やテーマ, 性質が, 解釈をより難しくしていると考えられる. このように,テキストに明示的に書かれていないことに対する解釈は読者によって少しずつ異なり,しかもいずれも誤りとは言えない. 人がどのようにテキスト理解をしているのかをデー 夕として表現する方法の 1 つが, 本研究のように, 複数のアノテータの解釈を反映させたタグを全て記載することだと考える。 ## 6 時間情報推定 本研究で付与したタグを推定する簡単なモデルを作成し, そのエラー分析を通して, 推定に必要な知識や技術について議論する. ## 6.1 問題設定 本稿で提案した時間タグは多様な時間情報を扱える一方で, 作成したコーパスの分量が大きくないため,機械学習を用いて直接推定するには夕グがスパースだという問題がある。 そこでタグを下記の 3 つの要素へと簡略化し, 各々を多クラス分類問題として推定する(図 2). a. 時間性:事象が時間性をもつか否か(2クラス) b. 事象の時間的長さ:事象の発生期間(4クラス) c. 事象の発生時期 : 文書作成日を基準とした事象の発生時期(5クラス) 以下に各タスクの詳細を述べる。 (b) 事象の時間的長さ (c) 文書作成日を基準とした、事象の発生時期 図 2 推定を行う 3 つのタスク ## 6.1.1(a)時間性判定タスク 対象表現が時間性をもつか否か, すなわち対応する時間タグが $t: n / a$ か否かを判定する.全対象表現 4,534 個のうち, $76 \%$ の 3,438 個が時間性をもつ. ## 6.1.2 (b) 事象の時間的長さ分類タスク 時間性をもつ事象において, 事象の時間的な長さを時間粒度に応じて 4 つクラスに大別し, 4 クラス分類問題として考える。具体的には, 期間を 1 日以内, 1 ヶ月未満, 1 年未満, 1 年以上, の 4 つに分類する. 時間共参照や span:part が付与された表現など時間の長さが分からないものはデータから取り除き、全 4,534 対象表現のうち 2,752 個を用いた. 以下に例を示す. - 1 日以内: $t: 1994-12-31, t: 1994, s p a n: P 1 D$ - 1 ヶ月未満: $t: 1994-12-25 \sim 1994-12-31, t: 1994-12, s p a n: P 3 D$ - 1 年未満: $t: 1994-12$ - 1 年以上: $\quad t: 1994, t: P A S T$ 全体に占めるクラスの割合は, 1 日以内 $(1,545$ 個, $56 \%$ ), 1 ヶ月以内 $(640$ 個, $23 \%), 1$ 年以内 $(135$ 個, $5 \%), 1$ 年以上(432 個, $16 \%$ ) である. ## 6.1.3 (c) 事象の発生時期分類タスク 時間性をもつ事象における,文書作成日から事象を代表する日にち(以降,事象代表日と呼ぶ)までの日数を時間の粒度に応じて 5 つのクラスに大別し, 5 クラス分類問題として考える。 ここで, 事象代表日とは事象の開始日と終了日の中間に位置する日を指す. span夕グを用いて表されるような開始日や終了日が不明な事象の場合, より広い範囲を表す $\mathrm{t}$ タグの中間に位置する日を用いる。例えば t:1994-12,span:P3D では, 1994 年 12 月の中間の日である 1994 年 12 月 16 日を事象代表日とする. 具体的には, 3 年以上前, 3 年前から 3 日前, 3 日前から 3 日後, 3 日後から 3 年後, 3 年以上後の 5 つである(図 3).時間共参照など事象の発生時期が明確に分からないものはデータから取り除き, 全 4,534 対象表現のうち 3,276 個を用いた. 図 3 事象の発生時期の 5 クラス分類(タスク c) 以下に文書作成日を 1995 年 1 月 1 日とした場合の例を示す. - 3 年以上前: $\quad t: 1990, \quad t: P A S T$ - 3 年前から 3 日前: $t: 1994-06-01, t: 1994, s p a n: P 1 D$ - 3 日前から 3 日後: $t: D C T, t: 1994-12-29 \sim 1994-12-31$ - 3 日後から 3 年後: $t: 1995-03, s p a n: p a r t, t: F U T U R E-M$ - 3 年以上後: $\quad t: 2000, t: F U T U R E$ 全体に占めるクラスの割合は, 3 年以上前 (284 個, $9 \%$ ), 3 年前から 3 日前 (879 個, $27 \%$ ), 3 日前から 3 日後 (1,331 個, $41 \%$ ), 3 日後から 3 年後 (571 個, $17 \%$ ), 3 年以上後 $(211$ 個, $6 \%)$ である。 ## 6.2 モデル 事象が時間性をもつかどうかは,対象表現中の語彙情報が大きな手がかりとなると考えられる。例えば「出勤する」は多くの場合時間性をもつのに対し,「装甲」などのサ変名詞は時間性をもたないことが多い,一方で,事象の時間的長さや発生時期は文脈に大きく依存すると考えられる.例えば,対象表現「滞在した」の前に「3日間」という表現があるのか「1年間」という表現があるのかで事象の時間的長さは全く異なる。同様に,対象表現「昇段した」の前の表現が「昨日」なのか「昨年」なのかで発生時期は異なる。そこで本研究では 2 つのモデルを用意し, 時間性判定タスクでは対象表現に着目したモデルを, 事象の時間的長さ分類タスクと発生時期分類タスクでは文脈にも着目したモデルを用いる。コーパス中の対象表現が多様でスパー スであること,また対象表現自体が重要な手がかりであり word2vec で事前学習した単語分散表現が有効であると考え,これを活かしたニューラルネットワークモデルを構築する。モデルの全体図を図 4 に示す. 両モデルの違いは対象表現を表すべクトルである。時間性判定のモデルでは,対象表現中の各単語べクトルを足し合わせたものを用いる。例えば,図 4 の例(左)では,対象表現「空爆を」 を構成する「空爆」と「を」の 2 つの単語べクトルを足し合わせる。文脈を用いるモデルでは, まず文全体に対して双方向 GRU (Gated Recurrent Unit) (Chung, Gulcehre, Cho, and Bengio 図 4 対象表現「空爆を」の時間情報を推定する 2 つのニューラルネットワークモデル. 対象表現中の語彙情報のみを用いる (a) 時間性判定モデル(左)と,文脈を使用する $(b, c)$ 事象の時間的長さ・発生時期推定モデル (右). 2014)を適用した後,対象表現中の自立語の単語ベクトルを用いる。図 4 の例(右)では,対象表現「空爆を」の中の自立語である「空爆」の単語ベクトルを用いる。両モデルとも,この対象表現ベクトルに, 同一文/直近の時間表現情報を表すべクトルと, 時間表現との共起スコアベクトルを結合し,パーセプトロンを用いてクラス分類を行う。以下に両ベクトルの詳細を述べる。 - 同一文・直近の時間表現情報ベクトル: 文に含まれる時間表現の時間的粒度を表す 4 次元のバイナリベクトルである。文中の時間表現をルールベースで検出し,検出された時間表現が(日,週,月,年)の各粒度に当てはまるか否かの 2 クラスでベクトルを構成する。例えば図 4 の例の場合,文中には 「昨日」という時間表現が存在するため,「日」の粒度に該当する次元のみ 1 でその他は 0 の 4 次元べクトル $(1,0,0,0)$ となる.「同一文中の時間表現情報ベクトル」は,対象表現の文の時間情報べクトルであり,「直近の時間表現情報べクトル」は,対象文以前で時間表現を含む文の時間表現情報べクトルである。全 4,534 対象表現のうち, $35 \%$ にたる 1,601 表現で同一文中に時間表現が検出され,また $87 \%$ にたる 3,940 表現ではその文以前に時間表現が検出された。 - 共起スコアベクトル: 対象表現と時間表現粒度の共起度を表す 4 次元の実数値べクトルである。まず前処理として,前項と同様にテキスト中の時間表現をルールベースで検出し,これを(日,週,月,年)のいずれかの粒度に変換する。その後, 対象表現と各粒度との同一文中での共起スコアを算出する。共起スコアには自己相互情報量 (Pointwise Mutual Information, PMI) を,データには 1984 年から 2005 年までの朝日新聞 1,300 万文を用いた. ## 6.3 実験 各タスクにおけるクラス分類には,コーパス構築時において第 2 段階でアノテーションされたタグを利用し,5 分割交差検定を用いて学習・評価を行った。 2 クラス分類である時間性判定タスクの評価には F1 值, 多クラス分類である事象の時間的長さ分類・事象発生時期分類タスクの評価には Micro-F1 値を用いた. パーセプトロンには, 50 次元の 1 つの隠れ層を持つ 2 層フィードフォワードニューラルネットワークを使用した。損失関数には交差エントロピー誤差関数を,パラメータの最適化には Adadeltaを使用した. GRUの隠れ層は 100 次元である. 単語の分散表現には 98 億文の Web テキストにより事前学習された 200 次元のベクトルを, 品詞の分散表現にはランダムに初期化された 10 次元のベクトルを用いた. これらは誤差逆伝播時に値が更新される。 各タスクの実験結果を表 8 に示す.いずれのタスクも各クラスのデータ量に大きな偏りがあることから,マジョリティのクラスのみを出力した場合のスコアをべースラインとして記載した. 時間性判定タスクでは約 9 割のスコアが得られた一方, 事象の時間的長さ分類タスクは約 6 割, 事象発生時期分類タスクは約 5 割にとどまった. また,各タスクで最もスコアが良かった条件における Confusion Matrixを表 9 に示す。時間性判定タスクでは,誤りの約 7 割が時間性のないものをあると判定したものであった。事象の時間的長さ分類タスクでは, 「1 ヶ月未満」クラスを「1 日以内」クラスと誤答することが多かった. 事象の発生時期分類タスクでは,「3 年前から 3 日前」クラスと「 3 日前から 3 日後」クラスの区別で多くの誤りが存在する. 表 8 (a) 時間性判定タスク, (b) 事象の時間的長さ分類タスク,(c) 事象の発生時期分類タスクにおける実験結果 2 クラス分類である時間性判定タスクでは F1 値を用い,他の 2 つのタスクでは Micro-F1 値を用いて評価した. 表 9 (a) 時間性判定タスク, (b) 事象の時間的長さ分類タスク, (c) 事象の発生時期分類タスクにおける Confusion Matrix (a) 時間性判定タスク (b) 事象の時間的長さ分類タスク (c) 事象の発生時期分類タスク ## 6.4 議論 ## 6.4.1 時間性判定タスク 本タスクでは, 単語分散表現の情報のみでベースラインを 3 ポイント以上上回った. これは,対象表現自体が時間性の有無に大きく関係していること示唆している。 また, 品詞分散表現を利用することでスコアの向上が見られた.「対して」や「総当たり」などのサ変動詞/名詞からなる時間性をもたない対象表現検出に役立ったと考えられる. 本モデルでは対象表現のみに着目したが, このアプローチでは次の例の「開発」を正しく解くことができない. (34) 国連の支援で,総合開発の立案などの成果をあげた(時間性あり) (35) 開発のゆがみを知る人たち((時間性なし) (36) 経済開発区(時間性なし) 例 (34) は特定の開発事業であるため時間性をもつが,例 (35) や例 (36) は不特定あるいは一般的な事象であるため時間性をもたない。このような例に対処するためには, 対象表現の前後の表現や,対応する述語や項の性質などの情報を考慮する必要がある. ## 6.4.2 事象の時間的長さ分類タスク 本タスクでは共起スコアベクトルの導入によりスコアが向上した。例えば次の例の「宿泊」 は, 単語と品詞情報のみのモデルでは誤答したが, 「宿泊」と日にち粒度の時間表現の共起スコ アが高いという情報を与えることで正答した. (37) ホテルの宿泊者が目撃した 一方, 表 9 からも分かるように,多くの例で誤って「1 日以内」クラスを出力した. 次の例は全て「1日以内」クラスを出力し誤答したものである. (38) 兵士が首都から南に脱出している (39) 見逃せないのは労組の圧力だ (40) 出稼ぎ世帯の大半は、テレビやバイクを買う (41) 啓蒙に力を入れている 例 (38), 例 (39), 例 (40) はいずれも, 対象表現自体は 1 日以内の事象とも捉えることができるものであるが,この文脈ではそうではない,本モデルは文脈を考慮するものであるが,より大規模なデータで学習する必要があると考えられる。例 (41)では, 対象表現は軽動詞であり,「啓蒙」が時間を考える上での手がかりである。このような単語の含意する時間情報知識を大規模に獲得し,モデルに取り入れる必要がある. ## 6.4.3事象の発生時期分類タスク 本タスクでは,時間表現情報ベクトルがスコア向上に貢献している。これは例えば「四日発生した雪崩」のように,時間表現が重要な手がかりを与える場合が多く存在するためだと考えられる。本モデルでは「昨日」や「1995 年」などの明示的な時間表現のみを対象としたが, テキスト中には「ベトナム戦争」や「前回のワールドカップ」など暗黙的に時間情報を表す表現も多く存在し, 誤答の原因となっている。Wikipediaなどの外部知識を用いて,より広範な時間情報を考慮する必要がある. 本モデルでは時間表現情報を 4 つの粒度で表したが,テキスト中には「昼過ぎ」などより細かい粒度の情報も多く存在する。これらの情報を利用することでスコア向上が期待される。また,本モデルでは時間の粒度のみに着目したが,時間表現が日付を表すのか期間を表すのかで大きく意味が変わる。例えば「3日」という時間表現を「1月 3 日」のことと解釈するのか「3 日間」のことと解釈するのかは, 事象の時間的長さ・発生時期の推定タスクにおいて非常に重要であり, さらなるスコア向上のためには高度な時間表現解析器の導入が必要である. ## 7 本アノテーションの応用 本アノテーションには様々な応用先が考えられる。例えば,ニュース記事からのタイムラインやサマリーの生成である。ニュースには事件や出来事に関する新しい情報は記載されるが, それを取り巻く出来事やこれまでの経緯は記載されないことも多いため, 出来事の全体像を知るためには複数の記事を読み情報を統合する必要がある。またニュースには,その時の情報に基づいた予想や解釈も記載されるため,異なる時期に書かれた別の記事と比較することは情報の信頼性を担保する上で有益である. 本稿で述べたアノテーション基準やデータ,時間情報推定モデルは,このような記載時期の異なる情報の統合や比較に利用することができる。図 5 は,1995 年 1 月に行われたサッカー大会に関する事象を時間軸上に配置したものである。文章作成日を区別して事象を配置するため 2 つの時間軸を導入しており,横軸は文章作成日,縦軸は事象の起きた日を表す。例えば右上の「デンマークが優勝した」は,1月 15 日に記述された事象で, これに対応する時間値は 1 月 13 日 (t:1995-01-13) である. 本研究で作成したデータは, このようにアプリケーションを構築するためのモデルの学習や評価に用いることができる。本研究でアノテーションを行った京都大学テキストコーパスには, 既に述語項構造や共参照関係のアノテーションがなされているため,「ラモス」など特定のエンティティに着目した学習や評価にも用いることが可能である. また, 本アノテーション基準や時間情報推定モデルを利用することにより, 事象に関する時間情報知識を大量のテキストから収集することが可能となる. 出来事や状態の発生日や継続日数, 頻度などの情報は, 情報検索, 要約, 対話, 文生成など多くのアプリケーションで利用す 図 51995 年1月に行われた、サッカーのインタコンチネンタル選手権に関する事象の時間軸への配置.横軸は文章作成日, 縦軸は事象の起きた日を表す. 例えば右上の「デンマークが優勝した」は文章作成日が 1 月 15 日で,これに対応する時間値は 1 月 13 日である. ることができる。本稿で述べたアノテーション基準は,これらの時間情報を詳細に記述する手段として用いることができ,また時間情報推定モデルは事象に関する時間情報をテキストから自動獲得する技術に応用することが可能である. ## 8 おわりに 本稿では,テキスト中の時間情報を網羅的にアノテーションするための新しい夕グ付け基準について述べた。従来研究よりも広範な表現をアノテーション対象とし, また表現力豊かな時間タグを導入した。京都大学テキストコーパス中の 113 文書に対してアノテーションを行った結果, $76 \%$ の表現が時間性をもつと判断され,そのうちの $35 \% ($ 全体の $26 \%$ )に本稿で新たに提案された時間タグが付与された。本研究で付与した時間情報を, 時間性・事象の時間的長さ・事象の発生時期の 3 つの観点から推定するモデルを構築した. 各精度は $\mathrm{F}$ 値において $90 \%, 61 \%$, $49 \%$ あった. 本研究では,新聞記事を対象にアノテーションを行ったが,新聞特有の書き方や性質がアノテーションの摇れの原因の 1 つになっていると考えられる. 今後は, Webなど新聞以外のコー パスでのアノテーションを試みたい. また, 本研究では時間表現に対するアノテーションは行っていない.これは, 日本語時間表現に対するアノテーションにおけるアノテータ間一致度は高いことが (小西, 浅原, 前川 2013) により報告されており,時間表現に対する解釈が摇れて事象に対するアノテーションに影響を及ぼすことは少ないと考えたからである。しかし, 時間情報解析器を構築する上では有益な情報になると考えられるため,今後は時間表現にもアノテーションを行い,より充実した時間情報コーパスにしていきたい. ## 謝 辞 本研究の一部は JST CREST JPMJCR1301,AIP チャレンジの助成によるものです。また本論文の内容の一部は, 11th edition of the Language Resources and Evaluation Conference で発表したものです (Sakaguchi, Kawahara, and Kurohashi 2018). アノテーションにご協力いただいた石川真奈見氏, 堀内マリ香氏, 二階堂奈月氏に感謝いたします。また,時間情報推定モデルに関して有益なコメントをくださった柴田知秀氏に感謝いたします. ## 参考文献 Asahara, M., Kato, S., Konishi, H., Imada, M., and Maekawa, K. (2014). "BCCWJ-TimeBank: Temporal and Event Information Annotation on Japanese Text." International Journal of Computational Linguistics 83 Chinese Language Processing, 19 (3), pp. 1-24. Asakura, Y., Hangyo, M., and Komachi, M. (2016). "Disaster Analysis using User-Generated Weather Report." In Proceedings of the 2nd Workshop on Noisy User-generated Text (WNUT), pp. 24-32, Osaka, Japan. The COLING 2016 Organizing Committee. Cassidy, T., McDowell, B., Chambers, N., and Bethard, S. (2014). "An Annotation Framework for Dense Event Ordering." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 501-506, Baltimore, Maryland. Association for Computational Linguistics. Chung, J., Gulcehre, C., Cho, K., and Bengio, Y. (2014). Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling. Hayes, A. F. and Krippendorff, K. (2007). "Answering the Call for a Standard Reliability Measure for Coding Data." Communication Methods and Measures, 1 (1), pp. 77-89. Huang, R., Cases, I., Jurafsky, D., Condoravdi, C., and Riloff, E. (2016). "Distinguishing Past, On-going, and Future Events: The EventStatus Corpus." In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 44-54. Association for Computational Linguistics. Kawahara, D., Kurohashi, S., and Hasida, K. (2002). "Construction of a Japanese Relevancetagged Corpus." In Proceedings of the 3rd International Conference on Language Resources and Evaluation (LREC-2002), Las Palmas, Canary Islands-Spain. European Language Resources Association (ELRA). Kolomiyets, O., Bethard, S., and Moens, M.-F. (2012). "Extracting Narrative Timelines as Temporal Dependency Structures." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics, Jeju, Republic of Korea, 8-14 July 2012, pp. 88-97. ACL. 小西光, 浅原正幸, 前川喜久雄 (2013). 『現代日本語書き言葉均衡コーパス』に対する時間情報アノテーション. 自然言語処理, 20 (2), pp. 201-221. Krippendorff, K. (2004). Content Analysis: An Introduction to Its Methodology (second edition). Sage Publications. Minard, A.-L., Speranza, M., Agirre, E., Aldabe, I., van Erp, M., Magnini, B., Rigau, G., and Urizar, R. (2015). "SemEval-2015 Task 4: TimeLine: Cross-Document Event Ordering." In Proceedings of the 9th International Workshop on Semantic Evaluation (SemEval 2015), pp. 778-786, Denver, Colorado. Association for Computational Linguistics. Pustejovsky, J., Hanks, P., Saurí, R., See, A., Gaizauskas, R., Setzer, A., Radev, D., Beth Sundheim, D. D., Ferro, L., and Lazo, M. (2003). "The TIMEBANK Corpus." In Proceeding Corpus Linguistics 2003, pp. 647-656. Reimers, N., Dehghani, N., and Gurevych, I. (2016). "Temporal Anchoring of Events for the TimeBank Corpus." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2195-2204, Berlin, Germany. Association for Computational Linguistics. Sakaguchi, T., Kawahara, D., and Kurohashi, S. (2018). "Comprehensive Annotation of Various Types of Temporal Information on the Time Axis." In Proceedings of the 11th Edition of its Language Resources and Evaluation Conference, pp. 332-338, Miyazaki, Japan. Sauri, R., Littman, J., Gaizauskas, R., Setzer, A., and Pustejovsky, J. (2006). "TimeML Annotation Guidelines, Version 1.2.1.". UzZaman, N., Llorens, H., Derczynski, L., Allen, J., Verhagen, M., and Pustejovsky, J. (2013). "SemEval-2013 Task 1: TempEval-3: Evaluating Time Expressions, Events, and Temporal Relations." In 2nd Joint Conference on Lexical and Computational Semantics (*SEM), Volume 2: Proceedings of the Seventh International Workshop on Semantic Evaluation (SemEval 2013), pp. 1-9. Association for Computational Linguistics. Verhagen, M., Gaizauskas, R., Schilder, F., Hepple, M., Katz, G., and Pustejovsky, J. (2007). "SemEval-2007 Task 15: TempEval Temporal Relation Identification." In Proceedings of the 4th International Workshop on Semantic Evaluations (SemEval-2007), pp. 75-80. Association for Computational Linguistics. Verhagen, M., Sauri, R., Caselli, T., and Pustejovsky, J. (2010). "SemEval-2010 Task 13: TempEval-2." In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 57-62. Association for Computational Linguistics. ## 略歴 坂口智洋 : 2013 年東京大学理学部生物情報科学科卒業. 2015 年京都大学大学院情報学研究科修士課程修了. 同大学院博士課程在学中. 修士 (情報学)。自然言語処理の研究に従事. 河原大輔:1997 年京都大学工学部電気工学第二学科卒業. 1999 年同大学院修士課程修了. 2002 年同大学院博士課程単位取得認定退学. 東京大学大学院情報理工学系研究科学術研究支援員, 独立行政法人情報通信研究機構研究員, 同主任研究員を経て,2010 年より京都大学大学院情報学研究科准教授. 自然言 語処理, 知識処理の研究に従事. 博士 (情報学). 情報処理学会, 言語処理学会, 人工知能学会, 電子情報通信学会, ACL, 各会員. 黒橋禎夫:1994 年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士 (工学). 2006 年 4 月より京都大学大学院情報学研究科教授. 自然言語処理, 知識情報処理の研究に従事. 言語処理学会 10 周年記念論文賞, 同 20 周年記念論文賞, 第 8 回船井情報科学振興賞, 2009 IBM Faculty Award 等を受賞. 2014 年より日本学術会議連携会員. $(2018$ 年 8 月 1 日 $\quad$ 受付 $)$ $(2018$ 年 11 月 1 日 $\quad$ 再受付 $)$ $(2018$ 年 12 月 12 日 $\quad$ 採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## CKYに基づく畳み込みアテンション構造を用いた ニューラル機械翻訳 \author{ 渡邊大貴 $^{\dagger}$ ・田村晃裕 $^{\dagger} \cdot$ 二宮崇 $^{\dagger} \cdot$ Teguh Bharata Adji ${ }^{\dagger \dagger}$ } 本論文では, ニューラル機械翻訳 (NMT) の性能を改善するため, CKY アルゴリズムから着想を得た, 畳み込みニューラルネットワーク (CNN) に基づく新しいアテンション構造を提案する。提案のアテンション構造は, CKY テーブルを模倣した CNN を使って, 原言語文中の隣接する単語/句の全ての可能な組み合わせを表現する。提案のアテンション構造を組み込んた NMT は, CKY テーブルの各セルに対応する CNN の隠れ状態に対するアテンションスコア(言い換えると,原言語文中の単語の組み合わせに対するアテンションスコア)に基づき目的言語の文を生成する. 従来の文構造に基づく NMT は予め構文解析器で解析した文構造を活用するが, 提案のアテンション構造を用いる NMT は, 原言語文の構文解析を予め行うことなく, 原言語の文に潜む構造に対するアライメントを考慮した翻訳を行うことができる. Asian Scientific Paper Excerpt Corpus (ASPEC) 英日翻訳タスクの評価実験により, 提案のアテンション構造を用いることで, 従来のアテンション構造付きのエンコーダデコーダモデルと比較して, 1.43 ポイント BLEU スコアが上昇することを示す. さらに,FBIS コーパスにおける中英翻訳タスクにおいて,提案手法は,従来のアテンション構造付きのエンコーダデコーダモデルと同等かそれ以上の精度を達成できることを示す. キーワード:ニューラル機械翻訳,CKY アルゴリズム,畳み込みニューラルネットワーク ## Neural Machine Translation with CKY-based Convolutional Attention \author{ Taiki Watanabe ${ }^{\dagger}$, Akiniro Tamura $^{\dagger}$, Takashi Ninomiya $^{\dagger}$ and Teguh Bharata Adji ${ }^{\dagger \dagger}$ } This paper proposes a new attention mechanism for neural machine translation (NMT) based on convolutional neural networks (CNNs), which is inspired by the CKY algorithm. The proposed attention represents every possible combination of source words (e.g., phrases and structures) through CNNs, which imitates the CKY table in the algorithm. NMT, incorporating the proposed attention, decodes a target sentence on the basis of the attention scores of the hidden states of CNNs. The proposed attention enables NMT to capture alignments from underlying structures of a source sentence without sentence parsing. The evaluations on the Asian Scientific Paper  Excerpt Corpus (ASPEC) English-Japanese translation task show that the proposed attention gains 1.43 points in BLEU as compared to a conventional attention-based encoder decoder model. Furthermore, the proposed attention is at least comparable to, or better than, a conventional attention-based encoder decoder model on the FBIS Chinese-English translation task. Key Words: Neural Machine Translation, CKY Algorithm, Convolutional Neural Networks ## 1 はじめに 近年,ニューラルネットワークに基づく機械翻訳(ニューラル機械翻訳;NMT)は,単純な構造で高い精度の翻訳を実現できることが知られており,注目を集めている.NMT の中でも,特に,エンコーダデコーダモデルと呼ばれる,エンコーダ用とデコーダ用の 2 種類のリカレントニューラルネットワーク (RNN) を用いる方式が盛んに研究されている (Sutskever, Vinyals, and Le 2014). エンコーダデコーダモデルは,まず,エンコーダ用の RNN により原言語の文を固定長のベクトルに変換し,その後,デコーダ用のRNNにより変換されたべクトルから目的言語の文を生成する。通常,RNNには,Gated Recurrent Units (GRU) (Cho, van Merrienboer, Gulcehre, Bahdanau, Bougares, Schwenk, and Bengio 2014b) や Long Short-Term Memory LSTM) (Hochreiter and Schmidhuber 1997; Gers, Schmidhuber, and Cummins 2000) が用いられる。このエンコーダデコーダモデルは,アテンション構造を導入することで飛躍的な精度改善を実現した (Bahdanau, Cho, and Bengio 2015; Luong, Pham, and Manning 2015).この拡張したエンコーダデコーダモデルをアテンションに基づく NMT (ANMT) と呼ぶ. ANMT では,デコーダは,デコード時にエンコーダの隠れ層の各状態を参照し,原言語文の中で注目すべき単語を絞り込みながら目的言語文を生成する。 NMT が出現するまで主流であった統計的機械翻訳など, 機械翻訳の分野では, 原言語の文, 目的言語の文,またはその両方の文構造を活用することで性能改善が行われてきた (Lin 2004; Ding and Palmer 2005; Quirk, Menezes, and Cherry 2005; Liu, Liu, and Lin 2006; Huang, Knight, and Joshi 2006). ANMTにおいても,その他の機械翻訳の枠組み同様,文の構造を利用することで性能改善が実現されている。例えば,Eriguchiら (Eriguchi, Hashimoto, and Tsuruoka 2016b) は,NMTによる英日機械翻訳において原言語側の文構造が有用であることを示している.従来の文構造に基づく NMT のほとんどは,事前に構文解析器により解析された文構造を活用する。そのため, 構文解析器により解析誤りが生じた場合, その構造を利用する翻訳に悪影響を及ぼしかねない。また, 必ずしも構文解析器で解析される構文情報が翻訳に最適とは限らない. そこで本論文では,予媾文解析を行うことなく原言語の文の構造を活用することで NMT の性能を改善することを目指し,CKYアルゴリズム (Kasami 1965;Younger 1967) を模倣した CNN に基づく畳み込みアテンション構造を提案する. CKYアルゴリズムは, 構文解析の有名なアルゴリズムの一つであり,文構造をボトムアップに解析する.CKYアルゴリズムでは,CKY テーブルを用いて,動的計画法により効率的に全ての可能な隣接する単語/句の組み合わせを考慮して文構造を表現している。提案手法は,この CKYアルゴリズムを参考にし,CKYテー ブルを模倣した CNN をアテンション構造に組み込むことで,原言語文中の全ての可能な隣接する単語/句の組み合わせに対するアテンションスコアを考慮した翻訳を可能とする。具体的には,提案のアテンション構造は,CKYテーブルの計算手順と同様の順序で CNN を構築し,提案のアテンション構造を組み达んた ANMT は, デコード時に, CKYテーブルの各セルに対応する CNN の隠れ層の各状態を参照することにより, 注目すべき原言語の文の構造(隣接する単語/句の組み合わせ)を絞り达みながら目的言語の文を生成する。したがって,提案のアテンション構造を組み込んだ ANMT は, 事前に構文解析器による構文解析を行うことなく, 目的言語の各単語を予測するために有用な原言語の構造を捉えることが可能である. ASPEC の英日翻訳タスク (Nakazawa, Yaguchi, Uchimoto, Utiyama, Sumita, Kurohashi, and Isahara 2016) の評価実験において,提案のアテンション構造を用いることで従来の ANMT と比較して, 1.43 ポイント BLEU スコアが上昇することを示す。また,FBISコーパスにおける中英翻訳タスクの評価実験において, 提案手法は従来の ANMT と同等もしくはそれ以上の精度を達成できることを示す。 ## 2 関連研究 ANMT の性能を改善する方向性の一つとして, 文の構造を活用する ANMT が数多く提案されている。文構造に基づくANMT は,原言語の文構造を利用するANMT,目的言語の文構造を利用する ANMT,原言語と目的言語の文構造を利用する ANMT の 3 つに大別できる. 原言語の文構造を利用する ANMT として, Eriguchi ら (Eriguchi et al. 2016b) は, 事前に解析した原言語文の句構造を Tree-LSTM (Tai, Socher, and Manning 2015) によりボトムアップにエンコードする ANMT を提案している. Yang ら (Yang, Wong, Xiao, Chao, and Zhu 2017), そしてChen ら (Chen, Huang, Chiang, and Chen 2017a) は, この Eriguchi らのモデルを拡張し, 原言語文の句構造をボトムアップにエンコードした後でトップダウンにエンコードする双方向のエンコーダを用いる ANMT を提案している. Sennrich ら (Sennrich and Haddow 2016) は, 原言語の文の言語学的素性を埋め込み層でベクトル化し, 原言語の単語の埋め込みべクトルと結合したべクトルを RNN エンコーダの入力とする ANMT を提案している. 様々な言語学的素性を用いているが,その中に,品詞夕グや係り受け関係の夕グといった文構造を表す素性を用いている. Chen ら (Chen, Wang, Utiyama, Liu, Tamura, Sumita, and Zhao 2017b)は,原言語の文の係り受け解析結果に基づき,親ノード,子ノード,兄弟ノードの情報をCNNで 畳み込み,畳み达んだベクトルを ANMT で用いる方法を提案している. Bastings ら (Bastings, Titov, Aziz, Marcheggiani, and Simaan 2017) は, 原言語文の係り受け構造をグラフ構造とみな L, Graph Convolutional Networks により係り受け構造をエンコーディングするエンコーダを提案し, Bag-of-Words エンコーダや CNN エンコーダ, 双方向 RNN エンコーダと組み合わせることで性能改善を行っている. Li (Li, Xiong, Tu, Zhu, Zhang, and Zhou 2017) は, 原言語の文の句構造解析木を線形化して得られた構造ラベル系列と原言語文の単語系列の 2 つ系列をエンコーディングするエンコーダを複数提案している. 目的言語の文構造を利用する ANMT としては, Wu ら (Wu, Zhang, Yang, Li, and Zhou 2017), そして Eriguchi ら (Eriguchi, Tsuruoka, and Cho 2017) が Shift-Reduce 法の依存構造解析をデコーダに組み込み,目的言語文の単語系列とその依存構造を同時にデコードすることで目的言語側の文構造を活用する ANMT を提案している. Eriguchi ら (Eriguchi et al. 2017) は, 構文解析モデルの一つである Recurrent Neural Network Grammars (Dyer, Kuncoro, Ballesteros, and Smith 2016)を NMT のデコーダに適用することで, 目的言語文の構文構造を翻訳に利用している. Aharoni ら (Aharoni and Goldberg 2017) は目的言語側の文構造を翻訳で活用するために,目的言語文の句構造解析木を線形化した系列を出力するNMT を構築することを提案している. また, Wu ら (Wu, Zhang, Zhang, Yang, Li, and Zhou 2018) は, 原言語側と目的言語側の両方の依存構造を活用する dependency-to-dependencyニューラル機械翻訳モデルを提案している. これらの文構造に基づく従来の ANMT は,構文解析器により解析した文構造を活用する。したがって, 構文解析器により解析誤りが生じた場合, その構造を利用する翻訳に悪影響を及ぼしかねない。また, 必ずしも構文解析器で解析される構文情報が翻訳にとって最適とは限らない. そこで本研究では,予め構文解析を行うことなく原言語の文の構造を活用する ANMT を提案する。 構文解析器による解析を必要としない文構造を活用する ANMT として, Hashimoto ら (Hashimoto and Tsuruoka 2017) のモデルがある.このモデルでは, 原言語側の構文解析モデルと翻訳モデルを対訳コーパスから同時に学習し, 翻訳タスクに適した構文解析モデルを学習することで翻訳精度を向上させている。このモデルは構文解析として係り受け解析を用いているが, 本研究では, アテンション構造で目的言語の単語を予測する際に有効な単語のまとまりを捉えることに焦点をあて,句構造解析を前提としている。 また, エンコーダに CNN を用いたNMT としては, Choら (Cho, van Merrienboer, Bahdanau, and Bengio 2014a), そしてGehring ら (Gehring, Auli, Grangier, and Dauphin 2017)の手法がある. Gehring らの手法では, 2 つの CNN をエンコーダとして使用する。一方の CNN は,デコード時にアテンションスコアを計算するための出力を生成するもので, 原言語文の幅広い情報を扱う。一方,他方の CNN は,LSTM デコーダへ入力するべクトルを計算するためのもので,局所的な情報を扱う。この手法は構文構造に焦点をあてていないが,提案手法では原言語 文の構文構造に着目する,Cho らの手法は, Gated Recursive Convolutional Neural Networkを用いて,原言語文をボトムアップにエンコードしている。彼らは,提案のエンコーダで文の構造を教師なしで捉えられると主張している。このモデルと本研究の提案手法との違いは, Cho らの手法では,隣接する二つの下位セルを畳み込むことで上位セルを計算するのに対して,提案手法では,CKYアルゴリズムを模倣することで複数の下位セルのぺアから上位セルを計算する点である.提案手法では上位セルを計算する際に複数のセルを考慮できるため,翻訳モデルの学習過程で原言語文の構造を捉えやすくなると考えられる。また, 提案手法はアテンション構造を有しているが,Cho らの手法ではアテンション構造を有していない点も大きな違いである。定量的に比較してみると,Cho らの手法はフレーズベース統計的機械翻訳 Moses より翻訳精度が低いことが報告されているが,我々の ASPEC10万文対における実験では,本研究の提案手法は Moses より翻訳精度が高い(Mosesの BLEU が 18.69, 提案手法の BLEU が 26.99 である)ことを確認している。同じデータセットによる直接の定量的な比較は行っていないが,これらの結果から,提案手法の方が Cho らの手法より翻訳性能がよいと考えられる. ## 3 アテンションに基づくニューラル機械翻訳 (ANMT) 本節では, 提案手法のベースラインとなる従来の標準的な ANMT (Luong et al. 2015; Bahdanau et al. 2015) について説明する. ANMT は, 原言語文を固定長のべクトルに変換するエンコーダ用の RNN と,変換した固定長べクトルから目的言語文を生成するデコーダ用の RNN を用いて翻訳を行う,エンコーダデコーダモデル (Sutskever et al. 2014; Cho et al. 2014b) にアテンション構造を導入したモデルである。本研究では, 2 層の双方向 LSTM をエンコーダ用 RNN として使用した. 原言語文 $\mathbf{x}=x_{1}, x_{2}, \cdots, x_{S}$ が入力として与えられたとき, エンコーダは, $i$ 番目の入力単語 $x_{i}$ を単語埋め达み層により $d$ 次元ベクトル $v_{i}$ に変換する。 その後, エンコーダは, $v_{i}$ に対する隠れ状態 $h_{i}$ を次式の通り算出する ${ }^{1}$. $ \begin{aligned} & \overrightarrow{h_{i}^{(1)}}=\operatorname{LSTM_{enc}^{(f,1)}}\left(v_{i}, \overrightarrow{h_{i-1}^{(1)}}\right), \\ & \overleftarrow{h_{i}^{(1)}}=\operatorname{LSTM}_{\text {enc }}^{(b, 1)}\left(v_{i}, \overleftarrow{h_{i+1}^{(1)}}\right) \\ & \overrightarrow{h_{i}^{(2)}}=L S T M_{e n c}^{(f, 2)}\left(\overrightarrow{h_{i}^{(1)}}, \overrightarrow{h_{i-1}^{(2)}}\right)+\overrightarrow{h_{i}^{(1)}}, \\ & \overleftarrow{h_{i}^{(2)}}=L S T M_{\text {enc }}^{(b, 2)}\left(\overleftarrow{h_{i}^{(1)}} \overleftarrow{, h_{i+1}^{(2)}}\right)+\overleftarrow{h_{i}^{(1)}} \\ & h_{i}=\overrightarrow{h_{i}^{(2)}}+\overleftarrow{h_{i}^{(2)}} \end{aligned} $  ここで, $\rightarrow$ とはそれぞれ順方向と逆方向を表し, $L S T M_{e n c}^{(f, 1)}, L S T M_{e n c}^{(b, 1)}, L S T M_{e n c}^{(f, 2)}, L S T M_{e n c}^{(b, 2)}$ は, それぞれ第 1 層目の順方向, 第 1 層目の逆方向, 第 2 層目の順方向, 第 2 層目の逆方向の LSTM エンコーダを表す. また, $\overleftarrow{h_{i}^{(1)}}, \overrightarrow{h_{i}^{(1)}}, \overleftarrow{h_{i}^{(2)}}, \overleftrightarrow{h_{i}^{(2)}}, h_{i}$ の次元は $d$ である. また, 第 2 層目の LSTM エンコーダには, Residual Connection (He, Zhang, Ren, and Sun 2016)を適用した. Residual Connection とは, ショートカット接続を持つ構造で, パラメータの最適化を容易にするものである. 初期のエンコーダデコーダモデル (Sutskever et al. 2014; Cho et al. 2014b) では, デコーダは,原言語の文をエンコードした固定長のベクトル $h_{S}$ を初期値として目的言語の文を生成する。一方で,アテンション構造を導入した ANMT では,デコーダは,LSTM エンコーダの各隠れ層の状態 $h_{i}(i=1, \cdots, S)$ を参照しながら, 目的言語の文を生成する. アテンション構造としては, Additive Attention (Bahdanau et al. 2015) や Dot-Product Attention (Luong et al. 2015) が主流である. 本研究では, アテンション構造として Dot-Product Attentionの一つである, Global Dot Attention (Luong et al. 2015) を用いる。また,デコーダ用の RNNとして 2 層の LSTM を使用する.以下ではデコーダの動作を説明する。 デコーダは,エンコーダによって与えられる原言語文の情報に基づき, 目的言語文 $\mathbf{y}=$ $y_{1}, y_{2}, \cdots, y_{T}$ を出力する. まず,第 1 層目の LSTM デコーダ $\left(L S T M_{d e c}^{(1)}\right)$ と第 2 層目の LSTM デコーダ $\left(L S T M_{d e c}^{(2)}\right)$ の初期状態を, それぞれ, 第 1 層目, 第 2 層目の逆方向の LSTM エンコー ダの内部状態に初期化する. その後, $j$ 番目のLSTM デコーダの第 1 層目, 第 2 層目の隠れ層の状態 $s_{j}^{(1)}, s_{j}^{(2)}$ を, 次式の通り, 一つ前 $(j-1$ 番目)のデコーダの情報(出力単語や隠れ層の状態など)に基づいて算出する. $ \begin{aligned} & s_{j}^{(1)}=L S T M_{d e c}^{(1)}\left(\left[w_{j-1} ; \hat{s}_{j-1}\right], s_{j-1}^{(1)}\right), \\ & s_{j}^{(2)}=L S T M_{d e c}^{(2)}\left(s_{j}^{(1)}, s_{j-1}^{(2)}\right) . \end{aligned} $ ここで, $w_{j-1}$ は $j-1$ 番目の出力単語である $y_{j-1}$ の単語埋め込みベクトル,「;」はべクトルの結合, $\hat{s}_{j-1}$ は出力単語 $y_{j-1}$ の生成時に使用されたアテンションベクトルを表す2. なお, $w_{j-1}$ と $\hat{s}_{j-1}$ は $d$ 次元である. その後, $j$ 番目のアテンションベクトル $\hat{s}_{j}$ を, コンテキストベクトル $c_{j}$ を使用して, 次式の通り算出する。 $ \hat{s}_{j}=\tanh \left(W_{c}\left[s_{j}^{(2)} ; c_{j}\right]+b_{c}\right) $ ここで, $W_{c} \in R^{d \times 2 d}$ は重み行列, $b_{c} \in R^{d}$ はバイアス項, $\tanh$ はハイパボリックタンジェント  関数である. コンテキストベクトル $c_{j}$ は, エンコーダの全状態 $h_{i}(i=1 \cdots S)$ の加重平均であり,次式の通り算出されたものである. $ c_{j}=\sum_{i=1}^{S} \alpha_{j}(i) h_{i} $ ここで,アテンションスコアと呼ばれる重み $\alpha_{j}(i)$ は, デコーダの状態 $s_{j}^{(2)}$ において,エンコー ダの状態 $h_{i}$ に対する重要度を表し,次式の通り算出される。 $ \alpha_{j}(i)=\frac{\exp \left(h_{i} \cdot s_{j}^{(2)}\right)}{\sum_{k=1}^{S} \exp \left(h_{k} \cdot s_{j}^{(2)}\right)} $ ここで, $\exp$ は指数関数を表す. その後, $j$ 番目の出力単語 $y_{j}$ の確率分布は, アテンションベクトル $\hat{s}_{j}$ に基づき次式の通り求めることができる。 $ p\left(y_{j} \mid y_{<j}, \mathbf{x}\right)=\operatorname{softmax}\left(W_{s} \hat{s}_{j}+b_{s}\right) . $ ここで, $W_{s} \in R^{|V| \times d}$ は重み行列, $b_{s} \in R^{|V|}$ はバイアス項, softmax はソフトマックス関数を表す。また, $|V|$ は目的言語の辞書のサイズを表す. ANMT の目的関数は,次式で表される。 $ J(\theta)=-\sum_{(\mathbf{x}, \mathbf{y}) \in \mathbf{D}} \log p(\mathbf{y} \mid \mathbf{x}) $ ここで,Dはデータセット全体を表し, $\theta$ は学習されるモデルパラメータである. このように, 出力単語は, アテンションスコアを重みとした荷重平均であるコンテキストベクトルにしたがって算出したアテンションベクトルに基づいて決定されるため,ANMT では, エンコーダの各状態の中から注目すべき状態(原言語の文の中で注目すべき単語)をしぼりこみながら目的言語の文を生成することができる. ## 4 提案モデル ## 4.1 CKY アルゴリズム CKYアルゴリズムは,チョムスキー標準形の文脈自由文法により,ボトムアップに構文を解析する手法である。チョムスキー標準形とは, $A, B, C$ を非終端記号, $a$ を終端記号としたとき,生成規則がすべて $A \rightarrow B C$ または $A \rightarrow a$ の形をしているものである. CKYアルゴリズムでは,図 1 に示す CKY テーブルをボトムアップに埋めていくことで構文解析を行う. CKYテーブルのセルにある括弧中の数字は入力文中の単語のインデックスであり, 括弧により入力文中の部 分文字列を表現している。例えば, $[0,3]$ のセルには, 1 単語目 $w_{1}$ から 3 単語目 $w_{3}$ までの部分文字列に相当する非終端記号が格納される,各セルに非終端記号を格納する際は,部分文字列を 2 つにわけ,そのすべての組み合わせに対する生成規則を満たす非終端記号を追加する。例えば, $[0,3]$ のセルを埋める場合, $[0,1]$ と $[1,3]$ の組み合わせ及び $[0,2]$ と $[2,3]$ の組み合わせを考慮する. CKYテーブルの各セルをボトムアップに埋めていき, 最上位のセル(図 1 の場合, $[0,5]$ のセル)が開始記号となれば,構文解析に成功する. CKYアルゴリズムの疑似コードを Algorithm 1 に示す. Algorithm 1 において, $R$ は非終端記号の集合を表す. Algorithm 1 の 2 行目と 3 行目では, CKYテーブルの第一層目の初期化を行う. 4 行目で入力文中の単語数, 5 行目で句の開始位置, 7 行目で句の分割可能な位置について網羅的に for ループで回すことで部分文字列の全組み合わせに対して処理を行う.8行目から 図 1 CKY テーブル 10 行目では,着目している 2 つのセルに含まれる非終端記号を生成する生成規則が存在するとき,新たな句を候補として追加している。このように,下位のセルからボトムアップに動的計画法で生成規則を考えていくことで,効率よく全ての隣接する単語/句の組み合わせを考慮した構文解析を可能としている. ## 4.2 CKYに基づく畳み込みアテンション構造による機械翻訳 図 2 に提案モデルの全体の構造を示す. 提案モデルのエンコーダ部では, 通常の LSTM エンコーダ(3 節参照)により原言語の文を単語列としてエンコードする。加えて, CKYアルゴリズムの CKYテーブルにおける計算手順を模倣し,CNN を用いて,原言語文中の隣接する単語 /句の組み合わせをエンコードする。そしてデコーダ部では,LSTM エンコーダの各隠れ状態に対するアテンションスコアから算出したコンテキストベクトル $c_{j}$ に加えて, 原言語文中の単語の組み合わせのエンコード結果に対するアテンションスコアから算出したコンテキストベクトル $c_{j}^{\prime}$ に基づき,アテンションベクトル $\hat{s}_{j}$ を生成する。そして,注目すべき単語,注目すべき単語の組み合わせの情報を含んだアテンションベクトル $\hat{s}_{j}$ に基づき目的言語の単語を予測する. 以下で, 提案モデルの具体的な計算方法を説明する. 提案手法のアテンション構造では,CKYアルゴリズムにおける生成規則を図 3 に示すネットワーク構造によって模倣する。具体的には,CKYアルゴリズムにおいて生成規則が CKYテー ブルの 2 つのセルボトムアップにまとめる動作を模倣して, 図 3 のネットワーク構造により, 図 $2 \mathrm{CKY}$ に基づく置み込みアテンション構造の全体図 図 3 CKYに基づく畳み迄みアテンション構造の Deduction Unit CKYテーブルの 2 つのセル(具体的には $d$ 次元ベクトル)から,上位のセルの $d$ 次元ベクトルを算出する。ここで,CKYテーブルの各セルの $d$ 次元ベクトルは,セルが表現する単語の組み合わせの状態を表すべクトルと捉えることができる。この CKYアルゴリズムにおける生成規則に対応するネットワークをDeduction Unit (DU) と呼ぶ. DU は, 4 種類の 1D CNN を残差接続し,その後 Layer Normalization (Ba, Kiros, and Hinton 2016)により, ベクトルを正規化して出力する構造である ${ }^{3}$. 図 3 では, 各 CNN のフィルタサイズと出力チャネル数を括弧内に記している。具体的には,CNN1, CNN2,CNN3,CNN4のフィルタサイズは,それぞれ, 1 , 2,1,2であり,チャネル数は,それぞれ, $\frac{d}{2}, \frac{d}{2}, d, d$ ぞある,DUは入力として 2 ののべクトルを受け取る.CNN1では,DUに入力された 2 つのべクトルをフィルタサイズ 1 の CNNにより,チャネル数 $\frac{d}{2}$ に変換する。その後,フィルタサイズ 2 の CNN2により,2つのベクトルを 1 つのべクトルへ畳み达む,そして,置み达まれたべクトルは,フィルタサイズ 1 の CNN3 によりチャネル数 $d$ へと変換される。また, DUに入力された 2 つのべクトルはフィルタサイズ 2 の CNN4 によって1つのべクトルに畳み込まれる ${ }^{4}$. その後, CNN3 の出力べクトルと CNN4  の出力ベクトルを加算し, Layer Normalization により正規化した後に, DU の出力として 1 つのベクトルを出力する。なお,DUのそれぞれの $\mathrm{CNN} の$ の力べクトルには, Relu 関数を適用している. このDU を使うことで,CKYアルゴリズムの計算順序と同様の順序で下位セルの 2 つの状態を畳み込むことにより,CKYテーブルの各セルの状態を導出することができる,たたし,上位セルの状態を導出する際,CKYアルゴリズムと同様,複数のDU から当該上位セルの状態となりうるべクトルが算出される。その際は, 候補となったべクトルのうち, 要素和が最大であるべクトルに設定する。この全体のネットワークを CKY-CNN と呼ぶ。ここで, CKY-CNN は,レイヤーの数は文長と同等となり,また,各レイヤーにおいてDU のパラメータは共有されることに注意されたい,以降, $i$ 層目の CKY-CNNの $j$ 番目のセルの状態を $h_{i, j}^{(c k y)}$ と記述すると, CKY-CNN の具体的な動作は次の通りである。まず, CKY-CNN の第 1 層目の状態 $\left(\mathbf{h}_{\mathbf{1}}^{(\mathbf{c k y})}=\left(h_{1,1}^{(c k y)}, \ldots, h_{1, S}^{(c k y)}\right)\right)$ を,LSTM エンコーダの状態 $\left(\mathbf{h}=\left(h_{1}, \ldots, h_{S}\right)\right)$ に設定する. そして,2 層目より上の層の CKY-CNN のセルの状態を次のように算出する. $ h_{i, j}^{(c k y)}=\max _{1 \leq k \leq i-1} D U\left(h_{k, j}^{(c k y)}, h_{i-k, j+k}^{(c k y)}\right) $ ここで, $\max$ 関数は入力されたそれぞれのべクトルに対してべクトルの要素和を計算し,その値が最大となるべクトルを返す関数である。図 4 に,CKY-CNN により,セル $\left(h_{4,1}^{(c k y)}\right)$ を導出する畳み达みの例を示す。この導出過程では,以下が実行される。 $ h_{4,1}^{(c k y)}=\max \left(D U\left(h_{1,1}^{(c k y)}, h_{3,2}^{(c k y)}\right), D U\left(h_{2,1}^{(c k y)}, h_{2,3}^{(c k y)}\right), D U\left(h_{3,1}^{(c k y)}, h_{1,4}^{(c k y)}\right)\right) . $ 具体的には, 3 つの DUが, それぞれ, 2 つのセル $\left(h_{3,1}^{(c k y)}\right.$ と $\left.h_{1,4}^{(c k y)}\right), 2$ つのセル $\left(h_{2,1}^{(c k y)}\right.$ と $\left.h_{2,3}^{(c k y)}\right)$, 図 4 CKY-CNN の例 2 つのセル $\left(h_{1,1}^{(c k y)}\right.$ と $\left.h_{3,2}^{(c k y)}\right)$ の状態に基づきべクトルを生成する. その後, ベクトルの要素和が最も大きいべクトルをセル $\left(h_{4,1}^{(c k y)}\right)$ の状態に設定する. CKYに基づく畳み込みアテンション構造を用いた NMT では,LSTM エンコーダの隠れ層の状態に加えて,CKY-CNN の隠れ層の状態(CKYテーブルの各セルの状態)を参照しながら目的言語の文を生成する. デコーダの状態 $s_{j}^{(2)}$ と CKY-CNN の隠れ層の状態 $h_{i, j}^{(c k y)}$ とのアテンションスコアは Global Dot Attetnion (Luong et al. 2015) を用いて次式の通り計算する. $ \alpha^{\prime}\left(i_{1}, i_{2}, j\right)=\frac{\exp \left(h_{i_{1}, i_{2}}^{(c k y)} \cdot s_{j}^{(2)}\right)}{\sum_{k=1}^{S} \sum_{l=1}^{S-k+1} \exp \left(h_{k, l}^{(c k y)} \cdot s_{j}^{(2)}\right)} . $ ここで, $s_{j}^{(2)}$ は第 2 層目のLSTM デコーダの隠れ層の状態である. そして,CKY-CNN のコンテキストベクトル $c_{j}^{\prime}$ を次式の通り算出する. $ c_{j}^{\prime}=\sum_{k=1}^{S} \sum_{l=1}^{S-k+1} \alpha^{\prime}(k, l, j) h_{k, l}^{(c k y)} $ その後, アテンションベクトル $\hat{s}_{j}$ を, LSTM エンコーダのコンテキストベクトル $\left(c_{j}\right)$ と CKY-CNN のコンテキストベクトル $\left(c_{j}^{\prime}\right)$ に基づき次のように算出する. $ \hat{s}_{j}=\tanh \left(\hat{W}\left[s_{j}^{(2)} ; c_{j} ; c_{j}^{\prime}\right]+\hat{b}\right) $ ここで, $\hat{W} \in R^{d \times 3 d}$ は重み行列, $\hat{b} \in R^{d}$ はバイアス項である.また,LSTM エンコーダのコンテキストベクトル $c_{j}$ は,式 (9) の通り算出されたものであることを確認しておく. $j$ 番目の目的言語の単語は, 従来の ANMT と同様に, アテンションベクトル $\hat{s}_{j}$ を用いて次のように計算する。 $ p\left(y_{j} \mid y_{<j}, \mathbf{x}\right)=\operatorname{softmax}\left(W_{s} \hat{s}_{j}+b_{s}\right) $ ここで, $W_{s} \in R^{|V| \times d}$ は重み行列, $b_{s} \in R^{|V|}$ はバイアス項を表す. 提案手法の目的関数は, 従来の ANMT と同様, 式 (12)である. また, 提案モデルの時間計算量は $\mathcal{O}\left(S^{3}+S^{2} T\right)$, 空間計算量は $\mathcal{O}\left(S^{2} T\right)$ である. ここで, $S$ は原言語文の文長, $T$ は目的言語文の文長である. ## 5 実験 本節では, 4 節で提案したモデルの性能及び有効性を検証する. ## 5.1 実験設定 評価実験は, Asian Scientific Paper Excerpt Corpus (ASPEC) ${ }^{5}$ の英日翻訳タスク, 新聞から作成された FBISコーパスを用いた中英翻訳タスクにより行った。英文の単語分割は Moses Decoder,日本語文の単語分割は Kytea (Neubig, Nakata, and Mori 2011),中国語文の単語分割は Stanford Chinese Segmenter6を使用した.また,各コーパスの文字は全て小文字に変換した.実験に使用した対訳文の数を表 1 に示す。学習データとして, ASPECでは 100,000 文対, FBISでは 172,400 文対の対訳文を用いた。なお,ASPEC,FBIS ともに学習データとして単語の数が 50 単語以下の文を使用した。また, ASPEC, FBIS ともに学習データにおいて, 出現数が 2 回未満の単語は特殊文字「UNK」に置き換えた. FBISについては, 開発データとして NIST02 の評価データを使用し,テストデータとしてNIST03,NIST04,NIST05 の評価データを用いた. 単語埋め込みべクトルと隠れ層の各状態のべクトルの次元数は 256 とした. モデルの各パラメータの学習には Adam (Kingsma and Ba 2014) を使用し, Adam のパラメータの初期値は, $\alpha=0.01, \beta_{1}=0.9, \beta_{2}=0.99$ とした. 学習率は, 1 エポック毎に開発デー夕に対するパープレキシティを計算し,パープレキシティが以前のエポックと比較して増加した場合に半分にした. 勾配は Eriguchi ら (Eriguchi, Hashimoto, and Tsuruoka 2016a) に倣い, 3.0 でクリッピングした。また,過学習を防ぐために,Dropout (Srivastava, Hinton, Krizhevsky, Sutskever, and Salakhutdinov 2014) と Weight Decay ${ }^{7}$ 用いた. Dropout の比率は, LSTM では 0.2 , CNN では 0.3 とし, Weight Decayの係数は $10^{-6}$ とした. バッチサイズは 50 とした。なお, ハイパー パラメータは,開発データに対する BLEU スコアにより決定した。 また,目的言語の文は出現確率に基づいた貪欲法により生成した。 ## 5.2 実験結果 提案の CKY に基づく畳み込みアテンションの有効性を検証するため, 提案のアテンションを用いた NMT(4 節)と従来のアテンションを用いた NMT(3 節)を比較した. ベースライン 表 1 実験デー夕の対訳文対 ^{6} \mathrm{http} / / / \mathrm{nlp}$. stanford.edu/software/segmenter.shtml 7 Pytorch で実装されている L2 penalty を使用した. } の従来モデルと提案モデルの違いは,アテンション構造のみである。表 2 に各モデルの翻訳精度を示す8.翻訳精度の評価尺度は BLEU (Papineni, Roukos, Ward, and Zhu 2002)を用いた。 また参考のために,表 3 に,ASPEC における,1 エポックあたりの平均学習時間及び一文ずつデコードした際のテストデータのデコードにかかった時間を示す9。図 5 には,ASPEC における開発データに対する BLEU スコアの推移を示す. 翻訳精度の有意差検定は, 有意差水準 $5 \%$ でブートストラップによる検定手法 (Koehn 2004) により行った. 表 2 の「*」は,提案モデルと従来の ANMT モデルの翻訳精度の差が統計的に有意であることを示す. 表 2 より, ASPEC, FBIS (NIST03), FBIS (NIST04) では, 提案モデルが従来の ANMT よ 表 2 実験結果 (BLEU(\%)) 表 3 学習時間及びデコード時間(秒) 図 5 開発データにおける BLEU の推移 ^{9}$ CPU は Intel XeonE5-1650, GPU は NVIDIA GeForce TITAN X を用いた. } り統計的に有意に翻訳精度が良いことが分かる。また,FBIS (NIST05) では,提案モデルは従来の ANMT と同等の翻訳精度であることが分かる。これらの結果より,提案のアテンション構造は NMT の性能改善に寄与することが実験的に確認できる. ## 6 考察 ## 6.1 提案モデルの各要素の有効性検証 本節では,提案モデルの各要素の有効性を検証するため,ASPEC 10 万文対の英日翻訳タスクにおいて提案モデルと以下の 3 つのモデルを比較する.1つ目は,提案モデルの式 (16) において LSTM エンコーダのコンテキストベクトル $\left(c_{j}\right)$ を取り除いたモデル, すなわち, CKY-CNN のコンテキストベクトル $\left(c_{j}^{\prime}\right)$ のみを使用したモデル「提案モデル $\left(c_{j}^{\prime}\right.$ のみ)」である. 2 つ目は, 提案モデルのDU(図 3)において,CNN4 の代わりに二つの入力ベクトルの要素和を演算に使用するモデル「提案モデル(要素和)」である,3つ目は, 従来 ANMT モデルのエンコー ダLSTM を,提案モデルの計算時間と同等になるまで,再帰的に積み重ねたモデル「再帰的従来 ANMT モデル」である。具体的には,エンコーダの 2 つの LSTM を 6 回再帰的に使用して原言語文をエンコードした。 実験結果を表 4 に示す.「提案モデル ( $c_{j}^{\prime}$ のみ)」は「従来モデル」よりも翻訳精度が高いことが分かる。ただし,「提案モデル」よりは翻訳精度が低い。このことから,CKY-CNN のコンテキストベクトルのみを用いた場合でも提案モデルは NMT の精度改善に寄与できるが,LSTM のコンテキストベクトルと CKY-CNN のコンテキストベクトルを同時に使用することで, NMT の翻訳精度がさらに改善されることが分かる。 「提案モデル」と「提案モデル (要素和) 」を比較すると「提案モデル」の方が翻訳精度が高い.このことから,提案モデルのDUにおいて,CNN4 を用いた residual connection が有効であったことが分かる。また, 「提案モデル」は, 層を深くした従来モデルである「再帰的従来 ANMT モデル」の翻訳精度を上回っており,このことからも提案モデルの有用性が実験的に確認できる. 表 4 提案モデルの各要素の有効性検証実験の結果 (BLEU (\%)) ## 6.2 大規模コーパスにおける有効性検証 本節では, 大規模コーパスにおいても提案手法の有効性が確認できるかを検証する.具体的には,ASPEC の英日翻訳で 1,346,946 文対の学習データを使った場合の性能を評価する。本実験では, 3 節で説明した従来の ANMT と提案モデルに加え, Eriguchi らのモデル (Eriguchi et al. 2016b) と Gehring らのモデル (Gehring et al. 2017) との比較も行う. Eriguchi らのモデルの翻訳精度は, 彼女らの論文で報告されている次元数 1,024のモデルの翻訳精度である. Gehring らのモデルの翻訳精度は,公開されているモデルをデフォルトの設定で実験デー夕に適用した翻訳精度である。 本実験においては,単語埋め込みべクトルと隠れ層の各状態のベクトルの次元数は 512 とした. また,学習デー夕において出現回数が 9 回未満の単語を特殊文字「UNK」に置き換えた. LSTM の Dropout の比率は 0.2 , Weight Decay の係数は $10^{-8}$ とし, 目的言語文はビームサーチにより生成した. ビーム幅は $5,10,15,20$ のうち, 開発データに対する BLEU スコアが最も高いものを選択した。具体的には, 従来の ANMT モデルはビーム幅 20 , 提案モデルはビーム幅 15 であった。その他の設定は, 5.1 節と同じである. 表 5 に実験結果を示す。表 5 より,提案モデルは従来の ANMT モデルよりも翻訳精度が良いことが分かる. また, 先行研究と比較しても翻訳精度が高い. なお, 提案モデルと従来の ANMT モデルの翻訳精度の差及び提案モデルと Gehring らのモデルの翻訳精度の差は有意差水準 $5 \%$ で統計的に有意であった ${ }^{10}$. これらのことから大規模データに対しても提案モデルが有効であることが分かった. ## 6.3 アテンションスコアの解析 本研究では,予め構文解析を行うことなく原言語の文の構造を ANMT で活用することが目的であった。そこで, 目的言語の単語を予測する際に,提案のアテンション構造により,原言語の文の構造(複数の隣接する単語/句の組み合わせ)を活用できているかを考察する. 表 6 に英日翻訳のテストデータ対する従来の ANMT および提案モデルの翻訳結果の実例を示し, 図 6 と図 7 に表 6 の翻訳結果を生成した際の提案モデルのアテンションスコアを示す。ま 表 5 大規模コーパスにおける実験結果 (BLEU $(\%))$ 表 6 翻訳結果の例 \\ CKY-CNNの層数 図 6 アテンションスコアの例 1 (左図:い(ついて), 右図:し(した)) 図 7 アテンションスコアの例 2 (左図:絶縁, 右図:結晶) た, 図 8 に表 6 の翻訳結果を生成した際の従来の ANMT のアテンションスコアを示す. 図 6 の左図は「ついて」の「い」, 右図は「した」の「し」を生成する際のアテンションスコア11であり,図 7 の左図は「絶縁」, 右図は「結晶」を生成する際のアテンションスコアである。図 6 , 図 7 ,図 8 では,セルが濃い色であるほど(黒に近いほど),より高いアテンションスコアであることを表している。また,図 6 と図 7 においては,横軸は原言語の単語を示し,縦軸は CKY-CNN の深さを示す。なお,CKY-CNN の第 1 層目のアテンションスコアは,LSTM の隠れ層のアテンションスコアと一致する。つまり, 第 1 層目のアテンションスコアが, 原言語の単語に対するアテンション,第 2 層目より上のアテンションスコアが構造(隣接する単語/句の組み合わせ)に対するアテンションを示す。図 7 より,「絶緑」や「結晶」のような内容語のように単語単位のアライメントが明確に分かる単語に対しては,第 1 層目(LSTM 層)のアテンションスコアが高くなっている。一方で, 図 6 の「い」や「し」のような機能語のように単語単位のアライメントが明確にならない単語に対しては, 高いアライメントスコアが 2 層目より上(CKY 層)に位置していることが分かる。一方で, 図 8 の従来の ANMT のアテンションスコアでは,「ため」と "technological”,「た」と“.(ピリオド) ”のように対応関係にない単語に対してもアテンションスコアが高くなっている. また, 表 7 に,提案モデルにおける,品詞ごとのアテンションスコアの配置について示す. これは, Kyteaが特定した品詞ごとに最も高いアテンションスコアの層を数え上げたものである.表 7 より, 名詞, 形容詞, 副詞といった単語単位のアライメントが明確に分かる単語に対して 図 8 従来の ANMT のアテンションスコアの例 ^{11}$ Kytea での単語分割では,「ついて」は,「つ」,「い」,「て」の 3 単語,「した」は「し」と「た」に分割された. } 表 7 品詞ごとのアテンションスコアの配置 は, 第 1 層目にアテンションが多く張られていることが分かる, 一方で, 語尾, 助詞, 助動詞といった単語単位のアライメントが明確になりにくい単語に対しては, 第 2 層目以降にアテンションが張られる傾向があることが分かる. 以上より, 従来の ANMT のアテンション構造が単語レベルでのアライメントを見つけるのに対して, 提案のアテンション構造は 2 層目以降を活用して構造的なアライメントを捉えていることが分かる. ## 7 まとめ 本論文では,NMT の性能を改善するため,CKY アルゴリズムを模倣した CNN に基づく新たなアテンション構造を提案した。提案のアテンション構造を用いることで, ASPEC の英日翻訳タスクの評価では, 従来の ANMT と比較して 1.43 ポイント BLEU スコアが上昇し, FBIS における中英翻訳タスクでは, 従来の ANMT と比較して同等かそれ以上の翻訳精度を達成できることを実験的に確認した。 また, 提案のアテンション構造は従来の ANMT のアテンション構造では捉えることができない隣接する単語/句の組み合わせに対するアライメント(構造的なアライメント)を捉えることができることを実例により確認した. 提案のアテンション構造は, CKYテーブルのすべてのセルの隠れ状態を保持する必要があるため,従来手法と比べて多くのメモリを使用する,今後は,メモリ消費の問題について提案手 法を改善し, より少ないメモリ消費で動作するモデルに改善したい. また, 提案手法では, 上位セルの状態を導出する際, 複数の候補から 1 つのみを選択するが,今後は,候補に対して重み付けを行うなどして複数の状態を考慮できるモデルに改良したい. ## 謝 辞 本論文は国際会議 The 8th International Joint Conference on Natural Language Processing で発表した論文 (Watanabe, Tamura, and Ninomiya 2017) に基づいて日本語で書き直し, 説明や評価を追加したものである. 本研究成果は, 国立研究開発法人情報通信研究機構の委託研究により得られたものである. また, 本研究の一部は JSPS 科研費 25280084 及び $18 \mathrm{~K} 18110$ の助成を受けたものである. ここに謝意を表する。 ## 参考文献 Aharoni, R. and Goldberg, Y. (2017). "Towards String-To-Tree Neural Machine Translation." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 132-140. Ba, J., Kiros, R., and Hinton, G. E. (2016). "Layer Normalization." CoRR, abs/1607.06450. Bahdanau, D., Cho, K., and Bengio, Y. (2015). "Neural Machine Translation by Jointly Learning to Align and Translate." In Proceedings of the 3rd International Conference on Learning Representations. Bastings, J., Titov, I., Aziz, W., Marcheggiani, D., and Simaan, K. (2017). "Graph Convolutional Encoders for Syntax-aware Neural Machine Translation." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1957-1967. Association for Computational Linguistics. Chen, H., Huang, S., Chiang, D., and Chen, J. (2017a). "Improved Neural Machine Translation with a Syntax-Aware Encoder and Decoder." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1936-1945. Chen, K., Wang, R., Utiyama, M., Liu, L., Tamura, A., Sumita, E., and Zhao, T. (2017b). "Neural Machine Translation with Source Dependency Representation." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2846-2852. Cho, K., van Merrienboer, B., Bahdanau, D., and Bengio, Y. (2014a). "On the Properties of Neural Machine Translation: Encoder-Decoder Approaches." In Proceedings of 8th Workshop on Syntax, Semantics and Structure in Statistical Translation, pp. 103-111. Cho, K., van Merrienboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., and Bengio, Y. (2014b). "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1724-1734. Ding, Y. and Palmer, M. (2005). "Machine Translation Using Probabilistic Synchronous Dependency Insertion Grammars." In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics, pp. 541-548. Dyer, C., Kuncoro, A., Ballesteros, M., and Smith, N. A. (2016). "Recurrent Neural Network Grammars." In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 199-209. Eriguchi, A., Hashimoto, K., and Tsuruoka, Y. (2016a). "Character-based Decoding in Tree-toSequence Attention-based Neural Machine Translation." In Proceedings of the 3rd Workshop on Asian Translation, pp. 175-183. Eriguchi, A., Hashimoto, K., and Tsuruoka, Y. (2016b). "Tree-to-Sequence Attentional Neural Machine Translation." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 823-833. Eriguchi, A., Tsuruoka, Y., and Cho, K. (2017). "Learning to Parse and Translate Improves Neural Machine Translation." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 72-78. Gehring, J., Auli, M., Grangier, D., and Dauphin, Y. (2017). "A Convolutional Encoder Model for Neural Machine Translation." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 123-135. Gers, F. A., Schmidhuber, J., and Cummins, F. (2000). "Learning to Forget: Continual Prediction with LSTM." Neural Computation, 12 (10), pp. 2451-2471. Hashimoto, K. and Tsuruoka, Y. (2017). "Neural Machine Translation with Source-Side Latent Graph Parsing." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 125-135. He, K., Zhang, X., Ren, S., and Sun, J. (2016). "Deep Residual Learning for Image Recognition." In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. $770-778$. Hochreiter, S. and Schmidhuber, J. (1997). "Long Short-term Memory." Neural Computation, 9 (8), pp. 1735-1780. Huang, L., Knight, K., and Joshi, A. (2006). "Statistical Syntax-directed Translation with Extended Domain of Locality." In Proceedings of the 7th Conference of the Association for Machine Translation in the Americas, pp. 66-73. Kasami, T. (1965). "An Efficient Recognition and Syntax Algorithm for Context-free Languages." Tech. rep. AFCRL-65-758, Air Force Cambridge Research Laboratory. Kingsma, D. and Ba, J. (2014). "Adam: A Method for Stochastic Optimization." In Proceedings of the 5th International Conference on Learning Representations. Koehn, P. (2004). "Statistical Significance Tests for Machine Translation Evaluation." In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 388-395. Koehn, P., Hoang, H., Birch, A., Callison-Burch, C., Federico, M., Bertoldi, N., Cowan, B., Shen, W., Moran, C., Zens, R., et al. (2007). "Moses: Open Source Toolkit for Statistical Machine Translation." In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics on Interactive Poster and Demonstration Sessions, pp. 177-180. Li, J., Xiong, D., Tu, Z., Zhu, M., Zhang, M., and Zhou, G. (2017). "Modeling Source Syntax for Neural Machine Translation." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 688-697. Lin, D. (2004). "A Path-based Transfer Model for Machine Translation." In Proceedings of the 20th International Conference on Computational Linguistics, p. 625. Liu, Y., Liu, Q., and Lin, S. (2006). "Tree-to-String Alignment Template for Statistical Machine Translation." In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 609-616. Luong, T., Pham, H., and Manning, C. D. (2015). "Effective Approaches to Attention-based Neural Machine Translation." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421. Nakazawa, T., Yaguchi, M., Uchimoto, K., Utiyama, M., Sumita, E., Kurohashi, S., and Isahara, H. (2016). "ASPEC: Asian Scientific Paper Excerpt Corpus." In Proceedings of the 9th International Conference on Language Resources and Evaluation, pp. 2204-2208. Neubig, G., Nakata, Y., and Mori, S. (2011). "Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis." In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics, pp. 529-533. Papineni, K., Roukos, S., Ward, T., and Zhu, W.-J. (2002). "BLEU: A Method for Automatic Evaluation of Machine Translation." In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Quirk, C., Menezes, A., and Cherry, C. (2005). "Dependency Treelet Translation: Syntactically Informed Phrasal SMT." In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics, pp. 271-279. Sennrich, R. and Haddow, B. (2016). "Linguistic Input Features Improve Neural Machine Translation." In Proceedings of the 1st Conference on Machine Translation: Volume 1, Research Papers, pp. 83-91. Association for Computational Linguistics. Srivastava, N., Hinton, G. E., Krizhevsky, A., Sutskever, I., and Salakhutdinov, R. (2014). "Dropout: A Simple Way to Prevent Neural Networks from Overfitting." Journal of Machine Learning Research, 15 (1), pp. 1929-1958. Sutskever, I., Vinyals, O., and Le, Q. V. (2014). "Sequence to Sequence Learning with Neural Networks." In Advances in Neural Information Processing Systems, pp. 3104-3112. Tai, K. S., Socher, R., and Manning, C. D. (2015). "Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1556-1566. Watanabe, T., Tamura, A., and Ninomiya, T. (2017). "CKY-based Convolutional Attention for Neural Machine Translation." In Proceedings of the 8th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 1-6. Wu, S., Zhang, D., Yang, N., Li, M., and Zhou, M. (2017). "Sequence-to-Dependency Neural Machine Translation." In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 698-707. Wu, S., Zhang, D., Zhang, Z., Yang, N., Li, M., and Zhou, M. (2018). "Dependency-toDependency Neural Machine Translation." IEEE/ACM Transactions on Audio, Speech, and Language Processing, 10.119/TASLP.2018.2855968. Yang, B., Wong, D. F., Xiao, T., Chao, L. S., and Zhu, J. (2017). "Towards Bidirectional Hierarchical Representations for Attention-based Neural Machine Translation." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1432-1441. Younger, D. H. (1967). "Recognition and Parsing of Context-free Languages in Time $n^{3}$." Information and Control, 2 (10), pp. 189-208. ## 略歴 渡邊大貴:2017 年愛媛大学工学部情報工学科卒業. 2017 年より同大学院理工学研究科修士課程に在学. 情報処理学会学生会員. 田村晃裕:2005 年東京工業大学工学部情報工学科卒業. 2007 年同大学院総合理工学研究科修士課程修了. 2013 年同大学院総合理工学研究科博士課程修 了. 日本電気株式会社, 国立研究開発法人情報通信研究機構にて研究員として務めた後, 2017 年より愛媛大学大学院理工学研究科助教となり, 現在に至る. 工学博士. 言語処理学会, 情報処理学会, 人工知能学会, ACL 各会員.二宮崇:2001 年東京大学大学院理学系研究科情報科学専攻博士課程修了.同年より科学技術振興事業団研究員. 2006 年より東京大学情報基盤センター 講師. 2010 年より愛媛大学大学院理工学研究科准教授, 2017 年同教授. 東京大学博士 (理学). 言語処理学会, 情報処理学会, 人工知能学会, 電子情報通信学会, 日本データベース学会, ACL 各会員. Teguh Bharata Adji: His bachelor degree was fulfilled at Universitas Gadjah Mada in 1995 and his first Master degree was received from the same university in 1998. He also finished master program from Doshisha University, Kyoto in 2001. His doctoral degree was then obtained in 2010 from Universiti Teknologi Petronas, Malaysia. He is now an associate professor of Universitas Gadjah Mada. His research interest and publications are in the fields of Natural Language Processing, Social Media Technology, Big Data, Data Security. $(2018$ 年 8 月 1 日 $\quad$ 受付 $)$ $(2018$ 年 11 月 1 日 $\quad$ 再受付 $)$ $(2018$ 年 12 月 12 日 $\quad$ 採録 $)$
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## ニューラルネットワークを利用した中国語の統合的な構文解析 ## 栗田 修平 $\dagger$ ・河原 大輔 + 黒橋 禎夫 $^{\dagger$} ニューラルネットワークに基づく係り受け解析モデルは, 近年の深層学習を利用した言語処理研究の中でも大きな潮流となっている. しかしながら, こうした係り受け解析モデルを中国語などの言語に適用した際には,パイプラインモデルとして同時に用いられる単語分割や品詞夕グ付けモデルの無視できない誤りによって性能が伸び悩む問題が存在する. これに対しては, 単語分割・品詞タグ付けと係り受け解析の統合モデルを利用し,単語分割と構文木作成とを同時に行うことでその双方の改善が期待される。加えて,中国語においては個々の文字が固有の意味を持ち,構文解析では,文字やその組み合わせである文字列もしくは部分単語の情報が単語単位の情報と並んで本質的な役割を果たすことが期待される。本研究では, ニューラルネットワークに基づいて, 単語分割と品詞タグ付け, もしくは単語分割と品詞夕グ付け, 係り受け解析の統合構文解析を行うモデルを提案する,また,同時に,文字列や部分単語の情報を捉えるために,文字や単語の分散表現に加えて,文字列の分散表現を利用する。 キーワード:構文解析,係り受け解析,遷移に基づく解析,深層学習,単語の分散表現 ## Neural Network-based Chinese Joint Syntactic Analysis \author{ Shuhei Kurita $^{\dagger}$, Daisuke Kawahara ${ }^{\dagger}$ and Sadao Kurohashi ${ }^{\dagger}$ } Recently, dependency parsers with neural networks have outperformed existing parsers. When these parsing models are applied to Chinese sentences, they are used in a pipeline model with word segmentation and POS tagging models. In such cases, parsing models do not work well because of word segmentation and POS tagging errors. This can be solved by joint models of word segmentation, POS tagging and dependency parsing. In addition to this, Chinese characters have their own meanings, so the meanings of characters, character strings and sub-words are as important as the meanings of words in dependency parsing. In this study, we propose a neural network-based joint word-segmentation, POS tagging and dependency parsing model in addition to a joint word-segmentation and POS tagging model. We exploit not only word and character embeddings but also character string embeddings in all our models. Key Words: Syntactic Analysis, Dependency Parsing, Transition-based Parsing, Deep Learning, Word Embeddings  ## 1 はじめに 近年, ニューラルネットワーク及び分散表現の使用により, 係り受け解析は大きく発展している. (Chen and Manning 2014; Weiss, Alberti, Collins, and Petrov 2015; Zhou, Zhang, Huang, and Chen 2015; Alberti, Weiss, Coppola, and Petrov 2015; Andor, Alberti, Weiss, Severyn, Presta, Ganchev, Petrov, and Collins 2016; Dyer, Ballesteros, Ling, Matthews, and Smith 2015). こうした構文解析器が,単語ごとの分かち書きを行う英語や多くのヨーロッパ諸語に適用された場合は非常に正確に動作する。しかし,日本語や中国語のように,特に単語毎の分かち書きを行わない言語に対し適用する場合は, 事前に形態素解析器や単語分割器を利用して単語分割を行う必要がある. また, 単語分割が比較的に容易な言語の場合でも,構文解析器は品詞夕グ付け結果を利用することが多い. したがって, 前段の単語分割器や品詞タグ付け器と後段の構文解析器をパイプラインにより結合されて用いられる。しかし, どのような単語分割器や品詞タグ付け器にも出力の誤りが存在し, 結果的にそれが後方の係り受け解析器にも伝播することで, 全体の解析結果が悪くなってしまう問題が存在した。これを誤差伝播問題と呼ぶ。日本語においても中国語においても,単語の定義には曖昧性が存在するが,特に中国語では,このような単語の定義の曖昧性から,単語分割が悪名高く難しいことが知られている (Shen, Kawahara, and Kurohashi 2016a)。それゆえ, 従来法である単語分割, 品詞夕グ付け, 構文解析のパイプラインモデルは, 単語分割の誤りに常に悩まされることになった. 単語分割器が単語の境界を誤って分割してしまうと, 伝統的な one-hot な単語素性や通常の単語の分散表現 (word embedding) では,もとの単語の意味を正しく捉えなおすことは難しい。結果的に,中国語の文を生文から解析する際は,パイプラインモデルの精度は $70 \%$ 前半程度となっていた (Hatori, Matsuzaki, Miyao, and Tsujii 2012). このような誤差伝播問題に対しては, 統合モデルを使用することが有効な解決方法として提案されている (Zhang and Clark 2008, 2010; Hatori, Matsuzaki, Miyao, and Tsujii 2011; Hatori et al. 2012; Zhang, Zhang, Che, and Liu 2014). 中国語の単語は,単一の表層系で複数の構文的な役割を演じる。ゆえに, そうした単語の境界を定めることと, 後続の品詞夕グ付け, 構文解析は非常に関連のあるタスクとなり,それらを別個に行うよりも,同時に処理することで性能の向上が見込まれる。中国語の統合構文解析器については, すでに Hatori et al. (2012) や Zhang et al. (2014) などの統合モデルが存在する。しかし, これらのモデルは, 近年の word embeddingのような表現学習や, 深層学習手法を利用しておらず, 専ら, 複雑な素性選択や, それら素性同士の組み合わせに依存している。本研究では, ニューラルネットワークを用いた手法による中国語の統合構文解析モデルを提案し,パイプラインを用いたモデルとも比較する. ニューラルネットワークに基づく係り受け解析では, 単語の分散表現と同様に文字の分散表現が有効であることが英語などの言語における実験で示されている (Ballesteros, Dyer, and Smith 2015). しかし, 中国語や日本語のように個々の文字が固有の意味を持つ言語において, 単語以下の構造で ある部分単語の分散表現がどのように有効であるかについては,いまだ十分な研究が行われていない. 中国語では単語そのものの定義がやや曖昧である他に,単語内にも意味を持つ部分単語が存在する場合がある。加えて,中国語の統合構文解析を行う場合には,単語分割の誤りに対処したり,文中で単語分割をまだ行っていない箇所の先読みを行う必要があり,必然的に,単語だけではなく部分単語や単語とはならない文字列の意味を捉えることが必要になる。このような部分単語や単語とはならない文字列は,大抵の場合はモデルの学習に用いる訓練コーパスや事前学習された単語の分散表現中には存在せず,文字や文字列の分散表現を扱わない先行研究では未知語として処理される.しかし,こうした文字列を未知語として置換し処理するよりも,その構成文字から可能な限りその意味を汲み取った方が,より高精度な構文解析が行えると考えられる。このため,本研究では文字列の分散表現を利用した統合構文解析モデルを提案する。提案手法では, 既知の文字または単語についてはそれらの分散表現を使用し, 未知の文字列については文字列の分散表現を使用する. 本研究では中国語の統合構文解析モデルとして,単語分割・品詞夕グ付けおよび係り受け解析の統合モデルと, 単語分割と品詞夕グ付けの統合モデルおよび係り受け解析のパイプラインモデルの 2 つを提案する。これらのモデルを使用することで, 実験では新規に世界最高性能の中国語単語分割および品詞夕グ付け精度を達成した。また, 係り受け解析とのパイプラインモデルが,従前の統合解析モデルと比較して, より優れた性能を達成した。以上の全てのモデルにおいて, 単語と文字の分散表現に加えて文字列の分散表現を利用した。著者の知る限りにおいて, これは分散表現とニューラルネットワークを利用し, 中国語の単語分割・品詞夕グ付け・係り受け解析の統合解析を行った, はじめてのモデルである. この論文における貢献は以下のようにまとめられる。(1) 分散表現に基づく, 初めての統合構文解析モデルを提案した。(2)文字列の分散表現を未知語や不完全な文字列に対してその意味を可能な限り汲み取るために使用した。(3) 加えて, 既存手法で見られた複雑な素性選択を避けるために,双方向LSTM を使用するモデルを提案した。(4) 中国語のコーパスにおける実験で単語分割・品詞タグ付けおよび係り受け解析にて新規に世界最高性能を達成した。 この他に,本論文では中国語係り受け解析のラベル付けモデルを提案し,原文からラベル付き係り受け解析までを行った際のスコアを評価する。このモデルに関しても, 同様に文字列の分散表現を利用する。 ## 2 関連研究 遷移型係り受け解析アルゴリズムは,係り受け解析を行う際にその精度の高さと処理速度の速さから広く使われているモデルである。特に中国語の統合遷移型係り受け解析に対するアルゴリズムは Hatori et al. (2012) および Zhang et al. (2014)において提案された. Hatori et al. (2012)は,係り受け解析に関する情報が,単語分割と品詞夕グ付けを行う際にも有効であることを示し,遷移 型係り受け解析アルゴリズムに基づく最初の単語分割, 品詞夕グ付けおよび係り受け解析のモデルを提案した. Zhang et al. (2014) はこれを拡張し,通常の単語間の係り受けに加えて,単語内部の係り受けに対して独自にアノテーションを施し, これを考慮することによって, 精度の向上を達成できることを示した. こうした Hatori et al. (2012) およびZhang et al. (2014)による提案手法により,パイプラインモデルより優れた性能を出すなど,大きな成果が得られた。一方で,このような従来法におけるモデルでは,文字および単語の one-hot な表現を専ら利用しており, 使用する文字や単語の類似性は考慮されていなかった. 加えて, 中国語の統合構文解析により処理を行う最中には, 素性として,既知の単語や文字だけではなく単語をなさない不完全な文字列や部分単語も出現する。そのような不完全な文字列もしくは未知の単語は, モデルになんらかの形で認識させることで構文解析を行う際の重要な情報となりうる。しかし, そのような不完全な文字列は, 従来法における外部知識源である辞書情報や,学習済みの通常の単語の分散表現では捉えることが難しかった. Hatori et al. (2012) およびZhang et al. (2014) の提案手法における他の問題点として, これらの先行研究が詳細な素性選択を用いていることがあげられる。一方で, 近年, 双方向 LSTM を利用し詳細な素性選択を回避したニューラルネットワークモデルが提案されている (Kiperwasser and Goldberg 2016; Cross and Huang 2016). これらのモデルでは, 双方向 LSTM は語句の分散表現をその内容も含めてモデル化するために用いられている。実際に, Kiperwasser and Goldberg (2016) による構文解析モデルにおいては,双方向 LSTM により文全体の情報を利用することができるのに対し,素性に基づくモデルでは文全体を素性として用いることはできない。また,このように双方向 LSTM を利用して文全体を符号化する手法は,機械翻訳でも多く用いられている (Bahdanau, Cho, and Bengio 2014). 結果として, Kiperwasser and Goldberg (2016)によるモデルでは世界最高の性能と比較可能な性能を達成している。本研究では, $n$ グラムの文字分散表現に対応した双方向 LSTM を利用した構文解析モデルも提案する. なお, Hatori et al. (2012)による手法ではあくまでも単一の分類器を使用して単語分割・品詞夕グ付けおよび係り受け解析を同時に行うのに対し, Zhang et al. (2014)の提案手法では, 単語分割・品詞夕グ付けに対応する分類器と係り受け解析に対応する分類器を同時に用意し, 単語分割・品詞夕グ付けに対応する分類器を数単語分だけ先に処理させる. このような 2 の手法は, 本研究における単語分割・品詞夕グ付けおよび係り受け解析の統合モデルと, 単語分割・品詞夕グ付けの統合モデルおよび係り受け解析のパイプラインモデルの関係に近い. 4.2 .3 節にて, この関係を詳細に議論する。 ## 3 モデル この論文で提案する統合構文解析モデルは, 3.1 節で解説する遷移型アルゴリズムを使用する. また,不完全な文字列に対する分散表現を得るための文字列の分散表現手法については 3.2 節で解説する。素性選択を利用するニューラルネットワークモデルを 3.3 節で解説し, 双方向 LSTM を利用するニューラルネットワークモデルを 3.4 節で解説する. ## 3.1 単語分割・品詞タグ付け,係り受け解析のための遷移型アルゴリズム 単語分割・品詞夕グ付け,係り受け解析のための統合アルゴリズムには Hatori et al. (2012)に基づく,遷移型の統合アルゴリズムを使用する.統合解析モデルは入力文字列からなる buffer と stackからなり, buffer は文字が格納され,stackには単語と品詞夕グ,およびそれらの単語の構文木上の子孫に当たる単語が格納される(図 1). 初期状態では buffer に全ての入力文字列が格納される. stack は空である。 また,アルゴリズムの便宜上, bufferの末尾には文末を意味するシンボル “EOS”を置く。下記の遷移操作に従って, buffer から stack に文字が移され, 単語や構文木か形成される。終状態においては, buffer が空になり,stackには EOS シンボルを係り受け解析における ROOTノードとして, 品詞夕グが付与された単語群による構文木が生成されている. 本研究で用いる遷移操作は以下の通りである。 - $\mathrm{SH}(\mathrm{t}$ ) (shift): buffer の最初の文字を stack の先頭へ移動させ,新しい単語とする - AP (append): buffer の最初の文字を stackの先頭の単語の末尾に加える - RR (reduce-right): stackの先頭 2 単語のうち, 右側の単語を stack から消去し, 左側の単語の右側の子供の単語とする - RL (reduce-left): stack の先頭 2 単語のうち, 左側の単語を stack から消去し, 右側の単語の左側の子供の単語とする $\mathrm{SH}$ 操作および $\mathrm{AP}$ 操作によって単語の境界と品詞夕グが決定され, RR 操作および RL 操作により 図 1 単語分割・品詞夕グ付け, 素性選択のための遷移に基づく統合アルゴリズム 構文木が作成される.これらの遷移操作のうち, RR 操作および RL 操作は Arc-standard アルゴリズムのものと同一である (Nivre 2004). SH 操作およびAP 操作はいずれも buffer の最初の文字を stackへと移動させるが,SH 操作は移動した文字を新しい単語の先頭とするのに対し,AP 操作はすでに stack 先頭にある部分単語の末尾に文字を加える。ゆえに,SH 操作はモデルが予測する単語数を 1 単語たけ増加させるのに対し, AP 操作は, stackの先頭に存在する部分単語を 1 文字分たけ延長させる.品詞タグは $\mathrm{SH}(\mathrm{t})$ 操作と同時に付与される。由えに, $\mathrm{SH}(\mathrm{t})$ 操作は品詞夕グの数と同じだけ存在する. なお, buffer 上に文字が存在しない時は, SH 操作および AP 操作を行うことはできない. 同様に stack 上に 2 個以上の単語または生成途中の単語が存在しない時は RR 操作および RL 操作を行うことはできない。また, AP 操作が適用可能となるのは, 直前の操作が SH 操作, もしくは AP 操作である時のみである。 この論文においては, 貪欲法による訓練及び探索とビーム法による訓練および探索の両方を実験する.この解析アルゴリズムはその両方に対して動作する。また, 本研究においては, 単語分割と品詞タグ付けの統合モデルと係り受け解析の単独モデルも同様に作成した. 単語分割と品詞タグ付けの統合モデルにおいては, RR 操作および RL 操作は用いない. 同様に, 単独の係り受け解析モデルにおいては,通常の Arc-standard 構文解析モデルを使用する. ## 3.2 単語および文字, 文字列の分散表現 本節ではニューラルネットワークモデルにおいて用いられる分散表現について解説する. 統合構文解析を行う際は, 必然的に, 意味のある単語と不完全な文字列が解析中に多く出現する. このような不完全な文字列の表現は, Hatori et al. (2012) などの既存手法においては用いられなかったが,もし,分散表現を用いて他の単語や文字列との類似性を表現できれば,統合構文解析を行う際に非常によい情報となりうるはずである. 例えば,固有表現である“南京东路”(上海にある有名な商店街)は Penn Chinese Treebank (CTB)コーパスではひとつの単語として扱われている。このような固有表現は, “北京西路” “湘西路”などとして CTB コーパス中に多く出現する。これらは,“南京”や“北京”などの都市を表す部分単語と“东路”や“西路” などといった場所を表す部分単語の組み合わせとして理解される. こうした表現を学習することで,テストデータ中に未知の“(固有地名)东路”や“(固有地名)西路”といった表現が出現しても,これを地名として処理することが期待できる。 また, 部分単語や, 逆に複数の単語にまたがる文字列を利用することが, 単語分割の誤りを補うために役立つ場合もある。例えば, “南京东路”に対し, 単語分割器が過剰に単語分割を行い, “南京”と “东路” の 2 単語に区切ってしまった場合を仮定しよう ${ }^{1}$. この時, 事前学習された単語の分  散表現や CTB の訓練コーパス中に “东路” という単語が存在しなければ, これは未知語として処理されうる。このような場合でも,その文字の構成から“东路”は場所を表す単語であると推測できる.このように,部分単語や文字の表現を使用することで,単語分割の誤りに対して頑健さを持たせることができる. しかしながら,こうした部分単語や文字列等は,多くの従来研究では未知語もしくは “UNK”シンボル等として置換され,処理されていた,本研究では,こうした文字列についても,それを構成する文字から可能な限り意味を捉える分散表現を提案する。 $n$ 個の文字 $c_{i}$ からなる文字列 $c_{1} c_{2} \cdots c_{n}$ を考える。提案手法ではこの文字列に対する分散表現 $\mathbf{v}(\cdot)$ を以下のように計算する. $ \mathbf{v}\left(c_{1} c_{2} \cdots c_{n}\right)=\sum_{i=1}^{n} \mathbf{v}_{c}\left(c_{i}\right) $ ここで $\mathbf{v}_{c}(\cdot)$ は文字の分散表現ベクトルを表す. このように文字列の分散表現を, その構成文字の文字表現から構成する手法は, どのような文字列に対しても計算できるほか RNN や CNN 等の複雑なニューラルネットワークを用いないことによる速度上の利点が存在する。 なお, このような文字, 単語および文字列の分散表現はすべて同じべクトルの次元を持ち, ニュー ラルネットワークの計算グラフ中で,入力に対しどのような分散表現を利用するかが決定される. したがって,いずれの分散表現を利用する場合でも,その基となる文字または単語の分散表現が, ニューラルネットワークの誤差逆伝播法により学習される. 本研究では,任意の中国語の単語列に対し,以下の規則にて,その分散表現を割り当てる. (1)文字列が既存の単語分散表現中に存在するか調べ,存在する場合には,その分散表現を使用する. (2)分散表現が存在しない場合には,上記の式のように,文字に対する分散表現を用いて,文字列の分散表現として使用する. (3) 分散表現中に存在しない文字については UNK シンボルを使用する. 本研究では, UNK シンボルのような未知語の表現べクトルを利用することは可能な限り回避した. なぜならば,そのようなべクトルを使用することはニューラルネットワークに与える入力を縮退させることになるからである。しかしながら,事前学習された分散表現中に存在しない文字については,入力を UNK シンボルに置換して使用する. 品詞タグについても同様に対応する分散表現を用意し, 学習に使用する. UNK シンボルに対応する分散表現や品詞タグに対応する分散表現は,正規分布を用いて初期化される。この他, 本研究では,部分単語の長さに対応する,数字の分散表現を一部に用いた。これは,一定の長さを持つ文字列は,同じ分散表現を共有するものである。もっぱら, buffer から stackへと一文字毎に移されている最中の部分単語の長さを表現するために用いられる。数字の分散表現も正規分布を用いて初 期化される. 提案手法では,単語と文字の分散表現を事前学習にて準備する。文字と単語の分散表現は,同一のベクトル空間に埋め込まれる。まず,事前学習に用いるコーパスについて,単語分割されたファイルと一文ごとに文字分割されたファイルを用意する.各ファイルには一行に一文ずつ事前学習に用いる文を配置する,次に,それらのファイルを結合し,行単位でランダムに並び替え,単語及び文字の分散表現を学習するための事前学習コーパスとする。これにより, 類似した意味を持つ単語と中国語の文字は,ベクトル空間内の近い位置に埋め込まれることが期待される。中国語の文中には, 一文字で一単語となる単語も存在し, そのような単語を介して, 周辺の文字や単語が類似した位置に配置されうるからである。 具体的な分散表現学習に用いたツールおよびコーパスについては, 4.1 節に記載した. ## 3.3 素性選択を利用するニューラルネットワークモデル ## 3.3.1 ニューラルネットワークモデル 素性選択に基づくニューラルネットワークモデルを図 2 に示す. 素性とその分散表現を入力に取るニューラルネットワークを使用した構文解析は, 近年, 活発な研究が行われており,その中には貪欲法に基づいてニューラルネットワークを学習させるもの (Chen and Manning 2014; Weiss et al. 2015), ビーム探索を用いるもの (Andor et al. 2016; Weiss et al. 2015) がある. 本研究では, このように素性を入力として用いることに加えて, 不完全な文字列が素性として入力されても処理が可能であるように, 3.2 節にて導入した文字列の分散表現の動的生成を加えた. 遷移操作を決定する分類器には, 8,000 次元の 2 つの隠れ層を持つ, 3 層フィードフォワードニュー ラルネットワークを使用した。これは 200 次元の隠れ層を利用した (Chen and Manning 2014) や 1,024 次元もしくは 2,048 次元の隠れ層を利用した Weiss et al. (2015) よりも更に大きい. 隠れ層の活性化関数には ReLU を使用した (Nair and Hinton 2010)。なお, (Chen and Manning 2014) にて用いられている $x^{3}$ の活性化関数は, 2 層のフィードフォワードニューラルネットワークでは比較可能な性能を達成したが, 3 層以上のフィードフォワードニューラルネットワークでは,うまく動作しなかった. フィードフォワードニューラルネットワークの最終層が出力層となる. 貪欲法による出力層は softmax 関数を使用した。ニューラルネットワークの隠れ層は乱数を用いて初期化した。貪欲法における損失関数 $L(\theta)$ は $ \begin{gathered} L(\theta)=-\sum_{s, t} \log p_{s, t}^{\text {greedy }}+\frac{\lambda}{2}\|\theta\|^{2} \\ p_{s, t}^{\text {greedy }}(\boldsymbol{\beta}) \propto \exp \left(\sum_{j} w_{t j} \beta_{j}+b_{t}\right) \end{gathered} $ となる.ここで, $t$ は可能な遷移操作の集合 $\mathcal{T}(t \in \mathcal{T})$ の中のある 1 つの遷移操作を表す. $s$ は 図 2 素性に基づくニューラルネットワーク,貪欲法による出力は 2 番目の隠れ層から入力を受けるのに対し, ビーム探索には全ての隠れ層および貪欲法による出力層から入力を受けるパーセプトロン層を使用する。入力の文字列は,分散表現に含まれている場合はその分散表現が使用され,含まれていない場合は,文字列の分散表現がその文字構成から計算されて使用される。 ニューラルネットワークの学習におけるミニバッチ中の 1 つの要素を示す. $\boldsymbol{\beta}$ はフィードフォワードニューラルネットワーク最終層における出力を表す. $w_{t j}$ 及び $b_{t}$ はニューラルネットワークの重み行列とバイアス項を示す. $\theta$ はモデルの全ての変数を示す. 本研究ではニューラルネットワークの変数に対し, $L 2$ 罰則項と Dropoutを使用した. ニューラルネットワークの誤差逆伝播法は, これらのニューラルネットワークの変数を含めて, 単語及び文字の分散表現まで行われる。誤差逆伝播法の学習率の調整には Adagrad を使用する (Duchi, Hazan, and Singer 2010). Adam (Kingma and Ba 2015) と SGDを使用することも考慮したが,このモデルについては Adagradがよりよく振る舞った. 他のモデル変数については表 1 にまとめる. 表 1 のモデル変数のうち, $\mathbf{h}_{1}$ と $\mathbf{h}_{\mathbf{2}}$ のサイズは予備実験により決められた.学習率の初期値については,ニューラルネットワークの学習において広く使われているものを用いたが,ビームを使用する場合は,モデルの安定性のため,小さな初期値から学習を始めた。単語・文字の埋め込みにおけるボキャブラリー数については,分散表現に含まれる語彙数を多くするため, サイズの大きいものを用いた. 埋め込みの次元は Chen and Manning (2014) などの先行研究で広く使われている值 表 1 ニューラルネットワークの構造と学習に関する諸変数 単語と文字は同じ次元の分散表現を持つ。「文字列長さの埋め込み」とは, buffer から stackへと一文字毎に移されている最中の部分単語の長さに対応する数字の分散表現である. の一つである 200 次元を用いた. ニューラルネットワークの隠れ層が 8,000 次元となり,これは先行研究よりも大きい. この理由として,1つ目に,3.3.2節にて紹介する,素性を表現するべクトル表現が大きいことが挙げられる.例えば,単語分割,品詞タグ付けおよび係り受け解析の統合モデルについては,合計で 9,820 次元にもなる。この中には文字列に関する素性も含まれる。これを表現するために大きな隠れ層が必要となる.2つ目に,ニューラルネットワークが,単語分割,品詞夕グ付けおよび係り受け解析という多岐にわたる判断をしなければならないことが挙げられる。出力側が複雑になるために,必要となる隠れ層のサイズも大きくなると考えられる. 貪欲法によるモデルの学習では, 学習前に, 訓練データセット中の全ての文に対して, 遷移型構文解析アルゴリズムを正解ラベルに従って順次適用させたときに出現する,入力素性および遷移操作の教師ラベルの組み合わせを予め計算し抽出した。このようにして抽出された文内での遷移操作と入力素性の組み合わせを,文をまたいでシャッフルしてからニューラルネットワークの学習に用いるミニバッチを作成した。これにより,あるミニバッチに特定の文が偏ることがないようにした. モデルのテスト時や実際の入力文の解析時には,処理を行う文を複数個並べてミニバッチを作成し,同時に解析が行えるようにした。これにより,ある一連のニューラルネットワークの呼び出しに対し,複数文を同時に処理することが可能となり,速度の大幅な向上が可能となった。この際に,同時に処理が可能な文数は専ら GPU のメモリサイズのみに制約される。また,この方法はビームを用いた解析にも適用できる。 ## 3.3.2 素性 このニューラルネットワークの素性を表 2 に列挙する. 本研究では,以下の 3 種類の素性を使用した. (1) Hatori et al. (2012)にて用いられた素性から,素性同士の共起を取り除いたもの 表 2 統合モデルに対する素性 この表において,"b”は buffer の文字,“s”は stackの単語を示し,"b”と “s”の次の数字は,先頭からの文字および単語の番号である。 “l”と “ $\mathrm{r} ”$ は,その単語の左側と右側の子どもの単語のことを指し, “l”と “ $\mathrm{r} "$ の次の数字は, 子どもの単語の番号である。サフィックスの $\mathrm{w}, \mathrm{p}, \mathrm{c}, \mathrm{e}$ は, それぞれ, 文字列または単語, 品詞タグ,文字,そして文字列の最後の一文字を表す。“ $\mathrm{q} 0 "$ は直前に buffer から stackへ移動された単語を, “q1”は “q0”より先に移動された単語を示す. “part of q0 word”では, q0f1, q0f2, q0f3 は,それぞれ $\mathrm{f} 1$, f2,f3 の位置の文字から始まる q0 の部分単語を表す.ここで $\mathrm{f} 1$ は q0 の最後の文字の位置を表すため, q0f1 は q0 の最後の一文字を表す. f2 は最後から 2 番目の文字の位置を表すため, q0f2 は f2 の位置から始まる 2 文字の文字列を示す. “strings across q0 and buf." では, q0f1bX は, 単語 q0の f1 の位置から始まる $X$ 個の文字からなる文字列を表す。この素性による文字列は buffer と stack にまたがりうるが,連続的な文字列に限定する。 "strings of buffer characters" では, bX-Y が, buffer 内部の $X$ 番目から $Y$ 番目までの文字列を表す. lenq0 は q0の長さを示し,この分散表現のみ小さな埋め込みのサイズを用いる. (2) Chen and Manning (2014) にて用いられた素性 (3) 文字列に関する独自の素性 このなかで独自の素性として, 部分単語に関するものと buffer と stackにまたがる文字列の素性, buffer の中の文字列の素性が存在する. buffer と stack にまたがる文字列の素性は, 現在, 単語分割が行われている単語に対する貴重な情報を提供する。また,長すぎる文字列に対する素性を用いることがないように,本研究では文字列素性の長さを 4 文字以下に制限した.CTB データセットにおいては,5 文字以上の長さの単語は稀であるからである。ただし,これは素性に関するものであり, 出力単語としてはそれ以上の長さのものもありうる。 ただし, 本研究では, 文中に連続に出 現する文字列のみを素性に用い,共起に関する素性は使用しなかった。ここでいう共起に関する素性とは,例えば stackの先頭以外の位置にある文字列と, buffer にある文字列の組み合わせに関する素性等である. Hatori et al. (2012) では多数の手作業で調整された one-hot な素性の共起を利用していた,本研究では,そのような素性同士の共起はニューラルネットワークの隠れ層上で自然に考慮されると考えた (Hinton, McClelland, and Rumelhart 1986). 本研究では,単語分割済みの単語については,単語や文字列のほかに,すでにモデルによって付与された品詞も素性として利用させた。また, buffer から stackへと一文字ずつ文字を移動させている最中の単語の長さを表現するために, 小さな次元の埋め込みを用いた. また, 単語分割, 品詞夕グ付けおよび係り受け解析の統合解析モデルとは別に, 単語分割と品詞タグ付けのみの統合モデルも実験に用いた。このモデルについては,構文解析に関する素性,すなわち stackに存在する単語や文字列の子供や孫にあたる単語に関する素性を省略している。 ## 3.3.3 ビーム探索 ビーム探索は中国語の統合解析において重要な役割を果たす。本研究では, 近年提案された, ビー ムを用いたニューラルネットワークの最適化手法を採用した (Weiss et al. 2015; Andor et al. 2016).図 2 では,最上部に位置するパーセプトロン層がビームを利用した解析に使用する。具体的には, ビーム探索のために独立したパーセプトロン層を用意し,フィードフォワードニューラルネットワークの 2 層の隠れ層および貪欲法による出力層を, その入力とする: $\left[\mathbf{h}_{1}, \mathbf{h}_{2}, \mathbf{p}^{\text {greedy }}(\mathbf{y})\right]$. 次に, このパーセプトロン層を以下のコスト関数にしたがって学習させる (Andor et al. 2016): $ \begin{aligned} L\left(d_{1: j}^{*} ; \theta\right) & =-\sum_{i=1}^{j} \rho\left(d_{1: i-1}^{*}, d_{i}^{*} ; \theta\right) \\ & +\ln \sum_{d_{1: j}^{\prime} \in \mathcal{B}_{1: j}} \exp \sum_{i=1}^{j} \rho\left(d_{1: i-1}^{\prime}, d_{i}^{\prime} ; \theta\right) \end{aligned} $ ここにおいて, $d_{1: j}$ は統合構文解析の遷移経路を示し, $d_{1: j}^{*}$ は正解の遷移経路を示す. $\mathcal{B}_{1: j}$ はビー ム内部での 1 番目から $j$ 番目までの遷移経路を示す. $\rho$ は図 2 におけるパーセプトロン層の出力を表す。 本研究では, Andor et al. (2016) と同様にして, 貪欲法を用いてフォードフォワードニューラルネットワーク部分を学習し, 次にビームを用いて, パーセプトロン層のみを学習させる。最後に, フィードフォワードニューラルネットワークを含めて誤差逆伝播法による学習を行う。この学習はネットワーク全体に対して行うことも可能であるが, 予備実験の結果, この段階で文字および単語の埋め达み層を最適化すると, 学習結果が悪くなることが判明した. そこで, 本研究では, 文字及び単語埋め迄み層をこの段階の学習からは除外した. このニューラルネットワーク全体を通した誤差逆伝播法は,かなりの GPUメモリを消費する。それゆえ,訓練コーパスのうちとりわけ長い文 は,GPUメモリに載せられないために訓練から取り除いた。また,ビームを用いた訓練においては, 最初のエポックでは小さなビームサイズで学習を行い, 徐々に学習に用いるビームサイズを増やしていった。学習には順に $4,8,16$ のサイズのビームを使用した。最終的な単語分割・品詞夕グ付けおよび係り受け解析の統合モデルの学習及びテストにはサイズ 16 のビームを用いた. 本研究では, 単語分割・品詞夕グ付けおよび係り受け解析の統合モデルでのビーム探索について, Hatori et al. (2012) と同様に特別な配置ステップを使用した. 単語分割・品詞タグ付けおよび係り受け解析の統合モデルでのビーム探索では,AP 遷移のみに 2 ステップの配置をもたせている。この配置を使用することで, $N$ 文字の文に対する総遷移回数は, どのような遷移経路を経由しても,文終端記号に対応する遷移を除いて $2 N-1$ となる。これは, AP 遷移操作が,文字の追加と単語内の係り受け解決の 2 つのことを行っているとして解釈できる。つまり,中国語の単語は,単語内にも文字同士の係り受け関係が存在すると解釈し,AP 遷移操作はこの単語内の係り受けを解決するものとして捉える。 本研究では, Hatori et al. (2012)にて用いられた, Huang と Sagae による動的計画法を用いたビーム探索の手法は使用していない (Huang and Sagae 2010; Hatori et al. 2012). それは, Andor et al. (2016) によるニューラルネットワークのビームサーチを利用した広域最適化手法式が, 遷移型解析の途中状態でのニューラルネットワーク関数の出力結果を入力とすることによる.遷移型解析にて経由するすべての途中状態でのニューラルネットワークの出力結果は, 先の式を通じて, 全体の計算グラフの中に取り込まれる。このように,ニューラルネットワークの計算グラフの中で,遷移の途中状態も含めた最適化が行われるために, 少なくとも学習時は, この手法における動的計画法の採用は難しいと考えられる。また,ニューラルネットワーク固有の問題として Dropout を使用している場合は,そもそも,同一の入力に対して確率的に異なる振る舞いをする。この性質は,動的計画法には向かない. ## 3.4 双方向 LSTM を使用したモデル 3.3 節では,素性選択を利用したニューラルネットワークを提案した。このモデルは非常に高い性能を誇るが,以下の 2 つの問題が存在した。 (1)ニューラルネットワークが限られた素性に基づいて動作するため, 文全体の情報を入力にとることはできない (2) 素性選択に頼っている この問題を解決するため, Kiperwasser and Goldberg (2016) は双方向 LSTM による構文解析モデルを提案した,彼らのモデルでは非常に少数の素性のみを使用しながら,双方向 LSTM を使用することで文全体の情報をニューラルネットワークに与えることに成功した.結果的に,彼らのモデルは, Penn Treebank データセットにて素性に基づくWeiss et al. (2015) によるモデルと比較可能な性能を達成した. 彼らのモデルは, 3 つの部分から成り立っている. 入力文を処理する双方向 LSTM と, 双方向 LSTM の隠れ層から素性を抽出する関数と, 多層パーセプトロンである。語句を直接に素性として用いるのではなく,文全体を双方向 LSTM を利用して処理した各語句の分散表現を素性として用いることに特徴がある. 本論文では, Kiperwasser and Goldberg (2016) の手法を発展させ, 双方向 LSTM による文全体の情報抽出を利用して, 単純かつ大域的な素性を利用した統合構文解析モデルを提案する. Kiperwasser and Goldberg (2016)の手法は, 入力が単語分割されていることを前提としている. したがって,中国語の統合構文解析に応用するに際し,単語分割が施されていない入力に,どのように双方向 LSTM を利用するかが問題となる。文字に対する単純な双方向 LSTM のみを使用した場合,文字列としての意味を捉えられるとは限らない. そこで本研究では, 単純な文字入力の他に, 文中に存在するできる限り多くの文字列に対して,分散表現を付与し,その利用を可能にする方法を提案する。図 3 のように,入力文中に出現する複数の長さの文字列を捉えるために, $n$ 文字入力に対応する複数の双方向 LSTM を組み合わせる. $n$文字入力に対応する双方向 LSTM は文字列 $c_{i} \cdots c_{i+n-1}$ の配列である $ \left.\{c_{1} \cdots c_{n}, \cdots, c_{i} \cdots c_{i+n-1}, \cdots, c_{N-n+1} \cdots c_{N}\right.\} $ を入力とする. ここで, $c_{i}$ は $N$ 文字からなる文中の $i$ 番目の文字を表す. また, 文終端記号やニュー ラルネットワークのパディングのための表現は別に与える.具体的には, $n=1$ のときは,文字入力の双方向 LSTM に対応し, $n=2$ のときは連続的な 2 文字 $c_{i} c_{i+1}$ を双方向 LSTM の入力とする. こうした $n$ 文字入力に対応する双方向 LSTM は, 入力となる文字列の表現を,単語または文字の分散表現もしくは動的に生成される文字列の分散表現として利用する。このように文中に存在する文字列をできる限り利用する手法では,当然ながら,多くの不完全な単語が入力中に生成されてしまう。しかしながら,不完全な単語や文字列であっても,文字列の分散表現を利用することで,双方向 LSTM にその構成文字の情報を伝えることが可能となる. このようにして生成された文中の文字列の双方向 LSTM による表現を, buffer 及び stack 内部の単語や文字列の表現として利用する。ただし, ここでは, 文字 $c_{i}$ から開始する複数の文字列 $c_{i}, c_{i} c_{i+1}, \cdots, c_{i+n-1}$ について, その双方向 LSTM による表現を連結したべクトル $ \left[v\left(c_{i}\right), v\left(c_{i} c_{i+1}\right), \cdots, v\left(c_{i+n-1}\right)\right] $ を, 文字 $c_{i}$ から開始される文字列の素性の表現ベクトルとして利用する. 双方向 LSTM を利用するモデルの素性は表 3 にまとめられる。最後に多層パーセプトロンおよび softmax 関数により,統合構文解析に用いられる遷移確率が予測される。 双方向 LSTM を使用するモデルについては, 多層パーセプトロンには 3 層の重み行列を持つものを用いた。このニューラルネットワークについては, 貪欲法による学習を適用した. 図 3 双方向 LSTM によるモデル。 $n$-gram に対応する 4 個の独立した双方向 LSTM によって, 文全体が $n$文字ずつ処理され,文字の開始位置に応じた 4 個の隠れ状態が作られる。次に stack や buffer の状態に合わせて,隠れ状態から素性抽出が行われる,なお,素性抽出の際は,単語の開始位置に対応する 4 個の隠れ状態を結合して用いる,なお,本図においては, 4 素性モデルに対応する 4 個の素性を図示した. 8 素性モデルにおいて使用される, stackの子供の単語に関する 4 個の素性については, 図示していない. 表 3 双方向 LSTM を用いたモデルに使用される素性 構文解析を行う際の stack と buffer のみの非常に基本的な素性が 4 素性モデルであり, stack の子供の単語に関する 4 個の素性を加えたのが 8 素性モデルである,素性に使用されている記号については,表 2 と同一である。 ## 3.5 係り受けラベルの推定モデル 本論文では係り受け解析のラベルの推定モデルを提案する。このモデルは, 先程までのモデルとは独立に, 入力文の単語列, 品詞夕グおよびラベルなしの係り受け解析結果を入力にとる。 モデル本体は, 入力単語列と品詞タグを処理する一層の双方向 LSTM と, 係り受けのある各単語ぺアご 図 4 双方向LSTM による係り受け解析結果へのラベル付けモデル。係り受けのある単語対について, 係り受けラベルを推測する。 とにラベルを推定するフィードフォワードニューラルネットワークからなる(図 4). 前節までのモデルと同様に UNK に起因する問題を回避するため,このモデルは,入力単語を,単語,文字および文字列の分散表現を利用して,入力単語列の分散表現を得る。また,品詞夕グも分散表現に変換し,入力単語列の分散表現と連結した上で,双方向LSTMへの入力とする.双方向 LSTM の出力から係り受け元と係り受け先の単語の分散表現を抽出し, 2 層フィードフォワードニューラルネットワークの入力とする. 2 層フィードフォワードニューラルネットワークの最終層にある softmax 関数が係り受けのラベルの予測分布を出力する。 ## 4 実験 ## 4.1 実験設定 実験には,中国語の構文解析データセットである,Penn Chinese Treebank 5.1 (CTB-5) および Penn Chinese Treebank 7 (CTB-7) を利用した。データセットの分割には,標準的に用いられている CTB-5 の分割 (Jiang, Huang, Liu, and Lü 2008) および CTB-7 の分割 (Wang, Kazama, Tsuruoka, Chen, Zhang, and Torisawa 2011)を使用した. オリジナルの CTB データセットには,係り受け解析の結果は含まれていない。そこで,Penn2Malt ${ }^{2}$ を使用して係り受け解析の形式に変換した。データセットの統計を表 4 に示す. 分散表現の事前学習には Chinese Gigaword Corpus を使用した。分散表現の事前学習の具体的な手法は, 3.2 節の後半に記載した。本研究では,単語および文字の分散表現事前学習には word2vec を使用した (Mikolov, Chen, Corrado, and Dean 2013),事前学習に用いたコーパスの単語分割に ^{2}$ https://stp.lingfil.uu.se/ nivre/research/Penn2Malt.html } 表 4 Penn Chinese Treebank データセットの統計 は, (Shen, Li, Choe, Chu, Kawahara, and Kurohashi 2016b)の KKNにより行われた.これら単語と文字の同時埋め込み事前学習は,3.2 節にて紹介した方法により行われた。学習済み分散表現のうち, その頻度順の上位 100 万語を使用した. さらに, CTB データセットのうち訓練データセットに含まれる未知語については,正規乱数を用いて初期化されたべクトルを使用する。開発データセットおよびテストデータセットについては,このような事前に初期化された分散表現を持たない未知語を持つ. 本研究ではラベルなしの係り受け解析をまず実験し,評価した.次に,4.2.7 節にてラベル付きの解析を行った,単語分割や品詞タグ付け,係り受けの評価には, Hatori et al. (2012) および Zhang et al. (2014) にしたがって, F1 測定による標準的な単語単位での評価を行った. この設定では, 正しく分割されていない単語に対しては, 品詞夕グと係り受け解析の結果も正しいとはみなされない. Hatori et al. (2012) と同様に, 句読点への係り受けは評価の対象とはしない. 本研究では SegTag,SegTagDep およびDepの3種類のモデルを用いて実験を行った.SegTag は単語分割と品詞タグ付けの統合モデルである. SegTag モデルにて使用される遷移操作は 3.1 節にて, 使用される素性は, 3.3.2 節の末尾にて解説している. SegTagDep は単語分割・品詞タグ付けおよび係り受け解析の統合モデルであり,Dep は係り受け解析のモデルである.Dep モデルは Weiss et al. (2015) および Andor et al. (2016) に類似し,また使用される素性の種類は Chen and Manning (2014) と同様であるが, 素性の入力方法には, 3.2 節にて解説した文字列の分散表現を利用している。これにより, 単語分割の誤りや未知語などがDep モデルの入力に含まれていても, Dep モデルは,文字表現からある程度はその入力を捉えることが期待される。この効果は後ほど検証する。 この論文における実験の多くは GPU を用いて行われたが,ビームを用いた学習の一部は,大きなミニバッチを使用していたために,GPUメモリに乗せることができず,CPU上で行われた. ニューラルネットワークの実装には Theano を用いた. ## 4.2 結果 ## 4.2.1単語分割と品詞タグ付けの統合モデル 最初に,単語分割と品詞タグ付けの統合モデル (SegTag) について実験し,評価した. このモデルにて使用される遷移操作は 3.1 節にて,使用される素性は,3.3.2 節の末尾にて解説している。表 5 では,CTB-5 データセットを用いて,単語分割と品詞タグ付けの性能を比較した。本研究では提案手法を Hatori et al. (2012) および Zhang et al. (2014), Zhang, Li, Barzilay, and Darwish (2015) の 3 つの異なる関連研究と比較した. Zhang Y. らのモデルは Zhang M. らのモデルの k-best 出力を,再並び替えするモデルである (Zhang et al. 2015)。なお,この表における Hatori et al. (2012) の手法のスコアは Hatori et al. (2012) の論文から取得した. 本研究での単語分割と品詞夕グ付けの統合モデルは, これらの既存手法に対し, その両方で優れた性能を示した。この中には優れた辞書情報を利用する Hatori et al. (2012)のモデルも含まれる。ただし,本研究では,Chinese Gigaword Corpus を用いて,単語および文字の分散表現を事前学習しており,CTB データセットのみを使用している既存手法との比較においては注意を要する. ## 4.2.2 単語分割・品詞タグ付けおよび係り受け解析の統合モデル 表 6 は単語分割・品詞夕グ付けおよび係り受け解析までをすべて統合して行った場合の結果を示している。特に貪欲法を用いて学習を行った統合モデルである $\operatorname{SegTagDep}(\mathrm{g})$ モデルとビームを用いて学習を行った SegTagDep モデルの結果を示す. 提案手法は単語分割と品詞夕グ付けにおいて既存手法を超える性能を発揮した. Andor et al. (2016) によるビームサーチを用いることで係り受け解析のスコアは更に改善されたが,Zhang M. らの手法およびそれを用いるZhang Y. らの手法にはわずかに劣る性能を示した。なお,この表における Hatori et al. (2012)の手法のスコアは 表 5 単語分割と品詞夕グ付けの統合モデル CTB-5 における実験結果. SegTag モデルを, Hatori et al. (2012) および Zhang et al. (2014), Zhang et al. (2015) のモデルと比較した. Hatori et al. (2012)のモデルにおける (d) は, 辞書を使用したモデルであることを示す. Zhang et al. (2014) のモデルにおける EAG は Arc-Eager モデルであることを示す. SegTag(g) は貪欲法を用いて学習されたモデルを,SegTag はビームサーチを用いて学習されたモデルを示す。 表 6 単語分割・品詞タグ付けおよび係り受け解析の統合モデル (SegTagDep) と単語分割と品詞夕グ付けの統合モデルと係り受け解析のパイプラインモデル (SegTag+Dep). CTB-5 における実験結果. (g) は貪欲法を用いて学習されたことを示す. SegTag+Dep モデルにおいては, SegTag と Dep の双方でビームを用いて訓練とテストを行っている. なお, Zhang et al. (2015) は他の構文解析器の結果を再配置し, 精度の向上を目指すモデルである。 ‡は $\operatorname{SegTagDep}(\mathrm{g})$ モデルに対して対応のある $\mathrm{t}$ 検定を行い, $p<0.01$ で統計的に有意な改善が見られたことを示す. Zhang et al. (2014) から取得した. なお,貪欲法によるモデルである $\operatorname{SegTagDep}(\mathrm{g})$ はビームサーチを用いるモデルよりわずかに劣る結果となったが,ビームを用いないことによる解析の速さは一考に値する. ## 4.2.3単語分割と品詞タグ付けの統合モデルと係り受け解析のパイプラインモデル 次に SegTag モデルと依存構造解析のみのモデル (Dep) とのパイプラインモデル (SegTag+Dep) を実験した.簡単のため,SegTag モデルは貪欲法で学習されたのに対し,Dep モデルはサイズ 4 のビームを用いて学習及びテストが行われた。結果を表 6 の SegTag+Dep に示す. 同じくビームサーチを使用するモデルである SegTagDep と SegTag+Dep を比較した場合, SegTag+Dep は係り受け解析を含めた統合モデルである SegTagDep よりも係り受け解析および単語分割において優れていた. SegTagDep モデルや SegTag+Dep モデルにおける単語分割の誤りは, 主に固有表現にて生じている。本論文では,これを詳細に考察する.SegTagDep モデルにて用いられるビームを用いた学習では, Hatori et al. (2012) の AP 操作に 2 倍の配置長を持たせる手法が使われている。これは, 単語内部の文字同士の係り受けを考慮していると解釈できる.例えば“记者”(記者),“实验室”(実験室)のような単語においては,前の文字が,順番に後ろの文字に係り受け構造を持つとして,直感的にも理解できる。この解釈では, AP 操作は, 文字を連結し,かつ単語内の係り受けを解決しているために,2 倍の配置長を持つ操作となる. しかし, 固有表現においては, 先程のような単語内係り受けが存在するとは考えにくい場合がある。例えば,人名である“卢仁法”は文字同士の係り受けを持たない単語と見なしたほうが自然である。そのような単語に対しては, SegTagDep モデルでは SH 遷移を行うことが多くなる。これは Hatori et al. (2012) の AP 遷移が文字の結合と単語内係り受けの解決という 2 つのことをしているとみなした場合に,固有表現には必ずしもそのような内部の係り受けが存在するとは限らないため, やや過剰な配置をもたせていると考えられるためである。そのため, 結果的に, SegTag+Dep の方が SegTagDep より優れてた単語分割結果となったと考えられる. 固有表現について, SegTagDep モデルと SegTag+Dep モデルを比較した場合, 以下のような差が見られた. “总统龚保雷餐叙, ” (ゴンバオリ大統領が会食をして, ) という句中の “龚保雷餐叙”に対し, SegTagDep モデルは “龚保雷餐叙”という一単語として固有表現としたのに対し, SegTag+Dep モデルは固有表現の“龚保雷”(ゴンバオリ・人名)と動詞の“餐叙”(会食をして)として, 正しく単語分割を行った.地名についても,一語の固有表現である“新喀里多尼亚”(ニューカレドニア) や“所罗门群岛” (ソロモン諸島)に対して,SegTagDep モデルは過分割を行ったが,SegTag+Dep モデルは一語の固有表現として, 正しく分割を行った. やや特殊な例としては, “以多明尼加为例,就在陈水扁总统造访前夕, 多国新总统阵营主动向媒体透露,中国大陆将为多国兴建大型火力发电厂的讯息. ”(ドミニカ共和国では,陳水扁総統が訪れる直前に,新大統領陣営は自ら中国大陸により大型の火力発電所が建設されることをメディアに告げた.)という文では, “多国”がドミニカを指し示す固有表現となる。一方で,“多国”は“多”および“国”と二単語にも分割され,この場合は「多くの国」という意味にもなる。このような場合に,SegTagDepでは “多国”を“多”と“国” に分割して出力されたが,SegTag+Depでは「多国」として一語の固有表現として出力された. また, 関連研究にて, Zhang et al. (2014) の提案したSTD (Arc-standard) モデルは, Hatori et al. (2012) の単語分割・品詞夕グ付けおよび係り受け解析の統合モデルよりも高性能に動作した. Zhang et al. (2014) の提案したSTD (Arc-standard) モデルは, まず単語分割を先に行い, その結果を “deque”に格納してから係り受け解析を行うモデルであり,本論文における SegTag+Dep モデルと類似する. 本研究における提案手法においては,加えて,単語と文字の分散表現を利用することで従来法より高性能に単語分割と品詞夕グ付けが動作するために, 単語分割と品詞夕グ付けの結果を先読みすることで Dep モデルが最終的に良い結果を出しているものと推測される。 ## 4.2.4 CTB-7 における実験 SegTagDep および SegTag+Dep モデルをより大きな CTB-7 データセットにおいても評価した. CTB-7 データセットにおける実験においては, 4 層の隠れ層を持つ多層パーセプトロンが 3 層のものよりも優れた結果を残した,ただし,CTB-5における実験においては,明確な差異を見出すことができなかった。この違いについては,訓練データセットのサイズの違いによるものと推測される. 4 層の隠れ層を持つ多層パーセプトロンモデルによる実験結果を表 7 に示す. ## 4.2.5文字列の分散表現の影響 本研究にて提案する文字列の分散表現がどの程度有効なのかを調べるため, SegTag+Dep モデルについて,文字列の分散表現を使用した場合とUNKに対応する分散表現を使用した場合の,性能の変化を調べた.実際の使用条件に近い状況で試験を行うために,SegTag モデルによる単語分割及び品詞夕グ付けの解析結果に対し, 係り受け解析を行う. 係り受け解析には, 貪欲法により学習された以下の 2 つのモデルを試験した,最初のモデル $\operatorname{Dep}(\mathrm{g})$ は,文字列の分散表現を使用した係り受けモデルである。次のモデル Dep(g)-cs は,文字列の分散表現を使用せず,文字と単語の分散表現に出現しない未知語に対しては, UNK の分散表現を使用したモデルである。 入力素性に対応する分散表現が存在しなかった場合には, 従来法である Dep (g)-cs モデルは UNK の分散表現を使用するが,Dep $(\mathrm{g})$ は文字列の分散表現を使用する。結果を表 8 に示す. なお,簡単のために,ビー ムを使用しない条件での比較を示す. この結果から,モデルが未知語に遭遇した場合,単純な UNK の分散表現を利用するよりも,文字列の分散表現を利用したほうが性能が良くなることがわかる. 表 7 SegTagDep と SegTag+Dep の実験結果 CTB-7における実験結果. なお, 貪欲法を用いて訓練されたモデル SegTagDep(g) による結果も同様に示す. SegTag+Dep モデルにおいては, SegTag とDep の双方でビームを用いて訓練とテストを行っている. 表 $8 \mathrm{SegTag}$ の解析結果に対し, 文字列の分散表現を利用した場合とUNK の分散表現を利用した場合の $\operatorname{Dep}(\mathrm{g})$ モデルの性能 CTB-5 における実験結果. “Dep(g)-cs”は,文字列の分散表現を使用せず,文字と単語の分散表現に出現しない未知語に対しては,UNK の分散表現を使用したモデルである。*は対応のある $\mathrm{t}$ 検定を行ったところ, $p<0.05$ で統計的に有意な改善が見られたことを示す. ## 4.2.6双方向 LSTM を使用したモデル 双方向 LSTM を使用したモデルについても,同様に実験を行った。なお,本実験では貪欲法に基づく学習のみを行った3 .双方向 LSTM を利用したモデルは,表 3 のように基本的な素性にしか依存しないという利点がある。結果を表 9 に示す。双方向 LSTM を用いたモデルは, 従来法と比較してやや悪い性能となったが,非常に基本的な素性のみを使用してこの性能を達成したことは注目に値する。 ## 4.2.7係り受けのラベル推定 最後に,係り受けのラベル解析モデルを利用することで,ラベルも含めた係り受け解析を行う. CTB-5 および CTB-7 に対して,係り受けのラベルの推定を行った。この実験では,ラベルなしの評価では最も優れていた SegTag+Dep の解析結果に対し,更にラベル推定を行うことで,各コー パスにおける原文からラベル付係り受け解析を行った際のスコアを測定することを目的とする。係り受け解析のラベルの推定結果を表 10 に示す.この係り受けラベルの推定モデルについては,パイプラインもしくは統合モデルによる評価が, Hatori et al. (2012) や Zhang et al. (2014)などの先行研究では行われておらず,比較の対象とはしなかった。 また,上の CTB-5 と CTB-7 の解析結果について, ラベル付き係り受けのうち,もととなるラベルなしの係り受けが正しい係り受けについてのラべル毎の正解率を集計した。その結果を表 11 表 9 双方向 LSTM を使用するモデル CTB-5 における実験結果. 4 素性モデルと 8 素性モデルは, 表 3 における使用素性数と対応する. 表 10 ラベルなし係り受け解析スコア (UAS) とラベル付き係り受け解析スコア (LAS) CTB-5 と CTB-7 における実験結果. LAS は, UAS と同様に単語分割が正しい単語同士の係り受けの場合のみ正解となる。また,引用符や句読点は評価から取り除かれている。  表 11 ラベルごとの正解率 CTB-5 と CTB-7 における実験結果. なお,句読点の係り受けである “P” ラべルと ROOTへの係り受けである“ROOT” ラベルは除いた。 に示す. 総じて, 修飾語 (modifier) はスコアが高めとなるが, 文内のより大域的な構造である主格 (SUB) や目的格 (OBJ) については低めとなる傾向が見られた. ## 5 将来研究 本研究中では, 結果として, 単語分割, 品詞夕グ付けおよび係り受け解析の統合モデルよりも,単語分割と品詞夕グ付けの統合モデルおよび係り受け解析のパイプラインモデルの方が,優れた性能を発揮した。これは,係り受け解析の情報を単語分割に活用する際に,どこまで内部的に単語分割を行ってから,係り受けを解析を行うか,という問題と関連する。例えば, Hatori et al. (2012) のモデルでは,単語分割と係り受け解析は同時であると言えるが,Zhang et al. (2014) の STD モデルでは,単語分割を 3 単語分だけ先に行うことにより,係り受け解析の際に,単語の先読みを可能にしている。このような問題に対し, 解析文やモデルの状態に応じて, 単語の先読みを行うか,係り受け解析を優先して行うかを判断するモデルを作成することができれば,非常に有用な統合構文解析器となるだろう. この他, 本論文では, 最後に係り受けのラベル推定を行ったが, この係り受けラベル推定モデルも含めて係り受け解析を行うモデルも考えられる。このようにすることで,係り受けのラべルの種類に関する情報が係り受け解析や,品詞夕グ付けなどの精度に良い影響を及ぼしうるため,これは有望な研究となりえるだろう. 最後に,双方向 LSTMによる文中の単語表現は,例えば,近年提案されたELMoのように,非常に柔軟かつ強力な手法である (Peters, Neumann, Iyyer, Gardner, Clark, Lee, and Zettlemoyer 2018). しかしながら, 今回の研究で速度およびGPU メモリの制約により, 双方向 LSTM を用いるモデルとビーム探索を併用することが出来なかったように, 中国語の統合解析への双方向 LSTM の使用は,あまり容易なことではない。これは,主に,中国語の統合構文解析では,解析が進むに連れて,文字ばかりでなく解析済みの単語の情報を利用することが重要となるからである。解析のステップごとに,解析済みの単語を用いて双方向 LSTM を再計算する手法は,計算コストがかなり大きいと言える。この問題点が解決されれば,この手法を用いて世界最高性能を達成するモデルを作成しうると考えられる。 ## 6 結論 本論文では,中国語の統合構文解析を行う2つのモデルを提案した.1つ目は素性とフィードフォワードニューラルネットワークに基づくモデルであり,2つ目は双方向 LSTM を使用したニューラルネットワークに基づくモデルである。そのいずれにおいても,文字列の分散表現を使用することで,UNKに相当する分散表現を用いることを避け,不完全な語句であっても,その構成する文字の分散表現から文字列同士の分散表現を得ることが可能となる。結果として, 単語分割, 品詞タグ付けおよび係り受け解析の統合モデルは, 中国の単語分割と品詞夕グ付けにおいて既存の統合解析手法よりも優れた性能を発揮した。しかし, 係り受け解析については, 既存手法と比較可能, もしくはやや劣る性能にとどまった。そこで, さらに,単語分割と品詞夕グ付けの統合モデルおよび係り受け解析のパイプラインモデルを実証することで, 係り受け解析にても世界最高の性能を達成した. 双方向 LSTM モデルを使用することで,基本的な素性のみを使用しながら文全体の構造も考慮するモデルも提案した。 ## 謝 辞 この論文は ACL2017にて発表を行った “Neural Joint Model for Transition-based Chinese Syntactic Analysis”を和訳し,拡張したものです。 ## 参考文献 Alberti, C., Weiss, D., Coppola, G., and Petrov, S. (2015). "Improved Transition-Based Parsing and Tagging with Neural Networks." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1354-1359. Association for Computational Linguistics. Andor, D., Alberti, C., Weiss, D., Severyn, A., Presta, A., Ganchev, K., Petrov, S., and Collins, M. (2016). "Globally Normalized Transition-Based Neural Networks." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2442-2452. Association for Computational Linguistics. Bahdanau, D., Cho, K., and Bengio, Y. (2014). "Neural Machine Translation by Jointly Learning to Align and Translate." CoRR, abs/1409.0473. Ballesteros, M., Dyer, C., and Smith, N. A. (2015). "Improved Transition-based Parsing by Modeling Characters instead of Words with LSTMs." In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 349-359. Association for Computational Linguistics. Chen, D. and Manning, C. (2014). "A Fast and Accurate Dependency Parser using Neural Networks." In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 740-750. Association for Computational Linguistics. Cross, J. and Huang, L. (2016). "Incremental Parsing with Minimal Features Using Bi-Directional LSTM." In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 32-37, Berlin, Germany. Association for Computational Linguistics. Duchi, J., Hazan, E., and Singer, Y. (2010). "Adaptive Subgradient Methods for Online Learning and Stochastic Optimization.". No. UCB/EECS-2010-24. Dyer, C., Ballesteros, M., Ling, W., Matthews, A., and Smith, N. A. (2015). "Transition-Based Dependency Parsing with Stack Long Short-Term Memory." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 334-343. Association for Computational Linguistics. Hatori, J., Matsuzaki, T., Miyao, Y., and Tsujii, J. (2011). "Incremental Joint POS Tagging and Dependency Parsing in Chinese." In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 1216-1224. Asian Federation of Natural Language Processing. Hatori, J., Matsuzaki, T., Miyao, Y., and Tsujii, J. (2012). "Incremental Joint Approach to Word Segmentation, POS Tagging, and Dependency Parsing in Chinese." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1045-1053. Association for Computational Linguistics. Hinton, G. E., McClelland, J. L., and Rumelhart, D. E. (1986). "Learning Distributed Representations of Concepts." In Proceedings of the 8th Annual Conference of the Cognitive Science Society. Vol. 1, p. 12. Huang, L. and Sagae, K. (2010). "Dynamic Programming for Linear-Time Incremental Parsing." In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, pp. 1077-1086, Uppsala, Sweden. Association for Computational Linguistics. Jiang, W., Huang, L., Liu, Q., and Lü, Y. (2008). "A Cascaded Linear Model for Joint Chinese Word Segmentation and Part-of-Speech Tagging." In Proceedings of ACL-08: HLT, pp. 897-904. Association for Computational Linguistics. Kingma, D. P. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Kiperwasser, E. and Goldberg, Y. (2016). "Simple and Accurate Dependency Parsing Using Bidirectional LSTM Feature Representations." Transactions of the Association for Computational Linguistics, 4, pp. 313-327. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013). "Efficient Estimation of Word Representations in Vector Space.". Nair, V. and Hinton, G. E. (2010). "Rectified Linear Units Improve Restricted Boltzmann Machines." In Proceedings of the 27th International Conference on Machine Learning (ICML10), June 21-24, 2010, Haifa, Israel, pp. 807-814. Nivre, J. (2004). "Incrementality in Deterministic Dependency Parsing." In Keller, F., Clark, S., Crocker, M., and Steedman, M. (Eds.), Proceedings of the ACL Workshop Incremental Parsing: Bringing Engineering and Cognition Together, pp. 50-57. Association for Computational Linguistics. Peters, M. E., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L. (2018). "Deep Contextualized Word Representations." In Proceedings of NAACL. Shen, M., Kawahara, D., and Kurohashi, S. (2016a). "Chinese Word Segmentation and Unknown Word Extraction by Mining Maximized Substring.” 自然言語処理, 23 (3), pp. 235-266. Shen, M., Li, W., Choe, H., Chu, C., Kawahara, D., and Kurohashi, S. (2016b). "Consistent Word Segmentation, Part-of-Speech Tagging and Dependency Labelling Annotation for Chinese Language." In Proceedings of the 26th International Conference on Computational Linguistics (COLING2016), pp. 298-308, Osaka, Japan. Wang, Y., Kazama, J., Tsuruoka, Y., Chen, W., Zhang, Y., and Torisawa, K. (2011). "Improving Chinese Word Segmentation and POS Tagging with Semi-supervised Methods Using Large Auto-Analyzed Data." In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 309-317, Chiang Mai, Thailand. Asian Federation of Natural Language Processing. Weiss, D., Alberti, C., Collins, M., and Petrov, S. (2015). "Structured Training for Neural Network Transition-Based Parsing." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 323-333. Association for Computational Linguistics. Zhang, M., Zhang, Y., Che, W., and Liu, T. (2014). "Character-Level Chinese Dependency Parsing." In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1326-1336. Association for Computational Lin- guistics. Zhang, Y., Li, C., Barzilay, R., and Darwish, K. (2015). "Randomized Greedy Inference for Joint Segmentation, POS Tagging and Dependency Parsing." In Proceedings of the TwentyFourth International Joint Conference on Artificial Intelligence, pp. 42-52. Association for Computational Linguistics. Zhang, Y. and Clark, S. (2008). "A Tale of Two Parsers: Investigating and Combining Graphbased and Transition-based Dependency Parsing." In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing, pp. 562-571. Association for Computational Linguistics. Zhang, Y. and Clark, S. (2010). "A Fast Decoder for Joint Word Segmentation and POS-Tagging Using a Single Discriminative Model." In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 843-852. Association for Computational Linguistics. Zhou, H., Zhang, Y., Huang, S., and Chen, J. (2015). "A Neural Probabilistic StructuredPrediction Model for Transition-Based Dependency Parsing." In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1213-1222. Association for Computational Linguistics. ## 略歴 栗田修平:2013 年京都大学理学部物理系卒業. 2015 年同大学院物理学教室修士 課程修了. 2015 年より京都大学大学院情報学研究科知能情報学専攻博士課程在籍中. 2019 年同大学院博士取得見込み,深層学習,深層学習を用いた自然言語処理の研究に従事. 修士 (理学). 言語処理学会, ACL, 各会員. 河原大輔:1997 年京都大学工学部電気工学第二学科卒業. 1999 年同大学院修士 課程修了. 2002 年同大学院博士課程単位取得認定退学. 東京大学大学院情報理工学系研究科学術研究支援員, 独立行政法人情報通信研究機構研究員, 同主任研究員を経て, 2010 年より京都大学大学院情報学研究科准教授. 自然言語処理,知識処理の研究に従事. 博士 (情報学). 情報処理学会, 言語処理学会, 人工知能学会, 電子情報通信学会, ACL, 各会員. 黒橋禎夫:1994 年京都大学大学院工学研究科電気工学第二専攻博士課程修了. 博士 (工学). 2006 年 4 月より京都大学大学院情報学研究科教授. 自然言語処理,知識情報処理の研究に従事. 言語処理学会 10 周年記念論文賞, 同 20 周年記念論文賞, 第 8 回船井情報科学振興賞, 2009 IBM Faculty Award 等を受賞. 2014 年より日本学術会議連携会員. (2018 年 8 月 1 日受付) (2018 年 11 月 1 日再受付) (2018 年 12 月 13 日採録)
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 日本語の読み時間と節境界情報一主辞後置言語における wrap-up effect の検証一 \author{ 浅原正幸† } 本論文では, リーダビリティ評価を目的として, 日本語テキストの読み時間と節境界分類の対照分析を行う. 日本語母語話者の読み時間データ BCCWJ-EyeTrack と節境界情報アノテーションを『現代日本語書き言葉均衡コーパス』上で重ね合わせ, ベイジアン線形混合モデルを用いて節末で,どのように読み時間が変わるかについて検討した. 結果, 英語などの先行研究で言われている節末で読み時間が長くなるという wrap-up effect とは反対の結果が得られた. 他の結果として, 節間の述語項関係が読み時間の短縮に寄与することがわかった. キーワード:リーダビリティ評価・読み時間・節境界情報 ## Between Reading Time and Clause Boundaries in Japanese -Wrap-up Effect in a Head-Final Language- \author{ MASAYUKI ASAHARA ${ }^{\dagger}$ } This paper presents a contrastive analysis between reading time and clause boundary categories in the Japanese language in order to estimate text readability. We overlaid reading time data of BCCWJ EyeTrack, and clause boundary categories annotation on the Balanced Corpus of Contemporary Written Japanese. Statistical analysis based on the Bayesian linear mixed model shows that the reading time behaviours differ among the clause boundary categories. The result does not support the wrapup effects of clause-final words. Another result we arrived at is that the predicateargument relations facilitate the reading speed of native Japanese speakers. Key Words: Readability, Reading Time, Clause Boundary ## 1 はじめに テキストのリーダビリティ評価は,人間の作文の評価だけでなく,機械による文生成の評価においても重要な問題である。日本語のリーダビリティ研究は表記や語彙の難易度など表層的な情報に基づいて, テキストの難易度の評価モデルとして研究が進められてきた (渡邊, 村上,宮澤, 五島, 柳瀬, 高村, 宮尾 2017; 李 2011; 柴崎, 玉岡 2010; 佐藤 2011). しかしながら, 既  存のモデルのほとんどは読み手を陽に仮定していない. リーダビリティは, 眼球運動に基づく読み時間により, 直接的に評価できる.筆者らは視線走査装置に基づいた読み時間データを整備するだけでなく, 統語・意味分類や情報構造との関連について調査してきた。単語や文節の統語・意味分類が読み時間にどのように影響を及ぼすかだけでなく, 情報伝達に必要な情報の新旧と読み時間の関連について分析を進めてきた. 情報の伝達においては,複数の述語を含む複文や重文を用いることが考えられる,複文や重文は節境界を有し,節境界においては読み時間が変化するという先行研究がある。英語においては (Just and Carpenter 1980; Rayner, Kambe, and Duffy 2000) が,句末や節末において読み時間が長くなる wrap-up effect と呼ばれる傾向について議論している.しかしながら, 主辞が後置される日本語においては, 補部が主辞より先に提示されることにより, 主辞を予測することができ読み時間が短くなることが考えられる. 本稿では, 日本語の節境界が読み時間に対してどのような影響を与えるのかについて, 探索的データ分析により調査する。具体的には,『現代日本語書き言葉均衡コーパス』(以下 BCCWJ) (Maekawa, Yamazaki, Ogiso, Maruyama, Ogura, Kashino, Koiso, Yamaguchi, Tanaka, and Den 2014)の読み時間データ BCCWJ-EyeTrack (浅原, 小野, 宮本 2019) に対して, 節境界アノテー ション BCCWJ-ToriClause (Matsumoto, Asahara, and Arita 2018)を重ね合わせたものを,節境界情報を固定要因としたべイジアン線形混合モデル (Sorensen, Hohenstein, and Vasishth 2016) を用いて検討を行う。分析においては詳細な節分類について読み時間がどう異なるかについて検討した. 例えば, 名詞修飾節においては, 補足語修飾節(関係節ウチの関係)が,内容節(関係節ソトの関係)よりも節末において読み時間が短くなる傾向が見られた. 補足節においては,名詞節の節末が,引用節の節末よりも読み時間が短くなる傾向が見られた. また, 副詞節においては,因果関係節と付帯状況節とで読み時間のふるまいの違いが確認できた. これらの分析結果は, 従前の言語処理において研究されてきたリーダビリティ評価において, 眼球運動に基づく読み時間の評価の観点から節レベルの統語構造に対して実証的な根拠を与えるものになる. 以下, 2 節では関連研究について示す. 3 節では利用したデータの概要について示す. 各デー 夕の詳細については元論文を参照されたい.4節では統計処理手法について述べ,5節で結果と考察を示す. 最後にまとめと今後の研究の方向性について示す. ## 2 関連研究 まず,前に述べた wrap-up effect の評価以外に次のような先行研究がある. (Hill and Murray 2000)は, 前置詞句を含む句読点近辺の読み時間を評価した. (Hirotani, Frazier, and Rayner 2006) は節末や文末の句読点近辺の読み時間を評価した. (Warren, White, and Reichle 2009) は節内と節間の読み時間の関係を視線走査法に基づいて評価した。しかしながら,これらの評価 はいずれも英語の分析であった。これらの分析は, ANOVA(分散分析)など単純な統計処理に基づく分析であったために,多くの固定要因を検討できないほか,ランダム要因を考慮できないために,例文や被験者の統制が求められていた. この統制に基づく分析において,不自然な例文を不自然な分布で呈示し,都度,文の構造を正しく把握しているのか質問するという問題点があり,自然な眼球運動が得られていないという批判もある (Futrell, Gibson, Tily, Blank, Vishnevetsky, Piantadosi, and Fedorenko 2018).このような批判のもと,コーパスからのサンプリングに基づくテキストや,文脈を変えずに語順や語彙を入れ替えるなどしたテキストに対して,読み時間デー夕を構築し,研究する流れが生まれた. Dundee Eyetracking Corpus (Kennedy and Pynte 2005)は英語とフランス語の新聞記事社説について,母語話者 10 人分の視線走査情報を収集したものである. 同デー夕に対して,品詞情報, 係り受け情報, 句構造木, 共参照情報が付与され, 分析が進められている。他に英語のデータとして, (Frank, Monsalve, Thompson, and Vigliocco 2013), Natural Stories Corpus (Futrell et al. 2018) などがある.他言語のデータとして,ドイツ語の Potsdam Sentence Corpus (Kliegl, Nuthmann, and Engbert 2006), ヒンディー語の Potsdam-Allahabad Hindi Eyetracking corpus (Husain, Vasishth, and Srinivasan 2015), 中国語の Beijing Sentence Corpus of Mandarin Chinese (Yan, Kliegl, Richter, and Shu 2010) がある.このような自然なテキストの分析には, レイアウト情報や呈示順などの要因を考慮するために複雑な統計処理手法が求められる。頻度主義的な一般化線形混合モデルなどでは収束判定やモデル選択など煩雑な処理が伴う。そこで, ベイジアン線形混合モデル (Sorensen et al. 2016) を導入することで, 帰無仮説の多重比較の問題を回避し,サンプリングにより推定された事後平均と事後標準偏差に基づく分析により推定する手法が用いられている. 最後に,日本語のテキストの難易度・リーダビリティ評価研究について示す. (渡邊他 2017) は文長・語彙の難易度・語種・品詞・語彙の具体度・仮定節や係り受け木の深さなどを特徴に入れているが,評価自体は株価のポラティリティに対して行っており,読みやすさ自体の実証的な評価を行っていない. (李 2011) は BCCWJ を日本語能力試験の読解テキストに対応させて難易度を評価しているが, 文字・漢字・語彙などに基づき L2 学習者向けに頻度主義的な手法でテキストの難易度をモデル化したものであり, 日本語母語話者の読解過程をモデル化したものではない(柴崎, 玉岡 2010) は小学 1 年から中学 3 年に収められた国語科教科書に収録したものの文字数・文節数・述語数・漢語の割合・ひらがなの割合などで頻度主義的な手法でテキストの難易度をモデル化した.L1 学習者向けには適切かもしれないが, 成人日本語母語話者のリーダビリティ評価に対して適切なモデルとは言えない. (佐藤 2011) は文字 n-gram を特徴量とした難易度モデルを提案した,統語情報を考慮していないほか,読み手の存在を陽に仮定していないという問題がある。(藤田 2015) は未就学坚を対象としたテキストの対象年齢を推定している。これらの研究は,いずれも読み時間などを用いた実証的な分析ではなく,利用してい る特徴も表記・語彙などが中心で,複文や重文の節間の関係を適切にモデル化し,リーダビリティを評価しているものは管見の限り存在しない. ## 3 データ 本節では,読み時間データ BCCWJ-EyeTrack と節境界アノテーション BCCWJ-ToriClause について概説する。これらの 2 つのデータを重ね合わせたデータを表 1 に示す. ## 3.1 BCCWJ-EyeTrack ここでは読み時間データ BCCWJ-EyeTrack について概説する。詳細については (浅原他 2019)を参照されたい.新聞記事に対する読み時間の収集方法として 2 種類の手法を用いた. 1 つは移動空方式の自己ペース読文法 (SELF) で, Linger ${ }^{1}$ と呼ばれるソフトウェアで収集した。 もう 1 つは眼球運動を計測する視線走査法で,タワーマウント型の EyeLink 1000 を用いた。なお, EyeLink 1000 が fixation とみなしたものを「停留」とみなす。自己ぺース読文法では一度に 1 文節のみ呈示されるが, 視線走査法では一度に 1 画面分(最大 53 文字 $\times 5$ 行)が呈示される.しかしながら,いずれの実験でも前の画面に戻ることはできない設定にした.各被験者は視線走査法 $\rightarrow$ 自己ペース読文法の順で実施し,文節境界に空白を入れるか否かを含めてラテン方格による実験配置により,それぞれのテキストを一度だけ見るような設定にした。 視線走査データについては, 視線走查順の読み時間データをテキスト順に変換した first fixation time (FFT), first-pass time (FPT), regression path time (RPT), second-pass time (SPT), total time (TOTAL)の 5 種類のデータ(読み時間のタイプ)を用いる. FFT は対象領域に最初に入ったときの視線停留時間である。 FPT は対象領域に最初に入ってから, 左右どちらかの領域境界を出るまでの視線停留時間の総計である,RPT は対象領域に最初に入ってから,右の領域境界を出るまでの視線停留時間の総計である。SPT は対象領域に 2 回目以降に入った視線停留時間の総計で,次の TOTAL から FPT を引いたものである。TOTAL は対象領域に入った視線停留時間の総計である。図 1 に読み時間のタイプの集計例を示す. 表 1 の上部に読み時間デー夕の詳細について示す. surface は単語の表層形である。読み時間 (i.e., time) は対数に変換したデータ (i.e., logtime) も保持し, 一般化線形混合モデル用に用いられる。 measure は読み時間のタイプ \{SELF, FFT, FPT, RPT, SPT, TOTAL\}を表す. sample, article, metadata_orig, metadata は記事に関連する情報である. space は文節境界に半角空白を入れたか否かを示す. length は表層形の文字数である. is_first,is_last,is_second_last はレイアウトに関する特徴量である. sessionN, articleN, screenN, lineN, segmentN は要 ^{1}$ http://tedlab.mit.edu/ dr/Linger/ } 表 1 利用するデータの概要 対象領域を「初年度決算も」の文節とする: FFT は視線停留 5 FPT は視線停留 5 と 6 の総計. RPT は視線停留 $5,6,7,8,9$ の総計 SPT は視線停留 9,11 の総計 TOTAL は視線停留 $5,6,9,11$ の総計 図 1 視線走査データの読み時間のタイプの集計例 素の呈示順に関する特徴量である。subj は被験者の ID で統計処理においてランダム要因として用いる. dependent は当該文節に係る文節の数を人手で付与したもの (浅原,松本 2018) である. 被験者は日本語母語話者 24 人(女性 19 人,未回答 1 人,男性 4 人)である。詳細な情報は (浅原他 2019) を参照されたい。また, 被験者属性の読み時間の影響については (浅原, 小野,宮本 2017) を参照されたい. また, 被験者が記事をきちんと読んでいるか確認するために, 各記事を読んだ後に, Yes/Noで解答できる簡単な内容理解課題を課した。視線走査法の内容理解課題の正解率は $99.2 \%(238 / 240)$ で, 自己ぺース読文法の内容理解課題の正解率 $77.9 \%(187 / 240)$ より有意に高かった $(\mathrm{p}<0.001)$.視線走査法は一画面の間は自由に再読することができる一方,自己ぺース読文法は,読み戻しが許されず,複数の画面に記事が続く場合など,内容を記憶している負荷が高かったことがうかがえる。 ## 3.2 節境界情報アノテーション 節境界情報のアノテーションは「鳥バンク」(Ikehara 2007)の複文アノテーション基準に基づく。鳥バンクは 2007 年に鳥取大学において複文や重文の日本語の意味類型パターン辞書を編纂するために開発されたデータベースである。節境界情報は 4 層からなる階層構造によりラベルが設計され,最上位の階層では補足節 (HS), 名詞修飾節 (MS), 副詞節 (FU), 並列節 (HR) の 4 種類からなる。第 2 階層では 26 のラベルにより構成される。詳細については鳥バンクのウェブサイト2を参照されたい. BCCWJ-ToriClause (Matsumoto et al. 2018) は BCCWJ の新聞記事コアデータの一部に対して鳥バンク互換の節境界ラベル(第 3 階層まで)を付与したものである.節境界は節の最右要素に対して国語研短単位 ${ }^{3}$ に基づいて付与するが, 節の最左要素に関しては文節係り受けアノテーション (浅原, 松本 2018) と重ね合わせることにより得ることができる. 本研究では BCCWJ-ToriClause のアノテーションを文節単位に変換したうえで,BCCWJ EyeTrack データを重ね合わせて分析する。表 1 の下部に示す通り,最上位階層と第 2 階層についての情報を付与する。最上位階層が異なる節境界に関しては, 文節内に複数の節境界がある場合もありマルチラベルの設定となる. 表 2 に節境界分類と BCCWJ-EyeTrack 上での頻度を示す. 第 2 階層では 26 の全てのラベルが出現するわけではない.  表 2 節末のタイプと頻度 ## 4 統計モデル 統計モデルとしてベイジアン線形混合モデル (Sorensen et al. 2016)を用いる. R の rstan パッケージを用いて分析を行う,従前の読み時間分析は, ANOVA(分散分析)や一般化線形混合モデルであった.ANOVA では被験者の統制を実験実施者が行う必要があったが,混合モデルでは被験者をランダム要因として入れることにより被験者ごとの差異をモデル化する.また,一般化線形混合モデルは以下に示すレイアウト情報・呈示順・係り受け構造・節境界情報すべてを固定要因として入れると,収束のコントロールやモデル選択が困難であった。しかしながらべイジアン線形混合モデルは,これらの処理を適切に行うことが可能である。データ中 6 種類の読み時間のタイプ (SELF, FFT, FPT, SPT, RPT, TOTAL)の time を対数正規分布 (lognormal) により,レイアウト情報・呈示順・係り受け構造・節境界情報を固定要因とし,記事情報と被験者をランダム要因としたモデルで回帰分析する,前処理として metadata が \{authorsData, caption, listItem, profile, titleBlock\}のものを除いた。これらは新聞記事において, 本文 (地の文)と異なる読み方をする可能性があるためである.視線走査データにおいては $0 \mathrm{~ms}$ のデータを全て欠損値として扱った。これにより欠損値を読み飛ばしとみなすバイアスを排除するほか,対数正規分布を用いることでサンプリング時に正定値のみを定義域とすることが自然に行える。 分析においては節境界分類の最上位階層と第 2 階層の 2 種類の分析を行う。最上位階層は,補足節 (HS), 名詞修飾節 (MS), 副詞節 (FU), 並列節 (HR)の 4 種類の固定要因からなる。図 2 に最上位階層の分析のための線形式を示す。第 2 階層においては補足節の 3 ラベル, 名詞修飾節の 5 ラベル,副詞節の 14 ラベル,並列節の 2 ラベルを固定要因とする。図 3 に第 2 階層の分析のための線形式を示す. ここで time は分析対象の読み時間である. lognormal は rstan の対数正規分布関数である. $\sigma$ は lognormal の標準偏差である。 $\mu$ は lognormal の期待值(平均)で線形式によって与えられる。 $\alpha$ は線形式の切片である。 $\beta^{\text {length }}$ は固定要因 length $(x)$ に対する傾きで, 視線が停留した文節の長さに対するものである。 $\beta^{\text {space }}$ は固定要因 $\chi_{\text {space }}(x)$ に対する傾きで,文節境界に半角空白を入れて呈示したか否かを表す $4 . \beta^{\text {sessionN }}, \beta^{\text {articleN }}, \beta^{\text {screenN }}, \beta^{\text {lineN }}, \beta^{\text {segmentN }}$ $ \begin{aligned} \text { time } \sim & \text { lognormal }(\mu, \sigma) \\ \mu= & \alpha+\beta^{\text {length }} \cdot \text { length }(x)+\beta^{\text {space }} \cdot \chi_{\text {space }}(x)+\beta^{\text {dependent }} \cdot \text { dependent }(x) \\ & +\beta^{\text {sessionN }} \cdot \text { sessionN }(x)+\beta^{\text {articleN }} \cdot \operatorname{articleN}(x)+\beta^{\text {screenN }} \cdot \text { screenN }(x) \\ & +\beta^{\text {lineN }} \cdot \text { lineN }(x)+\beta^{\text {segmentN }} \cdot \operatorname{segmentN}(x) \\ & +\beta^{\text {is_first }} \cdot \chi_{\text {is_first }}(x)+\beta^{\text {is_last }} \cdot \chi_{\text {is_last }}(x)+\beta^{\text {is_second_last }} \cdot \chi_{\text {is_second_last }}(x) \\ & +\beta^{\mathrm{HS}=\text { TRUE }} \cdot \chi_{\mathrm{HS}}(x)+\beta^{\mathrm{HS}=\text { FALSE }} \cdot\left(1-\chi_{\mathrm{HS}}(x)\right) \\ & +\beta^{\mathrm{MS}=\text { TRUE }} \cdot \chi_{\mathrm{MS}}(x)+\beta^{\mathrm{MS}=\text { FALSE }} \cdot\left(1-\chi_{\mathrm{MS}}(x)\right) \\ & +\beta^{\mathrm{FU}=\text { TRUE }} \cdot \chi_{\mathrm{FU}}(x)+\beta^{\mathrm{FU}=\mathrm{FALSE}} \cdot\left(1-\chi_{F U}(x)\right) \\ & +\beta^{\mathrm{HR}=\mathrm{TRUE}} \cdot \chi_{\mathrm{HR}}(x)+\beta^{\mathrm{HR}=\mathrm{FALSE}} \cdot\left(1-\chi_{\mathrm{HR}}(x)\right) \\ & +\sum_{a(x) \in A} \gamma^{\text {article=a }(\mathrm{x})}+\sum_{s(x) \in S} \gamma^{\text {subj=s }(\mathrm{x})} \cdot \end{aligned} $ 図 2 最上位階層の線形式 $ \begin{aligned} \mu= & \alpha+\beta^{\text {length }} \cdot \text { length }(x)+\beta^{\text {space }} \cdot \chi_{\text {space }}(x)+\beta^{\text {dependent }} \cdot \text { dependent }(x) \\ & +\beta^{\text {sessionN }} \cdot \operatorname{sessionN}(x)+\beta^{\text {articleN }} \cdot \operatorname{articleN}(x)+\beta^{\text {screenN }} \cdot \operatorname{screenN}(x) \\ & +\beta^{\text {lineN }} \cdot \operatorname{lineN}(x)+\beta^{\text {segmentN }} \cdot \operatorname{segmentN}(x) \\ & +\beta^{\text {is_first }} \cdot \chi_{\text {is_first }}(x)+\beta^{\text {is_last }} \cdot \chi_{\text {is_last }}(x)+\beta^{\text {is_second_last }} \cdot \chi_{\text {is_second_last }}(x) \\ & +\sum_{\text {HS? }} \beta^{\mathrm{HS} ?} \cdot \chi_{\mathrm{HS} ?}(x)+\sum_{\mathrm{MS} ?} \beta^{\mathrm{MS} ?} \cdot \chi_{\mathrm{MS} ?}(x)+\sum_{\mathrm{FU} ?} \beta^{\mathrm{FU} ?} \cdot \chi_{\mathrm{FU} ?}(x)+\sum_{\mathrm{HR} ?} \beta^{\mathrm{HR} ?} \cdot \chi_{\mathrm{HR} ?}(x) \\ & +\sum_{a(x) \in A} \gamma^{\text {article=a(x) }}+\sum_{s(x) \in S} \gamma^{\text {subj=s }(\mathrm{x})} \cdot \end{aligned} $ 図 3 第 2 階層の線形式 $ は次の指示関数とする: $ \chi_{A}(x)=\left.\{\begin{array}{lll} 1 & \text { if } & x \in A \\ 0 & \text { if } & x \notin A \end{array}\right. $ } は呈示順に対する固定要因 $\operatorname{sessionN}(x), \operatorname{articleN}(x), \operatorname{screenN}(x), \operatorname{lineN}(x), \operatorname{segmentN}(x)$ の傾きである。 $\beta^{\text {is_first }}, \beta^{\text {is_last }}, \beta^{\text {is_second_last }}$ はレイアウト情報に関する固定要因 $\chi_{\text {is_first }}(x)$, $\chi_{\text {is_last }}(x), \chi_{\text {is_second_last }}(x)$ の傾きである. $\beta^{\text {HS=TRUE }}, \beta^{\text {HS=FALSE }}, \beta^{\text {MS=TRUE }}, \beta^{\text {MS=FALSE }}, \beta^{\text {FU=TRUE }}$, $\beta^{\mathrm{FU}=\mathrm{FALSE}}, \beta^{\mathrm{HR}=\mathrm{TRUE}}, \beta^{\mathrm{HR}=\mathrm{FALSE}}$ は節境界の最上位階層に対する固定要因に対する傾きである。節境界は国語研短単位に対して付与しているものを文節単位に変換しており,最上位階層においては文節単位でマルチラベルになるため,節境界情報に対して負のクラスについてもモデル化する. 層の名詞修飾節に関する固定要因を表す. $\sum_{F U ?} \beta^{F U ?} \cdot \chi_{F U ?}$ は第 2 階層の副詞節に関する固定要因を表す. $\sum_{H R ?} \beta^{H R ?} \cdot \chi_{H R}$ ? は第 2 階層の並列節に関する固定要因を表す. $\sum_{a(x) \in A} \gamma^{\operatorname{article}=\mathrm{a}(\mathrm{x})}$ は記事情報に対するランダム要因で, $a(x)$ は $x$ の記事情報を表す. ベイズ推定においては warm up 後に 5000 回のイテレーションを 4 chains 実施し, 全てのモデルは収束した. ## 5 結果 ## 5.1 節境界以外に関する結果 まず,節境界以外の固定要因が読み時間に与える影響について確認する。図 4 と図 5 に, 自己ペース読文法 (SELF) と視線走査法 (TOTAL) の節境界以外の固定要因に対する事後確率分 図 4 節境界以外の固定要因 (SELF) 図 5 節境界以外の固定要因 (TOTAL) 布を示す.紙面の都合上,第 2 階層のものを示す.詳細については A 節を参照されたい. 係数が負の值の場合,その要因が読み時間を短くするために,読みを促進することを表す。一方, 係数が正の値の場合,その要因が読み時間を長くするために,読みを阻害することを表す. 半角空白 (space) を文節境界に入れた場合, 視線走査法の TOTAL において読み時間を短くする効果が見られた。このことから,単純に文節境界に空白を入れることによってレジビリティが上がることがわかる。レイアウト情報 (is_first, is_last, is_second_last) はテキストの折り返しに対する要因である。読み時間は最左要素 (is_first) で長くなる傾向にある。これは視線が右から左に戻ってきたときの負荷だと考える。視線走査法の FPT, RPT, TOTAL に関しては,最右もしくは右から 2 番目の要素 (is_last, is_second_last) で長くなる傾向が見られた。呈示順 (sessionN, articleN, screenN, lineN, segmentN) に関して, 実験が進捗するにつれて読み時間が短くなる傾向が見られた。これは被験者が実験に慣れていく効果である. 文節の長さ (length) に対しては, FFT 以外において読み時間が長くなる。これは単純に文節の長さが視線停留箇所の面積に比例し, 視線停留の確率が相関していることによる. 係り受けの数 dependency は,多ければ多いほど読み時間が短くなる傾向がある。この事実は Anti-locality (Konieczny 2000) を支持する. この結果は, 線形混合モデルに基づく結果 (浅原他 2019) と同じ傾向である. ## 5.2 節境界(最上位階層)に関する結果 次に節境界の最上位階層に関して検討する。図 6 と図 7 に自己ペース読文法 (SELF) と視線走查法 (TOTAL)の結果を示す。詳細については A 節を参照されたい. 図 6 節境界(最上位階層)の固定要因 (SELF) 図 7 節境界(最上位階層)の固定要因 (TOTAL) 自己ペース読文法 (SELF) では,並列節以外の節末で読み時間で短くなる傾向が見られた。しかしながら,並列節に関しては強い傾向が見られなかった。視線走査法 (TOTAL) では, 全ての節末で読み時間が短くなる傾向が見られた. 特に副詞節 (FU) において強い傾向が見られた. これは英語で言われている wrap-up effect と正反対の結果である. ## 5.3 節境界(第 2 階層)に関する結果 以下,第 2 階層の節境界について,特徴的な部分について検討する。 まず,最初に名詞修飾節について検討する。図 8 と図 9 に,視線走査法 TOTAL と SPT の名詞修飾節末の傾向について示す. 視線走査法 (TOTAL, SPT) において,補足語修飾節 (MSa) は内容節 (MSb)に比べて読み時間が短い。例 (1) は補足語修飾節の例で,節内の述語と係り先の語とに述語項関係がある(関係節ウチの関係)。例 (2) は内容節の例で,節内の述語と係り先の語とに述語項関係がない(関係節ソトの関係)。この述語項関係が読み時間を促進していることが推察される。 (1) 幼稚園から大学まで通った青山学院では, (読売新聞 2001 [BCCWJ: 00001_A_PN1c_00001_A_1]) MSa200: 名詞修飾節:補足語修飾節:非制限用法 (2)支払利息や減価償却費の計上額が少ない傾向がある. (北海道新聞 2002 [BCCWJ: 00005_A_PN2e_00001_A_2]) MSb: 名詞修飾節:内容節 図 8 名詞修飾節境界の固定要因 (TOTAL) 図 9 名詞修飾節境界の固定要因 (SPT) 次に補足節 (HS) について示す. 頻度の高い名詞節 (HSa) と引用節 (HSc) について検討する.例文 (3) は「こと」を含む名詞句であり,例文 (4) は引用の「と」を含む引用節である.名詞句は引用節よりも読み時間が短くなることが, 自己ペース読文法(図 10)と視線走査法(TOTAL:図 11)で確認された。 (3) タイミングよくまぶたを閉じてくれたことで, 独特な雾囲気の写真になりました. (産経新聞 2001 [BCCWJ: 00002_A_PN1d_00001_B_1]) HSa: 補足節: 名詞節 (4)シャープの携帯情報端末「ザウルス」のコンテンツを 5 月中旬から販売すると発表した. (産経新聞 2001 [BCCWJ: 00015_A_PN1d_00002_B_5]) $\mathrm{HSc}$ : 補足節: 引用節 最後に副詞節の傾向について確認する。頻度の高い因果関係 (FUb) と付帯状況 (FUd) について検討する. 図 12 と図 13 に 2 種類の副詞節について自己ぺース読文法と視線走査法 (FPT) の結果を示す. 例文 (5) は因果関係の例で,例文 (6) は付帯状況の例である. 2 種類の副詞節において,実験方法によって読み時間に異なる傾向が見られた。自己ペース読文法において,因果関係のほうが付帯状況よりも読み時間が短くなる傾向が見られた. しかしながら, 視線走査法 (FPT) においては反対の傾向が見られた。これは「て」形が付帯状況だけでなく, 引用・手段・並列など 図 10 補足節の固定要因 (SELF) 図 11 補足節の固定要因 (TOTAL) 図 12 因果関係と付帯状況節境界の固定要因 (SELF) 図 13 因果関係と付帯状況節境界の固定要因 (FPT) のさまざまな節に分類されるが,自己ぺース読文法においては隣接文節が見られないために周辺視野による予測が効かないことに起因すると考える. (5)「しゃべるのが得意なんだから,能力を生かしてみたら」と, (読売新聞 2001 [BCCWJ: 00001_A_PN1c_00001_A_1]) FUb: 副詞節: 因果関係 (6) もみじの木にとまって仲良く寄り添う二羽のキジバト. (産経新聞 2001 [BCCWJ: 00002_A_PN1d_00001_B_1]) FUd: 副詞節: 付帯状況 ## 5.4 考察 より詳細な結果を A 節に示す. まず,英語で言及されている wrap-up effect (Just and Carpenter 1980; Rayner et al. 2000) (節末で読み時間が長くなる傾向)は確認されなかった. 日本語においては基本的に節末に主辞がくるために, 先行する従属句が予測のために働くことが考えられる。係り受けの数 dependent が読み時間を短くする効果からも, 先行する従属句が読みやすさに寄与することが支持される. 名詞修飾節においては,補足語修飾節(関係節ウチの関係)のほうが内容節(関係節ソトの関係)より読み時間が短くなることが観察された. 従属節内の述語と節の修飾先の名詞とに述 語項関係がある場合に読み時間が短くなることから,先行する文脈が読み時間を短くする傾向が見られる。同様のことが補足節でもみられ,名詞節のように後置する格要素になりうるものが,引用節よりも読み時間が短くなる傾向が見られる. 副詞節においては,より自然な環境である視線走査法においては,付帯状況よりも因果関係のほうが読み時間が短くなる傾向が見られた。副詞節については今後より大規模なデータで調査する必要がある。頻度 5 の条件節(仮定節)は (渡邊他 2017) で用いられているが,日本語において条件節(仮定節)を読み時間を短くする傾向が確認された. ## 6 おわりに 本稿では,日本語の節境界がテキストの読み時間に対してどのように影響を与えるかについて, 経験的に検証した。その結果, 英語などで言われている wrap-up effect が, 主辞後置言語である日本語においては認められず,反対に節末で読み時間が短くなる傾向を確認した.名詞修飾節においては, 補足語修飾節末のほうが内容節末よりも読み時間が短くなる傾向が見られた. 補足節の分析においては,名詞節のほうが引用節よりも読み時間が短くなる傾向が見られた.これらは従属節と係り先の要素との間に述語項関係などの強い統語関係があるか否かにより説明ができる. BCCWJ-EyeTrack (浅原他 2019) と言語情報アノテーションの比較として, 分類語彙表番号アノテーション (加藤, 浅原, 山崎 2019) との比較 (浅原, 加藤 2019), 情報構造アノテーション (Miyauchi, Asahara, Nakagawa, and Kato 2017) との比較 (浅原 2018b), 述語項構造アノテー ションとの比較 (浅原 2019) が進められている。また, 単語埋め込みに基づく読み時間のモデル化 (浅原 2018a) も進められている. 単語埋め込みや各種言語情報を用いることで, テキストの読み時間が線形式により推定できる環境が整いつつある. 今回利用したモデルは,ベイズ手法に基づく線形式である。二次の項を用いていないために, どの要因が読み時間に対してどのような影響を与えるかが直接的に説明できる。これらにより,語彙的な情報・統語的な情報・意味的な情報・談話的な情報を複合的に用いた,リーダビリティ推定モデルが読み時間の観点から単純な線形式で構築できると考える。 ## 謝 辞 本研究は, 国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテー ションの拡張・統合・自動化に関する基礎研究」によるものです. 本研究の一部は JSPS 科研費挑戦的萌芽研究 JP15K12888, 基盤研究 (A) 17H00917, 新学術領域研究 18 H05521 の助成を受けたものです. ## 参考文献 浅原正幸 (2017). 読み時間と節境界について. 日本言語学会第 154 回発表予稿集, pp. 46-51.浅原正幸 (2018a). 単語埋め込みに基づくサプライザルのモデル化. 日本言語学会第 157 回発表予稿集, pp. 82-87. 浅原正幸 (2018b). 名詞句の情報の状態と読み時間について. 自然言語処理, 25 (5), pp. 527-554.浅原正幸 (2019). 読み時間と述語項構造・共参照について. 言語処理学会第 25 回年次大会発表論文集, pp. 249-252. 浅原正幸, 加藤祥 (2019). 読み時間と統語・意味分類. 認知科学, 26 (2), p. To Appear. 浅原正幸,松本裕治 (2018)。『現代日本語書き言葉均衡コーパス』に対する文節係り受け・並 列構造アノテーション. 自然言語処理, 25 (4), pp. 331-357. 浅原正幸, 小野創, 宮本エジソン正 (2017). 『現代日本語書き言葉均衡コーパス』の読み時間 とその被験者属性. 言語処理学会第 23 回年次大会発表論文集, pp. 473-477. 浅原正幸,小野創,宮本エジソン正 (2019). BCCWJ-EyeTrack 『現代日本語書き言葉均衡コー パス』に対する読み時間付与とその分析. 言語研究, $\mathbf{1 5 6}$, p. To Appear. Frank, S. L., Monsalve, I. F., Thompson, R. L., and Vigliocco, G. (2013). "Reading Time Data for Evaluating Broad-coverage Models of English Sentence Processing." Behavior Research Methods, 45 (4), pp. 1182-1190. 藤田早苗 (2015). 幼坚を対象としたテキストの対象年齢推定手法. 認知科学, 22 (4), pp. 604-620. Futrell, R., Gibson, E., Tily, H. J., Blank, I., Vishnevetsky, A., Piantadosi, S. T., and Fedorenko, E. (2018). "The Natural Stories Corpus." In Proceedings of LREC-2018, pp. 76-82. Hill, R. and Murray, W. (2000). Reading as a Perceptual Process, Chap. Commas and Spaces: Effects of Punctuation on Eye Movements and Sentence Processing, pp. 565-589. Elsevier, Amsterdam. Hirotani, M., Frazier, L., and Rayner, K. (2006). "Punctuation and Intonation Effects on Clause and Sentence Wrap-up: Evidence from Eye Movements." Journal of Memory and Language, 54, pp. 425-443. Husain, S., Vasishth, S., and Srinivasan, N. (2015). "Integration and Prediction Difficulty in Hindi Sentence Comprehension: Evidence from an Eye-tracking Corpus." Journal of Eye Movement Research, 8 (2), pp. 1-12. Ikehara, S. (2007). "Japanese Semantic Pattern Dictionary—Compound and Complex Sentence Eds.-." http://unicorn.ike.tottori-u.ac.jp/toribank/. Just, M. A. and Carpenter, P. A. (1980). "A Theory of Reading: From Eye Fixations to Comprehension." Psychological Review, 87 (4), pp. 329-354. 加藤祥, 浅原正幸, 山崎誠 (2019). 分類語彙表番号を付与した『現代日本語書き言葉均衡コー パス』の書籍・新聞・雑誌データ. 日本語の研究, $\mathbf{1 5}(2)$, p. To Appear. Kennedy, A. and Pynte, J. (2005). "Parafoveal-on-foveal Effects in Normal Reading." Vision Research, 45, pp. 153-168. Kliegl, R., Nuthmann, A., and Engbert, R. (2006). "Tracking the Mind During Reading: Theinfluence of Past, Present, and Future Words on Fixation Durations." Journal of Experimental Psychology, 135 (1), pp. 12-35. Konieczny, L. (2000). "Locality and Parsing Complexity." Journal of Psycholinguistic Research, 29 (6), pp. 627-645. 李在鎬 $(2011)$. 大規模テストの読解問題作成過程へのコーパス利用の可能性. 日本語教育, 148, pp. 84-98. Maekawa, K., Yamazaki, M., Ogiso, T., Maruyama, T., Ogura, H., Kashino, W., Koiso, H., Yamaguchi, M., Tanaka, M., and Den, Y. (2014). "Balanced Corpus of Contemporary Written Japanese." Language Resources and Evaluation, 48, pp. 345-371. Matsumoto, S., Asahara, M., and Arita, S. (2018). "Japanese Clause Classification Annotation on the 'Balanced Corpus of Contemporary Written Japanese'." In Proceedings of the 13th Workshop on Asian Language Resources (ALR13), pp. 1-8. Miyauchi, T., Asahara, M., Nakagawa, N., and Kato, S. (2017). "Annotation of Information Structure on "The Balanced Corpus of Contemporary Written Japanese"." In Proceedings of PACLING 2017, the 15th International Conference of the Pacific Association for Computational Linguistics, pp. 166-175. 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕 (2010). 『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(下).テクニカル・レポート,国立国語研究所. Rayner, K., Kambe, G., and Duffy, S. A. (2000). "The Effect of Clause Wrap-up on Eye Movements During Reading." The Quarterly Journal of Experimental Psychology, 53A (4), pp. 1061-1080. 佐藤理史 (2011). 均衡コーパスを規範とするテキスト難易度測定. 情報処理学会論文誌, 52 (4), pp. 1777-1789. 柴崎秀子, 玉岡賀津雄 (2010). 国語科教科書を基にした小・中学校の文章難易学年判定式の構築. 日本教育工学会論文誌, 33 (4), pp. 449-458. Sorensen, T., Hohenstein, S., and Vasishth, S. (2016). "Bayesian Linear Mixed Models using Stan: A Tutorial for Psychologists, Linguists, and Cognitive Scientists." Quantitative Methods for Psychology, 12, pp. 175-200. Warren, T., White, S. J., and Reichle, E. D. (2009). "Investigating the Causes of Wrap-up Effects: Evidence from Eye Movements and E-Z Reader." Cognition, 111 (1), pp. 132-137. 渡邊亮彦, 村上聡一朗, 宮澤彬, 五島圭一, 柳瀬利彦, 高村大也, 宮尾祐介 (2017). TRF: テキ ストの読みやすさ解析ツール. 言語処理学会第 23 回年次大会発表論文集, pp. 477-480. Yan, M., Kliegl, R., Richter, E. M., and Shu, H. (2010). "Flexible Saccade-target Selection in Chinese Reading." The Quarterly Journal of Experimental Psychology, 63 (4), pp. 705-725. ## 付録 ## A 詳細な結果 以下に詳細な結果を示す. 表 $3,4,5,6,7,8$ に節の最上位階層モデルの結果を,表 $9,10,11$, 12, 13, 14 に節の第 2 階層モデルの結果を示す. Rhat が収束判定指標で chain 数 4 以上ですべての値が 1.2 以下を収束とみなす. n_eff が有効サンプル数, mean がサンプルの期待值(事後平均), sd が MCMC 標準偏差 (事後標準偏差), se_mean が標準誤差で, MCMC のサンプルの分散を n_eff で割った値の平方根を表す. $2.5 \%, 50 \%, 97.5 \%$ はそれぞれの位の值である。分析においては頻度 5 以上のラベルについて検討する。 mean が $2 \mathrm{sd}$ 以上の差がある場合に強い証拠, mean が $1 \mathrm{sd}$ 以上の差がある場合に弱い証拠があるとする ${ }^{5}$. なお, 一般化線形混合モデルの結果は (浅原 2017) を参照されたい.  表 3 自己ペース読文法 (SELF) の事後確率分布(最上位階層モデル) 表 4 視線走査法 (FFT) の事後確率分布(最上位階層モデル) 表 5 視線走査法 (FPT) の事後確率分布(最上位階層モデル) 表 6 視線走査法 (SPT) の事後確率分布(最上位階層モデル) 表 7 視線走査法 (RPT) の事後確率分布(最上位階層モデル) 表 8 視線走査法 (TOTAL) の事後確率分布(最上位階層モデル) 表 9 自己ペース読文法 (SELF) の事後確率分布(第 2 階層モデル) - 補足節において, beta_clrhsl [2] (HSa: 名詞節) と beta_clrhsl [4] (HSc: 引用節) と間に 2sd 以上の差がある。名詞節のほうが引用節より読み時間が短い. - 名詞修飾節において, beta_clrmsl [2](MSa: 補足語修飾節) と beta_clrms1 [3](MSb: 内容節) と間に 1sd 以上の差がある。補足語修飾節のほうが内容節より読み時間が短い. - 副詞節において, beta_clrful [6] (FUe: 逆接) が最も読み時間が短い. 副詞節でない箇所より 3sd 以上短い. - 副詞節において, beta_clrful [2](FUa: 時) と beta_clrful[4](FUc: 条件・譲歩) と間に 2sd 以上の差がある. 条件・譲歩のほうが時より読み時間が短い。 - 副詞節において, beta_clrful [3] (FUb: 因果関係) と beta_clrful[5] (FUd: 付帯状況・様態)と間に 1sd 以上の差がある。 因果関係のほうが付帯状況・様態より読み時間が短い. 表 10 視線走查法 (FFT) の事後確率分布(第 2 階層モデル) - 補足節において, 1sd を超える傾向はみられない. - 名詞修飾節において, 1 sd を超える傾向はみられない. - 副詞節において, beta_clrful [2] (FUa: 時) が最も読み時間が短い. 副詞節でない箇所より2sd 以上短い. - 副詞節において, beta_clrful [5] (FUd: 付帯状況・様態) は副詞節でない箇所より 2sd 以上短い. $\cdot$ 副詞節において, beta_clrful [12](FUl: 判断・主観) は副詞節でない箇所より 1sd 以上短い. 表 11 視線走査法 (FPT) の事後確率分布(第 2 階層モデル) - 補足節において, beta_clrhsl [2] (HSa: 名詞節) は補足節でない箇所より 2sd 以上短い. - 名詞修飾節に㧈いて, beta_clrms1 [2] (MSa: 補足語修飾節) は名詞修飾節でない箇所より 2sd 以上短い. - 名詞修飾節に打いて, beta_clrms1 [2] (MSa: 補足語修飾節) と beta_clrms1 [3] (MSb: 内容節) の差は小さい. - 副詞節に打いて, 副詞節でない部分が beta_clrful [0](FALSE) が最も読み時間が長い. - 副詞節において, beta_clrful [3] (FUb: 因果関係) と beta_clrful [5] (FUd: 付帯状況・椂態) と間に 1sd 以上の差がある。付帯状況・様態のほうが因果関係より読み時間が短い。 表 12 視線走査法 (SPT) の事後確率分布(第 2 階層モデル) - 補足節において, beta_clrhsl [2] (HSa: 名詞節) は beta_clrhsl [4] (HSc: 引用節)より 1sd 以上短い. - 名詞修飾節において, 1 sd を超える傾向はみられない. - 副詞節において,副詞節でない部分が beta_clrful [0](FALSE) が最も読み時間が長い. - 副詞節において, beta_clrful [2](FUa: 時) と beta_clrful [4](FUc: 条件・譲歩) と間に 1sd 以上の差がある。条件・譲歩のほうが時より読み時間が短い. 表 13 視線走査法 (RPT) の事後確率分布(第 2 階層モデル) - 補足節において, beta_clrhsl [2](HSa: 名詞節) は補足節でない箇所より 1sd 以上短い. - 補足節において, beta_clrhsl [2] (HSa: 名詞節) は beta_clrhsl [4] (HSc: 引用節) より1sd 以上短い. - 名詞修飾節において, beta_clrmsl [2] (MSa: 補足語修飾節) は名詞修飾節でない箇所より 2sd 以上短い. - 名詞修飾節において, beta_clrmsl [3] (MSb: 内容節) は名詞修飾節でない箇所より2sd 以上短い. - 副詞節において, 副詞節でない部分が beta_clrful [0] (FALSE) が最も読み時間が長い. - 副詞節において, beta_clrful [5] (FUd: 付帯状況・様態) は副詞節でない箇所より2sd 以上短い. 表 14 視線走査法 (TOTAL) の事後確率分布(第 2 階層モデル) - 補足節において, beta_clrhs1 [2](HSa: 名詞節) は補足節でない箇所より 2sd 以上短い. - 補足節において, beta_clrhsl [2](HSa: 名詞節) は beta_clrhsl [4] (HSc: 引用節)より 1sd 以上短い. - 名詞修飾節において, beta_clrms1 [2](MSa: 補足語修飾節) は名詞修飾節でない箇所より 2sd 以上短い. $\cdot$ 副詞節において, 副詞節でない部分が beta_clrful [0](FALSE) が最も読み時間が長い. - 副詞節において, beta_clrful [4] (FUc: 条件・譲歩) は副詞節でない箇所より2sd 以上短い. ## 略歴 浅原正幸:2003 年奈良先端科学技術大学院大学情報科学研究博士後期課程修了. 2004 年より同大学助教. 2012 年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授. 2019 年より同教授. 博士 (工学)。言語処理学会, 日本言語学会, 日本語学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 概念辞書の類義語と分散表現を利用した教師なし all-words WSD 鈴木類 $^{\dagger}$ - 古宮嘉那子 $\dagger \dagger$ - 浅原正幸 $\dagger \dagger \dagger$ - 佐々木稔 $\dagger \dagger$ - 新納浩幸 $\dagger \dagger$ all-words 語義曖昧性解消(以下 all-words WSD (word sense disambiguation))とは文書中のすべての単語の語義ラベルを付与するタスクである。単語の語義は文脈, すなわち周辺の単語によって推定でき,周辺の単語同士が類似している場合中心の単語同士の語義も類似していると考える。そこで本研究では, 対象単語とその類義語群から周辺単語の分散表現を作成し,ユークリッド距離を計算することで対象単語の語義を予測した.また,語義の予測結果をもとにコーパスを語義ラベル列に変換し,語義の分散表現を作成した,語義の分散表現を用いて周辺単語ベクトルを作成し直し,再び語義の予測を行った。コーパスには分類語彙表番号がアノテーションされた『現代日本語書き言葉均衡コーパス』(BCCWJ)を利用した. 本研究では分類語彙表における分類番号を語義とし, 類義語も分類語彙表から取得した. 本研究では, 提案手法とランダムベースライン, Pseudo Most Frequent Sense (PMFS), Yarowsky の手法, LDAWN を比較し,提案手法が勝ることを示した。 キーワード:all-words,語義曖昧性解消,分類語彙表,分散表現 ## Unsupervised All-words WSD Using Synonyms and Embeddings \author{ Rui Suzuki ${ }^{\dagger}$, Kanako Komiya ${ }^{\dagger \dagger}$, Masayuki Asahara $^{\dagger \dagger \dagger}$, Minoru SasakI ${ }^{\dagger \dagger}$ \\ and Hiroyuki ShinNou ${ }^{\dagger \dagger}$ } \begin{abstract} All-words word-sense disambiguation (all-words WSD) involves identifying the senses of all words in a document. Since a word's sense depends on the context, such as surrounding words, similar words are believed to have similar sets of surrounding words. Therefore, we predict target word senses by calculating Euclidean distances between the target words' surrounding word vectors and their synonyms using word embeddings. In addition, we replace word tokens in the corpus with their concept tags, that is, article numbers of the Word List by Semantic Principles using prediction results. After that, we create concept embeddings with the concept tag sequence and predict the senses of the target words using the distances between surrounding word \end{abstract}  vectors, which consist the word and concept embeddings. This paper shows that concept embedding improved the performance of Japanese All-words WSD. Key Words: All-words, Word Sense Disambiguation, Word List by Semantic Principles ## 1 はじめに 語義曖昧性解消(以下,WSD)とは多義語の語義ラベルを付与する夕スクである.長年,英語のみならず日本語を対象としたWSD の研究が盛んに行われてきた。しかし,その多くは教師あり学習による対象単語を頻出単語に限定した WSD (lexical sample WSD) であるため,実用性が高いとは言えない。これに対し,文書中のすべての単語を対象とする WSD を all-words WSD という. all-words WSDのツールがあれば,より下流の処理の入力として,例えば品詞情報のように語義を利用することが可能になり,より実用的になると期待される. all-words WSD は, lexical sample WSD と異なり, 教師ありの機械学習に利用する十分な量の訓練事例を得ることが難しいため,辞書などの外部の知識を利用して,教師なしの手法で行われることが一般的である. all-words WSD の研究は日本語においては研究例が少ない. その理由のひとつに, all-words WSD を実行・評価するのに足りるサイズの語義つきコーパスがないことがあげられる。日本語の教師あり手法による WSDでは,岩波国語辞典の語義が付与されている『現代日本語書き言葉均衡コーパス』(以下,BCCWJ)(Okumura, Shirai, Komiya, and Yokono 2011)がよく用いられてきた。しかし,知識べースの手法で all-words WSD を行う場合に多用される類義語の情報は岩波国語辞典のような語義列記型の辞書からは得ることができない.英語の all-words WSD においては, WordNet ${ }^{1}$ というシソーラスが辞書として主に利用されている. WordNetには日本語版も存在するが,基本的には英語版を和訳したものであり,日本語にしかない品詞の単語はどうするのかなどの問題点が残る。そのため, 現在 BCCWJに分類語彙表の意味情報がアノテー ションされ,語義付きコーパスが整備されつつある.本研究では,整備されつつあるこのコーパス (Kato, Asahara, and Yamazaki 2018)を用いて,日本語を対象とした教師なし all-words WSD を行う。 分類語彙表とは単語を意味によって分類したシソーラスである. レコード総数は約 10 万件で,各レコードは類・部門・中項目・分類項目を表す“分類番号”によって分類されている. その他にも分類語彙表では “段落番号”,“小段落番号”,“語番号”が各レコードに割り振られており,それらすべての番号によってレコードが一意に決まるようになっている。また,分類語彙表には「意味的区切り」が 240 箇所に存在し,分類番号による分類をさらに細かく分けて ^{1}$ https://wordnet.princeton.edu/ } いる。本稿では分類語彙表から得られる類義語の情報を利用し,分類番号を語義とした日本語 all-words WSD の手法を提案する. ## 2 関連研究 WSD の手法は,大きく教師あり学習と知識ベース(教師なしの手法)の二つに分けることができる。一般的に, WSD を教師あり学習を用いた手法で行った場合, 教師なしの手法に比べて高い精度を得ることができる。しかしその反面,十分な量の教師データ,すなわち夕グ付きの用例文が必要なためその作成にコストがかかるという問題点がある。一方, 教師なしの場合は教師データを必要としないためコストはかからないが, 教師ありの手法と同等の精度を得ることは難しい. WSD においては, 一般に対象単語の文脈を素性とする。例えば, Yarowsky (1995) は, 同一の連語や文書内では出現する単語に対する語義割り当てが一意であるという仮説 (Gale, Church, and Yarowsky 1992)のもと, 教師なしによるWSDで高い精度を達成している. また, 近年, 文脈として, WSDの対象単語の周辺単語を分散表現で表す研究が行われている. Sugawara, Takamura, Sasano, and Okumura (2015) では, 教師あり学習において対象単語の前後 N 単語ずつの単語の分散表現を基本的な素性として用い,その有効性を明らかにした. さらに,Yamaki, Shinnou, Komiya, and Sasaki (2016) は, 単語の位置を規定しない・自立語以外の語を考慮しない, などしてSugawaraらの手法を改善し成果を上げている。このように, 対象単語を決めるうえで周辺の単語が大きな手掛かりとなることが知られている。 そのため, 本研究では, 教師なしの手法を利用する際にも,周辺の単語の分散表現を手掛かりとして利用する. 一方で, 本研究には階層的な概念辞書である, シソーラスも同時に利用する.WSDに分類語彙表などのシソーラスを用いる手法は数多く提案されている. 特に, 教師あり手法ではシソー ラスから得られる単語の情報や上位概念を素性として利用することが多い. 新納, 佐々木, 古宮 (2015)では,教師あり手法による WSD において分類語彙表などのシソーラスを素性に利用することの有効性や,上位概念のレベル(シソーラスの粒度)による精度の差があまりないことなどが報告されている。また,シソーラスを用いた辞書べースの手法は, 教師なしの手法のうち最も一般的な手法の一つである. Yarowsky (1992) はロジェのシソーラスを用いた教師なし手法による WSD の手法を提案した。また, 小林, 白井 (2018) はシソーラスを分類語彙表に置き換え,Yarowskyの手法に改良を加えた手法を提案している。これらの手法では, シソー ラスにおいて対象単語の語義と同じ分類に属する単語の用例を集め, 用例に出現しやすい自立語すなわち語義の特徵の重みを計算することで語義を予測している。また, Boyd-Graber, Blei, and Zhu (2007) は WordNet の語義を用いることでトピックモデルを教師なし WSD に応用した. Guo and Diab (2011) も同様にトピックモデルと WordNet の組み合わせの手法を提案している が,概念構造は利用せず,辞書の定義文から事前学習を行う手法で, all-words WSD に関して Boyd-Graber らと同程度の精度を上げている。また,谷垣,撫中,匂坂 (2016) は階層ベイズとギブスサンプリングを用いた英語の all-words の WSD を提案している. 日本語の all-words WSD の研究には Baldwin, Kim, Bond, Fujita, Martinez, and Tanaka (2008), Komiya, Sasaki, Morita, Sasaki, Shinnou, and Kotani (2015) や Shinnou, Komiya, Sasaki, and Mori (2017) がある.日本語は表意文字(漢字)を利用しているため,すでに書かれた時点で意味が分かることが多い,そのため,日本語の WSD は英語の WSD に比べて,語義の差が小さいと考えられる,小さな語義の差を,あまり用例がない状態でも解かなければならない点が,日本語の all-words WSDの難しさであろう. Baldwin et al. (2008)では, machine readable dictionary (MRD) ベースの手法を提案している. Komiya et al. (2015) では, 多義語の周辺に現れる語義の分布を利用する教師なし学習による周辺語義モデルを提案している. この論文の手法はギブスサンプリングを用いたシソーラスベースの all-words の WSD である。ただしこのシステムには EDR 電子化辞書による概念体系辞書が組み达まれており,再現するのが困難である。また, Shinnou et al. (2017) は単語分割をするテキスト分析のツールキットを応用し,教師ありの手法で all-words WSD を簡易に行えるシステムを作成している. ## 3 比較対象となるベースライン手法 本研究では, 四つの比較対象となるベースライン手法を用いた。一つは語義をランダムに選択した場合の正解率 (random) である。コーパス中の全多義語の出現ごとの平均語義数の逆数により求めた。 二つ目は最頻出の語義をテキストコーパスから疑似的に推定する手法 (Pseudo Most Frequent Sense. 以下 PMFS)である。この手法では,テストコーパスと同分野についての学習用テキストコーパスをテストコーパスとは別に用意し, 語義の頻度を計算する。例えば,学習用コーパスに語義 $\mathrm{a}$ を持つ単語が出現した場合は語義 $\mathrm{a}$ の頻度に 1 を割り振る。また, 語義 $\mathrm{a}$ と語義 $\mathrm{b}$ を持つ単語(多義語)が出現した場合は語義 $\mathrm{a} に 1 / 2$, 語義 $\mathrm{b} に 1 / 2$ の頻度を割り振る。このようにして学習用コーパスでのすべての単語の語義の頻度を加算して, 語義ごとに頻度を求めておく,テストの際には,WSDの対象単語のそれぞれの語義候補のうち,求めておいた頻度が最も高い語義を選択する。 三つ目は分類語彙表の分類番号を語義とした Yarowskyの手法(Yarowsky 1992)である. Yarowsky の手法では,学習用コーパスから分類番号ごとに用例を集め,その中に出現する特徴の重みを計算しておく.ここでの特徴とは用例に出現する自立語である,語義 $c$ における特徵 $f$ の重み は以下の式で定義される. $ w(c, f)=\frac{\log \operatorname{Pr}(f \mid c)}{\operatorname{Pr}(f)} $ 対象単語の周辺の自立語の重みの合計を語義候補ごとに計算し, 最も大きい値になった語義を選んでいく. 四つ目は, Boyd-Graber et al. (2007) で提案された, latent Dirichlet allocation with WordNet (以下 LDAWN)と呼ばれる手法である。LDAWN は, トピックモデル LDA (Latent Dirichlet Allocation) において,各トピックが持つ単語の確率分布を,概念辞書上の単語生成過程である WORDNET-WALK に置き換え,WSD に応用したモデルである。ルート概念からの経路の違いにより,語義の違いを表現している,WORDNET-WALKとは, WordNet や分類語彙表のような木構造の概念辞書において,ルート概念から下位概念への遷移を確率的に繰り返し,リー フ概念が表す単語を出力する単語生成過程である.LDAWN では,各文書が持つトピックの確率分布と,各トピックにおける各概念から下位概念への遷移確率分布をギブスサンプリングから求めている.WSD は対象単語のトピックを推定し,対応する遷移確率分布を用いてルート概念から対象単語までの経路を推定することで行える. ## 4 概念辞書の類義語と分散表現を利用した all-words WSD 単語の語義は周辺の文脈によって推定できることから, 周辺の単語同士が類似している場合,中心の単語同士も類似していると考えられる.我々はこの考えをもとにした教師なしの all-words WSDの手法を提案する. 我々の提案する手法では, 類義語を用いて語義を決定する。ここで, 「犬」という単語の例を考える.「犬」という単語には「動物の犬」と「スパイ」という意味の二つの意味がある.どちらの意味なのか決定するために,我々は類義語の文脈と,対象単語の文脈を比較する。文脈を比較するためには, 後述する「周辺単語ベクトル」を用いる。ある用例の周辺単語ベクトルが,「動物の犬」という意味を持つ類義語の周辺単語ベクトルよりも,「スパイ」という意味の周辺単語ベクトルに近ければ,その用例の語義は「スパイ」の方であると判定する。周辺単語べクトルの作成方法として,我々は単語の分散表現を用いる方法, 分類番号の分散表現を用いる方法,その両方を用いる方法の三種類の手法を提案する. 我々の手法は, WSDを繰り返して行う. はじめに, 単語の分散表現を用いる方法で周辺単語ベクトルを求め,類義語の情報から文書内のすべての多義語の語義を推定する.単語の分散表現は語義夕グのないテキストコーパスから求められるため, こうして教師なしの all-words WSD が実現できる.本研究の語義は分類語彙表の分類番号であるから,語義を推定した時点ですべての単語の分類番号を推定できる。その推定した分類番号をもとに,今度は分類番号の分散表 現を作成し,単語の分散表現を用いる方法と同様に,周辺単語べクトルを求め, 類義語の情報から文書内のすべての多義語の語義を推定することで,より正確な語義を推定することができる.この時点で推定された語義(分類番号)もまた,新たな分類番号の分散表現を作成するのに利用できる。我々はこれらの処理を繰り返すことで,最終的な語義を推定した。 ## 4.1 概念辞書の類義語 本研究では,概念辞書として分類語彙表を使用した,分類語彙表とは単語を意味によって分類したシソーラスである。レコード総数は約 10 万件で,各レコードには「レコード ID 番号/見出し番号/レコード種別/類/部門/中項目/分類項目/分類番号/段落番号/小段落番号 /語番号/見出し/見出し本体/読み/逆読み」という項目がある。分類番号は類・部門・中項目・分類項目を表す番号で,分類語彙表では主にこの番号によって単語が分類されている。 その他にも“段落番号”,“小段落番号”,“語番号”が各レコードには割り振られており,それらすべての番号によってレコードが一意に決まるようになっている。 さらに,分類語彙表には 「意味的区切り」が 240 箇所に存在し,分類番号による分類をさらに細かく分けている。したがって分類の細かさは,分類番号による分類 < 分類番号+意味的区切りによる分類 < 分類番号 +段落番号による分類<分類番号+段落番号十小段落番号による分類(右に行くほど細かい)といえる。本研究ではこの分類語彙表から対象単語の類義語を求め, 語義の予測に用いる。具体的には,“分類番号十意味的区切り”によって同じグループに分類された単語を類義語とする場合と “分類番号+段落番号”によって同じグループに分類された単語を類義語とする場合の 2 パターンで実験を行った.例えば「犬」という単語は分類語彙表中で二か所に存在する.すなわち,「犬」は二つの分類番号 $(1.2420,1.5501)$ を持つ多義語である。分類語彙表における「犬」 の一部を表 1 に示す. 上記の条件で「犬」の類義語を求めると, 分類番号:1.2410+意味的区切りで得られる類義語は[スパイ, 回し者, “, 教師, 魔法使い, “] の 429 単語, 1.5501+意味的区切りで得られる $1.2410+27$ で得られる類義語は[Xパイ, 回し者, ㄱ] の 11 単語, $1.5501+04$ で得られる類義 表 1 分類語彙表における「犬」 ## 4.2 単語の分散表現を用いる手法 周辺の単語同士が類似している場合, 中心の単語同士の語義も類似している, と考え, 本稿では以下の手法を提案する。まず,対象単語の周辺の単語(前後 2 単語ずつ)のそれぞれの分散表現(以下, w2v)を求める。そして, これらの $\mathrm{w} 2 \mathrm{v}$ を連結し一つの分散表現にしたものを対象単語の「周辺単語べクトル」とする。このとき,「.」や「(」などの記号は周辺単語に含めなかった。また, 前後の単語数が 2 に満たないときは nullとし, すべてゼロべクトルで補った. なお,本手法では,自立語以外についても上記の条件を満たせば,分散表現を作成した. 次に,分類語彙表から対象単語の語義候補ごとに類義語を求め,コーパス中に出現する類義語からも対象単語と同様に周辺単語ベクトルを作成していく. この際, 類義語の周辺単語べクトルには語義候補の語義をラベル付けしておく.また,4.1節のようにして分類語彙表から類義語を求めた際に語義候補間で重複する類義語があればその単語はどちらからも除外した ${ }^{2}$. 最後に, 対象単語の周辺単語ベクトルとラベル付けした類義語の周辺単語ベクトル群との距離を計算し, $\mathrm{K}$ 近傍法によってラベルを一つ求めこれを対象単語の語義とした。なお, $\mathrm{K}$ 近傍法を利用したのはデータスパースネスに対して頑健であり, all-words WSD では処理対象となる,コー パス中に用例の少ない単語に対しても WSD を行うことが可能だからである. 例えば以下の文における「犬」の語義を提案手法を用いて予測してみる。 彼は警察の犬だ. この文における「犬」の周辺単語は「警察」「の」「だ」「null」となり,単語 $\mathrm{w}$ の分散表現を $\mathrm{w}^{2} 2 \mathrm{v}_{\mathrm{w}}$ とすると周辺単語べクトルは $ \left[\begin{array}{llll} \mathrm{w} 2 \mathrm{v}^{\text {警察 }} & \mathrm{w} 2 \mathrm{v}_{\text {の }} & \mathrm{w} 2 \mathrm{v}_{\text {だ }} & \mathrm{w} 2 \mathrm{v}_{\text {null }} \end{array}\right] $ となる.ここでnull は文脈が文の外側に出る場合に素性が未定義であることを表す.次に「犬」 の類義語を求め, 用例を集める。「犬」の語義候補は分類番号 1.2410 と 1.5501 であり, 4.1 節で述べたようにして類義語を求めると 1.2410 の類義語は [Xパイ,回し者, ]. 1.5501 の類義語は $[$ きね,〈ま,ㄱ] となるが,この中から多義語はすべて除外し(「くま」は多義語なので除外する)単義語のみ使用する。さらに, 1.2410 の類義語と 1.5501 の類義語に重複する単語がある場合はどちらからも除外する。コーパス中に出現するこれらの類義語から,「犬」と同じようにして周辺単語べクトルを作っていき(図 1, 図 2), 1.2410 または 1.5501 のラベルを付与する. 最後に,「犬」の周辺単語ベクトルとラベルが付与された類義語の周辺単語ベクトルの距離を計算し, $\mathrm{K}$ 近傍法で「犬」の周辺単語と距離が近いラべルを求め語義を決定する.  図 11.2410 の類義語の用例とその周辺単語ベクトル 図 21.5501 の類義語の用例とその周辺単語ベクトル ## 4.3 分類番号の分散表現を用いる手法 手法によって子予測した結果をもとに,コーパス全体を分類番号の系列(語義列)に変換する。例えばコーパスが図 3 のような場合, “ビデオ” (1.4620) などは語義を 1 つしか持たない単義語で あるためその語義に置き換え,“ジョッキー” (1.2410 or 1.2450) や“年” (1.1630 or 1.1962) などの多義語は 4.2 節の手法で予測した語義に置き換える。なお,“根本”や“が”や“「”のような分類番号を持たない単語は置き換えずにそのままとする。したがって, 分類番号の系列は図 4 のようになる。こうして作成した分類番号の系列を分散表現作成ツール (gensim の Word2Vec ${ }^{3}$ ) に入力することで,テキストコーパスの単語列から $\mathrm{w} 2 \mathrm{v} を$ 作成したように,分類番号の系列から $\mathrm{c} 2 \mathrm{v}$ を作成する。 次に, 4.2 節の手法と同じようにして語義を予測していく. このとき,周辺単語ベクトルは $\mathrm{w} 2 \mathrm{v}$ と $\mathrm{c} 2 \mathrm{v}$ を組み合わせた場合と, $\mathrm{c} 2 \mathrm{v}$ みの場合の 2 通りとした。また, 4.2 節の手法では類義語の中から多義語をすべて排除したが,そうすることで用例が少なくなるという問題点がある. そこで本手法では周辺単語ベクトルを作る際に, 4.2 節の手法で語義候補の語義と予測された多義語の用例も追加した。前述の例文の「犬」の語義を予測するまでの流れを以下に示す. まずは「犬」の周辺単語ベクトルを作成する。周辺単語が「警察」,「の」,「だ」,「null」のとき, $\mathrm{w} 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ で作成した周辺単語べクトルは となり, $\mathrm{c} 2 \mathrm{v}$ で作成した周辺単語ベクトルは 根本要がビデオジョッキーを務め、 1960 年代後半から 80 年代前半のロックを届ける。 自由党の「政策新人類」渡辺喜美衆院議員は提案する「経済非常事態」を宣言し産業再生委の創設を! 図 3 コーパスの例 根本要が 1.46201 .2410 を $2.3320 、 1.19601 .19601 .19601 .19601 .16301 .16231 .1650$ から 1.19601 .19601 .16301 .163231 .1650 のロックを 2.1521 . 1.2760 党の「1.3084 $3.16601 .5501 」$ 渡辺喜美 1.27301 .2400 は 1.12102 .1211 「 1.3710 1.13311 .1000 」を1.3100 2.1211 1.38011 .1211 委の 1.1220 を! 図 4 分類番号の系列 ^{3}$ https://radimrehurek.com/gensim/models/word2vec.html } $ \left[\begin{array}{cccc} \mathrm{c} 2 \mathrm{v}_{\text {警察 }} & \mathrm{c} 2 \mathrm{v}_{\text {の }} & \mathrm{c} 2 \mathrm{v}_{\text {だ }} & \mathrm{c} 2 \mathrm{v}_{\text {null }} \end{array}\right] $ となる. 次にコーパス中に出現する類義語から周辺単語ベクトルを「犬」と同じようにして作成する.このとき,「犬」の 1.5501 における類義語には「くま」が含まれるが,「くま」は 2 つの分類番号 $(1.1700,1.5501)$ を持つ多義語である. この場合, 4.2 節の手法によって 1.5501 と予測された「くま」の用例からも周辺単語べクトルを作成する。最後に, 4.2 節と同様に $\mathrm{K}$ 近傍法によって語義を求める. ## 5 評価実験 実験には BCCWJに分類語彙表の分類番号がアノテーションされたコーパスを使用する. コー パス中のすべての多義語の語義を予測する問題設定とする。また, ここでいう多義語とは,複数の分類番号を持つ単語である。表 2 , 表 3 に使用したコーパスの文書数と統計を示す. なお,表 3 および以降における「トークン」の数とは出現したのべ数であり,「タイプ」とは種類の数を指す. 特に,単語のタイプ数は語彙数に相当する.多義語(トークン)の平均語義数は, コー パス中の多義語の用例を無作為にひとつ選んだ際, その多義語が平均どのくらいの用例をコー パス中に持っているかを示している.表 3 において平均語義数は 2.98 なので,当て推量してみると $1 / 2.98(=0.336)$ の確率で正解になることを示している. また, 比較手法の PMFS と Yarowsky の手法で用いる学習用コーパスには BCCWJ の分類番号が付与されていない部分も含めて使用した。表 4 , 表 5 に使用した学習用コーパスの文書数と統計を示す. 提案手法と LDAWNでは,テストコーパスのみを用いて実験を行った。 Yarowsky の手法において,学習用コーパスから用例を集める際は前後 10 単語ずつとした. 表 2 コーパスに含まれるジャンルとその文書数 表 3 コーパスの統計 表 4 学習用コーパスに含まれるジャンルとその文書数 表 5 学習用コーパスの統計 さらに, 対象単語の周辺単語の重みの和を求めるときも, 前後 10 単語ずつから求めた. LDAWN では, Komiya et al. (2015)を参考にパラメータを設定した. 具体的には 1 文を 1 文書とし,メタパラメータである $\mathrm{K}$ (トピック数)は $32, \mathrm{~S}$ (遷移確率の調整定数)は 10 そして $\tau$ (ディリクレ分布の prior)は 0.01 とした. 提案手法では類義語を分類語彙表から “分類番号十意味的区切り” を用いて求める場合と “分類番号十段落番号”を用いて求める場合の 2 通りで実験を行った. w2vの作成には nwjc2vec (新納,浅原, 古宮, 佐々木 2017)を使用した. nwjc2vec とは, 国語研日本語ウェブコーパス (NWJC) に対して word2vec (Mikolov, tau Yih, and Zweig 2013c; Mikolov, Chen, Corrado, and Dean 2013a; Mikolov, Sutskever, Chen, Corrado, and Dean 2013b) で学習を行った分散表現データである. word2vec のパラメータは,アルゴリズムに Continuous Bag-of-Words (C-BoW)を利用し,次元数を 200 , ウィンドウ幅を 8 ,ネガティブサンプリングに使用する単語数を 25 , 反復回数を 15 作成した。その際,アルゴリズムは C-BoWを利用し,次元数を 50 , ウィンドウ幅を 5 ,ネガティブサンプリングに使用する単語数を 5 , 反復回数を 3 , min-count を 1 , として学習を行った。また,周辺単語ベクトルを作成する際,周辺に単語が四つない場合(対象単語が文頭や文末にある場合など null に相当する)や,word2vec で学習されていない単語の分散表現などは,同じ次元の零行列を用いた。周辺単語べクトルの作成に用いる周辺単語の数は前後 2 単語ずつの 4 単語とした.したがって, w2vのみで作成した周辺単語べクトルは 800 次元, $w 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ で作成した周辺単語べクトルは 1000 次元となる。周辺単語ベクトルの距離を測り $\mathrm{K}$ 近傍法で分類する過程には scikit-learn ${ }^{4} の$ KNeighborsClassifier を使用した。ここではユークリッド距離を使用し, $\mathrm{k}=1 , 3 , 5$ , weight=uniform, distance(uniform=重みなし, distance=重みあり)で ^{4}$ https://scikit-learn.org/stable/ } 実験を行った。 実験では,最も良いパラメータを選ぶため, w2vを利用した場合, $\mathrm{w} 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ を利用した場合, $\mathrm{c} 2 \mathrm{v}$ を利用した場合のそれぞれに対し,パラメータ三種類(“分類番号十意味的区切り”/“分類番号十段落番号”, $\mathrm{k}=1 / 3 / 5$, uniform/distance)のバリエーションを試した. この際, $\mathrm{w} 2 \mathrm{v}$ を利用した場合では一度目(繰り返しなし), $\mathrm{w} 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ を利用した場合と $\mathrm{c} 2 \mathrm{v}$ を利用した場合では二度目(一度目は $\mathrm{w} 2 \mathrm{v}$ を利用し,二度目で $\mathrm{w} 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ または $\mathrm{c} 2 \mathrm{v}$ を利用して繰り返した)の結果で比較する。また,この際に最も良かった設定について五度繰り返して正解率を見た. ## 6 結果 四つの比較手法および三つの提案手法の結果を表 6 に示す. 提案手法の結果は, $\mathrm{w} 2 \mathrm{v}$ を利用した手法, $\mathrm{w} 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ を利用した手法, $\mathrm{c} 2 \mathrm{v}$ を利用した手法における,それぞれ最も結果が良かった場合のパラメータを利用した際の結果である. パラメータについては考察で述べる. また,表 7 に最良の場合の手法とパラメータを利用した場合の繰り返しによる正解率の変化を示す。最も良い数値を太字で示した。 表 6 から, 提案手法 $\mathrm{w} 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ と提案手法 $\mathrm{c} 2 \mathrm{v}$ が, 比較手法である random, PMFS, Yarowsky の手法, LDAWN のすべてを上回る結果となったことが分かる. なお, 比較手法の中では PMFS の正解率が最も高い結果となった。 $\mathrm{w} 2 \mathrm{v}$ を利用した手法, $\mathrm{w} 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ を利用した手法, $\mathrm{c} 2 \mathrm{v}$ を利用した手法の三手法を比較すると, $\quad \mathrm{w} 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ を利用した手法が最もよく,続いて $\mathrm{c} 2 \mathrm{v}$ を利用した手法となり,このことから $\mathrm{c} 2 \mathrm{v}$ の利用が all-words WSDにおいて有効であることが示された.繰り返しの効果について表 7 を見てみると, w $2 \mathrm{v}$ だけを用いた一度目の結果よりも, $\mathrm{c} 2 \mathrm{v}$ も併 表 6 比較手法と提案手法の正解率 (\%) 表 7 繰り返しによる正解率の変化 $(\%)$ せて用いた二度目の結果(一度繰り返したとき)の方が正解率が上昇している ${ }^{5}$. これに対して三度目の結果は僅かに上昇し, その後は変化がない。このため, $\mathrm{c} 2 \mathrm{v}$ を導入した繰り返しに効果はあるが,何度も繰り返しても正解率はあまり変わらないことが分かった. ## 7 考察 ## 7.1 提案手法のパラメータ 提案手法のパラメータ別の結果を表 8 に示す。一つの実験の中で最も良い数值を太字とした. また,提案手法の中で最も良い数値には下線を引いた。さらに,比較手法すべてよりも良い結果となったものを斜体で示した. 表 8 から,提案手法で最も良い結果となったのは “分類番号十意味的区切り”, w $2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ を用いた場合であることが分かる。また,提案手法では $\mathrm{K}$ の値や重みの有無によって精度に大きな差がないことが分かった,類義語の決め方に注目すると,“分類番号十意味的区切り”を使用するほうが “分類番号+段落番号”を利用した場合に比べて,常に良い結果となっていることがわかる.類義語の区分に “分類番号+段落番号”を利用した場合には, $\mathrm{c} 2 \mathrm{v}$ の導入によって正解率が下がっている。このことから,類義語の区分には適切なものを利用する必要があることが分かる。 比較手法の結果と提案手法の正解率を比べると,“分類番号十意味的区切り”, $\mathrm{w} 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ または “分類番号十意味的区切り”, $\mathrm{c} 2 \mathrm{v}$ を用いた場合(表の $4 \sim 7$ 行目)では random, PMFS, Yarowsky 表 8 パラメータごとの正解率 $(\%)$  の手法, LDAWN のすべてを上回る結果となった. ## 7.2 他手法との比較 Yarowsky の手法と本研究の提案手法は, 類義語の周辺の単語を用いるという点では同じである. Yarowsky の手法は計算量が提案手法よりも少ないことから,大きな学習用コーパスから用例を集めることや, 周辺単語として前後 20 単語を利用することができる。一方, 提案手法は計算量が多いため, 学習用コーパスは用意せずに WSD の対象となるコーパスから用例を集め, 周辺単語も前後 4 単語しか利用していない. それでも Yarowsky の手法を上回る結果となったことから,分散表現がWSDにおいて有効であることがわかる. また, 提案手法は LDAWN も上回った. しかも LDAWN は Yarowsky の手法よりも劣った. これには二つの原因が考えられる。一つは本研究のタスクがall-words WSDであることである.教師なしWSD の研究は多いが,それらの手法がそのまま教師なしall-words WSDにおいて高精度の結果を出せるわけではない. トピックモデルを利用した手法がそのような手法の一つたと考えられる、トピックモデルを利用した教師なし WSD は, 本質的に, 対象単語の文脈を卜ピック分布で表現し,その分布が語義ごとに異なることを利用する。しかし語義の違いを区別するためのトピックの分割が全ての単語で同一である保証はない。またLDAWNでは妥当な分割を求める手がかりとして語義の階層構造を利用するが, その階層構造として, 分類語彙表の語義の階層構造が適切であるかどうかも疑問である。一方, 提案手法は単語や語義の分散表現を利用しており,WSDの対象単語に依存しない。このため,より all-words WSDに適した手法となっている。二つ目は WSD で利用する対象単語の文脈情報として,トピック分布だけでは不十分であることである。トピックは大域的な文脈情報である。しかし実際に WSD で有効な情報は, 直前直後の出現単語といった局所的な文脈情報である, LDAWN はそのような局所的な情報を直接的には利用していない。一方, 本手法や Yarowsky の手法は直接的に局所的な文脈情報を利用しているために,LDAWN を上回ったと考えられる.特に日本語は表意文字を利用しているため, 英語に比べて語義同士の意味が近い。そのため, トピックのような大域的な文脈よりも,周辺の単語のような局所的な文脈が効いたものと考えられる。また,提案手法では分類語彙表に多く含まれる,類義語の情報を利用しているため,上位下位概念よりも多くの情報が利用できる。 さらに提案手法は分散表現を利用しているため, 同一の単語でなくても類似度が計算でき, $\mathrm{K}$ 近傍法を利用したことによってデータスパースネスに強い手法となっている。 ## 7.3 類義語についての考察 提案手法では分類語彙表から類義語を求めて WSD に利用する.類義語は, 対象単語と意味が近いほど類義語として好ましい. しかし,意味が近い単語に限定しすぎると類義語の数,すなわち類義語の用例の数が少なくなってしまい語義の予測に影響が出てしまう。例えば,「犬」 の分類番号 1.2410 の類義語になりうる単語を列挙すると表 9 のようになる. 分類番号が等しく多義語でない単語を類義語とした場合(分類番号 1.2410 には意味的区切りは存在しない. )「犬」 の類義語は 429 単語となり,その中には「教育家」や「教師」,「神官」などの単語も含まれる. しかしこれらの単語は「犬」の語義とそれほど近い語義を持っているわけではなく,「犬」の語義を予測する場合に役立っているとは考えにくい。一方,“分類番号+段落番号” が等しい単語 表 9 「犬」の分類番号 1.2410 の類義語になりうる単語(一部省略) 表 10 一つの語義から獲得した類義語の用例数の平均 を類義語とした場合は「犬」とかなり意味的に近い単語に限定され,これらの単語は「犬」と言い換えても文脈が変化しないため類義語としてふさわしい単語だといえる。しかしその数はわずか 11 単語となり類義語の用例の数が大きく減少してしまう. そこで, 本研究で用いたコーパスにおいて多義語が一つの語義から類義語の用例をいくつ獲得できるか平均を求めると, 表 10 のようになった. 正解・不正解は $\mathrm{w} 2 \mathrm{v}$ を利用した場合(表 8 の $2 , 3 , 8 , 9$ 行目)の結果である. 多義語全体の平均を見ると,“分類番号+意味的区切り”に比べて分類番号+段落番号を類義語の定義として用いた場合は獲得できる用例の数が大幅に少なくなっていることがわかる。本研究では,“分類番号十段落番号” で類義語を集めた場合,“分類番号十意味的区切り”で類義語を集めた場合と比べて精度が下がっているが,これは獲得できる類義語の用例数が著しく減少したことが原因だと考えられる。また,正解した多義語が獲得した用例数の平均が不正解した場合を大きく上回っていることからも,語義を正しく予測するには類義語の用例数をある程度多く獲得する必要があることが分かった.ただし,最も多く用例を獲得できた語義は “分類番号十意味的区切り”だと 2.1200 で用例の数は 5,535 個,“分類番号+段落番号”だと $1.1960-01$ で用例の数は 3,974 個であり, 用例の数が最も少なかったのは 2.1340 や 3.1522-05 で用例の数は 1 個だった. このことから, 分類語彙表を用いて類義語の用例を獲得する場合用例の数は語義ごとにかなりばらつきが生まれることも確認できた。したがって本研究の提案手法は, 用例が極端に少ない場合には学習用コーパスを用意して用例を獲得したり,広い意味で類義語を定義して用例の数を増やしたりすることで精度が向上する可能性が考えられる。また,用例が極端に多い場合は,段落番号や小段落番号を用いるなど,類義語を狭い意味で定義し,対象単語により意味が近い単語に限定することで精度が向上し,さらに計算量を減少させることができると考えられる。 ## 8 おわりに 本稿では,教師なしによる日本語の all-words WSD の手法を提案した。具体的には,対象単語の周辺単語ベクトルと対象単語の類義語の周辺単語ベクトルを作成し,それらの距離を計算して $\mathrm{K}$ 近傍法によって語義を求める。周辺単語べクトルは, 前後 2 単語ずつの $\mathrm{w} 2 \mathrm{v}$ を連結した ベクトル, $\mathrm{w} 2 \mathrm{v} , \mathrm{c} 2 \mathrm{v}$ を連結したべクトル, $\mathrm{c} 2 \mathrm{v}$ を連結したべクトルの 3 通りで実験を行った $\mathrm{c} 2 \mathrm{v}$ は予測結果をもとにコーパスを分類番号の分かち書きに変換して作成した。類義語は分類語彙表から “分類番号十意味的区切り”,“分類番号+段落番号” の 2 通りの方法で定義し,それぞれで実験を行った.実験の結果, $\mathrm{w} 2 \mathrm{v}+\mathrm{c} 2 \mathrm{v}$ ,“分類番号+意味的区切り”を用いた場合が最も高い精度となった. また, 提案手法ではランダムべースライン, PMFS, Yarowsky の手法, LDAWN を超える精度を出すことができ,語義曖昧性解消において有効な手法であることが確認できた。 さらに結果を分析すると,不正解たっった対象単語の 1 語義当たりの類義語の用例数が正解だった場合と比べて少ない傾向にあることや,獲得できる類義語の用例数は語義によってばらつきがあることが確認できた。これらのことから,本手法で精度をさらに向上させる方法として, 類義語の用例を獲得しづらい語義では学習用コーパスから用例を獲得する, 類義語の意味の幅を広くするなどの方法で用例数を確保することが考えられる. ## 謝 辞 本研究は, 国立国語共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」および「all-words WSD システムの構築および分類語彙表と岩波国語辞典の対応表作成への利用」の研究成果を含んでいます。また, 本研究は JSPS 科研費 $15 \mathrm{~K} 16046$ および 18K11421 の助成と, 茨城大学女性エンパワーメントプロジェクトの助成を受けたものです。また, 本論文の内容の一部は, 11th edition of the Language Resources and Evaluation Conference で発表したものです (Suzuki, Komiya, Asahara, Sasaki, and Shinnou 2018). ## 参考文献 Baldwin, T., Kim, S. N., Bond, F., Fujita, S., Martinez, D., and Tanaka, T. (2008). "MRD-based Word Sense Disambiguation: Further Extending Lesk." In Proceedings of the 3rd International Joint Conference on Natural Language Processing (IJCNLP 2008), pp. 775-780. Boyd-Graber, J., Blei, D., and Zhu, X. (2007). "A Topic Model for Word Sense Disambiguation." In EMNLP-CoNLL-2007, pp. 1024-1033. Gale, W. A., Church, K. W., and Yarowsky, D. (1992). "One Sense Per Discourse." In Proceedings of the Workshop on Speech and Natural Language, HLT '91, pp. 233-237, Stroudsburg, PA, USA. Association for Computational Linguistics. Guo, W. and Diab, M. (2011). "Semantic Topic Models: Combining Word Distributional Statistics and Dictionary Definitions." In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 552-561. Kato, S., Asahara, M., and Yamazaki, M. (2018). "Annotation of "Word List by Semantic Principles' Labels for Balanced Corpus of Contemporary Written Japanese." In Proceedings of the 32nd Pacific Asia Conference on Language, Information and Computation (PACLIC 32). 小林健人, 白井清昭 (2018). 分類語彙表の分類項目を識別する語義曖昧性解消一Yarowsky モデルの適応と拡張一. 言語処理学会第 24 回年次大会発表論文集, pp. 244-247. Komiya, K., Sasaki, Y., Morita, H., Sasaki, M., Shinnou, H., and Kotani, Y. (2015). "Surrounding Word Sense Model for Japanese All-words Word Sense Disambiguation.” In PACLIC 2015, pp. 35-43. Mikolov, T., Chen, K., Corrado, G., and Dean, J. (2013a). "Efficient Estimation of Word Representations in Vector Space." In Proceedings of ICLRWorkshop 2013, pp. 1-12. Mikolov, T., Sutskever, I., Chen, K., Corrado, G., and Dean, J. (2013b). "Distributed Representations of Words and Phrases and their Compositionality." In Proceedings of NIPS 2013, pp. 1-9. Mikolov, T., tau Yih, W., and Zweig, G. (2013c). "Linguistic Regularities in Continuous Space Word Representations." In Proceedings of NAACL 2013, pp. 746-751. Okumura, M., Shirai, K., Komiya, K., and Yokono, H. (2011). "On SemEval-2010 Japanese WSD Task.”自然言語処理, 18 (3), pp. 293-307. 新納浩幸, 浅原正幸, 古宮嘉那子, 佐々木稔 (2017). nwjc2vec: 国語研日本語ウェブコーパスから構築した単語の分散表現データ. 自然言語処理, 24 (5), pp. 705-720. Shinnou, H., Komiya, K., Sasaki, M., and Mori, S. (2017). "Japanese all-words WSD system using the Kyoto Text Analysis ToolKit." In Proceedings of PACLIC 2017, no. 11, pp. 392-399. 新納浩幸, 佐々木稔, 古宮嘉那子 (2015). 語義曖昧性解消におけるシソーラスの利用問題. 言語処理学会第 21 回年次大会発表論文集, pp. 59-62. Sugawara, H., Takamura, H., Sasano, R., and Okumura, M. (2015). "Context Representation with Word Embeddings for WSD." In Proceedings of PACLING 2015, pp. 108-119. Suzuki, R., Komiya, K., Asahara, M., Sasaki, M., and Shinnou, H. (2018). "All-words Word Sense Disambiguation Using Concept Embeddings." In Proceedings of the 11th edition of the Language Resources and Evaluation Conference (LREC 2018), pp. 1006-1011. 谷垣宏一, 撫中達司, 匂坂芳典 (2016). 語の出現と意味の対応の階層ベイズモデルによる教師なし語義曖昧性解消. 情報処理学会論文誌, $\mathbf{5 7}$ (8), pp. 1850-1860. Yamaki, S., Shinnou, H., Komiya, K., and Sasaki, M. (2016). "Supervised Word Sense Disambiguation with Sentences Similarities from Context Word Embeddings." In Proceedings of PACLIC 2016, pp. 115-121. Yarowsky, D. (1992). "Word-sense Disambiguation using Statistical Models of Roget's Categories Trained on Large Corpora." In Proceedings of COLING, pp. 454-460. Yarowsky, D. (1995). "Unsupervised Word Sense Disambiguation Rivaling Supervised Methods." In $A C L 1995$, pp. 189-196. ## 略歴 鈴木類:2017 年茨城大学工学部情報工学科卒. 2019 年茨城大学大学院理工学研究科情報工学専攻修了. 古宮嘉那子:2005 年東京農工大学工学部コミュニケーション工学科卒. 2009 年同大学大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員, 2010 年東京農工大学工学研究院特任助教, 2014 年茨城大学工学部情報工学科講師. 現在に至る. 自然言語処理の研究に従事. 情報処理学会, 人工知能学会, 言語処理学会各会員. 浅原正幸:2003 年奈良先端科学技術大学院大学情報科学研究博士後期課程修 了. 2004 年より同大学助教. 2012 年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授. 2019 年より同教授. 博士(工学)。言語処理学会, 日本言語学会, 日本語学会各会員. 佐々木稔:1996 年徳島大学工学部知能情報工学科卒業. 2001 年同大学大学院 博士後期課程修了. 博士 (工学)。2001 年 12 月茨城大学工学部情報工学科助手. 現在, 茨城大学工学部情報工学科講師. 機械学習や統計的手法による情報検索, 自然言語処理等に関する研究に従事. 言語処理学会, 情報処理学会各会員. 新納浩幸:1985 年東京工業大学理学部情報科学科卒業. 1987 年同大学大学院理工学研究科情報科学専攻修士課程修了. 同年富士ゼロックス, 翌年松下電器を経て, 1993 年より茨城大学工学部. 現在, 茨城大学工学部情報工学科教授. 博士 (工学). 機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会, 情報処理学会, 人工知能学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# 論文 ## 複数文質問を対象とした抽出型および生成型要約 \author{ 石垣達也 } インターネット上のコミュニティ QA サイトや学会での質疑応答の場面などにおいて, 人々は多くの質問を投げかける。このような場面で用いられる質問には, 核となる質問に加え補足的な情報をも付与され, 要旨の把握が難しくなることもある。補足的な情報は正確な回答を得るには必要であるが, 質問の要旨を素早く把握したいといった状況においては必ずしも必要でない。そこで本稿では, 新たなテキスト要約課題として, 複数文から構成される質問テキストを単一質問文に要約する“質問要約”を提案する。本研究ではまず,コミュニティ質問応答サイトに投稿される質問から質問テキストー要約対を獲得し, 必要な要約手法について抽出型および生成型の観点から分析を行う。また,獲得した質問テキストー要約対を学習データとして抽出型および生成型の要約モデルを構築し, 性能を比較する. 分析より, 抽出型要約手法では要約できない質問テキストの存在を確認した。また要約モデルの比較実験から, 従来の要約課題で強いベースライン手法として知られるリード文よりも,先頭の疑問文を規則を用いて同定し抽出するリード疑問文べースラインがより良い性能を示すこと, 生成型手法であるエンコーダ・デコーダモデルに基づく要約手法が,ROUGEによる自動評価,人間による評価において良い性能を示すことなどの知見を得た。また,入力中の出現単語を出力に含めるコピー機構を持つエンコーダ・ デコーダモデルは,さらに良い性能を示した。 キーワード : 文書要約, 抽出型要約, 生成型要約, ニューラルネットワーク ## Extractive and Abstractive Summarization for Multiple-sentence Questions \author{ Tatsuya IShigAKI ${ }^{\dagger}$, Hiroya TAKAMuRA ${ }^{\dagger+, \dagger \dagger \dagger}$ and Manabu OKUMURA ${ }^{\dagger \dagger \dagger}$ } Questions are asked in many situations such as sessions at conferences and inquiries through emails. In such situations, questions can be often lengthy and hard to understand, because they often contain peripheral information in addition to the main focus of the question. Thus, we propose the task of question summarization. In this research, we firstly analyzed question-summary pairs extracted from a Community Question Answering (CQA) site, and found that there exists the questions that †東京工業大学大学院総合理工学研究科知能システム科学専攻, Department of Computational Intelligence and System Science, Interdisciplinary Graduate School of Science and Engineering, Tokyo Institute of Technology †† 産業技術総合研究所人工知能研究センター, Artificial Intelligence Research Center (AIRC), National Institute of Advanced Industrial Science and Technology (AIST) †† 東京工業大学科学技術創成研究院未来産業技術研究所, Laboratory for Future Interdisciplinary Research of Science and Technology (FIRST), Institute of Innovative Research (IIR), Tokyo Institute of Technology cannot be summarized by extractive approaches, but abstractive approaches are required. We created a dataset by regarding the question-title pairs posted on a CQA site as question-summary pairs. By using the data, we trained extractive and abstractive summarization models, and compared them based on the ROUGE score and manual evaluation. Our experimental results show an abstractive method, the encoder-decoder with the copying mechanism, achieves better scores both on ROUGE2 F-measure and the evaluation by human judges. Key Words: Summarization, Extractive Summarization, Abstractive Summarization, Neural Networks ## 1 はじめに 学会での質疑応答や電子メールによる問い合わせなどの場面において,質問は広く用いられている。このような質問には,核となる質問文以外にも補足的な情報も含まれる.補足的な情報は質問の詳細な理解を助けるためには有益であるが,要旨を素早く把握したい状況においては必ずしも必要でない,そこで,本研究では要旨の把握が難しい複数文質問を入力とし,その内容を端的に表現する単一質問文を出力する“質問要約”課題を新たに提案する. コミュニティ質問応答サイトである Yahoo! Answersら抜粋した質問の例を表 1 に示す. この質問のフォーカスは“頭髪の染料は塩素によって落ちるか否か”である。しかし, 質問者が水泳をする頻度や現在の頭髪の色などが補足的な情報として付与される。このような補足的な情報は正確な回答を得るためには必要であるが,質問内容をおおまかに素早く把握したいといった状況においては, 必ずしも必要でない.このような質問を表 1 に例示するような単一質問文に要約することにより, 質問の受け手の理解を助けることが出来る,本研究では,質問要約課題の一事例としてコミュニティ QA サイトに投稿される質問を対象テキストとし,質問への回答候補者を要約の対象読者と想定する。 表 1 複数文質問とその要約 ## 質問: I'm a swimmer for my school swim team and I practice two hours a day, five days a week. I would like to dye my hair black (it is dark brown now) but I am wondering whether the chlorine will stripe it. Will it or will it not?要約: 1. Will the chlorine stripe my hair ? 2. Affect of the chlorine on my hair dyeing. ^{1}$ https://answers.yahoo.com/ } テキスト要約課題自体は自然言語処理分野で長く研究されている課題の一つである. 既存研究は要約手法の観点からは,大きく抽出型手法と生成型手法に分けることができる。抽出型手法は入力文書に含まれる文や単語のうち, 要約に含める部分を同定することで要約を出力する.生成型手法は入力文書には含まれない表現も用いて要約を生成する。一方で,要約対象とするテキストも多様化している。 既存研究の対象とするテキストは, 従来の新聞記事や科学論文から,最近では電子メールスレッドや会話ログなどに広がり,それらの特徴を考慮した要約モデルが提案されている. (Duboue 2012; Oya and Carenini 2014; Oya, Mehdad, Carenini, and Ng 2014) 質問を対象とする要約研究としては Tamura, Takamura, and Okumura (2005)の質問応答システムの性能向上を指向した研究が存在する。この研究では質問応答システムの構成要素である質問タイプ同定器へ入力する質問文を入力文書から抽出する。本研究では, 彼らの研究とは異なり,ユーザに直接提示するために必要な情報を含んだ要約の出力を目指す。ユーザに直接提示するための質問要約課題については, 既存研究では取り組まれておらず, 既存要約モデルを質問テキストに適用した場合の性能や,質問が抽出型手法で要約可能であるか,生成型の手法が必要であるか明らかでない,そこで,本研究ではコミュニテイ質問応答サイトに投稿される質問テキストとそのタイトルの対(以後,質問テキストータイトル対と呼ぶ)を,規則を用いてフィルタリングし, 質問テキストとその要約の対(以後, 質問テキスト-要約対と呼ぶ)を獲得する. 獲得した質問テキストー要約対を分析し, 抽出型および生成型の観点から質問がどのような手法を用いて要約可能であるか明らかにする。 また, 質問要約課題のために,ルールに基づく手法, 抽出型要約手法, 生成型要約手法をいくつか構築し性能を比較する. ROUGE (Lin 2004)を用いた自動評価実験および人手評価において,生成型手法であるコピー機構付きエンコーダ・デコーダモデルがより良い性能を示した。 ## 2 質問要約課題 本稿で提案する “質問要約”についてその特徴や既存要約課題との相違について議論する。本研究で扱う質問要約はテキスト要約課題の一つである. 既存のテキスト要約研究では, Document Understanding Conference (DUC)2 などの新聞記事や科学論文をもとにした共通のデータセットがしばしば性能評価実験に用られてきた。本研究で扱う質問要約は質問テキストを要約対象とし,出力を単一質問文に限定する. はじめに入力の質問テキストの特徴について述べる。質問要約は従来の新聞記事や科学論文を基に作られたテキストを想定する要約課題とは以下の点において異なる特徴を持つ.  (1) 質問文と叙述文が混在する(個別の文の性質の違い) (2) 質問文を叙述文が補足する文間関係を持つ(談話構造の違い) 前者については, 新聞記事や科学論文には質問文がほとんど含まれないのに対し, 質問テキストでは多くの場合 1 文以上の質問文を含む。そのため,文書中に含まれる文そのものの性質が従来の要約対象とは性質を持つ。後者は文間の関係に着目した相違点である。新聞記事ではリー ド文を他の文から補足する談話構造がしばしばみられるのに対し,質問テキストでは核となる質問文が存在し,質問文以外の文が核となる質問文を補足する。よって,文そのものの性質の違いに加え,質問テキストは文間の意味的な関係(談話構造)も異なる。このように,個別の文の性質や談話構造に関し従来の要約課題とは異なる特徵を持つことから, 例えば従来の要約課題において強いベースライン手法として知られるリード法やその他の既存手法が,質問テキストに対しどの程度の性能を示すかはそもそも明らかではない. 次に出力の単一質問文が満たすべき性質について議論する。本研究では質問テキストの一事例としてインターネット上でのコミュニティ質問応答サイトに投稿される複数文質問の要約を想定する。生成した要約を回答者候補に提示することで,回答者候補は質問内容が回答可能であるか素早く判断できるようになる。このような目的を鑑み, 本研究では入力として複数文質問,出力は質問内容を端的に表現した単一質問文を考える。例えば,表 1 に示す複数文質問に対する正解要約としては, “Will the chlorine stripe my hair?(塩素によって髪の染料が落ちますか?)"といった疑問文だけでなく, "Affect of the chlorine on my hair dyeing. (プール中の塩素の染髪への影響)”といった表現も正しい要約と考える.前者は「末尾が?であるか」「先頭の語が助動詞であるか」などの単純な規則を用いて同定できる。後者は質問内容を推測できるが,パターンが無数にあり単純な規則ではこれらを同定できない. 本研究ではどちらの表現も要約とみなす。後者まで含んだ広い表現を質問文と呼び,単純な規則で同定可能な前者を疑問文と呼び区別する。 ## 3 関連研究 テキスト要約の既存研究は多く存在する.DUC に代表される多くのタスクなど,既存研究の多くは新聞記事や科学論文を対象としている。近年では, 会話テキストや電子メールスレッドを対象とした新たな要約課題も提案されている (Duboue 2012; Oya and Carenini 2014; Oya et al. 2014). 本研究に関連する取り組みとして, 質問応答システムのための質問要約研究が存在する. Tamura et al. (2005) は, 複数文で構成される質問を入力として受け付ける, 質問応答システムの構築を目指した. この研究では, 複数文質問からもっとも核となる 1 文を抽出する要約器を質問応答システムの前処理として組み込むことで,複数文質問を受け付けるシステムを実現している。 彼らは複数文質問を単一質問文に要約することで,質問応答システムの質問タイプ同定器の性能が向上することを報告している。一方,抽出した核となる質問文は常にユーザの理解できる情報を含むとは限らない,例えば,表 1 における核文は “Will it or will it not?”であるが,この文には chroline や hair などといった質問内容を把握するために必要となる単語が含まれず,要約として提示するには情報が不足する。本研究は,ユーザに提示するための要約を出力を指向するため目的が異なる. 抽出型要約モデルの既存研究としては, 単語出現頻度を用いて文にスコアを与える手法 (Luhn 1958)や, 文同士の類似度を用いて重要文を同定するヒューリスティックを用いる手法 (Mihalcea and Tarau 2004) などが提案されている. さらに,文に対し抽出した場合の ROUGE 値を回帰モデルを用いて予測するモデル (Peyrard and Eckale-Kohler 2016; Li, Qian, and Liu 2013) や, 要約に含めるべき文を二值分類する分類問題として定式化する教師あり学習を用いる手法 (Hirao, Isozaki, Maeda, and Matsumoto 2002; Shen, Sun, Li, Yang, and Chen 2007) も存在する. 生成型要約としては, 入力の談話構造木を枝刈りする手法 (Dorr, Zajic, and Schwartz 2003; Zajic, Dorr, and Schwartz 2004) や,機械翻訳モデルを用いる手法 (Bank, Mittal, and Witbrock 2010; Woodsend, Feng, and Lapata 2010; Cohn and Lapata 2013),テンプレートを用いる手法 (Oya et al. 2014) などが存在する。近年では, 機械翻訳課題向けに提案されたエンコーダ・デコーダモデル (Luong, Pham, and Manning 2015; Bahdanau, Cho, and Bengio 2014)を要約課題に適用する手法 (Rush, Chopra, and Weston 2015; Kikuchi, Neubig, Sasano, Takamura, and Okumura 2016; Gu, Lu, Li, and Li 2016) が積極的に研究されている. ## 4 質問応答サイトからの質問テキストー要約対獲得と分析 本研究ではまず, Yahoo! Answers Comprehensive Question and Answers version 1.03 を対象に事例分析を行う. Yahoo! Answersにおいて, ユーザは自由に質問テキストとそのタイトルを記述し投稿する。このデータセットには $4,484,032$ の質問投稿が含まれる. 質問投稿の中には質問テキストータイトル対を質問テキストー要約対とみなせる事例もあれば,みなせない事例も存在する。そのため,データセット内の質問テキストータイトル対を,規則を用いてフィルタリングし, 質問テキストー要約対を獲得する必要がある。その上で, 獲得した質問テキストー 要約対を必要な要約手法の検討のための分析および要約モデルの比較実験における学習データに用いる。よって, 本研究では以下の二段階でデータセットの分析を行う. (1) 質問テキスト-要約対とみなすことのできる質問テキストータイトル対の特徴はなにかを明らかにし,質問テキストー要約対を獲得する。  (2)質問テキストー要約対を分析し, 抽出型の手法で要約可能か, 生成型の手法が必要であるか明らかにする。 ## 4.1 分析 1: 質問の長さ 質問テキスト - 要約対とみなすことのできない事例をフィルタリングする規則を設計するために,まず質問に含まれる文数に着目した分析を行った。質問テキストが 1 文から 5 文で構成される事例をデータセットからランダムに 20 事例ずつ抽出し, それらの質問テキストータイトル対を質問テキストー要約対とみなすことができるか否かを人手で判定した. 表 2 に結果を示す. 質問テキストの長さが 1 文もしくは 2 文の場合には, 質問テキスト-要約対とみなすことのできない事例が増える。このような事例においては, タイトルに核となる質問文が記述され,質問テキスト中では補足的な内容だけが記述され,質問文を含まない例が見られる。質問テキストでは質問文が記述されないため,質問テキストータイトル対を質問テキストー要約対とみなすことができない. 一方, 3 文以上から構成される質問テキストにおいては質問テキストー 要約対とみなすことのできる事例が一定になる. ## 4.2 分析 2: 質問テキストとタイトルでの名詞の重複 次に質問テキストとタイトルでの名詞の重複に着目した分析を行った。 以下に質問テキストー 要約対とはみなすことのできない事例を示す. タイトル: Why is there often a mirror in an elevator? 質問テキスト: I just realized this when I was in an elevator. Does anybody know the reason? What is the history behind it? この事例では,質問テキスト中の“it”は“エレベータ内に鏡が存在する”という事実を指し示す. “it”が何を指し示すかを理解するには “elevator” “mirror”といった重要な単語が質問テキスト中に含まれている必要がある。しかし, “mirror”という単語はタイトルには出現する 表 2 質問テキスト中の文数と質問テキスト-要約対とみなせる事例の割合 が質問テキストには出現しない. そのため, 質問テキストを要約器の入力として, タイトルの “Why is there often a mirror...” という要約を生成することはできない. データセット中では, この例のように質問テキストからタイトル中の単語を照応したり, タイトル中の単語が質問テキストを理解するために不可欠である事例を多く観測した。このような事例をフィルタリングするために, 我々はタイトルと質問テキストでの単語の重複がフィルタリングのための重要な手がかりとなると考えた。 ## 4.3 分析 3: 抽出型 vs. 生成型 次に必要な要約手法に着目した分析を行った。,具体的には質問テキストー要約対とみなすことのできる事例について, 抽出型手法を用いて要約可能であるか, 生成型手法が必要であるか人手で分類した.質問テキストの文数が $3-5$ 文である 20 事例を無作為に抽出し,質問テキストー要約対とみなせるか否かについて分析を行った. 分析の結果を表 3 に示す.また,代表的な質問テキストータイトル対の例を表 4 に示す. 20 事例中 5 事例は質問テキストー要約対とはみなせない事例であった. 20 事例中 8 事例は抽出型手法でタイトルと同等の要約を生成できることがわかった. 表 4 の例 2-1 および例 2-2 に抽出型手法により要約可能な事例を例示する. 例 2-1において, 2 文目の疑問文を抽出することで夕イトルと同等の要約を出力できる。例 2-2 は先頭文を抽出することでタイトルと同等の要約を生成できる。しかし, 実際のタイトルでは “Can someone tell me”といった表現が除去されたり, 本文中での “cellular phone promotion” という具体的な表現が “cellular phone plan”というより抽象的な表現に言い換えられている。このように, 抽出型手法が適用できる質問テキストであっても実際のタイトルは生成的に作られている場合がある. 残りの 7 事例については, 抽出型手法では適切な要約を出力できず, 生成型手法を必要とする. 生成型手法が必要な理由としては, 例 3 のように照応解析が必要であったり, 例 4 のように複数文にまたがる情報を適切に埋め込む必要のある事例が存在する。このような事例に対しては, 抽出的な手法をたた適用するだけでは, 要旨の把握に必要な情報を適切に要約に含めることが出来ない. 表 3 手法検討のための事例分析 表 4 Yahoo! Answers Comprehensive Question and Answers version 1.0 に含まれる代表的な質問テキストータイトル対 例 1 (タイトルが質問テキストの内容を含まない): I accidentally spilled buttered popcorn on my leather hospital shoe. It has dark spots on it now and I don't know how i can get them off. .. タイトル:Please help! 例 2-1 (抽出型手法によって要約可能で, タイトルも抽出的に作成): I have not been smoking for six months now, with a small interruption of one week where I smoked like three cigarettes a day, but I did not feel anything anymore then! What is the best way to start smoking again? I am living in an appartment complex that prohibits smoking even inside. タイトル: What is the best way to start smoking again? 例 2-2 (抽出型手法によって要約可能で, タイトルは生成的に作成): Can someone tell me the best cellular phone promotion in the bay area? A promotion that you run into recently (e.g., local stores)? Or, a web-site promotion that you find (e.g., amazon)? I had a family plan with Cingular and would like to get a good deal when I renew or switch to a new provider. タイトル : Best cellular phone plan in the bay area? 例 3 (生成型手法が必要 1): "The Simpsons" is one of the funniest shows ever . It's one of my favorites . Do you like it? タイトル:Do you like “The Simpsons”? 例 4 (生成型手法が必要 2): I want my chocolate chip cookies to be thicker and kind of gooey-crispy outside, chewy inside. I've experimented with various recipes and various oven temperature, but my cookies always turn out thin and flat. Why? What am I doing wrong? タイトル: Why do my chocolate chip cookies always turn out thin and flat? ## 5 データと比較手法 本節では以上の分析をもとに,データセットに含まれる質問テキストータイトル対をフィルタリングし, 抽出型および生成型の要約モデルを実際に構築し質問要約課題に適用した場合の性能を比較する。 ## 5.1 データセット ## 5.1.1規則によるフィルタリング 分析に基づき設計した以下の条件を満たす事例をフィルタリングし, 質問テキスト-要約対とみなすことのできない事例を除外する.表5に示すように,Yahoo! Answers データセットにはタイトルのみが記述され質問テキストが記述されない事例が多く存在する。データセット全 表 5 Yahoo! Answers dataset 全体に含まれる質問テキストの長さ 0 文はタイトルのみが記述され,質問テキストが存在しない投稿を示す. 体の $4,483,031$ 投稿のうち, 質問テキストおよびタイトルの双方が記述された $2,191,477$ 投稿について以下の規則を逐次適用し,フィルタリングを行い,質問テキスト-要約対を獲得する. タイトルが複数文で構成されるタイトルが 2 文以上で構成される事例短い質問テキスト質問が 2 文以下である事例単語の重複タイトル中の名詞が本文中に出現しない事例短いタイトル, 長いタイトルタイトルが 3 単語以下, 16 単語以上の事例 これらの規則を設定した根拠について補足する. 複数文から構成されるタイトルを含む投稿をフィルタリングするのは, 本課題が単一質問文への要約課題であることがその理由である.短い質問テキストによるフィルタリングは, 質問テキスト-要約対となりやすいのは 3 文以上の質問テキストであることであるという 4 節での分析に基づく. 単語の重複についてのフィルタリングも同様に,4節での分析に基づいている. これらの分析に基づくフィルタリングに加え,「短いタイトル」および「長いタイトル」によるフィルタリングも用いる。もっとも単純な疑問文の構文である “What is xx ?” や “Is this xx ?" は最低でも 4 単語必要とする. そのため, 3 単語以下の夕イトルには必要な情報が含まれていないと考えた。夕イトルが 3 語以下で構成される質問テキストータイトル対をランダムに 20 事例抽出し調査すると, 抽出したすべての夕イトルで “difficult question?”, “Question on Pokemon”といったように, 回答者が回答可能であるか判断するための情報が欠如していた。 よって,短いタイトルを含む事例はフイルタリングすることにした. Yahoo! Answers において記述される 15 単語以下で記述されるタイトルは全体の $81 \%$ 占める。残りの $19 \%$ の部分に関してはタイトルが長く圧縮率が低いと考えフィルタリングすることにした. なお,タイトルが疑問文であるかといった手がかり語などの規則を用いたフィルタリングは行わない. タイトルの表現には “How the Bordaux Classification was born ?” などのように疑問詞や末尾の?などで容易に疑問文であると同定できる事例もあれば, “The best way to kill ants." や “Hotel Recommendations in San Diego” のように? や疑問詞を含まないものが存在し, 本研究ではこのような事例も要約とみなす。このような表現には多くのパターンが存在するため,質問文であるか否か判定する網羅的な規則を記述するのが難しい,そこで,本研究では質問文を同定する網羅的な規則を設計するのではなく,夕イトルの長さや質問テキストとタイトルの重複などの手がかりを用いてフィルタリングを行う方針を採用した. すべての規則を適用後,251,420対を獲得した。 タイトルを要約とみなした場合の圧縮率は 0.18 である. これらの事例を抽出型および生成型手法の学習および評価に用いる. ## 5.1.2 データセットの妥当性検証 フィルタリング後のデータセットを先頭から 50 事例抽出し, 分析すると 50 事例中 41 事例 $(88 \%)$ が本研究で想定する質問テキスト - 要約対とみなせる事例であった. 質問テキストー要約対とみなすことのできない $12 \%$ 程度(9 事例)は以下に示す要因によりノイズとしてデータセットに含まれている. ・ 質問タイトルから本文の語を照応する,またはその逆である(3事例) ・タイトルもしくは本文のいずれかが質問ではない(3事例 $)$ - その他 $(3$ 事例 $)$ その他の要因には, タイトルと本文がフォーカスの異なる質問 ( 2 事例), 抽象的で質問内容が類推できないタイトル(1 事例)が存在する. 次に,人間が質問テキストを提示され作成する要約と,本研究で要約とみなすコミュニティ QA サイトに付与されたタイトルがどの程度近いものになっているか分析を行う.フィルタリング後のデータから 10 事例を抽出し, 質問テキストを 10 人の作業者に提示し要約作成を依頼した。具体的には,クラウドソーシングサービスである Amazon Mechanical Turk4で,米国の高校および大学を卒業した作業者に依頼した。なお, 作業者には要約とみなすタイトルの例をいくつか提示した上で, 15 単語以内で要約を記述するよう指示した. 表 6 にクラウドソーシングによって作成した要約の実例と, 本研究で要約とみなすタイトルを示す. 例 1 は抽出型手法により要約可能な事例, 例 2 は生成型手法が必要な事例である. 例 1 , 例 2 ともにタイトルと作業者によって記述された要約のフォーカスは同等である. 具体的には例 1 では,“薬物を用いずにアリを退治する方法”, 例 2 では “中国で体調不良を避けるアドバイス”であるが,タイトルおよび人間による要約は同等のフォーカスを持つ質問文である.例 1 は 1 文目を抽出することで 16 単語以内の要約が作成可能な事例であるが, すべての作業者が言い換えを用いてより短い要約を作成した。正解タイトルも作業者の要約と同様に,質問テキスト中の “What are some good ways"を “Good ways” と単語除去により短い記述になっている.例 2 は体調不良の原因を食べ物だけにフォーカスする(質問テキストの前半部分の食べ物に関する記述を重視)か,旅行中を通して体調不良を起こさない方法にフォーカスする(後半の疑問文が食べ物以外の体調不良の要因も考慮すると考える)かによって,作成される要約が異なる. 作業者 1 , 作業者 3 , 作業者 5 による要約およびタイトルはフォーカスを食べ物には限定しない要約となっている。 ^{4}$ https://www.mturk.com/ } 表 6 クラウドソーシングにより作成した人間による要約とタイトルの比較 ## 例 1 (抽出型手法で要約可能な事例) 質問テキスト: What are some good ways to prevent/fight an ant invasion that don't involve poison? I am using baits but they seem inadequate. Borax is totally ineffective. タイトル: Good ways to fight an ant invasion without poison. クラウドソーシングによって作成した要約: 1. How do I get rid of ants without using poison? 2. Non-chemical ways to fight ants. 3. how to get rid of ants without using poison? 4. Any way to prevent ants that don't involve poison? 5. How can I combat an ant infestation without Borax or baits? ## 例 2 (生成的手法が必要な事例) 質問テキスト: I'm planning a trip to China. I'm an adventurous eater and I'd like to think my stomach can handle anything that I encounter that appeals to me. But I know that's risky! Is there anything in particular precautions I should take or things I should avoid to stay healthy on the trip? タイトル: How can I avoid getting sick in China? クラウドソーシングによって作成した要約: 作業者 1. Staying health during adventure in China. 作業者 2. when traveling to china what precautions should be taken before going and eating there? 作業者 3. Any precautions when traveling in China? 作業者 4. What are some food tips for staying healthy on my trip to China? 作業者 5. What are the risks of illness while traveling to China? これらの例のように,人間が質問テキストから作成する要約およびタイトルはどちらも本文中の表現を言い換えることが多い。そのため, 作業者間および作業者とタイトルを比較すると,完全に要約が一致するわけではない. しかし,そのような場合であっても多くの場合要約の質問文のフォーカスは同等となっている. ## 5.2 抽出型手法 抽出的な手法として,規則に基づく手法,機械学習に基づく手法を比較する。 ## 5.2.1 規則に基づく手法 規則に基づく手法として, “リード文”, “リード疑問文”, “末尾疑問文”の 3 手法を比較する. リード文を抽出する手法は従来の抽出型要約研究においては強いべースラインとして知られている。リード文を抽出する手法は表 4 の例 4 において, “I want my chocolote...” から始まる文 を抽出する。質問要約課題においては出力も質問文になると考えられるため,規則を用いて同定した疑問文のうちもっとも先頭を抽出するリード疑問文,もっとも末尾に出現する疑問文を抽出する末尾疑問文とも比較を行う。リード疑問文は表 4 の例 4 において, “Why?”, 末尾疑問文は “What am I dong wrong?” となる。なお,疑問文の判定には以下の規則を用いる. ・末尾の連続する記号に?を含む. - 先頭単語が疑問詞, be 動詞, 助動詞のいずれかである. なお, 規則を用いる手法であるリード疑問文, 末尾疑問文は疑問文が入力中に出現しない場合,先頭文を出力する。フィルタリング後のデータセットにおいて, 疑問文が存在しない文書の割 問文が 1 文以下である文書の割合は $63 \%$ でり,このような場合にはリード疑問文と末尾疑問文の出力が等しくなる. ## 5.2.2 機械学習に基づく手法 機械学習に基づく手法としては, 分類モデルに基づく手法, 回帰モデルに基づく手法の 2 つを比較する.機械学習に基づく手法についても,質問文を優先的に出力するように設計する.回帰モデルに基づく手法では,まず入力の各文に対し ROUGE-2 F 値の予測値を出力する Support Vector Regression (SVR) (Basak, Pal, and Patranabis 2007)を学習する。学習済みの回帰モデルを用いて, 入力の各文に対しROUGE-2 F 值を予測し, 予測値のもっとも高い質問文を出力する. 分類に基づくモデルは,まず抽出した場合に ROUGE-2 F 值が最大になる疑問文を正例(要約に含めるべき文),それ以外の文を負例(要約に含めるべきではない文)として Support Vector Machine (SVM) (Suykens and Vandewalle 1999) を学習する。学習したSVM を用い,入力の各文を分類し正例と判定された文のうち先頭を出力する.SVMの出力は二値のラベルであり,回帰モデルのようにスコア最大となる疑問文に限定する後処理と組み合わせることができない. そこで, 本研究では正例を疑問文に限定し, 質問文を優先的に出力するような分類器が学習されるよう工夫する。なお, 分類モデルはすべての文が負例と判定された場合には, 先頭文を出力する. SVR,SVM の学習には以下の素性を用いた. - 単語 uni-gram - 文長 - 分類対象文が 1 文目であるか - 分類対象文が先頭の疑問文であるか - 分類対象文の他に疑問文が存在するか すべての素性は二値素性として表現した。また, 単語 uni-gram 素性については訓練データ中 に 5 回以上出現する単語を用いた。文長素性については, 文長が 2 単語以下, 5 単語以下, 11 単語以上, 15 単語以上の 4 つの素性に分けて二値で表現した. ## 5.3 生成型手法 本研究では生成的な手法としてエンコーダ・デコーダモデル, 注意機構付きエンコーダ・デコーダモデル,コピー機構付きエンコーダ・デコーダを学習し,比較を行う。 入力質問テキストは機械翻訳などの問題設定に比べ入力系列が長い. そのため, エンコーダ・ デコーダモデルに加え,注意機構付きエンコーダ・デコーダモデルを用い, 入力系列のうちデコード時に手がかりになる箇所に重みを付けながら要約を生成する。エンコーダ・デコーダモデルの学習においては低頻度語をUNK という特別なトークンに置き換え, 効率的に学習を行うという工夫がよく用いられる。そのため, 出力にUNK というトークンが含まれる状況がしばしば発生し,このような系列は要約としてそのまま提示することができない.質問要約においては,入力質問テキストに出現する単語が出力にも含まれることが多い. そこで, 出力に入力質問テキストの単語を用いるコピー機構付きエンコーダ・デコーダモデルとの比較も行う. エンコーダ・デコーダおよび注意機構付きエンコーダ・デコーダモデルには, Luong et al. (2015)の手法を用いる. コピー機構付きエンコーダ・デコーダには Gu et al. (2016)の手法を用いる。以下にこれらのモデルを簡単に説明する。 ## エンコーダ・デコーダモデル エンコーダ・デコーダモデルは,エンコーダおよびデコーダという 2 つ要素から構成される. エンコーダは, 入力質問テキスト $\boldsymbol{x}=\left(x_{1}, \ldots, x_{n}\right)$ から 1 単語ずつ受け取り, 連続值ベクトルによる内部状態 $\boldsymbol{h}_{\tau}$ に, Recurrent Neural Network (RNN) を用いて逐次変換する: $ \boldsymbol{h}_{\tau}=f\left(x_{\tau}, \boldsymbol{h}_{\tau-1}\right) $ fには Long Short-Term Memory (LSTM) (Hochreiter and Schmidhuber 1997) や Gated Recurrent Unit (GRU) (Cho, van Merrienboer, Gulcehre, Bahdanau, Bougares, Schwenk, and Bengio 2014) などの関数を用いることができる,本研究では,元論文の設定に従い,エンコーダ・デコーダモデルおよび注意機構付きエンコーダ・デコーダモデルでは LSTM を用い,コピー機構付きエンコーダ・デコーダモデルでは GRU を用いる. デコーダは 1 つ前のタイムステップで生成された単語および内部状態を受け取り, 現在の夕イムステップでの内部状態 $s_{t}$ を計算する。計算した内部状態を用いて softmax 関数により単語 $y_{t}$ の生起確率を計算できる。なお, デコーダの初期状態には入力質問テキスト中の単語をすべてエンコードし終えたときの最終状態 $\boldsymbol{h}_{n}$ を用いることにする: $ \begin{gathered} \boldsymbol{s}_{t}=f\left(y_{t-1}, s_{t-1}\right) \\ p\left(y_{t} \mid y_{<t}, \boldsymbol{x}\right)=\operatorname{softmax}\left(g\left(s_{t}\right)\right) \end{gathered} $ $\boldsymbol{x}$ が与えられた上での, 出力要約 $\boldsymbol{y}$ が生起する条件付き確率は, 以下のように出力単語の生起確率の積に分解される: $ p(\boldsymbol{y} \mid \boldsymbol{x})=\prod_{t=1}^{m} p\left(y_{t} \mid y_{<t}, \boldsymbol{x}\right) $ ただし,この確率の最大値を求めることは困難であるので,貪欲法により前から確率最大の単語を出力することで,要約を生成する. 学習時には訓練データにおける対数尤度を最大化するよう重みを更新する: $ \log p(\boldsymbol{y} \mid \boldsymbol{x})=\sum_{t=1}^{m} \log p\left(y_{t} \mid y_{<t}, \boldsymbol{x}\right) $ ## 注意機構付きエンコーダ・デコーダ エンコーダ・デコーダでは,入力の文書を逐次エンコードし,最終状態 $\boldsymbol{h}_{n}$ を文脈ベクトル $\boldsymbol{c}$ としてデコーダに渡す。そこで,注意機構付きエンコーダ・デコーダモデルでは,デコード時にエンコーダ側のどの単語に注意するかを考慮した重み付き文脈べクトル $c_{t}$ を考える: $ \boldsymbol{c}_{\boldsymbol{t}}=\sum_{\tau=1}^{n} \alpha_{t \tau} \boldsymbol{h}_{\tau} $ $\alpha_{t \tau}$ は入力質問テキストの $t$ 番目の単語に与えられる重みで,以下のように softmax 関数を用いて計算される: $ \alpha_{t \tau}=\frac{\exp \left(\boldsymbol{s}_{t} \cdot \boldsymbol{h}_{\tau}\right)}{\sum_{h^{\prime}} \exp \left(\boldsymbol{s}_{\boldsymbol{t}} \cdot \boldsymbol{h}^{\prime}\right)} $ 入力側の重み付き文脈ベクトル $\boldsymbol{c}_{\boldsymbol{t}}$ と $\boldsymbol{h}_{t}$ を用いて, 入力単語への注意を考慮した内部状態 $\tilde{\boldsymbol{h}}$ を以下のように計算し, softmax 関数で確率値を出力する: $ \begin{gathered} \tilde{\boldsymbol{h}}=\tanh \left(\boldsymbol{W}_{\boldsymbol{c}}\left[\boldsymbol{c}_{\boldsymbol{t}} ; \boldsymbol{h}_{\boldsymbol{t}}\right]\right), \\ p\left(y_{t} \mid y_{<t}, \boldsymbol{x}\right)=\operatorname{softmax}\left(\boldsymbol{W}_{\boldsymbol{s}} \tilde{\boldsymbol{h}}_{\boldsymbol{t}}\right) . \end{gathered} $ ## コピー機構付きエンコーダ・デコーダ 要約課題においては, 入力に含まれる単語が出力にも出現することが多い. そこで, 入力中の単語を出力により含めやすくするコピー機構を備えたデコーダを用い要約生成を試みる.Gu ら (2016) の提案したコピー機構付きのデコーダでは, 単語 $y_{t}$ の生起確率を以下のように score $g_{g e n}$ と score $_{\text {copy }}$ の和として計算する: $ p\left(y_{t} \mid y_{<t}, \boldsymbol{x}\right)=\text { score }_{\text {gen }}\left(y_{t} \mid \boldsymbol{s}_{t}, y_{t-1}, \boldsymbol{c}_{t}, \boldsymbol{x}\right)+\operatorname{score}_{\text {copy }}\left(y_{t} \mid \boldsymbol{s}_{t}, y_{t-1}, \boldsymbol{c}_{t}, \boldsymbol{x}\right) $ score $_{\text {copy }}$ は入力中の単語を出力に“コピー”するか否かをスコアリングする. 具体的には, $y_{t}$ が入力文書中に含まれる $\left(y_{t} \in \boldsymbol{x}\right)$ ならば, score $e_{\text {copy }}$ は単語 $y_{t}$ を要約に含める確信度をスコアリング関数 $\phi_{c}$ を用いて出力し, それ以外 $\left(y_{t} \notin \boldsymbol{x}\right)$ の場合には 0 を出力する: $ \operatorname{score}_{\text {copy }}\left(y_{t} \mid .\right)= \begin{cases}\frac{1}{Z} \sum_{j: x_{j}=y_{t}} \exp \left(\phi_{c}\left(x_{j}\right)\right) & \left(y_{t} \in \boldsymbol{x}\right) \\ 0 & \left(y_{t} \notin \boldsymbol{x}\right)\end{cases} $ score $_{\text {gen }}$ は単語 $y_{t}$ が語彙 $V$ に含まれる場合に, その単語を要約に含めるか否かの確信度をスコアアリング関数 $\phi_{g}$ を用いて出力する。単語 $y_{t}$ が語彙 $V$ に含まれない場合には, 特別なトーク UNK を出力する確信度を出力する。 ただし, 単語 $y_{t}$ が入力文書 $\boldsymbol{x}$ に含まれる場合には 0 を出力する: $ \text { score }_{g e n}\left(y_{t} \mid .\right)= \begin{cases}\frac{1}{Z} \exp \left(\phi_{g}\left(y_{t}\right)\right) & \left(y_{t} \in \boldsymbol{V}\right) \\ \frac{1}{Z} \exp \left(\phi_{g}(U N K)\right) & \left(y_{t} \notin \boldsymbol{x} \wedge y_{t} \notin \boldsymbol{V}\right) \\ 0 & \left(y_{t} \in \boldsymbol{x} \wedge y_{t} \notin \boldsymbol{V}\right)\end{cases} $ score $_{\text {copy }}$ は $y_{t} \in \boldsymbol{x}$ のときにスコアを出力し $y_{t} \notin \boldsymbol{x}$ のときに 0 になる. この機構により, 入力文書中に含まれる単語により高いスコアを付与し, 要約に含めやすくするようモデル化している. コピー機構付きのエンコーダ・デコーダでは score $_{g e n}$ と score copy の和は $Z=\sum_{v \in V \cup\{U N K\}}$ $\exp \left(\phi_{g}(v)\right)+\sum_{x \in \boldsymbol{x}} \exp \left(\phi_{c}(x)\right)$ により総和が 1 になるように正規化されるため, 確率として扱うことができる. スコアリング関数 $\phi_{c}$ および $\phi_{g}$ の構築についての詳細は元論文 (Gu et al. 2016) を参照されたい。 ## 6 実験 ROUGE-2 (Lin 2004)を用いた自動評価に加え,人間の評価者による 5 段階評価を用いて,各システムの性能を評価する. ## 6.1 実験設定 Yahoo! Answers Comprehensive Question and Answers version 1.0 をフィルタリングし獲得 パラメータ調整用の開発データ,評価データにそれぞれ分割した。 分類モデルおよび回帰モデルで用いる SVM, SVR の実装には Liblinear (Fan, Chang, Hsieh, Wang, and Lin 2008)を用いた. カーネルには線形カーネルを用い, モデルパラメータ $C$ は開発データでの ROUGE- 2 F 值が最大となる値に設定した. なお, 分類モデルの訓練データについては, 訓練デー夕全体を使うと正例および負例の割合が不均衡になり学習が難しい。そこで,訓練データ全体から正例および負例をランダムに 10,000 事例ずつサンプリングし正例,負例の割合が $1: 1$ になるよう調整し分類器を学習した. エンコーダ・デコーダの学習においては, 単語埋め込みベクトルおよび隠れ層の次元を 256 , バッチサイズは 64 に設定した。単語埋め込みベクトルは事前学習せず,他のモデルパラメータと同様に学習した。学習データに 1 回しか出現しない単語は UNK という特別なトークンで置換し,モデルパラメータ数を削減した。また, 文末は EOS という特別なトークンで表現している.テスト時には開発データでの損失関数の值が最小となるモデルを用い, 評価データでの性能評価を行った. エンコーダ・デコーダが 20 単語以内に EOSトークンを出力しない場合はデコードを中止し入力中の先頭の疑問文を出力する,入力中に疑問文が存在しない場合は, 先頭文を出力する.EOS トークンが 20 語以内に出力されない現象はコピー機構付きエンコーダデ ## 6.2 ROUGEによる自動評価 本研究の課題設定においては, 出力文数は 1 文という制約を課しているが文字数の制約はない.しかし,より短い文に適切な情報を埋め込んだ要約はより良い要約であると考えられる。 そこで, 本研究では ROUGE-2 の適合率による評価に加え ROUGE-2 F 值による評価を行う. 表 7 に各比較手法の ROUGE 値を示す. 具体的には規則に基づく手法としてリード文, リー ド疑問文,末尾疑問文,機械学習に基づく手法として分類モデル,回帰モデル,エンコーダ・デコーダに基づく手法として注意機構付きエンコーダ・デコーダ,コピー機構付きエンコーダ・ デコーダをそれぞれ示す. 回帰モデルについては, 文集合全体からスコアが最大になる文を選ぶモデルと,疑問文集合からスコア最大になる文を選ぶモデルの性能を示す. 規則に基づく手法において, リード疑問文を抽出する手法の ROUGE 値の適合率は 45.3 であり,末尾疑問文を抽出する手法の 42.6 やリード文を抽出する手法の 39.4 よりも良い性能を示した。 $\mathrm{F}$ 值でも同様の順で良い性能を示した。先頭文を出力する規則は既存の要約課題においては強いべースラインとして知られる。しかし, 質問要約課題においては先頭文を選択する手法より,リード疑問文や末尾疑問文など疑問文を優先的に出力するモデルのほうが良い性能を示 表 7 ROUGE-2 による性能評価 す.また,リード疑問文の方が末尾疑問文よりも適合率において良い性能を示した. 分類モデルとリード疑問文を比較すると,ROUGE 値の適合率がそれぞれ 44.3 と 44.7 であり,ほぼ同等の性能を示した。ほとんどの入力にはたかだか $1-2$ 文の規則で同定可能な疑問文しか含まれず,分類器を用いてもリード疑問文よりも大きく性能を向上させることが難しいものと考えられる。回帰モデルおよび分類モデルの性能は,適合率による評価においてリード疑問文ベースラインよりもわずかに低くなった。このことから,リード疑問文べースラインは質問要約課題において強いベースラインであることが分かる. また, 機械学習に基づく手法についても規則に基づく手法と同様に,質問文を優先的に選択するモデルが良い性能を示した. 注意機構を持たないエンコーダ・デコーダモデルについては適合率で 3.5 と極端に低い性能を示した. Luong et al. (2015) が述べるように,注意機構を持たないエンコーダ・デコーダモデルは入力系列が長くなると性能が劣化する. 本研究の入力は通常の機械翻訳の設定よりも長く,注意機構なしのエンコーダ・デコーダモデルでは正しくパラメータが学習されず,正しい要約を出力できなかった. 注意機構付きエンコーダ・デコーダでは, この問題が解決され適合率および $\mathrm{F}$ 值が 38.5 と規則に基づく手法や機械学習に基づく手法よりも良い性能を示した. コピー 機構付きエンコーダ・デコーダでは,適合率が $47.4, \mathrm{~F}$ 值が 42.2 とさらに性能が向上した. 抽出的な手法はエンコーダ・デコーダを用いた生成的な手法よりも長い単語列を出力する傾向にある。そのため,適合率では良い性能を示すが,F 值においては生成型よりも劣る。コピー機構付きエンコーダ・デコーダでは適合率でも $\mathrm{F}$ 値でも抽出型よりも良い性能を示した. ## 6.3 人手評価 本研究では ROUGE による自動評価に加え, クラウドソーシングサービスである Crowdflower ${ }^{5}$ を用いた人手評価でも各モデルの性能を比較する。本研究では, 英語として正 ^{5} \mathrm{http}$ ://crowdflower.com } しく, 入力の質問テキストと同じ事柄について尋ねる要約がより望ましいと考える.そのため,人手評価においては, 作業者に入力質問テキストと各モデルで生成した出力要約を提示し, “文法性”および “フォーカス”の 2 つの観点からより良い順に並べ替えるよう指示した. 手法間の文法性やフォーカスに差異が見られない場合には,同順としても良いこととした,評価者には「例えば QAコミュニティサイトでのタイトルでの利用を想定する」という応用先を伝えた. “文法性”は英語として正しい文法で記述されているか, “フォーカス”は入力質問テキストと出力要約の尋ねている事柄が等しいかを表す評価基準である。比較手法としては, 自動評価で良い性能を示した 4 つの手法を採用した。具体的には,人間による正解,規則を用いて抽出したリード疑問文, 分類器が正例と判定した文のうち先頭, コピー機構付きエンコーダ・デコーダを用いた。評価には自動評価で用いた評価データから無作為に抽出した 100 事例を用い, 各事例に対して 3 人の作業者が評価した。“文法性”, “フォーカス”の観点に基づく結果を表 8,9 にそれぞれ示す.この表では,行に示す各手法が列に示す手法よりもより良いと判定された回数を示している。例えば,人間によるタイトルはフォーカスの観点においてリード疑問文を抽出する手法よりも 135 回より良いと判定され, リード疑問文は人間によるタイトルよりも 69 回より良いと判定された。 人手評価では文法性,フォーカスどちらの観点においても自動評価と似た傾向を示した。具体的には,人間によるタイトル,コピー機構付きエンコーダ・デコーダモデル,リード疑問文および分類モデルの順でより良いと判定された。 入力質問テキストに含まれる規則で同定可能な疑問文はたかだ 1-2 文であることが多く, リード疑問文と分類モデルはほぼ同様の出力をした. そのため, 人手評価においても差が見られなかった. コピー機構と人間によるタイトルを比較すると,フォーカス,文法性の観点においてそれぞ 表 8 人手評価結果一文法性一 表 9 人手評価結果一フォーカスー 表 10 各手法の出力要約 れ 89 回, 69 回, コピー機構が人間のタイトルよりも良いと判定されている.このような事例の出力を分析すると, 人間の付与するタイトルには重要な単語まで除去しているものや, 完全な文ではない事例が含まれることがわかった。例えば,コピー機構が “How do you stop the itching after shaving?” と出力する事例に対し, 人間のタイトルでは “after shaving” が除去され, さらに短い要約となっている事例などでは,コピー機構の方がより正しいフォーカスを持つと判定された。また,人間のタイトルでは “The best way to get money?” など疑問詞を省略する事例がいくつか観測された。このような事例の文法性に基づく評価では, “What is the best way to get money?" など疑問詞を省略せずに出力する傾向のあるコピー機構よりも低く評価されている. ## 6.4 定性的分析 本節では,実際の出力例を基に定性的な分析を行う,表 10 に入力質問テキストと各モデルの出力例を示す. 抽出型手法であるリード疑問文や分類モデルでは,照応詞の “it” が含まれ, フォーカスが不明確となることがある。このような照応の問題が,フォーカスでのスコアを下げる要因の一つであると考えられる。この例から単一質問文に要約する課題設定においては,複数の文にまたがる情報をうまく組み合わせる必要があり, 抽出的手法では適切な要約を出力するのが難しいことが分かる.生成型の手法である注意機構付きエンコーダ・デコーダモデルでは, “The Sompsons”のような低頻度語は特別なトークンUNKとして出力され, ROUGE 值を下げる要因となっている。同様の問題が機械翻訳課題でも報告されており (Bahdanau et al. 2014), この問題を解決するコピー機構付きエンコーダ・デコーダモデルでは, “The Simpsons” という重要語を正しく出力に含められている. ## 7 おわりに 本研究では新たな要約課題として, 複数文から構成される質問テキストを入力とし, その内容を端的に表現する単一質問文に要約する “質問要約” 課題を提案した。コミュニティ質問応 答サイトの投稿を用いた事例分析において, 抽出型の手法では要約できない事例の存在を確認した。また,このデータをフィルタリングしたデータを用い,いくつかの抽出型および生成型要約モデルを構築し,比較した。先頭文を抽出する手法は既存の要約課題において強いべースラインとして知られるが,質問要約においては規則を用いて同定した疑問文のうち先頭を出力する手法より良い性能を示した。実験より,生成型の要約モデルがROUGE-2 F 値においてより良い性能を示すことがわかった。構築した手法は人間によるタイトルよりもROUGE 値および人手評価において,低い性能を示していることから,質問要約課題にはさらなる性能向上の余地が残されていると考える。 ## 謝 辞 本稿は IJCNLP2017 に採録済みの論文を基にしたものです (Ishigaki, Takamura, and Okumura 2017). 本研究は JST さきがけ JPMJPR1655 の助成を受けたものです. ## 参考文献 Bahdanau, D., Cho, K., and Bengio, Y. (2014). "Neural Machine Translation by Jointly Learning to Align and Translate." CoRR. abs/1409.0473. Bank, M., Mittal, V. O., and Witbrock, M. J. (2010). "Headline Generation Based on Statistical Translation." In Proceedings of ACL2010, pp. 318-325. Basak, D., Pal, S., and Patranabis, D. C. (2007). "Support Vector Regression." Neural Information Processing-Letters and Reviews, 11 (10), pp. 203-224. Cho, K., van Merrienboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., and Bengio, Y. (2014). "Learning Phrase Representations using Rnn Encoder-decoder for Statistical Machine Translation." In Proceedings of EMNLP2014, pp. 1724-1734. Cohn, T. and Lapata, M. (2013). "An Abstractive Approach to Sentence Compression." ACM Transactions on Intelligent Systems and Technology (TIST), 4 (3), p. 41. Dorr, B., Zajic, D., and Schwartz, R. (2003). "Hedge trimmer: A Parse-and-trim Approach to Headline Generation." In Proceedings of HLT-NAACL2003 Text Summarization Workshop, pp. 1-8. Duboue, P. A. (2012). "Extractive Email Thread Summarization: Can We Do Better Than He Said She Said?" In Proceedings of INLG2012, pp. 85-89. Fan, R.-E., Chang, K.-W., Hsieh, C.-J., Wang, X.-R., and Lin, C.-J. (2008). "LIBLINEAR: A Library for Large Linear Classification." Journal of Machine Learning Research, 9, pp. 1871-1874. Gu, J., Lu, Z., Li, H., and Li, V. O. (2016). "Incorporating Copying Mechanism in Sequence-toSequence Learning." In Proceedings of ACL2016, pp. 1631-1640. Hirao, T., Isozaki, H., Maeda, E., and Matsumoto, Y. (2002). "Extracting Important Sentences with Support Vector Machines." In Proceedings of COLING2002, pp. 1-7. Hochreiter, S. and Schmidhuber, J. (1997). "Long Short-Term Memory." Neural Computation, 9 (8), pp. 1735-1780. Ishigaki, T., Takamura, H., and Okumura, M. (2017). "Summarizing Lengthy Questions." In Proceedings of IJCNLP2017, Vol. 1, pp. 792-800. Kikuchi, Y., Neubig, G., Sasano, R., Takamura, H., and Okumura, M. (2016). "Controlling Output Length in Neural Encoder-Decoders." In Proceedings of EMNLP2016, pp. 1328-1338. Li, C., Qian, X., and Liu, Y. (2013). "Using Supervised Bigram-based ILP for Extractive Summarization." In Proceedings of ACL2013, pp. 1004-1013. Lin, C.-Y. (2004). "ROUGE: A Package for Automatic Evaluation of Summaries." In Proceedings of ACL2004 Workshop, pp. 74-81. Luhn, H. P. (1958). "The Automatic Creation of Literature Abstracts." IBM Journal of Research and Development, 2 (2), pp. 159-165. Luong, M.-T., Pham, H., and Manning, C. D. (2015). "Effective Approaches to Attention-based Neural Machine Translation." In Proceedings of EMNLP2015, pp. 1412-1421. Mihalcea, R. and Tarau, P. (2004). "TextRank: Bridging Order into Texts." In Proceedings of EMNLP2004, pp. 404-411. Oya, T. and Carenini, G. (2014). "Extractive Summarization and Dialogue Act Modeling on Email Threads: An Integrated Probalistic Approach." In Proceedings of SIGDIAL2014, pp. 133-140. Oya, T., Mehdad, Y., Carenini, G., and Ng, R. (2014). "A Template-based Abstractive Meeting Summarization: Leveraging Summary and Source Text Relationships." In Proceedings of INLG2014, pp. 45-53. Peyrard, M. and Eckale-Kohler, J. (2016). "Optimizing an Approximation of ROUGE-a Problem-Reduction Approach to Extractive Multi-Document Summarization." In Proceedings of ACL2016, pp. 1825-1836. Rush, A. M., Chopra, S., and Weston, J. (2015). "A Neural Attention Model for Sentence Summarization." In Proceedings of EMNLP2015, pp. 379-389. Shen, D., Sun, J.-T., Li, H., Yang, Q., and Chen, Z. (2007). "Document Summarization using Conditional Random Fields." In Proceedings of IJCAI2007, pp. 2862-2867. Suykens, J. A. and Vandewalle, J. (1999). "Least Squares Support Vector Machine Classifiers." Neural Processing Letters, 9 (3), pp. 293-300. Tamura, A., Takamura, H., and Okumura, M. (2005). "Classification of Multiple-Sentence Questions." In Proceedings of IJCNLP2005, pp. 426-437. Woodsend, K., Feng, Y., and Lapata, M. (2010). "Generation with Quasi-synchronous Grammar." In Proceedings of EMNLP2010, pp. 513-523. Association for Computational Linguistics. Zajic, D., Dorr, B. J., and Schwartz, R. (2004). "Bbn/umd at duc-2004." In Proceedings of NAACL-HLT2004 Document Understanding Workshop, pp. 112-119. ## 略歴 石垣達也:2012 年茨城工業高等専門学校専攻科情報工学コース修了. 2014 年年東京工業大学総合理工学研究科博士前期課程修了. 同年, 同大学博士後期課程に進学. 高村大也:1997 年東京大学工学部計数工学科卒業. 2000 年同大大学院工学系研究科計数工学専攻修了 (1999 年はオーストリアウィーン工科大学にて研究). 2003 年奈良先端科学技術大学院大学情報科学研究科博士課程修了. 博士 (工学)。2003 年から 2010 年まで東京工業大学精密工学研究所助教. 2006 年にはイリノイ大学にて客員研究員. 2010 年から 2016 年まで同准教授. 2017 年より同教授および産業技術総合研究所人工知能センター知識情報研究チー ム研究チーム長. 計算言語学, 自然言語処理を専門とし, 特に機械学習の応用に興味を持つ. 奥村学:1962 年生. 1984 年東京工業大学工学部情報工学科卒業. 1989 年同大学院博士課程修了. 同年, 東京工業大学工学部情報工学科助手. 1992 年北陸先端科学技術大学院大学情報科学研究科助教授, 2000 年東京工業大学精密工学研究所助教授, 2009 年同教授, 現在に至る. 工学博士. 自然言語処理,知的情報提示技術, 語学学習支援, テキスト評価分析, テキストマイニングに関する研究に従事. 情報処理学会, 電子情報通信学会, 人工知能学会, AAAI, ACL, 認知科学会, 計量国語学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
-
# ソーシャルメディアにおける単語の一般的ではない用法の検出 \begin{abstract} 青木 竜哉 $\dagger$ ・笹野 遼平 $\dagger \dagger \cdot$ 高村 大也 ${ }^{\dagger,+\dagger \dagger} \cdot$ 奥村 学 $\dagger,+\dagger \dagger \dagger$ ソーシャルメディアにおいては,辞書に掲載されているような用法とは全く異なる 使われ方がされている単語が存在する。本論文では,ソーシャルメディアにおける 単語の一般的ではない用法を検出する手法を提案する。提案手法では,ある単語が 一般的ではない使われ方がされていた場合,その周辺単語は一般的な用法として使 われた場合の周辺単語と異なるという仮説に基づいて,着目単語とその周辺単語の 単語ベクトルを利用し, 注目している単語の周辺単語が均衡コーパスにおける一般的な用法の場合の周辺単語とどの程度異なっているかを評価することにより,一般的ではない用法の検出を行う、ソーシャルメディアに打いて一般的ではない用法を 持つ 40 単語を対象に行った実験の結果,均衡コーパスと周辺単語ベクトルを用いる 提案手法の有効性を確認できた。また,一般的でない用法の検出においては,単語 ベクトルの学習手法, 学習された単語ベクトルの扱い方, 学習コーパスを適切に選択することが重要であることがわかった. キーワード:分散表現,Skip-gram, 非一般的用法 \end{abstract ## Detecting Nonstandard Word Usages on Social Media Tatsuya Aoki ${ }^{\dagger}$, Ryohei Sasano ${ }^{\dagger \dagger}$, Hiroya Takamura ${ }^{\dagger, \dagger \dagger \dagger}$ and Manabu Okumura ${ }^{\dagger, \dagger \dagger \dagger \dagger}$ We focus on nonstandard usages of common words on social media, where words, sometimes, are used in a totally different manner from that of their original or standard usage. In this work, we attempt to distinguish nonstandard usages on social media from standard ones in an unsupervised manner. We also constructed new Twitter dataset consisting of 40 words with nonstandard usages and then used the dataset for evaluation in an experiment. For this task, our basic idea is that nonstandard usage can be measured by the inconsistency between the target word's expected meaning and the given context. For this purpose, we use context embeddings derived from word embeddings. Our experimental results show that the model leveraging the context embedding outperforms other methods and also provide us with findings, for example, on how to construct context embeddings, and which corpus to use. Key Words: Word Embedding, Skip-gram, Non-standard Word Usage  ## 1 はじめに Twitter に代表されるソーシャルメディアにおいては,辞書に掲載されていない意味で使用されている語がしばしば出現する。例として,Twitter から抜粋した以下の文における単語「鯖」 の使われ方に着目する. (1)今日、久々に鯖 ${ }_{1}$ の塩焼き食べたよとても美味しかった (2)なんで、急に鯖 2 落ちしてるのかと思ったらスマップたっったのか (`q ${ }^{\prime}$ )文 (1) と文 (2)には,いずれも鯖という単語が出現しているが,その意味は異なり,文(1)における鯖 1 は, 青魚に分類される魚の鯖を示しているのに対し, 文 $(2)$ における鯖 2 は, コンピュー タサーバのことを意味している。ここで,「鯖」という語がコンピュータサーバの意味で使用されているのは,「鯖」が「サーバ」と関連した意味を持っているからではなく,単に「鯖」と 「サーバ」の読み方が似ているためである。このように,ソーシャルメディアにおいては,既存の意味から派生したと考えられる用法ではなく,鯖のような音から連想される用法,チートを意味する升のような既存の単語に対する当て字などの処理を経て使用されるようになった用法,企業名 Apple Inc. を意味する林檎など本来の単語を直訳することで使用されるようになった用法などが見られ,これらの用法は一般的な辞書に掲載されていないことが多い. 文 (2)における鯖 2 のように,文中のある単語が辞書に掲載されていない意味で使用されていた場合, 多くの人は文脈から辞書に載っている用法 ${ }^{1}$ と異なる用法で使用されていることには気付くことができるが,その意味を特定するためには,なんらかの事前情報が必要であることが多い.特に, インターネットの掲示板では,援助交際や危険ドラッグなどの犯罪に関連する情報は隠語や俗語を用いて表現される傾向にある (山田, 安彦, 長谷川, Michal, 中村, 佐久田 2016). しかし,全体として, どのような単語が一般的ではない意味で使われているかということを把握することは難しい. 本研究では,このような性質を持つ単語の解析の手始めとして, ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,ソー シャルメディア中の文に出現する単語の一般的ではない用例の検出に取り組む。ここで,単語の用法が一般的かそうでないかというような情報を多くの語に対し大量にアノテーションするコストは非常に大きいと考えられることから,本研究では教師なし学習の朹組みでこの問題に取り組む,検出の手がかりとして,まず,非一般的用法で使用されている単語は,その単語が一般的用法で使用されている場合と周辺文脈が異なるであろうことに着目する。具体的には,単語の用法を判断する上で基準とするテキスト集合における単語の用法と, 着目している文中での用法の差異を計算し,これが大きい場合に非一般的用法と判断する.以下,本稿では単語  の用法を判断する上で基準とするテキスト集合のことを学習コーパスと呼ぶ. 非一般的用法を適切に検出するためには,学習コーパスとして,一般的用法で使用される場合が多いと考えられるテキスト集合を用いることが重要であると考えられることから,提案手法では,学習コー パスとして,新聞やインターネットを始めとする様々な分野から偏りなくサンプリングされたテキストの集合である均衡コーパスを使用する。また,提案手法における,学習コーパスと評価用データにおける単語の使われ方の差異の計算には, Skip-gram Negative Sampling (Mikolov, Sutskever, Chen, Corrado, and Dean 2013) によって学習された単語ベクトルを使用する. ## 2 評価データの作成 本研究では,一般的ではない用法が存在する単語を対象として,文中における対象単語が一般的な用法かそうでないかをアノテートしたデータセットを新たに作成した. 作成したデータセットは, コンピュータ, 企業・サービス名, ネットスラングのドメインに出現した語から, 非一般的用法として使用されることのある 40 語を含んだデータセットである。データのソースとして Twitterを使用し, 2016 年 1 月 1 日から 2016 年 1 月 31 日に投稿されたツイートを対象としてデータセットを作成した.Twitter をデータのソースとして選択した理由は,Twitterにおいては,ある語が一般的な用法として使われる場合とそうでない場合が混在していると考えたためである. データセットの作成に先立ち,以下の条件を全て満たす語を対象語を選定した. (1)コンピュータ,企業・サービス名,ネットスラングのドメインにおいて一般的ではない用法として使用される場合があることが分かっている語 (2) ウェブ上に一般的ではない用法の説明が存在している語 (3) 均衡コーパスにおける出現頻度が 100 以上の語 本研究では,コンピュータ,企業・サービス名からそれぞれ 10 語ずつ,ネットスラングから 20 語,合計 40 語を対象語として選定した。選定した 40 語の一覧を表 1 に示す。 データセットの作成においては,まず,選定した 40 語が含まれるッイートに対して形態素解析を行い,選定した単語が一般名詞であると解析されたツイートを無作為に 100 ツイート選択した。形態素解析には, $\mathrm{MeCab}^{2}$ を使用し,IPA 辞書 3 を用いた。次に,選択したツイートにおいて, 選定した単語が一般的な用法として用いられているか, 固有表現の一部となっているか, 一般的ではない用法として用いられているかという判断を 2 人のアノテータによって人手  表 1 選定した 40 語とその一般的ではない用法の説明 うな事例を示す。また,いずれかのアノテータが,与えられた情報だけからはツイート中で使用されている対象語の用法を決定できないと判断したツイート (96ツイート) ${ }^{4}$ は,データセットから除外した。アノテーションが一致したツイートのうち, 2 人のアノテータが一般的な用法として用いられていると判断した事例と,一般的ではない用法として用いられている判断した事例の集合を最終的なデータセットとした ${ }^{5}$. 本アノテーションにおけるカッパ係数は 0.808 であった。表 2 に,作成したデータセットの概要を示す. 作成したデータセットでは,単語ごとにラベルの偏りが見られた。 アノテーションの結果に基づいて, 40 語を,一般的な用法の事例が多い単語, 非一般的用法として用いられている事例が多い単語,それ以外の単語の 3 つに分類した。具体的には, 7 割以上が一般的用法としてアノテーションされた単語を一般的ラベル優勢, 7 割以上が非一般的用法としてアノテーションされた単語を非一般的ラベル優勢,それ以外をラベル偏りなしとしてクラス分けを行った.表 3 に,アノテーション対象とした語の一覧をクラスごとに示す。また,表 4 に,各クラスごとにアノテーションされた一般的用法, 非一般的用法の内訳を示す. 作成したデータセットは各単語に対する学習データ数が少ないため, 教師あり学習のための 表 2 作成したデータセットの概要 表 3 アノテーション対象とした 40 語の内訳 \right)\right.\rfloor$ の中の「茸」のような,顔文字の一部となっている事例などが含まれる. 5 固有表現の一部となっている事例を除いたのは, 将来的に固有表現認識を行うことにより機械的に除外できると考えたためである。 } 表 4 クラスごとのデータセット内訳 学習コーパスとして使用するには,デー夕量の観点から適切ではないと考える。そのため, 本研究では, 教師なし学習に基づいた単語の一般的ではない用法の検出手法を提案し, 本デー夕セットを評価用のデータセットとして用いる. ## 3 単語の一般的ではない用法の検出 提案手法では,もしある単語が一般的ではない用法として使われた場合,その周辺単語は一般的な用法として使われた場合の周辺単語と異なるという考えに基づき, 単語の一般的ではない用法の検出を行う。 提案手法は単語の分散表現を活用したものであるため, 本節では, まず,単語の分散表現を学習する手法として広く使われている Skip-gram の説明を行い,その後に提案手法の具体的なモデルの説明を行う. ## 3.1 Skip-gram with Negative Sampling (SGNS) Skip-gram (Mikolov et al. 2013) とは, 単語の分散表現を学習する手法の一つとして広く使われており, 学習コーパスから主に単語の共起情報を学習し, 学習コーパス内に出現した単語をべクトルとして表現する手法である. Skip-gram では,訓練データにおける単語列を $w_{1}, w_{2}, \ldots$, $w_{T}$, 窓幅を $m$ とした時, $\frac{1}{T} \sum_{t=1}^{T} \sum_{-m \leq i \leq m, i \neq 0} \log p\left(w_{t+i} \mid w_{t}\right)$ が大きくなるように学習される. $W$ を訓練データにおける語彙とした時, $p\left(w_{k} \mid w_{t}\right)$ は次の式によって表される: $ p\left(w_{k} \mid w_{t}\right)=\frac{\exp \left(v_{w_{t}}^{I N} \cdot v_{w_{k}}^{O U T}\right)}{\sum_{w \in W} \exp \left(v_{w_{t}}^{I N} \cdot v_{w}^{O U T}\right)} $ Skip-gram は, 着目単語の周辺単語を予測するモデルである. 各単語は入力側の単語ベクトル $v^{I N}$ と出力側の単語ベクトル $v^{O U T}$ で表現され, 確率値の計算には, これらが使用される. Mikolov et al. (2013) は, Skip-gramの学習時における計算コストを削減するために Skip-gram with Negative Sampling (SGNS) を提案した. SGNS では, 学習コーパス内で単語 $w_{t}$ が $w_{k}$ の近くに出現していた場合, $\log \sigma\left(v_{w_{t}}^{I N} \cdot v_{w_{k}}^{O U T}\right)+\sum_{n=1}^{N} \mathbb{E}_{w_{n} \sim Z(w)} \log \sigma\left(v_{w_{t}}^{I N} \cdot-v_{w_{n}}^{O U T}\right)$ が大きくなるようにそれぞれの単語に対応するべクトルが学習される。たたし, $\sigma$ はシグモイド関数を表す. SGNSでは, $N$ 個の単語を確率分布 $Z$ から抽出し, これらを学習における負例単語として 扱う. その結果, 単語 $w_{t}$ と単語 $w_{t}$ の近くに出現した単語 $w_{k}$ については, $\log \sigma\left(v_{w_{t}}^{I N} \cdot v_{w_{k}}^{O U T}\right)$ の値が大きくなるようにそれぞれのべクトルが学習され, 単語 $w_{t}$ と負例単語 $w_{n}$ につては, $\log \sigma\left(v_{w_{t}}^{I N} \cdot v_{w_{n}}^{O U T}\right)$ が小さくなるように学習される. 単語間の類似度を測定するのにあたっては,入力側の単語べクトル $v^{I N}$ 間における類似度を測る手法が広く用いられている。入力側の単語ベクトル $v^{I N}$ は多くの研究で広く活用されているのに対して, Mitra, Nalisnick, Craswell, and Caruana (2016) や Press and Wolf (2017) などのように,出力側の単語べクトル $v^{O U T}$ を効果的に活用している研究は少ない。一方で, Levy ら (Levy and Goldberg 2014)は, Shifted Positive Pointwise Mutual Information (SPPMI) と SGNS の等価性を示しており,これによると,SGNS において $v^{I N}$ と $v^{O U T}$ を使用することは, SPPMI を学習した際の単語の共起情報を参照することに関連し, これはある着目単語とその周辺単語のつながりの強さを計算することを意味する.以上より,これまで述べたような入出力単語べクトルの学習過程およびSPPMI と SGNS の等価性を考慮すると, ある単語 $w_{t}$ が訓練デー夕内で単語 $w_{k}$ が共起されやすいかどうかを測るためには, 従来の研究で多く見られるような $v_{w_{t}}^{I N}$ と $v_{w_{k}}^{I N}$ を用いた余弦類似度を用いる手法だけではなく, 入力側と出力側の単語ベクトルを用いた $\sigma\left(v_{w_{t}}^{I N} \cdot v_{w_{k}}^{O U T}\right)$ を活用する手法も,単語間の類似度を計算する上では考慮するべきであると考えられる。 ## 3.2 提案手法 本研究では,SGNS の学習メカニズムを考慮して,非一般的用法の検出を試みる。具体的には, まずSGNS を用いて均衡コーパスから単語の分散表現を学習し, 続いて学習したべクトルを用いて着目単語とその周辺単語のべクトル間の内積値を算出し, その値が小さい場合, その着目単語の用法は一般的ではないと判断する,均衡コーパスは,言語全体を把握するために偏りなくサンプリングされたテキストの集合であることから,均衡コーパスを用いることで,単語の用法の一般性がより反映された単語べクトルの学習が行われると考えられ, 上述の内積値が高い事例は一般的, 低い事例は一般的ではない用法と判断することができると考えられる.図 1 に提案手法の概要を示す. 提案手法では, SGNS によって単語ベクトルを学習し, 学習された着目単語の入力側の単語べクトル $v^{I N}$ と, 周辺単語の出力側の単語ベクトル $v O U T$ の類似度の加重平均に基づいて, 単語の非一般的な用法を検出する。この過程で計算される類似度の加重平均を,単語の使われ方に対する一般性スコアと定義する。一般性スコアとして, 着目単語とその周辺単語との類似度の加重平均を採用している理由は, 本研究で使用したSGNS の学習過程では, 着目している単語と距離の近い単語に重みを付けた学習が行われているためである (Levy, Goldberg, and Dagan 2015). 窓幅を $m$, 着目単語との距離を $d$ と定義すると, 加重平均の重み $\alpha$ は, $\alpha=m+1-d$ によっ 図 1 提案手法の概要 て計算される整数値とする。ただし, $d$ は, 着目単語を基準として, 何単語離れているかを表す整数値である. 文中の着目単語を $w_{t}$ とし, 着目単語の入力側の単語ベクトルを $v_{w_{t}}^{I N}, w_{t}$ を基準として前後 $m$ 単語の単語集合を $\mathbf{w}_{\mathbf{c}}$, 各周辺単語 $w_{j} \in \mathbf{w}_{\mathbf{c}}$ の出力側の単語ベクトルを $v_{w_{j}}^{O U T}$, その重みを $\alpha_{w_{j}}$ と表すと, 提案手法では, 次の式 (1)で計算されるスコアによって, 着目単語 $w_{t}$ が一般的な使われ方かどうかを判断する: $ \frac{\sum_{w_{j} \in \mathbf{w}_{c}} \sigma\left(v_{w_{t}}^{I N} \cdot v_{w_{j}}^{O U T}\right) \times \alpha_{w_{j}}}{\sum_{w_{j} \in \mathbf{w}_{c}} \alpha_{w_{j}}} $ ただし,式 (1)における $\sigma$ はシグモイド関数を表す。窓幅内に出現した未知語に対しては,未知語のトークンに対応する単語ベクトル $v_{u n k}^{O U T}$ を用いる。 なお, この $v_{u n k}$ は, 単語べクトルの学習に使用したコーパス内における低頻度語に対応する単語ベクトルである。式 (1)において, シグモイド関数を使用している理由は,SGNS の学習過程における非線形関数としてシグモイド関数が使用されていたためである ${ }^{6}$. 算出された一般性スコアが小さい場合, 着目単語の使われ方は非一般的であり,また反対に大きい時には,その使われ方は一般的であるとみなす. ## 3.3 比較手法 本研究における提案手法には,3つの特徴がある。一つ目は単語べクトルを学習する際に均衡コーパスを使用する点,二つ目は一般性スコアを計算する際に使用する単語ベクトルとして ^{6}$ https://code.google.com/archive/p/word2vec/ } $v^{I N}$ だけではなく $v^{O U T}$ も使用する点, 三つ目は一般性スコアの計算に加重平均を採用している点である。これらの特徴が非一般的な用法を検出するにあたり有用であるかを,比較実験を通して検証する。 提案手法では,学習コーパスの用法と評価用データセットにおける用法との差異を一般性スコアとして計算している。この学習コーパスに含まれる単語の用法が非一般的用法検出を行う際の基準となるため,検出精度に大きく影響すると考えられる.そこで,本研究では, 4 種類の異なる性質のコーパスを用意し,どのコーパスで単語ベクトルを学習するのが本タスクにより適しているかを調査する。表 5 に,各コーパスの内容を示す 7 . 提案手法は,一般的に使用される $v^{I N}$ だけではなく, $v^{O U T}$ も使用している. $v^{O U T}$ の有用性を検証するため, 従来研究 (Neelakantan, Shankar, Passos, and McCallum 2014; Gharbieh, Virendra, and Cook 2016) で用いられている手法と同様に, $v^{I N}$ のみを用いた手法との比較を行った. この比較手法では, 式 (1)における $\sigma\left(v_{w_{t}}^{I N} \cdot v_{w_{j}}^{O U T}\right)$ を, 余弦類似度 $\frac{v_{w_{t}}^{I N} v_{w_{j}}^{I N}}{\left.\|v_{w_{t}}^{I N}\right.\| \times\left.\|v_{w_{j}}^{I N}\right.\|}$ として一般性スコアを計算した。さらに, SGNS 以外の手法で学習した単語ベクトルでの実験結果を比較するために,相互情報量を用いて学習した単語ベクトルに対して,特異値分解 (SVD) によって次元削減を行った単語べクトルを使用した手法 (Levy et al. 2015; Hamilton, Clark, Leskovec, and Jurafsky 2016) による実験も行った. この時, 式 (1)における $v_{w_{t}}^{I N}, v_{w_{j}}^{O U T}$ は, それぞれ, SVD によって特異值分解されたあとの $t$ 成分, $j$ 成分の値とする. 相互情報量には, Positive Pointwise Mutual Information (PPMI) を使用した。また,SVDを用いた手法においても,一般性スコアの計算には余弦類似度を用いた ${ }^{8}$. 3.2 節で述べたように, 式 (1)の $\alpha$ は, 着目単語を基準とした時の, 周辺単語との距離に対する重みである。この重み付けの有効性を調査するため,重み付けを行わず,式 (1)において $\alpha=1$ とした場合との比較実験を行った. これらに加えて, 式 (1)における周辺単語 $\mathbf{w}_{\mathbf{c}}$ から, 機能語である助詞, 助動詞, 接続詞と 表 5 学習に使用したコーパスの内容 ^{7}$ Web コーパスの収集には, Kawahara and Kurohashi (2006)の手法を用いた. Wikipedia は, 2016 年 7 月時点での Wikipedia の記事を https://dumps.wikimedia.org/jawiki/からダウンロードしたものである。新聞については,毎日新聞,日経新聞,読売新聞を対象とした。 $8 v^{I N}$ のみを用いた手法およびSVDを用いた手法において,類似度関数として余弦類似度の代わりにシグモイド関数を使用した場合においても実験を行ったが,この時の評価値は余弦類似度を用いた場合よりも低い値となった。 } して使われている単語を除いた条件での実験も行った. 図 1 にも示した通り, 実際のテキストにおける周辺単語 $w_{j}$ は, 助詞をはじめとする機能語にもなり得る。しかし, 機能語の単語べクトルと着目単語の単語べクトルとの類似度は, 着目単語の用法の判断において効果的な要素ではない可能性が考えられる。 そこで, 周辺単語 $w_{j} \in \mathbf{w}_{\mathbf{c}}$ から機能語を排除した時の部分集合 $\mathbf{w}_{\mathbf{c}^{\prime}} \subseteq \mathbf{w}_{\mathbf{c}}$ を用いて式 (1)を計算するモデルにおいても実験を行った. (Mikolov et al. 2013) は,高頻度語のもつ情報量は低頻度語のもつ情報量よりも少ないという仮定に基づき,Skip-gram の学習時にサブサンプリングによって学習コーパス中に出現する単語の出現頻度に応じて文中からコーパス内の単語それぞれを確率的に除外した上で学習を行っているが 9 , 多くの機能語は高頻度語に該当することから類似した処理であると言える。 さらに,ニューラルネットの層の深さが検出精度に関係するか調査するため, 文脈をべクトル化する手法として提案されている context2vec (Melamud, Goldberger, and Dagan 2016)との比較も行う. 提案モデルが 1 層の浅いニューラルネットモデルであるのに対して, context2vec は Bi-directional LSTM (Bi-LSTM) を活用した多層のモデルである. また, Skip-gram が, 着目単語の前後密幅分の周辺単語を用いて着目単語を予測するのに対して, context2vecでは, 入力文の左から着目単語まで,および右から着目単語までを使用して予測を行うという違いがある. context2vec では, 文全体の単語埋め込みを Bi-LSTM に入力し, 着目単語の左側, および右側の Bi-LSTM の出力層を結合し, 2 層の多層パーセプトロンに入力し, その出力層(文脈ベクトル)を用いて,着目単語を予測するモデルである,本タスクにおいては,文脈ベクトルと着目単語の単語ベクトルの内積に対してシグモイド関数を適用した値を一般性スコアとして扱う. ## 4 実験 ## 4.1 実験設定 単語ベクトルの学習にあたっては, 次元を 300 とした。また, 各コーパスにおいて, 出現頻度が 5 回未満の単語は,<unk>に置き換えて学習を行った. SGNS による単語ベクトルの学習には, Python ライブラリの一つである gensim (Řehůřek and Sojka 2010)による実装を使用し, ネガティブサンプリングの数を 10 とした. SVDによる単語ベクトルの学習には, Levy et al. (2015)の実装 10 を使用した.学習 epoch 数は 5 とした,また,単語べクトルを学習する際の窓幅は $2,5,10$ としてそれぞれ実験を行った. context2vec の学習にあたっては, ネガティブサンプリング数を 10 , 最適化手法には Adam (Kingma and Ba 2015) を使用した,学習率は $10^{-3}$ として学習を行った.その他の隠れ層や単 ^{9}$ Mikolov et al. (2013) における 2.3 節に詳細が記述されている. 10 https://bitbucket.org/omerlevy/hyperwords } 表 6 context2vec のパラメータ 語ベクトルの次元などの詳細なパラメータを表 6 に示す.また, 学習の効率化のため, 実験に使用するコーパスのうち, BCCWJ と Web は中規模, Wikipedia と Newspaper は大規模なコー パスであるとみなし, 中規模コーパスで学習する際には, ミニバッチ数 100 , 学習 epoch 数 10 , 5 回未満の出現頻度の単語を<unk>と置き換えて学習を行い, 大規模コーパスで学習する際には, ミニバッチ数 500 , 学習 epoch 数 5,10 回未満の出現頻度の単語を<unk>と置き換えて学習を行った。 評価には,テストセットの各事例で計算された一般性スコアを昇順にソートし,一般性スコアが低い順に非一般的用法として分類した時の平均適合率を使用する。さらに,これらの実験に加えて, 3.3 節に示した機能語を使用しない場合における実験も行う。また, 誤り分析を行うため,任意の値を閥値として設定し,計算された一般性スコアが閥値を下回った場合には非一般的用法, それ以外は一般的用法と分類する実験を行った. 間值には, 分類時に非一般的用法を正例とした時に計算される $\mathrm{F}$ 値が最も大きくとなるような閾値を使用した. ## 4.2 結果 表 7 に実験結果を示す。表 7 における weighted および uniform は, それぞれ,着目単語の周辺単語に対する重み付けを行った場合,行わない場合に対応する。また,ダガー $(\dagger)$ は,提案手法である BCCWJを用いた時の SGNS IN-OUT weighted モデルによる実験結果と,有意水準 $5 \%$ で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.太字は,SGNS IN-OUT,SGNS IN-IN,SVD モデルによって得られた平均適合率のうち,設定された各窓幅 2 , 5,10 ごとでの実験結果を比較した際に最も平均適合率が高いことを示す. ## 4.2.1 各モデルごとの実験結果の比較 表 7 より, 最も高い平均適合率を達成したモデルは, 学習コーパスとして Wikipediaを使用した時の context2vec であり,その値は 0.845 であった.提案手法である SGNS IN-OUT weighted モデルは,学習コーパスとして BCCWJを使用し,窓幅を 5 と設定した時に最も高い平均適合率を達成し,その値は 0.839 であった. context2vec を用いた場合の平均適合率は 0.803 から 0.845 表 7 各モデルによる平均適合率 と高い値で安定していることがわかるため, ニューラルネットの層の深さは検出精度に貢献すると考えられる。実駼結果から,提案手法であるSGNS IN-OUT のような層が浅いモデルでも,単語ベクトルの学習手法, 学習された単語ベクトルの扱い方, 学習コーパスを適切に選択することで, 層が深いモデルと同等の性能を達成できることがわかった. 次に,設定された各空幅ごとでの性能を比較する,表 7 において,各モデルによって得られた平均適合率のうち, 空幅 $2,5,10$ ごとでの実験結果を比較すると, それぞれで最も平均適合率が高かったモデルは, 全て BCCWJを学習コーパスとして使用した際の SGNS IN-OUT モデルであった。これより, BCCWJと SGNS IN-OUTを用いることによって,単語ベクトルの学習に使用する窓幅に関わらず高い平均適合率を達成する傾向があるといえる。また,窓幅を 2 と設定した場合の実験結果では, 全 12 モデル中 11 モデルに打いて, 重み付けによる平均適合率の減少が見られた。モデルが参照できる周辺単語が少ない場合では, 重み付けによって着目単語周辺の機能語が強調されてしまい, これが悪影響となって平均適合率が減少した可能性が高い. この点は, 後述の機能語を使用しないモデルにおける実験結果との関連があると考えられる。 ## 4.2.2 機能語を使用しないモデルにおける実験結果 表 8 に,一般性スコアの計算時に機能語を使用しないモデルにおける平均適合率を示す。多ガー (†) は, 提案手法である BCCWJを用いた時の SGNS IN-OUT weighted モデルによる実験結果と, 有意水準 $5 \%$ で並べ替え検定を行った際に, 統計的有意差が確認できたことを示している.表 8 より,機能語を使用しない場合においては,提案手法である SGNS IN-OUT weighted モデ ルが最も高い平均適合率を達成した。これは, 空幅を 5 と設定し, 学習コーパスとして BCCWJ 使用したモデルであり, 平均適合率は 0.857 であった. 表 7 , 表 8 より,一般性スコアの計算時に機能語を使用しないことで,全 76 モデル中 48 モデルにおいて, 平均適合率の向上が確認された. このうち, 12 モデルにおいて, 機能語を使用しない場合の平均適合率と,機能語を使用した場合の平均適合率との間に統計的有意差が確認された.この有意差が確認されたモデルを表 9 に示す. なお, 26 モデルでは, 機能語を使用しないことで平均適合率の値が減少し, 2 つのモデルでは,平均適合率に変化がなかった.特に, context2vec を用いた 4 モデルでは機能語を使用しないことで平均適合率が減少する傾向にある. 表 8 機能語を使用しないモデルにおける平均適合率 表 9 機能語を使用するモデルと使用しないモデルでの平均適合率に統計的有意差が見られたモデル \\ \cline { 2 - 4 } & Wikipedia & 10 & \\ \cline { 2 - 5 } & Web & 10 & 有り \\ context2vec は,単語埋め込みを行った後,その情報を Bi-LSTM,多層パーセプトロンに入力し着目単語の予測を行うモデルである。この時に,機能語を使用しないことによって,Bi-LSTM の言語モデルとしての働きを弱め, 結果として予測がうまくいかなかったと考えられる. 最もスコアが向上したモデルは,空幅を 10 と設定し,学習コーパスとして Webを用いた時の SVD weighted モデルであり, 0.144 ポイントの向上が見られた.また,最もスコアが減少したモデルは,学習コーパスとしてWebを用いた時の context2vecで, 0.414 ポイントの減少が見られた.以上の実験結果より,機能語の扱い方を考慮することが平均適合率の向上に貢献する可能性が高いと考えられる。 次に,設定された各密幅ごとでの性能を比較する。表 8 において,各モデルで得られた平均適合率のうち,窓幅 $2,5,10$ ごとでの実験結果を比較した際に,最も平均適合率が高かったモデルは,それぞれ BCCWJを学習コーパスとして使用した際のSGNS IN-OUT モデルであり,実験結果の大まかな傾向は 4.2.1 項にあるものと同様であることがわかる.また,窓幅を 2 と設定した場合の実験結果に着目すると, 重み付けによる平均適合率の減少が見られたモデルは,全 12 モデル中 3 モデルであり,4.2.1 項で見られた重み付けによる悪影響が軽減していることがわかる。これは,空幅が小さい設定においては,機能語による悪影響があったことを示唆している。 ## 4.2.3重み付けの有無に関する実験結果の比較 表 7 より,重み付けを行うモデル (weighted) と行わないモデル (uniform) 間における平均適合率の変化を調査すると, 36 モデル中 22 モデルが重み付けを行うことによって平均適合率が向上している。また, 13 モデルでは平均適合率が減少し, 1 つのモデルでは平均適合率の変化が見られなかった,表 8 に示した機能語を使用しない条件での実験結果では,重み付けを行うことによって 36 モデル中 30 モデルにおいて平均適合率が向上した. 4 モデルにおいては平均適合率が減少し,2つのモデルでは平均適合率の変化が見られなかった。重み付けの有意性を調査するため, これらの実験結果に対して検定を行ったところ,重み付けを行うモデルによって得られた平均適合率と, 行わないモデルによって得られた平均適合率との間に統計的有意差が確認されたのは, 72 ペアのうち 36 ペアだった。検定結果を表 10 に示す ${ }^{11}$. 全てのパターンで統計的な有意差は見られなかったものの, 提案手法を使用するにあたっては, 着目単語からより近い周辺単語が本タスクを解く上での手がかりとなっていることがわかった. $ 機能語」は機能語を使用しないモデルに該当する. チェックマーク $(\checkmark)$ は,重み付けを行うモデルによって得られた平均適合率が,行わないモデルによって得られた平均適合率よりも統計的に有意であることを表す。ただし,ダブルダガー (‡) は,重み付けを行わないモデルによって得られた平均適合率が,重み付けを行うモデルによって得られた平均適合率よりも統計的に有意であることを示す. } ## 4.2.4 各モデルにおける平均適合率の最高値の比較 表 11 に,これまでの実験において各モデルで達成した平均適合率の最高値と実験設定をまとめる。ダガー (†)は,提案手法である SGNS IN-OUTによって得られた実験結果と,有意水準 $5 \%$ で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.提案手法である SGNS IN-OUT モデルで得られた平均適合率と比較手法で得られた平均適合率との間に,統計的有意差が確認されたのは SVD モデルと SGNS IN-IN モデルであった. これらの結果から,本タスクにおいては, $v^{I N}$ だけではなく $v^{O U T}$ も使用することが平均適合率の向上に寄与していることがわかる。また,SGNS IN-IN モデルとSVD モデルにおける平均適合率の間で検定を行ったところ $\mathrm{p}$ 値は 0.089 であった。実験結果では,SGNS を用いた手法の方がより高い平均適合率を達成する傾向にあるが, その差は有意なものではなかった. 続いて,各手法ごとでの実験設定に着目する,SGNS を用いる手法では,学習コーパスとして BCCWJ を使用,重み付けを適用し,機能語を使用しないことで,高い平均適合率を達成する傾向にある。また,SVD および context2vec を用いる手法では Wikipediaを学習コーパスとして使用し, 機能語を使用することで最も高い平均適合率を達成している. より高い平均適合率 表 10 重み付けによる統計的有意性の調査 表 11 各モデルにおいて平均適合率が最も高かった時の実験設定 が達成することができる学習コーパスは, 単語ベクトルの学習手法ごとに異なることから, 各手法に適した学習コーパスを選択することが必要であると考えられる。 ## 4.3 誤り傾向と正解例・誤り例の分析 これまでの実験では,評価データ中の文書に対して,各手法によって計算された一般性スコアを用いてソートした時のランキングに対する評価を行った。本節では,誤り分析のため,ある間値を設定し,計算された一般性スコアが間値を下回った場合には非一般的用法,それ以外は一般的用法と分類する実験を行った。本実験では,閾值を 0.001 から 1.000 の範囲で 0.001 刻みで設定し,それぞれの値をもって分類を行った時,分類時に計算される $\mathrm{F}$ 値が最も大きくとなるような閾値を使用した。 表 12 に,各モデルごとで上述の閾値を用いた場合に計算される適合率,再現率, $\mathrm{F}$ 値を示す.太字は,各評価指標において最も性能が高いことを示し, ダガー (†) は,提案手法である SGNS IN-OUT モデルによる実験結果と,有意水準 $5 \%$ で並べ替え検定を行った際に,統計的有意差が確認できたことを示している。なお,実験には表 11 に示したモデルを使用した.実験結果から,提案手法によって得られた $\mathrm{F}$ 值が,各モデルによって得られた $\mathrm{F}$ 值の中で最も高く,その値は 0.796 であった。また, 適合率が最高値となったモデルは, 提案手法である SGNS IN-OUT であり,再現率が最高値となったモデルは context2vec を用いた手法であった. 次に,表 3 に示したそれぞれのクラスごとに対する評価値を調査する。作成したデータセットでは,単語ごとにラべルの偏りが見られ,表 3 では,アノテーション対象とした 40 語がどちらのラベルに偏りがあったか,もしくは偏りがなかったかの 3 クラスを示した. クラスごとでの各評価値の変化を調査するため, 各クラスごとでの適合率, 再現率, $\mathrm{F}$ 値を計算した. なお,実験に使用した䦭値は上述の実験と同値である。これらの結果を表 13 に示す.ダガー $(\dagger)$ は,提案手法である SGNS IN-OUT モデルによる実験結果と,有意水準 $5 \%$ で並べ替え検定を行った際に,統計的有意差が確認できたことを示している。非一般的ラベル優勢クラスにおける適合率はそれぞれのモデルにおいて高い傾向にある一方で,一般的ラベル優勢クラスにおける適合率は低い傾向にあり,評価値の偏りが見られた。これらの結果より,全体の $\mathrm{F}$ 値が大きくなるような閥値を設定すると, 多くの人が一般的ではない用法として扱うような単語に対する検 表 12 各モデルによって計算された非一般的ラベルに対する適合率・再現率・F 値 表 13 各クラスごとの適合率・再現率・F 値 出はうまくいくものの, 少数の人のみが使用しているような用法を持つ単語については, 誤検出が多いということがわかった. 続いて,提案手法による実験結果に対する定性的評価を行う,提案手法によって検出できた一般的ではない用法の例を次に示す. (i) うちの場合林檎は父が触ったことないし、Android 端末いっぱい買って... (ii)... 国立駅弁よりすこし高いくらいかなでもそこにいったって好きな研究室いけるとも... (iii) 光村雨チケ今回何枚取れるかなー久しぶりだから泥率上げてくれるよね? (iv) ... やっぱり LT で他全員でガン芼してるのが一番強いんじゃないかな (v) 鯖落ちだあああああああああああああああガチマに潜るなああああああああああ (i), (ii) の中の「林檎」や「駅弁」は,一般的ラベル優勢の単語に対しても一般的ではない用法を検出することができた例である。また, (iii), (iv) 中の「泥」や「芋」のように,表 2 に示したような用法とは異なる一般的ではない用法に対しても,これを正しく検出することができた ${ }^{12}$. (v)の例は, context2vec を用いた手法で検出できなかったが,提案手法において検出が成功した事例である。 context2vec は入力文全体を考慮する手法であるが,この事例は,全体を考慮することによって誤りとなった事例だと考えられる。一方で,提案手法は,着目単語の前後密幅分の周辺単語に着目するため, 周辺単語以外の情報に影響されずに, 正しく検出することができたと考えられる。 次に,提案手法によって検出できなかった一般的ではない用法を示す. (vi) ニコ動で実況者がワードバスケットやってて草 (vii) 55 連でテレーゼ、エクセ、ユイ、虹星 1 。引きは微妙だけど一番欲しかった... (viii) あ〜、なんたこの気持ち。変なの荣葶。醜い感情は押し殺せばいいか (ix) 零十サンの規制してしまった時用垢。本垢フォローもよろしくでっす!! (x)養分辞めたい吸収される側から…する側になるためには…カガ・カネが必要…  (vi)の例のように, 着目単語の周辺単語が少ない場合において, 検出できなかった事例を確認した. しかし, (v)の例のように, 周辺単語が少ないにも関わらず検出できた例も確認されているため,周辺単語の情報が少ない場合には,モデルの出力が不安定となると考えられる.次に, (vii) 中の,「ユイ」,「エクセ」などのように, 着目単語の近くの周辺単語が低頻度語・未知語に該当する場合において,検出できない事例を確認した。提案手法では,未知語が出現した場合には,予め学習された未知語に該当する単語べクトルを使用しているが,このような事例に対応するためには, 未知語の性質を考慮した個別な処理等が必要とされる。続いて, (viii), (ix) の例のように, 着目単語の周辺単語として着目単語そのものが出現していた場合に, 検出に失敗する傾向が見られた。これは, SGNS の学習過程より, 着目単語自身の $v^{I N}$ と $v^{O U T}$ の内積値が高く計算される傾向にあることから ${ }^{13}$ ,全体的な一般性スコアが高く計算され,これが要因となって検出に失敗したと考えられる。また, $(\mathrm{x})$ の例は,提案手法で検出できなかったが,context2vec を用いた手法において検出が成功した事例である。提案手法は着目単語から固定空幅分の周辺単語しか考慮しない手法である。そのため, (x)の例のように, 着目単語と離れた位置にある「カネ」のような, 単語の用法を判断する上で手がかりとなる要素を考慮することができず,検出に失敗したと考えられる,一方で,context2vec は,文脈全体を考慮するモデルであるため,検出に成功したと考えられる. ## 4.4 混同行列による誤りの傾向分析 本節では,表 12 に示した実験結果に対して,混同行列を用いた誤りの傾向分析を行う。ここでは,提案手法に加えて,表 11,12 より,これまでの実験で性能が高かった context2vecにおける分析も行う.表 14,15 に,それぞれの実験結果に対する混同行列を示す。本タスクにおける誤りとしては,表中の右上に該当する非一般的用法であるにも関わらずこれを検出できないような「見逃し」と,表中の左下に該当する一般的用法であるにも関わらず非一般的用法として判断してしまう「誤検出」の 2 パターンが存在する. 表 14 提案手法における混同行列 表 15 context2vecにおける混同行列 $ と $v O U T$ の内積値を計算したところ, ある着目単語自身の $v^{I N}$ と $v^{O U T}$ の内積値は, 着目単語の $v^{I N}$ とそれ以外の単語の $v^{O U T}$ の内積値の平均値よりも高い傾向にあった。該当した事例は,10,000 件中 9,997 件であった。なお,任意の単語自身の $v^{I N}$ と $v^{I N}$ の余弦類似度は常に 1 であるため, SGNS IN-IN モデルにおいても本文中と同様の問題がある. } 表 14 より,提案手法では,見逃しが 220 件,誤検出が 332 件であった。また,表 15 より,比較手法である context2vec を用いた手法では,見逃しが 192 件,誤検出が 384 件であった. これらを比較すると, 提案手法は, 見逃しが多く誤検出が少ない手法, context2vec を用いた手法は,反対に,誤検出が多く見逃しが少ない手法であると言える. 本タスクにおける誤りパターンである「見逃し」と「誤検出」のどちらがリスクとみなすかは,本研究を適用するアプリケーションに依存する。例として,本研究を一般的ではない用法の辞書の作成に応用した場合を考える。このような辞書の作成においては,見逃された用法をコーパスから探すことは難しい一方で,誤って一般的ではないと判断された語を人手で確認することは容易である。したがって,本研究を一般的ではない用法の辞書作成に応用した場合には,相対的に「見逃し」が少ない手法が望ましいと考えられる,次に,本研究を一般的ではない用法も解釈するような対話システムの作成に応用した場合を考える。このような対話システムでは,一般的ではない用法を検出できなかった場合と比べ,一般的な用法を誤って解釈した場合の方が,システムへの信頼性が低下しやすいと考えられる。したがって,対話システムに応用した場合には「誤検出」の少ない手法の方が望ましいと考えられる。 ## 4.5 提案手法・context2vecにおいてともに誤りを出力した事例 本節では, 4.3 節で行った実験結果のうち,提案手法および context2vec を用いた手法において, 両方のモデルで共通した誤り事例に対する分析を行う。両モデルにおける共通の誤り事例は 235 件あり,そのうち,「見逃し」に該当するものが 84 件,「誤検出」に該当するものが 151 件であった,例として,表 16 に,誤りを出力した 20 件を示す. まず,表中において「見逃し」に該当する (1)~(10) に着目する。(1〜(3) は,着目単語が文の後半に位置していた事例である。このような事例に対して, 提案手法においては, 扱える周辺単語の情報が少ないため, モデルの出力が不安定となることが検出失敗の要因であると推測される.context2vec を用いた手法では,入力ツイート中の文脈を考慮することができると考えられるが,周辺単語の情報量の不足による影響が少なからずあったと推測される.また, (4) (6) 中の「シャロン」,「ノンノ」,「グラブル」など, 着目単語の周辺単語として, 学習コーパス中における未知語または低頻度語に該当する単語が出現した場合に,モデルが正しく検出できない傾向が見られた。これは,提案手法および context2vec に限らず,機械学習を用いた手法における未知語の扱い方に関連する問題だと考えられる。この点については, 例えば固有表現解析, 係り受け解析, 形態素解析などによって得られた結果を追加情報を活用することで, 未知語による悪影響を軽減できる可能性がある. さらに, (7) (8)のように, 着目単語の周辺単語として, 着目単語自身が出現している場合にも検出に失敗しやすいことがわかった。このような場合において, 4.3 節の実験結果では,提案手法による一般性スコアが高く計算される傾向にあることを示したが,context2vec を用いた手法においても同様の問題があった.また,評価 表 16 提案手法および context2vec を用いた手法において誤りを出力した事例 データ中のアノテーションにはミスが見られ,これによって誤りと判定される事例が確認された.(9) 中の「尼」は固有表現の一部であり, (10) 中の「安価」は一般的用法として扱われていると考えられる。 次に,「誤検出」に該当する $(11) \sim(20)$ に着目する. (11)~(13) は,「見逃し」のパターンと同様に, 着目単語の周辺単語の情報が少ない場合において誤りとなった事例であり,このような場合には, モデルの出力が不安定となることがわかった,(14)(18)のように,着目単語の周辺単語として,人名や地名などの固有表現が出現した際に,モデルが誤りを出力する事例を確認した。これは,学習モデルにおける未知語や低頻度語の扱い方に関連する問題であると考えられる。この点については, 文脈中に出現する固有表現に関する知識など, 何らかの追加情報を活用することで,このような事例を正しく判断することができると考えられる。また, (9), (10)の事例と同様に,アノテーションのミスによって誤りと判定されている事例が確認された. (19) 中の「蔵」は固有表現の一部であり, (20) 中の「草」は非一般的用法として扱われていると考えられる。 ## 5 関連研究 本研究と関連している自然言語処理の研究分野として, 新語義検出 (新納, 佐々木 2012) や新語義の用例のクラスタリング (Lau, Cook, McCarthy, Newman, and Baldwin 2012) が挙げられる.しかし, 本研究で扱う表現は, 特定のドメインにおいて語義が変化するという性質を持つため, これらの一般的な語義に着目した研究とは枠組みが異なる. また, Bamman, Dyer, and Smith (2014) は, 話者の地域によって, 語の持つ意味が異なるという点に着目し, 状況に応じた語の意味表現ベクトルを獲得する手法を提案している.本研究も同様に,同一語の用法の違いに着目しているが, Bamman らが地域ごとの語の使われ方の違いに着目しているのに対し, 本研究では語の使われ方が一般的であるかそうでないかに着目する。また, Multi-Word Expression やイディオムのような形で表される単語の用法分類も行われてきた (Kiela and Clark 2013; Salehi, Cook, and Baldwin 2015; Li and Sporleder 2010). 本研究では, 単語の用法の一般性という点に着目しているため, 対象としている現象の性質という点で, これらは本研究とは異なる. Web 上で使用される単語の一般的ではない用法に関する研究もいくつか存在する. Cook, Lau, McCarthy, and Baldwin (2014) は, 辞書に採録されていないような単語の用法の検出を行っている. Cook らが Web 上のテキストを対象としているのに対して, 本研究では, ソーシャルメディアにおける単語の非一般的用法に着目している. Sboev (2016) は,インターネットにおいてのみ使われる中国語の俗語表現の分析を行った。山田他 (2016) は,有害情報を表す隠語に焦点を当てて,隠語を概念化するフレームワークを提案し,隠語表現の分類を行った.山田らは,隠語の知識を含んだ辞書を作成し,分類タスクを解いたが,作成した辞書のみでは隠語表現の多様性の対応に不十分であったと報告している。本研究は, 単語の一般的ではない用法の検出を行うことに主眼をおいているため,表現の分析に重きをおいているSboev の研究とは目的が異なる。また,山田らが有害情報を表す隠語に着目しているのに対して,本研究では,隠語のみならず,俗語や若者言葉のような,本来の単語の意味が変化して使われるようになった表現に着目している。加えて, 山田らがドメインに特化した知識を用いているのに対し, 本研究で提案する手法ではそのような知識を必要としないという違いがある. 松本, 土屋, 芋野, 吉田,北 (2017) は,若者言葉を代表とする俗語を対象として,それを感性評価軸とその俗語が持っている意味べクトルを用いることによって,俗語を標準語へ変換する手法を提案した.松本らが着目している単語は, 臆病の意味で使用される「チキン」というように,その表現の意味する概念に対して感性的要素が含まれるような単語であった。しかし, 本研究で着目している単語については,「サーバ」の意味で使用される場合の「鯖」など, 必ずしも感性的な印象が付与されるとは限らないため, この点で松本らの研究と着目対象とする単語の性質が異なる. また, 近年, 単語の分散表現を活用した研究は多肢に渡っており, 時間変化による意味変化や地域による単語の使われ方の変化, 単語の持つ感情極性の変化を分析するような研究でも広く 使われている技術である (Mitra, Mitra, Riedl, Biemann, Mukherjee, and Goyal 2014; Kulkarni, Al-Rfou, Perozzi, and Skiena 2015; Frermann and Lapata 2016; Eisenstein, O'Connor, Smith, and Xing 2010; Hamilton et al. 2016; Yang and Eisenstein 2016). さらに,一般的な多義性を扱うための分散表現 (Neelakantan et al. 2014; Vilnis and McCallum 2015; Athiwaratkun and Wilson 2017; Fadaee, Bisazza, and Monz 2017) や文脈をうまく表現するための分散表現 (Melamud et al. 2016; Peters, Neumann, Iyyer, Gardner, Clark, Lee, and Zettlemoyer 2018)なども研究されてきたが, 本研究の目的は, ある特定領域で別の意味を持つ単語の検出であるため, これらの研究とは目的が異なる. 本研究で着目する出力側の単語べクトル $v O U T$ を活用した研究は少ないが, $v^{O U T}$ を効果的に使うことで,文書のランキングや (Mitra et al. 2016) 言語モデルの改善 (Press and Wolf 2017; Kobayashi, Okazaki, and Inui 2017)に有効だったと報告されている.また, Yamada, Shindo, Takeda, and Takefuji (2017) は本研究で用いたSGNS を単語に対する知識表現も学習できるように拡張し, $v^{I N}$ は単語ベクトルを, $v^{O U T}$ は $v^{I N}$ に対応する単語の知識表現を学習することによって, Semantic Textual Similarity, Entity Linking, そして Factoid 型質問応答の 3 つのタスクにおいて State-of-the-art を達成している. ## 6 まとめ 本研究では, ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,単語の一般的ではない用法の自動検出を行った. 提案手法では, Skip-gram with Negative Sampling を用いて均衡コーパスから学習した単語べクトルを用いて, 着目単語の単語べクトルと着目単語の周辺単語の単語ベクトルの内積に対してシグモイド関数を適用した値の加重平均を, 着目単語の用法の一般性スコアとして扱い, 一般性スコアが高い場合に一般的, 低い場合に非一般的と判断する.この際, 従来の研究で一般的に用いられている $v^{I N}$ だけではなく, $v^{O U T}$ を組み合わせて使用した。 事前に選定した 40 語を対象に,与えられた文における用法が一般的であるかそうでないかアノテーションしたデータセットを用いた評価実験の結果, 均衡コーパスから学習されたべクトルを使用し, さらに $v O U T$ ベクトルと加重平均を一般性スコアの計算に活用することで, 高い精度を達成できることを示した. この結果, 出力側単語べクトル $v^{O U T}$ が, 文中のある単語とその周辺単語を参照するようなタスクにおいて有用であることを可能性を示している.また,着目単語の周辺単語に対して, それらと着目単語との距離に応じて, 単語ベクトルの重み付けを行うことによって評価値の向上が見られたことから, 着目単語と距離の近い周辺単語が一般的ではない用法の検出において,より重要な手がかりとなっていると考えられる。 さらに,提案手法においては,一般性スコアの計算時に機能語を使用しないことで評価値の向上が見られたから, 機能語が持つ情報は一般的ではない用法の検出においては重要ではない可能性があると ## 思われる。 本研究は, ソーシャルメディア上で一般的ではない使われ方がされている語の分析の手始めとして取り組んだ。本研究で提案した手法を拡張することにより,ソーシャルメディアにおける単語の用法の分析に貢献できると期待される。本研究における評価実験は, 作成したデー夕セットを用いたクローズドな問題設定だったが,提案手法によって計算された一般性スコアに対して闇值推定を施すことにより,未知のデータから一般的ではない用法を抽出するなど,オー プンな問題設定に対しても適用可能だと考えられる。ソーシャルメディアにおいて, どのくらいの語が非一般的用法で用いられているかの分析や,単語の一般的ではない用法の検出だけではなく, その意味の自動獲得などが, 本研究のさらなる発展として考えられる. ## 謝 辞 本論文の一部は, The 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP 2017) で発表したものです (Aoki, Sasano, Takamura, and Okumura 2017). ## 参考文献 Aoki, T., Sasano, R., Takamura, H., and Okumura, M. (2017). "Distinguishing Japanese Nonstandard Usages from Standard Ones." In Proceedings of EMNLP '17, pp. 2323-2328. Athiwaratkun, B. and Wilson, A. (2017). "Multimodal Word Distributions." In Proceedings of ACL '17, pp. 1645-1656. Bamman, D., Dyer, C., and Smith, N. A. (2014). "Distributed Representations of Geographically Situated Language." In Proceedings of ACL '14, pp. 828-834. Cook, P., Lau, J. H., McCarthy, D., and Baldwin, T. (2014). "Novel Word-sense Identification." In Proceedings of COLING '14, pp. 1624-1635. Eisenstein, J., O’Connor, B., Smith, N. A., and Xing, E. P. (2010). "A Latent Variable Model for Geographic Lexical Variation." In Proceedings of EMNLP '10, pp. 1277-1287. Fadaee, M., Bisazza, A., and Monz, C. (2017). "Learning Topic-Sensitive Word Representations." In Proceedings of $A C L^{\prime}$ '17, pp. 441-447. Frermann, L. and Lapata, M. (2016). "A Bayesian Model of Diachronic Meaning Change." Transactions of the Association for Computational Linguistics, 4, pp. 31-45. Gharbieh, W., Virendra, B., and Cook, P. (2016). "A Word Embedding Approach to Identifying Verb-Noun Idiomatic Combinations." In Proceedings of the 12th Workshop on Multiword Expressions, pp. 112-118. Hamilton, W. L., Clark, K., Leskovec, J., and Jurafsky, D. (2016). "Inducing Domain-Specific Sentiment Lexicons from Unlabeled Corpora." In Proceedings of EMNLP '16, pp. 595-605. Kawahara, D. and Kurohashi, S. (2006). "Case Frame Compilation from the Web using HighPerformance Computing." In Proceedings of LREC '06, pp. 1344-1347. Kiela, D. and Clark, S. (2013). "Detecting Compositionality of Multi-Word Expressions using Nearest Neighbours in Vector Space Models." In Proceedings of EMNLP '13, pp. 1427-1432. Kingma, D. P. and Ba, J. (2015). "Adam: A Method for Stochastic Optimization." In Proceedings of ICLR '15. Kobayashi, S., Okazaki, N., and Inui, K. (2017). "A Neural Language Model for Dynamically Representing the Meanings of Unknown Words and Entities in a Discourse." In Proceedings of IJCNLP '17, pp. 473-483. Kulkarni, V., Al-Rfou, R., Perozzi, B., and Skiena, S. (2015). "Statistically Significant Detection of Linguistic Change." In Proceedings of $W W W$ '15, pp. 625-635. Lau, J. H., Cook, P., McCarthy, D., Newman, D., and Baldwin, T. (2012). "Word Sense Induction for Novel Sense Detection." In Proceedings of EACL '12, pp. 591-601. Levy, O. and Goldberg, Y. (2014). "Neural Word Embedding as Implicit Matrix Factorization." In Proceedings of NIPS '14, pp. 2177-2185. Levy, O., Goldberg, Y., and Dagan, I. (2015). "Improving Distributional Similarity with Lessons Learned from Word Embeddings." Transactions of the Association for Computational Linguistics, 3, pp. 211-225. Li, L. and Sporleder, C. (2010). "Linguistic Cues for Distinguishing Literal and Non-Literal Usages." In Proceedings of COLING '10, pp. 683-691. Maekawa, K., Yamazaki, M., Maruyama, T., Yamaguchi, M., Ogura, H., Kashino, W., Ogiso, T., Koiso, H., and Den, Y. (2010). "Design, Compilation, and Preliminary Analyses of Balanced Corpus of Contemporary Written Japanese." In Proceedings of LREC '10, pp. 1483-1486. 松本和幸, 土屋誠司, 芋野美紗子, 吉田稔, 北研二 (2017). 感性を考慮した日本語俗語の標準語変換. 人工知能学会論文誌, 32 (1), p. WII-A_1-12. Melamud, O., Goldberger, J., and Dagan, I. (2016). "context2vec: Learning Generic Context Embedding with Bidirectional LSTM." In Proceedings of CoNLL '16, pp. 51-61. Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., and Dean, J. (2013). "Distributed Representations of Words and Phrases and their Compositionality." In Proceedings of NIPS '13, pp. 3111-3119. Mitra, B., Nalisnick, E. T., Craswell, N., and Caruana, R. (2016). "A Dual Embedding Space Model for Document Ranking." arXiv: 1602.01137. Mitra, S., Mitra, R., Riedl, M., Biemann, C., Mukherjee, A., and Goyal, P. (2014). "That's Sick Dude!: Automatic Identification of Word Sense Change Across Different Timescales." In Proceedings of ACL '14, pp. 1020-1029. Neelakantan, A., Shankar, J., Passos, A., and McCallum, A. (2014). "Efficient Non-parametric Estimation of Multiple Embeddings per Word in Vector Space." In Proceedings of EMNLP '14, pp. 1059-1069. Peters, M. E., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L. (2018). "Deep Contextualized Word Representations." In Proceedings of NAACL:HLT '18, pp. 2227-2237. Press, O. and Wolf, L. (2017). "Using the Output Embedding to Improve Language Models." In Proceedings of EACL'17, pp. 157-163. Řehůřek, R. and Sojka, P. (2010). "Software Framework for Topic Modelling with Large Corpora." In Proceedings of Workshop on NewChallenges for NLP Frameworks, pp. 45-50. Salehi, B., Cook, P., and Baldwin, T. (2015). "A Word Embedding Approach to Predicting the Compositionality of Multiword Expressions." In Proceedings of NAACL-HLT '15, pp. 977-983. Sboev, A. (2016). "The Sources of New Words and Expressions in the Chinese Internet Language and the Ways by Which They Enter the Internet Language." In Proceedings of PACLIC '16, pp. 355-361. 新納浩幸,佐々木稔 (2012). 外れ値検出手法を利用した新語義の検出. 自然言語処理,19, pp. 303-327. Vilnis, L. and McCallum, A. (2015). "Word Representations via Gaussian Embedding." In Proceedings of ICLR' 15 . 山田大,安彦智史,長谷川大,MichalPtaszynski,中村健二,佐久田博司 (2016). ID 交換掲示板における書き込み有害性評価に向けた隠語概念化手法の提案. 言語処理学会第 22 回年次大会発表論文集, pp. 49-50. Yamada, I., Shindo, H., Takeda, H., and Takefuji, Y. (2017). "Learning Distributed Representations of Texts and Entities from Knowledge Base." Transactions of the Association for Computational Linguistics, 5, pp. 397-411. Yang, Y. and Eisenstein, J. (2016). "Overcoming Language Variation in Sentiment Analysis with Social Attention." arXiv:1511.06052. ## 略歴 青木竜哉:2016 年筑波大学情報学群情報メデイア創成学類卒業. 2018 年東京 工業大学工学院博士前期課程修了. 同年より, 同大学院博士後期課程に在籍. 笹野遼平:2009 年東京大学大学院情報理工学系研究科博士課程修了. 京都大学特定研究員, 東京工業大学助教を経て, 2017 年より名古屋大学准教授. 博士 (情報理工学). 自然言語処理, 特に述語項構造解析に関する研究に従事.言語処理学会, 情報処理学会, 人工知能学会各会員. 高村大也:1997 年東京大学工学部計数工学科卒業. 2000 年同大大学院工学系研究科計数工学専攻修了 (1999 年はオーストリアウィーン工科大学にて研究). 2003 年奈良先端科学技術大学院大学情報科学研究科博士課程修了. 博士 (工学)。2003 年から 2010 年まで東京工業大学精密工学研究所助教. 2006 年にはイリノイ大学にて客員研究員. 2010 年から 2016 年まで同准教授. 2017 年より同教授および産業技術総合研究所人工知能センター知識情報研究チー 么研究チーム長. 計算言語学, 自然言語処理を専門とし, 特に機械学習の応用に興味を持つ。 奥村学:1962 年生. 1984 年東京工業大学工学部情報工学科卒業. 1989 年同大学院博士課程修了. 同年, 東京工業大学工学部情報工学科助手. 1992 年北陸先端科学技術大学院大学情報科学研究科助教授, 2000 年東京工業大学精密工学研究所助教授, 2009 年同教授, 現在は, 科学技術創成研究院教授. 2017 年より, 理化学研究所革新知能統合研究センター (AIP) 客員研究員を兼務.工学博士. 自然言語処理, テキスト要約, 語学学習支援, テキスト評価分析, テキストマイニングに関する研究に従事. 情報処理学会, 電子情報通信学会,人工知能学会, AAAI, ACL, 認知科学会, 計量国語学会各会員.
nlp_journal
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/