[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5976037B2 - モデル学習装置、ランキング装置、方法、及びプログラム - Google Patents

モデル学習装置、ランキング装置、方法、及びプログラム Download PDF

Info

Publication number
JP5976037B2
JP5976037B2 JP2014108548A JP2014108548A JP5976037B2 JP 5976037 B2 JP5976037 B2 JP 5976037B2 JP 2014108548 A JP2014108548 A JP 2014108548A JP 2014108548 A JP2014108548 A JP 2014108548A JP 5976037 B2 JP5976037 B2 JP 5976037B2
Authority
JP
Japan
Prior art keywords
utterance
sequence
unit
string
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014108548A
Other languages
English (en)
Other versions
JP2015225416A (ja
Inventor
東中 竜一郎
竜一郎 東中
今村 賢治
賢治 今村
豊美 目黒
豊美 目黒
千明 宮崎
千明 宮崎
のぞみ 小林
のぞみ 小林
弘晃 杉山
弘晃 杉山
平野 徹
徹 平野
牧野 俊朗
俊朗 牧野
松尾 義博
義博 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014108548A priority Critical patent/JP5976037B2/ja
Publication of JP2015225416A publication Critical patent/JP2015225416A/ja
Application granted granted Critical
Publication of JP5976037B2 publication Critical patent/JP5976037B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Description

本発明は、モデル学習装置、ランキング装置、方法、及びプログラムに係り、特に、発話列の結束性を判定するためのモデルを学習するモデル学習装置、方法、及びプログラム、並びに、発話列をランキングするランキング装置、方法、及びプログラムに関する。
近年、ユーザと雑談を行う対話システムが研究されている。特に着目されている手法は抽出ベースの手法である。これは、ウェブやツイッター(登録商標)などから入力されたユーザ発話と高い関連度を持つものを選択することでシステム発話を実現する手法である。例えば、ツイッター(登録商標)からユーザ発話に関連するツイートを選択して発話を生成する旨が示されている。ウェブやツイッター(登録商標)といった大量のデータに基づくことで、幅広い内容を持つユーザ発話について、適切に応答できる可能性がある(非特許文献1)。
また、抽出ベースのシステムでは、一般にユーザの入力発話と高い関連度を持つ文を大規模なテキストデータ(ウェブやツイッター(登録商標)のデータ)から選択する。関連度としては、単語ベクトルから計算されるコサイン類似度などを用いることが多い。ツイッター(登録商標)を用いる場合、ユーザの入力発話と関連度が高いツイートをまず選択し、このツイートに応答しているツイート(in-reply-to というメタ情報を用いて求めることができる)を用いてユーザ発話とする手法もある。
Bessho, F., Harada, T., and Kuniyoshi, Y. (2012). "Dialog System Using Real-Time Crowdsourcing and Twitter Large-Scale Corpus." In Proc. SIGDIAL,pp. 227-231.
しかし、関連度に基づいて選択された発話が必ずしもよい発話であるとは限らない。内容は関連しているが、適切な応答ではないものが選択されるケースもある。例えば、ユーザ発話が質問であったとすると、なるべく質問に応答をした方が適切と考えられるが、内容の関連度だけに着目すると、質問に応答していない発話であっても高い関連度になりうる。そうした場合、不適切な発話を生成する可能性があるという問題がある。
本発明では、上記問題点を解決するために成されたものであり、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができるモデル学習装置、方法、及びプログラムを提供することを目的とする。
また、発話列の結束性に基づいて発話列をランキングして発話候補を出力することができるランキング装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係るモデル学習装置は、正例として入力された、連続する複数の発話からなる発話列に基づいて、前記発話列に含まれる最後の発話を、対話データからランダムに取得した別の発話に置き換えた発話列を、疑似負例として作成する疑似負例作成部と、前記正例として入力された発話列に対する形態素解析結果に基づいて、特徴量を抽出し、前記疑似負例作成部により作成された発話列に対する形態素解析結果に基づいて、前記特徴量を抽出する特徴量抽出部と、前記特徴量抽出部において抽出された前記特徴量に基づいて、前記正例として入力された発話列の特徴量が、前記疑似負例作成部により作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習するモデル学習部と、を含んで構成されている。
第2の発明に係るモデル学習方法は、疑似負例作成部と、特徴量抽出部と、モデル学習部と、を含むモデル学習装置におけるモデル学習方法であって、前記疑似負例作成部は、正例として入力された、連続する複数の発話からなる発話列に基づいて、前記発話列に含まれる最後の発話を、対話データからランダムに取得した別の発話に置き換えた発話列を、疑似負例として作成し、前記特徴量抽出部は、前記正例として入力された発話列に対する形態素解析結果に基づいて、特徴量を抽出し、前記疑似負例作成部により作成された発話列に対する形態素解析結果に基づいて、前記特徴量を抽出し、前記モデル学習部は、前記特徴量抽出部において抽出された前記特徴量に基づいて、前記正例として入力された発話列の特徴量が、前記疑似負例作成部により作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習する。
第1及び第2の発明によれば、疑似負例作成部により、正例として入力された、連続する複数の発話からなる発話列に基づいて、発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例として作成し、特徴量抽出部により、正例として入力された発話列に対する形態素解析結果に基づいて、特徴量を抽出し、疑似負例作成部により作成された発話列に対する形態素解析結果に基づいて、特徴量を抽出し、モデル学習部により、抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例作成部により作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習する。
このように、正例として入力された、連続する複数の発話からなる発話列に基づいて、発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例として作成し、正例として入力された発話列及び疑似負例として作成された発話列の特徴量を抽出し、抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例として作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習することによって、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができる。
また、第1の発明において、前記特徴量抽出部は、前記発話列に含まれる最後の発話における単語、品詞、及び意味属性のうちの少なくとも1つと、前記発話列に含まれる、最後の発話以外の発話における単語、品詞、及び意味属性のうちの少なくとも1つとの組み合わせを、前記特徴量として抽出してもよい。
第3の発明に係るランキング装置は、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、前記複数の発話候補の各々に対し、前記発話列に続く発話として前記発話候補を追加した発話列を構成する発話列構成部と、前記発話列構成部によって構成された発話列の各々について、前記発話列に対する形態素解析結果に基づいて、前記特徴量を抽出する特徴量抽出部と、前記特徴量抽出部によって抽出された前記発話列の各々についての前記特徴量と、上記第1の発明に係るモデル学習装置によって学習された前記モデルとに基づいて、前記発話列構成部によって構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力するランキング部と、を含んで構成されている。
第4の発明に係るランキング方法は、発話列構成部と、特徴量抽出部と、ランキング部と、を含むランキング装置におけるランキング方法であって、前記発話列構成部は、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、前記複数の発話候補の各々に対し、前記発話列に続く発話として前記発話候補を追加した発話列を構成し、前記特徴量抽出部は、前記発話列構成部によって構成された発話列の各々について、前記発話列に対する形態素解析結果に基づいて、前記特徴量を抽出し、前記ランキング部は、前記特徴量抽出部によって抽出された前記発話列の各々についての前記特徴量と、上記第2の発明に係るモデル学習方法によって学習された前記モデルとに基づいて、前記発話列構成部によって構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力する。
第3及び第4の発明によれば、発話列構成部により、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、特徴量抽出部により、発話列構成部によって構成された発話列の各々について、発話列に対する形態素解析結果に基づいて、特徴量を抽出し、ランキング部により、抽出された発話列の各々についての特徴量と、第1の発明に係るモデル学習方法によって学習されたモデルとに基づいて、構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力する。
このように、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、構成された発話列の各々について、特徴量を抽出し、抽出された発話列の各々についての特徴量と、予め学習されたモデルとに基づいて、構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力することによって、発話列の結束性に基づいて発話列をランキングして発話候補を出力することができる。
また、本発明のプログラムは、コンピュータを、上記のモデル学習装置、及びランキング装置を構成する各部として機能させるためのプログラムである。
以上説明したように、本発明のモデル学習装置、方法、及びプログラムによれば、正例として入力された、連続する複数の発話からなる発話列に基づいて、発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例として作成し、正例として入力された発話列及び疑似負例として作成された発話列の特徴量を抽出し、抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例として作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習することによって、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができる。
また、本発明のランキング装置、方法、及びプログラムによれば、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、構成された発話列の各々について、特徴量を抽出し、抽出された発話列の各々についての特徴量と、予め学習されたモデルとに基づいて、構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力することによって、発話列の結束性に基づいて発話列をランキングして発話候補を出力することができる。
本発明の実施の形態に係るモデル学習装置の機能的構成を示すブロック図である。 対話データの例を示す図である。 疑似負例作成のイメージ例を示す図である。 JTAGの形態素解析結果の例を示す図である。 抽出される特徴量の例を示す図である。 本発明の実施の形態に係るランキング装置の機能的構成を示すブロック図である。 作成される発話列の例を示す図である。 抽出される特徴量の例を示す。 本発明の実施の形態に係るモデル学習装置におけるモデル学習処理ルーチンのフローチャート図である。 本発明の実施の形態に係るランキング装置におけるランキング処理ルーチンのフローチャート図である。 実験例の結果の例を示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の原理>
本実施の形態においては、対話システムとの対話において、発話のつながりのよさを示す結束性を判定して、発話候補を選択する。本実施の形態は、モデル学習フェーズと、ランキングフェーズとから構成される。
結束性の判定を行うための方法として教師あり学習の手法が考えられる。例えば、結束性が高い発話列と結束性が低い発話列をそれぞれ準備し、これらから結束性が高いか低いかを二値分類する分類器を学習すればよい。しかし、雑談のような雑多な話題を持った対話では、様々なやりとりがなされる。それらをすべてカバーするような学習データを作ることは非常にコストがかかり困難である。そこで、本実施の形態においては、雑多な話題を持った対話のような学習事例を、疑似負例を用いて作成する。
具体的には、まず大量の対話データを用意する。人間同士が話した自然な対話であれば何でもよい。そして、これらの対話データから一定の長さの発話列をサンプリングする。この発話列をAとする。同時に、発話列Aの最後の発話を他の発話とランダムに入れ替えた発話列(発話列B)も作成する。最後の発話がランダムに入れ替えられた発話列Bの結束性は、発話列Aよりも低いと想定できる。よって、発話列Aを正例とし、発話列Bを負例(疑似負例)とすることで、教師あり学習の手法が適用できる。
なお、発話列Aは発話列Bよりも結束性が高いと考えられるが、発話列Bの結束性が必ずしも低いという保証はない。よって、学習手法としてはランキング学習を用いる。具体的には、発話列Bよりも発話列Aが上位にランキングされるようにランキング規則を学習する。
学習では特徴量が重要である。本実施の形態においては、発話列を表す特徴量として、最後の発話に含まれる単語、品詞、及び意味属性と、それ以前の発話のそれぞれに含まれる単語、品詞、及び意味属性とのすべての組み合わせを特徴量として用いる。そうすることで、文脈に出現するさまざまな情報と、最後の発話の情報との両方を考慮したランキングの学習が可能である。単語や品詞のみならず、意味属性を用いることで、単語の表層によらないロバストな学習も可能となる。
<本発明の実施の形態に係るモデル学習装置の構成>
次に、本発明の実施の形態に係るモデル学習装置の構成について説明する。図1に示すように、本発明の実施の形態に係るモデル学習装置100は、CPUと、RAMと、後述するモデル学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このモデル学習装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部90とを備えている。
入力部10は、図2に示すような、対話データの集合を受け付ける。ここで、対話データは、連続する複数の発話からなるものとする。なお、本実施の形態において、対話データについては、話者情報を取り除いたものとする。
演算部20は、発話列抽出部22と、疑似負例作成部24と、形態素解析部26と、特徴量抽出部28と、モデル学習部30と、モデル記憶部32と、を備えている。
発話列抽出部22は、入力部10において受け付けた対話データの各々について、当該対話データに含まれる、N個の連続する複数の発話からなる発話列の各々を抽出し、抽出された発話列の各々を正例の発話列とする。なお、発話列の抽出は、先頭に位置する発話を1つずつ繰り下げて抽出するため、発話列の各々に、重複する発話が含まれることになる。
疑似負例作成部24は、発話列抽出部22において抽出された発話列の各々について、当該発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例の発話列として作成する。具体的には、発話列に含まれる最後の発話を、当該発話列を抽出した対話データからランダムに取得した発話に置き換える。ここで、1つの対話データにM個の発話があったとすると、当該対話データについては、Nが2の場合、M−1個の正例と、M−1個の疑似負例を作成できる。また、Nが3の場合、M−2個の正例と、M−2個の疑似負例を作成できる。図3に疑似負例作成のイメージを示す。
形態素解析部26は、発話列抽出部22において抽出された正例の発話列の各々、及び疑似負例作成部24において作成された疑似負例の発話列の各々について、当該発話列に含まれる発話毎に、形態素解析を行う。なお、本実施の形態においては、形態素解析器としてJTAGを用いる(非特許文献2:保守性を考慮した日本語形態素解析システム. 渕武志,松岡浩司,高木伸一郎. 情報処理学会研究報告, NL-117-9, pp.59-66, 1997.)。図4に、「私は彼と映画に行った」という発話に対するJTAGの形態素解析結果を示す。一般的な形態素情報である表記や品詞、標準表記につづいて、[]で囲まれた箇所が意味属性の情報であり、一般名詞属性、固有名詞属性、用言属性の順で括弧内に解析結果が表示されている。意味属性の獲得には日本語語彙大系が用いられている。
特徴量抽出部28は、形態素解析部26において形態素解析処理が行われた、正例の発話列の各々、及び疑似負例の発話列の各々について、特徴量(素性)を抽出する。具体的には、まず、発話列に含まれる発話の各々について、単語、品詞、及び意味属性の各々の情報を抽出する。そして、発話列の最後に位置する発話について抽出された単語、品詞、及び意味属性の各々の情報と、発話列の最後に位置する発話以外の発話の単語、品詞、及び意味属性の各々の情報との組み合わせを、特徴量として抽出する。
例えば、対象となる発話列にN個の発話が存在する場合、当該発話列の最後に位置する発話(N番目の発話)から、単語がA個、品詞がB個、意味属性がC個抽出され、当該発話列のN−1番目の発話から、単語がD個、品詞がE個、意味属性がF個抽出されたとすると、N番目の発話と、N−1番目の発話との間における、単語同士のすべての組み合わせ、品詞同士のすべての組み合わせ、及び意味属性同士のすべての組み合わせを表す特徴量(その組み合わせが存在するか否かを表す二値素性)を抽出する。つまり、全部でA*D+B*E+C*F個の特徴量を抽出する。また、当該発話列のN−2番目の発話が存在する場合には、N番目の発話とN−2番目の発話との間における組み合わせについても同様に特徴量を抽出する。なお、N−3番目以降の発話も存在する場合には、N−3番目以降の発話とN番目の発話との間における組み合わせについても、同様に特徴量の抽出を行う。また、抽出される単語、品詞、及び意味属性の個数はユニークとなる単語、品詞、及び意味属性の個数であり、カウント済みの、重複して存在する単語、品詞、及び意味属性の各々についてはカウントしない。
発話列に、発話「楽器とか演奏しますか?」及び発話「素晴らしいですね。」が存在する場合、図5のような特徴量が抽出される。ここで、各特徴量は‘|’で区切られている。‘WORD:’から始まるものは単語の組み合わせの特徴量、‘POS:’から始まるものは品詞の組み合わせの特徴量、‘CATS:’から始まるものは意味属性の組み合わせの特徴量である。「CATS:1 N-1674 N-2533=1」は、最後の発話に「N-2533」という意味属性があり、直前の発話に「N-1674」という意味属性があるということを示す特徴量である。「N-1674」の直前の「1_」は一つ前の発話との組み合わせであることを示す。イコール記号以降の1は特徴量の値であり、バイナリ特徴量であるので、特徴量が存在する場合は必ず1である。「POS:1 動詞接尾辞:終止句点=1」であれば、最後の発話に「句点」という品詞があり、直前発話に「動詞接尾辞:終止」があることを示す。「CATS:1 N-1674 N-2533=1」であれば、最後の発話に「N-2533」で表される意味属性が存在し、直前の発話に「N-1674」で表される意味属性が存在することを示す。
モデル学習部30は、正例の発話列の各々について抽出された特徴量の各々と、疑似負例の発話列の各々について抽出された特徴量の各々とに基づいて、正例の発話列の各々について、当該正例の発話列に対応する擬似負例の発話列の特徴量より、当該正例の発話列の特徴量が上位にランキングされるように、ランキング学習により発話列の結束性を判定するためのモデルの学習を行い、モデル記憶部32に記憶する。具体的には、正例の発話列と当該正例の発話列から作成された疑似負例の発話列とのペアの各々について、当該正例の発話列の特徴量をFとし、当該疑似負例の発話列の特徴量をF´とし、ある重みベクトルWを用いて計算される、それぞれのスコア(内積により得られる)を比べ、FWがF´Wよりも大きくなるようなWを、最適化の手法などにより見つけることで、正例の発話列を疑似負例の発話列よりも上位にランキングする重みベクトル(ランキングモデル)を得ることができる。このような重みベクトルは、ランキング学習に一般的に用いられる手法である、ランキングSVMを用いることで、得ることが可能であり、出力は各特徴量の重みが記述されたモデルである。本実施の形態では、SVMにリニアSVMを用いる。
モデル記憶部32には、モデル学習部30において学習された発話列の結束性を判定するモデルが記憶されている。
<本発明の実施の形態に係るランキング装置の構成>
次に、本発明の実施の形態に係るランキング装置の構成について説明する。図6に示すように、本発明の実施の形態に係るランキング装置200は、CPUと、RAMと、後述するランキング処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このランキング装置200は、機能的には図6に示すように入力部210と、演算部220と、出力部290とを備えている。
入力部210は、1つ以上の発話からなる、ユーザと対話システムの発話列(以後、対話文脈とする。)と、P個の対話システムの発話候補とを受け付ける。ここで、対話システムの発話候補とは、入力部210において受け付ける、対話文脈に対応して、対話システムが生成した発話候補である。抽出ベースのシステムを対話システムとして用いる場合、直前のユーザの発話と関連度の高い(例えば、単語ベクトルのコサイン類似度が高い)発話の上位P個を発話候補とする。
演算部220は、発話列構成部222と、形態素解析部224と、特徴量抽出部226と、モデル適用部228と、モデル記憶部230と、ランキング部232と、を備えている。
発話列構成部222は、入力部210において受け付けた、P個の対話システムの発話候補の各々について、入力部210において受け付けた対話文脈の最後に、当該対話システムの発話候補を追加して発話列を作成する。例えば、対話文脈に含まれる発話(U1,U2)があり、発話候補C1,C2があったとすると、(U1,U2,C1)と(U1,U2,C2)という発話列を作成する。なお、発話列構成部222は、後述するランキング部232が扱う発話列の長さに合わせて、発話列の要素数を所定の長さにする。例えば、ランキング部232が用いるモデルが2つの発話からなる発話列をランキングするように学習されている場合、発話列のそれぞれが2つの発話からなるようには発話列の先頭から切り詰める。例えば、(U1,U2,C1)と(U1,U2,C2)は、(U2,C1)と(U2,C2)という発話列になる。
具体的には、対話文脈に含まれる発話が先頭から「音楽が好きなんです。」、及び「楽器とか演奏しますか?」の2つであり、5個の発話候補「好きなピアニストはいますか?」、「ベートーベンとか情熱的な方が好きです。」、「素晴らしいですね。」、「バイオリンを弾きます。」、及び「オペラなどですよ。」が存在する場合であり、かつ、ランキング部232が用いるモデルが2つの発話からなる発話列をランキングするように学習されている場合、作成される発話列は、図7のようになる。ここで、BEGIN、ENDと書かれた行は発話列のセパレータであり、発話がある行の最初の数字が発話列の連番であり、二つ目の数字が発話列中の発話の連番である。
形態素解析部224は、発話列構成部222において作成した発話列の各々について、当該発話列に含まれる発話毎に、モデル学習装置100の形態素解析部26と同様に、JTAGを用いて形態素解析を行う。
特徴量抽出部226は、発話列構成部222において作成した発話列の各々について、モデル学習装置100の特徴量抽出部28と同様に、形態素解析部224において取得した形態素解析結果に基づいて、発話列の最後に位置する発話について抽出された単語、品詞、及び意味属性の各々の情報と、発話列の最後に位置する発話以外の発話の単語、品詞、及び意味属性の各々の情報との組み合わせを、特徴量として抽出する。図8に、発話列の発話が先頭から「楽器とか演奏しますか?」、「オペラなどですよ」の順で存在している場合の特徴量を示す。
モデル適用部228は、発話列構成部222において作成した発話列の各々について、当該発話列の特徴量と、モデル記憶部230に記憶されている発話列の結束性を判定するモデルとに基づいて、当該発話列の結束性を表すスコアを算出する。具体的には、発話列から抽出された特徴量の各々について、当該特徴量と、当該特徴量の重みを掛け合わせて、その総和をとった値を、当該発話列の結束性を表すスコアとして算出する。
ランキング部232は、モデル適用部228において算出された、発話列の各々の当該発話列の結束性を表すスコアに基づいて、発話列の各々をランキングし、ランキング結果と、上位にランキングされた発話列に含まれる発話候補を出力部290に出力する。
<本発明の実施の形態に係るモデル学習装置の作用>
次に、本発明の実施の形態に係るモデル学習装置100の作用について説明する。対話データの集合を受け付けと、モデル学習装置100は、図9に示すモデル学習処理ルーチンを実行する。
まず、ステップS100では、入力部10において受け付けた対話データの各々について、当該対話データに含まれる、N個の連続した発話からなる発話列の各々を正例の発話列として抽出する。
次に、ステップS102では、ステップS100において取得した発話列の各々について、当該発話列に含まれる最後の発話を別の発話で置き換えた発話列を疑似負例の発話列として作成する。
次に、ステップS104では、ステップS100において取得した正例の発話列、及び、ステップS102において取得した疑似負例の発話列の各々について、形態素解析を行う。
次に、ステップS106では、ステップS104において取得した形態素解析済みの、ステップS100において取得した正例の発話列、及び、ステップS102において取得した疑似負例の発話列の各々について、特徴量を抽出する。
次に、ステップS108では、ステップS106において取得した、正例の発話列の各々についての特徴量と、疑似負例の発話列の各々についての特徴量と、に基づいて、発話列の結束性を判定するモデルを学習し、モデル記憶部32に記憶する。
次に、ステップS110では、ステップS108において取得した発話列の結束性を判定するモデルを出力部90に出力して、モデル学習処理ルーチンを終了する。
<本発明の実施の形態に係るランキング装置の作用>
次に、本発明の実施の形態に係るランキング装置200の作用について説明する。まず、入力部210から、モデル学習装置100において学習された発話列の結束性を判定するモデルが入力され、モデル記憶部230に記憶される。そして、対話文脈と、P個の発話候補とを受け付けると、ランキング装置200は、図10に示すランキング処理ルーチンを実行する。
まず、ステップS200では、モデル記憶部230に記憶されている発話列の結束性を判定するモデルを読み込む。
次に、ステップS202では、入力部10において受け付けた対話文脈、及びP個の発話候補に基づいて、P個の発話列を作成する。
次に、ステップS204では、ステップS202において取得した発話列の各々について、当該発話列に含まれる発話毎に、ステップS104と同様に、形態素解析を行う。
次に、ステップS206では、ステップS202において取得した発話列の各々について、ステップS204において取得した形態素解析結果に基づいて、ステップS106と同様に、特徴量を抽出する。
次に、ステップS208では、発話列の各々について、ステップS200において取得した発話列の結束性を判定するモデルと、ステップS206において取得した発話列の各々の特徴量とに基づいて、当該発話列の結束性を表すスコアを算出する。
次に、ステップS210では、ステップS208において取得した発話列の各々の、当該発話列の結束性を表すスコアに基づいて、ランキングを行う。
次に、ステップS212では、ステップS210において取得したランキング結果と、上位にランキングされた発話列に含まれる発話候補とを、出力部290に出力してランキング処理ルーチンの処理を終了する。
<実験例>
図11に、人間同士の約3500対話について、発話列の長さ2で正例の発話列と疑似負例の発話列とを作成し、モデル学習装置100により学習したモデルによって、5個の発話候補「好きなピアニストはいますか?」、「ベートーベンとか情熱的な方が好きです。」、「素晴らしいですね。」、「バイオリンを弾きます。」、及び「オペラなどですよ。」をランキングした結果を示す。ここで、「バイオリンを弾きます。」のスコアが最も高くなっている。これは、「楽器とか演奏しますか?」「バイオリンを弾きます。」のやりとりを最も結束性が高いとシステムが判断したということである。直前発話が「楽器とか演奏しますか?」であるから、妥当な発話を選択できている。
以上説明したように、本発明の実施の形態に係るモデル学習装置によれば、正例として入力された、連続する複数の発話からなる発話列に基づいて、発話列に含まれる最後の発話を別の発話に置き換えた発話列を、疑似負例として作成し、正例として入力された発話列及び疑似負例として作成された発話列の特徴量を抽出し、抽出された特徴量に基づいて、正例として入力された発話列の特徴量が、疑似負例として作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習することによって、発話列の結束性に基づいて発話列を精度よくランキングするためのモデルを学習することができる。
また、本発明の実施の形態に係るランキング装置によれば、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、複数の発話候補の各々に対し、発話列に続く発話として発話候補を追加した発話列を構成し、構成された発話列の各々について、特徴量を抽出し、抽出された発話列の各々についての特徴量と、予め学習されたモデルとに基づいて、構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力することによって、発話列の結束性に基づいて発話列をランキングして発話候補を出力することができる。
また、大量の対話データから、正例の発話列と疑似負例の発話列とを作成し、特徴量を抽出し、ランキング学習を行い、また、学習されたランキングのモデルを対話システムの発話候補選択に適用することで、結束性の高い発話を行う対話システムにおける発話生成を実現することができる。
また、対話システムの発話の結束性が高まり、ユーザにとって理解しやすい発話をシステムが生成できるようになることから、システムとユーザの意思疎通がしやすくなり、システムとユーザのインタラクションが円滑になる。
また、従来存在する新聞記事などの結束性を判定する手法とは異なり、対話システムとの対話において結束性を判定することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、本実施の形態において、対話データについては、話者情報を取り除いたものを用いる場合について説明したが、これに限定されるものではなく、例えば、対話データに話者情報を付加したものを用いてもよい。
また、本実施の形態においては、疑似負例の発話列を作成する際に、正例の発話列に含まれる最後の発話を、当該発話列を抽出した対話データからランダムに取得した発話に置き換える場合について説明したが、これに限定されるものではない。例えば、正例の発話列に含まれる最後の発話を、当該発話列を抽出した対話データ以外の対話データからランダムに取得した発話に置き換えて、疑似負例の発話列を作成してもよい。
また、本実施の形態においては、形態素解析器としてJTAGを用いる場合について説明したが、これに限定されるものではない。例えば、形態素解析器としてフリーソフトとして広く流通している、ChasenやMecabを用いてもよい。
また、本実施の形態においては、特徴量として、最後の発話と、最後の発話以外の発話との間における、単語同士のすべての組み合わせ、品詞同士のすべての組み合わせ、及び意味属性同士のすべての組み合わせを表す特徴量を用いる場合について説明したがこれに限定されるものではない。例えば、最後の発話と、最後の発話以外の発話との間における、単語、品詞、意味属性のすべての組み合わせにより(A+B+C)*(D+E+F)個の組み合わせの特徴量を作成してもよい。
また、本実施の形態においては、特徴量として、単語、品詞、及び意味属性のすべてを用いる場合について説明したが、これに限定されるものではない。例えば、単語、品詞、及び意味属性のうち少なくとも1つを用いてもよい。この場合には、最後の発話と、最後の発話以外の発話との間における、単語、品詞、及び意味属性のうち少なくとも1つ同士の全ての組み合わせを、特徴量として抽出するようにすればよい。あるいは、最後の発話と、最後の発話以外の発話との間における、単語、品詞、及び意味属性のうち少なくとも1つの全ての組み合わせを、特徴量として抽出するようにすればよい。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能であるし、ネットワークを介して提供することも可能である。
10 入力部
20 演算部
22 発話列抽出部
24 疑似負例作成部
26 形態素解析部
28 特徴量抽出部
30 モデル学習部
32 モデル記憶部
90 出力部
100 モデル学習装置
200 ランキング装置
210 入力部
220 演算部
222 発話列構成部
224 形態素解析部
226 特徴量抽出部
228 モデル適用部
230 モデル記憶部
232 ランキング部
290 出力部

Claims (7)

  1. 正例として入力された、連続する複数の発話からなる発話列に基づいて、前記発話列に含まれる最後の発話を、対話データからランダムに取得した別の発話に置き換えた発話列を、疑似負例として作成する疑似負例作成部と、
    前記正例として入力された発話列に対する形態素解析結果に基づいて、特徴量を抽出し、前記疑似負例作成部により作成された発話列に対する形態素解析結果に基づいて、前記特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部において抽出された前記特徴量に基づいて、前記正例として入力された発話列の特徴量が、前記疑似負例作成部により作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習するモデル学習部と、
    を含む、モデル学習装置。
  2. 前記特徴量抽出部は、前記発話列に含まれる最後の発話における単語、品詞、及び意味属性のうちの少なくとも1つと、前記発話列に含まれる、最後の発話以外の発話における単語、品詞、及び意味属性のうちの少なくとも1つとの組み合わせを、前記特徴量として抽出する請求項1記載のモデル学習装置。
  3. 対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、前記複数の発話候補の各々に対し、前記発話列に続く発話として前記発話候補を追加した発話列を構成する発話列構成部と、
    前記発話列構成部によって構成された発話列の各々について、前記発話列に対する形態素解析結果に基づいて、前記特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部によって抽出された前記発話列の各々についての前記特徴量と、請求項1又は2記載のモデル学習装置によって学習された前記モデルとに基づいて、前記発話列構成部によって構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力するランキング部と、
    を含むランキング装置。
  4. 疑似負例作成部と、特徴量抽出部と、モデル学習部と、を含むモデル学習装置におけるモデル学習方法であって、
    前記疑似負例作成部は、正例として入力された、連続する複数の発話からなる発話列に基づいて、前記発話列に含まれる最後の発話を、対話データからランダムに取得した別の発話に置き換えた発話列を、疑似負例として作成し、
    前記特徴量抽出部は、前記正例として入力された発話列に対する形態素解析結果に基づいて、特徴量を抽出し、前記疑似負例作成部により作成された発話列に対する形態素解析結果に基づいて、前記特徴量を抽出し、
    前記モデル学習部は、前記特徴量抽出部において抽出された前記特徴量に基づいて、前記正例として入力された発話列の特徴量が、前記疑似負例作成部により作成された発話列の特徴量より上位にランキングされるように、発話列の結束性を判定するためのモデルを学習する
    モデル学習方法。
  5. 発話列構成部と、特徴量抽出部と、ランキング部と、を含むランキング装置におけるランキング方法であって、
    前記発話列構成部は、対話文脈として入力された複数の発話からなる発話列と、複数の発話候補とに基づいて、前記複数の発話候補の各々に対し、前記発話列に続く発話として前記発話候補を追加した発話列を構成し、
    前記特徴量抽出部は、前記発話列構成部によって構成された発話列の各々について、前記発話列に対する形態素解析結果に基づいて、前記特徴量を抽出し、
    前記ランキング部は、前記特徴量抽出部によって抽出された前記発話列の各々についての前記特徴量と、請求項4記載のモデル学習方法によって学習された前記モデルとに基づいて、前記発話列構成部によって構成された発話列をランキングし、上位にランキングされた発話列に含まれる発話候補を出力する
    ランキング方法。
  6. コンピュータを、請求項1又は2記載のモデル学習装置を構成する各部として機能させるためのプログラム。
  7. コンピュータを、請求項3記載のランキング装置を構成する各部として機能させるためのプログラム。
JP2014108548A 2014-05-26 2014-05-26 モデル学習装置、ランキング装置、方法、及びプログラム Active JP5976037B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014108548A JP5976037B2 (ja) 2014-05-26 2014-05-26 モデル学習装置、ランキング装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014108548A JP5976037B2 (ja) 2014-05-26 2014-05-26 モデル学習装置、ランキング装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015225416A JP2015225416A (ja) 2015-12-14
JP5976037B2 true JP5976037B2 (ja) 2016-08-23

Family

ID=54842127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014108548A Active JP5976037B2 (ja) 2014-05-26 2014-05-26 モデル学習装置、ランキング装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5976037B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6674411B2 (ja) * 2017-05-02 2020-04-01 日本電信電話株式会社 発話生成装置、発話生成方法、及び発話生成プログラム
JP6899973B2 (ja) * 2019-01-08 2021-07-07 三菱電機株式会社 意味関係学習装置、意味関係学習方法、及び意味関係学習プログラム

Also Published As

Publication number Publication date
JP2015225416A (ja) 2015-12-14

Similar Documents

Publication Publication Date Title
JP2011070192A (ja) 音声検索装置及び音声検索方法
JP6251562B2 (ja) 同一意図の類似文を作成するプログラム、装置及び方法
JPWO2008023470A1 (ja) 文単位検索方法、文単位検索装置、コンピュータプログラム、記録媒体及び文書記憶装置
Agarwal et al. Vocal Mood Recognition: Text Dependent Sequential and Parallel Approach
JP5914054B2 (ja) 言語モデル作成装置、音声認識装置、およびそのプログラム
JP5976037B2 (ja) モデル学習装置、ランキング装置、方法、及びプログラム
JP6082657B2 (ja) ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム
JP2017091368A (ja) 言い換え装置、方法、及びプログラム
JP2016133956A (ja) 形態素解析モデル生成装置、形態素解析モデル生成方法、及び、プログラム
JP6126965B2 (ja) 発話生成装置、方法、及びプログラム
JP2015084047A (ja) 文集合作成装置、文集合作成方法および文集合作成プログラム
Rouhe et al. An equal data setting for attention-based encoder-decoder and HMM/DNN models: A case study in Finnish ASR
JP5959598B2 (ja) モデル学習装置、ランキング装置、方法、及びプログラム
CN112632232B (zh) 一种文本匹配方法、装置、设备及介质
Majumder et al. Event extraction from biomedical text using crf and genetic algorithm
Noormamode et al. A speech engine for mauritian creole
JP5744150B2 (ja) 発話生成装置、方法、及びプログラム
JP2013109738A (ja) 意味ラベル付与モデル学習装置、意味ラベル付与装置、意味ラベル付与モデル学習方法、及びプログラム
JP2017167378A (ja) 単語スコア計算装置、単語スコア計算方法及びプログラム
JP6309852B2 (ja) 強調位置予測装置、強調位置予測方法及びプログラム
JP5527504B2 (ja) 語句抽出ルール生成装置、語句抽出システム、語句抽出ルール生成方法、及びプログラム
CN113901798B (zh) 一种语法解析方法、装置、设备及存储介质
JP7375096B2 (ja) 分散表現生成システム、分散表現生成方法及び分散表現生成プログラム
WO2019044583A1 (ja) コンフュージョンネットワーク分散表現生成装置、コンフュージョンネットワーク分類装置、コンフュージョンネットワーク分散表現生成方法、コンフュージョンネットワーク分類方法、プログラム
Gurrala et al. Multilayer tag extraction for music recommendation systems

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160719

R150 Certificate of patent or registration of utility model

Ref document number: 5976037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150