[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5825676B2 - ノン・ファクトイド型質問応答システム及びコンピュータプログラム - Google Patents

ノン・ファクトイド型質問応答システム及びコンピュータプログラム Download PDF

Info

Publication number
JP5825676B2
JP5825676B2 JP2012036972A JP2012036972A JP5825676B2 JP 5825676 B2 JP5825676 B2 JP 5825676B2 JP 2012036972 A JP2012036972 A JP 2012036972A JP 2012036972 A JP2012036972 A JP 2012036972A JP 5825676 B2 JP5825676 B2 JP 5825676B2
Authority
JP
Japan
Prior art keywords
question
answer
evaluation
candidate
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012036972A
Other languages
English (en)
Other versions
JP2013171550A (ja
Inventor
鍾勲 呉
鍾勲 呉
健太郎 鳥澤
健太郎 鳥澤
力 橋本
力 橋本
拓也 川田
拓也 川田
ステイン デサーガ
ステイン デサーガ
淳一 風間
淳一 風間
軼謳 王
軼謳 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2012036972A priority Critical patent/JP5825676B2/ja
Priority to EP13751215.8A priority patent/EP2819031A4/en
Priority to US14/377,999 priority patent/US9697477B2/en
Priority to PCT/JP2013/051327 priority patent/WO2013125286A1/ja
Priority to CN201380010249.4A priority patent/CN104137102B/zh
Priority to KR1020147023478A priority patent/KR101968102B1/ko
Publication of JP2013171550A publication Critical patent/JP2013171550A/ja
Application granted granted Critical
Publication of JP5825676B2 publication Critical patent/JP5825676B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

この発明は、質問応答システムに関し、特に、あることの理由等を聞く、いわゆるハウ型、ホワイ型質問等の、ノン・ファクトイド質問と呼ばれる質問に対する応答システムに関する。
何らかの事実についての質問応答(QA)に関する研究は、最近になって大きな進歩を遂げている。例えば米国のクイズ番組でこの種のシステムが人間に勝利したことは記憶に新しい。その精度は、事実に関する質問については85%程度であると言われている。このような事実に関する質問応答システム以外の領域でも、同じように精度の高い質問応答システムについての研究についてもその必要性が認められ始めている。しかし、事実に関するものでない質問、例えば「なぜ」に関する質問、及び「どのように」に関する質問については、まだ研究が進んでいないのが実情である。
そのようなシステムの例として、後掲の非特許文献1に記載されたシステムがある。このシステムでは、質問とコーパス内の各文とに対して形態素解析を行ない、さらにその結果を用い、質問から得られた単語の文書頻度、各文中の単語頻度、文書総数、文書の長さ等を用いたスコアを算出し、スコアが上位の所定個数の文書をコーパスから選択する。選択された文書中に含まれるパラグラフ、及び1〜3個の連続するパラグラフを回答候補とし主として質問中の単語と、回答候補に含まれる単語との間で算出されるスコアにより、質問に対する回答を選択する。
しかし、後述するようにこのシステムでは十分な性能が得られないことがわかった。そこで、このシステムをさらに改良したシステムとして、後掲の非特許文献2に記載されたようなシステムを考えることができる。このシステムは、例えば非特許文献1に記載された技術によりいくつかの回答候補を選択した後、さらに各回答候補を所定のスコアにより再ランク付けするというものである。
以下、このシステムを実現する場合の実現例として典型的と思われるものについて、非特許文献2の記載に基づいて説明する。なお、事実に関するものでないものに関する質問を、以下、「ノン・ファクトイド型の質問」と呼ぶ。
図1を参照して、この質問応答システム30は、例えばインターネット上で検索可能な非常に多数の文(ここでは日本語に限定して考える。)からなるコーパスをコーパス記憶部48に記憶しており、テキスト通信が可能な携帯電話等のサービス利用端末44から送信されるノン・ファクトイド型の質問を受け、回答処理部40が、その回答としての確率が高いいくつかの回答文をコーパス記憶部48に記憶された多数の文のうちから選択し、回答文リスト50としてサービス利用端末44に返信する。回答処理部40が回答文のランキングをする際にはサポート・ベクター・マシン(SVM)46を使用し、学習処理部42が予めこのSVM46についての教師付機械学習を行なう。
学習処理部42は、予め、ノン・ファクトイド型の質問と、それに対する正しい回答又は誤った回答と、回答が正しいか否かを示すフラグとからなる、いくつかの日本語のQA文を記憶するためのQA文記憶部60と、QA文記憶部60に記憶されたQA文に対する解析を行ない、SVM46の学習に用いるための素性として、予め選択した、統語に関する統計的情報の様々な組合せと、そのQA文の回答が質問に対する正解か否かを示すフラグとからなる学習データを生成するための学習データ生成部62と、学習データ生成部62が生成した学習データを記憶する学習データ記憶部64と、学習データ記憶部64に記憶された学習データを用い、SVM46の教師付機械学習を行なう学習処理部66とを含む。この学習の結果、SVM46は、学習データ生成部62が生成したものと同種の組合せの素性をSVM46が受けると、その素性の組合せを生じさせた質問文及び回答候補の組合せが正しい組合せか否か、すなわち回答候補が質問に対する正しい答えか否か、を示す尺度を出力するようになる。
コーパス記憶部48に記憶された各文については、予め学習データ生成部62が各回答文に対して行なったのと同じ解析処理を行ない、SVM46に与える素性を生成するために必要な情報を各文に対して付してあるものとする。
これに対して回答処理部40は、サービス利用端末44から質問文を受けたことに応答して、その質問文に対して予め定められた文法的な解析を行ない、その質問文に含まれる各単語について、素性を生成するために必要な情報(品詞、活用形、係り受け構造等)を出力するための質問文解析部86と、サービス利用端末44が質問文を受けたことに応答して、コーパス記憶部48から質問に対する所定個数(例えば300個)の回答候補文を検索し抽出するための候補文検索部82と、候補文検索部82の出力する所定個数の候補文をその文法情報とともに記憶するための回答候補文記憶部84とを含む。
なお、本実施の形態では、コーパス記憶部48から候補文を検索し抽出して回答候補文記憶部84に記憶しているが、このように候補文を絞り込む必要はない。例えば、コーパス記憶部48に記憶されている全文を回答候補文としてもよい。この場合、候補文検索部82は、コーパス記憶部48に記憶されている文を全て読出す機能を持つだけでよく、回答候補文記憶部84は、候補文検索部82が読出した文を一時的に蓄積するだけの機能を果たせばよい。さらに、コーパス記憶部48は、この実施の形態では質問応答システム30がローカルに保持しているが、本発明はそのような実施の形態には限定されない。例えばコーパス48が遠隔にあってもよいし、1つにかぎらず、複数個の記憶装置に分散して記憶されていてもよい。
回答処理部40はさらに、質問文解析部86から出力される情報と、回答候補文記憶部84に記憶された回答候補文の各々との組合せに基づいて、SVM46に与えるべき素性ベクトルを生成するための素性ベクトル生成部88と、質問文と各回答候補文との組合せに対して素性ベクトル生成部88から与えられる素性ベクトルをSVM46に与え、その結果、SVM46から出力される結果に基づいて回答候補文記憶部84に記憶された回答文の各々をランキングし、上位の所定個数の回答文候補を回答文リスト50として出力するための回答文ランキング部90とを含む。SVM46は通常、対象を2つのクラスに分類する超平面を数学的に求め、その結果に基づいて入力がいずれのクラスに属するかを定め、その結果を正/負の極性情報で出力することが基本的機能だが、その超平面から、入力により定められる点までの距離を出力することもできる。この距離は、回答文としてのふさわしさを表すものと考えられるので、回答文ランキング部90はこの距離と、SVM46の出力する極性情報との組合せを回答候補文のスコアとして用いる。
この質問応答システム30では、予めQA文記憶部60に質問文と、その質問文に対する回答としてふさわしい文との組合せ、及び質問文に対する回答として誤っている文との組合せを多数記憶する。各組合せには、その回答が正しいものか否かを示すフラグを予め人手で付しておく。学習データ生成部62がこれらの組合せからSVM46の学習を行なうための学習データを生成し、学習データ記憶部64に格納する。学習処理部66が、学習データ記憶部64に記憶された学習データを用い、SVM46の学習を行なう。この処理の結果、SVM46は、学習データ生成部62が生成するのと同じ種類の素性の組合せを受けると、その素性が得られた元の文の組合せ(質問文と回答候補)との組合せが正しいか否か、すなわち回答候補がその質問文に対する回答として正しいか否かの尺度を示す値を出力できるようになる。
一方、コーパス記憶部48には多数の文からなるコーパスが記憶されている。これら各文には、予め学習データ生成部62が行なうのと同種の解析処理が行なわれており、学習データの一部と同様の、回答候補のランキングのための情報が付されている。サービス利用端末44から質問文を受けると、候補文検索部82が既存の候補文検索処理を行ない、質問文に対する回答候補を所定個数だけコーパス記憶部48の中から抽出する。候補文検索部82により抽出された回答候補文は、回答候補のランキングのための情報とともに回答候補文記憶部84に格納される。
一方、質問文解析部86は、質問文に対して所定の解析処理を行ない、素性を生成するために必要な情報を生成して素性ベクトル生成部88に与える。素性ベクトル生成部88は、質問文解析部86から情報を受け取ると、回答候補文記憶部84に記憶されている各回答候補文の、回答候補のランキングのための情報とあわせることにより、学習データ生成部62により生成される学習データと同じ構成(ただし回答候補が正解か否かを示すフラグを除く。)の素性ベクトルを生成し、回答文ランキング部90に与える。
回答文ランキング部90は、素性ベクトル生成部88から与えられる、各回答候補と質問文との組合せから得た素性ベクトルをSVM46に与える。SVM46は、与えられる各組合せの素性ベクトルごとに、その組合せに含まれる回答候補がその組合せに含まれる質問に対する回答としてどの程度ふさわしいかを示すスコアを出力する。回答文ランキング部90は、質問文と各回答候補との組合せを、それらのスコアで降順にソートし、スコアが上位の所定個数の回答候補を、サービス利用端末44から与えられた質問文に対する回答文リスト50としてサービス利用端末44に返信する。
マサキ ムラタ、サチヨ ツカワキ、トシユキ カナマル、チン マ、ヒトシ イシハラ、「ノン・ファクトイド型の日本語の質問に対し、回答の型に応じた重み付けをした回答検索を用いて回答するシステム(A system for answering non-factoid Japanesequestions by using passage retrieval weighted based on type of answer)」、In Proc. of NTCIR-6. リュウイチロウ ヒガシナカ、ヒデキ イソザキ、「ホワイ型質問のための、コーパスを用いた質問応答システム(Corpus-basedquestion answering for why-questions)」、In Proc. of IJCNLP, pp. 418-425. テツジ ナカガワ、ケンタロウ イヌイ、サダオ クロハシ、「依存木に基づく、潜在変数を持つCRFを用いた感情の分類(Tetsuji Nakagawa, Kentaro Inui, and Sadao Kurohashi, Dependencytree-based sentiment classification using CRFs with hidden variables. )」、In Proc. of Human Language Technologies:The 2010 Annual Conference of Computational Linguistics, Pp. 786-794, LosAngeles, California, June. Association forComputational Linguistics.
非特許文献1に記載されたシステムでは、十分な精度が得られないことが分かっている。特に、事実に関する質問応答システムの性能に比べると、ノン・ファクトイド型の質問応答システムの性能はかなり低く、ノン・ファクトイド型の質問応答システムの性能を高めることが求められている。特に、今後は単なる事実に関する質問だけではなく、何らかの事象からその理由を知ったり、何らかの事象からその帰結を推論したりすることが必要になると思われる。
したがって本発明の目的は、理由又は方法に関する質問に関する質問応答システムにおいて、精度をより高めることが可能な質問応答システムを提供することである。
本発明の第1の局面に係る質問応答システムは、ノン・ファクトイド型の質問の入力を受け、当該質問に対する回答を生成するノン・ファクトイド型の質問応答システムである。このシステムは、処理対象の言語の文書であって、コンピュータ読取可能な文書からなるコーパスを記憶するためのコーパス記憶手段に接続されて用いられる。このシステムは、質問の入力を受けたことに応答して、コーパス記憶手段から、当該質問に対する複数個の回答候補を検索し取り出すための候補検索手段と、質問の入力を受けたことに応答して、当該質問と、候補検索手段に記憶された回答候補の各々との組合せについて、所定の素性の集合を生成するための素性生成手段と、素性生成手段により生成される素性の集合が与えられると、当該素性の集合を生成する元となった質問及び回答候補の組合せについて、当該回答候補が当該質問に対する正しい回答である度合いを示すスコアを算出するように予め学習されたスコア算出手段と、質問と、回答候補に記憶された回答候補の各々との組合せについて、スコア算出手段により算出されたスコアに基づき、質問に対する正しい回答である可能性が最も高い回答候補を質問に対する回答として出力する回答選択手段とを含む。候補検索手段により検索された回答候補の各々には、素性生成手段による素性の生成に必要な情報が付されている。素性生成手段は、質問について、形態素解析及び構文解析を行ない、形態素情報及び統語情報を出力するための構文解析手段と、質問のうち、ある評価基準にしたがって第1のクラスに分類されるフレーズと、第2のクラスに分類されるフレーズとを特定するための評価手段とを含む。第1のクラス及び第2のクラスには、それぞれ互いに相反する評価の極性が割当てられている。この質問応答システムはさらに、質問と、回答候補の各々との組合せについて、構文解析手段による解析結果と、評価手段により特定されたフレーズの箇所及びその評価クラスの極性と、回答候補に付されている素性生成用の情報とに基づいて、素性の集合を生成するための素性集合生成手段とを含む。
好ましくは、素性生成手段はさらに、構文解析手段の出力に含まれる各名詞を、予め準備された、複数個の、単語の意味クラスのいずれかに分類し、当該名詞を対応する意味クラスに変換するための意味クラス変換手段を含む。素性集合生成手段は、質問と、回答候補の各々との組合せについて、構文解析手段による解析結果と、評価手段により特定されたフレーズの箇所及びその評価クラスの極性と、意味クラス変換手段による変換がされた後の構文解析手段の出力と、回答候補に付されている素性生成用の情報とに基づいて、素性の集合を生成するための第1の手段を含む。
第1の手段が、評価手段により特定されたフレーズの箇所及び評価クラスの極性に基づいて生成する素性は、質問中のフレーズの評価クラスの極性と、回答候補中のフレーズの評価クラスの極性とが一致するか否かを示す情報を含んでもよい。
より好ましくは、第1の手段が、評価手段により特定されたフレーズの箇所及び評価クラスの極性に基づいて生成する素性はさらに、質問中のフレーズの評価クラスの極性と回答候補中のフレーズの評価クラスの極性とが一致するときのその極性を示す情報を含む。
第1の手段が生成する素性は、構文解析手段の出力から得られ、評価手段の出力又は意味クラス変換手段の出力を用いずに得られる素性と、構文解析手段の出力に、評価手段の出力を組合せて得られる素性と、構文解析手段の出力に、意味クラス変換手段の出力を組合せて得られる素性とを含んでもよい。
又は、第1の手段が生成する素性は、構文解析手段の出力に、評価手段の出力を組合せ、さらに意味クラス変換手段の出力を組合せて得られる素性を含んでもよい。
本発明の第2の局面に係るコンピュータププログラムは、ノン・ファクトイド型の質問の入力を受け、当該質問に対する回答を生成するノン・ファクトイド型の質問応答システムをコンピュータにより実現させるコンピュータプログラムである。このコンピュータは、処理対象の言語の文書であって、コンピュータ読取可能な文書からなるコーパスを記憶するためのコーパス記憶手段に接続される。第2の局面に係るコンピュータプログラムは、コンピュータを、質問の入力を受けたことに応答して、コーパス記憶手段から、当該質問に対する複数個の回答候補を検索し取り出すための候補検索手段と、質問の入力を受けたことに応答して、当該質問と、候補検索手段に記憶された回答候補の各々との組合せについて、所定の素性の集合を生成するための素性生成手段と、素性生成手段により生成される素性の集合が与えられると、当該素性の集合を生成する元となった質問及び回答候補の組合せについて、当該回答候補が当該質問に対する正しい回答である度合いを示すスコアを算出するように予め学習されたスコア算出手段と、質問と、回答候補に記憶された回答候補の各々との組合せについて、スコア算出手段により算出されたスコアに基づき、質問に対する正しい回答である可能性が最も高い回答候補を質問に対する回答として出力する回答選択手段として機能させる。候補検索手段により検索された回答候補の各々には、素性生成手段による素性の生成に必要な情報が付されている。コンピュータを素性生成手段として機能させるプログラム部分は、コンピュータを、質問について、形態素解析及び構文解析を行ない、形態素情報及び統語情報を出力するための構文解析手段と、質問のうち、ある評価基準にしたがって第1の評価クラスに分類されるフレーズと、第2の評価クラスに分類されるフレーズとを特定するための評価手段として機能させる。このコンピュータプログラムはさらに、コンピュータを、質問と、回答候補の各々との組合せについて、構文解析手段による解析結果と、評価手段により評価されたフレーズの箇所及びその評価クラスの極性と、回答候補に付されている素性生成用の情報とに基づいて、素性の集合を生成するための素性集合生成手段として機能させる。
従来のノン・ファクトイド型の質問応答システムの概略構成を示すブロック図である。 ノン・ファクトイド型の質問とその回答候補との例を示す図である。 ノン・ファクトイド型の質問の回答候補の例を示す図である。 本発明の1実施の形態に係る質問応答システムが利用される場面を説明する図である。 本発明の1実施の形態に係る質問応答システムのブロック図である。 n-gramの構成を説明するための模式図である。 統語構造に依存するn-gramの構成を説明するための図である。 本発明の1実施の形態に係る質問応答システムで使用する素性の一覧を表形式で示す図である。 ノン・ファクトイド型の質問とその回答候補との組合せの例を示す図である。 本発明に係る質問応答システムの実験結果を、従来技術の性能と比較して表形式で示す図である。 本発明に係る質問応答システムにおいて、使用する素性の組合せを変えたときの性能を互いに比較して表形式で示す図である。 本発明の1実施の形態に係る質問応答システムを実現するためのコンピュータの外観を示す模式図である。 図12に示すコンピュータのハードウェア構成を説明するブロック図である。
以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。
(1) はじめに
本願発明では、ノン・ファクトイド型の質問とその回答との間には、以下のような関係があることに着目し、これを第1の仮定とした。すなわち、
・好ましくないことが起きると、その理由も何か好ましくないものであることが多く、
・好ましいことが起きると、その理由もまた好ましいものであることが多い、
という点に着目したものである。
例えば、図2に示すような質問Q1と、その回答候補A1−1及びA1−2との組合せ110を考える。回答候補A1−1の下線部120は、ガンに関する好ましくない事象を述べているのに対し、回答候補A1−2の下線部122は、ガンを予防するための好ましい対応を述べている。本発明は、上の組合せでは、質問Q1に対する回答としては、回答候補A1−1の方がよりふさわしいというものである。本明細書では、説明を簡略にするために、そのような「好ましい」及び「好ましくない」という評価の方向を「極性」と呼び、「好ましい事象を述べるフレーズ」及び「好ましくない事象を述べるフレーズ」のような、極性を伴う評価の対象となるフレーズを「評価フレーズ」と呼ぶ。すなわち、本願発明では、フレーズについて、ある評価基準にしたがって、「好ましい事象を述べるフレーズ」という第1の評価クラスと、「好ましくない事象を述べるフレーズ」という第2の評価クラスとのいずれかに分類されるフレーズを特定する。これら評価クラスには、「好ましい」及び「好ましくない」というように、互いに相反する極性が割り当てられている。なお、ここでは極性として「好ましい/好ましくない」というものを考えたが、これ以外にも評価基準により極性は様々に考えることができる。例えば「増加/減少」、「活性/不活性」、「美味しい/不味い」、「改善/悪化」、「採択/不採択」、「嬉しい/悲しい」等を考えることができる。
この発明の第2の仮定は、質問中の単語の語彙意味論的なクラスと、回答文中のそれらとの間にはかなり強い結び付きがある、というものである。例えば、図2に示す質問Q1のように病気に関する質問文に対する回答は、多くの場合、(回答候補A1−1のように)化学物質に関するものであるか、又は、ウィルス若しくは体の一部等に関する言及を含む。このように、例えば、病気と、病気に関連する有害な物質等との間の統計的な関連を明らかにすることにより、質問文に対する回答としてふさわしいものを挙げることができる可能性を高めることができる。そこで、以下に述べる実施の形態では、意味的に近い単語を意味クラスにまとめて素性として用いることとした。意味クラスの構築を人手で行なったり、既存の意味に基づくシソーラスを用いたりすることもできるが、本実施の形態では、ウェブ文書からなる大規模コーパスからEM法を用いて自動的に構築した単語クラス群を用いることとした。この方法については、Kazama and Torisawa, Inducing Gazetteers for Named Entity
Recognition by Large-scale Clustering of Dependency Relations」(http://http://www.aclweb.org/anthology-new/P/P08/P08-1047.pdf)に詳細が記載されている。
さらに問題となるのは、回答候補の中には、極性の異なる複数のフレーズを含むものがあるということである。
例えば、図3に、図2の回答候補A1−2と類似した回答候補A1−3を示す。図3に示す回答候補A1−3は、ガンに関する好ましくない評価フレーズ140と、ガンに関する好ましい評価フレーズ142とを含んでいる。このような場合には、図2に示す質問Q1に対する回答として、図2に示す回答候補A1−1と、図3に示す回答候補A1−3とのいずれを採用すべきかという問題が残る。本発明では、そうした問題に対処するために、評価の極性と、質問文及び回答候補の双方の、その極性に結び付けられた評価フレーズの内容との組合せを用いることとした。
評価フレーズの内容に関して統計的処理をする際のデータのスパースネスを解決するために、評価の極性と、単語の意味クラスとを効果的に組合せた素性の組を開発した。これら素性を、教師付学習により、ノン・ファクトイド型の質問文に対する回答候補のスコアリングを行なう分類器の学習を行なった。実験の結果については後に述べる。
[構成]
図4を参照して、本実施の形態に係るノン・ファクトイド型質問応答システム160は、予めインターネット上の大量の文書からなる文書集合164を獲得しておき、インターネット162を介してサービス利用端末166からノン・ファクトイド型の質問を受けたことに応答して、蓄積しておいた文書集合164からその質問に対する回答としてふさわしいもののリストを生成し、サービス利用端末166に返信するものである。本実施の形態では、サービス利用端末166からの質問はウェブのフォームへの入力データとしてノン・ファクトイド型質問応答システム160に送信されるものとする。
図5を参照して、この質問応答システム160は、予めインターネットから取得した大量の文書からなる文書集合164であって、各文について回答候補をランキングするための素性形成に必要な情報が付された文書の集合を記憶するためのコーパス記憶部178と、サービス利用端末166から質問文を受けたことに応答して、コーパス記憶部178に記憶された文章中から、受けた質問に対する回答としてふさわしいものを幾つか抽出し、ランク付けして、上位の所定個数をリストした回答文リスト174をサービス利用端末166に対して出力するための回答処理部170と、回答処理部170が回答候補のランキングの際に使用するSVM176と、予め準備された学習データにより、SVM176に対する教師付機械学習を行ない、SVM176が、質問文と回答文との組合せから得られた予め定める素性の組合せを受けると、その組合せが正しいか否か、すなわちその組合せ中の質問に対して、その組合せ中の回答文が正しい回答か否かを示すとともに、その回答の確からしさがどの程度であるかを示すスコアを出力するようにする学習処理部172とを含む。
回答処理部170は、サービス利用端末166から質問を受けたことに応答して、従来の技術と同様の処理により、コーパス記憶部178を検索し、多数の文の中から所定個数(例えば300個)の回答候補文を抽出するための候補文検索部222と、候補文検索部222により抽出された候補文を記憶するための回答候補文記憶部224と、サービス利用端末166から質問文を受けたことに応答して、質問文に対する解析処理を行ない、素性に利用される形態素解析及び構文解析(統語的解析)を行ない、形態素情報及び統語情報を出力するための質問文解析部226と、質問文解析部226の出力する情報のうち、単語に対して所定の統計的確率モデルを適用することにより意味クラスを推定し、意味クラスを表す情報を付して出力するための意味クラス変換部230と、質問文解析部226の出力に対して評価を行ない、既に述べたように評価フレーズとその極性とを定めて評価フレーズごとに出力するための評価処理部228とを含む。
なお、図示していないが、コーパス記憶部178に記憶される文書の各文についても、予め質問文解析部226、評価処理部228及び意味クラス変換部230により行なわれる処理と同じ処理を行なっておく。こうしておくことにより、後に質問と回答候補との組から素性ベクトルを生成するための処理量を低減できる。
回答処理部170はさらに、質問文解析部226の出力と、評価処理部228の出力と、意味クラス変換部230の出力とを受け、さらに回答候補文記憶部224から各回答候補文と付随情報とを読出し、質問文と回答候補との双方の情報に基づいて、SVM176に適用する素性ベクトルを生成するための素性ベクトル生成部232と、回答候補文ごとに、素性ベクトル生成部232の出力する素性ベクトルをSVM176に適用することによりSVM176から得られるスコアに基づいて回答候補をランキングし、上位の所定個数の回答候補からなる回答文リスト174を生成し、サービス利用端末166に返信するための回答文ランキング部234とを含む。
学習処理部172は、多数のQA文をその組合せの適否を示すフラグとともに記憶するためのQA文記憶部190と、QA文記憶部190に記憶されている質問文と回答候補との組合せの各々に対し、質問文解析部226と同様の処理を行なうためのQA文解析部192と、QA文解析部192の出力中の各単語に対し、統計的モデルを用いて意味クラス情報を付するための意味クラス変換部196と、QA文の質問文及び回答文の各々に対して評価処理を行なうことにより、評価フレーズを示すタグと、その極性とを付して出力するための評価処理部194と、QA文解析部192、評価処理部194、及び意味クラス変換部196の出力する情報を組合せることで、SVM176の学習を行なうための学習データ(素性ベクトル)を生成して出力する学習データ生成部198と、学習データ生成部198の出力する学習データを記憶するための学習データ記憶部200と、学習データ記憶部200に記憶された学習データを用い、SVM176に対して教師付機械学習を行なうためのSVM学習部202とを含む。
本実施の形態では、6億個の日本語文書をインターネットから収集し、コーパス記憶部178に格納した。
(回答候補の抽出)
候補文検索部222としては、本実施の形態では、http://lucene.apache.org/solrで配布されているSolrを用いる。本実施の形態では、候補文検索部222は、質問文1つに対し、コーパス記憶部178に格納されている6億個の文書のうちから例えば回答を含む可能性の高い順に、トップの所定個数(例えば300個)の文書を抽出するように調整する。各候補はさらに、5つの連続する文からなる回答候補の集合に分割される。文書の分割方法の誤りにより正しい回答が得られない可能性を小さくするために、分割される文書については、互いに2つの文までは共有できるようにしている。
候補文検索部222ではさらに、このようにして質問qに対して得られた回答候補acの各々を、以下の式(1)に示すスコアリング関数S(q,ac)によりスコアリングする。なお、本実施の形態では、回答候補を抽出するために、質問中に含まれる語を含む部分であって、さらに、因果関係を示す3つの手がかり語(理由、原因、及び要因)を含むものを検索する。候補文検索部222は、式(1)によるランキングで、質問に対する回答候補を300個選択し、回答候補文記憶部224を経て回答文ランキング部234に与える。
式(1)に示すスコアリング関数S(q,ac)は、各回答候補に対して、tf(対数化索引語頻度)-idf(文書頻度の逆数)に似たスコアを割り当てる。ここで、式(1)の1/dist(t1,t2)はtfのような役割を果たし、1/df(t2)は、質問q及び回答候補acが共有する、所与のt1及びt2に対するidfである。
Figure 0005825676
ただし、Tは、質問q中の名詞、動詞、及び形容詞であって回答候補ac中にも出現するものからなる語集合である。手がかり語が回答候補acに存在する場合、それらを語集合Tに追加することに注意。Nは文書の合計数(6億)であり、dist(t1,t2)は回答候補ac中の単語t1及びt2の間の距離(文字数)である。df(t)は語tの文書頻度であり、φ∈{0,1}は指標であって、ts(t1,t2)>1ならφ=1,さもなければφ=0である。
(回答候補のランキング)
前記したとおり、ランキングには3種類の素性集合を用いる教師付分類器(SVM)を使用する。素性集合は、(1)質問と回答候補との形態素分析及び統語分析の結果を表す素性(「MSA」で示す。)、(2)質問と回答候補とに現れる意味的単語クラスを表す素性(「SWC」で示す。)、及び(3)評価分析の結果を表す素性(「SA」で示す。)、を含む。
《MSA》
MSAは、回答候補の再ランキングのために従来から広く用いられている素性である。この素性は、質問と回答候補との間の、形態素、文節、及び統語構造レベルでの結び付きを明らかにするためのものである。
質問とその回答候補とに含まれる全ての文を、3つの方法で表した。すなわち、形態素の集まり(a bag of morphemes)、文節の集まり(a bag of word
phrases)、統語構造チェーンの集まりである。これらはそれぞれ、形態素分析プログラム(例えばhttp://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN)及び構文解析プログラム(例えばhttp://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP)を用いて得ることができる。
本実施の形態では、質問及び回答候補の各々から形態素、文節、及び統語構造のg-gram(nは1〜3)抽出する。例えば、文が図6(A)に示すように連続する4つの文節A,B,C及びDからなる部分240を含むものとする。この4つの文節から得られる文節3-gramは、図6(B1)に示す文節A,B及びCからなる3-gram242と、(B2)に示す文節B,C及びDからなる3-gram244とである。
これに対し、統語構造n-gramとは、本明細書では、統語構造のネットワーク中で、連続する3つの文節を持つパスのことを言う。例えば、図7(A)に示すような統語構造のネットワーク260が得られたものとする。このネットワーク260の中から3-gramを取り出すと、図7(B1)に示す文節A,B及びCからなる3-gram262と、図7(B2)に示す、文節A,C及びDからなる3-gram264とが得られる。これらを図6と比較するとその違いが分かる。なお、統語構造n-gramの1-gramは文節1-gramと一致するので使用しない。
MSAとしては、図8の表270に示す、MSA1〜MSA4の4種類の素性を使用できる。その説明は図8に示したとおりなので、個々では繰返さない。なお、MSA2は、例えば図2の「タイプのガン」のように、質問中の単語を含むようなn-gramである。
《SWC》
単語意味クラスとは、意味的に類似した単語の集合のことをいう。本実施の形態では、前記したKazama及びTorisawaの文献に記載された名詞のクラスタリング技術を用い、このような単語意味クラスを構築した。この文献に記載されたアルゴリズムは、意味的に類似した単語は類似した文脈に現れる傾向がある、という仮定に基づくものである。この方法は、単語間の統語的係り受け関係を文脈として扱うことにより、非動詞の係り受け関係に関する、隠れクラスについての確率モデルを以下の式(2)により定義する。
Figure 0005825676
ただし、ここでのnは名詞であり、vは文法的関係r(日本語では後置の語)により名詞nが従属する動詞又は名詞であり、cは隠れクラスである。係り受け関係の頻度は、6億の文からなるコーパスから得ることができた。モデルパラメータp(n|c)、p(〈v,r〉|c)及びp(c)はEMアルゴリズムを用いて推定した。この技術を用い、550万の名詞を500個のクラスにクラスタリングすることができた。すなわち、各名詞nに対し、EMクラスタリングによって、意味的クラスを表す隠れ変数に関する確率分布を推定する。この分布から、各名詞nに対してc=argmaxc*p(c*|n)となるクラスcを割り当てる。この結果、化学物質、栄養素、病気等の明確な意味的クラスを得ることができた。
SWCは、質問中の単語と、回答候補中の単語との間の関連性を反映させるためのものである。学習データ中に、特定の意味クラスの単語を持つ質問と、特定の意味クラスの単語を持つ回答候補とがあり、互いの関係が肯定的である(回答候補が質問に対する正しい回答である。)場合には、SVMは、学習データの質問と同じ意味クラスの単語が質問中にあれば、他の条件が一定であるものとして、学習データの回答中の特定の意味クラスの単語と同じ意味クラスの単語を持つ回答候補を、その質問に対する回答として選択するであろう。
同様の処理を単語の意味レベルではなく、単語レベルで考えることもできる。つまり、特定の単語レベルでの結び付きを統計的にモデル化することもできる。しかし、その場合には、単語と単語という組合せが特定的すぎ、データのスパースネスという問題が生じるのでモデルの汎化が難しく、モデルの信頼性を高めることができない。
図8に示すように、SWCとしてはSWC1とSWC2という2種類を用いる。それらの説明は図8に記載したとおりである。
SWC1を得るためには以下の手順にしたがう。まず、MSA1のn-gram内の名詞を全てそれらの属する意味クラスに変換する。得られたn-gramの中で、少なくとも1つの単語の意味クラスが残っているものをSWC1として採用する。
SWC2は、回答候補中のn-gramであって、質問中に存在する語と同じごをそれらの意味クラスに変えたものである。
これらの素性は、質問と回答候補との中の単語の意味クラスの対応関係を示すものである。
《SA》
SAという素性はさらに2種類に分類される。第1は単語レベルでの評価分析である(単語の極性)。これを図8ではSA@W1〜SA@W4で表す。第2は、フレーズレベルでの評価分析である(フレーズ極性)。これらは図8ではSA@P1〜SA@P10で表す。
(1)単語極性(SA@W)
単語の極性は、予め準備された、単語の極性傾向のための辞書の参照により行なう。辞書としては、本実施の形態では、非特許文献3により紹介されたツールプログラムにより提供されるものを用いる。この素性は、質問中の単語の極性と、正しい回答中の単語の極性との関連を明らかにするためのものである。ここでは、前提にしたがい、学習の結果、質問中の単語の極性と、選択される回答中の単語の極性とは互いに等しいことが多くなる筈である。
図8に示すSA@W1とSA@W2とは、単語極性n-gramのうち、単語極性を持つ単語を少なくとも1つ持つものから得られる評価分析素性である。これらのn-gramは、MSA1n-gram内の全ての名詞を辞書参照により対応する単語極性に変換して得られる。SA@W1は質問と回答候補中の全ての単語極性n-gramに関するものである。SA@W2は、SA@W1で得られたn-gramのうち、元のn-gramが質問の語を含むものである。
さらに、単語極性を単語の意味クラスと組合せることにより、分類器がこれらの組合せのうち特に意味あるものを識別できるようにする。例えば単語の極性として負でありかつ意味クラスが「条件」である単語は、「好ましくない条件」を表すであろう。この結果、これら負の条件を表す単語と、それら単語の、病気についての質問との関連性との間の相関を分類器に学習させることができる。SA@W3とSA@W4とがこの種の素性である。これらはそれぞれ、SA@W1及びSA@W2と同様に定義される。ただし、SA@W1及びSA@W2における単語の極性を、単語の意味クラスと単語の極性とで置換える点が異なる。SA@W3とSA@W4のn-gramを(単語)クラス−極性結合n-gramと呼ぶ。
(2)フレーズ極性(SA@P)
本実施の形態では、評価フレーズの抽出及びその極性の判定は、既存のツールプログラム(前述の非特許文献3による。)を用いる。実験の結果、質問内の語を含まないような評価フレーズについては、正しい回答を定めるために有用ではないことがわかった。したがって、本実施の形態では、質問内の語を少なくとも1つ含むような文から抽出された評価フレーズのみを、フレーズ極性の素性生成のために用いることとした。
フレーズ極性に関する素性として、大きく3つのカテゴリの素性を用いる。第1のカテゴリは、図8に示すSA@P1及びSA@P2を含む。第2のカテゴリは、図8のSA@p3〜SA@P5を含む。第3のカテゴリは、図8のSA@P6〜SA@P10を含む。
第1のカテゴリの素性は、質問と、その回答候補との間での、評価フレーズの極性の一致に関するものである。質問と回答候補との間での評価フレーズの組合せを調べる。それらの中に、極性が一致するものがあれば、それを示す指標とその極性とをそれぞれSA@P1及びSA@P2とする。
第2のカテゴリの素性は、評価フレーズは、多くの場合、正しい回答の中心部を構成する、という仮定に基づくものである。これらを表す素性を用いる必要がある。図8のSA@P3〜SA@P5はそのためのものである。これら素性の内容については図8を参照されたい。
第3のカテゴリの素性は、単語の意味クラスを用いることにより、上述した、質問又は回答の内容に関する素性を一般化するためのものである。図8を参照すると分かるように、これら素性は、評価フレーズから得た単語の意味クラスn-gram及びクラス・極性結合n-gramを、そのフレーズ極性と組合せたものである。これら素性の内容については図8を参照されたい。
[動作]
以上に説明した本実施の形態に係るノン・ファクトイド型の質問応答システム160の動作は、基本的に図1に示す従来のものと同様の手順を踏む。すなわち、SVM176の学習と、回答処理部170による質問の処理とである。これらに先立ち、評価処理部194で使用する評価ツール及び辞書、並びに、意味クラス変換部196で使用する統計的確率モデルを作成しておく必要がある。この確率モデルは、式(2)によるものである。さらに、多数の文を収集し、コーパス記憶部178に格納する。これらについては、既に述べたように、素性ベクトル生成部232が素性を生成するために必要な情報を作成しておき、各文に付しておく。一方、人手により作成した、質問とその回答とからなる複数の組合せ(QA文)を準備し、QA文記憶部190に格納する。これら質問と回答との組合せとしては、ある質問とその質問に対する正しい回答とからなる組とを準備する。これら質問と回答との組合せとしては、できるだけ多くの種類の質問を用いることが望ましい。そのためには、できるだけ多くの人にこのQA文の作成に参加してもらうことが理想的である。もっとも、現実的にはこの準備に参加する人の数は限定されることが多く、その点でシステムにある制約が生じ得ることはやむを得ない。
次に、QA文解析部192により、これらQA文の各々に対する形態素解析、及び構文解析等を行ない、得られた品詞情報、係り受け関係等を示す情報をQA文に付して評価処理部194,意味クラス変換部196、及び学習データ生成部198に与える。
評価処理部194は、与えられたQA文の各々の中の質問及び回答の各々について評価フレーズの探索を行ない、その範囲とその極性とをタグとして該当箇所に付して学習データ生成部198に与える。意味クラス変換部196は、与えられたQA文の各々の中の名詞について、単語の意味クラスに変換したものを生成し、学習データ生成部198に与える。
学習データ生成部198は、QA文ごとに、QA文解析部192からの形態素及び統語情報、評価処理部194からの評価に関する情報、意味クラス変換部196からの意味クラスに関する情報に基づき、図8に示した各種の素性を生成し、QA文に付されているフラグ(回答が質問に対するものとしてふさわしいか否かを示すフラグ)を付した学習データを生成し、学習データ記憶部200に格納する。
SVM学習部202は、学習データ記憶部200に格納された学習データを用い、SVM176の学習を行なう。学習が済んだSVM176は、回答文ランキング部234により利用可能な状態とされる。
《回答の検索》
回答文ランキング部234にSVM176が組込まれることにより、回答処理部170による回答処理が可能になる。サービス利用端末166が質問を回答処理部170に送信すると、質問文解析部226及び候補文検索部222がこの質問を受ける。
候補文検索部222は、質問を受けたことに応答して、コーパス記憶部178に記憶された多数の文の中から回答候補としての可能性が高い上位300個の回答候補文を検索し、回答候補文記憶部224に出力する。このとき、回答候補文のスコア作成に使用される尺度は、式(1)に示したとおりである。
一方、質問文解析部226は、受信した質問に対し、形態素解析及び構文解析を行ない、形態素情報及び統語情報を出力する。
評価処理部228は、質問文解析部226の出力する情報に対し、評価処理を行ない、評価フレーズの範囲と、その極性とを示すタグ付けを質問文に対して行ない、素性ベクトル生成部232に与える。意味クラス変換部230は、質問文解析部226の出力する情報のうち、名詞に対して、式(2)により表される、意味クラス推定のための統計的モデルを適用することでその意味クラスを推定し、意味クラスを表す情報に変換して素性ベクトル生成部232に与える。
素性ベクトル生成部232は、評価処理部228の出力する評価タグ付けの質問文、質問文解析部226から出力される形態素情報及び構文解析情報、意味クラス変換部230により出力される情報、並びに、回答候補文記憶部224に記憶されている回答候補文の各々に予め付されている同様の情報に基づき、質問と、各回答候補との組合せの各々について、図8に示すような素性を求め、それらからなる素性ベクトルを生成する。素性ベクトル生成部232は、質問と各回答候補との組合せの各々を回答文ランキング部234に与える。
回答文ランキング部234は、与えられた組合せにSVM176を適用することにより、組合せの各々について、回答候補が質問に対する回答として適切なものか否かを示すスコアを得る。回答文ランキング部234はさらに、このスコアにしたがって各組合せを降順にソートして、上位の所定個数をスコアの順番に並べることにより回答文リスト174を生成する。回答文ランキング部234は、こうして得られた回答文リスト174をサービス利用端末166に対して返信する。
[実験]
上記した実施の形態により、ノン・ファクトイド型の質問に対する回答の精度としてどの向上が得られるかについて、実験により調べた。
(1)データ
上記実施の形態を評価するため、手作業によりテストセットを構築した。テストセットの構築は、質問の生成と、それに対する回答の検証とである。なるべく多くの人によりこのテストセットを構築することが望ましいが、実際には様々な制約から、限られた人数(4人)による作業となった。実際には質問の範囲はより広くなるであろうから、以下の実験の結果は、実際の応用に上記実施の形態を用いたときの性能の上限を示すものとなると思われる。
質問の生成処理では、予め収集した文の中から理由、原因、要因等、既に述べた手がかり語を少なくとも1つ含む部分を抽出した。抽出された部分から、4人の作業者が、何らかの事象に対する理由を記載したと思われる、連続する3つの文からなる部分を取り出しその記載から、その部分が正しい回答となるようなノン・ファクトイド型の質問を作成した。その結果、362個のノン・ファクトイド型の質問であって、その回答が元のコーパスに含まれているものが得られた。
回答の検証では、上記実施の形態のシステムを用い、質問ごとにまず上位20個の回答候補を検索し、それらと質問との組合せの全てについて人手によるチェックを行なった。評価者間の評価のばらつきを示す尺度(Fleiss’ Kappa)は0.611であり、ほぼ一致した評価となっていた。各質問に対する正しい回答は多数決により定められた。
この実験では、検索された20個の回答候補の中に正しい回答が含まれていたのは、362個の質問のうち、わずか61.6%(223個の質問)であった。上位20個の回答候補の中には平均で4.1個の正解が含まれていた。本実施の形態によれば、この実験条件では、回答候補の上位20個の再ランキングしかできないので、61.6%というのがこの実験で得られる性能の上限ということになる。実験で用いたサンプルの例を図9に示す。図9には、質問及び回答候補の組280と,質問及び回答候補の組282とを示す。
(2)実験の枠組み
実験では、上記したテストセットを用い、10分割交差検定を行なうことでシステムの評価を行なった。学習には、線形カーネルを持つTinySVM(http://chasen.org/~taku/software/TinySVM/)を用いた。評価は、P@1(上位1個の精度)と、MAP(Mean Average Precision:平均適合率(AP)の平均)とにより行なった。
P@1は、質問のうちいくつについて、最上位の回答として正しいものが得られたかを示す。MAPは、トップのn個の回答候補の全体の質を以下の式により評価するものである。
Figure 0005825676
ここで、Qはノン・ファクトイド型の質問の集合、Aはノン・ファクトイド型の質問q∈Qに対する正しい回答の集合、Prec(k)は上位n個の回答候補の第k位における精度、rel(k)はランクkがA内の正しい回答のときに1、さもなければ0となる指標を、それぞれ表す。
(3)結果
5つの異なるシステムについて、上記設定の実験により得られた結果を図10に示す。図10において、B−QAは、非特許文献1に記載されたシステムを発明者が実装したものであり、これが基本システムとなる。B−RankerはB−QAの回答検索システムに、形態素情報及び統語情報から得た素性(MSA)を用いた再ランキングを付加したものである。本実施の形態に係るシステムの、本実施の形態に用いたものは、「本発明」として示してあり、図8に挙げた全ての素性を利用したものである。「上限」と記載したものは、トップ20の回答候補中に正しい回答が存在するときには必ずその上位n個の回答候補の中にn個の正しい回答を全て挙げるようなシステムのことを指す。これは、本実験で期待できる最上の結果(上限)を示す。各システムによる結果を上限システムと比較したものをカッコ内に示す。
実験ではさらに、本発明に係るシステムにおいて、最初に検索された20個の回答候補にさらに、質問を生成するときに使用した元の文章部分を加えた21個の回答候補を用いる、完全な回答検索が可能なモジュールも評価した。その結果を「Retrieval-Oracle」として示す。図10の結果から、本願発明に係るシステムでは、最初に21個の回答候補(必ず正解を含む。)を選択するシステム(Retrieval-Oracle)では、P@1で70.2%という高い精度を示すことが分かる。
図10から、本願発明に係るシステムが比較対象となる2つのシステムと比較して高い精度を示すことが分かる。特に、B−QAに対してP@1で11.6%という精度の向上が得られる。B−Rankerに対する精度の向上(P@1で6.4%)が得られることにより、先行技術文献で使用していた素性と比較して、本発明で採用した素性のセットが優れたものであることが分かる。また、B−RankerとB−QAとの間に性能の差があることから、再ランキングが有効であることも分かる。
各種の素性の貢献度を調べるため、使用する素性の組合せを変えた種々の実験を同様にして行なった。実験では、MSAを基本素性とし、MSA素性と他の素性との種々の組合せを用いた。さらに、MSAを用いないシステムについても実験を行なった。結果を図11にまとめる。
図11において、MSA+SWC+SAが最も好ましい実施形態では、MSAはB−Rankerを示す。SAは2つのグループ、すなわちSA@W(単語とその極性とを表す素性)と、SA@P(フレーズとその極性とを表す素性)とに分割した。MSA+SWC+SAと他の結果との間の性能の相違から、使用した素性の全てが精度の向上に貢献していることが分かる。P@1という観点では、フレーズとその極性とに関する素性であるSA@Pによって最も高い改善が得られる事がわかる。すなわち、本発明とMSA+SWC+SA@Wとの間の性能の相違は4.4%に達している。この事実により、「好ましくないことが起きると、その理由も何か好ましくないものであることが多く、好ましいことが起きると、その理由もまた好ましいものであることが多い。」という、本願発明の着想の元になる仮定が正しい可能性が高いことが示されている。
《実施の形態の効果》
以上のようにこの実施の形態によれば、上記した仮定に基づき、質問中の評価フレーズと、回答候補中の評価フレーズとを特定し、それらの極性が同じである場合に回答候補が正しいものである、とする考えに基づいて素性を選択することにより、回答検索の精度の向上を得ることができた。さらに、そのような評価に関する統計的モデルを学習する際に、質問が広い範囲にわたる可能性があること、それに対して学習のためのデータの範囲及び数には限りがあることに鑑み、質問及び回答候補中の名詞について、意味クラスを導入し、それら名詞を意味クラスに置換えたものを素性として導入した。これら素性の導入により、回答を検索する対象となるコーパスが非常に多くの文を含み、かつ学習データに限りがある場合であっても、従来のノン・ファクトイド型の質問応答システムと比較して大きく精度が向上したノン・ファクトイド型の質問応答システムを得ることができた。
[コンピュータによる実現]
この実施の形態のシステムのうち、回答処理部170及び学習処理部172はそれぞれ、コンピュータハードウェアと、そのコンピュータハードウェアにより実行されるプログラムと、コンピュータハードウェアに格納されるデータとにより実現される。両者が同一のコンピュータハードウェア内に実装されてもよい。図12はこのコンピュータシステム330の外観を示し、図13はコンピュータシステム330の内部構成を示す。
図12を参照して、このコンピュータシステム330は、メモリポート352及びDVD(Digital Versatile Disc)ドライブ350を有するコンピュータ340と、キーボード346と、マウス348と、モニタ342とを含む。
図13を参照して、コンピュータ340は、メモリポート352及びDVDドライブ350に加えて、CPU(中央処理装置)356と、CPU356、メモリポート352及びDVDドライブ350に接続されたバス366と、ブートアッププログラム等を記憶する読出専用メモリ(ROM)358と、バス366に接続され、プログラム命令、システムプログラム、及び作業データ等を記憶するランダムアクセスメモリ(RAM)360とを含む。コンピュータシステム330はさらに、他端末との通信を可能とするネットワークへの接続を提供するネットワークインターフェイス(I/F)344を含む。
コンピュータシステム330にノン・ファクトイド型の質問応答システムとしての動作を行なわせるためのコンピュータプログラムは、DVDドライブ350又はメモリポート352に装着されるDVD362又はリムーバブルメモリ364に記憶され、さらにハードディスク354に転送される。又は、プログラムは図示しないネットワークを通じてコンピュータ340に送信されハードディスク354に記憶されてもよい。プログラムは実行の際にRAM360にロードされる。DVD362から、リムーバブルメモリ364から、又はネットワークIF344を介して、直接にRAM360にプログラムをロードしてもよい。
このプログラムは、コンピュータ340にこの実施の形態のノン・ファクトイド型の質問応答システムとして動作を行なわせる複数の命令を含む。この動作を行なわせるのに必要な基本的機能のいくつかはコンピュータ340上で動作するオペレーティングシステム(OS)若しくはサードパーティのプログラム、又はコンピュータ340にインストールされる各種プログラミングツールキットのモジュールにより提供される。したがって、このプログラムはこの実施の形態のシステム及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット内の適切なプログラムツールを呼出すことにより、上記したノン・ファクトイド型の質問応答システムとしての動作を実行する命令のみを含んでいればよい。コンピュータシステム330の動作は周知である。したがってここでは繰返さない。
上記実施の形態では、質問はサービス利用端末からテキストで送信されるものとし、回答もテキストで返信されるものとした。しかし本発明はそのような実施の形態には限定されず、例えば音声による質問応答システムに適用することもできる。この場合、図5に示すサービス利用端末166が携帯電話であり、候補文検索部222及び質問文解析部226の前段で、サービス利用端末166から受信した質問の音声信号に対して音声認識を行なうことにより、質問をテキストデータに変換するようなものであってもよい。この場合、回答文ランキング部234の出力としては、回答文リスト174をウェブページの形式でサービス利用端末166に返信してもよいし、最もスコアの高い回答に基づいて音声合成を行なうことにより、音声としてサービス利用端末166に返信してもよい。
さらに、上記実施の形態は日本語に関するものであった。しかし本発明は日本語のみに限定して適用可能なものではない。いかなる言語であれ、学習データを作成可能で、かつコンピュータ読取可能な文章を十分に多く収集できる言語であれば、どのような言語にも適用できる。
さらに、上記実施の形態では、コーパス記憶部178に記憶された文については、予め質問文解析部226、評価処理部228、及び意味クラス変換部230による処理と同様の処理を行なって当該文に関連付けて記憶しているものとした。そうすることにより、素性ベクトル生成部232での素性生成のための処理時間を短縮できる。しかし本発明はそのような実施の形態には限定されない。具体的には、コーパス記憶部178に記憶された文書には例えば候補文検索部222による候補文の検索に必要な情報のみ付しておき、素性ベクトル生成部232による素性ベクトルの際に、選択された候補文の各々について素性の生成に必要な処理(質問文解析部226、評価処理部228及び意味クラス変換部230による処理と同様の処理)を行なうようにしてもよい。
また、候補文検索部222による、質問に対する回答候補文の検索においては、上記実施の形態では、主として文書頻度、文書内の単語頻度に基づいて、質問文と類似した語彙からなる文を検索している。しかし本発明はそのような実施の形態には限定されない。質問に対する回答となる可能性のある文を抽出できる事が可能と思われる基準であれば、どのような基準を用いても良い。
上記実施の形態では、評価クラスとして互いに相反する評価となる2個のクラスに対象を分類する場合について説明した。しかし本発明はそのような実施の形態には限定されない。例えば、評価クラスを一定の順序が付けられる複数のクラスとし、対象をそれら複数の評価クラスのいずれかに分類するようにしても良い。さらに、2個以上の評価の基準を設け、それら2個以上の基準により、対象を複数個の評価クラスに分類するようにしてもよい。
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
30 質問応答システム
40、170 回答処理部
42、172 学習処理部
44、166 サービス利用端末
46、176 SVM
48、178 コーパス記憶部
50、174 回答文リスト
60、190 QA文記憶部
62、198 学習データ生成部
64、200 学習データ記憶部
66 学習処理部
82、222 候補文検索部
84、224 回答候補文記憶部
86、226 質問文解析部
88、232 素性ベクトル生成部
90、234 回答文ランキング部
160 ノン・ファクトイド型の質問応答システム
192 QA文解析部
194、228 評価処理部
196、230 意味クラス変換部

Claims (6)

  1. ノン・ファクトイド型の質問の入力を受け、当該質問に対する回答を生成するノン・ファクトイド型の質問応答システムであって、
    処理対象の言語の文書であって、コンピュータ読取可能な文書からなるコーパスを記憶するためのコーパス記憶手段に接続されて用いられ、
    質問の入力を受けたことに応答して、前記コーパス記憶手段から、当該質問に対する複数個の回答候補を検索し取り出すための候補検索手段と、
    質問の入力を受けたことに応答して、当該質問と、前記候補検索手段に記憶された回答候補の各々との組合せについて、所定の素性の集合を生成するための素性生成手段と、
    前記素性生成手段により生成される前記素性の集合が与えられると、当該素性の集合を生成する元となった質問及び回答候補の組合せについて、当該回答候補が当該質問に対する正しい回答である度合いを示すスコアを算出するように予め学習されたスコア算出手段と、
    前記質問と、前記回答候補に記憶された回答候補の各々との組合せについて、前記スコア算出手段により算出されたスコアに基づき、前記質問に対する正しい回答である可能性が最も高い回答候補を前記質問に対する回答として出力する回答選択手段とを含み、
    前記候補検索手段により検索された回答候補の各々には、前記素性生成手段による素性の生成に必要な情報が付されており、
    前記素性生成手段は、
    前記質問について、形態素解析及び構文解析を行ない、形態素情報及び統語情報を出力するための構文解析手段と、
    前記質問のうち、ある評価基準にしたがって第1の評価クラスに分類されるフレーズと第2の評価クラスに分類されるフレーズとを特定するための評価手段とを含み、前記第1の評価クラス及び第2の評価クラスには、それぞれ互いに相反する評価の極性が割当てられており、
    前記質問応答システムはさらに、前記質問と、前記回答候補の各々との組合せについて、前記構文解析手段による解析結果と、前記評価手段により特定されたフレーズの箇所及びその評価クラスの極性と、前記回答候補に付されている素性生成用の情報とに基づいて、前記素性の集合を生成するための素性集合生成手段を含む、ノン・ファクトイド型の質問応答システム。
  2. 請求項1に記載のノン・ファクトイド型の質問応答システムであって、
    前記素性生成手段はさらに、前記構文解析手段の出力に含まれる各名詞を、予め準備された、複数個の、単語の意味クラスのいずれかに分類し、当該名詞を対応する意味クラスに変換するための意味クラス変換手段を含み、
    前記素性集合生成手段は、前記質問と、前記回答候補の各々との組合せについて、前記構文解析手段による解析結果と、前記評価手段により特定されたフレーズの箇所及びその評価クラスの極性と、前記意味クラス変換手段による変換がされた後の前記構文解析手段の出力と、前記回答候補に付されている素性生成用の情報とに基づいて、前記素性の集合を生成するための第1の手段を含む、請求項1に記載のノン・ファクトイド型の質問応答システム。
  3. 前記第1の手段が、前記評価手段により特定されたフレーズの箇所及び評価クラスの極性に基づいて生成する素性は、質問中のフレーズの評価クラスの極性と、回答候補中のフレーズの評価クラスの極性とが一致するか否かを示す情報を含む、請求項2に記載のノン・ファクトイド型の質問応答システム。
  4. 前記第1の手段が生成する素性は、前記構文解析手段の出力から得られ、前記評価手段の出力又は前記意味クラス変換手段の出力を用いずに得られる素性と、前記構文解析手段の出力に、前記評価手段の出力を組合せて得られる素性と、前記構文解析手段の出力に、前記意味クラス変換手段の出力を組合せて得られる素性とを含む、請求項2に記載のノン・ファクトイド型の質問応答システム。
  5. 前記第1の手段が生成する素性は、前記構文解析手段の出力に、前記評価手段の出力を組合せ、さらに前記意味クラス変換手段の出力を組合せて得られる素性を含む、請求項2に記載のノン・ファクトイド型の質問応答システム。
  6. ノン・ファクトイド型の質問の入力を受け、当該質問に対する回答を生成するノン・ファクトイド型の質問応答システムをコンピュータにより実現させるコンピュータプログラムであって、
    前記コンピュータは、処理対象の言語の文書であって、コンピュータ読取可能な文書からなるコーパスを記憶するためのコーパス記憶手段に接続され、
    前記コンピュータプログラムは、前記コンピュータを、
    質問の入力を受けたことに応答して、前記コーパス記憶手段から、当該質問に対する複数個の回答候補を検索し取り出すための候補検索手段と、
    質問の入力を受けたことに応答して、当該質問と、前記候補検索手段に記憶された回答候補の各々との組合せについて、所定の素性の集合を生成するための素性生成手段と、
    前記素性生成手段により生成される前記素性の集合が与えられると、当該素性の集合を生成する元となった質問及び回答候補の組合せについて、当該回答候補が当該質問に対する正しい回答である度合いを示すスコアを算出するように予め学習されたスコア算出手段と、
    前記質問と、前記回答候補に記憶された回答候補の各々との組合せについて、前記スコア算出手段により算出されたスコアに基づき、前記質問に対する正しい回答である可能性が最も高い回答候補を前記質問に対する回答として出力する回答選択手段として機能させ、
    前記候補検索手段により検索された回答候補の各々には、前記素性生成手段による素性の生成に必要な情報が付されており、
    前記コンピュータを前記素性生成手段として機能させるプログラム部分は、前記コンピュータを、
    前記質問について、形態素解析及び構文解析を行ない、形態素情報及び統語情報を出力するための構文解析手段と、
    前記質問のうち、ある評価基準にしたがって第1の評価クラスに分類されるフレーズと、第2の評価クラスに分類されるフレーズとを特定するための評価手段として機能させ、前記第1の評価クラス及び第2の評価クラスには、それぞれ互いに相反する評価の極性が割当てられており、
    前記コンピュータプログラムはさらに、前記コンピュータを、前記質問と、前記回答候補の各々との組合せについて、前記構文解析手段による解析結果と、前記評価手段により特定されたフレーズの箇所及びその評価クラスの極性と、前記回答候補に付されている素性生成用の情報とに基づいて、前記素性の集合を生成するための素性集合生成手段として機能させる、コンピュータプログラム。
JP2012036972A 2012-02-23 2012-02-23 ノン・ファクトイド型質問応答システム及びコンピュータプログラム Active JP5825676B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2012036972A JP5825676B2 (ja) 2012-02-23 2012-02-23 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
EP13751215.8A EP2819031A4 (en) 2012-02-23 2013-01-23 SYSTEM FOR ANSWERING QUESTIONS WITHOUT FACTORY AND COMPUTER PROGRAM THEREFOR
US14/377,999 US9697477B2 (en) 2012-02-23 2013-01-23 Non-factoid question-answering system and computer program
PCT/JP2013/051327 WO2013125286A1 (ja) 2012-02-23 2013-01-23 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
CN201380010249.4A CN104137102B (zh) 2012-02-23 2013-01-23 非事实型询问应答系统以及方法
KR1020147023478A KR101968102B1 (ko) 2012-02-23 2013-01-23 논팩토이드형 질의 응답 시스템 및 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012036972A JP5825676B2 (ja) 2012-02-23 2012-02-23 ノン・ファクトイド型質問応答システム及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2013171550A JP2013171550A (ja) 2013-09-02
JP5825676B2 true JP5825676B2 (ja) 2015-12-02

Family

ID=49005480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012036972A Active JP5825676B2 (ja) 2012-02-23 2012-02-23 ノン・ファクトイド型質問応答システム及びコンピュータプログラム

Country Status (6)

Country Link
US (1) US9697477B2 (ja)
EP (1) EP2819031A4 (ja)
JP (1) JP5825676B2 (ja)
KR (1) KR101968102B1 (ja)
CN (1) CN104137102B (ja)
WO (1) WO2013125286A1 (ja)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
JP5825676B2 (ja) * 2012-02-23 2015-12-02 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP6150282B2 (ja) * 2013-06-27 2017-06-21 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
US9471874B2 (en) * 2013-12-07 2016-10-18 International Business Machines Corporation Mining forums for solutions to questions and scoring candidate answers
US9276939B2 (en) * 2013-12-17 2016-03-01 International Business Machines Corporation Managing user access to query results
KR101559376B1 (ko) 2014-02-24 2015-10-12 서울대학교산학협력단 엔트로피를 최대화하는 실시간 조합 자질 구축 방법 및 이를 수행하는 조합 자질 구축 장치
US9471601B2 (en) 2014-03-25 2016-10-18 International Business Machines Corporation Images for a question answering system
US9754207B2 (en) 2014-07-28 2017-09-05 International Business Machines Corporation Corpus quality analysis
US9886479B2 (en) 2014-07-29 2018-02-06 International Business Machines Corporation Managing credibility for a question answering system
JP6414956B2 (ja) 2014-08-21 2018-10-31 国立研究開発法人情報通信研究機構 質問文生成装置及びコンピュータプログラム
KR101581816B1 (ko) * 2014-10-14 2016-01-05 서강대학교산학협력단 기계학습을 이용한 음성인식방법
US9946763B2 (en) * 2014-11-05 2018-04-17 International Business Machines Corporation Evaluating passages in a question answering computer system
US20160125437A1 (en) * 2014-11-05 2016-05-05 International Business Machines Corporation Answer sequence discovery and generation
KR102094934B1 (ko) * 2014-11-19 2020-03-31 한국전자통신연구원 자연어 질의 응답 시스템 및 방법
JP6087333B2 (ja) 2014-11-26 2017-03-01 株式会社ユニバーサルエンターテインメント 情報提供システム、情報提供方法、及びプログラム
JP6345577B2 (ja) 2014-11-26 2018-06-20 株式会社ユニバーサルエンターテインメント 情報提供システム、情報提供方法、プログラム、及びデータ構造
US10061842B2 (en) 2014-12-09 2018-08-28 International Business Machines Corporation Displaying answers in accordance with answer classifications
US10127284B2 (en) * 2014-12-18 2018-11-13 International Business Machines Corporation Scoring attributes in deep question answering systems based on algorithmic source code influences
US9928269B2 (en) * 2015-01-03 2018-03-27 International Business Machines Corporation Apply corrections to an ingested corpus
JP6551968B2 (ja) * 2015-03-06 2019-07-31 国立研究開発法人情報通信研究機構 含意ペア拡張装置、そのためのコンピュータプログラム、及び質問応答システム
CN104794109B (zh) * 2015-04-09 2017-06-23 山西大学 一种应用于学习机的智能解答系统
US10102275B2 (en) 2015-05-27 2018-10-16 International Business Machines Corporation User interface for a query answering system
US9727552B2 (en) 2015-05-27 2017-08-08 International Business Machines Corporation Utilizing a dialectical model in a question answering system
FR3037843B1 (fr) * 2015-06-24 2018-01-05 Gaztransport Et Technigaz Procede et dispositif de decoupe de matiere isolante fibreuse ou alveolaire
US10223440B2 (en) * 2015-06-29 2019-03-05 International Business Machines Corporation Question and answer system emulating people and clusters of blended people
JP6544131B2 (ja) * 2015-08-14 2019-07-17 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP6618735B2 (ja) * 2015-08-31 2019-12-11 国立研究開発法人情報通信研究機構 質問応答システムの訓練装置及びそのためのコンピュータプログラム
US10146858B2 (en) 2015-12-11 2018-12-04 International Business Machines Corporation Discrepancy handler for document ingestion into a corpus for a cognitive computing system
CN105630917A (zh) * 2015-12-22 2016-06-01 成都小多科技有限公司 智能应答方法及装置
US10176250B2 (en) 2016-01-12 2019-01-08 International Business Machines Corporation Automated curation of documents in a corpus for a cognitive computing system
US9842161B2 (en) 2016-01-12 2017-12-12 International Business Machines Corporation Discrepancy curator for documents in a corpus of a cognitive computing system
US9720981B1 (en) 2016-02-25 2017-08-01 International Business Machines Corporation Multiple instance machine learning for question answering systems
JP6623852B2 (ja) * 2016-03-09 2019-12-25 富士通株式会社 検索制御プログラム、検索制御装置及び検索制御方法
US10592519B2 (en) 2016-03-29 2020-03-17 Microsoft Technology Licensing, Llc Computational-model operation using multiple subject representations
US20170293621A1 (en) * 2016-04-06 2017-10-12 International Business Machines Corporation Natural language processing based on textual polarity
US10706044B2 (en) 2016-04-06 2020-07-07 International Business Machines Corporation Natural language processing based on textual polarity
US20170293620A1 (en) * 2016-04-06 2017-10-12 International Business Machines Corporation Natural language processing based on textual polarity
CN107402912B (zh) * 2016-05-19 2019-12-31 北京京东尚科信息技术有限公司 解析语义的方法和装置
JP6767042B2 (ja) * 2016-09-26 2020-10-14 国立研究開発法人情報通信研究機構 シナリオパッセージ分類器、シナリオ分類器、及びそのためのコンピュータプログラム
JP6721179B2 (ja) * 2016-10-05 2020-07-08 国立研究開発法人情報通信研究機構 因果関係認識装置及びそのためのコンピュータプログラム
WO2018066489A1 (ja) * 2016-10-07 2018-04-12 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム
JP6929539B2 (ja) * 2016-10-07 2021-09-01 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及び方法並びにそのためのコンピュータプログラム
US10699215B2 (en) * 2016-11-16 2020-06-30 International Business Machines Corporation Self-training of question answering system using question profiles
US10303763B2 (en) * 2017-01-06 2019-05-28 International Business Machines Corporation Process for identifying completion of domain adaptation dictionary activities
JP2019020893A (ja) 2017-07-13 2019-02-07 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答装置
JP6218057B1 (ja) * 2017-07-14 2017-10-25 Jeインターナショナル株式会社 自動応答サーバー装置、端末装置、応答システム、応答方法、およびプログラム
US10902738B2 (en) * 2017-08-03 2021-01-26 Microsoft Technology Licensing, Llc Neural models for key phrase detection and question generation
JP6972788B2 (ja) 2017-08-31 2021-11-24 富士通株式会社 特定プログラム、特定方法および情報処理装置
US10387572B2 (en) * 2017-09-15 2019-08-20 International Business Machines Corporation Training data update
US11409749B2 (en) * 2017-11-09 2022-08-09 Microsoft Technology Licensing, Llc Machine reading comprehension system for answering queries related to a document
KR102005525B1 (ko) * 2017-12-29 2019-07-30 (주)헤르스 딥러닝 기술을 활용한 화학물질 안전관리의 질의응답 관리시스템
US11449762B2 (en) 2018-02-20 2022-09-20 Pearson Education, Inc. Real time development of auto scoring essay models for custom created prompts
US11475245B2 (en) 2018-02-20 2022-10-18 Pearson Education, Inc. Systems and methods for automated evaluation model customization
JP6691340B2 (ja) 2018-03-07 2020-04-28 株式会社哲英 質問応答システム、質問受付回答システム、第1次回答システム、及びそれらを用いた質問応答方法
JP6772213B2 (ja) * 2018-04-23 2020-10-21 日本電信電話株式会社 質問応答装置、質問応答方法及びプログラム
US11106664B2 (en) * 2018-05-03 2021-08-31 Thomson Reuters Enterprise Centre Gmbh Systems and methods for generating a contextually and conversationally correct response to a query
JP7126682B2 (ja) * 2018-05-11 2022-08-29 国立研究開発法人情報通信研究機構 対話システム及びそのコンピュータプログラム
CN110489531B (zh) * 2018-05-11 2023-05-30 阿里巴巴集团控股有限公司 高频问题的确定方法和装置
WO2020031242A1 (ja) 2018-08-06 2020-02-13 富士通株式会社 評価プログラム、評価方法および情報処理装置
RU2704738C1 (ru) * 2018-10-15 2019-10-30 Общество с ограниченной ответственностью "Уралинновация" Автоматизированная информационно-голосовая вопросно-ответная система
US11822588B2 (en) * 2018-10-24 2023-11-21 International Business Machines Corporation Supporting passage ranking in question answering (QA) system
CN109739956B (zh) * 2018-11-08 2020-04-10 第四范式(北京)技术有限公司 语料清洗方法、装置、设备及介质
CN111309875B (zh) * 2018-12-10 2023-08-04 百度在线网络技术(北京)有限公司 问题应答的方法、装置、设备和存储介质
CN111382573A (zh) * 2018-12-12 2020-07-07 百度在线网络技术(北京)有限公司 用于答案质量评估的方法、装置、设备和存储介质
JP6899973B2 (ja) * 2019-01-08 2021-07-07 三菱電機株式会社 意味関係学習装置、意味関係学習方法、及び意味関係学習プログラム
US11093491B2 (en) 2019-01-16 2021-08-17 International Business Machines Corporation Question answering system using topic-sensitive source reliability scoring
US11262978B1 (en) * 2019-06-19 2022-03-01 Amazon Technologies, Inc. Voice-adapted reformulation of web-based answers
CN110837738B (zh) * 2019-09-24 2023-06-30 平安科技(深圳)有限公司 相似问识别方法、装置、计算机设备及存储介质
RU2722461C1 (ru) * 2019-11-19 2020-06-01 Общество с ограниченной ответственностью "Уралинновация" Голосовая роботизированная вопросно-ответная система и способ ее автоматического взаимодействия с электронным устройством пользователя
RU2724600C1 (ru) * 2019-11-19 2020-06-25 Общество с ограниченной ответственностью "Уралинновация" Голосовая роботизированная вопросно-ответная система и способ ее автоматического взаимодействия с электронным устройством пользователя
CN111339268B (zh) * 2020-02-19 2023-08-15 北京百度网讯科技有限公司 实体词识别方法和装置
US20210279605A1 (en) * 2020-03-06 2021-09-09 International Business Machines Corporation Efficiently generating accurate responses to a multi-facet question by a question answering system
JP7568359B2 (ja) 2020-06-04 2024-10-16 東京エレクトロン株式会社 サーバ装置、顧客サポートサービス提供方法及び顧客サポートサービス提供プログラム
US20220318230A1 (en) * 2021-04-05 2022-10-06 Vianai Systems, Inc. Text to question-answer model system
CN114462422A (zh) * 2022-02-10 2022-05-10 北京融汇金信信息技术有限公司 反事实数据生成方法及装置
CN115455160B (zh) * 2022-09-02 2024-08-06 腾讯科技(深圳)有限公司 一种多文档阅读理解方法、装置、设备及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247029A (ja) * 2000-02-02 2002-08-30 Sony Corp 認証装置、認証システムおよびその方法、処理装置、通信装置、通信制御装置、通信システムおよびその方法、情報記録方法およびその装置、情報復元方法およびその装置、その記録媒体
JP2004139553A (ja) * 2002-08-19 2004-05-13 Matsushita Electric Ind Co Ltd 文書検索システムおよび質問応答システム
CN101377777A (zh) * 2007-09-03 2009-03-04 北京百问百答网络技术有限公司 一种自动问答方法和系统
US8543565B2 (en) * 2007-09-07 2013-09-24 At&T Intellectual Property Ii, L.P. System and method using a discriminative learning approach for question answering
JP5229782B2 (ja) * 2007-11-07 2013-07-03 独立行政法人情報通信研究機構 質問応答装置、質問応答方法、及びプログラム
JP5086799B2 (ja) 2007-12-27 2012-11-28 日本電信電話株式会社 質問応答方法、装置、プログラム並びにそのプログラムを記録した記録媒体
CN101872349B (zh) 2009-04-23 2013-06-19 国际商业机器公司 处理自然语言问题的方法和装置
KR20130021944A (ko) * 2011-08-24 2013-03-06 한국전자통신연구원 서술형 질의 응답 방법 및 장치
JP5825676B2 (ja) * 2012-02-23 2015-12-02 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP5924666B2 (ja) * 2012-02-27 2016-05-25 国立研究開発法人情報通信研究機構 述語テンプレート収集装置、特定フレーズペア収集装置、及びそれらのためのコンピュータプログラム
JP6206840B2 (ja) * 2013-06-19 2017-10-04 国立研究開発法人情報通信研究機構 テキストマッチング装置、テキスト分類装置及びそれらのためのコンピュータプログラム
JP6150282B2 (ja) * 2013-06-27 2017-06-21 国立研究開発法人情報通信研究機構 ノン・ファクトイド型質問応答システム及びコンピュータプログラム
JP6150291B2 (ja) * 2013-10-08 2017-06-21 国立研究開発法人情報通信研究機構 矛盾表現収集装置及びそのためのコンピュータプログラム
JP5904559B2 (ja) * 2013-12-20 2016-04-13 国立研究開発法人情報通信研究機構 シナリオ生成装置、及びそのためのコンピュータプログラム
JP6403382B2 (ja) * 2013-12-20 2018-10-10 国立研究開発法人情報通信研究機構 フレーズペア収集装置、及びそのためのコンピュータプログラム
JP5907393B2 (ja) * 2013-12-20 2016-04-26 国立研究開発法人情報通信研究機構 複雑述語テンプレート収集装置、及びそのためのコンピュータプログラム

Also Published As

Publication number Publication date
US9697477B2 (en) 2017-07-04
CN104137102B (zh) 2017-06-13
CN104137102A (zh) 2014-11-05
KR20140128346A (ko) 2014-11-05
EP2819031A4 (en) 2016-05-18
EP2819031A1 (en) 2014-12-31
US20150026106A1 (en) 2015-01-22
KR101968102B1 (ko) 2019-04-11
JP2013171550A (ja) 2013-09-02
WO2013125286A1 (ja) 2013-08-29

Similar Documents

Publication Publication Date Title
JP5825676B2 (ja) ノン・ファクトイド型質問応答システム及びコンピュータプログラム
KR102256240B1 (ko) 논팩토이드형 질의 응답 시스템 및 방법
Zhou et al. Predicting discourse connectives for implicit discourse relation recognition
KR102640564B1 (ko) 질의 응답 시스템의 훈련 장치 및 그것을 위한 컴퓨터 프로그램
Zhu et al. Aspect-based opinion polling from customer reviews
Azmi et al. An abstractive Arabic text summarizer with user controlled granularity
US8832064B2 (en) Answer determination for natural language questioning
Ng Semantic class induction and coreference resolution
Berber Sardinha Chapter 1. An assessment of metaphor retrieval methods
Alsallal et al. Intrinsic plagiarism detection using latent semantic indexing and stylometry
Alami et al. Automatic texts summarization: Current state of the art
WO2015004006A1 (en) Method and computer server system for receiving and presenting information to a user in a computer network
Liebeskind et al. Semiautomatic construction of cross-period thesaurus
Chifu et al. Word sense disambiguation to improve precision for ambiguous queries
CN109992651A (zh) 一种问题目标特征自动识别和抽取方法
Dunn et al. Language-independent ensemble approaches to metaphor identification
Ben-Sghaier et al. Ar-SLoTE: a recognizing textual entailment tool for arabic question/answering systems
Hong et al. Ontology-based event relation prediction: A SUMO based study of Mandarin VV compounds
Tanaka et al. Acquiring and generalizing causal inference rules from deverbal noun constructions
Zouaoui et al. Ontological Approach Based on Multi-Agent System for Indexing and Filtering Arabic Docu-ments
Chitra et al. Genetic algorithm based feature selection for paraphrase recognition
Israel et al. Semantic analysis for focused multi-document summarization (fMDS) of text
Zhang et al. An ATE system based on probabilistic relations between terms and syntactic functions
Rajpal et al. A Novel Techinque For Ranking of Documents Using Semantic Similarity
CN119092126A (zh) 基于时序的病情预测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151008

R150 Certificate of patent or registration of utility model

Ref document number: 5825676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250