[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7079309B2 - 質問応答処理方法、装置、電子機器及び記憶媒体 - Google Patents

質問応答処理方法、装置、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP7079309B2
JP7079309B2 JP2020196082A JP2020196082A JP7079309B2 JP 7079309 B2 JP7079309 B2 JP 7079309B2 JP 2020196082 A JP2020196082 A JP 2020196082A JP 2020196082 A JP2020196082 A JP 2020196082A JP 7079309 B2 JP7079309 B2 JP 7079309B2
Authority
JP
Japan
Prior art keywords
answer
question
sample
vector
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020196082A
Other languages
English (en)
Other versions
JP2021108111A (ja
Inventor
ディン,ユチン
リュウ,カイ
リュウ,ジン
チン,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021108111A publication Critical patent/JP2021108111A/ja
Application granted granted Critical
Publication of JP7079309B2 publication Critical patent/JP7079309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本出願はコンピュータ技術分野に関し、具体的に自然言語処理の技術分野に関し、特に質問応答処理方法、装置、電子機器及び記憶媒体に関する。
質問応答機能は、現在様々な情報検索システムの開発者がユーザに提供するために努力している高度な機能である。人間でユーザからの質問に応答するには高い人件費がかかるゆえ、人件費を削減するために、どのようにしてユーザからの質問にスマート且つ自動的に応答するかはすでに当該分野において急務となっている技術的課題である。
関連技術において、通常は質問に対応する答えを自動的に出す方法が二種類あり、第1の方法は検索に基づく質問システムがまず質問に対応する答えをユーザに返すものであり、そのうち、第1の方法が質問に対応する答えを自動的に出す一般的なプロセスは、入力された質問に対し、まず、情報検索という方法(例えば検索エンジン技術)で大量のテキストから一定量の候補テキストを見つけ、次に、語義照合、特徴提出等の様々な方法ですべての候補テキストの答えの特徴を計算し、それにより、テキストが正確な答えである信頼度を計算し、信頼度の最も高いテキストを答えとするものである。第2の方法は質問応答のデータベースに基づいて質問に対応する答えを返すものであり、その一般的なプロセスは、ユーザからの質問qに対し、データベース内のすべての<質問-応答>グループをトラバースし、qと質問との照合信頼度、及びqと回答との照合信頼度をそれぞれ計算し、両方の信頼度も既定のしきい値より高い応答を該質問の答えとするものである。
しかしながら、本出願を実現する過程において発明者は、検索に基づく質問応答システムの最適化時に、質問応答システムにおける2つのステップのモデルをそれぞれ最適化する必要があり、仕事量が多いだけではなく、異なるステップのモデルの目標が一致しないことによって引き起こされる効果損失が存在し、質問応答データベースに基づく質問応答システムにおいて、選択された技術案により、答えのカバー率が低く、又は答えの正解率が低く、性能が不足するという課題が存在し、さらに質問に対応する答えの取得に必要な時間が長いということを発見した。そのため、どのようにして質問に対応する答えを正確かつ素早く提供するかは現在急務となっている技術的課題である。
本出願は質問応答処理方法、装置、電子機器及び記憶媒体を提供し、質問応答の照合のプロセスにおいて、答え信頼度を計算する必要がなく、質問に対応する答えを取得する効率が向上し、さらに、本実施形態において答え候補に対応する語義表現ベクトルは、答え候補自体の語義表現ベクトルと、答え候補が配置されている文章の文章タイトルの語義ベクトルとを組み合わせることによって決定されるものであるため、答え候補自体、及び答え候補が配置されている文章の文章タイトルと、与えられた質問との関連性に基づき、与えられた質問に一致した正確な答えが特定され、質問応答の照会精度が向上する。
本出願の第1態様の実施例は質問応答処理方法を提供し、回答対象の質問を取得するステップと、前記回答対象の質問をそれぞれ第1の質問語義表現モデル及び第2の質問語義表現モデルに入力することにより、前記回答対象の質問の第1の語義表現ベクトル及び第2の語義表現ベクトルを取得するステップであって、前記第1の質問語義表現モデルは質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記第2の質問語義表現モデルは前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものであるステップと、前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の語義表現ベクトル及び前記第2の語義表現ベクトルに基づいて連結処理を行うステップと、前記回答対象の質問の目標語義表現ベクトルを、予め構築された答えベクトル索引ライブラリ内の各答え語義表現ベクトルと照合するステップであって、前記答えベクトル索引ライブラリは答えサンプルセル内のすべての答え候補を語義表現ベクトルに変換することによって構築されたものであり、前記答え候補に対応する答え語義表現ベクトルは前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて得られたものであるステップと、照合して一致した答え語義表現ベクトルに基づき、対応する目標答えを取得し、かつ前記目標答えを出力するステップと、を含む。
本出願の一実施例において、前記答え候補自体の語義表現ベクトルは、答え語義表現モデルによって前記答え候補に対して語義ベクトル化表示をして得られたものであり、前記タイトル語義表現ベクトルは、タイトル語義表現モデルによって前記答え候補に対応する文章タイトルに対して語義ベクトル化表示をして得られたものであり、前記第1の質問語義表現モデルは、前記質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記タイトル語義表現モデルは、前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものである。
本出願の一実施例において、前記答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、前記質問サンプルの語義表現ベクトルが得られるように、初期の第1の語義表現モデルによって前記質問サンプルに対して語義ベクトル化表示を行うステップと、前記間違った答えサンプルの語義表現ベクトル及び前記正しい答えサンプルの語義表現ベクトルが得られるように、初期の第2の語義表現モデルによって前記間違った答えサンプル及び前記正しい答えサンプルに対してそれぞれ語義ベクトル化表示を行うステップと、前記質問サンプルの語義表現ベクトル及び前記間違った答えサンプルの語義表現ベクトルに基づき、前記質問サンプルと間違った答えサンプルとの間の第1のベクトル類似度を決定するステップと、前記質問サンプルの語義表現ベクトル及び前記正しい答えサンプルの語義表現ベクトルに基づき、前記質問サンプルと正しい答えサンプルとの間の第2のベクトル類似度を決定するステップと、前記第1のベクトル類似度及び前記第2のベクトル類似度に基づき、前記第1のベクトル類似度及び前記第2のベクトル類似度が第1の予め設定された条件を満たすまで前記初期の第1の語義表現モデル及び前記第2の語義表現モデルのモデルパラメータを調整するステップと、第1の予め設定された条件が満たされる場合に得られた第1の語義表現モデルを前記答え語義表現モデルとし、第1の予め設定された条件が満たされる場合に得られた第2の語義表現モデルを前記第1の質問語義表現モデルとするステップと、によってトレーニングして前記第1の質問語義表現モデルと前記答え語義表現モデルを取得する。
本出願の一実施例において、前記答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、前記間違った答えサンプルに対応する文章タイトルの第1のタイトル語義ベクトル及び前記正しい答えサンプルに対応する文章タイトルの第2のタイトル語義ベクトルが得られるように、初期の第3の語義表現モデルによって前記間違った答えサンプルに対応する文章タイトル及び前記正しい答えサンプルに対応する文章タイトルに対して語義ベクトル化表示を行うステップと、前記質問サンプルの語義表現ベクトルが得られるように、初期の第4の語義表現モデルによって前記質問サンプルに対して語義ベクトル化表示を行うステップと、前記質問サンプルの語義表現ベクトル及び前記第1のタイトル語義表現ベクトルに基づき、前記質問サンプルと前記間違った答えサンプルに対応する文章タイトルとの間の第3のベクトル類似度を決定するステップと、前記質問サンプルの語義表現ベクトル及び前記第2のタイトル語義表現ベクトルに基づき、前記質問サンプルと前記間違った答えサンプルに対応する文章タイトルとの間の第4のベクトル類似度を決定するステップと、前記第3のベクトル類似度及び前記第4のベクトル類似度に基づき、前記第3のベクトル類似度及び前記第4のベクトル類似度が第2の予め設定された条件を満たすまで前記初期の第3の語義表現モデル及び第4の語義表現モデルのモデルパラメータを調整するステップと、第2の予め設定された条件が満たされる場合に得られた第3の語義表現モデルを前記タイトル語義表現モデルとし、第2の予め設定された条件が満たされる場合に得られた第3の語義表現モデルを前記第2の質問語義表現モデルとするステップと、によってトレーニングして前記タイトル語義表現モデル及び第2の質問語義表現モデルを取得する。
本出願の一実施例において、前記第1の語義表現モデル、前記第2の語義表現モデル、前記第3の語義表現モデル及び前記第4の語義表現モデルはいずれも予めトレーニングされた語義表現モデルであり、前記予めトレーニングされた語義表現モデルは教師なしデータを用いてトレーニングされたものである。
本出願の一実施例において、前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて、前記答え候補に対応する答え語義表現ベクトルを取得するステップは具体的に、前記答え候補自体の語義表現ベクトルに予め設定された第1の重みをかけて、新しい語義表現ベクトルを取得するステップと、前記タイトル語義表現ベクトルに予め設定された第2の重みをかけて、新しいタイトル語義表現ベクトルを取得するステップと、前記新しい語義表現ベクトル及び前記新しいタイトル語義表現ベクトルを連結し、連結された語義表現ベクトルを前記答え候補に対応する答え語義表現ベクトルとするステップと、を含み、前記第1の語義表現ベクトル及び前記第2の語義表現ベクトルに基づいて連結処理を行うことによって、前記回答対象の質問の目標語義表現ベクトルを取得するステップは、前記回答対象の質問の第1の中間語義表現ベクトルが得られるように、前記第1の語義表現ベクトルに前記第1の重みをかけるステップと、前記回答対象の質問の第2の中間語義表現ベクトルが得られるように、前記第2の語義表現ベクトルに前記第2の重みをかけるステップと、前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の中間語義表現ベクトル及び前記第2の中間語義表現ベクトルに対して連結処理を行うステップと、を含む。
本出願の実施例の質問応答処理方法は、回答対象の質問の答えを決定する際には、第1の質問語義表現モデルと第2の語義表現モデルを組み合わせて回答対象の質問に対してそれぞれ語義表現を行い、それぞれ得られた語義表現ベクトル結果に対して連結処理を行い、連結された語義ベクトルを回答対象の質問の語義表現ベクトルとし、回答対象の質問の語義表現ベクトルに一致した答え語義ベクトルを答えベクトル索引ライブラリから取得し、一致した答えの語義ベクトルに対応する目標答えを回答対象の質問の目標答えとし、且つ目標答えを出力する。従って、質問応答照合のプロセスにおいて、答え信頼度を計算する必要がなく、質問に対応する答えを取得する効率が向上し、さらに、本実施形態において答え候補に対応する語義表現ベクトルは、答え候補自体の語義表現ベクトルと、答え候補が配置されている文章の文章タイトルの語義ベクトルとを組み合わせることによって決定されるものであるため、答え候補自体、及び答え候補が配置されている文章の文章タイトルと、与えられた質問との関連性に基づき、与えられた質問に一致した正確な答えが特定され、質問応答の照会精度が向上する。
本出願の第2態様の実施例は質問応答処理装置を提供し、回答対象の質問を取得するための取得モジュールと、前記回答対象の質問をそれぞれ第1の質問語義表現モデル及び第2の質問語義表現モデルに入力することにより、前記回答対象の質問の第1の語義表現ベクトル及び第2の語義表現ベクトルを取得するための語義表現モジュールであって、前記第1の質問語義表現モデルは質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記第2の質問語義表現モデルは前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものである語義表現モジュールと、前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の語義表現ベクトル及び前記第2の語義表現ベクトルに基づいて連結処理を行うための連結モジュールと、前記回答対象の質問の目標語義表現ベクトルを、予め構築された答えベクトル索引ライブラリ内の各答え語義表現ベクトルと照合するための照合モジュールであって、前記答えベクトル索引ライブラリは答えサンプルセル内のすべての答え候補を語義表現ベクトルに変換することによって構築されたものであり、前記答え候補に対応する答え語義表現ベクトルは前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて得られたものである照合モジュールと、照合して一致した答え語義表現ベクトルに基づき、対応する目標答えを取得し、かつ前記目標答えを出力するための答え取得モジュールと、を含むことを特徴とする。
本出願の実施例の質問応答処理装置は、回答対象の質問の答えを決定する際には、第1の質問語義表現モデルと第2の語義表現モデルを組み合わせて回答対象の質問に対してそれぞれ語義表現を行い、それぞれ得られた語義表現ベクトル結果に対して連結処理を行い、連結された語義ベクトルを回答対象の質問の語義表現ベクトルとし、回答対象の質問の語義表現ベクトルに一致した答え語義ベクトルを答えベクトル索引ライブラリから取得し、一致した答えの語義ベクトルに対応する目標答えを回答対象の質問の目標答えとし、且つ目標答えを出力する。従って、質問応答照合のプロセスにおいて、答え信頼度を計算する必要がなく、質問に対応する答えを取得する効率が向上し、さらに、本実施形態において答え候補に対応する語義表現ベクトルは、答え候補自体の語義表現ベクトルと、答え候補が配置されている文章の文章タイトルの語義ベクトルとを組み合わせることによって決定されるものであるため、答え候補自体、及び答え候補が配置されている文章の文章タイトルと、与えられた質問との関連性に基づき、与えられた質問に一致した正確な答えが特定され、質問応答の照会精度が向上する。
本出願の第3態様の実施例は電子機器を提供し、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されるメモリとを含み、前記メモリには前記少なくとも1つのプロセッサにより実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサにより実行される場合、本出願の実施例の質問応答処理方法が実行される。
本出願の第4態様の実施例は、コンピュータ命令が記憶される非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令が実行される場合、本出願の実施例に開示された質問応答処理方法が実行される。
本出願の第5の態様の実施例は、コンピュータプログラムを提供し、前記コンピュータプログラムのおける命令が実行された場合に、第1の態様の実施例に記載の質問応答処理方法が実行される。
上記出願における一実施例は以下の利点又は有益な効果を有する。質問応答の照合のプロセスにおいて、答え信頼度を計算する必要がなく、質問に対応する答えを取得する効率が向上し、さらに、答え候補自体、及び答え候補が配置されている文章の文章タイトルと、与えられた質問との関連性に基づき、与えられた質問に一致した正確な答えが特定され、質問応答の照会精度が向上する。答え候補の答え語義表現ベクトルを予め答えベクトル索引ライブラリに記憶することにより、答えに対して語義ベクトル化表示をオンラインで行う計算量が減少し、さらに、答え候補自体、及び答え候補が配置されている文章の文章タイトルと、与えられた質問との関連性に基づき、与えられた質問匹配の正確な答えと一致した技術手段が特定されることにより、質問応答の照合効率及び正解率が低いという関連技術における技術的課題が克服され、質問に対応する答えを取得する効率が向上するとともに、質問応答の照会精度も向上するという技術的効果が達成される。
上記選択可能な方式のその他の効果は以下において具体的な実施例を参照しながら説明する。
図面は本技術案をより良く理解するために使用され、本出願を限定するものではない。そのうち、
本出願の第1の実施例に係る概略図である。 質問応答の照合のフローチャートである。 本出願の第2の実施例に係る概略図である。 本出願の第3の実施例に係る概略図である。 本出願の第4の実施例に係る概略図である。 本出願の第5の実施例に係る概略図である。 本出願の実施例を実現する電子機器のブロック図である。
以下、図面を参照しながら本出願の例示的な実施例を説明し、理解を促すために本出願の実施例の様々な詳細が含まれており、それらを単なる例示的なものとみなすべきである。ゆえに、当業者であれば、本出願の範囲と精神を逸脱しない限り、ここで説明された実施例に対して様々な変更と修正を行うことができることを理解されたい。同様に、明確かつ簡潔にするため、以下の説明において公知の機能や構造に対する説明が省略される。
以下、図面を参照しながら本出願の実施例の質問応答処理方法、装置、電子機器及び記憶媒体を説明する。
図1は本出願の第1の実施例に係る概略図である。なお、本実施例の質問応答処理方法の実行主体は質問応答処理装置であり、該装置はソフトウェア及び/又はハードウェアの方式で実現することができ、該装置は電子機器に配置することができ、電子機器は端末機器、サーバ等を含んでも良いがそれらに限定されず、該実施例はこれについて具体的に限定しない。本実施例は、質問応答処理装置が質問応答システムに配置され、質問応答システムがサーバに配置される場合を例として説明する。
図1に示すように、該質問応答処理方法は以下を含んでも良い。
ステップ101、回答対象の質問を取得する。
具体的に、現在のユーザが質問応答システムに入力する質問を回答対象の質問とすることができる。
本実施例において、ユーザが個別に質問を入力することを容易にするため、本実施例の質問応答システムは、ユーザが必要に応じて質問を入力するように、入力インターフェースを提供する。
該入力インターフェースはテキスト入力、及び/又は音声入力、及び/又は画像入力をサポートすることができる。
ユーザが音声の形式で質問を入力する際に、現在のユーザが入力する音声情報を取得し、且つ取得した音声情報に対して音声識別を行い、さらに音声識別結果から得られたテキスト情報を回答対象の質問とすることができる。ユーザが画像の形式で質問を入力する際に、画像に対して文字識別を行い、且つ文字識別結果を回答対象の質問とすることができる。
ステップ102、回答対象の質問をそれぞれ第1の質問語義表現モデル及び第2の質問語義表現モデルに入力することにより、回答対象の質問の第1の語義表現ベクトル及び第2の語義表現ベクトルを取得する。
第1の質問語義表現モデルは、質問サンプル及び質問サンプルに対応する答えサンプルを組み合わせてトレーニングして得られたものであり、第2の質問語義表現モデルは、質問サンプル及び答えサンプルに対応する文章タイトルを組み合わせてトレーニングして得られたものである。
なお、トレーニング終了時に、第1の質問語義表現モデルは質問サンプルの語義表現ベクトルを出力し、質問サンプルの語義表現ベクトルと正しい答えサンプルの語義表現ベクトルとの間のベクトル類似度は予め設定された類似度のしきい値より高い。
なお、トレーニング終了時に、第2の質問語義表現モデルは質問サンプルの語義表現ベクトルを出力し、質問サンプルの語義表現ベクトルと正しい答えサンプルに対応する文章タイトルのタイトル語義表現ベクトルとの間のベクトル類似度は予め設定された類似度のしきい値より高い。
正しい答えサンプルに対応する文章タイトルのタイトル語義表現ベクトルは、予め設定されたタイトル語義表現モデルによって取得してもよいし、従来のいくつかの他の方式で取得してもよく、本実施例はこれについて具体的に限定しない。本実施例は、タイトル語義表現モデルにより、対応する文章タイトルに対して語義ベクトル化表示を行って、対応する文章タイトルのタイトル語義表現ベクトルを取得する。
なお、質問サンプルと答えサンプルに対応する文章タイトルとを組み合わせ、同時にトレーニングして第2の質問語義表現モデル及びタイトル語義表現モデルを取得するプロセスは後の実施例において説明するので、ここでは説明を省略する。
ステップ103、回答対象の質問の目標語義表現ベクトルが得られるように、第1の語義表現ベクトル及び第2の語義表現ベクトルに基づいて連結処理を行う。
本実施例では、第1の語義表現ベクトルと第2の語義表現ベクトルとは、質問応答システムの質問応答照合のプロセスにおいて果たす役割が通常異なるものであり、後で回答対象の質問に対応する目標答えを正確に取得できるために、回答対象の質問の目標語義表現ベクトルが得られるように第1の語義表現ベクトル及び第2の語義表現ベクトルに基づいて連結処理を行うステップの具体的な実現方法は以下のとおりであってもよい。第1の語義表現ベクトルに予め設定された第1の重みをかけて、回答対象の質問の第1の中間語義表現ベクトルを得た後、第2の語義表現ベクトルに予め設定された第2の重みをかけて、回答対象の質問の第2の中間語義表現ベクトルを得られ、第1の中間語義表現ベクトル及び第2の中間語義表現ベクトルに対して連結処理を行うことによって、回答対象の質問の目標語義表現ベクトルを取得することができる。
例えば、回答対象の質問がqである場合、第1の語義表現モデルを用いて回答対象の質問qの第1の語義表現ベクトルをq_repと決定し、第2の語義表現モデルを用いて回答対象の質問qの第2の語義表現ベクトルをqt_repと決定し、第1の重みをaに、第2の重みをbとすれば、重みに合わせて第1の語義表現ベクトル及び第2の語義表現ベクトルを連結すると、回答対象の質問の目標語義表現ベクトルのQ_REP=[a*q_rep, b*qt_rep]が得られる。
第1の重みは、質問応答照合のプロセスにおいて答えサンプルが果たす役割を分析することによって決定され、即ち、第1の重みは、質問応答サンプルが質問に対応する正確な答えを決定する際に果たした役割を分析することによって決定される。
第2の重みは、質問応答照合のプロセスにおいて文章タイトルが果たした役割を分析することによって決定され、即ち、第2の重みは、文章タイトルが質問に対応する正確な答えを決定する際に果たした役割を分析することによって決定される。
ステップ104、回答対象の質問の目標語義表現ベクトルを、予め構築された答えベクトル索引ライブラリ内の各答え語義表現ベクトルと照合する。
答えベクトル索引ライブラリは答えサンプルセル内のすべての答え候補を語義表現ベクトルに変換することによって構築されたものであり、答え候補に対応する答え語義表現ベクトルは、答え候補自体の語義表現ベクトル及び答え候補に対応する文章タイトルのタイトル語義表現ベクトルによって得られたものである。
答え候補自体の語義表現ベクトル及び対応する文章タイトルのタイトル語義表現ベクトルを素早く決定するために、本出願の一実施例において、答え候補自体の語義表現ベクトルは、答え語義表現モデルによって答え候補に対して語義ベクトル化表示をして得られたものであってもよく、タイトル語義表現ベクトルは、タイトル語義表現モデルによって答え候補に対応する文章タイトルに対して語義ベクトル化表示をして得られたものであってもよい。
第1の質問語義表現モデルは、質問サンプル及び質問サンプルに対応する答えサンプルを組み合わせてトレーニングして得られたものである。
タイトル語義表現モデルは、質問サンプル、及び答えサンプルに対応する文章タイトルを組み合わせてトレーニングして得られたものである。
なお、質問サンプル及び質問サンプルに対応する答えサンプルを組み合わせて、第1の質問語義表現モデル及びタイトル語義表現モデルをトレーニングするステップの具体的なプロセスは後の実施例において紹介するので、ここでは説明を省略する。
本出願の一実施例において、なお、答え候補自体の語義表現ベクトルと文章タイトルに対応するタイトル語義表現ベクトルとは、質問に対応する正確な答えを決定するプロセスにおいて果たす役割が異なり、答え候補自体の語義表現ベクトル及び答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づき、答え候補に対応する答え語義表現ベクトルを取得するステップの具体的な実現方法は以下のとおりである。答え候補自体の語義表現ベクトルに予め設定された第1の重みをかけて、新しい語義表現ベクトルを得られ、タイトル語義表現ベクトルに予め設定された第2の重みをかけて、新しいタイトル語義表現ベクトルを得られ、新しい語義表現ベクトル及び新しいタイトル語義表現ベクトルを連結し、且つ連結された語義表現ベクトルを答え候補に対応する答え語義表現ベクトルとする。
なお、重み付け連結処理時に用いられる対応する重みは、上記回答対象の質問の語義表現ベクトルに対して重み付け連結を行う時に用いられる対応する重みと同じである。第1の重み及び第2の重みに対する解釈は上記実施例の関連する部分を参照すればよいので、ここでは説明を省略する。
ステップ105、照合して一致した答え語義表現ベクトルに基づき、対応する目標答えを取得し、かつ目標答えを出力する。
具体的に、回答対象の質問の目標語義表現ベクトルを、予め構築された答えベクトル索引ライブラリ内の各答え語義表現ベクトルと照合することにより、目標語義表現ベクトルに最も近い答え語義表現ベクトルを得られ、対応する答えを回答対象の質問に対応する正確な答えとし、且つ回答対象の質問に対応する正確な答えを出力することができる。
以下、図2を参照しながら、本実施例の質問応答処理方法をさらに説明する。そのうち、図2は、答え語義表現モデルによって答え候補テキストに対して語義ベクトル化表示を行うことを例として説明する。
なお、オンラインで「答え語義計算」を行うのは、語義の質問応答照合において最も時間のかかる部分であり、質問に対応する正確な答えを素早く出力し、オンライン部分の質問回答の効率を向上させるために、「答え語義計算」の部分をオフライン前処理段階に移ることができる。
本出願の全体的な技術思想は以下のとおりである。答え語義表現モデルによってすべての答え候補(答え候補テキスト)を予め語義表現ベクトルに変換し、答えベクトル索引ライブラリに記憶する。それに対応して、ユーザにより入力された質問に対し、まず、それをベクトルに変換し、次に、ベクトル検索システムにおいて質問ベクトルと最も一致した答え語義表現ベクトルを見つけ、最も一致した答え語義表現ベクトルに対応する答えを質問の答えとし、且つ質問の答えを出力する。
本実施例の答えベクトル索引ライブラリはベクトル検索システムに配置することができる。
以上から分かるように、本実施例は、すべての答え候補を予め語義ベクトルに変換して答えベクトル索引ライブラリに記憶することにより、回答対象の質問を取得すると、質問を語義表現ベクトルに変換し、質問語義表現ベクトルと一致した答え語義表現ベクトルを答えベクトル索引ライブラリから取得し、一致した答え語義表現ベクトルに対応する答えを取得するだけで、回答対象の質問の答えを迅速に取得することができ、答えの信頼度を計算するプロセスが省略され、質問に対応する答えを取得する効率が向上する。さらに、本実施例の答え候補に対応する語義表現ベクトルは、答え候補自体の語義表現ベクトルと、答え候補が配置されている文章の文章タイトルの語義ベクトルとを組み合わせることによって決定されるものであるため、答え候補自体、及び答え候補が配置されている文章の文章タイトルと、与えられた質問との関連性に基づき、与えられた質問に一致した正確な答えが特定され、質問応答の照会精度が向上する。
本出願の実施例の質問応答処理方法は、回答対象の質問の答えを決定する際には、第1の質問語義表現モデルと第2の語義表現モデルを組み合わせて回答対象の質問に対してそれぞれ語義表現を行い、それぞれ得られた語義表現ベクトル結果に対して連結処理を行い、連結された語義ベクトルを回答対象の質問の語義表現ベクトルとし、回答対象の質問の語義表現ベクトルに一致した答え語義ベクトルを答えベクトル索引ライブラリから取得し、一致した答えの語義ベクトルに対応する目標答えを回答対象の質問の目標答えとし、且つ目標答えを出力する。従って、質問応答照合のプロセスにおいて、答え信頼度を計算する必要がなく、質問に対応する答えを取得する効率が向上し、さらに、本実施形態において答え候補に対応する語義表現ベクトルは、答え候補自体の語義表現ベクトルと、答え候補が配置されている文章の文章タイトルの語義ベクトルとを組み合わせることによって決定されるものであるため、答え候補自体、及び答え候補が配置されている文章の文章タイトルと、与えられた質問との関連性に基づき、与えられた質問に一致した正確な答えが特定され、質問応答の照会精度が向上する。
以下、図3を参照しながら、第1の質問語義表現モデル及び答え語義表現モデルをトレーニングするプロセスを説明する。なお、答えサンプルは間違った答えサンプル及び正しい答えサンプルを含む。そのうち、間違った答えサンプルは、質問サンプルと一定の関係を有する間違った答えを指す。
図3に示すように、以下のステップを含んでも良い。
ステップ301、質問サンプルの語義表現ベクトルが得られるように、初期の第1の語義表現モデルによって質問サンプルに対して語義ベクトル化表示を行う。
ステップ302、間違った答えサンプルの語義表現ベクトル及び正しい答えサンプルの語義表現ベクトルが得られるように、初期の第2の語義表現モデルによって間違った答えサンプル及び正しい答えサンプルに対してそれぞれ語義ベクトル化表示を行う。
ステップ303、質問サンプルの語義表現ベクトル及び間違った答えサンプルの語義表現ベクトルに基づいて、質問サンプルと間違った答えサンプルとの間の第1のベクトルの類似度を決定する。
具体的に、質問サンプルの語義表現ベクトル及び間違った答えサンプルの語義表現ベクトルが得られると、質問サンプルの語義表現ベクトルと間違った答えサンプルの語義表現ベクトルとの間の余弦(cosine)類似度を計算し、且つ余弦類似度を質問サンプルと間違った答えサンプルとの間のベクトル類似度とすることができる。
ステップ304、質問サンプルの語義表現ベクトル及び正しい答えサンプルの語義表現ベクトルに基づき、質問サンプルと正しい答えサンプルとの間の第2のベクトル類似度を決定する。
具体的に、質問サンプルの語義表現ベクトル及び正しい答えサンプルの語義表現ベクトルが得られると、質問サンプルの語義表現ベクトルと正しい答えサンプルの語義表現ベクトルとの間の余弦(cosine)の類似度を計算し、且つ余弦類似度を質問サンプルと正しい答えサンプルとの間のベクトル類似度とすることができる。
ステップ305、第1のベクトル類似度及び第2のベクトル類似度に基づき、第1のベクトル類似度及び第2のベクトル類似度が第1の予め設定された条件を満たすまで、初期の第1の語義表現モデル及び第2の語義表現モデルのモデルパラメータを調整する。
なお、初期の第1の語義表現モデル及び第2の語義表現モデルのモデルパラメータを調整した後、引き続きモデルパラメータが調整された後の第1の語義表現モデル及び第2の語義表現モデルによってそれぞれの入力に対して語義ベクトル化表示を行い、改めて計算して得られた第1のベクトル類似度及び第2のベクトル類似度が第1の予め設定された条件を満たすまで、第1の語義表現モデル及び第2の語義表現モデルに対するモデルパラメータ調整を終了し、即ち、モデルトレーニングが終了される。
第1の予め設定された条件は、予め設定される、第1のベクトル類似度及び第2のベクトル類似度がどのような条件を満たす場合、モデルトレーニングを終了するものである。例えば、第1の予め設定された条件は、質問サンプル語と正しい答えサンプルとのベクトル類似度から質問サンプル語と間違った答えサンプルとのベクトル類似度を引いて得られた相違度が、最大相違度に達するものであっても良い。
ステップ306、第1の予め設定された条件が満たされる際に得られた第1の語義表現モデルを答え語義表現モデルとし、第1の予め設定された条件が満たされる際に得られた第2の語義表現モデルを第1の質問語義表現モデルとする。
本実施例において、質問サンプル、正しい答えサンプル及び間違った答えサンプルを組み合わせると同時に、初期の第1の語義表現モデル及び第2の語義表現モデルをトレーニングし、質問サンプルと正しい答えサンプルとの間のベクトル類似度、及び質問サンプルと間違った答えサンプルとの間のベクトル類似度が第1の予め設定された条件を満たす時に、モデルトレーニングを終了し、トレーニング終了時に得られた第1の語義表現モデルを質問語義表現モデルとし、トレーニング終了時に得られた第2の語義表現モデルを答え語義表現モデルとする。従って、質問とその正確な答えとの語義ベクトルを可能な限り類似するものとすることによって、質問応答照合の精度を保証する。
本出願の一実施例において、質問サンプル、正しい答えサンプル及び間違った答えサンプルを組み合わせ、トレーニングして第1の質問語義表現モデル及び答え語義表現モデルを取得する具体的なプロセスは以下のとおりである。
初期には、大規模な言語資料においてトレーニングされた言語モデルを語義表現モデルの初期化とし、初期化された第1の語義表現モデルによって質問サンプルqueryの語義表現ベクトルQ_repを取得し、初期化された第2の語義表現モデルによって答えサンプルparaの和(P_rep)を取得し、2つのベクトルの内積を該<query、para>ペアの照合信頼度とする。
次に、モデルのトレーニングを開始する。1回ごとにn個のデータを固定形式でモデルの<query、para+,para->に入力し、para+は該質問サンプルqueryの正しい答えサンプルを表し、para-は該質問サンプルqueryと一定の関連性を持つ間違った答えサンプルを表す。モデルに入力された各queryに対し、それと2n個のparaとの関連性(自身のプラス、マイナスの答えを含む)を計算する必要があり、モデル学習の目標は、正確なparaの関連性を2n個の関連性のうちの最大値とし、モデルが収斂すると、queryとparaの語義表現モデルを取得することができる。
以下、図4を参照しながら、第1の質問語義表現モデル及び答え語義表現モデルをトレーニングするプロセスを説明する。そのうち、質問サンプル及び質問サンプルに対応する答えサンプルを説明する必要がある。
図4に示すように、以下を含んでも良い。
ステップ401、間違った答えサンプルに対応する文章タイトルの第1のタイトル語義ベクトル及び正しい答えサンプルに対応する文章タイトルの第2のタイトル語義ベクトルが得られるように、初期の第3の語義表現モデルによって、間違った答えサンプルに対応する文章タイトル及び正しい答えサンプルに対応する文章タイトルに対してそれぞれ語義ベクトル化表示を行う。
ステップ402、質問サンプルの語義表現ベクトルが得られるように、初期の第4の語義表現モデルによって質問サンプルに対して語義ベクトル化表示を行う。
ステップ403、質問サンプルの語義表現ベクトル及び第1のタイトル語義表現ベクトルに基づき、質問サンプルと間違った答えサンプルに対応する文章タイトルとの第3のベクトル類似度を決定する。
具体的に、質問サンプルの語義表現ベクトル及び第1のタイトル語義表現ベクトルが得られると、質問サンプルの語義表現ベクトルと第1のタイトル語義表現ベクトルとの間の余弦(cosine)類似度を計算し、且つ余弦類似度を質問サンプルと間違った答えサンプルに対応する文章タイトルとの間のベクトル類似度とすることができる。
ステップ404、質問サンプルの語義表現ベクトル及び第2のタイトル語義表現ベクトルに基づき、質問サンプルと間違った答えサンプルに対応する文章タイトルとの間の第4のベクトル類似度を決定する。
具体的に、質問サンプルの語義表現ベクトル及び第2のタイトル語義表現ベクトルが得られると、質問サンプルの語義表現ベクトルと第2のタイトル語義表現ベクトルとの間の余弦(cosine)類似度を計算し、且つ余弦類似度を質問サンプルと正しい答えサンプルに対応する文章タイトルとの間のベクトル類似度とすることができる。
ステップ405、第3のベクトル類似度及び第4のベクトル類似度に基づき、第3のベクトル類似度及び第4のベクトル類似度が第2の予め設定された条件を満たすまで、初期の第3の語義表現モデル及び第4の語義表現モデルのモデルパラメータを調整する。
ステップ406、第2の予め設定された条件が満たされる際に得られた第3の語義表現モデルをタイトル語義表現モデルとし、第2の予め設定された条件が満たされる際に得られた第3の語義表現モデルを第2の質問語義表現モデルとする。
上記実施例をもとに、上記初期の第1の語義表現モデル、第2の語義表現モデル、第3の語義表現モデル及び第4の語義表現モデルは同じモデルであってもよく、異なるモデルであってもよい。
本出願の実施例において、初期の第1の語義表現モデル、第2の語義表現モデル、第3の語義表現モデル及び第4の語義表現モデルはすでに語義知識を学習しており、かつ続きを容易にするために、少量の<質問、答え>タグデータに基づいてモデルをトレーニングすることができ、検索式質問応答システムにおいて候補検索モデル及び特徴抽出モデルをトレーニングする作業が省略される。本実施例における第1の語義表現モデル、第2の語義表現モデル、第3の語義表現モデル及び第4の語義表現モデルはいずれも予めトレーニングされた語義表現モデルであってもよい。
予めトレーニングされた語義表現モデルは教師なしデータでトレーニングされたものである。
予めトレーニングされた語義表現モデルは知識統合の語義表現モデルERNIE(Enhanced Representation from kNowledge IntEgration)、BERTモデルを含むがそれらに限定されない。
本実施例において、第1の語義表現モデル、第2の語義表現モデル、第3の語義表現モデル及び第4の語義表現モデルを予めトレーニングされた語義表現モデルとすれば、一定量の<質問、答え>タグデータを提供するだけでモデルをトレーニングでき、検索型質問応答システムにおいて候補検索モデル及び特徴抽出モデルをトレーニングする作業が省略され、トレーニングされた語義表現モデルを取得する時間を短縮し、質問応答システムのモデルに対して更新及び最適化を行うことに役立つ。
上記実施例に基づき、回答対象の質問に対応する目標答えを出力した後、目標答えが回答対象の質問の正確な答えでないことを示すためのフィードバックを受信し、この時、更新後のトレーニングデータが得られるように、目標答えを回答対象の質問の間違った質問サンプルデータとしてトレーニングデータに追加するすることができる。それに対応して、関連する語義表現モデルが更新されるように、更新後のトレーニングデータに基づいて本実施例に関連する語義表現モデルをトレーニングし、従ってモデルの効果はますます良くなる。即ち、モデルの自動的な反復更新を実現でき、さらに質問応答照合の精度を向上させることができる。
上記実施例を実現するために、本出願の実施例はさらに質問応答処理装置を提供する。
図5は本出願の第4の実施例に係る概略図である。図5に示すように、該質問応答処理装置100は取得モジュール110、語義表現モジュール120、連結モジュール130、照合モジュール140及び答え取得モジュール150を含む。
取得モジュール110は、回答対象の質問を取得することに用いられる。
語義表現モジュール120は、回答対象の質問をそれぞれ第1の質問語義表現モデル及び第2の質問語義表現モデルに入力することにより、回答対象の質問の第1の語義表現ベクトル及び第2の語義表現ベクトルを取得することに用いられる。そのうち、第1の質問語義表現モデルは質問サンプル、及び質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、第2の質問語義表現モデルは質問サンプル、及び答えサンプルに対応する文章タイトルに基づいてトレーニングされたものである。
連結モジュール130は、回答対象の質問の目標語義表現ベクトルが得られるように、第1の語義表現ベクトル及び第2の語義表現ベクトルに基づいて連結処理を行うことに用いられる。
照合モジュール140は、回答対象の質問の目標語義表現ベクトルを、予め構築された答えベクトル索引ライブラリ内の各答え語義表現ベクトルと照合することに用いられる。そのうち、答えベクトル索引ライブラリは答えサンプルセル内のすべての答え候補を語義表現ベクトルに変換することによって構築されたものであり、答え候補に対応する答え語義表現ベクトルは答え候補自体の語義表現ベクトル、及び答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて得られたものである。
答え取得モジュール150は、照合して一致した答え語義表現ベクトルに基づき、対応する目標答えを取得し、かつ目標答えを出力することに用いられる。
本出願の一実施例において、答え候補自体の語義表現ベクトルは、答え語義表現モデルによって答え候補に対して語義ベクトル化表示をして得られたものであり、タイトル語義表現ベクトルは、タイトル語義表現モデルによって答え候補に対応する文章タイトルに対して語義ベクトル化表示をして得られたものであり、第1の質問語義表現モデルは、質問サンプル、及び質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、タイトル語義表現モデルは、質問サンプル、及び答えサンプルに対応する文章タイトルに基づいてトレーニングされたものである。
本出願の一実施例において、質問及び答え候補自体に対して語義ベクトル化表示を容易かつ正確に行うために、答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、図5に示す装置の実施例を基礎として、図6に示すように、該装置はさらに、
質問サンプル、間違った答えサンプル及び正しい答えサンプルに基づき、トレーニングして第1の質問語義表現モデル及び答え語義表現モデルを取得するための第1のモデルトレーニングモジュール160を含む。
第1のモデルトレーニングモジュール160は具体的に、質問サンプルの語義表現ベクトルが得られるように、初期の第1の語義表現モデルによって質問サンプルに対して語義ベクトル化表示を行い、間違った答えサンプルの語義表現ベクトル及び正しい答えサンプルの語義表現ベクトルが得られるように、初期の第2の語義表現モデルによって間違った答えサンプル及び正しい答えサンプルに対してそれぞれ語義ベクトル化表示を行い、質問サンプルの語義表現ベクトル及び間違った答えサンプルの語義表現ベクトルに基づいて、質問サンプルと間違った答えサンプルとの間の第1のベクトルの類似度を決定し、質問サンプルの語義表現ベクトル及び正しい答えサンプルの語義表現ベクトルに基づき、質問サンプルと正しい答えサンプルとの間の第2のベクトル類似度を決定し、第1のベクトル類似度及び第2のベクトル類似度に基づき、第1のベクトル類似度及び第2のベクトル類似度が第1の予め設定された条件を満たすまで、初期の第1の語義表現モデル及び第2の語義表現モデルのモデルパラメータを調整し、第1の予め設定された条件が満たされる際に得られた第1の語義表現モデルを答え語義表現モデルとし、第1の予め設定された条件が満たされる際に得られた第2の語義表現モデルを第1の質問語義表現モデルとする。
本出願の一実施例において、質問及び文章タイトルに対して語義ベクトル化表示を容易かつ正確に行うために、答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、図5に示す装置の実施例を基礎として、図6に示すように、該装置はさらに、
質問サンプル、間違った答えサンプル及び正しい答えサンプルに基づき、トレーニングしてタイトル語義表現モデル及び第2の質問語義表現モデルを取得するための第2のモデルトレーニングモジュール170を含む。
第2のモデルトレーニングモジュール170は具体的に、間違った答えサンプルに対応する文章タイトルの第1のタイトル語義ベクトル及び正しい答えサンプルに対応する文章タイトルの第2のタイトル語義ベクトルが得られるように、初期の第3の語義表現モデルによって、間違った答えサンプルに対応する文章タイトル及び正しい答えサンプルに対応する文章タイトルに対してそれぞれ語義ベクトル化表示を行い、質問サンプルの語義表現ベクトルが得られるように、初期の第4の語義表現モデルによって質問サンプルに対して語義ベクトル化表示を行い、質問サンプルの語義表現ベクトル及び第1のタイトル語義表現ベクトルに基づき、質問サンプルと間違った答えサンプルに対応する文章タイトルとの第3のベクトル類似度を決定し、質問サンプルの語義表現ベクトル及び第2のタイトル語義表現ベクトルに基づき、質問サンプルと間違った答えサンプルに対応する文章タイトルとの間の第4のベクトル類似度を決定し、第3のベクトル類似度及び第4のベクトル類似度に基づき、第3のベクトル類似度及び第4のベクトル類似度が第2の予め設定された条件を満たすまで、初期の第3の語義表現モデル及び第4の語義表現モデルのモデルパラメータを調整し、第2の予め設定された条件が満たされる際に得られた第3の語義表現モデルをタイトル語義表現モデルとし、第2の予め設定された条件が満たされる際に得られた第3の語義表現モデルを第2の質問語義表現モデルとする。
本出願の一実施例において、第1の語義表現モデル、第2の語義表現モデル、第3の語義表現モデル及び第4の語義表現モデルはいずれも予めトレーニングされた語義表現モデルであり、予めトレーニングされた語義表現モデルは教師なしデータでトレーニングされたものである。
本出願の一実施例において、答え候補自体の語義表現ベクトル及び答え候補に対応する文章タイトルのタイトル語義表現ベクトルによって答え候補に対応する答え語義表現ベクトルを取得することは、具体的に、答え候補自体の語義表現ベクトルに予め設定された第1の重みをかけて、新しい語義表現ベクトルを取得することと、タイトル語義表現ベクトルに予め設定された第2の重みをかけて、新しいタイトル語義表現ベクトルを取得することと、新しい語義表現ベクトル及び新しいタイトル語義表現ベクトルを連結し、連結された語義表現ベクトルを答え候補に対応する答え語義表現ベクトルとすることとを含む。
連結モジュール130は、具体的に、第1の語義表現ベクトルに第1の重みをかけて、回答対象の質問の第1の中間語義表現ベクトルを取得することと、第2の語義表現ベクトルに第2の重みをかけて、回答対象の質問の第2の中間語義表現ベクトルを取得することと、第1の中間語義表現ベクトル及び第2の中間語義表現ベクトルを連結し、回答対象の質問の目標語義表現ベクトルを取得することと、に用いられる。
なお、前記質問応答処理方法への解釈と説明は本実施例の質問応答処理装置にも適用できるため、ここで説明を省略する。
本出願の実施例の質問応答処理装置は、回答対象の質問の答えを決定する際には、第1の質問語義表現モデルと第2の語義表現モデルを組み合わせて回答対象の質問に対してそれぞれ語義表現を行い、それぞれ得られた語義表現ベクトル結果に対して連結処理を行い、連結された語義ベクトルを回答対象の質問の語義表現ベクトルとし、回答対象の質問の語義表現ベクトルに一致した答え語義ベクトルを答えベクトル索引ライブラリから取得し、一致した答えの語義ベクトルに対応する目標答えを回答対象の質問の目標答えとし、且つ目標答えを出力する。従って、質問応答照合のプロセスにおいて、答え信頼度を計算する必要がなく、質問に対応する答えを取得する効率が向上し、さらに、本実施形態において答え候補に対応する語義表現ベクトルは、答え候補自体の語義表現ベクトルと、答え候補が配置されている文章の文章タイトルの語義ベクトルとを組み合わせることによって決定されるものであるため、答え候補自体、及び答え候補が配置されている文章の文章タイトルと、与えられた質問との関連性に基づき、与えられた質問に一致した正確な答えが特定され、質問応答の照会精度が向上する。
本出願の実施例によれば、本出願はさらに電子機器及び読み取り可能な記憶媒体を提供する。
図7に示すように、本出願の実施例に係る電子機器のブロック図である。電子機器は様々な形式なデジタルコンピュータ、例えば、ラップトップパソコン、デスクトップパソコン、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、大型コンピュータ及び他の適切なコンピュータを表すことを目的としている。電子機器はさらに様々な形態のモバイル装置、例えば、携帯情報端末、セルラー電話、スマートフォン、ウェアラブルデバイス及び他の同様なコンピューティングデバイスを表すことができる。本明細書に示す部品、それらの接続と関係、及びそれらの機能は単なる例示的なものに過ぎず、本明細書で説明される及び/又は求められる本出願の実現を限定することを意図していない。
図7に示すように、該電子機器は、1つ又は複数のプロセッサ701、メモリ702、及び各部品を接続するためのインターフェースを含み、インターフェースは高速インターフェースと低速インターフェースを含む。各部品は異なるバスによって互いに接続されており、共用のマザーボードに実装されるか、又は必要に応じて他の方式で実装されてもよい。プロセッサは、電子機器内で実行される命令を処理することができ、前記命令は、外部入力/出力装置(例えば、インターフェースに接続される表示装置)にGUIの図形情報を表示するようにメモリ内又はメモリ上に記憶される命令を含む。他の実施形態において、必要があれば、複数のプロセッサ及び/又は複数のバスを、複数のメモリと組み合わせて使用することができる。同様に、複数の電子機器を接続してもよく、各機器は必要とされる操作の一部を提供する(例えば、サーバアレイ、1組のブレードサーバ、又はマルチプロセッサシステムとして)。図7では、1つのプロセッサ701は例として取り上げられている。
メモリ702は本出願によって提供される非一時的なコンピュータ読み取り可能な記憶媒体である。メモリには、少なくとも1つのプロセッサによって実行可能な命令が記憶されることにより、少なくとも1つのプロセッサは、本出願によって提供される質問応答処理方法を実行する。本出願の非一時的なコンピュータ読み取り可能な記憶媒体は、本出願所によって提供される質問応答処理方法をコンピュータに実行させるためのコンピュータ命令が記憶される。
メモリ702は非一時的なコンピュータ読み取り可能な記憶媒体として、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュール、例えば本出願の実施例における質問応答処理方法に対応するプログラム命令/モジュールを記憶することに用いることができる。プロセッサ701は、メモリ702に記憶される非一時的なソフトウェアプログラム、命令及びモジュールを実行することにより、サーバの様々な機能の適用及びデータ処理を実行し、即ち上記方法の実施例における質問応答処理方法を実現する。
メモリ702は、プログラムを記憶する領域とデータを記憶する領域とを含んでも良い。そのうち、プログラムを記憶する領域はオペレーティングシステムと、少なくとも1つの機能に必要なアプリケーションプログラムとを記憶することができる。データを記憶する領域は、電子機器の使用によって作成されたデータ等を記憶することができる。また、メモリ702は高速ランダムアクセスメモリだけではなく、非一時的なメモリ、例えば少なくとも1つのディスクストレージデバイス、フラッシュメモリデバイス又は他の非一時的なソリッドステートストレージデバイスを含んでも良い。一部の実施例において、メモリ702は選択的に、プロセッサ701に対してリモートで配置されるメモリを含み、これらのメモリはネットワークによって電子機器に接続することができる。上記ネットワークの実例はインターネット、企業内部のネットワーク、ローカルエリアネットワーク、移動通信ネットワーク及びそれらの組み合わせを含むが、それらに限定されない。
電子機器はさらに、入力装置703及び出力装置704を含んでも良い。プロセッサ701、メモリ702、入力装置703及び出力装置704はバス又は他の方式で接続することができ、図7では、バスによる接続は例として取り上げられている。
入力装置703は、入力された数字又は文字情報を受信できるだけではなく、電子機器のユーザ設定及び機能制御に関連するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティック等の入力装置がある。出力装置704は表示装置、補助照明装置(例えば、LED)及び触覚フィードバック装置(例えば、振動モータ)等を含んでも良い。該表示装置は液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ及びプラズマディスプレイを含むがそれらに限定されない。一部の実施形態において、表示装置はタッチスクリーンであっても良い。
本出願の実施例によれば、コンピュータプログラムが提供される。当該コンピュータプログラムのおける命令が実行された場合に、上記質問応答処理方法が実行される。
ここで説明されたシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、専用ASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現することができる。これらの様々な実施形態は以下を含んでもよい。1つ又は複数のコンピュータプログラムにおいて実施され、該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行及び/又は解釈することができ、該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであっても良く、ストレージシステム、少なくとも1つの入力装置及び少なくとも1つの出力装置からデータと命令を受信し、かつデータと命令を該ストレージシステム、該少なくとも1つの入力装置及び該少なくとも1つの出力装置に転送することができる。
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードともいう)は、プログラマブルプロセッサの機械命令を含み、高度プロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ言語/機械語を用いてこれらの計算プログラム実行することができる。本明細書において用いられたように、用語の「機械読み取り可能な媒体」と「コンピュータ読み取り可能な媒体」は、機械命令及び/又はデータをプログラマブルプロセッサに提供する任意のコンピュータプログラム製品、装置、及び/又はデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号としての機械命令を受信する機械読み取り可能な媒体を含む。用語の「機械読み取り可能な信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するためのあらゆる信号を指す。
ユーザとのインタラクションを提供するために、ここで説明されたシステムと技術をコンピュータにおいて実施することができ、該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニタ)と、キーボードと、ポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは該キーボードと該ポインティングデバイスを介して入力をコンピュータに提供することができる。他の種類のデバイスはさらに、ユーザとのインタラクションを提供するために用いられてもよく、例えば、ユーザに提供されるフィードバックは、任意の形式のセンサフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、ユーザからの入力を任意の形式(音の入力、音声入力又は触覚入力を含む)で受信することもできる。
ここで説明されたシステムと技術を、バックグラウンドパーツを含む計算システム(例えば、データサーバとして)、又はミドルウェアパーツを含む計算システム(例えば、アプリケーションサーバ)、又はフロントエンドパーツを含む計算システム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは該グラフィカルユーザインタフェース又は該ウェブブラウザ介して、ここで説明されたシステムと技術の実施形態と対話することができる)、又はバックグラウンドパーツ、ミドルウェアパーツ又はフロントエンドパーツの任意の組み合わせを含む計算システムにおいて実行することができる。任意の形式又は媒体のデジタルデータ通信(例えば通信ネットワーク)を介して、システムのパーツを互いに接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットが含まれる。
コンピュータシステムはクライアント及びサーバを含んでもよい。一般的に、クライアントとサーバとは互いに離れており、通常は通信ネットワークを介してインタラクションを行う。対応するコンピュータで実行されると同時に互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係を生成する。
以上に示される様々な形式のプロセスを用い、順序を並べ替えるか、ステップを追加したり削除したりすることができることを理解されたい。例えば、本出願に記載の各ステップは並列的に実行してもよく、順次実行してもよく、異なる順序で実行してよく、本出願により開示された技術案の望ましい結果が実現できるならば、本明細書では限定されない。
上記具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者であれば、設計の要件及び他の要素によって、様々な修正、組み合わせ、一部の組み合わせ及び代替を行うことができる。本出願の精神及び原則から逸脱しない限り、行われる修正、同等の置換及び改善等が、いずれも本出願の保護範囲内に含まれるべきである。

Claims (15)

  1. 取得モジュールが、回答対象の質問を取得するステップと、
    語義表現モジュールが、前記回答対象の質問をそれぞれ第1の質問語義表現モデル及び第2の質問語義表現モデルに入力することにより、前記回答対象の質問の第1の語義表現ベクトル及び第2の語義表現ベクトルを取得するステップであって、前記第1の質問語義表現モデルは質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記第2の質問語義表現モデルは前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものであるステップと、
    連結モジュールが、前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の語義表現ベクトル及び前記第2の語義表現ベクトルに基づいて連結処理を行うステップと、
    照合モジュールが、前記回答対象の質問の目標語義表現ベクトルを、予め構築された答えベクトル索引ライブラリ内の各答え語義表現ベクトルと照合するステップであって、前記答えベクトル索引ライブラリは答えサンプルセル内のすべての答え候補を語義表現ベクトルに変換することによって構築されたものであり、前記答え候補に対応する答え語義表現ベクトルは前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて得られたものであるステップと、
    答え取得モジュールが、照合して一致した答え語義表現ベクトルに基づき、対応する目標答えを取得し、かつ前記目標答えを出力するステップと、を含む、
    ことを特徴とする質問応答処理方法。
  2. 前記答え候補自体の語義表現ベクトルは、答え語義表現モデルによって前記答え候補に対して語義表現ベクトル化をして得られたものであり、前記タイトル語義表現ベクトルは、タイトル語義表現モデルによって前記答え候補に対応する文章タイトルに対して語義表現ベクトル化をして得られたものであり、前記答え語義表現モデルは、前記質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記タイトル語義表現モデルは、前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものである、
    ことを特徴とする請求項1に記載の質問応答処理方法。
  3. 前記答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、
    第1のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトルが得られるように、初期の第1の語義表現モデルによって前記質問サンプルに対して語義表現ベクトル化を行うステップと、
    第1のモデルトレーニングモジュールが、前記間違った答えサンプルの語義表現ベクトル及び前記正しい答えサンプルの語義表現ベクトルが得られるように、初期の第2の語義表現モデルによって前記間違った答えサンプル及び前記正しい答えサンプルに対してそれぞれ語義表現ベクトル化を行うステップと、
    第1のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトル及び前記間違った答えサンプルの語義表現ベクトルに基づき、前記質問サンプルと間違った答えサンプルとの間の第1のベクトル類似度を決定するステップと、
    第1のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトル及び前記正しい答えサンプルの語義表現ベクトルに基づき、前記質問サンプルと正しい答えサンプルとの間の第2のベクトル類似度を決定するステップと、
    第1のモデルトレーニングモジュールが、前記第1のベクトル類似度及び前記第2のベクトル類似度に基づき、前記第1のベクトル類似度及び前記第2のベクトル類似度が第1の予め設定された条件を満たすまで前記初期の第1の語義表現モデル及び前記第2の語義表現モデルのモデルパラメータを調整するステップと、
    第1のモデルトレーニングモジュールが、第1の予め設定された条件が満たされる場合に得られた第1の語義表現モデルを前記第1の質問語義表現モデルとし、第1の予め設定された条件が満たされる場合に得られた第2の語義表現モデルを前記答え語義表現モデルとするステップと、によってトレーニングして前記第1の質問語義表現モデルと前記答え語義表現モデルを取得する、
    ことを特徴とする請求項2に記載の質問応答処理方法。
  4. 前記答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、
    第2のモデルトレーニングモジュールが、前記間違った答えサンプルに対応する文章タイトルの第1のタイトル語義表現ベクトル及び前記正しい答えサンプルに対応する文章タイトルの第2のタイトル語義表現ベクトルが得られるように、初期の第3の語義表現モデルによって前記間違った答えサンプルに対応する文章タイトル及び前記正しい答えサンプルに対応する文章タイトルに対して語義表現ベクトル化を行うステップと、
    第2のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトルが得られるように、初期の第4の語義表現モデルによって前記質問サンプルに対して語義表現ベクトル化を行うステップと、
    第2のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトル及び前記第1のタイトル語義表現ベクトルに基づき、前記質問サンプルと前記間違った答えサンプルに対応する文章タイトルとの間の第3のベクトル類似度を決定するステップと、
    第2のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトル及び前記第2のタイトル語義表現ベクトルに基づき、前記質問サンプルと前記間違った答えサンプルに対応する文章タイトルとの間の第4のベクトル類似度を決定するステップと、
    第2のモデルトレーニングモジュールが、前記第3のベクトル類似度及び前記第4のベクトル類似度に基づき、前記第3のベクトル類似度及び前記第4のベクトル類似度が第2の予め設定された条件を満たすまで前記初期の第3の語義表現モデル及び第4の語義表現モデルのモデルパラメータを調整するステップと、
    第2のモデルトレーニングモジュールが、第2の予め設定された条件が満たされる場合に得られた第3の語義表現モデルを前記タイトル語義表現モデルとし、第2の予め設定された条件が満たされる場合に得られた第の語義表現モデルを前記第2の質問語義表現モデルとするステップと、によってトレーニングして前記タイトル語義表現モデル及び第2の質問語義表現モデルを取得する、
    ことを特徴とする請求項3に記載の質問応答処理方法。
  5. 前記第1の語義表現モデル、前記第2の語義表現モデル、前記第3の語義表現モデル及び前記第4の語義表現モデルはいずれも予めトレーニングされた語義表現モデルであり、前記予めトレーニングされた語義表現モデルは教師なしデータを用いてトレーニングされたものである、
    ことを特徴とする請求項4に記載の質問応答処理方法。
  6. 前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて、前記答え候補に対応する答え語義表現ベクトルを取得するステップは、具体的に、
    前記答え候補自体の語義表現ベクトルに予め設定された第1の重みをかけて、新しい語義表現ベクトルを取得するステップと、
    前記タイトル語義表現ベクトルに予め設定された第2の重みをかけて、新しいタイトル語義表現ベクトルを取得するステップと、
    前記新しい語義表現ベクトル及び前記新しいタイトル語義表現ベクトルを連結し、連結された語義表現ベクトルを前記答え候補に対応する答え語義表現ベクトルとするステップと、を含み、
    前記連結モジュールが、前記第1の語義表現ベクトル及び前記第2の語義表現ベクトルに基づいて連結処理を行うことによって、前記回答対象の質問の目標語義表現ベクトルを取得するステップは、
    前記連結モジュールが、前記回答対象の質問の第1の中間語義表現ベクトルが得られるように、前記第1の語義表現ベクトルに前記第1の重みをかけるステップと、
    前記連結モジュールが、前記回答対象の質問の第2の中間語義表現ベクトルが得られるように、前記第2の語義表現ベクトルに前記第2の重みをかけるステップと、
    前記連結モジュールが、前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の中間語義表現ベクトル及び前記第2の中間語義表現ベクトルに対して連結処理を行うステップと、を含む、
    ことを特徴とする請求項1~5のいずれかに記載の質問応答処理方法。
  7. 回答対象の質問を取得するための取得モジュールと、
    前記回答対象の質問をそれぞれ第1の質問語義表現モデル及び第2の質問語義表現モデルに入力することにより、前記回答対象の質問の第1の語義表現ベクトル及び第2の語義表現ベクトルを取得するための語義表現モジュールであって、前記第1の質問語義表現モデルは質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記第2の質問語義表現モデルは前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものである語義表現モジュールと、
    前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の語義表現ベクトル及び前記第2の語義表現ベクトルに基づいて連結処理を行うための連結モジュールと、
    前記回答対象の質問の目標語義表現ベクトルを、予め構築された答えベクトル索引ライブラリ内の各答え語義表現ベクトルと照合するための照合モジュールであって、前記答えベクトル索引ライブラリは答えサンプルセル内のすべての答え候補を語義表現ベクトルに変換することによって構築されたものであり、前記答え候補に対応する答え語義表現ベクトルは前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて得られたものである照合モジュールと、
    照合して一致した答え語義表現ベクトルに基づき、対応する目標答えを取得し、かつ前記目標答えを出力するための答え取得モジュールと、を含む、
    ことを特徴とする質問応答処理装置。
  8. 前記答え候補自体の語義表現ベクトルは、答え語義表現モデルによって前記答え候補に対して語義表現ベクトル化をして得られたものであり、前記タイトル語義表現ベクトルは、タイトル語義表現モデルによって前記答え候補に対応する文章タイトルに対して語義表現ベクトル化をして得られたものであり、前記答え語義表現モデルは、前記質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記タイトル語義表現モデルは、前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものである、
    ことを特徴とする請求項7に記載の質問応答処理装置。
  9. 前記答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、前記装置はさらに、
    前記質問サンプル、前記間違った答えサンプル及び正しい答えサンプルに基づいて、トレーニングして前記第1の質問語義表現モデルと前記答え語義表現モデルを取得するための第1のモデルトレーニングモジュールを含み、
    前記第1のモデルトレーニングモジュールは、
    前記質問サンプルの語義表現ベクトルが得られるように、初期の第1の語義表現モデルによって前記質問サンプルに対して語義表現ベクトル化を行い、
    前記間違った答えサンプルの語義表現ベクトル及び前記正しい答えサンプルの語義表現ベクトルが得られるように、初期の第2の語義表現モデルによって前記間違った答えサンプル及び前記正しい答えサンプルに対してそれぞれ語義表現ベクトル化を行い、
    前記質問サンプルの語義表現ベクトル及び前記間違った答えサンプルの語義表現ベクトルに基づき、前記質問サンプルと間違った答えサンプルとの間の第1のベクトル類似度を決定し、
    前記質問サンプルの語義表現ベクトル及び前記正しい答えサンプルの語義表現ベクトルに基づき、前記質問サンプルと正しい答えサンプルとの間の第2のベクトル類似度を決定し、
    前記第1のベクトル類似度及び前記第2のベクトル類似度に基づき、前記第1のベクトル類似度及び前記第2のベクトル類似度が第1の予め設定された条件を満たすまで前記初期の第1の語義表現モデル及び前記第2の語義表現モデルのモデルパラメータを調整し、
    第1の予め設定された条件が満たされる場合に得られた第1の語義表現モデルを前記第1の質問語義表現モデルとし、第1の予め設定された条件が満たされる場合に得られた第2の語義表現モデルを前記答え語義表現モデルとする、
    ことを特徴とする請求項8に記載の質問応答処理装置。
  10. 前記答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、前記装置はさらに、
    前記質問サンプル、間違った答えサンプル及び正しい答えサンプルに基づいて、トレーニングして前記タイトル語義表現モデル及び第2の質問語義表現モデルを取得するための第2のモデルトレーニングモジュールを含み、
    前記第2のモデルトレーニングモジュールは、
    前記間違った答えサンプルに対応する文章タイトルの第1のタイトル語義表現ベクトル及び前記正しい答えサンプルに対応する文章タイトルの第2のタイトル語義表現ベクトルが得られるように、初期の第3の語義表現モデルによって前記間違った答えサンプルに対応する文章タイトル及び前記正しい答えサンプルに対応する文章タイトルに対して語義表現ベクトル化を行い、
    前記質問サンプルの語義表現ベクトルが得られるように、初期の第4の語義表現モデルによって前記質問サンプルに対して語義表現ベクトル化を行い、
    前記質問サンプルの語義表現ベクトル及び前記第1のタイトル語義表現ベクトルに基づき、前記質問サンプルと前記間違った答えサンプルに対応する文章タイトルとの間の第3のベクトル類似度を決定し、
    前記質問サンプルの語義表現ベクトル及び前記第2のタイトル語義表現ベクトルに基づき、前記質問サンプルと前記間違った答えサンプルに対応する文章タイトルとの間の第4のベクトル類似度を決定し、
    前記第3のベクトル類似度及び前記第4のベクトル類似度に基づき、前記第3のベクトル類似度及び前記第4のベクトル類似度が第2の予め設定された条件を満たすまで前記初期の第3の語義表現モデル及び第4の語義表現モデルのモデルパラメータを調整し、
    第2の予め設定された条件が満たされる場合に得られた第3の語義表現モデルを前記タイトル語義表現モデルとし、第2の予め設定された条件が満たされる場合に得られた第の語義表現モデルを前記第2の質問語義表現モデルとする、
    ことを特徴とする請求項9に記載の質問応答処理装置。
  11. 前記第1の語義表現モデル、前記第2の語義表現モデル、前記第3の語義表現モデル及び前記第4の語義表現モデルはいずれも予めトレーニングされた語義表現モデルであり、前記予めトレーニングされた語義表現モデルは教師なしデータを用いてトレーニングされたものである、
    ことを特徴とする請求項10に記載の質問応答処理装置。
  12. 前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて、前記答え候補に対応する答え語義表現ベクトルを取得することは、
    前記答え候補自体の語義表現ベクトルに予め設定された第1の重みをかけて、新しい語義表現ベクトルを取得することと、
    前記タイトル語義表現ベクトルに予め設定された第2の重みをかけて、新しいタイトル語義表現ベクトルを取得することと、
    前記新しい語義表現ベクトル及び前記新しいタイトル語義表現ベクトルを連結し、連結された語義表現ベクトルを前記答え候補に対応する答え語義表現ベクトルとすることと、を含み、
    前記連結モジュールは、
    前記回答対象の質問の第1の中間語義表現ベクトルが得られるように、前記第1の語義表現ベクトルに前記第1の重みをかけ、
    前記回答対象の質問の第2の中間語義表現ベクトルが得られるように、前記第2の語義表現ベクトルに前記第2の重みをかけ、
    前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の中間語義表現ベクトル及び前記第2の中間語義表現ベクトルに対して連結処理を行うことと、に用いられる、
    ことを特徴とする請求項7~11のいずれかに記載の質問応答処理装置。
  13. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されるメモリとを含み、
    前記メモリには前記少なくとも1つのプロセッサにより実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサにより実行される場合、請求項1~6のいずれかに記載の方法が実行される、
    ことを特徴とする電子機器。
  14. コンピュータ命令が記憶される非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令コンピュータに請求項1~6のいずれかに記載の方法実行させる
    ことを特徴とするコンピュータ命令が記憶される非一時的なコンピュータ読み取り可能な記憶媒体。
  15. コンピュータプログラムであって、
    前記コンピュータプログラムは、コンピュータに請求項1~6のいずれかに記載の方法実行させる、ことを特徴とするコンピュータプログラム。
JP2020196082A 2019-12-27 2020-11-26 質問応答処理方法、装置、電子機器及び記憶媒体 Active JP7079309B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911382826.8 2019-12-27
CN201911382826.8A CN111125335B (zh) 2019-12-27 2019-12-27 问答处理方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2021108111A JP2021108111A (ja) 2021-07-29
JP7079309B2 true JP7079309B2 (ja) 2022-06-01

Family

ID=70505274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020196082A Active JP7079309B2 (ja) 2019-12-27 2020-11-26 質問応答処理方法、装置、電子機器及び記憶媒体

Country Status (5)

Country Link
US (1) US11461556B2 (ja)
EP (1) EP3842988A1 (ja)
JP (1) JP7079309B2 (ja)
KR (1) KR102431232B1 (ja)
CN (1) CN111125335B (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111694941B (zh) * 2020-05-22 2024-01-05 腾讯科技(深圳)有限公司 一种回复信息确定方法、装置、存储介质及电子设备
CN111666770B (zh) * 2020-06-02 2023-07-18 泰康保险集团股份有限公司 一种语义匹配方法及装置
CN111783428B (zh) * 2020-07-07 2024-01-23 杭州叙简科技股份有限公司 基于深度学习的应急管理类客观题自动生成系统
JP7512159B2 (ja) * 2020-10-07 2024-07-08 株式会社東芝 文書検索装置、方法、プログラムおよび学習装置
CN112560500B (zh) * 2020-12-17 2024-08-16 科大讯飞(北京)有限公司 文本处理方法、装置、设备及存储介质
CN112989843B (zh) * 2021-03-17 2023-07-25 中国平安人寿保险股份有限公司 意图识别方法、装置、计算设备及存储介质
CN113139043B (zh) * 2021-04-29 2023-08-04 北京百度网讯科技有限公司 问答样本生成方法、装置、电子设备和存储介质
CN113220832B (zh) * 2021-04-30 2023-09-05 北京金山数字娱乐科技有限公司 一种文本处理方法及装置
CN113887244A (zh) * 2021-05-21 2022-01-04 北京金山数字娱乐科技有限公司 文本处理方法及装置
CN113297354A (zh) * 2021-06-16 2021-08-24 深圳前海微众银行股份有限公司 文本匹配方法、装置、设备及存储介质
CN113553415B (zh) * 2021-06-30 2023-06-02 北京百度网讯科技有限公司 问答匹配的方法、装置及电子设备
CN113342958B (zh) * 2021-07-02 2023-06-16 马上消费金融股份有限公司 问答匹配方法、文本匹配模型的训练方法和相关设备
CN113553416A (zh) * 2021-07-19 2021-10-26 用友网络科技股份有限公司 基于语义相似度的问答方法、系统和可读存储介质
KR20230065054A (ko) * 2021-11-04 2023-05-11 삼성전자주식회사 쿼리문에 관련된 검색 결과를 제공하는 전자 장치 및 방법
EP4336376A4 (en) * 2021-11-04 2024-09-25 Samsung Electronics Co Ltd ELECTRONIC DEVICE AND METHOD FOR PROVIDING SEARCH RESULTS IN CONNECTION WITH QUERY EXTRACTS
CN114328908A (zh) * 2021-11-08 2022-04-12 腾讯科技(深圳)有限公司 一种问答语句质检方法、装置及相关产品
CN114416953B (zh) * 2022-01-20 2023-10-31 北京百度网讯科技有限公司 问答处理方法、问答模型的训练方法和装置
CN114610853A (zh) * 2022-03-14 2022-06-10 平安科技(深圳)有限公司 一种智能问答的优化方法及装置、存储介质、终端
CN115129816B (zh) * 2022-07-04 2024-05-14 北京百度网讯科技有限公司 问答匹配模型的训练方法、装置及电子设备
CN115422362B (zh) * 2022-10-09 2023-10-31 郑州数智技术研究院有限公司 一种基于人工智能的文本匹配方法
KR20240093111A (ko) 2022-12-15 2024-06-24 부산대학교 산학협력단 사전지식 검색을 결합한 대규모 데이터베이스를 위한 실시간 질의응답 시스템 및 방법
CN116414958B (zh) * 2023-02-06 2024-07-16 飞算数智科技(深圳)有限公司 文本语料的生成方法、装置、存储介质及电子设备
CN118364078A (zh) * 2024-04-19 2024-07-19 天云融创数据科技(北京)有限公司 基于大语言处理模型的问题答案确定方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170249311A1 (en) 2016-02-26 2017-08-31 Yahoo! Inc. Quality-based scoring and inhibiting of user-generated content
WO2019106758A1 (ja) 2017-11-29 2019-06-06 三菱電機株式会社 言語処理装置、言語処理システムおよび言語処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793351A (ja) * 1993-09-22 1995-04-07 Matsushita Electric Ind Co Ltd 自然言語質問応答生成装置
US20140006012A1 (en) * 2012-07-02 2014-01-02 Microsoft Corporation Learning-Based Processing of Natural Language Questions
BR122017002789B1 (pt) * 2013-02-15 2021-05-18 Voxy, Inc sistemas e métodos para aprendizagem de idioma
US9381434B2 (en) * 2014-06-30 2016-07-05 Linkedin Corporation Social network interaction via games
US10019513B1 (en) * 2014-08-12 2018-07-10 Google Llc Weighted answer terms for scoring answer passages
CN104573028B (zh) * 2015-01-14 2019-01-25 百度在线网络技术(北京)有限公司 实现智能问答的方法和系统
WO2016151700A1 (ja) 2015-03-20 2016-09-29 株式会社 東芝 意図理解装置、方法およびプログラム
WO2017041008A1 (en) * 2015-09-02 2017-03-09 True Image Interactive, Llc Intelligent virtual assistant systems and related methods
CN106844368B (zh) * 2015-12-03 2020-06-16 华为技术有限公司 用于人机对话的方法、神经网络系统和用户设备
US9984772B2 (en) * 2016-04-07 2018-05-29 Siemens Healthcare Gmbh Image analytics question answering
US11243955B2 (en) * 2017-11-29 2022-02-08 International Business Machines Corporation Latent token representations for passage and answer scoring in question answering systems
CN108345585A (zh) * 2018-01-11 2018-07-31 浙江大学 一种基于深度学习的自动问答方法
CN108984475A (zh) * 2018-07-06 2018-12-11 北京慧闻科技发展有限公司 基于全息神经网络的答案选择方法、装置和电子设备
CN109002519A (zh) * 2018-07-09 2018-12-14 北京慧闻科技发展有限公司 基于卷积循环神经网络的答案选择方法、装置和电子设备
CN109740077B (zh) * 2018-12-29 2021-02-12 北京百度网讯科技有限公司 基于语义索引的答案搜索方法、装置及其相关设备
US11281733B2 (en) * 2019-03-14 2022-03-22 Microsoft Technology Licensing, Llc Selective presentation of rich experiences in search
CN110309305B (zh) * 2019-06-14 2021-05-11 中国电子科技集团公司第二十八研究所 基于多任务联合训练的机器阅读理解方法及计算机存储介质
CN110516059B (zh) * 2019-08-30 2023-06-09 腾讯科技(深圳)有限公司 基于机器学习的问题答复方法、问答模型训练方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170249311A1 (en) 2016-02-26 2017-08-31 Yahoo! Inc. Quality-based scoring and inhibiting of user-generated content
WO2019106758A1 (ja) 2017-11-29 2019-06-06 三菱電機株式会社 言語処理装置、言語処理システムおよび言語処理方法

Also Published As

Publication number Publication date
EP3842988A1 (en) 2021-06-30
CN111125335B (zh) 2021-04-06
US11461556B2 (en) 2022-10-04
KR102431232B1 (ko) 2022-08-10
CN111125335A (zh) 2020-05-08
US20210200956A1 (en) 2021-07-01
KR20210086436A (ko) 2021-07-08
JP2021108111A (ja) 2021-07-29

Similar Documents

Publication Publication Date Title
JP7079309B2 (ja) 質問応答処理方法、装置、電子機器及び記憶媒体
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
CN107330120B (zh) 询问应答方法、询问应答装置及计算机可读存储介质
JP7412382B2 (ja) イベント抽出方法、イベント抽出装置、電子デバイス、記憶媒体及びコンピュータプログラム製品
US11907671B2 (en) Role labeling method, electronic device and storage medium
KR102431568B1 (ko) 엔티티 단어 인식 방법 및 장치
KR102075505B1 (ko) 핵심 키워드 추출 방법 및 시스템
KR20230075052A (ko) 언어 모델을 이용하여 도메인에 특화된 대화를 제공하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
CN113553414B (zh) 智能对话方法、装置、电子设备和存储介质
US20210200813A1 (en) Human-machine interaction method, electronic device, and storage medium
JP2022024102A (ja) 検索モデルのトレーニング方法、目標対象の検索方法及びその装置
JP7269972B2 (ja) 事前トレーニングのセマンティックモデルに基づくモデル改良方法及び装置
JP7093825B2 (ja) マンマシン対話方法、装置、及び機器
JP7262519B2 (ja) 質問の答えの決定方法、装置、機器及び記憶媒体
EP3251114A1 (en) Transcription correction using multi-token structures
JP2022054389A (ja) 検索モデルの訓練方法、装置、デバイス、コンピュータ記憶媒体、及びコンピュータプログラム
CN116541536B (zh) 知识增强的内容生成系统、数据生成方法、设备和介质
CN111882048A (zh) 一种神经网络结构搜索方法及相关设备
CN115510203B (zh) 问题答案确定方法、装置、设备、存储介质及程序产品
CN116680387A (zh) 基于检索增强的对话答复方法、装置、设备及存储介质
CN117421403A (zh) 智能对话方法、装置及电子设备
JP2024003752A (ja) 検索結果ソートモデルの訓練方法、検索結果ソート方法、検索結果ソートモデルの訓練装置、検索結果ソート装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
CN116383340A (zh) 信息搜索方法、装置、电子设备和存储介质
KR20210119340A (ko) 대화 생성 방법, 장치, 전자기기 및 저장 매체
CN117290563B (zh) 垂类搜索方法及装置、搜索系统、存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220520

R150 Certificate of patent or registration of utility model

Ref document number: 7079309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150