JP7079309B2 - 質問応答処理方法、装置、電子機器及び記憶媒体 - Google Patents
質問応答処理方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP7079309B2 JP7079309B2 JP2020196082A JP2020196082A JP7079309B2 JP 7079309 B2 JP7079309 B2 JP 7079309B2 JP 2020196082 A JP2020196082 A JP 2020196082A JP 2020196082 A JP2020196082 A JP 2020196082A JP 7079309 B2 JP7079309 B2 JP 7079309B2
- Authority
- JP
- Japan
- Prior art keywords
- answer
- question
- sample
- vector
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3334—Selection or weighting of terms from queries, including natural language queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/258—Heading extraction; Automatic titling; Numbering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
- G09B7/02—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本出願の第5の態様の実施例は、コンピュータプログラムを提供し、前記コンピュータプログラムのおける命令が実行された場合に、第1の態様の実施例に記載の質問応答処理方法が実行される。
質問サンプル、間違った答えサンプル及び正しい答えサンプルに基づき、トレーニングして第1の質問語義表現モデル及び答え語義表現モデルを取得するための第1のモデルトレーニングモジュール160を含む。
質問サンプル、間違った答えサンプル及び正しい答えサンプルに基づき、トレーニングしてタイトル語義表現モデル及び第2の質問語義表現モデルを取得するための第2のモデルトレーニングモジュール170を含む。
本出願の実施例によれば、コンピュータプログラムが提供される。当該コンピュータプログラムのおける命令が実行された場合に、上記質問応答処理方法が実行される。
Claims (15)
- 取得モジュールが、回答対象の質問を取得するステップと、
語義表現モジュールが、前記回答対象の質問をそれぞれ第1の質問語義表現モデル及び第2の質問語義表現モデルに入力することにより、前記回答対象の質問の第1の語義表現ベクトル及び第2の語義表現ベクトルを取得するステップであって、前記第1の質問語義表現モデルは質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記第2の質問語義表現モデルは前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものであるステップと、
連結モジュールが、前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の語義表現ベクトル及び前記第2の語義表現ベクトルに基づいて連結処理を行うステップと、
照合モジュールが、前記回答対象の質問の目標語義表現ベクトルを、予め構築された答えベクトル索引ライブラリ内の各答え語義表現ベクトルと照合するステップであって、前記答えベクトル索引ライブラリは答えサンプルセル内のすべての答え候補を語義表現ベクトルに変換することによって構築されたものであり、前記答え候補に対応する答え語義表現ベクトルは前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて得られたものであるステップと、
答え取得モジュールが、照合して一致した答え語義表現ベクトルに基づき、対応する目標答えを取得し、かつ前記目標答えを出力するステップと、を含む、
ことを特徴とする質問応答処理方法。 - 前記答え候補自体の語義表現ベクトルは、答え語義表現モデルによって前記答え候補に対して語義表現ベクトル化をして得られたものであり、前記タイトル語義表現ベクトルは、タイトル語義表現モデルによって前記答え候補に対応する文章タイトルに対して語義表現ベクトル化をして得られたものであり、前記答え語義表現モデルは、前記質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記タイトル語義表現モデルは、前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものである、
ことを特徴とする請求項1に記載の質問応答処理方法。 - 前記答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、
第1のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトルが得られるように、初期の第1の語義表現モデルによって前記質問サンプルに対して語義表現ベクトル化を行うステップと、
第1のモデルトレーニングモジュールが、前記間違った答えサンプルの語義表現ベクトル及び前記正しい答えサンプルの語義表現ベクトルが得られるように、初期の第2の語義表現モデルによって前記間違った答えサンプル及び前記正しい答えサンプルに対してそれぞれ語義表現ベクトル化を行うステップと、
第1のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトル及び前記間違った答えサンプルの語義表現ベクトルに基づき、前記質問サンプルと間違った答えサンプルとの間の第1のベクトル類似度を決定するステップと、
第1のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトル及び前記正しい答えサンプルの語義表現ベクトルに基づき、前記質問サンプルと正しい答えサンプルとの間の第2のベクトル類似度を決定するステップと、
第1のモデルトレーニングモジュールが、前記第1のベクトル類似度及び前記第2のベクトル類似度に基づき、前記第1のベクトル類似度及び前記第2のベクトル類似度が第1の予め設定された条件を満たすまで前記初期の第1の語義表現モデル及び前記第2の語義表現モデルのモデルパラメータを調整するステップと、
第1のモデルトレーニングモジュールが、第1の予め設定された条件が満たされる場合に得られた第1の語義表現モデルを前記第1の質問語義表現モデルとし、第1の予め設定された条件が満たされる場合に得られた第2の語義表現モデルを前記答え語義表現モデルとするステップと、によってトレーニングして前記第1の質問語義表現モデルと前記答え語義表現モデルを取得する、
ことを特徴とする請求項2に記載の質問応答処理方法。 - 前記答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、
第2のモデルトレーニングモジュールが、前記間違った答えサンプルに対応する文章タイトルの第1のタイトル語義表現ベクトル及び前記正しい答えサンプルに対応する文章タイトルの第2のタイトル語義表現ベクトルが得られるように、初期の第3の語義表現モデルによって前記間違った答えサンプルに対応する文章タイトル及び前記正しい答えサンプルに対応する文章タイトルに対して語義表現ベクトル化を行うステップと、
第2のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトルが得られるように、初期の第4の語義表現モデルによって前記質問サンプルに対して語義表現ベクトル化を行うステップと、
第2のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトル及び前記第1のタイトル語義表現ベクトルに基づき、前記質問サンプルと前記間違った答えサンプルに対応する文章タイトルとの間の第3のベクトル類似度を決定するステップと、
第2のモデルトレーニングモジュールが、前記質問サンプルの語義表現ベクトル及び前記第2のタイトル語義表現ベクトルに基づき、前記質問サンプルと前記間違った答えサンプルに対応する文章タイトルとの間の第4のベクトル類似度を決定するステップと、
第2のモデルトレーニングモジュールが、前記第3のベクトル類似度及び前記第4のベクトル類似度に基づき、前記第3のベクトル類似度及び前記第4のベクトル類似度が第2の予め設定された条件を満たすまで前記初期の第3の語義表現モデル及び第4の語義表現モデルのモデルパラメータを調整するステップと、
第2のモデルトレーニングモジュールが、第2の予め設定された条件が満たされる場合に得られた第3の語義表現モデルを前記タイトル語義表現モデルとし、第2の予め設定された条件が満たされる場合に得られた第4の語義表現モデルを前記第2の質問語義表現モデルとするステップと、によってトレーニングして前記タイトル語義表現モデル及び第2の質問語義表現モデルを取得する、
ことを特徴とする請求項3に記載の質問応答処理方法。 - 前記第1の語義表現モデル、前記第2の語義表現モデル、前記第3の語義表現モデル及び前記第4の語義表現モデルはいずれも予めトレーニングされた語義表現モデルであり、前記予めトレーニングされた語義表現モデルは教師なしデータを用いてトレーニングされたものである、
ことを特徴とする請求項4に記載の質問応答処理方法。 - 前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて、前記答え候補に対応する答え語義表現ベクトルを取得するステップは、具体的に、
前記答え候補自体の語義表現ベクトルに予め設定された第1の重みをかけて、新しい語義表現ベクトルを取得するステップと、
前記タイトル語義表現ベクトルに予め設定された第2の重みをかけて、新しいタイトル語義表現ベクトルを取得するステップと、
前記新しい語義表現ベクトル及び前記新しいタイトル語義表現ベクトルを連結し、連結された語義表現ベクトルを前記答え候補に対応する答え語義表現ベクトルとするステップと、を含み、
前記連結モジュールが、前記第1の語義表現ベクトル及び前記第2の語義表現ベクトルに基づいて連結処理を行うことによって、前記回答対象の質問の目標語義表現ベクトルを取得するステップは、
前記連結モジュールが、前記回答対象の質問の第1の中間語義表現ベクトルが得られるように、前記第1の語義表現ベクトルに前記第1の重みをかけるステップと、
前記連結モジュールが、前記回答対象の質問の第2の中間語義表現ベクトルが得られるように、前記第2の語義表現ベクトルに前記第2の重みをかけるステップと、
前記連結モジュールが、前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の中間語義表現ベクトル及び前記第2の中間語義表現ベクトルに対して連結処理を行うステップと、を含む、
ことを特徴とする請求項1~5のいずれかに記載の質問応答処理方法。 - 回答対象の質問を取得するための取得モジュールと、
前記回答対象の質問をそれぞれ第1の質問語義表現モデル及び第2の質問語義表現モデルに入力することにより、前記回答対象の質問の第1の語義表現ベクトル及び第2の語義表現ベクトルを取得するための語義表現モジュールであって、前記第1の質問語義表現モデルは質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記第2の質問語義表現モデルは前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものである語義表現モジュールと、
前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の語義表現ベクトル及び前記第2の語義表現ベクトルに基づいて連結処理を行うための連結モジュールと、
前記回答対象の質問の目標語義表現ベクトルを、予め構築された答えベクトル索引ライブラリ内の各答え語義表現ベクトルと照合するための照合モジュールであって、前記答えベクトル索引ライブラリは答えサンプルセル内のすべての答え候補を語義表現ベクトルに変換することによって構築されたものであり、前記答え候補に対応する答え語義表現ベクトルは前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて得られたものである照合モジュールと、
照合して一致した答え語義表現ベクトルに基づき、対応する目標答えを取得し、かつ前記目標答えを出力するための答え取得モジュールと、を含む、
ことを特徴とする質問応答処理装置。 - 前記答え候補自体の語義表現ベクトルは、答え語義表現モデルによって前記答え候補に対して語義表現ベクトル化をして得られたものであり、前記タイトル語義表現ベクトルは、タイトル語義表現モデルによって前記答え候補に対応する文章タイトルに対して語義表現ベクトル化をして得られたものであり、前記答え語義表現モデルは、前記質問サンプル及び前記質問サンプルに対応する答えサンプルに基づいてトレーニングされたものであり、前記タイトル語義表現モデルは、前記質問サンプル、及び前記答えサンプルに対応する文章タイトルに基づいてトレーニングされたものである、
ことを特徴とする請求項7に記載の質問応答処理装置。 - 前記答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、前記装置はさらに、
前記質問サンプル、前記間違った答えサンプル及び正しい答えサンプルに基づいて、トレーニングして前記第1の質問語義表現モデルと前記答え語義表現モデルを取得するための第1のモデルトレーニングモジュールを含み、
前記第1のモデルトレーニングモジュールは、
前記質問サンプルの語義表現ベクトルが得られるように、初期の第1の語義表現モデルによって前記質問サンプルに対して語義表現ベクトル化を行い、
前記間違った答えサンプルの語義表現ベクトル及び前記正しい答えサンプルの語義表現ベクトルが得られるように、初期の第2の語義表現モデルによって前記間違った答えサンプル及び前記正しい答えサンプルに対してそれぞれ語義表現ベクトル化を行い、
前記質問サンプルの語義表現ベクトル及び前記間違った答えサンプルの語義表現ベクトルに基づき、前記質問サンプルと間違った答えサンプルとの間の第1のベクトル類似度を決定し、
前記質問サンプルの語義表現ベクトル及び前記正しい答えサンプルの語義表現ベクトルに基づき、前記質問サンプルと正しい答えサンプルとの間の第2のベクトル類似度を決定し、
前記第1のベクトル類似度及び前記第2のベクトル類似度に基づき、前記第1のベクトル類似度及び前記第2のベクトル類似度が第1の予め設定された条件を満たすまで前記初期の第1の語義表現モデル及び前記第2の語義表現モデルのモデルパラメータを調整し、
第1の予め設定された条件が満たされる場合に得られた第1の語義表現モデルを前記第1の質問語義表現モデルとし、第1の予め設定された条件が満たされる場合に得られた第2の語義表現モデルを前記答え語義表現モデルとする、
ことを特徴とする請求項8に記載の質問応答処理装置。 - 前記答えサンプルは間違った答えサンプル及び正しい答えサンプルを含み、前記装置はさらに、
前記質問サンプル、間違った答えサンプル及び正しい答えサンプルに基づいて、トレーニングして前記タイトル語義表現モデル及び第2の質問語義表現モデルを取得するための第2のモデルトレーニングモジュールを含み、
前記第2のモデルトレーニングモジュールは、
前記間違った答えサンプルに対応する文章タイトルの第1のタイトル語義表現ベクトル及び前記正しい答えサンプルに対応する文章タイトルの第2のタイトル語義表現ベクトルが得られるように、初期の第3の語義表現モデルによって前記間違った答えサンプルに対応する文章タイトル及び前記正しい答えサンプルに対応する文章タイトルに対して語義表現ベクトル化を行い、
前記質問サンプルの語義表現ベクトルが得られるように、初期の第4の語義表現モデルによって前記質問サンプルに対して語義表現ベクトル化を行い、
前記質問サンプルの語義表現ベクトル及び前記第1のタイトル語義表現ベクトルに基づき、前記質問サンプルと前記間違った答えサンプルに対応する文章タイトルとの間の第3のベクトル類似度を決定し、
前記質問サンプルの語義表現ベクトル及び前記第2のタイトル語義表現ベクトルに基づき、前記質問サンプルと前記間違った答えサンプルに対応する文章タイトルとの間の第4のベクトル類似度を決定し、
前記第3のベクトル類似度及び前記第4のベクトル類似度に基づき、前記第3のベクトル類似度及び前記第4のベクトル類似度が第2の予め設定された条件を満たすまで前記初期の第3の語義表現モデル及び第4の語義表現モデルのモデルパラメータを調整し、
第2の予め設定された条件が満たされる場合に得られた第3の語義表現モデルを前記タイトル語義表現モデルとし、第2の予め設定された条件が満たされる場合に得られた第4の語義表現モデルを前記第2の質問語義表現モデルとする、
ことを特徴とする請求項9に記載の質問応答処理装置。 - 前記第1の語義表現モデル、前記第2の語義表現モデル、前記第3の語義表現モデル及び前記第4の語義表現モデルはいずれも予めトレーニングされた語義表現モデルであり、前記予めトレーニングされた語義表現モデルは教師なしデータを用いてトレーニングされたものである、
ことを特徴とする請求項10に記載の質問応答処理装置。 - 前記答え候補自体の語義表現ベクトル、及び前記答え候補に対応する文章タイトルのタイトル語義表現ベクトルに基づいて、前記答え候補に対応する答え語義表現ベクトルを取得することは、
前記答え候補自体の語義表現ベクトルに予め設定された第1の重みをかけて、新しい語義表現ベクトルを取得することと、
前記タイトル語義表現ベクトルに予め設定された第2の重みをかけて、新しいタイトル語義表現ベクトルを取得することと、
前記新しい語義表現ベクトル及び前記新しいタイトル語義表現ベクトルを連結し、連結された語義表現ベクトルを前記答え候補に対応する答え語義表現ベクトルとすることと、を含み、
前記連結モジュールは、
前記回答対象の質問の第1の中間語義表現ベクトルが得られるように、前記第1の語義表現ベクトルに前記第1の重みをかけ、
前記回答対象の質問の第2の中間語義表現ベクトルが得られるように、前記第2の語義表現ベクトルに前記第2の重みをかけ、
前記回答対象の質問の目標語義表現ベクトルが得られるように、前記第1の中間語義表現ベクトル及び前記第2の中間語義表現ベクトルに対して連結処理を行うことと、に用いられる、
ことを特徴とする請求項7~11のいずれかに記載の質問応答処理装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリとを含み、
前記メモリには前記少なくとも1つのプロセッサにより実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサにより実行される場合、請求項1~6のいずれかに記載の方法が実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶される非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~6のいずれかに記載の方法を実行させる、
ことを特徴とするコンピュータ命令が記憶される非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムは、コンピュータに請求項1~6のいずれかに記載の方法を実行させる、ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911382826.8 | 2019-12-27 | ||
CN201911382826.8A CN111125335B (zh) | 2019-12-27 | 2019-12-27 | 问答处理方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021108111A JP2021108111A (ja) | 2021-07-29 |
JP7079309B2 true JP7079309B2 (ja) | 2022-06-01 |
Family
ID=70505274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020196082A Active JP7079309B2 (ja) | 2019-12-27 | 2020-11-26 | 質問応答処理方法、装置、電子機器及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11461556B2 (ja) |
EP (1) | EP3842988A1 (ja) |
JP (1) | JP7079309B2 (ja) |
KR (1) | KR102431232B1 (ja) |
CN (1) | CN111125335B (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111694941B (zh) * | 2020-05-22 | 2024-01-05 | 腾讯科技(深圳)有限公司 | 一种回复信息确定方法、装置、存储介质及电子设备 |
CN111666770B (zh) * | 2020-06-02 | 2023-07-18 | 泰康保险集团股份有限公司 | 一种语义匹配方法及装置 |
CN111783428B (zh) * | 2020-07-07 | 2024-01-23 | 杭州叙简科技股份有限公司 | 基于深度学习的应急管理类客观题自动生成系统 |
JP7512159B2 (ja) * | 2020-10-07 | 2024-07-08 | 株式会社東芝 | 文書検索装置、方法、プログラムおよび学習装置 |
CN112560500B (zh) * | 2020-12-17 | 2024-08-16 | 科大讯飞(北京)有限公司 | 文本处理方法、装置、设备及存储介质 |
CN112989843B (zh) * | 2021-03-17 | 2023-07-25 | 中国平安人寿保险股份有限公司 | 意图识别方法、装置、计算设备及存储介质 |
CN113139043B (zh) * | 2021-04-29 | 2023-08-04 | 北京百度网讯科技有限公司 | 问答样本生成方法、装置、电子设备和存储介质 |
CN113220832B (zh) * | 2021-04-30 | 2023-09-05 | 北京金山数字娱乐科技有限公司 | 一种文本处理方法及装置 |
CN113887244A (zh) * | 2021-05-21 | 2022-01-04 | 北京金山数字娱乐科技有限公司 | 文本处理方法及装置 |
CN113297354A (zh) * | 2021-06-16 | 2021-08-24 | 深圳前海微众银行股份有限公司 | 文本匹配方法、装置、设备及存储介质 |
CN113553415B (zh) * | 2021-06-30 | 2023-06-02 | 北京百度网讯科技有限公司 | 问答匹配的方法、装置及电子设备 |
CN113342958B (zh) * | 2021-07-02 | 2023-06-16 | 马上消费金融股份有限公司 | 问答匹配方法、文本匹配模型的训练方法和相关设备 |
CN113553416A (zh) * | 2021-07-19 | 2021-10-26 | 用友网络科技股份有限公司 | 基于语义相似度的问答方法、系统和可读存储介质 |
KR20230065054A (ko) * | 2021-11-04 | 2023-05-11 | 삼성전자주식회사 | 쿼리문에 관련된 검색 결과를 제공하는 전자 장치 및 방법 |
EP4336376A4 (en) * | 2021-11-04 | 2024-09-25 | Samsung Electronics Co Ltd | ELECTRONIC DEVICE AND METHOD FOR PROVIDING SEARCH RESULTS IN CONNECTION WITH QUERY EXTRACTS |
CN114328908A (zh) * | 2021-11-08 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 一种问答语句质检方法、装置及相关产品 |
CN114416953B (zh) * | 2022-01-20 | 2023-10-31 | 北京百度网讯科技有限公司 | 问答处理方法、问答模型的训练方法和装置 |
CN114610853A (zh) * | 2022-03-14 | 2022-06-10 | 平安科技(深圳)有限公司 | 一种智能问答的优化方法及装置、存储介质、终端 |
CN115129816B (zh) * | 2022-07-04 | 2024-05-14 | 北京百度网讯科技有限公司 | 问答匹配模型的训练方法、装置及电子设备 |
CN115422362B (zh) * | 2022-10-09 | 2023-10-31 | 郑州数智技术研究院有限公司 | 一种基于人工智能的文本匹配方法 |
KR20240093111A (ko) | 2022-12-15 | 2024-06-24 | 부산대학교 산학협력단 | 사전지식 검색을 결합한 대규모 데이터베이스를 위한 실시간 질의응답 시스템 및 방법 |
CN116414958B (zh) * | 2023-02-06 | 2024-07-16 | 飞算数智科技(深圳)有限公司 | 文本语料的生成方法、装置、存储介质及电子设备 |
CN118364078A (zh) * | 2024-04-19 | 2024-07-19 | 天云融创数据科技(北京)有限公司 | 基于大语言处理模型的问题答案确定方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170249311A1 (en) | 2016-02-26 | 2017-08-31 | Yahoo! Inc. | Quality-based scoring and inhibiting of user-generated content |
WO2019106758A1 (ja) | 2017-11-29 | 2019-06-06 | 三菱電機株式会社 | 言語処理装置、言語処理システムおよび言語処理方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0793351A (ja) * | 1993-09-22 | 1995-04-07 | Matsushita Electric Ind Co Ltd | 自然言語質問応答生成装置 |
US20140006012A1 (en) * | 2012-07-02 | 2014-01-02 | Microsoft Corporation | Learning-Based Processing of Natural Language Questions |
BR122017002789B1 (pt) * | 2013-02-15 | 2021-05-18 | Voxy, Inc | sistemas e métodos para aprendizagem de idioma |
US9381434B2 (en) * | 2014-06-30 | 2016-07-05 | Linkedin Corporation | Social network interaction via games |
US10019513B1 (en) * | 2014-08-12 | 2018-07-10 | Google Llc | Weighted answer terms for scoring answer passages |
CN104573028B (zh) * | 2015-01-14 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 实现智能问答的方法和系统 |
WO2016151700A1 (ja) | 2015-03-20 | 2016-09-29 | 株式会社 東芝 | 意図理解装置、方法およびプログラム |
WO2017041008A1 (en) * | 2015-09-02 | 2017-03-09 | True Image Interactive, Llc | Intelligent virtual assistant systems and related methods |
CN106844368B (zh) * | 2015-12-03 | 2020-06-16 | 华为技术有限公司 | 用于人机对话的方法、神经网络系统和用户设备 |
US9984772B2 (en) * | 2016-04-07 | 2018-05-29 | Siemens Healthcare Gmbh | Image analytics question answering |
US11243955B2 (en) * | 2017-11-29 | 2022-02-08 | International Business Machines Corporation | Latent token representations for passage and answer scoring in question answering systems |
CN108345585A (zh) * | 2018-01-11 | 2018-07-31 | 浙江大学 | 一种基于深度学习的自动问答方法 |
CN108984475A (zh) * | 2018-07-06 | 2018-12-11 | 北京慧闻科技发展有限公司 | 基于全息神经网络的答案选择方法、装置和电子设备 |
CN109002519A (zh) * | 2018-07-09 | 2018-12-14 | 北京慧闻科技发展有限公司 | 基于卷积循环神经网络的答案选择方法、装置和电子设备 |
CN109740077B (zh) * | 2018-12-29 | 2021-02-12 | 北京百度网讯科技有限公司 | 基于语义索引的答案搜索方法、装置及其相关设备 |
US11281733B2 (en) * | 2019-03-14 | 2022-03-22 | Microsoft Technology Licensing, Llc | Selective presentation of rich experiences in search |
CN110309305B (zh) * | 2019-06-14 | 2021-05-11 | 中国电子科技集团公司第二十八研究所 | 基于多任务联合训练的机器阅读理解方法及计算机存储介质 |
CN110516059B (zh) * | 2019-08-30 | 2023-06-09 | 腾讯科技(深圳)有限公司 | 基于机器学习的问题答复方法、问答模型训练方法及装置 |
-
2019
- 2019-12-27 CN CN201911382826.8A patent/CN111125335B/zh active Active
-
2020
- 2020-05-26 EP EP20176461.0A patent/EP3842988A1/en not_active Withdrawn
- 2020-05-28 US US16/886,244 patent/US11461556B2/en active Active
- 2020-07-22 KR KR1020200090951A patent/KR102431232B1/ko active IP Right Grant
- 2020-11-26 JP JP2020196082A patent/JP7079309B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170249311A1 (en) | 2016-02-26 | 2017-08-31 | Yahoo! Inc. | Quality-based scoring and inhibiting of user-generated content |
WO2019106758A1 (ja) | 2017-11-29 | 2019-06-06 | 三菱電機株式会社 | 言語処理装置、言語処理システムおよび言語処理方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3842988A1 (en) | 2021-06-30 |
CN111125335B (zh) | 2021-04-06 |
US11461556B2 (en) | 2022-10-04 |
KR102431232B1 (ko) | 2022-08-10 |
CN111125335A (zh) | 2020-05-08 |
US20210200956A1 (en) | 2021-07-01 |
KR20210086436A (ko) | 2021-07-08 |
JP2021108111A (ja) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7079309B2 (ja) | 質問応答処理方法、装置、電子機器及び記憶媒体 | |
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
CN107330120B (zh) | 询问应答方法、询问应答装置及计算机可读存储介质 | |
JP7412382B2 (ja) | イベント抽出方法、イベント抽出装置、電子デバイス、記憶媒体及びコンピュータプログラム製品 | |
US11907671B2 (en) | Role labeling method, electronic device and storage medium | |
KR102431568B1 (ko) | 엔티티 단어 인식 방법 및 장치 | |
KR102075505B1 (ko) | 핵심 키워드 추출 방법 및 시스템 | |
KR20230075052A (ko) | 언어 모델을 이용하여 도메인에 특화된 대화를 제공하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 | |
CN113553414B (zh) | 智能对话方法、装置、电子设备和存储介质 | |
US20210200813A1 (en) | Human-machine interaction method, electronic device, and storage medium | |
JP2022024102A (ja) | 検索モデルのトレーニング方法、目標対象の検索方法及びその装置 | |
JP7269972B2 (ja) | 事前トレーニングのセマンティックモデルに基づくモデル改良方法及び装置 | |
JP7093825B2 (ja) | マンマシン対話方法、装置、及び機器 | |
JP7262519B2 (ja) | 質問の答えの決定方法、装置、機器及び記憶媒体 | |
EP3251114A1 (en) | Transcription correction using multi-token structures | |
JP2022054389A (ja) | 検索モデルの訓練方法、装置、デバイス、コンピュータ記憶媒体、及びコンピュータプログラム | |
CN116541536B (zh) | 知识增强的内容生成系统、数据生成方法、设备和介质 | |
CN111882048A (zh) | 一种神经网络结构搜索方法及相关设备 | |
CN115510203B (zh) | 问题答案确定方法、装置、设备、存储介质及程序产品 | |
CN116680387A (zh) | 基于检索增强的对话答复方法、装置、设备及存储介质 | |
CN117421403A (zh) | 智能对话方法、装置及电子设备 | |
JP2024003752A (ja) | 検索結果ソートモデルの訓練方法、検索結果ソート方法、検索結果ソートモデルの訓練装置、検索結果ソート装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN116383340A (zh) | 信息搜索方法、装置、电子设备和存储介质 | |
KR20210119340A (ko) | 대화 생성 방법, 장치, 전자기기 및 저장 매체 | |
CN117290563B (zh) | 垂类搜索方法及装置、搜索系统、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220520 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7079309 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |