JP6979909B2 - Information processing equipment, information processing methods, and programs - Google Patents
Information processing equipment, information processing methods, and programs Download PDFInfo
- Publication number
- JP6979909B2 JP6979909B2 JP2018052879A JP2018052879A JP6979909B2 JP 6979909 B2 JP6979909 B2 JP 6979909B2 JP 2018052879 A JP2018052879 A JP 2018052879A JP 2018052879 A JP2018052879 A JP 2018052879A JP 6979909 B2 JP6979909 B2 JP 6979909B2
- Authority
- JP
- Japan
- Prior art keywords
- entity
- feature amount
- question
- entities
- derivator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 40
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000013459 approach Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 claims 1
- 230000000306 recurrent effect Effects 0.000 claims 1
- 238000005070 sampling Methods 0.000 claims 1
- 239000013598 vector Substances 0.000 description 101
- 238000012545 processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 230000000052 comparative effect Effects 0.000 description 6
- 238000000034 method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 241000272194 Ciconiiformes Species 0.000 description 2
- 241000271567 Struthioniformes Species 0.000 description 2
- 241000251539 Vertebrata <Metazoa> Species 0.000 description 2
- 210000003323 beak Anatomy 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000001364 upper extremity Anatomy 0.000 description 2
- 241000271566 Aves Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来、自然文で入力される質問に対して自動応答するための仕組みについて研究および実用化が進められている。これに関連し、1つまたは複数の単語を有するクエリーを受信するステップと、名称または別名がサブジェクトチャンクと同一の表層形式を有する少なくとも1つの候補サブジェクトを検出するようにデータベースにクエリーするステップと、前記少なくとも1つの候補サブジェクトと関連する1つまたは複数の関係を表現する1つまたは複数の関係ベクトルを検出するようにデータベースにクエリーするステップと、前記1つまたは複数の関係の、それぞれ前記クエリーと対応関係との意味類似性を示すランキングスコアを決定するステップと、前記1つまたは複数の関係から最も高いランキングスコアを有する関係を予測関係として選択し、且つ前記少なくとも1つの候補サブジェクトを予測トピックサブジェクトとして選択するステップと、前記予測関係と前記予測トピックサブジェクトでデータベースにクエリーして前記クエリーの解答を検出するステップと、を含んでおり、ここで、前記1つまたは複数の単語が前記クエリーのトピックサブジェクトを記述するサブジェクトチャンクを含むことを特徴とするクエリーに解答を提供するためのコンピュータ実施方法が知られている(特許文献1参照)。 Conventionally, research and practical application have been carried out on a mechanism for automatically answering a question entered in a natural sentence. Related to this, the step of receiving a query with one or more words, and the step of querying the database to find at least one candidate subject whose name or alias has the same surface format as the subject chunk. A step of querying the database to detect one or more relationship vectors representing one or more relationships associated with the at least one candidate subject, and the query of the one or more relationships, respectively. The step of determining the ranking score indicating the semantic similarity with the correspondence relationship, the relationship having the highest ranking score from the one or more relationships is selected as the predictive relationship, and the at least one candidate subject is the predictive topic subject. Includes a step of selecting as, and a step of querying the database with the predictive relationship and the predictive topic subject to find the answer to the query, where the one or more words are the topic of the query. A computer implementation method for providing an answer to a query characterized by including a subject chunk that describes a subject is known (see Patent Document 1).
従来の技術では、効率的に処理を進められなかったり、精度が不十分になる場合があった。
本発明は、このような事情を考慮してなされたものであり、より効率的かつ高精度に質問の答えを導出できるようにすることが可能な情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。
With the conventional technology, the processing may not proceed efficiently or the accuracy may be insufficient.
The present invention has been made in consideration of such circumstances, and provides an information processing device, an information processing method, and a program capable of deriving an answer to a question more efficiently and with high accuracy. One of the purposes is to do.
本発明の一態様は、質問を取得する取得部と、複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように学習された特徴量群を含む第2データベースを参照し、前記質問の特徴量を導出する導出器を学習する導出器学習部と、を備え、前記導出器学習部は、前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習する、情報処理装置である。 One aspect of the present invention is a first aspect selected from the plurality of entities based on a first database in which an acquisition unit for acquiring a question, a plurality of entities, and a relationship indicating a relationship between the entities are registered. A feature amount group learned so that the feature amount obtained by adding the feature amount of the first relation indicating the relationship between the first entity and the second entity to the feature amount of the entity approaches the feature amount of the second entity. The derivator learning unit includes a derivator learning unit that learns a derivator that derives the feature amount of the question by referring to the second database including the question, and the derivator learning unit includes the feature amount of the question and the feature of the second entity. It is an information processing apparatus that learns the derivator so as to reduce the difference from the amount and increase the difference between the feature amount of the question and the feature amount of the sampled entity other than the second entity.
本発明の一態様によれば、より効率的かつ高精度に質問の答えを導出できるようにすることができる。 According to one aspect of the present invention, it is possible to derive the answer to the question more efficiently and with high accuracy.
[概要]
以下、図面を参照し、本発明の情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。情報処理装置は、一以上のプロセッサにより実現される。情報処理装置は、クラウドサービスを提供する装置であってもよいし、ツールやファームウェアなどのプログラムがインストールされ、単体で処理を実行可能な装置であってもよい。情報処理装置は、インターネットやWANなどのネットワークに接続されていてもよいし、接続されていなくてもよい。すなわち、情報処理装置を実現するためのコンピュータ装置について特段の制約は存在せず、以下に説明する処理を実行可能なものであれば、如何なるコンピュータ装置によって情報処理装置が実現されてもよい。
[Overview]
Hereinafter, embodiments of the information processing apparatus, information processing method, and program of the present invention will be described with reference to the drawings. The information processing device is realized by one or more processors. The information processing device may be a device that provides a cloud service, or may be a device in which a program such as a tool or firmware is installed and processing can be executed independently. The information processing device may or may not be connected to a network such as the Internet or WAN. That is, there are no particular restrictions on the computer device for realizing the information processing device, and the information processing device may be realized by any computer device as long as the processing described below can be executed.
情報処理装置は、例えば、人またはコンピュータによるテキストまたは音声の形式で入力される質問に対して、自動的に応答する装置ないしシステムに利用される。自動的に応答する装置とは、会話形式のインターフェースを備えるものであってもよいし、検索装置に包含され、クエリを質問と解釈し、回答を検索結果と共にクエリ入力者の端末装置に返すものであってもよい。 The information processing device is used, for example, in a device or system that automatically responds to a question input in the form of text or voice by a person or a computer. The device that responds automatically may be one that has a conversational interface, is included in the search device, interprets the query as a question, and returns the answer together with the search result to the terminal device of the query input person. May be.
情報処理装置は、質問の特徴量を導出し、質問から得られた特徴量に近い特徴量を持つエンティティを、質問の回答として選択する。以下の説明では、特徴量は、ユークリッド空間上のベクトルであるものとするが、特徴量は、距離が定義でき、加減算が可能なものであれば、ベクトルでなくてもよい。以下に登場するベクトルは、L2ノルムが0から1の間になるように正規化されているものとする。 The information processing device derives the feature amount of the question, and selects an entity having a feature amount close to the feature amount obtained from the question as the answer to the question. In the following description, the feature amount is assumed to be a vector on Euclidean space, but the feature amount does not have to be a vector as long as the distance can be defined and addition / subtraction is possible. It is assumed that the vectors appearing below are normalized so that the L2 norm is between 0 and 1.
[構成]
図1は、情報処理装置100の構成の一例を示す図である。情報処理装置100は、例えば、質問取得部10と、第1学習部20と、第2学習部30(「導出器学習部」の一例)と、回答出力部40とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
[composition]
FIG. 1 is a diagram showing an example of the configuration of the information processing apparatus 100. The information processing apparatus 100 includes, for example, a
また、情報処理装置100は、HDDやフラッシュメモリなどの記憶装置に、ナレッジベース50、エンティティ・リレーションベクトルDB(データベース)60、導出器情報70などの情報を格納する。これらの情報は、情報処理装置100とは別体のデータベースサーバなどによって保持されてもよい。すなわち、情報処理装置100は、これらの情報を保持するための記憶装置を備えなくてもよい。
Further, the information processing apparatus 100 stores information such as a
質問取得部10は、例えば、ネットワークNWを介して他装置から質問を取得する。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、セルラー網などを含む。質問は、テキストの形式で取得されてもよいし、音声の形式で取得されてもよい。後者の場合、情報処理装置1は音声認識部を備えてよい。いずれの場合も、質問は自然文で構成され、抽象化された符号では無いものとする。
The
第1学習部20は、複数のエンティティと、エンティティ間の関係を示すリレーションとが登録されたナレッジベース50に基づいて、エンティティとリレーションのベクトル(以下、それぞれをエンティティベクトル、リレーションベクトルと称する)を学習し、エンティティ・リレーションベクトルDB60に登録する。
The
[ナレッジベース]
ここで、ナレッジベース50について説明する。ナレッジベース50とは、事物に関する情報および事物間の意味的関係に関する情報をグラフとして記述したデータベースである。ナレッジベース50における事物とは、例えば、「人間」、「機械」、「建物」、「組織」、「美」、「学問」、「旅行」といった抽象的な概念と、例えば特定の人間、特定の建物、特定の組織等の、それらの個体(以下、「インスタンス」)を含む。本実施形態では、事物のうち、ナレッジベース50で情報を記述する対象事物のことを、特に「エンティティ」と称して説明する。
[Knowledge Base]
Here, the
エンティティは、例えば、ある対象事物のインスタンスの実体(例えば実世界で存在している物体)を表していてもよいし、ある対象事物の概念(例えば実世界または仮想世界の中で定義された概念)を表していてもよい。例えば「建物」のように概念を表すエンティティもあれば、「○○タワー」のように「建物」という概念のインスタンスの実体を表すエンティティもある。 An entity may represent, for example, an entity of an instance of an object (eg, an object that exists in the real world), or a concept of an object (eg, a concept defined in the real world or virtual world). ) May be represented. For example, there are entities such as "building" that represent a concept, and there are entities such as "○○ tower" that represent an instance of the concept "building".
ナレッジベース50は、計算機による意味処理を可能とするため、オントロジーという語彙体系で定められたクラスとリレーションを用いて記述される。オントロジーとは、事物のクラスおよびリレーションを定義したものであり、クラスとリレーションとの間に成り立つ制約を集めたものである。
The
クラスとは、オントロジーにおいて、同じ性質を持つ事物同士を一つのグループにしたものである。クラスの性質や事物の性質は後述するリレーションにより記述される。 A class is a group of things that have the same properties in an ontology. The nature of classes and the nature of things are described by the relations described below.
例えば、くちばしを持ち、卵生の脊椎動物であり、前肢が翼になっている、という性質を持つ事物は、「鳥」というクラスあるいはその下位のクラスに分類される。また、「鳥」というクラスの中で、飛べない、という性質を持つ事物は、例えば、「ペンギン」や「ダチョウ」という、より下位のクラスに分類される。このように、クラスの体系は、上位と下位の関係を有する階層構造をなし、上位のクラスの性質は、下位のクラスに継承される。上述した例では、「鳥」というクラスの、「くちばしを持ち、卵生の脊椎動物であり、前肢が翼になっている」という性質は、「ペンギン」や「ダチョウ」という下位のクラスの性質にも含まれることになる。クラスを識別するためのクラス名自体は必ずしもクラスの意味を表している必要はないが、以下の説明では簡略化のためにクラスの意味を表すクラス名が与えられていることとする。 For example, things that have a beak, an oviparous vertebrate, and forelimbs that are wings are classified in the "bird" class or its subordinate classes. Also, in the class of "birds", things that have the property of not being able to fly are classified into lower classes such as "penguins" and "ostriches". In this way, the class system has a hierarchical structure with a higher-level relationship and lower-level relationships, and the properties of the upper-level class are inherited by the lower-level class. In the example above, the "bird" class's "beak-bearing, oviparous vertebrate with winged forelimbs" property is a lower class property of "penguins" and "ostriches". Will also be included. The class name itself for identifying the class does not necessarily represent the meaning of the class, but in the following explanation, it is assumed that the class name representing the meaning of the class is given for the sake of brevity.
リレーションとは、事物の性質や特徴、クラス間の関係を記述する属性である。この結果、リレーションは、エンティティ間の関係を表す情報となる。例えば、リレーションは、「〜を体の構成要素としてもつ」という性質や、「〜に生息する」という性質を示す属性であってもよいし、「あるクラスが上位クラスであり、あるクラスが下位クラスである」というクラス間の上位下位の関係を示す属性であってもよい。リレーションを識別するためのリレーション名自体は必ずしもリレーションの意味を表している必要はないが、以下の説明では簡略化のためにリレーションの意味を表すリレーション名が与えられていることとする。 Relations are attributes that describe the nature and characteristics of things and the relationships between classes. As a result, the relation becomes information representing the relationship between the entities. For example, a relation may be an attribute that has the property of "having ~ as a component of the body" or the property of "living in ...", or "a class is a higher class and a certain class is a lower class". It may be an attribute indicating the relationship between the upper and lower levels of "class". The relation name itself for identifying the relation does not necessarily represent the meaning of the relation, but in the following description, it is assumed that the relation name representing the meaning of the relation is given for the sake of brevity.
ナレッジベース50の基本的な単位は、エンティティ間をリレーションで接続した3つの情報の組(以下、トリプレットと称する)である。図2は、トリプレットを構成する二つのエンティティとリレーションの関係を例示した図である。図示する例では、[エンティティ「日本」、リレーション「首都」、エンティティ「東京」]というトリプレットが挙げられている。このようなトリプレットから、「日本の首都は東京である」という意味情報を取得することができる。ナレッジベース50を用いることで、エンティティに関する情報やエンティティ間の関係が明確に表現され、各種の機械処理が可能になる。以下、図2における「日本」すなわちトリプレットにおけるリレーションの意味的な方向性に関して元側にあるエンティティをヘッドエンティティ、図2における「東京」すなわちトリプレットにおけるリレーションの意味的な方向性に関して先側にあるエンティティをテールエンティティと称する。ナレッジベース50は、トリプレットを複数備えるものである。あるヘッドエンティティが、他のヘッドエンティティにとってのテイルエンティティになることも、その逆もあり得る。図3は、ナレッジベース50に登録されるデータの内容を模式的に示すイメージ図である。図中、矢印はリレーションを示し、破線の楕円はトリプレットを示している。図中のエンティティ1は、エンティティ2に対してヘッドエンティティであると共に、エンティティ3に対してはテイルエンティティである。
The basic unit of the
[第1学習部]
第1学習部20は、ナレッジベース50からサンプリングされた複数のトリプレット(既知情報)のそれぞれについて、ヘッドエンティティのベクトルにリレーションのベクトルを加算したベクトルが、テイルエンティティのベクトルに近づくように、ナレッジベース50に含まれる各エンティティおよび各リレーションのベクトルを学習する。
[1st learning department]
In the
ここで、ヘッドエンティティのベクトルをVh、リレーションのベクトルをVr、テイルエンティティのベクトルをVtと表す。なお、エンティティ空間はリレーション空間よりも多くの情報量を包含するため、例えば、エンティティのベクトルはリレーションのベクトルVrの次元数(d)よりも高い次元数(k)で生成される。以下の説明では、ヘッドエンティティのベクトルVhとテイルエンティティのベクトルVtのそれぞれにk×d行列Mk×dを乗算してリレーションのベクトルVrの属する空間に写像したベクトルVhrおよびVtrを、ヘッドエンティティおよびテイルエンティティのベクトルと称する(式(1)(2)参照;Mは行列)。ヘッドエンティティのベクトルVhrは「第1エンティティの特徴量」の一例であり、テイルエンティティのベクトルVtrは「第2エンティティの特徴量」の一例であり、それらを接続するリレーションのベクトルVrは「第1リレーションのベクトル」の一例である。図中、Oはベクトル空間の原点である。 Here, the vector of the head entity is represented by Vh, the vector of the relation is represented by Vr, and the vector of the tail entity is represented by Vt. Since the entity space contains a larger amount of information than the relation space, for example, the vector of the entity is generated with a number of dimensions (k) higher than the number of dimensions (d) of the vector Vr of the relation. In the following description, the vector Vhr and Vtr mapped to the space to which the relation vector Vr belongs by multiplying each of the vector Vh of the head entity and the vector Vt of the tail entity by the k × d matrix Mk × d are obtained with the head entity and the vector Vt. It is called a vector of tail entities (see equations (1) and (2); M is a matrix). The vector Vhr of the head entity is an example of the "features of the first entity", the vector Vtr of the tail entity is an example of the "features of the second entity", and the vector Vr of the relation connecting them is the "first". This is an example of "relation vector". In the figure, O is the origin of the vector space.
Vhr=Vh×Mk×d …(1)
Vtr=Vt×Mk×d …(2)
Vhr = Vh × M k × d … (1)
Vtr = Vt × M k × d … (2)
理想的には、ヘッドエンティティのベクトルVhrとリレーションのベクトルVrとのベクトル和は、テイルエンティティのベクトルVgtと一致する。図4は、ヘッドエンティティのベクトルVhr、リレーションのベクトルVr、およびテイルエンティティのベクトルVgtの幾何的関係を模式的に示す図である。 Ideally, the vector sum of the vector Vhr of the head entity and the vector Vr of the relation matches the vector Vgt of the tail entity. FIG. 4 is a diagram schematically showing the geometrical relationship between the vector Vhr of the head entity, the vector Vr of the relation, and the vector Vgt of the tail entity.
第1学習部20は、式(3)で表される目的関数frに基づくスコアCが十分に小さくなり収束するように、ヘッドエンティティのベクトルVhr、リレーションのベクトルVr、およびテイルエンティティのベクトルVgtを学習する。式中、||A||2はベクトルAのL2ノルムを表している。目的関数frは、図3の幾何的関係が成立している場合にゼロとなる。
The
fr(h,t)={||Vhr+Vr−Vtr||2}2 …(3) fr (h, t) = {|| Vhr + Vr-Vtr || 2 } 2 ... (3)
スコアCは、式(4)で表される。式中、Sは正しいトリプレットを構成するヘッドエンティティ、リレーション、およびテイルエンティティの組み合わせであり、S*は正しいトリプレットを構成しないヘッドエンティティ、リレーション、およびテイルエンティティの組み合わせである。γは、任意に定められるマージンパラメータである。
第1学習部20によって学習されたエンティティおよびリレーションのベクトルは、エンティティ・リレーションベクトルDB60に登録され、第2学習部30によって使用される。図5は、エンティティ・リレーションベクトルDB60に登録されるデータの内容を模式的に示すイメージ図である。エンティティ1とエンティティ2を含むトリプレットに着目すると、エンティティ1のベクトルV1rがVhrに、エンティティ2のベクトルV2rがVtrに、それらを繋ぐリレーションのベクトルV12rがVrに、それぞれ該当する。また、エンティティ1とエンティティ3を含むトリプレットに着目すると、エンティティ1のベクトルV1rがVtrに、エンティティ3のベクトルV3rがVhrに、それらを繋ぐリレーションのベクトルV31rがVrに、それぞれ該当する。
The vector of the entity and the relation learned by the
[第2学習部]
第2学習部30は、導出器情報70によって表現される導出器のパラメータ等を学習する。導出器は、質問を構成するテキストのベクトル(以下、質問のベクトルVq)を生成するものである。第2学習部30の処理を意味的に分解すると、ヘッドエンティティ、リレーション、およびテイルエンティティとの関係に応じた質問のベクトルVq自体の学習と、質問を構成するテキストを質問のベクトルVqにする規則の学習とが含まれている。質問のベクトルVqは、ベクトルVhr、Vr、Vtrと同じベクトル空間にあるベクトル、すなわちこれらと次元数が同じベクトルである。
[Second learning department]
The
以下の説明において、第2学習部30には、質問と、質問の意味を表すと考えられるヘッドエンティティおよびリレーション、並びに質問の正解であるテイルエンティティを含むトリプレットと、を対応付けた情報が、教師データとして与えられるものとする。例えば、[質問「日本の首都はどこ」、ヘッドエンティティ「日本」、リレーション「首都」、テイルエンティティ「東京」]を一つのレコードとし、複数のレコードを含むデータが教師データとして第2学習部30に与えられる。
In the following description, the
第2学習部30は、上記の教師データと、エンティティ・リレーションベクトルDB60とに基づいて、質問のベクトルVqと、テイルエンティティのベクトルVtrとの差分(距離)を小さくし、質問のベクトルVqと、テイルエンティティ以外のサンプリングされたエンティティのベクトルVtr*との差分(距離)を大きくするように、質問のベクトルVqを学習する。すなわち、第2学習部30は、式(5)の目的関数g1を小さくするように質問のベクトルVqを学習する。
The
g1={||Vt−Vq||2}2 …(5) g1 = {|| Vt-Vq || 2 } 2 ... (5)
また、第2学習部30は、更に、質問のベクトルVqと、ヘッドエンティティのベクトルVhrとリレーションのベクトルVrとの和、との差分を小さくし、質問のベクトルVqと、ヘッドエンティティ以外のサンプリングされたエンティティのベクトルVhr*と上記リレーション以外のサンプリングされたリレーションのベクトルVr*の和、との差分を大きくするように、質問のベクトルVqを学習する。すなわち、第2学習部30は、式(6)の目的関数g2を小さくするように質問のベクトルVqを学習する。
Further, the
g2={||Vhr+Vr−Vq||2}2 …(6) g2 = {|| Vhr + Vr-Vq || 2 } 2 ... (6)
より具体的に、第2学習部30は、目的関数g1と目的関数g2の和に基づくスコアLが十分に小さくなり収束するように、質問のベクトルVqを学習する。スコアLは、式(7)で表される。式中、Sは正しいトリプレットを構成するヘッドエンティティ、リレーション、およびテイルエンティティと、対応する質問との組み合わせであり、S*は正しいトリプレットを構成せず、或いは質問とその他の情報とが対応しない、ヘッドエンティティ、リレーション、テイルエンティティ、および質問の組み合わせである。γは、任意に定められるマージンパラメータである。
More specifically, the
第2学習部30は、自然文であるテキストから質問のベクトルVqを導出する導出器のパラメータ等を学習する。図6は、導出器の機能を概念的に示すイメージ図である。図示するように、導出器は、例えば、RNNに基づいて生成される。導出器には、例えば、質問を一文字ごとに区切った語のコード等が順次入力される。RNNは、各時点における暫定的な質問のベクトルVq(1)、Vq(2)、…を出力すると共に、計算結果の少なくとも一部を次の時点に伝播させる。質問のすべての語のコード等が入力された時点のRNNの出力が、質問のベクトルVqとなる。第2学習部30は、ある質問について、対応する既知のヘッドエンティティ、リレーション、テイルエンティティのそれぞれのベクトルVhr、Vr、Vtrに基づくスコアLを小さくするように学習された質問のベクトルVqが導出されるように、RNNのパラメータを学習する。このパラメータは、導出器情報70として保持される。
The
なお、質問が英文である場合、スペースで区切られたワードが各時点のRNNに順次入力されてもよいし、和文その他である場合、形態素解析によって区切られたワードが各時点のRNNに順次入力されてもよい。第2学習部30は、それらの態様に即した学習を行う。
If the question is in English, the words separated by spaces may be sequentially input to the RNN at each time point, and if it is Japanese or other, the words separated by morphological analysis are sequentially input to the RNN at each time point. May be done. The
図7は、第2学習部30による処理の内容を概念的に示すイメージ図である。図示するように、質問が導出器に入力されることで質問のベクトルVqが得られる。第2学習部30は、質問のベクトルVqとテイルエンティティのベクトルVtrとの距離d1、および、質問のベクトルVqとヘッドエンティティのベクトルVhrとリレーションのベクトルVrとの和との距離d2の双方が十分に小さくなるように、導出器のパラメータを学習する。
FIG. 7 is an image diagram conceptually showing the contents of processing by the
また、前述したようにナレッジベース50には、エンティティの性質に関する情報(例えばクラス)が付与されている。第2学習部30は、学習開始からある程度の時間が経過するまでの第1期間においては、ネガティブサンプリングするエンティティを、クラスを問わずサンプリングし、第1期間よりも後の第2期間においては、ネガティブサンプリングするエンティティを、正解のエンティティとクラスが同じエンティティの中からサンプリングする。これによって、効率的な学習を行い、収束を早めることができる。
Further, as described above, the
回答出力部40は、例えばネットワークNWを介して他装置から取得した質問を、導出器情報70によって規定される導出器に入力し、出力された質問のベクトルVqに最も近いエンティティのベクトルをエンティティ・リレーションベクトルDB60から抽出する。この際に、回答出力部40は、例えば1NN(Nearest Neighbor)の手法によって質問のベクトルVqに最も近いエンティティのベクトルを抽出する。回答出力部40は、最も近いエンティティのベクトルに対応するエンティティの内容を、質問の回答として、例えばネットワークNWを介して他装置に返信する。なお、情報処理装置が単体で処理をする場合、情報処理装置は、図示しない入力部に対して入力された質問に対して処理を行い、出力部に回答を出力させる。
The
以上説明した情報処理装置によれば、より効率的かつ高精度に質問の答えを導出できるようにすることができる。 According to the information processing apparatus described above, it is possible to derive the answer to the question more efficiently and with high accuracy.
ここで、比較対象として、質問のベクトルVqを、単にベクトルVhr+Vrに近づけるように学習する場合(以下、比較例)を考える。図8は、比較例による処理の内容を模式的に示すイメージ図である。比較例では、VqをVhr+Vrに近づける(距離d2を小さくする)学習と、Vhr+VrをVtrに近づける(距離d3を小さくする)学習との二段階の学習(推論)を経て回答を導出することになるが、実施形態の情報処理装置では、VqをVtrに直接近づける学習を処理内容に含んでいるため、回答を導出する精度を向上させることができる。 Here, as a comparison target, consider a case of learning so that the vector Vq of the question is simply brought closer to the vector Vhr + Vr (hereinafter, comparative example). FIG. 8 is an image diagram schematically showing the contents of the processing according to the comparative example. In the comparative example, the answer is derived through two-step learning (inference) of learning to bring Vq closer to Vhr + Vr (reducing the distance d2) and learning to bring Vhr + Vr closer to Vtr (reducing the distance d3). However, in the information processing apparatus of the embodiment, since the learning that directly brings Vq closer to Vtr is included in the processing content, the accuracy of deriving the answer can be improved.
情報量の圧縮の観点からも同じことが言える。VqをVhr+Vrに近づける学習においては、一種の次元圧縮が行われる。なぜなら、質問の自然文には、ヘッドエンティティやリレーションで表される抽象化された意味情報以上の情報(以下、付加情報)が含まれているからである。比較例では、付加情報が削除された状態でVhr+Vrに近づける学習が行われるのに対し、実施形態の情報処理装置では、付加情報を含んだ状態でVtrに近づける学習が行われるため、そもそもVhr+VrをVtrに近づける学習よりも高精度が結果を得ることができる。 The same can be said from the viewpoint of information compression. In learning to bring Vq closer to Vhr + Vr, a kind of dimensional compression is performed. This is because the natural sentence of the question contains more information (hereinafter, additional information) than the abstract semantic information represented by the head entity or relation. In the comparative example, learning to approach Vhr + Vr is performed with the additional information deleted, whereas in the information processing apparatus of the embodiment, learning is performed to approach Vtr with the additional information included, so that Vhr + Vr is used in the first place. Results can be obtained with higher accuracy than learning that approaches Vtr.
また、実施形態の情報処理装置によれば、式(7)に示すように、VqをVtrに近づけるという制約と、VqをVhr+Vrに近づけるという制約の二つの制約の上でVqを学習する。このため、学習における自由度を下げることで、処理の収束を早めることができる。この結果、比較例よりも高速に処理を行うことができる。 Further, according to the information processing apparatus of the embodiment, as shown in the equation (7), Vq is learned under the two constraints of bringing Vq closer to Vtr and bringing Vq closer to Vhr + Vr. Therefore, by lowering the degree of freedom in learning, it is possible to accelerate the convergence of processing. As a result, processing can be performed at a higher speed than in the comparative example.
また、実施形態の情報処理装置によれば、式(7)に示すように、ポジティブサンプルに対する距離を最小化すると共に、ネガティブサンプルに対する距離を最大化する問題を解く際に、最大化する項の符号をマイナスにすることで、全体を最小化問題にしている。ディープラーニング等の処理は、目的関数を最小化する問題を解くのに適しているため、実施形態の処理は、コンピュータを用いて好適に実現することができる。 Further, according to the information processing apparatus of the embodiment, as shown in the equation (7), the term for maximizing when solving the problem of minimizing the distance to the positive sample and maximizing the distance to the negative sample. By making the sign negative, the whole is made a minimization problem. Since the processing such as deep learning is suitable for solving the problem of minimizing the objective function, the processing of the embodiment can be suitably realized by using a computer.
なお、上記の説明において、情報処理装置は、質問を区切った語のコード等がRNNに順次入力されるものとしたが、類義語辞書等を使用して、ある程度正規表現にしてからRNNに入力してもよい。 In the above description, the information processing device assumes that the code of the word that separates the questions is sequentially input to the RNN, but it is input to the RNN after making it a regular expression to some extent using a synonym dictionary or the like. You may.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
1 情報処理装置
10 質問取得部
20 第1学習部
30 第2学習部
40 回答出力部
50 ナレッジベース
60 エンティティ・リレーションベクトルDB
70 導出器情報
1
70 Deriver information
Claims (9)
前記導出器学習部は、
前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、
前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習する、
情報処理装置。 Based on the first database in which a plurality of entities and relationships indicating relationships between the entities are registered, the first entity and the second entity are added to the features of the first entity selected from the plurality of entities. Refer to the second database including the feature amount group learned so that the feature amount obtained by adding the feature amount of the first relation indicating the relationship of the second entity approaches the feature amount of the second entity, and the feature of the text constituting the question. Equipped with a derivator learning unit that learns a derivator that derives a quantity
The derivator learning unit
Reduce the difference between the feature amount of the question and the feature amount of the second entity.
The derivator is learned so as to increase the difference between the feature amount of the question and the feature amount of the sampled entity other than the second entity.
Information processing device.
前記質問の特徴量と、前記第1エンティティの特徴量と前記第1リレーションの特徴量の和、との差分を小さくし、
前記質問の特徴量と、前記第1エンティティ以外のサンプリングされたエンティティの特徴量と前記第1リレーション以外のサンプリングされたリレーションの特徴量の和、との差分を大きくするように、前記導出器を学習する、
請求項1記載の情報処理装置。 The derivator learning unit further
The difference between the feature amount of the question and the sum of the feature amount of the first entity and the feature amount of the first relation is reduced.
The derivator is set so as to increase the difference between the feature amount of the question and the feature amount of the sampled entity other than the first entity and the feature amount of the sampled relation other than the first relation. learn,
The information processing apparatus according to claim 1.
請求項1または2記載の情報処理装置。 The feature amount of the question is a feature amount in the same space as the feature amount of the first entity, the feature amount of the first relation, and the feature amount of the second entity.
The information processing apparatus according to claim 1 or 2.
前記導出器学習部は、第1期間においては、前記性質を問わず前記第2エンティティ以外のエンティティをサンプリングし、前記第1期間よりも後の第2期間においては、前記性質が前記第2エンティティと共通するエンティティの中から前記第2エンティティ以外のエンティティをサンプリングする、
請求項1から3のうちいずれか1項記載の情報処理装置。 Information about the nature of the entity is attached to the first database.
In the first period, the derivator learning unit samples entities other than the second entity regardless of the property, and in the second period after the first period, the property is the second entity. Sampling entities other than the second entity from the entities common to
The information processing apparatus according to any one of claims 1 to 3.
前記導出器学習部は、前記RNNのパラメータを学習する、
請求項1から4のうちいずれか1項記載の情報処理装置。 The derivator is configured based on an RNN (Recurrent Neural Networks) in which words that divide the question are sequentially input.
The derivator learning unit learns the parameters of the RNN.
The information processing apparatus according to any one of claims 1 to 4.
請求項1から5のうちいずれか1項記載の情報処理装置。 Based on the first database in which a plurality of entities and relationships indicating relationships between the entities are registered, the first entity and the second entity are added to the features of the first entity selected from the plurality of entities. A feature amount learning unit for learning the feature amount so that the feature amount obtained by adding the feature amount of the first relation indicating the relationship of the second entity approaches the feature amount of the second entity is further provided.
The information processing apparatus according to any one of claims 1 to 5.
前記取得部により取得された質問を前記導出器に入力することで得られる前記質問の特徴量に近いエンティティを前記第1データベースから抽出し、前記質問の回答として出力する回答出力部と、を更に備える、
請求項1から6のうちいずれか1項記載の情報処理装置。 The acquisition department to get the question and
Further, an answer output unit that extracts an entity close to the feature amount of the question obtained by inputting the question acquired by the acquisition unit into the derivator from the first database and outputs it as an answer to the question. Prepare, prepare
The information processing apparatus according to any one of claims 1 to 6.
複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように学習された特徴量群を含む第2データベースを参照し、質問を構成するテキストの特徴量を導出する導出器を学習し、
前記学習する際に、
前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、
前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習する、
情報処理方法。 The computer
Based on the first database in which a plurality of entities and relationships indicating relationships between the entities are registered, the first entity and the second entity are added to the features of the first entity selected from the plurality of entities. Refer to the second database including the feature amount group learned so that the feature amount obtained by adding the feature amount of the first relation indicating the relationship of the second entity approaches the feature amount of the second entity, and the feature of the text constituting the question. Learn a derivator to derive a quantity,
During the above learning
Reduce the difference between the feature amount of the question and the feature amount of the second entity.
The derivator is learned so as to increase the difference between the feature amount of the question and the feature amount of the sampled entity other than the second entity.
Information processing method.
複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように学習された特徴量群を含む第2データベースを参照させ、質問を構成するテキストの特徴量を導出する導出器を学習させ、
前記学習させる際に、
前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、
前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習させる、
プログラム。 On the computer
Based on the first database in which a plurality of entities and relationships indicating relationships between the entities are registered, the first entity and the second entity are added to the features of the first entity selected from the plurality of entities. The feature amount obtained by adding the feature amount of the first relation indicating the relationship of the above is referred to the second database including the feature amount group learned so as to approach the feature amount of the second entity, and the feature of the text constituting the question is referred to. Train a derivator to derive a quantity
When learning the above,
Reduce the difference between the feature amount of the question and the feature amount of the second entity.
The derivator is trained so as to increase the difference between the feature amount of the question and the feature amount of the sampled entity other than the second entity.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018052879A JP6979909B2 (en) | 2018-03-20 | 2018-03-20 | Information processing equipment, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018052879A JP6979909B2 (en) | 2018-03-20 | 2018-03-20 | Information processing equipment, information processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019164669A JP2019164669A (en) | 2019-09-26 |
JP6979909B2 true JP6979909B2 (en) | 2021-12-15 |
Family
ID=68066272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018052879A Active JP6979909B2 (en) | 2018-03-20 | 2018-03-20 | Information processing equipment, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6979909B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021176572A1 (en) * | 2020-03-03 | 2021-09-10 | 富士通株式会社 | Machine learning program, machine learning method, and machine learning device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000105768A (en) * | 1998-09-28 | 2000-04-11 | Nippon Telegr & Teleph Corp <Ntt> | Device for calculating feature amount of inquiry document, and method therefor |
JP4778474B2 (en) * | 2007-05-14 | 2011-09-21 | 日本電信電話株式会社 | Question answering apparatus, question answering method, question answering program, and recording medium recording the program |
JP6150282B2 (en) * | 2013-06-27 | 2017-06-21 | 国立研究開発法人情報通信研究機構 | Non-factoid question answering system and computer program |
US9704098B2 (en) * | 2014-05-22 | 2017-07-11 | Siemens Aktiengesellschaft | Generating a classifier for performing a query to a given knowledge base |
JP6270747B2 (en) * | 2015-01-16 | 2018-01-31 | 日本電信電話株式会社 | Question answering method, apparatus, and program |
US10606846B2 (en) * | 2015-10-16 | 2020-03-31 | Baidu Usa Llc | Systems and methods for human inspired simple question answering (HISQA) |
JP6391617B2 (en) * | 2016-03-18 | 2018-09-19 | ヤフー株式会社 | Learning device, sentence automatic generation device, and learning method |
-
2018
- 2018-03-20 JP JP2018052879A patent/JP6979909B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019164669A (en) | 2019-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11704501B2 (en) | Providing a response in a session | |
CN109284357B (en) | Man-machine conversation method, device, electronic equipment and computer readable medium | |
CN109844743B (en) | Generating responses in automated chat | |
WO2019153737A1 (en) | Comment assessing method, device, equipment and storage medium | |
US10303767B2 (en) | System and method for supplementing a question answering system with mixed-language source documents | |
CN111026842A (en) | Natural language processing method, natural language processing device and intelligent question-answering system | |
CN110704576B (en) | Text-based entity relationship extraction method and device | |
CN106156365A (en) | A kind of generation method and device of knowledge mapping | |
US10303766B2 (en) | System and method for supplementing a question answering system with mixed-language source documents | |
US20210117458A1 (en) | Response selecting apparatus, response selecting method, and response selecting program | |
Weber et al. | Towards a digital infrastructure for illustrated handwritten archives | |
CN114281931A (en) | Text matching method, device, equipment, medium and computer program product | |
CN118133971A (en) | Medical question-answering method and device based on large language model | |
CN114722833B (en) | Semantic classification method and device | |
RU2699396C1 (en) | Neural network for interpreting natural language sentences | |
CN112214595A (en) | Category determination method, device, equipment and medium | |
JP6979909B2 (en) | Information processing equipment, information processing methods, and programs | |
CN114419394A (en) | Method and device for recognizing semantic soft label image with limited and unbalanced data | |
CN116842168B (en) | Cross-domain problem processing method and device, electronic equipment and storage medium | |
CN110633363B (en) | Text entity recommendation method based on NLP and fuzzy multi-criterion decision | |
JP2004094521A (en) | Inquiry type learning method, learning device, inquiry type learning program, recording medium recorded with the program, recording medium recorded with learning data, inquiry type identification method and device using learning data, program, and recording medium with the program | |
CN114048319B (en) | Humor text classification method, device, equipment and medium based on attention mechanism | |
Karpagam et al. | Deep learning approaches for answer selection in question answering system for conversation agents | |
El Azhari et al. | An evolutive knowledge base for “AskBot” toward inclusive and smart learning-based NLP techniques | |
Jayasudha et al. | CNN based Hidden Markov Model Algorithm to Segment Words and Identify the Medical Term to Match EMRs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180418 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6979909 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |