JP2019036087A - Generation device, method for generation, generation program, learning data, and model - Google Patents
Generation device, method for generation, generation program, learning data, and model Download PDFInfo
- Publication number
- JP2019036087A JP2019036087A JP2017156462A JP2017156462A JP2019036087A JP 2019036087 A JP2019036087 A JP 2019036087A JP 2017156462 A JP2017156462 A JP 2017156462A JP 2017156462 A JP2017156462 A JP 2017156462A JP 2019036087 A JP2019036087 A JP 2019036087A
- Authority
- JP
- Japan
- Prior art keywords
- information
- target information
- ratio
- model
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000006870 function Effects 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 27
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 5
- 241000282326 Felis catus Species 0.000 description 57
- 241000282472 Canis lupus familiaris Species 0.000 description 53
- 238000003860 storage Methods 0.000 description 51
- 238000013500 data storage Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 17
- 230000010365 information processing Effects 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 8
- 101001111655 Homo sapiens Retinol dehydrogenase 11 Proteins 0.000 description 6
- 102100023916 Retinol dehydrogenase 11 Human genes 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000012706 support-vector machine Methods 0.000 description 4
- 101150000378 IML1 gene Proteins 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】対象情報の各クラスに分類される割合を適切に推定可能にする生成装置、生成方法、生成プログラム、学習データ、及びモデルを提供する。【解決手段】生成装置100は、制御部130において取得部131と、生成部132とを有する。取得部131は、分類対象となる対象情報と、複数のユーザの各々により対象情報の各クラスに分類された割合を示す割合情報とを取得する。生成部132は、取得部131により取得された対象情報と割合情報とに基づいて、一の対象情報が入力された場合に、一の対象情報が各クラスに分類される割合を推定するモデルを生成する。【選択図】図4A generation device, a generation method, a generation program, learning data, and a model capable of appropriately estimating a ratio of each class of target information to be classified. A generation apparatus includes an acquisition unit and a generation unit in a control unit. The acquisition unit 131 acquires target information to be classified and ratio information indicating a ratio classified into each class of target information by each of a plurality of users. Based on the target information and the ratio information acquired by the acquisition unit 131, the generation unit 132 calculates a model that estimates the ratio at which one target information is classified into each class when the one target information is input. Generate. [Selection] Figure 4
Description
本発明は、生成装置、生成方法、生成プログラム、学習データ、及びモデルに関する。 The present invention relates to a generation device, a generation method, a generation program, learning data, and a model.
近年、インターネットを用いて不特定多数の人(ユーザ)に仕事(タスク)を依頼するクラウドソーシングが知られている。例えば、このようなクラウドソーシングにおいて、受注者の人的資源を効率的に活用する技術が提供されている。 In recent years, crowdsourcing has been known in which work (tasks) is requested to an unspecified number of people (users) using the Internet. For example, in such crowdsourcing, a technique for efficiently utilizing the orderer's human resources is provided.
しかしながら、上記の従来技術では、対象情報の各クラスに分類される割合を適切に推定可能にすることが難しい場合がある。例えば、クラウドソーシングにおいて、単純に画像等の対象情報を所望のクラスに分類するタスクをユーザに依頼するだけでは、新たに分類を必要とする対象情報が生じた場合等に、その対象情報の各クラスに分類される割合を適切に推定可能にすることが難しい。例えば、タスクを依頼したユーザから得られた回答結果のコンセンサス(合意)を推定することとすると、コンセンサスが得られない場合は、データとして使用することもできない。また、例えば、コンセンサスが得られない場合のみの情報を用いる場合、対象情報から回答の傾向のような有用な量を推定することが難しい。 However, with the above-described conventional technology, it may be difficult to appropriately estimate the ratio of classification into each class of target information. For example, in crowdsourcing, simply requesting a user to perform a task of classifying target information such as an image into a desired class, when target information that requires new classification occurs, etc. It is difficult to properly estimate the proportion of classes. For example, if the consensus (agreement) of the answer results obtained from the user who requested the task is estimated, if the consensus cannot be obtained, it cannot be used as data. For example, when using information only when consensus cannot be obtained, it is difficult to estimate a useful amount such as a tendency of an answer from target information.
本願は、上記に鑑みてなされたものであって、対象情報の各クラスに分類される割合を適切に推定可能にする生成装置、生成方法、生成プログラム、学習データ、及びモデルを提供することを目的とする。 The present application has been made in view of the above, and provides a generation device, a generation method, a generation program, learning data, and a model that can appropriately estimate the ratio classified into each class of target information. Objective.
本願に係る生成装置は、分類対象となる対象情報と、複数のユーザの各々により前記対象情報の各クラスに分類された割合を示す割合情報とを取得する取得部と、前記取得部により取得された前記対象情報と前記割合情報とに基づいて、一の対象情報が入力された場合に、前記一の対象情報が前記各クラスに分類される割合を推定するモデルを生成する生成部と、を備えたことを特徴とする。 The generation device according to the present application is acquired by the acquisition unit that acquires target information to be classified, and ratio information indicating a ratio classified into each class of the target information by each of a plurality of users, and the acquisition unit. A generation unit that generates a model for estimating a ratio of the one target information classified into each class when one target information is input based on the target information and the ratio information; It is characterized by having.
実施形態の一態様によれば、対象情報の各クラスに分類される割合を適切に推定可能にすることができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that it is possible to appropriately estimate the ratio classified into each class of the target information.
以下に、本願に係る生成装置、生成方法、生成プログラム、学習データ、及びモデルを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法、生成プログラム、学習データ、及びモデルが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 In the following, a generation apparatus, a generation method, a generation program, learning data, and a form for implementing a model (hereinafter referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. Note that the generation device, generation method, generation program, learning data, and model according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
(実施形態)
〔1.生成処理〕
まず、図1を用いて、実施形態に係る生成処理の一例について説明する。図1は、実施形態に係る生成処理の一例を示す図である。図1では、生成装置100が分類対象となる対象情報と、対象情報が各クラスに分類される割合を示す正解情報とに基づいてモデルの生成を行う場合を示す。以下では、正解情報が対応付けられた対象情報を「学習データ」ともいう。図1及び図2の例では、対象情報が画像情報(以下、単に「画像」ともいう)である場合を一例に説明するについては後述する。なお、対象情報は画像に限らず、文字情報や、画像と文字情報を組み合わせた記事コンテンツ等の種々の情報であってもよい。
(Embodiment)
[1. Generation process)
First, an example of the generation process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a generation process according to the embodiment. FIG. 1 illustrates a case where the
ここで、図1において、生成装置100が生成するモデル(学習器)について簡単に説明する。生成装置100が生成するモデルは、例えば、入力されたデータに対する演算結果を出力する複数のノードを多層に接続したモデルであって、教師あり学習により抽象化された画像の特徴を学習されたモデルである。例えば、モデルは、複数のノードを有する層を多段に接続したニューラルネットワークであり、いわゆるディープラーニングの技術により実現されるDNN(Deep Neural Network)であってもよい。また、画像の特徴とは、画像に含まれる文字の有無、色、構成等、画像内に現れる具体的な特徴のみならず、撮像されている物体が何であるか、画像がどのような利用者に好かれるか、画像の雰囲気等、抽象化(メタ化)された画像の特徴をも含む概念である。
Here, a model (learning device) generated by the
例えば、モデルは、ディープラーニングの技術により、以下のような学習手法により生成される。例えば、モデルは、各ノードの間の接続係数が初期化され、様々な特徴を有する画像が入力される。そして、モデルは、モデルにおける出力と、入力した画像との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション(誤差逆伝播法)等の処理により生成される。例えば、モデルは、誤差関数等、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことにより生成される。上述のような処理を繰り返すことで、モデルは、入力された画像をより良く再現できる出力、すなわち入力された画像の特徴を出力することができる。 For example, the model is generated by the following learning method using the deep learning technique. For example, in the model, the connection coefficient between each node is initialized, and images having various characteristics are input. Then, the model is generated by a process such as back propagation (error back propagation method) that corrects a parameter (connection coefficient) so that an error between the output of the model and the input image is reduced. For example, the model is generated by performing processing such as back propagation so as to minimize a predetermined loss function such as an error function. By repeating the processing as described above, the model can output an output that can better reproduce the input image, that is, a feature of the input image.
なお、モデルの学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。また、モデルに対する画像の入力方法、モデルが出力するデータの形式、モデルに対して明示的に学習させる特徴の内容等は、任意の手法が適用できる。すなわち、生成装置100は、画像から抽象化された特徴を示す特徴量を算出できるのであれば、任意のモデルを用いることができる。
Note that the model learning technique is not limited to the technique described above, and any known technique can be applied. In addition, any method can be applied to the image input method for the model, the format of the data output by the model, the content of features that are explicitly learned for the model, and the like. That is, the
図1では、生成装置100は、入力画像の局所領域の畳み込みとプーリングとを繰り返す、いわゆる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)によるモデルM1〜M3等を生成するものとする。以下では、畳み込みニューラルネットワークをCNNと記載する場合がある。例えば、CNNによるモデルM1〜M3等は、画像から特徴を抽出して出力する機能に加え、画像内に含まれる文字や撮像対象等の位置的変異に対し、出力の不変性を有する。このため、モデルM1〜M3等は、画像の抽象化された特徴を精度良く算出することができる。なお、上記のように、「モデルM*(*は任意の数値)」と記載した場合、そのモデルはモデルID「M*」により識別されるモデルであることを示す。例えば、「モデルM1」と記載した場合、そのモデルはモデルID「M1」により識別されるモデルである。
In FIG. 1, the
〔生成システムの構成〕
まず、図1の説明に先立って、図3に示す生成システム1について説明する。図3に示すように、生成システム1は、端末装置10と、生成装置100とが含まれる。端末装置10と、生成装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る生成システムの構成例を示す図である。なお、図3に示した生成システム1には、複数台の端末装置10や、複数台の生成装置100が含まれてもよい。
[Configuration of generation system]
First, the
端末装置10は、ユーザによって利用される情報処理装置である。例えば、ユーザは、クラウドソーシングなどによるタスクを行う複数のワーカである。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1に示す例においては、端末装置10がユーザが利用するスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。具体的には、図1では、端末装置10がユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)が利用するスマートフォンである場合を示す。
The
また、図1に示す例においては、端末装置10を利用するユーザに応じて、端末装置10を端末装置10−1〜10−5として説明する。例えば、端末装置10−1は、ユーザU1により使用される端末装置10である。また、例えば、端末装置10−2は、ユーザU2により使用される端末装置10である。また、以下では、端末装置10−1〜10−5について、特に区別なく説明する場合には、端末装置10と記載する。なお、上記のように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。
In the example illustrated in FIG. 1, the
生成装置100は、分類対象となる対象情報と、複数のユーザの各々により象情報の各クラスに分類された割合を示す割合情報に基づいて、モデルを生成する情報処理装置である。例えば、生成装置100は、一の対象情報が入力された場合に、一の対象情報が各クラスに分類される割合を推定するモデルを生成する。また、生成装置100は、対象情報をモデルに入力することにより、新たな対象情報に対する各クラスに分類される割合を推定する。
The
まず、図1の示す例において、生成装置100は、正解情報を生成するための情報を収集する。具体的には、生成装置100は、画像IM101〜IM103等の画像群IML1をクラウドソーシングによりユーザ(ワーカ)に分類させ、その回答を取得する。なお、図1の例では、生成装置100は、画像を犬または猫のいずれかに分類するタスクをユーザに行わせるものとする。
First, in the example illustrated in FIG. 1, the
例えば、生成装置100は、ワーカであるユーザU1が利用する端末装置10−1に対象情報を提供する(ステップS11−1)。図1の例では、生成装置100は、端末装置10−1に対象情報である画像IM101を提供する。そして、生成装置100は、ユーザU1から画像IM101に対する回答を取得する(ステップS12−1)。図1の例では、生成装置100は、ユーザU1から画像IM101が「猫」であるとの回答を取得する。
For example, the
また、例えば、生成装置100は、ワーカであるユーザU2が利用する端末装置10−2に対象情報を提供する(ステップS11−2)。図1の例では、生成装置100は、端末装置10−2に対象情報である画像IM101を提供する。そして、生成装置100は、ユーザU2から画像IM101に対する回答を取得する(ステップS12−2)。図1の例では、生成装置100は、ユーザU2から画像IM101が「猫」であるとの回答を取得する。
Further, for example, the
また、例えば、生成装置100は、ワーカであるユーザU3が利用する端末装置10−3に対象情報を提供する(ステップS11−3)。図1の例では、生成装置100は、端末装置10−3に対象情報である画像IM101を提供する。そして、生成装置100は、ユーザU3から画像IM101に対する回答を取得する(ステップS12−3)。図1の例では、生成装置100は、ユーザU3から画像IM101が「犬」であるとの回答を取得する。
Further, for example, the
また、例えば、生成装置100は、ワーカであるユーザU4が利用する端末装置10−4に対象情報を提供する(ステップS11−4)。図1の例では、生成装置100は、端末装置10−4に対象情報である画像IM101を提供する。そして、生成装置100は、ユーザU4から画像IM101に対する回答を取得する(ステップS12−4)。図1の例では、生成装置100は、ユーザU4から画像IM101が「犬」であるとの回答を取得する。
Further, for example, the
また、例えば、生成装置100は、ワーカであるユーザU5が利用する端末装置10−5に対象情報を提供する(ステップS11−5)。図1の例では、生成装置100は、端末装置10−5に対象情報である画像IM101を提供する。そして、生成装置100は、ユーザU5から画像IM101に対する回答を取得する(ステップS12−5)。図1の例では、生成装置100は、ユーザU5から画像IM101が「猫」であるとの回答を取得する。
Further, for example, the
以下、ステップS11−1〜S11−5を区別せずに説明する場合、ステップS11と総称する。また、ステップS11−1〜S11−5に限らず、各ユーザへの対象情報の提供は、画像群IMF1の各画像IM102、103等について複数回行われてもよい。また、以下、ステップS12−1〜S12−5を区別せずに説明する場合、ステップS12と総称する。なお、図1では、5人のユーザU1〜U5を図示するが、生成装置100は、ユーザU1〜U5に限らず、多数のユーザ(例えば、100万ユーザや1000万ユーザ等)による対象情報に対する回答を取得する。例えば、生成装置100は、ステップS11において画像群IMF1を端末装置10に提供し、ステップS12において画像群IMF1に含まれる各画像IM101〜IM103等に対するユーザの回答を取得してもよい。
Hereinafter, when it demonstrates without distinguishing step S11-1-S11-5, it will generically call step S11. In addition to steps S11-1 to S11-5, provision of target information to each user may be performed a plurality of times for each image IM102, 103, etc. of the image group IMF1. In the following description, steps S12-1 to S12-5 will be collectively referred to as step S12 when not described. In FIG. 1, five users U1 to U5 are illustrated. However, the
そして、生成装置100は、ステップS12で取得した情報に基づいて、対象情報の各クラスに分類された割合を示す割合情報を生成する。また、生成装置100は、対象情報と、割合情報を正解情報として含む集計情報との組み合わせを学習データとして追加する(ステップS13)。具体的には、生成装置100は、対象情報である画像IM101〜IM103等の各々に対応するデータDT101〜DT103等を学習データ記憶部121に追加する。
And the production |
なお、上記のように、「データDT*(*は任意の数値)」と記載した場合、そのデータはデータID「DT*」により識別されるデータであることを示す。例えば、「データDT1」と記載した場合、そのデータはデータID「DT1」により識別されるデータである。 As described above, when “data DT * (* is an arbitrary numerical value)” is described, it indicates that the data is data identified by the data ID “DT *”. For example, when “data DT1” is described, the data is data identified by the data ID “DT1”.
図1中の学習データ記憶部121に示す「データID」は、データを識別するための識別情報を示す。図1中の学習データ記憶部121に示す「対象情報」は、データIDにより識別されるデータに含まれる対象情報を示す。図1中の学習データ記憶部121に示す「集計情報」は、クラウドソーシングによってワーカにより行われたタスクの回答を集計した情報(集計情報)を示す。
“Data ID” shown in the learning
図1中の学習データ記憶部121に示す「集計情報」中の「正解情報(割合情報)」は、データIDにより識別されるデータに対応する正解情報(割合情報)を示す。例えば、「正解情報(割合情報)」は、ワーカの全回答における各クラスの回答の割合を示す。
“Correct information (ratio information)” in “aggregated information” shown in the learning
「集計情報」中の「ユーザ数」は、対応する対象情報について回答を行ったユーザ数を示す。「集計情報」中の「猫(CL1)」は、対応する対象情報について猫と回答を行ったユーザ数を示す。また、図1の例では、「集計情報」中の「猫(CL1)」は、対応する対象情報について猫と回答を行ったユーザを識別する情報も含まれる。また、「集計情報」中の「犬(CL2)」は、対応する対象情報について犬と回答を行ったユーザ数を示す。また、図1の例では、「集計情報」中の「犬(CL2)」は、対応する対象情報について犬と回答を行ったユーザを識別する情報も含まれる。 The “number of users” in the “aggregated information” indicates the number of users who answered about the corresponding target information. “Cat (CL1)” in the “aggregated information” indicates the number of users who answered as cats for the corresponding target information. In the example of FIG. 1, “cat (CL1)” in “aggregated information” also includes information for identifying a user who has made a reply with a cat regarding the corresponding target information. Further, “dog (CL2)” in the “aggregated information” indicates the number of users who have made a reply with the dog regarding the corresponding target information. In the example of FIG. 1, “dog (CL2)” in “aggregated information” also includes information for identifying a user who made a reply with a dog regarding the corresponding target information.
例えば、図1に示す例において、データID「DT101」により識別されるデータ(データDT101)は、分類対象となる対象情報が画像IM101であることを示す。また、データDT101は、正解情報が「猫」と分類された割合が「0.58(58%)」であり、「犬」と分類された割合が「0.42(42%)」であることを示す。また、データDT101は、ユーザ数が1000人であることを示す。また、データDT101は、猫と回答したユーザ数が580人であり、そのユーザにはユーザU1やユーザU2等が含まれることを示す。また、データDT101は、犬と回答したユーザ数が420人であり、そのユーザにはユーザU3やユーザU4等が含まれることを示す。すなわち、データDT101は、画像IM101について、1000人のユーザ(ワーカ)のうち、580人が猫と回答し、420人が犬と回答したことを示す。そのため、データDT101は、正解情報における猫の割合が「580/1000=0.58」となり、正解情報における犬の割合が「420/1000=0.42」となる。 For example, in the example illustrated in FIG. 1, the data identified by the data ID “DT101” (data DT101) indicates that the target information to be classified is the image IM101. In addition, in the data DT101, the ratio of correct information classified as “cat” is “0.58 (58%)”, and the ratio classified as “dog” is “0.42 (42%)”. It shows that. Data DT101 indicates that the number of users is 1000. The data DT101 indicates that the number of users who answered “cat” is 580, and the user includes the user U1, the user U2, and the like. The data DT101 indicates that the number of users who answered “dog” is 420, and the user includes the user U3 and the user U4. That is, the data DT101 indicates that, for the image IM101, out of 1000 users (workers), 580 responded as cats and 420 responded as dogs. Therefore, in the data DT101, the ratio of the cat in the correct answer information is “580/1000 = 0.58”, and the ratio of the dog in the correct answer information is “420/1000 = 0.42”.
また、データID「DT102」により識別されるデータ(データDT102)は、画像IM102について、2000人のユーザ(ワーカ)のうち、1700人が猫と回答し、300人が犬と回答したことを示す。そのため、データDT102は、正解情報における猫の割合が「1700/2000=0.85」となり、正解情報における犬の割合が「300/2000=0.15」となる。 The data identified by the data ID “DT102” (data DT102) indicates that, for the image IM102, 12000 out of 2000 users (workers) responded as cats and 300 responded as dogs. . Therefore, in the data DT102, the ratio of the cat in the correct answer information is “1700/2000 = 0.85”, and the ratio of the dog in the correct answer information is “300/2000 = 0.15”.
また、データID「DT103」により識別されるデータ(データDT103)は、画像IM103について、10000人のユーザ(ワーカ)のうち、5500人が猫と回答し、4500人が犬と回答したことを示す。そのため、データDT103は、正解情報における猫の割合が「5500/10000=0.55」となり、正解情報における犬の割合が「4500/10000=0.45」となる。 Further, the data (data DT103) identified by the data ID “DT103” indicates that, for the image IM103, among 10000 users (workers), 5500 responded as cats and 4500 responded as dogs. . Therefore, in the data DT103, the ratio of the cat in the correct answer information is “5500/10000 = 0.55”, and the ratio of the dog in the correct answer information is “4500/10000 = 0.45”.
上記のように、学習データとして用いられる画像群IMF1には、ワーカの分類結果がクラス間で差が小さい画像IM101、IM103等やワーカの分類結果がクラス間で差が大きい画像IM102等が含まれる。例えば、図1中の画像群IMF1には、画像IM101や画像IM103のような各クラスの割合の差が所定の閾値(例えば0.1や0.2等)未満の画像が含まれる。また、例えば、図1中の画像群IMF1には、画像IM102のような、各クラスの割合の差が所定の閾値(例えば0.1や0.2等)以上である画像も含まれる。そこで、生成装置100は、割合情報を正解情報として、モデルを学習(生成)する。この点について、以下詳述する。
As described above, the image group IMF1 used as learning data includes the images IM101 and IM103 that have a small difference in worker classification results between classes, and the image IM102 that has a large difference in worker classification results between classes. . For example, the image group IMF1 in FIG. 1 includes images such as the image IM101 and the image IM103 in which the difference in the ratio of each class is less than a predetermined threshold (for example, 0.1 or 0.2). Further, for example, the image group IMF1 in FIG. 1 includes images such as the image IM102 in which the difference in the ratio of each class is equal to or greater than a predetermined threshold (for example, 0.1 or 0.2). Therefore, the
生成装置100は、上記のような画像IM101〜IM103等を含む学習データに基づいてモデルを生成する(ステップS14)。例えば、生成装置100は、学習データ記憶部121中のデータDT101〜DT103等を学習データ(教師データ)として、学習を行なうことにより、モデルを生成する。
The
図1に示す例は、生成装置100は、画像IM101〜IM103等と画像IM101〜IM103等の各クラスに分類された割合を示す割合情報を用いてモデルの生成を行う。ここでは、生成装置100が画像IM101と画像IM101の各クラスに分類された割合を示す割合情報(以下、「正解情報RDT101」とする)を一例として説明する。
In the example illustrated in FIG. 1, the
まず、モデルM1には、画像IM101が入力される。これにより、モデルM1は、各クラスに対応するスコアを出力する。図1の例では、モデルM1は、猫(クラスCL1)に対応するスコアと犬(クラスCL2)に対応するスコアとを出力する。 First, the image IM101 is input to the model M1. As a result, the model M1 outputs a score corresponding to each class. In the example of FIG. 1, the model M1 outputs a score corresponding to a cat (class CL1) and a score corresponding to a dog (class CL2).
上述したように、例えば、生成装置100は、ディープラーニングの技術により、モデルM1を学習し、生成する。例えば、生成装置100は、画像IM101と、猫(クラスCL1)の割合「0.58」及び犬(クラスCL2)の割合「0.42」とを含む正解情報との組み合わせを学習データとして用いる。例えば、正解情報RDT101には、猫(クラスCL1)の割合「0.58」を示す情報や犬(クラスCL2)の割合「0.42」を示す情報が含まれる。例えば、生成装置100は、モデルM1における出力(各クラスのスコア)と、学習データに含まれる各クラスの割合(値)との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション(誤差逆伝播法)等の処理を行うことにより、モデルM1を学習する。例えば、生成装置100は、所定の誤差(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM1を生成する。
As described above, for example, the
例えば、生成装置100は、下記の式(1)に示すような、誤差関数Lを用いる。下記の式(1)に示すように、生成装置100は、例えば、N−クラス分類問題の場合、交差エントロピーを誤差関数として用いる。なお、誤差関数Lは、識別結果の確信度を表すものであれば、どのような関数であっても良い。例えば、誤差関数Lは、識別確率から求められるエントロピーであってもよい。また、例えば、誤差関数Lは、モデルM1の認識の精度を示すものであれば、どのような関数であってもよい。
For example, the
ここで、上記式(1)や下記の式(3)〜(6)中の「x」は画像を示す。例えば、図1に示す例において、上記式(1)や下記の式(3)〜(6)中の「x」は、画像IMに対応する。また、変数「n」に代入される1〜Nは、モデルM1が識別(分類)する各クラスに対応する。例えば、上記式(1)に対応するモデルM1は、N個のクラスを識別することを示す。例えば、各クラスには、「猫(クラスCL1)」や「犬(クラスCL2)」等が各々対応する。 Here, “x” in the above formula (1) and the following formulas (3) to (6) indicates an image. For example, in the example shown in FIG. 1, “x” in the above formula (1) and the following formulas (3) to (6) corresponds to the image IM. Also, 1 to N assigned to the variable “n” correspond to each class identified (classified) by the model M1. For example, the model M1 corresponding to the above equation (1) indicates that N classes are identified. For example, “Cat (Class CL1)” and “Dog (Class CL2)” correspond to each class.
また、上記式(1)や下記の式(4)、(5)中の「tn(x)」は、画像IM101が分類されるクラスn(1〜Nのいずれか)の割合を示す。例えば、上記式(1)中の「tn(x)」は、正解情報RDT101中のクラスnに対応する割合を示す。この場合、例えば、クラス1に対応する対象を「猫」とした場合、「t1(x)」は、「0.58(58%)」となる。例えば、クラスn(1〜Nのいずれか)の割合を示す「tn(x)」は、下記の式(2)のような関係である。
Further, “t n (x)” in the above formula (1) and the following formulas (4) and (5) indicates the ratio of the class n (any one of 1 to N) into which the image IM101 is classified. For example, “t n (x)” in the above formula (1) indicates a ratio corresponding to the class n in the correct answer information RDT101. In this case, for example, when the target corresponding to
ここで、上記式(2)に示すように、画像が分類されるクラスn(1〜Nのいずれか)の割合を示す「tn(x)」の合計値は「1」となる。例えば、画像IM101が分類される2つクラスの割合を示す「t1(x)」、「t2(x)」の合計値は「1」となる。例えば、画像IM101において、クラス1に対応する対象を「猫」とした場合の「t1(x)」は、「0.58(58%)」となり、クラス2に対応する対象を「犬」とした場合の「t2(x)」は、「0.42(42%)」となる。この場合、「t1(x)+t2(x)」は、「0.58+0.42」、すなわち「1」となる。このように、クラスn(1〜Nのいずれか)の割合を示す「tn(x)」の各々は、クラス1〜N全体の合計が「1」となるような値となる。例えば、各クラスn(1〜Nのいずれか)の割合を示す「tn(x)」は、合計が「1」となるような値となる。
Here, as shown in the above formula (2), the total value of “t n (x)” indicating the ratio of the class n (any one of 1 to N) into which the image is classified is “1”. For example, the total value of “t 1 (x)” and “t 2 (x)” indicating the ratio of two classes into which the image IM101 is classified is “1”. For example, in the image IM101, “t 1 (x)” when the object corresponding to
また、上記式(1)や下記の式(3)、(4)中の「pn(x)」は、画像IM101におけるクラスn(1〜Nのいずれか)について、モデルM1の出力に基づく割合を示す。例えば、上記式(1)中の「pn(x)」は、モデルM1が出力するクラスnに対応する割合を示す。例えば、クラス1に対応する対象を「猫」とした場合、「p1(x)」は、モデルM1の学習に応じて「0.55(55%)」や「0.57(57%)」等の種々の値に変動する。
Further, “p n (x)” in the above formula (1) and the following formulas (3) and (4) is based on the output of the model M1 for the class n (any one of 1 to N) in the image IM101. Indicates the percentage. For example, “p n (x)” in the above equation (1) indicates a ratio corresponding to the class n output by the model M1. For example, when the object corresponding to
また、上記式(1)中の「pn(x)」は、xに対するクラスnの確率で以下の式(3)に示すようなSoftmax関数で定義される。 Further, “p n (x)” in the above formula (1) is defined by a Softmax function as shown in the following formula (3) with the probability of class n with respect to x.
上記式(3)の関数「fn」は、CNN(モデルM1)が出力するクラスnのスコアである。「θ」は、CNN(モデルM1)のパラメータである。また、関数「exp」は、指数関数(exponential function)である。この場合、上記式(1)に示す誤差関数L(1)の勾配は、下記の式(4)により算出される。 The function “f n ” in the above equation (3) is a score of class n output by CNN (model M1). “Θ” is a parameter of CNN (model M1). The function “exp” is an exponential function. In this case, the gradient of the error function L (1) shown in the above equation (1) is calculated by the following equation (4).
上記式(4)に示すように、1〜Nまでの全クラスにおいて、pn(x)=tn(x)である場合、誤差関数L(x)の勾配は0になり極値になる。例えば、生成装置100は、誤差関数L(x)の勾配が0になるように、フィードバック処理を行う。例えば、生成装置100が上述のような処理を繰り返すことにより、モデルM1は、入力された画像が各クラスに分類される割合を示すスコアを適切に出力することができる。
As shown in the above equation (4), in all
なお、上記の例においては、画像IM101を一例として、上記式(1)を用いて対象情報ごとに処理する場合を示したが、生成装置100は、下記の式(5)に示すような、全画像に対応する誤差関数Lを用いてもよい。
In the above example, the image IM101 is taken as an example, and the case where processing is performed for each target information using the above formula (1) is shown. However, the
例えば、上記式(5)中の変数「x」に代入される1〜Mは、画像群IMF1に含まれる画像IM101〜IM103等の複数の画像の各々に対応する。例えば、生成装置100は、上記式(5)の誤差関数Lの勾配が0になるように、フィードバック処理を行うことにより、モデルM1は、入力された画像が各クラスに分類される割合を示すスコアを適切に出力することができる。
For example, 1 to M assigned to the variable “x” in the equation (5) corresponds to each of a plurality of images such as the images IM101 to IM103 included in the image group IMF1. For example, the
また、対処情報を2つのクラスに分類する場合、上記式(5)に代えて下記の式(6)を用いてもよい。 Further, when classifying the handling information into two classes, the following formula (6) may be used instead of the above formula (5).
例えば、図1の例では、上記式(6)中の「tA(x)」は、画像IM101が猫(クラスCL1)に分類される割合を示す。この場合、例えば、正解情報RDT101における猫(クラスCL1)に分類される割合に対応する「tA(x)」は、「0.58(58%)」となる。また、例えば、「(1−tA(x))」は、「0.42(=1−0.58)(42%)」となり、正解情報RDT101における犬(クラスCL2)に分類される割合に対応する。 For example, in the example of FIG. 1, “t A (x)” in the above formula (6) indicates the ratio at which the image IM101 is classified as a cat (class CL1). In this case, for example, “t A (x)” corresponding to the ratio classified as a cat (class CL1) in the correct answer information RDT101 is “0.58 (58%)”. Further, for example, “(1-t A (x))” becomes “0.42 (= 1−0.58) (42%)”, and the ratio of being classified as a dog (class CL2) in the correct answer information RDT101 Corresponding to
また、上記式(6)中の「pA(x)」は、画像IM101における猫(クラスCL1)について、モデルM1の出力に基づく割合を示す。 Further, “p A (x)” in the above formula (6) indicates a ratio based on the output of the model M1 for the cat (class CL1) in the image IM101.
なお、モデルの学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。なお、各モデルの生成は、機械学習に関する種々の従来技術を適宜用いて行われてもよい。例えば、モデルの生成は、SVM(Support Vector Machine)等の教師あり学習の機械学習に関する技術を用いて行われてもよい。また、例えば、モデルの生成は、教師なし学習の機械学習に関する技術を用いて行われてもよい。例えば、モデルの生成は、深層学習(ディープラーニング)の技術を用いて行われてもよい。例えば、モデルの生成は、RNN(Recurrent Neural Network)やCNN等の種々のディープラーニングの技術を適宜用いて行われてもよい。なお、上記モデルの生成に関する記載は例示であり、モデルの生成は、取得可能な情報等に応じて適宜選択された学習手法により行われてもよい。すなわち、生成装置100は、学習データに含まれる対象情報が入力された場合に、正解情報に対応するスコアを出力するようにモデルM1を学習可能であれば、どのような手法によりモデルM1の生成を行ってもよい。
Note that the model learning technique is not limited to the technique described above, and any known technique can be applied. Each model may be generated using various conventional techniques relating to machine learning as appropriate. For example, the model generation may be performed using a technique related to machine learning of supervised learning such as SVM (Support Vector Machine). Further, for example, the model generation may be performed using a technique related to machine learning of unsupervised learning. For example, the generation of the model may be performed using a deep learning technique. For example, the model generation may be performed by appropriately using various deep learning techniques such as RNN (Recurrent Neural Network) and CNN. The description relating to the generation of the model is merely an example, and the generation of the model may be performed by a learning method appropriately selected according to information that can be acquired. That is, the
上記のような処理により、図1の例では、生成装置100は、モデル情報記憶部122に示すように、モデルID「M1」により識別されるモデル(モデルM1)を生成する。また、図1中のモデル情報記憶部122に示すように、モデルM1は用途「画像(犬猫分類)」、すなわち画像が犬猫の2つのクラスのいずれかに分類されるかの推定のために用いられるモデルであり、その具体的なモデルデータが「モデルデータMDT1」であることを示す。例えば、生成装置100は、モデルM1に画像情報を入力することにより、入力した画像情報が各クラスに分類される割合を示すスコアを、モデルM1に出力させ、モデルM1が出力するスコアに基づいて画像が各クラスに分類される割合を推定する。
In the example of FIG. 1, the
上述したように、生成装置100は、画像情報と正解情報とが対応付けられた学習データを用いて学習することにより、対象情報の各クラスに分類される割合を適切に推定可能にするモデルを生成することができる。したがって、生成装置100は、上述のように生成したモデルを用いることにより、例えば、画像(犬猫分類)の各クラスに分類される割合を精度よく推定することを可能にすることができる。
As described above, the
例えば、クラウドソーシングにおいて、単純に画像等の対象情報を所望のクラスに分類するタスクをユーザに依頼し、得られた回答結果のコンセンサスを推定することとすると、コンセンサスが得られない場合は、データとして使用することもできない。ここでいうコンセンサスとは、例えば、回答に偏りがあることによる、ユーザの回答の一致(合意)であってもよい。例えば、コンセンサスとは、ある回答を所定の割合以上のユーザが行ったことであってもよい。例えば、コンセンサスとは、ある回答(例えば「猫」)を所定の割合(70%)以上のユーザが行ったことであってもよい。また、例えば、コンセンサスが得られない場合のみの情報を用いる場合、対象情報から回答の傾向のような有用な量を推定することが難しい。 For example, in crowdsourcing, if the user simply asks the user to perform a task of classifying target information such as images into a desired class and estimates the consensus of the obtained answer results, Can not be used as. The consensus referred to here may be, for example, a match (agreement) between the user's answers due to bias in the answers. For example, the consensus may be that a certain number of users have made a certain answer. For example, the consensus may be that a certain answer (for example, “cat”) is given by a predetermined percentage (70%) or more of users. For example, when using information only when consensus cannot be obtained, it is difficult to estimate a useful amount such as a tendency of an answer from target information.
例えば、従来の学習においては、図1の例の画像IM101や画像IM103等のようにワーカの分類による各クラスの割合に差がつかなかった画像は、モデルの生成に用いられなかった。例えば、従来の学習においては、画像IM102のような各クラスの割合の差が顕著な画像のみを用いて学習していた。例えば、従来の学習においては、画像IM102について、猫(クラスCL1)のラベルを「1」とし、犬(クラスCL2)のラベルを「0」として学習に用い、画像IM101やIM103が学習に用いられなかった。しかしながら、各クラスの割合に差がつかなかった場合も学習データとしても重要であるが、クラス数が大きくなると、使われないデータも多くなるという問題があった。 For example, in conventional learning, images such as the image IM101 and the image IM103 in the example of FIG. 1 that have no difference in the proportion of each class according to worker classification are not used for model generation. For example, in conventional learning, learning is performed using only an image such as the image IM102 in which the difference in the ratio of each class is significant. For example, in the conventional learning, for the image IM102, the label of the cat (class CL1) is set to “1” and the label of the dog (class CL2) is set to “0”, and the images IM101 and IM103 are used for learning. There wasn't. However, even when there is no difference in the proportion of each class, it is important as learning data. However, when the number of classes increases, there is a problem that data that is not used increases.
そこで、生成装置100は、各クラスを選択したワーカの数の割合を学習するターゲット(正解情報)とすることで、従来では用いられていなかったデータを利用可能にし、画像自体が分類することが難しい画像である場合も適切に推定することが可能になる。また、例えば、閾値を使用して通常分類器として使用しても、学習データ数の増加により、学習器の汎化性能を向上させることができる。
Therefore, the
〔2.推定処理〕
図2を用いて、実施形態に係る推定処理の一例について説明する。図2は、実施形態に係る推定処理の一例を示す図である。図2では、生成装置100は、新たな対象情報を取得した場合に、その対象情報に対する各クラスに分類される割合を推定し、推定に基づく情報を提供する場合を示す。
[2. (Estimation process)
An example of the estimation process according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of an estimation process according to the embodiment. In FIG. 2, when new target information is acquired, the
まず、生成装置100は、対象情報となる画像IM10を取得する(ステップS21)。図2の例では、生成装置100は、ユーザU101が利用する端末装置10から分類対象となる画像IM10を取得する。
First, the
画像IM10を取得した生成装置100は、画像IM10をモデルに入力する。例えば、生成装置100は、画像IM10のデータ(以下、「データIM10」とする)を、モデルM1に入力する。
The
図2の例では、生成装置100は、処理群PS21に示すような処理により、画像IM10が各クラスに分類される割合を示すスコアを算出する。生成装置100は、データIM10をモデルM1に入力する(ステップS22)。データIM10が入力されたモデルM1は、スコアを出力する(ステップS23)。モデルM1は、各クラスに対応するスコアを出力する。図2の例では、データIM10が入力されたモデルM1は、スコアSC11に示すように、猫(クラスCL1)のスコア「0.55」を出力し、犬(クラスCL2)のスコア「0.45」を出力する。これにより、生成装置100は、モデルM1を用いて、画像IM10が猫(クラスCL1)に分類される割合(確率)が55%であり、犬(クラスCL2)に分類される割合(確率)が45%であると推定する。
In the example of FIG. 2, the
そして、生成装置100は、推定結果を生成する(ステップS24)。図2の例では、生成装置100は、推定対象である画像IM10が猫に分類される割合が55%であり、犬に分類される割合が45%であるとの推定結果情報ER21を生成する。
And the production |
その後、生成装置100は、推定結果に基づいて情報提供を行う(ステップS25)。図2の例では、生成装置100は、生成した推定結果情報ER21を端末装置10へ提供する。
Thereafter, the
上述したように、生成装置100は、モデルを用いることにより対象情報に対する各クラスに分類される割合を推定する。図2の例では、生成装置100は、画像IM10をモデルM1に入力することにより、モデルM1に画像IM10が各クラスに分類される割合を示すスコアを出力させる。そして、生成装置100は、モデルM1が出力するスコアが高いクラス程、その対象情報がそのクラスに分類される可能性が高いと推定する。図2の例では、生成装置100は、モデルM1が出力する猫(クラスCL1)のスコアが高いエリア程、その画像が猫に分類される可能性が高いと推定する。そして、生成装置100は、推定した結果を端末装置10へ提供する。これにより、生成装置100から情報提供を受けたユーザは、その対象情報がどのクラスに分類されるかを把握することができる。また、生成装置100から割合情報の情報提供を受けたユーザは、その対象情報がどの程度分類が難しい対象情報であるかを把握することができる。
As described above, the
〔2−1.推定の対象〕
図1及び図2の例では、画像が猫(クラスCL1)と犬(クラスCL2)のいずれに分類されるかを推定するモデルを生成したり、モデルを用いて推定を行う場合を示したが、生成装置100は、どのような分類を行うモデルを生成したりしてもよい。例えば、生成装置100は、各対象情報に種々の正解情報を対応付けることにより、複数のモデルを生成してもよい。例えば、生成装置100は、各対象情報に、種々の正解情報を対応付けることにより、複数のモデルを生成してもよい。
[2-1. (Target of estimation)
In the example of FIG. 1 and FIG. 2, a case is shown in which a model for estimating whether an image is classified into a cat (class CL1) or a dog (class CL2) is generated, or estimation is performed using the model. The
また、生成装置100は、画像に限らず、文字情報や、画像と文字情報を組み合わせた記事コンテンツ等の種々の対象情報を対象とするモデルを生成してもよい。
Further, the
〔2−2.回答について〕
図1の例では、説明を簡単にするために、各ユーザ(ワーカ)が犬か猫かのいずれかを選択し、いずれか一方を回答する場合を示したが、生成装置100は、各ユーザから各クラスの割合による回答を取得してもよい。例えば、生成装置100は、ユーザU1から、画像IM101が猫(クラスCL1)であると考える割合「0.6(60%)」と犬(クラスCL2)であると考える割合「0.4(40%)」等の各クラスの割合による回答を取得してもよい。例えば、生成装置100は、ユーザU2から、画像IM101が猫(クラスCL1)であると考える割合「0.7(70%)」と犬(クラスCL2)であると考える割合「0.3(30%)」等の各クラスの割合による回答を取得してもよい。
[2-2. About answer)
In the example of FIG. 1, in order to simplify the explanation, a case where each user (worker) selects either a dog or a cat and answers either one is shown. You may get answers by percentage of each class. For example, the
また、生成装置100は、各ユーザから各クラスの割合による回答に基づいて、正解情報を生成してもよい。例えば、生成装置100は、上記ユーザU1とユーザU2の回答に基づいて、正解情報を生成する場合、画像IM101の猫(クラスCL1)の割合を「0.65(=(0.6+0.7)/2)(65%)」してもよい。例えば、生成装置100は、上記ユーザU1とユーザU2の回答に基づいて、正解情報を生成する場合、画像IM101の犬(クラスCL2)の割合を「0.35(=(0.4+0.3)/2)(35%)」してもよい。なお、上記は一例であり、生成装置100は、各ユーザから種々の回答を取得して、正解情報を生成してもよい。
Further, the
〔2−3.回答するユーザ(ワーカ)に応じた重み付け〕
また、生成装置100は、回答したユーザに応じて回答に重み付けを行ってもよい。例えば、生成装置100は、各ユーザのワーカとしての経歴やスキルレベル等のクラウドソーシングにおける各ユーザの評価や信頼性を示す情報に基づいて、各ユーザの回答に重み付けを行ってもよい。
[2-3. (Weighting according to responding users (workers))
Further, the
例えば、生成装置100は、ワーカとしての経歴が所定の年数以上のユーザの回答については、重みを「1」より大きくしてもよい。例えば、生成装置100は、ワーカとしての経歴が所定の年数以上のユーザの回答については、重みを「2」とすることにより、2人分の回答の価値があるとしてもよい。また、例えば、生成装置100は、ワーカとしてのスキルレベルが所定の閾値以上のユーザの回答については、重みを「1」より大きくしてもよい。例えば、生成装置100は、ワーカとしての経歴が所定の年数以上のユーザの回答については、重みを「1.5」とすることにより、1.5人分の回答の価値があるとしてもよい。なお、上記は一例であり、生成装置100は、種々の情報を用いて各ユーザの回答の重み付けを行ってもよい。
For example, the
〔3.生成装置の構成〕
次に、図4を用いて、実施形態に係る生成装置100の構成について説明する。図4は、実施形態に係る生成装置の構成例を示す図である。図4に示すように、生成装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、生成装置100は、生成装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Configuration of the generator
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図4に示すように、学習データ記憶部121と、モデル情報記憶部122と、ユーザ情報記憶部123と、推定情報記憶部124とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 4, the storage unit 120 according to the embodiment includes a learning
(学習データ記憶部121)
実施形態に係る学習データ記憶部121は、学習データに関する各種情報を記憶する。図5は、実施形態に係る学習データ記憶部の一例を示す図である。例えば、学習データ記憶部121は、モデルの生成に用いる教師データを記憶する。図5に示す学習データ記憶部121には、「データID」、「対象情報」、「集計情報」といった項目が含まれる。「集計情報」には、「正解情報(割合情報)」、「ユーザ数」、「猫(CL1)」、「犬(CL2)」といった項目が含まれる。
(Learning data storage unit 121)
The learning
「データID」は、データを識別するための識別情報を示す。例えば、データID「DT101」により識別されるデータは、図1の例に示した、データDT101に対応する。「対象情報」は、データIDにより識別されるデータに含まれる対象情報を示す。例えば、「対象情報」は、分類対象となる対象情報を示す。「集計情報」は、クラウドソーシングによってワーカにより行われたタスクの回答を集計した情報を示す。 “Data ID” indicates identification information for identifying data. For example, the data identified by the data ID “DT101” corresponds to the data DT101 shown in the example of FIG. “Target information” indicates target information included in the data identified by the data ID. For example, “target information” indicates target information to be classified. “Aggregated information” indicates information obtained by aggregating answers to tasks performed by a worker by crowdsourcing.
「集計情報」中の「正解情報(割合情報)」は、データIDにより識別されるデータに対応する正解情報(割合情報)を示す。例えば、「正解情報(割合情報)」は、ワーカの全回答における各クラスの回答の割合を示す。 “Correct answer information (ratio information)” in “aggregated information” indicates correct answer information (ratio information) corresponding to data identified by the data ID. For example, “correct answer information (ratio information)” indicates a ratio of answers of each class in all answers of workers.
「集計情報」中の「ユーザ数」は、対応する対象情報について回答を行ったユーザ数を示す。「集計情報」中の「猫(CL1)」は、対応する対象情報について猫と回答を行ったユーザ数を示す。また、図5の例では、「集計情報」中の「猫(CL1)」は、対応する対象情報について猫と回答を行ったユーザを識別する情報も含まれる。また、「集計情報」中の「犬(CL2)」は、対応する対象情報について犬と回答を行ったユーザ数を示す。また、図5の例では、「集計情報」中の「犬(CL2)」は、対応する対象情報について犬と回答を行ったユーザを識別する情報も含まれる。 The “number of users” in the “aggregated information” indicates the number of users who answered about the corresponding target information. “Cat (CL1)” in the “aggregated information” indicates the number of users who answered as cats for the corresponding target information. In the example of FIG. 5, “cat (CL1)” in “aggregated information” also includes information for identifying a user who made a reply with a cat regarding the corresponding target information. Further, “dog (CL2)” in the “aggregated information” indicates the number of users who have made a reply with the dog regarding the corresponding target information. In the example of FIG. 5, “dog (CL2)” in the “aggregated information” includes information for identifying a user who has made a reply with the dog regarding the corresponding target information.
例えば、図5に示す例において、データID「DT101」により識別されるデータ(データDT101)は、分類対象となる対象情報が画像IM101であることを示す。また、データDT101は、正解情報が「猫」と分類された割合が「0.58(58%)」であり、「犬」と分類された割合が「0.42(42%)」であることを示す。また、データDT101は、ユーザ数が1000人であることを示す。また、データDT101は、猫と回答したユーザ数が580人であり、そのユーザにはユーザU1やユーザU2等が含まれることを示す。また、データDT101は、犬と回答したユーザ数が420人であり、そのユーザにはユーザU3やユーザU4等が含まれることを示す。すなわち、データDT101は、画像IM101について、1000人のユーザ(ワーカ)のうち、580人が猫と回答し、420人が犬と回答したことを示す。そのため、データDT101は、正解情報における猫の割合が「580/1000=0.58」となり、正解情報における犬の割合が「420/1000=0.42」となる。 For example, in the example illustrated in FIG. 5, the data (data DT101) identified by the data ID “DT101” indicates that the target information to be classified is the image IM101. In addition, in the data DT101, the ratio of correct information classified as “cat” is “0.58 (58%)”, and the ratio classified as “dog” is “0.42 (42%)”. It shows that. Data DT101 indicates that the number of users is 1000. The data DT101 indicates that the number of users who answered “cat” is 580, and the user includes the user U1, the user U2, and the like. The data DT101 indicates that the number of users who answered “dog” is 420, and the user includes the user U3 and the user U4. That is, the data DT101 indicates that, for the image IM101, out of 1000 users (workers), 580 responded as cats and 420 responded as dogs. Therefore, in the data DT101, the ratio of the cat in the correct answer information is “580/1000 = 0.58”, and the ratio of the dog in the correct answer information is “420/1000 = 0.42”.
なお、学習データ記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、学習データ記憶部121は、学習データが追加された日時に関する情報を記憶してもよい。また、例えば、学習データ記憶部121は、各学習データがどのような判定処理により追加されたかを示す情報を記憶してもよい。例えば、学習データ記憶部121は、各学習データが管理者の選択により判定されたか等を示す情報を記憶してもよい。
Note that the learning
(モデル情報記憶部122)
実施形態に係るモデル情報記憶部122は、モデルに関する情報を記憶する。例えば、モデル情報記憶部122は、生成処理により生成されたモデル情報(モデルデータ)を記憶する。図6は、実施形態に係るモデル情報記憶部の一例を示す図である。図6に示すモデル情報記憶部122は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。なお、図6では、モデルM1〜M3のみを図示するが、M4、M5等、各用途(推定の対象)に応じて多数のモデル情報が記憶されてもよい。
(Model information storage unit 122)
The model
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1」により識別されるモデルは、図1の例に示したモデルM1に対応する。「用途」は、対応するモデルの用途を示す。また、「モデルデータ」は、対応付けられた対応するモデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 “Model ID” indicates identification information for identifying a model. For example, the model identified by the model ID “M1” corresponds to the model M1 illustrated in the example of FIG. “Use” indicates the use of the corresponding model. “Model data” indicates data of a corresponding model associated with the model data. For example, “model data” includes information including nodes in each layer, functions adopted by the nodes, connection relationships between the nodes, and connection coefficients set for connections between the nodes.
例えば、図6に示す例において、モデルID「M1」により識別されるモデル(モデルM1)は、用途が「画像(犬猫分類)」であり、入力された画像が犬猫の2つのクラスのいずれかに分類されるかの推定に用いられることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。 For example, in the example shown in FIG. 6, the model (model M1) identified by the model ID “M1” has an application of “image (dog cat classification)”, and the input image has two classes of dogs and cats. Indicates that it is used to estimate whether it is classified as either. The model data of the model M1 is model data MDT1.
例えば、図6に示す例において、モデルID「M3」により識別されるモデル(モデルM3)は、用途が「文字情報(カテゴリ分類)」であり、入力された文字情報が複数のカテゴリ(クラス)のうち、どのクラスに分類されるかの推定に用いられることを示す。例えば、分類するカテゴリ(クラス)は、政治、スポーツ、芸能等の3つ以上のカテゴリが含まれてもよい。また、モデルM3のモデルデータは、モデルデータMDT3であることを示す。 For example, in the example illustrated in FIG. 6, the model (model M3) identified by the model ID “M3” has a usage of “character information (category classification)” and the input character information includes a plurality of categories (classes). Among them, it is used for estimating which class is classified. For example, the category (class) to be classified may include three or more categories such as politics, sports, and entertainment. The model data of the model M3 is model data MDT3.
例えば、モデルM1(モデルデータMDT1)は、分類対象となる対象情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された対象情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、対象情報の各クラスに分類される割合の推定に用いられるスコアの値を出力層から出力するよう、コンピュータを機能させるためのモデルである。 For example, the model M1 (model data MDT1) belongs to an input layer to which target information to be classified is input, an output layer, and any layer from the input layer to the output layer and other than the output layer. A first element, and a second element whose value is calculated based on the weight of the first element and the first element, and each of the target information input to the input layer belongs to each layer other than the output layer By using the element as the first element and performing an operation based on the first element and the weight of the first element, the score value used for estimating the ratio classified into each class of the target information is output from the output layer It is a model for functioning a computer.
ここで、モデルM1〜M3等が「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。 Here, it is assumed that the models M1 to M3 and the like are realized by a regression model represented by “y = a 1 * x 1 + a 2 * x 2 +... + A i * x i ”. In this case, for example, the first element included in the model M1 corresponds to input data (xi) such as x1 or x2. The weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be regarded as a simple perceptron having an input layer and an output layer. When each model is regarded as a simple perceptron, the first element can correspond to any node of the input layer, and the second element can be regarded as a node of the output layer.
また、モデルM1〜M3等がDNN等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 Further, it is assumed that the models M1 to M3 and the like are realized by a neural network having one or more intermediate layers such as DNN. In this case, for example, the first element included in the model M1 corresponds to any node of the input layer or the intermediate layer. The second element corresponds to the next node, which is a node to which a value is transmitted from the node corresponding to the first element. The weight of the first element corresponds to a connection coefficient that is a weight considered for a value transmitted from a node corresponding to the first element to a node corresponding to the second element.
なお、モデル情報記憶部122は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。例えば、モデル情報記憶部122は、画像と文字情報とを組み合わせた記事コンテンツが各クラスに分類される割合の推定に用いられるモデルを記憶してもよい。
The model
(ユーザ情報記憶部123)
実施形態に係るユーザ情報記憶部123は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部123は、クラウドソーシングなどによるタスクを行う複数のワーカ(ユーザ)に関する情報を記憶する。図7は、実施形態に係るユーザ情報記憶部の一例を示す図である。図7に示すユーザ情報記憶部123は、「ユーザID」、「年齢」、「性別」、「自宅」、「勤務地」、「興味」といった項目が含まれる。
(User information storage unit 123)
The user
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。 “User ID” indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. “Age” indicates the age of the user identified by the user ID. The “age” may be a specific age of the user identified by the user ID, such as 35 years old. “Gender” indicates the gender of the user identified by the user ID.
また、「自宅」は、ユーザIDにより識別されるユーザの自宅の位置情報を示す。なお、図7に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度や経度を示す情報であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。 “Home” indicates location information of the user's home identified by the user ID. In the example illustrated in FIG. 7, “home” illustrates an abstract code such as “LC11”, but may be information indicating latitude and longitude. For example, “home” may be a region name or an address.
また、「勤務地」は、ユーザIDにより識別されるユーザの勤務地の位置情報を示す。なお、図7に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度や経度を示す情報であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。 “Work location” indicates position information of the user's work location identified by the user ID. In the example illustrated in FIG. 7, “work location” illustrates an abstract code such as “LC12”, but may be information indicating latitude and longitude. Further, for example, the “work location” may be an area name or an address.
また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図7に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。 “Interest” indicates the interest of the user identified by the user ID. That is, “interest” indicates an object that is highly interested by the user identified by the user ID. In the example illustrated in FIG. 7, one “interest” is illustrated for each user, but may be plural.
例えば、図7に示す例において、ユーザID「U1」により識別されるユーザの年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、自宅が「LC11」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、勤務地が「LC12」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、「スポーツ」に興味があることを示す。 For example, in the example illustrated in FIG. 7, the age of the user identified by the user ID “U1” is “20s”, and the gender is “male”. For example, the user identified by the user ID “U1” indicates that the home is “LC11”. For example, the user identified by the user ID “U1” indicates that the work location is “LC12”. For example, the user identified by the user ID “U1” indicates that he / she is interested in “sports”.
なお、ユーザ情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部123は、ユーザのデモグラフィック属性に関する情報やサイコグラフィック属性に関する情報を記憶してもよい。例えば、ユーザ情報記憶部123は、氏名、家族構成、収入、興味、ライフスタイル等の情報を記憶してもよい。また、例えば、ユーザ情報記憶部123は、各ユーザのワーカとしての経歴やスキルレベル等のクラウドソーシングにおける各ユーザの評価や信頼性を示す情報を記憶してもよい。
Note that the user
(推定情報記憶部124)
実施形態に係る推定情報記憶部124は、推定対象や推定結果等の推定に関する各種情報を記憶する。図8に、実施形態に係る推定情報記憶部124の一例を示す。図8に示す推定情報記憶部124は、「推定対象」、「クラス」、「スコア」といった項目を有する。図8に示す推定情報記憶部124は、図2において推定した画像IM10のクラス分類(犬猫分類)に関する情報を示す。
(Estimated information storage unit 124)
The estimation
「推定対象」は、推定する分類対象(対象)を示す。「クラス」は、推定対象を分類するクラスを示す。「スコア」は、対応するクラスの評価値となるスコアを示す。例えば、「スコア」は、対応するクラスに分類されると推定される割合を示す。 The “estimation target” indicates a classification target (target) to be estimated. “Class” indicates a class for classifying the estimation target. “Score” indicates a score that is an evaluation value of the corresponding class. For example, “score” indicates a ratio estimated to be classified into a corresponding class.
例えば、図8に示す例において、推定する対象は、画像IM10であることを示す。また、画像IM10が猫(クラスCL1)のスコアが「0.55」であることを示す。例えば、画像IM10が猫(クラスCL1)と分類される割合が55%であることを示す。また、画像IM10が犬(クラスCL2)のスコアが「0.45」であることを示す。例えば、画像IM10が犬(クラスCL2)と分類される割合が45%であることを示す。 For example, in the example illustrated in FIG. 8, the estimation target is the image IM10. Further, the image IM10 indicates that the score of the cat (class CL1) is “0.55”. For example, the ratio that the image IM10 is classified as a cat (class CL1) is 55%. Further, the image IM10 indicates that the score of the dog (class CL2) is “0.45”. For example, the ratio that the image IM10 is classified as a dog (class CL2) is 45%.
なお、推定情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
Note that the estimated
(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、生成装置100内部の記憶装置に記憶されている各種プログラム(生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130は、モデル情報記憶部122に記憶されているモデルM1等に従った情報処理により、分類対象となる対象情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された対象情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、対象情報の各クラスに分類される割合の推定に用いられるスコアの値を出力層から出力する。
(Control unit 130)
Returning to the description of FIG. 4, the control unit 130 is a controller and is stored in a storage device inside the
図4に示すように、制御部130は、取得部131と、生成部132と、推定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。制御部130は、記憶部120に記憶されているモデルM1(モデルデータMDT1)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された対象情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、対象情報の各クラスに分類される割合の推定に用いられるスコアの値を出力層から出力する。
As shown in FIG. 4, the control unit 130 includes an acquisition unit 131, a
(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、学習データ記憶部121と、モデル情報記憶部122と、ユーザ情報記憶部123と、推定情報記憶部124等から各種情報を取得する。また、取得部131は、各種情報を外部の情報処理装置から取得してもよい。また、取得部131は、各種情報を端末装置10等から取得してもよい。例えば、取得部131は、ワーカから対象情報に対する回答を取得する。
(Acquisition part 131)
The acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires various types of information from the learning
例えば、取得部131は、分類対象となる対象情報と、複数のユーザの各々により対象情報の各クラスに分類された割合を示す割合情報とを取得する。例えば、取得部131は、分類対象となる対象情報と、複数のユーザの各々により選択された対象情報の各クラスに分類された割合を示す割合情報とを取得する。例えば、取得部131は、クラウドソーシングにおいて複数のユーザの各々により対象情報の各クラスに分類された割合を示す割合情報を取得する。例えば、取得部131は、複数のユーザの数と、対象情報の各クラスを選択したユーザの数とに基づく割合情報を取得する。例えば、取得部131は、画像情報を含む対象情報を取得する。例えば、取得部131は、文字情報を含む対象情報を取得する。 For example, the acquisition unit 131 acquires target information to be classified and ratio information indicating a ratio classified into each class of target information by each of a plurality of users. For example, the acquisition unit 131 acquires target information to be classified and ratio information indicating a ratio classified into each class of target information selected by each of a plurality of users. For example, the acquisition unit 131 acquires ratio information indicating a ratio classified into each class of target information by each of a plurality of users in crowdsourcing. For example, the acquisition unit 131 acquires ratio information based on the number of users and the number of users who have selected each class of target information. For example, the acquisition unit 131 acquires target information including image information. For example, the acquisition unit 131 acquires target information including character information.
図1の例では、取得部131は、正解情報を生成するための情報を収集する。例えば、取得部131は、画像IM101〜IM103等の画像群IML1をクラウドソーシングによりユーザ(ワーカ)に分類させ、その回答を取得する。 In the example of FIG. 1, the acquisition unit 131 collects information for generating correct answer information. For example, the acquisition unit 131 classifies the image group IML1 such as the images IM101 to IM103 into users (workers) by crowdsourcing, and acquires the answer.
図1の例では、取得部131は、ユーザU1から画像IM101に対する回答を取得する。例えば、取得部131は、ユーザU1から画像IM101が「猫」であるとの回答を取得する。例えば、取得部131は、ユーザU2から画像IM101が「猫」であるとの回答を取得する。例えば、取得部131は、ユーザU3から画像IM101が「犬」であるとの回答を取得する。例えば、取得部131は、ユーザU4から画像IM101が「犬」であるとの回答を取得する。例えば、取得部131は、ユーザU5から画像IM101が「猫」であるとの回答を取得する。 In the example of FIG. 1, the acquisition unit 131 acquires a response to the image IM101 from the user U1. For example, the acquisition unit 131 acquires a reply from the user U1 that the image IM101 is “cat”. For example, the acquisition unit 131 acquires a reply from the user U2 that the image IM101 is “cat”. For example, the acquisition unit 131 acquires a reply from the user U3 that the image IM101 is “dog”. For example, the acquisition unit 131 acquires a reply from the user U4 that the image IM101 is “dog”. For example, the acquisition unit 131 acquires a reply from the user U5 that the image IM101 is “cat”.
例えば、取得部131は、新たな対象情報を取得する。図2の例では、取得部131は、ユーザU101が利用する端末装置10から分類対象となる画像IM10を取得する。
For example, the acquisition unit 131 acquires new target information. In the example of FIG. 2, the acquisition unit 131 acquires the image IM10 to be classified from the
(生成部132)
生成部132は、各種情報を生成する。例えば、生成部132は、学習データ記憶部121に記憶された学習データを用いて、モデル情報記憶部122に示すようなモデルを生成する。例えば、生成部132は、取得部131により取得された学習データに基づいて、対象情報の各クラスに分類される割合の推定に用いられるモデルを生成する。例えば、生成部132は、対象情報と、対象情報が各クラスに分類される割合を示す正解情報とを含む学習データに基づいて、対象情報の各クラスに分類される割合の推定に用いられるモデルを生成する。
(Generator 132)
The
例えば、生成部132は、取得部131により取得された対象情報と割合情報とに基づいて、一の対象情報が入力された場合に、一の対象情報が各クラスに分類される割合を推定するモデルを生成する。例えば、生成部132は、一の対象情報が入力された場合に、一の対象情報が各クラスに分類される割合を推定するニューラルネットワーク(neural network)であるモデルを生成する。例えば、生成部132は、畳み込み処理及びプーリング処理を行うニューラルネットワークであるモデルを生成する。例えば、生成部132は、割合情報における各クラスに対応する割合間の差が所定の範囲内となる対象情報に基づいて、モデルを生成する。
For example, based on the target information and the ratio information acquired by the acquisition unit 131, the
例えば、生成部132は、モデルM1〜M3等を生成し、生成したモデルM1〜M3等をモデル情報記憶部122に格納する。なお、生成部132は、いかなる学習アルゴリズムを用いてモデルM1〜M3等を生成してもよい。例えば、生成部132は、ニューラルネットワーク、サポートベクターマシン(SVM)、クラスタリング、強化学習等の学習アルゴリズムを用いてモデルM1〜M3等を生成する。一例として、生成部132がニューラルネットワークを用いてモデルM1〜M3等を生成する場合、モデルM1〜M3等は、一以上のニューロンを含む入力層と、一以上のニューロンを含む中間層と、一以上のニューロンを含む出力層とを有する。
For example, the
生成部132は、モデルを生成し、生成したモデルをモデル情報記憶部122に格納する。具体的には、生成部132は、分類対象となる対象情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された対象情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、対象情報の各クラスに分類される割合の推定に用いられるスコアの値を出力層から出力するモデルを生成する。
The
図1の例では、生成部132は、対象情報の各クラスに分類される割合を示す割合情報を生成する。例えば、生成部132は、対象情報と、割合情報を正解情報として含む集計情報との組み合わせを学習データとして追加する。例えば、生成部132は、対象情報である画像IM101〜IM103等の各々に対応するデータDT101〜DT103等を学習データ記憶部121に追加する。
In the example of FIG. 1, the
図1の例では、生成部132は、上記のような画像IM101〜IM103等を含む学習データに基づいてモデルを生成する。例えば、生成部132は、学習データ記憶部121中のデータDT101〜DT103等を学習データ(教師データ)として、学習を行なうことにより、モデルを生成する。図1に示すような処理により生成部132は、モデル情報記憶部122に示すように、モデルID「M1」により識別されるモデル(モデルM1)を生成する。
In the example of FIG. 1, the
例えば、生成部132は、推定部133により推定された情報に基づいてユーザに提供する推定結果を生成する。図2の例では、生成部132は、推定対象である画像IM10が猫に分類される割合が55%であり、犬に分類される割合が45%であるとの推定結果情報ER21を生成する。
For example, the
(推定部133)
推定部133は、各種情報を推定する。推定部133は、学習データ記憶部121と、モデル情報記憶部122と、ユーザ情報記憶部123と、推定情報記憶部124等に記憶された情報を用いて種々の情報を推定する。例えば、推定部133は、取得部131により取得された各種情報に基づいて、種々の情報を推定する。
(Estimation unit 133)
The estimation unit 133 estimates various information. The estimation unit 133 estimates various information using information stored in the learning
例えば、推定部133は、モデルを用いて、対象情報に対する各クラスに分類される割合を推定する。推定部133は、新たな対象情報をモデルに入力することにより、新たな対象情報に対する各クラスに分類される割合を推定する。 For example, the estimation unit 133 estimates the ratio classified into each class with respect to the target information using the model. The estimation part 133 estimates the ratio classified into each class with respect to new object information by inputting new object information into a model.
図2の例では、推定部133は、処理群PS21に示すような処理により、画像IM10が各クラスに分類される割合を示すスコアを算出する。推定部133は、データIM10をモデルM1に入力する。推定部133によりデータIM10が入力されたモデルM1は、スコアを出力する。モデルM1は、各クラスに対応するスコアを出力する。図2の例では、データIM10が入力されたモデルM1は、スコアSC11に示すように、猫(クラスCL1)のスコア「0.55」を出力し、犬(クラスCL2)のスコア「0.45」を出力する。これにより、推定部133は、モデルM1を用いて、画像IM10が猫(クラスCL1)に分類される割合(確率)が55%であり、犬(クラスCL2)に分類される割合(確率)が45%であると推定する。 In the example of FIG. 2, the estimation unit 133 calculates a score indicating the ratio at which the image IM10 is classified into each class by processing as shown in the processing group PS21. The estimation unit 133 inputs the data IM10 to the model M1. The model M1 to which the data IM10 is input by the estimation unit 133 outputs a score. The model M1 outputs a score corresponding to each class. In the example of FIG. 2, the model M1 to which the data IM10 is input outputs the score “0.55” of the cat (class CL1) and the score “0.45” of the dog (class CL2) as shown in the score SC11. Is output. As a result, the estimation unit 133 uses the model M1 and the ratio (probability) that the image IM10 is classified as a cat (class CL1) is 55%, and the ratio (probability) that the image IM10 is classified as a dog (class CL2). Estimated to be 45%.
例えば、推定部133は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、スコアの算出を行う。具体的には、モデルM1は、分類対象となる対象情報(すなわち、上述したスコアの算出に用いられる各要素)が入力された場合に、所定の対象の推定を定量化した値(すなわち、一の対象情報が各クラスに分類される割合が発生する可能性が高いかを示唆するスコア)を出力するように係数が設定される。推定部133は、このようなモデルM1を用いて、各出品の対象に関するスコアを算出する。 For example, the estimation unit 133 calculates a score using a model having an arbitrary structure such as the above-described regression model or neural network. Specifically, the model M1 is a value obtained by quantifying the estimation of a predetermined target (that is, one item) when target information to be classified (that is, each element used for calculating the score described above) is input. The coefficient is set so as to output a score indicating whether or not there is a high possibility that the target information is classified into each class. The estimation unit 133 calculates a score related to each exhibition target using such a model M1.
なお、上記例では、モデルM1が、分類対象となる対象情報が入力された場合に、対象情報の各クラスに分類される割合の推定を定量化した値を出力するモデルである例を示した。しかし、実施形態に係るモデル(モデルX)は、モデルM1にデータの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルXは、分類対象となる対象情報を入力とし、モデルM1が出力するスコアを出力とするよう学習されたモデル(モデルY)であってもよい。または、モデルM1は、分類対象となる対象情報を入力とし、モデルYの出力値を出力とするよう学習されたモデルであってもよい。また、推定部133がGAN(Generative Adversarial Networks)を用いた推定処理を行う場合、モデルM1は、GANの一部を構成するモデルであってもよい。 In the above example, an example in which the model M1 is a model that outputs a value obtained by quantifying the estimation of the ratio classified into each class of the target information when the target information to be classified is input. . However, the model (model X) according to the embodiment may be a model generated based on a result obtained by repeatedly inputting / outputting data to / from the model M1. For example, the model X may be a model (model Y) that is learned so that target information to be classified is input and a score output by the model M1 is output. Alternatively, the model M1 may be a model that has been learned so that target information to be classified is input and the output value of the model Y is output. When the estimation unit 133 performs an estimation process using GAN (Generative Adversarial Networks), the model M1 may be a model that constitutes a part of the GAN.
(提供部134)
提供部134は、各種情報を提供する。例えば、提供部134は、端末装置10に各種情報を提供する。提供部134は、推定部133により推定された一の対象情報が各クラスに分類される割合に基づくサービスを提供する。例えば、提供部134は、推定部133により推定された一の対象情報が各クラスに分類される割合に基づいて、一の対象情報がいずれのクラスであるかを示す情報を提供する。また、例えば、提供部134は、生成部132により生成されたモデルに関する情報を外部の情報処理装置へ提供してもよい。また、例えば、提供部134は、モデルが出力する情報を外部の情報処理装置へ提供してもよい。
(Providing unit 134)
The providing unit 134 provides various information. For example, the providing unit 134 provides various information to the
図1の例では、提供部134は、ワーカであるユーザU1が利用する端末装置10−1に対象情報を提供する。例えば、提供部134は、端末装置10−1〜10−5に対象情報である画像IM101等を提供する。例えば、提供部134は、端末装置10−1〜10−5に対象情報である画像群IML1等を提供する。 In the example of FIG. 1, the providing unit 134 provides target information to the terminal device 10-1 used by the user U1 who is a worker. For example, the providing unit 134 provides the image IM101, which is target information, to the terminal devices 10-1 to 10-5. For example, the providing unit 134 provides the terminal device 10-1 to 10-5 with the image group IML1 that is the target information.
例えば、提供部134は、推定結果に基づいて情報提供を行う。図2の例では、提供部134は、生成部132により生成された推定結果情報ER21を端末装置10へ提供する。
For example, the providing unit 134 provides information based on the estimation result. In the example of FIG. 2, the providing unit 134 provides the estimation result information ER <b> 21 generated by the generating
〔4.生成処理のフロー〕
次に、図9を用いて、実施形態に係る生成システム1による生成処理の手順について説明する。図9は、実施形態に係る生成処理の一例を示すフローチャートである。
[4. Generation process flow)
Next, the procedure of the generation process by the
図9に示すように、生成装置100は、学習データを取得する(ステップS101)。例えば、生成装置100は、学習データ記憶部121から学習データを取得する。
As illustrated in FIG. 9, the
その後、生成装置100は、学習データに基づきモデルを生成する(ステップS102)。図1の例では、生成装置100は、学習データ記憶部121から学習データを用いてモデルM1を生成する。
Thereafter, the
〔5.推定処理のフロー〕
次に、図10を用いて、実施形態に係る生成システム1による推定処理の手順について説明する。図10は、実施形態に係る推定処理の一例を示すフローチャートである。
[5. (Estimation process flow)
Next, the procedure of the estimation process by the
図10に示すように、生成装置100は、対象情報を取得する(ステップS201)。図2の例では、生成装置100は、ユーザU101が利用する端末装置10から対象情報として画像IM10を取得する。
As illustrated in FIG. 10, the
また、生成装置100は、対象情報とモデルを用いて対象情報に対する各クラスに分類される割合を推定する(ステップS202)。図2の例では、生成装置100は、モデルM1を用いて、画像IM10が猫(クラスCL1)に分類される割合(確率)が55%であり、犬(クラスCL2)に分類される割合(確率)が45%であると推定する。
Further, the
また、生成装置100は、推定した対象情報に対する各クラスに分類される割合に関する情報を提供する(ステップS203)。図2の例では、生成装置100は、推定対象である画像IM10が猫に分類される割合が55%であり、犬に分類される割合が45%であるとの推定結果情報ER21をユーザU101が利用する端末装置10へ提供する。
In addition, the
〔6.効果〕
上述してきたように、実施形態に係る生成装置100は、取得部131と、生成部132とを有する。取得部131は、分類対象となる対象情報と、複数のユーザの各々により対象情報の各クラスに分類された割合を示す割合情報とを取得する。また、生成部132は、取得部131により取得された対象情報と割合情報とに基づいて、一の対象情報が入力された場合に、一の対象情報が各クラスに分類される割合を推定するモデルを生成する。
[6. effect〕
As described above, the
このように、実施形態に係る生成装置100は、対象情報と、複数のユーザの各々により対象情報の各クラスに分類された割合を示す割合情報とに基づいて、一の対象情報が入力された場合に、一の対象情報が各クラスに分類される割合を推定するモデルを生成することにより、対象情報の各クラスに分類される割合を適切に推定可能にすることができる。
As described above, in the
また、実施形態に係る生成装置100において、取得部131は、クラウドソーシングにおいて複数のユーザの各々により対象情報の各クラスに分類された割合を示す割合情報を取得する。
In the
このように、実施形態に係る生成装置100は、クラウドソーシングにおいて複数のユーザの各々により対象情報の各クラスに分類された割合を示す割合情報を取得することにより、対象情報の各クラスに分類される割合を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、複数のユーザの数と、対象情報の各クラスを選択したユーザの数とに基づく割合情報を取得する。
In the
このように、実施形態に係る生成装置100は、複数のユーザの数と、対象情報の各クラスを選択したユーザの数とに基づく割合情報を取得することにより、対象情報の各クラスに分類される割合を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、画像情報を含む対象情報を取得する。
In the
このように、実施形態に係る生成装置100は、画像情報を含む対象情報を取得することにより、対象情報の各クラスに分類される割合を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、文字情報を含む対象情報を取得する。
In the
このように、実施形態に係る生成装置100は、文字情報を含む対象情報を取得することにより、対象情報の各クラスに分類される割合を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、生成部132は、一の対象情報が入力された場合に、一の対象情報が各クラスに分類される割合を推定するニューラルネットワークであるモデルを生成する。
Further, in the
このように、実施形態に係る生成装置100は、一の対象情報が入力された場合に、一の対象情報が各クラスに分類される割合を推定するニューラルネットワークであるモデルを生成することにより、対象情報の各クラスに分類される割合を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、生成部132は、畳み込み処理及びプーリング処理を行うニューラルネットワークであるモデルを生成する。
In the
このように、実施形態に係る生成装置100は、畳み込み処理及びプーリング処理を行うニューラルネットワークであるモデルを生成することにより、対象情報の各クラスに分類される割合を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、推定部133を有する。推定部133は、モデルを用いて、対象情報に対する各クラスに分類される割合を推定する。
In addition, the
このように、実施形態に係る生成装置100は、モデルを用いて、対象情報に対する各クラスに分類される割合を推定することにより、対象情報の各クラスに分類される割合を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、新たな対象情報を取得する。推定部133は、新たな対象情報をモデルに入力することにより、新たな対象情報に対する各クラスに分類される割合を推定する。
In the
このように、実施形態に係る生成装置100は、新たな対象情報をモデルに入力することにより、新たな対象情報に対する各クラスに分類される割合を推定することにより、対象情報の各クラスに分類される割合を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、生成部132は、割合情報における各クラスに対応する割合間の差が所定の範囲内となる対象情報に基づいて、モデルを生成する。
In the
このように、実施形態に係る生成装置100は、割合情報における各クラスに対応する割合間の差が所定の範囲内となる対象情報に基づいて、モデルを生成することにより、対象情報の各クラスに分類される割合を適切に推定可能にすることができる。
As described above, the
〔7.ハードウェア構成〕
上述してきた実施形態に係る生成装置100は、例えば図11に示すような構成のコンピュータ1000によって実現される。図11は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[7. Hardware configuration)
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る生成装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM1(モデルデータMDT1))を実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM1(モデルデータMDT1))を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments and modifications of the present application have been described in detail with reference to the drawings. It is possible to carry out the present invention in other forms that have been modified and improved.
〔8.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[8. Others]
In addition, among the processes described in the above-described embodiments and modifications, all or a part of the processes described as being automatically performed can be manually performed, or are described as being performed manually. All or part of the processing can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments and modifications can be combined as appropriate within a range that does not contradict processing contents.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
1 生成システム
100 生成装置
121 学習データ記憶部
122 モデル情報記憶部
123 ユーザ情報記憶部
124 推定情報記憶部
130 制御部
131 取得部
132 生成部
133 推定部
134 提供部
10 端末装置
N ネットワーク
DESCRIPTION OF
Claims (14)
前記取得部により取得された前記対象情報と前記割合情報とに基づいて、一の対象情報が入力された場合に、前記一の対象情報が前記各クラスに分類される割合を推定するモデルを生成する生成部と、
を備えることを特徴とする生成装置。 An acquisition unit that acquires target information to be classified and ratio information indicating a ratio classified into each class of the target information by each of a plurality of users;
Based on the target information and the ratio information acquired by the acquisition unit, a model is generated that estimates a ratio at which the one target information is classified into each class when the one target information is input. A generator to
A generating apparatus comprising:
クラウドソーシングにおいて前記複数のユーザの各々により前記対象情報の各クラスに分類された割合を示す割合情報を取得する、
ことを特徴とする請求項1に記載の生成装置。 The acquisition unit
Obtaining ratio information indicating a ratio classified into each class of the target information by each of the plurality of users in crowdsourcing;
The generating apparatus according to claim 1, wherein:
前記複数のユーザの数と、前記対象情報の各クラスを選択したユーザの数とに基づく前記割合情報を取得する、
ことを特徴とする請求項1または請求項2に記載の生成装置。 The acquisition unit
Obtaining the ratio information based on the number of the plurality of users and the number of users who have selected each class of the target information;
The generating apparatus according to claim 1 or claim 2, wherein
画像情報を含む前記対象情報を取得する
ことを特徴とする請求項1〜3のいずれか1項に記載の生成装置。 The acquisition unit
The generation apparatus according to claim 1, wherein the target information including image information is acquired.
文字情報を含む前記対象情報を取得する
ことを特徴とする請求項1〜4のいずれか1項に記載の生成装置。 The acquisition unit
The generation apparatus according to claim 1, wherein the target information including character information is acquired.
前記一の対象情報が入力された場合に、前記一の対象情報が前記各クラスに分類される割合を推定するニューラルネットワークである前記モデルを生成する
ことを特徴とする請求項1〜5のいずれか1項に記載の生成装置。 The generator is
The said model which is a neural network which estimates the ratio by which said one target information is classified into each said class when said one target information is input is generated. The generating device according to claim 1.
畳み込み処理及びプーリング処理を行う前記ニューラルネットワークである前記モデルを生成する
ことを特徴とする請求項6に記載の生成装置。 The generator is
The generation apparatus according to claim 6, wherein the model that is the neural network that performs the convolution process and the pooling process is generated.
をさらに備えることを特徴とする請求項1〜7のいずれか1項に記載の生成装置。 Using the model, an estimation unit that estimates a ratio classified into each class with respect to target information,
The generator according to claim 1, further comprising:
新たな対象情報を取得し、
前記推定部は、
前記新たな対象情報を前記モデルに入力することにより、前記新たな対象情報に対する前記各クラスに分類される割合を推定する
ことを特徴とする請求項8に記載の生成装置。 The acquisition unit
Obtain new target information,
The estimation unit includes
The generation apparatus according to claim 8, wherein the new target information is input to the model to estimate a ratio of the new target information that is classified into each class.
前記割合情報における各クラスに対応する割合間の差が所定の範囲内となる前記対象情報に基づいて、前記モデルを生成する
ことを特徴とする請求項1〜9のいずれか1項に記載の生成装置。 The generator is
The said model is produced | generated based on the said target information from which the difference between the ratios corresponding to each class in the said ratio information becomes in a predetermined | prescribed range. The Claim 1 characterized by the above-mentioned. Generator.
分類対象となる対象情報と、複数のユーザの各々により前記対象情報の各クラスに分類された割合を示す割合情報とを取得する取得工程と、
前記取得工程により取得された前記対象情報と前記割合情報とに基づいて、一の対象情報が入力された場合に、前記一の対象情報が前記各クラスに分類される割合を推定するモデルを生成する生成工程と、
を含むことを特徴とする生成方法。 A generation method executed by a computer,
An acquisition step of acquiring target information to be classified and ratio information indicating a ratio classified into each class of the target information by each of a plurality of users;
Based on the target information and the ratio information acquired in the acquisition step, a model is generated that estimates a ratio at which the one target information is classified into each class when one target information is input. Generating process to
A generation method comprising:
前記取得手順により取得された前記対象情報と前記割合情報とに基づいて、一の対象情報が入力された場合に、前記一の対象情報が前記各クラスに分類される割合を推定するモデルを生成する生成手順と、
をコンピュータに実行させることを特徴とする生成プログラム。 An acquisition procedure for acquiring target information to be classified and ratio information indicating a ratio classified into each class of the target information by each of a plurality of users;
Based on the target information acquired by the acquisition procedure and the ratio information, when one target information is input, a model for estimating a ratio at which the one target information is classified into each class is generated Generation procedure to
A program for causing a computer to execute.
入力層と出力層とを有し、前記入力層から前記出力層までのいずれかの層であって前記出力層以外の層に属する第1要素と、前記第1要素と前記第1要素の重みとに基づいて値が算出される第2要素と、前記入力層に入力された前記対象情報に対し、前記出力層以外の各層に属する各要素を前記第1要素として、前記第1要素と前記第1要素の重みとに基づく演算を行うモデルの前記入力層に入力されることにより、演算結果を示す出力値を前記モデルの前記出力層から出力させ、前記対象情報に対応する前記正解情報と前記出力値との比較に基づく学習を行なうよう、
コンピュータを機能させるための学習データ。 Learning data including target information to be classified and correct information indicating a ratio classified into each class of the target information by each of a plurality of users,
A first element having an input layer and an output layer, the layer belonging to any layer from the input layer to the output layer other than the output layer, and weights of the first element and the first element A second element whose value is calculated based on the above and the target information input to the input layer, the elements belonging to each layer other than the output layer as the first element, the first element and the The output value indicating the calculation result is output from the output layer of the model by being input to the input layer of the model that performs the calculation based on the weight of the first element, and the correct information corresponding to the target information To perform learning based on the comparison with the output value,
Learning data to make the computer function.
出力層と、
前記入力層から前記出力層までのいずれかの層であって前記出力層以外の層に属する第1要素と、
前記第1要素と前記第1要素の重みとに基づいて値が算出される第2要素と、を含み、
前記入力層に入力された対象情報に対し、前記出力層以外の各層に属する各要素を前記第1要素として、前記第1要素と前記第1要素の重みとに基づく演算を行うことにより、前記対象情報の各クラスに分類される割合を示すスコアの値を前記出力層から出力するよう、
コンピュータを機能させるモデル。 An input layer for inputting target information to be classified;
The output layer,
A first element belonging to any layer from the input layer to the output layer other than the output layer;
A second element whose value is calculated based on the first element and a weight of the first element;
By performing an operation based on the first element and the weight of the first element with respect to the target information input to the input layer, each element belonging to each layer other than the output layer as the first element, In order to output a score value indicating the ratio classified into each class of target information from the output layer,
A model that allows computers to function.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017156462A JP6985059B2 (en) | 2017-08-14 | 2017-08-14 | Generator, generation method, and generation program |
JP2021191427A JP7198900B2 (en) | 2017-08-14 | 2021-11-25 | Generation device, generation method, and generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017156462A JP6985059B2 (en) | 2017-08-14 | 2017-08-14 | Generator, generation method, and generation program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021191427A Division JP7198900B2 (en) | 2017-08-14 | 2021-11-25 | Generation device, generation method, and generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019036087A true JP2019036087A (en) | 2019-03-07 |
JP6985059B2 JP6985059B2 (en) | 2021-12-22 |
Family
ID=65637703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017156462A Active JP6985059B2 (en) | 2017-08-14 | 2017-08-14 | Generator, generation method, and generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6985059B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021131739A1 (en) * | 2019-12-24 | 2021-07-01 | ソニーグループ株式会社 | Information processing system, information processing method, and program |
WO2023228290A1 (en) * | 2022-05-24 | 2023-11-30 | 日本電信電話株式会社 | Learning device, learning method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012194691A (en) * | 2011-03-15 | 2012-10-11 | Olympus Corp | Re-learning method and program of discriminator, image recognition device |
US20140037195A1 (en) * | 2012-08-03 | 2014-02-06 | Adobe Systems Incorporated | Image tag pair graph for image annotation |
JP2014123286A (en) * | 2012-12-21 | 2014-07-03 | Fuji Xerox Co Ltd | Document classification device and program |
JP2014160358A (en) * | 2013-02-19 | 2014-09-04 | Nippon Telegr & Teleph Corp <Ntt> | Time series data component decomposition apparatus, method and program and recording medium |
JP2015121846A (en) * | 2013-12-20 | 2015-07-02 | 日本放送協会 | Opinion type estimation device and program thereof |
JP2016033806A (en) * | 2014-05-15 | 2016-03-10 | 株式会社リコー | Image processor, image processing method and program |
US20160314149A1 (en) * | 2015-04-21 | 2016-10-27 | International Business Machines Corporation | Crowd sourced data sampling at the crowd |
-
2017
- 2017-08-14 JP JP2017156462A patent/JP6985059B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012194691A (en) * | 2011-03-15 | 2012-10-11 | Olympus Corp | Re-learning method and program of discriminator, image recognition device |
US20140037195A1 (en) * | 2012-08-03 | 2014-02-06 | Adobe Systems Incorporated | Image tag pair graph for image annotation |
JP2014123286A (en) * | 2012-12-21 | 2014-07-03 | Fuji Xerox Co Ltd | Document classification device and program |
JP2014160358A (en) * | 2013-02-19 | 2014-09-04 | Nippon Telegr & Teleph Corp <Ntt> | Time series data component decomposition apparatus, method and program and recording medium |
JP2015121846A (en) * | 2013-12-20 | 2015-07-02 | 日本放送協会 | Opinion type estimation device and program thereof |
JP2016033806A (en) * | 2014-05-15 | 2016-03-10 | 株式会社リコー | Image processor, image processing method and program |
US20160314149A1 (en) * | 2015-04-21 | 2016-10-27 | International Business Machines Corporation | Crowd sourced data sampling at the crowd |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021131739A1 (en) * | 2019-12-24 | 2021-07-01 | ソニーグループ株式会社 | Information processing system, information processing method, and program |
WO2023228290A1 (en) * | 2022-05-24 | 2023-11-30 | 日本電信電話株式会社 | Learning device, learning method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6985059B2 (en) | 2021-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9256826B2 (en) | Predicting reactions to short-text posts | |
US11657371B2 (en) | Machine-learning-based application for improving digital content delivery | |
JP5993897B2 (en) | Specific apparatus, specific method, and specific program | |
EP3547155A1 (en) | Entity representation learning for improving digital content recommendations | |
JP6823612B2 (en) | Predictors, prediction methods, and prediction programs | |
JP7348230B2 (en) | Generation device, generation method, and generation program | |
US10204090B2 (en) | Visual recognition using social links | |
CN108304935B (en) | Machine learning model training method and device and computer equipment | |
US20230115987A1 (en) | Data adjustment system, data adjustment device, data adjustment method, terminal device, and information processing apparatus | |
JP2019053409A (en) | Addition device, addition method, addition program and model | |
JP6985059B2 (en) | Generator, generation method, and generation program | |
JP6955392B2 (en) | Decision device, decision method, and decision program | |
WO2022162677A1 (en) | Distributed machine learning with new labels using heterogeneous label distribution | |
JP7198900B2 (en) | Generation device, generation method, and generation program | |
JP6587660B2 (en) | Estimation apparatus, estimation method, and estimation program | |
JP6938259B2 (en) | Generation device, generation method, and generation program | |
Kumar et al. | Analysis of GA optimized ANN for proactive context aware recommender system | |
Li et al. | Context reasoning for smart homes using case-based reasoning | |
JP6826389B2 (en) | Estimator, estimation method, and estimation program | |
JP7208286B2 (en) | Information processing device, information processing method and information processing program | |
US20230353647A1 (en) | Generation of audience group by an online system based on a multitask neural network | |
JP6742186B2 (en) | Determination device, determination method, and determination program | |
JP7315623B2 (en) | Information processing device, information processing method, and information processing program | |
US20240161466A1 (en) | Data creation apparatus, data creation method, program, and recording medium | |
Sharma et al. | A Link Prediction in Social Networks: A Fuzzy Cognitive Map Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6985059 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |