JP6664579B2 - Learning device, learning method and learning program - Google Patents
Learning device, learning method and learning program Download PDFInfo
- Publication number
- JP6664579B2 JP6664579B2 JP2014127413A JP2014127413A JP6664579B2 JP 6664579 B2 JP6664579 B2 JP 6664579B2 JP 2014127413 A JP2014127413 A JP 2014127413A JP 2014127413 A JP2014127413 A JP 2014127413A JP 6664579 B2 JP6664579 B2 JP 6664579B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- subject
- learning device
- image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000000295 complement effect Effects 0.000 description 36
- 241000282326 Felis catus Species 0.000 description 17
- 238000013500 data storage Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 230000008878 coupling Effects 0.000 description 9
- 238000010168 coupling process Methods 0.000 description 9
- 238000005859 coupling reaction Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、学習装置、学習方法及び学習プログラムに関する。 The present invention relates to a learning device, a learning method, and a learning program.
従来、ニューラルネットワークに任意の画像を入力して画像に描出された被写体や現象を学習する技術が知られている。例えば、複数の中間層を有するニューラルネットワークに学習用データを入力することで学習を行うディープラーニングの技術が知られている。 2. Description of the Related Art Conventionally, there has been known a technique of inputting an arbitrary image to a neural network and learning a subject or a phenomenon drawn in the image. For example, a deep learning technique for performing learning by inputting learning data to a neural network having a plurality of intermediate layers is known.
しかしながら、上記の従来技術では、学習器の学習を容易に行うことができるとは限らなかった。例えば、上記の従来技術では、所望の結果を出力する学習器を生成するために、大量のデータを用いて学習を行うことになる。このため、上記の従来技術では、学習用のデータを集める手間がかかる。このようなことから、上記の従来技術では、学習器の学習を容易に行うことができるとは限らなかった。 However, in the above-described conventional technology, learning by the learning device cannot always be easily performed. For example, in the above-described related art, learning is performed using a large amount of data in order to generate a learning device that outputs a desired result. For this reason, in the above-mentioned prior art, it takes time and effort to collect data for learning. For this reason, in the above-described related art, learning by the learning device cannot always be easily performed.
本願は、上記に鑑みてなされたものであって、学習器の学習を容易に行うことができる学習装置、学習方法及び学習プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object of the present invention is to provide a learning device, a learning method, and a learning program that can easily perform learning of a learning device.
本願に係る学習装置は、被写体が描出された画像を用いて、当該被写体の3次元形状を復元し、当該復元された被写体の3次元形状に基づいて、前記被写体を所定の視点以外の視点から描出した画像を生成する生成部と、前記生成部が生成した画像を用いて、前記被写体の特徴を抽出する学習器の学習を行う学習部とを備えたことを特徴とする。 The learning device according to the present application restores a three-dimensional shape of the subject using an image in which the subject is drawn, and moves the subject from a viewpoint other than a predetermined viewpoint based on the restored three-dimensional shape of the subject. The image processing apparatus further includes a generation unit that generates the drawn image, and a learning unit that learns a learning device that extracts the feature of the subject using the image generated by the generation unit.
実施形態の一態様によれば、学習器の学習を容易に行うことができるという効果を奏する。 According to an aspect of the embodiment, there is an effect that learning by a learning device can be easily performed.
以下に、本願に係る学習装置、学習方法及び学習プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法及び学習プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, a learning device, a learning method, and a mode for implementing a learning program according to the present application (hereinafter, referred to as “embodiments”) will be described in detail with reference to the drawings. Note that the learning device, the learning method, and the learning program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and overlapping description will be omitted.
〔1.学習処理〕
まず、図1を用いて、実施形態に係る学習処理の一例について説明する。図1は、実施形態に係る学習装置による学習処理の一例を示す説明図である。図1の例では、学習装置100によって入力データに対する演算結果を出力する学習器の学習を行う学習処理が行われる例を示す。
[1. Learning process)
First, an example of a learning process according to the embodiment will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating an example of a learning process performed by the learning device according to the embodiment. The example of FIG. 1 illustrates an example in which the
学習装置100は、入力データを入力した場合に所定のノードが所定の値を出力する学習器の学習を行うサーバ装置である。具体的には、学習装置100は、入力データとして画像を入力した場合に画像に描出された被写体の特徴に対応するノードが所定の値を出力するDNN(Deep Neural Network)である学習器Leの学習を行う。この点について図1を用いて詳細に説明する。
The
学習器Leは、入力データに対する演算結果を出力する複数のノード(例えば、ニューロン)を接続したDNNであって入力データの特徴に対応するノードが所定の値を出力するDNNである。具体的には、学習器Leは、入力データとして被写体が描出された画像が入力された場合に、被写体の特徴に対応するノードが所定の値を出力する。 The learning device Le is a DNN that connects a plurality of nodes (for example, neurons) that output a calculation result with respect to the input data, and a node corresponding to a feature of the input data outputs a predetermined value. Specifically, when an image in which a subject is depicted is input as input data, a node corresponding to a feature of the subject outputs a predetermined value to the learning device Le.
図1の例では、学習器Leは、入力層と、多段のノード群によって形成される中間層と、出力層とから構成される。ここで、出力層は、例えば、「猫」が描出された画像が入力された場合に出力するノードであって「猫」の特徴に対応するノードを有する。 In the example of FIG. 1, the learning device Le includes an input layer, an intermediate layer formed by a multi-stage node group, and an output layer. Here, for example, the output layer is a node that is output when an image depicting “cat” is input, and has a node corresponding to the feature of “cat”.
学習装置100は、学習器Leに入力する学習用データとして、「猫」が正面から撮影された画像P11〜P15と、「猫」が横から撮影された画像P21〜P22とを保持しているものとする。なお、図1では、学習装置100は、説明を簡単にするため7つの学習用データを保持する例を示すが、実際には学習器Leの学習を行う上で十分な数の学習用データを保持する。
The
ここで、学習装置100は、被写体が描出された画像を用いて、被写体の3次元形状を復元し、復元された被写体の3次元形状に基づいて、被写体を所定の視点以外の視点から描出した画像を生成する。具体的には、学習装置100は、まず、被写体が描出された画像を用いて、被写体の3次元形状を復元する(ステップS1)。例えば、学習装置100は、公知となっている各種の技術により被写体の3次元形状を復元する。そして、学習装置100は、復元された被写体の3次元形状に基づいて、被写体を所定の視点以外の視点から描出した画像を生成する(ステップS2)。例えば、学習装置100は、まず、学習器Leに入力する学習用データの偏りを検出する。一例としては、学習装置100は、学習用データの偏りとして、画像に描出された被写体が撮影された向きの偏りを検出する。図1の例では、学習装置100は、被写体が撮影された向きの偏りとして、被写体が横から撮影された画像が相対的に少ないことを検出する。
Here, the
その後、学習装置100は、学習用データの偏りが検出された場合に、被写体を所定の視点以外の視点から描出した画像を生成する。例えば、学習装置100は、学習用データを用いて学習用データの偏りを補完する補完データを生成する。学習装置100は、学習用データの偏りを補完する補完データがあれば学習器の学習をより高い精度で行うことができるからである。
Thereafter, when the bias of the learning data is detected, the
一例としては、学習装置100は、被写体が描出された画像のうち相対的に少ない向きから被写体が撮影された画像を補完データとして生成する。図1の例では、学習装置100は、被写体が横から撮影された画像が正面から撮影された画像と比較して少ないので、被写体が横から撮影された画像P23〜P24を補完データとして生成する。なお、図1では、学習装置100は、2つの補完データを生成する例を示すが、実際には学習器Leの学習を行う上で十分な数の補完データを生成する。
As an example, the
続いて、学習装置100は、生成した画像を用いて、被写体の特徴を抽出する学習器Leの学習を行う(ステップS3)。具体的には、学習装置100は、補完データである画像P23〜P24と、学習用データである画像P11〜P15及び画像P21〜P22とを用いて学習器Leの学習を行う。
Subsequently, the
図1の例では、学習装置100は、入力データとして画像P23〜P24と画像P11〜P15及び画像P21〜P22とを入力した場合に「猫」の特徴に対応するノードが所定の値を出力するように学習器Leの学習を行う。例えば、学習装置100は、バックプロパゲーション法や教師有り学習法といった各種の方法を用いて「猫」の特徴に対応するノードが所定の値を出力するノード間の結合係数を算出する。そして、学習装置100は、算出した結合係数を学習器Leのノード間に設定することで「猫」の特徴に対応するノードが所定の値を出力する学習器Leの学習を行う。
In the example of FIG. 1, when the
このように、実施形態に係る学習装置100は、被写体が描出された画像を用いて、当該被写体の3次元形状を復元し、当該復元された被写体の3次元形状に基づいて、前記被写体を所定の視点以外の視点から描出した画像を生成する。また、学習装置100は、生成した画像を用いて、前記被写体の特徴を抽出する学習器の学習を行う。
As described above, the
また、実施形態に係る学習装置100は、画像に描出された被写体または現象の偏りを検出する。また、学習装置100は、被写体または現象の偏りが検出された場合に、被写体を所定の視点以外の視点から描出した画像を生成する。
In addition, the
これにより、学習装置100は、学習用データの数が十分にない場合でも学習用データを増やすことができるので、学習器の学習を容易に行うことができる。例えば、学習装置100は、学習用データを用いて補完用データを生成することができるので、学習用データを集める手間を減らすことができる。また、学習装置100は、学習用データの数が十分にない場合でも学習器の学習を行うことができる。
Accordingly, the
また、学習装置100は、学習用データのうち偏りがあって相対的に少ないデータを増やすことができるので、学習器の入力データに対する出力の精度を高めることができる。例えば、学習装置100は、被写体が横から撮影された画像が正面から撮影された画像と比較して少ない場合に被写体が横から撮影された画像を生成することができるので、被写体の特徴をより高い精度で捉えた学習器の学習を行うことができる。このため、学習装置100は、学習器の認識精度を高めることができる。
In addition, the
なお、上述した例では、学習装置100は、学習用データの偏りを補完するように画像を生成したが、実施形態は、これに限定されるものではない。例えば、学習装置100は、学習用データの偏りを検出せずとも、被写体が描出された画像から3次元形状を復元し、復元した3次元形状から新たな学習用データを生成してもよい。
In the example described above, the
また、上述した例では、学習装置100は、画像に描出された被写体(例えば、猫)の3次元形状を復元し、復元した3次元形状に基づいて、学習器の画像を生成した。ここで、被写体とは、画像に描出されたオブジェクトのみならず、画像に描出された景色、背景、風景等を含むものであり、かかる景色、背景、風景の3次元形状を復元してもよい。すなわち、学習装置100は、あるオブジェクトの外側を描出した画像からかかるオブジェクトの3次元形状を復元してもよく、あるオブジェクトの内側を描出した画像から係るオブジェクトの3次元形状を復元してもよい。具体例を挙げると、学習装置100は、野球場の外側から撮影された画像を用いて野球場の3次元形状を復元してもよく、また、野球場の内側から撮影された画像を用いて、野球場の3次元形状を復元してもよい。すなわち、学習装置100は、被写体の位置と、画像を描出する際の始点の位置との関係によらず、任意の画像を用いて、被写体の3次元形状を復元することができる。
In the example described above, the
〔2.学習装置の構成〕
次に、図2を用いて、実施形態に係る学習装置100の構成について説明する。図2は、実施形態に係る学習装置100の構成例を示す図である。図2に示すように、学習装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、学習装置100は、学習装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of learning device)
Next, the configuration of the
(通信部110について)
通信部110は、例えば、NIC等によって実現される。通信部110は、ネットワークと有線又は無線で接続され、ネットワークを介して、各種のサーバ装置や端末装置との間で情報の送受信を行う。
(About the communication unit 110)
The
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、学習用データ記憶部121と、学習器情報記憶部122とを有する。
(About the storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 includes a learning
(学習用データ記憶部121について)
学習用データ記憶部121は、学習用データに関する情報を記憶する。例えば、学習用データ記憶部121は、学習用データである画像ごとに、画像に描出された被写体が撮影された方向を記憶する。ここで、図3に、実施形態に係る学習用データ記憶部121の一例を示す。図3に示すように、学習用データ記憶部121は、「データID」、「カテゴリ」といった項目を有する。
(About the learning data storage unit 121)
The learning
「データID」は、データを識別するための識別情報を示す。「カテゴリ」は、データが属する分類を示す。例えば、「カテゴリ」には、画像に描出された被写体が撮影された方向を示す。すなわち、図3では、データID「P11」に対応する画像は、被写体が「正面」から撮影された例を示している。 “Data ID” indicates identification information for identifying data. “Category” indicates the classification to which the data belongs. For example, the “category” indicates the direction in which the subject depicted in the image was photographed. That is, in FIG. 3, the image corresponding to the data ID “P11” shows an example in which the subject is photographed from “front”.
(学習器情報記憶部122について)
学習器情報記憶部122は、学習器(例えば、DNN)に関する情報を記憶する。具体的には、学習器情報記憶部122は、DNNに含まれる入力層、中間層および出力層のノードや、ノード間の結合係数に関する情報を記憶する。例えば、学習器情報記憶部122は、図1に示す学習器Leを記憶する。
(About the learning device information storage unit 122)
The learning device information storage unit 122 stores information about a learning device (for example, DNN). Specifically, the learning device information storage unit 122 stores information on nodes of the input layer, the intermediate layer, and the output layer included in the DNN, and information on coupling coefficients between the nodes. For example, the learning device information storage unit 122 stores the learning device Le illustrated in FIG.
(制御部130について)
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、学習装置100内部の記憶装置に記憶されている各種プログラム(学習プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About the control unit 130)
The control unit 130 stores various programs (corresponding to an example of a learning program) stored in a storage device inside the
制御部130は、図2に示すように、受付部131と、検出部132と、生成部133と、学習部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する学習処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
As illustrated in FIG. 2, the control unit 130 includes a reception unit 131, a detection unit 132, a
(受付部131について)
受付部131は、入力データを受け付ける。具体的には、受付部131は、入力データとして、学習器に入力する学習用データを受け付ける。例えば、受付部131は、学習用データとして、被写体が描出された画像を受け付ける。
(About the reception unit 131)
The receiving unit 131 receives input data. Specifically, the receiving unit 131 receives, as input data, learning data to be input to the learning device. For example, the receiving unit 131 receives, as learning data, an image in which a subject is drawn.
(検出部132について)
検出部132は、データの偏りを検出する。具体的には、検出部132は、学習器に入力する学習用データの偏りを検出する。例えば、検出部132は、学習器の学習を行う際に、まず、学習用データ記憶部121に記憶された学習用データを取得する。そして、検出部132は、取得した学習用データの偏りを検出する。一例としては、検出部132は、画像に描出された被写体が撮影された向きの偏りを検出する。図3の例では、検出部132は、被写体が撮影された向きの偏りとして、被写体が「横」から撮影された画像が「正面」から撮影された画像と比較して相対的に少ないことを検出する。
(About the detection unit 132)
The detection unit 132 detects a data bias. Specifically, the detecting unit 132 detects a bias of the learning data input to the learning device. For example, when performing the learning of the learning device, the detecting unit 132 first acquires the learning data stored in the learning
(生成部133について)
生成部133は、学習用データの偏りを補完する補完データを生成する。具体的には、生成部133は、被写体が描出された画像を用いて、被写体の3次元形状を復元し、復元された被写体の3次元形状に基づいて、被写体を所定の視点以外の視点から描出した画像を生成する。例えば、生成部133は、検出部132によって学習用データの偏りが検出された場合に、学習用データを用いて学習用データの偏りを補完する補完データを生成する。学習装置100は、学習用データの偏りを補完する補完データがあれば学習器の学習を高い精度で行うことができるからである。例えば、生成部133は、補完データとして、被写体が全方向から撮影された複数の画像のうち被写体が撮影された方向が少ない画像を生成する。
(About the generation unit 133)
The
この点について、図4を用いて説明する。図4は実施形態に係る補完データを説明するための説明図である。図4に示すように、生成部133は、補完データとして、被写体が撮影された複数の画像のうち被写体を撮影した方向が少ない画像を優先して生成する。例えば、生成部133は、被写体が360°全方向から撮影された画像が万遍なく揃うように補完データを生成する。そして、生成部133は、生成した補完データを学習用データ記憶部121に格納する。これにより、学習装置100は、被写体が360°全方向から撮影された画像を学習用データとして万遍なく保持することができる。
This will be described with reference to FIG. FIG. 4 is an explanatory diagram for explaining complementary data according to the embodiment. As illustrated in FIG. 4, the
図3の例では、生成部133は、被写体が「横」から撮影された画像P21〜P22が「正面」から撮影された画像P11〜P15と比較して少ないので、被写体が「横」から撮影された画像を補完データとして生成する。
In the example of FIG. 3, the
(学習部134について)
学習部134は、学習器の学習を行う。具体的には、学習部134は、生成部133が生成した画像を用いて、被写体の特徴を抽出する学習器の学習を行う。例えば、学習部134は、生成部133によって生成された補完データを用いて学習器の学習を行う。一例としては、学習部134は、まず、学習用データ記憶部121に記憶された学習用データおよび補完データを取得する。続いて、学習部134は、取得した学習用データおよび補完データを学習器に入力する。そして、学習部134は、学習器が所定の分類に対応するノードが所定の値を出力するように学習を行う。
(About the learning unit 134)
The learning unit 134 performs learning of a learning device. Specifically, the learning unit 134 learns a learning device that extracts a feature of the subject using the image generated by the
一例としては、学習部134は、バックプロパゲーション法や教師あり学習によりDNNに含まれるノード間の結合係数を算出する。そして、学習部134は、算出した結合係数を学習器に含まれるノード間に設定することで学習を行う。 As an example, the learning unit 134 calculates a coupling coefficient between nodes included in the DNN by a back propagation method or supervised learning. Then, the learning unit 134 performs learning by setting the calculated coupling coefficient between nodes included in the learning device.
その後、学習部134は、学習を行った学習器を学習器情報記憶部122に格納する。これにより、学習装置100は、被写体が全方向から撮影された画像を学習することができるので、入力データとして入力された画像に描出された被写体がどの方向から撮影されていても被写体を識別可能な学習器を生成することができる。
Thereafter, the learning unit 134 stores the learned learning device in the learning device information storage unit 122. Thereby, the
〔3.学習処理手順〕
次に、図5を用いて、実施形態に係る学習装置100による学習処理の手順について説明する。図5は、実施形態に係る学習装置100による学習処理手順を示すフローチャートである。
[3. Learning processing procedure)
Next, a procedure of a learning process performed by the
図5に示すように、学習装置100は、学習用データを取得する(ステップS101)。例えば、学習装置100は、学習用データ記憶部121から学習用データとして記憶された画像を取得する。
As shown in FIG. 5, the
続いて、学習装置100は、被写体が描出された画像を用いて、被写体の3次元形状を復元し、復元された被写体の3次元形状に基づいて、被写体を所定の視点以外の視点から描出した画像を生成する。例えば、学習装置100は、まず、学習用データの偏りを検出する(ステップS102)。一例としては、学習装置100は、画像に描出された被写体が撮影された向きの偏りを検出する。そして、学習装置100は、学習用データの偏りを検出しなかった場合には(ステップS102;No)、学習用データを用いて学習器の学習を行う(ステップS105)。そして、学習装置100は、学習を行った学習器を学習器情報記憶部122に格納する(ステップS106)。
Subsequently, the
一方、学習装置100は、学習用データの偏りを検出した場合(ステップS102;Yes)、学習用データを用いて学習用データの偏りを補完する補完データを生成する(ステップS103)。例えば、学習装置100は、補完データとして、被写体が全方向から撮影された複数の画像のうち被写体が撮影された方向が少ない画像を生成する。その後、学習装置100は、生成した補完データを学習用データ記憶部121に格納する(ステップS104)。
On the other hand, when the
その後、学習装置100は、学習器の学習を行う(ステップS105)。具体的には、学習装置100は、生成した画像を用いて、被写体の特徴を抽出する学習器の学習を行う。例えば、学習装置100は、入力データである画像に対して被写体が属する分類の特徴に対応するノードが所定の値を出力するノード間の結合係数を算出する。一例としては、学習装置100は、バックプロパゲーション法により結合係数を算出する。
Thereafter, the
そして、学習装置100は、算出した結合係数をノード間の結合係数に設定することで学習器の学習を行う。その後、学習装置100は、学習を行った学習器を学習器情報記憶部122に格納する(ステップS106)。
Then, the
〔4.変形例〕
上述した実施形態に係る学習装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の学習装置100の他の実施形態について説明する。
[4. Modification)
The
〔4−1.オプティカルフロー(1)〕
上記実施形態では、学習装置100は、検出部132によって学習用データの偏りが検出された場合に、学習用データを用いて学習用データの偏りを補完する補完データを生成する例を示した。ここで、学習装置100は、各種の形態により補完データを生成してもよい。
[4-1. Optical flow (1)]
In the above-described embodiment, an example has been described in which the
具体的には、学習装置100は、時間的に連続する複数の画像に描出された被写体の動きに基づいて画像に描出された被写体または現象を複数の視点から観測した画像を推定し、推定した画像を用いて被写体を所定の視点以外の視点から描出した画像を生成する。
Specifically, the
例えば、学習装置100は、まず、オプティカルフローの技術を用いて、時間的に連続する複数の画像に描出された被写体の動きをベクトルで表現する。一例としては、学習装置100は、連続した画像に描出された猫の足から猫の足の動きをベクトルで表現する
For example, the
そして、学習装置100は、ベクトルで表現された被写体の動きに基づいて被写体を複数の視点から観測した画像を推定する。そして、学習装置100は、推定した画像を用いて補完データを生成する。具体的には、学習装置100は、補完データとして、被写体が撮影された複数の画像のうち被写体を撮影した方向が少ない画像を優先して生成する。例えば、学習装置100は、被写体が360°全方向から撮影された画像が万遍なく揃うように補完データを生成する。そして、学習装置100は、生成した補完データを学習用データ記憶部121に格納する。
Then, the
このように、学習装置100は、時間的に連続する複数の画像に描出された被写体の動きに基づいて画像に描出された被写体または現象を複数の視点から観測した画像を推定し、推定した画像を用いて被写体を所定の視点以外の視点から描出した画像を生成する。
As described above, the
これにより、学習装置100は、複数の視点から観測した画像を補完データとして生成することができるので、学習器の学習を高い精度で行うことができる。このため、学習装置100は、学習器の認識精度を高めることができる。
Accordingly, the
また、学習装置100は、各種の画像が学習器の学習を行うのに十分な数になるように補完データを生成してもよい。この点について、図6〜図8を用いて説明する。図6〜図8は、変形例に係る補完データを説明するための説明図である。学習装置100は、図6に示すように、カメラを移動して被写体を全方向から撮影した画像が学習を行うのに十分な数になるように補完データを生成する。学習装置100は、全方向から撮影した画像が十分な数になれば学習器の精度を高めることができるからである。
Further, the
また、学習装置100は、図7に示すように、複数のカメラを用いて被写体を全方向から撮影した画像が学習を行うのに十分な数になるように補完データを生成してもよい。また、学習装置100は、図8に示すように、光源を全方向に移動して被写体を撮影した画像が学習を行うのに十分な数になるように補完データを生成してもよい。これにより、学習装置100は、各方向から光が当たった画像を万遍なく保持することができる。
Further, as illustrated in FIG. 7, the
なお、被写体が描出された画像は、図6〜図8に示すカメラの配置の例に限らず、各種の配置で被写体を撮影した画像でもよい。例えば、被写体が描出された画像は、カメラを直交三眼配置や直列配置、マトリクス配置にして被写体を撮影した画像でもよい。 The image in which the subject is depicted is not limited to the examples of the camera arrangement shown in FIGS. 6 to 8, and may be images obtained by photographing the subject in various arrangements. For example, the image in which the subject is depicted may be an image obtained by photographing the subject with the cameras arranged in an orthogonal trinocular arrangement, a serial arrangement, or a matrix arrangement.
これにより、学習装置100は、学習器の学習を行うのに必要な学習用データを万遍なく保持することができるので、学習器の精度を高めることができる。例えば、学習装置100は、被写体がどの方向から撮影された画像でも被写体を識別する学習器を生成することができる。また、学習装置100は、例えば、被写体が描出された画像がコントラストのばらつきがある画像でも被写体を識別する学習器を生成することができる。
Accordingly, the
〔4−2.オプティカルフロー(2)〕
上記変形例では、学習装置100は、オプティカルフローの技術を用いて補完データを生成する例を示した。ここで、学習装置100は、公知の技術を用いて被写体の形状を推定し、推定した形状に基づいて補完用データを生成してもよい。
[4-2. Optical flow (2)]
In the above modification, the example in which the
具体的には、学習装置100は、時間的に連続する複数の画像に描出された被写体の動きに基づいて画像に描出された被写体の形状を推定し、推定した被写体の形状に基づいて被写体を所定の視点以外の視点から描出した画像を生成する。
Specifically, the
例えば、学習装置100は、まず、オプティカルフローの技術を用いて、時間的に連続する複数の画像に描出された被写体の動きをベクトルで表現する。一例としては、学習装置100は、連続した画像に描出された猫の足から猫の足の動きをベクトルで表現する。
For example, the
そして、学習装置100は、ベクトルで表現された被写体の動きに基づいて被写体の形状を推定する。具体的には、学習装置100は、被写体が撮影された画像の差分から被写体の形状を推定する。例えば、学習装置100は、カメラを動かして被写体を撮影すると発生する被写体上の同一点の撮像位置の変化から被写体の立体形状を推定する。一例としては、学習装置100は、因子分解法やステレオ法により被写体の形状を推定する。また、学習装置100は、光源を動かして被写体を撮影すると発生する同一物体にできた影の濃淡の変化から被写体の立体形状を推定してもよい。
Then, the
また、学習装置100は、ベクトルで表現された猫の足の動きから猫の足の形状を推定してもよい。一例としては、学習装置100は、猫の足の動きから猫の足を特定し、背景を除去することで猫の足の形状を推定する。なお、学習装置100は、上述した例に限らず、公知となっている各種の技術により被写体の形状を推定してもよい。そして、学習装置100は、推定した形状から被写体を3Dモデル化する。
Further, the
その後、学習装置100は、推定した形状を用いて補完データを生成する。例えば、学習装置100は、3Dモデル化した被写体の形状を用いて被写体が描出された画像をレンダリングする。一例としては、学習装置100は、補完データとして、被写体が撮影された複数の画像のうち被写体を撮影した方向が少ない画像を優先して生成する。他の例では、学習装置100は、被写体の3Dモデルを用いて、被写体が撮影された複数の画像のうち被写体の部位が少ない画像を優先して補完データを生成する。
After that, the
このように、学習装置100は、時間的に連続する複数の画像に描出された被写体の動きに基づいて画像に描出された被写体の形状を推定し、推定した被写体の形状に基づいて被写体を所定の視点以外の視点から描出した画像を生成する。
As described above, the
これにより、学習装置100は、相対的に少ない画像を補完データとして生成することができるので、学習器の学習を高い精度で行うことができる。このため、学習装置100は、学習器の認識精度を高めることができる。また、学習装置100は、被写体の形状を3Dモデル化することができるので、例えば、被写体が撮影されていない方向から撮影した画像を補完データとして生成することができる。このため、学習装置100は、学習器の認識精度を高めることができるとともに、バリエーションに富んだ学習用データの画像を用意する手間を減らすことができる。
Accordingly, the
〔4−3.補完データ〕
上記実施形態では、学習装置100は、被写体が横から撮影された画像が正面から撮影された画像と比較して少ない場合に、被写体が横から撮影された画像を生成する例を示した。ここで、学習装置100は、各種の補完データを生成してもよい。
[4-3. Supplementary data)
In the above-described embodiment, the
具体的には、学習装置100は、撮影された被写体の部位のうち相対的に枚数が少ない部位の画像を生成する。例えば、学習装置100は、被写体の「体」が撮影された画像が「顔」が撮影された画像と比較して少ない場合に、被写体の「体」が撮影された画像を生成する。
Specifically, the
また、学習装置100は、補完データとして、学習用データを反転した画像を生成してもよい。また、学習装置100は、補完データとして、学習用データの画像の濃淡や色を変換した画像を生成してもよい。
Further, the
このように、学習装置100は、各種の補完データを生成する。これにより、学習装置100は、学習器の学習を高い精度で行うことができるので、学習器の認識精度を高めることができる。
Thus, the
また、図3の例では、説明を簡単にするため、被写体が撮影された方向を「正面」と「横」の2つのカテゴリに分類しているが、これに限らず、各種のカテゴリに分類してもよい。例えば、被写体が撮影された方向を「正面」、「右横」、「左横」、「背後」などといった細分化したカテゴリに分類してもよい。この場合、学習装置100は、画像の偏りをより厳密に検出することができるので、学習用データの偏りを高い精度で減らすことができる。このため、学習装置100は、学習器を高い精度で学習することができる。
In addition, in the example of FIG. 3, the direction in which the subject is photographed is classified into two categories of “front” and “horizontal” for the sake of simplicity. However, the present invention is not limited to this. May be. For example, the direction in which the subject was photographed may be classified into subdivided categories such as “front”, “right side”, “left side”, and “back”. In this case, since the
〔4−4.適用対象〕
上記実施形態では、学習装置100は、画像に描出された被写体の偏りを検出する例を示した。ここで、学習装置100は、画像に描出された被写体の偏りに限らず、画像に描出された現象の偏りを検出してもよい。これにより、学習装置100は、画像に描出された現象の偏りを補完する補完データを生成することができるので、バリエーションに富んだ学習を行うことができる。
[4-4. Applicable)
In the above-described embodiment, an example has been described in which the
〔4−5.DNN〕
上記実施形態では、学習装置100は、入力層、中間層および出力層によって構成される学習器を生成する例を示した。ここで、学習装置100は、各種の層に任意の数のノード群を含む学習器を生成してもよい。例えば、学習装置100は、中間層に複数のノード群が含まれる多段の学習器を生成する。また、学習器に含まれるノード群は、任意の数のノードによって構成されてもよい。
[4-5. DNN]
In the above embodiment, an example has been described in which the
〔4−6.装置構成〕
上記実施形態では、学習装置100は、学習器の学習を行う学習処理は行わず、生成部133による生成処理のみを行う学習装置であってもよい。この場合、学習装置は、少なくとも学習部134を有しない。そして、学習部134を有する学習装置が、学習装置100によって生成された補完データを用いて学習器の学習を行う。
[4-6. Device configuration〕
In the above embodiment, the
〔4−7.その他〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4-7. Others)
Of the processes described in the above embodiment, all or some of the processes described as being performed automatically can be manually performed, or all or some of the processes described as being performed manually can be performed. Some of them can be performed automatically by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the information shown.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示した検出部132および生成部133は統合されてもよい。
Each component of each device illustrated is a functional concept, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed / arbitrarily divided into arbitrary units according to various loads and usage conditions. Can be integrated and configured. For example, the detection unit 132 and the
〔4−8.ハードウェア構成〕
また、上述してきた実施形態に係る学習装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。以下、学習装置100を例に挙げて説明する。図9は、学習装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、およびメディアインターフェイス(I/F)1700を有する。
[4-8. Hardware configuration)
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網500を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを通信網500を介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る学習装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。
For example, when the
〔5.効果〕
上述してきたように、実施形態に係る学習装置100は、生成部133と、学習部134とを有する。生成部133は、被写体が描出された画像を用いて、被写体の3次元形状を復元し、復元された被写体の3次元形状に基づいて、被写体を所定の視点以外の視点から描出した画像を生成する。学習部134は、生成部133が生成した画像を用いて、被写体の特徴を抽出する学習器の学習を行う。
[5. effect〕
As described above, the
また、実施形態に係る学習装置100において、検出部132は、画像に描出された被写体または現象の偏りを検出する。生成部133は、検出部132によって被写体または現象の偏りが検出された場合に、被写体を所定の視点以外の視点から描出した画像を生成する。
In the
これにより、実施形態に係る学習装置100は、学習用データの数が十分にない場合でも学習用データを増やすことができるので、学習器の学習を容易に行うことができる。例えば、学習装置100は、学習用データを用いて補完用データを生成することができるので、学習用データを集める手間を減らすことができる。また、学習装置100は、学習用データの数が十分にない場合でも学習器の学習を行うことができる。
As a result, the
また、学習装置100は、学習用データのうち偏りがあって相対的に少ないデータを増やすことができるので、学習器の入力データに対する出力の精度を高めることができる。例えば、学習装置100は、被写体が横から撮影された画像が正面から撮影された画像と比較して少ない場合に被写体が横から撮影された画像を生成することができるので、被写体の特徴をより高い精度で捉えた学習器の学習を行うことができる。このため、学習装置100は、学習器の認識精度を高めることができる。
In addition, the
また、変形例に係る学習装置100において、生成部133は、被写体を所定の視点以外の視点から描出した画像として、被写体が撮影された複数の画像のうち被写体を撮影した方向が少ない画像を優先して生成する。
Further, in the
これにより、変形例に係る学習装置100は、学習用データのうち偏りがあって相対的に少ないデータを増やすことができるので、学習器の入力データに対する出力の精度を高めることができる。
As a result, the
また、変形例に係る学習装置100において、生成部133は、時間的に連続する複数の画像に描出された被写体の動きに基づいて画像に描出された被写体または現象を複数の視点から観測した画像を推定し、推定した画像を用いて被写体を所定の視点以外の視点から描出した画像を生成する。
In the
これにより、変形例に係る学習装置100は、学習器の学習を行うのに必要な学習用データを万遍なく保持することができるので、学習器の精度を高めることができる。例えば、学習装置100は、被写体がどの方向から撮影された画像でも被写体を識別する学習器を生成することができる。また、学習装置100は、例えば、被写体が描出された画像がコントラストのばらつきがある画像でも被写体を識別する学習器を生成することができる。
Thereby, the
また、変形例に係る学習装置100において、生成部133は、時間的に連続する複数の画像に描出された被写体の動きに基づいて画像に描出された被写体の形状を推定し、推定した被写体の形状に基づいて被写体を所定の視点以外の視点から描出した画像を生成する。
Further, in the
これにより、変形例に係る学習装置100は、相対的に少ない画像を補完データとして生成することができるので、学習器の学習を高い精度で行うことができる。このため、学習装置100は、学習器の認識精度を高めることができる。また、学習装置100は、被写体の形状を3Dモデル化することができるので、例えば、被写体が撮影されていない方向から撮影した画像を補完データとして生成することができる。このため、学習装置100は、学習器の認識精度を高めることができるとともに、バリエーションに富んだ学習用データの画像を用意する手間を減らすことができる。
Accordingly, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications, It is possible to implement the invention in other forms with improvements.
100 学習装置
121 学習用データ記憶部
122 学習器情報記憶部
131 受付部
132 検出部
133 生成部
134 学習部
REFERENCE SIGNS
Claims (3)
前記生成部が生成した画像を用いて、前記被写体の分類の特徴に対応するノードの値から画像のカテゴリ分類を行う学習器の学習を行う学習部と
を備えたことを特徴とするDNN(Deep Neural Network)の学習装置。 An image in which the shape of the subject depicted in the image is estimated based on the movement of the subject depicted in a plurality of temporally continuous images, and the subject is depicted from a plurality of viewpoints based on the estimated shape of the subject. A generation unit that generates an image in which the direction in which the subject is photographed is relatively small among a plurality of images in which the subject is photographed,
A learning unit for learning a learning device that classifies the image into categories based on node values corresponding to the characteristics of the classification of the subject using the image generated by the generation unit. Neural Network) learning device.
時間的に連続する複数の画像に描出された被写体の動きに基づいて前記画像に描出された被写体の形状を推定し、推定した被写体の形状に基づいて、前記被写体を複数の視点から描出した画像であって、前記被写体が撮影された複数の画像のうち前記被写体を撮影した方向が相対的に少ない画像を生成する生成工程と、
前記生成工程で生成した画像を用いて、前記被写体の分類の特徴に対応するノードの値から画像のカテゴリ分類を行う学習器の学習を行う学習工程と
を含んだことを特徴とするDNN(Deep Neural Network)の学習方法。 A learning method performed by the learning device,
An image in which the shape of the subject depicted in the image is estimated based on the movement of the subject depicted in a plurality of temporally continuous images, and the subject is depicted from a plurality of viewpoints based on the estimated shape of the subject. A generating step of generating an image in which the direction in which the subject is photographed is relatively small among a plurality of images in which the subject is photographed,
A learning step of learning a learning device that classifies the image into categories based on node values corresponding to the characteristics of the classification of the subject using the image generated in the generation step. Neural Network) learning method.
前記生成手順で生成した画像を用いて、前記被写体の分類の特徴に対応するノードの値から画像のカテゴリ分類を行う学習器の学習を行う学習手順と
をコンピュータに実行させるためのDNN(Deep Neural Network)の学習プログラム。 An image in which the shape of the subject depicted in the image is estimated based on the movement of the subject depicted in a plurality of temporally continuous images, and the subject is depicted from a plurality of viewpoints based on the estimated shape of the subject. A generation procedure for generating an image in which the direction in which the subject is photographed is relatively small among a plurality of images in which the subject is photographed,
(Deep Neural Network) for causing a computer to execute a learning procedure of learning a learner that performs a category classification of an image from a value of a node corresponding to the feature of the classification of the subject using the image generated in the generation procedure. Network) learning program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014127413A JP6664579B2 (en) | 2014-06-20 | 2014-06-20 | Learning device, learning method and learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014127413A JP6664579B2 (en) | 2014-06-20 | 2014-06-20 | Learning device, learning method and learning program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016006616A JP2016006616A (en) | 2016-01-14 |
JP6664579B2 true JP6664579B2 (en) | 2020-03-13 |
Family
ID=55225014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014127413A Expired - Fee Related JP6664579B2 (en) | 2014-06-20 | 2014-06-20 | Learning device, learning method and learning program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6664579B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6431495B2 (en) * | 2016-03-25 | 2018-11-28 | 本田技研工業株式会社 | Teacher data generation method |
JP2017182129A (en) * | 2016-03-28 | 2017-10-05 | ソニー株式会社 | Information processing device |
JP6770577B2 (en) * | 2016-07-29 | 2020-10-14 | 株式会社日立製作所 | Database creation system for machine learning |
JP6441980B2 (en) * | 2017-03-29 | 2018-12-19 | 三菱電機インフォメーションシステムズ株式会社 | Method, computer and program for generating teacher images |
JP6487493B2 (en) | 2017-05-18 | 2019-03-20 | ファナック株式会社 | Image processing system |
EP3660787A4 (en) * | 2017-07-25 | 2021-03-03 | Cloudminds (Shenzhen) Robotics Systems Co., Ltd. | Training data generation method and generation apparatus, and image semantics segmentation method therefor |
KR101964100B1 (en) * | 2017-10-23 | 2019-04-01 | 국민대학교산학협력단 | Object detection apparatus based on neural network learning and method of the same |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008012636A (en) * | 2006-07-07 | 2008-01-24 | Toyota Motor Corp | Personal identification system |
JP5812599B2 (en) * | 2010-02-25 | 2015-11-17 | キヤノン株式会社 | Information processing method and apparatus |
JP5795250B2 (en) * | 2011-12-08 | 2015-10-14 | Kddi株式会社 | Subject posture estimation device and video drawing device |
JP6194880B2 (en) * | 2012-03-09 | 2017-09-13 | 日本電気株式会社 | Information processing apparatus, information processing method, and recording medium |
JP5963525B2 (en) * | 2012-04-27 | 2016-08-03 | キヤノン株式会社 | Recognition device, control method thereof, control program, imaging device and display device |
-
2014
- 2014-06-20 JP JP2014127413A patent/JP6664579B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016006616A (en) | 2016-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6664579B2 (en) | Learning device, learning method and learning program | |
EP3501002B1 (en) | Fine-grained object recognition in robotic systems | |
CN108182394B (en) | Convolutional neural network training method, face recognition method and face recognition device | |
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
JP6024658B2 (en) | Object detection apparatus, object detection method, and program | |
EP3769265A1 (en) | Localisation, mapping and network training | |
TWI835907B (en) | Electronic apparatus and operating method thereof, and image processing method | |
CN110443874B (en) | Viewpoint data generation method and device based on convolutional neural network | |
JP2015197702A5 (en) | ||
JP2017538196A (en) | Product image segmentation method and apparatus | |
WO2017165332A1 (en) | 2d video analysis for 3d modeling | |
TW201436552A (en) | Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream | |
CN114556422A (en) | Joint depth prediction from dual cameras and dual pixels | |
JP2019016164A (en) | Learning data generation device, estimation device, estimation method, and computer program | |
Bochkovskii et al. | Depth pro: Sharp monocular metric depth in less than a second | |
CN110366029A (en) | Method, system and the electronic equipment of picture frame are inserted between a kind of video | |
Si et al. | Fully self-supervised depth estimation from defocus clue | |
CN110443228B (en) | Pedestrian matching method and device, electronic equipment and storage medium | |
WO2018196676A1 (en) | Non-convex optimization by gradient-accelerated simulated annealing | |
JP6359985B2 (en) | Depth estimation model generation device and depth estimation device | |
CN109978928B (en) | Binocular vision stereo matching method and system based on weighted voting | |
JP7054603B2 (en) | Judgment device, judgment method, and judgment program | |
CN107564045B (en) | Stereo matching method based on gradient domain guided filtering | |
JP2022012626A (en) | Model generation device, regression device, model generation method, and model generation program | |
JP2013061876A (en) | Information processing apparatus, control method for information processing apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170421 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171208 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20171218 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20180112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190311 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190820 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20191107 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6664579 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |