[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6236296B2 - 学習装置、学習プログラム、及び学習方法 - Google Patents

学習装置、学習プログラム、及び学習方法 Download PDF

Info

Publication number
JP6236296B2
JP6236296B2 JP2013235845A JP2013235845A JP6236296B2 JP 6236296 B2 JP6236296 B2 JP 6236296B2 JP 2013235845 A JP2013235845 A JP 2013235845A JP 2013235845 A JP2013235845 A JP 2013235845A JP 6236296 B2 JP6236296 B2 JP 6236296B2
Authority
JP
Japan
Prior art keywords
learning
layer
neural network
probing
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013235845A
Other languages
English (en)
Other versions
JP2015095215A (ja
Inventor
育郎 佐藤
育郎 佐藤
玉津 幸政
玉津  幸政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2013235845A priority Critical patent/JP6236296B2/ja
Priority to DE102014223220.1A priority patent/DE102014223220A1/de
Priority to US14/540,277 priority patent/US10354185B2/en
Publication of JP2015095215A publication Critical patent/JP2015095215A/ja
Application granted granted Critical
Publication of JP6236296B2 publication Critical patent/JP6236296B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、教師あり学習によって順伝搬型の多層ニューラルネットワークの学習を行う学習装置、学習プログラム、及び学習方法に関するものである。
教師あり学習によって得られる多層ニューラルネットワークは、識別能力が高く優れた計算モデルである。教師あり学習によって多層ニューラルネットワークの構造を決定するに際して、ある与えられた訓練データ(教師データともいう。)に対してどのような構造の多層ニューラルネットワークが高い汎化能力(学習に使用していないデータに対する識別性能)を与えるかを説明する理論はいまだ確立されておらず、従来より、汎化能力の高い多層ニューラルネットワークの構造を得るための手法として、発見的手法が採用されてきた。
例えば、X. Liang, “Removal of Hidden Neurons by Crosswise Propagation”, Neural Information Processing-Letters and Reviews, Vol. 6, No 3, 2005.(非特許文献1)では、多層ニューラルネットワークの各隠れ層のユニットを1つずつ除去することで最適なネットワーク構造を構築する方法が提案されている。この方法は、初期設定された多層ニューラルネットワーク(以下単に「初期多層ニューラルネットワーク」又は「初期ネットワーク」という。)を充分に訓練した状態で、以下の要領に従ってユニットを削減する:訓練データに対し、同じ層の異なるユニットの出力同士の相関を計算する;相関が最も高いものを1つ除去する;ユニットの除去の後、それ以外の重みの学習を再開する;再学習とユニットの除去をコスト関数が上昇に転じるまで繰り返す。なお、最初のネットワーク構造は手動で与えられる。
また、特許第3757722号公報(特許文献1)には、教師あり学習における多層ニューラルネットワークの中間層(隠れ層)のユニット数を最適化する方法が記載されている。
特許第3757722号公報
X. Liang, "Removal of Hidden Neurons by Crosswise Propagation", Neural Information Processing-Letters and Reviews, Vol. 6, No 3, 2005. Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, and L. D. Jackel, "Handwritten Digit Recognition with a Back-Paopagation Network", Advances in Neural Information Processing Systems (NIPS), pp. 396-404, 1990.
多層ニューラルネットワークの構造を決定するための上記の従来手法に共通することは、初期ネットワークを最初に訓練し、汎化能力が良くなると期待できる指標に従ってユニットを増減することで隠れ層のユニット数を自動決定する点である。即ち、従来手法は、層数を固定してユニット数を最適化するものであって、層数自体を最適化するものではない。
多層ニューラルネットワークは一般に識別性能が良いとされるが、多層になればなるほど識別に時間がかかり、従って層数は識別性能と計算量を大きく左右するパラメタである。しかしながら、上述のように、従来、層数の最適な決定方法は提案されていない。また、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)においても、フィルタ層の層数、またフィルタ層に続く全結合層の層数は、設計者によって手動で決められるのが現状であり、フィルタ層と全結合層の最適な層数の決定方法は提案されていない。
本発明は、上記の問題に鑑みてなされたものであり、多層ニューラルネットワークの層数を自動で調整できる学習装置、学習プログラム、及び学習方法を提供することを目的とする。
本発明の第1の態様の学習装置は、教師あり学習によって順伝搬型の多層ニューラルネットワークの学習を行う学習装置であって、隠れ層に、出力層に順伝搬しないプロービングニューロンを有する多層ニューラルネットワークについて、訓練データセットを用いたコスト計算による学習を行う学習部と、前記プロービングニューロンのコストに基づいて前記多層ニューラルネットワークの上層を除去して、残った最上層のプロービングニューロンを出力層とする層数調整部とを備えたことを特徴とする。
この構成によれば、層数調整部が学習部における学習に基づいて、多層ニューラルネットワークの不要な上層を除去するので、層数を無駄に多くして処理負荷及び計算に要する時間を増大させることなく、十分な汎化能力を有する多層ニューラルネットワークを取得できる。
本発明の第2の態様の学習装置は、第1の態様の学習装置において、前記層数調整部にて上層を除去された多層ニューラルネットワークについて再学習を行う再学習部をさらに備えたことを特徴とする。
この構成によれば、不要な上層を除去した後に再学習を行うので、コストをさらに低減できる。
本発明の第3の態様の学習装置は、第2の態様の学習装置において、前記層数調整部は、さらに、前記再学習部にて再学習された多層ニューラルネットワークについて、前記プロービングニューロンのコストに基づいて前記多層ニューラルネットワークの上層を除去して、残った最上層のプロービングニューロンを出力層とすることを特徴とする。
この構成によれば、再学習部による再学習の後に再度上層の除去を試み、必要に応じて上層を除去するので、さらに層数を最適化できる。
本発明の第4の態様の学習装置は、第1ないし第3のいずれかの態様の学習装置において、前記層数調整部は、コストが最小となる前記プロービングニューロンを前記出力層とすることを特徴とする。
この構成によれば、出力層のコストを最小化して、層数を最適化できる。
本発明の第5の態様の学習装置は、第3の態様の学習装置において、前記層数調整部は、前記多層ニューラルネットワークの隠れ層の最上層の前記プロービングニューロンのコストが最小でない場合に、コストが最小である前記プロービングニューロンを有する層よりも上層の少なくとも1つの前記プロービングニューロンを残して前記多層ニューラルネットワークの上層を除去することを特徴とする。
この構成によれば、層を上層側から徐々に除去していくので、複数回の再学習によって、最適な層数を決定することができる。
本発明の第6の態様の学習装置は、第1ないし第5のいずれかの態様の学習装置において、前記プロービングニューロンに接続する部分が層構造を有することを特徴とする。
この構成によれば、プロービングニューロンに接続する部分が層構造をなすことで、プロービングニューロンの識別性能を高めることができ、さらに、隠れ層の線形分離性能の最適化の制約がないので、出力層における識別性能の向上も期待できる。
本発明の第7の態様の学習装置は、教師あり学習によって順伝搬型の多層ニューラルネットワークの学習を行う学習装置であって、第1ないし第6のいずれかの態様の学習装置で学習された多層ニューラルネットワークから前記プロービングニューロンを除去した多層ニューラルネットワークを初期多層ニューラルネットワークとして使用した学習を行うことを特徴とする。
この構成によれば、識別性能の高い初期多層ニューラルネットワークを提供できる。
本発明の第8の態様の識別器は、第1ないし第6のいずれかの学習装置によって得られた多層ニューラルネットワークを用いて識別を行う識別器であって、前記プロービングニューロンによって識別を行うことで早期棄却を行うことを特徴とする。
この構成によれば、早期棄却を採用した高速な識別が可能となる。
本発明の第9の態様の識別器は、第8の態様の識別器において、前記プロービングニューロンによって出力層のいずれかのユニットに該当するか否かを判断することで前記早期棄却を行うことを特徴とする。
この構成によれば、出力層のいずれかのユニットに該当するか否かを早期に判断して、計算量を削減できる。
本発明の第10の態様の学習装置は、教師あり学習によって順伝搬型の畳み込みニューラルネットワークの学習を行う学習装置であって、隠れ層に、マップに連結するプロービングニューロンを有する畳み込みニューラルネットワークについて、訓練データセットを用いたコスト計算による学習を行う学習部と、前記プロービングニューロンのコストに基づいて前記畳み込みニューラルネットワークの上層を除去して、残った最上層のプロービングニューロンを畳み込みの出力層とする層数調整部とを備えたことを特徴とする。
この構成によれば、層数調整部が学習部における学習に基づいて、畳み込みニューラルネットワークの不要な上層を除去するので、層数を無駄に多くして処理負荷及び計算に要する時間を増大させることなく、十分な汎化能力を有する畳み込みニューラルネットワークを取得できる。
本発明の第11の態様の学習プログラムは、コンピュータを、教師あり学習によって順伝搬型の多層ニューラルネットワークの学習を行う学習装置であって、隠れ層に、出力層に順伝搬しないプロービングニューロンを有する多層ニューラルネットワークについて、訓練データセットを用いたコスト計算による学習を行う学習部と、前記プロービングニューロンのコストに基づいて前記多層ニューラルネットワークの上層を除去して、残った最上層のプロービングニューロンを出力層とする層数調整部とを備えた学習装置として機能させることを特徴とする。
この構成によっても、層数調整部が学習部における学習に基づいて、不要な上層を除去するので、層数を無駄に多くして処理負荷及び計算に要する時間を増大させることなく、十分な汎化能力を有する多層ニューラルネットワークを取得できる。
本発明の第12の態様の学習方法は、教師あり学習によって順伝搬型の多層ニューラルネットワークの学習を行う学習方法であって、隠れ層に、出力層に順伝搬しないプロービングニューロンを有する多層ニューラルネットワークについて、訓練データセットを用いたコスト計算による学習を行う学習ステップと、前記プロービングニューロンのコストに基づいて前記多層ニューラルネットワークの上層を除去して、残った最上層のプロービングニューロンを出力層とする層数最適化ステップとを含むことを特徴とする。
この構成によっても、学習ステップにおける学習に基づいて、層数最適化ステップにて不要な上層を除去するので、層数を無駄に多くして処理負荷及び計算に要する時間を増大させることなく、十分な汎化能力を有する多層ニューラルネットワークを取得できる。
本発明によれば、層数調整部が学習部における学習に基づいて、不要な上層を除去するので、層数を無駄に多くして処理負荷及び計算に要する時間を増大させることなく、十分な汎化能力を有する多層ニューラルネットワークを取得できる。
本発明の実施の形態における多層ニューラルネットワーク学習装置の構成を示すブロック図 本発明の実施の形態における初期多層ニューラルネットワークの構成を示す図 従来の多層ニューラルネットワークの構造を示す図 本発明の実施の形態における初期多層ニューラルネットワークの構造を示す図 本発明の実施の形態における層数と学習終了時のテストコストとの関係を示す図 本発明の実施の形態における層を除去した後の多層ニューラルネットワークを示す図 本発明の実施の形態における再学習部による処理を説明する図 本発明の実施の形態における多層ニューラルネットワーク学習装置による学習方法のフロー図 本発明の実施の形態の変形例1における多層ニューラルネットワーク学習装置におけるPDNN学習方法のフロー図 本発明の実施の形態の変形例2における多層ニューラルネットワークの構造を示す図 本発明の実施の形態の応用例1における多層ニューラルネットワーク学習装置の構成を示すブロック図 本発明の実施の形態におけるファインチューニングされた多層ニューラルネットワークからプロービングニューロンを除去した多層ニューラルネットワークのコストを示す図 本発明の実施の形態の応用例2における車載カメラを使って歩行者を検知する例を示す図 本発明の実施の形態の応用例2における早期棄却の処理を説明する図 本発明の実施の形態に応用例3における早期棄却の処理を説明する図 本発明の実施の形態の応用例4で用いる手書き数字のデータセットを示す図 本発明の実施の形態の応用例4における多層ニューラルネットワークの構造を示す図 従来の学習によって得られた多層ニューラルネットワークの構造を示す図 図16のデータセットを用いてテストをした結果を示すグラフ 従来の畳み込みニューラルネットワークの構造を示す図 本発明の実施の形態の応用例6における畳み込みニューラルネットワークの構造を示す図
以下、本発明の実施の形態の多層ニューラルネットワーク学習装置について、図面を参照しながら説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。
図1は、本実施の形態の多層ニューラルネットワーク学習装置の構成を示すブロック図である。本実施の形態の多層ニューラルネットワーク学習装置は、後述するようにプロービングニューロンが追加された多層ニューラルネットワークの学習装置であり、以下では、プロービングニューロンが追加された多層ニューラルネットワークをプローブド深層ニューラルネットワーク(PDNN:Probed Deep Neural Network)と呼び、その学習装置をPDNN学習装置と呼ぶこととする。また、以下では、多層ニューラルネットワークを単に「ネットワーク」ともいう。
PDNN学習装置100は、教師データ記憶部11と、学習部12と、層数調整部13と、再学習部14とを備えている。PDNN学習装置100は、補助記憶装置(HDD、SSD等)、主記憶装置(RAM等)、処理装置(CPU等)、入出力装置(各種入出力ポート及び通信モジュール)等を備えたコンピュータによって実現される。特に、教師データ記憶部11は、補助記憶装置によって実現され、学習部12、層数調整部13、及び再学習部14は、コンピュータが本実施の形態の学習プログラムを実行することによって実現される。
学習部12は、与えられた初期多層ニューラルネットワークについてコストを計算することで学習を行う。層数調整部13は、学習部12にて計算された初期多層ニューラルネットワークのコストに基づいて、初期多層ニューラルネットワークの上層を除去することで、多層ニューラルネットワークの層数を調整して最適化する。再学習部14は、層数調整部13にて層数が最適化された多層ニューラルネットワークについて再学習を行って、多層ニューラルネットワークをチューニングする。層数調整部13は、さらに、再学習部14で調整された多層ニューラルネットワークについても、必要に応じて上層の除去を行うことで、再度層数を調整して最適化する。
教師データ記憶部11には、教師データとして、ネットワークの入力となる多次元ベクトルと、それに対応した、ネットワークの出力となるターゲット値(多次元ベクトルまたはスカラー)の組が多数記憶されている。教師データは、ネットワークを学習するために使用される訓練データセット111と、学習されたネットワークを評価するために使用されるテストデータセット112に分割されて教師データ記憶部11に記憶されている。
PDNN学習装置100の各部における処理の説明の前に、まず、本発明の実施の形態において対象とする多層ニューラルネットワークの種類について説明する。本実施の形態の多層ニューラルネットワークは、層を跨いだユニット間の結合はないものとする。また、ある層の全ユニットと、その次の層の全ユニットとは、全てが結合していてもよいし、一部が結合していなくてもよい。対象とするネットワークは、入力層から出力層まで順番に信号が伝搬する順伝搬(フィードフォワード)型とする。
図2は、従来の多層ニューラルネットワークとの比較において、本実施の形態の初期多層ニューラルネットワークの構成を示す図である。図2の上段が本実施の形態の初期多層ニューラルネットワークの一例であり、下段が従来の多層ニューラルネットワークである。図2に示すように、本実施の形態の初期多層ニューラルネットワークは、従来の多層ニューラルネットワークに、プロービングニューロン(PN:Probing Neuron)というユニットを追加したネットワーク構造を有する。PNは、ターゲット値に近づくように学習された、隠れ層に属するユニットである。
以下では、まず、従来の多層ニューラルネットワークの学習方法を説明し、次いで本実施の形態のPDNN学習装置100によるPDNNの学習方法を説明する。図3は、従来の多層ニューラルネットワークの構造を示す図である。図3において、層数Lと各層のユニット数Dl(l=1,2,…,L)はあらかじめ与えられているものとする。第n(n=1,2,…,N)番目の入力ベクトルを下式(1)、式(2)のように定義する。
Figure 0006236296
Figure 0006236296
すべてのl=1,2,…,Lに対して、下式(3)〜(7)の変数を定める。
Figure 0006236296
Figure 0006236296
Figure 0006236296
Figure 0006236296
Figure 0006236296
なお、hは単調増加かつ微分可能な非線形活性関数である。
最適化問題として、下式(8)を最小化する
Figure 0006236296
を求める。
Figure 0006236296
ここで、
Figure 0006236296
であり、tnは、次元DLの既知の正解出力ベクトル(スカラー)である。なお、Enは、真値との差の二乗の総和の他、クロスエントロピーを採用することもできる。
学習は、出力層に近い重みから順に勾配法による更新を繰り返す誤差逆伝搬法を用いる。なお、この時の初期値は乱数によって与えられる。勾配法は下式(9)で表現される。
Figure 0006236296
勾配法で使用する微分の計算方法は以下のとおりである。なお、以下の式において下付きのi、j、kは、ベクトルや行列のインデクスである。
まず、最終の重み層の微分は、下式(10)〜(12)の計算で求められる。
Figure 0006236296
Figure 0006236296
l=D−1,D−2,…,1の重み層の微分は、下式(13)〜(16)の計算で求められる。
Figure 0006236296
Figure 0006236296
次に、本実施の形態のPDNNの学習方法を説明する。PDNNの学習方法では、まず、充分な層数を持ったPDNNが初期ネットワークとして設定される。そして、PDNN学習装置100は、以下の手順によって最適な層数を決定する。
図4は、PDNNの初期ネットワークの構造を示す図である。層数Lと各層のユニット数Dl=(l=1,2,…,L)はあらかじめ与えられるものとする。また、各隠れ層に置かれるPNの個数は出力ユニット数と同数である。訓練データセット111の第n(n=1,2,…,N)番目の入力ベクトルを下式(17)、(18)のように定義する。
Figure 0006236296
Figure 0006236296
l=1に対して、下式(19)〜(23)の変数を定める。
Figure 0006236296
Figure 0006236296
Figure 0006236296
Figure 0006236296
Figure 0006236296
また、l=2,3,…,L−1に対して、下式(24)〜(28)の変数を定める。
Figure 0006236296
Figure 0006236296
Figure 0006236296
Figure 0006236296
Figure 0006236296
最終層(l=L)の変数は次のように定める。
Figure 0006236296
Figure 0006236296
Figure 0006236296
Figure 0006236296
学習部12は、最適化問題として、下式(33)を最小化する
Figure 0006236296
を求める。
Figure 0006236296
Figure 0006236296
ここで、式(33)の右辺の第1項は出力層(第L層)のコストであり、右辺第2項は第L−1層のPNコストであり、右辺第3項は第L−2層のPNコストであり、右辺の最終項は第2層のPNコストである。
なお、隠れ層においては、PNと真値との差の二乗の総和をPNコストとして採用してよく、出力層においては通常のニューラルネットワークと同じであり、二乗和の代わりにクロスエントロピーをコストとして採用してもよい。
以下では、下式(37)、(38)のように標記を簡略化する。
Figure 0006236296
Figure 0006236296
学習は、通常のニューラルネットワークと同様に、勾配法による重みの更新則を適用して行う。まず、最終Lの重み層の微分は、下式(39)〜(41)の計算で求められる。
Figure 0006236296
Figure 0006236296
また、最終の1つ前の重み層(第L−1層)の微分は、l=L−1とおくと、下式(42)〜(48)の計算で求められる。
Figure 0006236296
Figure 0006236296
Figure 0006236296
Figure 0006236296
ここで、式(41)はPNに直結する重みについての微分であり、式(45)はPNに直結しない重みについての微分である。
最終の2つ前の重み層(第L−2層)の微分は、l=L−2とおくと、下式(49)〜(55)の計算で求められる。
Figure 0006236296
Figure 0006236296
Figure 0006236296
Figure 0006236296
以上の導出より、l=L−1,L−2,…,2においては、以下の通り更新則を一般化できる。
Figure 0006236296
Figure 0006236296
そして、l=1のときは、以下のとおりとすればよい。
Figure 0006236296
次に、層数調整部13の処理について説明する。上記のようにして学習部12において、学習によってコストEを最小化する
Figure 0006236296
が求まると、層数調整部13は、そのコストEに基づいて、ネットワークの上層を除去する。
図5は、層数と学習終了時のテストコストとの関係を示す図である。図5におけるテストコストとは、テストデータセット112を用いて式(33)を計算した場合のPNのコストEのことであり、この値は小さい方が望ましい。図5の例では、簡単のため、出力層のユニット数及び各隠れ層のPNは1つとしている。
学習部12における学習にて得られたネットワークのPNは、そのそれぞれがターゲット値に近づくように学習されているため、出力層のユニットと同じように、識別器と考えることができる。学習部12にて初期ネットワークを学習することで、図5のように各PNのコストの値を得ることができる。テストデータに対して層数が多すぎればPNは過学習を起こし、層数が少なすぎればPNは十分な弁別能力を持たなくなる。よって、PNのコストが最小値を取る層が最良の層である。図5の例では、第7層において、PNのコストが最小値をとなっている。
層数調整部13は、重み層の数をカウントする。PNコストが最小(最良)である層の後段の層は、全体の識別性能を向上させないため、計算不要である。従って、層数調整部13は、図5の点線で囲まれた部分をネットワークから除去する。即ち、層数調整部13は、コストが最小であるPNより上層のPNは除去し、除去されるPNに連結している重み(PNの前段の全ての重み)も除去する。
図6は、層を除去した後のネットワークを示す図である。図6に示すように、第7層のPNが出力層のユニットとされる。なお、不要な上層をネットワークから除去することは、残ったネットワークの信号を一切変化させないため、PNのコストもまた変化しない。このことは、層数調整部13による不要な上層の除去が、識別性能を一切劣化させないことを意味している。
次に、再学習部14における処理について説明する。再学習部14は、層数調整部にて上層を除去されたネットワークについて再度上記で説明した学習(ファインチューニング)を行う。図7は、再学習部14による処理を説明する図である。層数調整部13にて不要な層が除去されたネットワークは、さらなる学習によってコストを低減させることが可能である。ここでの学習は、現在保持している重みの値から、誤差逆伝搬法による更新を行うことを意味している。不要な層が除去されたネットワークは、もはや上層からの誤差の逆伝搬がないため、更新量は変化し、コストをさらに低減させることができる。
再学習の結果得られるネットワークとその重みは、初期ネットワークの学習結果と比べて高い汎化能力を持つことが多い。その理由は、各隠れ層にPNを配置し、各隠れ層の線形分離性能を最適化することで、隠れ層の信号がデータの弁別のために必要以上に複雑な表現を持つことを回避し、訓練データへの過剰な適合を防いでいるためと考えられる。
再学習部14は、再学習を行って、そのコストを計算する。そうすると、コストは低減するが、このとき最上層(出力層)のコストが最低になるとは限らない。例えば、再学習の結果、最上層の1つ前の層でコストが最低となることもあり得る。そこで、層数調整部13は、再学習後に最上層にてコストが最低となっていない場合には、コストが最低となっている層より上層の層を除去する。
再学習部14は、層数調整部13にて上層が除去された場合には、さらにそのようなネットワークについて、再学習を行う。このような層数調整部13による不要な層の除去と再学習部14による再学習は、不要な層が出現しなくなるまで繰り返される。不要な層が出現しなくなると、PDNN学習装置100は、そのPDNNを最終的な結果として出力する。
図8は、本実施の形態のPDNN学習装置によるPDNN学習方法のフロー図である。まず、学習部12は、初期ネットワークについてコスト計算による学習を行う(ステップS81)。次に、層数調整部13は、コストが最小である層より上層の層を除去して、残った最上層のPN、即ちコストが最小となるPNを出力層とする(ステップS82)。次に、再学習部14は、残った層からなるネットワークについて再学習を行う(ステップS83)。
層最適化部13は、再学習を行った結果、依然として最上層のコストが最小であるかを判断する(ステップS84)。最上層のコストが最小でない場合には(ステップS84にてNO)、コストが最小である層より上層の層を除去し(ステップS82)、再学習部14はそのようなネットワークについて再学習を行う(ステップS83)。ステップS82〜S84を繰り返して、ステップS84にて最上層のコストが最小となったときは(ステップS84にてYEE)、その結果を出力する(ステップS85)。
以上のように、本実施の形態のPDNN学習装置100によれば、層数調整部13が学習部12における学習に基づいて、PDNNの不要な上層を除去するので、層数を無駄に多くして処理負荷及び計算に要する時間を増大させることなく、十分な汎化能力を有する多層ニューラルネットワークを取得できる。
また、本実施の形態のPDNN装置100によれば、PDNNの不要な上層を除去した後に再学習によってコストを低減するための学習を行うので、コストをより低減できる。さらに、再学習の後に再度上層の除去を試み、可能な場合に上層を除去し、さらに再学習を行い、これを上層の除去が有効である限り繰り返すので、さらにコストを低減して汎化能力の高いネットワークを構成できる。
以下、上記の実施の形態に対する変形例を説明する。
(変形例1)
上記の実施の形態では、層数調整部13は、学習部12にて学習の結果計算されたコストが最小になる層数を残して上層のユニットを除去した。しかしながら、再学習部14による再学習の結果、残った層のうちの最上層(図5の第7層)よりも上層の層でコストが最小になる可能性がある。そこで、本変形例のPDNN学習装置では、層数調整部13は、最上層(出力層)のコストが最小でない場合に、学習部12にて学習の結果計算されたコストが最小となる層より上のすべての層を直ちに除去するのではなく、コストが最小であるPNを有する層よりも上層の少なくともの1つのPNを残して上層を除去する。具体的には、層数調整部13は、最上層のコストが最小でない場合に、最上層から1層ずつ除去していく。
層数調整部13が最上層を1層除去すると、再学習部14は、最上層が除去されたネットワークについて再学習を行い、そのコストを計算する。その結果、最上層のコストが最小となっていない場合には、層数調整部13は、さらに最上層を1層除去し、再学習部14は、そのようなネットワークについて再学習を行う。このようにして、最上層のコストが最小となるまで、最上層の除去及び再学習が繰り返される。
上記のように、本変形例では、層数調整部13は、学習及びコスト計算によって不要と判断された層を直ちにすべて除去するのではなく、最上層から1層ずつ除去し、層が1層除去されるごとに、再学習部14にて再学習を行う。
図9は、変形例のPDNN学習装置におけるPDNN学習方法のフロー図である。まず、学習部12は、上記の実施の形態と同様に、初期ネットワークについてコスト計算による学習を行う(ステップS91)。次に、層数調整部13は、コスト計算の結果、最上層においてコストが最小となっているか否かを判断し(ステップS92)、最上層においてコストが最小となっていない場合には(ステップS92にてNO)、最上層を除去する(ステップS93)。最上層が除去されると、再学習部14は、そのようなネットワークについて再学習を行い、コストを計算する(ステップS94)。
層数調整部13は、再学習部14で再学習が行われた結果について、再び、最上層においてコストが最小となっているか否かを判断し(ステップS92)、最上層においてコストが最小となるまでステップS92〜S94を繰り返す。ステップS92において、最上層においてコストが最小となった場合には(ステップS92にてYES)、そのネットワークを出力する(ステップS95)。
即ち、層数調整部13は、最上層のPNのコスト(図5の例の場合は第9層のコスト)が最小でない場合に、コストが最小であるPNを有する層(図5の例の場合は第7層)よりも上層の少なくともの1つのPN(図5の例の場合は第8層のPN)を残して上層(図5の例の場合は、第8層のPN以外のユニット及び第9層)を除去する。このように、本変形例によれば、層を1層ずつ除去していくので、複数回の再学習によって、最適な層数を決定することができる。
(変形例2)
次に、変形例2として、出力層に順伝搬しない部分が層構造を持つ場合を説明する。図10は、本変形例のネットワーク構造を示す図である。図10に示すように、各層のユニット数は3であるが、この3ユニットから直ちにPNを得るのではなく、PNを得る前に、さらに複数のニューロンを経て、それらのニューロンからPNを算出する。
本変形例においても、上記の実施の形態と同様に、PNの識別性能によって層数を減らすことが可能である。また、PNに接続する部分が層構造をなすことで、PNの識別性能を高めることができると考えられる。さらに、本変形例では、各隠れ層の線形分離性能の最適化の制約がないので、出力層における識別性能の向上も期待できる。
以下、本実施の形態及びその変形例のPDNN学習装置の応用例を説明する。
(応用例1)
図11は、応用例1の多層ニューラルネットワーク学習装置の構成を示すブロック図である。多層ニューラルネットワーク学習装置200は、上記の実施の形態のPDNN学習装置100と、PNのない通常の多層ニューラルネットワークの学習部101を備えている。学習部101は、従来と同様の学習方法によって多層ニューラルネットワークの学習を行う。PDNN学習装置100は、この学習部101に対して、PDNNの学習の結果(除去の後に残った重みの値)を初期値として与える。
PDNNは、各隠れ層の線形分離性能が最適化されているため、過度に非線形な内部表現を生成しない利点がある。一方、PNのないネットワークと比較して、PNのあるネットワークでは、各ユニットの役割が大きく異なる。即ち、PNのないネットワークにおいて、あるユニットは、出力層において最高の性能となるように信号を調整するのに対し、PNのあるネットワークにおいて、あるユニットは、それ以降すべての層において良い識別性能を与えるように調整される。この強い制約により、PDNNの出力層の識別性能は制限を蒙っている可能性がある。
PDNN学習装置100は、上記の実施の形態のとおり、PDNNの学習、不要な層の除去、及び再学習を行い、不要な層が出現しなくなるまで上層の除去と再学習を繰り返す。この時の重みを保持したまま、出力ユニットへ順伝搬しないすべてのユニットと重み(図1においてはPNと、PNに連結する重み)をネットワークから除去して、このネットワークを学習部101の初期ネットワークとして出力する。学習部101は、通常のニューラルネットワークの学習を行う。
(応用例2)
本応用例では、上記の実施の形態又はその変形例によって学習されたPDNNを用いた識別器について説明する。適切に学習されたPDNNによって早期棄却を使った高速な識別が可能である。本応用例の識別器は、PDNNを利用して早期棄却を行う。本応用例では、早期棄却の考え方を画像による歩行者検知を例にとって説明する。
図13は、車載カメラを使って歩行者を検知する例を示す図である。識別器は、図13に示すように、画像に対し識別器のウィンドウをスキャンすることで領域を網羅的に識別する(ターゲットであるかないかを判定する)。図13の例のように、ウィンドウによって囲まれる領域の大半が背景である場合、例えば空や路面といった明らかに歩行者ではない部分の識別が高速化されれば、画像全体の識別が非常に高速化されることになる。このようにターゲットではないエリアにおける判定を少ない演算量で棄却することを早期棄却という。また、ターゲットかそうでないかの判定が難しい領域は、より演算量を費やした方法により、より信頼性の高い識別を行う。このことにより、全体として高い識別性能を保持することが可能である。
図14は、PNを利用した早期棄却の処理を説明する図である。適切に学習されたPDNNは、各PNが識別器の役割を持つため、早期棄却が可能である。最初のPNの値が計算された時点で、背景であるスコアが十分高ければ(PNの出力がある閾値以下又はある閾値以上であれば)、その時点で識別結果を「背景」とし、その層より上層の計算を棄却する。このルールを全ての隠れ層のPNに適用することで、段階的な棄却が可能となる。
具体的には、識別器は、各隠れ層のPNを算出するたびに、それが閾値以下となっているか否かを判断し、閾値以下となっている場合は、直ちに歩行者なしと識別する。閾値以下となっていない場合には、次の層の計算を行う。ウィンドウの大半にターゲットが存在しない場合には、どれほど層の多いPDNNであっても、早期棄却が行われることにより、実際の計算時間はそれよりはるかに少ない層を持った多層ニューラルネットワーク相当となる。
(応用例3)
応用例3は、応用例2の変形例である。本応用例では、出力層のユニット及び各層のPNに異なる種類のターゲット値を近似させることにより、早期棄却を行う。図15は、本応用例の早期棄却の処理を示す図である。以下、例として、車載カメラ画像からの標識認識の問題に対し、図15のPDNNの適用を考える。
PNに対してはある画像パッチの中に標識があるか・ないかの二値分類を学習させることとする。標識はいかなる種類でもよいこととする。一方、出力層においては、止まれの標識があるか・ないかの二値分類を行うユニット、駐車禁止の標識があるか・ないかの二値分類を行うユニット、といった具合に、それぞれ固有の標識を認識できるように学習させたユニットを配置する。
このネットワークを使えば、低層においては、標識のある・なしの二値分類のみを行うこととなり、全ての種類の標識の認識を網羅的に行うよりはるかに低い演算量で棄却が可能である。実際に画像パッチに標識がある場合においては、出力層において網羅的な識別を行うことができるため、種類の認識を的確に行うことができる。なお、各PNにおける早期棄却のための閾値は、画像全体の計算時間と識別性能のバランスを取りながらチューニングして決定する。
なお、本応用例の識別器のためにPDNN学習装置100にて学習を行う場合には、各隠れ層は、とまれ、駐車禁止、徐行等の出力層のすべてに対応したPNを有することになる。これらのPNのすべてを識別器においても早期棄却のためのニューロンとして利用してよい。こうすることで、隠れ層の各層において、とまれ、駐車禁止、徐行、…等の標識の有無を判断して早期棄却を行うことができる。
さらに、隠れ層の下層で早期棄却ができる可能性が低い場合には、隠れ層のうちの途中の層から早期棄却のためのニューロンを用意してもよい。これによって、早期棄却のための効率の低い演算に演算資源および時間を割くことを回避することができる。
(応用例4)
本応用例では、PDNN学習装置100で学習されたPDNNを用いて手書き数字を識別する識別器を説明する。図16は、手書き数字のデータセットを示す。各数字は、28×28画素のグレイスケールであり、正解は0〜9までの10種類ある。図17は、PDNNのネットワーク構造を示す図であり、図18は、PNなしの従来の学習によって得られた多層ニューラルネットワークの構造を示す図である。
本応用例の識別器で用いるPDNNの各層のユニット数は100であり、出力層は上述のように10種類である。隠れ層には10個のPNが用意されており、各層において、早期棄却の判定が行われる。入力データとしては、28×28の画素の白黒に対応するバイナリコードが入力される。
図19は、PNを用いて学習をしたネットワーク(「with probing neuron (no fine tuning)」)、PNを用いて学習をし、さらにファインチューニングを行ったネットワーク(「with probing neuron (fine tuning)」)、及び図18に示すようにPNなしで学習を行ったネットワーク(「without probing neuron」)のそれぞれについて、図16のデータセットを用いてテストをした結果を示すグラフである。図19は、層数に対するコストを示している。ここで、コストとしては、クロスエントロピーを用いている。図19に示すように、第3層以降は、PNなしの場合と比較して、PNありの学習のほうがコストが低く、ファインチューニングを行った場合にはさらにコストが低減されている。
(応用例6)
本応用例では、上記の実施の形態のPDNN学習装置100を畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の学習装置として応用する例を説明する。
まず、CNNについて説明する。CNNについては、例えば、Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, and L. D. Jackel, "Handwritten Digit Recognition with a Back-Paopagation Network", Advances in Neural Information Processing Systems (NIPS), pp. 396-404, 1990.(非特許文献2)にCNNを使った画像認識手法が記載されている。
CNNの学習において使用するデータについて説明する。教師データとして、ネットワークの入力となる2次元配列の画像と、それに対応した、ネットワークの出力となるターゲット値(多次元ベクトルまたはスカラー)の組が多数与えられているものとする。入力となる2次元配列の画像は,グレイスケールであってもよいし、またRGBなどの要素を持つカラー画像であってもよい。カラー画像の場合であれば、入力は3つの2次元配列となる。上記の実施の形態と同様に、教師データは、ネットワークを学習するために使用される訓練データセットと、学習されたネットワークを評価するテストデータセットに分割しておくものとする。
図20は、CNNの典型的なネットワーク構造を示す図である。まず、入力画像に対しフィルタによる畳み込み(convolution)と、画像の解像度を下げる操作であるプーリング(pooling)が施される。この畳み込みとプーリングを数回繰り返し、十分に解像度が小さくなった段階で、各ピクセルを入力ユニットとする順伝搬型の多層ニューラルネットワークに結合される。なお、図20では隠れ層の図示を省略している。
図20中の網掛けされた要素はフィルタであり、フィルタとはn(ピクセル)×n(ピクセル)の要素を持つ重みである。なお、このフィルタには、バイアスを加えてもよい。このCNNを誤差逆伝搬法により学習することで、局所的な歪みに頑健でありかつ識別に有効な特徴を抽出できるようになる。畳み込み演算された値は、シグモイド関数などの活性化関数(activation function)によって、非線形写像が行われる(図示は省略)。こうして得られた信号は、入力と同様に2次元配列で記述できる。
次の演算は、プーリング(pooling)である。典型的なプーリングは、上述の二次元配列を2×2のグリッドに分割し、各グリッドの4つの信号の最大値を取る処理である。この処理により、上述の二次元配列はその4分の1のサイズに縮小される。プーリングにより画像の位置に関する特徴を失わずに情報を圧縮することが可能となる。プーリングの結果得られた2次元配列をマップ(map)と呼ぶ。マップの集まりが畳み込みニューラルネットワークにおいて1つの隠れ層を形成する。
上記の例とは異なるプーリングも可能である。例えば、プーリングとして、2×2のグリッドから最大値を抽出する最大値プーリング(max pooling)、グリッドのある1つの要素(例えば(1,1)要素)だけを取り出すサブサンプリング(subsampling)等を採用してもよい。また、グリッドをオーバーラップするようにしてもよい。いずれにしても、畳み込みされた2次元配列を縮小させる点は同じである。
なお、畳み込みとプーリング(convolution+pooling)は、通常複数回反復する。図20の例では二重であるがそれ以上の繰り返し回数であってもよい。畳み込みとプーリングを反復させて情報を充分に圧縮した後、(畳み込みではない)通常のニューラルネットワークを適用する。
図20の例では、畳み込みとプーリングを2度行った結果得られる2次元配列の各要素を1つのユニットとして、通常のニューラルネットワークが連結されている。この通常のニューラルネットワークは多層であってよい。
以上のように、CNNは順伝搬型の多層ニューラルネットワークの一種である。即ち、ある層の信号は、その1つ前の層の信号と両者の間の重みの関数であり、また、この関数は微分が可能である。従って、CNNには誤差逆伝搬法が適用可能である。そこで、本応用例では、上記の実施の形態と同様にCNNにPNを導入する。以下、PNが導入されたCNNを、プローブド畳み込みニューラルネットワーク(PCNN:Probed Convolutional Neural Network)といい、その学習装置をPCNN学習装置という。PCNNは、ターゲット値に近づくように学習されたユニットを各隠れ層に持つCNNである。
図21は、PCNNのネットワーク構造を示す図である。図21に示すように、PCNNでは、マップに対してPNを連結する。マップから連結されるPNは、マップのすべての画素と連結していてもよいし、縦横1画素おきの結合を有していてもよい。
PCNN学習装置は、上記の実施の形態のPDNN学習装置100と同様に、教師データ記憶部11、学習部12、層数調整部13、及び再学習部14を備え、拡張された誤差逆伝搬法により学習を行う。さらに、PCNN学習装置の層数調整部13は、PDNN学習装置100と同様に、全結合された層のうち、不要な上層を特定してネットワークから除去する。PCNN学習装置は、複数の畳み込み(+プーリング)層において、第n層のPNの識別性能が第n−1層のPNの識別性能を上回らなかった場合は、第n層の畳み込み(+プーリング)層を除去したネットワークを生成し、第n層以降の重みを乱数によって初期化してPCNNの学習を繰り返してもよい。
また、PCNN学習装置の再学習部14は、PDNN学習装置100と同様に、除去されたネットワークを再学習する。これによってコストをさらに低減させることができる。また、PNを持たないCNNの良い初期値を与える方法として、PCNN学習装置で学習されたPCNNを利用することも可能である。さらに、PCNNも上記の応用例と同様に、識別器において早期棄却による高速な検出が可能である。
以上のように、本発明は、層数調整部が学習部における学習に基づいて、不要な上層を除去するので、層数を無駄に多くして処理負荷及び計算に要する時間を増大させることなく、十分な汎化能力を有する多層ニューラルネットワークを取得できるという効果を有し、教師あり学習によって順伝搬型の多層ニューラルネットワークの学習を行う学習装置等として有用である。
100 PDNN学習装置(多層ニューラルネットワーク学習装置)
11 教師データ記憶部
12 学習部
13 層数調整部
14 再学習部
101 学習部
200 多層ニューラルネットワーク学習装置

Claims (12)

  1. 教師あり学習によって順伝搬型の多層ニューラルネットワークの学習を行う学習装置であって、
    隠れ層に、出力層に順伝搬しないプロービングニューロンを有する多層ニューラルネットワークについて、訓練データセットを用いたコスト計算による学習を行う学習部と、
    前記プロービングニューロンのコストに基づいて前記多層ニューラルネットワークの上層を除去して、残った最上層のプロービングニューロンを出力層とする層数調整部と、
    を備えたことを特徴とする学習装置。
  2. 前記層数調整部にて上層を除去された多層ニューラルネットワークについて再学習を行う再学習部をさらに備えたことを特徴とする請求項1に記載の学習装置。
  3. 前記層数調整部は、さらに、前記再学習部にて再学習された多層ニューラルネットワークについて、前記プロービングニューロンのコストに基づいて前記多層ニューラルネットワークの上層を除去して、残った最上層のプロービングニューロンを出力層とすることを特徴とする請求項2に記載の学習装置。
  4. 前記層数調整部は、コストが最小となる前記プロービングニューロンを前記出力層とすることを特徴とする請求項1ないし3のいずれか一項に記載の学習装置。
  5. 前記層数調整部は、前記多層ニューラルネットワークの出力層のコストが最小でない場合に、コストが最小である前記プロービングニューロンを有する層よりも上層の少なくとも1つの前記プロービングニューロンを残して前記多層ニューラルネットワークの上層を除去することを特徴とする請求項3に記載の学習装置。
  6. 前記プロービングニューロンに接続する部分が層構造を有することを特徴とする請求項1ないし5のいずれか一項に記載の学習装置。
  7. 教師あり学習によって順伝搬型の多層ニューラルネットワークの学習を行う学習装置であって、
    請求項1ないし6のいずれか一項に記載の学習装置で学習された多層ニューラルネットワークから前記プロービングニューロンを除去した多層ニューラルネットワークを初期多層ニューラルネットワークとして使用した学習を行うことを特徴とする学習装置。
  8. 請求項1ないし6のいずれか一項の学習装置によって得られた多層ニューラルネットワークを用いて識別を行う識別器であって、
    前記プロービングニューロンによって識別を行うことで早期棄却を行うことを特徴とする識別器。
  9. 前記プロービングニューロンによって出力層のいずれかのユニットに該当するか否かを判断することで前記早期棄却を行うことを特徴とする請求項8に記載の識別器。
  10. 教師あり学習によって順伝搬型の畳み込みニューラルネットワークの学習を行う学習装置であって、
    隠れ層に、マップに連結するプロービングニューロンを有する畳み込みニューラルネットワークについて、訓練データセットを用いたコスト計算による学習を行う学習部と、
    前記プロービングニューロンのコストに基づいて前記畳み込みニューラルネットワークの上層を除去して、残った最上層のプロービングニューロンを畳み込みの出力層とする層数調整部と、
    を備えたことを特徴とする学習装置。
  11. コンピュータを、
    教師あり学習によって順伝搬型の多層ニューラルネットワークの学習を行う学習装置であって、
    隠れ層に、出力層に順伝搬しないプロービングニューロンを有する多層ニューラルネットワークについて、訓練データセットを用いたコスト計算による学習を行う学習部と、
    前記プロービングニューロンのコストに基づいて前記多層ニューラルネットワークの上層を除去して、残った最上層のプロービングニューロンを出力層とする層数調整部と、
    を備えた学習装置として機能させることを特徴とする学習プログラム。
  12. 教師あり学習によって順伝搬型の多層ニューラルネットワークの学習を行う学習方法であって、
    隠れ層に、出力層に順伝搬しないプロービングニューロンを有する多層ニューラルネットワークについて、訓練データセットを用いたコスト計算による学習を行う学習ステップと、
    前記プロービングニューロンのコストに基づいて前記多層ニューラルネットワークの上層を除去して、残った最上層のプロービングニューロンを出力層とする層数最適化ステップと、
    を含むことを特徴とする学習方法。
JP2013235845A 2013-11-14 2013-11-14 学習装置、学習プログラム、及び学習方法 Active JP6236296B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013235845A JP6236296B2 (ja) 2013-11-14 2013-11-14 学習装置、学習プログラム、及び学習方法
DE102014223220.1A DE102014223220A1 (de) 2013-11-14 2014-11-13 Lernvorrichtung, Lernprogramm und Lernverfahren
US14/540,277 US10354185B2 (en) 2013-11-14 2014-11-13 Learning apparatus, learning program, and learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013235845A JP6236296B2 (ja) 2013-11-14 2013-11-14 学習装置、学習プログラム、及び学習方法

Publications (2)

Publication Number Publication Date
JP2015095215A JP2015095215A (ja) 2015-05-18
JP6236296B2 true JP6236296B2 (ja) 2017-11-22

Family

ID=53044673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013235845A Active JP6236296B2 (ja) 2013-11-14 2013-11-14 学習装置、学習プログラム、及び学習方法

Country Status (3)

Country Link
US (1) US10354185B2 (ja)
JP (1) JP6236296B2 (ja)
DE (1) DE102014223220A1 (ja)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6632193B2 (ja) * 2015-01-16 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US10192162B2 (en) 2015-05-21 2019-01-29 Google Llc Vector computation unit in a neural network processor
KR102107709B1 (ko) 2015-06-05 2020-05-07 구글 엘엘씨 공간 트랜스포머 모듈들
US10157279B2 (en) * 2015-07-15 2018-12-18 Cylance Inc. Malware detection
CN107851195B (zh) 2015-07-29 2022-02-11 诺基亚技术有限公司 利用神经网络进行目标检测
KR101701250B1 (ko) * 2015-08-03 2017-02-01 서울대학교산학협력단 딥 빌리프 네트워크를 위한 복수 레이어가 적층된 뉴런 어레이 및 뉴런 어레이 동작 방법
US10317930B2 (en) 2015-09-30 2019-06-11 International Business Machines Corporation Optimizing core utilization in neurosynaptic systems
US10068171B2 (en) * 2015-11-12 2018-09-04 Conduent Business Services, Llc Multi-layer fusion in a convolutional neural network for image classification
CN107182216B (zh) * 2015-12-30 2019-06-14 中国科学院深圳先进技术研究院 一种基于深度卷积神经网络的快速磁共振成像方法及装置
JP6763408B2 (ja) * 2016-01-19 2020-09-30 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム
CN107578099B (zh) * 2016-01-20 2021-06-11 中科寒武纪科技股份有限公司 计算装置和方法
JP2017182319A (ja) * 2016-03-29 2017-10-05 株式会社メガチップス 機械学習装置
CN108781265B (zh) 2016-03-30 2020-11-03 株式会社尼康 特征提取元件、特征提取系统及判定装置
CN106096726B (zh) * 2016-05-31 2018-12-18 华北电力大学 一种非侵入式负荷监测方法及装置
US10922393B2 (en) 2016-07-14 2021-02-16 Magic Leap, Inc. Deep neural network for iris identification
WO2018013199A1 (en) 2016-07-14 2018-01-18 Magic Leap, Inc. Iris boundary estimation using cornea curvature
JP6708044B2 (ja) * 2016-07-28 2020-06-10 富士通株式会社 画像認識装置、画像認識プログラム、画像認識方法および認識装置
CN107688493B (zh) * 2016-08-05 2021-06-18 阿里巴巴集团控股有限公司 训练深度神经网络的方法、装置及系统
IL294129B2 (en) 2016-08-22 2024-01-01 Magic Leap Inc An augmented reality display device with deep learning sensors
RU2016138608A (ru) 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
JP6318211B2 (ja) * 2016-10-03 2018-04-25 株式会社Preferred Networks データ圧縮装置、データ再現装置、データ圧縮方法、データ再現方法及びデータ転送方法
US10489680B2 (en) 2016-10-04 2019-11-26 Magic Leap, Inc. Efficient data layouts for convolutional neural networks
KR102610030B1 (ko) * 2016-11-15 2023-12-04 매직 립, 인코포레이티드 큐보이드 검출을 위한 딥 러닝 시스템
KR20180060149A (ko) 2016-11-28 2018-06-07 삼성전자주식회사 컨볼루션 처리 장치 및 방법
CN108133223B (zh) * 2016-12-01 2020-06-26 富士通株式会社 确定卷积神经网络cnn模型的装置和方法
CN116883628A (zh) 2016-12-05 2023-10-13 奇跃公司 混合现实环境中提供虚拟远程控制的可穿戴系统及方法
JP6833496B2 (ja) * 2016-12-19 2021-02-24 株式会社東芝 学習装置、紙葉類判別装置および紙葉類判別方法
CN108268947A (zh) * 2016-12-30 2018-07-10 富士通株式会社 用于提高神经网络的处理速度的装置和方法及其应用
US11556780B2 (en) 2017-01-19 2023-01-17 Nec Corporation Neural network learning device, neural network learning method, and recording medium on which neural network learning program is stored
JP6795788B2 (ja) * 2017-01-24 2020-12-02 株式会社安川電機 産業機器用の画像認識装置及び画像認識方法
US11354577B2 (en) 2017-03-15 2022-06-07 Samsung Electronics Co., Ltd System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions
US10803378B2 (en) 2017-03-15 2020-10-13 Samsung Electronics Co., Ltd System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions
JP6929953B2 (ja) 2017-03-17 2021-09-01 マジック リープ, インコーポレイテッドMagic Leap,Inc. 部屋レイアウト推定方法および技法
US10706375B2 (en) 2017-03-29 2020-07-07 Johnson Controls Technology Company Central plant with asset allocator
US11371739B2 (en) 2017-04-25 2022-06-28 Johnson Controls Technology Company Predictive building control system with neural network based comfort prediction
US11675322B2 (en) 2017-04-25 2023-06-13 Johnson Controls Technology Company Predictive building control system with discomfort threshold adjustment
EP3616007A1 (en) * 2017-04-25 2020-03-04 Johnson Controls Technology Company Predictive building control system with neural network based constraint generation
JP6923362B2 (ja) * 2017-05-30 2021-08-18 株式会社Soken 操舵角決定装置、自動運転車
US11271769B2 (en) 2019-11-14 2022-03-08 Johnson Controls Tyco IP Holdings LLP Central plant control system with asset allocation override
JP2019008571A (ja) * 2017-06-26 2019-01-17 株式会社デンソーアイティーラボラトリ 物体認識装置、物体認識方法、プログラム、及び学習済みモデル
US11392827B1 (en) * 2017-07-19 2022-07-19 United States Of America As Represented By The Secretary Of The Navy Deeper learning from the real-time transformative correction of and reasoning from neural network outputs
KR102368661B1 (ko) 2017-07-26 2022-02-28 매직 립, 인코포레이티드 사용자 인터페이스 디바이스들의 표현들을 이용한 뉴럴 네트워크 트레이닝
CN109325508A (zh) * 2017-07-31 2019-02-12 阿里巴巴集团控股有限公司 知识表示、机器学习模型训练、预测方法、装置以及电子设备
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
US10719951B2 (en) 2017-09-20 2020-07-21 Magic Leap, Inc. Personalized neural network for eye tracking
CN107729081B (zh) * 2017-09-30 2020-07-07 Oppo广东移动通信有限公司 应用管理方法、装置、存储介质及电子设备
US11263525B2 (en) 2017-10-26 2022-03-01 Nvidia Corporation Progressive modification of neural networks
IL273991B2 (en) 2017-10-26 2023-11-01 Magic Leap Inc Gradual normalization systems and methods for adaptive loss balancing in deep multitasking networks
US11250329B2 (en) 2017-10-26 2022-02-15 Nvidia Corporation Progressive modification of generative adversarial neural networks
CN108184071B (zh) * 2017-12-13 2020-09-08 阜阳汇中芯自动化技术有限公司 果树种植场地监护平台
WO2019135274A1 (ja) * 2018-01-04 2019-07-11 株式会社Abeja ニューラル・ネットワークを有するデータ処理システム
CN108090910B (zh) * 2018-01-04 2021-04-20 中国计量大学 一种基于信息熵梯度简化pcnn模型的夜间室外番茄植株图像分割算法
KR102697300B1 (ko) 2018-03-07 2024-08-23 삼성전자주식회사 전자 장치 및 머신 러닝 수행 방법
JP6954219B2 (ja) * 2018-04-09 2021-10-27 トヨタ自動車株式会社 機械学習装置
US11308395B2 (en) * 2018-04-27 2022-04-19 Alibaba Group Holding Limited Method and system for performing machine learning
CN108985456B (zh) * 2018-07-25 2021-06-22 大国创新智能科技(东莞)有限公司 层数增减深度学习神经网络训练方法、系统、介质和设备
JP7019815B2 (ja) * 2018-07-26 2022-02-15 富士フイルム株式会社 学習装置
JP7230324B2 (ja) * 2018-12-07 2023-03-01 公立大学法人会津大学 ニューラルネットワークの学習方法、コンピュータプログラム及びコンピュータ装置
JP7286894B2 (ja) * 2019-02-07 2023-06-06 国立大学法人山梨大学 信号変換システム、機械学習システムおよび信号変換プログラム
US11175898B2 (en) * 2019-05-31 2021-11-16 Apple Inc. Compiling code for a machine learning model for execution on a specialized processor
JP7256703B2 (ja) * 2019-06-21 2023-04-12 ファナック株式会社 制御装置、制御システム、及び機械学習装置
JP2021139821A (ja) * 2020-03-08 2021-09-16 大同特殊鋼株式会社 丸棒材の超音波探傷方法
US11790489B2 (en) 2020-04-07 2023-10-17 Samsung Electronics Co., Ltd. Systems and method of training networks for real-world super resolution with unknown degradations
JP7115533B2 (ja) * 2020-12-09 2022-08-09 株式会社ニコン 特徴抽出素子、特徴抽出システム、および判定装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302340A (ja) * 1994-05-02 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> オンラインサイン認証方法および認証学習方法
JP3757722B2 (ja) 1999-12-15 2006-03-22 Kddi株式会社 多層ニューラルネットワークユニット数最適化方法及び装置

Also Published As

Publication number Publication date
JP2015095215A (ja) 2015-05-18
DE102014223220A1 (de) 2015-05-21
US10354185B2 (en) 2019-07-16
US20150134583A1 (en) 2015-05-14

Similar Documents

Publication Publication Date Title
JP6236296B2 (ja) 学習装置、学習プログラム、及び学習方法
CN109255364B (zh) 一种基于深度卷积生成对抗网络的场景识别方法
KR102030628B1 (ko) Cnn 기반 차량 번호판 인식 방법 및 시스템
CN111695467B (zh) 基于超像素样本扩充的空谱全卷积高光谱图像分类方法
CN109840531B (zh) 训练多标签分类模型的方法和装置
CN108985317B (zh) 一种基于可分离卷积和注意力机制的图像分类方法
CN109086824B (zh) 一种基于卷积神经网络的海底底质声呐图像分类方法
US10275688B2 (en) Object detection with neural network
US20190228268A1 (en) Method and system for cell image segmentation using multi-stage convolutional neural networks
US20160224903A1 (en) Hyper-parameter selection for deep convolutional networks
CN109754078A (zh) 用于优化神经网络的方法
JP2020123330A (ja) ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置
KR20180036709A (ko) 미디어 분류
CN108710893B (zh) 一种基于特征融合的数字图像相机源模型分类方法
CN110490265B (zh) 一种基于双路卷积和特征融合的图像隐写分析方法
CN113627228A (zh) 一种基于关键点回归与多尺度特征融合的车道线检测方法
CN111626267B (zh) 一种利用空洞卷积的高光谱遥感图像分类方法
CN114842343A (zh) 一种基于ViT的航空图像识别方法
CN115512226A (zh) 融入注意力机制多尺度CNN的LiDAR点云滤波方法
WO2021158830A1 (en) Rounding mechanisms for post-training quantization
CN116342536A (zh) 基于轻量化模型的铝带材表面缺陷检测方法、系统及设备
WO2020119624A1 (zh) 一种基于深度学习的类别敏感型边缘检测方法
CN109934835B (zh) 基于深度强化网络邻接连接的轮廓检测方法
KR20200023695A (ko) 연산량을 줄이는 학습 시스템
Rishita et al. Dog breed classifier using convolutional neural networks

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6236296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250