JP2017517076A - 顔認証方法およびシステム - Google Patents
顔認証方法およびシステム Download PDFInfo
- Publication number
- JP2017517076A JP2017517076A JP2016570873A JP2016570873A JP2017517076A JP 2017517076 A JP2017517076 A JP 2017517076A JP 2016570873 A JP2016570873 A JP 2016570873A JP 2016570873 A JP2016570873 A JP 2016570873A JP 2017517076 A JP2017517076 A JP 2017517076A
- Authority
- JP
- Japan
- Prior art keywords
- face
- feature extraction
- deepid2
- convolution feature
- extraction system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000000605 extraction Methods 0.000 claims abstract description 108
- 238000012549 training Methods 0.000 claims abstract description 46
- 238000011176 pooling Methods 0.000 claims abstract description 26
- 230000001815 facial effect Effects 0.000 claims abstract description 17
- 210000002569 neuron Anatomy 0.000 claims description 53
- 239000013598 vector Substances 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 16
- 238000012544 monitoring process Methods 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 7
- 230000010354 integration Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
Abstract
Description
1)予備訓練セットから2つの顔領域−ラベルの対をサンプリングするステップと、
2)サンプリングされた2つの顔領域−ラベルの対における2つの顔領域からDeepID2をそれぞれ抽出するステップと、
3)各顔領域から抽出されたDeepID2を顔身元の全ての種類のうちの1種に分類するステップと、
4)分類された身元と所定の参照(ground-truth)身元とを比較して認識エラーを生成するステップと、
5)比較されるべき2つの顔領域からそれぞれ抽出された2つのDeepID2ベクトルの間の非類似度を比較して認証エラーを生成するステップと、
6)生成された認証エラーおよび生成された認識エラーとの組み合わせを、畳み込み特徴抽出システムを通過させるように逆伝播して、畳み込み特徴抽出システムのニューロンの間の接続重みを調節するステップと、
7)訓練プロセスが収束するまで、ステップ1)〜6)を繰り返して畳み込み特徴抽出システムのニューロンの間の接続重みを決定するステップと、を含む。
予備訓練セットから2つの顔領域−ラベルの対をサンプリングする装置と、
サンプリングされた2つの顔領域−ラベルの対における2つの顔領域からDeepID2をそれぞれ抽出する装置と、
各顔領域から抽出されたDeepID2を顔身元の全ての種類のうちの1種に分類する装置と、
分類された身元と所定の参照身元とを比較して認識エラーを生成する装置と、
比較されるべき2つの顔領域からそれぞれ抽出された2つのDeepID2ベクトルの間の非類似度を比較して認証エラーを生成する装置と、
生成された認証エラーおよび生成された認識エラーとの組み合わせを、畳み込み特徴抽出システムを通過させるように逆伝播して、畳み込み特徴抽出システムのニューロンの間の接続重みを調節する装置と、
訓練プロセスが収束するまで、上記ステップを繰り返して畳み込み特徴抽出システムのニューロンの間の接続重みを決定する装置と、を備える。
1)予備訓練セットから2つの顔領域−ラベルの対をサンプリングするステップと、
2)サンプリングされた2つの顔領域−ラベルの対における2つの顔領域からDeepID2をそれぞれ抽出するステップと、
3)各顔領域から抽出されたDeepID2を顔身元の全ての種類のうちの1種に分類するステップと、
4)分類された身元と所定の参照身元とを比較して認識エラーを生成するステップと、
5)比較されるべき2つの顔領域からそれぞれ抽出された2つのDeepID2ベクトルの間の非類似度を比較して認証エラーを生成するステップと、
6)生成された認証エラーおよび生成された認識エラーとの組み合わせを、畳み込み特徴抽出システムを通過させるように逆伝播して、畳み込み特徴抽出システムのニューロンの間の接続重みを調節するステップと、
7)訓練プロセスが収束するまで、ステップ1)〜6)を繰り返して畳み込み特徴抽出システムのニューロンの間の接続重みを決定するステップと、
を実行可能な命令を記憶するためのコンピュータ読み取り可能な媒体をさらに提供する。
特徴抽出ユニット10は、複数の畳み込み特徴抽出システムを含み、かつ、特定の顔領域を畳み込み特徴抽出システムのいずれに入力してDeepID2を抽出する働きをする。図3は、顔の位置合わせをしてから選択された、DeepID2を抽出するための入力顔領域の例を示し、その中で、顔領域は、位置、サイズ、カラーチャンネルおよび水平反転における大きな変動を含む。図4は、畳み込み特徴抽出システムの例を示し、それは、入力層(本明細書の中で、入力ユニットとも呼ばれ)32、複数の畳み込み層(本明細書の中で、畳み込みユニットとも呼ばれ)34、複数のプーリング層(本明細書の中で、プーリングユニットとも呼ばれ)36、複数の局部接続層(本明細書の中で、局部接続ユニットとも呼ばれ)38、および複数の完全接続層(本明細書の中で、完全接続ユニットとも呼ばれ)40を備え、その中で、畳み込み特徴抽出システムの出力層(本発明の一実施形態において完全接続層40であってもよく)は、1つまたは複数の前の畳み込み層、プーリング層、局部接続層、または完全接続層に接続される。畳み込み層、プーリング層、局部接続層、および完全接続層のそれぞれにおいて、局所受容野(receptive field)または全受容野を備える複数のニューロンを含み、且つ、ニューロンの間において接続重みを共有するか共有しないかである。畳み込み特徴抽出システムの出力層(完全接続層40であってもよい)のニューロン活性化は、抽出されたDeepID2であり、それは以下に議論される。
(1)
式(1)中、
および
は、それぞれi番目の入力特徴マップおよびj番目の出力特徴マップである。
は、i番目の入力特徴マップとj番目の出力特徴マップとの間の畳み込みコアである。
は、畳み込みを表す。
は、j番目の出力特徴マップのオフセットである。本明細書において、ReLU非線形関数
は、ニューロンに使用され、sigmoid関数に比べると、当該非線形関数は、多量の訓練データに対してよりよい適合能力を示した。ConvNetの比較的高い畳み込み層における重みは、局所的に共有されて異なる領域における異なる中級特徴または高級特徴を学習する。rは重みが共有された局所領域を表す。
(2)
式(2)中、i番目の出力特徴マップ
における各ニューロンは、i番目の入力特徴マップ
における
の非重複局所領域の上にプーリングされる。
(3)
式(3)中、j番目の出力特徴マップにおける各ニューロンは、全ての前の特徴マップにおける同じs×s局所領域におけるニューロンに局所に接続され、その後にReLU活性化関数が続いている。
(4)
式(4)中、
、
はそれぞれ第3のプーリング層36および局所接続層38におけるニューロン出力(特徴)を表し、
および
は、対応の接続重みを表す。DeepID2層40におけるニューロンは、前の2つの層(第3のプーリング層36および局所接続層38)における特徴を線形的に組み合わせ、その後にReLU非線形動作を行う。yjは、多次元実数値ベクトルyのj番目の要素であり、すなわち、DeepID2ベクトルのj番目の要素である。
本発明に係る実施形態によれば、抽出されたDeepID2のそれぞれが特徴ベクトルを形成することができる。形成されたベクトルは、例えば、図4に示すような160次元を備えてもよい。認証ユニット20は、各顔画像における複数の顔領域を選択してDeepID2を抽出することができる。例えば、図3に示すような実施形態において、25個の顔領域を選択したが、その他の数の顔領域でも適用できる。より長いDeepID2ベクトルは、各顔画像で選択された顔領域から抽出されたDeepID2を連結することにより形成される。例えば、図3および図4に示すような25個の顔領域が選択された実施形態において、連結されたベクトルは、160×25=4000次元のものであってもよい。顔認証アルゴリズムにより、比較されるべき2つの顔画像で選択された顔領域からそれぞれ抽出された2つの連結されたDeepID2ベクトルを比較し、これにより、顔認証スコアが得られる。SVM、LDA、統合ベイズ(Joint Bayesian)、またはその他の顔認証モデルを使用して顔認証アルゴリズムを実現することが可能である。顔認証アルゴリズムで比較する前に、連結されたDeepID2ベクトルに、次元縮小アルゴリズム(例えば、PCA)が行われてもよい。選択された顔領域の異なる組から抽出された異なるDeepID2ベクトルに対して顔認証アルゴリズムを実行することにより、複数の顔認証スコアが得られる。融合アルゴリズムにより、複数の顔認証スコアを統合して最終の顔認証判定を得る。
装置1000には、訓練ユニット30をさらに備える。訓練ユニット30は、対になる位置合わせ顔領域を入力し、かつ認識監視信号および認証監視信号を同時に畳み込み特徴抽出システムの出力層40(図5に示すようなDeepID2層)に加えることにより、身元分類および身元認証を同時に行うための複数の畳み込み特徴抽出システムを訓練するように構成される。図8に示すような本発明の一実施形態において、訓練ユニット30は、顔領域選択器301、ベクトル抽出器302、認識器303、認証器304、および決定器305を備えてもよい。畳み込み特徴抽出システムのそれぞれについて、図7はいくつの開示された実施形態に係る訓練プロセスを模式的なフローチャートに示す。以下、図7を参照しながら、さらに、訓練ユニット30の構成要素301〜305を説明する。
(5)
式(5)中、
はi番目の身元の予測確率であり、
は160次元のDeepID2を線形的に組み合わせ、
はニューロンjの入力であり、
はその出力である。畳み込み特徴抽出システムは、softmax層における交差エントロピー損失を最小化させるように訓練され、当該交差エントロピー損失は認識損失と呼ばれる。当該損失は下記の式(6)で表現され、
(6)
式(6)中、
はDeepID2ベクトルであり、
はターゲット種類であり、および
はn−way softmax層のニューロンとの間の接続重みを表す。
はターゲット確率分布であり、その中で、ターゲット種類
について、
であるが、その他の全ての
について
である。
は、n−way softmax層で予測された確率分布である。
(7)
式(7)中、fiおよびfjは、比較されるべき2つの顔領域から抽出されたDeepID2である。
は、fiとfjとが同じ身元に由来することを表す。このような場合、この2つのDeepID2ベクトルの間のL2距離が最小化される。
は異なる身元を表し、およびL2ノルム拘束は、距離がマージンmによりも大きいことが求められている。L1ノルムに基づく損失関数は、類似の式を有する。
(8)
式(8)中、
はDeepID2の間の余弦類似度であり、wおよびbは学習可能なサイズパラメータおよびシフトパラメータであり、
はシグモイド関数であり、かつ、yijは2つの比較された顔領域が同じ身元に属するか否かのバイナリターゲットである。
Claims (20)
- 異なる顔訓練セットを用いて訓練された複数の畳み込み特徴抽出システムを含む特徴抽出ユニットであって、前記畳み込み特徴抽出システムのそれぞれが、複数の畳み込み層、複数のプーリング層、複数の局部接続層、および複数の完全接続層を有する層カスケードを含み、前記層カスケードの出力層が、その前の畳み込み層、プーリング層、局部接続層または完全接続層のうちの少なくとも1つに接続され、且つ、接続された層における顔特徴から顔特徴を抽出して顔認証のためのDeepID2とするように構成されている、特徴抽出ユニットと、
前記出力層により、比較されるべき2つの顔画像から抽出された前記顔特徴を比較し、前記2つの顔画像が同じ身元に由来するか否かを決定するように構成される認証ユニットと、を備える
ことを特徴とする顔認証装置。 - 前記出力層は、前記完全接続層を備える
ことを特徴とする請求項1に記載の装置。 - 対になる顔画像、認識監視信号、および認証監視信号を前記畳み込み特徴抽出システムに入力して前記畳み込み特徴抽出システムのニューロンの間の接続重みを調整するように構成される訓練ユニットをさらに備える
ことを特徴とする請求項1に記載の装置。 - 各顔領域から抽出された前記DeepID2を顔身元の全ての種類のうちの1種に分類するために、出力DeepID2層の後にn−way softmax層が続いており、
その中で、前記訓練ユニットは認識器を備え、前記認識器は、分類された身元を所定の参照身元と比較して認識エラーを生成し、生成された認識エラーが逆伝播されて前記畳み込み特徴抽出システムを通過して、前記畳み込み特徴抽出システムのニューロンの間の接続重みが調整されるように構成される
ことを特徴とする請求項3に記載の装置。 - 前記訓練ユニットは認証器を備え、前記認証器は、2つの顔領域からそれぞれ抽出された2つのDeepID2ベクトルの間の非類似度を比較して認証エラーを生成するように構成され、
その中で、生成された認証エラーが逆伝播されて前記畳み込み特徴抽出システムを通過して、前記畳み込み特徴抽出システムのニューロンの間の接続重みが調整される
ことを特徴とする請求項3に記載の装置。 - 前記畳み込み特徴抽出システムのそれぞれに対して、前記訓練ユニットおよび前記システムのそれぞれが協力し、以下のステップ、すなわち、
1)予備訓練セットから2つの顔領域−ラベルの対をサンプリングするステップと、
2)サンプリングされた2つの顔領域−ラベルの対における2つの顔領域からDeepID2をそれぞれ抽出するステップと、
3)前記2つの顔領域から抽出されたDeepID2に基づいて認識エラーおよび認証エラーを生成するステップと、
4)前記認識エラーおよび前記認証エラーを、前記畳み込み特徴抽出システムを通過させるように逆伝播して、前記畳み込み特徴抽出システムのニューロンの間の接続重みを調整するステップと、
5)訓練プロセスが収束するまで、ステップ1)〜4)を繰り返して前記畳み込み特徴抽出システムのニューロンの間の接続重みを決定するステップと、を実行する
ことを特徴とする請求項3に記載の装置。 - 前記認証ユニットは、
抽出されたDeepID2から1組または複数の組のDeepID2を選択するように構成される特徴選択ユニットと、
選択された1組または複数の組のDeepID2を比較して1つまたは複数の顔認証スコアを出力するように構成される比較ユニットと、
前記1つまたは複数の顔認証スコアを統合して単一の顔認証の判定をするように構成される統合ユニットと、を備えており、
ここで、各組のDeepID2が各顔画像の複数の顔領域から抽出されたDeepID2を含む
ことを特徴とする請求項1に記載の装置。 - 前記畳み込み特徴抽出層のいずれにおいても、局所受容野と、前記畳み込み特徴抽出層における前記ニューロンまたは前記ニューロンのサブセットの間において共有される接続重みとを備える複数のニューロンを含む
ことを特徴とする請求項1に記載の装置。 - 2つのDeepID2ベクトルの間の前記非類似度は、L1ノルムの負数、L2ノルム、または前記2つのDeepID2ベクトルの間の余弦類似度を含む
ことを特徴とする請求項5に記載の装置。 - それぞれ訓練された畳み込み特徴抽出システムを使用することにより顔画像の異なる領域からDeepID2を抽出する抽出ステップであって、前記システムのそれぞれが、複数の畳み込み層、複数のプーリング層、複数の局部接続層、および複数の完全接続層を有する層カスケードを含み、前記層カスケードの出力層が、その前の畳み込み層、プーリング層、局部接続層または完全接続層のうちの少なくとも1つに接続され、且つ、接続された層における顔特徴から顔特徴を抽出して顔認証のためのDeepID2とするように構成されている、抽出ステップと、
2つの顔画像が同じ身元に由来するか否かを決定するために、比較されるべき2つの顔画像からそれぞれ抽出されたDeepID2を比較する比較ステップと、を含む
ことを特徴とする顔認証方法。 - 前記出力層は、前記完全接続層を備える
ことを特徴とする請求項10に記載の方法。 - 前記畳み込み特徴抽出システムのニューロンの間の接続重みを調整するために、対になる顔領域、認識監視信号、および認証監視信号を入力することにより、身元分類および身元認証を並行して実施するための複数の畳み込み特徴抽出システムを訓練する訓練ステップをさらに含む
ことを特徴とする請求項10に記載の方法。 - 前記訓練ステップは、
各顔領域から抽出された前記DeepID2を顔身元の全ての種類のうちの1種に分類するステップと、
分類された身元を所定の参照身元と比較して認識エラーを生成するステップと、
生成された認識エラーを、前記畳み込み特徴抽出システムを通過させるように逆伝播して、前記畳み込み特徴抽出システムのニューロンの間の接続重みを調整するステップと、をさらに含む
ことを特徴とする請求項12に記載の方法。 - 前記訓練ステップは、
比較されるべき2つの顔領域からそれぞれ抽出された2つのDeepID2ベクトルの間の非類似度を比較して認証エラーを生成するステップと、
生成された認証エラーを、前記畳み込み特徴抽出システムを通過させるように逆伝播して、前記畳み込み特徴抽出システムのニューロンの間の接続重みを調整するステップと、をさらに含む
ことを特徴とする請求項12に記載の方法。 - 前記訓練ステップは、
各顔領域から抽出された前記DeepID2を顔身元の全ての種類のうちの1種に分類するステップと、
分類された身元を所定の参照身元と比較して認識エラーを生成するステップと、
比較されるべき2つの顔領域からそれぞれ抽出された2つのDeepID2ベクトルの間の非類似度を比較して認証エラーを生成するステップと、
生成された認証エラーおよび生成された認識エラーとの組み合わせを、前記畳み込み特徴抽出システムを通過させるように逆伝播して、畳み込み特徴抽出システムのニューロンの間の接続重みを調節するステップと、をさらに含む
ことを特徴とする請求項12に記載の方法。 - 前記比較ステップは、
抽出されたDeepID2から1組または複数の組のDeepID2を選択する選択ステップと、
選択された1組または複数の組のDeepID2を比較して1つまたは複数の顔認証スコアを出力する比較ステップと、
前記1つまたは複数の顔認証スコアを統合して単一の顔認証の判定をする統合ステップと、をさらに含んでおり、
その中で、各組のDeepID2が各顔画像の複数の顔領域から抽出されたDeepID2を含む
ことを特徴とする請求項11に記載の方法。 - 前記畳み込み特徴抽出層のいずれにおいても、局所受容野と、前記畳み込み特徴抽出層におけるニューロンまたはニューロンのサブセットの間で共有される接続重みとを備える複数のニューロンを含む
ことを特徴とする請求項10に記載の方法。 - 前記畳み込み特徴抽出システムのそれぞれにおいて、前記訓練は、
1)予備訓練セットから2つの顔領域−ラベルの対をサンプリングするステップと、
2)前記畳み込み特徴抽出システムにより、サンプリングされた2つの顔領域−ラベルの対における2つの顔領域からDeepID2をそれぞれ抽出するステップと、
3)前記2つの顔領域から抽出されたDeepID2を使用することにより認識エラーおよび認証エラーを生成するステップと、
4)前記認識エラーおよび前記認証エラーを、前記畳み込み特徴抽出システムを通過させるように逆伝播して、前記畳み込み特徴抽出システムのニューロンの間の接続重みを調整するステップと、
5)訓練プロセスが収束するまで、ステップ1)〜4)を繰り返して前記畳み込み特徴抽出システムのニューロンの間の接続重みを決定するステップと、をさらに含む
ことを特徴とする請求項12に記載の方法。 - 2つのDeepID2ベクトルの間の前記非類似度は、L1ノルムの負数、L2ノルム、または前記2つのDeepID2ベクトルの間の余弦類似度を含む
ことを特徴とする請求項15に記載の方法。 - 1)予備訓練セットから2つの顔領域−ラベルの対をサンプリングするステップと、
2)サンプリングされた2つの顔領域−ラベルの対における2つの顔領域からDeepID2をそれぞれ抽出するステップと、
3)各顔領域から抽出された前記DeepID2を顔身元の全ての種類のうちの1種に分類するステップと、
4)分類された身元を所定の参照身元と比較して認識エラーを生成するステップと、
5)比較されるべき2つの顔領域からそれぞれ抽出された2つのDeepID2ベクトルの間の非類似度を比較して認証エラーを生成するステップと、
6)生成された認証エラーおよび生成された認識エラーとの組み合わせを、前記畳み込み特徴抽出システムを通過させるように逆伝播して、畳み込み特徴抽出システムのニューロンの間の接続重みを調節するステップと、
7)訓練プロセスが収束するまで、ステップ1)〜6)を繰り返して前記畳み込み特徴抽出システムのニューロンの間の接続重みを決定するステップと、を含む
ことを特徴とする畳み込み特徴抽出システムを訓練するための方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/000588 WO2015192263A1 (en) | 2014-06-16 | 2014-06-16 | A method and a system for face verification |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017517076A true JP2017517076A (ja) | 2017-06-22 |
JP6345276B2 JP6345276B2 (ja) | 2018-06-20 |
Family
ID=54934629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016570873A Active JP6345276B2 (ja) | 2014-06-16 | 2014-06-16 | 顔認証方法およびシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10289897B2 (ja) |
JP (1) | JP6345276B2 (ja) |
CN (1) | CN106415594B (ja) |
WO (1) | WO2015192263A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220018230A (ko) * | 2020-08-06 | 2022-02-15 | 주식회사 카카오뱅크 | 신경망을 이용한 영상통화 기반의 인증 모니터링 방법 및 시스템 |
US11521422B2 (en) | 2020-03-10 | 2022-12-06 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for detecting body temperature, electronic apparatus and storage medium |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127103B (zh) * | 2016-06-12 | 2019-06-25 | 广州广电运通金融电子股份有限公司 | 一种离线身份认证的方法和装置 |
US11281893B2 (en) * | 2016-06-21 | 2022-03-22 | Stefan Zechner | Method and device for modifying the affective visual information in the field of vision of an user |
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
EP3497628A1 (en) * | 2016-09-15 | 2019-06-19 | Google LLC | Control policies for robotic agents |
US11023711B2 (en) * | 2016-10-10 | 2021-06-01 | University Of Maryland, College Park | All-in-one convolutional neural network for face analysis |
WO2018081135A1 (en) | 2016-10-25 | 2018-05-03 | Vmaxx Inc. | Point to set similarity comparison and deep feature learning for visual recognition |
US20180129868A1 (en) * | 2016-11-08 | 2018-05-10 | Qualcomm Incorporated | System and method associated with object verification |
CN106780658B (zh) | 2016-11-16 | 2021-03-09 | 北京旷视科技有限公司 | 人脸特征添加方法、装置及设备 |
CN106780662B (zh) * | 2016-11-16 | 2020-09-18 | 北京旷视科技有限公司 | 人脸图像生成方法、装置及设备 |
CN106709532B (zh) * | 2017-01-25 | 2020-03-10 | 京东方科技集团股份有限公司 | 图像处理方法和装置 |
CN108664782B (zh) * | 2017-03-28 | 2023-09-12 | 三星电子株式会社 | 面部验证方法和设备 |
KR102359558B1 (ko) | 2017-03-28 | 2022-02-09 | 삼성전자주식회사 | 얼굴 인증 방법 및 장치 |
CN108965687B (zh) * | 2017-05-22 | 2021-01-29 | 阿里巴巴集团控股有限公司 | 拍摄方向识别方法、服务器及监控方法、系统及摄像设备 |
CN109685087B9 (zh) * | 2017-10-18 | 2023-02-03 | 富士通株式会社 | 信息处理方法和装置以及信息检测方法 |
US20190172458A1 (en) * | 2017-12-01 | 2019-06-06 | Affectiva, Inc. | Speech analysis for cross-language mental state identification |
CN108351967A (zh) * | 2017-12-28 | 2018-07-31 | 深圳市锐明技术股份有限公司 | 一种多人脸检测方法、装置、服务器、系统及存储介质 |
US10943096B2 (en) * | 2017-12-31 | 2021-03-09 | Altumview Systems Inc. | High-quality training data preparation for high-performance face recognition systems |
CN108229444B (zh) * | 2018-02-09 | 2021-10-12 | 天津师范大学 | 一种基于整体和局部深度特征融合的行人再识别方法 |
CN109034044B (zh) * | 2018-06-14 | 2022-04-05 | 天津师范大学 | 一种基于融合卷积神经网络的行人再识别方法 |
CN110659631B (zh) * | 2018-06-30 | 2023-12-15 | 华为技术有限公司 | 车牌识别方法和终端设备 |
CN112368708B (zh) | 2018-07-02 | 2024-04-30 | 斯托瓦斯医学研究所 | 使用伪图像的面部图像识别 |
CN109308679B (zh) * | 2018-08-13 | 2022-08-30 | 深圳市商汤科技有限公司 | 一种图像风格转换方法及装置、设备、存储介质 |
US11151362B2 (en) * | 2018-08-30 | 2021-10-19 | FaceValue B.V. | System and method for first impression analysis and face morphing by adjusting facial landmarks using faces scored for plural perceptive traits |
US11222233B2 (en) * | 2018-09-26 | 2022-01-11 | Samsung Electronics Co., Ltd. | Method and apparatus for multi-category image recognition |
US11003892B2 (en) * | 2018-11-09 | 2021-05-11 | Sap Se | Landmark-free face attribute prediction |
CN109543655A (zh) * | 2018-12-14 | 2019-03-29 | 深圳壹账通智能科技有限公司 | 疲劳驾驶检测方法、装置、计算机设备和存储介质 |
CN110363081B (zh) * | 2019-06-05 | 2022-01-11 | 深圳云天励飞技术有限公司 | 人脸识别方法、装置、设备及计算机可读存储介质 |
CA3147361A1 (en) * | 2019-08-09 | 2021-02-18 | Clearview Ai, Inc. | Methods for providing information about a person based on facial recognition |
CN110807108A (zh) * | 2019-10-15 | 2020-02-18 | 华南理工大学 | 一种亚洲人脸数据自动收集及清洗的方法和系统 |
US10997399B1 (en) * | 2019-11-25 | 2021-05-04 | Karya Property Management, Llc | Facial recognition tool |
WO2021115798A1 (en) | 2019-12-11 | 2021-06-17 | QuantiFace GmbH | Method and system to provide a computer-modified visualization of the desired face of a person |
DE212020000467U1 (de) | 2019-12-11 | 2022-03-09 | QuantiFace GmbH | Vorrichtung, um ein Video mit einer computermodifizierten Abbildung eines erwünschten Gesichts einer Person bereitzustellen |
CN111191723B (zh) * | 2019-12-30 | 2023-06-20 | 创新奇智(北京)科技有限公司 | 基于级联分类器的少样本商品分类系统及分类方法 |
CN113642363B (zh) * | 2020-05-11 | 2024-09-20 | 富士通株式会社 | 神经网络及其训练方法 |
CN111865702A (zh) * | 2020-08-04 | 2020-10-30 | 北京航空航天大学 | 基于卷积神经网络的网络故障诊断方法及装置 |
CN113420709A (zh) * | 2021-07-07 | 2021-09-21 | 内蒙古科技大学 | 牛脸特征提取模型训练方法、系统及牛的保险方法、系统 |
CN113762118B (zh) * | 2021-08-27 | 2022-08-26 | 合肥的卢深视科技有限公司 | 人脸识别的方法、电子设备及存储介质 |
US20230128577A1 (en) * | 2021-10-23 | 2023-04-27 | Hummingbirds Ai Inc. | System and method for continuous privacy-preserving facial-based authentication and feedback |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101807245B (zh) * | 2010-03-02 | 2013-01-02 | 天津大学 | 基于人工神经网络的多源步态特征提取与身份识别方法 |
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
US10095917B2 (en) * | 2013-11-04 | 2018-10-09 | Facebook, Inc. | Systems and methods for facial representation |
CN103824055B (zh) * | 2014-02-17 | 2018-03-02 | 北京旷视科技有限公司 | 一种基于级联神经网络的人脸识别方法 |
-
2014
- 2014-06-16 WO PCT/CN2014/000588 patent/WO2015192263A1/en active Application Filing
- 2014-06-16 JP JP2016570873A patent/JP6345276B2/ja active Active
- 2014-06-16 CN CN201480079316.2A patent/CN106415594B/zh active Active
-
2016
- 2016-12-01 US US15/366,944 patent/US10289897B2/en active Active
Non-Patent Citations (2)
Title |
---|
SUN, YI ET AL.: "Hybrid Deep Learning for Face Verification", 2013 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION, vol. pages 1489-1493, JPN6018000283, 4 December 2013 (2013-12-04) * |
河村 聡典 AKINORI KAWAMURA: "最小分類誤り学習による特徴選択型文字認識 Feature-Extraction-Based Character Recognition Using Minim", 電子情報通信学会論文誌 THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS,INFORMATION AND COMMUNICATI, vol. 第J81-D-II巻 第12号, JPN6018000285, 25 December 1998 (1998-12-25), JP, pages 第2749-2756頁 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11521422B2 (en) | 2020-03-10 | 2022-12-06 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for detecting body temperature, electronic apparatus and storage medium |
KR20220018230A (ko) * | 2020-08-06 | 2022-02-15 | 주식회사 카카오뱅크 | 신경망을 이용한 영상통화 기반의 인증 모니터링 방법 및 시스템 |
KR102529552B1 (ko) * | 2020-08-06 | 2023-05-04 | 주식회사 카카오뱅크 | 신경망을 이용한 영상통화 기반의 인증 모니터링 방법 및 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US10289897B2 (en) | 2019-05-14 |
CN106415594B (zh) | 2020-01-10 |
JP6345276B2 (ja) | 2018-06-20 |
US20170083755A1 (en) | 2017-03-23 |
CN106415594A (zh) | 2017-02-15 |
WO2015192263A1 (en) | 2015-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6345276B2 (ja) | 顔認証方法およびシステム | |
US11138413B2 (en) | Fast, embedded, hybrid video face recognition system | |
JP6159489B2 (ja) | 顔認証方法およびシステム | |
US10747989B2 (en) | Systems and/or methods for accelerating facial feature vector matching with supervised machine learning | |
EP3074918B1 (en) | Method and system for face image recognition | |
Sun et al. | Deep learning face representation by joint identification-verification | |
Lu et al. | Feature extraction and fusion using deep convolutional neural networks for face detection | |
Yang et al. | Privileged information-based conditional regression forest for facial feature detection | |
US8606022B2 (en) | Information processing apparatus, method and program | |
US8488873B2 (en) | Method of computing global-to-local metrics for recognition | |
Wasi et al. | Arbex: Attentive feature extraction with reliability balancing for robust facial expression learning | |
Deng et al. | A lightweight deep learning model for real‐time face recognition | |
Jadhav et al. | HDL-PI: hybrid DeepLearning technique for person identification using multimodal finger print, iris and face biometric features | |
Lee et al. | Reinforced adaboost learning for object detection with local pattern representations | |
Schenkel et al. | A Comparative Study of Facial Recognition Techniques: With focus on low computational power | |
Lin et al. | Region-based context enhanced network for robust multiple face alignment | |
Hou et al. | Hybrid pyramid convolutional network for multiscale face detection | |
Nie et al. | Flexible shift-invariant locality and globality preserving projections | |
Dhamija et al. | An approach to enhance performance of age invariant face recognition | |
Zhang et al. | Multitask multivariate common sparse representations for robust multimodal biometrics recognition | |
Peng et al. | Spontaneous facial expression recognition by heterogeneous convolutional networks | |
US20230114388A1 (en) | System and Method for Hyperdimensional Computing (HDC) For Activation Map Analysis (AMA) | |
Nikisins et al. | A mini-batch discriminative feature weighting algorithm for lbp-based face recognition | |
KC et al. | Face recognition by neural network using bit-planes extracted from an image | |
Oo et al. | ASEAN child face recognition system with FaceNet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6345276 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |