JP2022501729A - 顔写真に基づくリスク認識方法、装置、コンピュータ設備および記憶媒体 - Google Patents
顔写真に基づくリスク認識方法、装置、コンピュータ設備および記憶媒体 Download PDFInfo
- Publication number
- JP2022501729A JP2022501729A JP2021516611A JP2021516611A JP2022501729A JP 2022501729 A JP2022501729 A JP 2022501729A JP 2021516611 A JP2021516611 A JP 2021516611A JP 2021516611 A JP2021516611 A JP 2021516611A JP 2022501729 A JP2022501729 A JP 2022501729A
- Authority
- JP
- Japan
- Prior art keywords
- recognition result
- hand
- shielding
- face
- risk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000001815 facial effect Effects 0.000 title claims description 36
- 238000012549 training Methods 0.000 claims description 85
- 238000004422 calculation algorithm Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 21
- 238000013210 evaluation model Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 14
- 238000007635 classification algorithm Methods 0.000 claims description 11
- 230000009467 reduction Effects 0.000 claims description 10
- 238000000513 principal component analysis Methods 0.000 claims description 9
- 238000013215 result calculation Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 23
- 238000012706 support-vector machine Methods 0.000 description 21
- 239000011159 matrix material Substances 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 15
- 210000001061 forehead Anatomy 0.000 description 14
- 239000013598 vector Substances 0.000 description 13
- 230000008921 facial expression Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 208000032443 Masked facies Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010224 classification analysis Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
本願は、2018年12月14日に提出された「顔写真に基づくリスク認識方法、装置、コンピュータ設備および記憶媒体」と題する中国発明出願第201811535312.7号に基づいており、その優先権を主張する。
顧客が予め設定された質問に回答した時のビデオデータを取得することと、
予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行することと、そのうち、認識結果には、手遮蔽のある顔画像と手遮蔽なし顔画像が含まれ、
各前記手遮蔽のある顔画像に対応する手による顔遮蔽位置を取得し、前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得することと、
前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得することと、
前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定し、前記リスク警告認識結果が第1の所定の閾値よりも大きい場合に、前記ビデオデータをリスク警告データとすることとのステップを実行する。
顧客が予め設定された質問に回答した時のビデオデータを取得するためのビデオデータ取得モジュールと、
予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行するための画像認識モジュールと、そのうち、認識結果には、手遮蔽のある顔画像と手遮蔽なし顔画像が含まれ、
各前記手遮蔽のある顔画像に対応する手による顔遮蔽位置を取得し、前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得するための第1の認識結果取得モジュールと、
前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得するための第2の認識結果取得モジュールと、
前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定し、前記リスク警告認識結果が第1の所定の閾値よりも大きい場合に、前記ビデオデータをリスク警告データとするためのリスク判別モジュールと、を含む。
顧客が予め設定された質問に回答した時のビデオデータを取得することと、
予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行することと、そのうち、認識結果には、手遮蔽のある顔画像と手遮蔽なし顔画像が含まれ、
各前記手遮蔽のある顔画像に対応する手による顔遮蔽位置を取得し、前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得することと、
前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得することと、
前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定し、前記リスク警告認識結果が第1の所定の閾値よりも大きい場合に、前記ビデオデータをリスク警告データとすることとのステップを実行する。
顧客が予め設定された質問に回答した時のビデオデータを取得することと、
予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行することと、そのうち、認識結果には、手遮蔽のある顔画像と手遮蔽なし顔画像が含まれ、
各前記手遮蔽のある顔画像に対応する手による顔遮蔽位置を取得し、前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得することと、
前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得することと、
前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定し、前記リスク警告認識結果が第1の所定の閾値よりも大きい場合に、前記ビデオデータをリスク警告データとすることとのステップを実行する。
20 画像認識モジュール
30 第1の認識結果取得モジュール
40 第2の認識結果取得モジュール
41 キーフレーム決定ユニット
42 リスクレベル認識結果決定ユニット
50 リスク判別モジュール
Claims (20)
- 顧客が予め設定された質問に回答した時のビデオデータを取得することと、
予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行することと、そのうち、認識結果には、手遮蔽のある顔画像と手遮蔽なし顔画像が含まれ、
各前記手遮蔽のある顔画像に対応する手による顔遮蔽位置を取得し、前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得することと、
前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得することと、
前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定し、前記リスク警告認識結果が第1の所定の閾値よりも大きい場合に、前記ビデオデータをリスク警告データとすることと、を含むことを特徴とする、顔写真に基づくリスク認識方法。 - 上述した予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行するステップの前、前記顔写真に基づくリスク認識方法は、さらに、
手遮蔽訓練画像と手遮蔽なし訓練画像を含む遮蔽訓練画像を取得することと、
前記手遮蔽訓練画像と前記手遮蔽なし訓練画像を2値化画像に変換し、顔キーポイント認識アルゴリズムを用いて、前記2値化画像の顔領域を決定することと、
前記顔領域に基づいて、前記顔領域に対応する勾配ヒストグラム特徴を取得することと、
主成分分析アルゴリズムを用いて、前記勾配ヒストグラム特徴に対して次元削減処理を実行し、目標勾配ヒストグラム特徴を取得することと、
SVM分類アルゴリズムを用いて、前記目標勾配ヒストグラム特徴を訓練し、遮蔽認識モデルを取得することとを含むことを特徴とする、請求項1に記載の顔写真に基づくリスク認識方法。 - 前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得することは、
前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、各前記手による顔遮蔽位置に対応する遮蔽確率を取得することと、
最大遮蔽確率に対応する手遮蔽のある顔画像を、緊張評価モデルに入力し、前記最大遮蔽確率に対応する手遮蔽のある顔画像に対応する緊張程度を緊張程度認識結果として取得することとを含むことを特徴とする、請求項1に記載の顔写真に基づくリスク認識方法。 - 上述した前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得することは、
K−Meansアルゴリズムを用いて、前記手遮蔽なし顔画像に対してクラスタリング処理を実行し、キーフレームに対応する手遮蔽なし顔画像を決定することと、
前記キーフレームに対応する手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、前記安全判断モデルから出力されたリスク確率を前記リスクレベル認識結果として取得することとを含むことを特徴とする、請求項1に記載の顔写真に基づくリスク認識方法。 - 上述した前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定することは、
前記手遮蔽のある顔画像に対応する第1の総フレーム数と、前記手遮蔽なし顔画像に対応する第2の総フレーム数とを取得することと、
前記第1の総フレーム数、前記第2の総フレーム数、前記緊張程度認識結果、および前記リスクレベル認識結果に基づいて、リスク警告認識結果を決定することとを含むことを特徴とする、請求項1に記載の顔写真に基づくリスク認識方法。 - 上述した前記第1の総フレーム数、前記第2の総フレーム数、前記緊張程度認識結果、および前記リスクレベル認識結果に基づいて、リスク警告認識結果を決定することは、
前記第1の総フレーム数と前記第2の総フレーム数との差の絶対値を計算することと、
前記差の絶対値が第2の所定の閾値よりも大きい場合に、前記第1の総フレーム数が前記第2の総フレーム数よりも大きくなると、前記緊張程度認識結果をリスク警告認識結果として使用し、前記第1の総フレーム数が前記第2の総フレーム数よりも小さくなると、前記リスクレベル認識結果をリスク警告認識結果として使用することと、
前記差の絶対値が第2の所定の閾値以下である場合に、予め設定された結果計算式により、前記緊張程度認識結果と前記リスクレベル認識結果を計算し、リスク警告認識結果を取得することとを含むことを特徴とする、請求項5に記載の顔写真に基づくリスク認識方法。 - 顧客が予め設定された質問に回答した時のビデオデータを取得するためのビデオデータ取得モジュールと、
予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行するための画像認識モジュールと、そのうち、認識結果には、手遮蔽のある顔画像と手遮蔽なし顔画像が含まれ、
各前記手遮蔽のある顔画像に対応する手による顔遮蔽位置を取得し、前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得するための第1の認識結果取得モジュールと、
前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得するための第2の認識結果取得モジュールと、
前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定し、前記リスク警告認識結果が第1の所定の閾値よりも大きい場合に、前記ビデオデータをリスク警告データとするためのリスク判別モジュールと、を含むことを特徴とする、顔写真に基づくリスク認識装置。 - 前記第2の認識結果取得モジュールは、
K−Meansアルゴリズムを用いて、前記手遮蔽なし顔画像に対してクラスタリング処理を実行し、キーフレームに対応する手遮蔽なし顔画像を決定するためのキーフレーム決定ユニットと、
前記キーフレームに対応する手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、前記安全判断モデルから出力されたリスク確率を前記リスクレベル認識結果として取得するためのリスクレベル認識結果決定ユニットとを含むことを特徴とする、請求項7に記載の顔写真に基づくリスク認識装置。 - メモリ、プロセッサ、および前記メモリに記憶され、かつ前記プロセッサ上で実行可能なコンピュータ可読命令を含むコンピュータ設備であって、前記プロセッサは、前記コンピュータ可読命令を実行する時、
顧客が予め設定された質問に回答した時のビデオデータを取得することと、
予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行することと、そのうち、認識結果には、手遮蔽のある顔画像と手遮蔽なし顔画像が含まれ、
各前記手遮蔽のある顔画像に対応する手による顔遮蔽位置を取得し、前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得することと、
前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得することと、
前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定し、前記リスク警告認識結果が第1の所定の閾値よりも大きい場合に、前記ビデオデータをリスク警告データとすることとのステップを実現することを特徴とする、コンピュータ設備。 - 上述した予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行するステップの前、前記プロセッサは、前記コンピュータ可読命令を実行する時に、
手遮蔽訓練画像と手遮蔽なし訓練画像を含む遮蔽訓練画像を取得することと、
前記手遮蔽訓練画像と前記手遮蔽なし訓練画像を2値化画像に変換し、顔キーポイント認識アルゴリズムを用いて、前記2値化画像の顔領域を決定することと、
前記顔領域に基づいて、前記顔領域に対応する勾配ヒストグラム特徴を取得することと、
主成分分析アルゴリズムを用いて、前記勾配ヒストグラム特徴に対して次元削減処理を実行し、目標勾配ヒストグラム特徴を取得することと、
SVM分類アルゴリズムを用いて、前記目標勾配ヒストグラム特徴を訓練し、遮蔽認識モデルを取得することとのステップをさらに実現することを特徴とする、請求項9に記載のコンピュータ設備。 - 前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得することは、
前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、各前記手による顔遮蔽位置に対応する遮蔽確率を取得することと、
前記最大遮蔽確率に対応する手遮蔽のある顔画像を、緊張評価モデルに入力し、前記最大遮蔽確率に対応する手遮蔽のある顔画像に対応する緊張程度を緊張程度認識結果として取得することとを含むことを特徴とする、請求項9に記載のコンピュータ設備。 - 上述した前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得することは、
K−Meansアルゴリズムを用いて、前記手遮蔽なし顔画像に対してクラスタリング処理を実行し、キーフレームに対応する手遮蔽なし顔画像を決定することと、
前記キーフレームに対応する手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、前記安全判断モデルから出力されたリスク確率を前記リスクレベル認識結果として取得することとを含むことを特徴とする、請求項9に記載のコンピュータ設備。 - 上述した前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定することは、
前記手遮蔽のある顔画像に対応する第1の総フレーム数と、前記手遮蔽なし顔画像に対応する第2の総フレーム数とを取得することと、
前記第1の総フレーム数、前記第2の総フレーム数、前記緊張程度認識結果、および前記リスクレベル認識結果に基づいて、リスク警告認識結果を決定することとを含むことを特徴とする、請求項9に記載のコンピュータ設備。 - 上述した前記第1の総フレーム数、前記第2の総フレーム数、前記緊張程度認識結果、および前記リスクレベル認識結果に基づいて、リスク警告認識結果を決定することは、
前記第1の総フレーム数と前記第2の総フレーム数との差の絶対値を計算することと、
前記差の絶対値が第2の所定の閾値よりも大きい場合に、前記第1の総フレーム数が前記第2の総フレーム数よりも大きくなると、前記緊張程度認識結果をリスク警告認識結果として使用し、前記第1の総フレーム数が前記第2の総フレーム数よりも小さくなると、前記リスクレベル認識結果をリスク警告認識結果として使用することと、
前記差の絶対値が第2の所定の閾値以下である場合に、予め設定された結果計算式により、前記緊張程度認識結果と前記リスクレベル認識結果を計算し、リスク警告認識結果を取得することとを含むことを特徴とする、請求項13に記載のコンピュータ設備。 - コンピュータ可読命令が記憶されるコンピュータ可読記憶媒体であって、前記コンピュータ可読命令が1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサは、
顧客が予め設定された質問に回答した時のビデオデータを取得することと、
予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行することと、そのうち、認識結果には、手遮蔽のある顔画像と手遮蔽なし顔画像が含まれ、
各前記手遮蔽のある顔画像に対応する手による顔遮蔽位置を取得し、前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得することと、
前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得することと、
前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定し、前記リスク警告認識結果が第1の所定の閾値よりも大きい場合に、前記ビデオデータをリスク警告データとすることとのステップを実行することを特徴とする、コンピュータ可読命令が記憶された一つ以上の可読記憶媒体。 - 上述した予め訓練された遮蔽認識モデルを用いて、前記ビデオデータに対して画像認識を実行するステップの前に、前記コンピュータ可読命令が1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサは、
手遮蔽訓練画像と手遮蔽なし訓練画像を含む遮蔽訓練画像を取得することと、
前記手遮蔽訓練画像と前記手遮蔽なし訓練画像を2値化画像に変換し、顔キーポイント認識アルゴリズムを用いて、前記2値化画像の顔領域を決定することと、
前記顔領域に基づいて、前記顔領域に対応する勾配ヒストグラム特徴を取得することと、
主成分分析アルゴリズムを用いて、前記勾配ヒストグラム特徴に対して次元削減処理を実行し、目標勾配ヒストグラム特徴を取得することと、
SVM分類アルゴリズムを用いて、前記目標勾配ヒストグラム特徴を訓練し、遮蔽認識モデルを取得することとのステップをさらに実行することを特徴とする、請求項15に記載の可読記憶媒体。 - 前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、緊張程度認識結果を取得することは、
前記手遮蔽のある顔画像の全てに対応する手による顔遮蔽位置に基づいて、各前記手による顔遮蔽位置に対応する遮蔽確率を取得することと、
前記最大遮蔽確率に対応する手遮蔽のある顔画像を、緊張評価モデルに入力し、前記最大遮蔽確率に対応する手遮蔽のある顔画像に対応する緊張程度を緊張程度認識結果として取得することとを含むことを特徴とする、請求項15に記載の可読記憶媒体。 - 上述した前記手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、リスクレベル認識結果を取得することは、
K−Meansアルゴリズムを用いて、前記手遮蔽なし顔画像に対してクラスタリング処理を実行し、キーフレームに対応する手遮蔽なし顔画像を決定することと、
前記キーフレームに対応する手遮蔽なし顔画像を予め訓練された安全判断モデルに入力し、前記安全判断モデルから出力されたリスク確率を前記リスクレベル認識結果として取得することとを含むことを特徴とする、請求項15に記載の可読記憶媒体。 - 上述した前記緊張程度認識結果と前記リスクレベル認識結果に基づき、リスク警告認識結果を決定することは、
前記手遮蔽のある顔画像に対応する第1の総フレーム数と、前記手遮蔽なし顔画像に対応する第2の総フレーム数とを取得することと、
前記第1の総フレーム数、前記第2の総フレーム数、前記緊張程度認識結果、および前記リスクレベル認識結果に基づいて、リスク警告認識結果を決定することとを含むことを特徴とする、請求項15に記載の可読記憶媒体。 - 上述した前記第1の総フレーム数、前記第2の総フレーム数、前記緊張程度認識結果、および前記リスクレベル認識結果に基づいて、リスク警告認識結果を決定することは、
前記第1の総フレーム数と前記第2の総フレーム数との差の絶対値を計算することと、
前記差の絶対値が第2の所定の閾値よりも大きい場合に、前記第1の総フレーム数が前記第2の総フレーム数よりも大きくなると、前記緊張程度認識結果をリスク警告認識結果として使用し、前記第1の総フレーム数が前記第2の総フレーム数よりも小さくなると、前記リスクレベル認識結果をリスク警告認識結果として使用することと、
前記差の絶対値が第2の所定の閾値以下である場合に、予め設定された結果計算式により、前記緊張程度認識結果と前記リスクレベル認識結果を計算し、リスク警告認識結果を取得することとを含むことを特徴とする、請求項19に記載の可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811535312.7 | 2018-12-14 | ||
CN201811535312.7A CN109711297A (zh) | 2018-12-14 | 2018-12-14 | 基于面部图片的风险识别方法、装置、计算机设备及存储介质 |
PCT/CN2019/120987 WO2020119450A1 (zh) | 2018-12-14 | 2019-11-26 | 基于面部图片的风险识别方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022501729A true JP2022501729A (ja) | 2022-01-06 |
JP7078803B2 JP7078803B2 (ja) | 2022-05-31 |
Family
ID=66256524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021516611A Active JP7078803B2 (ja) | 2018-12-14 | 2019-11-26 | 顔写真に基づくリスク認識方法、装置、コンピュータ設備および記憶媒体 |
Country Status (7)
Country | Link |
---|---|
EP (1) | EP3896601A4 (ja) |
JP (1) | JP7078803B2 (ja) |
KR (1) | KR20210100602A (ja) |
CN (1) | CN109711297A (ja) |
PH (1) | PH12021551368A1 (ja) |
SG (1) | SG11202103323VA (ja) |
WO (1) | WO2020119450A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7471716B2 (ja) | 2020-09-27 | 2024-04-22 | 中南大学 | 乗客分布予測モデルのトレーニング方法及びシステム、乗客誘導方法及びシステム |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711297A (zh) * | 2018-12-14 | 2019-05-03 | 深圳壹账通智能科技有限公司 | 基于面部图片的风险识别方法、装置、计算机设备及存储介质 |
CN110399818A (zh) * | 2019-07-15 | 2019-11-01 | 联动优势科技有限公司 | 一种风险预测的方法和设备 |
CN110909595B (zh) * | 2019-10-12 | 2023-04-18 | 平安科技(深圳)有限公司 | 面部动作识别模型训练方法、面部动作识别方法 |
CN111144360A (zh) * | 2019-12-31 | 2020-05-12 | 新疆联海创智信息科技有限公司 | 多模信息识别方法、装置、存储介质及电子设备 |
CN111401197B (zh) * | 2020-03-10 | 2023-08-15 | 支付宝(杭州)信息技术有限公司 | 一种图片风险识别方法、装置及设备 |
CN111768286B (zh) * | 2020-05-14 | 2024-02-20 | 北京旷视科技有限公司 | 风险预测方法、装置、设备及存储介质 |
CN111639584A (zh) * | 2020-05-26 | 2020-09-08 | 深圳壹账通智能科技有限公司 | 基于多分类器的风险识别方法、装置及计算机设备 |
CN111967306B (zh) * | 2020-07-02 | 2021-09-14 | 广东技术师范大学 | 目标远程监控方法、装置、计算机设备及存储介质 |
CN112001231B (zh) * | 2020-07-09 | 2023-07-21 | 哈尔滨工业大学(深圳) | 加权多任务稀疏表示的三维人脸识别方法、系统及介质 |
CN112132011B (zh) * | 2020-09-22 | 2024-04-26 | 深圳市捷顺科技实业股份有限公司 | 一种面部识别方法、装置、设备及存储介质 |
CN112201343B (zh) * | 2020-09-29 | 2024-02-02 | 浙江大学 | 基于脸部微表情的认知状态识别系统及方法 |
CN113705472B (zh) * | 2021-08-30 | 2024-01-26 | 平安国际智慧城市科技股份有限公司 | 基于图像识别的异常摄像头排查方法、装置、设备及介质 |
US20230093385A1 (en) * | 2021-09-17 | 2023-03-23 | Microsoft Technology Licensing, Llc | Visibility-based attribute detection |
CN113963424B (zh) * | 2021-12-21 | 2022-03-08 | 西南石油大学 | 一种基于单阶人脸定位算法的婴儿窒息或猝死预警方法 |
CN114613069B (zh) * | 2022-03-08 | 2023-04-28 | 广州锐景数码科技有限公司 | 一种智能自助终端及其智能辅助方法 |
CN116092228B (zh) * | 2023-01-05 | 2024-05-14 | 厦门科拓通讯技术股份有限公司 | 针对面部遮挡的门禁处理方法、装置、门禁设备和介质 |
CN115909468B (zh) * | 2023-01-09 | 2023-06-06 | 广州佰锐网络科技有限公司 | 人脸五官遮挡检测方法、存储介质及系统 |
CN116156198B (zh) * | 2023-04-23 | 2023-06-23 | 哈尔滨学院 | 一种舞蹈教学用视觉测量信号传输装置及系统 |
CN118135498A (zh) * | 2024-05-08 | 2024-06-04 | 成都新希望金融信息有限公司 | 基于ai的双录实时风险识别方法、装置、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030007669A1 (en) * | 2001-06-07 | 2003-01-09 | Sony Corporation And Purdue Research Foundation | Method of recognizing partially occluded and/or imprecisely localized faces |
CN102855496A (zh) * | 2012-08-24 | 2013-01-02 | 苏州大学 | 遮挡人脸认证方法及系统 |
CN105005765A (zh) * | 2015-06-29 | 2015-10-28 | 北京工业大学 | 一种基于Gabor小波和灰度共生矩阵的人脸表情识别方法 |
JP2016081212A (ja) * | 2014-10-15 | 2016-05-16 | 日本電気株式会社 | 画像認識装置、画像認識方法、および、画像認識プログラム |
JP2017108374A (ja) * | 2015-12-01 | 2017-06-15 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN108537160A (zh) * | 2018-03-30 | 2018-09-14 | 平安科技(深圳)有限公司 | 基于微表情的风险识别方法、装置、设备及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1567344A (zh) * | 2003-06-23 | 2005-01-19 | 威视科技股份有限公司 | 脸部监视系统及方法 |
CN107180234A (zh) * | 2017-06-01 | 2017-09-19 | 四川新网银行股份有限公司 | 基于人脸表情识别和人脸特征提取的信用风险预测方法 |
CN108596760A (zh) * | 2018-05-14 | 2018-09-28 | 平安普惠企业管理有限公司 | 贷款风险评估方法及服务器 |
CN108765131B (zh) * | 2018-05-18 | 2023-06-09 | 深圳壹账通智能科技有限公司 | 基于微表情的信贷审核方法、装置、终端及可读存储介质 |
CN108734570A (zh) * | 2018-05-22 | 2018-11-02 | 深圳壹账通智能科技有限公司 | 一种风险预测方法、存储介质和服务器 |
CN109711297A (zh) * | 2018-12-14 | 2019-05-03 | 深圳壹账通智能科技有限公司 | 基于面部图片的风险识别方法、装置、计算机设备及存储介质 |
-
2018
- 2018-12-14 CN CN201811535312.7A patent/CN109711297A/zh active Pending
-
2019
- 2019-11-26 SG SG11202103323VA patent/SG11202103323VA/en unknown
- 2019-11-26 JP JP2021516611A patent/JP7078803B2/ja active Active
- 2019-11-26 KR KR1020217013932A patent/KR20210100602A/ko active Search and Examination
- 2019-11-26 EP EP19895730.0A patent/EP3896601A4/en not_active Withdrawn
- 2019-11-26 WO PCT/CN2019/120987 patent/WO2020119450A1/zh unknown
-
2021
- 2021-06-08 PH PH12021551368A patent/PH12021551368A1/en unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030007669A1 (en) * | 2001-06-07 | 2003-01-09 | Sony Corporation And Purdue Research Foundation | Method of recognizing partially occluded and/or imprecisely localized faces |
CN102855496A (zh) * | 2012-08-24 | 2013-01-02 | 苏州大学 | 遮挡人脸认证方法及系统 |
JP2016081212A (ja) * | 2014-10-15 | 2016-05-16 | 日本電気株式会社 | 画像認識装置、画像認識方法、および、画像認識プログラム |
CN105005765A (zh) * | 2015-06-29 | 2015-10-28 | 北京工业大学 | 一种基于Gabor小波和灰度共生矩阵的人脸表情识别方法 |
JP2017108374A (ja) * | 2015-12-01 | 2017-06-15 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN108537160A (zh) * | 2018-03-30 | 2018-09-14 | 平安科技(深圳)有限公司 | 基于微表情的风险识别方法、装置、设备及介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7471716B2 (ja) | 2020-09-27 | 2024-04-22 | 中南大学 | 乗客分布予測モデルのトレーニング方法及びシステム、乗客誘導方法及びシステム |
Also Published As
Publication number | Publication date |
---|---|
CN109711297A (zh) | 2019-05-03 |
KR20210100602A (ko) | 2021-08-17 |
PH12021551368A1 (en) | 2021-11-29 |
EP3896601A1 (en) | 2021-10-20 |
SG11202103323VA (en) | 2021-04-29 |
WO2020119450A1 (zh) | 2020-06-18 |
EP3896601A4 (en) | 2022-01-26 |
JP7078803B2 (ja) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7078803B2 (ja) | 顔写真に基づくリスク認識方法、装置、コンピュータ設備および記憶媒体 | |
WO2019232866A1 (zh) | 人眼模型训练方法、人眼识别方法、装置、设备及介质 | |
CN103914676B (zh) | 一种在人脸识别中使用的方法和装置 | |
CN108062543A (zh) | 一种面部识别方法及装置 | |
JP6361387B2 (ja) | 識別装置および識別装置の制御方法 | |
CN108629336B (zh) | 基于人脸特征点识别的颜值计算方法 | |
CN111539911B (zh) | 一种口呼吸面容识别方法、设备和存储介质 | |
CN110826408B (zh) | 一种分区域特征提取人脸识别方法 | |
Luo et al. | Shape constrained network for eye segmentation in the wild | |
Verma et al. | Local invariant feature-based gender recognition from facial images | |
Hernandez-Ortega et al. | FaceQvec: Vector quality assessment for face biometrics based on ISO compliance | |
CN107292218A (zh) | 一种表情识别方法及装置 | |
RU2768797C1 (ru) | Способ и система для определения синтетически измененных изображений лиц на видео | |
CN113436735A (zh) | 基于人脸结构度量的体重指数预测方法、设备和存储介质 | |
Hasan et al. | Bangla sign digits recognition using hog feature based multi-class support vector machine | |
Lin et al. | A gender classification scheme based on multi-region feature extraction and information fusion for unconstrained images | |
CN111950403A (zh) | 一种虹膜分类方法及系统、电子设备和存储介质 | |
Mayer et al. | Adjusted pixel features for robust facial component classification | |
Ganakwar et al. | Face detection using boosted cascade of simple feature | |
Xu et al. | Face alignment via an ensemble of random ferns | |
Belle | Detection and recognition of human faces using random forests for a mobile robot | |
Thangamani et al. | Image Retrieval System by Skin Colour and Edge Information | |
Aishwarya et al. | RETRACTED: Facial Recognition Using Aggregation and Random Forest Classification Method | |
Nikisins et al. | Reduced complexity automatic face recognition algorithm based on local binary patterns | |
Rabba et al. | Discriminative robust gaze estimation using kernel-dmcca fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210323 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220519 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7078803 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |