[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5359266B2 - 顔認識装置、顔認識方法及び顔認識プログラム - Google Patents

顔認識装置、顔認識方法及び顔認識プログラム Download PDF

Info

Publication number
JP5359266B2
JP5359266B2 JP2008334665A JP2008334665A JP5359266B2 JP 5359266 B2 JP5359266 B2 JP 5359266B2 JP 2008334665 A JP2008334665 A JP 2008334665A JP 2008334665 A JP2008334665 A JP 2008334665A JP 5359266 B2 JP5359266 B2 JP 5359266B2
Authority
JP
Japan
Prior art keywords
area
region
eye
nose
face recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008334665A
Other languages
English (en)
Other versions
JP2010157073A (ja
Inventor
明義 田福
幸三 馬場
寿雄 伊藤
卓 片桐
浄 丹治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008334665A priority Critical patent/JP5359266B2/ja
Publication of JP2010157073A publication Critical patent/JP2010157073A/ja
Application granted granted Critical
Publication of JP5359266B2 publication Critical patent/JP5359266B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮影された画像に基づいて人物の顔を認識する顔認識装置に関して、特に顔部位隠蔽物を検出することにより、顔認識の精度を向上させる顔認識装置に関する。
顔認識装置は、撮影された画像から人物の顔を認識して特定することにより、人物の認証や状況把握ができるため、人物を特定する個人認証装置や顔の位置状況から安全状況を確認する安全確認装置をはじめとする広い分野で利用されている。一般的に、顔認識装置は、顔領域、眼位置、鼻位置、口位置を含む顔部位を各々検出し、当該顔部位の状況から顔向きの判定や眼の開閉判定をはじめとする人物の顔の認識を行っている。しかし、顔認識装置は、顔部位が隠蔽物により隠蔽される場合には、当該隠蔽物により顔部位を誤認識する虞がある。
従来の顔認識装置は、利用者により選択された顔部位の特徴部分を重視して顔認識を行うものがある(例えば、特許文献1参照)。
特開2007−257221号公報
しかし、従来の顔認識装置は、利用者が顔部位の特徴部分を都度選択するために手間がかかるという課題を有する。また、従来の顔認識装置は、隠蔽物を検知した場合であっても、隠蔽された顔部位を利用せずに他の顔部位を利用するために、隠蔽物がある場合には顔認識の精度が低下してしまうという課題を有する。
本発明は前記課題を解消するためになされたもので、顔部位の隠蔽物を検出することにより隠蔽されている顔部位を特定し、顔認識の精度を向上させる顔認識装置の提供を目的とする。
本願に開示する顔認識装置は、一観点によれば、撮像画像から鼻領域を検出し、鼻領域の未検出時には撮像画像の輝度値からマスク着用によるマスク領域を検出してマスク領域から鼻領域を検出し、検出された鼻領域から眼領域を検出して顔認識を行うものである。
このように、本願に開示する顔認識装置は、マスク領域を検出することによりマスク領域をも利用して鼻領域に基づいて顔認識を行うこととなり、顔認識の精度を向上させることができる。
(本発明の第1の実施形態)
以下、本発明の第1の実施形態に係る顔認識装置を、図1から図13に基づいて説明する。図1は本発明の第1の実施形態に係る顔認識装置の構成を示すブロック図、図2はこの図1に記載された顔認識装置の全体構成図、図3はこの図1に記載された顔認識装置の全体フローチャートを示す。図4はこの図1に記載された顔認識装置の顔領域及び顔部位検出のフローチャート、図5はこの図1に記載された顔認識装置の鼻領域検出のフローチャートを示す。図6はこの図1に記載された顔認識装置の送信データ受信のマスク検出のフローチャート、図7はこの図1に記載された顔認識装置の眼鏡ブリッジ領域検出のフローチャートを示す。図8はこの図1に記載された顔認識装置の眼鏡フレーム領域検出のフローチャート、図9はこの図1に記載された顔認識装置のサングラス領域検出のフローチャート、図10はこの図1に記載された顔認識装置のサングラス領域総合判定のフローチャートを示す。図11はこの図1に記載された顔認識装置の眼領域の位置検出のフローチャート、図12はこの図1に記載された顔認識装置の眼帯領域検出のフローチャート、図13はこの図1に記載された顔認識装置の顔向き検出の説明図を示す。
図1において、本実施形態に係る顔認識装置10は、顔領域検出手段1と、鼻領域検出手段2と、マスク着用判断手段3と、マスク領域検出手段31と、マスク内鼻領域検出手段32と、眼領域検出手段4と、顔認識手段5と、顔情報蓄積手段5aとを備える。また、本顔認識装置は、眼鏡フレーム領域検出手段41と、サングラス判断手段42と、眼帯判断手段43と、眼帯領域検出手段44と、顔認識予測手段6と、特徴判断手段7と、警報手段8とを備える。
この顔領域検出手段1は、撮影手段100により撮影された撮像画像から人物の顔の存在領域としての顔領域を検出する。また、この鼻領域検出手段2は、人物の鼻の存在領域としての鼻領域を検出し、この顔情報蓄積手段5aに蓄積記憶する。このマスク着用判断手段3は、この鼻領域検出手段2により鼻領域が検出されなかった場合に、撮像画像100の水平及び垂直方向の輝度値から、人物がマスクを着用しているかを判断する。
このマスク領域検出手段31は、このマスク着用判断手段3に基づいて、人物がマスクを着用している場合に、マスクの存在領域としてのマスク領域を検出する。このマスク内鼻領域検出手段32は、マスク領域検出手段により検出されたマスク領域に基づいて、このマスク領域に含まれる鼻領域を特定し、この顔情報蓄積手段5aに蓄積記憶する。
また、この眼領域検出手段4は、この鼻領域検出手段2又はマスク内鼻領域検出手段32により特定された鼻領域に基づいて、人物の眼の存在領域としての眼領域を検出する。また、この顔認識手段5は、この眼領域検出手段4により検出された眼領域の画像情報から眼の開度及び視線方向を認識し、この眼領域及び鼻領域から顔の向きを認識し、この認識した内容をこの顔情報蓄積手段5aに蓄積記憶する。
また、この眼鏡フレーム領域検出手段41は、検出された眼領域の画像情報から、人物に着用された眼鏡のフレームの存在領域としての眼鏡フレーム領域を検出する。また、このサングラス判断手段42は、この眼鏡フレーム検出手段41により検出された眼鏡フレーム領域の輝度分布から、この眼鏡がサングラスかを判断する。
また、この眼帯判断手段43は、検出された眼領域における画像情報の水平及び垂直方向の輝度値に基づいて、人物が眼帯を着用しているかを判断する。また、この眼帯領域検出手段44は、この眼帯判断手段43により眼帯が着用されていると判断された場合には、この眼帯の存在領域としての眼帯領域を検出する。
この顔認識予測手段6は、この蓄積記憶された顔情報蓄積手段5aから、次の時点で認識される顔の状態を予測する。この特徴判断手段7は、この蓄積記憶された顔情報蓄積手段5aから、人物の顔の特徴を判断する。この警報手段8は、この顔認識手段5、この顔認識予測手段6及びこの特徴判断手段7で認識された人物の顔の状態に応じて、現在の人物の状況を推測し、必要時に警報を発生させる。
本実施形態の全体構成は、図2に示すように、前記顔認識装置10と、自動車200と、この自動車200を運転する運転手300とを備える。また、前記顔認識装置10は、この運転手300の顔300Aを撮影する前記撮影手段100としての車載カメラ100Aと、この運転手300に必要時に警報を発生させる前記警報手段8としての警報装置8Aとを備える。
以下、前記構成に基づく本実施形態の顔認識装置の動作について説明する。なお、以下、X方向とは顔の水平方向を指し、Y方向とは顔の垂直方向を指すものとする。また、本顔認識装置は、図3に示すように、S1からS9までの処理で生成される画像情報を1つの画像フレームとして、時系列的に画像フレームを順次演算し、前記顔情報蓄積手段5aに蓄積記憶する。
まず、前記顔認識装置10は、前記車載カメラ100Aにより撮影された画像フレームから、前記運転手300の顔300Aの領域を顔領域として検出する(S2)。
この顔領域の検出に関して、前記顔領域検出手段1は、図4(a)に示すように、まず、この画像フレームの垂直方向に隣接して配列される各画素データの輝度値を順次加算する(S21)。次に、前記顔領域検出手段1は、予め設定された輝度値の閾値を用いて、この順次加算された輝度値の総和がこの閾値よりも大きい場合に、この輝度値を順次加算された範囲の画素データが顔領域に含まれると判断し、顔領域を特定する(S22)。ここで、この顔領域の特定は、顔領域が髪の領域及び背景領域と比較して相対的に明るく撮像される傾向にあることを利用している。
前記顔領域検出手段1は、前記S21にて順次加算された輝度値に関して水平方向の変化量を算出し、夫々算出された変化量が大きく変化する位置を、水平方向における顔の輪郭部分と特定し、顔領域を特定する(S23)。ここで、この顔領域の特定は、画像フレームにおける水平方向の輝度値の変化量が、背景の領域と顔領域との境界領域において、他の箇所と比較して相対的に大きく変化する傾向にあることを利用している。
前記顔領域検出手段1は、特定された前記顔300Aに関する顔領域を記憶し、この顔領域の情報を後続の処理に引き継ぐ(S24)。次に、前記顔認識装置10は、図3に示すように、この特定された顔領域から前記顔300Aに含まれる顔部位を検出する(S3)。
この顔部位の検出に関して、前記鼻領域検出手段2は、図4(b)に示すように、まず、前記顔300Aに含まれる鼻領域を検出する(S31)。前記鼻領域検出手段2は、図5に示すように、垂直方向に隣接して配列される画素データの輝度値を順次加算する(S311)。前記鼻領域検出手段2は、この順次加算された輝度値における極小値を特定する(S312)。
前記鼻領域検出手段2は、この極小値が複数存在するかを判定する(S313)。前記鼻領域検出手段2は、この極小値が複数存在する場合には、2つの極小値間の水平方向における距離を算出する(S314)。
前記領域検出手段2は、この算出された距離が閾値よりも小さいかを判定する(S315)。前記領域検出手段2は、この算出された距離が閾値よりも小さい場合には、この2つの極小値における中央位置を算出する(S316)。前記領域検出手段2は、この算出された中央位置を鼻領域として特定し、前記顔情報蓄積手段5aに記憶する(S317)。
また、前記鼻領域検出手段2は、前記S313にて前記極小値が複数存在しない場合には、この極小値を鼻領域として特定し、前記顔情報蓄積手段5aに記憶する(S318)。ここで、この鼻領域の特定は、鼻領域が顔領域において相対的に暗く撮像される傾向にあることを利用している。また、前記領域検出手段2は、前記S315にて、この算出された距離が閾値よりも大きい場合には、この鼻領域の検出が不可能であると判断する(S319)。
次に、前記顔領域検出手段1は、前期S31の鼻領域の検出位置の下方に口存在領域を設定し、その領域の中で垂直エッジの水平方向への連続性から口領域を検出する(S32)。次に、前記顔領域検出手段1は、例えば、画像データにおける水平方向の画素値(輝度値)の和に基づいて眼Y位置を特定する技術を用いる。この技術は、例えば本願出願人により出願された特開2004−234367号公報に記載されており、これらの技術を用いることで眼Y位置を正確に検出することができる(S33)。ここで、この眼Y位置とは、垂直方向における前記運転手300の眼の位置を示す。
次に、前記顔領域検出手段1は、前記鼻領域又は口領域が検出できたかを判断する(S34)。前記マスク着用判断手段3は、この判断により前記鼻領域又は口領域が検出できなかった場合には、マスク検出を行う(S35)。
このマスク検出に関して、前記マスク着用判断手段3は、図6に示すように、マスク検出領域を設定する(S351)。このマスク検出領域の設定に関して、前記マスク着用判断手段3は、マスク検出領域の上端を、直前の画像フレームにて眼領域を取得済みの場合にはこの眼領域における眼位置(Y)を設定する。ここで、眼位置(Y)とは、片眼しか取得できていない場合には片眼の垂直方向であるY位置であり、両眼とも取得できている場合には右眼と左眼のこのY位置の中心を示す。
また、前記マスク着用判断手段3は、直前の画像フレームにて眼領域を取得できなかった場合には、前記眼Y位置を示し、前記眼Y位置を取得できなかった場合には撮像された画像フレームの上端を示す。
次に、前記マスク着用判断手段3は、マスク検出領域の下端を、上端+顔幅×N(Nは閾値)とする。また、前記マスク着用判断手段3は、マスク検出領域の右端を、前記顔領域の右端とする。また、前記マスク着用判断手段3は、マスク検出領域の左端を、前記顔領域の左端とする。
次に、前記マスク着用判断手段3は、この検出されたマスク検出領域内の水平方向を投影し、この投影された輝度値の傾きが最大となる位置を検出する(S352)。ここで、前記マスク着用判断手段3は、この水平方向投影において、投影された輝度値の傾きが急激に上昇する箇所をマスク領域の上端とし、投影された輝度値の傾きが急激に下降する箇所をマスク領域の下端とする。
次に、前記マスク着用判断手段3は、このS352と同様に、この検出されたマスク検出領域内の垂直方向を投影し、この投影された輝度値の傾きが最大となる位置を検出し、マスク領域の右端及び左端を検出する(S353)。
次に、前記マスク着用判断手段3は、この検出されたマスク領域から、マスク領域の縦横比が閾値内の条件を満たすかを判断する(S354)。前記マスク着用判断手段3は、マスク領域の縦横比が閾値内の場合には、この検出されたマスク領域から、マスク幅と顔幅の比が閾値内の条件を満たすかを判断する(S355)。
前記マスク着用判断手段3は、マスク幅と顔幅の比が閾値内の場合には、この検出されたマスク領域から、マスク高さと顔幅の比が閾値内の条件を満たすかを判断する(S356)。前記マスク着用判断手段3は、マスク高さと顔幅の比が閾値内の場合には、この検出されたマスク領域から、マスク領域の輝度平均値が閾値以上の条件を満たすかを判断する(S357)。
前記マスク着用判断手段3は、マスク領域の輝度平均値が閾値以上の場合には、この検出されたマスク領域から、マスク領域の輝度分散値が閾値未満の条件を満たすかを判断する(S358)。前記マスク着用判断手段3は、マスク領域の輝度分散値が閾値未満の場合には、この検出されたマスク領域にマスクが含まれると判断する(S359)。
また、前記マスク着用判断手段3は、このS354からS358の判断にて、各条件のうち1つでも満たさない場合には、この検出されたマスク領域にマスクが含まれないと判断する。前記マスク領域検出手段31は、図4(b)に示すように、この判断に基づいて、この検出されたマスク領域からマスクを検出する(S35)。また、前記マスク内鼻領域検出手段32は、例えば、検出されたマスク領域の中心位置を鼻領域とみなして、鼻領域を検出し、前記顔情報蓄積手段5aに記憶することができる。
次に、前記眼鏡フレーム領域検出手段41は、まず、左右の眼鏡フレーム間に架橋された眼鏡ブリッジの検出を行う(S36)。前記眼鏡フレーム領域検出手段41は、図7に示すように、顔情報蓄積手段5aに基づいて、直前の過去に眼領域が記憶されているかを確認する(S361)。前記眼鏡フレーム領域検出手段41は、直前の過去に眼領域が記憶されている場合には、この眼領域から眼鏡ブリッジの検出処理範囲を算出する(S362)。
この検出処理範囲の算出に関しては、水平方向は、前フレームの左右の眼位置(X)の中点、垂直方向は、眼Y位置、もしくは前フレームの左右の眼位置(Y)の中点を基準点とし、この基準点より垂直方向上側にN1画素、下側にN2画素、水平方向両側に各々N3画素の広がりを有する領域をこの検出処理範囲として算出することができる。また、このN1、N2及びN3は、前記運転者300の顔幅に対する固定比によって定められることができる。
このように、前記眼鏡フレーム領域検出手段41は、この検出処理範囲を顔幅に応じて変動させることにより、前記車載カメラ100と前記運転者300との距離に関わらず適切な検出処理領域を算出することができる。具体的には、前記眼鏡フレーム領域検出手段41は、前記運転者300が前記車載カメラ100に近い場合には、この検出処理範囲を広げ、前記運転者300が前記車載カメラ100から遠い場合には、この検出処理範囲を狭めることができる。
前記眼鏡フレーム領域検出手段41は、この検出処理範囲において、水平方向に並んだ各画素の輝度値を積算して輝度積算値を算出する(S363)。前記眼鏡フレーム領域検出手段41は、この輝度積算値の上下差分値に基づいて、眼鏡ブリッジの上下位置候補を検出する(S364)。
ここで、この上下差分値は、例えば、上下差分値=M1(y+一定画素)−M1(y)により算出することができる。但し、このyは、水平ラインにおけるY座標の1つを示し、M1(y)はこの水平ラインにおける輝度積算値を示す。
また、この上下位置候補に関して、前記眼鏡フレーム領域検出手段41は、上下差分値が最大となるY座標を眼鏡ブリッジの上位置候補として検出し、上下差分値が最小となるY座標を眼鏡ブリッジの下位置候補として検出することができる。ここで、この検出に関しては、眼鏡ブリッジが存在している場合では水平方向における眼鏡ブリッジ領域の輝度積算値が他の部分に比べて相対的に低いことを利用している。
前記眼鏡フレーム領域検出手段41は、この検出処理範囲において、垂直方向の輝度値を積算することにより輝度積算値を算出する(S365)。前記眼鏡フレーム領域検出手段41は、この輝度積算値の左右差分値に基づいて、眼鏡ブリッジの左右位置候補を検出する(S366)。
ここで、この左右差分値は、例えば、左右差分値=M2(x+一定画素)−M2(x)により算出することができる。但し、このxは、垂直ラインにおけるY座標の1つを示しており、M2(x)はこの垂直ラインにおける輝度積算値を示している。
また、前記眼鏡フレーム領域検出手段41は、この左右位置候補に関して、左右差分値が最大となるX座標を眼鏡ブリッジの左位置候補として検出し、左右差分値が最小となるX座標を眼鏡ブリッジの右位置候補として検出することができる。ここで、この検出に関しては、眼鏡ブリッジが存在している場合では垂直方向における眼鏡ブリッジ領域の輝度積算値が他の部分に比べて相対的に低いことを利用している。
前記眼鏡フレーム領域検出手段41は、この検出された眼鏡ブリッジの左右位置候補及び上下位置候補処理範囲に基づいて、眼鏡ブリッジの存在を判断する(S367)。前記眼鏡フレーム領域検出手段41は、この判断に関して、眼鏡ブリッジの上位置候補の上下差分値の絶対値と、下位置候補の上下差分値の絶対値との和が閾値以上である第1の条件を満たすかを判断する。
前記眼鏡フレーム領域検出手段41は、この第1の条件を満たすと判断した場合には、眼鏡ブリッジにおける右位置候補の左右差分値の絶対値と、左位置候補の左右差分値の絶対値との和が閾値以上である第2の条件を満たすかを判断する。さらに、前記眼鏡フレーム領域検出手段41は、この第2の条件を満たすと判断した場合には、眼鏡ブリッジの左位置候補と右位置候補との距離が顔幅に対して閾値範囲内に有る第3の条件を満たす場合に、眼鏡ブリッジ有りと判定する。前記眼鏡フレーム領域検出手段41は、眼鏡ブリッジが存在すると判断した場合には、この眼鏡ブリッジ領域を検出して記憶する(S368)。
このように、前記眼鏡フレーム領域検出手段41は、この3つの条件により、自然な位置関係を満たす場合に限り、この眼鏡ブリッジの上下位置候補及び左右位置候補を眼鏡ブリッジとして検出することができる。なお、前記眼鏡フレーム領域検出手段41は、第1の閾値及び第2の閾値を、眼鏡ブリッジの検出結果の学習によって変化させることもできる。また、前記眼鏡フレーム領域検出手段41は、眼鏡ブリッジの取得率に基づいて第1及び第2の閾値を増減させることもでき、この場合には眼鏡の種類に応じた最適な閾値を得ることとなり、正確に眼鏡ブリッジを検出することができる。
また、前記眼鏡フレーム領域検出手段41は、前記S361にて直前の過去に眼領域が記憶されていない場合には、前記鼻領域から眼鏡ブリッジの検出処理範囲を算出する(S369)。この場合には、前記眼鏡フレーム領域検出手段41は、水平方向における左右の鼻穴の中点から垂直方向上側へN4画素の位置を基準位置とし、前記S362と同様の方法で眼鏡ブリッジの検出処理範囲を算出する。
また、このN4も、前記運転者300の顔幅に対する固定比によって定められることができる。前記眼鏡フレーム領域検出手段41は、このS369以降には、前記S363から前記S368までと同様の処理を行う。また、前記眼鏡フレーム領域検出手段41は、前記S367にて眼鏡ブリッジが存在しないと判断した場合には、前記S368における眼鏡ブリッジ領域の記憶は行わない。
次に、前記眼鏡フレーム領域検出手段41は、図4(b)に示すように、眼鏡フレームを検出する(S37)。前記眼鏡フレーム領域検出手段41は、図8(a)に示すように、眼鏡下フレーム検出に関して、まず、眼鏡下フレームを検出するための検出処理範囲を算出する(S371)。
この検出処理範囲の水平方向の範囲は、過去に検出された眼位置を中心として左右に顔幅のN9%の範囲である。また、この検出処理範囲の下端は、鼻穴の中点から顔幅のN10%下側の位置である。また、この検出処理範囲の上端は、眼Y位置、もしくは前フレームの眼位置(Y)の中点とする。
前記眼鏡フレーム領域検出手段41は、この検出処理範囲の算出後、この検出処理範囲において微分フィルタを用いて微分フィルタ抽出処理を実行する(S372)。この微分フィルタは、垂直方向において上方から下方へ輝度が高い画像領域、輝度が低い画像領域、輝度が高い画像領域へと変化する下フレーム部分を抽出するフィルタである。
前記眼鏡フレーム領域検出手段41は、Y方向ラインにおいて検出処理範囲の下方から上方へ順に微分フィルタ値を算出し、最初に閾値以上になった画素を検出する。この微分フィルタの値は、対象画素を中心とした8近傍の8画素にそれぞれ微分フィルタの係数を乗算し、乗算して得た値を加算した数値である。
なお、前記眼鏡フレーム領域検出手段41は、この微分フィルタ処理中に対象画素より1画素上方の画素、例えば対象画素のY座標をy1としてY座標がy1−1の画素の輝度が第1の輝度以上では、外部光源からの光を眼鏡レンズが反射している部分と判定する。前記眼鏡フレーム領域検出手段41は、この画素を反射部分画素として検出する。第1の輝度としては、例えば255階調で240である。この外部光源としては、顔認識等の各種目的で前記運転者300を照明するために車内に設置されているLED光源を用いることができる。
また、前記眼鏡フレーム領域検出手段41は、微分フィルタ処理開始時の対象画素である検出処理範囲の下側部分において、対象画素より1画素上方又は1画素下方の画素の輝度が一方でも第2の輝度以上である場合には、顔全体が明るい傾向にあると判断する。前記眼鏡フレーム領域検出手段41は、この判断により第1の輝度を上げる。
前記眼鏡フレーム領域検出手段41は、例えば、第2の輝度が256階調で210の場合に、第1の輝度を240から250に上昇させる。このように、前記眼鏡フレーム領域検出手段41は、第1の輝度及び第2の輝度を相関的に制御することにより、前記反射部分画素をより正確に検出することができる。
前記眼鏡フレーム領域検出手段41は、あるY方向ラインに対してこの検出を終えた場合には、検出処理領域において左側から右側へ他のY方向ラインに対しても同様の処理を順次実行する。なお、前記眼鏡フレーム領域検出手段41は、検出処理範囲の水平方向の幅に応じて、微分フィルタ処理の対象となるY方向ラインを間引き、最大n個の結果を算出することができる。このnは、処理速度及び判定精度の相間関係に応じて設定されることができる。
前記眼鏡フレーム領域検出手段41は、この微分フィルタ抽出処理を終えた場合には、眼鏡下フレームの下位置を検出する(S373)。前記眼鏡フレーム領域検出手段41は、このS372で複数の画素が検出されている場合には、この眼鏡下フレームの下位置を、検出されたn個の画素に含まれる各画素のY座標の中間値を下位置のY座標とする。また、前記眼鏡フレーム領域検出手段41は、検出処理範囲の水平方向中央部のX座標を、下位置のX座標として記憶する。
前記眼鏡フレーム領域検出手段41は、前記S372で画素が検出されなかった場合には、前記反射部分画素が検出されたか否かを判定する。また、前記反射部分画素が検出されていると判定した場合には、この反射部分画素のY座標を下位置のY座標とする。なお、前記眼鏡フレーム領域検出手段41は、前記反射部分画素が複数ある場合には、最大となる前記反射部分画素のY座標を下位置のY座標とする。
前記眼鏡フレーム領域検出手段41は、下フレームが無い眼鏡の場合には、この下フレームが検出されないが、前記反射部分が検出されている場合には、反射部分に眼鏡が存在していると考えられるため、反射部分の最下端を下位置とする。前記眼鏡フレーム領域検出手段41は、前記S372で画素が検出されず、前記反射部分画素が検出されてない場合には、この眼鏡下フレームが無いと判定する。
なお、前記眼鏡フレーム領域検出手段41は、n個検出した画素における微分フィルタ値の平均値を算出し、この眼鏡下フレームスコアとすることができる。前記眼鏡フレーム領域検出手段41は、この眼鏡下フレームスコアにより検出された下位置が眼鏡であるか眼であるかを判定することができる。前記眼鏡フレーム領域検出手段41は、眼鏡下フレームスコアが第1の閾値より大きい場合には、眼鏡であると判定し、眼鏡下フレームスコアが第1の閾値より小さい第2の閾値未満の場合には、眼であると判定することができる。
次に、前記眼鏡フレーム領域検出手段41は、図8(a)に示すように、眼鏡上フレーム検出に関して、前記眼鏡下フレームの処理と同様に、検出処理範囲を算出し(S374)、前記微分フィルタを抽出し(S375)、眼鏡上フレームを検出する(S374)。
前記眼鏡フレーム領域検出手段41は、図4(b)に示すように、このS37にて眼鏡領域が検出されたかを判断する(S38)。前記サングラス判断手段42は、この眼鏡領域が検出された場合には、サングラス領域の検出を行う(S39)。
前記サングラス判断手段42は、図9に示すように、サングラスであるか否かの判定結果を示すサングラスフラグをオフに初期化する(S391)。次に、前記サングラス判断手段42は、サングラス処理範囲内の輝度平均及び輝度の分散値を算出する(S392)。サングラス処理範囲の上下は、前記眼鏡上フレームの上位置及び眼鏡下フレームの下位置であり、サングラス処理範囲の左右は、前記眼鏡下フレームの処理範囲と同様である。
次に、前記サングラス判断手段42は、この輝度平均値が閾値以下であるか否かを判定する(S393)。前記サングラス判断手段42は、この輝度平均値が閾値以下であると判定した場合には、この輝度値の分散値が閾値以下であるか否かを判定する(S394)。
前記サングラス判断手段42は、この判定において閾値以下の場合には、サングラスフラグをオンにしてサングラスを検出する(S395)。前記眼領域検出手段4は、サングラスが検出された場合には、眼位置をサングラスの中心部とみなして設定する。
このように、サングラスが着用された場合でも、眼位置をサングラスから特定することとなり、顔認識の精度を向上させることができる。次に、前記サングラス判断手段42は、眼鏡の左右両側のサングラス判定を実行したか否かを判定する(S396)。
前記サングラス判断手段42は、左右両側又はいずれか一方のサングラス判定を実行していないと判定した場合には、前記S391以降の処理を同様に行う。また、前記サングラス判断手段42は、左右両側のサングラス判定を実行したと判定した場合には、サングラス判定に係る処理を終える。
また、前記サングラス判断手段42は、前記S393にて輝度平均値が閾値より大きいと判定した場合には、前記S396のサングラス判定を行い、前記S396以降と同様の処理を行う。また、前記サングラス判断手段42は、前記S394にて分散値が閾値より大きいと判定した場合には、前記S396のサングラス判定を行い、前記S396以降と同様の処理を行う。
次に、前記サングラス判断手段42は、図10に示すように、過去に記憶されたフレームのサングラスフラグを読み出す(S397)。前記サングラス判断手段42は、閾値以上のフレーム数においてサングラスフラグがオンであるか否かを判定する(S398)。
前記サングラス判断手段42は、閾値以上のフレームでオンであると判定した場合には、サングラスの有無を総合的に判断した結果を示す総合サングラスフラグをオンにする(S399−1)。前記サングラス判断手段42は、前記S398にて閾値未満のフレーム数にてオンであると判定した場合には、総合サングラスフラグをオフにする(S399−2)。
このように、前記サングラス判断手段42は、複数フレームでのサングラス判定結果を用いて総合的に判定することにより、サングラスフラグが示す1フレーム結果のみでは発生しがちなサングラスの誤認識を防止することができる。このサングラスの誤認識を発生させる要因としては、例えば、瞬間的な輝度変化、手の進入が挙げられる。
次に、前記眼領域検出手段4は、図3に示すように、眼領域の位置を検出する(S4)。前記眼領域検出手段4は、図11に示すように、この眼領域の位置検出に関して、まず、サングラス領域が存在し、かつこのサングラス領域のレンズ領域が暗い状態かという条件を満たすかを判断する(S41)。前記眼領域検出手段4は、このレンズ領域の輝度平均値が閾値未満であるかによりこの条件に対する判断を行うことができる。
前記眼領域検出手段4は、このS41の条件を満たさない場合には、右眼と左眼の各々に対して後続処理を適用するためのループ処理を開始する(S42)。このループ処理において、まず、前記眼帯領域検出手段44は、眼帯領域を検出する(S43)。
この眼帯領域の検出に関して、前記眼帯判断手段43は、図12(a)に示すように、眼帯領域の検出領域である眼帯検出領域を設定する(S431)。前記眼帯判断手段43は、同図(b)に示すように、この眼帯検出領域の設定に関して、まず、X方向の鼻位置である鼻位置(X)と顔領域の一端である顔端と平行する中心線を算出する。
前記眼帯判断手段43は、この中心線からX方向の左側に顔幅のN3%に収まる範囲及びこの中心線からX方向の右側に顔幅のN4%に収まる範囲をこの眼帯検出領域のX方向の幅とする。また、前記眼帯判断手段43は、前記眼Y位置から上向きのY方向に沿って顔幅のN1%となる位置を、この眼帯検出領域のY方向の上位置とし、前記眼Y位置から下向きのY方向に沿って顔幅のN2%となる位置を、この眼帯検出領域のY方向の下位置とする。また、前記眼帯判断手段43は、前記眼Y位置が存在しない場合には、前回フレームでの眼位置(Y)を前記眼Y位置の代替とすることができる。
次に、前記眼帯判断手段43は、同図(a)に示すように、検出された眼帯検出領域に基づいて、眼帯の存在を判定する(S432)。前記眼帯判断手段43は、この眼帯検出領域の輝度分散値が閾値N未満であり、かつ顔領域の輝度平均値に占める眼帯検出領域の輝度平均値が閾値M以上の場合に、眼帯が存在すると判断する。なお、前記眼帯判断手段43は、この眼帯の位置及びサイズを前記眼帯検出領域と同じとすることができる。
次に、前記眼帯判断手段43は、図11に示すように、眼帯領域が検出されたかを判断する(S44)。前記眼帯判断手段43は、眼帯領域が検出されていない場合には、眼位置を検出する(S45)。
この眼位置の検出に関して、前記眼領域検出手段4は、図13(a)に示すように、検出した鼻位置に基づいて、眼位置を検出することができる。また、前記眼帯判断手段43は、同図(b)に示すように、マスクが存在する場合でも、検出したマスク領域の中心位置を鼻の代替位置とみなして、同様に眼位置を検出することができる。このように、前記眼帯判断手段43は、鼻位置に基づいて眼位置を算出することから、眼位置を高精度に検出することができる。
また、前記眼帯判断手段43は、例えば、2値化処理を利用した検出方法を併用してこの眼位置を検出することができる。具体的には、前記眼帯判断手段43は、取得した画像フレームを1と0の数値により2値化し、得られた画像フレームにおいて、画素データの数値1の画素が集合する領域を検出し、この領域を瞳である可能性の高い領域であると特定することができる。
また、前記眼領域検出手段4は、図11に示すように、前記S44にて、眼帯領域が検出された場合には、眼位置を眼帯領域の中央部とみなして検出する。このように、眼帯が着用された場合でも、眼位置を眼帯から特定することとなり、顔認識の精度を向上させることができる。
また、前記眼領域検出手段4は、このS43からS45までの眼領域に関する処理を、左右の眼に対して行った場合には、前記ループ処理を終了する(S46)。次に、前記眼領域検出手段4は、図3に示すように、検出された眼に対して、眼の形状を抽出する(S5)。
次に、前記顔認識手段5は、図3に示すように、検出された顔の各部位の位置関係を利用して顔向きを算出することにより、顔向きを算出する(S6)。具体的には、前記顔認識手段5は、図13(c)に示すように、顔領域の顔幅Aに対する鼻の相対位置Bから顔の左右向き角度を算出することができる。また、前記顔認識手段5は、同図(d)に示すように、マスクが存在する場合にも、顔領域の顔幅Aに対するマスク中央部の鼻の相対位置Bから顔の左右向き角度を算出することができる。
次に、前記眼領域検出手段4は、図3に示すように、眼の開度を算出する(S7)。具体的には、前記眼領域検出手段4は、画像フレーム中の眼の領域を、眼の領域における輝度分布や画素の輝度値平均及び輝度値の標準偏差により特徴データとして算出し、この特徴データの変化量を前後の画像フレームで比較することにより眼の開度を算出することができる。
前記顔認識予測手段6は、次フレームでの顔を予測する(S8)。また、前記特徴判断手段7は、前記運転手300の特徴、例えば、瞬きが多い、首をよく振る、目の開き具合が少ない等の特徴を判断し、この予測に対する情報を提供することができる。
前記警報手段8は、顔向きや眼の開閉状態に応じて、前記運転手300に対して具体的なアクションを発生させる(S9)。このように、前記顔認識予測手段6は、前後フレームの相間関係を利用して顔の動きを予測することから、前記運転手300が予測の範囲に含まれる動作であるかを判断できることとなり、前記運転手300の異常な動作の検出精度を向上させることができる。
前記警報手段8は、例えば、前記運転手300の眼の開き具合から居眠り運転や過労と判断できる場合には、休息の指示アラームを音声により発生させることができる。また、前記警報手段8は、例えば、前記運転手300の顔の向きから脇見運転と判断できる場合には、脇見運転禁止アラームを音声により発生させることができる。
前記顔認識予測手段6は、前記S1からS9までの1フレームの処理が終了すると、次フレーム処理を行うかを判断する(S10)。前記顔認識予測手段6は、次フレーム処理を行う場合には、前記S1に戻り、以降前記S1からS9までの1フレームの処理が次フレーム処理として実施される。また、前記顔認識予測手段6は、次フレーム処理を行わない場合、例えば、顔認識装置の動作を外部から停止された場合には、処理を終了する。
また、本実施形態に係る顔認識装置10のハードウエア構成は、CPU、メモリ、記憶装置、赤外線発光装置及び上記各部を接続するバスからなる。
なお、本実施形態では、マスクを顔の遮蔽物の一例として説明したが、この遮蔽物としてはマスクに限定されず、顔を覆う遮蔽物であれば広く適用することができ、例えば、タオルやハンカチの場合でも本実施形態を適用することができる。なお、本実施形態では、顔認識装置10は、車載カメラでの運転手への警告装置を備えて顔認識の結果に応じた警報を行ったが、この利用形態に限定されず、例えば、顔認識の結果の蓄積による監視や、顔認識の結果による本人認証など、顔認識を用いる広い分野に適用することができる。
[付記] 以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)撮像された人物の撮像画像に基づいて人物の顔を認識する顔認識装置において、前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出手段と、前記鼻領域検出手段により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物が少なくとも顔の一部を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断手段と、前記遮蔽物着用判断手段により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出手段と、前記遮蔽物領域検出手段により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出手段と、前記鼻領域検出手段又は遮蔽物内鼻領域検出手段により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出手段とを備える顔認識装置。
(付記2)前記眼領域検出手段により検出された眼領域の画像情報に基づいて眼の開度及び/又は視線方向を認識し、前記眼領域及び/又は鼻領域に基づいて顔の向きを認識する顔認識手段を備える付記1記載の顔認識装置。
(付記3)前記検出された眼領域の画像情報に基づいて、人物に着用された眼鏡のフレームの存在領域としての眼鏡フレーム領域を検出する眼鏡フレーム領域検出手段と、前記眼鏡フレーム検出手段により検出された眼鏡フレーム領域の輝度分布に基づいて、前記眼鏡がサングラスかを判断するサングラス判断手段とを備え、前記眼領域検出手段が、前記サングラス判断手段により前記眼鏡がサングラスと判断された場合には、当該サングラスにおける前記眼領域を判断して検出する付記1又は付記2記載の顔認識装置。
(付記4)前記検出された眼領域における画像情報の水平及び垂直方向の輝度値に基づいて、人物が眼帯を着用しているかを判断する眼帯判断手段と、前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯の存在領域としての眼帯領域を検出する眼帯領域検出手段とを備え、前記眼領域検出手段が、前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯における前記眼領域を判断して検出する付記1ないし付記3に記載の顔認識装置。
(付記5)前記顔認識手段により認識された結果に基づいて、微小時間後の前記顔認識手段により認識される結果を予測する顔認識予測手段を備える付記1ないし付記4に記載の顔認識装置。
(付記6)撮像された人物の撮像画像に基づいて人物の顔を認識する顔認識方法において、前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出工程と、前記鼻領域検出工程により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物が少なくとも顔の一部を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断工程と、前記遮蔽物着用判断工程により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出工程と、前記遮蔽物領域検出工程により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出工程と、前記鼻領域検出工程又は遮蔽物内鼻領域検出工程により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出工程とを備える顔認識方法。
(付記7)前記眼領域検出工程により検出された眼領域の画像情報に基づいて眼の開度及び/又は視線方向を認識し、前記眼領域及び/又は鼻領域に基づいて顔の向きを認識する顔認識工程を備える付記6記載の顔認識方法。
(付記8)前記検出された眼領域の画像情報に基づいて、人物に着用された眼鏡のフレームの存在領域としての眼鏡フレーム領域を検出する眼鏡フレーム領域検出工程と、前記眼鏡フレーム検出工程により検出された眼鏡フレーム領域の輝度分布に基づいて、前記眼鏡がサングラスかを判断するサングラス判断工程とを備え、前記眼領域検出工程が、前記サングラス判断工程により前記眼鏡がサングラスと判断された場合には、当該サングラスにおける前記眼領域を判断して検出する付記6又は付記7記載の顔認識方法。
(付記9)前記検出された眼領域における画像情報の水平及び垂直方向の輝度値に基づいて、人物が眼帯を着用しているかを判断する眼帯判断工程と、前記眼帯判断工程により眼帯が着用されていると判断された場合には、当該眼帯の存在領域としての眼帯領域を検出する眼帯領域検出工程とを備え、前記眼領域検出工程が、前記眼帯判断工程により眼帯が着用されていると判断された場合には、当該眼帯における前記眼領域を判断して検出する
付記6ないし付記8に記載の顔認識方法。
(付記10)前記顔認識工程により認識された結果に基づいて、微小時間後の前記顔認識工程により認識される結果を予測する顔認識予測工程を備える付記6ないし付記9に記載の顔認識方法。
(付記11)撮像された人物の撮像画像に基づいて人物の顔を認識するようにコンピュータを機能させる顔認識プログラムにおいて、前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出手段、前記鼻領域検出手段により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物が少なくとも顔の一部を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断手段、前記遮蔽物着用判断手段により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出手段、前記遮蔽物領域検出手段により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出手段、前記鼻領域検出手段又は遮蔽物内鼻領域検出手段により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出手段としてコンピュータを機能させる顔認識プログラム。
(付記12)前記眼領域検出手段により検出された眼領域の画像情報に基づいて眼の開度及び/又は視線方向を認識し、前記眼領域及び/又は鼻領域に基づいて顔の向きを認識する顔認識手段としてコンピュータを機能させる付記11記載の顔認識プログラム。
(付記13)前記検出された眼領域の画像情報に基づいて、人物に着用された眼鏡のフレームの存在領域としての眼鏡フレーム領域を検出する眼鏡フレーム領域検出手段、前記眼鏡フレーム検出手段により検出された眼鏡フレーム領域の輝度分布に基づいて、前記眼鏡がサングラスかを判断するサングラス判断手段としてコンピュータを機能させ、前記眼領域検出手段が、前記サングラス判断手段により前記眼鏡がサングラスと判断された場合には、当該サングラスにおける前記眼領域を判断して検出する付記11又は付記12記載の顔認識プログラム。
(付記14)前記検出された眼領域における画像情報の水平及び垂直方向の輝度値に基づいて、人物が眼帯を着用しているかを判断する眼帯判断手段、前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯の存在領域としての眼帯領域を検出する眼帯領域検出手段としてコンピュータを機能させ、前記眼領域検出手段が、前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯における前記眼領域を判断して検出する付記11ないし付記13に記載の顔認識プログラム。
(付記15)前記顔認識手段により認識された結果に基づいて、微小時間後の前記顔認識手段により認識される結果を予測する顔認識予測手段としてコンピュータを機能させる付記11ないし付記14に記載の顔認識プログラム。
本発明の第1の実施形態に係る顔認識装置の構成を示すブロック図 本発明の第1の実施形態に係る顔認識装置の全体構成図 本発明の第1の実施形態に係る顔認識装置の全体フローチャート 本発明の第1の実施形態に係る顔認識装置の顔領域及び顔部位検出のフローチャート 本発明の第1の実施形態に係る顔認識装置の鼻領域検出のフローチャート 本発明の第1の実施形態に係る顔認識装置のマスク検出のフローチャート 本発明の第1の実施形態に係る顔認識装置の眼鏡ブリッジ領域検出のフローチャート 本発明の第1の実施形態に係る顔認識装置の眼鏡フレーム領域検出のフローチャート 本発明の第1の実施形態に係る顔認識装置のサングラス領域検出のフローチャート 本発明の第1の実施形態に係る顔認識装置のサングラス領域総合判定のフローチャート 本発明の第1の実施形態に係る顔認識装置の眼領域の位置検出のフローチャート 本発明の第1の実施形態に係る顔認識装置の眼帯領域検出のフローチャート 本発明の第1の実施形態に係る顔認識装置の顔向き検出の説明図
符号の説明
1 顔領域検出手段
2 鼻領域検出手段
3 マスク着用判断手段
31 マスク領域検出手段
32 マスク内鼻領域検出手段
4 眼領域検出手段
5 顔認識手段
5a 顔情報蓄積手段
41 眼鏡フレーム領域検出手段
42 サングラス判断手段
43 眼帯判断手段
44 眼帯領域検出手段
6 顔認識予測手段
7 特徴判断手段
8 警報手段
8A 警報装置
10 顔認識装置
100 撮影手段
100A 車載カメラ
200 自動車
300 運転手
300A 顔

Claims (7)

  1. 撮像された人物の撮像画像に基づいて人物の顔を認識する顔認識装置において、
    前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出手段と、
    前記鼻領域検出手段により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物の鼻を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断手段と、
    前記遮蔽物着用判断手段により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出手段と、
    前記遮蔽物領域検出手段により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出手段と、
    前記鼻領域検出手段又は遮蔽物内鼻領域検出手段により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出手段とを備える
    顔認識装置。
  2. 請求項1に記載の顔認識装置において、
    前記眼領域検出手段により検出された眼領域の画像情報に基づいて眼の開度及び/又は視線方向を認識し、前記眼領域及び/又は鼻領域に基づいて顔の向きを認識する顔認識手段を備える
    顔認識装置。
  3. 請求項1又は請求項2に記載の顔認識装置において、
    前記検出された眼領域の画像情報に基づいて、人物に着用された眼鏡のフレームの存在領域としての眼鏡フレーム領域を検出する眼鏡フレーム領域検出手段と、
    前記眼鏡フレーム検出手段により検出された眼鏡フレーム領域の輝度分布に基づいて、前記眼鏡がサングラスかを判断するサングラス判断手段とを備え、
    前記眼領域検出手段が、前記サングラス判断手段により前記眼鏡がサングラスと判断された場合には、当該サングラスにおける前記眼領域を判断して検出する
    顔認識装置。
  4. 請求項1ないし請求項3に記載の顔認識装置において、
    前記検出された眼領域における画像情報の水平及び垂直方向の輝度値に基づいて、人物が眼帯を着用しているかを判断する眼帯判断手段と、
    前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯の存在領域としての眼帯領域を検出する眼帯領域検出手段とを備え、
    前記眼領域検出手段が、前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯における前記眼領域を判断して検出する
    顔認識装置。
  5. 請求項1ないし請求項4に記載の顔認識装置において、
    前記顔認識手段により認識された結果に基づいて、微小時間後の前記顔認識手段により認識される結果を予測する顔認識予測手段を備える
    顔認識装置。
  6. 撮像された人物の撮像画像に基づいて人物の顔を認識する顔認識方法において、
    前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出工程と、
    前記鼻領域検出工程により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物が少なくとも顔の一部を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断工程と、
    前記遮蔽物着用判断工程により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出工程と、
    前記遮蔽物領域検出工程により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出工程と、
    前記鼻領域検出工程又は遮蔽物内鼻領域検出工程により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出工程とを備える
    顔認識方法。
  7. 撮像された人物の撮像画像に基づいて人物の顔を認識するようにコンピュータを機能させる顔認識プログラムにおいて、
    前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出手段、
    前記鼻領域検出手段により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物が少なくとも顔の一部を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断手段、
    前記遮蔽物着用判断手段により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出手段、
    前記遮蔽物領域検出手段により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出手段、
    前記鼻領域検出手段又は遮蔽物内鼻領域検出手段により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出手段としてコンピュータを機能させる
    顔認識プログラム。
JP2008334665A 2008-12-26 2008-12-26 顔認識装置、顔認識方法及び顔認識プログラム Active JP5359266B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008334665A JP5359266B2 (ja) 2008-12-26 2008-12-26 顔認識装置、顔認識方法及び顔認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008334665A JP5359266B2 (ja) 2008-12-26 2008-12-26 顔認識装置、顔認識方法及び顔認識プログラム

Publications (2)

Publication Number Publication Date
JP2010157073A JP2010157073A (ja) 2010-07-15
JP5359266B2 true JP5359266B2 (ja) 2013-12-04

Family

ID=42574971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008334665A Active JP5359266B2 (ja) 2008-12-26 2008-12-26 顔認識装置、顔認識方法及び顔認識プログラム

Country Status (1)

Country Link
JP (1) JP5359266B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015165365A1 (zh) * 2014-04-29 2015-11-05 华为技术有限公司 一种人脸识别方法及系统
US20230169790A1 (en) * 2021-11-30 2023-06-01 Industrial Technology Research Institute Eyeball locating method, image processing device, and image processing system
KR20230101061A (ko) 2021-12-29 2023-07-06 주식회사 리얼타임테크 마스크 착용 얼굴 데이터 셋 생성 방법

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5012690B2 (ja) * 2008-06-24 2012-08-29 トヨタ自動車株式会社 顔面の覆体及び顔面部位特定方法
JP5703068B2 (ja) * 2011-02-28 2015-04-15 綜合警備保障株式会社 顔検出方法および顔検出装置、ならびに、プログラム
US9549118B2 (en) 2014-03-10 2017-01-17 Qualcomm Incorporated Blink and averted gaze avoidance in photographic images
US11347793B2 (en) 2014-09-22 2022-05-31 Interdigital Madison Patent Holdings, Sas Use of depth perception as indicator of search, user interest or preference
KR101956071B1 (ko) 2015-01-13 2019-03-08 삼성전자주식회사 사용자 인증 방법 및 장치
JP2016189135A (ja) * 2015-03-30 2016-11-04 パイオニア株式会社 認識装置、認識方法及び認識プログラム
JP6971582B2 (ja) * 2017-02-16 2021-11-24 アルパイン株式会社 状態検出装置、状態検出方法、及びプログラム
KR102359558B1 (ko) 2017-03-28 2022-02-09 삼성전자주식회사 얼굴 인증 방법 및 장치
CN108664782B (zh) 2017-03-28 2023-09-12 三星电子株式会社 面部验证方法和设备
JP7074432B2 (ja) 2017-06-26 2022-05-24 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
WO2019159326A1 (ja) * 2018-02-16 2019-08-22 株式会社ニコン 算出装置、算出プログラム及び算出方法
CN110647955A (zh) * 2018-06-26 2020-01-03 义隆电子股份有限公司 身份验证方法
JP6747493B2 (ja) * 2018-11-28 2020-08-26 株式会社デンソー ドライバ状態判定装置
JP7354761B2 (ja) * 2019-10-23 2023-10-03 オムロン株式会社 距離推定装置、距離推定方法及び距離推定プログラム
JP2020042842A (ja) * 2019-11-22 2020-03-19 パイオニア株式会社 認識装置、認識方法及び認識プログラム
CN111428559A (zh) * 2020-02-19 2020-07-17 北京三快在线科技有限公司 一种口罩佩戴情况检测方法、装置、电子设备及存储介质
CN111783605B (zh) * 2020-06-24 2024-05-24 北京百度网讯科技有限公司 一种人脸图像识别方法、装置、设备及存储介质
CN112328084B (zh) * 2020-11-12 2024-06-28 北京态璞信息科技有限公司 一种三维虚拟眼镜的定位方法、装置及电子设备
EP4261773A1 (en) 2020-12-10 2023-10-18 Fujitsu Limited Determination method, determination program, and information processing device
WO2022160202A1 (zh) * 2021-01-28 2022-08-04 深圳市锐明技术股份有限公司 佩戴口罩的检测方法、装置、终端设备及可读存储介质
JP7557389B2 (ja) 2021-02-15 2024-09-27 矢崎総業株式会社 視線検出装置、視線検出システム、及び視線検出方法
JP7523726B2 (ja) 2022-06-13 2024-07-26 三菱電機株式会社 顔向き推定装置、脇見判断システム、及び顔向き推定方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251617A (ja) * 2001-02-22 2002-09-06 Toyota Central Res & Dev Lab Inc 鼻位置検出装置
JP4501003B2 (ja) * 2005-07-15 2010-07-14 国立大学法人静岡大学 顔姿勢検出システム
JP4739870B2 (ja) * 2005-09-05 2011-08-03 アイシン精機株式会社 サングラス検出装置及び顔中心位置検出装置
JP4895874B2 (ja) * 2007-03-15 2012-03-14 アイシン精機株式会社 目状態判別装置、目状態判別方法及び目状態判別プログラム
JP4912206B2 (ja) * 2007-04-18 2012-04-11 富士通株式会社 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015165365A1 (zh) * 2014-04-29 2015-11-05 华为技术有限公司 一种人脸识别方法及系统
US20230169790A1 (en) * 2021-11-30 2023-06-01 Industrial Technology Research Institute Eyeball locating method, image processing device, and image processing system
KR20230101061A (ko) 2021-12-29 2023-07-06 주식회사 리얼타임테크 마스크 착용 얼굴 데이터 셋 생성 방법

Also Published As

Publication number Publication date
JP2010157073A (ja) 2010-07-15

Similar Documents

Publication Publication Date Title
JP5359266B2 (ja) 顔認識装置、顔認識方法及び顔認識プログラム
JP4845698B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
US7916904B2 (en) Face region detecting device, method, and computer readable recording medium
JP4826506B2 (ja) 視線推定装置
KR101393717B1 (ko) 얼굴 인식 기술
JP2008146356A (ja) 視線方向推定装置及び視線方向推定方法
JP4912206B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
JP3926507B2 (ja) 目位置及び顔位置検出装置
US20220292883A1 (en) Judgement method, judgement device, and judgement program
JP2015075914A (ja) 眼部検出装置、方法、およびプログラム
US20160171323A1 (en) Apparatus for recognizing iris and operating method thereof
WO2022110917A1 (zh) 驾驶员的驾驶状态确定方法、计算机存储介质及电子设备
JP4989249B2 (ja) 目検知装置、居眠り検知装置及び目検知装置の方法
JP2007257321A (ja) 顔部位追跡方法及びその装置
CN109196517B (zh) 对照装置和对照方法
JPH11105578A (ja) 網膜反射像を利用したまばたき検出顔画像処理装置
KR102161908B1 (ko) 운전자 상태 모니터링 방법 및 장치
JP2000067225A (ja) 眼位置検出装置
JP4996943B2 (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP4788319B2 (ja) 開閉眼判定装置及び方法
JP2010003232A (ja) 眼検出装置
JP4910212B2 (ja) 目の位置検出装置、方法及びプログラム
JP6698966B2 (ja) 誤検出判定装置及び誤検出判定方法
JP2011095827A (ja) 眼部検出装置
JP2000331172A (ja) 顔画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5359266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150