JP2006202049A - 顔認識装置 - Google Patents
顔認識装置 Download PDFInfo
- Publication number
- JP2006202049A JP2006202049A JP2005013113A JP2005013113A JP2006202049A JP 2006202049 A JP2006202049 A JP 2006202049A JP 2005013113 A JP2005013113 A JP 2005013113A JP 2005013113 A JP2005013113 A JP 2005013113A JP 2006202049 A JP2006202049 A JP 2006202049A
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- face
- subject
- recognition
- personal identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 撮像された場所や時間の情報に関わらず、顔認識を高速に実現するための装置や方法などを提供すること。
【解決手段】 撮像された人の属性を推定し、その推定結果に対応づけて記憶されている個人識別特徴量のみを用いて、認識手段がその人が誰であるかを認識する。
【選択図】 図5
【解決手段】 撮像された人の属性を推定し、その推定結果に対応づけて記憶されている個人識別特徴量のみを用いて、認識手段がその人が誰であるかを認識する。
【選択図】 図5
Description
本発明は、人の画像を用いて、その画像に撮像されている人が誰であるか認識処理を行う装置や方法などに適用されて有効な技術に関する。
近年、人の顔の画像を用いて認識処理を行う、いわゆる顔認識技術が注目されている。例えば、顔認識技術では、認識する対象の数だけ個人識別特徴量を予め登録しておく必要がある。このため、多くの人を認識可能にしようとすると、登録すべきデータの容量が膨大となってしまう。そして、登録データが膨大となると、認識処理を行う際に処理に用いる個人識別特徴量が増大するため、処理に多くの時間を要してしまうという問題が生じていた。
このような問題に対し、人物や店舗などに掲示されたロゴマークの画像からその人物や法人などを特定する技術において、その画像が撮像された日時や場所の情報から、特定する際に使用するロゴマークの識別情報を絞り込むことにより、ロゴマークのマッチングに要する時間を短縮するための技術が提案されている(特許文献1参照)。
特開2004−12785号公報
しかしながら、従来の技術を顔認識技術にそのまま適用したとしても、問題を解決することはできない場合があった。例えば、所定のセキュリティ領域への入り口に設置された顔認識装置を例に検討する。この場合、設置される場所が予め固定されているため、撮像された場所の情報から個人識別特徴量を絞り込むことはそもそも意味をなさない。また、時間によって入退出可能な人物を変化させるような特殊な場合でない限り、撮像された時間から個人識別特徴量を絞り込むこともできない。
そこで本発明はこれらの問題を解決し、撮像された場所や時間の情報に関わらず、顔認識を高速に実現するための装置や方法などを提供することを目的とする。
上記問題を解決するため、本発明は以下のような構成をとる。本発明は、顔認識装置であって、被写体検出手段,認識手段,記憶手段及び属性推定手段を備える。
被写体検出手段は、被写体が撮像された画像から、被写体を検出する。記憶手段は、各顔の個人識別特徴量と、各被写体の属性を示す属性情報とを対応づけて記憶する。個人識別特徴量とは、認識手段が、誰であるか判断する際に使用する情報である。なお、認識手段については後述する。
属性推定手段は、被写体検出手段によって検出された人の属性を推定する。人の属性とは、性別,年代,人種などその人の特徴を示す情報を指す。なお、被写体検出手段は被写体の顔を検出し、属性推定手段は検出された顔の属性を推定するように構成されても良い。この場合、属性推定手段は、その人の顔の特徴量からこれらの属性を判断する。また、属性推定手段は、その人の身長を画像から測定し、この値に基づいて年代を推定しても良い。また、被写体検出手段は顔とともに被写体が身につけているものを検出し、属性推定手段は被写体が身につけているものから属性を推定するように構成されても良い。この場合、例えば属性は被写体が身につけている所定の物の色によって表されても良い。このよ
うに構成された場合は、属性推定手段はその物の色を検出することにより属性推定を行う。所定の物の色とは、例えば、首から提げるカードやストラップの色や、胸に付ける名札の色や、帽子や服の色などである。
うに構成された場合は、属性推定手段はその物の色を検出することにより属性推定を行う。所定の物の色とは、例えば、首から提げるカードやストラップの色や、胸に付ける名札の色や、帽子や服の色などである。
認識手段は、被写体検出手段によって検出された被写体の顔から被写体が誰であるか判断する。なお、認識手段は、属性推定手段によって推定された属性に関連する個人識別特徴量を照合する対象として絞り込み、絞り込まれた個人識別特徴量を用いて誰の顔であるか判断を行う。例えば、属性推定手段によって人の性別が推定された場合、その推定結果に対応した個人識別特徴量のみを用いて判断が行われる。そもそも、女性であると推定された場合に、男性として登録されている者の個人識別特徴量を用いた処理が成功する可能性は低いため、このような個人識別特徴量を用いずに処理を行ったとしても問題とならない。認識手段がこのように限られた個人識別特徴量のみを用いて判断を行うため、誰であるかの判断を高速化することが可能となる。なお、推定結果に対応した個人識別特徴量を用いた認識処理を優先的に行い、それでも認識結果が得られない場合に、推定結果に対応しない個人識別特徴量を用いた認識処理を行うように構成されても良い。このように構成された場合にも、認識結果が得られる可能性の高い個人識別特徴量を用いた処理を先に行うことができるため、従来に比べて早く認識結果を得ることが可能となる。
本発明は、セキュリティ維持装置に対し、動作の指示を行う指示手段を更に備えても良い。セキュリティ維持装置とは、セキュリティ領域におけるセキュリティを維持するための動作を行う装置である。セキュリティ維持のための動作とは、検出手段によって検出された人たちに対しセキュリティ領域(例えば、建物の内部や部屋や所定の区画)への入場を禁止する動作(例えば、ドアを閉じる動作や、ドアの鍵を閉める動作など)や、この入場禁止の動作を維持する動作や、所定の通報先(例えば警察や警備会社など)に通報を行う動作や、所定の連絡先(例えば検出手段により検出された人やその保護者として予め登録されている人の携帯端末など)に通知(メールの送信や画像の送信など)を行う動作や、警報を鳴らす動作や、照明が点灯・点滅する動作や、音声による警告を行う動作など、セキュリティを維持することができればどのような動作であっても良い。セキュリティ維持装置は、指示手段による指示の内容に従って動作する。例えば指示手段によって警報を行うように指示された場合には、警報を行う。また、セキュリティ維持装置は、ドアを開けるように指示された場合には、一定時間又はドアを閉めるように再度指示がされるまで、ドアを開ける。
そして、このように構成された本発明における指示手段は、属性推定手段による推定結果が所定の属性である場合には認識手段による認識結果が得られるのを待たずに指示内容を決定するように構成されても良い。また、指示手段は、属性推定手段による推定結果が所定の属性でない場合には認識手段による認識結果に基づいて指示内容を決定するように構成されても良い。
例えば、指示手段は、推定結果が所定の属性である場合には、認識手段による認識結果が得られるのを待たずに、セキュリティ維持状態を解除するように構成されても良い。例えば、幼稚園の入り口に設けられた場合に、属性の推定結果が所定の属性である子供として得られた場合に、認識結果を待たずにドアを解錠するように構成されても良い。逆に、指示手段は、このような場合に認識手段による認識結果が得られるのを待たずに警報、通報、録画などを行うように構成されても良い。例えば、女性更衣室の入り口に設けられた場合に、属性の推定結果が所定の属性である男性として得られた場合に、認識結果を待たずに警報等行うように構成されても良い。また、指示手段は、所定の属性でない場合には、認識手段による認識結果が得られるのを待ち、その結果に従って指示内容を決定する。例えば、認識結果として人が誰であるか判断できなかった場合(即ち、処理の対象となっている人の個人識別特徴量が記憶手段に記憶されていない場合)に、警報、通報、録画な
どを行うように指示するように構成されても良い。また、指示手段は、認識手段による認識結果として、だれであるか判断がされた場合(即ち、処理の対象となっている人の個人識別特徴量が記憶手段に記憶されていた場合)に、セキュリティ維持状態を解除するように決定しても良い。セキュリティ維持状態とは、セキュリティ領域におけるセキュリティを維持している状態を言う。例えば、セキュリティ領域へのドアを閉じている状態や、鍵をロックしている状態や、警報を鳴らすセンサを動作させている状態などである。
どを行うように指示するように構成されても良い。また、指示手段は、認識手段による認識結果として、だれであるか判断がされた場合(即ち、処理の対象となっている人の個人識別特徴量が記憶手段に記憶されていた場合)に、セキュリティ維持状態を解除するように決定しても良い。セキュリティ維持状態とは、セキュリティ領域におけるセキュリティを維持している状態を言う。例えば、セキュリティ領域へのドアを閉じている状態や、鍵をロックしている状態や、警報を鳴らすセンサを動作させている状態などである。
また、記憶手段が、個人識別特徴量に対応づけて、セキュリティ維持状態を解除しても良いか否かをさらに記憶するように構成されても良い。この場合は、指示手段は、得られた認識結果に対応づけてセキュリティ維持状態を解除しても良いと記憶されている場合に、セキュリティ維持状態を解除すると決定する。
このように構成されることにより、認識手段による認識を行うまでもなく指示内容を決定することが可能となる。従って、上記の例のように警報を行う場合などには、警報をより早く実施することが可能となる。逆に、セキュリティ維持状態の解除を行う場合にも、より早く解除を行うことが可能となる。また、このように構成されることにより、認識手段の処理対象とはならない属性に係る個人識別特徴量については、そもそも記憶しておく必要がない。このため、このような個人識別特徴量を記憶手段に記憶しないように構成することにより、使用する記憶領域を削減することが可能となる。
また、本発明は、被写体検出手段によって検出された顔の部位を検出する部位検出手段を更に備えるように構成されても良い。そして、認識手段は、部位検出手段によって所定の部位が検出されない場合には認識手段による認識結果が得られるのを待たずに指示内容を決定し、所定の部位が検出された場合には認識手段による認識結果に基づいて指示内容を決定するように構成されても良い。顔の部位とは、目や口や鼻などである。このような部位が検出されない場合は、検出された顔の人が、サングラスやマスクなどにより顔を隠している可能性がある。従って、このように構成されることにより、顔を隠している可能性のある人(即ち不審者)を、認識手段による認識処理が得られるのを待つことなく、判断しセキュリティ維持装置に対する指示内容を決定することが可能となる。
本発明は、プログラムが情報処理装置によって実行されることによって実現されても良い。即ち、本発明は、上記した本発明における各手段が実行する処理を、情報処理装置に対して実行させるためのプログラム、或いは当該プログラムを記録した記録媒体として特定することができる。また、本発明は、上記した各手段が実行する処理を情報処理装置が実行する方法をもって特定されても良い。
本発明によれば、撮像された場所や時間の情報に関わらず、顔認識を高速に実現することが可能となる。
〔システム構成〕
顔認識装置1は、ハードウェア的には、バスを介して接続されたCPU(中央演算処理装置),主記憶装置(RAM),補助記憶装置などを備える。補助記憶装置は、不揮発性記憶装置を用いて構成される。ここで言う不揮発性記憶装置とは、いわゆるROM(Read-Only Memory:EPROM(Erasable Programmable Read-Only Memory),EEPROM(Electrically Erasable Programmable Read-Only Memory),マスクROM等を含む)
,FRAM(Ferroelectric RAM),ハードディスク等を指す。
顔認識装置1は、ハードウェア的には、バスを介して接続されたCPU(中央演算処理装置),主記憶装置(RAM),補助記憶装置などを備える。補助記憶装置は、不揮発性記憶装置を用いて構成される。ここで言う不揮発性記憶装置とは、いわゆるROM(Read-Only Memory:EPROM(Erasable Programmable Read-Only Memory),EEPROM(Electrically Erasable Programmable Read-Only Memory),マスクROM等を含む)
,FRAM(Ferroelectric RAM),ハードディスク等を指す。
図1は、顔認識装置1の機能ブロックを示す図である。顔認識装置1は、補助記憶装置
に記憶された各種のプログラム(OS,アプリケーション等)が主記憶装置にロードされCPUにより実行されることによって、画像一時記憶部3,顔検出部4,部位検出部5,属性推定部6,記憶部7,認識部8,及び指示部9等を含む装置として機能する。顔検出部4,部位検出部5,属性推定部6,認識部8及び指示部9は、プログラムがCPUによって実行されることにより実現される。また、顔検出部4,部位検出部5,属性推定部6,認識部8及び指示部9は専用のチップとして構成されても良い。
に記憶された各種のプログラム(OS,アプリケーション等)が主記憶装置にロードされCPUにより実行されることによって、画像一時記憶部3,顔検出部4,部位検出部5,属性推定部6,記憶部7,認識部8,及び指示部9等を含む装置として機能する。顔検出部4,部位検出部5,属性推定部6,認識部8及び指示部9は、プログラムがCPUによって実行されることにより実現される。また、顔検出部4,部位検出部5,属性推定部6,認識部8及び指示部9は専用のチップとして構成されても良い。
顔認識装置1は、撮像装置2とオートロックドア10に接続される。オートロックドア10は、セキュリティ領域におけるセキュリティを維持するための装置(セキュリティ維持装置)の具体例である。次に、顔認識装置1が含む各機能部や撮像装置2やオートロックドア10について説明する。
〈撮像装置〉
撮像装置2は、デジタルスチルカメラやデジタルビデオカメラ等を用いて構成され、撮像を行う。撮像装置2は、顔認識装置1によって認識される人の顔を含む画像を撮像する。撮像装置2は、撮像した画像のデータを顔認識装置1へ入力する。撮像装置2は、撮像を行うことが可能であればどのような既存技術が適用されても良い。例えば、撮像装置2は、CCD(Charge-Coupled Devices)やCMOS(Complementary Metal-Oxide Semiconductor)センサ等を用いて構成されても良い。
撮像装置2は、デジタルスチルカメラやデジタルビデオカメラ等を用いて構成され、撮像を行う。撮像装置2は、顔認識装置1によって認識される人の顔を含む画像を撮像する。撮像装置2は、撮像した画像のデータを顔認識装置1へ入力する。撮像装置2は、撮像を行うことが可能であればどのような既存技術が適用されても良い。例えば、撮像装置2は、CCD(Charge-Coupled Devices)やCMOS(Complementary Metal-Oxide Semiconductor)センサ等を用いて構成されても良い。
撮像装置2は、設計者やユーザによって設定されたタイミングで撮像を行うように構成されても良い。例えば、撮像装置2は、デジタルスチルカメラとして構成された場合、所定の時間間隔(毎秒,毎分など)で撮像を実施するように構成されても良い。また例えば、撮像装置2は、デジタルビデオカメラとして構成された場合、継続的に撮像を実施し、所定のフレーム毎に画像のデータを顔認識装置1に入力するように構成されても良い。また、撮像装置2は、ユーザによって操作されることによってユーザの顔を撮像するように構成されても良い。
〈画像一時記憶部〉
画像一時記憶部3は、いわゆるRAMを用いて構成される。画像一時記憶部3は、撮像装置2によって撮像され顔認識装置1に入力される画像のデータを一時的に保持する。
画像一時記憶部3は、いわゆるRAMを用いて構成される。画像一時記憶部3は、撮像装置2によって撮像され顔認識装置1に入力される画像のデータを一時的に保持する。
〈顔検出部〉
顔検出部4は、撮像装置2から入力される原画像から人の顔を検出し、検出された顔の位置や大きさ等を示す顔情報を特定する。顔検出部4は、例えば、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部4は、顔の構成要素(目,鼻,耳など)に基づくテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部4は、肌の色に近い領域を検出し、その領域を顔として検出するように構成されても良い。また、顔検出部4は、ニューラルネットワークを使って教師信号による学習を行い、顔らしい領域を顔として検出するように構成されても良い。また、顔検出部4による顔検出処理は、その他、既存のどのような技術が適用されることによって実現されても良い。
顔検出部4は、撮像装置2から入力される原画像から人の顔を検出し、検出された顔の位置や大きさ等を示す顔情報を特定する。顔検出部4は、例えば、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部4は、顔の構成要素(目,鼻,耳など)に基づくテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部4は、肌の色に近い領域を検出し、その領域を顔として検出するように構成されても良い。また、顔検出部4は、ニューラルネットワークを使って教師信号による学習を行い、顔らしい領域を顔として検出するように構成されても良い。また、顔検出部4による顔検出処理は、その他、既存のどのような技術が適用されることによって実現されても良い。
また、画像から複数の人の顔が検出された場合、特定の基準に従って処理の対象となる顔が決定される。所定の基準とは、例えば顔の大きさ、顔の向き、画像中における顔の位置などである。例えば、顔検出部4は、撮像された画像の中で最も大きい顔を処理の対象として決定する。顔検出部4は、処理の対象となる顔の位置や大きさなど、画像一時記憶部3に記憶される画像の中からこの顔の部分画像を特定するために必要な情報を部位検出部5へ渡す。なお、このような情報は、属性推定部6や認識部8へも渡される。
〈部位検出部〉
部位検出部5は、顔の所定の部位を、パターンマッチングやニューラルネットワークを用いることにより検出する。このとき、部位検出部5は、顔検出部4から伝えられた位置の顔における所定の部位を検出する。顔の所定の部位とは、目や鼻や口などである。いずれの部位を検出するかは、予め設計者によって設定される。例えば、目のみが所定の部位として設定されても良いし、目及び口が所定の部位として設定されても良い。目が検出されない場合は、サングラス等で目を覆っている可能性があり、口や鼻が検出されない場合はマスクなどによって顔を覆っている可能性がある。部位検出部5はこのような状態を検出することができる。部位検出部5は、所定の部位が検出された場合は、属性推定部6にその旨を伝える。部位検出部5は、処理対象の顔の位置や大きさも属性推定部6に伝える。一方、部位検出部5は、所定の部位が検出されなかった場合は、指示部9にその旨を伝える。
部位検出部5は、顔の所定の部位を、パターンマッチングやニューラルネットワークを用いることにより検出する。このとき、部位検出部5は、顔検出部4から伝えられた位置の顔における所定の部位を検出する。顔の所定の部位とは、目や鼻や口などである。いずれの部位を検出するかは、予め設計者によって設定される。例えば、目のみが所定の部位として設定されても良いし、目及び口が所定の部位として設定されても良い。目が検出されない場合は、サングラス等で目を覆っている可能性があり、口や鼻が検出されない場合はマスクなどによって顔を覆っている可能性がある。部位検出部5はこのような状態を検出することができる。部位検出部5は、所定の部位が検出された場合は、属性推定部6にその旨を伝える。部位検出部5は、処理対象の顔の位置や大きさも属性推定部6に伝える。一方、部位検出部5は、所定の部位が検出されなかった場合は、指示部9にその旨を伝える。
〈属性推定部〉
属性推定部6は、部位検出部5から所定の部位が検出されたことを伝えられた場合に動作する。まず、属性推定部6は、顔検出部4によって検出された顔における複数の特徴点を設定する(特徴点設定処理)。そして、属性推定部6は、特徴点設定処理によって設定された特徴点を元に、この被写体の顔の特徴量として各特徴点の特徴量を取得する(特徴量取得処理)。以下、特徴点設定処理及び特徴量取得処理について説明する。
属性推定部6は、部位検出部5から所定の部位が検出されたことを伝えられた場合に動作する。まず、属性推定部6は、顔検出部4によって検出された顔における複数の特徴点を設定する(特徴点設定処理)。そして、属性推定部6は、特徴点設定処理によって設定された特徴点を元に、この被写体の顔の特徴量として各特徴点の特徴量を取得する(特徴量取得処理)。以下、特徴点設定処理及び特徴量取得処理について説明する。
〈特徴点設定処理〉
特徴点設定処理において、まず属性推定部6は検出された顔の器官を検出する。顔の器官とは、例えば目,鼻,鼻孔,口(唇),眉,顎,額などである。属性推定部6が検出する顔の器官は、予め設計者によって設定される。例えば属性推定部6は、被写体の顔の両目及び口を検出するように構成される。部位検出部5によって既に検出されている顔の器官(部位)がある場合は、属性推定部6は、既に得られている情報を用いても良い。また、部位検出部5によって、属性推定部6における処理で必要な器官が全て検出されても良い。
特徴点設定処理において、まず属性推定部6は検出された顔の器官を検出する。顔の器官とは、例えば目,鼻,鼻孔,口(唇),眉,顎,額などである。属性推定部6が検出する顔の器官は、予め設計者によって設定される。例えば属性推定部6は、被写体の顔の両目及び口を検出するように構成される。部位検出部5によって既に検出されている顔の器官(部位)がある場合は、属性推定部6は、既に得られている情報を用いても良い。また、部位検出部5によって、属性推定部6における処理で必要な器官が全て検出されても良い。
次に、属性推定部6は、顔検出部4において検出された顔の画像をグレースケールの画像に変換する。また、属性推定部6は、検出された顔の器官の位置関係に基づいて、検出された顔の画像の角度正規化やサイズ正規化を実施する。これらの処理をまとめて前処理と呼ぶ。また、画像をグレースケールに変換する処理は、顔検出部4における処理や特徴点設定処理におけるどの時点で実行されても良い。
次に、属性推定部6は、検出された顔の器官(以下、「注視点」と呼ぶ:例えば両目や口を示す点)の位置に基づいて、複数の特徴点の位置を設定する。属性推定部6は、注視点に近いほど密に、注視点から離れるほど粗に特徴点を設定する。
図2(a)は、顔検出部4によって検出された被写体の顔を示す図である。図2(b)は、特徴点設定処理によって設定された複数の特徴点の例を示す図である。図2(b)において、黒塗りの丸は注視点を示し、斜線の丸は注視点に基づいて設定された特徴点を示す。以下に説明する特徴量取得処理において、注視点が特徴点として取り扱われても良い。
このような特徴点設定処理は、例えば以下の論文に記載されたRetinaサンプリングを適用することによって実現できる。
F. Smeraldiand J. Bigun, “Facial features detection by saccadic exploration of the Gabor decomposition”, International Conference on Image Processing, ICIP-
98, Chicago, October 4-7, volume 3, pages 163-167, 1998.
98, Chicago, October 4-7, volume 3, pages 163-167, 1998.
〈特徴量取得処理〉
特徴量取得処理において、属性推定部6は特徴点設定処理によって設定された各特徴点に対し、ガボールフィルタを畳み込む。即ち、属性推定部6は、各特徴点についてガボールウェーブレット変換(Gabor Wavelets Transformation:GWT)を実施する。図3は、特徴量取得処理において使用されるガボールフィルタの例(実部)である。属性推定部6は、図3に示されるような解像度と方位とを変化させた複数のガボールフィルタを畳み込むことにより、特徴点周辺における濃淡特徴の周期性と方向性とを特徴量として取得する。
特徴量取得処理において、属性推定部6は特徴点設定処理によって設定された各特徴点に対し、ガボールフィルタを畳み込む。即ち、属性推定部6は、各特徴点についてガボールウェーブレット変換(Gabor Wavelets Transformation:GWT)を実施する。図3は、特徴量取得処理において使用されるガボールフィルタの例(実部)である。属性推定部6は、図3に示されるような解像度と方位とを変化させた複数のガボールフィルタを畳み込むことにより、特徴点周辺における濃淡特徴の周期性と方向性とを特徴量として取得する。
数1は、ガボールフィルタを表す式である。ガボールフィルタの使用において、式中のkとθとの値を変更することにより、濃淡特徴から任意の周期性と方向性とを特徴量として取得することが可能となる。
属性推定部6は、各特徴点の特徴量に基づいて、顔検出部4によって検出された被写体の属性情報を推定する。属性情報とは、その人に関する情報であり、例えば人種、年代、性別などが項目として含まれる。属性推定部6は、予め学習処理が完了しているパターン認識の識別器に対して各特徴点の特徴量を入力することにより、被写体の属性情報を推定する。属性推定部6は、パターン認識の識別器としてサポートベクターマシン(Support Vector Machine:SVM)を用いて処理を行う。以下、属性情報のうち年代を推定する場合を例として、サポートベクターマシンについて説明する。
サポートベクターマシンは、二つのクラスに属する学習データの真ん中を通る超平面を識別の境界面とし、パターン認識を行う手法である。サポートベクターマシンにおける識別器は、数2に示される識別関数を用いることにより、入力されたデータ(ここでは全特徴点における特徴量)が二つのクラスのいずれに属するかを推定する。
数2において、lは、学習処理によって選別された学習データの個数、即ち属性推定部6による属性推定処理に用いられる学習データの個数を示す。αiは、ラグランジュ乗数を示す。xi,yiは学習データを示す。yiは“−1”又は“1”のいずれかを有し、xiが二つのクラスのいずれに属するかを示す。bはバイアス項、即ちパラメタを示す。学習処理によりこれらの値が決定され、属性推定部6はその学習処理の結果を記憶する。
また、数2において、Kはカーネル関数を示す。カーネル関数を使って、入力データをより高い次元に非線形に写像するサポートベクターマシンの非線形拡張が提案されており
、これにより、より実問題に対して有効な識別器を構築することが可能である。このようなカーネル関数の代表的なものに、多項式カーネル(数3参照)やガウシアンカーネル(数4参照)等がある。属性推定部6において、いずれのカーネル関数が適用されても良い。
、これにより、より実問題に対して有効な識別器を構築することが可能である。このようなカーネル関数の代表的なものに、多項式カーネル(数3参照)やガウシアンカーネル(数4参照)等がある。属性推定部6において、いずれのカーネル関数が適用されても良い。
サポートベクターマシンは、二つのクラスを識別する識別器を構成する学習法であり、複数種(三種以上)の年代を識別(推定)するためには複数のサポートベクターマシンを組み合わせる必要がある。属性推定部6は、二分木探索を適用することにより、サポートベクターマシンを用いたマルチクラスタリングを実現する。図4は、属性推定部6における年代推定処理に適用される二分木探索の例を示す図である。ここでは、被写体の年代が子供、大人、老人のいずれであるかを推定する処理を例として説明する。
属性推定部6は、まず、サポートベクターマシンを用いて、被写体の人物が子供であるか否かについて推定する。そして、被写体の人物が子供ではないと推定された場合には、属性推定部6は、被写体の人物が大人であるか否か(又は老人であるか否か)について推定する。属性推定部6は、年代以外の属性情報の項目、例えば性別についても同様に二分木探索を行うことによって各項目についての推定処理を行うことができる。
属性推定部6は、所定の属性が推定結果として得られなかった場合は、その旨を指示部9へ伝える。一方、所定の属性が推定結果として得られた場合は、その推定結果を認識部8へ渡す。
〈記憶部〉
記憶部7は、いわゆるRAMやROM等の記憶装置を用いて構成される。記憶部7は、ハードディスク等の他の記憶装置を用いて構成されても良い。記憶部7は、各登録者の個人識別特徴量と、各登録者の属性とを対応づけて記憶する。また、記憶部7は、各登録者について、オートロックドア10がセキュリティ維持状態を解除しても良いか否か(即ち開いても良いか否か)についてさらに記憶しても良い。例えば、顔認識装置1がマンションの入り口に設置される場合には、マンションの住人の個人識別特徴量に対し、マンションのオートロックドア10を開けても良いことを示す値(例えば“1”)が対応づけて記憶される。このとき、オートロックドア10を開けるべきではない人の個人識別特徴量に対し、その事を示す値(例えば“0”)が対応づけて記憶されても良い。
記憶部7は、いわゆるRAMやROM等の記憶装置を用いて構成される。記憶部7は、ハードディスク等の他の記憶装置を用いて構成されても良い。記憶部7は、各登録者の個人識別特徴量と、各登録者の属性とを対応づけて記憶する。また、記憶部7は、各登録者について、オートロックドア10がセキュリティ維持状態を解除しても良いか否か(即ち開いても良いか否か)についてさらに記憶しても良い。例えば、顔認識装置1がマンションの入り口に設置される場合には、マンションの住人の個人識別特徴量に対し、マンションのオートロックドア10を開けても良いことを示す値(例えば“1”)が対応づけて記憶される。このとき、オートロックドア10を開けるべきではない人の個人識別特徴量に対し、その事を示す値(例えば“0”)が対応づけて記憶されても良い。
また、セキュリティ維持状態を解除しても良い人の個人識別特徴量のみが記憶部7に記憶されるように構成されても良い。このように構成された場合は、記憶部7は、セキュリティ維持状態を解除すべきか否かを示す値を個人識別特徴量に対応づけて記憶する必要はない。記憶部7に個人識別特徴量が記憶されている人は、当然にセキュリティ維持状態を解除しても良い人だからである。
〈認識部〉
認識部8は、属性推定部6によって取得された個人識別特徴量、及び記憶部7に記憶されている個人識別特徴量のうち属性推定の結果に対応する個人識別特徴量のみを用いることにより、この画像に撮像された人について同定処理を行う。ただし、認識部8は、属性推定部6から渡された属性推定の結果が所定の結果である場合にのみ動作する。
認識部8は、属性推定部6によって取得された個人識別特徴量、及び記憶部7に記憶されている個人識別特徴量のうち属性推定の結果に対応する個人識別特徴量のみを用いることにより、この画像に撮像された人について同定処理を行う。ただし、認識部8は、属性推定部6から渡された属性推定の結果が所定の結果である場合にのみ動作する。
例えば、顔認識装置1が幼稚園や小学校の入り口に設置された場合について検討する。顔認識装置1が、不審な大人が侵入することを防止することを目的とするのであれば、属性推定の結果が子供であることを示す場合には、認識を行う必要がない。従って、記憶手段7は子供についての個人識別特徴量を記憶する必要がない。また、従ってこの場合、属性推定の結果が大人であることを示す場合にのみ動作する。そして、属性推定の結果、男性であると推定された場合は、男性に対応する個人識別特徴量のみが使用される。この場合、女性に対応する個人識別特徴量が用いられないため、処理の高速化が図られる。次に、認識部8における同定処理の具体例について説明する。
認識部8は、撮像画像から取得された個人識別特徴量と、記憶部7に記憶されている各個人識別特徴量とを比較(パターンマッチング)することにより、その類似度を各個人識別特徴量について取得する。次に、認識部8は、この類似度が最も高く且つこの類似度が閾値を超えている個人識別特徴量を選び、その個人識別特徴量に対応する人であると判断する。認識部8は、各個人識別特徴量について取得された類似度が全て閾値を超えていない場合には、処理対象となっている顔の人物に対応する個人識別特徴量は記憶部7に記憶されていないと判断する。この閾値は経験的に得られる値であり、ユーザや設計者によって自由に設定されて良い。
また、認識部8は、以下の文献に記載された技術を用いることにより、同定処理を行うこともできる。
栗田 多喜夫、“顔検出・顔認識のための統計的手法”、[平成16年9月27日検索]、
インターネット<URL : http://www.neurosci.aist.go.jp/~kurita/lecture/statface.pdf>
福井和広(株式会社東芝)、“ユーザインターフェースにおける顔画像認識”、SSII2000 Tutorial Lectures、Page18-32
認識部8は、同定処理の結果を指示部9へ渡す。
インターネット<URL : http://www.neurosci.aist.go.jp/~kurita/lecture/statface.pdf>
福井和広(株式会社東芝)、“ユーザインターフェースにおける顔画像認識”、SSII2000 Tutorial Lectures、Page18-32
認識部8は、同定処理の結果を指示部9へ渡す。
〈指示部〉
指示部9は、認識部8による認識結果がセキュリティ維持状態を解除しても良い人である場合、オートロックドア10に対し、ドアを開くように指示する。一方、指示部9は、部位検出部5によって所定の部位が検出されなかった場合や、属性推定手段による推定結果が所定の属性を示すものではない場合や、認識部8による認識結果がセキュリティ維持状態を解除すべきでない人である場合、オートロックドア10に対し警報を行うように指示する。
指示部9は、認識部8による認識結果がセキュリティ維持状態を解除しても良い人である場合、オートロックドア10に対し、ドアを開くように指示する。一方、指示部9は、部位検出部5によって所定の部位が検出されなかった場合や、属性推定手段による推定結果が所定の属性を示すものではない場合や、認識部8による認識結果がセキュリティ維持状態を解除すべきでない人である場合、オートロックドア10に対し警報を行うように指示する。
〈オートロックドア〉
オートロックドア10は、普段は、手動では開かないように閉まっている。オートロックドア10は、指示部9からドアを開けるように指示された場合にドアを開ける。一方、オートロックドア10は、指示部9から警報を行うように指示された場合は警報を行う。警報とは、オートロックドア10に備えられる音声出力装置から警報音を発声する動作や、オートロックドア10に備えられるライトを点滅・点灯させる動作などをいう。
オートロックドア10は、普段は、手動では開かないように閉まっている。オートロックドア10は、指示部9からドアを開けるように指示された場合にドアを開ける。一方、オートロックドア10は、指示部9から警報を行うように指示された場合は警報を行う。警報とは、オートロックドア10に備えられる音声出力装置から警報音を発声する動作や、オートロックドア10に備えられるライトを点滅・点灯させる動作などをいう。
〔動作例〕
まず、撮像装置2が撮像を行う(S01)。撮像装置2は、撮像した画像を顔認識装置1へ入力する。顔認識装置1に入力された画像のデータは、画像一時記憶部3が記憶する。
まず、撮像装置2が撮像を行う(S01)。撮像装置2は、撮像した画像を顔認識装置1へ入力する。顔認識装置1に入力された画像のデータは、画像一時記憶部3が記憶する。
顔検出部4は、画像一時記憶部3に記憶される画像から人の顔を検出する(S02)。次に、部位検出部5は、顔検出部4によって検出された顔における所定の部位を検出する(S03)。所定の部位が検出されない場合(S04−No)、処理は終了し、オートロックドア10は閉じたままである。そして、オートロックドア10により警報が鳴らされる(S09)。
一方、所定の部位が検出された場合(S04−Yes)、属性推定部6は、検出された人の属性を推定する(S05)。そして、推定結果が所定の属性でない場合(S06−No)、処理は終了し、オートロックドア10は閉じたままである。そして、オートロックドア10により警報が鳴らされる(S09)。
一方、推定結果が所定の属性を示す場合(S06−Yes)、認識部8は、同定処理を実行し、処理の対象となっている人が誰であるか認識する(S07)。このとき、認識部8は、属性の推定結果に基づいて、使用する個人識別特徴量を選択し同定処理を行う。
同定処理の結果、検出された人がこの顔認識装置1が備えられたマンションの入居者でない場合(S08−No)、処理は終了し、オートロックドア10は閉じたままである。そして、オートロックドア10により警報が鳴らされる(S09)。一方、同定処理の結果、検出された人がこの顔認識装置1が備えられたマンションの入居者である場合(S08−Yes)、指示部9は、オートロックドア10に対しドアを開けるように指示しドアが開けられ(S010)、処理が終了する。
〔作用/効果〕
顔認識装置1によれば、部位検出部5によって所定の部位が検出されない場合や、属性推定処理によって得られた属性が所定の属性でない場合には、認識部8による同定処理が実行されることなく、指示部9により警報を鳴らす指示がオートロックドア10に伝えられる。例えば、顔認識装置1が老人ホームからの出口に設置された場合は以下のように適用することができる。例えば、属性推定によって幼児や青年や成人であるとの推定結果でない場合(言い換えれば老人であるとの推定結果が得られた場合)には、警報を鳴らすように構成されても良い。このため、警報を行うべき状況において、認識部8による処理結果が得られることを待つことなく警報をより早く実行することが可能となる。
顔認識装置1によれば、部位検出部5によって所定の部位が検出されない場合や、属性推定処理によって得られた属性が所定の属性でない場合には、認識部8による同定処理が実行されることなく、指示部9により警報を鳴らす指示がオートロックドア10に伝えられる。例えば、顔認識装置1が老人ホームからの出口に設置された場合は以下のように適用することができる。例えば、属性推定によって幼児や青年や成人であるとの推定結果でない場合(言い換えれば老人であるとの推定結果が得られた場合)には、警報を鳴らすように構成されても良い。このため、警報を行うべき状況において、認識部8による処理結果が得られることを待つことなく警報をより早く実行することが可能となる。
また、顔認識装置1によれば、認識部8が同定処理に用いる個人識別特徴量は、属性推定部6による推定結果に基づいて決定される。言い換えれば、認識部8は、記憶部5に記憶された個人識別特徴量の全てを用いて同定処理を実行するのではなく、記憶部5に記憶された個人識別特徴量の一部のみを用いて同定処理を実行する。具体的には、推定結果の属性に対応づけて記憶される個人識別特徴量のみを用いた同定処理が実行される。このため、同定処理の結果をより高速に得ることが可能となる。
また、顔認識装置1によれば、属性結果が所定の属性を示すものでない場合には、認識部8による処理が実行されない。このため、記憶部5には、所定の属性以外の属性に対応する個人識別特徴量を記憶しておく必要がない。従って、記憶部5に記憶されるデータの量を削減することが可能となる。
〔変形例〕
顔検出部4が、顔の部位を検出することにより顔を検出する構成である場合、部位検出部5の処理を行うように構成されても良い。即ち、この場合、顔検出部4は顔の所定の部位が検出されたか否かを属性推定部6及び指示部9へ伝えるように構成されても良い。この場合、顔検出部4とは別に部位検出部5を設ける必要はない。
顔検出部4が、顔の部位を検出することにより顔を検出する構成である場合、部位検出部5の処理を行うように構成されても良い。即ち、この場合、顔検出部4は顔の所定の部位が検出されたか否かを属性推定部6及び指示部9へ伝えるように構成されても良い。この場合、顔検出部4とは別に部位検出部5を設ける必要はない。
なお、オートロックドア10は、セキュリティを維持するための装置の具体例であり、他の装置を用いて構成されても良い。例えば、警報装置のみを用いて構成されても良いし、警察や警備会社への通報を行う装置などを用いて構成されても良い。また、属性推定部6は、所定の属性が推定結果として得られた場合にその旨を指示部9へ伝え、得られなかった場合にその推定結果を認識部8へ渡すように構成されても良い。このように構成された場合は、認識部8は、属性推定の結果が所定の属性でない場合にのみ動作するように構成される。また、このように構成された場合は、指示部9は、推定結果が所定の属性である場合などにオートロックドア10に対し警報を行うように指示しても良いし、推定結果が所定の属性である場合にオートロックドア10を一時的に開放するように指示しても良い。
属性推定部6は、処理対象の顔の画像からではなく、その人の身長を画像から又は他のセンサにより測定することにより、属性を推定するように構成されても良い。例えば、赤外線センサなどによりその人の身長をおおよそ測定し、その身長に基づいて年代を推定しても良い。また、属性推定部6は、その人が身につけている物を画像から検出し、その物の色に基づいて属性を推定しても良い。ただし、この場合、予め各人にその人の属性に応じた物を身につけさせる必要がある。例えば、属性として正社員と契約社員とが設定されている場合、属性推定部6は、正社員であることを示す色の物(例えばストラップや名札など)や契約社員であることを示す色の物を画像から検出することにより、その人が正社員であるか契約社員であるかを推定しても良い。
1 顔認識装置
2 撮像装置
3 画像一時記憶部
4 顔検出部
5 部位検出部
6 属性推定部
7 記憶部
8 認識部
9 指示部
10 オートロックドア
2 撮像装置
3 画像一時記憶部
4 顔検出部
5 部位検出部
6 属性推定部
7 記憶部
8 認識部
9 指示部
10 オートロックドア
Claims (7)
- 被写体が撮像された画像から、被写体を検出する被写体検出手段と、
前記被写体検出手段によって検出された被写体の顔から被写体が誰であるか判断する認識手段と、
前記認識手段が誰であるか判断する際に使用する各顔の個人識別特徴量と、各被写体の属性を示す属性情報とを対応づけて記憶する記憶手段と、
前記被写体検出手段によって検出された人の属性を推定する属性推定手段と
を備え、
前記認識手段は、前記属性推定手段によって推定された属性に関連する個人識別特徴量を照合する対象として絞込み、絞り込まれた個人識別特徴量を用いて誰の顔であるか判断を行う顔認識装置。 - 前記被写体検出手段は、被写体の顔を検出し、前記属性推定手段は、検出された顔の属性を推定する請求項1に記載の顔認識装置。
- 前記被写体検出手段は、顔とともに被写体が身につけているものを検出し、前記属性推定手段は、被写体が身につけているものから属性を推定する請求項1に記載の顔認識装置。
- セキュリティ領域におけるセキュリティを維持するためのセキュリティ維持装置に対し、動作の指示を行う指示手段をさらに備え、
前記指示手段は、前記属性推定手段による推定結果が所定の属性である場合には前記認識手段による認識結果が得られるのを待たずに指示内容を決定し、所定の属性でない場合には前記認識手段による認識結果に基づいて指示内容を決定する請求項1に記載の顔認識装置。 - 前記被写体検出手段によって検出された顔の部位を検出する部位検出手段を更に備え、
前記認識手段は、前記部位検出手段によって所定の部位が検出されない場合には前記認識手段による認識結果が得られるのを待たずに指示内容を決定し、所定の部位が検出された場合には前記認識手段による認識結果に基づいて指示内容を決定する請求項2に記載の顔認識装置。 - 画像中の被写体が誰であるか判断する際に使用される各顔の個人識別特徴量と、各被写体の属性を示す属性情報とを対応づけて記憶する記憶手段を備える情報処理装置に、
被写体が撮像された画像から、被写体を検出するステップと、
検出された人の属性を推定するステップと、
検出された人が誰であるか、推定された属性に関連する個人識別特徴量を照合する対象として絞り込み、絞り込まれた個人識別特徴量を用いて判断するステップと
を実行させるためのプログラム。 - 画像中の被写体が誰であるか判断する際に使用される各顔の個人識別特徴量と、各被写体の属性を示す属性情報とを対応づけて記憶する記憶手段を備える情報処理装置が、被写体が撮像された画像から、被写体を検出するステップと、
前記情報処理装置が、検出された人の属性を推定するステップと、
前記情報処理装置が、検出された人が誰であるか、推定された属性に関連する個人識別特徴量を照合する対象として絞り込み、絞り込まれた個人識別特徴量を用いて判断するステップと
を含む方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005013113A JP2006202049A (ja) | 2005-01-20 | 2005-01-20 | 顔認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005013113A JP2006202049A (ja) | 2005-01-20 | 2005-01-20 | 顔認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006202049A true JP2006202049A (ja) | 2006-08-03 |
Family
ID=36959989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005013113A Pending JP2006202049A (ja) | 2005-01-20 | 2005-01-20 | 顔認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006202049A (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123100A (ja) * | 2006-11-09 | 2008-05-29 | Omron Corp | 情報処理装置および方法、並びにプログラム |
JP2008165731A (ja) * | 2006-12-08 | 2008-07-17 | Sony Corp | 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム |
JP2008282386A (ja) * | 2007-05-10 | 2008-11-20 | Honda Motor Co Ltd | 物体検出装置、物体検出方法及び物体検出プログラム |
JP2009087209A (ja) * | 2007-10-02 | 2009-04-23 | Sony Corp | 画像処理装置、撮像装置、これらにおける処理方法およびプログラム |
US8107771B2 (en) | 2007-03-19 | 2012-01-31 | Sony Corporation | Image processing apparatus and image processing method |
JP2012252654A (ja) * | 2011-06-06 | 2012-12-20 | Toshiba Corp | 顔画像検索システム、及び顔画像検索方法 |
US8363910B2 (en) | 2007-03-08 | 2013-01-29 | Sony Corporation | Image processing device, image processing method, and program |
JP2013031913A (ja) * | 2011-08-02 | 2013-02-14 | GM Global Technology Operations LLC | ステージクラス化を用いた器用なロボットの実行シーケンスを制御するための方法およびシステム |
US8456536B2 (en) | 2007-03-26 | 2013-06-04 | Sony Corporation | Image processing apparatus, image processing method and program with sightline detection |
US8467571B2 (en) | 2008-10-02 | 2013-06-18 | Akiyoshi Momoi | Ordered recognition of connected objects |
US8482651B2 (en) | 2007-02-15 | 2013-07-09 | Sony Corporation | Image processing device and image processing method |
JP2014526754A (ja) * | 2011-09-27 | 2014-10-06 | インテル・コーポレーション | 顔認識方法、装置、および該方法を実行するためのコンピュータ可読記録媒体 |
US8872929B2 (en) | 2007-06-25 | 2014-10-28 | Sony Corporation | Picture imaging apparatus and imaging control method |
US9760765B2 (en) | 2015-03-19 | 2017-09-12 | Casio Computer Co., Ltd. | Digital signage apparatus which performs face recognition and determines whether a behavior of a person satisfies a predetermined condition, and computer readable medium |
US10599709B2 (en) | 2015-03-05 | 2020-03-24 | Omron Corporation | Object recognition device, object recognition method, and program for recognizing an object in an image based on tag information |
JP2021037660A (ja) * | 2019-09-02 | 2021-03-11 | シヤチハタ株式会社 | 印判用画像処理装置および印判加工機 |
CN113963424A (zh) * | 2021-12-21 | 2022-01-21 | 西南石油大学 | 一种基于单阶人脸定位算法的婴儿窒息或猝死预警方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0991432A (ja) * | 1995-09-28 | 1997-04-04 | Nippon Telegr & Teleph Corp <Ntt> | 不審人物抽出方法 |
JP2000090264A (ja) * | 1998-09-11 | 2000-03-31 | Omron Corp | 生体照合方法およびその装置 |
JP2001351047A (ja) * | 2000-06-09 | 2001-12-21 | Akesesu:Kk | 個人認証方法 |
JP2004318501A (ja) * | 2003-04-16 | 2004-11-11 | Victor Co Of Japan Ltd | 人物認証装置 |
-
2005
- 2005-01-20 JP JP2005013113A patent/JP2006202049A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0991432A (ja) * | 1995-09-28 | 1997-04-04 | Nippon Telegr & Teleph Corp <Ntt> | 不審人物抽出方法 |
JP2000090264A (ja) * | 1998-09-11 | 2000-03-31 | Omron Corp | 生体照合方法およびその装置 |
JP2001351047A (ja) * | 2000-06-09 | 2001-12-21 | Akesesu:Kk | 個人認証方法 |
JP2004318501A (ja) * | 2003-04-16 | 2004-11-11 | Victor Co Of Japan Ltd | 人物認証装置 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123100A (ja) * | 2006-11-09 | 2008-05-29 | Omron Corp | 情報処理装置および方法、並びにプログラム |
US8411906B2 (en) | 2006-12-08 | 2013-04-02 | Sony Corporation | Image processing apparatus, image processing method, image recognition apparatus, and image recognition method |
JP2008165731A (ja) * | 2006-12-08 | 2008-07-17 | Sony Corp | 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム |
US8482651B2 (en) | 2007-02-15 | 2013-07-09 | Sony Corporation | Image processing device and image processing method |
US8363910B2 (en) | 2007-03-08 | 2013-01-29 | Sony Corporation | Image processing device, image processing method, and program |
US8107771B2 (en) | 2007-03-19 | 2012-01-31 | Sony Corporation | Image processing apparatus and image processing method |
US8456536B2 (en) | 2007-03-26 | 2013-06-04 | Sony Corporation | Image processing apparatus, image processing method and program with sightline detection |
JP2008282386A (ja) * | 2007-05-10 | 2008-11-20 | Honda Motor Co Ltd | 物体検出装置、物体検出方法及び物体検出プログラム |
US8300887B2 (en) | 2007-05-10 | 2012-10-30 | Honda Motor Co., Ltd. | Object detection apparatus, object detection method and object detection program |
US8872929B2 (en) | 2007-06-25 | 2014-10-28 | Sony Corporation | Picture imaging apparatus and imaging control method |
US8213690B2 (en) | 2007-10-02 | 2012-07-03 | Sony Corporation | Image processing apparatus including similarity calculating unit, image pickup apparatus, and processing method for the apparatuses |
JP2009087209A (ja) * | 2007-10-02 | 2009-04-23 | Sony Corp | 画像処理装置、撮像装置、これらにおける処理方法およびプログラム |
US8467571B2 (en) | 2008-10-02 | 2013-06-18 | Akiyoshi Momoi | Ordered recognition of connected objects |
JP2012252654A (ja) * | 2011-06-06 | 2012-12-20 | Toshiba Corp | 顔画像検索システム、及び顔画像検索方法 |
JP2013031913A (ja) * | 2011-08-02 | 2013-02-14 | GM Global Technology Operations LLC | ステージクラス化を用いた器用なロボットの実行シーケンスを制御するための方法およびシステム |
JP2014526754A (ja) * | 2011-09-27 | 2014-10-06 | インテル・コーポレーション | 顔認識方法、装置、および該方法を実行するためのコンピュータ可読記録媒体 |
US9208375B2 (en) | 2011-09-27 | 2015-12-08 | Intel Corporation | Face recognition mechanism |
US10599709B2 (en) | 2015-03-05 | 2020-03-24 | Omron Corporation | Object recognition device, object recognition method, and program for recognizing an object in an image based on tag information |
US9760765B2 (en) | 2015-03-19 | 2017-09-12 | Casio Computer Co., Ltd. | Digital signage apparatus which performs face recognition and determines whether a behavior of a person satisfies a predetermined condition, and computer readable medium |
JP2021037660A (ja) * | 2019-09-02 | 2021-03-11 | シヤチハタ株式会社 | 印判用画像処理装置および印判加工機 |
JP7367924B2 (ja) | 2019-09-02 | 2023-10-24 | シヤチハタ株式会社 | 印判用画像処理装置および印判加工機 |
CN113963424A (zh) * | 2021-12-21 | 2022-01-21 | 西南石油大学 | 一种基于单阶人脸定位算法的婴儿窒息或猝死预警方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Real-time detection of fall from bed using a single depth camera | |
JP2006202049A (ja) | 顔認識装置 | |
Joshi et al. | Deep learning framework to detect face masks from video footage | |
Weng et al. | Driver drowsiness detection via a hierarchical temporal deep belief network | |
JP6906717B2 (ja) | 状態判定装置、状態判定方法、及び状態判定プログラム | |
CN111524608B (zh) | 智能检测与防疫系统和方法 | |
JP2006287287A (ja) | 画像処理装置およびそのシステム及びそれらのプログラムの記録媒体 | |
WO2002069267A2 (en) | Classification of objects through model ensembles | |
Boodoo-Jahangeer et al. | LBP-based ear recognition | |
US11908157B2 (en) | Image processing device, image processing method, and recording medium in which program is stored | |
KR20190093799A (ko) | Cctv를 통한 실시간 실종자 얼굴 인식 시스템 및 그 방법 | |
Ramos et al. | Driver Drowsiness Detection Based on Eye Movement and Yawning Using Facial Landmark Analysis. | |
Bhogal et al. | Corona virus disinfectant tunnel using face mask detection and temperature monitoring | |
Kasturi et al. | Classification of human fall in top Viewed kinect depth images using binary support vector machine | |
Palaniappan et al. | Real time fatigue detection using shape predictor 68 face landmarks algorithm | |
Brown | Mobile attendance based on face detection and recognition using OpenVINO | |
JP2005266981A (ja) | 人種推定装置 | |
AthishMon et al. | Recognizing spontaneous emotion from the eye region under different head poses | |
Wang et al. | Video-based inpatient fall risk assessment: A case study | |
JP2022178273A (ja) | 画像認証装置、画像認証方法、コンピュータプログラム、及び記憶媒体 | |
KR101087250B1 (ko) | 피부색 영역 검출을 이용한 얼굴 검출 장치 | |
WO2021053806A1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
Vinayagam et al. | Experimental Evaluation of IoT based Human Gender Classification and Record Management using Intelligent Hybrid Learning Principles | |
Agrawal et al. | Real Time Slumbering Detection Using DLIB | |
Abrar Hamim et al. | Nationality Detection Using Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100511 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100914 |