[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4830650B2 - 追跡装置 - Google Patents

追跡装置 Download PDF

Info

Publication number
JP4830650B2
JP4830650B2 JP2006162185A JP2006162185A JP4830650B2 JP 4830650 B2 JP4830650 B2 JP 4830650B2 JP 2006162185 A JP2006162185 A JP 2006162185A JP 2006162185 A JP2006162185 A JP 2006162185A JP 4830650 B2 JP4830650 B2 JP 4830650B2
Authority
JP
Japan
Prior art keywords
face
information
detected
surrounding information
surrounding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006162185A
Other languages
English (en)
Other versions
JP2007042072A (ja
Inventor
航一 木下
修一郎 築地
美希 松岡
隆義 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2006162185A priority Critical patent/JP4830650B2/ja
Priority to US11/477,950 priority patent/US7940956B2/en
Priority to CN2006100957761A priority patent/CN1892702B/zh
Publication of JP2007042072A publication Critical patent/JP2007042072A/ja
Application granted granted Critical
Publication of JP4830650B2 publication Critical patent/JP4830650B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像内の人物の顔を追跡する装置や方法に適用されて有効な技術に関する。
近年、静止画像や動画像から人物を検出・追跡する処理(以下、「人物追跡処理」と呼ぶ)を実現する技術が注目されている。このような技術では、人の顔を検出・追跡の対象として用いることが一般的である。顔は、万人に共通する特徴と、個人毎に異なる特徴とを兼ね備えるためである。即ち、顔を対象とすることにより、万人に共通する特徴を用いて顔を検出することが可能であり、個人毎に異なる特徴を用いることにより個人を識別することが可能となるからである。
従来の一般的な人物追跡処理は以下のように実行されていた。まず、万人に共通する顔の特徴を用いることにより、画像中から人の顔が検出され、顔の領域が特定される。次に、検出された顔の中から追跡対象が選択される。この選択は、各顔について個人の同定処理の実行により自動的に行われることもあれば、人間による目視によって行われることもあった。追跡対象が選択されると、前回の処理において顔が検出された位置の周囲(以下、「次検出領域」と呼ぶ)において顔検出が実行される。そして、検出された顔について個人の同定処理が実行されることにより、追跡が実現される。そして、同定処理が失敗してしまった場合にも、音声方向認識や肌色認識などの認識結果に基づいて人物の位置推定を行い、追跡を継続する技術も提案されている(特許文献1参照)。
しかしながら、顔を検出・追跡の対象として動画像等から人物を追跡する従来の技術には以下のような問題があった。第一に、顔が障害物の陰に隠れてしまった場合や、顔が横又は後ろを向いてしまった場合などには、追跡を実行することが困難となるという問題があった。例え音声方向認識が実行されたとしても、被写体が声を発しない場合や騒音のある環境下では有効な結果を得られなかった。第二に、個人の同定処理には処理時間を長く要するため、繰り返し実行が必要となる動画像における人物の追跡処理には不向きであるという問題があった。
そこで、ロバスト性を高めさらに処理の高速化を図るために、人の服の色を追跡の対象とすることにより、人物の追跡を実現する技術が提案されている。このような技術の具体例として、測距用枠内の被写体のうち面積が最大となる色を服の色として追跡を行う技術が提案されている(特許文献2参照)。一般的に、服の色は顔の向きによらず一定であることが多いため、このように服の色を追跡することにより、ロバスト性を高めることが可能となる。また、色を追跡の対象とすることにより、処理が容易となるため、高速化を図ることが可能となる。
特開2004−283959号公報 特開平06−22195号公報
しかしながら、上記のような技術にも問題点があった。例えば、測距用枠内に、被写体とすべき人の服よりも大きな面積を有する他の色の領域が存在した場合には、追跡の対象を誤検出してしまい、誤った被写体が追跡の対象とされてしまう。また、追跡対象と同じ色を有した複数の被写体が追跡対象の周囲に存在した場合には、誤った被写体を追跡してしまう可能性があった。
このような問題に対し、予め服装について学習処理を行うことにより誤検出・誤追跡を防止することも考えられる。しかし、通常、服装は日によって変化するものであるため、学習による検出・追跡を実行することは有効とは言えない。
そこで本発明は、動画像中における人物の追跡処理のロバスト性の向上を可能とする装置や方法の提供を目的とする。言い換えれば、本発明は、動画像において追跡対象の顔の検出ができない状況が生じた場合であっても、被写体の追跡を継続可能とする装置や方法を提供することを目的とする。
上記問題を解決するため、本発明は以下のような構成をとる。本発明は、動画像中の顔の位置を追跡する追跡装置であって顔検出手段、記憶手段及び推定手段を含む。顔検出手段は、画像から顔を検出する。記憶手段は、顔検出手段により検出された顔の位置に関連づけて、顔の位置との相対位置関係により定まる領域から取得される周囲情報を記憶する。推定手段は、顔検出手段による顔検出の代わりに、直前に検出された顔の位置に基づいて現在の顔の位置候補を複数求め、この位置候補それぞれに対応する複数の周囲情報を取得し、直前に検出された顔の位置に関連づけられている周囲情報に最も類似する周囲情報が取得された位置候補に基づいて現在の顔の位置を決定する。直前に検出された顔とは、一つ前の画像において検出された顔であっても良いし、直近の複数枚の画像において検出された顔であっても良い。
このように構成された追跡装置では、現在の顔の位置を推定する際に、画像内から顔の検出を行うことなく推定することができる。このため、例えば追跡対象の顔が物陰に隠れてしまった場合や後ろを向いてしまった場合のように、顔の検出が難しい場合であっても、追跡対象の顔を見失うことなく、追跡を継続することが可能となる。
本発明は、直前に検出された顔の位置に基づいて、顔の動き情報を取得する動き情報取得手段をさらに含むように構成されても良い。この場合、推定手段は、位置候補を、直前に検出された顔の位置及び動き情報に基づいて求めるように構成されても良い。
また、本発明における記憶手段は、さらに特徴量を関連づけて記憶するように構成されても良い。この場合顔検出手段は、検出された顔の特徴量と直前に検出された顔の特徴量とに基づいて、検出された顔がこの直前に検出された顔と同一か否か判断するように構成されても良い。さらにこの場合推定手段は、記憶手段に特徴量が記憶される顔のうち、顔検出手段によって検出されなかった顔の位置を決定するように構成されても良い。
このように構成された場合、推定手段による処理は、顔検出手段によって顔が検出されなかった追跡対象についてのみ実施される。推定手段により得られる顔の位置は、顔検出手段によって得られる顔の位置よりも精度が劣ることが多い。このため、このように構成されることにより、顔の位置をより精度良く検出・推定することが可能となる。
本発明における推定手段は、直前に検出された顔の位置に関連づけられている周囲情報に最も類似する周囲情報が取得された位置候補を現在の顔の位置とするように構成されても良い。あるいは、推定手段は、直前に検出された顔の位置に関連づけられている周囲情報に最も類似する周囲情報が取得された位置候補及びその周辺から、最も顔らしい領域を検出し、その検出された領域を現在の顔の位置とするように構成されても良い。
顔の位置と周囲情報を取得する領域の相対位置関係は、顔の位置と領域の相対速度が最も小さくなるように設定されると良い。
周囲情報を取得する領域の範囲が顔の向きに応じて変化するように構成されても良い。
本発明は、プログラムが情報処理装置によって実行されることによって実現されても良い。即ち、本発明は、上記した各手段が実行する処理を、情報処理装置に対して実行させるためのプログラム、或いは当該プログラムを記録した記録媒体として特定することができる。また、本発明は、上記した各手段が実行する処理を情報処理装置が実行する方法をもって特定されても良い。
本発明によれば、動画像において追跡対象の顔の検出ができない状況が生じた場合であっても、被写体の追跡を継続することが可能となる。
以下に説明する追跡装置は、追跡する対象を人間とし、特に人間の顔を検出することによって追跡を実現するように構成される。しかし、このような追跡装置は一つの具体例にすぎず、追跡対象は人間に限られる必要は無く、また人間を追跡する場合にも検出対象は顔に限定される必要はない。
〔システム構成〕
まず、追跡装置1の構成例について説明する。追跡装置1は、ハードウェア的には、バスを介して接続されたCPU(中央演算処理装置),主記憶装置(RAM),補助記憶装置などを備える。補助記憶装置は、不揮発性記憶装置を用いて構成される。ここで言う不揮発性記憶装置とは、いわゆるROM(Read-Only Memory:EPROM(Erasable Programmable Read-Only Memory),EEPROM(Electrically Erasable Programmable Read-Only Memory),マスクROM等を含む),FRAM(Ferroelectric
RAM),ハードディスク等を指す。
図1は、追跡装置1の機能ブロックを示す図である。追跡装置1は、補助記憶装置に記憶された各種のプログラム(OS,アプリケーション等)が主記憶装置にロードされCPUにより実行されることによって、画像入力部2,動画像記憶部3,対象情報記憶部4,制御部5,位置出力部6,関連情報記憶部7等を含む装置として機能する。制御部5は、プログラムがCPUによって実行されることにより実現される。また、制御部5は専用のチップとして構成されても良い。次に、追跡装置1が含む各機能部について説明する。
〈画像入力部〉
画像入力部2は、動画像のデータを追跡装置1へ入力するためのインタフェースとして機能する。画像入力部2によって、動画像のデータが追跡装置1へ入力される。画像入力部2は、追跡装置1へ動画像のデータを入力するためのどのような既存技術を用いて構成されても良い。
〈動画像記憶部〉
動画像記憶部3は、記憶装置を用いて構成される。動画像記憶部3に用いられる記憶装置には、揮発性記憶装置や不揮発性記憶装置など、どのような具体的技術が適用されても良い。ここで言う揮発性記憶装置とは、いわゆるRAM(Random Access Memory:DRAM(Dynamic RAM),SDRAM(Synchronous DRAM),DDR SDRAM(Double Data Rate SDRAM)等)を指す。
動画像記憶部3は、画像入力部2を介して入力された動画像のデータを記憶する。動画像記憶部3に記憶された動画像のデータは、制御部5によって読み出される。動画像記憶部3は、少なくとも制御部5による処理が完了するまでは、その処理の対象となっている
動画像のデータを保持する。
〈対象情報記憶部〉
対象情報記憶部4は、記憶装置を用いて構成される。対象情報記憶部4に用いられる記憶装置も、動画像記憶部3と同様にどのような具体的技術が適用されても良い。対象情報記憶部4は、各追跡対象についての対象情報を記憶する。図2は、対象情報の具体例を示す図である。対象情報記憶部4は、各追跡対象について、例えばID、位置情報、動き情報、特徴量、周囲情報及び検出失敗フラグを関連づけて記憶するように構成される。位置情報、動き情報、特徴量、周囲情報及び検出失敗フラグの詳細や具体例については制御部5とともに後に説明する。以下、各項目について簡単に説明する。
IDは、追跡対象を示す識別子である。位置情報は、制御部5によって取得される情報であり、追跡対象の画像内における位置を示す情報である。動き情報は、制御部5によって取得される情報であり、追跡対象の画像内における動きを示す情報である。特徴量は、制御部5が追跡対象の顔を同定する際に使用される情報である。周囲情報は、追跡対象の顔の付近の領域における特徴情報である。検出失敗フラグは、今回の顔検出処理において追跡対象の顔が検出されたか否かを示す情報である。検出失敗フラグがたっている場合は、顔検出処理による位置検出ができなかったことを示し、そのような追跡対象については顔検出処理とは異なる処理(具体的には位置推定部54による位置推定処理)による追跡処理が行われる。
〈制御部〉
制御部5は、CPU等によってプログラムが実行されることにより実現される。制御部5は、顔検出部51,周囲情報収集部52,動き検出部53及び位置推定部54を含む。以下、各機能部について説明する。
〈〈顔検出部〉〉
顔検出部51は、動画像記憶部3から画像のデータを読み出し、その画像から人の顔を検出し、検出された顔の位置や大きさ等を示す顔情報を特定する。顔検出部51は、例えば、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部51は、顔の構成要素(目,鼻,耳など)に基づくテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部51は、クロマキー処理によって頭部などの頂点を検出し、この頂点に基づいて顔を検出するように構成されても良い。また、顔検出部51は、肌の色に近い領域を検出し、その領域を顔として検出するように構成されても良い。また、顔検出部51は、ニューラルネットワークを使って教師信号による学習を行い、顔らしい領域を顔として検出するように構成されても良い。また、顔検出部51による顔検出処理は、その他、既存のどのような技術が適用されることによって実現されても良い。
また、顔検出部51は、検出された顔から特徴量を取得する。顔検出部51は、特徴量として、検出された顔を含む特定の領域における輝度分布や色ヒストグラム等を取得する。取得された特徴量は、対象情報記憶部4に記憶される。
また、顔検出部51は、検出された各顔の追跡対象について、対象情報記憶部4に既に記憶されている追跡対象であるか否か判断する。顔検出部51は、例えば上述したような特徴量を画像から取得し、対象情報記憶部4に記憶されている特徴量と比較することによって判断を行う。この比較は、輝度分布の正規化相関や、色ヒストグラムのヒストグラムインタセクション等を類似度として取得することによって行うことができる。即ち、類似であるか否かを判断し、類似であると判断された場合には同一人物であると判断することができる。このとき、顔検出部51は、検出された顔の位置と近い位置情報を有する対象
情報に関連する特徴量のみを用いて比較を行うように構成されても良い。そして、顔検出部51は、対象情報記憶部4に記憶されている追跡対象のうち、今回の検出処理で検出されなかった追跡対象の検出失敗フラグを立てる。
〈〈周囲情報収集部〉〉
周囲情報収集部52は、顔検出部51によって検出された顔の位置や、位置推定部54によって推定された顔の位置に基づいて周囲情報を取得する。図3は、周囲情報の具体例を示す図である。以下、図3を用いて周囲情報収集部52の処理の具体例について説明する。
まず、周囲情報収集部52は、顔検出部51によって今回の検出処理で検出された顔の位置(図3の検出位置に該当)又は位置推定部54によって推定された顔の位置に基づいて、周囲情報取得領域を決定する。周囲情報取得領域の位置は顔の位置との相対的関係により決定される。同様に、周囲情報取得領域の大きさは顔の大きさとの相対的関係により決定される。関連情報記憶部7は、顔と周囲情報取得領域の相対的関係を定めるパラメータを記憶している。周囲情報収集部52は、関連情報記憶部7に記憶されたパラメータを参照して、検出位置の周囲に存在する所定の領域を周囲情報取得領域として決定する。具体的には、周囲情報収集部52は以下のように周囲情報取得領域を決定しても良い。
まず、検出位置の中心をP=(X,Y)とし、顔の領域を示す矩形(検出位置を示す矩形)の一辺の長さをDとすると、周囲情報取得領域を示す長方形の中心R,幅W,高さHは式1のように表すことができる。式1の例では、顔の領域が正方形で表されている。これにより、顔の領域を表すために必要な情報量が少なくなり、処理の高速化が図られる。ただし、顔の領域の表現手法は正方形に限られない。長方形とか多角形を用いることにより、より正確に顔の位置及び大きさを表現することができる。顔の位置及び大きさが正確になれば、周囲情報取得領域の位置及び大きさもより正確に決定することができる。
Figure 0004830650
α,β,γは定数であり、関連情報記憶部7に記憶されたパラメータである。パラメータα,β,γは、人物の胴体部分に周囲情報取得領域が配置されるように、予め定められている。例えば、さまざまな人物の顔と胴体との相対距離や相対サイズを測定し、その平均値を求めることにより、パラメータα,β,γを決定することができる。
そして、周囲情報収集部52は、周囲情報取得領域において、面積最大色、色ヒストグラム、シルエット、テクスチャ情報などを周囲情報として取得する。
次に、周囲情報収集部52が周囲情報を取得する際の具体的な処理を説明する。
周囲情報として面積最大色を用いる場合は、周囲情報収集部52は以下のような処理を行う。例えば、RGB空間の各軸をQ分割し(Qは1以上の整数)、それぞれの領域に入る画素数を周囲情報取得領域内でカウントする。これは色ヒストグラムとも呼ばれる。各領域iの画素数は式2のように表すことができる。このとき、周囲情報取得領域の画素数は式3のように表すことができる。また、面積最大色は、式2,3におけるMi(正確には、波線を上部に有するMi)の値が最大となるiによって示される領域の色である。
Figure 0004830650

Figure 0004830650
周囲情報として色ヒストグラムを用いる場合は、各ヒストグラムの要素の値を、式3で表される画素数で除算した正規化ヒストグラムを式4のように作成する。
Figure 0004830650
周囲情報としてシルエットを用いる場合は、例えばラプラシアンフィルタによって、周囲情報取得領域の画像(輝度値)からエッジ情報を求める。このようにして取得された周囲情報は、各追跡対象と関連付けて対象情報記憶部4に記憶される。
〈〈動き検出部〉〉
動き検出部53は、顔検出部51の検出結果に基づき、各追跡対象の顔について画像内での動きを計算し動き情報を生成する。また、動き検出部53は顔検出部51によって検出されなかった追跡対象の顔についても、位置推定部54によって推定された位置に基づいて動き情報を生成する。動き検出部53によって生成された動き情報は、対象情報記憶部4に記憶される。
動き検出部53は、例えば以下のような処理によって動き情報を生成する。入力画像上での前フレームでの顔検出座標(矩形の中心座標)をP1=(X1,Y1)、現フレームでの顔検出座標をP2=(X2,Y2)とすると、動き情報V=(Vx,Vy)は式5のように表される。また、前フレームと現フレームとの間の時間はTとして表される。
Figure 0004830650
〈〈位置推定部〉〉
位置推定部54は、検出失敗フラグがたっている追跡対象の現在の位置を推定する。位置推定部54は、前回の検出結果として対象情報記憶部4に記憶されている位置情報と、動き検出部53によって生成された動き情報とに基づいて、現在の顔のおおまかな位置P’=(X’,Y’)を推定する。このような推定は、例えば式6を用いて行うことができる。
Figure 0004830650
次に、このおおまかな位置を示すX’,Y’に適当な乱数の組(x,y)を加算することにより、複数の推定位置(位置候補)E1=(Xe1,Ye1),E2=(Xe2,Ye2),・・・,EN=(XeN,YeN)を生成する。ここで、Nは生成された乱数の組数を示す。位置推定部54は、複数の各推定位置における周囲情報の取得を周囲情報収
集部52に依頼する。位置推定部54は、各推定位置に基づいて得られた周囲情報と、対象情報記憶部4に記憶される周囲情報とを比較する。そして、位置推定部54は、対象情報記憶部4に記憶される周囲情報と最も類似している周囲情報が得られた推定位置Enを、現在の顔の位置として推定する。位置推定部54は、いずれの推定位置によっても対象情報記憶部4に記憶される周囲情報と類似した周囲情報が得られない場合は、その追跡対象については現在の位置を推定しないように構成されても良い。
周囲情報が類似しているか否かは、両周囲情報の類似度を算出することにより判断できる。類似度は、例えば以下のように算出される。周囲情報として面積最大色を用いる場合は、例えばRGB空間内でのユークリッド距離を用いることができる。
また、周囲情報として色ヒストグラムを用いる場合は、ヒストグラムインタクセションを用いることができる。比較する二つのヒストグラムをそれぞれH,Mとするとき、ヒストグラムインタセクションは式7として表される。この値は、0から1までの値をとり、全く同一のヒストグラムの場合に1となる。
Figure 0004830650
また、周囲情報としてシルエットを用いる場合は、エッジ画像同士の正規化相関を用いることができる。二つの画像X,Yの正規化相関は、式8によって計算することができる。
Figure 0004830650
〈位置出力部〉
位置出力部6は、制御部5の顔検出部51によって検出された顔の位置又は位置推定部54によって推定された顔の位置を追跡装置1の外部に出力する。
〔動作例〕
図4,5は追跡装置1の動作例を示すフローチャートである。まず、制御部5が画像から顔を検出する(S01)。次に、検出された顔の中から追跡対象の顔を選択し(S02)、この追跡対象についての対象情報が対象情報記憶部4に記憶されているか判断する(S03)。対象情報がない場合は(S03−NO)、新たにこの追跡対象についての対象情報を対象情報記憶部4に追加するか判断する(S04)。この判断は、この追跡対象が対象情報として記憶する必要があるか否か、例えば検出された顔の大きさなどに基づいて判断する。対象情報を追加すると判断した場合は(S04−YES)、この新たな追跡対象についての対象情報を対象情報記憶部4に記憶させる(S05)。また、S03の処理において、対応する対象情報がある場合には(S03−YES)、この対象情報について更新を行う(S05)。対象情報の更新とは、位置情報、動き情報、特徴量、周囲情報を新たに取得し対象情報記憶部4に記憶させる処理である。
S05の処理の後、又はS04の処理において追加しないと判断された場合(S04−NO)は、処理の対象とした追跡対象の顔が、顔検出部51によって検出された最後の顔
であるか否か判断する。最後でない場合は(S06−NO)、未処理の顔を選択し(S02)この顔についてS03〜S05までの処理を実行する。一方、最後であった場合は(S06−YES)、顔検出部51は、対象情報記憶部4に記憶される対象情報のうち、更新されなかった対象情報の検出失敗フラグをたてる(S07)。
次に、位置推定部54は、検出失敗フラグを有する対象情報を選択し(S08)、その対象情報における位置情報と動き情報とに基づいて複数の推定位置を得る(S09)。位置推定部54は、複数の推定位置それぞれについて周囲情報を取得し(S10)、その結果に基づいて位置推定結果を取得する(S11)。そして、推定された位置に基づいて、対象情報記憶部4の位置情報、動き情報、周囲情報を更新する(S12)。このとき、特徴量については、顔が検出されなかったため、即ち顔を検出するための特徴量を取得できないため更新はしない。
次に、検出失敗フラグを有する全ての対象情報についてS08〜S12の処理が終了したか判断し、終了していない場合には未処理の対象情報に基づいてS08〜S12の処理を行う(S13−NO)。一方、全ての対象情報についてS08〜S12の処理が終了した場合には、今回の追跡処理が終了し、必要であればS01以降の処理が繰り返される。
〔作用/効果〕
追跡装置1は、画像内における追跡対象の顔を検出することにより追跡を行う。各追跡対象の現在位置は、対象情報記憶部4に位置情報として記憶され、位置出力部6によって外部に出力される。追跡装置1では、追跡対象の顔が物陰に隠れてしまった場合や後ろを向いてしまった場合のように、顔の検出が難しい場合には、顔の検出ではなく位置推定部54による推定処理を行うことで追跡を継続する。このため、上述したような顔の検出が難しい状況が生じた場合であっても、追跡対象を見失うことなく、追跡を継続することが可能となる。
具体的には、まず過去の追跡履歴に基づいて得られる動き情報によって、顔が検出できなかった追跡対象の現在の大まかな位置が推定され、その位置に基づいて複数の推定位置が決定される。そして、対象情報記憶部4に記憶されている周囲情報と最も類似する周囲情報が得られた推定位置を、追跡対象の現在の位置として最終的に推定される。この周囲情報は、周囲情報取得領域が顔の位置の真下に設定された場合は、一般的にその追跡対象の人物の服についての情報を示す。この場合、顔が検出されなかった場合には、周囲情報に基づいた位置推定を行うことにより、追跡対象の服の色や形などに基づいて位置推定が行われることとなる。
このような追跡装置1は、例えばビデオカメラに搭載することにより、所定の人物を追跡し、その人物に焦点を合わせるような制御を行うことが可能となる。合焦制御以外にも、例えばホワイトバランスの制御基準とすることもできるし、フレーム内にその人物を収めるようにカメラの向き等の制御を行うこともできる。
〔変形例〕
追跡対象の数を制限する場合は、顔検出部51によって検出された複数の顔の中から追跡対象とすべき顔を選択することもできる。例えば、顔検出部51は、検出された顔の大きさが大きいものから順に追跡対象として選択し、所定の数を満たした時点で選択されている顔を追跡対象として決定するように構成されても良い。また、最も大きな顔のみを追跡対象として決定するように構成されても良い。また、所定以上の大きさを有する顔を全て追跡対象とするように構成されても良い。また、顔検出部51が同定処理を行うことが可能に構成された場合は、予め登録された特定の追跡対象のみを顔検出部51が同定処理によって選択するように構成されても良い。
周囲情報取得領域の位置の算出に、顔の傾きを考慮することも好ましい。例えば、図6に示すように、顔の領域を示す矩形がカメラ座標系(画像座標系)に対して角度θだけ傾いていた場合には、周囲情報取得領域の中心座標Rは式9のように算出すればよい。これにより、人物の姿勢が傾いている場合でも、その胴体部分から正確な周囲情報を取得することができる。
R=(X+αDsinθ,Y+αDcosθ) ・・・(式9)
顔の領域と周囲情報取得領域の相対的関係は、追跡対象とする人物の条件や、カメラの設置条件などによって変わるものである。例えば、子供と成人では顔と胴体の相対サイズは異なるし、成人と老人とでは顔と胴体の相対位置が異なる。また、カメラが顔と同じ高さに設置されている場合と、カメラが顔よりも高い位置にある場合とでは、同一人でも顔と胴体の相対位置などに違いがでる。そこで、顔の領域と周囲情報取得領域の相対的関係を定めるパラメータ(上記実施形態ではα,β,γ)を固定値にするのではなく、人物の条件やカメラの設置条件などに応じて変更できるようにしておくことも好ましい。これによって、より正確な周囲情報を取得することができる。
また、追跡装置が画像を解析することによって最適なパラメータを自動的に決定することも好ましい。図7の例では、追跡装置が、まず、顔の領域Fの周囲に複数の候補領域A,Bを設定し、複数フレームの画像を解析することで、顔の領域Fと各候補領域A,Bとの相対速度を調べる。そして、顔の領域Fとの相対速度が最も小さい候補領域Aが、周囲情報取得領域として設定される。これにより、追跡対象の顔とは無関係な領域(例えば、背景部分や他人の胴体)に周囲情報取得領域が設定されることが無くなり、正確な周囲情報の取得が可能となる。
また、周囲情報取得領域の範囲(位置及び大きさ)の算出に、顔の向きを考慮することも好ましい。顔と胴体の相対位置や相対サイズは、顔及び胴体の向きに応じて変わるからである。図8の例では、顔が正面向きならW=2×D、顔が斜め向きならW=1.5×D、顔が横向きならW=1.25×Dのように、顔の向きに応じてパラメータβの値を補正することで周囲情報取得領域の幅を変化させている。また、図8の例では、顔の向きに応じて周囲情報取得領域の中心座標(x座標)も変化させている。このように周囲情報取得領域の範囲を顔の向きに応じて変化させるようにすれば、より正確な周囲情報を取得することが可能である。なお、図8の例では、周囲情報取得領域の幅と位置のみ変化させているが、高さや形状(縦横比など)を変化させるようにしてもよい。
上記実施形態では、顔の検出に成功した場合に必ず周囲情報を更新している(図4のS05参照)。しかし、追跡中の人物が他の人物とすれ違ったり物陰に入ったりすると、正しい周囲情報取得領域(胴体など)が一時的にカメラの視界から外れることがある。そのような場合に誤った周囲情報(他の人物の胴体の色など)で更新を行うと、それ以降の顔位置推定に支障がでるおそれがある。そこで、取得された周囲情報が直前の画像と現在の画像とで大きく異なる場合には、更新を省略することも好ましい。これにより追跡処理の信頼性を向上することができる。
上記実施形態では、位置推定部54は、直前の周囲情報と最も類似している周囲情報が得られた位置候補を現在の顔の位置とみなしている。しかし、周囲情報取得領域と顔との相対位置は常に同じとは限らないため、推定された顔の位置と真の顔の位置との間に誤差があることもある。例えば、顔が傾いていたり顔が正面以外を向いていたりすると、そのような誤差を生じやすい。そこで、位置推定部54が、対象情報記憶部4に記憶された直前の周囲情報と最も類似している周囲情報が得られる位置候補を特定した後、さらに、その位置候補及びその周辺から最も顔らしい領域を検出し、その検出された領域を現在の顔
の位置とすることも好ましい。このように限られた範囲の中で顔の再探索を行うことにより、現在の顔の位置をより正確に推定することができる。なお、顔の再探索処理については、顔検出部51の顔検出処理と同様の手法を利用すればよい。
パーティクルフィルタを利用した追跡手法、ミーンシフトを利用した追跡手法、その他の従来の追跡手法を本発明に組み合わせることも好ましい。
追跡装置の機能ブロック例を示す図である。 対象情報の具体例を示す図である。 周囲情報の具体例を示す図である。 追跡装置の動作例を示すフローチャートである。 追跡装置の動作例を示すフローチャートである。 顔の傾きを考慮した周囲情報取得領域の設定例を示す図である。 顔との相対速度を考慮した周囲情報取得領域の設定例を示す図である。 顔の向きを考慮した周囲情報取得領域の設定例を示す図である。
符号の説明
1 追跡装置
2 画像入力部
3 画像記憶部
4 対象情報記憶部
5 制御部
51 顔検出部
52 周囲情報収集部
53 動き検出部
54 位置推定部
6 位置出力部
7 関連情報記憶部

Claims (9)

  1. 動画像中の顔の位置を追跡する追跡装置であって、
    画像から顔を検出する顔検出手段と、
    前記顔検出手段により検出された顔の位置及び大きさに対する周囲情報取得領域の位置及び大きさが前記顔検出手段により検出された顔を持つ人物の胴体となるような相対的関係を定めるパラメータに基づいて決められる、前記周囲情報取得領域における特徴情報である周囲情報を記憶する記憶手段と、
    前記顔検出手段による顔検出の代わりに、直前に検出された顔の位置に基づいて現在の顔の位置候補を複数求め、この位置候補それぞれに対応する複数の周囲情報を前記記憶手段から取得し、前記直前に検出された顔の位置に関連づけられている周囲情報に最も類似する周囲情報が取得された位置候補に基づいて現在の顔の位置を決定する推定手段とを含む追跡装置。
  2. 前記直前に検出された顔の位置に基づいて、顔の動き情報を取得する動き情報取得手段をさらに含み、
    前記推定手段は、位置候補を、前記直前に検出された顔の位置及び前記動き情報に基づいて求める請求項1に記載の追跡装置。
  3. 前記記憶手段は、さらに特徴量を関連づけて記憶し、
    前記顔検出手段は、検出された顔の特徴量と前記直前に検出された顔の特徴量とに基づいて、検出された顔が前記直前に検出された顔と同一か否か判断し、
    前記推定手段は、前記直前に検出された顔のうち、前記顔検出手段によって検出されなかった顔の位置を推定する請求項1又は2に記載の追跡装置。
  4. 前記推定手段は、前記直前に検出された顔の位置に関連づけられている周囲情報に最も類似する周囲情報が取得された位置候補を現在の顔の位置とする請求項1〜3のいずれかに記載の追跡装置。
  5. 前記推定手段は、前記直前に検出された顔の位置に関連づけられている周囲情報に最も類似する周囲情報が取得された位置候補及びその周辺から、最も顔らしい領域を検出し、その検出された領域を現在の顔の位置とする請求項1〜3のいずれかに記載の追跡装置。
  6. 前記顔の位置と前記周囲情報を取得する領域との相対位置関係は、前記顔の位置と前記領域の相対速度が最も小さくなるように設定される請求項1〜5のいずれかに記載の追跡装置。
  7. 前記周囲情報を取得する領域の範囲が前記顔の向きに応じて変化する請求項1〜6のいずれかに記載の追跡装置。
  8. 動画像中の顔の位置を追跡する追跡方法であって、
    情報処理装置が、画像から顔を検出するステップと、
    前記情報処理装置が、検出された顔の位置及び大きさに対する周囲情報取得領域の位置及び大きさが前記検出された顔を持つ人物の胴体となるような相対的関係が定められたパラメータに基づいて決められる前記周囲情報取得領域における特徴情報である周囲情報を記憶するステップと、
    前記情報処理装置が、直前に検出された顔の位置に基づいて現在の顔の位置候補を複数求めるステップと、
    前記情報処理装置が、この位置候補それぞれに対応する複数の周囲情報を取得するステップと、
    前記情報処理装置が、前記顔を検出するステップの代わりに、前記直前に検出された顔の位置に関連づけられている周囲情報に最も類似する周囲情報が取得された位置候補に基づいて現在の顔の位置を決定するステップと、を含む追跡方法。
  9. 情報処理装置に対して動画像中の顔の位置を追跡させるためのプログラムであって、
    画像から顔を検出するステップと、
    検出された顔の位置及び大きさに対する周囲情報取得領域の位置及び大きさが前記検出された顔を持つ人物の胴体となるような相対的関係が定められたパラメータに基づいて決められる前記周囲情報取得領域における特徴情報である周囲情報を記憶するステップと、
    直前に検出された顔の位置に基づいて現在の顔の位置候補を複数求めるステップと、
    この位置候補それぞれに対応する複数の周囲情報を取得するステップと、
    前記顔を検出するステップの代わりに、前記直前に検出された顔の位置に関連づけられている周囲情報に最も類似する周囲情報が取得された位置候補に基づいて現在の顔の位置を決定するステップと、を情報処理装置に対し実行させるためのプログラム。
JP2006162185A 2005-07-05 2006-06-12 追跡装置 Active JP4830650B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006162185A JP4830650B2 (ja) 2005-07-05 2006-06-12 追跡装置
US11/477,950 US7940956B2 (en) 2005-07-05 2006-06-30 Tracking apparatus that tracks a face position in a dynamic picture image using ambient information excluding the face
CN2006100957761A CN1892702B (zh) 2005-07-05 2006-07-04 追踪装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005196342 2005-07-05
JP2005196342 2005-07-05
JP2006162185A JP4830650B2 (ja) 2005-07-05 2006-06-12 追跡装置

Publications (2)

Publication Number Publication Date
JP2007042072A JP2007042072A (ja) 2007-02-15
JP4830650B2 true JP4830650B2 (ja) 2011-12-07

Family

ID=37661309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006162185A Active JP4830650B2 (ja) 2005-07-05 2006-06-12 追跡装置

Country Status (2)

Country Link
US (1) US7940956B2 (ja)
JP (1) JP4830650B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9779305B2 (en) 2012-04-05 2017-10-03 Panasonic Intellectual Property Corporation Of America Video analyzing device, video analyzing method, program, and integrated circuit
KR102233609B1 (ko) * 2019-04-08 2021-03-30 주식회사 토룩 자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8995715B2 (en) * 2010-10-26 2015-03-31 Fotonation Limited Face or other object detection including template matching
JP4427515B2 (ja) * 2006-01-27 2010-03-10 富士フイルム株式会社 対象画像検出表示制御装置およびその制御方法
US8571258B2 (en) * 2006-02-07 2013-10-29 France Telecom Method of tracking the position of the head in real time in a video image stream
JP4182117B2 (ja) * 2006-05-10 2008-11-19 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
EP2059026A4 (en) * 2006-08-30 2010-12-29 Nikon Corp APPARATUS AND METHOD FOR ALIGNING IMAGE AND CAMERA
JP4912117B2 (ja) * 2006-10-27 2012-04-11 三洋電機株式会社 追跡機能付き撮像装置
DE102007010186A1 (de) * 2007-03-02 2008-09-04 Robert Bosch Gmbh Vorrichtung, Verfahren und Computerprogramm zur bildgestützten Verfolgung von Überwachungsobjekten
JP2008269471A (ja) * 2007-04-24 2008-11-06 Sony Corp 類似画像判定装置と類似画像判定方法およびプログラムと記録媒体
KR100886323B1 (ko) 2007-10-10 2009-03-04 성균관대학교산학협력단 컬러 히스토그램을 이용한 실시간 물체 추적 방법 및 장치
KR101396326B1 (ko) * 2007-10-12 2014-05-16 삼성전자주식회사 얼굴 검출을 위한 디지털 영상 처리 장치의 제어 방법 및이 방법을 채용한 디지털 영상 처리 장치
JP4811395B2 (ja) * 2007-12-12 2011-11-09 富士通株式会社 ロボットの対面者の状態変化判断方法、情報処理装置及びプログラム
JP5029350B2 (ja) * 2007-12-28 2012-09-19 カシオ計算機株式会社 撮像装置、プログラム、並びに撮像方法
JP4518157B2 (ja) 2008-01-31 2010-08-04 カシオ計算機株式会社 撮像装置及びそのプログラム
JP4944055B2 (ja) * 2008-03-19 2012-05-30 富士フイルム株式会社 撮像装置及び撮像制御方法
JP2009268086A (ja) 2008-03-31 2009-11-12 Panasonic Corp 撮像装置
EP2276234A4 (en) * 2008-04-23 2017-11-22 NEC Corporation Image processing device, camera, image processing method, and program
US20090290791A1 (en) * 2008-05-20 2009-11-26 Holub Alex David Automatic tracking of people and bodies in video
JP4384240B2 (ja) 2008-05-28 2009-12-16 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラム
JP5279635B2 (ja) * 2008-08-20 2013-09-04 キヤノン株式会社 画像処理装置、画像処理方法、および、プログラム
JP5159515B2 (ja) * 2008-08-26 2013-03-06 キヤノン株式会社 画像処理装置およびその制御方法
JP5247337B2 (ja) * 2008-10-02 2013-07-24 キヤノン株式会社 画像認識装置および画像認識方法
JP5279517B2 (ja) * 2009-01-09 2013-09-04 キヤノン株式会社 物体検知装置及び物体検知方法
JP5268671B2 (ja) * 2009-01-20 2013-08-21 キヤノン株式会社 画像記録装置
JP2010237872A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP5203281B2 (ja) * 2009-03-31 2013-06-05 綜合警備保障株式会社 人物検出装置、人物検出方法、及び人物検出プログラム
JP5469899B2 (ja) * 2009-03-31 2014-04-16 株式会社トプコン 自動追尾方法及び測量装置
JP5384172B2 (ja) * 2009-04-03 2014-01-08 富士フイルム株式会社 オートフォーカスシステム
US8325981B2 (en) * 2009-04-21 2012-12-04 Nec Soft, Ltd. Human tracking apparatus, human tracking method, and human tracking processing program
JP5214533B2 (ja) 2009-05-21 2013-06-19 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
US8340435B2 (en) * 2009-06-11 2012-12-25 California Institute Of Technology Method and system for object recognition search
JP5483961B2 (ja) 2009-09-02 2014-05-07 キヤノン株式会社 画像処理装置、被写体判別方法、プログラム及び記憶媒体
JP4945617B2 (ja) * 2009-09-18 2012-06-06 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラム
US8379917B2 (en) * 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
JP5476955B2 (ja) * 2009-12-04 2014-04-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8760631B2 (en) * 2010-01-27 2014-06-24 Intersil Americas Inc. Distance sensing by IQ domain differentiation of time of flight (TOF) measurements
JP5126285B2 (ja) * 2010-05-18 2013-01-23 カシオ計算機株式会社 撮像装置及びそのプログラム
US9053681B2 (en) 2010-07-07 2015-06-09 Fotonation Limited Real-time video frame pre-processing hardware
JP5759170B2 (ja) * 2010-12-27 2015-08-05 キヤノン株式会社 追尾装置およびその制御方法
US8548206B2 (en) 2011-01-20 2013-10-01 Daon Holdings Limited Methods and systems for capturing biometric data
JP5228074B2 (ja) * 2011-03-31 2013-07-03 株式会社東芝 情報処理装置、表示制御方法
WO2013001940A1 (ja) * 2011-06-29 2013-01-03 オリンパスイメージング株式会社 追尾装置及び追尾方法
JP5143262B1 (ja) * 2011-08-30 2013-02-13 株式会社東芝 立体映像処理装置、立体映像処理方法
JP5087163B1 (ja) * 2011-08-31 2012-11-28 株式会社東芝 立体画像表示装置
JP5127972B1 (ja) * 2011-09-30 2013-01-23 株式会社東芝 電子機器、電子機器の制御方法
KR101313879B1 (ko) 2011-12-28 2013-10-01 대전대학교 산학협력단 기울기 히스토그램을 이용한 사람 검출 추적 시스템 및 방법
JP5978639B2 (ja) * 2012-02-06 2016-08-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び記録媒体
CN103404130B (zh) 2012-02-23 2017-06-27 松下电器(美国)知识产权公司 兴趣区间确定装置、兴趣区间确定方法
JP5964108B2 (ja) * 2012-03-30 2016-08-03 株式会社メガチップス 物体検出装置
KR20140008127A (ko) * 2012-07-10 2014-01-21 삼성디스플레이 주식회사 레이저 결정화 장치 및 방법
JP5963606B2 (ja) * 2012-08-10 2016-08-03 キヤノン株式会社 撮像装置及びその制御方法
JP6033044B2 (ja) * 2012-11-06 2016-11-30 キヤノン株式会社 画像表示装置、その制御方法、および制御プログラム、並びに撮像装置
JP5325330B2 (ja) * 2012-11-14 2013-10-23 株式会社ザクティ 画像処理装置及び撮像装置
JP6295534B2 (ja) * 2013-07-29 2018-03-20 オムロン株式会社 プログラマブル表示器、制御方法、およびプログラム
JP6618767B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP6769732B2 (ja) 2016-04-22 2020-10-14 東芝テック株式会社 補正データ設定装置及びインクジェットプリンタ
US10535163B2 (en) * 2016-12-01 2020-01-14 Pinscreen, Inc. Avatar digitization from a single image for real-time rendering
JP6797009B2 (ja) * 2016-12-01 2020-12-09 株式会社Nttドコモ 人物識別装置、方法及びプログラム
WO2018163243A1 (ja) 2017-03-06 2018-09-13 三菱電機株式会社 物体追跡装置及び物体追跡方法
JP6631594B2 (ja) * 2017-06-30 2020-01-15 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法、プログラム
CN108038455A (zh) * 2017-12-19 2018-05-15 中国科学院自动化研究所 基于深度学习的仿生机器孔雀图像识别方法
JP7033305B2 (ja) * 2018-02-23 2022-03-10 エイアイビューライフ株式会社 情報処理装置
SG10201802532YA (en) * 2018-03-27 2019-10-30 Nec Asia Pacific Pte Ltd Method and system for identifying an individual in a crowd
JP2019201387A (ja) * 2018-05-18 2019-11-21 株式会社ザクティ 追尾制御装置
CN109034100B (zh) * 2018-08-13 2021-03-26 成都云盯科技有限公司 人脸图样检测方法、装置、设备及存储介质
KR20210022215A (ko) 2019-08-19 2021-03-03 삼성디스플레이 주식회사 레이저 어닐 장치 및 레이저 어닐 장치를 이용한 박막 결정화 방법
JP7497587B2 (ja) * 2020-03-24 2024-06-11 Omデジタルソリューションズ株式会社 撮像装置
JP6785481B1 (ja) 2020-05-22 2020-11-18 パナソニックIpマネジメント株式会社 画像追尾装置
US11908233B2 (en) 2020-11-02 2024-02-20 Pinscreen, Inc. Normalization of facial images using deep neural networks

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
JP3093346B2 (ja) * 1991-08-16 2000-10-03 株式会社東芝 運動物体検出装置
US5912980A (en) * 1995-07-13 1999-06-15 Hunke; H. Martin Target acquisition and tracking
US6184926B1 (en) * 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
JPH1115945A (ja) * 1997-06-19 1999-01-22 N T T Data:Kk 画像処理装置及び方法、及び、危険物検出システム及び方法
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
JPH1166320A (ja) * 1997-08-12 1999-03-09 Mitsubishi Electric Corp 目画像追跡装置
US6118887A (en) * 1997-10-10 2000-09-12 At&T Corp. Robust multi-modal method for recognizing objects
GB2333590A (en) * 1998-01-23 1999-07-28 Sharp Kk Detecting a face-like region
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6404900B1 (en) * 1998-06-22 2002-06-11 Sharp Laboratories Of America, Inc. Method for robust human face tracking in presence of multiple persons
JP2000030033A (ja) * 1998-07-09 2000-01-28 Matsushita Electric Ind Co Ltd 人物検出方法
JP2001174551A (ja) * 1999-12-21 2001-06-29 Mitsubishi Electric Corp 移動体同定装置
US6937744B1 (en) * 2000-06-13 2005-08-30 Microsoft Corporation System and process for bootstrap initialization of nonparametric color models
AU2002342067A1 (en) * 2001-10-12 2003-04-22 Hrl Laboratories, Llc Vision-based pointer tracking method and apparatus
KR100474848B1 (ko) * 2002-07-19 2005-03-10 삼성전자주식회사 영상시각 정보를 결합하여 실시간으로 복수의 얼굴을검출하고 추적하는 얼굴 검출 및 추적 시스템 및 방법
US20040260513A1 (en) * 2003-02-26 2004-12-23 Fitzpatrick Kerien W. Real-time prediction and management of food product demand
JP4239635B2 (ja) * 2003-03-20 2009-03-18 ソニー株式会社 ロボット装置、その動作制御方法、及びプログラム
JP3836814B2 (ja) * 2003-05-20 2006-10-25 株式会社東芝 画像処理方法、画像処理装置、画像処理プログラム
JP4470434B2 (ja) * 2003-10-06 2010-06-02 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置
JP4419543B2 (ja) * 2003-12-05 2010-02-24 コニカミノルタホールディングス株式会社 検出装置および検出方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9779305B2 (en) 2012-04-05 2017-10-03 Panasonic Intellectual Property Corporation Of America Video analyzing device, video analyzing method, program, and integrated circuit
KR102233609B1 (ko) * 2019-04-08 2021-03-30 주식회사 토룩 자율 행동 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Also Published As

Publication number Publication date
JP2007042072A (ja) 2007-02-15
US7940956B2 (en) 2011-05-10
US20070013791A1 (en) 2007-01-18

Similar Documents

Publication Publication Date Title
JP4830650B2 (ja) 追跡装置
EP1742169B1 (en) Tracking apparatus
US10417503B2 (en) Image processing apparatus and image processing method
US9262671B2 (en) Systems, methods, and software for detecting an object in an image
US6611613B1 (en) Apparatus and method for detecting speaking person's eyes and face
US9098760B2 (en) Face recognizing apparatus and face recognizing method
KR101169533B1 (ko) 얼굴 자세 추정 장치, 얼굴 자세 추정 방법 및 얼굴 자세 추정 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
US11915518B2 (en) Facial authentication device, facial authentication method, and program recording medium
US9262672B2 (en) Pattern recognition apparatus and pattern recognition method that reduce effects on recognition accuracy, and storage medium
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP2007233871A (ja) 画像処理装置、コンピュータの制御方法及びプログラム
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
US11462052B2 (en) Image processing device, image processing method, and recording medium
JP5253227B2 (ja) 画像入力装置及び被写体検出方法、プログラム
JP4774818B2 (ja) 画像処理装置及び画像処理方法
JP2012068948A (ja) 顔属性推定装置およびその方法
WO2020255645A1 (ja) 3次元データ更新装置、顔向き推定装置、3次元データ更新方法およびコンピュータ読み取り可能な記録媒体
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US12142075B2 (en) Facial authentication device, facial authentication method, and program recording medium
WO2024009744A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7006809B2 (ja) 動線補正装置、動線補正方法、および動線追跡プログラム
Unzueta et al. Efficient deformable 3D face model fitting to monocular images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

R150 Certificate of patent or registration of utility model

Ref document number: 4830650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3