[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3823760B2 - ロボット装置 - Google Patents

ロボット装置 Download PDF

Info

Publication number
JP3823760B2
JP3823760B2 JP2001158402A JP2001158402A JP3823760B2 JP 3823760 B2 JP3823760 B2 JP 3823760B2 JP 2001158402 A JP2001158402 A JP 2001158402A JP 2001158402 A JP2001158402 A JP 2001158402A JP 3823760 B2 JP3823760 B2 JP 3823760B2
Authority
JP
Japan
Prior art keywords
person
identification
face
dictionary
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001158402A
Other languages
English (en)
Other versions
JP2002056388A (ja
Inventor
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2001158402A priority Critical patent/JP3823760B2/ja
Publication of JP2002056388A publication Critical patent/JP2002056388A/ja
Application granted granted Critical
Publication of JP3823760B2 publication Critical patent/JP3823760B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、映像中の人物を識別する技術に関し、特に、正面顔による人物識別技術、並びに人物を識別するロボット装置に関する。
【0002】
【従来の技術】
顔の映像を用いて人物を識別する方式は、従来よりいくつか提案されている。最近の顔検出、識別技術の動向は、例えば文献(1)(赤松 茂、“コンピュータによる顔の認識−サーベイ−”、電子情報通信学会論文誌、Vol.J80-D-II,No.8,pp.2031-2046,August 1997)に記載されている。一般に、顔識別システムは、画像中から顔を検出する処理と、顔パターンからの特徴抽出処理と、特徴量を辞書データと比較する人物識別処理と、を備えて構成されている。
【0003】
顔画像の検出方式としては、文献(2)(小杉 信、“個人識別のための多重ピラミッドを用いたシーン中の顔の探索・位置決め”、電子情報通信学会論文誌、Vol.J77-D-II,No.4,pp.672-681,April 1994)に記載されているように濃淡パターンを用いたテンプレートマッチングを行うものや、文献(3)(M.Turk, A.Pentland, “Face Recognition on Using Eigenfaces”, Proceedings of IEEE,CVPR91)に記載されているような、顔画像の固有ベクトル投影距離方式が知られている。
【0004】
また、例えば特開平9−251534号公報には、目、鼻、口といった造作を検出し、その位置関係から正面顔濃淡パターンを切り出す方法も提案されている。
【0005】
顔検出の代表的な例として、M.Turkらによる固有ベクトル投影距離方式について説明する。
【0006】
あらかじめ多くの正面顔データ(数百枚)を用意する。それらの画素値を特徴ベクトルとして、固有値と固有ベクトルを求める。固有値の大きい順にp個の固有ベクトルVn(n=1,..p)を求める。
【0007】
テスト画像tを固有ベクトルVnに投影すると、p個の投影値が得られる。これらの投影値と、固有ベクトルVn から、テスト画像を再構成することにより、再構成テスト画像t’が得られる。
【0008】
もしもtが顔パターンに近ければ、再構成テスト画像t’も顔パターンに近い画像が得られる。そこで次式(1)で与えられる距離尺度Dtによって、顔であるかどうかを判断する。
【0009】
Figure 0003823760
【0010】
顔識別の特徴量としては、目、鼻、口といった顔造作の幾何学的特徴を用いるものと、大局的な濃淡パターンの照合によるものとの2種類があるが、シーン中の顔パターンは、顔の向きや表情が変化すると造作の位置関係も変化するため、近時、後者の大局的な濃淡パターンを用いる方法が現在主流となっている。
【0011】
顔画像の識別、照合方法としては例えば、上記文献(2)(小杉 信、“個人識別のための多重ピラミッドを用いたシーン中の顔の探索・位置決め”、電子情報通信学会論文誌、Vol.J77-D-II,No.4,pp.672-681,April 1994)では、濃淡パターンを特徴ベクトルと考え、特徴ベクトル間の内積が大きいカテゴリを識別結果としている。 また、上記文献(3)(M.Turk, A.Pentland, “Face Recognition on Using Eigenfaces”, Proceedings of IEEE,CVPR91)では、顔画像の固有ベクトルへの投影値を特徴ベクトルとし、それらのユークリッド距離の小さいカテゴリを識別結果としている。
【0012】
また従来、画像認識機能を持ったロボット装置としては、例えば特願平10−151591号に記載された装置がある。このロボット装置は、画像中から色情報を抽出し、色パターンに応じて動作を変化させることができる。しかしながら、人物を認識する機能手段は具備していない。
【0013】
【発明が解決しようとする課題】
上記した従来のシステムは下記記載の問題点を有している。
【0014】
第一の問題点は、家庭環境のように照明条件が一定でない環境では人物識別が出来ないということである。
【0015】
その理由は、一般環境における顔の検出が困難であるためである。例えばテンプレートマッチング法は、画像中の顔パターンと辞書パターンとがほとんど濃度値でない限り、検出することは困難であり、照明方向が少しでもずれていたり、あるいは辞書の人物と異なる人物の場合には、ほとんど検出不可能である。一方、固有ベクトル投影距離方式は、テンプレートマッチングに比べると、検出性能は高いものの、照明方向が違っていたり、また複雑な背景を持つ画像では、同様に、検出は失敗する。
【0016】
また、照明条件が一定でない環境で人物識別が出来ないもう一つの理由は、従来の特徴抽出方式と識別方式が、照明変動による特徴量の変動を吸収できないためである。
【0017】
したがって、本発明は、上記問題点に鑑みてなされたものであって、その目的は、家庭環境のような一般環境において人物を識別できるロボット装置を提供することにある。
【0018】
したがって、本発明の他の目的は、一般環境において安定して人物を識別できるロボット装置を提供することにある。
【0019】
【課題を解決するための手段】
前記目的を達成する本発明に係るロボット装置は、人物識別装置として、画像を取得する映像取得手段と、画像中から人間の頭部を検出する頭部検出追跡手段と、検出された頭部の部分画像中から正面顔画像を取得する正面顔位置合わせ手段と、正面顔画像を特徴量に変換する顔特徴抽出手段と、識別辞書を用いて特徴量から人物を識別する顔識別手段と、識別辞書を保存する識別辞書記憶手段とを備えたことを特徴とする。そして頭部検出追跡手段において、1枚の画像から頭部を検出する単眼視頭部矩形座標検出手段と、対面距離値と頭部矩形座標値とから頭部の誤検出を取り除く対面距離評価手段とを備え、ロボットの動作を制御する全体制御部と、全体制御部の指示で音声を発話するスピーカと、全体制御部の指示でロボットを移動する移動手段と、前方の物体との距離を測定する対面距離センサと、タッチセンサと、マイクと、音声認識手段とを備えたことを特徴とする。
【0020】
本発明において、前記全体制御部は、人物識別結果が得られたときに、人物毎に異なる音声で発話するよう制御する。
【0021】
本発明において、前記全体制御部が、前記人物識別装置から前方物体との対面距離と方向を取得する手段と、人物識別結果を取得する手段と、前記対面距離がしきい値以上の場合には、前記前方物体に近づくように移動する手段と、前記対面距離がしきい値以下のときは、人物識別結果を人物毎に異なる音声で発話するように制御する手段と、を備える。
【0022】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して詳細に説明する。
【0023】
図1は、本発明に係るロボット装置で用いられる人物識別装置の一実施の形態の構成を示す図である。図1を参照すると、本発明の一実施の形態をなす人物識別装置14は、映像取得手段2と、対面距離センサ5と、人物検出識別手段1と、人物検出識別管理部13と、辞書データ管理部12と、を備えている。映像取得手段2は、右カメラ3と左カメラ4とを備え、それぞれのカメラ映像情報を取得する。対面距離センサ5は、カメラの光軸と同じ方向に設置されており、映像中の物体との対面距離を計測する。対面距離センサ5の例として、超音波センサ、赤外線センサなどがある。人物検出識別管理部13は、人物検出識別手段1に対する動作開始命令と動作終了命令の送信と、辞書データ管理部12への特徴データ送信、辞書作成命令の送信を行なう。
【0024】
本発明の一実施の形態において用いられるカメラとしては、例えばビデオカメラ、デジタルCCDカメラ等を含み、動きのある情景を、静止画像の連続として出力することのできる撮影デバイスを総称している。
【0025】
人物検出識別手段1は、頭部検出追跡手段6と、正面顔位置合わせ手段7と、顔特徴抽出手段8と、顔識別手段9と、識別辞書記憶手段10と、識別結果補正手段11とを備えている。
【0026】
人物検出識別手段1は、人物検出識別管理部13から動作開始命令を受けると、辞書データ管理部12から識別辞書記憶手段10に識別用辞書をロードした後、動作を開始する。
【0027】
図18は、本発明の一実施の形態における人物検出識別手段1の処理を説明するための流れ図である。図1及び図18を参照して、人物検出識別手段1の動作を説明する。
【0028】
はじめに、頭部検出追跡手段6は、映像取得手段2からの画像情報と、対面距離センサ5の読み取り値をもとに、現在のフレームにおける人物の頭部の数と、頭部矩形座標を出力する(ステップS1)。
【0029】
次に、検出した頭部数を評価する(ステップS2)。検出した頭部数が0の場合には、次のフレームの映像を入力して頭部検出を行い、検出数が1以上になるまで、ステップS1は継続される。
【0030】
頭部検出数が1以上の時、正面顔位置合わせ手段7に検出結果が送信される。正面顔位置合わせ手段7では、顔領域の探索処理を行い(ステップS3)、正面顔領域が見つかったかどうかを判断する(ステップS4)。
【0031】
正面顔が見つかると、顔中心部の矩形画像である正面顔画像を出力する。ステップS3とステップS4の処理は、頭部の誤検出を排除し、さらに人物がカメラの正面を向いている映像のみを抽出して後段の処理に送る事を目的としている。正面顔を発見できなかったときは、再びステップS1から処理を行う。
【0032】
正面顔を発見した時は、次に顔特徴抽出手段8において、正面顔画像を特徴量データに変換する(ステップS5)。
【0033】
顔特徴抽出手段8の一例は、図8に示すように、正面顔画像を左から右へ1ライン毎にスキャンし、上から下へ1ライン終われば次のラインをスキャンして1次元データを生成し(「ラスタスキャン」という)、それを特徴データとして用いるものである。その他、1次微分フィルタや2次微分フィルタを用いてフィルタリングし、エッジ情報を抽出したものを、ラスタスキャンして特徴データとする方法を用いてもよい。
【0034】
次に、顔識別手段9において、識別辞書記憶手段10の辞書データを参照して顔識別処理を行う(ステップS6)。
【0035】
次に、識別結果補正手段11において、過去mフレーム分(mは2以上の整数)の識別結果との統合処理を行い(ステップS7)、その結果を、人物検出識別管理部13に出力する(ステップS8)。
【0036】
この時、頭部検出追跡手段6(ステップS1)において、複数の頭部矩形を検出し、それらを全て処理していない時は(ステップS9のNo分岐)、もう一度正面顔位置合わせ手段7による(ステップS3)から処理を行なう。人物検出識別手段1は、人物識別管理部13から終了指示を受けて終了する(ステップS10)。終了指示があるまでは再びステップS1から処理を継続して行う。
【0037】
図2は、図1の頭部検出追跡手段6の一実施例をなす頭部検出追跡手段27の構成を示す図である。図2を参照すると、頭部検出追跡手段27は、頭部検出手段21と、頭部追跡手段22と、頭部矩形座標記憶手段23とを備えている。頭部検出手段21は、頭部矩形座標検出手段24と、左右画像照合手段25と、対面距離統合手段31と、対面距離評価手段26とを備えている。
【0038】
図19は、頭部検出追跡手段27の処理を説明するための流れ図である。図2及び図19を参照して、本発明の一実施例をなす頭部検出追跡手段27の動作を説明する。
【0039】
右カメラの映像と左カメラの映像と、対面距離センサの読み取り値が頭部検出手段21に入力される。頭部検出手段21は、入力された情報から人物頭部の検出処理を行い、頭部矩形座標と頭部検出数を出力する(ステップS10)。
【0040】
頭部検出数が1以上の場合には、頭部検出数と頭部矩形座標を、頭部矩形座標記憶手段23に保存した後に、出力する(ステップS18)。
【0041】
頭部検出数が0の場合には、頭部追跡手段22において、前のフレームにおける頭部矩形情報を、頭部矩形記憶手段23から取り出し、頭部追跡処理を行う(ステップS19)。
【0042】
頭部追跡に成功した場合には、追跡に成功した頭部数と頭部矩形座標を出力し、追跡に失敗した場合には検出数0を出力する(ステップS20)。
【0043】
次に、図19のステップ10の頭部検出手段21の動作について詳細に説明する。頭部検出手段21では、まず左右どちらか一方の映像を頭部矩形座標検出手段24に入力し、仮頭部検出数と仮頭部矩形座標を得る(ステップS11)。
【0044】
図2に示した頭部矩形座標検出手段24では右カメラ映像を用いている。次に、左右画像照合手段25において、得られた頭部矩形座標と左右カメラの映像を用いて、ステレオ視の原理をもとに対面距離値を算出する(図19のステップS12)。
【0045】
図6を参照して、図2の左右画像照合手段25の動作を説明する。右カメラ画像において検出された頭部矩形を、頭部検出矩形51とする。そして頭部検出矩形51内の画像データを用いて、左カメラ画像の同じ検出座標位置の近傍を探索する。探索方法の一例はテンプレートマッチングである。右カメラ画像の濃淡値をFR(x,y)、左カメラ画像の濃淡値をFL(x,y)、矩形の横サイズをTw、縦サイズをThとすると、テンプレートの左上始点位置が、左カメラ画像の(sx,sy) にある時のマッチング距離Dtmは、次式(2)で表される。
【0046】
Figure 0003823760
【0047】
上式(2)は、右カメラと左カメラの部分画像間のユークリッド距離を表している。Dtmが最も小さい時の左カメラ画像上の座標を、探索結果52とする。探索結果52が求まると、次に左右の矩形座標値を比較し、人物頭部への距離を算出する。
【0048】
図32を参照して、対象物への距離算出方法の一例を示す。図32は、左右のカメラを使って、ある一つの対象物体403を撮影している状況を、上から見た図である。右カメラ401と左カメラ402が、間隔Cを空けて平行に設置されている。カメラの画角はθで左右共に同じとする。カメラの撮像面の横方向の長さをeとする。この状態で、右カメラ画像には、対象物403が座標 Xr に写っており、左カメラ画像には座標Xlに写っている。なお画像の最大横サイズはW画素である。この時、カメラ撮像面から、対称物403までの対面距離Zは、次式(3)で算出することができる。
Figure 0003823760
【0049】
ここで、eは通常1cm未満の小さい値であることから、0として近似計算することもできる。以上のようにして、左右カメラ画像から対面距離を算出する。
【0050】
そして、左右画像照合手段25において、ステレオ視によって対面距離を算出した後、対面距離統合手段31において、対面距離センサ30の出力値をもとに、対面距離の統合処理を行う(図19のステップS13)。実験的に、超音波センサ等の距離センサは、距離が1m未満の場合には非常に精度が高い。一方、1m以上の遠い距離では誤差が大きくなる傾向にある。
【0051】
ステレオ視により算出された距離値は、カメラの画角にもよるが概ね3m程度まで有効であるが、距離が近すぎると、かえって誤差が大きくなる傾向にある。そこで、両者の距離値を統合する方法として、対面距離センサ30の出力があるしきい値Tよりも小さい場合には、対面距離センサの値を採用し、しきい値Tよりも大きい場合にはステレオ視による距離値を採用するという方法が用いられる。
【0052】
対面距離を統合した後、対面距離評価手段26において、対面距離値と画像中の頭部矩形座標値から、頭部の実際のサイズを算出する(図19のステップS14)。
【0053】
算出結果が、人間の頭の大きさにほぼ一致すれば、本当に頭部を検出したと判定する。算出結果が実際の頭のサイズから著しくかけ離れる場合には、誤検出であると判断する(図19ステップS15)。例えば、頭部の横サイズが12cmプラスマイナス2cm以内で、かつ縦サイズが20cmプラスマイナス4cm以内の場合は頭部と見做し、それ以外の場合は頭部ではない、と判断する。
【0054】
実際のサイズに合っている場合には、検出数を1増やす(図19ステップS16)。
【0055】
評価していない仮頭部矩形座標が残っている時は(図19のステップS17のNo分岐)、再びステップS12から処理を行う。頭部検出手段21は仮頭部矩形座標を全て評価し終わった時点で(図19のステップS19のYes分岐)、頭部検出数と頭部矩形座標を出力する。
【0056】
次に、図2に示した頭部矩形座標検出手段24について説明する。図4は、頭部矩形座標検出手段24の一実施例をなす頭部矩形座標検出手段41の構成を示す図である。図4を参照すると、頭部矩形座標検出手段41は、動き画素検出手段42と、ノイズ除去手段47と、人物数評価手段43と、頭頂座標検出手段44と、頭部下部座標検出手段45と、側頭座標検出手段46とを備えている。
【0057】
図20は、頭部矩形座標検出手段41の処理を説明するための流れ図である。図20、図4、及び図5を参照して、頭部矩形座標検出手段41の動作について説明する。
【0058】
まず動き画素検出手段42において、画面内で動きのある画素群を検出する。入力画像データと、それより1つ前に入力された画像データとの差分をとり、差分画像gを生成する(ステップS21)。
【0059】
さらに過去mフレーム分(mは2以上の整数)の差分画像gを加算し平均をとる事によって、統合差分画像Gを得る(ステップS22)。統合差分画像Gは、動きのない領域の画素値が0で、動きのある領域ほど画素値が大きい値を取る。
【0060】
統合差分画像Gは、ごま塩ノイズを多く含むので、ノイズ除去手段47において、ノイズ除去処理を行う(ステップS23)。ノイズ除去処理の例としては、膨張収縮処理や、メジアンフィルタ処理などがある。これらのノイズ除去処理は、画像処理の分野で一般的であり、当業者にとってよく知られている処理が用いられるので、その詳細な構成は省略する。
【0061】
次に、図4の人物数評価手段43において、画面内に何人の人間がいるのかを評価する。人物数評価手段43の動作について説明する。図5は、統合差分画像Gの取得の例を説明するための図である。
【0062】
はじめに、人物1人だけを検出する方法について説明する。統合差分画像G48が得られたとすると、まず動き領域があるかどうかを判定する(図20のステップS24)。ここで動き領域とは、動きのある画素が占める領域を表わす。この動き領域がない、すなわち統合差分画像Gが全て0の場合には、人物数は0と判定する。それ以外の場合人物数は1とする。
【0063】
次に、複数人物を検出する方法について説明する。統合差分画像G49が得られたとすると、まず動き領域の有無を調べる(図20のステップS24)。動き領域がない場合は人物数0である。動き領域がある場合、統合差分画像Gを参照して、何人いるのかを判定する(図20のステップS25)。判定方法としては、例えば統合差分画像上部領域50における動き領域幅の最大値が、あるしきい値よりも小さいときは1人、大きいときは2人、とする方法がある。人物数が2人のときは、人物が横に並んでいると仮定し、統合差分領域Gを、部分領域1と部分領域2に分割する。なお3人以上検出の場合も、分割数を増やすことで対応できる。頭部矩形を求める際には、部分領域1と部分領域2のそれぞれに対して、以下に述べる同じ処理(図20のステップS26からステップS29まで)を繰り返せばよい。
【0064】
次に、統合差分画像Gから頭部矩形座標を求める処理について説明する。各スキャンライン毎に動き領域幅47を求める(図20のステップS26)。
【0065】
動き領域幅47は、各スキャンラインにおいて動き領域のx座標最大値と最小値の差分を表している。
【0066】
次に頭頂座標検出手段44によって頭頂のY座標を求める(図20のステップS27)。頭頂座標の求め方としては、動き領域のY座標の最小値を頭頂とする方法がある。
【0067】
次に、頭部下部座標検出手段45によって、頭部矩形の底辺のY座標を求める(図20のステップS28)。頭部矩形の底辺座標を求め方としては、頭頂から下方向(Y方向)に探索し、動き領域幅47が動き領域幅の平均値dmよりも小さいラインを求め、そのラインの中でY座標が最も大きいところを、頭部矩形の底辺とする方法を用いてもよい。
【0068】
次に側頭座標検出手段46によって、頭部矩形の左右のx座標を求める(図20のステップS29)。左右のx座標の求め方としては、頭頂から頭部下部までの範囲で最も動き領域幅47が大きなラインにおける動き領域の左右端の座標を求める方法を用いてもよい。
【0069】
人物数が2つ以上の場合には、図20のステップS26からステップS29までの処理を部分領域毎に繰り返す。
【0070】
次に、図2の頭部追跡手段22の動作について、図7を参照して説明する。追跡処理は、頭部矩形座標検出に用いたカメラ画像(図2では右カメラ画像)に対して行なう。まず前フレームの頭部矩形座標53と前フレームの頭部矩形画像55を、頭部矩形記憶手段23から読み出す。
【0071】
次に、現フレームにおいて、前フレームの頭部矩形座標53の近傍領域をテンプレートマッチングによって探索し、最も距離値の小さい所を追跡結果とする。
【0072】
図3は、図1の頭部検出追跡手段6の他の実施例をなす頭部検出追跡手段32の構成を示す図である。図3を参照すると、この頭部検出追跡手段32は、頭部検出手段33と、頭部矩形記憶手段23と、頭部追跡手段22とを備えている。図2に示した実施例との相違点としては、頭部検出手段33が、頭部矩形座標検出手段24と、対面距離評価手段26とを持ち、単眼のカメラ34と対面距離センサ30の出力を用いて検出を行なっていることである。すなわち、左右のステレオ視による対面距離は考慮せず、対面距離センサの読み取り値のみを用いて頭部矩形の評価を行なうものである。
【0073】
また、頭部検出追跡手段6のその他の実施例として、対面距離センサを用いずに、左右カメラのみの情報から対面距離を求め、頭部矩形を評価するという構成の頭部検出手段を用いてもよい。この構成の場合、頭部検出手段21において、図2の対面距離統合手段31を除いた構成となる。
【0074】
図9は、図1の正面顔位置合わせ手段7の一実施例をなす正面顔位置合わせ手段61の構成を示す図である。図9を参照すると、正面顔位置合わせ手段61は、頭部矩形切り取り手段62と、正面顔探索手段63と、正面顔らしさ判定手段65とを備えて構成されている。
【0075】
正面顔らしさ判定手段65は、濃度分散判定手段66と、しきい値処理手段67とを備えている。
【0076】
図21は、正面顔位置合わせ手段61の処理を説明するための流れ図である。図9及び図21を参照して、正面顔位置合わせ手段61の動作について説明する。正面顔位置合わせ手段61は、画像データと頭部矩形座標と対面距離が入力されると、正面顔有無フラグと正面顔画像データを出力する。入力された画像データは、頭部矩形切り取り手段62において、頭部矩形による部分画像に切り取られる(ステップS41)。この部分画像を「頭部矩形画像」と呼ぶ。
【0077】
次に正面顔探索手段63において、頭部矩形画像の中から、正面顔領域を探索し、正面顔画像と標準顔辞書とのパターン間距離又は類似度を出力する(ステップS42)。
【0078】
次に、正面顔らしさ判定手段65において、正面顔画像が本当に正面顔であるかどうかを判断する(ステップS43)。ここで正面顔であると判断されれば、正面顔有無フラグは「有り」となり、正面顔画像を出力する。正面顔ではないと判断すれば、正面顔有無フラグは「無し」となり、正面顔画像は出力しない。
【0079】
正面顔らしさ判定手段65は、濃度分散判定手段66と、しきい値処理手段67とを備えている。
【0080】
濃度分散判定手段66は、正面顔画像データの濃淡値の分散を求め、あるしきい値以下の場合には、正面顔ではないと判断する(図21のステップS44)。
【0081】
濃度分散判定手段66により、単調な壁のようなパターンを排除することができる。
【0082】
しきい値手段67は、パターン間距離又は類似度をしきい値処理することによって正面顔らしさを判断する(図21のステップS45)。
【0083】
パターン間距離値の場合には、しきい値以上のときに正面顔ではないと判断する。類似度の場合は、しきい値以下のときに、正面顔でないと判断する。
【0084】
図12は、正面顔位置合わせ手段61の動作を模式的に示す説明図である。頭部矩形151が検出されているとすると、図21のステップS41によって、頭部矩形画像152が生成される。
【0085】
次に図21のステップS42の顔中心部探索処理では、縮小頭部矩形画像153が生成された後に正面顔画像155が得られる。
【0086】
なお、正面顔画像とは、図12の正面顔画像155に示すような、顔の中心部分の画像であり、横方向は、両目を完全に含む程度で、縦方向は、眉毛から口全体を含む程度の領域の画像を意味する。
【0087】
図10は、正面顔探索手段63の一実施例をなす正面顔探索手段71の構成を示す図である。図10を参照すると、この正面顔探索手段71は、頭部矩形画像記憶手段89と、頭部中間サイズ算出手段88と、画像縮小手段90と、中間サイズ記憶手段91と、正面顔候補抽出手段72と、中間縮小画像記憶手段73と、コントラスト補正手段74と、固有ベクトル投影距離算出手段75と、標準顔辞書記憶手段76と、記憶手段77と、投影距離最小判定手段78と、探索範囲終了判定手段79と、多重解像度処理終了判定手段92とを備えて構成されている。
【0088】
固有ベクトル投影距離算出手段75は、平均差分手段82と、ベクトル投影値算出手段83と、再構成演算手段84と、投影距離計算手段85とを備えて構成されている。
【0089】
標準顔辞書記憶手段76は、標準顔平均データ記憶手段80と、標準顔固有ベクトルデータ記憶手段81とを備えて構成されている。
【0090】
記憶手段77は、投影距離最小値記憶手段86と、正面顔濃淡値記憶手段87とを備えて構成されている。
【0091】
図22は、正面顔探索手段71の処理を説明するための流れ図である。図10及び図22を参照して、正面顔探索手段71の動作について説明する。頭部矩形画像データは、頭部矩形画像記憶手段89に保持されている。はじめに頭部中間サイズ算出手段88において、対面距離値と標準顔辞書データのサイズを参照して、頭部矩形画像の中間縮小サイズを計算する(ステップS101)。
【0092】
頭部中間サイズ算出手段88の処理例について説明する。中間縮小サイズは、図12の縮小頭部矩形画像153の縦横サイズとして示されている。頭部矩形画像152の横サイズをHw、縦サイズをHhとする。中間縮小サイズの横サイズをMw、縦サイズをMhとする。また正面顔画像の横サイズをFw、縦サイズをFhとする。Fw,Fhは正面顔探索形状154の縦横サイズと同一であり、標準顔辞書に対して一意に決定される。なお、Hh,Hw,Mh,Mw、Fh,Fwはすべて画素単位のピクセルサイズである。
【0093】
標準顔辞書は、図12の正面顔画像155に示す正面顔領域の濃淡値を特徴値として生成されたパターン認識用の辞書である。正面顔領域とは、横方向は両目を完全に含む程度で、縦方向は眉毛から口全体を含む程度の領域を意味する。正面顔領域は必ずしも矩形である必要はなく、楕円形など、両目、鼻、口を含む任意の連続領域で実現可能である。ただし、形状が矩形であれば処理が単純化されて高速化することができるので、実装形態として有効である。よって、以下では、正面顔領域を矩形であるものとして説明する。
【0094】
正面顔領域の実際の縦横サイズを、RFh、RFwとすると、男性の大人であれば、大体 RFw=10cm、RFh=15cm程度で表わすことができる。一方、頭部矩形画像の実際の縦横サイズRHh、RHwは、対面距離Zが既知であるため、次式(4)によって、計算することができる。なお次式(4)の変数は、図32に対応している。
【0095】
Figure 0003823760
【0096】
撮像面の幅eは小さいので通常は無視して計算しても問題ない。
【0097】
標準顔辞書を用いて頭部矩形画像を探索するためには、頭部矩形画像を標準顔辞書と同じ解像度に変換する必要がある。その変換後のサイズが中間縮小サイズMw、Mhである。Mh、Mwは、次式(5)の関係式から求めることができる。
【0098】
Figure 0003823760
【0099】
すなわち、頭部中間サイズ算出手段88において、RFw、RFhを1組指定することによって中間縮小サイズMw、Mhを1組算出することができる。しかし人間の正面顔の大きさは大人から子供、女性と男性で異なっている。そこで、RFw、RFhを複数組用意し、それぞれに対応する中間縮小サイズを算出することも可能となっている。あらかじめ複数算出することにより、後段の正面顔探索処理を複数の中間縮小サイズで処理することができる。また複数の中間縮小サイズで探索処理することは、頭部矩形を複数の解像度で探索処理する行為と同じであると解釈できる。
【0100】
頭部中間サイズ算出手段88によって中間サイズが算出されると、中間サイズ記憶手段91に中間サイズの情報が記憶される。
【0101】
次に最小パターン間距離値 Dmin を、通常得られるパターン間距離値に比べ十分大きな値に初期化する(図22のステップS102)。
【0102】
中間縮小サイズ記憶手段91の情報を1つ選択し、画像縮小手段90において、頭部矩形画像を選択した中間縮小サイズに縮小し、縮小頭部矩形画像を得る(図22のステップS103)。
【0103】
次に正面顔探索位置SX,SYを0に初期化する(図22のステップS104)。
【0104】
次に正面顔候補抽出手段72において、探索位置SX,SYにおける正面顔候補画像を抽出する(図22のステップS105)。
【0105】
次に正面顔候補画像を明暗の調子を補正するため、コントラスト補正手段74によってコントラストを補正する(図22のステップS106)。
【0106】
コントラスト補正の具体的な方法の例について説明する。正面顔候補画像が、0からvmaxまでの値をとるものとし、画素値の平均をμ、標準偏差をσとすると、元画像Vからコントラスト補正画像V’への変換式は、次式(6)で表わすことができる。
【0107】
Figure 0003823760
【0108】
再び図10及び図22を参照すると、次に、固有ベクトル投影距離算出手段75において、正面顔候補画像と標準顔パターンとの固有ベクトル投影距離Dを求める(ステップS107)。
【0109】
次に、投影距離最小判定手段78において、DとDminとを比較する。このときDがDminよりも小さい値であれば、DminにDを代入して値を更新し、投影距離最小値記憶手段86に記憶する。同時に正面顔候補画像を、正面顔濃淡値記憶手段87に記憶する(ステップS108)。
【0110】
次に、探索範囲終了判定手段79において、探索位置SX、SYをインクリメントし(ステップS109)、頭部矩形を全て探索し終わったかどうかを判断する(ステップS110)。まだ探索し終わっていないときは、再びステップ105より処理を繰り返す。
【0111】
頭部矩形の探索範囲を全て探索し終わったら、多重解像度処理終了判定手段92において、すべての中間縮小サイズで探索したか否かを判断する(ステップS111)。もし、探索していない中間縮小サイズがあれば、異なる中間縮小サイズを用いて再びステップS103から処理を開始する。すべての中間縮小サイズで探索が終了した時点で正面顔探索手段71は終了する。
【0112】
次に、図10の固有ベクトル投影距離算出手段75の動作について説明する。
【0113】
標準顔辞書記憶手段76には、標準顔平均データと、標準顔固有ベクトルデータが記憶されている。
【0114】
図33に、特徴量の数がp個の時の、固有ベクトル投影距離算出用辞書の一例を示す。固有ベクトル投影距離算出用辞書は、1からp番めまでのp次元の固有ベクトルデータEと、p個の特徴量の平均値Aveとからなる。特徴量がp個のとき、固有ベクトルはp番めまで存在するが、投影距離算出時には1からm番めまでを使用する。
【0115】
正面顔候補画像の画素値を、図8に示すようにラスタスキャンし、1次元の特徴データに変換する。このとき正面顔画像の縦横サイズの積Fw×Fhは、辞書の特徴量と同じp個でなければならない。これをベクトルX:X1、X2,...Xpとする。
【0116】
まず平均差分手段82において、ベクトルXから平均ベクトルAveを差分する。これをベクトルYとする。
【0117】
Figure 0003823760
【0118】
次にベクトル投影値算出手段83において、ベクトルYをm個の固有ベクトルに投影し、その投影値R1..Rmを求める。投影値算出方法を、次式(8)に示す。
【0119】
Figure 0003823760
【0120】
次に、再構成演算手段84(図10参照)において、投影値R1...Rmと、m個の固有ベクトルとを用いて元の特徴量Yを再構成し、その再構成ベクトルをY’とする。再構成の計算を次式(9)に示す。
【0121】
Figure 0003823760
【0122】
次に、投影距離計算手段85において、次式(10)に従い、YとY‘とのユークリッド距離値を求める。これによって、固有ベクトルEへの投影距離Dが算出される。
【0123】
Figure 0003823760
【0124】
図11は、図9の正面顔探索手段63の他の実施例をなす正面顔探索手段101の構成を示す図である。図11を参照すると、この正面顔探索手段101は、頭部矩形画像記憶手段89と、頭部中間サイズ算出手段88と、画像縮小手段90と、中間サイズ記憶手段91と、正面顔候補抽出手段72と、中間縮小画像記憶手段73と、コントラスト補正手段74と、積和演算手段102と、標準顔辞書データ記憶手段104と、記憶手段105と、類似度最大判定手段103と、探索範囲終了判定手段79と、多重解像度処理終了判定手段92とを備えて構成されている。
【0125】
記憶手段105は、類似度最大値記憶手段106と、正面顔濃淡値記憶手段107とを備えている。
【0126】
図23は、正面顔探索手段101の処理を説明するための流れ図である。図11及び図23を参照して、正面顔探索手段101の動作について説明する。頭部矩形画像データは、頭部矩形画像記憶手段89に保持されている。はじめに頭部中間サイズ算出手段88において、対面距離値と標準顔辞書データのサイズを参照して、頭部矩形画像の中間縮小サイズを計算し、中間サイズ記憶手段91に記憶する(ステップS121)。
【0127】
中間縮小サイズの計算方法は正面顔探索手段71と同一である。次に最大類似度Smaxを0に初期化する(ステップS122)。
【0128】
中間サイズ記憶手段91の情報を1つ選択し、画像縮小手段90において、頭部矩形画像を選択した中間縮小サイズに縮小し、縮小頭部矩形画像を得る(ステップS123)。
【0129】
次に正面顔探索位置SX、SYを0に初期化する(ステップS124)。
【0130】
次に正面顔候補抽出手段72において、探索位置SX、SYにおける正面顔候補画像を抽出する(ステップS125)。
【0131】
次に正面顔候補画像を明暗の調子を補正するため、コントラスト補正手段74によってコントラストを補正する(ステップS126)。
【0132】
次に積和演算手段102において、正面顔候補画像と標準顔パターンとの類似度Sを求める(ステップS127)。
【0133】
次に類似度最大値判定手段103において、SとSmaxとを比較する。このときSがSmaxよりも大きい値であれば、SmaxにSを代入して値を更新し、類似度最大値記憶手段106に記憶する。同時に正面顔候補画像を正面顔濃淡値記憶手段107に記憶する(ステップS128)。
【0134】
次に探索範囲終了判定手段79において、探索位置SX、SYをインクリメントし(ステップS129)、頭部矩形を全て探索し終わったかどうかを判断する(ステップS130)。まだ探索し終わっていないときは、再びステップ125より処理を繰り返す。
【0135】
頭部矩形の探索範囲を全て探索し終わったら、多重解像度処理終了判定手段92において、すべての中間縮小サイズで探索したかどうかを判断する。もし探索していない中間縮小サイズがあれば、異なる中間縮小サイズを用いて再びステップS123から処理を開始する。
【0136】
すべての中間縮小サイズで探索が終了した時点で正面顔探索手段101は終了する。
【0137】
次に、図11に示した、標準顔パターンとの類似度を算出する積和演算手段102の動作について説明する。
【0138】
積和演算手段102は、正面顔かそれ以外かを判別する線形判別辞書を参照して類似度Sを算出する。図34に、線形判別辞書の一例を示す。図34には、q個のクラスを判別する辞書が示されているが、標準顔辞書データ記憶手段104は、正面顔とそれ以外の2つのクラスを判別する辞書であり、q=2の場合に相当する。
【0139】
正面顔候補画像の画素値を、図8に示すようにラスタスキャンし、1次元の特徴データに変換する。このとき正面顔画像の縦横サイズの積Fw×Fhは、辞書の特徴量と同じp個でなければならない。これをベクトルX:X1、X2,...Xpとする。
【0140】
また標準顔辞書データとして、q=1のクラスが正面顔を、q=2のクラスがそれ以外を表わすものとして説明する。正面顔との類似度は、図34のq=1の行、すなわちクラス1の識別係数422のみを用いて、次式(11)によって計算することができる。
【0141】
Figure 0003823760
【0142】
積和演算手段102は、上式(11)を演算することによって、類似度を算出する。
【0143】
図13には、図1の顔識別手段9の一実施例をなす顔識別手段111と、図1の識別辞書記憶手段10の一実施例をなす識別辞書記憶手段112と、図1の識別結果補正手段11の一実施例をなす識別結果補正手段113とが示されている。図13を参照すると、顔識別手段111は、特徴データ記憶手段115と、積和演算手段116と、最大類似度人物判定手段118と、しきい値処理手段117とを備えて構成されている。識別辞書記憶手段112は、登録人物識別用辞書記憶手段119を有する。識別結果補正手段113は、識別結果加重平均算出手段114を有する。
【0144】
図24は、顔識別手段111と識別結果補正手段113の処理を説明するための流れ図である。図13及び図24を参照して、顔識別手段111と識別結果補正手段113の動作について説明する。
【0145】
特徴データが入力され、特徴データ記憶手段115に記憶される(ステップS51)。
【0146】
次に、登録人物識別用辞書記憶手段119のデータを参照し、積和演算手段116において、登録された人物への類似度を、人物毎にそれぞれ算出する(ステップS54)。
【0147】
類似度の算出方法は、標準顔パターンとの類似度を算出する積和演算手段102の動作と基本的に同じである。ただし、識別するクラス数は登録されている人物数となる。
【0148】
辞書としてq人分のデータが登録されている場合には、登録人物識別用辞書記憶手段119には、図34に示す線形判別辞書と同じ数のデータが保持されることになる。そして積和演算手段116により、次式(12)に示すように、q個の類似度Si:(i=1,...q)が得られる。
【0149】
Figure 0003823760
【0150】
このように、図34に示す線形判別辞書による積和演算処理で求められた類似度の大きさによってパターンを識別する方法を、「線形判別辞書による類似度識別」と呼ぶ。
【0151】
再び図13及び図24を参照すると、次に、最大類似度人物判定手段118において、算出されたq個の類似度の中で最大値を求め、それに対応する人物を求める(ステップS55)。すなわち、特徴データと最も似ていると判断される人物を求める。この時の類似度を「最大類似度」と呼ぶ。
【0152】
次に、しきい値処理手段117において、最大類似度をあらかじめ定められたしきい値と比較する(ステップS56)。
【0153】
顔識別手段111は、最大類似度がしきい値よりも高いときは、確かに人物を識別したと判断し、そのID番号と最大類似度を出力する。最大類似度がしきい値よりも低いときは、登録されている人物(本人)ではない他人である可能性が高いので、「他人」という情報を出力する。
【0154】
識別結果補正手段113は、識別結果を受け取った後、識別結果加重平均算出手段114によって、過去Nフレームにおける識別結果を統合する(ステップS57)。識別結果加重平均算出手段114の動作の例として、過去Nフレームにおける識別人物IDと類似度、あるいは他人判定結果を、以下のように加重平均する方法がある。
【0155】
ステップA1:過去Nフレームの中で、一定割合のフレーム数が「他人」の時は、「他人」とする。他人でないと判定された場合にはステップA2へ進む。
【0156】
ステップA2:過去Nフレームの中で、人物iという判定がNiフレームあるものとする(i=1...q)。それぞれの人物の類似度加重平均値を次式(13)で算出する。Siは人物iの類似度を表し、SSiは人物iの類似度加重平均値を表す。SSiの最も大きい人物IDを、識別結果として出力する。
【0157】
Figure 0003823760
【0158】
識別結果補正手段113は、上記のようにして統合された識別結果を出力する。
【0159】
図15は、図1の顔識別手段9の他の実施例をなす顔識別手段131の構成、図1の識別辞書記憶手段10の他の実施例をなす識別辞書記憶手段132の構成を示す図である。図15を参照すると、顔識別手段131は、特徴データ記憶手段115と、固有ベクトル他人判別手段133と、積和演算手段116と、最大類似度人物判定手段118と、しきい値処理手段117とを備えている。
【0160】
識別辞書記憶手段132は、他人判別用辞書記憶手段134と、登録人物識別用辞書記憶手段119とを備えている。
【0161】
図24は、顔識別手段131の処理を説明するための流れ図である。図15及び図24を参照して、顔識別手段131の動作について説明する。特徴データが入力され、特徴データ記憶手段115に記憶される(ステップS51)。
【0162】
次に、他人判別用辞書記憶手段134のデータを参照しながら、固有ベクトル他人判別手段133によって、登録されている人物群とのパターン間距離Dhを求め(ステップS52)、パターン間距離Dhがしきい値よりも大きければ他人であると判定する(ステップS53)。パターン間距離Dhは固有ベクトル投影距離として算出する。すなわち、他人判別用辞書記憶手段には、登録されている全員の特徴データによって作成された固有ベクトル辞書が記憶されている。
【0163】
固有ベクトル辞書の例は図33に示されており、また固有ベクトル投影距離の算出方法は、固有ベクトル投影距離算出手段75の動作の説明において述べられている。
【0164】
入力された特徴データが、固有ベクトル他人判別手段133において他人と判断されれば、顔識別手段131は、積和演算手段116を経ることなく、直ちに「他人」を出力する。
【0165】
固有ベクトル他人判定手段133において「他人」と判定されなかった場合には、次に、登録人物識別用辞書記憶手段119のデータを参照し、積和演算手段116において、登録された人物への類似度を、人物毎にそれぞれ算出する(ステップS54)。q人の人物が登録されていればq個の類似度Si:(i=1,...q)を算出する。
【0166】
次に、最大類似度人物判定手段118において、算出されたq個の類似度の中で最大値を求め、それに対応する人物を求める(ステップS55)。すなわち、特徴データと最も似ていると判断される人物を求める。この時の類似度を最大類似度と呼ぶ。次にしきい値処理手段117において、最大類似度をあらかじめ定められたしきい値と比較する(ステップS56)。
【0167】
顔識別手段131は、最大類似度がしきい値よりも高いときは、確かに人物を識別したと判断し、そのID番号と最大類似度を出力する。最大類似度がしきい値よりも低いときは、登録されている人物ではない他人である可能性が高いので、「他人」という情報を出力する。
【0168】
図14は、図1の辞書データ管理部12の一実施例をなす辞書データ管理部121の構成を示す図である。図14を参照すると、辞書データ管理部121は、個人特徴データ記憶手段122と、識別辞書生成手段123と、セレクタ124とを備えて構成されている。
【0169】
識別辞書生成手段123は、線形判別辞書作成手段126と固有ベクトル辞書作成手段127とを備えて構成されている。個人特徴データ記憶手段122内には、人物別特徴データ領域125が、登録された人数分存在する。
【0170】
辞書データ管理部121は、特徴データと人物ID番号とが入力されると、セレクタ124によって人物ID毎に振り分けられ、個人特徴データ記憶手段122内の人物ID番号に対応する領域に入力特徴データを記憶する。また、新しい人物IDの追加命令があれば、個人特徴データ記憶手段122内に、新しい人物別特徴データ領域125を確保し、新しい人物ID番号を割り当てる。また、既存の人物IDの削除命令があれば、個人特徴データ記憶手段122内の該当するIDの人物別特徴データ領域125を破棄する。
【0171】
また辞書データ管理部121は、識別辞書作成命令を受けると、識別辞書生成手段123は、個人特徴データ記憶手段122のデータを用いて、線形判別辞書である登録人物識別用識別辞書と固有ベクトル辞書である他人判別用辞書を生成する。登録人物識別用識別辞書は、線形判別辞書作成手段126において作成される。他人判別用辞書は、固有ベクトル辞書作成手段127で作成される。
【0172】
なお、図1の顔識別手段9が、図13に示した顔識別手段111の構成を持つ場合は、他人判別用辞書は不要であるため、識別辞書生成手段123は固有ベクトル辞書作成手段127を持たない構成としてもよい。
【0173】
図25は、図1の辞書データ管理部12への登録処理を説明するための流れ図である。図1、図14及び図25を参照して、辞書データ管理部121がカメラの前にいる新しい人物を登録する時の動作について説明する。
【0174】
人物検出識別管理部13は、新しい人物IDを指定して、辞書管理部121に新しい人物の登録を指示する(ステップS61)。
【0175】
辞書データ管理部121は、個人特徴データ記憶手段122内に、指定されたIDに対応する人物別特徴データ領域125を確保する(ステップS62)。
【0176】
人物検出識別管理部13は、人物検出識別手段1内の顔特徴抽出手段8から指定枚数分の特徴データを取得し、辞書データ管理部121に送付する。
【0177】
辞書データ管理部121は、新しいIDに対応する人物別特徴データ領域125に、取得したデータを保存する(ステップS63)。
【0178】
指定枚数分の取得が完了したら、人物検出識別管理部13は、辞書データ管理部121に対して識別辞書の作成を指示する(ステップS64)。
【0179】
辞書データ管理部121は、作成指示を受けると、識別辞書生成手段123の線形判別辞書作成手段126によって、登録人物用識別辞書を作成する(ステップS65)。
【0180】
次に、固有ベクトル辞書作成手段127によって、他人判別用辞書を作成する(ステップS66)。
【0181】
そして、作成された辞書を人物検出識別部の識別辞書記憶手段10に出力し記憶させる(ステップS67)。以上の処理により、新規人物の登録処理は終了する。
【0182】
図29は、図14の線形判別辞書作成手段126の一実施例をなす線形判別辞書作成手段311の構成を示す図である。図29を参照すると、線形判別辞書作成手段311は、特徴量X記憶手段312と、分散共分散行列Cxx算出手段313と、逆行列変換手段314と、行列乗算手段315と、目的変数Y記憶手段317と、目的変数Y生成手段318と、共分散行列Cxy算出手段319と、係数記憶手段320と、定数項算出手段316とを備えて構成されている。
【0183】
図31及び図34を参照して、線形判別辞書の作成方法について説明する。図31には、1人あたりn枚で、人物1から人物qまでq人分の個人特徴データX341が示されている。また、個人特徴データX341の特徴数はp個である。図31の1行が、1枚分の特徴データを示している。個人特徴データX341は、図14において個人特徴データ記憶手段122に記憶されており、1人分の個人特徴データがそれぞれ人物別特徴データ領域125に記憶されている。
【0184】
目的変数Y342は、1つの特徴データについて1つ作成され、識別する人物数分の要素を持つベクトルである。すなわち、図31において、人物IDは1からqまでの値をとるので、目的変数YはY1からYqまで存在する。目的変数Y342の値は、0か1の2値であり、特徴データが属する人物のベクトル要素が1で、その他は0である。すなわち人物2の特徴データであれば、Y2要素だけが1で他は0となる。
【0185】
図34は、線形判別辞書の形式の一例を示す図である。線形判別辞書は、定数項421と、乗算項425の2種類の係数からなる。乗算項からなるマトリクスをAij(i=1,...p、j=1,....q)、定数項からなるベクトルをA0j(j=1,....q)とすると、マトリクスAijは、次式(14)から求められる。
【0186】
Figure 0003823760
【0187】
上式(14)において、Cxxは個人特徴データX341の全てのデータを用いたこの分散共分散行列である。この分散共分散行列Cxxは、次式(15)で算出される。
【0188】
個人特徴データXの要素を、xij:(i=1....N、j=1,...p)で表わす。Nは全データ数で、pは特徴数である。図31に示す例では、1人につきn枚のデータがあることから、N=nqである。x ̄は、xの平均値を表わす。
【0189】
Figure 0003823760
【0190】
Cxyは、個人特徴データXと目的変数Yとの共分散行列である。共分散行列Cxyは、次式(16)に従って算出される。x ̄、y ̄は、x、yの平均値を表わす。
【0191】
Figure 0003823760
【0192】
また、定数項A0jは、次式(17)に従って算出される。
【0193】
Figure 0003823760
【0194】
はじめにCxxを算出し、その逆行列を求める。次にCxyを求める。最後にこれらの行列を乗算して乗算項マトリクスAijを求め、最後に定数項A0jを求める。
【0195】
図29は、線形判別辞書作成手段311の処理を説明するための図である。図29を参照して、線形判別辞書作成手段311の動作を説明する。入力された個人特徴データ群は、特徴量X記憶手段312に記憶される。
【0196】
入力された個人特徴データ群と人物IDを用いて、目的変数Y生成手段318によって目的変数Yが生成される。生成した目的変数Yは、目的変数Y記憶手段317に記憶される。
【0197】
次に、分散共分散行列Cxx算出手段313において、分散共分散行列Cxxを算出する。
【0198】
次に、逆行列変換手段314において、分散共分散行列Cxxの逆行列を算出する。
【0199】
次に、共分散行列Cxy算出手段319において、共分散行列Cxyを算出する。
【0200】
次に、行列乗算手段315において、乗算項Aijを算出し、係数記憶手段320に乗算項Aijデータを記憶する。
【0201】
次に、定数項算出手段316において、定数項A0jを算出し、係数記憶手段320に記憶する。
【0202】
最後に、係数記憶手段320のデータを出力して終了する。
【0203】
なお、図31では、0と1の2値データを示したが、線形判別辞書作成手段311においては、0と100等の他の2値データを用いることも可能である。
【0204】
図30は、図14の固有ベクトル辞書作成手段127の一実施例をなす固有ベクトル辞書作成手段331を示す図である。固有ベクトル辞書作成手段331は、特徴量記憶手段332と、特徴量平均算出手段333と、分散共分散行列算出手段334と、固有ベクトル算出手段335と、係数記憶手段336と備えて構成されている。
【0205】
図31と図33とを参照して、固有ベクトル辞書の作成方法について説明する。個人特徴データXの要素を、xij:(i=1....N、j=1,...p)で表わす。
【0206】
はじめにXの特徴量ごとの平均値を求める。次に、Xの分散共分散行列Cxxを、上式(15)を用いて算出する。分散共分散行列Cxxの固有ベクトルを求める。固有ベクトルを求める方法は、当業者によって広く知られており、本発明とは直接関係しないことから、その詳細は省略する。
【0207】
以上の操作により、図33に示すような形式の固有ベクトル辞書が得られる。固有ベクトルは特徴量の数(p個)だけ得られる。図33では、1行分が1つの固有ベクトルを表わしている。
【0208】
図30は、固有ベクトル辞書作成手段331の構成及び処理を説明するための図である。図30を参照して、固有ベクトル辞書作成手段331の動作について説明する。
【0209】
個人特徴データが入力されると、特徴量記憶手段332に記憶される。
【0210】
次に、特徴量平均算出手段333において、特徴量の平均値を求め、係数記憶手段336に記憶する。次に分散共分散行列算出手段334において、分散共分散行列Cxxを算出する。
【0211】
次に、固有ベクトル算出手段335において、分散共分散行列Cxxの固有ベクトルを算出し、係数記憶手段336に記憶する。最後に、係数記憶手段336のデータを出力して終了する。
【0212】
図16は、本発明に係るロボット装置の一実施の形態の構成を示す図である。図16を参照すると、このロボット装置201は、CCDカメラ202と、人物検出識別手段203と、辞書データ管理部204と、人物検出識別管理部205と、全体制御部206と、スピーカ207と、ロボット移動手段208とを備えている。ロボット移動手段208は、モータ209と、車輪210とを備えている。
【0213】
人物検出識別手段203は、CCDカメラ202からのステレオ映像を基に、人物検出と識別を行なっている。人物検出識別管理部205は、人物検出識別手段203との情報のやり取り、全体制御部206との情報のやり取り、辞書データ管理部204との情報のやり取りを行なっている。スピーカ207は全体制御部206に接続され、全体制御部206の指示で発話することができる。また全体制御部206は、ロボット移動手段208に移動指示を送る。ロボット移動手段208はモータ209と複数の車輪210を持ち、ロボットを自由な方向に移動させることができる。
【0214】
図26は、本発明に係るロボット装置の一実施の形態の処理を説明するための図である。図16及び図26を参照して、本発明の一実施の形態のロボット装置201の動作について説明する。ロボット装置201は、人物を検出すると、人物の方向に移動して近づいていき、予め定められた所定の距離以内に近づいたら人物識別を行なう。
【0215】
人物検出識別管理部205は、人物検出識別手段203内の頭部検出追跡手段から、検出した頭部の矩形情報と、対面距離値を取得し、全体制御部206に送信する(ステップS71)。
【0216】
全体制御部206では対面距離値を参照し、対面距離がしきい値よりも近いかどうかを判定する(ステップS73)。距離がしきい値よりも遠いときは、ロボット移動手段208に指令して、人物の方向に前進する(ステップS72)。
【0217】
人物の存在する概略的な方向は、画像内の頭部矩形座標から類推することができる。ステップS71からステップS73を繰り返し、対面距離がしきい値よりも近くなったら、全体制御部206は、人物検出識別管理部205から人物識別結果を取得する(ステップS74)。
【0218】
次に、人物別の音声をスピーカ207から発声し、人物識別したことを対話者に知らせる(ステップS75)。
【0219】
図17は、本発明のロボット装置の一実施例の構成を示す図である。図17を参照すると、ロボット装置221は、CCDカメラ202と、対面距離センサ223と、タッチセンサ222と、人物検出識別手段224と、辞書データ管理部204と、人物検出識別管理部205と、全体制御部227と、マイク225と、音声認識手段226と、スピーカ207と、ロボット移動手段208とを備えて構成されている。ロボット移動手段208は、モータ209と、車輪210とを備えている。
【0220】
人物検出識別手段224は、CCDカメラ202からのステレオ映像と、対面距離センサ223との情報を元に、人物検出と識別を行なっている。人物検出識別管理部205は、人物検出識別手段224との情報のやり取り、全体制御部227との情報のやり取り、辞書データ管理部204との情報のやり取りを行なっている。スピーカ207は全体制御部227に接続され、全体制御部227の指示で発話することができる。また全体制御部227は、ロボット移動手段208に移動指示を送る。ロボット移動手段208はモータ209と複数の車輪210を持ち、ロボットを自由な方向に移動させることができる。タッチセンサ222は、全体制御部227に接続されており、外部から物体の接触の有無と、接触の強さを検出する。マイク225は音声認識手段226に接続され、音声認識手段226は全体制御部227に接続されている。音声認識手段226は、マイク225からの音声データから、人の言葉を自動認識し、認識結果を、全体制御部に送信する。
【0221】
図27は、本発明の一実施例のロボット装置の処理を説明するための流れ図である。図17及び図27を参照して、本発明の一実施例のロボット装置221の動作例について説明する。
【0222】
ロボット装置221は、対面している人物の検出識別を行ない、対話者の反応によって識別辞書を更新することによって、人物画像の逐次学習を行なう。
【0223】
全体制御部227は、人物検出識別管理部205から人物識別結果を取得する(ステップS81)。
【0224】
次に識別した人物毎に特定の動作を行なう(ステップS82)。特定の動作とは、人の名前を発声したり、人によって車輪を特定方向に動かしたりする行為全体を差す。
【0225】
次に、対話者の反応がセンスされるのを待つ(ステップS83)。対話者の反応が得られたときは、次にその反応がポジティブなものかネガティブなものかを判定する(ステップS84)。ポジティブな反応とは、「Yes」という意味であり、例えば音声認識で,「はい」を認識した時などがある。
【0226】
ネガティブな反応とは、「No」という意味であり、例えば音声認識で,「いいえ」を認識した時などがある。
【0227】
また、例えば、あらかじめタッチセンサを1度押下すると「はい」、2度押下すると「いいえ」という規則を予め全体制御部で決めておくことで、タッチセンサを用いて対話者の反応を取得することができる。
【0228】
ステップS84がネガティブな反応の場合は、もう一度ステップS81から動作を繰り返す。ポジティブな反応の場合には、識別に使用した顔特徴データを辞書データ管理部204に入力する(ステップS85)。
【0229】
そして識別辞書を作成し更新する(ステップS86)。
【0230】
終了指示があれば終了し、なければ、再びステップS81から動作を繰り返す(ステップS87)。
【0231】
図28は、本発明のロボット装置の他の実施例の処理を説明するための流れ図である。図17及び図28を参照して、本発明の他の実施例をなすロボット装置221の動作の例について説明する。ロボット装置221は、対面している人物の検出識別を行ない、対話者の命令によって新しい人物の画像を取得し、新しい人物辞書を登録する。
【0232】
全体制御部227は、人物検出識別管理部205から人物識別結果を取得する(ステップS91)。
【0233】
次に識別した人物毎に特定の動作を行なう(ステップS92)。特定の動作とは、人の名前を発声したり、人によって車輪を特定方向に動かしたりする行為全体を差す。
【0234】
次に、対話者の命令がセンスされるのを待つ(ステップS93)。対話者の命令イベントが得られると、次にその命令イベントが登録命令かどうかを判定する(ステップS94)。登録命令イベントは、例えば音声認識で「とうろく」を認識したというイベントがある。また、あらかじめタッチセンサを1度たたくと登録イベントである、という規則を予め全体制御部で決めておくことにより、タッチセンサを用いて登録命令イベントを発声させることができる。
【0235】
登録命令が来たときは、登録処理を行い、新しい人物の登録を行なう(ステップS95)。登録処理ステップS95の一例は、図25に示されており、既に説明済みである。
【0236】
登録処理が終了すると、再びステップS91から処理を開始する。登録命令イベントが来なかった場合は、終了判定を行なう(ステップS96)。
【0237】
終了命令があれば終了し、終了命令がない場合は、再びステップS91から処理を開始する。
【0238】
図35は、本発明の関連発明に係る人物検出識別システムの一実施の形態の構成を示す図である。図35を参照すると、本発明の関連発明に係る人物検出識別システムは、映像取得手段2と、対面距離センサ5と、人物検出識別手段501と、辞書データ管理部12と、人物検出識別管理部502と、記録媒体503とを備えている。記録媒体503には、人物検出識別処理プログラムを記録しており、磁気ディスク、半導体メモリ、CD-ROMその他の記録媒体であってよい。
【0239】
人物検出識別処理プログラムは、記録媒体503から人物検出識別手段501と、人物検出識別管理部502に読み込まれ、図1を参照して説明した前記した実施の形態における人物検出識別手段6および人物検出識別管理部13による処理と同一の処理を実行する。
【0240】
【発明の効果】
以上説明したように、本発明によれば、次のような効果を奏する。
【0241】
本発明のロボット装置で用いられる人物識別装置は、例えば家庭環境のように、照明条件の変動が激しい環境下においても、極めて高い識別率で人物を識別することができる、という効果を奏する。
【0242】
その理由は以下の通りである。すなわち、本発明においては、画像の濃淡値だけではなく、動きと対面距離情報を用いて検出識別している、ためである。また、本発明においては、顔位置合わせ手段により、精度のよい正面顔を検出している、ためである。さらに、本発明においては、顔識別手段において、線形判別辞書による類似度識別を行なっている、ためである。
【0243】
そして、本発明においては、人(利用者)との対話を通じて、装置又はシステムが自ら学習することで、識別精度を上げる、ように構成したためである。
【0244】
また、本発明のロボット装置によれば、ある場所で入力画像が不良で識別できなくても、その後、装置自ら動作することにより、良好な画像を取得する、ことができる。
【図面の簡単な説明】
【図1】本発明のロボット装置で用いられる人物識別装置の一実施の形態の構成を示すブロック図である。
【図2】本発明のロボット装置で用いられる人物識別装置における頭部検出追跡手段の一実施例の構成を示すブロック図である。
【図3】本発明のロボット装置で用いられる人物識別装置における頭部検出追跡手段の別の実施例の構成を示すブロック図である。
【図4】本発明のロボット装置で用いられる人物識別装置における単眼視頭部矩形座標検出手段の一実施例の構成を示すブロック図である。
【図5】本発明のロボット装置で用いられる人物識別装置における頭部検出処理を説明するための図である。
【図6】本発明のロボット装置で用いられる人物識別装置における左右画像照合処理を説明するための図である。
【図7】本発明のロボット装置で用いられる人物識別装置における頭部追跡処理を説明するための図である。
【図8】本発明のロボット装置で用いられる人物識別装置における正面顔画像を特徴データに変換する際のラスタスキャンの説明図である。
【図9】本発明のロボット装置で用いられる人物識別装置における正面顔位置合わせ手段の一実施例の構成を示すブロック図である。
【図10】本発明のロボット装置で用いられる人物識別装置における正面顔探索手段の一実施例の構成を示すブロック図である。
【図11】本発明のロボット装置で用いられる人物識別装置における正面顔探索手段の他の実施例の構成を示すブロック図である。
【図12】本発明のロボット装置で用いられる人物識別装置における頭部検出処理と顔位置合わせ処理を説明するための図である。
【図13】本発明のロボット装置で用いられる人物識別装置における顔識別手段と識別辞書記憶手段と識別結果補正手段の各実施例の構成を示すブロック図である。
【図14】本発明のロボット装置で用いられる人物識別装置における辞書データ管理部の一実施例の構成を示すブロック図である。
【図15】本発明のロボット装置で用いられる人物識別装置における顔識別手段と識別辞書記憶手段と識別結果補正手段の各実施例の構成を示すブロック図である。
【図16】本発明のロボット装置の一実施例の構成を示す図である。
【図17】本発明のロボット装置の他の実施例の構成を示す図である。
【図18】本発明のロボット装置で用いられる人物識別装置における人物検出処理と識別処理を説明するための流れ図である。
【図19】本発明のロボット装置で用いられる人物識別装置における頭部検出追跡処理を説明するための流れ図である。
【図20】本発明のロボット装置で用いられる人物識別装置における頭部検出処理を説明するための流れ図である。
【図21】本発明のロボット装置で用いられる人物識別装置における正面顔位置合わせ処理を説明するための流れ図である。
【図22】本発明のロボット装置で用いられる人物識別装置における正面顔探索処理を説明するための流れ図である。
【図23】本発明のロボット装置で用いられる人物識別装置における正面顔探索処理を説明するための流れ図である。
【図24】本発明のロボット装置で用いられる人物識別装置における顔識別処理を説明するための流れ図である。
【図25】本発明のロボット装置で用いられる人物識別装置における人物辞書登録処理を説明するための流れ図である。
【図26】本発明のロボット装置における行動制御を説明するための流れ図である。
【図27】本発明のロボット装置における行動制御を説明するための流れ図である。
【図28】本発明のロボット装置における行動制御を説明するための流れ図である。
【図29】本発明のロボット装置で用いられる人物識別装置における線形判別辞書作成手段の一実施例の構成を示すブロック図である。
【図30】本発明のロボット装置で用いられる人物識別装置における固有ベクトル辞書作成手段の一実施例の構成を示すブロック図である。
【図31】本発明のロボット装置で用いられる人物識別処理に用いる線形判別辞書作成方法を説明するための図である。
【図32】本発明のロボット装置で用いられる人物識別処理に用いるステレオ視による対面距離算出方法を説明するための図である。
【図33】本発明のロボット装置で用いられる人物識別処理に用いる固有ベクトル投影距離辞書の説明図である。
【図34】本発明のロボット装置で用いられる人物識別処理に用いる線形判別辞書の説明図である。
【図35】本発明のロボット装置で用いられる人物識別装置の他の実施例の構成を示すブロック図である。
【符号の説明】
1 人物検出識別手段
2 映像取得手段
3 右カメラ
4 左カメラ
5 対面距離センサ
6 頭部検出追跡手段
7 正面顔位置合わせ手段
8 顔特徴量抽出手段
9 顔識別手段
10 識別辞書記憶手段
11 識別結果補正手段
12 辞書データ管理部
13 人物検出識別管理部
14 人物識別装置
21 頭部検出手段
22 頭部追跡手段
23 頭部矩形記憶手段
24 単眼視頭部矩形座標検出手段
25 左右画像照合手段
26 対面距離評価手段
27 頭部検出追跡手段
28 右カメラ
29 左カメラ
30 対面距離センサ
31 対面距離統合手段
32 頭部検出追跡手段
33 頭部検出手段
34 CCDカメラ
41 頭部矩形座標検出手段
42 動き画素検出手段
43 人物数評価手段
44 頭頂座標検出手段
45 頭部下部座標検出手段
46 側頭座標検出手段
47 動き領域幅
48 統合差分画像G
49 統合差分画像G
50 統合差分画像上部領域
51 頭部検出矩形
52 探索結果
53 前フレームの頭部矩形座標
54 サーチ軌跡
55 前フレームの頭部矩形画像
61 正面顔位置合わせ手段
62 頭部矩形切り取り手段
63 正面顔探索手段
64 標準顔辞書デ−タ記憶手段
65 正面顔らしさ判定手段
66 濃度分散判定手段
67 しきい値処理手段
71 正面顔探索手段
72 正面顔候補抽出手段
73 中間縮小画像記憶手段
74 コントラスト補正手段
75 固有ベクトル投影距離算出手段
76 標準顔辞書記憶手段
77 記憶手段
78 投影距離最小判定手段
79 探索範囲終了判定手段
80 標準顔平均データ記憶手段
81 標準顔固有ベクトルデータ記憶手段
82 平均差分手段
83 ベクトル投影値算出手段
84 再構成演算手段
85 投影距離計算手段
86 投影距離最小値記憶手段
87 正面顔濃淡値記憶手段
88 頭部中間サイズ算出手段
89 頭部矩形画像記憶手段
90 画像縮小手段
91 中間サイズ記憶手段
92 多重解像度処理終了判定手段
101 正面顔探索手段
102 積和演算手段
103 類似度最大判定手段
104 標準顔辞書データ記憶部
105 記憶手段
106 類似度最大値記憶手段
107 正面顔濃淡値記憶手段
111 顔識別手段
112 識別辞書記憶手段
113 識別結果補正手段
114 識別結果加重平均算出手段
115 特徴データ記憶手段
116 積和演算手段
117 しきい値処理手段
118 最大類似度人物判定手段
119 登録人物用識別辞書記憶手段
121 辞書データ管理部
122 個人特徴データ管理部
123 識別辞書生成手段
124 セレクタ
125 人物別特徴データ
126 線形判別辞書作成手段
127 固有ベクトル辞書作成手段
131 顔識別手段
132 識別辞書記憶手段
133 他人判別手段
134 他人判別用辞書記憶手段
151 頭部矩形
152 頭部矩形画像
153 縮小頭部矩形画像
154 正面顔探索形状
155 正面顔画像
201 ロボット装置
202 CCDカメラ
203 人物検出識別手段
204 辞書データ管理部
205 人物検出識別管理部
206 全体制御部
207 スピーカ
208 ロボット移動手段
209 モータ
210 車輪
221 ロボット装置
222 タッチセンサ
223 対面距離センサ
224 人物検出識別手段
225 マイク
226 音声認識手段
227 全体制御部
311 線形判別辞書作成手段
312 特徴量X記憶手段
313 分散共分散行列Cxx算出手段
314 逆行列変換手段
315 行列乗算手段
316 定数項算出手段
317 目的変数Y記憶手段
318 目的変数Y生成手段
319 共分散行列Cxy算出手段
320 係数記憶手段
331 固有ベクトル辞書作成手段
332 特徴量記憶手段
333 特徴量平均算出手段
334 分散共分散行列算出手段
335 固有ベクトル算出手段
336 係数記憶手段
341 個人特徴データX
342 目的変数Y
343 特徴データ平均値
344 目的変数平均値
401 右カメラ
402 左カメラ
403 対象物
411 1番目の固有ベクトル
412 2番目の固有ベクトル
413 P番目の固有ベクトル
414 平均値
421 定数項
422 クラス1の識別係数
423 クラス2の識別係数
424 クラスqの識別係数
425 乗算項
501 人物検出識別処理部
502 人物検出識別管理部
503 記録媒体

Claims (8)

  1. 取得された画像情報から正面顔画像を取得する正面顔位置合わせ手段と、
    前記正面顔画像から識別辞書を用いて人物を識別する顔識別手段と、
    前記顔識別手段から出力される識別結果を過去Nフレーム分(Nは2以上の整数)の情報を用いて補正する識別結果補正手段と、を含む人物識別装置を備え、
    前記識別結果補正手段は、前記顔識別手段から出力される識別結果を過去Nフレーム分(Nは2以上の整数)加重平均する、ことを特徴とするロボット装置。
  2. 取得された画像情報から人の頭部を検出する頭部検出追跡手段と、
    前記検出された頭部の部分画像中から正面顔画像を取得する正面顔位置合わせ手段と、
    正面顔画像を特徴量に変換する顔特徴抽出手段と、
    識別辞書を用いて特徴量から人物を識別する顔識別手段と、
    識別辞書を保存する識別辞書記憶手段と、
    前記顔識別手段から出力される識別結果を過去Nフレーム分(Nは2以上の整数)の情報を用いて補正する識別結果補正手段と、を含む人物識別装置を備え、
    前記識別結果補正手段は、前記顔識別手段から出力される識別結果を過去Nフレーム分(Nは2以上の整数)加重平均する、ことを特徴とするロボット装置。
  3. 請求項1または2に記載のロボット装置において、
    ロボットの動作を制御する全体制御部と、
    前記全体制御部の指示でロボットを移動する移動手段と、
    を備えたことを特徴とするロボット装置。
  4. 請求項1乃至3のいずれか一に記載のロボット装置の前記人物識別装置において、
    前記顔識別手段が、
    線形判別辞書と特徴データから登録されている人物への類似度を算出する積和演算手段と、
    登録されている人物への類似度の最大値を求める最大類似度人物判定手段と、
    前記類似度の最大値を予め定められたしきい値と比較して、他人かどうかを判定するしきい値処理手段と、
    を備えたことを特徴とするロボット装置。
  5. 請求項1乃至3のいずれか一に記載のロボット装置の前記人物識別装置において、
    前記顔識別手段が、
    他人を判別するための固有ベクトル辞書と特徴データから固有ベクトル投影距離を算出して距離値を比較する固有ベクトル他人判別手段と、
    線形判別辞書と特徴データから登録されている人物への類似度を算出する積和演算手段と、登録されている人物への類似度の最大値を求める最大類似度人物判定手段と、
    前記類似度の最大値をあらかじめ定められたしきい値と比較して、他人かどうかを判定するしきい値処理手段と、
    を備えたことを特徴とするロボット装置。
  6. 画像を取得する映像取得手段と、
    前記取得された画像情報から人の頭部を検出する頭部検出追跡手段と、
    前記検出された頭部の部分画像中から正面顔画像を取得する正面顔位置合わせ手段と、
    正面顔画像を特徴量に変換する顔特徴抽出手段と、
    識別辞書を用いて特徴量から人物を識別する顔識別手段と、
    識別辞書を保存する識別辞書記憶手段と、
    前記顔識別手段から出力される識別結果を過去Nフレーム分(Nは2以上の整数)加重平均する識別結果補正手段と、
    を含む人物識別装置と、
    ロボットの動作を制御する全体制御部と、
    前記全体制御部の指示で音声を発話する音声出力手段と、
    前記全体制御部の指示でロボットを移動する移動手段と、
    を備えたことを特徴とするロボット装置。
  7. 前記全体制御部が、人物識別結果が得られたときに、人物毎に異なる音声で発話するよう制御する、ことを特徴とする請求項記載のロボット装置。
  8. 前記全体制御部が、前記人物識別装置から前方物体との対面距離と方向を取得する手段と、
    人物識別結果を取得する手段と、
    前記対面距離がしきい値以上の場合には、前記前方物体に近づくように移動する手段と、
    前記対面距離がしきい値以下のときは、人物識別結果を人物毎に異なる音声で発話するように制御する手段と、
    を備えたことを特徴とする請求項記載のロボット装置。
JP2001158402A 2001-05-28 2001-05-28 ロボット装置 Expired - Fee Related JP3823760B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001158402A JP3823760B2 (ja) 2001-05-28 2001-05-28 ロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001158402A JP3823760B2 (ja) 2001-05-28 2001-05-28 ロボット装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP02158399A Division JP3307354B2 (ja) 1999-01-29 1999-01-29 人物識別方法及び装置と人物識別プログラムを記録した記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006034936A Division JP4860289B2 (ja) 2006-02-13 2006-02-13 ロボット装置

Publications (2)

Publication Number Publication Date
JP2002056388A JP2002056388A (ja) 2002-02-20
JP3823760B2 true JP3823760B2 (ja) 2006-09-20

Family

ID=19002134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001158402A Expired - Fee Related JP3823760B2 (ja) 2001-05-28 2001-05-28 ロボット装置

Country Status (1)

Country Link
JP (1) JP3823760B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229015A (ja) * 2013-05-21 2014-12-08 富士ソフト株式会社 顔認識装置、顔認識方法、およびコンピュータプログラム
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4072033B2 (ja) 2002-09-24 2008-04-02 本田技研工業株式会社 受付案内ロボット装置
JP3879848B2 (ja) 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
US8433580B2 (en) 2003-12-12 2013-04-30 Nec Corporation Information processing system, which adds information to translation and converts it to voice signal, and method of processing information for the same
JP2007115129A (ja) * 2005-10-21 2007-05-10 Sumitomo Electric Ind Ltd 障害物検出システム、障害物検出方法及びコンピュータプログラム
CN101443817B (zh) 2006-03-22 2013-06-12 皮尔茨公司 用于确定场景的三维重建时的对应关系的方法和装置
JP5096980B2 (ja) * 2008-03-28 2012-12-12 綜合警備保障株式会社 移動体、移動体方向制御方法および移動体方向制御プログラム
JP2010250730A (ja) * 2009-04-20 2010-11-04 Sanyo Electric Co Ltd 画像処理装置及び撮像装置
CN104584076B (zh) 2012-08-31 2017-05-10 富士通株式会社 图像处理装置以及图像处理方法
CN106228112B (zh) * 2016-07-08 2019-10-29 深圳市优必选科技有限公司 人脸检测跟踪方法及机器人头部转动控制方法和机器人
JP6671577B2 (ja) * 2016-11-07 2020-03-25 Groove X株式会社 人を識別する自律行動型ロボット
JP7402721B2 (ja) * 2020-03-24 2023-12-21 株式会社フジタ 発話制御装置
CN116564005B (zh) * 2023-07-11 2023-09-08 深圳市瑞凯诺科技有限公司 智能充电桩的无线启动方法及系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6385979A (ja) * 1986-09-30 1988-04-16 Toshiba Corp ワークステーション
JPH0351996A (ja) * 1989-07-19 1991-03-06 Mitsubishi Electric Corp 監視装置
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
JPH0520442A (ja) * 1991-07-17 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 顔画像照合装置
JPH0573663A (ja) * 1991-09-17 1993-03-26 Nippon Telegr & Teleph Corp <Ntt> 3次元物体の画像認識法
JPH0816958B2 (ja) * 1991-12-11 1996-02-21 茨城警備保障株式会社 防犯監視システム
JPH06119433A (ja) * 1992-10-01 1994-04-28 Toshiba Corp 人物認証装置
JPH06259534A (ja) * 1993-03-03 1994-09-16 Toshiba Corp 人物認証装置
JPH0723012A (ja) * 1993-06-30 1995-01-24 Takahashi Takeshi 視聴率調査システム
JP3129595B2 (ja) * 1993-12-13 2001-01-31 シャープ株式会社 画像処理装置
JPH07213753A (ja) * 1994-02-02 1995-08-15 Hitachi Ltd パーソナルロボット装置
JPH08161498A (ja) * 1994-12-05 1996-06-21 Minolta Co Ltd 物体認識装置
JP3534368B2 (ja) * 1996-04-03 2004-06-07 株式会社東芝 動画像処理方法及び動画像処理装置
JP3279479B2 (ja) * 1996-05-31 2002-04-30 株式会社日立国際電気 映像監視方法及び装置
JPH10105217A (ja) * 1996-09-27 1998-04-24 Mitsubishi Electric Corp ロボットのトラッキング制御方法およびロボット制御システム
JP3323772B2 (ja) * 1997-02-13 2002-09-09 本田技研工業株式会社 デッドロック防止装置付自律走行ロボット

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229015A (ja) * 2013-05-21 2014-12-08 富士ソフト株式会社 顔認識装置、顔認識方法、およびコンピュータプログラム
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US12087130B2 (en) 2018-07-25 2024-09-10 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US12106630B2 (en) 2018-07-25 2024-10-01 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JP2002056388A (ja) 2002-02-20

Similar Documents

Publication Publication Date Title
JP3307354B2 (ja) 人物識別方法及び装置と人物識別プログラムを記録した記録媒体
JP4860289B2 (ja) ロボット装置
US8942436B2 (en) Image processing device, imaging device, image processing method
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP3823760B2 (ja) ロボット装置
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
US8837786B2 (en) Face recognition apparatus and method
US6690814B1 (en) Image processing apparatus and method
US5642431A (en) Network-based system and method for detection of faces and the like
US20100296706A1 (en) Image recognition apparatus for identifying facial expression or individual, and method for the same
WO2011121688A1 (ja) 顔認識装置及び顔認識方法
MX2012010602A (es) Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.
JP2004133889A (ja) 画像のオブジェクトを認識する方法及びシステム
JP2007213378A (ja) 特定表情顔検出方法、撮像制御方法および装置並びにプログラム
KR101279561B1 (ko) 깊이정보 기반 고속 고정밀 얼굴 검출 및 추적 방법
Baltzakis et al. Visual tracking of hands, faces and facial features of multiple persons
Ibrahim et al. Geometrical-based lip-reading using template probabilistic multi-dimension dynamic time warping
JPH10307923A (ja) 顔部品抽出装置および顔の向き検出装置
JPH07302327A (ja) 物体画像検出方法及び検出装置
CN112784712A (zh) 一种基于实时监控的失踪儿童预警实现方法、装置
Göcke et al. Automatic extraction of lip feature points
WO2002007096A1 (fr) Dispositif de recherche d&#39;un point caracteristique sur un visage
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
JP4061405B2 (ja) 顔画像分類登録装置
JP4036005B2 (ja) 撮影条件検出装置および撮影条件検出プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060404

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060404

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060619

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100707

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130707

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees