[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4612806B2 - 画像処理装置、画像処理方法、撮像装置 - Google Patents

画像処理装置、画像処理方法、撮像装置 Download PDF

Info

Publication number
JP4612806B2
JP4612806B2 JP2004167589A JP2004167589A JP4612806B2 JP 4612806 B2 JP4612806 B2 JP 4612806B2 JP 2004167589 A JP2004167589 A JP 2004167589A JP 2004167589 A JP2004167589 A JP 2004167589A JP 4612806 B2 JP4612806 B2 JP 4612806B2
Authority
JP
Japan
Prior art keywords
image
feature
facial expression
feature amount
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004167589A
Other languages
English (en)
Other versions
JP2005056388A (ja
JP2005056388A5 (ja
Inventor
雄司 金田
優和 真継
克彦 森
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2004167589A priority Critical patent/JP4612806B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Priority to EP15151440.3A priority patent/EP2955662B1/en
Priority to CN200480024042.3A priority patent/CN1839410B/zh
Priority to PCT/JP2004/010208 priority patent/WO2005008593A1/ja
Priority to EP04747673.4A priority patent/EP1650711B1/en
Priority to EP18157708.1A priority patent/EP3358501B1/en
Publication of JP2005056388A publication Critical patent/JP2005056388A/ja
Priority to US11/330,138 priority patent/US8515136B2/en
Publication of JP2005056388A5 publication Critical patent/JP2005056388A5/ja
Application granted granted Critical
Publication of JP4612806B2 publication Critical patent/JP4612806B2/ja
Priority to US13/944,038 priority patent/US8942436B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、入力画像中の顔の表情を判別する技術に関するものである。
従来の表情認識装置の一つとして表情から情緒を判定する技術が開示されている(例えば特許文献1を参照)。情緒とは一般的に怒り、悲しみなど感情を表すものであり、上記技術によると、顔面の各特徴から関連規則に基づき所定の表情要素を抽出して、この所定の表情要素から表情要素情報を抽出している。ここで、表情要素は眼の開閉、眉の動き、前額の動き、唇の上下、唇の開閉、下唇の上下を示しており、これら表情要素は眉の動きに関しては左眉の傾きや右眉の傾きなどの表情要素情報から構成されている。
次に、得られた表情要素を構成する表情要素情報から所定の表情要素定量化規則に基づき、表情要素を定量化した表情要素コードを算出する。さらに、情緒カテゴリ毎に決められた所定の表情要素コードから所定の情緒変換式で情緒カテゴリ毎に情緒量を算出する。そして、情緒カテゴリの中で情緒量の最大値を情緒と判定を行う方法がある。
特許公報第2573126号
顔面の各特徴の形状や長さは個人によって大きな差を持っている。例えば、真顔である無表情画像において、すでに眼尻が下がっている人や元々眼が細い人など画像1枚からの主観的視点からは一見喜びであるように見えるが本人にとっては真顔である場合がある。さらに、顔画像は常に顔サイズや顔の向きが一定というわけではなく、顔がサイズ変動した場合や顔が回転した場合には表情を認識するために必要な特徴量を顔のサイズ変動や顔の回転変動に応じて正規化することが必要になる。
また、入力画像に表情場面や真顔画像である無表情場面の他に、会話場面である非表情場面を含めた日常場面を想定した時系列画像を入力画像とした場合、例えば、驚きの表情に類似した会話場面での発音「お」や喜びの表情に類似した発音「い」「え」など非表情場面を表情場面と誤判定する場合がある。
本発明は以上の問題に鑑みてなされたものであり、個人差や表情場面などにロバストな、画像中の顔の表情をより正確に判断する技術を提供することを目的とする。また、顔のサイズが変動した場合や顔が回転した場合においても正確に表情を判断する技術を提供することを目的とする。
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。
即ち、顔を含む連続するフレームの画像を入力する入力手段と、
前記連続するフレームの各フレームの画像中の顔における予め設定された部位群の夫々について特徴量を求める第1の特徴量計算手段と、
予め設定された表情の顔を含む画像における当該顔の前記予め設定された部位群の夫々について特徴量を求める第2の特徴量計算手段と、
前記第1の特徴量計算手段が求めた特徴量と、前記第2の特徴量計算手段が求めた特徴量との差分または比に基づいて、前記予め設定された部位群の夫々の特徴量の変化量を求める変化量計算手段と、
前記予め設定された部位群の夫々について前記変化量計算手段が求めた変化量に基づいて、前記予め設定された部位群の夫々について得点を計算する得点計算手段と、
前記得点計算手段が前記予め設定された部位群の夫々について計算した得点の分布と、各表情毎に計算した、前記予め設定された部位群の夫々に対する得点の分布と、を比較することで、前記入力手段が入力した画像中の顔の表情を判断する第1の判断手段と
連続したpフレームの夫々の画像中の顔の表情が第1の表情であると前記第1の判断手段が判断してから、当該判断後、連続したqフレームの夫々の画像中の顔の表情が前記第1の表情とは異なる第2の表情であると前記第1の判断手段が判断するまでの各フレームの画像中の顔の表情を、第1の表情として判断する第2の判断手段と
を備えることを特徴とする。
本発明の構成により、個人差や表情場面などにロバストな、画像中の顔の表情をより正確に判断することができる。さらに、顔のサイズが変動した場合や顔が回転した倍でも画像中の顔の表情をより正確に判断することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図23は、本実施形態に係る画像処理装置の基本構成を示す図である。
2301はCPUで、RAM2302やROM2303に記憶されているプログラムやデータを用いて本装置全体の制御を行うと共に、後述の表情判別処理も行う。
2302はRAMで、外部記憶装置307や記憶媒体ドライブ装置2308からロードされたプログラムやデータを記憶するためのエリアを備えると共に、CPU2301が各種の処理を行うために必要なエリアも備える。
2303はROMで、ブートプログラム等の各種のプログラムやデータを格納する。
2304、2305は夫々キーボード、マウスで、各種の指示をCPU2301に入力することができる。
2306は表示装置で、CRTや液晶画面などにより構成されており、画像や文字などの各種の情報を表示することができる。
2307は外部記憶装置で、ハードディスクドライブ装置などの大容量情報記憶装置として機能するものであり、ここにOS(オペレーティングシステム)や後述の表情判別処理に係るプログラム、そして各種のデータを保存する。そしてこれらプログラムやデータは、CPU2301からの指示によりRAM2302に読み出される。
2308は記憶媒体ドライブ装置で、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み取って、外部記憶装置2307やRAM2302に出力するものである。なお、後述の表情判別処理に係るプログラムやデータなどはこの記憶媒体に記録しておき、必要に応じてCPU2301の制御によりRAM2302に読み出されるようにしても良い。
2309はI/Fで、外部装置と本装置を接続するためのもので、外部装置とのデータ通信はこのI/Fを介して行われる。
2310は上記各部を繋ぐバスである。
図1は本実施形態に係る画像処理装置の機能構成を示すブロック図である。
画像処理装置の機能構成は、時系列に連続して複数の画像を入力する画像入力部100と、画像入力部100によって入力された画像(入力画像)から表情を判別するために必要な特徴量を抽出する特徴量計算部101と、あらかじめ用意しておいた真顔(無表情)の参照顔から表情を認識するために必要な参照特徴を抽出し保持しておく参照特徴保持部102と、特徴量算出部101で抽出された特徴量と参照特徴保持部102で保持されている特徴量の差分量を計算することで参照顔からの顔面の各特徴量の変化量を算出する特徴量変化量算出部103と、特徴量変化量算出部103で抽出された各特徴の変化量から各特徴ごとに得点を算出する得点算出部104と、得点算出部104で算出された得点の総和から入力画像における顔の表情の判定を行う表情判定部105から構成される。
なお、図1に示した各部はハードウェアにより構成しても良いが、本実施形態では画像入力部100,特徴量抽出部101,特徴量変化量算出部103,得点算出部104,表情判定部105の各部はプログラムにより構成し、このプログラムはRAM2302に記憶されており、これをCPU2301が実行することで、各部の機能を実現するものとする。また、参照特徴保持部102はRAM2302内の所定のエリアとするが、外部記憶装置2307内のエリアとしても良い。
以下に、図1に示した各部についてより詳細に説明する。
画像入力部100は、ビデオカメラ等から得られた動画像を1フレーム毎に切り出した時系列の顔画像を入力画像として入力する。即ち図23の構成によると、各フレームの画像のデータはI/F2309に接続されたビデオカメラなどから、このI/F2309を介して逐次RAM2302に出力される。
特徴量抽出部101は図2に示すように、眼と口と鼻位置抽出部110、エッジ画像生成部111、顔面の各特徴エッジ抽出部112、顔面の特徴点抽出部113、表情特徴量抽出部114で構成される。図2は特徴量抽出部101の機能構成を示すブロック図である。
以下、図2に示した各部について、より詳細に説明する。
眼と口と鼻位置抽出部110は、画像入力部100で入力された画像(入力画像)から顔面の所定部位、即ち、眼や口や鼻の位置(入力画像中の位置)を決定する。眼や口の位置を決定する方法は、例えば、眼と口と鼻のそれぞれのテンプレートを用意し、テンプレートマッチングを行うことにより眼と口と鼻の候補を抽出し、更にその抽出後、テンプレートマッチングにより得られた眼と口と鼻の候補の空間的な配置関係と色情報である肌色情報を用いることにより眼と口と鼻位置の検出を行う方法など用いることができる。検出した眼と口の位置データは後段の顔面の各特徴エッジ抽出部112に出力される。
次に、画像入力部100で得られた入力画像からエッジ画像生成部111でエッジ抽出し、抽出されたエッジをエッジ膨張処理を加えた後で細線化処理を行うことによってエッジ画像を生成する。例えば、エッジ抽出にはSobelフィルタによるエッジ抽出、エッジ膨張処理には8近傍膨張処理、細線化処理にはHilditchの細線化処理を使用することができる。ここでエッジ膨張処理と細線化処理は、エッジを膨張させることにより分裂しているエッジを連結し、細線化処理を行うことで、後述するエッジ走査と特徴点抽出を円滑に行うことを目的としている。生成したエッジ画像は後段の顔面の各特徴エッジ抽出部112に出力する。
顔面の各特徴エッジ抽出部112では、眼と口位置抽出部110で検出した眼と口の位置データとエッジ画像生成部111によるエッジ画像を用いて、図3に示すようなエッジ画像における眼領域、頬領域、口領域を決定する。
眼領域は領域内に眉毛と眼のエッジのみが含まれるように設定し、頬領域は頬のエッジと鼻のエッジのみが含まれるように領域を設定し、口領域は上唇エッジ、歯エッジ、下唇エッジのみが含まれるように領域指定を行う。
ここで、これらの領域の設定処理の一例について説明する。
目領域の縦幅は、テンプレートマッチングと空間配置関係から求められた左目位置検出結果と右目位置検出結果の中点から上に左右目位置検出間距離の0.5倍、下に左右目位置検出間距離の0.3倍の領域を目の縦方向領域とする。
目領域の横幅は、テンプレートマッチングと空間配置関係から求められた左目位置検出結果と右目位置検出結果の中点から左右それぞれに左右目位置検出間距離の領域を目の横方向領域とする。
つまり、目領域の縦方向の辺の長さは左右目位置検出間距離の0.8倍、横方向の辺の長さは左右目位置検出間距離の2倍となる。
口領域の縦幅は、テンプレートマッチングと空間配置関係から求められた口位置検出結果の位置より上に鼻位置検出と口検出位置間距離の0.75倍、下に左目位置検出結果と右目位置検出結果の中点と、口位置検出結果との距離の0.25倍の領域を縦方向領域とする。口領域の横幅は、テンプレートマッチングと空間配置関係から求められた口位置検出結果の位置より左右それぞれ左右目位置検出間距離の0.8倍を目の横方向領域とする。
頬領域の縦幅は、テンプレートマッチングと空間配置関係から求められた左目位置検出結果と右目位置検出結果の中点と口位置検出結果との中点(顔の中心付近の点となる)から上下それぞれ左目位置検出結果と右目位置検出結果の中点と、口位置検出結果との距離の0.25倍の領域を縦方向領域とする。
頬領域の横幅は、テンプレートマッチングと空間配置関係から求められた左目位置検出結果と右目位置検出結果の中点と口位置検出結果との中点(顔の中心付近の点となる)から左右それぞれ左右目位置検出間距離の0.6倍の領域を頬の横領域とする。
つまり、頬領域の縦方向の辺の長さは、左目位置検出結果と右目位置検出結果の中点と、口位置検出結果との距離の0.5倍、横方向の辺の長さは左右目位置検出間距離の1.2倍となる。
以上の領域の設定処理によって、図3に示すように、眼領域内では上から1本目のエッジ120とエッジ121が眉毛のエッジとして、2本目のエッジ122とエッジ123が眼のエッジとして判定され、口領域内では口を閉じている場合には図3に示すように上から1本目のエッジ126が上唇エッジ、2本目のエッジ127が下唇エッジとして判定され、口を開けている場合には上から1本目のエッジが上唇エッジ、2本目のエッジが歯のエッジ、3本目のエッジが下唇エッジとして判定される。
以上の判定結果は、以上の3つの領域(眼領域、頬領域、口領域)の夫々が眼領域、頬領域、口領域の何れであるかを示すデータ、そして各領域の位置とサイズのデータとして顔面の各特徴エッジ抽出部112によって生成され、顔面の特徴点抽出部113にエッジ画像と共に出力される。
顔面の特徴点抽出部113は、顔面の各特徴エッジ抽出部112から入力した上記各種データを用いて、エッジ画像における眼領域、頬領域、口領域内のエッジを走査することによって、後述の各特徴点を検出する。
図4は、顔面の特徴点抽出部113が検出する各特徴点を示す図である。同図に示すように、各特徴点とは、各エッジの端点、エッジ上における端点間の中点であり、これらは例えばエッジを構成する画素の値(ここではエッジを構成する画素の値を1,エッジを構成していない画素の値を0とする)を参照して、横方向の座標位置の最大値、最小値を求めることでエッジの端点を求めることが出来、エッジ上における端点間の中点は、エッジ上において単純に端点間の中点の横方向の座標値を取る位置とすることで求めることができる。
顔面の特徴点抽出部113はこれらの端点の位置情報を特徴点情報として求め、眼の特徴点情報(眼領域における各エッジの特徴点の位置情報)、口の特徴点情報(口領域における各エッジの特徴点の位置情報)を夫々後段の表情特徴量抽出部114にエッジ画像と共に出力する。
なお、特徴点に関しては目・口・鼻の位置検出同様に目や口や鼻の端点位置を算出するテンプレートなどを用いてもよくエッジ走査による特徴点抽出に限定されるわけではない。
表情特徴量抽出部114は顔面の特徴点抽出部113で得られた各特徴点情報から、表情判別に必要な「額周りのエッジ密度」、「眉毛エッジの形状」、「左右眉毛エッジ間の距離」、「眉毛エッジと眼のエッジ間の距離」、「眼の端点と口端点の距離」、「眼の線エッジの長さ」、「眼の線エッジの形状」、「頬周りのエッジ密度」、「口の線エッジの長さ」、「口の線エッジの形状」等の特徴量を算出する。
ここで、「眼の端点と口の端点の距離」とは、図4の特徴点136(右眼の右端点)の座標位置から特徴点147(唇の右端点)の座標位置までの縦方向の距離、同様に特徴点141(左眼の左端点)の座標位置から特徴点149(唇の左端点)の座標位置までの縦方向の距離である。
また、「眼の線エッジの長さ」とは、図4の特徴点136(右眼の右端点)の座標位置から特徴点138(右眼の左端点)の座標位置までの横方向の距離、又は特徴点139(左眼の右端点)の座標位置から特徴点141(左眼の左端点)の座標位置までの横方向の距離である。
また、「眼の線エッジの形状」とは、図5に示すように、特徴点136(右眼の右端点)と特徴点137(右眼の中点)により規定される線分(直線)150、特徴点137(右眼の中点)と特徴点138(右眼の左端点)により規定される線分(直線)151を算出し、この算出された2本の直線150と直線151の傾きから形状を判定している。
この処理は左目の線エッジの形状を求める処理についても同様で、用いる特徴点が異なるだけである。即ち、特徴点139(左眼の右端点)と特徴点140(左眼の中点)とで規定される線分の傾き、特徴点140(左眼の中点)と特徴点141(左眼の左端点)とで規定される線分の傾きを求め、これにより同様に判定する。
また、「頬周りのエッジ密度」は、上記頬の領域において、エッジを構成する画素の数を表すものである。これは頬の筋肉が持ち上がることによって「しわ」が生じ、これにより長さ、太さの異なる様々なエッジが発生するので、これらのエッジの量として、これらのエッジを構成する画素の数(画素値が1である画素の数)をカウントし、頬の領域を構成する画像数で割り算することにより密度を求めることができる。
また、「口線エッジの長さ」とは、口領域においてすべてのエッジを走査し、エッジを構成する画素のうちで横方向の座標位置が最も小さい画素が特徴点147(口の右端点)、最も大きい画素が特徴点149(口の左端点)とした場合には、特徴点147(口の右端点)の座標位置から特徴点149(口の左端点)の座標位置までの距離を示すものである。
なお上述のように、特徴量を求めるために端点間の距離や、2つの端点で規定される線分の傾き、エッジ密度を求めているのであるが、この処理は換言すると、各部位のエッジの長さや形状などの特徴量を求めていることになる。従って、以下ではこれらエッジの長さや形状を総称して「エッジの特徴量」と呼称する場合がある。
以上のようにして、特徴量抽出部101は、入力画像から各特徴量を求めることができる。
図1に戻って、参照特徴保持部102には、表情判別処理を行う前に、予め真顔である無表情の画像から、特徴量抽出部101で行われる上記特徴量検出処理によって検出された、この無表情の顔における特徴量が保持されている。
よって、以下説明する処理では、特徴量抽出部101が入力画像のエッジ画像から上記特徴量検出処理によって検出した特徴量が、この参照特徴保持部102が保持する特徴量からどの程度変化しているかを求め、この変化量に応じて入力画像中における顔の表情の判別を行う。従って、参照特徴保持部102が保持する特徴量を以下、「参照特徴量」と呼称する場合がある。
まず、特徴量変化量算出部103は、特徴量抽出部101が入力画像のエッジ画像から上記特徴量検出処理によって検出した特徴量と、参照特徴保持部102が保持する特徴量との差分を計算する。例えば、特徴量抽出部101が入力画像のエッジ画像から上記特徴量検出処理によって検出した「眼の端点と口の端点の距離」と、参照特徴保持部102が保持する「眼の端点と口の端点の距離」との差分を計算し、特徴量の変化量する。このような差分計算を各特徴量毎に求めることは、換言すれば、各部位の特徴量の変化を求めることになる。
なお、特徴量抽出部101が入力画像のエッジ画像から上記特徴量検出処理によって検出した特徴量と、参照特徴保持部102が保持する特徴量との差分を計算する際には当然、同じ特徴におけるもの同士で差分を取るので(例えば、特徴量抽出部101が入力画像のエッジ画像から上記特徴量検出処理によって検出した「眼の端点と口の端点の距離」と、参照特徴保持部102が保持する「眼の端点と口の端点の距離」との差分計算)、それぞれの特徴量は関係付けられている必要があるが、この手法については特に限定するものではない。
なお、この参照特徴量はユーザ毎に大きく異なる場合もあり、その場合、あるユーザにはこの参照特徴量が合致するものであっても、他のユーザには合致しない場合がある。従って、参照特徴保持部102に複数のユーザの参照特徴量を格納させておいても良い。その場合、上記画像入力部100から画像を入力する前段で、誰の顔の画像を入力するのかを示す情報を予め入力しておき、特徴量変化量算出部103が処理を行う際に、この情報を元に参照特徴量を決定すれば、ユーザ毎の参照特徴量を用いて上記差分を計算することができ、後述する表情判別処理の精度をより一層上げることができる。
また、この参照特徴保持部102にはユーザ毎の参照特徴量の代わりに、平均的な顔における無表情の画像から、特徴量抽出部101で行われる上記特徴量検出処理によって検出された、この無表情の顔における特徴量が保持されていてもよい。
このようにして、特徴量変化量算出部103によって求められた、各部位の特徴量の変化を示す、各変化量のデータは、後段の得点算出部104に出力される。
得点算出部104は、各特徴量の変化量と、予め求められ、メモリ(例えばRAM2302)が保持する「重み」とに基づいて、得点の算出を行う。重みについては、予め各部位毎に変化量の個人差などに対する分析を行っており、この分析結果に応じて各特徴量毎に適切な重みを設定する。
例えば、眼のエッジの長さなど比較的変化量が小さい特徴やしわなど変化量に個人差がある特徴は重み付けを小さくし、眼と口の端点距離など変化量に個人差が出にくい特徴は重み付けを大きくとることである。
図6は例として変化量に個人差が存在する特徴である眼のエッジの長さの変化量から得点を算出するために参照するグラフである。
横軸が特徴量変化量(以下、参照顔での特徴量で正規化した値)、縦軸が得点を表しており、例えば、眼のエッジの長さの変化量が0.4であるとするとグラフから得点は50点と算出される。眼のエッジの長さの変化量が1.2である場合でも変化量が0.3の場合と同じように得点が50点と算出され、個人差により変化量が大きく異なった場合でも得点差が小さくなるよう重み付けを行っている。
図7は変化量の個人差がない特徴である眼と口の端点距離の長さの変化量から得点を算出するために参照するグラフである。
図6と同様に、横軸が特徴量変化量、縦軸が得点を表しており、例えば、眼と口の端点距離の長さの変化量が1.1である場合にはグラフから50点が算出され、眼と口の端点距離の長さの変化量が1.3である場合にはグラフから55点が算出される。つまり、個人差により変化量が大きく異なった場合には得点差が大きくなるように重み付けを行っている。
即ち、「重み」は、得点算出部104が得点を算出する際の変化量区分幅と得点幅の比に対応するのである。このように特徴量毎に重みを設定するという工程を行うことで特徴量変化量の個人差を吸収させ、さらに、表情判別は1つの特徴のみに依存しないので、誤検出や未検出を減少させ、表情判別(認識)率を向上させることができる。
なお、RAM2302には図5,6に示したグラフのデータ、即ち、特徴量の変化量と得点との対応関係を示すデータが保持されており、これを用いて得点を算出する。
得点算出部104が求めた各特徴量毎の得点のデータは、各得点がどの特徴量に対するものであるかを示すデータと共に後段の表情判定部105に出力される。
RAM2302には、表情判別処理を行う前に、予め各表情において、得点算出部104による上記処理によって求めた各特徴量毎の得点のデータが保持されている。
従って表情判定部105は、
1 各特徴量毎の得点の総和値と所定の閾値との比較処理
2 各特徴量毎の得点の分布と、各表情毎の各特徴量毎の得点の分布とを比較する処理
を行うことで、表情の判別を行う。
例えば、喜びの表情を示す表情は
1 眼尻が下がる
2 頬の筋肉が持ち上がる
3 口の端が持ち上がる
などの特徴が見られるため、算出される得点の分布は図9に示すように、「眼の端点と口端点の距離」、「頬周りのエッジ密度」、「口の線エッジの長さ」の得点が非常に高く、続いて「眼の線エッジの長さ」、「眼の線エッジの形状」の得点も他の特徴量に比べて高い得点となり、喜び表情に特有な得点分布となる。この特有な得点分布は他の表情に関しても同様なことが言える。図9は、喜びの表情に対する、得点の分布を示す図である。
従って、表情判定部105は、得点算出部104が求めた各特徴量の得点による分布の形状が、どの表情に特有の得点分布の形状に最も近いかを特定し、最も近い形状の得点分布が示す表情が、判定結果として出力すべき表情となる。
ここで、形状が最も近い得点分布を探す方法としては、例えば、分布の形状を混合ガウシアン近似してパラメトリックにモデル化し、求めた得点分布と各表情毎に設けられた得点分布との類似度判別を、パラメータ空間内の距離の大小を判定することにより求める。そして、求めた得点分布とより類似度の高い得点分布(より距離の小さい得点分布)が示す表情を、判定の候補とする。
次に、得点算出部104が求めた各特徴量の得点の総和が閾値以上であるか否かを判定する処理を行う。この比較処理は、表情場面に類似した非表情場面を表情場面と正確に判定するためにより有効な処理である。従ってこの総和値が所定の閾値以上である場合には上記候補を、最終的に判定した表情として判別する。一方、この総和値が所定の閾値よりも小さい場合には上記候補は破棄し、入力画像における顔は無表情、もしくは非表情であると判定する。
また、上記得点分布の形状の比較処理において、上記類似度がある値以下である場合にはこの時点で入力画像における顔は無表情、もしくは非表情であると判定し、得点算出部104が求めた各特徴量の得点の総和値と閾値との比較処理を行わないで処理を終了するようにしても良い。
図8は、得点算出部104が求めた各特徴量毎の得点を用いて、入力画像における顔の表情が「特定の表情」であるか否かを判定する場合の判定処理のフローチャートである。
まず、表情判定部105は、得点算出部104が求めた各特徴量の得点による分布の形状が、特定の表情に特有の得点分布の形状と近いか否かを判断する(ステップS801)。これは例えば、求めた得点分布と特定の表情の得点分布との類似度が所定値以上である場合には、「得点算出部104が求めた各特徴量の得点による分布の形状が、特定の表情に特有の得点分布の形状と近い」と判定する。
近いと判定された場合には処理をステップS802に進め、次に、得点算出部104が求めた各特徴量の得点の総和値が所定の閾値以上であるか否かの判定処理を行う(ステップS802)。そして閾値以上であると判定された場合には、入力画像における顔の表情は上記「特定の表情」であると判定し、その判定結果を出力する。
一方、ステップS801で近くないと判定された場合、ステップS802で上記総和値が閾値よりも小さいと判定された場合には処理をステップS804に進め、入力画像が非表情画像である、若しくは無表情画像であるという旨を示すデータを出力する(ステップS804)。
なお、本実施形態では表情判別処理として、各特徴量毎の得点の総和値と所定の閾値との比較処理、及び各特徴量毎の得点の分布と、各表情毎の各特徴量毎の得点の分布とを比較する処理の両方を行っていたが、これに限定されるものではなく、何れか一方の比較処理を行うのみとしても良い。
以上の処理により、本実施形態によれば、得点分布の比較処理、及び得点の総和値との比較処理を行うので、入力画像における顔の表情がどの表情であるかをより正確に判別できる。また、入力画像における顔の表情が特定の表情であるか否かを判別することもできる。
[第2の実施形態]
図10は本実施形態に係る画像処理装置の機能構成を示すブロック図である。図1と同じ部分については同じ番号を付けており、その説明は省略する。なお本実施形態に係る画像処理装置の基本構成については、第1の実施形態と同じ、即ち図23に示したものと同じである。
以下、本実施形態に係る画像処理装置について説明する。上述のように、本実施形態に係る画像処理装置の機能構成において、第1の実施形態に係る画像処理装置の機能構成と異なる点は、表情判定部165である。従って以下ではこの表情判定部165について詳細に説明する。
図11は表情判定部165の機能構成を示すブロック図である。同図に示すように、表情判定部165は表情可能性判定部170と、表情確定部171から成る。
表情可能性判定部170は、得点算出部104から得られた各特徴量の得点から成る得点分布と各得点の総和値とを用いて第1の実施形態と同様の表情判定処理を行い、その判定結果を「表情の可能性判定結果」とする。例えば、喜びの表情であるか否かの判定を行う場合、得点算出部104で得られた得点の分布と総和値から「喜びの表情である」と判定を行うのではなくて、「喜びの表情である可能性がある」と判定を行う。
この可能性判定は、例えば、非表情場面である会話場面での発音「い」と「え」の顔面の各特徴変化と、喜び場面の顔面の各特徴変化はほぼ全く同じ特徴変化であるので、これら会話場面である非表情場面と喜び場面とを区別するために行うものである。
次に、表情確定部171は、表情可能性判定部170で得られた表情可能性判定結果を用いて、ある特定の表情画像であるという判定を行う。図12は横軸を時系列画像の夫々固有に付けた画像番号、縦軸を得点の総和と閾値ライン182との差とし、真顔である無表情場面から喜び表情場面に変化した場合の得点総和と閾値ライン182との差を表した図である。
図13は横軸を時系列画像の画像番号、縦軸を得点の総和と閾値ライン183との差とし、非表情場面である会話場面の得点総和と閾値ライン183との差を表した図である。
図12の無表情場面から喜び表情場面に変化する場合を参照すると、初期過程から中間過程における得点変化は変動が大きいが、中間過程を過ぎた後は得点変動が緩やかになり、最終的には得点はほぼ一定になっている。つまり、無表情場面から喜び表情場面に変化する初期過程から中間過程では顔面の眼や口などの各部位は急激な変動を起こすが、中間過程から喜びになる過程間は眼や口の各特徴の変動は緩やかとなり最終的には変動しなくなることを示している。
この顔面の各特徴の変動特性は他の表情に対しても同様なことが言える。逆に図13の非表情場面である会話場面を参照すると、眼や口の顔の各特徴変化が喜びとほぼ同じである発音「い」の会話場面では、得点が閾値ラインを超える画像が存在する。しかし、発音「い」の会話場面では喜び表情場面とは異なり、顔面の各特徴は常に急激な変動を起こしているため、例え得点が閾値ライン以上になったとしても、すぐに得点が閾値ライン以下になるような傾向が見られる。
よって、表情可能性判定部170において表情の可能性判定を行い、この表情可能性判定結果の連続性から表情確定部171で表情を確定させる工程を行うことで会話場面と表情場面をより正確に判別できる。
なお、人間による顔表情の認知に関する視覚心理研究においても表情表出における顔面の動き、特に速度が表情からの感情カテゴリー判断を左右する要因となっていることはM.Kamachi,V.Bruce,S.Mukaida,J.Gyoba,S.Yoshikawa,and S.Akamatsu,”Dynamic prope rties influence the perception of facial expression,”Perception,vol.30,pp.875−887,July 2001でも明らかになっている。
次に、表情可能性判定部170、表情確定部が行う処理についてより詳細に説明する。
先ずある入力画像(mフレーム目の画像)について可能性判定部170が「第1の表情である」と判定したとする。この判定結果は表情確定部171に可能性判定結果として出力される。表情確定部171はこの判定結果をすぐには出力せずにその代わりに、可能性判定部170が第1の表情であると判定した回数をカウントする。なお、このカウントは可能性判定部170が第1の表情とは異なる第2の表情である判定をすると、0にリセットされる。
ここで表情確定部171がこの表情の判定結果(第1の表情であるという判定結果)をすぐに出力しないのは、これは上述の通り、ここで判断した表情はまだ上記様々な要因により不明瞭なものである可能性があることに起因するからである。
可能性判定部170はこの後も(m+1)フレーム目の入力画像、(m+2)フレーム目の入力画像、、、というように夫々の入力画像に対する表情判定処理を行うのであるが、表情確定部171によるカウント値がnに達した場合、即ち、可能性判定部170がmフレーム目から連続してnフレーム分全て「第1の表情である」と判定すると、表情確定部171はこの時点が「第1の表情の開始時」であること、即ち(m+n)フレーム目が開始フレームであることを示すデータをRAM2302に記録し、この時点以降、可能性判定部170が第1の表情とは異なる第2の表情である判定をした時点までを喜びの表情とする。
図12を用いた上記説明のように、表情場面では一定期間得点総和と閾値との差が変化しなくなる、即ち、一定期間同じ表情が続く。逆に、一定期間同じ表情が続かない場合には図13を用いた上記説明のように、非表情場面である会話場面の可能がある。
従って、可能性判定部170が行う上記処理によって、一定期間(ここではnフレーム分)同じ表情の可能性を判定すれば、初めてその表情を最終的な判断結果として出力するので、このような非表情場面である会話場面等による表情判定処理に外乱となる要素を取り除くことが出来、より正確な表情判定処理を行うことができる。
図14は、表情確定部171が行う、画像入力部100から連続して入力される画像において、喜びの表情の開始時を決定する処理のフローチャートである。
まず、可能性判定部170による可能性判定結果が喜びであることを示すものである場合には(ステップS190)、処理をステップS191に進め、表情確定部171によるカウントの値がp(図14ではp=4とする)に達した場合(ステップS191)、即ち、可能性判定部170による可能性判定結果がpフレーム連続して喜びと判定された場合に、この時点を「喜び開始」と判断し、この旨を示すデータ(例えば現在のフレーム番号データ、及び喜び開始を示すフラグデータ)をRAM2302に記録する(ステップS192)。
以上の処理によって、喜びの表情の開始時(開始フレーム)を特定することができる。
図15は、表情確定部171が行う、画像入力部100から連続して入力される画像において、喜びの表情の終了時を決定する処理のフローチャートである。
先ず、表情確定部171はステップS192においてRAM2302に記録された上記フラグデータを参照し、現在、喜びの表情を開始して、且つ終了していないかを判断する(ステップS200)。後述するが、喜びの表情が終了したらこのデータはその旨に書き換えられるので、このデータを参照することで、現在喜びの表情が終了しているのか否かを判定することができる。
まだ喜びの表情が終了していない場合には処理をステップS201に進め、表情可能性部170で喜びである可能性がないとq(図15ではq=3とする)フレーム連続して判定された場合(表情確定部171によるカウントがqフレーム連続0である場合)、この時点を「喜び終了」と判断し、上記フラグデータを「喜びが終了したことを示すデータ」に書き換えてRAM2302に記録する(ステップS202)。
しかし、ステップS201において、表情可能性部170で喜びである可能性がないとqフレーム連続して判定されていない場合(表情確定部171によるカウントがqフレーム連続0ではない場合)、最終的な表情判定結果として、入力画像中の顔の表情を「喜んでる」と判定し、上記データは操作しない。
そして喜びの表情の終了後、表情確定部171は、開始時から終了時までの各フレームにおける表情を「喜び」と判定する。
このように、表情開始画像と表情終了画像を決定し、その間の画像をすべて表情画像と判定を行うことで、その間の画像に対しての表情判断処理の誤判定などの発生を抑制することが出来、全体として表情判断処理の精度を上げることができる。
なお、本実施形態では「喜び」の表情を判断するための処理を例にとって説明したが、この表情が「喜び」以外であってもその処理内容は基本的には同じであることは明白である。
[第3の実施形態]
図16は本実施形態に係る画像処理装置の機能構成を示すブロック図である。図1とほぼ同じ動作を行う部分については同じ番号を付けており、その説明は省略する。なお本実施形態に係る画像処理装置の基本構成については、第1の実施形態と同じ、即ち図23に示したものと同じである。
本実施形態に係る画像処理装置は、入力画像中の顔の表情が何であるかの候補を1つ以上入力しておき、入力画像中の顔の表情がこの入力した1つ以上の何れであるかを判定するものである。
以下、本実施形態に係る画像処理装置についてより詳細に説明する。上述のように、本実施形態に係る画像処理装置の機能構成において、第1の実施形態に係る画像処理装置の機能構成と異なる点は、表情選択部211、特徴量抽出部212、表情判定部216である。従って以下ではこの表情選択部211、特徴量抽出部212、表情判定部216について詳細に説明する。
表情選択部211は、1つ以上の表情の候補を入力するためのものである。入力には例えば表示装置2306の表示画面上に表示される、複数の表情を選択するためのGUI上で、1つ以上の表情をキーボード2304やマウス2305を用いて選択するようにしても良い。なお選択した結果はコード(例えば番号)として特徴量抽出部212、特徴量変化量算出部103に出力される。
特徴量抽出部212は、画像入力部100から入力された画像における顔から、表情選択部211で選択された表情を認識するための特徴量を求める処理を行う。
表情判定部216は、画像入力部100から入力された画像における顔が、表情選択部211で選択された表情の何れであるかを判別する処理を行う。
図17は特徴量抽出部212の機能構成を示すブロック図である。なお、同図において図2と同じ部分については同じ番号を付けており、その説明は省略する。以下、図17に示した各部について説明する。
各表情毎の特徴量抽出部224は、顔面の特徴点抽出部113で得られた特徴点情報を用いて、表情選択部211が選択した表情に応じた特徴量を算出する。
図18は表情選択部211が選択した各表情(表情1,表情2,表情3)に応じた特徴量を示す図である。例えば同図によると、表情1を認識するためには特徴1乃至4を算出する必要があるし、表情3を認識するためには特徴2乃至5を算出する必要がある。
例えば、表情選択部211で喜び表情を選択したと仮定すると、喜び表情に必要な特徴は眼と口の端点距離、眼のエッジの長さ、眼のエッジの傾き、口エッジの長さ、口エッジの傾き、頬周りのエッジ密度の6特徴であるというように表情別に個別の特徴量が必要となる。
このような、各表情を認識するために必要な特徴量を示すテーブル(図18に例示するような対応関係を示すテーブル)、即ち、表情選択部211から入力される表情を示すコードと、この表情を認識するためにはどのような特徴量を求めるのかを示すデータとが対応付けられたテーブルはRAM2302に予め記録されているものとする。
上述の通り、表情選択部211からは選択した表情に応じたコードが入力されるので、特徴量抽出部212は、このテーブルを参照することで、このコードに応じた表情を認識するための特徴量を特定することができ、その結果、表情選択部211が選択した表情に応じた特徴量を算出することができる。
図16に戻って、次に後段の特徴量変化量算出部103は第1の実施形態と同様に特徴量抽出部212による特徴量と、参照特徴保持部102が保持する特徴量との差分を計算する。
なお、特徴量抽出部212が算出する特徴量は、表情によってその数や種類が異なる。従って本実施形態に係る特徴量変化量算出部103は、表情選択部211が選択した表情を認識するために必要な特徴量を参照特徴保持部102から読み出して用いる。表情選択部211が選択した表情を認識するために必要な特徴量の特定は、特徴量抽出部212が用いた上記テーブルを参照すれば特定することができる。
例えば、喜び表情に必要な特徴は眼と口の端点距離、眼のエッジの長さ、眼のエッジの傾き、口エッジの長さ、口エッジの傾き、頬周りのエッジ密度の6特徴であるので、この6特徴と同様の特徴を参照特徴保持部102から読み出し、用いる。
特徴量変化量算出部103からは各特徴量の変化量が出力されるので、得点算出部104は第1の実施形態と同様の処理を行う。本実施形態では表情選択部211によって複数の表情が選択されている場合があるので、選択された夫々の表情毎に、第1の実施形態と同様の得点算出処理を行い、表情毎に各特徴量毎の得点を算出する。
図19は各表情毎に、各変化量に基づいて得点を算出する様子を示す模式図である。
そして表情判定部105は、表情選択部211によって複数された表情毎に得点の総和値を求める。この夫々の表情毎の総和値において、最も高い値を示す表情が、入力画像における顔の表情とすることができる。
例えば、喜び、悲しみ、怒り、驚き、嫌悪、恐怖の表情のうちで喜び表情が最も高い得点総和ならば、表情は喜び表情であると判定されるということである。
[第4の実施形態]
本実施形態に係る画像処理装置は、入力画像中の顔の表情を判定した場合に、更に、表情場面での表情の度合いを判定する。本実施形態に係る画像処理装置の基本構成、機能構成については第1乃至3の何れの実施形態のものを適用しても良い。
まず、表情の度合いを判定する方法では、表情判定部においてある特定の表情であると判定された入力画像に対して、得点算出部で算出された得点変化の推移もしくは得点総和を参照する。
もし、得点算出部で算出された得点総和が得点の総和の閾値と比較して閾値との差が小さいならば、喜びの度合いは小さいと判定される。逆に、得点算出部で算出された得点の総和が閾値と比較して閾値との差が大きいならば、喜びの度合いが大きいと判定される。この方法は、喜びの表情以外の他の表情に対しても同様に表情の度合いを判定できる。
[第5の実施形態]
また、上記実施形態において、得点算出部で算出された眼の形状の得点から眼をつぶっているか否かの判定を行うこともできる。
図21は参照顔の眼のエッジ、即ち、眼を開いている場合の眼のエッジを示した図であり、図22は眼をつぶった場合の眼のエッジを示した図である。
特徴量抽出部で抽出された眼をつぶった場合の眼のエッジ316の長さは参照画像の眼のエッジ304の長さと比べて全く変化しない。
しかし、図21の眼を開いている場合の眼のエッジ304の特徴点305と306を結んで得られる直線308の傾きと、図22の眼をつぶった場合の眼のエッジ316の特徴点310と311を結んで得られる直線313の傾きを比べると、眼を開いた状態から眼をつぶった状態に変化した場合には直線の傾きの変化量が負となっている。
また、図21の眼を開いている場合の眼のエッジ304の特徴点306と307から得られる直線309の傾きと、図22の眼をつぶった場合の眼のエッジ316の特徴点311と312から得られる直線314の傾きを比べると、眼を開いた状態から眼をつぶった状態に変化した場合には直線の傾きの変化量が正となっている。
そこで、眼のエッジの長さが全く変化せず、眼のエッジから得られる上述した左右2本の直線の傾きの変化量の絶対値が参照画像の眼のエッジに対して、それぞれある所定値以上で、一方が負かつ他方が正の変化をした場合には眼をつぶっている可能性が高いと判定することができ、直線の傾きの変化量に応じて極端に得点算出部で得られる得点を小さくしている。
図20は、得点算出部で算出された眼の形状の得点から眼をつぶっているか否かの判定処理のフローチャートである。この処理は表情判定部で行われるものである。
上述のように、目の形状に対する得点が閾値以下であるか否かを判断し、閾値以下であれば目をつぶっている、否であれば目をつぶっていないと判定する。
[第6の実施形態]
図24は本実施形態に係る画像処理装置の機能構成を示すブロック図である。図1とほぼ同じ動作を行う部分については同じ番号を付けており、その説明は省略する。なお本実施形態に係る画像処理装置の基本構成については、第1の実施形態と同じ、即ち図23に示したものと同じである。
特徴量抽出部701は図25に示す如く、鼻と眼と口位置算出部710、エッジ画像生成部711、顔面の各特徴エッジ抽出部712、顔面の特徴点抽出部713、表情特徴量抽出部714から構成される。図25は、特徴量抽出部701の機能構成を示すブロック図である。
正規化特徴変化量計算部703は、特徴量抽出部701から得られる夫々の特徴量と参照特徴保持部702から得られる夫々の特徴量の比を算出する。なお、正規化特徴変化量算出部703で算出される夫々の特徴変化量は笑顔を検出すると仮定した場合には「眼と口の端点距離」、「眼のエッジの長さ」、「眼のエッジの傾き」、「口エッジの長さ」、「口エッジの傾き」である。さらに、顔のサイズ変動や顔の回転変動に応じて各特徴量を正規化する。
正規化特徴変化量算出部703で得られたそれぞれの特徴変化量の正規化方法について説明する。図26は、画像における顔中の目、鼻の重心位置を示す図である。同図において720,721はそれぞれ右目、左目の重心位置、722は花の重心位置を示す。特徴量抽出部701の鼻と眼と口位置検出部710で鼻・眼・口のそれぞれのテンプレートを用いることによって検出された鼻の重心位置722、眼の重心位置720、721から、図28に示す如く、右目位置と顔位置水平方向距離730、左目位置と顔位置水平方向距離731、左右眼の垂直方向の座標平均と顔位置との垂直方向距離732を算出する。
右目位置と顔位置水平方向距離730、左目位置と顔位置水平方向距離731、左右眼の垂直方向の座標平均と顔位置との垂直方向距離732の比a:b:cは、顔サイズが変動した場合には図29に示す如く、右目位置と顔位置水平方向距離733、左目位置と顔位置水平方向距離734、左右眼の垂直方向の座標平均と顔位置との垂直方向距離735のそれぞれの比a1:b1:c1とほとんど変化はないが、サイズ変動しない場合の右目位置と顔位置水平方向距離730とサイズ変動した場合の右目位置と顔位置水平方向距離733の比a:a1は顔サイズ変動に応じて変化する。なお、右目位置と顔位置水平方向距離730、左目位置と顔位置水平方向距離731、左右眼の垂直方向の座標平均と顔位置との垂直方向距離732を算出する際には図27に示す如く、鼻と眼の重心位置以外に眼の端点位置(723、724)や左右それぞれの鼻腔位置や左右鼻腔位置の重心(725)を用いても良い。眼の端点を算出する方法は、例えばエッジを走査する方法や眼の端点検出用のテンプレートを用いる方法や、鼻腔位置に関しても鼻腔検出用テンプレートを用いて左右の鼻腔の重心やそれぞれ左右鼻腔位置を用いる方法がある。変動を判定するための特徴間距離も左右の目頭間距離など他の特徴を用いても良い。
さらに、図30に示す如く、左右眼の垂直方向の座標平均と顔位置との垂直方向距離738と図28の顔が回転しない場合の左右眼の垂直方向の座標平均と顔位置との垂直方向距離732との比c:c2は顔の上下回転によって比が変化する。
また、図31に示す如く、右目位置と顔位置水平方向距離739と左目位置と顔位置水平方向距離740の比a3:b3は図28の顔が左右回転しない場合の右目位置と顔位置水平方向距離730と左目位置と顔位置水平方向距離731の比a:bと比べると比が変化する。
また、顔の左右回転した場合には、図32に示す参照画像(無表情時の画像)の右眼端点間距離d1と左眼端点間距離e1の比g1(=d1/e1)と、図33に示す入力画像(笑顔時の画像)の右眼端点間距離d2と左眼端点間距離e2の比g2=(d2/e2)の比g2/g1を用いることもできる。
図34はサイズ変動、左右回転変動、上下回転変動を判定する処理のフローチャートである。同図のフローチャートを用いてサイズ変動、左右回転変動、上下回転変動を判定する処理について説明するのであるが、その際に図28を「変動していない状態で眼と鼻の位置間を直線で結んだ図」、図35を「サイズ変動、左右回転変動ないしは上下変動した後の眼と鼻の位置間を直線で結んだ図」として用いるものとする。
まず、ステップS770において、a:b:cとa4:b4:c4の比が同じであるかの判定を行う。この「同じである」という判定は、「全く同じ」であることに限定するものではなく、「両者の比の差がある許容範囲内」であれば「同じである」と判断しても良い。
ステップS770の判定処理でa:b:cとa4:b4:c4の比が同じであると判断した場合には処理をステップS771に進め、「変化なし、もしくはサイズ変動のみである」と判断し、更に処理をステップS772に進め、a/a4が1であるか否かを判断する。
a/a4が1である場合には処理をステップS773に進め、「サイズ変動かつ回転変動がない」と判断する。一方、ステップS772でa/a4が1ではないと判断した場合には処理をステップS774に進め、「サイズ変動のみ」と判断する。
一方、ステップS770における判断処理で、a:b:cとa4:b4:c4の比が同じではないと判定された場合には処理をステップS775に進め、「上下回転、左右回転、上下回転かつサイズ変動、左右回転かつサイズ変動、上下回転かつ左右回転、上下回転かつ左右回転かつサイズ変動の何れかである」と判断する。
そして処理をステップS776に進め、a:bとa4:b4の比が同じであるか否かを判定し(ここでの「同じである」という判断についてもステップS770におけるものと同じである)、同じであると判断した場合には処理をステップS777に進め、「上下回転、上下回転かつサイズ変動の何れか」と判断する。そして処理をステップS778に進め、a/a4が1であるか否かを判断する。a/a4が1ではないと判断した場合には処理をステップS779に進め、「上下回転かつサイズ変動である」と判断する。一方、a/a4が1であると判断された場合には、処理をステップS780に進め、「上下回転のみである」と判定する。
一方、ステップS776において、a:bとa4:b4の比が同じではないと判断された場合には処理をステップS781に進め、ステップS778と同様にa/a4が1であるか否かを判断する。
そしてa/a4が1である場合には処理をステップS782に進め、「左右回転、上下回転かつ左右回転の何れかである」と判断する。そして処理をステップS783に進め、c/c3が1であるか否かを判断する。c/c3が1ではないと判断された場合には処理をステップS784に進め、「上下回転かつ左右回転である」と判断し、一方、c/c3が1であると判断した場合には処理をステップS785に進め、「左右回転である」と判定する。
一方、ステップS781において、a/a4が1ではないと判断した場合には処理をステップS786に進め、「左右回転かつサイズ変動、上下回転かつ左右回転かつサイズ変動の何れかである」と判断する。そして処理をステップS787に進め、(a4/b4)/(a/b)が1よりも大きいか否かを判断する。
そして(a4/b4)/(a/b)が1よりも大きい場合には処理をステップS788に進め、「左回転」と判定する。そして処理をステップS789に進め、a:cとa4:c4の比が同じ(「同じである」の基準はステップS770と同じ)であるか否かを判断し、同じである場合には処理をステップS790に進め、「左右回転かつサイズ変動である」と判断する。一方、a:cとa4:c4の比が同じでない場合には処理を処理をステップS793に進め、「上下回転かつ左右回転かつサイズ変動である」と判断する。
一方、ステップS787において(a4/b4)/(a/b)が1以下であると判断した場合には処理をステップS791に進め、「右回転」と判定する。そして処理をステップS792に進め、b:cとb4:c4の比が同じ(「同じである」の基準はステップS770と同じ)であるか否かを判断する。そして同じである場合には処理をステップS790に進め、「左右回転かつサイズ変動である」と判断する。一方、b:cとb4:c4の比が同じではない場合には処理をステップS793に進め、「上下回転かつ左右回転かつサイズ変動である」と判断する。それぞれのステップで用いられている比などは、フローチャートに書かれているものに限定されるわけではない。例えば、ステップS772、ステップS778、ステップS781ではb/b4や(a+b)/(a4+b4)などを用いても良い。
以上の処理によって、顔のサイズ変動や顔の回転変動した場合の判別が可能となる。さらに、これらの変動が判別された場合には正規化特徴変化量算出部703で得られる夫々の特徴変化量を正規化することによって顔のサイズが変動した場合や顔が回転した場合においても表情の認識が可能となる。
特徴量正規化方法は、例えば、サイズ変動のみである場合については、図28と図29を用いて説明すると、入力画像から得られるすべての特徴変化量を1/(a1/a)倍すれば良い。なお、1/(a1/a)ではなくて1(1b/b)、1/((a1+b1)/(a+b))、1/(c1/c)やそれ以外の特徴を用いても良い。また、図36に示すように、上下回転かつサイズ変動した場合には、上下回転が影響を与える目の端点と口の端点距離を(a5/c5)/(a/c)倍した後ですべての特徴量を1/(a1/a)倍すれば良い。上下回転した場合においても同様に(a5/c5)/(a/c)を用いることに限定するわけではない。このようにして顔のサイズ変動、上下左右回転変動を判定し、特徴変化量を正規化することによって顔のサイズが変動した場合や顔が上下左右回転変動した場合でも表情の認識が可能である。
図37は、左右眼及び鼻の位置検出から上下・左右回転変動、サイズ変動に応じて各特徴量を正規化し、表情判定する処理のフローチャートである。
ステップS870で左右眼の重心座標と鼻の重心座標を検出した後、ステップS871で左右・上下回転変動またはサイズ変動の判定を行い、もし、左右・上下回転変動がない場合にはステップS872で特徴変化量正規化必要ないと判定され、参照特徴量との比を算出することにより特徴量の変化量を算出し、ステップS873で各特徴毎の得点算出を行い、ステップS874で各特徴量変化量から算出された得点総和を算出する。一方、ステップS871で左右・上下回転変動またはサイズ変動がありと判定された場合、ステップS875で各特徴量正規化必要ありと判定され、各特徴量を参照特徴量との比を算出することにより特徴量の変化量を算出し、上下・左右回転変動またはサイズ変動に応じて特徴量の変化量を正規化した後、ステップS873で各特徴量変化量毎の得点算出を行い、ステップS874で各特徴量変化量から算出された得点総和を算出する。
そして算出された得点の総和から、ステップS876で入力画像における顔の表情の判定を第1の実施形態と同様にして行う。
[第7の実施形態]
図38は本実施形態に係る撮像装置の機能構成を示すブロック図である。本実施形態に係る撮像装置は同図に示す如く、撮像部820、画像処理部821、画像2次記憶部822から構成されている。
図39は、撮像部820の機能構成を示す図で、撮像部820は大まかには同図に示す如く、結像光学系830、固体撮像素子831、映像信号処理832、画像1次記憶部833により構成されている。
結像光学系830は例えばレンズであって、周知の通り後段の固体撮像素子831に対して外界の光を結像させる。固体撮像素子831は例えばCCDであって、周知の通り結像光学系830により結蔵された像を電気信号に変換し、結果として撮像画像を電気信号として後段の映像信号処理回路832に出力され、映像信号処理部832はこの電気信号に対してA/D変換を施し、ディジタル信号として後段の画像1次記憶部833に出力する。すなわち、画像1次記憶部833には、撮像画像のデータが出力される。画像1次記憶部833は例えばフラッシュメモリなどの記憶媒体で構成されており、この撮像画像のデータを記憶する。
図40は画像処理部821の機能構成を示すブロック図である。画像処理部821は、上記画像1次記憶部833に記憶されている撮像画像データを読み出し、後段の特徴量抽出部842に出力する画像入力部840、後述する表情情報を入力し、後段の特徴量抽出部842に出力する表情情報入力部841、特徴量抽出部842、参照特徴保持部843、特徴量抽出部842による特徴量の比を算出することで変化量算出を行う変化量計算部844、回転・上下変動またはサイズ変動に応じて変化量計算部844で算出された各特徴の変化量を正規化する変化量正規化部845、変化量正規化部845で正規化された各特徴の変化量から各変化量毎に得点算出を行う得点算出部846、表情判定部847により構成されている。同図に示した各部は特に説明がない限りは、上記実施形態において同じ名前の部分と同じ機能を有するものである。
なお、表情情報入力部841では撮影したい表情を撮影者が選択することにより撮影表情情報が入力される。つまり、撮影者が笑顔を撮影したい場合には笑顔撮影モードを選択する。これにより笑顔のみを撮影するようにする。よって、この表情情報とは、選択された表情を示す情報である。なお、選択する表情は1つに限定するものではなく、複数であっても良い。
図41は、特徴量抽出部842の機能構成を示すブロック図である。特徴量抽出部842は同図に示す如く、鼻と眼と口位置検出部850、エッジ画像生成部851、顔面の各特徴エッジ抽出部852、顔面の特徴点抽出部853、表情特徴量抽出部854により構成されている。各部の機能については図25に示した各部と同じであるのでその説明は省略する。
画像処理部821における画像入力部840は、画像1次記憶部833に記憶されている撮像画像のデータを読み出し、後段の特徴量抽出部842に出力する。特徴量抽出部842は、表情情報入力部841から入力された表情情報に基づいて、撮影者の選択による撮影したい表情の特徴量を抽出する。例えば、撮影者が笑顔を撮影したい場合には笑顔認識に必要な特徴量を抽出するということである。
更に、変化量計算部844は、抽出した各特徴量と、参照特徴保持部843が保持する各特徴量との比を算出することによって各特徴量の変化量を算出し、変化量正規化845では変化量計算部844で得られた各特徴変化量の比を顔のサイズ変動や顔の回転変動に応じて正規化する。そして、得点算出部846で各特徴毎の重みと各特徴毎の変化量に応じて得点算出を行う。
図42は表情判定部846の機能構成を示すブロック図である。表情可能性判定部860は、第2の実施形態と同様に得点算出部846で算出された各特徴毎の得点総和の閾値処理により表情情報入力部841で得られた表情の可能性判定を行い、表情確定部861は、この表情可能性判定結果の連続性から表情情報入力部847で得られた表情であると確定している。もし、表情情報入力部847で得られた表情である場合には撮影部820で得られた画像データを画像2次記憶部822に記憶する。
このようにすることで、撮影者が意図した表情の画像のみを記録することができる。
なお、画像処理部821の機能構成はこれに限定されるものではなく、上記各実施形態における表情認識処理を行うべく構成された装置(もしくはプログラム)を適用しても良い。
[第8の実施形態]
図43は本実施形態に係る撮像装置の機能構成を示すブロック図である。図38と同じ部分については同じ番号を付けており、その説明を省略する。本実施形態に係る撮像装置は、第7の実施形態に係る撮像装置に更に画像表示部873を付加した構成を備える。
画像表示部873は液晶画面などにより構成されており、画像2次記憶部822に記録された画像を表示する。なお、画像表示部873に表示する画像は、画像処理部871で撮影者により選択された画像のみを表示する場合でも良い。また、画像表示部873に表示した画像を撮影者が画像2次記憶部872に記憶するか削除するか選択することも可能であり、そのためには例えば画像表示部873をタッチパネル形式の液晶画面により構成し、この表示画面に画像表示部873に表示した画像を撮影者が画像2次記憶部872に記憶するか削除するか選択する為のメニューを表示し、その何れかを撮影者が表示画面上で選択できるようにしても良い。
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係る画像処理装置の機能構成を示すブロック図である。 特徴量抽出部101の機能構成を示すブロック図である。 エッジ画像における眼領域、頬領域、口領域を示す図である。 顔面の特徴点抽出部113が検出する各特徴点を示す図である。 「眼の線エッジの形状」を説明するための図である。 例として変化量に個人差が存在する特徴である眼のエッジの長さの変化量から得点を算出するために参照するグラフである。 変化量の個人差がない特徴である眼と口の端点距離の長さの変化量から得点を算出するために参照するグラフである。 得点算出部104が求めた各特徴量毎の得点を用いて、入力画像における顔の表情が「特定の表情」であるか否かを判定する場合の判定処理のフローチャートである。 喜びを示す表情に対する得点の分布の一例を示す図である。 本発明の第2の実施形態に係る画像処理装置の機能構成を示すブロック図である。 表情判定部165の機能構成を示すブロック図である。 横軸を時系列画像の夫々固有に付けた画像番号、縦軸を得点の総和と閾値ライン182との差とし、真顔である無表情場面から喜び表情場面に変化した場合の得点総和と閾値ライン182との差を表した図である。 横軸を時系列画像の画像番号、縦軸を得点の総和と閾値ライン183との差とし、非表情場面である会話場面の得点総和と閾値ライン183との差を表した図である。 表情確定部171が行う、画像入力部100から連続して入力される画像において、喜びの表情の開始時を決定する処理のフローチャートである。 表情確定部171が行う、画像入力部100から連続して入力される画像において、喜びの表情の終了時を決定する処理のフローチャートである。 本発明の第3の実施形態に係る画像処理装置の機能構成を示すブロック図である。 特徴量抽出部212の機能構成を示すブロック図である。 表情選択部211が選択した各表情(表情1,表情2,表情3)に応じた特徴量を示す図である。 各表情毎に、各変化量に基づいて得点を算出する様子を示す模式図である。 得点算出部で算出された眼の形状の得点から眼をつぶっているか否かの判定処理のフローチャートである。 参照顔の眼のエッジ、即ち、眼を開いている場合の眼のエッジを示した図である。 眼をつぶった場合の眼のエッジを示した図である。 本発明の第1の実施形態に係る画像処理装置の基本構成を示す図である。 本発明の第6の実施形態に係る画像処理装置の機能構成を示すブロック図である。 特徴量抽出部701の機能構成を示すブロック図である。 画像における顔中の目、鼻の重心位置を示す図である。 左右それぞれ目頭と鼻の重心を示した図である 何も変動がない場合の左右眼間距離、左右眼・鼻間距離、及び眼・鼻間距離を示した図である。 サイズ変動がある場合の左右眼間距離、左右眼・鼻間距離、及び眼・鼻間距離を示した図である。 上下回転変動がある場合の左右眼間距離、左右眼・鼻間距離、及び眼・鼻間距離を示した図である。 左右回転変動がある場合の左右眼間距離、左右眼・鼻間距離、及び眼・鼻間距離を示した図である。 無表情時の左右眼の端点間距離を示した図である。 笑顔時の左右眼の端点間距離を示した図である。 サイズ変動、左右回転変動、上下回転変動を判定する処理のフローチャートである。 サイズ変動、左右回転変動、上下回転変動のいずれかの変動があった場合の左右眼間距離、左右眼・鼻間距離、及び眼・鼻間距離を示した図である。 上下回転変動とサイズ変動がある場合の左右眼間距離、左右眼・鼻間距離、及び眼・鼻間距離を示した図である。 左右眼及び鼻の位置検出から上下・左右回転変動、サイズ変動に応じて各特徴量を正規化し、表情判定する処理のフローチャートである。 本発明の第7の実施形態に係る撮像装置の機能構成を示すブロック図である。 撮像部820の機能構成を示す図である。 画像処理部821の機能構成を示すブロック図である。 特徴量抽出部842の機能構成を示すブロック図である。 表情判定部846の機能構成を示すブロック図である。 本発明の第8の実施形態に係る撮像装置の機能構成を示すブロック図である。

Claims (11)

  1. 顔を含む連続するフレームの画像を入力する入力手段と、
    前記連続するフレームの各フレームの画像中の顔における予め設定された部位群の夫々について特徴量を求める第1の特徴量計算手段と、
    予め設定された表情の顔を含む画像における当該顔の前記予め設定された部位群の夫々について特徴量を求める第2の特徴量計算手段と、
    前記第1の特徴量計算手段が求めた特徴量と、前記第2の特徴量計算手段が求めた特徴量との差分または比に基づいて、前記予め設定された部位群の夫々の特徴量の変化量を求める変化量計算手段と、
    前記予め設定された部位群の夫々について前記変化量計算手段が求めた変化量に基づいて、前記予め設定された部位群の夫々について得点を計算する得点計算手段と、
    前記得点計算手段が前記予め設定された部位群の夫々について計算した得点の分布と、各表情毎に計算した、前記予め設定された部位群の夫々に対する得点の分布と、を比較することで、前記入力手段が入力した画像中の顔の表情を判断する第1の判断手段と
    連続したpフレームの夫々の画像中の顔の表情が第1の表情であると前記第1の判断手段が判断してから、当該判断後、連続したqフレームの夫々の画像中の顔の表情が前記第1の表情とは異なる第2の表情であると前記第1の判断手段が判断するまでの各フレームの画像中の顔の表情を、第1の表情として判断する第2の判断手段と
    を備えることを特徴とする画像処理装置。
  2. 前記変化量計算手段が、前記第1の特徴量計算手段が求めた特徴量と、前記第2の特徴量計算手段が求めた特徴量と、の差分または比に基づいて、前記予め設定された部位群の夫々の特徴量の変化量を求めた後、顔のサイズ変動、回転変動に基づく正規化値によって前記予め設定された部位群の夫々の特徴量の変化量を正規化し、
    前記得点計算手段が、前記予め設定された部位群の夫々について前記正規化された変化量に基づいて、前記予め設定された部位群の夫々について得点を計算することを特徴とする請求項1に記載の画像処理装置。
  3. 前記変化量計算手段は、
    前記第1の特徴量計算手段によって得られる眼領域の重心位置、眼の端点位置、鼻領域の重心位置、左右鼻腔の重心位置、左右それぞれの鼻腔位置の少なくとも1つを用いて両目間水平方向距離、眼・鼻間水平及び垂直方向距離と、前記第2の特徴量計算手段によって得られる眼領域の重心位置、眼の端点位置、鼻領域の重心位置、左右鼻腔の重心位置、左右鼻腔位置の少なくとも1つを用いて得られる両目間水平方向距離、眼・鼻間水平及び垂直方向距離を算出し、
    前記第1,2の特徴量計算手段によって得られる両目間水平及び垂直方向距離比、眼・鼻間水平及び垂直方向距離の比の少なくとも1つを用いることによって、前記変化量計算手段によって算出された前記予め設定された部位群の夫々の特徴量の変化量の正規化を行うことを特徴とする請求項に記載の画像処理装置。
  4. 前記変化量計算手段は、前記第1の特徴量計算手段から得られる左眼・右眼端点間距離比と、前記第2の特徴量計算手段から得られる左眼・右眼端点間距離比との比を用いて前記予め設定された部位群の夫々の特徴量の変化量の正規化を行うことを特徴とする請求項記載の画像処理装置。
  5. 前記第1の判断手段は更に、前記得点計算手段が前記予め設定された部位群の夫々について計算した得点の総和を求め、当該求めた総和の値が予め設定された値以上であるか否かに応じて、前記入力手段が入力した画像が表情場面であるか否かを判断し、
    当該判断結果を更に参照して、前記入力手段が入力した画像中の顔の表情を判断することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記第1,2の特徴量計算手段は、前記予め設定された部位群の夫々について画像上のエッジを求め、更に、求めた夫々の前記予め設定された部位のエッジにおける端点を求め、
    前記変化量計算手段は、前記予め設定された部位群の夫々について、エッジの長さの変化量、端点間の距離の変化量、2つの端点による線分の傾きの変化量のうち1つ以上を用いて特徴量の変化量を求めることを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置が有する入力手段が、顔を含む連続するフレームの画像を入力する入力工程と、
    前記画像処理装置が有する第1の特徴量計算手段が、前記連続するフレームの各フレームの画像中の顔における予め設定された部位群の夫々について特徴量を求める第1の特徴量計算工程と、
    前記画像処理装置が有する第2の特徴量計算手段が、予め設定された表情の顔を含む画像における当該顔の前記予め設定された部位群の夫々について特徴量を求める第2の特徴量計算工程と、
    前記画像処理装置が有する変化量計算手段が、前記第1の特徴量計算工程で求めた特徴量と、前記第2の特徴量計算工程で求めた特徴量との差分または比に基づいて、前記予め設定された部位群の夫々の特徴量の変化量を求める変化量計算工程と、
    前記画像処理装置が有する得点計算手段が、前記予め設定された部位群の夫々について前記変化量計算工程で求めた変化量に基づいて、前記予め設定された部位群の夫々について得点を計算する得点計算工程と、
    前記画像処理装置が有する第1の判断手段が、前記得点計算工程で前記予め設定された部位群の夫々について計算した得点の分布と、各表情毎に計算した、前記予め設定された部位群の夫々に対する得点の分布と、を比較することで、前記入力工程で入力した画像中の顔の表情を判断する第1の判断工程と
    前記画像処理装置が有する第2の判断手段が、連続したpフレームの夫々の画像中の顔の表情が第1の表情であると前記第1の判断工程で判断してから、当該判断後、連続したqフレームの夫々の画像中の顔の表情が前記第1の表情とは異なる第2の表情であると前記第1の判断工程で判断するまでの各フレームの画像中の顔の表情を、第1の表情として判断する第2の判断工程と
    を備えることを特徴とする画像処理方法。
  8. 請求項1に記載の画像処理装置と、
    前記入力手段に入力される前記連続するフレームの画像を撮像する撮像手段と、
    前記第1の判断手段で所定の表情であると判定された顔を含む画像を記憶する記憶手段と
    を備えることを特徴とする撮像装置。
  9. 更に、前記第1の判断手段で判定された画像を表示する画像表示手段を備えることを特徴とする請求項に記載の撮像装置。
  10. コンピュータを請求項1乃至の何れか1項に記載の画像処理装置が有する各手段として機能させる為のコンピュータプログラム。
  11. 請求項10に記載のコンピュータプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
JP2004167589A 2003-07-18 2004-06-04 画像処理装置、画像処理方法、撮像装置 Expired - Fee Related JP4612806B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2004167589A JP4612806B2 (ja) 2003-07-18 2004-06-04 画像処理装置、画像処理方法、撮像装置
CN200480024042.3A CN1839410B (zh) 2003-07-18 2004-07-16 图像处理设备、摄像设备、图像处理方法
PCT/JP2004/010208 WO2005008593A1 (ja) 2003-07-18 2004-07-16 画像処理装置、撮像装置、画像処理方法
EP04747673.4A EP1650711B1 (en) 2003-07-18 2004-07-16 Image processing device, imaging device, image processing method
EP15151440.3A EP2955662B1 (en) 2003-07-18 2004-07-16 Image processing device, imaging device, image processing method
EP18157708.1A EP3358501B1 (en) 2003-07-18 2004-07-16 Image processing device, imaging device, image processing method
US11/330,138 US8515136B2 (en) 2003-07-18 2006-01-12 Image processing device, image device, image processing method
US13/944,038 US8942436B2 (en) 2003-07-18 2013-07-17 Image processing device, imaging device, image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003199358 2003-07-18
JP2004167589A JP4612806B2 (ja) 2003-07-18 2004-06-04 画像処理装置、画像処理方法、撮像装置

Publications (3)

Publication Number Publication Date
JP2005056388A JP2005056388A (ja) 2005-03-03
JP2005056388A5 JP2005056388A5 (ja) 2010-04-15
JP4612806B2 true JP4612806B2 (ja) 2011-01-12

Family

ID=34379748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004167589A Expired - Fee Related JP4612806B2 (ja) 2003-07-18 2004-06-04 画像処理装置、画像処理方法、撮像装置

Country Status (1)

Country Link
JP (1) JP4612806B2 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041988A (ja) 2005-08-05 2007-02-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP2007067560A (ja) * 2005-08-29 2007-03-15 Canon Inc 撮像装置及びその制御方法、コンピュータプログラム及び記録媒体
US8542928B2 (en) 2005-09-26 2013-09-24 Canon Kabushiki Kaisha Information processing apparatus and control method therefor
JP4799104B2 (ja) * 2005-09-26 2011-10-26 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP4799105B2 (ja) * 2005-09-26 2011-10-26 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
WO2007043712A1 (ja) * 2005-10-14 2007-04-19 Nagasaki University 感情評価方法および感情表示方法、並びに、それらのための、プログラム、記録媒体およびシステム
JP4631696B2 (ja) * 2005-12-20 2011-02-16 富士ゼロックス株式会社 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP4845755B2 (ja) 2007-01-30 2011-12-28 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP4789825B2 (ja) * 2007-02-20 2011-10-12 キヤノン株式会社 撮像装置及びその制御方法
JP4999570B2 (ja) 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
JP4974788B2 (ja) 2007-06-29 2012-07-11 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP4891163B2 (ja) * 2007-07-04 2012-03-07 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP4720810B2 (ja) 2007-09-28 2011-07-13 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5092663B2 (ja) * 2007-10-03 2012-12-05 日産自動車株式会社 車両制御装置
JP5239396B2 (ja) * 2008-02-28 2013-07-17 セイコーエプソン株式会社 画像出力方法、画像出力装置および画像出力プログラム
JP4914398B2 (ja) 2008-04-09 2012-04-11 キヤノン株式会社 表情認識装置、撮像装置、方法及びプログラム
JP5153434B2 (ja) * 2008-04-22 2013-02-27 キヤノン株式会社 情報処理装置及び情報処理方法
JP5028338B2 (ja) * 2008-06-06 2012-09-19 日立オムロンターミナルソリューションズ株式会社 顔向き検出ユニット、および顔向き検出方法
JP5386880B2 (ja) * 2008-08-04 2014-01-15 日本電気株式会社 撮像装置、携帯電話端末、撮像方法、プログラム及び記録媒体
JP5397481B2 (ja) 2009-12-18 2014-01-22 富士通株式会社 画像選別装置及び画像選別方法
JP2012022579A (ja) * 2010-07-15 2012-02-02 Fujitsu Ltd 顔方向検出装置、顔方向検出プログラムおよび顔方向検出方法
JP5641813B2 (ja) 2010-08-17 2014-12-17 キヤノン株式会社 撮像装置及び撮像方法、画像処理装置及び画像処理方法
WO2012036669A1 (en) * 2010-09-13 2012-03-22 Hewlett-Packard Development Company, L.P. Smile detection systems and methods
JP2013021434A (ja) * 2011-07-08 2013-01-31 Nec Saitama Ltd 撮像装置、撮像制御方法、及びプログラム
JP6467965B2 (ja) * 2015-02-13 2019-02-13 オムロン株式会社 感情推定装置及び感情推定方法
KR101787255B1 (ko) * 2016-05-11 2017-11-15 이화여자대학교 산학협력단 랜드마크의 거리의 비율에 기반한 표정 인식 방법
CN107193571A (zh) * 2017-05-31 2017-09-22 广东欧珀移动通信有限公司 界面推送的方法、移动终端及存储介质
JP6642523B2 (ja) 2017-06-19 2020-02-05 カシオ計算機株式会社 表情判定装置、表情判定方法及びプログラム
CN108830786B (zh) * 2018-06-12 2022-05-10 北京世纪好未来教育科技有限公司 计算机可读存储介质、视频替换合成方法及系统
JP6563580B1 (ja) * 2018-10-16 2019-08-21 株式会社アンビリアル コミュニケーションシステム及びプログラム
JP7211210B2 (ja) 2019-03-29 2023-01-24 コニカミノルタ株式会社 画像形成装置
KR102422778B1 (ko) * 2019-12-30 2022-07-20 주식회사 하이퍼커넥트 랜드마크 데이터 분리 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
KR102611931B1 (ko) * 2021-04-30 2023-12-08 선문대학교 산학협력단 얼굴 검지 영상의 윤곽 확장 장치 및 방법
CN114463826B (zh) * 2022-04-12 2022-08-12 合肥的卢深视科技有限公司 人脸表情识别方法、电子设备及存储介质

Also Published As

Publication number Publication date
JP2005056388A (ja) 2005-03-03

Similar Documents

Publication Publication Date Title
JP4612806B2 (ja) 画像処理装置、画像処理方法、撮像装置
EP1650711B1 (en) Image processing device, imaging device, image processing method
JP4845755B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP4974788B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP4999570B2 (ja) 表情認識装置及び方法、並びに撮像装置
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
Lewis et al. Lip feature extraction using red exclusion
JP2002175538A (ja) 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法
JP2007213378A (ja) 特定表情顔検出方法、撮像制御方法および装置並びにプログラム
JP2003216955A (ja) ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体
KR101187600B1 (ko) 스테레오 카메라 기반의 3차원 실시간 입술 특징점 추출을 이용한 음성 인식 장치 및 음성 인식 방법
JP2005293539A (ja) 表情認識装置
US20240135956A1 (en) Method and apparatus for measuring speech-image synchronicity, and method and apparatus for training model
CN110110603A (zh) 一种基于面部生理信息的多模态唇读方法
JP4590401B2 (ja) 顔画像作成装置、当該装置に係る顔画像作成方法、プログラム及び当該プログラムを記録した記録媒体
JPH08287216A (ja) 顔面内部位認識方法
KR101756919B1 (ko) 얼굴 인식 장치 및 방법
JP2767814B2 (ja) 顔画像検出方法及び装置
JP4541806B2 (ja) 対象物識別装置および方法並びにプログラム
KR20240101253A (ko) 딥러닝 기반의 성별 인식 장치 및 성별 인식 방법
CN115601816A (zh) 基于无锚分层显著性检测器在长视频中的微表情检测方法
Patel et al. Validation and performance evaluation of an automated visual feature extraction algorithm
KR20030081539A (ko) 얼굴 구성 요소 추출 시스템 및 방법
JPH11306316A (ja) 手話認識方法および手話認識装置および記録媒体

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070604

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101012

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101016

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4612806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees