[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6157288B2 - 画像処理装置およびその制御方法、撮像装置 - Google Patents

画像処理装置およびその制御方法、撮像装置 Download PDF

Info

Publication number
JP6157288B2
JP6157288B2 JP2013185710A JP2013185710A JP6157288B2 JP 6157288 B2 JP6157288 B2 JP 6157288B2 JP 2013185710 A JP2013185710 A JP 2013185710A JP 2013185710 A JP2013185710 A JP 2013185710A JP 6157288 B2 JP6157288 B2 JP 6157288B2
Authority
JP
Japan
Prior art keywords
face
detection
area
detection target
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013185710A
Other languages
English (en)
Other versions
JP2014140154A (ja
JP2014140154A5 (ja
Inventor
和憲 石井
和憲 石井
本田 公文
公文 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013185710A priority Critical patent/JP6157288B2/ja
Priority to US14/097,731 priority patent/US9088709B2/en
Publication of JP2014140154A publication Critical patent/JP2014140154A/ja
Publication of JP2014140154A5 publication Critical patent/JP2014140154A5/ja
Application granted granted Critical
Publication of JP6157288B2 publication Critical patent/JP6157288B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Color Television Image Signal Generators (AREA)
  • Focusing (AREA)

Description

本発明は、画像処理装置およびその制御方法に関し、特に、画像中の被写体領域を検出する画像処理装置およびその制御方法、撮像装置に関する。
ビデオカメラ等の自動焦点検出(AF)制御では、撮像素子を用いて生成された映像信号の鮮鋭度(コントラスト)に基づいて合焦位置を検出するTV−AF方式が広く用いられている。TV−AF方式は、具体的には、異なるフォーカスレンズ位置で撮影された映像信号について、コントラストの程度を示すAF評価値を生成し、AF評価値に基づいてコントラストが最大となるフォーカスレンズの位置を合焦位置として探索する方式である。
また、人物を撮影する場合において、人物被写体に安定したピント合わせを行うために、特定の被写体を検出する機能を有する撮像装置が知られている。例えば、認識された顔領域を含む焦点検出領域を設定し、焦点検出を行う撮像装置が提案されている(特許文献1)。
特開2006−227080号公報
特許文献1のように、検出された人物の顔を含む焦点検出領域が合焦するように焦点検出を行う場合、検出した人物の顔の向き等によって、焦点検出領域に背景が含まれる場合があった。この場合、焦点検出領域に含まれる背景にコントラストが高い被写体があると、人物の顔ではなく背景に合焦するように焦点検出してしまうことがあった。
また、合焦対象である顔領域を撮影者に知らせるために、顔領域を示す枠(顔枠)を重畳表示する場合も同様に、検出した人物の顔の向き等によって、顔枠が人物の顔からずれた位置で表示されたり、サイズが変化したりしてしまう場合があった。
例えば、図10(A)に示すように人物が正面向きの場合、顔枠および焦点検出領域のほぼ全体が顔領域となるような適切な表示や設定が可能である。しかし、図10(B)に示すように人物が横向きの場合、左右の目の大きさの差が大きくなったり目の間隔が狭くなったりすることで、顔検出の精度が低下する。また、顔検出では目の位置を中心として顔領域を検出することが多いため、図10(B)に示すように実際の位置からずれた顔領域や、実際より小さい顔領域が検出される場合がある。特に、検出された顔領域の位置がずれている場合、顔枠の表示が顔からずれることはもちろん、顔領域を焦点検出領域に設定した場合に背景の割合が多くなることで、背景に合焦してしまう可能性が増加する。
本発明はこのような課題に鑑みてなされたものである。本発明は、画像中から特定の被写体領域を検出し、検出した領域に基づいて自動焦点検出などの制御を行う画像処理装置およびその制御方法において、より高精度な被写体領域の検出を可能とすることを目的とする。
上述の目的は、画像から第1の検出対象の領域を検出する第1の検出手段と、第1の検出対象の領域を推定可能な第2の検出対象の領域を画像から検出する第2の検出手段と、第1の検出手段によって検出された第1の検出対象の領域の位置を補正する補正手段と、第1の検出対象の領域に基づいて、評価領域を設定する設定手段と、評価領域に対応する画像の信号に基づいて、焦点検出制御、露出制御、色制御の少なくとも一つを行う制御手段とを有し、補正手段は、第2の検出対象の領域の情報に基づいて、前記第1の検出手段によって検出された前記第1の検出対象の領域の位置を補正することを特徴とする画像処理装置によって達成される。
このような構成により、本発明によれば、画像中から特定の被写体領域を検出し、検出した領域に基づいて自動焦点検出などの制御を行う画像処理装置およびその制御方法において、より高精度な被写体領域の検出を可能とすることができる。
本発明の実施例に係る画像処理装置の一例としてのビデオカメラの主要部の構成を示すブロック図 第1の実施例におけるAF制御処理を示すフローチャート 第1の実施例における同一被写体判定処理を示すフローチャート 第1の実施例における同一被写体判定処理の判定方法を示す図 第1の実施例における顔領域補正処理を示すフローチャート 第1の実施例における顔領域補正判定処理の条件の例を示す図 第1の実施例における顔領域補正処理を示す図 TV−AF処理におけるフォーカスレンズの微小駆動を説明するための図 TV−AF処理におけるフォーカスレンズの山登り駆動を説明するための図 本発明の背景技術に関する説明の図 第2の実施例におけるAF制御処理を示すフローチャート 第2の実施例における顔AF枠設定処理を示すフローチャート 第2の実施例における顔AF枠の設定に関する説明の図 第3の実施例における課題を説明する図 第3の実施例におけるAF制御処理を示すフローチャート 第3の実施例における顔AF枠補正処理を示すフローチャート 第3の実施例における顔AF枠の説明の図
<撮像装置の構成>
以下、本発明の実施例について図面を参照しながら説明する。なお、以下では本発明の実施例に係る画像処理装置を撮像装置、特にはビデオカメラに適用した構成について説明する。ただし、被写体領域の検出結果の用途は、被写体領域枠の表示、焦点検出領域の設定、焦点検出制御、露出制御といった撮影に関する用途に限定されない。従って、以下に説明するビデオカメラが有する構成のうち、被写体領域の検出処理に直接関係しない構成は本発明に必須でないことに留意されたい。なお、本発明の実施例に係る画像処理装置を適用可能な撮像装置はビデオカメラに限らず、デジタルスチルカメラであってもよい。また、撮像装置を備える機器(例えばパーソナルコンピュータ、携帯電話機、タブレット端末、携帯情報端末、メディアプレーヤなど)に適用してもよい。
図1において、本実施例のデジタルビデオカメラ100は、AF制御に対応したズームレンズ120を撮像光学系として備えている。ズームレンズ120は、第1固定レンズ101、光軸方向に移動して変倍を行う変倍レンズ102、絞り103、第2固定レンズ104及びフォーカスコンペンセータレンズ105を備える。フォーカスコンペンセータレンズ(以下、単にフォーカスレンズという)105は、変倍に伴う焦点面の移動を補正する機能とフォーカシングの機能とを兼ね備えている。
撮像素子106は、CCDセンサやCMOSセンサといった光電変換素子から構成される。撮像素子106は撮像光学系により形成された被写体像を撮像して映像信号を出力する。CDS/AGC回路107は撮像素子106の出力を相関二重サンプリングするとともに、出力に適用するゲインを調整する。
カメラ信号処理回路108は、CDS/AGC回路107からの出力信号に対して各種の画像処理を行い、映像信号を生成する。表示部109はLCD等により構成され、カメラ信号処理回路108からの映像信号を表示する。記録部115は、カメラ信号処理回路108からの映像信号を記録媒体(磁気テープ、光ディスク、半導体メモリ等)に記録する。
ズーム駆動部110は、制御部114の制御に応じて変倍レンズ102を移動させる。フォーカスレンズ駆動部111は制御部114の制御に応じてフォーカスレンズ105を移動させる。ズーム駆動部110及びフォーカスレンズ駆動部111は、ステッピングモータ、DCモータ、振動型モータ及びボイスコイルモータ等のアクチュエータにより構成される。
AFゲート112は、CDS/AGC回路107からの全画素の出力信号のうち、制御部114が設定した、焦点検出に用いられる領域(焦点検出領域又はAF枠)の信号のみを後段のAF信号処理回路113に供給する。
AF信号処理回路113は、AFゲート112から供給される焦点検出領域中の画素信号に対して例えばフィルタを適用して予め定められた周波数帯域の成分を抽出し、AF評価値を生成する。抽出するのは、例えば高周波成分や輝度差成分(AFゲート112を通過した信号の輝度レベルの最大値と最小値の差分)であってよい。
AF評価値は、制御部114に出力される。AF評価値は、撮像素子106からの出力信号に基づいて生成される映像の鮮鋭度(コントラストの程度)を表す値であるが、ピントが合った映像の鮮鋭度は高く、ぼけた映像の鮮鋭度は低いので、撮像光学系の焦点状態を表す値として利用できる。
制御部114は例えばマイクロコンピュータであり、図示しないROMに予め記憶された制御プログラムを実行してデジタルビデオカメラ100の各部を制御することにより、デジタルビデオカメラ100全体の動作を司る。制御部114は、AF信号処理回路113から与えられるAF評価値に基づいて、フォーカスレンズ駆動部111を制御してTV−AF方式でのAF制御処理(以下、単に「TV−AF制御」という)を行う。
顔検出部116は、CDS/AGC回路107が出力する画像信号に、公知の顔検出技術に基づく顔検出処理を適用し、第1の検出対象の領域であって、画像内の人物領域の一例としての顔領域を検出する。公知の顔検出技術としては、ニューラルネットワークなどを利用した学習に基づく手法、テンプレートマッチングを用いて目、鼻、口等の形状に特徴のある部位を画像から探し出し、類似度が高ければ顔とみなす手法などがある。また、他にも、肌の色や目の形といった画像特徴量を検出し、統計的解析を用いた手法等、多数提案されている。一般的にはこれらの手法を複数組み合わせ、顔検出の精度を向上させている。具体的な例としては特開2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。顔検出部116による顔検出処理は、複数フレーム毎に繰り返し行われるが、毎フレーム行ってもよい。
顔検出部116は、例えば人物の顔として検出された領域(顔領域)のそれぞれについて、位置と大きさを画像内で特定可能な情報と、検出結果の信頼度などを顔検出結果として制御部114に出力する。制御部114は、この顔検出結果に基づき、画像内の顔領域を含む領域に焦点検出領域を設定するよう、AFゲート112へ指示する。
ここで、顔検出部116が複数の人物の顔を検出した場合、制御部114は、顔の位置、顔のサイズ、もしくは撮影者の指示によって顔に優先順位をつけ、最も優先順位が高いと判断された顔を主顔とする。例えば、制御部114は、撮影者の指示によって選択された顔に最も高い優先順位度を付与し、続いて顔の位置が画面中央に近い程、そして、顔のサイズが大きい程高い優先度を付与することができるが、他の方法で優先順位を付与してもよい。
人体検出部117は、映像信号に対して公知の人体検出処理を施して、第2の検出対象の領域である、撮影画面内の人体を検出する。人体検出部117は、例えば人体として検出された領域(人体領域)のそれぞれについて、位置と大きさを画像内で特定可能な情報と、検出結果の信頼度などを人体検出結果として制御部114に出力する。本実施例では、制御部114は、人体検出結果に基づいて顔領域を推定する。人体検出結果から顔領域を推定する方法に特に制限は無いが、例えば人体領域として、上半身や胸部から上の人体形状を検出している場合、人体領域の形状から頭部領域を判別することが可能である。頭部領域と顔領域との大きさや位置の関係については統計的に予め求めておくことができるため、頭部領域が判別できれば、顔領域の位置やサイズを推定することができる。制御部114では、人体検出結果と顔検出結果とに応じて、最終的な顔領域を決定する。人体検出部117による検出処理は、複数フレーム毎に繰り返し行われるが、毎フレーム行ってもよい。
人体検出部117で人体領域を検出する方法に特に制限はないが、例えば、特開2009−211311号公報に記載されている方法を用いることができる。具体的には、Sobelフィルタ、Prewittフィルタ、Haarフィルタなどを用い、局所的な上半身の輪郭のエッジ強度を局所特徴量として検出し、抽出された局所特徴量から各人物領域が上半身か、非上半身かを判別する。この判別は、AdaBoost学習などのような機械学習に基づき実施することができる。なお、特開2009−211311号公報では、監視カメラで撮影された画像を対象としているため、斜め上方から撮影した画像を用いるものとして記載されているが、輪郭からの人体領域検出は、斜め上方から撮影した画像に限定される技術ではない。
ここでは、向きによって見えが変化しうる特定被写体が人物の顔であり、人物の顔の位置を推定する他の方法として人体検出を用いる場合を例示するが、特定被写体は動物の顔はもちろん、他の任意の被写体であってよい。本発明は、特定被写体の領域を検出する第1の検出方法と、特定被写体の領域の位置を推定可能な第2の検出方法とを利用可能な任意の被写体に対して適用可能である。第2の検出方法は例えば、第1の検出方法で検出すべき領域を包含する領域、特には第1の検出方法で検出すべき領域の位置を特定もしくは推定可能な領域を検出する方法であってよい。
また、制御部114は、顔検出や人体検出等によって検出された被写体領域の情報を撮影者に提供するため、例えば表示部109が表示する映像信号に、カメラ信号処理回路108を通じて被写体領域枠を重畳させる。これにより、映像に被写体領域枠が重畳表示され、撮影者は、デジタルビデオカメラ100が検出している被写体領域を把握することができる。
本実施例では、検出された人体領域から人物の顔位置を推定することができるように、顔検出部116が顔検出を行う範囲を包含する範囲で人体検出部117が人体検出を行っている。
<第1の実施例におけるAF制御処理>
次に、制御部114が実行するAF制御処理について、図2に示すフローチャートを用いて説明する。
本処理は、制御部114内に格納されたコンピュータプログラムに従って実行され、例えば1フィールド画像を生成するための、撮像素子106からの撮像信号の読み出し周期で繰り返し実行される。
まず、S201で制御部114は、最新の映像信号に対して実行した顔検出処理の結果を顔検出部116から取得する。
S202で制御部114は、最新の映像信号に対して実行した人体検出処理の結果を人体検出部117から取得する。
次に、S203で制御部114は、S201およびS202で取得した顔検出結果および人体検出結果から、同一の被写体が検出されているか否かを判定する。この処理の詳細については後述する。
S204で制御部114は、S201で取得した顔検出結果から、人物の顔が検出されているかどうか判定する。顔が検出されていると判定されればS206へ、顔が検出されていると判定されなければS205へ、それぞれ処理を移行させる。
S205で制御部114は、撮影範囲内の所定の固定位置(例えば中央)にAF枠(焦点検出領域)を設定し、AF枠の情報をAFゲート112に通知する。そしてS211で制御部114は、AF枠内に対応する映像信号に基づくTV−AF制御を実行する。TV−AF制御の詳細については後述する。
S206で制御部114は主顔判定処理を行う。主顔判定は、顔検出部116で検出されている顔領域のうち、顔の位置、顔のサイズ、もしくは撮影者の指示に応じて付与される優先順位が最も高い顔領域を主顔とする処理である。顔の位置が画面中央に近いほど優先順位を高くして主顔を判定してもよいが、条件に対して優先順位を付けてもよい。例えば、撮影者の指示によって選択された顔が最も優先順位が高く、続いて顔の位置が画面中央に最も近い顔、顔のサイズが最も大きい顔という順序で優先順位を決定してもよい。
S207で制御部114は、S203、S206の結果から、顔検出部116で検出された顔領域と同一被写体の人体領域が検出されているか判定し、検出されていると判定されればS208に、検出されていると判定されなければS209へ処理を移行させる。
S208で制御部114は、同一被写体と判定される人体領域と顔領域の検出結果に基づいて、顔検出部116による顔検出結果を補正する顔領域補正処理を行う。顔領域補正処理の詳細については後述する。制御部114は顔領域補正処理が終了すると、処理をS209に移行させる。
S209で表示制御手段としての制御部114は、S206で決定した主顔の顔領域を示す表示、例えば枠状の表示(顔枠)を、表示部109に表示する映像信号に重畳させる(S209)。なお、主顔以外の顔領域についても顔枠表示を行ってもよい。この場合、主顔以外の顔に対する顔枠の表示は、主顔に対する顔枠の表示とは色や形状、表示方法などを異ならせてもよい。例えば、主顔となった顔領域に対しては2重の顔枠を、他の顔領域を1重の顔枠を用いることができる。
S210で制御部114は、主顔に対してピントを合わせるために、主顔の位置に基づいてAF枠を設定し、S211でTV−AF制御を実行する。
なお、TV−AF制御処理は微小駆動と山登り駆動を組み合わせた方法であり、AF評価値が最大となるように、フォーカスレンズを駆動させながら、AF評価値の増減を判定し、合焦点を探索する方法である。TV−AF処理自体は従来知られた方法を用いることができる。
次に、図2のS203における同一被写体判定処理について図3に示すフローチャートを用いて説明する。
S301で制御部114は、顔検出部116から得られた顔検出結果から、検出された人物の顔の数を取得する。そして、S302で制御部114は、検出された人物の顔の数がゼロ、もしくは後述するカウント数以下ならば(Yes)、本処理を終了する。
一方、検出された人物の顔の数が後述するカウント数より多い場合(S302でNo)、制御部114は検出された顔領域ごとに、S303以降の処理を実行する。S303で制御部114は、処理対象の顔領域を包含する人体領域が検出されているか否か判定する。
処理対象の顔領域を包含する人体領域が検出されている場合(S303でYes)、制御部114は両領域が同一の被写体に係るものであると判定する。そして同一の被写体に係る者と判定した顔領域と人体領域の検出結果に対して、S304で同一識別IDを付与してから処理をS305に移行させる。一方、顔領域を包含する人体領域が検出されていない場合(S303でNo)、制御部114は処理をS305へ移行させる。
S305で制御部114は、処理済みの顔領域の数を示すカウント数を1つ増加させ、処理をS302に戻す。制御部114は、検出されている全ての顔領域についてS303以降の処理が行われるまで、S303〜S305の処理を繰り返し実行した後、処理を終了する。
従って、S207で制御部114は、同一識別IDが付与されている検出結果の有無を判定することにより、同一被写体に係る顔領域と人体領域が検出されているかどうかを判定することができる。
なお、S303における判定方法について、図4を用いてさらに説明する。図4においては、説明および理解を容易にするため、検出された顔領域と人体領域とがいずれも1つである場合を示している。図4(A)は、検出された顔領域401の全体が人体領域402に包含されている状態を示している。図4(B)は、検出された顔領域401が人体領域402から離れた位置にある状態を示している。図4(C)は、検出された顔領域401の一部が人体領域402に含まれている状態を示している。
本実施例では、顔領域を包含する人体領域が存在する場合に、両領域が同一被写体に係るものであると判定する。従って、図4(A)〜(C)に示す位置関係のうち、人体領域402に顔領域401の全体が含まれている図4(A)の場合のみ、両領域が同一被写体に係るものであると判定される。
なお、この判定方法は単なる一例であって、他の基準によって判定することも可能である。例えば、包含関係に無くても、所定割合以上重複している顔領域と人体領域は同一被写体に係るものと判定してもよい。また、人体領域の輪郭から推定される顔領域(頭部領域)と検出されている顔領域との位置関係をさらに考慮することもできる。例えば、人体領域の形状から推定される頭部領域の中心座標と、検出されている顔領域の中心座標との距離が所定値未満である場合に両領域が同一被写体に係るものであると判定することができる。この場合、より精度の良い判定が可能である。
次に、図2のS208における顔領域補正処理について図5に示すフローチャートを用いて説明する。
まず、S501で制御部114は、上述したS203の同一被写体判定処理によって付与された同一識別IDから、顔領域と人体領域の両方が検出されていると判定された被写体の数を取得する。
そして、S502で制御部114は、顔領域と人体領域の両方が検出されていると判定された被写体の数がゼロ、もしくは後述するカウント数以下である場合(Yes)、本処理を終了する。
一方、顔領域と人体領域の両方が検出されていると判定された被写体の数がカウント数より多い場合(S502でNo)、制御部114はS503以降の処理を、顔領域と人体領域の両方が検出されていると判定された被写体ごとに実行する。
S503で制御部114は、顔検出結果、具体的には顔領域の位置やサイズを、同一の被写体に係るものと判定された(同一識別IDが付与された)人体検出結果を用いて補正してよいかどうかを判定する顔領域補正判定処理を行う。顔領域補正判定処理の詳細については後述する。
S504で制御部114は、顔領域補正判定処理により、顔検出結果を補正すると判定されたか判定する。補正すると判定されている場合(S504でYes)、制御部114はS505で、顔検出結果、具体的には顔領域の位置およびサイズを、同一識別IDを有する人体検出結果から推定した顔領域の位置およびサイズに基づいて補正する。なお、本実施例では顔領域の位置およびサイズを補正しているが、顔領域の位置とサイズの少なくとも一方を補正するようにしてもよい。顔検出結果を補正すると判定されていない場合(S504でNo)、制御部114は処理をS506へ移行させる。
S506で制御部114は、処理済みの被写体数を示すカウント数をアップし、処理をS502に戻す。制御部114は、顔領域と人体領域の両方が検出されていると判定された全ての被写体についてS503以降の処理が行われるまで、S503〜S506の処理を繰り返し実行した後、処理を終了する。
図5のS503における顔領域補正判定処理の詳細について説明する。本実施例の顔領域補正判定処理では、図6に示す条件に基づいて、顔領域結果を補正するかどうかを判定するものとする。なお、図6に示す5つの条件のうち、判定に用いる条件とその数は任意に決定できる。
(条件1:顔の向き)
顔検出部116で検出された顔領域が、正面向きの顔であるのか否か(横を向いているか)である。正面向きの場合、図10(A)に示すように、検出された顔領域1001の中心と人物の顔の中心とがほぼ一致するため、顔領域1001に含まれる背景画素はないか、あっても少ない。しかし、横向きの場合は、図10(B)に示すように、顔領域1002の中心が顔の中心からずれるため、顔領域1002に背景画素が多く含まれてしまう。そのため、顔領域に対応する領域を焦点検出領域として自動焦点検出を行った場合に背景に合焦してしまう可能性が大きくなる。また顔領域が適正露出となるように自動露出制御を行った場合に背景の輝度に影響を受けやすくなる。
そのため、検出された顔領域が横向きの顔である場合には、図7(A)のように顔領域補正処理を行う。顔領域補正処理の詳細については後述する。なお、横向きの顔が検出されているかどうかは、左右の目の大きさの差や、目の間隔(横向きだと狭くなる)などに基づいて判定することができる。
(条件2:人体検出結果の信頼度)
人体検出結果の信頼度が低い場合には顔領域補正を行わず、信頼度が高い場合には顔領域補正を行う。信頼度が低い場合、誤検出した可能性があり、さらには、人体領域の位置、サイズの精度が低い可能性がある。そして、検出精度の低い人体領域に基づいて顔領域補正を行ってしまうと、誤補正の可能性があるためである。
人体検出結果の信頼度とは、人体検出の結果の信頼性を表すもので、検出された被写体が人体であるか否かの正確性を表すものである。この信頼度の算出の方法はいかなる方法でも良いが、例えば、あらかじめ保持しているテンプレートとのマッチング度が高いほど信頼度が高い数値が算出されるようにすることができる。
また、信頼度が高いか否かは、あらかじめ所定の人体検出結果の信頼度閾値を設定し、この信頼度閾値よりも高いか否かで判定すればよい。例えば、信頼度が0から9(0が最高信頼度とする)までの値を取りうる場合、信頼度閾値を2と設定する。なお、信頼度閾値は実験的に定めることができる。
(条件3:顔検出結果の信頼度)
顔検出結果についても、人体検出結果と同様、信頼度が低い場合には顔領域補正を行わず、信頼度が高い場合には顔領域補正を行う。顔検出結果の信頼度が低い場合には、補正後の信頼度も低いと考えられるため、顔領域の補正を行わないようにする。
顔検出結果の信頼度とは、顔検出の結果の信頼性を表すもので、検出された被写体が顔であるか否かの正確性を表すものである。この信頼度の算出の方法は、いかなる方法でも良いが、例えば、あらかじめ保持しているテンプレートとのマッチング度が高いほど信頼度が高い数値が算出されるようにする。なお、顔が正面向きである場合だけでなく、横向きである場合も考慮して信頼度を求める。
人体検出結果と同様、信頼度が高いか否かは、あらかじめ所定の信頼度閾値を設定し、この信頼度閾値よりも高いか否かで判定すればよい。例えば、顔検出結果の信頼度が0から9(0が最高信頼度とする)の値を取りうる値の場合、信頼度閾値を4と設定する。なお、信頼度閾値は実験的に定めることができる。人体検出結果と顔検出結果の信頼度が取りうる値の範囲および信頼度閾値は同じであっても異なってもよい。顔検出の信頼度は変動が大きいため、顔検出の安定性を優先して、例えば顔検出の信頼度閾値を低めに(数値を大きめに)設定してもよい。
(条件4:顔検出結果に基づく顔領域のサイズと、人体検出結果から推定される顔領域のサイズとの差)
差が大きい場合には顔領域補正を行わず、小さい場合には顔領域補正を行う。
例えば、人体検出部117が人物の胸より上を検出する場合、検出された人体領域の横方向のサイズをn、縦方向のサイズをmとすると、顔領域の横方向のサイズをn/3、縦方向のサイズをm/2と推定することができる。
そして、同一識別IDを有する顔検出結果に基づく顔領域のサイズと比較し、予め定められた閾値よりも差が大きい場合には、顔検出もしくは人体検出の一方が誤りであるか、同一被写体判定処理結果が誤っている可能性があるため、顔領域補正は行わない。
例えば、顔領域のサイズ(面積)と人体検出結果から推定した顔サイズ(面積)とが2倍以上異なる場合には、サイズ差が大きいと判定することができる。なお、これは単なる例示であり、閾値は実験的に決定する。
また、顔検出結果による顔領域のサイズと人体検出結果から推定した顔領域のサイズとの差で判定したが、後者を人体領域のサイズとしてもよい。この場合、顔検出結果による顔領域の横方向のサイズをo、縦方向のサイズをpとすると、人体領域の横方向のサイズが4o以上かつ縦方向のサイズが3p以上の場合はサイズ差が大きいと判定することができる。
(条件5:顔検出結果に基づく顔領域の中心位置と、人体領域の中心位置との差)
差が大きい場合には顔領域補正を行わず、小さい場合には顔領域補正を行う。
差が大きい場合には、顔検出もしくは人体検出の一方が誤りであるか、同一被写体判定処理結果が誤っている可能性があるため、顔領域補正は行わない。
例えば、顔領域の中心位置と人体検出結果の中心位置との縦方向または横方向成分の差が、人体検出結果の縦方向または横方向のサイズの5/8より大きく異なる場合には、差が大きいと判定する。ただし、閾値はこの限りではなく、経験に基づいて決定すればよい。なお、領域に外接する方形の対角線の交点や、重心を顔領域や人体領域の中心として用いることができる。
また、上述では、顔領域の中心位置と人体検出結果の中心位置との差で判定を行ったが、前述のように人体領域から顔領域を推定し、推定された顔領域の中心位置と比較しても同様の効果が得られる。
なお、顔領域補正判定処理の正確性を高めるために、同一条件に対して複数回連続して顔領域補正を行う結果が得られたことをもって、顔領域補正を行うとの判定結果とすることができる。これにより、顔領域の誤補正の可能性を軽減することが可能となる。
次に、顔領域補正の方法について図7を用いて説明する。
図7(A)は、顔検出部116で検出された顔領域の、補正前後の位置およびサイズの例を模式的な顔枠表示により示している。補正前の顔領域が701、補正後の顔領域が702である。
図7(B)に示すように、補正前の顔領域701の中心位置707の横方向成分(水平座標)を、同一識別IDを有する人体検出結果による人体領域705の中心位置706の横方向成分(水平座標)に合わせるように位置を補正する。また、補正後の顔領域702のサイズは、人体領域705から推定した顔サイズに補正する。
なお、この補正方法は一例であり、補正後の顔領域の中心と人体領域の中心の横方向位置を合致させなくてもよい。例えば、顔領域および人体検出結果から推定される顔領域の中心位置と大きさから各領域の左上の水平座標を算出し、算出された結果を平均した位置が補正後の顔領域の左上の位置となるように補正してもよい。補正量は顔領域の中心が人体領域の中心からどの程度ずれているかに応じて決めることができる。
同様に、補正後の顔領域のサイズを、人体領域から推定される顔サイズに合致させなくてもよい。例えば、補正後の顔領域のサイズを、補正前の顔領域のサイズと人体領域から推定される顔サイズとを平均したサイズに補正してもよい。補正量は顔領域のサイズが人体領域から推定される顔サイズとどの程度ずれているかに応じて決めることができる。
さらに、顔領域補正は1回の補正処理で実現してもよいが、段階的な複数回の補正により補正後の位置、サイズへの補正を実現してもよい。これにより、過補正や誤補正による影響を軽減することができる。
また、人体領域の中心位置を基準とする代わりに、人体領域から推定される顔位置を基準として顔領域の位置を補正してもよい。例えば、人体領域から顔領域を推定し、推定された顔領域の中心位置に、検出された顔領域の中心位置を合わせるような補正であってもよい。
図8は、図2のS211におけるTV−AF制御で実行されるフォーカスレンズ105の微小駆動動作を説明するための図である。図8において、横軸は時間を、縦軸はフォーカスレンズ105の位置を示している。また、図中上方に映像信号の垂直同期信号を示している。微小駆動動作では、制御部114がフォーカスレンズ駆動部111を所定の微小駆動範囲内を無限方向と至近方向に移動させながらAF評価値を取得する。そして、無限遠側で得られたAF評価値と至近側で得られたAF評価値を比較することで、AF評価値が増加するレンズ位置の方向を判定したり、AF評価値が最大となるレンズ位置(ピーク位置)を探索したりする。
なお、AF評価値の変化から合焦状態か否かを判定するためにフォーカスレンズ105を微小駆動させる制御は、合焦判定制御ということもできる。また、AF評価値の変化から合焦方向を判定するためにフォーカスレンズ105を微小駆動させる制御は、合焦方向判別制御ということもできる。
図8に示すように、無限遠側でレンズが停止している期間Aの間に撮像素子106に蓄積された電荷(図中、斜線楕円で示す)に対するAF評価値EVが時刻Tで取り込まれる。また、至近側でレンズが停止している期間Bの間に撮像素子106に蓄積された電荷に対するAF評価値EVが時刻Tで取り込まれる。また、再び無限遠側でレンズが停止している期間Cの間に撮像素子106に蓄積された電荷に対するAF評価値EVが時刻Tで取り込まれる。
そして、時刻Tで制御部114は、AF評価値EV、EV、EVを比較する。制御部114は、EV>EVかつEVC>EVBであれば、微小駆動の駆動(振動)中心を現在の位置aからAF評価値が大きくなる方向(ここでは無限遠方向)に所定量移動させbとする。一方、EV<EVまたはEV<EVであれば、制御部114は振動中心を移動させない。
次に、TV−AF制御で微小駆動動作と組み合わせて実行される山登り駆動動作について、図9を用いて説明する。微小駆動動作により合焦方向が判別されると、山登り駆動動作に移行する。
図9は、山登り駆動動作中のAF評価値の大きさとフォーカスレンズ105の駆動動作の例を示す図である。山登り駆動動作では、フォーカスレンズ105を駆動しながらAF評価値を取得して、得られたAF評価値がピークとなるフォーカスレンズ位置(ピーク位置)又はその近傍を検出する。
図9において、山登り駆動の開始位置から図中右方向にフォーカスレンズ105を駆動した場合、矢印Aで示すように、AF評価値がピーク(最大値)を越えて減少していることが検出される。この場合、合焦点を通り過ぎたものとして山登り駆動動作を終了し、AF評価値の最大値が得られた位置にフォーカスレンズ105を戻し、上述の微小駆動動作に移行する。
一方、山登り駆動の開始位置から図中左方向にフォーカスレンズ105を駆動した場合、矢印Bで示すように、AF評価値がピークを越えることなく減少していることが検出される。この場合、フォーカスレンズ105の移動方向を間違えたものと判断して、逆方向に山登り駆動動作を継続する。なお、山登り駆動において、フォーカスレンズ105の一定時間あたりの移動量は、上述した微小駆動動作時よりも大きい。
このように、制御部114は、再起動(微小駆動からのやり直し)要否判定→微小駆動→山登り駆動→微小駆動→再起動判定を繰り返しながら、AF評価値が最大となる位置にフォーカスレンズ105を移動させるAF制御動作を行う。
以上説明したように本実施例では、顔検出と人体検出のように、同一被写体に係る画像領域を個別に検出する複数の検出方法を組み合わせて用いることにより、被写体領域の検出精度を高めることができる。
顔検出結果を人体検出手段の結果で補正することにより、例えば顔が横向きの場合でも、背景が被写体領域に含まれることを抑制できる。そのため、検出された被写体領域に対して自動焦点検出を行う場合に、背景に合焦させてしまう可能性を低減でき、被写体領域に安定して合焦させることが可能になる。また、検出された被写体領域が適正露出となるように自動露出制御を行う場合にも、背景の明るさが露出制御に与える影響を低減でき、より適切な露出制御が可能になる。また、検出された被写体領域に対して評価領域を設定し、評価領域内の信号に基づいて色制御(例えば、人物の顔の肌色補正処理)を行う場合にも、背景の色による影響を低減でき、より適切な色制御が可能になる。
顔検出結果と同一の被写体に係る人体検出結果で顔検出結果を補正することで、例えば人体検出結果から推定される顔領域を用いる場合におこりうる、後ろ向きの被写体の後頭部のような低コントラスト領域に基づくTV−AF結果が不安定になることも抑制できる。
また、検出された被写体領域を示す表示の位置やサイズが適切なものとなるので、ユーザの違和感を軽減することができる。

本実施例では、被写体領域を個別に検出する方法の例として、顔検出と人体検出を例示して説明した。しかし、被写体領域を個別に検出する方法はこれらの組み合わせに限定されない。
例えば、検出すべき被写体領域(例えば顔領域)を検出する方法と、検出すべき被写体領域を包含する領域であって、検出すべき被写体領域の位置や大きさを推定可能な領域(例えば頭部、上半身、全身領域など)を検出する方法の組み合わせを利用可能である。
また、パターンマッチングによる検出方法と、輪郭による検出方法のように、異なる手法の組み合わせを用いてもよい。
<第2の実施例におけるAF制御処理>
次に、第2の実施例におけるAF制御処理を図11に示すフローチャートを用いて説明する。本実施例のAF制御処理では、顔領域に基づいて、顔枠(第1の焦点検出領域)と、顔枠に包含されるmini顔枠(第2の焦点検出領域)とを設定し、これらをAF枠として用いる。
図11におけるS1101〜S1109の処理は、図2のS201〜S209と同様の処理であるため、説明を省略する。
S1110で制御部114は、顔枠とmini顔枠の位置を決定する顔AF枠設定処理を実行する。顔AF枠設定処理の詳細については図12を用いて後述する。
次に、S1111で制御部114は、S1106で決定した主顔の顔領域に対して、S1110で決定した顔枠とmini顔枠を設定し、S1112へ処理を進める。S1112で制御部114は、後述するように顔枠とmini顔枠とを考慮したTV−AF制御を行う。
次に、図11のS1110における顔AF枠設定処理について、図12に示すフローチャートを用いて説明する。
S1201で、制御部114は、S1106で決定した主顔の顔領域に対して、S1108で補正処理する前の顔領域の情報と補正処理後の顔領域の情報を取得する。
S1202で、制御部114は、補正処理前後の顔領域の情報から、顔領域の補正の有無を判定する。そして、制御部114は、顔領域の補正がない場合には(S1202でNo)、S1203に処理を進めて補正処理前の顔領域に基づいて顔枠を設定し、S1204で顔枠に基づいてmini顔枠を設定する。顔枠およびmini顔枠の設定方法については後述する。
一方、顔領域の補正がある場合には(S1202でYes)、制御部114は処理をS1205に進め、補正処理後の顔領域に基づいて顔枠を設定し、S1206で、補正処理前の顔領域に基づいてmini顔枠を設定する。
さらにS1207で、制御部114は、S1206で設定したmini顔枠がS1205で設定した顔枠内に含まれているかどうかを判定する。mini顔枠が顔枠内に含まれている場合(S1207でYes)、制御部114は顔AF枠設定処理を終了してS1111へ処理を進める。一方、mini顔枠が顔枠内に含まれていない場合(S1207でNo)、制御部114は処理をS1208へ進める。
S1208で制御部114は、mini顔枠の位置を、顔枠に包含される位置に再設定する。例えば、制御部114は、顔枠の左端の水平座標よりもmini顔枠の左端の水平座標が左にあった場合は、mini顔枠の左端が顔枠の左端に一致するように位置を再設定する。制御部114は上下方向においても同様に位置を再設定する。
次に、S1203、S1204、S1205、およびS1206における顔枠およびmini顔枠の設定方法の例について、図13を用いて説明する。
顔領域の補正がなく、かつ正面向きの顔の場合を図13(A)に示す。この場合、顔枠1301の中心位置を、顔領域の中心位置に基づいて設定する。本実施例では、顔領域と顔枠1301の中心位置が一致するように顔枠1301を設定しているが、他の位置関係であってもよい。また、顔枠1301の大きさを、顔領域の大きさに所定の比率を掛けた(例えば、1.3倍)大きさに設定する。顔枠が小さいと、顔の動きに対して顔枠内の画像が変化しやすいために敏感にAF評価値が変動し、AF制御が安定しにくくなるため、本実施例では顔枠を顔領域よりも大きめに設定している。
また、mini顔枠1302の中心位置を、顔枠1301の中心位置に基づいて設定する。本実施例では、顔枠1301とmini顔枠1302の中心位置が一致するようにmini顔枠1302を設定しているが、mini顔枠1302が顔枠1301に包含されれば他の位置関係であってもよい。また、mini顔枠1302の大きさを、顔枠の大きさより小さく設定する。本実施例では、mini顔枠1302の縦と横の長さをそれぞれ顔枠1301の1/2としているが、単なる一例である。
上述のように、顔枠は検出された顔領域に基づいた位置に、かつ顔領域よりも大きく設定する。そのため、顔枠内の画像が背景を含む可能性があり、背景の影響により顔に対してピント合わせがしづらくなる可能性がある。
さらには、目、口、鼻等の顔の中心部位と、顔の周縁部位である耳とでは若干のピント位置差がある。そのため、顔枠から得られたAF評価値を用いて自動焦点検出すると、顔の中心部位ではなく耳にピントが合ってしまう場合が考えられる。
そこで、本実施例では、顔枠に包含されるようにmini顔枠を設定する。mini顔枠のAF評価値も用いることで、顔の中心部位に安定してピントを合わせることが可能となるためである。
一方、顔領域の補正がある場合の例として、顔が横向きの場合を図13(B)に示す。
補正後顔枠1303は、補正処理後の顔領域に基づいて、上述の図13(A)の顔枠1301と同様に設定する(すなわち、ここでは両者の中心位置が一致するように設定する)。
一方、mini顔枠1305は、補正処理前の顔領域に基づく顔枠1304に基づいて上述の図13(A)のmini顔枠1302と同様に設定する(すなわち、ここでは両者の中心位置が一致するように設定する)。このように、本実施例では、補正処理前の顔枠1304とmini顔枠1305の中心位置が一致するようにmini顔枠1305を設定しているが、他の位置関係であってもよい。また、mini顔枠1305の大きさを、補正処理前の顔枠1304の大きさより小さく設定する。本実施例では、mini顔枠1305の縦と横の長さをそれぞれ顔枠1304の1/2に設定しているが、単なる一例である。
このように、顔が横向きの場合など、顔領域が補正されている場合には、顔枠については、背景を含まないように補正された顔領域に基づいて設定する一方、mini顔枠については、補正処理前の顔領域に基づいて設定された顔枠に基づいて設定する。これは、mini顔枠は顔枠よりも背景を含む可能性が小さく、さらに、顔の特徴部位である目、口、鼻などをとらえている可能性が高いためである。mini顔枠を補正処理後の顔領域に基づいて設定された顔枠に基づいて(例えば中心位置が一致するように)設定してしまうと、人物が横向きの場合、mini顔枠が頬に位置する可能性が高くなる。そうすると、mini顔枠内の画像が低コントラストとなり、人物の顔へのピント合わせ精度が低くなり、顔の中心部位にピントが合わなかったり、ピント位置が背景側にずれてしまったりする可能性が高くなる。
なお、本実施例では、顔領域が補正されている場合、mini顔枠は補正処理前の顔領域に基づいて設定する場合を示した。しかし、他の方法として、顔枠の補正量(補正前顔枠と補正後顔枠の位置の差)よりも小さい補正量で、顔枠と同方向に、補正処理前の顔領域に基づくmini顔枠の位置を補正してもよい。例えば、顔枠の補正量が20画素分の場合、mini顔枠は10画素分位置を補正しても良い。
ここで、本実施例のS1112で行うTV−AF制御における、図8で説明した微小駆動動作で用いるAF評価値の算出の仕方を説明する。
AF評価値=(顔枠のAF評価値)+α*(mini顔枠のAF評価値)‥(式1)
式1において、αは係数であり、mini顔枠のAF評価値の重みづけを変更することができる。例えば、α=2.5とすることにより、mini顔枠のAF評価値の重みを顔枠のAF評価値より上げることができる。
なお、本実施例の顔AF枠設定処理は、第1の実施例のAF制御処理においても適用できる。
また、本実施例の顔AF枠設定処理は、図11のS1107のように検出された顔領域と同一の人体検出結果があるか否かの判定を行わずに、例えば顔の向きに応じて顔領域の位置補正処理を行うか否かを判定する場合にも適用できる。その場合、例えば、顔が正面向きの場合は、顔枠の位置補正量を0とし、横向きの場合は、例えば顔サイズの1/8だけ顔が向いている方向と逆方向に顔枠の位置を補正する。そして、mini顔枠については、上述した方法と同様に設定する。なお、顔の向きに応じた顔枠の位置補正量は一例であり、他の値を用いてもよい。
このように、本実施例では顔枠に包含され、顔枠よりも小さいmini顔枠を設定し、顔枠のAF評価値とmini顔枠のAF評価値とを加重加算したAF評価値に基づいてTV−AF制御を行う。顔枠よりもmini顔枠の方が背景を含まない可能性が高いため、mini顔枠のAF評価値を考慮したAF制御を行うことで、より精度よく顔に合焦させることが可能になる。
<第3の実施例におけるAF制御処理>
第2の実施例では、AF枠として、顔枠と、顔枠に包含されるmini顔枠とを用いる方法について説明した。本実施例では、第2の実施例で説明したmini顔枠に関する課題とその解決方法について説明する。
第2の実施例では、mini顔枠は顔枠よりも小さく設定した。これは、背景を含む可能性を小さくし、さらに、顔の特徴部位である目、鼻、口などの顔の中心部位に安定してピントを合わせるためである。しかしながら、mini顔枠のサイズを小さくすると、顔の動きにより枠内の画像が変化しやすくなるため、AF評価値およびAF結果が安定しにくくなる。
そこで本実施例では、mini顔枠を目、鼻、口の顔の中心部位に加えて、顎から肩にかけた範囲に設定することで、安定したAF評価値を得られるようにした。具体的には、図14(A)に示すように、mini顔枠1402の水平方向のサイズは第2の実施例と同様に顔枠1401の半分程度とし、さらに垂直方向下向きに、顔枠の垂直サイズの1/4程度拡大した大きさに設定している。なお、拡大後もmini顔枠が顔枠に包含されることには変わりが無い。なお、図14では、カメラを正位置で構えて撮影した画像を示している。
ここで、上述の様にmini顔枠を設定すると、被写体の撮影角度によっては被写体の顎や肩がmini顔枠に含まれなくなる。図14(B)、(C)、(D)の各々において、顔枠1403、1405、1407と、mini顔枠1404、1406、1408を示している。例えば、主被写体が四つん這いの場合(図14(B))や横たわっている場合(図14(C))、上下反転している場合(図14(D))は、mini顔枠に被写体の顎や肩が含まれない。
そこで本実施例では、主被写体の人体の向き(主被写体の姿勢)に応じて、mini顔枠の設定を補正する顔AF枠補正処理を行う。
本実施例におけるAF制御処理のフローチャートを図15に示す。図15のフローチャートにおけるS1501〜S1509の処理は図2のS201〜S209と、S1510の処理は図11のS1110(すなわち図12の処理)と、それぞれ同様の処理であるため、説明を省略する。
S1511で行う顔AF枠補正処理について、図16のフローチャートを用いて説明する。S1601において被写体検出角度判別手段としての制御部114は、人体検出部117にて検出された結果に基づいて、主被写体の姿勢(検出角度)を判別する。検出角度は、人体検出部117にて検出される人体の輪郭に基づいて、顔や肩などの部位の位置関係から判別することができる。なお、顔領域の位置情報については顔検出部116の検出結果を用いてもよい。
つまり、図14(A)の様に顔よりも人体が下に検出された場合、制御部114は主被写体が正立状態(検出角度0°)であると判別する。この場合制御部114は処理をS1602に進め、mini顔枠の水平方向サイズを顔枠の水平方向サイズの1/2とし、また垂直方向サイズは下方向に顔枠の境界まで拡大する。
一方、図14(B)の様に、顔よりも人体が右に検出された場合、制御部114は主被写体の姿勢が左に90°回転した状態(検出角度左90°)であると判別する。この場合、制御部114は処理をS1603に進め、mini顔枠の垂直方向サイズを顔枠の垂直方向サイズの1/2とし、また水平方向サイズは左方向に顔枠の境界まで拡大する。(顔の上下方向と顔枠の垂直方向が対応するため、顔枠の垂直方向は画面左右方向、水平方向は画面上下方向となる)
図14(C)の様に、顔よりも人体が左に検出された場合、制御部114は主被写体の姿勢が右に90°回転した状態(検出角度右90°)であると判別する。この場合、制御部114は処理をS1604に進め、mini顔枠の垂直方向サイズを顔枠の垂直方向サイズの1/2とし、また水平方向サイズは右方向に顔枠の境界まで拡大する。
図14(D)の様に、顔よりも人体が上に検出された場合、制御部114は主被写体の姿勢が180°回転した状態(検出角度180°)であると判別する。この場合、制御部114は処理をS1605に進め、mini顔枠の水平方向サイズを顔枠の水平方向サイズの1/2とし、また垂直方向サイズは上方向に顔枠の境界まで拡大する。
なお、図14に示した例ではmini顔枠を顔枠一杯まで拡大したが、どの程度拡大するかは、顎から肩にかけた範囲が含まれる可能性が高い値を例えば実験的に求めて設定することができる。
以上の処理にて設定された顔枠及びmini顔枠を、S1512で制御部114は主顔に設定する。図17は、主顔に設定される顔枠1701,1704,1707,1710、mini顔枠1703,1706,1709,1712、人体検出領域1702,1705,1708,1711の例を主被写体の姿勢に応じて示している。図17(A)は正立状態(角度0°)を判別した場合、図17(B)は左90°の検出角度を判別した場合、図17(C)は右90°の検出角度を判別した場合、図17(D)は180°の検出角度を判別した場合を示している。いずれの判別状態においても、mini顔枠1703,1706,1709,1712は目、鼻、口から顎、肩にかけた適切な範囲に設定されていることがわかる。
以上のように、本実施例では、人体検出結果に基づいて、顔と人体の検出位置の関係から人体の姿勢を判別し、判別結果に応じてmini顔枠の設定範囲を補正する。これにより、主被写体に対してより安定した合焦状態を得ることができる。
なお、姿勢検出の方法は人体領域の輪郭に基づく方法に限らず、他の任意の方法を用いることができる。例えば、顔領域の検出結果を併用してもよいし、輪郭以外の情報に基づいてもよい。
また、上述の実施例では、特定被写体の例として、向きによって見えが変わる被写体を例示して説明したが、特定被写体は必ずしも向きによって見えが変わる被写体に限定されない。本発明の趣旨は、ある検出方法において被写体領域の検出精度が低下しうる場合に、他の検出方法で検出した被写体領域の情報を用いて補正することで、安定した被写体領域の検出を可能とするものである。
以上、本発明をその例示的な実施例に基づいて詳述してきたが、本発明は特定の実施例に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (17)

  1. 画像から第1の検出対象の領域を検出する第1の検出手段と、
    前記第1の検出対象の領域を推定可能な第2の検出対象の領域を画像から検出する第2の検出手段と、
    前記第1の検出手段によって検出された前記第1の検出対象の領域の位置を補正する補正手段と、
    前記第1の検出対象の領域に基づいて、評価領域を設定する設定手段と、
    前記評価領域に対応する画像の信号に基づいて、焦点検出制御、露出制御、色制御の少なくとも一つを行う制御手段とを有し、
    前記補正手段は、前記第2の検出対象の領域の情報に基づいて、前記第1の検出手段によって検出された前記第1の検出対象の領域の位置を補正することを特徴とする画像処理装置。
  2. 前記補正手段は、前記第2の検出対象の領域の情報に基づいて、前記第1の検出手段によって検出された前記第1の検出対象の領域のサイズをさらに補正することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の検出手段と前記第2の検出手段の少なくとも一方の検出結果の信頼度が低いと判定された場合、前記補正手段は、前記第1の検出対象の領域の補正を制限することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第1の検出対象の領域を示す表示を行う表示制御手段をさらに有し、
    前記補正手段は、前記第2の検出対象の領域の情報に基づいて、前記表示制御手段によって表示される前記第1の検出手段によって検出された前記第1の検出対象の領域を示す表示の位置を補正することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記第1の検出手段によって検出された前記第1の検出対象の向きまたは角度を検出する第3の検出手段をさらに有し、
    前記補正手段は、前記第3の検出手段の検出結果に基づいて、前記第1の検出対象の領域の補正を制限することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記補正手段は、前記第1の検出手段によって検出された前記第1の検出対象が正面を向いていることが前記第3の検出手段によって検出された場合、前記第1の検出対象の領域の補正を制限することを特徴とする請求項5に記載の画像処理装置。
  7. 前記第1の検出手段によって検出された前記第1の検出対象の領域と前記第2の検出対象の領域のサイズおよび中心位置の少なくとも一方の差分が所定値より大きい場合、前記補正手段は、前記第1の検出対象の領域の補正を制限することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記第1の検出対象は人物の顔であって、前記第2の検出対象は人物の体であることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記設定手段は、前記第1の検出対象の領域に基づいて、第1の評価領域を設定するとともに、当該第1の評価領域より小さい第2の評価領域を設定し、
    前記制御手段は、前記第1の評価領域から得られる信号と前記第2の評価領域から得られる信号とに基づいて前記制御を行うことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記補正手段により前記第1の検出対象の領域の位置を補正する場合、前記設定手段は、補正後の前記第1の検出対象の領域に基づいて前記第1の評価領域を設定し、補正前の前記第1の検出対象の領域に基づいて前記第2の評価領域を設定することを特徴とする請求項9に記載の画像処理装置。
  11. 前記設定手段は、前記第1の評価領域内に含まれるように前記第2の評価領域を設定することを特徴とする請求項9または10に記載の画像処理装置。
  12. 前記補正手段により前記第1の検出対象の領域の位置を補正しない場合、前記設定手段は、前記第1の評価領域に基づいて前記第2の評価領域を設定することを特徴とする請求項9乃至11のいずれか1項に記載の画像処理装置。
  13. 前記第2の検出手段によって検出された前記第2の検出対象の向きまたは角度を検出する第4の検出手段をさらに有し、
    前記設定手段は、さらに前記第4の検出手段の検出結果に基づいて、前記第2の評価領域を設定することを特徴とする請求項9乃至12のいずれか1項に記載の画像処理装置。
  14. 前記補正手段は、前記第2の検出手段によって検出された前記第2の検出対象の領域の情報に基づいて前記第1の検出対象の領域を推定し、推定した前記第1の検出対象の領域の情報に基づいて前記第1の検出手段によって検出された前記第1の検出対象の領域の位置を補正することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 請求項1乃至1のいずれか1項に記載の画像処理装置と、
    被写体像を光電変換して画像を生成する撮像手段とを有することを特徴とする撮像装置。
  16. 画像処理装置の制御方法であって、
    第1の検出手段が、画像から第1の検出対象の領域を検出する第1の検出ステップと、第2の検出手段が、前記第1の検出対象の領域を推定可能な第2の検出対象の領域を画像から検出する第2の検出ステップと、
    補正手段が、前記第1の検出ステップで検出された前記第1の検出対象の領域の位置を補正する補正ステップと、
    設定手段が、前記第1の検出対象の領域に基づいて、評価領域を設定する設定ステップと、
    制御手段が、前記評価領域に対応する画像の信号に基づいて、焦点検出制御、露出制御、色制御の少なくとも一つを行う制御ステップとを有し、
    前記補正ステップにおいて前記補正手段は、前記第2の検出対象の領域の情報に基づいて、前記第1の検出ステップで検出された前記第1の検出対象の領域を補正することを特徴とする画像処理装置の制御方法。
  17. 請求項1に記載の画像処理装置の制御方法の各ステップをコンピュータに実行させるためのプログラム。
JP2013185710A 2012-12-19 2013-09-06 画像処理装置およびその制御方法、撮像装置 Active JP6157288B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013185710A JP6157288B2 (ja) 2012-12-19 2013-09-06 画像処理装置およびその制御方法、撮像装置
US14/097,731 US9088709B2 (en) 2012-12-19 2013-12-05 Image processing apparatus and method for controlling the same, and image pickup apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012277439 2012-12-19
JP2012277439 2012-12-19
JP2013185710A JP6157288B2 (ja) 2012-12-19 2013-09-06 画像処理装置およびその制御方法、撮像装置

Publications (3)

Publication Number Publication Date
JP2014140154A JP2014140154A (ja) 2014-07-31
JP2014140154A5 JP2014140154A5 (ja) 2016-10-20
JP6157288B2 true JP6157288B2 (ja) 2017-07-05

Family

ID=50930451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013185710A Active JP6157288B2 (ja) 2012-12-19 2013-09-06 画像処理装置およびその制御方法、撮像装置

Country Status (2)

Country Link
US (1) US9088709B2 (ja)
JP (1) JP6157288B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014126710A (ja) * 2012-12-26 2014-07-07 Canon Inc 自動焦点検出装置およびその制御方法、撮像装置
JP6352150B2 (ja) * 2014-11-06 2018-07-04 株式会社ソシオネクスト 画像処理装置および画像処理方法
US10498932B2 (en) * 2014-12-08 2019-12-03 Sharp Kabushiki Kaisha Video processing device
JP6501536B2 (ja) * 2015-02-02 2019-04-17 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
KR102392789B1 (ko) * 2015-10-21 2022-05-02 삼성전자주식회사 초점 설정을 위한 방법 및 그 전자 장치
CN107865473B (zh) * 2016-09-26 2019-10-25 华硕电脑股份有限公司 人体特征测距装置及其测距方法
JP7154758B2 (ja) * 2017-12-28 2022-10-18 キヤノン株式会社 画像処理装置及びその制御方法
EP3654236A3 (en) * 2018-10-25 2020-08-26 Canon Kabushiki Kaisha Information processing apparatus, control method of information processing apparatus, storage medium, and imaging system
JP2022043633A (ja) * 2020-09-04 2022-03-16 キヤノン株式会社 情報処理装置、方法、プログラム及び記憶媒体
JP7337865B2 (ja) * 2021-02-24 2023-09-04 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7088865B2 (en) * 1998-11-20 2006-08-08 Nikon Corporation Image processing apparatus having image selection function, and recording medium having image selection function program
JP2002251380A (ja) 2001-02-22 2002-09-06 Omron Corp 利用者照合システム
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP4639837B2 (ja) 2005-02-15 2011-02-23 株式会社ニコン 電子カメラ
JP4182117B2 (ja) * 2006-05-10 2008-11-19 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
US20080136958A1 (en) * 2006-12-11 2008-06-12 Pentax Corporation Camera having a focus adjusting system and a face recognition function
JP4782725B2 (ja) * 2007-05-10 2011-09-28 富士フイルム株式会社 合焦装置および方法並びにプログラム
JP4824627B2 (ja) * 2007-05-18 2011-11-30 富士フイルム株式会社 自動焦点調節装置及び自動焦点調節方法並びに撮像装置及び撮像方法
JP4518131B2 (ja) * 2007-10-05 2010-08-04 富士フイルム株式会社 撮像方法及び装置
JP2009211311A (ja) 2008-03-03 2009-09-17 Canon Inc 画像処理装置及び方法
JP2009268086A (ja) * 2008-03-31 2009-11-12 Panasonic Corp 撮像装置
JP5178441B2 (ja) * 2008-10-14 2013-04-10 三洋電機株式会社 電子カメラ
JP5245907B2 (ja) * 2009-02-25 2013-07-24 カシオ計算機株式会社 撮像装置、及び顔領域特定方法とプログラム
JP5963606B2 (ja) * 2012-08-10 2016-08-03 キヤノン株式会社 撮像装置及びその制御方法
JP2014081420A (ja) * 2012-10-15 2014-05-08 Olympus Imaging Corp 追尾装置及びその方法

Also Published As

Publication number Publication date
JP2014140154A (ja) 2014-07-31
US9088709B2 (en) 2015-07-21
US20140168479A1 (en) 2014-06-19

Similar Documents

Publication Publication Date Title
JP6157288B2 (ja) 画像処理装置およびその制御方法、撮像装置
JP5991755B2 (ja) 自動焦点検出装置およびその制御方法
US8237800B2 (en) Main face choosing device, method for controlling same, and image capturing apparatus
JP5829679B2 (ja) 撮像装置、撮像装置の合焦制御方法、及び集積回路
JP4674471B2 (ja) デジタルカメラ
KR101142316B1 (ko) 화상 선택 장치 및 화상 선택 방법
JP5335302B2 (ja) 焦点検出装置及びその制御方法
US9253395B2 (en) Automatic focus detection apparatus, control method for the same, and image pickup apparatus
CN110536069B (zh) 变焦控制装置、变焦控制装置的控制方法和记录介质
JP6184189B2 (ja) 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体
US9113075B2 (en) Image processing method and apparatus and digital photographing apparatus using the same
US20160191810A1 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
US20160191811A1 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
JP2017167438A (ja) ズーム制御装置、撮像装置及びそれらの制御方法、プログラム並びに記憶媒体
JP6768537B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5335408B2 (ja) 焦点調節装置及び方法
JP5075110B2 (ja) 焦点調節装置及び方法
JP2011107550A (ja) 撮像装置
JP6858022B2 (ja) 焦点検出装置、その制御方法およびプログラム、並びに撮像装置
JP2010060657A (ja) 焦点調節装置及び焦点調節方法
JP5451869B2 (ja) 焦点調節装置及び方法
JP2011250277A (ja) 撮像装置
JP2013140262A (ja) 焦点調節装置
JP2009267824A (ja) 撮影装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170606

R151 Written notification of patent or utility model registration

Ref document number: 6157288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151