[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4350725B2 - 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム - Google Patents

画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム Download PDF

Info

Publication number
JP4350725B2
JP4350725B2 JP2006162215A JP2006162215A JP4350725B2 JP 4350725 B2 JP4350725 B2 JP 4350725B2 JP 2006162215 A JP2006162215 A JP 2006162215A JP 2006162215 A JP2006162215 A JP 2006162215A JP 4350725 B2 JP4350725 B2 JP 4350725B2
Authority
JP
Japan
Prior art keywords
target
detection result
image
display
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006162215A
Other languages
English (en)
Other versions
JP2007068147A (ja
JP2007068147A5 (ja
Inventor
努 小笠原
栄一郎 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006162215A priority Critical patent/JP4350725B2/ja
Priority to US11/457,862 priority patent/US7602417B2/en
Priority to CN2006101095339A priority patent/CN1909603B/zh
Publication of JP2007068147A publication Critical patent/JP2007068147A/ja
Publication of JP2007068147A5 publication Critical patent/JP2007068147A5/ja
Priority to US12/552,571 priority patent/US7817202B2/en
Priority to US12/552,554 priority patent/US7738024B2/en
Application granted granted Critical
Publication of JP4350725B2 publication Critical patent/JP4350725B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、画像データから所定の条件を満たす対象を繰り返し検出し、この対象の検出結果を示す表示機能に関するものである。
画像データから所定の条件を満たす対象を繰り返し検出する機能を有する装置がある。これは、例えば、下記の状況を改善するために用いられる。
自動的に被写体に焦点をあわせる自動合焦機能を備えたカメラでは、一般的に複数の焦点検出エリアの中から一つ、あるいは、複数を選択し、選択された焦点検出エリアに存在する被写体に焦点があうように撮像光学系のレンズ位置を調節する。そして、この焦点検出エリアに存在する主被写体の輝度値の重み付けを大きくして、露出補償が行われる。しかしながら、この焦点検出エリアが占める面積は画面の一部に限られており、焦点をあわせたい主被写体が焦点検出エリアの外に存在するときには、主被写体に焦点をあわせることができない。また、主被写体が焦点検出エリアに存在していたとしても、目的とする主被写体以外の対象に焦点調節動作が行われる場合がある。例えば別の焦点検出エリアに存在する被写体が主被写体よりもカメラに近い位置に存在していた場合は、この別の焦点検出エリアに存在する被写体を優先的に主被写体とみなして焦点調節動作が行われてしまうことがある。これを回避する手段として、ユーザーに主被写体が存在する焦点検出エリアを指示させるものがあるが、これではユーザーの手間が増える。
そこで、次のような装置が提案されている。得られた画像データの中から形状解析等の手法によって主被写体を自動的に検出し、検出された主被写体に対して焦点検出エリアを表示し、この焦点検出エリアに対して焦点調節動作を行わせるカメラである(例えば、特許文献1参照)。
このカメラによれば、画像データの全体から主被写体の検出を行うことで、主被写体が被写界のどこに存在しようとも、主被写体に対して焦点調節動作を行うことができる。そして、主被写体を追尾するためには、この形状解析等の手法による主被写体の検出動作は周期的に行われる必要がある。
特開2003−107335号公報 特開2002−251380号公報
しかしながら、自動的に主被写体を検出する機能を有する装置には、ユーザーが意図していない異なる被写体を誤って選択する可能性がある。そのため、どの被写体を主被写体として検出したかをユーザーに報知して確認させる必要がある。
また、例えば液晶モニター等の表示装置にて、被写体の動きを観察するために画像データを連続的に表示する場合は、主被写体の動きにあわせて主被写体の検出結果も更新することが望まれる。そこで、周期的に行われる主被写体の検出結果を随時更新し、最新の主被写体の検出された領域を常に表示する処理が行われる。つまり、主被写体が検出された場合には、その検出された領域に、検出されたことを示す枠を被写体の画像に重畳させて表示する。
ここで、主被写体の検出動作としては、例えば、両目や鼻や口などの顔の器官の配置に基づいて人物の正面顔や斜め顔を検出する方法が提案されている(例えば、特許文献2参照)。しかしながら、この主被写体の検出方法では、主被写体が瞬きして目を閉じたり不意に余所見をして顔が横向きになったときに得られた画像からは片方の目を認識できないため、主被写体の検出ができなくなる。その結果、図14に示すように、主被写体は場所を移動していないにもかかわらず一時的に検出された領域を示す枠が消えることとなる。
例えば、じっとすることが苦手な子供を対象として上記の方法にて主被写体の検出を行う場合には、一時的に主被写体の検出に失敗する可能性が高い。すると、検出位置を示す枠の表示と非表示とが短期間に繰り返される可能性が高い。すると、被写体の動きを観察するために表示装置に表示された画像が見づらく、煩わしいものとなる。これは動画のように連続的に状況が変化する画像データから主被写体の検出を繰り返し行う機能を有し、その検出結果を表示しようとすれば、共通して生じる課題である。よって、カメラのような撮像機器に限定される課題ではなく、転送された動画データから対象の検出を行い、その結果を表示するアプリケーションを動作させる場合においてもこの課題は生じる。
本発明は、上記の課題を解決するためのものである。その目的は、画像データから所定の条件を満たす対象を繰り返し検出する機能を有する装置において、一時的に目的とする対象が検出できなくとも、検出結果を示す表示を見やすくするように改善を図ることである。
かかる目的下において、第1の発明は、画像データを用いて画像を表示する工程と、前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める工程と、前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示する工程とを有し、前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、前記検出結果が継続して表示されている時間が所定の時間に達していなければ、前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続し、前記検出結果が継続して表示されている時間が前記所定の時間に達していれば、前記検出結果の表示を消去することを特徴とする画像処理方法とするものである。
また、第2の発明は、画像データを用いて画像を表示する工程と、前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める工程と、前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示する工程とを有し、前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、前記対象が検出できていたときの前記対象の位置が前記画像の端部でないことを含む所定の条件を満たしていれば、前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続し、前記所定の条件を満たしていなければ、前記検出結果の表示を消去することを特徴とする画像処理方法とするものである。
また、第3の発明は、画像データを用いて画像を表示する工程と、前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める工程と、前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示する工程とを有し、前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、前記対象が検出できていたときの前記対象の移動方向が前記画像の外側でないことを含む所定の条件を満たしていれば、前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続し、前記所定の条件を満たしていなければ、前記検出結果の表示を消去することを特徴とする画像処理方法とするものである。
また、第4の発明は、画像データを用いて画像を表示する工程と、前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める工程と、前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示する工程とを有し、前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、前記画像データを更新した際の画像データの変化の大きさが所定の閾値を越えないことを含む所定の条件を満たしていれば、前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続し、前記所定の条件を満たしていなければ、前記検出結果の表示を消去することを特徴とする画像処理方法とするものである。
本発明によれば、画像データから所定の条件を満たす対象を繰り返し検出し、その結果を表示する機能を有する装置において、一時的に目的とする対象が検出できなくとも、検出結果を示す表示を見やすいように改善することができる。
(第1の実施の形態)
以下、添付図面を参照して本発明の好適な実施の形態を詳しく説明する。
図1は、本発明の実施の形態に係る撮像装置1000の構成を示すブロック図である。本実施の形態では撮像装置1000として電子スチルカメラを例にあげて説明を行う。
図1において、1001は撮像レンズ群、1002は光量調節装置であり、絞り装置及びシャッタ装置を備えている。1003は撮像レンズ群を通過した被写体像としての光束を電気信号に変換するCCDやCMOS等の撮像素子、1004は撮像素子1003のアナログ信号出力にクランプ処理、ゲイン処理等を行うアナログ信号処理回路である。1005はアナログ信号処理回路1004の出力をデジタル信号に変換するアナログ/デジタル(以下、A/Dとする)変換器である。1007はデジタル信号処理回路であり、A/D変換器1005からのデータ或いはメモリ制御回路1006からのデータに対して画素補間処理や色変換処理を行う。また、このデジタル信号処理回路1007は、撮像した画像データを用いて演算を行う。システム制御回路1012はこの演算結果に基づいて露出制御回路1013、焦点制御回路1014に対する制御を実行するTTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(ストロボプリ発光)処理を行っている。また、デジタル信号処理回路1007は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。更に、デジタル信号処理回路1007は、顔検出回路1016を備えており、撮像した画像データから、目、口等のエッジを検出して顔の特徴部を検出し、人間の顔が占める領域を検出する顔検出処理を実行する。さらにデジタル信号処理回路1007はタイマー1015を備えており、後述する顔検出枠のそれぞれに対して、互いに独立して表示時間を計測することができる。
メモリ制御回路1006は、アナログ信号処理回路1004、A/D変換器1005、デジタル信号処理回路1007、メモリ1008、デジタル/アナログ(以下、D/Aとする)変換器1009を制御する。これにより、A/D変換器1005でA/D変換されたデータは、デジタル信号処理回路1007とメモリ制御回路1006を介して、メモリ1008に書き込まれる。あるいは、A/D変換器1005でA/D変換されたデータが直接メモリ制御回路1006を介して、メモリ1008に書き込まれる。
メモリ1008は表示装置1010に表示するデータを記憶し、このメモリ1008に記録されているデータはD/A変換器1009を介して液晶モニター等の表示装置1010に出力されて表示される。また、メモリ1008は、撮像した静止画象や動画像を格納し、所定枚数の静止画像や所定時間分の動画像を格納するのに十分な記憶量を備えている。これにより、複数枚の静止画像を連続して撮像する連写撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ1008に対して行うことが可能となる。また、このメモリ1008はシステム制御回路1012の作業領域としても使用することが可能である。
表示装置1010は、撮像した画像データを逐次表示することで電子ファインダとしての機能を実現できる。また表示装置1010は、システム制御回路1012の指示により任意に表示をオン/オフすることが可能であり、表示をオフにした場合は、オンにした場合に比較して、この撮像装置1000の電力消費を低減できる。また、システム制御回路1012でのプログラムの実行に応じて、文字や画像等を用いて動作状態やメッセージ等を表示する。
1011はメモリカードやハードディスク等の記憶媒体とのインタフェースである。このインターフェース1011を用いて、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことができる。このインターフェース1011をPCMCIAカードやCF(コンパクトフラッシュ(登録商標))カード等の規格に準拠したものを用いて構成した場合、各種通信カードを接続すればよい。この各種通信カードとしては、LANカードやモデムカード、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カード、等があげられる。
システム制御回路1012は撮像装置1000全体の動作を制御している。システム制御回路1012内のメモリに、このシステム制御回路1012の動作用の定数、変数、プログラム等を記憶している。
露出制御回路1013は、光量調節装置1002の絞り装置、シャッタ装置を制御する。焦点制御回路1014は撮像レンズ群1001のフォーカシング動作、ズーミング動作を制御する。露出制御回路1013、焦点制御回路1014はTTL方式を用いて制御されている。撮像した画像データをデジタル信号処理回路1007によって演算した演算結果に基づき、システム制御回路1012が露出制御回路1013、焦点制御回路1014に対して制御を行う。
以下、図2乃至図5のフローチャートを参照して、本実施の形態に係る電子カメラの動作を説明する。尚、この処理を実行するプログラムはシステム制御回路1012内のメモリに記憶されており、システム制御回路1012の制御の下に実行される。
図2は本実施の形態に係る撮像装置1000におけるメイン処理ルーチンでの動作を説明するフローチャートである。
この処理は、例えば電池交換後などの電源投入により開始され、まずステップS101で、システム制御回路1012は、内部のメモリの各種フラグや制御変数等を初期化する。ステップS102で、システム制御回路1012は表示装置1010の画像表示をオフ状態に初期設定する。次にステップS103でシステム制御回路1012は撮像装置1000のモード設定状態を検知し、電源オフに設定されていたならばステップS105に進む。ステップS105ではシステム制御回路1012は各表示装置の表示を終了状態に変更し、フラグや制御変数等を含む必要なパラメータや設定値、設定モードを記録する。そしてシステム制御回路1012は表示装置1010を含む撮像装置1000の各部の不要な電源を遮断する等の所定の終了処理を行う。
またシステム制御回路1012は、ステップS103でその他のモードに設定されていればステップS104に進む。ステップS104では、システム制御回路1012は選択されたモードに応じた処理を実行し、その処理を終えるとステップS103に戻る。
システム制御回路1012は、ステップS103で撮影モードが設定されている場合は、ステップS106に進み、電源の残容量や動作情況が撮像装置1000の動作に問題があるか否かを判断する。システム制御回路1012は、問題があると判断するとステップS108に進み、表示装置1010を用いて、画像や音声により所定の警告表示を行い、ステップS103に戻る。
ステップS106で、システム制御回路1012は電源に問題が無いと判断するとステップS107に進む。ステップS107では、システム制御回路1012は記憶媒体の動作状態が撮像装置1000の動作、特に記憶媒体に対する画像データの記録再生動作に問題があるか否かを判断する。システム制御回路1012は問題があると判断すると前述のステップS108に進み、表示装置1010を用いて、画像や音声により所定の警告表示を行った後にステップS103に戻る。
システム制御回路1012はステップS107で記憶媒体に問題がないと判断するとステップS109に進む。ステップS109では、システム制御回路1012は表示装置1010を用いて、画像や音声により撮像装置1000の各種設定状態の表示を行う。尚、表示装置1010の画像表示がオンであったならば、表示装置1010も用いて画像や音声により撮像装置1000の各種設定状態の表示を行ってもよい。
次にステップS110で、システム制御回路1012は表示装置1010の画像表示をオン状態に設定し、光量調節装置1002にシャッタ装置を開かせる。更に、ステップS111で、システム制御回路1012は、表示装置110に撮像した画像データを逐次用いて動画として表示するスルー表示を開始させる。このスルー表示状態では、メモリ1008に逐次書き込まれたデータを表示装置1010により逐次表示することにより、電子ファインダ機能を実現している。本実施の形態では表示装置1010は1/30秒毎に新たな画像を表示する。
ステップS112ではシステム制御回路1012は、デジタル信号処理回路1007に画像データから顔領域を検出する顔検出処理を開始させる。顔領域を検出する技術としては、様々な手法が公知となっている。例えば、ニューラルネットワークに代表される学習を用いた方法がある。また、目や鼻といった物理的な形状の特徴のある部位を画像領域からテンプレートマッチングで抽出する手法がある。他にも、肌の色や目の形といった画像特徴量を検出し統計的手法を用いて解析する手法があげられる(例えば、特開平10−232934号公報や特開2000−48184号公報等を参照)。
本実施の形態では、一対の目(両目)、鼻、口を検出し、これらの相対位置より人物の顔領域を決定する手法により顔検出処理を行っている。ここで、検出の対象となる人物が片目を閉じていたり、不意に余所見をして横向きになった場合には、基準となる一対の目が存在しないために顔領域の検出ができなくなる。
この顔検出処理にはある程度の演算時間が必要となるため、デジタル信号処理回路1007は、スルー表示用に得た全ての画像データに対して顔検出処理が行えるわけではない。本実施の形態では、スルー表示用の画像データが2回得られる間に1回の顔検出処理が行われるものとして説明を行う。
ステップS113では、システム制御回路1012は、デジタル信号処理回路1007に、ステップS112の顔検出結果を示す枠を表示する枠表示処理を行わせる。この枠表示処理(S113)の詳細を図3のフローチャートを用いて説明する。
まずステップS201では、デジタル信号処理回路1007は、表示装置1010に検出された顔領域の位置を示す枠(以下、顔検出枠という)が既に表示されているかを判断する。顔検出枠が既に表示されていなければステップS202に進む。撮像装置1000を撮影モードに設定してから最初にステップS113を実行する場合は、顔検出枠がまだ表示されていないために、ステップS202に進むことになる。
ステップS202では、デジタル信号処理回路107はステップS112の顔検出処理にて得られた全ての顔領域の座標を取得する。
ステップS203では、表示装置1010は、ステップS202で取得した顔領域の座標を元に、検出された顔領域を囲う顔検出枠を被写体像に重畳させて表示する。その様子を図7(a)に示す。図7(a)は表示装置110の表示画面を示しており、検出された人物の頭部を囲う四角い顔検出枠が表示される。
ステップS204では、タイマー1015がステップS203にて表示された顔検出枠の表示時間の計測を開始する。
ステップS205では、ステップS202で取得した全ての顔領域の座標に対して顔検出枠の表示がなされていればこのルーチンを終了し、まだ顔検出枠の表示がなされていないのであればステップS203に戻る。ステップS112にて顔が1つも検出されなければ、これらステップS203乃至S205では顔検出枠の表示に関する処理は何も行われない。
そしてこのルーチンを終了後、図2のステップS114にてシャッタスイッチSW1が押されなければ、再びステップS113に戻る。シャッタスイッチSW1が押されなければ、ステップS111のスルー表示、ステップS112の顔検出処理、ステップS113の枠表示処理が繰り返し行われる。したがって、スルー表示している間に人物が動けば、検出された顔領域の位置も変化し、これに伴って顔検出枠も移動する。なお、顔検出枠の形状は楕円であっても、被写体の顔の輪郭に沿うものであってもよく、その形状は様々なものが適用できる。また、顔検出枠を表示せずとも、例えば顔領域の輪郭を強調する方法や、顔領域以外をぼかして表示する方法等、検出された顔領域が把握できる表示であればその形態は問わない。
ステップS201に戻り、デジタル信号処理回路1007は、顔検出枠が既に表示されている場合はステップS206に進み、ステップS1012の顔検出処理にて得られた全ての顔領域の座標を取得する。
ステップS207では、デジタル信号処理回路1007は、既に表示されている顔検出枠の中のいずれか1つを選択する。そしてデジタル信号処理回路1007は、ステップS206にて新たに取得した顔領域の座標の中に、この選択した顔検出枠の近傍に位置するものが存在するか判断する。新たに取得した顔領域の座標がこの近傍にあれば、ステップS208に進む。この近傍の範囲は、選択された顔検出枠によって囲われた人物と、新たに取得した顔領域の座標が示す人物とが、同一となる確率が高くなるように実験によって求められる。また、この近傍に位置する顔領域の座標が複数ある場合は、選択した顔検出枠を設定する際に用いた顔領域の座標との差異が最も小さいものを選択してステップS209の処理を行う。なお、デジタル信号処理回路1007が個人認証機能を備えていれば、このステップS207では、デジタル信号処理回路1007は既に表示されている顔検出枠によって囲まれている人物と、同じ人物の顔が検出されているかを判断してもよい。
ステップS208では、デジタル信号処理回路1007は選択した顔検出枠の座標と、この顔検出枠の近傍に位置する顔領域の座標の位置を比較し、その差を求める。
ステップS209では、ステップS208にて得られた差が所定範囲内であるならば、表示装置1010は顔検出枠の位置を更新することなく、既に表示されている顔検出枠の表示を継続し、ステップS210に進む。反対にステップS208にて得られた差が所定範囲内でなければ、ステップS211にて、表示装置1010はステップS208で比較に用いた顔領域の座標を元にして新たな顔検出枠を設定し、表示を行ってステップS210に進む。このステップS209では、ステップS208にて得られた差が所定範囲内であるかを判断することによって、新たに得られた顔領域の座標が既に表示されている顔検出枠の中に位置しているかを判断している。顔検出枠が細かな移動を頻繁に行うと、画面の見易さがかえって低下してしまう。そこで、新たに得られた顔領域の座標が既に表示されている顔検出枠の中に位置するのであれば、敢えて顔検出枠の更新を行わないことで、画面の見易さを向上させている。
ステップS210ではタイマー1015はステップS210の判断の対象となった顔検出枠に対応する表示時間、あるいは、ステップS212にて更新された顔検出枠に対応する表示時間を初期値に戻してから計測を開始させる。そして、ステップS212に進む。
ステップS207に戻り、新たに取得した顔領域の座標が選択した顔検出枠の近傍になければ、ステップS213に進む。
ステップS213では、デジタル信号処理回路1007は、選択した顔検出枠のタイマー1015による計測時間が所定時間に達したかを判断する。計測時間が所定時間に達していれば、ステップS214にてその顔検出枠を消去し、計測時間をリセットして初期値に戻す。所定時間に達していなければ、タイマー1015をいじることなくその顔検出枠の表示を継続する。そしてステップS212に進む。
ステップS212では、デジタル信号処理回路1007は、既に表示されていた顔検出枠の全てに対してステップS207の処理が行われたかを判断し、まだ処理の対象となっていない顔検出枠が残っていればステップS207に戻る。そうでなければステップS215に進む。
ステップS215では、デジタル信号処理回路1007は、ステップS207の判断に用いた全ての顔検出枠のいずれの近傍にも位置しない顔領域の座標が存在するか判断し、存在していなければこのフローを終了する。全ての顔検出枠のいずれの近傍にも位置しない顔領域の座標が存在すれば、新たに顔検出枠を設定する必要があるため、ステップS216に進む。
ステップS216では、表示装置1010は、ステップS206で取得した顔領域の座標を元に、検出された顔領域を囲う顔検出枠を被写体像に重畳させて表示する。
ステップS217では、タイマー1015は、ステップS216にて新たに表示された顔検出枠の表示時間の計測を開始する。
ステップS218では、デジタル信号処理回路1007は顔検出枠が設定されていない顔領域の座標が残っているかを判断し、全ての顔領域の座標に対して顔検出枠の設定が行われていればこのフローを終了する。まだ顔検出枠の設定が行われていない顔領域の座標が残っていれば、ステップS216に戻る。
図2に戻り、ステップS114では、システム制御回路1012はシャッタスイッチSW1が押されているかどうかを調べ、押されていなければステップS113に戻るが、シャッタスイッチSW1が押されたならばステップS115に進む。シャッタスイッチSW1が押されたならば、デジタル信号処理回路1007はシャッタスイッチSW1が解除されるまでは顔検出処理を停止する。
ステップS115では、システム制御回路1012はAF処理を行って撮像レンズ1001の焦点を被写体に合わせ、更にAE処理を行って絞り値及びシャッタ速度を決定する。このAE処理では、必要であればストロボの設定も行う。
このステップS115のAF及びAE処理の詳細を図4のフローチャートを用いて説明する。
まずステップS301で、撮像素子1003から電荷信号を読み出し、A/D変換器1005を介してデジタルデータに変換し、そのデジタルデータをデジタル信号処理回路1007に入力する。デジタル信号処理回路1007はこの入力された画像データを用いて、TTL方式のAE処理、EF処理、AWB処理、および、AF処理に用いる所定の演算を行っている。尚、ここでの各処理は、撮像した全画素数の内、ステップS112で検出された顔領域のみを用いて、あるいは、顔領域の重み付けを他の領域よりも大きくして演算に用いている。これにより、TTL方式のAE処理、EF処理、AWB処理、および、AF処理の各処理において、検出された顔領域の画像データを他の領域よりも優先して好適となるように演算を行うことが可能となる。ただし、ステップS209からステップS210に進んだ場合のように、検出された顔領域の座標と、表示されている顔検出枠の位置とが完全には一致しない場合ある。この場合、AE処理、EF処理、AWB処理、および、AF処理の各処理は、顔検出枠が表示されている位置ではなく、検出された最新の顔領域の座標が用いられる。
ステップS301におけるデジタル信号処理回路1007での演算結果を用いて、ステップS302で露出が適正ではないと判断されると、ステップS303に進む。ステップS303ではシステム制御回路1012は露出制御回路1013にAE制御を行わせる。このAE制御で得られた測定データを用いて、ステップS304で、ストロボが必要か否かを判断する。ストロボ発光が必要であればステップS305に進み、ストロボフラグをセットし、不図示のストロボを充電してステップS301に戻る。
ステップS302で、システム制御回路1012は、露出が適正と判断したならばステップS306に進み、測定データ或いは設定パラメータをシステム制御回路1012の内部メモリ或いはメモリ1008に記憶させる。そしてステップS307でシステム制御回路1012はデジタル信号処理回路1007での演算結果及びAE制御で得られた測定データを用いて、ホワイトバランスが適正かどうかを判断し、適正でないと判断するとステップS308に進む。ステップS308ではデジタル信号処理回路1007を用いて色処理のパラメータを調節してAWB制御を行ってステップS301に戻る。
こうしてシステム制御回路1012はステップS307でホワイトバランスが適正と判断するとステップS309に進む。ステップS309でシステム制御回路1012は、メモリ1008の測定データ或いは設定パラメータをシステム制御回路1012の内部メモリに記憶させる。そしてステップS310で合焦状態であるかどうかを判断する。合焦状態でないときはステップS311に進み、システム制御回路1012は焦点制御回路1014にAF制御を行わせてステップS301に戻る。こうしてステップS310で、合焦状態であると判断されると、ステップS312に進み測定データ或いは設定パラメータをシステム制御回路1012の内部メモリに記憶し、合焦した領域を示すAF枠の表示を設定し、このAF処理及びAE処理を終了する。このAF枠は最新の顔領域の座標とその位置が一致する。
図2に戻り、ステップS116では、システム制御回路1012はAF処理、AE処理後に再度スルー表示状態に設定し、AF枠の表示を行う。
次にステップS117で、シャッタスイッチSW2が押されずに、更にシャッタスイッチSW1も解除されるとステップS112に戻る。
一方、ステップS117でシャッタスイッチSW2が押されるとステップS119に進む。
ステップS119では、システム制御回路1012は撮影した画像データをメモリ1008に書き込む露光処理を行う。さらに、システム制御回路1012はメモリ制御回路1006、そして必要に応じてデジタル信号処理回路1007を用いて、メモリ1008に書き込まれた画像データを読み出して各種処理を行う現像処理からなる撮影処理を実行する。この撮影処理(S119)の詳細を図5のフローチャートを用いて説明する。
ステップS401では、前述AE制御で得られた測定データに従い、露出制御回路1013は光量調節装置1002の絞り値を設定し、撮像素子1003の露光を開始する。
ステップS402では、システム制御回路1012は、ストロボフラグによりストロボ発光が必要か否かを判断し、ストロボ発光が必要な場合はステップS403に進み、所定の発光量でストロボユニットをプリ発光させる。このプリ発光の光量は、光量調節装置1002の絞り値と被写体までの距離と、設定された撮像素子1003の感度とに基づいて決定される。ステップS402でストロボ発光が必要でないと判断した場合は、プリ発光を行わないのでステップS410に進む。
ステップS404では、露出制御回路1013は測光データに従って撮像素子1003の露光終了のタイミングを待ち、露光終了のタイミングになるとステップS405で、撮像素子1003から電荷信号を読み出させる。そして、A/D変換器1005、デジタル信号処理回路1007、メモリ制御回路1006を介して、或いはA/D変換器1005から直接メモリ制御回路1006を介して、撮像画像のデータをメモリ1008に書き込ませる。
次にステップS406に進み、システム制御回路1012はプリ発光時の顔領域内の輝度の平均値を求め、顔領域内の輝度が適正輝度となる本発光量(実際の撮影時の発光量)を演算する。例えば、プリ発光によるプリ撮影の画像信号レベルが適正レベルである場合は、プリ発光と同じ発光量で良く、また例えば、プリ撮影の画像信号レベルが1段階下回っている場合は、プリ発光の2倍の発光量に設定する等の処理を行う。
次にステップS407で、システム制御回路1012は、本撮影のために撮像素子1003のリセット動作を行って露光を開始する。そしてステップS408に進み、ステップS406で求めた本発光量で、ストロボユニットを発光させる。
ステップS409では、露出制御回路1013は測光データに従って撮像素子1003の露光終了のタイミングを待ち、ステップS410で、露光を終了させてシャッタを閉じる。
そしてステップS411で、システム制御回路1012は、撮像素子1003から電荷信号を読み出させる。そして、A/D変換器1005、デジタル信号処理回路1007、メモリ制御回路1006を介して、或いはA/D変換器1005から直接メモリ制御回路1006を介して、メモリ1008に撮影画像のデータを書き込ませる。
ステップS412で、システム制御回路1012は、メモリ制御回路1006、そして必要に応じてデジタル信号処理回路1007を用いて、メモリ1008に書き込まれた画像データを読み出して垂直加算処理を実行させる。
ステップS413で、システム制御回路1012は、色処理を行わせた後、ステップS414でその処理を終えた表示画像データをメモリ1008に書き込ませ、撮影処理ルーチンを終了する。
こうしてステップS119の撮影処理が実行されるとステップS120に進み、表示装置1010にて、ステップS119にて得られた画像データを基に表示を行うクイックレビュー表示を実行する。撮影中も表示装置1010が電子ファインダとして常に表示された状態であり、撮影直後のクイックレビュー表示も行われる。
ステップS121では、システム制御回路1012は、メモリ1008に書き込まれた撮像した画像データを読み出して、メモリ制御回路1006、及び必要に応じてデジタル信号処理回路1007を用いて各種画像処理を実行させる。また、システム制御回路1012は、画像圧縮処理を行わせた後、記憶媒体へ圧縮した画像データの書き込みを行う記録処理を実行する。
ステップS121の記録処理が終了した後、ステップS122で、シャッタスイッチSW2が押された状態かどうかを調べる。シャッタスイッチSW2が押された状態であればステップS123に進み、システム制御回路1012は、システム制御回路1013の内部メモリ或いはメモリ1008に記憶される連写フラグの状態を判断する。ここで連写フラグがオンであれば、システム制御回路1012は連続して撮影を行うためにステップS119に進み、次の映像の撮影を行う。ステップS123で、連写フラグがオンでなければ、システム制御回路1012はステップS122に進み、シャッタースイッチSW2が放されるまでステップS122、S123の処理を繰り返す。
このように本実施の形態によれば、撮影直後にクイックレビュー表示を行う動作設定状態の場合に、記録処理(S121)が終了した際にシャッタスイッチSW2が押された状態であるかを判断する。シャッタスイッチSW2が押された状態であれば、シャッタスイッチSW2が放されるまで表示装置1010におけるクイックレビュー表示を継続する。これにより、撮影画像の確認を入念に行うことができる。
こうしてステップS121の記録処理の後、直ぐにシャッタスイッチSW2がオフされた場合はステップS122からステップS124に進む。同様に、ステップS121の記録処理の後、シャッタスイッチSW2を押し続けてクイックレビュー表示を継続して撮影画像の確認を行った後にシャッタースイッチSW2をオフにした場合はステップS122からステップS124に進む。そしてステップS124では所定のミニマムレビュー時間が経過するのを待ってステップS125に進む。
ステップS125では、システム制御回路1012は表示装置1010の表示状態をスルー表示状態に設定してステップS126に進む。これにより、表示装置1010でのクイックレビュー表示によって撮影画像を確認した後に、次の撮影のために、撮像した画像データを逐次表示するスルー表示状態にすることができる。
ステップS126では、シャッタスイッチSW1がオンされた状態かどうかを調べ、そうであればステップS117に進んで次の撮影に備える。またステップS126で、シャッタスイッチSW1がオフされている場合は、一連の撮像動作を終えてステップS112に戻る。
ここで、顔検出枠の表示方法について再び説明を行う。上述の実施の形態では、顔検出枠を表示すると(S203,S211,S216)タイマー1015がその顔検出枠の表示時間の計測を開始する(S204,S210,S217)。その顔検出枠によって囲まれていた人物と同一である可能性が高い人物の顔を検出できないままに、タイマー1015が所定時間に達すると顔検出枠は消去される(S214)。このタイマー1015が計測する所定時間は、少なくとも一度顔検出枠を表示してから、その次に行われた顔検出結果に基づいて再び顔検出枠を表示するために要する時間よりも長く設定されている。つまり、連続して顔検出が成功していれば、タイマーが所定時間に達することによって顔検出枠が消去されることはない。
図6(a)にタイマー1015による計測時間と、顔検出枠の表示/消去の関係を表す図を示す。
上から順に、スルー表示用の画像データを得るタイミング、顔検出結果を得るタイミング、顔検出枠の更新タイミング、および、タイマー1015による時間の計測結果を示す。横軸はいずれも時間を示している。
スルー表示用の画像データは1/30秒毎に更新され、そのタイミングを順にt0、t1、t2、t3、t4、t5、t6、t7、t8、t9、t10で示す。t0のタイミングで得られた画像データに対する顔検出結果が(1)に示すタイミングで得られる。t2で得られた画像データに対する顔検出結果が(2)に示すタイミングで得られる。t4で得られた画像データに対する顔検出結果が(3)に示すタイミングで得られる。図6(a)では、(3)、(4)のタイミングで得られた顔検出結果は顔が検出できなかったことを示している。(1)、(2)のタイミングで得られた顔検出結果には、検出された顔領域の座標が含まれている。顔検出枠の更新はスルー表示と同じく1/30秒毎に行われる。
タイマー1015は顔検出枠の更新のタイミングが来るたびに、1ずつ減算していくカウンターにて構成されている。図6(a)では(1)のタイミングにて顔領域の座標が得られたため、次の顔検出枠の更新のタイミングで顔検出枠を新たに表示するとともに、タイマー1015はカウント値を‘5’に設定する。次の顔検出枠の更新のタイミングではカウント値は1減算されて‘4’となる。
その次の顔検出枠の更新のタイミングでは、新たに(2)のタイミングにて得られた顔領域の座標が存在する。よって、この新たな顔領域の座標を用いて顔検出枠の更新するとともに、再びタイマー1015はカウント値をリセットして‘5’に設定する。
(3)のタイミングで得られた顔検出結果には顔領域の座標が含まれていないため、タイマー1015のカウント値は‘2’まで減少することになる。だが、カウント値が‘0’に達していないため、顔検出に失敗したとしても顔検出枠の表示は継続される。
しかしながら、続く(4)のタイミングにて得られた顔検出結果にも顔領域の座標が含まれていないため、カウント値が減少して‘0’に達する。すると、タイマー1015による計測時間が所定時間に達したとして、顔検出枠が消去される。
そして、この後、(5)のタイミングにて得られた顔検出結果には新たな顔領域の座標が含まれているため、再び顔検出枠が表示され、タイマー1015はカウント値を‘5’に設定する。
このように、本実施の形態では、顔検出に失敗したとしても、タイマー1015のカウント値が‘0’に達するまでの所定期間は顔検出枠の表示を継続するという機能を備えている。
さらに、表示装置1010にて顔検出枠が表示されていない場合は、新たに得られた顔検出結果をそのまま反映させて顔検出枠を表示させる(S203)。
表示装置1010にて既に顔検出枠が表示されており、かつ、その近傍にて新たな顔検出結果が得られた場合には、既に表示されている顔検出枠の位置と、新たな顔検出結果から得られた顔の位置に応じて別々の方法が選択される。既に表示されている顔検出枠の位置と、新たな顔検出結果から得られた顔の位置が近ければ、顔検出枠を頻繁に移動させることはかえって見苦しくなるため、敢えて顔検出枠の位置は変化させない。反対に、既に表示されている顔検出枠の位置と、新たな顔検出結果から得られた顔の位置が近くなければ、被写体の顔の位置を追従させるために顔検出枠の位置を更新する(S211)。
以上説明したように、本実施の形態では顔検出に失敗したとしても、所定時間の間は顔検出枠の表示を継続する。よって、被写体たる人物が瞬きして目を閉じたり不意に余所見をした程度では顔検出枠が消去される可能性が低くなり、表示と非表示とが短期間に繰り返されるという現象を抑制することができるようになる。
(第2の実施の形態)
続いて、本発明の好適な別の実施の形態を説明する。本実施の形態では、検出された顔領域の位置、あるいは、大きさによりタイマー1015が設定するカウント値を異ならせることを特徴としている。
検出された顔領域が画面の中央付近であった場合は、その後に顔領域が検出できなくなった場合であっても、その人物が余所見をしたり、目を閉じたりしたことによって顔領域の検出に失敗した可能性が高いと考えられる。この場合は顔領域の検出には失敗しても、その人物の顔は同じ位置に存在している可能性が高いため、タイマー1015のカウント時間を長く設定する。
反対に検出された顔領域が画面の端部であった場合は、その後に顔領域が検出できなくなったのであれば、その人物が画面の外に出てしまった可能性が高くなる。この場合は顔領域の検出に失敗したら、その人物の顔はもうそこには存在していない可能性が高いため、タイマー1015のカウント時間を短く設定する。
また、検出された顔領域の面積が小さいほど、その人物が遠くにいることになるため、その人物が動いたとしても画面内での位置の変化は小さくなる。反対に検出された顔領域の面積が大きいほど、その人物が近くにいることになるため、その人物が少し動くだけでも画面からはみ出してしまう可能性が大きくなる。
そこで、検出された顔領域の面積が小さいほど、タイマー1015のカウント時間を長く設定する。
図8(a)は顔検出処理に用いられるスルー表示用の画像データと、検出された顔領域の位置、および、大きさの関係を示した図である。図8(b)は検出された顔領域の位置と、タイマー1015のカウント値の補正係数を示した図である。図8(c)は検出された顔領域の大きさと、タイマー1015のカウント値の補正係数を示した図である。
図8(a)は320×240ピクセルからなるQVGAの画像データであり、画像データの左上の座標を(0,0)、右下の座標を(319,239)とする。顔検出処理にて得られた顔領域の左上の座標を(x0,y0)、左下の座標を(x0,y1)、右上の座標を(x1,y0)、右下の座標を(x1,y1)とする。
これらの座標を用いて、顔検出枠と画面の端部までの距離のうち、最も短い距離DISを算出する。このDISを式に表すと以下のようになる。
DIS=min(x0,y0,320−x1,240−y1)
求められたDISから、タイマー補正係数K_DISを求める。このタイマー補正係数K_DISは0.0から1.0までの値であり、DISとK_DISの関係は図8(b)に示すようになる。DISが小さい、すなわち検出された顔が画面の端部に近いほど、K_DISの値が小さくなるように設定されている。なお、ここでは顔検出枠と画面の端部までの距離を求めたが、顔検出枠の中央部と画面の端部までの距離を求めてもよい。
また、上記の座標を用いて、顔検出枠の大きさAREAを算出する。このAREAを式に表すと以下のようになる。
AREA=(x1−x0)×(y1−y0)
求められたAREAから、タイマー補正係数K_AREAを求める。このタイマー補正係数K_AREAは0.0から1.0までの値であり、AREAとK_AREAの関係は図8(c)に示すようになる。AREAが大きい、すなわち検出された顔の面積が大きいほど、K_AREAの値が小さくなるように設定されている。
これらタイマー補正係数K_DIS、K_AREAを、タイマー基準値Tref(ここでは、Tref=7)に掛け、小数点以下を切り捨てた値を、タイマー1015のカウント値の初期値Tとして算出する。もちろんタイマー補正係数K_DIS、K_AREAの一方のみを用いても構わない。
図6(b)、図6(c)に、第1の実施の形態とはタイマー1015のカウント値の初期値が異なる場合の、タイマー1015による計測時間と、顔検出枠の表示/消去の関係を表す図を示す。
図6(b)では(1)、(2)のタイミングで顔領域の座標を得ることができるが、タイマーのカウント値の初期値が‘2’に設定されている。そのため、(3)のタイミングで顔領域の座標を得ることに失敗すると、その直後の顔検出枠の更新のタイミングにて、顔検出枠が消去されてしまっている。(5)のタイミングで新たな顔領域の座標を得られるまでは顔検出枠は表示されず、(5)のタイミングの後すぐに新たな顔検出枠が表示される。また、このとき設定されたタイマー1015のカウント値の初期値は、顔領域の位置が画面の端部から離れたか、あるいは、その面積が大きくなったことによって‘3’に変更されている。
図6(c)ではタイマー1015のカウント値の初期値が‘7’に設定されている。そのため、(3)、(4)のタイミングで顔領域の座標が得られずとも、顔領域の座標が得られる(5)のタイミングよりも前にタイマー1015のカウント値が‘0’に達することはない。ゆえに図6(c)では顔検出枠は(1)〜(5)の期間の間、常に継続して表示されている。
以上説明したように、本実施の形態では顔検出に失敗したとしても、所定時間の間は顔検出枠の表示を継続する。そして、この所定時間を検出された顔の位置、および、大きさの少なくとも一方に応じて変化させる。これにより、被写体が画面内に存在する可能性が高い状況ほど顔検出枠が消去される可能性が低くなり、表示と非表示とが短期間に繰り返されるという現象を抑制することができるようになる。
(第3の実施の形態)
更に本発明の好適な別の実施の形態を説明する。本実施の形態では、第1の実施の形態における図3のステップS207にて、ステップS206にて取得した顔領域の座標の中に、この選択した顔検出枠の近傍に位置するものが存在しないと判断した後の処理が異なる。第1の実施の形態と異なる処理であるステップS501乃至ステップS505を中心に説明を行う。なお、図3と同じ番号が付されているステップでは、第1の実施の形態と同じ処理が行われる。
図9のステップS207では、デジタル信号処理回路1007は、既に表示されている顔検出枠の中のいずれか1つを選択する。そしてデジタル信号処理回路1007はステップS206にて取得した顔領域の座標の中に、この選択した顔検出枠の近傍に位置するものが存在するか判断する。新たに取得した顔領域の座標が選択した顔検出枠の近傍になければ、ステップS501に進む。
ステップS501では、デジタル信号処理回路1007は、ステップS207にて選択した顔検出枠の近傍にて、前回のタイミングで顔領域の座標を検出できたかを判断する。検出できていなければステップS213に進み、タイマー1015による計測時間に応じて顔検出枠の表示の継続、あるいは、消去を行う。検出できていればステップS502に進む。
ステップS502では、デジタル信号処理回路1007は、ステップS207にて選択した顔検出枠に最も近い位置で検出された顔領域の座標を用いて、顔領域の動きを算出する。顔領域の移動方向が画面の外側であればステップS503に進む。顔領域の移動方向が画面の内側であれば、この顔領域は画面内からすぐ消えることはないと判断してステップS505に進み、タイマー1015をリセットして初期値を設定し、表示時間の計測を開始する。
ステップS503では、デジタル信号処理回路1007は、顔領域の動きを算出するときに用いた顔領域の座標が、画面の端部に位置しているかを判断する。顔領域の座標が画面の端部に位置していれば、そのままその顔領域が画面からはみ出す可能性が高いため、ステップS502で顔領域の算出に用いた顔検出枠を消去する。画面の端部に位置していなければ、この顔領域は画面内からすぐ消えることはないと判断してステップS505に進み、その後ステップS212に進む。
以上説明したように、本実施の形態では、顔領域の移動方向とその位置に応じて、顔検出枠を消去するかを判断している。これにより、被写体が画面内に存在する可能性が低い状況ほど顔検出枠が速やかに消去され、顔が画面内から消えたにもかかわらずに顔検出枠のみが表示されているという現象を抑制することができるようになる。
また、このステップS502で、顔領域の移動方向だけでなく移動速度も求め、移動速度が速いほど、ステップS505にて設定するタイマー1015の初期値を小さな値としてもよい。被写体の移動速度が速いほど、画面からはみ出してしまう可能性が高いためである。
(第4の実施の形態)
更に本発明の好適な別の実施の形態を説明する。本実施の形態では、第1の実施の形態における図3のステップS207にて、ステップS206にて取得した顔領域の座標の中に、この選択した顔検出枠の近傍に位置するものが存在しないと判断した後の処理が異なる。第1の実施の形態と異なる処理であるステップS601乃至ステップS603を中心に説明を行う。なお、図3と同じ番号が付されているステップでは、第1の実施の形態と同じ処理が行われる。
図10のステップS207では、デジタル信号処理回路1007は、既に表示されている顔検出枠の中のいずれか1つを選択する。そしてデジタル信号処理回路1007はステップS206にて取得した顔領域の座標の中に、この選択した顔検出枠の近傍に位置するものが存在するか判断する。新たに取得した顔領域の座標が選択した顔検出枠の近傍になければ、ステップ601に進む。
ステップS601では、デジタル信号処理回路1007は被写体の状況が変化したかを判断するためのシーン検出処理を行う。
このシーン検出処理の詳細を、図11のフローチャートを示した図と、図7の分割領域を示す図を用いて説明する。図7(a)は表示装置1010の表示画面を示しており、図7(b)は撮像素子103の分割領域を示している。図7(b)の鎖線が分割領域の境界を示しており、説明を容易にするため、図7(a)にも図7(b)と同様の鎖線を示している。図7(b)にて、図7(a)の顔検出枠がかかっている分割領域には斜線が引いてある。
図11において、ステップS701では、デジタル信号処理回路1007は顔検出枠がかかっていない分割領域(図7(b)にて斜線がかかっていない領域)の輝度信号を検出する。そして、デジタル信号処理回路1007はこの輝度信号と、前回タイマー1015を初期値に設定したときの画像データの対応する領域から得られた輝度信号とを比較し、その差△Ynを演算する。
ステップS702では、デジタル信号処理回路1007は顔検出枠がかかっている分割領域毎に画像データを特定の周波数(本実施の形態ではナイキスト周波数の半分である(1/2)*fnn)に変換する。
そして、デジタル信号処理回路1007はこの周波数と、前回タイマー1015を初期値に設定したときの画像データにおける対応する領域において、同様の方法にて求めた周波数とを比較し、その差△(1/2)*fnnを演算する。
ステップS703では、デジタル信号処理回路1007は顔検出枠がかかっていない分割領域毎の色差信号を検出する。そして、デジタル信号処理回路1007はこの色差信号と、前回タイマー1015を初期値に設定したときの画像データにおける対応する領域から得られた色差信号とを比較し、その差△Crn、△Cbnを演算する。
デジタル信号処理回路1007は、ステップS704にて、ステップS701で演算した△Ynの大きさが閾値Yth以下であるかを判断する。また、ステップS705にて、ステップS702で演算した△(1/2)*fnnの大きさが閾値fnth以下であるかを判断する。また、ステップS706にて、ステップS703で演算した△Crn、△Cbnの大きさがそれぞれ閾値Crth、Cbth以下であるかを判断する。なお、閾値Yth、fnth、Crth、および、Cbthは、実験によって被写体が消えずに画面内に留まっていると判断できるための値が求められる。
その結果、ステップS704からステップS706におけるすべての条件を満たすのであれば、デジタル信号処理回路1007は顔検出は成功していなくとも被写体の状況に生じた変化は小さいと判断する。そして、デジタル信号処理回路1007はステップS707にてシーン変化なしを示すフラグを設定する。
反対に、いずれかの条件を満たさないのであれば、被写体の状況に変化は小さくないと判断し、デジタル信号処理回路1007はステップS708にてシーン変化ありと示すフラグを設定する。
そしていずれかのフラグを設定すると、このルーチンを終了する。
図10に戻り、デジタル信号処理回路1007はステップS602でシーン変化ありを示すフラグが設定されているかを判断し、設定されていればステップS603に進む。シーン変化ありを示すフラグが設定されていれば、被写体の状況の変化が小さくなく、被写体の顔検出枠が被写体の頭部を捕らえている可能性は低いと考えられる。そのため、ステップS213にてタイマー1015が所定時間に達しているかを判断し、達していればステップS214にて表示装置1010は顔検出枠を消去する。ステップS213にてタイマーが所定時間に達していなければ、ステップS212に進む。
ステップS602でシーン変化ありを示すフラグが設定されていないと、ステップS603にてタイマーを初期値に設定し、表示時間の計測を開始し、ステップS212に進む。これはシーン変化ありを示すフラグが設定されていなければ、被写体の状況の変化が小さいと考えられる。すなわち、被写体たる人物が瞬きして目を閉じたり、不意に余所見をした結果として顔検出に失敗した可能性が高いと考えられる。そのため、顔検出には失敗したが被写体の頭部の位置に大きな変化はないと推定し、既に表示されている顔検出枠を継続して表示させる。
なお、顔検出に失敗し、かつ、シーン検出処理によって被写体の状況変化が小さくないと推定された場合に、すぐさま顔検出枠を消去する構成とすれば、タイマー自体が不要となる。
また、本実施の形態では、シーン変化ありを示すフラグの設定の判断基準として、分割領域毎の輝度信号の差(△Yn)、特定の周波数に変換した値の差(△(1/2)*fnn)、色差信号の差(△Crn、△Cbn)を用いている。判断基準としてはこれらの全ての信号を用いても、一部の信号のみを用いても構わない。また、これらの差を求める際には分割領域毎に得られた信号の差を求めても構わない。あるいは、複数の分割領域で得られた信号、もしくは、全ての領域で得られた信号を平均化したり、重み付けしても構わない。
また、シーン検出処理として別の方法も考えられる。
まず、ステップS113にてシャッタスイッチSW1がオンされる前のスルー表示の段階からAE処理、AF処理、あるいは、AWB処理が行われる。スルー表示用に得られた画像データを基に得られる輝度値、合焦状態、ホワイトバランス情報を、予め目標として定められている基準値と比較し、これらの差分を補償するために公知のAE処理、AF処理、あるいは、AWB処理等が行われる。
シーン検出処理(S601)では、デジタル信号処理回路1007が、スルー表示用に得られた画像データを基に演算されたAE処理における補償量、AF処理における補償量、及び、AWB処理における補償量を取得する。そして、これら補償量をそれぞれ閾値と比較し、これらの補償量の全てが、あるいは一つ以上のいずれかの補償量が閾値を超えていれば、被写体の状況に生じた変化は小さくないと判断し、シーン変化ありを示すフラグを設定することも可能である。
さらに、シーン検出のための判断基準に用いられる情報としては、撮像装置1000で撮像した画像データから得られる信号に限られない。例えば、撮像装置1000に搭載した振れ検出回路や、姿勢検出回路から出力される信号を判断基準に用いても構わない。更には、ユーザーの操作による撮像装置1000の特定の操作部材からの入力信号や、外部装置から送信された所定の信号を判断基準としても構わない。
以上説明したように、本実施の形態では、顔検出には失敗したが被写体の状況変化が小さいと推定された場合は、顔検出に成功した場合と同様に、顔検出枠の表示が継続されるとともにタイマーのリセットが行われる。つまり、顔検出に失敗したとしても、被写体の状況変化が小さいと推定されれば、そうでない場合に比較して顔検出枠の表示時間が長くなる。よって、被写体たる人物が瞬きして目を閉じたり不意に余所見をした程度では顔検出枠が消去される可能性が低くなり、表示と非表示とが短期間に繰り返されるという現象を抑制することができるようになる。
(第5の実施の形態)
更に本発明の好適な別の実施の形態を説明する。本実施の形態では、シーン検出処理の結果、被写体の状況変化が小さいと推定された場合の表示装置1010の表示内容が他の実施の形態と異なる。
図12(b)から図12(f)に、シーン検出処理の結果として被写体の状況変化が小さいと推定された場合における顔検出枠の表示形態を例示する。なお、図12(a)は顔検出に成功した場合の顔検出枠の表示形態を示している。
図12(b)は顔検出枠の色を変更、あるいは、半透明状態にしていることを示している。図12(c)は顔検出枠を点線表示、あるいは点滅表示にすることを示している。図12(d)は顔検出枠を形成する線を細くすることを示している。図12(e)は顔検出枠の一部のみを表示、あるいは、所定部位を切り欠いた状態を示している。図12(f)は顔検出枠には変更を加えず、アイコン表示を行うことを示している。このように、顔検出に失敗した場合でも被写体の状況変化が小さいと推定された場合は、顔検出枠をすぐさま消去するのではなく、顔検出に失敗していることを認識させることができる程度に顔検出枠の表示形態を変化させる。これにより、被写体たる人物が瞬きして目を閉じたり不意に余所見をした程度であれば、顔検出枠の表示形態の変化を従来よりも小さくでき、画面上の表示の煩わしさを軽減することができる。
また、図13に本実施の形態の変形例を示す。
シーン検出処理の結果、被写体の状況変化が小さいと推定される状況が連続する場合は、顔検出枠の状態を複数段階にわたって変化させていき、最終的には消去する。被写体の状況変化が小さいと推定される場合であっても、顔検出ができない状況が連続することは好ましくない。そこで、この変形例では図13に示すように、被写体たる人物が瞬きして目を閉じたり不意に余所見をした程度であっても、その時間が経過するごとに顔検出枠の状態を変化させ、やがては消去するようにしている。つまり、顔検出に失敗した場合は、被写体の状況変化が小さいと推定される場合であっても、その経過時間によっては消去される場合がある。
なお、上述の実施の形態では、一対の目、鼻、口を検出し、これらの相対位置より人物の顔領域を決定する手法により顔検出処理にて主被写体を特定しているが、これに限定されるものではない。上述したように、ニューラルネットワークに代表される学習機能を用いた解析方法等を用いて顔検出処理を行ってもよい。また、主被写体を検出するために用いられる方法は、顔検出処理に限られるものでもなく、人物に限定する必要もない。主被写体の対象としては、動物、植物、建造物、あるいは、幾何学模様であっても構わない。所望の被写体を検出し、その検出した被写体の位置を示す表示を行う機能を有するものであれば、上記の実施の形態に限らずとも、所望の被写体の検出を一時的に失敗しても表示が見苦しくならないという効果を得ることができる。
また、上述の実施の形態では、撮像装置1000にて被写体をスルー表示しながら主被写体を検出する場合を例にあげたが、本発明はこれに限定されるものではない。撮像装置にて得られた画像データを外部機器に転送し、この外部機器の表示装置にて画像データを表示し、かつ、主被写体検出を行うものも本発明の実施の形態に含まれる。また、画像データは既に記録済みの動画を読み出したものであっても構わない。つまり、連続して変化する画像データから、特定の条件を満たす対象を繰り返し検出し、その検出結果を表示に反映させる機能を有するものであれば、本発明の実施の形態に含めることができる。
なお、上述の各フロー図におけるプログラムコードは、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び当該プログラムを記録したコンピュータ読み取り可能な記憶媒体は本発明の実施の形態に含まれる。
具体的に、前記プログラムは、例えばCD−ROMのような記録媒体に記録し、或いは各種伝送媒体を介し、コンピュータに提供される。前記プログラムを記録する記録媒体としては、CD−ROM以外に、フロッピー(登録商標)ディスク、ハードディスク、磁気テープ、光磁気ディスク、不揮発性メモリカード等を用いることができる。他方、上記プログラムの伝送媒体としては、プログラム情報を搬送波として伝搬させて供給するためのコンピュータネットワーク(LAN、インターネットの等のWANを用いることができる。他にも、無線通信ネットワーク等)システムにおける通信媒体(光ファイバ等の有線回線や無線回線等)を用いることもできる。
また、コンピュータが供給されたプログラムを実行することにより上述の実施の形態の機能が実現されるだけではない。そのプログラムがコンピュータにおいて稼働しているOS(オペレーティングシステム)あるいは他のアプリケーションソフト等と共同して上述の実施の形態の機能が実現される場合も本実施の形態に含まれる。さらに、供給されたプログラムの処理の全てあるいは一部がコンピュータの機能拡張ボードや機能拡張ユニットにより行われて上述の実施の形態の機能が実現される場合も、かかるプログラムは本発明の実施の形態に含まれる。
本発明の第1の実施の形態における撮像装置の構成を示すブロック図である。 本発明の第1の実施の形態におけるメイン処理ルーチンでの動作を説明するためのフローチャートである。 本発明の第1の実施の形態における枠表示処理ルーチンでの動作を説明するためのフローチャートである。 本発明の第1の実施の形態におけるAE及びAF処理ルーチンでの動作を説明するためのフローチャートである。 本発明の第1の実施の形態における撮像処理ルーチンでの動作を説明するためのフローチャートである。 本発明の第1、2の実施の形態におけるタイマーによる計測時間と、顔検出枠の表示/消去の関係を表す図である。 本発明における顔検出枠の表示形態を示す図と、顔検出枠と分割領域の対応を説明するための図である。 本発明の第2の実施の形態における顔検出処理に用いられるスルー表示用の画像データにおける顔領域の位置を説明するための図と、検出された顔領域の位置とタイマー補正係数の関係を示す図と、検出された顔領域の大きさとタイマー補正係数の関係を示す図である。 本発明の第3の実施の形態における枠表示処理ルーチンでの動作を説明するためのフローチャートである。 本発明の第4の実施の形態における枠表示処理ルーチンでの動作を説明するためのフローチャートである。 本発明の第4の実施の形態におけるシーン検出処理ルーチンでの動作を説明するためのフローチャートである。 本発明の第5の実施の形態における顔検出枠の表示形態を示す図である。 本発明の第5の実施の形態の変形例における顔検出枠の表示形態を示す図である。 従来の顔検出枠の表示形態を示す図である。
符号の説明
1000 撮像装置
1001 撮像レンズ群
1002 光量調節装置
1003 撮像素子
1004 アナログ信号処理回路
1005 A/D変換器
1006 メモリ制御回路
1007 デジタル信号処理回路
1008 メモリ
1009 D/A変換器
1010 表示装置
1011 インタフェース
1012 システム制御回路
1013 露出制御回路
1014 焦点制御回路
1015 タイマー
1016 顔検出回路

Claims (15)

  1. 画像データを用いて画像を表示する工程と、
    前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める工程と、
    前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示する工程とを有し、
    前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、
    前記検出結果が継続して表示されている時間が所定の時間に達していなければ、前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続し、
    前記検出結果が継続して表示されている時間が前記所定の時間に達していれば、前記検出結果の表示を消去することを特徴とする画像処理方法。
  2. 前記検出結果が表示されている間に、前記検出結果が示していた対象が検出できた場合に、計測した時間をリセットすることを特徴とする請求項1に記載の画像処理方法。
  3. 検出された前記対象の位置が前記画像の端部に近いほど、前記所定の時間を短く設定することを特徴とする請求項1または2記載の画像処理方法。
  4. 検出された前記対象の大きさが大きいほど、前記所定の時間を短く設定することを特徴とする請求項1ないし3のいずれかに記載の画像処理方法。
  5. 画像データを用いて画像を表示する工程と、
    前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める工程と、
    前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示する工程とを有し、
    前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、
    前記対象が検出できていたときの前記対象の位置が前記画像の端部でないことを含む所定の条件を満たしていれば、前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続し、
    前記所定の条件を満たしていなければ、前記検出結果の表示を消去することを特徴とする画像処理方法。
  6. 画像データを用いて画像を表示する工程と、
    前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める工程と、
    前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示する工程とを有し、
    前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、
    前記対象が検出できていたときの前記対象の移動方向が前記画像の外側でないことを含む所定の条件を満たしていれば、前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続し、
    前記所定の条件を満たしていなければ、前記検出結果の表示を消去することを特徴とする画像処理方法。
  7. 画像データを用いて画像を表示する工程と、
    前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める工程と、
    前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示する工程とを有し、
    前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、
    前記画像データを更新した際の画像データの変化の大きさが所定の閾値を越えないことを含む所定の条件を満たしていれば、前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続し、
    前記所定の条件を満たしていなければ、前記検出結果の表示を消去することを特徴とする画像処理方法。
  8. 前記所定の条件を満たす対象とは人物の顔の形状であることを特徴とする請求項1ないし7のいずれかに記載の画像処理方法。
  9. 画像データを用いて画像を表示する表示手段と、
    前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める検出手段と、
    前記表示手段に、前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示させる制御手段と、
    前記制御手段は、前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、
    前記検出結果が継続して表示されている時間が所定の時間に達していなければ、前記表示手段に前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続し、
    前記検出結果が継続して表示されている時間が前記所定の時間に達していれば、前記表示手段に前記検出結果の表示を消去させることを特徴とする画像処理装置。
  10. 画像データを用いて画像を表示する表示手段と、
    前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める検出手段と、
    前記表示手段に、前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示させる制御手段と、
    前記制御手段は、前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、
    前記対象が検出できていたときの前記対象の位置が前記画像の端部でないことを含む所定の条件を満たしていれば、前記表示手段に前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続させ、
    前記所定の条件を満たしていなければ、前記表示手段に前記検出結果の表示を消去させることを特徴とする画像処理装置。
  11. 画像データを用いて画像を表示する表示手段と、
    前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める検出手段と、
    前記表示手段に、前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示させる制御手段と、
    前記制御手段は、前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、
    前記対象が検出できていたときの前記対象の移動方向が前記画像の外側でないことを含む所定の条件を満たしていれば、前記表示手段に前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続させ、
    前記所定の条件を満たしていなければ、前記表示手段に前記検出結果の表示を消去させることを特徴とする画像処理装置。
  12. 画像データを用いて画像を表示する表示手段と、
    前記画像データから所定の条件を満たす対象を検出し、該対象の前記画像における位置を求める検出手段と、
    前記表示手段に、前記位置に基づいて、前記対象が検出された領域を示す検出結果を前記画像に重畳して表示させる制御手段と、
    前記制御手段は、前記検出結果が表示されている間に、前記検出結果が示していた領域にいた対象と同一とみなせる対象が検出できなくなった場合に、
    前記画像データを更新した際の画像データの変化の大きさが所定の閾値を越えないことを含む所定の条件を満たしていれば、前記表示手段に前記対象が検出できていたときの前記対象の位置に基づく前記検出結果の表示を継続させ、
    前記所定の条件を満たしていなければ、前記表示手段に前記検出結果の表示を消去させることを特徴とする画像処理装置。
  13. 被写体像としての光束を前記画像データに変換する撮像素子を有することを特徴とする請求項9ないし12のいずれかに記載の画像処理装置。
  14. 前記検出手段にて検出された前記対象に対してオートフォーカスを行う焦点制御手段、および、露出制御手段を行う露出制御手段を有することを特徴とする請求項13に記載の画像処理装置。
  15. 請求項1から請求項8のいずれかに記載の画像処理方法をコンピュータに実行させるためのプログラム。
JP2006162215A 2005-08-05 2006-06-12 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム Active JP4350725B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006162215A JP4350725B2 (ja) 2005-08-05 2006-06-12 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム
US11/457,862 US7602417B2 (en) 2005-08-05 2006-07-17 Image processing method, imaging apparatus, and storage medium storing control program of image processing method executable by computer
CN2006101095339A CN1909603B (zh) 2005-08-05 2006-08-04 图像处理方法和摄像设备
US12/552,571 US7817202B2 (en) 2005-08-05 2009-09-02 Image processing method, imaging apparatus, and storage medium storing control program of image processing method executable by computer
US12/552,554 US7738024B2 (en) 2005-08-05 2009-09-02 Image processing method, imaging apparatus, and storage medium storing control program of image processing method executable by computer

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005227896 2005-08-05
JP2006162215A JP4350725B2 (ja) 2005-08-05 2006-06-12 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム

Publications (3)

Publication Number Publication Date
JP2007068147A JP2007068147A (ja) 2007-03-15
JP2007068147A5 JP2007068147A5 (ja) 2009-07-23
JP4350725B2 true JP4350725B2 (ja) 2009-10-21

Family

ID=37717279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006162215A Active JP4350725B2 (ja) 2005-08-05 2006-06-12 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム

Country Status (3)

Country Link
US (3) US7602417B2 (ja)
JP (1) JP4350725B2 (ja)
CN (1) CN1909603B (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4350725B2 (ja) * 2005-08-05 2009-10-21 キヤノン株式会社 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム
JP4945722B2 (ja) * 2006-02-15 2012-06-06 Hoya株式会社 撮像装置
WO2007097287A1 (ja) * 2006-02-20 2007-08-30 Matsushita Electric Industrial Co., Ltd. 撮像装置及びレンズ鏡筒
JP4507281B2 (ja) 2006-03-30 2010-07-21 富士フイルム株式会社 画像表示装置、撮像装置および画像表示方法
JP4683228B2 (ja) * 2006-07-25 2011-05-18 富士フイルム株式会社 画像表示装置、撮影装置、画像表示方法およびプログラム
JP4656657B2 (ja) * 2006-07-31 2011-03-23 キヤノン株式会社 撮像装置及びその制御方法
JP5044321B2 (ja) * 2006-09-13 2012-10-10 株式会社リコー 撮像装置および被写体検出方法
JP2008160620A (ja) * 2006-12-26 2008-07-10 Matsushita Electric Ind Co Ltd 画像処理装置および撮像装置
JP4974704B2 (ja) * 2007-02-22 2012-07-11 パナソニック株式会社 撮像装置
JP4976160B2 (ja) 2007-02-22 2012-07-18 パナソニック株式会社 撮像装置
JP4998026B2 (ja) 2007-03-15 2012-08-15 ソニー株式会社 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
US7973848B2 (en) * 2007-04-02 2011-07-05 Samsung Electronics Co., Ltd. Method and apparatus for providing composition information in digital image processing device
US20080284900A1 (en) * 2007-04-04 2008-11-20 Nikon Corporation Digital camera
JP4506779B2 (ja) * 2007-05-09 2010-07-21 カシオ計算機株式会社 撮像装置及びプログラム
JP5029137B2 (ja) * 2007-05-17 2012-09-19 カシオ計算機株式会社 撮像装置及びプログラム
JP4858849B2 (ja) * 2007-05-18 2012-01-18 カシオ計算機株式会社 撮像装置及びそのプログラム
JP2008287064A (ja) * 2007-05-18 2008-11-27 Sony Corp 撮像装置
JP5247076B2 (ja) * 2007-07-09 2013-07-24 株式会社ニコン 画像追尾装置、焦点調節装置および撮像装置
WO2009008164A1 (ja) * 2007-07-09 2009-01-15 Panasonic Corporation デジタル一眼レフカメラ
JP5064926B2 (ja) * 2007-08-02 2012-10-31 キヤノン株式会社 撮像装置及びその制御方法
JP4902460B2 (ja) * 2007-08-08 2012-03-21 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
JP4904243B2 (ja) * 2007-10-17 2012-03-28 富士フイルム株式会社 撮像装置及び撮像制御方法
JP4950836B2 (ja) * 2007-10-24 2012-06-13 富士フイルム株式会社 撮像装置およびその動作制御方法
JP4983672B2 (ja) * 2008-03-19 2012-07-25 カシオ計算機株式会社 撮像装置及びそのプログラム
US20090237554A1 (en) * 2008-03-19 2009-09-24 Atsushi Kanayama Autofocus system
JP5217600B2 (ja) * 2008-04-22 2013-06-19 ソニー株式会社 撮像装置
WO2009142098A1 (ja) * 2008-04-23 2009-11-26 日本電気株式会社 画像処理装置、カメラ、画像処理方法およびプログラム
JP5127592B2 (ja) * 2008-06-25 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体
JP5164711B2 (ja) * 2008-07-23 2013-03-21 キヤノン株式会社 焦点調節装置およびその制御方法
JP2010035048A (ja) * 2008-07-30 2010-02-12 Fujifilm Corp 撮像装置及び撮像方法
JP5553022B2 (ja) * 2008-08-22 2014-07-16 ソニー株式会社 画像表示装置、制御方法およびコンピュータプログラム
JP5409189B2 (ja) * 2008-08-29 2014-02-05 キヤノン株式会社 撮像装置及びその制御方法
JP2010087598A (ja) * 2008-09-29 2010-04-15 Fujifilm Corp 撮影装置及び撮影制御方法ならびにそのプログラム、画像表示装置及び画像表示方法ならびにそのプログラム、撮影システム及びその制御方法ならびにそのプログラム
JP5207918B2 (ja) * 2008-10-27 2013-06-12 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
JP4623201B2 (ja) * 2008-10-27 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
TW201023633A (en) * 2008-12-05 2010-06-16 Altek Corp An image capturing device for automatically position indicating and the automatic position indicating method thereof
JP5543180B2 (ja) * 2009-01-07 2014-07-09 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
JP2010204585A (ja) * 2009-03-05 2010-09-16 Canon Inc 撮像装置及びその制御方法
JP5395503B2 (ja) * 2009-04-27 2014-01-22 富士フイルム株式会社 表示制御装置およびその動作制御方法
JP5412953B2 (ja) * 2009-05-20 2014-02-12 リコーイメージング株式会社 撮像装置
US8520131B2 (en) * 2009-06-18 2013-08-27 Nikon Corporation Photometric device, imaging device, and camera
JP5500916B2 (ja) * 2009-08-31 2014-05-21 キヤノン株式会社 撮像装置及びその制御方法
JP5500915B2 (ja) * 2009-08-31 2014-05-21 キヤノン株式会社 撮像装置及び露出制御方法
JP4831223B2 (ja) * 2009-09-29 2011-12-07 カシオ計算機株式会社 画像表示装置及び方法並びにプログラム
US20110080489A1 (en) * 2009-10-02 2011-04-07 Sony Ericsson Mobile Communications Ab Portrait photo assistant
JP5593990B2 (ja) * 2010-09-08 2014-09-24 リコーイメージング株式会社 撮像システムおよび画素信号読出し方法
JP5733956B2 (ja) * 2010-11-18 2015-06-10 キヤノン株式会社 撮像装置及びその制御方法、動画記録装置並びにその制御方法、プログラム、並びに記憶媒体
US20120194692A1 (en) * 2011-01-31 2012-08-02 Hand Held Products, Inc. Terminal operative for display of electronic record
US20120194415A1 (en) * 2011-01-31 2012-08-02 Honeywell International Inc. Displaying an image
JP2013128254A (ja) * 2011-12-19 2013-06-27 Sanyo Electric Co Ltd 電子カメラ
JP6136504B2 (ja) * 2013-04-15 2017-05-31 オムロン株式会社 対象画像検出デバイス、その制御方法および制御プログラム、記録媒体、並びにデジタルカメラ
JP6025690B2 (ja) * 2013-11-01 2016-11-16 ソニー株式会社 情報処理装置および情報処理方法
JP5720767B2 (ja) * 2013-12-17 2015-05-20 株式会社ニコン 焦点検出装置
US9323984B2 (en) * 2014-06-06 2016-04-26 Wipro Limited System and methods of adaptive sampling for emotional state determination
WO2016093160A1 (ja) * 2014-12-08 2016-06-16 シャープ株式会社 映像処理装置
US10264192B2 (en) 2015-01-19 2019-04-16 Sharp Kabushiki Kaisha Video processing device
CN106324945A (zh) * 2015-06-30 2017-01-11 中兴通讯股份有限公司 非接触式自动对焦方法和装置
CN105426833A (zh) * 2015-11-13 2016-03-23 小米科技有限责任公司 用于游戏的图像识别方法及装置
US10015400B2 (en) * 2015-12-17 2018-07-03 Lg Electronics Inc. Mobile terminal for capturing an image and associated image capturing method
JP6971696B2 (ja) * 2017-08-04 2021-11-24 キヤノン株式会社 電子機器およびその制御方法
US10757332B2 (en) * 2018-01-12 2020-08-25 Qualcomm Incorporated Movement compensation for camera focus
US11287314B1 (en) * 2020-03-17 2022-03-29 Roof Asset Management Usa Ltd. Method for evaluating artificial lighting of a surface
CN111382726B (zh) * 2020-04-01 2023-09-01 浙江大华技术股份有限公司 工程作业检测方法以及相关装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0831422B1 (en) * 1996-09-20 2007-11-14 Hitachi, Ltd. Method of displaying moving object for enabling identification of its moving route, display system using the same, and program recording medium therefor
US7023469B1 (en) * 1998-04-30 2006-04-04 Texas Instruments Incorporated Automatic video monitoring system which selectively saves information
JP2002251380A (ja) 2001-02-22 2002-09-06 Omron Corp 利用者照合システム
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP2003107335A (ja) 2001-09-28 2003-04-09 Ricoh Co Ltd 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム
US7274387B2 (en) * 2002-10-15 2007-09-25 Digicomp Research Corporation Automatic intrusion detection system for perimeter defense
KR100547992B1 (ko) * 2003-01-16 2006-02-01 삼성테크윈 주식회사 디지털 카메라와 그의 제어 방법
US7453506B2 (en) * 2003-08-25 2008-11-18 Fujifilm Corporation Digital camera having a specified portion preview section
JP4121026B2 (ja) * 2004-01-21 2008-07-16 富士フイルム株式会社 撮像装置および方法並びにプログラム
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
JP4350725B2 (ja) * 2005-08-05 2009-10-21 キヤノン株式会社 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム
JP4720386B2 (ja) * 2005-09-07 2011-07-13 株式会社日立製作所 運転支援装置
JP4785536B2 (ja) * 2006-01-06 2011-10-05 キヤノン株式会社 撮像装置
JP4654974B2 (ja) * 2006-05-23 2011-03-23 富士フイルム株式会社 撮影装置および撮影方法
JP4730667B2 (ja) * 2006-07-25 2011-07-20 富士フイルム株式会社 自動再生方法及び装置
JP2008136035A (ja) * 2006-11-29 2008-06-12 Ricoh Co Ltd 撮像装置
JP5224955B2 (ja) * 2008-07-17 2013-07-03 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム及び記録媒体

Also Published As

Publication number Publication date
US7817202B2 (en) 2010-10-19
US7602417B2 (en) 2009-10-13
JP2007068147A (ja) 2007-03-15
CN1909603A (zh) 2007-02-07
US20090322885A1 (en) 2009-12-31
US20090315997A1 (en) 2009-12-24
US20070030375A1 (en) 2007-02-08
CN1909603B (zh) 2010-09-29
US7738024B2 (en) 2010-06-15

Similar Documents

Publication Publication Date Title
JP4350725B2 (ja) 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム
JP4182117B2 (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
US7973833B2 (en) System for and method of taking image and computer program
JP5054063B2 (ja) 電子カメラ、画像処理装置及び画像処理方法
JP5055018B2 (ja) 画像処理装置、撮像装置、及び画像処理装置の制御方法
JP4196714B2 (ja) デジタルカメラ
US9147106B2 (en) Digital camera system
JP5055166B2 (ja) 眼の開閉度判定装置、方法及びプログラム、撮像装置
JP6765917B2 (ja) 探索装置及び、その撮像装置及び、探索方法
JP5279635B2 (ja) 画像処理装置、画像処理方法、および、プログラム
US8411159B2 (en) Method of detecting specific object region and digital camera
JP2004317699A (ja) デジタルカメラ
JP4290164B2 (ja) 識別領域を示す表示を画像と共に表示させる表示方法、コンピュータ装置に実行させるプログラム、および、撮像装置
JP2010068128A (ja) 撮影装置、画像領域の存否判定方法及びプログラム
JP7214681B2 (ja) 被写体追尾装置、被写体追尾方法、コンピュータプログラム及び記憶媒体
JP2023041734A (ja) 被写体追尾装置
JP4906632B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2008064797A (ja) 光学装置、撮像装置、光学装置の制御方法
JP2008236015A (ja) 画像処理装置、撮像装置及びそのプログラム
JP4773924B2 (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP5253184B2 (ja) 撮像装置、顔検出方法及びプログラム
JP2024033747A (ja) 撮像装置、撮像装置の制御方法、プログラム
JP2023140527A (ja) 制御装置、撮像装置、制御方法、及びプログラム
JP5022811B2 (ja) 画像処理装置及び画像処理方法並びに撮像装置
KR20100101914A (ko) 영상신호처리장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090609

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090609

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090721

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090722

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4350725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4