[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013074570A - 電子カメラ - Google Patents

電子カメラ Download PDF

Info

Publication number
JP2013074570A
JP2013074570A JP2011213783A JP2011213783A JP2013074570A JP 2013074570 A JP2013074570 A JP 2013074570A JP 2011213783 A JP2011213783 A JP 2011213783A JP 2011213783 A JP2011213783 A JP 2011213783A JP 2013074570 A JP2013074570 A JP 2013074570A
Authority
JP
Japan
Prior art keywords
imaging
search
image
recording
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011213783A
Other languages
English (en)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011213783A priority Critical patent/JP2013074570A/ja
Priority to US13/630,208 priority patent/US20130083963A1/en
Publication of JP2013074570A publication Critical patent/JP2013074570A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【構成】イメージセンサ16は、撮像面で捉えたシーンを表す画像を繰り返し出力する。CPU26は、撮像面に直交する軸の回り方向においてイメージセンサ16がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行してイメージセンサ16から出力された画像から特定物体像を探索する。CPU26はまた、探索結果に応じて異なる処理動作を実行し、イメージセンサ16から出力された画像をイメージセンサ16の処理と並列して繰り返し記録する。CPU26はさらに、実行される照合処理を複数の照合処理のいずれか1つに制限する制限処理を記録処理に関連して実行する。
【効果】探索性能の向上が図られる。
【選択図】図2

Description

この発明は、電子カメラに関し、特に特定物体像に符合する画像を指定画像から探索する、電子カメラに関する。
この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、カメラ制御部が制御部によって制御されることで、シャッター押下に応答して写真や動画の撮影が実行される。加速度センサ制御部が制御部によって制御されることで、シャッター押下時のこの携帯電話の傾き角度検出が、加速度センサによって実行される。このようにして撮影された写真や動画を記憶部に格納する制御が行われる。また、顔検出処理部が制御されることで、撮影された画像から人の顔部分を検出する動作が実行される。その際、加速度センサで検出されたシャッター押下時のこの携帯電話の傾き角度データが取得され、該取得された傾き角度データによって画像回転処理部が制御されることにより、傾き角度に合わせた撮影画像の回転処理が実行される。
特開2009−105559号公報
しかし、背景技術では、加速度センサで検出された傾きに合わせて撮影画像の回転処理が実行されるので、回転処理の実行には加速度センサのカメラへの搭載が必要である。一方、カメラの軽量化やコスト削減のために加速度センサがカメラに搭載されなかった場合、撮影された画像の傾きを直接的に取得できない。このため、撮影された画像から人の顔部分の画像を検出する処理の負荷が増加し、探索性能が低下する恐れがある。
それゆえに、この発明の主たる目的は、探索性能を高めることができる、電子カメラを提供することである。
この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、撮像面で捉えたシーンを表す画像を繰り返し出力する撮像手段(S16)、撮像面に直交する軸の回り方向において撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して撮像手段から出力された画像から特定物体像を探索する探索手段(S87, S119)、探索手段の探索結果に応じて異なる処理動作を実行する実行手段(S13, S15, S25, S33, S37, S41, S43, S47, S61~S73, S217, S227)、撮像手段から出力された画像を撮像手段の処理と並列して繰り返し記録する記録手段(S19, S51, S203, S209)、および探索手段によって実行される照合処理を複数の照合処理のいずれか1つに制限する制限処理を記録手段の処理に関連して実行する制限手段(S29, S31, S111~S115, S221, S223)を備える。
好ましくは、探索手段は互いに異なる複数の画像辞書をそれぞれ用いて複数の照合処理を実行する。
好ましくは、制限処理の対象から外れる照合処理は特定物体像が探知された時点の撮像手段の姿勢に対応する。
好ましくは、制限手段は、探索手段の探知に応答して制限処理を開始する開始手段(S29, S31)、および探索手段の非探知に応答して制限処理を停止する停止手段(S33, S41, S43, S47)を含む。
好ましくは、記録手段の処理が中断される期間に探索手段の探知に応答して制限処理を第1頻度で実行する追加制限手段(S211, S231)をさらに備え、制限手段は記録手段の処理が実行される期間に探索手段の探知に応答して制限処理を第1頻度よりも低い第2頻度で実行する。
好ましくは、実行手段は探索手段によって探知された特定物体像に注目して撮像条件を調整する調整手段(S63~S69)を含む。
好ましくは、特定物体像は人物の顔画像に相当する。
この発明に従う撮像制御プログラムは、撮像面で捉えたシーンを表す画像を繰り返し出力する撮像手段(16)を備える電子カメラ(10)のプロセッサ(26)に、撮像面に直交する軸の回り方向において撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して撮像手段から出力された画像から特定物体像を探索する探索ステップ(S87, S119)、探索ステップの探索結果に応じて異なる処理動作を実行する実行ステップ(S13, S15, S25, S33, S37, S41, S43, S47, S61~S73, S217, S227)、撮像手段から出力された画像を撮像手段の処理と並列して繰り返し記録する記録ステップ(S19, S51, S203, S209)、および探索ステップによって実行される照合処理を複数の照合処理のいずれか1つに制限する制限処理を記録ステップの処理に関連して実行する制限ステップ(S29, S31, S111~S115, S221, S223)を実行させるための、撮像制御プログラムである。
この発明に従う撮像制御方法は、撮像面で捉えたシーンを表す画像を繰り返し出力する撮像手段(16)を備える電子カメラによって実行される撮像制御方法であって、撮像面に直交する軸の回り方向において撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して撮像手段から出力された画像から特定物体像を探索する探索ステップ(S87, S119)、探索ステップの探索結果に応じて異なる処理動作を実行する実行ステップ(S13, S15, S25, S33, S37, S41, S43, S47, S61~S73, S217, S227)、撮像手段から出力された画像を撮像手段の処理と並列して繰り返し記録する記録ステップ(S19, S51, S203, S209)、および探索ステップによって実行される照合処理を複数の照合処理のいずれか1つに制限する制限処理を記録ステップの処理に関連して実行する制限ステップ(S29, S31, S111~S115, S221, S223)を備える。
この発明に従う外部制御プログラムは、撮像面で捉えたシーンを表す画像を繰り返し出力する撮像手段(16)、およびメモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)に供給される外部制御プログラムであって、撮像面に直交する軸の回り方向において撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して撮像手段から出力された画像から特定物体像を探索する探索ステップ(S87, S119)、探索ステップの探索結果に応じて異なる処理動作を実行する実行ステップ(S13, S15, S25, S33, S37, S41, S43, S47, S61~S73, S217, S227)、撮像手段から出力された画像を撮像手段の処理と並列して繰り返し記録する記録ステップ(S19, S51, S203, S209)、および探索ステップによって実行される照合処理を複数の照合処理のいずれか1つに制限する制限処理を記録ステップの処理に関連して実行する制限ステップ(S29, S31, S111~S115, S221, S223)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。
この発明に従う電子カメラ(10)は、撮像面で捉えたシーンを表す画像を繰り返し出力する撮像手段(16)、外部制御プログラムを受信する受信手段(60)、および受信手段によって受信された外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)であって、外部制御プログラムは、撮像面に直交する軸の回り方向において撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して撮像手段から出力された画像から特定物体像を探索する探索ステップ(S87, S119)、探索ステップの探索結果に応じて異なる処理動作を実行する実行ステップ(S13, S15, S25, S33, S37, S41, S43, S47, S61~S73, S217, S227)、撮像手段から出力された画像を撮像手段の処理と並列して繰り返し記録する記録ステップ(S19, S51, S203, S209)、および探索ステップによって実行される照合処理を複数の照合処理のいずれか1つに制限する制限処理を記録ステップの処理に関連して実行する制限ステップ(S29, S31, S111~S115, S221, S223)を内部制御プログラムと協働して実行するプログラムに相当する。
カメラの複数の姿勢にそれぞれ対応する複数の照合処理を実行して、撮像手段から出力された画像から特定物体像が探索される。このような探索処理で実行される照合処理が、記録処理に関連して制限される。記録処理においては、撮像手段から繰り返し出力される画像が出力処理と並列して繰り返し記録される。つまり、動画像が記録される。
動画像の記録中は、通常、カメラの姿勢が一定に保たれるので、カメラの複数の姿勢にそれぞれ対応する複数の照合処理の一部の実行が制限された場合であっても、特定物体像の探索には影響がない。したがって、照合処理の制限によって、探索処理の負荷を軽減することができる。こうして、探索性能の向上が図られる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
この発明の一実施例の基本的構成を示すブロック図である。 この発明の一実施例の構成を示すブロック図である。 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。 撮像面における評価エリアの割り当て状態の一例を示す図解図である。 顔検出処理において用いられる顔検出枠の一例を示す図解図である。 (A)は顔検出処理において参照される顔辞書の構成の一例を示す図解図であり、(B)は顔検出処理において参照される他の顔辞書の構成の一例を示す図解図であり、(C)は顔検出処理において参照されるその他の顔辞書の構成の一例を示す図解図である。 (A)はカメラの筐体の姿勢の一例を示す図解図であり、(B)はカメラの筐体の姿勢の他の一例を示す図解図であり、(C)はカメラの筐体の姿勢のその他の一例を示す図解図である。 顔検出処理の一部を示す図解図である。 図2実施例において参照されるレジスタの構成の一例を示す図解図である。 図2実施例において参照される他のレジスタの構成の一例を示す図解図である。 撮像タスクにおいてLCDモニタに表示された画像の一例を示す図解図である。 図2実施例に適用されるCPUの動作の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 この発明の他の実施例に適用されるCPUの動作の一部を示すフロー図である。 この発明の他の実施例に適用されるCPUの動作の他の一部を示すフロー図である。 この発明のその他の実施例の構成を示すブロック図である。
以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
図1を参照して、この実施例の電子カメラは、基本的に次のように構成される。撮像手段1は撮像面で捉えたシーンを表す画像を繰り返し出力する。探索手段2は、撮像面に直交する軸の回り方向において撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して撮像手段から出力された画像から特定物体像を探索する。実行手段3は、探索手段の探索結果に応じて異なる処理動作を実行する。記録手段4は、撮像手段から出力された画像を撮像手段の処理と並列して繰り返し記録する。制限手段5は、探索手段によって実行される照合処理を複数の照合処理のいずれか1つに制限する制限処理を記録手段の処理に関連して実行する。
カメラの複数の姿勢にそれぞれ対応する複数の照合処理を実行して、撮像手段から出力された画像から特定物体像が探索される。このような探索処理で実行される照合処理が、記録処理に関連して制限される。記録処理においては、撮像手段から繰り返し出力される画像が出力処理と並列して繰り返し記録される。つまり、動画像が記録される。
動画像の記録中は、通常、カメラの姿勢が一定に保たれるので、カメラの複数の姿勢にそれぞれ対応する複数の照合処理の一部の実行が制限された場合であっても、特定物体像の探索には影響がない。したがって、照合処理の制限によって、探索処理の負荷を軽減することができる。こうして、探索性能の向上が図られる。
[実施例]
図2を参照して、この実施例のディジタルビデオカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経たシーンの光学像は、ドライバ18cによって駆動されるイメージセンサ16の撮像面に照射され、光電変換を施される。
電源が投入されると、CPU26は、動画取り込み処理を実行するべく、撮像タスクの下で露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、イメージセンサ16の撮像面を露光し、かつイメージセンサ16の撮像面で生成された電荷をラスタ走査態様でそれぞれ読み出す。イメージセンサ16からは読み出された電荷に基づく生画像データが周期的に出力される。
前処理回路20は、イメージセンサ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32aに書き込まれる(図3参照)。
後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。これによって生成されたYUV形式の画像データは、メモリ制御回路30を通してSDRAM32のYUV画像エリア32bに書き込まれる(図3参照)。
後処理回路34はさらに、YUV形式に従う画像データに対して表示用のズーム処理と探索用のズーム処理とを並列的に実行する。この結果、YUV形式に従う表示画像データおよび探索画像データが個別に作成される。表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32cに書き込まれる(図3参照)。探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32dに書き込まれる(図3参照)。
LCDドライバ36は、表示画像エリア32cに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、シーンを表すリアルタイム動画像(スルー画像)がLCDモニタ38に表示される。
図4を参照して、イメージセンサ16の撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。
AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。AF評価回路24は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。こうして得られたAE評価値およびAF評価値に基づく処理については、後述する。
撮像タスクと並列して実行される複数辞書顔検出タスクの起動時に、CPU26は、フラグFLG_fを“0”に初期設定する。また、複数辞書顔検出タスクの下で、CPU26は、後述の単一辞書顔検出タスクが停止中であることを表明するべくフラグFLG_sを“0”に初期設定する。
CPU26は次に、探索画像エリア32dに格納された探索画像データから人物の顔画像を探索するべく、垂直同期信号Vsyncが発生する毎に顔検出処理を複数辞書顔検出タスクの下で実行する。
顔検出処理では、図5に示す要領でサイズが調整される顔検出枠FDと5つの辞書画像(=向きが互いに異なる顔画像)を各々が収めた図6(A)〜(C)にそれぞれ示す顔辞書FDC1〜3とが用いられる。
顔辞書FDC1が収める5つの辞書画像は、図7(A)に示すようにディジタルビデオカメラ10の筐体CB1が横向きに構えられたときの探索画像データから人物の顔画像を検出するために、準備される。
顔辞書FDC2および3の各々が収める5つの辞書画像は、ディジタルビデオカメラ10の筐体CB1が縦向きに構えられたときの探索画像データから人物の顔画像を検出するために、準備される。
特に顔辞書FDC2は、図7(B)に示すように右側面を上にディジタルビデオカメラ10の筐体CB1が構えられたときの顔検出に、用いられる。つまり、イメージセンサ16の撮像面に直交するディジタルビデオカメラ10の光軸を軸として、図7(A)に示す姿勢の筐体CB1が背面から見て反時計回りに90度回転させた状態で構えられたときの顔検出に、顔辞書FDC2が用いられる。
特にまた顔辞書FDC3は、図7(C)に示すように左側面を上にディジタルビデオカメラ10の筐体CB1が構えられたときの顔検出に、用いられる。つまり、イメージセンサ16の撮像面に直交するディジタルビデオカメラ10の光軸を軸として、図7(A)に示す姿勢の筐体CB1が背面から見て時計回りに90度回転させた状態で構えられたときの顔検出に、顔辞書FDC3が用いられる。
なお、顔辞書FDC1は辞書番号1に対応し、顔辞書FDC2は辞書番号2に対応し、顔辞書FDC3は辞書番号3に対応する。また、顔辞書FDC1〜3はフラッシュメモリ44に保存される。
顔検出処理ではまず、評価エリアEVAの全域が探索エリアとして設定される。また、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxが“200”に設定され、最小サイズSZminが“20”に設定される。
顔検出枠FDは、探索エリアの開始位置(左上位置)から終了位置(右下位置)に向かって、ラスタ走査態様で既定量ずつ移動される(図8参照)。また、顔検出枠FDのサイズは、顔検出枠FDが終了位置に到達する毎に“SZmax”から“SZmin”まで“5”ずつ縮小される。
顔検出枠FDに属する一部の探索画像データは、メモリ制御回路30を通して探索画像エリア32dから読み出される。読み出された探索画像データの特徴量は、顔辞書FDC1〜3の各々に収められた5つの辞書画像の特徴量と照合される。閾値THを超える照合度が得られると、顔画像が検出されたものとみなされる。現時点の顔検出枠FDの位置,サイズ,および照合対象の顔辞書の辞書番号は、顔情報として図9に示すワークレジスタRGSTwkに登録される。
顔検出処理の完了後にワークレジスタRGSTwkに顔情報の登録があったときは、ワークレジスタRGSTwkの登録内容が、図9に示す顔検出レジスタRGSTdtにコピーされる。
CPU26は、顔検出レジスタRGSTdtに登録された位置およびサイズによって示される領域の中からAF対象領域を決定する。顔検出レジスタRGSTdtに1つの顔情報が登録されている場合、CPU26は、登録された位置およびサイズによって示される領域をAF対象領域とする。顔検出レジスタRGSTdtに複数の顔情報が登録されている場合、CPU26は、サイズが最も大きい顔情報によって示される領域をAF対象領域とする。最大サイズを示す複数の顔情報が登録されている場合、CPU26は、これらの顔情報によって示される領域のうちシーン中央に最も近い領域をAF対象領域とする。AF対象領域とされた顔情報の位置,サイズ,および照合対象の辞書番号は、図10に示すAF対象レジスタRGSTafに登録される。
また、CPU26は、人物の顔を発見したことを表明するべくフラグFLG_fを“1”に設定する。
なお、顔検出処理の完了後にワークレジスタRGSTwkに顔情報の登録がなかった場合、すなわち人物の顔が発見されなかった場合は、CPU26は、人物の顔が未発見であることを表明するべくフラグFLG_fを“0”に設定する。
フラグFLG_fが“0”を示すとき、撮像タスクと並列して実行されるAE/AF制御タスクの下でCPU26は、シーン中央に注目したコンティニュアスAF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、シーン中央の既定領域に対応するAF評価値を抽出し、抽出された一部のAF評価値に基づくコンティニュアスAF処理を実行する。この結果、シーン中央に注目した合焦点にフォーカスレンズ12が配置され、スルー画像または記録画像の鮮鋭度が継続的に向上する。
フラグFLG_fが“0”を示すとき、AE/AF制御タスクの下でCPU26はまた、AE評価回路22から出力された256個のAE評価値に基づき、シーン全体を考慮したAE処理を実行する。AE処理によって算出された最適EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像または記録画像の明るさが、シーン全体を考慮した明るさに調整される。
フラグFLG_fが“1”に更新されると、撮像タスクの下でCPU26は、顔検出レジスタRGSTdtの登録内容を参照して、顔枠GFの表示をグラフィックジェネレータ48に要求する。グラフィックジェネレータ48は、顔枠GFを表すグラフィック情報をLCDドライバ36に向けて出力する。顔枠GFは、顔検出タスクの下で検出された顔画像の位置およびサイズに適合する態様でLCDモニタ38に表示される。
したがって、人物HM1の顔が撮像面に捉えられたとき、顔枠GF1は、人物HM1の顔画像を囲うように、図11に示す要領でLCDモニタ38に表示される。
フラグFLG_fが“1”に更新されるとまた、AE/AF制御タスクの下でCPU26は、AF対象領域に注目したコンティニュアスAF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、AF対象レジスタRGSTafに登録された位置およびサイズに対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくAF処理を実行する。この結果、AF対象領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像または記録画像におけるAF対象領域の鮮鋭度が向上する。
CPU26は次に、AE/AF制御タスクの下で、AE評価回路22から出力された256個のAE評価値のうち、顔検出レジスタRGSTdtに登録された位置およびサイズに対応するAE評価値を抽出する。CPU26は、抽出された一部のAE評価値に基づき、顔画像に注目したAE処理を実行する。AE処理によって算出された最適EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像または記録画像の明るさが、顔画像に注目した明るさに調整される。
キー入力装置28に設けられた記録ボタン28recに向けて記録開始操作が行われると、CPU26は、記録処理を開始するべく、MP4コーデック46およびI/F40を撮像タスクの下で起動する。MP4コーデック46は、YUV画像エリア32bに格納された画像データをメモリ制御回路30を通して読み出し、読み出された画像データをMPEG4方式に従って圧縮する。圧縮画像データつまりMP4データは、メモリ制御回路30によって記録画像エリア32eに書き込まれる(図3参照)。I/F40は、記録画像エリア32eに格納されたMP4データをメモリ制御回路30を通して読み出し、読み出されたMP4データを記録媒体42に作成された画像ファイルに書き込む。
また、記録開始操作が行われた後、フラグFLG_fが“1”を示すとき、CPU26は、実行中の複数辞書顔検出タスクを停止し、単一辞書顔検出タスクを起動する。単一辞書顔検出タスクの下で、CPU26は、単一辞書顔検出タスクが実行中であることを表明するべくフラグFLG_sを“1”に初期設定する。
CPU26は次に、探索画像エリア32dに格納された探索画像データから人物の顔画像を探索するべく、垂直同期信号Vsyncが発生する毎に顔検出処理を単一辞書顔検出タスクの下で実行する。
単一辞書顔検出タスクの下で実行される顔検出処理では、顔辞書FDC1〜3のうちAF対象レジスタRGSTafに登録された辞書番号に対応する辞書だけが用いられる。単一辞書顔検出タスクの下で実行される顔検出処理では、照合対象の辞書が単一であるという点を除いて、複数辞書顔検出タスクの下で実行される顔検出処理と同様の処理が実行される。したがって、探索画像データの特徴量と辞書画像の特徴量との照合の結果、閾値THを超える照合度が得られると、顔検出枠FDの位置,サイズ,および照合対象の顔辞書の辞書番号がワークレジスタRGSTwkに登録される。
顔検出処理の完了後にワークレジスタRGSTwkに顔情報の登録があったときは、複数辞書顔検出タスクと同様に、ワークレジスタRGSTwkの登録内容が顔検出レジスタRGSTdtにコピーされる。
複数辞書顔検出タスクと同様に、CPU26は、顔検出レジスタRGSTdtに登録された顔情報によって示される領域の中からAF対象領域を決定し、AF対象領域とされた顔情報の位置,サイズ,および照合対象の辞書番号は、AF対象レジスタRGSTafに登録される。また、CPU26は、人物の顔が発見された場合はフラグFLG_fを“1”に設定し、人物の顔が発見されなかった場合はフラグFLG_fを“0”に設定する。
また、キー入力装置28に向けて記録開始操作が行われた後、フラグFLG_fが更新されて“0”を示すとき、単一辞書顔検出タスクの起動から既定時間、例えば3秒が経過している場合は、CPU26は、実行中の単一辞書顔検出タスクを停止する。
CPU26は次に、複数辞書顔検出タスクを起動して、顔検出処理を1回実行する。この顔検出処理は複数辞書顔検出タスクの下で実行されるので、照合対象の辞書として顔辞書FDC1〜3が用いられる。2回目の顔検出処理が実行される前に、CPU26は、複数辞書顔検出タスクを停止して、単一辞書顔検出タスクを再起動する。
なお、AF対象レジスタに登録された照合対象の辞書番号が複数辞書顔検出タスクの下で1回実行された顔検出処理によって新たな辞書番号に更新された場合は、再起動された単一辞書顔検出タスクの下で実行される顔検出処理では、更新後の辞書番号に対応する顔辞書が用いられる。
キー入力装置28に向けて記録終了操作が行われると、CPU26は、記録処理を終了するべくMP4コーデック46およびI/F40を停止する。また、書き込み先の動画ファイルには終了処理が施される。
また、記録終了操作が行われたときフラグFLG_sが“1”を示す場合は、CPU26は、実行中の単一辞書顔検出タスクを停止し、複数辞書顔検出タスクを再起動する。再起動された複数辞書顔検出タスクの下で、CPU26は、単一辞書顔検出タスクが停止中であることを表明するべくフラグFLG_sを“0”に設定する。
CPU26は、図12〜14に示す撮像タスク,図15に示すAE/AF制御タスク,図16〜17に示す複数辞書顔検出タスク,および図18〜19に示す単一辞書顔検出タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。
図12を参照して、ステップS1では動画取り込み処理を実行する。この結果、シーンを表すスルー画像がLCDモニタ38に表示される。ステップS3ではフラグFLG_fを“0”に初期設定する。ステップS5ではAE/AF制御タスクを起動し、ステップS7では複数辞書顔検出タスクを起動する。
ステップS9ではフラグFLG_fが“1”を示すか否かを判別し、判別結果がYESであればステップS11およびS13の処理を経てステップS17に進む一方、判別結果がNOであればステップS15の処理を経てステップS17に進む。
ステップS11では、顔検出レジスタRGSTdtに登録された位置およびサイズを読み出す。読み出された位置およびサイズに基づいて、ステップS13では顔枠GFの表示をグラフィックジェネレータ48に要求する。この結果、複数辞書顔検出タスクの下で検出された顔画像の位置およびサイズに適合する態様で、顔枠GFがLCDモニタ38に表示される。ステップS15では、顔枠GFの非表示をグラフィックジェネレータ48に要求する。この結果、モニタ38に表示された顔枠GFは非表示とされる。
ステップS17では記録ボタン28recに向けて記録開始操作が行われたか否かを判別し、判別結果がNOであればステップS9に戻る一方、判別結果がYESであればステップS19でMP4コーデック46およびI/F40を起動して記録処理を開始する。この結果、記録媒体42に作成された画像ファイルへのMP4データの書き込みが開始される。
ステップS21ではフラグFLG_fが“1”を示すか否かを判別し、判別結果がNOであればステップS37に進む一方、判別結果がYESであればステップS23に進む。
ステップS23では、顔検出レジスタRGSTdtに登録された位置およびサイズを読み出す。読み出された位置およびサイズに基づいて、ステップS25では顔枠GFの表示をグラフィックジェネレータ48に要求する。この結果、複数辞書顔検出タスクの下で検出された顔画像の位置およびサイズに適合する態様で、顔枠GFがLCDモニタ38に表示される。
ステップS27ではフラグFLG_sが“1”を示すか否かを判別し、判別結果がYESであればステップS35に進む一方、判別結果がNOであればステップS29に進む。ステップS29では実行中の複数辞書顔検出タスクを停止し、ステップS31では単一辞書顔検出タスクを起動する。
ステップS33ではタイマ26tのリセット&スタートを実行する。タイマ値は例えば3秒とする。ステップS35では記録ボタン28recに向けて記録終了操作が行われたか否かを判別し、判別結果がNOであればステップS21に戻る一方、判別結果がYESであればステップS51に進む。
ステップS37では、顔枠GFの非表示をグラフィックジェネレータ48に要求する。この結果、モニタ38に表示された顔枠GFは非表示とされる。ステップS39ではフラグFLG_sが“1”を示すか否かを判別し、判別結果がYESであればステップS41に進む一方、判別結果がNOであればステップS35に戻る。
ステップS41ではタイマ26tにタイムアウトが発生したか否かを判別し、判別結果がNOであればステップS35に戻り、判別結果がYESであれば実行中の単一辞書顔検出タスクをステップS43で停止する。
ステップS45ではフラグFLG_eを“0”に初期設定し、ステップS47では複数辞書顔検出タスクを起動する。ステップS49ではフラグFLG_eが“1”を示すか否かを繰り返し判別し、判別結果がNOからYESに更新されるとステップS29に戻る。
ステップ51では、記録処理を終了するべくMP4コーデック46およびI/F40を停止する。また、書き込み先の動画ファイルには終了処理が施される。
ステップS53ではフラグFLG_sが“1”を示すか否かを判別し、判別結果がNOであればステップS9に戻る一方、判別結果がYESであれば実行中の単一辞書顔検出タスクをステップS55で停止し、その後にステップS7に戻る。
図15を参照して、ステップS61ではフラグFLG_fが“1”を示すか否かを判別し、判別結果がNOであればステップS71に進む一方、判別結果がYESであればステップS63に進む。
ステップS63ではAF対象レジスタRGSTafからAF対象領域の位置およびサイズを読み出し、読み出されたAF対象領域の位置およびサイズに基づいて、ステップS65でコンティニュアスAF処理を実行する。この結果、AF対象領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像または記録画像におけるAF対象領域の鮮鋭度が向上する。
ステップS67では顔検出レジスタRGSTdtから顔画像の位置およびサイズを読み出し、読み出された顔画像の位置およびサイズに基づいて、ステップS69でAE処理を実行する。この結果、スルー画像または記録画像の明るさが、顔画像に注目した明るさに調整される。ステップS69の処理が完了すると、ステップS61に戻る。
ステップS71ではシーン中央に注目したコンティニュアスAF処理を実行する。この結果、シーン中央に注目した合焦点にフォーカスレンズ12が配置され、スルー画像または記録画像の鮮鋭度が継続的に向上する。
ステップS73ではシーン全体を考慮したAE処理を実行する。この結果、スルー画像または記録画像の明るさが、シーン全体を考慮した明るさに調整される。ステップS73の処理が完了すると、ステップS61に戻る。
図16を参照して、ステップS81では、単一辞書顔検出タスクが停止中であることを表明するべく、フラグFLG_sを“0”に初期設定する。ステップS83では、変数DICを“1”に初期設定する。
ステップS85では、垂直同期信号Vsyncが発生したか否かを繰り返し判別する。判別結果がNOからYESに更新されると、ステップS87で顔検出処理を実行する。顔検出処理の完了後、ワークレジスタRGSTwkに顔情報の登録があるか否かをステップS89で判別し、判別結果がYESであればステップS95に進む一方、判別結果がNOであればステップS91に進む。
ステップS91では、人物の顔が未発見であることを表明するべく、フラグFLG_fを“0”に設定する。ステップS93では、顔検出処理の実行が完了したことを表明するべく、フラグFLG_eを“1”に設定する。ステップS93の処理が完了すると、ステップS85に戻る。
ステップS95では、ワークレジスタRGSTwkの登録内容を顔検出レジスタRGSTdtにコピーする。
ステップS97では、顔検出レジスタRGSTdtに登録されている顔情報のうちサイズが最も大きい顔情報が複数登録されているか否かを判別する。判別結果がYESであればステップS99で、複数の最大サイズの顔情報のうち位置が撮像面中央に最も近い顔情報が示す領域をAF対象領域と決定する。判別結果がNOであればステップS101で、サイズが最も大きい顔情報が示す領域をAF対象領域と決定する。
ステップS99またはS101においてAF対象領域と決定された顔情報の位置,サイズ,および照合対象の辞書番号は、ステップS103でAF対象レジスタRGSTafに登録される。
ステップS105では、人物の顔が発見されたことを表明するべく、フラグFLG_fを“1”に設定する。ステップS107では、顔検出処理の実行が完了したことを表明するべく、フラグFLG_eを“1”に設定する。ステップS107の処理が完了すると、ステップS85に戻る。
図18を参照して、ステップS111では、単一辞書顔検出タスクが実行中であることを表明するべくフラグFLG_sを“1”に初期設定する。ステップS113ではAF対象レジスタRGSTafに登録された照合対象の辞書番号を読み出し、ステップS115では変数DICを読み出された辞書番号に設定する。
ステップS117では、垂直同期信号Vsyncが発生したか否かを繰り返し判別する。判別結果がNOからYESに更新されると、ステップS119で顔検出処理を実行する。顔検出処理の完了後、ワークレジスタRGSTwkに顔情報の登録があるか否かをステップS121で判別し、判別結果がYESであればステップS125に進む一方、判別結果がNOであればステップS123に進む。
ステップS123では、人物の顔が未発見であることを表明するべく、フラグFLG_fを“0”に設定し、その後にステップS117に戻る。
ステップS125では、ワークレジスタRGSTwkの登録内容を顔検出レジスタRGSTdtにコピーする。
ステップS127では、顔検出レジスタRGSTdtに登録されている顔情報のうちサイズが最も大きい顔情報が複数登録されているか否かを判別する。判別結果がYESであればステップS129で、複数の最大サイズの顔情報のうち位置が撮像面中央に最も近い顔情報が示す領域をAF対象領域と決定する。判別結果がNOであればステップS131で、サイズが最も大きい顔情報が示す領域をAF対象領域と決定する。
ステップS129またはS131においてAF対象領域と決定された顔情報の位置,サイズ,および照合対象の辞書番号は、ステップS133でAF対象レジスタRGSTafに登録される。
ステップS135では、人物の顔が発見されたことを表明するべく、フラグFLG_fを“1”に設定する。ステップS135の処理が完了すると、ステップS117に戻る。
ステップS87およびS119の顔検出処理は、図20〜22に示すサブルーチンに従って実行される。ステップS141ではワークレジスタRGSTwkを初期化すべく登録内容をクリアする。
ステップS143では評価エリアEVAの全域を探索エリアとして設定する。ステップS145では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxを“200”に設定し、最小サイズSZminを“20”に設定する。
ステップS147では顔検出枠FDのサイズを“SZmax”に設定し、ステップS149では顔検出枠FDを探索エリアの左上位置に配置する。ステップS151では、顔検出枠FDに属する一部の探索画像データを探索画像エリア32dから読み出し、読み出された探索画像データの特徴量を算出する。
ステップS153では変数DICが示す辞書番号に対応する顔辞書を読み出し、ステップS155では変数FDRを“1”に設定する。
ステップS157では、ステップS151で算出された特徴量とステップS153で読み出された顔辞書に収められた辞書画像のうち変数FDRが示す顔向き番号の辞書画像の特徴量とを照合する。照合の結果、閾値THを超える照合度が得られたか否かをステップS159で判別し、判別結果がNOであればステップS165に進む一方、判別結果がYESであればステップS161に進む。
ステップS161では、現時点の顔検出枠FDの位置,サイズ,および照合対象の辞書番号を顔情報としてワークレジスタRGSTwkに登録する。ステップS163ではフラグFLG_sが“1”を示すか否かを判別し、判別結果がNOであればステップS175に進む一方、判別結果がYESであればステップS177に進む。
ステップS165では変数FDRをインクリメントし、変数FDRが“5”を超えたか否かをステップS167で判別する。判別結果がNOであればステップS157に戻る一方、判別結果がYESであればステップS169に進む。ステップS169ではフラグFLG_sが“1”を示すか否かを判別し、判別結果がYESであればステップS177に進む一方、判別結果がNOであればステップS171に進む。
ステップS171では変数DICをインクリメントし、変数DICが“3”を超えたか否かをステップS173で判別する。判別結果がNOであればステップS153に戻る一方、判別結果がYESであればステップS175で変数DICを“1”に設定する。
ステップS177では顔検出枠FDが探索エリアの右下位置に到達したか否かを判別し、判別結果がYESであればステップS181に進む一方、判別結果がNOであれば、ステップS179で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS151に戻る。
ステップS181では顔検出枠FDのサイズが“SZmin”以下であるか否かを判別し、判別結果がYESであれば上階層のルーチンに復帰する一方、判別結果がNOであればステップS183に進む。
ステップS183では顔検出枠FDのサイズを“5”だけ縮小させ、ステップS185では顔検出枠FDを探索エリアの左上位置に配置する。ステップS185の処理が完了すると、ステップS151に戻る。
以上の説明から分かるように、イメージセンサ16は、撮像面で捉えたシーンを表す画像を繰り返し出力する。CPU26は、撮像面に直交する軸の回り方向においてイメージセンサ16がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行してイメージセンサ16から出力された画像から特定物体像を探索する。CPU26はまた、探索結果に応じて異なる処理動作を実行し、イメージセンサ16から出力された画像をイメージセンサ16の処理と並列して繰り返し記録する。CPU26はさらに、実行される照合処理を複数の照合処理のいずれか1つに制限する制限処理を記録処理に関連して実行する。
カメラの複数の姿勢にそれぞれ対応する複数の照合処理を実行して、撮像手段から出力された画像から特定物体像が探索される。このような探索処理で実行される照合処理が、記録処理に関連して制限される。記録処理においては、撮像手段から繰り返し出力される画像が出力処理と並列して繰り返し記録される。つまり、動画像が記録される。
動画像の記録中は、通常、カメラの姿勢が一定に保たれるので、カメラの複数の姿勢にそれぞれ対応する複数の照合処理の一部の実行が制限された場合であっても、特定物体像の探索には影響がない。したがって、照合処理の制限によって、探索処理の負荷を軽減することができる。こうして、探索性能の向上が図られる。
なお、この実施例では、撮像タスクと並行して、記録処理が実行されていないときは複数辞書顔検出タスクを実行し、記録処理の開始から終了までの間は複数辞書顔検出タスクまたは単一辞書顔検出タスクを実行するようにした。しかし、記録処理が実行されていないときにも複数辞書顔検出タスクまたは単一辞書顔検出タスクを撮像タスクと並行して実行するようにしてもよい。
この場合、記録処理が実行されていないときおよび記録処理の開始から終了までの間のいずれの場合にも、タイマを用いて複数辞書顔検出タスクの実行周期を調整するようにし、記録処理の開始から終了までの間は実行周期を延ばすようにすればよい。またこの場合、図12〜14に示す撮像タスクに変えて図23〜24に示す撮像タスクを実行するようにすればよい。
図23を参照して、ステップS191では動画取り込み処理を実行し、ステップS193ではフラグFLG_fを“0”に初期設定する。ステップS195ではAE/AF制御タスクを起動し、ステップS197では複数辞書顔検出タスクを起動する。ステップS199では変数TMRを“0.1”に初期設定する。
ステップS201では記録ボタン28recに向けて記録開始操作が行われたか否かを判別し、判別結果がNOであればステップS207に進む一方、判別結果がYESであればステップS203およびS205の処理を経てステップS213に進む。
ステップS203ではMP4コーデック46およびI/F40を起動して記録処理を開始し、ステップS205では変数TMRを“3”に設定する。
ステップS207では記録ボタン28recに向けて記録終了操作が行われたか否かを判別し、判別結果がNOであればステップS213に進む一方、判別結果がYESであればステップS209およびS211の処理を経てステップS213に進む。
ステップ209では、記録処理を終了するべくMP4コーデック46およびI/F40を停止する。また、書き込み先の動画ファイルには終了処理が施される。ステップS211では変数TMRを“0.1”に設定する。
ステップS213ではフラグFLG_fが“1”を示すか否かを判別し、判別結果がNOであればステップS227に進む一方、判別結果がYESであればステップS215に進む。
ステップS215では、顔検出レジスタRGSTdtに登録された位置およびサイズを読み出す。読み出された位置およびサイズに基づいて、ステップS217では顔枠GFの表示をグラフィックジェネレータ48に要求する。この結果、複数辞書顔検出タスクの下で検出された顔画像の位置およびサイズに適合する態様で、顔枠GFがLCDモニタ38に表示される。
ステップS219ではフラグFLG_sが“1”を示すか否かを判別し、判別結果がYESであればステップS201に戻る一方、判別結果がNOであればステップS221に進む。ステップS221では実行中の複数辞書顔検出タスクを停止し、ステップS223では単一辞書顔検出タスクを起動する。
ステップS225では、変数TMRが示す値をタイマ値として、タイマ26tのリセット&スタートを実行する。
ステップS227では、顔枠GFの非表示をグラフィックジェネレータ48に要求する。この結果、モニタ38に表示された顔枠GFは非表示とされる。ステップS229ではフラグFLG_sが“1”を示すか否かを判別し、判別結果がNOであればステップS201に戻る一方、判別結果がYESであればステップS231に進む。
ステップS231ではタイマ26tにタイムアウトが発生したか否かを判別し、判別結果がNOであればステップS201に戻り、判別結果がYESであれば実行中の単一辞書顔検出タスクをステップS233で停止する。
ステップS235ではフラグFLG_eを“0”に初期設定し、ステップS237では複数辞書顔検出タスクを起動する。ステップS239ではフラグFLG_eが“1”を示すか否かを繰り返し判別し、判別結果がNOからYESに更新されるとステップS221に戻る。
また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、外部サーバに接続するための通信I/F60を図25に示す要領でディジタルビデオカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。
また、この実施例では、CPU26によって実行される処理を、図12〜14に示す撮像タスク,図15に示すAE/AF制御タスク,図16〜17に示す複数辞書顔検出タスク,および図18〜19に示す単一辞書顔検出タスクを含む複数のタスクに区分するようにしている。しかし、これらのタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、転送タスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。
また、この実施例では、ディジタルビデオカメラを用いて説明したが、本発明は、ディジタルスチルカメラ,携帯電話端末またはスマートフォンなどにも適用することができる。
10 …ディジタルビデオカメラ
12 …フォーカスレンズ
14 …絞りユニット
16 …イメージセンサ
26 …CPU
32 …SDRAM
38 …LCDモニタ

Claims (11)

  1. 撮像面で捉えたシーンを表す画像を繰り返し出力する撮像手段、
    前記撮像面に直交する軸の回り方向において前記撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して前記撮像手段から出力された画像から特定物体像を探索する探索手段、
    前記探索手段の探索結果に応じて異なる処理動作を実行する実行手段、
    前記撮像手段から出力された画像を前記撮像手段の処理と並列して繰り返し記録する記録手段、および
    前記探索手段によって実行される照合処理を前記複数の照合処理のいずれか1つに制限する制限処理を前記記録手段の処理に関連して実行する制限手段を備える、電子カメラ。
  2. 前記探索手段は互いに異なる複数の画像辞書をそれぞれ用いて前記複数の照合処理を実行する、請求項1記載の電子カメラ。
  3. 前記制限処理の対象から外れる照合処理は前記特定物体像が探知された時点の前記撮像手段の姿勢に対応する、請求項1または2記載の電子カメラ。
  4. 前記制限手段は、前記探索手段の探知に応答して前記制限処理を開始する開始手段、および前記探索手段の非探知に応答して前記制限処理を停止する停止手段を含む、請求項1ないし3のいずれかに記載の電子カメラ。
  5. 前記記録手段の処理が中断される期間に前記探索手段の探知に応答して前記制限処理を第1頻度で実行する追加制限手段をさらに備え、
    前記制限手段は前記記録手段の処理が実行される期間に前記探索手段の探知に応答して前記制限処理を前記第1頻度よりも低い第2頻度で実行する、請求項1ないし3のいずれかに記載の電子カメラ。
  6. 前記実行手段は前記探索手段によって探知された特定物体像に注目して撮像条件を調整する調整手段を含む、請求項1ないし5のいずれかに記載の電子カメラ。
  7. 前記特定物体像は人物の顔画像に相当する、請求項1ないし6のいずれかに記載の電子カメラ。
  8. 撮像面で捉えたシーンを表す画像を繰り返し出力する撮像手段を備える電子カメラのプロセッサに、
    前記撮像面に直交する軸の回り方向において前記撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して前記撮像手段から出力された画像から特定物体像を探索する探索ステップ、
    前記探索ステップの探索結果に応じて異なる処理動作を実行する実行ステップ、
    前記撮像手段から出力された画像を前記撮像手段の処理と並列して繰り返し記録する記録ステップ、および
    前記探索ステップによって実行される照合処理を前記複数の照合処理のいずれか1つに制限する制限処理を前記記録ステップの処理に関連して実行する制限ステップを実行させるための、撮像制御プログラム。
  9. 撮像面で捉えたシーンを表す画像を繰り返し出力する撮像手段を備える電子カメラによって実行される撮像制御方法であって、
    前記撮像面に直交する軸の回り方向において前記撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して前記撮像手段から出力された画像から特定物体像を探索する探索ステップ、
    前記探索ステップの探索結果に応じて異なる処理動作を実行する実行ステップ、
    前記撮像手段から出力された画像を前記撮像手段の処理と並列して繰り返し記録する記録ステップ、および
    前記探索ステップによって実行される照合処理を前記複数の照合処理のいずれか1つに制限する制限処理を前記記録ステップの処理に関連して実行する制限ステップを備える、撮像制御方法。
  10. 撮像面で捉えたシーンを表す画像を繰り返し出力する撮像手段、および
    メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子カメラに供給される外部制御プログラムであって、
    前記撮像面に直交する軸の回り方向において前記撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して前記撮像手段から出力された画像から特定物体像を探索する探索ステップ、
    前記探索ステップの探索結果に応じて異なる処理動作を実行する実行ステップ、
    前記撮像手段から出力された画像を前記撮像手段の処理と並列して繰り返し記録する記録ステップ、および
    前記探索ステップによって実行される照合処理を前記複数の照合処理のいずれか1つに制限する制限処理を前記記録ステップの処理に関連して実行する制限ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
  11. 撮像面で捉えたシーンを表す画像を繰り返し出力する撮像手段、
    外部制御プログラムを受信する受信手段、および
    前記受信手段によって受信された外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える電子カメラであって、
    前記外部制御プログラムは、
    前記撮像面に直交する軸の回り方向において前記撮像手段がとり得る複数の姿勢にそれぞれ対応する複数の照合処理を実行して前記撮像手段から出力された画像から特定物体像を探索する探索ステップ、
    前記探索ステップの探索結果に応じて異なる処理動作を実行する実行ステップ、
    前記撮像手段から出力された画像を前記撮像手段の処理と並列して繰り返し記録する記録ステップ、および
    前記探索ステップによって実行される照合処理を前記複数の照合処理のいずれか1つに制限する制限処理を前記記録ステップの処理に関連して実行する制限ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、電子カメラ。
JP2011213783A 2011-09-29 2011-09-29 電子カメラ Pending JP2013074570A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011213783A JP2013074570A (ja) 2011-09-29 2011-09-29 電子カメラ
US13/630,208 US20130083963A1 (en) 2011-09-29 2012-09-28 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011213783A JP2013074570A (ja) 2011-09-29 2011-09-29 電子カメラ

Publications (1)

Publication Number Publication Date
JP2013074570A true JP2013074570A (ja) 2013-04-22

Family

ID=47992630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011213783A Pending JP2013074570A (ja) 2011-09-29 2011-09-29 電子カメラ

Country Status (2)

Country Link
US (1) US20130083963A1 (ja)
JP (1) JP2013074570A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10049273B2 (en) * 2015-02-24 2018-08-14 Kabushiki Kaisha Toshiba Image recognition apparatus, image recognition system, and image recognition method
JPWO2017146161A1 (ja) * 2016-02-26 2018-12-27 日本電気株式会社 顔照合システム、顔照合装置、顔照合方法、及び記録媒体
US11796831B2 (en) 2018-12-17 2023-10-24 Semiconductor Components Industries, Llc Methods and system for position stabilization

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004171490A (ja) * 2002-11-22 2004-06-17 Sony Corp 画像検出装置及び画像検出方法
US20060120604A1 (en) * 2004-12-07 2006-06-08 Samsung Electronics Co., Ltd. Method and apparatus for detecting multi-view faces
JP2007110575A (ja) * 2005-10-17 2007-04-26 Fujifilm Corp 対象画像検索装置およびディジタル・カメラならびにそれらの制御方法
JP2007148706A (ja) * 2005-11-28 2007-06-14 Fujifilm Corp 対象画像検出装置およびその制御方法
JP2008040709A (ja) * 2006-08-04 2008-02-21 Sony Corp 顔検出装置、撮像装置および顔検出方法
JP2010154041A (ja) * 2008-12-24 2010-07-08 Canon Inc 撮像装置、その制御方法、及びプログラム
JP2010157969A (ja) * 2009-01-05 2010-07-15 Canon Inc 撮像装置、対象物検出方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028555A (ja) * 2005-07-21 2007-02-01 Sony Corp カメラシステム,情報処理装置,情報処理方法,およびコンピュータプログラム
JP4444936B2 (ja) * 2006-09-19 2010-03-31 富士フイルム株式会社 撮影装置および方法並びにプログラム
JP4286292B2 (ja) * 2007-01-30 2009-06-24 三洋電機株式会社 電子カメラ
EP3582177A1 (en) * 2010-04-02 2019-12-18 Nokia Technologies Oy Methods and apparatuses for face detection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004171490A (ja) * 2002-11-22 2004-06-17 Sony Corp 画像検出装置及び画像検出方法
US20060120604A1 (en) * 2004-12-07 2006-06-08 Samsung Electronics Co., Ltd. Method and apparatus for detecting multi-view faces
JP2007110575A (ja) * 2005-10-17 2007-04-26 Fujifilm Corp 対象画像検索装置およびディジタル・カメラならびにそれらの制御方法
JP2007148706A (ja) * 2005-11-28 2007-06-14 Fujifilm Corp 対象画像検出装置およびその制御方法
JP2008040709A (ja) * 2006-08-04 2008-02-21 Sony Corp 顔検出装置、撮像装置および顔検出方法
JP2010154041A (ja) * 2008-12-24 2010-07-08 Canon Inc 撮像装置、その制御方法、及びプログラム
JP2010157969A (ja) * 2009-01-05 2010-07-15 Canon Inc 撮像装置、対象物検出方法及びプログラム

Also Published As

Publication number Publication date
US20130083963A1 (en) 2013-04-04

Similar Documents

Publication Publication Date Title
JP5136669B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN108399349B (zh) 图像识别方法及装置
US20060098875A1 (en) Image search apparatus for images to be detected, and method of controlling same
US20090196466A1 (en) Face Detection in Mid-Shot Digital Images
JP4413235B2 (ja) 電子カメラ
JP5759170B2 (ja) 追尾装置およびその制御方法
KR20180070264A (ko) 패닝 샷 이미지 획득 방법 및 이를 지원하는 전자 장치
US20180139369A1 (en) Backlit face detection
JP2012247533A (ja) 電子カメラ
JP6011569B2 (ja) 撮像装置、被写体追尾方法及びプログラム
KR20170009089A (ko) 사용자의 제스쳐를 이용하여 기능을 제어하는 방법 및 촬영 장치.
KR102351496B1 (ko) 영상 처리 장치 및 그 동작 방법
JP2013074570A (ja) 電子カメラ
JP5370555B2 (ja) 撮像装置、撮像方法及びプログラム
JP2011193063A (ja) 電子カメラ
JP5485781B2 (ja) 電子カメラ
JP2012191442A (ja) 画像再生制御装置
JP5865120B2 (ja) 電子カメラ
CN107180417B (zh) 照片处理方法、装置、计算机可读存储介质及电子设备
JP2012155044A (ja) 電子カメラ
JP5785034B2 (ja) 電子カメラ
JP2012070222A (ja) 撮像装置、撮像方法、及び撮像プログラム
JP6132486B2 (ja) 電子カメラ
JP2013005405A (ja) 電子カメラ
JP5712599B2 (ja) 撮像装置及びプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150805

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151209