[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009124565A - Imaging apparatus and program - Google Patents

Imaging apparatus and program Download PDF

Info

Publication number
JP2009124565A
JP2009124565A JP2007298088A JP2007298088A JP2009124565A JP 2009124565 A JP2009124565 A JP 2009124565A JP 2007298088 A JP2007298088 A JP 2007298088A JP 2007298088 A JP2007298088 A JP 2007298088A JP 2009124565 A JP2009124565 A JP 2009124565A
Authority
JP
Japan
Prior art keywords
face
imaging
tracking
mode
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007298088A
Other languages
Japanese (ja)
Other versions
JP4552997B2 (en
Inventor
Hiroyuki Hoshino
博之 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007298088A priority Critical patent/JP4552997B2/en
Publication of JP2009124565A publication Critical patent/JP2009124565A/en
Application granted granted Critical
Publication of JP4552997B2 publication Critical patent/JP4552997B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To appropriately perform the imaging of a subject by reducing the time to lose the sight of the subject. <P>SOLUTION: An imaging apparatus 100, which includes an imaging section 1 for continuously imaging the subject and generating a plurality of image frames including a main subject, comprises a CPU 71 which carries out processing for tracking the main subject between neighboring image frames in the plurality of image frames produced by the imaging section 1, processing for determining whether an instruction for setting a tracking mode for tracking the main subject is input or not, processing for setting the tracking mode in a case where it is determined that the setting instruction for the tracking mode is input, and processing for controlling image capturing of the subject by the imaging section 1 based on the main subject to be tracked after the tracking mode is set. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、被写体を撮像する撮像装置及びプログラムに関する。   The present invention relates to an imaging apparatus and a program for imaging a subject.

一般的なディジタル・スチル・カメラにおいては、平均測光、中央重点測光などにより測光値が得られ、得られた測光値を用いて自動露出制御が行われる。自動露出制御が終わると、自動合焦制御が行われる。
しかしながら,人物などの所望の被写体が撮影範囲の中央などに存在しない場合には正確な自動露出制御、自動合焦制御が行われないことがある。このために顔などの対象物を検出して自動露出制御を行うもの(例えば、特許文献1参照)、自動合焦制御を行うもの(例えば、特許文献2参照)、自動露出制御および自動合焦制御の両方を行うもの(例えば、特許文献3参照)などがある。さらには顔の検出を確実にするために露出量を変えながら複数回の撮影を行って顔を検出するものもある(例えば、特許文献4参照)。
特開2003−107555号公報 特開2003−107335号公報 特開2003−344891号公報 特開2007−5966号公報
In a general digital still camera, a photometric value is obtained by average photometry, center-weighted photometry, etc., and automatic exposure control is performed using the obtained photometric value. When the automatic exposure control is finished, automatic focusing control is performed.
However, when a desired subject such as a person does not exist in the center of the shooting range, accurate automatic exposure control and automatic focusing control may not be performed. For this purpose, an object that detects an object such as a face and performs automatic exposure control (for example, see Patent Document 1), an object that performs automatic focusing control (for example, see Patent Document 2), automatic exposure control and automatic focusing There is one that performs both of the controls (for example, see Patent Document 3). Furthermore, there is also a technique for detecting a face by performing photographing a plurality of times while changing the exposure amount in order to ensure the detection of the face (for example, see Patent Document 4).
JP 2003-107555 A JP 2003-107335 A JP 2003-344891 A JP 2007-5966 A

しかしながら、上記特許文献1乃至4等の場合、被写体である人物の「正面の顔」から「横顔」にかけて一定の角度までしか検出性能が保証されていない。即ち、例えば、人物が完全に横を向いてしまった場合には、顔を検出できずに被写体を見失った状態(「ロスト」の状態)となる。また、例えば、被写体がカメラを意識せずに自然に動いていると、被写体は下を向いたり、上を向いたり、或いは目深に目を伏せてしまう場合があるが、かかる場合にも、顔の検出に失敗してしまう。   However, in the case of Patent Documents 1 to 4 and the like, the detection performance is guaranteed only to a certain angle from the “front face” to the “side face” of the person who is the subject. That is, for example, when a person is completely turned sideways, the face cannot be detected and the subject is lost ("lost" state). Also, for example, if the subject moves naturally without being conscious of the camera, the subject may turn down, turn up, or look deep in the eyes. Face detection fails.

なお、最近の顔検出技術の向上によって、顔の上下左右のアングルの保証値は年々向上しているため、顔がかなり横を向いていても顔の検出に成功するようになっている。しかしながら、顔が完全に横を向いてしまったり下を向いてしまった場合には、顔検出を適正に行うことができないのが現状である。
このように顔の検出に失敗した場合には所望の被写体を見失い、被写体の撮像を適正に行うことができないといった問題がある。
With the recent improvement in face detection technology, the guaranteed values of the upper, lower, left and right angles of the face have improved year by year, so that even if the face is facing sideways, the face can be detected successfully. However, in the current situation, face detection cannot be performed properly if the face is completely turned sideways or turned downward.
As described above, when face detection fails, there is a problem that a desired subject is lost and the subject cannot be properly imaged.

そこで、本発明の課題は、被写体を見失う時間を減少させることができ、被写体の撮像を適正に行うことができる撮像装置及びプログラムを提供することである。   Therefore, an object of the present invention is to provide an imaging apparatus and a program that can reduce the time for losing sight of a subject and appropriately capture the subject.

請求項1に記載の発明の撮像装置は、
被写体を連続して撮像して、主要被写体を含む複数の画像フレームを生成する撮像手段と、
前記撮像手段により生成された前記複数の画像フレームのうちの隣合う画像フレーム間で、前記主要被写体を追跡する主要被写体追跡手段と、
前記主要被写体追跡手段により前記主要被写体を追跡する追跡モードの設定指示が入力されたか否かを判定する設定指示判定手段と、
前記設定指示判定手段により前記追跡モードの設定指示が入力されたと判定された場合に、前記追跡モードに設定する追跡モード設定手段と、
前記追跡モード設定手段により前記追跡モードに設定された後、前記主要被写体追跡手段により追跡される前記主要被写体に基づいて、前記撮像手段による前記被写体の撮像を制御する撮像制御手段と、
を備えることを特徴としている。
The imaging device of the invention according to claim 1
Imaging means for continuously imaging a subject and generating a plurality of image frames including the main subject;
Main subject tracking means for tracking the main subject between adjacent image frames of the plurality of image frames generated by the imaging means;
Setting instruction determination means for determining whether or not a setting instruction for a tracking mode for tracking the main subject is input by the main subject tracking means;
Tracking mode setting means for setting the tracking mode when it is determined that the setting instruction for the tracking mode is input by the setting instruction determination means;
An imaging control unit configured to control imaging of the subject by the imaging unit based on the main subject tracked by the main subject tracking unit after being set to the tracking mode by the tracking mode setting unit;
It is characterized by having.

請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記撮像手段により生成された前記複数の画像フレームから前記被写体中の顔を検出する顔検出手段と、
前記顔検出手段により顔を検出する顔検出モードに設定する顔検出モード設定手段と、を備え、
前記追跡モード設定手段は、
前記顔検出モード設定手段により前記顔検出モードに設定された状態で、前記設定指示判定手段により前記追跡モードの設定指示が入力されたと判定されると、前記顔検出モードから前記追跡モードに切換えるモード切換手段を備えることを特徴としている。
The invention according to claim 2 is the imaging apparatus according to claim 1,
Face detection means for detecting a face in the subject from the plurality of image frames generated by the imaging means;
A face detection mode setting means for setting a face detection mode for detecting a face by the face detection means,
The tracking mode setting means includes
A mode for switching from the face detection mode to the tracking mode when the setting instruction determining unit determines that the setting instruction for the tracking mode has been input in a state where the face detection mode is set by the face detection mode setting unit. It is characterized by comprising switching means.

請求項3に記載の発明は、請求項2に記載の撮像装置において、
前記顔検出手段による前記顔検出の結果に応じて顔の検出状態であるか非検出状態であるかを判定する顔検出判定手段を備え、
前記主要被写体追跡手段は、前記顔検出判定手段により顔の検出状態であると判定された場合に、当該顔に対応する顔対応部を前記主要被写体として追跡することを特徴としている。
The invention according to claim 3 is the imaging apparatus according to claim 2,
Comprising face detection determination means for determining whether a face detection state or a non-detection state according to a result of the face detection by the face detection means;
The main subject tracking unit is configured to track a face corresponding unit corresponding to the face as the main subject when the face detection determining unit determines that the face is detected.

請求項4に記載の発明は、請求項2又は3に記載の撮像装置において、
前記顔検出手段による前記顔検出の結果に応じて顔の検出状態であるか非検出状態であるかを判定する顔検出判定手段と、
前記撮像手段に備わる撮像レンズの合焦位置を調整する自動合焦処理の合焦処理モードを設定する合焦処理モード設定手段と、を備え、
前記主要被写体追跡手段は、
前記顔検出判定手段により顔の非検出状態であると判定された場合に、前記合焦処理モード設定手段により設定されている前記合焦処理モードに応じた合焦箇所内の撮像対象を前記主要被写体として追跡することを特徴としている。
The invention according to claim 4 is the imaging apparatus according to claim 2 or 3,
Face detection determination means for determining whether a face is detected or not detected according to a result of the face detection by the face detection means;
Focusing processing mode setting means for setting a focusing processing mode of automatic focusing processing for adjusting a focusing position of an imaging lens provided in the imaging means,
The main subject tracking means includes
When the face detection determination unit determines that the face is in a non-detection state, the imaging target in the in-focus location corresponding to the focus processing mode set by the focus processing mode setting unit is the main image. It is characterized by being tracked as a subject.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の撮像装置において、
半押し操作及び全押し操作を実行可能なシャッターボタンを備え、
前記設定指示判定手段は、前記シャッターボタンの前記半押し操作に基づいて、前記追跡モードの設定指示が入力されたと判定することを特徴としている。
Invention of Claim 5 is an imaging device as described in any one of Claims 1-4,
Has a shutter button that can perform half-press and full-press operation,
The setting instruction determination unit determines that the tracking mode setting instruction is input based on the half-press operation of the shutter button.

請求項6に記載の発明は、請求項2〜4の何れか一項に記載の撮像装置において、
顔画像を登録する顔画像登録手段と、
前記顔検出手段により検出された顔と前記顔画像登録手段に登録されている前記顔画像が一致するか否かを判定する顔登録判定手段と、を備え、
前記設定指示判定手段は、前記顔登録判定手段により一致すると判定された場合に、前記追跡モードの設定指示が入力されたと判定することを特徴としている。
Invention of Claim 6 is an imaging device as described in any one of Claims 2-4,
Face image registration means for registering a face image;
Face registration determination means for determining whether or not the face detected by the face detection means matches the face image registered in the face image registration means,
The setting instruction determination unit determines that the tracking mode setting instruction is input when the face registration determination unit determines that they match.

請求項7に記載の発明のプログラムは、
被写体を連続して撮像して、主要被写体を含む複数の画像フレームを生成する撮像手段を備える撮像装置に、
前記撮像手段により生成された前記複数の画像フレームのうちの隣合う画像フレーム間で、前記主要被写体を追跡する機能と、
前記主要被写体を追跡する追跡モードの設定指示が入力されたか否かを判定する機能と、
前記追跡モードの設定指示が入力されたと判定された場合に、前記追跡モードに設定する機能と、
前記追跡モードに設定された後、追跡される前記主要被写体に基づいて、前記撮像手段による前記被写体の撮像を制御する機能と、
を実現させることを特徴としている。
The program of the invention described in claim 7 is:
In an imaging apparatus comprising imaging means for continuously imaging a subject and generating a plurality of image frames including the main subject,
A function of tracking the main subject between adjacent image frames of the plurality of image frames generated by the imaging means;
A function of determining whether or not an instruction to set a tracking mode for tracking the main subject is input;
A function of setting the tracking mode when it is determined that an instruction to set the tracking mode is input;
A function of controlling imaging of the subject by the imaging means based on the main subject to be tracked after being set to the tracking mode;
It is characterized by realizing.

本発明によれば、主要被写体をより長い時間追いかけて当該主要被写体を見失う時間を減少させることができ、この結果、画像の撮像制御を適正に行って被写体の撮像を適正に行うことができる。   According to the present invention, it is possible to reduce the time for which the main subject is chased for a longer time and lose sight of the main subject, and as a result, it is possible to appropriately control the image capturing and appropriately capture the subject.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
図1は、本発明を適用した実施形態1の撮像装置100の概略構成を示すブロック図である。
実施形態1の撮像装置100は、所定動作により被写体中の主要被写体を追跡する追跡モードの設定指示が入力されると、撮影モードを追跡モードに設定して主要被写体を動体解析により追跡し、動体解析により追跡された主要被写体に基づいて、被写体画像の撮像制御を行う。
具体的には、撮像装置100は、例えば、図1に示すように、撮像部1と、撮像補助部2と、表示部3、操作部4と、記録媒体5と、USB端子6と、制御部7等を備えて構成されている。
[Embodiment 1]
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to the first embodiment to which the present invention is applied.
When an instruction to set a tracking mode for tracking the main subject in the subject is input by a predetermined operation, the imaging apparatus 100 according to the first embodiment sets the shooting mode to the tracking mode and tracks the main subject by moving body analysis. Based on the main subject tracked by the analysis, imaging control of the subject image is performed.
Specifically, for example, as illustrated in FIG. 1, the imaging apparatus 100 includes an imaging unit 1, an imaging auxiliary unit 2, a display unit 3, an operation unit 4, a recording medium 5, a USB terminal 6, and a control. The unit 7 is provided.

撮像部1は、撮像手段として、被写体を連続して撮像して複数の画像フレームG、…(図2等参照)を生成する。具体的には、撮像部1は、撮像レンズ群11と、電子撮像部12と、映像信号処理部13と、画像メモリ14と、撮影制御部15等を備えている。   The imaging unit 1, as an imaging unit, continuously captures a subject and generates a plurality of image frames G (see FIG. 2 and the like). Specifically, the imaging unit 1 includes an imaging lens group 11, an electronic imaging unit 12, a video signal processing unit 13, an image memory 14, a shooting control unit 15, and the like.

撮像レンズ群11は、複数の撮像レンズから構成されている。
電子撮像部12は、撮像レンズ群11を通過した被写体像を二次元の画像信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等から構成されている。
映像信号処理部13は、電子撮像部12から出力される画像信号に対して所定の画像処理を施すものである。
画像メモリ14は、画像処理後の画像信号を一時的に記憶する。
The imaging lens group 11 includes a plurality of imaging lenses.
The electronic imaging unit 12 includes a CCD (Charge Coupled Device) that converts a subject image that has passed through the imaging lens group 11 into a two-dimensional image signal, a CMOS (Complementary Metal-oxide Semiconductor), and the like.
The video signal processing unit 13 performs predetermined image processing on the image signal output from the electronic imaging unit 12.
The image memory 14 temporarily stores the image signal after image processing.

撮影制御部15は、CPU71の制御下にて、電子撮像部12及び映像信号処理部13を制御する。具体的には、撮影制御部15は、電子撮像部12に所定の露出時間で被写体を撮像させ、当該電子撮像部12の撮像領域から画像信号(画像フレームG)を所定のフレームレートで読み出す処理の実行を制御する。   The imaging control unit 15 controls the electronic imaging unit 12 and the video signal processing unit 13 under the control of the CPU 71. Specifically, the imaging control unit 15 causes the electronic imaging unit 12 to image a subject with a predetermined exposure time, and reads an image signal (image frame G) from the imaging area of the electronic imaging unit 12 at a predetermined frame rate. Control the execution of

撮像補助部2は、撮像部1による被写体の撮像の際に駆動するものであり、例えば、フォーカス駆動部21と、ズーム駆動部22、ストロボ発光部23と、ストロボ駆動部24等を備えている。   The imaging auxiliary unit 2 is driven when the subject is imaged by the imaging unit 1, and includes, for example, a focus driving unit 21, a zoom driving unit 22, a strobe light emitting unit 23, a strobe driving unit 24, and the like. .

フォーカス駆動部21は、撮像レンズ群11に接続されたフォーカス機構部(図示略)を駆動させる。
ズーム駆動部22は、撮像レンズ群11に接続されたズーム機構部(図示略)を駆動させる。
ストロボ駆動部24は、ストロボ発光部23を発光させる。
なお、フォーカス駆動部21、ズーム駆動部22及びストロボ駆動部24は、撮影制御部15に接続され、撮影制御部15の制御下にて駆動する。
The focus drive unit 21 drives a focus mechanism unit (not shown) connected to the imaging lens group 11.
The zoom drive unit 22 drives a zoom mechanism unit (not shown) connected to the imaging lens group 11.
The strobe driving unit 24 causes the strobe light emitting unit 23 to emit light.
The focus driving unit 21, zoom driving unit 22, and strobe driving unit 24 are connected to the shooting control unit 15 and are driven under the control of the shooting control unit 15.

表示部3は、撮像部1により撮像された画像を表示するものであり、例えば、表示制御部31と、画像表示部32等を備えている。   The display unit 3 displays an image captured by the imaging unit 1, and includes, for example, a display control unit 31, an image display unit 32, and the like.

表示制御部31は、CPU71から適宜出力される表示データを一時的に保存するビデオメモリ(図示略)を備えている。   The display control unit 31 includes a video memory (not shown) that temporarily stores display data appropriately output from the CPU 71.

画像表示部32は、表示制御部31からの出力信号に基づいて撮像部1により撮像された画像(図2等参照)等の所定画像を表示する液晶モニタ等を備えている。
また、画像表示部32は、顔検出処理(後述)にて検出された顔画像に重畳させて顔検出枠A1(図2等参照)を表示する。具体的には、例えば、シャボン玉をしている人物Hを撮像する場合、画像表示部32は、図2〜図6に示すように、人物Hがシャボン玉作成器具を所定方向に動かしている状態に係る複数の画像フレームGを逐次表示する。このとき、顔検出処理にて顔Fが検出されるか(図2及び図3参照)、或いは主要被写体追跡処理(後述)にて顔対応部Cを見失った後に顔Fが再検出されると(図6参照)、画像表示部32は、当該顔Fに重畳させて略矩形状の顔検出枠A1を表示する。
The image display unit 32 includes a liquid crystal monitor that displays a predetermined image such as an image (see FIG. 2 and the like) captured by the imaging unit 1 based on an output signal from the display control unit 31.
The image display unit 32 displays a face detection frame A1 (see FIG. 2 and the like) superimposed on the face image detected in the face detection process (described later). Specifically, for example, when imaging a person H wearing a soap bubble, the image display unit 32 moves the soap bubble creating instrument in a predetermined direction as shown in FIGS. A plurality of image frames G related to the state are sequentially displayed. At this time, if the face F is detected by the face detection process (see FIGS. 2 and 3), or if the face F is detected again after losing sight of the face corresponding part C in the main subject tracking process (described later). (See FIG. 6), the image display unit 32 displays a substantially rectangular face detection frame A1 superimposed on the face F.

さらに、画像表示部32は、主要被写体追跡処理にて追跡される主要被写体に重畳させて追跡枠A2(図4参照)を表示する。具体的には、顔検出処理にて顔Fの検出中に、シャッターボタン41aの半押し操作に基づいて主要被写体追跡処理の実行が指示されると、画像表示部32は、主要被写体追跡処理にて追跡する主要被写体としての顔対応部Cに重畳させて略矩形状の追跡枠A2を表示する。
また、主要被写体追跡処理にて顔対応部Cの追跡中に、顔対応部Cを見失った場合には、画像表示部32は、撮像画像に対する追跡枠A2の重畳表示を停止する(図5参照)。
Furthermore, the image display unit 32 displays the tracking frame A2 (see FIG. 4) so as to be superimposed on the main subject tracked in the main subject tracking process. Specifically, when the execution of the main subject tracking process is instructed based on the half-pressing operation of the shutter button 41a during the detection of the face F in the face detection process, the image display unit 32 performs the main subject tracking process. A substantially rectangular tracking frame A2 is displayed so as to be superimposed on the face corresponding portion C as the main subject to be tracked.
If the face corresponding unit C is lost while the face corresponding unit C is being tracked in the main subject tracking process, the image display unit 32 stops superimposing the tracking frame A2 on the captured image (see FIG. 5). ).

また、画像表示部32は、撮像部1により撮像された画像に重畳させてAFエリアA4(図7参照)を表示する。   Further, the image display unit 32 displays the AF area A4 (see FIG. 7) so as to be superimposed on the image captured by the imaging unit 1.

なお、顔検出枠A1及び追跡枠A2として、略矩形状に形成されたものを例示したが、枠形状はこれに限られるものではなく、顔Fや主要被写体と対応付けられるものであれば如何なる形状であっても良い。また、顔検出枠A1及び追跡枠A2は、線種を変えて区別するのではなく、色を変えて区別するようにしても良い。   Although the face detection frame A1 and the tracking frame A2 are illustrated as having a substantially rectangular shape, the frame shape is not limited to this, and any shape can be used as long as it can be associated with the face F or the main subject. It may be a shape. Further, the face detection frame A1 and the tracking frame A2 may be distinguished by changing the color instead of changing the line type.

操作部4は、当該撮像装置100の所定操作を行うためのものであり、例えば、シャッターボタン41a、顔検出モード設定ボタン41b、AFモード設定ボタン41c等を備える操作入力部41と、入力回路42等を備えている。   The operation unit 4 is for performing a predetermined operation of the imaging apparatus 100. For example, an operation input unit 41 including a shutter button 41a, a face detection mode setting button 41b, an AF mode setting button 41c, and the like, and an input circuit 42 Etc.

シャッターボタン41aは、撮像部1による被写体の撮像を指示する。また、シャッターボタン41aは、例えば、半押し操作及び全押し操作の2段階の押圧操作が可能に構成され、各操作段階に応じた所定の操作信号を出力する。具体的には、シャッターボタン41aは、ユーザにより半押し操作された場合に、主要被写体追跡処理にて顔Fを追跡する追跡モードの設定指示を出力し、ユーザにより全押し操作された場合に、制御部7の制御下における自動合焦処理(AF)、自動露出処理(AE)、撮像部1による本画像(記録画像)の撮像の実行指示を出力する。   The shutter button 41a instructs the imaging unit 1 to image the subject. The shutter button 41a is configured to be capable of two-stage pressing operation, for example, a half-pressing operation and a full-pressing operation, and outputs a predetermined operation signal corresponding to each operation stage. Specifically, the shutter button 41a outputs a tracking mode setting instruction for tracking the face F in the main subject tracking process when the shutter button 41a is pressed halfway by the user, and when the shutter button 41a is fully pressed by the user, An instruction to execute automatic focusing processing (AF), automatic exposure processing (AE), and imaging of the main image (recorded image) by the imaging unit 1 under the control of the control unit 7 is output.

顔検出モード設定ボタン41bは、撮影モードを顔検出処理にて顔Fを検出する顔検出モードに設定するためのものである。具体的には、ユーザにより顔検出モード設定ボタン41bが所定操作されると、顔検出モードの設定指示を入力回路42を介してCPU71に出力する。CPU71は、設定指示が入力されると、各部を制御して撮影モードを顔検出モードに設定する。
ここで、顔検出モード設定ボタン41bとCPU71は、顔検出モード設定手段として機能する。
The face detection mode setting button 41b is for setting the photographing mode to a face detection mode for detecting the face F in the face detection process. Specifically, when the user performs a predetermined operation on the face detection mode setting button 41b, a face detection mode setting instruction is output to the CPU 71 via the input circuit. When the setting instruction is input, the CPU 71 controls each unit to set the photographing mode to the face detection mode.
Here, the face detection mode setting button 41b and the CPU 71 function as face detection mode setting means.

AFモード設定ボタン41cは、自動合焦処理の合焦処理モードを設定するためのものである。具体的には、ユーザによりAFモード設定ボタン41cが所定操作されて、例えば、画角の略中央にAFする「スポット」(図7参照)や、複数のAFエリアの中から適当なAFエリアを自動検出してAFする「マルチ」等のAFモードが選択されると、当該モードの設定指示を入力回路42を介してCPU71に出力する。CPU71は、設定指示が入力されると、各部を制御して所定のAFモードに設定する。
ここで、AFモード設定ボタン41cとCPU71は、合焦処理モード設定手段として機能する。
The AF mode setting button 41c is for setting a focusing process mode of the automatic focusing process. Specifically, when the user operates the AF mode setting button 41c for a predetermined operation, for example, a “spot” (see FIG. 7) that performs AF at the approximate center of the angle of view, or an appropriate AF area from a plurality of AF areas is selected. When an AF mode such as “multi” which automatically detects and AF is selected, a setting instruction for the mode is output to the CPU 71 via the input circuit 42. When a setting instruction is input, the CPU 71 controls each unit to set a predetermined AF mode.
Here, the AF mode setting button 41c and the CPU 71 function as a focusing process mode setting unit.

入力回路42は、操作入力部41から入力された操作信号をCPU71に入力するためのものである。   The input circuit 42 is for inputting the operation signal input from the operation input unit 41 to the CPU 71.

記録媒体5は、例えば、カード型の不揮発性メモリ(フラッシュメモリ)やハードディスク等により構成され、撮像部1により撮像された画像の画像ファイルGを複数記憶する。   The recording medium 5 is configured by, for example, a card-type nonvolatile memory (flash memory), a hard disk, or the like, and stores a plurality of image files G of images captured by the imaging unit 1.

USB端子6は、外部機器との接続用の端子であり、USBケーブル(図示略)等を介してデータの送受信を行う。   The USB terminal 6 is a terminal for connection with an external device, and transmits and receives data via a USB cable (not shown).

制御部7は、撮像装置100の各部を制御するものであり、例えば、CPU71と、プログラムメモリ72と、データメモリ73等を備えている。   The control unit 7 controls each unit of the imaging apparatus 100, and includes, for example, a CPU 71, a program memory 72, a data memory 73, and the like.

CPU71は、プログラムメモリ72に記憶された撮像装置100用の各種処理プログラムに従って各種の制御動作を行うものである。   The CPU 71 performs various control operations according to various processing programs for the imaging apparatus 100 stored in the program memory 72.

データメモリ73は、例えば、フラッシュメモリ等により構成され、CPU71によって処理されるデータ等を一時記憶する。
具体的には、データメモリ73は、第一の座標取得処理(後述)にて取得された顔Fの座標(顔座標)や第二の座標取得処理(後述)にて取得された被写体の座標(主要被写体座標)を記憶する。
The data memory 73 is composed of, for example, a flash memory and temporarily stores data processed by the CPU 71.
Specifically, the data memory 73 stores the coordinates of the face F (face coordinates) acquired in the first coordinate acquisition process (described later) and the coordinates of the subject acquired in the second coordinate acquisition process (described later). (Main subject coordinates) is stored.

プログラムメモリ72は、CPU71の動作に必要な各種プログラムやデータを記憶するものである。具体的には、プログラムメモリ72は、顔検出プログラム72a、第一の座標取得プログラム72b、設定指示判定プログラム72c、追跡モード設定プログラム72d、顔検出判定プログラム72e、主要被写体追跡プログラム72f、第二の座標取得プログラム72g、合焦制御プログラム72h、露出条件調整プログラム72i、撮像制御プログラム72j等を記憶している。   The program memory 72 stores various programs and data necessary for the operation of the CPU 71. Specifically, the program memory 72 includes a face detection program 72a, a first coordinate acquisition program 72b, a setting instruction determination program 72c, a tracking mode setting program 72d, a face detection determination program 72e, a main subject tracking program 72f, and a second subject tracking program 72f. A coordinate acquisition program 72g, a focusing control program 72h, an exposure condition adjustment program 72i, an imaging control program 72j, and the like are stored.

顔検出プログラム72aは、CPU71を顔検出手段として機能させるものである。即ち、顔検出プログラム72aは、撮像部1により生成された複数の画像フレームG、…の各々から被写体の顔Fを逐次検出する顔検出処理の実行に係る機能をCPU71に実現させるためのプログラムである。
具体的には、CPU71による顔検出プログラム72aの実行に基づいて、複数の画像フレームG、…のうちの、一の画像フレームG(例えば、画像フレームGn−1)について顔画像探索範囲R1を画像全体として顔画像探索枠A3(図8参照)を所定方向に走査して、目、鼻、ロなどに相当する特徴部分(顔パーツ)を特定して、各顔パーツの位置関係から顔Fであるか否かを判定し、顔Fであると判定されると当該探索枠領域を顔Fとみなす。また、所定の画像フレームGにて顔Fが検出されると、図9に示すように、次の画像フレームG(例えば、画像フレームG)にて、検出された顔Fの近傍の所定領域を顔画像探索範囲R1として、顔検出する。
そして、顔Fが検出されると、画像表示部32は、当該顔Fに重畳させて顔検出枠A1を表示する(図2参照)。
The face detection program 72a causes the CPU 71 to function as face detection means. That is, the face detection program 72a is a program for causing the CPU 71 to realize a function related to execution of face detection processing for sequentially detecting the face F of the subject from each of the plurality of image frames G,... Generated by the imaging unit 1. is there.
Specifically, based on the execution of the face detection program 72a by the CPU 71, the face image search range R1 is set for one image frame G (for example, image frame G n-1 ) among the plurality of image frames G,. The face image search frame A3 (see FIG. 8) is scanned as a whole image in a predetermined direction to identify feature portions (face parts) corresponding to eyes, nose, and b, and the face F is determined from the positional relationship of each face part. If the face F is determined, the search frame region is regarded as the face F. When the face F is detected in the predetermined image frame G, as shown in FIG. 9, the predetermined area near the detected face F in the next image frame G (for example, the image frame G n ). Is detected as the face image search range R1.
When the face F is detected, the image display unit 32 displays the face detection frame A1 so as to be superimposed on the face F (see FIG. 2).

また、主要被写体追跡処理(後述)にて主要被写体を見失った場合に、顔検出モードに設定されていると、CPU71による顔検出プログラム72aの実行に基づいて、第二の座標取得処理(後述)により取得された主要被写体の座標に基づいて、顔検出する(図6参照)。
即ち、主要被写体追跡処理にて主要被写体を見失うと、CPU71は、データメモリ73に記憶されている主要被写体座標に基づいて、画像フレームGにおける当該主要被写体座標近傍の所定領域を顔画像探索範囲R1として、顔Fの再検出を行う。
If the main subject is lost in the main subject tracking process (described later) and the face detection mode is set, the second coordinate acquisition process (described later) is performed based on the execution of the face detection program 72a by the CPU 71. The face is detected based on the coordinates of the main subject acquired by (see FIG. 6).
That is, when the main subject is lost in the main subject tracking process, the CPU 71 searches the face image search range R1 for a predetermined area near the main subject coordinates in the image frame G based on the main subject coordinates stored in the data memory 73. The face F is detected again.

第一の座標取得プログラム72bは、CPU71を第一の座標取得手段として機能させるものである。即ち、第一の座標取得プログラム72bは、顔検出処理にて検出された顔Fの座標(顔座標)を取得する第一の座標取得処理に係る機能をCPU71に実現させるためのプログラムである。
具体的には、CPU71は第一の座標取得プログラム72bを実行することで、顔検出処理にて検出された顔Fに重畳して画像表示部32に表示される顔検出枠A1の各角部の座標(x,y)、(x,y)、(x,y)、(x,y)を取得する(図10参照)。
The first coordinate acquisition program 72b causes the CPU 71 to function as first coordinate acquisition means. That is, the first coordinate acquisition program 72b is a program for causing the CPU 71 to realize a function related to the first coordinate acquisition process for acquiring the coordinates (face coordinates) of the face F detected in the face detection process.
Specifically, the CPU 71 executes the first coordinate acquisition program 72b, so that each corner of the face detection frame A1 displayed on the image display unit 32 is superimposed on the face F detected by the face detection process. The coordinates (x 1 , y 1 ), (x 1 , y 2 ), (x 2 , y 1 ), and (x 2 , y 2 ) are acquired (see FIG. 10).

設定指示判定プログラム72cは、CPU71を設定指示判定手段として機能させるものである。即ち、設定指示判定プログラム72cは、主要被写体追跡処理にて主要被写体を追跡する追跡モードの設定指示が入力されたか否かを判定する処理に係る機能をCPU71に実現させるためのプログラムである。
具体的には、CPU71は設定指示判定プログラム72cを実行することで、ユーザによりシャッターボタン41aが半押し操作されて追跡モードの設定指示が入力されたか否かを判定する(設定指示判定処理)。
The setting instruction determination program 72c causes the CPU 71 to function as setting instruction determination means. That is, the setting instruction determination program 72c is a program for causing the CPU 71 to realize a function related to a process for determining whether or not a tracking mode setting instruction for tracking a main subject is input in the main subject tracking process.
Specifically, the CPU 71 executes the setting instruction determination program 72c to determine whether or not the user has pressed the shutter button 41a halfway to input a tracking mode setting instruction (setting instruction determination process).

追跡モード設定プログラム72dは、CPU71を追跡モード設定手段として機能させるものである。即ち、追跡モード設定プログラム72dは、設定指示判定処理にて追跡モードの設定指示が入力されたと判定された場合に、追跡モードに設定する処理に係る機能をCPU71に実現させるためのプログラムである。
具体的には、CPU71は、追跡モード設定プログラム72dを実行して、顔検出モード設定ボタン41bの所定操作に従って顔検出モードに設定された状態で、ユーザによるシャッターボタン41aの半押し操作に基づいて設定指示判定処理にて追跡モードの設定指示が入力されたと判定されると、顔検出モードから追跡モードに切換える処理を行う。ここで、CPU71は、顔検出モードから追跡モードに切換えるモード切換手段として機能する。
The tracking mode setting program 72d causes the CPU 71 to function as tracking mode setting means. That is, the tracking mode setting program 72d is a program for causing the CPU 71 to realize a function related to the processing for setting the tracking mode when it is determined in the setting instruction determination processing that the tracking mode setting instruction is input.
Specifically, the CPU 71 executes the tracking mode setting program 72d, and sets the face detection mode according to a predetermined operation of the face detection mode setting button 41b, based on a half-press operation of the shutter button 41a by the user. If it is determined in the setting instruction determination process that a tracking mode setting instruction has been input, a process of switching from the face detection mode to the tracking mode is performed. Here, the CPU 71 functions as mode switching means for switching from the face detection mode to the tracking mode.

顔検出判定プログラム72eは、CPU71を顔検出判定手段として機能させるものである。即ち、CPU71は顔検出判定プログラム72eを実行することで、顔検出処理の結果に応じて顔Fの検出状態であるか非検出状態であるかを判定する(顔検出判定処理)。   The face detection determination program 72e causes the CPU 71 to function as face detection determination means. That is, the CPU 71 executes the face detection determination program 72e to determine whether the face F is detected or not detected according to the result of the face detection process (face detection determination process).

主要被写体追跡プログラム72fは、CPU71を主要被写体追跡手段として機能させるものである。即ち、主要被写体追跡プログラム72fは、撮像部1により生成された複数の画像フレームG、…のうちの隣合う画像フレーム間(例えば、画像フレームGn+m−1(図示略)と画像フレームGn+m)で、主要被写体を動体解析により追跡する処理に係る機能をCPU71に実現させるためのプログラムである。
具体的には、CPU71は主要被写体追跡プログラム72fを実行することで、顔検出判定処理にて顔Fの検出状態であると判定された場合には、当該顔Fに対応する顔対応部Cを主要被写体として、一方、顔Fの非検出状態であると判定された場合に、AFモードに応じたAFエリア(合焦箇所)内の撮像対象(例えば、スポットAFモードの場合には、画角の略中央のAFエリアA4内の撮像対象、また、マルチAFの場合には、複数のAFエリアのうち、より中央に近いAFエリア内の撮像対象)を主要被写体として追跡する。
The main subject tracking program 72f causes the CPU 71 to function as main subject tracking means. In other words, the main subject tracking program 72f is configured such that the adjacent image frames (for example, the image frame G n + m−1 (not shown) and the image frame G n + m ) among the plurality of image frames G,. Thus, the CPU 71 is a program for causing the CPU 71 to realize a function related to the process of tracking the main subject by moving body analysis.
Specifically, when the CPU 71 executes the main subject tracking program 72f and determines that the face F is detected in the face detection determination process, the CPU 71 displays the face corresponding unit C corresponding to the face F. On the other hand, when it is determined that the face F is in the non-detected state as the main subject, the imaging target in the AF area (focused position) corresponding to the AF mode (for example, in the case of the spot AF mode, the angle of view) In the case of multi-AF, the imaging target in the AF area A4 at the substantially center of (2) is tracked as the main subject.

第二の座標取得プログラム72gは、CPU71を第二の座標取得手段として機能させるものである。即ち、CPU71は第二の座標取得プログラム72gを実行することで、主要被写体追跡処理にて追跡された主要被写体の座標を取得する。   The second coordinate acquisition program 72g causes the CPU 71 to function as second coordinate acquisition means. That is, the CPU 71 executes the second coordinate acquisition program 72g to acquire the coordinates of the main subject tracked in the main subject tracking process.

ここで、動体解析について詳細に説明する。
先ず、追跡モードに設定されると、CPU71は、顔検出判定プログラム72eを実行することで、顔検出判定処理にて顔Fの検出状態であるか非検出状態であるかを判定する。顔Fの検出状態であると判定された場合には、CPU71は、主要被写体追跡プログラム72fを実行して、データメモリ73に記憶されている顔座標を取得して、当該顔座標で囲まれた領域内の撮像対象(顔対応部C)を主要被写体として特定する。一方、顔Fの非検出状態であると判定された場合には、AFモードに応じたAFエリア(合焦箇所)内の撮像対象を主要被写体として特定する。
その後、主要被写体の輝度情報や色情報等の画像情報をテンプレートとして、次の画像フレームG(例えば、画像フレームGn+m)にて顔座標近傍の所定の動体探索範囲R2内を所定方向に走査してマッチングを行い、最も近似性の高い部分を主要被写体とする(図11参照)。
そして、最も近似性が高いと判定された主要被写体の縁部を追跡枠A2とし、CPU71による第二の座標取得プログラム72gの実行に基づいて、追跡枠A2の各角部の座標(主要被写体座標)を取得した後、当該主要被写体座標によりデータメモリ73に記憶されている顔座標を更新する(第二の座標取得処理)。さらに追跡枠A2内の主要被写体の輝度情報や色情報等の画像情報をテンプレートとして更新する。
上記の処理を撮像部1により生成される連続した画像フレームG、…の各々に対して逐次実行することにより、マッチングに用いるテンプレートが更新されていく。そのため被写体が経時的に変化しても主要被写体(顔対応部C等)を動体として追跡することができる。
Here, the moving body analysis will be described in detail.
First, when the tracking mode is set, the CPU 71 determines whether the face F is detected or not detected in the face detection determination process by executing the face detection determination program 72e. When it is determined that the face F is detected, the CPU 71 executes the main subject tracking program 72f to acquire the face coordinates stored in the data memory 73 and is surrounded by the face coordinates. The imaging target (face corresponding part C) in the area is specified as the main subject. On the other hand, when it is determined that the face F is in the non-detected state, the imaging target in the AF area (focused position) corresponding to the AF mode is specified as the main subject.
Thereafter, using the image information such as luminance information and color information of the main subject as a template, the next image frame G (for example, image frame G n + m ) is scanned in a predetermined moving object search range R2 near the face coordinates in a predetermined direction. The matching is performed, and the portion with the highest approximation is set as the main subject (see FIG. 11).
Then, the edge of the main subject determined to have the highest approximation is set as the tracking frame A2, and the coordinates (main subject coordinates) of each corner of the tracking frame A2 are based on the execution of the second coordinate acquisition program 72g by the CPU 71. ) Is updated, the face coordinates stored in the data memory 73 are updated with the main subject coordinates (second coordinate acquisition process). Furthermore, image information such as luminance information and color information of the main subject in the tracking frame A2 is updated as a template.
The template used for matching is updated by sequentially executing the above processing on each of the continuous image frames G,... Generated by the imaging unit 1. Therefore, even if the subject changes with time, it is possible to track the main subject (face corresponding part C or the like) as a moving object.

合焦制御プログラム72hは、撮像部1の撮像レンズ群11の合焦位置を調整する自動合焦処理に係る機能をCPU71に実現させるためのプログラムである。
具体的には、CPU71は合焦制御プログラム72hを実行することで、ユーザによるシャッターボタン41aの半押し操作に基づいて、顔検出枠A1や追跡枠A2をAFエリアとして撮像レンズ群11の合焦位置をフォーカス駆動部21により当該撮像レンズ群11を光軸方向に移動させて調整する。
なお、電子撮像部12のCCDやCMOSを光軸方向に移動させて撮像レンズ群11の合焦位置を調整するようにしても良い。
The focusing control program 72h is a program for causing the CPU 71 to realize a function related to the automatic focusing process for adjusting the focusing position of the imaging lens group 11 of the imaging unit 1.
Specifically, the CPU 71 executes the focusing control program 72h, so that the focusing of the imaging lens group 11 is performed using the face detection frame A1 and the tracking frame A2 as the AF area based on the half-pressing operation of the shutter button 41a by the user. The position is adjusted by moving the imaging lens group 11 in the optical axis direction by the focus driving unit 21.
Note that the focusing position of the imaging lens group 11 may be adjusted by moving the CCD or CMOS of the electronic imaging unit 12 in the optical axis direction.

露出条件調整プログラム72iは、ユーザによるシャッターボタン41aの全押し操作に基づいて、顔検出枠A1や追跡枠A2をAEエリアとして撮像部1による撮像の際の露出条件(例えば、シャッター速度や絞り等)を調整する自動露出(AE)処理に係る機能をCPU71に実現させるためのプログラムである。   The exposure condition adjustment program 72i is based on the full pressing operation of the shutter button 41a by the user, and the exposure conditions (for example, shutter speed, aperture, etc.) at the time of imaging by the imaging unit 1 with the face detection frame A1 and the tracking frame A2 as the AE area. ) Is a program for causing the CPU 71 to realize a function related to automatic exposure (AE) processing.

撮像制御プログラム72jは、CPU71を撮像制御手段として機能させるものである。即ち、撮像制御プログラム72jは、撮像部1による被写体の撮像の際に、ユーザによりシャッターボタン41aが全押し操作されると、主要被写体追跡処理により追跡される主要被写体に基づいて、撮像部1による被写体の撮像制御処理に係る機能をCPU71に実現させるためのプログラムである。   The imaging control program 72j causes the CPU 71 to function as imaging control means. That is, when the user presses the shutter button 41a fully at the time of imaging of the subject by the imaging unit 1, the imaging control program 72j is performed by the imaging unit 1 based on the main subject tracked by the main subject tracking process. This is a program for causing the CPU 71 to realize functions related to the subject imaging control process.

次に、撮像処理について図12を参照して説明する。
図12は、撮像処理に係る動作の一例を示すフローチャートである。
なお、以下の撮像処理にあっては、画角に被写体として一人の人物Hを捉えて撮像するものとする。また、予め、ユーザによるAFモード設定ボタン41cの所定操作に基づいて所定のAFモードが選択されて設定されているものとする。
Next, imaging processing will be described with reference to FIG.
FIG. 12 is a flowchart illustrating an example of an operation related to the imaging process.
In the following imaging process, it is assumed that one person H is captured as an object at an angle of view. Further, it is assumed that a predetermined AF mode is selected and set in advance based on a predetermined operation of the AF mode setting button 41c by the user.

図12に示すように、撮像部1による被写体の撮像が開始されると、先ず、CPU71は、図示しない所定の判定プログラムを実行して、ユーザによる顔検出モード設定ボタン41bの所定操作に基づいて、撮影モードが顔検出モードに設定されているか否かを判定する(ステップS1)。
ここで、顔検出モードに設定されていると判定されると(ステップS1;YES)、CPU71は、プログラムメモリ72内の顔検出プログラム72aを実行して、撮像部1により生成された複数の画像フレームG、…のうちの一の画像フレームG(例えば、画像フレームGn−1;図8参照)について顔画像探索範囲R1を画像全体として顔画像探索枠A3を走査して顔Fを検出する動作(顔検出動作)を行う(ステップS2)。そして、顔Fが検出されると、CPU71は、プログラムメモリ72内の第一の座標取得プログラム72bを実行して、顔検出処理にて検出された顔Fの座標(顔座標)を取得してデータメモリ73に記録させる。また、CPU71は、画像表示部32を制御して、顔Fに重畳させて顔検出枠A1を表示させる。
As shown in FIG. 12, when imaging of the subject by the imaging unit 1 is started, first, the CPU 71 executes a predetermined determination program (not shown) and based on a predetermined operation of the face detection mode setting button 41b by the user. Then, it is determined whether or not the shooting mode is set to the face detection mode (step S1).
Here, if it is determined that the face detection mode is set (step S1; YES), the CPU 71 executes the face detection program 72a in the program memory 72 to generate a plurality of images generated by the imaging unit 1. A face F is detected by scanning the face image search frame A3 using the face image search range R1 as a whole image for one image frame G (for example, image frame G n-1 ; see FIG. 8) of the frames G,. An operation (face detection operation) is performed (step S2). When the face F is detected, the CPU 71 executes the first coordinate acquisition program 72b in the program memory 72 to acquire the coordinates (face coordinates) of the face F detected in the face detection process. It is recorded in the data memory 73. Further, the CPU 71 controls the image display unit 32 to display the face detection frame A1 superimposed on the face F.

そして、顔検出動作が終了するか、ステップS1にて顔検出モードに設定されていないと判定されると(ステップS1;NO)、CPU71は、プログラムメモリ72内の設定指示判定プログラム72cを実行して、ユーザによりシャッターボタン41aが半押し操作されているか否かを判定する(ステップS3)。
ここで、シャッターボタン41aが半押し操作されていると判定されると(ステップS3;YES)、CPU71は、追跡モードの設定指示が入力されたと判断して、プログラムメモリ72内の追跡モード設定プログラム72dを実行して、撮影モードを追跡モードに設定した後(ステップS4)、プログラムメモリ72内の顔検出判定プログラム72eを実行して、顔Fが検出されているか否かを判定する(ステップS5)。
なお、ステップS3にて、シャッターボタン41aが半押し操作されていないと判定されると(ステップS3;NO)、ステップS1の処理に戻る。
When the face detection operation ends or when it is determined in step S1 that the face detection mode is not set (step S1; NO), the CPU 71 executes the setting instruction determination program 72c in the program memory 72. Then, it is determined whether or not the user has pressed the shutter button 41a halfway (step S3).
If it is determined that the shutter button 41a is half-pressed (step S3; YES), the CPU 71 determines that a tracking mode setting instruction has been input, and the tracking mode setting program in the program memory 72 is determined. After executing 72d and setting the shooting mode to the tracking mode (step S4), the face detection determination program 72e in the program memory 72 is executed to determine whether or not the face F is detected (step S5). ).
If it is determined in step S3 that the shutter button 41a is not half-pressed (step S3; NO), the process returns to step S1.

ステップS5にて、顔Fが検出されている(検出状態)と判定されると(ステップS5;YES)、CPU71は、プログラムメモリ72内の主要被写体追跡プログラム72fを実行して、顔Fに対応する顔対応部Cを主要被写体として動体解析により追跡する処理を行う(ステップS6)。具体的には、先ず、CPU71は、データメモリ73に記憶されている顔座標を取得して、当該顔座標で囲まれた領域内の撮像対象(顔対応部C)を主要被写体として特定する。続けて、CPU71は、顔対応部Cの輝度情報や色情報等の画像情報をテンプレートとして、次の画像フレームGにて顔座標近傍の所定の動体探索範囲R2内を所定方向に走査してマッチングを行い、最も近似性の高い部分を顔対応部Cとする。そして、CPU71は、画像表示部32を制御して、当該顔対応部Cの縁部に重畳させて追跡枠A2を表示させる。その後、CPU71は、プログラムメモリ72内の第二の座標取得プログラム72gを実行して、追跡枠A2の各角部の座標(主要被写体座標)を取得した後、当該主要被写体座標によりデータメモリ73に記憶されている顔座標を更新する。さらに追跡枠A2内の顔対応部Cの輝度情報や色情報等の画像情報をテンプレートとして更新する。
上記の動体解析は、撮像部1により生成される連続した画像フレームG、…の各々に対して逐次行われることにより、顔対応部C(主要被写体)を動体として追跡する。
If it is determined in step S5 that the face F is detected (detected state) (step S5; YES), the CPU 71 executes the main subject tracking program 72f in the program memory 72 to cope with the face F. A process for tracking the face corresponding portion C to be performed as a main subject by moving body analysis is performed (step S6). Specifically, first, the CPU 71 acquires the face coordinates stored in the data memory 73, and specifies the imaging target (face corresponding part C) in the area surrounded by the face coordinates as the main subject. Subsequently, the CPU 71 scans in a predetermined direction within a predetermined moving object search range R2 near the face coordinates in the next image frame G using the image information such as luminance information and color information of the face corresponding unit C as a template, and performs matching. And the portion with the highest approximation is designated as the face corresponding portion C. Then, the CPU 71 controls the image display unit 32 to display the tracking frame A2 so as to be superimposed on the edge of the face corresponding unit C. Thereafter, the CPU 71 executes the second coordinate acquisition program 72g in the program memory 72 to acquire the coordinates (main subject coordinates) of each corner of the tracking frame A2, and then stores them in the data memory 73 using the main subject coordinates. Update the stored face coordinates. Furthermore, image information such as luminance information and color information of the face corresponding portion C in the tracking frame A2 is updated as a template.
The moving body analysis described above is sequentially performed on each of the continuous image frames G,... Generated by the imaging unit 1 to track the face corresponding unit C (main subject) as a moving body.

一方、ステップS5にて、顔Fが検出されていない(非検出状態)と判定されると(ステップS5;NO)、CPU71は、プログラムメモリ72内の主要被写体追跡プログラム72fを実行して、AFエリア内の撮像対象(例えば、スポットAFモードの場合には、画角の略中央のAFエリアA4内の撮像対象)を主要被写体として特定して動体解析により追跡する処理を行う(ステップS7)。なお、AFエリア内の撮像対象の動体解析による追跡処理は、上記した顔対応部Cのものとほぼ同様であり、その詳細な説明は省略する。   On the other hand, if it is determined in step S5 that the face F is not detected (non-detected state) (step S5; NO), the CPU 71 executes the main subject tracking program 72f in the program memory 72 to perform AF. An imaging target in the area (for example, in the spot AF mode, an imaging target in the AF area A4 at the approximate center of the angle of view) is specified as the main subject and is tracked by moving body analysis (step S7). The tracking process based on the moving object analysis of the imaging target in the AF area is almost the same as that of the face corresponding unit C described above, and a detailed description thereof is omitted.

次に、CPU71は、図示しない所定の判定プログラムを実行して、主要被写体(顔対応部C等)を追跡し続けているか否かを判定する(ステップS8)。ここで、主要被写体を追跡し続けていると判定されると(ステップS8;YES)、CPU71は、図示しない所定の判定プログラムを実行して、ユーザによりシャッターボタン41aが全押し操作されているか否かを判定する(ステップS9)。   Next, the CPU 71 executes a predetermined determination program (not shown) to determine whether or not the main subject (face corresponding part C or the like) is being tracked (step S8). Here, if it is determined that the main subject is being tracked (step S8; YES), the CPU 71 executes a predetermined determination program (not shown), and whether or not the shutter button 41a is fully pressed by the user. Is determined (step S9).

ステップS9にて、シャッターボタン41aが全押し操作されていると判定されると(ステップS9;YES)、CPU71は、プログラムメモリ72内の合焦制御プログラム72hを実行して、追跡枠A2をAFエリアとして自動合焦処理を行うとともに、プログラムメモリ72内の露出条件調整プログラム72iを実行して、追跡枠A2をAEエリアとして自動露出処理を行う(ステップS10)。
続けて、CPU71は、プログラムメモリ72内の撮像制御プログラム72jを実行して、撮像部1により本画像(記録画像)を撮像させる撮像処理の実行を制御する(ステップS11)。
If it is determined in step S9 that the shutter button 41a is fully pressed (step S9; YES), the CPU 71 executes the focusing control program 72h in the program memory 72, and sets the tracking frame A2 to AF. The automatic focusing process is performed as an area, and the exposure condition adjustment program 72i in the program memory 72 is executed to perform the automatic exposure process with the tracking frame A2 as the AE area (step S10).
Subsequently, the CPU 71 executes the imaging control program 72j in the program memory 72, and controls the execution of imaging processing that causes the imaging unit 1 to capture the main image (recorded image) (step S11).

一方、ステップS9にて、シャッターボタン41aが全押し操作されていないと判定されると(ステップS9;NO)、CPU71は、図示しない所定の判定プログラムを実行して、ユーザによるシャッターボタン41aの半押し操作が解除されているか否かを判定する(ステップS12)。
ここで、半押し操作が解除されていると判定されると(ステップS12;YES)、ステップS8の処理に戻り、一方、半押し操作が解除されていないと判定されると(ステップS12;NO)、ステップS1の処理に戻る。
また、ステップS8にて、主要被写体を追跡し続けていないと判定されると(ステップS8;NO)、ステップS1の処理に戻る。
On the other hand, if it is determined in step S9 that the shutter button 41a has not been fully pressed (step S9; NO), the CPU 71 executes a predetermined determination program (not shown), and the user presses the shutter button 41a halfway. It is determined whether or not the pressing operation has been released (step S12).
If it is determined that the half-press operation has been released (step S12; YES), the process returns to step S8. On the other hand, if it is determined that the half-press operation has not been released (step S12; NO) ), The process returns to step S1.
If it is determined in step S8 that the main subject has not been tracked (step S8; NO), the process returns to step S1.

以上のように、実施形態1の撮像装置100によれば、被写体中の主要被写体を追跡する追跡モードの設定指示が入力されたか否かを判定して、追跡モードの設定指示が入力されたと判定された場合に、撮影モードを追跡モードに設定することができる。
ここで、撮影モードが顔検出モードに設定されている場合であっても、追跡モードの設定指示が入力されると、撮影モードを顔検出モードから追跡モードに切換えるので、追跡モードの設定を確実に行うことができる。また、シャッターボタン41aの半押し操作の有無に基づいて追跡モードの設定指示が入力されたか否かを判定するので、ユーザはシャッターボタン41aの半押し操作だけで追跡モードの設定を容易に行うことができる。特に、撮影モードが顔検出モードに設定されている場合には、シャッターボタン41aが半押し操作されるだけで、撮影モードを顔検出モードから追跡モードに切り換えて容易に設定することができる。
これにより、ユーザは顔検出処理によって検出された顔を主要被写体として設定し、これを動体解析によって追いかけさせることで、主要被写体が横や下を向いて顔が隠れたとしても、より長い時間追いかけて当該主要被写体を見失う時間を減少させることができ、この結果、主要被写体が追跡されている限り如何なるタイミングで撮像しても、当該主要被写体に基づいて自動合焦処理や自動露出処理といった画像の撮像制御を適正に行って被写体の撮像を適正に行うことができる。具体的には、シャッターの半押し時に顔Fの検出状態である場合には、当該顔Fに対応する顔対応部Cを主要被写体として追跡することができるので、当該顔対応部Cに基づいて被写体の撮像を適正に行うことができる。一方、シャッターの半押し時に顔Fの非検出状態である場合には、AFモードに応じたAFエリア内の撮像対象を主要被写体として追跡することができるので、メインの撮像対象であるAFエリア内の撮像対象に被写体の撮像を適正に行うことができる。
As described above, according to the imaging apparatus 100 of the first embodiment, it is determined whether a tracking mode setting instruction for tracking a main subject in a subject is input, and it is determined that a tracking mode setting instruction is input. In this case, the shooting mode can be set to the tracking mode.
Here, even when the shooting mode is set to the face detection mode, if the tracking mode setting instruction is input, the shooting mode is switched from the face detection mode to the tracking mode. Can be done. Further, since it is determined whether or not a tracking mode setting instruction has been input based on whether or not the shutter button 41a is half-pressed, the user can easily set the tracking mode only by half-pressing the shutter button 41a. Can do. In particular, when the shooting mode is set to the face detection mode, the shooting mode can be easily set by switching from the face detection mode to the tracking mode only by half-pressing the shutter button 41a.
As a result, the user sets the face detected by the face detection process as the main subject, and chases it by moving body analysis, so even if the main subject faces sideways or down and the face is hidden, the face is chased for a longer time. As a result, it is possible to reduce the time for losing sight of the main subject. It is possible to appropriately capture the subject by appropriately performing the imaging control. Specifically, when the face F is in the detection state when the shutter button is half-pressed, the face corresponding unit C corresponding to the face F can be tracked as the main subject. The subject can be properly imaged. On the other hand, when the face F is not detected when the shutter button is half-pressed, the imaging target in the AF area corresponding to the AF mode can be tracked as the main subject. The subject can be appropriately imaged on the imaging target.

なお、実施形態1にあっては、ユーザによるシャッターボタン41aの半押し操作の有無だけで追跡モードに切り換えるか否かの判定を行うようにしたが、これに限られるものではなく、例えば、撮影モードが顔検出モードに設定されている状態では、ユーザによるシャッターボタン41aの半押し操作後に、顔Fの検出状態であると判断された場合にのみ(ステップS5;YES)、追跡モードに切り換えて顔対応部Cを主要被写体として追跡するようにしても良い。即ち、例えば、図7のような風景写真を撮影する場合には、撮影対象が画角内を大きく外れるように動くことはないため、顔Fの非検出状態では必ずしも追跡モードに切り換える必要はない。   In the first embodiment, it is determined whether or not to switch to the tracking mode only by whether or not the user presses the shutter button 41a halfway. However, the present invention is not limited to this. When the mode is set to the face detection mode, the mode is switched to the tracking mode only when it is determined that the face F is detected after the user half-presses the shutter button 41a (step S5; YES). The face corresponding part C may be tracked as a main subject. That is, for example, when a landscape photograph as shown in FIG. 7 is taken, the subject to be photographed does not move so as to deviate greatly within the angle of view, and therefore it is not always necessary to switch to the tracking mode when the face F is not detected. .

さらに、上記実施形態1にあっては、シャッターボタン41aの半押し後は追跡モードに設定されるため、それ以後はステップS1でNOとなり顔検出は行われないのだが、半押しをしたまさにその瞬間に主要被写体である顔Fが障害物の後側に隠れたり、暗所に移動することにより、一時的に顔Fを見失った可能性もあるため、主要被写体追跡と並行して顔検出処理を行って、当該顔検出処理にて顔Fが検出された場合には、主要被写体を顔対応部Cに切り換えるようにしても良い。これにより、顔対応部Cを追跡対象とする可能性をより高いものとすることができる。   Furthermore, in the first embodiment, since the tracking mode is set after the shutter button 41a is half-pressed, after that, NO is determined in step S1 and face detection is not performed. Since the face F, which is the main subject, is hidden behind the obstacle or moved to a dark place at a moment, the face F may be temporarily lost. If the face F is detected in the face detection process, the main subject may be switched to the face corresponding unit C. Thereby, the possibility that the face corresponding part C is set as a tracking target can be further increased.

[実施形態2]
以下に、実施形態2の撮像装置200について、図13〜図15を参照して説明する。
ここで、図13は、本発明を適用した実施形態2の撮像装置200の概略構成を示すブロック図である。また、図14は、顔画像登録テーブルTの一例を示す図である。
なお、実施形態2の撮像装置200は、追跡モードの設定指示の入力判定に係る構成以外の点では上記実施形態1と略同様であるので、同様の構成には同一の符号を付してその説明を省略する。
[Embodiment 2]
Below, the imaging device 200 of Embodiment 2 is demonstrated with reference to FIGS.
Here, FIG. 13 is a block diagram illustrating a schematic configuration of the imaging apparatus 200 according to the second embodiment to which the present invention is applied. FIG. 14 is a diagram illustrating an example of the face image registration table T.
The imaging apparatus 200 according to the second embodiment is substantially the same as the first embodiment except for the configuration related to the input determination of the tracking mode setting instruction. Description is omitted.

図13及び図14に示すように、実施形態2の撮像装置200は、顔検出処理にて検出された顔Fと顔画像登録テーブルT(図14参照)に登録されている顔画像が一致するか否かを判定する顔登録判定処理を行い、当該判定の結果、検出された顔Fが顔画像登録テーブルTに登録されている顔画像と一致すると判定された場合に、追跡モードの設定指示が入力されたと判定する設定指示判定処理を行う。
即ち、プログラムメモリ72には、顔検出プログラム72a、第一の座標取得プログラム72b、設定指示判定プログラム72c、追跡モード設定プログラム72d、顔検出判定プログラム72e、主要被写体追跡プログラム72f、第二の座標取得プログラム72g、合焦制御プログラム72h、露出条件調整プログラム72i、撮像制御プログラム72jに加えて、顔登録判定プログラム72k及び顔画像登録テーブルT(図14参照)が記憶されている。
As illustrated in FIGS. 13 and 14, in the imaging apparatus 200 according to the second embodiment, the face F detected in the face detection process matches the face image registered in the face image registration table T (see FIG. 14). A face registration determination process is performed, and when it is determined that the detected face F matches the face image registered in the face image registration table T as a result of the determination, a tracking mode setting instruction A setting instruction determination process is performed to determine that is input.
That is, the program memory 72 includes a face detection program 72a, a first coordinate acquisition program 72b, a setting instruction determination program 72c, a tracking mode setting program 72d, a face detection determination program 72e, a main subject tracking program 72f, and a second coordinate acquisition. In addition to the program 72g, the focusing control program 72h, the exposure condition adjustment program 72i, and the imaging control program 72j, a face registration determination program 72k and a face image registration table T (see FIG. 14) are stored.

顔登録判定プログラム72kは、CPU71を顔登録判定手段として機能させるものである。即ち、顔登録判定プログラム72kは、顔画像登録テーブルTを参照して当該顔画像登録テーブルTに登録されている顔画像と顔検出処理にて検出された顔Fとを照合して一致するか否かを判定する顔登録判定処理に係る機能をCPU71に実現させるためのプログラムである。当該判定の結果、一致すると判定されると、CPU71は、顔検出処理にて検出された顔Fの人物を認識する。   The face registration determination program 72k causes the CPU 71 to function as face registration determination means. That is, whether the face registration determination program 72k matches the face image registered in the face image registration table T with the face F detected by the face detection process by referring to the face image registration table T It is a program for causing the CPU 71 to realize a function related to face registration determination processing for determining whether or not. As a result of the determination, if it is determined that they match, the CPU 71 recognizes the person of the face F detected by the face detection process.

ここで、顔画像登録テーブルTは、顔画像登録手段として、顔画像を登録するものである。具体的には、顔画像登録テーブルTは、図14に示すように、グループ名と、登録名と、優先度と、顔画像データを対応付けて順に登録するものである。例えば、登録番号1を例示して説明すると、グループ名「家族」と、登録名「お母さん」と、動体解析による追跡の優先度「1」と、顔画像データ「N0001.JPG」が対応付けられている。同様に、登録番号2は、グループ名「家族」と、登録名「Aちゃん」と、優先度「1」と、顔画像データ「N0002.JPG」が対応付けられ、また、登録番号3は、グループ名「家族」と、登録名「お父さん」と、優先度「3」と、顔画像データ「N0003.JPG」が対応付けられ、また、登録番号4は、グループ名「友人」と、登録名「Bさん」と、優先度「2」と、顔画像データ「N0004.JPG」が対応付けられ、また、登録番号5は、グループ名「友人」と、登録名「Cさん」と、優先度「1」と、顔画像データ「N0005.JPG」が対応付けられ、また、登録番号6は、グループ名「友人」と、登録名「Dさん」と、優先度「2」と、顔画像データ「N0006.JPG」が対応付けられている。
なお、図14に例示した顔画像登録テーブルTは、一例であってこれに限られるものではなく、グループ名と、登録名と、優先度と、顔画像データ等の内容は適宜任意に変更することができる。
Here, the face image registration table T registers face images as face image registration means. Specifically, as shown in FIG. 14, the face image registration table T registers a group name, a registered name, a priority, and face image data in association with each other in order. For example, the registration number 1 will be described as an example. The group name “family”, the registration name “mother”, tracking priority “1” by moving body analysis, and face image data “N0001.JPG” are associated with each other. ing. Similarly, the registration number 2 is associated with the group name “family”, the registration name “A-chan”, the priority “1”, and the face image data “N0002.JPG”. The group name “family”, the registered name “dad”, the priority “3”, and the face image data “N0003.JPG” are associated with each other, and the registration number 4 is the group name “friend” and the registered name. “Mr. B”, priority “2”, and face image data “N0004.JPG” are associated with each other, and the registration number 5 is a group name “friend”, a registered name “Mr. C”, and a priority. “1” is associated with face image data “N0005.JPG”, and the registration number 6 is a group name “friend”, a registered name “D”, a priority “2”, and face image data. “N0006.JPG” is associated.
Note that the face image registration table T illustrated in FIG. 14 is an example and is not limited to this. The group name, registration name, priority, and contents of the face image data and the like are arbitrarily changed as appropriate. be able to.

そして、CPU71は、追跡モードの設定指示が入力されたか否かの判定において、設定指示判定プログラム72cを実行することで、顔検出処理にて検出された顔Fが顔画像登録テーブルTに登録されている顔画像と一致していると判定されると、即ち、顔検出処理にて検出された顔Fの人物が認識されると、追跡モードの設定指示が入力されたと判断する処理を行う。   Then, the CPU 71 executes the setting instruction determination program 72c to determine whether or not the tracking mode setting instruction is input, so that the face F detected in the face detection process is registered in the face image registration table T. If it is determined that the face image matches the detected face image, that is, if the person of the face F detected in the face detection process is recognized, a process for determining that a tracking mode setting instruction is input is performed.

次に、撮像処理について図15を参照して説明する
ここで、図15は、撮像処理に係る動作の一例を示すフローチャートである。
Next, imaging processing will be described with reference to FIG. 15. Here, FIG. 15 is a flowchart illustrating an example of operation related to imaging processing.

図15に示すように、撮像部1による被写体の撮像が開始されると、実施形態1の撮像処理と同様に、CPU71は、撮影モードが顔検出モードに設定されているか否かを判定し(ステップS1)、顔検出モードに設定されていると判定されると(ステップS1;YES)、CPU71は、プログラムメモリ72内の顔検出プログラム72aを実行して、顔Fを検出する動作(顔検出動作)を行う(ステップS2)。そして、顔Fが検出されると、CPU71は、プログラムメモリ72内の第一の座標取得プログラム72bを実行して、顔検出処理にて検出された顔Fの座標(顔座標)を取得してデータメモリ73に記録させ、また、画像表示部32を制御して、顔Fに重畳させて顔検出枠A1を表示させる。   As shown in FIG. 15, when imaging of the subject by the imaging unit 1 is started, the CPU 71 determines whether or not the imaging mode is set to the face detection mode, as in the imaging process of the first embodiment ( If it is determined in step S1) that the face detection mode is set (step S1; YES), the CPU 71 executes the face detection program 72a in the program memory 72 to detect the face F (face detection). Operation) (step S2). When the face F is detected, the CPU 71 executes the first coordinate acquisition program 72b in the program memory 72 to acquire the coordinates (face coordinates) of the face F detected in the face detection process. The data is recorded in the data memory 73, and the image display unit 32 is controlled to superimpose on the face F to display the face detection frame A1.

そして、顔検出動作が終了するか、ステップS1にて顔検出モードに設定されていないと判定されると(ステップS1;NO)、CPU71は、プログラムメモリ72内の顔登録判定プログラム72kを実行して、顔検出処理にて検出された顔Fが顔画像登録テーブルTに登録されている顔画像と一致しているか否かを判定して、顔画像登録テーブルTに登録されている人物が検出されたか否かを判定する(ステップS23)。
ここで、顔検出処理にて検出された顔Fが顔画像登録テーブルTに登録されている顔画像と一致している、即ち、顔画像登録テーブルTに登録されている人物が検出されたと判定されると(ステップS23;YES)、CPU71は、追跡モードの設定指示が入力されたと判断して、プログラムメモリ72内の追跡モード設定プログラム72dを実行して、撮影モードを追跡モードに設定する(ステップS4)。
なお、ステップS23にて、顔画像登録テーブルTに登録されている人物が検出されていないと判定されると(ステップS23;NO)、ステップS1の処理に戻る。
When the face detection operation ends or when it is determined in step S1 that the face detection mode is not set (step S1; NO), the CPU 71 executes the face registration determination program 72k in the program memory 72. Then, it is determined whether or not the face F detected by the face detection process matches the face image registered in the face image registration table T, and a person registered in the face image registration table T is detected. It is determined whether or not it has been done (step S23).
Here, it is determined that the face F detected in the face detection process matches the face image registered in the face image registration table T, that is, a person registered in the face image registration table T is detected. If so (step S23; YES), the CPU 71 determines that the tracking mode setting instruction has been input, executes the tracking mode setting program 72d in the program memory 72, and sets the shooting mode to the tracking mode ( Step S4).
If it is determined in step S23 that no person registered in the face image registration table T has been detected (step S23; NO), the process returns to step S1.

続けて、CPU71は、プログラムメモリ72内の主要被写体追跡プログラム72fを実行して、検出された顔Fに対応する顔対応部Cを主要被写体として動体解析により追跡する処理を行う(ステップS6)。ここで、ステップS1における顔検出処理にて複数の顔Fが検出され、ステップS23にて、複数の人物(例えば、「Aちゃん」と「お父さん」)が顔画像登録テーブルTに登録されていると判定された場合には、顔画像登録テーブルTに登録されている顔画像のうち、優先度が最も高いもの(例えば、「Aちゃん」の顔)を動体解析による追跡対象(主要被写体)とするようにしても良い。   Subsequently, the CPU 71 executes the main subject tracking program 72f in the program memory 72, and performs a process of tracking the face corresponding unit C corresponding to the detected face F as a main subject by moving body analysis (step S6). Here, a plurality of faces F are detected in the face detection process in step S1, and a plurality of persons (for example, “A” and “dad”) are registered in the face image registration table T in step S23. If it is determined that the face image registered in the face image registration table T has the highest priority (for example, the face of “A”) as a tracking target (main subject) by moving body analysis. You may make it do.

その後、実施形態1の撮像処理と同様に、CPU71は、主要被写体を追跡し続けているか否かの判定(ステップS8)、シャッターボタン41aが全押し操作されているか否かの判定(ステップS9)、追跡枠A2をAFエリアとした自動合焦処理及び追跡枠A2をAEエリアとした自動露出処理(ステップS10)、本画像の撮像処理(ステップS11)の実行を制御する。
なお、ステップS9にて、シャッターボタン41aが全押し操作されていないと判定されると(ステップS9;NO)、ステップS6の処理に戻る。
Thereafter, as in the imaging process of the first embodiment, the CPU 71 determines whether or not the main subject is being tracked (step S8), and determines whether or not the shutter button 41a is fully pressed (step S9). The automatic focusing process using the tracking frame A2 as the AF area, the automatic exposure process using the tracking frame A2 as the AE area (step S10), and the imaging process of the main image (step S11) are controlled.
If it is determined in step S9 that the shutter button 41a is not fully depressed (step S9; NO), the process returns to step S6.

以上のように、実施形態2の撮像装置200によれば、顔検出処理により検出された顔Fが顔画像登録テーブルTに登録されている顔画像と一致しているか否かを判定する顔登録判定処理を行い、顔登録判定処理にて検出された顔Fが顔画像登録テーブルTに登録されている顔画像と一致していると判定された場合に、追跡モードの設定指示が入力されたと判定するので、ユーザによるシャッターボタン41aの半押し操作といった特別な操作を必要とすることなく、追跡モードの設定を容易に行うことができる。   As described above, according to the imaging apparatus 200 of the second embodiment, the face registration for determining whether the face F detected by the face detection process matches the face image registered in the face image registration table T. When it is determined that the face F detected in the face registration determination process matches the face image registered in the face image registration table T, the tracking mode setting instruction is input. Since the determination is made, the tracking mode can be easily set without requiring a special operation such as a half-press operation of the shutter button 41a by the user.

なお、実施形態2にあっては、顔対応部Cが追跡されている状態で、ユーザによりシャッターボタン41aが全押し操作されることに基づいて、自動合焦処理、自動露出処理及び本画像の撮像処理を行うようにしたが、これに限られるものではなく、シャッターボタン41aの半押し操作で自動合焦処理及び自動露出処理を行い、その後の全押し操作で本画像の撮像処理を行うようにしても良い。   In the second embodiment, the automatic focusing process, the automatic exposure process, and the main image are processed based on the fact that the user fully presses the shutter button 41a while the face corresponding part C is being tracked. Although the imaging process is performed, the present invention is not limited to this, and the automatic focusing process and the automatic exposure process are performed by half-pressing the shutter button 41a, and the imaging process of the main image is performed by the subsequent full-pressing operation. Anyway.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態1及び2にあっては、撮影モードが顔検出モードに設定された状態から追跡モードに切り換えるようにしたが、追跡モードに切り換えられる前の撮影モードは顔検出モードに限られるものではない。即ち、何れかの撮影モードに設定された状態であっても、追跡モードの設定指示の入力に基づいて少なくとも追跡モードが設定されるように構成されていれば良く、必ずしも顔検出モードを備える必要はない。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the first and second embodiments, the shooting mode is switched from the state set to the face detection mode to the tracking mode. However, the shooting mode before switching to the tracking mode is limited to the face detection mode. It is not a thing. That is, even in a state in which one of the shooting modes is set, it is only necessary that the tracking mode is set based on the input of the tracking mode setting instruction, and the face detection mode is necessarily provided. There is no.

また、追跡モードの設定指示の入力の有無の判定を、実施形態1にあっては、シャッターボタン41aの半押し操作の有無に基づいて、実施形態2にあっては、顔検出処理にて検出された顔と顔画像登録テーブルTに登録されている顔画像が一致するか否かに基づいて行うようにしたが、追跡モードの設定指示の入力の有無の判定方法は、如何なる方法であっても良く、これに限られるものではない。   In addition, in the first embodiment, whether or not the tracking mode setting instruction is input is determined based on the presence or absence of the half-press operation of the shutter button 41a. The determination is made based on whether or not the registered face and the face image registered in the face image registration table T match each other. Is not limited to this.

さらに、撮像装置100、200の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。   Furthermore, the configurations of the imaging apparatuses 100 and 200 are merely examples as illustrated in the above-described embodiment, and are not limited thereto.

加えて、上記実施形態では、主要被写体追跡手段、設定指示判定手段、追跡モード設定手段、撮像制御手段、顔検出手段、顔検出モード設定手段、モード切換手段、顔検出判定手段、合焦処理モード設定手段、顔登録判定手段としての機能を、CPU71によって所定のプログラム等が実行されることにより実現される構成としたが、これに限られるものではなく、例えば、各種機能を実現するためのロジック回路等から構成しても良い。   In addition, in the above embodiment, main subject tracking means, setting instruction determination means, tracking mode setting means, imaging control means, face detection means, face detection mode setting means, mode switching means, face detection determination means, focus processing mode The functions as the setting unit and the face registration determination unit are realized by executing a predetermined program or the like by the CPU 71. However, the present invention is not limited to this. For example, logic for realizing various functions You may comprise from a circuit etc.

本発明を適用した実施形態1の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 1 to which this invention is applied. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置の表示部に表示される画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image displayed on the display part of the imaging device of FIG. 図1の撮像装置による顔検出処理を説明するための図である。It is a figure for demonstrating the face detection process by the imaging device of FIG. 図1の撮像装置による顔検出処理を説明するための図である。It is a figure for demonstrating the face detection process by the imaging device of FIG. 図1の撮像装置による第一の座標取得処理を説明するための図である。It is a figure for demonstrating the 1st coordinate acquisition process by the imaging device of FIG. 図1の撮像装置による主要被写体追跡処理を説明するための図である。It is a figure for demonstrating the main subject tracking process by the imaging device of FIG. 図1の撮像装置による撮像処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an imaging process by the imaging apparatus of FIG. 1. 本発明を適用した実施形態2の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 2 to which this invention is applied. 図13の撮像装置に記録されている顔画像登録テーブルの一例を示す図である。It is a figure which shows an example of the face image registration table recorded on the imaging device of FIG. 図13の撮像装置による撮像処理に係る動作の一例を示すフローチャートである。14 is a flowchart illustrating an example of an operation related to an imaging process by the imaging device of FIG. 13.

符号の説明Explanation of symbols

100 撮像装置
1 撮像部(撮像手段)
3 表示部
41a シャッターボタン(顔検出モード設定手段、合焦処理モード設定手段)
71 CPU(主要被写体追跡手段、設定指示判定手段、追跡モード設定手段、撮像制御手段、顔検出手段、顔検出モード設定手段、モード切換手段、顔検出判定手段、合焦処理モード設定手段、顔登録判定手段)
A1 顔検出枠
A2 追跡枠
C 顔対応部
F 顔
T 顔画像登録テーブル(顔画像登録手段)
100 Imaging device 1 Imaging unit (imaging means)
3 Display 41a Shutter button (face detection mode setting means, focusing processing mode setting means)
71 CPU (main subject tracking means, setting instruction determination means, tracking mode setting means, imaging control means, face detection means, face detection mode setting means, mode switching means, face detection determination means, focus processing mode setting means, face registration Judgment means)
A1 Face detection frame A2 Tracking frame C Face correspondence part F Face T Face image registration table (face image registration means)

Claims (7)

被写体を連続して撮像して、主要被写体を含む複数の画像フレームを生成する撮像手段と、
前記撮像手段により生成された前記複数の画像フレームのうちの隣合う画像フレーム間で、前記主要被写体を追跡する主要被写体追跡手段と、
前記主要被写体追跡手段により前記主要被写体を追跡する追跡モードの設定指示が入力されたか否かを判定する設定指示判定手段と、
前記設定指示判定手段により前記追跡モードの設定指示が入力されたと判定された場合に、前記追跡モードに設定する追跡モード設定手段と、
前記追跡モード設定手段により前記追跡モードに設定された後、前記主要被写体追跡手段により追跡される前記主要被写体に基づいて、前記撮像手段による前記被写体の撮像を制御する撮像制御手段と、
を備えることを特徴とする撮像装置。
Imaging means for continuously imaging a subject and generating a plurality of image frames including the main subject;
Main subject tracking means for tracking the main subject between adjacent image frames of the plurality of image frames generated by the imaging means;
Setting instruction determination means for determining whether or not a setting instruction for a tracking mode for tracking the main subject is input by the main subject tracking means;
Tracking mode setting means for setting the tracking mode when it is determined that the setting instruction for the tracking mode is input by the setting instruction determination means;
An imaging control unit configured to control imaging of the subject by the imaging unit based on the main subject tracked by the main subject tracking unit after being set to the tracking mode by the tracking mode setting unit;
An imaging apparatus comprising:
前記撮像手段により生成された前記複数の画像フレームから前記被写体中の顔を検出する顔検出手段と、
前記顔検出手段により顔を検出する顔検出モードに設定する顔検出モード設定手段と、を備え、
前記追跡モード設定手段は、
前記顔検出モード設定手段により前記顔検出モードに設定された状態で、前記設定指示判定手段により前記追跡モードの設定指示が入力されたと判定されると、前記顔検出モードから前記追跡モードに切換えるモード切換手段を備えることを特徴とする請求項1に記載の撮像装置。
Face detection means for detecting a face in the subject from the plurality of image frames generated by the imaging means;
A face detection mode setting means for setting a face detection mode for detecting a face by the face detection means,
The tracking mode setting means includes
A mode for switching from the face detection mode to the tracking mode when the setting instruction determining unit determines that the setting instruction for the tracking mode has been input in a state where the face detection mode is set by the face detection mode setting unit. The imaging apparatus according to claim 1, further comprising a switching unit.
前記顔検出手段による前記顔検出の結果に応じて顔の検出状態であるか非検出状態であるかを判定する顔検出判定手段を備え、
前記主要被写体追跡手段は、前記顔検出判定手段により顔の検出状態であると判定された場合に、当該顔に対応する顔対応部を前記主要被写体として追跡することを特徴とする請求項2に記載の撮像装置。
Comprising face detection determination means for determining whether a face detection state or a non-detection state according to a result of the face detection by the face detection means;
3. The main subject tracking unit tracks a face corresponding unit corresponding to the face as the main subject when the face detection determining unit determines that the face is detected. The imaging device described.
前記顔検出手段による前記顔検出の結果に応じて顔の検出状態であるか非検出状態であるかを判定する顔検出判定手段と、
前記撮像手段に備わる撮像レンズの合焦位置を調整する自動合焦処理の合焦処理モードを設定する合焦処理モード設定手段と、を備え、
前記主要被写体追跡手段は、
前記顔検出判定手段により顔の非検出状態であると判定された場合に、前記合焦処理モード設定手段により設定されている前記合焦処理モードに応じた合焦箇所内の撮像対象を前記主要被写体として追跡することを特徴とする請求項2又は3に記載の撮像装置。
Face detection determination means for determining whether a face is detected or not detected according to a result of the face detection by the face detection means;
Focusing processing mode setting means for setting a focusing processing mode of automatic focusing processing for adjusting a focusing position of an imaging lens provided in the imaging means,
The main subject tracking means includes
When the face detection determination unit determines that the face is in a non-detection state, the imaging target in the in-focus location corresponding to the focus processing mode set by the focus processing mode setting unit is the main image. The imaging apparatus according to claim 2, wherein the imaging apparatus is tracked as a subject.
半押し操作及び全押し操作を実行可能なシャッターボタンを備え、
前記設定指示判定手段は、前記シャッターボタンの前記半押し操作に基づいて、前記追跡モードの設定指示が入力されたと判定することを特徴とする請求項1〜4の何れか一項に記載の撮像装置。
Has a shutter button that can perform half-press and full-press operation,
5. The imaging according to claim 1, wherein the setting instruction determination unit determines that the setting instruction for the tracking mode is input based on the half-press operation of the shutter button. apparatus.
顔画像を登録する顔画像登録手段と、
前記顔検出手段により検出された顔と前記顔画像登録手段に登録されている前記顔画像が一致するか否かを判定する顔登録判定手段と、を備え、
前記設定指示判定手段は、前記顔登録判定手段により一致すると判定された場合に、前記追跡モードの設定指示が入力されたと判定することを特徴とする請求項2〜4の何れか一項に記載の撮像装置。
Face image registration means for registering a face image;
Face registration determination means for determining whether or not the face detected by the face detection means matches the face image registered in the face image registration means,
The said setting instruction | indication determination means determines with the setting instruction | indication of the said tracking mode being input, when it determines with the said face registration determination means being in agreement, The Claims 2-4 characterized by the above-mentioned. Imaging device.
被写体を連続して撮像して、主要被写体を含む複数の画像フレームを生成する撮像手段を備える撮像装置に、
前記撮像手段により生成された前記複数の画像フレームのうちの隣合う画像フレーム間で、前記主要被写体を追跡する機能と、
前記主要被写体を追跡する追跡モードの設定指示が入力されたか否かを判定する機能と、
前記追跡モードの設定指示が入力されたと判定された場合に、前記追跡モードに設定する機能と、
前記追跡モードに設定された後、追跡される前記主要被写体に基づいて、前記撮像手段による前記被写体の撮像を制御する機能と、
を実現させることを特徴とするプログラム。
In an imaging apparatus comprising imaging means for continuously imaging a subject and generating a plurality of image frames including the main subject,
A function of tracking the main subject between adjacent image frames of the plurality of image frames generated by the imaging means;
A function of determining whether or not an instruction to set a tracking mode for tracking the main subject is input;
A function of setting the tracking mode when it is determined that an instruction to set the tracking mode is input;
A function of controlling imaging of the subject by the imaging means based on the main subject to be tracked after being set to the tracking mode;
A program characterized by realizing.
JP2007298088A 2007-11-16 2007-11-16 Imaging apparatus and program Expired - Fee Related JP4552997B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007298088A JP4552997B2 (en) 2007-11-16 2007-11-16 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007298088A JP4552997B2 (en) 2007-11-16 2007-11-16 Imaging apparatus and program

Publications (2)

Publication Number Publication Date
JP2009124565A true JP2009124565A (en) 2009-06-04
JP4552997B2 JP4552997B2 (en) 2010-09-29

Family

ID=40816216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007298088A Expired - Fee Related JP4552997B2 (en) 2007-11-16 2007-11-16 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP4552997B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004219A (en) * 2009-06-19 2011-01-06 Nikon Corp Image capturing apparatus and tracking method
JP2011027846A (en) * 2009-07-22 2011-02-10 Fujifilm Corp Automatic af frame tracking system
JP2011027847A (en) * 2009-07-22 2011-02-10 Fujifilm Corp Af frame automatic tracking system
JP2011029822A (en) * 2009-07-23 2011-02-10 Canon Inc Imaging apparatus
JP2011035765A (en) * 2009-08-04 2011-02-17 Canon Inc Image processing apparatus and method
JP2013098746A (en) * 2011-10-31 2013-05-20 Jvc Kenwood Corp Imaging apparatus, imaging method, and program
JP2013162329A (en) * 2012-02-06 2013-08-19 Sony Corp Image processing apparatus, image processing method, program, and recording medium
JP2014007775A (en) * 2013-10-04 2014-01-16 Canon Inc Image processing device, image processing method and program
US20140211997A1 (en) * 2011-09-30 2014-07-31 Fujifilm Corporation Tracking-frame initial-position setting device and method of controlling operation of same
US9106830B2 (en) 2012-04-10 2015-08-11 Canon Kabushiki Kaisha Image capture apparatus and method for tracking a subject

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344891A (en) * 2002-05-23 2003-12-03 Canon Inc Automatic photographing mode setting camera
JP2006060329A (en) * 2004-08-17 2006-03-02 Fuji Photo Film Co Ltd Device, method, and program for imaging
JP2007049229A (en) * 2005-08-05 2007-02-22 Canon Inc Imaging apparatus and method
JP2007142866A (en) * 2005-11-18 2007-06-07 Fujifilm Corp Imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344891A (en) * 2002-05-23 2003-12-03 Canon Inc Automatic photographing mode setting camera
JP2006060329A (en) * 2004-08-17 2006-03-02 Fuji Photo Film Co Ltd Device, method, and program for imaging
JP2007049229A (en) * 2005-08-05 2007-02-22 Canon Inc Imaging apparatus and method
JP2007142866A (en) * 2005-11-18 2007-06-07 Fujifilm Corp Imaging apparatus

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004219A (en) * 2009-06-19 2011-01-06 Nikon Corp Image capturing apparatus and tracking method
JP2011027846A (en) * 2009-07-22 2011-02-10 Fujifilm Corp Automatic af frame tracking system
JP2011027847A (en) * 2009-07-22 2011-02-10 Fujifilm Corp Af frame automatic tracking system
JP2011029822A (en) * 2009-07-23 2011-02-10 Canon Inc Imaging apparatus
JP2011035765A (en) * 2009-08-04 2011-02-17 Canon Inc Image processing apparatus and method
US20140211997A1 (en) * 2011-09-30 2014-07-31 Fujifilm Corporation Tracking-frame initial-position setting device and method of controlling operation of same
US8879794B2 (en) * 2011-09-30 2014-11-04 Fujifilm Corporation Tracking-frame initial-position setting device and method of controlling operation of same
JP2013098746A (en) * 2011-10-31 2013-05-20 Jvc Kenwood Corp Imaging apparatus, imaging method, and program
JP2013162329A (en) * 2012-02-06 2013-08-19 Sony Corp Image processing apparatus, image processing method, program, and recording medium
US9106830B2 (en) 2012-04-10 2015-08-11 Canon Kabushiki Kaisha Image capture apparatus and method for tracking a subject
JP2014007775A (en) * 2013-10-04 2014-01-16 Canon Inc Image processing device, image processing method and program

Also Published As

Publication number Publication date
JP4552997B2 (en) 2010-09-29

Similar Documents

Publication Publication Date Title
JP4552997B2 (en) Imaging apparatus and program
JP5251215B2 (en) Digital camera
JP4674471B2 (en) Digital camera
JP4761146B2 (en) Imaging apparatus and program thereof
JP4582212B2 (en) Imaging apparatus and program
US9761010B2 (en) Tracking apparatus
JP2008187591A (en) Imaging apparatus and imaging method
JP2008288868A (en) Imaging device and program
JP2018129659A (en) Image processing device, imaging device, and control method
JP2008085737A (en) Electronic camera
JP2008252711A (en) Digital camera
JP2009147574A (en) Imaging apparatus, and program thereof
JP4506779B2 (en) Imaging apparatus and program
JP2019121860A (en) Image processing apparatus and control method therefor
JP2021021857A (en) Imaging apparatus and control method thereof
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2009020163A (en) Imaging apparatus and program therefor
JP2007129310A (en) Imaging apparatus
JP2008199443A (en) Imaging apparatus and control method therefor
JP7342883B2 (en) Imaging control device, imaging device, imaging control method
JP2013242408A (en) Imaging device and control method of the same
JP2008187331A (en) Image tracking device, and imaging apparatus
JP2006301172A (en) Imaging apparatus and method for controling imaging apparatus
JP2011155692A (en) Imaging apparatus and its program
JP2012027302A (en) Imaging apparatus with projection function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4552997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees