[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4767904B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP4767904B2
JP4767904B2 JP2007125740A JP2007125740A JP4767904B2 JP 4767904 B2 JP4767904 B2 JP 4767904B2 JP 2007125740 A JP2007125740 A JP 2007125740A JP 2007125740 A JP2007125740 A JP 2007125740A JP 4767904 B2 JP4767904 B2 JP 4767904B2
Authority
JP
Japan
Prior art keywords
imaging
image data
continuous shooting
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007125740A
Other languages
Japanese (ja)
Other versions
JP2008283456A (en
Inventor
学 兵藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007125740A priority Critical patent/JP4767904B2/en
Publication of JP2008283456A publication Critical patent/JP2008283456A/en
Application granted granted Critical
Publication of JP4767904B2 publication Critical patent/JP4767904B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は撮像装置及び撮像方法に関し、特にセルフタイマ機能及び連写機能を有する撮像装置及び該撮像装置を使用して被写体を連写する撮像方法に関するものである。   The present invention relates to an imaging device and an imaging method, and more particularly to an imaging device having a self-timer function and a continuous shooting function, and an imaging method for continuously shooting a subject using the imaging device.

近年、デジタルカメラやデジタルビデオカメラ等の撮像装置において、撮像画像から顔等の対象物を検出し、その対象物の検出結果に基づいてストロボ測光や自動露出制御及び自動合焦制御等を行って被写体を撮像する撮像方法が提案されている(特許文献1、特許文献2)。   In recent years, an imaging device such as a digital camera or a digital video camera detects an object such as a face from a captured image, and performs strobe photometry, automatic exposure control, automatic focusing control, etc. based on the detection result of the object. An imaging method for imaging a subject has been proposed (Patent Documents 1 and 2).

上記のような撮像方法では、撮像画像から複数の顔を検出した場合に、ユーザが選択した顔又は撮像画像中の最も中央に位置する顔等を主要被写体として、この主要被写体の画像領域に対して自動露出制御及び自動合焦制御等を行うものや、検出された複数の顔の位置に基づいて、例えば、複数の顔の位置の重心付近に位置する顔を主要被写体として、自動露出制御や自動合焦制御を行うものがある(特許文献4)
一方、ユーザの所望する撮影画像を取得するために、被写体に対して複数の連続撮像いわゆる連写を行い、連写された画像からユーザが所望する撮影画像を選択して記録する連写機能を有する撮像装置が提案されている。
In the imaging method as described above, when a plurality of faces are detected from the captured image, the face selected by the user or the face located at the center of the captured image is the main subject and the image area of the main subject is selected. Automatic exposure control and automatic focusing control, etc., based on the detected positions of a plurality of faces, for example, automatic exposure control or Some perform automatic focusing control (Patent Document 4)
On the other hand, in order to acquire a user-desired captured image, a continuous shooting function is performed in which a plurality of continuous imaging so-called continuous shooting is performed on a subject and a user-desired captured image is selected and recorded from the continuously shot images. An imaging apparatus having the same has been proposed.

上記のように連写機能を有する撮像装置では、ピントが合った状態では画像の合焦評価値(コントラスト値)が高くなるという特徴を利用して、合焦評価値のピーク値を検出し、検出されたピーク値の個数分、ピーク位置に撮影レンズを駆動して被写体を連写することにより撮影距離の異なる複数の被写体に対してそれぞれ合焦させた連続撮影を行うものがある(特許文献3)。   In the imaging device having the continuous shooting function as described above, the peak evaluation evaluation value (contrast value) is detected in a focused state, and the peak evaluation evaluation value is detected. There is one that performs continuous shooting in which a plurality of subjects with different shooting distances are focused by driving a shooting lens to the peak position for the number of detected peak values and continuously shooting subjects (Patent Literature). 3).

また、従来よりシャッタボタンが押下されてから所定時間経過後に被写体の撮影を行うセルフタイマ機能を有する撮像装置が普及している。
特開2003−107555号公報 特開2003−107567号公報 特開2003−114378号公報 特開2005−86682号公報
Conventionally, an imaging device having a self-timer function for photographing a subject after a predetermined time has elapsed since the shutter button was pressed has been widespread.
JP 2003-107555 A JP 2003-107567 A JP 2003-114378 A JP 2005-86682 A

しかしながら、特許文献1、2、4に記載の撮像方法では、例えば撮像画像から検出された複数の顔の中にユーザが所望する顔が複数存在するときに、ユーザが所望する複数の顔に最適な画像を得ることは困難である。   However, in the imaging methods described in Patent Literatures 1, 2, and 4, for example, when there are a plurality of faces desired by the user among a plurality of faces detected from the captured image, it is optimal for the plurality of faces desired by the user. It is difficult to obtain a correct image.

また、特許文献3に記載の撮像方法では、合焦評価値のピークの数だけ、該ピーク位置にピントを合わせて被写体を連写するので、ユーザが意図する対象物(顔)以外にピントの合った画像を撮像してしまう虞がある。   Further, in the imaging method described in Patent Document 3, since the subject is continuously shot by focusing on the peak position by the number of peaks of the focus evaluation value, the focus is not limited to the target (face) intended by the user. There is a risk of capturing a matched image.

一方、セルフタイマ機能を使用して被写体を撮像する際には、シャッタボタンが全押しすなわち撮影開始の指示がされてから、実際に本露光撮影が開始されるまでに時間を要するので、例えば撮影者自身を被写体とする撮影を行う場合等、被写体の状況が変化することにより、被写体の明るさ(輝度)やピント(合焦位置)がずれてしまう虞がある。   On the other hand, when taking an image of a subject using the self-timer function, since it takes time until the actual exposure shooting is actually started after the shutter button is fully pressed, that is, an instruction to start shooting is taken, for example, shooting is performed. When the subject itself is photographed or the like, there is a risk that the brightness (brightness) or focus (focus position) of the subject will shift due to changes in the subject situation.

本発明はかかる事情に鑑みてなされたものであり、セルフタイマ機能を使用して撮影を行うときに、撮影者自身等のユーザが意図する複数の対象物に対してそれぞれ適切な撮像条件で撮像された画像を取得することができる連写機能を有する撮像装置及び該撮像装置を使用して被写体を連写する撮像方法を提供することを目的とするものである。   The present invention has been made in view of such circumstances, and images are captured under appropriate imaging conditions for a plurality of objects intended by a user such as the photographer himself / herself when photographing using the self-timer function. It is an object of the present invention to provide an imaging apparatus having a continuous shooting function capable of acquiring a captured image and an imaging method for continuously shooting a subject using the imaging apparatus.

本発明の撮像装置は、被写体を撮像して画像データを生成する、連写機能を有する撮像手段と、
画像データから2つ以上の所定の対象物を検出する対象物検出手段と、
半押し及び全押しの二段階操作が可能な撮像指示手段と、
撮像指示手段が全押し操作されてから所定時間経過後に、撮像手段に被写体を連写させるセルフタイマ撮像手段と、
セルフタイマ撮像手段を使用して前記連写を行うセルフタイマ連写時に撮像指示手段が半押し操作されたときに、対象物検出手段により検出された対象物のうち1つの優先対象物に対して撮像条件を決定し、該決定された撮像条件に基づいて撮像手段を設定するプリ撮像設定手段と、
セルフタイマ連写時に撮像指示手段が全押し操作されてから所定時間経過後に、対象物検出手段により再度対象物の検出を行い、該検出された対象物毎に撮像条件を決定する撮像条件決定手段と
撮像条件決定手段により決定された撮像条件を、対象物毎に変えながら前記被写体を連写するように撮像手段を制御する連写制御手段と、
連写された2つ以上の画像データを外部記録メディア又は内部メモリに記録する記録手段とを備えてなることを特徴とするものである。
An imaging apparatus according to the present invention includes an imaging unit having a continuous shooting function for imaging a subject and generating image data;
An object detection means for detecting two or more predetermined objects from the image data;
Imaging instruction means capable of two-stage operation of half-press and full-press;
A self-timer imaging unit that causes the imaging unit to continuously shoot a subject after a predetermined time has elapsed since the imaging instruction unit was fully pressed;
When the imaging instruction means is half-pressed during self-timer continuous shooting that performs the continuous shooting using the self-timer imaging means, one priority object among the objects detected by the object detection means Pre-imaging setting means for determining imaging conditions and setting the imaging means based on the determined imaging conditions;
Imaging condition determining means for detecting an object again by the object detecting means and determining an imaging condition for each detected object after a predetermined time has elapsed since the imaging instruction means was fully pressed during self-timer continuous shooting. And continuous shooting control means for controlling the imaging means to continuously shoot the subject while changing the imaging conditions determined by the imaging condition determination means for each object;
It is characterized by comprising recording means for recording two or more continuously shot image data on an external recording medium or an internal memory.

なお本発明の撮像装置において、対象物検出手段が、画像データの各領域毎に取得される対象物らしさを表す評価値が所定の閾値よりも大きい値であるときに所定の対象物があると判断するものであって、
優先対象物が、前記評価値が最も大きい値の対象物であることが好ましい。
In the imaging apparatus according to the present invention, when the object detection means has a predetermined object when the evaluation value representing the object-likeness acquired for each area of the image data is larger than a predetermined threshold value. To judge,
It is preferable that the priority object is an object having the largest evaluation value.

また本発明の第二の撮像装置は、被写体を撮像して画像データを生成する、連写機能を有する撮像手段と、
画像データから2つ以上の所定の対象物を検出する対象物検出手段と、
半押し及び全押しの二段階操作が可能な撮像指示手段と、
撮像指示手段が全押し操作されてから所定時間経過後に撮像手段に被写体を連写させるセルフタイマ撮像手段と、
セルフタイマ撮像手段を使用して前記連写を行うセルフタイマ連写時に撮像指示手段が半押し操作されたときに、対象物検出手段により検出された対象物毎に撮像条件を決定する撮像条件決定手段と、
セルフタイマ連写時に撮像指示手段が全押し操作されてから所定時間経過後に、対象物検出手段により再度対象物の検出を行うと共に、新たに検出された対象物の撮像条件を決定する追加撮像条件決定手段と、
撮像条件決定手段及び追加撮像条件決定手段により決定された撮像条件を、対象物毎に変えながら前記被写体を連写するように撮像手段を制御する連写制御手段と、
連写された2つ以上の画像データを外部記録メディア又は内部メモリに記録する記録手段とを備えてなることを特徴とするものである。
According to a second imaging device of the present invention, an imaging unit having a continuous shooting function for imaging a subject and generating image data;
An object detection means for detecting two or more predetermined objects from the image data;
Imaging instruction means capable of two-stage operation of half-press and full-press;
A self-timer imaging unit that causes the imaging unit to continuously shoot a subject after a predetermined time has elapsed since the imaging instruction unit was fully pressed;
Imaging condition determination for determining imaging conditions for each object detected by the object detection means when the imaging instruction means is half-pressed during self-timer continuous shooting using the self-timer imaging means. Means,
Additional imaging conditions for detecting the object again by the object detection means and determining the imaging condition of the newly detected object after a predetermined time has elapsed since the imaging instruction means was fully pressed during self-timer continuous shooting A determination means;
Continuous shooting control means for controlling the imaging means to continuously shoot the subject while changing the imaging conditions determined by the imaging condition determination means and the additional imaging condition determination means for each object;
It is characterized by comprising recording means for recording two or more continuously shot image data on an external recording medium or an internal memory.

本発明の撮像装置は、前記撮像条件が、対象物検出手段により検出された対象物の画像領域に基づいて制御される、自動露出、自動焦点、ISO感度のいずれか1つ以上の設定値であることが好ましい。   In the image pickup apparatus of the present invention, the image pickup condition is controlled based on the image area of the object detected by the object detection unit, and is set to one or more set values of automatic exposure, autofocus, and ISO sensitivity. Preferably there is.

本発明の撮像装置は、前記撮像条件に基づいて撮像が行われるように撮像手段を設定する撮像設定手段をさらに備え、
撮像指示手段が全押し操作され、所定時間経過後に、撮像設定手段による前記決定された撮像条件に基づいた撮像手段の設定と、該設定された撮像手段による撮像とを、前記撮像条件毎に順次行うことにより前記連写が行われてもよい。
The imaging apparatus of the present invention further includes an imaging setting unit that sets the imaging unit so that imaging is performed based on the imaging condition,
When the imaging instruction unit is fully pressed and a predetermined time elapses, the setting of the imaging unit based on the determined imaging condition by the imaging setting unit and the imaging by the set imaging unit are sequentially performed for each imaging condition. The continuous shooting may be performed by performing.

本発明の撮像装置は、画像データを記憶するバッファ記憶手段と、
画像データに対して画像処理を施す画像処理手段とをさらに備え、
記録手段が、画像処理手段によって画像処理が施された画像データを記録するものであって、
撮像条件毎に撮像された画像データを、バッファ記憶手段に一旦記憶し、
前記連写後に、バッファ記憶手段に記憶された画像データに対して画像処理手段が画像処理を施し、
該画像処理が施された画像データを記録手段により前記記録するものであってもよい。
The imaging apparatus of the present invention includes a buffer storage unit that stores image data,
Image processing means for performing image processing on the image data,
The recording means records the image data subjected to image processing by the image processing means,
The image data captured for each imaging condition is temporarily stored in the buffer storage means,
After the continuous shooting, the image processing means performs image processing on the image data stored in the buffer storage means,
The image data subjected to the image processing may be recorded by a recording unit.

本発明の撮像装置は、バッファ記憶手段が記憶容量を超えたとき、その後に撮像された画像データに対して画像処理手段が画像処理を施し、
該画像処理が施された画像データを記録手段により前記記録し、
前記連写後に、バッファ記憶手段に記憶された画像データに対して画像処理手段が画像処理を施し、
該画像処理が施された画像データを記録手段により前記記録するバッファ処理手段を備えていてもよい。
In the imaging apparatus of the present invention, when the buffer storage unit exceeds the storage capacity, the image processing unit performs image processing on the image data captured thereafter,
The image data subjected to the image processing is recorded by the recording means,
After the continuous shooting, the image processing means performs image processing on the image data stored in the buffer storage means,
There may be provided buffer processing means for recording the image data subjected to the image processing by the recording means.

本発明の撮像装置は、対象物検出手段が、画像データの各領域毎に取得される対象物らしさを表す評価値が所定の閾値よりも大きい値であるときに前記所定の対象物があると判断するものであって、
連写制御手段が、評価値の大きい対象物から順に前記連写を行うように撮像手段を制御するものであってもよい。
In the imaging apparatus of the present invention, when the object detection unit has the predetermined object when the evaluation value representing the object-likeness acquired for each area of the image data is larger than a predetermined threshold value. To judge,
The continuous shooting control means may control the imaging means so as to perform the continuous shooting in order from an object having a large evaluation value.

なお本発明において「対象物らしさを表す評価値」とは対象物らしさを表す数値であり、例えば対象物が顔であるときは、顔らしさを表す数値であって、「顔らしさ」とは例えば口らしさ、目らしさ、鼻らしさ等を総合的に評価して定量化したものである。顔らしさとしては耳、しわ、まゆげ、肌の色等もある。   In the present invention, the “evaluation value representing the likelihood of an object” is a numerical value representing the likelihood of an object. For example, when the object is a face, the numerical value representing the likelihood of a face. Mouth-feel, eye-feel, nose-feel, etc. are comprehensively evaluated and quantified. Facialness includes ears, wrinkles, eyebrows, and skin color.

また本発明の撮像装置は、対象物検出手段により検出された対象物の大きさを検出する大きさ検出手段をさらに備え、
連写制御手段が、対象物の大きさの順に前記連写を行うように撮像手段を制御するものであってもよい。
Moreover, the imaging apparatus of the present invention further includes a size detection unit that detects the size of the object detected by the object detection unit,
The continuous shooting control means may control the imaging means so as to perform the continuous shooting in the order of the size of the object.

また本発明の撮像装置は、対象物検出手段により検出された対象物の位置情報を検出する位置情報検出手段をさらに備え、
連写制御手段が、撮影視野において中央から対象物までの距離が近い順に前記連写を行うように撮像手段を制御するものであってもよい。
The imaging apparatus of the present invention further includes position information detection means for detecting position information of the object detected by the object detection means,
The continuous shooting control means may control the imaging means so as to perform the continuous shooting in the order of the shortest distance from the center to the object in the photographing field of view.

また本発明の撮像装置は、フォーカスレンズを備えてなり、
撮像条件決定手段がフォーカスレンズの焦点位置を検出するものであって、
連写制御手段が、撮像条件決定手段により検出された焦点位置が現在のフォーカスレンズ位置から近い順に前記連写を行うように撮像手段を制御するものであってもよい。
The imaging apparatus of the present invention includes a focus lens,
The imaging condition determining means detects the focal position of the focus lens,
The continuous shooting control unit may control the imaging unit so that the continuous shooting is performed in the order in which the focal position detected by the imaging condition determining unit is closer to the current focus lens position.

また本発明の撮像装置は、フォーカスレンズを備えてなり、
撮像条件決定手段及び追加撮像条件決定手段がフォーカスレンズの焦点位置を検出するものであって、
連写制御手段が、撮像条件決定手段及び追加撮像決定手段により検出された焦点位置が現在のフォーカスレンズ位置から近い順に前記連写を行うように撮像手段を制御するものであってもよい。
The imaging apparatus of the present invention includes a focus lens,
The imaging condition determining means and the additional imaging condition determining means detect the focal position of the focus lens,
The continuous shooting control unit may control the imaging unit such that the continuous shooting is performed in the order in which the focal positions detected by the imaging condition determining unit and the additional imaging determining unit are closer to the current focus lens position.

本発明の撮像装置は、連写された順位にファイル番号を付与するファイル名生成手段をさらに備えていることが好ましい。   The imaging apparatus of the present invention preferably further includes file name generation means for assigning a file number to the order of continuous shooting.

本発明の撮像方法は、連写機能を有する撮像手段と、半押し及び全押しの二段階操作が可能な撮像指示手段とを備え、セルフタイマ機能有する撮像装置を使用して被写体を連写する撮像方法であって、
セルフタイマ機能を使用して前記連写を行うセルフタイマ連写時に、
被写体を撮像して画像データを生成し、
画像データから2つ以上の所定の対象物を検出し、
撮像指示手段が半押し操作されたときに、画像データから検出された対象物のうち1つの優先対象物に対して撮像条件を決定し、
該決定された撮像条件に基づいて撮像手段を設定し、
撮像指示手段が全押し操作されてから所定時間経過後に、画像データから再度対象物の検出を行い、
該検出された対象物毎に撮像条件を決定して、
該決定された撮像条件を、対象物毎に変えながら前記被写体を連写し、
連写された2つ以上の画像データを外部記録メディア又は内部メモリに記録することを特徴とする。
The imaging method of the present invention includes an imaging means having a continuous shooting function and an imaging instruction means capable of two-step operation of half-pressing and full-pressing, and continuously shooting a subject using an imaging device having a self-timer function. An imaging method,
When performing self-timer continuous shooting using the self-timer function,
Capture the subject, generate image data,
Detect two or more predetermined objects from the image data,
When the imaging instruction means is half-pressed, the imaging condition is determined for one priority object among the objects detected from the image data,
Set the imaging means based on the determined imaging conditions,
After a predetermined time has elapsed since the imaging instruction means was fully pressed, the object is detected again from the image data,
Determine the imaging conditions for each detected object,
The subject is continuously shot while changing the determined imaging condition for each object,
Two or more continuously shot image data are recorded on an external recording medium or an internal memory.

また本発明の第二の撮像方法は、連写機能を有する撮像手段と、半押し及び全押しの二段階操作が可能な撮像指示手段とを備え、セルフタイマ機能有する撮像装置を使用して被写体を連写する撮像方法であって、
セルフタイマ機能を使用して前記連写を行うセルフタイマ連写時に、
被写体を撮像して画像データを生成し、
画像データから2つ以上の所定の対象物を検出し、
撮像指示手段が半押し操作されたときに、画像データから検出された対象物毎に撮像条件を決定し、
撮像指示手段が全押し操作されてから所定時間経過後に、画像データから再度対象物の検出を行い、該検出により新たに検出された対象物に対して撮像条件を決定して、
該決定された撮像条件及び前記対象物毎に決定された撮像条件を、対象物毎に変えながら前記被写体を連写し、
連写された2つ以上の画像データを外部記録メディア又は内部メモリに記録することを特徴とする。
The second imaging method of the present invention includes an imaging means having a continuous shooting function and an imaging instruction means capable of two-step operation of half-pressing and full-pressing, and using an imaging device having a self-timer function, An imaging method for continuously shooting
When performing self-timer continuous shooting using the self-timer function,
Capture the subject, generate image data,
Detect two or more predetermined objects from the image data,
When the imaging instruction means is half-pressed, the imaging condition is determined for each object detected from the image data,
After a predetermined time has elapsed after the imaging instruction means is fully pressed, the object is detected again from the image data, and the imaging condition is determined for the object newly detected by the detection,
The subject is continuously shot while changing the determined imaging condition and the imaging condition determined for each object for each object,
Two or more continuously shot image data are recorded on an external recording medium or an internal memory.

本発明の撮像装置及び撮像方法によれば、セルフタイマ連写時に、撮像指示手段が半押し操作されたときに、対象物検出手段により検出された対象物のうち1つの優先対象物に対して撮像条件を決定し、決定された撮像条件に基づいて撮像手段を設定するので、優先対象物に対して照準された撮像条件に基づいて予め撮像手段を設定することにより、撮影者がより撮像時に近い構図を確認することができ、さらに撮像指示手段が全押し操作されてから所定時間経過後に、画像データから再度対象物の検出を行い、検出された対象物毎に撮像条件を決定して、決定された撮像条件を、対象物毎に変えながら前記被写体を連写し、連写された2つ以上の画像データを外部記録メディア又は内部メモリに記録するので、所定時間経過後に検出された対象物、例えば撮影者自身が被写体となる場合等には撮影者自身に対しても適切な撮像条件での撮像を行うことができると共に、対象物毎に照準のあった、検出された対象物と同じ数の画像を記録できることにより、撮影者自身等のユーザが意図する複数の対象物に対してそれぞれ適切な撮像条件で撮像された画像を取得することができる。   According to the imaging apparatus and imaging method of the present invention, when the imaging instruction unit is half-pressed during self-timer continuous shooting, one priority target object among the objects detected by the object detection unit is detected. Since the imaging condition is determined and the imaging unit is set based on the determined imaging condition, by setting the imaging unit in advance based on the imaging condition aimed at the priority target object, the photographer can perform more during imaging. A close composition can be confirmed, and after a predetermined time has elapsed since the imaging instruction means is fully pressed, the object is detected again from the image data, and the imaging condition is determined for each detected object, The subject is continuously shot while changing the determined imaging condition for each object, and two or more continuously shot image data are recorded in an external recording medium or an internal memory. When an object is an object, for example, the photographer himself / herself becomes a subject, the photographer himself / herself can be imaged under appropriate imaging conditions, and the detected object is aimed at each object. Since the same number of images can be recorded, it is possible to acquire images captured under appropriate imaging conditions for a plurality of objects intended by a user such as the photographer.

以下、本発明にかかる撮像装置の一実施形態を、図面を参照して詳細に説明する。尚、以下の実施の形態では、本発明における撮像装置としてデジタルカメラを例に説明するが、本発明の適用範囲はこれに限定されず、例えば、カメラ付き携帯電話、カメラ付きPDA等、電子撮像機能を備えた他の電子機器に対しても適用可能である。   Hereinafter, an embodiment of an imaging apparatus according to the present invention will be described in detail with reference to the drawings. In the following embodiments, a digital camera will be described as an example of the imaging apparatus in the present invention. However, the scope of the present invention is not limited to this, and for example, electronic imaging such as a mobile phone with a camera, a PDA with a camera, The present invention can also be applied to other electronic devices having functions.

図1及び図2は、デジタルカメラの一例を示すものであり、それぞれ背面側及び前面側から見た斜視図である。デジタルカメラ1の本体10の背面には、図1に示す如く、撮影者による操作のためのインターフェースとして、動作モードスイッチ11、メニュー/OKボタン12、ズーム/上下矢印レバー13、左右矢印ボタン14、Back(戻る)ボタン15、表示切替ボタン16が設けられ、更に撮影のためのファインダ17及び撮影並びに再生のための液晶モニタ18が設けられている。また本体10の上面には、シャッタボタン(撮像指示手段)19が設けられている。   1 and 2 show an example of a digital camera, and are perspective views seen from the back side and the front side, respectively. As shown in FIG. 1, an operation mode switch 11, a menu / OK button 12, a zoom / up / down arrow lever 13, a left / right arrow button 14, A Back button 15 and a display switching button 16 are provided, and a finder 17 for photographing and a liquid crystal monitor 18 for photographing and reproduction are further provided. A shutter button (imaging instruction means) 19 is provided on the upper surface of the main body 10.

動作モードスイッチ11は、静止画撮影モード、動画撮影モード、再生モードの各動作モードを切り替えるためのスライドスイッチである。   The operation mode switch 11 is a slide switch for switching operation modes of a still image shooting mode, a moving image shooting mode, and a playback mode.

メニュー/OKボタン12は、押下される毎に撮影モード、フラッシュ発光モード、顔検出連写モード、セルフタイマON/OFF、記録画素数や感度等の設定を行うための各種メニューを液晶モニタ18に表示させたり、液晶モニタ18に表示されたメニューに基づく選択・設定を確定させたりするためのボタンである。顔検出連写モードは、顔検出機能を使用して被写体を連写するモードである。なおメニュー/OKボタン12により、撮影モードを露出やホワイトバランスを全て自動で設定するためのオートモード、及びマニュアルで設定するためのマニュアルモードに設定可能である。   Each time the menu / OK button 12 is pressed, the LCD monitor 18 displays various menus for setting the shooting mode, flash emission mode, face detection continuous shooting mode, self-timer ON / OFF, recording pixel number, sensitivity, and the like. This is a button for displaying or confirming selection / setting based on a menu displayed on the liquid crystal monitor 18. The face detection continuous shooting mode is a mode in which a subject is continuously shot using a face detection function. The menu / OK button 12 can be used to set the shooting mode to an auto mode for automatically setting exposure and white balance and a manual mode for setting manually.

ズーム/上下矢印レバー13は、上下方向にレバーを倒すことによって、撮影時には望遠/広角の調整を行い、各種設定時に液晶モニタ18に表示されるメニュー画面中のカーソルを上下に移動して表示させるためのレバーである。左右矢印ボタン14は、各種設定時に液晶モニタ18に表示されるメニュー画面中のカーソルを左右に移動して表示させるためのボタンである。   The zoom / up / down arrow lever 13 tilts the lever in the up / down direction to adjust the telephoto / wide angle during shooting, and moves the cursor in the menu screen displayed on the liquid crystal monitor 18 during various settings to display it. It is a lever for. The left and right arrow buttons 14 are buttons for moving the cursor in the menu screen displayed on the liquid crystal monitor 18 at the time of various settings to be displayed left and right.

Back(戻る)ボタン15は、押下されることによって各種設定操作を中止し、液晶モニタ18に1つ前の画面を表示するためのボタンである。表示切替ボタン16は、押下されることによって液晶モニタ18の表示のON/OFF、各種ガイド表示、文字表示のON/OFF等を切り替えるためのボタンである。   The Back button 15 is a button for stopping various setting operations when pressed and displaying the previous screen on the liquid crystal monitor 18. The display switching button 16 is a button for switching ON / OFF of display on the liquid crystal monitor 18, various guide displays, ON / OFF of character display, and the like when pressed.

ファインダ17は、撮影者が被写体を撮影する際に構図やピントを合わせるために覗くためのものである。ファインダ17から見える被写体像は、本体10の前面にあるファインダ窓23を介して映し出される。   The viewfinder 17 is used by the photographer to look into the subject for composition and focus when photographing the subject. The subject image seen from the finder 17 is projected through the finder window 23 on the front surface of the main body 10.

以上説明した各ボタン及びスイッチ等の操作によって設定された内容は、液晶モニタ18中の表示や、ファインダ17内のランプ、スライドレバーの位置等によって確認可能となっている。   The contents set by the operation of each button and switch described above can be confirmed by the display on the liquid crystal monitor 18, the position of the lamp in the finder 17, the position of the slide lever, and the like.

また液晶モニタ18は、撮影の際に被写体確認用のスルー画像が表示されることにより、電子ビューファインダとして機能する他、撮影後の静止画や動画の再生表示、各種設定メニューの表示を行う。   The liquid crystal monitor 18 functions as an electronic viewfinder by displaying a through image for checking a subject at the time of shooting, and also displays a still image and a moving image after shooting and displays various setting menus.

更に、本体10の前面には、図2に示す如く、撮影レンズ20、レンズカバー21、電源スイッチ22、ファインダ窓23、フラッシュライト24及びセルフタイマランプ25が設けられ、側面にはメディアスロット26が設けられている。   Further, as shown in FIG. 2, a photographing lens 20, a lens cover 21, a power switch 22, a finder window 23, a flash light 24, and a self-timer lamp 25 are provided on the front surface of the main body 10, and a media slot 26 is provided on the side surface. Is provided.

撮影レンズ20は、被写体像を所定の結像面上(本体10内部にあるCCD等)に結像させるためのものであり、フォーカスレンズやズームレンズ等によって構成される。レンズカバー21は、デジタルカメラ1の電源がオフ状態のとき、再生モードであるとき等に撮影レンズ20の表面を覆い、汚れやゴミ等から撮影レンズ20を保護するものである。   The photographic lens 20 is for forming a subject image on a predetermined image plane (CCD or the like inside the main body 10), and includes a focus lens, a zoom lens, and the like. The lens cover 21 covers the surface of the photographic lens 20 when the power of the digital camera 1 is turned off or in the playback mode, and protects the photographic lens 20 from dirt and dust.

電源スイッチ22は、デジタルカメラ1の電源のON/OFFを切り替えるためのスイッチである。フラッシュライト24は、シャッタボタン19が押下され、本体10の内部にあるシャッタが開いている間に、撮影に必要な光を被写体に対して瞬間的に照射するためのものである。   The power switch 22 is a switch for switching on / off the power of the digital camera 1. The flashlight 24 is used to instantaneously irradiate the subject with light necessary for photographing while the shutter button 19 is pressed and the shutter inside the main body 10 is opened.

セルフタイマランプ25は、セルフタイマによって撮影する際に、シャッタの開閉タイミングすなわち露光の開始及び終了を被写体に知らせるためものである。メディアスロット26は、メモリカード等の外部記録メディア70が充填されるための充填口であり、外部記録メディア70が充填されると、データの読み取り/書き込みが行われる。   The self-timer lamp 25 is used to notify the subject of the shutter opening / closing timing, that is, the start and end of exposure when shooting with the self-timer. The media slot 26 is a filling port for filling an external recording medium 70 such as a memory card. When the external recording medium 70 is filled, data reading / writing is performed.

図3にデジタルカメラ1の機能構成を示すブロック図を示す。図3に示す如く、デジタルカメラ1の操作系として、前述の動作モードスイッチ11、メニュー/OKボタン12、ズーム/上下矢印レバー13、左右矢印ボタン14、Back(戻り)ボタン15、表示切替ボタン16、シャッタボタン19、電源スイッチ22と、これらのスイッチ、ボタン、レバー類の操作内容をCPU75に伝えるためのインターフェースである操作系制御部74が設けられている。   FIG. 3 is a block diagram showing the functional configuration of the digital camera 1. As shown in FIG. 3, as the operation system of the digital camera 1, the above-described operation mode switch 11, menu / OK button 12, zoom / up / down arrow lever 13, left / right arrow button 14, Back (return) button 15, and display switching button 16 are provided. The shutter button 19 and the power switch 22 and an operation system controller 74 which is an interface for transmitting the operation contents of these switches, buttons and levers to the CPU 75 are provided.

また、撮影レンズ20を構成するものとして、フォーカスレンズ20a及びズームレンズ20bが設けられている。これらの各レンズは、モータとモータドライバからなるフォーカスレンズ駆動部51、ズームレンズ駆動部52によってステップ駆動され、光軸方向に移動可能な構成となっている。フォーカスレンズ駆動部51は、AF処理部62から出力されるフォーカス駆動量データに基づいてフォーカスレンズ20aをステップ駆動する。ズームレンズ駆動部52は、ズーム/上下矢印レバー13の操作量データに基づいてズームレンズ20bのステップ駆動を制御する。   Further, a focus lens 20a and a zoom lens 20b are provided as components of the photographing lens 20. Each of these lenses is step-driven by a focus lens driving unit 51 and a zoom lens driving unit 52 including a motor and a motor driver, and is configured to be movable in the optical axis direction. The focus lens driving unit 51 step-drives the focus lens 20 a based on the focus driving amount data output from the AF processing unit 62. The zoom lens driving unit 52 controls step driving of the zoom lens 20 b based on the operation amount data of the zoom / up / down arrow lever 13.

絞り54は、モータとモータドライバとからなる絞り駆動部55によって駆動される。この絞り駆動部55は、AE(自動露出)処理部63から出力される絞り値データに基づいて絞り54の絞り径の調整を行う。   The diaphragm 54 is driven by a diaphragm driving unit 55 including a motor and a motor driver. The aperture driving unit 55 adjusts the aperture diameter of the aperture 54 based on aperture value data output from the AE (automatic exposure) processing unit 63.

シャッタ56は、メカニカルシャッタであり、モータとモータドライバとからなるシャッタ駆動部57によって駆動される。シャッタ駆動部57は、シャッタボタン19の押下により発生する信号と、AE処理部63から出力されるシャッタ速度データとに応じてシャッタ56の開閉の制御を行う。   The shutter 56 is a mechanical shutter and is driven by a shutter drive unit 57 including a motor and a motor driver. The shutter drive unit 57 controls the opening and closing of the shutter 56 according to a signal generated by pressing the shutter button 19 and the shutter speed data output from the AE processing unit 63.

上記光学系の後方には、撮影素子であるCCD58を有している。CCD58は、多数の受光素子がマトリクス状に配置されてなる光電面を有しており、光学系を通過した被写体光が光電面に結像され、光電変換される。光電面の前方には、各画素に光を集光させるためのマイクロレンズアレイ(不図示)と、RGB各色のフィルタが規則的に配列されてなるカラーフィルタアレイ(不図示)とが配置されている。   At the back of the optical system, there is a CCD 58 that is a photographing element. The CCD 58 has a photoelectric surface in which a large number of light receiving elements are arranged in a matrix, and subject light that has passed through the optical system is imaged on the photoelectric surface and subjected to photoelectric conversion. In front of the photocathode, a microlens array (not shown) for condensing light on each pixel and a color filter array (not shown) in which RGB filters are regularly arranged are arranged. Yes.

CCD58は、CCD制御部59から供給される垂直転送クロック信号及び水平転送クロック信号に同期して、画素毎に蓄積された電荷を1ラインずつ読み出してシリアルなアナログ画像信号として出力する。各画素における電荷の蓄積時間、即ち露出時間は、CCD制御部59から与えられる電子シャッタ駆動信号によって決定される。またCCD58はCCD制御部59により、予め設定された大きさのアナログ撮像信号が得られるように、ゲインすなわちISO感度が調整されている。   The CCD 58 reads out the charge accumulated for each pixel line by line in synchronization with the vertical transfer clock signal and horizontal transfer clock signal supplied from the CCD control unit 59 and outputs them as a serial analog image signal. The charge accumulation time in each pixel, that is, the exposure time, is determined by an electronic shutter drive signal given from the CCD controller 59. The gain of the CCD 58, that is, the ISO sensitivity is adjusted by the CCD control unit 59 so that an analog imaging signal having a preset size can be obtained.

そして上記光学系及びCCD58、CCD制御部59を含めて撮像部(撮像手段)100が構成される。   An imaging unit (imaging means) 100 is configured including the optical system, the CCD 58, and the CCD control unit 59.

CCD58が出力するアナログ画像信号は、アナログ信号処理部60に入力される。このアナログ信号処理部60は、アナログ画像信号のノイズ除去を行う相関2重サンプリング回路(CDS)と、アナログ画像信号のゲイン調整を行うオートゲインコントローラ(AGC)と、アナログ画像信号をデジタル画像データに変換するA/Dコンバータ(ADC)とからなる。そしてこのデジタル信号に変換されたデジタル画像データは、画素毎にRGBの濃度値を持つCCD−RAWデータである。   The analog image signal output from the CCD 58 is input to the analog signal processing unit 60. The analog signal processing unit 60 includes a correlated double sampling circuit (CDS) that removes noise from the analog image signal, an auto gain controller (AGC) that adjusts the gain of the analog image signal, and converts the analog image signal into digital image data. It comprises an A / D converter (ADC) for conversion. The digital image data converted into the digital signal is CCD-RAW data having RGB density values for each pixel.

タイミングジェネレータ72は、タイミング信号を発生させるものであり、このタイミング信号がシャッタ駆動部57、CCD制御部59、アナログ信号処理部60に入力されて、シャッタボタン19の操作と、シャッタ56の開閉、CCD58の電荷取り込み、アナログ信号処理60の処理の同期が取られる。フラッシュ制御部73は、フラッシュ24の発光動作を制御する。   The timing generator 72 generates a timing signal. The timing signal is input to the shutter drive unit 57, the CCD control unit 59, and the analog signal processing unit 60, and the operation of the shutter button 19 and the opening / closing of the shutter 56 are performed. The charge capturing of the CCD 58 and the processing of the analog signal processing 60 are synchronized. The flash control unit 73 controls the light emission operation of the flash 24.

画像入力コントローラ61は、上記アナログ信号処理部60から入力されたCCD−RAWデータをフレームメモリ66に書き込む。このフレームメモリ66は、画像データに対して後述の各種デジタル画像処理(信号処理)を行う際に使用する作業用メモリであり、例えば、一定周期のバスクロック信号に同期してデータ転送を行うSDRAM(Synchronous Dynamic Random Access Memory)が使用される。   The image input controller 61 writes the CCD-RAW data input from the analog signal processing unit 60 in the frame memory 66. The frame memory 66 is a working memory used when various digital image processing (signal processing) described later is performed on image data. For example, an SDRAM that performs data transfer in synchronization with a bus clock signal having a certain period. (Synchronous Dynamic Random Access Memory) is used.

表示制御部71は、フレームメモリ66に格納された画像データをスルー画像として液晶モニタ18に表示させるためのものであり、例えば、輝度(Y)信号と色(C)信号を一緒にして1つの信号としたコンポジット信号に変換して、液晶モニタ18に出力する。スルー画像は、撮影モードが選択されている間、所定時間間隔で取得されて液晶モニタ18に表示される。また、表示制御部71は、外部記録メディア70に記憶され、メディア制御部67によって読み出された画像ファイルに含まれる画像データに基づいた画像を液晶モニタ18に表示させる。   The display control unit 71 is for displaying the image data stored in the frame memory 66 on the liquid crystal monitor 18 as a through image. For example, the display control unit 71 combines a luminance (Y) signal and a color (C) signal together. The signal is converted into a composite signal and output to the liquid crystal monitor 18. Through images are acquired at predetermined time intervals and displayed on the liquid crystal monitor 18 while the shooting mode is selected. In addition, the display control unit 71 causes the liquid crystal monitor 18 to display an image based on the image data stored in the external recording medium 70 and read out by the media control unit 67.

AF(自動焦点)処理部62及びAE(自動露出)処理部63は、プレ画像に基づいて撮像条件を決定する。このプレ画像とは、シャッタボタンが半押しされることによって発生する半押し信号を検出したCPU75がCCD58にプレ撮像を実行させた結果、フレームメモリ66に格納された画像データにより表される画像である。   An AF (automatic focus) processing unit 62 and an AE (automatic exposure) processing unit 63 determine imaging conditions based on the pre-image. The pre-image is an image represented by image data stored in the frame memory 66 as a result of the CPU 75 having detected a half-press signal generated by half-pressing the shutter button causing the CCD 58 to perform pre-imaging. is there.

AF処理部62は、プレ画像に基づいて焦点位置を検出して合焦設定値(フォーカス駆動量)を決定し、フォーカス駆動量データを出力する(AF処理)。焦点位置の検出方式としては、例えば、所望とする被写体にピントが合った状態では画像のコントラストが高くなるという特徴を利用して合焦位置を検出するパッシブ方式が適用される。   The AF processing unit 62 detects a focus position based on the pre-image, determines a focus setting value (focus drive amount), and outputs focus drive amount data (AF processing). As a focus position detection method, for example, a passive method is used in which a focus position is detected using a feature that the contrast of an image is high when a desired subject is in focus.

AE処理部63は、プレ画像に基づいて被写体輝度(測光値)を測定し、測定した被写体輝度に基づいて絞り値及びシャッタスピード等の露出設定値を決定し、絞り値データ及びシャッタスピードデータを出力する(AE処理)。   The AE processing unit 63 measures subject luminance (photometric value) based on the pre-image, determines an exposure setting value such as an aperture value and shutter speed based on the measured subject luminance, and obtains aperture value data and shutter speed data. Output (AE processing).

AWB処理部64は、画像データに対して撮影時の光源による色味の違い、すなわちホワイトバランスを自動調整する(AWB処理)ものであり、被写体及び/又は光源の色温度を測定し、各色(R,G,B)に対するゲイン値(WBゲイン値)を決定する。   The AWB processing unit 64 automatically adjusts the difference in color depending on the light source at the time of photographing, that is, white balance (AWB processing) for the image data, measures the color temperature of the subject and / or the light source, A gain value (WB gain value) for R, G, B) is determined.

顔検出部(対象物検出手段)69は、フレームメモリ66に格納された画像データから人物の顔を検出するためのものであり、顔検出連写モードが選択されているときにONに設定される。顔検出部69は、具体的には、顔に含まれる顔の特徴、すなわち顔らしさを有する領域(例えば肌色を有する、目を有する、顔の形状を有する等)を顔領域として算出するものであり、画像データの各領域毎に取得される顔らしさを表す顔評価値が所定の閾値よりも大きい値であるときに、顔があると判断する。   The face detection unit (object detection means) 69 is for detecting a person's face from the image data stored in the frame memory 66, and is set to ON when the face detection continuous shooting mode is selected. The Specifically, the face detection unit 69 calculates a facial feature included in the face, that is, a region having facialness (for example, having skin color, having eyes, or having a facial shape) as the facial region. Yes, it is determined that there is a face when the face evaluation value representing the face-likeness acquired for each area of the image data is larger than a predetermined threshold value.

なお「顔評価値」とは顔らしさを表す数値であり、例えば口らしさ、目らしさ、鼻らしさ等を総合的に評価して定量化したものである。例えば公知のテンプレートマッチング方式を使用する場合には、テンプレートと画像データとのマッチング程度に応じてこの顔評価値は決定される。顔らしさの算出方法としては、例えば、本出願人が先に出願した「特開2004−334836」に記載の特徴部分抽出方法を使用することができる。   The “face evaluation value” is a numerical value representing the likelihood of a face, and is, for example, quantified by comprehensively evaluating mouth-likeness, eye-feeling, noseiness, and the like. For example, when a known template matching method is used, the face evaluation value is determined according to the degree of matching between the template and the image data. As a method of calculating the facial appearance, for example, a feature portion extraction method described in “Japanese Patent Application Laid-Open No. 2004-334836” filed earlier by the present applicant can be used.

また顔検出部69は、単写モードが選択されているときには、例えば図示しない顔検出ボタンによって顔検出のON/OFFを設定するようにしてもよいし、メニュー/OKボタン12等によって顔検出のON/OFFを選択するようにしてもよいし、適宜変更可能である。   In addition, when the single-shot mode is selected, the face detection unit 69 may set face detection ON / OFF using a face detection button (not shown), or perform face detection using the menu / OK button 12 or the like. ON / OFF may be selected and can be changed as appropriate.

本実施形態では、人物の顔を検出するものとして以下説明するが、動物の顔や自動車等、特徴点すなわちその対象物らしさを有するものであれば別の対象物を検出するようにしてもよい。そして顔検出がONに設定された場合には常時スルー画像から顔の検出処理が行われる。   In this embodiment, the following description will be made on the assumption that a human face is detected. However, another object may be detected as long as it has a feature point, that is, an object-like character, such as an animal face or a car. . When face detection is set to ON, face detection processing is always performed from a through image.

枠表示部77は、顔検出部69により検出された顔をそれぞれ囲む枠を液晶モニタ18に表示させるものである。   The frame display unit 77 causes the liquid crystal monitor 18 to display a frame surrounding each of the faces detected by the face detection unit 69.

撮像条件決定部(撮像条件決定手段)80は、顔検出部69により検出された顔毎に撮像条件を決定する。詳しくは検出された顔毎に、AF処理部62及びAE処理部63にそれぞれ顔の画像領域に基づいて合焦設定値及び露出設定値を決定させると共に、CCD58のISO感度の設定値を決定することにより、検出された顔の個数分、それぞれの顔に適切な撮像条件を決定する。なおISO感度の設定値は予め設定された値を使用することが可能である。   The imaging condition determination unit (imaging condition determination unit) 80 determines the imaging condition for each face detected by the face detection unit 69. Specifically, for each detected face, the AF processing unit 62 and the AE processing unit 63 determine the focus setting value and the exposure setting value based on the face image area, respectively, and determine the ISO sensitivity setting value of the CCD 58. As a result, an appropriate imaging condition for each face is determined for the number of detected faces. A preset value can be used as the ISO sensitivity setting value.

撮像設定部(撮像設定手段)81は、撮像条件決定部80により決定された撮像条件に基づいて撮像が行われるように、撮像部100を設定するものであり、合焦設定値に基づいてフォーカスレンズ駆動部51を制御すると共に、露出設定値に基づいて、絞り駆動部55及びシャッタ駆動部57を制御する。またISO感度の設定値に基づいてCCD制御部59を制御する。なおこの撮像設定部81はCPU75の機能の一部としてもよい。   The imaging setting unit (imaging setting unit) 81 sets the imaging unit 100 so that imaging is performed based on the imaging condition determined by the imaging condition determination unit 80, and the focus is set based on the focus setting value. The lens driving unit 51 is controlled, and the diaphragm driving unit 55 and the shutter driving unit 57 are controlled based on the exposure setting value. The CCD controller 59 is controlled based on the ISO sensitivity setting value. The imaging setting unit 81 may be a part of the function of the CPU 75.

セルフタイマ撮像部(セルフタイマ撮像手段)84は、シャッタボタン19の全押しから本露光撮影が開始するまでの予め設定された所定時間(例えばシャッタボタン19の全押しから5秒間)の経過を計時するタイマー部(図示せず)を備えるものであり、所定時間を計時したときにシャッタボタン19の押下信号がシャッタ駆動部57に出力されるように、タイミングジェネレータ72を介して制御している。なお連写モードが選択されているときには、上記所定時間経過後に撮像部100に被写体を連写させる。このようにセルフタイマ撮像部84を使用して連写を行うことをセルフタイマ連写という。   The self-timer imaging unit (self-timer imaging means) 84 measures the elapse of a predetermined time (for example, 5 seconds after the shutter button 19 is fully pressed) from when the shutter button 19 is fully pressed until the main exposure shooting starts. A timer unit (not shown) is provided, and is controlled via a timing generator 72 so that a pressing signal of the shutter button 19 is output to the shutter driving unit 57 when a predetermined time is counted. When the continuous shooting mode is selected, the subject is continuously shot by the imaging unit 100 after the predetermined time has elapsed. Such continuous shooting using the self-timer imaging unit 84 is called self-timer continuous shooting.

また上記所定時間の間、上述のセルフタイマランプ25を点滅させて本露光撮影の開始のタイミングを撮影者等に知らせる。なおセルフタイマ撮像部84によるセルフタイマのON/OFFは、液晶モニタ18に表示させて選択するものであってもよいし、デジタルカメラ1の本体10の背面に図示しないセルフタイマボタンを配設してON/OFFを設定しても良い。   During the predetermined time, the self-timer lamp 25 is blinked to notify the photographer and the like of the start timing of the main exposure shooting. ON / OFF of the self-timer by the self-timer imaging unit 84 may be selected by being displayed on the liquid crystal monitor 18, or a self-timer button (not shown) is provided on the back of the main body 10 of the digital camera 1. ON / OFF may be set.

プリ撮像設定部81’は、上記セルフタイマ連写時に、シャッタボタン19が半押し操作されたときに優先顔に対して撮像条件を決定し、決定された撮像条件に基づいて撮像部100を設定するものである。ここで本実施形態における「優先顔」は、顔検出部69により検出された複数の顔のうち上述の顔評価値が最も大きい値の顔とする。なお本発明はこれに限られるものではなく、例えば撮影者が任意に選択した顔であってもよい。なおプリ撮像設定部81’については後で詳細に説明する。   The pre-imaging setting unit 81 ′ determines the imaging condition for the priority face when the shutter button 19 is pressed halfway during the self-timer continuous shooting, and sets the imaging unit 100 based on the determined imaging condition. To do. Here, the “priority face” in the present embodiment is the face having the largest face evaluation value among the plurality of faces detected by the face detection unit 69. The present invention is not limited to this, and may be a face arbitrarily selected by the photographer, for example. The pre-imaging setting unit 81 'will be described in detail later.

連写制御部(連写制御手段)82は、撮像条件決定部80により決定された撮像条件を、顔毎に変えながら被写体を連写するように撮像部100を制御する。   The continuous shooting control unit (continuous shooting control unit) 82 controls the imaging unit 100 to continuously shoot the subject while changing the imaging condition determined by the imaging condition determination unit 80 for each face.

枠制御部87は、連写中に現在の撮像が照準されている顔を囲む枠の表示形式を変更するものである。なおこの枠制御部87については後で詳細に説明する。   The frame control unit 87 changes the display format of the frame surrounding the face on which the current imaging is aimed during continuous shooting. The frame controller 87 will be described in detail later.

バッファ記憶部(バッファ記憶手段)83は、図3に示す各構成要素のデータの流れの速度の違いや、動作時刻の違いを補正するための記憶手段である。なおバッファ記憶部83については後で詳細に説明する。   The buffer storage unit (buffer storage unit) 83 is a storage unit for correcting a difference in data flow speed and a difference in operation time of each component shown in FIG. The buffer storage unit 83 will be described in detail later.

画像処理部(画像処理手段)68は、本画像の画像データに対してガンマ補正処理(γ処理)、シャープネス補正(シャープネス処理)、色補正処理、コントラスト補正等の画質補正処理を施すと共に、CCD−RAWデータを、RGBの原色信号を正確な色再現性のある新たなRGB信号に色補正するリニアマトリックス演算処理(LMTX処理)、及び、輝度信号であるYデータと、青色色差信号であるCbデータ及び赤色色差信号であるCrデータとからなるYCデータに変換するYC処理を行う。また上述のAWB処理部64にホワイトバランスのゲイン値(WBゲイン値)を決定させる。   An image processing unit (image processing means) 68 performs image quality correction processing such as gamma correction processing (γ processing), sharpness correction (sharpness processing), color correction processing, contrast correction, and the like on the image data of the main image, and CCD -RAW data, linear matrix calculation processing (LMTX processing) that corrects RGB primary color signals to new RGB signals with accurate color reproducibility, Y data that is luminance signals, and Cb that is blue color difference signals YC processing is performed for conversion into YC data comprising data and Cr data which is a red color difference signal. Also, the above-described AWB processing unit 64 determines a white balance gain value (WB gain value).

尚、この本画像とは、シャッタボタン19が全押しされることによって実行される本撮影において、CCD58から取り込まれ、アナログ信号処理部60、画像入力コントローラ61経由でフレームメモリ66に格納された画像データによる画像である。本画像の画素数の上限はCCD58の画素数によって決定されるが、例えば、撮影者が設定可能な画質設定(ファイン、ノーマル等の設定)により、記録画素数を変更することができる。一方、スルー画像やプレ画像の画素数は本画像より少なくてもよく、例えば、本画像の1/16程度の画素数で取り込まれてもよい。   The main image is an image that is captured from the CCD 58 and stored in the frame memory 66 via the analog signal processing unit 60 and the image input controller 61 in the main photographing executed when the shutter button 19 is fully pressed. It is an image by data. The upper limit of the number of pixels of the main image is determined by the number of pixels of the CCD 58. For example, the number of recorded pixels can be changed by image quality settings (settings such as fine and normal) that can be set by the photographer. On the other hand, the number of pixels of the through image or the pre-image may be smaller than that of the main image.

圧縮/伸長処理部65は、画像処理部68によって画質補正等の処理が行われた本画像の画像データに対して、例えばJPEG等の圧縮形式で圧縮処理を行って、画像ファイルを生成する。この画像ファイルには、Exif形式等に基づいて、撮影日時などの付帯情報が格納されたタグが付加される。またこの圧縮/伸長処理部65は、再生モードにおいては外部記録メディア70から圧縮された画像ファイルを読み出し、伸長処理を行う。伸長後の画像データは表示制御部71に出力され、表示制御部71は画像データに基づいた画像を液晶モニタ18に表示する。   The compression / decompression processing unit 65 performs compression processing, for example, in a compression format such as JPEG on the image data of the main image that has been subjected to processing such as image quality correction by the image processing unit 68, and generates an image file. A tag storing supplementary information such as the shooting date and time is added to the image file based on the Exif format or the like. In the playback mode, the compression / decompression processing unit 65 reads the compressed image file from the external recording medium 70 and performs decompression processing. The decompressed image data is output to the display control unit 71, and the display control unit 71 displays an image based on the image data on the liquid crystal monitor 18.

メディア制御部(記録手段)67は、図2におけるメディアスロット26に相当し、外部記録メディア70に記憶された画像ファイル等の読み出し、又は画像ファイルの書き込みを行う。なおこの書き込み時に、書き込まれる画像ファイルに対応する情報をタグに付加して記録する。この情報としては、セルフタイマ顔検出連写モードで撮像された画像であることや、連写において何番目に撮像された画像であるか、顔が検出された領域等が考えられる。また画像ファイルに記録されたタグの情報はExif規格に対応したアプリケーションソフト等で利用可能である。なお本実施形態の記録手段としてもメディアスロット26は、画像データを外部記録メディア70に記憶するものとしたが本発明はこれに限られるものではなく、記録手段は、内部メモリ85に記憶するものであってもよい。   The media control unit (recording unit) 67 corresponds to the media slot 26 in FIG. 2, and reads an image file or the like stored in the external recording medium 70 or writes an image file. At the time of writing, information corresponding to the image file to be written is added to the tag and recorded. As this information, an image captured in the self-timer face detection continuous shooting mode, an order of an image captured in continuous shooting, a region where a face is detected, and the like can be considered. The tag information recorded in the image file can be used by application software or the like corresponding to the Exif standard. The media slot 26 also stores image data in the external recording medium 70 as the recording means of this embodiment, but the present invention is not limited to this, and the recording means is stored in the internal memory 85. It may be.

内部メモリ85は、デジタルカメラ1において設定される各種定数、及び、CPU75が実行するプログラム等を格納する。なおこの内部メモリ85は上述のフレームメモリ66及びバッファ記憶部83を含んでもよい。   The internal memory 85 stores various constants set in the digital camera 1, programs executed by the CPU 75, and the like. The internal memory 85 may include the frame memory 66 and the buffer storage unit 83 described above.

ファイル名生成部86は、本撮像された画像データに、連写された順にファイル番号を付与する。   The file name generation unit 86 assigns file numbers to the actually captured image data in the order of continuous shooting.

CPU75は、各種ボタン、レバー、スイッチの操作や各機能ブロックからの信号に応じて、デジタルカメラ1の本体各部を制御する。またデータバス76は、画像入力コントローラ61、各種処理部62〜65、68、フレームメモリ66、各種制御部67、71、82、87、顔検出部69、枠表示部77、撮像条件決定部80、撮像設定部81、プリ撮像設定部81’、バッファ記憶部83、セルフタイマ撮像部84、内部メモリ85、ファイル名生成部86及びCPU75に接続されており、このデータバス76を介して各種信号、データの送受信が行われる。   The CPU 75 controls each part of the main body of the digital camera 1 in accordance with operations of various buttons, levers, switches, and signals from the respective function blocks. The data bus 76 includes an image input controller 61, various processing units 62 to 65, 68, a frame memory 66, various control units 67, 71, 82, 87, a face detection unit 69, a frame display unit 77, and an imaging condition determination unit 80. Are connected to the imaging setting unit 81, the pre-imaging setting unit 81 ′, the buffer storage unit 83, the self-timer imaging unit 84, the internal memory 85, the file name generation unit 86, and the CPU 75, and various signals are transmitted via the data bus 76. Data transmission / reception is performed.

次に、以上の構成のデジタルカメラ1において撮影時に行われる処理について説明する。図4はデジタルカメラ1の一連の処理のフローチャート、図5は画像処理のフローチャートである。まず図4Aに示す如く、CPU75は、動作モードスイッチ11の設定に従って、動作モードが撮影モードであるか再生モードであるか判別する(ステップS1)。再生モードの場合(ステップS1;再生)、再生処理が行われる(ステップS2)。この再生処理は、メディア制御部67が外部記録メディア70に記憶された画像ファイルを読み出し、画像ファイルに含まれる画像データに基づいた画像を液晶モニタ18に表示させるための処理である。再生処理が終了したら、図4Cに示す如く、CPU75はデジタルカメラ1の電源スイッチ22によってオフ操作がなされたか否かを判別し(ステップS36)、オフ操作がなされていたら(ステップS36;YES)、デジタルカメラ1の電源をオフし、処理を終了する。オフ操作がなされていなかったら(ステップS36;NO)、ステップS1へ処理を移行する。   Next, processing performed at the time of shooting in the digital camera 1 having the above configuration will be described. 4 is a flowchart of a series of processing of the digital camera 1, and FIG. 5 is a flowchart of image processing. First, as shown in FIG. 4A, the CPU 75 determines whether the operation mode is the shooting mode or the reproduction mode according to the setting of the operation mode switch 11 (step S1). In the reproduction mode (step S1; reproduction), reproduction processing is performed (step S2). In this reproduction process, the media control unit 67 reads an image file stored in the external recording medium 70 and causes the liquid crystal monitor 18 to display an image based on the image data included in the image file. When the reproduction process is finished, as shown in FIG. 4C, the CPU 75 determines whether or not the power switch 22 of the digital camera 1 is turned off (step S36). If the power is turned off (step S36; YES), The power of the digital camera 1 is turned off, and the process is terminated. If an off operation has not been performed (step S36; NO), the process proceeds to step S1.

一方、ステップS1において動作モードが撮影モードであると判別された場合(ステップS1;撮影)、表示制御部71がスルー画像の表示制御を行う(ステップS3)。スルー画像の表示とは、フレームメモリ66に格納された画像データ液晶モニタ18に表示する処理である。   On the other hand, when it is determined in step S1 that the operation mode is the shooting mode (step S1; shooting), the display control unit 71 performs display control of the through image (step S3). The through image display is a process of displaying on the image data liquid crystal monitor 18 stored in the frame memory 66.

次に、CPU75はセルフタイマ顔検出連写モードがONされているか否かを判別する(ステップS4)。セルフタイマ顔検出連写モードとは、セルフタイマ、顔検出が共にONされ、さらに連写モードが選択されているものである。顔検出連写モードがONされていない場合には(ステップS4;NO)、CPU75はデジタルカメラ1が単写モードであると判断する(ステップS5)。   Next, the CPU 75 determines whether or not the self-timer face detection continuous shooting mode is ON (step S4). In the self-timer face detection continuous shooting mode, both the self-timer and face detection are turned on, and the continuous shooting mode is selected. When the face detection continuous shooting mode is not turned on (step S4; NO), the CPU 75 determines that the digital camera 1 is in the single shooting mode (step S5).

次にCPU75はシャッタボタン19が半押しされたか否かを判別し(ステップS6)、シャッタボタン19が半押しされていなければ、CPU75はシャッタボタン19が半押しされるまでステップS6の処理を繰り返す。   Next, the CPU 75 determines whether or not the shutter button 19 is half-pressed (step S6). If the shutter button 19 is not half-pressed, the CPU 75 repeats the process of step S6 until the shutter button 19 is half-pressed. .

一方、シャッタボタン19が半押しされている場合には(ステップS6;YES)、AE処理部63及びAF処理部62は被写体中央領域をAE/AF領域に設定し、このAE/AF領域に基づいてAE処理及びAF処理を行って露出設定値及び合焦設定値を決定する(ステップS7)。そして撮像設定部81が、決定された合焦設定値に基づいてフォーカスレンズ駆動部51を制御すると共に、決定された露出設定値に基づいて、絞り駆動部55及びシャッタ駆動部57を制御することにより撮像部100を設定する(ステップS8)。   On the other hand, when the shutter button 19 is half-pressed (step S6; YES), the AE processing unit 63 and the AF processing unit 62 set the subject central region as the AE / AF region, and based on this AE / AF region. Then, AE processing and AF processing are performed to determine the exposure setting value and the focusing setting value (step S7). The imaging setting unit 81 controls the focus lens driving unit 51 based on the determined focus setting value, and controls the aperture driving unit 55 and the shutter driving unit 57 based on the determined exposure setting value. Thus, the imaging unit 100 is set (step S8).

次に、ステップS8にて撮像部100の設定が行われると、CPU75はシャッタボタン19が全押しされたか否かを判別し(ステップS9)、シャッタボタン19が全押しされていない場合には(ステップS9;NO)、CPU75はシャッタボタン19の半押しが解除されたか否かを判別する(ステップS10)。そしてシャッタボタン19の半押しが解除されていなければ(ステップS10;NO)、CPU75は処理をステップS9へ移行し、シャッタボタン19の半押しが解除されていれば(ステップS10;YES)、CPU75は処理をステップS3へ移行してステップS3以降の処理を繰り返す。   Next, when the imaging unit 100 is set in step S8, the CPU 75 determines whether or not the shutter button 19 has been fully pressed (step S9). If the shutter button 19 has not been fully pressed ( Step S9; NO), the CPU 75 determines whether or not the half-press of the shutter button 19 is released (Step S10). If the half-press of the shutter button 19 has not been released (step S10; NO), the CPU 75 proceeds to step S9. If the half-press of the shutter button 19 has been released (step S10; YES), the CPU 75 Shifts the processing to step S3 and repeats the processing after step S3.

一方、ステップS9にてシャッタボタン19が全押しされている場合には(ステップS9;YES)、撮像部100が被写体の本撮像を行う(ステップS11)。そして本撮像により生成されたアナログ画像信号をアナログ信号処理部60がデジタル画像データに変換し、画像入力コントローラ61を介してフレームメモリ66に本画像データとして格納する信号処理を行って(ステップS12)、図4Cに示す如く、画像処理部68が本画像データに対して画像処理を施す(ステップS34)。なおステップS34以降の処理については後で詳細に説明する。   On the other hand, when the shutter button 19 is fully pressed in step S9 (step S9; YES), the imaging unit 100 performs the main imaging of the subject (step S11). Then, the analog image signal generated by the main imaging is converted into digital image data by the analog signal processing unit 60, and the signal processing is performed to store it as the main image data in the frame memory 66 via the image input controller 61 (step S12). As shown in FIG. 4C, the image processing unit 68 performs image processing on the main image data (step S34). The processing after step S34 will be described in detail later.

また図4Aに示す如く、ステップS4にてセルフタイマ顔検出連写モードがONにされている場合には(ステップS4;YES)、顔検出部69がスルー画像から上述の方法にて顔の検出を開始して顔領域を検出する(ステップS13)。ここで図6に液晶モニタ18の表示の一例を示す。本実施形態では、図6(a)に示す如く、撮影視野内に被写体として例えば母P2、長男P3、長女P4の3人が存在し、それぞれの顔領域を顔検出部69が検出するものとし、父P1(図6(a)中、不図示)を撮影者とする。   As shown in FIG. 4A, when the self-timer face detection continuous shooting mode is turned on in step S4 (step S4; YES), the face detection unit 69 detects the face from the through image by the above-described method. And a face area is detected (step S13). FIG. 6 shows an example of the display on the liquid crystal monitor 18. In the present embodiment, as shown in FIG. 6A, there are three subjects, for example, mother P2, eldest son P3, and eldest daughter P4 as subjects in the field of view, and face detection unit 69 detects each face area. The father P1 (not shown in FIG. 6A) is the photographer.

なおこのとき顔毎に算出される顔評価値は、それぞれ顔と対応させて内部メモリ85に記憶しておく。図6(a)において顔評価値が最も高い人物を母P2とし、以下長男P3、長女P4の順に低くなる。   At this time, the face evaluation value calculated for each face is stored in the internal memory 85 in association with each face. In FIG. 6 (a), the person with the highest face evaluation value is the mother P2, and the descending order is the eldest son P3 and the eldest daughter P4.

そして次に枠表示部77が、検出された顔毎に、母P2の顔を囲む枠F2、長男P3の顔を囲む枠F3、長女P4の顔を囲む枠F4を液晶モニタ18に表示させる(ステップS14)。このとき図6(a)に示す如く、内部メモリ85に記憶された顔評価値が最も高い人物Pの顔を囲む枠F、本実施形態では母P2の顔を囲む枠F2を点線にて表示してもよい。   Then, for each detected face, the frame display unit 77 displays a frame F2 surrounding the face of the mother P2, a frame F3 surrounding the face of the eldest son P3, and a frame F4 surrounding the face of the eldest daughter P4 on the liquid crystal monitor 18 ( Step S14). At this time, as shown in FIG. 6A, the frame F surrounding the face of the person P having the highest face evaluation value stored in the internal memory 85, in this embodiment, the frame F2 surrounding the face of the mother P2 is displayed by dotted lines. May be.

次に、図4Aに示す如く、CPU75はシャッタボタン19が半押しされたか否かを判別し(ステップS15)、シャッタボタン19が半押しされていない場合には(ステップS15;NO)、CPU75は処理をステップS13へ移行してステップS13以降の処理を繰り返し行う。   Next, as shown in FIG. 4A, the CPU 75 determines whether or not the shutter button 19 is half-pressed (step S15). If the shutter button 19 is not half-pressed (step S15; NO), the CPU 75 The process proceeds to step S13, and the processes after step S13 are repeated.

一方、シャッタボタン19が半押しされている場合には(ステップS15;YES)、顔検出部69がプレ画像から再度、上記と同様に顔の検出を行い(ステップS16)、プリ撮像設定部81’が優先顔(本実施形態では母P2の顔)に対して撮像条件を決定し(ステップS17)、決定された撮像条件に基づいて撮像部100を設定する(ステップS18)。こうすることにより撮影者である父P1は、優先顔つまり母P1の顔に撮像条件が照準された画像すなわち撮像時により近い構図を確認することができる。   On the other hand, when the shutter button 19 is half-pressed (step S15; YES), the face detection unit 69 detects the face again from the pre-image as described above (step S16), and the pre-imaging setting unit 81 'Determines the imaging condition for the priority face (in this embodiment, the face of the mother P2) (step S17), and sets the imaging unit 100 based on the determined imaging condition (step S18). By doing so, the father P1, who is the photographer, can confirm an image in which the imaging conditions are aimed at the priority face, that is, the face of the mother P1, that is, a composition closer to that at the time of imaging.

次に、図4Bに示す如く、CPU75はシャッタボタン19が全押しされたか否かを判別する(ステップS19)。全押しされていない場合は(ステップS28;NO)CPU75はシャッタボタン19が半押し解除されたか否かを判別する(ステップS20)。そして半押し解除されていない場合は(ステップS20;NO)CPU75はステップS19へ処理を移行し、半押し解除されている場合は(ステップS20;YES)、図4Aに示す如く、CPU75はステップS3へ処理を移行し、以降の処理を繰り返す。   Next, as shown in FIG. 4B, the CPU 75 determines whether or not the shutter button 19 has been fully pressed (step S19). If the shutter button 19 has not been fully pressed (step S28; NO), the CPU 75 determines whether or not the shutter button 19 has been released halfway (step S20). If the half-press has not been released (step S20; NO), the CPU 75 proceeds to step S19. If the half-press has been released (step S20; YES), as shown in FIG. The processing is shifted to and the subsequent processing is repeated.

一方、シャッタボタン19が全押しされている場合は(ステップS19;YES)、セルフタイマ撮像部84のタイマー部が所定時間のカウントダウンを開始する(ステップS21)。   On the other hand, when the shutter button 19 is fully pressed (step S19; YES), the timer unit of the self-timer imaging unit 84 starts counting down for a predetermined time (step S21).

そしてCPU75は所定時間が経過してカウントダウンが終了したか否かを判別する(ステップS22)。カウントダウンが終了していない場合(ステップS22;NO)は、CPU75はステップS21へ処理を移行し、カウントダウンを継続する。またカウントダウンが終了した場合(ステップS22;YES)は、顔検出部69がプレ画像から再度、上記と同様に顔の検出を行い(ステップS23)、検出された顔の数Nをカウントして(ステップS24)、枠表示部77が上記と同様に液晶モニタ18に枠Fを表示させる(ステップS25)。   Then, the CPU 75 determines whether or not the countdown is finished after a predetermined time has elapsed (step S22). If the countdown has not ended (step S22; NO), the CPU 75 shifts the process to step S21 and continues the countdown. When the countdown is completed (step S22; YES), the face detection unit 69 detects the face again from the pre-image in the same manner as described above (step S23), and counts the number N of detected faces ( In step S24), the frame display unit 77 displays the frame F on the liquid crystal monitor 18 in the same manner as described above (step S25).

このとき、例えばカウントダウン中に撮影者である父P1が、被写体として撮影視野内に入ったときには、図6(b)に示す如く、顔検出部69によって父P1の顔も検出され、他の顔と同様に枠F1が表示される。またこの顔検出において顔評価値が最も高い人物が父P1となる場合もあり、この場合図6(b)に示す如く、上記と同様に父P1の顔を囲む枠F1を点線にて表示してもよい。本実施形態では図6(b)において顔評価値は父P1、母P2、長男P3、長女P4の順に低いものとする。   At this time, for example, when the father P1 who is the photographer enters the field of view as the subject during the countdown, the face detection unit 69 also detects the face of the father P1 as shown in FIG. A frame F1 is displayed in the same manner as in FIG. Further, in this face detection, the person with the highest face evaluation value may be the father P1, and in this case, as shown in FIG. 6B, the frame F1 surrounding the face of the father P1 is displayed with a dotted line as described above. May be. In this embodiment, in FIG. 6B, the face evaluation values are assumed to be lower in the order of father P1, mother P2, eldest son P3, and eldest daughter P4.

そして次に図4Bに示す如く、撮像条件決定部80が、検出された顔毎に撮像条件を決定する(ステップS26)。ここで検出された顔に基づく撮像条件の決定方法について説明する。先ず本撮像時の露出設定値の決定方法について以下説明する。図7は露出設定値を決定するときの、各領域における重み付けパターンの一例であり、(a)は中央領域をAE領域に設定したとき(中央重点測光時)、(b)は顔領域をAE領域に設定したとき(顔重点測光時)の一例である。   Then, as shown in FIG. 4B, the imaging condition determining unit 80 determines the imaging condition for each detected face (step S26). A method for determining the imaging condition based on the detected face will be described. First, a method for determining an exposure setting value during actual imaging will be described below. FIG. 7 is an example of a weighting pattern in each area when determining the exposure setting value. (A) is when the center area is set to the AE area (during center-weighted metering), and (b) is the face area corresponding to the AE. It is an example when set to a region (during face-weighted metering).

AE処理部63は、プレ画像を例えば8×8の64個の領域に分割し、分割された領域毎に被写体輝度を測光して測光値EVi(i=1〜64)を算出して、算出された測光値EViに重み付けを行って露出値EVを算出する。重み付けは、予め内部メモリ85に記憶された図7(a)に示す中央重点測光用の重み付けパターン及び図7(b)に示す顔重点測光用の重み付けパターンに従って行われる。なお図7(b)中の枠F内は検出された顔領域とする。   The AE processing unit 63 divides the pre-image into 64 areas of 8 × 8, for example, and measures the subject brightness for each of the divided areas to calculate a photometric value EVi (i = 1 to 64). The exposure value EV is calculated by weighting the photometric value EVi. The weighting is performed according to the weighting pattern for center-weighted metering shown in FIG. 7A and the weighting pattern for face-weighted metering shown in FIG. Note that the inside of the frame F in FIG. 7B is a detected face area.

中央重点測光時の重み付けは、図7(a)に示す如く、画像の中央部が大きな値であり、周辺に向かうにつれて小さな値になるように設定されて、露出値EV1は下記式(1)により演算される。なおWiは、中央重点測光用の重み付けパターンにおける各領域の重みである。   As shown in FIG. 7A, the weighting at the time of center-weighted metering is set so that the central portion of the image has a large value and decreases toward the periphery, and the exposure value EV1 is expressed by the following equation (1). Is calculated by Wi is the weight of each area in the weighting pattern for center-weighted photometry.

EV1=Σ(EVi×Wi)/ΣWi・・・(1)
一方、顔重点測光時の重み付けは、図7(b)に示す如く、検出された顔に最適な露出値を決定するときに、検出された顔領域が大きな値になるように設定されて、露出値EV2は下記式(2)により演算される。なおWfiは顔重点測光用の重み付けパターンにおける各領域の重みである。
EV1 = Σ (EVi × Wi) / ΣWi (1)
On the other hand, as shown in FIG. 7B, the weighting at the time of face-weighted metering is set so that the detected face area has a large value when determining the optimum exposure value for the detected face. The exposure value EV2 is calculated by the following equation (2). Wfi is the weight of each area in the weighting pattern for face-weighted photometry.

EV2=Σ(EVi×Wfi)/ΣWfi・・・(2)
そして本撮像時の露出設定値は、下記式(3)に示す如く、上記式(1)により算出される露出値EV1と上記式(2)により算出される露出値EV2とに重みを付けた重み付け平均値により算出される露出値EVに基づいて決定する。
EV2 = Σ (EVi × Wfi) / ΣWfi (2)
Then, as shown in the following formula (3), the exposure setting value at the time of actual imaging weights the exposure value EV1 calculated by the above formula (1) and the exposure value EV2 calculated by the above formula (2). It is determined based on the exposure value EV calculated by the weighted average value.

EV=(αEV1+βEV2)/(α+β)・・・(3)
なおα及びβはα+β≧1の整数であり、例えば顔が検出されたときには、α=0とする。
EV = (αEV1 + βEV2) / (α + β) (3)
Α and β are integers of α + β ≧ 1, and for example, when a face is detected, α = 0.

このとき露出設定値を決定すると共に、ISO感度の設定値を調整することにより、顔領域が最適な明るさとなるようにしてもよい。   At this time, the exposure setting value may be determined and the ISO sensitivity setting value may be adjusted so that the face area has optimum brightness.

次に本撮像時の合焦設定値の決定方法について以下説明する。図8に、顔領域毎の積算値(合焦評価値)のグラフを示す。   Next, a method for determining the focus setting value during actual imaging will be described below. FIG. 8 shows a graph of integrated values (focus evaluation values) for each face area.

AF処理部62は、フォーカスレンズ20aを焦点調節範囲内で至近から無限遠(又は無限遠から至近)の方向にステップ駆動で移動させながら、移動毎に合焦評価値(積算値)を算出して、顔検出部69により検出された各顔の顔領域に対応する合焦評価値を求めて、図8に示す如く、顔毎に求められた合焦評価値から、該評価値が最大となるフォーカスレンズ位置(焦点位置)を検出し、該位置にフォーカスレンズ20aを移動させるためのフォーカスパルス数(フォーカス駆動量)を求めることにより合焦設定値を決定する。なお本実施形態では図8に示すように長女P4、長男P3、母P2、父P1の順に遠方に向かって位置する。   The AF processing unit 62 calculates a focus evaluation value (integrated value) for each movement while moving the focus lens 20a in a direction from close to infinity (or from infinity to close) within the focus adjustment range by step driving. The focus evaluation value corresponding to the face area of each face detected by the face detection unit 69 is obtained, and the evaluation value is maximized from the focus evaluation value obtained for each face as shown in FIG. The focus setting value is determined by detecting the focus lens position (focus position) and obtaining the number of focus pulses (focus drive amount) for moving the focus lens 20a to the position. In the present embodiment, as shown in FIG. 8, the eldest daughter P4, the eldest son P3, the mother P2, and the father P1 are located in the order of distance.

上述のようにして、検出された4人の顔毎つまり4つの撮像条件が決定される。   As described above, every four detected faces, that is, four imaging conditions are determined.

そしてステップS26にて撮像条件が決定されると、図4Cに示す如く、CPU75はNに1を設定し(ステップS27)、連写制御部82が、撮像条件決定部80により決定された撮像条件を、顔毎に変えながら被写体を連写するように撮像部100を制御して撮像部100が被写体の連写を開始する。このとき連写制御部82は、ステップS23にて内部メモリ85に記憶された顔評価値が高い順、すなわち父P1、母P2、長男P3、長女P4の順に、撮像条件が照準されるように撮像設定部81により撮像部100を設定して連写を行う。   When the imaging condition is determined in step S26, as shown in FIG. 4C, the CPU 75 sets 1 to N (step S27), and the continuous shooting control unit 82 determines the imaging condition determined by the imaging condition determination unit 80. The image capturing unit 100 starts the continuous shooting of the subject by controlling the image capturing unit 100 so that the subject is continuously shot while changing for each face. At this time, the continuous shooting control unit 82 is configured so that the imaging conditions are aimed in descending order of the face evaluation values stored in the internal memory 85 in step S23, that is, in order of father P1, mother P2, eldest son P3, and eldest daughter P4. The imaging setting unit 81 sets the imaging unit 100 to perform continuous shooting.

このように、最も顔評価値が高い人物P(父P1)に照準された撮像条件での撮像を先に行うことにより、最も顔らしい画像に対して、撮像条件の決定から撮像までに要する時間を最も短くし、撮像時に横顔になってしまう等により撮像が失敗する可能性を低減することができる。   As described above, the time required from the determination of the imaging condition to the imaging for the most probable image is obtained by first performing imaging under the imaging condition aimed at the person P (father P1) having the highest face evaluation value. Can be reduced, and the possibility of imaging failure due to a side profile during imaging can be reduced.

連写は、先ず撮像設定部81がステップS26にて決定された1つ目の撮像条件(本実施形態では父P1に照準された撮像条件)に基づいて撮像部100を設定する(ステップS28)。そしてこのように設定された撮像部100が被写体の撮像を行う(ステップS29)と共に、枠制御部87がこの撮像における撮像条件で照準されている顔(本実施形態では父P1の顔)を囲む枠Fの表示形式を変更する(ステップS29’)。ここで図9に枠の表示形式の変更例を示す。   In continuous shooting, first, the imaging setting unit 81 sets the imaging unit 100 based on the first imaging condition determined in step S26 (in this embodiment, the imaging condition aimed at the father P1) (step S28). . The imaging unit 100 set in this way captures an image of the subject (step S29), and the frame control unit 87 surrounds the face (the face of the father P1 in this embodiment) that is aimed at the imaging conditions in this imaging. The display format of the frame F is changed (step S29 ′). FIG. 9 shows an example of changing the frame display format.

本実施形態では1つ目の撮像条件は、父P1の顔に照準するように決定されているので、父P1の囲む枠F1を、母P2の顔を囲む枠F2、長男P3の顔を囲む枠F3、長女P4の顔を囲む枠F4とは別の形式にする。具体的には、図9Aに示す如く、父P1の枠F1を点線で表示し、母P2の枠F2、長男P3の枠F3、長女P4の枠F4を実線で表示する。   In the present embodiment, since the first imaging condition is determined so as to aim at the face of the father P1, the frame F1 surrounding the father P1 surrounds the frame F2 surrounding the face of the mother P2 and the face of the eldest son P3. The frame F3 and the frame F4 surrounding the face of the eldest daughter P4 have a different format. Specifically, as shown in FIG. 9A, the frame F1 of the father P1 is displayed with dotted lines, and the frame F2 of the mother P2, the frame F3 of the eldest son P3, and the frame F4 of the eldest daughter P4 are displayed with solid lines.

なお本発明は上記に限られるものではなく、現在の撮像における撮像条件で照準されている顔を囲む枠Fが区別できれば、例えば、図9Bに示す如く、父P1の枠F1を太い実線で表示し、母P2の枠F2、長男P3の枠F3、長女P4の枠F4を枠F1よりも細い実線で表示してもよいし、図9Cに示す如く、枠Fの近傍に、例えば連写の順番を示す番号すなわち本実施形態では父P1は「1」、母P2は「2」、長男P3は「3」、長女P4は「4」とする数字を表示して、「1」を大きな数字で表示し、「2」「3」「4」を「1」よりも小さな数字で表示してもよい。また父P1の枠F1を、母P2の枠F2、長男P3の枠F3、長女P4の枠F4とは異なる色で表示してもよい。   Note that the present invention is not limited to the above, and if the frame F surrounding the face aimed at the current imaging conditions can be distinguished, for example, as shown in FIG. 9B, the frame F1 of the father P1 is displayed with a thick solid line. Further, the frame F2 of the mother P2, the frame F3 of the eldest son P3, and the frame F4 of the eldest daughter P4 may be displayed with a solid line thinner than the frame F1, or as shown in FIG. A number indicating the order, that is, in this embodiment, the father P1 is “1”, the mother P2 is “2”, the eldest son P3 is “3”, and the eldest daughter P4 is “4”, and “1” is a large number. And “2”, “3”, and “4” may be displayed as numbers smaller than “1”. The frame F1 of the father P1 may be displayed in a color different from the frame F2 of the mother P2, the frame F3 of the eldest son P3, and the frame F4 of the eldest daughter P4.

このように表示形式を変更することにより、ユーザが連写時に現在どの顔に照準の合った撮像が行われているのかを容易に確認することができる。   By changing the display format in this way, it is possible to easily confirm to which face the user is currently aiming at the time of continuous shooting.

そして次に図4Cに示す如く、ステップS29の撮像により得られた画像データを、アナログ信号処理部60にてデジタル画像データに変換後、一旦バッファ記憶部83に格納する(ステップS30)。次にCPU75はステップS24にてカウントされた顔の数N分の撮像が行われたか否かを判別する(ステップS31)。   Then, as shown in FIG. 4C, the image data obtained by the imaging in step S29 is converted into digital image data by the analog signal processing unit 60, and then temporarily stored in the buffer storage unit 83 (step S30). Next, the CPU 75 determines whether or not imaging for the number N of faces counted in step S24 has been performed (step S31).

カウントされた顔の数N分の撮像が行われていない場合には(ステップS31;NO)、CPU75はNをN+1に設定し(ステップS32)、ステップS28へ処理を移行して、ステップS28以降の処理を繰り返す。ここで図10に撮像が行われてから画像データが外部記録メディア70に記憶されるまでのタイムシーケンスを示す。   When the number N of counted faces has not been picked up (step S31; NO), the CPU 75 sets N to N + 1 (step S32), shifts the processing to step S28, and after step S28. Repeat the process. Here, FIG. 10 shows a time sequence from when imaging is performed until image data is stored in the external recording medium 70.

上述のようにステップS28からステップS30の撮像とバッファ記憶の処理を、図10のT41〜T48に示す如く、検出された顔毎すなわち撮像条件毎に繰り返し行う。このときステップS29’の枠Fの表示形式の変更は、現在の撮像条件が照準されている人物Pの顔を囲む枠Fの表示形式を上記のようにして変更する。すなわち表示形式が変更される枠Fは撮像毎に替わることになる。   As described above, the imaging and buffer storage processes from step S28 to step S30 are repeatedly performed for each detected face, that is, for each imaging condition, as indicated by T41 to T48 in FIG. At this time, the display format of the frame F in step S29 'is changed as described above in the display format of the frame F surrounding the face of the person P on which the current imaging condition is aimed. That is, the frame F in which the display format is changed is changed for each imaging.

そしてカウントされた顔の数N分の撮像が行われた後で(ステップS31;YES)、ファイル名生成部86が連写された順にファイル番号(1、2、3、4)を生成して(ステップS33)、画像処理部68がバッファ記憶部83に記憶された4つの画像データに対してそれぞれ画像処理を施す(ステップS34)。   After the number N of the counted faces have been imaged (step S31; YES), the file name generation unit 86 generates file numbers (1, 2, 3, 4) in the order of continuous shooting. (Step S33), the image processing unit 68 performs image processing on each of the four image data stored in the buffer storage unit 83 (Step S34).

ここでデジタルカメラ1における画像処理について説明する。画像処理は、図5に示す如く、先ず画像処理部68が、AWB処理部64に最初の撮像(本実施形態では父P1に撮像条件が照準された撮像)により得られた画像データに対して上述したようにAWB処理を行わせ(ステップS40)、ホワイトバランス(WB)ゲイン値を算出させる(ステップS41)。   Here, image processing in the digital camera 1 will be described. As shown in FIG. 5, the image processing unit 68 first performs image processing on the image data obtained by the AWB processing unit 64 by first imaging (imaging in which the imaging condition is aimed at the father P1 in this embodiment). As described above, the AWB process is performed (step S40), and the white balance (WB) gain value is calculated (step S41).

次に画像処理部68は、上記最初の撮像(本実施形態では父P1に撮像条件が照準された撮像)により得られた画像データ及び2番目以降の撮像(本実施形態では母P2、長男P3、長女P4に撮像条件が照準された撮像)により得られた画像データに対してガンマ補正処理(γ処理)、シャープネス補正(シャープネス処理)、色補正処理、コントラスト補正等の画質補正処理を施すと共に、リニアマトリックス演算処理(LMTX処理)、YC処理を施す信号処理を行う(ステップS42)。   Next, the image processing unit 68 obtains image data obtained by the first imaging (imaging in which the imaging condition is aimed at the father P1 in this embodiment) and the second and subsequent imaging (in this embodiment, the mother P2 and the eldest son P3). In addition, the image data obtained by imaging with the imaging condition of the eldest daughter P4 is subjected to image quality correction processing such as gamma correction processing (γ processing), sharpness correction (sharpness processing), color correction processing, and contrast correction. Then, signal processing for performing linear matrix calculation processing (LMTX processing) and YC processing is performed (step S42).

このとき2番目以降の撮像(本実施形態では母P2、長男P3、長女P4に撮像条件が照準された撮像)により得られた画像データに対しては、ステップS41にて算出されたWBのゲイン値を使用する。   At this time, for the image data obtained by the second and subsequent imaging (imaging in which the imaging conditions are aimed at the mother P2, the eldest son P3, and the eldest daughter P4 in this embodiment), the gain of WB calculated in step S41 Use the value.

このようにWBのゲイン値すなわち画像処理条件を共通化することにより、信号処理を高速化できると共に、連写により得られた複数の本画像データに対する色再現性を安定化することができる。   In this way, by sharing the WB gain value, that is, the image processing conditions, the signal processing can be speeded up, and the color reproducibility for a plurality of main image data obtained by continuous shooting can be stabilized.

そして上記のように画像処理が行われると(ステップS34)、図4Cに示す如く、メディア制御部67が、画像処理が施された画像データをステップS33にて生成されたファイル名で外部記録メディア70に記録する(ステップS35)。なお画像処理が施された本画像データに対してはさらに圧縮/伸長処理部65によって圧縮処理が施されて、上述のExif形式等に基づいて画像ファイルが生成される。   When the image processing is performed as described above (step S34), as shown in FIG. 4C, the media control unit 67 sets the image data subjected to the image processing to the external recording medium with the file name generated in step S33. 70 (step S35). The main image data subjected to the image processing is further subjected to compression processing by the compression / decompression processing unit 65, and an image file is generated based on the above-described Exif format or the like.

このとき図10のT49〜T52に示す如く、ステップS30とステップS31の画像処理とメディア記録の処理は上記と同様に検出された顔毎に繰り返し行う。   At this time, as shown in T49 to T52 of FIG. 10, the image processing and media recording processing in steps S30 and S31 are repeated for each detected face in the same manner as described above.

上述のようにバッファ記憶部83に一旦画像データを格納することにより、被写体の連写を高速で行うことができる。   As described above, once image data is stored in the buffer storage unit 83, continuous shooting of the subject can be performed at high speed.

そしてCPU75は電源スイッチ22によってオフ操作がなされたか否かを判別し(ステップS36)、オフ操作がなされていたら(ステップS36;YES)、デジタルカメラ1の電源をオフし、処理を終了する。オフ操作がなされていなかったら(ステップS36;NO)、ステップS1へ処理を移行し、ステップS1以降の処理を繰り返す。このようにしてデジタルカメラ1による撮影は行われる。   Then, the CPU 75 determines whether or not an off operation has been performed by the power switch 22 (step S36). If the off operation has been performed (step S36; YES), the power of the digital camera 1 is turned off, and the process ends. If an off operation has not been performed (step S36; NO), the process proceeds to step S1, and the processes after step S1 are repeated. In this way, photographing with the digital camera 1 is performed.

以上により本実施形態のデジタルカメラ1及びデジタルカメラ1を使用した撮像方法によれば、セルフタイマ連写時に、シャッタボタン19が半押し操作されたときに、優先顔に対して撮像条件を決定し、決定された撮像条件に基づいて撮像部100を設定するので、優先顔に対して照準された撮像条件に基づいて予め撮像部100を設定することにより、撮影者がより撮像時に近い構図を確認することができ、さらにシャッタボタン19が全押し操作されてから所定時間経過後に、画像データから再度顔の検出を行い、検出された顔毎に撮像条件を決定して、決定された撮像条件を、顔毎に変えながら被写体を連写し、連写された2つ以上の画像データを外部記録メディア又は内部メモリに記録するので、所定時間経過後に検出された顔、例えば撮影者自身が被写体となる場合等には撮影者自身に対しても適切な撮像条件での撮像を行うことができると共に、顔毎に照準のあった、検出された顔と同じ数の画像を記録できることにより、撮影者自身等のユーザが意図する複数の顔に対してそれぞれ適切な撮像条件で撮像された画像を取得することができる。   As described above, according to the digital camera 1 and the imaging method using the digital camera 1 of the present embodiment, the imaging condition is determined for the priority face when the shutter button 19 is half-pressed during self-timer continuous shooting. Since the imaging unit 100 is set based on the determined imaging condition, the photographer confirms the composition closer to the time of imaging by setting the imaging unit 100 in advance based on the imaging condition aimed at the priority face. Further, after a predetermined time has elapsed since the shutter button 19 was fully pressed, the face is detected again from the image data, the imaging condition is determined for each detected face, and the determined imaging condition is determined. Since the subject is continuously shot for each face, and two or more continuously shot image data are recorded in the external recording medium or the internal memory, the face detected after a predetermined time has elapsed, For example, when the photographer himself / herself becomes a subject, the photographer himself / herself can be imaged under appropriate imaging conditions, and the same number of images as the detected faces that are aimed at each face Can be recorded, it is possible to acquire images captured under appropriate imaging conditions for a plurality of faces intended by a user such as the photographer himself.

なお本実施形態のデジタルカメラ1は、ファイル名生成部86が上述したタイミングにてファイル名を生成したが本発明はこれに限られるものではなく、撮像の順番にファイル名が生成されていれば、例えば撮像毎にファイル名を生成し、当該撮像により得られた画像データと対応させてバッファ記憶部83に記憶させておいてもよい。   In the digital camera 1 of the present embodiment, the file name generation unit 86 generates the file name at the timing described above, but the present invention is not limited to this, and the file name is generated in the order of imaging. For example, a file name may be generated for each imaging and stored in the buffer storage unit 83 in association with the image data obtained by the imaging.

また本実施形態のデジタルカメラ1は、上述のように画像処理部68が、連写により得られた画像データに対する画像処理条件として、ホワイトバランス(WB)のゲイン値を共通化したが、本発明はこれに限られるものではなく、前記画像処理条件としてリニアマトリックス演算処理、γ処理、YC処理、シャープネス処理、色補正処理のいずれか1つ以上のパラメータ設定値を共通化してもよい。   In the digital camera 1 of the present embodiment, as described above, the image processing unit 68 uses a common white balance (WB) gain value as an image processing condition for image data obtained by continuous shooting. However, the present invention is not limited to this, and as the image processing condition, one or more parameter setting values of linear matrix calculation processing, γ processing, YC processing, sharpness processing, and color correction processing may be shared.

この場合、WBのゲイン値と同様に最初の撮像により得られた画像データに対して上記の処理を行うことにより、共通化される上記パラメータ設定値を決定する。こうすることにより、信号処理速度をさらに高速化することが可能となる。なお上記処理全てのパラメータ設定値を共通化することにより、より信号処理の高速化を向上できる。   In this case, the parameter setting value to be shared is determined by performing the above processing on the image data obtained by the first imaging similarly to the gain value of WB. By doing so, the signal processing speed can be further increased. It should be noted that the speed of signal processing can be further improved by sharing the parameter setting values for all the above processes.

なお撮像条件決定部80によって各顔毎に決定された撮像条件において、ISO感度の設定値が異なる値である場合には、シャープネス処理のパラメータ設定値は上記のような共通化はせずに、ISO感度の設定値に基づいて各顔毎に調整する。   In the imaging conditions determined for each face by the imaging condition determining unit 80, when the ISO sensitivity setting values are different, the sharpness processing parameter setting values are not shared as described above. Adjustments are made for each face based on the ISO sensitivity setting value.

また本実施形態のデジタルカメラ1は、上述のように連写制御部82が、顔評価値が高い順に被写体を連写するように撮像部100を制御したが、本発明はこれに限られるものではなく、例えばAF処理部82により検出された焦点位置が現在のフォーカスレンズ20aの位置から近い順に前記連写を行うように撮像部100を制御してもよい。   In the digital camera 1 of the present embodiment, as described above, the continuous shooting control unit 82 controls the imaging unit 100 so as to continuously shoot subjects in descending order of the face evaluation value, but the present invention is limited to this. Instead, for example, the imaging unit 100 may be controlled so that the continuous shooting is performed in the order in which the focus position detected by the AF processing unit 82 is closer to the current position of the focus lens 20a.

つまり図8に示すように顔領域に対応する合焦評価値が求められたときに、現在のフォーカスレンズ20aの位置が最も至近側である場合には、至近側に位置する人物から、すなわち長女P4、長男P3、母P2、父P1の順に連写を行い、現在のフォーカスレンズ20aの位置が最も遠方側である場合には、遠方側に位置する人物から、すなわち父P1、母P2、長男P3、長女P4の順に連写を行う。   That is, as shown in FIG. 8, when the focus evaluation value corresponding to the face area is obtained, if the current focus lens 20a is on the closest side, the person from the closest side, that is, the eldest daughter Continuous shooting is performed in the order of P4, eldest son P3, mother P2, and father P1, and when the current focus lens 20a is on the farthest side, the person located on the far side, that is, father P1, mother P2, and eldest son Continuous shooting is performed in the order of P3 and the eldest daughter P4.

こうすることによりフォーカスレンズ20aの駆動量を少なくすることができるので、連写に要する時間を短縮できると共に安定した連写を行うことができる。   By doing so, the driving amount of the focus lens 20a can be reduced, so that the time required for continuous shooting can be shortened and stable continuous shooting can be performed.

次に本発明にかかる第二の実施形態のデジタルカメラ1−2について図面を参照して詳細に説明する。図11は本実施形態のデジタルカメラ1−2の機能構成を示すブロック図である。なお本実施形態のデジタルカメラ1−2は、上述した実施形態のデジタルカメラ1と概略同様な構成であるため、同様の箇所は同符号で示して説明を省略し、異なる箇所についてのみ説明する。   Next, a digital camera 1-2 according to the second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 11 is a block diagram illustrating a functional configuration of the digital camera 1-2 according to the present embodiment. Since the digital camera 1-2 of the present embodiment has a configuration that is substantially the same as that of the digital camera 1 of the above-described embodiment, the same portions are denoted by the same reference numerals, description thereof is omitted, and only different portions are described.

次に本発明にかかる第二の実施形態のデジタルカメラ1−2について図面を参照して詳細に説明する。図11は本実施形態のデジタルカメラ1−2の機能構成を示すブロック図、図12は、撮像が行われてから画像データが外部記録メディア70に記憶されるまでのタイムシーケンスを示す図である。なお本実施形態のデジタルカメラ1−2は、上述した実施形態のデジタルカメラ1と概略同様な構成であるため、同様の箇所は同符号で示して説明を省略し、異なる箇所についてのみ説明する。   Next, a digital camera 1-2 according to the second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 11 is a block diagram illustrating a functional configuration of the digital camera 1-2 according to the present embodiment, and FIG. 12 is a diagram illustrating a time sequence from image capturing to image data being stored in the external recording medium 70. . Since the digital camera 1-2 of the present embodiment has a configuration that is substantially the same as that of the digital camera 1 of the above-described embodiment, the same portions are denoted by the same reference numerals, description thereof is omitted, and only different portions are described.

本実施形態のデジタルカメラ1−2は上記実施形態のデジタルカメラ1に、バッファ処理部90をさらに備えたものである。また上記実施形態のデジタルカメラ1のバッファ記憶部83は上述のように4つの画像データを格納可能であったが、本実施形態のデジタルカメラ1−2のバッファ記憶部83’は、一例として3つの画像データを格納可能とする。   The digital camera 1-2 according to the present embodiment includes the buffer processing unit 90 in addition to the digital camera 1 according to the above-described embodiment. The buffer storage unit 83 of the digital camera 1 of the above embodiment can store four image data as described above, but the buffer storage unit 83 ′ of the digital camera 1-2 of the present embodiment is 3 as an example. One image data can be stored.

バッファ処理部90は、連写時にバッファ記憶部83’が記憶容量を超えたとき、すなわち図12のT41〜T46に示す如く3人の顔分の撮像及びバッファ記憶の処理が行われた後で、T47の4つ目の撮像条件での撮像により得られた画像データに対して、T48’にてアナログ信号処理部60にてデジタル画像データに変換後、画像処理部68により画像処理を施し、メディア制御部67によりファイル名生成部86にて生成されたファイル名(本実施形態では4)で画像処理が施された画像データを外部記録メディア70に記録して、その後で、図12のT49〜T51に示す如く、1〜3つ目の撮像条件での撮像により得られバッファ記憶部83’に格納された画像データに対して、連写された順(1、2、3)に画像処理とメディア記録の処理を施すように画像データを処理する。   When the buffer storage unit 83 ′ exceeds the storage capacity at the time of continuous shooting, that is, after the processing of imaging and buffer storage of the faces of three people as shown in T41 to T46 of FIG. The image data obtained by imaging under the fourth imaging condition of T47 is converted into digital image data by the analog signal processing unit 60 at T48 ′, and then subjected to image processing by the image processing unit 68. Image data that has been subjected to image processing with the file name (4 in this embodiment) generated by the file name generation unit 86 by the media control unit 67 is recorded on the external recording medium 70, and thereafter, T49 in FIG. As shown in -T51, image processing is performed in the order of continuous shooting (1, 2, 3) on image data obtained by imaging under the first to third imaging conditions and stored in the buffer storage unit 83 '. And mede Processing the image data to perform a process A recording.

次に、以上の構成のデジタルカメラ1−2において撮影時に行われる処理について説明する。図13はデジタルカメラ1−2の一連の処理のフローチャートである。なお図13A、図13B、図13C、図13Dにおいて、図4A、図4B、図4Cと同様の処理は同じステップ番号で示して説明を省略し、異なる処理についてのみ説明する。   Next, processing performed at the time of shooting in the digital camera 1-2 configured as described above will be described. FIG. 13 is a flowchart of a series of processes of the digital camera 1-2. In FIGS. 13A, 13B, 13C, and 13D, the same processes as those in FIGS. 4A, 4B, and 4C are denoted by the same step numbers, the description thereof is omitted, and only different processes are described.

デジタルカメラ1−2は、図13Cに示す如く、ステップS30の処理後に、CPU75はバッファ記憶部83’の記憶容量分の撮像が行われたか否かを判別し(ステップS60)、記憶容量分の撮像が行われていない場合には(ステップS60;NO)、CPU75はNをN+1に設定し(ステップS61)、ステップS28へ処理を移行して、ステップS28以降の処理を繰り返す。   In the digital camera 1-2, as shown in FIG. 13C, after the processing in step S30, the CPU 75 determines whether or not imaging for the storage capacity of the buffer storage unit 83 ′ has been performed (step S60). When the imaging is not performed (step S60; NO), the CPU 75 sets N to N + 1 (step S61), shifts the process to step S28, and repeats the process after step S28.

そしてステップS28からステップS30の撮像とバッファ記憶の処理を、図12のT41〜T46に示す如く、検出された顔毎すなわち撮像条件毎に繰り返し行い、記憶容量分の撮像が行われた後で(ステップS60;YES)、CPU75はNをN+1に設定し(ステップS62)、撮像設定部81がステップS20にて決定された撮像条件(本実施形態では4つ目の撮像条件)に基づいて撮像部100を設定する(ステップS63)。   Then, the imaging and buffer storage processes from step S28 to step S30 are repeated for each detected face, that is, for each imaging condition, as indicated by T41 to T46 in FIG. (Step S60; YES), the CPU 75 sets N to N + 1 (Step S62), and the imaging setting unit 81 is based on the imaging condition (fourth imaging condition in the present embodiment) determined in Step S20. 100 is set (step S63).

そしてこのように設定された撮像部100が被写体の撮像を行う(ステップS64)と共に枠制御部87が上記実施形態と同様に、この撮像における撮像条件で照準されている顔を囲む枠Fの表示形式を変更する(ステップS64’)。   The imaging unit 100 set in this way captures an image of the subject (step S64), and the frame control unit 87 displays a frame F surrounding the face that is aimed at the imaging conditions in this imaging as in the above embodiment. The format is changed (step S64 ′).

そして次に、ファイル名生成部86が連写された順のファイル番号(本実施形態では4)を生成して(ステップS65)、画像処理部68がこの撮像により得られた画像データに対して画像処理を施す(ステップS66)。   Then, the file name generation unit 86 generates a file number (4 in the present embodiment) in the order of continuous shooting (step S65), and the image processing unit 68 applies to the image data obtained by this imaging. Image processing is performed (step S66).

このとき画像処理は、図5に示す如く、画像処理部68がAWB処理部64に最初の撮像(本実施形態では父P1に撮像条件が照準された撮像)により得られた画像データつまりバッファ記憶部83’に記憶されている画像データに対して上述のAWB処理を行わせ(ステップS40)、ホワイトバランス(WB)ゲイン値を算出させる(ステップS41)。   At this time, as shown in FIG. 5, the image processing unit 68 uses the image processing unit 68 to capture the image data obtained by the first imaging (imaging in which the imaging condition is aimed at the father P1 in this embodiment), that is, buffer storage. The AWB process described above is performed on the image data stored in the unit 83 ′ (step S40), and a white balance (WB) gain value is calculated (step S41).

そして、画像処理部68は、ステップS64の撮像により得られた画像データに対して、ステップS42で算出されたWBゲイン値を使用し、さらにガンマ補正処理(γ処理)、シャープネス補正(シャープネス処理)、色補正処理、コントラスト補正等の画質補正処理を施すと共に、リニアマトリックス演算処理(LMTX処理)、YC処理を施す信号処理を行う(ステップS42)。   The image processing unit 68 uses the WB gain value calculated in step S42 for the image data obtained by imaging in step S64, and further performs gamma correction processing (γ processing) and sharpness correction (sharpness processing). In addition to image quality correction processing such as color correction processing and contrast correction, linear matrix calculation processing (LMTX processing) and YC processing are performed (step S42).

そして、図13Dに示す如く、メディア制御部67が、画像処理が施された画像データをステップS65にて生成されたファイル名で外部記録メディア70に記録する(ステップS67)。   Then, as shown in FIG. 13D, the media control unit 67 records the image data subjected to the image processing on the external recording medium 70 with the file name generated in Step S65 (Step S67).

このとき画像処理が施された本画像データに対してさらに圧縮/伸長処理部65によって圧縮処理が施されて画像ファイルが生成され、この記録も上記実施形態と同様にExif形式により行われる。   At this time, the main image data subjected to the image processing is further subjected to compression processing by the compression / decompression processing unit 65 to generate an image file, and this recording is also performed in the Exif format as in the above embodiment.

そして次にCPU75は、ステップS24にてカウントされた顔の数N分の撮像が行われたか否かを判別し(ステップS68)、カウントされた顔の数N分の撮像が行われていない場合には(ステップS68;NO)、図13Cに示す如く、CPU75はステップS62へ処理を移行して、ステップS62以降の処理を繰り返す。このとき例えばカウントされた顔の数が6つであった場合には、ステップS63の撮像設定からステップS67のメディア記録までの処理は検出された顔毎(4,5,6)に繰り返し行われる。   Next, the CPU 75 determines whether or not the number N of faces counted in step S24 has been imaged (step S68), and when the number N of counted faces has not been imaged. (Step S68; NO), as shown in FIG. 13C, the CPU 75 shifts the process to Step S62 and repeats the processes after Step S62. At this time, for example, when the number of faces counted is six, the processing from the imaging setting in step S63 to the media recording in step S67 is repeatedly performed for each detected face (4, 5, 6). .

そして図13Dに示す如く、カウントされた顔の数N分の撮像が行われた後で(ステップS68;YES)、ファイル名生成部86が連写された順にファイル番号(1、2、3)を生成して(ステップS33’)、画像処理部68がバッファ記憶部83’に記憶された3つの画像データに対してそれぞれ画像処理を施して(ステップS34’)、メディア制御部67が、画像処理が施された画像データをステップS33’にて生成されたファイル名で外部記録メディア70に記録する(ステップS35’)。   Then, as shown in FIG. 13D, after the number N of the counted faces have been imaged (step S68; YES), the file numbers (1, 2, 3) in the order in which the file name generation unit 86 is continuously shot. (Step S33 ′), the image processing unit 68 performs image processing on each of the three image data stored in the buffer storage unit 83 ′ (step S34 ′), and the media control unit 67 The processed image data is recorded on the external recording medium 70 with the file name generated in step S33 ′ (step S35 ′).

このとき図12のT49〜T51に示す如く、ステップS34’とステップS35’の画像処理とメディア記録の処理は上記と同様に検出された顔毎に繰り返し行う。なおこのときステップS34’の画像処理は、上記と同様にステップS66にて算出されたWBゲイン値を使用する。   At this time, as shown in T49 to T51 of FIG. 12, the image processing and media recording processing in steps S34 'and S35' are repeated for each detected face in the same manner as described above. At this time, the image processing in step S34 'uses the WB gain value calculated in step S66 as described above.

また画像処理が施された本画像データに対してはさらに圧縮/伸長処理部65によって圧縮処理が施されて画像ファイルが生成され、この記録も上記実施形態と同様にExif形式により行う。   The main image data subjected to the image processing is further subjected to compression processing by the compression / decompression processing unit 65 to generate an image file, and this recording is also performed in the Exif format as in the above embodiment.

このようにバッファ処理部90を備えることにより、バッファ記憶部83’の記憶容量を超える枚数の連写を行う場合でも、円滑に画像データを処理することができ連写の速度を向上させることができる。   By providing the buffer processing unit 90 in this way, even when continuous shooting exceeding the storage capacity of the buffer storage unit 83 ′ is performed, image data can be processed smoothly and the speed of continuous shooting can be improved. it can.

なお本実施形態のデジタルカメラ1−2は、ファイル名生成部86が上述したタイミングにてファイル名を生成したが本発明はこれに限られるものではなく、撮像の順番にファイル名が生成されていれば、例えば撮像毎にファイル名を生成し、当該撮像により得られた画像データと対応させてバッファ記憶部83’に記憶させておいてもよい。   In the digital camera 1-2 of this embodiment, the file name generation unit 86 generates a file name at the timing described above, but the present invention is not limited to this, and the file names are generated in the order of imaging. For example, a file name may be generated for each imaging, and stored in the buffer storage unit 83 ′ in association with the image data obtained by the imaging.

次に本発明にかかる第三の実施形態のデジタルカメラ1−3について図面を参照して詳細に説明する。図14は本実施形態のデジタルカメラ1−3の機能構成を示すブロック図である。なお本実施形態のデジタルカメラ1−3は、上記第一の実施形態のデジタルカメラ1と概略同様な構成であるため、同様の箇所は同符号で示して説明を省略し、異なる箇所についてのみ説明する。   Next, a digital camera 1-3 according to a third embodiment of the present invention will be described in detail with reference to the drawings. FIG. 14 is a block diagram illustrating a functional configuration of the digital camera 1-3 according to the present embodiment. The digital camera 1-3 according to the present embodiment has a configuration substantially similar to that of the digital camera 1 according to the first embodiment. Therefore, the same portions are denoted by the same reference numerals and description thereof is omitted, and only different portions are described. To do.

本実施形態のデジタルカメラ1−3は、図14に示す如く、第一の実施形態のデジタルカメラ1の機能構成に、顔検出部69により検出された顔の大きさを検出する大きさ検出部91をさらに備えている。   As shown in FIG. 14, the digital camera 1-3 according to the present embodiment includes a size detection unit that detects the size of the face detected by the face detection unit 69 in the functional configuration of the digital camera 1 according to the first embodiment. 91 is further provided.

本実施形態のデジタルカメラ1−3は、第一の実施形態のデジタルカメラ1とは、連写制御部82が撮像部100に被写体を連写させる順番が異なり、本実施形態の連写制御部82−3は、上記大きさ検出部91により検出された顔の大きさ順に、例えば顔の大きい順、父P1、母P2、長男P3、長女P4(図6参照)の順に照準された撮像条件で、撮像部100に被写体を連写させる。   The digital camera 1-3 of the present embodiment is different from the digital camera 1 of the first embodiment in the order in which the continuous shooting control unit 82 causes the imaging unit 100 to continuously shoot the subject, and the continuous shooting control unit of the present embodiment. Reference numeral 82-3 denotes imaging conditions that are aimed in the order of face sizes detected by the size detection unit 91, for example, in order of face size, father P1, mother P2, eldest son P3, eldest daughter P4 (see FIG. 6). Then, the subject is continuously shot by the imaging unit 100.

このように、最も顔の大きい人物P(父P1)に照準された撮像条件での撮像を先に行うことにより、最も顔の大きいすなわちユーザが所望する可能性の高い顔に対して、撮像条件の決定から撮像までに要する時間を最も短くし、撮像時に横顔になってしまう等により撮像が失敗する可能性を低減することができる。   In this way, by performing the imaging under the imaging condition aiming at the person P (father P1) having the largest face, the imaging condition is determined for the face having the largest face, that is, the user most likely to desire. The time required from the determination to the imaging can be shortened to reduce the possibility that the imaging will fail due to a profile during imaging.

なお本実施形態のデジタルカメラ1−3は、上記第二の実施形態のバッファ処理部90をさらに備えるものであってもよい。   The digital camera 1-3 according to the present embodiment may further include the buffer processing unit 90 according to the second embodiment.

次に本発明にかかる第四の実施形態のデジタルカメラ1−4について図面を参照して詳細に説明する。図15は本実施形態のデジタルカメラ1−4の機能構成を示すブロック図である。なお本実施形態のデジタルカメラ1−4は、上記第一の実施形態のデジタルカメラ1と概略同様な構成であるため、同様の箇所は同符号で示して説明を省略し、異なる箇所についてのみ説明する。   Next, a digital camera 1-4 according to a fourth embodiment of the present invention will be described in detail with reference to the drawings. FIG. 15 is a block diagram illustrating a functional configuration of the digital camera 1-4 according to the present embodiment. Since the digital camera 1-4 according to the present embodiment has a configuration substantially similar to that of the digital camera 1 according to the first embodiment, the same portions are denoted by the same reference numerals and description thereof is omitted, and only different portions are described. To do.

本実施形態のデジタルカメラ1−4は、図15に示す如く、第一の実施形態のデジタルカメラ1の機能構成に、顔検出部69により検出された顔の位置情報を検出する位置情報検出部92をさらに備えている。   As shown in FIG. 15, the digital camera 1-4 according to the present embodiment includes a position information detection unit that detects the position information of the face detected by the face detection unit 69 in the functional configuration of the digital camera 1 according to the first embodiment. 92 is further provided.

本実施形態のデジタルカメラ1−4は、上記実施形態と同様に第一の実施形態のデジタルカメラ1とは連写制御部82が撮像部100に被写体を連写させる順番が異なり、本実施形態の連写制御部82−4は、上記位置情報検出部92により検出された顔の位置情報により前記連写の順番を決定し、該順番にて撮像部100に被写体を連写させる。   Similar to the above embodiment, the digital camera 1-4 according to the present embodiment differs from the digital camera 1 according to the first embodiment in the order in which the continuous shooting control unit 82 causes the imaging unit 100 to continuously shoot subjects. The continuous shooting control unit 82-4 determines the order of the continuous shooting based on the position information of the face detected by the position information detection unit 92, and causes the imaging unit 100 to continuously shoot the subject in the order.

ここで図16に顔の位置情報の検出方法を説明する図を示す。図16(a)は液晶モニタ18の表示の一例であり、図16(b)は位置情報を示す表示の一例である。   FIG. 16 is a diagram for explaining a method for detecting face position information. FIG. 16A is an example of a display on the liquid crystal monitor 18, and FIG. 16B is an example of a display showing position information.

位置情報検出部92は、図16(a)に示す如く、撮影視野すなわち液晶モニタ18の中心Cを検出する。そして図16(b)に示す如く、各顔を囲む枠Fのそれぞれの中心点を検出し、該検出された中心点から液晶モニタ18の中心Cまでの距離dをそれぞれ算出する。本実施形態では、中心Cから父P1を囲む枠F1の中央点までの距離をd1とし、同様に母P1の距離をd2、長男P3の距離をd3、長女P4の距離をd4とする。このとき図16(b)は、d1>d2>d3>d4となる。   The position information detection unit 92 detects the field of view, that is, the center C of the liquid crystal monitor 18 as shown in FIG. Then, as shown in FIG. 16B, the respective center points of the frame F surrounding each face are detected, and the distances d from the detected center point to the center C of the liquid crystal monitor 18 are respectively calculated. In this embodiment, the distance from the center C to the center point of the frame F1 surrounding the father P1 is d1, the distance of the mother P1 is d2, the distance of the eldest son P3 is d3, and the distance of the eldest daughter P4 is d4. At this time, in FIG. 16B, d1> d2> d3> d4.

そして連写制御部83−4は、この距離dの値が小さい順、すなわち長女P4、長男P3、母P2、父P1の順に照準された撮像条件で、撮像部100に被写体を連写させる。  Then, the continuous shooting control unit 83-4 causes the imaging unit 100 to continuously shoot the subject under the imaging conditions in which the distance d is in ascending order, that is, the first daughter P4, the first son P3, the mother P2, and the father P1.

次に、以上の構成のデジタルカメラ1−4において撮影時に行われる処理について説明する。図17はデジタルカメラ1の一連の処理のフローチャートである。なお図17A、図17B、図17Cは、図4A、図4B、図4Cと概略同様であるため、同様の処理は同じステップ番号で示して説明を省略し、異なる処理についてのみ説明する。   Next, processing performed at the time of shooting in the digital camera 1-4 configured as described above will be described. FIG. 17 is a flowchart of a series of processes of the digital camera 1. Note that FIGS. 17A, 17B, and 17C are substantially the same as FIGS. 4A, 4B, and 4C. Therefore, the same processes are indicated by the same step numbers and the description thereof is omitted, and only different processes are described.

デジタルカメラ1−4は、図17Bに示す如く、ステップS26にて撮像条件が決定されると、位置情報検出部92が上述のようにして、父P1、母P2、長男P3、長女P4の距離d1、d2、d3、d4をそれぞれ算出する(ステップS26’)。そして次に図17Cに示す如く、CPU75はNに1を設定し(ステップS27)、連写制御部82−4が、撮像条件決定部80により決定された撮像条件を、顔毎に変えながら被写体を連写するように撮像部100を制御して撮像部100が被写体の連写を開始する。このとき連写制御部82−4は、ステップS26’にて算出された距離dの値が小さい順、すなわち長女P4、長男P3、母P2、父P1の順に、撮像条件が照準されるように撮像設定部81により撮像部100を設定して連写を行う。このようにしてデジタルカメラ1−4による撮影が行われる。   In the digital camera 1-4, as shown in FIG. 17B, when the imaging condition is determined in step S26, the position information detection unit 92 determines the distance between the father P1, the mother P2, the eldest son P3, and the eldest daughter P4 as described above. d1, d2, d3, and d4 are respectively calculated (step S26 ′). Then, as shown in FIG. 17C, the CPU 75 sets N to 1 (step S27), and the continuous shooting control unit 82-4 changes the imaging condition determined by the imaging condition determination unit 80 for each face. The image pickup unit 100 is controlled so as to continuously shoot the image, and the image pickup unit 100 starts continuous shooting of the subject. At this time, the continuous shooting control unit 82-4 is configured so that the imaging conditions are aimed in ascending order of the value of the distance d calculated in step S26 ′, that is, the eldest daughter P4, the eldest son P3, the mother P2, and the father P1. The imaging setting unit 81 sets the imaging unit 100 to perform continuous shooting. In this way, photographing with the digital camera 1-4 is performed.

このように、最も撮像画像の中央近くに位置する人物P(長女P4)に照準された撮像条件での撮像を先に行うことにより、最も中央に近いすなわちユーザが所望する可能性の高い顔に対して、撮像条件の決定から撮像までに要する時間を最も短くし、撮像時に横顔になってしまう等により撮像が失敗する可能性を低減することができる。   As described above, by performing the imaging under the imaging condition aiming at the person P (elder daughter P4) located closest to the center of the captured image first, the face that is closest to the center, that is, the user is highly likely to desire. On the other hand, the time required from the determination of the imaging condition to the imaging can be shortened, and the possibility that the imaging may fail due to a side profile during imaging or the like can be reduced.

なお本実施形態のデジタルカメラ1−4は、上記第二の実施形態のバッファ処理部90をさらに備えるものであってもよい。   The digital camera 1-4 according to the present embodiment may further include the buffer processing unit 90 according to the second embodiment.

次に本発明にかかる第五の実施形態のデジタルカメラ1−5について図面を参照して詳細に説明する。図18は本実施形態のデジタルカメラ1−5の機能構成を示すブロック図である。なお本実施形態のデジタルカメラ1−5は、上記第一の実施形態のデジタルカメラ1と同様の箇所は同符号で示して説明を省略し、異なる箇所についてのみ説明する。   Next, a digital camera 1-5 according to a fifth embodiment of the present invention will be described in detail with reference to the drawings. FIG. 18 is a block diagram showing a functional configuration of the digital camera 1-5 of the present embodiment. Note that in the digital camera 1-5 of the present embodiment, the same parts as those of the digital camera 1 of the first embodiment are denoted by the same reference numerals, description thereof is omitted, and only different parts are described.

本実施形態のデジタルカメラ1−5は、図18に示す如く、第一の実施形態のデジタルカメラ1のプリ撮像設定部81’を備えずに、追加撮像条件決定部95を備えている。   As illustrated in FIG. 18, the digital camera 1-5 according to the present embodiment includes an additional imaging condition determination unit 95 without including the pre-imaging setting unit 81 ′ of the digital camera 1 according to the first embodiment.

追加撮像条件決定部95は、セルフタイマ連写時にシャッタボタン19が全押しされてから所定時間経過後すなわちカウントダウン終了後に、顔検出部69に再度顔の検出を行わせると共に、新たに検出された顔の撮像条件を決定する。   The additional imaging condition determination unit 95 causes the face detection unit 69 to detect the face again after a predetermined time elapses after the shutter button 19 is fully pressed during self-timer continuous shooting, that is, after the countdown ends, and is newly detected. Determine the imaging conditions for the face.

また本実施形態の撮像条件決定部80’は、第一の実施形態の撮像条件決定部80とは撮像条件を決定するタイミングが異なっている。以下詳細に説明する。   Further, the imaging condition determination unit 80 ′ of the present embodiment is different in timing for determining the imaging conditions from the imaging condition determination unit 80 of the first embodiment. This will be described in detail below.

次に、以上の構成のデジタルカメラ1−5において撮影時に行われる処理について説明する。図19はデジタルカメラ1−5の一連の処理のフローチャートである。なお図19A、図19B、図19Cは、図4A、図4B、図4Cと同様の処理は同じステップ番号で示して説明を省略し、異なる処理についてのみ説明する。   Next, processing performed at the time of shooting in the digital camera 1-5 having the above configuration will be described. FIG. 19 is a flowchart of a series of processes of the digital camera 1-5. In FIG. 19A, FIG. 19B, and FIG. 19C, the same processes as those in FIG. 4A, FIG. 4B, and FIG.

デジタルカメラ1−5は、図19Aに示す如く、ステップS16にて顔検出部69が再度顔の検出を行った後で(ステップS16)、検出された顔の数Nをカウントして(ステップS70)、枠表示部77が液晶モニタ18に枠Fを表示させる(ステップS71)。そして次に撮像条件決定部80が、検出された顔毎に撮像条件を決定する(ステップS72)。なお検出された顔に基づく撮像条件は、図4BのステップS26における撮像条件の決定方法と同様であるため説明は省略する。   As shown in FIG. 19A, the digital camera 1-5 counts the number N of detected faces (step S70) after the face detection unit 69 detects the face again in step S16 (step S16). ), The frame display unit 77 displays the frame F on the liquid crystal monitor 18 (step S71). Next, the imaging condition determination unit 80 determines an imaging condition for each detected face (step S72). The imaging condition based on the detected face is the same as the imaging condition determination method in step S26 in FIG.

次に図19Bに示す如く、図4BのステップS19〜ステップS23と同様の処理を行った後、顔検出部69は顔の数Nを再度カウントし(ステップS73)、枠表示部77が液晶モニタ18に枠Fを表示させる(ステップS25)。そして追加撮像条件決定部95が、新たに検出された顔、つまり図6(b)に示す如く、例えばカウントダウン中に撮影者である父P1が、被写体として撮影視野内に入ったときには、父P1の顔に対して撮像条件を決定する(ステップS74)。   Next, as shown in FIG. 19B, after performing the same processing as step S19 to step S23 in FIG. 4B, the face detection unit 69 again counts the number N of faces (step S73), and the frame display unit 77 displays the liquid crystal monitor. The frame F is displayed on 18 (step S25). Then, when the additional imaging condition determination unit 95 detects the newly detected face, that is, as shown in FIG. 6B, for example, when the father P1 who is a photographer enters the field of view as a subject during the countdown, the father P1 The imaging conditions are determined for the face (step S74).

このように、カウントダウン前に撮影視野内に存在する人物(本実施形態では母P2、長男P3、長女P4)の顔に対して予め撮像条件を決定しておくことにより、カウントダウンの終了後は、新たに撮影視野内に入った人物(本実施形態では父P1)の顔に対してのみ撮像条件を決定すればよいので、カウントダウンが終了してから撮像までに要する時間を短縮することができる。   In this way, by determining the imaging conditions in advance for the faces of persons (in this embodiment, mother P2, eldest son P3, eldest daughter P4) existing in the field of view before the countdown, Since it is only necessary to determine the imaging condition only for the face of a person who newly enters the field of view (Father P1 in the present embodiment), it is possible to reduce the time required from the end of the countdown to imaging.

本発明の撮像装置は、上述した実施形態のデジタルカメラに限られるものではなく、本発明の趣旨を逸脱しない範囲において適宜設計変更可能である。   The imaging apparatus of the present invention is not limited to the digital camera of the above-described embodiment, and can be appropriately changed in design without departing from the spirit of the present invention.

デジタルカメラの背面図Rear view of digital camera デジタルカメラの前面図Front view of digital camera 第一の実施形態のデジタルカメラの機能ブロック図Functional block diagram of the digital camera of the first embodiment 図3のデジタルカメラの一連の処理のフローチャートを示す図(その1)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 3 (the 1) 図3のデジタルカメラの一連の処理のフローチャートを示す図(その2)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 3 (the 2) 図3のデジタルカメラの一連の処理のフローチャートを示す図(その3)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 3 (the 3) 図4の画像処理のフローチャートを示す図The figure which shows the flowchart of the image processing of FIG. 液晶モニタの表示例を示す図The figure which shows the example of a display of a liquid crystal monitor 露出設定値を決定時の各領域における重み付けパターンの一例を示す図The figure which shows an example of the weighting pattern in each area | region at the time of determining exposure setting value 顔領域毎の積算値(合焦評価値)のグラフを示す図The figure which shows the graph of the integrated value (focus evaluation value) for every face area 枠の表示形式の変更例(その1)を示す図The figure which shows the change example (the 1) of the display format of a frame 枠の表示形式の変更例(その2)を示す図The figure which shows the change example (the 2) of the display format of a frame 枠の表示形式の変更例(その3)を示す図The figure which shows the change example (the 3) of the display format of a frame 図3のデジタルカメラの撮像から記録までのタイムシーケンスを示す図The figure which shows the time sequence from the imaging of the digital camera of FIG. 3 to recording 第二の実施形態のデジタルカメラの機能ブロック図Functional block diagram of the digital camera of the second embodiment 図11のデジタルカメラの撮像から記録までのタイムシーケンスを示す図The figure which shows the time sequence from the imaging of the digital camera of FIG. 11 to recording 図11のデジタルカメラの一連の処理のフローチャートを示す図(その1)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 11 (the 1) 図11のデジタルカメラの一連の処理のフローチャートを示す図(その2)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 11 (the 2) 図11のデジタルカメラの一連の処理のフローチャートを示す図(その3)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 11 (the 3) 図11のデジタルカメラの一連の処理のフローチャートを示す図(その4)FIG. 11 is a flowchart illustrating a series of processes of the digital camera in FIG. 11 (part 4). 第三の実施形態のデジタルカメラの機能ブロック図Functional block diagram of the digital camera of the third embodiment 第四の実施形態のデジタルカメラの機能ブロック図Functional block diagram of the digital camera of the fourth embodiment 液晶モニタの表示例(a)、位置情報を示す表示例(b)Display example of liquid crystal monitor (a), display example showing position information (b) 図16のデジタルカメラの一連の処理のフローチャートを示す図(その1)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 16 (the 1) 図16のデジタルカメラの一連の処理のフローチャートを示す図(その2)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 16 (the 2) 図16のデジタルカメラの一連の処理のフローチャートを示す図(その3)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 16 (the 3) 第五の実施形態のデジタルカメラの機能ブロック図Functional block diagram of the digital camera of the fifth embodiment 図18のデジタルカメラの一連の処理のフローチャートを示す図(その1)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 18 (the 1) 図18のデジタルカメラの一連の処理のフローチャートを示す図(その2)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 18 (the 2) 図18のデジタルカメラの一連の処理のフローチャートを示す図(その3)The figure which shows the flowchart of a series of processes of the digital camera of FIG. 18 (the 3)

符号の説明Explanation of symbols

1 デジタルカメラ(撮像装置)
100撮像部(撮像手段)
18 液晶モニタ(表示手段)
19 シャッタボタン(撮像指示手段)
20aフォーカスレンズ
67 メディア制御部(記録手段)
68 画像処理部(画像処理手段)
69 顔検出部(対象物検出手段)
70 外部記録メディア
75 CPU
77 枠表示部(枠表示手段)
80 撮像条件決定部(撮像条件決定手段)
81 撮像設定部(撮像設定手段)
81’プリ撮像設定部(プリ撮像設定手段)
82 連写制御部(連写制御手段)
83 バッファ記憶部(バッファ記憶手段)
84 セルフタイマ撮像部(セルフタイマ撮像手段)
85 内部メモリ
86 ファイル名生成部(ファイル名生成手段)
90 バッファ処理部(バッファ処理手段)
91 大きさ検出部(大きさ検出手段)
92 位置情報検出部(位置情報検出手段)
95 追加撮像条件決定部(追加撮像条件決定手段)
1 Digital camera (imaging device)
100 imaging unit (imaging means)
18 LCD monitor (display means)
19 Shutter button (imaging instruction means)
20a focus lens 67 Media control unit (recording means)
68 Image processing unit (image processing means)
69 Face detection unit (object detection means)
70 External recording media 75 CPU
77 Frame display (frame display means)
80 Imaging condition determination unit (imaging condition determination means)
81 Imaging setting unit (imaging setting means)
81 ′ pre-imaging setting unit (pre-imaging setting means)
82 Continuous shooting control unit (Continuous shooting control means)
83 Buffer storage unit (buffer storage means)
84 Self-timer imaging unit (self-timer imaging means)
85 Internal memory 86 File name generator (file name generator)
90 Buffer processing unit (buffer processing means)
91 Size detector (size detector)
92 Position information detection unit (position information detection means)
95 Additional imaging condition determination unit (additional imaging condition determination means)

Claims (15)

被写体を撮像して画像データを生成する、連写機能を有する撮像手段と、
前記画像データから2つ以上の所定の対象物を検出する対象物検出手段と、
半押し及び全押しの二段階操作が可能な撮像指示手段と、
該撮像指示手段が全押し操作されてから所定時間経過後に、前記撮像手段に被写体を連写させるセルフタイマ撮像手段と、
該セルフタイマ撮像手段を使用して前記連写を行うセルフタイマ連写時に前記撮像指示手段が半押し操作されたときに、前記対象物検出手段により検出された対象物のうち1つの優先対象物に対して撮像条件を決定し、該決定された撮像条件に基づいて前記撮像手段を設定するプリ撮像設定手段と、
前記セルフタイマ連写時に前記撮像指示手段が全押し操作されてから前記所定時間経過後に、前記対象物検出手段により再度前記対象物の検出を行い、該検出された対象物毎に撮像条件を決定する撮像条件決定手段と
該撮像条件決定手段により決定された撮像条件を、前記対象物毎に変えながら前記被写体を連写するように前記撮像手段を制御する連写制御手段と、
該連写された2つ以上の画像データを外部記録メディア又は内部メモリに記録する記録手段とを備えてなることを特徴とする撮像装置。
An imaging means having a continuous shooting function for imaging a subject and generating image data;
Object detection means for detecting two or more predetermined objects from the image data;
Imaging instruction means capable of two-stage operation of half-press and full-press;
A self-timer imaging unit that causes the imaging unit to continuously shoot a subject after a predetermined time has elapsed since the imaging instruction unit was fully pressed;
One priority object among the objects detected by the object detecting means when the imaging instruction means is half-pressed during self-timer continuous shooting for performing the continuous shooting using the self-timer imaging means. Pre-imaging setting means for determining an imaging condition for the camera and setting the imaging means based on the determined imaging condition;
After the predetermined time elapses after the imaging instruction means is fully pressed during the self-timer continuous shooting, the object detection means detects the object again and determines the imaging condition for each detected object. Imaging condition determining means for performing continuous imaging control for controlling the imaging means to continuously capture the subject while changing the imaging conditions determined by the imaging condition determining means for each object;
An imaging apparatus comprising: recording means for recording two or more continuously shot image data in an external recording medium or an internal memory.
前記対象物検出手段が、前記画像データの各領域毎に取得される対象物らしさを表す評価値が所定の閾値よりも大きい値であるときに前記所定の対象物があると判断するものであって、
前記優先対象物が、前記評価値が最も大きい値の対象物であることを特徴とする請求項1に記載の撮像装置。
The object detection means determines that the predetermined object exists when an evaluation value representing the likelihood of the object acquired for each region of the image data is larger than a predetermined threshold. And
The imaging apparatus according to claim 1, wherein the priority object is an object having the largest evaluation value.
被写体を撮像して画像データを生成する、連写機能を有する撮像手段と、
前記画像データから2つ以上の所定の対象物を検出する対象物検出手段と、
半押し及び全押しの二段階操作が可能な撮像指示手段と、
該撮像指示手段が全押し操作されてから所定時間経過後に前記撮像手段に被写体を連写させるセルフタイマ撮像手段と、
該セルフタイマ撮像手段を使用して前記連写を行うセルフタイマ連写時に前記撮像指示手段が半押し操作されたときに、前記対象物検出手段により検出された対象物毎に撮像条件を決定する撮像条件決定手段と、
前記セルフタイマ連写時に前記撮像指示手段が全押し操作されてから前記所定時間経過後に、前記対象物検出手段により再度前記対象物の検出を行うと共に、新たに検出された対象物の撮像条件を決定する追加撮像条件決定手段と、
前記撮像条件決定手段及び前記追加撮像条件決定手段により決定された撮像条件を、前記対象物毎に変えながら前記被写体を連写するように前記撮像手段を制御する連写制御手段と、
該連写された2つ以上の画像データを外部記録メディア又は内部メモリに記録する記録手段とを備えてなることを特徴とする撮像装置。
An imaging means having a continuous shooting function for imaging a subject and generating image data;
Object detection means for detecting two or more predetermined objects from the image data;
Imaging instruction means capable of two-stage operation of half-press and full-press;
A self-timer imaging means for causing the imaging means to continuously shoot a subject after a predetermined time has elapsed since the imaging instruction means was fully pressed;
An imaging condition is determined for each object detected by the object detection means when the imaging instruction means is half-pressed during self-timer continuous shooting using the self-timer imaging means. Imaging condition determining means;
After the predetermined time elapses after the imaging instruction means is fully pressed during the self-timer continuous shooting, the object detection means detects the object again and sets the newly detected imaging condition of the object. Additional imaging condition determining means for determining;
Continuous shooting control means for controlling the imaging means to continuously shoot the subject while changing the imaging conditions determined by the imaging condition determination means and the additional imaging condition determination means for each object;
An imaging apparatus comprising: recording means for recording two or more continuously shot image data in an external recording medium or an internal memory.
前記撮像条件が、前記対象物検出手段により検出された対象物の画像領域に基づいて制御される、自動露出、自動焦点、ISO感度のいずれか1つ以上の設定値であることを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。   The imaging condition is a set value of one or more of automatic exposure, autofocus, and ISO sensitivity controlled based on an image area of the object detected by the object detection means. The imaging device according to claim 1. 前記撮像条件に基づいて撮像が行われるように前記撮像手段を設定する撮像設定手段をさらに備え、
前記撮像指示手段が全押し操作され、前記所定時間経過後に、前記撮像設定手段による前記決定された撮像条件に基づいた前記撮像手段の設定と、該設定された前記撮像手段による撮像とを、前記撮像条件毎に順次行うことにより前記連写が行われることを特徴とする請求項1〜4のいずれか1項に記載の撮像装置。
Further comprising imaging setting means for setting the imaging means so that imaging is performed based on the imaging conditions;
The imaging instruction unit is fully pressed, and after the predetermined time has elapsed, the setting of the imaging unit based on the determined imaging condition by the imaging setting unit, and the imaging by the set imaging unit, The imaging apparatus according to claim 1, wherein the continuous shooting is performed by sequentially performing each imaging condition.
前記画像データを記憶するバファ記憶手段と、
前記画像データに対して画像処理を施す画像処理手段とをさらに備え、
前記記録手段が、前記画像処理手段によって前記画像処理が施された画像データを記録するものであって、
前記撮像条件毎に撮像された画像データを、前記バッファ記憶手段に一旦記憶し、
前記連写後に、前記バッファ記憶手段に記憶された画像データに対して前記画像処理手段が前記画像処理を施し、
該画像処理が施された画像データを前記記録手段により前記記録することを特徴とする請求項1〜5のいずれか1項に記載の撮像装置。
Buffer storage means for storing the image data;
Image processing means for performing image processing on the image data,
The recording means records the image data subjected to the image processing by the image processing means;
The image data captured for each imaging condition is temporarily stored in the buffer storage means,
After the continuous shooting, the image processing means performs the image processing on the image data stored in the buffer storage means,
The image pickup apparatus according to claim 1, wherein the image data subjected to the image processing is recorded by the recording unit.
前記バッファ記憶手段が記憶容量を超えたとき、その後に撮像された画像データに対して前記画像処理手段が前記画像処理を施し、
該画像処理が施された画像データを前記記録手段により前記記録し、
前記連写後に、前記バッファ記憶手段に記憶された画像データに対して前記画像処理手段が前記画像処理を施し、
該画像処理が施された画像データを前記記録手段により前記記録するバッファ処理手段を備えたことを特徴とする請求項6に記載の撮像装置。
When the buffer storage means exceeds the storage capacity, the image processing means performs the image processing on the image data captured thereafter,
The image data subjected to the image processing is recorded by the recording means,
After the continuous shooting, the image processing means performs the image processing on the image data stored in the buffer storage means,
7. The imaging apparatus according to claim 6, further comprising buffer processing means for recording the image data subjected to the image processing by the recording means.
前記対象物検出手段が、前記画像データの各領域毎に取得される対象物らしさを表す評価値が所定の閾値よりも大きい値であるときに前記所定の対象物があると判断するものであって、
前記連写制御手段が、前記評価値の大きい対象物から順に前記連写を行うように前記撮像手段を制御するものであることを特徴とする請求項1〜7のいずれか1項に記載の撮像装置。
The object detection means determines that the predetermined object exists when an evaluation value representing the likelihood of the object acquired for each region of the image data is larger than a predetermined threshold. And
The said continuous shooting control means controls the said imaging means to perform the said continuous shooting in an order from the target with the said large evaluation value, The any one of Claims 1-7 characterized by the above-mentioned. Imaging device.
前記対象物検出手段により検出された対象物の大きさを検出する大きさ検出手段をさらに備え、
前記連写制御手段が、前記対象物の大きさの順に前記連写を行うように前記撮像主d何を制御するものであることを特徴とする請求項1〜7のいずれか1項に記載の撮像装置。
A size detecting means for detecting the size of the object detected by the object detecting means;
8. The apparatus according to claim 1, wherein the continuous shooting control unit controls the main imaging unit d so as to perform the continuous shooting in the order of the size of the object. 9. Imaging device.
前記対象物検出手段により検出された対象物の位置情報を検出する位置情報検出手段をさらに備え、
前記連写制御手段が、撮影視野において中央から前記対象物までの距離が近い順に前記連写を行うように前記撮像手段を制御するものであることを特徴とする請求項1〜7のいずれか1項に記載の撮像装置。
Further comprising position information detection means for detecting position information of the object detected by the object detection means;
The said continuous shooting control means controls the said imaging means to perform the said continuous shooting in order with the short distance from the center to the said target object in the imaging | photography visual field. The imaging apparatus according to item 1.
フォーカスレンズを備えてなり、
前記撮像条件決定手段が前記フォーカスレンズの焦点位置を検出するものであって、
前記連写制御手段が、前記撮像条件決定手段により検出された焦点位置が現在のフォーカスレンズ位置から近い順に前記連写を行うように前記撮像手段を制御するものであることを特徴とする請求項1〜7のいずれか1項に記載の撮像装置。
With a focus lens,
The imaging condition determining means detects a focus position of the focus lens;
The continuous shooting control means controls the imaging means so that the continuous shooting is performed in the order in which the focus position detected by the imaging condition determining means is closer to the current focus lens position. The imaging device according to any one of 1 to 7.
フォーカスレンズを備えてなり、
前記撮像条件決定手段及び前記追加撮像条件決定手段が前記フォーカスレンズの焦点位置を検出するものであって、
前記連写制御手段が、前記撮像条件決定手段及び前記追加撮像条件決定手段により検出された焦点位置が現在のフォーカスレンズ位置から近い順に前記連写を行うように前記撮像手段を制御するものであることを特徴とする請求項1〜7のいずれか1項に記載の撮像装置。
With a focus lens,
The imaging condition determining means and the additional imaging condition determining means detect a focus position of the focus lens;
The continuous shooting control means controls the imaging means so that the continuous shooting is performed in the order in which the focal positions detected by the imaging condition determining means and the additional imaging condition determining means are closer to the current focus lens position. The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記連写された順にファイル番号を付与するファイル名生成手段をさらに備えていることを特徴とする請求項1〜12のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a file name generation unit that assigns file numbers in the order of the continuous shooting. 連写機能を有する撮像手段と、
半押し及び全押しの二段階操作が可能な撮像指示手段とを備え、セルフタイマ機能有する撮像装置を使用して被写体を連写する撮像方法であって、
前記セルフタイマ機能を使用して前記連写を行うセルフタイマ連写時に、
被写体を撮像して画像データを生成し、
前記画像データから2つ以上の所定の対象物を検出し、
前記撮像指示手段が半押し操作されたときに、前記画像データから検出された対象物のうち1つの優先対象物に対して撮像条件を決定し、
該決定された撮像条件に基づいて撮像手段を設定し、
前記撮像指示手段が全押し操作されてから所定時間経過後に、前記画像データから再度前記対象物の検出を行い、
該検出された対象物毎に撮像条件を決定して、
該決定された撮像条件を、前記対象物毎に変えながら前記被写体を連写し、
該連写された2つ以上の画像データを外部記録メディア又は内部メモリに記録することを特徴とする撮像方法。
Imaging means having a continuous shooting function;
An imaging instruction means capable of two-step operation of half-pressing and full-pressing, and using an imaging device having a self-timer function,
At the time of self-timer continuous shooting that performs the continuous shooting using the self-timer function,
Capture the subject, generate image data,
Detecting two or more predetermined objects from the image data;
When the imaging instruction means is half-pressed, an imaging condition is determined for one priority object among the objects detected from the image data;
Set the imaging means based on the determined imaging conditions,
After the predetermined time has elapsed since the imaging instruction means has been fully pressed, the object is detected again from the image data,
Determine the imaging conditions for each detected object,
The subject is continuously shot while changing the determined imaging condition for each object,
An imaging method comprising: recording two or more continuously shot image data on an external recording medium or an internal memory.
連写機能を有する撮像手段と、
半押し及び全押しの二段階操作が可能な撮像指示手段とを備え、セルフタイマ機能有する撮像装置を使用して被写体を連写する撮像方法であって、
前記セルフタイマ機能を使用して前記連写を行うセルフタイマ連写時に、
被写体を撮像して画像データを生成し、
前記画像データから2つ以上の所定の対象物を検出し、
前記撮像指示手段が半押し操作されたときに、前記画像データから検出された対象物毎に撮像条件を決定し、
前記撮像指示手段が全押し操作されてから所定時間経過後に、画像データから再度前記対象物の検出を行い、該検出により新たに検出された対象物に対して撮像条件を決定して、
該決定された撮像条件及び前記対象物毎に決定された撮像条件を、対象物毎に変えながら前記被写体を連写し、
該連写された2つ以上の画像データを外部記録メディア又は内部メモリに記録することを特徴とする撮像方法。
Imaging means having a continuous shooting function;
An imaging instruction means capable of two-step operation of half-pressing and full-pressing, and using an imaging device having a self-timer function,
At the time of self-timer continuous shooting that performs the continuous shooting using the self-timer function,
Capture the subject, generate image data,
Detecting two or more predetermined objects from the image data;
When the imaging instruction means is half-pressed, an imaging condition is determined for each object detected from the image data,
After a predetermined time has elapsed since the imaging instruction means was fully pressed, the object is detected again from the image data, and imaging conditions are determined for the object newly detected by the detection,
The subject is continuously shot while changing the determined imaging condition and the imaging condition determined for each object for each object,
An imaging method comprising: recording two or more continuously shot image data on an external recording medium or an internal memory.
JP2007125740A 2007-05-10 2007-05-10 Imaging apparatus and imaging method Expired - Fee Related JP4767904B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007125740A JP4767904B2 (en) 2007-05-10 2007-05-10 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007125740A JP4767904B2 (en) 2007-05-10 2007-05-10 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2008283456A JP2008283456A (en) 2008-11-20
JP4767904B2 true JP4767904B2 (en) 2011-09-07

Family

ID=40143904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007125740A Expired - Fee Related JP4767904B2 (en) 2007-05-10 2007-05-10 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP4767904B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5224955B2 (en) * 2008-07-17 2013-07-03 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP5870533B2 (en) * 2011-08-09 2016-03-01 株式会社リコー Imaging apparatus and imaging method
JP6485709B2 (en) * 2016-05-26 2019-03-20 パナソニックIpマネジメント株式会社 Seat monitoring device, seat monitoring system, and seat monitoring method
KR102660857B1 (en) 2016-12-23 2024-04-24 매직 립, 인코포레이티드 Techniques for determining settings for a content capture device
KR102664701B1 (en) * 2019-02-19 2024-05-10 삼성전자주식회사 Electronic device and method providing content associated with image to application

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116979A (en) * 1999-10-18 2001-04-27 Fuji Photo Film Co Ltd Automatic focusing camera and photographing method
JP4553346B2 (en) * 2003-10-22 2010-09-29 キヤノン株式会社 Focus adjustment device and focus adjustment method
JP2005176102A (en) * 2003-12-12 2005-06-30 Canon Inc Apparatus and method of imaging and imaging system
JP2005352164A (en) * 2004-06-10 2005-12-22 Canon Inc Imaging apparatus and control method therefor, program, and storage medium
JP2006033049A (en) * 2004-07-12 2006-02-02 Konica Minolta Photo Imaging Inc Image pickup device
JP4422667B2 (en) * 2005-10-18 2010-02-24 富士フイルム株式会社 Imaging apparatus and imaging method
JP4692230B2 (en) * 2005-11-01 2011-06-01 株式会社デンソー Method for manufacturing ceramic honeycomb structure
JP2007311861A (en) * 2006-05-16 2007-11-29 Fujifilm Corp Photographic apparatus and method

Also Published As

Publication number Publication date
JP2008283456A (en) 2008-11-20

Similar Documents

Publication Publication Date Title
US7706674B2 (en) Device and method for controlling flash
JP4644883B2 (en) Imaging device
JP4444927B2 (en) Ranging apparatus and method
JP4127491B2 (en) Camera with auto focus function
TWI514847B (en) Image processing device, image processing method, and recording medium
US20080181460A1 (en) Imaging apparatus and imaging method
EP2590421A1 (en) Single-lens stereoscopic image capture device
US10237480B2 (en) Apparatus and method for storing moving image portions
TWI459126B (en) Image processing device capable of generating a wide-range image, image processing method and recording medium
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP2007311861A (en) Photographic apparatus and method
JP2006162990A (en) Stereoscopic image photographing apparatus
JP4796007B2 (en) Imaging device
JP2007233113A (en) Distance measuring device and method
JP2009033544A (en) Photographic device and control method of photographic device, and program
JP4767904B2 (en) Imaging apparatus and imaging method
JP2007235640A (en) Photographing device and method
US20070195190A1 (en) Apparatus and method for determining in-focus position
JP4949717B2 (en) In-focus position determining apparatus and method
JP4750063B2 (en) Imaging apparatus and imaging method
JP2008263478A (en) Imaging apparatus
JP2009077143A (en) Automatic photographing apparatus
JP4823964B2 (en) Imaging apparatus and imaging method
JP4905797B2 (en) Imaging apparatus and imaging method
JP4756005B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110615

R150 Certificate of patent or registration of utility model

Ref document number: 4767904

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees