[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010035237A - Position detection device and method of target image and program for controlling position detection device of target image - Google Patents

Position detection device and method of target image and program for controlling position detection device of target image Download PDF

Info

Publication number
JP2010035237A
JP2010035237A JP2009258940A JP2009258940A JP2010035237A JP 2010035237 A JP2010035237 A JP 2010035237A JP 2009258940 A JP2009258940 A JP 2009258940A JP 2009258940 A JP2009258940 A JP 2009258940A JP 2010035237 A JP2010035237 A JP 2010035237A
Authority
JP
Japan
Prior art keywords
image
subject
detected
subject image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009258940A
Other languages
Japanese (ja)
Other versions
JP5000699B2 (en
Inventor
Masahiko Sugimoto
雅彦 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009258940A priority Critical patent/JP5000699B2/en
Publication of JP2010035237A publication Critical patent/JP2010035237A/en
Application granted granted Critical
Publication of JP5000699B2 publication Critical patent/JP5000699B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position detection device, or the like, capable of more accurately deciding image region of a face. <P>SOLUTION: An image of a subject is captured, thus obtaining a subject image α1 of the N-1th frame and a subject image α2 of the N-th frame. Face image detection processing is performed in the subject images α1, α2 of the respective frames, thus detecting face image regions C1, C2, C3. The face image region C2 has been linked, since there is the corresponding face image region C1. The face image region C3 has been linked, since a corresponding face image region does not exist. For the subject image α2 of the N-th frame, the linked face image region C2 is decided as a face image region. The face image region can be decided relatively accurately. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は,対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラムに関する。   The present invention relates to a target image position detection apparatus and method, and a program for controlling the target image position detection apparatus.

発明の背景Background of the Invention

被写体が人物などの場合,その被写体の顔の画像部分がきれいに撮像されることが好ましいことが多い。このために,被写体像の中から顔の画像部分を検出することがある。顔検出の精度を向上させるために同一画像について複数の顔検出を行うことがある(特許文献1)。   When the subject is a person or the like, it is often preferable that the image portion of the face of the subject is captured clearly. For this reason, the image portion of the face may be detected from the subject image. In order to improve the accuracy of face detection, a plurality of faces may be detected for the same image (Patent Document 1).

また,連続する被写体像が与えられる場合には,前回の駒の被写体像において検出された顔の画像部分の近傍領域を,今回の駒の被写体像における顔の画像部分を検出する領域と規定するものもある(特許文献2)。   Also, when a continuous subject image is given, a region near the face image portion detected in the previous frame subject image is defined as a region for detecting the face image portion in the current frame subject image. Yes (Patent Document 2).

特開2003-216935号公報Japanese Patent Laid-Open No. 2003-216935 特開平11−15979号公報Japanese Patent Laid-Open No. 11-15979

しかしながら,前回の駒の被写体像において誤った検出がされてしまうとその後の駒の被写体像における検出に影響を及ぼしてしまうことがある。検出精度が低くなることがある。   However, erroneous detection in the subject image of the previous frame may affect detection in the subject image of the subsequent frame. Detection accuracy may be lowered.

この発明は,顔などの対象物の検出精度を向上させることを目的とする。   An object of the present invention is to improve the detection accuracy of an object such as a face.

この発明による対象画像の位置検出装置は,ほぼ同一と見なせる被写体を同時にまたは連続して撮像することにより得られた複数駒の被写体像のうちの第1の被写体像から対象画像が存在する第1の位置を検出する第1の検出手段,上記複数駒の被写体像のうち第2の被写体像から上記対象画像が存在する第2の位置を検出する第2の検出手段,ならびに上記第1の検出手段によって検出された第1の位置と上記第2の検出手段によって検出された第2の位置とにもとづいて,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在する位置を決定する決定手段を備えていることを特徴とする。   The target image position detection apparatus according to the present invention includes a first target image from a first subject image among a plurality of subject images obtained by simultaneously or successively capturing subjects that can be regarded as substantially the same. First detection means for detecting a position, second detection means for detecting a second position where the target image is present from a second subject image among the plurality of subject images, and the first detection means. Based on the detected first position and the second position detected by the second detecting means, the target image in at least one of the first subject image and the second subject image. It is characterized by comprising a determining means for determining the position where the sigma exists.

この発明は,上記対象画像の位置検出装置に適した方法も提供している。すなわち,この方法は,ほぼ同一と見なせる被写体を同時にまたは連続して撮像することにより得られた複数駒の被写体像のうちの第1の被写体像から対象画像が存在する第1の位置を検出し,上記複数駒の被写体像のうち第2の被写体像から上記対象画像が存在する第2の位置を検出し,検出された第1の位置と検出された第2の位置とにもとづいて,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在する位置を決定するものである。   The present invention also provides a method suitable for the position detection apparatus for the target image. That is, this method detects a first position where a target image exists from a first subject image among a plurality of subject images obtained by simultaneously or successively capturing subjects that can be regarded as substantially the same, A second position where the target image is present is detected from a second subject image among the plurality of subject images, and the first position is determined based on the detected first position and the detected second position. The position where the target image exists in at least one of the subject image and the second subject image is determined.

この発明は,上記対象画像の位置検出方法を実現するためのプログラムも提供している。さらに,そのプログラムを格納した記録媒体も提供している。   The present invention also provides a program for realizing the above-described target image position detection method. Furthermore, a recording medium storing the program is also provided.

この発明によると,ほぼ同一と見なせる被写体が同時または連続して撮像されることにより得られた複数駒の被写体像(連続して得られる被写体像とは,たとえば,プレ撮像,動画の撮像,連写,ブラケット撮像など一度の撮像シーケンスで得られる被写体像)のうちの第1の被写体像から対象画像が存在する第1の位置が検出される。また,それらの複数駒の被写体像のうちの第2の被写体像から対象画像が存在する第2の位置も検出される。   According to the present invention, a plurality of subject images obtained by imaging subjects that can be regarded as substantially the same simultaneously or successively (subject images obtained continuously include, for example, pre-imaging, video imaging, continuous shooting, etc. , The first position where the target image exists is detected from the first subject image of the subject image obtained in one imaging sequence such as bracket imaging. A second position where the target image exists is also detected from the second subject image among the subject images of the plurality of frames.

検出された第1の位置と第2の位置とにもとづいて,第1の被写体像および第2の被写体像の少なくとも一方の被写体像において対象画像が存在する位置が決定される。第1の位置と第2の位置とを比較して,対象画像が存在する位置が決定されるので,第1の被写体像において検出された第1の位置または第2の被写体像において検出された第2の位置のいずれか一方の位置にのみにもとづいて対象画像の位置を検出する場合に比べて,検出精度が向上する。比較的精度の高い検出処理を実現できる。   Based on the detected first position and second position, a position where the target image exists in at least one of the first subject image and the second subject image is determined. Since the position where the target image exists is determined by comparing the first position and the second position, the first position detected in the first subject image or the second subject image is detected. The detection accuracy is improved as compared with the case where the position of the target image is detected based on only one of the second positions. A detection process with relatively high accuracy can be realized.

ほぼ同一と見なせる被写体を同時または連続して撮像して複数駒の被写体像を表す画像データを出力する撮像装置をさらに備えてもよい。この場合,上記第1の検出手段は,上記撮像装置から出力された画像データによって表される複数駒の被写体像のうちの第1の被写体像から対象画像が存在する位置を検出するものとなり,上記第2の検出手段は,上記撮像装置から出力された画像データによって表される複数駒の被写体像のうちの第2の被写体像から対象画像が存在する位置を検出するものとなろう。   There may be further provided an image pickup apparatus that picks up images of subjects that can be regarded as substantially the same or successively and outputs image data representing a plurality of subject images. In this case, the first detection means detects a position where the target image exists from the first subject image among the plurality of subject images represented by the image data output from the imaging device. The second detection means will detect a position where the target image exists from the second subject image among the plurality of subject images represented by the image data output from the imaging device.

上記第1の検出手段と上記第2の検出手段とは共通のものでもよい。   The first detection means and the second detection means may be common.

上記第1の被写体像の大きさと上記第2の被写体像の大きさとが異なるものであり,上記第1の被写体像の大きさと上記第2の被写体像の大きさとが同じである場合における位置となるように,上記第1の検出手段によって検出された第1の位置および上記第2の検出手段によって検出された第2の位置の少なくとも一方の位置を変換する位置変換手段をさらに備えてもよい。この場合,上記決定手段は,上記位置変換手段によって変換された上記第1の位置と上記第2の位置とにもとづいて,上記対象画像が存在する位置を決定するものとなろう。   A position where the size of the first subject image is different from the size of the second subject image, and the size of the first subject image is the same as the size of the second subject image; As described above, it may further comprise position conversion means for converting at least one of the first position detected by the first detection means and the second position detected by the second detection means. . In this case, the determining means will determine the position where the target image exists based on the first position and the second position converted by the position converting means.

第1の被写体像の大きさと第2の被写体像の大きさとが異なるものであっても,第1の位置と第2の位置とにもとづいて,対象画像が存在する位置を決定できる。   Even if the size of the first subject image is different from the size of the second subject image, the position where the target image exists can be determined based on the first position and the second position.

被写体を撮像して被写体像を表す画像データを出力する撮像装置,プレ撮像指令に応じて,被写体を撮像して上記第1の被写体像を表す第1の画像データを出力するように上記撮像装置を制御する第1の撮像制御手段,および本撮像指令に応じて,被写体を撮像して上記第2の被写体像を表す第2の画像データを出力するように上記撮像装置を制御する第2の撮像制御手段をさらに備えてもよい。この場合,上記第1の検出手段は,上記第1の撮像制御手段の制御のもとに上記第1の撮像装置から出力された第1の画像データによって表される第1の被写体像の中から上記対象画像が存在する位置を検出するものとなり,上記第2の検出手段は,上記第2の撮像制御手段の制御のもとに上記第2の撮像装置から出力された第2の画像データによって表される第2の被写体像の中から上記対象画像が存在する位置を検出するものとなろう。   An imaging device that images a subject and outputs image data representing the subject image, and the imaging device that images the subject and outputs first image data representing the first subject image in response to a pre-imaging command And a second imaging control unit that controls the imaging apparatus to image a subject and output second image data representing the second subject image in response to a main imaging command. You may further provide an imaging control means. In this case, the first detection means includes a first subject image represented by the first image data output from the first imaging device under the control of the first imaging control means. From which the target image is present, and the second detection means outputs second image data output from the second imaging device under the control of the second imaging control means. The position where the target image exists is detected from the second subject image represented by

シャッタ・レリーズ・ボタンのオンに応じて本撮像が行われ,その本撮像により得られた画像データがメモリ・カードなどの記録媒体に記録されるようなディジタル・カメラなどの場合に,本撮像前の撮像(プレ撮像)により得られた第1の被写体像から得られる第1の位置と本撮像により得られた第2の被写体像から得られる第2の位置とから対象画像が存在する位置を検出することができる。   In the case of a digital camera or the like in which main imaging is performed in response to the shutter release button being turned on and image data obtained by the main imaging is recorded on a recording medium such as a memory card, the main imaging is performed. The position where the target image exists from the first position obtained from the first subject image obtained by the imaging (pre-imaging) and the second position obtained from the second subject image obtained by the main imaging. Can be detected.

上記本撮像指令に応じた撮像がストロボ発光に同期して行われるかどうかを判定する判定手段,および上記判定手段によりストロボ発光に同期して行われると判定されたことに応じて,上記決定手段における決定処理を停止して上記第2の検出手段によって検出された第2の位置を,上記対象画像が存在する位置と決定するように上記決定手段を制御する決定制御手段をさらに備えることが好ましい。   Determination means for determining whether or not imaging according to the main imaging command is performed in synchronization with strobe light emission, and the determination means when the determination means determines that the imaging is performed in synchronization with strobe light emission. It is preferable to further comprise a determination control means for controlling the determination means so as to determine the second position detected by the second detection means and the position where the target image exists, by stopping the determination processing in .

本撮像がストロボ発光に同期して行われる場合には,プレ撮像により得られた第1の被写体像は暗い場合がある。これに対して,ストロボ発光に同期して撮像されることにより得られた第2の被写体像は,比較的適正な明るさをもつものであるために,比較的正確に対象画像が検出されることが多い。ところが,第1の被写体像は暗いために対象画像が検出されないことがある。第1の被写体像から得られる第1の位置と第2の被写体像から得られる第2の位置とを比較しても対象画像が存在する位置を決定できない場合があるので,決定処理が停止される。ストロボ発光に同期して得られる第2の被写体像から得られる第2の位置が,対象画像が存在する位置と決定されるようになる。誤検出を未然に防止できる。   When the main imaging is performed in synchronization with the strobe light emission, the first subject image obtained by the pre-imaging may be dark. On the other hand, since the second subject image obtained by imaging in synchronization with the flash emission has a relatively appropriate brightness, the target image is detected relatively accurately. There are many cases. However, the target image may not be detected because the first subject image is dark. Since the position where the target image exists may not be determined even by comparing the first position obtained from the first subject image and the second position obtained from the second subject image, the determination process is stopped. The The second position obtained from the second subject image obtained in synchronization with the flash emission is determined as the position where the target image exists. False detection can be prevented beforehand.

上記第1の撮像制御手段における制御にもとづいて上記撮像装置から出力される第1の画像データにもとづいて上記撮像装置の露出量を調整する露出量調整手段をさらに備えてもよい。この場合,上記第2の撮像制御手段における制御は,上記露出量調整手段によって調整された露出量にもとづいて本撮像指令に応じて上記撮像装置から上記第2の画像データを出力させるものとなろう。そして,上記第1の撮像制御手段によって制御される上記撮像装置の露出量がしきい値以下かどうかを判定する判定手段,および上記判定手段によって,しきい値以下と判定されたことに応じて,上記決定手段における決定処理を停止して上記第2の検出手段によって検出された第2の位置を,上記対象画像が存在する位置と決定するように上記決定手段を制御する決定制御手段をさらに備える。   You may further provide the exposure amount adjustment means which adjusts the exposure amount of the said imaging device based on the 1st image data output from the said imaging device based on the control in a said 1st imaging control means. In this case, the control in the second imaging control unit causes the second image data to be output from the imaging device in response to the imaging command based on the exposure amount adjusted by the exposure amount adjustment unit. Let's go. And according to the determination means for determining whether or not the exposure amount of the image pickup apparatus controlled by the first image pickup control means is less than or equal to the threshold value, and the determination means determines that the exposure value is less than or equal to the threshold value A decision control means for controlling the decision means so as to decide the second position detected by the second detection means as the position where the target image exists, by stopping the decision process in the decision means; Prepare.

露出量がしきい値以下と判定された場合も上記ストロボ発光についての処理と同様に,第1の位置についての信頼性が少ない。このために,第2の位置が,対象画像が存在する位置と決定される。   Even when it is determined that the exposure amount is equal to or less than the threshold value, the reliability of the first position is low as in the processing for the strobe light emission. For this reason, the second position is determined as the position where the target image exists.

上記決定手段は,たとえば,上記第1の検出手段によって検出された第1の位置と上記第2の検出手段によって検出された第2の位置との変動量が所定のしきい値以上の場合に,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在しないと決定するものである。変動量がしきい値以上の場合には,異なる対象画像または誤検出であると考えられるので,対象画像が存在しないと決定される。   For example, the determining means is configured when the amount of variation between the first position detected by the first detecting means and the second position detected by the second detecting means is equal to or greater than a predetermined threshold value. , It is determined that the target image does not exist in at least one of the first subject image and the second subject image. If the fluctuation amount is equal to or greater than the threshold value, it is considered that there is a different target image or false detection, and therefore it is determined that there is no target image.

上記第1の検出手段は,ほぼ同一と見なせる被写体を時間的に連続して複数回撮像することにより得られた複数駒の被写体像のうちの第1番目の撮像により得られた第1の被写体像から対象画像が存在する第1の位置を検出するものでもよい。この場合,上記第2の検出手段は,上記複数駒の被写体像のうちの第2番目の撮像により得られた第2の被写体像から対象画像が存在する第2の位置を検出するものとなる。そして,上記複数駒の被写体像のうちの第3番目の撮像により得られた第3の被写体像から対象画像が存在する第3の位置を検出する第3の検出手段をさらに備える。さらに,上記決定手段は,上記第1の検出手段によって検出された第1の位置,上記第2の検出手段によって検出された第2の位置および上記第3の検出手段によって検出された第3の位置にもとづいて上記第1の被写体像,上記第2の被写体像および上記第3の被写体像のうち少なくとも一つの被写体像において上記対象画像が存在する位置を決定するものとなろう。   The first detection means includes a first subject image obtained by first imaging among a plurality of subject images obtained by imaging a subject that can be regarded as substantially the same multiple times in succession in time. Alternatively, the first position where the target image exists may be detected. In this case, the second detection means detects the second position where the target image exists from the second subject image obtained by the second imaging among the subject images of the plurality of frames. The apparatus further includes third detection means for detecting a third position where the target image is present from a third subject image obtained by third imaging among the subject images of the plurality of frames. Further, the determination means includes a first position detected by the first detection means, a second position detected by the second detection means, and a third position detected by the third detection means. Based on the position, the position where the target image exists in at least one of the first subject image, the second subject image, and the third subject image will be determined.

第1の被写体像,第2の被写体像および第3の被写体像のうち,何らかの理由により第2の被写体像において対象画像が検出できなかった場合に,第1の被写体像,第2の被写体像および第3の被写体像の3駒の被写体像を用いて,対象画像を検出することができるようになる。対象画像が存在するにもかかわらず,その対象画像が見つけられない場合を回避できる。   Of the first subject image, the second subject image, and the third subject image, when the target image cannot be detected in the second subject image for some reason, the first subject image and the second subject image The target image can be detected using the three subject images of the third subject image. Even when the target image exists, the case where the target image cannot be found can be avoided.

上記決定手段は,上記第3の検出手段によって検出された第3の位置のうち,上記第2の検出手段によって検出された第2の位置に対応するものが存在しない第3の位置と,上記第1の検出手段によって検出された第1の位置のうち,上記第2の検出手段によって検出された第2の位置と上記第3の検出手段によって検出された第3の位置との両方に対応するものが存在しない第1の位置とにもとづいて,上記第3の被写体像において上記対象画像が存在する位置を決定するものでもよい。   The determining means includes a third position in which there is no third position detected by the third detecting means corresponding to the second position detected by the second detecting means; Corresponding to both the second position detected by the second detection means and the third position detected by the third detection means among the first positions detected by the first detection means The position where the target image exists in the third subject image may be determined based on the first position where there is no such object.

被写体を撮像することにより上記第1の被写体像を表す第1の画像データを出力する第1の撮像装置,および被写体を撮像することにより上記第2の被写体像を表す第2の画像データを出力する第2の撮像装置をさらに備えてもよい。この場合,上記第1の検出手段は,上記第1の撮像装置から出力された第1の画像データによって表される第1の被写体像から対象画像が存在する位置を検出するものとなろう。また,上記第2の検出手段は,上記第2の撮像装置から出力された第2の画像データによって表される第2の被写体像から対象画像が存在する位置を検出するものとなろう。   A first imaging device that outputs first image data representing the first subject image by imaging the subject, and second image data representing the second subject image by imaging the subject. You may further provide the 2nd imaging device to do. In this case, the first detection means will detect the position where the target image exists from the first subject image represented by the first image data output from the first imaging device. Further, the second detection means will detect a position where the target image exists from the second subject image represented by the second image data output from the second imaging device.

第1の撮像装置と第2の撮像装置とは同じ筐体に内蔵されていてもよいし,異なる筐体に内蔵されていてもよい。   The first imaging device and the second imaging device may be built in the same housing or may be built in different housings.

上記第1の撮像装置と上記第2の撮像装置とは同じまたは異なる撮像範囲をもつものでもよい。   The first imaging device and the second imaging device may have the same or different imaging ranges.

上記第1の検出手段は,たとえば,上記第1の被写体像から対象画像らしさの値にもとづいて対象画像が存在する第1の位置を検出するものである。また,上記第2の検出手段も,たとえば,上記第2の被写体像から対象画像らしさの値にもとづいて対象画像が存在する第2の位置を検出するものである。この場合,上記決定手段は,上記第1の検出手段において検出された対象画像の対象画像らしさの値と上記第2の検出手段において検出された対象画像の対象画像らしさの値とにもとづいて,対象画像の存在する位置を決定するものとなろう。   The first detection means detects, for example, a first position where the target image exists from the first subject image based on the value of the target image likelihood. The second detection means also detects, for example, the second position where the target image exists from the second subject image based on the target image likelihood value. In this case, the determining means is based on the target image likelihood value of the target image detected by the first detection means and the target image likelihood value of the target image detected by the second detection means, The position where the target image exists will be determined.

受光面上に複数色の色フィルタが規則的に設けられており,被写体を撮像することによりカラーの被写体像を表す複数色のカラー画像データを出力する単板の固体電子撮像装置をさらに備えてもよい。この場合,上記第1の被写体像は,上記単板の固体電子撮像装置から出力された上記複数色のカラー画像データのうち一色のカラー画像データによって表され,上記第2の被写体像は,上記複数色のカラー画像データのうち上記一色のカラー画像データとは異なる色のカラー画像データによって表される。   A color filter of a plurality of colors is regularly provided on the light receiving surface, and further includes a single-plate solid-state electronic imaging device that outputs a plurality of color image data representing a color subject image by imaging the subject. Also good. In this case, the first subject image is represented by one color image data among the plurality of color image data output from the single-plate solid-state electronic imaging device, and the second subject image is It is represented by color image data of a color different from the color image data of one color among the color image data of a plurality of colors.

受光面上に異なる色の色フィルタが設けられている複数の固体電子撮像素子を含み,被写体を撮像することにより異なる色の種類のカラー画像データを出力する固体電子撮像装置をさらに備えてもよい。この場合,上記第1の被写体像は,上記固体電子撮像装置から出力された上記カラー画像データのうちの一種類のカラー画像データによって表され,上記第2の被写体像は,上記カラー画像データのうち上記一種類のカラー画像データとは異なる種類のカラー画像データによって表されるものとなろう。   It may further include a solid-state electronic imaging device that includes a plurality of solid-state electronic imaging elements provided with color filters of different colors on the light-receiving surface, and outputs color image data of different color types by imaging the subject. . In this case, the first subject image is represented by one type of color image data among the color image data output from the solid-state electronic imaging device, and the second subject image is the color image data. Of these, the one type of color image data will be represented by a different type of color image data.

被写体を撮像することにより上記第1の被写体像を可視光像として表す可視光画像データを出力する可視光センサ,および被写体を撮像することにより上記第2の被写体像を赤外光像として表す赤外光画像データを出力する赤外光センサをさらに備えてもよい。この場合,上記第1の検出手段は,上記可視光センサから出力された可視光画像データによって表される第1の被写体像から上記対象画像が存在する位置を検出するものであり,上記第2の検出手段は,上記赤外光センサから出力された赤外光画像データによって表される複数駒の被写体像のうちの第2の被写体像から上記対象画像が存在する位置を検出するものとなろう。   A visible light sensor that outputs visible light image data that represents the first subject image as a visible light image by capturing the subject, and a red that represents the second subject image as an infrared light image by capturing the subject. An infrared light sensor that outputs external light image data may be further provided. In this case, the first detection means detects a position where the target image exists from a first subject image represented by visible light image data output from the visible light sensor, and the second detection means. The detecting means detects a position where the target image exists from a second subject image among a plurality of subject images represented by infrared light image data output from the infrared light sensor. .

受光面上に可視光フィルタ(可視光を透過する特性をもつフィルタ)と赤外光フィルタ(赤外線を透過する特性をもつフィルタ)とが含まれており,被写体像を撮像することにより第1の被写体像を可視光像として表す可視光画像データを出力し,かつ第2の被写体像を赤外光像として表す赤外光像画像データを出力する可視光/赤外光固体電子撮像装置をさらに備えてもよい。この場合,上記第1の検出手段は,上記可視光/赤外光固体電子撮像装置から出力された可視光画像データによって表される第1の被写体像から対象画像が存在する位置を検出するものであり,上記第2の検出手段は,上記可視光/赤外光固体電子撮像装置から出力された赤外光画像データによって表される第2の被写体像から対象画像が存在する位置を検出するものとなろう。   On the light receiving surface, a visible light filter (a filter having a characteristic of transmitting visible light) and an infrared light filter (a filter having a characteristic of transmitting infrared light) are included. A visible light / infrared light solid-state electronic imaging device that outputs visible light image data that represents a subject image as a visible light image and that outputs infrared light image data that represents a second subject image as an infrared light image. You may prepare. In this case, the first detection means detects a position where the target image exists from the first subject image represented by the visible light image data output from the visible light / infrared light solid-state electronic imaging device. The second detection means detects a position where the target image exists from the second subject image represented by the infrared light image data output from the visible light / infrared light solid-state electronic imaging device. It will be a thing.

一定周期で被写体を撮像して,第1フィールドの被写体像を表す第1の画像データと第2フィールドの被写体像を表す第2の画像データとを交互に出力する撮像装置をさらに備えてもよい。この場合,上記第1の検出手段は,上記撮像装置から出力された第1フィールドの画像データによって表される第1のフィールドの被写体像から上記対象画像が存在する位置を検出するものであり,上記第2の検出手段は,上記撮像装置から出力された第2フィールドの画像データによって表される第2の被写体像から上記対象画像が存在する位置を検出するものとなろう。   There may be further provided an imaging device that images the subject at a fixed period and alternately outputs the first image data representing the subject image of the first field and the second image data representing the subject image of the second field. . In this case, the first detection means detects a position where the target image exists from the subject image of the first field represented by the image data of the first field output from the imaging device, The second detection means will detect the position where the target image exists from the second subject image represented by the image data of the second field output from the imaging device.

上記撮像装置は,たとえば,ほぼ同一と見なせる被写体を,撮像条件を変更して同時または連続して撮像して複数駒の被写体像を表す画像データを出力するものである。   The imaging device, for example, captures subjects that can be regarded as being substantially the same, changes the imaging conditions, and simultaneously or successively images them, and outputs image data representing a plurality of frames of subject images.

上記撮像条件の変更は,たとえば,露出量,絞り値,シャッタ速度,フォーカス量,ズーム量,感度およびフラッシュ変更の少なくとも一つである。   The change in the imaging condition is, for example, at least one of exposure amount, aperture value, shutter speed, focus amount, zoom amount, sensitivity, and flash change.

被写体を撮像して一駒の被写体像を表す画像データに異なる信号処理を行う信号処理手段をさらに備えてもよい。この場合,上記第1の検出手段は,上記信号処理手段によって行われた信号処理のうち一の信号処理が行われた画像データによって表される第1の被写体像から上記対象画像が存在する位置を検出するものでもよい。この場合,上記第2の検出手段は,上記信号処理手段によって行われた信号処理のうち一の信号処理とは異なる他の信号処理が行われた画像データによって表される第2の被写体像から上記対象画像が存在する位置を検出するものとなろう。異なる信号処理が行われたことにより得られる第1の被写体像と第2の被写体像とから第1の位置と第2の位置とを検出できる。   You may further provide the signal processing means which image | photographs a to-be-photographed object and performs a different signal process to the image data showing the object image of one frame. In this case, the first detection unit is a position where the target image exists from the first subject image represented by the image data on which one of the signal processing performed by the signal processing unit is performed. May be detected. In this case, the second detection means is based on the second subject image represented by the image data subjected to another signal processing different from the one signal processing among the signal processing performed by the signal processing means. The position where the target image exists will be detected. The first position and the second position can be detected from the first subject image and the second subject image obtained by performing different signal processing.

上記決定手段は,上記第1の検出手段によって検出された第1の位置のうち,上記第2の検出手段によって検出された第2の位置に対応するものが存在する第1の位置近傍の位置を上記被写体像において上記対象画像が存在する位置と決定するものでもよい。   The determining means is a position in the vicinity of the first position where there is a first position detected by the first detecting means corresponding to the second position detected by the second detecting means. May be determined as a position where the target image exists in the subject image.

上記決定手段によって決定された上記対象画像の存在位置にもとづいて,ハードウエア制御を行うハードウエア制御手段をさらに備えてもよい。   Hardware control means for performing hardware control based on the location of the target image determined by the determination means may be further provided.

上記ハードウエア制御は,たとえば,自動露出制御,自動合焦制御,フラッシュ制御,省電力制御およびズーム量制御の少なくとも一つである。   The hardware control is, for example, at least one of automatic exposure control, automatic focusing control, flash control, power saving control, and zoom amount control.

上記決定手段において決定された上記対象画像の存在位置にもとづいて,信号処理を行う信号処理手段をさらに備えてもよい。検出された位置に存在する対象画像を対象として所定の信号処理を行うことができる。   You may further provide the signal processing means which performs a signal processing based on the presence position of the said target image determined in the said determination means. Predetermined signal processing can be performed on the target image existing at the detected position.

上記信号処理手段は,たとえば,ゲイン調整,白バランス調整,色補正,輪郭強調,ノイズ低減および階調補正の少なくとも一つの信号処理を行うものである。   The signal processing means performs at least one signal processing of, for example, gain adjustment, white balance adjustment, color correction, contour enhancement, noise reduction, and gradation correction.

上記対象画像は,たとえば,顔または目の画像である。   The target image is, for example, a face or eye image.

ディジタル・スチル・カメラの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a digital still camera. 被写体像等の一例である。It is an example of a subject image. (N−1)駒目の被写体像の顔検出結果を示している。(N-1) The face detection result of the subject image of the frame is shown. N駒目の被写体像顔検出結果を示している。The subject image face detection result of the Nth frame is shown. 照合結果の一例である。It is an example of a collation result. 顔画像検出処理手順を示すフローチャートである。It is a flowchart which shows a face image detection process procedure. スルー画像,本撮像画像等を示している。A through image, a real captured image, and the like are shown. 顔画像検出処理手順を示すフローチャートである。It is a flowchart which shows a face image detection process procedure. 顔画像検出処理手順を示すフローチャートである。It is a flowchart which shows a face image detection process procedure. (A)〜(D)は,顔画像領域の変動の一例である。(A)-(D) are an example of the fluctuation | variation of a face image area | region. リンク付けの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of linking. 被写体像等の一例である。It is an example of a subject image. 顔画像検出処理手順を示すフローチャートである。It is a flowchart which shows a face image detection process procedure. 顔画像検出処理手順を示すフローチャートである。It is a flowchart which shows a face image detection process procedure. 被写体と撮像装置との関係を示している。The relationship between a subject and an imaging device is shown. 被写体像等の一例である。It is an example of a subject image. 顔画像検出処理手順を示すフローチャートである。It is a flowchart which shows a face image detection process procedure. 顔画像検出処理手順を示すフローチャートである。It is a flowchart which shows a face image detection process procedure. (A)および(B)は,被写体像の一例である。(A) and (B) are examples of subject images. (A)〜(C)は,被写体像の一例である。(A) to (C) are examples of subject images. (A)および(B)は,合成画像の一例である。(A) and (B) are examples of a composite image. 合成画像の一例である。It is an example of a synthesized image. 単板の撮像素子の受光面の一例である。It is an example of the light-receiving surface of a single-plate image sensor. (A)〜(C)は,単色の被写体像の一例である。(A)-(C) are examples of a monochromatic subject image. (A)〜(C)は,補間された単色の被写体像の一例である。(A)-(C) are examples of a monochromatic subject image that has been interpolated. (A)〜(C)は,三板の固体電子撮像素子の受光面を示している。(A)-(C) have shown the light-receiving surface of the three-plate solid-state electronic image sensor. (A)は,可視光センサの受光面を,(B)は,赤外センサの受光面を示している。(A) shows the light receiving surface of the visible light sensor, and (B) shows the light receiving surface of the infrared sensor. 可視光/赤外センサの受光面を示している。The light-receiving surface of a visible light / infrared sensor is shown. フィールド画像の読み出しおよび顔画像検出処理手順を示すタイム・チャートである。It is a time chart which shows the reading process of a field image, and a face image detection processing procedure. フィールド画像の読み出しおよび顔画像検出処理手順を示すタイム・チャートである。It is a time chart which shows the reading process of a field image, and a face image detection processing procedure. フィールド画像の読み出しおよび顔画像検出処理手順を示すタイム・チャートである。It is a time chart which shows the reading process of a field image, and a face image detection processing procedure. 顔画像領域の検出処理手順を示すフローチャートである。It is a flowchart which shows the detection process procedure of a face image area | region. 被写体像の一例である。It is an example of a to-be-photographed image. 被写体像の一例である。It is an example of a to-be-photographed image. 被写体像の一例である。It is an example of a to-be-photographed image. 顔画像領域検出処理手順を示すフローチャートである。It is a flowchart which shows a face image area | region detection processing procedure. 自動露出制御処理を示すフローチャートである。It is a flowchart which shows an automatic exposure control process. 自動露出制御処理を示すフローチャートである。It is a flowchart which shows an automatic exposure control process. 自動合焦制御処理を示すフローチャートである。It is a flowchart which shows an automatic focusing control process. 自動合焦制御処理を示すフローチャートである。It is a flowchart which shows an automatic focusing control process. 階調補正処理を示すフローチャートである。It is a flowchart which shows a gradation correction process. 階調補正処理を示すフローチャートである。It is a flowchart which shows a gradation correction process. 色補正処理手順を示すフローチャートである。It is a flowchart which shows a color correction process procedure. 色補正処理手順を示すフローチャートである。It is a flowchart which shows a color correction process procedure.

図1は,この発明の実施例を示すもので,ディジタル・スチル・カメラの電気的構成を示すブロック図である。   FIG. 1 shows an embodiment of the present invention and is a block diagram showing an electrical configuration of a digital still camera.

ディジタル・スチル・カメラの全体の動作は,制御回路2によって統括される。制御回路2には,CPU3,後述する動作が行われる動作プログラム等が格納されているROM4,データ等が一時的に記憶されるRAM5が含まれている。ディジタル・スチル・カメラに通信機能を設け,送信された動作プログラムを受信することにより,後述する動作を行わせるようにすることもできる。もちろん,メモリ・カードに動作プログラムが格納できれば,そのメモリ・カードから動作プログラムを読み取り,ディジタル・スチル・カメラに動作プログラムをインストールすることもできる。   The overall operation of the digital still camera is controlled by the control circuit 2. The control circuit 2 includes a CPU 3, a ROM 4 in which an operation program for performing an operation described later is stored, and a RAM 5 in which data and the like are temporarily stored. It is also possible to provide a digital still camera with a communication function and receive the transmitted operation program to perform the operation described later. Of course, if the operation program can be stored in the memory card, the operation program can be read from the memory card and installed in the digital still camera.

ディジタル・スチル・カメラには,シャッタ・レリーズ・ボタン,モード設定スイッチなどの操作ボタン1が含まれている。この操作ボタン1から出力される操作信号は,制御回路2に入力する。また,ディジタル・スチル・カメラには,ストロボ制御回路6によって制御されるストロボ発光装置7が設けられている。   The digital still camera includes operation buttons 1 such as a shutter release button and a mode setting switch. An operation signal output from the operation button 1 is input to the control circuit 2. The digital still camera is provided with a strobe light emitting device 7 controlled by a strobe control circuit 6.

モード設定スイッチにより撮像モードが設定されると,レンズ駆動回路11によって制御される撮像レンズ8により光線束が集光され,絞り駆動回路12によって制御される絞り9を介して撮像素子10の受光面上に入射する。撮像素子10の受光面に被写体像が結像する。撮像素子10が撮像素子制御回路13によって制御され,一定の撮像周期(プレ撮像)で被写体像を表す映像信号(いわゆるスルー画を示すスルー画像信号)がアナログ信号処理回路14に入力する。アナログ信号処理回路14において,相関二重サンプリングなどの所定のアナログ信号処理が行われる。アナログ信号処理回路14から出力された映像信号は,アナログ/ディジタル信号処理回路においてディジタル画像データに変換されてディジタル信号処理回路16に入力する。ディジタル信号処理回路16において,ガンマ補正,白バランス調整などの所定の信号処理が行われる。ディジタル信号処理回路16から出力された画像データはメモリ18を介して表示装置19に与えられる。表示装置19の表示画面に,撮像された被写体像が表示される。   When the imaging mode is set by the mode setting switch, the light beam is condensed by the imaging lens 8 controlled by the lens driving circuit 11, and the light receiving surface of the imaging element 10 is passed through the diaphragm 9 controlled by the diaphragm driving circuit 12. Incident on top. A subject image is formed on the light receiving surface of the image sensor 10. The image sensor 10 is controlled by the image sensor control circuit 13, and a video signal representing a subject image (a so-called through image signal indicating a through image) is input to the analog signal processing circuit 14 at a constant imaging cycle (pre-imaging). In the analog signal processing circuit 14, predetermined analog signal processing such as correlated double sampling is performed. The video signal output from the analog signal processing circuit 14 is converted into digital image data in the analog / digital signal processing circuit and input to the digital signal processing circuit 16. In the digital signal processing circuit 16, predetermined signal processing such as gamma correction and white balance adjustment is performed. The image data output from the digital signal processing circuit 16 is given to the display device 19 via the memory 18. The captured subject image is displayed on the display screen of the display device 19.

シャッタ・レリーズ・ボタンが押されると,上述のようにしてディジタル信号処理回路16から出力された画像データはメモリ18に与えられ,一時的に記憶される。画像データがメモリ18から出力されてメモリ・カード20に記録される。   When the shutter release button is pressed, the image data output from the digital signal processing circuit 16 as described above is given to the memory 18 and temporarily stored. Image data is output from the memory 18 and recorded on the memory card 20.

この実施例によるディジタル・スチル・カメラにおいては,被写体像の中から顔画像の領域を検出することができる。このために,ディジタル・スチル・カメラには,顔検出処理回路17が設けられている。上述のようにしてディジタル信号処理回路16から出力された画像データは,この顔検出処理回路17にも入力する。顔検出処理回路17において後述のようにして顔画像の部分を示す領域が検出される。   In the digital still camera according to this embodiment, a face image area can be detected from a subject image. For this purpose, a face detection processing circuit 17 is provided in the digital still camera. The image data output from the digital signal processing circuit 16 as described above is also input to the face detection processing circuit 17. In the face detection processing circuit 17, a region indicating a face image portion is detected as described later.

この実施例においては,少なくとも二駒の被写体像が利用される。それぞれの駒の被写体像において顔画像部分の検出処理が行われる。それぞれの駒の被写体像において検出された顔画像部分の領域にもとづいて,顔画像部分の領域が決定される。   In this embodiment, at least two frames of the subject image are used. A face image portion detection process is performed on the subject image of each frame. The area of the face image portion is determined based on the area of the face image portion detected in the subject image of each frame.

図2は,この実施例による顔画像領域の検出処理を説明するためのもので,被写体像の一例である。   FIG. 2 is an example of a subject image for explaining the face image area detection processing according to this embodiment.

上述のように,撮像モードが設定されると一定周期で被写体が繰返して撮像され,(N−1)駒目の被写体像α1とN駒目の被写体像α2が得られる。これらの二駒の被写体像α1およびα2のそれぞれにおいて顔画像を検出する処理が行われる。たとえば,(N−1)駒目の被写体像α1には人物像S1が含まれており,顔画像検出処理が行われることにより,顔画像の領域C1が検出される。N駒目の被写体像α2には,人物像S2が含まれており,顔画像領域C2が検出される。この顔画像領域C2は,(N−1)駒目の被写体像α1において検出された顔画像領域C1に対応する位置にあると考えられるもので,この実施例においては,領域C2は,領域C1にリンク付けがされたものと規定される。また,N駒目の被写体像α2においては,顔検出処理において顔画像領域C3も検出される。この顔画像領域C3は,(N−1)駒目の被写体像α1においては対応する領域が検出されなかったもので,リンク付けがされていないとされる。   As described above, when the imaging mode is set, the subject is repeatedly imaged at a constant period, and the (N-1) th frame subject image α1 and the Nth frame subject image α2 are obtained. A process of detecting a face image in each of the two frames of the subject images α1 and α2 is performed. For example, the subject image α1 of the (N−1) th frame includes the person image S1, and the face image area C1 is detected by performing the face image detection process. The N-th subject image α2 includes a person image S2, and a face image area C2 is detected. The face image area C2 is considered to be at a position corresponding to the face image area C1 detected in the subject image α1 of the (N-1) th frame. In this embodiment, the area C2 is the area C1. Stipulated as being linked to. Further, in the subject image α2 of the Nth frame, the face image area C3 is also detected in the face detection process. The face image area C3 is the area where the corresponding area is not detected in the subject image α1 of the (N−1) th frame, and is not linked.

この実施例においては,(N−1)駒目の被写体像α1における顔画像の検出結果とN駒目の被写体像α2における顔画像の検出結果との照合処理が行われる。そして,N駒目の被写体像α2における顔画像の検出領域は,リンク付けのある領域とされる。したがって,N駒目の被写体像α2においては,リンク付けの無い領域C3は顔画像領域とはされず,リンク付けのある領域C2が顔画像の領域として決定される。   In this embodiment, a collation process is performed between the detection result of the face image in the (N-1) th frame subject image α1 and the detection result of the face image in the Nth frame subject image α2. The detection area of the face image in the N-th frame subject image α2 is a linked area. Therefore, in the subject image α2 of the Nth frame, the unlinked area C3 is not set as the face image area, and the linked area C2 is determined as the face image area.

また,この実施例においては,顔画像領域は,上下についても検出される。図2においては,検出された顔画像の領域C1〜C3において,顔画像の上の部分が他の部分よりも太く示されている。   In this embodiment, the face image area is also detected from the top and bottom. In FIG. 2, in the areas C1 to C3 of the detected face image, the upper part of the face image is shown thicker than the other parts.

図3は(N−1)駒目の被写体像α1の顔検出結果を,図4はN駒目の被写体像α2の顔検出結果をそれぞれ示している。   FIG. 3 shows the face detection result of the subject image α1 of the (N−1) th frame, and FIG. 4 shows the face detection result of the subject image α2 of the Nth frame.

顔検出処理においては,検出された顔の画像領域の個数,検出された顔画像の領域のナンバを示す顔ナンバ,顔画像領域の位置,顔画像領域の大きさ,顔画像領域の面内回転角,顔画像領域の面外回転角およびスコアが検出される。これらの顔の画像領域の個数等が顔検出結果として,被写体像に対応して格納される。顔検出結果として得られる面内回転角とは,顔が正面を向いている場合における顔の傾き角である。面外回転角とは,顔が正面を向いている場合を基準として,その顔が横を向く場合の角度である。   In face detection processing, the number of detected face image areas, the face number indicating the number of detected face image areas, the position of the face image area, the size of the face image area, and the in-plane rotation of the face image area A corner, an out-of-plane rotation angle of the face image area, and a score are detected. The number of face image areas and the like are stored as face detection results corresponding to the subject image. The in-plane rotation angle obtained as a face detection result is the tilt angle of the face when the face is facing the front. The out-of-plane rotation angle is an angle when the face faces sideways with respect to the case where the face faces the front.

図5は,照合結果を示している。   FIG. 5 shows the collation result.

上述のように,(N−1)駒目の被写体像α1の顔画像の検出結果とN駒目の被写体像α2の顔画像の検出結果とが照合される。照合された結果,上述のようにリンク付けのある領域に対応する顔ナンバ,位置および大きさが照合結果テーブルに格納される。   As described above, the detection result of the face image of the subject image α1 of the (N−1) th frame is collated with the detection result of the face image of the subject image α2 of the Nth frame. As a result of the collation, the face number, position, and size corresponding to the linked area as described above are stored in the collation result table.

図6は,顔画像領域の決定処理手順を示すフローチャートである。   FIG. 6 is a flowchart showing the procedure for determining the face image area.

上述のように撮像モードが設定されると一定周期で被写体が撮像され,特定の一駒の被写体像が得られる(ステップ31)。得られた一駒の被写体像において顔検出処理が行われ(ステップ32),その顔検出結果が登録される(ステップ33)。   When the imaging mode is set as described above, the subject is imaged at a constant period, and a specific one-frame subject image is obtained (step 31). Face detection processing is performed on the obtained one-frame subject image (step 32), and the face detection result is registered (step 33).

前回(前駒)の顔検出結果が登録されていなければ(ステップ34でNO),ステップ31からの処理が繰返される。   If the previous (previous frame) face detection result is not registered (NO in step 34), the processing from step 31 is repeated.

前回の顔検出結果が登録されていれば(ステップ34でYES),上述のように,前回の顔検出結果と今回の顔検出結果との照合処理が行われる(ステップ35)。照合処理の結果にもとづいて,上述のようにリンク付けされる顔画像検出領域を表す照合結果が登録される(ステップ36)。照合結果に登録された情報により特定される顔画像領域が今回の被写体像の顔画像領域として決定される。   If the previous face detection result is registered (YES in step 34), as described above, the collation process between the previous face detection result and the current face detection result is performed (step 35). Based on the result of the collation process, a collation result representing the face image detection area to be linked as described above is registered (step 36). The face image area specified by the information registered in the collation result is determined as the face image area of the current subject image.

ユーザからの終了指令があるまでステップ31からの処理が繰返される(ステップ37)。   The processing from step 31 is repeated until there is a termination command from the user (step 37).

今回の顔画像検出処理において検出された顔画像領域に対応する顔画像領域が,前回の顔画像検出処理において検出されていた場合に,今回の被写体像における顔画像領域として決定しているので,今回と前回とも検出されなければ顔画像領域とは決定されない。誤って今回の被写体像から顔画像領域が検出されてしまったような領域は,顔画像領域からは排除されるので,顔画像領域の検出精度が向上する。もちろん,前回の顔画像検出処理において検出された顔画像領域に対応する顔画像領域が今回の顔画像検出処理においても検出された場合に,その顔画像検出領域を前回の被写体像における顔画像検出領域として決定してもよいのはいうまでもない。   When the face image area corresponding to the face image area detected in the current face image detection process has been detected in the previous face image detection process, it is determined as the face image area in the current subject image. The face image area is not determined unless both the current and previous detections are detected. Since the area in which the face image area is erroneously detected from the current subject image is excluded from the face image area, the detection accuracy of the face image area is improved. Of course, if a face image area corresponding to the face image area detected in the previous face image detection process is also detected in the current face image detection process, the face image detection area is detected as the face image detection in the previous subject image. Needless to say, it may be determined as a region.

図7および図8は,他の実施例を示すものである。   7 and 8 show another embodiment.

この実施例においては,いわゆるスルー画像(プレ撮像時の画像)と本撮像画像(シャッタ・レリーズ・ボタンが全押しされた後に撮像された画像)との検出結果の照合処理が行われる。また,本撮像画像は高解像度であり,そのサイズ(データ量,画像の大きさ)が大きいのに対して,スルー画像は,比較的低解像度であり,そのサイズは小さい。このために,この実施例においては,座標変換が行われスルー画像のサイズと本撮像画像のサイズとが同じとなるように座標変換処理が行われる。サイズが同じとなったスルー画像と本撮像画像とが検出結果の照合処理が行われる。   In this embodiment, a collation process of a detection result between a so-called through image (image at the time of pre-imaging) and a main captured image (image captured after the shutter release button is fully pressed) is performed. In addition, the captured image has a high resolution and a large size (data amount, image size), whereas a through image has a relatively low resolution and a small size. For this reason, in this embodiment, coordinate conversion is performed, and coordinate conversion processing is performed so that the size of the through image is the same as the size of the actual captured image. The through image having the same size and the actual captured image are collated with the detection result.

図7を参照して,スルー画像α4が得られる。このスルー画像α4には,人物像S4が含まれており,顔画像検出処理が行われることにより,顔画像領域C4が検出される。また,本撮像が行われて,本撮像画像α6が得られる。スルー画像α4の大きさと本撮像画像α6の大きさとは異なるから,スルー画像α4の大きさが本撮像画像α6の大きさと同じ大きさとなるように,スルー画像α4が座標変換される。スルー画像α4が座標変換されることにより,本撮像画像α6の大きさと同じ大きさをもつスルー画像α5が得られる。   Referring to FIG. 7, a through image α4 is obtained. The through image α4 includes a person image S4, and a face image region C4 is detected by performing face image detection processing. Further, the actual imaging is performed, and the actual captured image α6 is obtained. Since the size of the through image α4 is different from the size of the main captured image α6, the through image α4 is coordinate-transformed so that the through image α4 has the same size as the main captured image α6. By converting the through image α4, a through image α5 having the same size as the actual captured image α6 is obtained.

座標変換されたスルー画像α5にも人物像S5が含まれており,顔画像検出処理が行われることにより顔画像領域C5が検出される。また,本撮像画像α6にも人物像S6が含まれており,顔画像検出処理が行われることにより,顔画像領域C6が検出される。また,顔画像領域C6以外の顔画像領域C7も検出されたものとする。座標変換されたスルー画像α5における検出結果と本撮像画像α6における検出結果とが照合されることにより,本撮像画像α6における顔画像領域が領域C6に決定されることは理解できよう。   The person image S5 is also included in the coordinate-converted through image α5, and the face image region C5 is detected by performing the face image detection process. The captured image α6 also includes the person image S6, and the face image area C6 is detected by performing the face image detection process. It is also assumed that a face image area C7 other than the face image area C6 has been detected. It can be understood that the face image region in the main captured image α6 is determined as the region C6 by collating the detection result in the through image α5 subjected to coordinate conversion and the detection result in the main captured image α6.

上述の例では,スルー画像α4の大きさを本撮像画像α6の大きさに合わせているが,本撮像画像α6の大きさをスルー画像α4の大きさに合わせてもよいのはいうまでもない。   In the above example, the size of the through image α4 is adjusted to the size of the main captured image α6. However, it is needless to say that the size of the main captured image α6 may be adjusted to the size of the through image α4. .

図8は,スルー画像と本撮像画像とから顔画像領域を決定する処理手順を示すフローチャートである。   FIG. 8 is a flowchart showing a processing procedure for determining a face image area from the through image and the main captured image.

撮像モードが設定されてプレ撮像によりスルー画像が得られると,そのスルー画像の顔検出処理が行われる(ステップ41)。スルー画像は,一定周期で得られるから,その一定周期で得られたスルー画像ごとに顔検出処理が行われる。顔検出処理において得られた顔検出結果が更新されながら登録される(ステップ42)。シャッタ・レリーズ・ボタンが全押しされるまで(ステップ43),ステップ41および42の処理が繰り返される。   When the imaging mode is set and a through image is obtained by pre-imaging, face detection processing of the through image is performed (step 41). Since the through image is obtained at a constant cycle, face detection processing is performed for each through image obtained at the constant cycle. The face detection result obtained in the face detection process is registered while being updated (step 42). Until the shutter release button is fully pressed (step 43), the processing of steps 41 and 42 is repeated.

シャッタ・レリーズ・ボタンが全押しされると(ステップ43でYES),本撮像が行われ本撮像画像が得られる。得られた本撮像画像の顔検出処理が行われる(ステップ44)。   When the shutter release button is fully pressed (YES in step 43), the main imaging is performed and a main captured image is obtained. Face detection processing is performed on the obtained captured image (step 44).

本撮像画像とスルー画像(シャッタ・レリーズ・ボタンが全押しされる直前のスルー画像)とが得られると,それらの画像の大きさが同じとなるように座標変換が行われる(ステップ45)。この座標変換は,スルー画像の大きさに合うように行ってもよいし,本撮像画像の大きさに合うように行ってもよいし,他の画像の大きさに合うように行ってもよい。座標変換が行われると,スルー画像の顔検出結果と本撮像画像の顔検出結果とが照合される(ステップ46)。照合結果が登録されて顔画像領域が決定する(ステップ47)。   When the actual captured image and the through image (through image immediately before the shutter release button is fully pressed) are obtained, coordinate conversion is performed so that the sizes of the images are the same (step 45). This coordinate transformation may be performed to fit the size of the through image, may be made to fit the size of the actual captured image, or may be performed to fit the size of another image. . When the coordinate conversion is performed, the face detection result of the through image and the face detection result of the main captured image are collated (step 46). The collation result is registered and the face image area is determined (step 47).

図9は,図8の変形例を示すもので,顔画像領域決定処理の処理手順を示すフローチャートである。この図において図8に示す処理と同じ処理については同じ符号を付して説明を省略する。   FIG. 9 shows a modification of FIG. 8, and is a flowchart showing the processing procedure of the face image area determination processing. In this figure, the same processes as those shown in FIG.

図9に示す処理においては,得られたスルー画像の露光量が少ないか,または本撮像においてストロボ発光されたかどうかが確認される(ステップ51)。本撮像においてストロボ発光された場合には,得られたスルー画像の露光量が少ない。スルー画像の露光量が少ない場合には,スルー画像が暗いために顔検出処理が行われても顔画像領域を検出することができないことがある。顔画像領域を検出できないために,上述したように,スルー画像において検出された顔画像領域と本撮像領域において検出された顔画像領域との照合をしてもリンク付けされる顔画像領域が無いことがある。このために,顔画像領域を決定できないことがある。このために,この変形例においては,スルー画像の露光量が少ないか,または本撮像においてストロボ発光した場合には(ステップ51でYES),スルー画像と本撮像画像との上述した検出結果の照合処理が行われずに本撮像画像における顔検出結果が登録され顔検出領域として決定される(ステップ52)。   In the processing shown in FIG. 9, it is confirmed whether the exposure amount of the obtained through image is small or whether the strobe light is emitted in the main imaging (step 51). When strobe light is emitted in the main imaging, the exposure amount of the obtained through image is small. When the through image exposure amount is small, the face image region may not be detected even if face detection processing is performed because the through image is dark. Since the face image area cannot be detected, as described above, there is no face image area to be linked even if the face image area detected in the through image and the face image area detected in the main imaging area are collated. Sometimes. For this reason, the face image area may not be determined. For this reason, in this modification, when the exposure amount of the through image is small or the strobe light is emitted in the main imaging (YES in step 51), the above-described detection result comparison between the through image and the main imaging image is performed. The face detection result in the main captured image is registered without being processed, and is determined as a face detection area (step 52).

図10(A)〜(D)および図11は,上述したリンク付けを決定する処理を説明するためのものである。   FIGS. 10A to 10D and FIG. 11 are for explaining the above-described processing for determining the linking.

図10(A)〜(D)は,前回の被写体像において検出された顔画像領域と今回の被写体像において検出された顔画像領域との変動を示している。   FIGS. 10A to 10D show fluctuations between the face image area detected in the previous subject image and the face image region detected in the current subject image.

(A)は,位置変動を示すものである。前回の被写体像における顔検出処理において顔画像領域C8が検出され,今回の被写体像における顔検出処理において顔画像領域C9が検出されたことを示している。   (A) shows the position variation. This indicates that the face image area C8 was detected in the face detection process for the previous subject image, and the face image area C9 was detected in the face detection process for the current subject image.

(B)は,大きさ変動を示すものである。前回の被写体像における顔検出処理において顔画像領域C10が検出され,今回の被写体像における顔検出処理において顔画像領域C11が検出されたことを示している。顔画像領域C10の大きさよりも顔画像領域C11の大きさの方が大きくなっている。   (B) shows a magnitude | size fluctuation | variation. This shows that the face image area C10 was detected in the face detection process for the previous subject image, and the face image area C11 was detected in the face detection process for the current subject image. The size of the face image area C11 is larger than the size of the face image area C10.

(C)は,面内回転変動を示すものである。前回の被写体像における顔検出処理において顔画像領域C12が検出され,今回の被写体像における顔検出処理において顔画像領域C13が検出されたことを示している。上述したように,顔の上部分に対応する領域は,太く示されている。したがって,前回の被写体像において検出された顔の画像から今回の被写体像において検出された顔の画像は,被写体像の平面内において90度回転していることが分かる。   (C) shows in-plane rotational fluctuation. This shows that the face image area C12 was detected in the face detection process for the previous subject image, and the face image area C13 was detected in the face detection process for the current subject image. As described above, the area corresponding to the upper part of the face is shown thick. Therefore, it can be seen that the face image detected in the current subject image is rotated 90 degrees in the plane of the subject image from the face image detected in the previous subject image.

(D)は,面外回転変動を示すものである。前回の被写体像における顔検出処理において顔画像領域C14が検出され,今回の被写体像における顔検出処理において顔画像領域C15が検出されたことを示している。前回の被写体像における顔検出処理において検出された顔画像領域C14は正方形であり,今回の被写体像における顔検出処理において検出された顔画像領域C15は五角形である。前回の被写体像においては,顔画像は,正面を向いており,今回の被写体像において,顔画像は横を向いていることが分かる。   (D) shows the out-of-plane rotation fluctuation. This indicates that the face image area C14 was detected in the face detection process for the previous subject image, and the face image area C15 was detected in the face detection process for the current subject image. The face image area C14 detected in the face detection process in the previous subject image is a square, and the face image area C15 detected in the face detection process in the current subject image is a pentagon. In the previous subject image, it can be seen that the face image faces the front, and in the current subject image, the face image faces sideways.

このような変動があった場合に,次に述べるように変動の程度が一定の範囲内であればリンク付けが行われる。また,リンク付けが行われた場合に,検出された顔画像領域近傍の領域等を顔画像領域として決定することもできる。たとえば,(A)に示すように顔画像領域C8およびC9を囲む領域Cを顔画像領域として決定してもよいし,顔画像領域C8およびC9を顔画像領域として決定してもよい。   When such a change occurs, linking is performed if the degree of change is within a certain range as described below. In addition, when linking is performed, an area in the vicinity of the detected face image area or the like can be determined as the face image area. For example, as shown in (A), the area C surrounding the face image areas C8 and C9 may be determined as the face image area, or the face image areas C8 and C9 may be determined as the face image area.

図11は,リンク付けを決定する処理手順を示すフローチャートである。上述した変動が一定範囲内の場合に,前回の被写体像における顔検出処理において検出された顔画像領域と今回の被写体像における顔検出処理において検出された顔画像領域とが対応するものとしてリンク付けされる。   FIG. 11 is a flowchart showing a processing procedure for determining linking. When the above-described variation is within a certain range, the face image area detected in the face detection process in the previous subject image is linked with the face image area detected in the face detection process in the current subject image as a correspondence. Is done.

今回の被写体像において検出された顔画像領域の顔ナンバを変数j,前回の被写体像において検出された顔画像領域の顔ナンバを変数iとする。   The face number of the face image area detected in the current subject image is a variable j, and the face number of the face image area detected in the previous subject image is a variable i.

今回の被写体像において検出された顔画像領域のすべてを初期化する(ステップ61〜64)。このために,今回の顔画像領域の変数jがリセットされ(ステップ61),すべての顔画像領域についてのリンクが初期化されるまで変数jがインクレメントされながらリンクの初期化処理が繰り返される(ステップ62でYES,63,64)。   All of the face image areas detected in the current subject image are initialized (steps 61 to 64). For this reason, the variable j of the current face image area is reset (step 61), and the link initialization process is repeated while the variable j is incremented until the links for all the face image areas are initialized (step 61). In step 62, YES, 63, 64).

今回の被写体像において検出された顔画像領域のすべてが初期化されると(ステップ62でNO),再び変数jがリセットされ(ステップ65),今回の被写体像において検出された顔画像領域の一つ一つと前回の被写体像において検出された顔画像領域の一つ一つとのそれぞれにおいてリンク付けが判断される。今回の被写体像において検出された顔画像領域のすべてについてリンク付けが終了したかどうかが確認される(ステップ66)。   When all the face image areas detected in the current subject image are initialized (NO in step 62), the variable j is reset again (step 65), and one of the face image areas detected in the current subject image is reset. Linking is determined for each one and each of the face image areas detected in the previous subject image. It is confirmed whether or not linking has been completed for all of the face image areas detected in the current subject image (step 66).

終了していなければ(ステップ66でYES),上述した位置変動の距離にダミーの初期値がセットされる(ステップ67)。   If not completed (YES in step 66), a dummy initial value is set to the above-described position variation distance (step 67).

前回の被写体像において検出された顔画像領域の変数iがリセットされる(ステップ68)。すべての顔画像領域についてリンク付けが行われるため,すべての顔画像領域についてリンク付けが終了したかどうかが判定される(ステップ69)。   The variable i of the face image area detected in the previous subject image is reset (step 68). Since all face image areas are linked, it is determined whether or not all face image areas have been linked (step 69).

すべての顔画像領域についてリンク付けが終了していなければ(ステップ69でYES),面外回転変動,面内回転変動および大きさ変動が所定の範囲内かどうかが確認される(ステップ70〜72)。これらの変動のすべてが所定の範囲内であれば(ステップ70〜72においてYES),変動量が少ないと考えられる。変数dが位置変動での中心間距離に設定されて(ステップ73),その中心間距離がダミー値よりも小さいかどうかが確認される(ステップ74)。小さければ(ステップ74でYES),中心間距離の最小値が位置変動での中心間距離に設定される(ステップ75)。設定された中心間距離が所定の範囲内であれば(ステップ76でYES),判定対象として今回の被写体像の中の顔画像領域jは,前回の被写体像の中の顔画像領域iとリンクしているとして上述の照合結果として登録される(図5参照)。変数iがインクレメントされ(ステップ79),前回の被写体像のうち次の顔画像領域についてリンク付けされるかどうかが判定される。   If linking has not been completed for all face image regions (YES in step 69), it is confirmed whether the out-of-plane rotation variation, the in-plane rotation variation, and the size variation are within a predetermined range (steps 70 to 72). ). If all of these fluctuations are within a predetermined range (YES in steps 70 to 72), it is considered that the fluctuation amount is small. The variable d is set to the center-to-center distance in the position variation (step 73), and it is confirmed whether the center-to-center distance is smaller than the dummy value (step 74). If it is smaller (YES in step 74), the minimum value of the center-to-center distance is set as the center-to-center distance in the position variation (step 75). If the set center-to-center distance is within a predetermined range (YES in step 76), the face image area j in the current subject image as a determination target is linked to the face image area i in the previous subject image. Is registered as the above-described collation result (see FIG. 5). The variable i is incremented (step 79), and it is determined whether or not the next face image area of the previous subject image is linked.

図12は,他の実施例を示すもので,被写体像の一例である。   FIG. 12 shows another embodiment and is an example of a subject image.

この実施例においては,連続する三駒の被写体像が用いられる。連続する三駒の被写体像のうち,第三番目の被写体像において検出された顔画像領域に対応する顔画像領域が第二番目の被写体像に無かった場合でも第一番目の被写体像に存在する場合にはリンク付けされ,第三番目の被写体像における顔画像領域として決定される。   In this embodiment, a continuous three-frame subject image is used. Of three consecutive subject images, the face image region corresponding to the face image region detected in the third subject image is present in the first subject image even if the face image region does not exist in the second subject image Are linked and determined as a face image area in the third subject image.

たとえば,第(N−2)駒目の被写体像α7,第(N−1)駒目の被写体像α8および第N駒目の被写体像α9が得られる。第(N−2)駒目の被写体像α7には,人物像S7およびS8が含まれており,顔画像検出処理により,顔画像領域C16およびC17が検出される。第(N−1)駒目の被写体像α8には,人物像S9およびS10が含まれている。顔画像検出処理により,人物像S9から顔画像領域C18が検出されたが,人物像S10からは顔画像領域が検出されなかったものとする。第N駒目の被写体像α9には,人物像S11およびS12が含まれており,顔画像検出処理により,顔画像領域C20およびC21が検出される。   For example, a subject image α7 of the (N-2) th frame, a subject image α8 of the (N-1) th frame, and a subject image α9 of the Nth frame are obtained. The subject image α7 of the (N-2) th frame includes person images S7 and S8, and the face image areas C16 and C17 are detected by the face image detection process. The subject image α8 of the (N−1) th frame includes person images S9 and S10. It is assumed that the face image area C18 is detected from the person image S9 by the face image detection process, but the face image area is not detected from the person image S10. The subject image α9 of the Nth frame includes person images S11 and S12, and the face image areas C20 and C21 are detected by the face image detection process.

第N駒目の被写体像α9において検出された顔画像領域C20およびC21と,第(N−1)駒の被写体像α8において検出された顔画像領域C18との検出結果の照合処理(第1回検出結果照合)が行われる。第(N−1)駒目の被写体像α8においては,第N駒目の被写体像α9において検出された顔画像領域C20に対応する顔画像領域C18が存在するが,第N駒目の被写体像α9において検出された顔画像領域C21に対応する顔画像領域は検出されていない。このために,上述の実施例においてはN駒目の被写体像α9において顔画像領域C20は,顔画像領域として決定されるが,顔画像領域C21は,顔画像領域としては決定されない。この実施例においては,第N番目の被写体像α9において検出された顔画像領域のうち,リンク付けされない顔画像領域C21について,第(N−2)駒目の被写体像α7の顔画像領域にリンク付けされるようなものがあるかどうかが確認される(第2回検出結果照合)。第(N−2)駒目の被写体像α7の顔画像領域C17にリンク付けされるような顔画像領域C21が第N駒目の被写体像α9にある場合には,その顔画像領域C21は第N駒目の被写体像α9における顔画像領域として決定される。上述の実施例においては,検出できなかったような顔画像領域C21を検出できるようになる。   Processing for collating detection results between the face image areas C20 and C21 detected in the subject image α9 of the Nth frame and the face image area C18 detected in the subject image α8 of the (N−1) th frame (first detection) Result collation) is performed. In the subject image α8 of the (N−1) th frame, there is a face image region C18 corresponding to the face image region C20 detected in the subject image α9 of the Nth frame, but the subject image of the Nth frame. A face image area corresponding to the face image area C21 detected at α9 is not detected. For this reason, in the above-described embodiment, the face image area C20 is determined as the face image area in the N-th subject image α9, but the face image area C21 is not determined as the face image area. In this embodiment, among the face image areas detected in the N-th subject image α9, the unlinked face image area C21 is linked to the face image area of the subject image α7 of the (N-2) th frame. It is confirmed whether there is something attached (second detection result collation). When the face image area C21 linked to the face image area C17 of the subject image α7 of the (N-2) th frame is in the subject image α9 of the Nth frame, the face image area C21 is It is determined as a face image area in the N-th frame subject image α9. In the above embodiment, the face image area C21 that could not be detected can be detected.

第(N−1)駒目の被写体像α8においては,第N駒目の被写体像α7において検出された顔画像領域C16およびC17との検出結果照合処理が行われることにより,顔画像領域C18が顔画像領域として決定されることは理解されよう。   In the subject image α8 of the (N−1) th frame, the face image region C18 is obtained by performing a detection result matching process with the face image regions C16 and C17 detected in the subject image α7 of the Nth frame. It will be understood that the face image area is determined.

図13および図14は,上述した図12の処理手順を示すフローチャートである。   13 and 14 are flowcharts showing the processing procedure of FIG. 12 described above.

今回(第N駒目)の被写体像が読み取られ(ステップ31),顔検出処理が行われる(ステップ32)。今回の顔検出処理の結果が登録される(ステップ33)。前回(第(N−1)駒目)の顔検出結果が登録されていると(ステップ34でYES),上述したように,前回と今回の顔検出結果の照合処理(第1回検出結果照合)が行われる(ステップ52)。   The subject image of the current time (Nth frame) is read (step 31), and face detection processing is performed (step 32). The result of the current face detection process is registered (step 33). If the previous (N-1th frame) face detection result is registered (YES in step 34), as described above, the previous and current face detection result matching processing (first detection result matching) ) Is performed (step 52).

第1回検出結果照合において,今回の被写体像において検出された顔画像領域のうちリンク無しのものがあるかどうかが確認される(ステップ53)。リンク無しのものがあると,前々回(第(N−2)駒目)の検出結果が登録されているかどうかが確認される(ステップ54)。前々回の検出結果が登録されていると(ステップ54でYES),『今回の検出結果のうち前回の検出結果とのリンク付けがないもの』と『前々回の検出結果のうち「今回,前回,前々回」のリンクが無いもの』との間で検出結果の照合処理が行われる(第2回検出結果照合)(ステップ55)。   In the first detection result collation, it is confirmed whether or not there is an unlinked face image area detected in the current subject image (step 53). If there is an unlinked one, it is confirmed whether the detection result of the previous time ((N-2) th frame) is registered (step 54). If the previous detection result is registered (YES in step 54), “the current detection result that is not linked to the previous detection result” and “the previous detection result“ current, previous, previous time ” The detection result collating process is performed with the “no link” (second detection result collation) (step 55).

第1回検出結果照合と第2回検出結果照合とが組み合わせられて(ステップ56),その組み合わせの照合結果が反映されて最終的な今回の検出結果とし登録され,今回の被写体像における顔画像領域が決定される(ステップ36)。終了指令があるまでステップ31からの処理が繰返される。   The first detection result matching and the second detection result matching are combined (step 56), the matching result of the combination is reflected and registered as the final detection result, and the face image in the current subject image A region is determined (step 36). The processing from step 31 is repeated until an end command is issued.

今回の検出結果でリンク無しのものがないか(ステップ53でNO),前々回の検出結果が登録されていなければ(ステップ54でNO),前回と今回の検出結果の照合処理にもとづいて今回の被写体像における顔画像領域が決定されることとなる(ステップ36)。   If there is no link in the current detection result (NO in step 53), or if the previous detection result is not registered (NO in step 54), the current detection result will be based on the comparison process of the previous and current detection results. The face image area in the subject image is determined (step 36).

図15は,他の実施例を示すもので,被写体150を撮像する様子を示している。   FIG. 15 shows another embodiment, and shows how the subject 150 is imaged.

この実施例においては,撮像範囲がほぼ同じである2つのディジタル・スチル・カメラ151および152が用いられる。2つのディジタル・スチル・カメラ151および152を用いて被写体150が同時または連続して撮像されることにより2駒の被写体像が得られる。第1のディジタル・スチル・カメラ151および152は,コンピュータ装置153に接続されている。コンピュータ装置153に,ディジタル・スチル・カメラ151および153によって撮像された被写体像を表す画像データが与えられる。コンピュータ装置153において,得られた2駒の被写体像を用いて顔画像領域が決定される。図15においては,2つのディジタル・スチル・カメラ151および152が図示されているが,2つの撮像装置(素子)があればよく,2台の撮像装置が1つのカメラに内蔵されているものでもよい。   In this embodiment, two digital still cameras 151 and 152 having the same imaging range are used. Two frames of the subject image are obtained by imaging the subject 150 simultaneously or successively using the two digital still cameras 151 and 152. The first digital still cameras 151 and 152 are connected to the computer device 153. Image data representing a subject image captured by the digital still cameras 151 and 153 is given to the computer device 153. In the computer device 153, the face image area is determined using the obtained two frames of the subject image. In FIG. 15, two digital still cameras 151 and 152 are shown. However, it is sufficient if there are two image pickup devices (elements), and two image pickup devices are built in one camera. Good.

図16は,図15に示すディジタル・スチル・カメラ151および152を用いて撮像された被写体像等の一例である。   FIG. 16 shows an example of a subject image taken using the digital still cameras 151 and 152 shown in FIG.

ディジタル・スチル・カメラ151および152は,同じ撮像範囲をもち,同時に被写体を撮像することにより,第1の被写体像α11および第2の被写体像α12が得られる。第1の被写体像α11には,人物像S13が含まれている。第1の被写体像α11に顔検出処理が行われることにより,人物像S13から顔画像領域C22が検出される。また,第1の被写体像α11においては顔画像領域C23も検出される。第2の被写体像α12には,人物像S14が含まれている。第2の被写体像α12に顔検出処理が行われることにより,人物像S14から顔画像領域C24が検出される。また,第2の被写体像α12においては顔画像領域C25も検出される。   The digital still cameras 151 and 152 have the same imaging range, and simultaneously image a subject to obtain a first subject image α11 and a second subject image α12. The first subject image α11 includes a person image S13. By performing face detection processing on the first subject image α11, a face image region C22 is detected from the person image S13. Further, the face image area C23 is also detected in the first subject image α11. The second subject image α12 includes a person image S14. By performing face detection processing on the second subject image α12, a face image region C24 is detected from the person image S14. Further, a face image area C25 is also detected in the second subject image α12.

第1の被写体像α11において検出された顔画像領域と第2の被写体像α12において検出された顔画像領域との検出結果の照合処理が行われることにより,顔画像領域C22とC24とがリング付けされることとなる。したがって,第1の被写体像α11(第2の被写体像α12でもよい)における顔画像領域は,人物像S13の顔画像領域C22に決定される。   The face image regions C22 and C24 are ring-attached by collating the detection results of the face image region detected in the first subject image α11 and the face image region detected in the second subject image α12. Will be. Therefore, the face image area in the first subject image α11 (may be the second subject image α12) is determined as the face image region C22 of the person image S13.

図17は,第1の被写体像α11および第2の被写体像α12を用いて顔画像領域を決定する処理手順を示すフローチャートである。   FIG. 17 is a flowchart showing a processing procedure for determining a face image area using the first subject image α11 and the second subject image α12.

上述のように,第1のディジタル・スチル・カメラ151および第2のディジタル・スチル・カメラ152によって被写体が同時に撮像されることにより,第1の被写体像および第2の被写体像が得られる。これらの第1の被写体像および第2の被写体像が読み取られる(ステップ61,63)。読み取られた第1の被写体像における顔画像の検出処理(ステップ62)および第2の被写体像における顔画像の検出処理(ステップ64)が並行して行われる。   As described above, the first subject image and the second subject image are obtained by simultaneously imaging the subject by the first digital still camera 151 and the second digital still camera 152. These first subject image and second subject image are read (steps 61 and 63). The face image detection process (step 62) in the read first subject image and the face image detection process (step 64) in the second subject image are performed in parallel.

第1の被写体像における顔画像の検出処理の結果と第2の被写体像における顔画像の検出処理の結果との照合処理が行われる(ステップ65)。照合結果が反映されて検出結果として登録される(ステップ66)。   A collation process is performed between the result of the face image detection process in the first subject image and the result of the face image detection process in the second subject image (step 65). The collation result is reflected and registered as a detection result (step 66).

図18は,図17の処理手順の変形例を示すフローチャートである。この図において図17に示す処理と同一の処理については同一符号を付している。   FIG. 18 is a flowchart showing a modification of the processing procedure of FIG. In this figure, the same processes as those shown in FIG. 17 are denoted by the same reference numerals.

第1の被写体像と第2の被写体像が得られる(ステップ61,63)。図17に示す処理においては,第1の被写体像における顔画像の検出処理と第2の被写体像における顔画像の検出処理とが並行して行われていたが,この変形例においては,最初に第1の被写体像における顔画像の検出処理が行われ(ステップ62),続いて第2の被写体像における顔画像の検出処理が行われる(ステップ64)。その後,検出結果の照合処理(ステップ65),検出結果が登録される(ステップ66)。   A first subject image and a second subject image are obtained (steps 61 and 63). In the process shown in FIG. 17, the face image detection process in the first subject image and the face image detection process in the second subject image are performed in parallel. A face image detection process in the first subject image is performed (step 62), and then a face image detection process in the second subject image is performed (step 64). Thereafter, the collation process of the detection result (step 65) and the detection result are registered (step 66).

図19(A),(B)から図22(A),(B)は,他の変形例を示すもので被写体像の一例である。   FIGS. 19A and 19B to FIGS. 22A and 22B show other modified examples and are examples of subject images.

図19(A)および(B)は,互いの撮像範囲が一部一致するが完全には一致しない第1のディジタル・スチル・カメラ151および第2のディジタル・スチル・カメラ152を用いて同時に被写体を撮像して得られた被写体像を示している。   19 (A) and 19 (B) show the subject at the same time using the first digital still camera 151 and the second digital still camera 152 whose imaging ranges partially match each other but do not completely match. The subject image obtained by imaging is shown.

(A)に示す被写体像α13には,人物像S15およびS16が含まれている。顔検出処理により人物像S15の顔の部分のスコアは8であり,人物像S16の顔の部分のスコアは4である。(B)に示す被写体像α14には,人物像S17およびS18が含まれている。顔検出処理により人物像S17の顔の部分のスコアは4であり,人物像S18の顔の部分のスコアは6である。人物像S16と人物像S17とは同一の人物を撮像したものである。   The subject image α13 shown in (A) includes person images S15 and S16. In the face detection process, the score of the face portion of the person image S15 is 8, and the score of the face portion of the person image S16 is 4. The subject image α14 shown in (B) includes person images S17 and S18. In the face detection process, the score of the face portion of the person image S17 is 4, and the score of the face portion of the person image S18 is 6. The person image S16 and the person image S17 are images of the same person.

図20(A)〜(C)は,図19(A)および(B)において上記のようにスコアが得られた場合に顔画像領域の決定を行うやり方を示している。   20 (A) to 20 (C) show how to determine the face image area when the score is obtained as described above in FIGS. 19 (A) and 19 (B).

このやり方では,被写体像α13およびα14のそれぞれにおいて検出されるスコアを個別に判断して顔画像領域の判定が行われる。(A)および(B)を参照して,スコア8をもつ人物像S15の顔画像部分およびスコア6をもつ人物像S18の顔画像部分は,それぞれスコアが高いので(たとえば,顔画像と判定されるスコアのしきい値はスコア5)顔画像領域C25およびC26と判定される。スコア4をもつ人物像S16,S17はスコアが低いので顔画像領域とは認められない。   In this manner, the face image area is determined by individually determining the score detected in each of the subject images α13 and α14. Referring to (A) and (B), the face image portion of the human image S15 having a score of 8 and the face image portion of the human image S18 having a score of 6 each have a high score (for example, determined as a face image). The score threshold is determined to be score 5) face image areas C25 and C26. Since the human images S16 and S17 having the score 4 have a low score, they are not recognized as face image areas.

このようにして,顔画像領域が検出された被写体像α13およびα14の同一部分が重ね合わせられて(座標変換),(C)に示す合成被写体像α17が得られる。座標変換を行うためにコンピュータ装置153にはディジタル・スチル・カメラ151と152との位置関係がセットされているのはいうまでもない。   In this way, the same portions of the subject images α13 and α14 in which the face image area is detected are superimposed (coordinate conversion), and a composite subject image α17 shown in (C) is obtained. Needless to say, the positional relationship between the digital still cameras 151 and 152 is set in the computer device 153 for coordinate conversion.

図21(A)および(B)は,被写体像α13およびα14を,同一部分が重ね合わせられた合成被写体像α18およびα19である。   FIGS. 21A and 21B show composite subject images α18 and α19 in which the subject images α13 and α14 are superimposed on the same portion.

(A)を参照して,人物像S25の顔画像部分のスコアは8であり,人物像S16の顔画像部分のスコアは,図20(A)および(B)に示すように被写体像α13における人物像S16のスコア4および被写体像α14における人物像S17のスコア4を加算したスコア8とされている。   Referring to (A), the score of the face image portion of the person image S25 is 8, and the score of the face image portion of the person image S16 is the object image α13 as shown in FIGS. The score 8 is obtained by adding the score 4 of the person image S16 and the score 4 of the person image S17 in the subject image α14.

人物像S16の顔画像の部分は,スコア8となるので,(B)に示すように顔画像領域C28と決定される。   Since the face image portion of the person image S16 has a score of 8, the face image area C28 is determined as shown in FIG.

図22は,被写体像α13およびα14を,同一部分が重ね合わせられた合成被写体像α20およびα21である。   FIG. 22 shows composite subject images α20 and α21 in which subject images α13 and α14 are superimposed on the same part.

重み付け係数を用いて重み付けが行われた後に顔画像領域の判定が行われる。顔検出により得られたスコアが仮スコアとされ,その仮スコアに重み付け係数が乗じられたものがスコアとされる。人物像S15の顔画像部分の重み付け係数は1であり,その仮スコアは8であり,スコアは8となる。人物像S16の顔画像部分のスコアは,図20(A)および(B)に示すように被写体像α13における人物像S16の仮スコア4に重み付け係数1が乗じられた値と被写体像α14における人物像S17の仮スコア4に重み付け係数2が常時螺よれた値とを加算したスコア12とされている。人物像S18の顔画像部分の重み付け係数は2であり,その仮スコアは8であり,スコアは16となる。   The face image area is determined after weighting is performed using the weighting coefficient. A score obtained by face detection is set as a temporary score, and a score obtained by multiplying the temporary score by a weighting coefficient is set as a score. The weighting coefficient of the face image portion of the person image S15 is 1, its provisional score is 8, and the score is 8. As shown in FIGS. 20A and 20B, the score of the face image portion of the person image S16 is obtained by multiplying the provisional score 4 of the person image S16 in the subject image α13 by the weighting coefficient 1 and the person in the subject image α14. The score 12 is obtained by adding the provisional score 4 of the image S17 to the value obtained by constantly twisting the weighting coefficient 2. The weighting coefficient of the face image portion of the person image S18 is 2, its provisional score is 8, and the score is 16.

顔画像領域と判定されるスコアのしきい値がスコア7.5とすると,すべてのスコアがそのスコア以上となるので,図21(B)に示すように人物像S15,S16およびS18のそれぞれの顔画像部分が顔画像領域C25,C28およびC26と決定される。   When the threshold value of the score determined as the face image area is 7.5, all the scores are equal to or higher than the score. Therefore, as shown in FIG. 21B, each face image of the person images S15, S16, and S18. The portions are determined as face image areas C25, C28 and C26.

図23は,単板撮像素子の受光面の一例である。   FIG. 23 is an example of a light receiving surface of a single-plate image sensor.

単板撮像素子の受光面上には,赤色の光成分を透過するRフィルタ(Rで示す),緑色の光成分を透過するGフィルタ(Gで示す)および青色の光成分を透過するBフィルタ(Bで示す)が一定周期で規則的に配列されている。   On the light-receiving surface of the single-plate image sensor, an R filter (indicated by R) that transmits a red light component, a G filter (indicated by G) that transmits a green light component, and a B filter that transmits a blue light component (Indicated by B) are regularly arranged at a constant period.

Rフィルタを透過した光成分が光電変換されることにより,赤色の信号成分が得られる。得られた赤色の信号成分によって,図24(A)に示すように赤色成分の被写体像が得られる。同様に,Gフィルタを透過した光成分が光電変換されることにより,緑色の信号成分が得られる。得られた緑色の信号成分によって,図24(B)に示すように緑色成分の被写体像が得られる。Bフィルタを透過した光成分が光電変換されることにより,青色信号成分が得られる。得られた青色の信号成分によって,図24(C)に示すように青色成分の被写体像が得られる。   A red signal component is obtained by photoelectrically converting the light component that has passed through the R filter. With the obtained red signal component, a subject image of the red component is obtained as shown in FIG. Similarly, a green signal component is obtained by photoelectrically converting the light component transmitted through the G filter. With the obtained green signal component, a subject image of the green component is obtained as shown in FIG. A blue signal component is obtained by photoelectrically converting the light component transmitted through the B filter. With the obtained blue signal component, a subject image of the blue component is obtained as shown in FIG.

このようにして得られた赤色信号成分の被写体像,緑色信号成分の被写体像および青色信号成分の被写体像のうちの2つの被写体像を用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定することができる。   As shown in FIG. 16, face image detection processing is performed using two subject images of the subject image of the red signal component, the subject image of the green signal component, and the subject image of the blue signal component thus obtained. Thus, the face image area can be determined.

図25(A),(B)および(C)は,補間処理された赤色信号成分の被写体像,緑色信号成分の被写体像および青色信号成分の被写体像を表している。これらのように,補間処理された3つの被写体像のうちの2つの被写体像を用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定するようにしてもよい。   25A, 25B, and 25C show the subject image of the red signal component, the subject image of the green signal component, and the subject image of the blue signal component after the interpolation processing. As described above, the face image area may be determined by performing face image detection processing as shown in FIG. 16 using two of the three subject images subjected to interpolation processing. .

図26(A),(B)および(C)は,3板の固体電子撮像素子の受光面を示している。3板の固体電子撮像素子からは,それぞれの固体電子撮像素子から(A)に示す赤色信号成分の被写体像,(B)に示す緑色信号成分の被写体像,(C)に示す青色信号成分の被写体像がそれぞれ得られる。得られた3つの被写体像のうちの2つの被写体像を用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定できる。   26A, 26B, and 26C show the light receiving surfaces of a three-plate solid-state electronic image sensor. From the three-plate solid-state electronic image sensor, the subject image of the red signal component shown in (A), the subject image of the green signal component shown in (B), and the blue signal component shown in (C) from each solid-state electronic image sensor. Each subject image is obtained. A face image area can be determined by performing face image detection processing as shown in FIG. 16 using two of the obtained three subject images.

図27(A)は,可視光センサ(撮像素子)の受光面を示し,(B)は,赤外センサの受光面を示している。   FIG. 27A shows a light receiving surface of a visible light sensor (imaging device), and FIG. 27B shows a light receiving surface of an infrared sensor.

(A)を参考にして,可視光センサには,図23に示す単板の撮像素子と同様に,Rフィルタ,GフィルタおよびBフィルタが一定周期で規則的に配列されている。(B)を参考にして赤外センサには,赤外線領域の光成分を透過するIRフィルタが設けられている。(A)に示す受光面をもつ可視光センサから出力された映像信号によって表される可視光像と,(B)に示す受光面をもつ可視光センサから出力された映像信号によって表される赤外光像との2つの被写体像を用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定することもできる。   Referring to (A), in the visible light sensor, R filters, G filters, and B filters are regularly arranged at a constant period, as in the single-plate image sensor shown in FIG. With reference to (B), the infrared sensor is provided with an IR filter that transmits light components in the infrared region. (A) A visible light image represented by a video signal output from a visible light sensor having a light receiving surface and a red represented by a video signal output from a visible light sensor having a light receiving surface illustrated in (B). A face image area can also be determined by performing face image detection processing as shown in FIG. 16 using two subject images with an external light image.

図28は,可視光/赤外センサの受光面を示している。   FIG. 28 shows a light receiving surface of the visible light / infrared sensor.

可視光/赤外センサの受光面には,Rフィルタ,Gフィルタ,BフィルタおよびIRフィルタが一定周期で規則的に配列されている。可視光/赤外センサから,赤色成分の映像信号によって表される被写体像,緑色成分の映像信号によって表される被写体像,青色成分の映像信号によって表される被写体像および赤外光成分の映像信号によって表される被写体像が得られる。これらの4つの被写体像の中から2つの被写体像を用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定することもできる。   On the light receiving surface of the visible light / infrared sensor, R filters, G filters, B filters, and IR filters are regularly arranged at a constant period. Subject image represented by red component video signal, subject image represented by green component video signal, subject image represented by blue component video signal and infrared component image from visible light / infrared sensor A subject image represented by the signal is obtained. A face image area can also be determined by performing face image detection processing as shown in FIG. 16 using two of the four subject images.

異なる撮像装置(撮像素子,センサ)を用いて被写体を撮像することにより,上述したように,第1の被写体像と第2の被写体像を得て顔画像領域を検出する場合には,第1の被写体像において行われた顔画像検出処理において得られた顔画像らしさの第1のスコアと第2の被写体像において行われた顔画像検出処理において得られた顔画像らしさの第2のスコアとの和にもとづいて顔画像領域を決定してもよいし,第1のスコアと第2のスコアとの和に重み付けをつけて顔画像領域を決定してもよいし,第1のスコアと第2のスコアとに重み付けを付けて,重み付けが付けられたスコアの和にもとづいて顔画像領域を決定してもよい。もちろん,これらの顔画像領域の決定処理を組み合わせて顔画像領域を決定するものでもよい。   As described above, the first and second subject images are obtained by imaging the subject using different imaging devices (imaging devices and sensors), and when the face image area is detected, the first subject image is detected. A first score of face image likelihood obtained in the face image detection process performed on the subject image and a second score of face image likelihood obtained in the face image detection process performed on the second subject image The face image area may be determined based on the sum of the first score, the face image area may be determined by weighting the sum of the first score and the second score, and the first score and the second score may be determined. The face image area may be determined based on the sum of the weighted scores by weighting the scores of 2. Of course, the face image area may be determined by combining these face image area determination processes.

図29から図31は,顔画像検出処理における処理タイミングを示すタイム・チャートである。固体電子撮像素子がインターレース走査されることにより,第1フィールドの被写体像と第2フィールドの被写体像とが交互に得られる。いずれも時刻t1〜t2の間に露光が行われることにより,被写体が撮像されている。そして,時刻t2〜t3の間に第1フィールドの被写体像を表す映像信号の読み出しが行われている。   FIGS. 29 to 31 are time charts showing processing timings in the face image detection processing. By subjecting the solid-state electronic image sensor to interlace scanning, a subject image in the first field and a subject image in the second field are obtained alternately. In either case, the subject is imaged by performing exposure between times t1 and t2. Then, the video signal representing the subject image in the first field is read out between times t2 and t3.

得られた第1フィールドの被写体像と第2フィールドの被写体像とを用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定することができる。   The face image area can be determined by performing face image detection processing as shown in FIG. 16 using the obtained subject image of the first field and subject image of the second field.

図29は,読み出しが完了したフィールドの被写体像から順に顔画像の検出処理が行われるものである。   In FIG. 29, face image detection processing is performed in order from the subject image in the field for which reading has been completed.

時刻t2から第2フィールドの映像信号の読み出しが開始されるとともに第1フィールドの被写体像の顔画像検出処理が行われる。第2フィールドの映像信号の読み出しが時刻t4において終了し,第1の被写体像の顔画像検出処理が時刻t5において終了する。第2フィールドの映像信号の読み出し終了後の時刻t5から第2の被写体像の顔画像検出処理が終了する。2つの被写体像の顔画像検出処理の終了までの時間が短縮される。   Reading of the video signal of the second field is started from time t2, and face image detection processing of the subject image of the first field is performed. The reading of the video signal of the second field ends at time t4, and the face image detection process of the first subject image ends at time t5. The face image detection process of the second subject image ends from time t5 after the end of reading the video signal of the second field. The time until the end of the face image detection processing of the two subject images is shortened.

図30は,すべてのフィールドの被写体像の映像信号の読み出しが完了後に順に顔画像の検出処理が行われるものである。   In FIG. 30, face image detection processing is sequentially performed after the reading of the video signals of the subject images in all fields is completed.

時刻t3に第1フィールドの映像信号の読み出しが終了すると,第2フィールドの映像信号読み出しが開始され,時刻t4に終了する。第1フィールドの映像信号と第2フィールドの映像信号の読み出しの両方ともが完了した時刻t4から第1の被写体像の顔画像検出処理が開始され,時刻t5において終了する。時刻t5から第2の被写体像の顔画像検出処理が開始され,時刻t6において終了する。読み出し処理と顔画像検出処理か異なる時間帯において行われるので,処理する装置の負担が軽くなる。   When the reading of the video signal of the first field is completed at time t3, the reading of the video signal of the second field is started and ends at time t4. The face image detection process of the first subject image is started from time t4 when both the reading of the video signal of the first field and the reading of the video signal of the second field are completed, and ends at time t5. The face image detection process of the second subject image is started from time t5, and ends at time t6. Since the reading process and the face image detection process are performed in different time zones, the burden on the processing apparatus is reduced.

図31は,すべてのフィールドの被写体像の映像信号の読み出しが完了後に2つの被写体像の顔画像検出が同時に行われるものである。   In FIG. 31, the face image detection of two subject images is performed simultaneously after the reading of the video signals of the subject images of all fields is completed.

時刻t4までに第1フィールドの映像信号の読み出しおよび第2フィールドの映像信号の読み出しが順に終了する。時刻t5からt6の間に第1の被写体像の顔画像検出および第2の被写体像の顔画像検出が並行して行われる。   By the time t4, the reading of the video signal of the first field and the reading of the video signal of the second field are finished in order. Between time t5 and t6, the face image detection of the first subject image and the face image detection of the second subject image are performed in parallel.

図32は,第1フィールドの被写体像と第2フィールドの被写体像とから顔画像検出処理の処理手順を示すフローチャートである。   FIG. 32 is a flowchart showing a processing procedure of face image detection processing from the subject image in the first field and the subject image in the second field.

第1フィールドの被写体像および第2フィールドの被写体像が取得され(ステップ71,72),第1フィールドの被写体像の顔画像検出処理(ステップ73),第2フィールドの被写体像の顔画像検出処理(ステップ74)が行われる。   The subject image of the first field and the subject image of the second field are acquired (steps 71 and 72), the face image detection processing of the subject image of the first field (step 73), and the face image detection processing of the subject image of the second field (Step 74) is performed.

顔画像検出処理により得られた検出結果の照合が行われ(ステップ75),照合結果が反映された検出結果が登録される(ステップ76)。   The detection result obtained by the face image detection process is collated (step 75), and the detection result reflecting the collation result is registered (step 76).

図33は,他の実施例を示すもので,いわゆるブラケット撮像により得られた被写体像等を示している。   FIG. 33 shows another embodiment and shows a subject image obtained by so-called bracket imaging.

露出量が比較的少ないE1に設定されて被写体が撮像されることにより,少し暗めの第1の被写体像α21が得られる(暗さがハッチングにより表されている)。第1の被写体像α21には,人物像S30が含まれている。第1の被写体像α21において顔画像検出処理が行われることにより,人物像S30の顔画像部分が顔画像領域C33として検出される。また,顔画像領域C34も検出される。   When the subject is imaged with the exposure amount set to a relatively small E1, a slightly dark first subject image α21 is obtained (darkness is represented by hatching). The first subject image α21 includes a person image S30. By performing the face image detection process on the first subject image α21, the face image portion of the person image S30 is detected as the face image region C33. A face image area C34 is also detected.

つづいて,同じ被写体が,露出量が比較的高いE2に設定されて被写体が撮像されることにより,明るめの第1の被写体像α22が得られる。第2の被写体像α22にも,大1の被写体像α21の人物像S30に対応する人物像S35が含まれている。第2の被写体像α22において画像検出処理が行われることにより,人物像S35の顔画像部分が顔画像領域S35として検出される。また,顔画像領域C36も検出される。   Subsequently, the same subject is imaged with the exposure amount set to E2, which is relatively high, so that a bright first subject image α22 is obtained. The second subject image α22 also includes a person image S35 corresponding to the person image S30 of the first subject image α21. By performing image detection processing on the second subject image α22, the face image portion of the person image S35 is detected as the face image region S35. A face image area C36 is also detected.

第1の被写体像α21の顔画像領域の検出結果と第2の被写体像α22の顔画像領域の検出結果との照合処理が行われることにより,第2の被写体像α22の顔画像領域C35が顔画像領域として決定される。第1の被写体像α21において検出された顔画像領域C34および第2の被写体像α22において検出された顔画像領域C36は顔画像領域とは扱われないのは理解されよう。   By comparing the detection result of the face image area of the first subject image α21 with the detection result of the face image area of the second subject image α22, the face image region C35 of the second subject image α22 is a face. It is determined as an image area. It will be understood that the face image region C34 detected in the first subject image α21 and the face image region C36 detected in the second subject image α22 are not treated as face image regions.

図34は,被写体に暗い部分が含まれている場合においていわゆるブラケット撮像により得られた被写体像等を示している。   FIG. 34 shows a subject image or the like obtained by so-called bracket imaging when the subject includes a dark part.

露出量が比較的少ないE1に設定されて被写体が撮像されることにより,上述のように少し暗めの第1の被写体像α23が得られる。第1の被写体像α23には,人物像S32および木陰に存在する人物像S33が含まれている。第1の被写体像α23に顔画像検出処理が行われることにより,人物像S32の顔画像部分が顔画像領域S32として検出されるが,人物像S33は木陰にあるために人物像S33の顔画像部分は顔画像領域としては検出されない。   When the subject is imaged with the exposure amount set to relatively small E1, the first subject image α23 that is slightly darker as described above is obtained. The first subject image α23 includes a person image S32 and a person image S33 present in the shade of a tree. By performing face image detection processing on the first subject image α23, the face image portion of the person image S32 is detected as the face image area S32. However, since the person image S33 is in the shade of the tree, the face image of the person image S33 is detected. The portion is not detected as a face image area.

露出量が比較的高いE2に設定されて同じ被写体が撮像されることにより,明るめの第2の被写体像α24が得られる。第2の被写体像α24には,第1の被写体像α23に含まれている人物像S32とS33に対応する人物像S34とS35とが含まれている。人物像S35が存在する部分はあまり暗くないので,第2の被写体像α24に顔画像検出処理が行われることにより,人物像S34の顔画像部分および人物像S35の顔画像部分のそれぞれが顔画像領域C38およびC39として検出される。   When the same subject is imaged with the exposure amount set to E2, which is relatively high, a bright second subject image α24 is obtained. The second subject image α24 includes person images S34 and S35 corresponding to the person images S32 and S33 included in the first subject image α23. Since the portion where the person image S35 exists is not so dark, the face image detection processing is performed on the second subject image α24, so that the face image portion of the person image S34 and the face image portion of the person image S35 are respectively face images. Regions C38 and C39 are detected.

上述した検出結果の照合処理を停止して,検出されたすべての顔画像領域C37,C38およびC39を加算することにより,第1の被写体像α23において検出されなかった顔画像領域が顔画像領域C39として検出できる。   The above-described detection result collation process is stopped, and all the detected face image areas C37, C38 and C39 are added, so that the face image area not detected in the first subject image α23 becomes the face image area C39. Can be detected as

図35は,信号処理を変えることにより得られる被写体像等を示している。   FIG. 35 shows a subject image or the like obtained by changing signal processing.

第1の被写体像α25は,輪郭強調処理を大きくしてノイズが多く含まれているものである。第1の被写体像α25には,人物像S36が含まれており,顔画像検出処理が行われることにより,顔画像部分が顔画像領域C40として検出される。また,顔画像領域C41も検出される。   The first subject image α25 includes a large amount of noise by enlarging the contour enhancement process. The first subject image α25 includes a person image S36, and a face image portion is detected as a face image region C40 by performing face image detection processing. A face image area C41 is also detected.

第2の被写体像α26は,輪郭強調処理を少なくしてノイズが少ないものである。第2の被写体像α26にも,第1の被写体像α25に含まれている人物像S36に対応する人物像S37が含まれている。第2の被写体像α26に顔画像検出処理が行われることにより,人物像S37の顔画像部分が顔画像領域C42として検出される。また,顔画像領域C43も検出される。   The second subject image α26 has less noise by reducing the contour enhancement process. The second subject image α26 also includes a person image S37 corresponding to the person image S36 included in the first subject image α25. By performing the face image detection process on the second subject image α26, the face image portion of the person image S37 is detected as the face image region C42. A face image area C43 is also detected.

これらの第1の被写体像α25の顔画像の検出結果と第2の被写体像α26の検出結果とが照合されることにより,顔画像領域C42が顔画像領域として決定される。   The face image region C42 is determined as the face image region by collating the detection result of the face image of the first subject image α25 with the detection result of the second subject image α26.

図36は,異なる信号処理により得られた2つの被写体像について顔画像検出処理が行われる場合の処理手順を示すフローチャートである。   FIG. 36 is a flowchart showing a processing procedure when face image detection processing is performed on two subject images obtained by different signal processing.

被写体が撮像され(ステップ81),撮像により得られた被写体像に第1の信号処理が行われることにより第1の被写体像が得られ(ステップ82),その被写体像に第2の信号処理が行われることにより第2の被写体像が得られる(ステップ83)。第1の被写体像の顔画像検出処理が行われ(ステップ84),第2の被写体像の顔画像検出処理が行われる(ステップ85)。   The subject is imaged (step 81), and the first signal processing is performed on the subject image obtained by the imaging (step 82), and the second signal processing is performed on the subject image. As a result, a second subject image is obtained (step 83). A face image detection process for the first subject image is performed (step 84), and a face image detection process for the second subject image is performed (step 85).

第1の被写体像の顔画像検出結果と第2の被写体像の顔画像検出結果との照合処理が行われ(ステップ86),照合の結果得られる検出結果が登録される(ステップ87)。   The collation process of the face image detection result of the first subject image and the face image detection result of the second subject image is performed (step 86), and the detection result obtained as a result of the collation is registered (step 87).

図37から図44は,検出された顔画像を利用する処理手順を示すフローチャートである。   FIG. 37 to FIG. 44 are flowcharts showing the processing procedure using the detected face image.

図37および図38は,検出された顔画像領域を用いて自動露出調整を行う処理手順を示すフローチャートである。   FIG. 37 and FIG. 38 are flowcharts showing a processing procedure for performing automatic exposure adjustment using the detected face image area.

図37を参照して,顔画像の検出結果が読み取られ(ステップ91),顔画像領域の有無が判定される(ステップ92)。   Referring to FIG. 37, the detection result of the face image is read (step 91), and the presence / absence of the face image area is determined (step 92).

顔画像領域があれば(ステップ92でYES),検出された顔画像領域内の画像の明るさがそれぞれ算出される(ステップ93)。顔画像領域が複数あれば(ステップ94でYES),もっとも明るい顔画像領域が選択される(ステップ95)。選択された顔画像領域内の画像にもとづいて測光値が算出される顔重点マルチパターン測光が行われる(ステップ96)。顔画像領域が1つだけであれば,その顔画像領域内の画像にもとづいて顔重点マルチパターン測光が行われる(ステップ96)。   If there is a face image area (YES in step 92), the brightness of the image in the detected face image area is calculated (step 93). If there are a plurality of face image areas (YES in step 94), the brightest face image area is selected (step 95). Face-weighted multi-pattern photometry is performed in which a photometric value is calculated based on the image in the selected face image area (step 96). If there is only one face image area, face-weighted multi-pattern metering is performed based on the image in the face image area (step 96).

顔画像領域が無ければ(ステップ92でNO),中央部分にもとづいて測光値が算出される中央重点マルチパターン測光が行われる(ステップ97)。   If there is no face image area (NO in step 92), center-weighted multi-pattern photometry is performed in which a photometric value is calculated based on the central portion (step 97).

図38は,自動露出調整の他の処理手順を示している。図38において図37に示す処理については同じ符号を付して説明を省略する。   FIG. 38 shows another processing procedure of automatic exposure adjustment. In FIG. 38, the processing shown in FIG.

図38に示す処理においては,顔画像領域が複数あった場合には(ステップ101でYES),もっとも顔画像領域の大きいものが選択される(ステップ102)。選択された顔画像領域内の画像にもとづいて測光が行われる(ステップ96)。   In the process shown in FIG. 38, when there are a plurality of face image areas (YES in step 101), the one having the largest face image area is selected (step 102). Photometry is performed based on the image in the selected face image area (step 96).

図39および図40は,検出された顔画像領域を利用して自動合焦制御を行う処理手順を示すフローチャートである。   39 and 40 are flowcharts showing a processing procedure for performing automatic focusing control using the detected face image area.

図39を参照して,顔画像検出結果が読み取られ(ステップ111),顔画像領域があれば(ステップ112でYES),顔画像領域が複数かどうかが確認される(ステップ113でYES)。顔画像領域が複数あると(ステップ113でYES)。もっとも大きい顔画像領域が選択されて(ステップ114),その選択された顔画像領域内の画像が合焦領域として設定される(ステップ115)。また,顔画像領域が一つしかなければ(ステップ113でNO),その一つの顔画像領域が合焦領域として設定される(ステップ115)。設定された領域が合焦するように自動合焦処理が行われる(ステップ117)。   Referring to FIG. 39, the face image detection result is read (step 111), and if there is a face image area (YES in step 112), it is confirmed whether there are a plurality of face image areas (YES in step 113). If there are a plurality of face image areas (YES in step 113). The largest face image area is selected (step 114), and the image in the selected face image area is set as the focus area (step 115). If there is only one face image area (NO in step 113), that one face image area is set as the in-focus area (step 115). Automatic focusing processing is performed so that the set area is in focus (step 117).

顔画像領域がなければ(ステップ112でNO),被写体像の中央部分が合焦するように自動合焦処理が行われる(ステップ116)。   If there is no face image area (NO in step 112), automatic focusing processing is performed so that the center portion of the subject image is in focus (step 116).

図40は,自動合焦制御の他の例を示している。図40において図39と同じ処理については同じ符号を付して説明を省略する。   FIG. 40 shows another example of automatic focusing control. In FIG. 40, the same processes as those in FIG.

顔画像領域が複数ある場合には(ステップ113でYES),被写体像のうちもっとも中央に近い部分の顔画像領域が選択される(ステップ118)。   If there are a plurality of face image areas (YES in step 113), the face image area of the subject image closest to the center is selected (step 118).

図41および図42は,階調補正処理を示すフローチャートである。   41 and 42 are flowcharts showing the tone correction processing.

図41を参照して,顔画像領域の検出結果が読み取られ(ステップ121でYES),顔画像領域があれば(ステップ122でYES),各顔画像領域における画像の明るさが算出される(ステップ123)。顔画像領域が複数あれば(ステップ124でYES),もっとも明るい顔画像領域が選択される(ステップ125)。顔画像領域が一つだけであれば(ステップ124でNO),その顔画像領域が設定される。選択または設定された顔画像領域内の画像にもとづいて階調補正処理が行われる(ステップ127)。顔画像領域がなければ(ステップ122でNO),所定の階調補正処理が行われる(ステップ126)。   Referring to FIG. 41, the detection result of the face image area is read (YES in step 121), and if there is a face image area (YES in step 122), the brightness of the image in each face image area is calculated ( Step 123). If there are a plurality of face image areas (YES in step 124), the brightest face image area is selected (step 125). If there is only one face image area (NO in step 124), that face image area is set. A gradation correction process is performed based on the image in the selected or set face image area (step 127). If there is no face image area (NO in step 122), predetermined gradation correction processing is performed (step 126).

図42は,階調補正処理の他の処理を示している。図42において図41に示す処理と同じ処理については同じ符号を付して説明を省略する。   FIG. 42 shows another process of the gradation correction process. In FIG. 42, the same processes as those shown in FIG.

顔画像領域が複数あれば(ステップ124でYES),もっとも大きな顔画像領域が選択される(ステップ128)。選択された顔画像領域内の画像を用いて階調補正が行われる(ステップ129)。   If there are a plurality of face image areas (YES in step 124), the largest face image area is selected (step 128). Tone correction is performed using the image in the selected face image area (step 129).

図43および図44は,色補正処理を示すフローチャートである。   43 and 44 are flowcharts showing the color correction process.

図43を参照して,顔画像領域が読み取られ(ステップ131),顔画像領域があるかどうかが確認される(ステップ132)。顔画像領域があり(ステップ132でYES),顔画像領域が複数ある場合には(ステップ133でYES),もっとも大きな顔画像領域が選択される(ステップ144)。顔画像領域が一つしか存在しない場合には(ステップ133でNO),その顔画像領域が設定される。選択または設定された顔画像領域内の画像から色情報が取得されて(ステップ145),所望の色の画像となるように色補正が行われる(ステップ147)。顔画像領域が存在しない場合には(ステップ132でNO),所定の色補正が行われる(ステップ146)。   Referring to FIG. 43, the face image area is read (step 131), and it is confirmed whether there is a face image area (step 132). If there is a face image area (YES in step 132) and there are a plurality of face image areas (YES in step 133), the largest face image area is selected (step 144). If there is only one face image area (NO in step 133), that face image area is set. Color information is acquired from the image in the selected or set face image area (step 145), and color correction is performed so that an image of a desired color is obtained (step 147). If the face image area does not exist (NO in step 132), predetermined color correction is performed (step 146).

図44は,色補正処理の他の例を示している。図44において図43に示す処理と同じ処理については同じ符号を付して説明を省略する。   FIG. 44 shows another example of color correction processing. In FIG. 44, the same processes as those shown in FIG.

顔画像領域がある場合には(ステップ132でYES),その顔画像領域の色情報が取得される(ステップ148)。顔画像領域が複数ある場合には,所望の色にもっとも近い色の顔画像領域が選択される(ステップ149)。顔画像領域が一つしか存在しない場合には(ステップ133でNO),その顔画像領域が設定される。選択された顔画像領域または選択された顔画像領域内の画像が所望の色となるように色補正が行われる(ステップ147)。   If there is a face image area (YES in step 132), the color information of the face image area is acquired (step 148). If there are a plurality of face image areas, the face image area having the color closest to the desired color is selected (step 149). If there is only one face image area (NO in step 133), that face image area is set. Color correction is performed so that the selected face image area or the image in the selected face image area has a desired color (step 147).

上述の実施例においては,顔画像を検出するものであったが顔画像以外の画像,例えば,目の画像などを同様にして決定するようにしてもよい。   In the above embodiment, the face image is detected. However, an image other than the face image, for example, an eye image may be determined in the same manner.

上述したように決定された顔画像領域にもとづいて,自動露出制御等が行われるほかに,決定された顔画像領域にもとづいて,フラッシュ(ストロボ)制御,省電力制御,ズーム量制御,ゲイン調整,白バランス調整,輪郭強調,ノイズ低減などを行うようにしてもよい。   In addition to automatic exposure control based on the face image area determined as described above, flash (strobe) control, power saving control, zoom amount control, and gain adjustment are performed based on the determined face image area. , White balance adjustment, contour enhancement, noise reduction, and the like may be performed.

2 制御回路
3 CPU
6 ストロボ制御回路
7 ストロボ発光装置
10 撮像素子
17 顔検出処理回路
2 Control circuit 3 CPU
6 Strobe control circuit 7 Strobe light emitting device
10 Image sensor
17 Face detection processing circuit

Claims (4)

ほぼ同一と見なせる被写体を連続して撮像することにより得られた複数駒の被写体像のうちの第1の被写体像から対象画像が存在する第1の位置を検出する第1の検出手段,
上記複数駒の被写体像のうち第2の被写体像から上記対象画像が存在する第2の位置を検出する第2の検出手段,
上記第1の検出手段によって検出された第1の位置と上記第2の検出手段によって検出された第2の位置とにもとづいて,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在する位置を決定する決定手段,ならびに
上記第1の被写体像の大きさと上記第2の被写体像の大きさとが異なるものであり,上記第1の被写体像の大きさと上記第2の被写体像の大きさとが同じである場合における位置となるように,上記第1の検出手段によって検出された第1の位置および上記第2の検出手段によって検出された第2の位置の少なくとも一方の位置を変換する位置変換手段を備え,
上記決定手段は,上記位置変換手段によって変換された上記第1の位置と上記第2の位置とにもとづいて,上記対象画像が存在する位置を決定するものであり,
被写体を撮像して被写体像を表す画像データを出力する撮像装置,
プレ撮像指令に応じて,被写体を撮像して上記第1の被写体像を表す第1の画像データを出力するように上記撮像装置を制御する第1の撮像制御手段,および
本撮像指令に応じて,被写体を撮像して上記第2の被写体像を表す第2の画像データを出力するように上記撮像装置を制御する第2の撮像制御手段をさらに備え,
上記第1の検出手段は,上記第1の撮像制御手段の制御のもとに上記撮像装置から出力された第1の画像データによって表される第1の被写体像の中から上記対象画像が存在する位置を検出するものであり,
上記第2の検出手段は,上記第2の撮像制御手段の制御のもとに上記撮像装置から出力された第2の画像データによって表される第2の被写体像の中から上記対象画像が存在する位置を検出するものである,
対象画像の位置検出装置。
First detecting means for detecting a first position where the target image exists from a first subject image among a plurality of subject images obtained by continuously capturing subjects that can be regarded as substantially the same;
Second detection means for detecting a second position where the target image is present from a second subject image among the plurality of subject images;
Based on the first position detected by the first detection means and the second position detected by the second detection means, at least one of the first subject image and the second subject image. Determining means for determining a position where the target image is present in the subject image, and the size of the first subject image is different from the size of the first subject image, and the size of the first subject image. And the second position detected by the second detection means and the second position detected by the second detection means so as to be the position when the size of the second subject image is the same. A position converting means for converting at least one of the positions;
The determining means determines a position where the target image exists based on the first position and the second position converted by the position converting means,
An imaging device for imaging a subject and outputting image data representing the subject image;
In response to the pre-imaging command, a first imaging control means for controlling the imaging device to image the subject and output first image data representing the first subject image, and in response to the main imaging command , Further comprising second imaging control means for controlling the imaging device so as to image the subject and output second image data representing the second subject image;
The first detection means includes the target image from among first subject images represented by first image data output from the imaging apparatus under the control of the first imaging control means. To detect the position to be
The second detection means includes the target image from the second subject image represented by the second image data output from the imaging device under the control of the second imaging control means. Is to detect the position to
Target image position detection device.
第1の検出手段が,ほぼ同一と見なせる被写体を連続して撮像することにより得られた複数駒の被写体像のうちの第1の被写体像から対象画像が存在する第1の位置を検出し,
第2の検出手段が,上記複数駒の被写体像のうち第2の被写体像から上記対象画像が存在する第2の位置を検出し,
決定手段が,上記第1の検出手段によって検出された第1の位置と上記第2の検出手段によって検出された第2の位置とにもとづいて,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在する位置を決定し,
位置変換手段が,上記第1の被写体像の大きさと上記第2の被写体像の大きさとが異なるものであり,上記第1の被写体像の大きさと上記第2の被写体像の大きさとが同じである場合における位置となるように,上記第1の検出手段によって検出された第1の位置および上記第2の検出手段によって検出された第2の位置の少なくとも一方の位置を変換し,
上記決定手段は,上記位置変換手段によって変換された上記第1の位置と上記第2の位置とにもとづいて,上記対象画像が存在する位置を決定するものであり,
撮像装置が,被写体を撮像して被写体像を表す画像データを出力し,
第1の撮像制御手段が,プレ撮像指令に応じて,被写体を撮像して上記第1の被写体像を表す第1の画像データを出力するように上記撮像装置を制御し,
第2の撮像制御手段が,本撮像指令に応じて,被写体を撮像して上記第2の被写体像を表す第2の画像データを出力するように上記撮像装置を制御し,
上記第1の検出手段は,上記第1の撮像制御手段の制御のもとに上記撮像装置から出力された第1の画像データによって表される第1の被写体像の中から上記対象画像が存在する位置を検出するものであり,
上記第2の検出手段は,上記第2の撮像制御手段の制御のもとに上記撮像装置から出力された第2の画像データによって表される第2の被写体像の中から上記対象画像が存在する位置を検出するものである,
対象画像の位置検出方法。
A first detection unit that detects a first position where the target image exists from a first subject image among a plurality of subject images obtained by continuously capturing subjects that can be regarded as substantially the same;
A second detecting means for detecting a second position where the target image exists from a second subject image among the plurality of subject images;
Based on the first position detected by the first detection means and the second position detected by the second detection means, the determination means determines the first subject image and the second subject. Determining a position where the target image exists in at least one subject image of the image;
The position conversion means is such that the size of the first subject image is different from the size of the second subject image, and the size of the first subject image is the same as the size of the second subject image. Converting at least one of the first position detected by the first detection means and the second position detected by the second detection means to be a position in a certain case;
The determining means determines a position where the target image exists based on the first position and the second position converted by the position converting means,
The imaging device images the subject and outputs image data representing the subject image,
A first imaging control unit that controls the imaging device to image a subject and output first image data representing the first subject image in response to a pre-imaging command;
A second imaging control unit that controls the imaging device to image a subject and output second image data representing the second subject image in response to the main imaging command;
The first detection means includes the target image from among first subject images represented by first image data output from the imaging apparatus under the control of the first imaging control means. To detect the position to be
The second detection means includes the target image from the second subject image represented by the second image data output from the imaging device under the control of the second imaging control means. Is to detect the position to
A method for detecting the position of a target image.
対象画像の位置検出装置のコンピュータを制御するコンピュータ読み取り可能なプログラムであって,
ほぼ同一と見なせる被写体を連続して撮像することにより得られた複数駒の被写体像のうちの第1の被写体像から対象画像が存在する第1の位置を検出させ,
上記複数駒の被写体像のうち第2の被写体像から上記対象画像が存在する第2の位置を検出させ,
検出された上記第1の位置と検出された上記第2の位置とにもとづいて,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在する位置を決定させ,
上記第1の被写体像の大きさと上記第2の被写体像の大きさとが異なるものであり,上記第1の被写体像の大きさと上記第2の被写体像の大きさとが同じである場合における位置となるように,検出された上記第1の位置および検出された上記第2の位置の少なくとも一方の位置を変換させ,
変換された上記第1の位置と上記第2の位置とにもとづいて,上記対象画像が存在する位置を決定させ,
プレ撮像指令に応じて,被写体を撮像して上記第1の被写体像を表す第1の画像データを出力するように撮像装置を制御させ,
本撮像指令に応じて,被写体を撮像して上記第2の被写体像を表す第2の画像データを出力するように上記撮像装置を制御させ,
上記第1の位置の検出処理は,上記撮像装置から出力された第1の画像データによって表される第1の被写体像の中から上記対象画像が存在する位置を検出させ,
上記第2の位置の検出処理は,上記撮像装置から出力された第2の画像データによって表される第2の被写体像の中から上記対象画像が存在する位置を検出させるものである,
対象画像の位置検出装置のコンピュータを制御するプログラム。
A computer-readable program for controlling a computer of a target image position detection device,
A first position where the target image exists is detected from a first subject image among a plurality of subject images obtained by continuously capturing subjects that can be regarded as substantially the same;
A second position where the target image exists is detected from a second subject image among the plurality of subject images;
Based on the detected first position and the detected second position, a position where the target image exists in at least one of the first subject image and the second subject image is determined. Let
A position where the size of the first subject image is different from the size of the second subject image, and the size of the first subject image is the same as the size of the second subject image; And converting at least one of the detected first position and the detected second position,
Based on the converted first position and second position, the position where the target image exists is determined;
In response to the pre-imaging command, the imaging device is controlled to image a subject and output first image data representing the first subject image,
In response to the main imaging command, the imaging device is controlled to image a subject and output second image data representing the second subject image,
In the first position detection process, the position where the target image exists is detected from the first subject image represented by the first image data output from the imaging device,
In the second position detection process, the position where the target image exists is detected from the second subject image represented by the second image data output from the imaging device.
A program for controlling a computer of a target image position detection apparatus.
請求項3に記載のプログラムを格納した記録媒体。   A recording medium storing the program according to claim 3.
JP2009258940A 2009-11-12 2009-11-12 Target image position detecting device and method, and program for controlling target image position detecting device Expired - Fee Related JP5000699B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009258940A JP5000699B2 (en) 2009-11-12 2009-11-12 Target image position detecting device and method, and program for controlling target image position detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009258940A JP5000699B2 (en) 2009-11-12 2009-11-12 Target image position detecting device and method, and program for controlling target image position detecting device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005269387A Division JP4431532B2 (en) 2005-09-16 2005-09-16 Target image position detecting device and method, and program for controlling target image position detecting device

Publications (2)

Publication Number Publication Date
JP2010035237A true JP2010035237A (en) 2010-02-12
JP5000699B2 JP5000699B2 (en) 2012-08-15

Family

ID=41739087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009258940A Expired - Fee Related JP5000699B2 (en) 2009-11-12 2009-11-12 Target image position detecting device and method, and program for controlling target image position detecting device

Country Status (1)

Country Link
JP (1) JP5000699B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016052096A (en) * 2014-09-02 2016-04-11 任天堂株式会社 Image processing program, information processing system, and image processing method
JP2017011451A (en) * 2015-06-19 2017-01-12 カシオ計算機株式会社 Detection device, detection method and program
JP2017107058A (en) * 2015-12-09 2017-06-15 キヤノン株式会社 Imaging apparatus and method for controlling the same
US10348983B2 (en) 2014-09-02 2019-07-09 Nintendo Co., Ltd. Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232783A (en) * 2001-02-06 2002-08-16 Sony Corp Image processor, method therefor and record medium for program
JP2004193962A (en) * 2002-12-11 2004-07-08 Sony Corp Image communication equipment, image communication method, and computer program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232783A (en) * 2001-02-06 2002-08-16 Sony Corp Image processor, method therefor and record medium for program
JP2004193962A (en) * 2002-12-11 2004-07-08 Sony Corp Image communication equipment, image communication method, and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016052096A (en) * 2014-09-02 2016-04-11 任天堂株式会社 Image processing program, information processing system, and image processing method
US10348983B2 (en) 2014-09-02 2019-07-09 Nintendo Co., Ltd. Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image
JP2017011451A (en) * 2015-06-19 2017-01-12 カシオ計算機株式会社 Detection device, detection method and program
JP2017107058A (en) * 2015-12-09 2017-06-15 キヤノン株式会社 Imaging apparatus and method for controlling the same

Also Published As

Publication number Publication date
JP5000699B2 (en) 2012-08-15

Similar Documents

Publication Publication Date Title
JP4431532B2 (en) Target image position detecting device and method, and program for controlling target image position detecting device
US8026932B2 (en) Image processing apparatus, image processing method, image processing program, and image pickup apparatus
JP4537255B2 (en) Imaging apparatus and imaging method
KR101303410B1 (en) Image capture apparatus and image capturing method
US7582871B2 (en) Image pickup apparatus and a switching-over method for the same
JP6394338B2 (en) Image processing apparatus, image processing method, and imaging system
CN111107276B (en) Information processing apparatus, control method thereof, storage medium, and imaging system
US7486884B2 (en) Imaging device and imaging method
JP2008236101A (en) Imaging device and imaging method
US20090322897A1 (en) Digital image processing apparatus having self-navigator function, and operation method of the digital image processing apparatus
US20110128415A1 (en) Image processing device and image-shooting device
US8446510B2 (en) Method and apparatus for improving face image in digital image processor
JP2008299784A (en) Object determination device and program therefor
JP5000699B2 (en) Target image position detecting device and method, and program for controlling target image position detecting device
JPH11113018A (en) Image pickup device
JP2010063065A (en) Image input device
JP2015031743A (en) Exposure control device, control method for the same, and control program, and imaging device
US20210289119A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP5566680B2 (en) Imaging apparatus and imaging method
JP2015192338A (en) Image processing device and image processing program
JP2021097347A (en) Imaging apparatus, control method of the same, and program
WO2020026561A1 (en) Image processing device, image processing method, program and image-capturing device
JP3985005B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM FOR CAUSING COMPUTER TO EXECUTE THE CONTROL METHOD
KR101589493B1 (en) White ballance control method and apparatus using a flash and digital photographing apparatus using thereof
JP5264695B2 (en) Image processing method, image processing apparatus, and imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120516

R150 Certificate of patent or registration of utility model

Ref document number: 5000699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees