[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2007312249A - Unit and method for image processing - Google Patents

Unit and method for image processing Download PDF

Info

Publication number
JP2007312249A
JP2007312249A JP2006140903A JP2006140903A JP2007312249A JP 2007312249 A JP2007312249 A JP 2007312249A JP 2006140903 A JP2006140903 A JP 2006140903A JP 2006140903 A JP2006140903 A JP 2006140903A JP 2007312249 A JP2007312249 A JP 2007312249A
Authority
JP
Japan
Prior art keywords
subject
detection
shooting
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006140903A
Other languages
Japanese (ja)
Other versions
JP4777143B2 (en
JP2007312249A5 (en
Inventor
Takashi Ichinomiya
敬 一宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006140903A priority Critical patent/JP4777143B2/en
Publication of JP2007312249A publication Critical patent/JP2007312249A/en
Publication of JP2007312249A5 publication Critical patent/JP2007312249A5/ja
Application granted granted Critical
Publication of JP4777143B2 publication Critical patent/JP4777143B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize a technique for improving an object detection rate, while reducing incorrect detection. <P>SOLUTION: An image processing unit for detecting an object from a photographed image includes an acquisition means for acquiring photography information at the time of photography; a modification means for modifying the detection condition of the above object by a detection means corresponding to the above photography information; and the detection means for detecting the object from the above feature information by extracting feature information of the object from the photographed image using the above photography condition. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像中の被写体検出技術に関する。   The present invention relates to a subject detection technique in an image.

従来より、画像認識や音声認識の分野においては、特定の認識対象に特化した認識処理アルゴリズムを、コンピュータソフト、或いは専用並列画像処理プロセッサを用いたハードウェアにより実現することで認識対象を検出するものが知られている。   Conventionally, in the field of image recognition and speech recognition, a recognition target is detected by realizing a recognition processing algorithm specialized for a specific recognition target by computer software or hardware using a dedicated parallel image processor. Things are known.

特に顔を含む画像から、この顔を特定の認識対象として検出するものとしては、従来から幾つか知られている。   In particular, there are some known methods for detecting a face as a specific recognition target from an image including the face.

例えば、顔の各部品の形状データと入力画像とのマッチング結果から被写体を検出する技術が開示されている(特許文献1参照)。この技術では、目、口、鼻等の形状データを用意しておき、まず2つの目を求める。続いて口、鼻等を求める際にその目の位置に基づいて、口、鼻等の顔部品の検索領域を限定する。つまり、このアルゴリズムでは、目、口、鼻といった顔を構成する顔部品を並列的に検出するのではなく、目を最初に見つけ、その結果を使用して順に口、鼻という顔部品を検出している。   For example, a technique for detecting a subject from a matching result between shape data of each component of a face and an input image is disclosed (see Patent Document 1). In this technique, shape data such as eyes, mouth, and nose are prepared, and first two eyes are obtained. Subsequently, when obtaining the mouth, nose, etc., the search area for the facial parts such as the mouth, nose, etc. is limited based on the position of the eyes. In other words, this algorithm does not detect face parts that make up the face such as eyes, mouth, and nose in parallel, but first finds the eyes and uses the results to detect face parts such as mouth and nose in order. ing.

また、モニター用に得られた画像中から人物の顔に相当する領域を画像処理によって検出する機能を有するカメラが提案されている。このカメラによれば、人物の顔が撮影画像のいずれの位置に存在する場合でも、人物の顔に焦点を合わせ、人物の顔に最適な露出で撮影を行うことが可能となる。
特開2005−56387号公報(第32頁、図9)
In addition, a camera having a function of detecting an area corresponding to a human face from images obtained for a monitor by image processing has been proposed. According to this camera, regardless of the position of the person's face in the captured image, it is possible to focus on the person's face and take a picture with an optimum exposure for the person's face.
Japanese Patent Laying-Open No. 2005-56387 (page 32, FIG. 9)

しかしながら、上述した従来の方法では、撮影時の状況によっては、画像から顔を検出できない場合もある。例えば、撮影時にストロボ発光した時の画像では、発光時の閃光により人物の目は通常時よりも細くなっている場合があり、目として認識できないことがある。   However, in the conventional method described above, a face may not be detected from an image depending on the situation at the time of shooting. For example, in an image when a flash is emitted during photographing, a person's eyes may be thinner than normal due to a flashing light, and may not be recognized as eyes.

また、動画撮影や連続撮影時の画像は、顔がカメラを向いていないシーンがあり、その場合は、顔がカメラを向いている時と比べて、目と口などの位置関係が変わってくるので顔として認識できなことがある。   In addition, there are scenes where the face is not facing the camera when shooting movies or continuous shooting, in which case the positional relationship between the eyes and mouth changes compared to when the face is facing the camera. So it may not be recognized as a face.

また、検出した顔情報の位置情報により焦点や露出制御を行うカメラでは、主被写体だけでなく周辺人物も含めて検出した場合、主被写体でなく間違った人物について焦点や露出を合わせてしまうことがある。   In addition, in a camera that performs focus and exposure control based on the position information of the detected face information, if not only the main subject but also surrounding people are detected, the focus and exposure may be adjusted for the wrong person instead of the main subject. is there.

上記課題を解決するために、本発明は、撮影画像から被写体を検出する画像処理装置であって、撮影時の撮影情報を取得する取得手段と、前記撮影情報に応じて前記検出手段による被写体の検出条件を変更する変更手段と、前記撮影条件により撮影画像から被写体の特徴情報を抽出し、当該特徴情報から被写体を検出する検出手段と、を備える。   In order to solve the above-described problems, the present invention provides an image processing apparatus that detects a subject from a captured image, an acquisition unit that acquires shooting information at the time of shooting, and an object that is detected by the detection unit according to the shooting information. Changing means for changing the detection condition; and detecting means for extracting feature information of the subject from the photographed image based on the shooting condition and detecting the subject from the feature information.

また、本発明は、撮影画像から被写体を検出する画像処理方法であって、撮影時の撮影情報を取得するステップと、前記撮影情報に応じて被写体の検出条件を変更するステップと、前記検出条件により撮影画像から被写体の特徴情報を抽出し、当該特徴情報から被写体を検出する検出ステップと、を備える。   The present invention is also an image processing method for detecting a subject from a captured image, the step of acquiring shooting information at the time of shooting, the step of changing the detection condition of the subject according to the shooting information, and the detection condition To detect feature information of the subject from the photographed image and detect the subject from the feature information.

本発明によれば、撮影情報から予測した被写体の状況に応じた検出条件を選択して被写体を検出することで、検出率を向上させると共に、誤検出を低減することができる。   According to the present invention, it is possible to improve the detection rate and reduce false detection by selecting a detection condition according to the state of the subject predicted from the photographing information and detecting the subject.

以下に、添付図面を参照して本発明を実施するための最良の形態について詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

[第1の実施形態]
図1は、本発明に係る画像処理装置を実装した第1の実施形態の撮像装置の主要な構成要素を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing main components of an imaging apparatus according to a first embodiment in which an image processing apparatus according to the present invention is mounted.

図1において、マイクロコンピュータ(以下、CPUという。)100には、カメラの各種操作スイッチ群114を検知するための信号入力回路104、撮像センサ106、測光用センサ107、焦点検出用センサ108、ストロボ109、表示部110、外部メモリ102、映像信号処理回路103、画像処理回路101が接続されている。   In FIG. 1, a microcomputer (hereinafter referred to as CPU) 100 includes a signal input circuit 104 for detecting various operation switch groups 114 of the camera, an image sensor 106, a photometric sensor 107, a focus detection sensor 108, a strobe. 109, a display unit 110, an external memory 102, a video signal processing circuit 103, and an image processing circuit 101 are connected.

また、CPU100は、不図示の撮影レンズとの間でレンズ通信回路105を介してレンズ制御信号115の授受を行い、焦点位置や絞りの制御を行う。   Further, the CPU 100 exchanges a lens control signal 115 with a photographing lens (not shown) via the lens communication circuit 105 to control the focal position and the diaphragm.

また、CPU100内には装置全体の動作を制御するプログラムを格納したROM111、一時的に変数を記憶するためのRAM112、各種パラメータを記憶するためのEEPROM113が内蔵されている。   The CPU 100 includes a ROM 111 storing a program for controlling the operation of the entire apparatus, a RAM 112 for temporarily storing variables, and an EEPROM 113 for storing various parameters.

カメラの各種モードの設定はスイッチ群114の設定で決定される。本実施形態の撮像装置は、様々な被写体に対して一般的な撮影を行うオートモードや、人物の撮影に適するようにプログラムされたポートレートモード、動きのある被写体に対して連続して撮影を行う連写モード、露出を通常よりもオーバー又はアンダーで撮影できる露出補正撮影モード、動画撮影モードなどの撮影モードを有する。   The setting of various camera modes is determined by the setting of the switch group 114. The imaging apparatus according to the present embodiment continuously shoots a moving subject, an auto mode in which general photographing is performed on various subjects, a portrait mode programmed to be suitable for photographing a person, and a moving subject. It has shooting modes such as a continuous shooting mode to be performed, an exposure correction shooting mode in which the exposure can be taken more or less than usual, and a moving image shooting mode.

CPU100は測光用センサ107、焦点検出用センサ108を制御することで、被写体の合焦具合や輝度を検出し、不図示の撮影レンズのフォーカスレンズ位置、絞り値や露光時間を決定する。また、ストロボ109による発光が必要か否かも判断する。   The CPU 100 controls the photometry sensor 107 and the focus detection sensor 108 to detect the focus state and brightness of the subject, and determine the focus lens position, aperture value, and exposure time of a photographing lens (not shown). It is also determined whether or not the flash 109 needs to emit light.

そして、レンズ通信回路105を介して絞り値を制御し、ストロボ109、撮像センサ106を制御することで撮影動作を行う。   The aperture value is controlled via the lens communication circuit 105, and the photographing operation is performed by controlling the strobe 109 and the image sensor 106.

撮像センサ106により撮影された画像信号は映像信号処理回路103において信号処理が行われ、外部メモリ102に記憶される。ここでの信号処理とはノイズ除去処理、ホワイトバランス処理、圧縮符号化処理、復号処理などが含まれる。   The image signal captured by the image sensor 106 is subjected to signal processing in the video signal processing circuit 103 and stored in the external memory 102. Here, the signal processing includes noise removal processing, white balance processing, compression encoding processing, decoding processing, and the like.

表示部110は、映像信号処理回路103により信号処理が行われた画像や、各種メニューおよびユーザに対して警告や指示などの表示を行う。   The display unit 110 displays an image subjected to signal processing by the video signal processing circuit 103, various menus, and warnings and instructions for the user.

画像処理回路101は、被写体検出ブロック116、検出パラメータ選択ブロック117、検出パラメータ群118、判定ブロック119、判定レベル決定ブロック120、撮影情報入力ブロック121を備える。そして、画像処理回路101は、映像信号処理回路103から出力された画像信号の中から人物の顔に相当する位置情報や顔の特徴情報などの検出を行う。   The image processing circuit 101 includes a subject detection block 116, a detection parameter selection block 117, a detection parameter group 118, a determination block 119, a determination level determination block 120, and a shooting information input block 121. The image processing circuit 101 detects position information corresponding to a person's face, facial feature information, and the like from the image signal output from the video signal processing circuit 103.

撮影情報入力ブロック121は、スイッチ群114の設定により設定されたカメラの各種モードや、ストロボ発光の有無などの撮影情報を、検出パラメータ選択ブロック117や判定レベル決定ブロック120へ出力する。   The shooting information input block 121 outputs shooting information such as various camera modes set by the setting of the switch group 114 and the presence or absence of strobe light emission to the detection parameter selection block 117 and the determination level determination block 120.

検出パラメータ選択ブロック117は、撮影情報入力ブロック121から入力された撮影情報に応じて、予め複数用意している検出パラメータ群118の中から、少なくとも1つ以上の検出パラメータを選択する。検出パラメータ群118は、目の形状や、目と口の位置関係、肌色などの人物を判定するための情報である。   The detection parameter selection block 117 selects at least one or more detection parameters from a plurality of detection parameter groups 118 prepared in advance according to the shooting information input from the shooting information input block 121. The detection parameter group 118 is information for determining a person such as the shape of the eyes, the positional relationship between the eyes and the mouth, and the skin color.

判定レベル決定ブロック120は、撮影情報入力ブロック121から入力された撮影情報に応じて、人物の顔の判定基準となる判定レベルを決定する。   The determination level determination block 120 determines a determination level that is a determination criterion for a person's face according to the shooting information input from the shooting information input block 121.

被写体検出ブロック116では、画像から局所特徴(ここでは目や口)を抽出し、さらに検出パラメータ選択ブロック117で選択された検出パラメータについて画像を評価し、人物の顔に相当する位置情報や顔の特徴情報などをCPU100へ出力する。   In the subject detection block 116, local features (here, eyes and mouth) are extracted from the image, and the image is evaluated with respect to the detection parameter selected in the detection parameter selection block 117. Feature information and the like are output to the CPU 100.

判定ブロック119は、被写体検出ブロック116で画像を評価した評価結果と判定レベル決定ブロック120で決定した判定レベルとを比較することで、人物の顔が存在するか否かの判定を行う。   The determination block 119 determines whether or not a person's face exists by comparing the evaluation result obtained by evaluating the image in the subject detection block 116 with the determination level determined by the determination level determination block 120.

ここで、検出パラメータ群118と判定レベルについて図4から図8を用いてより詳細に説明する。   Here, the detection parameter group 118 and the determination level will be described in more detail with reference to FIGS.

図8は、検出パラメータの項目と、一般的な撮影における各パラメータに対応した判定レベルを示した図であり、本実施形態では6項目のパラメータを例示的に挙げている。   FIG. 8 is a diagram showing detection parameter items and determination levels corresponding to parameters in general imaging. In the present embodiment, six parameter parameters are exemplified.

先ず、図8の検出パラメータの「目の縦横比」について図4を用いて説明する。   First, the “eye aspect ratio” of the detection parameters in FIG. 8 will be described with reference to FIG.

図4は、被写体検出ブロック116で検出した人物の目の拡大図であり、目頭から目尻までの間隔を横幅W、W方向とは直交する方向の間隔を縦幅Hとし、WとHの比W/Hを「目の縦横比」とする。   FIG. 4 is an enlarged view of a human eye detected by the subject detection block 116, where the distance from the top of the eye to the corner of the eye is the width W, the distance perpendicular to the W direction is the height H, and the ratio of W to H is shown in FIG. Let W / H be the aspect ratio of the eyes.

次に、図8の検出パラメータの「目と口の位置関係」について図5を用いて説明する。   Next, the “positional relationship between eyes and mouth” of the detection parameters in FIG. 8 will be described with reference to FIG.

図5は、被写体検出ブロック116で検出した人物の目と口の拡大図であり、一方の目から他方の目までの間隔をD1、両方の目から口まで間隔をそれぞれD2、D3とし、D1、D2、D3の比D1:D2、D1:D3を「目と口の位置関係」とする。   FIG. 5 is an enlarged view of a person's eyes and mouth detected by the subject detection block 116. The distance from one eye to the other eye is D1, and the distance from both eyes to the mouth is D2 and D3, respectively. , D2, D3 ratios D1: D2, D1: D3 are “positional relationship between eyes and mouth”.

次に、図8の検出パラメータの「画面における目の水平度」について図6を用いて説明する。   Next, the detection parameter “eye level on the screen” in FIG. 8 will be described with reference to FIG.

図6は、被写体検出ブロック116で検出した人物の目と口の拡大図であり、画面下部に対して、一方の目から他方の目までを結んだ線分の傾きΘを「目の水平度」とする。   FIG. 6 is an enlarged view of a person's eyes and mouth detected by the subject detection block 116, and the slope Θ of the line connecting one eye to the other eye is expressed as “the level of the eye” with respect to the lower part of the screen. "

次に、図8の検出パラメータの「画面における顔の大きさ」について図7を用いて説明する。   Next, the detection parameter “face size on the screen” in FIG. 8 will be described with reference to FIG.

図7は、被写体検出ブロック116で検出した画面における顔の大きさの拡大図であり、目と口で囲まれた面積ΔS、画面全体の面積をSとし、ΔS/Sを「画面における顔の大きさ」とする。   FIG. 7 is an enlarged view of the size of the face on the screen detected by the subject detection block 116, where the area ΔS surrounded by the eyes and mouth, the area of the entire screen is S, and ΔS / S is “the face of the face on the screen”. “Size”.

なお、「目の色情報」は瞳のRed、Green、Blueの各色情報であり、顔の色情報とは目と口で囲まれた部分のRed、Green、Blueの各肌色情報とする。   Note that “eye color information” is red, green, and blue color information of the pupil, and face color information is red, green, and blue skin color information of a portion surrounded by the eyes and mouth.

図8の判定レベルは、一般的な撮影における判定レベルであり、撮影条件によって値が変化する。   The determination level in FIG. 8 is a determination level in general shooting, and the value varies depending on shooting conditions.

また、ここでの検出パラメータや判定レベルは、一例でありこれらに限られるものではない。   The detection parameters and determination levels here are only examples and are not limited thereto.

<動作説明>
次に、第1の実施形態の撮像装置の動作について、図2のフローチャートを用いて詳細に説明する。
<Description of operation>
Next, the operation of the imaging apparatus according to the first embodiment will be described in detail with reference to the flowchart of FIG.

図2において、S201では、CPU100は、測光用センサ107、焦点検出用センサ108を制御して被写体の合焦度合や輝度を検出する。また、CPU100は、スイッチ群114の状態により設定された撮影モードに応じて、不図示の撮影レンズのフォーカスレンズ位置、絞り値や露光時間を決定する。そして、レンズ通信回路105を介して絞り値を制御し、ストロボ109、撮像センサ106を制御して撮影動作を行う。撮影された画像信号は映像信号処理回路103で所定の信号処理が施された後、表示部110に表示されると共に、外部メモリ102へ保存され、被写体検出ブロック116へ入力される。   In FIG. 2, in S <b> 201, the CPU 100 controls the photometry sensor 107 and the focus detection sensor 108 to detect the degree of focus and the luminance of the subject. Further, the CPU 100 determines a focus lens position, an aperture value, and an exposure time of a photographing lens (not shown) according to the photographing mode set by the state of the switch group 114. Then, the aperture value is controlled via the lens communication circuit 105, and the strobe 109 and the image sensor 106 are controlled to perform a photographing operation. The captured image signal is subjected to predetermined signal processing by the video signal processing circuit 103 and then displayed on the display unit 110, stored in the external memory 102, and input to the subject detection block 116.

S202では、撮影情報取得ブロック121が画像を撮影した時の撮影情報の取得を行う。撮影情報とは、スイッチ群114で設定されたカメラの各種モードや、ストロボ発光の有無などの情報である。これらの情報を検出パラメータ選択ブロック117と判定レベル決定ブロック120へ出力する。   In S202, the shooting information acquisition block 121 acquires shooting information when an image is shot. The imaging information is information such as various camera modes set by the switch group 114 and the presence or absence of flash emission. These pieces of information are output to the detection parameter selection block 117 and the determination level determination block 120.

S203では、検出パラメータ選択ブロック117が撮影情報入力ブロック121で取得した撮影情報に応じて、検出パラメータ群118の中から、少なくとも1つ以上の検出パラメータを選択する。   In S203, the detection parameter selection block 117 selects at least one detection parameter from the detection parameter group 118 according to the shooting information acquired by the shooting information input block 121.

S204では、判定レベル決定ブロック120が撮影情報入力ブロック121で取得した撮影情報に応じて、各検出パラメータについての判定レベルを決定する。   In S <b> 204, the determination level determination block 120 determines the determination level for each detection parameter according to the shooting information acquired by the shooting information input block 121.

ここで、S203の検出パラメータ選択動作およびS204の判定レベル決定動作について、より詳細に説明する。   Here, the detection parameter selection operation in S203 and the determination level determination operation in S204 will be described in more detail.

図9は、撮影情報と検出パラメータおよび評価値の判定レベルを示した図である。   FIG. 9 is a diagram showing the shooting information, detection parameters, and evaluation level determination levels.

図9において、ポートレート撮影モード時は、被写体と撮像装置が正対し、かつ主被写体を画面に対して大きく撮影することが多い。この場合、主被写体の周辺に存在する人物ではなく、主被写体に対して確実に検出を行う必要がある。従って、検出パラメータ選択ブロック117は検出パラメータ群118の全てを選択する。また、判定レベル決定ブロック120は、正対度を表す「目と口の位置関係」の判定レベルをより厳密に、「画面における顔の大きさ」の判定レベルをより大きな被写体を検出するように設定する。   In FIG. 9, in the portrait shooting mode, the subject and the imaging device are facing each other and the main subject is often photographed on the screen. In this case, it is necessary to reliably detect the main subject, not the person existing around the main subject. Therefore, the detection parameter selection block 117 selects all of the detection parameter groups 118. In addition, the determination level determination block 120 detects an object having a higher determination level of “positional relationship between eyes and mouth” representing the degree of confrontation and a determination level of “face size on the screen” larger. Set.

ストロボ発光時は、ストロボ光より被写体の目が通常よりも細くなり、またストロボ光が瞳孔部で反射することにより赤目になることが多い。従って、検出パラメータ選択ブロック117は検出パラメータ群118のうち、「目の色情報」以外を選択する。また、判定レベル決定ブロック120は、「目の縦横比」の判定レベルを細目でも被写体を検出できるように設定する。なお、ポートレート撮影モードとストロボ発光が同時に設定された場合は「目の色情報」と「目の縦横比」はストロボ発光時の判定レベルが優先され、それ以外の検出パラメータはポートレート撮影モードの判定レベルが優先される。このように、それぞれの検出パラメータに対して、どの撮影モードの判定レベルが優先されるかが予め定められている。   When the flash is fired, the subject's eyes are thinner than usual, and the red light is often reflected by the pupil part, resulting in red eyes. Therefore, the detection parameter selection block 117 selects other than “eye color information” from the detection parameter group 118. In addition, the determination level determination block 120 sets the determination level of the “aspect ratio of the eyes” so that the subject can be detected even with a small detail. When portrait shooting mode and flash firing are set at the same time, priority is given to the judgment level at the time of flash firing for “eye color information” and “eye aspect ratio”, and other detection parameters are portrait shooting mode. The determination level is given priority. As described above, it is determined in advance which shooting mode is given priority for each detection parameter.

露出補正撮影時は、ユーザが意図して被写体輝度を低くしたり、高くしたりする場合があり、色情報による被写体検出ができないことが多い。従って、検出パラメータ選択ブロック117は検出パラメータ群118のうち「目の色情報」と「顔の色情報」以外を選択する。   During exposure compensation shooting, the user may intentionally lower or increase the subject brightness, and in many cases, the subject cannot be detected based on color information. Therefore, the detection parameter selection block 117 selects other than “eye color information” and “face color information” from the detection parameter group 118.

連続撮影や動画撮影モード時は、被写体が動いているので、被写体と撮像装置が正対していないことが多い。従って、判定レベル決定ブロック120は、正対度を表す「目と口の位置関係」と、「画面における目の水平度」の判定レベルをより緩和する。   In continuous shooting or moving image shooting mode, the subject is moving, so the subject and the imaging device often do not face each other. Therefore, the determination level determination block 120 further relaxes the determination levels of “the positional relationship between the eyes and the mouth” representing the degree of confrontation and “the level of the eyes on the screen”.

その他の撮影情報では、検出パラメータ選択ブロック117は検出パラメータ群118の全てを選択する。また、判定レベル決定ブロック120は、図8に示したように標準的な判定レベルを設定する。   For other imaging information, the detection parameter selection block 117 selects all of the detection parameter groups 118. The determination level determination block 120 sets a standard determination level as shown in FIG.

S205では、被写体検出ブロック116は入力された画像を用いて、この画像中の顔の局所特徴である目と口に相当する形状部分の抽出を行う。図3(a)のような背景と人物を含んだ画像から、図3(b)に示すように人物の目と口の画像のみを抽出する。そして、S203で検出パラメータ選択ブロック117により選択した各検出パラメータについて演算を行う。   In S205, the subject detection block 116 uses the input image to extract a shape portion corresponding to the eyes and mouth, which are local features of the face in the image. From the image including the background and the person as shown in FIG. 3A, only the image of the person's eyes and mouth is extracted as shown in FIG. Then, calculation is performed for each detection parameter selected by the detection parameter selection block 117 in S203.

ここでの局所特徴の抽出方法は、例えば、特開2005−056387公報に記載されている。   The local feature extraction method here is described in, for example, JP-A-2005-056387.

S206では、S205で被写体検出ブロック116により演算した検出パラメータについて演算した評価結果について、判定ブロック119により判定を行う。ここでは、演算した全ての評価結果が、判定レベル決定ブロックで決定した判定レベル範囲内である場合は、被写体の顔が検出できたと判断してS207へ移行する。一方、演算した評価結果の1つでも判定レベル範囲外である場合は、被写体の顔が存在していないと判断して一連の動作を終了する。   In S206, the determination block 119 determines the evaluation result calculated for the detection parameter calculated by the subject detection block 116 in S205. Here, if all the calculated evaluation results are within the determination level range determined by the determination level determination block, it is determined that the face of the subject has been detected, and the process proceeds to S207. On the other hand, if even one of the calculated evaluation results is out of the determination level range, it is determined that the subject's face does not exist, and the series of operations ends.

S207では、S205で検出した目と口の位置から被写体の顔の位置や表情などの被写体情報をRAM112に記憶し、次回の撮影時の被写体位置を中心とした測光および焦点位置制御などに利用する。また、被写体情報を画像と関連付けて外部メモリ102へ記憶することで、画像を検索する際の条件として利用することもできる。   In S207, subject information such as the face position and facial expression of the subject from the eye and mouth positions detected in S205 is stored in the RAM 112, and is used for photometry and focus position control centering on the subject position at the next shooting. . Further, by storing the subject information in the external memory 102 in association with the image, it can be used as a condition for searching for the image.

また、これまでの説明では、1人の被写体について説明しているが、複数の被写体についても検出可能である。   In the above description, one subject is described, but a plurality of subjects can also be detected.

また、図9の検出パラメータと判定レベルは一例であり、これらに限られるのもではない。   Further, the detection parameters and determination levels in FIG. 9 are examples, and are not limited to these.

以上のように、撮影情報に応じて、最適な検出パラメータと判定レベルを選択することで、被写体の検出率を上げると共に誤検出を低減することができる。   As described above, by selecting the optimum detection parameter and determination level according to the shooting information, it is possible to increase the detection rate of the subject and reduce the false detection.

次に、図2のフローチャートとは別の動作について、図10のフローチャートを用いて詳細に説明する。   Next, an operation different from the flowchart of FIG. 2 will be described in detail with reference to the flowchart of FIG.

図10において、S1001では、CPU100は、測光用センサ107、焦点検出用センサ108を制御して被写体の合焦具合や輝度を検出する。また、CPU100は、スイッチ群114の状態により設定された撮影モードに応じて、不図示の撮影レンズのフォーカスレンズ位置、絞り値や露光時間を決定する。そして、レンズ通信回路105を介して絞り値を制御し、ストロボ109、撮像センサ106を制御して撮影動作を行う。撮影された画像信号は映像信号処理回路103で所定の信号処理が施された後、表示部110に表示されると共に、外部メモリ102へ保存され、被写体検出ブロック116へ出力する。   In FIG. 10, in S1001, the CPU 100 controls the photometry sensor 107 and the focus detection sensor 108 to detect the in-focus state and luminance of the subject. Further, the CPU 100 determines a focus lens position, an aperture value, and an exposure time of a photographing lens (not shown) according to the photographing mode set by the state of the switch group 114. Then, the aperture value is controlled via the lens communication circuit 105, and the strobe 109 and the image sensor 106 are controlled to perform a photographing operation. The captured image signal is subjected to predetermined signal processing by the video signal processing circuit 103, and then displayed on the display unit 110, stored in the external memory 102, and output to the subject detection block 116.

S1002では、撮影情報入力ブロック121が画像を撮影した時の撮影情報の取得を行う。撮影情報とは、スイッチ群114で設定されたカメラの各種モードや、ストロボ発光の有無など情報、またRAM112に記憶されている前回の撮影した画像についての被写体情報である。これらの撮影情報を検出パラメータ選択ブロック117と判定レベル決定ブロック120へ出力する。   In S1002, shooting information when the shooting information input block 121 has shot an image is acquired. The shooting information is information such as various camera modes set by the switch group 114, the presence / absence of strobe light emission, and subject information about the last shot image stored in the RAM 112. These pieces of shooting information are output to the detection parameter selection block 117 and the determination level determination block 120.

S1003では、判定ブロック119は、S1002で撮影情報入力ブロック121が取得した撮影情報が、連続撮影モードあるいは動画撮影モードであるか否かの判定を行う。連続撮影モードあるいは動画撮影モードである場合は、S1004へ移行し、それ以外の撮影情報である場合は、S1005へ移行する。   In S1003, the determination block 119 determines whether or not the shooting information acquired by the shooting information input block 121 in S1002 is the continuous shooting mode or the moving image shooting mode. If it is the continuous shooting mode or the moving image shooting mode, the process proceeds to S1004, and if it is other shooting information, the process proceeds to S1005.

S1004では、判定ブロック119は、前回の撮影した画像について被写体が検出できているか否かを判定する。被写体が検出できている場合は、S1007へ移行し、検出できていない場合は、S1005へ移行する。   In step S <b> 1004, the determination block 119 determines whether or not a subject has been detected for the previously captured image. If the subject has been detected, the process proceeds to S1007, and if it has not been detected, the process proceeds to S1005.

S1005では、検出パラメータ選択ブロック117は、撮影情報入力ブロック121で取得した撮影情報に応じて、検出パラメータ群118の中から、第1パラメータを選択する。選択する第1パラメータについては、図9の検出パラメータと同一である。   In step S <b> 1005, the detection parameter selection block 117 selects the first parameter from the detection parameter group 118 according to the shooting information acquired by the shooting information input block 121. The first parameter to be selected is the same as the detection parameter in FIG.

S1006では、判定レベル決定ブロック120は、撮影情報入力ブロック121から入力された撮影情報に応じて、各検出パラメータについての第1判定レベルを決定する。第1判定レベルについては、図9の判定レベルと同一である。   In step S <b> 1006, the determination level determination block 120 determines a first determination level for each detection parameter according to the shooting information input from the shooting information input block 121. The first determination level is the same as the determination level in FIG.

S1007では、検出パラメータ選択ブロック117は、検出パラメータ群118の中から、第2パラメータを選択する。   In S1007, the detection parameter selection block 117 selects the second parameter from the detection parameter group 118.

S1008では、判定レベル決定ブロック120は、各検出パラメータについての第2判定レベルを決定する。   In S1008, the determination level determination block 120 determines a second determination level for each detection parameter.

ここで、S1007での検出パラメータ選択処理及びS1008での判定レベル決定処理について、図11を用いて詳細に説明する。   Here, the detection parameter selection process in S1007 and the determination level determination process in S1008 will be described in detail with reference to FIG.

図11は、連続撮影や動画撮影モードで、かつ前回撮影した画像から被写体が検出できている場合の、検出パラメータと評価値の判定レベルを示す図である。   FIG. 11 is a diagram illustrating detection parameter and evaluation value determination levels when a subject can be detected from a previously captured image in continuous shooting or moving image shooting mode.

連続撮影や動画撮影モード時は、一旦画像から被写体を検出できた場合、次の画像でも同じ被写体が存在することが多い。従って、図9に示した連続撮影や動画撮影モード時における検出パラメータ数よりも少ない検出パラメータで被写体検出を行うことで、被写体が動いて顔の向きなどが大きく変わっても、被写体を検出し易くなる。また、検出パラメータの数を減らすことで、被写体検出に関わる時間を短縮することができる。   In continuous shooting or moving image shooting mode, if a subject can be detected from an image, the same subject often exists in the next image. Therefore, by performing subject detection with fewer detection parameters than the number of detection parameters in the continuous shooting and moving image shooting modes shown in FIG. 9, it is easy to detect the subject even if the subject moves and the face orientation changes greatly. Become. Also, by reducing the number of detection parameters, it is possible to shorten the time related to subject detection.

図10の説明に戻り、S1009では、被写体検出ブロック116は入力された画像を用いて、この画像中に顔の局所特徴である目と口に相当する形状部分の抽出を行う。そして、S1005あるいはS1007の動作で、検出パラメータ選択ブロック117により選択した各検出パラメータについて演算を行う。   Returning to the description of FIG. 10, in step S1009, the subject detection block 116 uses the input image to extract a shape portion corresponding to the eyes and mouth which are local features of the face. Then, in the operation of S1005 or S1007, calculation is performed for each detection parameter selected by the detection parameter selection block 117.

S1010では、S1009で被写体検出ブロック116により演算した各検出パラメータについて演算した評価結果について、判定ブロック119により判定を行う。ここでは、演算した全ての評価結果が、判定レベル決定ブロックで決定した判定レベル範囲内である場合は、被写体の顔が検出できたと判断してS1011へ移行する。一方、演算した評価結果の1つでも判定レベル範囲外である場合は、被写体の顔が存在していないと判断して一連の動作を終了する。   In S1010, the determination block 119 determines the evaluation result calculated for each detection parameter calculated by the subject detection block 116 in S1009. Here, if all the calculated evaluation results are within the determination level range determined by the determination level determination block, it is determined that the face of the subject has been detected, and the process proceeds to S1011. On the other hand, if even one of the calculated evaluation results is out of the determination level range, it is determined that the subject's face does not exist, and the series of operations ends.

S1011では、S1009で検出した目と口の位置から被写体の顔の位置や、表情などの被写体情報をRAM112に記憶し、この後の撮影時の被写体位置を中心とした測光および焦点位置制御などに利用する。また、被写体情報を画像と関連付けて外部メモリ102へ記憶する。   In S1011, subject information such as the position of the subject's face and facial expression from the eye and mouth positions detected in S1009 is stored in the RAM 112 for later photometry and focus position control, etc., centering on the subject position at the time of shooting. Use. The subject information is stored in the external memory 102 in association with the image.

以上のように、撮影情報に応じて、最適な検出パラメータおよび評価値の判定レベルを選択することで、検出率を上げると共に誤検出を低減することができる。更に、連続撮影や動画撮影モード時は、一旦画像から被写体を検出できた場合、検出パラメータや判定レベルを変更することで、被写体が動いて顔の向きなどが大きく変わっても、被写体に追従して検出することができる。   As described above, by selecting the optimum detection parameter and evaluation value determination level according to the photographing information, it is possible to increase the detection rate and reduce erroneous detection. Furthermore, in continuous shooting and movie shooting modes, if the subject can be detected once from the image, it can follow the subject even if the subject moves and the orientation of the face changes significantly by changing the detection parameters and judgment level. Can be detected.

また、検出パラメータの数を減らすことで、被写体検出に関わる時間を短縮することができ、連続撮影や動画撮影などで、撮影と撮影の時間間隔が短くても画像1枚(1フレーム)毎に被写体検出動作を行うことができる。
[第2の実施形態]
次に、第2の実施形態の顔検出処理について説明する。
In addition, by reducing the number of detection parameters, it is possible to shorten the time for subject detection. For continuous shooting or movie shooting, even if the time interval between shooting is short, every image (one frame) A subject detection operation can be performed.
[Second Embodiment]
Next, the face detection process of the second embodiment will be described.

図12は、本発明に係る画像処理装置を実装した第2の実施形態の撮像装置の主要な構成要素を示すブロック図である。   FIG. 12 is a block diagram illustrating main components of the imaging apparatus according to the second embodiment in which the image processing apparatus according to the present invention is mounted.

図12において、画像処理回路122は、被写体検出ブロック123、検出パラメータ群124、信頼性判定ブロック125、重み付けブロック126、撮影情報入力ブロック127を備える。そして、画像処理回路122は、映像信号処理回路103から入力された画像信号の中から被写体の顔に相当する位置情報や顔の特徴情報などの検出を行う。   12, the image processing circuit 122 includes a subject detection block 123, a detection parameter group 124, a reliability determination block 125, a weighting block 126, and a photographing information input block 127. The image processing circuit 122 detects position information corresponding to the face of the subject, face feature information, and the like from the image signal input from the video signal processing circuit 103.

撮影情報入力ブロック127は、スイッチ群114の設定により設定されたカメラの各種モードや、ストロボ発光の有無などの撮影情報を、重み付けブロック120へ出力する。   The shooting information input block 127 outputs shooting information such as various camera modes set by the setting of the switch group 114 and the presence or absence of flash emission to the weighting block 120.

重み付けブロック126は、撮影情報入力ブロック121から出力された撮影情報に応じて、重み付け係数を決定して、その係数を判定ブロック125へ出力する。重み付け係数とは、後述する信頼性レベルの重要度を示す係数である。   The weighting block 126 determines a weighting coefficient according to the shooting information output from the shooting information input block 121 and outputs the coefficient to the determination block 125. The weighting coefficient is a coefficient indicating the importance of the reliability level described later.

被写体検出ブロック123では、画像から局所特徴(ここでは目や口)を抽出し、さらに検出パラメータ群124の検出パラメータについて画像を評価し、人物の顔に相当する位置情報や顔の特徴情報などをCPU100へ出力する。   In the subject detection block 123, local features (here, eyes and mouth) are extracted from the image, and the image is evaluated with respect to the detection parameters of the detection parameter group 124. It outputs to CPU100.

判定ブロック125は、被写体検出ブロック123で画像を評価した評価結果から被写体の顔であるか否かの判断基準である信頼性レベルと、重み付けブロック126から入力される重み付け係数から被写体の有無の判定を行う。   The determination block 125 determines the presence / absence of a subject from the reliability level that is a criterion for determining whether or not the face of the subject is based on the evaluation result obtained by evaluating the image in the subject detection block 123 and the weighting coefficient input from the weighting block 126. I do.

その他、図1と同一の構成については、同一の符号を付して説明を省略する。   In addition, about the structure same as FIG. 1, the same code | symbol is attached | subjected and description is abbreviate | omitted.

ここで検出パラメータ群124と信頼性レベルについて、図13を用いて詳細に説明する。   Here, the detection parameter group 124 and the reliability level will be described in detail with reference to FIG.

図13は、検出パラメータと評価値、および信頼性レベルを示した図である。   FIG. 13 is a diagram showing detection parameters, evaluation values, and reliability levels.

検出パラメータの項目については、図8と同じであるので説明を省略する。   The detection parameter items are the same as those in FIG.

各パラメータについて演算した結果を評価結果とし、評価結果に応じた信頼性レベルを予め決定しておく。ここでは、信頼性レベルを2、1、0の3種類で表し、「2」が最も信頼性が高く、「0」が最も信頼性が低いものとする。   The result calculated for each parameter is used as an evaluation result, and a reliability level corresponding to the evaluation result is determined in advance. Here, the reliability levels are represented by three types of 2, 1, 0, and “2” is the highest reliability and “0” is the lowest reliability.

また、ここで説明した検出パラメータ、評価値、信頼性レベルは、一例でありこれに限るものではない。   The detection parameters, evaluation values, and reliability levels described here are merely examples, and the present invention is not limited thereto.

<動作説明>
次に、第2の実施形態の撮像装置の動作について、図14のフローチャートを用いて詳細に説明する。
<Description of operation>
Next, the operation of the imaging apparatus according to the second embodiment will be described in detail with reference to the flowchart of FIG.

図14において、S1401では、CPU100は、測光用センサ107、焦点検出用センサ108を制御することで、被写体の合焦具合や輝度を検出する。また、CPU100は、スイッチ群114の状態により設定された撮影モードに応じて、不図示の撮影レンズのフォーカスレンズ位置、絞り値や露光時間を決定する。そして、レンズ通信回路105を介して絞り値を制御し、ストロボ109、撮像センサ106を制御することで撮影動作を行う。撮影された画像信号は映像信号処理回路103で所定の信号処理が施された後、表示部110に表示されると共に、外部メモリ102へ保存され、被写体検出ブロック123へ出力される。   In FIG. 14, in S1401, the CPU 100 controls the photometry sensor 107 and the focus detection sensor 108 to detect the in-focus state and the brightness of the subject. Further, the CPU 100 determines a focus lens position, an aperture value, and an exposure time of a photographing lens (not shown) according to the photographing mode set by the state of the switch group 114. The aperture value is controlled via the lens communication circuit 105, and the photographing operation is performed by controlling the strobe 109 and the image sensor 106. The captured image signal is subjected to predetermined signal processing by the video signal processing circuit 103, displayed on the display unit 110, stored in the external memory 102, and output to the subject detection block 123.

S1402では、撮影情報入力ブロック127により、画像を撮影した時の撮影情報の取得を行う。撮影情報とは、スイッチ群114で設定されたカメラの各種モードや、ストロボ発光の有無など情報である。これらの情報を重み付けブロック126へ出力する。   In S1402, the shooting information input block 127 acquires shooting information when the image is shot. The shooting information is information such as various camera modes set by the switch group 114 and the presence or absence of flash emission. These pieces of information are output to the weighting block 126.

S1403では、重み付けブロック126は、撮影情報入力ブロック123で取得した撮影情報に応じて重み付け係数を決定する。重み付け係数とは、判定ブロック125で決定した各検出パラメータについての信頼性レベルの重要度を表している。   In S1403, the weighting block 126 determines a weighting coefficient according to the shooting information acquired by the shooting information input block 123. The weighting coefficient represents the importance of the reliability level for each detection parameter determined in the determination block 125.

ここで、S1403での重み付け係数の決定動作についてより詳細に説明する。   Here, the determination operation of the weighting coefficient in S1403 will be described in more detail.

図15は、撮影情報と信頼性レベルの重み付け係数を示した図である。   FIG. 15 is a diagram showing weighting coefficients for the photographing information and the reliability level.

ポートレート撮影モード時は、被写体と撮像装置が正対し、かつ主被写体をメインに大きく撮影することが多い。この場合、主被写体の周辺に存在する人物ではなく確実に主被写体に対して検出を行う必要がある。従って、重み付けブロック126は、正対度を表す「目と口の位置関係」と「画面における顔の大きさ」の信頼性レベルの重要度を高くするように係数を決定する。   In the portrait shooting mode, the subject and the image pickup device face each other, and the main subject is often photographed mainly. In this case, it is necessary to reliably detect the main subject, not the person existing around the main subject. Therefore, the weighting block 126 determines the coefficient so as to increase the importance of the reliability level of the “positional relationship between eyes and mouth” and the “face size on the screen” representing the degree of confrontation.

ストロボ発光時は、ストロボ光より被写体の目が通常よりも細くなり、またストロボ光が瞳孔部で反射することで赤目になることが多い。従って、検出パラメータ選択ブロック117は検出パラメータ群118のうち、「目の色情報」と「目の縦横比」の信頼性レベルの重要度を低くし、赤目や細目でも被写体を検出できるように係数を決定する。   When the flash is fired, the subject's eyes are thinner than usual, and the red light is often reflected by the pupil and becomes red-eye. Therefore, the detection parameter selection block 117 reduces the importance of the reliability level of the “eye color information” and “eye aspect ratio” in the detection parameter group 118, and the coefficient so that the subject can be detected even with red eyes and fine eyes. To decide.

露出補正撮影時は、ユーザが意図して被写体輝度を低くしたり、高くしたりする場合があり、色情報による被写体検出ができないことが多い。従って、「目の色情報」と「顔の色情報」の信頼性レベルの重要度を低く係数を決定する。   During exposure compensation shooting, the user may intentionally lower or increase the subject brightness, and in many cases, the subject cannot be detected based on color information. Accordingly, the coefficient is determined with a low importance level of the reliability level of “eye color information” and “face color information”.

連続撮影や動画撮影モード時は、被写体が動いているので、被写体と撮像装置が正対していないことが多い。従って、「目と口の位置関係」と、「画面における目の水平度」の信頼性レベルの重要度を低く係数を決定する。   In continuous shooting or moving image shooting mode, the subject is moving, so the subject and the imaging device often do not face each other. Accordingly, the coefficient is determined by lowering the importance of the reliability level of “the positional relationship between the eyes and the mouth” and “the level of the eyes on the screen”.

その他の撮影モードでは、全検出パラメータの信頼性レベルの重要度を同じになるように係数を決定する。   In other imaging modes, the coefficients are determined so that the reliability levels of all detection parameters have the same importance.

ここでは、各検出パラメータの重み付け係数を加算すると各撮影モードで同じ数値になっており、撮影モードにより被写体の状況を予測し、各検出パラメータに応じて信頼性レベルの重要度の比重を変えている。   Here, adding the weighting coefficient of each detection parameter results in the same numerical value in each shooting mode, predicts the situation of the subject according to the shooting mode, and changes the importance level of the reliability level according to each detection parameter. Yes.

S1405では、被写体検出ブロック123は入力された画像中から顔の局所特徴である目と口に相当する形状部分の抽出し、検出パラメータ群124ついて評価値の演算を行う。   In step S <b> 1405, the subject detection block 123 extracts a shape portion corresponding to the eyes and mouth that are local features of the face from the input image, and calculates an evaluation value for the detection parameter group 124.

S1406では、S1405で演算した各検出パラメータについて演算した評価結果とS1403の動作で決定した重み付け係数とから判定ブロック125により信頼性判定を行う。ここでは、検出パラメータ毎に、評価結果に対応した信頼性レベルと重み付け係数を乗算し、さらに乗算結果を全て加算演算し、総合信頼性レベルとする。総合信頼性レベルが所定レベル以上である場合は、被写体の顔が検出できたと判断してS1407へ移行する。一方、総合信頼性レベルが所定レベルより下である場合は、被写体の顔が存在していないと判断して一連の動作を終了する。   In S1406, reliability determination is performed by the determination block 125 from the evaluation result calculated for each detection parameter calculated in S1405 and the weighting coefficient determined in the operation of S1403. Here, for each detection parameter, the reliability level corresponding to the evaluation result is multiplied by the weighting coefficient, and all the multiplication results are added to obtain an overall reliability level. If the total reliability level is equal to or higher than the predetermined level, it is determined that the subject's face has been detected, and the process proceeds to S1407. On the other hand, when the total reliability level is lower than the predetermined level, it is determined that the face of the subject does not exist, and the series of operations is terminated.

S1407では、S1405で検出した目と口の位置から被写体の顔の位置や、表情などの被写体情報をRAM112に記憶し、次回撮影時に被写体位置を中心とした測光および焦点位置制御を行う。また、被写体情報を画像と関連付けて外部メモリ102へ記憶する。   In step S1407, subject information such as the position of the subject's face and facial expression detected from the eye and mouth positions detected in step S1405 is stored in the RAM 112, and photometry and focus position control centered on the subject position are performed during the next shooting. The subject information is stored in the external memory 102 in association with the image.

また、図15の撮影情報と信頼性レベルの重み付け係数は一例であり、これらに限られるものではない。   Also, the imaging information and the reliability level weighting coefficients in FIG. 15 are examples, and the present invention is not limited to these.

以上のように、撮影情報に応じて、最適な信頼性レベルの重み付け係数を決定する事で被写体の検出率を上げると共に誤検出を低減することができる。   As described above, it is possible to increase the detection rate of the subject and reduce false detection by determining the weighting coefficient of the optimum reliability level according to the photographing information.

[他の実施形態]
本発明は、前述した実施形態の機能を実現するコンピュータプログラムを、システムあるいは装置に直接あるいは遠隔から供給することによって達成される場合も含む。その場合、システム等のコンピュータが該コンピュータプログラムを読み出して実行することになる。
[Other Embodiments]
The present invention includes a case where the computer program for realizing the functions of the above-described embodiments is achieved by supplying the system or apparatus directly or remotely. In that case, a computer such as a system reads and executes the computer program.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるコンピュータプログラム自体も本発明を実現するものである。   Therefore, in order to realize the functional processing of the present invention with a computer, the computer program itself installed in the computer also implements the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体(記憶媒体)としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク等がある。その他にも、MO、CD-ROM、CD-R、CD-RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD-ROM、DVD-R)等がある。   Examples of the recording medium (storage medium) for supplying the program include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. In addition, there are MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのものをダウンロードすることもできる。また圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するコンピュータプログラムを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a client computer browser can be used to connect to a homepage on the Internet, and the computer program itself of the present invention can be downloaded from the homepage. It can also be supplied by downloading a compressed file including an automatic installation function to a recording medium such as a hard disk. It can also be realized by dividing the computer program constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD-ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザが、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードすることもできる。この場合、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現する。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and a user who satisfies predetermined conditions downloads key information for decryption from a homepage via the Internet. You can also. In this case, the downloaded key information is used to execute the encrypted program and install it on the computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOS等が、実際の処理の一部又は全部を行うことによっても実現され得る。   In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS or the like operating on the computer based on the instruction of the program may be a part of the actual processing. Alternatively, it can be realized by performing all of them.

更に、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットのメモリに書き込まれた後、該ボード等のCPU等が実際の処理の一部又は全部を行うことによっても実現される。   Furthermore, after the program read from the recording medium is written in the memory of a function expansion board inserted into the computer or a function expansion unit connected to the computer, the CPU of the board or the like performs a part of the actual processing. Alternatively, it can be realized by performing all of them.

本発明に係る第1の実施形態の構成を示すブロック図である。1 is a block diagram showing a configuration of a first embodiment according to the present invention. 本発明に係る第1の実施形態による被写体検出処理を示すフローチャートである。It is a flowchart which shows the to-be-photographed object detection process by 1st Embodiment based on this invention. 画像中の顔の局所(目、口)抽出を説明する図である。It is a figure explaining the local (eyes, mouth) extraction of the face in an image. 「目の縦横比」について説明する図である。It is a figure explaining "aspect ratio of eyes". 「目と口の位置関係」について説明する図である。It is a figure explaining "the positional relationship of an eye and a mouth." 「画面における目の水平度」について説明する図である。It is a figure explaining "the level of the eye in a screen". 「画面における顔の大きさ」について説明する図である。It is a figure explaining "the size of the face in a screen". 検出パラメータと判定レベルを示す図であるIt is a figure which shows a detection parameter and a determination level. 撮影情報と検出パラメータ及び判定レベルを示す図である。It is a figure which shows imaging | photography information, a detection parameter, and a determination level. 本発明に係る第1の実施の形態による別の被写体検出処理を示すフローチャートである。7 is a flowchart showing another subject detection process according to the first embodiment of the present invention. 前画像で被写体検出できている場合の検出パラメータと判定レベルを示す図である。It is a figure which shows the detection parameter and determination level when a to-be-photographed object can be detected with the front image. 本発明に係る第2の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 2nd Embodiment which concerns on this invention. 検出パラメータと評価値及び信頼性レベルを示す図である。It is a figure which shows a detection parameter, an evaluation value, and a reliability level. 本発明に係る第2の実施形態による被写体検出処理を示すフローチャートである。It is a flowchart which shows the to-be-photographed object detection process by 2nd Embodiment which concerns on this invention. 撮影情報と信頼性レベルの重み付け係数を示す図である。It is a figure which shows the weighting coefficient of imaging | photography information and a reliability level.

符号の説明Explanation of symbols

100 CPU
101 画像処理回路
102 外部メモリ
103 映像信号処理回路
104 信号入力回路
105 レンズ通信回路
106 撮像センサ
107 測光用センサ
108 焦点検出用センサ
109 ストロボ
110 表示部
111 ROM
112 RAM
113 EEPROM
114 スイッチ群
115 レンズ制御信号
116 被写体検出ブロック
117 検出パラメータ選択ブロック
118 検出パラメータ群
119 判定ブロック
120 判定レベル決定ブロック
121 撮影情報入力ブロック
100 CPU
DESCRIPTION OF SYMBOLS 101 Image processing circuit 102 External memory 103 Video signal processing circuit 104 Signal input circuit 105 Lens communication circuit 106 Image sensor 107 Photometric sensor 108 Focus detection sensor 109 Strobe 110 Display unit 111 ROM
112 RAM
113 EEPROM
114 Switch group 115 Lens control signal 116 Subject detection block 117 Detection parameter selection block 118 Detection parameter group 119 Determination block 120 Determination level determination block 121 Imaging information input block

Claims (22)

撮影画像から被写体を検出する画像処理装置であって、
撮影時の撮影情報を取得する取得手段と、
前記撮影情報に応じて前記検出手段による被写体の検出条件を変更する変更手段と、
前記撮影条件により撮影画像から被写体の特徴情報を抽出し、当該特徴情報から被写体を検出する検出手段と、を備えることを特徴とする画像処理装置。
An image processing device for detecting a subject from a captured image,
Acquisition means for acquiring shooting information at the time of shooting;
Change means for changing the detection condition of the subject by the detection means according to the shooting information;
An image processing apparatus comprising: detection means for extracting feature information of a subject from a photographed image according to the photographing condition and detecting the subject from the feature information.
前記検出手段は、複数の検出条件を用いて被写体の特徴情報を抽出し、当該特徴情報の評価結果に基づいて被写体を特定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection unit extracts feature information of the subject using a plurality of detection conditions, and identifies the subject based on an evaluation result of the feature information. 前記撮影情報に応じて、前記複数の検出条件から少なくとも1つの第1条件を選択する第1選択手段を更に有し、
前記検出手段は、前記第1条件から被写体の特徴情報を抽出し、当該特徴情報の評価結果に基づいて被写体を特定することを特徴とした請求項2に記載の画像処理装置。
A first selection unit that selects at least one first condition from the plurality of detection conditions according to the photographing information;
The image processing apparatus according to claim 2, wherein the detection unit extracts feature information of the subject from the first condition and specifies the subject based on an evaluation result of the feature information.
前記評価結果と第1判定レベルとを比較することで、被写体の有無を判定する第1判定手段を更に有し、
前記第1判定レベルは前記撮影情報に応じて決定されることを特徴とした請求項1乃至3のいずれか1項に記載の画像処理装置。
A first determination means for determining the presence or absence of a subject by comparing the evaluation result with a first determination level;
The image processing apparatus according to claim 1, wherein the first determination level is determined according to the shooting information.
前記検出手段により被写体を検出した後、次の撮影画像から被写体を検出する場合、前記複数の検出条件から少なくとも1つの第2条件を選択する第2選択手段を更に有し、
前記検出手段は、前記第2条件から被写体の特徴情報を抽出し、当該特徴情報の評価結果に基づいて被写体を特定することを特徴とした請求項3又は4に記載の画像処理装置。
A second selection unit that selects at least one second condition from the plurality of detection conditions when the subject is detected from the next photographed image after the subject is detected by the detection unit;
5. The image processing apparatus according to claim 3, wherein the detection unit extracts feature information of the subject from the second condition and specifies the subject based on an evaluation result of the feature information.
前記第2条件の数は、前記第1条件の数より少ないことを特徴とした請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the number of the second conditions is smaller than the number of the first conditions. 前記第2条件での評価結果と第2判定レベルとを比較することで、被写体の有無を判定する第2判定手段を更に有し、
前記第2判定レベルは前記撮影情報に応じて決定されることを特徴とした請求項5又は6に記載の画像処理装置。
A second determination means for determining the presence or absence of a subject by comparing the evaluation result under the second condition and a second determination level;
The image processing apparatus according to claim 5, wherein the second determination level is determined according to the shooting information.
前記第2判定レベルは、前記第1判定レベルとは異なることを特徴とした請求項5乃至7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the second determination level is different from the first determination level. 前記撮影条件に応じて前記検出条件に対する重み付け係数を決定する決定手段を更に有し、
前記検出手段は、複数の検出条件を用いて被写体の特徴情報を抽出し、当該特徴情報の評価結果と、前記検出条件と前記重み付け係数とから求めた被写体の信頼性レベルとから被写体を特定することを特徴とする請求項1に記載の画像処理装置。
A determining unit that determines a weighting coefficient for the detection condition according to the imaging condition;
The detection unit extracts feature information of the subject using a plurality of detection conditions, and specifies the subject from the evaluation result of the feature information and the reliability level of the subject obtained from the detection condition and the weighting coefficient. The image processing apparatus according to claim 1.
前記撮影情報とは、ストロボ撮影、連続撮影、人物撮影、動画撮影、及び露出補正モード時の各撮影情報を含むこと特徴とした請求項1乃至9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the shooting information includes shooting information in strobe shooting, continuous shooting, person shooting, moving image shooting, and exposure correction mode. 撮影画像から被写体を検出する画像処理方法であって、
撮影時の撮影情報を取得するステップと、
前記撮影情報に応じて被写体の検出条件を変更するステップと、
前記検出条件により撮影画像から被写体の特徴情報を抽出し、当該特徴情報から被写体を検出する検出ステップと、を備えることを特徴とする画像処理方法。
An image processing method for detecting a subject from a captured image,
Acquiring shooting information at the time of shooting;
Changing a subject detection condition in accordance with the shooting information;
An image processing method comprising: detecting feature information of a subject from a captured image according to the detection condition, and detecting the subject from the feature information.
前記検出ステップでは、複数の検出条件を用いて被写体の特徴情報を抽出し、当該特徴情報の評価結果に基づいて被写体を特定することを特徴とする請求項11に記載の画像処理方法。   The image processing method according to claim 11, wherein in the detection step, feature information of the subject is extracted using a plurality of detection conditions, and the subject is specified based on an evaluation result of the feature information. 前記撮影情報に応じて、前記複数の検出条件から少なくとも1つの第1条件を選択する第1選択ステップを更に有し、
前記検出ステップでは、前記第1条件から被写体の特徴情報を抽出し、当該特徴情報の評価結果に基づいて被写体を特定することを特徴とした請求項12に記載の画像処理方法。
A first selection step of selecting at least one first condition from the plurality of detection conditions according to the photographing information;
13. The image processing method according to claim 12, wherein in the detection step, feature information of the subject is extracted from the first condition, and the subject is specified based on an evaluation result of the feature information.
前記評価結果と第1判定レベルとを比較することで、被写体の有無を判定する第1判定ステップを更に有し、
前記第1判定レベルは前記撮影情報に応じて決定されることを特徴とした請求項11乃至13のいずれか1項に記載の画像処理方法。
A first determination step of determining the presence or absence of a subject by comparing the evaluation result with a first determination level;
The image processing method according to claim 11, wherein the first determination level is determined according to the shooting information.
前記検出ステップにより被写体を検出した後、次の撮影画像から被写体を検出する場合、前記複数の検出条件から少なくとも1つの第2条件を選択する第2選択ステップを更に有し、
前記検出ステップでは、前記第2条件から被写体の特徴情報を抽出し、当該特徴情報の評価結果に基づいて被写体を特定することを特徴とした請求項13又は14に記載の画像処理方法。
A second selection step of selecting at least one second condition from the plurality of detection conditions when the subject is detected from the next captured image after the detection of the subject by the detection step;
15. The image processing method according to claim 13, wherein in the detection step, feature information of the subject is extracted from the second condition, and the subject is specified based on an evaluation result of the feature information.
前記第2条件の数は、前記第1条件の数より少ないことを特徴とした請求項15に記載の画像処理方法。   The image processing method according to claim 15, wherein the number of the second conditions is smaller than the number of the first conditions. 前記第2条件での評価結果と第2判定レベルとを比較することで、被写体の有無を判定する第2判定ステップを更に有し、
前記第2判定レベルは前記撮影情報に応じて決定されることを特徴とした請求項15又は16に記載の画像処理方法。
A second determination step of determining the presence or absence of a subject by comparing the evaluation result under the second condition and a second determination level;
The image processing method according to claim 15 or 16, wherein the second determination level is determined according to the photographing information.
前記第2判定レベルは、前記第1判定レベルとは異なることを特徴とした請求項15乃至17のいずれか1項に記載の画像処理方法。   The image processing method according to claim 15, wherein the second determination level is different from the first determination level. 前記撮影条件に応じて前記検出条件に対する重み付け係数を決定する決定ステップを更に有し、
前記検出ステップでは、複数の検出条件を用いて被写体の特徴情報を抽出し、当該特徴情報の評価結果と、前記検出条件と前記重み付け係数とから求めた被写体の信頼性レベルとから被写体を特定することを特徴とする請求項11に記載の画像処理方法。
A determination step of determining a weighting coefficient for the detection condition according to the imaging condition;
In the detection step, the feature information of the subject is extracted using a plurality of detection conditions, and the subject is identified from the evaluation result of the feature information and the reliability level of the subject obtained from the detection condition and the weighting coefficient. The image processing method according to claim 11.
前記撮影情報とは、ストロボ撮影、連続撮影、人物撮影、動画撮影、及び露出補正モード時の各撮影情報を含むこと特徴とした請求項11乃至19のいずれか1項に記載の画像処理方法。   20. The image processing method according to claim 11, wherein the shooting information includes shooting information in strobe shooting, continuous shooting, person shooting, moving image shooting, and exposure correction mode. 請求項11乃至20のいずれかに記載の画像処理方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to any one of claims 11 to 20. 請求項21に記載のプログラムを記憶したことを特徴とするコンピュータ可読記憶媒体。   A computer-readable storage medium storing the program according to claim 21.
JP2006140903A 2006-05-19 2006-05-19 Image processing apparatus and image processing method Expired - Fee Related JP4777143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006140903A JP4777143B2 (en) 2006-05-19 2006-05-19 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006140903A JP4777143B2 (en) 2006-05-19 2006-05-19 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2007312249A true JP2007312249A (en) 2007-11-29
JP2007312249A5 JP2007312249A5 (en) 2009-07-02
JP4777143B2 JP4777143B2 (en) 2011-09-21

Family

ID=38844665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006140903A Expired - Fee Related JP4777143B2 (en) 2006-05-19 2006-05-19 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4777143B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212557A (en) * 2008-02-29 2009-09-17 Casio Comput Co Ltd Imaging apparatus, imaging method and program
JP2010015023A (en) * 2008-07-04 2010-01-21 Canon Inc Image pickup apparatus, automatic focusing detection method and program
JP2020118717A (en) * 2019-01-18 2020-08-06 キヤノン株式会社 Imaging device and control method therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001304855A (en) * 2000-04-18 2001-10-31 Olympus Optical Co Ltd Range finder
JP2001330882A (en) * 2000-05-24 2001-11-30 Canon Inc Camera with subject recognizing function
JP2006018523A (en) * 2004-06-30 2006-01-19 Canon Inc Image processing device, image processing method, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001304855A (en) * 2000-04-18 2001-10-31 Olympus Optical Co Ltd Range finder
JP2001330882A (en) * 2000-05-24 2001-11-30 Canon Inc Camera with subject recognizing function
JP2006018523A (en) * 2004-06-30 2006-01-19 Canon Inc Image processing device, image processing method, and computer program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212557A (en) * 2008-02-29 2009-09-17 Casio Comput Co Ltd Imaging apparatus, imaging method and program
JP2010015023A (en) * 2008-07-04 2010-01-21 Canon Inc Image pickup apparatus, automatic focusing detection method and program
US8259214B2 (en) 2008-07-04 2012-09-04 Canon Kabushiki Kaisha Image pickup apparatus and auto-focus detection method
JP2020118717A (en) * 2019-01-18 2020-08-06 キヤノン株式会社 Imaging device and control method therefor
JP7277149B2 (en) 2019-01-18 2023-05-18 キヤノン株式会社 Imaging device and its control method

Also Published As

Publication number Publication date
JP4777143B2 (en) 2011-09-21

Similar Documents

Publication Publication Date Title
JP5733952B2 (en) IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD
JP4824627B2 (en) Automatic focus adjustment device, automatic focus adjustment method, imaging device and imaging method
JP4350725B2 (en) Image processing method, image processing apparatus, and program for causing computer to execute image processing method
JP4182117B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP4819001B2 (en) Imaging apparatus and method, program, image processing apparatus and method, and program
JP4702418B2 (en) Imaging apparatus, image region existence determination method and program
US7751615B2 (en) Image processing apparatus and image processing method for changing color of pupil in photographic image
EP1950702B1 (en) Imaging apparatus
US8411159B2 (en) Method of detecting specific object region and digital camera
US8830374B2 (en) Image capture device with first and second detecting sections for detecting features
JP5279635B2 (en) Image processing apparatus, image processing method, and program
JP5759170B2 (en) TRACKING DEVICE AND ITS CONTROL METHOD
JP6116277B2 (en) Imaging apparatus and control method thereof
JP2008270896A (en) Imaging device and program thereof
KR20100055938A (en) Method and apparatus for displaying scene information, and digital photographing apparatus thereof
JP2009111716A (en) Imaging apparatus, program and template generating method
JP2019121860A (en) Image processing apparatus and control method therefor
JP4777143B2 (en) Image processing apparatus and image processing method
JP2002311328A (en) Electronic camera
JP2008064797A (en) Optical device, imaging apparatus and method for controlling optical device
JP2011135510A (en) Image processing method, image processing device, and imaging device
JP4841111B2 (en) Digital camera device and program
JP5253184B2 (en) Imaging apparatus, face detection method, and program
JP4781299B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP2008262305A (en) Imaging device, control method therefor, program, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110629

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees