[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2007068146A - Image processing apparatus, method for calculating white balance evaluation value, program including program code for obtaining method for calculating white balance evaluation value, and storage medium for storing the program - Google Patents

Image processing apparatus, method for calculating white balance evaluation value, program including program code for obtaining method for calculating white balance evaluation value, and storage medium for storing the program Download PDF

Info

Publication number
JP2007068146A
JP2007068146A JP2006159837A JP2006159837A JP2007068146A JP 2007068146 A JP2007068146 A JP 2007068146A JP 2006159837 A JP2006159837 A JP 2006159837A JP 2006159837 A JP2006159837 A JP 2006159837A JP 2007068146 A JP2007068146 A JP 2007068146A
Authority
JP
Japan
Prior art keywords
face
region
area
evaluation value
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006159837A
Other languages
Japanese (ja)
Inventor
Masao Okada
正雄 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006159837A priority Critical patent/JP2007068146A/en
Publication of JP2007068146A publication Critical patent/JP2007068146A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform an accurate white balance processing when a face is detected, without erroneously recognizing a human skin color in a high color temperature as white in a low color temperature. <P>SOLUTION: An image apparatus is provided with a face detection mode, and when a face is detected, the face area and a body candidate area whose values of luminance information and color information are within predetermined ranges with respect to those values of the face area, are detected, and those areas are excluded from the acquiring area of the white balance evaluation values. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、入力された画像データに対して画像処理を施して出力画像データとする撮像装置において、顔検出時におけるホワイトバランス制御方法に関するものである。   The present invention relates to a white balance control method at the time of face detection in an imaging apparatus that performs image processing on input image data to generate output image data.

デジタルカメラやデジタルビデオカメラなどの撮像装置では、画像データの色バランスをとるために、以下に説明するようなホワイトバランス(これよりWBという)の調整が行われている。   In an imaging apparatus such as a digital camera or a digital video camera, white balance (hereinafter referred to as WB) is adjusted as described below in order to balance the color of image data.

撮像素子から色フィルタを通過して出力されたアナログ信号は、アナログ/デジタル(これよりA/Dという)変換器によってデジタル信号に変換され、図3(a)のようなブロックにそれぞれ分割される。   An analog signal output from the image sensor through the color filter is converted into a digital signal by an analog / digital (hereinafter referred to as A / D) converter, and is divided into blocks as shown in FIG. .

ただし各ブロックは、図3(b)に示すように、色信号R(赤),G1(緑),G2(緑),B(青)を一つずつ含む単位で構成される。   However, each block is configured in units including one color signal R (red), G1 (green), G2 (green), and B (blue), as shown in FIG.

これらのブロックそれぞれに対して、色評価値
Cx={(R+G2)−(B+G1)}/Y
Cy={(R+B)/4−(G1−G2)/4}/Y
Y=(R+G1+G2+B)/4
を算出する。
For each of these blocks, the color evaluation value Cx = {(R + G2) − (B + G1)} / Y
Cy = {(R + B) / 4- (G1-G2) / 4} / Y
Y = (R + G1 + G2 + B) / 4
Is calculated.

なお、Yは輝度信号である。   Y is a luminance signal.

図4は色温度によって移り変わる白検出範囲の様子を示す図である。   FIG. 4 is a diagram showing a state of a white detection range that changes depending on the color temperature.

また、図4には横軸をCx=(R−B)/Y、縦軸をCy=(R+B)/4Yとした色座標を示しており、あらかじめ白色を高色温度下から低色温度下まで撮像し、色評価値Cx、Cyを座標上に示すことで定められた白軸を示している。   FIG. 4 shows the color coordinates where the horizontal axis is Cx = (R−B) / Y and the vertical axis is Cy = (R + B) / 4Y. The white color is previously changed from a high color temperature to a low color temperature. And the white axis defined by indicating the color evaluation values Cx and Cy on the coordinates.

実際の光源において白色には若干のばらつきが存在するため、白軸を中心として幅を持たせた範囲を白検出範囲(白と判断すべき領域)とする。   Since there is some variation in white in an actual light source, a range with a width around the white axis is set as a white detection range (a region to be determined as white).

すなわち、各ブロックについて求められた色評価値Cx、Cyを図4の座標上に示している。   That is, the color evaluation values Cx and Cy obtained for each block are shown on the coordinates in FIG.

そして、これらのうち白検出範囲に含まれる色評価値のブロックを白色であると仮定する。さらに、白検出範囲に入った色画素の積分値SumR、SumG1、SumG2、SumBを算出して、以下の式を用いることでWBゲインを算出する。   Then, it is assumed that a block of color evaluation values included in the white detection range is white. Further, the integral values SumR, SumG1, SumG2, and SumB of the color pixels that have entered the white detection range are calculated, and the WB gain is calculated by using the following equation.

ただしkWB_R、kWB_G1、kWB_G2、kWB_Bはそれぞれ色信号R、G1、G2、BのWBゲインである。
kWB_R=1.0/SumR
kWB_G1=1.0/SumG1
kWB_G2=1.0/SumG2
kWB_B=1.0/SumB
しかしながら、上記に示したWB係数算出においては以下のような欠点があった。
However, kWB_R, kWB_G1, kWB_G2, and kWB_B are WB gains of the color signals R, G1, G2, and B, respectively.
kWB_R = 1.0 / SumR
kWB_G1 = 1.0 / SumG1
kWB_G2 = 1.0 / SumG2
kWB_B = 1.0 / SumB
However, the WB coefficient calculation described above has the following drawbacks.

高色温度下において、白色の色評価値は図4の領域A付近に分布する。   Under the high color temperature, the white color evaluation value is distributed in the vicinity of the region A in FIG.

しかしながら、高色温度光源下において、人の肌の色評価値Cx、Cyを座標上に示すと、白検出範囲における低色温度側に分布してしまう。   However, when the color evaluation values Cx and Cy of human skin are shown on the coordinates under a high color temperature light source, they are distributed on the low color temperature side in the white detection range.

従って、撮像画面に白色が少なくかつ人肌がアップのシーンでは画面の色評価値は図4の領域Bに分布することになってしまう。   Therefore, the color evaluation value of the screen is distributed in the region B in FIG. 4 in a scene where the imaging screen has little white and the human skin is up.

つまり肌色を低色温度下の白色と誤判別し、人の肌を白色にしてしまうという問題があった。   That is, there is a problem that the skin color is mistakenly identified as white under a low color temperature, and the human skin is made white.

そこで、特開2003−189325号公報には、顔検出可能な撮像装置におけるWB制御に関する技術が開示されている。上記文献には顔認識モードで顔を認識した場合、WB評価値の取得エリアを顔部分から移動して、顔部分のWBの演算を行わないようにするという技術が開示されている。   Japanese Patent Application Laid-Open No. 2003-189325 discloses a technique related to WB control in an imaging apparatus capable of detecting a face. The above document discloses a technique in which when a face is recognized in the face recognition mode, the WB evaluation value acquisition area is moved from the face portion so that the calculation of the WB of the face portion is not performed.

上記技術によって人物撮像を行ったときに、人物の顔の色と、無彩色部分に低色温度光源の光が照射されたときの色合いが非常に近いために誤認識してしまい、顔を白くしてしまうという問題を解決している。
特開2003−189325号公報
When a person is imaged using the above technology, the color of the person's face and the hue when the light of the low color temperature light source is irradiated to the achromatic part are very close, resulting in misrecognition and whitening of the face It solves the problem of end.
JP 2003-189325 A

しかし、上記特許文献にて開示されている技術では顔部分のみをWB評価値取得エリアから除外するため、例えば水着など、顔以外にも肌の露出の多い被写体においては、体の部分の肌色にWB評価値が引っ張られてしまう。   However, since the technique disclosed in the above-mentioned patent document excludes only the face part from the WB evaluation value acquisition area, the skin color of the body part is applied to a subject with a lot of exposed skin other than the face, such as a swimsuit. The WB evaluation value is pulled.

そのため、正確なWB制御が行えないという問題がある。   Therefore, there is a problem that accurate WB control cannot be performed.

上記課題を解決し、目的を達成するために、本発明の画像処理装置は、画像データから顔領域を検出する顔検出手段と、検出された顔領域に応じて、前記画像データから体が存在すると推定される体候補領域を抽出する領域抽出手段と、前記顔検出手段による検出結果と前記領域抽出ユニットの抽出結果に基づいて、ホワイトバランスの評価値を算出する演算手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention includes a face detection unit that detects a face area from image data, and a body from the image data according to the detected face area. Then, an area extracting means for extracting the estimated body candidate area, and an arithmetic means for calculating a white balance evaluation value based on the detection result of the face detecting means and the extraction result of the area extracting unit are provided. Features.

上記課題を解決し、目的を達成するために、本発明の画像処理装置の制御方法は、画像データから顔領域を検出する顔検出工程と、検出された顔領域に応じて、前記画像データから体が存在すると推定される体候補領域を抽出する領域抽出工程と、前記顔検出工程による検出結果と前記領域工程ユニットの抽出結果に基づいて、ホワイトバランスの評価値を算出する演算工程と、を備えることを特徴とする。   In order to solve the above problems and achieve the object, a control method of an image processing apparatus according to the present invention includes a face detection step of detecting a face area from image data, and the image data according to the detected face area. A region extraction step of extracting a body candidate region estimated to have a body, and a calculation step of calculating a white balance evaluation value based on the detection result of the face detection step and the extraction result of the region step unit. It is characterized by providing.

本発明によれば、シーンに応じてWB評価値の取得領域を変えることで、精度の高いWB処理を可能にする。   According to the present invention, it is possible to perform WB processing with high accuracy by changing the acquisition region of the WB evaluation value according to the scene.

以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図2に従来の顔検出機能を備えた撮像装置のブロック図を示す。
(First embodiment)
FIG. 2 shows a block diagram of an imaging apparatus having a conventional face detection function.

図2において、1はレンズ系、絞り、シャッター、CCD等の光電変換機能を有する撮像素子、A/D変換器等が含まれ、レンズ系により撮像素子に投影された像をデジタル信号として出力する撮像部である。   In FIG. 2, reference numeral 1 includes a lens system, an aperture, a shutter, an image sensor having a photoelectric conversion function such as a CCD, an A / D converter, and the like, and outputs an image projected on the image sensor by the lens system as a digital signal. An imaging unit.

2は撮像部1の出力画像データの中に人物の顔が存在するか否かを公知の顔検出方法にて判定し、存在すれば顔領域を検出する顔検出処理部である。   Reference numeral 2 denotes a face detection processing unit that determines whether or not a human face exists in the output image data of the imaging unit 1 by a known face detection method, and detects a face region if it exists.

代表的な顔検出方法としては、ニューラルネットワークに代表される学習を用いた手法、目や鼻や口といった形状に特徴のある部位を、画像領域からテンプレートマッチングを用いて探し出し、類似度が高ければ顔とみなす手法、がある。   As a typical face detection method, a method using learning typified by a neural network, a part having a characteristic shape such as an eye, nose, or mouth is searched from an image region by using template matching. There is a technique to regard it as a face.

他にも、肌の色や目の形といった画像特徴量を検出し統計的解析を用いた手法等、多数提案されており、これらの手法を複数組み合わせて顔認識するのが一般的である。   There are many other methods such as methods that detect image features such as skin color and eye shape and use statistical analysis, and face recognition is generally performed by combining a plurality of these methods.

具体的には特開平2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。   Specific examples include a face detection method using wavelet transform and image feature amounts described in Japanese Patent Laid-Open No. 2002-251380.

3は、顔検出処理部2での情報を基に、絞りおよびシャッタースピードの設定等の露出にかかわる制御を行う露出制御部である。4は、顔検出処理部2での情報を基に顔検出エリアの合焦点位置を特定するオートフォーカス(これよりAFという)制御部である。5は、露出制御部3で決定された絞りおよびメカシャッターを制御する、本露出制御部である。露出制御部3と本露出制御部5は兼用されるのが一般的であるが、ここでは撮像フローの理解を容易にするために別々に記載している。6は本露出撮像されて得られた画像データに対して、WB処理を施すWB制御部である。なお、このWB制御回路6では、彩度調整や、エッジ強調なども行うことができる。7はWB制御回路6にてWB処理されたデータから色差信号U,Vを生成する色信号生成回路である。8はWB制御回路6にてWB処理されたデータから輝度信号Yを生成する輝度信号生成回路である。   Reference numeral 3 denotes an exposure control unit that performs control related to exposure such as setting of an aperture and a shutter speed based on information in the face detection processing unit 2. Reference numeral 4 denotes an autofocus (hereinafter referred to as “AF”) control unit that specifies the focal position of the face detection area based on information in the face detection processing unit 2. Reference numeral 5 denotes a main exposure control unit that controls the aperture and the mechanical shutter determined by the exposure control unit 3. The exposure control unit 3 and the main exposure control unit 5 are generally used in common, but are described separately here to facilitate understanding of the imaging flow. Reference numeral 6 denotes a WB control unit that performs WB processing on image data obtained by the main exposure imaging. The WB control circuit 6 can also perform saturation adjustment, edge enhancement, and the like. Reference numeral 7 denotes a color signal generation circuit that generates color difference signals U and V from data subjected to WB processing by the WB control circuit 6. Reference numeral 8 denotes a luminance signal generation circuit that generates a luminance signal Y from data subjected to WB processing by the WB control circuit 6.

次に、図1に示すフローチャートを用いて本発明の第1の実施形態の撮像装置における動作処理を説明する。   Next, operation processing in the imaging apparatus according to the first embodiment of the present invention will be described using the flowchart shown in FIG.

また、図5は顔検出モード時に顔が検出されたときのWB評価値の取得領域を示した図である。図5(a)は、撮像画面全域をWB評価値の取得領域とした場合の図である。図5(b)は、顔検出の結果に基づき、顔領域とほぼ同一輝度情報、および、ほぼ同一色情報をもつ領域を被写体領域としてWB評価値の取得領域から除外した様子を示す図である。ここでは上半身が裸である人を例にあげている。   FIG. 5 is a diagram showing an acquisition area of a WB evaluation value when a face is detected in the face detection mode. FIG. 5A is a diagram in the case where the entire imaging screen is used as an acquisition area for the WB evaluation value. FIG. 5B is a diagram illustrating a state where an area having substantially the same luminance information and color information as the face area is excluded from the WB evaluation value acquisition area based on the face detection result. . Here is an example of a person whose upper body is naked.

撮像装置の電源がONされると、撮像装置は、ステップS101から始まる撮影動作に備える。   When the image pickup apparatus is powered on, the image pickup apparatus prepares for a shooting operation starting from step S101.

ステップS101において、不図示のCPUは、撮像装置が顔検出モードに設定されているか否かを判定する。   In step S101, a CPU (not shown) determines whether or not the imaging apparatus is set to the face detection mode.

ステップS101にて、不図示のCPUが、撮像装置が顔検出モードであると判定した場合には処理をステップS102に進めて、顔検出処理部2は撮像素子から得られた画像データに対して顔検出処理を行う。   If the CPU (not shown) determines in step S101 that the imaging device is in the face detection mode, the process proceeds to step S102, and the face detection processing unit 2 applies the image data obtained from the imaging device. Perform face detection processing.

ステップS101にて、不図示のCPUが、撮像装置が顔検出モードでないと判定した場合は、処理をステップS105に進めて、図5(a)の色付き部分をWB評価値の取得領域として設定する。   If the CPU (not shown) determines in step S101 that the imaging apparatus is not in the face detection mode, the process proceeds to step S105, and the colored portion in FIG. 5A is set as the WB evaluation value acquisition region. .

ステップS103にて、不図示のCPUが、顔検出処理部2にて顔が検出されなかったと判断した場合には、処理をステップS105に進めて、図5(a)の色付き部分(画面全域)をWB評価値の取得領域として設定する。   If the CPU (not shown) determines in step S103 that the face detection processing unit 2 has not detected a face, the process proceeds to step S105, and the colored portion (the entire screen) in FIG. Is set as the WB evaluation value acquisition area.

そしてステップS103にて、不図示のCPUが、顔検出処理部2にて顔が検出されたと判断した場合には処理をステップS104に進める。   In step S103, if a CPU (not shown) determines that the face is detected by the face detection processing unit 2, the process proceeds to step S104.

ステップS104では、不図示のCPUは、輝度情報および色情報の値が、顔領域でのその値に対して所定の範囲内となる領域を検出し、この領域を体の一部である体候補領域とする。ここで、所定の範囲とは、実際に顔領域と体の素肌領域を多数比較し、その結果から統計的に求められた範囲のことである。そして、処理をステップS106へ進める。   In step S104, the CPU (not shown) detects a region where the values of luminance information and color information are within a predetermined range relative to the values in the face region, and this region is a body candidate that is a part of the body. This is an area. Here, the predetermined range is a range that is statistically obtained from the result of comparing a large number of face areas and body skin areas. Then, the process proceeds to step S106.

ステップS102にて顔が複数検出された場合には、輝度情報および色情報の値が、それぞれの顔領域のその値に対して所定の範囲内である領域をすべて体候補領域として検出する。つまり、複数の顔が検出された場合には、それぞれの顔領域の輝度情報および色情報に基づく体候補領域がすべて検出されることになる。   If a plurality of faces are detected in step S102, all areas whose luminance information and color information values are within a predetermined range with respect to the values of the respective face areas are detected as body candidate areas. That is, when a plurality of faces are detected, all body candidate areas based on the luminance information and color information of the respective face areas are detected.

ステップS106では、顔領域と体候補領域を除いた領域である図5(b)の色付き部分をWB評価値の取得領域として指定する。なお、上述したように、図5(b)は上半身が裸である人の例である。この人物が半袖のシャツを着ていれば、肘から先の腕が露出している領域が体候補領域として検出される。   In step S106, the colored portion of FIG. 5B, which is an area excluding the face area and the body candidate area, is designated as the WB evaluation value acquisition area. As described above, FIG. 5B is an example of a person whose upper body is naked. If this person is wearing a short-sleeved shirt, a region where the arm beyond the elbow is exposed is detected as a body candidate region.

ステップS107では、不図示のCPUは、ステップS105またはステップS106で指定したWB評価値の取得領域からWB評価値を求める。   In step S107, a CPU (not shown) obtains a WB evaluation value from the WB evaluation value acquisition area specified in step S105 or step S106.

ステップS108では、ステップS107での処理の結果に基づき最終的なWB係数を算出する。   In step S108, a final WB coefficient is calculated based on the result of the process in step S107.

なお、本実施形態では輝度情報および色情報の値が、顔領域のその値に対して所定の範囲内である領域を体候補領域として抽出しているが、これに限られるものではない。例えば、輝度情報と色情報のどちらか一方の値が、顔領域に対して所定の範囲内である領域を抽出しても構わない。   In the present embodiment, an area in which the values of the luminance information and the color information are within a predetermined range with respect to the values of the face area is extracted as the body candidate area. However, the present invention is not limited to this. For example, an area in which one of the luminance information and the color information is within a predetermined range with respect to the face area may be extracted.

また、体候補領域を検出する際には、検出された顔領域の近傍領域だけを検出対象とすることで、検出に要する時間を短縮できる。   Moreover, when detecting a body candidate area | region, the time required for a detection can be shortened by making only the vicinity area | region of the detected face area | region into a detection target.

さらに、検出された顔領域の肌色が最適になるようなWB係数を、予め用意したWB係数テーブル群より選択するようにしてもよい。   Furthermore, a WB coefficient that optimizes the skin color of the detected face area may be selected from a group of WB coefficient tables prepared in advance.

以上のように本実施形態では、顔が検出されたときには、顔領域と、輝度情報および色情報の値が顔領域のその値に対して所定の範囲内である体候補領域を検出し、これらの領域をWB評価値の取得領域から除外する。   As described above, in the present embodiment, when a face is detected, the face area and body candidate areas whose luminance information and color information values are within a predetermined range with respect to the values of the face area are detected. Are excluded from the WB evaluation value acquisition area.

そうすることによって、例えば被写体が水着を着ているときのように、顔以外にも肌の露出が多いときでも、肌色を低色温度下の白色と誤認識することなく、より正確なWB処理を行うことが可能となる。   By doing so, even when the subject is wearing a swimsuit and there is much skin exposure other than the face, more accurate WB processing without erroneously recognizing the skin color as white under low color temperature Can be performed.

(第2の実施形態)
本実施の形態の動作を図面を参照して詳細に説明する。第1の実施形態と同じ処理を行うステップには同じステップ番号が割り当てられる。
(Second Embodiment)
The operation of the present embodiment will be described in detail with reference to the drawings. The same step number is assigned to the step that performs the same processing as in the first embodiment.

第1の実施形態では、輝度情報および色情報の値が、顔領域のその値に対して所定の範囲内である領域を体候補領域として検出し、顔領域と体候補領域をWB評価値の取得領域から除外している。それに対して、本実施形態では、顔領域と体候補領域に対して、他の領域よりも小さな重み付けをしてWB評価値を演算している点が第1の実施形態とは異なる。   In the first embodiment, a region whose luminance information and color information values are within a predetermined range with respect to the value of the face region is detected as a body candidate region, and the face region and the body candidate region are detected as WB evaluation values. Excluded from the acquisition area. On the other hand, this embodiment is different from the first embodiment in that the WB evaluation value is calculated by weighting the face area and the body candidate area with a smaller weight than other areas.

図6は本発明の第2の実施形態における撮像処理のフローチャートを示している。   FIG. 6 shows a flowchart of an imaging process in the second embodiment of the present invention.

図6において、ステップS101〜ステップS104、そしてステップS108の処理は第1の実施形態と同じなので説明は省略する。   In FIG. 6, the processes in steps S101 to S104 and S108 are the same as those in the first embodiment, and a description thereof will be omitted.

ステップS101にて、不図示のCPUが、撮像装置が顔検出モードでないと判定した場合、または、ステップS103にて、不図示のCPUが、顔検出処理部2にて顔が検出されなかったと判断した場合には、処理をステップS207に進める。   If the CPU (not shown) determines in step S101 that the imaging apparatus is not in the face detection mode, or the CPU (not shown) determines that no face is detected in the face detection processing unit 2 in step S103. If so, the process proceeds to step S207.

ステップS207では、不図示のCPUは、撮像画面全体をWB評価値の取得領域と設定し、WB評価値を得て、処理をステップS108へ進める。   In step S207, the CPU (not shown) sets the entire imaging screen as the WB evaluation value acquisition area, obtains the WB evaluation value, and advances the process to step S108.

ステップS104にて、不図示のCPUは、顔領域と所定の範囲内の輝度情報および所定の範囲内の色情報を持つ体候補領域を検出したら、処理をステップS208へ進める。   In step S104, if a CPU (not shown) detects a body candidate region having a face region, luminance information within a predetermined range, and color information within a predetermined range, the process proceeds to step S208.

ステップS208では、顔領域と体候補領域から求めたWB評価値と、それ以外の領域から求めたWB評価値とに重み付けを行い、撮像画面全体に対してのWB評価値を求める。   In step S208, the WB evaluation value obtained from the face region and the body candidate region and the WB evaluation value obtained from other regions are weighted to obtain the WB evaluation value for the entire imaging screen.

ステップS208におけるWB評価値の取得領域の重み付けの具体例を図7に示す。   A specific example of the weighting of the WB evaluation value acquisition area in step S208 is shown in FIG.

ステップS208にて、顔領域と体候補領域から求めたWB評価値と、それ以外の領域から求めたWB評価値との比率を1:4になるように重み付けを行う。具体的には、領域と体候補領域から求めたWB評価値に係数として0.2を掛け、それ以外の領域から求めたWB評価値に係数として0.8を掛け、これらの和を求める。   In step S208, weighting is performed so that the ratio between the WB evaluation value obtained from the face area and the body candidate area and the WB evaluation value obtained from other areas is 1: 4. Specifically, the WB evaluation value obtained from the region and the body candidate region is multiplied by 0.2 as a coefficient, and the WB evaluation value obtained from other regions is multiplied by 0.8 as a coefficient to obtain the sum.

このように、重み付けとしては小さいながらも、顔領域とその顔領域と体候補領域から求めたWB評価値も考慮することにより、顔検出での顔の誤検出を行ってしまった場合でもWB制御に与える影響を小さくすることができる。   As described above, although the weighting is small, the WB control is performed even when the face is erroneously detected in the face detection by considering the face area and the WB evaluation value obtained from the face area and the body candidate area. Can be reduced.

以上のように、本実施形態では、顔領域と体候補領域から求めたWB評価値の重みの比率を小さくすることによって、WB評価値が肌色に引っ張られて正確なWB制御を行う妨げになることを防止する。   As described above, in the present embodiment, by reducing the weight ratio of the WB evaluation value obtained from the face area and the body candidate area, the WB evaluation value is pulled to the skin color, thereby preventing accurate WB control. To prevent that.

(第3の実施形態)
本実施の形態の動作を図面を参照して詳細に説明する。第1の実施形態と同じ処理を行うステップには同じステップ番号が割り当てられる。
(Third embodiment)
The operation of the present embodiment will be described in detail with reference to the drawings. The same step number is assigned to the step that performs the same processing as in the first embodiment.

本実施形態は、顔領域とほぼ同一距離にある領域を体候補領域として、WB評価値を求めるための演算に用いる領域から除外している点が第1の実施形態とは異なる。   This embodiment is different from the first embodiment in that an area that is substantially the same distance as the face area is excluded from an area used for calculation for obtaining a WB evaluation value as a body candidate area.

図7は本発明の第3の実施形態における撮像処理のフローチャートを示している。   FIG. 7 shows a flowchart of the imaging process in the third embodiment of the present invention.

図7において、ステップS101〜ステップS103、そしてステップS105、ステップS107〜ステップS108の処理は第1の実施形態と同じなので説明は省略する。   In FIG. 7, steps S101 to S103, and steps S105 and S107 to S108 are the same as those in the first embodiment, and thus the description thereof is omitted.

ステップS306では、不図示のCPUは、顔領域と所定の範囲内の距離にある領域を検出し、処理をステップS308へ進める。ここで、所定の範囲とは、実際に顔領域の距離情報と、手足あるいは胴体の領域の距離情報を多数比較し、その結果から統計的に求めれた値の範囲のことである。検出された顔領域の大きさに応じてこの所定の範囲の大きさを変更することも考えられる。   In step S306, the CPU (not shown) detects an area that is within a predetermined range from the face area, and advances the process to step S308. Here, the predetermined range refers to a range of values obtained statistically from the result of comparing a lot of distance information of the face area and distance information of the limb or torso area. It is conceivable to change the size of the predetermined range in accordance with the size of the detected face area.

ステップS102にて顔が複数検出された場合には、距離情報の値がそれぞれの顔領域のその値に対して所定範囲内である領域をすべて検出する。つまり、複数の顔が検出された場合には、それぞれの顔領域の距離情報に基づく体候補領域がすべて検出されることになる。   When a plurality of faces are detected in step S102, all areas where the value of distance information is within a predetermined range with respect to the value of each face area are detected. That is, when a plurality of faces are detected, all body candidate regions based on the distance information of each face region are detected.

ステップS308では、不図示のCPUは、ステップS306までの処理で検出された顔領域と、その顔領域と所定の範囲内の距離にある領域以外の領域を、WB評価値の取得領域として指定し、処理をステップS107へ進める。   In step S308, the CPU (not shown) designates an area other than the face area detected in the processes up to step S306 and an area within a predetermined range from the face area as the WB evaluation value acquisition area. Then, the process proceeds to step S107.

また、顔領域と所定の範囲内の距離にある領域を検出する際には、検出された顔領域を基準として所定の範囲内に位置する近傍の領域だけを体候補領域の検出対象とすることで、検出処理を高速化できる。   In addition, when detecting an area within a predetermined range from the face area, only a nearby area located within the predetermined range on the basis of the detected face area is set as a body candidate area detection target. Thus, the detection process can be speeded up.

以上のように本実施形態では、通常は撮像画面全体がWB評価値の取得領域であるが、顔が検出されたときには、距離情報が顔領域の所定の範囲内となる体候補領域を検出して、顔領域と体候補領域をWB評価値の取得領域から除外する。   As described above, in the present embodiment, the entire imaging screen is usually the WB evaluation value acquisition area, but when a face is detected, a body candidate area whose distance information is within a predetermined range of the face area is detected. Thus, the face area and the body candidate area are excluded from the WB evaluation value acquisition area.

そうすることによって、例えば、逆光シーン等で輝度情報や色情報が正確に得にくいときにも精度良く被写体を検出しWB評価値の取得領域から除外することで、正確なWB処理を行うことを可能にしている。   By doing so, for example, even when it is difficult to accurately obtain luminance information and color information in a backlight scene or the like, accurate WB processing can be performed by accurately detecting a subject and excluding it from the WB evaluation value acquisition region. It is possible.

なお、上述した各実施形態の機能を実現するように各種のデバイスを動作させるように、上記各種デバイスと接続された装置あるいはシステム内のコンピュータに対し、上記実施形態の機能を実現するためのソフトウェアのプログラムコードを供給する。   Software for realizing the functions of the above-described embodiments for an apparatus or a computer in the system connected to the various devices so that the various devices are operated so as to realize the functions of the above-described embodiments. Supply the program code.

そして、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)に格納されたプログラムに従って上記各種デバイスを動作させることによって実施したものも、本発明の範疇に含まれる。   And what was implemented by operating the said various devices according to the program stored in the computer (CPU or MPU) of the system or apparatus is also contained under the category of the present invention.

また、この場合、上記ソフトウェアのプログラムコード自体が上述した実施形態の機能を実現することになる。   In this case, the program code of the software itself realizes the functions of the above-described embodiment.

また、そのプログラムコード自体、およびそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。   The program code itself and means for supplying the program code to a computer, for example, a storage medium storing the program code constitute the present invention.

かかるプログラムコードを記憶する記憶媒体としては、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for storing the program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、コンピュータが供給されたプログラムコードを実行することにより、上述の実施形態の機能が実現されるだけではない。   The functions of the above-described embodiments are not only realized by executing the program code supplied by the computer.

例えば、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)あるいは他のアプリケーションソフト等の共同して上述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれる。   For example, even when the function of the above-described embodiment is realized in cooperation with an OS (operating system) or other application software running on the computer, the program code is included in the embodiment of the present invention. included.

さらに、供給されたプログラムコードはコンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納される。   Further, the supplied program code is stored in a memory provided in a function expansion board of the computer or a function expansion unit connected to the computer.

そして、そのプログラムコードの指示に基づいてその機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される場合にも本発明に含まれる。   The CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the function of the above-described embodiment is realized by the processing. It is included in the present invention.

本発明の第1の実施形態の撮像装置のWB処理を示すフローチャートである。It is a flowchart which shows the WB process of the imaging device of the 1st Embodiment of this invention. 本発明の撮像装置の概略構成を示す図である。It is a figure which shows schematic structure of the imaging device of this invention. WB評価値検出ブロックを示す図である。It is a figure which shows a WB evaluation value detection block. 色温度によって移り変わる白検出範囲の様子を示す図である。It is a figure which shows the mode of the white detection range which changes with color temperatures. WB評価値の取得領域を示した図である。It is the figure which showed the acquisition area | region of WB evaluation value. 本発明の第2の実施形態の撮像装置のWB処理を示すフローチャートである。It is a flowchart which shows the WB process of the imaging device of the 2nd Embodiment of this invention. WB評価値の取得領域の重み付けの具体例を示した図である。It is the figure which showed the specific example of the weighting of the acquisition area of WB evaluation value. 本発明の第3の実施形態の撮像装置のWB処理を示すフローチャートである。It is a flowchart which shows the WB process of the imaging device of the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

1 撮像部
2 顔検出処理部
3 露出制御部
4 AF制御回路
5 本露出制御部
6 WB制御回路
7 色信号生成回路
8 輝度信号生成回路
DESCRIPTION OF SYMBOLS 1 Image pick-up part 2 Face detection process part 3 Exposure control part 4 AF control circuit 5 This exposure control part 6 WB control circuit 7 Color signal generation circuit 8 Luminance signal generation circuit

Claims (14)

画像データから顔領域を検出する顔検出手段と、
検出された顔領域に応じて、前記画像データから体が存在すると推定される体候補領域を抽出する領域抽出手段と、
前記顔検出手段による検出結果と前記領域抽出ユニットの抽出結果に基づいて、ホワイトバランスの評価値を算出する演算手段と、
を備えることを特徴とする画像処理装置。
Face detection means for detecting a face region from image data;
Region extracting means for extracting a body candidate region in which a body is estimated to exist from the image data in accordance with the detected face region;
An arithmetic means for calculating a white balance evaluation value based on the detection result by the face detection means and the extraction result of the region extraction unit;
An image processing apparatus comprising:
前記領域抽出手段は前記顔領域から得られる色情報を用いて前記体候補領域を抽出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the region extracting unit extracts the body candidate region using color information obtained from the face region. 前記領域抽出手段は前記顔領域から得られる輝度情報を用いて前記体候補領域を抽出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the region extraction unit extracts the body candidate region using luminance information obtained from the face region. 前記領域抽出手段は前記顔領域から得られる距離情報を用いて前記体候補領域を抽出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the region extraction unit extracts the body candidate region using distance information obtained from the face region. 前記演算手段は前記画像データから前記顔領域と前記体候補領域を除いた残りの領域を用いてホワイトバランスの評価値を算出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the calculation unit calculates a white balance evaluation value using a remaining area obtained by removing the face area and the body candidate area from the image data. 前記演算手段は前記画像データから前記顔領域と前記体候補領域を除いた残りの領域を、前記顔領域と前記体候補領域よりも重み付けを大きくしてホワイトバランスの評価値を算出することを特徴とする請求項1に記載の画像処理装置。   The arithmetic means calculates a white balance evaluation value by weighting the remaining area obtained by removing the face area and the body candidate area from the image data by weighting more than the face area and the body candidate area. The image processing apparatus according to claim 1. 前記顔検出手段が複数の顔を検出した場合、前記領域抽出手段は前記画像データから検出されたそれぞれの顔に応じた体候補領域を抽出することを特徴とする請求項1から6に記載の画像処理装置。   The said area detection means extracts the body candidate area | region according to each face detected from the said image data, when the said face detection means detects a some face, The Claim 1 to 6 characterized by the above-mentioned. Image processing device. 光電変換機能を有する撮像素子を備え、前記演算手段は該撮像素子にて得られる画像データに対してホワイトバランスの評価値を算出ことを特徴とする請求項1から7に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: an image sensor having a photoelectric conversion function, wherein the calculation unit calculates a white balance evaluation value for image data obtained by the image sensor. 画像データから顔領域を検出する顔検出工程と、
検出された顔領域に応じて、前記画像データから体が存在すると推定される体候補領域を抽出する領域抽出工程と、
前記顔検出工程による検出結果と前記領域工程ユニットの抽出結果に基づいて、ホワイトバランスの評価値を算出する演算工程と、
を備えることを特徴とする画像処理装置の制御方法。
A face detection step of detecting a face area from image data;
A region extracting step of extracting a body candidate region in which a body is estimated to exist from the image data according to the detected face region;
Based on the detection result of the face detection step and the extraction result of the region process unit, a calculation step of calculating a white balance evaluation value;
An image processing apparatus control method comprising:
前記領域抽出工程は、前記顔領域から得られる色情報を用いて前記体候補領域を抽出することを特徴とする請求項9に記載の画像処理装置の制御方法。   The method of controlling an image processing apparatus according to claim 9, wherein the region extraction step extracts the body candidate region using color information obtained from the face region. 前記領域抽出工程は、前記顔領域から得られる輝度情報を用いて前記体候補領域を抽出することを特徴とする請求項9に記載の画像処理装置の制御方法。   The method of controlling an image processing apparatus according to claim 9, wherein the region extraction step extracts the body candidate region using luminance information obtained from the face region. 前記領域抽出工程は、前記顔領域から得られる距離情報を用いて前記体候補領域を抽出することを特徴とする請求項9に記載の画像処理装置の制御方法。   The method for controlling an image processing apparatus according to claim 9, wherein the region extraction step extracts the body candidate region using distance information obtained from the face region. 請求項9に記載の制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the control method according to claim 9. 請求項13に記載のプログラムをコンピュータ読み取り可能に記録したことを特徴とする記録媒体。   14. A recording medium on which the program according to claim 13 is recorded so as to be readable by a computer.
JP2006159837A 2005-08-04 2006-06-08 Image processing apparatus, method for calculating white balance evaluation value, program including program code for obtaining method for calculating white balance evaluation value, and storage medium for storing the program Withdrawn JP2007068146A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006159837A JP2007068146A (en) 2005-08-04 2006-06-08 Image processing apparatus, method for calculating white balance evaluation value, program including program code for obtaining method for calculating white balance evaluation value, and storage medium for storing the program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005226625 2005-08-04
JP2006159837A JP2007068146A (en) 2005-08-04 2006-06-08 Image processing apparatus, method for calculating white balance evaluation value, program including program code for obtaining method for calculating white balance evaluation value, and storage medium for storing the program

Publications (1)

Publication Number Publication Date
JP2007068146A true JP2007068146A (en) 2007-03-15

Family

ID=37929744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006159837A Withdrawn JP2007068146A (en) 2005-08-04 2006-06-08 Image processing apparatus, method for calculating white balance evaluation value, program including program code for obtaining method for calculating white balance evaluation value, and storage medium for storing the program

Country Status (1)

Country Link
JP (1) JP2007068146A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008277899A (en) * 2007-04-25 2008-11-13 Nikon Corp White balance adjustment device, imaging device, and white balance adjusting program
JP2009027259A (en) * 2007-07-17 2009-02-05 Fujifilm Corp Auto white balance correction value calculating device, method and program, and imaging device
JP2009164838A (en) * 2007-12-28 2009-07-23 Canon Inc Image processing device and method, and imaging device
CN114374830A (en) * 2022-01-06 2022-04-19 杭州海康威视数字技术股份有限公司 Image white balance method, electronic device and computer readable storage medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008277899A (en) * 2007-04-25 2008-11-13 Nikon Corp White balance adjustment device, imaging device, and white balance adjusting program
JP2009027259A (en) * 2007-07-17 2009-02-05 Fujifilm Corp Auto white balance correction value calculating device, method and program, and imaging device
JP4702635B2 (en) * 2007-07-17 2011-06-15 富士フイルム株式会社 AUTO WHITE BALANCE CORRECTION VALUE CALCULATION DEVICE, METHOD, PROGRAM, AND IMAGING DEVICE
JP2009164838A (en) * 2007-12-28 2009-07-23 Canon Inc Image processing device and method, and imaging device
CN114374830A (en) * 2022-01-06 2022-04-19 杭州海康威视数字技术股份有限公司 Image white balance method, electronic device and computer readable storage medium
CN114374830B (en) * 2022-01-06 2024-03-08 杭州海康威视数字技术股份有限公司 Image white balance method, electronic device and computer readable storage medium

Similar Documents

Publication Publication Date Title
JP5567853B2 (en) Image recognition apparatus and method
US8416987B2 (en) Subject tracking apparatus and control method therefor, image capturing apparatus, and display apparatus
JP5064947B2 (en) Image processing apparatus and method, and imaging apparatus
JP6564271B2 (en) Imaging apparatus, image processing method, program, and storage medium
US10621754B2 (en) Method of detecting skin color area of human
JP2009212853A (en) White balance controller, its control method, and imaging apparatus
JP2009027259A (en) Auto white balance correction value calculating device, method and program, and imaging device
JP2009087232A (en) Person authentication apparatus and person authentication method
JP2019106045A (en) Image processing device, method, and program
US20180047186A1 (en) Image processing method for correcting dark circle under human eye
JP2008187260A (en) Imaging device
US20070031060A1 (en) Image processing apparatus, method for calculating white balance evaluation value, program including program code for realizing the method for calculating white balance evaluation value, and storage medium for storing the program
JP2009123081A (en) Face detection method and photographing apparatus
JP2007068146A (en) Image processing apparatus, method for calculating white balance evaluation value, program including program code for obtaining method for calculating white balance evaluation value, and storage medium for storing the program
JP2009038737A (en) Image processing apparatus
JP2009200900A (en) Imaging apparatus
TWI226020B (en) Device and method to determine exposure setting for image of scene with human-face area
JP5499531B2 (en) Electronic camera
JP2011071925A (en) Mobile tracking apparatus and method
JP7455656B2 (en) Image processing device, image processing method, and program
JP5744945B2 (en) Image processing apparatus and method, and imaging apparatus
JP5995610B2 (en) Subject recognition device and control method therefor, imaging device, display device, and program
JP4946913B2 (en) Imaging apparatus and image processing program
JP2011147076A (en) Image processing apparatus, image capturing apparatus and program
US11842467B2 (en) Image processing apparatus, image processing method and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090525

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110207