JP5732799B2 - Image processing apparatus, imaging apparatus, and image processing program - Google Patents
Image processing apparatus, imaging apparatus, and image processing program Download PDFInfo
- Publication number
- JP5732799B2 JP5732799B2 JP2010218952A JP2010218952A JP5732799B2 JP 5732799 B2 JP5732799 B2 JP 5732799B2 JP 2010218952 A JP2010218952 A JP 2010218952A JP 2010218952 A JP2010218952 A JP 2010218952A JP 5732799 B2 JP5732799 B2 JP 5732799B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- color
- image processing
- white balance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 71
- 238000003384 imaging method Methods 0.000 title claims description 26
- 238000005286 illumination Methods 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 33
- 238000009826 distribution Methods 0.000 claims description 21
- 238000011156 evaluation Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 8
- 238000011144 upstream manufacturing Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 description 19
- 238000000926 separation method Methods 0.000 description 10
- 238000007906 compression Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000009825 accumulation Methods 0.000 description 4
- 230000006837 decompression Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000005549 size reduction Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Processing Of Color Television Signals (AREA)
Description
本発明は、画像処理装置、撮像装置、画像処理プログラムに関する。 The present invention relates to an image processing device, an imaging device, and an image processing program.
特許文献1に開示のホワイトバランス調整では、撮影画像から主要被写体領域を抽出し、その主要被写体領域から抽出された測色値の頻度を、他の領域から抽出された測色値の頻度よりも高めに見積もる(大きな重み係数を乗算する)ことで、主要被写体に対するホワイトバランス調整の精度向上を図っている。
In the white balance adjustment disclosed in
特許文献2に開示のホワイトバランス調整では、主要被写体領域に対するホワイトバランス調整量を、他の領域に対するホワイトバランス調整量とは別に設定することにより、主要被写体に対するホワイトバランス調整の精度向上を図っている。
In the white balance adjustment disclosed in
しかしながら何れの場合も、主要被写体領域の色から主要被写体の照明色を推定することが困難な場合(例えば、主要被写体の本来の色が何らかの光源の色と偶然似ていた場合など)には、主要被写体領域のホワイトバランス調整に失敗する(カラーフェリアを起こす)虞がある。 However, in any case, when it is difficult to estimate the illumination color of the main subject from the color of the main subject area (for example, when the original color of the main subject accidentally resembles the color of some light source) There is a risk that the white balance adjustment of the main subject area may fail (cause color failure).
本発明は、撮影画像中の特定領域に対するホワイトバランス調整のカラーフェリアを高確率で抑えることのできる画像処理装置、撮像装置、及び画像処理プログラムを提供することを目的とする。 It is an object of the present invention to provide an image processing apparatus, an imaging apparatus, and an image processing program that can suppress a white balance adjustment color failure for a specific area in a captured image with high probability.
本発明の画像処理装置は、カラーの撮影画像を入力する入力手段と、前記画像上の複数の領域の各々から、その領域の色が光源色を示している可能性の高さを示す評価値を抽出する抽出手段と、前記複数の領域の一部である特定領域に写っている被写体の照明方向を推測する推測手段と、抽出された複数の前記評価値の前記画像上の分布を、前記照明方向に応じた重み分布で重み付けする重み付け手段と、重み付け後に高い値を示した評価値の抽出元領域の色を前記被写体の照明色とみなして前記特定領域へ適用すべきホワイトバランス調整量を算出する算出手段と、を備え、前記特定領域に写っている被写体が人物か否かに応じて、前記照明方向を推測する領域の選択基準が異なることを特徴とする。 The image processing apparatus according to the present invention includes an input unit that inputs a color photographed image, and an evaluation value that indicates a high possibility that the color of the area indicates the light source color from each of the plurality of areas on the image. Extraction means for extracting, estimation means for estimating the illumination direction of a subject reflected in a specific area that is a part of the plurality of areas, and distribution of the plurality of extracted evaluation values on the image, A weighting unit for weighting with a weight distribution according to the illumination direction, and a white balance adjustment amount to be applied to the specific region by regarding the color of the extraction source region of the evaluation value showing a high value after weighting as the illumination color of the subject comprising a calculation unit calculating for a said object is reflected in a particular region according to whether the person, the selection criteria of the areas to estimate the illumination direction you wherein different.
本発明の撮像装置は、カラーの撮影画像を取得する撮像手段と、前記撮像手段が取得した画像の特定領域へ適用すべきホワイトバランス調整量を算出する、本発明の画像処理装置とを備える。 The imaging apparatus of the present invention includes an imaging unit that acquires a color captured image, and an image processing apparatus of the present invention that calculates a white balance adjustment amount to be applied to a specific area of the image acquired by the imaging unit.
本発明の画像処理プログラムは、カラーの撮影画像を入力する入力手順と、前記画像上の複数の領域の各々から、その領域の色が光源色を示している可能性の高さを示す評価値を抽出する抽出手順と、前記複数の領域の一部である特定領域に写っている被写体の照明方向を推測する推測手順と、抽出された複数の前記評価値の前記画像上の分布を、前記照明方向に応じた重み分布で重み付けする重み付け手順と、重み付け後に高い値を示した評価値の抽出元領域の色を前記被写体の照明色とみなして前記特定領域へ適用すべきホワイトバランス調整量を算出する算出手順と、前記特定領域に写っている被写体が人物か否かに応じて、前記照明方向を推測する領域の選択基準を変える手順と、をコンピュータに実行させることを特徴とする。 The image processing program of the present invention includes an input procedure for inputting a color photographed image, and an evaluation value indicating a high possibility that the color of the area indicates the light source color from each of the plurality of areas on the image. An extraction procedure for extracting a plurality of evaluation values, an estimation procedure for estimating an illumination direction of a subject in a specific area that is a part of the plurality of areas, and a distribution of the extracted evaluation values on the image. A weighting procedure for weighting with a weight distribution according to the illumination direction, and a white balance adjustment amount to be applied to the specific area by regarding the color of the extraction source area of the evaluation value showing a high value after weighting as the illumination color of the subject The computer is caused to execute a calculation procedure for calculating and a procedure for changing a selection criterion of the region for estimating the illumination direction according to whether or not the subject in the specific region is a person .
本発明によれば、カラー画像中の特定領域に対するホワイトバランス調整のカラーフェリアを高確率で抑えることのできる画像処理装置、撮像装置、及び画像処理プログラムが実現する。 According to the present invention, an image processing apparatus, an imaging apparatus, and an image processing program that can suppress a white balance adjustment color failure for a specific region in a color image with high probability are realized.
以下、本発明の実施形態として電子カメラを説明する。 Hereinafter, an electronic camera will be described as an embodiment of the present invention.
図1は、電子カメラの構成図である。図1に示すとおり電子カメラ1には、撮像素子11、信号処理回路12、バッファメモリ13、画像処理回路14、ホワイトバランス調整回路15、表示制御回路16、内部モニタ17、圧縮・伸張回路18、カードインタフェース19、CPU21、撮像回路22、入力器23、外部接続端子24、ストロボ装置30などが備えられる。このうちバッファメモリ13、画像処理回路14、ホワイトバランス調整回路15、表示制御回路16、圧縮・伸張回路18、カードインタフェース19、CPU21は、共通のバスに接続されている。
FIG. 1 is a configuration diagram of an electronic camera. As shown in FIG. 1, the
撮像素子11は、撮影レンズ2が形成した被写界像を撮像するカラー撮像素子(例えば単板式カラー撮像素子)である。
The
信号処理回路12は、撮像素子11が撮像で取得したアナログ画像信号に対してアナログ信号処理及びA/D変換処理を順次に施し、ディジタル画像信号に変換する。
The
バッファメモリ13は、信号処理回路12から出力されるディジタル画像信号を順次に蓄積する。撮像素子11の1フレーム分の電荷読み出し期間に亘ってこの蓄積が行われると、バッファメモリ13には1フレーム分のディジタル画像データが蓄積されることになる。以下、1フレーム分のディジタル画像データを単に「画像」と称し、特に、撮像直後にバッファメモリ13に蓄積された画像(画像処理回路14による画像処理が施される前の画像)を「RAW画像」と称す。
The
ホワイトバランス調整回路15は、バッファメモリ13に格納されたRAW画像に対してホワイトバランス調整処理を施す。ホワイトバランス調整処理の詳細は後述する。
The white
画像処理回路14は、ホワイトバランス調整後の画像に対して、デベイヤ処理(色補間処理)を含む所定の画像処理(色補間処理、階調変換処理、エッジ強調処理、コントラスト強調処理など)を施す。なお、画像処理回路14は、必要に応じて、バッファメモリ13上の画像に対して表示用の間引き処理(サイズ縮小処理)を施すこともできる。
The
表示制御回路16は、表示用メモリを有しており、その表示用メモリに書き込まれた画像を内部モニタ17へ送出することにより、その内部モニタ17上へ画像を表示する。なお、外部接続端子24に外部モニタが接続されている期間には、表示制御回路16による画像の送出先は、内部モニタ17ではなく外部モニタとなる。但し、以下では簡単のため、外部接続端子24に外部モニタは接続されていないものと仮定する。
The
内部モニタ17は、電子カメラ1の背面などに設けられ、電子カメラ1で取得された画像をユーザが確認する際などに使用されるモニタである。このモニタは、例えばLCDパネルなどで構成される。
The
外部接続端子24は、外部モニタへ表示制御回路16を接続するための端子である。外部接続端子24は、例えば、USBポートなどで構成される。
The
圧縮・伸張回路18は、前述した所定の画像処理後の画像に対し、所定方式のデータ圧縮処理を施す。また、圧縮・伸張回路18は、データ圧縮済みの画像に対し、同じ方式のデータ伸張処理を施すこともできる。以下、圧縮/伸張方式として周知のJPEG方式が適用されるものと仮定する。
The compression /
カードインタフェース19は、データ圧縮済みの画像(JPEGファイル)又はデータ圧縮されていないRAW画像(RAW画像ファイル)を、電子カメラ1のカードスロットに装着中のカードメモリ20へ書き込んだり、そのカードメモリ20に書き込まれているJPEGファイル又はRAW画像ファイルを読み込んだりする。なお、カードメモリ20は、可搬の記憶媒体である。
The
撮像回路22は、撮影レンズ2に対して駆動信号を与えることにより、撮影レンズ2の焦点距離(ズーム位置)、撮影レンズ2の合焦距離、撮影レンズ2の絞り値などを調節する。また、撮像回路22は、撮像素子11及び信号処理回路12に対して駆動信号を与えることにより、両者の駆動タイミングを制御する。また、撮像回路22は、撮像素子11の1フレーム当たりの電荷蓄積時間を制御する。なお、電子カメラ1のシャッター速度は、撮像素子11の電荷蓄積時間と不図示のメカシャッタの開放期間との組み合わせによって設定できるが、ここでは簡単のため、撮像素子11の電荷蓄積時間のみによって設定されるものと仮定する。
The
CPU21は、入力器23を介して入力されるユーザの指示と、CPU21の内部メモリ(ROM)に予め書き込まれたファームウエアとに従い、以上の各部を制御する。なお、CPU21のファームウエアは、電子カメラ1に搭載された不図示の通信回路(公知のネットワーク端子など)を介して適宜に更新される。
The
入力器23は、電子カメラ1の上部に設けられたレリーズボタンや、電子カメラ1の背面に設けられたマルチセレクターなどの操作部材である。例えばユーザは、この入力器23を介して電子カメラ1のモードを撮影モードと再生モードの間で切り替えることができる。また、ユーザは、入力器23を介して電子カメラ1のモードを閃光発光禁止モードに設定することもできる。
The input device 23 is an operation member such as a release button provided on the top of the
ストロボ装置30は、撮影レンズ2の被写界に向けて閃光を発光する装置である。ストロボ装置30による閃光の発光タイミングは、撮像素子11の駆動タイミングなどと共に撮像回路22によって制御される。また、ストロボ装置30による閃光発光の必要性は、撮影毎にCPU21によって判別される。
The
図2は、撮影モードにおけるCPU21の動作フローチャートである。以下、図2の各ステップを順に説明する。なお、ここでは説明を簡単にするため、電子カメラ1のRAW記録機能(RAW画像ファイルをJPEGファイルと共に記録する機能)は、オフされているものと仮定する。
FIG. 2 is an operation flowchart of the
ステップS10:CPU21は、撮像回路22を介して撮像素子11をドラフトモードで連続駆動し始める。これによって撮像素子11は、スルー画像の取得を開始する。CPU21は、このときに信号処理回路12から出力されるスルー画像からAE評価値を抽出し、そのAE評価値が適正となるよう、撮像回路22を介して電子カメラ1のシャッター速度と撮影レンズ22の絞り値との組み合わせを制御する(AE制御)。それと並行して、CPU21は、信号処理回路12から出力されるスルー画像からAF評価値を抽出し、そのAF評価値が適正となるよう、撮像回路22を介して撮影レンズ22の合焦距離を制御する(AF制御)。なお、CPU21は、スルー画像の取得期間中に入力器23からズーム調整指示が入力されると、その指示に応じて撮影レンズ2のズーム位置を調整する。
Step S10: The
ステップS11:CPU21は、レリーズボタンが半押しされたか否かを判別し、半押しされた場合は、ステップS12へ移行する。
Step S11: The
ステップS12:CPU21は、現時点における絞り値及びシャッター速度を固定すると共に(AEロック)、現時点における合焦距離を固定し(AFロック)、現時点におけるズーム位置も固定する(ズームロック)。但し、CPU21は、電子カメラ1が閃光禁止モードに設定中でなかった場合には、この時点で露出不足となる可能性の有無を検知し、その可能性があった場合には、ストロボ装置30に対して発光の準備をさせると共に、絞り値及びシャッター速度を閃光撮影に適した値に調整する。その後、CPU21は、電子カメラ1に設定中の絞り値、シャッター速度、合焦距離、ズーム位置、閃光発光の準備の有無(閃光発光の有無)などのデータを、撮影条件データとして読み込む。
Step S12: The
ステップS13CPU21は、レリーズボタンが全押しされたか否かを判別し、全押しされていない場合はステップS14へ移行し、全押しされた場合はステップS15へ移行する。
Step S13: The
ステップS14:CPU21は、レリーズボタンの半押しが解除されたか否かを判別し、解除されていない場合はステップS13へ移行し、解除された場合は、AEロック、AFロック、ズームロック、閃光発光準備の各々を解除してからステップS11へ移行する。
Step S14: The
ステップS15:CPU21は、撮像回路22を介して撮像素子11をフレームモードで1フレーム分駆動する。なお、先のステップで閃光発光の必要があると判断した場合、CPU21は、撮像回路22を介してストロボ装置30を駆動し、撮像素子11の駆動と共に閃光発光を行う。これによって保存用の詳細画像が取得される。この詳細画像は、信号処理回路12を介してバッファメモリ13へ蓄積される。
Step S15: The
ステップS16:CPU21は、ステップS12で読み込んだ撮影条件データ(少なくとも閃光発光の有無を示すデータ)をホワイトバランス調整回路15へ与えると共に、詳細画像に対してホワイトバランス調整処理を施すようホワイトバランス調整回路15へ指示を与え、その後ホワイトバランス調整回路15から完了通知を受け取ると、CPU21は、ステップS17へ移行する。
Step S16: The
ステップS17:CPU21は、ホワイトバランス調整後の詳細画像に対して画像処理回路14による所定の画像処理(色補間処理、階調変換処理、エッジ強調処理、コントラスト強調処理など)を施す。
Step S17: The
ステップS18:CPU21は、画像処理後の詳細画像に対して表示用の間引き処理(画像処理回路14によるサイズ縮小処理)を施してから、表示制御回路16の表示用メモリへ書き込み、内部モニタ17上に所定期間だけ確認表示する。これによってユーザは、撮影で取得された詳細画像を確認することができる。
Step S18: The
また、本ステップのCPU21は、圧縮・伸張回路18によるデータ圧縮処理をホワイトバランス調整後の詳細画像(間引き処理前の詳細画像)へ施すことでJPEGファイルを作成し、ステップS12で読み込んだ撮影条件データをそのJPEGファイルに付与してから、カードインタフェース19を介してカードメモリ20へ書き込み、フローを終了する。これによって、詳細画像が保存されたことになる。
Further, the
図3は、ホワイトバランス調整回路15によるホワイトバランス調整処理(図2のステップS16)の動作フローチャートである。以下、図3の各ステップを順に説明する。
FIG. 3 is an operation flowchart of white balance adjustment processing (step S16 in FIG. 2) by the white
ステップS16−1:ホワイトバランス調整回路15は、バッファメモリ13上の詳細画像(画像処理前の詳細画像である。)を読み込む。
Step S16-1: The white
ステップS16−2:ホワイトバランス調整回路15は、読み込んだ詳細画像に対してパターン認識処理を施すことにより、その詳細画像中に存在する複数のオブジェクト領域を検出する。そして、ホワイトバランス調整回路15は、それらオブジェクト領域の輪郭により、詳細画像の全体を複数の領域に分割する。例えば、詳細画像中に、図4に示すとおり室内用の照明器具(シェード、ランプ、アーム)と、人物(髪、顔、体)と、山・太陽・空の見える窓と、壁と、床とが写っていたと仮定すると、詳細画像は、本ステップにおいて図5に示すような領域a、b、c、d、e、f、g、h、i、j、k、oに分割される。
Step S16-2: The white
ステップS16−3:ホワイトバランス調整回路15は、詳細画像上の領域a、b、c、d、e、f、g、h、i、j、k、oの各々から、色評価値の一種である「光源らしさ度」を抽出する。
Step S16-3: The white
ここで、或る領域の光源らしさ度は、その領域の色が何らかの光源色を示している可能性の高さを示す評価値である。例えば、或る領域の輝度分布及び色度分布が蛍光灯のそれに類似していた場合には、その領域の光源らしさ度は高い値となる。また、別の或る領域の輝度分布及び色度分布が電球のそれに類似していた場合にも、その領域の光源らしさ度は高い値となる。また、別の或る領域の色度のみが電球の色度に近かった場合には、その領域の光源らしさ度は、中程度の値となる。また、別の或る領域の輝度分布及び色度分布の何れもが光源のそれに類似していなかった場合には、その領域の光源らしさ度は低い値となる。 Here, the lightness likelihood of a certain area is an evaluation value indicating the high possibility that the color of the area indicates a certain light source color. For example, when the luminance distribution and chromaticity distribution in a certain area are similar to those of a fluorescent lamp, the degree of light source in that area is a high value. In addition, when the luminance distribution and chromaticity distribution of another certain area are similar to those of a light bulb, the degree of lightness in that area is a high value. In addition, when only the chromaticity of another certain area is close to the chromaticity of the light bulb, the degree of light source in that area becomes a medium value. In addition, when neither the luminance distribution nor the chromaticity distribution in another certain area is similar to that of the light source, the degree of lightness in that area is a low value.
よって、図4の領域a、b、c、d、e、f、g、h、i、j、k、oの各々の光源らしさ度は、例えば図6に示すとおりとなる。図6に示す例では、ランプ領域fの光源らしさ度は+4、シェード領域gの光源らしさ度は+3、太陽領域aの光源らしさ度は+5となっており、それ以外の領域c、d、e、h、i、j、k、oの光源らしさ度は+1となっている。以下、図6に示すような光源らしさ度の詳細画像上の分布を、「光源らしさ度マップ」と称す。 Therefore, the degree of light source likelihood of each of the areas a, b, c, d, e, f, g, h, i, j, k, and o in FIG. 4 is as shown in FIG. 6, for example. In the example shown in FIG. 6, the lamp area f has a light source likelihood of +4, the shade area g has a light source likelihood of +3, and the solar area a has a light source likelihood of +5, and the other areas c, d, e , H, i, j, k, o have a light source likelihood of +1. Hereinafter, the distribution of the degree of light source likelihood on the detailed image as shown in FIG. 6 is referred to as a “light source degree of degree map”.
なお、光源らしさ度の算出は、各オブジェクト領域に対するオブジェクト認識結果、すなわち各オブジェクト領域が光源オブジェクト(例えば、照明、太陽、火など)であるか否かに基づき行われてもよい。或いは、メインの撮像素子11とは別に設けられたサブの撮像素子(測光センサ)に対する入力信号のパワー分布に基づき行われてもよい。或いは、オブジェクト認識結果とパワー分布との組み合わせに基づき行われてもよい。
The calculation of the light source likelihood may be performed based on the object recognition result for each object area, that is, whether each object area is a light source object (for example, illumination, sun, fire, etc.). Alternatively, it may be performed based on a power distribution of an input signal to a sub image sensor (photometric sensor) provided separately from the
続いて、ホワイトバランス調整回路15は、詳細画像上の領域a、b、c、d、e、f、g、h、i、j、k、oを、領域の絵柄及び面積によって互いに比較し、それら領域a、b、c、d、e、f、g、h、i、j、k、oの何れか1つを主要被写体領域に選出する。例えば、ホワイトバランス調整回路15は、領域a、b、c、d、e、f、g、h、i、j、k、oの中から面積が閾値未満であるものを排除し、残った複数の領域の中で最もコントラストの高かった領域を主要被写体領域とする。なお、主要被写体領域の選出は、前述したAF制御の情報(AF評価値の抽出元となったAFエリアの位置など)に基づき行われてもよい。
Subsequently, the white
更に、ホワイトバランス調整回路15は、選出した主要被写体領域を、色度の異なる複数の小領域に分割し、それら小領域から面積が閾値未満であるものを排除し、残った領域の中で最もコントラストが高かった小領域を、参照領域に設定する。
Further, the white
但し、ホワイトバランス調整回路15は、選出した主要被写体領域が人物領域oであった場合には、面積及びコントラストに拘わらず、人物領域oの肌色領域(すなわち顔領域of)を参照領域に設定する(図7)。因みに、図7の符号ohは髪領域であり、符号obは身体領域である。以下、人物領域oが主要被写体領域に選出され、顔領域ofが参照領域に設定されたと仮定する。
However, when the selected main subject area is the person area o, the white
ステップS16−4: ホワイトバランス調整回路15は、詳細画像上の参照領域(ここでは顔領域of)から次の手順(a)〜(f)により明暗差及び明暗ベクトルを抽出する。
Step S16-4: The white
(a)詳細画像上の参照領域(ここでは顔領域of)(図8)を、所定の輝度閾値で二値化する。二値化後の参照領域(ここでは顔領域of’)の各画素は、黒画素と白画素との何れかとなる(図9)。 (A) The reference area (here, the face area of) (FIG. 8) on the detailed image is binarized with a predetermined luminance threshold. Each pixel in the binarized reference area (here, the face area of ') is either a black pixel or a white pixel (FIG. 9).
(b)二値化後の参照領域(ここでは顔領域of’)上で黒画素群と白画素群とを空間的に分離する所定次数の分離曲線Csを算出する。この分離曲線Csは、例えば、黒画素から分離曲線Csまでのユークリッド距離と、白画素から分離曲線Csまでのユークリッド距離とのトータルが最大となるような曲線である。このような分離曲線Csの算出には、例えば、サポートベクターマシンにおける分離超平面の算出と同様の方法が適用できる。なお、演算量を抑えるため、ここでは分離曲線Csの次数は、例えば2程度に設定されるものと仮定する。この場合、分離曲線Csの黒画素群側にも白画素(飛び地)が存在している可能性があり、分離曲線Csの白画素群側にも黒画素(飛び地)が存在している可能性がある。 (B) A separation curve Cs of a predetermined order that spatially separates the black pixel group and the white pixel group on the binarized reference area (here, the face area of ') is calculated. The separation curve Cs is, for example, a curve that maximizes the total of the Euclidean distance from the black pixel to the separation curve Cs and the Euclidean distance from the white pixel to the separation curve Cs. For the calculation of the separation curve Cs, for example, a method similar to the calculation of the separation hyperplane in the support vector machine can be applied. In order to reduce the amount of calculation, it is assumed here that the order of the separation curve Cs is set to about 2, for example. In this case, there is a possibility that a white pixel (enclave) exists also on the black pixel group side of the separation curve Cs, and a possibility that a black pixel (enclave) exists also on the white pixel group side of the separation curve Cs. There is.
(c)二値化前の参照領域(ここでは顔領域of)を分離曲線Csで分割する(図10)。これによって、参照領域(ここでは顔領域of)は、明るい画素を多く含む明部AHと、暗い画素を多く含む暗部ASとに分割される。なお、以下の計算では、明部AH及び暗部ASのうち、上述した飛び地に対応する各画素を、それぞれ無効画素(計算に使用されない画素)として扱う。 (C) The reference area before binarization (here, the face area of) is divided by the separation curve Cs (FIG. 10). As a result, the reference area (here, the face area of) is divided into a bright part AH containing many bright pixels and a dark part AS containing many dark pixels. In the following calculation, each pixel corresponding to the above-described enclave in the bright part AH and the dark part AS is treated as an invalid pixel (a pixel not used in the calculation).
(d)明部AHの平均輝度IHと、暗部ASの平均輝度ISとの差(IH−IS)を、参照領域(ここでは顔領域of)の明暗差として算出する。 (D) The difference (IH−IS) between the average brightness IH of the bright part AH and the average brightness IS of the dark part AS is calculated as the brightness difference of the reference area (here, the face area of).
(e)明部AHにおける明るさ重心ghと、暗部ASにおける暗さ重心gsとを算出する(図11)。なお、明るさ重心とは、輝度の高い画素ほど大きな重みが付される重み付け平均座標のことであり、暗さ重心とは、輝度の低い画素ほど大きな重みが付される重み付け平均座標のことである。 (E) The brightness centroid gh in the bright part AH and the dark centroid gs in the dark part AS are calculated (FIG. 11). The brightness centroid is a weighted average coordinate to which a higher weight is assigned to a pixel with higher luminance, and the dark centroid is a weighted average coordinate to be assigned a higher weight to a pixel with lower luminance. is there.
(f)明るさ重心ghから暗さ重心gsに向かう方向の単位ベクトルを、参照領域(ここでは顔領域of)の明暗ベクトルとして算出する(図12)。 (F) A unit vector in the direction from the brightness centroid gh to the dark centroid gs is calculated as the brightness vector of the reference area (here, the face area of) (FIG. 12).
ステップS16−5:ホワイトバランス調整回路15は、参照領域(ここでは顔領域of)の明暗差が所定の閾値を超過しているか否かを判別し、超過していた場合は、詳細画像の撮影が斜光撮影であったとみなしてステップS16−6へ移行し、超過していなかった場合は、詳細画像の撮影が順光撮影又は逆光撮影あったとみなしてステップS16−11へ移行する。
Step S16-5: The white
よって、例えば図4に示すとおり主要被写体(ここでは人物)がランプで主に斜め方向から照明されていた場合は、参照領域(ここでは顔領域of)の一部のみに影が発生するので明暗差は大きくなり、詳細画像の撮影は斜光撮影であったとみなされる。 Therefore, for example, as shown in FIG. 4, when the main subject (here, a person) is illuminated mainly from an oblique direction with a lamp, a shadow is generated only in a part of the reference area (here, the face area of). The difference becomes large, and it is considered that the detailed image was captured obliquely.
一方、例えば図17(A)(詳細は後述)に示すとおり主要被写体(ここでは人物)が閃光で主に正面から照明されていた場合は、参照領域(ここでは顔領域of)に影が発生しないので明暗差は小さくなり、詳細画像の撮影は順光撮影又は逆光撮影であったとみなされる。 On the other hand, for example, as shown in FIG. 17A (details will be described later), when the main subject (here, a person) is mainly illuminated from the front with flash light, a shadow is generated in the reference area (here, the face area of). Therefore, the difference in brightness is reduced, and it is considered that the detailed image has been captured in the backlight or backlight mode.
また、例えば図18(A)(後詳細は後述)に示すとおり主要被写体(ここでは人物)が自然光で主に背後から照明されていた場合は、参照領域(ここでは顔領域of)のほぼ全体が影となるので明暗差は小さくなり、詳細画像の撮影は順光撮影又は逆光撮影であったとみなされる。 Further, for example, as shown in FIG. 18A (details will be described later), when the main subject (here, a person) is mainly illuminated from behind with natural light, almost the entire reference area (here, the face area of). Since the shadow becomes a shadow, the difference in brightness becomes small, and it is considered that the detailed image was captured in the backlight or backlight mode.
ステップS16−6:ホワイトバランス調整回路15は、主要被写体領域(ここでは人物領域o)に存在する物体(ここでは人物)の照明方向を、参照領域(ここでは顔領域of)の明暗ベクトルの方向と同じとみなす。
Step S16-6: The white
ステップS16−7:ホワイトバランス調整回路15は、主要被写体領域(ここでは人物領域o)の明るさ調整に必要な情報をCPU21へ出力する。それを受けたCPU21は、その情報に基づき階調変換パラメータ(階調変換領域及び階調変換特性)を作成し、画像処理回路14の階調変換処理部へ設定する。なお、この階調変換特性は、例えば図13に示したような変換特性であって、主要被写体領域(ここでは人物領域o)のうち明るい輝度範囲に属する画素の輝度を維持したまま、主要被写体領域(ここでは人物領域o)のうち暗い輝度範囲に属する画素の輝度を明るい輝度範囲へと持ち上げるような特性である。
Step S16-7: The white
よって、詳細画像の撮影が遮光撮影であった場合は、後に実行される階調変換処理(ステップS17)により、主要被写体領域(ここでは人物領域o)のうち影となっていた部分が図14に示すとおり明るく補正される。なお、ここでは明るさ調整の対象を主要被写体領域(ここでは人物領域o)の全域としたが、参照領域(ここでは顔領域of)のみに制限してもよい。 Therefore, when the detailed image is captured by shading, the shadowed portion of the main subject region (here, the human region o) is shown in FIG. 14 by the gradation conversion processing (step S17) executed later. The brightness is corrected as shown in. Here, the brightness adjustment target is the entire main subject region (here, the human region o), but may be limited to only the reference region (here, the facial region of).
ステップS16−8:ホワイトバランス調整回路15は、以下の手順(g)〜(h)により斜光撮影用の重みマップ(図15)を作成する。なお、ここでいう重みマップ(図15)は、光源らしさ度マップ(図6)を重み付けするためのマップである。
Step S16-8: The white
(g)主要被写体領域(ここでは人物領域o)の中心点Poから放射状に延びる複数の分割線によりマップ全域を複数の扇状領域に分割する(図15参照)。但し、主要被写体領域(ここでは人物領域o)については、それらの分割線で分割せずに1領域のままとする。また、それら分割線の配置関係は、中心点Poに向かう明暗ベクトルBoに関して対称であり、また、それら分割線の全ては、その明暗ベクトルBo上に重ならないよう配置される。 (G) The entire map is divided into a plurality of fan-shaped areas by a plurality of dividing lines extending radially from the center point Po of the main subject area (here, the person area o) (see FIG. 15). However, the main subject area (here, the person area o) is not divided by those dividing lines, and remains as one area. Further, the arrangement relationship of the dividing lines is symmetric with respect to the light / dark vector Bo toward the center point Po, and all the dividing lines are arranged so as not to overlap the light / dark vector Bo.
(h)マップ上の複数の扇状領域及び主要被写体領域(ここでは人物領域o)の各々に対して重み値を割り当てる。この際、中心点Poから見て照明方向の上流側(図の左上半分)に位置する複数の扇状領域には、比較的大きな重み値(+0.3〜+1)が割り当てられ、中心点Poから見て照明方向の下流側(図の右下半分)に位置する複数の扇状領域には、比較的小さな重み値(0)が割り当てられる。また、特に、中心点Poから見て照明方向の直上流に位置する特定の扇状領域(左上の扇状領域)に対しては、最大の重み値(+1)が割り当てられ、特定の扇状領域(左上の扇状領域)の近くに位置する扇状領域(周方向の位置が近い扇状領域)ほど大きな重み値が割り当てられる。また、マップ上の主要被写体領域(ここでは人物領域o)には、最大の重み値(+1)が割り当てられる。 (H) A weight value is assigned to each of the plurality of fan-shaped areas and the main subject area (here, the person area o) on the map. At this time, a relatively large weight value (+0.3 to +1) is assigned to the plurality of fan-like regions located on the upstream side in the illumination direction (upper left half in the figure) when viewed from the center point Po, and from the center point Po. A relatively small weight value (0) is assigned to a plurality of fan-shaped regions located on the downstream side in the illumination direction as viewed (lower right half in the figure). In particular, the maximum weight value (+1) is assigned to a specific fan-shaped area (upper-left fan-shaped area) located immediately upstream in the illumination direction when viewed from the center point Po, and the specific fan-shaped area (upper left) A larger weight value is assigned to a fan-shaped area located near the fan-shaped area (a fan-shaped area closer to the circumferential direction). Further, the maximum weight value (+1) is assigned to the main subject area (here, the person area o) on the map.
なお、ここでは、中心点Poから見て照明方向の下流側(図の右下半分)に位置する5つの扇状領域に対して共通の重み値(0)を割り当てたが、個別の重み値を割り当ててもよい。その場合は、特定の扇状領域(左上の扇状領域)の近くに位置する扇状領域ほど大きな重み値が割り当てられる。 Here, although a common weight value (0) is assigned to the five fan-shaped regions located on the downstream side in the illumination direction (lower right half in the figure) when viewed from the center point Po, individual weight values are assigned. It may be assigned. In that case, a larger weight value is assigned to a fan-shaped area located near a specific fan-shaped area (upper-left fan-shaped area).
ステップS16−9:ホワイトバランス調整回路15は、光源らしさ度マップ(図6)を重みマップ(図15)により重み付けし、重み付け後の光源らしさ度マップを取得する。この際、光源らしさ度マップの各領域の光源らしさ度へ乗算される重み値は、例えば、重みマップ上でその領域の中心座標の属する領域(扇状領域又は主要被写体領域)に割り当てられた重み値と同じに設定される。
Step S16-9: The white
なお、本ステップで使用される重みマップの働きを可視化したのが、図16(A)、(B)、(C)、(D)である。図16(A)が詳細画像(斜光撮影の場合)であり、図16(B)が重み付け前の光源らしさ度マップであり、図16(C)が重みマップであり、図16(D)が重み付け後の光源らしさ度マップである。 FIGS. 16A, 16B, 16C, and 16D visualize the function of the weight map used in this step. FIG. 16A is a detailed image (in the case of oblique shooting), FIG. 16B is a light source likelihood degree map before weighting, FIG. 16C is a weight map, and FIG. It is a lightness-likeness degree map after weighting.
すなわち、(詳細画像の撮影が斜光撮影であった場合に)本ステップで使用される重みマップ(図16(C))には、主要被写体領域(ここでは人物領域o)から見て照明方向の下流側(右下半分)に位置する領域(例えば太陽領域a)の光源らしさ度を抑え、かつ、主要被写体領域(ここでは人物領域o)から見て照明方向の上流側(左上半分)に位置する領域(例えばランプ領域g、シェード領域g)の光源らしさ度を相対的に向上させるような働きがある。 In other words, the weight map (FIG. 16C) used in this step (when the detailed image is captured obliquely) has the illumination direction as viewed from the main subject area (here, the person area o). Suppressing the likelihood of a light source in an area (for example, the sun area a) located on the downstream side (lower right half) and located on the upstream side (upper left half) in the illumination direction when viewed from the main subject area (here, the person area o) There is a function of relatively improving the light source likelihood of the area to be performed (for example, the lamp area g and the shade area g).
ステップS16−10:ホワイトバランス調整回路15は、重み付け後の光源らしさ度マップから、光源らしさ度が最高である1又は複数の領域を見出し、その領域を、主要被写体(ここでは人物)を照明した光源の存在領域と判断する(以下、この領域を「光源領域」と称す。)。続いてホワイトバランス調整回路15は、その光源領域の平均色度を無彩色に近づけるためのホワイトバランスゲイン(又は無彩色化するためのホワイトバランスゲイン)を、主要被写体領域(ここでは人物領域o)にとって最適なホワイトバランスゲインとして算出する。
Step S16-10: The white
なお、図16(A)、(B)、(C)、(D)に示す例(斜光撮影)では、重み付け後の光源らしさ度が最高値となるのはランプ領域fなので、ランプ領域fの平均色度を無彩色に近づけるためのホワイトバランスゲイン(又は無彩色化するためのホワイトバランスゲイン)が、主要被写体領域(ここでは人物領域o)にとって最適なホワイトバランスゲインとして算出される。 In the examples shown in FIGS. 16A, 16B, 16C, and 16D (oblique shooting), the light source likelihood after weighting has the highest value in the lamp region f. A white balance gain for bringing the average chromaticity closer to an achromatic color (or a white balance gain for achromatic color) is calculated as an optimum white balance gain for the main subject area (here, the person area o).
但し、ホワイトバランス調整回路15は、重み付け後の光源らしさ度の最高値が閾値未満(例えば+2未満)であった場合には、最高値の属する1又は複数の領域の中から、更に、特定色の物体(例えば無彩色物体や人物の顔)が存在していると推定される部分領域を抽出し、その部分領域の平均色度をその物体の本来の色に近づけるためのホワイトバランスゲイン(又は本来の色にするためのホワイトバランスゲイン)を、主要被写体領域(ここでは人物領域o)にとって最適なホワイトバランスゲインとして算出する。
However, when the maximum value of the light source likelihood after weighting is less than a threshold value (for example, less than +2), the white
そして、ホワイトバランス制御回路15は、算出したホワイトバランスゲインを詳細画像の各画素へ乗算することにより、ホワイトバランス調整後の詳細画像を取得し、CPU21へ完了通知を与え、図3のフローを終了する(なお、詳細画像に対して画像処理が施されるのは、図3のフローの終了後である。)。
The white
ステップS16−11:ホワイトバランス調整回路15は、CPU21から与えられた撮影条件データに基づき、詳細画像の撮影が閃光撮影であったか否かを判別し、閃光撮影であった場合には、詳細画像の撮影が順光撮影であったとみなしてステップS16−12へ移行し、閃光撮影でなかった場合には、詳細画像の撮影が逆光撮影であったとみなしてステップS16−14へ移行する。
Step S16-11: The white
よって、例えば図17(A)に示すとおり主要被写体(ここでは人物)が閃光で主に正面から照明されていた場合は、詳細画像の撮影は順光撮影であったとみなされ、例えば図18(A)に示すとおり主要被写体(ここでは人物)が自然光で主に背後から照明されていた場合は、詳細画像の撮影は逆光撮影であったとみなされる。 Therefore, for example, as shown in FIG. 17A, when the main subject (here, a person) is mainly illuminated from the front with flash light, it is considered that the detailed image has been captured in the front light. For example, FIG. As shown in A), when the main subject (here, a person) is illuminated mainly by natural light from behind, it is considered that the shooting of the detailed image is the backlight shooting.
ステップS16−12:ホワイトバランス調整回路15は、主要被写体領域(ここでは人物領域o)に存在する物体(ここでは人物)の照明方向を、参照領域(ここでは顔領域of)の明暗ベクトルに拘わらず、順方向(手前から奥へ向かう方向)とみなす。
Step S16-12: The white
ステップS16−13:ホワイトバランス調整回路15は、以下の手順(g)〜(h)により順光撮影用の重みマップを作成し、ステップS16−9へ移行する。
Step S16-13: The white
(g)マップ全域を、主要被写体領域(ここでは人物領域o)と、それ以外の背景領域とに分割する。 (G) The entire map is divided into a main subject area (here, a person area o) and a background area other than that.
(h)マップ上の主要被写体領域(ここでは人物領域o)に対して比較的高い重み値(+1)を割り当て、マップ上の背景領域に対して比較的低い重み値(0)を割り当てる。 (H) A relatively high weight value (+1) is assigned to the main subject area (here, the person area o) on the map, and a relatively low weight value (0) is assigned to the background area on the map.
なお、図17(A)、(B)、(C)、(D)には、本ステップで作成される重みマップの働きを示した。図17(A)が詳細画像(順光撮影の場合)であり、図17(B)が重み付け前の光源らしさ度マップであり、図17(C)が重みマップであり、図17(D)が重み付け後の光源らしさ度マップである。 Note that FIGS. 17A, 17B, 17C, and 17D show the function of the weight map created in this step. FIG. 17A is a detailed image (in the case of direct light imaging), FIG. 17B is a light source likelihood degree map before weighting, FIG. 17C is a weight map, and FIG. Is a weighted lightness likelihood degree map.
すなわち、本ステップで作成される重みマップ(図17(C))には、背景領域の光源らしさ度を抑え、主要被写体領域(ここでは人物領域o)の光源らしさ度を相対的に向上させるような働きがある。 That is, in the weight map created in this step (FIG. 17C), the degree of light source in the background area is suppressed, and the degree of light source in the main subject area (here, the person area o) is relatively improved. There is a good work.
ステップS16−14:ホワイトバランス調整回路15は、詳細画像の主要被写体領域(ここでは人物領域o)の絵柄又は参照領域(ここでは顔領域of)の絵柄が逆光撮影の特徴を有しているか否かを判別し、有していた場合には、詳細画像の撮影が逆光撮影であったとみなしてステップS16−15へ移行し、有していなかった場合には、詳細画像の撮影が順光撮影であったとみなして前述したステップS16−12へ移行する。
Step S16-14: The white
ステップS16−15:ホワイトバランス調整回路15は、主要被写体領域(ここでは人物領域o)に存在する物体(ここでは人物)の照明方向を、参照領域(ここでは顔領域of)の明暗ベクトルに拘わらず、逆光方向(奧から手前へ向かう方向)とみなす。
Step S16-15: The white
ステップS16−16:ホワイトバランス調整回路15は、主要被写体領域(ここでは人物領域o)の明るさ調整に必要な情報をCPU21へ出力する。それを受けたCPU21は、その情報に基づき階調変換パラメータ(階調変換領域及び階調変換特性)を作成し、画像処理回路14の階調変換処理部へ設定する。なお、この階調変換特性は、例えば図13に示した変換特性であって、主要被写体領域(ここでは人物領域o)のうち明るい輝度範囲に属する画素の輝度を維持したまま、主要被写体領域(ここでは人物領域o)のうち暗い輝度範囲に属する画素の輝度を明るい輝度範囲へと持ち上げるような特性である。
Step S16-16: The white
よって、詳細画像の撮影が逆光撮影であった場合は、後に実行される階調変換処理(ステップS17)により、主要被写体領域(ここでは人物領域o)のうち影となっていた部分(逆光撮影の場合は人物の大部分)が明るく補正される。なお、ここでは明るさ調整の対象を主要被写体領域(ここでは人物領域o)の全域としたが、参照領域(ここでは顔領域of)のみに制限してもよい。 Therefore, when the detailed image is captured by backlighting, the shadowed portion (backlighting) of the main subject region (here, the person region o) is obtained by a gradation conversion process (step S17) executed later. In the case of, most of the person) is corrected brightly. Here, the brightness adjustment target is the entire main subject region (here, the human region o), but may be limited to only the reference region (here, the facial region of).
ステップS16−17:ホワイトバランス調整回路15は、以下の手順(g)〜(h)により逆光撮影用の重みマップを作成し、ステップS16−9へ移行する。
Step S16-17: The white
(g)マップ全体を、主要被写体領域(ここでは人物領域o)と、それ以外の背景領域とに分割する。 (G) The entire map is divided into a main subject area (here, a person area o) and other background areas.
(h)マップ上の主要被写体領域(ここでは人物領域o)に対して比較的低い重み値(0)を割り当て、マップ上の背景領域に対して比較的高い重み値(+1)を割り当てる。 (H) A relatively low weight value (0) is assigned to the main subject area (here, the person area o) on the map, and a relatively high weight value (+1) is assigned to the background area on the map.
なお、図18(A)、(B)、(C)、(D)には、本ステップで作成される重みマップの働きを示した。図18(A)が詳細画像(逆光撮影の場合)であり、図18(B)が重み付け前の光源らしさ度マップであり、図18(C)が重みマップであり、図18(D)が重み付け後の光源らしさ度マップである。 18A, 18B, 18C, and 18D show the function of the weight map created in this step. 18A is a detailed image (in the case of backlight photographing), FIG. 18B is a light source likelihood degree map before weighting, FIG. 18C is a weight map, and FIG. 18D is FIG. It is a lightness-likeness degree map after weighting.
すなわち、本ステップで作成される重みマップ(図18(C))には、主要被写体領域(ここでは人物領域o)の光源らしさ度を抑え、背景領域の光源らしさ度を相対的に向上させるような働きがある(以上、ステップS16−17の説明。)。 That is, the weight map (FIG. 18C) created in this step suppresses the light source likelihood of the main subject region (here, the human region o) and relatively improves the light source likelihood of the background region. (Therefore, description of step S16-17.)
以上、本実施形態のホワイトバランス調整回路15は、主要被写体(ここでは人物)の照明方向を反映した重みマップ(図16(C)、図17(C)、図18(C))により、光源らしさ度マップ(図16(B)、図17(B)、図18(B))を重み付けしてから、ホワイトバランスゲインを算出する。
As described above, the white
これらの重みマップ(図16(C)、図17(C)、図18(C))は何れも、主要被写体領域(ここでは人物領域o)から見て照明方向の上流側に位置する領域の光源らしさ度を相対的に向上させ、下流側に位置する領域の光源らしさ度を相対的に抑える働きがある。 Each of these weight maps (FIG. 16C, FIG. 17C, and FIG. 18C) is an area located upstream of the illumination direction as viewed from the main subject area (here, the person area o). There is a function of relatively improving the light source likelihood and relatively suppressing the light source likelihood of the region located on the downstream side.
したがって、本実施形態のホワイトバランス調整回路15は、主要被写体(ここでは人物)を照明した光源が、主要被写体領域(ここでは人物領域o)から見て何れの方向に存在していたとしても、主要被写体領域(ここでは人物領域o)に最適なホワイトバランスゲインを確実に算出することができる。
Therefore, the white
また、本実施形態のホワイトバランス調整回路15は、主要被写体(ここでは人物)の照明方向を推測する際に、詳細画像の撮影が斜光撮影、逆光撮影、順光撮影の何れであるかを考慮し、更に、詳細画像の撮影が斜光撮影であった場合には、主要被写体領域(ここでは人物領域o)の中の参照領域(ここでは顔領域of)の明暗ベクトルを考慮する。したがって、本実施形態のホワイトバランス調整回路15は、照明方向の異なる様々な撮影シーンに対応することができる。
In addition, the white
なお、本実施形態のホワイトバランス調整回路15は、ステップS16−10で算出したホワイトバランスゲインの適用先を詳細画像の全域としたが、主要被写体領域(ここでは人物領域o)のみとしてもよい。但し、その場合は、背景領域に適用されるホワイトバランスゲインについては、別途算出する必要がある。なお、その場合は、背景領域に適用されるホワイトバランスゲインを、主要被写体領域(ここでは人物領域o)に適用されるホワイトバランスゲインと同様に算出してもよい。つまり、上述したホワイトバランスゲインの算出手順は、主要被写体領域以外の領域に対しても、適用可能である。
In the white
また、上述した図15(重みマップ)では、周方向における分割線の配置ピッチを30°としたが、周方向における分割線の配置ピッチを30°以外の値に設定してもよい。例えば、演算を簡単にするため、90°、180°などと粗く設定してもよい。 Further, in FIG. 15 (weight map) described above, the arrangement pitch of the dividing lines in the circumferential direction is set to 30 °, but the arrangement pitch of the dividing lines in the circumferential direction may be set to a value other than 30 °. For example, in order to simplify the calculation, it may be set roughly as 90 °, 180 °, or the like.
また、上述した図15(斜光撮影用の重みマップ)では、周方向における分割線の配置ピッチを均等としたが、不均等でもよい。例えば、照明方向の上流側(図の左上半分)の配置ピッチを細かく設定し、照明方向の下流側(図の右下半分)の配置ピッチを粗く設定してもよい(因みに、図15の例では、配置ピッチは均等であったが、下流側の複数の扇状領域へ共通の重み値を割り当てたため、下流側の配置ピッチを粗くしたのと同じ効果が得られる。)。 Further, in FIG. 15 described above (weighted map for oblique shooting), the arrangement pitch of the dividing lines in the circumferential direction is made uniform, but it may be uneven. For example, the arrangement pitch on the upstream side in the illumination direction (upper left half in the figure) may be set finely, and the arrangement pitch on the downstream side in the illumination direction (lower right half in the figure) may be set coarsely (refer to the example in FIG. 15). The arrangement pitch is uniform, but since the common weight value is assigned to the plurality of downstream fan-shaped regions, the same effect as when the arrangement pitch on the downstream side is made coarse is obtained.
また、上述した図15(斜光撮影用の重みマップ)は、重み値を領域毎に割り当てているので、重み値の分布は階段状になるが、重み値を位置毎(例えば周位置毎)に割り当てることにより、重み値の分布を滑らかにしてもよい。但し、重み値を領域毎に割り当てた方が、重み付けに要する演算を簡略化することができるので、望ましい。 Further, in FIG. 15 described above (weight map for oblique photographing), the weight value is assigned to each region, so the distribution of the weight value is stepped, but the weight value is set for each position (for example, for each circumferential position). By assigning, the distribution of weight values may be smoothed. However, it is preferable to assign a weight value to each region because the calculation required for weighting can be simplified.
また、ステップS16−2におけるホワイトバランス調整回路15は、詳細画像を、サイズ及び形状が互いに異なる複数の領域に分割したが、詳細画像を、サイズ及び形状が共通の複数の領域(例えば複数の矩形領域)に分割してもよい。
In addition, the white
また、本実施形態のホワイトバランス調整回路15は、ホワイトバランスゲインの算出に使用する画像を、詳細画像それ自体としたが、算出に要する演算量を軽減するため、詳細画像の代わりに、詳細画像のサイズ縮小版としてもよい。また、メインの撮像素子11とは別に、被写界の色度分布(及び輝度分布)を監視するサブの撮像素子(測光センサ)が電子カメラ1に備えられていた場合には、ホワイトバランスゲインの算出に使用する画像を、サブの撮像素子が取得した画像としてもよい。
Further, the white
また、本実施形態の電子カメラ1は、ホワイトバランス調整を撮影時に行ったが、同様のホワイトバランス調整をRAW画像の再生時に(RAW画像の現像処理の1種として)行ってもよい。その場合、ステップS16−11における判別は、RAW画像ファイルに付加された撮影条件データに基づき行えばよい。
In the
また、本実施形態は、電子カメラの実施形態であったが、ホワイトバランス調整に拘わる電子カメラの動作を、電子カメラとは別体で設けられた画像処理装置、例えば、電子フォトフレーム、プリンタ、コンピュータなどに実行させてもよい。また、その動作を汎用コンピュータに実行させる場合は、その動作のコンピュータプログラムが通信網又は記憶媒体を介してコンピュータへインストールされることになる。 In addition, the present embodiment is an embodiment of an electronic camera, but the operation of the electronic camera related to white balance adjustment is an image processing apparatus provided separately from the electronic camera, such as an electronic photo frame, a printer, It may be executed by a computer or the like. When the general-purpose computer executes the operation, the computer program for the operation is installed in the computer via a communication network or a storage medium.
11…撮像素子、12…信号処理回路、13…バッファメモリ、14…画像処理回路、15…ホワイトバランス調整回路、16…表示制御回路、17…内部モニタ、18…圧縮・伸張回路、19…カードインタフェース、21…CPU、22…撮像回路、23…入力器、24…外部接続端子、30…ストロボ装置
DESCRIPTION OF
Claims (7)
前記画像上の複数の領域の各々から、その領域の色が光源色を示している可能性の高さを示す評価値を抽出する抽出手段と、
前記複数の領域の一部である特定領域に写っている被写体の照明方向を推測する推測手段と、
抽出された複数の前記評価値の前記画像上の分布を、前記照明方向に応じた重み分布で重み付けする重み付け手段と、
重み付け後に高い値を示した評価値の抽出元領域の色を前記被写体の照明色とみなして前記特定領域へ適用すべきホワイトバランス調整量を算出する算出手段と、
を備え、
前記特定領域に写っている被写体が人物か否かに応じて、前記照明方向を推測する領域の選択基準が異なることを特徴とする画像処理装置。 An input means for inputting a color photographed image;
Extraction means for extracting an evaluation value indicating the high possibility that the color of the region indicates the light source color from each of the plurality of regions on the image;
A guessing means for guessing the illumination direction of a subject in a specific area that is a part of the plurality of areas;
Weighting means for weighting the distribution of the plurality of extracted evaluation values on the image with a weight distribution according to the illumination direction;
A calculating means for calculating a white balance adjustment amount to be applied to the specific area by regarding the color of the extraction source area of the evaluation value showing a high value after weighting as the illumination color of the subject;
Equipped with a,
2. An image processing apparatus according to claim 1, wherein a selection criterion for the area for estimating the illumination direction differs depending on whether or not the subject in the specific area is a person .
前記推測手段は、
前記特定領域内の明部から暗部へ向かう明暗方向を前記照明方向とみなす
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The inference means is
An image processing apparatus characterized in that a bright and dark direction from a bright part to a dark part in the specific region is regarded as the illumination direction.
前記推測手段は、
前記照明方向に拘わらず、前記特定領域内の明部と暗部との明暗差が閾値未満の場合は、前記画像の手前から奥へ向かう順光方向を前記照明方向とみなす
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The inference means is
Regardless of the illumination direction, when the brightness difference between the bright part and the dark part in the specific area is less than a threshold value, the forward light direction from the front to the back of the image is regarded as the illumination direction. Processing equipment.
前記推測手段は、
前記特定領域内の明部と暗部との明暗差が閾値未満であったとしても、前記画像の撮影が逆光撮影であった場合は、前記画像の奥から手前へ向かう逆光方向を前記照明方向とみなす
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
The inference means is
Even if the brightness difference between the bright part and the dark part in the specific area is less than the threshold value, if the image is captured by backlighting, the backlight direction from the back to the front of the image is referred to as the illumination direction. An image processing apparatus characterized by being regarded.
前記重み付け手段は、
前記照明方向の下流側の重みよりも前記照明方向の上流側の重みを高く設定する
ことを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 4,
The weighting means is
An image processing apparatus, wherein a weight on the upstream side in the illumination direction is set higher than a weight on the downstream side in the illumination direction.
前記撮像手段が取得した画像の特定領域へ適用すべきホワイトバランス調整量を算出する、請求項1〜請求項5の何れか一項に記載の画像処理装置と、
を備えたことを特徴とする撮像装置。 Imaging means for acquiring a color photographed image;
The image processing apparatus according to any one of claims 1 to 5, wherein a white balance adjustment amount to be applied to a specific area of an image acquired by the imaging unit is calculated;
An imaging apparatus comprising:
前記画像上の複数の領域の各々から、その領域の色が光源色を示している可能性の高さを示す評価値を抽出する抽出手順と、
前記複数の領域の一部である特定領域に写っている被写体の照明方向を推測する推測手順と、
抽出された複数の前記評価値の前記画像上の分布を、前記照明方向に応じた重み分布で重み付けする重み付け手順と、
重み付け後に高い値を示した評価値の抽出元領域の色を前記被写体の照明色とみなして前記特定領域へ適用すべきホワイトバランス調整量を算出する算出手順と、
前記特定領域に写っている被写体が人物か否かに応じて、前記照明方向を推測する領域の選択基準を変える手順と、
をコンピュータに実行させることを特徴とする画像処理プログラム。 Input procedure to input color shot image,
From each of the plurality of regions on the image, an extraction procedure for extracting an evaluation value indicating a high possibility that the color of the region indicates a light source color;
A guessing procedure for guessing the illumination direction of a subject in a specific area that is a part of the plurality of areas;
A weighting procedure for weighting a distribution on the image of the plurality of extracted evaluation values with a weight distribution according to the illumination direction;
A calculation procedure for calculating a white balance adjustment amount to be applied to the specific region by regarding the color of the extraction source region of the evaluation value indicating a high value after weighting as the illumination color of the subject;
A procedure for changing a selection criterion of an area for estimating the illumination direction according to whether or not a subject in the specific area is a person,
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010218952A JP5732799B2 (en) | 2010-09-29 | 2010-09-29 | Image processing apparatus, imaging apparatus, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010218952A JP5732799B2 (en) | 2010-09-29 | 2010-09-29 | Image processing apparatus, imaging apparatus, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012074963A JP2012074963A (en) | 2012-04-12 |
JP5732799B2 true JP5732799B2 (en) | 2015-06-10 |
Family
ID=46170708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010218952A Expired - Fee Related JP5732799B2 (en) | 2010-09-29 | 2010-09-29 | Image processing apparatus, imaging apparatus, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5732799B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10055824B2 (en) | 2014-03-28 | 2018-08-21 | Nec Corporation | Image correction device, image correction method and storage medium |
JP6381404B2 (en) * | 2014-10-23 | 2018-08-29 | キヤノン株式会社 | Image processing apparatus and method, and imaging apparatus |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1669930A3 (en) * | 1998-05-20 | 2006-09-06 | Sega Enterprises, Ltd. | Image processing unit, game machine, image processing method, and recording medium |
US6417850B1 (en) * | 1999-01-27 | 2002-07-09 | Compaq Information Technologies Group, L.P. | Depth painting for 3-D rendering applications |
WO2003005303A2 (en) * | 2001-07-02 | 2003-01-16 | Matchlight Software, Inc. | System and method for discovering and categorizing attributes of a digital image |
JP2006148486A (en) * | 2004-11-18 | 2006-06-08 | Canon Inc | Imaging apparatus and white balance control value calculation method |
JP4284448B2 (en) * | 2005-01-28 | 2009-06-24 | 富士フイルム株式会社 | Image processing apparatus and method |
-
2010
- 2010-09-29 JP JP2010218952A patent/JP5732799B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012074963A (en) | 2012-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10397486B2 (en) | Image capture apparatus and method executed by image capture apparatus | |
JP5089405B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
CN106664364B (en) | Image processing apparatus, control method therefor, and image capturing apparatus | |
CN110022469B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
US9591231B2 (en) | Image processing apparatus capable of properly emphasizing differences in brightness between bright spots, image processing method, and storage medium | |
JP2007201979A (en) | Exposure control apparatus and imaging apparatus | |
JP6381404B2 (en) | Image processing apparatus and method, and imaging apparatus | |
KR20120071192A (en) | Digital photographing apparatus and control method thereof | |
JP5316070B2 (en) | Imaging device | |
JP2010072619A (en) | Exposure operation device and camera | |
JP2009065350A (en) | Image processor, image processing method, and storage medium | |
JP2021128791A (en) | Image processing apparatus, image processing method, and program | |
US11115637B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
US11037279B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP5732799B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP4979090B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2010050651A (en) | White balance controller and imaging device using the same, and white balance control method | |
JP5414216B2 (en) | Imaging apparatus, control method thereof, and program | |
US20210306572A1 (en) | Image processing apparatus, method of controlling the same, image capturing apparatus, and storage medium | |
JP5058903B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP4885079B2 (en) | Digital camera, photographing method and photographing program | |
JP5199908B2 (en) | Imaging apparatus and control method thereof | |
JP2007288245A (en) | Imaging apparatus, image processing method, and image processing program | |
US11265524B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US11842467B2 (en) | Image processing apparatus, image processing method and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5732799 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |