JP5169318B2 - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP5169318B2 JP5169318B2 JP2008053678A JP2008053678A JP5169318B2 JP 5169318 B2 JP5169318 B2 JP 5169318B2 JP 2008053678 A JP2008053678 A JP 2008053678A JP 2008053678 A JP2008053678 A JP 2008053678A JP 5169318 B2 JP5169318 B2 JP 5169318B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- signal
- correction coefficient
- white balance
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Color Television Image Signal Generators (AREA)
- Processing Of Color Television Signals (AREA)
- Exposure Control For Cameras (AREA)
- Stroboscope Apparatuses (AREA)
Description
本発明は、ストロボホワイトバランス制御を行う技術を備える撮像装置及び撮像方法、並びにコンピュータ読み取り可能な記録媒体に関するものである。 The present invention relates to an imaging apparatus and an imaging method including a technique for performing strobe white balance control, and a computer-readable recording medium.
従来、ストロボを発光させて撮影した画像に対して、本来は白いものであろう被写体に対して白くなるようなホワイトバランスを画面全体にかけるといったものが広く用いられているが、カメラから近い距離に位置するエリアにおいてはストロボ光の影響を強く受け、またカメラから遠い距離に位置するエリアにおいてはストロボ光の影響が少なく外光の影響を強く受ける。そのため、ストロボ光に合わせたホワイトバランスゲインを画面全体にかけた場合、外光の影響が強いエリアに対しては最適なホワイトバランスをかけることができない。また、逆に外光に合わせたホワイトバランスゲインを画面全体にかけた場合、ストロボ光の影響が強いエリアに対しては最適なホワイトバランスをかけることができない。従って、両方のエリアが存在するシーンにおいては画面全体に最適なホワイトバランスをかけることが難しいといった問題がある。 Conventionally, for images taken with a flash, a white balance that applies white to the subject, which is supposed to be white, is applied to the entire screen. The area located at is strongly affected by strobe light, and the area located far from the camera is less affected by strobe light and strongly influenced by outside light. For this reason, when the white balance gain matched to the strobe light is applied to the entire screen, it is not possible to apply the optimum white balance to an area where the influence of external light is strong. Conversely, when a white balance gain that matches external light is applied to the entire screen, an optimal white balance cannot be applied to an area that is strongly affected by strobe light. Therefore, in a scene where both areas exist, there is a problem that it is difficult to apply an optimal white balance to the entire screen.
上記問題を解決するため、ストロボを発光させた画像と発光させない画像とで比較し領域分割を行い、領域毎にホワイトバランスを掛けることで画面全体に対して色ずれ生じさせないものがある。(例えば特許文献1) In order to solve the above-described problem, there is a technique that does not cause a color shift with respect to the entire screen by performing area division by comparing an image in which a strobe light is emitted and an image in which light is not emitted, and applying white balance for each area. (For example, Patent Document 1)
上述の従来の技術によれば、ブロック毎にホワイトバランスゲインを設定しているためブロックの境界で不自然な色ずれが発生し、また、ストロボ発光ありとなしの撮影画像を必要とするため、2枚の撮像画像を格納するためのメモリが必要になるといった問題、および撮影に要する処理時間が増えるといった問題がある。
本発明は上記のような実情に鑑みてなされたもので、ストロボ撮影において画面全体に色ずれを生じさせない良好なホワイトバランス補正を、通常の一枚撮影と同程度の処理時間で、且つ、少ないメモリで実行可能な撮像装置及び撮像方法、並びにコンピュータ読み取り可能な記録媒体を提供することを目的とする。
According to the above-described conventional technology, since the white balance gain is set for each block, an unnatural color shift occurs at the boundary between the blocks, and a photographed image with and without strobe light emission is required. There is a problem that a memory for storing two captured images is required, and a processing time required for photographing increases.
The present invention has been made in view of the above-described circumstances, and good white balance correction that does not cause color misregistration on the entire screen in strobe shooting is performed in a processing time comparable to that of normal single-shooting and is small. An object is to provide an imaging apparatus and an imaging method that can be executed in a memory, and a computer-readable recording medium.
本発明者らは上記課題を解決するために鋭意検討を重ねた結果、少なくとも、本発明に係る撮像装置及び撮像方法、並びにコンピュータ読み取り可能な記録媒体は、具体的には下記(1)〜(9)に記載の技術的特徴を有することで上記課題が解決されることを見出し、本発明を完成するに至った。 As a result of intensive studies in order to solve the above problems, the inventors of the present invention have specifically described at least the imaging apparatus and imaging method and computer-readable recording medium according to the present invention as described in (1) to ( 1) below. It has been found that the above-mentioned problems can be solved by having the technical features described in 9) , and the present invention has been completed.
(1):光学系から入射した光を電気信号に変換して撮像信号として出力する撮像素子と、前記撮像信号をメモリに格納する撮像手段と、前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得手段と、を備える撮像装置において、前記撮像手段は、ストロボ発光なしの撮像信号を第1の撮像信号として前記メモリに格納する第1撮像機能と、ストロボ発光ありの撮像信号を第2の撮像信号として前記メモリに格納する第2撮像機能と、を有し、前記第1の撮像信号及び前記第2の撮影信号を複数のブロックに分割するブロック分割手段と、当該分割されたブロック毎に輝度信号を積算して輝度積算結果を算出する輝度信号積算手段と、前記第1の撮像信号のブロックの輝度積算結果と、前記第2の撮像信号のブロックの輝度積算結果と、において、同一の位置のブロック同士で夫々演算して算出した算出値と、予め決められた基準値と、を比較して領域を分割する領域分割手段と、当該分割された領域毎の前記ホワイトバランス評価値に基づいて領域毎のホワイトバランス用の補正係数を算出する補正係数算出手段と、当該分割された領域毎にホワイトバランス用の補正係数を設定するホワイトバランス演算手段と、を備え、前記第1の撮像信号と、前記第2の撮像信号とで露光量が同じになるような露出補正係数を、第1撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置、画素加算分と、第2撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置と、から算出して、前記第1の撮像信号のブロック毎の輝度積算結果及び/または前記第2の撮像信号のブロック毎の輝度積算結果に設定する露出補正係数算出手段を有することを特徴とする撮像装置である。 (1): an imaging element that converts light incident from the optical system into an electrical signal and outputs the electrical signal, an imaging unit that stores the imaging signal in a memory, and a white that extracts a white balance evaluation value from the imaging signal In the imaging apparatus including a balance evaluation value acquisition unit, the imaging unit stores a first imaging function for storing an imaging signal without strobe light emission in the memory as a first imaging signal, and a first imaging signal with strobe light emission. A second imaging function for storing the first imaging signal and the second imaging signal into a plurality of blocks, and a divided block. Luminance signal integration means for integrating the luminance signal every time to calculate the luminance integration result, the luminance integration result of the block of the first imaging signal, and the block of the second imaging signal In the luminance integration result of the image, an area dividing unit that divides the area by comparing a calculated value calculated by calculating each block at the same position with a predetermined reference value, and the division Correction coefficient calculation means for calculating a correction coefficient for white balance for each area based on the white balance evaluation value for each area, and white balance calculation means for setting a correction coefficient for white balance for each of the divided areas And an exposure correction coefficient such that an exposure amount is the same between the first imaging signal and the second imaging signal, and a shutter speed, an aperture value, and an AGC of the first imaging function at the time of imaging. Calculate from the gain value, ND filter position, pixel addition, shutter speed, aperture value, AGC gain value, and ND filter position at the time of imaging by the second imaging function, An imaging apparatus characterized by having the exposure compensation coefficient calculating means for setting the serial luminance accumulation result for each block of the first image pickup signal and / or the luminance accumulation result for each block of the second image pickup signal.
(2):前記ホワイトバランス評価値と、予め設定してある白検出範囲と、を基に白検出を行う白検出手段を備え、前記補正係数算出手段は、前記白検出手段によって検出された白検出結果と、当該分割された領域毎の前記ホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする上記(1)に記載の撮像装置である。 (2): a white detection unit that performs white detection based on the white balance evaluation value and a preset white detection range; and the correction coefficient calculation unit includes a white detection unit that detects white detected by the white detection unit. The imaging apparatus according to (1), wherein a correction coefficient for white balance for each region is calculated based on a detection result and the white balance evaluation value for each of the divided regions.
(3):前記露出補正係数算出手段は、前記第1の撮像信号のブロック及び/または前記第2の撮像信号のブロックのうち、輝度信号が所定の値以下のブロックは、当該ブロックにおいて算出された露出補正係数に対して重み付けを行うことを特徴とする上記(1)または(2)に記載の撮像装置である。 (3) : The exposure correction coefficient calculation means calculates a block whose luminance signal is a predetermined value or less among the block of the first imaging signal and / or the block of the second imaging signal. The imaging apparatus according to (1) or (2) , wherein the exposure correction coefficient is weighted.
(4):光学系から入射した光を撮像素子で電気信号に変換して撮像信号として出力する光電変換工程と、前記撮像信号をメモリに格納する撮像工程と、前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得工程と、を備える撮像方法において、前記撮像工程は、ストロボ発光なしの撮像信号を第1の撮像信号として前記メモリに格納する第1撮像工程と、ストロボ発光ありの撮像信号を第2の撮像信号として前記メモリに格納する第2撮像工程と、を有し、前記第1の撮像信号及び前記第2の撮影信号を複数のブロックに分割するブロック分割工程と、当該分割されたブロック毎に輝度信号を積算して輝度積算結果を算出する輝度信号積算工程と、前記第1の撮像信号のブロックの輝度積算結果と、前記第2の撮像信号のブロックの輝度積算結果と、において、同一の位置のブロック同士で夫々演算して算出した算出値と、予め決められた基準値と、を比較して領域を分割する領域分割工程と、当該分割された領域毎の前記ホワイトバランス評価値に基づいて領域毎のホワイトバランス用の補正係数を算出する補正係数算出工程と、当該分割された領域毎にホワイトバランス用の補正係数を設定するホワイトバランス演算工程と、を備え、前記第1の撮像信号と、前記第2の撮像信号とで露光量が同じになるような露出補正係数を、第1撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置、画素加算分と、第2撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置と、から算出して、前記第1の撮像信号のブロック毎の輝度積算結果及び/または前記第2の撮像信号のブロック毎の輝度積算結果に設定する露出補正係数算出工程を有することを特徴とする撮像方法である。 (4) : a photoelectric conversion step of converting light incident from the optical system into an electric signal by an image pickup device and outputting it as an image pickup signal, an image pickup step of storing the image pickup signal in a memory, and a white balance evaluation value from the image pickup signal A white balance evaluation value acquisition step of extracting the image, wherein the imaging step includes a first imaging step of storing an imaging signal without strobe emission in the memory as a first imaging signal, and a strobe emission A second imaging step of storing the imaging signal as a second imaging signal in the memory, and a block dividing step of dividing the first imaging signal and the second imaging signal into a plurality of blocks, A luminance signal integration step of calculating a luminance integration result by integrating luminance signals for each of the divided blocks, a luminance integration result of the block of the first imaging signal, and the second In the luminance integration result of the blocks of the imaging signal, an area dividing step of dividing the area by comparing the calculated value calculated by calculating each block between the same position and a predetermined reference value, A correction coefficient calculation step of calculating a correction coefficient for white balance for each area based on the white balance evaluation value for each of the divided areas, and white for setting a correction coefficient for white balance for each of the divided areas A balance calculation step, and an exposure correction coefficient such that an exposure amount is the same between the first imaging signal and the second imaging signal, and a shutter speed and an aperture value at the time of imaging by the first imaging function. , AGC gain value, ND filter position, pixel addition, shutter speed, aperture value, AGC gain value, ND filter position at the time of imaging by the second imaging function, And al calculation, imaging and having an exposure correction coefficient calculation step of setting a luminance accumulation result for each block of the first luminance accumulation result for each block of the image signal and / or the second image pickup signal Is the method.
(5):前記ホワイトバランス評価値と、予め設定してある白検出範囲と、を基に白検出を行う白検出工程を備え、前記補正係数算出手段は、前記白検出手段によって検出された白検出結果と、当該分割された領域毎の前記ホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする上記(4)に記載の撮像方法である。 (5) : a white detection step of performing white detection based on the white balance evaluation value and a preset white detection range, wherein the correction coefficient calculation means detects the white detected by the white detection means a detection result, an imaging method according to the item (4), and calculates a correction coefficient for white balance for each region based on said white balance evaluation value of the divided each region.
(6):前記露出補正係数算出工程は、前記第1の撮像信号のブロック及び/または前記第2の撮像信号のブロックのうち、輝度信号が所定の値以下のブロックは、当該ブロックにおいて算出された露出補正係数に対して重み付けを行うことを特徴とする上記(4)または(5)に記載の撮像方法である。 (6) : In the exposure correction coefficient calculation step, a block whose luminance signal is a predetermined value or less is calculated in the block of the first imaging signal block and / or the second imaging signal block. The imaging method according to (4) or (5) , wherein the exposure correction coefficient is weighted.
(7):画像処理機能を有する装置が備えるコンピュータに、光学系から入射した光を撮像素子で電気信号に変換して撮像信号として出力する光電変換処理と、前記撮像信号をメモリに格納する撮像処理と、前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得処理と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、前記撮像処理は、ストロボ発光なしの撮像信号を第1の撮像信号として前記メモリに格納する第1撮像処理と、ストロボ発光ありの撮像信号を第2の撮像信号として前記メモリに格納する第2撮像処理と、を有し、前記第1の撮像信号及び前記第2の撮影信号を複数のブロックに分割するブロック分割処理と、当該分割されたブロック毎に輝度信号を積算して輝度積算結果を算出する輝度信号積算処理と、前記第1の撮像信号のブロックの輝度積算結果と、前記第2の撮像信号のブロックの輝度積算結果と、において、同一の位置のブロック同士で夫々演算して算出した算出値と、予め決められた基準値と、を比較して領域を分割する領域分割処理と、当該分割された領域毎の前記ホワイトバランス評価値に基づいて領域毎のホワイトバランス用の補正係数を算出する補正係数算出処理と、当該分割された領域毎にホワイトバランス用の補正係数を設定するホワイトバランス演算処理と、を備え、前記第1の撮像信号と、前記第2の撮像信号とで露光量が同じになるような露出補正係数を、第1撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置、画素加算分と、第2撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置と、から算出して、前記第1の撮像信号のブロック毎の輝度積算結果及び/または前記第2の撮像信号のブロック毎の輝度積算結果に設定する露出補正係数算出処理を備えることを特徴とするホワイトバランス演算処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。 (7) : Photoelectric conversion processing in which light incident from an optical system is converted into an electrical signal by an imaging device and output as an imaging signal in a computer included in an apparatus having an image processing function, and imaging in which the imaging signal is stored in a memory And a white balance evaluation value acquisition process for extracting a white balance evaluation value from the imaging signal, and a computer-readable recording medium storing a program for executing the processing, wherein the imaging process is performed without flash emission. A first imaging process for storing an imaging signal as a first imaging signal in the memory; and a second imaging process for storing an imaging signal with strobe light emission as a second imaging signal in the memory; A block division process for dividing one image pickup signal and the second image pickup signal into a plurality of blocks, and a luminance signal for each divided block. The luminance signal integration processing for calculating the luminance integration result by calculating, the luminance integration result of the block of the first imaging signal, and the luminance integration result of the block of the second imaging signal A region division process for dividing the region by comparing a calculated value calculated by calculating each other with a predetermined reference value, and for each region based on the white balance evaluation value for each of the divided regions A correction coefficient calculation process for calculating a white balance correction coefficient and a white balance calculation process for setting a white balance correction coefficient for each of the divided areas , the first imaging signal, The exposure correction coefficient is set so that the exposure amount is the same as that of the second imaging signal, and the shutter speed, aperture value, AGC gain value, ND filter position, image at the time of imaging by the first imaging function. Calculated from the added amount and the shutter speed, aperture value, AGC gain value, and ND filter position at the time of imaging by the second imaging function, and the luminance integration result for each block of the first imaging signal and / or the above A computer-readable recording medium storing a program for executing a white balance calculation process, characterized in that it comprises an exposure correction coefficient calculation process for setting a luminance integration result for each block of a second imaging signal .
(8):前記ホワイトバランス評価値と、予め設定してある白検出範囲と、を基に白検出を行う白検出処理を備え、前記補正係数算出処理は、前記白検出処理によって検出された白検出結果と、当該分割された領域毎の前記ホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする上記(7)に記載のホワイトバランス演算処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 (8) : a white detection process for performing white detection based on the white balance evaluation value and a preset white detection range, wherein the correction coefficient calculation process includes the white detection process detected by the white detection process; The white balance calculation processing according to (7) is executed, wherein a correction coefficient for white balance for each region is calculated based on the detection result and the white balance evaluation value for each of the divided regions. A computer-readable recording medium on which a program for causing the program to be recorded is recorded.
(9):前記露出補正係数算出処理は、前記第1の撮像信号のブロック及び/または前記第2の撮像信号のブロックのうち、輝度信号が所定の値以下のブロックは、当該ブロックにおいて算出された露出補正係数に対して重み付けを行うことを特徴とする上記(7)または(8)に記載のホワイトバランス演算処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。 (9) : In the exposure correction coefficient calculation process, a block whose luminance signal is a predetermined value or less is calculated in the block of the first imaging signal block and / or the second imaging signal block. A computer-readable recording medium storing a program for executing the white balance calculation process according to (7) or (8) , wherein the exposure correction coefficient is weighted.
本発明によれば、ストロボ撮影において画面全体に色ずれを生じさせない良好なホワイトバランス補正を、通常の一枚撮影と同程度の処理時間で実行可能な撮像装置及び撮像方法、並びにコンピュータ読み取り可能な記録媒体を提供することができる。 According to the present invention, an imaging device and an imaging method capable of executing a good white balance correction that does not cause a color shift on the entire screen in strobe shooting in a processing time comparable to that of normal single-frame shooting, and computer-readable A recording medium can be provided.
本発明の撮像装置は、光学系から入射した光を電気信号に変換して撮像信号として出力する撮像素子と、前記撮像信号をメモリに格納する撮像手段と、前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得手段と、を備える撮像装置において、前記撮像手段は、ストロボ発光なしの撮像信号を第1の撮像信号として前記メモリに格納する第1撮像機能と、ストロボ発光ありの撮像信号を第2の撮像信号として前記メモリに格納する第2撮像機能と、を有し、前記第1の撮像信号及び前記第2の撮影信号を複数のブロックに分割するブロック分割手段と、当該分割されたブロック毎に輝度信号を積算して輝度積算結果を算出する輝度信号積算手段と、前記第1の撮像信号のブロックの輝度積算結果と、前記第2の撮像信号のブロックの輝度積算結果と、において、同一の位置のブロック同士で夫々演算して算出した算出値と、予め決められた基準値と、を比較して領域を分割する領域分割手段と、当該分割された領域毎の前記ホワイトバランス評価値に基づいて領域毎のホワイトバランス用の補正係数を算出する補正係数算出手段と、当該分割された領域毎にホワイトバランス用の補正係数を設定するホワイトバランス演算手段と、を備えることを特徴とする。 An imaging apparatus according to the present invention includes an imaging element that converts light incident from an optical system into an electrical signal and outputs the electrical signal, an imaging unit that stores the imaging signal in a memory, and a white balance evaluation value from the imaging signal. An image pickup apparatus comprising: a white balance evaluation value acquisition unit that extracts a first image pickup function that stores an image pickup signal without strobe light emission in the memory as a first image pickup signal; and image pickup with strobe light emission. A second imaging function for storing a signal in the memory as a second imaging signal, and a block dividing unit that divides the first imaging signal and the second imaging signal into a plurality of blocks, and the division Luminance signal integration means for calculating the luminance integration result by integrating the luminance signal for each of the blocks, the luminance integration result of the block of the first imaging signal, and the second imaging In the luminance integration result of the block of the signal, an area dividing unit that divides the area by comparing a calculated value calculated by calculating each of the blocks at the same position with a predetermined reference value, and Correction coefficient calculation means for calculating a correction coefficient for white balance for each area based on the white balance evaluation value for each divided area, and white balance for setting a correction coefficient for white balance for each of the divided areas And an arithmetic means.
次に図面を用いて本発明に係る撮像装置の基本的な構成についてさらに詳細に説明する。
尚、以下に述べる実施の形態は本発明の好適な実施の形態であるから、技術的に好ましい種々の限定が付されているが、本発明の範囲は以下の説明において特に本発明を限定する旨の記載がない限りこれらの態様に限られるものではない。ただし、以下に示す実施の形態のうち、第1の実施の形態以外は本発明の範囲に属しない参考例に相当する例である。
Next, the basic configuration of the imaging apparatus according to the present invention will be described in more detail with reference to the drawings.
The embodiments described below are preferred embodiments of the present invention, and thus various technically preferable limitations are given. However, the scope of the present invention particularly limits the present invention in the following description. Unless otherwise stated, the present invention is not limited to these embodiments. However, among the embodiments described below, examples other than the first embodiment are examples corresponding to reference examples not belonging to the scope of the present invention.
〔第1の実施の形態〕
(デジタルカメラの外観構成)
図1は本発明に係る撮像装置の第1の実施の形態であるデジタルカメラの外観を示す概略図である。
図1に示すように、本実施の形態に係るデジタルカメラの上面側には、レリーズボタン(シャッタボタン)、電源ボタン、撮影・再生切替ダイアルが設けられており、デジタルカメラの正面(前面)側には、撮影レンズ系を有する鏡胴ユニット、ストロボ発光部、光学ファインダが設けられている。
[First Embodiment]
(Appearance structure of digital camera)
FIG. 1 is a schematic diagram showing an external appearance of a digital camera which is a first embodiment of an imaging apparatus according to the present invention.
As shown in FIG. 1, a release button (shutter button), a power button, and a shooting / playback switching dial are provided on the upper surface side of the digital camera according to the present embodiment, and the front (front) side of the digital camera. Includes a lens barrel unit having a photographing lens system, a strobe light emitting unit, and an optical viewfinder.
デジタルカメラの背面側には、液晶モニタ(LCD)、前記光学ファインダの接眼レンズ部、広角側ズーム(W)スイッチ、望遠側ズーム(T)スイッチ、メニュー(MENU)ボタン、確定ボタン(OKボタン)等が設けられている。また、デジタルカメラの側面内部には、撮影した画像データを保存するためのメモリカードを収納するメモリカード収納部が設けられている。 On the back side of the digital camera is a liquid crystal monitor (LCD), the eyepiece of the optical viewfinder, wide-angle zoom (W) switch, telephoto zoom (T) switch, menu (MENU) button, and enter button (OK button) Etc. are provided. In addition, a memory card storage unit for storing a memory card for storing captured image data is provided inside the side surface of the digital camera.
(デジタルカメラのシステム構成)
図2は、本発明に係る撮像装置の第1の実施の形態であるデジタルカメラの構成を示すブロック図である。
図2に示すように、このデジタルカメラ内には、鏡胴ユニットに設置した撮影レンズ系(光学系)を通して入射される被写体画像が受光面上に結像する固体撮像素子としてのCCD、CCDから出力される電気信号(アナログRGB画像信号)をデジタル信号(撮像信号)に処理するアナログフロントエンド部(AFE部)、AFE部から出力されるデジタル信号を処理する信号処理部、データを一時的に格納するSDRAM(メモリ)、制御プログラム等が記憶されたROM、モータドライバ等が設けられている。
(Digital camera system configuration)
FIG. 2 is a block diagram showing a configuration of a digital camera which is the first embodiment of the imaging apparatus according to the present invention.
As shown in FIG. 2, in this digital camera, a CCD, a CCD as a solid-state imaging device, on which a subject image incident through a photographing lens system (optical system) installed in a lens barrel unit is formed on a light receiving surface. An analog front end unit (AFE unit) that processes electrical signals (analog RGB image signals) that are output into digital signals (imaging signals), a signal processing unit that processes digital signals output from the AFE unit, and data temporarily An SDRAM (memory) to be stored, a ROM storing a control program, a motor driver, and the like are provided.
鏡胴ユニットは、ズームレンズやフォーカスレンズ等を有する撮影レンズ系、絞りユニット、メカシャッタユニットを備えており、撮影レンズ系、絞りユニット、メカシャッタユニットの各駆動ユニット(不図示)は、モータドライバによって駆動される。モータドライバは、信号処理部の制御部(CPU)からの駆動信号により駆動制御される。 The lens barrel unit includes a photographic lens system having a zoom lens, a focus lens, and the like, an aperture unit, and a mechanical shutter unit. Each drive unit (not shown) of the photographic lens system, the aperture unit, and the mechanical shutter unit is a motor driver. Driven by. The motor driver is driven and controlled by a drive signal from a control unit (CPU) of the signal processing unit.
CCDは、CCDを構成する複数の画素上に色分解フィルタとしてのRGB原色フィルタが配置されており、RGB3原色に対応した電気信号(アナログRGB画像信号)が出力される。 In the CCD, RGB primary color filters as color separation filters are arranged on a plurality of pixels constituting the CCD, and electrical signals (analog RGB image signals) corresponding to the three primary colors of RGB are output.
AFE部は、CCDを駆動するTG(タイミング信号発生部)、CCDから出力される電気信号(アナログRGB画像信号)をサンプリングするCDS(相関2重サンプリング部)、CDSにてサンプリングされた画像信号のゲインを調整するAGC(アナログ利得制御部)、AGCでゲイン調整された画像信号をデジタル信号(RAW−RGBデータ)に変換するA/Dを備えている。 The AFE unit includes a TG (timing signal generation unit) that drives the CCD, a CDS (correlated double sampling unit) that samples an electrical signal (analog RGB image signal) output from the CCD, and an image signal sampled by the CDS. An AGC (analog gain control unit) that adjusts the gain and an A / D that converts the image signal gain-adjusted by the AGC into a digital signal (RAW-RGB data) are provided.
信号処理部は、AFE部のTGへ画面水平同期信号(HD)と画面垂直同期信号(VD)の出力を行い、これらの同期信号に合わせて、AFE部のA/Dから出力されるRAW−RGBデータを取り込むCCDインターフェース(CCDI/F)と、SDRAMを制御するメモリコントローラと、取り込んだRAW−RGBデータを表示や記録が可能なYUV形式の画像データに変換するYUV変換部と、表示や記録される画像データのサイズに合わせて画像サイズを変更するリサイズ処理部と、画像データの表示出力を制御する表示出力制御部と、画像データをJPEG形成などで記録するためのデータ圧縮部と、画像データをメモリカードへ書き込み、又はメモリカードに書き込まれた画像データを読み出すメディアインターフェース(メディアI/F)と、操作部からの操作入力情報に基づき、ROMに記憶された制御プログラムに基づいてデジタルカメラ全体のシステム制御等を行う制御部(CPU)を備えている。
尚、CCDI/Fの一部は、本発明における撮像手段として機能する。
The signal processing unit outputs a screen horizontal synchronizing signal (HD) and a screen vertical synchronizing signal (VD) to the TG of the AFE unit, and the RAW− output from the A / D of the AFE unit according to these synchronizing signals. A CCD interface (CCD I / F) that captures RGB data, a memory controller that controls the SDRAM, a YUV converter that converts the captured RAW-RGB data into YUV format image data that can be displayed and recorded, and display and recording A resizing processing unit that changes the image size according to the size of the image data to be displayed, a display output control unit that controls display output of the image data, a data compression unit for recording image data by JPEG formation, and the like Media interface that writes data to a memory card or reads image data written to a memory card ( And Deer I / F), based on the operation input information from the operation unit, and a control section for entire digital camera system control or the like based on the control program stored in a ROM (CPU).
A part of the CCD I / F functions as an image pickup means in the present invention.
操作部は、デジタルカメラ(図1参照)の外観表面に設けられているレリーズボタン、電源ボタン、撮影・再生切替ダイアル、広角側ズームスイッチ、望遠側ズームスイッチ、メニューボタン、確定ボタン等であり、撮影者の操作によって所定の動作指示信号が制御部に入力される。 The operation unit includes a release button, a power button, a shooting / playback switching dial, a wide-angle zoom switch, a telephoto zoom switch, a menu button, a confirmation button, and the like provided on the external surface of the digital camera (see FIG. 1). A predetermined operation instruction signal is input to the control unit by a photographer's operation.
SDRAMには、CCDI/Fに取り込まれたRAW−RGBデータが保存されると共に、YUV変換部で変換処理されたYUVデータ(YUV形式の画像データ)が保存され、更に、データ圧縮部で圧縮処理されたJPEG形成などの画像データが保存される。 In the SDRAM, the RAW-RGB data captured by the CCD I / F is stored, and YUV data (YUV format image data) converted by the YUV conversion unit is stored, and further compressed by the data compression unit. The image data such as JPEG formation is stored.
なお、前記YUVデータのYUVは、輝度データ(Y)と、色差(輝度データと青色(B)成分データの差分(U)と、輝度データと赤色(R)成分データの差分(V))の情報で色を表現する形式である。 Note that YUV of the YUV data is luminance data (Y), color difference (difference (U) between luminance data and blue (B) component data, and difference (V) between luminance data and red (R) component data). It is a format that expresses color with information.
(デジタルカメラのモニタリング動作、静止画撮影動作)
次に、前記したデジタルカメラのモニタリング動作と静止画撮影動作について説明する。このデジタルカメラは、静止画撮影モード時には、以下に説明するようなモニタリング動作を実行しながら静止画撮影動作が行われる。
(Digital camera monitoring and still image shooting)
Next, the monitoring operation and still image shooting operation of the digital camera will be described. This digital camera performs a still image shooting operation while performing a monitoring operation as described below in the still image shooting mode.
先ず、撮影者が電源ボタンをONし、撮影・再生切替ダイアルを撮影モード(静止画撮影モード)に設定することで、デジタルカメラが記録モードで起動する。電源ボタンがONされて、撮影・再生切替ダイアルが撮影モードに設定されたことを制御部が検知すると、制御部はモータドライバに制御信号を出力して、鏡胴ユニットを撮影可能位置に移動させ、かつ、CCD、AFE部、信号処理部、SDRAM、ROM、液晶モニタ等を起動させる。 First, when the photographer turns on the power button and sets the photographing / playback switching dial to the photographing mode (still image photographing mode), the digital camera is activated in the recording mode. When the control unit detects that the power button is turned on and the shooting / playback switching dial is set to the shooting mode, the control unit outputs a control signal to the motor driver, and moves the lens barrel unit to the shooting enabled position. In addition, the CCD, the AFE unit, the signal processing unit, the SDRAM, the ROM, the liquid crystal monitor, and the like are activated.
そして、鏡胴ユニットの撮影レンズ系を被写体に向けることにより、撮影レンズ系を通して入射される被写体画像がCCDの各画素の受光面上に結像する。そして、CCDから出力される被写体画像に応じた電気信号(アナログRGB画像信号)は、CDS、AGCを介してA/Dに入力され、A/Dにより12ビット(bit)のRAW−RGBデータに変換する。 Then, by directing the photographic lens system of the lens barrel unit toward the subject, a subject image incident through the photographic lens system is formed on the light receiving surface of each pixel of the CCD. An electrical signal (analog RGB image signal) corresponding to the subject image output from the CCD is input to the A / D via the CDS and AGC, and converted into 12-bit (RAW) RGB data by the A / D. Convert.
このRAW−RGBデータ(第1の撮像信号)は、信号処理部のCCDI/Fに取り込まれて(第1撮像機能)メモリコントローラを介してSDRAMに保存される。そして、SDRAMから読み出されたRAW−RGBデータは、YUV変換部に入力されて表示可能な形式であるYUVデータ(YUV信号)に変換された後に、メモリコントローラを介してSDRAMにYUVデータが保存される。 This RAW-RGB data (first image pickup signal) is taken into the CCD I / F of the signal processing unit (first image pickup function) and stored in the SDRAM via the memory controller. The RAW-RGB data read from the SDRAM is input to the YUV converter and converted into YUV data (YUV signal) that can be displayed, and then the YUV data is stored in the SDRAM via the memory controller. Is done.
そして、SDRAMからメモリコントローラを介して読み出したYUVデータは、表示出力制御部を介して液晶モニタ(LCD)へ送られ、撮影画像(動画)が表示される。前記した液晶モニタ(LCD)に撮影画像を表示しているモニタリング時においては、CCDI/Fによる画素数の間引き処理により1/30秒の時間で1フレームを読み出している。 The YUV data read from the SDRAM via the memory controller is sent to the liquid crystal monitor (LCD) via the display output control unit, and a captured image (moving image) is displayed. At the time of monitoring in which a photographed image is displayed on the above-described liquid crystal monitor (LCD), one frame is read out in a time of 1/30 second by thinning out the number of pixels by the CCD I / F.
なお、このモニタリング動作時は、電子ファインダとして機能する液晶モニタ(LCD)に撮影画像(動画)が表示されているだけで、まだレリーズボタンが押圧(半押も含む)操作されていない状態である。 In this monitoring operation, the photographed image (moving image) is only displayed on the liquid crystal monitor (LCD) functioning as an electronic viewfinder, and the release button is not yet pressed (including half-pressed). .
この撮影画像の液晶モニタ(LCD)への表示によって、静止画を撮影するための構図の確認等をすることができる。なお、表示出力制御部からTVビデオ信号として出力して、ビデオケーブルを介して外部のTV(テレビ)に撮影画像(動画)を表示することもできる。 By displaying the photographed image on a liquid crystal monitor (LCD), the composition for photographing a still image can be confirmed. In addition, it can output as a TV video signal from a display output control part, and a picked-up image (moving image) can also be displayed on external TV (television) via a video cable.
そして、信号処理部のCCDI/Fは、取り込まれたRAW−RGBデータより、AF(自動合焦)評価値、AE(自動露出)評価値、AWB(オートホワイトバランス)評価値を算出する。
尚、本発明において、ホワイトバランス評価値とは、AWB評価値であり、輝度積算結果とはAE評価値であって、ホワイトバランス評価値取得手段と輝度信号積算手段とは、それぞれ信号処理部のCCDI/Fの一部である。
Then, the CCD I / F of the signal processing unit calculates an AF (automatic focus) evaluation value, an AE (automatic exposure) evaluation value, and an AWB (auto white balance) evaluation value from the captured RAW-RGB data.
In the present invention, the white balance evaluation value is an AWB evaluation value, the luminance integration result is an AE evaluation value, and each of the white balance evaluation value acquisition unit and the luminance signal integration unit is a signal processing unit. Part of the CCD I / F.
AF評価値は、例えば高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によって算出される。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AF動作時(合焦検出動作時)には、撮影レンズ系内の各フォーカスレンズ位置におけるAF評価値を取得して、その極大になる点を合焦検出位置としてAF動作が実行される。 The AF evaluation value is calculated by, for example, the output integrated value of the high frequency component extraction filter or the integrated value of the luminance difference between adjacent pixels. When in the in-focus state, the edge portion of the subject is clear, so the high frequency component is the highest. By using this, at the time of AF operation (focus detection operation), AF evaluation values at each focus lens position in the photographing lens system are acquired, and AF operation is performed with the maximum point as the focus detection position. Is executed.
AE評価値とAWB評価値は、RAW−RGBデータにおけるRGB値のそれぞれの積分値から算出される。例えば、ブロック分割手段である信号処理部のCCDI/Fの一部である検波回路によってCCDの全画素の受光面に対応した画面を256エリア(ブロック)に等分割(水平16分割、垂直16分割)された後、それぞれのエリア(ブロック)のRGB積算値がCCDI/Fによって算出される。 The AE evaluation value and the AWB evaluation value are calculated from the integrated values of the RGB values in the RAW-RGB data. For example, a screen corresponding to the light receiving surface of all the pixels of the CCD is equally divided into 256 areas (blocks) (horizontal 16 divisions, vertical 16 divisions) by a detection circuit which is a part of the CCD I / F of the signal processing unit which is a block division means. ), The RGB integrated value of each area (block) is calculated by the CCD I / F.
そして制御部は、算出されたRGB積算値を読み出し、AE処理では、画面のそれぞれのエリア(ブロック)の輝度を算出して、輝度分布から適正な露光量を決定する。決定した露光量に基づいて、露光条件(CCDの電子シャッタ回数、絞りユニットの絞り値、NDフィルタの出し入れ等)を設定する。また、AWB処理では、RGBの分布から被写体の光源の色に合わせたAWBの制御値を決定する。このAWB処理により、YUV変換部でYUVデータに変換処理するときのホワイトバランスを合わせる。なお、前記したAE処理とAWB処理は、前記モニタリング時には連続的に行われている。 Then, the control unit reads the calculated RGB integrated value, and in the AE process, calculates the luminance of each area (block) of the screen and determines an appropriate exposure amount from the luminance distribution. Based on the determined exposure amount, exposure conditions (the number of electronic shutters of the CCD, the aperture value of the aperture unit, the insertion and removal of the ND filter, etc.) are set. In the AWB process, an AWB control value that matches the color of the light source of the subject is determined from the RGB distribution. By this AWB process, white balance is adjusted when the YUV conversion unit performs conversion processing to YUV data. The AE process and AWB process described above are continuously performed during the monitoring.
そして、前記したモニタリング動作時に、レリーズボタンが押圧(半押しから全押し)操作される静止画撮影動作が開始されると、合焦位置検出動作であるAF動作と静止画記録処理が行われる。 When a still image shooting operation in which the release button is pressed (half-pressed to fully pressed) is started during the monitoring operation described above, an AF operation that is a focus position detection operation and a still image recording process are performed.
即ち、レリーズボタンが押圧(半押しから全押し)操作されると、制御部からモータドライバへの駆動指令により撮影レンズ系のフォーカスレンズが移動し、例えば、いわゆる山登りAFと称されるコントラスト評価方式のAF動作が実行される。 That is, when the release button is pressed (half-pressed to fully pressed), the focus lens of the photographic lens system is moved by a drive command from the control unit to the motor driver. For example, a contrast evaluation method called so-called hill-climbing AF AF operation is executed.
いわゆる山登りAFとは、AF(合焦)対象範囲が無限から至近までの全領域であった場合、撮影レンズ系のフォーカスレンズは、至近から無限、又は無限から至近までの間の各フォーカス位置に移動し、CCDI/Fで算出されている各フォーカス位置における前記AF評価値を制御部が読み出す。そして、各フォーカス位置のAF評価値が極大になる点を合焦位置としてフォーカスレンズを合焦位置に移動させ、合焦させる。 So-called hill-climbing AF means that when the AF (focusing) target range is the entire range from infinity to close, the focus lens of the taking lens system is at each focus position from close to infinity or from infinity to close. The controller reads the AF evaluation value at each focus position calculated by the CCD I / F. Then, the focus lens is moved to the in-focus position with the point where the AF evaluation value at each focus position is maximized as the in-focus position, and in-focus.
そして、前記したAE処理が行われ、露光完了時点で、制御部からモータドライバへの駆動指令によりメカシャッタユニットが閉じられ、CCDから静止画用のアナログRGB画像信号が出力される。そして、前記モニタリング時と同様に、AFE部のA/D変換部によりRAW−RGBデータに変換される。 Then, the AE process described above is performed, and when the exposure is completed, the mechanical shutter unit is closed by a drive command from the control unit to the motor driver, and an analog RGB image signal for a still image is output from the CCD. Then, as in the monitoring, the A / D conversion unit of the AFE unit converts the data into RAW-RGB data.
そして、このRAW−RGBデータ(第2の撮像信号)は、信号処理部のCCDI/Fに取り込まれ(第2撮像機能)、YUV変換部でYUVデータに変換されて、メモリコントローラを介してSDRAMに保存される。そして、このYUVデータはSDRAMから読み出されて、リサイズ処理部で記録画素数に対応するサイズに変換され、データ圧縮部でJPEG形式等の画像データへと圧縮される。圧縮されたJPEG形式等の画像データは、SDRAMに書き戻された後にメモリコントローラを介してSDRAMから読み出され、メディアI/Fを介してメモリカードに保存される。 The RAW-RGB data (second image pickup signal) is taken into the CCD I / F of the signal processing unit (second image pickup function), converted into YUV data by the YUV conversion unit, and SDRAM via the memory controller. Saved in. The YUV data is read from the SDRAM, converted into a size corresponding to the number of recorded pixels by the resizing processing unit, and compressed to image data in JPEG format or the like by the data compression unit. The compressed image data such as JPEG format is written back to the SDRAM, read out from the SDRAM via the memory controller, and stored in the memory card via the media I / F.
次に、本発明の特徴となる撮像動作(第2撮像機能の作動開始時以降の動作)について説明する。
図3は第1の実施の形態におけるストロボWB補正の一連の処理をフローにしたものである。
最初に、ストロボ発光による撮影時のRAW−RGBがSDRAMに格納される(S1)。ストロボ発光量は本発光前のプリ発光によって得られた対象物からの反射光をCCDで検出することで調節している。
Next, an imaging operation (operation after the start of operation of the second imaging function) that is a feature of the present invention will be described.
FIG. 3 is a flowchart showing a series of processing for strobe WB correction in the first embodiment.
First, RAW-RGB at the time of photographing by flash emission is stored in the SDRAM (S1). The amount of stroboscopic light emission is adjusted by detecting the reflected light from the object obtained by the pre-emission before the main emission with the CCD.
SDRAMに格納されたRAW−RGBは、ブロック分割手段である信号処理部のCCDI/Fの一部である検波回路によって水平16×垂直16の256ブロックに分割される。
また、同時に撮影時のAWB評価値(ホワイトバランス評価値)、AE評価値(輝度信号積算結果)とAE制御値(シャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置)が内部のRAMへ格納される(S2)。AWB評価値はブロック毎にR、G、Bそれぞれを積算し1画素あたりのR、G、Bを算出したあとG/R、G/Bという形で表される。AE評価値はブロック毎にR、G、Bそれぞれを積算し1画素あたりのR、G、Bを算出した後、以下の式の結果で表される。
The RAW-RGB stored in the SDRAM is divided into 256 blocks of horizontal 16 × vertical 16 by a detection circuit which is a part of the CCD I / F of the signal processing unit which is a block dividing means.
At the same time, an AWB evaluation value (white balance evaluation value), an AE evaluation value (luminance signal integration result) and an AE control value (shutter speed, aperture value, AGC gain value, ND filter position) at the time of photographing are stored in the internal RAM. Stored (S2). The AWB evaluation value is expressed in the form of G / R and G / B after calculating R, G, and B per pixel by integrating R, G, and B for each block. The AE evaluation value is expressed as a result of the following equation after calculating R, G, and B per pixel by integrating R, G, and B for each block.
AE評価値=0.299R+0.587G+0.114B AE evaluation value = 0.299R + 0.587G + 0.114B
次に、撮影直前のモニタリング時の露光量と撮影時の露光量とが同じになるように、後述する算出方法で算出された露出補正係数(k)を、モニタリング画像に対応したブロック毎のAE評価値及び/または撮影時のブロック毎のAE評価値に対して設定する(S3;露出補正係数算出手段)。撮影直前のモニタリング画像(第1の撮像信号)に対応したAE評価値は、レリーズの最後のフレームから撮影時と同じ計算式にて算出されたものがRAMに格納される。また、撮影時と同様にこの時のAE制御値(シャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置、画素加算分)も内部のRAMに格納される。また、露光量を合わせる際、光量がないブロックに露出補正係数を乗算しても変化が無く、差分の大きさによって分割する分割方法では分割が難しくなる為、露光量が少ない画像の露光量に合わせるように、露光量の多い画像に露出補正係数(k)を掛けることが好ましい。 Next, an exposure correction coefficient (k) calculated by a calculation method to be described later is used for each block corresponding to the monitoring image so that the exposure amount at the time of monitoring immediately before shooting is the same as the exposure amount at the time of shooting. An evaluation value and / or an AE evaluation value for each block at the time of shooting is set (S3; exposure correction coefficient calculation means). The AE evaluation value corresponding to the monitoring image (first image pickup signal) immediately before shooting is stored in the RAM, which is calculated from the last frame of the release using the same calculation formula as when shooting. As in the case of shooting, the AE control values (shutter speed, aperture value, AGC gain value, ND filter position, pixel addition amount) at this time are also stored in the internal RAM. In addition, when adjusting the exposure amount, there is no change even if the exposure correction coefficient is multiplied to the block with no light amount, and the division method that divides according to the difference size makes division difficult, so the exposure amount of the image with a small exposure amount is reduced. It is preferable to multiply an image with a large exposure amount by an exposure correction coefficient (k) so as to match.
図4に本実施の形態におけるAE制御値の例を示すが、本発明におけるAE制御値はこれに限定されるものではない。
各AE制御値の1ステップあたりの明るさ変化量は同じであるため、撮影時とモニタリング時それぞれの各AE制御値の加算結果から、減算によって撮影時とモニタリング時の明るさの差分(delta Ev)を求めることができる。本実施の形態におけるAE制御値の例では制御値の差が16で1EV差、つまり明るさが2倍違うことになる。露出補正係数(k)の算出方法を下記式1に示す。
Although the example of the AE control value in this Embodiment is shown in FIG. 4, the AE control value in this invention is not limited to this.
Since the amount of change in brightness per step of each AE control value is the same, the difference in brightness between shooting and monitoring (delta Ev) by subtraction from the addition result of each AE control value during shooting and monitoring. ). In the example of the AE control value in the present embodiment, the difference in control value is 16 and 1 EV difference, that is, the brightness is twice different. The calculation method of the exposure correction coefficient (k) is shown in the following formula 1.
モニタリング時に水平垂直の画素を加算した結果からAE評価値を算出している場合は、露出補正係数算出時に画素加算分も考慮する必要があり、露出補正係数(k)の算出方法は下記式2となる。例えば、モニタリング時は水平2画素、垂直2画素を合計した結果(4画素分)がCCDから読み出される場合、画素加算を行わない撮影時(1画素分)に比べて、モニタリング時は2EV(4倍)明るいことになる。 When the AE evaluation value is calculated from the result of adding horizontal and vertical pixels at the time of monitoring, it is necessary to consider the pixel addition when calculating the exposure correction coefficient. The calculation method of the exposure correction coefficient (k) It becomes. For example, when the result of summing two horizontal pixels and two vertical pixels (for four pixels) is read out from the CCD during monitoring, 2 EV (4 pixels during monitoring) compared to shooting (for one pixel) without pixel addition. Times) will be brighter.
そして、同一ブロックの撮影画像のAE評価値から撮影直前のモニタリング画像のAE評価値を減算し、予め設定されている基準値と比較し、基準値以上のブロックをストロボ照射領域とし基準値未満のブロックをストロボ非照射領域とする領域分割を行う(S4;領域分割手段)。
尚、本発明におけるストロボ照射領域の判定方法はS4の判定方法に限定されるものではなく、ストロボ発光によって充分に光が照射されているブロックを判定できる演算方法であればいかなる判定方法であっても良く、また、予め設定されている基準値は任意で設定することができる。
Then, the AE evaluation value of the monitoring image immediately before shooting is subtracted from the AE evaluation value of the captured image of the same block, and compared with a reference value set in advance. Area division is performed using the block as a non-flash irradiation area (S4; area division means).
The determination method of the strobe irradiation area in the present invention is not limited to the determination method of S4, and any determination method can be used as long as it is a calculation method that can determine a block that is sufficiently irradiated with strobe light. The reference value set in advance can be arbitrarily set.
S1〜S4により、撮影時とモニタリング時で露光量が異なる場合でもストロボの影響が強いブロックを抽出することが可能となる。 With S1 to S4, it is possible to extract a block having a strong influence of a strobe even when the exposure amount differs between shooting and monitoring.
図5はブロック単位でストロボ照射領域とストロボ非照射領域とで領域分割を行ったものである。図5の1はストロボ照射領域を表し、図5の2はストロボ非照射領域を表す。 FIG. 5 shows an area divided into a strobe irradiation area and a strobe non-irradiation area in block units. 5 in FIG. 5 represents a strobe irradiation region, and 2 in FIG. 5 represents a strobe non-irradiation region.
次に、領域毎にそれぞれ白抽出(本発明では白検出とも称する;以下同様である。)を行う(S5;白検出手段)。白抽出は領域毎にブロック単位で取得したAWB評価値を閾値と比較して、閾値以下のブロックを白抽出ブロックとして記憶する。 Next, white extraction (also referred to as white detection in the present invention; hereinafter the same) is performed for each region (S5; white detection means). In the white extraction, an AWB evaluation value acquired in units of blocks for each region is compared with a threshold value, and blocks below the threshold value are stored as white extraction blocks.
白抽出ブロックとは、図5のような撮像画像で具体例を示すとすると、被写体である人物の画像における白い服の領域に存在する(を有する)ブロック、背景の画像における白い雲の領域に存在する(を有する)ブロック等が挙げられる。 If a specific example is shown in the captured image as shown in FIG. 5, the white extraction block is a block that exists in the area of white clothes in the image of the person who is the subject, and a white cloud area in the background image. Examples include (existing) blocks.
ここで、本実施の形態における白抽出の処理は、抽出されるブロックのAWB評価値が所定の閾値以上であるか、所定の閾値未満であるかをもって、白抽出ブロックの判定を行っている。所定の閾値は任意で設定することができる。
尚、本発明は上述の白抽出の処理の実施の形態に限られるものではなく、被写体や背景等において白が存在するブロックを一定の基準に従い、高い信頼性をもって抽出可能であればいかなる形態であっても良い。また、本実施の形態および後述の実施の形態において、白抽出を行う範囲(白検出範囲)は、白抽出ブロックが高い信頼性をもって抽出できる任意の範囲とすることができる。
Here, in the white extraction processing in the present embodiment, the white extraction block is determined based on whether the AWB evaluation value of the extracted block is equal to or greater than a predetermined threshold value or less than the predetermined threshold value. The predetermined threshold can be arbitrarily set.
The present invention is not limited to the above-described embodiment of the white extraction process, and any form can be used as long as a block in which white is present in a subject or background can be extracted with high reliability according to a certain standard. There may be. In the present embodiment and the embodiments described later, the white extraction range (white detection range) can be an arbitrary range in which the white extraction block can be extracted with high reliability.
ストロボ照射領域及びストロボ非照射領域のいずれの領域においても白抽出ブロック数が一定基準以上である場合、ストロボ照射領域とストロボ非照射領域のそれぞれの領域毎に、各白抽出ブロックにおけるAWB評価値とAE評価値とに基づき演算することで、ホワイトバランス補正係数を算出できる。
ホワイトバランス補正係数は、AE評価値が高い領域を重視するような補正係数であることが好ましく、例えば、下記式3に示すように、AWB評価値にAE評価値の重み付けを行うことで算出できる。
When the number of white extraction blocks is equal to or greater than a certain standard in both the strobe irradiation area and the strobe non-irradiation area, the AWB evaluation value in each white extraction block for each of the strobe irradiation area and the strobe non-irradiation area By calculating based on the AE evaluation value, the white balance correction coefficient can be calculated.
The white balance correction coefficient is preferably a correction coefficient that places importance on an area where the AE evaluation value is high, and can be calculated, for example, by weighting the AE evaluation value to the AWB evaluation value as shown in Equation 3 below. .
また、ストロボ照射領域及びストロボ非照射領域のうち、いずれか一方の領域で白抽出ブロック数が一定基準未満の場合、当該白抽出ブロック数が一定基準未満の領域は、各ブロックにおけるAWB評価値とAE評価値とに基づき演算することで、ホワイトバランス補正係数を算出できる。
ホワイトバランス補正係数は、AE評価値が高い領域を重視するような補正係数であることが好ましく、例えば、下記式4に示すように、AWB評価値にAE評価値の重み付けを行うことで算出できる。
In addition, when the number of white extraction blocks is less than a certain reference in either one of the strobe irradiation area and the strobe non-irradiation area, the area where the number of white extraction blocks is less than a certain reference is the AWB evaluation value in each block. By calculating based on the AE evaluation value, the white balance correction coefficient can be calculated.
The white balance correction coefficient is preferably a correction coefficient that places importance on an area where the AE evaluation value is high, and can be calculated, for example, by weighting the AE evaluation value to the AWB evaluation value as shown in Equation 4 below. .
若しくは、ストロボ照射領域及びストロボ非照射領域のうち、いずれか一方の領域で白抽出ブロック数が一定基準未満の場合、当該白抽出ブロック数が一定基準未満の領域は、他方の白抽出ブロック数が一定基準以上の領域のホワイトバランス補正係数を使用しても良い。 Alternatively, when the number of white extraction blocks is less than a certain standard in either one of the strobe irradiation area and the strobe non-irradiation area, the area where the number of white extraction blocks is less than the certain standard has the other white extraction block number. You may use the white balance correction coefficient of the area | region beyond a fixed reference | standard.
ストロボ照射領域及びストロボ非照射領域のいずれも白抽出ブロック数が一定基準未満の場合、画面全体の各ブロックにおけるAWB評価値とAE評価値とに基づき演算することで、ホワイトバランス係数を算出できる。
ホワイトバランス補正係数は、AE評価値が高い領域を重視するような補正係数であることが好ましく、例えば、下記式5に示すように、AWB評価値にAE評価値の重み付けを行うことで算出できる(S6;補正係数算出手段)。
When the number of white extraction blocks is less than a certain standard in both the strobe irradiation area and the strobe non-irradiation area, the white balance coefficient can be calculated by calculating based on the AWB evaluation value and the AE evaluation value in each block of the entire screen.
The white balance correction coefficient is preferably a correction coefficient that places importance on an area where the AE evaluation value is high, and can be calculated, for example, by weighting the AE evaluation value to the AWB evaluation value as shown in Equation 5 below. (S6; correction coefficient calculation means).
次に、SDRAMよりRAW−RGBを読み出し、図6のようにブロックの中央に位置する画素をブロック中央画素として、領域毎に算出したWB補正係数Rgain、Bgainをそれぞれの領域に対応するブロック中央画素に設定する(S7;ホワイトバランス演算手段)。図6の3はストロボ照射領域で算出したホワイトバランス補正係数Rgain、Bgainを設定するブロック中央画素、図6の4はストロボ非照射領域に算出したホワイトバランス補正係数Rgain、Bgainを設定するブロック中央画素である。 Next, RAW-RGB is read from the SDRAM, and the pixel located at the center of the block as shown in FIG. 6 is used as the block center pixel, and the WB correction coefficients Rgain and Bgain calculated for each region are used as the block center pixel corresponding to each region. (S7; white balance calculating means). 6 in FIG. 6 is a block center pixel for setting white balance correction coefficients Rgain and Bgain calculated in the strobe irradiation area, and 4 in FIG. 6 is a block center pixel for setting white balance correction coefficients Rgain and Bgain calculated in the strobe non-irradiation area. It is.
非ブロック中央画素のホワイトバランス補正係数Rgain、Bgainは、当該ブロックのブロック中央画素と周辺のブロック中央画素に設定されているホワイトバランス補正係数と当該画素からの距離による補間によって求めることが好ましい(S8)。 The white balance correction coefficients Rgain and Bgain of the non-block center pixel are preferably obtained by interpolation based on the white balance correction coefficients set in the block center pixel of the block and the surrounding block center pixels and the distance from the pixel (S8). ).
図7を基に非ブロック中央画素のホワイトバランス補正係数算出方法を説明する。ホワイトバランス補正係数の算出対象とする非ブロック中央画素を11とし周辺のブロック中央画素をR0、R1、R2、R3とする。R3を1で正規化しホワイトバランス補正係数の算出対象となる非ブロック中央画素の位置をx、yで表し、以下の計算式によってホワイトバランス補正係数を算出する。 A method for calculating the white balance correction coefficient of the non-block center pixel will be described with reference to FIG. The non-block center pixel that is the target of white balance correction coefficient calculation is 11, and the peripheral block center pixels are R0, R1, R2, and R3. R3 is normalized by 1 and the position of the non-block center pixel for which the white balance correction coefficient is to be calculated is represented by x and y, and the white balance correction coefficient is calculated by the following formula.
Rgain=(1−x)(1−y)R0+x(1−y)R1+(1−x)yR2+xyR3
Bgain=(1−x)(1−y)B0+x(1−y)B1+(1−x)yB2+xyB3
Rgain = (1-x) (1-y) R0 + x (1-y) R1 + (1-x) yR2 + xyR3
Bgain = (1-x) (1-y) B0 + x (1-y) B1 + (1-x) yB2 + xyB3
図8の12部分の画素のように周辺のブロック中央画素が1つしか存在しない場合は、当該ブロックのホワイトバランス補正係数を設定する。 In the case where there is only one peripheral pixel in the peripheral block like the 12-part pixel in FIG. 8, the white balance correction coefficient for the block is set.
図9の13、14、15、16部分の画素のように周辺のブロック中央画素が2つしか存在しない場合は、2つの補正係数と当該画素からの距離による補間によって求める。計算式を以下に示す。 When there are only two peripheral block center pixels like the pixels 13, 14, 15, and 16 in FIG. 9, they are obtained by interpolation using two correction coefficients and the distance from the pixel. The calculation formula is shown below.
領域13の場合
Rgain=(1−x)R2+xR3
Bgain=(1−x)B2+xB3
In the case of region 13, R gain = (1-x) R2 + xR3
B gain = (1-x) B2 + xB3
領域14の場合
Rgain=(1−x)R0+xR1
Bgain=(1−x)B0+xB1
In the case of region 14, R gain = (1-x) R0 + xR1
B gain = (1-x) B0 + xB1
領域15の場合
Rgain=(1−y)R1+yR3
Bgain=(1−y)B1+yB3
In the case of region 15, R gain = (1-y) R1 + yR3
B gain = (1-y) B1 + yB3
領域16の場合
Rgain=(1−y)R0+yR2
Bgain=(1−y)B0+yB2
In the case of region 16, R gain = (1-y) R0 + yR2
B gain = (1-y) B0 + yB2
画面全体のR、Bデータそれぞれに対して、画素毎に算出したホワイトバランス補正係数Rgain、Bgainを掛ける(S9)。 The R and B data of the entire screen are multiplied by the white balance correction coefficients Rgain and Bgain calculated for each pixel (S9).
これにより、ストロボ照射領域とストロボ非照射領域とで照射される光源の色温度が異なる場合でもそれぞれに対して良好なホワイトバランスを掛けることができる。 Thereby, even when the color temperature of the light source irradiated in the strobe irradiation region and the strobe non-irradiation region is different, a good white balance can be applied to each.
これにより、画素間の補正係数にローパスフィルタがかかる為、ホワイトバランス補正係数が異なるそれぞれの領域が存在する画像に於いて、領域の境界で不自然なホワイトバランスが掛かることを回避することができる。 As a result, since the low-pass filter is applied to the correction coefficient between the pixels, it is possible to avoid an unnatural white balance being applied at the boundary between the areas in an image in which each area has a different white balance correction coefficient. .
また、ブロック単位のAE評価値の差分から領域分割を行うため、計算量を少なくすることができる。 In addition, since the region is divided from the difference between the AE evaluation values in units of blocks, the amount of calculation can be reduced.
また、ストロボ撮影直前のモニタリング画像を利用することで複数枚撮影することなく領域分割することができ、撮影に要する時間を短くすることができる。 Further, by using the monitoring image immediately before the flash photography, it is possible to divide the area without taking a plurality of pictures, and to shorten the time required for photography.
また、領域毎にホワイトバランス補正係数を算出する為、ブロック毎または画素毎に算出する方法に比べてホワイトバランス補正係数の算出に要する計算量を少なくすることができる。 Further, since the white balance correction coefficient is calculated for each region, the amount of calculation required for calculating the white balance correction coefficient can be reduced as compared with the method of calculating for each block or pixel.
本実施の形態では撮影画像及びモニタリング画像に対して水平16×垂直16のブロックで分割したが、任意の分割数で分割しても良い。その場合は領域分割の際、撮影画像とモニタリング画像における同一ブロック毎に、AE評価値からストロボ照射領域かストロボ非照射領域かの判別を行うため、撮影画像とモニタリング画像の分割数を合わせる必要がある。また、分割は格子状であることが好ましいが、撮影画像とモニタリング画像とにおいて対応するブロックが同一形状であればいかなる形状に分割しても良い。このことは、後述する実施の形態においても同様である。 In the present embodiment, the captured image and the monitoring image are divided into 16 horizontal 16 × vertical blocks, but may be divided by an arbitrary number of divisions. In that case, when dividing the area, it is necessary to match the number of divisions of the captured image and the monitoring image for each same block in the captured image and the monitoring image, based on the AE evaluation value, that is, the strobe irradiation area or the strobe non-irradiation area. is there. In addition, the division is preferably in a lattice shape, but may be divided into any shape as long as the corresponding blocks in the captured image and the monitoring image have the same shape. The same applies to the embodiments described later.
〔第2の実施の形態〕
第1の実施の形態ではブロック単位でストロボ照射領域とストロボ非照射領域に分割し、それぞれの領域毎にホワイトバランス補正係数を算出するのに対し、本実施の形態では、ブロック毎にストロボ光量を算出しブロック毎にストロボ光量の割合に応じたホワイトバランス補正係数を算出する。
[Second Embodiment]
In the first embodiment, the strobe irradiation area and the strobe non-irradiation area are divided in units of blocks, and the white balance correction coefficient is calculated for each area. In the present embodiment, the strobe light amount is calculated for each block. The white balance correction coefficient corresponding to the ratio of the strobe light amount is calculated for each block.
図10は本発明に係る撮像装置の第2の実施の形態のストロボWB補正の一連の処理をフローにしたものである。
最初に、ストロボ発光による撮影時のRAW−RGBがSDRAMに格納される(S1)。ストロボ発光量は本発光前のプリ発光によって得られた対象物からの反射光をCCDで検出することで調節している。
SDRAMに格納されたRAW−RGBは、ブロック分割手段である信号処理部のCCDI/Fの一部である検波回路によって水平16×垂直16の256ブロックに分割される。
また、同時に撮影時のAWB評価値(ホワイトバランス評価値)、AE評価値(輝度信号積算結果)とAE制御値(シャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置)が内部のRAMへ格納される(S2)。AWB評価値はブロック毎にR、G、Bそれぞれを積算し1画素あたりのR、G、Bを算出したあとG/R、G/Bという形で表される。AE評価値はブロック毎にR、G、Bそれぞれを積算し1画素あたりのR、G、Bを算出した後、以下の式の結果で表される。
FIG. 10 is a flowchart showing a series of processing for strobe WB correction of the second embodiment of the imaging apparatus according to the present invention.
First, RAW-RGB at the time of photographing by flash emission is stored in the SDRAM (S1). The amount of stroboscopic light emission is adjusted by detecting the reflected light from the object obtained by the pre-emission before the main emission with the CCD.
The RAW-RGB stored in the SDRAM is divided into 256 blocks of horizontal 16 × vertical 16 by a detection circuit which is a part of the CCD I / F of the signal processing unit which is a block dividing means.
At the same time, an AWB evaluation value (white balance evaluation value), an AE evaluation value (luminance signal integration result) and an AE control value (shutter speed, aperture value, AGC gain value, ND filter position) at the time of photographing are stored in the internal RAM. Stored (S2). The AWB evaluation value is expressed in the form of G / R and G / B after calculating R, G, and B per pixel by integrating R, G, and B for each block. The AE evaluation value is expressed as a result of the following equation after calculating R, G, and B per pixel by integrating R, G, and B for each block.
AE評価値=0.299R+0.587G+0.114B AE evaluation value = 0.299R + 0.587G + 0.114B
次に、撮影直前のモニタリング時の露光量と撮影時の露光量とが同じになるように、後述する算出方法で算出された露出補正係数(k)を、モニタリング画像に対応したブロック毎のAE評価値及び/または撮影時のブロック毎のAE評価値に対して設定する(S3;露出補正係数算出手段)。撮影直前のモニタリング画像(第1の撮像信号)に対応したAE評価値は、レリーズの最後のフレームから撮影時と同じ計算式にて算出されたものがRAMに格納される。また、撮影時と同様にこの時のAE制御値(シャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置、画素加算分)も内部のRAMに格納される。 Next, an exposure correction coefficient (k) calculated by a calculation method to be described later is used for each block corresponding to the monitoring image so that the exposure amount at the time of monitoring immediately before shooting is the same as the exposure amount at the time of shooting. An evaluation value and / or an AE evaluation value for each block at the time of shooting is set (S3; exposure correction coefficient calculation means). The AE evaluation value corresponding to the monitoring image (first image pickup signal) immediately before shooting is stored in the RAM, which is calculated from the last frame of the release using the same calculation formula as when shooting. As in the case of shooting, the AE control values (shutter speed, aperture value, AGC gain value, ND filter position, pixel addition amount) at this time are also stored in the internal RAM.
また、露光量を合わせる際、光量がないブロックに露出補正係数を乗算しても変化が無く、差分によるストロボ寄与率算出が難しくなる為、露光量が少ない画像の露光量に合わせるように、露光量の多い画像に露出補正係数(k)を掛けることが好ましい。 In addition, when adjusting the exposure amount, there is no change even if the exposure compensation coefficient is multiplied to the block with no light quantity, and it becomes difficult to calculate the strobe contribution ratio by the difference. Therefore, the exposure is adjusted to match the exposure amount of the image with a small exposure amount. It is preferable to multiply an image having a large amount by an exposure correction coefficient (k).
また、露光量が多い画像の露光量に合わせるように、露光量の少ない画像に露出補正係数(k)を掛ける場合、一定以下のAE評価値ではノイズが占める割合が大きくなるため下位1EV以下のAE評価値のブロックに対しては、後述する算出方法で算出した露出補正係数(k)に対してAE評価値に連動して線形に変化するように重み付けを行うことが好ましい。
具体的には、例えば、下記式に示すような露出補正係数(k)に対してAE評価値の重み付けを行う演算を用いて算出することができる。
In addition, when the exposure correction coefficient (k) is multiplied to an image with a small exposure amount so as to match the exposure amount of an image with a large exposure amount, the ratio of noise increases with an AE evaluation value less than a certain value, and therefore the lower 1 EV or less. It is preferable to weight the AE evaluation value block so that the exposure correction coefficient (k) calculated by the calculation method described later changes linearly in conjunction with the AE evaluation value.
Specifically, for example, it can be calculated using an operation for weighting the AE evaluation value with respect to the exposure correction coefficient (k) as shown in the following equation.
k’=k×(AE評価値/1EV分のAE評価値) k ′ = k × (AE evaluation value / 1 AE evaluation value for 1 EV)
更に、モニタリング画像と撮影画像とでシェーディング補正パラメータが異なる場合、モニタリング画像と撮影画像のシェーディング補正パラメータの差分を各ブロックの露出補正係数(k’)に対して加味することが好ましい。 Further, when the shading correction parameters are different between the monitoring image and the captured image, it is preferable to add the difference between the shading correction parameters of the monitoring image and the captured image to the exposure correction coefficient (k ′) of each block.
図4に本実施の形態におけるAE制御値の例を示すが、本発明におけるAE制御値はこれに限定されるものではない。
各AE制御値の1ステップあたりの明るさ変化量は同じであるため、撮影時とモニタリング時それぞれの各AE制御値の加算結果から減算によって撮影時とモニタリング時の明るさの差分(delta Ev)を求めることができる。本実施の形態におけるAE制御値の例では制御値の差が16で1EV差、つまり明るさが2倍違うことになる。露出補正係数(k)の算出方法を下記式1に示す。
Although the example of the AE control value in this Embodiment is shown in FIG. 4, the AE control value in this invention is not limited to this.
Since the amount of change in brightness per step of each AE control value is the same, the difference in brightness between shooting and monitoring (delta Ev) by subtraction from the addition result of each AE control value during shooting and monitoring. Can be requested. In the example of the AE control value in the present embodiment, the difference in control value is 16 and 1 EV difference, that is, the brightness is twice different. The calculation method of the exposure correction coefficient (k) is shown in the following formula 1.
モニタリング時に水平垂直の画素を加算した結果からAE評価値を算出している場合は露出補正係数算出時に画素加算分も考慮する必要があり、露出補正係数(k)の算出方法は下記式2となる。例えば、モニタリング時は水平2画素、垂直2画素を合計した結果(4画素分)がCCDから読み出される場合、画素加算を行わない撮影時(1画素分)に比べて、モニタリング時は2EV(4倍)明るいことになる。 When the AE evaluation value is calculated from the result of adding the horizontal and vertical pixels at the time of monitoring, it is necessary to consider the pixel addition when calculating the exposure correction coefficient. The calculation method of the exposure correction coefficient (k) Become. For example, when the result of summing two horizontal pixels and two vertical pixels (for four pixels) is read out from the CCD during monitoring, 2 EV (4 pixels during monitoring) compared to shooting (for one pixel) without pixel addition. Times) will be brighter.
次いで、同一ブロックの撮影画像のAE評価値と撮影直前のモニタリング画像のAE評価値との減算によるブロック毎のストロボ光量を算出する(S4)。
尚、本発明におけるストロボ照射領域の判定方法はS4の判定方法に限定されるものではなく、ストロボ発光によって充分に光が照射されているブロックを判定できる演算方法であればいかなる判定方法であっても良く、また、予め設定されている基準値は任意で設定することができる。
Next, the stroboscopic light quantity for each block is calculated by subtracting the AE evaluation value of the captured image of the same block and the AE evaluation value of the monitoring image immediately before shooting (S4).
The determination method of the strobe irradiation area in the present invention is not limited to the determination method of S4, and any determination method can be used as long as it is a calculation method that can determine a block that is sufficiently irradiated with strobe light. The reference value set in advance can be arbitrarily set.
S1〜S4により、撮影時とモニタリング時で露光量が異なる場合でもブロック毎のストロボ光量を算出することが可能となる。 With S1 to S4, it is possible to calculate the stroboscopic light amount for each block even when the exposure amount differs between shooting and monitoring.
さらに、各ブロックについて、外光量とストロボ光量の割合から、当該ブロックにおけるストロボ寄与率を算出する。外光量とは、露出補正後のモニタリング画像のAE評価値を指す。また、各ブロックのストロボ寄与率は外光量とストロボ光量とを足したものを100%とした場合のストロボ光量の割合を示す。 Further, for each block, the strobe contribution ratio in the block is calculated from the ratio between the external light amount and the strobe light amount. The external light quantity refers to the AE evaluation value of the monitoring image after exposure correction. The strobe contribution rate of each block indicates the ratio of the strobe light amount when the sum of the external light amount and the strobe light amount is taken as 100%.
次に、白抽出を行う(S5;白検出手段)。白抽出は画面全体におけるブロック単位で取得したAWB評価値に対して、閾値以下のブロックを白抽出ブロックとして記憶するか、ストロボ寄与率が一定以下のブロックの中から、閾値未満のブロックを白抽出ブロックとして記憶する。 Next, white extraction is performed (S5; white detection means). For white extraction, a block below the threshold is stored as a white extraction block for the AWB evaluation value acquired in units of blocks in the entire screen, or a block below the threshold is extracted from among blocks with a strobe contribution ratio below a certain value. Store as a block.
白抽出ブロック数が一定基準以上である場合、各白抽出ブロックにおけるAWB評価値と、AE評価値とに基づき演算することで、第1ホワイトバランス補正係数を算出できる。
第1ホワイトバランス補正係数は、AE評価値が高い領域を重視するような補正係数であることが好ましく、例えば、下記式3に示すように、AWB評価値にAE評価値の重み付けを行うことで算出できる。
When the number of white extraction blocks is equal to or greater than a certain standard, the first white balance correction coefficient can be calculated by calculating based on the AWB evaluation value and the AE evaluation value in each white extraction block.
The first white balance correction coefficient is preferably a correction coefficient that places importance on an area where the AE evaluation value is high. For example, as shown in the following Equation 3, the AWB evaluation value is weighted with the AE evaluation value. It can be calculated.
さらに、ストロボ寄与率に応じて、第1ホワイトバランス係数と、ストロボの影響が100%時に良好なホワイトバランスに補正することができる第2ホワイトバランス係数と、に基づき演算することで、ブロック毎に第3ホワイトバランス補正係数を算出できる。
第3ホワイトバランス補正係数は、ストロボ寄与率が高いブロックが、ストロボ寄与率が低いブロックよりも第2ホワイトバランス係数を重視するような補正係数であることが好ましく、例えば、下記式6に示すように、第1ホワイトバランス係数と、第2ホワイトバランス係数との加重平均でブロック毎に算出できる。
Furthermore, by calculating based on the first white balance coefficient and the second white balance coefficient that can be corrected to a good white balance when the effect of the strobe is 100% according to the strobe contribution rate, A third white balance correction coefficient can be calculated.
The third white balance correction coefficient is preferably a correction coefficient such that a block having a high strobe contribution ratio places more importance on the second white balance coefficient than a block having a low strobe contribution ratio. In addition, a weighted average of the first white balance coefficient and the second white balance coefficient can be calculated for each block.
白抽出ブロック数が一定基準未満である場合、画面全体について各ブロックのAWB評価値とAE評価値とに基づき演算することで、第1ホワイトバランス補正係数を算出できる。
第1ホワイトバランス補正係数は、AE評価値が高い領域を重視するような補正係数であることが好ましく、例えば、下記式4に示すように、AWB評価値にAE評価値の重み付けを行うことで算出できる。
When the number of white extraction blocks is less than a certain standard, the first white balance correction coefficient can be calculated by calculating the entire screen based on the AWB evaluation value and the AE evaluation value of each block.
The first white balance correction coefficient is preferably a correction coefficient that places importance on a region with a high AE evaluation value. For example, as shown in the following Equation 4, the AWB evaluation value is weighted with the AE evaluation value. It can be calculated.
若しくは、撮影直前のモニタリング画像で設定していたホワイトバランス補正係数を、第1ホワイトバランス補正係数とする。 Alternatively, the white balance correction coefficient set in the monitoring image immediately before shooting is set as the first white balance correction coefficient.
さらに、ストロボ寄与率に応じて、第1ホワイトバランス係数と、ストロボの影響が100%時に良好なホワイトバランスに補正することができる第2ホワイトバランス係数と、に基づき演算することで、ブロック毎に第3ホワイトバランス補正係数を算出できる(S6)。
第3ホワイトバランス補正係数は、ストロボ寄与率が高いブロックが、ストロボ寄与率が低いブロックよりも第2ホワイトバランス係数を重視するような補正係数であることが好ましく、例えば、上記式6に示すように、第1ホワイトバランス係数と、第2ホワイトバランス係数との加重平均でブロック毎に算出できる(S6;第1〜3ホワイトバランス補正係数算出手段)。
Furthermore, by calculating based on the first white balance coefficient and the second white balance coefficient that can be corrected to a good white balance when the effect of the strobe is 100% according to the strobe contribution rate, A third white balance correction coefficient can be calculated (S6).
The third white balance correction coefficient is preferably a correction coefficient such that a block having a high strobe contribution ratio places more importance on the second white balance coefficient than a block having a low strobe contribution ratio. In addition, the weighted average of the first white balance coefficient and the second white balance coefficient can be calculated for each block (S6; first to third white balance correction coefficient calculating means).
ここで、第2ホワイトバランス補正係数とは、予めストロボの影響が100%時に良好なホワイトバランスに補正することができる補正係数として所定の値として設定しておいても良いが、ストロボを発光する際の電圧によってストロボ光の色温度の変化が大きい場合には、予め下限電圧で発光した時のWBと上限電圧で発光した時のWBとを内部データとして保持しておき、ストロボ発光時の電圧から線形補間によって第2ホワイトバランス補正係数を算出することが好ましい。 Here, the second white balance correction coefficient may be set in advance as a predetermined value as a correction coefficient that can be corrected to a good white balance when the effect of the strobe is 100%, but the strobe is emitted. If the change in the color temperature of the strobe light is large due to the voltage at the time, the WB when emitting light at the lower limit voltage and the WB when emitting light at the upper limit voltage are held as internal data in advance, and the voltage at the time of strobe emission From this, it is preferable to calculate the second white balance correction coefficient by linear interpolation.
次にSDRAMよりRAW−RGBを読み出し、図6のようにブロックの中央に位置する画素をブロック中央画素としブロック毎に算出した第3ホワイトバランス補正係数Rgain、Bgainを対応するブロックの中央画素に設定する(S7;ホワイトバランス設定手段)。 Next, RAW-RGB is read from the SDRAM, and the third white balance correction coefficients Rgain and Bgain calculated for each block are set as the center pixel of the corresponding block, with the pixel located at the center of the block as the block center pixel as shown in FIG. (S7; white balance setting means).
以降、ブロック毎のホワイトバランス補正係数の設定方法(図10のS8〜S9)は第1の実施の形態の(図3のS8〜S9)と同様である。 Thereafter, the method for setting the white balance correction coefficient for each block (S8 to S9 in FIG. 10) is the same as that in the first embodiment (S8 to S9 in FIG. 3).
本実施の形態によれば、ブロック毎にストロボの影響に応じた細かいホワイトバランス補正係数を設定することができる。
また、ストロボ照射領域とストロボ非照射領域とで照射される光源の色温度が異なる場合でも、それぞれに対して良好なホワイトバランスを掛けることができる。
さらに、画素間の補正係数にローパスフィルタがかかる為、ホワイトバランス補正係数が異なるそれぞれの領域が存在する画像に於いて、領域の境界で不自然なホワイトバランスが掛かることを回避することができる。
また、ブロック単位のAE評価値の差分から領域分割を行うため、計算量を少なくすることができる。
さらに、ストロボ撮影直前のモニタリング画像を利用することで複数枚撮影することなく領域分割することができ、撮影に要する時間を短くすることができる。
According to the present embodiment, it is possible to set a fine white balance correction coefficient corresponding to the effect of the strobe for each block.
Further, even when the color temperature of the light source irradiated in the strobe irradiation region and the strobe non-irradiation region is different, a good white balance can be applied to each.
Furthermore, since a low-pass filter is applied to the correction coefficient between pixels, it is possible to avoid an unnatural white balance being applied at the boundary between the areas in an image in which there are areas having different white balance correction coefficients.
In addition, since the region is divided from the difference between the AE evaluation values in units of blocks, the amount of calculation can be reduced.
Further, by using the monitoring image immediately before the flash photography, it is possible to divide the area without taking a plurality of pictures, and to shorten the time required for photography.
本実施の形態では撮影画像及びモニタリング画像に対して水平16×垂直16のブロックで分割したが任意の分割数で分割しても良い。 In this embodiment, the captured image and the monitoring image are divided into 16 horizontal 16 × vertical 16 blocks, but may be divided by an arbitrary number of divisions.
〔第3の実施の形態〕
第1の実施の形態では撮影時とモニタリング時の各ブロックのAE評価値の差分から領域分割を行ったが、本実施の形態では画像処理(WB、ガンマ補正、色補正等)後の撮影画像と撮影直前のモニタリング画像の輝度を基に画素単位で領域分割を行う。
[Third Embodiment]
In the first embodiment, region division is performed based on the difference between the AE evaluation values of each block at the time of shooting and at the time of monitoring. In this embodiment, the shot image after image processing (WB, gamma correction, color correction, etc.) is performed. Then, the area is divided in units of pixels based on the luminance of the monitoring image immediately before shooting.
図12は本発明に係る撮像装置の第3の実施の形態のストロボWB補正の一連の処理をフローにしたものである。 FIG. 12 is a flowchart showing a series of processing for strobe WB correction in the third embodiment of the imaging apparatus according to the present invention.
最初に、ストロボ発光による撮影時のRAW−RGBとYUVがSDRAMに格納される(S1)。また、ストロボ発光量は本発光前のプリ発光によって得られた対象物からの反射光をCCDで検出することで調節している。 First, RAW-RGB and YUV at the time of shooting by strobe light emission are stored in the SDRAM (S1). In addition, the amount of stroboscopic light emission is adjusted by detecting reflected light from the object obtained by pre-emission before the main emission with the CCD.
また、同時に撮影時のAWB評価値、AE制御値(シャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置)が内部のRAMへ格納される(S2)。 At the same time, the AWB evaluation value and the AE control value (shutter speed, aperture value, AGC gain value, ND filter position) at the time of shooting are stored in the internal RAM (S2).
次に、SDRAMから撮影画像を読み出しモニタリング画像と同じサイズになるようリサイズ処理を施したものをリサイズ前の撮影画像とは別のSDRAM領域に保存する(S3)。 Next, the captured image is read out from the SDRAM, and subjected to resizing processing so as to have the same size as the monitoring image is stored in an SDRAM area different from the captured image before resizing (S3).
撮影時と撮影直前のモニタリングのYUVに対してデガンマ処理を行う(S4)。撮影時と撮影直前のモニタリングのYUVはガンマ補正後のデータなので、入力に対して出力が線形で変化しない。通常ガンマは低輝度から中輝度にかけて持ち上げて階調の変化を急にして、高輝度側の階調を緩やかにする特性をもっている。図11にガンマ特性を示す。この特性のため、低輝度側での少しの変化で出力が大きく変わるため撮影画像と撮影直前のモニタリング画像の画素毎の輝度の差分で領域を分割する場合、正確なストロボの影響度を求めることができない。よって、デガンマにて線形な値に戻す処理を行う。撮影時とモニタリング時で使用するガンマテーブルが異なる場合は使用したガンマテーブルに対応するデガンマ処理を行う。 De-gamma processing is performed on YUV during monitoring and immediately before shooting (S4). Since YUV for monitoring at the time of shooting and immediately before shooting is data after gamma correction, the output is linear with respect to the input and does not change. Usually, gamma has a characteristic that it is lifted from low luminance to medium luminance to make the gradation change abrupt and make the gradation on the high luminance side gentle. FIG. 11 shows the gamma characteristic. Because of this characteristic, the output changes greatly with a slight change on the low-brightness side, so when dividing the area by the luminance difference for each pixel of the captured image and the monitoring image immediately before shooting, obtain the exact degree of strobe impact I can't. Therefore, a process of returning to a linear value by degamma is performed. If the gamma table used for shooting is different from that for monitoring, de-gamma processing corresponding to the used gamma table is performed.
次に、撮影画像と撮影直前のモニタリング画像の画素単位の輝度情報を算出する(S5)。輝度情報の算出方法を以下に示す。 Next, luminance information in pixel units of the captured image and the monitoring image immediately before capturing is calculated (S5). The calculation method of luminance information is shown below.
輝度情報=0.299R+0.587G+0.114B Luminance information = 0.299R + 0.587G + 0.114B
次に、撮影直前のモニタリング画像(第1の撮像信号)の露光量と撮影画像の露光量とが同じになるよう露出補正係数(k)をモニタリング画像及び/または撮影画像の各画素の輝度情報に対して設定する(S6;露出補正係数算出手段)。露出補正係数の算出方法は第1の実施の形態と同様である。モニタリング画像はCCDI/Fを通って画像処理された後YUVとして随時SDRAMに上書き保存される。また、撮影直前のモニタリング時のAE制御値(シャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置、画素加算分)は内部のRAMに格納される。 Next, the exposure correction coefficient (k) is set to the luminance information of each pixel of the monitoring image and / or the captured image so that the exposure amount of the monitoring image (first imaging signal) immediately before capturing is the same as the exposure amount of the captured image. (S6; exposure correction coefficient calculation means). The method for calculating the exposure correction coefficient is the same as that in the first embodiment. The monitoring image is subjected to image processing through the CCD I / F and is overwritten and saved in the SDRAM as needed as YUV. Also, the AE control values (shutter speed, aperture value, AGC gain value, ND filter position, pixel addition amount) at the time of monitoring immediately before shooting are stored in the internal RAM.
同一画素において、撮影画像の輝度情報からモニタリング画像の輝度情報を減算し、予め設定されている基準値と比較し、基準値以上の画素をストロボ照射領域とし基準値未満の画素をストロボ非照射領域とする領域分割を行う(S7)。さらに、画素単位の領域分割結果を基に、複数画素で構成されるブロック単位で領域を分割する(S8;領域分割手段)。 In the same pixel, the luminance information of the monitoring image is subtracted from the luminance information of the photographed image, and compared with a preset reference value. Is divided (S7). Furthermore, based on the result of area division in units of pixels, the area is divided in units of blocks composed of a plurality of pixels (S8; area dividing means).
図5はブロック単位でストロボ照射領域とストロボ非照射領域とで領域分割を行ったものである。図5の1はストロボ照射領域を表し、図5の2はストロボ非照射領域を表す。 FIG. 5 shows an area divided into a strobe irradiation area and a strobe non-irradiation area in block units. 5 in FIG. 5 represents a strobe irradiation region, and 2 in FIG. 5 represents a strobe non-irradiation region.
ブロックの分割はAWB評価値、AE評価値を算出するためのRGB積算値を取得する際に設定したものと対応付けされており、ブロックのストロボ照射領域またはストロボ非照射領域かの判別はブロック内に含まれるストロボ照射領域の画素の割合によって判別される。 The division of the block is associated with the one set when acquiring the RGB integrated value for calculating the AWB evaluation value and the AE evaluation value, and it is determined whether the block is a strobe irradiation area or a non-strobe irradiation area. Is determined by the ratio of pixels in the strobe irradiation area included in the.
次に、領域毎にそれぞれ白抽出を行う(S9;白検出手段)。白抽出は領域毎にブロック単位で取得したAWB評価値に対して、閾値と比較して閾値以下のブロックを白抽出ブロックとして記憶する。 Next, white extraction is performed for each region (S9; white detection means). In the white extraction, a block equal to or lower than the threshold is stored as a white extraction block for the AWB evaluation value acquired in units of blocks for each region.
ストロボ照射領域及びストロボ非照射領域のいずれの領域においても白抽出ブロック数が一定基準以上である場合、ストロボ照射領域とストロボ非照射領域のそれぞれの領域毎に、各白抽出ブロックにおけるAWB評価値とAE評価値とに基づき演算することで、ホワイトバランス補正係数を算出できる。
ホワイトバランス補正係数は、AE評価値が高い領域を重視するような補正係数であることが好ましく、例えば、下記式3に示すように、AWB評価値にAE評価値の重み付けを行うことで算出できる。
When the number of white extraction blocks is equal to or greater than a certain standard in both the strobe irradiation area and the strobe non-irradiation area, the AWB evaluation value in each white extraction block for each of the strobe irradiation area and the strobe non-irradiation area By calculating based on the AE evaluation value, the white balance correction coefficient can be calculated.
The white balance correction coefficient is preferably a correction coefficient that places importance on an area where the AE evaluation value is high, and can be calculated, for example, by weighting the AE evaluation value to the AWB evaluation value as shown in Equation 3 below. .
また、ストロボ照射領域及びストロボ非照射領域のうち、いずれか一方の領域で白抽出ブロック数が一定基準未満の場合、当該白抽出ブロック数が一定基準未満の領域は、各ブロックにおけるAWB評価値とAE評価値とに基づき演算することで、ホワイトバランス補正係数を算出できる。
ホワイトバランス補正係数は、AE評価値が高い領域を重視するような補正係数であることが好ましく、例えば、下記式4に示すように、AWB評価値にAE評価値の重み付けを行うことで算出できる。
In addition, when the number of white extraction blocks is less than a certain reference in either one of the strobe irradiation area and the strobe non-irradiation area, the area where the number of white extraction blocks is less than a certain reference is the AWB evaluation value in each block. By calculating based on the AE evaluation value, the white balance correction coefficient can be calculated.
The white balance correction coefficient is preferably a correction coefficient that places importance on an area where the AE evaluation value is high, and can be calculated, for example, by weighting the AE evaluation value to the AWB evaluation value as shown in Equation 4 below. .
若しくは、ストロボ照射領域及びストロボ非照射領域のうち、いずれか一方の領域で白抽出ブロック数が一定基準未満の場合、当該白抽出ブロック数が一定基準未満の領域は、他方の白抽出ブロック数が一定基準以上の領域のホワイトバランス補正係数を使用しても良い。 Alternatively, when the number of white extraction blocks is less than a certain standard in either one of the strobe irradiation area and the strobe non-irradiation area, the area where the number of white extraction blocks is less than the certain standard has the other white extraction block number. You may use the white balance correction coefficient of the area | region beyond a fixed reference | standard.
ストロボ照射領域及びストロボ非照射領域のいずれも白抽出ブロック数が一定基準未満の場合、画面全体の各ブロックにおけるAWB評価値とAE評価値とに基づき演算することで、ホワイトバランス係数を算出できる。
ホワイトバランス補正係数は、AE評価値が高い領域を重視するような補正係数であることが好ましく、例えば、下記式5に示すように、AWB評価値にAE評価値の重み付けを行うことで算出できる(S10;補正係数算出手段)。
When the number of white extraction blocks is less than a certain standard in both the strobe irradiation area and the strobe non-irradiation area, the white balance coefficient can be calculated by calculating based on the AWB evaluation value and the AE evaluation value in each block of the entire screen.
The white balance correction coefficient is preferably a correction coefficient that places importance on an area where the AE evaluation value is high, and can be calculated, for example, by weighting the AE evaluation value to the AWB evaluation value as shown in Equation 5 below. (S10: correction coefficient calculation means).
図6のようにブロックの中央に位置する画素をブロック中央画素とし領域毎に算出したWB補正係数Rgain、Bgainをそれぞれの領域に対応するブロック中央画素に設定する(S11;ホワイトバランス演算手段)。図6の3はストロボ照射領域で算出したホワイトラバランス補正係数Rgain、Bgainを設定するブロック中央画素、図6の4はストロボ非照射領域に算出したRgain、Bgainを設定するブロック中央画素である。 As shown in FIG. 6, the pixel located at the center of the block is set as the block center pixel, and the WB correction coefficients Rgain and Bgain calculated for each region are set to the block center pixel corresponding to each region (S11; white balance calculating means). 6 in FIG. 6 is a block center pixel for setting white balance correction coefficients Rgain and Bgain calculated in the strobe irradiation area, and 4 in FIG. 6 is a block center pixel for setting Rgain and Bgain calculated in the strobe non-irradiation area.
以降、ブロック毎のWB補正係数の設定方法(図12のS12〜S13)は第1の実施の形態(図3のS8〜S9)と同じである。 Thereafter, the method for setting the WB correction coefficient for each block (S12 to S13 in FIG. 12) is the same as that in the first embodiment (S8 to S9 in FIG. 3).
本実施の形態によれば、ストロボ照射領域とストロボ非照射領域とで照射される光源の色温度が異なる場合でもそれぞれに対して良好なホワイトバランスを掛けることができる。
また、画素間の補正係数にローパスフィルタがかかる為、WB補正係数が異なるそれぞれの領域が存在する画像に於いて、領域の境界で不自然なホワイトバランスが掛かることを回避することができる。
さらに、ストロボ撮影直前のモニタリング画像を利用することで複数枚撮影することなく領域分割することができ、撮影に要する時間を短くすることができる。
また、領域毎にWB補正係数を算出する為、ブロック毎または画素毎に算出する方法に比べWB補正係数の算出に要する計算量を少なくすることができる。
さらに、ブロック内に画素単位でストロボ照射領域とストロボ非照射領域が混在する場合でもブロック内で占める画素単位の領域分割結果の割合に応じて細かくブロック毎の領域分割を行うことができる。
According to this embodiment, even when the color temperatures of the light sources irradiated in the strobe irradiation area and the strobe non-irradiation area are different, a good white balance can be applied to each.
In addition, since a low-pass filter is applied to the correction coefficient between pixels, it is possible to avoid an unnatural white balance being applied at the boundary between areas in an image in which there are areas having different WB correction coefficients.
Further, by using the monitoring image immediately before the flash photography, it is possible to divide the area without taking a plurality of pictures, and to shorten the time required for photography.
In addition, since the WB correction coefficient is calculated for each region, the amount of calculation required for calculating the WB correction coefficient can be reduced as compared with the method of calculating for each block or pixel.
Furthermore, even when a strobe irradiation area and a strobe non-irradiation area are mixed in a block in a block, it is possible to finely divide the area for each block according to the ratio of the area division result for each pixel in the block.
本実施の形態では撮影画像及びモニタリング画像に対して水平16×垂直16のブロックで分割したが任意の分割数で分割しても良い。その場合は領域分割の際、撮影画像とモニタリング画像の同一ブロック毎にストロボ光量からストロボ照射領域かストロボ非照射領域かの判別を行うため撮影画像とモニタリング画像の分割数を合わせる必要がある。 In this embodiment, the captured image and the monitoring image are divided into 16 horizontal 16 × vertical 16 blocks, but may be divided by an arbitrary number of divisions. In that case, when dividing the area, it is necessary to match the number of divisions of the captured image and the monitoring image for each block of the captured image and the monitoring image in order to determine whether it is a stroboscopic irradiation area or a non-stroboscopic irradiation area.
〔第4の実施の形態〕
第3の実施の形態では画素単位でストロボ照射領域とストロボ非照射領域に分割し、更にブロック内のストロボ照射領域の割合に応じてブロック単位に領域を分割した結果それぞれの領域毎にWB補正係数を算出するのに対し、本実施の形態では画素毎にストロボ光量を算出し、更にブロック内のストロボ光量に応じてブロック単位に領域を分割して、ブロック毎にストロボ光量の割合に応じたWB補正係数を算出する。
[Fourth Embodiment]
In the third embodiment, a stroboscopic irradiation area and a non-stroboscopic irradiation area are divided on a pixel basis, and the area is further divided on a block basis in accordance with the ratio of the stroboscopic irradiation area in the block. In the present embodiment, the strobe light amount is calculated for each pixel, the area is further divided into blocks according to the strobe light amount in the block, and the WB corresponding to the strobe light amount ratio for each block is calculated. A correction coefficient is calculated.
図13は本実施例に係るストロボWB補正の一連の処理をフローにしたものである。
最初にストロボ発光による撮影時のRAW−RGBとYUVがSDRAMに格納される(S1)。また、ストロボ発光量は本発光前のプリ発光によって得られた対象物からの反射光をCCDで検出することで調節している。
FIG. 13 is a flowchart showing a series of processing for strobe WB correction according to this embodiment.
First, RAW-RGB and YUV at the time of photographing by strobe light emission are stored in the SDRAM (S1). In addition, the amount of stroboscopic light emission is adjusted by detecting reflected light from the object obtained by pre-emission before the main emission with the CCD.
また、同時に撮影時のAWB評価値、AE制御値(シャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置)が内部のRAMへ格納される(S2)。 At the same time, the AWB evaluation value and the AE control value (shutter speed, aperture value, AGC gain value, ND filter position) at the time of shooting are stored in the internal RAM (S2).
次に、SDRAMから撮影画像を読み出しモニタリング画像と同じサイズになるようリサイズ処理を施したものをリサイズ前の撮影画像とは別のSDRAM領域に保存する(S3)。 Next, the captured image is read out from the SDRAM, and subjected to resizing processing so as to have the same size as the monitoring image is stored in an SDRAM area different from the captured image before resizing (S3).
撮影時と撮影直前のモニタリングのYUVに対してデガンマ処理を行う(S4)。撮影時と撮影直前のモニタリングのYUVはガンマ補正後のデータなので、入力に対して出力が線形で変化しない。通常ガンマは低輝度から中輝度にかけて持ち上げて階調の変化を急にして、高輝度側の階調を緩やかにする特性をもっている。図11にガンマ特性を示す。この特性のため、低輝度側での少しの変化で出力が大きく変わるため撮影画像と撮影直前のモニタリング画像の画素毎の輝度の差分で領域を分割する場合、正確なストロボの影響度を求めることができない。よって、デガンマにて線形な値に戻す処理を行う。撮影時とモニタリング時で使用するガンマテーブルが異なる場合は使用したガンマテーブルに対応するデガンマ処理を行う。 De-gamma processing is performed on YUV during monitoring and immediately before shooting (S4). Since YUV for monitoring at the time of shooting and immediately before shooting is data after gamma correction, the output is linear with respect to the input and does not change. Usually, gamma has a characteristic that it is lifted from low luminance to medium luminance to make the gradation change abrupt and make the gradation on the high luminance side gentle. FIG. 11 shows the gamma characteristic. Because of this characteristic, the output changes greatly with a slight change on the low-brightness side, so when dividing the area by the luminance difference for each pixel of the captured image and the monitoring image immediately before shooting, obtain the exact degree of strobe impact I can't. Therefore, a process of returning to a linear value by degamma is performed. If the gamma table used for shooting is different from that for monitoring, de-gamma processing corresponding to the used gamma table is performed.
次に撮影画像と撮影直前のモニタリング画像の画素単位の輝度情報を算出する(S5)。輝度情報の算出方法を以下に示す。 Next, luminance information in units of pixels of the captured image and the monitoring image immediately before capturing is calculated (S5). The calculation method of luminance information is shown below.
輝度情報=0.299R+0.587G+0.114B Luminance information = 0.299R + 0.587G + 0.114B
次に、撮影直前のモニタリング画像(第1の撮像信号)の露光量と撮影画像の露光量とが同じになるよう露出補正係数(k)をモニタリング画像及び/または撮影画像の各画素の輝度情報に対して設定する(S6;露光補正係数算出手段)。露出補正係数の算出方法は第1の実施の形態と同様である。モニタリング画像はCCDI/Fを通って画像処理された後YUVとして随時SDRAMに上書き保存される。また、撮影直前のモニタリング時のAE制御値(シャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置、画素加算分)は内部のRAMに格納される。 Next, the exposure correction coefficient (k) is set to the luminance information of each pixel of the monitoring image and / or the captured image so that the exposure amount of the monitoring image (first imaging signal) immediately before capturing is the same as the exposure amount of the captured image. (S6; exposure correction coefficient calculation means). The method for calculating the exposure correction coefficient is the same as that in the first embodiment. The monitoring image is subjected to image processing through the CCD I / F and is overwritten and saved in the SDRAM as needed as YUV. Also, the AE control values (shutter speed, aperture value, AGC gain value, ND filter position, pixel addition amount) at the time of monitoring immediately before shooting are stored in the internal RAM.
また、露光量を合わせる際、光量のない画素に露出補正係数を乗算しても変化が無く差分の大きさによって分割する分割方法では分割が難しくなる為、露光量が少ない画像の露光量に合わせるように、露光量の多い画像に露出補正係数(k)を掛けることが好ましい。 Also, when adjusting the exposure amount, there is no change even if the pixel with no light amount is multiplied by the exposure correction coefficient, and the division method that divides according to the size of the difference makes division difficult. As described above, it is preferable to multiply the image having a large exposure amount by the exposure correction coefficient (k).
更に、モニタリング画像と撮影画像とでシェーディング補正パラメータが異なる場合、モニタリング画像と撮影画像のシェーディング補正パラメータの差分を各画素の露出補正係数に対して加味することが好ましい。 Further, when the shading correction parameters are different between the monitoring image and the captured image, it is preferable to add the difference between the shading correction parameters of the monitoring image and the captured image to the exposure correction coefficient of each pixel.
次に、同一画素において、撮影画像の輝度情報とモニタリング画像の輝度情報との減算による画素単位のストロボ光量を算出する(S7)。 Next, in the same pixel, the stroboscopic light amount in units of pixels is calculated by subtracting the luminance information of the captured image and the luminance information of the monitoring image (S7).
さらに、複数画素で構成されるブロック単位で領域を分割する(S8;領域分割手段)。ブロックの分割はAWB評価値、AE評価値を算出するためのRGB積算値を取得する際に設定したものと対応付けされている。
そして、画素単位のストロボ光量を基にブロック単位のストロボ光量を算出する(S9;ストロボ光量算出手段)。
Further, the area is divided into blocks each composed of a plurality of pixels (S8; area dividing means). The division of the block is associated with what is set when the RGB integrated value for calculating the AWB evaluation value and the AE evaluation value is acquired.
Then, the strobe light amount for each block is calculated based on the strobe light amount for each pixel (S9; strobe light amount calculating means).
各ブロックにおける外光量とストロボ光量との割合から、各ブロックのストロボ寄与率を算出する。外光量は露出補正後のモニタリング画像のAE評価値を指す。各ブロックのストロボ寄与率は外光量とストロボ光量とを足したものを100%とした場合のストロボ光量の割合を示す。 The strobe contribution ratio of each block is calculated from the ratio between the external light amount and the strobe light amount in each block. The external light amount indicates the AE evaluation value of the monitoring image after exposure correction. The strobe contribution ratio of each block indicates the ratio of the strobe light amount when the sum of the external light amount and the strobe light amount is taken as 100%.
次に、白抽出を行う(S10;白検出手段)。白抽出は画面全体からブロック単位で取得したAWB評価値に対して、閾値と比較して閾値以下のブロックを白抽出ブロックとして記憶する、若しくは、ストロボ寄与率が一定以下のブロックの中から、閾値と比較して閾値以下のブロックを白抽出ブロックとして記憶する。 Next, white extraction is performed (S10; white detection means). In the white extraction, for the AWB evaluation value acquired in units of blocks from the entire screen, a block equal to or lower than the threshold is stored as a white extraction block compared to the threshold, or a threshold is selected from among the blocks having a strobe contribution ratio equal to or less than a certain value. The block below the threshold value is stored as a white extraction block.
白抽出ブロック数が一定基準以上である場合、各白抽出ブロックにおけるAWB評価値と、AE評価値とに基づき演算することで、第1ホワイトバランス補正係数を算出できる。
第1ホワイトバランス補正係数は、AE評価値が高い領域を重視するような補正係数であることが好ましく、例えば、下記式3に示すように、AWB評価値にAE評価値の重み付けを行うことで算出できる。
When the number of white extraction blocks is equal to or greater than a certain standard, the first white balance correction coefficient can be calculated by calculating based on the AWB evaluation value and the AE evaluation value in each white extraction block.
The first white balance correction coefficient is preferably a correction coefficient that places importance on an area where the AE evaluation value is high. For example, as shown in the following Equation 3, the AWB evaluation value is weighted with the AE evaluation value. It can be calculated.
さらに、ストロボ寄与率に応じて、第1ホワイトバランス係数と、ストロボの影響が100%時に良好なホワイトバランスに補正することができる第2ホワイトバランス係数と、に基づき演算することで、ブロック毎に第3ホワイトバランス補正係数を算出できる。
第3ホワイトバランス補正係数は、ストロボ寄与率が高いブロックが、ストロボ寄与率が低いブロックよりも第2ホワイトバランス係数を重視するような補正係数であることが好ましく、例えば、下記式6に示すように、第1ホワイトバランス係数と、第2ホワイトバランス係数との加重平均でブロック毎に算出できる。
Furthermore, by calculating based on the first white balance coefficient and the second white balance coefficient that can be corrected to a good white balance when the effect of the strobe is 100% according to the strobe contribution rate, A third white balance correction coefficient can be calculated.
The third white balance correction coefficient is preferably a correction coefficient such that a block having a high strobe contribution ratio places more importance on the second white balance coefficient than a block having a low strobe contribution ratio. In addition, a weighted average of the first white balance coefficient and the second white balance coefficient can be calculated for each block.
白抽出ブロック数が一定基準未満である場合、画面全体について各ブロックのAWB評価値とAE評価値とに基づき演算することで、第1ホワイトバランス補正係数を算出できる。
第1ホワイトバランス補正係数は、AE評価値が高い領域を重視するような補正係数であることが好ましく、例えば、下記式4に示すように、AWB評価値にAE評価値の重み付けを行うことで算出できる。
When the number of white extraction blocks is less than a certain standard, the first white balance correction coefficient can be calculated by calculating the entire screen based on the AWB evaluation value and the AE evaluation value of each block.
The first white balance correction coefficient is preferably a correction coefficient that places importance on a region with a high AE evaluation value. For example, as shown in the following Equation 4, the AWB evaluation value is weighted with the AE evaluation value. It can be calculated.
若しくは、撮影直前のモニタリング画像で設定していたホワイトバランス補正係数を、第1ホワイトバランス補正係数とする。 Alternatively, the white balance correction coefficient set in the monitoring image immediately before shooting is set as the first white balance correction coefficient.
さらに、ストロボ寄与率に応じて、第1ホワイトバランス係数と、ストロボの影響が100%時に良好なホワイトバランスに補正することができる第2ホワイトバランス係数と、に基づき演算することで、ブロック毎に第3ホワイトバランス補正係数を算出できる(S6)。
第3ホワイトバランス補正係数は、ストロボ寄与率が高いブロックが、ストロボ寄与率が低いブロックよりも第2ホワイトバランス係数を重視するような補正係数であることが好ましく、例えば、上記式6に示すように、第1ホワイトバランス係数と、第2ホワイトバランス係数との加重平均でブロック毎に算出できる(S11;第1〜3ホワイトバランス補正係数算出手段)。
Furthermore, by calculating based on the first white balance coefficient and the second white balance coefficient that can be corrected to a good white balance when the effect of the strobe is 100% according to the strobe contribution rate, A third white balance correction coefficient can be calculated (S6).
The third white balance correction coefficient is preferably a correction coefficient such that a block having a high strobe contribution ratio places more importance on the second white balance coefficient than a block having a low strobe contribution ratio. In addition, the weighted average of the first white balance coefficient and the second white balance coefficient can be calculated for each block (S11; first to third white balance correction coefficient calculating means).
ここで、第2ホワイトバランス補正係数とは、予めストロボの影響が100%時に良好なホワイトバランスに補正することができる補正係数として所定の値として設定しておいても良いが、ストロボを発光する際の電圧によってストロボ光の色温度の変化が大きい場合には、予め下限電圧で発光した時のWBと上限電圧で発光した時のWBとを内部データとして保持しておき、ストロボ発光時の電圧から線形補間によって第2ホワイトバランス補正係数を算出することが好ましい。 Here, the second white balance correction coefficient may be set in advance as a predetermined value as a correction coefficient that can be corrected to a good white balance when the effect of the strobe is 100%, but the strobe is emitted. If the change in the color temperature of the strobe light is large due to the voltage at the time, the WB when emitting light at the lower limit voltage and the WB when emitting light at the upper limit voltage are held as internal data in advance, and the voltage at the time of strobe emission From this, it is preferable to calculate the second white balance correction coefficient by linear interpolation.
次にSDRAMよりRAW−RGBを読み出し、図6のようにブロックの中央に位置する画素をブロック中央画素としブロック毎に算出した第3ホワイトバランス補正係数Rgain、Bgainを対応するブロックの中央画素に設定する(S12;ホワイトバランス演算手段)。 Next, RAW-RGB is read from the SDRAM, and the third white balance correction coefficients Rgain and Bgain calculated for each block are set as the center pixel of the corresponding block, with the pixel located at the center of the block as the block center pixel as shown in FIG. (S12; white balance calculating means).
以降、ブロック毎のWB補正係数の設定方法(図13のS13〜S14)は第1の実施の形態(図3のS8〜S9)と同じである。 Thereafter, the method for setting the WB correction coefficient for each block (S13 to S14 in FIG. 13) is the same as that in the first embodiment (S8 to S9 in FIG. 3).
本実施の形態によれば、ブロック毎にストロボの影響に応じた細かいWB補正係数を設定することができる。
また、ストロボ照射領域とストロボ非照射領域とで照射される光源の色温度が異なる場合でもそれぞれに対して良好なホワイトバランスを掛けることができる。
さらに、画素間の補正係数にローパスフィルタがかかる為、WB補正係数が異なるそれぞれの領域が存在する画像に於いて、領域の境界で不自然なホワイトバランスが掛かることを回避することができる。
またさらに、ストロボ撮影直前のモニタリング画像を利用することで複数枚撮影することなく領域分割することができ、撮影に要する時間を短くすることができる。
According to the present embodiment, it is possible to set a fine WB correction coefficient corresponding to the influence of the strobe for each block.
Further, even when the color temperature of the light source irradiated in the strobe irradiation area and the strobe non-irradiation area is different, good white balance can be applied to each.
Furthermore, since a low-pass filter is applied to the correction coefficient between pixels, it is possible to avoid an unnatural white balance being applied at the boundary between areas in an image in which there are areas having different WB correction coefficients.
Furthermore, by using the monitoring image immediately before the flash photography, it is possible to divide the area without taking a plurality of pictures, and to shorten the time required for photography.
本実施の形態では撮影画像及びモニタリング画像に対して水平16×垂直16のブロックで分割したが任意の分割数で分割しても良い。 In this embodiment, the captured image and the monitoring image are divided into 16 horizontal 16 × vertical 16 blocks, but may be divided by an arbitrary number of divisions.
〔第5の実施の形態〕
図14は第5の実施の形態に係るストロボWB補正の一連の処理のフローを示す。
最初にストロボ発光での撮影画像(第2の撮像信号)がYCCデータとしてSDRAMに格納される(メモリ格納手段)。この時、撮影画像には直前までモニタリング画像に対して設定されていたWBゲイン、ガンマテーブル、色補正パラメータが適用される(S1)。また、ストロボ発光量は本発光前のプリ発光によって得られた対象物からの反射光をCCDで検出することで調節している。
[Fifth Embodiment]
FIG. 14 shows a flow of a series of processing for strobe WB correction according to the fifth embodiment.
First, a captured image (second imaging signal) by strobe light emission is stored in the SDRAM as YCC data (memory storage means). At this time, the WB gain, gamma table, and color correction parameters set for the monitoring image until immediately before are applied to the captured image (S1). In addition, the amount of stroboscopic light emission is adjusted by detecting reflected light from the object obtained by pre-emission before the main emission with the CCD.
次に、SDRAMから撮影画像を読み出しモニタリング画像と同じサイズになるようリサイズ処理を施したものを、リサイズ前の撮影画像とは別のSDRAM領域に保存する(S2)。 Next, the captured image is read from the SDRAM and subjected to resizing processing so as to have the same size as the monitoring image is stored in an SDRAM area different from the captured image before resizing (S2).
このリサイズ後の撮影画像に対して画像全体を格子状に水平16×垂直16のブロックに分割し(ブロック分割手段)、ブロック毎にY信号の積算値を算出(輝度信号算出手段)する(S3)。 The resized photographed image is divided into a horizontal 16 × vertical 16 block in a grid pattern (block dividing means), and an integrated value of Y signals is calculated for each block (luminance signal calculating means) (S3). ).
さらに、撮影直前のモニタリング画像(第1の撮像信号)に対して撮影画像と同じ露出条件となるよう露出補正係数(k)をモニタリング画像の各画素のY信号に対して設定する(S4)。モニタリング画像はCCDI/Fを通って画像処理された後YCCデータとして、随時SDRAMに上書き保存される(メモリ格納手段)。
露出補正係数(k)は下記式によって算出される。また、撮影時と撮影直前のモニタリング画像のシャッタースピード、絞り値、NDフィルタ位置は同じものとする。
Further, an exposure correction coefficient (k) is set for the Y signal of each pixel of the monitoring image so that the same exposure condition as that of the captured image is set for the monitoring image (first imaging signal) immediately before shooting (S4). The monitoring image is subjected to image processing through the CCD I / F, and is overwritten and saved in the SDRAM as needed as YCC data (memory storage means).
The exposure correction coefficient (k) is calculated by the following formula. The shutter speed, aperture value, and ND filter position of the monitoring image at the time of shooting and immediately before shooting are the same.
k = stillAGC/monAGC k = stillAGC / monAGC
ここで、stillAGCは撮影画像時AGC、monAGCはモニタリング画像時AGCを表す。 Here, the still AGC represents a captured image AGC, and the mon AGC represents a monitoring image AGC.
次に、SDRAMから露出補正後のモニタリング画像を読み出し、モニタリング画像全体を格子状に水平16×垂直16のブロックに分割し(ブロック分割手段)、ブロック毎にY信号の積算値を算出(輝度信号積算手段)する(S5)。 Next, the monitoring image after exposure correction is read out from the SDRAM, and the entire monitoring image is divided into 16 horizontal 16 × vertical 16 blocks (block dividing means), and an integrated value of Y signals is calculated for each block (luminance signal) Integrating means) (S5).
さらに、同一ブロックの撮影画像のY信号積算値から、モニタリング画像のY信号積算値を減算して予め設定されている基準値と比較し、基準値以上のブロックをストロボ照射領域とし、基準値以下のブロックをストロボ非照射領域とする領域分割(ストロボ光量算出手段、領域分割手段)を行う(S6)。 Furthermore, the Y signal integrated value of the monitoring image is subtracted from the Y signal integrated value of the captured image of the same block and compared with a preset reference value. Region division (strobe light amount calculation means, region division means) is performed with the block No. as a non-flash irradiation area (S6).
図5はブロック単位でストロボ照射領域とストロボ非照射領域とで領域分割を行ったものである。図5の1はストロボ照射領域を表し、図5の2はストロボ非照射領域を表す。 FIG. 5 shows an area divided into a strobe irradiation area and a strobe non-irradiation area in block units. 5 in FIG. 5 represents a strobe irradiation region, and 2 in FIG. 5 represents a strobe non-irradiation region.
次に、領域毎にAWB評価値を求める為、それぞれの領域に対応する複数のブロックのRGBを積算する(S7)。 Next, in order to obtain an AWB evaluation value for each area, RGB of a plurality of blocks corresponding to each area are integrated (S7).
さらに、領域毎にそれぞれ白抽出(白検出手段)を行う(S8)。白抽出は領域毎にブロック単位で取得したAWB評価値に対して、閾値と比較して閾値以下のブロックを白抽出ブロックとして記憶する。 Further, white extraction (white detection means) is performed for each region (S8). In the white extraction, a block equal to or lower than the threshold is stored as a white extraction block for the AWB evaluation value acquired in units of blocks for each region.
ここで、それぞれの領域に対して白抽出ブロック数がある一定基準以上である場合は、白抽出ブロックのAWB評価値と当該ブロックの平均輝度値の重み付けによってWB補正係数を算出する。また、一定基準以上でない場合は、領域内の全ブロックのAWB評価値と当該ブロックの平均輝度値の重み付けによってWB補正係数を算出するか、当該領域以外の領域で算出したWB補正係数を当該領域のWB補正係数とする(S9)。ここで、S9は本発明における補正係数算出手段である。 Here, when the number of white extraction blocks is greater than a certain standard for each region, the WB correction coefficient is calculated by weighting the AWB evaluation value of the white extraction block and the average luminance value of the block. In addition, if it is not above a certain standard, the WB correction coefficient is calculated by weighting the AWB evaluation value of all blocks in the area and the average luminance value of the block, or the WB correction coefficient calculated in an area other than the area is (S9). Here, S9 is a correction coefficient calculation means in the present invention.
各領域いずれにも一定基準を満たす白抽出ブロックが存在しない場合、画面全体における各ブロックのAWB評価値と、当該ブロックの平均輝度値の重み付けによってWB補正係数を算出する。 When there is no white extraction block that satisfies a certain standard in any area, the WB correction coefficient is calculated by weighting the AWB evaluation value of each block and the average luminance value of the block over the entire screen.
図6のようにブロックの中央に位置する画素をブロック中央画素とし、領域毎に算出したWB補正係数(第1補正係数)Rgain、Bgainをそれぞれの領域に対応するブロック中央画素に設定する(S10)。図6の領域中心に配置された白丸はストロボ照射領域で算出したWB補正係数Rgain、Bgainを設定するストロボ照射領域ブロック中央画素3、図6の領域中心に配置された黒丸はストロボ非照射領域に算出したRgain、Bgainを設定するストロボ非照射領域ブロック中央画素4である。 As shown in FIG. 6, the pixel located at the center of the block is set as the block center pixel, and the WB correction coefficients (first correction coefficients) R gain and B gain calculated for each area are set to the block center pixels corresponding to the respective areas. (S10). The white circle arranged at the center of the region in FIG. 6 is the WB correction coefficient R gain calculated in the stroboscopic irradiation region, the central pixel 3 of the stroboscopic irradiation region block for setting B gain , and the black circle arranged at the center of the region in FIG. This is the strobe non-irradiation area block center pixel 4 for setting R gain and B gain calculated for the area.
非ブロック中央画素のWB補正係数(第2補正係数)Rgain、Bgainは、当該ブロックのブロック中央画素と周辺のブロック中央画素に設定されているWB補正係数(第1補正係数)と、当該画素からの距離による補間によって求める(S11)。ここで、S10及びS11は本発明におけるホワイトバランス演算手段である。 The WB correction coefficient (second correction coefficient) R gain and B gain of the non-block center pixel are the WB correction coefficient (first correction coefficient) set for the block center pixel and the peripheral block center pixel of the block, It is obtained by interpolation based on the distance from the pixel (S11). Here, S10 and S11 are white balance calculation means in the present invention.
図7に示す補間によるWB補正係数の算出方法の説明図を基に、非ブロック中央画素のWB補正係数算出方法を説明する。補間によるWB補正係数の算出を行うWB補正係数の算出対象を非ブロック中央画素11とし、非ブロック中央画素11の周辺のブロック中央画素を夫々R0、R1、R2、R3とする。R3を1で正規化しWB補正係数の算出対象となる非ブロック中央画素の位置をx、yで表し、以下の式によってWB補正係数を算出する。 Based on the explanatory diagram of the calculation method of the WB correction coefficient by interpolation shown in FIG. 7, the WB correction coefficient calculation method of the non-block center pixel will be described. The calculation target of the WB correction coefficient for calculating the WB correction coefficient by interpolation is the non-block central pixel 11, and the block central pixels around the non-block central pixel 11 are R0, R1, R2, and R3, respectively. R3 is normalized by 1, and the position of the non-block center pixel for which the WB correction coefficient is to be calculated is represented by x and y, and the WB correction coefficient is calculated by the following equation.
Rgain=(1−x)(1−y)R0+x(1−y)R1+(1−x)yR2+xyR3
Bgain=(1−x)(1−y)B0+x(1−y)B1+(1−x)yB2+xyB3
R gain = (1-x) (1-y) R0 + x (1-y) R1 + (1-x) yR2 + xyR3
B gain = (1-x) (1-y) B0 + x (1-y) B1 + (1-x) yB2 + xyB3
図8の12部分の画素のように周辺のブロック中央画素が1つしか存在しない場合は、当該ブロック中央画素のWB補正係数を12部分のWB補正係数(第2補正係数)として設定する。 When there is only one peripheral block center pixel like the 12-part pixel in FIG. 8, the WB correction coefficient of the block center pixel is set as the 12-part WB correction coefficient (second correction coefficient).
図9の13、14、15、16部分の画素のように周辺のブロック中央画素が2つしか存在しない場合は、当該2のブロック中央画素の2つの補正係数と当該画素からの距離による補間によってWB補正係数(第2補正係数)を求める。計算式は以下の式に示す。 When there are only two peripheral block center pixels as in the pixels of the 13, 14, 15, and 16 portions in FIG. 9, the interpolation is based on the two correction coefficients of the two block center pixels and the distance from the pixel. A WB correction coefficient (second correction coefficient) is obtained. The calculation formula is shown in the following formula.
領域13の場合
Rgain=(1−x)R2+xR3
Bgain=(1−x)B2+xB3
In the case of region 13, R gain = (1-x) R2 + xR3
B gain = (1-x) B2 + xB3
領域14の場合
Rgain=(1−x)R0+xR1
Bgain=(1−x)B0+xB1
In the case of region 14, R gain = (1-x) R0 + xR1
B gain = (1-x) B0 + xB1
領域15の場合
Rgain=(1−y)R1+yR3
Bgain=(1−y)B1+yB3
In the case of region 15, R gain = (1-y) R1 + yR3
B gain = (1-y) B1 + yB3
領域16の場合
Rgain=(1−y)R0+yR2
Bgain=(1−y)B0+yB2
In the case of region 16, R gain = (1-y) R0 + yR2
B gain = (1-y) B0 + yB2
画面全体のR、Bデータそれぞれに対して、画素毎に算出したWB補正係数Rgain、Bgainを掛ける(S12)。 The R and B data of the entire screen are multiplied by WB correction coefficients R gain and B gain calculated for each pixel (S12).
(周辺の中央画素)
また、本発明における周辺の中央画素とは、周辺に配置されている中央画素のことを指し、例えば、周辺の中央画素と第2補正係数を取得する画素とを結ぶ線分が、全ての中央画素同士を格子状に結ぶ線分と交差しないような中央画素のことを言う。
但し、中央画素と第2補正係数を取得する画素を結ぶ線分は、1のブロックの対角線の線分の長さ以下である。
(Periphery center pixel)
Further, the peripheral central pixel in the present invention refers to a central pixel arranged in the periphery. For example, a line segment connecting the peripheral central pixel and the pixel for obtaining the second correction coefficient is all center. This is the central pixel that does not intersect the line segment that connects the pixels in a grid pattern.
However, the line segment connecting the center pixel and the pixel for obtaining the second correction coefficient is not longer than the length of the diagonal line segment of one block.
また、周辺の中央画素は、第2補正係数を取得する画素が、全ての中央画素同士を格子状に結ぶ線分のうちのいずれか1の線上に存在する場合は、当該線分及び中央画素同士を結ぶ線分によって構成される四角形のうち、最小の四角形を構成する4の中央画素であることが好ましい。 In addition, if the peripheral center pixel is located on any one of the line segments that connect all the central pixels in a lattice shape, the pixel for acquiring the second correction coefficient is the line segment and the central pixel. Of the quadrangles formed by the line segments that connect each other, it is preferable that the four central pixels form the smallest quadrilateral.
また一方、周辺の中央画素は、第2補正係数を取得する画素が、全ての中央画素同士を格子状に結ぶ線分のうちのいずれか1の線上に存在する場合は、当該線分の両端に配置された2の中央画素であっても良い。 On the other hand, if the peripheral center pixel is located on any one of the line segments that connect all the central pixels in a grid pattern, both ends of the line segment are obtained. It may be two central pixels arranged in the.
本実施の形態によれば、ストロボ照射領域とストロボ非照射領域とで照射される光源の色温度が異なる場合でもそれぞれに対して良好なホワイトバランスを掛けることができる。また、画素間の補正係数にローパスフィルタがかかる為、WB補正係数が異なるそれぞれの領域が存在する画像に於いて、領域の境界で不自然なホワイトバランスが掛かることを回避することができる。 According to this embodiment, even when the color temperatures of the light sources irradiated in the strobe irradiation area and the strobe non-irradiation area are different, a good white balance can be applied to each. In addition, since a low-pass filter is applied to the correction coefficient between pixels, it is possible to avoid an unnatural white balance being applied at the boundary between areas in an image in which there are areas having different WB correction coefficients.
さらに、ストロボ撮影直前のモニタリング画像を利用することで複数枚撮影することなく領域分割することができ、撮影に要する時間を短くすることができる。 Further, by using the monitoring image immediately before the flash photography, it is possible to divide the area without taking a plurality of pictures, and to shorten the time required for photography.
またさらに、領域毎にWB補正係数を算出する為、ブロック毎または画素毎に算出する方法に比べWB補正係数の算出に要する計算量を少なくすることができる。 Furthermore, since the WB correction coefficient is calculated for each region, the amount of calculation required for calculating the WB correction coefficient can be reduced as compared with the method of calculating for each block or pixel.
本実施の形態では、撮影画像及びモニタリング画像に対して水平16×垂直16のブロックで分割したが任意の分割数で分割しても良い。その場合は、領域分割の際に撮影画像とモニタリング画像の同一ブロック毎に、Y信号の積算値からストロボ照射領域か、ストロボ非照射領域かの判別を行うため、撮影画像とモニタリング画像の分割数を合わせる必要がある。 In the present embodiment, the captured image and the monitoring image are divided into horizontal 16 × vertical 16 blocks, but may be divided into any number of divisions. In such a case, the number of divisions of the captured image and the monitoring image is determined for each block of the captured image and the monitoring image at the time of dividing the region, in order to determine whether it is a strobe irradiation region or a strobe non-irradiation region from the integrated value of Y signals. It is necessary to match.
1 ストロボ照射領域
2 ストロボ非照射領域
3 ストロボ照射領域ブロック中央画素
4 ストロボ非照射領域ブロック中央画素
12、13、14、15、16 領域
1 Strobe irradiation area 2 Strobe non-irradiation area 3 Strobe irradiation area block central pixel 4 Strobe non-irradiation area block central pixel 12, 13, 14, 15, 16 area
Claims (9)
前記撮像信号をメモリに格納する撮像手段と、
前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得手段と、を備える撮像装置において、
前記撮像手段は、ストロボ発光なしの撮像信号を第1の撮像信号として前記メモリに格納する第1撮像機能と、
ストロボ発光ありの撮像信号を第2の撮像信号として前記メモリに格納する第2撮像機能と、を有し、
前記第1の撮像信号及び前記第2の撮影信号を複数のブロックに分割するブロック分割手段と、
当該分割されたブロック毎に輝度信号を積算して輝度積算結果を算出する輝度信号積算手段と、
前記第1の撮像信号のブロックの輝度積算結果と、前記第2の撮像信号のブロックの輝度積算結果と、において、同一の位置のブロック同士で夫々演算して算出した算出値と、
予め決められた基準値と、を比較して領域を分割する領域分割手段と、
当該分割された領域毎の前記ホワイトバランス評価値に基づいて領域毎のホワイトバランス用の補正係数を算出する補正係数算出手段と、
当該分割された領域毎にホワイトバランス用の補正係数を設定するホワイトバランス演算手段と、を備え、
前記第1の撮像信号と、前記第2の撮像信号とで露光量が同じになるような露出補正係数を、第1撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置、画素加算分と、第2撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置と、から算出して、前記第1の撮像信号のブロック毎の輝度積算結果及び/または前記第2の撮像信号のブロック毎の輝度積算結果に設定する露出補正係数算出手段を有することを特徴とする撮像装置。 An image sensor that converts light incident from the optical system into an electrical signal and outputs the signal as an image signal;
Imaging means for storing the imaging signal in a memory;
In an imaging apparatus comprising: a white balance evaluation value acquisition unit that extracts a white balance evaluation value from the imaging signal;
The imaging means stores a first imaging function for storing an imaging signal without flash emission in the memory as a first imaging signal;
A second imaging function for storing an imaging signal with strobe light emission in the memory as a second imaging signal;
Block dividing means for dividing the first imaging signal and the second imaging signal into a plurality of blocks;
A luminance signal integrating means for integrating the luminance signal for each of the divided blocks and calculating a luminance integration result;
In the luminance integration result of the block of the first imaging signal and the luminance integration result of the block of the second imaging signal, a calculated value calculated by calculating each of the blocks at the same position,
A region dividing means for dividing the region by comparing with a predetermined reference value;
Correction coefficient calculation means for calculating a correction coefficient for white balance for each area based on the white balance evaluation value for each of the divided areas;
White balance calculation means for setting a correction coefficient for white balance for each of the divided areas ,
The exposure correction coefficient so that the exposure amount is the same between the first image pickup signal and the second image pickup signal is set to a shutter speed, an aperture value, an AGC gain value, and an ND filter at the time of image pickup by the first image pickup function. Calculated from the position, pixel addition, shutter speed, aperture value, AGC gain value, and ND filter position at the time of imaging by the second imaging function, the luminance integration result for each block of the first imaging signal, and An image pickup apparatus comprising: an exposure correction coefficient calculating unit that sets the luminance integration result for each block of the second image pickup signal .
前記補正係数算出手段は、前記白検出手段によって検出された白検出結果と、当該分割された領域毎の前記ホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする請求項1に記載の撮像装置。 White detection means for performing white detection based on the white balance evaluation value and a preset white detection range;
The correction coefficient calculation means calculates a white balance correction coefficient for each area based on the white detection result detected by the white detection means and the white balance evaluation value for each of the divided areas. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
前記撮像信号をメモリに格納する撮像工程と、
前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得工程と、を備える撮像方法において、
前記撮像工程は、ストロボ発光なしの撮像信号を第1の撮像信号として前記メモリに格納する第1撮像工程と、
ストロボ発光ありの撮像信号を第2の撮像信号として前記メモリに格納する第2撮像工程と、を有し、
前記第1の撮像信号及び前記第2の撮影信号を複数のブロックに分割するブロック分割工程と、
当該分割されたブロック毎に輝度信号を積算して輝度積算結果を算出する輝度信号積算工程と、
前記第1の撮像信号のブロックの輝度積算結果と、前記第2の撮像信号のブロックの輝度積算結果と、において、同一の位置のブロック同士で夫々演算して算出した算出値と、
予め決められた基準値と、を比較して領域を分割する領域分割工程と、
当該分割された領域毎の前記ホワイトバランス評価値に基づいて領域毎のホワイトバランス用の補正係数を算出する補正係数算出工程と、
当該分割された領域毎にホワイトバランス用の補正係数を設定するホワイトバランス演算工程と、を備え、
前記第1の撮像信号と、前記第2の撮像信号とで露光量が同じになるような露出補正係数を、第1撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置、画素加算分と、第2撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置と、から算出して、前記第1の撮像信号のブロック毎の輝度積算結果及び/または前記第2の撮像信号のブロック毎の輝度積算結果に設定する露出補正係数算出工程を有することを特徴とする撮像方法。 A photoelectric conversion step of converting light incident from the optical system into an electrical signal by an image sensor and outputting it as an image signal;
An imaging step of storing the imaging signal in a memory;
A white balance evaluation value acquisition step of extracting a white balance evaluation value from the imaging signal, and an imaging method comprising:
The imaging step includes a first imaging step of storing an imaging signal without strobe light emission in the memory as a first imaging signal;
A second imaging step of storing an imaging signal with strobe light emission in the memory as a second imaging signal;
A block dividing step of dividing the first imaging signal and the second imaging signal into a plurality of blocks;
A luminance signal integration step of calculating the luminance integration result by integrating the luminance signal for each of the divided blocks;
In the luminance integration result of the block of the first imaging signal and the luminance integration result of the block of the second imaging signal, a calculated value calculated by calculating each of the blocks at the same position,
A region dividing step of dividing the region by comparing with a predetermined reference value;
A correction coefficient calculating step of calculating a correction coefficient for white balance for each area based on the white balance evaluation value for each of the divided areas;
A white balance calculation step of setting a white balance correction coefficient for each of the divided areas ,
The exposure correction coefficient so that the exposure amount is the same between the first image pickup signal and the second image pickup signal is set to a shutter speed, an aperture value, an AGC gain value, and an ND filter at the time of image pickup by the first image pickup function. Calculated from the position, pixel addition, shutter speed, aperture value, AGC gain value, and ND filter position at the time of imaging by the second imaging function, the luminance integration result for each block of the first imaging signal, and An imaging method comprising: an exposure correction coefficient calculation step for setting a luminance integration result for each block of the second imaging signal .
前記補正係数算出工程は、前記白検出工程によって検出された白検出結果と、当該分割された領域毎の前記ホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする請求項4に記載の撮像方法。 A white detection step of performing white detection based on the white balance evaluation value and a preset white detection range;
The correction coefficient calculating step calculates a white balance correction coefficient for each region based on the white detection result detected by the white detection step and the white balance evaluation value for each of the divided regions. The imaging method according to claim 4 , wherein:
光学系から入射した光を撮像素子で電気信号に変換して撮像信号として出力する光電変換処理と、
前記撮像信号をメモリに格納する撮像処理と、
前記撮像信号からホワイトバランス評価値を抽出するホワイトバランス評価値取得処理と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記撮像処理は、ストロボ発光なしの撮像信号を第1の撮像信号として前記メモリに格納する第1撮像処理と、
ストロボ発光ありの撮像信号を第2の撮像信号として前記メモリに格納する第2撮像処理と、を有し、
前記第1の撮像信号及び前記第2の撮影信号を複数のブロックに分割するブロック分割処理と、
当該分割されたブロック毎に輝度信号を積算して輝度積算結果を算出する輝度信号積算処理と、
前記第1の撮像信号のブロックの輝度積算結果と、前記第2の撮像信号のブロックの輝度積算結果と、において、同一の位置のブロック同士で夫々演算して算出した算出値と、
予め決められた基準値と、を比較して領域を分割する領域分割処理と、
当該分割された領域毎の前記ホワイトバランス評価値に基づいて領域毎のホワイトバランス用の補正係数を算出する補正係数算出処理と、
当該分割された領域毎にホワイトバランス用の補正係数を設定するホワイトバランス演算処理と、を備え、
前記第1の撮像信号と、前記第2の撮像信号とで露光量が同じになるような露出補正係数を、第1撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置、画素加算分と、第2撮像機能による撮像時のシャッタースピード、絞り値、AGCのゲイン値、NDフィルタ位置と、から算出して、前記第1の撮像信号のブロック毎の輝度積算結果及び/または前記第2の撮像信号のブロック毎の輝度積算結果に設定する露出補正係数算出処理を備えることを特徴とするホワイトバランス演算処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 In a computer provided with an apparatus having an image processing function,
Photoelectric conversion processing for converting the light incident from the optical system into an electrical signal by the imaging device and outputting it as an imaging signal;
Imaging processing for storing the imaging signal in a memory;
A white balance evaluation value acquisition process for extracting a white balance evaluation value from the imaging signal, and a computer-readable recording medium storing a program for executing the program,
The imaging process includes a first imaging process for storing an imaging signal without strobe light emission in the memory as a first imaging signal;
A second imaging process of storing an imaging signal with strobe light emission in the memory as a second imaging signal;
Block division processing for dividing the first imaging signal and the second imaging signal into a plurality of blocks;
Luminance signal integration processing for integrating the luminance signal for each of the divided blocks and calculating the luminance integration result;
In the luminance integration result of the block of the first imaging signal and the luminance integration result of the block of the second imaging signal, a calculated value calculated by calculating each of the blocks at the same position,
An area dividing process for dividing the area by comparing with a predetermined reference value;
A correction coefficient calculation process for calculating a correction coefficient for white balance for each area based on the white balance evaluation value for each of the divided areas;
A white balance calculation process for setting a correction coefficient for white balance for each of the divided areas ,
The exposure correction coefficient so that the exposure amount is the same between the first image pickup signal and the second image pickup signal is set to a shutter speed, an aperture value, an AGC gain value, and an ND filter at the time of image pickup by the first image pickup function. Calculated from the position, pixel addition, shutter speed, aperture value, AGC gain value, and ND filter position at the time of imaging by the second imaging function, the luminance integration result for each block of the first imaging signal, and A computer-readable recording medium storing a program for executing a white balance calculation process, comprising: an exposure correction coefficient calculation process set to a luminance integration result for each block of the second imaging signal .
前記補正係数算出処理は、前記白検出処理によって検出された白検出結果と、当該分割された領域毎の前記ホワイトバランス評価値とに基づいて領域毎のホワイトバランス用の補正係数を算出することを特徴とする請求項7に記載のホワイトバランス演算処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 A white detection process for performing white detection based on the white balance evaluation value and a preset white detection range;
The correction coefficient calculation process calculates a white balance correction coefficient for each area based on the white detection result detected by the white detection process and the white balance evaluation value for each of the divided areas. A computer-readable recording medium having recorded thereon a program for executing the white balance calculation process according to claim 7 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008053678A JP5169318B2 (en) | 2007-09-18 | 2008-03-04 | Imaging apparatus and imaging method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007240479 | 2007-09-18 | ||
JP2007240479 | 2007-09-18 | ||
JP2008053678A JP5169318B2 (en) | 2007-09-18 | 2008-03-04 | Imaging apparatus and imaging method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012252080A Division JP5660341B2 (en) | 2007-09-18 | 2012-11-16 | Imaging apparatus and imaging method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009094997A JP2009094997A (en) | 2009-04-30 |
JP5169318B2 true JP5169318B2 (en) | 2013-03-27 |
Family
ID=40666468
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008053678A Active JP5169318B2 (en) | 2007-09-18 | 2008-03-04 | Imaging apparatus and imaging method |
JP2012252080A Active JP5660341B2 (en) | 2007-09-18 | 2012-11-16 | Imaging apparatus and imaging method |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012252080A Active JP5660341B2 (en) | 2007-09-18 | 2012-11-16 | Imaging apparatus and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP5169318B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5187241B2 (en) | 2009-02-16 | 2013-04-24 | 株式会社リコー | Imaging apparatus and imaging method |
JP5566679B2 (en) * | 2009-12-24 | 2014-08-06 | 三星電子株式会社 | Imaging apparatus and imaging method |
JP5566680B2 (en) * | 2009-12-24 | 2014-08-06 | 三星電子株式会社 | Imaging apparatus and imaging method |
JP5458937B2 (en) | 2010-02-17 | 2014-04-02 | 株式会社リコー | IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PROGRAM FOR EXECUTING THE IMAGING METHOD |
JP5665436B2 (en) * | 2010-09-02 | 2015-02-04 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US8773577B2 (en) * | 2010-10-27 | 2014-07-08 | Qualcomm Incorporated | Region of interest extraction |
JP2012134678A (en) * | 2010-12-20 | 2012-07-12 | Samsung Yokohama Research Institute Co Ltd | Imaging apparatus and imaging method |
JP5885416B2 (en) | 2011-07-14 | 2016-03-15 | キヤノン株式会社 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
KR102170686B1 (en) | 2014-03-18 | 2020-10-27 | 한화테크윈 주식회사 | Apparatus and method for interpolating white balance |
JP6274931B2 (en) | 2014-03-19 | 2018-02-07 | オリンパス株式会社 | Multi-area white balance control device, multi-area white balance control method, multi-area white balance control program, computer recording multi-area white balance control program, multi-area white balance image processing device, multi-area white balance image processing method, multi-area White balance image processing program, computer recording multi-area white balance image processing program, and imaging apparatus provided with multi-area white balance image processing device |
JP6021885B2 (en) * | 2014-12-02 | 2016-11-09 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP6953961B2 (en) * | 2017-09-27 | 2021-10-27 | カシオ計算機株式会社 | Image processing equipment, image processing methods and programs |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3569352B2 (en) * | 1994-05-31 | 2004-09-22 | ペンタックス株式会社 | White balance adjustment device |
JP3540485B2 (en) * | 1995-04-13 | 2004-07-07 | 株式会社リコー | Electronic still camera |
JP2000102025A (en) * | 1998-09-25 | 2000-04-07 | Minolta Co Ltd | Digital camera |
JP2002369211A (en) * | 2001-06-08 | 2002-12-20 | Toshiba Corp | Electronic still camera |
JP4163463B2 (en) * | 2001-08-02 | 2008-10-08 | オリンパス株式会社 | Electronic camera |
JP2003259390A (en) * | 2002-03-01 | 2003-09-12 | Canon Inc | White balance correction apparatus, imaging unit provided with the same, control method therefor, program for activating the control method, and storage medium stored with the program |
JP4433883B2 (en) * | 2004-05-31 | 2010-03-17 | カシオ計算機株式会社 | White balance correction device, white balance correction method, program, and electronic camera device |
-
2008
- 2008-03-04 JP JP2008053678A patent/JP5169318B2/en active Active
-
2012
- 2012-11-16 JP JP2012252080A patent/JP5660341B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP5660341B2 (en) | 2015-01-28 |
JP2013034261A (en) | 2013-02-14 |
JP2009094997A (en) | 2009-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5169318B2 (en) | Imaging apparatus and imaging method | |
JP5321163B2 (en) | Imaging apparatus and imaging method | |
KR100819804B1 (en) | Photographing apparatus | |
JP5187241B2 (en) | Imaging apparatus and imaging method | |
JP5347707B2 (en) | Imaging apparatus and imaging method | |
JP5123137B2 (en) | Imaging apparatus and imaging method | |
JP6521776B2 (en) | Image processing apparatus, image processing method | |
KR20110043162A (en) | Method and apparatus for controlling multi-exposure | |
JP2010088113A (en) | Image capturing apparatus and method | |
US8319864B2 (en) | Imaging apparatus and imaging method | |
JP5458937B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PROGRAM FOR EXECUTING THE IMAGING METHOD | |
JP5223686B2 (en) | Imaging apparatus and imaging method | |
JP5256947B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR EXECUTING THE METHOD | |
JP5277863B2 (en) | Imaging apparatus and imaging method | |
JP5146015B2 (en) | Imaging apparatus and imaging method | |
JP5948997B2 (en) | Imaging apparatus and imaging method | |
JP5310331B2 (en) | Imaging apparatus and imaging method | |
JP2010068331A (en) | Imaging device and imaging method | |
JP5123010B2 (en) | Imaging apparatus, imaging method, and program for causing computer included in imaging apparatus to execute imaging method | |
JP5482131B2 (en) | Imaging device | |
JP2010068064A (en) | Imaging device and imaging method | |
JP5091734B2 (en) | Imaging apparatus and imaging method | |
JP5799550B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5807378B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5849532B2 (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100412 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121217 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5169318 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160111 Year of fee payment: 3 |