JP2006229868A - Image processing apparatus and method, and motion detection apparatus and method - Google Patents
Image processing apparatus and method, and motion detection apparatus and method Download PDFInfo
- Publication number
- JP2006229868A JP2006229868A JP2005044458A JP2005044458A JP2006229868A JP 2006229868 A JP2006229868 A JP 2006229868A JP 2005044458 A JP2005044458 A JP 2005044458A JP 2005044458 A JP2005044458 A JP 2005044458A JP 2006229868 A JP2006229868 A JP 2006229868A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- white balance
- exposure condition
- corresponding point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 110
- 238000001514 detection method Methods 0.000 title claims description 60
- 238000012545 processing Methods 0.000 title claims description 47
- 238000000034 method Methods 0.000 title claims description 38
- 238000003384 imaging method Methods 0.000 claims abstract description 26
- 238000003672 processing method Methods 0.000 claims abstract 6
- 230000008569 process Effects 0.000 claims description 17
- 230000015572 biosynthetic process Effects 0.000 claims description 14
- 238000003786 synthesis reaction Methods 0.000 claims description 14
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 description 28
- 238000012937 correction Methods 0.000 description 15
- 239000000203 mixture Substances 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 230000006835 compression Effects 0.000 description 10
- 238000007906 compression Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000003702 image correction Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Color Image Communication Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は画像処理装置及び方法に関し、特に複数の画像を合成する画像処理装置及び方法に関する。 The present invention relates to an image processing apparatus and method, and more particularly to an image processing apparatus and method for combining a plurality of images.
また、本発明は複数の画像を位置合わせするための移動パラメータを求める動き検出装置及び動き検出方法に関する。 The present invention also relates to a motion detection apparatus and a motion detection method for obtaining a movement parameter for aligning a plurality of images.
デジタルスチルカメラによる写真撮影を行う場合、撮影中にカメラや被写体が移動することで、撮影画像にブレが生じることがある。このようなブレを防止するためには、速いシャッター速度で撮影を行うことが望ましい。設定可能な最速のシャッター速度は、被写体の輝度と絞り値、撮像素子の感度との関係から決定される。従って、たとえば被写体の輝度が低い場合、絞り値を開放としても、必要な露光量を得るためにはシャッター速度を遅くしなければならない場合がある。このような場合には、ブレ防止のため、ストロボを用いて撮影する、三脚を用いてカメラを固定する、撮像素子の感度を上げる、というような方策が考えられる。 When taking a picture with a digital still camera, the photographed image may be blurred due to movement of the camera or subject during the taking. In order to prevent such blurring, it is desirable to perform shooting at a high shutter speed. The fastest shutter speed that can be set is determined from the relationship between the brightness of the subject, the aperture value, and the sensitivity of the image sensor. Therefore, for example, when the brightness of the subject is low, the shutter speed may have to be slowed down in order to obtain a necessary exposure amount even if the aperture value is opened. In such a case, in order to prevent blurring, measures such as photographing with a strobe, fixing the camera with a tripod, and increasing the sensitivity of the image sensor can be considered.
しかしながら、撮像素子の感度を上げた場合には、撮影画像中のノイズが目立ってくる。また、ストロボを用いることによる効果は、ストロボ光の届く範囲に限定され、遠距離にある被写体の撮影には対応できない。また、三脚を用いた撮影は機動性に劣り、対応できる状況が限られてしまう。 However, when the sensitivity of the image sensor is increased, noise in the captured image becomes conspicuous. In addition, the effect of using a strobe is limited to the range where the strobe light can reach, and cannot be used for shooting a subject at a long distance. Also, shooting using a tripod is inferior in mobility, and the situation that can be handled is limited.
このような問題点に鑑み、短い撮影間隔で速いシャッター速度で複数の撮影を行い、撮影した複数の画像を合成して実質的に必要な露光量を確保するといった方式が提案されている(特許文献1参照)。 In view of these problems, a method has been proposed in which a plurality of images are taken at a short shutter interval and at a high shutter speed, and a plurality of images thus taken are combined to ensure a substantially necessary exposure amount (patent). Reference 1).
しかしながら、従来の複数画像合成による適正露出画像の取得方式においては、色再現については何ら言及されておらず、既存のデジタルスチルカメラが出力する画像データを単純に合成した場合には不自然な色再現の画像が生成されてしまうといった問題点がある。 However, in the conventional method for acquiring a proper exposure image by combining multiple images, there is no mention of color reproduction, and an unnatural color is obtained when image data output by an existing digital still camera is simply combined. There is a problem that a reproduced image is generated.
また、このような画像合成においては、複数画像間の位置合わせを正確に行わないと合成した画像は手ぶれした画像のようになってしまい画質が著しく低下する。通常、複数の画像間の位置合わせは、画像間の対応付けから最小自乗法を用いて推定したカメラの移動パラメータを用いて行われる。しかし、画像間を対応付けしたデータの中に、対応が正しくないデータや、被写体の一部が移動したことに帰因する、カメラの移動とは関係のないデータが含まれると、カメラの移動パラメータの推定誤差が大きくなり、位置合わせの精度が低下する。 In addition, in such image composition, if the alignment between a plurality of images is not performed accurately, the synthesized image becomes like a blurred image, and the image quality is significantly lowered. Usually, alignment between a plurality of images is performed using camera movement parameters estimated from the association between images using the least square method. However, if the data that correlates images includes data that is not correctly associated, or data that is not related to camera movement due to movement of a part of the subject, camera movement The parameter estimation error increases, and the alignment accuracy decreases.
このような問題点に鑑み、自乗誤差の中央値を最小にする基準によりカメラの移動パラメータの推定を行うLMedS法、ランダムに選択した対応付けから推定した移動パラメータを基に、大きな誤差のあるデータを排除し信頼性の最も高いパラメータを選択するRANSAC法などが提案されている。 In view of these problems, the LMedS method for estimating camera movement parameters based on the criterion for minimizing the median square error, data with large errors based on movement parameters estimated from randomly selected associations The RANSAC method, etc., has been proposed in which parameters with the highest reliability are selected.
しかしながら、LMedS法は、誤差の含まれるデータの割合が小さい場合には収束性が高いものの、誤差の含まれるデータの割合が大きい場合には安定しない。また、RANSAC法においては、誤差の含まれるデータの割合が大きい場合にも安定性がよいものの、再現性を高めるためには膨大な組み合わせにて処理を行う必要があった。 However, the LMedS method has high convergence when the ratio of data including an error is small, but is not stable when the ratio of data including an error is large. In the RANSAC method, stability is good even when the ratio of data containing errors is large, but in order to improve reproducibility, it is necessary to perform processing in enormous combinations.
本発明はこのような従来技術の問題を解決することを目的とする。 An object of the present invention is to solve such problems of the prior art.
上述の目的は、適正露出条件とは異なる露出条件で撮影された、重複部分を有する複数の画像間の動きを検出する動き検出手段と、検出した動きに基づいて、複数の画像を位置合わせして合成する合成手段とを有する画像処理装置であって、複数の画像の各々を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当係数を用いて対象画像の白バランスを調整する白バランス調整手段を有し、白バランス調整手段が、所定の輝度値として、異なる露出条件と適正露出条件との関係に応じて補正した値を用いて光源の色温度を推定し、動き検出手段及び合成手段が、白バランス調整後の画像に対して動きの検出及び合成を行うことを特徴とする画像処理装置によって達成される。 The above-described object is to detect a motion between a plurality of images having overlapping portions, which are photographed under an exposure condition different from the proper exposure condition, and to align the plurality of images based on the detected motion. A white balance adjustment coefficient based on a color temperature of a light source estimated using a pixel having a predetermined luminance value, with each of the plurality of images as a target image. And a white balance adjustment unit that adjusts the white balance of the target image using the coefficient, and the white balance adjustment unit has a predetermined luminance value according to a relationship between different exposure conditions and appropriate exposure conditions. This is achieved by an image processing apparatus characterized in that the color temperature of the light source is estimated using the corrected value, and the motion detection unit and the synthesis unit perform motion detection and synthesis on the image after white balance adjustment. .
また、上述の目的は、適正露出条件とは異なる露出条件で撮影された、重複部分を有する複数の画像間の動きを検出する動き検出手段と、検出した動きに基づいて、複数の画像を位置合わせして合成する合成手段とを有する画像処理装置であって、合成手段により合成された画像を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当係数を用いて対象画像の白バランスを調整する白バランス調整手段を有し、白バランス調整手段が、所定の輝度値として、適正露出条件で撮影された画像に対して用いる輝度値を用いて光源の色温度を推定することを特徴とする画像処理装置によっても達成される。 In addition, the above-described object is to detect a motion between a plurality of images having overlapping portions, which are photographed under an exposure condition different from the proper exposure condition, and position the plurality of images based on the detected motion. An image processing apparatus having a combining unit that combines and combines the white balance based on a color temperature of a light source estimated using a pixel having a predetermined luminance value, with the image combined by the combining unit as a target image A white balance adjusting unit that calculates a coefficient for adjustment and adjusts the white balance of the target image using the coefficient, and the white balance adjusting unit applies a predetermined luminance value to an image shot under appropriate exposure conditions. The image processing apparatus is also characterized in that the color temperature of the light source is estimated using the luminance value used for the light source.
また、上述の目的は、重複部分を有する第1及び第2の画像を位置合わせするための移動パラメータを求める動き検出装置であって、第1の画像と、第2の画像との対応点を検出する対応点検出手段と、対応点の信頼性を判定する判定手段と、判定手段により信頼性が高いと判定された対応点の組み合わせに基づいて移動パラメータを推定する第1の推定手段と、第1の推定手段が推定した移動パラメータの各々について、推定した移動パラメータを用いて推定した対応点との誤差が所定値以下である合格対応点を検出された対応点から検出する合格対応点検出手段と、合格対応点が最大数となる場合の合格対応点を用いて、移動パラメータを推定し、推定結果を最終的な移動パラメータとする第2の推定手段とを有することを特徴とする動き検出装置によっても達成される。 The above-described object is a motion detection device for obtaining a movement parameter for aligning the first and second images having overlapping portions, and corresponding points between the first image and the second image are obtained. Corresponding point detection means to detect; determination means for determining reliability of corresponding points; first estimation means for estimating a movement parameter based on a combination of corresponding points determined to be highly reliable by the determination means; For each of the movement parameters estimated by the first estimation means, a detected corresponding point is detected from the detected corresponding point, with an error corresponding to the corresponding point estimated using the estimated movement parameter being equal to or less than a predetermined value. And a second estimation unit that estimates a movement parameter using the number of acceptable corresponding points when the number of acceptable corresponding points is the maximum and uses the estimation result as a final movement parameter. Also achieved by the detection device.
また、上述の目的は、本発明の動き検出装置を動き検出手段として有する本発明の画像処理装置と、複数の画像を撮影する撮影手段とを有することを特徴とする撮像装置によっても達成される。 The above-described object can also be achieved by an imaging apparatus comprising the image processing apparatus of the present invention having the motion detection apparatus of the present invention as motion detection means, and imaging means for capturing a plurality of images. .
このような構成により、本発明によれば、複数の画像を合成して生成する画像における色再現性を改善することができる。 With such a configuration, according to the present invention, color reproducibility in an image generated by combining a plurality of images can be improved.
また、別の本発明によれば、複数の画像の位置合わせの安定性及び精度を向上することができる。 Further, according to another aspect of the present invention, it is possible to improve the stability and accuracy of alignment of a plurality of images.
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
(第1の実施形態)
図1は本発明の第1の実施形態に係る画像処理装置としてのデジタルスチルカメラ100の構成例を示す図である。
Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
(First embodiment)
FIG. 1 is a diagram showing a configuration example of a
デジタルスチルカメラ100は、脱着可能な記録媒体200(例えば半導体メモリカード、光ディスク等)を利用可能である。撮像ブロック10、画像処理ブロック2、画像メモリ30、画像合成ブロック40、符号化・記録ブロック50を有し、これら各ブロックを制御部60が制御することによりデジタルスチルカメラ100の機能が実現される。
The
撮像ブロック10において、撮像部11は、図示しない撮像レンズ、CCD等の撮像素子、撮像素子の出力信号のゲインを調整するゲイン調整回路、ゲイン調整後の信号をデジタル信号に変換するA/D変換回路より構成される。このように、撮像部11は、撮像素子から読み出したアナログ信号をデジタルデータに変換し、デジタル画像データとして出力する。
In the
露出調整部12は、撮像部11から出力されたデジタル画像データの所定領域の輝度に基づき、所定のプログラム線図に従いシャッター速度と絞り値を決定し、撮像部11の撮像素子の露光時間と撮影レンズの絞りを制御する。
The exposure adjustment unit 12 determines a shutter speed and an aperture value according to a predetermined program diagram based on the luminance of a predetermined area of the digital image data output from the
画像処理ブロック20において、白バランス検出部21は、撮像部11から出力され、一旦画像メモリ30に記憶された画像データから、白バランスの調整を行うためのパラメータ値を出力する。
In the
画素補間部22は、撮像素子の各画素から得られる輝度値と、その周囲の画素の輝度値と、撮像素子に用いられる色フィルタの色配列とから、各画素のRGB値を補間により求め、カラー画像データを出力する。
The
画像補正部23は、画素補間部22が出力するカラー画像データに対し、色再現特性が所望の特性になるように色補正を行う。また、被写体の輪郭部分を強調するエッジ強調処理を行ったり、画像データのRGB各チャンネルについて、所望の階調特性になるようにテーブル参照によってγ補正変換を行う。
The
画像合成ブロック40において、動き検出部41は、画像メモリ30に記憶された複数の画像データ間の動きを検出する。
画像合成部42は、動き検出部41で検出された動きを補正するように複数の画像データの位置合わせを行い、合成する。
符号化・記録ブロック50において、画像圧縮部51は、JPEG方式等の所定の方式により画像メモリ30に記憶された画像データを圧縮する。
In the
The
In the encoding /
記録再生部52は、画像圧縮部51が圧縮した画像データに対し、例えば撮影日時や絞り、シャッタースピード、カメラの機種情報といった所定の付帯情報を追加し、所定の形式に従った画像データファイルを形成する。このような、撮影画像データのファイル形式としては、Exif形式が一般に用いられている。そして、この画像データファイルを記録媒体200に記録したり、すでに記録媒体200に記録された画像データファイルを読み出して、不図示の液晶モニタ等に表示するための画像再生処理等を行う。
The recording /
まず、本実施形態におけるデジタルスチルカメラ100における通常撮影時の動作を図6に従って説明する。
ユーザが被写体を撮影するために不図示のシャッターボタンを半押しすると、制御部60がそれを検出し、撮像部11の出力を用いて露出調整部12により露光時間と撮影レンズの絞り値を決定する。そして、シャッターボタンが全押しされると、決定した露出条件に基づいて撮影を行う。撮像部11からデジタル画像データが出力され、画像メモリ30に記憶される(S101)。
First, the operation at the time of normal shooting in the digital still
When the user half-presses a shutter button (not shown) to photograph the subject, the
白バランス検出部21は撮像部11から出力され、画像メモリ30に記憶された画像データに含まれる所定の基準輝度レベルの画素値に対して統計的な解析を行い、光源の色温度を推定する。そして、推定した光源の色温度に基づいて、画像データから算出された所定の統計量が所定の値(グレー)になるように白バランスの調整を行うための係数を求める(S102)。このとき、デジタルスチルカメラに設定可能な白バランスが複数種ある場合は、各白バランスに応じて統計量の目標値があり、それぞれのモードに最適な係数が求まる。これらの係数はRGB各チャンネルに対して求める。
The white
画素補間部22は白バランス検出部21で求まった係数を用いて、画像メモリ30に記憶された画像データからRGB3チャンネルのカラー画像データを補間する(S103)。
The
本実施形態において、撮像部11に含まれる撮像素子が用いる色フィルタの配列例を図2に示す。図2に示すように各画素位置においては、RGBの内、1つのチャンネルの画素値しか得られないので、フィルタの色と異なるチャンネルの画素値は補間により求める必要がある。このとき、フィルタの色がGの画素位置におけるGチャンネルの値を求める場合には、その位置から得られる輝度値にGチャンネルに対応した係数を積算した値とする。また、その位置におけるRまたはBチャンネルの値を求める場合には、隣接する2つのR又はBフィルタに対応する位置の輝度値に各チャンネルに対応した係数を積算し、平均した値とする。
In the present embodiment, an example of the arrangement of color filters used by the image sensor included in the
また、フィルタの色がRまたはBの画素位置においては、フィルタと同色のチャンネル値を求める場合には、当該位置の輝度値に各チャンネルに対応した係数を積算した値とする。また、フィルタと異なる色のチャンネルの画素値を求める場合には、隣接する4つの画素の輝度値にその画素のフィルタ色(チャンネル)に対応した係数を積算し、平均した値を出力値とする。 Further, in the pixel position where the color of the filter is R or B, when the channel value of the same color as the filter is obtained, the value corresponding to each channel is added to the luminance value at that position. Further, when obtaining pixel values of channels having a color different from that of the filter, the coefficient corresponding to the filter color (channel) of the pixel is added to the luminance values of the four adjacent pixels, and the average value is used as the output value. .
なお、以上の画素の補間方法は一例であって、例えば、フィルタの色がGの画素位置において、RまたはBチャンネルの値を求める場合に、所定の距離離れたR又はB画素の値に各チャンネルに対応した係数を積算し、距離に基づいた重み付きの平均値を出力値としてもよい。 The above-described pixel interpolation method is an example. For example, when the R or B channel value is obtained at the pixel position where the filter color is G, each R or B pixel value separated by a predetermined distance is obtained. The coefficients corresponding to the channels may be integrated, and a weighted average value based on the distance may be used as the output value.
画像補正部23では、画素補間部22の出力であるカラー画像データに対して、色補正、エッジ強調、γ補正を行う(S104)。
まず、マトリクス演算により色補正の処理を行う。色補正処理では主に画像データの色相、彩度の補正を行う。
The
First, color correction processing is performed by matrix calculation. The color correction process mainly corrects the hue and saturation of image data.
次に、エッジ強調処理によって画像の輪郭部分を強調する。まず、画像データにフィルタ処理を施すことにより画像から所定の方向の輪郭部分をそれぞれ抽出する。そして、抽出した輪郭部分に対して、それぞれの方向ごとに最適なエッジ強調フィルタを作用させてエッジ強調を行う。また、このとき輪郭の方向性がなく孤立したノイズ成分に対しては、逆にローパス効果のあるフィルタ処理を行う。 Next, the edge portion of the image is emphasized by edge enhancement processing. First, a contour process in a predetermined direction is extracted from an image by filtering the image data. Then, edge enhancement is performed on the extracted contour portion by applying an optimum edge enhancement filter for each direction. At this time, a filter process having a low-pass effect is performed on an isolated noise component with no contour directionality.
さらに、RGB各チャンネルに対して画像データの階調特性を所望の階調特性になるように調整し、ディスプレイの電圧−輝度特性(γ特性)に合わせるためのγ変換をテーブル参照により行う。 Further, the gradation characteristics of the image data are adjusted so as to obtain a desired gradation characteristic for each of the RGB channels, and γ conversion for matching with the voltage-luminance characteristics (γ characteristics) of the display is performed by referring to the table.
画像補正部23から出力された画像データは一旦、画像メモリ30に記憶される。画像圧縮部51は、予め設定された画質又は圧縮率の設定に応じて、この画像データに圧縮符号化処理を行い、記録再生部52に出力する。記録再生部52は、圧縮された画像データとともに撮影時の情報などを所定の記録フォーマットに従って追加し、画像データファイルとして記録媒体200に記録する(S105)。
The image data output from the
このような通常撮影では、前述したように被写体輝度が暗い場合、露出調整部12により設定されるシャッター速度が遅くなるためブレが生じて画質が劣化する恐れがある。したがって、例えば夜景の撮影のように被写体輝度が著しく暗い場合には、以下に説明する画像合成を用いた撮影処理を行うことが好ましい。 In such normal shooting, when the subject brightness is low as described above, the shutter speed set by the exposure adjustment unit 12 becomes slow, so that there is a risk that the image quality may deteriorate due to blurring. Therefore, for example, when the subject brightness is extremely dark as in night scene shooting, it is preferable to perform shooting processing using image composition described below.
以下、本実施形態のデジタルスチルカメラにおける、画像合成を利用した撮影処理について図7のフローチャートを用いて説明する。なお、図6に基づいて説明した通常撮影と同じ動作を行う処理については簡略して説明する。また、本実施形態では簡単のため同一撮影条件で、重複部分を有する画像を2枚撮影し、これら2枚の画像を合成して1枚の画像を生成する場合について説明する。このような合成撮影は、例えば付図示の撮影モード設定ダイヤルなどにより設定することが可能であり、制御部60は合成撮影モードが設定されている場合に以下の撮影制御を行う。
Hereinafter, photographing processing using image composition in the digital still camera of the present embodiment will be described with reference to the flowchart of FIG. Note that a process for performing the same operation as the normal photographing described with reference to FIG. 6 will be briefly described. Further, in the present embodiment, for simplicity, a case will be described in which two images having overlapping portions are photographed under the same photographing condition, and one image is generated by combining these two images. Such composite shooting can be set, for example, with a shooting mode setting dial (not shown), and the
ユーザが被写体を撮影するために不図示のシャッターボタンを半押しすると、制御部60がそれを検出し、撮像部11の出力を用いて露出調整部12により露光時間と撮影レンズの絞り値を決定する。そして、シャッターボタンが全押しされると、決定した露出条件に基づいて2枚連続して撮影を行う。撮像部11から2枚分のデジタル画像データが出力され、画像メモリ30に記憶される(S201)。このとき、後段の処理で画像が合成されるので、露光時間は通常撮影する場合の1/2の時間が設定される。
When the user half-presses a shutter button (not shown) to photograph the subject, the
そして、白バランス検出部21は撮像部11から出力され、画像メモリ30に記憶された各画像データに対し、通常撮影時と同様の方法を適用し、白バランスの調整を行うための係数を求める(S202)。
Then, the white
ただし、各画像データは後段で2枚合成することを想定して通常の1/2の露光時間で撮影されているので、通常撮影時と同一の基準輝度レベルの画素値に対して統計的な解析を行って光源の色温度を推定した結果から係数を算出すると、適正な白バランス調整が出来ない。これは、通常撮影時と同一の輝度レベルの画素値は、実際には通常撮影時の2倍の輝度レベルの画素値に相当するからである。 However, each image data is taken with a normal exposure time of 1/2 assuming that two images are to be combined in the subsequent stage. If the coefficient is calculated from the result of analyzing and estimating the color temperature of the light source, the appropriate white balance cannot be adjusted. This is because a pixel value having the same luminance level as that in normal photographing actually corresponds to a pixel value having a luminance level twice that in normal photographing.
さらに、後段の画像補正処理(色補正と階調補正)では、最適に露出調整され、所定輝度レベルを基準に白バランスが補正された画像が入力されるものとして処理パラメータが最適化されている。そのため、白バランス調整用の係数を算出するための基準輝度レベルがずれた場合、結果として得られる画像の色再現が不自然になることが懸念される。 Further, in the subsequent image correction processing (color correction and gradation correction), the processing parameters are optimized on the assumption that an image whose exposure is optimally adjusted and the white balance is corrected based on a predetermined luminance level is input. . Therefore, when the reference luminance level for calculating the coefficient for white balance adjustment is shifted, there is a concern that the color reproduction of the resulting image becomes unnatural.
これが、画像データを単純に合成する従来の合成撮影処理で得られる画像の色再現性が不自然となる原因である。また、白バランスを検出する基準となる輝度レベルが通常撮影時と合成撮影時とで異なっていると、同じ被写体を撮影した場合でも、通常撮影時と合成撮影時とで色再現が異なってしまう。 This is the reason why the color reproducibility of an image obtained by a conventional composite photographing process that simply combines image data becomes unnatural. Also, if the brightness level that is the standard for detecting white balance differs between normal shooting and composite shooting, even if the same subject is shot, color reproduction differs between normal shooting and composite shooting. .
このような問題に鑑み、本実施形態では、予め後段で2枚の画像が合成されることを考慮し、2枚の画像を合成する合成撮影時には、通常撮影で白バランスを行う際の基準となる輝度レベルの1/2の輝度レベルを基準として白バランスの調整を行うための係数を求める。 In view of such a problem, in the present embodiment, considering that two images are combined in advance in the subsequent stage, at the time of composite shooting in which two images are combined, a reference for white balance in normal shooting is used. A coefficient for adjusting the white balance is obtained with reference to a luminance level ½ of the luminance level.
次に、画素補間部22は白バランス検出部21で求まった係数を用い、画像メモリ30に記憶された2枚の画像データの白バランスを調整した後、補間によりRGB3チャンネルのカラー画像データを生成する(S203)。そして、生成された2枚のカラー画像データを一旦、画像メモリ30に記憶する。
Next, the
動き検出部41は、まず、画像メモリ30に記憶された2枚の画像データから部分領域ごとに位置ずれ量を対応点ベクトルとして検出する。そして検出された位置ずれ量をもとにカメラの移動パラメータを推定し、出力する(S204)。動き検出部41の構成及び動作については、後で詳細に説明する。
First, the
次に、画像合成部42は、画像メモリ30に記憶されている2つの画像データを、動き検出部41で推定したカメラの移動パラメータを用いて合成する(S205)。
Next, the
本実施形態では、第1の画像データの各画素に対応する第2の画像データ中の画素位置を求め、対応する2つの画素を合成して合成画像の画素値とする。 In the present embodiment, the pixel position in the second image data corresponding to each pixel of the first image data is obtained, and the corresponding two pixels are synthesized to obtain the pixel value of the synthesized image.
まず、第1の画像データの各画素に対する第2の画像データ中の画素位置を動き検出部41で推定したカメラの移動パラメータを用いて算出する。すなわち、(式1)において第1の画像データの各画素の座標を(x,y)としたとき、対応する第2の画像データ中の画素位置を(x’,y’)として求める。そして、第1の画像データの画素位置(x,y)の画素値および第2の画像データの画素位置(x’,y’)の画素値を画像メモリ30から読み込み、2つの画素値を加算して合成画像における画素値とし、合成画像の画素値として画像メモリ30に記憶する。以上の処理を第1の画像データの全画素位置について繰り返し、合成画像データを得る。
First, the pixel position in the second image data for each pixel of the first image data is calculated using the camera movement parameter estimated by the
なお、以上の処理で画素値とはRGB値を表すものとする。また、(式1)で算出した画素位置(x’、y’)が画像領域範囲外である第1の画像データの画素については、画素値を2倍した値を合成画像の画素値とする。 In the above processing, the pixel value represents an RGB value. Further, for the pixel of the first image data in which the pixel position (x ′, y ′) calculated by (Expression 1) is outside the image area range, a value obtained by doubling the pixel value is used as the pixel value of the composite image. .
次に、画像補正部23では、画像合成部42で合成され、画像メモリ30に記憶された合成画像データに対して、通常撮影時と同様にして色補正、エッジ強調処理、γ変換を行う(S206)。
Next, the
画像補正部23から出力された画像データは一旦、画像メモリ30に記憶される。そして、設定に基づいて画像圧縮部51により圧縮され、記録再生部52に出力される。記録再生部52は、圧縮された画像データとともに撮影時の情報等を所定の画像フォーマットに従って追加し、記録媒体200に記録する(S207)。
The image data output from the
次に、図9及び図10に従って動き検出手段41の動作を詳細に説明する。なお、図9は動き検出手段41の構成例を示すブロック図、図10は動き検出処理を説明するフローチャートである。
まず、対応点検出部411は、画像メモリ30に記憶された2枚の画像データから部分領域ごとに位置ずれ量を対応点ベクトルとして検出する(S401)。
Next, the operation of the motion detection means 41 will be described in detail with reference to FIGS. FIG. 9 is a block diagram showing a configuration example of the motion detection means 41, and FIG. 10 is a flowchart for explaining the motion detection processing.
First, the corresponding
図3の(a)、(b)に画像メモリ30に記憶された第1の画像データ、第2の画像データの例を示す。
以下、本実施形態ではテンプレートマッチングを用いて重複部分を有する2枚の画像の対応点検出を行う場合の動作について説明する。テンプレートマッチングは基本的に複数の画像において最も相関の高い部分同士を対応付ける方法である。本実施形態ではまず、第1の画像データおよび第2の画像データのRGB値を輝度値に変換する。RGB値の輝度値への変換には、例えば、各画素を構成するRGB値の平均値を擬似的な輝度値として出力する方法を用いる。
3A and 3B show examples of the first image data and the second image data stored in the
Hereinafter, in the present embodiment, an operation in a case where corresponding points of two images having overlapping portions are detected using template matching will be described. Template matching is basically a method of associating portions having the highest correlation among a plurality of images. In the present embodiment, first, the RGB values of the first image data and the second image data are converted into luminance values. For the conversion of RGB values into luminance values, for example, a method of outputting an average value of RGB values constituting each pixel as a pseudo luminance value is used.
次に、輝度値に変換された第1の画像から所定の領域をテンプレート切り出す。例えば、図4のように第1の画像データを分割した小領域tをテンプレートとして切り出す。次に、切り出した全テンプレートについて第2の画像中から対応点を抽出する。 Next, a predetermined region is cut out from the first image converted into the luminance value. For example, as shown in FIG. 4, a small area t obtained by dividing the first image data is cut out as a template. Next, corresponding points are extracted from the second image for all cut out templates.
まず、切り出したテンプレートに対応する点を探索するための領域を第2の画像に設定する。この探索領域は、カメラの撮影条件である焦点距離、露光時間にブレ量が依存することから、焦点距離、露光時間に応じて設定する。図5は、第1の画像の領域tをテンプレートとした場合の探索領域Sの例を示している。この探索領域S内でテンプレートを平行にずらしていき、第1の画像(テンプレート)と、対応する第2の画像の領域の各画素について、輝度値の差分が計算される。そして、差の絶対値の総和が最小となる位置を対応点位置とする。 First, an area for searching for a point corresponding to the cut out template is set in the second image. This search area is set according to the focal length and the exposure time because the blur amount depends on the focal length and the exposure time which are the photographing conditions of the camera. FIG. 5 shows an example of the search area S when the area t of the first image is used as a template. The template is shifted in parallel within the search region S, and a difference in luminance value is calculated for each pixel in the first image (template) and the corresponding second image region. The position where the sum of the absolute values of the differences is the minimum is taken as the corresponding point position.
対応点位置が求まったら、その信頼性の判定を行う。信頼性の判定は対応点における、テンプレートとテンプレートに対応する第2の画像の領域との相関を表す値に基づいて行うことができる。例えば輝度差分絶対値の総和の最小値が第1の所定の閾値以下であり、かつ輝度差分絶対値の総和の最小値と2番目に小さい値との差が第2の所定の閾値以上である場合に、対応点に信頼性があると判定する。そして、信頼性があると判定された対応点の第1および第2の画像中の座標を対応点記憶部412に格納しておく。また、同時に対応点の信頼性の指標として差の絶対値の総和の最小値を対応点記憶部412に記憶しておく。
When the corresponding point position is obtained, the reliability is determined. The determination of reliability can be performed based on a value representing a correlation between a template and a region of the second image corresponding to the template at the corresponding point. For example, the minimum value of the sum total of the luminance difference absolute values is less than or equal to the first predetermined threshold value, and the difference between the minimum value of the sum total of the brightness difference absolute values and the second smallest value is greater than or equal to the second predetermined threshold value. In this case, it is determined that the corresponding point is reliable. Then, the coordinates in the first and second images of the corresponding points determined to be reliable are stored in the corresponding
なお、ここでは、輝度値の差の絶対値の総和が最小となる位置を対応点位置としたが、例えば相関演算を行って、相関値が最大となる位置を対応点位置としてもよい。また、輝度値に対する相関に基づいて対応点抽出を行ったが、輝度の微分値を用いてもよい。また、テンプレートマッチングを用いて対応点抽出を行ったが、それぞれの画像中から特徴点を抽出し、特徴量の相関に基づいて対応点抽出を行ってもよい。 Here, the position where the sum of the absolute values of the luminance value differences is the minimum is set as the corresponding point position. However, for example, the position where the correlation value is maximized by performing the correlation calculation may be set as the corresponding point position. Further, the corresponding points are extracted based on the correlation with the luminance value, but a luminance differential value may be used. Although the corresponding points are extracted using template matching, feature points may be extracted from each image, and the corresponding points may be extracted based on the correlation between the feature amounts.
次に、各部分領域の位置ずれ量である対応点ベクトルから、カメラの移動パラメータを推定する。カメラの移動パラメータは、合成時の座標変換に用いる。 Next, the movement parameter of the camera is estimated from the corresponding point vector that is the positional deviation amount of each partial region. The camera movement parameter is used for coordinate conversion during synthesis.
第1の画像に対して第2の画像の幾何的位置関係を以下の(式1)のように定式化する。この関係は2つの画像が平行移動、面内回転、変形の関係にあるとの想定に基づく。(式1)は、第1の画像中の点(x,y)が座標変換行列により、第2の画像中の点(x’,y’)に移動することを表している。 The geometric positional relationship of the second image with respect to the first image is formulated as (Equation 1) below. This relationship is based on the assumption that the two images are in a relationship of translation, in-plane rotation, and deformation. (Expression 1) represents that the point (x, y) in the first image moves to the point (x ′, y ′) in the second image by the coordinate transformation matrix.
そして、(式1)の座標変換行列要素であるカメラの移動パラメータa11,a12,...,a32を、抽出された対応点の組から求める。(式1)に基づくカメラの移動パラメータ算出には最低3組の対応点が必要である。 The camera movement parameters a11, a12,... Which are the coordinate transformation matrix elements of (Equation 1). . . , A32 are obtained from the set of extracted corresponding points. The camera movement parameter calculation based on (Equation 1) requires at least three sets of corresponding points.
そのため、まず、対応点選択部413において、対応点記憶部412に記憶された複数の対応点の組の中から、差の絶対値の総和が所定の閾値よりも小さい、すなわち信頼性の高い対応点を3組選択する(S402)。
Therefore, first, in the corresponding
次に、パラメータ算出部414において、選択された3組の対応点の座標からカメラの移動パラメータを算出する。すなわち、カメラの移動パラメータa11,a12,...,a32を、3組の第1の画像中の点(x,y)および第2の画像中の点(x’,y’)から算出する(S403)。
Next, the
次に、合格判定部415において、パラメータ算出部414で求めたカメラ移動パラメータを用いて推定した対応点と、対応点記憶部412に記憶された実際に検出された対応点との誤差を求め、その誤差量をもとに合格判定を行う。この処理を対応点記憶部412に記憶された全ての対応点の組について行い、合格となる対応点(合格対応点)の数をカウントする(S404)。
Next, in the
合格判定部415における、各対応点の誤差算出処理の詳細を以下に説明する。
Details of the error calculation process for each corresponding point in the
まず、記憶された全ての対応点について、第1の画像中の点(x,y)とパラメータ算出部414で求めたパラメータとから、第2の画像中の点の推定値(x”,y”)を(式2)のように求める。
First, for all the corresponding points stored, the estimated value (x ″, y) of the point in the second image from the point (x, y) in the first image and the parameter obtained by the
そして、求めた推定値(x”,y”)と、実際に検出されている第2の画像中の点(x’,y’)との距離の自乗を誤差量として評価する。 Then, the square of the distance between the obtained estimated value (x ″, y ″) and the actually detected point (x ′, y ′) in the second image is evaluated as an error amount.
そして、求めた誤差量が所定の閾値以下である第2の画像中の点を含む対応点を合格対応点としてカウントする。なお、このときカウントした合格対応点と、対応点記憶部412中の合格対応点を示す全ポインタを合格対応点記憶部416に記憶しておく。
Then, the corresponding points including the points in the second image in which the obtained error amount is equal to or less than the predetermined threshold value are counted as acceptable corresponding points. It should be noted that the pass corresponding points counted at this time and all pointers indicating the pass corresponding points in the corresponding
以上のS402からS404の処理を信頼性の高い3つの対応点の全ての組について繰り返す。すなわち、S402において対応点記憶部412に記憶された複数の対応点の組の中から所定の閾値よりも小さい対応点の別の3組を選択し、S403においてパラメータを算出し、S404において合格対応点の数をカウントする。そして、カウントした合格対応点数が合格対応点記憶部416に既に記憶されている合格対応点数よりも多い場合には、新たにカウントした合格対応点数と対応点記憶部412中の合格対応点を示す全ポインタを合格対応点記憶部416に記憶するように更新する。
The processes from S402 to S404 are repeated for all pairs of three corresponding points with high reliability. That is, another three pairs of corresponding points that are smaller than a predetermined threshold are selected from a plurality of corresponding point groups stored in the corresponding
なお、信頼性の高い3つの対応点の全組み合わせについて処理を行う場合、信頼性の高い対応点の数が多いと膨大な組み合わせ量になるので、あらかじめ望ましい組み合わせ数になるように対応点の信頼性を判定する閾値を制御することが好ましい。 When processing is performed for all combinations of three corresponding points with high reliability, a large number of corresponding points with high reliability results in a huge amount of combinations. It is preferable to control a threshold value for determining sex.
このように、信頼性の高い3つの対応点の全組み合わせについてS402からS404の処理を行うと、合格対応点記憶部416に記憶されたポインタが示す合格対応点の数は、処理終了時に最も多くなる。 As described above, when the processing from S402 to S404 is performed for all combinations of three corresponding points with high reliability, the number of acceptable points indicated by the pointer stored in the acceptable corresponding point storage unit 416 is the largest at the end of the process. Become.
そして、最も多い合格対応点の組をもとにパラメータ算出部414で最終的なカメラ移動パラメータの推定を行う(S405)。すなわち、合格対応点記憶部416に記憶された、合格対応点を示すポインタを参照して、対応点記憶部412に記憶された対応点のうち合格対応点のデータを読み込む。そして、全合格対応点の、第1の画像中の点(x,y)と対応する第2の画像中の点(x’,y’)の組について(式1)の関係が成立するよう、最小自乗法を用いてカメラの移動パラメータa11,a12,...,a32を推定する。なお、全合格対応点からのカメラ移動パラメータ推定には、最小自乗法の代わりにLMedS法を用いることもできる。
Then, the final camera movement parameter is estimated by the
以上説明したように、本実施形態では画像合成を行う前の画像データに対して、予め合成による輝度レベルの変化を予測して最適な露光条件下と略同一の白バランス補正を行うようにした。これにより、合成撮影時においても、不自然な色再現の画像が生成されてしまうことなく、通常撮影時と同等の色再現性を有する画像を取得することができる。 As described above, in this embodiment, a change in luminance level due to composition is predicted in advance for image data before image composition, and white balance correction is performed in substantially the same manner as under optimal exposure conditions. . As a result, an image having color reproducibility equivalent to that during normal photographing can be acquired without generating an unnatural color reproduction image even during composite photographing.
なお、本実施形態では、白バランス検出を行うに際し、通常撮影で白バランスを行う際の基準となる輝度レベルの1/2の輝度レベルを基準としたが、白バランスを行う際の基準となる輝度レベルはそのままで、入力画像データの輝度レベルを2倍に補正して白バランス検出を行うようにしても同等の効果が得られることはいうまでもない。 In the present embodiment, when white balance detection is performed, a luminance level that is ½ of a luminance level that is a reference for white balance in normal shooting is used as a reference, but it is a reference for performing white balance. It goes without saying that the same effect can be obtained even if the white balance detection is performed by correcting the luminance level of the input image data by a factor of two while maintaining the luminance level.
また、本実施形態では2枚の画像を合成して1枚の画像を生成する場合について説明したが、より多くの画像から1枚の画像を合成してもよい。例えば、n(n≧3)枚の画像を合成する場合には、通常撮影時の1/nの露光時間で撮影し、白バランス補正用の係数を求める際に基準とする輝度レベルを通常撮影時の1/nとすればよい。 In the present embodiment, the case where one image is generated by combining two images has been described. However, one image may be combined from a larger number of images. For example, when combining n (n ≧ 3) images, shooting is performed with an exposure time of 1 / n in normal shooting, and a normal brightness level is used as a reference when obtaining a white balance correction coefficient. It may be 1 / n of the hour.
また、本実施形態では複数画像間の対応点のうち、信頼性の高い対応点の複数の組み合わせに基づいて複数のカメラ移動パラメータ候補を推定したのち、複数のカメラ移動パラメータ候補の各々について、実際に検出された対応点の最大数と対応がとれているもの(誤差の少ない)を探索する。そして、探索されたカメラ移動パラメータ候補に適合した対応点(合格対応点)から再度最適なカメラ移動パラメータを推定する。これにより、安定性が高く、かつ精度のよいカメラ移動パラメータを推定することができ、結果として複数の画像の位置合わせ精度が向上する。 Further, in the present embodiment, after estimating a plurality of camera movement parameter candidates based on a plurality of combinations of highly reliable corresponding points among the corresponding points between a plurality of images, each of the plurality of camera movement parameter candidates is actually A search is made for the one that corresponds to the maximum number of corresponding points detected in (1). Then, the optimum camera movement parameter is estimated again from the corresponding point (passed corresponding point) that matches the searched camera movement parameter candidate. Thereby, it is possible to estimate the camera movement parameter with high stability and accuracy, and as a result, the alignment accuracy of a plurality of images is improved.
従って、合成撮影により得られる画像のブレが抑制されて品質が向上するほか、パノラマ画像の生成などの画像合成処理における位置合わせや、ノイズ除去、異なる露光条件で撮影した画像の合成によるダイナミックレンジ拡大処理に対しても適用できることはいうまでもない。 Therefore, blurring of images obtained by composite shooting is suppressed and quality is improved, and dynamic range expansion is achieved by positioning in image composition processing such as panoramic image generation, noise removal, and composition of images shot under different exposure conditions Needless to say, it can also be applied to processing.
なお、本実施形態では(式1)で表現されるカメラ移動パラメータの推定を行う場合について説明したが、カメラの三次元的な移動を表すF行列(Fundamental Matrix)の推定を行う場合についても本発明は適用できる。 In this embodiment, the case of estimating the camera movement parameter expressed by (Equation 1) has been described, but the case of estimating the F matrix (Fundamental Matrix) representing the three-dimensional movement of the camera is also described. The invention is applicable.
(第2の実施形態)
以下、本発明の第2の実施形態について説明する。なお、本実施形態の構成は第1の実施形態の構成と略同等であるため、撮影した画像を合成して記録する合成撮影時の動作についてのみ説明する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. Since the configuration of the present embodiment is substantially the same as the configuration of the first embodiment, only the operation at the time of composite shooting that combines and records captured images will be described.
図8は、本実施形態のデジタルスチルカメラにおける合成撮影時の動作を説明するフローチャートである。なお、本実施形態において、各部での詳細の動作は特に説明しない限り第1の実施形態で説明した動作に準ずる。また、本実施形態でも、2枚の画像を合成する場合について説明する。 FIG. 8 is a flowchart for explaining the operation at the time of composite shooting in the digital still camera of the present embodiment. In the present embodiment, detailed operations in each unit are the same as those described in the first embodiment unless otherwise specified. Also in this embodiment, a case where two images are combined will be described.
まず、S301では、第1の実施形態のS201と同様にして、通常撮影時の1/2の露光時間で2枚の画像を撮影する。 First, in S301, two images are taken with an exposure time ½ that of normal shooting, as in S201 of the first embodiment.
次に、動き検出部41は、まず、画像メモリ30に記憶された2枚の画像データから部分領域ごとに位置ずれ量を対応点ベクトルとして検出する。そして検出された位置ずれ量をもとにカメラの移動パラメータを推定し、出力する(S302)。なお、本実施形態では画素補間処理前に動き検出を行っているため、動き検出部41が用いる画像データは各画素がRGB値を持つカラー画像データではなく、各画素が色フィルタ配列に従った1つの色チャンネルの輝度値を有する画像データである。しかし、本実施形態では、このような各画素値をそのまま利用し、第1の実施形態に示した対応点抽出の方法に準じてテンプレートマッチングにより対応点ベクトルを得る。
Next, the
次に、画像合成部42は、画像メモリ30に記憶されている2つの画像データを動き検出部41で推定したカメラの移動パラメータを用いて合成する(S303)。画像合成処理についても、動き検出処理と同様、入力画像はカラー画像データではないが、第1の実施形態に示した画像合成の方法に準じて、対応する2つの画素を合成して合成画像の画素値とする。
Next, the
そして白バランス検出部21は、画像メモリ30に記憶された合成画像データの所定の輝度レベルの画素値に対して統計的な解析を行って光源の色温度を推定する。そして、画像データから算出された所定の統計量が所定の値(グレー)になるように白バランスの調整を行うための係数を求める(S304)。このとき、合成画像データは既に画像合成部42による合成処理により、通常撮影を行った場合と同等の明るさとなっているので、通常撮影時と同一の輝度レベルの画素値を基準とした統計的な解析により、光源の色温度を推定することができる。
The white
次に、画素補間部22は白バランス検出部21で求まった係数を用いて、画像メモリ30に記憶された合成画像データに補間処理を行い、各画素がRGB3チャンネルの値を有するカラー合成画像データを生成する(S305)。そして、生成されたカラー合成画像データは一旦、画像メモリ30に記憶される。
Next, the
次に、画像補正部23では、画像メモリ30に記憶されたカラー合成画像データに対して、色補正、エッジ強調処理、γ変換を行う(S306)。
Next, the
画像補正部23から出力されたカラー合成画像データは一旦、画像メモリ30に記憶される。そして、設定に応じた画質又は圧縮率で画像圧縮部51により圧縮され、記録再生部52に出力される。記録再生部52は、圧縮された画像データとともに撮影時の情報等を所定の画像フォーマットに従って追加し、記録媒体200に記録する(S307)。
The color composite image data output from the
以上説明したように、本実施形態によれば、画像合成後の画像データから白バランス補正用の係数を算出するようにしたので、第1の実施形態の効果に加え、通常撮影時と同じ処理を適用して係数を算出することができる。 As described above, according to the present embodiment, since the white balance correction coefficient is calculated from the image data after the image synthesis, in addition to the effects of the first embodiment, the same processing as in normal shooting is performed. Can be applied to calculate the coefficient.
なお、本実施形態においても、第1の実施形態と同様、3枚以上の画像を合成するように構成することができる。 Note that in this embodiment as well, as in the first embodiment, three or more images can be combined.
(第3の実施形態)
第1及び第2の実施形態での合成撮影は、同一露光条件で撮影した複数の画像を合成するものであった。しかし、異なる露光条件で撮影した複数の画像を合成する合成撮影処理に対しても本発明は適用可能である。
(Third embodiment)
The composite shooting in the first and second embodiments is to combine a plurality of images shot under the same exposure conditions. However, the present invention can also be applied to a composite photographing process that combines a plurality of images photographed under different exposure conditions.
すなわち、CMOSセンサやCCDセンサなどの撮像素子は、銀塩フィルムと比べてダイナミックレンジが狭く、逆光時などには白とびや黒つぶれが発生する。このような問題を解決するため、異なる露光条件にて連続撮像した複数の画像を合成し、実質的にダイナミックレンジが広い画像を実現する方法が提案されている(特許第3110797号)。 That is, an imaging device such as a CMOS sensor or a CCD sensor has a narrow dynamic range as compared with a silver salt film, and overexposure and underexposure occur during backlighting. In order to solve such a problem, a method has been proposed in which a plurality of images continuously captured under different exposure conditions are combined to realize an image having a substantially wide dynamic range (Japanese Patent No. 3110797).
以下、このような合成撮影方法に対して本発明を適用した例として、最適露光条件に対して1/2および2倍の露光量の、2枚の画像を合成する場合について説明する。 Hereinafter, as an example in which the present invention is applied to such a composite photographing method, a case where two images having exposure amounts of 1/2 and 2 times the optimum exposure conditions are combined will be described.
なお、本実施形態のデジタルスチルカメラの基本的な構成と、合成撮影時の動作の流れは第1の実施形態と略同等でよいため、以下本実施形態のデジタルスチルカメラにおける合成撮影時の処理を図7のフローチャートを再度用いて説明する。 Since the basic configuration of the digital still camera of this embodiment and the flow of operations during composite shooting may be substantially the same as those in the first embodiment, the processing during composite shooting in the digital still camera of this embodiment will be described below. Will be described using the flowchart of FIG. 7 again.
まず、S201で、2枚の画像を連続撮影する。ただし、本実施形態では、夫々の画像の露光時間は通常撮影の場合に比べ、1/2(短時間露光画像)および2倍(長時間露光画像)の時間が設定される。 First, in S201, two images are continuously captured. However, in the present embodiment, the exposure time of each image is set to 1/2 (short-time exposure image) and twice (long-time exposure image) compared to the case of normal shooting.
そして白バランス検出部21は画像メモリ30に記憶された各画像データから、第1の実施形態と同様にして白バランスの調整を行うための係数を求める(S202)。ただし、本実施形態では、光源の色温度推定に用いる画素の基準輝度レベルを、短時間露光画像では通常撮影の2倍の輝度レベルに、長時間露光画像では通常撮影の1/2倍の輝度レベルとして、白バランスの調整を行うための係数を求める。
Then, the white
次に、画素補間部22により、白バランス検出部21で求まった係数を用い、画像メモリ30に記憶された画像データを補間し、RGB3チャンネルのカラー画像データを生成する(S203)。そして、補間された2枚のカラー画像データは一旦、画像メモリ30に記憶される。
Next, the
そして、動き検出部41により、第1の実施形態と同様にしてカメラの移動パラメータを推定し、出力する(S204)。なお、本実施形態での2つの入力画像は露光量が異なるので、被写体輝度が同じであっても輝度値が異なる。そのため、差分演算を行う前に輝度値を補正する。具体的には、短時間露光の画像に対しては輝度値を2倍、長時間露光の画像に対しては輝度値を1/2倍に補正する。また、長時間露光の画像において画素値が飽和している領域については誤抽出の恐れがあるので対応点抽出は行わないようにする。
Then, the
次に、画像合成部42は、第1の実施形態と同様にして、画像メモリ30に記憶されている2つの画像データを、動き検出部41で推定したカメラの移動パラメータを用いて合成する(S205)。
Next, as in the first embodiment, the
以下、第1の実施形態と同様にして、画像補正部23による色補正、エッジ強調処理、γ変換(S206)、画像圧縮部51による圧縮並びに記録再生部52による記録(S207)を行う。
Thereafter, similarly to the first embodiment, color correction by the
以上説明したように、本実施形態によれば、異なる露光条件で撮影した複数の画像を用いる合成撮影処理においても、通常撮影時と同様の色再現性を実現することができる。 As described above, according to the present embodiment, the same color reproducibility as that in the normal shooting can be realized even in the composite shooting process using a plurality of images shot under different exposure conditions.
また、本実施形態においても、3枚以上の画像を合成するように構成することができる。この場合、個々の画像の露光時間と通常撮影時の露光時間との関係に応じて光源の色温度推定に用いる画素の基準輝度レベルと動き検出時の輝度補正量を設定すればよい。 Also in this embodiment, it can be configured to synthesize three or more images. In this case, the reference luminance level of the pixel used for estimating the color temperature of the light source and the luminance correction amount at the time of motion detection may be set according to the relationship between the exposure time of each image and the exposure time during normal shooting.
(他の実施形態)
上述の実施形態では、デジタルスチルカメラ内で複数の画像を合成する構成について説明したが、例えば、撮像部11で取得した画像データをそのまま記録媒体200に記録し、記録媒体200から複数の画像データを汎用のコンピュータに読み込み、前述した実施形態の機能を実現するためのコンピュータプログラムを用いて上述の動き検出及び画像合成を行っても本発明の目的が達成されることは言うまでもない。その場合、前述した実施形態の機能を実現するためのコンピュータプログラムを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたコンピュータプログラムを読み出し実行することになる。この場合、記録媒体から読み出されたコンピュータプログラム自体が前述した実施形態の機能を実現することになり、そのコンピュータプログラムを記録した記録媒体は本発明を構成することになる。
(Other embodiments)
In the above-described embodiment, the configuration in which a plurality of images are combined in the digital still camera has been described. For example, the image data acquired by the
また、コンピュータが読み出したコンピュータプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのコンピュータプログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the computer program read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) operating on the computer based on the instructions of the computer program. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記録媒体から読み出されたコンピュータプログラムが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのコンピュータプログラムの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the computer program read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instructions of the computer program. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するコンピュータプログラムが格納されることになる。 When the present invention is applied to the recording medium, a computer program corresponding to the flowchart described above is stored in the recording medium.
Claims (11)
前記複数の画像の各々を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当該係数を用いて前記対象画像の白バランスを調整する白バランス調整手段を有し、
前記白バランス調整手段が、前記所定の輝度値として、前記異なる露出条件と前記適正露出条件との関係に応じて補正した値を用いて前記光源の色温度を推定し、
前記動き検出手段及び前記合成手段が、前記白バランス調整後の画像に対して前記動きの検出及び前記合成を行うことを特徴とする画像処理装置。 Based on the detected motion, the plurality of images are aligned and synthesized based on motion detection means for detecting motion between a plurality of images having overlapping portions, which are photographed under an exposure condition different from the proper exposure condition. An image processing apparatus having a combining means,
Using each of the plurality of images as a target image, a white balance adjustment coefficient is calculated based on a color temperature of a light source estimated using a pixel having a predetermined luminance value, and the white of the target image is calculated using the coefficient. It has white balance adjustment means to adjust the balance,
The white balance adjustment unit estimates the color temperature of the light source using a value corrected according to the relationship between the different exposure condition and the appropriate exposure condition as the predetermined luminance value,
The image processing apparatus, wherein the motion detection unit and the synthesis unit perform the motion detection and the synthesis on the image after the white balance adjustment.
前記合成手段により合成された画像を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当該係数を用いて前記対象画像の白バランスを調整する白バランス調整手段を有し、
前記白バランス調整手段が、前記所定の輝度値として、前記適正露出条件で撮影された画像に対して用いる輝度値を用いて前記光源の色温度を推定することを特徴とする画像処理装置。 Based on the detected motion, the plurality of images are aligned and synthesized based on motion detection means for detecting motion between a plurality of images having overlapping portions, which are photographed under an exposure condition different from the proper exposure condition. An image processing apparatus having a combining means,
Using the image synthesized by the synthesizing unit as a target image, a white balance adjustment coefficient is calculated based on the color temperature of a light source estimated using a pixel having a predetermined luminance value, and the target image is calculated using the coefficient. White balance adjusting means for adjusting the white balance of
The image processing apparatus, wherein the white balance adjustment unit estimates a color temperature of the light source using a luminance value used for an image photographed under the proper exposure condition as the predetermined luminance value.
前記第1の画像と、前記第2の画像との対応点を検出する対応点検出手段と、
前記対応点の信頼性を判定する判定手段と、
前記判定手段により信頼性が高いと判定された対応点の組み合わせに基づいて移動パラメータを推定する第1の推定手段と、
前記第1の推定手段が推定した移動パラメータの各々について、前記推定した移動パラメータを用いて推定した対応点との誤差が所定値以下である合格対応点を前記検出された対応点から検出する合格対応点検出手段と、
前記合格対応点が最大数となる場合の前記合格対応点を用いて、前記移動パラメータを推定し、推定結果を最終的な移動パラメータとする第2の推定手段とを有することを特徴とする動き検出装置。 A motion detection device for determining a movement parameter for aligning first and second images having overlapping portions,
Corresponding point detecting means for detecting corresponding points between the first image and the second image;
Determining means for determining the reliability of the corresponding points;
First estimation means for estimating a movement parameter based on a combination of corresponding points determined to be highly reliable by the determination means;
For each of the movement parameters estimated by the first estimating means, a pass corresponding point whose error from the corresponding point estimated using the estimated movement parameter is not more than a predetermined value is detected from the detected corresponding point. Corresponding point detecting means;
A second estimation unit that estimates the movement parameter using the number of the corresponding points corresponding to the maximum number of the corresponding points, and uses the estimation result as a final movement parameter. Detection device.
前記判定手段が、前記対応点における、前記部分画像と対応する前記第2の画像の部分画像との相関を表す情報に基づいて前記信頼性を判定することを特徴とする請求項5記載の動き検出装置。 The corresponding point detection means detects a corresponding point in the second image by template matching in a search area of the second image, using a partial image of the first image as a template;
The motion according to claim 5, wherein the determination unit determines the reliability based on information representing a correlation between the partial image and the partial image of the second image corresponding to the partial image at the corresponding point. Detection device.
前記複数の画像を撮影する撮影手段とを有することを特徴とする撮像装置。 The image processing device according to any one of claims 1 to 4, comprising the motion detection device according to claim 5 or 6 as the motion detection means,
An imaging apparatus comprising: an imaging unit that captures the plurality of images.
前記複数の画像の各々を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当該係数を用いて前記対象画像の白バランスを調整する白バランス調整工程を有し、
前記白バランス調整工程が、前記所定の輝度値として、前記異なる露出条件と前記適正露出条件との関係に応じて補正した値を用いて前記光源の色温度を推定し、
前記動き検出工程及び前記合成工程が、前記白バランス調整後の画像に対して前記動きの検出及び前記合成を行うことを特徴とする画像処理方法。 A motion detection step for detecting motion between a plurality of images having overlapping portions, which is photographed under an exposure condition different from the proper exposure condition, and aligning and combining the plurality of images based on the detected motion An image processing method including a synthesis step,
Using each of the plurality of images as a target image, a white balance adjustment coefficient is calculated based on a color temperature of a light source estimated using a pixel having a predetermined luminance value, and the white of the target image is calculated using the coefficient. Has a white balance adjustment process to adjust the balance,
The white balance adjustment step estimates the color temperature of the light source using a value corrected according to the relationship between the different exposure condition and the appropriate exposure condition as the predetermined luminance value,
The image processing method, wherein the motion detection step and the synthesis step perform the motion detection and the synthesis on the image after the white balance adjustment.
前記合成工程により合成された画像を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当該係数を用いて前記対象画像の白バランスを調整する白バランス調整工程を有し、
前記白バランス調整工程が、前記所定の輝度値として、前記適正露出条件で撮影された画像に対して用いる輝度値を用いて前記光源の色温度を推定することを特徴とする画像処理方法。 A motion detection step for detecting motion between a plurality of images having overlapping portions, which is photographed under an exposure condition different from the proper exposure condition, and aligning and combining the plurality of images based on the detected motion An image processing method including a synthesis step,
A coefficient for white balance adjustment is calculated based on a color temperature of a light source estimated using a pixel having a predetermined luminance value, using the image synthesized by the synthesis step as a target image, and the target image is calculated using the coefficient. A white balance adjustment process for adjusting the white balance of
The image processing method, wherein the white balance adjustment step estimates a color temperature of the light source using a luminance value used for an image photographed under the appropriate exposure condition as the predetermined luminance value.
前記第1の画像と、前記第2の画像との対応点を検出する対応点検出工程と、
前記対応点の信頼性を判定する判定工程と、
前記判定工程により信頼性が高いと判定された対応点の組み合わせに基づいて移動パラメータを推定する第1の推定工程と、
前記第1の推定工程が推定した移動パラメータの各々について、前記推定した移動パラメータを用いて推定した対応点との誤差が所定値以下である合格対応点を前記検出された対応点から検出する合格対応点検出工程と、
前記合格対応点が最大数となる場合の前記合格対応点を用いて、前記移動パラメータを推定し、推定結果を最終的な移動パラメータとする第2の推定工程とを有することを特徴とする動き検出方法。 A motion detection method for obtaining a movement parameter for aligning first and second images having overlapping portions, comprising:
A corresponding point detecting step of detecting corresponding points between the first image and the second image;
A determination step of determining the reliability of the corresponding points;
A first estimation step for estimating a movement parameter based on a combination of corresponding points determined to be highly reliable by the determination step;
For each of the movement parameters estimated by the first estimation step, a pass that detects an acceptable corresponding point whose error from a corresponding point estimated using the estimated movement parameter is equal to or less than a predetermined value is detected from the detected corresponding point. Corresponding point detection process;
A second estimation step of estimating the movement parameter using the number of acceptable corresponding points when the number of acceptable corresponding points is the maximum, and using the estimation result as a final movement parameter. Detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005044458A JP2006229868A (en) | 2005-02-21 | 2005-02-21 | Image processing apparatus and method, and motion detection apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005044458A JP2006229868A (en) | 2005-02-21 | 2005-02-21 | Image processing apparatus and method, and motion detection apparatus and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006229868A true JP2006229868A (en) | 2006-08-31 |
Family
ID=36990783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005044458A Withdrawn JP2006229868A (en) | 2005-02-21 | 2005-02-21 | Image processing apparatus and method, and motion detection apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006229868A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008118555A (en) * | 2006-11-07 | 2008-05-22 | Canon Inc | Image processor, image pickup device, and image processing method |
KR100912873B1 (en) | 2007-04-26 | 2009-08-19 | 삼성전자주식회사 | Method and apparatus for generating imgae |
JP2009224971A (en) * | 2008-03-14 | 2009-10-01 | Omron Corp | Image processing device |
JP2009296434A (en) * | 2008-06-06 | 2009-12-17 | Sharp Corp | Imaging device |
JP2012147391A (en) * | 2011-01-14 | 2012-08-02 | Canon Inc | Imaging apparatus and imaging apparatus control method |
JP2014126892A (en) * | 2012-12-25 | 2014-07-07 | Fujitsu Ltd | Image processing method, image processing apparatus, and image processing program |
JP2015087041A (en) * | 2013-10-29 | 2015-05-07 | 三菱電機株式会社 | Refrigerator |
US9224212B2 (en) | 2012-09-12 | 2015-12-29 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2016006379A (en) * | 2015-10-15 | 2016-01-14 | 三菱電機株式会社 | refrigerator |
-
2005
- 2005-02-21 JP JP2005044458A patent/JP2006229868A/en not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008118555A (en) * | 2006-11-07 | 2008-05-22 | Canon Inc | Image processor, image pickup device, and image processing method |
KR100912873B1 (en) | 2007-04-26 | 2009-08-19 | 삼성전자주식회사 | Method and apparatus for generating imgae |
JP2009224971A (en) * | 2008-03-14 | 2009-10-01 | Omron Corp | Image processing device |
JP2009296434A (en) * | 2008-06-06 | 2009-12-17 | Sharp Corp | Imaging device |
US8441539B2 (en) | 2008-06-06 | 2013-05-14 | Sharp Kabushiki Kaisha | Imaging apparatus |
JP2012147391A (en) * | 2011-01-14 | 2012-08-02 | Canon Inc | Imaging apparatus and imaging apparatus control method |
US9224212B2 (en) | 2012-09-12 | 2015-12-29 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2014126892A (en) * | 2012-12-25 | 2014-07-07 | Fujitsu Ltd | Image processing method, image processing apparatus, and image processing program |
JP2015087041A (en) * | 2013-10-29 | 2015-05-07 | 三菱電機株式会社 | Refrigerator |
JP2016006379A (en) * | 2015-10-15 | 2016-01-14 | 三菱電機株式会社 | refrigerator |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6157242B2 (en) | Image processing apparatus and image processing method | |
US9456135B2 (en) | Image synthesizing apparatus, image synthesizing method, and image synthesizing program | |
JP5179398B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5744614B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5643563B2 (en) | Image processing apparatus and control method thereof | |
JP4668956B2 (en) | Image processing apparatus and method, and program | |
US20100209009A1 (en) | Image capturing device, image capturing method, and storage medium having stored therein image capturing program | |
JP5210198B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2018107526A (en) | Image processing device, imaging apparatus, image processing method and computer program | |
JP2015073185A (en) | Image processing device, image processing method and program | |
JP4869572B2 (en) | Imaging device | |
JP6261205B2 (en) | Image processing device | |
JP2015012482A (en) | Image processing apparatus and image processing method | |
JP2006229868A (en) | Image processing apparatus and method, and motion detection apparatus and method | |
JP2019110430A (en) | Control apparatus, imaging apparatus, control method, and program | |
JP2019101997A (en) | Image processing apparatus and image processing method reducing noise by composing plural captured images | |
JP2019047336A (en) | Image processing apparatus, imaging device, image processing method, and program | |
JP5160655B2 (en) | Image processing apparatus and method, and program | |
JP2009302960A (en) | Video signal processing apparatus, program and method | |
JP2015041865A (en) | Image processing apparatus and image processing method | |
JP7458769B2 (en) | Image processing device, imaging device, image processing method, program and recording medium | |
JP2017212698A (en) | Imaging apparatus, control method for imaging apparatus, and program | |
JP2008072428A (en) | Image processor, electronic camera, and image processing program | |
JP2005347935A (en) | Image processor, image processing method, and computer program | |
JP7409604B2 (en) | Image processing device, imaging device, image processing method, program and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080513 |