JP5184325B2 - Image capturing apparatus, image capturing apparatus control method, and program - Google Patents
Image capturing apparatus, image capturing apparatus control method, and program Download PDFInfo
- Publication number
- JP5184325B2 JP5184325B2 JP2008315398A JP2008315398A JP5184325B2 JP 5184325 B2 JP5184325 B2 JP 5184325B2 JP 2008315398 A JP2008315398 A JP 2008315398A JP 2008315398 A JP2008315398 A JP 2008315398A JP 5184325 B2 JP5184325 B2 JP 5184325B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving object
- region
- charge
- read
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 54
- 210000000746 body region Anatomy 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 50
- 238000012937 correction Methods 0.000 claims description 45
- 238000003384 imaging method Methods 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 description 44
- 239000002131 composite material Substances 0.000 description 19
- 238000001514 detection method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 9
- 238000003825 pressing Methods 0.000 description 9
- 206010047571 Visual impairment Diseases 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 5
- 230000012447 hatching Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000293849 Cordylanthus Species 0.000 description 1
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 210000003323 beak Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005868 electrolysis reaction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Description
本発明は、とくにマルチフレーム撮影に適した撮影装置および撮影装置の制御方法並びに撮影装置の制御方法をコンピュータに実行させるためのプログラムに関するものである。 The present invention relates to a photographing apparatus and a photographing apparatus control method particularly suitable for multi-frame photographing, and a program for causing a computer to execute the photographing apparatus control method.
デジタルカメラなどの撮像装置において、シャッタスピードが遅くなり手ブレの影響が強く出るようなシーンでは、適正露光期間よりも短い露光期間で複数回撮影するマルチフレーム撮影を行い、マルチフレーム撮影により取得された複数の画像をそれぞれ位置合わせして合成することにより、手ブレの影響がない画像を得ることができる。 In scenes where the shutter speed is slow and the effects of camera shake are strong in an imaging device such as a digital camera, multi-frame shooting is performed multiple times with an exposure period shorter than the appropriate exposure period, and is acquired by multi-frame shooting. In addition, by aligning and synthesizing a plurality of images, an image free from the influence of camera shake can be obtained.
このようなマルチフレーム撮影において、撮影装置のブレ量に応じて露光時間を制御して複数回の撮影を行うことにより、複数の画像を取得する手法が提案されている(特許文献1参照)。また、複数の画像を同時に読み出し、合成する際のゲインを、複数の画像に含まれる動体の動きに応じて制御する手法も提案されている(特許文献2参照)。また、撮影装置にCMOSのような部分的に電荷を読み出し可能な撮像素子を使用し、撮像素子からの電荷の読み出しを行うに際し、高速画面レートにて読み出しを行う場合には、撮像素子の中央部分の領域のみから電荷の読み出しを行い、通常画面レートにて読み出しを行う場合には、撮像素子の全領域からの電荷の読み出しを行う手法が提案されている(特許文献3参照)。
上記特許文献1,2に記載された手法は、撮影装置に使用されている撮像素子の全領域から電荷を読み出しているため、フレームレートが遅くなる。このようにフレームレートが遅くなると、動体に対する動きの追従が悪くなるため、動体の残像が長くなり、その結果、合成画像の画質が低下する。また、撮像素子から複数回電荷を読み出しているため、とくに撮像素子がCMOSのようなノイズの残留性があるものを使用すると、電荷を読み出す毎に電荷に残留ノイズが存在することとなる。したがって、複数の画像を重ね合わせることにより合成した場合、ノイズが重ね合わせられるため、ノイズが目立ってしまうという問題がある。一方、特許文献3に記載された手法は、高速画面レートにて読み出しを行う場合には、フレームレートを速くすることができるが、撮像素子の中央部分のみからしか電荷を読み出さないため、取得される画像の画角が狭くなる。
The methods described in
本発明は上記事情に鑑みなされたものであり、マルチフレーム撮影により取得された画像の高画質化を図ることを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to improve the image quality of an image acquired by multiframe shooting.
本発明による撮影装置は、被写体像を光電変換して画像信号を取得する撮像素子と、
露光開始から露光時間が所定の時間に達するまで、前記撮像素子における前記被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しを、前記動体領域の移動に対応して繰り返し行うことにより複数の第1の画像信号を取得し、前記所定の時間に達したときに、前記撮像素子における全領域からの電荷の読み出しを行うことにより第2の画像信号を取得するよう前記撮像素子を制御する撮像制御手段とを備えたことを特徴とするものである。
An imaging device according to the present invention includes an image sensor that photoelectrically converts a subject image to obtain an image signal;
By repeatedly reading out charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor in response to the movement of the moving object region until the exposure time reaches a predetermined time from the start of exposure. The plurality of first image signals are acquired, and when the predetermined time is reached, the image sensor is controlled to acquire the second image signal by reading out charges from the entire area of the image sensor. The image pickup control means is provided.
「動体領域」とは、撮像素子における画像の撮像領域のうち、撮像時の撮像素子に対して相対的に動いている被写体が撮像されている領域を意味するものとする。なお、動体領域は、動体のみの領域であってもよく、動体を囲む所定範囲の領域であってもよい。 The “moving object region” means a region where a subject moving relatively with respect to the image pickup device at the time of image pickup is picked up among the image pickup regions of the image pickup device. Note that the moving object region may be a region only of the moving object, or may be a region in a predetermined range surrounding the moving object.
なお、本発明による撮影装置においては、前記露光開始前に前記撮像素子が取得した画像信号により表される画像に基づいて、前記動体の位置を検出するとともにその移動位置を予測する動体検出手段をさらに備えるものとし、
前記撮像制御手段を、前記動体の位置および前記移動位置に基づいて、前記動体領域のみからの前記電荷の読み出しを行うよう前記撮像素子を制御する手段としてもよい。
In the photographing apparatus according to the present invention, a moving object detection unit that detects the position of the moving object and predicts the moving position based on an image represented by an image signal acquired by the imaging element before the start of the exposure. We shall prepare further,
The imaging control means may be means for controlling the imaging element so as to read out the electric charge only from the moving body region based on the position of the moving body and the moving position.
「露光開始前」とは、レリーズボタンが押下されることにより、合成画像を生成するための第1および第2の画像を取得する前を意味する。具体的には、撮影前にモニタにスルー画像が表示されている状態を意味する。 “Before the start of exposure” means before the first and second images for generating the composite image are acquired by pressing the release button. Specifically, it means a state in which a through image is displayed on the monitor before shooting.
また、本発明による撮影装置においては、前記撮像制御手段を、前記動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域を含む領域からも電荷を読み出し、該次の動体領域を含む領域から読み出した電荷を破棄して前記第1の画像信号を取得するよう前記撮像素子を制御する手段としてもよい。 In the imaging apparatus according to the present invention, the imaging control unit reads the charge from an area including the next moving body area where the charge is read next time, when the charge is read from the moving body area once. The image sensor may be controlled so as to obtain the first image signal by discarding the charges read from the area including the moving object area.
また、本発明による撮影装置においては、前記撮像制御手段を、前記動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域を含む領域からも電荷を読み出し、該次の動体領域を含む領域から読み出した電荷とともに前記第1の画像信号を取得するよう前記撮像素子を制御する手段としてもよい。 In the imaging apparatus according to the present invention, the imaging control unit reads the charge from an area including the next moving body area where the charge is read next time, when the charge is read from the moving body area once. The image sensor may be controlled to acquire the first image signal together with the electric charge read from the region including the moving body region.
「次回に電荷を読み出す次の動体領域を含む領域」は、次の動体領域のみを含む領域であってもよく、次の動体領域およびそれ以外の領域を含む領域であってもよい。例えば、次の動体領域のみを含む領域の場合、電荷の読み出しは、電荷読み出しの対象となる動体領域および次の動体領域から行われる。また、次の動体領域以外の領域を含む領域の場合、電荷を読み出す領域を、電荷読み出しの対象となる動体領域および次の動体領域の双方を囲むような領域とすることができる。とくに電荷を読み出す領域を矩形領域とすることにより、撮像素子からの電荷の読み出しを簡易に行うことができる。 The “region including the next moving body region where the charge is read next time” may be a region including only the next moving body region, or may be a region including the next moving body region and other regions. For example, in the case of a region including only the next moving body region, the reading of charges is performed from the moving body region and the next moving body region that are targets of charge reading. In the case of a region including a region other than the next moving body region, the region from which the charge is read can be a region that surrounds both the moving body region to be read and the next moving body region. In particular, it is possible to easily read out charges from the image sensor by making the area from which charges are read out a rectangular area.
また、本発明による撮影装置においては、前記複数の第1の画像信号により表される複数の第1の画像、および前記第2の画像信号により表される第2の画像を合成して合成画像を生成する合成手段をさらに備えるものとしてもよい。 In the photographing apparatus according to the present invention, a plurality of first images represented by the plurality of first image signals and a second image represented by the second image signals are synthesized to form a composite image. It is also possible to further include a synthesis means for generating
また、本発明による撮影装置においては、前記複数の第1の画像および前記第2の画像における各画素の露光時間に応じて、前記第1の画像および前記第2の画像の明るさを補正する明るさ補正手段をさらに備えるものとし、
前記合成手段を、前記明るさ補正が行われた後の前記複数の第1の画像および前記第2の画像を合成して前記合成画像を生成する手段としてもよい。
In the photographing apparatus according to the present invention, the brightness of the first image and the second image is corrected according to the exposure time of each pixel in the plurality of first images and the second image. It further includes brightness correction means,
The synthesizing unit may be a unit that generates the synthesized image by synthesizing the plurality of first images and the second image after the brightness correction is performed.
本発明による撮影装置の制御方法は、被写体像を光電変換して画像信号を取得する撮像素子を備えた撮影装置の制御方法であって、
露光開始から露光時間が所定の時間に達するまで、前記撮像素子における前記被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しを、前記動体領域の移動に対応して繰り返し行うことにより複数の第1の画像信号を取得し、
前記所定の時間に達したときに、前記撮像素子における全領域からの電荷の読み出しを行うことにより第2の画像信号を取得することを特徴とするものである。
A method for controlling a photographing apparatus according to the present invention is a method for controlling a photographing apparatus including an imaging element that photoelectrically converts a subject image to obtain an image signal,
By repeatedly reading out charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor in response to the movement of the moving object region until the exposure time reaches a predetermined time from the start of exposure. Obtaining a plurality of first image signals;
When the predetermined time is reached, the second image signal is obtained by reading out charges from the entire area of the image sensor.
なお、本発明による撮影装置の制御方法をコンピュータに実行させるためのプログラムとして提供してもよい。 In addition, you may provide as a program for making a computer perform the control method of the imaging device by this invention.
本発明によれば、露光開始から露光時間が所定の時間に達するまで、撮像素子における被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しが、動体領域の移動に対応して繰り返し行われて複数の第1の画像信号が取得され、所定の時間に達したときに、撮像素子における全領域からの電荷の読み出しが行われて第2の画像信号が取得される。このように本発明によれば、撮像素子における動体に対応する動体領域のみから繰り返し電荷が読み出されるため、撮像素子の全領域から電荷を読み出す場合と比較して、第1の画像信号の取得時には、フレームレートを速くすることができる。このため、第1の画像信号により表される第1の画像に動体の残像が発生することが少なくなり、その結果、合成画像に含まれる動体を、残像のない高画質なものとすることができる。一方、第2の画像信号は、露光時間が所定の時間に達したときに一度のみ取得されることから、フレームレートには影響を与えない。また、第2の画像信号は一度のみ取得されるため、撮像素子の残留ノイズの影響が少ないものとなっている。したがって、複数の第1の画像および第2の画像を合成することにより取得される合成画像の高画質化を図ることができる。また、第2の画像信号は撮像素子の全領域から読み出した電荷を用いているため、合成画像の画角が狭くなることもなくなる。 According to the present invention, until the exposure time reaches a predetermined time from the start of exposure, the reading of charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor is repeated corresponding to the movement of the moving object region. A plurality of first image signals are acquired, and when a predetermined time is reached, the charge is read from the entire area of the image sensor and the second image signal is acquired. As described above, according to the present invention, the charge is repeatedly read from only the moving object region corresponding to the moving object in the image sensor, and therefore, when the first image signal is acquired as compared with the case of reading the charge from the entire region of the image sensor. The frame rate can be increased. For this reason, the afterimage of the moving object is less likely to occur in the first image represented by the first image signal, and as a result, the moving object included in the composite image has a high image quality without an afterimage. it can. On the other hand, since the second image signal is acquired only once when the exposure time reaches a predetermined time, the frame rate is not affected. Further, since the second image signal is acquired only once, the influence of residual noise of the image sensor is small. Therefore, it is possible to improve the image quality of a composite image obtained by combining a plurality of first images and second images. Further, since the second image signal uses charges read from the entire area of the image sensor, the angle of view of the composite image is not reduced.
また、動体の位置およびその移動位置を予測し、動体の位置およびその移動位置に基づいて、動体領域からの電荷の読み出しを行うことにより、第1の画像信号により表される第1の画像を、確実に動体を含むものとすることができる。 In addition, by predicting the position of the moving object and its moving position, and reading out charges from the moving object region based on the position of the moving object and its moving position, the first image represented by the first image signal is obtained. The moving object can be surely included.
また、動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域を含む領域からも電荷を読み出し、次の動体領域から読み出した電荷を破棄して第1の画像信号を取得することにより、動体領域の露光時間を同一とすることができる。このため、合成画像の生成時における第1の画像の明るさを補正しなくてもよいか、または明るさ補正処理を簡易なものとすることができるため、明るさ補正処理を高速に行うことができる。 Further, at the time of reading the charge once from the moving object region, the charge is also read from the region including the next moving object region where the charge is read next time, the charge read from the next moving object region is discarded, and the first image signal is obtained. By acquiring, the exposure time of a moving body area | region can be made the same. For this reason, it is not necessary to correct the brightness of the first image at the time of generating the composite image, or the brightness correction process can be simplified, so that the brightness correction process is performed at high speed. Can do.
また、動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域を含む領域からも電荷を読み出し、次の動体領域から読み出した電荷とともに第1の画像信号を取得することにより、動体領域の露光時間を同一とすることができる。このため、合成画像の生成時における第1の画像の明るさを補正しなくてもよいか、または明るさ補正処理を簡易なものとすることができるため、明るさ補正処理を高速に行うことができる。また、読み出した電荷を有効に利用することができるため、合成画像の生成時における明るさの補正の程度を少なくすることができ、その結果、合成画像の画質をより向上させることができる。 Further, at the time of reading the charge once from the moving object region, the charge is read also from the region including the next moving object region where the charge is read next time, and the first image signal is acquired together with the charge read from the next moving object region. Thus, the exposure time of the moving object region can be made the same. For this reason, it is not necessary to correct the brightness of the first image at the time of generating the composite image, or the brightness correction process can be simplified, so that the brightness correction process is performed at high speed. Can do. Further, since the read charges can be used effectively, the degree of brightness correction at the time of generating the composite image can be reduced, and as a result, the image quality of the composite image can be further improved.
以下、図面を参照して本発明の実施形態について説明する。図1および図2は本発明の実施形態による撮影装置を適用したデジタルカメラ1の外観を示す図である。図1および図2に示すように、このデジタルカメラ1の上部には、レリーズボタン2、電源ボタン3およびズームレバー4が備えられている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. 1 and 2 are views showing the appearance of a
レリーズボタン2は、2段階の押下により2種類の動作を指示できる構造となっている。例えば、自動露出調整機能(AE:Auto Exposure)、自動焦点調節機能(AF:Auto Focus)を利用した撮影では、デジタルカメラ1は、レリーズボタン2が軽く押下される第1の押下操作(半押しともいう)がなされたときに、露出調整、焦点合わせ等の撮影準備を行う。その状態で、レリーズボタン2が強く押下される第2の押下操作(全押しともいう)がなされると、デジタルカメラ1は露光を開始し、露光により得られた1画面分の画像データを記録メディアに記録する。
The
デジタルカメラ1の背面には、液晶等のモニタ5、撮影モード等の設定に利用されるモードダイヤル6、および後各種操作ボタン8が備えられている。なお、本実施形態においては、撮影を行う撮影モード、および記録メディアに記録された画像をモニタ5に再生する再生モード等を設定可能とされている。また、撮影モードとしては通常の撮影を行うための通常撮影モードの他、マルチフレーム撮影を行うためのマルチフレームモードが設定可能とされている。
On the back of the
次いで、デジタルカメラ1の内部構成について説明する。図3は本発明の実施形態による撮影装置を適用したデジタルカメラの内部構成を示す概略ブロック図である。図3に示すように本実施形態による撮影装置を適用したデジタルカメラ1は、撮像系9を有する。
Next, the internal configuration of the
撮像系9は、被写体にピントを合わせるためのフォーカスレンズ10aおよびズーム機能を実現するためのズームレンズ10bからなる撮影レンズ10を有する。各々のレンズは、モータとモータドライバとからなるフォーカスレンズ駆動部11およびズームレンズ駆動部12によって光軸方向に移動可能である。フォーカスレンズ駆動部11は、後述するAF処理部28からの指示に基づいて、ズームレンズ駆動部12はズームレバー4の操作に応じたCPU40からの指示に基づいて、各々のレンズの移動を制御する。
The
絞り14は、複数の絞り羽根からなる。絞り駆動部15は、ステッピングモータ等小型のモータで、AE処理部29から出力される絞り値データに応じて、絞りの開口サイズが目的に適ったサイズになるように絞り羽根の位置を調整する。
The
シャッタ16はメカニカルシャッタであり、シャッタ駆動部17によって駆動される。シャッタ駆動部17は、レリーズボタンの押下により発生する信号と、AE処理部29から出力されるシャッタスピードデータとに応じて、シャッタ16の開閉の制御を行う。
The
シャッタ16の後方には撮像素子18を有している。本実施形態においては、CMOSタイプの撮像素子18を用いるものとする。撮像素子18は、多数の受光素子を2次元的に配列した光電面を有しており、撮影レンズ10等の光学系を通過した被写体光がこの光電面に結像し、光電変換される。光電面の前方には、各画素に光を集光するためのマイクロレンズアレイと、R,G,B各色のフィルタが規則的に配列されたカラーフィルタアレイとが配置されている。撮像素子18は、撮像素子制御部19から供給される読み出し信号に同期して、画素毎に蓄積された電荷を1画素ずつアナログ撮影信号として出力する。なお、各画素において電荷の蓄積を開始してから電荷を読み出すまでの時間、すなわち電子シャッタのシャッタスピードは、撮像素子制御部19から与えられる電子シャッタ駆動信号によって決定される。この露光時間は、後述するAE処理部29により設定される。また、撮像素子18は撮像素子制御部19により、あらかじめ定められた大きさのアナログ撮像信号が得られるようにゲインが調整されている。
An
撮像素子18から読み出されたアナログ撮影信号は、アナログフロントエンド(AFE)20に入力される。AFE20は、アナログ信号のノイズを除去する相関2重サンプリング回路(CDS)と、アナログ信号のゲインを調節するオートゲインコントローラ(AGC)と、アナログ信号をデジタル信号に変換するA/Dコンバータ(ADC)とからなる。このデジタル信号に変換された画像データは、画素毎にR,G,Bの濃度値を持つRAWデータである。
The analog photographing signal read from the
タイミングジェネレータ21は、同期信号を発生させるものであり、このタイミング信号をシャッタ駆動部17、撮像素子制御部19、およびAFE20に供給することにより、レリーズボタンの操作、シャッタ16の開閉、撮像素子18からの電荷の読み出し、およびAFE20の処理の同期をとっている。
The
また、デジタルカメラ1は撮影時において必要なときに発光されるフラッシュ24を有する。フラッシュ24は、発光制御部23によりその発光が制御される。
In addition, the
また、デジタルカメラ1は、AFE20が出力した画像データをデータバス41を介して他の処理部に転送する画像入力コントローラ25、および画像入力コントローラ25から転送された画像データを一時記憶するフレームメモリ26を備える。
The
フレームメモリ26は、画像データに対して後述の各種処理を行う際に使用する作業用メモリであり、例えば、一定周期のバスクロック信号に同期してデータ転送を行うSDRAM(Synchronous Dynamic Random Access Memory)が使用される。
The
表示制御部27は、フレームメモリ26に格納された画像データをスルー画像としてモニタ5に表示させたり、再生モード時に記録メディア34に保存されている画像をモニタ5に表示させたりするためのものである。なお、スルー画像は、撮影モードが選択されている間、タイミングジェネレータ21が発生する同期信号に同期して、所定時間間隔で撮像系9により撮影される。
The
AF処理部28およびAE処理部29は、プレ画像に基づいて撮影条件を決定する。このプレ画像とは、レリーズボタンが半押しされることによって発生する半押し信号を検出したCPU40が撮像素子18にプレ撮影を実行させた結果、フレームメモリ26に格納された画像データにより表される画像である。
The
AF処理部28は、プレ画像に基づいてフォーカスレンズ10aの合焦位置を検出する。合焦位置の検出方式としては、例えば、所望とする被写体にピントが合った状態では画像のコントラストが高くなるという特徴を利用して合焦位置を検出するTTL方式を用いる。
The
AE処理部29は、プレ画像に基づいて被写体輝度を測定し、測定した被写体輝度に基づいて絞り値およびシャッタスピードを露出設定値として設定して出力する(AE処理)。具体的には、測光方式が分割測光の場合、プレ画像を例えば8×8の64の測光領域に分割し、各領域の明るさおよびあらかじめ定められて後述する内部メモリ35に記憶されたプログラム線図に基づいて、シャッタスピードおよび絞り値を設定する。なお、測光方式が中央重点測光またはスポット測光の場合には、中央部分の領域または定められた領域の明るさに基づいて、シャッタスピードおよび絞り値を設定する。
The
ここで、本実施形態によるデジタルカメラ1においては、通常撮影モードに設定されている場合には、1回のレリーズボタンの全押し操作に応じて、1回の露光により、撮像素子18から1回電荷を読み出す撮影を行う。一方、マルチフレームモードに設定されている場合には、通常1回の電荷の読み出しを行うところを、露光期間中複数回に分割して電荷の読み出しを行い、各回において読み出した電荷にそれぞれ対応する複数の画像を取得する。なお、複数の画像は後述するように合成されて合成画像が生成される。なお、マルチフレームモードでは、AE処理部29は、プレ画像に基づいて設定したシャッタスピード、すなわち露光時間(T0とする)に基づいて、分割後の露光時間すなわち電荷の読み出し間隔(Tとする)および読み出し回数nを設定する。
Here, in the
なお、通常撮影モードによる撮影時においては、AE処理部29が設定したシャッタスピードによりシャッタ16が開放して撮像素子18がシャッタスピードに対応する露光時間T0露光されて1回の電荷の読み出しが行われる。一方、マルチフレームモードによる撮影時においては、レリーズボタンの押下後、設定された読み出し回数nの電荷の読み出しが行われるまでの間シャッタ16は開放とされ、その間、設定された露光時間Tの間隔により撮像素子18から繰り返し電荷が読み出されて、複数の画像が取得される。
During shooting in the normal shooting mode, the
また、本実施形態においては、マルチフレームモード時においては、後述するように検出された動体の位置および予測された動体の移動位置に対応する動体領域のみから電荷が読み出される。また、最後の電荷の読み出し時には、撮像素子18の全領域から電荷が読み出される。なお、具体的な電荷の読み出しについては後述する。
In the present embodiment, in the multi-frame mode, charges are read out only from the moving object region corresponding to the detected moving object position and the predicted moving object movement position, as will be described later. In addition, when reading the last charge, the charge is read from the entire area of the
AWB処理部30は、撮影時のホワイトバランスを自動調整する(AWB処理)。
The
画像処理部31は、本画像の画像データに対して、明るさ補正、階調補正、シャープネス補正、および色補正等の画質補正処理、並びにRAWデータを輝度信号であるYデータと、青色色差信号であるCbデータおよび赤色色差信号であるCrデータとからなるYCデータに変換するYC処理を行う。この本画像とは、レリーズボタンが全押しされることによって実行される本撮影により撮像素子18から取り込まれ、AFE20、画像入力コントローラ25経由でフレームメモリ26に格納された画像データにより表される画像である。また、画像処理部31は、後述するマルチフレームモードの撮影により取得された画像に対して、露光時間に応じた明るさ補正処理を行う。
The
圧縮/伸長処理部32は、画像処理部31によって処理が行われた本画像の画像データに対して、例えば、JPEG等の圧縮形式で圧縮処理を行い、画像ファイルを生成する。この画像ファイルには、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたタグが付加される。
The compression /
メディア制御部33は、不図示のメディアスロットルに着脱自在にセットされた記録メディア34にアクセスして、画像ファイルの書き込みと読み込みの制御を行う。
The
内部メモリ35は、デジタルカメラ1において設定される各種定数、ルックアップテーブル、およびCPU40が実行するプログラム等を記憶する。
The internal memory 35 stores various constants set in the
また、デジタルカメラ1は、動体検出部36および合成部37を備える。
The
動体検出部36は、画像に含まれる動体を検出する。具体的には、マルチフレームモードによる撮影を行う場合に、レリーズボタン押下前に連続して取得される複数のスルー画像の間において動きが大きい画素を求め、その画素からなる領域を動体領域として検出する。例えば、図4に示すように3つのスルー画像G1〜G3が取得された場合、動きが大きい被写体は鳥となる。このため、動体検出部36は鳥を動体として検出する。なお、本実施形態においては、動体のみからなる領域を動体として検出してもよいが、動体を囲む所定範囲の領域を動体として検出してもよい。
The moving
また、動体検出部36は動体の移動方向および移動速度を検出し、移動方向および移動速度に基づいて、電荷読み出し時の動体の移動位置を推定する。なお、移動方向の算出は、複数のスルー画像を重ね合わせた場合における、互いに対応する動体領域内の画素の移動ベクトルを算出することにより行う。図5は移動ベクトルの算出を説明するための図である。なお、図5においては、図4に示す3つのスルー画像G1〜G3のうち、2つのスルー画像G1,G2を用いて説明する。スルー画像G1,G2においては鳥が動体となるため、図5に示すように、スルー画像G1における鳥のくちばし位置O1は、スルー画像G2においては位置O2に移動する。このため、動体検出部36は、スルー画像の動体に対応する動体領域内における互いに対応する画素について、スルー画像G1,G2における画素位置を求め、画素位置の座標値の差に基づいて、移動ベクトルを算出する。なお、図5において鳥のくちばしの移動ベクトルV0を算出した状態を示している。そして、移動ベクトルの大きさをスルー画像の撮影時間間隔により除算して動体の移動速度を算出する。
The moving
このように、動体の移動方向および移動速度を算出することにより、マルチフレームモード撮影時における電荷読み出し時の動体の位置を予測することができる。なお、動体検出部36は、検出した動体の位置および予測した移動位置の情報をCPU40に出力する。
Thus, by calculating the moving direction and moving speed of the moving object, it is possible to predict the position of the moving object at the time of charge reading in multi-frame mode imaging. Note that the moving
合成部37は、マルチフレームモードの撮影により取得され、明るさが補正された複数の画像を、動体の位置が同じ位置になるように重ね合わせることにより合成して、合成画像を生成する。なお、合成は複数の画像について、動体の位置合わせを行った後に、複数の画像間の対応する画素値を加算することにより行ってもよく、画素値の平均値を算出することにより行ってもよい。ここで、位置合わせは、複数の画像から1つの基準画像を選択し、基準画像に含まれる動体の位置に他の画像における動体の位置が一致するように、他の画像を回転、拡大縮小等、変形することにより行えばよい。 The synthesizing unit 37 synthesizes a plurality of images acquired by shooting in the multi-frame mode and corrected in brightness so that the positions of moving objects are the same position, thereby generating a synthesized image. Note that the composition may be performed by adding the corresponding pixel values between the plurality of images after performing the positioning of the moving object for a plurality of images, or by calculating an average value of the pixel values. Good. Here, alignment is performed by selecting one reference image from a plurality of images and rotating, enlarging or reducing other images so that the position of the moving object in the other image matches the position of the moving object included in the reference image. This can be done by deforming.
CPU40は、レリーズボタン2、操作ボタン8およびAE処理部29等の各種処理部からの信号に応じてデジタルカメラ1の本体各部を制御する。
The
データバス41は、各種処理部、フレームメモリ26およびCPU40等に接続されており、画像データおよび各種指示等のやり取りを行う。
The
次いで、本実施形態において行われる処理について説明する。図6は第1の実施形態において行われる処理を示すフローチャートである。なお、本発明はマルチフレームモードにおける撮影の処理に特徴を有するため、以下に説明する実施形態においては、マルチフレームモードが設定されている場合の処理について説明する。 Next, processing performed in the present embodiment will be described. FIG. 6 is a flowchart showing processing performed in the first embodiment. Since the present invention has a feature in the shooting process in the multi-frame mode, in the embodiment described below, the process when the multi-frame mode is set will be described.
マルチフレームモードに設定後、動体検出部36が動体の位置を検出する(ステップST1)。そして、CPU40はレリーズボタン2が半押しされたか否かを判定し(ステップST2)、ステップST2が否定されるとステップST1に戻る。レリーズボタン2が半押しされると、ステップST2が肯定され、撮像系9がプレ撮影を行い(ステップST3)、AE処理部29がプレ撮影により取得されたプレ画像を用いてAE処理を行う(ステップST4)。これにより、マルチフレームモードの撮影の1回の露光時間Tおよび電荷読み出し回数nが設定される。
After setting to the multi-frame mode, the moving
次いでCPU40はレリーズボタン2が全押しされたか否かの監視を開始し(ステップST5)、ステップST5が肯定されると本撮影を開始し、電荷の読み出し回数を初期値に設定する(i=1、ステップST6)。次いで、CPU40は動体検出部36が検出した動体の位置またはその移動位置の情報に基づいて、撮像素子18における動体に対応する動体領域のみから電荷を読み出す(ステップST7)。
Next, the
図7は1回目の電荷の読み出しを説明するための図である。図7に示すようにCPU40は、撮像素子18における動体領域D1に対応する画素のみから電荷を読み出す。なお、図7および以降の説明においては、動体領域を矩形にて示すものとする。ここで、読み出された電荷は、上述したようにデジタルの画像データに変換され、フレームメモリ26に一時的に記憶される。また、動体領域の画素のみから電荷を読み出すことにより取得した画像データにより表される画像を第1の画像G1−iと称する(i=1〜n−1)。なお、1回目の電荷の読み出しにおいては、図7に示すように、撮像素子18における動体領域D1およびそれ以外の領域、すなわち全領域において露光時間は1Tとなる。
FIG. 7 is a diagram for explaining the first charge reading. As shown in FIG. 7, the
次いで、CPU40は次回の読み出しが最後の読み出しであるか否かを判定し(ステップST8)、ステップST8が否定されると、電荷の読み出し回数を次に設定し(i=i+1,ステップST9)、ステップST7に戻る。なお、ステップST7においては、動体検出部36が予測した動体の移動位置の情報に基づいて、動体領域Diからの電荷の読み出しが行われる。一方、ステップST8が肯定されると、電解の読み出し回を最後の回に設定し(i=n、ステップST10)、撮像素子18の全領域から電荷の読み出しを行う(ステップST11)。これにより第2の画像G2が取得される。
Next, the
図8から図11は、露光回数n=5とした場合における2回目から5回目までの動体領域の位置および撮像素子18の露光時間を示す図である。まず、2回目の電荷の読み出し時には、図8に示すように、動体領域D2から電荷を読み出して第1の画像G1−2を取得する。この際、動体領域D1からは前回において電荷が読み出されているため、動体領域D1の露光時間は1Tとなる。また、動体領域D2において動体領域D1と重なる領域D1′の露光時間は1T、動体領域D2(領域D1′を除く)の露光時間は2T、それ以外の領域の露光時間は2Tとなる。
8 to 11 are diagrams showing the positions of moving object regions and the exposure time of the
3回目の電荷の読み出し時には、図9に示すように、動体領域D3から電荷を読み出して第1の画像G1−3を取得する。この際、動体領域D1(領域D1′を除く)の露光時間は2T、動体領域D2の露光時間は1Tとなる。また、動体領域D3において動体領域D2と重なる領域D2′の露光時間は1T、動体領域D3(領域D2′を除く)の露光時間は3T、それ以外の領域の露光時間は3Tとなる。 At the time of reading the charge for the third time, as shown in FIG. 9, the charge is read from the moving body region D3 to obtain the first image G1-3. At this time, the exposure time of the moving object region D1 (excluding the region D1 ′) is 2T, and the exposure time of the moving object region D2 is 1T. In the moving body region D3, the exposure time of the region D2 ′ overlapping the moving body region D2 is 1T, the exposure time of the moving body region D3 (excluding the region D2 ′) is 3T, and the exposure time of the other regions is 3T.
4回目の電荷の読み出し時には、図10に示すように、動体領域D4から電荷を読み出して第1の画像G1−4を取得する。この際、動体領域D1(領域D1′を除く)の露光時間は3T、動体領域D2(領域D2′を除く)の露光時間は2T、動体領域D3の露光時間は1Tとなる。また、動体領域D4において動体領域D3と重なる領域D3′の露光時間は1T、動体領域D4(領域D3′を除く)の露光時間は4T、それ以外の領域の露光時間は4Tとなる。 At the time of reading the charge for the fourth time, as shown in FIG. 10, the charge is read from the moving object region D4 to obtain the first image G1-4. At this time, the exposure time of the moving object region D1 (excluding the region D1 ′) is 3T, the exposure time of the moving object region D2 (excluding the region D2 ′) is 2T, and the exposure time of the moving object region D3 is 1T. In the moving body region D4, the exposure time of the region D3 ′ overlapping with the moving body region D3 is 1T, the exposure time of the moving body region D4 (excluding the region D3 ′) is 4T, and the exposure time of other regions is 4T.
5回目の電荷の読み出し時には、図11に示すように、動体領域D5を含む全領域から電荷を読み出して第2の画像G2を取得する。この際、動体領域D1(領域D1′を除く)の露光時間は4T、動体領域D2(領域D2′を除く)の露光時間は3T、動体領域D3(領域D3′を除く)の露光時間は2T、動体領域D4の露光時間は1Tとなる。また、動体領域D5において動体領域D4と重なる領域D4′の露光時間は1T、動体領域D5(領域D4′を除く)の露光時間は5T、それ以外の領域の露光時間は5Tとなる。 When the charge is read for the fifth time, as shown in FIG. 11, the second image G2 is acquired by reading the charge from the entire area including the moving body area D5. At this time, the exposure time of the moving object region D1 (excluding the region D1 ′) is 4T, the exposure time of the moving object region D2 (excluding the region D2 ′) is 3T, and the exposure time of the moving object region D3 (excluding the region D3 ′) is 2T. The exposure time of the moving body region D4 is 1T. In the moving body region D5, the exposure time of the region D4 ′ overlapping the moving body region D4 is 1T, the exposure time of the moving body region D5 (excluding the region D4 ′) is 5T, and the exposure time of the other regions is 5T.
ステップST11に続いて、画像処理部31が第1の画像G1−i(i=n−1)および第2の画像G2に対して明るさ補正処理を含む画像処理を施す(ステップST12)。ここで、図7から図11に示すように、第1の画像G1−iおよび第2の画像G2は、領域内の場所毎に露光時間が異なるため、露光時間に応じて明るさが部分的に異なるものとなっている。このため、画像処理部31は第1の画像G1−iおよび第2の画像G2に対して、露光時間に応じた明るさ補正処理を行う。以下、明るさ補正処理について説明する。なお、ここでは、図7から図11に示すように4つの第1の画像G1−1〜G1−4および第2の画像G2が取得された場合の処理について説明する。
Subsequent to step ST11, the
まず、第1の画像G1−1は全領域について露光時間が1Tである。ここで、第2の画像G2において最も露光時間が長い領域の露光時間は5Tである。また、第1の画像G1−1は4つ取得されているため、すべての第1の画像G1−iを加算した場合、加算した画像における最大の露光時間は4Tに相当するものとなる。したがって、すべての第1の画像G1−iおよび第2の画像G2を合成した場合、合成画像の最大の露光時間は5Tに相当するものとなる。このため、画像処理部31は、第1の画像G1−1については露光時間が1Tであるため、明るさを補正しない。
First, the first image G1-1 has an exposure time of 1T for the entire region. Here, the exposure time of the region with the longest exposure time in the second image G2 is 5T. In addition, since four first images G1-1 are acquired, when all the first images G1-i are added, the maximum exposure time in the added images is equivalent to 4T. Therefore, when all the first images G1-i and the second image G2 are combined, the maximum exposure time of the combined image is equivalent to 5T. For this reason, the
次に第1の画像G1−2は、動体領域D1と重なる領域D1′に対応する領域の露光時間が1T、それ以外の露光時間は2Tである。このため、画像処理部31は、第1の画像G1−2における領域D1′に対応する領域以外の領域の明るさが1/2となるように明るさ補正処理を行う。これにより、第1の画像G1−2の全領域の明るさが、露光時間1Tの明るさに相当するものとなる。
Next, in the first image G1-2, the exposure time of the area corresponding to the area D1 ′ overlapping the moving object area D1 is 1T, and the other exposure time is 2T. Therefore, the
次に第1の画像G1−3は、動体領域D2と重なる領域D2′に対応する領域の露光時間が1T、それ以外の露光時間は3Tである。このため、画像処理部31は、第1の画像G1−3における領域D2′に対応する領域以外の領域の明るさが1/3となるように明るさ補正処理を行う。これにより、第1の画像G1−3の全領域の明るさが、露光時間1Tの明るさに相当するものとなる。
Next, in the first image G1-3, the exposure time of the area corresponding to the area D2 ′ overlapping the moving object area D2 is 1T, and the other exposure time is 3T. For this reason, the
次に第1の画像G1−4は、動体領域D3と重なる領域D3′に対応する領域の露光時間が1T、それ以外の露光時間は4Tである。このため、画像処理部31は、第1の画像G1−4における領域D3′に対応する領域以外の領域の明るさが1/4となるように明るさ補正処理を行う。これにより、第1の画像G1−4の全領域の明るさが、露光時間1Tの明るさに相当するものとなる。
Next, in the first image G1-4, the exposure time of the area corresponding to the area D3 ′ overlapping the moving object area D3 is 1T, and the other exposure time is 4T. For this reason, the
最後に第2の画像G2については、動体領域D5の露光時間が1Tに、動体領域D1〜D4および領域D1′〜D4′の露光時間が5Tに相当するものとなるように、動体領域D1〜D5および領域D1′〜D4′の明るさを補正する。具体的には、第2の画像G2における動体領域D1(領域D1′を除く)に相当する領域については、露光時間が4Tとなっているため、明るさが5/4倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D2(領域D2′を除く)に相当する領域については、露光時間が3Tとなっているため、明るさが5/3倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D3(領域D3′を除く)に相当する領域については、露光時間が2Tとなっているため、明るさが5/2倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D4に相当する領域については、露光時間が1Tとなっているため、明るさが5倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D5(領域D4′を除く)に相当する領域については、露光時間が5Tであるため、明るさが1/5倍となるように明るさ補正処理を行う。これにより、動体領域D5の明るさが、露光時間1Tの露光に相当するものとなる。さらに、第2の画像G2における動体領域D1〜D5以外の領域については、露光時間が5Tであるため、明るさ補正処理は行わない。
Finally, for the second image G2, the moving object regions D1 to D1 are set so that the exposure time of the moving object region D5 corresponds to 1T, and the exposure times of the moving object regions D1 to D4 and the regions D1 ′ to D4 ′ correspond to 5T. The brightness of D5 and areas D1 'to D4' is corrected. Specifically, since the exposure time is 4T in the region corresponding to the moving object region D1 (excluding the region D1 ′) in the second image G2, the brightness is increased to 5/4 times. Correction processing is performed. In addition, since the exposure time is 3T in the region corresponding to the moving object region D2 (excluding the region D2 ′) in the second image G2, the brightness correction process is performed so that the brightness becomes 5/3 times. I do. In addition, since the exposure time is 2T for the area corresponding to the moving object area D3 (excluding the area D3 ′) in the second image G2, the brightness correction process is performed so that the brightness becomes 5/2 times. I do. In addition, since the exposure time is 1T for the region corresponding to the moving object region D4 in the second image G2, the brightness correction process is performed so that the brightness becomes five times. Further, since the exposure time is 5T for the area corresponding to the moving object area D5 (excluding the area D4 ′) in the second image G2, the brightness correction process is performed so that the brightness becomes 1/5 times. . As a result, the brightness of the moving object region D5 corresponds to the exposure for the
次いで、合成部37が、第2の画像G2に含まれる動体と、と第1の画像G1−iに含まれる動体との位置が一致するようにこれらの画像を重ね合わせることにより合成画像を生成する(ステップST13)。これにより、合成画像の全領域の明るさは、露光時間が5Tの明るさに相当するものとなる。 Next, the combining unit 37 generates a combined image by superimposing these images so that the positions of the moving object included in the second image G2 and the moving object included in the first image G1-i coincide with each other. (Step ST13). As a result, the brightness of the entire area of the composite image is equivalent to a brightness with an exposure time of 5T.
そして、圧縮/伸長処理部32が、画像処理が施された合成画像の画像データから画像ファイルを生成し(ステップST14)、メディア制御部33が画像ファイルを記録メディア34に記録し(ステップST15)、処理を終了する。
Then, the compression /
このように、第1の実施形態によれば、撮像素子18における動体に対応する動体領域のみから繰り返し電荷が読み出されるため、撮像素子18の全領域から電荷を読み出す場合と比較して、第1の画像Gi−1の取得時には、フレームレートを速くすることができる。このため、第1の画像Gi−1に動体の残像が発生することが少なくなり、その結果、合成画像に含まれる動体を、残像のない高画質なものとすることができる。また、第2の画像G2は、最後の露光のときに一度のみ取得されることから、フレームレートには影響を与えない。また、第2の画像G2は一度のみ取得されるため、撮像素子18の残留ノイズの影響を低減することができる。したがって、合成画像の高画質化を図ることができる。また、第2の画像G2は撮像素子18の全領域から読み出した電荷を用いているため、合成画像の画角が狭くなることもなくなる。
As described above, according to the first embodiment, the charge is repeatedly read out only from the moving object region corresponding to the moving object in the
また、動体の位置およびその移動位置を予測し、動体の位置およびその移動位置に基づいて、動体領域からの電荷の読み出しを行っているため、第1の画像Gi−1を、確実に動体を含むものとすることができる。 In addition, since the position of the moving object and its moving position are predicted, and the charge is read from the moving object region based on the position of the moving object and its moving position, the first image Gi-1 is reliably displayed on the moving object. Can be included.
なお、上記第1の実施形態においては、第1の画像G1−iを取得する際に予測された移動位置にある動体領域のみから電荷を読み出しているが、電荷を読み出す動体領域の次に予測される移動位置の動体領域からも併せて電荷を読み出すようにしてもよい。以下これを第2の実施形態として説明する。図12から図16は第2の実施形態における電荷の読み出しを説明するための図である。 In the first embodiment, the charge is read out only from the moving body region at the movement position predicted when the first image G1-i is acquired. The charge may be read out from the moving body region at the moving position. Hereinafter, this will be described as a second embodiment. FIGS. 12 to 16 are diagrams for explaining charge reading in the second embodiment.
まず、1回目の電荷の読み出し時には、図12に示すように、動体領域D1および動体領域D2から同時に電荷を読み出し、さらに動体領域D2における領域D1′以外の領域(斜線で示す)から読み出した電荷を破棄して第1の画像G1−1を取得する。なお、撮像素子18における動体領域D1およびそれ以外の領域、すなわちすべての領域において露光時間は1Tとなる。
First, as shown in FIG. 12, at the time of reading the charge for the first time, the charges are simultaneously read from the moving body region D1 and the moving body region D2, and further, the charges read from the region other than the region D1 ′ in the moving body region D2 (shown by hatching). Is discarded and the first image G1-1 is acquired. The exposure time is 1T in the moving body region D1 and other regions in the
次いで、2回目の電荷の読み出し時には、図13に示すように、動体領域D2および動体領域D3から同時に電荷を読み出し、さらに、動体領域D3における領域D2′以外の領域(斜線で示す)から読み出した電荷を破棄して第1の画像G1−2を取得する。この際、動体領域D2からは1回目の電荷の読み出し時に電荷が読み出されているため、動体領域D2の露光時間は1Tとなる。また、動体領域D1(領域D1′を除く)の露光時間は1T、それ以外の領域の露光時間は2Tとなる。 Next, at the time of reading the charge for the second time, as shown in FIG. 13, the charges are simultaneously read from the moving object region D2 and the moving object region D3, and further read from the region other than the region D2 ′ in the moving object region D3 (shown by hatching). The charge is discarded and the first image G1-2 is acquired. At this time, since the charge is read from the moving body region D2 at the time of the first charge reading, the exposure time of the moving body region D2 is 1T. Further, the exposure time of the moving body region D1 (excluding the region D1 ′) is 1T, and the exposure time of the other regions is 2T.
次いで、3回目の電荷の読み出し時には、図14に示すように、動体領域D3および動体領域D4から同時に電荷を読み出し、さらに、動体領域D4における領域D3′以外の領域(斜線で示す)から読み出した電荷を破棄して第1の画像G1−3を取得する。この際、動体領域D3からは2回目の電荷の読み出し時に電荷が読み出されているため、動体領域D3の露光時間は1Tとなる。また、動体領域D1(領域D1′を除く)の露光時間は2T、動体領域D2(領域D2′を除く)の露光時間は1T、それ以外の領域の露光時間は3Tとなる。 Next, at the time of reading the charge for the third time, as shown in FIG. 14, the charges are simultaneously read from the moving object region D3 and the moving object region D4, and further read from the region other than the region D3 ′ in the moving object region D4 (shown by hatching). The charge is discarded and the first image G1-3 is acquired. At this time, since the charge is read from the moving body region D3 at the time of the second charge reading, the exposure time of the moving body region D3 is 1T. In addition, the exposure time of the moving object region D1 (excluding the region D1 ′) is 2T, the exposure time of the moving object region D2 (excluding the region D2 ′) is 1T, and the exposure time of other regions is 3T.
次いで、4回目の電荷の読み出し時には、図15に示すように、動体領域D4および動体領域D5から同時に電荷を読み出し、さらに、動体領域D5における領域D4′以外の領域(斜線で示す)から読み出した電荷を破棄して第1の画像G1−4を取得する。この際、動体領域D4からは3回目の電荷の読み出し時に電荷が読み出されているため、動体領域D4の露光時間は1Tとなる。また、動体領域D1(領域D1′を除く)の露光時間は3T、動体領域D2(領域D2′を除く)の露光時間は2T、動体領域D3(領域D3′を除く)の露光時間は1T、それ以外の領域の露光時間は4Tとなる。 Next, at the time of reading charges for the fourth time, as shown in FIG. 15, charges are simultaneously read from the moving object region D4 and the moving object region D5, and further read from regions other than the region D4 ′ in the moving object region D5 (shown by hatching). The charge is discarded and the first image G1-4 is acquired. At this time, since the charge is read from the moving body region D4 when the charge is read for the third time, the exposure time of the moving body region D4 is 1T. The exposure time of the moving object region D1 (excluding the region D1 ′) is 3T, the exposure time of the moving object region D2 (excluding the region D2 ′) is 2T, and the exposure time of the moving object region D3 (excluding the region D3 ′) is 1T. The exposure time for other areas is 4T.
5回目の電荷の読み出し時には、図16に示すように、動体領域D5を含む全領域から電荷を読み出して第2の画像G2を取得する。この際、動体領域D5からは4回目の電荷の読み出し時に電荷が読み出されているため、動体領域D5の露光時間は1Tとなる。また、動体領域D1(領域D1′を除く)の露光時間は4T、動体領域D2(領域D2′を除く)の露光時間は3T、動体領域D3(領域D3′を除く)の露光時間は2T、動体領域D4(領域D4′を除く)の露光時間は1T、それ以外の領域の露光時間は5Tとなる。 When the charge is read for the fifth time, as shown in FIG. 16, the second image G2 is acquired by reading the charge from the entire area including the moving object area D5. At this time, since the charge is read from the moving body region D5 at the time of the fourth charge reading, the exposure time of the moving body region D5 is 1T. The exposure time of the moving object region D1 (excluding the region D1 ′) is 4T, the exposure time of the moving object region D2 (excluding the region D2 ′) is 3T, and the exposure time of the moving object region D3 (excluding the region D3 ′) is 2T. The exposure time for the moving object region D4 (excluding the region D4 ′) is 1T, and the exposure time for the other regions is 5T.
なお、第2の実施形態における明るさ補正処理は以下のようにして行う。まず、第2の実施形態においては、すべての第1の画像G1−iの露光時間が1Tである。このため、画像処理部31は、すべての第1の画像G1−iの明るさを補正しない。第2の画像G2については、動体領域D5の露光時間が1Tに、動体領域D1〜D4および領域D1′〜D4′の露光時間が5Tに相当するものとなるように、動体領域D1〜D5および領域D1′〜D4′の明るさを補正する。具体的には、第2の画像G2における動体領域D1に相当する領域(領域D1′を除く)については、露光時間が4Tとなっているため、明るさが5/4倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D2(領域D2′を除く)に相当する領域については、露光時間が3Tとなっているため、明るさが5/3倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D3(領域D3′を除く)に相当する領域については、露光時間が2Tとなっているため、明るさが5/2倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D4(領域D4′を除く)に相当する領域については、露光時間が1Tとなっているため、明るさが5倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D5に相当する領域については、露光時間が1Tであるため明るさ補正処理を行わない。さらに、第2の画像G2における動体領域D1〜D5以外の領域については、露光時間が5Tであるため、明るさ補正処理を行わない。
Note that the brightness correction process in the second embodiment is performed as follows. First, in the second embodiment, the exposure time of all the first images G1-i is 1T. For this reason, the
このように、第2および第3の実施形態においては、動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域からも電荷を読み出し、次の動体領域から読み出した電荷を破棄して第1の画像G1−iを取得しているため、動体領域の露光時間を同一とすることができる。このため、合成画像の生成時における第1の画像G1−iの明るさを補正しなくてもよくなり、これにより、明るさ補正処理を高速に行うことができる。 As described above, in the second and third embodiments, when one charge is read from the moving body region, the charge is read also from the next moving body region where the charge is read next time, and the charge read from the next moving body region is read. Since the first image G1-i is acquired by discarding, the exposure time of the moving object region can be made the same. For this reason, it is not necessary to correct the brightness of the first image G1-i at the time of generating the composite image, and thus the brightness correction process can be performed at high speed.
なお、上記第2の実施形態においては、読み出した電荷を破棄しているが、読み出した電荷をそのまま用いて合成画像を生成するようにしてもよい。以下、これを第3の実施形態として説明する。 In the second embodiment, the read charges are discarded. However, a synthesized image may be generated using the read charges as they are. Hereinafter, this will be described as a third embodiment.
上記第2の実施形態においては、1回目の読み出し時において、動体領域D1および動体領域D2から同時に電荷を読み出し、さらに動体領域D2における領域D1′以外の領域から読み出した電荷を破棄して第1の画像G1−1を取得しているところを、第3の実施形態においては、動体領域D2における領域D1′以外の領域をもそのまま用いて第1の画像G1−1を取得する。また、2回目の読み出し時において、動体領域D2および動体領域D3から同時に電荷を読み出し、さらに動体領域D3における領域D2′以外の領域から読み出した電荷を破棄することなく、動体領域D3における領域D2′以外の領域をもそのまま用いて第1の画像G1−2を取得する。以下、3回目から5回目までの読み出し時も同様にして電荷を破棄することなく、第1の画像G1−1〜G1−4および第2の画像G2を取得する。 In the second embodiment, at the time of the first reading, the charge is simultaneously read from the moving object region D1 and the moving object region D2, and further, the charge read from the region other than the region D1 ′ in the moving object region D2 is discarded. In the third embodiment, the first image G1-1 is acquired using the area other than the area D1 ′ in the moving body area D2 as it is. Further, at the time of the second reading, the charges are simultaneously read from the moving object region D2 and the moving object region D3, and further, the charges read from the regions other than the region D2 ′ in the moving object region D3 are discarded, and the region D2 ′ in the moving object region D3 is discarded. The first image G1-2 is acquired using the other areas as they are. Thereafter, the first image G1-1 to G1-4 and the second image G2 are acquired without discarding the charge in the same manner during the third to fifth readings.
図17は第3の実施形態において取得された第1の画像G1−1〜G1−4を示す図である。図17に示すように第1の画像G1−1〜G1−4においては、それぞれ次回に電荷を読み出す動体領域に対応する画像が付与されたものとなっている。なお、第1の画像G1−4における動体領域D5に相当する部分については、電荷を破棄するものとする。 FIG. 17 is a diagram illustrating first images G1-1 to G1-4 acquired in the third embodiment. As shown in FIG. 17, in the first images G1-1 to G1-4, an image corresponding to the moving object region from which charges are read next time is given. Note that the charge corresponding to the moving object region D5 in the first image G1-4 is discarded.
なお、第3の実施形態における明るさ補正処理および合成は以下のようにして行う。まず、第3の実施形態においては、すべての第1の画像G1−iにおける動体領域に対応する領域の露光時間が1Tである。このため、画像処理部31は、第1の画像G1−iについては明るさを補正しない。また、すべての第1の画像G1−iにおける動体領域に対応する領域以外の領域については、第1の画像G1−iから切り離し、第2の画像G2の対応する位置に重ね合わせる。これにより、第2の画像G2上の各領域の露光時間は図18に示すものに相当するものとなる。
Note that the brightness correction processing and composition in the third embodiment are performed as follows. First, in the third embodiment, the exposure time of the area corresponding to the moving object area in all the first images G1-i is 1T. For this reason, the
したがって、第2の画像G2における動体領域D1に相当する領域(領域D1′を除く)、動体領域D2に相当する領域(領域D1′、D2′を除く)、動体領域D3に相当する領域(領域D2′、D3′を除く)、動体領域D4に相当する領域(領域D3′、D4′を除く)については、露光時間が4Tとなっているため、明るさが5/4倍となるように明るさ補正処理を行う。また、第2の画像G2における領域D1′、D2′、D3′に相当する領域については、露光時間が3Tとなっているため、明るさが5/3倍となるように明るさ補正処理を行う。また、第2の画像G2における動体領域D5に相当する領域(領域D4′を除く)については、露光時間が1Tであるため明るさ補正処理を行わない。領域D4′については、ここに第1の画像G1−iが加算されるため、明るさを1/4倍にする明るさ補正処理を行う。さらに、第2の画像G2における動体領域D1〜D5以外の領域については露光時間が5Tであるため、明るさ補正処理は行わない。 Accordingly, in the second image G2, a region corresponding to the moving object region D1 (excluding the region D1 ′), a region corresponding to the moving object region D2 (excluding the regions D1 ′ and D2 ′), and a region corresponding to the moving object region D3 (region). Since the exposure time is 4T in the area corresponding to the moving object area D4 (except for the areas D3 ′ and D4 ′), the brightness is 5/4 times. Perform brightness correction processing. In addition, since the exposure time is 3T for the areas corresponding to the areas D1 ′, D2 ′, and D3 ′ in the second image G2, the brightness correction process is performed so that the brightness becomes 5/3 times. Do. In addition, the brightness correction processing is not performed on the area corresponding to the moving object area D5 (except the area D4 ′) in the second image G2 because the exposure time is 1T. For the region D4 ′, since the first image G1-i is added here, a brightness correction process for increasing the brightness to ¼ is performed. Furthermore, since the exposure time is 5T for the areas other than the moving object areas D1 to D5 in the second image G2, the brightness correction process is not performed.
このように、第3の実施形態においては、動体領域からの1回の電荷の読み出し時に、次回に電荷を読み出す次の動体領域からも電荷を読み出し、次の動体領域から読み出した電荷とともに第1の画像G1−iを取得することにより、動体領域の露光時間を同一とすることができる。このため、合成画像の生成時における第1の画像の明るさを補正しなくてもよくなり、これにより、明るさ補正処理を高速に行うことができる。また、読み出した電荷を有効に利用することができるため、合成画像の生成時における明るさの補正の程度を少なくすることができ、その結果、合成画像の画質をより向上させることができる。 As described above, in the third embodiment, when one charge is read from the moving body region, the charge is also read from the next moving body region where the charge is read next time, and the first reading is performed together with the charge read from the next moving body region. By acquiring the image G1-i, the exposure time of the moving object region can be made the same. For this reason, it is not necessary to correct the brightness of the first image at the time of generating the composite image, whereby the brightness correction process can be performed at high speed. Further, since the read charges can be used effectively, the degree of brightness correction at the time of generating the composite image can be reduced, and as a result, the image quality of the composite image can be further improved.
なお、上記第1から第3の実施形態においては、第2の画像G2における最大の露光時間となる領域の明るさに相当するものとなるように第1の画像G1−iおよび第2の画像G2の明るさを補正しているが、あらかじめ定められた明るさとなるように第1の画像G1−iおよび第2の画像G2の明るさを補正するようにしてもよい。 In the first to third embodiments, the first image G1-i and the second image are set so as to correspond to the brightness of the region having the maximum exposure time in the second image G2. Although the brightness of G2 is corrected, the brightness of the first image G1-i and the second image G2 may be corrected so as to have a predetermined brightness.
また、上記第2および第3の実施形態においては、電荷の読み出しの対象となる動体領域Diおよび次に電荷を読み出す動体領域Di+1から電荷を読み出しているが、この2つの動体領域Di,Di+1の双方を含む領域から電荷を読み出すようにしてもよい。例えば、動体領域D1,D2から電荷を読み出す場合に、図19に示すように動体領域D1,D2に外接する領域A1から電荷を読み出すようにしてもよい。この場合、第2の実施形態においては領域A1における動体領域D1以外の領域(斜線で示す)から読み出した電荷を破棄して第1の画像G1−1を取得する。また、第3の実施形態においては、領域A1に対応する画像を第1の画像G1−1として取得する。この場合、とくに電荷を読み出す領域A1を矩形の領域とすることにより、撮像素子18からの電荷の読み出しを簡易に行うことができる。なお、第2の画像の明るさ補正処理は、電荷を読み出した領域の露光時間に応じて、上記第2および第3の実施形態と同様に行えばよい。
In the second and third embodiments, charges are read from the moving object region Di to be read out of charges and the moving object region Di + 1 that reads out charges next, but the two moving object regions Di and Di + 1 You may make it read an electric charge from the area | region containing both. For example, when reading charges from the moving object regions D1 and D2, the charges may be read from a region A1 circumscribing the moving object regions D1 and D2, as shown in FIG. In this case, in the second embodiment, the first image G1-1 is acquired by discarding the charges read from the region A1 other than the moving body region D1 (indicated by hatching). In the third embodiment, an image corresponding to the region A1 is acquired as the first image G1-1. In this case, the charge A can be easily read out from the
以上、本発明の実施形態に係るデジタルカメラ1について説明したが、コンピュータを、上記のAE処理部29、動体検出部36および合成部37に対応する手段として機能させ、図6に示すような処理を行わせるプログラムも本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も本発明の実施形態の1つである。
The
1 デジタルカメラ
5 モニタ
9 撮像系
10 撮影レンズ
11 フォーカスレンズ駆動部
23 発光制御部
24 フラッシュ
28 AF処理部
29 AE処理部
36 動体検出部
37 合成部
40 CPU
DESCRIPTION OF
Claims (8)
露光開始から露光時間が所定の時間に達するまで、前記撮像素子における前記被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しを、前記動体領域の移動に対応して繰り返し行うことにより複数の第1の画像信号を取得し、前記所定の時間に達したときに、前記撮像素子における全領域からの電荷の読み出しを行うことにより第2の画像信号を取得するよう前記撮像素子を制御する撮像制御手段とを備えたことを特徴とする撮影装置。 An image sensor that photoelectrically converts a subject image to obtain an image signal;
By repeatedly reading out charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor in response to the movement of the moving object region until the exposure time reaches a predetermined time from the start of exposure. The plurality of first image signals are acquired, and when the predetermined time is reached, the image sensor is controlled to acquire the second image signal by reading out charges from the entire area of the image sensor. An imaging apparatus comprising: an imaging control means for performing
前記撮像制御手段は、前記動体の位置および前記移動位置に基づいて、前記動体領域のみからの前記電荷の読み出しを行うよう前記撮像素子を制御する手段であることを特徴とする請求項1記載の撮影装置。 Based on an image represented by an image signal acquired by the image sensor before the start of exposure, further comprising a moving object detecting means for detecting the position of the moving object and predicting its moving position;
The image pickup control means is means for controlling the image pickup device so as to read out the electric charge only from the moving object region based on the position of the moving object and the moving position. Shooting device.
前記合成手段は、前記明るさ補正が行われた後の前記複数の第1の画像および前記第2の画像を合成して前記合成画像を生成する手段であることを特徴とする請求項5記載の撮影装置。 Brightness correction means for correcting the brightness of the first image and the second image according to the exposure time of each pixel in the plurality of first images and the second image;
6. The means for synthesizing the plurality of first images and the second image after the brightness correction is performed to generate the synthesized image. Shooting device.
露光開始から露光時間が所定の時間に達するまで、前記撮像素子における前記被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しを、前記動体領域の移動に対応して繰り返し行うことにより複数の第1の画像信号を取得し、
前記所定の時間に達したときに、前記撮像素子における全領域からの電荷の読み出しを行うことにより第2の画像信号を取得することを特徴とする撮影装置の制御方法。 A method for controlling an imaging apparatus including an image sensor that photoelectrically converts a subject image to acquire an image signal,
By repeatedly reading out charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor in response to the movement of the moving object region until the exposure time reaches a predetermined time from the start of exposure. Obtaining a plurality of first image signals;
When the predetermined time is reached, a second image signal is obtained by reading out charges from the entire area of the image sensor, and a method for controlling the photographing apparatus.
露光開始から露光時間が所定の時間に達するまで、前記撮像素子における前記被写体像に含まれる動体に対応する動体領域のみからの電荷の読み出しを、前記動体領域の移動に対応して繰り返し行うことにより複数の第1の画像信号を取得する手順と、
前記所定の時間に達したときに、前記撮像素子における全領域からの電荷の読み出しを行うことにより第2の画像信号を取得する手順とをコンピュータに実行させることを特徴とするプログラム。 A program for causing a computer to execute a control method of an imaging device including an imaging device that photoelectrically converts a subject image to acquire an image signal,
By repeatedly reading out charges from only the moving object region corresponding to the moving object included in the subject image in the image sensor in response to the movement of the moving object region until the exposure time reaches a predetermined time from the start of exposure. Obtaining a plurality of first image signals;
A program for causing a computer to execute a procedure of acquiring a second image signal by reading out electric charges from all areas in the image sensor when the predetermined time is reached.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008315398A JP5184325B2 (en) | 2008-12-11 | 2008-12-11 | Image capturing apparatus, image capturing apparatus control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008315398A JP5184325B2 (en) | 2008-12-11 | 2008-12-11 | Image capturing apparatus, image capturing apparatus control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010141551A JP2010141551A (en) | 2010-06-24 |
JP5184325B2 true JP5184325B2 (en) | 2013-04-17 |
Family
ID=42351294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008315398A Expired - Fee Related JP5184325B2 (en) | 2008-12-11 | 2008-12-11 | Image capturing apparatus, image capturing apparatus control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5184325B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130176463A1 (en) * | 2012-01-09 | 2013-07-11 | Nokia Corporation | Method and Apparatus for Image Scaling in Photography |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002027300A (en) * | 2000-07-05 | 2002-01-25 | Minolta Co Ltd | Digital camera |
JP2006324834A (en) * | 2005-05-18 | 2006-11-30 | Hitachi Ltd | Device and method for imaging |
JP5217213B2 (en) * | 2007-03-30 | 2013-06-19 | カシオ計算機株式会社 | Imaging apparatus and program |
-
2008
- 2008-12-11 JP JP2008315398A patent/JP5184325B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010141551A (en) | 2010-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5214476B2 (en) | Imaging apparatus, image processing method, and program | |
JP5347707B2 (en) | Imaging apparatus and imaging method | |
JP4567593B2 (en) | Imaging apparatus and imaging method | |
JP3395770B2 (en) | Digital still camera | |
JP5123137B2 (en) | Imaging apparatus and imaging method | |
JP5343588B2 (en) | Imaging device | |
JP2010166304A (en) | Photographing apparatus, method of controlling the same, and program | |
JP2010093679A (en) | Imaging apparatus, and imaging control method | |
JP5138521B2 (en) | Imaging apparatus and imaging method | |
JP5936323B2 (en) | Image recording apparatus and control method thereof | |
JP2007336394A (en) | Imaging apparatus and image compositing method | |
JP2007299339A (en) | Image reproducing device, method and program | |
JP4033456B2 (en) | Digital camera | |
JP4865648B2 (en) | Imaging device | |
JP5948997B2 (en) | Imaging apparatus and imaging method | |
JP4717836B2 (en) | Imaging apparatus, method, and program | |
JP2010026039A (en) | Photographing apparatus, and control method and program of photographing apparatus | |
JP5184325B2 (en) | Image capturing apparatus, image capturing apparatus control method, and program | |
JP5310331B2 (en) | Imaging apparatus and imaging method | |
KR101408359B1 (en) | Imaging apparatus and imaging method | |
JP5248928B2 (en) | Imaging control apparatus, method thereof, and program | |
JP2010087663A (en) | Imaging apparatus and method for controlling flash emission | |
JP3727841B2 (en) | Digital still camera | |
JP2010136239A (en) | Photographic apparatus, control method of the photographic apparatus and program | |
JP5027055B2 (en) | Image processing apparatus and method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD15 | Notification of revocation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7435 Effective date: 20110421 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5184325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160125 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |