JP5548023B2 - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP5548023B2 JP5548023B2 JP2010107041A JP2010107041A JP5548023B2 JP 5548023 B2 JP5548023 B2 JP 5548023B2 JP 2010107041 A JP2010107041 A JP 2010107041A JP 2010107041 A JP2010107041 A JP 2010107041A JP 5548023 B2 JP5548023 B2 JP 5548023B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- misregistration
- images
- unit
- positional deviation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、複数の画像間の位置ずれを補正し、位置ずれ補正後の画像を合成して合成画像を生成する技術に関する。 The present invention relates to a technique for correcting a misalignment between a plurality of images and generating a composite image by synthesizing images after the misalignment correction.
従来、異なる露出条件で撮像された複数の画像間の位置ずれを補正し、位置ずれ補正後の画像を合成することにより、ダイナミックレンジの広い画像を生成する技術が知られている(特許文献1参照)。 2. Description of the Related Art Conventionally, a technique for generating an image with a wide dynamic range by correcting misalignment between a plurality of images captured under different exposure conditions and synthesizing images after misalignment correction (Patent Document 1). reference).
しかしながら、従来の技術では、複数の画像間の位置ずれを画一的な方法で補正しており、画像中の被写体領域を考慮した位置ずれ補正は行われていなかった。 However, in the conventional technique, the positional deviation between the plurality of images is corrected by a uniform method, and the positional deviation correction considering the subject area in the image has not been performed.
本発明は、画像中の領域に応じた位置ずれ補正を行ってから、位置ずれ補正後の画像を合成して、合成画像を生成する技術を提供することを目的とする。 It is an object of the present invention to provide a technique for generating a composite image by performing positional deviation correction corresponding to a region in an image and then synthesizing images after positional deviation correction.
本発明のある態様に係る撮像装置は、撮像により得られる複数の画像を合成して合成画像を生成することができる撮像装置であって、撮像素子で受光した被写体光を光電変換することによって画像データを得る撮像部と、前記画像データの画像領域全体のうち、一部の画像領域を選択する画像領域選択部と、前記画像領域全体を対象として、前記複数の画像間の位置ずれを検出する第1の位置ずれ検出部と、前記一部の画像領域を対象として、前記第1の位置ずれ検出部による位置ずれ検出方法とは異なる位置ずれ検出方法にて、前記複数の画像間の位置ずれを検出する第2の位置ずれ検出部と、前記第1の位置ずれ検出部で検出された位置ずれに基づいて、前記画像領域全体を対象として、前記複数の画像間の位置ずれを補正する第1の位置ずれ補正部と、前記第2の位置ずれ検出部で検出された位置ずれに基づいて、前記一部の画像領域を対象として、前記複数の画像間の位置ずれを補正する第2の位置ずれ補正部と、前記画像領域全体を対象として位置ずれが補正された複数の画像を合成して、第1の合成画像を生成する第1の合成部と、前記一部の画像領域を対象として位置ずれが補正された複数の画像を合成して、第2の合成画像を生成する第2の合成部と、前記第1の合成画像および前記第2の合成画像を表示する表示部と、を備え、前記第2の位置ずれ検出部の位置ずれ検出精度は、前記第1の位置ずれ検出部の位置ずれ検出精度よりも高い。 An imaging apparatus according to an aspect of the present invention is an imaging apparatus that can generate a composite image by combining a plurality of images obtained by imaging, and performs image conversion by subjecting subject light received by the imaging element to photoelectric conversion. An image capturing unit that obtains data, an image region selecting unit that selects a part of the image region of the image data, and a positional shift between the plurality of images are detected for the entire image region. Position shift between the plurality of images by a position shift detection method different from the position shift detection method by the first position shift detection unit for the first position shift detection unit and the partial image region. And a second misalignment detecting unit for detecting misalignment and a misalignment between the plurality of images for the entire image region based on the misalignment detected by the first misalignment detecting unit. 1's place A second misalignment correction that corrects misalignment between the plurality of images for the partial image region based on the misalignment detected by the misalignment correction unit and the second misalignment detection unit. A first compositing unit that generates a first composite image by combining a plurality of images in which the positional deviation is corrected for the entire image area, and a positional deviation for the partial image area A second combining unit that combines the plurality of images corrected to generate a second combined image, and a display unit that displays the first combined image and the second combined image , The positional deviation detection accuracy of the second positional deviation detection unit is higher than the positional deviation detection accuracy of the first positional deviation detection unit .
本発明の別の態様に係る撮像方法は、撮像により得られる複数の画像を合成して合成画像を生成することができる撮像装置を用いた撮像方法であって、画像データの画像領域全体のうち、一部の画像領域を選択するステップと、前記画像領域全体を対象として、前記複数の画像間の位置ずれを検出する第1の位置ずれ検出ステップと、前記一部の画像領域を対象として、前記第1の位置ずれ検出ステップにおける位置ずれ検出方法とは異なる位置ずれ検出方法にて、前記複数の画像間の位置ずれを検出する第2の位置ずれ検出ステップと、前記第1の位置ずれ検出ステップで検出された位置ずれに基づいて、前記画像領域全体を対象として、前記複数の画像間の位置ずれを補正するステップと、前記第2の位置ずれ検出ステップで検出された位置ずれに基づいて、前記一部の画像領域を対象として、前記複数の画像間の位置ずれを補正するステップと、前記画像領域全体を対象として位置ずれが補正された複数の画像を合成して、第1の合成画像を生成するステップと、前記一部の画像領域を対象として位置ずれが補正された複数の画像を合成して、第2の合成画像を生成するステップと、前記第1の合成画像および前記第2の合成画像を表示するステップと、を備え、前記第2の位置ずれ検出ステップの位置ずれ検出精度は、前記第1の位置ずれ検出ステップの位置ずれ検出精度よりも高い。 An imaging method according to another aspect of the present invention is an imaging method using an imaging apparatus capable of generating a composite image by combining a plurality of images obtained by imaging, and out of the entire image area of image data. Selecting a partial image region; targeting the entire image region; a first misalignment detecting step for detecting misalignment between the plurality of images; and targeting the partial image region. A second displacement detection step for detecting displacement between the plurality of images by a displacement detection method different from the displacement detection method in the first displacement detection step; and the first displacement detection. Based on the misalignment detected in the step, the misalignment between the plurality of images is corrected for the entire image region, and the misalignment detected in the second misalignment detection step. Based on the misalignment, a step of correcting misalignment between the plurality of images for the partial image region, and a plurality of images corrected for misalignment for the entire image region are synthesized. Generating a first synthesized image; synthesizing a plurality of images whose positional deviations are corrected for the partial image region; and generating a second synthesized image; and And a step of displaying the composite image and the second composite image, and the displacement detection accuracy of the second displacement detection step is higher than the displacement detection accuracy of the first displacement detection step .
本発明によれば、画像中の領域に応じた位置ずれ補正を行ってから、位置ずれ補正後の画像を合成して、合成画像を生成することができる。 According to the present invention, it is possible to generate a composite image by performing positional deviation correction according to a region in an image and then combining the images after positional deviation correction.
−第1の実施形態−
図1は、第1の実施形態における撮像装置であるデジタルスチルカメラの構成を示すブロック図である。図1に示すデジタルスチルカメラは、カメラ本体1と交換式レンズ2から構成される。
-First embodiment-
FIG. 1 is a block diagram illustrating a configuration of a digital still camera that is an imaging apparatus according to the first embodiment. The digital still camera shown in FIG. 1 includes a camera body 1 and an interchangeable lens 2.
交換式レンズ2は、レンズ1010と、Flashメモリ1011と、マイクロコンピュータ1012と、ドライバ1013と、絞り1014と、を有している。交換式レンズ2は、I/F999を介して、カメラ本体1と通信可能に接続されている。 The interchangeable lens 2 includes a lens 1010, a flash memory 1011, a microcomputer 1012, a driver 1013, and a diaphragm 1014. The interchangeable lens 2 is communicably connected to the camera body 1 via the I / F 999.
カメラ本体1は、メカシャッター101と、撮像素子102と、アナログ処理部103と、アナログ/デジタル変換部104(以下、A/D変換部104)と、バス105と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、画像圧縮伸長部110と、メモリインターフェース111(以下、メモリI/F111)と、記録媒体112と、LCDドライバ113と、LCD114と、マイクロコンピュータ115と、操作部116と、Flashメモリ117と、振動センサ118と、動きベクトル算出部119と、合成処理部120と、動体追尾部121とを有している。 The camera body 1 includes a mechanical shutter 101, an image sensor 102, an analog processing unit 103, an analog / digital conversion unit 104 (hereinafter referred to as A / D conversion unit 104), a bus 105, an SDRAM 106, and an image processing unit 107. An AE processing unit 108, an AF processing unit 109, an image compression / decompression unit 110, a memory interface 111 (hereinafter referred to as a memory I / F 111), a recording medium 112, an LCD driver 113, an LCD 114, and a microcomputer 115. An operation unit 116, a flash memory 117, a vibration sensor 118, a motion vector calculation unit 119, a synthesis processing unit 120, and a moving object tracking unit 121.
レンズ1010は、被写体の光学像を撮像素子102に集光させる。レンズ1010は、単焦点レンズであってもよいし、ズームレンズであってもよい。 The lens 1010 focuses the optical image of the subject on the image sensor 102. The lens 1010 may be a single focus lens or a zoom lens.
マイクロコンピュータ1012は、I/F999、Flashメモリ1011、および、ドライバ1013と接続されていて、Flashメモリ1011に記憶されている情報の読み込み・書き込みを行うとともに、ドライバ1013を制御する。マイクロコンピュータ1012は、さらに、I/F999を介して、マイクロコンピュータ115と通信することができ、レンズの焦点距離情報などをマイクロコンピュータ115へ送信し、また、マイクロコンピュータ115から絞り値等の情報を受信する。 The microcomputer 1012 is connected to the I / F 999, the flash memory 1011 and the driver 1013. The microcomputer 1012 reads and writes information stored in the flash memory 1011 and controls the driver 1013. The microcomputer 1012 can further communicate with the microcomputer 115 via the I / F 999, transmits lens focal length information and the like to the microcomputer 115, and receives information such as an aperture value from the microcomputer 115. Receive.
ドライバ1013は、マイクロコンピュータ1012の指示を受けて、レンズ1010を駆動させて、焦点距離やフォーカス位置の変更を行うとともに、絞り1014を駆動する。絞り1014は、レンズ1010の近傍に設けられ、被写体の光量を調節する。 In response to an instruction from the microcomputer 1012, the driver 1013 drives the lens 1010 to change the focal length and focus position, and drives the aperture 1014. The aperture 1014 is provided in the vicinity of the lens 1010 and adjusts the amount of light of the subject.
メカシャッター101は、マイクロコンピュータ115の指示を受けて駆動し、撮像素子102に被写体を露光する時間を制御する。 The mechanical shutter 101 is driven in response to an instruction from the microcomputer 115 to control the time for exposing the subject to the image sensor 102.
撮像素子102は、各画素を構成するフォトダイオードの前面に、ベイヤー配列のカラーフィルタが配置された撮像素子である。ベイヤー配列は、水平方向にR画素とG(Gr)画素が交互に配置されたラインと、G(Gb)画素とB画素が交互に配置されたラインとを有し、さらにその2つのラインを垂直方向にも交互に配置することで構成されている。この撮像素子102は、レンズ1010により集光された光を、画素を構成するフォトダイオードで受光して光電変換することで、光の量を電荷量としてアナログ処理部103へ出力する。なお、撮像素子102は、CMOS方式のものでもCCD方式のものでも良い。 The image sensor 102 is an image sensor in which a Bayer array color filter is arranged in front of a photodiode constituting each pixel. The Bayer array has a line in which R pixels and G (Gr) pixels are alternately arranged in a horizontal direction, and a line in which G (Gb) pixels and B pixels are alternately arranged, and the two lines are further divided. It is configured by alternately arranging in the vertical direction. The imaging element 102 receives the light collected by the lens 1010 by a photodiode that constitutes a pixel and performs photoelectric conversion, and outputs the amount of light to the analog processing unit 103 as a charge amount. The image sensor 102 may be a CMOS type or a CCD type.
アナログ処理部103は、撮像素子102から読み出された電気信号(アナログ画像信号)に対し、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるように、ゲインアップを行う。A/D変換部104は、アナログ処理部103から出力されたアナログ画像信号をデジタル画像信号(以後、画像データという)に変換する。 The analog processing unit 103 performs waveform shaping on the electrical signal (analog image signal) read from the image sensor 102 while reducing reset noise and the like, and further increases the gain so that the target brightness is obtained. . The A / D conversion unit 104 converts the analog image signal output from the analog processing unit 103 into a digital image signal (hereinafter referred to as image data).
バス105は、デジタルカメラ内部で発生した各種データをデジタルカメラ内の各部に転送するための転送路である。バス105は、A/D変換部104と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、画像圧縮伸長部110と、メモリI/F111と、LCDドライバ113と、マイクロコンピュータ115と、振動センサ118と、動きベクトル算出部119と、合成処理部120と、動体追尾部121に接続されている。 A bus 105 is a transfer path for transferring various data generated in the digital camera to each unit in the digital camera. The bus 105 includes an A / D conversion unit 104, an SDRAM 106, an image processing unit 107, an AE processing unit 108, an AF processing unit 109, an image compression / decompression unit 110, a memory I / F 111, an LCD driver 113, and the like. The microcomputer 115, the vibration sensor 118, the motion vector calculation unit 119, the synthesis processing unit 120, and the moving object tracking unit 121 are connected.
A/D変換部104から出力される画像データは、バス105を介して一旦SDRAM106に記憶される。SDRAM106は、A/D変換部104において得られた画像データや、画像処理部107、画像圧縮伸長部110、合成処理部120、動体追尾部121において処理された画像データ等の各種データが一時的に記憶される記憶部である。 The image data output from the A / D conversion unit 104 is temporarily stored in the SDRAM 106 via the bus 105. The SDRAM 106 temporarily stores various data such as image data obtained by the A / D conversion unit 104 and image data processed by the image processing unit 107, the image compression / decompression unit 110, the synthesis processing unit 120, and the moving object tracking unit 121. Is a storage unit stored in
画像処理部107は、ホワイトバランス補正部1071(以下、WB補正部1071)、同時化処理部1072、色再現処理部1073、および、ノイズ低減処理部1074(以下、NR処理部1074)を含み、SDRAM106から読み出した画像データに対して様々な画像処理を施す。WB補正部1071は、画像データのホワイトバランスを補正する処理を行う。同時化処理部1072は、ベイヤー配列による画像データから、1画素あたりR、G、Bの情報からなる画像データへ同時化する処理を行う。色再現処理部1073は、画像の色味を変化させる色再現処理を行い、NR処理部1074は、ノイズを低減する処理を行う。ノイズ低減処理後の画像データは、SDRAM106に記憶される。 The image processing unit 107 includes a white balance correction unit 1071 (hereinafter, WB correction unit 1071), a synchronization processing unit 1072, a color reproduction processing unit 1073, and a noise reduction processing unit 1074 (hereinafter, NR processing unit 1074). Various image processing is performed on the image data read from the SDRAM 106. The WB correction unit 1071 performs processing for correcting the white balance of the image data. The synchronization processing unit 1072 performs a process of synchronizing image data based on the Bayer array into image data including R, G, and B information per pixel. The color reproduction processing unit 1073 performs color reproduction processing that changes the color of an image, and the NR processing unit 1074 performs processing to reduce noise. The image data after the noise reduction processing is stored in the SDRAM 106.
振動センサ118は、いわゆる手ブレを含むカメラ本体1の動きを検出する。動きベクトル算出部119は、連続的な撮影により得られた複数の画像間の動きベクトルを算出する。動きベクトル算出部119の詳細な構成については、図2を用いて後述する。 The vibration sensor 118 detects the movement of the camera body 1 including so-called camera shake. The motion vector calculation unit 119 calculates a motion vector between a plurality of images obtained by continuous shooting. The detailed configuration of the motion vector calculation unit 119 will be described later with reference to FIG.
合成処理部120は、連続的に撮影された複数の画像を合成する。特に、合成処理部120は、被写体輝度に応じた標準露光時間よりも短い露光時間で撮影された画像データと、標準露光時間よりも長い露光時間で撮影された画像データとを合成することによって、ダイナミックレンジの広い合成画像を生成する。 The composition processing unit 120 synthesizes a plurality of images photographed continuously. In particular, the composition processing unit 120 synthesizes image data photographed with an exposure time shorter than the standard exposure time according to the subject brightness and image data photographed with an exposure time longer than the standard exposure time, Generate a composite image with a wide dynamic range.
動体追尾部121は、動体である注目被写体を既知の方法により追尾する。追尾対象である注目被写体の決定方法については後述する。 The moving object tracking unit 121 tracks a subject of interest that is a moving object by a known method. A method for determining the subject of interest that is the tracking target will be described later.
AE処理部108は、画像データから被写体輝度を算出する。被写体輝度を算出するためのデータは、専用の測光センサの出力であってもよい。AF処理部109は、画像データから高周波成分の信号を取り出し、AF(Auto Focus)積算処理により、合焦評価値を取得する。 The AE processing unit 108 calculates subject luminance from the image data. The data for calculating the subject brightness may be an output of a dedicated photometric sensor. The AF processing unit 109 extracts a high-frequency component signal from the image data, and acquires a focus evaluation value by AF (Auto Focus) integration processing.
画像圧縮伸長部110は、静止画像データの記録時には、SDRAM106から画像データを読み出し、読み出した画像データをJPEG圧縮方式に従って圧縮して、圧縮したJPEG画像データを、SDRAM106に一旦記憶する。マイクロコンピュータ115は、SDRAM106に記憶されたJPEG画像データに対して、JPEGファイルを構成するために必要なJPEGヘッダを付加してJPEGファイルを作成し、作成したJPEGファイルを、メモリI/F111を介して記録媒体112に記録する。 When recording still image data, the image compression / decompression unit 110 reads image data from the SDRAM 106, compresses the read image data according to the JPEG compression method, and temporarily stores the compressed JPEG image data in the SDRAM 106. The microcomputer 115 creates a JPEG file by adding a JPEG header necessary for constructing a JPEG file to the JPEG image data stored in the SDRAM 106, and sends the created JPEG file via the memory I / F 111. To the recording medium 112.
画像圧縮伸長部110は、また、動画データの記録時には、SDRAM106から動画データを読み出し、読み出した動画データを、例えば、H.264方式に従って圧縮して、圧縮した動画データをSDRAM106に一旦記憶する。画像圧縮伸長部110は、さらに、マイクロコンピュータ115からの指令に基づいて、圧縮データを展開(伸長)する処理を行う。 The image compression / decompression unit 110 also reads moving image data from the SDRAM 106 when recording moving image data. The compressed moving image data is temporarily stored in the SDRAM 106 after being compressed according to the H.264 system. The image compression / decompression unit 110 further performs a process of expanding (decompressing) the compressed data based on a command from the microcomputer 115.
記録媒体112は、例えばカメラ本体1に着脱可能なメモリカードからなる記録媒体であるが、これに限定されるものではない。 The recording medium 112 is, for example, a recording medium including a memory card that can be attached to and detached from the camera body 1, but is not limited thereto.
LCDドライバ113は、LCD114に画像を表示させる。画像の表示には、撮影直後の画像データを短時間だけ表示するレックビュー表示、記録媒体112に記録されたJPEGファイルの再生表示、および、ライブビュー表示等の動画の表示が含まれる。記録媒体112に記録された圧縮データを再生する場合、画像圧縮伸長部110は、記録媒体112に記録されている圧縮データを読み出して展開(伸長)処理を施した上で、展開したデータを一旦SDRAM106に記憶させる。LCDドライバ113は、伸張されたデータをSDRAM106から読み出し、読み出したデータを映像信号へ変換した後でLCD114へ出力して表示を行う。 The LCD driver 113 displays an image on the LCD 114. Display of images includes display of moving images such as REC view display that displays image data immediately after shooting for a short time, playback display of a JPEG file recorded on the recording medium 112, and live view display. When reproducing the compressed data recorded on the recording medium 112, the image compression / decompression unit 110 reads out the compressed data recorded on the recording medium 112, performs decompression (decompression) processing, and then temporarily decompresses the decompressed data. It is stored in the SDRAM 106. The LCD driver 113 reads the decompressed data from the SDRAM 106, converts the read data into a video signal, and then outputs it to the LCD 114 for display.
後述するように、本実施形態では、画像中に追尾対象の被写体が存在する場合、画像をLCD114に表示する際に、追尾対象の被写体を拡大して重畳表示する。 As will be described later, in the present embodiment, when a tracking target subject exists in the image, the tracking target subject is enlarged and superimposed when the image is displayed on the LCD 114.
制御部としての機能を有するマイクロコンピュータ115は、デジタルカメラ本体1の各種シーケンスを統括的に制御する。マイクロコンピュータ115には、操作部116およびFlashメモリ117が接続されている。 The microcomputer 115 having a function as a control unit comprehensively controls various sequences of the digital camera body 1. An operation unit 116 and a flash memory 117 are connected to the microcomputer 115.
操作部116は、電源ボタン、レリーズボタン、各種入力キー等の操作部材である。ユーザによって、操作部116の何れかの操作部材が操作されることにより、マイクロコンピュータ115は、ユーザの操作に応じた各種シーケンスを実行する。電源ボタンは、当該デジタルカメラの電源のオン/オフ指示を行うための操作部材である。電源ボタンが押されると、当該デジタルカメラの電源がオンとなる。再度、電源ボタンが押されると、当該デジタルカメラの電源はオフとなる。レリーズボタンは、ファーストレリーズスイッチとセカンドレリーズスイッチの2段スイッチを有して構成されている。レリーズボタンが半押しされて、ファーストレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、AE処理やAF処理等の撮影準備シーケンスを行う。また、レリーズボタンが全押しされて、セカンドレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、撮影シーケンスを実行して撮影を行う。 The operation unit 116 is an operation member such as a power button, a release button, and various input keys. When one of the operation members of the operation unit 116 is operated by the user, the microcomputer 115 executes various sequences according to the user's operation. The power button is an operation member for instructing power on / off of the digital camera. When the power button is pressed, the power of the digital camera is turned on. When the power button is pressed again, the power of the digital camera is turned off. The release button has a two-stage switch of a first release switch and a second release switch. When the release button is pressed halfway and the first release switch is turned on, the microcomputer 115 performs a shooting preparation sequence such as AE processing and AF processing. Further, when the release button is fully pressed and the second release switch is turned on, the microcomputer 115 performs shooting by executing a shooting sequence.
Flashメモリ117は、ホワイトバランス補正値やローパスフィルタ係数、デジタルカメラの動作に必要な各種パラメータや、デジタルスチルカメラを特定するための製造番号などを記憶している。また、Flashメモリ117は、マイクロコンピュータ115にて実行する各種プログラムも記憶している。マイクロコンピュータ115は、Flashメモリ117に記憶されているプログラムに従い、またFlashメモリ117から各種シーケンスに必要なパラメータを読み込み、各処理を実行する。 The flash memory 117 stores a white balance correction value, a low-pass filter coefficient, various parameters necessary for the operation of the digital camera, a manufacturing number for specifying the digital still camera, and the like. The flash memory 117 also stores various programs executed by the microcomputer 115. The microcomputer 115 reads parameters necessary for various sequences from the flash memory 117 according to a program stored in the flash memory 117, and executes each process.
図2は、動きベクトル算出部119の詳細な構成を示すブロック図である。動きベクトル算出部119は、評価フレーム取得部20と、輝度信号抽出部21と、評価フレーム領域設定部22と、比較フレーム取得部23と、輝度信号抽出部24と、比較フレーム領域設定部25と、フレーム間相関処理部26と、信頼度判定部27と、領域別動きベクトル算出部28と、フレーム全体動きベクトル算出部29と、局所動きベクトル算出部30とを備える。 FIG. 2 is a block diagram illustrating a detailed configuration of the motion vector calculation unit 119. The motion vector calculation unit 119 includes an evaluation frame acquisition unit 20, a luminance signal extraction unit 21, an evaluation frame region setting unit 22, a comparison frame acquisition unit 23, a luminance signal extraction unit 24, and a comparison frame region setting unit 25. The inter-frame correlation processing unit 26, the reliability determination unit 27, the area-specific motion vector calculation unit 28, the entire frame motion vector calculation unit 29, and the local motion vector calculation unit 30 are provided.
SDRAM106には、連続的に撮影された少なくとも2つの画像データが格納されている。この画像データは、例えば、被写体輝度に応じた標準露光時間よりも短い露光時間で撮影された画像データと、標準露光時間よりも長い露光時間で撮影された画像データである。評価フレーム取得部20は、SDRAM106に格納されている2つの画像データから、動きベクトルを算出する際に基準とする画像データを読み出す。基準とする画像データは、2つの画像データのうち、いずれの画像データでもよい。ここでは、基準とする画像データを評価フレームと呼ぶ。 The SDRAM 106 stores at least two pieces of image data taken continuously. This image data is, for example, image data shot with an exposure time shorter than the standard exposure time corresponding to the subject brightness, and image data shot with an exposure time longer than the standard exposure time. The evaluation frame acquisition unit 20 reads image data used as a reference when calculating a motion vector from the two image data stored in the SDRAM 106. The reference image data may be any of the two image data. Here, the reference image data is referred to as an evaluation frame.
輝度信号抽出部21は、評価フレーム取得部20で取得された評価フレームの輝度信号を抽出する。 The luminance signal extraction unit 21 extracts the luminance signal of the evaluation frame acquired by the evaluation frame acquisition unit 20.
評価フレーム領域設定部22は、評価フレーム取得部20で取得された評価フレームを所定の大きさのブロックに分割し、分割した複数のブロック内において、所定の大きさの領域を、動きベクトル算出領域に設定する。 The evaluation frame region setting unit 22 divides the evaluation frame acquired by the evaluation frame acquisition unit 20 into blocks having a predetermined size, and a region having a predetermined size is divided into a motion vector calculation region in the divided blocks. Set to.
図3(a)は、評価フレーム領域設定部22によって複数のブロック32に分割された評価フレーム31の一例を示す図である。また、図3(c)は、評価フレーム領域設定部22によって、1つのブロック32内に設定された動きベクトル算出領域35の一例を示す図である。動きベクトル算出領域35は、評価フレーム内の全てのブロック32に対して設定する。 FIG. 3A is a diagram illustrating an example of an evaluation frame 31 that is divided into a plurality of blocks 32 by the evaluation frame region setting unit 22. FIG. 3C is a diagram illustrating an example of a motion vector calculation region 35 set in one block 32 by the evaluation frame region setting unit 22. The motion vector calculation area 35 is set for all the blocks 32 in the evaluation frame.
比較フレーム取得部23は、SDRAM106に格納されている複数の画像データから、評価フレームと比較する画像データを読み出す。この画像データは、評価フレームと合成するための画像データである。ここでは、評価フレームと比較する画像データを比較フレームと呼ぶ。 The comparison frame acquisition unit 23 reads image data to be compared with the evaluation frame from the plurality of image data stored in the SDRAM 106. This image data is image data to be combined with the evaluation frame. Here, the image data to be compared with the evaluation frame is called a comparison frame.
輝度信号抽出部24は、比較フレーム取得部23で取得された比較フレームの輝度信号を抽出する。 The luminance signal extraction unit 24 extracts the luminance signal of the comparison frame acquired by the comparison frame acquisition unit 23.
比較フレーム領域設定部25は、比較フレーム取得部23で取得された比較フレームを所定の大きさのブロックに分割するとともに、分割したブロックそのものを、動きベクトル算出領域と比較する比較領域に設定する。比較フレームを分割するブロックの大きさは、評価フレームを分割するブロックの大きさと同じとする。 The comparison frame region setting unit 25 divides the comparison frame acquired by the comparison frame acquisition unit 23 into blocks of a predetermined size, and sets the divided block itself as a comparison region to be compared with the motion vector calculation region. The size of the block into which the comparison frame is divided is the same as the size of the block into which the evaluation frame is divided.
図3(b)は、比較フレーム領域設定部25によって複数のブロック34に分割された比較フレーム33の一例を示す図であり、図3(d)は、比較領域34を示す図である。 FIG. 3B is a diagram illustrating an example of the comparison frame 33 divided into a plurality of blocks 34 by the comparison frame region setting unit 25, and FIG. 3D is a diagram illustrating the comparison region 34.
フレーム間相関処理部26は、評価フレーム31の各ブロック32ごとに、比較フレーム33との間の相関を求める。ここでは、評価フレーム31のブロック32内に設定した動きベクトル算出領域35を、そのブロック32と対応する位置に存在する、比較フレーム33の比較領域34内で走査しながら相関係数値を演算する。図3(e)は、動きベクトル算出領域35を、比較フレーム33の比較領域34内で走査する様子を示す図である。相関係数値として、例えば、動きベクトル算出領域35内における各画素の画素値と、比較領域34内で動きベクトル算出領域35と比較する領域の各画素の画素値との差分の絶対値和である誤差絶対値和SAD(Sum of Absolute intensity Difference)を求める。SADが小さいほど、相関関係が高く、SADが大きいほど、相関関係が低い。 The inter-frame correlation processing unit 26 obtains a correlation with the comparison frame 33 for each block 32 of the evaluation frame 31. Here, the correlation coefficient value is calculated while scanning the motion vector calculation area 35 set in the block 32 of the evaluation frame 31 within the comparison area 34 of the comparison frame 33 that exists at a position corresponding to the block 32. FIG. 3E is a diagram illustrating a state in which the motion vector calculation area 35 is scanned within the comparison area 34 of the comparison frame 33. The correlation coefficient value is, for example, the sum of absolute values of differences between the pixel value of each pixel in the motion vector calculation area 35 and the pixel value of each pixel in the area to be compared with the motion vector calculation area 35 in the comparison area 34. An error absolute value sum SAD (Sum of Absolute intensity Difference) is obtained. The smaller the SAD, the higher the correlation, and the larger the SAD, the lower the correlation.
領域別動きベクトル算出部28は、フレーム間相関処理部26で演算された相関係数値のうち、最も値が小さい領域を、動きベクトル算出領域35の移動先の領域と判断して、その移動量を、動きベクトル算出領域35が含まれるブロック32の動きベクトルとする。図3(f)は、比較領域34内において、動きベクトル算出領域35に対応する領域36から、相関係数値が最も小さい領域37に向かう動きベクトル38の一例を示す図である。 The region-specific motion vector calculation unit 28 determines the region having the smallest value among the correlation coefficient values calculated by the inter-frame correlation processing unit 26 as the region to which the motion vector calculation region 35 is moved, and the amount of movement thereof. Is a motion vector of the block 32 including the motion vector calculation area 35. FIG. 3F is a diagram illustrating an example of a motion vector 38 from the region 36 corresponding to the motion vector calculation region 35 toward the region 37 having the smallest correlation coefficient value in the comparison region 34.
上述した動きベクトルの算出は、評価フレーム領域設定部22で分割した全てのブロックに対して行う。図3(g)は、全てのブロックに対して算出された動きベクトルの一例を示す図である。 The above-described motion vector calculation is performed on all blocks divided by the evaluation frame region setting unit 22. FIG. 3G is a diagram illustrating an example of motion vectors calculated for all blocks.
信頼度判定部27は、領域別動きベクトル算出部28で算出された各ブロックの動きベクトルの信頼度を判定する。例えば、動きベクトルを求める際に算出した相関係数値が所定のしきい値以上の場合には、その動きベクトルの信頼度は低いと判定し、相関係数値が所定のしきい値未満の場合には、その動きベクトルの信頼度は高いと判定する。なお、信頼度の判定方法は、上述した方法に限定されることはなく、また、信頼度を2段階ではなく、3段階以上で判定してもよい。 The reliability determination unit 27 determines the reliability of the motion vector of each block calculated by the region-specific motion vector calculation unit 28. For example, if the correlation coefficient value calculated when obtaining the motion vector is greater than or equal to a predetermined threshold value, it is determined that the reliability of the motion vector is low, and the correlation coefficient value is less than the predetermined threshold value. Determines that the reliability of the motion vector is high. Note that the reliability determination method is not limited to the above-described method, and the reliability may be determined in three or more stages instead of two.
フレーム全体動きベクトル算出部29は、領域別動きベクトル算出部28で算出された各ブロックの動きベクトルと、信頼度判定部27で判定された信頼度に基づいて、フレーム全体の動きベクトルを算出する。ここでは、全てのブロック32の動きベクトルのうち、信頼度が低いと判定された動きベクトルを除外した他の動きベクトルの平均ベクトルを、フレーム全体の動きベクトルとする。図3(h)は、フレーム全体の動きベクトル38の一例を示す図である。 The entire frame motion vector calculation unit 29 calculates the motion vector of the entire frame based on the motion vector of each block calculated by the region-specific motion vector calculation unit 28 and the reliability determined by the reliability determination unit 27. . Here, among the motion vectors of all the blocks 32, an average vector of other motion vectors excluding motion vectors determined to have low reliability is used as the motion vector of the entire frame. FIG. 3H is a diagram illustrating an example of the motion vector 38 of the entire frame.
なお、信頼度が低いと判定された動きベクトルの重みを低く、信頼度が高いと判定された動きベクトルの重みを高くして、全ての動きベクトルの重み付き加算平均演算を行い、演算によって得られた動きベクトルを、フレーム全体の動きベクトルとしてもよい。 Note that the motion vector weight determined to have low reliability is low, the motion vector weight determined to be high reliability is high, and the weighted addition average calculation of all motion vectors is performed. The obtained motion vector may be a motion vector of the entire frame.
また、全てのブロック32の動きベクトルのうち、信頼度が低いと判定された動きベクトルを除外した他の動きベクトルを用いてヒストグラムを作成し、最も頻度の高い動きベクトルをフレーム全体の動きベクトルとしても構わない。 In addition, a histogram is created using other motion vectors excluding motion vectors determined to have low reliability among the motion vectors of all the blocks 32, and the most frequent motion vector is used as the motion vector of the entire frame. It doesn't matter.
局所動きベクトル算出部30は、領域別動きベクトル算出部28で算出された各ブロックの動きベクトルに基づいて、例えば、Cubic補間などの方法を用いて、各画素の動きベクトルを算出する。同様に、各画素の相関係数Kについても動きベクトル同様に算出する。本実施形態におけるCubic補間では、処理対象である注目画素の近傍に位置する16個の動きベクトルを用いて、注目画素の動きベクトルを算出する。 Based on the motion vector of each block calculated by the region-specific motion vector calculation unit 28, the local motion vector calculation unit 30 calculates a motion vector of each pixel using a method such as Cubic interpolation, for example. Similarly, the correlation coefficient K of each pixel is calculated in the same manner as the motion vector. In Cubic interpolation in the present embodiment, the motion vector of the target pixel is calculated using 16 motion vectors located in the vicinity of the target pixel to be processed.
図4は、注目画素40の近傍に位置する16個の動きベクトルB0〜B15の一例を示す図である。注目画素40の動きベクトルBoutは、次式(1)の補間演算によって求められる。ただし、式(1)において、Kx0、Kx1、Kx2、Kx3、Ky0、Ky1、Ky2、Ky3は、注目画素40の位置座標に応じて定まる補間係数である。 FIG. 4 is a diagram illustrating an example of 16 motion vectors B0 to B15 located in the vicinity of the target pixel 40. The motion vector Bout of the pixel of interest 40 is obtained by the interpolation calculation of the following equation (1). However, in Expression (1), K x0 , K x1 , K x2 , K x3 , K y0 , K y1 , K y2 , and K y3 are interpolation coefficients that are determined according to the position coordinates of the target pixel 40.
Bout=Kx0(Ky0×B0+Ky1×B4+Ky2×B8+Ky3×B12)+Kx1(Ky0×B1+Ky1×B5+Ky2×B9+Ky3×B13)+Kx2(Ky0×B2+Ky1×B6+Ky2×B10+Ky3×B14)+Kx3(Ky0×B3+Ky1×B7+Ky2×B11+Ky3×B15) (1)
局所動きベクトル算出部30は、評価フレーム31の全ての画素について、上述した方法により、動きベクトルと相関係数値Kを算出する。ここでは、各画素の動きベクトルを総称して、局所動きベクトルと呼ぶ。局所動きベクトルの算出では、評価フレーム31の全ての画素に対して動きベクトルを算出する必要があるため、フレーム全体の動きベクトルを算出する場合に比べて、処理時間が長くなる。ただし、局所動きベクトルの算出精度は、フレーム全体の動きベクトルの算出精度よりも高い。
Bout = Kx0 ( Ky0 * B0 + Ky1 * B4 + Ky2 * B8 + Ky3 * B12) + Kx1 ( Ky0 * B1 + Ky1 * B5 + Ky2 * B9 + Ky3 * B13) + Kx2 ( Ky0 * B2 + Ky1 * B6 + Ky2 * B10 + Ky3 * B14) + Kx3 ( Ky0 * B3 + Ky1 * B7 + Ky2 * B11 + Ky3 * B15) (1)
The local motion vector calculation unit 30 calculates the motion vector and the correlation coefficient value K for all the pixels of the evaluation frame 31 by the method described above. Here, the motion vector of each pixel is collectively referred to as a local motion vector. In the calculation of the local motion vector, since it is necessary to calculate a motion vector for all the pixels of the evaluation frame 31, the processing time becomes longer than when the motion vector of the entire frame is calculated. However, the calculation accuracy of the local motion vector is higher than the calculation accuracy of the motion vector of the entire frame.
図5は、合成処理部120によって、被写体輝度に応じた標準露光時間よりも短い露光時間(以下、短露光時間)で撮影された画像データと、標準露光時間よりも長い露光時間(以下、長露光時間)で撮影された画像データとを合成して、ダイナミックレンジの広い合成画像を生成する処理の流れを示す図である。本実施の形態における撮像装置は、ダイナミックレンジの広い合成画像を生成する処理モードが設定されている状態での動画撮影時や、ライブビュー表示時に、短露光時間での撮影と、長露光時間での撮影とを交互に繰り返し行う。 FIG. 5 shows image data captured by the synthesis processing unit 120 with an exposure time shorter than the standard exposure time corresponding to the subject brightness (hereinafter referred to as short exposure time) and an exposure time longer than the standard exposure time (hereinafter referred to as long). It is a figure which shows the flow of a process which synthesize | combines with the image data image | photographed by exposure time, and produces | generates a synthesized image with a wide dynamic range. The imaging apparatus according to the present embodiment is capable of shooting with a short exposure time and a long exposure time during moving image shooting in a state where a processing mode for generating a composite image with a wide dynamic range is set or during live view display. Repeatedly and alternately.
合成処理部120は、長露光時間で撮影された画像データ51と、画像データ51の次に得られる画像データであって、短露光時間で撮影された画像データ52とを合成することによって、合成画像57を生成する。また、画像データ52の次に得られる画像データであって、長露光時間で撮影された画像データ53と、画像データ53の次に得られる画像データであって、短露光時間で撮影された画像データ54とを合成することによって、合成画像58を生成する。同様に、画像データ54の次に得られる画像データであって、長露光時間で撮影された画像データ55と、画像データ55の次に得られる画像データであって、短露光時間で撮影された画像データ56とを合成することによって、合成画像59を生成する。 The composition processing unit 120 synthesizes the image data 51 captured with the long exposure time and the image data 52 obtained after the image data 51 and captured with the short exposure time. An image 57 is generated. Also, image data obtained after the image data 52, which is image data 53 taken with a long exposure time, and image data obtained after the image data 53, taken with a short exposure time. By combining the data 54, a composite image 58 is generated. Similarly, image data obtained next to the image data 54, which is image data 55 taken with a long exposure time, and image data obtained next to the image data 55, taken with a short exposure time. By combining the image data 56, a composite image 59 is generated.
動体追尾部121が追尾処理を行う注目被写体の決定方法について説明する。図6は、追尾対象の注目被写体の決定方法を説明するための図である。ここでは、追尾対象の注目被写体を決定する方法を2通り説明する。 A method of determining a subject of interest for which the moving body tracking unit 121 performs tracking processing will be described. FIG. 6 is a diagram for explaining a method of determining a target subject to be tracked. Here, two methods for determining the subject of interest to be tracked will be described.
図6(a)は、デジタルスチルカメラのLCD114に表示されている画像の中から、ユーザがペン61を用いて注目被写体62をタッチすることによって、追尾対象の注目被写体を決定する方法を説明するための図である。すなわち、LCD114はタッチパネルとなっており、ユーザは、追尾対象の注目被写体をタッチすることによって、追尾対象の注目被写体を決定する。 FIG. 6A illustrates a method for determining the subject of interest to be tracked by the user touching the subject of interest 62 using the pen 61 from the image displayed on the LCD 114 of the digital still camera. FIG. In other words, the LCD 114 is a touch panel, and the user determines the subject to be tracked by touching the subject to be tracked.
図6(b)は、追尾対象の注目被写体64がLCD114の中心にくるように画角を調整した後、所定の操作ボタン65を操作することによって、追尾対象の注目被写体を決定する方法を説明するための図である。すなわち、所定の操作ボタン65が操作されたときに、LCD114の中心に位置している被写体が追尾対象の注目被写体となる。 FIG. 6B illustrates a method of determining the subject of interest to be tracked by operating a predetermined operation button 65 after adjusting the angle of view so that the subject of interest 64 to be tracked is at the center of the LCD 114. It is a figure for doing. That is, when the predetermined operation button 65 is operated, the subject located at the center of the LCD 114 becomes the subject of interest to be tracked.
図7は、第1の実施形態における撮像装置によって行われる合成画像生成処理の手順を示すフローチャートである。第1の実施形態における撮像装置は、短露光時間で撮影された画像データと、長露光時間で撮影された画像データとを合成することによって、ダイナミックレンジの広い合成画像を生成する処理を行う。また、動体追尾部121で追尾する注目被写体が存在する場合には、異なる露光時間で撮影された複数の画像データのうち、追尾領域の画像データを合成し、合成により得られた追尾領域の画像データを拡大して、画像領域全体の合成画像データに重畳させて表示する処理を行う。以下では、追尾対象の注目被写体が存在するものとして説明する。 FIG. 7 is a flowchart illustrating a procedure of a composite image generation process performed by the imaging device according to the first embodiment. The imaging apparatus according to the first embodiment performs a process of generating a composite image with a wide dynamic range by combining image data captured with a short exposure time and image data captured with a long exposure time. In addition, when there is a subject of interest to be tracked by the moving body tracking unit 121, the image data of the tracking area is synthesized from among a plurality of image data shot at different exposure times, and the image of the tracking area obtained by the synthesis is obtained. A process of enlarging the data and superimposing it on the combined image data of the entire image area is performed. In the following description, it is assumed that there is a subject to be tracked.
ステップS10では、AF処理およびAE処理を行う。具体的には、まず、AF処理部109において、合焦評価値を算出する。マイクロコンピュータ115は、合焦評価値に基づいて、レンズ1010を駆動させる指令をドライバ1013に出す。ドライバ1013は、この指令に基づいて、レンズ1010を駆動させて、焦点距離やフォーカス位置の変更を行う。AE処理では、AE処理部108において、被写体輝度を算出し、算出した被写体輝度に基づいて、Flashメモリ117に記憶されている露出条件決定テーブルを参照することにより、撮影時のISO感度、絞り、および露光時間を決定する。ただし、ステップS10の処理で用いる露出条件決定テーブルでは、被写体輝度に応じた標準の露光時間よりも短い露光時間が定められている。 In step S10, AF processing and AE processing are performed. Specifically, first, the AF processing unit 109 calculates a focus evaluation value. The microcomputer 115 issues a command for driving the lens 1010 to the driver 1013 based on the focus evaluation value. Based on this command, the driver 1013 drives the lens 1010 to change the focal length and the focus position. In the AE process, the AE processing unit 108 calculates the subject brightness, and refers to the exposure condition determination table stored in the flash memory 117 based on the calculated subject brightness, so that the ISO sensitivity, aperture, And determine the exposure time. However, in the exposure condition determination table used in the process of step S10, an exposure time shorter than the standard exposure time corresponding to the subject brightness is set.
ステップS20では、撮影を行う。撮影(動画撮影)に関しては、従来から用いられている手法と同様である。ドライバ1013は、マイクロコンピュータ1012の指示に基づいて、設定された絞り値になるように絞り1014を駆動させる。そして、決定した露光時間に基づいて撮影を行い、決定したISO感度に応じた画像データを得る。ここでは、この画像データを第1の画像データと呼ぶ。 In step S20, shooting is performed. The shooting (moving image shooting) is the same as a conventionally used method. The driver 1013 drives the aperture 1014 so as to achieve a set aperture value based on an instruction from the microcomputer 1012. Then, photographing is performed based on the determined exposure time, and image data corresponding to the determined ISO sensitivity is obtained. Here, this image data is referred to as first image data.
ステップS30では、合成処理部120において、ステップS20の撮影により得られた第1の画像データ(RAWデータ)をSDRAM106から読み込む。 In step S <b> 30, the composition processing unit 120 reads the first image data (RAW data) obtained by the photographing in step S <b> 20 from the SDRAM 106.
ステップS40では、露光条件を変えて撮影を行うために、AF処理およびAE処理を再び行う。AF処理は、ステップS10の処理と同じであるが、AE処理では、被写体輝度に応じた標準の露光時間よりも長い露光時間が定められた露出条件決定テーブルを用いる。 In step S40, AF processing and AE processing are performed again to change the exposure conditions and perform shooting. The AF process is the same as the process of step S10, but the AE process uses an exposure condition determination table in which an exposure time longer than the standard exposure time according to the subject brightness is determined.
ステップS50では、撮影(動画撮影)を行う。この撮影により得られた画像データを、第2の画像データと呼ぶ。 In step S50, shooting (moving image shooting) is performed. Image data obtained by this photographing is referred to as second image data.
ステップS60では、合成処理部120において、ステップS50の撮影により得られた第2の画像データ(RAWデータ)をSDRAM106から読み込む。 In step S60, the composition processing unit 120 reads the second image data (RAW data) obtained by the photographing in step S50 from the SDRAM 106.
ステップS70からステップS90までの処理は、画像領域全体を対象とする処理である。一方、ステップS100からステップS140までの処理は、追尾対象の注目被写体を含む追尾領域を対象とする処理である。ステップS70からステップS90までの処理と、ステップS100からステップS140までの処理は、並列に同時に行ってもよいし、どちらかの処理を優先して行ってもよい。 The processing from step S70 to step S90 is processing for the entire image area. On the other hand, the process from step S100 to step S140 is a process for the tracking area including the target subject to be tracked. The processing from step S70 to step S90 and the processing from step S100 to step S140 may be performed simultaneously in parallel, or either processing may be performed with priority.
ステップS70では、動きベクトル算出部119のフレーム全体動きベクトル算出部29において、ステップS30で読み込んだ第1の画像データと、ステップS60で読み込んだ第2の画像データとの間のフレーム全体の動きベクトルを算出する。 In step S70, the entire frame motion vector calculation unit 29 of the motion vector calculation unit 119 has the entire frame motion vector between the first image data read in step S30 and the second image data read in step S60. Is calculated.
ステップS80では、合成処理部120において、第1の画像データと第2の画像データとを合成する。ここでは、ステップS70で算出したフレーム全体動きベクトルに基づいて、第1の画像データと第2の画像データとの間の位置ずれを補正した後、位置ずれ補正後の第1の画像データおよび第2の画像データを、同一の合成比(合成比α=0.5)で合成する単純合成処理を行う。フレーム全体の動きベクトルに基づいて位置ずれを補正してから、画像データを合成する処理の詳細については、図11に示すフローチャートを用いて後述する。 In step S80, the synthesis processing unit 120 synthesizes the first image data and the second image data. Here, after correcting the positional deviation between the first image data and the second image data based on the entire frame motion vector calculated in step S70, the first image data after the positional deviation correction and the first image data are corrected. A simple synthesis process for synthesizing the two image data with the same synthesis ratio (synthesis ratio α = 0.5) is performed. The details of the process of combining the image data after correcting the positional deviation based on the motion vector of the entire frame will be described later using the flowchart shown in FIG.
ステップS90では、画像処理部107において、ステップS80で生成された合成画像データに対して、ホワイトバランス補正処理、同時化処理、色再現処理、ノイズ低減処理などの様々な画像処理を施す。 In step S90, the image processing unit 107 performs various image processing such as white balance correction processing, synchronization processing, color reproduction processing, and noise reduction processing on the composite image data generated in step S80.
一方、ステップS100では、動体追尾部121において、ステップS30で読み込んだ第1の画像データから、追尾領域の画像データを取得する。ここでは、第1の画像データから取得する追尾領域の画像データを、第1の追尾領域データと呼ぶ。画像データから、追尾領域データを取得する処理の詳細を図8に示すフローチャートを用いて説明する。 On the other hand, in step S100, the moving object tracking unit 121 acquires the image data of the tracking area from the first image data read in step S30. Here, the image data of the tracking area acquired from the first image data is referred to as first tracking area data. Details of processing for obtaining tracking area data from image data will be described with reference to the flowchart shown in FIG.
図6を用いて説明したように、撮影者は、LCD114に表示される画像上において、追尾処理を希望する被写体を指定することができる。ステップS810では、撮影者によって指定された注目被写体の情報を取得する。ここでは、画像上で撮影者によって指定された位置の画素情報を取得する。 As described with reference to FIG. 6, the photographer can designate a subject for which tracking processing is desired on the image displayed on the LCD 114. In step S810, information on the subject of interest designated by the photographer is acquired. Here, pixel information at a position designated by the photographer on the image is acquired.
ステップS820では、追尾領域の設定情報を読み込む。撮影者は、画像上の注目被写体を指定した後、追尾領域の大きさを決定することができる。具体的には、画像上の注目被写体の大きさを考慮して、予め用意されている複数の大きさの追尾領域枠の中から、適切な大きさの追尾領域枠を選択する。選択する追尾領域枠は、追尾対象である注目被写体を含む大きさであることが好ましい。ステップS820では、撮影者によって選択された追尾領域枠の設定情報を読み込む。 In step S820, tracking area setting information is read. The photographer can determine the size of the tracking area after designating the subject of interest on the image. Specifically, in consideration of the size of the subject of interest on the image, a tracking area frame having an appropriate size is selected from a plurality of tracking area frames prepared in advance. It is preferable that the tracking area frame to be selected has a size including the target subject to be tracked. In step S820, the setting information of the tracking area frame selected by the photographer is read.
ステップS830では、撮影者によって指定された注目被写体を中心として、撮影者によって選択された追尾領域枠を設定し、設定した追尾領域内の画像情報を取得する。図9は、撮影者によって指定された注目被写体90を含む追尾領域91を示す図である。この場合、追尾領域91内の画像情報が取得される。 In step S830, the tracking area frame selected by the photographer is set around the subject of interest specified by the photographer, and image information in the set tracking area is acquired. FIG. 9 is a diagram showing a tracking area 91 including the target subject 90 designated by the photographer. In this case, image information in the tracking area 91 is acquired.
図7に示すフローチャートに戻って説明を続ける。ステップS110では、動体追尾部121において、ステップS60で読み込んだ第2の画像データから、追尾領域の画像データを取得する。ここでは、この画像データを第2の追尾領域データと呼ぶ。画像データから追尾領域データを取得する処理については、図8に示すフローチャートと同様な方法で取得する。 Returning to the flowchart shown in FIG. In step S110, the moving object tracking unit 121 acquires the image data of the tracking area from the second image data read in step S60. Here, this image data is referred to as second tracking area data. About the process which acquires tracking area data from image data, it acquires by the method similar to the flowchart shown in FIG.
なお、第2の画像データから追尾領域データを取得する際、第1の追尾領域を図3における動きベクトル算出領域35とし、第1の追尾領域を元に所定のサイズ(例えば、±100ピクセル)で設定した領域を図3における比較領域34と考えることで、それらの動きベクトルから第2の追尾領域を割り出し、第2の追尾領域データを取得してもよい。 When the tracking area data is acquired from the second image data, the first tracking area is the motion vector calculation area 35 in FIG. 3, and a predetermined size (for example, ± 100 pixels) based on the first tracking area. By considering the region set in step 3 as the comparison region 34 in FIG. 3, the second tracking region may be obtained from these motion vectors to obtain the second tracking region data.
ステップS120では、動きベクトル算出部119の局所動きベクトル算出部30において、ステップS100で取得した第1の追尾領域データと、ステップS110で取得した第2の追尾領域データとの間の局所動きベクトルを算出する。 In step S120, the local motion vector calculation unit 30 of the motion vector calculation unit 119 calculates a local motion vector between the first tracking region data acquired in step S100 and the second tracking region data acquired in step S110. calculate.
ステップS130では、合成処理部120において、第1の追尾領域データと第2の追尾領域データとを合成する。ここでは、ステップS120で算出した局所動きベクトルに基づいて、第1の追尾領域データと第2の追尾領域データとの間の位置ずれを補正した後、位置ずれ補正後の第1の追尾領域データおよび第2の追尾領域データを、それぞれの重みに応じた合成比率で合成する重み付き合成を行う。局所動きベクトルに基づいて位置ずれを補正してから、画像データを合成する処理の詳細については、図12に示すフローチャートを用いて後述する。 In step S130, the synthesis processing unit 120 synthesizes the first tracking area data and the second tracking area data. Here, after correcting the positional deviation between the first tracking area data and the second tracking area data based on the local motion vector calculated in step S120, the first tracking area data after the positional deviation correction is performed. Then, weighted combining is performed to combine the second tracking area data with a combining ratio corresponding to each weight. Details of the process of combining the image data after correcting the positional deviation based on the local motion vector will be described later with reference to the flowchart shown in FIG.
ステップS140では、画像処理部107において、ステップS130で生成した合成画像データに対して、ホワイトバランス補正処理、同時化処理、色再現処理、ノイズ低減処理などの様々な画像処理を施す。 In step S140, the image processing unit 107 performs various image processing such as white balance correction processing, synchronization processing, color reproduction processing, and noise reduction processing on the composite image data generated in step S130.
ステップS150では、合成処理部120において、ステップS90で画像処理が施された領域全体の合成画像と、ステップS140で画像処理が施された追尾領域の合成画像とを合成する。ここでは、ステップS140で画像処理が施された追尾領域の合成画像が所定の大きさとなるように拡大した後、ステップS90で求めた合成画像の所定の位置で合成する。 In step S150, the synthesis processing unit 120 synthesizes the synthesized image of the entire area subjected to the image processing in step S90 and the synthesized image of the tracking area subjected to the image processing in step S140. Here, the composite image of the tracking region that has been subjected to image processing in step S140 is enlarged so as to have a predetermined size, and then combined at a predetermined position of the composite image obtained in step S90.
図10は、ステップS90で画像処理が施された領域全体の合成画像と、ステップS140で画像処理が施された追尾領域の合成画像とを合成することによって得られた画像100の一例を示す図である。図10では、追尾対象が車101であり、車を含む領域102が追尾領域に設定されている。追尾領域102の画像は、所定の大きさとなるように拡大され、拡大後の画像103が画像100の右下の位置で合成されている。合成位置における拡大画像103の合成比は1とする。 FIG. 10 is a diagram illustrating an example of an image 100 obtained by combining the combined image of the entire area subjected to image processing in step S90 and the combined image of the tracking area subjected to image processing in step S140. It is. In FIG. 10, the tracking target is the car 101, and the area 102 including the car is set as the tracking area. The image in the tracking area 102 is enlarged so as to have a predetermined size, and the enlarged image 103 is synthesized at the lower right position of the image 100. The composition ratio of the enlarged image 103 at the composition position is 1.
ステップS160では、合成画像データが動画データであるか、または、ライブビュー画像データであるかを判定する。ここで、動画データとは、記録媒体112に記録するための動画データである。動画データであると判定すると、ステップS170に進む。 In step S160, it is determined whether the composite image data is moving image data or live view image data. Here, the moving image data is moving image data to be recorded on the recording medium 112. If it is determined that the data is moving image data, the process proceeds to step S170.
ステップS170では、画像圧縮伸長部110において、合成画像データを所定の動画圧縮形式に従って圧縮する。ステップS180では、圧縮されたデータに対して、動画ファイルを構成するために必要なヘッダを付加した後、メモリI/F111を介して記録媒体112に記録する。 In step S170, the image compression / decompression unit 110 compresses the composite image data according to a predetermined moving image compression format. In step S180, a header necessary for composing a moving image file is added to the compressed data, and then recorded on the recording medium 112 via the memory I / F 111.
なお、ステップS160で合成画像データが動画データであると判定した後に、合成画像データに対して、表示用の画像処理を施してからLCD114に表示するようにしてもよい。 Note that after determining that the composite image data is moving image data in step S160, the composite image data may be displayed on the LCD 114 after being subjected to display image processing.
ステップS160において、合成画像データがライブビュー画像データであると判定すると、ステップS190に進む。ステップS190では、合成画像データに対して、ライブビュー表示用の画像サイズに変更する処理など、ライブビュー表示用の画像処理を施す。ステップS200では、ライブビュー表示用の画像処理が施された画像データを、LCD114に表示させる。 If it is determined in step S160 that the composite image data is live view image data, the process proceeds to step S190. In step S190, image processing for live view display, such as processing for changing the image size for live view display, to the composite image data is performed. In step S200, the image data on which image processing for live view display has been performed is displayed on the LCD 114.
図11は、図7に示すフローチャートのステップS80の処理、すなわち、フレーム全体の動きベクトルに基づいて位置ずれを補正してから、画像データを合成する処理の詳細を示すフローチャートである。 FIG. 11 is a flowchart showing details of the process in step S80 of the flowchart shown in FIG. 7, that is, the process of combining the image data after correcting the positional deviation based on the motion vector of the entire frame.
ステップS1100では、フレーム全体の動きベクトル(x、y)を取得する。例えば、動きベクトル算出部119のフレーム全体動きベクトル算出部29によって算出されたフレーム全体の動きベクトルをSDRAM106に記憶させておき、SDRAM106から、フレーム全体の動きベクトル(x,y)を読み込む。 In step S1100, the motion vector (x, y) of the entire frame is acquired. For example, the motion vector of the entire frame calculated by the entire frame motion vector calculation unit 29 of the motion vector calculation unit 119 is stored in the SDRAM 106, and the motion vector (x, y) of the entire frame is read from the SDRAM 106.
ステップS1110では、処理対象画素の位置座標を示すパラメータi,jをそれぞれ0に初期化する。パラメータiは、画像データのx軸方向の位置座標を表し、パラメータjは、y軸方向の位置座標を表す。 In step S1110, parameters i and j indicating the position coordinates of the processing target pixel are initialized to 0, respectively. The parameter i represents the position coordinate in the x-axis direction of the image data, and the parameter j represents the position coordinate in the y-axis direction.
ステップS1120では、第1の画像データから、画素(i,j)の画素値を読み込む。 In step S1120, the pixel value of pixel (i, j) is read from the first image data.
ステップS1130では、第2の画像データにおいて、画素(i,j)を動きベクトル(x、y)だけずらした画素(i+x,j+y)が第2の画像データ上に存在するか否かを判定する。画素(i+x,j+y)が第2の画像データ上に存在すると判定すると、ステップS1140に進み、存在しないと判定すると、ステップS1150に進む。 In step S1130, in the second image data, it is determined whether or not a pixel (i + x, j + y) obtained by shifting the pixel (i, j) by the motion vector (x, y) exists on the second image data. . If it is determined that the pixel (i + x, j + y) exists on the second image data, the process proceeds to step S1140. If it is determined that the pixel (i + x, j + y) does not exist, the process proceeds to step S1150.
ステップS1140では、第2の画像データから、画素(i+x,j+y)の画素値を読み込む。 In step S1140, the pixel value of the pixel (i + x, j + y) is read from the second image data.
一方、ステップS1150では、第2の画像データの画素(i+x,j+y)の画素値を(0,0)に設定する。 On the other hand, in step S1150, the pixel value of the pixel (i + x, j + y) of the second image data is set to (0, 0).
ステップS1160では、第2の画像データの画素値が(0,0)の場合には、合成比αを1.0とし、それ以外は合成比αを0.5とした上で、第1の画像データの画素(i,j)と、第2の画像データの画素(i+x,j+y)とを、その合成比αで合成する単純合成処理を行う。 In step S1160, when the pixel value of the second image data is (0, 0), the composition ratio α is set to 1.0, and otherwise, the composition ratio α is set to 0.5. A simple synthesis process is performed in which the pixel (i, j) of the image data and the pixel (i + x, j + y) of the second image data are synthesized at the synthesis ratio α.
ステップS1170では、パラメータiに1を加算する。 In step S1170, 1 is added to the parameter i.
ステップS1180では、パラメータiが第1の画像データのx軸方向の画素数M以上であるか否かを判定する。パラメータiがM未満であると判定するとステップS1120に戻り、M以上であると判定すると、ステップS1190に進む。 In step S1180, it is determined whether the parameter i is equal to or greater than the number of pixels M in the x-axis direction of the first image data. If it is determined that the parameter i is less than M, the process returns to step S1120. If it is determined that the parameter i is greater than or equal to M, the process proceeds to step S1190.
ステップS1190では、パラメータiを0に設定するとともに、パラメータjに1を加算する。 In step S1190, parameter i is set to 0, and 1 is added to parameter j.
ステップS1200では、パラメータjが第1の画像データのy軸方向の画素数N以上であるか否かを判定する。パラメータjがN未満であると判定するとステップS1120に戻り、N以上であると判定すると、フローチャートの処理を終了する。 In step S1200, it is determined whether the parameter j is equal to or greater than the number N of pixels in the y-axis direction of the first image data. If it is determined that the parameter j is less than N, the process returns to step S1120. If it is determined that the parameter j is greater than or equal to N, the process of the flowchart ends.
図12は、図7に示すフローチャートのステップS130の処理、すなわち、局所動きベクトルに基づいて位置ずれを補正してから、画像データを合成する処理の詳細を示すフローチャートである。図11に示すフローチャートの処理と同一の処理を行うステップについては、同一の符号を付して詳しい説明は省略する。 FIG. 12 is a flowchart showing details of the process of step S130 in the flowchart shown in FIG. 7, that is, the process of combining the image data after correcting the displacement based on the local motion vector. Steps for performing the same processing as the processing in the flowchart shown in FIG. 11 are given the same reference numerals, and detailed description thereof is omitted.
ステップS1110において、処理対象画素の位置座標を示すパラメータi,jをそれぞれ0に初期化すると、ステップS1210に進む。ステップS1210では、画素(i,j)の動きベクトル(x,y)を取得する。ただし、画素(i,j)は、追尾領域データ内の画素である。例えば、動きベクトル算出部119の局所動きベクトル算出部30によって算出された各画素の動きベクトルをSDRAM106に記憶させておき、SDRAM106から、画素(i,j)の動きベクトル(x,y)を読み込む。 In step S1110, when the parameters i and j indicating the position coordinates of the processing target pixel are initialized to 0, the process proceeds to step S1210. In step S1210, the motion vector (x, y) of the pixel (i, j) is acquired. However, the pixel (i, j) is a pixel in the tracking area data. For example, the motion vector of each pixel calculated by the local motion vector calculation unit 30 of the motion vector calculation unit 119 is stored in the SDRAM 106, and the motion vector (x, y) of the pixel (i, j) is read from the SDRAM 106. .
ステップS1210に続くステップS1120Aでは、第1の追尾領域データから、画素(i,j)の画素値を読み込む。 In step S1120A following step S1210, the pixel value of the pixel (i, j) is read from the first tracking area data.
ステップS1130Aでは、第2の追尾領域データにおいて、画素(i,j)を動きベクトル(x、y)だけずらした画素(i+x,j+y)が第2の追尾領域データ上に存在するか否かを判定する。画素(i+x,j+y)が第2の追尾領域データ上に存在すると判定すると、ステップS1140Aに進み、存在しないと判定すると、ステップS1150Aに進む。 In step S1130A, in the second tracking area data, it is determined whether or not a pixel (i + x, j + y) obtained by shifting the pixel (i, j) by the motion vector (x, y) exists on the second tracking area data. judge. If it is determined that the pixel (i + x, j + y) exists on the second tracking area data, the process proceeds to step S1140A. If it is determined that the pixel (i + x, j + y) does not exist, the process proceeds to step S1150A.
ステップS1140Aでは、第2の追尾領域データから、画素(i+x,j+y)の画素値を読み込む。 In step S1140A, the pixel value of the pixel (i + x, j + y) is read from the second tracking area data.
ステップS1150Aでは、第2の追尾領域データの画素(i+x,j+y)の画素値を(0,0)に設定する。 In step S1150A, the pixel value of the pixel (i + x, j + y) of the second tracking area data is set to (0, 0).
ステップS1160Aでは、第1の追尾領域データの画素(i,j)と、第2の追尾領域データの画素(i+x,j+y)とを合成する。上述したように、図7に示すフローチャートのステップS130では、重み付き合成を行う。重み付き合成の詳細な処理については、図13に示すフローチャートを用いて後述する。 In step S1160A, the pixel (i, j) of the first tracking area data and the pixel (i + x, j + y) of the second tracking area data are synthesized. As described above, weighted composition is performed in step S130 of the flowchart shown in FIG. Detailed processing of the weighted synthesis will be described later with reference to the flowchart shown in FIG.
ステップS1170以後の処理は、図11に示すフローチャートの処理と同じである。 The processing after step S1170 is the same as the processing of the flowchart shown in FIG.
重み付き合成の詳細な処理について、図13に示すフローチャートを用いて説明する。図13に示すフローチャートのステップS1310では、処理対象画素(i,j)の相関係数値Kを取得する。 Detailed processing of weighted synthesis will be described with reference to the flowchart shown in FIG. In step S1310 of the flowchart shown in FIG. 13, the correlation coefficient value K of the processing target pixel (i, j) is acquired.
ステップS1320では、ステップS1310で取得した相関係数値Kに基づいて、合成比αを算出する。 In step S1320, the synthesis ratio α is calculated based on the correlation coefficient value K acquired in step S1310.
図14は、相関係数値Kと合成比αとの関係を示す図である。図14において、THは所定のしきい値であり、K_maxは相関係数値Kとして取り得る最大値である。図14に示すように、相関係数値Kが所定のしきい値TH以下の場合には、合成比αは0.5であり、相関係数値Kが所定のしきい値THよりも大きくなると、合成比αも0.5より大きくなる。ただし、第2の画像データの画素値が(0,0)の場合には、相関係数値Kによらず合成比αを1.0とする。 FIG. 14 is a diagram showing the relationship between the correlation coefficient value K and the synthesis ratio α. In FIG. 14, TH is a predetermined threshold value, and K_max is a maximum value that can be taken as the correlation coefficient value K. As shown in FIG. 14, when the correlation coefficient value K is equal to or smaller than a predetermined threshold value TH, the synthesis ratio α is 0.5, and when the correlation coefficient value K becomes larger than the predetermined threshold value TH, The synthesis ratio α is also larger than 0.5. However, when the pixel value of the second image data is (0, 0), the composition ratio α is set to 1.0 regardless of the correlation coefficient value K.
Flashメモリ117には、相関係数値Kと合成比αとの関係を定めたテーブルが格納されており、このテーブルを参照することによって、合成比αを算出する。 The flash memory 117 stores a table that defines the relationship between the correlation coefficient value K and the composition ratio α, and the composition ratio α is calculated by referring to this table.
ステップS1330では、次式(2)によって、第1の追尾領域データの画素(i,j)と、第2の追尾領域データの画素(i+x,j+y)とを合成する。ただし、Aは、第1の追尾領域データの画素(i,j)の画素値、Bは第2の追尾領域データの画素(i+x,j+y)の画素値、Cは、合成後の画素の画素値である。 In step S1330, the pixel (i, j) of the first tracking area data and the pixel (i + x, j + y) of the second tracking area data are synthesized by the following equation (2). However, A is the pixel value of the pixel (i, j) of the first tracking area data, B is the pixel value of the pixel (i + x, j + y) of the second tracking area data, and C is the pixel of the combined pixel Value.
C=α×A+(1−α)×B (2)
図14および式(2)から分かるように、第1の追尾領域データの画素(i,j)と、第2の追尾領域データの画素(i+x,j+y)との間の相関が高く、相関係数値Kが所定のしきい値TH以下の場合には、同一の合成比(合成比α=0.5)で合成する単純合成処理が行われる。一方、相関係数値Kが所定のしきい値THより大きくなると、第1の画像データの画素(i,j)を合成する比重を大きくして、第2の追尾領域データの画素(i+x,j+y)の影響を小さくする。
C = α × A + (1−α) × B (2)
As can be seen from FIG. 14 and Expression (2), the correlation between the pixel (i, j) of the first tracking area data and the pixel (i + x, j + y) of the second tracking area data is high, and the correlation When the numerical value K is less than or equal to the predetermined threshold value TH, simple composition processing is performed in which composition is performed with the same composition ratio (composition ratio α = 0.5). On the other hand, when the correlation coefficient value K becomes larger than the predetermined threshold value TH, the specific gravity for synthesizing the pixel (i, j) of the first image data is increased, and the pixel (i + x, j + y) of the second tracking area data is increased. ).
図15は、二つの画像データの間の位置ずれを補正した後でも、自動車の像の位置ずれが残っている状態で、合成処理を行った場合の合成画像の例を示す図である。図15(a)は、合成比α=0.5で単純合成を行った場合の結果、図15(b)は、0.5より大きい合成比αで重み付き合成を行った場合の結果、図15(c)は、合成比α=1で合成した場合の結果である。図15(a)と図15(b)とを比較して分かるように、0.5より大きい合成比αで重み付き合成を行った場合には、単純合成を行った場合に比べて、像ブレが軽減される。また、合成比αを1にした場合には、合成比αを1とした画像データだけが用いられることになり、像ブレは無くなる。 FIG. 15 is a diagram illustrating an example of a composite image in a case where the composition process is performed in a state in which the positional deviation of the image of the automobile remains even after the positional deviation between the two image data is corrected. FIG. 15A shows the result when simple synthesis is performed at a synthesis ratio α = 0.5, and FIG. 15B shows the result when weighted synthesis is performed at a synthesis ratio α greater than 0.5. FIG. 15 (c) shows the result when synthesis is performed at a synthesis ratio α = 1. As can be seen by comparing FIG. 15A and FIG. 15B, when weighted composition is performed at a composition ratio α greater than 0.5, the image is compared to when simple composition is performed. Blur is reduced. When the synthesis ratio α is set to 1, only image data with the synthesis ratio α set to 1 is used, and image blur is eliminated.
以上、第1の実施形態における撮像装置によれば、画像データの画像領域全体を対象として、複数の画像間の位置ずれを検出し、検出した位置ずれに基づいて、画像領域全体を対象として複数の画像間の位置ずれを補正して、第1の合成画像を生成する。また、一部の画像領域を対象として、画像領域全体を対象とする位置ずれ検出方法とは異なる位置ずれ検出方法にて、複数の画像間の位置ずれを検出し、検出した位置ずれに基づいて、一部の画像領域を対象として複数の画像間の位置ずれを補正して、第2の合成画像を生成する。そして、第1の合成画像と第2の合成画像とを同一の画面上に表示する。これにより、注目被写体が含まれる一部の画像領域に対する位置ずれ検出を、画像領域全体に対する位置ずれ検出とは異なる方法を用いて行うことができるので、被写体が含まれる領域に適した位置ずれ検出を行うことができる。 As described above, according to the imaging apparatus in the first embodiment, the positional deviation between a plurality of images is detected for the entire image area of the image data, and a plurality of the entire image area is targeted based on the detected positional deviation. The first image is generated by correcting the positional deviation between the images. In addition, a position shift between a plurality of images is detected by a position shift detection method different from the position shift detection method for a part of the image area, and based on the detected position shift. Then, the positional deviation between the plurality of images is corrected for a part of the image region, and the second composite image is generated. Then, the first composite image and the second composite image are displayed on the same screen. As a result, it is possible to detect misalignment for a part of the image area including the subject of interest using a method different from the misalignment detection for the entire image area. It can be performed.
特に、第1の実施形態における撮像装置によれば、一部の画像領域を対象とする位置ずれ検出の精度は、画像領域全体を対象とする位置ずれ検出の精度よりも高いので、注目被写体が含まれる一部の画像領域の位置ずれを精度良く行うことができる。また、画像領域全体の位置ずれは、一部の画像領域の位置ずれ検出よりも精度の低い方法を用いて行うので、位置ずれ検出の演算量を減らして、画像表示に要する時間を短縮することができる。 In particular, according to the imaging apparatus of the first embodiment, the accuracy of misregistration detection for a part of the image region is higher than the accuracy of misregistration detection for the entire image region. It is possible to accurately perform misalignment of some of the included image areas. In addition, since the position shift of the entire image area is performed using a method that is less accurate than the position shift detection of a part of the image area, the amount of calculation for position shift detection can be reduced and the time required for image display can be shortened. Can do.
−第2の実施形態−
第1の実施形態における撮像装置において、フレーム全体動きベクトル算出部29は、評価フレームの複数のブロックごとに算出された動きベクトルのうち、信頼度が低いと判定された動きベクトルを除外した他の動きベクトルの平均ベクトルを、フレーム全体の動きベクトルとした。第2の実施形態における撮像装置では、信頼度が低いと判定された動きベクトルを除外した他の動きベクトルのうち、追尾領域を含むブロックの動きベクトルの重みを高くして、フレーム全体の動きベクトルを算出する。ここでは、第2の実施形態におけるフレーム全体動きベクトル算出部の符号を29Aとする。
-Second Embodiment-
In the imaging apparatus according to the first embodiment, the entire frame motion vector calculation unit 29 excludes motion vectors determined to have low reliability from the motion vectors calculated for each of a plurality of blocks of the evaluation frame. The average vector of motion vectors was used as the motion vector for the entire frame. In the imaging device according to the second embodiment, the motion vector of the entire frame is increased by increasing the weight of the motion vector of the block including the tracking region among the other motion vectors excluding the motion vector determined to have low reliability. Is calculated. Here, the code of the entire frame motion vector calculation unit in the second embodiment is 29A.
図16(a)は、評価フレーム中の追尾領域を示す図であり、図16(b)は、追尾領域を含むブロックの動きベクトルの一例を示す図である。ただし、図16(a)、(b)では、画像を複数のブロックに分割した状態を示している。 FIG. 16A is a diagram illustrating a tracking area in the evaluation frame, and FIG. 16B is a diagram illustrating an example of a motion vector of a block including the tracking area. However, FIGS. 16A and 16B show a state where an image is divided into a plurality of blocks.
図16(a)では、動体追尾部121による追尾対象が移動している車であり、車を含む領域130、131が追尾領域となる。なお、図16(a)では、説明のため、第1の時刻における車を含む追尾領域130とともに、第1の時刻より後の時刻における車を含む追尾領域131も1つの画像上に示している。 In FIG. 16A, the tracking target by the moving object tracking unit 121 is a moving vehicle, and the regions 130 and 131 including the vehicle are tracking regions. In FIG. 16A, for the sake of explanation, the tracking area 130 including the car at the first time and the tracking area 131 including the car at the time after the first time are also shown on one image. .
フレーム全体動きベクトル算出部29Aは、第1の実施形態におけるフレーム全体動きベクトル算出部29と同様に、評価フレームの複数のブロックごとに算出された動きベクトルのうち、信頼度が低いと判定された動きベクトルを除外した他の動きベクトルを用いて、フレーム全体の動きベクトルを算出する。ただし、フレーム全体動きベクトル算出部29Aは、追尾領域を含むブロックの動きベクトルの重みを高くして、信頼度が低いと判定された動きベクトルを除外した他の全ての動きベクトルの重み付き加算平均演算を行い、演算によって得られた動きベクトルを、フレーム全体の動きベクトルとする。 Similar to the entire frame motion vector calculation unit 29 in the first embodiment, the entire frame motion vector calculation unit 29A is determined to have low reliability among the motion vectors calculated for each of the plurality of blocks of the evaluation frame. The motion vector of the entire frame is calculated using another motion vector excluding the motion vector. However, the entire frame motion vector calculation unit 29A increases the weight of the motion vector of the block including the tracking region, and adds the weighted average of all other motion vectors excluding the motion vector determined to be low in reliability. The operation is performed, and the motion vector obtained by the operation is set as the motion vector of the entire frame.
なお、ヒストグラムを用いてベクトルを算出する場合には、追尾領域を含むブロックの動きベクトルにおける頻度を水増ししてカウントすることで、追尾領域の比重を高めたフレーム全体の動きベクトルを算出することができる。図16に示す例では、追尾領域130、131を含む6つのブロック132〜137(図16(b)参照)の動きベクトルの重みが高くなる。 In addition, when calculating a vector using a histogram, it is possible to calculate a motion vector of the entire frame in which the specific gravity of the tracking area is increased by inflating the frequency in the motion vector of the block including the tracking area and counting. it can. In the example shown in FIG. 16, the weights of the motion vectors of the six blocks 132 to 137 (see FIG. 16B) including the tracking areas 130 and 131 are high.
以上、第2の実施形態における撮像装置によれば、画像領域全体を対象とする位置ずれを検出する際に、画像上の複数の位置に応じた複数の位置ずれを検出し、検出した複数の位置ずれのうち、一部の画像領域における位置ずれの比重を、一部の画像領域以外の領域における位置ずれの比重よりも高くして、代表となる1つの位置ずれを検出する。これにより、画像領域全体の位置ずれ補正を行う場合でも、注目被写体を重視した位置ずれ補正を行うことができので、合成画像において、注目被写体の像ブレを低減することができる。 As described above, according to the imaging apparatus in the second embodiment, when detecting a positional shift for the entire image region, a plurality of positional shifts corresponding to a plurality of positions on the image are detected, and the detected plurality Among the misregistrations, the specific gravity of the misregistration in some image areas is set higher than the specific gravity of the misregistration in areas other than the partial image area, and one representative misregistration is detected. As a result, even when correcting the positional deviation of the entire image region, it is possible to perform the positional deviation correction with an emphasis on the subject of interest, so that the image blur of the subject of interest can be reduced in the composite image.
−第3の実施形態−
第1の実施形態における撮像装置では、画像領域全体を対象として、複数の画像間の位置ずれを検出する場合、フレーム全体動きベクトル算出部29によって、フレーム全体の動きベクトルを算出した。第3の実施形態における撮像装置では、画像領域全体を対象として、複数の画像間の位置ずれを検出する場合でも、動体追尾部121の追尾対象である被写体の移動量が所定量Lthより大きい場合には、高精度な位置合わせを行うために、局所動きベクトル算出部30によって、局所動きベクトルを算出する。
-Third embodiment-
In the imaging apparatus according to the first embodiment, when detecting a positional shift between a plurality of images for the entire image region, the entire frame motion vector calculation unit 29 calculates the motion vector of the entire frame. In the imaging apparatus according to the third embodiment, even when the positional deviation between a plurality of images is detected for the entire image region, the movement amount of the subject that is the tracking target of the moving object tracking unit 121 is greater than the predetermined amount Lth. First, in order to perform highly accurate alignment, the local motion vector calculation unit 30 calculates a local motion vector.
図17は、第3の実施形態における撮像装置によって行われる合成画像生成処理の手順を示すフローチャートである。図7に示すフローチャートの処理と同一の処理を行うステップについては、同一の符号を付して詳しい説明は省略する。 FIG. 17 is a flowchart illustrating a procedure of a composite image generation process performed by the imaging device according to the third embodiment. Steps for performing the same processing as the processing in the flowchart shown in FIG. 7 are assigned the same reference numerals, and detailed descriptions thereof are omitted.
ステップS1700からステップS90までの処理は、画像領域全体を対象とする処理である。ステップS1700では、マイクロコンピュータ115において、追尾対象である被写体の移動量を算出する。動体追尾部121は、動体追尾処理を行うため、追尾対象である被写体の動きベクトルを算出する。従って、ステップS1700では、動体追尾部121で算出された動きベクトルに基づいて、被写体の移動量を算出する。 The processing from step S1700 to step S90 is processing for the entire image area. In step S1700, the microcomputer 115 calculates the movement amount of the subject that is the tracking target. The moving body tracking unit 121 calculates a motion vector of a subject to be tracked in order to perform a moving body tracking process. Accordingly, in step S1700, the amount of movement of the subject is calculated based on the motion vector calculated by the moving object tracking unit 121.
ステップS1710では、マイクロコンピュータ115において、ステップS1700で算出した被写体の移動量が所定量Lthより大きいか否かを判定する。被写体の移動量が所定量Lth以下であると判定すると、ステップS70に進み、フレーム全体動きベクトル算出部29によって、ステップS30で読み込んだ第1の画像データと、ステップS60で読み込んだ第2の画像データとの間のフレーム全体の動きベクトルを算出する。一方、被写体の移動量が所定量Lthより大きいと判定するとステップS1720に進む。 In step S1710, the microcomputer 115 determines whether or not the movement amount of the subject calculated in step S1700 is larger than a predetermined amount Lth. If it is determined that the movement amount of the subject is equal to or less than the predetermined amount Lth, the process proceeds to step S70, and the first image data read in step S30 and the second image read in step S60 by the entire frame motion vector calculation unit 29. The motion vector of the whole frame between data is calculated. On the other hand, if it is determined that the amount of movement of the subject is greater than the predetermined amount Lth, the process proceeds to step S1720.
ステップS1720では、動きベクトル算出部119の局所動きベクトル算出部30において、ステップS30で読み込んだ第1の画像データと、ステップS60で読み込んだ第2の画像データとの間の局所動きベクトルを算出する。局所動きベクトルの算出方法は説明済みのため、ここでは詳しい説明を省略する。 In step S1720, the local motion vector calculation unit 30 of the motion vector calculation unit 119 calculates a local motion vector between the first image data read in step S30 and the second image data read in step S60. . Since the calculation method of the local motion vector has already been described, detailed description thereof is omitted here.
ステップS1730では、ステップS1720で算出した局所動きベクトルに基づいて、第1の画像データと第2の画像データとの間の位置ずれを補正した後、位置ずれ補正後の第1の画像データおよび第2の画像データを、それぞれの重みに応じた合成比率で合成する重み付き合成を行う。局所動きベクトルに基づいて位置ずれを補正してから、画像データを合成する処理の詳細については、図12に示すフローチャートを用いて説明済みのため、ここでは詳しい説明を省略する。 In step S1730, after correcting the positional deviation between the first image data and the second image data based on the local motion vector calculated in step S1720, the first image data after the positional deviation correction and the first image data are corrected. The weighted composition is performed to synthesize the image data of 2 at a composition ratio corresponding to each weight. Since the details of the process of combining the image data after correcting the positional deviation based on the local motion vector have been described using the flowchart shown in FIG. 12, detailed description thereof is omitted here.
以上、第3の実施形態における撮像装置によれば、一部の画像領域内の被写体の移動量が所定量Lthよりも大きい場合に、移動量が所定量Lth以下の場合よりも位置ずれ検出精度の高い方法にて、複数の画像間の位置ずれを検出する。これにより、注目被写体の移動量が大きくて、合成画像上の像ブレが目立ちやすい状況下でも、複数の画像間の位置ずれを精度良く求めて、合成画像上の被写体の像ブレを低減することができる。 As described above, according to the imaging apparatus of the third embodiment, when the amount of movement of the subject in a part of the image area is larger than the predetermined amount Lth, the positional deviation detection accuracy is higher than when the movement amount is equal to or smaller than the predetermined amount Lth. The position shift between a plurality of images is detected by a high method. As a result, even when the amount of movement of the subject of interest is large and the image blur on the composite image is conspicuous, it is possible to accurately obtain the positional deviation between the plurality of images and reduce the image blur of the subject on the composite image. Can do.
−第4の実施形態−
第1の実施形態における撮像装置では、画像領域全体を対象として、複数の画像間の位置ずれを検出する場合、フレーム全体動きベクトル算出部29によって、フレーム全体の動きベクトルを算出した。第4の実施形態における撮像装置では、画像領域全体を対象として、複数の画像間の位置ずれを検出する場合でも、追尾領域の大きさSが所定の大きさSthより大きい場合には、高精度な位置合わせを行うために、局所動きベクトル算出部30によって、局所動きベクトルを算出する。
-Fourth Embodiment-
In the imaging apparatus according to the first embodiment, when detecting a positional shift between a plurality of images for the entire image region, the entire frame motion vector calculation unit 29 calculates the motion vector of the entire frame. In the imaging device according to the fourth embodiment, even when the positional deviation between a plurality of images is detected for the entire image region, if the size S of the tracking region is larger than the predetermined size Sth, high accuracy is obtained. In order to perform accurate alignment, the local motion vector calculation unit 30 calculates a local motion vector.
図18は、第4の実施形態における撮像装置によって行われる合成画像生成処理の手順を示すフローチャートである。図7および図17に示すフローチャートの処理と同一の処理を行うステップについては、同一の符号を付して詳しい説明は省略する。 FIG. 18 is a flowchart illustrating a procedure of a composite image generation process performed by the imaging device according to the fourth embodiment. Steps for performing the same processes as those in the flowcharts shown in FIGS. 7 and 17 are denoted by the same reference numerals, and detailed description thereof is omitted.
ステップS1800からステップS90までの処理は、画像領域全体を対象とする処理である。ステップS1800では、マイクロコンピュータ115において、動体追尾部121によって設定される追尾領域の大きさSを取得する。上述したように、撮影者は、画像上で追尾対象である注目被写体を指定するとともに、予め用意されている複数の大きさの追尾領域枠の中から、適切な大きさの追尾領域枠を選択する。ここでは、撮影者によって選択された追尾領域枠の大きさSの情報を取得する。 The processing from step S1800 to step S90 is processing for the entire image area. In step S1800, the microcomputer 115 acquires the size S of the tracking area set by the moving body tracking unit 121. As described above, the photographer designates the target subject to be tracked on the image and selects a tracking area frame having an appropriate size from a plurality of tracking area frames prepared in advance. To do. Here, information on the size S of the tracking area frame selected by the photographer is acquired.
ステップS1810では、マイクロコンピュータ115において、ステップS1800で算出した追尾領域の大きさSが所定の大きさSthより大きいか否かを判定する。追尾領域の大きさSが所定の大きさSth以下であると判定するとステップS70に進み、フレーム全体動きベクトル算出部29によって、ステップS30で読み込んだ第1の画像データと、ステップS60で読み込んだ第2の画像データとの間のフレーム全体の動きベクトルを算出する。一方、追尾領域の大きさSが所定の大きさSthより大きいと判定すると、ステップS1720に進む。ステップS1720およびステップS1730の処理は、図17に示すフローチャートのステップS1720およびステップS1730の処理と同じである。 In step S1810, the microcomputer 115 determines whether or not the size S of the tracking area calculated in step S1800 is larger than a predetermined size Sth. If it is determined that the size S of the tracking area is equal to or smaller than the predetermined size Sth, the process proceeds to step S70, and the first image data read in step S30 and the first image data read in step S60 by the entire frame motion vector calculation unit 29. The motion vector of the entire frame between the two image data is calculated. On the other hand, if it is determined that the size S of the tracking area is larger than the predetermined size Sth, the process proceeds to step S1720. The processing in step S1720 and step S1730 is the same as the processing in step S1720 and step S1730 in the flowchart shown in FIG.
以上、第4の実施形態における撮像装置によれば、一部の画像領域の大きさが所定の大きさSthよりも大きい場合に、一部の画像領域の大きさが所定の大きさSth以下の場合よりも位置ずれ検出精度の高い方法にて、複数の画像間の位置ずれを検出する。これにより、注目被写体が大きくて、合成画像上の像ブレが目立ちやすい状況下でも、複数の画像間の位置ずれを精度良く求めて、合成画像上の被写体の像ブレを低減することができる。 As described above, according to the imaging device of the fourth embodiment, when the size of a part of the image area is larger than the predetermined size Sth, the size of the part of the image area is equal to or less than the predetermined size Sth. A positional deviation between a plurality of images is detected by a method with higher positional deviation detection accuracy than the case. As a result, even when the subject of interest is large and the image blur on the composite image is conspicuous, it is possible to accurately obtain the positional deviation between the plurality of images and reduce the image blur of the subject on the composite image.
なお、上述した第1〜第4の実施形態の説明では、撮像装置が行う処理としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、別途ソフトウェアにて処理する構成も可能である。この場合、撮像装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記憶されたコンピュータ読み取り可能な記憶媒体を備えている。ここでは、このプログラムを撮像プログラムと呼ぶ。そして、CPUが上記記憶媒体に記憶されている撮像プログラムを読み出して、情報の加工・演算処理を実行することにより、上述の撮像装置と同様の処理を実現させる。 In the description of the first to fourth embodiments described above, hardware processing is assumed as processing performed by the imaging apparatus, but it is not necessary to be limited to such a configuration. For example, a configuration in which processing is performed separately by software is also possible. In this case, the imaging apparatus includes a main storage device such as a CPU and a RAM, and a computer-readable storage medium in which a program for realizing all or part of the above processing is stored. Here, this program is called an imaging program. Then, the CPU reads out the imaging program stored in the storage medium and executes information processing / calculation processing, thereby realizing the same processing as that of the imaging device described above.
ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、この撮像プログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該撮像プログラムを実行するようにしても良い。 Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Further, the imaging program may be distributed to a computer via a communication line, and the computer that has received the distribution may execute the imaging program.
本発明は、上述した第1〜第4の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば、第2の実施形態で説明したフレーム全体動きベクトルの算出方法を、第3および第4の実施形態における撮像装置に適用することもできる。 The present invention is not limited to the first to fourth embodiments described above, and various modifications and applications can be made without departing from the scope of the present invention. For example, the method for calculating the entire frame motion vector described in the second embodiment can also be applied to the imaging devices in the third and fourth embodiments.
また、第3の実施形態における特徴と、第4の実施形態における特徴とを組み合わせてもよい。すなわち、被写体の移動量が所定量Lthより大きいか、または、追尾領域の大きさSが所定の大きさSthより大きい場合に、画像データ間の動きベクトルとして、局所動きベクトルを求めるようにしてもよい。 Moreover, you may combine the characteristic in 3rd Embodiment, and the characteristic in 4th Embodiment. That is, when the moving amount of the subject is larger than the predetermined amount Lth or the size S of the tracking area is larger than the predetermined size Sth, the local motion vector may be obtained as the motion vector between the image data. Good.
また、第3の実施形態における撮像装置では、追尾対象である被写体の移動量が所定量Lthより大きい場合に、画像データ間の動きベクトルとして、局所動きベクトルを求めたが、局所動きベクトルに限定されることはない。すなわち、追尾対象である被写体の移動量が所定量Lth以下の場合よりも精度の高い方法で、動きベクトルを求めることができればよい。 In the imaging apparatus according to the third embodiment, the local motion vector is obtained as the motion vector between the image data when the moving amount of the subject to be tracked is larger than the predetermined amount Lth. However, the local motion vector is limited to the local motion vector. Will never be done. That is, it suffices if the motion vector can be obtained by a method with higher accuracy than when the movement amount of the subject to be tracked is equal to or less than the predetermined amount Lth.
同様に、第4の実施形態における撮像装置でも、追尾領域の大きさが所定の大きさSthより大きい場合に、画像データ間の動きベクトルとして、局所動きベクトルを求めたが、追尾領域の大きさが所定の大きさSth以下の場合よりも精度の高い方法で動きベクトルを求めるのであれば、局所動きベクトルに限定されることはない。 Similarly, in the imaging device according to the fourth embodiment, when the size of the tracking area is larger than the predetermined size Sth, the local motion vector is obtained as the motion vector between the image data. If the motion vector is obtained by a method with higher accuracy than the case where is less than or equal to the predetermined size Sth, it is not limited to the local motion vector.
上述した各実施形態では、追尾領域の合成画像データを拡大して、画像領域全体の合成画像データに重畳させて表示する処理を行った(図10参照)。しかし、追尾領域の合成画像データを拡大せずに、画像領域全体の合成画像データと合成するようにしてもよい。合成位置は、追尾領域の位置とし、合成位置における追尾領域画像データの合成比は1とする。また、追尾領域の合成画像データは、例えば、矩形の枠で表示する。図19は、追尾領域の合成画像を拡大せずに、領域全体の合成画像上に重畳させて表示する方法の一例を示す図である。領域全体の合成画像190に対して、追尾対象である車191を含む追尾領域の合成画像192が合成されており、合成画像192は、矩形の枠193で囲まれて表示されている。 In each of the embodiments described above, the process of enlarging the combined image data in the tracking area and displaying the enlarged image is superimposed on the combined image data in the entire image area (see FIG. 10). However, the synthesized image data of the entire image area may be synthesized without enlarging the synthesized image data of the tracking area. The synthesis position is the position of the tracking area, and the synthesis ratio of the tracking area image data at the synthesis position is 1. Further, the combined image data of the tracking area is displayed with a rectangular frame, for example. FIG. 19 is a diagram illustrating an example of a method for displaying a combined image of the tracking area so as to be superimposed on the combined image of the entire area without being enlarged. A synthesized image 192 of the tracking area including the car 191 that is the tracking target is synthesized with the synthesized image 190 of the entire area, and the synthesized image 192 is displayed surrounded by a rectangular frame 193.
1…カメラ本体
2…交換式レンズ
101…メカシャッター
102…撮像素子
103…アナログ処理部
104…アナログ/デジタル変換部
106…SDRAM
107…画像処理部
108…AE処理部
109…AF処理部
110…画像圧縮伸長部
112…記録媒体
114…LCD
115…マイクロコンピュータ
117…Flashメモリ
119…動きベクトル算出部
120…合成処理部
121…動体追尾部
29…フレーム全体動きベクトル算出部
30…局所動きベクトル算出部
DESCRIPTION OF SYMBOLS 1 ... Camera body 2 ... Interchangeable lens 101 ... Mechanical shutter 102 ... Imaging element 103 ... Analog processing part 104 ... Analog / digital conversion part 106 ... SDRAM
107 ... Image processing unit 108 ... AE processing unit 109 ... AF processing unit 110 ... Image compression / decompression unit 112 ... Recording medium 114 ... LCD
115... Microcomputer 117... Flash memory 119... Motion vector calculation unit 120... Synthetic processing unit 121 .. Motion tracking unit 29.
Claims (8)
撮像素子で受光した被写体光を光電変換することによって画像データを得る撮像部と、
前記画像データの画像領域全体のうち、一部の画像領域を選択する画像領域選択部と、
前記画像領域全体を対象として、前記複数の画像間の位置ずれを検出する第1の位置ずれ検出部と、
前記一部の画像領域を対象として、前記第1の位置ずれ検出部による位置ずれ検出方法とは異なる位置ずれ検出方法にて、前記複数の画像間の位置ずれを検出する第2の位置ずれ検出部と、
前記第1の位置ずれ検出部で検出された位置ずれに基づいて、前記画像領域全体を対象として、前記複数の画像間の位置ずれを補正する第1の位置ずれ補正部と、
前記第2の位置ずれ検出部で検出された位置ずれに基づいて、前記一部の画像領域を対象として、前記複数の画像間の位置ずれを補正する第2の位置ずれ補正部と、
前記画像領域全体を対象として位置ずれが補正された複数の画像を合成して、第1の合成画像を生成する第1の合成部と、
前記一部の画像領域を対象として位置ずれが補正された複数の画像を合成して、第2の合成画像を生成する第2の合成部と、
前記第1の合成画像および前記第2の合成画像を表示する表示部と、
を備え、
前記第2の位置ずれ検出部の位置ずれ検出精度は、前記第1の位置ずれ検出部の位置ずれ検出精度よりも高いことを特徴とする撮像装置。 An imaging device capable of generating a composite image by combining a plurality of images obtained by imaging,
An imaging unit that obtains image data by photoelectrically converting subject light received by the imaging device;
An image area selection unit that selects a part of the image area of the image data;
A first misregistration detector that detects misregistration between the plurality of images for the entire image region;
Second misregistration detection for detecting misregistration between the plurality of images by a misregistration detection method different from the misregistration detection method by the first misregistration detection unit for the partial image region. And
A first misregistration correction unit that corrects misregistration between the plurality of images for the entire image region based on the misregistration detected by the first misregistration detection unit;
A second misregistration correction unit that corrects misregistration between the plurality of images for the partial image region based on the misregistration detected by the second misregistration detection unit;
A first combining unit that generates a first combined image by combining a plurality of images whose positional deviation is corrected for the entire image region;
A second combining unit that generates a second combined image by combining a plurality of images in which misalignment is corrected for the partial image region;
A display unit for displaying the first composite image and the second composite image;
Equipped with a,
An image pickup apparatus characterized in that the positional deviation detection accuracy of the second positional deviation detection unit is higher than the positional deviation detection accuracy of the first positional deviation detection unit .
撮像素子で受光した被写体光を光電変換することによって画像データを得る撮像部と、
前記画像データの画像領域全体のうち、一部の画像領域を選択する画像領域選択部と、
前記画像領域全体を対象として、前記複数の画像間の位置ずれを検出する第1の位置ずれ検出部と、
前記一部の画像領域を対象として、前記第1の位置ずれ検出部による位置ずれ検出方法とは異なる位置ずれ検出方法にて、前記複数の画像間の位置ずれを検出する第2の位置ずれ検出部と、
前記第1の位置ずれ検出部で検出された位置ずれに基づいて、前記画像領域全体を対象として、前記複数の画像間の位置ずれを補正する第1の位置ずれ補正部と、
前記第2の位置ずれ検出部で検出された位置ずれに基づいて、前記一部の画像領域を対象として、前記複数の画像間の位置ずれを補正する第2の位置ずれ補正部と、
前記画像領域全体を対象として位置ずれが補正された複数の画像を合成して、第1の合成画像を生成する第1の合成部と、
前記一部の画像領域を対象として位置ずれが補正された複数の画像を合成して、第2の合成画像を生成する第2の合成部と、
前記第1の合成画像および前記第2の合成画像を表示する表示部と、
前記複数の画像に基づいて、前記一部の画像領域内の被写体の移動量を検出する移動量検出部と、
を備え、
前記第1の位置ずれ検出部は、前記移動量検出部によって検出された移動量が所定量よりも大きい場合、前記移動量が前記所定量以下の場合よりも位置ずれ検出精度の高い方法にて、前記複数の画像間の位置ずれを検出することを特徴とする撮像装置。 An imaging device capable of generating a composite image by combining a plurality of images obtained by imaging,
An imaging unit that obtains image data by photoelectrically converting subject light received by the imaging device;
An image area selection unit that selects a part of the image area of the image data;
A first misregistration detector that detects misregistration between the plurality of images for the entire image region;
Second misregistration detection for detecting misregistration between the plurality of images by a misregistration detection method different from the misregistration detection method by the first misregistration detection unit for the partial image region. And
A first misregistration correction unit that corrects misregistration between the plurality of images for the entire image region based on the misregistration detected by the first misregistration detection unit;
A second misregistration correction unit that corrects misregistration between the plurality of images for the partial image region based on the misregistration detected by the second misregistration detection unit;
A first combining unit that generates a first combined image by combining a plurality of images whose positional deviation is corrected for the entire image region;
A second combining unit that generates a second combined image by combining a plurality of images in which misalignment is corrected for the partial image region;
A display unit for displaying the first composite image and the second composite image;
A movement amount detection unit that detects a movement amount of a subject in the partial image region based on the plurality of images;
With
When the movement amount detected by the movement amount detection unit is larger than a predetermined amount, the first positional deviation detection unit uses a method with higher positional deviation detection accuracy than when the movement amount is equal to or less than the predetermined amount. An image pickup apparatus that detects a displacement between the plurality of images .
撮像素子で受光した被写体光を光電変換することによって画像データを得る撮像部と、
前記画像データの画像領域全体のうち、一部の画像領域を選択する画像領域選択部と、
前記画像領域全体を対象として、前記複数の画像間の位置ずれを検出する第1の位置ずれ検出部と、
前記一部の画像領域を対象として、前記第1の位置ずれ検出部による位置ずれ検出方法とは異なる位置ずれ検出方法にて、前記複数の画像間の位置ずれを検出する第2の位置ずれ検出部と、
前記第1の位置ずれ検出部で検出された位置ずれに基づいて、前記画像領域全体を対象として、前記複数の画像間の位置ずれを補正する第1の位置ずれ補正部と、
前記第2の位置ずれ検出部で検出された位置ずれに基づいて、前記一部の画像領域を対象として、前記複数の画像間の位置ずれを補正する第2の位置ずれ補正部と、
前記画像領域全体を対象として位置ずれが補正された複数の画像を合成して、第1の合成画像を生成する第1の合成部と、
前記一部の画像領域を対象として位置ずれが補正された複数の画像を合成して、第2の合成画像を生成する第2の合成部と、
前記第1の合成画像および前記第2の合成画像を表示する表示部と、
前記複数の画像に基づいて、前記一部の画像領域の大きさを検出する大きさ検出部と、
を備え、
前記第1の位置ずれ検出部は、前記大きさ検出部によって検出された一部の画像領域の大きさが所定の大きさよりも大きい場合に、前記一部の画像領域の大きさが前記所定の大きさ以下の場合よりも位置ずれ検出精度の高い方法にて、前記複数の画像間の位置ずれを検出することを特徴とする撮像装置。 An imaging device capable of generating a composite image by combining a plurality of images obtained by imaging,
An imaging unit that obtains image data by photoelectrically converting subject light received by the imaging device;
An image area selection unit that selects a part of the image area of the image data;
A first misregistration detector that detects misregistration between the plurality of images for the entire image region;
Second misregistration detection for detecting misregistration between the plurality of images by a misregistration detection method different from the misregistration detection method by the first misregistration detection unit for the partial image region. And
A first misregistration correction unit that corrects misregistration between the plurality of images for the entire image region based on the misregistration detected by the first misregistration detection unit;
A second misregistration correction unit that corrects misregistration between the plurality of images for the partial image region based on the misregistration detected by the second misregistration detection unit;
A first combining unit that generates a first combined image by combining a plurality of images whose positional deviation is corrected for the entire image region;
A second combining unit that generates a second combined image by combining a plurality of images in which misalignment is corrected for the partial image region;
A display unit for displaying the first composite image and the second composite image;
A size detector for detecting the size of the partial image region based on the plurality of images;
With
The first misregistration detection unit is configured such that when the size of the partial image area detected by the size detection unit is larger than a predetermined size, the size of the partial image region is the predetermined level. An image pickup apparatus , wherein a position shift between the plurality of images is detected by a method having a higher position shift detection accuracy than a case of a size or less .
前記一部の画像領域は、前記動体追尾部によって追尾される動体の一部が少なくとも含まれる領域であることを特徴とする請求項1から請求項4のいずれか一項に記載の撮像装置。 A moving body tracking unit that tracks moving objects on an image is further provided.
The portion of the image area, the image pickup apparatus according to any one of claims 1 to 4, a part of the moving object to be tracked by the moving body tracking portion is characterized in that the area included least.
画像データの画像領域全体のうち、一部の画像領域を選択するステップと、
前記画像領域全体を対象として、前記複数の画像間の位置ずれを検出する第1の位置ずれ検出ステップと、
前記一部の画像領域を対象として、前記第1の位置ずれ検出ステップにおける位置ずれ検出方法とは異なる位置ずれ検出方法にて、前記複数の画像間の位置ずれを検出する第2の位置ずれ検出ステップと、
前記第1の位置ずれ検出ステップで検出された位置ずれに基づいて、前記画像領域全体を対象として、前記複数の画像間の位置ずれを補正するステップと、
前記第2の位置ずれ検出ステップで検出された位置ずれに基づいて、前記一部の画像領域を対象として、前記複数の画像間の位置ずれを補正するステップと、
前記画像領域全体を対象として位置ずれが補正された複数の画像を合成して、第1の合成画像を生成するステップと、
前記一部の画像領域を対象として位置ずれが補正された複数の画像を合成して、第2の合成画像を生成するステップと、
前記第1の合成画像および前記第2の合成画像を表示するステップと、
を備え、
前記第2の位置ずれ検出ステップの位置ずれ検出精度は、前記第1の位置ずれ検出ステップの位置ずれ検出精度よりも高いことを特徴とする撮像方法。 An imaging method using an imaging device capable of generating a composite image by combining a plurality of images obtained by imaging,
Selecting a part of the image area of the image data,
A first misalignment detection step for detecting misalignment between the plurality of images for the entire image area;
Second misregistration detection for detecting misregistration between the plurality of images by a misregistration detection method different from the misregistration detection method in the first misregistration detection step for the partial image region. Steps,
Correcting the positional deviation between the plurality of images for the entire image region based on the positional deviation detected in the first positional deviation detection step;
Correcting the positional deviation between the plurality of images for the partial image region based on the positional deviation detected in the second positional deviation detection step;
Synthesizing a plurality of images whose positional deviation is corrected for the entire image region to generate a first synthesized image;
Synthesizing a plurality of images in which the positional deviation is corrected for the partial image region, and generating a second synthesized image;
Displaying the first composite image and the second composite image;
Equipped with a,
The imaging method , wherein the positional deviation detection accuracy of the second positional deviation detection step is higher than the positional deviation detection accuracy of the first positional deviation detection step .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010107041A JP5548023B2 (en) | 2010-05-07 | 2010-05-07 | Imaging apparatus and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010107041A JP5548023B2 (en) | 2010-05-07 | 2010-05-07 | Imaging apparatus and imaging method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011239055A JP2011239055A (en) | 2011-11-24 |
JP5548023B2 true JP5548023B2 (en) | 2014-07-16 |
Family
ID=45326584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010107041A Active JP5548023B2 (en) | 2010-05-07 | 2010-05-07 | Imaging apparatus and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5548023B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6080503B2 (en) * | 2012-11-06 | 2017-02-15 | キヤノン株式会社 | Image processing device |
JP6452392B2 (en) * | 2014-11-12 | 2019-01-16 | キヤノン株式会社 | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007110636A (en) * | 2005-10-17 | 2007-04-26 | Matsushita Electric Ind Co Ltd | Camera apparatus |
JP4693709B2 (en) * | 2006-06-23 | 2011-06-01 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2009017223A (en) * | 2007-07-04 | 2009-01-22 | Sony Corp | Imaging device, image processing device, and their image processing method and program |
JP5058834B2 (en) * | 2008-01-22 | 2012-10-24 | キヤノン株式会社 | Imaging device |
-
2010
- 2010-05-07 JP JP2010107041A patent/JP5548023B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011239055A (en) | 2011-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5830241B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP4720859B2 (en) | Image processing apparatus, image processing method, and program | |
JP5754312B2 (en) | Image processing apparatus, image processing method, and program | |
CN106576143B (en) | Image capturing apparatus and image capturing method | |
JP4661922B2 (en) | Image processing apparatus, imaging apparatus, solid-state imaging device, image processing method, and program | |
KR101062502B1 (en) | Image pickup device having a panning mode for picking up panning images | |
JP5574423B2 (en) | Imaging apparatus, display control method, and program | |
US8072511B2 (en) | Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus | |
US20100265353A1 (en) | Image Processing Device, Image Sensing Device And Image Reproduction Device | |
KR101109532B1 (en) | Image capturing device, image capturing method, and a storage medium recording thereon a image capturing program | |
JP2013165487A (en) | Image processing apparatus, image capturing apparatus, and program | |
JP6304293B2 (en) | Image processing apparatus, image processing method, and program | |
JP6037224B2 (en) | Image processing apparatus, imaging apparatus, and program | |
JP5683858B2 (en) | Imaging device | |
US9060160B2 (en) | Image generation device, imaging device, image reproduction device, and image reproduction program | |
JP5066249B2 (en) | Imaging apparatus and imaging method | |
JP2013165488A (en) | Image processing apparatus, image capturing apparatus, and program | |
JP5125294B2 (en) | Program, image processing apparatus, imaging apparatus, and image processing method | |
JP5548023B2 (en) | Imaging apparatus and imaging method | |
JP5267279B2 (en) | Image composition apparatus and program | |
US20070269133A1 (en) | Image-data noise reduction apparatus and method of controlling same | |
JP5402166B2 (en) | Image composition apparatus and program | |
JP5402242B2 (en) | Image reproduction apparatus, imaging apparatus, image reproduction method, and image reproduction program | |
JP2009044329A (en) | Program, image processing method, and image processor | |
JP5831492B2 (en) | Imaging apparatus, display control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130426 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140516 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5548023 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |