[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6778014B2 - Imaging device and its control method, program, storage medium - Google Patents

Imaging device and its control method, program, storage medium Download PDF

Info

Publication number
JP6778014B2
JP6778014B2 JP2016098150A JP2016098150A JP6778014B2 JP 6778014 B2 JP6778014 B2 JP 6778014B2 JP 2016098150 A JP2016098150 A JP 2016098150A JP 2016098150 A JP2016098150 A JP 2016098150A JP 6778014 B2 JP6778014 B2 JP 6778014B2
Authority
JP
Japan
Prior art keywords
image
blur
imaging
background portion
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016098150A
Other languages
Japanese (ja)
Other versions
JP2017207554A (en
Inventor
泰予 小鮒
泰予 小鮒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016098150A priority Critical patent/JP6778014B2/en
Publication of JP2017207554A publication Critical patent/JP2017207554A/en
Application granted granted Critical
Publication of JP6778014B2 publication Critical patent/JP6778014B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Adjustment Of Camera Lenses (AREA)

Description

本発明は、撮影者の手振れ等に起因する像ブレを補正する像ブレ補正装置を用いて、流し撮りのアシストをする技術に関するものである。 The present invention relates to a technique for assisting panning shots by using an image blur correction device that corrects image blur caused by camera shake or the like of a photographer.

写真を撮影する手法の1つとして、流し撮りと呼ばれる方法が知られている。流し撮りとは、被写体がある速度で移動しているときに、撮像装置を被写体の動きに合わせてパンニングしながら通常より長い露光時間で露光することにより、背景は流れ、被写体が止まっているような画像を撮影する手法である。流し撮りの手法を用いることで、被写体の動きを効果的に描写したり、臨場感のある画像を撮影することが出来る。 As one of the methods for taking a picture, a method called panning is known. In panning, when the subject is moving at a certain speed, the background is flowing and the subject is stopped by exposing the imager with a longer exposure time than usual while panning according to the movement of the subject. It is a method of taking a simple image. By using the panning technique, it is possible to effectively depict the movement of the subject and shoot an image with a sense of reality.

しかしながら、流し撮りには特有の撮影技術が必要であり、流し撮りに慣れない人にとっては適切な露光時間を設定できなかったり、パンニングする角速度が適切でないために被写体をうまく止められなかったりする問題があった。 However, panning requires a unique shooting technique, and for those who are not accustomed to panning, it is not possible to set an appropriate exposure time, or the subject cannot be stopped well because the angular velocity for panning is not appropriate. was there.

この問題に対して、光学式像ブレ補正装置、あるいは撮像素子をシフトさせる装置などを利用して流し撮りを簡単に行えるようにする方法が提案されている。像ブレ補正は、原理的には、撮像装置の振れ量を角速度センサ等により検出し、検出された振れ量を打ち消す位置に像ブレ補正レンズ、あるいは撮像素子を駆動制御することにより達成される。つまり、像ブレ補正レンズまたは撮像素子の動きにより、撮像素子上の被写体像の結像位置が補正され、手振れによる画像ブレの抑制がなされる。 To solve this problem, a method has been proposed that makes it easy to take a panning shot by using an optical image blur correction device or a device that shifts an image sensor. In principle, the image blur correction is achieved by detecting the amount of vibration of the image pickup device with an angular velocity sensor or the like and driving and controlling the image blur correction lens or the image pickup element at a position where the detected amount of shake is canceled. That is, the movement of the image blur correction lens or the image sensor corrects the imaging position of the subject image on the image sensor, and the image blur due to camera shake is suppressed.

この像ブレ補正装置を利用して被写体の動きを止める技術は、以下の特許文献1、特許文献2などに記載されている。 Techniques for stopping the movement of a subject by using this image blur correction device are described in Patent Documents 1 and 2 below.

特許文献1に開示されている撮像装置は、撮像装置の本体部に、装置の振れを検出する角速度センサと、撮像面上の被写体像の移動量を検出する動きベクトル検出部とを備える。更に、タイミング設定部と主被写体角速度算出部とを備える。このタイミング設定部は、露光時間およびフレームレートの情報を取得して角速度データを取得するタイミングを設定し、当該タイミングにしたがってデータ取得部が角速度データを取得する。また、主被写体角速度算出部は、データ取得部により取得された角速度データと、撮像面上の被写体像の移動量から被写体の角速度を算出する。像ブレ補正制御部は、被写体の角速度に基づいて撮像素子または補正レンズを含む像振れ補正部の駆動制御を行う。このような構成にすることにより、パンニング時の角速度に誤差が生じた場合に、この誤差によるブレ残り(像ブレ補正されなかった画像の動き)を低減することが出来る。 The image pickup apparatus disclosed in Patent Document 1 includes an angular velocity sensor for detecting the shake of the apparatus and a motion vector detection unit for detecting the amount of movement of the subject image on the imaging surface in the main body of the image pickup apparatus. Further, it includes a timing setting unit and a main subject angular velocity calculation unit. This timing setting unit sets the timing for acquiring the exposure time and frame rate information and acquiring the angular velocity data, and the data acquisition unit acquires the angular velocity data according to the timing. Further, the main subject angular velocity calculation unit calculates the angular velocity of the subject from the angular velocity data acquired by the data acquisition unit and the amount of movement of the subject image on the imaging surface. The image blur correction control unit controls the drive of the image blur correction unit including the image sensor or the correction lens based on the angular velocity of the subject. With such a configuration, when an error occurs in the angular velocity during panning, it is possible to reduce the remaining blur (movement of the image that has not been corrected for image blur) due to this error.

特許文献2に開示されている撮像装置は、撮影レンズの光軸を左右に振る際の角速度を算出する角速度算出部と、撮影レンズの焦点距離を取得する焦点距離取得部とを備える。そして、角速度算出部により算出された角速度と、焦点距離取得部により取得した焦点距離に基づいて被写体を撮像する際に用いられる露光時間を決定する。このような構成にすることにより、撮影者の経験に基づいて設定されていた露光時間を、撮像装置の状態により決定することが出来る。 The imaging apparatus disclosed in Patent Document 2 includes an angular speed calculation unit that calculates an angular speed when the optical axis of the photographing lens is swung left and right, and a focal length acquisition unit that acquires the focal length of the photographing lens. Then, the exposure time used when photographing the subject is determined based on the angular velocity calculated by the angular velocity calculation unit and the focal length acquired by the focal length acquisition unit. With such a configuration, the exposure time set based on the experience of the photographer can be determined according to the state of the image pickup apparatus.

特開2015―161730号公報JP-A-2015-161730 特開2015―102774号公報JP-A-2015-102774

しかしながら、特許文献1においては撮影者が、露光中において、常に露光直前の角速度と同じ角速度でパンニングすることが前提となっている。このため、設定された露光時間が長くなるに従って像ブレ補正装置の駆動量に差分が生じ、ブレ残りが発生する確率が高くなる。また、特許文献1では背景ボケが考慮されていない。一般的に、背景ボケが大きい場合には、背景流し量はある程度視認されにくくなる。そのため、流し撮りの効果を得るために不用意に露光時間を長くしてしまう場合があり、それは、被写体のブレ残りを増加させてしまうことにつながる。 However, in Patent Document 1, it is premised that the photographer always pans at the same angular velocity as the angular velocity immediately before the exposure during the exposure. Therefore, as the set exposure time becomes longer, a difference occurs in the driving amount of the image blur correction device, and the probability that blur remaining occurs increases. Further, Patent Document 1 does not consider background blur. Generally, when the background blur is large, the amount of background sink is difficult to see to some extent. Therefore, the exposure time may be inadvertently lengthened in order to obtain the effect of panning, which leads to an increase in the remaining blur of the subject.

また、特許文献2では、角速度算出部により算出された角速度と、焦点距離取得部により取得した焦点距離とに基づいて被写体を撮像する際に用いられる露光時間を決定している。ところが、上記と同様に、背景ボケが大きい場合には流し量が視認されにくくなるため、撮影者の意図した流し量を得られない可能性がある。 Further, in Patent Document 2, the exposure time used when photographing a subject is determined based on the angular velocity calculated by the angular velocity calculation unit and the focal length acquired by the focal length acquisition unit. However, similarly to the above, when the background blur is large, it becomes difficult to visually recognize the sink amount, so that the sink amount intended by the photographer may not be obtained.

本発明は上述した課題に鑑みてなされたものであり、その目的は、流し撮りを行う場合に、適切な露光時間を設定可能な撮像装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an image pickup apparatus capable of setting an appropriate exposure time when performing a panning shot.

本発明に係わる撮像装置は、被写界を撮像する撮像手段と、前記撮像手段の露光時間を制御する露光制御手段と、前記撮像装置の動きを検出する角速度検出手段で検出された角速度データと前記撮像手段で検出された動きベクトルとを用いて、前記撮像手段の画面内の複数のブロックの各々で検出された動きベクトルを背景ベクトルと主被写体ベクトルに切り分ける切り分け手段と、前記背景ベクトルを用いて選定された前記被写界における主被写体以外の背景部分の画像のボケのレベルを判定するボケ判定手段と、撮影者のパンニングによる前記撮像装置の動きと前記主被写体の動きの差分を低減するように、前記主被写体ベクトルを用いて像ブレ補正手段を制御する制御手段と、を備え、前記露光制御手段は、流し量優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を長くし、被写体優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を短くすることを特徴とする。 The image pickup apparatus according to the present invention includes an image pickup means for capturing a field of view, an exposure control means for controlling the exposure time of the image pickup means, and an angular velocity data detected by the angular velocity detection means for detecting the movement of the image pickup device. Using the motion vector detected by the imaging means, the motion vector detected in each of the plurality of blocks in the screen of the imaging means is separated into a background vector and a main subject vector, and the background vector is used. The blur determination means for determining the blur level of the image of the background portion other than the main subject in the subject selected, and the difference between the movement of the image pickup apparatus and the movement of the main subject due to the panning of the photographer are reduced. As described above, the exposure control means includes a control means for controlling the image blur correction means using the main subject vector, and the exposure control means is described in the case where the background portion is largely blurred when the flow amount priority mode is selected. When the exposure time of the imaging means is lengthened as compared with the case where the blur of the background portion is small and the subject priority mode is selected, the case where the blur of the background portion is large and the case where the blur of the background portion is small It is characterized in that the exposure time of the imaging means is shortened .

本発明によれば、流し撮りを行う場合に、適切な露光時間を設定可能な撮像装置を提供することが可能となる。 According to the present invention, it is possible to provide an imaging device capable of setting an appropriate exposure time when performing panning photography.

本発明の第1の実施形態に係わる撮像装置の構成を示すブロック図。The block diagram which shows the structure of the image pickup apparatus which concerns on 1st Embodiment of this invention. 第1の実施形態における像ブレ補正制御部の構成を示すブロック図。The block diagram which shows the structure of the image blur correction control part in 1st Embodiment. 撮像装置の軸方向を示す図。The figure which shows the axial direction of an image pickup apparatus. 第1の実施形態における撮像装置の動作を示すフローチャート。The flowchart which shows the operation of the image pickup apparatus in 1st Embodiment. 第1の実施形態におけるAF評価値算出ブロックを示す図。The figure which shows the AF evaluation value calculation block in 1st Embodiment. 像ブレ補正レンズの駆動量を算出する動作を示すフローチャート。The flowchart which shows the operation of calculating the driving amount of an image blur correction lens. 動きベクトルのヒストグラムを示す図。The figure which shows the histogram of the motion vector. 露光時間を算出する動作を示すフローチャート。The flowchart which shows the operation of calculating the exposure time. 露光時間を決定するテーブル設定を示す図。The figure which shows the table setting which determines the exposure time.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係わる撮像装置201の構成を示すブロック図である。図1において、光学ブロック(撮影光学系)210は、ズームレンズ211、像ブレ補正レンズ212、焦点調節レンズ213、絞り214、シャッタ215を備えて構成されている。レンズ駆動部コントローラブロック220は、光学ブロック210における各構成部材を駆動させるための制御手段である。レンズ駆動部コントローラブロック220は、ズーム制御ブロック221、像ブレ補正制御ブロック222、フォーカス制御ブロック223、絞り制御ブロック224、シャッター制御ブロック225を備えて構成されている。
(First Embodiment)
FIG. 1 is a block diagram showing a configuration of an image pickup apparatus 201 according to a first embodiment of the present invention. In FIG. 1, the optical block (photographing optical system) 210 includes a zoom lens 211, an image blur correction lens 212, a focus adjustment lens 213, an aperture 214, and a shutter 215. The lens drive unit controller block 220 is a control means for driving each component in the optical block 210. The lens drive unit controller block 220 includes a zoom control block 221, an image blur correction control block 222, a focus control block 223, an aperture control block 224, and a shutter control block 225.

光学像を電気信号に変換する撮像素子231は、撮像制御ブロック232によってタイミング等を制御される。A/D変換器233は撮像素子231のアナログ信号出力をデジタル信号に変換し、その出力が、画像入力ブロック234を介し内部メモリ243に格納される。A/D変換器233は、メモリ制御回路241及びシステムコントローラ280により制御される。画像処理部251は、 A/D変換器233からのデータ或いはメモリ制御回路241からのデータに対して所定の画素補間処理や色変換処理等を行う。メモリ制御回路241は、A/D変換器233、画像処理部251、圧縮伸長回路242、内部メモリ243を制御し、記録メディア244へのデータの記録も制御する。 The timing of the image sensor 231 that converts an optical image into an electric signal is controlled by the image control block 232. The A / D converter 233 converts the analog signal output of the image sensor 231 into a digital signal, and the output is stored in the internal memory 243 via the image input block 234. The A / D converter 233 is controlled by the memory control circuit 241 and the system controller 280. The image processing unit 251 performs predetermined pixel interpolation processing, color conversion processing, and the like on the data from the A / D converter 233 or the data from the memory control circuit 241. The memory control circuit 241 controls the A / D converter 233, the image processing unit 251, the compression / decompression circuit 242, and the internal memory 243, and also controls the recording of data on the recording medium 244.

内部メモリ243に書き込まれた表示用の画像データは画像表示制御ブロック261を介してTFT,LCD等から成る画像表示装置206により表示される。内部メモリ243は撮影した静止画像や動画像を格納するとともに、システムコントローラ280の作業領域としても使用される。画像データを圧縮伸長する圧縮・伸長回路242は、内部メモリ243に格納された画像信号を読み込んで圧縮処理あるいは伸長処理を行い、処理を終えたデータを再び内部メモリ243に書き込む。 The image data for display written in the internal memory 243 is displayed by the image display device 206 including the TFT, LCD, etc. via the image display control block 261. The internal memory 243 stores captured still images and moving images, and is also used as a work area of the system controller 280. The compression / decompression circuit 242 that compresses and decompresses the image data reads the image signal stored in the internal memory 243, performs compression processing or decompression processing, and writes the processed data to the internal memory 243 again.

システムコントローラ280は、撮像装置201全体を制御する。電源ボタン202、レリーズスイッチ203、ズームキー204、メニュー操作キー205は、システムコントローラ280の各種の動作指示を入力するための操作手段である。これらの操作手段は、スイッチやダイアル、タッチパネル等の単数あるいは複数の組み合わせで構成される。スイッチSW1はレリーズボタン203の半押しでONされ、スイッチSW2はレリーズボタン203の全押しでONされる。スイッチSW1、スイッチSW2のON信号は、静止画を記録するためのシャッタを動作させるトリガ信号や、動画記録をスタートやストップさせるためのトリガ信号として使用される。 The system controller 280 controls the entire image pickup apparatus 201. The power button 202, the release switch 203, the zoom key 204, and the menu operation key 205 are operation means for inputting various operation instructions of the system controller 280. These operating means are composed of a single unit or a combination of a switch, a dial, a touch panel, and the like. The switch SW1 is turned on by half-pressing the release button 203, and the switch SW2 is turned on by fully pressing the release button 203. The ON signals of the switch SW1 and the switch SW2 are used as a trigger signal for operating the shutter for recording a still image and a trigger signal for starting and stopping moving image recording.

本実施形態において、システムコントローラ280は、ボケ判定部281と、露出制御部282と、動き量検出部283とを備える。ボケ判定部281は、画像のボケ、特に主被写体以外の背景のボケを判定する。本実施形態においては、撮影される画像の合焦度を調節するために評価値演算が行われるが、この評価値演算で得られたAF評価値を用いてボケを判定する。露出制御部(露光制御部)282は、適正露出値を演算して線図を基に露光時間や絞り値、ISO感度を制御する。動き量検出部283は、所定のフレームレートで取得されるライブビュー画像から動きベクトルを検出する。 In the present embodiment, the system controller 280 includes a blur determination unit 281, an exposure control unit 282, and a motion amount detection unit 283. The blur determination unit 281 determines the blur of the image, particularly the blur of the background other than the main subject. In the present embodiment, the evaluation value calculation is performed in order to adjust the in-focus degree of the captured image, and the blur is determined by using the AF evaluation value obtained by this evaluation value calculation. The exposure control unit (exposure control unit) 282 calculates an appropriate exposure value and controls the exposure time, aperture value, and ISO sensitivity based on the diagram. The motion amount detection unit 283 detects the motion vector from the live view image acquired at a predetermined frame rate.

ズームキー204は、ズームレンズ211を制御し、焦点距離を調節する。一般的には、撮影者により操作されたズームキー204の方向、及び操作量に基づいてズーム制御部221によりズーム駆動速度や駆動方向が演算される。この演算結果に従ってズームレンズ211が光軸に沿って移動する。電源制御ブロック271は、電源ボタン202の信号をトリガとして電源272より撮像装置201の各部に電源を供給する。 The zoom key 204 controls the zoom lens 211 and adjusts the focal length. Generally, the zoom control unit 221 calculates the zoom drive speed and the drive direction based on the direction of the zoom key 204 operated by the photographer and the amount of operation. The zoom lens 211 moves along the optical axis according to the calculation result. The power control block 271 supplies power to each part of the image pickup apparatus 201 from the power supply 272 by using the signal of the power button 202 as a trigger.

図2は、図1における像ブレ補正制御部222の構成を示すブロック図である。図2において、角速度センサー等の振れ検知部2221は、撮像装置201に加わる振れの信号を取得する。振れ検知部2221は、撮像装置201のピッチ方向の振れを検知するピッチ検知部2221aと、ヨー方向の振れを検知するヨー検知部2221bとを有する。なお、撮像装置のピッチ、ヨー、ロール、X、Y、Zの各軸は図3に示すように定義される。 FIG. 2 is a block diagram showing a configuration of the image blur correction control unit 222 in FIG. 1. In FIG. 2, the runout detection unit 2221 such as the angular velocity sensor acquires the runout signal applied to the image pickup apparatus 201. The runout detection unit 2221 includes a pitch detection unit 2221a that detects runout in the pitch direction of the imaging device 201, and a yaw detection unit 2221b that detects runout in the yaw direction. The pitch, yaw, roll, X, Y, and Z axes of the image pickup apparatus are defined as shown in FIG.

ピッチ及びヨー検知部2221a,2221bにより取得された信号は、A/D変換器2223a,2223bによりデジタル信号に変換される。A/D変換器2223a,2223bのフィルタは、A/D変換器2222a,2222bでデジタル信号に変換された角速度信号の、設定された低域カットオフ周波数以下の低周波成分を除去して出力する。また、出力された角速度信号を積分することで、撮像装置201の振れ角度を算出する。 The signals acquired by the pitch and yaw detectors 2221a and 2221b are converted into digital signals by the A / D converters 2223a and 2223b. The filter of the A / D converters 2223a and 2223b removes low frequency components below the set low cutoff frequency of the angular velocity signal converted into a digital signal by the A / D converters 2222a and 2222b and outputs the signal. .. Further, the deflection angle of the image pickup apparatus 201 is calculated by integrating the output angular velocity signal.

目標位置算出部2224では、算出された振れ角度を、ズーム位置、フォーカス位置、およびこれらより求められる焦点距離や撮影倍率に基づいて増幅し、角度目標値に変換する。これは、焦点距離や撮影倍率等の光学的な変化により、像ブレ補正のストロークに対する撮像面上のブレ補正敏感度が変化することに対応している。この角度目標値から、被写体像を撮像素子231の画面上で移動させる像ブレ補正レンズ212の駆動量を算出する。なお、ズーム位置、フォーカス位置、およびこれらより求められる焦点距離や撮影倍率はシステムコントローラ280を介して取得可能なものとする。 The target position calculation unit 2224 amplifies the calculated runout angle based on the zoom position, the focus position, and the focal length and shooting magnification obtained from these, and converts the calculated runout angle into an angle target value. This corresponds to the change in the blur correction sensitivity on the imaging surface with respect to the stroke of image blur correction due to optical changes such as the focal length and the shooting magnification. From this angle target value, the driving amount of the image blur correction lens 212 that moves the subject image on the screen of the image sensor 231 is calculated. It is assumed that the zoom position, the focus position, and the focal length and the shooting magnification required from these can be acquired via the system controller 280.

目標位置算出部2224により算出された角度目標値と、ブレ補正レンズ位置検出部2227a,2227bにより取得された現在のブレ補正レンズ212の位置の差分の信号が位置制御部2225に入力される。位置制御部2225からドライバ2226に入力された信号により、像ブレ補正レンズ212の駆動量に応じた駆動電流が流れ、像ブレ補正レンズ212を駆動する。 The signal of the difference between the angle target value calculated by the target position calculation unit 2224 and the position of the current blur correction lens 212 acquired by the blur correction lens position detection units 2227a and 2227b is input to the position control unit 2225. A drive current corresponding to the driving amount of the image blur correction lens 212 flows by the signal input from the position control unit 2225 to the driver 2226 to drive the image blur correction lens 212.

図4は、第1の実施形態における流し撮りアシストモード時の制御を示すフローチャートである。以下、図4を参照して撮像装置201の動作について説明する。 FIG. 4 is a flowchart showing the control in the panning assist mode according to the first embodiment. Hereinafter, the operation of the image pickup apparatus 201 will be described with reference to FIG.

まず、ステップS101において、流し撮りを行う際の背景流し量を設定する。このステップで、撮影者は、外部の操作手段を介して任意の背景流し量を選択する。背景流し量は、例えば、大・中・小などのレベルとして表記するとよい。また、背景流し量が直感的にわかるように、背景流し量のレベルとイメージ図とを一緒に示したり、それぞれの背景流し量のレベルに対して、全画角に占める割合を表示したりするとよい。 First, in step S101, the background panning amount for panning is set. In this step, the photographer selects an arbitrary background flow amount via an external operating means. The background sink amount may be expressed as, for example, a level such as large, medium, or small. In addition, it is advisable to show the level of the background flow amount and the image diagram together so that the background flow amount can be intuitively understood, or to display the ratio of each background flow amount to the total angle of view. ..

ステップS102では、流し撮りする際に、背景の流し量を優先して撮影するか、被写体を鮮明に撮影することを優先するかの選択を行う。流し量優先とは、背景がぼけていると判定されたときでも、流し撮りの効果が視認されるような画像を得ることを優先することを意味する。また、被写体優先とは、背景ボケが生じたときに設定された流し量を得るよりも被写体を鮮明に写すことを優先することを意味する。この選択は撮影者が設定してもよいが、撮影シーンや被写体の大きさ、速度に応じて自動で変更しても構わない。本実施形態では、背景流し量を優先し、背景が確実に流れるように設定する。 In step S102, when taking a panning shot, it is selected whether to prioritize the panning amount of the background or to give priority to shooting the subject clearly. Priority is given to obtaining an image in which the effect of panning is visually recognized even when it is determined that the background is blurred. Further, the subject priority means that the subject is clearly captured rather than the set flow amount is obtained when the background blur occurs. This selection may be set by the photographer, but may be automatically changed according to the shooting scene, the size of the subject, and the speed. In the present embodiment, priority is given to the amount of background flow, and the background is set to flow reliably.

ステップS103では、AFを開始する処理を行う。ステップS104では、動きベクトルの検出を開始する処理を行う。このステップでは、動き量検出部283により、所定のフレームレートで取得されるライブビュー画像から動きベクトルを検出する。この検出では、画像を複数の領域に分割して探索用のブロックを設定し、探索用ブロック単位で画像間における動きベクトルを検出する。本実施形態ではブロックマッチング法を用いて動きベクトルの検出を行う。動きベクトル検出方法について、以下に説明する。 In step S103, a process of starting AF is performed. In step S104, a process of starting the detection of the motion vector is performed. In this step, the motion amount detection unit 283 detects the motion vector from the live view image acquired at a predetermined frame rate. In this detection, an image is divided into a plurality of regions, a search block is set, and a motion vector between images is detected for each search block. In this embodiment, the motion vector is detected by using the block matching method. The motion vector detection method will be described below.

時系列的に取得された2枚の画像が存在する場合に、先に取得された画像データの全ての領域を複数ブロックに分割する。次に、時系列的に後に取得された画像データにも同様の処理を行う。そして、時系列的に先に取得された方の画像ブロックと、時系列的に後に取得された方の画像ブロックとを比較して、類似度を求める処理を行う。この処理をそれぞれの画像データに対して比較領域をずらしながら行い、最も類似度が高い領域を移動先の領域として決定していく。これを画像データの全てのブロックに対して繰り返し行い、全てのブロックについて動きベクトルを算出する。本実施形態では、ブロックマッチング法を用いたが、別の方法で動きベクトルを算出しても構わない。 When there are two images acquired in time series, all the areas of the previously acquired image data are divided into a plurality of blocks. Next, the same processing is performed on the image data acquired later in chronological order. Then, the image block acquired earlier in chronological order is compared with the image block acquired later in chronological order to obtain the similarity. This process is performed while shifting the comparison area for each image data, and the area having the highest degree of similarity is determined as the destination area. This is repeated for all blocks of image data, and motion vectors are calculated for all blocks. In this embodiment, the block matching method is used, but the motion vector may be calculated by another method.

ステップS105においては、振れ検知部2221により各軸における撮像装置201の角速度を算出する。ステップS106では、レリーズボタン203が半押し状態(SW1がON)であるか否かを判定する。SW1がONである場合には(ステップS106:YES)、ステップS107に進む。SW1がOFFである場合には(ステップS106:NO)、再びステップS106の判定処理を行う。 In step S105, the runout detection unit 2221 calculates the angular velocity of the image pickup device 201 in each axis. In step S106, it is determined whether or not the release button 203 is in the half-pressed state (SW1 is ON). If SW1 is ON (step S106: YES), the process proceeds to step S107. If SW1 is OFF (step S106: NO), the determination process of step S106 is performed again.

ステップS107では、レリーズボタン203が全押し状態(SW2がON)であるか否かを判定する。SW2がONである場合には(ステップS107:YES)、ステップS108に進む。SW2がOFFである場合には(ステップS107:NO)、再びステップS107の判定処理を行う。 In step S107, it is determined whether or not the release button 203 is in the fully pressed state (SW2 is ON). If SW2 is ON (step S107: YES), the process proceeds to step S108. If SW2 is OFF (step S107: NO), the determination process of step S107 is performed again.

ステップS108では、ボケ判定部281において評価値を算出する処理を行う。本実施形態においては、AF評価値を用いて判定を行う。ここで言うAF評価値とは、撮像素子231からの出力信号に基づいて生成される画像の鮮鋭度(コントラスト状態)を表すもの(ボケ判定結果)である。 In step S108, the blur determination unit 281 performs a process of calculating an evaluation value. In the present embodiment, the determination is made using the AF evaluation value. The AF evaluation value referred to here represents the sharpness (contrast state) of an image generated based on the output signal from the image sensor 231 (blurring determination result).

いま、流し撮り時におけるAFの検出枠は中央として、被写体Xを撮影するものとする。このときに、画角内を複数のブロック(A〜I)に分け、それぞれのブロックで評価値を演算する。このブロックに分けた状態を図5に示す。図5において、背景ボケが大きいブロックの評価値、即ち鮮鋭度は小さく算出され、反対に背景ボケが少ないブロックの評価値は大きくなる。この特性を利用して、合焦しているエリア以外の評価値から背景ボケのレベルを検知することが可能である。 Now, it is assumed that the subject X is photographed with the AF detection frame at the time of panning. At this time, the angle of view is divided into a plurality of blocks (AI to I), and the evaluation value is calculated in each block. The state divided into the blocks is shown in FIG. In FIG. 5, the evaluation value of the block having a large background blur, that is, the sharpness is calculated to be small, and conversely, the evaluation value of the block having a small background blur is large. Using this characteristic, it is possible to detect the level of background blur from the evaluation values other than the in-focus area.

ステップS109では、像ブレ補正レンズ212の駆動量を計算する処理を行う。この一連の処理を図6のフローチャートに示す。まず、ステップS501において、算出した動きベクトルからヒストグラムを作成する。ここで取得する動きベクトルはステップS104において演算した結果である。図7は動きベクトルをヒストグラム処理した結果を示す。 In step S109, a process of calculating the driving amount of the image blur correction lens 212 is performed. This series of processes is shown in the flowchart of FIG. First, in step S501, a histogram is created from the calculated motion vector. The motion vector acquired here is the result of calculation in step S104. FIG. 7 shows the result of histogram processing of the motion vector.

次に、ステップS502において、撮像装置201の角速度を基に背景移動量を推測する。像面上の背景移動量をA[ピクセル]とすると、以下の式で表すことができる。 Next, in step S502, the amount of background movement is estimated based on the angular velocity of the imaging device 201. Assuming that the amount of background movement on the image plane is A [pixels], it can be expressed by the following equation.

A=f・tan(−ω/FR)/PP
ここで、fは焦点距離[mm]を、FRは動きベクトルを取得するフレームレート[fps]を、PPはピクセルピッチ[mm]を、それぞれ示している。なお、ω[rad/sec]は振れ検知部2221により取得可能である。
A = f ・ tan (-ω / FR) / PP
Here, f indicates the focal length [mm], FR indicates the frame rate [fps] for acquiring the motion vector, and PP indicates the pixel pitch [mm]. Note that ω [rad / sec] can be acquired by the runout detection unit 2221.

ステップS503では、背景ベクトルと被写体ベクトルとの切り分け処理を行う。ステップS502で求められた背景移動量Aを用いると、図7から、背景移動量A以外の部分が被写体ベクトルと推定することが出来る。このようにして動きベクトルから被写体ベクトルを抽出する。また、一般的に、撮影者は被写体を画角内の一点に留めるためにパンニングしながら撮影を行う。このため背景部の動きベクトルの値が大きく出力され、被写体部はブレ残り量分の動きベクトルとして出力されるため、動きベクトルの値が小さく出力される。この特性を利用して、背景と被写体部との切り分けを行ってもよい。 In step S503, the background vector and the subject vector are separated. Using the background movement amount A obtained in step S502, it can be estimated from FIG. 7 that the portion other than the background movement amount A is the subject vector. In this way, the subject vector is extracted from the motion vector. Also, in general, the photographer shoots while panning in order to keep the subject at one point within the angle of view. Therefore, the value of the motion vector of the background portion is output large, and the value of the motion vector is output small because the subject portion is output as a motion vector corresponding to the remaining amount of blurring. Using this characteristic, the background and the subject portion may be separated.

ステップS504では、像ブレ補正レンズ212の駆動量を算出する処理を行う。像ブレ補正レンズ212の駆動量は、被写体ベクトルと撮影焦点距離から算出することが出来る。これは、前述の通り、被写体ベクトルはブレ残り量分の動きベクトルであり、撮影者がパンニング動作をした時の角速度との差分に一致するからである。従って、このブレ残り量を像ブレ補正レンズ212で補正し被写体の動きを止める制御を行えば被写体流れを低減することができる。以上で図6のフローチャートを終え、図4のステップS109の処理を終える。ステップS109の処理が終了したら、ステップS110の処理に進む。 In step S504, a process of calculating the driving amount of the image blur correction lens 212 is performed. The driving amount of the image blur correction lens 212 can be calculated from the subject vector and the shooting focal length. This is because, as described above, the subject vector is a motion vector corresponding to the remaining amount of blurring, and matches the difference from the angular velocity when the photographer performs the panning operation. Therefore, the flow of the subject can be reduced by correcting the remaining amount of blur with the image blur correction lens 212 and controlling the movement of the subject to be stopped. This completes the flowchart of FIG. 6 and completes the process of step S109 of FIG. When the process of step S109 is completed, the process proceeds to step S110.

ステップS110では、露出制御部282により、露光条件を設定する処理を行う。この一連の処理を図8のフローチャートに示す。まず、ステップS601において、設定された背景流し量に基づいて露光時間Tvを算出する。背景流し量は、ステップS101で設定された値である。たとえば、設定された背景流し量と撮影焦点距離、及び振れ検知部2221の出力から露光時間Tvを求める。 In step S110, the exposure control unit 282 performs a process of setting exposure conditions. This series of processing is shown in the flowchart of FIG. First, in step S601, the exposure time Tv is calculated based on the set background sink amount. The background sink amount is a value set in step S101. For example, the exposure time Tv is obtained from the set background flow amount, the shooting focal length, and the output of the shake detection unit 2221.

いま、ステップS101において撮影者が設定した背景流し量が、全画角に対してX[%]であると仮定する。このとき、撮像装置201の角速度をω[rad/sec]、撮影焦点距離をf[mm]とする。また、画面サイズを縦方向はGv[ピクセル]、横方向Gh[ピクセル]とし、撮影者は横方向にパンニングしていると仮定する。 Now, it is assumed that the background flow amount set by the photographer in step S101 is X [%] with respect to the total angle of view. At this time, the angular velocity of the image pickup apparatus 201 is ω [rad / sec], and the shooting focal length is f [mm]. Further, it is assumed that the screen size is Gv [pixels] in the vertical direction and Gh [pixels] in the horizontal direction, and the photographer is panning in the horizontal direction.

まず、これらの値を用いて背景流し量をピクセル数に換算すると、背景流し量B[ピクセル]は、
B=Gh×X/100
と表すことが出来る。
この背景流し量B[ピクセル]から露光時間Tvを算出すると、
Tv=C・B/(f・ω)[sec]
となる。Cはピクセルピッチ、センササイズ等によって決定される任意の定数である。ステップS601で露光時間Tvが求められたら、ステップS602の処理を行う。
First, when the background flow amount is converted into the number of pixels using these values, the background flow amount B [pixels] is
B = Gh x X / 100
Can be expressed as.
When the exposure time Tv is calculated from this background flow amount B [pixels],
Tv = CB / (f ・ ω) [sec]
Will be. C is an arbitrary constant determined by the pixel pitch, sensor size, and the like. When the exposure time Tv is obtained in step S601, the process of step S602 is performed.

ステップS602では、撮像装置201の設定が、背景流し量優先なのか、被写体優先なのかを判定する処理を行う。これはステップS102での選択処理で決定されるものである。背景流し量が優先であれば(ステップS602:YES)、ステップS603の処理に進み、被写体が優先であれば(ステップS602:NO)、ステップS604の処理に進む。本実施形態においては、ステップS102において背景流し量を優先したので、ステップS603の処理に進む。 In step S602, a process of determining whether the setting of the image pickup apparatus 201 gives priority to the background flow amount or the subject is performed. This is determined by the selection process in step S102. If the background flow amount is prioritized (step S602: YES), the process proceeds to step S603, and if the subject is prioritized (step S602: NO), the process proceeds to step S604. In the present embodiment, since the background sink amount is prioritized in step S102, the process proceeds to step S603.

ステップS603では、露光時間Tv1を算出する。露光時間Tv1は図4のステップS108において算出したAF評価値とAF評価値に対応する任意の露光時間倍率を格納したテーブルを用いて求める。図9(a)は、AF評価値に対する露光時間倍率の例を示す図である。AF評価値は、Fv1からFv5…に向けて値が次第に大きくなり、値が小さい場合にボケが大きく、値が大きい場合にボケが小さいものとする。 In step S603, the exposure time Tv1 is calculated. The exposure time Tv1 is obtained by using the AF evaluation value calculated in step S108 of FIG. 4 and a table storing an arbitrary exposure time magnification corresponding to the AF evaluation value. FIG. 9A is a diagram showing an example of an exposure time magnification with respect to an AF evaluation value. The AF evaluation value gradually increases from Fv1 to Fv5 .... When the value is small, the blur is large, and when the value is large, the blur is small.

たとえば、図5の領域Eを除く領域A〜IのAF評価値の平均がFv3以上Fv4未満であった場合には、図9(a)に示すように露光時間倍率を1.6とし、露光時間Tvを1.6倍する。従って、求める露光時間Tv1は下記のようになる。 For example, when the average AF evaluation value of regions A to I excluding region E of FIG. 5 is Fv3 or more and less than Fv4, the exposure time magnification is set to 1.6 and exposure is performed as shown in FIG. 9A. Time Tv is multiplied by 1.6. Therefore, the required exposure time Tv1 is as follows.

Tv1=1.6×Tv[sec]
ここで、図9(a)に示すように背景ボケが大きいほど露光時間を長くするのは、背景ボケが大きいと流し撮りの流し量が不鮮明になるため、背景の流し量を大きくして流し撮りの効果を強調するためである。なお、露光時間倍率はテーブルで管理せずに、関数を用いて算出できるようにしてもよい。
Tv1 = 1.6 × Tv [sec]
Here, as shown in FIG. 9A, the larger the background blur, the longer the exposure time. If the background blur is large, the amount of panning in the panning shot becomes unclear. Therefore, the amount of panning in the background is increased. This is to emphasize the effect of shooting. The exposure time magnification may be calculated using a function without being managed by the table.

ステップS605では、適正露光の演算処理を行う。ここで演算された測光値をBvとする。ステップS606では、ステップS605で求めたBv値とステップS603で算出したTv値と流し撮りモード用の線図とに従って、Av値とISO感度を演算する。露出の演算には以下の式を用いる。 In step S605, the calculation process of proper exposure is performed. Let Bv be the photometric value calculated here. In step S606, the Av value and the ISO sensitivity are calculated according to the Bv value obtained in step S605, the Tv value calculated in step S603, and the diagram for the panning mode. The following formula is used to calculate the exposure.

Bv=Tv+Av−Sv
Tv=−log2(1/Tv1)
Av=log2(F2
Sv=log2(N×ISO感度)
ここで、Nは定数、Fは絞り値である。これらで求められた露出値を設定し、図8のフローを終える。以上で図4のステップS110を終える。
Bv = Tv + Av-Sv
Tv = -log 2 (1 / Tv1)
Av = log 2 (F 2 )
Sv = log 2 (N × ISO sensitivity)
Here, N is a constant and F is an aperture value. The exposure value obtained by these is set, and the flow of FIG. 8 is completed. This completes step S110 of FIG.

ステップS110の処理が終わったら、ステップS111において露光を開始する。ステップS111において露光が始まると、ステップS112において像ブレ補正レンズ212を駆動する処理を行う。駆動量はステップS109において求めた値に従う値である。ステップS113において、設定された露光時間が終了したか否かを判定する。露光がまだ終了していなければ(ステップS113:NO)、ステップS112の処理に戻る。露光が終了したら(ステップS113:YES)、ステップS114の処理に進む。ステップS114では、像ブレ補正レンズ212の位置を初期位置に戻す処理を行い、図4のフローを終了する。 When the process of step S110 is completed, the exposure is started in step S111. When the exposure starts in step S111, the process of driving the image blur correction lens 212 is performed in step S112. The drive amount is a value according to the value obtained in step S109. In step S113, it is determined whether or not the set exposure time has ended. If the exposure has not been completed yet (step S113: NO), the process returns to step S112. When the exposure is completed (step S113: YES), the process proceeds to step S114. In step S114, a process of returning the position of the image blur correction lens 212 to the initial position is performed, and the flow of FIG. 4 ends.

本実施形態によれば、背景ボケによって視認されにくくなる背景流れ量を考慮した長めの露光時間を自動で設定して撮影を行うことができるため、効果的な流し撮り画像を簡単に得ることが可能となる。 According to the present embodiment, it is possible to automatically set a long exposure time in consideration of the amount of background flow that makes it difficult to see due to background blur, and thus it is possible to easily obtain an effective panning image. It will be possible.

また、本実施形態の構成においては、画像の合焦度を調節するための評価値を利用することで背景ボケだけでなく、コントラストの小さい背景を有する撮影シーンに対しても効果的な流し撮りを行うことができる。 Further, in the configuration of the present embodiment, by using the evaluation value for adjusting the in-focus degree of the image, not only the background blur but also the panning shot effective for the shooting scene having a background with low contrast is taken. It can be performed.

なお、本実施形態では画像の合焦度を調節するための評価値によってボケ量を検知したが、この評価値を用いなくともよい。この評価値のほかに、各レンズ、センサの情報や、物体検知と被写体サイズ、撮像素子等から得られる撮影画角内の距離情報、被写界深度などからボケ量を推定することも可能である。 In the present embodiment, the amount of blurring is detected by the evaluation value for adjusting the in-focus degree of the image, but this evaluation value may not be used. In addition to this evaluation value, it is also possible to estimate the amount of blur from information on each lens and sensor, object detection and subject size, distance information within the shooting angle of view obtained from the image sensor, depth of field, etc. is there.

被写界深度からボケを推定する方法について、下記に示す。被写界深度とは、画像の中で焦点が合っていると判定できる一定の範囲のことであり、被写界深度が小さいときには背景ボケが存在する可能性が高い。被写界深度は以下の式で算出することができる。 The method of estimating the blur from the depth of field is shown below. The depth of field is a certain range that can be determined to be in focus in the image, and when the depth of field is small, there is a high possibility that background blurring exists. The depth of field can be calculated by the following formula.

前方被写界深度=(許容錯乱円径×絞り値×被写体距離2)/(焦点距離2+許容錯乱円径×絞り値×被写体距離)
後方被写界深度=(許容錯乱円径×絞り値×被写体距離2)/(焦点距離2−許容錯乱円径×絞り値×被写体距離)
被写界深度=前方被写界深度+後方被写界深度
このような被写界深度の演算結果に従ってボケを判定してもよい。
Forward depth of field = (allowable circle of confusion diameter x aperture value x subject distance 2 ) / (focal length 2 + allowable circle of confusion diameter x aperture value x subject distance)
Rear Depth of Field = (Allowable Confusion Circle Diameter x Aperture Value x Subject Distance 2 ) / (Focal Length 2 -Allowable Confusion Circle Diameter x Aperture Value x Subject Distance)
Depth of field = front depth of field + rear depth of field Depth of field may be determined according to the calculation result of such depth of field.

(第2の実施形態)
この第2の実施形態では、図4のステップS102において、被写体を鮮明に撮影することを優先することを選択した場合について説明する。図4のステップS101、ステップS103〜ステップS109までの処理は、第1の実施形態と同様のため説明を省略し、ステップS110の露光条件を設定する処理から説明する。
(Second Embodiment)
In this second embodiment, a case where priority is given to clearly photographing the subject in step S102 of FIG. 4 will be described. Since the processes of step S101 and steps S103 to S109 of FIG. 4 are the same as those of the first embodiment, the description thereof will be omitted, and the process of setting the exposure conditions in step S110 will be described first.

図8のステップS601において、ステップS101で選択した背景流し量に基づく露光時間Tvを算出する。算出方法については、第1の実施形態と同様であり、ステップS101で設定された背景流し量B[ピクセル]から露光時間Tvを算出すると、
Tv=C・B/(f・ω)[sec]
となる。Cはピクセルピッチ、センササイズ等によって決定される任意の定数である。ステップS601で露光時間Tvが求められたら、ステップS602の処理を行う。
In step S601 of FIG. 8, the exposure time Tv based on the background sink amount selected in step S101 is calculated. The calculation method is the same as that of the first embodiment, and when the exposure time Tv is calculated from the background sink amount B [pixels] set in step S101,
Tv = CB / (f ・ ω) [sec]
Will be. C is an arbitrary constant determined by the pixel pitch, sensor size, and the like. When the exposure time Tv is obtained in step S601, the process of step S602 is performed.

ステップS602では、撮像装置201の設定が、背景流し量優先なのか、被写体優先なのかを判定する処理を行う。これはステップS102での選択処理で決定されるものである。背景流し量が優先であれば(ステップS602:YES)、ステップS603の処理に進み、被写体が優先であれば(ステップS602:NO)、ステップS604の処理に進む。本実施形態においてはステップS102において被写体を鮮明に撮影することを優先する選択をしたとしてステップS604の処理に進む。 In step S602, a process of determining whether the setting of the image pickup apparatus 201 gives priority to the background flow amount or the subject is performed. This is determined by the selection process in step S102. If the background flow amount is prioritized (step S602: YES), the process proceeds to step S603, and if the subject is prioritized (step S602: NO), the process proceeds to step S604. In the present embodiment, it is assumed that priority is given to photographing the subject clearly in step S102, and the process proceeds to step S604.

ステップS604では、露光時間Tv2を算出する。露光時間Tv2は図4のステップS108において算出したAF評価値とAF評価値に対応する任意の露光時間倍率を格納したテーブルを用いて求める。図9(b)は、AF評価値に対する露光時間倍率の例を示す図である。AF評価値は、Fv1からFv5…に向けて値が次第に大きくなり、値が小さい場合にボケが大きく、値が大きい場合にボケが小さいものとする。 In step S604, the exposure time Tv2 is calculated. The exposure time Tv2 is obtained by using the AF evaluation value calculated in step S108 of FIG. 4 and a table storing an arbitrary exposure time magnification corresponding to the AF evaluation value. FIG. 9B is a diagram showing an example of the exposure time magnification with respect to the AF evaluation value. The AF evaluation value gradually increases from Fv1 to Fv5 .... When the value is small, the blur is large, and when the value is large, the blur is small.

たとえば、図5の領域Eを除く領域A〜IのAF評価値の平均がFv3以上Fv4未満であった場合には、図9(b)に示すように露光時間倍率を0.7とし、露光時間Tvを0.7倍する。従って、求める露光時間Tv2は下記のようになる。 For example, when the average of the AF evaluation values of the areas A to I excluding the area E of FIG. 5 is Fv3 or more and less than Fv4, the exposure time magnification is set to 0.7 and the exposure is performed as shown in FIG. 9B. Time Tv is multiplied by 0.7. Therefore, the required exposure time Tv2 is as follows.

Tv2=0.7×Tv[sec]
ここで、図9(b)に示すように背景ボケが大きいほど露光時間を短くするのは、背景ボケが大きいと流し撮りの流し量が不鮮明になるため、露光時間を多少短くしても流し撮りの効果にあまり変化がなく、且つ本実施形態では被写体を鮮明に撮影することを優先しているためである。なお、露光時間倍率はテーブルで管理せずに、関数を用いて算出できるようにしてもよい。
Tv2 = 0.7 × Tv [sec]
Here, as shown in FIG. 9B, the larger the background blur, the shorter the exposure time. If the background blur is large, the flow amount of the panning shot becomes unclear. Therefore, even if the exposure time is slightly shortened, the exposure time is shortened. This is because there is not much change in the shooting effect, and in the present embodiment, priority is given to shooting the subject clearly. The exposure time magnification may be calculated using a function without being managed by the table.

ステップS605では、適正露光の演算処理を行う。ここで演算された測光値をBvとする。ステップS606では、ステップS605で求めたBv値とステップS603で算出したTv値と流し撮りモード用の線図とに従って、Av値とISO感度を演算する。露出の演算には以下の式を用いる。 In step S605, the calculation process of proper exposure is performed. Let Bv be the photometric value calculated here. In step S606, the Av value and the ISO sensitivity are calculated according to the Bv value obtained in step S605, the Tv value calculated in step S603, and the diagram for the panning mode. The following formula is used to calculate the exposure.

Bv=Tv+Av−Sv
Tv=−log2(1/Tv2)
Av=log2(F2
Sv=log2(N×ISO感度)
ここで、Nは定数、Fは絞り値である。これらで求められた露出値を設定し、図8のフローを終える。以上で図4のステップS110を終える。
Bv = Tv + Av-Sv
Tv = -log 2 (1 / Tv2)
Av = log 2 (F 2 )
Sv = log 2 (N × ISO sensitivity)
Here, N is a constant and F is an aperture value. The exposure value obtained by these is set, and the flow of FIG. 8 is completed. This completes step S110 of FIG.

ステップS110の処理が終わったら、ステップS111において露光を開始する。ステップS111において露光が始まると、ステップS112において像ブレ補正レンズ212を駆動する処理を行う。駆動量はステップS109において求めた値に従う値である。ステップS113において、設定された露光時間が終了したか否かを判定する。露光がまだ終了していなければ(ステップS113:NO)、ステップS112の処理に戻る。露光が終了したら(ステップS113:YES)、ステップS114の処理に進む。ステップS114では、像ブレ補正レンズ212の位置を初期位置に戻す処理を行い、図4のフローを終了する。 When the process of step S110 is completed, the exposure is started in step S111. When the exposure starts in step S111, the process of driving the image blur correction lens 212 is performed in step S112. The drive amount is a value according to the value obtained in step S109. In step S113, it is determined whether or not the set exposure time has ended. If the exposure has not been completed yet (step S113: NO), the process returns to step S112. When the exposure is completed (step S113: YES), the process proceeds to step S114. In step S114, a process of returning the position of the image blur correction lens 212 to the initial position is performed, and the flow of FIG. 4 ends.

本実施形態においては、背景ボケ量によって流し量が視認されにくくなる分、撮影露光時間を短くすることで被写体のブレ残りを低減することが可能となる。従って、被写体像が鮮明な流し撮り画像を簡単に得ることができる。 In the present embodiment, it is possible to reduce the remaining blurring of the subject by shortening the shooting exposure time because the amount of sinking is less likely to be visually recognized due to the amount of background blur. Therefore, it is possible to easily obtain a panning image with a clear subject image.

また、本実施形態の構成においては、画像の合焦度を調節するための評価値を利用することで背景ボケだけでなく、コントラストの小さい背景を有する撮影シーンに対しても被写体のブレ残りを低減することが可能となる。 Further, in the configuration of the present embodiment, by using the evaluation value for adjusting the in-focus degree of the image, not only the background blur but also the remaining blur of the subject is left for the shooting scene having a background with low contrast. It is possible to reduce it.

なお、本実施形態では画像の合焦度を調節するための評価値によってボケ量を検知したが、この評価値を用いなくともよい。この評価値のほかに、各レンズ、センサの情報や、物体検知と被写体サイズ、撮像素子等から得られる撮影画角内の距離情報、被写界深度などからボケ量を推定することも可能である。これは、第1の実施形態で説明した方法と同様の方法で行えばよい。 In the present embodiment, the amount of blurring is detected by the evaluation value for adjusting the in-focus degree of the image, but this evaluation value may not be used. In addition to this evaluation value, it is also possible to estimate the amount of blur from information on each lens and sensor, object detection and subject size, distance information within the shooting angle of view obtained from the image sensor, depth of field, etc. is there. This may be done in the same manner as the method described in the first embodiment.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。 Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Some of the above-described embodiments may be combined as appropriate.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

201:撮像装置、210:光学ブロック、220:レンズ駆動部コントローラブロック、280:システムコントローラ、281:ボケ判定部、282:露出制御部、283:動き量検出部 201: Imaging device, 210: Optical block, 220: Lens drive unit controller block, 280: System controller, 281: Blur determination unit, 282: Exposure control unit, 283: Motion amount detection unit

Claims (12)

撮像装置であって、
被写界を撮像する撮像手段と、
前記撮像手段の露光時間を制御する露光制御手段と、
前記撮像装置の動きを検出する角速度検出手段で検出された角速度データと前記撮像手段で検出された動きベクトルとを用いて、前記撮像手段の画面内の複数のブロックの各々で検出された動きベクトルを背景ベクトルと主被写体ベクトルに切り分ける切り分け手段と、
前記背景ベクトルを用いて選定された前記被写界における主被写体以外の背景部分の画像のボケのレベルを判定するボケ判定手段と、
撮影者のパンニングによる前記撮像装置の動きと前記主被写体の動きの差分を低減するように、前記主被写体ベクトルを用いて像ブレ補正手段を制御する制御手段と、を備え、
前記露光制御手段は、流し量優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を長くし、被写体優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を短くすることを特徴とする撮像装置。
It is an imaging device
An imaging means that captures the field of field,
An exposure control means for controlling the exposure time of the image pickup means and
A motion vector detected in each of a plurality of blocks in the screen of the imaging means by using the angular velocity data detected by the angular velocity detecting means for detecting the motion of the imaging device and the motion vector detected by the imaging means. As a means of separating the background vector and the main subject vector,
A blur determination means for determining the level of blur of an image of a background portion other than the main subject in the field selected using the background vector, and
A control means for controlling an image blur correction means using the main subject vector is provided so as to reduce the difference between the movement of the imaging device and the movement of the main subject due to the panning of the photographer .
When the flow amount priority mode is selected , the exposure control means prolongs the exposure time of the imaging means when the background portion is largely blurred and the subject priority mode is set as compared with the case where the background portion is not blurred. When selected , the imaging apparatus is characterized in that when the background portion is largely blurred, the exposure time of the imaging means is shortened as compared with the case where the background portion is not blurred .
前記ボケ判定手段は、画像の合焦度を示す評価値を算出する評価値演算手段を有することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the blur determination means includes an evaluation value calculation means for calculating an evaluation value indicating the degree of focus of an image. 前記ボケ判定手段は、前記被写界を複数の領域に分割した各領域について前記評価値を算出し、算出された評価値に基づいて前記主被写体以外の背景部分のボケのレベルを判定することを特徴とする請求項2に記載の撮像装置。 The blur determination means calculates the evaluation value for each region obtained by dividing the field into a plurality of regions, and determines the level of blur in the background portion other than the main subject based on the calculated evaluation value. 2. The imaging apparatus according to claim 2. 前記評価値演算手段は、前記撮像手段により得られた画像信号のコントラストを表す評価値を、前記画像の合焦度を示す評価値として算出すること特徴とする請求項2または3に記載の撮像装置。 The imaging according to claim 2 or 3, wherein the evaluation value calculating means calculates an evaluation value representing the contrast of the image signal obtained by the imaging means as an evaluation value indicating the degree of focus of the image. apparatus. 前記露光制御手段は、前記ボケ判定手段の出力と、前記撮像装置の振れと、撮影光学系の焦点距離とに基づいて、前記撮像手段の露光時間を制御することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 The exposure control means is characterized in that the exposure time of the image pickup means is controlled based on the output of the blur determination means, the deflection of the image pickup apparatus, and the focal length of the photographing optical system. The image pickup apparatus according to any one of 4. 前記ボケ判定手段は、前記撮像装置と前記主被写体との距離に基づいて前記画像のボケのレベルを判定することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the blur determining means determines the level of blurring of the image based on the distance between the imaging device and the main subject. 前記ボケ判定手段は、被写界深度に基づいて前記主被写体以外の背景部分のボケのレベルを判定することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the blur determination means determines the level of blur in a background portion other than the main subject based on the depth of field. 前記ボケ判定手段は、前記撮像手段により得られた画像信号から取得される被写体サイズ、焦点距離、撮像素子の大きさのうちの少なくとも一つを用いて前記主被写体以外の背景部分のボケのレベルを判定することを特徴とする請求項1に記載の撮像装置。 The blur determination means uses at least one of the subject size, focal length, and size of the image sensor acquired from the image signal obtained by the image pickup means to determine the level of blur in the background portion other than the main subject. The image pickup apparatus according to claim 1, wherein the image pickup device is characterized in that. 前記像ブレ補正手段は、撮影光学系に設けられた像ブレ補正レンズであることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 8, wherein the image blur correction means is an image blur correction lens provided in a photographing optical system. 被写界を撮像する撮像手段を備える撮像装置を制御する方法であって、
前記撮像手段の露光時間を制御する露光制御工程と、
前記撮像装置の動きを検出する角速度検出手段で検出された角速度データと前記撮像手段で検出された動きベクトルとを用いて、前記撮像手段の画面内の複数のブロックの各々で検出された動きベクトルを背景ベクトルと主被写体ベクトルに切り分ける切り分け工程と、
前記背景ベクトルを用いて選定された前記被写界における主被写体以外の背景部分の画像のボケのレベルを判定するボケ判定工程と、
撮影者のパンニングによる前記撮像装置の動きと前記主被写体の動きの差分を低減するように、前記主被写体ベクトルを用いて像ブレ補正手段を制御する制御工程と、を備え、
前記露光制御工程では、流し量優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を長くし、被写体優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を短くすることを特徴とする撮像装置の制御方法。
It is a method of controlling an image pickup apparatus provided with an image pickup means for capturing a field of view.
An exposure control step for controlling the exposure time of the imaging means and
A motion vector detected in each of a plurality of blocks in the screen of the imaging means by using the angular velocity data detected by the angular velocity detecting means for detecting the motion of the imaging device and the motion vector detected by the imaging means. The process of separating the background vector and the main subject vector, and
A blur determination step for determining the level of blur of an image of a background portion other than the main subject in the field selected using the background vector, and a blur determination step.
A control step of controlling an image blur correction means using the main subject vector so as to reduce the difference between the movement of the imaging device and the movement of the main subject due to the panning of the photographer is provided.
In the exposure control step, when the flow amount priority mode is selected, when the blur of the background portion is large, the exposure time of the imaging means is lengthened as compared with the case where the blur of the background portion is small, and the subject priority mode is set. A control method for an imaging apparatus, characterized in that when the background portion is largely blurred, the exposure time of the imaging means is shortened as compared with the case where the background portion is not blurred .
請求項10に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 10 . 請求項10に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores a program for causing a computer to execute each step of the control method according to claim 10 .
JP2016098150A 2016-05-16 2016-05-16 Imaging device and its control method, program, storage medium Expired - Fee Related JP6778014B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016098150A JP6778014B2 (en) 2016-05-16 2016-05-16 Imaging device and its control method, program, storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016098150A JP6778014B2 (en) 2016-05-16 2016-05-16 Imaging device and its control method, program, storage medium

Publications (2)

Publication Number Publication Date
JP2017207554A JP2017207554A (en) 2017-11-24
JP6778014B2 true JP6778014B2 (en) 2020-10-28

Family

ID=60416462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016098150A Expired - Fee Related JP6778014B2 (en) 2016-05-16 2016-05-16 Imaging device and its control method, program, storage medium

Country Status (1)

Country Link
JP (1) JP6778014B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04349434A (en) * 1991-05-27 1992-12-03 Minolta Camera Co Ltd Camera
JP2006246354A (en) * 2005-03-07 2006-09-14 Casio Comput Co Ltd Imaging unit and imaging program
JP4823179B2 (en) * 2006-10-24 2011-11-24 三洋電機株式会社 Imaging apparatus and imaging control method
JP2011040902A (en) * 2009-08-07 2011-02-24 Toshiba Corp Image capturing apparatus and control apparatus for the same
JP2016009998A (en) * 2014-06-24 2016-01-18 キヤノン株式会社 Imaging apparatus, imaging method and program

Also Published As

Publication number Publication date
JP2017207554A (en) 2017-11-24

Similar Documents

Publication Publication Date Title
JP6749791B2 (en) Imaging device and automatic focusing method
JP6154081B2 (en) Imaging device, imaging device body, and lens barrel
US10827124B2 (en) Shake correction device, imaging apparatus, and shake correction method
CN107040711B (en) Image stabilization apparatus and control method thereof
JP6818473B2 (en) Blur correction device and its control method, imaging device
CN108668074B (en) Image blur correction device, control method thereof, image pickup apparatus, and storage medium
CN107105152B (en) Zoom control apparatus, image pickup apparatus, and zoom control method
JP2016142999A (en) Imaging device and control method of the same
JP6700874B2 (en) Image blur correction apparatus, control method thereof, program, and storage medium
CN111953891B (en) Control apparatus, lens apparatus, image pickup apparatus, control method, and storage medium
JP6606838B2 (en) Imaging apparatus and imaging method
JP6702737B2 (en) Image blur correction apparatus and method for controlling image blur correction apparatus
JP6584259B2 (en) Image blur correction apparatus, imaging apparatus, and control method
JP6778014B2 (en) Imaging device and its control method, program, storage medium
JP7110078B2 (en) Imaging device, imaging method
JP2019068376A (en) Control device, imaging device, control method, and program
JP2021100239A (en) Tracking device, control method of the same, and imaging apparatus
JP2016032180A (en) Imaging apparatus, control method and program
JP2020148999A (en) Control device, imaging device, lens device, control method, and program
JP6465553B2 (en) Imaging apparatus and control method thereof
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
JP7214424B2 (en) Imaging device and its control method
JP7073078B2 (en) Image pickup device and its control method
WO2020012960A1 (en) Imaging device
JP2024035336A (en) Control device and control method of image blur correction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201009

R151 Written notification of patent or utility model registration

Ref document number: 6778014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees