JP6778014B2 - Imaging device and its control method, program, storage medium - Google Patents
Imaging device and its control method, program, storage medium Download PDFInfo
- Publication number
- JP6778014B2 JP6778014B2 JP2016098150A JP2016098150A JP6778014B2 JP 6778014 B2 JP6778014 B2 JP 6778014B2 JP 2016098150 A JP2016098150 A JP 2016098150A JP 2016098150 A JP2016098150 A JP 2016098150A JP 6778014 B2 JP6778014 B2 JP 6778014B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- blur
- imaging
- background portion
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 60
- 238000003384 imaging method Methods 0.000 title claims description 38
- 238000003860 storage Methods 0.000 title claims description 3
- 239000013598 vector Substances 0.000 claims description 43
- 238000011156 evaluation Methods 0.000 claims description 36
- 238000004091 panning Methods 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 10
- 230000035945 sensitivity Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000006837 decompression Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Adjustment Of Camera Lenses (AREA)
Description
本発明は、撮影者の手振れ等に起因する像ブレを補正する像ブレ補正装置を用いて、流し撮りのアシストをする技術に関するものである。 The present invention relates to a technique for assisting panning shots by using an image blur correction device that corrects image blur caused by camera shake or the like of a photographer.
写真を撮影する手法の1つとして、流し撮りと呼ばれる方法が知られている。流し撮りとは、被写体がある速度で移動しているときに、撮像装置を被写体の動きに合わせてパンニングしながら通常より長い露光時間で露光することにより、背景は流れ、被写体が止まっているような画像を撮影する手法である。流し撮りの手法を用いることで、被写体の動きを効果的に描写したり、臨場感のある画像を撮影することが出来る。 As one of the methods for taking a picture, a method called panning is known. In panning, when the subject is moving at a certain speed, the background is flowing and the subject is stopped by exposing the imager with a longer exposure time than usual while panning according to the movement of the subject. It is a method of taking a simple image. By using the panning technique, it is possible to effectively depict the movement of the subject and shoot an image with a sense of reality.
しかしながら、流し撮りには特有の撮影技術が必要であり、流し撮りに慣れない人にとっては適切な露光時間を設定できなかったり、パンニングする角速度が適切でないために被写体をうまく止められなかったりする問題があった。 However, panning requires a unique shooting technique, and for those who are not accustomed to panning, it is not possible to set an appropriate exposure time, or the subject cannot be stopped well because the angular velocity for panning is not appropriate. was there.
この問題に対して、光学式像ブレ補正装置、あるいは撮像素子をシフトさせる装置などを利用して流し撮りを簡単に行えるようにする方法が提案されている。像ブレ補正は、原理的には、撮像装置の振れ量を角速度センサ等により検出し、検出された振れ量を打ち消す位置に像ブレ補正レンズ、あるいは撮像素子を駆動制御することにより達成される。つまり、像ブレ補正レンズまたは撮像素子の動きにより、撮像素子上の被写体像の結像位置が補正され、手振れによる画像ブレの抑制がなされる。 To solve this problem, a method has been proposed that makes it easy to take a panning shot by using an optical image blur correction device or a device that shifts an image sensor. In principle, the image blur correction is achieved by detecting the amount of vibration of the image pickup device with an angular velocity sensor or the like and driving and controlling the image blur correction lens or the image pickup element at a position where the detected amount of shake is canceled. That is, the movement of the image blur correction lens or the image sensor corrects the imaging position of the subject image on the image sensor, and the image blur due to camera shake is suppressed.
この像ブレ補正装置を利用して被写体の動きを止める技術は、以下の特許文献1、特許文献2などに記載されている。
Techniques for stopping the movement of a subject by using this image blur correction device are described in
特許文献1に開示されている撮像装置は、撮像装置の本体部に、装置の振れを検出する角速度センサと、撮像面上の被写体像の移動量を検出する動きベクトル検出部とを備える。更に、タイミング設定部と主被写体角速度算出部とを備える。このタイミング設定部は、露光時間およびフレームレートの情報を取得して角速度データを取得するタイミングを設定し、当該タイミングにしたがってデータ取得部が角速度データを取得する。また、主被写体角速度算出部は、データ取得部により取得された角速度データと、撮像面上の被写体像の移動量から被写体の角速度を算出する。像ブレ補正制御部は、被写体の角速度に基づいて撮像素子または補正レンズを含む像振れ補正部の駆動制御を行う。このような構成にすることにより、パンニング時の角速度に誤差が生じた場合に、この誤差によるブレ残り(像ブレ補正されなかった画像の動き)を低減することが出来る。
The image pickup apparatus disclosed in
特許文献2に開示されている撮像装置は、撮影レンズの光軸を左右に振る際の角速度を算出する角速度算出部と、撮影レンズの焦点距離を取得する焦点距離取得部とを備える。そして、角速度算出部により算出された角速度と、焦点距離取得部により取得した焦点距離に基づいて被写体を撮像する際に用いられる露光時間を決定する。このような構成にすることにより、撮影者の経験に基づいて設定されていた露光時間を、撮像装置の状態により決定することが出来る。
The imaging apparatus disclosed in
しかしながら、特許文献1においては撮影者が、露光中において、常に露光直前の角速度と同じ角速度でパンニングすることが前提となっている。このため、設定された露光時間が長くなるに従って像ブレ補正装置の駆動量に差分が生じ、ブレ残りが発生する確率が高くなる。また、特許文献1では背景ボケが考慮されていない。一般的に、背景ボケが大きい場合には、背景流し量はある程度視認されにくくなる。そのため、流し撮りの効果を得るために不用意に露光時間を長くしてしまう場合があり、それは、被写体のブレ残りを増加させてしまうことにつながる。
However, in
また、特許文献2では、角速度算出部により算出された角速度と、焦点距離取得部により取得した焦点距離とに基づいて被写体を撮像する際に用いられる露光時間を決定している。ところが、上記と同様に、背景ボケが大きい場合には流し量が視認されにくくなるため、撮影者の意図した流し量を得られない可能性がある。
Further, in
本発明は上述した課題に鑑みてなされたものであり、その目的は、流し撮りを行う場合に、適切な露光時間を設定可能な撮像装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an image pickup apparatus capable of setting an appropriate exposure time when performing a panning shot.
本発明に係わる撮像装置は、被写界を撮像する撮像手段と、前記撮像手段の露光時間を制御する露光制御手段と、前記撮像装置の動きを検出する角速度検出手段で検出された角速度データと前記撮像手段で検出された動きベクトルとを用いて、前記撮像手段の画面内の複数のブロックの各々で検出された動きベクトルを背景ベクトルと主被写体ベクトルに切り分ける切り分け手段と、前記背景ベクトルを用いて選定された前記被写界における主被写体以外の背景部分の画像のボケのレベルを判定するボケ判定手段と、撮影者のパンニングによる前記撮像装置の動きと前記主被写体の動きの差分を低減するように、前記主被写体ベクトルを用いて像ブレ補正手段を制御する制御手段と、を備え、前記露光制御手段は、流し量優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を長くし、被写体優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を短くすることを特徴とする。 The image pickup apparatus according to the present invention includes an image pickup means for capturing a field of view, an exposure control means for controlling the exposure time of the image pickup means, and an angular velocity data detected by the angular velocity detection means for detecting the movement of the image pickup device. Using the motion vector detected by the imaging means, the motion vector detected in each of the plurality of blocks in the screen of the imaging means is separated into a background vector and a main subject vector, and the background vector is used. The blur determination means for determining the blur level of the image of the background portion other than the main subject in the subject selected, and the difference between the movement of the image pickup apparatus and the movement of the main subject due to the panning of the photographer are reduced. As described above, the exposure control means includes a control means for controlling the image blur correction means using the main subject vector, and the exposure control means is described in the case where the background portion is largely blurred when the flow amount priority mode is selected. When the exposure time of the imaging means is lengthened as compared with the case where the blur of the background portion is small and the subject priority mode is selected, the case where the blur of the background portion is large and the case where the blur of the background portion is small It is characterized in that the exposure time of the imaging means is shortened .
本発明によれば、流し撮りを行う場合に、適切な露光時間を設定可能な撮像装置を提供することが可能となる。 According to the present invention, it is possible to provide an imaging device capable of setting an appropriate exposure time when performing panning photography.
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
(第1の実施形態)
図1は、本発明の第1の実施形態に係わる撮像装置201の構成を示すブロック図である。図1において、光学ブロック(撮影光学系)210は、ズームレンズ211、像ブレ補正レンズ212、焦点調節レンズ213、絞り214、シャッタ215を備えて構成されている。レンズ駆動部コントローラブロック220は、光学ブロック210における各構成部材を駆動させるための制御手段である。レンズ駆動部コントローラブロック220は、ズーム制御ブロック221、像ブレ補正制御ブロック222、フォーカス制御ブロック223、絞り制御ブロック224、シャッター制御ブロック225を備えて構成されている。
(First Embodiment)
FIG. 1 is a block diagram showing a configuration of an
光学像を電気信号に変換する撮像素子231は、撮像制御ブロック232によってタイミング等を制御される。A/D変換器233は撮像素子231のアナログ信号出力をデジタル信号に変換し、その出力が、画像入力ブロック234を介し内部メモリ243に格納される。A/D変換器233は、メモリ制御回路241及びシステムコントローラ280により制御される。画像処理部251は、 A/D変換器233からのデータ或いはメモリ制御回路241からのデータに対して所定の画素補間処理や色変換処理等を行う。メモリ制御回路241は、A/D変換器233、画像処理部251、圧縮伸長回路242、内部メモリ243を制御し、記録メディア244へのデータの記録も制御する。
The timing of the
内部メモリ243に書き込まれた表示用の画像データは画像表示制御ブロック261を介してTFT,LCD等から成る画像表示装置206により表示される。内部メモリ243は撮影した静止画像や動画像を格納するとともに、システムコントローラ280の作業領域としても使用される。画像データを圧縮伸長する圧縮・伸長回路242は、内部メモリ243に格納された画像信号を読み込んで圧縮処理あるいは伸長処理を行い、処理を終えたデータを再び内部メモリ243に書き込む。
The image data for display written in the
システムコントローラ280は、撮像装置201全体を制御する。電源ボタン202、レリーズスイッチ203、ズームキー204、メニュー操作キー205は、システムコントローラ280の各種の動作指示を入力するための操作手段である。これらの操作手段は、スイッチやダイアル、タッチパネル等の単数あるいは複数の組み合わせで構成される。スイッチSW1はレリーズボタン203の半押しでONされ、スイッチSW2はレリーズボタン203の全押しでONされる。スイッチSW1、スイッチSW2のON信号は、静止画を記録するためのシャッタを動作させるトリガ信号や、動画記録をスタートやストップさせるためのトリガ信号として使用される。
The
本実施形態において、システムコントローラ280は、ボケ判定部281と、露出制御部282と、動き量検出部283とを備える。ボケ判定部281は、画像のボケ、特に主被写体以外の背景のボケを判定する。本実施形態においては、撮影される画像の合焦度を調節するために評価値演算が行われるが、この評価値演算で得られたAF評価値を用いてボケを判定する。露出制御部(露光制御部)282は、適正露出値を演算して線図を基に露光時間や絞り値、ISO感度を制御する。動き量検出部283は、所定のフレームレートで取得されるライブビュー画像から動きベクトルを検出する。
In the present embodiment, the
ズームキー204は、ズームレンズ211を制御し、焦点距離を調節する。一般的には、撮影者により操作されたズームキー204の方向、及び操作量に基づいてズーム制御部221によりズーム駆動速度や駆動方向が演算される。この演算結果に従ってズームレンズ211が光軸に沿って移動する。電源制御ブロック271は、電源ボタン202の信号をトリガとして電源272より撮像装置201の各部に電源を供給する。
The
図2は、図1における像ブレ補正制御部222の構成を示すブロック図である。図2において、角速度センサー等の振れ検知部2221は、撮像装置201に加わる振れの信号を取得する。振れ検知部2221は、撮像装置201のピッチ方向の振れを検知するピッチ検知部2221aと、ヨー方向の振れを検知するヨー検知部2221bとを有する。なお、撮像装置のピッチ、ヨー、ロール、X、Y、Zの各軸は図3に示すように定義される。
FIG. 2 is a block diagram showing a configuration of the image blur
ピッチ及びヨー検知部2221a,2221bにより取得された信号は、A/D変換器2223a,2223bによりデジタル信号に変換される。A/D変換器2223a,2223bのフィルタは、A/D変換器2222a,2222bでデジタル信号に変換された角速度信号の、設定された低域カットオフ周波数以下の低周波成分を除去して出力する。また、出力された角速度信号を積分することで、撮像装置201の振れ角度を算出する。
The signals acquired by the pitch and
目標位置算出部2224では、算出された振れ角度を、ズーム位置、フォーカス位置、およびこれらより求められる焦点距離や撮影倍率に基づいて増幅し、角度目標値に変換する。これは、焦点距離や撮影倍率等の光学的な変化により、像ブレ補正のストロークに対する撮像面上のブレ補正敏感度が変化することに対応している。この角度目標値から、被写体像を撮像素子231の画面上で移動させる像ブレ補正レンズ212の駆動量を算出する。なお、ズーム位置、フォーカス位置、およびこれらより求められる焦点距離や撮影倍率はシステムコントローラ280を介して取得可能なものとする。
The target
目標位置算出部2224により算出された角度目標値と、ブレ補正レンズ位置検出部2227a,2227bにより取得された現在のブレ補正レンズ212の位置の差分の信号が位置制御部2225に入力される。位置制御部2225からドライバ2226に入力された信号により、像ブレ補正レンズ212の駆動量に応じた駆動電流が流れ、像ブレ補正レンズ212を駆動する。
The signal of the difference between the angle target value calculated by the target
図4は、第1の実施形態における流し撮りアシストモード時の制御を示すフローチャートである。以下、図4を参照して撮像装置201の動作について説明する。
FIG. 4 is a flowchart showing the control in the panning assist mode according to the first embodiment. Hereinafter, the operation of the
まず、ステップS101において、流し撮りを行う際の背景流し量を設定する。このステップで、撮影者は、外部の操作手段を介して任意の背景流し量を選択する。背景流し量は、例えば、大・中・小などのレベルとして表記するとよい。また、背景流し量が直感的にわかるように、背景流し量のレベルとイメージ図とを一緒に示したり、それぞれの背景流し量のレベルに対して、全画角に占める割合を表示したりするとよい。 First, in step S101, the background panning amount for panning is set. In this step, the photographer selects an arbitrary background flow amount via an external operating means. The background sink amount may be expressed as, for example, a level such as large, medium, or small. In addition, it is advisable to show the level of the background flow amount and the image diagram together so that the background flow amount can be intuitively understood, or to display the ratio of each background flow amount to the total angle of view. ..
ステップS102では、流し撮りする際に、背景の流し量を優先して撮影するか、被写体を鮮明に撮影することを優先するかの選択を行う。流し量優先とは、背景がぼけていると判定されたときでも、流し撮りの効果が視認されるような画像を得ることを優先することを意味する。また、被写体優先とは、背景ボケが生じたときに設定された流し量を得るよりも被写体を鮮明に写すことを優先することを意味する。この選択は撮影者が設定してもよいが、撮影シーンや被写体の大きさ、速度に応じて自動で変更しても構わない。本実施形態では、背景流し量を優先し、背景が確実に流れるように設定する。 In step S102, when taking a panning shot, it is selected whether to prioritize the panning amount of the background or to give priority to shooting the subject clearly. Priority is given to obtaining an image in which the effect of panning is visually recognized even when it is determined that the background is blurred. Further, the subject priority means that the subject is clearly captured rather than the set flow amount is obtained when the background blur occurs. This selection may be set by the photographer, but may be automatically changed according to the shooting scene, the size of the subject, and the speed. In the present embodiment, priority is given to the amount of background flow, and the background is set to flow reliably.
ステップS103では、AFを開始する処理を行う。ステップS104では、動きベクトルの検出を開始する処理を行う。このステップでは、動き量検出部283により、所定のフレームレートで取得されるライブビュー画像から動きベクトルを検出する。この検出では、画像を複数の領域に分割して探索用のブロックを設定し、探索用ブロック単位で画像間における動きベクトルを検出する。本実施形態ではブロックマッチング法を用いて動きベクトルの検出を行う。動きベクトル検出方法について、以下に説明する。
In step S103, a process of starting AF is performed. In step S104, a process of starting the detection of the motion vector is performed. In this step, the motion
時系列的に取得された2枚の画像が存在する場合に、先に取得された画像データの全ての領域を複数ブロックに分割する。次に、時系列的に後に取得された画像データにも同様の処理を行う。そして、時系列的に先に取得された方の画像ブロックと、時系列的に後に取得された方の画像ブロックとを比較して、類似度を求める処理を行う。この処理をそれぞれの画像データに対して比較領域をずらしながら行い、最も類似度が高い領域を移動先の領域として決定していく。これを画像データの全てのブロックに対して繰り返し行い、全てのブロックについて動きベクトルを算出する。本実施形態では、ブロックマッチング法を用いたが、別の方法で動きベクトルを算出しても構わない。 When there are two images acquired in time series, all the areas of the previously acquired image data are divided into a plurality of blocks. Next, the same processing is performed on the image data acquired later in chronological order. Then, the image block acquired earlier in chronological order is compared with the image block acquired later in chronological order to obtain the similarity. This process is performed while shifting the comparison area for each image data, and the area having the highest degree of similarity is determined as the destination area. This is repeated for all blocks of image data, and motion vectors are calculated for all blocks. In this embodiment, the block matching method is used, but the motion vector may be calculated by another method.
ステップS105においては、振れ検知部2221により各軸における撮像装置201の角速度を算出する。ステップS106では、レリーズボタン203が半押し状態(SW1がON)であるか否かを判定する。SW1がONである場合には(ステップS106:YES)、ステップS107に進む。SW1がOFFである場合には(ステップS106:NO)、再びステップS106の判定処理を行う。
In step S105, the
ステップS107では、レリーズボタン203が全押し状態(SW2がON)であるか否かを判定する。SW2がONである場合には(ステップS107:YES)、ステップS108に進む。SW2がOFFである場合には(ステップS107:NO)、再びステップS107の判定処理を行う。
In step S107, it is determined whether or not the
ステップS108では、ボケ判定部281において評価値を算出する処理を行う。本実施形態においては、AF評価値を用いて判定を行う。ここで言うAF評価値とは、撮像素子231からの出力信号に基づいて生成される画像の鮮鋭度(コントラスト状態)を表すもの(ボケ判定結果)である。
In step S108, the
いま、流し撮り時におけるAFの検出枠は中央として、被写体Xを撮影するものとする。このときに、画角内を複数のブロック(A〜I)に分け、それぞれのブロックで評価値を演算する。このブロックに分けた状態を図5に示す。図5において、背景ボケが大きいブロックの評価値、即ち鮮鋭度は小さく算出され、反対に背景ボケが少ないブロックの評価値は大きくなる。この特性を利用して、合焦しているエリア以外の評価値から背景ボケのレベルを検知することが可能である。 Now, it is assumed that the subject X is photographed with the AF detection frame at the time of panning. At this time, the angle of view is divided into a plurality of blocks (AI to I), and the evaluation value is calculated in each block. The state divided into the blocks is shown in FIG. In FIG. 5, the evaluation value of the block having a large background blur, that is, the sharpness is calculated to be small, and conversely, the evaluation value of the block having a small background blur is large. Using this characteristic, it is possible to detect the level of background blur from the evaluation values other than the in-focus area.
ステップS109では、像ブレ補正レンズ212の駆動量を計算する処理を行う。この一連の処理を図6のフローチャートに示す。まず、ステップS501において、算出した動きベクトルからヒストグラムを作成する。ここで取得する動きベクトルはステップS104において演算した結果である。図7は動きベクトルをヒストグラム処理した結果を示す。
In step S109, a process of calculating the driving amount of the image
次に、ステップS502において、撮像装置201の角速度を基に背景移動量を推測する。像面上の背景移動量をA[ピクセル]とすると、以下の式で表すことができる。
Next, in step S502, the amount of background movement is estimated based on the angular velocity of the
A=f・tan(−ω/FR)/PP
ここで、fは焦点距離[mm]を、FRは動きベクトルを取得するフレームレート[fps]を、PPはピクセルピッチ[mm]を、それぞれ示している。なお、ω[rad/sec]は振れ検知部2221により取得可能である。
A = f ・ tan (-ω / FR) / PP
Here, f indicates the focal length [mm], FR indicates the frame rate [fps] for acquiring the motion vector, and PP indicates the pixel pitch [mm]. Note that ω [rad / sec] can be acquired by the
ステップS503では、背景ベクトルと被写体ベクトルとの切り分け処理を行う。ステップS502で求められた背景移動量Aを用いると、図7から、背景移動量A以外の部分が被写体ベクトルと推定することが出来る。このようにして動きベクトルから被写体ベクトルを抽出する。また、一般的に、撮影者は被写体を画角内の一点に留めるためにパンニングしながら撮影を行う。このため背景部の動きベクトルの値が大きく出力され、被写体部はブレ残り量分の動きベクトルとして出力されるため、動きベクトルの値が小さく出力される。この特性を利用して、背景と被写体部との切り分けを行ってもよい。 In step S503, the background vector and the subject vector are separated. Using the background movement amount A obtained in step S502, it can be estimated from FIG. 7 that the portion other than the background movement amount A is the subject vector. In this way, the subject vector is extracted from the motion vector. Also, in general, the photographer shoots while panning in order to keep the subject at one point within the angle of view. Therefore, the value of the motion vector of the background portion is output large, and the value of the motion vector is output small because the subject portion is output as a motion vector corresponding to the remaining amount of blurring. Using this characteristic, the background and the subject portion may be separated.
ステップS504では、像ブレ補正レンズ212の駆動量を算出する処理を行う。像ブレ補正レンズ212の駆動量は、被写体ベクトルと撮影焦点距離から算出することが出来る。これは、前述の通り、被写体ベクトルはブレ残り量分の動きベクトルであり、撮影者がパンニング動作をした時の角速度との差分に一致するからである。従って、このブレ残り量を像ブレ補正レンズ212で補正し被写体の動きを止める制御を行えば被写体流れを低減することができる。以上で図6のフローチャートを終え、図4のステップS109の処理を終える。ステップS109の処理が終了したら、ステップS110の処理に進む。
In step S504, a process of calculating the driving amount of the image
ステップS110では、露出制御部282により、露光条件を設定する処理を行う。この一連の処理を図8のフローチャートに示す。まず、ステップS601において、設定された背景流し量に基づいて露光時間Tvを算出する。背景流し量は、ステップS101で設定された値である。たとえば、設定された背景流し量と撮影焦点距離、及び振れ検知部2221の出力から露光時間Tvを求める。
In step S110, the
いま、ステップS101において撮影者が設定した背景流し量が、全画角に対してX[%]であると仮定する。このとき、撮像装置201の角速度をω[rad/sec]、撮影焦点距離をf[mm]とする。また、画面サイズを縦方向はGv[ピクセル]、横方向Gh[ピクセル]とし、撮影者は横方向にパンニングしていると仮定する。
Now, it is assumed that the background flow amount set by the photographer in step S101 is X [%] with respect to the total angle of view. At this time, the angular velocity of the
まず、これらの値を用いて背景流し量をピクセル数に換算すると、背景流し量B[ピクセル]は、
B=Gh×X/100
と表すことが出来る。
この背景流し量B[ピクセル]から露光時間Tvを算出すると、
Tv=C・B/(f・ω)[sec]
となる。Cはピクセルピッチ、センササイズ等によって決定される任意の定数である。ステップS601で露光時間Tvが求められたら、ステップS602の処理を行う。
First, when the background flow amount is converted into the number of pixels using these values, the background flow amount B [pixels] is
B = Gh x X / 100
Can be expressed as.
When the exposure time Tv is calculated from this background flow amount B [pixels],
Tv = CB / (f ・ ω) [sec]
Will be. C is an arbitrary constant determined by the pixel pitch, sensor size, and the like. When the exposure time Tv is obtained in step S601, the process of step S602 is performed.
ステップS602では、撮像装置201の設定が、背景流し量優先なのか、被写体優先なのかを判定する処理を行う。これはステップS102での選択処理で決定されるものである。背景流し量が優先であれば(ステップS602:YES)、ステップS603の処理に進み、被写体が優先であれば(ステップS602:NO)、ステップS604の処理に進む。本実施形態においては、ステップS102において背景流し量を優先したので、ステップS603の処理に進む。
In step S602, a process of determining whether the setting of the
ステップS603では、露光時間Tv1を算出する。露光時間Tv1は図4のステップS108において算出したAF評価値とAF評価値に対応する任意の露光時間倍率を格納したテーブルを用いて求める。図9(a)は、AF評価値に対する露光時間倍率の例を示す図である。AF評価値は、Fv1からFv5…に向けて値が次第に大きくなり、値が小さい場合にボケが大きく、値が大きい場合にボケが小さいものとする。 In step S603, the exposure time Tv1 is calculated. The exposure time Tv1 is obtained by using the AF evaluation value calculated in step S108 of FIG. 4 and a table storing an arbitrary exposure time magnification corresponding to the AF evaluation value. FIG. 9A is a diagram showing an example of an exposure time magnification with respect to an AF evaluation value. The AF evaluation value gradually increases from Fv1 to Fv5 .... When the value is small, the blur is large, and when the value is large, the blur is small.
たとえば、図5の領域Eを除く領域A〜IのAF評価値の平均がFv3以上Fv4未満であった場合には、図9(a)に示すように露光時間倍率を1.6とし、露光時間Tvを1.6倍する。従って、求める露光時間Tv1は下記のようになる。 For example, when the average AF evaluation value of regions A to I excluding region E of FIG. 5 is Fv3 or more and less than Fv4, the exposure time magnification is set to 1.6 and exposure is performed as shown in FIG. 9A. Time Tv is multiplied by 1.6. Therefore, the required exposure time Tv1 is as follows.
Tv1=1.6×Tv[sec]
ここで、図9(a)に示すように背景ボケが大きいほど露光時間を長くするのは、背景ボケが大きいと流し撮りの流し量が不鮮明になるため、背景の流し量を大きくして流し撮りの効果を強調するためである。なお、露光時間倍率はテーブルで管理せずに、関数を用いて算出できるようにしてもよい。
Tv1 = 1.6 × Tv [sec]
Here, as shown in FIG. 9A, the larger the background blur, the longer the exposure time. If the background blur is large, the amount of panning in the panning shot becomes unclear. Therefore, the amount of panning in the background is increased. This is to emphasize the effect of shooting. The exposure time magnification may be calculated using a function without being managed by the table.
ステップS605では、適正露光の演算処理を行う。ここで演算された測光値をBvとする。ステップS606では、ステップS605で求めたBv値とステップS603で算出したTv値と流し撮りモード用の線図とに従って、Av値とISO感度を演算する。露出の演算には以下の式を用いる。 In step S605, the calculation process of proper exposure is performed. Let Bv be the photometric value calculated here. In step S606, the Av value and the ISO sensitivity are calculated according to the Bv value obtained in step S605, the Tv value calculated in step S603, and the diagram for the panning mode. The following formula is used to calculate the exposure.
Bv=Tv+Av−Sv
Tv=−log2(1/Tv1)
Av=log2(F2)
Sv=log2(N×ISO感度)
ここで、Nは定数、Fは絞り値である。これらで求められた露出値を設定し、図8のフローを終える。以上で図4のステップS110を終える。
Bv = Tv + Av-Sv
Tv = -log 2 (1 / Tv1)
Av = log 2 (F 2 )
Sv = log 2 (N × ISO sensitivity)
Here, N is a constant and F is an aperture value. The exposure value obtained by these is set, and the flow of FIG. 8 is completed. This completes step S110 of FIG.
ステップS110の処理が終わったら、ステップS111において露光を開始する。ステップS111において露光が始まると、ステップS112において像ブレ補正レンズ212を駆動する処理を行う。駆動量はステップS109において求めた値に従う値である。ステップS113において、設定された露光時間が終了したか否かを判定する。露光がまだ終了していなければ(ステップS113:NO)、ステップS112の処理に戻る。露光が終了したら(ステップS113:YES)、ステップS114の処理に進む。ステップS114では、像ブレ補正レンズ212の位置を初期位置に戻す処理を行い、図4のフローを終了する。
When the process of step S110 is completed, the exposure is started in step S111. When the exposure starts in step S111, the process of driving the image
本実施形態によれば、背景ボケによって視認されにくくなる背景流れ量を考慮した長めの露光時間を自動で設定して撮影を行うことができるため、効果的な流し撮り画像を簡単に得ることが可能となる。 According to the present embodiment, it is possible to automatically set a long exposure time in consideration of the amount of background flow that makes it difficult to see due to background blur, and thus it is possible to easily obtain an effective panning image. It will be possible.
また、本実施形態の構成においては、画像の合焦度を調節するための評価値を利用することで背景ボケだけでなく、コントラストの小さい背景を有する撮影シーンに対しても効果的な流し撮りを行うことができる。 Further, in the configuration of the present embodiment, by using the evaluation value for adjusting the in-focus degree of the image, not only the background blur but also the panning shot effective for the shooting scene having a background with low contrast is taken. It can be performed.
なお、本実施形態では画像の合焦度を調節するための評価値によってボケ量を検知したが、この評価値を用いなくともよい。この評価値のほかに、各レンズ、センサの情報や、物体検知と被写体サイズ、撮像素子等から得られる撮影画角内の距離情報、被写界深度などからボケ量を推定することも可能である。 In the present embodiment, the amount of blurring is detected by the evaluation value for adjusting the in-focus degree of the image, but this evaluation value may not be used. In addition to this evaluation value, it is also possible to estimate the amount of blur from information on each lens and sensor, object detection and subject size, distance information within the shooting angle of view obtained from the image sensor, depth of field, etc. is there.
被写界深度からボケを推定する方法について、下記に示す。被写界深度とは、画像の中で焦点が合っていると判定できる一定の範囲のことであり、被写界深度が小さいときには背景ボケが存在する可能性が高い。被写界深度は以下の式で算出することができる。 The method of estimating the blur from the depth of field is shown below. The depth of field is a certain range that can be determined to be in focus in the image, and when the depth of field is small, there is a high possibility that background blurring exists. The depth of field can be calculated by the following formula.
前方被写界深度=(許容錯乱円径×絞り値×被写体距離2)/(焦点距離2+許容錯乱円径×絞り値×被写体距離)
後方被写界深度=(許容錯乱円径×絞り値×被写体距離2)/(焦点距離2−許容錯乱円径×絞り値×被写体距離)
被写界深度=前方被写界深度+後方被写界深度
このような被写界深度の演算結果に従ってボケを判定してもよい。
Forward depth of field = (allowable circle of confusion diameter x aperture value x subject distance 2 ) / (focal length 2 + allowable circle of confusion diameter x aperture value x subject distance)
Rear Depth of Field = (Allowable Confusion Circle Diameter x Aperture Value x Subject Distance 2 ) / (Focal Length 2 -Allowable Confusion Circle Diameter x Aperture Value x Subject Distance)
Depth of field = front depth of field + rear depth of field Depth of field may be determined according to the calculation result of such depth of field.
(第2の実施形態)
この第2の実施形態では、図4のステップS102において、被写体を鮮明に撮影することを優先することを選択した場合について説明する。図4のステップS101、ステップS103〜ステップS109までの処理は、第1の実施形態と同様のため説明を省略し、ステップS110の露光条件を設定する処理から説明する。
(Second Embodiment)
In this second embodiment, a case where priority is given to clearly photographing the subject in step S102 of FIG. 4 will be described. Since the processes of step S101 and steps S103 to S109 of FIG. 4 are the same as those of the first embodiment, the description thereof will be omitted, and the process of setting the exposure conditions in step S110 will be described first.
図8のステップS601において、ステップS101で選択した背景流し量に基づく露光時間Tvを算出する。算出方法については、第1の実施形態と同様であり、ステップS101で設定された背景流し量B[ピクセル]から露光時間Tvを算出すると、
Tv=C・B/(f・ω)[sec]
となる。Cはピクセルピッチ、センササイズ等によって決定される任意の定数である。ステップS601で露光時間Tvが求められたら、ステップS602の処理を行う。
In step S601 of FIG. 8, the exposure time Tv based on the background sink amount selected in step S101 is calculated. The calculation method is the same as that of the first embodiment, and when the exposure time Tv is calculated from the background sink amount B [pixels] set in step S101,
Tv = CB / (f ・ ω) [sec]
Will be. C is an arbitrary constant determined by the pixel pitch, sensor size, and the like. When the exposure time Tv is obtained in step S601, the process of step S602 is performed.
ステップS602では、撮像装置201の設定が、背景流し量優先なのか、被写体優先なのかを判定する処理を行う。これはステップS102での選択処理で決定されるものである。背景流し量が優先であれば(ステップS602:YES)、ステップS603の処理に進み、被写体が優先であれば(ステップS602:NO)、ステップS604の処理に進む。本実施形態においてはステップS102において被写体を鮮明に撮影することを優先する選択をしたとしてステップS604の処理に進む。
In step S602, a process of determining whether the setting of the
ステップS604では、露光時間Tv2を算出する。露光時間Tv2は図4のステップS108において算出したAF評価値とAF評価値に対応する任意の露光時間倍率を格納したテーブルを用いて求める。図9(b)は、AF評価値に対する露光時間倍率の例を示す図である。AF評価値は、Fv1からFv5…に向けて値が次第に大きくなり、値が小さい場合にボケが大きく、値が大きい場合にボケが小さいものとする。 In step S604, the exposure time Tv2 is calculated. The exposure time Tv2 is obtained by using the AF evaluation value calculated in step S108 of FIG. 4 and a table storing an arbitrary exposure time magnification corresponding to the AF evaluation value. FIG. 9B is a diagram showing an example of the exposure time magnification with respect to the AF evaluation value. The AF evaluation value gradually increases from Fv1 to Fv5 .... When the value is small, the blur is large, and when the value is large, the blur is small.
たとえば、図5の領域Eを除く領域A〜IのAF評価値の平均がFv3以上Fv4未満であった場合には、図9(b)に示すように露光時間倍率を0.7とし、露光時間Tvを0.7倍する。従って、求める露光時間Tv2は下記のようになる。 For example, when the average of the AF evaluation values of the areas A to I excluding the area E of FIG. 5 is Fv3 or more and less than Fv4, the exposure time magnification is set to 0.7 and the exposure is performed as shown in FIG. 9B. Time Tv is multiplied by 0.7. Therefore, the required exposure time Tv2 is as follows.
Tv2=0.7×Tv[sec]
ここで、図9(b)に示すように背景ボケが大きいほど露光時間を短くするのは、背景ボケが大きいと流し撮りの流し量が不鮮明になるため、露光時間を多少短くしても流し撮りの効果にあまり変化がなく、且つ本実施形態では被写体を鮮明に撮影することを優先しているためである。なお、露光時間倍率はテーブルで管理せずに、関数を用いて算出できるようにしてもよい。
Tv2 = 0.7 × Tv [sec]
Here, as shown in FIG. 9B, the larger the background blur, the shorter the exposure time. If the background blur is large, the flow amount of the panning shot becomes unclear. Therefore, even if the exposure time is slightly shortened, the exposure time is shortened. This is because there is not much change in the shooting effect, and in the present embodiment, priority is given to shooting the subject clearly. The exposure time magnification may be calculated using a function without being managed by the table.
ステップS605では、適正露光の演算処理を行う。ここで演算された測光値をBvとする。ステップS606では、ステップS605で求めたBv値とステップS603で算出したTv値と流し撮りモード用の線図とに従って、Av値とISO感度を演算する。露出の演算には以下の式を用いる。 In step S605, the calculation process of proper exposure is performed. Let Bv be the photometric value calculated here. In step S606, the Av value and the ISO sensitivity are calculated according to the Bv value obtained in step S605, the Tv value calculated in step S603, and the diagram for the panning mode. The following formula is used to calculate the exposure.
Bv=Tv+Av−Sv
Tv=−log2(1/Tv2)
Av=log2(F2)
Sv=log2(N×ISO感度)
ここで、Nは定数、Fは絞り値である。これらで求められた露出値を設定し、図8のフローを終える。以上で図4のステップS110を終える。
Bv = Tv + Av-Sv
Tv = -log 2 (1 / Tv2)
Av = log 2 (F 2 )
Sv = log 2 (N × ISO sensitivity)
Here, N is a constant and F is an aperture value. The exposure value obtained by these is set, and the flow of FIG. 8 is completed. This completes step S110 of FIG.
ステップS110の処理が終わったら、ステップS111において露光を開始する。ステップS111において露光が始まると、ステップS112において像ブレ補正レンズ212を駆動する処理を行う。駆動量はステップS109において求めた値に従う値である。ステップS113において、設定された露光時間が終了したか否かを判定する。露光がまだ終了していなければ(ステップS113:NO)、ステップS112の処理に戻る。露光が終了したら(ステップS113:YES)、ステップS114の処理に進む。ステップS114では、像ブレ補正レンズ212の位置を初期位置に戻す処理を行い、図4のフローを終了する。
When the process of step S110 is completed, the exposure is started in step S111. When the exposure starts in step S111, the process of driving the image
本実施形態においては、背景ボケ量によって流し量が視認されにくくなる分、撮影露光時間を短くすることで被写体のブレ残りを低減することが可能となる。従って、被写体像が鮮明な流し撮り画像を簡単に得ることができる。 In the present embodiment, it is possible to reduce the remaining blurring of the subject by shortening the shooting exposure time because the amount of sinking is less likely to be visually recognized due to the amount of background blur. Therefore, it is possible to easily obtain a panning image with a clear subject image.
また、本実施形態の構成においては、画像の合焦度を調節するための評価値を利用することで背景ボケだけでなく、コントラストの小さい背景を有する撮影シーンに対しても被写体のブレ残りを低減することが可能となる。 Further, in the configuration of the present embodiment, by using the evaluation value for adjusting the in-focus degree of the image, not only the background blur but also the remaining blur of the subject is left for the shooting scene having a background with low contrast. It is possible to reduce it.
なお、本実施形態では画像の合焦度を調節するための評価値によってボケ量を検知したが、この評価値を用いなくともよい。この評価値のほかに、各レンズ、センサの情報や、物体検知と被写体サイズ、撮像素子等から得られる撮影画角内の距離情報、被写界深度などからボケ量を推定することも可能である。これは、第1の実施形態で説明した方法と同様の方法で行えばよい。 In the present embodiment, the amount of blurring is detected by the evaluation value for adjusting the in-focus degree of the image, but this evaluation value may not be used. In addition to this evaluation value, it is also possible to estimate the amount of blur from information on each lens and sensor, object detection and subject size, distance information within the shooting angle of view obtained from the image sensor, depth of field, etc. is there. This may be done in the same manner as the method described in the first embodiment.
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。 Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Some of the above-described embodiments may be combined as appropriate.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
201:撮像装置、210:光学ブロック、220:レンズ駆動部コントローラブロック、280:システムコントローラ、281:ボケ判定部、282:露出制御部、283:動き量検出部 201: Imaging device, 210: Optical block, 220: Lens drive unit controller block, 280: System controller, 281: Blur determination unit, 282: Exposure control unit, 283: Motion amount detection unit
Claims (12)
被写界を撮像する撮像手段と、
前記撮像手段の露光時間を制御する露光制御手段と、
前記撮像装置の動きを検出する角速度検出手段で検出された角速度データと前記撮像手段で検出された動きベクトルとを用いて、前記撮像手段の画面内の複数のブロックの各々で検出された動きベクトルを背景ベクトルと主被写体ベクトルに切り分ける切り分け手段と、
前記背景ベクトルを用いて選定された前記被写界における主被写体以外の背景部分の画像のボケのレベルを判定するボケ判定手段と、
撮影者のパンニングによる前記撮像装置の動きと前記主被写体の動きの差分を低減するように、前記主被写体ベクトルを用いて像ブレ補正手段を制御する制御手段と、を備え、
前記露光制御手段は、流し量優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を長くし、被写体優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を短くすることを特徴とする撮像装置。 It is an imaging device
An imaging means that captures the field of field,
An exposure control means for controlling the exposure time of the image pickup means and
A motion vector detected in each of a plurality of blocks in the screen of the imaging means by using the angular velocity data detected by the angular velocity detecting means for detecting the motion of the imaging device and the motion vector detected by the imaging means. As a means of separating the background vector and the main subject vector,
A blur determination means for determining the level of blur of an image of a background portion other than the main subject in the field selected using the background vector, and
A control means for controlling an image blur correction means using the main subject vector is provided so as to reduce the difference between the movement of the imaging device and the movement of the main subject due to the panning of the photographer .
When the flow amount priority mode is selected , the exposure control means prolongs the exposure time of the imaging means when the background portion is largely blurred and the subject priority mode is set as compared with the case where the background portion is not blurred. When selected , the imaging apparatus is characterized in that when the background portion is largely blurred, the exposure time of the imaging means is shortened as compared with the case where the background portion is not blurred .
前記撮像手段の露光時間を制御する露光制御工程と、
前記撮像装置の動きを検出する角速度検出手段で検出された角速度データと前記撮像手段で検出された動きベクトルとを用いて、前記撮像手段の画面内の複数のブロックの各々で検出された動きベクトルを背景ベクトルと主被写体ベクトルに切り分ける切り分け工程と、
前記背景ベクトルを用いて選定された前記被写界における主被写体以外の背景部分の画像のボケのレベルを判定するボケ判定工程と、
撮影者のパンニングによる前記撮像装置の動きと前記主被写体の動きの差分を低減するように、前記主被写体ベクトルを用いて像ブレ補正手段を制御する制御工程と、を備え、
前記露光制御工程では、流し量優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を長くし、被写体優先モードが選択されたとき、前記背景部分のボケが大きい場合、前記背景部分のボケが小さい場合に比べて前記撮像手段の露光時間を短くすることを特徴とする撮像装置の制御方法。 It is a method of controlling an image pickup apparatus provided with an image pickup means for capturing a field of view.
An exposure control step for controlling the exposure time of the imaging means and
A motion vector detected in each of a plurality of blocks in the screen of the imaging means by using the angular velocity data detected by the angular velocity detecting means for detecting the motion of the imaging device and the motion vector detected by the imaging means. The process of separating the background vector and the main subject vector, and
A blur determination step for determining the level of blur of an image of a background portion other than the main subject in the field selected using the background vector, and a blur determination step.
A control step of controlling an image blur correction means using the main subject vector so as to reduce the difference between the movement of the imaging device and the movement of the main subject due to the panning of the photographer is provided.
In the exposure control step, when the flow amount priority mode is selected, when the blur of the background portion is large, the exposure time of the imaging means is lengthened as compared with the case where the blur of the background portion is small, and the subject priority mode is set. A control method for an imaging apparatus, characterized in that when the background portion is largely blurred, the exposure time of the imaging means is shortened as compared with the case where the background portion is not blurred .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016098150A JP6778014B2 (en) | 2016-05-16 | 2016-05-16 | Imaging device and its control method, program, storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016098150A JP6778014B2 (en) | 2016-05-16 | 2016-05-16 | Imaging device and its control method, program, storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017207554A JP2017207554A (en) | 2017-11-24 |
JP6778014B2 true JP6778014B2 (en) | 2020-10-28 |
Family
ID=60416462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016098150A Expired - Fee Related JP6778014B2 (en) | 2016-05-16 | 2016-05-16 | Imaging device and its control method, program, storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6778014B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04349434A (en) * | 1991-05-27 | 1992-12-03 | Minolta Camera Co Ltd | Camera |
JP2006246354A (en) * | 2005-03-07 | 2006-09-14 | Casio Comput Co Ltd | Imaging unit and imaging program |
JP4823179B2 (en) * | 2006-10-24 | 2011-11-24 | 三洋電機株式会社 | Imaging apparatus and imaging control method |
JP2011040902A (en) * | 2009-08-07 | 2011-02-24 | Toshiba Corp | Image capturing apparatus and control apparatus for the same |
JP2016009998A (en) * | 2014-06-24 | 2016-01-18 | キヤノン株式会社 | Imaging apparatus, imaging method and program |
-
2016
- 2016-05-16 JP JP2016098150A patent/JP6778014B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017207554A (en) | 2017-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6749791B2 (en) | Imaging device and automatic focusing method | |
JP6154081B2 (en) | Imaging device, imaging device body, and lens barrel | |
US10827124B2 (en) | Shake correction device, imaging apparatus, and shake correction method | |
CN107040711B (en) | Image stabilization apparatus and control method thereof | |
JP6818473B2 (en) | Blur correction device and its control method, imaging device | |
CN108668074B (en) | Image blur correction device, control method thereof, image pickup apparatus, and storage medium | |
CN107105152B (en) | Zoom control apparatus, image pickup apparatus, and zoom control method | |
JP2016142999A (en) | Imaging device and control method of the same | |
JP6700874B2 (en) | Image blur correction apparatus, control method thereof, program, and storage medium | |
CN111953891B (en) | Control apparatus, lens apparatus, image pickup apparatus, control method, and storage medium | |
JP6606838B2 (en) | Imaging apparatus and imaging method | |
JP6702737B2 (en) | Image blur correction apparatus and method for controlling image blur correction apparatus | |
JP6584259B2 (en) | Image blur correction apparatus, imaging apparatus, and control method | |
JP6778014B2 (en) | Imaging device and its control method, program, storage medium | |
JP7110078B2 (en) | Imaging device, imaging method | |
JP2019068376A (en) | Control device, imaging device, control method, and program | |
JP2021100239A (en) | Tracking device, control method of the same, and imaging apparatus | |
JP2016032180A (en) | Imaging apparatus, control method and program | |
JP2020148999A (en) | Control device, imaging device, lens device, control method, and program | |
JP6465553B2 (en) | Imaging apparatus and control method thereof | |
JP2014138378A (en) | Image pickup device, control method thereof, and control program thereof | |
JP7214424B2 (en) | Imaging device and its control method | |
JP7073078B2 (en) | Image pickup device and its control method | |
WO2020012960A1 (en) | Imaging device | |
JP2024035336A (en) | Control device and control method of image blur correction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201009 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6778014 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |