[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011004219A - Image capturing apparatus and tracking method - Google Patents

Image capturing apparatus and tracking method Download PDF

Info

Publication number
JP2011004219A
JP2011004219A JP2009146241A JP2009146241A JP2011004219A JP 2011004219 A JP2011004219 A JP 2011004219A JP 2009146241 A JP2009146241 A JP 2009146241A JP 2009146241 A JP2009146241 A JP 2009146241A JP 2011004219 A JP2011004219 A JP 2011004219A
Authority
JP
Japan
Prior art keywords
image
image information
interruption
screen
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009146241A
Other languages
Japanese (ja)
Other versions
JP5418010B2 (en
Inventor
Hideki Kanbayashi
秀樹 神林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009146241A priority Critical patent/JP5418010B2/en
Publication of JP2011004219A publication Critical patent/JP2011004219A/en
Application granted granted Critical
Publication of JP5418010B2 publication Critical patent/JP5418010B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image capturing apparatus which tracks a main subject so as not to miss it, even when an acquisition interval of images for use in comparison is prolonged.SOLUTION: The image capturing apparatus includes: an imaging unit 15 (17) which acquires image information for recognizing a position of a tracking object in a screen; a first operation means 36 for calculating an absolute amount by which the tracking object moves as movement information while the imaging unit 15 (17) interrupts acquisition of the image information; a second operation means 33 for calculating an absolute amount of posture change of the image capturing apparatus as posture change information based on a detection signal from a posture detection means 24 for detecting a posture of the image capturing apparatus with the imaging unit 15 (17); and a recognition means 36 for performing normal recognition for recognizing the position of the tracking object in the screen from the image information when the imaging unit 15 (17) acquires the image information, and performing first interruption recognition for recognizing the position of the tracking object using a result by estimating the position of the tracking object in the screen from the image information acquired by the imaging unit 15 (17) after interruption using the position of the tracking object in the screen recognized after the interruption, the movement information, and the posture change information when the imaging unit 15 (17) interrupts the acquisition of the image information.

Description

本発明は、撮像装置および追尾方法に関する。   The present invention relates to an imaging apparatus and a tracking method.

スルー画像を解析して主要被写体の移動方向を判定する技術が知られている(特許文献1参照)。   A technique for analyzing a through image and determining a moving direction of a main subject is known (see Patent Document 1).

特開2008−288797号公報JP 2008-287797 A

従来技術では、スルー画像間における主要被写体および参照点の位置関係の変化に基づいて主要被写体の移動方向を判定する。しかしながら、スルー画像などの画像情報の取得が中断されている間に、主要被写体を見失うおそれがあった。   In the prior art, the moving direction of the main subject is determined based on the change in the positional relationship between the main subject and the reference point between the through images. However, there is a possibility that the main subject may be lost while acquisition of image information such as a through image is interrupted.

本発明による撮像装置は、画面内における追尾対象の位置を認識するための画像情報を取得する撮像部と、撮像部が画像情報の取得を中断する間に、追尾対象が移動した絶対量を移動情報として演算する第1演算手段と、撮像部を備える撮像装置の姿勢を検出する姿勢検出手段からの検出信号に基づいて、撮像装置の姿勢変化の絶対量を姿勢変化情報として演算する第2演算手段と、撮像部が画像情報を取得する際には、該画像情報から画面内における追尾対象の位置を認識する通常認識を行い、撮像部が画像情報の取得を中断する際には、中断前に認識された画面内における追尾対象の位置と、移動情報と、姿勢変化情報とを用いて、中断後に撮像部により取得された画像情報から画面内における追尾対象の位置を推定した結果を用いて認識する第1中断認識を行う認識手段とを備えることを特徴とする。   An imaging apparatus according to the present invention includes an imaging unit that acquires image information for recognizing the position of a tracking target in a screen, and an absolute amount that the tracking target has moved while the imaging unit interrupts acquisition of the image information. Based on a detection signal from a first calculation unit that calculates as information and a posture detection unit that detects the posture of the imaging device including the imaging unit, a second calculation that calculates the absolute amount of the posture change of the imaging device as posture change information When the image capturing unit acquires image information, normal recognition for recognizing the position of the tracking target in the screen is performed from the image information. When the image capturing unit interrupts the acquisition of the image information, Using the result of estimating the position of the tracking target in the screen from the image information acquired by the imaging unit after the interruption, using the position of the tracking target in the screen recognized by the camera, movement information, and posture change information Recognition Characterized in that it comprises a first recognition means for performing interrupt recognition to be.

本発明によれば、比較に用いる画像情報の取得が中断されても、主要被写体を見失わないように追尾できる。   According to the present invention, even if acquisition of image information used for comparison is interrupted, tracking can be performed so as not to lose sight of the main subject.

本発明の一実施の形態による一眼レフ電子カメラの要部構成を説明する図である。It is a figure explaining the principal part structure of the single-lens reflex electronic camera by one embodiment of this invention. AFエリア表示を例示する図である。It is a figure which illustrates AF area display. ライブビュー切り換えスイッチがオンされた場合の一眼レフ電子カメラの要部構成を説明する図である。It is a figure explaining the principal part structure of a single-lens reflex electronic camera when a live view changeover switch is turned on. 一眼レフ電子カメラの制御回路を例示するブロック図である。It is a block diagram which illustrates the control circuit of a single lens reflex electronic camera. ライブビュー切り換えスイッチがオフされている場合の連写動作を説明するタイミングチャートである。6 is a timing chart for explaining continuous shooting operation when a live view switch is turned off. (a)は所定時間ごとの角速度dθ/dtの変化を例示する図、(b)はカメラの移動量F(n)を例示する図、(c)はカメラの移動ベクトルG(n)を例示する図、(d)は主要被写体の移動量H(n)を例示する図である。(a) is a diagram illustrating a change in angular velocity dθ / dt per predetermined time, (b) is a diagram illustrating a camera movement amount F (n), and (c) is a camera movement vector G (n). (D) is a diagram illustrating the amount of movement H (n) of the main subject. フレーム画像P1およびP2間における式(2)の関係を説明する図である。It is a figure explaining the relationship of Formula (2) between the frame images P1 and P2. (a)は移動ベクトルG(n)の履歴を例示する図、(b)は動きベクトルG(n)の変化量の絶対値|ΔG(n)|を例示する図である。(a) is a diagram illustrating a history of a movement vector G (n), and (b) is a diagram illustrating an absolute value | ΔG (n) | of a change amount of a motion vector G (n). ライブビュー切り換えスイッチがオンされている場合の連写動作を説明するタイミングチャートである。6 is a timing chart for explaining a continuous shooting operation when a live view switching switch is turned on. コンピュータ装置を例示する図である。It is a figure which illustrates a computer apparatus.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による一眼レフ電子カメラの要部構成を説明する図である。図1において、カメラ本体1に対して着脱可能に構成されるレンズ鏡筒2が装着されている。ライブビュー切り換えスイッチ19はオフされている。ライブビュー切り換えスイッチ19は、後述するライブビュー表示動作を行わせるためのスイッチである。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram for explaining a main configuration of a single-lens reflex electronic camera according to an embodiment of the present invention. In FIG. 1, a lens barrel 2 configured to be detachable from a camera body 1 is attached. The live view changeover switch 19 is turned off. The live view changeover switch 19 is a switch for performing a live view display operation described later.

<光学ファインダーによる観察>
被写体からの光は、レンズ鏡筒2の撮影光学系3,5および絞り6を介してカメラ本体1へ入射される。ライブビュー切り換えスイッチ19がオフにされている場合、カメラ本体1に入射した被写体光は、レリーズ前はクイックリターンミラー(以下メインミラーと呼ぶ)7で上方の光学ファインダー部へ導かれて拡散スクリーン10に結像する。また、カメラ本体1に入射した被写体光の一部はサブミラー8で下方へ反射され、AFセンサー9にも入射する。AFセンサー9は、公知の瞳分割による位相差検出方式のAF(オートフォーカス)装置を構成する。
<Observation with optical viewfinder>
Light from the subject enters the camera body 1 through the photographing optical systems 3 and 5 of the lens barrel 2 and the diaphragm 6. When the live view changeover switch 19 is turned off, the subject light incident on the camera body 1 is guided to the upper optical finder by a quick return mirror (hereinafter referred to as a main mirror) 7 before being released, and is then diffused on the screen 10. To form an image. Part of the subject light incident on the camera body 1 is reflected downward by the sub mirror 8 and also enters the AF sensor 9. The AF sensor 9 constitutes a known phase difference detection AF (autofocus) device using pupil division.

AFセンサー9は、AF装置がレンズ鏡筒2によるフォーカス調節状態を検出する焦点検出処理において用いられる。フォーカス調節状態に基づいてレンズ駆動量演算部38(図4)によって演算されたレンズ駆動情報がカメラ本体1からレンズ鏡筒2へ送信されると、レンズ鏡筒2内のAFモーター4がフォーカシングレンズ3を光軸方向に進退移動させる。これにより、所定の被写体を対象にフォーカス調節が行われる。   The AF sensor 9 is used in a focus detection process in which the AF device detects a focus adjustment state by the lens barrel 2. When the lens drive information calculated by the lens drive amount calculation unit 38 (FIG. 4) based on the focus adjustment state is transmitted from the camera body 1 to the lens barrel 2, the AF motor 4 in the lens barrel 2 moves to the focusing lens. 3 is moved back and forth in the optical axis direction. Thereby, focus adjustment is performed on a predetermined subject.

上述した拡散スクリーン10に結像した被写体光はさらに、AFエリア表示部25を介してペンタプリズム11へ入射する。ペンタプリズム11は、入射された被写体光を光学ファインダーレンズ12へ導く一方、その一部を測光センサ15へも導く。撮影者は、接眼部13から光学ファインダーによる被写体像を観察する。   The subject light imaged on the diffusion screen 10 further enters the pentaprism 11 via the AF area display unit 25. The pentaprism 11 guides incident subject light to the optical viewfinder lens 12, and also guides part of it to the photometric sensor 15. The photographer observes the subject image through the optical viewfinder from the eyepiece 13.

測光レンズ14を介して測光センサ15に入射された光束は、その撮像面上に被写体像を結像する。測光センサ15は、画素に対応する複数(たとえばVGAに相当する画素数)の光電変換素子を備えたCCDイメージセンサなどによって構成される。測光センサ15は、被写体像の明るさに応じた測光用の光電変換信号を出力する。   The light beam incident on the photometric sensor 15 via the photometric lens 14 forms a subject image on its imaging surface. The photometric sensor 15 is configured by a CCD image sensor or the like provided with a plurality of photoelectric conversion elements (for example, the number of pixels corresponding to VGA) corresponding to the pixels. The photometric sensor 15 outputs a photoelectric conversion signal for photometry according to the brightness of the subject image.

測光センサ15には不図示のカラーフィルタが配設されており、測光センサ15は該カラーフィルタを通して受光した光電変換信号を出力する。たとえば、測光センサ15の画素位置にR,G,B色のフィルタが配設されることにより、R色のフィルタを通して受光した画素からはR色成分の光に対応する光電変換信号が出力され、G色のフィルタを通して受光した画素からはG色成分の光に対応する光電変換信号が出力され、B色のフィルタを通して受光した画素からはB色成分の光に対応する光電変換信号が出力される。   The photometric sensor 15 is provided with a color filter (not shown), and the photometric sensor 15 outputs a photoelectric conversion signal received through the color filter. For example, an R, G, B color filter is disposed at the pixel position of the photometric sensor 15, so that a photoelectric conversion signal corresponding to light of the R color component is output from the pixel received through the R color filter, A photoelectric conversion signal corresponding to light of the G color component is output from the pixel received through the G color filter, and a photoelectric conversion signal corresponding to light of the B color component is output from the pixel received through the B color filter. .

拡散スクリーン10と並べて配設されているAFエリア表示部25は、たとえば透過型液晶表示パネルによって構成される。AFエリア表示部25は、拡散スクリーン10に結像した被写体像に重ねてAFエリアを示す表示を行う。   The AF area display unit 25 arranged side by side with the diffusion screen 10 is constituted by, for example, a transmissive liquid crystal display panel. The AF area display unit 25 displays the AF area so as to overlap the subject image formed on the diffusion screen 10.

図2は、AFエリア表示を例示する図である。本実施形態によるAF装置は、撮影画面における複数ポイント(図2の例では31ポイント)においてそれぞれ位相差検出を行うように構成されている。AFエリア表示部25が、AFエリアを示す31箇所の表示セグメント25aのうちフォーカス調節のために位相差検出情報が採用されたAFエリアに対応する表示セグメントを発光させることにより、撮影画面のうち位相差検出を行っているポイントを表示する。   FIG. 2 is a diagram illustrating an AF area display. The AF apparatus according to the present embodiment is configured to detect phase differences at a plurality of points (31 points in the example of FIG. 2) on the shooting screen. The AF area display unit 25 emits the display segment corresponding to the AF area in which the phase difference detection information is adopted for focus adjustment among the 31 display segments 25a indicating the AF area, so that the position of the shooting screen is changed. Displays the point where the phase difference is being detected.

レリーズ後は、メインミラー7が後述するライブビュー表示時(図3)と同様の位置、すなわちメインミラー7が光路から退避する位置へ回動する。この場合の被写体光はフォーカルプレーンシャッター18を介して撮像素子17へ導かれ、撮像素子17の撮像面上に被写体像を結ぶ。撮像素子17は、たとえば、画素に対応する複数の電荷蓄積型の光電変換素子を備えたCMOSイメージセンサによって構成される。撮像素子17は、撮像面上の被写体像を撮像し、被写体像の明るさに応じた光電変換信号を出力する。   After the release, the main mirror 7 is rotated to a position similar to that at the time of live view display (FIG. 3) described later, that is, the main mirror 7 is retracted from the optical path. The subject light in this case is guided to the image sensor 17 via the focal plane shutter 18 and forms a subject image on the image pickup surface of the image sensor 17. The image sensor 17 is configured by, for example, a CMOS image sensor including a plurality of charge storage photoelectric conversion elements corresponding to pixels. The image sensor 17 captures a subject image on the imaging surface and outputs a photoelectric conversion signal corresponding to the brightness of the subject image.

撮像素子17は、不図示のカラーフィルタを通して受光した光電変換信号を出力する。たとえば、撮像素子17の画素位置にR,G,B色のフィルタが配設されることにより、R色のフィルタを通して受光した画素からはR色成分の光に対応する光電変換信号が出力され、G色のフィルタを通して受光した画素からはG色成分の光に対応する光電変換信号が出力され、B色のフィルタを通して受光した画素からはB色成分の光に対応する光電変換信号が出力される。本実施形態の電子カメラは、撮像素子17による光電変換信号を画像記録用、後述するライブビューオン時のライブビュー表示用、およびコントラスト情報検出用に用いる。コントラスト情報は、後述するライブビューオン時のコントラスト検出方式によるフォーカス調節時に用いられる。   The image sensor 17 outputs a photoelectric conversion signal received through a color filter (not shown). For example, by providing R, G, B color filters at the pixel position of the image sensor 17, a photoelectric conversion signal corresponding to light of the R color component is output from the pixels received through the R color filter, A photoelectric conversion signal corresponding to light of the G color component is output from the pixel received through the G color filter, and a photoelectric conversion signal corresponding to light of the B color component is output from the pixel received through the B color filter. . The electronic camera of the present embodiment uses the photoelectric conversion signal from the image sensor 17 for image recording, for live view display when live view is turned on, and for detecting contrast information. The contrast information is used at the time of focus adjustment by a contrast detection method when live view is turned on, which will be described later.

メインモニタ16は、カメラ本体1の背面に配設される。メインモニタ16は、撮影画像や後述のライブビュー画像などを再生表示する。   The main monitor 16 is disposed on the back surface of the camera body 1. The main monitor 16 reproduces and displays a captured image and a live view image described later.

フォーカルプレーンシャッター18は、先幕18a、後幕18bおよびシャッター駆動部18cを有する。シャッター駆動部18cは、所定の露光時間が得られるように、先幕18aおよび後幕18bの走行制御を行う。   The focal plane shutter 18 includes a front curtain 18a, a rear curtain 18b, and a shutter drive unit 18c. The shutter drive unit 18c performs traveling control of the front curtain 18a and the rear curtain 18b so that a predetermined exposure time is obtained.

露光動作が終了すると、メインミラー7が図1に例示する位置にダウン駆動され、フォーカルプレーンシャッター18のチャージおよび記録媒体42に対する撮影画像の記録が行われて一連の撮影動作が終了する。   When the exposure operation is completed, the main mirror 7 is driven down to the position illustrated in FIG. 1, the focal plane shutter 18 is charged and the captured image is recorded on the recording medium 42, and the series of imaging operations ends.

<ライブビュー観察>
図3は、ライブビュー切り換えスイッチ19がオンされた場合の一眼レフ電子カメラの要部構成を説明する図である。ライブビュー表示は、撮影指示(レリーズ)前に撮像素子17によって所定の時間間隔(たとえば30フレーム/毎秒)で繰り返し撮像されるモニタ用画像をメインモニタ16に逐次再生表示させることをいう。図3に例示するように、メインミラー7がアップ時は被写体光束がファインダー部へ導かれないため、撮影者は接眼部13から被写体像を確認できない。そこで、電子カメラはメインモニタ16にモニタ用画像を表示させ、被写体像をメインモニタ16で観察できるようにする。
<Live view observation>
FIG. 3 is a diagram for explaining a main configuration of a single-lens reflex electronic camera when the live view changeover switch 19 is turned on. The live view display means that a monitor image repeatedly captured at a predetermined time interval (for example, 30 frames / second) by the image sensor 17 is sequentially reproduced and displayed on the main monitor 16 before a shooting instruction (release). As illustrated in FIG. 3, when the main mirror 7 is up, the subject light flux is not guided to the finder portion, so that the photographer cannot confirm the subject image from the eyepiece portion 13. Therefore, the electronic camera displays a monitor image on the main monitor 16 so that the subject image can be observed on the main monitor 16.

CPU100(図4)は、ライブビュー切り換えスイッチ19からオン操作信号を受けるとライブビューモードへの切り替えを指示する。これにより、ミラー7が光路から退避(アップ状態)し、フォーカルプレーンシャッター18が先幕18aおよび後幕18bを開く。画像処理部21が撮像素子17で取得されたフレーム画像を用いて表示データを生成し、メインモニタ16が表示データによる再生画像を逐次表示する(ライブビュー表示)。   When the CPU 100 (FIG. 4) receives an ON operation signal from the live view switching switch 19, it instructs to switch to the live view mode. Thereby, the mirror 7 is retracted (up state) from the optical path, and the focal plane shutter 18 opens the front curtain 18a and the rear curtain 18b. The image processing unit 21 generates display data using the frame image acquired by the image sensor 17, and the main monitor 16 sequentially displays a reproduction image based on the display data (live view display).

ライブビュー表示のための表示データはメインモニタ16の表示解像度に応じたサイズのデータを有していればよいので、記録用画像データに比べて解像度が小さくてよい。このため、ライブビュー表示のための撮像素子17からの光電変換信号の読み出しは、画素間引き読み出しを行うことによって撮影時の読み出しデータに比べてデータサイズを小さくする。   Since the display data for live view display only needs to have data having a size corresponding to the display resolution of the main monitor 16, the resolution may be smaller than the image data for recording. For this reason, the readout of the photoelectric conversion signal from the image sensor 17 for live view display reduces the data size compared to the readout data at the time of shooting by performing pixel thinning readout.

図4は、上述した一眼レフ電子カメラの制御回路を例示するブロック図である。カメラ本体1のCPU100は、シーケンス制御部31と、コントラストAF演算部32と、カメラ移動量演算部33と、特徴抽出部35と、相関演算部36と、測光演算部37と、レンズ駆動量演算部38とを含む。   FIG. 4 is a block diagram illustrating the control circuit of the single-lens reflex electronic camera described above. The CPU 100 of the camera body 1 includes a sequence control unit 31, a contrast AF calculation unit 32, a camera movement amount calculation unit 33, a feature extraction unit 35, a correlation calculation unit 36, a photometry calculation unit 37, and a lens driving amount calculation. Part 38.

レリーズボタン20は、レリーズ操作(全押し操作)に応じた操作信号をCPU100へ送出する。レリーズボタン20が通常ストロークの半分程度まで押し下げ操作された場合は半押し操作信号を出力し、レリーズボタン20が通常ストロークまで押し下げ操作された場合は全押し操作信号を出力する。   The release button 20 sends an operation signal corresponding to the release operation (full press operation) to the CPU 100. When the release button 20 is pressed down to about half of the normal stroke, a half-press operation signal is output, and when the release button 20 is pressed down to the normal stroke, a full-press operation signal is output.

ライブビュー切り換えスイッチ19は、ライブビュー切り換え操作に応じてオンまたはオフ信号をCPU100へ送出する。角速度センサ24は、カメラ本体に生じた動きを検出し、検出信号(角速度信号)をCPU100へ送出する。   The live view changeover switch 19 sends an on or off signal to the CPU 100 in accordance with the live view changeover operation. The angular velocity sensor 24 detects a motion generated in the camera body and sends a detection signal (angular velocity signal) to the CPU 100.

AFモーター4は、フォーカシングレンズ3(図1)を光軸方向に進退移動させる。絞り駆動部6aは、絞り6(図1)を所定口径へ駆動する。シャッター駆動部18cは、上述した先幕18aおよび後幕18bの走行制御を行う。画像処理部21は、撮像素子17および測光センサ15による光電変換信号に対して所定の信号処理を行う。   The AF motor 4 moves the focusing lens 3 (FIG. 1) forward and backward in the optical axis direction. The aperture drive unit 6a drives the aperture 6 (FIG. 1) to a predetermined aperture. The shutter drive unit 18c performs traveling control of the front curtain 18a and the rear curtain 18b described above. The image processing unit 21 performs predetermined signal processing on the photoelectric conversion signals from the image sensor 17 and the photometric sensor 15.

AFエリア表示部25は、上述したAFエリア表示を行う。メインモニタ16は、上述したようにライブビュー画像や撮影画像などを再生表示する。メモリ23は、上記光電変換信号やカメラ動作に関わる各種データを一時的に格納する。記録インターフェース(I/F)41は、記録用の画像信号を記録媒体42へ記録するためのインターフェース機能を有する。記録媒体42は、たとえばメモリカードによって構成され、撮影画像信号を記録する。   The AF area display unit 25 performs the AF area display described above. As described above, the main monitor 16 reproduces and displays a live view image and a captured image. The memory 23 temporarily stores the photoelectric conversion signal and various data related to the camera operation. The recording interface (I / F) 41 has an interface function for recording a recording image signal on the recording medium 42. The recording medium 42 is constituted by a memory card, for example, and records a captured image signal.

CPU100内のシーケンス制御部31は、レリーズ操作信号に応じてフォーカルプレーンシャッター18(図1)のチャージおよび走行を制御するとともに、不図示のミラー駆動機構を駆動してメインミラー7のミラーアップ駆動(図3に示す位置へ退避させる)、およびミラーダウン駆動(図1に示す位置へ復帰させる)を制御する。   The sequence control unit 31 in the CPU 100 controls the charge and travel of the focal plane shutter 18 (FIG. 1) according to the release operation signal, and drives a mirror drive mechanism (not shown) to drive the main mirror 7 to move up ( 3) and mirror down driving (returning to the position shown in FIG. 1) is controlled.

被写体光束がAFセンサー9(図3)へ導かれないライブビューモード時(すなわちメインミラー7がアップ時)は、上述した位相差検出方式によるフォーカス調節状態の検出ができない。そこで、コントラストAF演算部32は、コントラスト検出方式によるAF演算を行う。具体的には、AFモーター4を駆動してフォーカシングレンズ3を移動させながら、撮像素子17から出力される撮像信号に基づいて公知の焦点評価値演算を行うことにより、画像の高周波成分を尖鋭度に置き換えた焦点評価値(以後コントラスト情報と呼ぶ)を算出する。コントラスト情報は、撮影光学系3,5が撮像素子17の撮像面上に尖鋭像を結ぶ合焦状態、すなわち、 撮像素子17によって撮像される被写体像のエッジのボケが最小の状態で最大になる。   In the live view mode where the subject luminous flux is not guided to the AF sensor 9 (FIG. 3) (that is, when the main mirror 7 is up), the focus adjustment state cannot be detected by the phase difference detection method described above. Therefore, the contrast AF calculation unit 32 performs AF calculation using a contrast detection method. Specifically, a known focus evaluation value calculation is performed on the basis of the imaging signal output from the imaging element 17 while the AF motor 4 is driven to move the focusing lens 3, whereby the high frequency component of the image is sharpened. The focus evaluation value (hereinafter referred to as contrast information) replaced with is calculated. The contrast information is maximized when the photographing optical systems 3 and 5 are in a focused state where a sharp image is formed on the imaging surface of the image sensor 17, that is, when the blur of the edge of the subject image captured by the image sensor 17 is minimal. .

コントラストAF演算部32は、焦点評価値が増加する場合はフォーカシングレンズ3を同方向へ移動させ続け、焦点評価値が減少する場合はフォーカシングレンズ3の移動方向を反転させることにより、焦点評価値が最大値をとる位置、すなわち、合焦状態に対応する位置へフォーカシングレンズ3を移動するようにAFモーター4を駆動する。   When the focus evaluation value increases, the contrast AF calculation unit 32 continues to move the focusing lens 3 in the same direction, and when the focus evaluation value decreases, the contrast AF calculation unit 32 reverses the moving direction of the focusing lens 3 to obtain the focus evaluation value. The AF motor 4 is driven so as to move the focusing lens 3 to a position where the maximum value is obtained, that is, a position corresponding to the in-focus state.

カメラ移動量演算部33は、角速度センサ24による検出信号に基づいてカメラ本体1の移動量を演算する。そして、演算した移動量をカメラの姿勢変化の絶対量を示す姿勢変化情報とする。特徴抽出部35は、測光センサ15または撮像素子17による光電変換信号を用いて主要被写体の特徴部の抽出を行う。主要被写体は、たとえば、レリーズボタン20が半押し操作された時に、撮影者によって指定されているAFエリアに対応する位置に存在する被写体を主要被写体とする。あるいは、レリーズボタン20が半押し操作された時に、撮像素子17によって撮像された画像信号に基づいて公知の顔検出処理を行い、検出した「顔」を主要被写体とする。   The camera movement amount calculation unit 33 calculates the movement amount of the camera body 1 based on the detection signal from the angular velocity sensor 24. Then, the calculated movement amount is used as posture change information indicating the absolute amount of the posture change of the camera. The feature extraction unit 35 uses the photoelectric conversion signal from the photometric sensor 15 or the image sensor 17 to extract the feature of the main subject. The main subject is, for example, a subject present at a position corresponding to the AF area specified by the photographer when the release button 20 is pressed halfway. Alternatively, when the release button 20 is pressed halfway, a known face detection process is performed based on the image signal captured by the image sensor 17, and the detected “face” is set as the main subject.

相関演算部36は、取得時刻が異なる複数のフレーム画像に基づいて、画面内における主要被写体の移動量を演算する。たとえば、公知のテンプレートマッチング技術を用いることにより、先に取得されたフレーム画像における主要被写体と類似する領域を後から取得されたフレーム画像から検出(追尾)し、該主要被写体の画面内における位置と、該位置の変化量を示す移動ベクトルを演算する。そして、演算した移動ベクトルを主要被写体の移動情報とする。   The correlation calculation unit 36 calculates the amount of movement of the main subject in the screen based on a plurality of frame images having different acquisition times. For example, by using a known template matching technique, a region similar to the main subject in the previously acquired frame image is detected (tracked) from the frame image acquired later, and the position of the main subject in the screen is determined. Then, a movement vector indicating the amount of change in the position is calculated. The calculated movement vector is used as movement information of the main subject.

測光演算部37は、測光センサ15または撮像素子17による光電変換信号を用いて被写体輝度を算出する。測光演算部37はさらに、設定されている撮像感度および算出した被写体輝度を用いて所定の露出演算を行い、制御絞りAVおよび制御シャッター秒時TVを決定する。   The photometric calculator 37 calculates the subject brightness using the photoelectric conversion signal from the photometric sensor 15 or the image sensor 17. The photometry calculating unit 37 further performs a predetermined exposure calculation using the set imaging sensitivity and the calculated subject luminance, and determines the control aperture AV and the control shutter time TV.

レンズ駆動量演算部38は、AFセンサー9による検出信号を用いて撮影光学系3,5によるフォーカス調節状態(デフォーカス量)を検出し、検出結果に応じてフォーカシングレンズ3の駆動量を算出する。CPU100は、位相差検出方式によるフォーカス調節を行う場合は、レンズ駆動量演算部38で算出された駆動量に応じてAFモーター4を駆動する。一方、CPU100は、コントラスト検出方式によるフォーカス調節を行う場合は、コントラストAF演算部32で算出された焦点評価値の増減に応じてAFモーター4を駆動する。   The lens driving amount calculation unit 38 detects the focus adjustment state (defocus amount) by the photographing optical systems 3 and 5 using the detection signal from the AF sensor 9, and calculates the driving amount of the focusing lens 3 according to the detection result. . When performing the focus adjustment by the phase difference detection method, the CPU 100 drives the AF motor 4 according to the drive amount calculated by the lens drive amount calculation unit 38. On the other hand, when performing the focus adjustment by the contrast detection method, the CPU 100 drives the AF motor 4 according to the increase / decrease of the focus evaluation value calculated by the contrast AF calculation unit 32.

<光学ファインダ使用時の連写撮影>
本実施形態は、以上説明した電子カメラを用いて連写撮影を行う場合の動作に特徴を有するので、以降は連写動作を中心に説明する。図5は、ライブビュー切り換えスイッチ19がオフされている場合の連写動作を説明するタイミングチャートである。
<Sequential shooting when using optical viewfinder>
Since this embodiment has a feature in the operation when performing continuous shooting using the electronic camera described above, the following description will focus on the continuous shooting operation. FIG. 5 is a timing chart for explaining the continuous shooting operation when the live view changeover switch 19 is turned off.

図5の時刻T1において、レリーズボタン20からの半押し操作信号がCPU100へ入力される。この時点においてメインミラー7(サブミラー8)はダウン位置(光路中)にあり、フォーカルプレーンシャッター18の先幕18aは閉状態、後幕18bは開状態、絞り6は開放状態にある。角速度センサ24は、CPU100からの指示に応じて検出動作を開始し、所定時間ごとに検出を行う。図6(a)は、所定時間ごとの角速度dθ/dtの変化を例示する図である。   At time T <b> 1 in FIG. 5, a half-press operation signal from the release button 20 is input to the CPU 100. At this time, the main mirror 7 (sub mirror 8) is in the down position (in the optical path), the front curtain 18a of the focal plane shutter 18 is closed, the rear curtain 18b is open, and the aperture 6 is open. The angular velocity sensor 24 starts a detection operation in response to an instruction from the CPU 100 and performs detection every predetermined time. FIG. 6A is a diagram illustrating a change in angular velocity dθ / dt every predetermined time.

測光センサ15(図5において第二撮像素子と呼ぶ)は、CPU100からの指示に応じて蓄積動作を開始する。蓄積後の光電変換信号は画像処理部21へ読み出される。画像処理部21は、第二撮像素子15による光電変換信号から画像P1(図7参照)を生成してCPU100へ送る。CPU100は、画像P1をメモリ23へ格納することにより、蓄積→読み出し→格納を繰り返す。   The photometric sensor 15 (referred to as a second image sensor in FIG. 5) starts an accumulation operation in response to an instruction from the CPU 100. The accumulated photoelectric conversion signal is read out to the image processing unit 21. The image processing unit 21 generates an image P <b> 1 (see FIG. 7) from the photoelectric conversion signal from the second image sensor 15 and sends it to the CPU 100. The CPU 100 stores the image P1 in the memory 23, thereby repeating accumulation → reading → storage.

測光演算部37は、メモリ23に格納された最新の画像P1に基づいて測光演算を行って適正露出を求める。測光演算は、画像P1が取得されるごとに繰り返す。特徴抽出部35は、上記最新の画像P1から主要被写体の特徴部を抽出し、その領域TM1を示す情報をメモリ23に格納する。主要被写体は、たとえば、時刻T1時点で撮影者によって指定されているAFエリアに対応する位置に存在する被写体とする。   The photometric calculation unit 37 performs photometric calculation based on the latest image P1 stored in the memory 23 to obtain an appropriate exposure. The photometric calculation is repeated every time the image P1 is acquired. The feature extraction unit 35 extracts the feature portion of the main subject from the latest image P1 and stores information indicating the region TM1 in the memory 23. The main subject is, for example, a subject that exists at a position corresponding to the AF area designated by the photographer at time T1.

AFセンサー9は、CPU100からの指示に応じて蓄積動作を開始する。蓄積後の光電変換信号はレンズ駆動量演算部38へ読み出される。レンズ駆動量演算部38は、AFセンサー9による光電変換信号に基づいてデフォーカス量を検出し、このデフォーカス量に応じてフォーカシングレンズ3の駆動量を算出する。CPU100は、算出された駆動量に応じてAFモーター4を駆動し、フォーカシングレンズ3を移動させることにより、蓄積→読み出し→駆動量演算→フォーカシングレンズ(AFレンズ)駆動を繰り返す。   The AF sensor 9 starts an accumulation operation in response to an instruction from the CPU 100. The accumulated photoelectric conversion signal is read to the lens driving amount calculation unit 38. The lens drive amount calculation unit 38 detects the defocus amount based on the photoelectric conversion signal from the AF sensor 9, and calculates the drive amount of the focusing lens 3 according to the defocus amount. The CPU 100 drives the AF motor 4 in accordance with the calculated drive amount and moves the focusing lens 3 to repeat accumulation → reading → drive amount calculation → focusing lens (AF lens) drive.

図5の時刻T2において、第二撮像素子15から2回目の光電変換信号の読み出しが終了する。カメラ移動量演算部33は、角速度センサ24の検出信号に基づいて、前回の第二撮像素子15による蓄積終了時刻から今回の第二撮像素子15による蓄積終了時刻までのカメラ本体1の姿勢変化の絶対量を求める。具体的には、所定時間ごとの検出信号を積分処理し、レンズ鏡筒2から撮影光学系3,5の焦点距離および撮影距離を示す情報を取得して、上記積分結果および焦点距離情報、撮影距離情報、ならびに測光レンズ14の倍率情報を用いて、第二撮像素子15の撮像面におけるカメラの姿勢変化の絶対量を示す姿勢変化情報F(2)として算出する。   At time T2 in FIG. 5, reading of the second photoelectric conversion signal from the second image sensor 15 is completed. Based on the detection signal of the angular velocity sensor 24, the camera movement amount calculation unit 33 calculates the posture change of the camera body 1 from the previous accumulation end time by the second image sensor 15 to the current accumulation end time by the second image sensor 15. Find the absolute amount. Specifically, the detection signal at every predetermined time is integrated to obtain information indicating the focal length and the photographing distance of the photographing optical systems 3 and 5 from the lens barrel 2, and the integration result, the focal length information, and the photographing information are obtained. Using the distance information and the magnification information of the photometric lens 14, calculation is made as posture change information F (2) indicating the absolute amount of the posture change of the camera on the imaging surface of the second image sensor 15.

第二撮像素子15による2回目の蓄積後の光電変換信号は、画像処理部21へ読み出される。画像処理部21は、該2回目の光電変換信号から画像P2を生成してCPU100へ送る。CPU100は、画像P2をメモリ23へ格納する。   The photoelectric conversion signal after the second accumulation by the second image sensor 15 is read to the image processing unit 21. The image processing unit 21 generates an image P2 from the second photoelectric conversion signal and sends it to the CPU 100. The CPU 100 stores the image P2 in the memory 23.

測光演算部37は、メモリ23に格納された画像P2に基づいて測光演算を行って適正露出を求める。相関演算部36は、先に取得されたフレーム画像P1における主要被写体の特徴部の領域TM1と類似する領域TM2を、後から取得されたフレーム画像P2から検出する。具体的には、フレーム画像P2上で領域TM1に相当する位置から注目位置を徐々にずらしながら相関演算を行うことにより、フレーム画像P2上で領域TM1と類似する領域TM2を求める。そして、フレーム画像P2上で、領域TM1に相当する位置から領域TM2の位置までの距離を、主要被写体の画面上での相対的な移動量を示す移動ベクトルG(2)としてメモリ23に格納する。   The photometric calculation unit 37 performs photometric calculation based on the image P2 stored in the memory 23 to obtain an appropriate exposure. The correlation calculation unit 36 detects an area TM2 similar to the characteristic area TM1 of the main subject in the previously acquired frame image P1 from the frame image P2 acquired later. Specifically, the region TM2 similar to the region TM1 is obtained on the frame image P2 by performing correlation calculation while gradually shifting the position of interest from the position corresponding to the region TM1 on the frame image P2. Then, the distance from the position corresponding to the area TM1 to the position of the area TM2 on the frame image P2 is stored in the memory 23 as a movement vector G (2) indicating the relative movement amount of the main subject on the screen. .

特徴抽出部35は、上記画像P2から領域TM2を検出すると、該領域TM2を改めて領域TM1とする。すなわち、新たに取得されたフレーム画像P2を対象に相関演算を行って新たな領域TM2を検出するために、それまでTM2であった前フレーム画像P1における主要被写体の領域がTM1と改められる。   When the feature extraction unit 35 detects the region TM2 from the image P2, the feature extraction unit 35 makes the region TM2 a new region TM1. That is, in order to detect a new area TM2 by performing a correlation operation on the newly acquired frame image P2, the area of the main subject in the previous frame image P1 that was previously TM2 is changed to TM1.

CPU100は、次式(1)のように、上述したカメラの姿勢変化情報F(2)と相関演算部36が求めた移動ベクトルG(2)との和H(2)を算出してメモリ23へ格納する。和H(2)は、主要被写体が移動した絶対量(以下、移動情報とする)を表す。
H(2)=F(2)+G(2) (1)
The CPU 100 calculates the sum H (2) of the above-described camera posture change information F (2) and the movement vector G (2) obtained by the correlation calculation unit 36 as shown in the following equation (1), and stores the memory 23. To store. The sum H (2) represents the absolute amount that the main subject has moved (hereinafter referred to as movement information).
H (2) = F (2) + G (2) (1)

レンズ駆動量演算部38がデフォーカス量検出に用いるAFエリア(すなわち、フォーカス調節のための位相差検出情報を採用するAFエリア)は、最新のフレーム画像P2で検出された領域TM2に対応するAFエリアとする。   The AF area used by the lens drive amount calculation unit 38 to detect the defocus amount (that is, the AF area that employs the phase difference detection information for focus adjustment) corresponds to the area TM2 detected in the latest frame image P2. Let it be an area.

最新のフレーム画像P2で検出された領域TM2をデフォーカス量検出に用いるAFエリアに速やかに対応させるため、レンズ駆動量演算部38による次の駆動量演算の開始は、相関演算部36が最新のフレーム画像P2から最新の領域TM2を検出した直後である時刻T3とする。   In order to quickly correspond the area TM2 detected in the latest frame image P2 to the AF area used for the defocus amount detection, the correlation driving unit 36 starts the next driving amount calculation by the lens driving amount calculating unit 38. A time T3 immediately after the latest area TM2 is detected from the frame image P2.

時刻T2以降は、時刻T8においてレリーズボタン20からの全押し操作信号がCPU100へ入力されるまで上述した動作を繰り返す。この場合の第二撮像素子15による画像取得回数(蓄積回数)をnで表すと、主要被写体の移動情報H(n)は、次式(2)で表される。
H(n)=F(n)+G(n) (2)
ただし、nは2以上の整数である。
After time T2, the above-described operation is repeated until a full-press operation signal from the release button 20 is input to the CPU 100 at time T8. In this case, when the number of image acquisitions (accumulation number) by the second image sensor 15 is represented by n, the movement information H (n) of the main subject is represented by the following equation (2).
H (n) = F (n) + G (n) (2)
However, n is an integer of 2 or more.

図6(a)は、角速度センサ24の出力を例示する図である。図6(b)は、カメラの姿勢変化情報F(n)を例示する図である。図6(c)は、移動ベクトルG(n)を例示する図である。図6(d)は、主要被写体の移動情報H(n)を例示する図である。図7は、フレーム画像P1およびP2間における上式(2)の関係を説明する図である。   FIG. 6A is a diagram illustrating the output of the angular velocity sensor 24. FIG. 6B is a diagram illustrating camera posture change information F (n). FIG. 6C is a diagram illustrating the movement vector G (n). FIG. 6D is a diagram illustrating movement information H (n) of the main subject. FIG. 7 is a diagram for explaining the relationship of the above equation (2) between the frame images P1 and P2.

CPU100は、(n−1)回目の蓄積終了時刻からn回目の蓄積終了時刻までの時間t(n)の履歴(nは2以上の整数)と移動ベクトルG(n)の履歴(nは2以上の整数)、すなわち、t(2)〜t(n)とG(2)〜G(n)とをメモリ23に格納する。格納された履歴は、後述する式(4)と式(5)の判定に用いられる。また、CPU100は、姿勢変化情報F(n−1)、F(n)と主要被写体の移動情報H(n−1)、H(n)とをメモリ23に格納する。格納された情報は、後述する式(6)、式(7)、式(8)を用いた算出に用いられる。   The CPU 100 determines the history of the time t (n) from the (n−1) th accumulation end time to the nth accumulation end time (n is an integer of 2 or more) and the history of the movement vector G (n) (n is 2). The above integers), that is, t (2) to t (n) and G (2) to G (n) are stored in the memory 23. The stored history is used for the determination of Expression (4) and Expression (5) described later. Further, the CPU 100 stores posture change information F (n−1), F (n) and movement information H (n−1), H (n) of the main subject in the memory 23. The stored information is used for calculation using Expression (6), Expression (7), and Expression (8) described later.

図5の時刻T8において、レリーズボタン20からの全押し操作信号がCPU100へ入力される。CPU100は、第二撮像素子15を用いた蓄積→読み出し→格納を停止させるとともに、AFセンサー9を用いた蓄積→読み出し→駆動量演算→フォーカシングレンズ駆動を停止させる。ただし、既に蓄積が終了されている場合は、第二撮像素子15、およびAFセンサー9による蓄積済みの光電変換信号を用いる処理をそれぞれ行い、新たな蓄積を行わないように制御する。   At time T <b> 8 in FIG. 5, a full press operation signal from the release button 20 is input to the CPU 100. The CPU 100 stops accumulation → reading → storage using the second image sensor 15, and stops accumulation → reading → drive amount calculation → focusing lens driving using the AF sensor 9. However, when the accumulation has already been completed, the process using the photoelectric conversion signals accumulated by the second image sensor 15 and the AF sensor 9 is performed, respectively, and control is performed so that no new accumulation is performed.

CPU100は、角速度センサ24による検出動作、およびカメラ移動量演算部33によるカメラの姿勢変化情報Fの演算は継続するように制御を行う。   The CPU 100 performs control so that the detection operation by the angular velocity sensor 24 and the calculation of the camera posture change information F by the camera movement amount calculation unit 33 are continued.

CPU100がメインミラー7およびサブミラー8のアップ駆動を開始させると、時刻T10においてメインミラー7およびサブミラー8がアップ状態になって光路外退避が終了する。CPU100は、時刻T10で撮像素子17(図5において第一撮像素子と呼ぶ)に蓄積を開始させるとともに、シャッター制御部18cに指示を送って先幕18aの走行を開始させる(開駆動)。   When the CPU 100 starts up driving of the main mirror 7 and the sub mirror 8, the main mirror 7 and the sub mirror 8 are in the up state at time T10, and the out-of-light path is finished. The CPU 100 starts accumulation in the image sensor 17 (referred to as the first image sensor in FIG. 5) at time T10, and sends an instruction to the shutter control unit 18c to start traveling the front curtain 18a (open drive).

ミラーアップ駆動開始後の時刻T9において、CPU100は、絞り駆動部6aへ指示を送って絞り6を所定開口まで絞り込ませる。所定開口は、たとえば、全押し操作前の最後の測光演算結果に基づいて得られる制御絞りAVに相当する。   At time T9 after the start of mirror-up driving, the CPU 100 sends an instruction to the diaphragm driving unit 6a to narrow the diaphragm 6 to a predetermined opening. The predetermined opening corresponds to, for example, the control aperture AV obtained based on the last photometric calculation result before the full pressing operation.

CPU100は、シャッター制御部18cに指示を送り、先幕18aの走行開始(T10)から所定のシャッター秒時が経過すると、後幕18bの走行を開始させる(閉駆動)。所定のシャッター秒時は、たとえば、全押し操作前の最後の測光演算結果に基づいて得られる制御シャッター秒時TVに相当する。   The CPU 100 sends an instruction to the shutter control unit 18c, and when the predetermined shutter time elapses from the start of travel of the front curtain 18a (T10), the travel of the rear curtain 18b is started (closed drive). The predetermined shutter time corresponds to, for example, the control shutter time TV obtained based on the last photometric calculation result before the full-press operation.

後幕18bの走行が完了する時刻T12において、CPU100は、第一撮像素子17の蓄積を終了させる。蓄積後の光電変換信号は画像処理部21へ読み出される。画像処理部21は、第一撮像素子17による光電変換信号から記録用画像を生成してCPU100へ送る。CPU100は、記録インターフェース41に指示を送り、記録媒体42に対する撮影画像の記録を行わせて1コマ分の撮影処理を終了する。   At time T <b> 12 when the travel of the trailing curtain 18 b is completed, the CPU 100 ends the accumulation of the first image sensor 17. The accumulated photoelectric conversion signal is read out to the image processing unit 21. The image processing unit 21 generates a recording image from the photoelectric conversion signal from the first image sensor 17 and sends it to the CPU 100. The CPU 100 sends an instruction to the recording interface 41 to record the captured image on the recording medium 42 and ends the imaging process for one frame.

一方、CPU100は、上記時刻T12においてメインミラー7およびサブミラー8のダウン駆動を開始させるとともに、シャッター制御部18cにシャッターチャージを指示する。時刻T13において、CPU100は、絞り駆動部6aへ指示を送って絞り6を開放状態へ復帰させる。   On the other hand, the CPU 100 starts the down drive of the main mirror 7 and the sub mirror 8 at the time T12 and instructs the shutter control unit 18c to perform a shutter charge. At time T13, the CPU 100 sends an instruction to the aperture drive unit 6a to return the aperture 6 to the open state.

時刻T14において、メインミラー7およびサブミラー8がダウン状態になって光路中への復帰が終了する。なお、この時点までにシャッターチャージ(先幕18aを閉じ、後幕18bを開く)が終了するように構成されている。   At time T14, the main mirror 7 and the sub mirror 8 are in the down state, and the return to the optical path is completed. By this time, the shutter charge (the front curtain 18a is closed and the rear curtain 18b is opened) is completed.

時刻T14以降も継続してレリーズボタン20からの全押し操作信号がCPU100へ入力されている場合、CPU100は、時刻T15以降に上述した時刻T8〜時刻T14までに行った撮影と同様の処理を繰り返すことにより、2コマ目以降の連写撮影動作を行う。   When the full press operation signal from the release button 20 is continuously input to the CPU 100 after the time T14, the CPU 100 repeats the same processing as the photographing performed from the time T8 to the time T14 described above after the time T15. Thus, the continuous shooting operation for the second and subsequent frames is performed.

時刻T14〜時刻T15までは、上述した時刻T1〜時刻T8までと同様の処理を行う。なお、時刻T14〜時刻T15の間に行う第二撮像素子15による画像取得回数(蓄積回数)はカメラが2コマ目以降の連写撮影の準備に要する時間によって決定される。つまり、図5に例示した3回に限らず、撮影準備が早くできた場合は画像取得回数が減り、撮影準備に長い時間を要した場合は画像取得回数が増える。   From time T14 to time T15, processing similar to that from time T1 to time T8 described above is performed. Note that the number of times of image acquisition (accumulation count) by the second image sensor 15 performed between time T14 and time T15 is determined by the time required for the camera to prepare for continuous shooting after the second frame. In other words, the number of image acquisitions is not limited to the three times illustrated in FIG. 5, and the number of image acquisitions decreases when the preparation for shooting is made earlier, and the number of image acquisitions increases when a long time is required for the preparation for shooting.

<ブラックアウト中の推定>
メインミラー7およびサブミラー8のアップ駆動が開始する時刻T8からメインミラー7およびサブミラー8のダウン駆動が終了する時刻T14までの時間は、ファインダー部へ光束が導かれないためにファインダーの視野内が暗くなる。このような状態は、いわゆるブラックアウトと呼ばれる。ブラックアウト中は、第二撮像素子15による蓄積(画像取得)も行われない。このため、ブラックアウト中に主要被写体が画面の中で大きく移動する場合は、ブラックアウト終了後に上述した相関演算に時間がかかるおそれがある。具体的には、図7のP1とP2を取得する間にブラックアウトがあったとき、主要被写体が画面内で大きく動き、フレーム画像P2における領域TM1に相当する位置と、ブラックアウト後に主要被写体が存在する領域TM2の位置とが大きく異なる場合は、フレーム画像P2における領域T1に相当する位置から注目位置を徐々にずらしながら相関演算を行っていたのでは演算時間がかさんでしまう。
<Estimation during blackout>
During the time from the time T8 when the main mirror 7 and the sub mirror 8 start up driving to the time T14 when the main mirror 7 and sub mirror 8 finish down driving, the luminous flux is not guided to the viewfinder, so the viewfinder field is dark. Become. Such a state is called a so-called blackout. During blackout, accumulation (image acquisition) by the second image sensor 15 is not performed. For this reason, when the main subject moves greatly in the screen during the blackout, the correlation calculation described above may take a long time after the blackout. Specifically, when blackout occurs during the acquisition of P1 and P2 in FIG. 7, the main subject moves greatly in the screen, and the position corresponding to the area TM1 in the frame image P2 and the main subject after blackout When the position of the existing area TM2 is significantly different from the position corresponding to the area T1 in the frame image P2, if the correlation calculation is performed while gradually shifting the position of interest, the calculation time is increased.

そこで、ブラックアウト後のフレーム画像P2上の領域TM2の位置を推定し、この推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、相関演算に要する時間を短縮する。このために相関演算部36は、ブラックアウト前の時刻T1から時刻T8までの相関演算で取得し、メモリ23に格納されている移動ベクトルG(n)の履歴(本実施形態ではnは2から5)を用いて、次式(3)により移動ベクトルG(n)と移動ベクトルG(n−1)との変化量の絶対値|ΔG(n)|(本実施形態ではΔG(3)、ΔG(4)、ΔG(5)の3つ)をそれぞれ求める。
|ΔG(n)|=|G(n)−G(n−1)| (3)
ただし、nは3以上の整数である。図8(a)は、移動ベクトルG(n)の履歴を例示する図であり、図8(b)は、動きベクトルG(n)の変化量の絶対値|ΔG(n)|を例示する図である。
Therefore, the time required for the correlation calculation is shortened by estimating the position of the region TM2 on the frame image P2 after the blackout and performing the correlation calculation while gradually shifting the position of interest from the estimated position. For this purpose, the correlation calculation unit 36 acquires the correlation calculation from time T1 before blackout to time T8 and stores the history of the movement vector G (n) stored in the memory 23 (in this embodiment, n is 2). 5), the absolute value | ΔG (n) | of the amount of change between the movement vector G (n) and the movement vector G (n−1) according to the following equation (3) (ΔG (3), ΔG (4) and ΔG (5)) are obtained respectively.
| ΔG (n) | = | G (n) −G (n−1) | (3)
However, n is an integer of 3 or more. FIG. 8A illustrates the history of the movement vector G (n), and FIG. 8B illustrates the absolute value | ΔG (n) | of the change amount of the motion vector G (n). FIG.

相関演算部36は、次式(4)が成立する場合は上記推定を行う必要がないと判定し(条件1とする)、次式(5)が成立する場合には上記推定の必要があると判定する(条件2とする)。
Σ|ΔG(n)|/Σt(n)≦β (4)
Σ|ΔG(n)|/Σt(n)>β (5)
ただし、Σ|ΔG(n)|は時刻T1から時刻T8までの動きベクトルG(n)の変化量の絶対値の和である。Σt(n)は、メモリ23に格納されている時間t(n)の履歴を用いて算出される時間の和である。βは所定の判定閾値である。
The correlation calculation unit 36 determines that it is not necessary to perform the above estimation when the following expression (4) is satisfied (condition 1), and the above estimation is necessary when the following expression (5) is satisfied. (Condition 2).
Σ | ΔG (n) | / Σt (n) ≦ β (4)
Σ | ΔG (n) | / Σt (n)> β (5)
However, Σ | ΔG (n) | is the sum of absolute values of the amount of change of the motion vector G (n) from time T1 to time T8. Σt (n) is the sum of times calculated using the history of time t (n) stored in the memory 23. β is a predetermined determination threshold value.

CPU100が上記「条件1」を判定した場合、ユーザーが被写体を追えているものとして、相関演算部36は、時刻T14以降のブラックアウト終了後に最初の相関演算を行う場合、ブラックアウト終了後最初に得たフレーム画像上で領域TM1に相当する位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。   When the CPU 100 determines “Condition 1”, it is assumed that the user is chasing the subject, and the correlation calculation unit 36 first performs the correlation calculation after the blackout after time T14. By performing correlation calculation while gradually shifting the position of interest from the position corresponding to the region TM1 on the obtained frame image, a region TM2 similar to the region TM1 on the first frame image after blackout is obtained.

CPU100が上記「条件2」を判定した場合、ユーザーが被写体を追えていないものとして、相関演算部36は、時刻T14以降のブラックアウト終了後に最初の相関演算を行う場合、ブラックアウト終了後最初に得たフレーム画像上で以下の推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。   When the CPU 100 determines “Condition 2”, it is assumed that the user is not following the subject, and the correlation calculation unit 36 first performs the correlation calculation after the blackout after time T14. A region TM2 similar to the region TM1 on the first frame image after blackout is obtained by performing correlation calculation while gradually shifting the target position from the following estimated position on the obtained frame image.

ブラックアウト中の主要被写体の移動情報をHbとし、ブラックアウト中のカメラの姿勢変化情報をFbとし、ブラックアウト中の移動ベクトルをGbとすると、次式(6)が成立する。
Hb=Fb+Gb (6)
ここで、Fbはブラックアウト中に継続して行ったカメラの姿勢変化情報Fの演算結果を用いる。
When the movement information of the main subject during blackout is Hb, the posture change information of the camera during blackout is Fb, and the movement vector during blackout is Gb, the following equation (6) is established.
Hb = Fb + Gb (6)
Here, Fb uses the calculation result of the camera posture change information F continuously performed during blackout.

相関演算部36は、単位時間当たりのHbはブラックアウト直前と同じと仮定し、次式(7)を用いてブラックアウト中に外挿する。
Hb=H(k)/t(k)×tb (7)
ただし、第二撮像素子15によるブラックアウト前の画像取得回数(蓄積回数)をkとし、ブラックアウト直前に求めた主要被写体の移動情報をH(k)とし、(k−1)枚目の第二撮像素子15による蓄積終了時刻からk枚目の第二撮像素子15による蓄積終了時刻までの時間をt(k)とし、ブラックアウト時間をtbとする。
The correlation calculation unit 36 assumes that Hb per unit time is the same as that immediately before blackout, and extrapolates during blackout using the following equation (7).
Hb = H (k) / t (k) × tb (7)
However, the number of times of image acquisition (accumulation count) before blackout by the second image sensor 15 is k, the movement information of the main subject obtained immediately before the blackout is H (k), and the (k−1) -th The time from the accumulation end time of the second image sensor 15 to the accumulation end time of the k-th second image sensor 15 is t (k), and the blackout time is tb.

Gb=Hb−Fb=H(k)/t(k)×tb−Fb (8)
相関演算部36は、式(8)により、ブラックアウト中の移動ベクトルをGbを算出する。相関演算部36は、ブラックアウト直前のフレーム画像における領域TM1の位置から上記移動ベクトルGbだけ離れた位置に主要被写体が存在するものと推定し、この推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。
Gb = Hb−Fb = H (k) / t (k) × tb−Fb (8)
The correlation calculation unit 36 calculates Gb of the movement vector during blackout according to Expression (8). The correlation calculation unit 36 estimates that the main subject exists at a position separated from the position of the region TM1 in the frame image immediately before the blackout by the movement vector Gb, and performs correlation calculation while gradually shifting the position of interest from this estimated position. To obtain a region TM2 similar to the region TM1 on the first frame image after blackout.

<ライブビューオン時の連写撮影>
図9は、ライブビュー切り換えスイッチ19がオンされている場合の連写動作を説明するタイミングチャートである。図9の時刻T31において、レリーズボタン20からの半押し操作信号がCPU100へ入力される。この時点においてメインミラー7およびサブミラー8はアップ位置(光路外へ退避)にあり、フォーカルプレーンシャッター18の先幕18a、後幕18bはともに開状態にあり、絞り6は開放状態にある。角速度センサ24は、CPU100からの指示に応じて検出動作を開始し、所定時間ごとに検出を行う。
<Sequential shooting when live view is on>
FIG. 9 is a timing chart for explaining the continuous shooting operation when the live view changeover switch 19 is turned on. At time T <b> 31 in FIG. 9, a half-press operation signal from the release button 20 is input to the CPU 100. At this time, the main mirror 7 and the sub mirror 8 are in the up position (retracted out of the optical path), the front curtain 18a and the rear curtain 18b of the focal plane shutter 18 are both open, and the aperture 6 is open. The angular velocity sensor 24 starts a detection operation in response to an instruction from the CPU 100 and performs detection every predetermined time.

撮像素子17(図9において第一撮像素子と呼ぶ)は、CPU100からの指示に応じて蓄積動作を開始する。この蓄積動作は撮影記録用でなく、画素間引き読み出しを行うライブビュー表示用である。蓄積後の光電変換信号は画像処理部21へ間引きして読み出される。画像処理部21は、第一撮像素子17による光電変換信号から画像P1を生成してCPU100へ送る。CPU100は、画像P1をメモリ23へ格納することにより、蓄積→読み出し→格納を繰り返す。   The image sensor 17 (referred to as the first image sensor in FIG. 9) starts an accumulation operation in response to an instruction from the CPU 100. This accumulation operation is not for shooting and recording, but for live view display that performs pixel thinning readout. The accumulated photoelectric conversion signal is thinned and read out to the image processing unit 21. The image processing unit 21 generates an image P <b> 1 from the photoelectric conversion signal from the first image sensor 17 and sends it to the CPU 100. The CPU 100 stores the image P1 in the memory 23, thereby repeating accumulation → reading → storage.

測光演算部37は、メモリ23に格納された最新の画像P1に基づいて測光演算を行って適正露出を求める。測光演算は、画像P1が取得されるごとに繰り返す。特徴抽出部35は、上記最新の画像P1から主要被写体の特徴部を抽出し、その領域TM1を示す情報をメモリ23に格納する。主要被写体は、たとえば、時刻T31時点で撮影者によって指定されているAFエリアに対応する位置に存在する被写体とする。   The photometric calculation unit 37 performs photometric calculation based on the latest image P1 stored in the memory 23 to obtain an appropriate exposure. The photometric calculation is repeated every time the image P1 is acquired. The feature extraction unit 35 extracts the feature portion of the main subject from the latest image P1 and stores information indicating the region TM1 in the memory 23. The main subject is, for example, a subject that exists at a position corresponding to the AF area designated by the photographer at time T31.

コントラストAF演算部32は、最新の画像P1のうちAFエリアに対応する画素からの光電変換信号を用いて、コントラスト情報を算出する。CPU100は、算出されたコントラスト情報の増減に応じてAFモーター4を駆動してフォーカシングレンズ3を移動させることにより、蓄積→読み出し→コントラスト情報演算→フォーカシングレンズ駆動を繰り返す。   The contrast AF calculation unit 32 calculates contrast information using a photoelectric conversion signal from a pixel corresponding to the AF area in the latest image P1. The CPU 100 repeats accumulation → reading → contrast information calculation → focusing lens driving by driving the AF motor 4 and moving the focusing lens 3 according to the increase / decrease in the calculated contrast information.

図9の時刻T32において、第一撮像素子17から2回目の光電変換信号の読み出しが終了する。カメラ移動量演算部33は、角速度センサ24の検出信号に基づいて、前回の第1撮像素子17による蓄積終了時刻から今回の第1撮像素子17による蓄積終了時刻までのカメラ本体1の移動量F(2)を求める。算出方法は、ライブビューオフ時の場合と同様である。   At time T32 in FIG. 9, the second photoelectric conversion signal readout from the first image sensor 17 is completed. Based on the detection signal of the angular velocity sensor 24, the camera movement amount calculation unit 33 moves the camera body 1 movement amount F from the previous accumulation end time by the first image sensor 17 to the current accumulation end time by the first image sensor 17. Find (2). The calculation method is the same as when live view is off.

第1撮像素子17による2回目の蓄積後の光電変換信号は、画像処理部21へ読み出される。画像処理部21は、該2回目の光電変換信号から画像P2を生成してCPU100へ送る。CPU100は、画像P2をメモリ23へ格納する。   The photoelectric conversion signal after the second accumulation by the first image sensor 17 is read out to the image processing unit 21. The image processing unit 21 generates an image P2 from the second photoelectric conversion signal and sends it to the CPU 100. The CPU 100 stores the image P2 in the memory 23.

測光演算部37は、メモリ23に格納された画像P2に基づいて測光演算を行って適正露出を求める。相関演算部36は、先に取得されたフレーム画像P1における主要被写体の特徴部の領域TM1と類似する領域TM2を、後から取得されたフレーム画像P2から検出する。具体的には、フレーム画像P2上で領域TM1に相当する位置から注目位置を徐々にずらしながら相関演算を行うことにより、フレーム画像P2上で領域TM1と類似する領域TM2を求める。そして、フレーム画像P2上で、領域TM1に相当する位置から領域TM2の位置までの距離を、主要被写体の画面上での相対的な移動量を示す移動ベクトルG(2)としてメモリ23に格納する。   The photometric calculation unit 37 performs photometric calculation based on the image P2 stored in the memory 23 to obtain an appropriate exposure. The correlation calculation unit 36 detects an area TM2 similar to the characteristic area TM1 of the main subject in the previously acquired frame image P1 from the frame image P2 acquired later. Specifically, the region TM2 similar to the region TM1 is obtained on the frame image P2 by performing correlation calculation while gradually shifting the position of interest from the position corresponding to the region TM1 on the frame image P2. Then, the distance from the position corresponding to the area TM1 to the position of the area TM2 on the frame image P2 is stored in the memory 23 as a movement vector G (2) indicating the relative movement amount of the main subject on the screen. .

特徴抽出部35は、上記画像P2から領域TM2を検出すると、該領域TM2を改めて領域TM1とする。すなわち、新たに取得されたフレーム画像P2を対象に相関演算を行って新たな領域TM2を検出するために、それまでTM2であった前フレーム画像P1における主要被写体の領域がTM1と改められる。   When the feature extraction unit 35 detects the region TM2 from the image P2, the feature extraction unit 35 makes the region TM2 a new region TM1. That is, in order to detect a new area TM2 by performing a correlation operation on the newly acquired frame image P2, the area of the main subject in the previous frame image P1 that was previously TM2 is changed to TM1.

CPU100は、上式(1)のように、上述したカメラの姿勢変化情報F(2)と相関演算部36が求めた移動ベクトルG(2)との和H(2)を算出してメモリ23へ格納する。和H(2)は、主要被写体が移動した絶対量(移動情報)を表す。   The CPU 100 calculates the sum H (2) of the above-described camera posture change information F (2) and the movement vector G (2) obtained by the correlation calculation unit 36 as shown in the above equation (1), and stores the memory 23. To store. The sum H (2) represents the absolute amount (movement information) that the main subject has moved.

コントラストAF演算部32がコントラスト情報の算出に用いるAFエリア(すなわち、コントラスト情報の算出に用いる画素に対応するAFエリア)は、最新のフレーム画像P2で検出された領域TM2に対応するAFエリアとする。   The AF area used by the contrast AF calculation unit 32 for calculating contrast information (that is, the AF area corresponding to the pixel used for calculating contrast information) is the AF area corresponding to the area TM2 detected in the latest frame image P2. .

最新のフレーム画像P2で検出された領域TM2をコントラスト情報算出に用いるAFエリアに速やかに対応させるため、コントラストAF演算部32による次の演算の開始は、フォーカシングレンズ駆動後の時刻T34であり、相関演算部36が最新のフレーム画像P2から最新の領域TM2を検出した後が好ましい。   In order to quickly correspond the area TM2 detected in the latest frame image P2 to the AF area used for calculating contrast information, the start of the next calculation by the contrast AF calculation unit 32 is time T34 after driving the focusing lens, and the correlation It is preferable that the calculation unit 36 detects the latest area TM2 from the latest frame image P2.

時刻T32以降は、時刻T38においてレリーズボタン20からの全押し操作信号がCPU100へ入力されるまで上述した動作を繰り返す。この場合の第1撮像素子17による画像取得回数(蓄積回数)をnで表すと、主要被写体の移動情報H(n)は、上式(2)で表される。   After time T32, the above-described operation is repeated until the full-press operation signal from the release button 20 is input to the CPU 100 at time T38. In this case, when the number of times of image acquisition (accumulation number) by the first image sensor 17 is represented by n, the movement information H (n) of the main subject is represented by the above equation (2).

CPU100は、(n−1)回目の蓄積終了時刻からn回目の蓄積終了時刻までの時間t(n)の履歴(nは2以上の整数)と移動ベクトルG(n)の履歴(nは2以上の整数)、すなわち、t(2)〜t(n)とG(2)〜G(n)とをメモリ23に格納する。格納された履歴は、後述する式(4)と式(5)の判定に用いられる。また、CPU100は、姿勢変化情報F(n−1)、F(n)と主要被写体の移動情報H(n−1)、H(n)とをメモリ23に格納する。格納された情報は、式(6)、式(7)、式(8)を用いた算出に用いられる。   The CPU 100 determines the history of the time t (n) from the (n−1) th accumulation end time to the nth accumulation end time (n is an integer of 2 or more) and the history of the movement vector G (n) (n is 2). The above integers), that is, t (2) to t (n) and G (2) to G (n) are stored in the memory 23. The stored history is used for the determination of Expression (4) and Expression (5) described later. Further, the CPU 100 stores posture change information F (n−1), F (n) and movement information H (n−1), H (n) of the main subject in the memory 23. The stored information is used for calculation using Expression (6), Expression (7), and Expression (8).

図9の時刻T38において、レリーズボタン20からの全押し操作信号がCPU100へ入力される。CPU100は、第1撮像素子17を用いたライブビュー表示用の蓄積→読み出し→格納をただちに停止させる。CPU100はさらに、シャッター制御部18cに指示を送って先幕18aをチャージさせる(閉駆動)。   At time T38 in FIG. 9, a full-press operation signal from the release button 20 is input to the CPU 100. The CPU 100 immediately stops the accumulation → reading → storage for live view display using the first image sensor 17. Further, the CPU 100 sends an instruction to the shutter control unit 18c to charge the front curtain 18a (closed drive).

CPU100は、角速度センサ24による検出動作、およびカメラ移動量演算部33によるカメラの移動量Fの演算は継続するように制御を行う。   The CPU 100 performs control so that the detection operation by the angular velocity sensor 24 and the calculation of the camera movement amount F by the camera movement amount calculation unit 33 are continued.

時刻T38以降のフォーカシングレンズ駆動後の時刻T39において、CPU100は、絞り駆動部6aへ指示を送って絞り6を所定開口まで絞り込ませる。所定開口は、たとえば、全押し操作前の最後の測光演算結果に基づいて得られる制御絞りAVに相当する。   At time T39 after driving the focusing lens after time T38, the CPU 100 sends an instruction to the aperture driving unit 6a to narrow the aperture 6 to a predetermined opening. The predetermined opening corresponds to, for example, the control aperture AV obtained based on the last photometric calculation result before the full pressing operation.

先幕チャージ後の時刻T40において、CPU100は第一撮像素子17に撮影用の蓄積を開始させるとともに、シャッター制御部18cに指示を送り、先幕18aの走行を開始させる。CPU100は、時刻T40から所定のシャッター秒時が経過すると、後幕18bの走行を開始させる(閉駆動)。所定のシャッター秒時は、たとえば、全押し操作前の最後の測光演算結果に基づいて得られる制御シャッター秒時TVに相当する。   At time T40 after the front curtain charge, the CPU 100 causes the first image pickup device 17 to start accumulation for photographing and also sends an instruction to the shutter control unit 18c to start the travel of the front curtain 18a. When a predetermined shutter time elapses from time T40, the CPU 100 starts running of the trailing curtain 18b (closed drive). The predetermined shutter time corresponds to, for example, the control shutter time TV obtained based on the last photometric calculation result before the full-press operation.

後幕18bの走行が完了する時刻T42において、CPU100は、第一撮像素子17の撮影用の蓄積を終了させる。蓄積後の光電変換信号は画像処理部21へ読み出される。画像処理部21は、第一撮像素子17による光電変換信号から記録用画像を生成してCPU100へ送る。CPU100は、記録インターフェース41に指示を送り、記録媒体42に対する撮影画像の記録を行わせて1コマ分の撮影処理を終了する。   At time T42 when the trailing curtain 18b travels, the CPU 100 ends the shooting accumulation of the first image sensor 17. The accumulated photoelectric conversion signal is read out to the image processing unit 21. The image processing unit 21 generates a recording image from the photoelectric conversion signal from the first image sensor 17 and sends it to the CPU 100. The CPU 100 sends an instruction to the recording interface 41 to record the captured image on the recording medium 42 and ends the imaging process for one frame.

一方、CPU100は、上記時刻T42においてシャッター制御部18cに後幕18bのチャージを指示する。時刻T43において、CPU100は、絞り駆動部6aへ指示を送って絞り6を開放状態へ復帰させる。時刻T44において、シャッター後幕18bのチャージ(開く)が終了する。   On the other hand, the CPU 100 instructs the shutter controller 18c to charge the trailing curtain 18b at the time T42. At time T43, the CPU 100 sends an instruction to the aperture driving unit 6a to return the aperture 6 to the open state. At time T44, charging (opening) of the shutter rear curtain 18b ends.

時刻T44以降も継続してレリーズボタン20からの全押し操作信号がCPU100へ入力されている場合、CPU100は、時刻T46以降に上述した時刻T38〜時刻T44までに行った撮影と同様の処理を繰り返すことにより、2コマ目以降の連写撮影動作を行う。   When the full press operation signal from the release button 20 is continuously input to the CPU 100 after the time T44, the CPU 100 repeats the same processing as the photographing performed from the time T38 to the time T44 described above after the time T46. Thus, the continuous shooting operation for the second and subsequent frames is performed.

時刻T44〜時刻T46までは、上述した時刻T31〜時刻T38までと同様の処理を行う。なお、時刻T44〜時刻T46の間に行う第一撮像素子17による画像取得回数(蓄積回数)はカメラが2コマ目以降の連写撮影の準備に要する時間によって決定される。つまり、図9に例示した3回に限らず、撮影準備が早くできた場合は画像取得回数が減り、撮影準備に長い時間を要した場合は画像取得回数が増える。   From time T44 to time T46, processing similar to that from time T31 to time T38 described above is performed. Note that the number of times of image acquisition (accumulation count) by the first image sensor 17 performed between time T44 and time T46 is determined by the time required for the camera to prepare for continuous shooting after the second frame. In other words, the number of image acquisitions is not limited to three times illustrated in FIG. 9, and the number of image acquisitions decreases when the preparation for shooting is early, and the number of image acquisitions increases when a long time is required for preparation for shooting.

<ブラックアウト中の推定>
ライブビュー表示用の蓄積を終了する時刻T38からライブビュー表示用の蓄積を再開する時刻T44までの時間を、ここではブラックアウトと呼ぶことにする。ブラックアウト中に主要被写体が画面の中で大きく移動する場合は、光学ファインダ使用時と同様に、上述した相関演算に時間がかかるおそれがある。
<Estimation during blackout>
The time from the time T38 when the live view display accumulation ends to the time T44 when the live view display accumulation resumes is referred to as a blackout here. If the main subject moves greatly in the screen during blackout, the correlation calculation described above may take time, as in the case of using the optical viewfinder.

そこで、ブラックアウト後のフレーム画像P2上の領域TM2の位置を推定し、この推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、相関演算に要する時間を短縮する。このために相関演算部36は、ブラックアウト前の時刻T31から時刻T38までの相関演算で取得し、メモリ23に格納されている移動ベクトルG(n)の履歴(本実施形態ではnは2から5)を用いて、上式(3)により移動ベクトルG(n)と移動ベクトルG(n−1)との変化量の絶対値|ΔG(n)|(本実施形態ではΔG(3)、ΔG(4)、ΔG(5)の3つ)をそれぞれ求める。   Therefore, the time required for the correlation calculation is shortened by estimating the position of the region TM2 on the frame image P2 after the blackout and performing the correlation calculation while gradually shifting the position of interest from the estimated position. For this purpose, the correlation calculation unit 36 acquires the correlation calculation from time T31 before blackout to time T38 and stores the history of the movement vector G (n) stored in the memory 23 (in this embodiment, n is 2). 5), the absolute value of the amount of change between the movement vector G (n) and the movement vector G (n−1) | ΔG (n) | (in this embodiment, ΔG (3), ΔG (4) and ΔG (5)) are obtained respectively.

相関演算部36は、上式(4)が成立する場合は上記推定を行う必要がないと判定し(条件1とする)、上式(5)が成立する場合には上記推定の必要があると判定する(条件2とする)。   The correlation calculation unit 36 determines that the above estimation is not necessary when the above expression (4) is satisfied (condition 1), and the above estimation is necessary when the above expression (5) is satisfied. (Condition 2).

CPU100が上記「条件1」を判定した場合の相関演算部36は、時刻T44以降のブラックアウト後に最初の相関演算を行う場合、ブラックアウト後最初に得たフレーム画像上で領域T1に相当する位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。   When the CPU 100 determines “Condition 1”, the correlation calculation unit 36 performs a first correlation calculation after blackout after time T44, and a position corresponding to the region T1 on the first frame image obtained after blackout. The region TM2 similar to the region TM1 is obtained on the first frame image after blackout by performing the correlation calculation while gradually shifting the position of interest from.

CPU100が上記「条件2」を判定した場合の相関演算部36は、時刻T44以降のブラックアウト後に最初の相関演算を行う場合、ブラックアウト後最初に得たフレーム画像上で以下の推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。   When the CPU 100 determines “Condition 2”, the correlation calculation unit 36, when performing the first correlation calculation after the blackout after the time T44, pays attention from the following estimated positions on the first frame image obtained after the blackout. By performing correlation calculation while gradually shifting the position, a region TM2 similar to the region TM1 is obtained on the first frame image after blackout.

相関演算部36は、単位時間当たりのHbはブラックアウト直前と同じと仮定し、上式(7)を用いてブラックアウト中に外挿する。ただし、第一撮像素子17によるブラックアウト前のライブビュー表示用画像取得回数(蓄積回数)をkとし、ブラックアウト直前に求めた主要被写体の移動情報をH(k)とし、(K−1)枚目の第一撮像素子17による蓄積終了時刻からk枚目の第一撮像素子17による蓄積終了時刻までの時間をt(k)とし、ブラックアウト時間をtbとする。   The correlation calculation unit 36 extrapolates during blackout using the above equation (7), assuming that Hb per unit time is the same as that immediately before blackout. However, the live view display image acquisition count (accumulation count) before blackout by the first image sensor 17 is k, the movement information of the main subject obtained immediately before the blackout is H (k), and (K-1). The time from the accumulation end time of the first first image sensor 17 to the accumulation end time of the k-th first image sensor 17 is t (k), and the blackout time is tb.

相関演算部36は、上式(8)により、ブラックアウト中の移動ベクトルをGbを算出する。相関演算部36は、ブラックアウト直前のフレーム画像における領域TM1の位置から上記移動ベクトルGbだけ離れた位置に主要被写体が存在するものと推定し、この推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。   The correlation calculation unit 36 calculates Gb of the movement vector during blackout by the above equation (8). The correlation calculation unit 36 estimates that the main subject exists at a position separated from the position of the region TM1 in the frame image immediately before the blackout by the movement vector Gb, and performs correlation calculation while gradually shifting the position of interest from this estimated position. To obtain a region TM2 similar to the region TM1 on the first frame image after blackout.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)画面内における追尾対象である主要被写体を含む領域TM1、2の位置を認識するための画像P1、P2を取得する第二撮像素子15(または第一撮像素子17)と、第二撮像素子15(または第一撮像素子17)が画像P1,P2の取得を中断する間(ブラックアウト中)に、画像内において主要被写体が移動した移動ベクトルG(n)を演算する相関演算部36と、第二撮像素子15(または第一撮像素子17)を備えるカメラの姿勢変化を検出する角速度センサ24からの検出信号に基づいて、カメラの姿勢変化の絶対量を姿勢変化情報F(n)として演算するカメラ移動量演算部33と、第二撮像素子15(または第一撮像素子17)が画像P1,P2を連続して取得する際には、該画像P1,P2から画面内における主要被写体を含む領域TM1,2の位置を認識する通常認識を行い、第二撮像素子15(または第一撮像素子17)が画像P1を取得後に、画像P2の取得を中断する際には、中断前に認識された画面内における主要被写体を含む領域TM1の位置と、同じく中断前の移動ベクトルG(n)と、中断中の姿勢変化情報Fbとを用いて、中断後に取得された画像P2から画面内における主要被写体を含む領域TM2の位置を推定する第1中断後認識を行うCPU100を備えるようにした。CPU100は、第1中断後認識では、中断後の画像P2において中断直前の画像P1における領域TM1に相当する位置から移動ベクトルGbだけ離れた位置に主要被写体が存在するものと推定し、この推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、中断後の画像P2上で領域TM1と類似する領域TM2を求めるので、領域TM1の位置から注目位置を徐々にずらしながら相関演算を行う第2中断後認識に比べて、演算量を抑えることができる。演算量を抑えることは、演算時間の短縮に有効である。
According to the embodiment described above, the following operational effects can be obtained.
(1) The second image sensor 15 (or the first image sensor 17) for acquiring images P1 and P2 for recognizing the positions of the areas TM1 and TM2 including the main subject to be tracked in the screen, and the second image sensor A correlation calculation unit 36 for calculating a movement vector G (n) in which the main subject has moved in the image while the element 15 (or the first imaging element 17) interrupts the acquisition of the images P1 and P2 (during blackout); Based on the detection signal from the angular velocity sensor 24 that detects the posture change of the camera including the second image pickup device 15 (or the first image pickup device 17), the absolute amount of the posture change of the camera is used as the posture change information F (n). When the camera movement amount calculation unit 33 to be calculated and the second image sensor 15 (or the first image sensor 17) acquire the images P1 and P2 continuously, the main object in the screen is obtained from the images P1 and P2. When the normal recognition for recognizing the positions of the areas TM1 and TM2 including the body is performed and the second image pickup device 15 (or the first image pickup device 17) acquires the image P1, and then interrupts the acquisition of the image P2, before the interruption. Using the position of the area TM1 including the main subject, the movement vector G (n) before the interruption, and the posture change information Fb during the interruption from the image P2 acquired after the interruption. The CPU 100 for performing the first post-interruption recognition for estimating the position of the area TM2 including the main subject is provided. In the recognition after the first interruption, the CPU 100 estimates that the main subject exists at a position separated from the position corresponding to the area TM1 in the image P1 immediately before the interruption by the movement vector Gb in the image P2 after the interruption. Since the region TM2 similar to the region TM1 is obtained on the interrupted image P2 by performing the correlation calculation while gradually shifting the target position from the first position, the correlation calculation is performed while gradually shifting the target position from the position of the region TM1. Compared with recognition after 2 interruptions, the amount of calculation can be suppressed. Reducing the amount of calculation is effective for shortening the calculation time.

(2)CPU100は、中断後に第二撮像素子15(または第一撮像素子17)により取得された画像P2における領域TM1に相当する位置から画面内における主要被写体の位置を認識するための相関演算を行う第2中断後認識を、第1中断後認識の代わりに行うようにした。 (2) The CPU 100 performs correlation calculation for recognizing the position of the main subject in the screen from the position corresponding to the region TM1 in the image P2 acquired by the second image sensor 15 (or the first image sensor 17) after the interruption. The recognition after the second interruption is performed instead of the recognition after the first interruption.

(3)CPU100は、第二撮像素子15(または第一撮像素子17)が画像P1,P2…の取得を複数回行ってから画像P1,P2…の取得を中断した場合、該中断前に取得された画像P1,P2…のそれぞれから画面内における主要被写体の位置を認識した履歴に基づいて、認識方法の信頼性を判定し、該判定結果に基づいて、第1中断後認識と第2中断後認識とのどちらを行うかを選択するようにした。 (3) When the CPU 100 interrupts the acquisition of the images P1, P2,... After the second image sensor 15 (or the first image sensor 17) acquires the images P1, P2,. The reliability of the recognition method is determined based on the history of recognizing the position of the main subject in the screen from each of the images P1, P2,..., And the recognition after the first interruption and the second interruption are performed based on the determination result. The choice between post-recognition was made.

(4)ライブビュー切り換えスイッチ19がオンの場合に第一撮像素子17により取得された光電変換信号を用いて観察用画像を表示するメインモニタ16を備えたので、接眼部13を覗きにくい場合でもモニタ像を確認できる。 (4) When the live view changeover switch 19 is on, the main monitor 16 that displays the image for observation using the photoelectric conversion signal acquired by the first image sensor 17 is provided. But you can see the monitor image.

(5)第二撮像素子15と、撮像動作を行う第一撮像素子17とを備え、被写体光束を第一撮像素子17に導く状態と、被写体光束を第一撮像素子17に導かない状態とを切り換え可能にしたので、撮影環境に応じた切り換えが可能になる。 (5) A second imaging element 15 and a first imaging element 17 that performs an imaging operation are provided, and a state in which the subject light flux is guided to the first imaging element 17 and a state in which the subject light flux is not guided to the first imaging element 17 Since switching is possible, switching according to the shooting environment becomes possible.

(変形例1)
一眼レフ電子カメラの場合を例に説明したが、いわゆるライブビュー機能を有するものであれば、一眼レフタイプ以外の電子カメラにも本発明を適用して構わない。
(Modification 1)
Although the case of a single-lens reflex electronic camera has been described as an example, the present invention may be applied to an electronic camera other than a single-lens reflex type as long as it has a so-called live view function.

(変形例2)
以上説明した実施形態では、あらかじめカメラ本体1内のCPU100の不揮発性メモリ内に格納されたプログラムによって図5(図9)に例示したタイミングによるカメラ制御を行う例を説明したが、カメラ制御を行うプログラムを図10に示すコンピュータ装置250を経由してカメラ本体1へ供給する構成にしてもよい。このようにコンピュータ装置250からカメラ本体1へプログラムを供給する場合には、コンピュータ装置250とカメラ本体1とを通信可能にしてプログラムを供給する。
(Modification 2)
In the embodiment described above, the example in which the camera control is performed at the timing illustrated in FIG. 5 (FIG. 9) by the program stored in the nonvolatile memory of the CPU 100 in the camera body 1 in advance has been described. The program may be supplied to the camera body 1 via the computer apparatus 250 shown in FIG. Thus, when a program is supplied from the computer apparatus 250 to the camera body 1, the computer apparatus 250 and the camera body 1 can communicate with each other and the program is supplied.

コンピュータ装置250に対するプログラムの供給は、プログラムを格納したCD−ROMなどの記録媒体204をコンピュータ装置250にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でコンピュータ装置250へローディングしてもよい。通信回線201を経由する場合は、通信回線201に接続されたサーバー(コンピュータ)202のハードディスク装置203などにプログラムを格納しておく。プログラムは、記録媒体204や通信回線201を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   The program may be supplied to the computer apparatus 250 by setting a recording medium 204 such as a CD-ROM storing the program in the computer apparatus 250, or to the computer apparatus 250 by a method via the communication line 201 such as a network. You may load. When passing through the communication line 201, the program is stored in the hard disk device 203 of the server (computer) 202 connected to the communication line 201. The program can be supplied as various types of computer program products such as provision via the recording medium 204 or the communication line 201.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

1…カメラ本体
2…レンズ鏡筒
3,5撮影光学系
6…絞り
7…メインミラー
11…ペンタプリズム
13…接眼部
15…測光センサ
16…メインモニタ
17…撮像素子
19…ライブビュー切り換えスイッチ
24…角速度センサ
33…カメラ移動量演算部
35…特徴抽出部
36…相関演算部
37…測光演算部
38…レンズ駆動量演算部
100…CPU
DESCRIPTION OF SYMBOLS 1 ... Camera body 2 ... Lens barrel 3, 5 Shooting optical system 6 ... Aperture 7 ... Main mirror 11 ... Pentaprism 13 ... Eyepiece part 15 ... Photometric sensor 16 ... Main monitor 17 ... Imaging element 19 ... Live view changeover switch 24 ... Angular velocity sensor 33 ... Camera movement amount calculation unit 35 ... Feature extraction unit 36 ... Correlation calculation unit 37 ... Photometry calculation unit 38 ... Lens drive amount calculation unit 100 ... CPU

Claims (8)

画面内における追尾対象の位置を認識するための画像情報を取得する撮像部と、
前記撮像部が前記画像情報の取得を中断する間に、前記追尾対象が移動した絶対量を移動情報として演算する第1演算手段と、
前記撮像部を備える撮像装置の姿勢を検出する姿勢検出手段からの検出信号に基づいて、前記撮像装置の姿勢変化の絶対量を姿勢変化情報として演算する第2演算手段と、
前記撮像部が前記画像情報を取得する際には、該画像情報から前記画面内における前記追尾対象の位置を認識する通常認識を行い、前記撮像部が前記画像情報の取得を中断する際には、前記中断前に認識された前記画面内における前記追尾対象の位置と、前記移動情報と、前記姿勢変化情報とを用いて、前記中断後に前記撮像部により取得された前記画像情報から前記画面内における前記追尾対象の位置を推定した結果を用いて認識する第1中断認識を行う認識手段と、を備えることを特徴とする撮像装置。
An imaging unit for acquiring image information for recognizing the position of the tracking target in the screen;
First calculating means for calculating, as movement information, an absolute amount by which the tracking target has moved while the imaging unit interrupts acquisition of the image information;
Second computing means for computing an absolute amount of the posture change of the imaging device as posture change information based on a detection signal from a posture detection means for detecting the posture of the imaging device including the imaging unit;
When the imaging unit acquires the image information, normal recognition for recognizing the position of the tracking target in the screen is performed from the image information, and when the imaging unit interrupts the acquisition of the image information. , Using the position of the tracking target in the screen recognized before the interruption, the movement information, and the posture change information from the image information acquired by the imaging unit after the interruption An image pickup apparatus comprising: a recognition unit configured to perform first interruption recognition that is recognized using a result of estimating the position of the tracking target.
請求項1に記載の撮像装置において、
前記撮像部は、前記画像情報を取得する画像取得動作と、前記画面の被写体像を撮像する撮像動作とを択一的に行うことを特徴とする撮像装置。
The imaging device according to claim 1,
The imaging device alternatively performs an image acquisition operation for acquiring the image information and an imaging operation for imaging a subject image on the screen.
請求項1または2に記載の撮像装置において、
前記認識手段は、前記中断後に前記撮像部により取得された前記画像情報から前記画面内における前記追尾対象の位置を前記移動情報と前記姿勢変化情報を用いずに認識する第2中断後認識を、前記第1中断後認識の代わりに行うことが可能であることを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
The recognizing means recognizes the second post-interruption recognition for recognizing the position of the tracking target in the screen without using the movement information and the posture change information from the image information acquired by the imaging unit after the interruption. An imaging apparatus characterized in that it can be performed instead of the recognition after the first interruption.
請求項3に記載の撮像装置において、
前記撮像部が前記画像情報の取得を複数回行ってから前記画像情報の取得を中断した場合、該中断前に取得された前記画像情報のそれぞれから前記画面内における前記追尾対象の位置を認識した履歴に基づいて、前記認識手段による認識方法の信頼性を判定する判定手段を備え、
前記認識手段は、前記判定手段の判定結果に基づいて、前記第1中断後認識と前記第2中断後認識とのどちらを行うかを選択することを特徴とする撮像装置。
The imaging device according to claim 3.
In the case where the imaging unit interrupts the acquisition of the image information after performing the acquisition of the image information a plurality of times, the position of the tracking target in the screen is recognized from each of the image information acquired before the interruption Determining means for determining the reliability of the recognition method by the recognition means based on the history;
The recognizing unit selects whether to perform recognition after the first interruption or recognition after the second interruption based on a determination result of the determination unit.
請求項1から4のいずれか一項に記載の撮像装置において、
前記第1演算手段は、前記撮像部が前記画像情報の取得を複数回行ってから前記画像情報の取得を中断した場合、該中断前に取得された前記画像情報から前記画面内における前記追尾対象の位置を認識した結果と、該中断中に算出された前記姿勢変化情報とを用いて、前記移動情報を演算することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 4,
When the imaging unit interrupts the acquisition of the image information after the imaging unit acquires the image information a plurality of times, the tracking unit in the screen is acquired from the image information acquired before the interruption. An imaging apparatus, wherein the movement information is calculated using a result of recognizing the position of the camera and the posture change information calculated during the interruption.
請求項1から5のいずれか一項に記載の撮像装置において、
前記撮像部により取得された前記画像情報を用いて観察用画像を表示する表示手段を備えることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 5,
An imaging apparatus comprising: display means for displaying an image for observation using the image information acquired by the imaging unit.
請求項1から6のいずれか一項に記載の撮像装置において、
前記撮像部は、前記画像情報を取得する第1撮像素子と、前記撮像動作を行う第2撮像素子とを備え、
被写体光束を第1撮像素子に導く状態と、前記被写体光束を第1撮像素子に導かない状態とを切り換え可能な切り換え手段を備えることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 6,
The imaging unit includes a first imaging element that acquires the image information, and a second imaging element that performs the imaging operation,
An image pickup apparatus comprising switching means capable of switching between a state in which a subject light beam is guided to the first image sensor and a state in which the subject light beam is not guided to the first image sensor.
画面内における追尾対象の位置を認識するための画像情報を取得する画像情報取得処理と、
前記画像情報取得処理を中断する間に、前記追尾対象が移動した絶対量を移動情報として演算する第1演算処理と、
前記画面の姿勢を検出する姿勢検出手段からの検出信号に基づいて、前記画面の姿勢変化の絶対量を姿勢変化情報として演算する第2演算処理と、
前記画像情報取得処理を行う際には、該画像情報から前記画面内における前記追尾対象の位置を認識する通常認識を行い、前記画像情報取得処理を中断する際には、前記中断前に認識された前記画面内における前記追尾対象の位置と、前記移動情報と、前記姿勢変化情報とを用いて、前記中断後に取得された前記画像情報から前記画面内における前記追尾対象の位置を認識する第1中断認識を行う認識処理と、を行うことを特徴とする追尾方法。
Image information acquisition processing for acquiring image information for recognizing the position of the tracking target in the screen;
A first calculation process for calculating the absolute amount of movement of the tracking target as movement information while interrupting the image information acquisition process;
A second calculation process for calculating an absolute amount of the posture change of the screen as posture change information based on a detection signal from a posture detection means for detecting the posture of the screen;
When performing the image information acquisition process, normal recognition is performed for recognizing the position of the tracking target in the screen from the image information, and when the image information acquisition process is interrupted, it is recognized before the interruption. The first position for recognizing the position of the tracking target in the screen from the image information acquired after the interruption using the position of the tracking target in the screen, the movement information, and the posture change information. A tracking method characterized by performing recognition processing for performing interruption recognition.
JP2009146241A 2009-06-19 2009-06-19 Imaging apparatus and tracking method Expired - Fee Related JP5418010B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009146241A JP5418010B2 (en) 2009-06-19 2009-06-19 Imaging apparatus and tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009146241A JP5418010B2 (en) 2009-06-19 2009-06-19 Imaging apparatus and tracking method

Publications (2)

Publication Number Publication Date
JP2011004219A true JP2011004219A (en) 2011-01-06
JP5418010B2 JP5418010B2 (en) 2014-02-19

Family

ID=43561784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009146241A Expired - Fee Related JP5418010B2 (en) 2009-06-19 2009-06-19 Imaging apparatus and tracking method

Country Status (1)

Country Link
JP (1) JP5418010B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015089012A (en) * 2013-10-31 2015-05-07 リコーイメージング株式会社 Imaging apparatus and imaging method
JP2017173615A (en) * 2016-03-24 2017-09-28 株式会社ニコン Focus adjustment device and image capturing device
JP2021034941A (en) * 2019-08-27 2021-03-01 キヤノン株式会社 Image capturing control apparatus, image capturing apparatus, control method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0613987Y2 (en) 1987-09-29 1994-04-13 三菱自動車工業株式会社 Door glass pressure sensitive device for power windows

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730795A (en) * 1993-07-13 1995-01-31 Sony Corp Video camera system
JP2005348157A (en) * 2004-06-03 2005-12-15 Canon Inc Camera system, camera and method for controlling camera
JP2006317701A (en) * 2005-05-12 2006-11-24 Nikon Corp Camera
JP2008299797A (en) * 2007-06-04 2008-12-11 Toshiba Corp Database system, database retrieval method in database system, and computer program used for database system
JP2009124565A (en) * 2007-11-16 2009-06-04 Casio Comput Co Ltd Imaging apparatus and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730795A (en) * 1993-07-13 1995-01-31 Sony Corp Video camera system
JP2005348157A (en) * 2004-06-03 2005-12-15 Canon Inc Camera system, camera and method for controlling camera
JP2006317701A (en) * 2005-05-12 2006-11-24 Nikon Corp Camera
JP2008299797A (en) * 2007-06-04 2008-12-11 Toshiba Corp Database system, database retrieval method in database system, and computer program used for database system
JP2009124565A (en) * 2007-11-16 2009-06-04 Casio Comput Co Ltd Imaging apparatus and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015089012A (en) * 2013-10-31 2015-05-07 リコーイメージング株式会社 Imaging apparatus and imaging method
JP2017173615A (en) * 2016-03-24 2017-09-28 株式会社ニコン Focus adjustment device and image capturing device
JP2021034941A (en) * 2019-08-27 2021-03-01 キヤノン株式会社 Image capturing control apparatus, image capturing apparatus, control method, and program
JP7325266B2 (en) 2019-08-27 2023-08-14 キヤノン株式会社 IMAGING CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, AND PROGRAM

Also Published As

Publication number Publication date
JP5418010B2 (en) 2014-02-19

Similar Documents

Publication Publication Date Title
US7469098B2 (en) Optical apparatus
US9667856B2 (en) Auto focus adjusting method, auto focus adjusting apparatus, and digital photographing apparatus including the same
US8243188B2 (en) Imaging apparatus
JP5760188B2 (en) Imaging device and camera body
US20120307098A1 (en) Image pickup apparatus and control method therefor
US8823863B2 (en) Image capturing apparatus and control method therefor
JP2018031877A (en) Image pickup device and focus adjusting method
JP5418010B2 (en) Imaging apparatus and tracking method
JP6851854B2 (en) Control method of image processing device, imaging device and image processing device
JP6140945B2 (en) Focus adjustment device and imaging device
JP5418180B2 (en) Digital camera
JP2011257450A (en) Imaging system
JP5069076B2 (en) Imaging apparatus and continuous imaging method
JP5446660B2 (en) Image recognition apparatus and imaging apparatus
JP2017005495A (en) Imaging apparatus, method for controlling the same, and program
JP6858065B2 (en) Imaging device and its control method
JP6739248B2 (en) Imaging device, control method thereof, and program
JP2010050527A (en) Image device
JP6997544B2 (en) Imaging device and its control method, program, storage medium
JP2020053756A (en) Imaging apparatus and control method therefor
JP5938269B2 (en) Imaging apparatus and control method thereof
JP7171966B2 (en) IMAGING DEVICE, CONTROL DEVICE, OPERATION METHOD OF IMAGING DEVICE, AND PROGRAM
JP5938268B2 (en) Imaging apparatus and control method thereof
JP2016114721A (en) Imaging apparatus and method of controlling the same
JP2021015162A (en) Image processing device and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131104

R150 Certificate of patent or registration of utility model

Ref document number: 5418010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees