JP2011004219A - Image capturing apparatus and tracking method - Google Patents
Image capturing apparatus and tracking method Download PDFInfo
- Publication number
- JP2011004219A JP2011004219A JP2009146241A JP2009146241A JP2011004219A JP 2011004219 A JP2011004219 A JP 2011004219A JP 2009146241 A JP2009146241 A JP 2009146241A JP 2009146241 A JP2009146241 A JP 2009146241A JP 2011004219 A JP2011004219 A JP 2011004219A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image information
- interruption
- screen
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 18
- 238000003384 imaging method Methods 0.000 claims abstract description 60
- 230000008859 change Effects 0.000 claims abstract description 40
- 238000001514 detection method Methods 0.000 claims abstract description 33
- 238000004364 calculation method Methods 0.000 claims description 110
- 238000012545 processing Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 10
- 230000002035 prolonged effect Effects 0.000 abstract 1
- 238000009825 accumulation Methods 0.000 description 40
- 238000006243 chemical reaction Methods 0.000 description 37
- 230000003287 optical effect Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 9
- 230000011514 reflex Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- 230000004907 flux Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005375 photometry Methods 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 238000009792 diffusion process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮像装置および追尾方法に関する。 The present invention relates to an imaging apparatus and a tracking method.
スルー画像を解析して主要被写体の移動方向を判定する技術が知られている(特許文献1参照)。 A technique for analyzing a through image and determining a moving direction of a main subject is known (see Patent Document 1).
従来技術では、スルー画像間における主要被写体および参照点の位置関係の変化に基づいて主要被写体の移動方向を判定する。しかしながら、スルー画像などの画像情報の取得が中断されている間に、主要被写体を見失うおそれがあった。 In the prior art, the moving direction of the main subject is determined based on the change in the positional relationship between the main subject and the reference point between the through images. However, there is a possibility that the main subject may be lost while acquisition of image information such as a through image is interrupted.
本発明による撮像装置は、画面内における追尾対象の位置を認識するための画像情報を取得する撮像部と、撮像部が画像情報の取得を中断する間に、追尾対象が移動した絶対量を移動情報として演算する第1演算手段と、撮像部を備える撮像装置の姿勢を検出する姿勢検出手段からの検出信号に基づいて、撮像装置の姿勢変化の絶対量を姿勢変化情報として演算する第2演算手段と、撮像部が画像情報を取得する際には、該画像情報から画面内における追尾対象の位置を認識する通常認識を行い、撮像部が画像情報の取得を中断する際には、中断前に認識された画面内における追尾対象の位置と、移動情報と、姿勢変化情報とを用いて、中断後に撮像部により取得された画像情報から画面内における追尾対象の位置を推定した結果を用いて認識する第1中断認識を行う認識手段とを備えることを特徴とする。 An imaging apparatus according to the present invention includes an imaging unit that acquires image information for recognizing the position of a tracking target in a screen, and an absolute amount that the tracking target has moved while the imaging unit interrupts acquisition of the image information. Based on a detection signal from a first calculation unit that calculates as information and a posture detection unit that detects the posture of the imaging device including the imaging unit, a second calculation that calculates the absolute amount of the posture change of the imaging device as posture change information When the image capturing unit acquires image information, normal recognition for recognizing the position of the tracking target in the screen is performed from the image information. When the image capturing unit interrupts the acquisition of the image information, Using the result of estimating the position of the tracking target in the screen from the image information acquired by the imaging unit after the interruption, using the position of the tracking target in the screen recognized by the camera, movement information, and posture change information Recognition Characterized in that it comprises a first recognition means for performing interrupt recognition to be.
本発明によれば、比較に用いる画像情報の取得が中断されても、主要被写体を見失わないように追尾できる。 According to the present invention, even if acquisition of image information used for comparison is interrupted, tracking can be performed so as not to lose sight of the main subject.
以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による一眼レフ電子カメラの要部構成を説明する図である。図1において、カメラ本体1に対して着脱可能に構成されるレンズ鏡筒2が装着されている。ライブビュー切り換えスイッチ19はオフされている。ライブビュー切り換えスイッチ19は、後述するライブビュー表示動作を行わせるためのスイッチである。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram for explaining a main configuration of a single-lens reflex electronic camera according to an embodiment of the present invention. In FIG. 1, a
<光学ファインダーによる観察>
被写体からの光は、レンズ鏡筒2の撮影光学系3,5および絞り6を介してカメラ本体1へ入射される。ライブビュー切り換えスイッチ19がオフにされている場合、カメラ本体1に入射した被写体光は、レリーズ前はクイックリターンミラー(以下メインミラーと呼ぶ)7で上方の光学ファインダー部へ導かれて拡散スクリーン10に結像する。また、カメラ本体1に入射した被写体光の一部はサブミラー8で下方へ反射され、AFセンサー9にも入射する。AFセンサー9は、公知の瞳分割による位相差検出方式のAF(オートフォーカス)装置を構成する。
<Observation with optical viewfinder>
Light from the subject enters the
AFセンサー9は、AF装置がレンズ鏡筒2によるフォーカス調節状態を検出する焦点検出処理において用いられる。フォーカス調節状態に基づいてレンズ駆動量演算部38(図4)によって演算されたレンズ駆動情報がカメラ本体1からレンズ鏡筒2へ送信されると、レンズ鏡筒2内のAFモーター4がフォーカシングレンズ3を光軸方向に進退移動させる。これにより、所定の被写体を対象にフォーカス調節が行われる。
The
上述した拡散スクリーン10に結像した被写体光はさらに、AFエリア表示部25を介してペンタプリズム11へ入射する。ペンタプリズム11は、入射された被写体光を光学ファインダーレンズ12へ導く一方、その一部を測光センサ15へも導く。撮影者は、接眼部13から光学ファインダーによる被写体像を観察する。
The subject light imaged on the
測光レンズ14を介して測光センサ15に入射された光束は、その撮像面上に被写体像を結像する。測光センサ15は、画素に対応する複数(たとえばVGAに相当する画素数)の光電変換素子を備えたCCDイメージセンサなどによって構成される。測光センサ15は、被写体像の明るさに応じた測光用の光電変換信号を出力する。
The light beam incident on the
測光センサ15には不図示のカラーフィルタが配設されており、測光センサ15は該カラーフィルタを通して受光した光電変換信号を出力する。たとえば、測光センサ15の画素位置にR,G,B色のフィルタが配設されることにより、R色のフィルタを通して受光した画素からはR色成分の光に対応する光電変換信号が出力され、G色のフィルタを通して受光した画素からはG色成分の光に対応する光電変換信号が出力され、B色のフィルタを通して受光した画素からはB色成分の光に対応する光電変換信号が出力される。
The
拡散スクリーン10と並べて配設されているAFエリア表示部25は、たとえば透過型液晶表示パネルによって構成される。AFエリア表示部25は、拡散スクリーン10に結像した被写体像に重ねてAFエリアを示す表示を行う。
The AF
図2は、AFエリア表示を例示する図である。本実施形態によるAF装置は、撮影画面における複数ポイント(図2の例では31ポイント)においてそれぞれ位相差検出を行うように構成されている。AFエリア表示部25が、AFエリアを示す31箇所の表示セグメント25aのうちフォーカス調節のために位相差検出情報が採用されたAFエリアに対応する表示セグメントを発光させることにより、撮影画面のうち位相差検出を行っているポイントを表示する。
FIG. 2 is a diagram illustrating an AF area display. The AF apparatus according to the present embodiment is configured to detect phase differences at a plurality of points (31 points in the example of FIG. 2) on the shooting screen. The AF
レリーズ後は、メインミラー7が後述するライブビュー表示時(図3)と同様の位置、すなわちメインミラー7が光路から退避する位置へ回動する。この場合の被写体光はフォーカルプレーンシャッター18を介して撮像素子17へ導かれ、撮像素子17の撮像面上に被写体像を結ぶ。撮像素子17は、たとえば、画素に対応する複数の電荷蓄積型の光電変換素子を備えたCMOSイメージセンサによって構成される。撮像素子17は、撮像面上の被写体像を撮像し、被写体像の明るさに応じた光電変換信号を出力する。
After the release, the
撮像素子17は、不図示のカラーフィルタを通して受光した光電変換信号を出力する。たとえば、撮像素子17の画素位置にR,G,B色のフィルタが配設されることにより、R色のフィルタを通して受光した画素からはR色成分の光に対応する光電変換信号が出力され、G色のフィルタを通して受光した画素からはG色成分の光に対応する光電変換信号が出力され、B色のフィルタを通して受光した画素からはB色成分の光に対応する光電変換信号が出力される。本実施形態の電子カメラは、撮像素子17による光電変換信号を画像記録用、後述するライブビューオン時のライブビュー表示用、およびコントラスト情報検出用に用いる。コントラスト情報は、後述するライブビューオン時のコントラスト検出方式によるフォーカス調節時に用いられる。
The
メインモニタ16は、カメラ本体1の背面に配設される。メインモニタ16は、撮影画像や後述のライブビュー画像などを再生表示する。
The
フォーカルプレーンシャッター18は、先幕18a、後幕18bおよびシャッター駆動部18cを有する。シャッター駆動部18cは、所定の露光時間が得られるように、先幕18aおよび後幕18bの走行制御を行う。
The
露光動作が終了すると、メインミラー7が図1に例示する位置にダウン駆動され、フォーカルプレーンシャッター18のチャージおよび記録媒体42に対する撮影画像の記録が行われて一連の撮影動作が終了する。
When the exposure operation is completed, the
<ライブビュー観察>
図3は、ライブビュー切り換えスイッチ19がオンされた場合の一眼レフ電子カメラの要部構成を説明する図である。ライブビュー表示は、撮影指示(レリーズ)前に撮像素子17によって所定の時間間隔(たとえば30フレーム/毎秒)で繰り返し撮像されるモニタ用画像をメインモニタ16に逐次再生表示させることをいう。図3に例示するように、メインミラー7がアップ時は被写体光束がファインダー部へ導かれないため、撮影者は接眼部13から被写体像を確認できない。そこで、電子カメラはメインモニタ16にモニタ用画像を表示させ、被写体像をメインモニタ16で観察できるようにする。
<Live view observation>
FIG. 3 is a diagram for explaining a main configuration of a single-lens reflex electronic camera when the live
CPU100(図4)は、ライブビュー切り換えスイッチ19からオン操作信号を受けるとライブビューモードへの切り替えを指示する。これにより、ミラー7が光路から退避(アップ状態)し、フォーカルプレーンシャッター18が先幕18aおよび後幕18bを開く。画像処理部21が撮像素子17で取得されたフレーム画像を用いて表示データを生成し、メインモニタ16が表示データによる再生画像を逐次表示する(ライブビュー表示)。
When the CPU 100 (FIG. 4) receives an ON operation signal from the live
ライブビュー表示のための表示データはメインモニタ16の表示解像度に応じたサイズのデータを有していればよいので、記録用画像データに比べて解像度が小さくてよい。このため、ライブビュー表示のための撮像素子17からの光電変換信号の読み出しは、画素間引き読み出しを行うことによって撮影時の読み出しデータに比べてデータサイズを小さくする。
Since the display data for live view display only needs to have data having a size corresponding to the display resolution of the
図4は、上述した一眼レフ電子カメラの制御回路を例示するブロック図である。カメラ本体1のCPU100は、シーケンス制御部31と、コントラストAF演算部32と、カメラ移動量演算部33と、特徴抽出部35と、相関演算部36と、測光演算部37と、レンズ駆動量演算部38とを含む。
FIG. 4 is a block diagram illustrating the control circuit of the single-lens reflex electronic camera described above. The
レリーズボタン20は、レリーズ操作(全押し操作)に応じた操作信号をCPU100へ送出する。レリーズボタン20が通常ストロークの半分程度まで押し下げ操作された場合は半押し操作信号を出力し、レリーズボタン20が通常ストロークまで押し下げ操作された場合は全押し操作信号を出力する。
The
ライブビュー切り換えスイッチ19は、ライブビュー切り換え操作に応じてオンまたはオフ信号をCPU100へ送出する。角速度センサ24は、カメラ本体に生じた動きを検出し、検出信号(角速度信号)をCPU100へ送出する。
The live
AFモーター4は、フォーカシングレンズ3(図1)を光軸方向に進退移動させる。絞り駆動部6aは、絞り6(図1)を所定口径へ駆動する。シャッター駆動部18cは、上述した先幕18aおよび後幕18bの走行制御を行う。画像処理部21は、撮像素子17および測光センサ15による光電変換信号に対して所定の信号処理を行う。
The
AFエリア表示部25は、上述したAFエリア表示を行う。メインモニタ16は、上述したようにライブビュー画像や撮影画像などを再生表示する。メモリ23は、上記光電変換信号やカメラ動作に関わる各種データを一時的に格納する。記録インターフェース(I/F)41は、記録用の画像信号を記録媒体42へ記録するためのインターフェース機能を有する。記録媒体42は、たとえばメモリカードによって構成され、撮影画像信号を記録する。
The AF
CPU100内のシーケンス制御部31は、レリーズ操作信号に応じてフォーカルプレーンシャッター18(図1)のチャージおよび走行を制御するとともに、不図示のミラー駆動機構を駆動してメインミラー7のミラーアップ駆動(図3に示す位置へ退避させる)、およびミラーダウン駆動(図1に示す位置へ復帰させる)を制御する。
The
被写体光束がAFセンサー9(図3)へ導かれないライブビューモード時(すなわちメインミラー7がアップ時)は、上述した位相差検出方式によるフォーカス調節状態の検出ができない。そこで、コントラストAF演算部32は、コントラスト検出方式によるAF演算を行う。具体的には、AFモーター4を駆動してフォーカシングレンズ3を移動させながら、撮像素子17から出力される撮像信号に基づいて公知の焦点評価値演算を行うことにより、画像の高周波成分を尖鋭度に置き換えた焦点評価値(以後コントラスト情報と呼ぶ)を算出する。コントラスト情報は、撮影光学系3,5が撮像素子17の撮像面上に尖鋭像を結ぶ合焦状態、すなわち、 撮像素子17によって撮像される被写体像のエッジのボケが最小の状態で最大になる。
In the live view mode where the subject luminous flux is not guided to the AF sensor 9 (FIG. 3) (that is, when the
コントラストAF演算部32は、焦点評価値が増加する場合はフォーカシングレンズ3を同方向へ移動させ続け、焦点評価値が減少する場合はフォーカシングレンズ3の移動方向を反転させることにより、焦点評価値が最大値をとる位置、すなわち、合焦状態に対応する位置へフォーカシングレンズ3を移動するようにAFモーター4を駆動する。
When the focus evaluation value increases, the contrast
カメラ移動量演算部33は、角速度センサ24による検出信号に基づいてカメラ本体1の移動量を演算する。そして、演算した移動量をカメラの姿勢変化の絶対量を示す姿勢変化情報とする。特徴抽出部35は、測光センサ15または撮像素子17による光電変換信号を用いて主要被写体の特徴部の抽出を行う。主要被写体は、たとえば、レリーズボタン20が半押し操作された時に、撮影者によって指定されているAFエリアに対応する位置に存在する被写体を主要被写体とする。あるいは、レリーズボタン20が半押し操作された時に、撮像素子17によって撮像された画像信号に基づいて公知の顔検出処理を行い、検出した「顔」を主要被写体とする。
The camera movement
相関演算部36は、取得時刻が異なる複数のフレーム画像に基づいて、画面内における主要被写体の移動量を演算する。たとえば、公知のテンプレートマッチング技術を用いることにより、先に取得されたフレーム画像における主要被写体と類似する領域を後から取得されたフレーム画像から検出(追尾)し、該主要被写体の画面内における位置と、該位置の変化量を示す移動ベクトルを演算する。そして、演算した移動ベクトルを主要被写体の移動情報とする。
The
測光演算部37は、測光センサ15または撮像素子17による光電変換信号を用いて被写体輝度を算出する。測光演算部37はさらに、設定されている撮像感度および算出した被写体輝度を用いて所定の露出演算を行い、制御絞りAVおよび制御シャッター秒時TVを決定する。
The
レンズ駆動量演算部38は、AFセンサー9による検出信号を用いて撮影光学系3,5によるフォーカス調節状態(デフォーカス量)を検出し、検出結果に応じてフォーカシングレンズ3の駆動量を算出する。CPU100は、位相差検出方式によるフォーカス調節を行う場合は、レンズ駆動量演算部38で算出された駆動量に応じてAFモーター4を駆動する。一方、CPU100は、コントラスト検出方式によるフォーカス調節を行う場合は、コントラストAF演算部32で算出された焦点評価値の増減に応じてAFモーター4を駆動する。
The lens driving
<光学ファインダ使用時の連写撮影>
本実施形態は、以上説明した電子カメラを用いて連写撮影を行う場合の動作に特徴を有するので、以降は連写動作を中心に説明する。図5は、ライブビュー切り換えスイッチ19がオフされている場合の連写動作を説明するタイミングチャートである。
<Sequential shooting when using optical viewfinder>
Since this embodiment has a feature in the operation when performing continuous shooting using the electronic camera described above, the following description will focus on the continuous shooting operation. FIG. 5 is a timing chart for explaining the continuous shooting operation when the live
図5の時刻T1において、レリーズボタン20からの半押し操作信号がCPU100へ入力される。この時点においてメインミラー7(サブミラー8)はダウン位置(光路中)にあり、フォーカルプレーンシャッター18の先幕18aは閉状態、後幕18bは開状態、絞り6は開放状態にある。角速度センサ24は、CPU100からの指示に応じて検出動作を開始し、所定時間ごとに検出を行う。図6(a)は、所定時間ごとの角速度dθ/dtの変化を例示する図である。
At time T <b> 1 in FIG. 5, a half-press operation signal from the
測光センサ15(図5において第二撮像素子と呼ぶ)は、CPU100からの指示に応じて蓄積動作を開始する。蓄積後の光電変換信号は画像処理部21へ読み出される。画像処理部21は、第二撮像素子15による光電変換信号から画像P1(図7参照)を生成してCPU100へ送る。CPU100は、画像P1をメモリ23へ格納することにより、蓄積→読み出し→格納を繰り返す。
The photometric sensor 15 (referred to as a second image sensor in FIG. 5) starts an accumulation operation in response to an instruction from the
測光演算部37は、メモリ23に格納された最新の画像P1に基づいて測光演算を行って適正露出を求める。測光演算は、画像P1が取得されるごとに繰り返す。特徴抽出部35は、上記最新の画像P1から主要被写体の特徴部を抽出し、その領域TM1を示す情報をメモリ23に格納する。主要被写体は、たとえば、時刻T1時点で撮影者によって指定されているAFエリアに対応する位置に存在する被写体とする。
The
AFセンサー9は、CPU100からの指示に応じて蓄積動作を開始する。蓄積後の光電変換信号はレンズ駆動量演算部38へ読み出される。レンズ駆動量演算部38は、AFセンサー9による光電変換信号に基づいてデフォーカス量を検出し、このデフォーカス量に応じてフォーカシングレンズ3の駆動量を算出する。CPU100は、算出された駆動量に応じてAFモーター4を駆動し、フォーカシングレンズ3を移動させることにより、蓄積→読み出し→駆動量演算→フォーカシングレンズ(AFレンズ)駆動を繰り返す。
The
図5の時刻T2において、第二撮像素子15から2回目の光電変換信号の読み出しが終了する。カメラ移動量演算部33は、角速度センサ24の検出信号に基づいて、前回の第二撮像素子15による蓄積終了時刻から今回の第二撮像素子15による蓄積終了時刻までのカメラ本体1の姿勢変化の絶対量を求める。具体的には、所定時間ごとの検出信号を積分処理し、レンズ鏡筒2から撮影光学系3,5の焦点距離および撮影距離を示す情報を取得して、上記積分結果および焦点距離情報、撮影距離情報、ならびに測光レンズ14の倍率情報を用いて、第二撮像素子15の撮像面におけるカメラの姿勢変化の絶対量を示す姿勢変化情報F(2)として算出する。
At time T2 in FIG. 5, reading of the second photoelectric conversion signal from the
第二撮像素子15による2回目の蓄積後の光電変換信号は、画像処理部21へ読み出される。画像処理部21は、該2回目の光電変換信号から画像P2を生成してCPU100へ送る。CPU100は、画像P2をメモリ23へ格納する。
The photoelectric conversion signal after the second accumulation by the
測光演算部37は、メモリ23に格納された画像P2に基づいて測光演算を行って適正露出を求める。相関演算部36は、先に取得されたフレーム画像P1における主要被写体の特徴部の領域TM1と類似する領域TM2を、後から取得されたフレーム画像P2から検出する。具体的には、フレーム画像P2上で領域TM1に相当する位置から注目位置を徐々にずらしながら相関演算を行うことにより、フレーム画像P2上で領域TM1と類似する領域TM2を求める。そして、フレーム画像P2上で、領域TM1に相当する位置から領域TM2の位置までの距離を、主要被写体の画面上での相対的な移動量を示す移動ベクトルG(2)としてメモリ23に格納する。
The
特徴抽出部35は、上記画像P2から領域TM2を検出すると、該領域TM2を改めて領域TM1とする。すなわち、新たに取得されたフレーム画像P2を対象に相関演算を行って新たな領域TM2を検出するために、それまでTM2であった前フレーム画像P1における主要被写体の領域がTM1と改められる。
When the
CPU100は、次式(1)のように、上述したカメラの姿勢変化情報F(2)と相関演算部36が求めた移動ベクトルG(2)との和H(2)を算出してメモリ23へ格納する。和H(2)は、主要被写体が移動した絶対量(以下、移動情報とする)を表す。
H(2)=F(2)+G(2) (1)
The
H (2) = F (2) + G (2) (1)
レンズ駆動量演算部38がデフォーカス量検出に用いるAFエリア(すなわち、フォーカス調節のための位相差検出情報を採用するAFエリア)は、最新のフレーム画像P2で検出された領域TM2に対応するAFエリアとする。
The AF area used by the lens drive
最新のフレーム画像P2で検出された領域TM2をデフォーカス量検出に用いるAFエリアに速やかに対応させるため、レンズ駆動量演算部38による次の駆動量演算の開始は、相関演算部36が最新のフレーム画像P2から最新の領域TM2を検出した直後である時刻T3とする。
In order to quickly correspond the area TM2 detected in the latest frame image P2 to the AF area used for the defocus amount detection, the
時刻T2以降は、時刻T8においてレリーズボタン20からの全押し操作信号がCPU100へ入力されるまで上述した動作を繰り返す。この場合の第二撮像素子15による画像取得回数(蓄積回数)をnで表すと、主要被写体の移動情報H(n)は、次式(2)で表される。
H(n)=F(n)+G(n) (2)
ただし、nは2以上の整数である。
After time T2, the above-described operation is repeated until a full-press operation signal from the
H (n) = F (n) + G (n) (2)
However, n is an integer of 2 or more.
図6(a)は、角速度センサ24の出力を例示する図である。図6(b)は、カメラの姿勢変化情報F(n)を例示する図である。図6(c)は、移動ベクトルG(n)を例示する図である。図6(d)は、主要被写体の移動情報H(n)を例示する図である。図7は、フレーム画像P1およびP2間における上式(2)の関係を説明する図である。
FIG. 6A is a diagram illustrating the output of the
CPU100は、(n−1)回目の蓄積終了時刻からn回目の蓄積終了時刻までの時間t(n)の履歴(nは2以上の整数)と移動ベクトルG(n)の履歴(nは2以上の整数)、すなわち、t(2)〜t(n)とG(2)〜G(n)とをメモリ23に格納する。格納された履歴は、後述する式(4)と式(5)の判定に用いられる。また、CPU100は、姿勢変化情報F(n−1)、F(n)と主要被写体の移動情報H(n−1)、H(n)とをメモリ23に格納する。格納された情報は、後述する式(6)、式(7)、式(8)を用いた算出に用いられる。
The
図5の時刻T8において、レリーズボタン20からの全押し操作信号がCPU100へ入力される。CPU100は、第二撮像素子15を用いた蓄積→読み出し→格納を停止させるとともに、AFセンサー9を用いた蓄積→読み出し→駆動量演算→フォーカシングレンズ駆動を停止させる。ただし、既に蓄積が終了されている場合は、第二撮像素子15、およびAFセンサー9による蓄積済みの光電変換信号を用いる処理をそれぞれ行い、新たな蓄積を行わないように制御する。
At time T <b> 8 in FIG. 5, a full press operation signal from the
CPU100は、角速度センサ24による検出動作、およびカメラ移動量演算部33によるカメラの姿勢変化情報Fの演算は継続するように制御を行う。
The
CPU100がメインミラー7およびサブミラー8のアップ駆動を開始させると、時刻T10においてメインミラー7およびサブミラー8がアップ状態になって光路外退避が終了する。CPU100は、時刻T10で撮像素子17(図5において第一撮像素子と呼ぶ)に蓄積を開始させるとともに、シャッター制御部18cに指示を送って先幕18aの走行を開始させる(開駆動)。
When the
ミラーアップ駆動開始後の時刻T9において、CPU100は、絞り駆動部6aへ指示を送って絞り6を所定開口まで絞り込ませる。所定開口は、たとえば、全押し操作前の最後の測光演算結果に基づいて得られる制御絞りAVに相当する。
At time T9 after the start of mirror-up driving, the
CPU100は、シャッター制御部18cに指示を送り、先幕18aの走行開始(T10)から所定のシャッター秒時が経過すると、後幕18bの走行を開始させる(閉駆動)。所定のシャッター秒時は、たとえば、全押し操作前の最後の測光演算結果に基づいて得られる制御シャッター秒時TVに相当する。
The
後幕18bの走行が完了する時刻T12において、CPU100は、第一撮像素子17の蓄積を終了させる。蓄積後の光電変換信号は画像処理部21へ読み出される。画像処理部21は、第一撮像素子17による光電変換信号から記録用画像を生成してCPU100へ送る。CPU100は、記録インターフェース41に指示を送り、記録媒体42に対する撮影画像の記録を行わせて1コマ分の撮影処理を終了する。
At time T <b> 12 when the travel of the trailing
一方、CPU100は、上記時刻T12においてメインミラー7およびサブミラー8のダウン駆動を開始させるとともに、シャッター制御部18cにシャッターチャージを指示する。時刻T13において、CPU100は、絞り駆動部6aへ指示を送って絞り6を開放状態へ復帰させる。
On the other hand, the
時刻T14において、メインミラー7およびサブミラー8がダウン状態になって光路中への復帰が終了する。なお、この時点までにシャッターチャージ(先幕18aを閉じ、後幕18bを開く)が終了するように構成されている。
At time T14, the
時刻T14以降も継続してレリーズボタン20からの全押し操作信号がCPU100へ入力されている場合、CPU100は、時刻T15以降に上述した時刻T8〜時刻T14までに行った撮影と同様の処理を繰り返すことにより、2コマ目以降の連写撮影動作を行う。
When the full press operation signal from the
時刻T14〜時刻T15までは、上述した時刻T1〜時刻T8までと同様の処理を行う。なお、時刻T14〜時刻T15の間に行う第二撮像素子15による画像取得回数(蓄積回数)はカメラが2コマ目以降の連写撮影の準備に要する時間によって決定される。つまり、図5に例示した3回に限らず、撮影準備が早くできた場合は画像取得回数が減り、撮影準備に長い時間を要した場合は画像取得回数が増える。
From time T14 to time T15, processing similar to that from time T1 to time T8 described above is performed. Note that the number of times of image acquisition (accumulation count) by the
<ブラックアウト中の推定>
メインミラー7およびサブミラー8のアップ駆動が開始する時刻T8からメインミラー7およびサブミラー8のダウン駆動が終了する時刻T14までの時間は、ファインダー部へ光束が導かれないためにファインダーの視野内が暗くなる。このような状態は、いわゆるブラックアウトと呼ばれる。ブラックアウト中は、第二撮像素子15による蓄積(画像取得)も行われない。このため、ブラックアウト中に主要被写体が画面の中で大きく移動する場合は、ブラックアウト終了後に上述した相関演算に時間がかかるおそれがある。具体的には、図7のP1とP2を取得する間にブラックアウトがあったとき、主要被写体が画面内で大きく動き、フレーム画像P2における領域TM1に相当する位置と、ブラックアウト後に主要被写体が存在する領域TM2の位置とが大きく異なる場合は、フレーム画像P2における領域T1に相当する位置から注目位置を徐々にずらしながら相関演算を行っていたのでは演算時間がかさんでしまう。
<Estimation during blackout>
During the time from the time T8 when the
そこで、ブラックアウト後のフレーム画像P2上の領域TM2の位置を推定し、この推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、相関演算に要する時間を短縮する。このために相関演算部36は、ブラックアウト前の時刻T1から時刻T8までの相関演算で取得し、メモリ23に格納されている移動ベクトルG(n)の履歴(本実施形態ではnは2から5)を用いて、次式(3)により移動ベクトルG(n)と移動ベクトルG(n−1)との変化量の絶対値|ΔG(n)|(本実施形態ではΔG(3)、ΔG(4)、ΔG(5)の3つ)をそれぞれ求める。
|ΔG(n)|=|G(n)−G(n−1)| (3)
ただし、nは3以上の整数である。図8(a)は、移動ベクトルG(n)の履歴を例示する図であり、図8(b)は、動きベクトルG(n)の変化量の絶対値|ΔG(n)|を例示する図である。
Therefore, the time required for the correlation calculation is shortened by estimating the position of the region TM2 on the frame image P2 after the blackout and performing the correlation calculation while gradually shifting the position of interest from the estimated position. For this purpose, the
| ΔG (n) | = | G (n) −G (n−1) | (3)
However, n is an integer of 3 or more. FIG. 8A illustrates the history of the movement vector G (n), and FIG. 8B illustrates the absolute value | ΔG (n) | of the change amount of the motion vector G (n). FIG.
相関演算部36は、次式(4)が成立する場合は上記推定を行う必要がないと判定し(条件1とする)、次式(5)が成立する場合には上記推定の必要があると判定する(条件2とする)。
Σ|ΔG(n)|/Σt(n)≦β (4)
Σ|ΔG(n)|/Σt(n)>β (5)
ただし、Σ|ΔG(n)|は時刻T1から時刻T8までの動きベクトルG(n)の変化量の絶対値の和である。Σt(n)は、メモリ23に格納されている時間t(n)の履歴を用いて算出される時間の和である。βは所定の判定閾値である。
The
Σ | ΔG (n) | / Σt (n) ≦ β (4)
Σ | ΔG (n) | / Σt (n)> β (5)
However, Σ | ΔG (n) | is the sum of absolute values of the amount of change of the motion vector G (n) from time T1 to time T8. Σt (n) is the sum of times calculated using the history of time t (n) stored in the
CPU100が上記「条件1」を判定した場合、ユーザーが被写体を追えているものとして、相関演算部36は、時刻T14以降のブラックアウト終了後に最初の相関演算を行う場合、ブラックアウト終了後最初に得たフレーム画像上で領域TM1に相当する位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。
When the
CPU100が上記「条件2」を判定した場合、ユーザーが被写体を追えていないものとして、相関演算部36は、時刻T14以降のブラックアウト終了後に最初の相関演算を行う場合、ブラックアウト終了後最初に得たフレーム画像上で以下の推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。
When the
ブラックアウト中の主要被写体の移動情報をHbとし、ブラックアウト中のカメラの姿勢変化情報をFbとし、ブラックアウト中の移動ベクトルをGbとすると、次式(6)が成立する。
Hb=Fb+Gb (6)
ここで、Fbはブラックアウト中に継続して行ったカメラの姿勢変化情報Fの演算結果を用いる。
When the movement information of the main subject during blackout is Hb, the posture change information of the camera during blackout is Fb, and the movement vector during blackout is Gb, the following equation (6) is established.
Hb = Fb + Gb (6)
Here, Fb uses the calculation result of the camera posture change information F continuously performed during blackout.
相関演算部36は、単位時間当たりのHbはブラックアウト直前と同じと仮定し、次式(7)を用いてブラックアウト中に外挿する。
Hb=H(k)/t(k)×tb (7)
ただし、第二撮像素子15によるブラックアウト前の画像取得回数(蓄積回数)をkとし、ブラックアウト直前に求めた主要被写体の移動情報をH(k)とし、(k−1)枚目の第二撮像素子15による蓄積終了時刻からk枚目の第二撮像素子15による蓄積終了時刻までの時間をt(k)とし、ブラックアウト時間をtbとする。
The
Hb = H (k) / t (k) × tb (7)
However, the number of times of image acquisition (accumulation count) before blackout by the
Gb=Hb−Fb=H(k)/t(k)×tb−Fb (8)
相関演算部36は、式(8)により、ブラックアウト中の移動ベクトルをGbを算出する。相関演算部36は、ブラックアウト直前のフレーム画像における領域TM1の位置から上記移動ベクトルGbだけ離れた位置に主要被写体が存在するものと推定し、この推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。
Gb = Hb−Fb = H (k) / t (k) × tb−Fb (8)
The
<ライブビューオン時の連写撮影>
図9は、ライブビュー切り換えスイッチ19がオンされている場合の連写動作を説明するタイミングチャートである。図9の時刻T31において、レリーズボタン20からの半押し操作信号がCPU100へ入力される。この時点においてメインミラー7およびサブミラー8はアップ位置(光路外へ退避)にあり、フォーカルプレーンシャッター18の先幕18a、後幕18bはともに開状態にあり、絞り6は開放状態にある。角速度センサ24は、CPU100からの指示に応じて検出動作を開始し、所定時間ごとに検出を行う。
<Sequential shooting when live view is on>
FIG. 9 is a timing chart for explaining the continuous shooting operation when the live
撮像素子17(図9において第一撮像素子と呼ぶ)は、CPU100からの指示に応じて蓄積動作を開始する。この蓄積動作は撮影記録用でなく、画素間引き読み出しを行うライブビュー表示用である。蓄積後の光電変換信号は画像処理部21へ間引きして読み出される。画像処理部21は、第一撮像素子17による光電変換信号から画像P1を生成してCPU100へ送る。CPU100は、画像P1をメモリ23へ格納することにより、蓄積→読み出し→格納を繰り返す。
The image sensor 17 (referred to as the first image sensor in FIG. 9) starts an accumulation operation in response to an instruction from the
測光演算部37は、メモリ23に格納された最新の画像P1に基づいて測光演算を行って適正露出を求める。測光演算は、画像P1が取得されるごとに繰り返す。特徴抽出部35は、上記最新の画像P1から主要被写体の特徴部を抽出し、その領域TM1を示す情報をメモリ23に格納する。主要被写体は、たとえば、時刻T31時点で撮影者によって指定されているAFエリアに対応する位置に存在する被写体とする。
The
コントラストAF演算部32は、最新の画像P1のうちAFエリアに対応する画素からの光電変換信号を用いて、コントラスト情報を算出する。CPU100は、算出されたコントラスト情報の増減に応じてAFモーター4を駆動してフォーカシングレンズ3を移動させることにより、蓄積→読み出し→コントラスト情報演算→フォーカシングレンズ駆動を繰り返す。
The contrast
図9の時刻T32において、第一撮像素子17から2回目の光電変換信号の読み出しが終了する。カメラ移動量演算部33は、角速度センサ24の検出信号に基づいて、前回の第1撮像素子17による蓄積終了時刻から今回の第1撮像素子17による蓄積終了時刻までのカメラ本体1の移動量F(2)を求める。算出方法は、ライブビューオフ時の場合と同様である。
At time T32 in FIG. 9, the second photoelectric conversion signal readout from the
第1撮像素子17による2回目の蓄積後の光電変換信号は、画像処理部21へ読み出される。画像処理部21は、該2回目の光電変換信号から画像P2を生成してCPU100へ送る。CPU100は、画像P2をメモリ23へ格納する。
The photoelectric conversion signal after the second accumulation by the
測光演算部37は、メモリ23に格納された画像P2に基づいて測光演算を行って適正露出を求める。相関演算部36は、先に取得されたフレーム画像P1における主要被写体の特徴部の領域TM1と類似する領域TM2を、後から取得されたフレーム画像P2から検出する。具体的には、フレーム画像P2上で領域TM1に相当する位置から注目位置を徐々にずらしながら相関演算を行うことにより、フレーム画像P2上で領域TM1と類似する領域TM2を求める。そして、フレーム画像P2上で、領域TM1に相当する位置から領域TM2の位置までの距離を、主要被写体の画面上での相対的な移動量を示す移動ベクトルG(2)としてメモリ23に格納する。
The
特徴抽出部35は、上記画像P2から領域TM2を検出すると、該領域TM2を改めて領域TM1とする。すなわち、新たに取得されたフレーム画像P2を対象に相関演算を行って新たな領域TM2を検出するために、それまでTM2であった前フレーム画像P1における主要被写体の領域がTM1と改められる。
When the
CPU100は、上式(1)のように、上述したカメラの姿勢変化情報F(2)と相関演算部36が求めた移動ベクトルG(2)との和H(2)を算出してメモリ23へ格納する。和H(2)は、主要被写体が移動した絶対量(移動情報)を表す。
The
コントラストAF演算部32がコントラスト情報の算出に用いるAFエリア(すなわち、コントラスト情報の算出に用いる画素に対応するAFエリア)は、最新のフレーム画像P2で検出された領域TM2に対応するAFエリアとする。
The AF area used by the contrast
最新のフレーム画像P2で検出された領域TM2をコントラスト情報算出に用いるAFエリアに速やかに対応させるため、コントラストAF演算部32による次の演算の開始は、フォーカシングレンズ駆動後の時刻T34であり、相関演算部36が最新のフレーム画像P2から最新の領域TM2を検出した後が好ましい。
In order to quickly correspond the area TM2 detected in the latest frame image P2 to the AF area used for calculating contrast information, the start of the next calculation by the contrast
時刻T32以降は、時刻T38においてレリーズボタン20からの全押し操作信号がCPU100へ入力されるまで上述した動作を繰り返す。この場合の第1撮像素子17による画像取得回数(蓄積回数)をnで表すと、主要被写体の移動情報H(n)は、上式(2)で表される。
After time T32, the above-described operation is repeated until the full-press operation signal from the
CPU100は、(n−1)回目の蓄積終了時刻からn回目の蓄積終了時刻までの時間t(n)の履歴(nは2以上の整数)と移動ベクトルG(n)の履歴(nは2以上の整数)、すなわち、t(2)〜t(n)とG(2)〜G(n)とをメモリ23に格納する。格納された履歴は、後述する式(4)と式(5)の判定に用いられる。また、CPU100は、姿勢変化情報F(n−1)、F(n)と主要被写体の移動情報H(n−1)、H(n)とをメモリ23に格納する。格納された情報は、式(6)、式(7)、式(8)を用いた算出に用いられる。
The
図9の時刻T38において、レリーズボタン20からの全押し操作信号がCPU100へ入力される。CPU100は、第1撮像素子17を用いたライブビュー表示用の蓄積→読み出し→格納をただちに停止させる。CPU100はさらに、シャッター制御部18cに指示を送って先幕18aをチャージさせる(閉駆動)。
At time T38 in FIG. 9, a full-press operation signal from the
CPU100は、角速度センサ24による検出動作、およびカメラ移動量演算部33によるカメラの移動量Fの演算は継続するように制御を行う。
The
時刻T38以降のフォーカシングレンズ駆動後の時刻T39において、CPU100は、絞り駆動部6aへ指示を送って絞り6を所定開口まで絞り込ませる。所定開口は、たとえば、全押し操作前の最後の測光演算結果に基づいて得られる制御絞りAVに相当する。
At time T39 after driving the focusing lens after time T38, the
先幕チャージ後の時刻T40において、CPU100は第一撮像素子17に撮影用の蓄積を開始させるとともに、シャッター制御部18cに指示を送り、先幕18aの走行を開始させる。CPU100は、時刻T40から所定のシャッター秒時が経過すると、後幕18bの走行を開始させる(閉駆動)。所定のシャッター秒時は、たとえば、全押し操作前の最後の測光演算結果に基づいて得られる制御シャッター秒時TVに相当する。
At time T40 after the front curtain charge, the
後幕18bの走行が完了する時刻T42において、CPU100は、第一撮像素子17の撮影用の蓄積を終了させる。蓄積後の光電変換信号は画像処理部21へ読み出される。画像処理部21は、第一撮像素子17による光電変換信号から記録用画像を生成してCPU100へ送る。CPU100は、記録インターフェース41に指示を送り、記録媒体42に対する撮影画像の記録を行わせて1コマ分の撮影処理を終了する。
At time T42 when the trailing
一方、CPU100は、上記時刻T42においてシャッター制御部18cに後幕18bのチャージを指示する。時刻T43において、CPU100は、絞り駆動部6aへ指示を送って絞り6を開放状態へ復帰させる。時刻T44において、シャッター後幕18bのチャージ(開く)が終了する。
On the other hand, the
時刻T44以降も継続してレリーズボタン20からの全押し操作信号がCPU100へ入力されている場合、CPU100は、時刻T46以降に上述した時刻T38〜時刻T44までに行った撮影と同様の処理を繰り返すことにより、2コマ目以降の連写撮影動作を行う。
When the full press operation signal from the
時刻T44〜時刻T46までは、上述した時刻T31〜時刻T38までと同様の処理を行う。なお、時刻T44〜時刻T46の間に行う第一撮像素子17による画像取得回数(蓄積回数)はカメラが2コマ目以降の連写撮影の準備に要する時間によって決定される。つまり、図9に例示した3回に限らず、撮影準備が早くできた場合は画像取得回数が減り、撮影準備に長い時間を要した場合は画像取得回数が増える。
From time T44 to time T46, processing similar to that from time T31 to time T38 described above is performed. Note that the number of times of image acquisition (accumulation count) by the
<ブラックアウト中の推定>
ライブビュー表示用の蓄積を終了する時刻T38からライブビュー表示用の蓄積を再開する時刻T44までの時間を、ここではブラックアウトと呼ぶことにする。ブラックアウト中に主要被写体が画面の中で大きく移動する場合は、光学ファインダ使用時と同様に、上述した相関演算に時間がかかるおそれがある。
<Estimation during blackout>
The time from the time T38 when the live view display accumulation ends to the time T44 when the live view display accumulation resumes is referred to as a blackout here. If the main subject moves greatly in the screen during blackout, the correlation calculation described above may take time, as in the case of using the optical viewfinder.
そこで、ブラックアウト後のフレーム画像P2上の領域TM2の位置を推定し、この推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、相関演算に要する時間を短縮する。このために相関演算部36は、ブラックアウト前の時刻T31から時刻T38までの相関演算で取得し、メモリ23に格納されている移動ベクトルG(n)の履歴(本実施形態ではnは2から5)を用いて、上式(3)により移動ベクトルG(n)と移動ベクトルG(n−1)との変化量の絶対値|ΔG(n)|(本実施形態ではΔG(3)、ΔG(4)、ΔG(5)の3つ)をそれぞれ求める。
Therefore, the time required for the correlation calculation is shortened by estimating the position of the region TM2 on the frame image P2 after the blackout and performing the correlation calculation while gradually shifting the position of interest from the estimated position. For this purpose, the
相関演算部36は、上式(4)が成立する場合は上記推定を行う必要がないと判定し(条件1とする)、上式(5)が成立する場合には上記推定の必要があると判定する(条件2とする)。
The
CPU100が上記「条件1」を判定した場合の相関演算部36は、時刻T44以降のブラックアウト後に最初の相関演算を行う場合、ブラックアウト後最初に得たフレーム画像上で領域T1に相当する位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。
When the
CPU100が上記「条件2」を判定した場合の相関演算部36は、時刻T44以降のブラックアウト後に最初の相関演算を行う場合、ブラックアウト後最初に得たフレーム画像上で以下の推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。
When the
相関演算部36は、単位時間当たりのHbはブラックアウト直前と同じと仮定し、上式(7)を用いてブラックアウト中に外挿する。ただし、第一撮像素子17によるブラックアウト前のライブビュー表示用画像取得回数(蓄積回数)をkとし、ブラックアウト直前に求めた主要被写体の移動情報をH(k)とし、(K−1)枚目の第一撮像素子17による蓄積終了時刻からk枚目の第一撮像素子17による蓄積終了時刻までの時間をt(k)とし、ブラックアウト時間をtbとする。
The
相関演算部36は、上式(8)により、ブラックアウト中の移動ベクトルをGbを算出する。相関演算部36は、ブラックアウト直前のフレーム画像における領域TM1の位置から上記移動ベクトルGbだけ離れた位置に主要被写体が存在するものと推定し、この推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、ブラックアウト後最初のフレーム画像上で領域TM1と類似する領域TM2を求める。
The
以上説明した実施形態によれば、次の作用効果が得られる。
(1)画面内における追尾対象である主要被写体を含む領域TM1、2の位置を認識するための画像P1、P2を取得する第二撮像素子15(または第一撮像素子17)と、第二撮像素子15(または第一撮像素子17)が画像P1,P2の取得を中断する間(ブラックアウト中)に、画像内において主要被写体が移動した移動ベクトルG(n)を演算する相関演算部36と、第二撮像素子15(または第一撮像素子17)を備えるカメラの姿勢変化を検出する角速度センサ24からの検出信号に基づいて、カメラの姿勢変化の絶対量を姿勢変化情報F(n)として演算するカメラ移動量演算部33と、第二撮像素子15(または第一撮像素子17)が画像P1,P2を連続して取得する際には、該画像P1,P2から画面内における主要被写体を含む領域TM1,2の位置を認識する通常認識を行い、第二撮像素子15(または第一撮像素子17)が画像P1を取得後に、画像P2の取得を中断する際には、中断前に認識された画面内における主要被写体を含む領域TM1の位置と、同じく中断前の移動ベクトルG(n)と、中断中の姿勢変化情報Fbとを用いて、中断後に取得された画像P2から画面内における主要被写体を含む領域TM2の位置を推定する第1中断後認識を行うCPU100を備えるようにした。CPU100は、第1中断後認識では、中断後の画像P2において中断直前の画像P1における領域TM1に相当する位置から移動ベクトルGbだけ離れた位置に主要被写体が存在するものと推定し、この推定位置から注目位置を徐々にずらしながら相関演算を行うことにより、中断後の画像P2上で領域TM1と類似する領域TM2を求めるので、領域TM1の位置から注目位置を徐々にずらしながら相関演算を行う第2中断後認識に比べて、演算量を抑えることができる。演算量を抑えることは、演算時間の短縮に有効である。
According to the embodiment described above, the following operational effects can be obtained.
(1) The second image sensor 15 (or the first image sensor 17) for acquiring images P1 and P2 for recognizing the positions of the areas TM1 and TM2 including the main subject to be tracked in the screen, and the second image sensor A
(2)CPU100は、中断後に第二撮像素子15(または第一撮像素子17)により取得された画像P2における領域TM1に相当する位置から画面内における主要被写体の位置を認識するための相関演算を行う第2中断後認識を、第1中断後認識の代わりに行うようにした。
(2) The
(3)CPU100は、第二撮像素子15(または第一撮像素子17)が画像P1,P2…の取得を複数回行ってから画像P1,P2…の取得を中断した場合、該中断前に取得された画像P1,P2…のそれぞれから画面内における主要被写体の位置を認識した履歴に基づいて、認識方法の信頼性を判定し、該判定結果に基づいて、第1中断後認識と第2中断後認識とのどちらを行うかを選択するようにした。
(3) When the
(4)ライブビュー切り換えスイッチ19がオンの場合に第一撮像素子17により取得された光電変換信号を用いて観察用画像を表示するメインモニタ16を備えたので、接眼部13を覗きにくい場合でもモニタ像を確認できる。
(4) When the live
(5)第二撮像素子15と、撮像動作を行う第一撮像素子17とを備え、被写体光束を第一撮像素子17に導く状態と、被写体光束を第一撮像素子17に導かない状態とを切り換え可能にしたので、撮影環境に応じた切り換えが可能になる。
(5) A
(変形例1)
一眼レフ電子カメラの場合を例に説明したが、いわゆるライブビュー機能を有するものであれば、一眼レフタイプ以外の電子カメラにも本発明を適用して構わない。
(Modification 1)
Although the case of a single-lens reflex electronic camera has been described as an example, the present invention may be applied to an electronic camera other than a single-lens reflex type as long as it has a so-called live view function.
(変形例2)
以上説明した実施形態では、あらかじめカメラ本体1内のCPU100の不揮発性メモリ内に格納されたプログラムによって図5(図9)に例示したタイミングによるカメラ制御を行う例を説明したが、カメラ制御を行うプログラムを図10に示すコンピュータ装置250を経由してカメラ本体1へ供給する構成にしてもよい。このようにコンピュータ装置250からカメラ本体1へプログラムを供給する場合には、コンピュータ装置250とカメラ本体1とを通信可能にしてプログラムを供給する。
(Modification 2)
In the embodiment described above, the example in which the camera control is performed at the timing illustrated in FIG. 5 (FIG. 9) by the program stored in the nonvolatile memory of the
コンピュータ装置250に対するプログラムの供給は、プログラムを格納したCD−ROMなどの記録媒体204をコンピュータ装置250にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でコンピュータ装置250へローディングしてもよい。通信回線201を経由する場合は、通信回線201に接続されたサーバー(コンピュータ)202のハードディスク装置203などにプログラムを格納しておく。プログラムは、記録媒体204や通信回線201を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。
The program may be supplied to the
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。 The above description is merely an example, and is not limited to the configuration of the above embodiment.
1…カメラ本体
2…レンズ鏡筒
3,5撮影光学系
6…絞り
7…メインミラー
11…ペンタプリズム
13…接眼部
15…測光センサ
16…メインモニタ
17…撮像素子
19…ライブビュー切り換えスイッチ
24…角速度センサ
33…カメラ移動量演算部
35…特徴抽出部
36…相関演算部
37…測光演算部
38…レンズ駆動量演算部
100…CPU
DESCRIPTION OF
Claims (8)
前記撮像部が前記画像情報の取得を中断する間に、前記追尾対象が移動した絶対量を移動情報として演算する第1演算手段と、
前記撮像部を備える撮像装置の姿勢を検出する姿勢検出手段からの検出信号に基づいて、前記撮像装置の姿勢変化の絶対量を姿勢変化情報として演算する第2演算手段と、
前記撮像部が前記画像情報を取得する際には、該画像情報から前記画面内における前記追尾対象の位置を認識する通常認識を行い、前記撮像部が前記画像情報の取得を中断する際には、前記中断前に認識された前記画面内における前記追尾対象の位置と、前記移動情報と、前記姿勢変化情報とを用いて、前記中断後に前記撮像部により取得された前記画像情報から前記画面内における前記追尾対象の位置を推定した結果を用いて認識する第1中断認識を行う認識手段と、を備えることを特徴とする撮像装置。 An imaging unit for acquiring image information for recognizing the position of the tracking target in the screen;
First calculating means for calculating, as movement information, an absolute amount by which the tracking target has moved while the imaging unit interrupts acquisition of the image information;
Second computing means for computing an absolute amount of the posture change of the imaging device as posture change information based on a detection signal from a posture detection means for detecting the posture of the imaging device including the imaging unit;
When the imaging unit acquires the image information, normal recognition for recognizing the position of the tracking target in the screen is performed from the image information, and when the imaging unit interrupts the acquisition of the image information. , Using the position of the tracking target in the screen recognized before the interruption, the movement information, and the posture change information from the image information acquired by the imaging unit after the interruption An image pickup apparatus comprising: a recognition unit configured to perform first interruption recognition that is recognized using a result of estimating the position of the tracking target.
前記撮像部は、前記画像情報を取得する画像取得動作と、前記画面の被写体像を撮像する撮像動作とを択一的に行うことを特徴とする撮像装置。 The imaging device according to claim 1,
The imaging device alternatively performs an image acquisition operation for acquiring the image information and an imaging operation for imaging a subject image on the screen.
前記認識手段は、前記中断後に前記撮像部により取得された前記画像情報から前記画面内における前記追尾対象の位置を前記移動情報と前記姿勢変化情報を用いずに認識する第2中断後認識を、前記第1中断後認識の代わりに行うことが可能であることを特徴とする撮像装置。 The imaging device according to claim 1 or 2,
The recognizing means recognizes the second post-interruption recognition for recognizing the position of the tracking target in the screen without using the movement information and the posture change information from the image information acquired by the imaging unit after the interruption. An imaging apparatus characterized in that it can be performed instead of the recognition after the first interruption.
前記撮像部が前記画像情報の取得を複数回行ってから前記画像情報の取得を中断した場合、該中断前に取得された前記画像情報のそれぞれから前記画面内における前記追尾対象の位置を認識した履歴に基づいて、前記認識手段による認識方法の信頼性を判定する判定手段を備え、
前記認識手段は、前記判定手段の判定結果に基づいて、前記第1中断後認識と前記第2中断後認識とのどちらを行うかを選択することを特徴とする撮像装置。 The imaging device according to claim 3.
In the case where the imaging unit interrupts the acquisition of the image information after performing the acquisition of the image information a plurality of times, the position of the tracking target in the screen is recognized from each of the image information acquired before the interruption Determining means for determining the reliability of the recognition method by the recognition means based on the history;
The recognizing unit selects whether to perform recognition after the first interruption or recognition after the second interruption based on a determination result of the determination unit.
前記第1演算手段は、前記撮像部が前記画像情報の取得を複数回行ってから前記画像情報の取得を中断した場合、該中断前に取得された前記画像情報から前記画面内における前記追尾対象の位置を認識した結果と、該中断中に算出された前記姿勢変化情報とを用いて、前記移動情報を演算することを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 4,
When the imaging unit interrupts the acquisition of the image information after the imaging unit acquires the image information a plurality of times, the tracking unit in the screen is acquired from the image information acquired before the interruption. An imaging apparatus, wherein the movement information is calculated using a result of recognizing the position of the camera and the posture change information calculated during the interruption.
前記撮像部により取得された前記画像情報を用いて観察用画像を表示する表示手段を備えることを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 5,
An imaging apparatus comprising: display means for displaying an image for observation using the image information acquired by the imaging unit.
前記撮像部は、前記画像情報を取得する第1撮像素子と、前記撮像動作を行う第2撮像素子とを備え、
被写体光束を第1撮像素子に導く状態と、前記被写体光束を第1撮像素子に導かない状態とを切り換え可能な切り換え手段を備えることを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 6,
The imaging unit includes a first imaging element that acquires the image information, and a second imaging element that performs the imaging operation,
An image pickup apparatus comprising switching means capable of switching between a state in which a subject light beam is guided to the first image sensor and a state in which the subject light beam is not guided to the first image sensor.
前記画像情報取得処理を中断する間に、前記追尾対象が移動した絶対量を移動情報として演算する第1演算処理と、
前記画面の姿勢を検出する姿勢検出手段からの検出信号に基づいて、前記画面の姿勢変化の絶対量を姿勢変化情報として演算する第2演算処理と、
前記画像情報取得処理を行う際には、該画像情報から前記画面内における前記追尾対象の位置を認識する通常認識を行い、前記画像情報取得処理を中断する際には、前記中断前に認識された前記画面内における前記追尾対象の位置と、前記移動情報と、前記姿勢変化情報とを用いて、前記中断後に取得された前記画像情報から前記画面内における前記追尾対象の位置を認識する第1中断認識を行う認識処理と、を行うことを特徴とする追尾方法。 Image information acquisition processing for acquiring image information for recognizing the position of the tracking target in the screen;
A first calculation process for calculating the absolute amount of movement of the tracking target as movement information while interrupting the image information acquisition process;
A second calculation process for calculating an absolute amount of the posture change of the screen as posture change information based on a detection signal from a posture detection means for detecting the posture of the screen;
When performing the image information acquisition process, normal recognition is performed for recognizing the position of the tracking target in the screen from the image information, and when the image information acquisition process is interrupted, it is recognized before the interruption. The first position for recognizing the position of the tracking target in the screen from the image information acquired after the interruption using the position of the tracking target in the screen, the movement information, and the posture change information. A tracking method characterized by performing recognition processing for performing interruption recognition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009146241A JP5418010B2 (en) | 2009-06-19 | 2009-06-19 | Imaging apparatus and tracking method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009146241A JP5418010B2 (en) | 2009-06-19 | 2009-06-19 | Imaging apparatus and tracking method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011004219A true JP2011004219A (en) | 2011-01-06 |
JP5418010B2 JP5418010B2 (en) | 2014-02-19 |
Family
ID=43561784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009146241A Expired - Fee Related JP5418010B2 (en) | 2009-06-19 | 2009-06-19 | Imaging apparatus and tracking method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5418010B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015089012A (en) * | 2013-10-31 | 2015-05-07 | リコーイメージング株式会社 | Imaging apparatus and imaging method |
JP2017173615A (en) * | 2016-03-24 | 2017-09-28 | 株式会社ニコン | Focus adjustment device and image capturing device |
JP2021034941A (en) * | 2019-08-27 | 2021-03-01 | キヤノン株式会社 | Image capturing control apparatus, image capturing apparatus, control method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0613987Y2 (en) | 1987-09-29 | 1994-04-13 | 三菱自動車工業株式会社 | Door glass pressure sensitive device for power windows |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0730795A (en) * | 1993-07-13 | 1995-01-31 | Sony Corp | Video camera system |
JP2005348157A (en) * | 2004-06-03 | 2005-12-15 | Canon Inc | Camera system, camera and method for controlling camera |
JP2006317701A (en) * | 2005-05-12 | 2006-11-24 | Nikon Corp | Camera |
JP2008299797A (en) * | 2007-06-04 | 2008-12-11 | Toshiba Corp | Database system, database retrieval method in database system, and computer program used for database system |
JP2009124565A (en) * | 2007-11-16 | 2009-06-04 | Casio Comput Co Ltd | Imaging apparatus and program |
-
2009
- 2009-06-19 JP JP2009146241A patent/JP5418010B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0730795A (en) * | 1993-07-13 | 1995-01-31 | Sony Corp | Video camera system |
JP2005348157A (en) * | 2004-06-03 | 2005-12-15 | Canon Inc | Camera system, camera and method for controlling camera |
JP2006317701A (en) * | 2005-05-12 | 2006-11-24 | Nikon Corp | Camera |
JP2008299797A (en) * | 2007-06-04 | 2008-12-11 | Toshiba Corp | Database system, database retrieval method in database system, and computer program used for database system |
JP2009124565A (en) * | 2007-11-16 | 2009-06-04 | Casio Comput Co Ltd | Imaging apparatus and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015089012A (en) * | 2013-10-31 | 2015-05-07 | リコーイメージング株式会社 | Imaging apparatus and imaging method |
JP2017173615A (en) * | 2016-03-24 | 2017-09-28 | 株式会社ニコン | Focus adjustment device and image capturing device |
JP2021034941A (en) * | 2019-08-27 | 2021-03-01 | キヤノン株式会社 | Image capturing control apparatus, image capturing apparatus, control method, and program |
JP7325266B2 (en) | 2019-08-27 | 2023-08-14 | キヤノン株式会社 | IMAGING CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, AND PROGRAM |
Also Published As
Publication number | Publication date |
---|---|
JP5418010B2 (en) | 2014-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7469098B2 (en) | Optical apparatus | |
US9667856B2 (en) | Auto focus adjusting method, auto focus adjusting apparatus, and digital photographing apparatus including the same | |
US8243188B2 (en) | Imaging apparatus | |
JP5760188B2 (en) | Imaging device and camera body | |
US20120307098A1 (en) | Image pickup apparatus and control method therefor | |
US8823863B2 (en) | Image capturing apparatus and control method therefor | |
JP2018031877A (en) | Image pickup device and focus adjusting method | |
JP5418010B2 (en) | Imaging apparatus and tracking method | |
JP6851854B2 (en) | Control method of image processing device, imaging device and image processing device | |
JP6140945B2 (en) | Focus adjustment device and imaging device | |
JP5418180B2 (en) | Digital camera | |
JP2011257450A (en) | Imaging system | |
JP5069076B2 (en) | Imaging apparatus and continuous imaging method | |
JP5446660B2 (en) | Image recognition apparatus and imaging apparatus | |
JP2017005495A (en) | Imaging apparatus, method for controlling the same, and program | |
JP6858065B2 (en) | Imaging device and its control method | |
JP6739248B2 (en) | Imaging device, control method thereof, and program | |
JP2010050527A (en) | Image device | |
JP6997544B2 (en) | Imaging device and its control method, program, storage medium | |
JP2020053756A (en) | Imaging apparatus and control method therefor | |
JP5938269B2 (en) | Imaging apparatus and control method thereof | |
JP7171966B2 (en) | IMAGING DEVICE, CONTROL DEVICE, OPERATION METHOD OF IMAGING DEVICE, AND PROGRAM | |
JP5938268B2 (en) | Imaging apparatus and control method thereof | |
JP2016114721A (en) | Imaging apparatus and method of controlling the same | |
JP2021015162A (en) | Image processing device and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120618 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131022 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5418010 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |