JP2010008507A - Camera - Google Patents
Camera Download PDFInfo
- Publication number
- JP2010008507A JP2010008507A JP2008164868A JP2008164868A JP2010008507A JP 2010008507 A JP2010008507 A JP 2010008507A JP 2008164868 A JP2008164868 A JP 2008164868A JP 2008164868 A JP2008164868 A JP 2008164868A JP 2010008507 A JP2010008507 A JP 2010008507A
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- focus detection
- lens
- distance measurement
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、カメラに関し、特に、デジタルカメラにおけるオートフォーカス(以下、AFと略記する)技術に関する。 The present invention relates to a camera, and more particularly to an autofocus (hereinafter abbreviated as AF) technique in a digital camera.
従来のデジタルカメラにおけるAF技術は、大別してコントラストAF方式とTTL(Through the Lens)位相差AF方式とがある。 Conventional AF techniques in digital cameras are roughly classified into a contrast AF method and a TTL (Through the Lens) phase difference AF method.
一般的に、コンパクトデジタルカメラでは、コントラストAF方式を用いることが多く、焦点調節用のレンズ(フォーカスレンズ)を光軸方向に移動させながら被写体の高周波成分を検出して、コントラストのピーク値を算出することで焦点検出を行う。コントラストAF方式は、焦点検出速度は高速ではないが、高精度の合焦制御が可能という特徴がある。また、撮像素子の出力を利用することにより被写体の顔を検出し、検出した顔にピントを合わせる技術が公知である。 In general, compact digital cameras often use the contrast AF method. The high-frequency component of the subject is detected while moving the focus adjustment lens (focus lens) in the direction of the optical axis, and the peak value of the contrast is calculated. By doing so, focus detection is performed. The contrast AF method has a feature that the focus detection speed is not high, but high-precision focus control is possible. A technique for detecting the face of a subject by using the output of an image sensor and focusing on the detected face is known.
一方で、レンズ交換式デジタル一眼レフカメラのAFには、位相差AF方式が用いられることが多く、高速に焦点検出を行えるという特徴がある。この位相差AF方式は、カメラ本体に焦点位置のズレを検出するためのAFセンサが設けられ、該AFセンサにより検出された焦点ズレ量(デフォーカス量)により、フォーカスレンズの焦点検出を行う。しかし、測距点(AFセンサの素子配置)は、離散的に配置せざるを得ないため、測距点を跨ぐような縦横方向の被写体への追従には難がある。 On the other hand, the phase difference AF method is often used for AF of a lens interchangeable digital single-lens reflex camera, and has a feature that focus detection can be performed at high speed. In this phase difference AF method, an AF sensor for detecting a shift in the focal position is provided in the camera body, and focus detection of the focus lens is performed based on a focus shift amount (defocus amount) detected by the AF sensor. However, since the distance measuring points (element arrangement of the AF sensor) must be discretely arranged, it is difficult to follow the subject in the vertical and horizontal directions across the distance measuring points.
このような問題に鑑み、画面内の縦横方向にも追従可能で、かつ高速なAF技術が求められている。 In view of such a problem, there is a need for a high-speed AF technique that can follow the vertical and horizontal directions in the screen.
このような技術の先行例としては、特許文献1がある。これは撮像素子の出力を用いて顔検出を行い、撮影毎の顔の大きさ、位置によりグルーピングを行い、これに基づき最適な焦点検出エリアを指定するというものである。
上記特許文献1では、撮像素子の出力を用いて顔検出した領域に相当する測距点の測距情報のみを用いて合焦動作を行う。しかしながら、高速に移動する被写体においては、測距時と撮影時で被写体が同じ場所にいるとは限らず、測距した時点のデフォーカス量と撮影時のデフォーカス量には誤差が生じ、追従に問題がある。また、被写体が人物の顔ではない場合についても、顔検出の情報を用いる事ができないため、追従に問題がある。
In
本発明は、上記の点に鑑みてなされたもので、撮影画面内で縦横方向に高速移動する被写体に対して高精度にAF追従可能なカメラを提供することを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to provide a camera capable of AF tracking with high accuracy with respect to a subject that moves at high speed in the vertical and horizontal directions within a shooting screen.
本発明のカメラの一態様は、
被写体からの光束を結像する撮影レンズ群と、
上記撮影レンズ群からの結像光を電気信号に変換する光電変換手段と、
位相差検出方式により上記撮影レンズ群の焦点位置を検出する焦点検出手段と、
上記焦点検出手段により検出された焦点位置に基づき上記撮影レンズ群のフォーカス位置を調整するためのレンズ制御手段と、
撮影光束を複数に分割し、上記光電変換手段と上記焦点検出手段にそれぞれ光束を導く光分割手段と、
上記光電変換手段により生成された信号に基づき移動体を検出する移動体検出手段と、
上記焦点検出手段と上記移動体検出手段のタイミングを制御する制御手段と、
上記焦点検出手段により検出された焦点検出情報と上記移動体検出手段により検出された移動体情報とに基づき、被写体の動き予測を行う予測演算手段と、
を具備することを特徴とする。
One aspect of the camera of the present invention is:
A group of photographic lenses that image the luminous flux from the subject;
Photoelectric conversion means for converting imaging light from the photographing lens group into an electrical signal;
A focus detection means for detecting a focus position of the photographing lens group by a phase difference detection method;
Lens control means for adjusting the focus position of the photographing lens group based on the focus position detected by the focus detection means;
A light splitting means for splitting a photographing light flux into a plurality of parts and directing the light flux to the photoelectric conversion means and the focus detection means;
Moving body detection means for detecting a moving body based on the signal generated by the photoelectric conversion means;
Control means for controlling the timing of the focus detection means and the moving object detection means;
Based on the focus detection information detected by the focus detection means and the mobile body information detected by the mobile body detection means, a prediction calculation means for predicting the motion of the subject,
It is characterized by comprising.
本発明によれば、光電変換手段と位相差検出方式の焦点検出手段とへ常に光分割手段によって撮影光束を導き、検出された焦点検出情報と検出された被写体の位置とに基づく被写体の動き予測を行うことで、撮影画面内で縦横方向に高速移動する被写体に対して高精度にAF追従可能なカメラを提供することができる。 According to the present invention, the photographing light flux is always guided by the light splitting means to the photoelectric conversion means and the phase difference detection type focus detection means, and subject motion prediction based on the detected focus detection information and the detected subject position. By performing the above, it is possible to provide a camera capable of AF tracking with high accuracy with respect to a subject that moves at high speed in the vertical and horizontal directions within the shooting screen.
以下、本発明を実施するための最良の形態を図面を参照して説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
図1は、本発明の一実施形態に係るカメラの構成を示す図である。 FIG. 1 is a diagram showing a configuration of a camera according to an embodiment of the present invention.
このカメラは、レンズ本体10とカメラ本体20とからなる。
This camera includes a lens body 10 and a
レンズ本体10は、カメラ本体20に対して着脱自在に構成された交換レンズとして提供されるもので、撮影光学系101、レンズ制御部102、通信部103、レンズ側接点104、等を備える。
The lens body 10 is provided as an interchangeable lens configured to be detachable from the
ここで、撮影光学系101は、被写体からの光束を結像する撮影レンズ群である。また、レンズ制御部102は、当該レンズ本体10内の各部を制御するレンズ制御手段であり、カメラ本体20からの指令に応じて上記撮影光学系101のフォーカス位置を調整したり、図示しないレンズ位置検出機構によりレンズ位置を測定してレンズパルスとして、通信部103によりカメラ本体20に送信する機能を備える。レンズ側接点104は、当該レンズ本体10がカメラ本体20に装着された状態でカメラ本体20の対応する接点と当接して、電気的に接続された状態となり、通信部103により上記レンズ制御部102とカメラ本体20との通信を可能とするものである。
Here, the photographing optical system 101 is a photographing lens group that forms an image of a light beam from a subject. The
また、カメラ本体20は、薄膜ミラー201、撮像素子202、移動体検出部203、メモリ204、AFセンサ205、焦点検出部206、メモリ207、制御部208、予測演算部209、メモリ210、メインCPU211、通信部212、カメラ側接点213、等を備える。
The
ここで、薄膜ミラー201は、上記撮影光学系101からの撮影光束を複数に分割し、上記撮像素子202とAFセンサ205にそれぞれ光束を導く光分割手段であり、例えば、ペリクルミラー等が使用される。
Here, the thin film mirror 201 is a light splitting unit that splits a photographing light beam from the photographing optical system 101 into a plurality of light beams and guides the light beams to the
撮像素子202は、上記薄膜ミラー201で分割された撮影光学系101からの結像光を電気信号に変換する光電変換手段である。移動体検出部203は、上記撮像素子202により生成された信号に基づき移動体を検出する移動体検出手段であり、検出された移動体情報をメモリ204に記憶する。これら撮像素子202、移動体検出部203及びメモリ204によって移動体検出ブロック214が構成される。
The
AFセンサ205は、上記薄膜ミラー201で分割された撮影光学系101からの光束を複数に分割するセパレータ絞りマスクやセパレータレンズ、それら複数に分割された結像光をそれぞれ電気信号に変換する複数のラインセンサ等を含むAFセンサモジュールである。図2に示すように、このAFセンサの測距点205Aは離散的に配置されている。焦点検出部206は、このAFセンサ205により生成された複数の信号に基づき位相差AF方式により上記撮影光学系101の焦点位置を検出する焦点検出手段であり、その検出された焦点検出情報をメモリ207に記憶する。これらAFセンサ205、焦点検出部206及びメモリ207によって、測距ブロック215が構成される。
The
制御部208は、後述するように、上記移動体検出ブロック214及び測距ブロック215の動作タイミングを制御する制御手段として機能する。予測演算部209は、上記測距ブロック215により検出された焦点検出情報と上記移動体検出ブロック214により検出された移動体情報とに基づき、被写体の動き予測を行う予測演算手段であり、予測結果をメモリ210に記憶する。
As will be described later, the
メインCPU211は、該カメラ本体20内の各部を制御するものである。上記予測演算部209は、該メインCPU211の制御により動作し、上記予測しメモリ210に記憶した被写体の動きに基づいて予測レンズ位置を算出して、通信部212によりレンズ制御部102に伝達することで、その予測レンズ位置にレンズ駆動するように制御する。
The
カメラ側接点213は、上記レンズ本体10が当該カメラ本体20に装着された状態でレンズ本体10のレンズ側接点104と当接して、電気的に接続された状態となり、上記通信部212を介して上記予測演算部209やメインCPU211が上記レンズ本体10内のレンズ制御部102と通信できるようにするものである。
The camera-side contact 213 comes into contact with the lens-side contact 104 of the lens body 10 in a state where the lens body 10 is mounted on the
図3は、上記制御部208による上記測距ブロック215の制御動作のフローチャートを示す図である。制御部208は、メインCPU211から予測演算部209を介して図示しない2段式のレリーズボタンの1段目の操作等に応じた測距開始要求が与えられると、このフローチャートの動作を開始する。
FIG. 3 is a diagram showing a flowchart of the control operation of the
即ち、まず、メインCPU211から予測演算部209を介して上記レリーズボタンの1段目の操作の解除等に応じた測距終了要求、又は、上記レリーズボタンの2段目の操作による撮影要求が与えられたか否かを判別する(ステップS11)。ここで、測距終了要求又は撮影要求が与えられなければ、更に、測距タイミングとなったか否かを判別する(ステップS12)。この測距タイミングとしては、後述するように、メインCPU211から予測演算部209を介して与えられる同期パルスに応じるものとしても良いし、自己タイマで所定周期を計測するものであっても良い。そして、測距タイミングとなっていなければ、上記ステップS11に戻る。
That is, first, the
而して、測距タイミングとなったならば、AFセンサ205の全ての測距点205Aについて蓄積制御(露光)を行う(ステップS13)。その後、AFセンサ205の各測距点のデータを読み出して(ステップS14)、焦点検出部206に与え、各測距点について位相差方式による測距演算即ちデフォーカス量演算を行わせる(ステップS15)。そして、焦点検出部206に、求めた測距データ(測距値、測距間隔、測距結果)をメモリ207に格納させて(ステップS16)、上記ステップS11に戻る。
Thus, when the distance measurement timing comes, accumulation control (exposure) is performed for all
こうして、測距タイミングごとに、測距データを取得して、メモリ207に格納していく。 In this way, distance measurement data is acquired and stored in the memory 207 at each distance measurement timing.
そして、メインCPU211から予測演算部209を介して測距終了要求又は撮影要求が与えられたならば(ステップS11)、このフローチャートの動作を終了する。
If a distance measurement end request or a photographing request is given from the
図4は、上記制御部208による上記移動体検出ブロック214の制御動作のフローチャートを示す図である。制御部208は、上記予測演算部209によって、上記焦点検出部206で測距した複数の測距点205Aの中から測距点が選択されて、移動体検出要求が与えられると、このフローチャートの動作を開始する。
FIG. 4 is a diagram showing a flowchart of the control operation of the moving
即ち、まず、メインCPU211から予測演算部209を介して上記レリーズボタンの1段目の操作の解除等に応じた移動体検出終了要求、又は、上記レリーズボタンの2段目の操作による撮影要求が与えられたか否かを判別する(ステップS31)。ここで、移動体検出終了要求又は撮影要求が与えられなければ、更に、移動体検出タイミングとなったか否かを判別する(ステップS32)。この移動体検出タイミングとしては、後述するように、メインCPU211から予測演算部209を介して与えられる同期パルスに応じるものとしても良いし、自己タイマで所定周期を計測するものであっても良い。そして、移動体検出タイミングとなっていなければ、上記ステップS31に戻る。
That is, first, a moving body detection end request corresponding to the release of the first operation of the release button or the like from the
而して、移動体検出タイミングとなったならば、撮像素子202の露光(イメージャ露光)を行う(ステップS33)。その後、撮像素子202よりイメージャデータを読み出して(ステップS34)、移動体検出部203に与え、移動体検出を行わせる(ステップS35)。そして、移動体検出部203に、求めた移動体検出データ(X位置、Y位置、移動体検出結果)をメモリ204に格納させて(ステップS36)、上記ステップS31に戻る。
Thus, when it is time to detect the moving body, the
こうして、移動体検出タイミングごとに、移動体検出データ(移動体情報)を取得して、メモリ204に格納していく。
In this way, mobile body detection data (mobile body information) is acquired and stored in the
そして、メインCPU211から予測演算部209を介して移動体検出終了要求又は撮影要求が与えられたならば(ステップS31)、このフローチャートの動作を終了する。
Then, if a moving body detection end request or a photographing request is given from the
なお、上記ステップS35で上記移動体検出部203が行う移動体検出の方法には、下記のように様々な公知技術がある。
Note that there are various known techniques for the moving object detection method performed by the moving
(A)差分画像を用いた移動体検出
(1)背景差分法…移動体が存在しない背景画像と、移動体が存在する画像の差分を取ることで移動体を検出する。背景のみの画像が存在しないと成り立たない。
(A) Moving object detection using difference image
(1) Background subtraction method: A moving object is detected by taking a difference between a background image in which no moving object exists and an image in which a moving object exists. It does not hold if there is no background-only image.
(2)フレーム間差分法…3枚の画像を用いる。1〜2枚目の差分画像、2〜3枚目の差分画像を生成し、生成された2枚の画像の論理積処理(AND)を行うことで2枚目の画像の移動体検出を行う。背景のみの画像が存在しなくてもよいが、背景で微小に移動する物体(樹木など)も検出してしまう可能性がある。 (2) Interframe difference method: Three images are used. The first and second difference images and the second and third difference images are generated, and the moving object detection of the second image is performed by performing a logical product process (AND) of the generated two images. . Although an image of only the background may not exist, an object (such as a tree) that moves minutely in the background may be detected.
(3)統計的背景差分法…ベイズ定理利用。背景のみの画像が存在する必要あり。 (3) Statistical background difference method: Use Bayes' theorem. There must be a background-only image.
(B)オプティカルフローを用いた移動体検出
(1)ブロックマッチング…テンプレートマッチングを用いて対象領域(テンプレート)との差分が最も少ない点を探索。対象物の回転運動、拡大縮小などのロバスト性は高いが、画像間で移動体の移動量が大きい場合は、処理時間が長くなる。
(B) Moving object detection using optical flow
(1) Block matching: Search for a point with the smallest difference from the target region (template) using template matching. The robustness such as the rotational movement and enlargement / reduction of the object is high, but the processing time becomes long when the moving amount of the moving body is large between images.
(2)勾配法…「画像間で移動体の移動量が小さい」、「物体内の動きは滑らかに変化する」という前提条件の下で成立。全エリアの検索を行わないため処理が高速だが拘束条件が成立しない場合は、フローの精度が劣化する。 (2) Gradient method: This is established under the preconditions that “the moving amount of the moving body is small between images” and “the movement in the object changes smoothly”. If all the areas are not searched, the processing speed is high, but if the constraint condition is not satisfied, the flow accuracy deteriorates.
以上の移動体検出の方法から考えると、デジタルカメラで撮影する画像は手持ちであることから、背景の像ブレ、撮影者の手ぶれによる影響があり、移動体検出は、上記のうち、ブロックマッチングもしくは勾配法が適している。しかし、精度、処理時間について相違点があるため、高速移動物体については処理時間の早い勾配法、低速移動物体については勾配法、などといったように撮影状況によって両者を使い分けることを行ってもよい。ブロックマッチングと勾配法による位置検出について下記に詳細を記す。 Considering the above moving object detection method, since the image captured by the digital camera is hand-held, there is an influence due to background image blurring and camera shake of the photographer. The gradient method is suitable. However, since there is a difference in accuracy and processing time, the gradient method with a fast processing time for a high-speed moving object, the gradient method for a low-speed moving object, or the like may be used depending on the shooting situation. Details of position detection by block matching and gradient method are described below.
まず、ブロックマッチングについて説明する。
基準となる領域の画素値をI(x,y)とし、次フレーム画像の画素値をT(x,y)とすると、以下の式(1)により2画像間の類似度SSD(Sum of Squared Difference)を求める。
Assuming that the pixel value of the reference region is I (x, y) and the pixel value of the next frame image is T (x, y), the similarity SSD (Sum of Squared) between the two images is given by the following equation (1). Find the difference.
ここで基準となるテンプレートの大きさをM*N、テンプレートの位置(i,j)における画素値をT(i,j)、テンプレートと重ね合わせた対象画像の画素値をI(i,j)とする。 Here, the size of the reference template is M * N, the pixel value at the template position (i, j) is T (i, j), and the pixel value of the target image superimposed on the template is I (i, j). And
Rssdはテンプレートと完全に一致した場合に値が0となるが、実際にはノイズや被写体輝度の変化などから0にはなることはほとんどない。対象画像の検索エリア内で最小のRssdとなった位置が、次フレーム画像においてテンプレート(対象被写体)が移動した位置であるといえる。この位置を最新の位置として、X位置、Y位置を格納していく。テンプレートの大きさM*Nによって演算速度、検出精度(エリア)などが変わることになるため、速度優先、精度優先(検出エリア)によってカメラモードでテンプレートの大きさ、対象画像の検索エリアの大きさを切り替えても良い。 The value of Rssd becomes 0 when it completely matches the template, but in reality, it hardly becomes 0 due to changes in noise or subject brightness. It can be said that the position where the minimum Rssd within the search area of the target image is the position where the template (target subject) has moved in the next frame image. With this position as the latest position, the X position and the Y position are stored. Since the calculation speed, detection accuracy (area), and the like vary depending on the template size M * N, the size of the template and the size of the search area for the target image in the camera mode depend on the speed priority and accuracy priority (detection area). May be switched.
次に、勾配法について説明する。
注目画素(x,y)における画素値をI(x,y)とした時、時間Δt後の間に画素が(Δx,Δy)移動したとする。この画素の画素値は変化しないと期待できることから、以下の式(2)が成り立つ。
Next, the gradient method will be described.
When the pixel value at the target pixel (x, y) is I (x, y), it is assumed that the pixel has moved (Δx, Δy) after the time Δt. Since it can be expected that the pixel value of this pixel does not change, the following equation (2) is established.
I(x,y)=I(x+Δx,y+Δy,t+Δt) …(2)
次に、画素値が滑らかに変化していると仮定し、上記式(2)の右辺をテイラー展開し2次の項以降を小さいものとして無視すると、以下の式(3)が得られる。
Next, assuming that the pixel value is changing smoothly, if the right side of the above equation (2) is Taylor expanded and the second and subsequent terms are ignored as small, the following equation (3) is obtained.
上記式(3)の両辺をΔtで割り整理すると、以下の式(4)のようになる。
微小な時間で僅かな移動量であることから、以下の式(5)となる。
ここで、画素の移動量(オプティカルフロー)を以下の式(6)とする。
そして、画素値の勾配をIx,Iyとし、画素値の時間微分をItとすると、以下の式(7)が得られる。 Then, assuming that the gradient of the pixel value is Ix, Iy and the time differentiation of the pixel value is It, the following equation (7) is obtained.
Ix・u+Iy・v+It=0 …(7)
これをオプティカルフローの拘束条件式とする。
Ix · u + Iy · v + It = 0 (7)
This is an optical flow constraint condition formula.
この式(7)において、未知数はu,vの2つであり、このままでは解が求められない。 In this equation (7), there are two unknowns, u and v, and a solution cannot be obtained as it is.
このため、注目画素の近傍で動きは滑らかであるという仮定で、近傍で複数の画素から同一のオプティカルフローを得る。これらにより注目画素近傍の画素から複数のオプティカルフローが得られ、即ち複数の拘束条件式が得られ、最適な(u,v)が得られる。こうして(u,v)が得られたならは、これを用いて、以下のように最新のX位置、Y位置を算出し格納していく。 For this reason, the same optical flow is obtained from a plurality of pixels in the vicinity on the assumption that the movement is smooth in the vicinity of the target pixel. As a result, a plurality of optical flows are obtained from the pixels in the vicinity of the target pixel, that is, a plurality of constraint conditions are obtained, and the optimum (u, v) is obtained. If (u, v) is obtained in this way, the latest X position and Y position are calculated and stored using this as follows.
X位置=I(x)+u・t
Y位置=I(y)+v・t
図5A及び図5Bは、上記予測演算部209の予測演算動作の一連のフローチャートを示す図である。予測演算部209は、不図示レリーズボタンの1段目の操作等に応じてメインCPU211から予測演算要求が与えられると、このフローチャートの動作を開始する。
X position = I (x) + u · t
Y position = I (y) + v · t
5A and 5B are diagrams illustrating a series of flowcharts of the prediction calculation operation of the
即ち、まず、メインCPU211から上記レリーズボタンの1段目の操作の解除等に応じた予測演算終了要求、又は、上記レリーズボタンの2段目の操作による撮影要求が与えられたか否かを判別する(ステップS41)。ここで、予測演算終了要求又は撮影要求が与えられなければ、更に、内部に構成した又はメモリ210の一部を使用する移動体追従フラグがオンとなっているか否かを判別する(ステップS42)。
That is, first, it is determined whether or not a prediction calculation end request corresponding to the release of the first operation of the release button or a shooting request by the second operation of the release button has been given from the
この移動体追従フラグは、初期状態ではオフとなっている。従って、最初は、移動体追従フラグはオフとなっていると判断される。この場合には、上記測距ブロック215での測距動作で取得してメモリ207に格納した測距値を上記焦点検出部206を介して読み出し、その測距値に基づいて、AF信頼性の高い測距点あるいは最至近の測距点等の既知の測距点選択法により、図2に示したような複数の測距点205Aから予測演算に使用する測距点を選択する(ステップS43)。
This moving body follow-up flag is off in the initial state. Therefore, at first, it is determined that the moving body follow-up flag is off. In this case, the distance measurement value acquired by the distance measurement operation in the
その後、上記移動体検出ブロック214での移動体検出動作で検出してメモリ204に格納した移動体検出データを、上記移動体検出部203を介して読み出し、その移動体検出データに基づいて、上記選択した測距点に移動体領域が存在するか否かを判別する(ステップS44)。
Thereafter, the moving object detection data detected by the moving object detection operation in the moving
ここで、上記選択した測距点に移動体領域が存在しない場合には、更に、上記ステップS43で選択した測距点が、前回選択した測距点と同じであるか否かを判別する(ステップS45)。なお、最初は前回の選択測距点自体が存在しないので当然、同じではないと判断することとなる。このように、今回の選択測距点と前回の測距点が異なる場合には、上記ステップS43で選択した測距点の測距値(デフォーカス量)に基づいて予測レンズ位置を算出して(ステップS46)、上記ステップS41に戻る。こうして算出された予測レンズ位置は、通信部212によりカメラ側接点213及びレンズ側接点104を介してレンズ本体10の通信部103に送信され、通信部103からレンズ制御部102に送られて、その予測レンズ位置への撮影光学系101の駆動が行われることとなる。
Here, if there is no moving object region at the selected distance measuring point, it is further determined whether or not the distance measuring point selected in step S43 is the same as the previously selected distance measuring point ( Step S45). Note that since the previous selected distance measuring point itself does not exist, it is naturally determined that they are not the same. As described above, when the current selected distance measuring point is different from the previous distance measuring point, the predicted lens position is calculated based on the distance value (defocus amount) of the distance measuring point selected in step S43. (Step S46), the process returns to step S41. The predicted lens position calculated in this way is transmitted by the
また、上記ステップS45において、今回の選択測距点と前回の測距点が同じであると判定した場合には、測距予測関数演算を実施する(ステップS47)。そして、上記ステップS43で選択した測距点の測距予測関数から予測レンズ位置を算出して(ステップS48)、上記ステップS41に戻る。 If it is determined in step S45 that the current selected distance measurement point and the previous distance measurement point are the same, a distance measurement prediction function calculation is performed (step S47). Then, the predicted lens position is calculated from the distance measurement prediction function of the distance measurement point selected in step S43 (step S48), and the process returns to step S41.
図6(A)は、上記ステップS47の測距予測関数演算の動作フローチャートを示す図であり、これを全測距点205Aについて行う。 FIG. 6A is a diagram showing an operation flowchart of the distance measurement prediction function calculation in step S47, which is performed for all distance measurement points 205A.
即ち、まず、測距予測関数演算に用いる測距値関連データを決定して、メモリ210に格納する(ステップS471)。これは、測距結果がOK(AF可能)となったデータの内、最新から過去に遡りα個分を決定し格納するものである。なお、αは、予測精度や演算速度を加味して設定する。次に、最新測距の露光重心時間を基準として、測距値、測距間隔、レンズ位置から2次の予測関数を演算して(ステップS472)、演算した測距予測関数の係数(Ad/Bd/Cd)をメモリ210に格納する(ステップS473)。 That is, first, the distance value related data used for the distance prediction function calculation is determined and stored in the memory 210 (step S471). This is to determine and store α data retroactively from the latest among the data in which the distance measurement result is OK (AF possible). Α is set in consideration of prediction accuracy and calculation speed. Next, a secondary prediction function is calculated from the distance measurement value, distance measurement interval, and lens position using the exposure center-of-gravity time of the latest distance measurement as a reference (step S472), and the coefficient (Ad / Bd / Cd) is stored in the memory 210 (step S473).
この測距予測関数演算について、図7を参照して説明する。図7において、黒丸は測距の際のAFセンサ205の露光時(露光重心(露光時間Tの1/2)時)のレンズ位置を示し、その近傍に記載したDef[area][i−3].ldpls、Def[area][i−2].ldpls、Def[area][i−1].ldpls、Def[area][i].ldplsがそれらレンズ位置の値である。ここで、[area]は測距点205Aを、[i−3]、[i−2]、[i−1]、[i]は時系列を、それぞれ表す変数である。また、g_base_time_afは最新測距の露光重心時間を示しており、nowtimeが現在時である。測距は、図3を参照して前述したように、露光、読み出し、測距値演算(デフォーカス量演算)を順次行うものであり、測距予測関数演算はその後に行われる。レンズ駆動は、1回目の動体予測関数演算後に開始される。また、Dt(n)はn+1回目の測距時の時間である。
This distance measurement prediction function calculation will be described with reference to FIG. In FIG. 7, a black circle indicates the lens position at the time of exposure of the
白丸は理想像面のレンズ位置であり、L(n)はそのレンズ位置の値である。これら理想像面のレンズ位置は以下のように求められる。
L0 = Def[area][i-3].ldpls + Def[area][i-3].Def * テ゛フォーカスレンス゛位置変換係数
L1 = Def[area][i-2].ldpls + Def[area][i-2].Def * テ゛フォーカスレンス゛位置変換係数
L2 = Def[area][i-1].ldpls + Def[area][i-1].Def * テ゛フォーカスレンス゛位置変換係数
L3 = Def[area][i-0].ldpls + Def[area][i-0].Def * テ゛フォーカスレンス゛位置変換係数
ここで、Def[area][i−0].Defが測距によって取得された測距値(デフォーカス量)である。また、デフォーカスレンズ位置変換係数は、例えば、デフォーカス量30μmをレンズパルスの5パルスとするというような、撮影光学系101のズーム状態によって変化する係数である。このデフォーカスレンズ位置変換係数は、通信によりレンズ制御部102から予め取得することができる。
A white circle is a lens position of the ideal image plane, and L (n) is a value of the lens position. The lens positions of these ideal image planes are obtained as follows.
L0 = Def [area] [i-3] .ldpls + Def [area] [i-3] .Def * Defocus lens position conversion factor
L1 = Def [area] [i-2] .ldpls + Def [area] [i-2] .Def * Defocus lens position conversion factor
L2 = Def [area] [i-1] .ldpls + Def [area] [i-1] .Def * Defocus lens position conversion factor
L3 = Def [area] [i-0] .ldpls + Def [area] [i-0] .Def * Defocus lens position conversion coefficient Here, Def [area] [i-0]. Def is a distance measurement value (defocus amount) acquired by distance measurement. The defocus lens position conversion coefficient is a coefficient that varies depending on the zoom state of the photographing optical system 101, for example, a defocus amount of 30 μm is set to five lens pulses. The defocus lens position conversion coefficient can be acquired in advance from the
上記ステップS471において、α=4とすれば、レンズ位置Def[area][i−3].ldpls〜Def[area][i−0].ldpls、測距値Def[area][i−3].Def〜Def[area][i−0].Def、露光重心時間T0〜T3をメモリ210に格納し、上記ステップS472において、それら格納したデータに基づいて上記のように理想像面のレンズ位置L0〜L3を求め、それら理想像面のレンズ位置L0〜L3と各測距の露光重心時間T0〜T3とから最小二乗法又はラグランジェ補間などにて2次近似式にて予測関数を演算する。そして、上記ステップS473において、その2次近似式の係数(2次/1次/0次)を、上記測距予測関数の係数(Ad/Bd/Cd)としてメモリ210に格納する。
If α = 4 in step S471, the lens position Def [area] [i-3]. ldpls to Def [area] [i-0]. ldpls, ranging value Def [area] [i-3]. Def-Def [area] [i-0]. Def and exposure center-of-gravity times T0 to T3 are stored in the
而して、上記ステップS48では、このメモリ210に格納した係数(Ad/Bd/Cd)より、目標時間Ttにおける目標位置である予測レンズ位置Ltは、
Lt=Ad*Tt2+Bd*Tt1+Cd
により求められるので、この場合の目標時間T4における予測レンズ位置L4は、
L4=Ad*T42+Bd*T41+Cd
により算出することができる。こうして算出された予測レンズ位置は、通信部212によりカメラ側接点213及びレンズ側接点104を介してレンズ本体10の通信部103に送信され、通信部103からレンズ制御部102に送られて、その予測レンズ位置への撮影光学系101の駆動が行われることとなる。
Thus, in step S48, from the coefficient (Ad / Bd / Cd) stored in the
Lt = Ad * Tt 2 + Bd * Tt 1 + Cd
Therefore, the predicted lens position L4 at the target time T4 in this case is
L4 = Ad * T4 2 + Bd * T4 1 + Cd
Can be calculated. The predicted lens position calculated in this way is transmitted by the
一方、上記ステップS44において、上記選択した測距点に移動体領域が存在すると判別した場合には、上記移動体検出フラグをオンにする(ステップS49)。そして、上記ステップS43で選択した測距点の測距値(デフォーカス量)に基づいて予測レンズ位置を算出して(ステップS50)、上記ステップS41に戻る。その算出された予測レンズ位置は、通信部212によりカメラ側接点213及びレンズ側接点104を介してレンズ本体10の通信部103に送信され、通信部103からレンズ制御部102に送られて、その予測レンズ位置への撮影光学系101の駆動が行われることとなる。
On the other hand, if it is determined in step S44 that a moving body region exists at the selected distance measuring point, the moving body detection flag is turned on (step S49). Then, the predicted lens position is calculated based on the distance measurement value (defocus amount) of the distance measurement point selected in step S43 (step S50), and the process returns to step S41. The calculated predicted lens position is transmitted to the communication unit 103 of the lens body 10 via the camera side contact 213 and the lens side contact 104 by the
また、上記ステップS42において、移動体追従フラグがオンとなっていると判別した場合には、上記ステップS47と同様の測距予測関数演算を実施する(ステップS51)。但し、このステップS51の測距予測関数演算では、測距データが更新されていない場合には、何も処理を行わない。そして、この測距予測関数演算の後、更に、移動体検出予測関数演算を実施し(ステップS52)、その演算した移動体検出予測関数から目標時刻における目標移動体位置(X位置Xf_dest、Y位置Yf_dest)を演算する(ステップS53)。 If it is determined in step S42 that the moving body follow-up flag is on, the same distance measurement prediction function calculation as in step S47 is performed (step S51). However, in the distance measurement prediction function calculation in step S51, if the distance measurement data has not been updated, no processing is performed. After the distance measurement prediction function calculation, further, a mobile object detection prediction function calculation is performed (step S52), and the target mobile object position (X position Xf_dest, Y position) at the target time is calculated from the calculated mobile object detection prediction function. Yf_dest) is calculated (step S53).
図6(B)は、上記ステップS52の移動体検出予測関数演算の動作フローチャートを示す図である。 FIG. 6B is a diagram showing an operation flowchart of the mobile object detection prediction function calculation in step S52.
即ち、まず、移動体検出予測関数演算に用いる移動体検出関連データを決定して、メモリ210に格納する(ステップS521)。これは、移動体検出されたデータの内、最新から過去に遡りβ個分を決定し格納するものである。なお、βは、予測精度や演算速度を加味して設定する。次に、最新移動体検出の露光重心時間を基準として、X位置、Y位置、露光間隔から2次の予測関数を演算する(ステップS522)。ここで、この移動体検出の予測関数演算は、X位置/Y位置の計2パターンについて行う。そして、演算した移動体検出予測関数の係数(X位置:Am_x/Bm_x/Cm_x、Y位置:Am_y/Bm_y/Cm_y)をメモリ210に格納する(ステップS523)。 That is, first, the mobile body detection related data used for the mobile body detection prediction function calculation is determined and stored in the memory 210 (step S521). This is to determine and store β pieces of data detected from the moving object from the latest to the past. Note that β is set in consideration of prediction accuracy and calculation speed. Next, a secondary prediction function is calculated from the X position, the Y position, and the exposure interval with reference to the exposure center-of-gravity time of the latest moving body detection (step S522). Here, the prediction function calculation for detecting the moving body is performed for a total of two patterns of X position / Y position. And the coefficient (X position: Am_x / Bm_x / Cm_x, Y position: Am_y / Bm_y / Cm_y) of the calculated mobile body detection prediction function is stored in the memory 210 (step S523).
なお、移動体検出結果が複数個の場合、つまり1回の露光で画面内に複数の移動体が検出された場合には、各々について移動体検出予測関数演算を行うものとする。また、前後露光時で検出されたX位置/Y位置が最も近い移動体を同一移動体とみなして、予測演算を行う。 When there are a plurality of moving object detection results, that is, when a plurality of moving objects are detected in the screen by one exposure, the moving object detection prediction function is calculated for each. Further, the prediction calculation is performed by regarding the moving body having the closest X position / Y position detected during the front-back exposure as the same moving body.
この移動体検出予測関数演算について、図8を参照して説明する。図8において、白丸X(n)は移動体検出の際の撮像素子202の露光時(露光重心時)の移動体のX位置を、白三角Y(n)は同じくY位置を、それぞれ示している。ここで、移動体のX位置及びY位置とは、図9(A)に示すように、移動体領域の中心のxy座標(x,y)である。また、xy座標の原点は、図9(B)に示すように、カメラ本体20を横位置に構えた際の画面左上とする。図9(B)の移動体検出タイミングT0〜T3は、図8のそれと対応している。なお、1回目の移動体検出((T0)露光時)は、位相差方式による測距点選択相当位置における撮像素子出力の画素エリア(テンプレート)を設定する。
This moving object detection prediction function calculation will be described with reference to FIG. In FIG. 8, the white circle X (n) indicates the X position of the moving body when the
移動体検出は、図4を参照して前述したように、露光、読み出し、移動体検出演算を順次行うものであり、移動体検出予測関数演算はその後に行われる。なお、図8中のFt(n)はn+1回目の移動体検出における露光重心時間である。 As described above with reference to FIG. 4, the moving body detection is performed by sequentially performing exposure, reading, and moving body detection calculation, and the moving body detection prediction function calculation is performed thereafter. Note that Ft (n) in FIG. 8 is the exposure centroid time in the (n + 1) th moving object detection.
上記ステップS521において、β=4とすれば、移動体検出のX位置X(0)〜X(3)及びY位置Y(0)〜Y(3)と、露光重心時間T0〜T3をメモリ210に格納し、上記ステップS522において、それら格納したデータから、X位置及びY位置のそれぞれについて、最小二乗法又はラグランジェ補間などにて2次近似式にて予測関数を演算する。そして、上記ステップS523において、それらの2次近似式の係数(2次/1次/0次)を、上記移動体検出予測関数の係数(X位置:Am_x/Bm_x/Cm_x、Y位置:Am_y/Bm_y/Cm_y)としてメモリ210に格納する。
In the above step S521, if β = 4, the X position X (0) to X (3) and Y position Y (0) to Y (3) of the moving body detection and the exposure gravity center time T0 to T3 are stored in the
而して、上記ステップS53では、このメモリ210に格納した係数(X位置:Am_x/Bm_x/Cm_x、Y位置:Am_y/Bm_y/Cm_y)より、現在の目標時間Ttの移動体の予測X位置Xm_dest及び予測Y位置Ym_destは、それぞれ、
Xm_dest=Am_x*Tt2+Bm_x*Tt1+Cm_x
Ym_dest=Am_y*Tt2+Bm_y*Tt1+Cm_y
により算出することができる。従って、例えば、現在の目標時間をT4とすれば、移動体の予測X位置Xm_dest(図8中に黒丸で示す)及び予測Y位置Ym_dest(図8中に黒三角で示す)は、それぞれ、
Xm_dest=Am_x*T42+Bm_x*T41+Cm_x
Ym_dest=Am_y*T42+Bm_y*T41+Cm_y
により算出することができる。
Thus, in step S53, the predicted X position Xm_dest of the moving body at the current target time Tt is calculated from the coefficients (X position: Am_x / Bm_x / Cm_x, Y position: Am_y / Bm_y / Cm_y) stored in the
Xm_dest = Am_x * Tt 2 + Bm_x * Tt 1 + Cm_x
Ym_dest = Am_y * Tt 2 + Bm_y * Tt 1 + Cm_y
Can be calculated. Thus, for example, if the current target time is T4, the predicted X position Xm_dest (indicated by a black circle in FIG. 8) and the predicted Y position Ym_dest (indicated by a black triangle in FIG. 8) of the moving body are respectively
Xm_dest = Am_x * T4 2 + Bm_x * T4 1 + Cm_x
Ym_dest = Am_y * T4 2 + Bm_y * T4 1 + Cm_y
Can be calculated.
以上のようにして移動体検出予測関数から現在の目標移動体位置を演算したならば、次に、その演算した目標の移動体のX位置及びY位置、また移動量が閾値以下であるか否かを判別する(ステップS54)。ここで、閾値を越える場合は、追従している移動体が想定以上の速度で移動した、もしくは移動体検出が誤検出されたなどが考えられるため、その演算結果は使用しないことが好ましい。そこで、上記移動体追従フラグをオフにして(ステップS55)、AF信頼性の高い測距点あるいは最至近の測距点等の既知の測距点選択法により、測距点を再選択する(ステップS56)。そして、その再選択した測距点の測距値(デフォーカス量)に基づいて予測レンズ位置を算出して(ステップS57)、上記ステップS41に戻る。こうして算出された予測レンズ位置は、通信部212によりカメラ側接点213及びレンズ側接点104を介してレンズ本体10の通信部103に送信され、通信部103からレンズ制御部102に送られて、その予測レンズ位置への撮影光学系101の駆動が行われることとなる。
If the current target moving object position is calculated from the moving object detection prediction function as described above, then the calculated X position and Y position of the target moving object, and whether the movement amount is equal to or less than the threshold value. Is determined (step S54). Here, when the threshold value is exceeded, it is considered that the following moving body has moved at a speed higher than expected or the moving body detection is erroneously detected. Therefore, it is preferable not to use the calculation result. Therefore, the moving body follow-up flag is turned off (step S55), and a distance measuring point is reselected by a known distance measuring point selection method such as a distance measuring point with high AF reliability or the closest distance measuring point ( Step S56). Then, a predicted lens position is calculated based on the distance measurement value (defocus amount) of the reselected distance measurement point (step S57), and the process returns to step S41. The predicted lens position calculated in this way is transmitted by the
これに対して、上記ステップS54において上記演算した目標の移動体のX位置及びY位置、また移動量が閾値以下であると判別した場合には、更に、現在の検出された移動体位置に相当する測距点の測距値は信頼性が有るか否かを判別する(ステップS58)。ここで、その測距点の測距値に信頼性が無いと判別した場合には、上記ステップS55に進む。 On the other hand, if it is determined in step S54 that the calculated X and Y positions of the target moving body and the amount of movement are equal to or less than the threshold value, this corresponds to the current detected moving body position. It is determined whether or not the range-finding value of the range-finding point is reliable (step S58). If it is determined that the distance measurement value at the distance measurement point is not reliable, the process proceeds to step S55.
また、信頼性も有ると判別したならば、上記ステップS53で算出した目標移動体位置(追従移動体位置)に相当する測距点205Aを再選択して(ステップS59)、移動体追従予測関数演算を実施する(ステップS60)。そして、演算した移動体追従予測関数から予測レンズ位置を算出して(ステップS61)、上記ステップS41に戻る。
If it is determined that there is also reliability, the
図10は、上記ステップS60の移動体追従予測関数演算の動作フローチャートを示す図であり、この動作を上記再選択した測距点について行う。 FIG. 10 is a diagram showing an operation flowchart of the mobile object follow-up prediction function calculation in step S60, and this operation is performed for the reselected distance measuring point.
即ち、まず、移動体追従予測関数演算に用いる測距値関連データを決定して、メモリ210に格納する(ステップS601)。これは、測距結果がOK(AF可能)となったデータの内、最新から過去に遡りα個分を決定し格納するものである。この場合、移動体追従のため、測距点205Aを跨ぐ可能性がある。次に、最新測距の露光重心時間を基準として、測距値、測距間隔、レンズ位置から2次の予測関数を演算して(ステップS602)、演算した移動体追従予測関数の係数(Add/Bdd/Cdd)をメモリ210に格納する(ステップS603)。
That is, first, distance measurement value-related data used for the mobile object follow-up prediction function calculation is determined and stored in the memory 210 (step S601). This is to determine and store α data retroactively from the latest among the data in which the distance measurement result is OK (AF possible). In this case, there is a possibility of straddling the
この移動体追従予測関数演算については、上記測距予測関数演算と同様の動作であるので、その説明は省略する。 Since this mobile object follow-up prediction function calculation is the same operation as the distance measurement prediction function calculation, description thereof will be omitted.
而して、上記ステップS61では、このメモリ210に格納した係数(Add/Bdd/Cdd)より、目標時間Ttにおける目標位置である予測レンズ位置Ltを、
Lt=Add*Tt2+Bdd*Tt1+Cdd
により算出する。従って、例えば目標時間をT4とすれば、予測レンズ位置L4は、
L4=Add*T42+Bdd*T41+Cdd
と算出することができる。こうして算出された予測レンズ位置は、通信部212によりカメラ側接点213及びレンズ側接点104を介してレンズ本体10の通信部103に送信され、通信部103からレンズ制御部102に送られて、その予測レンズ位置への撮影光学系101の駆動が行われることとなる。
Thus, in step S61, the predicted lens position Lt, which is the target position at the target time Tt, is calculated from the coefficient (Add / Bdd / Cdd) stored in the
Lt = Add * Tt 2 + Bdd * Tt 1 + Cdd
Calculated by Therefore, for example, if the target time is T4, the predicted lens position L4 is
L4 = Add * T4 2 + Bdd * T4 1 + Cdd
Can be calculated. The predicted lens position calculated in this way is transmitted by the
ここで、例えば、各測距点205Aを図11(A)に示すようにXY座標で表すとすれば、同図に丸で囲って示す測距点205Aは(6,3)となり、その時刻をtとすれば、時刻と座標を合わせて(t,6,3)と記すものとする。このようにした場合、移動体追従予測における測距位置と移動体検出位置との関係は、図11(B)に示すようになる。この図11(B)において、破線の四角は移動体検出位置を、黒四角の測距点が移動体検出位置に相当する測距位置を、二重線の四角が予測される移動体検出位置を、それぞれ示している。
Here, for example, if each
図11(B)の例の場合には、上記ステップS52での移動体検出予測関数演算に従って上記ステップS53で現在の目標時間、例えばT4における予測される移動体検出位置が求められ、上記ステップS59で座標(7,3)の測距点205Aが再選択される。そして、上記ステップS60で、移動体検出位置に一致した測距点の測距値((T1,2,1)、(T2,3,1)及び(T3,5,2))を用いて移動体追従予測関数演算が行われ、上記ステップS61において測距値が予測されて予測レンズ位置L4が算出されることなる。
In the case of the example of FIG. 11B, the current target time, for example, the predicted moving body detection position at T4, is obtained in step S53 in accordance with the moving body detection prediction function calculation in step S52, and the above step S59. Thus, the
なお、上述したように、上記測距ブロック215と上記移動体検出ブロック214とは、同期又は非同期のタイミングにおいて各々動作する。
As described above, the ranging
図12は、上記測距ブロック215の露光タイミングと上記移動体検出ブロック214の露光タイミングを同期して各々動作を行う場合の、測距予測関数演算、移動体検出予測関数演算、移動体追従予測関数演算のタイミングを示す図である。
FIG. 12 shows a distance prediction function calculation, a mobile object detection prediction function calculation, and a mobile object tracking prediction when the operations are performed in synchronization with the exposure timing of the
同図に示すように、測距動作の露光と移動体検出の露光は、メインCPU211から同期パルスに応じて、予測演算部209が、制御部208によって両露光動作を開始させることで、開始される。Dt(n)、Ft(n)はそれぞれの露光重心時間を示す。また、Def(n)は測距データ、F(n)は演算された移動体検出予測関数を示す。
As shown in the figure, the exposure of the distance measurement operation and the exposure of the moving object detection are started by the
この場合、測距に必要な所要時間と移動体検出に必要な所要時間とが異なるので、予測演算部209による移動体追従予測関数演算の開始時間Bt(n)は、長い方の所要時間である移動体検出の終了に合わせて、移動体検出予測関数演算の終了後としている。
In this case, since the time required for ranging and the time required for moving object detection are different, the start time Bt (n) of the mobile object follow-up prediction function calculation by the
この移動体追従予測関数演算は、最初の移動体追従予測関数Dest(0)を算出する際には、まだα個のデータが揃っていないので、測距データD(0)のみを用いた演算となる。次の移動体追従予測関数Dest(1)を算出する際も、まだα個のデータが揃っていないので、測距データD(1),D(0)、測距の露光重心時間Dt(1),Dt(0)、移動体検出予測関数F(1),F(0)、移動体検出の露光重心時間Ft(1),Ft(0)、及び目標時間Tt(2)を用いた演算となる。そして、m+1回目の移動体追従予測関数Dest(m)を算出する際には、既にα個のデータが揃っているので、測距データD(m)〜D(m−α)、測距の露光重心時間Dt(m)〜Dt(m−α)、移動体検出予測関数F(m)〜F(m−α)、移動体検出の露光重心時間Ft(m)〜Ft(m−α)、及び目標時間Tt(m+1)を用いた演算となる。なお、目標時間Tt(m+1)は、次の同期パルスのタイミングである。 In this mobile object follow-up prediction function calculation, when the first mobile object follow-up prediction function Dest (0) is calculated, since α pieces of data are not yet prepared, the calculation using only the distance measurement data D (0) is performed. It becomes. When calculating the next moving body follow-up prediction function Dest (1), since α data are not yet prepared, the distance measurement data D (1), D (0), and the distance-exposure center-of-gravity time Dt (1) ), Dt (0), moving body detection prediction functions F (1), F (0), exposure center-of-gravity times Ft (1), Ft (0), and target time Tt (2) for moving body detection. It becomes. Then, when calculating the m + 1th moving object follow-up prediction function Dest (m), since α data are already prepared, the distance measurement data D (m) to D (m−α), the distance measurement data Exposure center of gravity time Dt (m) to Dt (m-α), moving body detection prediction function F (m) to F (m-α), exposure center of gravity time Ft (m) to Ft (m−α) for moving body detection , And the target time Tt (m + 1). The target time Tt (m + 1) is the timing of the next synchronization pulse.
そして、図11に示すように、撮影要求がなされると、撮影処理が開始される。但しこの場合、図5A及び図5Bの予測演算動作の一連のフローチャートに示したように、予測レンズ位置の算出が行ってレンズを予測位置に駆動するようにしてから予測演算動作を終了するので、図11に示すように、m+2回目の移動体追従予測関数Dest(m+1)の算出を行うようになっている。 Then, as shown in FIG. 11, when a shooting request is made, the shooting process is started. However, in this case, as shown in the series of flowcharts of the prediction calculation operation in FIG. 5A and FIG. 5B, the calculation of the predicted lens position is performed and the lens is driven to the predicted position. As shown in FIG. 11, the m + 2th moving object follow-up prediction function Dest (m + 1) is calculated.
一方、図13は、上記測距ブロック215の露光タイミングと上記移動体検出ブロック214の露光タイミングを非同期で各々動作を行う場合の、測距予測関数演算、移動体検出予測関数演算、移動体追従予測関数演算のタイミングを示す図である。
On the other hand, FIG. 13 shows a distance measurement prediction function calculation, a mobile object detection prediction function calculation, and a mobile object tracking when the exposure timing of the
この場合には、上記測距ブロック215の露光は所定の第1の間隔で周期的に行われ、また、上記移動体検出ブロック214の露光は所定の第2の間隔で周期的に行われる。移動体追従予測関数演算は、測距予測関数演算の終了に合わせて行う。
In this case, the exposure of the
また、測距予測関数演算の回数と移動体検出予測関数演算の回数とは一致しない。例えば、m+1回目の移動体追従予測関数Dest(m)を算出する際には、測距データD(m)〜D(m−α)、測距の露光重心時間Dt(m)〜Dt(m−α)、移動体検出予測関数F(k)〜F(k−α)、移動体検出の露光重心時間Ft(k)〜Ft(k−α)、及び目標時間Tt(m+1)を用いた演算となる。なお、目標時間Tt(m+1)は、次の測距ブロック215の露光タイミングである。
Also, the number of distance measurement prediction function calculations does not match the number of mobile object detection prediction function calculations. For example, when calculating the m + 1-th moving object follow-up prediction function Dest (m), distance measurement data D (m) to D (m−α), distance exposure center-of-gravity time Dt (m) to Dt (m) −α), moving object detection prediction functions F (k) to F (k−α), exposure object gravity center times Ft (k) to Ft (k−α), and target time Tt (m + 1) for moving object detection were used. It becomes an operation. The target time Tt (m + 1) is the exposure timing of the next ranging
またこの場合も、撮影要求がなされると撮影処理が開始されるが、m+2回目の移動体追従予測関数Dest(m+1)の算出を行うのは、図11に示した同期の場合と同様である。 Also in this case, the imaging process is started when an imaging request is made. However, the calculation of the m + 2 mobile object tracking prediction function Dest (m + 1) is performed in the same manner as in the case of the synchronization shown in FIG. .
このように、上記測距ブロック215と上記移動体検出ブロック214とを同期して動作しても、また非同期で動作しても、どちらでも構わない。
As described above, the
また、非同期とした場合、上記測距ブロック215の露光を周期的に行うのではなく、移動体検出予測関数演算によって移動する移動体の位置を予測し、移動体が測距点205Aに移動するタイミングを見計らって測距することで、信頼性の高い測距データを取得することが可能となる。
In the case of non-synchronization, the
即ち、図14に示すように、上記移動体検出ブロック214の露光及び予測演算部209の移動体検出予測関数演算は常に最高速度で周期的に行う。そして、移動体検出予測関数演算の結果、移動体の移動量・移動速度によって移動体が測距点205A相当の位置に移動するタイミングで制御部208によって測距タイミング制御信号(同期パルス)を上記測距ブロック215に与えることで、測距が行われる。
That is, as shown in FIG. 14, the exposure of the moving
なお、このような測距タイミング制御を行う場合、移動体追従予測関数演算において使用される目標時間Tt(m+1)は、移動体検出予測関数演算の結果、移動体の移動量・移動速度によって求められる上記測距タイミング制御信号の次の同期パルスのタイミングとなる。 When such distance measurement timing control is performed, the target time Tt (m + 1) used in the mobile object follow-up prediction function calculation is obtained from the movement amount / movement speed of the mobile object as a result of the mobile object detection prediction function calculation. This is the timing of the next synchronization pulse of the distance measurement timing control signal.
以上のように、本実施形態によれば、移動体検出ブロック214と測距ブロック215とへ常に薄膜ミラー201によって撮影光束を導き、予測演算部209によって、検出された被写体の位置と検出された焦点検出情報とに基づく被写体の動き予測を行うことで、高速に画面内を縦横方向へ移動する被写体においても検出した移動体を追従可能とし、高速移動する被写体に対して高精度にAF追従可能なカメラを提供することができる。
As described above, according to the present embodiment, the photographing light flux is always guided by the thin film mirror 201 to the moving
また、測距ブロック215による焦点検出と、移動体検出ブロック214による移動体検出と、をレンズ駆動中に行うことで、高速且つ高精度なAFを可能とするカメラを提供することができる。
In addition, by performing focus detection by the
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。 Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.
例えば、レンズ本体10をカメラ本体20に対して交換可能なカメラを例に説明したが、レンズ本体10がカメラ本体20と一体的に構成されたレンズ交換不可能なカメラであっても良い。
For example, the lens body 10 is described as an example of a camera that can replace the
また、AFセンサ205の測距点205Aの配置は図2に示すような配置に限定されるものではなく、また測距点205Aの個数もそれに限定されない。
Further, the arrangement of the
10…レンズ本体、 20…カメラ本体、 101…撮影光学系、 102…レンズ制御部、 103…通信部、 104…レンズ側接点、 201…薄膜ミラー、 202…撮像素子、 203…移動体検出部、 204,207,210…メモリ、 205…AFセンサ、 205A…測距点、 206…焦点検出部、 208…制御部、 209…予測演算部、 211…メインCPU、 212…通信部、 213…カメラ側接点、 214…移動体検出ブロック、 215…測距ブロック。
DESCRIPTION OF SYMBOLS 10 ... Lens main body, 20 ... Camera main body, 101 ... Imaging optical system, 102 ... Lens control part, 103 ... Communication part, 104 ... Lens side contact, 201 ... Thin film mirror, 202 ... Imaging element, 203 ... Moving body detection part, 204, 207, 210 ... memory, 205 ... AF sensor, 205A ... distance measuring point, 206 ... focus detection unit, 208 ... control unit, 209 ... prediction calculation unit, 211 ... main CPU, 212 ... communication unit, 213 ... camera
Claims (8)
上記撮影レンズ群からの結像光を電気信号に変換する光電変換手段と、
位相差検出方式により上記撮影レンズ群の焦点位置を検出する焦点検出手段と、
上記焦点検出手段により検出された焦点位置に基づき上記撮影レンズ群のフォーカス位置を調整するためのレンズ制御手段と、
撮影光束を複数に分割し、上記光電変換手段と上記焦点検出手段にそれぞれ光束を導く光分割手段と、
上記光電変換手段により生成された信号に基づき移動体を検出する移動体検出手段と、
上記焦点検出手段と上記移動体検出手段のタイミングを制御する制御手段と、
上記焦点検出手段により検出された焦点検出情報と上記移動体検出手段により検出された移動体情報とに基づき、被写体の動き予測を行う予測演算手段と、
を具備することを特徴とするカメラ。 A group of photographic lenses that image the luminous flux from the subject;
Photoelectric conversion means for converting imaging light from the photographing lens group into an electrical signal;
A focus detection means for detecting a focus position of the photographing lens group by a phase difference detection method;
Lens control means for adjusting the focus position of the photographing lens group based on the focus position detected by the focus detection means;
A light splitting means for splitting a photographing light flux into a plurality of parts and directing the light flux to the photoelectric conversion means and the focus detection means;
Moving body detection means for detecting a moving body based on the signal generated by the photoelectric conversion means;
Control means for controlling the timing of the focus detection means and the moving object detection means;
Based on the focus detection information detected by the focus detection means and the mobile body information detected by the mobile body detection means, a prediction calculation means for predicting the motion of the subject,
A camera comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008164868A JP2010008507A (en) | 2008-06-24 | 2008-06-24 | Camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008164868A JP2010008507A (en) | 2008-06-24 | 2008-06-24 | Camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010008507A true JP2010008507A (en) | 2010-01-14 |
Family
ID=41589144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008164868A Withdrawn JP2010008507A (en) | 2008-06-24 | 2008-06-24 | Camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010008507A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011247919A (en) * | 2010-05-24 | 2011-12-08 | Canon Inc | Imaging apparatus |
JP2012189934A (en) * | 2011-03-14 | 2012-10-04 | Canon Inc | Imaging apparatus |
WO2015049917A1 (en) * | 2013-10-02 | 2015-04-09 | オリンパス株式会社 | Focal point detection device and focal point detection method |
JP2015092660A (en) * | 2013-10-01 | 2015-05-14 | 株式会社ニコン | Imaging apparatus, imaging apparatus control method, electronic apparatus, electronic apparatus control method, and control program |
US9667856B2 (en) | 2011-08-05 | 2017-05-30 | Samsung Electronics Co., Ltd. | Auto focus adjusting method, auto focus adjusting apparatus, and digital photographing apparatus including the same |
US9838593B2 (en) | 2014-11-18 | 2017-12-05 | Fujifilm Corporation | Focusing control device, focusing control method, focusing control program, lens device, and imaging device |
JP2018022128A (en) * | 2016-07-21 | 2018-02-08 | キヤノン株式会社 | Focus adjustment device and method and imaging apparatus |
US10033919B2 (en) | 2016-07-21 | 2018-07-24 | Canon Kabushiki Kaisha | Focus adjusting apparatus, focus adjusting method, image capturing apparatus, and storage medium |
JP2022145453A (en) * | 2021-03-17 | 2022-10-04 | キヤノン株式会社 | Imaging apparatus, control method, and storage medium |
US11722769B2 (en) | 2021-03-17 | 2023-08-08 | Canon Kabushiki Kaisha | Image pickup apparatus, control method, and storage medium |
-
2008
- 2008-06-24 JP JP2008164868A patent/JP2010008507A/en not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011247919A (en) * | 2010-05-24 | 2011-12-08 | Canon Inc | Imaging apparatus |
JP2012189934A (en) * | 2011-03-14 | 2012-10-04 | Canon Inc | Imaging apparatus |
US9667856B2 (en) | 2011-08-05 | 2017-05-30 | Samsung Electronics Co., Ltd. | Auto focus adjusting method, auto focus adjusting apparatus, and digital photographing apparatus including the same |
JP2015092660A (en) * | 2013-10-01 | 2015-05-14 | 株式会社ニコン | Imaging apparatus, imaging apparatus control method, electronic apparatus, electronic apparatus control method, and control program |
JP2015072356A (en) * | 2013-10-02 | 2015-04-16 | オリンパス株式会社 | Focus detection device |
CN105593737A (en) * | 2013-10-02 | 2016-05-18 | 奥林巴斯株式会社 | Focal point detection device and focal point detection method |
WO2015049917A1 (en) * | 2013-10-02 | 2015-04-09 | オリンパス株式会社 | Focal point detection device and focal point detection method |
US9749563B2 (en) | 2013-10-02 | 2017-08-29 | Olympus Corporation | Focal point detection device and focal point detection method |
CN105593737B (en) * | 2013-10-02 | 2018-08-28 | 奥林巴斯株式会社 | Focus detection device and focus detecting method |
US9838593B2 (en) | 2014-11-18 | 2017-12-05 | Fujifilm Corporation | Focusing control device, focusing control method, focusing control program, lens device, and imaging device |
JP2018022128A (en) * | 2016-07-21 | 2018-02-08 | キヤノン株式会社 | Focus adjustment device and method and imaging apparatus |
US10033919B2 (en) | 2016-07-21 | 2018-07-24 | Canon Kabushiki Kaisha | Focus adjusting apparatus, focus adjusting method, image capturing apparatus, and storage medium |
JP2022145453A (en) * | 2021-03-17 | 2022-10-04 | キヤノン株式会社 | Imaging apparatus, control method, and storage medium |
JP7293309B2 (en) | 2021-03-17 | 2023-06-19 | キヤノン株式会社 | IMAGING DEVICE, CONTROL METHOD AND STORAGE MEDIUM |
US11722769B2 (en) | 2021-03-17 | 2023-08-08 | Canon Kabushiki Kaisha | Image pickup apparatus, control method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010008507A (en) | Camera | |
US10163222B2 (en) | Image capturing apparatus, tracking device, control method, and storage medium | |
JP2010015024A (en) | Image pickup apparatus, control method thereof, program and storage medium | |
JP5161712B2 (en) | Imaging apparatus and imaging method | |
JP2009017155A (en) | Image recognizing device, focus adjusting device and imaging apparatus | |
JP2003029135A (en) | Camera, camera system and photographic lens device | |
JP6486098B2 (en) | Imaging apparatus and control method thereof | |
JP2008268815A (en) | Automatic focusing device | |
JP2017026914A (en) | Imaging apparatus and method of controlling the same | |
JP6427027B2 (en) | Focus detection apparatus, control method therefor, imaging apparatus, program, and storage medium | |
JP2018031969A (en) | Imaging apparatus and control method thereof | |
JP2011048265A (en) | Focus detection device and focus detection method | |
JP5009239B2 (en) | camera | |
JP5871196B2 (en) | Focus adjustment device and imaging device | |
JP5018932B2 (en) | Imaging device | |
JP6335503B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP5420034B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP2010282107A (en) | Imaging apparatus and control method therefor | |
JP2009017093A (en) | Image recognizing device, focus adjusting device and imaging apparatus | |
JP6486086B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2005128291A (en) | Focus detecting device and camera | |
JP5966249B2 (en) | Image tracking device | |
JP2005227447A (en) | Autofocus camera | |
JP2012133067A (en) | Imaging apparatus | |
JP2004069953A (en) | Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20100127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100127 |
|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110906 |