[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010008507A - Camera - Google Patents

Camera Download PDF

Info

Publication number
JP2010008507A
JP2010008507A JP2008164868A JP2008164868A JP2010008507A JP 2010008507 A JP2010008507 A JP 2010008507A JP 2008164868 A JP2008164868 A JP 2008164868A JP 2008164868 A JP2008164868 A JP 2008164868A JP 2010008507 A JP2010008507 A JP 2010008507A
Authority
JP
Japan
Prior art keywords
moving body
focus detection
lens
distance measurement
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008164868A
Other languages
Japanese (ja)
Inventor
Yoshinori Nagayama
佳範 永山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008164868A priority Critical patent/JP2010008507A/en
Publication of JP2010008507A publication Critical patent/JP2010008507A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform accurate AF by following a subject moving at high speed. <P>SOLUTION: A camera has: a thin film mirror 201 which divides a photographic luminous flux from a photographic optical system 101 which images a luminous flux from a subject, and guides the resulting luminous fluxes to an imaging element 202 and a range finding block 215 including a focus detection part 206 which detects a focal position by a phase difference detection system; a mobile body detection part 203 which detects a mobile body based on a signal from the imaging element 202; and a lens control part 102 which adjusts the focus position of the photographic optical system based on the focal position from the focus detection part 206. The camera further has: a control part 208 which controls the timing of the focus detection part 206 and the mobile body detection part 203; and a prediction arithmetic part 209 which predicts a motion of the subject based on focus detection information detected by the focus detection part 206 and mobile body information detected by the mobile body detection part 203. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、カメラに関し、特に、デジタルカメラにおけるオートフォーカス(以下、AFと略記する)技術に関する。   The present invention relates to a camera, and more particularly to an autofocus (hereinafter abbreviated as AF) technique in a digital camera.

従来のデジタルカメラにおけるAF技術は、大別してコントラストAF方式とTTL(Through the Lens)位相差AF方式とがある。   Conventional AF techniques in digital cameras are roughly classified into a contrast AF method and a TTL (Through the Lens) phase difference AF method.

一般的に、コンパクトデジタルカメラでは、コントラストAF方式を用いることが多く、焦点調節用のレンズ(フォーカスレンズ)を光軸方向に移動させながら被写体の高周波成分を検出して、コントラストのピーク値を算出することで焦点検出を行う。コントラストAF方式は、焦点検出速度は高速ではないが、高精度の合焦制御が可能という特徴がある。また、撮像素子の出力を利用することにより被写体の顔を検出し、検出した顔にピントを合わせる技術が公知である。   In general, compact digital cameras often use the contrast AF method. The high-frequency component of the subject is detected while moving the focus adjustment lens (focus lens) in the direction of the optical axis, and the peak value of the contrast is calculated. By doing so, focus detection is performed. The contrast AF method has a feature that the focus detection speed is not high, but high-precision focus control is possible. A technique for detecting the face of a subject by using the output of an image sensor and focusing on the detected face is known.

一方で、レンズ交換式デジタル一眼レフカメラのAFには、位相差AF方式が用いられることが多く、高速に焦点検出を行えるという特徴がある。この位相差AF方式は、カメラ本体に焦点位置のズレを検出するためのAFセンサが設けられ、該AFセンサにより検出された焦点ズレ量(デフォーカス量)により、フォーカスレンズの焦点検出を行う。しかし、測距点(AFセンサの素子配置)は、離散的に配置せざるを得ないため、測距点を跨ぐような縦横方向の被写体への追従には難がある。   On the other hand, the phase difference AF method is often used for AF of a lens interchangeable digital single-lens reflex camera, and has a feature that focus detection can be performed at high speed. In this phase difference AF method, an AF sensor for detecting a shift in the focal position is provided in the camera body, and focus detection of the focus lens is performed based on a focus shift amount (defocus amount) detected by the AF sensor. However, since the distance measuring points (element arrangement of the AF sensor) must be discretely arranged, it is difficult to follow the subject in the vertical and horizontal directions across the distance measuring points.

このような問題に鑑み、画面内の縦横方向にも追従可能で、かつ高速なAF技術が求められている。   In view of such a problem, there is a need for a high-speed AF technique that can follow the vertical and horizontal directions in the screen.

このような技術の先行例としては、特許文献1がある。これは撮像素子の出力を用いて顔検出を行い、撮影毎の顔の大きさ、位置によりグルーピングを行い、これに基づき最適な焦点検出エリアを指定するというものである。
特開2007−286255号公報
As a prior example of such a technique, there is Patent Document 1. In this method, face detection is performed using the output of the image sensor, grouping is performed according to the size and position of the face for each photographing, and an optimum focus detection area is designated based on this.
JP 2007-286255 A

上記特許文献1では、撮像素子の出力を用いて顔検出した領域に相当する測距点の測距情報のみを用いて合焦動作を行う。しかしながら、高速に移動する被写体においては、測距時と撮影時で被写体が同じ場所にいるとは限らず、測距した時点のデフォーカス量と撮影時のデフォーカス量には誤差が生じ、追従に問題がある。また、被写体が人物の顔ではない場合についても、顔検出の情報を用いる事ができないため、追従に問題がある。   In Patent Document 1, a focusing operation is performed using only distance measurement information of a distance measurement point corresponding to an area in which a face is detected using the output of an image sensor. However, for a fast-moving subject, the subject is not always in the same place during distance measurement and shooting, and an error occurs between the defocus amount at the time of distance measurement and the defocus amount at the time of shooting. There is a problem. Even when the subject is not a person's face, there is a problem in tracking because face detection information cannot be used.

本発明は、上記の点に鑑みてなされたもので、撮影画面内で縦横方向に高速移動する被写体に対して高精度にAF追従可能なカメラを提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide a camera capable of AF tracking with high accuracy with respect to a subject that moves at high speed in the vertical and horizontal directions within a shooting screen.

本発明のカメラの一態様は、
被写体からの光束を結像する撮影レンズ群と、
上記撮影レンズ群からの結像光を電気信号に変換する光電変換手段と、
位相差検出方式により上記撮影レンズ群の焦点位置を検出する焦点検出手段と、
上記焦点検出手段により検出された焦点位置に基づき上記撮影レンズ群のフォーカス位置を調整するためのレンズ制御手段と、
撮影光束を複数に分割し、上記光電変換手段と上記焦点検出手段にそれぞれ光束を導く光分割手段と、
上記光電変換手段により生成された信号に基づき移動体を検出する移動体検出手段と、
上記焦点検出手段と上記移動体検出手段のタイミングを制御する制御手段と、
上記焦点検出手段により検出された焦点検出情報と上記移動体検出手段により検出された移動体情報とに基づき、被写体の動き予測を行う予測演算手段と、
を具備することを特徴とする。
One aspect of the camera of the present invention is:
A group of photographic lenses that image the luminous flux from the subject;
Photoelectric conversion means for converting imaging light from the photographing lens group into an electrical signal;
A focus detection means for detecting a focus position of the photographing lens group by a phase difference detection method;
Lens control means for adjusting the focus position of the photographing lens group based on the focus position detected by the focus detection means;
A light splitting means for splitting a photographing light flux into a plurality of parts and directing the light flux to the photoelectric conversion means and the focus detection means;
Moving body detection means for detecting a moving body based on the signal generated by the photoelectric conversion means;
Control means for controlling the timing of the focus detection means and the moving object detection means;
Based on the focus detection information detected by the focus detection means and the mobile body information detected by the mobile body detection means, a prediction calculation means for predicting the motion of the subject,
It is characterized by comprising.

本発明によれば、光電変換手段と位相差検出方式の焦点検出手段とへ常に光分割手段によって撮影光束を導き、検出された焦点検出情報と検出された被写体の位置とに基づく被写体の動き予測を行うことで、撮影画面内で縦横方向に高速移動する被写体に対して高精度にAF追従可能なカメラを提供することができる。   According to the present invention, the photographing light flux is always guided by the light splitting means to the photoelectric conversion means and the phase difference detection type focus detection means, and subject motion prediction based on the detected focus detection information and the detected subject position. By performing the above, it is possible to provide a camera capable of AF tracking with high accuracy with respect to a subject that moves at high speed in the vertical and horizontal directions within the shooting screen.

以下、本発明を実施するための最良の形態を図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明の一実施形態に係るカメラの構成を示す図である。   FIG. 1 is a diagram showing a configuration of a camera according to an embodiment of the present invention.

このカメラは、レンズ本体10とカメラ本体20とからなる。   This camera includes a lens body 10 and a camera body 20.

レンズ本体10は、カメラ本体20に対して着脱自在に構成された交換レンズとして提供されるもので、撮影光学系101、レンズ制御部102、通信部103、レンズ側接点104、等を備える。   The lens body 10 is provided as an interchangeable lens configured to be detachable from the camera body 20, and includes a photographing optical system 101, a lens control unit 102, a communication unit 103, a lens side contact 104, and the like.

ここで、撮影光学系101は、被写体からの光束を結像する撮影レンズ群である。また、レンズ制御部102は、当該レンズ本体10内の各部を制御するレンズ制御手段であり、カメラ本体20からの指令に応じて上記撮影光学系101のフォーカス位置を調整したり、図示しないレンズ位置検出機構によりレンズ位置を測定してレンズパルスとして、通信部103によりカメラ本体20に送信する機能を備える。レンズ側接点104は、当該レンズ本体10がカメラ本体20に装着された状態でカメラ本体20の対応する接点と当接して、電気的に接続された状態となり、通信部103により上記レンズ制御部102とカメラ本体20との通信を可能とするものである。   Here, the photographing optical system 101 is a photographing lens group that forms an image of a light beam from a subject. The lens control unit 102 is a lens control unit that controls each unit in the lens main body 10, and adjusts the focus position of the photographing optical system 101 according to a command from the camera main body 20 or a lens position (not shown). A function of measuring the lens position by the detection mechanism and transmitting the lens pulse to the camera body 20 by the communication unit 103 is provided. The lens-side contact 104 comes into contact with a corresponding contact of the camera body 20 in a state where the lens body 10 is mounted on the camera body 20 and is electrically connected, and the lens control unit 102 is connected by the communication unit 103. Can communicate with the camera body 20.

また、カメラ本体20は、薄膜ミラー201、撮像素子202、移動体検出部203、メモリ204、AFセンサ205、焦点検出部206、メモリ207、制御部208、予測演算部209、メモリ210、メインCPU211、通信部212、カメラ側接点213、等を備える。   The camera body 20 includes a thin film mirror 201, an image sensor 202, a moving body detection unit 203, a memory 204, an AF sensor 205, a focus detection unit 206, a memory 207, a control unit 208, a prediction calculation unit 209, a memory 210, and a main CPU 211. , Communication unit 212, camera side contact 213, and the like.

ここで、薄膜ミラー201は、上記撮影光学系101からの撮影光束を複数に分割し、上記撮像素子202とAFセンサ205にそれぞれ光束を導く光分割手段であり、例えば、ペリクルミラー等が使用される。   Here, the thin film mirror 201 is a light splitting unit that splits a photographing light beam from the photographing optical system 101 into a plurality of light beams and guides the light beams to the image sensor 202 and the AF sensor 205, for example, a pellicle mirror or the like is used. The

撮像素子202は、上記薄膜ミラー201で分割された撮影光学系101からの結像光を電気信号に変換する光電変換手段である。移動体検出部203は、上記撮像素子202により生成された信号に基づき移動体を検出する移動体検出手段であり、検出された移動体情報をメモリ204に記憶する。これら撮像素子202、移動体検出部203及びメモリ204によって移動体検出ブロック214が構成される。   The image sensor 202 is a photoelectric conversion unit that converts the imaging light from the photographing optical system 101 divided by the thin film mirror 201 into an electric signal. The moving body detection unit 203 is a moving body detection unit that detects a moving body based on the signal generated by the image sensor 202 and stores the detected moving body information in the memory 204. The imaging element 202, the moving object detection unit 203, and the memory 204 constitute a moving object detection block 214.

AFセンサ205は、上記薄膜ミラー201で分割された撮影光学系101からの光束を複数に分割するセパレータ絞りマスクやセパレータレンズ、それら複数に分割された結像光をそれぞれ電気信号に変換する複数のラインセンサ等を含むAFセンサモジュールである。図2に示すように、このAFセンサの測距点205Aは離散的に配置されている。焦点検出部206は、このAFセンサ205により生成された複数の信号に基づき位相差AF方式により上記撮影光学系101の焦点位置を検出する焦点検出手段であり、その検出された焦点検出情報をメモリ207に記憶する。これらAFセンサ205、焦点検出部206及びメモリ207によって、測距ブロック215が構成される。   The AF sensor 205 has a plurality of separator diaphragm masks and separator lenses that divide the light flux from the photographing optical system 101 divided by the thin film mirror 201 into a plurality of pieces, and a plurality of pieces of image light that is divided into the plurality of pieces, respectively. An AF sensor module including a line sensor and the like. As shown in FIG. 2, the AF points 205A of the AF sensor are discretely arranged. The focus detection unit 206 is a focus detection unit that detects the focus position of the photographing optical system 101 by the phase difference AF method based on a plurality of signals generated by the AF sensor 205, and stores the detected focus detection information in a memory. Store in 207. The AF sensor 205, the focus detection unit 206, and the memory 207 constitute a distance measuring block 215.

制御部208は、後述するように、上記移動体検出ブロック214及び測距ブロック215の動作タイミングを制御する制御手段として機能する。予測演算部209は、上記測距ブロック215により検出された焦点検出情報と上記移動体検出ブロック214により検出された移動体情報とに基づき、被写体の動き予測を行う予測演算手段であり、予測結果をメモリ210に記憶する。   As will be described later, the control unit 208 functions as a control unit that controls the operation timing of the moving object detection block 214 and the distance measurement block 215. The prediction calculation unit 209 is a prediction calculation unit that performs subject motion prediction based on the focus detection information detected by the distance measurement block 215 and the moving body information detected by the moving body detection block 214. Is stored in the memory 210.

メインCPU211は、該カメラ本体20内の各部を制御するものである。上記予測演算部209は、該メインCPU211の制御により動作し、上記予測しメモリ210に記憶した被写体の動きに基づいて予測レンズ位置を算出して、通信部212によりレンズ制御部102に伝達することで、その予測レンズ位置にレンズ駆動するように制御する。   The main CPU 211 controls each part in the camera body 20. The prediction calculation unit 209 operates under the control of the main CPU 211, calculates a predicted lens position based on the motion of the subject predicted and stored in the memory 210, and transmits the predicted lens position to the lens control unit 102 through the communication unit 212. Then, control is performed so that the lens is driven to the predicted lens position.

カメラ側接点213は、上記レンズ本体10が当該カメラ本体20に装着された状態でレンズ本体10のレンズ側接点104と当接して、電気的に接続された状態となり、上記通信部212を介して上記予測演算部209やメインCPU211が上記レンズ本体10内のレンズ制御部102と通信できるようにするものである。   The camera-side contact 213 comes into contact with the lens-side contact 104 of the lens body 10 in a state where the lens body 10 is mounted on the camera body 20 and is electrically connected. The prediction calculation unit 209 and the main CPU 211 can communicate with the lens control unit 102 in the lens body 10.

図3は、上記制御部208による上記測距ブロック215の制御動作のフローチャートを示す図である。制御部208は、メインCPU211から予測演算部209を介して図示しない2段式のレリーズボタンの1段目の操作等に応じた測距開始要求が与えられると、このフローチャートの動作を開始する。   FIG. 3 is a diagram showing a flowchart of the control operation of the distance measuring block 215 by the control unit 208. When the main CPU 211 receives a distance measurement start request corresponding to the first stage operation of a two-stage release button (not shown) from the main CPU 211 via the prediction calculation section 209, the control section 208 starts the operation of this flowchart.

即ち、まず、メインCPU211から予測演算部209を介して上記レリーズボタンの1段目の操作の解除等に応じた測距終了要求、又は、上記レリーズボタンの2段目の操作による撮影要求が与えられたか否かを判別する(ステップS11)。ここで、測距終了要求又は撮影要求が与えられなければ、更に、測距タイミングとなったか否かを判別する(ステップS12)。この測距タイミングとしては、後述するように、メインCPU211から予測演算部209を介して与えられる同期パルスに応じるものとしても良いし、自己タイマで所定周期を計測するものであっても良い。そして、測距タイミングとなっていなければ、上記ステップS11に戻る。   That is, first, the main CPU 211 gives a distance measurement end request in accordance with the release of the first operation of the release button or the like through the prediction calculation unit 209 or a shooting request by the second operation of the release button. It is determined whether or not it has been made (step S11). Here, if a distance measurement end request or a photographing request is not given, it is further determined whether or not a distance measurement timing has come (step S12). As the distance measurement timing, as described later, the distance measurement timing may be in accordance with a synchronization pulse given from the main CPU 211 via the prediction calculation unit 209, or may be one that measures a predetermined period with a self-timer. If the timing is not reached, the process returns to step S11.

而して、測距タイミングとなったならば、AFセンサ205の全ての測距点205Aについて蓄積制御(露光)を行う(ステップS13)。その後、AFセンサ205の各測距点のデータを読み出して(ステップS14)、焦点検出部206に与え、各測距点について位相差方式による測距演算即ちデフォーカス量演算を行わせる(ステップS15)。そして、焦点検出部206に、求めた測距データ(測距値、測距間隔、測距結果)をメモリ207に格納させて(ステップS16)、上記ステップS11に戻る。   Thus, when the distance measurement timing comes, accumulation control (exposure) is performed for all distance measurement points 205A of the AF sensor 205 (step S13). Thereafter, the data of each ranging point of the AF sensor 205 is read out (step S14) and given to the focus detection unit 206, and the ranging calculation by the phase difference method, that is, the defocus amount calculation is performed on each ranging point (step S15). ). Then, the focus detection unit 206 stores the obtained distance measurement data (range measurement value, distance measurement interval, distance measurement result) in the memory 207 (step S16), and the process returns to step S11.

こうして、測距タイミングごとに、測距データを取得して、メモリ207に格納していく。   In this way, distance measurement data is acquired and stored in the memory 207 at each distance measurement timing.

そして、メインCPU211から予測演算部209を介して測距終了要求又は撮影要求が与えられたならば(ステップS11)、このフローチャートの動作を終了する。   If a distance measurement end request or a photographing request is given from the main CPU 211 via the prediction calculation unit 209 (step S11), the operation of this flowchart ends.

図4は、上記制御部208による上記移動体検出ブロック214の制御動作のフローチャートを示す図である。制御部208は、上記予測演算部209によって、上記焦点検出部206で測距した複数の測距点205Aの中から測距点が選択されて、移動体検出要求が与えられると、このフローチャートの動作を開始する。   FIG. 4 is a diagram showing a flowchart of the control operation of the moving object detection block 214 by the control unit 208. When the prediction calculation unit 209 selects a ranging point from the plurality of ranging points 205A measured by the focus detection unit 206 and gives a moving body detection request, the control unit 208 in the flowchart of FIG. Start operation.

即ち、まず、メインCPU211から予測演算部209を介して上記レリーズボタンの1段目の操作の解除等に応じた移動体検出終了要求、又は、上記レリーズボタンの2段目の操作による撮影要求が与えられたか否かを判別する(ステップS31)。ここで、移動体検出終了要求又は撮影要求が与えられなければ、更に、移動体検出タイミングとなったか否かを判別する(ステップS32)。この移動体検出タイミングとしては、後述するように、メインCPU211から予測演算部209を介して与えられる同期パルスに応じるものとしても良いし、自己タイマで所定周期を計測するものであっても良い。そして、移動体検出タイミングとなっていなければ、上記ステップS31に戻る。   That is, first, a moving body detection end request corresponding to the release of the first operation of the release button or the like from the main CPU 211 via the prediction calculation unit 209 or a shooting request by the second operation of the release button is issued. It is determined whether or not it has been given (step S31). Here, if the moving object detection end request or the imaging request is not given, it is further determined whether or not the moving object detection timing has come (step S32). As described later, the moving body detection timing may correspond to a synchronization pulse provided from the main CPU 211 via the prediction calculation unit 209, or may measure a predetermined period using a self-timer. If it is not the moving object detection timing, the process returns to step S31.

而して、移動体検出タイミングとなったならば、撮像素子202の露光(イメージャ露光)を行う(ステップS33)。その後、撮像素子202よりイメージャデータを読み出して(ステップS34)、移動体検出部203に与え、移動体検出を行わせる(ステップS35)。そして、移動体検出部203に、求めた移動体検出データ(X位置、Y位置、移動体検出結果)をメモリ204に格納させて(ステップS36)、上記ステップS31に戻る。   Thus, when it is time to detect the moving body, the image sensor 202 is exposed (imager exposure) (step S33). Thereafter, the imager data is read from the image sensor 202 (step S34), and is given to the moving body detection unit 203 to perform the moving body detection (step S35). Then, the mobile body detection unit 203 stores the obtained mobile body detection data (X position, Y position, mobile body detection result) in the memory 204 (step S36), and the process returns to step S31.

こうして、移動体検出タイミングごとに、移動体検出データ(移動体情報)を取得して、メモリ204に格納していく。   In this way, mobile body detection data (mobile body information) is acquired and stored in the memory 204 at each mobile body detection timing.

そして、メインCPU211から予測演算部209を介して移動体検出終了要求又は撮影要求が与えられたならば(ステップS31)、このフローチャートの動作を終了する。   Then, if a moving body detection end request or a photographing request is given from the main CPU 211 via the prediction calculation unit 209 (step S31), the operation of this flowchart ends.

なお、上記ステップS35で上記移動体検出部203が行う移動体検出の方法には、下記のように様々な公知技術がある。   Note that there are various known techniques for the moving object detection method performed by the moving object detection unit 203 in step S35 as described below.

(A)差分画像を用いた移動体検出
(1)背景差分法…移動体が存在しない背景画像と、移動体が存在する画像の差分を取ることで移動体を検出する。背景のみの画像が存在しないと成り立たない。
(A) Moving object detection using difference image
(1) Background subtraction method: A moving object is detected by taking a difference between a background image in which no moving object exists and an image in which a moving object exists. It does not hold if there is no background-only image.

(2)フレーム間差分法…3枚の画像を用いる。1〜2枚目の差分画像、2〜3枚目の差分画像を生成し、生成された2枚の画像の論理積処理(AND)を行うことで2枚目の画像の移動体検出を行う。背景のみの画像が存在しなくてもよいが、背景で微小に移動する物体(樹木など)も検出してしまう可能性がある。     (2) Interframe difference method: Three images are used. The first and second difference images and the second and third difference images are generated, and the moving object detection of the second image is performed by performing a logical product process (AND) of the generated two images. . Although an image of only the background may not exist, an object (such as a tree) that moves minutely in the background may be detected.

(3)統計的背景差分法…ベイズ定理利用。背景のみの画像が存在する必要あり。     (3) Statistical background difference method: Use Bayes' theorem. There must be a background-only image.

(B)オプティカルフローを用いた移動体検出
(1)ブロックマッチング…テンプレートマッチングを用いて対象領域(テンプレート)との差分が最も少ない点を探索。対象物の回転運動、拡大縮小などのロバスト性は高いが、画像間で移動体の移動量が大きい場合は、処理時間が長くなる。
(B) Moving object detection using optical flow
(1) Block matching: Search for a point with the smallest difference from the target region (template) using template matching. The robustness such as the rotational movement and enlargement / reduction of the object is high, but the processing time becomes long when the moving amount of the moving body is large between images.

(2)勾配法…「画像間で移動体の移動量が小さい」、「物体内の動きは滑らかに変化する」という前提条件の下で成立。全エリアの検索を行わないため処理が高速だが拘束条件が成立しない場合は、フローの精度が劣化する。     (2) Gradient method: This is established under the preconditions that “the moving amount of the moving body is small between images” and “the movement in the object changes smoothly”. If all the areas are not searched, the processing speed is high, but if the constraint condition is not satisfied, the flow accuracy deteriorates.

以上の移動体検出の方法から考えると、デジタルカメラで撮影する画像は手持ちであることから、背景の像ブレ、撮影者の手ぶれによる影響があり、移動体検出は、上記のうち、ブロックマッチングもしくは勾配法が適している。しかし、精度、処理時間について相違点があるため、高速移動物体については処理時間の早い勾配法、低速移動物体については勾配法、などといったように撮影状況によって両者を使い分けることを行ってもよい。ブロックマッチングと勾配法による位置検出について下記に詳細を記す。   Considering the above moving object detection method, since the image captured by the digital camera is hand-held, there is an influence due to background image blurring and camera shake of the photographer. The gradient method is suitable. However, since there is a difference in accuracy and processing time, the gradient method with a fast processing time for a high-speed moving object, the gradient method for a low-speed moving object, or the like may be used depending on the shooting situation. Details of position detection by block matching and gradient method are described below.

まず、ブロックマッチングについて説明する。
基準となる領域の画素値をI(x,y)とし、次フレーム画像の画素値をT(x,y)とすると、以下の式(1)により2画像間の類似度SSD(Sum of Squared Difference)を求める。

Figure 2010008507
First, block matching will be described.
Assuming that the pixel value of the reference region is I (x, y) and the pixel value of the next frame image is T (x, y), the similarity SSD (Sum of Squared) between the two images is given by the following equation (1). Find the difference.
Figure 2010008507

ここで基準となるテンプレートの大きさをM*N、テンプレートの位置(i,j)における画素値をT(i,j)、テンプレートと重ね合わせた対象画像の画素値をI(i,j)とする。   Here, the size of the reference template is M * N, the pixel value at the template position (i, j) is T (i, j), and the pixel value of the target image superimposed on the template is I (i, j). And

Rssdはテンプレートと完全に一致した場合に値が0となるが、実際にはノイズや被写体輝度の変化などから0にはなることはほとんどない。対象画像の検索エリア内で最小のRssdとなった位置が、次フレーム画像においてテンプレート(対象被写体)が移動した位置であるといえる。この位置を最新の位置として、X位置、Y位置を格納していく。テンプレートの大きさM*Nによって演算速度、検出精度(エリア)などが変わることになるため、速度優先、精度優先(検出エリア)によってカメラモードでテンプレートの大きさ、対象画像の検索エリアの大きさを切り替えても良い。   The value of Rssd becomes 0 when it completely matches the template, but in reality, it hardly becomes 0 due to changes in noise or subject brightness. It can be said that the position where the minimum Rssd within the search area of the target image is the position where the template (target subject) has moved in the next frame image. With this position as the latest position, the X position and the Y position are stored. Since the calculation speed, detection accuracy (area), and the like vary depending on the template size M * N, the size of the template and the size of the search area for the target image in the camera mode depend on the speed priority and accuracy priority (detection area). May be switched.

次に、勾配法について説明する。
注目画素(x,y)における画素値をI(x,y)とした時、時間Δt後の間に画素が(Δx,Δy)移動したとする。この画素の画素値は変化しないと期待できることから、以下の式(2)が成り立つ。
Next, the gradient method will be described.
When the pixel value at the target pixel (x, y) is I (x, y), it is assumed that the pixel has moved (Δx, Δy) after the time Δt. Since it can be expected that the pixel value of this pixel does not change, the following equation (2) is established.

I(x,y)=I(x+Δx,y+Δy,t+Δt) …(2)
次に、画素値が滑らかに変化していると仮定し、上記式(2)の右辺をテイラー展開し2次の項以降を小さいものとして無視すると、以下の式(3)が得られる。

Figure 2010008507
I (x, y) = I (x + Δx, y + Δy, t + Δt) (2)
Next, assuming that the pixel value is changing smoothly, if the right side of the above equation (2) is Taylor expanded and the second and subsequent terms are ignored as small, the following equation (3) is obtained.
Figure 2010008507

上記式(3)の両辺をΔtで割り整理すると、以下の式(4)のようになる。

Figure 2010008507
When both sides of the above equation (3) are divided and arranged by Δt, the following equation (4) is obtained.
Figure 2010008507

微小な時間で僅かな移動量であることから、以下の式(5)となる。

Figure 2010008507
Since the movement amount is small in a very short time, the following equation (5) is obtained.
Figure 2010008507

ここで、画素の移動量(オプティカルフロー)を以下の式(6)とする。

Figure 2010008507
Here, the movement amount (optical flow) of the pixel is represented by the following expression (6).
Figure 2010008507

そして、画素値の勾配をIx,Iyとし、画素値の時間微分をItとすると、以下の式(7)が得られる。   Then, assuming that the gradient of the pixel value is Ix, Iy and the time differentiation of the pixel value is It, the following equation (7) is obtained.

Ix・u+Iy・v+It=0 …(7)
これをオプティカルフローの拘束条件式とする。
Ix · u + Iy · v + It = 0 (7)
This is an optical flow constraint condition formula.

この式(7)において、未知数はu,vの2つであり、このままでは解が求められない。   In this equation (7), there are two unknowns, u and v, and a solution cannot be obtained as it is.

このため、注目画素の近傍で動きは滑らかであるという仮定で、近傍で複数の画素から同一のオプティカルフローを得る。これらにより注目画素近傍の画素から複数のオプティカルフローが得られ、即ち複数の拘束条件式が得られ、最適な(u,v)が得られる。こうして(u,v)が得られたならは、これを用いて、以下のように最新のX位置、Y位置を算出し格納していく。   For this reason, the same optical flow is obtained from a plurality of pixels in the vicinity on the assumption that the movement is smooth in the vicinity of the target pixel. As a result, a plurality of optical flows are obtained from the pixels in the vicinity of the target pixel, that is, a plurality of constraint conditions are obtained, and the optimum (u, v) is obtained. If (u, v) is obtained in this way, the latest X position and Y position are calculated and stored using this as follows.

X位置=I(x)+u・t
Y位置=I(y)+v・t
図5A及び図5Bは、上記予測演算部209の予測演算動作の一連のフローチャートを示す図である。予測演算部209は、不図示レリーズボタンの1段目の操作等に応じてメインCPU211から予測演算要求が与えられると、このフローチャートの動作を開始する。
X position = I (x) + u · t
Y position = I (y) + v · t
5A and 5B are diagrams illustrating a series of flowcharts of the prediction calculation operation of the prediction calculation unit 209. FIG. The prediction calculation unit 209 starts the operation of this flowchart when a prediction calculation request is given from the main CPU 211 in response to a first-stage operation of a release button (not shown).

即ち、まず、メインCPU211から上記レリーズボタンの1段目の操作の解除等に応じた予測演算終了要求、又は、上記レリーズボタンの2段目の操作による撮影要求が与えられたか否かを判別する(ステップS41)。ここで、予測演算終了要求又は撮影要求が与えられなければ、更に、内部に構成した又はメモリ210の一部を使用する移動体追従フラグがオンとなっているか否かを判別する(ステップS42)。   That is, first, it is determined whether or not a prediction calculation end request corresponding to the release of the first operation of the release button or a shooting request by the second operation of the release button has been given from the main CPU 211. (Step S41). Here, if the prediction calculation end request or the imaging request is not given, it is further determined whether or not the mobile body follow-up flag configured inside or using a part of the memory 210 is turned on (step S42). .

この移動体追従フラグは、初期状態ではオフとなっている。従って、最初は、移動体追従フラグはオフとなっていると判断される。この場合には、上記測距ブロック215での測距動作で取得してメモリ207に格納した測距値を上記焦点検出部206を介して読み出し、その測距値に基づいて、AF信頼性の高い測距点あるいは最至近の測距点等の既知の測距点選択法により、図2に示したような複数の測距点205Aから予測演算に使用する測距点を選択する(ステップS43)。   This moving body follow-up flag is off in the initial state. Therefore, at first, it is determined that the moving body follow-up flag is off. In this case, the distance measurement value acquired by the distance measurement operation in the distance measurement block 215 and stored in the memory 207 is read out through the focus detection unit 206, and AF reliability is determined based on the distance measurement value. A distance measuring point to be used for prediction calculation is selected from a plurality of distance measuring points 205A as shown in FIG. 2 by a known distance measuring point selection method such as a high distance measuring point or the closest distance measuring point (step S43). ).

その後、上記移動体検出ブロック214での移動体検出動作で検出してメモリ204に格納した移動体検出データを、上記移動体検出部203を介して読み出し、その移動体検出データに基づいて、上記選択した測距点に移動体領域が存在するか否かを判別する(ステップS44)。   Thereafter, the moving object detection data detected by the moving object detection operation in the moving object detection block 214 and stored in the memory 204 is read out via the moving object detection unit 203, and based on the moving object detection data, the above described It is determined whether or not a moving body area exists at the selected distance measuring point (step S44).

ここで、上記選択した測距点に移動体領域が存在しない場合には、更に、上記ステップS43で選択した測距点が、前回選択した測距点と同じであるか否かを判別する(ステップS45)。なお、最初は前回の選択測距点自体が存在しないので当然、同じではないと判断することとなる。このように、今回の選択測距点と前回の測距点が異なる場合には、上記ステップS43で選択した測距点の測距値(デフォーカス量)に基づいて予測レンズ位置を算出して(ステップS46)、上記ステップS41に戻る。こうして算出された予測レンズ位置は、通信部212によりカメラ側接点213及びレンズ側接点104を介してレンズ本体10の通信部103に送信され、通信部103からレンズ制御部102に送られて、その予測レンズ位置への撮影光学系101の駆動が行われることとなる。   Here, if there is no moving object region at the selected distance measuring point, it is further determined whether or not the distance measuring point selected in step S43 is the same as the previously selected distance measuring point ( Step S45). Note that since the previous selected distance measuring point itself does not exist, it is naturally determined that they are not the same. As described above, when the current selected distance measuring point is different from the previous distance measuring point, the predicted lens position is calculated based on the distance value (defocus amount) of the distance measuring point selected in step S43. (Step S46), the process returns to step S41. The predicted lens position calculated in this way is transmitted by the communication unit 212 to the communication unit 103 of the lens body 10 via the camera side contact 213 and the lens side contact 104, and is transmitted from the communication unit 103 to the lens control unit 102. The photographing optical system 101 is driven to the predicted lens position.

また、上記ステップS45において、今回の選択測距点と前回の測距点が同じであると判定した場合には、測距予測関数演算を実施する(ステップS47)。そして、上記ステップS43で選択した測距点の測距予測関数から予測レンズ位置を算出して(ステップS48)、上記ステップS41に戻る。   If it is determined in step S45 that the current selected distance measurement point and the previous distance measurement point are the same, a distance measurement prediction function calculation is performed (step S47). Then, the predicted lens position is calculated from the distance measurement prediction function of the distance measurement point selected in step S43 (step S48), and the process returns to step S41.

図6(A)は、上記ステップS47の測距予測関数演算の動作フローチャートを示す図であり、これを全測距点205Aについて行う。   FIG. 6A is a diagram showing an operation flowchart of the distance measurement prediction function calculation in step S47, which is performed for all distance measurement points 205A.

即ち、まず、測距予測関数演算に用いる測距値関連データを決定して、メモリ210に格納する(ステップS471)。これは、測距結果がOK(AF可能)となったデータの内、最新から過去に遡りα個分を決定し格納するものである。なお、αは、予測精度や演算速度を加味して設定する。次に、最新測距の露光重心時間を基準として、測距値、測距間隔、レンズ位置から2次の予測関数を演算して(ステップS472)、演算した測距予測関数の係数(Ad/Bd/Cd)をメモリ210に格納する(ステップS473)。   That is, first, the distance value related data used for the distance prediction function calculation is determined and stored in the memory 210 (step S471). This is to determine and store α data retroactively from the latest among the data in which the distance measurement result is OK (AF possible). Α is set in consideration of prediction accuracy and calculation speed. Next, a secondary prediction function is calculated from the distance measurement value, distance measurement interval, and lens position using the exposure center-of-gravity time of the latest distance measurement as a reference (step S472), and the coefficient (Ad / Bd / Cd) is stored in the memory 210 (step S473).

この測距予測関数演算について、図7を参照して説明する。図7において、黒丸は測距の際のAFセンサ205の露光時(露光重心(露光時間Tの1/2)時)のレンズ位置を示し、その近傍に記載したDef[area][i−3].ldpls、Def[area][i−2].ldpls、Def[area][i−1].ldpls、Def[area][i].ldplsがそれらレンズ位置の値である。ここで、[area]は測距点205Aを、[i−3]、[i−2]、[i−1]、[i]は時系列を、それぞれ表す変数である。また、g_base_time_afは最新測距の露光重心時間を示しており、nowtimeが現在時である。測距は、図3を参照して前述したように、露光、読み出し、測距値演算(デフォーカス量演算)を順次行うものであり、測距予測関数演算はその後に行われる。レンズ駆動は、1回目の動体予測関数演算後に開始される。また、Dt(n)はn+1回目の測距時の時間である。   This distance measurement prediction function calculation will be described with reference to FIG. In FIG. 7, a black circle indicates the lens position at the time of exposure of the AF sensor 205 at the time of distance measurement (at the time of exposure center of gravity (1/2 of the exposure time T)), and Def [area] [i-3] described in the vicinity thereof. ]. ldpls, Def [area] [i-2]. ldpls, Def [area] [i-1]. ldpls, Def [area] [i]. ldpls is the value of these lens positions. Here, [area] is a variable representing the distance measuring point 205A, and [i-3], [i-2], [i-1], and [i] are time series variables. Further, g_base_time_af indicates the exposure center-of-gravity time of the latest distance measurement, and nowtime is the current time. As described above with reference to FIG. 3, the distance measurement is performed by sequentially performing exposure, reading, and distance value calculation (defocus amount calculation), and distance measurement prediction function calculation is performed thereafter. The lens driving is started after the first moving object prediction function calculation. Dt (n) is the time for the n + 1th distance measurement.

白丸は理想像面のレンズ位置であり、L(n)はそのレンズ位置の値である。これら理想像面のレンズ位置は以下のように求められる。
L0 = Def[area][i-3].ldpls + Def[area][i-3].Def * テ゛フォーカスレンス゛位置変換係数
L1 = Def[area][i-2].ldpls + Def[area][i-2].Def * テ゛フォーカスレンス゛位置変換係数
L2 = Def[area][i-1].ldpls + Def[area][i-1].Def * テ゛フォーカスレンス゛位置変換係数
L3 = Def[area][i-0].ldpls + Def[area][i-0].Def * テ゛フォーカスレンス゛位置変換係数
ここで、Def[area][i−0].Defが測距によって取得された測距値(デフォーカス量)である。また、デフォーカスレンズ位置変換係数は、例えば、デフォーカス量30μmをレンズパルスの5パルスとするというような、撮影光学系101のズーム状態によって変化する係数である。このデフォーカスレンズ位置変換係数は、通信によりレンズ制御部102から予め取得することができる。
A white circle is a lens position of the ideal image plane, and L (n) is a value of the lens position. The lens positions of these ideal image planes are obtained as follows.
L0 = Def [area] [i-3] .ldpls + Def [area] [i-3] .Def * Defocus lens position conversion factor
L1 = Def [area] [i-2] .ldpls + Def [area] [i-2] .Def * Defocus lens position conversion factor
L2 = Def [area] [i-1] .ldpls + Def [area] [i-1] .Def * Defocus lens position conversion factor
L3 = Def [area] [i-0] .ldpls + Def [area] [i-0] .Def * Defocus lens position conversion coefficient Here, Def [area] [i-0]. Def is a distance measurement value (defocus amount) acquired by distance measurement. The defocus lens position conversion coefficient is a coefficient that varies depending on the zoom state of the photographing optical system 101, for example, a defocus amount of 30 μm is set to five lens pulses. The defocus lens position conversion coefficient can be acquired in advance from the lens control unit 102 by communication.

上記ステップS471において、α=4とすれば、レンズ位置Def[area][i−3].ldpls〜Def[area][i−0].ldpls、測距値Def[area][i−3].Def〜Def[area][i−0].Def、露光重心時間T0〜T3をメモリ210に格納し、上記ステップS472において、それら格納したデータに基づいて上記のように理想像面のレンズ位置L0〜L3を求め、それら理想像面のレンズ位置L0〜L3と各測距の露光重心時間T0〜T3とから最小二乗法又はラグランジェ補間などにて2次近似式にて予測関数を演算する。そして、上記ステップS473において、その2次近似式の係数(2次/1次/0次)を、上記測距予測関数の係数(Ad/Bd/Cd)としてメモリ210に格納する。   If α = 4 in step S471, the lens position Def [area] [i-3]. ldpls to Def [area] [i-0]. ldpls, ranging value Def [area] [i-3]. Def-Def [area] [i-0]. Def and exposure center-of-gravity times T0 to T3 are stored in the memory 210. In step S472, the lens positions L0 to L3 of the ideal image plane are obtained as described above based on the stored data, and the lens positions of these ideal image planes are obtained. A prediction function is calculated from the L0 to L3 and the exposure center-of-gravity times T0 to T3 of each distance measurement using a quadratic approximation expression by the least square method or Lagrange interpolation. In step S473, the coefficient (second order / first order / 0th order) of the quadratic approximate expression is stored in the memory 210 as the coefficient (Ad / Bd / Cd) of the distance measurement prediction function.

而して、上記ステップS48では、このメモリ210に格納した係数(Ad/Bd/Cd)より、目標時間Ttにおける目標位置である予測レンズ位置Ltは、
Lt=Ad*Tt+Bd*Tt+Cd
により求められるので、この場合の目標時間T4における予測レンズ位置L4は、
L4=Ad*T4+Bd*T4+Cd
により算出することができる。こうして算出された予測レンズ位置は、通信部212によりカメラ側接点213及びレンズ側接点104を介してレンズ本体10の通信部103に送信され、通信部103からレンズ制御部102に送られて、その予測レンズ位置への撮影光学系101の駆動が行われることとなる。
Thus, in step S48, from the coefficient (Ad / Bd / Cd) stored in the memory 210, the predicted lens position Lt that is the target position at the target time Tt is
Lt = Ad * Tt 2 + Bd * Tt 1 + Cd
Therefore, the predicted lens position L4 at the target time T4 in this case is
L4 = Ad * T4 2 + Bd * T4 1 + Cd
Can be calculated. The predicted lens position calculated in this way is transmitted by the communication unit 212 to the communication unit 103 of the lens body 10 via the camera side contact 213 and the lens side contact 104, and is transmitted from the communication unit 103 to the lens control unit 102. The photographing optical system 101 is driven to the predicted lens position.

一方、上記ステップS44において、上記選択した測距点に移動体領域が存在すると判別した場合には、上記移動体検出フラグをオンにする(ステップS49)。そして、上記ステップS43で選択した測距点の測距値(デフォーカス量)に基づいて予測レンズ位置を算出して(ステップS50)、上記ステップS41に戻る。その算出された予測レンズ位置は、通信部212によりカメラ側接点213及びレンズ側接点104を介してレンズ本体10の通信部103に送信され、通信部103からレンズ制御部102に送られて、その予測レンズ位置への撮影光学系101の駆動が行われることとなる。   On the other hand, if it is determined in step S44 that a moving body region exists at the selected distance measuring point, the moving body detection flag is turned on (step S49). Then, the predicted lens position is calculated based on the distance measurement value (defocus amount) of the distance measurement point selected in step S43 (step S50), and the process returns to step S41. The calculated predicted lens position is transmitted to the communication unit 103 of the lens body 10 via the camera side contact 213 and the lens side contact 104 by the communication unit 212, and is transmitted from the communication unit 103 to the lens control unit 102. The photographing optical system 101 is driven to the predicted lens position.

また、上記ステップS42において、移動体追従フラグがオンとなっていると判別した場合には、上記ステップS47と同様の測距予測関数演算を実施する(ステップS51)。但し、このステップS51の測距予測関数演算では、測距データが更新されていない場合には、何も処理を行わない。そして、この測距予測関数演算の後、更に、移動体検出予測関数演算を実施し(ステップS52)、その演算した移動体検出予測関数から目標時刻における目標移動体位置(X位置Xf_dest、Y位置Yf_dest)を演算する(ステップS53)。   If it is determined in step S42 that the moving body follow-up flag is on, the same distance measurement prediction function calculation as in step S47 is performed (step S51). However, in the distance measurement prediction function calculation in step S51, if the distance measurement data has not been updated, no processing is performed. After the distance measurement prediction function calculation, further, a mobile object detection prediction function calculation is performed (step S52), and the target mobile object position (X position Xf_dest, Y position) at the target time is calculated from the calculated mobile object detection prediction function. Yf_dest) is calculated (step S53).

図6(B)は、上記ステップS52の移動体検出予測関数演算の動作フローチャートを示す図である。   FIG. 6B is a diagram showing an operation flowchart of the mobile object detection prediction function calculation in step S52.

即ち、まず、移動体検出予測関数演算に用いる移動体検出関連データを決定して、メモリ210に格納する(ステップS521)。これは、移動体検出されたデータの内、最新から過去に遡りβ個分を決定し格納するものである。なお、βは、予測精度や演算速度を加味して設定する。次に、最新移動体検出の露光重心時間を基準として、X位置、Y位置、露光間隔から2次の予測関数を演算する(ステップS522)。ここで、この移動体検出の予測関数演算は、X位置/Y位置の計2パターンについて行う。そして、演算した移動体検出予測関数の係数(X位置:Am_x/Bm_x/Cm_x、Y位置:Am_y/Bm_y/Cm_y)をメモリ210に格納する(ステップS523)。   That is, first, the mobile body detection related data used for the mobile body detection prediction function calculation is determined and stored in the memory 210 (step S521). This is to determine and store β pieces of data detected from the moving object from the latest to the past. Note that β is set in consideration of prediction accuracy and calculation speed. Next, a secondary prediction function is calculated from the X position, the Y position, and the exposure interval with reference to the exposure center-of-gravity time of the latest moving body detection (step S522). Here, the prediction function calculation for detecting the moving body is performed for a total of two patterns of X position / Y position. And the coefficient (X position: Am_x / Bm_x / Cm_x, Y position: Am_y / Bm_y / Cm_y) of the calculated mobile body detection prediction function is stored in the memory 210 (step S523).

なお、移動体検出結果が複数個の場合、つまり1回の露光で画面内に複数の移動体が検出された場合には、各々について移動体検出予測関数演算を行うものとする。また、前後露光時で検出されたX位置/Y位置が最も近い移動体を同一移動体とみなして、予測演算を行う。   When there are a plurality of moving object detection results, that is, when a plurality of moving objects are detected in the screen by one exposure, the moving object detection prediction function is calculated for each. Further, the prediction calculation is performed by regarding the moving body having the closest X position / Y position detected during the front-back exposure as the same moving body.

この移動体検出予測関数演算について、図8を参照して説明する。図8において、白丸X(n)は移動体検出の際の撮像素子202の露光時(露光重心時)の移動体のX位置を、白三角Y(n)は同じくY位置を、それぞれ示している。ここで、移動体のX位置及びY位置とは、図9(A)に示すように、移動体領域の中心のxy座標(x,y)である。また、xy座標の原点は、図9(B)に示すように、カメラ本体20を横位置に構えた際の画面左上とする。図9(B)の移動体検出タイミングT0〜T3は、図8のそれと対応している。なお、1回目の移動体検出((T0)露光時)は、位相差方式による測距点選択相当位置における撮像素子出力の画素エリア(テンプレート)を設定する。   This moving object detection prediction function calculation will be described with reference to FIG. In FIG. 8, the white circle X (n) indicates the X position of the moving body when the image sensor 202 is exposed (at the time of exposure center of gravity), and the white triangle Y (n) similarly indicates the Y position. Yes. Here, the X position and the Y position of the moving body are xy coordinates (x, y) of the center of the moving body region, as shown in FIG. The origin of the xy coordinates is the upper left of the screen when the camera body 20 is held in the horizontal position, as shown in FIG. The moving body detection timings T0 to T3 in FIG. 9B correspond to those in FIG. Note that the first moving object detection (during (T0) exposure) sets the pixel area (template) of the image sensor output at the position corresponding to the distance measurement point selection by the phase difference method.

移動体検出は、図4を参照して前述したように、露光、読み出し、移動体検出演算を順次行うものであり、移動体検出予測関数演算はその後に行われる。なお、図8中のFt(n)はn+1回目の移動体検出における露光重心時間である。   As described above with reference to FIG. 4, the moving body detection is performed by sequentially performing exposure, reading, and moving body detection calculation, and the moving body detection prediction function calculation is performed thereafter. Note that Ft (n) in FIG. 8 is the exposure centroid time in the (n + 1) th moving object detection.

上記ステップS521において、β=4とすれば、移動体検出のX位置X(0)〜X(3)及びY位置Y(0)〜Y(3)と、露光重心時間T0〜T3をメモリ210に格納し、上記ステップS522において、それら格納したデータから、X位置及びY位置のそれぞれについて、最小二乗法又はラグランジェ補間などにて2次近似式にて予測関数を演算する。そして、上記ステップS523において、それらの2次近似式の係数(2次/1次/0次)を、上記移動体検出予測関数の係数(X位置:Am_x/Bm_x/Cm_x、Y位置:Am_y/Bm_y/Cm_y)としてメモリ210に格納する。   In the above step S521, if β = 4, the X position X (0) to X (3) and Y position Y (0) to Y (3) of the moving body detection and the exposure gravity center time T0 to T3 are stored in the memory 210. In step S522, a prediction function is calculated from the stored data using a quadratic approximation formula for each of the X position and the Y position by the least square method or Lagrange interpolation. In step S523, the coefficients (second order / first order / 0th order) of the quadratic approximation equations are used as the coefficients (X position: Am_x / Bm_x / Cm_x, Y position: Am_y / Bm_y / Cm_y) and stored in the memory 210.

而して、上記ステップS53では、このメモリ210に格納した係数(X位置:Am_x/Bm_x/Cm_x、Y位置:Am_y/Bm_y/Cm_y)より、現在の目標時間Ttの移動体の予測X位置Xm_dest及び予測Y位置Ym_destは、それぞれ、
Xm_dest=Am_x*Tt+Bm_x*Tt+Cm_x
Ym_dest=Am_y*Tt+Bm_y*Tt+Cm_y
により算出することができる。従って、例えば、現在の目標時間をT4とすれば、移動体の予測X位置Xm_dest(図8中に黒丸で示す)及び予測Y位置Ym_dest(図8中に黒三角で示す)は、それぞれ、
Xm_dest=Am_x*T4+Bm_x*T4+Cm_x
Ym_dest=Am_y*T4+Bm_y*T4+Cm_y
により算出することができる。
Thus, in step S53, the predicted X position Xm_dest of the moving body at the current target time Tt is calculated from the coefficients (X position: Am_x / Bm_x / Cm_x, Y position: Am_y / Bm_y / Cm_y) stored in the memory 210. And the predicted Y position Ym_dest are respectively
Xm_dest = Am_x * Tt 2 + Bm_x * Tt 1 + Cm_x
Ym_dest = Am_y * Tt 2 + Bm_y * Tt 1 + Cm_y
Can be calculated. Thus, for example, if the current target time is T4, the predicted X position Xm_dest (indicated by a black circle in FIG. 8) and the predicted Y position Ym_dest (indicated by a black triangle in FIG. 8) of the moving body are respectively
Xm_dest = Am_x * T4 2 + Bm_x * T4 1 + Cm_x
Ym_dest = Am_y * T4 2 + Bm_y * T4 1 + Cm_y
Can be calculated.

以上のようにして移動体検出予測関数から現在の目標移動体位置を演算したならば、次に、その演算した目標の移動体のX位置及びY位置、また移動量が閾値以下であるか否かを判別する(ステップS54)。ここで、閾値を越える場合は、追従している移動体が想定以上の速度で移動した、もしくは移動体検出が誤検出されたなどが考えられるため、その演算結果は使用しないことが好ましい。そこで、上記移動体追従フラグをオフにして(ステップS55)、AF信頼性の高い測距点あるいは最至近の測距点等の既知の測距点選択法により、測距点を再選択する(ステップS56)。そして、その再選択した測距点の測距値(デフォーカス量)に基づいて予測レンズ位置を算出して(ステップS57)、上記ステップS41に戻る。こうして算出された予測レンズ位置は、通信部212によりカメラ側接点213及びレンズ側接点104を介してレンズ本体10の通信部103に送信され、通信部103からレンズ制御部102に送られて、その予測レンズ位置への撮影光学系101の駆動が行われることとなる。   If the current target moving object position is calculated from the moving object detection prediction function as described above, then the calculated X position and Y position of the target moving object, and whether the movement amount is equal to or less than the threshold value. Is determined (step S54). Here, when the threshold value is exceeded, it is considered that the following moving body has moved at a speed higher than expected or the moving body detection is erroneously detected. Therefore, it is preferable not to use the calculation result. Therefore, the moving body follow-up flag is turned off (step S55), and a distance measuring point is reselected by a known distance measuring point selection method such as a distance measuring point with high AF reliability or the closest distance measuring point ( Step S56). Then, a predicted lens position is calculated based on the distance measurement value (defocus amount) of the reselected distance measurement point (step S57), and the process returns to step S41. The predicted lens position calculated in this way is transmitted by the communication unit 212 to the communication unit 103 of the lens body 10 via the camera side contact 213 and the lens side contact 104, and is transmitted from the communication unit 103 to the lens control unit 102. The photographing optical system 101 is driven to the predicted lens position.

これに対して、上記ステップS54において上記演算した目標の移動体のX位置及びY位置、また移動量が閾値以下であると判別した場合には、更に、現在の検出された移動体位置に相当する測距点の測距値は信頼性が有るか否かを判別する(ステップS58)。ここで、その測距点の測距値に信頼性が無いと判別した場合には、上記ステップS55に進む。   On the other hand, if it is determined in step S54 that the calculated X and Y positions of the target moving body and the amount of movement are equal to or less than the threshold value, this corresponds to the current detected moving body position. It is determined whether or not the range-finding value of the range-finding point is reliable (step S58). If it is determined that the distance measurement value at the distance measurement point is not reliable, the process proceeds to step S55.

また、信頼性も有ると判別したならば、上記ステップS53で算出した目標移動体位置(追従移動体位置)に相当する測距点205Aを再選択して(ステップS59)、移動体追従予測関数演算を実施する(ステップS60)。そして、演算した移動体追従予測関数から予測レンズ位置を算出して(ステップS61)、上記ステップS41に戻る。   If it is determined that there is also reliability, the distance measuring point 205A corresponding to the target moving body position (following moving body position) calculated in step S53 is reselected (step S59), and the moving body following prediction function is selected. Calculation is performed (step S60). Then, a predicted lens position is calculated from the calculated moving body follow-up prediction function (step S61), and the process returns to step S41.

図10は、上記ステップS60の移動体追従予測関数演算の動作フローチャートを示す図であり、この動作を上記再選択した測距点について行う。   FIG. 10 is a diagram showing an operation flowchart of the mobile object follow-up prediction function calculation in step S60, and this operation is performed for the reselected distance measuring point.

即ち、まず、移動体追従予測関数演算に用いる測距値関連データを決定して、メモリ210に格納する(ステップS601)。これは、測距結果がOK(AF可能)となったデータの内、最新から過去に遡りα個分を決定し格納するものである。この場合、移動体追従のため、測距点205Aを跨ぐ可能性がある。次に、最新測距の露光重心時間を基準として、測距値、測距間隔、レンズ位置から2次の予測関数を演算して(ステップS602)、演算した移動体追従予測関数の係数(Add/Bdd/Cdd)をメモリ210に格納する(ステップS603)。   That is, first, distance measurement value-related data used for the mobile object follow-up prediction function calculation is determined and stored in the memory 210 (step S601). This is to determine and store α data retroactively from the latest among the data in which the distance measurement result is OK (AF possible). In this case, there is a possibility of straddling the distance measuring point 205A for tracking the moving body. Next, a secondary prediction function is calculated from the distance value, distance measurement interval, and lens position using the exposure center-of-gravity time of the latest distance measurement as a reference (step S602), and the coefficient (Add) of the calculated mobile object tracking prediction function is calculated. / Bdd / Cdd) is stored in the memory 210 (step S603).

この移動体追従予測関数演算については、上記測距予測関数演算と同様の動作であるので、その説明は省略する。   Since this mobile object follow-up prediction function calculation is the same operation as the distance measurement prediction function calculation, description thereof will be omitted.

而して、上記ステップS61では、このメモリ210に格納した係数(Add/Bdd/Cdd)より、目標時間Ttにおける目標位置である予測レンズ位置Ltを、
Lt=Add*Tt+Bdd*Tt+Cdd
により算出する。従って、例えば目標時間をT4とすれば、予測レンズ位置L4は、
L4=Add*T4+Bdd*T4+Cdd
と算出することができる。こうして算出された予測レンズ位置は、通信部212によりカメラ側接点213及びレンズ側接点104を介してレンズ本体10の通信部103に送信され、通信部103からレンズ制御部102に送られて、その予測レンズ位置への撮影光学系101の駆動が行われることとなる。
Thus, in step S61, the predicted lens position Lt, which is the target position at the target time Tt, is calculated from the coefficient (Add / Bdd / Cdd) stored in the memory 210.
Lt = Add * Tt 2 + Bdd * Tt 1 + Cdd
Calculated by Therefore, for example, if the target time is T4, the predicted lens position L4 is
L4 = Add * T4 2 + Bdd * T4 1 + Cdd
Can be calculated. The predicted lens position calculated in this way is transmitted by the communication unit 212 to the communication unit 103 of the lens body 10 via the camera side contact 213 and the lens side contact 104, and is transmitted from the communication unit 103 to the lens control unit 102. The photographing optical system 101 is driven to the predicted lens position.

ここで、例えば、各測距点205Aを図11(A)に示すようにXY座標で表すとすれば、同図に丸で囲って示す測距点205Aは(6,3)となり、その時刻をtとすれば、時刻と座標を合わせて(t,6,3)と記すものとする。このようにした場合、移動体追従予測における測距位置と移動体検出位置との関係は、図11(B)に示すようになる。この図11(B)において、破線の四角は移動体検出位置を、黒四角の測距点が移動体検出位置に相当する測距位置を、二重線の四角が予測される移動体検出位置を、それぞれ示している。   Here, for example, if each distance measuring point 205A is represented by XY coordinates as shown in FIG. 11A, the distance measuring point 205A circled in FIG. If t is t, the time and coordinates are combined and written as (t, 6, 3). In this case, the relationship between the distance measurement position and the moving object detection position in the moving object follow-up prediction is as shown in FIG. In FIG. 11B, a broken-line rectangle indicates a moving object detection position, a black square distance measurement point indicates a distance measurement position corresponding to the movement object detection position, and a double-line rectangle is predicted by a moving object detection position. Respectively.

図11(B)の例の場合には、上記ステップS52での移動体検出予測関数演算に従って上記ステップS53で現在の目標時間、例えばT4における予測される移動体検出位置が求められ、上記ステップS59で座標(7,3)の測距点205Aが再選択される。そして、上記ステップS60で、移動体検出位置に一致した測距点の測距値((T1,2,1)、(T2,3,1)及び(T3,5,2))を用いて移動体追従予測関数演算が行われ、上記ステップS61において測距値が予測されて予測レンズ位置L4が算出されることなる。   In the case of the example of FIG. 11B, the current target time, for example, the predicted moving body detection position at T4, is obtained in step S53 in accordance with the moving body detection prediction function calculation in step S52, and the above step S59. Thus, the distance measuring point 205A at the coordinates (7, 3) is reselected. In step S60, the distance measurement value ((T1, 2, 1), (T2, 3, 1) and (T3, 5, 2)) of the distance measurement point that coincides with the moving object detection position is used to move. A body following prediction function calculation is performed, and the distance measurement value is predicted in step S61, and the predicted lens position L4 is calculated.

なお、上述したように、上記測距ブロック215と上記移動体検出ブロック214とは、同期又は非同期のタイミングにおいて各々動作する。   As described above, the ranging block 215 and the moving object detection block 214 operate at synchronous or asynchronous timing.

図12は、上記測距ブロック215の露光タイミングと上記移動体検出ブロック214の露光タイミングを同期して各々動作を行う場合の、測距予測関数演算、移動体検出予測関数演算、移動体追従予測関数演算のタイミングを示す図である。   FIG. 12 shows a distance prediction function calculation, a mobile object detection prediction function calculation, and a mobile object tracking prediction when the operations are performed in synchronization with the exposure timing of the distance measurement block 215 and the exposure timing of the mobile object detection block 214, respectively. It is a figure which shows the timing of a function calculation.

同図に示すように、測距動作の露光と移動体検出の露光は、メインCPU211から同期パルスに応じて、予測演算部209が、制御部208によって両露光動作を開始させることで、開始される。Dt(n)、Ft(n)はそれぞれの露光重心時間を示す。また、Def(n)は測距データ、F(n)は演算された移動体検出予測関数を示す。   As shown in the figure, the exposure of the distance measurement operation and the exposure of the moving object detection are started by the prediction calculation unit 209 starting both exposure operations by the control unit 208 in accordance with the synchronization pulse from the main CPU 211. The Dt (n) and Ft (n) indicate the respective exposure centroid times. Further, Def (n) indicates distance measurement data, and F (n) indicates the calculated moving object detection prediction function.

この場合、測距に必要な所要時間と移動体検出に必要な所要時間とが異なるので、予測演算部209による移動体追従予測関数演算の開始時間Bt(n)は、長い方の所要時間である移動体検出の終了に合わせて、移動体検出予測関数演算の終了後としている。   In this case, since the time required for ranging and the time required for moving object detection are different, the start time Bt (n) of the mobile object follow-up prediction function calculation by the prediction calculation unit 209 is the longer required time. Along with the end of a certain mobile object detection, it is after the end of the mobile object detection prediction function calculation.

この移動体追従予測関数演算は、最初の移動体追従予測関数Dest(0)を算出する際には、まだα個のデータが揃っていないので、測距データD(0)のみを用いた演算となる。次の移動体追従予測関数Dest(1)を算出する際も、まだα個のデータが揃っていないので、測距データD(1),D(0)、測距の露光重心時間Dt(1),Dt(0)、移動体検出予測関数F(1),F(0)、移動体検出の露光重心時間Ft(1),Ft(0)、及び目標時間Tt(2)を用いた演算となる。そして、m+1回目の移動体追従予測関数Dest(m)を算出する際には、既にα個のデータが揃っているので、測距データD(m)〜D(m−α)、測距の露光重心時間Dt(m)〜Dt(m−α)、移動体検出予測関数F(m)〜F(m−α)、移動体検出の露光重心時間Ft(m)〜Ft(m−α)、及び目標時間Tt(m+1)を用いた演算となる。なお、目標時間Tt(m+1)は、次の同期パルスのタイミングである。   In this mobile object follow-up prediction function calculation, when the first mobile object follow-up prediction function Dest (0) is calculated, since α pieces of data are not yet prepared, the calculation using only the distance measurement data D (0) is performed. It becomes. When calculating the next moving body follow-up prediction function Dest (1), since α data are not yet prepared, the distance measurement data D (1), D (0), and the distance-exposure center-of-gravity time Dt (1) ), Dt (0), moving body detection prediction functions F (1), F (0), exposure center-of-gravity times Ft (1), Ft (0), and target time Tt (2) for moving body detection. It becomes. Then, when calculating the m + 1th moving object follow-up prediction function Dest (m), since α data are already prepared, the distance measurement data D (m) to D (m−α), the distance measurement data Exposure center of gravity time Dt (m) to Dt (m-α), moving body detection prediction function F (m) to F (m-α), exposure center of gravity time Ft (m) to Ft (m−α) for moving body detection , And the target time Tt (m + 1). The target time Tt (m + 1) is the timing of the next synchronization pulse.

そして、図11に示すように、撮影要求がなされると、撮影処理が開始される。但しこの場合、図5A及び図5Bの予測演算動作の一連のフローチャートに示したように、予測レンズ位置の算出が行ってレンズを予測位置に駆動するようにしてから予測演算動作を終了するので、図11に示すように、m+2回目の移動体追従予測関数Dest(m+1)の算出を行うようになっている。   Then, as shown in FIG. 11, when a shooting request is made, the shooting process is started. However, in this case, as shown in the series of flowcharts of the prediction calculation operation in FIG. 5A and FIG. 5B, the calculation of the predicted lens position is performed and the lens is driven to the predicted position. As shown in FIG. 11, the m + 2th moving object follow-up prediction function Dest (m + 1) is calculated.

一方、図13は、上記測距ブロック215の露光タイミングと上記移動体検出ブロック214の露光タイミングを非同期で各々動作を行う場合の、測距予測関数演算、移動体検出予測関数演算、移動体追従予測関数演算のタイミングを示す図である。   On the other hand, FIG. 13 shows a distance measurement prediction function calculation, a mobile object detection prediction function calculation, and a mobile object tracking when the exposure timing of the distance measurement block 215 and the exposure timing of the mobile object detection block 214 are operated asynchronously. It is a figure which shows the timing of prediction function calculation.

この場合には、上記測距ブロック215の露光は所定の第1の間隔で周期的に行われ、また、上記移動体検出ブロック214の露光は所定の第2の間隔で周期的に行われる。移動体追従予測関数演算は、測距予測関数演算の終了に合わせて行う。   In this case, the exposure of the distance measuring block 215 is periodically performed at a predetermined first interval, and the exposure of the moving object detection block 214 is periodically performed at a predetermined second interval. The moving body tracking prediction function calculation is performed at the end of the distance measurement prediction function calculation.

また、測距予測関数演算の回数と移動体検出予測関数演算の回数とは一致しない。例えば、m+1回目の移動体追従予測関数Dest(m)を算出する際には、測距データD(m)〜D(m−α)、測距の露光重心時間Dt(m)〜Dt(m−α)、移動体検出予測関数F(k)〜F(k−α)、移動体検出の露光重心時間Ft(k)〜Ft(k−α)、及び目標時間Tt(m+1)を用いた演算となる。なお、目標時間Tt(m+1)は、次の測距ブロック215の露光タイミングである。   Also, the number of distance measurement prediction function calculations does not match the number of mobile object detection prediction function calculations. For example, when calculating the m + 1-th moving object follow-up prediction function Dest (m), distance measurement data D (m) to D (m−α), distance exposure center-of-gravity time Dt (m) to Dt (m) −α), moving object detection prediction functions F (k) to F (k−α), exposure object gravity center times Ft (k) to Ft (k−α), and target time Tt (m + 1) for moving object detection were used. It becomes an operation. The target time Tt (m + 1) is the exposure timing of the next ranging block 215.

またこの場合も、撮影要求がなされると撮影処理が開始されるが、m+2回目の移動体追従予測関数Dest(m+1)の算出を行うのは、図11に示した同期の場合と同様である。   Also in this case, the imaging process is started when an imaging request is made. However, the calculation of the m + 2 mobile object tracking prediction function Dest (m + 1) is performed in the same manner as in the case of the synchronization shown in FIG. .

このように、上記測距ブロック215と上記移動体検出ブロック214とを同期して動作しても、また非同期で動作しても、どちらでも構わない。   As described above, the distance measurement block 215 and the moving object detection block 214 may be operated in synchronization or asynchronously.

また、非同期とした場合、上記測距ブロック215の露光を周期的に行うのではなく、移動体検出予測関数演算によって移動する移動体の位置を予測し、移動体が測距点205Aに移動するタイミングを見計らって測距することで、信頼性の高い測距データを取得することが可能となる。   In the case of non-synchronization, the distance measurement block 215 is not periodically exposed, but the position of the moving object is predicted by the moving object detection prediction function calculation, and the moving object moves to the distance measuring point 205A. It is possible to obtain highly reliable distance measurement data by measuring the timing.

即ち、図14に示すように、上記移動体検出ブロック214の露光及び予測演算部209の移動体検出予測関数演算は常に最高速度で周期的に行う。そして、移動体検出予測関数演算の結果、移動体の移動量・移動速度によって移動体が測距点205A相当の位置に移動するタイミングで制御部208によって測距タイミング制御信号(同期パルス)を上記測距ブロック215に与えることで、測距が行われる。   That is, as shown in FIG. 14, the exposure of the moving object detection block 214 and the moving object detection prediction function calculation of the prediction calculation unit 209 are always performed periodically at the maximum speed. Then, as a result of the calculation of the moving object detection prediction function, the distance measuring timing control signal (synchronization pulse) is sent by the control unit 208 at the timing when the moving object moves to a position corresponding to the distance measuring point 205A according to the moving amount and moving speed of the moving object. The distance measurement is performed by giving the distance measurement block 215.

なお、このような測距タイミング制御を行う場合、移動体追従予測関数演算において使用される目標時間Tt(m+1)は、移動体検出予測関数演算の結果、移動体の移動量・移動速度によって求められる上記測距タイミング制御信号の次の同期パルスのタイミングとなる。   When such distance measurement timing control is performed, the target time Tt (m + 1) used in the mobile object follow-up prediction function calculation is obtained from the movement amount / movement speed of the mobile object as a result of the mobile object detection prediction function calculation. This is the timing of the next synchronization pulse of the distance measurement timing control signal.

以上のように、本実施形態によれば、移動体検出ブロック214と測距ブロック215とへ常に薄膜ミラー201によって撮影光束を導き、予測演算部209によって、検出された被写体の位置と検出された焦点検出情報とに基づく被写体の動き予測を行うことで、高速に画面内を縦横方向へ移動する被写体においても検出した移動体を追従可能とし、高速移動する被写体に対して高精度にAF追従可能なカメラを提供することができる。   As described above, according to the present embodiment, the photographing light flux is always guided by the thin film mirror 201 to the moving object detection block 214 and the distance measurement block 215, and the detected object position is detected by the prediction calculation unit 209. By predicting the movement of the subject based on the focus detection information, it is possible to follow the detected moving body even for subjects moving in the vertical and horizontal directions on the screen at high speed, and AF tracking can be performed with high accuracy for subjects moving at high speed. Camera can be provided.

また、測距ブロック215による焦点検出と、移動体検出ブロック214による移動体検出と、をレンズ駆動中に行うことで、高速且つ高精度なAFを可能とするカメラを提供することができる。   In addition, by performing focus detection by the distance measuring block 215 and moving body detection by the moving body detection block 214 while driving the lens, it is possible to provide a camera that enables high-speed and high-precision AF.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、レンズ本体10をカメラ本体20に対して交換可能なカメラを例に説明したが、レンズ本体10がカメラ本体20と一体的に構成されたレンズ交換不可能なカメラであっても良い。   For example, the lens body 10 is described as an example of a camera that can replace the camera body 20, but the lens body 10 may be a camera in which the lens body 10 is configured integrally with the camera body 20 and cannot be replaced.

また、AFセンサ205の測距点205Aの配置は図2に示すような配置に限定されるものではなく、また測距点205Aの個数もそれに限定されない。   Further, the arrangement of the distance measuring points 205A of the AF sensor 205 is not limited to the arrangement shown in FIG. 2, and the number of distance measuring points 205A is not limited thereto.

図1は、本発明の一実施形態に係るカメラの構成を示す図である。FIG. 1 is a diagram showing a configuration of a camera according to an embodiment of the present invention. 図2は、AFセンサの測距点の配置例を示す図である。FIG. 2 is a diagram illustrating an example of the arrangement of the AF points of the AF sensor. 図3は、制御部による測距ブロックの制御動作のフローチャートを示す図である。FIG. 3 is a diagram illustrating a flowchart of the control operation of the ranging block by the control unit. 図4は、制御部による移動体検出ブロックの制御動作のフローチャートを示す図である。FIG. 4 is a flowchart of the control operation of the moving object detection block by the control unit. 図5Aは、予測演算部の予測演算動作の一連のフローチャートの第1の部分を示す図である。FIG. 5A is a diagram illustrating a first part of a series of flowcharts of the prediction calculation operation of the prediction calculation unit. 図5Bは、予測演算部の予測演算動作の一連のフローチャートの第2の部分を示す図である。FIG. 5B is a diagram illustrating a second part of a series of flowcharts of the prediction calculation operation of the prediction calculation unit. 図6(A)は、測距予測関数演算の動作フローチャートを示す図であり、図6(B)は、移動体検出予測関数演算の動作フローチャートを示す図である。FIG. 6A is a diagram illustrating an operation flowchart of the distance measurement prediction function calculation, and FIG. 6B is a diagram illustrating an operation flowchart of the moving object detection prediction function calculation. 図7は、測距予測関数演算の概念を説明するための図である。FIG. 7 is a diagram for explaining the concept of the distance measurement prediction function calculation. 図8は、移動体検出予測関数演算の概念を説明するための図である。FIG. 8 is a diagram for explaining the concept of the mobile object detection prediction function calculation. 図9(A)は、移動体のX位置及びY位置を説明するための図であり、図9(B)は、移動体の移動とそれに対する移動体のX位置及びY位置の例とを示す図である。FIG. 9A is a diagram for explaining the X position and the Y position of the moving body. FIG. 9B shows the movement of the moving body and examples of the X position and the Y position of the moving body. FIG. 図10は、移動体追従予測関数演算の動作フローチャートを示す図である。FIG. 10 is a diagram illustrating an operation flowchart of the mobile body follow-up prediction function calculation. 図11(A)はAFセンサの測距点の座標を説明するための図であり、図11(B)は、移動体追従予測における測距位置と移動体検出位置との関係を説明するための図である。FIG. 11A is a diagram for explaining the coordinates of the distance measurement point of the AF sensor, and FIG. 11B is a diagram for explaining the relationship between the distance measurement position and the mobile object detection position in the mobile object tracking prediction. FIG. 図12は、測距と移動体検出を同期して行う場合の、測距予測関数演算、移動体検出予測関数演算、移動体追従予測関数演算のタイミングを示す図である。FIG. 12 is a diagram illustrating timings of the distance measurement prediction function calculation, the mobile object detection prediction function calculation, and the mobile object tracking prediction function calculation when distance measurement and mobile object detection are performed in synchronization. 図13は、測距と移動体検出を非同期で行う場合の、測距予測関数演算、移動体検出予測関数演算、移動体追従予測関数演算のタイミングを示す図である。FIG. 13 is a diagram showing timings of the distance measurement prediction function calculation, the mobile object detection prediction function calculation, and the mobile object tracking prediction function calculation when the distance measurement and the mobile object detection are performed asynchronously. 図14は、移動体が測距点に移動するタイミングで測距を行う場合の、測距予測関数演算、移動体検出予測関数演算、移動体追従予測関数演算のタイミングを示す図である。FIG. 14 is a diagram illustrating timings of the distance measurement prediction function calculation, the mobile object detection prediction function calculation, and the mobile object tracking prediction function calculation when the distance measurement is performed at the timing when the mobile object moves to the distance measurement point.

符号の説明Explanation of symbols

10…レンズ本体、 20…カメラ本体、 101…撮影光学系、 102…レンズ制御部、 103…通信部、 104…レンズ側接点、 201…薄膜ミラー、 202…撮像素子、 203…移動体検出部、 204,207,210…メモリ、 205…AFセンサ、 205A…測距点、 206…焦点検出部、 208…制御部、 209…予測演算部、 211…メインCPU、 212…通信部、 213…カメラ側接点、 214…移動体検出ブロック、 215…測距ブロック。     DESCRIPTION OF SYMBOLS 10 ... Lens main body, 20 ... Camera main body, 101 ... Imaging optical system, 102 ... Lens control part, 103 ... Communication part, 104 ... Lens side contact, 201 ... Thin film mirror, 202 ... Imaging element, 203 ... Moving body detection part, 204, 207, 210 ... memory, 205 ... AF sensor, 205A ... distance measuring point, 206 ... focus detection unit, 208 ... control unit, 209 ... prediction calculation unit, 211 ... main CPU, 212 ... communication unit, 213 ... camera side Contact point 214... Moving object detection block 215.

Claims (8)

被写体からの光束を結像する撮影レンズ群と、
上記撮影レンズ群からの結像光を電気信号に変換する光電変換手段と、
位相差検出方式により上記撮影レンズ群の焦点位置を検出する焦点検出手段と、
上記焦点検出手段により検出された焦点位置に基づき上記撮影レンズ群のフォーカス位置を調整するためのレンズ制御手段と、
撮影光束を複数に分割し、上記光電変換手段と上記焦点検出手段にそれぞれ光束を導く光分割手段と、
上記光電変換手段により生成された信号に基づき移動体を検出する移動体検出手段と、
上記焦点検出手段と上記移動体検出手段のタイミングを制御する制御手段と、
上記焦点検出手段により検出された焦点検出情報と上記移動体検出手段により検出された移動体情報とに基づき、被写体の動き予測を行う予測演算手段と、
を具備することを特徴とするカメラ。
A group of photographic lenses that image the luminous flux from the subject;
Photoelectric conversion means for converting imaging light from the photographing lens group into an electrical signal;
A focus detection means for detecting a focus position of the photographing lens group by a phase difference detection method;
Lens control means for adjusting the focus position of the photographing lens group based on the focus position detected by the focus detection means;
A light splitting means for splitting a photographing light flux into a plurality of parts and directing the light flux to the photoelectric conversion means and the focus detection means;
Moving body detection means for detecting a moving body based on the signal generated by the photoelectric conversion means;
Control means for controlling the timing of the focus detection means and the moving object detection means;
Based on the focus detection information detected by the focus detection means and the mobile body information detected by the mobile body detection means, a prediction calculation means for predicting the motion of the subject,
A camera comprising:
上記焦点検出手段と上記移動体検出手段は、上記制御手段により設定される非同期のタイミングにおいて各々動作を行うことを特徴とする請求項1に記載のカメラ。   The camera according to claim 1, wherein the focus detection unit and the moving body detection unit each operate at an asynchronous timing set by the control unit. 上記焦点検出手段と上記移動体検出手段は、上記制御手段により設定される同期したタイミングにおいて各々動作を行うことを特徴とする請求項1に記載のカメラ。   2. The camera according to claim 1, wherein the focus detection unit and the moving body detection unit operate at synchronized timings set by the control unit. 上記予測演算手段は、上記移動体検出手段により検出された移動体情報に基づき上記焦点検出手段の測距タイミングを制御することを特徴とする請求項1に記載のカメラ。   The camera according to claim 1, wherein the prediction calculation unit controls distance measurement timing of the focus detection unit based on moving body information detected by the moving body detection unit. 上記予測演算手段は、上記移動体検出手段の情報の信頼性が低い場合は上記焦点検出手段で検出された焦点検出情報のみを用いて被写体の動き予測を行うことを特徴とする請求項1に記載のカメラ。   2. The prediction calculation unit according to claim 1, wherein when the information of the moving body detection unit is low in reliability, the prediction calculation unit performs motion prediction of the subject using only the focus detection information detected by the focus detection unit. The listed camera. 前記焦点検出手段は、前記レンズ制御手段によるレンズ駆動中に焦点検出を行うことを特徴とする請求項1に記載のカメラ。   The camera according to claim 1, wherein the focus detection unit performs focus detection during lens driving by the lens control unit. 前記移動体検出手段は、前記レンズ制御手段によるレンズ駆動中に移動体検出を行うことを特徴とする請求項1に記載のカメラ。   The camera according to claim 1, wherein the moving body detection unit performs moving body detection during lens driving by the lens control unit. 上記光分割手段は、ペリクルミラーであることを特徴とする請求項1乃至7の何れかに記載のカメラ。   The camera according to claim 1, wherein the light splitting unit is a pellicle mirror.
JP2008164868A 2008-06-24 2008-06-24 Camera Withdrawn JP2010008507A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008164868A JP2010008507A (en) 2008-06-24 2008-06-24 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008164868A JP2010008507A (en) 2008-06-24 2008-06-24 Camera

Publications (1)

Publication Number Publication Date
JP2010008507A true JP2010008507A (en) 2010-01-14

Family

ID=41589144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008164868A Withdrawn JP2010008507A (en) 2008-06-24 2008-06-24 Camera

Country Status (1)

Country Link
JP (1) JP2010008507A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011247919A (en) * 2010-05-24 2011-12-08 Canon Inc Imaging apparatus
JP2012189934A (en) * 2011-03-14 2012-10-04 Canon Inc Imaging apparatus
WO2015049917A1 (en) * 2013-10-02 2015-04-09 オリンパス株式会社 Focal point detection device and focal point detection method
JP2015092660A (en) * 2013-10-01 2015-05-14 株式会社ニコン Imaging apparatus, imaging apparatus control method, electronic apparatus, electronic apparatus control method, and control program
US9667856B2 (en) 2011-08-05 2017-05-30 Samsung Electronics Co., Ltd. Auto focus adjusting method, auto focus adjusting apparatus, and digital photographing apparatus including the same
US9838593B2 (en) 2014-11-18 2017-12-05 Fujifilm Corporation Focusing control device, focusing control method, focusing control program, lens device, and imaging device
JP2018022128A (en) * 2016-07-21 2018-02-08 キヤノン株式会社 Focus adjustment device and method and imaging apparatus
US10033919B2 (en) 2016-07-21 2018-07-24 Canon Kabushiki Kaisha Focus adjusting apparatus, focus adjusting method, image capturing apparatus, and storage medium
JP2022145453A (en) * 2021-03-17 2022-10-04 キヤノン株式会社 Imaging apparatus, control method, and storage medium
US11722769B2 (en) 2021-03-17 2023-08-08 Canon Kabushiki Kaisha Image pickup apparatus, control method, and storage medium

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011247919A (en) * 2010-05-24 2011-12-08 Canon Inc Imaging apparatus
JP2012189934A (en) * 2011-03-14 2012-10-04 Canon Inc Imaging apparatus
US9667856B2 (en) 2011-08-05 2017-05-30 Samsung Electronics Co., Ltd. Auto focus adjusting method, auto focus adjusting apparatus, and digital photographing apparatus including the same
JP2015092660A (en) * 2013-10-01 2015-05-14 株式会社ニコン Imaging apparatus, imaging apparatus control method, electronic apparatus, electronic apparatus control method, and control program
JP2015072356A (en) * 2013-10-02 2015-04-16 オリンパス株式会社 Focus detection device
CN105593737A (en) * 2013-10-02 2016-05-18 奥林巴斯株式会社 Focal point detection device and focal point detection method
WO2015049917A1 (en) * 2013-10-02 2015-04-09 オリンパス株式会社 Focal point detection device and focal point detection method
US9749563B2 (en) 2013-10-02 2017-08-29 Olympus Corporation Focal point detection device and focal point detection method
CN105593737B (en) * 2013-10-02 2018-08-28 奥林巴斯株式会社 Focus detection device and focus detecting method
US9838593B2 (en) 2014-11-18 2017-12-05 Fujifilm Corporation Focusing control device, focusing control method, focusing control program, lens device, and imaging device
JP2018022128A (en) * 2016-07-21 2018-02-08 キヤノン株式会社 Focus adjustment device and method and imaging apparatus
US10033919B2 (en) 2016-07-21 2018-07-24 Canon Kabushiki Kaisha Focus adjusting apparatus, focus adjusting method, image capturing apparatus, and storage medium
JP2022145453A (en) * 2021-03-17 2022-10-04 キヤノン株式会社 Imaging apparatus, control method, and storage medium
JP7293309B2 (en) 2021-03-17 2023-06-19 キヤノン株式会社 IMAGING DEVICE, CONTROL METHOD AND STORAGE MEDIUM
US11722769B2 (en) 2021-03-17 2023-08-08 Canon Kabushiki Kaisha Image pickup apparatus, control method, and storage medium

Similar Documents

Publication Publication Date Title
JP2010008507A (en) Camera
US10163222B2 (en) Image capturing apparatus, tracking device, control method, and storage medium
JP2010015024A (en) Image pickup apparatus, control method thereof, program and storage medium
JP5161712B2 (en) Imaging apparatus and imaging method
JP2009017155A (en) Image recognizing device, focus adjusting device and imaging apparatus
JP2003029135A (en) Camera, camera system and photographic lens device
JP6486098B2 (en) Imaging apparatus and control method thereof
JP2008268815A (en) Automatic focusing device
JP2017026914A (en) Imaging apparatus and method of controlling the same
JP6427027B2 (en) Focus detection apparatus, control method therefor, imaging apparatus, program, and storage medium
JP2018031969A (en) Imaging apparatus and control method thereof
JP2011048265A (en) Focus detection device and focus detection method
JP5009239B2 (en) camera
JP5871196B2 (en) Focus adjustment device and imaging device
JP5018932B2 (en) Imaging device
JP6335503B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP5420034B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2010282107A (en) Imaging apparatus and control method therefor
JP2009017093A (en) Image recognizing device, focus adjusting device and imaging apparatus
JP6486086B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2005128291A (en) Focus detecting device and camera
JP5966249B2 (en) Image tracking device
JP2005227447A (en) Autofocus camera
JP2012133067A (en) Imaging apparatus
JP2004069953A (en) Camera

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100127

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110906