[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5447579B2 - Tracking device, focus adjustment device, and photographing device - Google Patents

Tracking device, focus adjustment device, and photographing device Download PDF

Info

Publication number
JP5447579B2
JP5447579B2 JP2012102616A JP2012102616A JP5447579B2 JP 5447579 B2 JP5447579 B2 JP 5447579B2 JP 2012102616 A JP2012102616 A JP 2012102616A JP 2012102616 A JP2012102616 A JP 2012102616A JP 5447579 B2 JP5447579 B2 JP 5447579B2
Authority
JP
Japan
Prior art keywords
image
unit
tracking
focus detection
focus adjustment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012102616A
Other languages
Japanese (ja)
Other versions
JP2012182821A (en
Inventor
慶子 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012102616A priority Critical patent/JP5447579B2/en
Publication of JP2012182821A publication Critical patent/JP2012182821A/en
Application granted granted Critical
Publication of JP5447579B2 publication Critical patent/JP5447579B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、追尾装置、焦点調節装置および撮影装置に関する。
The present invention relates to a tracking device , a focus adjustment device, and an imaging device.

ピントを合わせる対象の画像を基準画像(テンプレート画像)として記憶しておき、繰り返し撮影される画像の中から基準画像に合致する画像をテンプレートマッチング処理により検出し、対象を追尾する画像追尾装置が知られている(例えば、特許文献1参照)。
この出願の発明に関連する先行技術文献としては次のものがある。
An image tracking device that stores an image to be focused as a reference image (template image), detects an image that matches the reference image from images repeatedly shot by template matching processing, and tracks the target is known. (For example, refer to Patent Document 1).
Prior art documents related to the invention of this application include the following.

特開2006−058431号公報JP 2006-058431 A

しかしながら、ピントを合わせる対象の背景が対象の色情報と類似している場合には、対象と異なる背景などの他の部分を誤って誤認してしまう可能性がある。   However, when the background of the target to be focused is similar to the target color information, other parts such as a background different from the target may be mistakenly mistaken.

請求項1の発明による追尾装置は、第1時刻に第1画像を撮像し、前記第1時刻より後の第2時刻に第2画像を撮像する撮像部と、前記第1画像のうち追尾対象となる像の一部に対応する基準情報を記憶する記憶部と、前記記憶部により記憶された前記基準情報と、前記第2画像の所定範囲に含まれる部分画像との相関を演算することにより、前記追尾対象を追尾する演算を行なう追尾演算部と、前記追尾演算部の演算結果に基づいて、前記追尾対象の位置を決定する決定部とを含み、前記追尾演算部は、前記部分画像が焦点検出エリアから近いとき、前記部分画像が前記焦点検出エリアから遠いときよりも前記基準情報との相関が高くなるように演算を行うことを特徴とする。
請求項の発明による焦点調節装置は、第1時刻に第1画像を撮像し、前記第1時刻より後の第2時刻に第2画像を撮像する撮像部と、前記第1画像のうち追尾対象となる像の一部に対応する基準情報を記憶する記憶部と、前記記憶部により記憶された前記基準情報と、前記第2画像の所定範囲に含まれる部分画像との相関を演算することにより、前記追尾対象を追尾する演算を行なう追尾演算部と、前記追尾演算部の演算結果に基づいて、前記追尾対象の位置を決定する決定部と、結像光学系による画面内に設定された複数の焦点検出位置に対して前記結像光学系の焦点調節状態を検出する焦点検出部と、前記決定部によって決定された前記追尾対象の位置と前記焦点検出部によって検出された焦点調節状態とに基づいて、前記複数の焦点検出位置の中から少なくとも一つの前記焦点検出位置を選択する選択部と、前記選択部により選択された前記焦点検出位置の焦点調節状態に基づいて、前記結像光学系の焦点調節制御を行う焦点調節制御部とを含み、前記追尾演算部は、前記部分画像が前記所定範囲の中央にあるとき、前記部分画像が前記所定範囲の周辺にあるときよりも前記基準情報との相関が高くなるように演算を行うことを特徴とする
請求項の発明による焦点調節装置は、第1時刻に第1画像を撮像し、前記第1時刻より後の第2時刻に第2画像を撮像する撮像部と、前記第1画像のうち追尾対象となる像の一部に対応する基準情報を記憶する記憶部と、前記記憶部により記憶された前記基準情報と、前記第2画像の所定範囲に含まれる部分画像との相関を演算することにより、前記追尾対象を追尾する演算を行なう追尾演算部と、前記追尾演算部の演算結果に基づいて、前記追尾対象の位置を決定する決定部と、結像光学系による画面内に設定された複数の焦点検出位置に対して前記結像光学系の焦点調節状態を検出する焦点検出部と、前記決定部によって決定された前記追尾対象の位置と前記焦点検出部によって検出された焦点調節状態とに基づいて、前記複数の焦点検出位置の中から少なくとも一つの前記焦点検出位置を選択する選択部と、前記選択部により選択された前記焦点検出位置の焦点調節状態に基づいて、前記結像光学系の焦点調節制御を行う焦点調節制御部とを含み、前記追尾演算部は、前記部分画像が前記第2画像の中央にあるとき、前記部分画像が前記第2画像の中央にないときよりも前記基準情報との相関が高くなるように演算を行うことを特徴とする。
請求項7の発明による撮影装置は、請求項2乃至請求項6の何れか1項に記載された焦点調節装置を含むことを特徴とする。
A tracking device according to a first aspect of the present invention includes an imaging unit that captures a first image at a first time and captures a second image at a second time after the first time, and a tracking target among the first images. By calculating a correlation between a storage unit that stores reference information corresponding to a part of the image to be obtained, the reference information stored by the storage unit, and a partial image included in a predetermined range of the second image A tracking calculation unit that performs a calculation for tracking the tracking target; and a determination unit that determines a position of the tracking target based on a calculation result of the tracking calculation unit. The calculation is performed so that the correlation with the reference information is higher when the partial image is closer to the focus detection area than when the partial image is far from the focus detection area.
According to a third aspect of the present invention, there is provided a focus adjustment device that captures a first image at a first time and captures a second image at a second time after the first time, and a tracking of the first image. Calculating a correlation between a storage unit that stores reference information corresponding to a part of the target image, the reference information stored by the storage unit, and a partial image included in a predetermined range of the second image; Are set in the screen by the imaging optical system, a tracking calculation unit that performs calculation for tracking the tracking target, a determination unit that determines the position of the tracking target based on the calculation result of the tracking calculation unit A focus detection unit that detects a focus adjustment state of the imaging optical system with respect to a plurality of focus detection positions; a position of the tracking target determined by the determination unit; and a focus adjustment state detected by the focus detection unit; Based on the plurality of focal points A selection unit that selects at least one focus detection position from the output positions, and a focus that performs focus adjustment control of the imaging optical system based on a focus adjustment state of the focus detection position selected by the selection unit An adjustment control unit, wherein the tracking calculation unit has a higher correlation with the reference information when the partial image is in the center of the predetermined range than when the partial image is in the vicinity of the predetermined range. It is characterized in that the operation is performed .
According to a fifth aspect of the present invention, there is provided a focus adjustment device that captures a first image at a first time, captures a second image at a second time after the first time, and tracks the first image. Calculating a correlation between a storage unit that stores reference information corresponding to a part of the target image, the reference information stored by the storage unit, and a partial image included in a predetermined range of the second image; Are set in the screen by the imaging optical system, a tracking calculation unit that performs calculation for tracking the tracking target, a determination unit that determines the position of the tracking target based on the calculation result of the tracking calculation unit A focus detection unit that detects a focus adjustment state of the imaging optical system with respect to a plurality of focus detection positions; a position of the tracking target determined by the determination unit; and a focus adjustment state detected by the focus detection unit; Based on the plurality of focal points A selection unit that selects at least one focus detection position from the output positions, and a focus that performs focus adjustment control of the imaging optical system based on a focus adjustment state of the focus detection position selected by the selection unit The tracking control unit has a higher correlation with the reference information when the partial image is in the center of the second image than when the partial image is not in the center of the second image. The calculation is performed so that
According to a seventh aspect of the present invention, there is provided a photographing apparatus including the focus adjustment apparatus according to any one of the second to sixth aspects .

本発明によれば、対象以外の背景などを誤って認識しにくくすることができる。   According to the present invention, it is possible to make it difficult to erroneously recognize backgrounds other than the target.

一実施の形態の画像認識装置を備えた撮像装置の構成を示す図1 is a diagram illustrating a configuration of an imaging device including an image recognition device according to an embodiment. ボディ駆動制御装置の詳細な構成を示す図The figure which shows the detailed structure of a body drive control apparatus 第2撮像素子の詳細な構成を示す正面図Front view showing a detailed configuration of the second image sensor 第2撮像素子の画素の詳細図Detailed view of pixels of second image sensor 撮影画面内の焦点検出エリアの配置を示す図Diagram showing the arrangement of focus detection areas in the shooting screen 一実施の形態の被写体の追尾方法を説明する図The figure explaining the subject tracking method of one embodiment 一実施の形態の被写体の追尾方法を説明する図The figure explaining the subject tracking method of one embodiment 一実施の形態の被写体追尾動作を示すフローチャートFlowchart showing subject tracking operation of one embodiment 一実施の形態の追尾制御の初期処理を示すフローチャートThe flowchart which shows the initial processing of the tracking control of one embodiment 一実施の形態の追尾演算処理を示すフローチャートThe flowchart which shows the tracking calculation processing of one embodiment

撮影画面内に設定された複数の焦点検出エリアにおいて撮影レンズの焦点調節状態(この一実施の形態ではデフォーカス量)を検出し、いずれかのエリアのデフォーカス量に基づいて撮影レンズを合焦駆動する自動焦点調節(AF)機能と、撮影画像の中の追尾対象の被写体の画像をテンプレート画像(基準画像)として記憶し、繰り返し撮像される画像の中でテンプレート画像と同一または類似した画像の位置を検索しながら(テンプレートマッチング)追尾対象の被写体を追尾する画像追尾機能とを備え、AF機能と画像追尾機能により撮影レンズを駆動しながら対象を追尾する画像認識装置を備えた撮像装置(一眼レフデジタルスチルカメラ)の一実施の形態を説明する。   The focus adjustment state of the photographic lens (in this embodiment, the defocus amount) is detected in a plurality of focus detection areas set in the photographic screen, and the photographic lens is focused based on the defocus amount in one of the areas. The automatic focus adjustment (AF) function to be driven and the image of the subject to be tracked in the photographed image are stored as a template image (reference image). An image pickup apparatus (single-lens) having an image tracking function for tracking a subject to be tracked while searching for a position (template matching) and tracking an object while driving a photographing lens with an AF function and an image tracking function An embodiment of a reflex digital still camera will be described.

図1は、一実施の形態の画像認識装置を備えた撮像装置(一眼レフデジタルスチルカメラ)1の構成を示す。なお、図1では本願発明と直接関係のないカメラの機器および回路についての図示と説明を省略する。一実施の形態のカメラ1は、カメラ本体2に交換レンズ3が交換可能に装着される。カメラ本体2には被写体像を撮像して画像を記録するための第1撮像素子4が設けられる。この第1撮像素子4はCCDやCMOSなどにより構成することができる。撮影時にはクイックリターンミラー5およびサブミラー6が実線で示す撮影光路外の位置に退避してシャッター7が開放され、撮影レンズ8により第1撮像素子4の受光面に被写体像が結像される。   FIG. 1 shows a configuration of an imaging apparatus (single-lens reflex digital still camera) 1 including an image recognition apparatus according to an embodiment. In FIG. 1, illustration and description of camera devices and circuits not directly related to the present invention are omitted. In a camera 1 according to an embodiment, an interchangeable lens 3 is attached to a camera body 2 in a replaceable manner. The camera body 2 is provided with a first image sensor 4 for capturing a subject image and recording the image. The first image sensor 4 can be constituted by a CCD, a CMOS, or the like. At the time of photographing, the quick return mirror 5 and the sub mirror 6 are retracted to a position outside the photographing optical path indicated by a solid line, the shutter 7 is opened, and a subject image is formed on the light receiving surface of the first image sensor 4 by the photographing lens 8.

カメラ本体2の底部には、撮影レンズ8の焦点調節状態を検出するための焦点検出光学系9と測距素子10が設けられている。この一実施の形態では、瞳分割型位相差検出方式による焦点検出方法を採用した例を示す。焦点検出光学系9は、撮影レンズ8を通過した対の焦点検出用光束を測距素子10の受光面へ導き、対の光像を結像させる。測距素子10は例えば対のCCDラインセンサーを備え、対の光像に応じた焦点検出信号を出力する。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示すような撮影光路内の位置に設定されており、撮影レンズ8からの対の焦点検出用光束はクイックリターンミラー5のハーフミラー部を透過し、サブミラー6により反射されて焦点検出光学系9および測距素子10へ導かれる。   At the bottom of the camera body 2, a focus detection optical system 9 and a distance measuring element 10 for detecting the focus adjustment state of the photographing lens 8 are provided. In this embodiment, an example is shown in which a focus detection method based on a pupil division type phase difference detection method is employed. The focus detection optical system 9 guides the pair of focus detection light fluxes that have passed through the photographing lens 8 to the light receiving surface of the distance measuring element 10 and forms a pair of optical images. The distance measuring element 10 includes, for example, a pair of CCD line sensors, and outputs a focus detection signal corresponding to the pair of optical images. Before shooting, the quick return mirror 5 and the sub mirror 6 are set at positions in the shooting optical path as indicated by broken lines, and the pair of focus detection light beams from the shooting lens 8 are transmitted through the half mirror portion of the quick return mirror 5. Then, the light is reflected by the sub mirror 6 and guided to the focus detection optical system 9 and the distance measuring element 10.

カメラ本体2の上部にはファインダー光学系が設けられている。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示す位置にあり、撮影レンズ8からの被写体光はクイックリターンミラー5に反射されて焦点板11へ導かれ、焦点板11上に被写体像が結像する。液晶表示素子12は、焦点板11上に結像された被写体像に焦点検出エリアマークなどの情報を重畳表示するとともに、被写体像外の位置に露出値などの種々の撮影情報を表示する。焦点板11上の被写体像はペンタダハプリズム13および接眼レンズ14を介して接眼窓15へ導かれ、撮影者が被写体像を視認することができる。   A finder optical system is provided on the upper part of the camera body 2. Before shooting, the quick return mirror 5 and the sub mirror 6 are in positions indicated by broken lines, and subject light from the shooting lens 8 is reflected by the quick return mirror 5 and guided to the focusing screen 11, and the subject image is displayed on the focusing screen 11. Form an image. The liquid crystal display element 12 superimposes and displays information such as a focus detection area mark on the subject image formed on the focusing screen 11 and displays various photographing information such as an exposure value at a position outside the subject image. The subject image on the focusing screen 11 is guided to the eyepiece window 15 via the penta roof prism 13 and the eyepiece lens 14 so that the photographer can visually recognize the subject image.

また、カメラ本体2上部のファインダー光学系には、被写体追尾や測光のために被写体像を撮像する第2撮像素子16が設けられる。焦点板11に結像した被写体像は、ペンタ
ダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16の受光面に再結像される。第2撮像素子16は被写体像に応じた画像信号を出力する。撮影前に焦点板11上に結像された被写体像は、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれ、第2撮像素子16の受光面に被写体像が再結像される。詳細を後述するが、この第2撮像素子16により撮像された被写体像に基づいて追尾制御と露出演算が行われる。
The finder optical system at the top of the camera body 2 is provided with a second image sensor 16 that captures a subject image for subject tracking and photometry. The subject image formed on the focusing screen 11 is re-imaged on the light receiving surface of the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18. The second image sensor 16 outputs an image signal corresponding to the subject image. The subject image formed on the focusing screen 11 before photographing is guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18, and the subject image is formed on the light receiving surface of the second image sensor 16. Is re-imaged. As will be described in detail later, tracking control and exposure calculation are performed based on the subject image captured by the second image sensor 16.

カメラ本体2にはまた、ボディ駆動制御装置19、操作部材20などが設けられる。ボディ駆動制御装置19は、詳細を後述するマイクロコンピューターとメモリ、A/D変換器などの周辺部品から構成され、カメラ1の種々の制御と演算を行う。操作部材20には、シャッターボタン、焦点検出エリア選択スイッチ、撮影モード選択スイッチなどのカメラ1を操作するためのスイッチやセレクターが含まれる。   The camera body 2 is also provided with a body drive control device 19 and an operation member 20. The body drive control device 19 is constituted by peripheral components such as a microcomputer, a memory, and an A / D converter, the details of which will be described later, and performs various controls and calculations of the camera 1. The operation member 20 includes a switch and a selector for operating the camera 1 such as a shutter button, a focus detection area selection switch, and a shooting mode selection switch.

交換レンズ3には、ズーミングレンズ8a、フォーカシングレンズ8b、絞り21、レンズ駆動制御装置22などが設けられる。なお、この一実施の形態では撮影レンズ8をズーミングレンズ8a、フォーカシングレンズ8bおよび絞り21で体表的に表すが、撮影レンズ8の構成は図1に示す構成に限定されない。レンズ駆動制御装置22は図示しないマイクロコンピューターとメモリ、駆動回路、アクチュエーターなどの周辺部品から構成され、レンズ8a、8bおよび絞り21の駆動制御とそれらの設定位置検出を行う。レンズ駆動制御装置22に内蔵されるメモリには、交換レンズ3の焦点距離や開放絞り値などの情報が記憶されている。   The interchangeable lens 3 is provided with a zooming lens 8a, a focusing lens 8b, a diaphragm 21, a lens drive control device 22, and the like. In this embodiment, the photographic lens 8 is represented by a zoom lens 8a, a focusing lens 8b, and a diaphragm 21, but the configuration of the photographic lens 8 is not limited to the configuration shown in FIG. The lens drive control device 22 includes a microcomputer (not shown) and peripheral components such as a memory, a drive circuit, and an actuator, and performs drive control of the lenses 8a and 8b and the diaphragm 21 and detection of their set positions. Information such as a focal length and an open aperture value of the interchangeable lens 3 is stored in a memory built in the lens drive control device 22.

ボディ駆動制御装置19とレンズ駆動制御装置22はレンズマウント部の接点23を介して通信を行い、ボディ駆動制御装置19からレンズ駆動制御装置22へレンズ駆動量や絞り値などの情報を送信し、レンズ駆動制御装置22からボディ駆動制御装置19へレンズ情報や絞り情報を送信する。   The body drive control device 19 and the lens drive control device 22 communicate via the contact 23 of the lens mount, and transmit information such as a lens drive amount and an aperture value from the body drive control device 19 to the lens drive control device 22. Lens information and aperture information are transmitted from the lens drive control device 22 to the body drive control device 19.

図2はボディ駆動制御装置19の詳細な構成を示す。なお、本願発明と直接関係のない制御機能については図示と説明を省略する。ボディ駆動制御装置19は素子制御回路19a、A/D変換器19b、マイクロコンピューター19c、メモリ19dなどを備えている。素子制御回路19aは第2撮像素子16の電荷の蓄積と読み出しを制御する。A/D変換器19bは、第2撮像素子16から出力されるアナログ画像信号をデジタル画像信号に変換する。マイクロコンピューター19cは、ソフトウエア形態により追尾制御部19e、露出制御部19f、焦点検出演算部19gおよびレンズ駆動量演算部19hを構成する。メモリ19dは、画像追尾用のテンプレート画像やデフォーカス量などの情報、あるいは撮影レンズ8の焦点距離、開放F値、絞り値、像ズレ量からデフォーカス量への変換係数などのレンズ情報を記憶する。   FIG. 2 shows a detailed configuration of the body drive control device 19. Note that illustration and description of control functions not directly related to the present invention are omitted. The body drive control device 19 includes an element control circuit 19a, an A / D converter 19b, a microcomputer 19c, a memory 19d, and the like. The element control circuit 19 a controls charge accumulation and reading of the second image sensor 16. The A / D converter 19b converts the analog image signal output from the second image sensor 16 into a digital image signal. The microcomputer 19c constitutes a tracking control unit 19e, an exposure control unit 19f, a focus detection calculation unit 19g, and a lens drive amount calculation unit 19h according to a software form. The memory 19d stores information such as a template image for image tracking and a defocus amount, or lens information such as a focal length, an open F value, an aperture value, and a conversion coefficient from an image shift amount to a defocus amount. To do.

追尾制御部19eは、第2撮像素子16により撮像した被写体像の内、撮影者が手動で指定した追尾対象位置、あるいはカメラ1が自動で設定した追尾対象位置に対応する画像をテンプレート画像(基準画像)としてメモリ19dに記憶させ、その後に繰り返し撮影
される画像の中からテンプレート画像と一致または類似する画像領域を検索することによって対象の位置を認識する。露出演算部19fは、第2撮像素子16により撮像した画像信号に基づいて露出値を演算する。
The tracking control unit 19e generates a template image (reference image) of the subject image captured by the second image sensor 16 and corresponding to the tracking target position manually specified by the photographer or the tracking target position automatically set by the camera 1. Image) is stored in the memory 19d, and the position of the target is recognized by searching for an image area that matches or is similar to the template image from images repeatedly photographed thereafter. The exposure calculation unit 19f calculates an exposure value based on the image signal captured by the second image sensor 16.

焦点検出演算部19gは、測距素子10から出力される対の光像に応じた焦点検出信号に基づいて撮影レンズ8の焦点調節状態、ここではデフォーカス量を検出する。なお、詳細を後述するが、撮影レンズ8の撮影画面内には複数の焦点検出エリアが設定されており、測距素子10は焦点検出エリアごとに対の光像に応じた焦点検出信号を出力し、焦点検出演算部19gは焦点検出エリアごとに対の光像に応じた焦点検出信号に基づいてデフォ
ーカス量を検出する。レンズ駆動量演算部19hは検出されたデフォーカス量をレンズ駆動量に変換する。
The focus detection calculation unit 19g detects the focus adjustment state of the photographing lens 8, here the defocus amount, based on the focus detection signal corresponding to the pair of optical images output from the distance measuring element 10. Although details will be described later, a plurality of focus detection areas are set in the shooting screen of the shooting lens 8, and the distance measuring element 10 outputs a focus detection signal corresponding to a pair of optical images for each focus detection area. Then, the focus detection calculation unit 19g detects the defocus amount based on the focus detection signal corresponding to the pair of optical images for each focus detection area. The lens driving amount calculation unit 19h converts the detected defocus amount into a lens driving amount.

図3は第2撮像素子16の詳細な構成を示す正面図である。第2撮像素子16は、マトリクス状に配列された複数の画素(光電変換素子)26(ここでは横16個×縦12個=192個)を備えている。各画素26は図4に示すように3個の部分26a、26b、26cに分割され、これらの部分26a、26b、26cにはそれぞれ赤R、緑G、青Bの原色フィルターが設けられている。これにより、各画素26ごとに被写体像のRGB信号を出力することができる。   FIG. 3 is a front view showing a detailed configuration of the second image sensor 16. The second imaging element 16 includes a plurality of pixels (photoelectric conversion elements) 26 (here, horizontal 16 × vertical 12 = 192) arranged in a matrix. As shown in FIG. 4, each pixel 26 is divided into three portions 26a, 26b, and 26c, and primary color filters of red R, green G, and blue B are provided in these portions 26a, 26b, and 26c, respectively. . Thereby, the RGB signal of the subject image can be output for each pixel 26.

次に、一実施の形態の被写体追尾動作を説明する。図5〜図7は一実施の形態の被写体追尾方法を説明するための図、図8〜図10は一実施の形態の被写体追尾処理を示すフローチャートである。シャッターボタンを全押しして撮影を行うとき以外は、クイックリターンミラー5が図1に破線で示す撮影光路内に設定されており、撮影レンズ8から入射した被写体光は焦点板11上に結像される。そして、焦点板11上の被写体像はペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれ、第2撮像素子16から被写体像信号が繰り返し出力される。   Next, a subject tracking operation according to an embodiment will be described. 5 to 7 are diagrams for explaining a subject tracking method according to the embodiment, and FIGS. 8 to 10 are flowcharts illustrating subject tracking processing according to the embodiment. The quick return mirror 5 is set in the photographing optical path shown by the broken line in FIG. 1 except when the shutter button is fully pressed to shoot, and the subject light incident from the photographing lens 8 forms an image on the focusing screen 11. Is done. The subject image on the focusing screen 11 is guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18, and the subject image signal is repeatedly output from the second image sensor 16.

撮影レンズ8の撮影画面には複数の焦点検出エリアが設定されており、液晶表示素子12により焦点板11上の被写体像にエリアマークを重畳し、各焦点検出エリアの位置を表示する。この一実施の形態では、図5に示すように、撮影画面内の7カ所に焦点検出エリア45a〜45gが設定された例を示す。また、操作部材20の焦点検出エリア選択スイッチにより任意のエリアを選択すると、そのエリアのマークが点灯表示される。   A plurality of focus detection areas are set on the shooting screen of the shooting lens 8, and an area mark is superimposed on the subject image on the focusing screen 11 by the liquid crystal display element 12 to display the position of each focus detection area. In this embodiment, as shown in FIG. 5, an example is shown in which focus detection areas 45a to 45g are set at seven locations in the shooting screen. When an arbitrary area is selected by the focus detection area selection switch of the operation member 20, the mark of the area is lit up.

図5に示すように操作部材20の焦点検出エリア選択スイッチにより焦点検出エリア45bが選択され、この状態で操作部材20のシャッターボタンが半押しされると、焦点検出エリア45bが初回AFエリアとしてメモリ19dに記憶される。これにより、追尾対称の被写体が指定される。なお、ここでは撮影者が初回AFエリアを選択して追尾対象の被写体を手動で指定する例を示したが、例えば自動的に被写体を認識する機能を備えたカメラでは被写体認識結果に基づいて初回AFエリアおよび追尾対象被写体を設定してもよい。   As shown in FIG. 5, when the focus detection area 45b is selected by the focus detection area selection switch of the operation member 20, and the shutter button of the operation member 20 is half-pressed in this state, the focus detection area 45b is stored as the first AF area. 19d. Thereby, a tracking symmetrical subject is designated. In this example, the photographer selects the first AF area and manually specifies the subject to be tracked. However, for example, in a camera having a function of automatically recognizing a subject, the first time is determined based on the subject recognition result. An AF area and a tracking target subject may be set.

ステップ1において、第2撮像素子16により追尾初期画像(画像追尾処理を開始して最初に取得する画像)を取得する。この追尾初期画像は画素ごとにRGB値で表す。
R[x,y]、G[x,y]、B[x,y] ・・・(1)
この画素ごとのRGB値に基づいて各画素の色情報RG、BG、画像を取得したときの露光時間T、ゲインGain、色合成係数Kr、Kg、Kbから輝度情報Lを算出する。
RG[x,y]=Log(R[x,y])−Log(G[x,y]),
BG[x,y]=Log(B[x,y])−Log(G[x,y]),
L[x,y]=Log(Kr×R[x,y]+Kg×G[x,y]+Kb×B[x,y])−Log(T)−Log(Gain) ・・・(2)
In step 1, an initial tracking image (an image acquired first after starting the image tracking process) is acquired by the second image sensor 16. This initial tracking image is represented by RGB values for each pixel.
R [x, y], G [x, y], B [x, y] (1)
Based on the RGB values for each pixel, the luminance information L is calculated from the color information RG and BG of each pixel, the exposure time T when the image is acquired, the gain Gain, and the color synthesis coefficients Kr, Kg, and Kb.
RG [x, y] = Log 2 (R [x, y]) − Log 2 (G [x, y]),
BG [x, y] = Log 2 (B [x, y]) − Log 2 (G [x, y]),
L [x, y] = Log 2 (Kr × R [x, y] + Kg × G [x, y] + Kb × B [x, y]) − Log 2 (T) −Log 2 (Gain) (2)

続くステップ2では、図9に示す追尾制御初期処理を実行する。図9のステップ101において、第2撮像素子16で取得した追尾初期画像の中の焦点検出エリア45bの位置に対応する位置の画像を、被写体色情報として記憶する。ステップ102では、図6(a)に示すように、追尾初期画像の中の焦点検出エリア45b(図5参照)の位置周辺部において被写体色情報と同様な色情報を示す同色情報領域を検出し、続くステップ103で同色情報領域を初期の追尾被写体領域47とする。   In the subsequent step 2, the tracking control initial process shown in FIG. 9 is executed. In step 101 of FIG. 9, an image at a position corresponding to the position of the focus detection area 45b in the tracking initial image acquired by the second image sensor 16 is stored as subject color information. In step 102, as shown in FIG. 6A, the same color information area showing the same color information as the subject color information is detected in the position peripheral portion of the focus detection area 45b (see FIG. 5) in the tracking initial image. In step 103, the same color information area is set as the initial tracking subject area 47.

なお、ここでは被写体色情報に基づいて追尾被写体領域47を決定する例を示すが、処
理の簡素化を図るために一律に3×3画素のように追尾被写体領域のサイズを統一したり、さらに撮影レンズ8の距離情報に応じて被写体領域のサイズを決定してもよい。
Here, an example in which the tracking subject area 47 is determined based on the subject color information is shown, but in order to simplify the processing, the size of the tracking subject area is uniformly set to 3 × 3 pixels, The size of the subject area may be determined according to the distance information of the photographing lens 8.

ステップ104において、追尾初期画像の中の追尾被写体領域47の画像を画像追尾処理に用いるテンプレート画像48(図6(b)参照)としてメモリ19dに記憶する。例えば、追尾被写体領域47の始点位置が図6(a)に示すように(x,y)=(4,5)の場合には、テンプレート画像48の色情報は次のように表される。
RGref[rx,ry]=RG[x,y]、
BGref[rx,ry]=BG[x,y]、
Lref[rx,ry]=L[x,y] (rx,ry=1〜3、x=4〜6、y=5〜7) ・・・(3)
In step 104, the image of the tracking subject area 47 in the tracking initial image is stored in the memory 19d as a template image 48 (see FIG. 6B) used for the image tracking process. For example, when the starting point position of the tracking subject region 47 is (x, y) = (4, 5) as shown in FIG. 6A, the color information of the template image 48 is expressed as follows.
RGref [rx, ry] = RG [x, y],
BGref [rx, ry] = BG [x, y],
Lref [rx, ry] = L [x, y] (rx, ry = 1 to 3, x = 4 to 6, y = 5 to 7) (3)

次に、ステップ105で追尾被写体領域47を中心に前後左右に所定画素(ここでは2画素とする)づつ拡大した領域を探索領域49に設定する。図6(a)に示す例では、探索領域49は、x=2〜8、y=3〜9の領域になる。   Next, in step 105, an area enlarged by predetermined pixels (here, two pixels) around the tracking subject area 47 is set as the search area 49. In the example shown in FIG. 6A, the search area 49 is an area where x = 2 to 8 and y = 3 to 9.

追尾制御の初期処理が終了したら図8のステップ3へ進み、操作部材20のシャッターボタンが全押しされたか否か、つまりシャッターレリーズ操作が行われたか否かを確認する。シャッターレリーズ操作がない場合はステップ4へ進み、第2撮像素子16から追尾次画像を取得し、ステップ1の処理と同様に色情報RG[x,y]、BG[x,y]および輝度情報L[x,y]を算出し、メモリ19dに記憶する。同時に、測距素子10により、各焦
点検出エリア45a〜45gごとに焦点検出用の対の光像に応じた焦点検出信号を取得する。
When the initial processing of the tracking control is completed, the process proceeds to step 3 in FIG. 8 to check whether or not the shutter button of the operation member 20 has been fully pressed, that is, whether or not the shutter release operation has been performed. If there is no shutter release operation, the process proceeds to step 4 to obtain a tracking next image from the second image sensor 16, and color information RG [x, y], BG [x, y] and luminance information are obtained in the same manner as the process in step 1. L [x, y] is calculated and stored in the memory 19d. At the same time, the focus detection signal corresponding to the pair of optical images for focus detection is acquired by the distance measuring element 10 for each of the focus detection areas 45a to 45g.

ステップ5では、図10に示す追尾演算処理を実行する。図10のステップ201において、追尾次画像の中の探索領域49からテンプレート画像48と同じサイズの領域を順次切り出し、切り出した画像とテンプレート画像48の対応する画素ごとに色情報の差分Diffを算出する。図7(a)に太い破線で示すように、探索領域49の中で1画素ずつ領
域をずらしながらテンプレート画像48との色情報の差分Diffを算出する。
In step 5, the tracking calculation process shown in FIG. 10 is executed. In step 201 in FIG. 10, a region having the same size as the template image 48 is sequentially cut out from the search region 49 in the tracking next image, and a color information difference Diff is calculated for each corresponding pixel in the cut-out image and the template image 48. . As shown by a thick broken line in FIG. 7A, a color information difference Diff from the template image 48 is calculated while shifting the region by one pixel in the search region 49.

今、図7(a)に示すように探索領域49の始点位置が(scx,scy)=(2,3)であるとすると、差分Diffの演算は次のようにして行う。
Diff[dx,dy]=ΣΣ{ABS(RG[scx+dx−1+rx,scy+dy−1+r
y]−RGref[rx,ry])+ABS(BG[scx+dx−1+rx,scy+dy−1+ry]−BGref[rx,ry])+ABS(L[scx+dx−1+rx,scy+dy−1+ry]−Lref[rx,ry])} ・・・(4)
(4)式において、dx,dy=1〜5、rx,ry=1〜3、scx=2、scy=3、ΣΣはrx=1〜3およびry=1〜3の総和演算である。
Now, assuming that the starting point position of the search area 49 is (scx, scy) = (2, 3) as shown in FIG. 7A, the calculation of the difference Diff is performed as follows.
Diff [dx, dy] = ΣΣ {ABS (RG [scx + dx−1 + rx, scy + dy−1 + r
y] -RGref [rx, ry]) + ABS (BG [scx + dx-1 + rx, scy + dy-1 + ry] -BGref [rx, ry]) + ABS (L [scx + dx-1 + rx, scy + dy-1 + ry] -Lref [rx, ry]) } (4)
In the equation (4), dx, dy = 1 to 5, rx, ry = 1 to 3, scx = 2, scy = 3, and ΣΣ is a sum operation of rx = 1 to 3 and ry = 1 to 3.

次に、ステップ202で算出した差分Diffに対して重み付けを行う。この実施の形態
では、差分Diff[dx,dy](dx、dy=1〜5)の個数(この例では25個)分の重みテーブルWt[dx,dy]を予め設定し、この重みテーブルWtに重み係数Kwを乗じ
た値を重みとする。
Wt[dx,dy]={(2,2,2,2,2)
(2,1,1,1,2)
(2,1,0,1,2)
(2,1,1,1,2)
(2,2,2,2,2)}、
Diff’[dx,dy]=(Kw×Wt[dx,dy])+Diff[dx,dy] (dx、dy
=1〜5) ・・・(5)
Next, the difference Diff calculated in step 202 is weighted. In this embodiment, weight tables Wt [dx, dy] corresponding to the number of differences Diff [dx, dy] (dx, dy = 1 to 5) (25 in this example) are preset, and the weight table Wt A value obtained by multiplying by a weight coefficient Kw is used as a weight.
Wt [dx, dy] = {(2, 2, 2, 2, 2)
(2,1,1,1,2)
(2,1,0,1,2)
(2,1,1,1,2)
(2, 2, 2, 2, 2)},
Diff '[dx, dy] = (Kw × Wt [dx, dy]) + Diff [dx, dy] (dx, dy
= 1-5) (5)

(5)式に示す重みテーブルWtは、探索領域49の中央から切り出した領域の差分Diffに対する重みを最小にし、探索領域49の周辺になるにしたがって切り出し領域の差
分Diffに対する重みを大きくする重みパターンであり、この重みテーブルWtを用いる
ことによって前回の焦点調節時に撮影レンズ8の焦点調節を行うために採用した焦点検出エリアの位置を優先することになる。通常、繰り返し行われる自動焦点調節において、前回の焦点調節時に撮影レンズ8の焦点調節を行うエリアとして採用した焦点検出エリア、もしくはその近傍において追尾対象を捕捉する確率が高いと考えられるので、前回の焦点調節時の採用エリア位置から切り出される領域に対する差分Diffに対して最小の重みを
付与する。
The weight table Wt shown in the equation (5) is a weight pattern that minimizes the weight for the difference Diff of the region cut out from the center of the search region 49 and increases the weight for the difference Diff of the cut-out region toward the periphery of the search region 49. By using this weight table Wt, priority is given to the position of the focus detection area employed for performing focus adjustment of the photographing lens 8 at the time of previous focus adjustment. Usually, in automatic focus adjustment that is repeatedly performed, it is considered that there is a high probability of capturing a tracking target in or near the focus detection area that is adopted as an area for performing focus adjustment of the photographing lens 8 at the time of previous focus adjustment. A minimum weight is assigned to the difference Diff for the region cut out from the adopted area position during focus adjustment.

なお、撮影者が操作部材20の焦点検出エリア選択スイッチにより選択した焦点検出エリアで焦点検出を行い、その焦点検出結果に基づいて撮影レンズ8の焦点調節を行うシングルAFモード、撮影者が操作部材20の焦点検出エリア選択スイッチにより選択した焦点検出エリアで焦点検出と焦点調節を行いながら、被写体が選択した焦点検出エリアから外れてしまったときでも他の焦点検出エリアの焦点検出結果によりバックアップして焦点検出を行い、動いている被写体を追い続けるダイナミックAFモードなど、選択した焦点検出エリアに被写体を捕捉しながら撮影を行うAFモードが設定された場合には、選択された焦点検出エリアの位置から切り出される領域に対する差分Diffに対して最小の重み
を付与する。これにより、追尾対象を確実に捕捉することができる。
The single AF mode in which the photographer performs focus detection in the focus detection area selected by the focus detection area selection switch of the operation member 20 and adjusts the focus of the photographing lens 8 based on the focus detection result, and the photographer operates the operation member. While performing focus detection and focus adjustment in the focus detection area selected by the 20 focus detection area selection switch, even when the subject deviates from the selected focus detection area, backup is performed based on the focus detection results of other focus detection areas. When an AF mode is set that captures the subject in the selected focus detection area, such as a dynamic AF mode that performs focus detection and keeps track of the moving subject, it starts from the position of the selected focus detection area. A minimum weight is assigned to the difference Diff for the region to be cut out. As a result, the tracking target can be reliably captured.

(5)式に示すような重みテーブルWtを設定することによって、追尾対象が背景などの他の部分に対してはっきりとした差のある色情報を持たない場合でも、対象と異なる背景などの他の部分を対象と誤認して追尾したり、カメラと追尾対象との位置関係が変化していないのに画像追尾結果の位置が背景や他の異なる部分など様々な位置に移り変わるのを防止し、追尾動作を安定化させることができる。   By setting the weight table Wt as shown in the equation (5), even when the tracking target does not have color information having a clear difference with respect to other parts such as the background, To prevent the part of the image tracking from moving to various positions such as the background and other different parts even though the positional relationship between the camera and the tracking target has not changed, The tracking operation can be stabilized.

一方、(5)式における重み係数Kwは、重みテーブルWtによる作用効果を調整するための係数である。追尾対象の色情報と背景などの他の部分の色情報との差が小さいほど、重み係数Kwの値を大きくして重みテーブルWtによる作用効果を増大させ、追尾対象を正しく捕捉して追尾動作を安定にする。逆に、追尾対象の色情報と背景などの他の部分の色情報との差が比較的大きい場合には、重み係数Kwの値を小さくして重みテーブルWtによる無用な作用を抑制する。   On the other hand, the weighting coefficient Kw in the equation (5) is a coefficient for adjusting the operational effect by the weighting table Wt. The smaller the difference between the color information of the tracking target and the color information of the other parts such as the background, the larger the value of the weighting coefficient Kw and the effect of the weight table Wt are increased. To stabilize. On the other hand, when the difference between the color information to be tracked and the color information of other parts such as the background is relatively large, the value of the weighting factor Kw is reduced to suppress unnecessary effects due to the weight table Wt.

ステップ203において、重み付けを加えた差分Diff’[dx,dy]の中の最小の差分を検索し、探索領域49内で最小の差分を算出したときの上記切り出し領域を新しい追尾被写体領域47に決定する。ここでは、図7(b)に示すように、始点位置が(x,y)=(5,6)の切り出し領域を新しい追尾被写体領域47とする。   In step 203, the smallest difference among the weighted differences Diff ′ [dx, dy] is searched, and the cutout area when the smallest difference is calculated in the search area 49 is determined as the new tracking subject area 47. To do. Here, as shown in FIG. 7B, a cut-out area whose start point position is (x, y) = (5, 6) is set as a new tracking subject area 47.

ここで、新しく被写体領域47に決定された画像情報を用いてテンプレート画像48の画像情報を更新する処理を加えてもよい。その場合、例えば元のテンプレート画像48の画像情報80%に対して新被写体領域47の画像情報20%を加えることによって、テンプレート画像の情報に対して最新の画像情報が少しずつ更新され、追尾被写体の変化に追従しやすくなる。この場合、追尾演算のたびに毎回更新を行うのではなく、追尾被写体領域47として決定した位置の差分Diff’の大きさに基づいて、あるしきい値より小さい
ときのみ更新するようにしてもよい。
Here, a process of updating the image information of the template image 48 using the image information newly determined for the subject region 47 may be added. In that case, for example, by adding 20% of the image information of the new subject area 47 to the image information of 80% of the original template image 48, the latest image information is updated little by little with respect to the information of the template image. It becomes easy to follow the change of. In this case, the update may not be performed every time the tracking calculation is performed, but may be updated only when the difference Diff ′ of the position determined as the tracking subject region 47 is smaller than a certain threshold value. .

ステップ204で、新しい追尾被写体領域47を中心に前後左右に所定画素(ここでは2画素とする)づつ拡大した領域を新しい探索領域49に設定する。ここでは、図7(b)に示すように、x=3〜9、y=4〜10の領域を新しい探索領域49とする。その後、
図8のステップ6へリターンする。
In step 204, an area enlarged by predetermined pixels (here, two pixels) around the new tracking subject area 47 is set as a new search area 49. Here, as shown in FIG. 7B, an area of x = 3 to 9 and y = 4 to 10 is set as a new search area 49. after that,
Return to Step 6 in FIG.

リターン後の図8のステップ6において、ステップ4にて取得した焦点検出信号に基づいて各選択焦点検出エリア45a〜45gの撮影レンズ8の焦点調節状態、すなわちデフォーカス量を検出する。続くステップ7では、すべての焦点検出エリアのデフォーカス量の中から、前回の焦点調節時に採用した焦点検出エリアのデフォーカス量に類似するデフォーカス量を示す焦点検出エリアを検索する。   In step 6 of FIG. 8 after the return, the focus adjustment state of the photographing lens 8 in each of the selected focus detection areas 45a to 45g, that is, the defocus amount is detected based on the focus detection signal acquired in step 4. In the subsequent step 7, a focus detection area showing a defocus amount similar to the defocus amount of the focus detection area employed in the previous focus adjustment is searched from among the defocus amounts of all focus detection areas.

ステップ8において、ステップ5における画像追尾結果の新追尾被写体領域と、ステップ6〜7におけるエリア検索結果の焦点検出エリアとに基づいて、焦点調節を行うエリアを決定する。この一実施の形態では、画像追尾結果の新追尾被写体領域47に対応する焦点検出エリアと、エリア検索結果の焦点検出エリアとを比較し、画像追尾結果とエリア探索結果とに共通の焦点検出エリアを焦点調節を行うエリア(以下、焦点調節エリアという)に決定する。ステップ9で、焦点調節エリアで検出されたデフォーカス量をレンズ駆動量に変換し、レンズ駆動制御装置22によりフォーカシングレンズ8bを駆動して焦点調節を行う。   In step 8, an area for focus adjustment is determined based on the new tracking subject area of the image tracking result in step 5 and the focus detection area of the area search result in steps 6-7. In this embodiment, the focus detection area corresponding to the new tracking subject area 47 of the image tracking result is compared with the focus detection area of the area search result, and the focus detection area common to the image tracking result and the area search result is compared. Are determined as areas for focus adjustment (hereinafter referred to as focus adjustment areas). In step 9, the defocus amount detected in the focus adjustment area is converted into a lens drive amount, and the lens drive control device 22 drives the focusing lens 8b to perform focus adjustment.

焦点調節後のステップ3でレリーズボタンの全押しを確認する。シャッターボタンが半押しされている間、ステップ4〜9の処理を繰り返し実行し、シャッターボタンが全押しされるとステップ10へ進み、撮影処理を実行する。   Confirm that the release button is fully pressed in step 3 after adjusting the focus. While the shutter button is half-pressed, the processes in steps 4 to 9 are repeatedly executed. When the shutter button is fully pressed, the process proceeds to step 10 to execute the photographing process.

このように、一実施の形態によれば、撮影レンズ8により結像された画像を撮像して色情報を出力する第2撮像素子16と、追尾対象の像に関する基準色情報(テンプレート画像の色情報)を記憶するメモリ19dとを備え、画像と対象の像との比較位置をずらしながら画像の色情報と基準色情報との差分Diffを演算するとともに、各差分Diffに重み付けを行い、重み付け後の差分Diff’が最小となる位置を新しい追尾対象の位置に決定す
るようにした。これにより、追尾対象が背景などの他の部分に対してはっきりとした差のある色情報を持たない場合でも、対象と異なる背景などの他の部分を対象と誤認して追尾したり、カメラと追尾対象との位置関係が変化していないのに画像追尾結果の位置が背景や他の異なる部分など様々な位置に移り変わるのを防止でき、追尾対象を正しく捕捉することができ、追尾動作を安定化させることができる。
As described above, according to the embodiment, the second imaging element 16 that captures an image formed by the photographing lens 8 and outputs color information, and the reference color information (the color of the template image) about the image to be tracked. A memory 19d for storing information), calculating the difference Diff between the color information of the image and the reference color information while shifting the comparison position between the image and the target image, and weighting each difference Diff. The position where the difference Diff ′ is minimized is determined as a new tracking target position. As a result, even if the tracking target does not have color information with a clear difference with respect to other parts such as the background, other parts such as the background different from the target are misidentified as the target, and tracking can be performed. Even if the positional relationship with the tracking target has not changed, the position of the image tracking result can be prevented from changing to various positions such as the background and other different parts, the tracking target can be captured correctly, and the tracking operation is stable It can be made.

また、一実施の形態によれば、前回の画像追尾で追尾対象の位置に決定された位置に対応する差分Diffの重みを最小とし、前回の画像追尾で追尾対象の位置に決定された位置
から遠ざかるほど差分Diffに対する重みを大きくするようにしたので、追尾対象を捕捉
する確率が高くなる。
According to one embodiment, the weight of the difference Diff corresponding to the position determined as the tracking target position in the previous image tracking is minimized, and the tracking target position is determined from the position determined in the previous image tracking. Since the weight for the difference Diff is increased as the distance increases, the probability of capturing the tracking target increases.

なお、上述した一実施の形態では、前回の焦点調節時に焦点調節を行うために採用した焦点検出エリアの位置を優先する重みパターンの例を示したが、重みテーブルWtの重みパターンは上述した一実施の形態のパターンに限定されない。   In the above-described embodiment, an example of the weight pattern that prioritizes the position of the focus detection area used for performing the focus adjustment at the time of the previous focus adjustment is shown, but the weight pattern of the weight table Wt is the one described above. The pattern is not limited to the embodiment.

また、上述した一実施の形態では、探索領域内で算出された色情報の差分Diffに対し
て重み付けを行う例を示したが、撮影画面の全範囲の画像に対して色情報の差分Diffを
求め、撮影画面の全範囲で算出された差分Diffに対して重み付けを行い、新しい追尾被
写体領域を設定するようにしてもよい。撮影画面の全範囲から追尾被写体領域を探索する場合には、撮影レンズ8の撮影画面中央に対応する差分Diffの重みを最小とし、撮影レ
ンズ8の撮影画面中央から遠ざかるほど差分Diffに対する重みを大きくする。通常、撮
影画面中央に主要被写体を捕捉する確率が高いので、繰り返し行われる画像追尾において追尾対象を捕捉する確率が高くなる。
In the above-described embodiment, the example in which the difference Diff of the color information calculated in the search area is weighted has been described. However, the difference Diff of the color information is applied to the entire range of images on the shooting screen. The new tracking subject area may be set by weighting the difference Diff calculated over the entire range of the shooting screen. When searching the tracking subject area from the entire range of the shooting screen, the weight of the difference Diff corresponding to the center of the shooting screen of the shooting lens 8 is minimized, and the weight for the difference Diff is increased as the distance from the center of the shooting screen of the shooting lens 8 increases. To do. Usually, since there is a high probability of capturing the main subject in the center of the shooting screen, there is a high probability of capturing the tracking target in repeated image tracking.

さらに、色情報の差分Diffの内の最大値と最小値を抽出し、最大値と最小値の差に応
じて重み係数Wkを設定し、重みテーブルWtの作用効果が最適になるようにしてもよい。最大値と最小値の差が小さく、探索領域内または撮影画面内の画像が均一に近い色で際だつ色がない場合には、重み係数Kwの値を大きくして重みテーブルWtによる作用効果を増大させ、背景などへの誤認を防止して追尾動作を安定にする。逆に、最大値と最小値の差が比較的大きく、追尾対象の色情報と背景などの他の部分の色情報との差が比較的大きい場合には、重み係数Kwの値を小さくして重みテーブルWtによる無用な作用を抑制する。
Further, the maximum value and the minimum value of the color information difference Diff are extracted, the weight coefficient Wk is set according to the difference between the maximum value and the minimum value, and the effect of the weight table Wt is optimized. Good. When the difference between the maximum value and the minimum value is small, and the image in the search area or in the shooting screen is a nearly uniform color with no noticeable color, the value of the weighting factor Kw is increased to increase the effect of the weight table Wt. To prevent misidentification of the background and stabilize the tracking operation. On the contrary, when the difference between the maximum value and the minimum value is relatively large and the difference between the color information to be tracked and the color information of other parts such as the background is relatively large, the value of the weighting factor Kw is decreased. Unnecessary action by the weight table Wt is suppressed.

さらにまた、撮影モードに応じて重み係数Wkを設定し、重みテーブルWtの作用効果が最適になるようにしてもよい。例えば、スポーツモードやペットモードなど、動きの速い被写体を追尾する撮影モードでは、重み係数Wkの値を小さくして重みテーブルWtによる無用な作用を抑制し、被写体の動きに追従し易くする。逆に、ポートレートモードなど、動きが小さい被写体を撮影する場合には、被写体が突然に遠くに移動する可能性は低いので、重み係数Kwを大きくして重みテーブルWtの作用効果を増大させ、追尾対象が背景などの他の部分に切り換わりにくくする。   Furthermore, the weighting factor Wk may be set according to the photographing mode so that the effect of the weight table Wt is optimized. For example, in a shooting mode that tracks a fast-moving subject such as a sports mode or a pet mode, the value of the weighting factor Wk is reduced to suppress unnecessary action by the weight table Wt and to easily follow the movement of the subject. Conversely, when shooting a subject with small movement, such as a portrait mode, since the possibility that the subject suddenly moves far is low, the weighting factor Kw is increased to increase the effect of the weight table Wt. Make it difficult for the tracking target to switch to other parts such as the background.

8 撮影レンズ
10 測距素子
16 第2撮像素子
19 ボディ駆動制御装置
19d メモリ
22 レンズ駆動制御装置
8 Shooting Lens 10 Ranging Element 16 Second Image Sensor 19 Body Drive Control Device 19d Memory 22 Lens Drive Control Device

Claims (9)

第1時刻に第1画像を撮像し、前記第1時刻より後の第2時刻に第2画像を撮像する撮像部と、
前記第1画像のうち追尾対象となる像の一部に対応する基準情報を記憶する記憶部と、
前記記憶部により記憶された前記基準情報と、前記第2画像の所定範囲に含まれる部分画像との相関を演算することにより、前記追尾対象を追尾する演算を行なう追尾演算部と、
前記追尾演算部の演算結果に基づいて、前記追尾対象の位置を決定する決定部とを含み、
前記追尾演算部は、前記部分画像が焦点検出エリアから近いとき、前記部分画像が前記焦点検出エリアから遠いときよりも前記基準情報との相関が高くなるように演算を行うことを特徴とする追尾装置。
An imaging unit that captures a first image at a first time and captures a second image at a second time after the first time;
A storage unit that stores reference information corresponding to a part of the image to be tracked in the first image;
A tracking calculation unit for calculating the tracking target by calculating a correlation between the reference information stored in the storage unit and a partial image included in a predetermined range of the second image;
A determination unit that determines a position of the tracking target based on a calculation result of the tracking calculation unit;
The tracking calculation unit performs the calculation so that the correlation with the reference information is higher when the partial image is closer to the focus detection area than when the partial image is far from the focus detection area. apparatus.
請求項に記載された追尾装置と、
結像光学系による画面内に設定された複数の焦点検出位置に対して前記結像光学系の焦点調節状態を検出する焦点検出部と、
前記決定部によって決定された前記追尾対象の位置と前記焦点検出部によって検出された焦点調節状態とに基づいて、前記複数の焦点検出位置の中から少なくとも一つの前記焦点検出位置を選択する選択部と、
前記選択部により選択された前記焦点検出位置の焦点調節状態に基づいて、前記結像光学系の焦点調節制御を行う焦点調節制御部とを含むことを特徴とする焦点調節装置
A tracking device according to claim 1 ;
A focus detection unit for detecting a focus adjustment state of the imaging optical system with respect to a plurality of focus detection positions set in a screen by the imaging optical system;
A selection unit that selects at least one focus detection position from the plurality of focus detection positions based on the position of the tracking target determined by the determination unit and the focus adjustment state detected by the focus detection unit. When,
A focus adjustment device comprising: a focus adjustment control unit that performs focus adjustment control of the imaging optical system based on a focus adjustment state of the focus detection position selected by the selection unit .
第1時刻に第1画像を撮像し、前記第1時刻より後の第2時刻に第2画像を撮像する撮像部と、
前記第1画像のうち追尾対象となる像の一部に対応する基準情報を記憶する記憶部と、
前記記憶部により記憶された前記基準情報と、前記第2画像の所定範囲に含まれる部分画像との相関を演算することにより、前記追尾対象を追尾する演算を行なう追尾演算部と、
前記追尾演算部の演算結果に基づいて、前記追尾対象の位置を決定する決定部と
結像光学系による画面内に設定された複数の焦点検出位置に対して前記結像光学系の焦点調節状態を検出する焦点検出部と、
前記決定部によって決定された前記追尾対象の位置と前記焦点検出部によって検出された焦点調節状態とに基づいて、前記複数の焦点検出位置の中から少なくとも一つの前記焦点検出位置を選択する選択部と、
前記選択部により選択された前記焦点検出位置の焦点調節状態に基づいて、前記結像光学系の焦点調節制御を行う焦点調節制御部とを含み、
前記追尾演算部は、前記部分画像が前記所定範囲の中央にあるとき、前記部分画像が前記所定範囲の周辺にあるときよりも前記基準情報との相関が高くなるように演算を行うことを特徴とする焦点調節装置
An imaging unit that captures a first image at a first time and captures a second image at a second time after the first time;
A storage unit that stores reference information corresponding to a part of the image to be tracked in the first image;
A tracking calculation unit for calculating the tracking target by calculating a correlation between the reference information stored in the storage unit and a partial image included in a predetermined range of the second image;
A determination unit that determines a position of the tracking target based on a calculation result of the tracking calculation unit ;
A focus detection unit for detecting a focus adjustment state of the imaging optical system with respect to a plurality of focus detection positions set in a screen by the imaging optical system;
A selection unit that selects at least one focus detection position from the plurality of focus detection positions based on the position of the tracking target determined by the determination unit and the focus adjustment state detected by the focus detection unit. When,
A focus adjustment control unit that performs focus adjustment control of the imaging optical system based on a focus adjustment state of the focus detection position selected by the selection unit,
The tracking calculation unit performs a calculation so that the correlation with the reference information is higher when the partial image is in the center of the predetermined range than when the partial image is in the vicinity of the predetermined range. Focus adjustment device .
請求項に記載された焦点調節装置であって、
前記所定範囲は前記部分画像の探索範囲であり、
前記追尾演算部は、前記探索範囲内から切り出した前記部分画像と、前記基準情報との差を検出し、前記差に対して、前記部分画像が前記探索範囲の中央にあるとき前記部分画像が前記探索範囲の周辺にあるときよりも前記基準情報との相関が高くなるように重み付けを行うことを特徴とする焦点調節装置
The focus adjustment device according to claim 3 ,
The predetermined range is a search range of the partial image,
The tracking calculation unit detects a difference between the partial image cut out from the search range and the reference information, and when the partial image is at the center of the search range with respect to the difference, the partial image is A focus adjustment device that performs weighting so that the correlation with the reference information is higher than that in the vicinity of the search range.
第1時刻に第1画像を撮像し、前記第1時刻より後の第2時刻に第2画像を撮像する撮像部と、
前記第1画像のうち追尾対象となる像の一部に対応する基準情報を記憶する記憶部と、
前記記憶部により記憶された前記基準情報と、前記第2画像の所定範囲に含まれる部分画像との相関を演算することにより、前記追尾対象を追尾する演算を行なう追尾演算部と、
前記追尾演算部の演算結果に基づいて、前記追尾対象の位置を決定する決定部と
結像光学系による画面内に設定された複数の焦点検出位置に対して前記結像光学系の焦点調節状態を検出する焦点検出部と、
前記決定部によって決定された前記追尾対象の位置と前記焦点検出部によって検出された焦点調節状態とに基づいて、前記複数の焦点検出位置の中から少なくとも一つの前記焦点検出位置を選択する選択部と、
前記選択部により選択された前記焦点検出位置の焦点調節状態に基づいて、前記結像光学系の焦点調節制御を行う焦点調節制御部とを含み、
前記追尾演算部は、前記部分画像が前記第2画像の中央にあるとき、前記部分画像が前記第2画像の中央にないときよりも前記基準情報との相関が高くなるように演算を行うことを特徴とする焦点調節装置
An imaging unit that captures a first image at a first time and captures a second image at a second time after the first time;
A storage unit that stores reference information corresponding to a part of the image to be tracked in the first image;
A tracking calculation unit for calculating the tracking target by calculating a correlation between the reference information stored in the storage unit and a partial image included in a predetermined range of the second image;
A determination unit that determines a position of the tracking target based on a calculation result of the tracking calculation unit ;
A focus detection unit for detecting a focus adjustment state of the imaging optical system with respect to a plurality of focus detection positions set in a screen by the imaging optical system;
A selection unit that selects at least one focus detection position from the plurality of focus detection positions based on the position of the tracking target determined by the determination unit and the focus adjustment state detected by the focus detection unit. When,
A focus adjustment control unit that performs focus adjustment control of the imaging optical system based on a focus adjustment state of the focus detection position selected by the selection unit,
The tracking computation unit performs computation so that when the partial image is in the center of the second image, the correlation with the reference information is higher than when the partial image is not in the center of the second image. Focus adjustment device characterized by.
請求項乃至請求項の何れか1項に記載された焦点調節装置であって、
前記追尾演算部は、色情報を用いて前記追尾対象を追尾する演算を行なうことを特徴とする焦点調節装置
A focus adjusting apparatus according to any one of claims 2 to 5 ,
The focus adjustment device , wherein the tracking calculation unit performs calculation for tracking the tracking target using color information.
請求項2乃至請求項6の何れか1項に記載された焦点調節装置を含むことを特徴とする撮影装置。 An imaging apparatus comprising the focus adjustment apparatus according to any one of claims 2 to 6 . 請求項7に記載された撮影装置であって、
前記撮像部の出力を用いて測光を行う測光部と、
記録する画像を撮影する撮影部とを含むことを特徴とする撮影装置。
The photographing apparatus according to claim 7,
A photometric unit that performs photometry using the output of the imaging unit;
An imaging apparatus comprising: an imaging unit that captures an image to be recorded.
請求項7又は請求項8に記載された撮影装置であって、
前記結像光学系を有するレンズ鏡筒を着脱可能であることを特徴とする撮影装置。
The imaging device according to claim 7 or claim 8,
An imaging apparatus, wherein a lens barrel having the imaging optical system is detachable.
JP2012102616A 2012-04-27 2012-04-27 Tracking device, focus adjustment device, and photographing device Active JP5447579B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012102616A JP5447579B2 (en) 2012-04-27 2012-04-27 Tracking device, focus adjustment device, and photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012102616A JP5447579B2 (en) 2012-04-27 2012-04-27 Tracking device, focus adjustment device, and photographing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007175021A Division JP4985155B2 (en) 2007-07-03 2007-07-03 Focus adjustment device and imaging device

Publications (2)

Publication Number Publication Date
JP2012182821A JP2012182821A (en) 2012-09-20
JP5447579B2 true JP5447579B2 (en) 2014-03-19

Family

ID=47013582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012102616A Active JP5447579B2 (en) 2012-04-27 2012-04-27 Tracking device, focus adjustment device, and photographing device

Country Status (1)

Country Link
JP (1) JP5447579B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6118623B2 (en) * 2013-04-15 2017-04-19 日本放送協会 Image processing apparatus and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3174869B2 (en) * 1992-09-04 2001-06-11 株式会社ニコン Target object tracking device
JP2002267441A (en) * 2001-03-07 2002-09-18 Fuji Heavy Ind Ltd Stereo matching apparatus and monitor
JP4807623B2 (en) * 2006-07-25 2011-11-02 カシオ計算機株式会社 Imaging apparatus, imaging method, and imaging program

Also Published As

Publication number Publication date
JP2012182821A (en) 2012-09-20

Similar Documents

Publication Publication Date Title
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP5082631B2 (en) Imaging device
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP5176483B2 (en) Image recognition device, image tracking device, and imaging device
JP5157256B2 (en) Image tracking device and imaging device
JP2009109839A (en) Image tracking device and imaging device
JP4893334B2 (en) Image tracking device and imaging device
JP5056136B2 (en) Image tracking device
JP5403111B2 (en) Image tracking device
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP2012226206A (en) Image tracking device and imaging apparatus
JP4985155B2 (en) Focus adjustment device and imaging device
JP5256847B2 (en) Imaging device
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP2010200138A (en) Photographic subject tracking device
JP5446660B2 (en) Image recognition apparatus and imaging apparatus
JP5541396B2 (en) Image tracking device
JP5176845B2 (en) Image tracking device and imaging device
JP2010054586A (en) Focusing device and imaging apparatus
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP5966249B2 (en) Image tracking device
JP5347834B2 (en) Image tracking device
JP2012093775A (en) Focus detector and imaging apparatus
JP5772933B2 (en) Imaging device
JP4973369B2 (en) Image processing apparatus and imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131216

R150 Certificate of patent or registration of utility model

Ref document number: 5447579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250