[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6159055B2 - Automatic focusing device, imaging device, and automatic focusing method - Google Patents

Automatic focusing device, imaging device, and automatic focusing method Download PDF

Info

Publication number
JP6159055B2
JP6159055B2 JP2012000850A JP2012000850A JP6159055B2 JP 6159055 B2 JP6159055 B2 JP 6159055B2 JP 2012000850 A JP2012000850 A JP 2012000850A JP 2012000850 A JP2012000850 A JP 2012000850A JP 6159055 B2 JP6159055 B2 JP 6159055B2
Authority
JP
Japan
Prior art keywords
subject
focus
size
area
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012000850A
Other languages
Japanese (ja)
Other versions
JP2013140288A (en
Inventor
英育 本宮
英育 本宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012000850A priority Critical patent/JP6159055B2/en
Publication of JP2013140288A publication Critical patent/JP2013140288A/en
Application granted granted Critical
Publication of JP6159055B2 publication Critical patent/JP6159055B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像対象に人物などの予め定められた被写体を含む場合に、人物などの特徴部(顔部など)を抽出し、その結果を考慮して焦点調節を行う撮像装置における自動焦点調節装置及び方法に関する。 According to the present invention, when an imaging target includes a predetermined subject such as a person, a feature part (such as a face part) such as a person is extracted, and automatic focusing is performed in an imaging apparatus that performs focus adjustment in consideration of the result. The present invention relates to an apparatus and a method.

ビデオカメラ等の自動焦点調節であるオートフォーカス(AF)制御では、次の様なTV−AF方式が主流である。すなわち、被写体からの光を撮像素子を用いて光電変換することにより生成された映像信号の鮮鋭度(コントラスト状態)を示すAF評価値信号を生成し、該AF評価値信号が最大となるフォーカスレンズの位置を探索する。しかしながら、顔検出機能を有する撮像装置において、人物を撮影する場合、一般的に人の顔はコントラストが低いため、十分なAF評価値を得にくい。よって、被写体との距離の変化が発生した場合などは、AF評価値の変化では合焦方向の特定が困難であるため、被写体に対してレンズ位置が追従できずに被写体像がボケてしまうことがあった。 In autofocus (AF) control, which is automatic focus adjustment for a video camera or the like, the following TV-AF system is the mainstream. That is, an AF evaluation value signal indicating the sharpness (contrast state) of a video signal generated by photoelectrically converting light from a subject using an image sensor, and a focus lens that maximizes the AF evaluation value signal Search for the location of. However, when a person is photographed in an imaging apparatus having a face detection function, it is difficult to obtain a sufficient AF evaluation value because a human face generally has low contrast. Therefore, when a change in the distance to the subject occurs, it is difficult to specify the in-focus direction with a change in the AF evaluation value, and the subject image is blurred because the lens position cannot follow the subject. was there.

このような問題を解決するために、検出された顔のサイズを比較し、顔サイズの増減が発生した場合は、被写体が至近または無限側の方向へ移動したと判定し、被写体を追従するようにフォーカスレンズを駆動する方法が提案されている(特許文献1、特許文献2参照)。 In order to solve such problems, the detected face sizes are compared, and if the face size increases or decreases, it is determined that the subject has moved closer or infinitely and follows the subject. A method of driving a focus lens has been proposed (see Patent Document 1 and Patent Document 2).

特開2009-31760号公報JP 2009-31760 JP 特開2008-276214号公報JP 2008-276214 A

しかし、上述した顔検出を用いたオートフォーカスでは、被写界深度などの撮影パラメータや被写体の状態を考慮していないため、次の様なことが起こり得る。すなわち、検出された顔のサイズのバラツキや撮影時のパラメータの設定によっては、被写体の距離変化の方向を誤判定してしまったり、被写体にボケが発生していないのに不必要に移動判定を行ってしまい、AFの精度が低下することがあり得る。さらに、広角での撮影などにおいて、狙った被写体以外が画面内を横切ることにより、誤ってフォーカスレンズがその被写体に対して追従してしまうということがあった。 However, in the autofocus using the face detection described above, since the shooting parameters such as the depth of field and the state of the subject are not considered, the following can occur. In other words, depending on the detected size variation of the face and the setting of the parameters at the time of shooting, the direction of the subject's distance change may be misjudged, or even if there is no blur on the subject, movement determination is unnecessary. The accuracy of AF may be reduced. Furthermore, when shooting at a wide angle, the focus lens may mistakenly follow the subject when a subject other than the intended subject crosses the screen.

本発明は、上記点を鑑みてなされたものである。その目的は、動画撮影等でTV−AF方式を用いて被写体の人物等にAFを行うと共に、被写体の距離変化が発生した場合に、被写体の動きなどを考慮して判別領域を決めて距離変化の判定を行い、AFの安定性と精度を高められる焦点調節装置及び方法を提供することである。 The present invention has been made in view of the above points. The purpose is to perform AF on a subject person using the TV-AF method in moving image shooting, etc., and when a change in the distance of the subject occurs, determine the discrimination area in consideration of the movement of the subject and change the distance. It is possible to provide a focus adjustment device and method that can improve AF stability and accuracy.

本発明の焦点調節装置は、フォーカスレンズを含む撮像光学系を通過した被写体からの光を光電変換して電気信号に変換する撮像素子力から所定の被写体を検出する検出手段と、前記被写体を含む焦点検出領域に対応する前記撮像素子の出力のうちの焦点検出信号から焦点評価値を生成する生成手段と、前記検出手段の出力から前記被写体の光軸方向の距離変化を判別する判別手段と、前記撮像光学系の焦点距離に応じて前記被写体の光軸方向の距離変化を判別する判別領域の撮像画面内における大きさを決定する判別領域決定手段と、前記焦点評価値を用いて焦点調節を行う焦点調節手段と、前記判別領域内を移動する前記被写体光軸方向の距離変化があると判別された場合、前記被写体の光軸方向の距離変化方向に応じて前記フォーカスレンズを移動させる制御手段を有する。前記判別領域決定手段は、前記検出手段にて検出された被写体の検出個数が多い場合の判別領域の大きさを前記被写体の検出個数が少ない場合の判別領域の大きさよりも小さくなるように前記判別領域の大きさを決定する。或いは、前記判別領域決定手段は、前記検出手段にて検出された被写体の移動量が大きい場合の判別領域の大きさを前記被写体の移動量が小さい場合の判別領域の大きさよりも小さくなるように前記判別領域の大きさを決定する。 Focusing device of the present invention includes a detection means for detecting the output or et predetermined subject in the image pickup element for converting into an electric signal by photoelectric conversion of light from the object which has passed through the imaging optical system including a focus lens, the A generating unit that generates a focus evaluation value from a focus detection signal among outputs of the image sensor corresponding to a focus detection region including a subject, and a determination that determines a change in distance of the subject in the optical axis direction from the output of the detection unit A determination area determining means for determining a size of a determination area in the imaging screen for determining a distance change in the optical axis direction of the subject according to a focal distance of the imaging optical system, and the focus evaluation value. a focusing means for performing focus adjustment, the object of the discriminated if there is a change in the distance in the optical axis direction for moving the discrimination area, in response to said distance changing direction of the optical axis direction of the subject follower Having a control means for moving the Kasurenzu. The discriminating region determining means, wherein the size of the determination area when the detection number of the detected subject in the previous SL detecting means is large so as to be smaller than the size of the determination area when a small number of detected said subject The size of the discrimination area is determined. Alternatively, the determination area determining means may make the size of the determination area when the movement amount of the subject detected by the detection means is smaller than the size of the determination area when the movement amount of the subject is small. The size of the discrimination area is determined.

また、本発明の焦点調節方法は、フォーカスレンズを含む撮像光学系を通過した被写体からの光を光電変換して電気信号に変換する撮像素子力から所定の被写体を検出するステップと、前記被写体を含む焦点検出領域に対応する前記撮像素子の出力のうちの焦点検出信号から焦点評価値を生成する生成ステップと、前記検出ステップにおける出力から前記被写体の光軸方向の距離変化を判別する判別ステップと、前記撮像光学系の焦点距離に応じて前記被写体の光軸方向の距離変化を判別する判別領域の撮像画面内における大きさを決定する判別領域決定ステップと、前記焦点評価値を用いて焦点調節を行う焦点調節ステップと、前記判別領域内を移動する前記被写体光軸方向の距離変化があると判別された場合に、前記被写体の光軸方向の距離変化方向に応じて前記フォーカスレンズを移動させる制御ステップを含む。前記判別領域決定ステップにおいて、前記検出ステップにおいて検出された被写体の検出個数が多い場合の判別領域の大きさを前記被写体の検出個数が少ない場合の判別領域の大きさよりも小さくなるように前記判別領域の大きさを決定する。或いは、前記判別領域決定ステップにおいて、前記検出ステップにおいて検出された被写体の移動量が大きい場合の判別領域の大きさを前記被写体の移動量が小さい場合の判別領域の大きさよりも小さくなるように前記判別領域の大きさを決定する。 The focal adjustment method of the present invention includes the steps of detecting the output or et predetermined subject in the image pickup element for converting into an electric signal by photoelectric conversion of light from the object which has passed through the imaging optical system including a focus lens, A generation step for generating a focus evaluation value from a focus detection signal among outputs of the image sensor corresponding to a focus detection region including the subject, and a change in distance in the optical axis direction of the subject from the output in the detection step are determined. Using a determination step, a determination region determination step for determining a size of a determination region in the imaging screen for determining a change in distance of the subject in the optical axis direction according to a focal length of the imaging optical system, and the focus evaluation value a focusing step of performing focus adjustment Te, the discriminated if there is a change in the distance in the optical axis direction of the object that moves the determination area, the optical axis of the object Comprising a control step of moving the focus lens in accordance with a distance change direction countercurrent. In the discrimination area determining step, before Symbol wherein the size of the determining area of often detected number of detected subject to be smaller than the size of the determination area when a small number of detected the object determination in the detection step Determine the size of the area. Alternatively, in the determination area determination step, the size of the determination area when the amount of movement of the subject detected in the detection step is large is made smaller than the size of the determination area when the amount of movement of the subject is small. The size of the discrimination area is determined.

以上説明したように、本発明によれば、被写体状況や撮影パラメータなどに応じて、被写体の移動判定を行う領域を可変にしているため、誤判定を軽減することが可能になる。これにより、オートフォーカスの安定性と精度の向上が可能になる。 As described above, according to the present invention, it is possible to reduce misjudgment because the region for subject movement determination is made variable in accordance with subject conditions, shooting parameters, and the like. Thereby, the stability and accuracy of autofocus can be improved.

本発明の一実施例であるビデオカメラの構成を示すブロック図。1 is a block diagram illustrating a configuration of a video camera that is an embodiment of the present invention. 本発明の一実施例のカメラ/AFマイコンの処理を示すフローチャート。The flowchart which shows the process of the camera / AF microcomputer of one Example of this invention. 本発明の一実施例の微小駆動動作の処理を示すフローチャート。The flowchart which shows the process of the micro drive operation | movement of one Example of this invention. 本発明の一実施例の微小駆動動作を示す図。The figure which shows the micro drive operation | movement of one Example of this invention. 本発明の一実施例の山登り動作の処理を示すフローチャート。The flowchart which shows the process of the mountain climbing operation | movement of one Example of this invention. 本発明の一実施例の山登り動作を示す図。The figure which shows the mountain climbing operation | movement of one Example of this invention. 本発明の一実施例の移動判定の処理を示すフローチャート。The flowchart which shows the process of the movement determination of one Example of this invention. 本発明の一実施例の安定判定の処理を示すフローチャート。The flowchart which shows the process of the stability determination of one Example of this invention. 本発明の一実施例の移動判定閾値設定の処理を示すフローチャート。The flowchart which shows the process of the movement determination threshold value setting of one Example of this invention. 本発明の一実施例のズームレンズ位置に応じた閾値を示す図。The figure which shows the threshold value according to the zoom lens position of one Example of this invention. 本発明の一実施例の基準顔サイズに応じた補正係数Kを示す図。The figure which shows the correction coefficient K according to the reference | standard face size of one Example of this invention. 本発明の一実施例の撮影モードに応じた補正係数K’’’を示す図。FIG. 6 is a diagram illustrating a correction coefficient K ′ ″ according to a shooting mode according to an embodiment of the present invention. 本発明の一実施例の横顔を表す信頼度の算出方法を示す図。The figure which shows the calculation method of the reliability showing the side face of one Example of this invention. 本発明の一実施例の揺れ検出の処理を示すフローチャート。The flowchart which shows the process of the shake detection of one Example of this invention. 本発明の一実施例の揺れ検出処理において検出する揺れの例を示す図。The figure which shows the example of the shake detected in the shake detection process of one Example of this invention. 本発明の一実施例の揺れ検出を示す図。The figure which shows the shake detection of one Example of this invention. 本発明の一実施例の終了判定処理を示すフローチャート。The flowchart which shows the completion | finish determination processing of one Example of this invention. 本発明の一実施例の被写体判定領域の判定処理を示すフローチャート。5 is a flowchart illustrating subject determination region determination processing according to an embodiment of the present invention. 本発明の一実施例の被写体判定領域の画面に対する割合を示したグラフ。The graph which showed the ratio with respect to the screen of the to-be-photographed object determination area | region of one Example of this invention. 本発明の一実施例の被写体判定領域の画面に対する割合を示した図。The figure which showed the ratio with respect to the screen of the to-be-photographed object determination area | region of one Example of this invention.

本発明の特徴は、自動焦点調節に際し、予め定められた被写体(人物の顔など)の大きさの変化などを監視して被写体の光軸方向の距離変化の有無を判別するときに、撮影状況や撮影パラメータに応じて、被写体の移動判定を行う領域を可変にすることである。そして、距離変化なしのときは、フォーカスレンズを被写体の距離変化に追従させる追従駆動動作を制限して焦点調節を行い、距離変化ありのときは、前記追従駆動動作を許可して焦点調節を行う。この考え方に基づき、本発明の焦点調節装置及び方法は、それぞれ、課題を解決するための手段のところで述べた様な基本的な構成を有する。 The feature of the present invention is that, when automatic focusing is performed, a change in the size of a predetermined subject (such as a person's face) is monitored to determine whether there is a change in the distance in the optical axis direction of the subject. In other words, the area where the movement of the subject is determined can be changed according to the shooting parameters. When there is no change in the distance, focus adjustment is performed by limiting the follow-up driving operation that causes the focus lens to follow the change in the distance of the subject, and when there is a change in distance, the follow-up drive operation is permitted and the focus adjustment is performed. . Based on this concept, each of the focus adjustment apparatuses and methods of the present invention has a basic configuration as described in the section for solving the problems.

以下、本発明の実施例を説明する。図1は、本発明の実施例である自動焦点調節装置を含むビデオカメラ(撮像装置)の構成を示す。以下の実施例では、ビデオカメラについて説明するが、本発明はデジタルスチルカメラ等の他の撮像装置にも適用できる。 Examples of the present invention will be described below. FIG. 1 shows a configuration of a video camera (image pickup apparatus) including an automatic focus adjustment apparatus according to an embodiment of the present invention. In the following embodiments, a video camera will be described, but the present invention can also be applied to other imaging devices such as a digital still camera.

図1において、101は第1固定レンズ、102は光軸方向に移動して変倍を行う変倍レンズ、103は絞りである。また、104は第2固定レンズ、105は変倍に伴う焦点面の移動を補正する機能とフォーカシングの機能とを兼ね備えたフォーカスコンペンセータレンズ(本明細書では、フォーカスレンズともいう)である。第1固定レンズ101、変倍レンズ102、絞り103、第2固定レンズ104、及びフォーカスレンズ105により被写体からの光を結像するための撮像光学系が構成される。106は、CCDセンサやCMOSセンサにより構成される光電変換素子としての撮像素子である。撮像素子106は、結像された光を光電変換して電気信号に変換する。107は、撮像素子106の出力をサンプリングし、ゲイン調整するCDS/AGC回路である。108はカメラ信号処理回路であり、CDS/AGC回路107からの出力信号に対して各種の画像処理を施し、映像信号を生成する。109はLCD等により構成されるモニタであり、カメラ信号処理回路108からの映像信号を表示する。115は記録部であり、カメラ信号処理回路108からの映像信号を磁気テープ、光ディスク、半導体メモリ等の記録媒体に記録する。 In FIG. 1, 101 is a first fixed lens, 102 is a variable magnification lens that moves in the optical axis direction and performs variable magnification, and 103 is a diaphragm. Reference numeral 104 denotes a second fixed lens, and reference numeral 105 denotes a focus compensator lens (also referred to as a focus lens in this specification) that has both a function of correcting the movement of the focal plane due to zooming and a focusing function. The first fixed lens 101, the variable power lens 102, the stop 103, the second fixed lens 104, and the focus lens 105 constitute an imaging optical system for imaging light from the subject. Reference numeral 106 denotes an image sensor as a photoelectric conversion element constituted by a CCD sensor or a CMOS sensor. The image sensor 106 photoelectrically converts the imaged light into an electrical signal. Reference numeral 107 denotes a CDS / AGC circuit that samples the output of the image sensor 106 and adjusts the gain. A camera signal processing circuit 108 performs various image processing on the output signal from the CDS / AGC circuit 107 to generate a video signal. Reference numeral 109 denotes a monitor constituted by an LCD or the like, which displays a video signal from the camera signal processing circuit 108. A recording unit 115 records the video signal from the camera signal processing circuit 108 on a recording medium such as a magnetic tape, an optical disk, or a semiconductor memory.

110は、変倍レンズ102を移動させるためのズーム駆動源である。111は、フォーカスレンズ105を移動させるためのフォーカシング駆動源である。ズーム駆動源110及びフォーカシング駆動源111は、夫々、ステッピングモータ、DCモータ、振動型モータ、及びボイスコイルモータ等のアクチュエータにより構成される。112は、CDS/AGC回路107からの全画素の出力信号のうち焦点検出に用いられる領域(焦点検出領域)の信号のみを通すAFゲートである。AF信号処理回路113は、AFゲート112を通過した信号から高周波成分を抽出してAF評価値を生成する。つまり、AF信号処理回路113は、電気信号の映像信号に対して設定された焦点検出領域からAF評価値を生成する生成手段を構成する。AF評価値は、制御手段であるカメラ/AFマイコン114に出力される。AF評価値は、撮像素子106からの出力信号に基づいて生成される映像の鮮鋭度(コントラスト状態)を表すものであるが、鮮鋭度は撮像光学系の焦点状態(合焦の程度)によって変化するので、結果的に撮像光学系の焦点状態を表す信号となる。制御手段としてのカメラ/AFマイコン114は、ビデオカメラ全体の動作の制御を司るとともに、AF評価値に基づいて、フォーカシング駆動源111を制御してフォーカスレンズ105を駆動制御し焦点調節を行うAF制御をも行う。 Reference numeral 110 denotes a zoom drive source for moving the variable magnification lens 102. Reference numeral 111 denotes a focusing drive source for moving the focus lens 105. The zoom drive source 110 and the focusing drive source 111 are configured by actuators such as a stepping motor, a DC motor, a vibration type motor, and a voice coil motor, respectively. Reference numeral 112 denotes an AF gate that passes only signals in a region (focus detection region) used for focus detection among output signals of all pixels from the CDS / AGC circuit 107. The AF signal processing circuit 113 extracts a high frequency component from the signal that has passed through the AF gate 112 and generates an AF evaluation value. That is, the AF signal processing circuit 113 constitutes a generation unit that generates an AF evaluation value from a focus detection area set for an electric video signal. The AF evaluation value is output to the camera / AF microcomputer 114 which is a control means. The AF evaluation value represents the sharpness (contrast state) of an image generated based on the output signal from the image sensor 106, and the sharpness changes depending on the focus state (degree of focusing) of the imaging optical system. As a result, a signal representing the focus state of the imaging optical system is obtained. The camera / AF microcomputer 114 as a control unit controls the operation of the entire video camera, and controls the focusing drive source 111 based on the AF evaluation value to drive the focus lens 105 and perform focus adjustment. Also do.

本実施例の顔検出部116は、画像信号に対して公知の顔検出処理を施し、撮影画面内の人物の顔領域を検出する。すなわち、顔検出部116は、電気信号から予め定められた被写体(ここでは顔)を検出する被写体検出手段を構成する。その検出結果はカメラ/AFマイコン114に送信される。カメラ/AFマイコン114は、上記検出結果に基づき、撮影画面内の顔領域を含む位置に焦点検出領域を設定するようにAFゲート112へ情報を送信する。顔検出処理としては、画像データで表される各画素の階調色から肌色領域を抽出し、予め用意する顔の輪郭プレートとのマッチング度で顔を検出する方法や、周知のパターン認識技術を用いて、目、鼻、口等の顔の特徴点を抽出することで顔検出を行う方法等がある。 The face detection unit 116 according to the present embodiment performs a known face detection process on the image signal to detect a human face area in the shooting screen. That is, the face detection unit 116 constitutes a subject detection unit that detects a predetermined subject (here, a face) from the electrical signal. The detection result is transmitted to the camera / AF microcomputer 114. Based on the detection result, the camera / AF microcomputer 114 transmits information to the AF gate 112 so as to set the focus detection area at a position including the face area in the shooting screen. As face detection processing, a skin color region is extracted from the gradation color of each pixel represented by image data, and a face is detected based on a matching degree with a face contour plate prepared in advance, or a known pattern recognition technique is used. There is a method of performing face detection by extracting facial feature points such as eyes, nose and mouth.

さらに、顔検出部116では、顔の信頼度と、横顔の信頼度の算出を行っている。顔の信頼度の算出は、例えば、顔の輪郭プレートとのマッチング度に基づいて算出され、マッチング度が高い順に5段階で表現される。また、横顔らしさを表す信頼度の算出は、図13に示すように、検出されている顔の両目の中心位置(図中の点線)を基準に顔検出枠を左右に分割するように領域を抽出する。そして、左右領域に含まれる肌色領域を抽出し、肌色領域の画素数をカウントすることで面積を算出する。横顔らしさを表す信頼度は、左右の画面に含まれる肌色領域の比を用いて算出される。左右の肌色の領域が同じ比率であった場合は、横顔の可能性が低いとして、横顔らしさを表す信頼度を低く設定し、比率が大きく異なる場合は、横顔の可能性が高いとして、信頼度を高く設定する。本実施例では、この比率に応じで信頼度を5段階に設定する。 Further, the face detection unit 116 calculates the reliability of the face and the reliability of the profile. The face reliability is calculated based on, for example, the matching degree with the face contour plate, and is expressed in five stages in descending order of matching degree. In addition, as shown in FIG. 13, the calculation of the reliability indicating the likelihood of a side face is performed by dividing the area so that the face detection frame is divided into left and right with reference to the center position of both eyes of the detected face (dotted line in the figure). Extract. Then, the skin color region included in the left and right regions is extracted, and the area is calculated by counting the number of pixels in the skin color region. The reliability representing the likelihood of profile is calculated using the ratio of the skin color area included in the left and right screens. If the left and right skin color areas have the same ratio, the probability of profile is assumed to be low, and the reliability indicating the likelihood of profile is set low, and if the ratio is significantly different, the probability of profile is assumed to be high Set high. In this embodiment, the reliability is set to 5 levels according to this ratio.

117は絞り駆動源であり、絞り103を駆動させるためのアクチュエータ及びそのドライバを含む。CDS/AGC回路107によって読み出された信号からは、画面内の測光枠の輝度値を取得するため、輝度情報検波・演算回路118により測光値が取得され、測光した測光値が演算により正規化される。そして、カメラ/AFマイコン114で、測光値と適正な露出が得られるように設定された目標値との差分が算出される。その後、算出した差分から絞りの補正駆動量を算出し、カメラ/AFマイコン114により絞り駆動源117の駆動が制御される。 Reference numeral 117 denotes an aperture driving source, which includes an actuator for driving the aperture 103 and its driver. From the signal read by the CDS / AGC circuit 107, in order to obtain the luminance value of the photometric frame in the screen, the photometric value is obtained by the luminance information detection / calculation circuit 118, and the photometric photometric value is normalized by calculation. Is done. Then, the camera / AF microcomputer 114 calculates the difference between the photometric value and the target value set so that proper exposure can be obtained. Thereafter, the correction driving amount of the diaphragm is calculated from the calculated difference, and the driving of the diaphragm driving source 117 is controlled by the camera / AF microcomputer 114.

次に、カメラ/AFマイコン114で行われるAF制御について、図2を用いて説明する。このAF制御は、カメラ/AFマイコン114内に格納されたコンピュータプログラムに従って実行される。Step201は処理の開始を示している。Step202で微小駆動動作を行い、合焦か、合焦でないならどちらの方向に合焦点があるかを判別する。細かい動作の説明は後述する。Step203においては、Step202で合焦と判定された場合はStep209へ行き合焦処理を行い、Step202で合焦と判定されなかった場合はStep204へ行く。Step204においては、Step202で方向判別ができている場合はStep205へ行き山登り駆動動作を行い、Step202で方向判別ができていない場合はStep202へ戻り微小駆動動作を継続する。Step205では、AF評価値が大きくなる方向へ高速でレンズを駆動させる山登り駆動をする。細かい動作の説明は後述する。 Next, AF control performed by the camera / AF microcomputer 114 will be described with reference to FIG. This AF control is executed according to a computer program stored in the camera / AF microcomputer 114. Step 201 indicates the start of processing. In step 202, a minute driving operation is performed, and it is determined whether the in-focus position is in focus or not. Detailed operation will be described later. In Step 203, if it is determined that the focus is in focus in Step 202, the process goes to Step 209 to perform the focusing process, and if it is not determined to be in focus in Step 202, the process goes to Step 204. In Step 204, if the direction can be determined in Step 202, go to Step 205 to perform the hill-climbing driving operation, and if the direction cannot be determined in Step 202, return to Step 202 and continue the minute driving operation. In Step 205, hill-climbing driving is performed to drive the lens at high speed in the direction in which the AF evaluation value increases. Detailed operation will be described later.

Step206においては、Step205でAF評価値のピークを越えたと判定された場合はStep207へ行き、Step206でAF評価値のピークを越えたと判定されない場合はStep205へ戻り山登り駆動を継続する。Step207では、山登り駆動中のAF評価値がピークとなるレンズ位置にレンズを戻す。Step208においては、Step207でピークのレンズ位置に戻った場合はStep202へ戻り再び微小駆動動作を行い、Step207でピークのレンズ位置に戻っていない場合はStep207へ戻りピークのレンズ位置に戻す動作を継続する。 In Step 206, if it is determined in Step 205 that the peak of the AF evaluation value has been exceeded, the process goes to Step 207. If it is not determined in Step 206 that the peak of the AF evaluation value has been exceeded, the process returns to Step 205 and hill-climbing driving is continued. In Step 207, the lens is returned to the lens position where the AF evaluation value during hill-climbing driving reaches a peak. In Step 208, if the peak lens position is returned in Step 207, the process returns to Step 202 and the minute driving operation is performed again. If not returned to the peak lens position in Step 207, the process returns to Step 207 and the operation of returning to the peak lens position is continued. .

次に、Step209からの合焦動作について説明する。Step209ではAF評価値を保持する。Step210では、最新のAF評価値を取得する。Step211では、Step209で保持したAF評価値とStep210で新たに取得したAF評価値とを比較し、所定レベル以上差があれば再起動と判定し、Step202へ行き微小駆動動作を再開する。Step211で再起動と判定されていなければStep212へ行く。Step212では、レンズを停止しStep210へ戻り再起動判定を継続する。 Next, the focusing operation from Step 209 will be described. In Step 209, the AF evaluation value is held. In Step 210, the latest AF evaluation value is acquired. In Step 211, the AF evaluation value held in Step 209 is compared with the AF evaluation value newly acquired in Step 210. If there is a difference of a predetermined level or more, it is determined that the operation is restarted, and the process proceeds to Step 202 to restart the minute driving operation. If it is not determined to restart in Step 211, go to Step 212. In Step 212, the lens is stopped, and the process returns to Step 210 to continue the restart determination.

次に、微小駆動動作について図3で説明する。Step301は処理の開始を示している。Step302では、最新の顔検出位置/大きさを取得すると共に、それらの情報に基づいて焦点検出領域であるAF枠を設定し、AF評価値を取得する。Step303では、取得された顔サイズから被写体の移動を判定する処理を行う。この処理については図7を用いて説明する。Step304では、被写体の至近または無限側の方向への移動があったかを判定し、被写体の移動があった場合はStep305へ進み、そうでなければStep306へ進む。本実施例では、変化量を監視する被写体の大きさは、被写体検出手段である顔検出部116により得られる人物の顔(体の他の部位などであってもよい)の大きさである。よって、後述する様に、顔サイズの変化量が所定量以内である場合には被写体の距離変化がないと判断され、前記変化量が所定量より大きい場合には被写体の距離変化があると判断される。そして、カメラ/AFマイコン114は、被写体の距離変化がないと判断されたときは、追従制御手段による追従制御を禁止して焦点調節を行い、被写体の距離変化があると判断されたときは、追従制御手段による追従制御を許可して焦点調節を行う。こうした切り替えが上記Step304で行われる。 Next, the minute driving operation will be described with reference to FIG. Step 301 indicates the start of processing. In Step 302, the latest face detection position / size is acquired, an AF frame that is a focus detection area is set based on the information, and an AF evaluation value is acquired. In Step 303, a process for determining movement of the subject from the acquired face size is performed. This process will be described with reference to FIG. In Step 304, it is determined whether or not the subject has moved nearer or infinitely. If the subject has moved, the process proceeds to Step 305. Otherwise, the process proceeds to Step 306. In the present embodiment, the size of the subject whose change amount is monitored is the size of a person's face (may be another part of the body) obtained by the face detection unit 116 serving as the subject detection means. Therefore, as will be described later, when the amount of change in face size is within a predetermined amount, it is determined that there is no subject distance change, and when the amount of change is greater than the predetermined amount, it is determined that there is a subject distance change. Is done. When the camera / AF microcomputer 114 determines that there is no change in the distance of the subject, the camera / AF microcomputer 114 performs the focus adjustment by prohibiting the tracking control by the tracking control means. The focus control is performed by allowing the tracking control by the tracking control means. Such switching is performed in Step 304 above.

Step305では、移動判定の結果が近づきか遠ざかりかを判定する。近づきの場合は、Step314へ進み至近方向への山登りを決定し、Step313へ進み処理を終了する。そうでなければStep315へ進み無限方向への山登りを決定し、Step313へ進み処理を終了する。被写体の移動方向に応じて山登りの方向を切り替える駆動が、被写体の追従駆動ないし追従制御であり、追従駆動を行うことにより、AFの応答性と精度が向上する。この機能を実行するために、制御手段のカメラ/AFマイコン114は、被写体検出手段である顔検出部116による検出結果に基づき被写体の距離変化の有無を判別する判別手段と、判別結果に応じてフォーカスレンズを被写体の距離変化に追従させる追従制御手段を含む。 In Step 305, it is determined whether the result of the movement determination is approaching or moving away. When approaching, it progresses to Step 314, the mountain climbing to a near direction is determined, it progresses to Step 313, and a process is complete | finished. Otherwise, the process proceeds to Step 315 to decide mountain climbing in the infinite direction, and the process proceeds to Step 313 to end the process. The driving for switching the hill-climbing direction in accordance with the moving direction of the subject is the subject tracking drive or tracking control. By performing the tracking drive, AF responsiveness and accuracy are improved. In order to execute this function, the camera / AF microcomputer 114 of the control means determines the presence / absence of a subject distance change based on the detection result by the face detection unit 116 as the subject detection means, and according to the determination result. Tracking control means for causing the focus lens to follow a change in the distance of the subject is included.

続いて、Step306においては、Step302で取り込んだAF評価値が前回のAF評価値より大きければStep307へ進み、Step302で取り込んだAF評価値が前回のAF評価値より小さければStep308へ進む。Step307では、前回の順方向に所定量フォーカスレンズを駆動する。一方、Step308では前回の逆方向に所定量フォーカスレンズを駆動する。上記レンズ動作の時間経過を示したのが図4である。ここで、Aの間にCCD(撮像素子)に蓄積された電荷に対するAF評価値AがTAで取り込まれ、Bの間にCCDに蓄積された電荷に対するAF評価値BがTBで取り込まれる。TBでは、AF評価値A、Bを比較し、A<Bであればそのまま順方向に移動し、一方、A>Bであれば逆方向にする。Step309においては、所定回数連続して合焦方向と判断される方向が同一であればStep310へ進み、所定回数連続して同一方向に進んでいなければStep311へ進む。Step311においては、所定回数フォーカスレンズが所定範囲で往復を繰り返していればStep312へ進み、所定時間フォーカスレンズが所定範囲にいなければStep313へ進み処理を終了する。この結果、図2のStep202の微小駆動動作に戻ることになる。Step310では、方向判別できたとして、Step313へ進み、処理を終了し図2のStep205の山登り駆動へ移行する。Step312では、合焦判別できたとして処理を終了し図2のStep210以降の再起動判定ルーチンへ移行する。 Subsequently, in Step 306, if the AF evaluation value captured in Step 302 is larger than the previous AF evaluation value, the process proceeds to Step 307. If the AF evaluation value captured in Step 302 is smaller than the previous AF evaluation value, the process proceeds to Step 308. In Step 307, the focus lens is driven by a predetermined amount in the previous forward direction. On the other hand, in Step 308, the focus lens is driven by a predetermined amount in the reverse direction of the previous time. FIG. 4 shows the time course of the lens operation. Here, the AF evaluation value A for the electric charge accumulated in the CCD (imaging device) during A is taken in by TA, and the AF evaluation value B for the electric charge accumulated in the CCD during B is taken in by TB. In TB, the AF evaluation values A and B are compared, and if A <B, they move in the forward direction, while if A> B, they are in the reverse direction. In Step 309, if the direction determined to be the in-focus direction is continuously the same number of times, the process proceeds to Step 310. If the direction is not continuously advanced the same number of times, the process proceeds to Step 311. In Step 311, if the focus lens repeats reciprocation within a predetermined range a predetermined number of times, the process proceeds to Step 312, and if the focus lens is not within the predetermined range for a predetermined time, the process proceeds to Step 313 and the process is terminated. As a result, the operation returns to the minute driving operation in Step 202 of FIG. In Step 310, assuming that the direction can be determined, the process proceeds to Step 313, where the processing is terminated and the process proceeds to hill climbing driving in Step 205 of FIG. 2. In Step 312, the process is terminated because the in-focus determination has been made, and the process proceeds to a restart determination routine after Step 210 in FIG. 2.

次に、山登り駆動動作について図5を用いて説明する。Step501は処理の開始を示している。Step502では、最新の顔検出位置/大きさを取得し、その情報に基づいてAF枠(焦点検出領域)を設定し、AF評価値を取得する。Step503においては、Step502で取り込んだAF評価値が前回のAF評価値より大きければStep504へ進み、Step502で取り込んだAF評価値が前回のAF評価値より小さければStep505へ進む。Step504では前回の順方向に所定の速度でフォーカスレンズを駆動し、Step508へ進み処理を終了する。一方、Step505においては、AF評価値がピークを越えて減っていればStep506へ進みピークを越えたとして、Step508へ進み処理を終了し、図2のStep206などを経てStep202の微小駆動へ移行する。Step505で、AF評価値がピークを越えて減っていなければStep507へ進み、前回と逆方向に所定の速度でフォーカスレンズを駆動し、Step508へ進む。 Next, the hill-climbing driving operation will be described with reference to FIG. Step 501 indicates the start of processing. In Step 502, the latest face detection position / size is acquired, an AF frame (focus detection area) is set based on the information, and an AF evaluation value is acquired. In Step 503, if the AF evaluation value captured in Step 502 is larger than the previous AF evaluation value, the process proceeds to Step 504. If the AF evaluation value captured in Step 502 is smaller than the previous AF evaluation value, the process proceeds to Step 505. In Step 504, the focus lens is driven at a predetermined speed in the previous forward direction, and the process proceeds to Step 508 to end the process. On the other hand, in Step 505, if the AF evaluation value has decreased beyond the peak, the process proceeds to Step 506 and it is determined that the peak has been exceeded. The process proceeds to Step 508, where the processing is terminated, and the process proceeds to Step 202 of Step 202 through Step 206 in FIG. If the AF evaluation value does not decrease beyond the peak in Step 505, the process proceeds to Step 507, the focus lens is driven at a predetermined speed in the direction opposite to the previous time, and the process proceeds to Step 508.

上記レンズ動作を説明したのが図6である。ここで、Aの場合は、AF評価値がピークを越えて減少しているので、合焦点があるとして山登り駆動動作を終了し、微小駆動動作に移行する。一方、Bの場合は、AF評価値がピーク無しで減少しているので、方向を間違えたものとして反転し、山登り駆動動作を続ける。一定時間あたりの移動量、つまりは駆動速度は前記の微小駆動の駆動速度よりも大きな値となる。顔検出の大きさが連続的に増加している場合には、山登り駆動時の駆動速度を大きく設定することで、AFの応答性を向上させることができる。 FIG. 6 illustrates the lens operation. Here, in the case of A, since the AF evaluation value has decreased beyond the peak, the hill-climbing driving operation is terminated assuming that the in-focus point exists, and the operation shifts to the minute driving operation. On the other hand, in the case of B, since the AF evaluation value decreases without a peak, it is reversed as having the wrong direction, and the hill-climbing driving operation is continued. The movement amount per fixed time, that is, the driving speed is larger than the driving speed of the minute driving. When the size of face detection increases continuously, the AF responsiveness can be improved by setting the driving speed at the time of hill-climbing driving large.

以上説明したように、カメラ/AFマイコン114は、再起動判定→微小駆動→山登り駆動→微小駆動→再起動判定を繰り返しながらフォーカスレンズを移動させAF評価値を大きくするように、制御を行っている。 As described above, the camera / AF microcomputer 114 performs control so as to increase the AF evaluation value by moving the focus lens while repeating the restart determination → micro drive → mountain climbing drive → micro drive → restart determination. Yes.

次に、被写体の至近または無限方向の移動判定処理について、図7〜図16を用いて説明する。まず、図3のStep303の移動判定処理を図7を用いて説明する。Step701は移動判定処理の開始を示している。Step702では、検出された顔サイズの平均を算出する処理を行う。検出された顔サイズはカメラ/AFマイコン内のメモリに蓄積され、移動平均法を用いて蓄積個数が10ずつの平均が算出される。平均された顔サイズは、FaceAveSizeに格納することとする。このFaceAveSizeは20個の配列を持ち、平均値が算出される毎にFaceAveSize[0]〜[19]に履歴が保存される。ここでは、FaceAveSize[0]に最新の平均値を格納することとする。Step721では、Step302において取得した顔検出位置が揺れているか否かを判断する。この処理の詳細は図14〜図16を用いて説明する。 Next, a process for determining whether the subject is near or infinite will be described with reference to FIGS. First, the movement determination process in Step 303 of FIG. 3 will be described with reference to FIG. Step 701 indicates the start of the movement determination process. In Step 702, processing for calculating the average of detected face sizes is performed. The detected face size is stored in a memory in the camera / AF microcomputer, and an average of 10 stored images is calculated using a moving average method. The averaged face size is stored in FaceAveSize. The FaceAveSize has 20 arrays, and a history is stored in FaceAveSize [0] to [19] each time an average value is calculated. Here, the latest average value is stored in FaceAveSize [0]. In Step 721, it is determined whether or not the face detection position acquired in Step 302 is shaken. Details of this processing will be described with reference to FIGS.

Step703では、移動判定フラグの有無を判定する。後述の処理で決定される移動判定フラグがSETされている場合は、Step704に遷移する。そうでない場合は、Step703’に遷移し、移動判定領域設定処理に移行する。Step703’の処理については図18を用いて後述する。移動判定領域処理によって、移動判定を行う画面内の領域が設定が完了した場合、Step703’’に遷移する。Step703’’では、被写体であるFacePosの値が、移動判定領域JudgeFaceAreaの内側に居るかの判定を行い、領域内に居る場合は、Step707に遷移する。そうでない場合は、Step720に遷移して、処理を終了する。 In Step 703, it is determined whether or not there is a movement determination flag. When the movement determination flag determined in the process described later is set, the process proceeds to Step 704. Otherwise, the process proceeds to Step 703 ', and the process proceeds to the movement determination area setting process. The process of Step 703 'will be described later with reference to FIG. When the setting of the area in the screen where the movement determination is performed is completed by the movement determination area process, the process proceeds to Step 703 ″. In Step 703 ″, it is determined whether the value of FacePos as the subject is inside the movement determination area JudgeFaceArea. If it is within the area, the process proceeds to Step 707. When that is not right, it changes to Step 720 and complete | finishes a process.

Step707では、Step702において算出した平均顔サイズFaceAveSizeが安定している値か否かを判断する。この処理の詳細は図8を用いて後述する。Step708では、Step707で決定される安定フラグとStep721で決定される揺れフラグを判定し、安定フラグがSETされており且つ揺れフラグもSETされている場合はStep709に遷移する。そうでない場合はStep720に遷移し、処理を終了する。ここで、安定フラグがCLEARか若しくは揺れフラグがCLEARの場合は、被写体の状態が安定していないため、移動判定を行えないことを意味している。この場合、図3のStep304を経てStep306以降に進むことになる。Step709では、顔基準サイズが設定されているかの判定を行う。顔基準サイズFaceBaseSizeとは、移動判定を行う際の基準となる顔のサイズのことである。顔基準サイズFaceBaseSizeが0の場合は、値が設定されていないため、Step719に遷移し、Step719において、FaceBaseSizeにFaceAveSize[0]を代入する。この場合も、図3のStep304を経てStep306以降に進むことになる。 In Step 707, it is determined whether or not the average face size FaceAveSize calculated in Step 702 is a stable value. Details of this processing will be described later with reference to FIG. In Step 708, the stability flag determined in Step 707 and the shaking flag determined in Step 721 are determined. If the stability flag is set and the shaking flag is also set, the process proceeds to Step 709. Otherwise, the process proceeds to Step 720, and the process ends. Here, if the stability flag is CLEAR or the shaking flag is CLEAR, it means that the movement cannot be determined because the state of the subject is not stable. In this case, the process proceeds to Step 306 and subsequent steps through Step 304 in FIG. In Step 709, it is determined whether the face reference size is set. The face reference size FaceBaseSize is the size of the face that serves as a reference when performing movement determination. When the face reference size FaceBaseSize is 0, no value is set, so the process proceeds to Step 719, and in Step 719, FaceAveSize [0] is substituted into FaceBaseSize. Also in this case, the process proceeds to Step 306 and subsequent steps through Step 304 in FIG.

顔基準サイズFaceBaseSizeが0でない場合は、Step710に遷移する。Step710では、移動判定閾値設定処理を行う。この処理は、撮影パラメータと被写体の状態に応じて、移動判定に用いる顔のサイズ変化の閾値を設定する処理である。この処理の詳細については、図9を用いて後述する。続いて、Step711では、顔基準サイズFaseBaceSizeと現在の顔サイズFaceAveSize[0]との大きさの比較を行う。現在の顔サイズが小さい場合は、遠ざかりの可能性があるため、Step712に遷移する。そうでない場合は、近づきの可能性があるので、Step713に遷移する。Step712では、遠ざかりの判定を行う。顔基準サイズFaseBaceSizeと現在の顔サイズFaceAveSize[0]との差がTHfar以上であれば、被写体が遠ざかったと判定し、Step717に遷移する。Step712でTHfarを越えなかった場合は、Step714に遷移する。Step717では、被写体が遠ざかった事を意味する移動判定フラグの遠ざかりフラグをSETした後、Step720に遷移し処理を終了する。この場合、図3のStep304を経てStep305以降に進むことになる。Step713は、近づきの判定を行う。顔基準サイズFaseBaceSizeと現在の顔サイズFaceAveSize[0]との差がTHnear以上であれば、被写体が近づいたと判定し、Step718に遷移する。Step713でTHnearを越えなかった場合は、Step714に遷移する。Step718では、被写体が近づいた事を意味する移動判定フラグの近づきフラグをSETした後、Step720に遷移し処理を終了する。この場合も、図3のStep304を経てStep305以降に進むことになる。 If the face reference size FaceBaseSize is not 0, the process proceeds to Step 710. In Step 710, a movement determination threshold value setting process is performed. This process is a process for setting a face size change threshold value used for movement determination according to the shooting parameters and the state of the subject. Details of this processing will be described later with reference to FIG. Subsequently, in Step 711, the face reference size FaseBaceSize is compared with the current face size FaceAveSize [0]. If the current face size is small, there is a possibility of moving away, so the process proceeds to Step 712. Otherwise, there is a possibility of approaching, so the process proceeds to Step 713. In Step 712, the distance determination is performed. If the difference between the face reference size FaseBaceSize and the current face size FaceAveSize [0] is greater than or equal to THfar, it is determined that the subject has moved away, and the process proceeds to Step 717. If THfar is not exceeded in Step 712, the process proceeds to Step 714. In Step 717, after setting the distance flag of the movement determination flag which means that the subject has moved away, the process proceeds to Step 720 and ends. In this case, the process proceeds to Step 305 and subsequent steps through Step 304 in FIG. In Step 713, approach determination is performed. If the difference between the face reference size FaseBaceSize and the current face size FaceAveSize [0] is greater than or equal to THnear, it is determined that the subject has approached, and the process proceeds to Step 718. If THnear is not exceeded in Step 713, the process proceeds to Step 714. In Step 718, after setting the approach flag of the movement determination flag that means that the subject has approached, the process proceeds to Step 720 and the process is terminated. Also in this case, the process proceeds to Step 305 and subsequent steps through Step 304 in FIG.

Step714では、顔基準サイズが設定され且つ安定状態の時に、移動判定を何回繰り返しているかのタイマーFaceJudgeTimerをインクリメントし、Step715に遷移する。Step715では、FaceJudgeTimerがTimerTH以下かの判定を行う。この処理は、移動判定を約2秒間継続した状態が続いたにも関わらず、被写体の移動が無かった場合は判定処理を初期化する目的の処理である。よって、TimerTHには、2秒間に相当する値である120を設定し、この値を越えたかの判定を行う。本実施例では、1秒間に60回の処理を行うシステムを想定しているので、2秒間に相当する値は120である。FaceJudgeTimerがTimerTHを越えている場合は、Step716に遷移し初期化処理を行う、そうでない場合は、Step720に遷移し処理を終了する。この場合、Step702に戻って移動判定を継続する。Step716ではFaceJudgeTimerを0に初期化し、Step705に遷移する。Step705では、FaseBaceSizeを0に初期化し、Step706に遷移する。Step706では、移動判定フラグをクリアし初期化を行う。上記の初期化処理の終了後、Step720に遷移し、処理を終了する。この場合、図3のStep304を経てStep306以降に進むことになる。 In Step 714, when the face reference size is set and the state is stable, the timer FaceJudgeTimer indicating how many times the movement determination is repeated is incremented, and the process proceeds to Step 715. In Step 715, it is determined whether FaceJudgeTimer is equal to or less than TimerTH. This process is intended to initialize the determination process when there is no movement of the subject even though the movement determination has continued for about 2 seconds. Therefore, TimerTH is set to 120, which is a value corresponding to 2 seconds, and it is determined whether this value has been exceeded. In this embodiment, since a system that performs processing 60 times per second is assumed, the value corresponding to 2 seconds is 120. If FaceJudgeTimer exceeds TimerTH, the process proceeds to Step 716 to perform initialization processing. If not, the process proceeds to Step 720 and the process ends. In this case, the process returns to Step 702 to continue the movement determination. In Step 716, FaceJudgeTimer is initialized to 0, and the process proceeds to Step 705. In Step 705, FaseBaceSize is initialized to 0, and the process proceeds to Step 706. In Step 706, the movement determination flag is cleared and initialization is performed. After the initialization process is completed, the process proceeds to Step 720 and the process ends. In this case, the process proceeds to Step 306 and subsequent steps through Step 304 in FIG.

Step703で移動判定フラグがSETされている場合は、被写体の移動が終了したか否かを判定するために、Step704に遷移する。Step704の処理については図17を用いて後述する。次に、Step704’では、Step704において被写体の移動が終了した旨の判断がされたのか、被写体の移動が継続している旨の判断がされたのかを判定する。被写体の移動が終了した場合は、Step705に移動し、初期化処理を行う。そうでない場合は、Step720に遷移し、処理を終了する。この場合、Step702に戻って移動判定を継続する。 If the movement determination flag is set in Step 703, the process proceeds to Step 704 in order to determine whether or not the movement of the subject has ended. The processing of Step 704 will be described later with reference to FIG. Next, in Step 704 ′, it is determined whether it is determined in Step 704 that the movement of the subject has been completed or whether it is determined that the movement of the subject has continued. When the movement of the subject is completed, the process moves to Step 705 to perform initialization processing. When that is not right, it changes to Step 720 and complete | finishes a process. In this case, the process returns to Step 702 to continue the movement determination.

次に、移動の終了判定処理について、図17を用いて説明する。図17のStep1701は処理の開始を示している。次にStep1702において、カメラ/AFマイコン114は平均顔サイズの2次微分値を算出する。以下に2次微分値の具体的な算出方法を示す。まず、カメラ/AFマイコン114は、図7のStep702で算出した平均顔サイズと所定時間前に算出した平均顔サイズとの差を計算することで、1次微分値を算出し、カメラ/AFマイコン114内のメモリに記録する。次に、カメラ/AFマイコン114は、メモリに記録されている該1次微分値と所定時間前に算出してメモリに記録した1次微分値との間の変化量を計算することで2次微分値を算出する。算出した2次微分値は、所定時間前の平均顔サイズの1次微分値に対して今回算出した平均顔サイズの1次微分値がどれだけ変化しているかを示す値である。 Next, the movement end determination process will be described with reference to FIG. Step 1701 in FIG. 17 indicates the start of processing. Next, in Step 1702, the camera / AF microcomputer 114 calculates a secondary differential value of the average face size. The specific calculation method of the secondary differential value is shown below. First, the camera / AF microcomputer 114 calculates the first differential value by calculating the difference between the average face size calculated in Step 702 of FIG. 7 and the average face size calculated a predetermined time ago, and the camera / AF microcomputer It is recorded in the memory in 114. Next, the camera / AF microcomputer 114 calculates a change amount between the primary differential value recorded in the memory and the primary differential value calculated in a predetermined time and recorded in the memory, thereby obtaining a secondary. Calculate the differential value. The calculated secondary differential value is a value indicating how much the primary differential value of the average face size calculated this time has changed with respect to the primary differential value of the average face size before a predetermined time.

次に、Step1703においては、今回検出された顔サイズが前回検出された顔サイズと比較して小さくなっているか大きくなっているかを判断するために、FaceAveSizeの比較を行う。現在のFaseAveSize[0]と一つ前の履歴であるFaseAveSize[1]との差を求めるため、FaseAveSizeDiff=FaseAveSize[0]-FaseAveSize[1]の計算を行い、Step1704に遷移する。次にStep1704において、現在、近付きが要因となって移動判定フラグがSETされているのか、遠ざかりが要因となって移動判定フラグがSETされているのかを判別する。近付きが要因となって移動判定フラグがSETされている場合はStep1705に遷移し、遠ざかりが要因となって移動判定フラグがSETされている場合はStep1709に遷移する。 Next, in Step 1703, FaceAveSize is compared to determine whether the currently detected face size is smaller or larger than the previously detected face size. In order to obtain the difference between the current FaseAveSize [0] and the previous history FaseAveSize [1], FaseAveSizeDiff = FaseAveSize [0] -FaseAveSize [1] is calculated, and the process proceeds to Step 1704. Next, in Step 1704, it is determined whether the movement determination flag is currently set due to approach or whether the movement determination flag is set due to distance. If the movement determination flag is set due to approach, the process proceeds to Step 1705. If the movement determination flag is set due to distance, the process proceeds to Step 1709.

次にStep1705において、顔サイズが小さくなる(FaceAveSizeDiffが負の値)場合に、移動が減速または終了したと判定し、Step1706に遷移する。一方、顔サイズが大きくなっている(FaceAveSizeDiffが0以上)の場合は、Step1707に遷移する。Step1706においては、カメラ/AFマイコン114は被写体の移動が減速または終了していると判断し、Step1713に遷移して処理を終了する。一方、Step1707においては、Step1702で求めた平均顔サイズの2次微分値と近付き減速閾値とを比較して、平均顔サイズの2次微分値が近付き減速閾値以下の場合はStep1706に遷移し、近付き減速閾値よりも大きい場合にはStep1708に遷移する。Step1708において、カメラ/AFマイコン114は被写体の移動が継続していると判断し、Step1713に遷移して処理を終了する。 Next, in Step 1705, when the face size is small (FaceAveSizeDiff is a negative value), it is determined that the movement is decelerated or completed, and the process proceeds to Step 1706. On the other hand, if the face size is large (FaceAveSizeDiff is 0 or more), the process proceeds to Step 1707. In Step 1706, the camera / AF microcomputer 114 determines that the movement of the subject has decelerated or ended, and proceeds to Step 1713 to end the processing. On the other hand, in Step 1707, the second-order differential value of the average face size obtained in Step 1702 is compared with the approaching deceleration threshold value. If the second-order differential value of the average face size is less than or equal to the approaching deceleration threshold value, the process proceeds to Step 1706 to approach. If it is larger than the deceleration threshold, the process proceeds to Step 1708. In step 1708, the camera / AF microcomputer 114 determines that the movement of the subject is continuing, transitions to step 1713, and ends the processing.

次に、Step1709において、顔サイズが大きくなる(FaceAveSizeDiffが正の値)場合に、移動が減速または終了したと判定し、Step1710に遷移する。一方、顔サイズが小さくなっている(FaceAveSizeDiffが0以下)の場合は、Step1711に遷移する。Step1710においては、カメラ/AFマイコン114は被写体の移動が減速または終了していると判断し、Step1713に遷移して処理を終了する。一方、Step1711においては、Step1702で求めた平均顔サイズの2次微分値と遠ざかり減速閾値とを比較して、平均顔サイズの2次微分値が遠ざかり減速閾値以上の場合はStep1710に遷移し、遠ざかり減速閾値よりも小さい場合にはStep1712に遷移する。Step1712において、カメラ/AFマイコン114は被写体の移動が継続していると判断し、Step1713に遷移して処理を終了する。 Next, in Step 1709, when the face size becomes large (FaceAveSizeDiff is a positive value), it is determined that the movement is decelerated or finished, and the process proceeds to Step 1710. On the other hand, if the face size is small (FaceAveSizeDiff is 0 or less), the process proceeds to Step 1711. In Step 1710, the camera / AF microcomputer 114 determines that the movement of the subject has decelerated or ended, and proceeds to Step 1713 to end the process. On the other hand, in Step 1711, the second-order differential value of the average face size obtained in Step 1702 is compared with the distance deceleration threshold value. If the second-order differential value of the average face size is greater than or equal to the distance reduction threshold value, the process proceeds to Step 1710, and the distance is decreased. If it is smaller than the deceleration threshold, the process proceeds to Step 1712. In Step 1712, the camera / AF microcomputer 114 determines that the movement of the subject is continuing, transitions to Step 1713 and ends the processing.

ここで近付き減速閾値とは、被写体がある速度で近付いている状態から減速または移動が終了したときに、カメラ/AFマイコン114が減速または移動が終了したと判断するときの変化率である。また、遠ざかり減速閾値とは、被写体がある速度で遠ざかっている状態から減速または移動が終了したときに、カメラ/AFマイコン114が減速または移動が終了したと判断するときの変化率である。本実施例において、上記近付き減速閾値と遠ざかり減速閾値は経験的に顔サイズの10%とし、近付き減速閾値は0以下の値、遠ざかり減速閾値は0以上の値とする。また、近付き減速閾値の絶対値と遠ざかり減速閾値の絶対値は同じ値であっても良いし、異なる値であっても良い。さらに、上記所定時間前とは、2次微分値が減速または停止しているか否かを前記近付き減速閾値と遠ざかり減速閾値によって判断できる値として、15フレーム前とする。ただし、設定した近付き減速閾値と遠ざかり減速閾値と所定時間は、システムによって自由に変更することができる値である。 Here, the approaching deceleration threshold is a rate of change when the camera / AF microcomputer 114 determines that the deceleration or movement is completed when the object is approaching at a certain speed and the deceleration or movement is completed. The away-deceleration threshold is a rate of change when the camera / AF microcomputer 114 determines that the deceleration or movement is completed when the object is decelerated or moved from a state where the subject is moving away at a certain speed. In this embodiment, the approaching deceleration threshold and the distance deceleration threshold are empirically set to 10% of the face size, the approaching deceleration threshold is a value of 0 or less, and the distance deceleration threshold is a value of 0 or more. Further, the absolute value of the approaching deceleration threshold and the absolute value of the away deceleration threshold may be the same value or different values. Further, the above-mentioned predetermined time is defined as 15 frames before, as a value that can determine whether or not the secondary differential value is decelerated or stopped by the approach deceleration threshold and the distance deceleration threshold. However, the approaching deceleration threshold, the distance deceleration threshold, and the predetermined time that are set are values that can be freely changed by the system.

以上の図17の処理においては、平均顔サイズによって被写体が減速または移動が終了しているか否かを判断しているが、顔や人体などの位置に関して2次微分値を算出して、減速または移動が終了しているか否かを判断する方法でも良い。また、目や口が検出できるシステムである場合は、両目(又は目と口)の間隔に関して2次微分値を算出して、減速または移動が終了しているか否かを判断する方法でも良い。さらには、両目の間隔に対する目と口の間隔の比率を算出し、算出した比率に関して2次微分値を算出して減速または移動が終了しているか否かを判断する方法でも良い。要は、予め定めた被写体の動きの減速や終了を判断できる情報であれば、所定部位のサイズ、複数の部位間の距離、複数のサイズや距離の間の比率についての相対的情報など、被写体のどの様な形状的情報であってもよい。 In the processing of FIG. 17 described above, it is determined whether or not the subject has been decelerated or moved based on the average face size, but the second derivative value is calculated with respect to the position of the face, human body, etc. A method of determining whether or not the movement has ended may be used. In the case of a system that can detect eyes and mouths, a method of calculating whether or not deceleration or movement has ended by calculating a secondary differential value with respect to the distance between both eyes (or eyes and mouths) may be used. Furthermore, a method may be used in which the ratio of the distance between the eyes and the mouth with respect to the distance between both eyes is calculated, and a secondary differential value is calculated with respect to the calculated ratio to determine whether deceleration or movement has ended. In short, as long as it is information that can determine the deceleration or termination of the movement of a predetermined subject, the subject, such as the size of a predetermined part, the distance between a plurality of parts, and relative information about the ratio between the plurality of sizes and distances, etc. Any shape information may be used.

続いて、図7のStep707の被写体安定判定処理を図8を用いて説明する。図8のStep801は処理の開始を示している。次にStep802において、カメラ/AFマイコン114は平均顔サイズの2次微分値を算出する。次にStep803において、カメラ/AFマイコン114はStep802で算出した2次微分値が閾値以下であるか否かを判断する。算出した2次微分値が閾値以下である場合は、所定時間前の平均顔サイズの1次微分値に対して今回算出した平均顔サイズの1次微分値の変化量が小さいため、被写体は安定していると判断してStep804へ進む。一方、算出した2次微分値が閾値より大きい場合は、所定時間前の平均顔サイズの1次微分値に対して今回算出した平均顔サイズの1次微分値の変化量が大きいため、被写体は安定していないと判断してStep807へ進む。 Subsequently, the subject stability determination process in Step 707 of FIG. 7 will be described with reference to FIG. Step 801 in FIG. 8 indicates the start of processing. Next, in Step 802, the camera / AF microcomputer 114 calculates a secondary differential value of the average face size. In step 803, the camera / AF microcomputer 114 determines whether the secondary differential value calculated in step 802 is equal to or less than a threshold value. When the calculated secondary differential value is less than or equal to the threshold value, the subject is stable because the amount of change in the primary differential value of the average face size calculated this time is smaller than the primary differential value of the average face size before a predetermined time. It judges that it is carrying out, and progresses to Step 804. On the other hand, if the calculated secondary differential value is larger than the threshold value, the change amount of the primary differential value of the average face size calculated this time is larger than the primary differential value of the average face size before a predetermined time, so that the subject is It judges that it is not stable and proceeds to Step 807.

本実施例において、上記閾値は経験的に平均顔サイズの10%の値とする。また、上記所定時間前とは、2次微分値が安定しているか否かを前記閾値によって判断できる値として15フレーム前とする。ただし、本実施例において、設定した閾値と所定時間は、システムによって自由に変更することができる値である。次にStep804において、カメラ/AFマイコン114はStableTimerをカウントアップしStep805へ進む。ただし、StableTimerは、算出された平均顔サイズが連続して安定している期間をカウントする変数である。従って、StableTimerが所定期間(以降、StableTHとする)を超えた以降の平均顔サイズは安定している平均顔サイズであると判断することができる。ここで、StableTHは本実施例においては15フレームとする。また、StableTHは、平均顔サイズが連続して安定している期間をカウントする変数であるため、2次微分値を算出するときに用いられる所定時間(本実施例においては15フレーム)以下の期間である必要がある。Step807では、平均顔サイズの2次微分値が閾値より大きい値であるので、カメラ/AFマイコン114はStableTimerをクリア(本実施例では0)する。 In this embodiment, the threshold is empirically set to a value of 10% of the average face size. The predetermined time before is defined as 15 frames before as a value that can be determined by the threshold whether or not the secondary differential value is stable. However, in the present embodiment, the set threshold value and the predetermined time are values that can be freely changed by the system. Next, in Step 804, the camera / AF microcomputer 114 counts up StableTimer and proceeds to Step 805. However, StableTimer is a variable that counts a period in which the calculated average face size is continuously stable. Therefore, it is possible to determine that the average face size after the stable timer exceeds a predetermined period (hereinafter referred to as stable TH) is a stable average face size. Here, StableTH is 15 frames in this embodiment. Further, StableTH is a variable that counts a period during which the average face size is continuously stable, and therefore, a period that is equal to or shorter than a predetermined time (15 frames in the present embodiment) used when calculating the secondary differential value. Need to be. In Step 807, since the secondary differential value of the average face size is larger than the threshold value, the camera / AF microcomputer 114 clears StableTimer (0 in this embodiment).

次に、Step805において、カメラ/AFマイコン114はStableTimerがStableTH未満であるか否かを判断し、StableTH未満である場合はStep806に進み、StableTH以上である場合はStep808に進む。Step806においては、カメラ/AFマイコン114は、Step702において算出した平均顔サイズは、StableTimerがStableTHを越えるまでは連続して安定していないと判断し、安定フラグをOFFにして図8の処理を終了する。一方、Step808においては、カメラ/AFマイコン114は、Step702において算出した平均顔サイズは、StableTimerがStableTH以上の期間連続して安定している値であると判断し、安定フラグをONにして図8の処理を終了する。 Next, in Step 805, the camera / AF microcomputer 114 determines whether or not StableTimer is less than StableTH. If it is less than StableTH, the process proceeds to Step 806. If it is greater than StableTH, the process proceeds to Step 808. In Step 806, the camera / AF microcomputer 114 determines that the average face size calculated in Step 702 is not continuously stable until the StableTimer exceeds StableTH, turns off the stability flag, and finishes the process of FIG. To do. On the other hand, in Step 808, the camera / AF microcomputer 114 determines that the average face size calculated in Step 702 is a value that is stable continuously for a period of time when the StableTimer is equal to or greater than StableTH, and sets the stability flag to ON. Terminate the process.

以上の図8の処理においては、平均顔サイズによって被写体が安定しているか否かを判断しているが、顔や人体などの位置に関して2次微分値を算出して、安定しているか否かを判断する方法でも良い。また、目や口が検出できるシステムである場合は、両目(又は目と口)の間隔に関して2次微分値を算出して、安定しているか否かを判断する方法でも良い。さらには、両目の間隔に対する目と口の間隔の比率を算出し、算出した比率に関して2次微分値を算出して安定しているか否かを判断する方法でも良い。要は、予め定めた被写体の動きの安定度を判断できる情報であれば、所定部位のサイズ、複数の部位間の距離、複数のサイズや距離の間の比率についての相対的情報など、被写体のどの様な形状的情報であってもよい。 In the processing of FIG. 8 described above, it is determined whether or not the subject is stable based on the average face size. However, whether or not the subject is stable by calculating a secondary differential value with respect to the position of the face or the human body. It may be a method of judging. Further, in the case of a system capable of detecting eyes and mouth, a method of calculating whether or not the second differential value is calculated with respect to the distance between both eyes (or eyes and mouth) and determining whether or not it is stable may be used. Furthermore, a method may be used in which the ratio of the distance between the eyes and the mouth with respect to the distance between both eyes is calculated, and a secondary differential value is calculated with respect to the calculated ratio to determine whether or not it is stable. In short, if it is information that can determine the stability of the movement of a predetermined subject, the size of the predetermined part, the distance between the plural parts, the relative information about the ratio between the plural sizes and distances, etc. Any shape information may be used.

続いて、図7のStep710の移動判定閾値設定処理を図9を用いて説明する。図9のStep901は処理の開始を示している。Step902においては、変倍レンズ(ズームレンズ)102のレンズ位置を取得する処理である。変倍レンズの駆動源がステップモーターであるとした場合は、そのステップ数であり、レンズがテレ側、ワイド側のどの位置にいるかを判断するために用いる。続いて、Step903においては、図10に示すズームレンズ位置と基準移動判定閾値Thの関係グラフから、現在のズーム位置に応じた基準移動判定閾値Thを取得する。図10は、縦軸を顔サイズの変化の割合(%)、横軸をズームレンズ位置としている。このズームレンズ位置と基準移動判定閾値Thとの関係は、絞り値Fbaseを一定にした状態で、各ズームレンズ位置においての被写界深度の前端と顔サイズの変化量の関係から算出したグラフである。予め定めた被写体にピントが合っている状態で被写体が移動した場合、被写界深度を超えた時点から画面上にボケが認識され始めるため、基準移動判定閾値は被写界深度よりも小さい値を設定する。これにより、被写体がボケ始める前に、移動の有無を判定し、フォーカスレンズを駆動することが可能になり、被写体への追従性能が向上する。実際の基準移動判定閾値Thの算出の際は、各ズームレンズ位置に応じた基準移動判定閾値Thのテーブルをカメラ/AFマイコン114内に持ち、ズームレンズ位置に対応する閾値Thを決定する。 Next, the movement determination threshold value setting process in Step 710 of FIG. 7 will be described with reference to FIG. Step 901 in FIG. 9 indicates the start of processing. Step 902 is processing for acquiring the lens position of the variable magnification lens (zoom lens) 102. If the driving source of the variable power lens is a step motor, it is the number of steps, and is used to determine which position the lens is on the tele side or the wide side. Subsequently, in Step 903, the reference movement determination threshold Th corresponding to the current zoom position is acquired from the relationship graph between the zoom lens position and the reference movement determination threshold Th shown in FIG. In FIG. 10, the vertical axis represents the change rate (%) of the face size, and the horizontal axis represents the zoom lens position. The relationship between the zoom lens position and the reference movement determination threshold Th is a graph calculated from the relationship between the front end of the depth of field and the amount of change in face size at each zoom lens position with the aperture value Fbase being constant. is there. If the subject moves in a state where the predetermined subject is in focus, blur will start to be recognized on the screen from the point where the depth of field is exceeded, so the reference movement determination threshold value is smaller than the depth of field. Set. Accordingly, it is possible to determine whether or not the subject has moved before the subject starts to blur and to drive the focus lens, thereby improving the follow-up performance of the subject. When the actual reference movement determination threshold Th is calculated, a table of the reference movement determination threshold Th corresponding to each zoom lens position is held in the camera / AF microcomputer 114, and the threshold Th corresponding to the zoom lens position is determined.

被写界深度の算出は、以下の式1を用いて算出する。被写体の距離をs、被写界深度の前端・後端をそれぞれDnとDfすると以下の通りとなる。
Dn=s(H-f)/(H+s-2f)・・・式1a
Df=s(H-f)/(H-s)・・・式1b
過焦点距離Hは、レンズの焦点距離をf、レンズの絞り値をN、許容錯乱円の直径をcとすると式2のようになる。
H=f*f/N*c・・・式2
The depth of field is calculated using Equation 1 below. If the subject distance is s, and the front and rear ends of the depth of field are Dn and Df, respectively, the result is as follows.
Dn = s (Hf) / (H + s-2f) ... Equation 1a
Df = s (Hf) / (Hs) ... Equation 1b
The hyperfocal length H is expressed by Equation 2 where f is the focal length of the lens, N is the aperture value of the lens, and c is the diameter of the allowable circle of confusion.
H = f * f / N * c Equation 2

続いてStep904において、現在の絞り値Fnoの取得を行う。絞り値は絞り103の駆動量からF値を取得する。Step905では、基準移動判定閾値に対して絞りに応じた補正を行う。被写界深度は、絞り値に応じて変化するため、取得した現在の絞り値Fnoと図10の基準移動判定閾値を算出した際の絞り値Fbaseを比較する。式3に基づいて補正後の移動判定閾値Th2を算出する。
Th2=(現在の絞り値Fno/基準絞り値Fbase)*基準移動判定閾値Th・・・式3
この様に、前記閾値ないし所定量は、被写界深度により決定され、被写体が被写界深度の分を移動した場合の被写体の大きさの変化量よりも小さい量に設定されることを特徴としている。
In step 904, the current aperture value Fno is acquired. The aperture value is obtained from the drive amount of the aperture 103. In Step 905, the reference movement determination threshold is corrected according to the aperture. Since the depth of field changes according to the aperture value, the acquired current aperture value Fno is compared with the aperture value Fbase when the reference movement determination threshold value in FIG. 10 is calculated. Based on Equation 3, a corrected movement determination threshold Th2 is calculated.
Th2 = (current aperture value Fno / reference aperture value Fbase) * reference movement determination threshold Th.
As described above, the threshold value or the predetermined amount is determined by the depth of field, and is set to an amount smaller than the amount of change in the size of the subject when the subject moves the depth of field. It is said.

続いて、Step906において、基準顔サイズFaceBaseSizeの取得を行う。Step907では、基準顔サイズFaceBaseSizeに応じて基準移動判定閾値の補正を行う。図11は基準顔サイズと補正係数Kの関係グラフであり、縦軸を顔サイズの変化の割合(%)、横軸を基準顔サイズとしている。基準顔サイズFaceBaseSizeが大きくなると、検出される顔サイズのバラツキが大きくなるため、補正を行う必要がある。取得した基準顔サイズと補正係数Kのグラフより、式4に基づいて補正後の移動判定閾値Th3を算出する。
Th3=補正係数K*移動判定閾値Th2・・・式4
この様に、被写体状況とは、上記検出手段により検出された被写体の大きさであり、前記閾値ないし所定量は、被写体の大きさに応じて変更され、被写体の大きさの基準値との差に応じて変更される。
Subsequently, in Step 906, the reference face size FaceBaseSize is acquired. In Step 907, the reference movement determination threshold value is corrected according to the reference face size FaceBaseSize. FIG. 11 is a graph showing the relationship between the reference face size and the correction coefficient K. The vertical axis represents the change rate (%) of the face size, and the horizontal axis represents the reference face size. As the reference face size FaceBaseSize increases, the detected face size varies, and correction is required. Based on the acquired reference face size and correction coefficient K graph, a corrected movement determination threshold Th3 is calculated based on Equation 4.
Th3 = correction coefficient K * movement determination threshold Th2 Expression 4
Thus, the subject situation is the size of the subject detected by the detecting means, and the threshold value or the predetermined amount is changed according to the size of the subject, and is different from the reference value of the subject size. Will be changed according to

続いてStep908において、顔検出部116の信号から顔信頼度の取得を行う。前述の通り、顔の信頼度は1〜5の5段階で評価され、評価5が信頼度が一番高く、評価1が信頼度が一番低い。Step909では、顔信頼度を用いて、移動判定閾値の補正を行う。信頼度が低い場合は、検出された顔サイズのバラツキが大きくなることや、少ないとしても誤検出している可能性があるため、閾値補正を行い閾値を高く設定する必要がある。本実施例では、顔信頼度が3以下の場合には、補正係数K’に1.5を設定し、取得した顔信頼度を用いて式5に基づいて補正後の移動判定閾値Th4を算出する。
Th4=補正係数K’移動判定閾値Th3・・・式5
この様に、被写体状況とは、上記検出手段により検出された顔の確からしさを表す信頼度であり、前記閾値ないし所定量は、顔の確からしさを表す信頼度に応じて変更され、信頼度が低い場合は、大きい量に変更される。
Subsequently, in Step 908, the face reliability is obtained from the signal of the face detection unit 116. As described above, the reliability of the face is evaluated in five stages of 1 to 5, evaluation 5 has the highest reliability, and evaluation 1 has the lowest reliability. In Step 909, the movement determination threshold value is corrected using the face reliability. When the reliability is low, the detected face size varies greatly, or even if it is small, there is a possibility of erroneous detection. Therefore, it is necessary to perform threshold correction and set the threshold high. In this embodiment, when the face reliability is 3 or less, the correction coefficient K ′ is set to 1.5, and the corrected movement determination threshold Th4 is calculated based on Expression 5 using the acquired face reliability. To do.
Th4 = correction coefficient K ′ movement determination threshold Th3 Expression 5
Thus, the subject situation is a reliability indicating the likelihood of the face detected by the detection means, and the threshold value or the predetermined amount is changed according to the reliability indicating the likelihood of the face, and the reliability If is low, it is changed to a larger amount.

次にStep910において、顔検出部116の信号から横顔らしさの信頼度の取得を行う。前述の通り、横顔らしさの信頼度は1〜5の5段階で評価され、評価5が横顔の可能性が一番高く、評価1が横顔の可能性が一番低い。Step911では、横顔らしさの信頼度を用いて、移動判定閾値の補正を行う。横顔の信頼度が高い場合は、検出された顔サイズのバラツキが大きくなることや、少ないとしても誤検出している可能性があるため、閾値の補正を行い閾値を高く設定する必要がある。本実施例では、横顔らしさの信頼度が3以上の場合には、補正係数K’’に1.5を設定し、取得した横顔らしさの信頼度を用いて式6に基づいて補正後の移動判定閾値Th5を算出する。
Th5=補正係数K’’*移動判定閾値Th4・・・式6
この様に、被写体状況とは、上記検出手段により検出された顔が横を向いているかを表す信頼度であり、前記閾値ないし所定量は、顔が横を向いているかを表す信頼度に応じて変更され、信頼度が高い場合は、大きい量に変更される。
Next, in Step 910, the reliability of profile likelihood is acquired from the signal of the face detection unit 116. As described above, the reliability of profile likelihood is evaluated in five stages of 1 to 5, with evaluation 5 having the highest possibility of profile and evaluation 1 having the lowest possibility of profile. In Step 911, the movement determination threshold value is corrected using the reliability of the profile likelihood. When the reliability of the side face is high, the detected face size varies greatly, and even if it is small, there is a possibility of erroneous detection. Therefore, it is necessary to correct the threshold value and set the threshold value high. In the present embodiment, when the reliability of the side face likelihood is 3 or more, the correction coefficient K ″ is set to 1.5, and the movement after correction is performed based on Expression 6 using the acquired reliability of the side face likelihood. A determination threshold Th5 is calculated.
Th5 = Correction coefficient K ″ * Movement determination threshold Th4 Equation 6
In this way, the subject situation is a reliability indicating whether the face detected by the detection means is facing sideways, and the threshold value or the predetermined amount corresponds to a reliability indicating whether the face is facing sideways. If the reliability is high, the amount is changed to a larger amount.

続いてStep912において、カメラ/AFマイコン114内の情報から撮影モードの取得を行う。一般的な撮像装置は撮影シーンに最適な撮影パラメータを設定するために、図12に示すような撮影モードを複数持っている。Step913では、撮影モードに応じて移動判定閾値の補正を行う。図12は撮影モードと補正係数K’’’の関係を示した表である。被写体の動きが多いと想定される撮影モードでは、閾値を低く設定するように係数K’’’を1以下の値にし、オートフォーカスの応答性を高くしている。また、被写体の動きが少ないと想定される撮影モードでは、移動判定の閾値を高くするように、係数K’’’の値を高く設定し、オートフォーカスの安定性を重視する。取得した撮影モードと、図12から決定される補正係数K’’’より、式7に基づいて補正後の移動判定閾値Th6を算出する。
Th6=補正係数K’’’*移動判定閾値Th5・・・式7
この様に、撮影パラメータとは、撮影モードであり、前記閾値ないし所定量は、撮影モードに応じて変更され、撮影モードが動きの多い被写体を撮影するモードに設定されている場合は、大きい量に変更され、撮影モードが動きの少ない被写体を撮影するモードに設定されている場合は、小さい量に変更される。
Subsequently, in Step 912, the photographing mode is acquired from the information in the camera / AF microcomputer 114. A general imaging apparatus has a plurality of shooting modes as shown in FIG. 12 in order to set shooting parameters optimal for a shooting scene. In Step 913, the movement determination threshold value is corrected according to the shooting mode. FIG. 12 is a table showing the relationship between the shooting mode and the correction coefficient K ′ ″. In a shooting mode in which the movement of the subject is assumed to be large, the coefficient K ′ ″ is set to a value of 1 or less so that the threshold value is set low, thereby increasing the autofocus response. Further, in the shooting mode in which the movement of the subject is assumed to be small, the value of the coefficient K ′ ″ is set high so as to increase the threshold for movement determination, and importance is attached to the stability of autofocus. Based on the acquired photographing mode and the correction coefficient K ′ ″ determined from FIG. 12, a corrected movement determination threshold Th6 is calculated based on Expression 7.
Th6 = correction coefficient K ″ ′ * movement determination threshold Th5 Expression 7
Thus, the shooting parameter is a shooting mode, and the threshold value or the predetermined amount is changed according to the shooting mode, and a large amount is set when the shooting mode is set to a mode for shooting a subject with much movement. When the shooting mode is set to a mode for shooting a subject with little movement, the amount is changed to a small amount.

続いてStep914では、合焦度合の取得を行う。合焦度合の算出方法は、評価枠内のAF評価値のピークホールドした値を、各ラインの輝度レベルの最大値と最小値の差で割った値である。この合焦度合は0〜1で表され、合焦している被写体の場合、AF評価値のピークホールドと輝度レベルの差が同じ値になる傾向があるため、合焦度合は1に近づく。合焦度合が低い被写体は、ボケが発生している可能性が高く、顔サイズの信頼性が低くなることがあるため、移動判定の閾値を高くなるように設定する。例えば、取得した合焦度合を用いて、合焦度合が0.5以下である場合に、補正係数K’’’’を1.5と設定し、式8に基づいて補正後の移動判定閾値Th7を算出する。
Th7=補正係数K’’’’*移動判定閾値Th6・・・式8
この様に、撮影パラメータとは、AF評価値のレベルの状態とフォーカスレンズの駆動状態から推定される合焦度合であり、前記閾値ないし所定量は、合焦度合に応じて変更され、合焦度合が低い場合は、大きい量に変更される。
なお、これらの補正係数はカメラに応じて十分な測定を行ったうえで決定するものであり、この値に限定されるものではない。
Subsequently, in Step 914, the degree of focus is acquired. The method for calculating the degree of focus is a value obtained by dividing the peak hold value of the AF evaluation value in the evaluation frame by the difference between the maximum value and the minimum value of the luminance level of each line. This degree of focus is represented by 0 to 1, and in the case of a focused subject, the difference between the peak hold of the AF evaluation value and the luminance level tends to be the same value, so the degree of focus approaches 1. An object with a low degree of focus is likely to be blurred and the reliability of the face size may be low, so the threshold value for movement determination is set to be high. For example, using the obtained degree of focus, when the degree of focus is 0.5 or less, the correction coefficient K ″ ″ is set to 1.5, and the movement determination threshold value after correction based on Expression 8 Th7 is calculated.
Th7 = Correction coefficient K ″ ″ * Movement judgment threshold Th6 ・ ・ ・ Equation 8
In this way, the imaging parameter is the degree of focus estimated from the state of the AF evaluation value level and the driving state of the focus lens, and the threshold value or the predetermined amount is changed according to the degree of focus. If the degree is low, it is changed to a larger amount.
Note that these correction coefficients are determined after sufficient measurement according to the camera, and are not limited to these values.

続いてStep916では、Step915で算出された移動判定閾値Th7にリミットを設定する。上記補正方法の場合、補正の積み重ねにより、移動判定閾値が基準移動判定閾値の数倍になってしまい、移動判定の閾値としては適当でない場合がある。よって、閾値の上限を設定する。移動判定閾値Th7が、基準移動判定閾値Thの2倍以上である場合は、Step918へ遷移し、そうでない場合はStep917に遷移する。本実施例では、移動判定の精度を維持するためにリミットを2倍に設定したが、この値は、十分な測定を行い誤判定が軽減される値を任意に設定することが可能である。Step917においては、移動判定閾値THfaceにTh7を代入し、Step919に遷移する。Step918では、移動判定閾値が大き過ぎるため、閾値にリミットを設定する。最終的な移動判定閾値THfaceには基準移動判定閾値Thを2倍したものを代入し、Step919に遷移する。 Subsequently, in Step 916, a limit is set to the movement determination threshold Th7 calculated in Step 915. In the case of the correction method described above, the movement determination threshold value is several times the reference movement determination threshold value due to accumulation of corrections, and may not be appropriate as the movement determination threshold value. Therefore, the upper limit of the threshold is set. If the movement determination threshold Th7 is greater than or equal to twice the reference movement determination threshold Th, the process proceeds to Step 918; otherwise, the process proceeds to Step 917. In this embodiment, the limit is set to double in order to maintain the accuracy of the movement determination, but this value can be arbitrarily set to a value that can perform sufficient measurement and reduce erroneous determination. In Step 917, Th7 is substituted for the movement determination threshold THface, and the process proceeds to Step 919. In Step 918, since the movement determination threshold is too large, a limit is set for the threshold. A value obtained by doubling the reference movement determination threshold Th is substituted for the final movement determination threshold THface, and the process proceeds to Step 919.

Step919では、移動判定閾値THfaceを基に、遠ざかり判定と近づき判定の閾値を変更する。顔検出は目の間隔を基に顔サイズを決定している手法がある。人物が横を向いた場合に、目の間隔が小さくなることにより、被写体までの距離が変化してないにも関わらず、検出された顔サイズが小さくなる。そのため、被写体の遠ざかり検出を行ってしまう事がある。そこで、近づき検出閾値THnearよりも、遠ざかり検出閾値THfarを大きく設定することで、横顔撮影時のサイズ変化による誤判定を低減する。本実施例では、遠ざかり検出の閾値を1.5倍に大きくしているが、この値は、十分な測定を行い誤判定が軽減される値を設定することとする。この様に、被写体状況とは、上記判別の結果であり、前記閾値ないし所定量は、判別の結果が遠ざかりである場合と近づきである場合で異なる値が設定され、遠ざかりである場合は、近づきである場合よりも大きい量が設定される。 In Step 919, the threshold for distance determination and approach determination is changed based on the movement determination threshold THface. For face detection, there is a method of determining the face size based on the interval between eyes. When a person turns sideways, the distance between the eyes is reduced, so that the detected face size is reduced even though the distance to the subject has not changed. For this reason, the distance of the subject may be detected. Therefore, by setting the distance detection threshold THfar larger than the approach detection threshold THnear, erroneous determination due to a size change during profile shooting is reduced. In the present embodiment, the distance detection threshold is increased by a factor of 1.5, but this value is set to a value that performs sufficient measurement and reduces erroneous determination. In this way, the subject situation is the result of the determination, and the threshold value or the predetermined amount is set to a different value when the determination result is far away and closer, and when the distance is far away, it approaches. A larger amount is set than when.

以上が移動判定閾値設定の処理フローであり、近づき検出閾値THnear及び遠ざかり検出閾値THfarを算出する処理である。この処理の際に使用した係数や式は一例であり、これに限定するものではない。 The processing flow for setting the movement determination threshold has been described above, and is the processing for calculating the approach detection threshold THnear and the away detection threshold THfar. The coefficients and formulas used in this processing are examples, and the present invention is not limited to these.

次に、移動判定領域設定処理に関して図18を用いて説明する。図18のStep1801は処理の開始を示している。Step1802では次の処理を行う。ユーザーが、検出された被写体に対して、いわゆる主顔ロック機能、主顔固定機能、あるいは個人認証機能を用いて、意図的に他の顔が主顔になるような移り変わりを禁止している場合は、移動判定領域を設定する必要はない。よって、Step1802において、主顔固定されている場合はStep1810へ遷移し、そうでない場合はStep1803に遷移する。Setp1803では、顔の検出位置をカメラ/AFマイコン114から取得する。取得された顔位置は配列のFacePosX[0]とFacePosY[0]に格納される。同時に、1処理前のデータはFacePosX[1]とFacePosY[1]に移動する。続いて、Step1804では、焦点距離を取得する。本実施例では、35mm換算された焦点距離FocalLength値をカメラ/AFマイコン114から取得する。 Next, the movement determination area setting process will be described with reference to FIG. Step 1801 in FIG. 18 indicates the start of processing. In Step 1802, the following processing is performed. When a user intentionally prohibits a transition that causes another face to become the main face using the so-called main face lock function, main face fixing function, or personal authentication function for the detected subject Does not need to set a movement determination area. Therefore, in Step 1802, if the main face is fixed, the process proceeds to Step 1810, and if not, the process proceeds to Step 1803. In Setp 1803, the face detection position is acquired from the camera / AF microcomputer 114. The acquired face positions are stored in the array FacePosX [0] and FacePosY [0]. At the same time, the data before one process moves to FacePosX [1] and FacePosY [1]. Subsequently, in Step 1804, the focal length is acquired. In this embodiment, the focal length FocalLength value converted to 35 mm is acquired from the camera / AF microcomputer 114.

続いて、Step1805では、図19に示すグラフから、基準となる判定領域FaceAreaXとFaceAreaYを参照する。なお、判定領域は、ワイドの方が小さく、テレの方が大きい。その理由として、以下の3つがあげられる。
・ワイドの方が、画角が広いため、狙った被写体以外が画面内に存在する可能性がある。
・ワイドの方が、被写界深度が深いため、積極的に移動判定を行わなくても良い。
・ワイドの方が、手振れなどによって、被写体が画面中央から大きく外れることが少ない。
本実施例の場合は、広角側では、被写体距離が数メートルの被写体に対して、バストアップが入る程度の大きさを考慮し、X方向を約30%、Y方向を約70%に制限している。また、図19に示すように、焦点距離が120mm付近で、主被写体以外の被写体が入る可能性が低くなると想定し、判定領域の制限を行わないこととしている。
Subsequently, in Step 1805, reference determination areas FaceAreaX and FaceAreaY are referred to from the graph shown in FIG. Note that the determination area is smaller in the wide area and larger in the tele area. There are three reasons for this.
-Since the angle of view is wider in the wide area, there is a possibility that objects other than the target object are present on the screen.
-Since the depth of field is deeper in the wide area, it is not necessary to actively perform movement determination.
・ Wide subjects are less likely to deviate significantly from the center of the screen due to camera shake.
In the case of the present embodiment, on the wide-angle side, considering the size that the bust up is possible for a subject with a subject distance of several meters, the X direction is limited to about 30% and the Y direction is limited to about 70%. ing. Further, as shown in FIG. 19, it is assumed that there is a low possibility that a subject other than the main subject will enter when the focal length is around 120 mm, and the determination area is not limited.

続いて、Step1806では、カメラ/AFマイコン114から顔検出個数の取得を行う。Step1807では、顔検出の個数に応じて、補正係数Jを設定する。本実施例の場合、通常、主被写体1ないし2個であると考えられるため、5個以上の顔が検出されている場合は、人ごみでの撮影である可能性が高いと予想し、判定の領域を小さく設定する。よって、補正係数に0.8を設定する。そうでない場合は、補正係数を1.0に設定して補正は行わない。下記の式において、移動判定領域を算出する。
FaceAreaX’=補正係数J*FaceAreaX・・・式9a
FaceAreaY’=補正係数J*FaceAreaY・・・式9b
Subsequently, in Step 1806, the number of detected faces is acquired from the camera / AF microcomputer 114. In Step 1807, a correction coefficient J is set according to the number of face detections. In the case of the present embodiment, it is generally considered that there are one or two main subjects. Therefore, when five or more faces are detected, it is predicted that there is a high possibility of photographing with a crowd, and the determination is made. Set the area small. Therefore, 0.8 is set as the correction coefficient. Otherwise, the correction coefficient is set to 1.0 and no correction is performed. In the following equation, a movement determination area is calculated.
FaceAreaX '= correction coefficient J * FaceAreaX ... Equation 9a
FaceAreaY '= Correction coefficient J * FaceAreaY Equation 9b

続いて、Step1808では、顔の横の移動量を算出する。顔の移動量を算出するために、顔位置の二つの差分をFaceDiffX=FacePosX[0]-FacePosX[1]に格納する。Step1809では、顔の横の移動量に応じて、補正係数J’を設定する。本実施例の場合、移動量FaceDiffXが画面に対して20%以上であった場合、被写体が画面外に抜けていく可能性があるため、判定の領域を小さく設定する。よって、補正係数に0.8を設定する。そうでない場合は、補正係数を1.0に設定して補正は行わない。下記の式において、移動判定領域を算出する。
FaceAreaX’’=補正係数J’*FaceAreaX’・・・式10a
FaceAreaY’’=補正係数J’*FaceAreaY’・・・式10b
Subsequently, in Step 1808, the lateral movement amount of the face is calculated. In order to calculate the amount of movement of the face, the difference between the two face positions is stored in FaceDiffX = FacePosX [0] -FacePosX [1]. In Step 1809, a correction coefficient J ′ is set according to the amount of lateral movement of the face. In the case of this embodiment, if the movement amount FaceDiffX is 20% or more with respect to the screen, the subject may move out of the screen, so the determination area is set small. Therefore, 0.8 is set as the correction coefficient. Otherwise, the correction coefficient is set to 1.0 and no correction is performed. In the following equation, a movement determination area is calculated.
FaceAreaX '' = correction coefficient J '* FaceAreaX' ... Equation 10a
FaceAreaY '' = correction coefficient J '* FaceAreaY' ... Equation 10b

一方、Step1810では、主顔ロックがされているため、FaceAreaX’’とFaceAreaY’’にそれぞれ1.0を設定し、判定領域は制限しないことする。Step1811では、判定領域の4隅の位置を以下の式を用いて算出する。まず、判定枠の中心位置(x、y)を設定する。この値は任意の値で良いが、本実施例では、図20に示すように、画面中央よりも少し上に設定する。これは、被写体が入る可能性が高いからである。
JudgeFaceAreaX_Left=中心位置x-(X方向画素数×FaceAreaX’’÷2)
JudgeFaceAreaX_Right=中心位置x+(X方向画素数×FaceAreaX’’÷2)
JudgeFaceAreaY_Up=中心位置y-(Y方向画素数×FaceAreaY’’÷2)
JudgeFaceAreaY_Down=中心位置y+(Y方向画素数×FaceAreaY’’÷2)
・・・ 式11
上記求めた座標に囲まれた範囲が、移動判定領域であり、この領域内に顔が検出された場合のみ、移動判別を行うこととする。上記の処理が終了した場合、Step1812に遷移し、処理を終了する。以上の様に、本実施例では、制御手段であるカメラ/AFマイコン114中の判別領域決定手段は、検出手段により検出された被写体の状況である被写体の個数が多いほど小さくなるように判別領域を決定する。また、判別領域決定手段は、検出手段により検出された被写体の状況である被写体の移動量が大きいほど小さくなるように判別領域を決定する。さらに、判別領域決定手段は、撮像素子上の一部を判別領域と設定するモードと、撮像素子上の全部を判別領域と設定するモードと、を有し、撮影者による所定の被写体の特定がなされている場合には、撮像素子上の全部を判別領域と設定するモードに切り替える。ここで、撮影者による所定の被写体の特定とは、個体認証、被写体追尾、被写体ロックのうちの少なくとも1つの撮影設定がなされた状態である。
On the other hand, in Step 1810, since the main face is locked, 1.0 is set to FaceAreaX ″ and FaceAreaY ″, respectively, and the determination area is not limited. In Step 1811, the positions of the four corners of the determination area are calculated using the following formula. First, the center position (x, y) of the determination frame is set. This value may be an arbitrary value, but in this embodiment, it is set slightly above the center of the screen as shown in FIG. This is because there is a high possibility that the subject will enter.
JudgeFaceAreaX_Left = Center position x- (Number of pixels in X direction x FaceAreaX '' / 2)
JudgeFaceAreaX_Right = center position x + (number of pixels in X direction × FaceAreaX '' / 2)
JudgeFaceAreaY_Up = center position y- (number of pixels in Y direction x FaceAreaY '' / 2)
JudgeFaceAreaY_Down = center position y + (number of pixels in Y direction × FaceAreaY '' / 2)
... Formula 11
A range surrounded by the obtained coordinates is a movement determination area, and movement determination is performed only when a face is detected in this area. When the above process ends, the process proceeds to Step 1812 to end the process. As described above, in this embodiment, the discrimination area determination means in the camera / AF microcomputer 114 as the control means is such that the discrimination area becomes smaller as the number of subjects that are the subject conditions detected by the detection means increases. To decide. Further, the determination area determination unit determines the determination area so that the larger the amount of movement of the subject that is the state of the subject detected by the detection unit, the smaller the movement amount. Further, the discrimination area determining means has a mode for setting a part of the image sensor as a discrimination area and a mode for setting the entire area on the image sensor as a discrimination area, so that a photographer can specify a predetermined subject. If it has been done, the mode is switched to a mode in which the entire area on the image sensor is set as a discrimination area. Here, the specification of the predetermined subject by the photographer is a state in which at least one photographing setting among individual authentication, subject tracking, and subject lock is made.

続いて、本発明の特徴である揺れ検出処理を図14〜図16を用いて説明する。本実施例では、制御手段のカメラ/AFマイコン114に含まれる揺れ検出手段が揺れ検出処理を実行する。揺れ検出処理は、人物がカメラに向かって歩いたり走ったりして近づいて来るときに、顔や体が上下と左右に周期的に振動することに着目する。そして、取得した顔検出位置の結果を横方向と縦方向の座標に分解して、それぞれの方向の位置が振動しているか否かを検出する処理である。まず、人物がカメラに向かって歩いたり走ったりして近付いてくるときの顔や体の振動について図15を用いて説明する。本実施例において、顔検出位置の横方向の座標をx座標、縦方向の座標をy座標とする。また、画像の左上を原点として、x座標は画像の右端に近付くほど、y座標は画像の下端に近付くほど夫々大きな座標値を取ることとする。本実施例では、監視する被写体の位置を顔検出位置(例えば、顔の中心)とするが、体の他の部位の中心、人物の顔に配置されている器官(目、耳、鼻、口など)のうちの少なくとも2つの器官間の中心位置などであってもよい。 Next, the shake detection process that is a feature of the present invention will be described with reference to FIGS. In this embodiment, the shake detection means included in the camera / AF microcomputer 114 of the control means executes shake detection processing. In the shake detection process, attention is paid to the fact that the face and body periodically vibrate up and down and right and left when a person approaches by walking or running toward the camera. And it is the process which decomposes | disassembles the result of the acquired face detection position into the coordinate of a horizontal direction and a vertical direction, and detects whether the position of each direction is vibrating. First, the vibration of the face and body when a person approaches by walking or running toward the camera will be described with reference to FIG. In the present embodiment, the horizontal coordinate of the face detection position is set as an x coordinate, and the vertical coordinate is set as a y coordinate. In addition, with the upper left corner of the image as the origin, the x coordinate takes a larger coordinate value as it approaches the right end of the image, and the y coordinate approaches the lower end of the image. In this embodiment, the position of the subject to be monitored is set as the face detection position (for example, the center of the face), but the organs (eyes, ears, nose, mouth) arranged in the center of other parts of the body and the face of the person. Etc.) may be the center position between at least two organs.

人物が二足歩行する場合、顔や体は左右と上下に揺れる。ここで、検出した顔や体の位置座標の軌跡は、図15(a)に示すような所謂8の字形状や、図15(b)に示すような所謂Uの字形状を描く。図15(a)をx座標とy座標に分解して時間方向にそれぞれプロットすると、図15(c)のような軌跡となる。図15(c)より、縦方向の振動は、横方向の振動の2倍の周波数(2分の1の周期)で振動していることが分かる。したがって、体が左右方向に1往復揺れるとき、上下方向には2往復揺れるという特徴がある。また、図15(c)のy座標の軌跡を例えば1/2周期ずつ遅らせていくと、x、y座標において図15(b)の軌跡をA→B→C→D→A→・・・の順番で周期的に辿ることになる。さらに、x座標の軌跡とy座標の軌跡の位相は人物によって異なる。以上より、人物が歩行しているのを捉える為には、軌跡の形状が図15(a)、(b)に示すものに限らず如何なる様なものであっても、縦方向と横方向に周期的に振動しており且つ縦方向の周期が横方向の周期の1/2であるという特徴を捉えることが必要である。つまり、揺れ検出手段は、被写体検出手段から得られる被写体の位置が電気信号の映像信号中においてこうした所定の動作特性を満たした場合、揺れていると判定することができる。以下で、取得した顔検出位置のx座標から横方向の揺れを検出するシステムを説明するが、縦方向の揺れを検出するシステムは、取得した顔検出位置のy座標から以下のシステムと同じシステムを用いて実現できることは明らかである。以下の説明中では、横方向の揺れを検出するシステムと縦方向の揺れを検出するシステムとが異なる場合のみ、縦方向の揺れを検出するシステムについても記述する。 When a person walks on two legs, his face and body shake left and right and up and down. Here, the locus of the position coordinates of the detected face and body draws a so-called 8-character shape as shown in FIG. 15A and a so-called U-shape as shown in FIG. When FIG. 15A is decomposed into x-coordinate and y-coordinate and plotted in the time direction, a locus as shown in FIG. 15C is obtained. From FIG. 15 (c), it can be seen that the vibration in the vertical direction vibrates at a frequency (half the period) twice that of the horizontal vibration. Therefore, when the body swings one reciprocating motion in the left-right direction, the body swings two reciprocations in the vertical direction. Further, if the y-coordinate trajectory in FIG. 15C is delayed by, for example, ½ cycle, the trajectory in FIG. 15B in the x and y coordinates is A → B → C → D → A →. Will be followed periodically. Further, the phase of the x-coordinate trajectory and the y-coordinate trajectory varies depending on the person. From the above, in order to catch a person walking, the trajectory shape is not limited to that shown in FIGS. 15 (a) and 15 (b). It is necessary to capture the feature that it vibrates periodically and the vertical period is half of the horizontal period. That is, the shake detection unit can determine that the subject is shaking when the position of the subject obtained from the subject detection unit satisfies such a predetermined operation characteristic in the video signal of the electrical signal. In the following, a system for detecting a horizontal shake from the x coordinate of the acquired face detection position will be described. The system for detecting a vertical shake is the same system as the following system from the acquired y coordinate of the face detection position. It is clear that this can be realized using. In the following description, only a system that detects vertical shaking is described only when the system that detects horizontal shaking differs from the system that detects vertical shaking.

次に、揺れ検出処理の処理フローを図14のフローチャートを用いて説明する。Step1401は処理の開始を示している。Step1402においては、最新の顔検出位置/大きさ(以下、現在位置/現在顔サイズとする)を取得する。Step1403においては、現在位置が記憶している最大位置よりも大きい座標の場合は、Step1405に遷移し、そうでない場合はStep1404に遷移する。Step1404において、現在位置が記憶している最小位置よりも小さい座標の場合は、Step1406に遷移し、そうでない場合はStep1407に遷移する。Step1405において、現在位置を最大位置として更新し、Step1413に遷移する。一方、Step1406においては、現在位置を最小位置として更新し、Step1413に遷移する。 Next, the processing flow of the shake detection process will be described with reference to the flowchart of FIG. Step 1401 indicates the start of processing. In Step 1402, the latest face detection position / size (hereinafter referred to as current position / current face size) is acquired. In Step 1403, if the current position is larger than the stored maximum position, the process proceeds to Step 1405. Otherwise, the process proceeds to Step 1404. In Step 1404, if the current position is smaller than the stored minimum position, the process proceeds to Step 1406. If not, the process proceeds to Step 1407. In Step 1405, the current position is updated as the maximum position, and the process proceeds to Step 1413. On the other hand, in Step 1406, the current position is updated as the minimum position, and the process proceeds to Step 1413.

Step1407において、極大位置を検出したか否かの判断を行う。ここで極大位置とは、画像中の右方向に移動している顔の位置が左方向に移動方向を変えた時のx座標の最大値である。極大位置の検出方法を具体的に説明する。まず、現在位置と記憶している最大位置との差分を算出する。次に、算出した差分と予め決められた閾値とを比較し、算出した差分が閾値を超えている場合は、記憶している最大位置が極大位置であると判断してStep1408に遷移する。つまり、検出している顔の位置が画像中において、右に移動している状態から左に移動している状態に折り返したと判断する。一方、Step1407において、算出した差分が閾値以下である場合は、記憶している最大値は極大値ではないと判断してStep1410に遷移する。ここで、極大位置を検出するために差分と比較される閾値は、現在顔サイズから求める値で、本実施例においては現在顔サイズの10%の値とする。この値は、十分な測定を行って決定する値であり、撮影環境や表情等の影響により顔検出位置がバラつくことで極大位置を誤判定してしまうことがない値とする。 In Step 1407, it is determined whether or not the maximum position has been detected. Here, the maximum position is the maximum value of the x coordinate when the position of the face moving in the right direction in the image changes the moving direction to the left. A method for detecting the maximum position will be specifically described. First, the difference between the current position and the stored maximum position is calculated. Next, the calculated difference is compared with a predetermined threshold, and if the calculated difference exceeds the threshold, it is determined that the stored maximum position is the maximum position, and the process proceeds to Step 1408. That is, it is determined that the position of the detected face is turned back from the state of moving to the right to the state of moving to the left in the image. On the other hand, if the calculated difference is equal to or smaller than the threshold value in Step 1407, it is determined that the stored maximum value is not the maximum value, and the process proceeds to Step 1410. Here, the threshold value to be compared with the difference to detect the maximum position is a value obtained from the current face size, and in this embodiment, is a value that is 10% of the current face size. This value is a value determined by performing sufficient measurement, and is a value that does not erroneously determine the maximum position due to variations in the face detection position due to the influence of the shooting environment, facial expression, and the like.

Step1408においては、以降で極小値を探索するために、記憶している最小位置をクリアしてStep1409に遷移する。本実施例では現在位置を最小位置に代入することでクリアとする。ただし、最小位置は設定可能な最大の値でもよいし、x座標の場合は画面の右端、y座標の場合は画面の下端の値を代入してもよい。Step1409においては、極大位置Countを開始する。また、既にカウントを開始している場合はカウント値をリセットしてカウントを再開する。ここで、極大位置Countとは、Step1407において極大位置が検出されてからの経過時間を計測するための値であり、極大位置Countがカウントアップ中は「所定の期間内に移動方向が右から左に反転した」と判断する。ここで、該所定の期間は本実施例において、横方向に関しては2秒としている。これは、十分な測定を行い、人物の歩行を基準として決定した。また、縦方向に関しては横方向のおよそ半分の周期で振動するため、1秒を該所定の期間として設定する。 In Step 1408, in order to search for the minimum value thereafter, the stored minimum position is cleared and the process proceeds to Step 1409. In this embodiment, the current position is cleared by substituting it for the minimum position. However, the minimum position may be the maximum value that can be set, or the value at the right end of the screen may be substituted for the x coordinate, and the value at the bottom end of the screen may be substituted for the y coordinate. In Step 1409, the maximum position Count is started. If the count has already started, the count value is reset and the count is restarted. Here, the maximum position Count is a value for measuring the elapsed time since the maximum position was detected in Step 1407. While the maximum position Count is counting up, “the movement direction changes from right to left within a predetermined period. It was judged that it was reversed. Here, in the present embodiment, the predetermined period is 2 seconds in the horizontal direction. This was determined on the basis of sufficient measurements and the walking of a person. Further, since the vibration in the vertical direction is approximately half the horizontal direction, 1 second is set as the predetermined period.

Step1410においては、極小位置を検出したか否かの判断を行う。ここで極小位置とは、画像中の左方向に移動している顔の位置が右方向に移動方向を変えた時のx座標の最小値である。極小位置の検出方法を具体的に説明する。まず、現在位置と記憶されている最小位置との差分を算出する。次に、算出した差分と予め決められた閾値とを比較し、算出した差分が閾値を超えている場合は、記憶されている最小位置が極小位置であると判断してStep1411に遷移する。つまり、検出している顔の位置が画像中において、左に移動している状態から右に移動している状態に折り返したと判断する。一方、Step1410において、算出した差分が閾値以下である場合は、記憶している最小値は極小値ではないと判断してStep1413に遷移する。ここで、極小位置を検出するために差分と比較される閾値は、現在顔サイズから求める値で、本実施例においては現在顔サイズの10%の値とする。この値は、十分な測定を行って決定する値であり、撮影環境や表情等の影響により顔検出位置がバラつくことで極小位置を誤判定してしまうことがない値とする。 In Step 1410, it is determined whether or not a minimum position has been detected. Here, the minimum position is the minimum value of the x-coordinate when the position of the face moving in the left direction in the image changes the movement direction in the right direction. A method for detecting the minimum position will be specifically described. First, the difference between the current position and the stored minimum position is calculated. Next, the calculated difference is compared with a predetermined threshold, and if the calculated difference exceeds the threshold, it is determined that the stored minimum position is the minimum position, and the process proceeds to Step 1411. That is, it is determined that the position of the detected face is turned back from a state of moving left to a state of moving right. On the other hand, if the calculated difference is equal to or smaller than the threshold value in Step 1410, it is determined that the stored minimum value is not the minimum value, and the process proceeds to Step 1413. Here, the threshold value compared with the difference for detecting the minimum position is a value obtained from the current face size, and in this embodiment, is a value of 10% of the current face size. This value is a value determined by performing sufficient measurement, and is a value that does not erroneously determine the minimum position due to variations in the face detection position due to the influence of the shooting environment, facial expression, and the like.

Step1411においては、以降で極大値を探索するために、記憶している顔位置の最大位置をクリアしてStep1412に遷移する。本実施例では現在位置を最大位置に代入することでクリアとする。ただし、最大位置は設定可能な最小の値でもよいし、x座標の場合は画面の左端、y座標の場合は画面の上端の値を代入してもよい。Step1412においては、極小位置Countを開始する。また、既にカウントを開始している場合はカウント値をリセットしてカウントを再開する。ここで、極小位置Countとは、Step1410において極小位置が検出されてからの経過時間を計測するための値であり、極小位置Countがカウントアップ中は「所定の期間内に移動方向が左から右に反転した」と判断する。ここで、該所定の期間は本実施例において、横方向に関しては2秒としている。これは、十分な測定を行い、人物の歩行を基準として決定した。また、縦方向に関しては横方向のおよそ半分の周期で振動するため、1秒を該所定の期間として設定する。 In Step 1411, the maximum position of the stored face position is cleared and the process proceeds to Step 1412 in order to search for the maximum value thereafter. In this embodiment, the current position is cleared by substituting it into the maximum position. However, the maximum position may be a minimum value that can be set, or the value at the left end of the screen may be substituted for the x coordinate, and the value at the top end of the screen may be substituted for the y coordinate. In Step 1412, the minimum position Count is started. If the count has already started, the count value is reset and the count is restarted. Here, the minimum position Count is a value for measuring the elapsed time after the minimum position is detected in Step 1410. While the minimum position Count is counting up, “the movement direction is changed from left to right within a predetermined period. It was judged that it was reversed. Here, in the present embodiment, the predetermined period is 2 seconds in the horizontal direction. This was determined on the basis of sufficient measurements and the walking of a person. Further, since the vibration in the vertical direction is approximately half the horizontal direction, 1 second is set as the predetermined period.

次に、Step1413において、極大位置Countが2秒(縦方向の場合は1秒)を超えているか否かを判断する。2秒(縦方向の場合は1秒)を超えている場合はStep1414に遷移し、そうでない場合はStep1416に遷移する。Step1414においては、極大位置Countを初期値にクリアしてカウントアップを終了し、Step1415に遷移する。Step1415において、最小位置を現在位置で更新してStep1417に遷移する。一方、Step1416において、極大位置CountをカウントアップしStep1417に遷移する。次に、Step1417において、極小位置Countが2秒(縦方向の場合は1秒)を超えているか否かを判断する。2秒(縦方向の場合は1秒)を超えている場合はStep1418に遷移し、そうでない場合はStep1420に遷移する。Step1418においては、極小位置Countを初期値にクリアしてカウントアップを終了し、Step1419に遷移する。Step1419において、最大位置を現在位置で更新してStep1421に遷移する。一方、Step1420において、極小位置CountをカウントアップしStep1421に遷移する。 Next, in Step 1413, it is determined whether or not the maximum position Count exceeds 2 seconds (1 second in the case of the vertical direction). If it exceeds 2 seconds (1 second in the case of the vertical direction), the process proceeds to Step 1414. Otherwise, the process proceeds to Step 1416. In Step 1414, the maximum position Count is cleared to the initial value, the count up is finished, and the process proceeds to Step 1415. In Step 1415, the minimum position is updated with the current position, and the process proceeds to Step 1417. On the other hand, in Step 1416, the maximum position Count is counted up and the process proceeds to Step 1417. Next, in Step 1417, it is determined whether or not the minimum position Count exceeds 2 seconds (1 second in the case of the vertical direction). If it exceeds 2 seconds (1 second in the vertical direction), the process proceeds to Step 1418. Otherwise, the process proceeds to Step 1420. In Step 1418, the minimum position Count is cleared to the initial value, the count up is finished, and the process proceeds to Step 1419. In Step 1419, the maximum position is updated with the current position, and the process proceeds to Step 1421. On the other hand, in Step 1420, the minimum position Count is counted up and the process proceeds to Step 1421.

次に、Step1421において、極大位置Countと極小位置Countとがどちらもカウント中であるか否かを判断する。どちらもカウント中であると判断した場合はStep1422に遷移し、そうでない場合は、Step1423に遷移する。Step1422において、揺れフラグをONにして処理を終了し、一方、Step1423において、揺れフラグをOFFにして処理を終了する。 Next, in Step 1421, it is determined whether both the maximum position Count and the minimum position Count are being counted. If both are determined to be counting, the process proceeds to Step 1422, and if not, the process proceeds to Step 1423. In step 1422, the shaking flag is turned on to end the process. On the other hand, in step 1423, the shaking flag is turned off to end the process.

以上の様に、本実施例では、判別手段は、前記被写体の大きさの変化量を監視して、前記変化量に変化が発生した場合であって揺れ検出手段が被写体の揺れを検出している場合には被写体の距離変化があると判断する。他方、前記変化量に変化が発生した場合であっても揺れ検出手段が被写体の揺れを検出していない場合には被写体の距離変化はないと判断する。そして、制御手段は、被写体の距離変化がないと判断されたときは、追従制御手段による追従制御を禁止して焦点調節を行い、被写体の距離変化があると判断されたときは、追従制御手段による追従制御を許可して焦点調節を行う。前記所定の動作特性は、電気信号中において被写体の位置について、第一の所定期間内に縦方向に極大値と極小値を含む所定の振幅以上の振動があり且つ第二の所定期間内に横方向に極大値と極小値を含む所定の振幅以上の振動があるという特徴を有する。この所定の振幅は、被写体検出手段から得られる被写体の大きさに対して所定の割合の大きさを有する。また、第一の所定期間(周期)は、第二の所定期間(周期)よりも短く、例えば、第一の所定期間は第二の所定期間の略半分の期間である。 As described above, in this embodiment, the discriminating unit monitors the amount of change in the size of the subject, and when the change has occurred, the shake detecting unit detects the shake of the subject. If it is determined that there is a change in the distance of the subject. On the other hand, even if a change occurs in the change amount, it is determined that there is no change in the distance of the subject if the shake detection means has not detected the shake of the subject. When it is determined that there is no change in the distance of the subject, the control means performs the focus adjustment by prohibiting the tracking control by the tracking control means, and when it is determined that there is a change in the distance of the subject, the tracking control means The focus adjustment is performed by allowing the tracking control by. The predetermined operating characteristic is that there is a vibration having a predetermined amplitude or more including a maximum value and a minimum value in a vertical direction within a first predetermined period and a horizontal position within a second predetermined period with respect to the position of the subject in the electrical signal. There is a feature that there is a vibration having a predetermined amplitude or more including a maximum value and a minimum value in the direction. The predetermined amplitude has a predetermined ratio with respect to the size of the subject obtained from the subject detection means. The first predetermined period (cycle) is shorter than the second predetermined period (cycle). For example, the first predetermined period is substantially half of the second predetermined period.

上記の揺れ検出処理を説明したのが図16である。まず、T1のタイミングにおいて、現在位置と最大位置との差分は折り返し検出閾値以上となっている。したがって、T1のタイミングにおいて記憶している最大位置が極大位置であると判断できるため、T1から極大位置Countが開始される。また、T2のタイミングにおいて、現在位置と最小位置との差分が折り返し検出閾値以上となっている。したがって、T2のタイミングにおいて記憶している最小位置が極小位置であると判断できるため、T2から極小位置Countが開始される。次に、T3のタイミングにおいて、現在位置と最大位置との差分は折り返し検出閾値以上となっている。したがって、T3のタイミングにおいて記憶している最大位置が極大位置であると判断できるため、T3において極大位置Countが初期化されカウントが再開される。T4のタイミングにおいては、極小位置Countが閾値を超えるため極小位置Countをクリアしてカウントを終了する。T5のタイミングにおいても、極大位置Countが閾値を超えるため極大位置Countをクリアしてカウントを終了する。以上の処理により図16中のT2からT4の期間において、極大位置Countと極小位置Countがともにカウント中であるため、該期間では検出している顔が揺れていると判断できる。 FIG. 16 illustrates the shaking detection process. First, at the timing of T1, the difference between the current position and the maximum position is greater than or equal to the folding detection threshold. Therefore, since the maximum position stored at the timing of T1 can be determined to be the maximum position, the maximum position Count is started from T1. Further, at the timing of T2, the difference between the current position and the minimum position is equal to or greater than the folding detection threshold. Accordingly, since the minimum position stored at the timing of T2 can be determined to be the minimum position, the minimum position Count is started from T2. Next, at the timing of T3, the difference between the current position and the maximum position is equal to or greater than the folding detection threshold. Therefore, since the maximum position stored at the timing of T3 can be determined to be the maximum position, the maximum position Count is initialized at T3 and the count is restarted. At the timing of T4, since the minimum position Count exceeds the threshold value, the minimum position Count is cleared and the count ends. Also at the timing of T5, since the maximum position Count exceeds the threshold value, the maximum position Count is cleared and the count ends. By the above processing, since both the maximum position Count and the minimum position Count are being counted in the period from T2 to T4 in FIG. 16, it can be determined that the detected face is shaking during that period.

以上のように、上記実施例では、顔検出を用いて被写体の人物にAF評価値でピント合わせを行うと共に、被写体の検出結果に加えて被写体の位置の揺れの検出結果に基づき被写体の距離変化の有無を判断する。そして、検出した顔の位置が所定の動作をしている場合にのみ被写体が近づいていると判断する。このことで、精度の高く安定した被写体の移動判定が可能になる。そして、その情報を用いて、フォーカスを被写体の無限または至近の移動に追従駆動させることにより、合焦精度を高めることができる。 As described above, in the above-described embodiment, the subject person is focused on the AF evaluation value using face detection, and the subject distance change is based on the subject detection result in addition to the subject detection result. Determine the presence or absence. Then, it is determined that the subject is approaching only when the detected face position performs a predetermined operation. This makes it possible to determine the movement of the subject with high accuracy and stability. Then, by using the information to drive the focus to follow the infinite or close movement of the subject, the focusing accuracy can be improved.

上述した実施例における処理のために、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施例の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリーカード、ROMなどを用いることもできる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施例の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれている。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリーに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施例の機能が実現される場合も含むものである。 For the processing in the above-described embodiments, a storage medium storing software program codes embodying each function may be provided to the system or apparatus. The functions of the above-described embodiments can be realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, or the like can be used. Alternatively, a CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used. The functions of the above-described embodiments are not only realized by executing the program code read by the computer. This includes the case where the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. ing. Furthermore, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. It is a waste.

以上、本発明の好ましい実施形態ないし実施例について説明したが、本発明は上記実施形態ないし実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment thru | or Example of this invention was demonstrated, this invention is not limited to the said embodiment thru | or Example, A various deformation | transformation and change are possible within the range of the summary.

105‥‥フォーカスレンズ、106‥‥CCD(撮像素子)、113‥‥AF信号処理回路(生成手段)、114‥‥カメラ/AFマイコン(制御手段、判別手段、判別領域決定手段)、116‥‥顔検出部(検出手段) 105: Focus lens, 106: CCD (imaging device), 113: AF signal processing circuit (generation means), 114: Camera / AF microcomputer (control means, discrimination means, discrimination area determination means), 116 ... Face detector (detection means)

Claims (7)

フォーカスレンズを含む撮像光学系を通過した被写体からの光を光電変換して電気信号に変換する撮像素子の出力から所定の被写体を検出する検出手段と、
前記被写体を含む焦点検出領域に対応する前記撮像素子の出力のうちの焦点検出信号から焦点評価値を生成する生成手段と、
前記検出手段の出力から前記被写体の光軸方向の距離変化を判別する判別手段と、
前記撮像光学系の焦点距離に応じて前記被写体の光軸方向の距離変化を判別する判別領域の撮像画面内における大きさを決定する判別領域決定手段と、
前記焦点評価値を用いて焦点調節を行う焦点調節手段と、
前記判別領域内を移動する前記被写体の光軸方向の距離変化があると判別された場合、前記被写体の光軸方向の距離変化方向に応じて前記フォーカスレンズを移動させる制御手段と、を有する自動焦点調節装置であって、
前記判別領域決定手段は、前記検出手段にて検出された被写体の検出個数が多い場合の判別領域の大きさを前記被写体の検出個数が少ない場合の判別領域の大きさよりも小さくなるように前記判別領域の大きさを決定することを特徴とする自動焦点調節装置。
Detecting means for detecting a predetermined subject from an output of an image sensor that photoelectrically converts light from the subject that has passed through an imaging optical system including a focus lens into an electrical signal;
Generating means for generating a focus evaluation value from a focus detection signal among outputs of the image sensor corresponding to a focus detection area including the subject;
Discriminating means for discriminating a change in distance of the subject in the optical axis direction from an output of the detecting means;
Discriminating area determining means for determining the size of the discriminating area in the imaging screen for discriminating a change in distance of the subject in the optical axis direction according to the focal length of the imaging optical system;
Focus adjusting means for performing focus adjustment using the focus evaluation value;
Control means for moving the focus lens in accordance with a distance change direction in the optical axis direction of the subject when it is determined that there is a distance change in the optical axis direction of the subject moving in the discrimination region. A focus adjustment device,
The discriminating area determining means determines the discriminating area so that the size of the discriminating area when the number of detected objects detected by the detecting means is large is smaller than the size of the discriminating area when the detected number of objects is small. An automatic focusing apparatus characterized by determining the size of an area.
前記判別領域決定手段は、前記検出手段にて検出された被写体の検出個数が多いほど、前記判別領域の大きさが小さくなるように前記判別領域の大きさを決定することを特徴とする請求項に記載の自動焦点調節装置。 The determination area determining unit determines the size of the determination area so that the larger the number of objects detected by the detection unit is, the smaller the size of the determination area is. 2. The automatic focusing apparatus according to 1. フォーカスレンズを含む撮像光学系を通過した被写体からの光を光電変換して電気信号に変換する撮像素子の出力から所定の被写体を検出する検出手段と、
前記被写体を含む焦点検出領域に対応する前記撮像素子の出力のうちの焦点検出信号から焦点評価値を生成する生成手段と、
前記検出手段の出力から前記被写体の光軸方向の距離変化を判別する判別手段と、
前記撮像光学系の焦点距離に応じて前記被写体の光軸方向の距離変化を判別する判別領域の撮像画面内における大きさを決定する判別領域決定手段と、
前記焦点評価値を用いて焦点調節を行う焦点調節手段と、
前記判別領域内を移動する前記被写体の光軸方向の距離変化があると判別された場合、前記被写体の光軸方向の距離変化方向に応じて前記フォーカスレンズを移動させる制御手段と、を有する自動焦点調節装置であって、
前記判別領域決定手段は、前記検出手段にて検出された被写体の移動量が大きい場合の判別領域の大きさを前記被写体の移動量が小さい場合の判別領域の大きさよりも小さくなるように前記判別領域の大きさを決定することを特徴とする自動焦点調節装置。
Detecting means for detecting a predetermined subject from an output of an image sensor that photoelectrically converts light from the subject that has passed through an imaging optical system including a focus lens into an electrical signal;
Generating means for generating a focus evaluation value from a focus detection signal among outputs of the image sensor corresponding to a focus detection area including the subject;
Discriminating means for discriminating a change in distance of the subject in the optical axis direction from an output of the detecting means;
Discriminating area determining means for determining the size of the discriminating area in the imaging screen for discriminating a change in distance of the subject in the optical axis direction according to the focal length of the imaging optical system;
Focus adjusting means for performing focus adjustment using the focus evaluation value;
Control means for moving the focus lens in accordance with a distance change direction in the optical axis direction of the subject when it is determined that there is a distance change in the optical axis direction of the subject moving in the discrimination region. A focus adjustment device,
The discriminating area determining means determines the discriminating area so that the size of the discriminating area when the movement amount of the subject detected by the detecting means is large is smaller than the size of the discriminating area when the movement amount of the subject is small. An automatic focusing apparatus characterized by determining the size of an area.
前記判別領域決定手段は、前記検出手段にて検出された被写体の移動量が大きいほど、前記判別領域の大きさが小さくなるように前記判別領域の大きさを決定することを特徴とする請求項に記載の自動焦点調節装置。 The determination area determining means determines the size of the determination area so that the larger the amount of movement of the subject detected by the detection means is, the smaller the determination area is. automatic focusing device according to 3. 請求項1乃至の何れか一項に記載の自動焦点調節装置と、前記撮像素子と、を有する撮像装置。 An image pickup apparatus comprising: the automatic focus adjustment apparatus according to any one of claims 1 to 4 ; and the image pickup element. フォーカスレンズを含む撮像光学系を通過した被写体からの光を光電変換して電気信号に変換する撮像素子の出力から所定の被写体を検出する検出ステップと、
前記被写体を含む焦点検出領域に対応する前記撮像素子の出力のうちの焦点検出信号から焦点評価値を生成する生成ステップと、
前記検出ステップにおける出力から前記被写体の光軸方向の距離変化を判別する判別ステップと、
前記撮像光学系の焦点距離に応じて前記被写体の光軸方向の距離変化を判別する判別領域の撮像画面内における大きさを決定する判別領域決定ステップと、
前記焦点評価値を用いて焦点調節を行う焦点調節ステップと、
前記判別領域内を移動する前記被写体の光軸方向の距離変化があると判別された場合、前記被写体の光軸方向の距離変化方向に応じて前記フォーカスレンズを移動させる制御ステップと、を有する自動焦点調節方法であって、
前記判別領域決定ステップにおいて、前記検出ステップにおいて検出された被写体の検出個数が多い場合の判別領域の大きさを前記被写体の検出個数が少ない場合の判別領域の大きさよりも小さくなるように前記判別領域の大きさを決定することを特徴とする自動焦点調節方法。
A detection step of detecting a predetermined subject from an output of an image sensor that photoelectrically converts light from the subject that has passed through an imaging optical system including a focus lens into an electrical signal;
Generating a focus evaluation value from a focus detection signal among outputs of the image sensor corresponding to a focus detection region including the subject;
A determination step of determining a distance change in the optical axis direction of the subject from an output in the detection step;
A determination area determining step for determining a size of the determination area in the imaging screen for determining a distance change in the optical axis direction of the subject according to a focal length of the imaging optical system;
A focus adjustment step of performing focus adjustment using the focus evaluation value;
A control step of moving the focus lens in accordance with a distance change direction of the subject in the optical axis direction when it is determined that there is a change in the distance of the subject moving in the optical axis direction. A focus adjustment method,
In the determination area determination step, the determination area is set so that the size of the determination area when the number of detected objects detected in the detection step is large is smaller than the size of the determination area when the number of detected objects is small. An automatic focusing method characterized by determining the size of the lens.
フォーカスレンズを含む撮像光学系を通過した被写体からの光を光電変換して電気信号に変換する撮像素子の出力から所定の被写体を検出する検出ステップと、
前記被写体を含む焦点検出領域に対応する前記撮像素子の出力のうちの焦点検出信号から焦点評価値を生成する生成ステップと、
前記検出ステップにおける出力から前記被写体の光軸方向の距離変化を判別する判別ステップと、
前記撮像光学系の焦点距離に応じて前記被写体の光軸方向の距離変化を判別する判別領域の撮像画面内における大きさを決定する判別領域決定ステップと、
前記焦点評価値を用いて焦点調節を行う焦点調節ステップと、
前記判別領域内を移動する前記被写体の光軸方向の距離変化があると判別された場合、前記被写体の光軸方向の距離変化方向に応じて前記フォーカスレンズを移動させる制御ステップと、を有する自動焦点調節方法であって、
前記判別領域決定ステップにおいて、前記検出ステップにおいて検出された被写体の移動量が大きい場合の判別領域の大きさを前記被写体の移動量が小さい場合の判別領域の大きさよりも小さくなるように前記判別領域の大きさを決定することを特徴とする自動焦点調節方法。
A detection step of detecting a predetermined subject from an output of an image sensor that photoelectrically converts light from the subject that has passed through an imaging optical system including a focus lens into an electrical signal;
Generating a focus evaluation value from a focus detection signal among outputs of the image sensor corresponding to a focus detection region including the subject;
A determination step of determining a distance change in the optical axis direction of the subject from an output in the detection step;
A determination area determining step for determining a size of the determination area in the imaging screen for determining a distance change in the optical axis direction of the subject according to a focal length of the imaging optical system;
A focus adjustment step of performing focus adjustment using the focus evaluation value;
A control step of moving the focus lens in accordance with a distance change direction of the subject in the optical axis direction when it is determined that there is a change in the distance of the subject moving in the optical axis direction. A focus adjustment method,
In the determination area determining step, the determination area is set such that the size of the determination area when the movement amount of the subject detected in the detection step is large is smaller than the determination area when the movement amount of the subject is small. An automatic focusing method characterized by determining the size of the lens.
JP2012000850A 2012-01-06 2012-01-06 Automatic focusing device, imaging device, and automatic focusing method Active JP6159055B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012000850A JP6159055B2 (en) 2012-01-06 2012-01-06 Automatic focusing device, imaging device, and automatic focusing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012000850A JP6159055B2 (en) 2012-01-06 2012-01-06 Automatic focusing device, imaging device, and automatic focusing method

Publications (2)

Publication Number Publication Date
JP2013140288A JP2013140288A (en) 2013-07-18
JP6159055B2 true JP6159055B2 (en) 2017-07-05

Family

ID=49037760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012000850A Active JP6159055B2 (en) 2012-01-06 2012-01-06 Automatic focusing device, imaging device, and automatic focusing method

Country Status (1)

Country Link
JP (1) JP6159055B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5939904B2 (en) * 2012-06-25 2016-06-22 富士フイルム株式会社 Tracking adjustment device, tracking adjustment method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5967505A (en) * 1982-10-12 1984-04-17 Asahi Optical Co Ltd Automatic focusing device of video camera
JP3109819B2 (en) * 1990-09-24 2000-11-20 キヤノン株式会社 Automatic focusing device
JP2957800B2 (en) * 1992-04-17 1999-10-06 三菱電機株式会社 Automatic focusing device
JPH0622196A (en) * 1992-06-30 1994-01-28 Canon Inc Automatic focus adjustment device
JP5088118B2 (en) * 2007-12-07 2012-12-05 株式会社ニコン Focus adjustment device
JP2011199526A (en) * 2010-03-18 2011-10-06 Fujifilm Corp Object tracking device, and method of controlling operation of the same

Also Published As

Publication number Publication date
JP2013140288A (en) 2013-07-18

Similar Documents

Publication Publication Date Title
JP5049899B2 (en) Imaging apparatus and control method thereof
JP6184189B2 (en) SUBJECT DETECTING DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE, SUBJECT DETECTING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM
US9794467B2 (en) Focus adjustment apparatus, method for controlling focus adjustment apparatus, and storage medium
JP2010139666A (en) Imaging device
JP2009198574A (en) Focusing apparatus and method for controlling the same
US9160916B2 (en) Focus adjustment apparatus with a size detector
JP5335408B2 (en) Focus adjustment apparatus and method
JP5873336B2 (en) Focus adjustment device
US9357124B2 (en) Focusing control device and controlling method of the same
JP5075110B2 (en) Focus adjustment apparatus and method
JP6851726B2 (en) Control device, image pickup device, control method, program, and storage medium
JP5882745B2 (en) Focus adjustment device
JP2014106411A (en) Automatic focus adjustment device and automatic focus adjustment method
JP6053287B2 (en) Automatic focusing apparatus and automatic focusing method
JP6159055B2 (en) Automatic focusing device, imaging device, and automatic focusing method
JP2015194648A (en) Imaging apparatus, method for controlling imaging apparatus, program, and storage medium
JP5913902B2 (en) Automatic focusing device and automatic focusing method
JP5898455B2 (en) Automatic focusing device and automatic focusing method
JP6039184B2 (en) Automatic focusing device, imaging device, and automatic focusing method
JP6120478B2 (en) Automatic focusing device and automatic focusing method
JP5932340B2 (en) Focus adjustment device
JP5017195B2 (en) Focus adjustment apparatus and method
JP2010044210A (en) Focusing device and focusing method
JP5164711B2 (en) Focus adjustment apparatus and control method thereof
JP2014126857A (en) Focus adjustment device and method, and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170609

R151 Written notification of patent or utility model registration

Ref document number: 6159055

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03