[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2001174691A - Range-finder for camera - Google Patents

Range-finder for camera

Info

Publication number
JP2001174691A
JP2001174691A JP35954599A JP35954599A JP2001174691A JP 2001174691 A JP2001174691 A JP 2001174691A JP 35954599 A JP35954599 A JP 35954599A JP 35954599 A JP35954599 A JP 35954599A JP 2001174691 A JP2001174691 A JP 2001174691A
Authority
JP
Japan
Prior art keywords
points
distance
luminance
screen
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP35954599A
Other languages
Japanese (ja)
Inventor
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP35954599A priority Critical patent/JP2001174691A/en
Publication of JP2001174691A publication Critical patent/JP2001174691A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide the range-finder of a camera by which a range-finding point is efficiently obtained at high speed while inexpensively constituting it by using a simple arithmetic control circuit such as an ordinary one-chip microcomputer. SOLUTION: This range-finder possesses a CPU1 provided with functions as a first splitting means to split an image plane into the M-number of points, a luminance measuring means to measure a luminance distribution at each of the M-number of points, a selecting means to select the N-number of points out of the M-number of points based on the luminance measured result of the luminance measuring means and a second splitting means to respectively split the N-number of points selected by the selecting means more at the time of deciding the main object position.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラの測距装置
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera distance measuring device.

【0002】[0002]

【従来の技術】AFカメラにおいて、画面内の複数のポ
イント(点)を測距してピント合せをする機能はマルチ
AF機能として従来より採用されている。マルチAF機
能を備えたカメラでは、測距ポイントの増加に伴なって
測距に要する時間が長くなるため、例えば、特開平10
−142490号公報ではシーンを分割することを開示
している。
2. Description of the Related Art In an AF camera, a function of measuring a distance between a plurality of points (points) on a screen and performing focusing has conventionally been adopted as a multi-AF function. In a camera having a multi-AF function, the time required for distance measurement increases as the number of distance measurement points increases.
Japanese Patent Application Publication No. 142490 discloses that a scene is divided.

【0003】[0003]

【発明が解決しようとする課題】上記した特開平10−
142490号公報に記載されている方法では距離分布
を求めること自体に少なからぬ時間を要してしまう。例
えば1つのポイントについての測距を行うにあたって、
画素信号より被写体像信号を検出するいわゆるパッシブ
タイプのAFの場合、まず適切な画素データの積分制
御、相関演算、補間演算等、複雑な演算が必要となる。
しかもこれらの演算は同時にはできず、順番に行なわな
ければならない。従って、多くのポイントを測距しよう
とすると、上記の処理を何度も繰り返さなければならな
かった。
SUMMARY OF THE INVENTION The above-mentioned Japanese Patent Application Laid-Open No.
According to the method described in Japanese Patent Application Laid-Open No. 142490, it takes a considerable amount of time to obtain the distance distribution. For example, when performing distance measurement for one point,
In the case of a so-called passive type AF for detecting a subject image signal from a pixel signal, complicated calculations such as appropriate integration control of pixel data, correlation calculation, and interpolation calculation are required.
Moreover, these operations cannot be performed at the same time, and must be performed in order. Therefore, in order to measure the distance of many points, the above processing has to be repeated many times.

【0004】本発明はこのような課題に着目してなされ
たものであり、その目的とするところは、通常のワンチ
ップマイコン等、単純な演算制御回路を用いて廉価に構
成しながら、高速に効率よく測距ポイントを求めること
ができるカメラの測距装置を提供することにある。
The present invention has been made in view of such a problem, and an object of the present invention is to provide a high-speed, low-cost configuration using a simple arithmetic control circuit such as a normal one-chip microcomputer. An object of the present invention is to provide a camera distance measuring device capable of efficiently finding a distance measuring point.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
めに、第1の発明に係るカメラの測距装置は、画面内を
M個の点に分割する第1分割手段と、このM個の各点の
輝度分布を測定する輝度測定手段と、この輝度測定手段
の輝度測定結果に基づいて、上記M個の点のうち、N個
の点を選択する選択手段と、主要被写体位置を決定する
にあたって、前記選択手段により選択されたN個の点の
各々をさらに分割する第2分割手段とを具備する。
In order to achieve the above object, a distance measuring apparatus for a camera according to a first aspect of the present invention comprises: a first dividing means for dividing a screen into M points; Luminance measuring means for measuring the luminance distribution of each point, selecting means for selecting N points out of the M points based on the luminance measurement result of the luminance measuring means, and determining the main subject position In doing so, there is provided a second dividing unit for further dividing each of the N points selected by the selecting unit.

【0006】また、第2の発明に係るカメラの測距装置
は、第1の発明において、上記輝度測定手段は、カメラ
から補助光を投射した際の輝度分布を測定する。
According to a second aspect of the present invention, in the camera distance measuring apparatus according to the first aspect, the luminance measuring means measures a luminance distribution when auxiliary light is projected from the camera.

【0007】また、第3の発明に係るカメラの測距装置
は、第1の発明において、上記N個の点の各々は、それ
ぞれ複数の測距ポイントを有し、この複数の測距結果に
基づいて上記主要被写体の位置を決定する。
According to a third aspect of the present invention, in the camera distance measuring apparatus according to the first aspect, each of the N points has a plurality of distance measuring points. The position of the main subject is determined based on the position.

【0008】また、第4の発明に係るカメラの測距装置
は、画面内の主要被写体の位置を決定するカメラにおい
て、上記画面内の輝度分布を判断するセンサアレイと、
このセンサアレイの出力に基づいて画面内をM個の点に
分割し、これらM個のうち限られたN個の点について測
距動作を行い、この測距動作により得られた複数の距離
情報に基づいて主要被写体の位置を決定する決定手段と
を具備する。
A distance measuring device for a camera according to a fourth aspect of the present invention is a camera for determining the position of a main subject in a screen, wherein the sensor array determines the luminance distribution in the screen.
The screen is divided into M points on the basis of the output of the sensor array, a distance measurement operation is performed on a limited N points among the M points, and a plurality of distance information obtained by the distance measurement operation is obtained. Deciding means for deciding the position of the main subject on the basis of

【0009】また、第5の発明に係るカメラの測距装置
は、第4の発明において、上記分割されたM個の点のう
ち、測距動作を行う点の数を切換える切換え手段をさら
に備えている。
A distance measuring apparatus for a camera according to a fifth aspect of the present invention, in the fourth aspect, further comprises a switching means for switching the number of points for which a distance measuring operation is performed among the divided M points. ing.

【0010】[0010]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態を詳細に説明する。 本実施形態による測距方法
をより明らかにするために、まず従来技術による測距方
法について説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings. To clarify the distance measuring method according to the present embodiment, a distance measuring method according to the related art will be described first.

【0011】図28は測距装置の基本構成を示してい
る。図28において、1はCPU、2a、2bはセンサ
アレイ、3a、3bは受光レンズ、5は被写体、34は
A/D変換部、35は演算部、33a、33bは像パタ
ーンである。
FIG. 28 shows the basic configuration of the distance measuring device. In FIG. 28, 1 is a CPU, 2a and 2b are sensor arrays, 3a and 3b are light receiving lenses, 5 is a subject, 34 is an A / D converter, 35 is an arithmetic unit, and 33a and 33b are image patterns.

【0012】以下に、図29(a)、(b)、(c)を
用いて従来の測距方法について説明する。
A conventional distance measuring method will be described below with reference to FIGS. 29 (a), (b) and (c).

【0013】図29(b)に示すような画面内のA、
B、Cの3ポイントを測距する場合には、まず、Aのポ
イントについて、積分制御、相関演算、補間演算を行な
って被写体距離を求める(図29(a)のステップS1
00、S101、S102)。次に、同じ処理をB点に
ついて行なう(図29(a)のステップS103、S1
04、S105)。次に、Cの点についても同じ手順で
被写体距離を求める(図29(a)のステップS10
6、S107、S108)。最後にA、B、C点から主
要被写体距離を選択する(ステップS109)。
A in the screen as shown in FIG.
When measuring the distance between the three points B and C, first, for the point A, the subject distance is obtained by performing integral control, correlation operation and interpolation operation (step S1 in FIG. 29A).
00, S101, S102). Next, the same process is performed for point B (steps S103 and S1 in FIG. 29A).
04, S105). Next, the subject distance is calculated for point C in the same procedure (step S10 in FIG. 29A).
6, S107, S108). Finally, a main subject distance is selected from points A, B, and C (step S109).

【0014】ここで積分制御とは、センサアレイ2a、
2bを用いて被写体5の像信号を検出するにあたって、
センサアレイ2a、2bを構成する画素の出力電流をコ
ンデンサに蓄えて電圧信号に変換するときに処理回路の
ダイナミックレンジ内に電圧信号を収める技術である。
Here, the integral control means the sensor array 2a,
In detecting the image signal of the subject 5 using 2b,
This is a technique of storing a voltage signal within a dynamic range of a processing circuit when an output current of a pixel forming the sensor arrays 2a and 2b is stored in a capacitor and converted into a voltage signal.

【0015】次に相関演算について説明する。図30は
測距の演算原理を説明するための図であり、図30
(a)は焦点とずらし量との関係を示す図、図30
(b)は右側センサRのセンサ部分ごとの信号出力を示
す図、図30(c)は左側センサLのセンサ部分ごとの
信号出力を示す図、図30(d)は左右のセンサ出力と
隣接するセンサ部分の出力の関係を示す図である。
Next, the correlation operation will be described. FIG. 30 is a diagram for explaining the calculation principle of distance measurement.
FIG. 30A shows the relationship between the focus and the shift amount, and FIG.
(B) is a diagram showing a signal output for each sensor portion of the right sensor R, FIG. 30 (c) is a diagram showing a signal output for each sensor portion of the left sensor L, and FIG. 30 (d) is adjacent to the left and right sensor outputs. FIG. 7 is a diagram showing a relationship between outputs of the sensor portion.

【0016】相関演算とは、各画素について、図30
(b)、図30(c)のような像信号が得られた時、セ
ンサアレイ2a側、2b側の像位置の相対ズレ量Xを画
素のピッチ単位で求める技術である。これは、2つのセ
ンサアレイ2a、2bの画素データごとに差をとって、
これらを加算した結果を求め、次に、センサアレイ2b
の画素データを1画素のみずらして、再び同じ手順で各
画素データの差の加算を行う。上記した処理を繰り返
し、2つの像信号が一致した時に相関度が高いとして、
ズレ量Xの概略値を求めるようにしている。何画素分か
ずらした時に両データは一致して、加算値はMIN値と
なり相関度は最も良くなるが、加算値が0にならない場
合には、画素のピッチ以下のズレ量があると考えられ、
補間演算がさらに行われる。
FIG. 30 shows the correlation operation for each pixel.
(B) When the image signal as shown in FIG. 30 (c) is obtained, the relative displacement amount X of the image position on the sensor array 2a side and the image position on the 2b side is obtained in pixel pitch units. This takes a difference for each pixel data of the two sensor arrays 2a and 2b,
The result of adding these is obtained, and then the sensor array 2b
Is shifted by only one pixel, and the difference between the pixel data is added again in the same procedure. The above processing is repeated, and when the two image signals match, it is determined that the degree of correlation is high,
An approximate value of the deviation amount X is obtained. When shifted by several pixels, the two data coincide, the added value becomes the MIN value, and the degree of correlation is the best. However, if the added value does not become 0, it is considered that there is a shift amount equal to or less than the pixel pitch,
An interpolation operation is further performed.

【0017】上記したような複雑な演算制御を図29
(a)のフローに従って反復するにあたって、例えば図
29(c)のように30ポイントもの測距を行なう場合
には、図29(b)の場合と比較してほぼ10倍もの時
間を要してしまい、撮影者はシャッターチャンスを逃し
てしまう可能性がでてくる。
The above-described complicated arithmetic control is shown in FIG.
In repeating the flow according to the flow of (a), for example, when measuring a distance of as many as 30 points as shown in FIG. 29 (c), it takes about ten times as long as the case of FIG. 29 (b). In other words, the photographer may miss a photo opportunity.

【0018】次に、パッシブタイプの測距装置における
光パターンの相対位置差算出の方法について、まず図2
9を参照して説明する。
Next, a method for calculating the relative position difference between the light patterns in the passive type distance measuring apparatus will be described with reference to FIG.
This will be described with reference to FIG.

【0019】図29において、受光レンズ3a、3bの
位置の差(基線長B)により、センサアレイ2a、2b
上に入射する光分布の相対位置差xは、被写体5の距離
Lに依存して変化する。各受光レンズ3a、3bの焦点
距離をfとすると、被写体距離Lは次式で求められる。
In FIG. 29, the difference between the positions of the light receiving lenses 3a, 3b (base line length B) indicates that the sensor arrays 2a, 2b
The relative position difference x of the distribution of light incident above changes depending on the distance L of the subject 5. Assuming that the focal length of each of the light receiving lenses 3a and 3b is f, the subject distance L is obtained by the following equation.

【0020】L = B×f/x …(式a) センサアレイ2a、2bの各センサは光の入射量にした
がった電流信号を出力する。これらをA/D変換部34
によりディジタル信号に変換して演算部34に入力す
る。演算部34は、相関演算によって上記相対位置差x
を検出して像ずれ量を算出する。この結果をワンチップ
マイコン等からなる演算制御手段(CPU)1に入力し
て、上記(式a)に基づき演算することで被写体距離L
が求められる。以上がパッシブタイプの三角測距方式の
基本原理と一般的な装置構成である。
L = B × f / x (Equation a) Each sensor of the sensor arrays 2a and 2b outputs a current signal according to the amount of incident light. These are converted to an A / D converter 34.
, And is input to the arithmetic unit 34. The calculation unit 34 calculates the relative position difference x by the correlation calculation.
Is detected to calculate the image shift amount. The result is input to a calculation control means (CPU) 1 composed of a one-chip microcomputer or the like, and is calculated based on the above (formula a).
Is required. The above is the basic principle of the passive type triangulation and the general device configuration.

【0021】上記のずれ量演算機能は、一般的に後述の
ように二つの手順から成るが、これらはCUP1内に制
御プログラムとして内蔵していてもよい。このような技
術を用いてカメラのピント合わせを行う場合、このCP
U1がカメラの動作を制御し、撮影用あるいはピント合
わせ用レンズ等をモータなどのアクチュエータを介して
適宜制御すれば自動焦点(AF)機能付きカメラが提供
できる。
The above described shift amount calculating function generally comprises two procedures as described later, but these may be incorporated in the CUP 1 as a control program. When focusing a camera using such a technique, the CP
If U1 controls the operation of the camera and appropriately controls a lens for photographing or focusing via an actuator such as a motor, a camera with an automatic focus (AF) function can be provided.

【0022】ところで、像のずれ量の演算のためには、
2つのラインセンサ2a、2bにおけるセンサピッチの
単位でどれだけ像がずれているかを調べる演算ステップ
(即ち相関演算)を必要とする。そして、これより細か
い分解能でさらに正確にずれ量を算出する演算ステップ
(以下、補間演算と称す)を必要とする。
By the way, in order to calculate the image shift amount,
An operation step (that is, a correlation operation) for examining how much the image is shifted by the unit of the sensor pitch in the two line sensors 2a and 2b is required. Then, an operation step (hereinafter, referred to as an interpolation operation) for calculating the shift amount more precisely with a finer resolution is required.

【0023】例えば、センサアレイ2a上に波形33a
のようなパターンで光が入射した場合は、各センサの出
力R1〜R6の大きさは、図30(b)に棒グラフで示
したような分布33aとなる。なおここで‘R’は右側
センサを示し、‘L’は左側センサを示し、これらに付
された添え字の1〜6が例えば受光レンズ光軸基準での
センサの位置の絶対位置を示しているとすると、左側セ
ンサの出力L1〜L6から出力R1〜R6と同じ信号が
出力される場合には、上記相対位置差xは0となるの
で、求める被写体距離Lは「無限遠」になる。
For example, the waveform 33a is displayed on the sensor array 2a.
When the light is incident in the pattern shown in FIG. 30, the magnitudes of the outputs R1 to R6 of the sensors have a distribution 33a as shown by a bar graph in FIG. Here, 'R' indicates the right sensor, 'L' indicates the left sensor, and the suffixes 1 to 6 attached thereto indicate, for example, the absolute position of the sensor with respect to the optical axis of the light receiving lens. If the same signals as the outputs R1 to R6 are output from the outputs L1 to L6 of the left sensor, the relative position difference x is 0, and the subject distance L to be obtained is “infinity”.

【0024】また、被写体が「有限距離」に存在する
と、上記xとセンサピッチSPから決るセンサの数Sだ
けシフトしたところの左側センサLには、図30(c)
に示すような上記出力R1〜R6に類似する値の出力信
号が得られる。
If the subject is at a "finite distance", the left sensor L shifted by the number S of sensors determined from the above x and the sensor pitch SP has a signal shown in FIG.
As a result, output signals having values similar to the outputs R1 to R6 are obtained.

【0025】図30(a)のグラフにおける縦軸の値F
F(i)は次式に従って求められる。
The value F on the vertical axis in the graph of FIG.
F (i) is obtained according to the following equation.

【0026】 FF(i) = Σ|R(i)−L(i)| …(式b) すなわち、あるRのセンサの出力から対応するLのセン
サの出力を引き算し、その絶対値を各センサごとに加算
した結果をFFとして用いればよい。すなわち、まずR
(i)からL(i)を引き算してその絶対値をとり、あ
る幅でiを変化させこれらを加算する。
FF (i) = Σ | R (i) −L (i) | (Expression b) That is, the output of the corresponding L sensor is subtracted from the output of a certain R sensor, and the absolute value thereof is calculated as The result added for each sensor may be used as the FF. That is, first, R
The absolute value is obtained by subtracting L (i) from (i), i is changed by a certain width, and these are added.

【0027】次に、RiまたはLiの一方のセンサを1
単位だけずらして先に差をとった隣接するセンサと同様
に差をとると、FF(i+1)は次のような式で表現で
きる。
Next, one sensor of Ri or Li is set to 1
If the difference is obtained in the same manner as the adjacent sensor which has been shifted earlier by the unit, FF (i + 1) can be expressed by the following equation.

【0028】 FF(i+1)=Σ|R(i+1)−L(i)| …(式c) このようにFFの値は、順次、ずらし量(以下、SIF
T量と称す)を変更しながら得られるが、RとLとの差
の和であるFFが最小値(Fmin)となるSIFT量
が最もよく対応がとれている位置と考えられるため、こ
の場合のSIFT量が上記Sとして求められる。以上が
相関演算に関する処理手順の概略である。
FF (i + 1) = Σ | R (i + 1) −L (i) | (Expression c) As described above, the values of the FFs are sequentially shifted (hereinafter, referred to as SIF).
T amount), the SIFT amount at which FF, which is the sum of the difference between R and L, has the minimum value (Fmin) is considered to be the position where the best correspondence is obtained. Is obtained as the above S. The outline of the processing procedure relating to the correlation operation has been described above.

【0029】また、上記Sを加味して両センサアレイの
出力分布を図示すると、図30(b)のように、L側の
Sだけずれた各センサから対応する添え字の付いたR側
各センサと同様の出力が得られる。
Further, when the output distribution of both sensor arrays is illustrated taking the above S into consideration, as shown in FIG. 30 (b), each of the sensors shifted by S on the L side has a corresponding subscript on each of the R side. An output similar to that of the sensor is obtained.

【0030】続いて、補間演算の詳細について図30
(b)〜(d)を参照して説明する。実際の二つのセン
サアレイ上の像のズレ量はセンサのピッチに完全に対応
してずれるわけではなく、正確にはピッチより細かい精
度にて像ズレ量を検出しなければならない。そこで補間
演算を行う必要が発生する。図30(b)、(c)中の
RとLは各々図28中のセンサアレイ2a、2bを構成
する一部のセンサ出力を表わしている。また、図30
(d)には、すでに「相関演算」が終了し、上記Sだけ
シフトさせた後で比較しやすい状態にしたグラフを示し
てある。すなわち、L0〜L4は正確にはLs〜Ls+
4と記述するべきであるが、記載上繁雑になるのを避け
てこのSは省略して記してある。
FIG. 30 shows details of the interpolation operation.
This will be described with reference to (b) to (d). The actual image shift amount on the two sensor arrays does not completely correspond to the sensor pitch, and more precisely, the image shift amount must be detected with an accuracy smaller than the pitch. Therefore, it is necessary to perform an interpolation operation. R and L in FIGS. 30 (b) and 30 (c) respectively represent a part of sensor outputs constituting the sensor arrays 2a and 2b in FIG. FIG.
(D) shows a graph in which the “correlation calculation” has already been completed, and the data has been shifted by the above S to make it easy to compare. That is, L0 to L4 are exactly Ls to Ls +
4 should be described, but this S is omitted to avoid complication in description.

【0031】ここで、Lのセンサには上記Sだけシフト
した後もR基準でまだxだけずれた光が入射していると
する。このとき例えば、L1のセンサにはR0とR1に
入射する光が混じり合って入射し、同様に、各Lのセン
サにもR基準でxだけずれた光が順次入射するので、各
Lの出力(L1〜L3)は、図24の[式1]に示した
ように表現されることがわかる。
Here, it is assumed that light shifted by x on the basis of R is still incident on the L sensor after shifting by S. At this time, for example, the light incident on R0 and R1 is mixed and incident on the L1 sensor, and similarly, the light shifted by x on the basis of the R is sequentially incident on each L sensor. It can be seen that (L1 to L3) are expressed as shown in [Equation 1] of FIG.

【0032】上記Fminと、Fminから上記シフト
量をプラス方向とマイナス方向にずらしたFFの値F−
1とF+1は、この各Rn、Lnの出力を用いて表現す
ると、図25の[式2]のように表される。さらに、
[式1]を用いて[式2]を展開すると、値Fmin、
F−1、F+1のそれぞれは図26の[式3]のように
表される。
Fmin and a value FF of the FF obtained by shifting the shift amount from Fmin in the plus direction and the minus direction.
When 1 and F + 1 are expressed using the outputs of the respective Rn and Ln, they are expressed as [Equation 2] in FIG. further,
When [Expression 2] is expanded using [Expression 1], the value Fmin,
Each of F-1 and F + 1 is represented as [Equation 3] in FIG.

【0033】また、この[式3]中の{|R0−R1|
+|R1−R2|+|R2−R3|}を(ΣΔR)とし
て表現すると、この(ΣΔR)に依存せず、先のズレ量
xが図27の[式4]に示す演算によって求められる。
これが「補間演算」である。
In addition, 式 | R0−R1 |
When + | R1−R2 | + | R2−R3 | 表現 is expressed as (ΣΔR), the displacement x is obtained by the calculation shown in [Equation 4] of FIG. 27 without depending on (ΣΔR).
This is the "interpolation operation".

【0034】なお、これらの演算は、図28中の演算部
35にて行われるが、ワンチップマイコン等の演算制御
手段(CPU)1において所定のプログラムに従って行
ってもよい。
These calculations are performed by the calculation unit 35 in FIG. 28, but may be performed by a calculation control means (CPU) 1 such as a one-chip microcomputer according to a predetermined program.

【0035】このように得られた値Sとxに基づいて、
CPU1がピント合わせレンズの繰り出し量を算出し、
制御すればオートフォーカス(AF)カメラが提供でき
る。
Based on the values S and x thus obtained,
CPU 1 calculates the amount of extension of the focusing lens,
If controlled, an autofocus (AF) camera can be provided.

【0036】しかしながら、多くの測距ポイントを測距
するにあたって、どの測距ポイントに関して以上の演算
を行って測距を行なうかは、非常に大きな問題となる。
However, in measuring a large number of ranging points, it is very important to determine which ranging point to perform the above-described calculation for the ranging.

【0037】以下に上記した従来の問題点を克服する本
発明の一実施形態について説明する。図1(a)は、本
実施形態を適用した測距装置の構成を示している。図1
(a)において、2a、2bは受光素子、3a、3bは
受光レンズ、4はピント合わせ部、5は被写体、7は積
分部、8は選択部である。また、制御部(CPU)1は
A/D変換器1a、積分制御部1b、相関演算部1cの
機能を備えている。
An embodiment of the present invention which overcomes the above-mentioned conventional problems will be described below. FIG. 1A shows a configuration of a distance measuring apparatus to which the present embodiment is applied. FIG.
In (a), 2a and 2b are light receiving elements, 3a and 3b are light receiving lenses, 4 is a focusing unit, 5 is a subject, 7 is an integrating unit, and 8 is a selecting unit. The control unit (CPU) 1 has the functions of an A / D converter 1a, an integration control unit 1b, and a correlation operation unit 1c.

【0038】例えば、図1(b)のような構図では、画
面内の☆印のポイントに対して、正しい測距及びピント
合せを行なう必要があるが、この場合カメラは、☆印の
位置の像を適切にとらえて相関演算、補間演算を行なわ
なければならない。しかし、ユーザーがもし構図を変更
して、図1(c)のような構図にカメラを構えた場合に
は、画面内☆印の位置は画面の上部、ここでは太陽の周
辺部になってしまうので、太陽の明るさにカメラが反応
してしまい、撮影したい人物の像が正しく得られない確
率が高くなる。
For example, in a composition such as that shown in FIG. 1B, it is necessary to perform correct distance measurement and focusing on a point indicated by a star in the screen. Correlation calculation and interpolation calculation must be performed by properly capturing the image. However, if the user changes the composition and holds the camera in the composition as shown in FIG. 1C, the position of the ☆ mark in the screen is at the upper part of the screen, here, the periphery of the sun. Therefore, the camera reacts to the brightness of the sun, increasing the probability that the image of the person to be photographed cannot be obtained correctly.

【0039】このように、主要被写体位置の判定を正し
く行なわないと、いくら画面内の多くのポイントを測距
可能としても、正しいピントの写真を撮影することは困
難である。
As described above, if the main subject position is not correctly determined, it is difficult to take a photograph with the correct focus, no matter how many points in the screen can be measured.

【0040】図2は、図1の積分部の詳細な構成を主と
して示す図である。センサアレイ2a、2bを構成する
センサS1〜S4は電源としてのバイアス回路20によ
り駆動されてそれぞれが受光量に応じた信号電流を出力
する。この信号電流は、積分開始/終了スイッチ7aが
ON状態のときには積分アンプA1〜A4に導かれる。
また、リセットスイッチ7bがOFF状態のときには、
積分量に応じた電圧信号が各積分アンプA1〜A4の出
力に出力される。この結果をCPU1に内蔵されたA/
D変換器1aによって読み取り、相関演算部1cにて相
関演算を行うことによりピント合わせ部4でピント合せ
を行うことができる。
FIG. 2 is a diagram mainly showing a detailed configuration of the integration section of FIG. The sensors S1 to S4 constituting the sensor arrays 2a and 2b are driven by a bias circuit 20 as a power supply, and each output a signal current corresponding to the amount of received light. This signal current is guided to the integration amplifiers A1 to A4 when the integration start / end switch 7a is ON.
When the reset switch 7b is in the OFF state,
A voltage signal corresponding to the integration amount is output to the output of each of the integration amplifiers A1 to A4. This result is stored in the A /
The data is read by the D converter 1a, and the correlation operation is performed by the correlation operation unit 1c.

【0041】しかし、各センサS1〜S4に入る光の量
は、シーンの明るさや被写体の色や反射率によって種々
の値にバラつくので、限られたダイナミックレンジの積
分アンプA1〜A4で積分量を適正な値に収めるために
は、正確な積分制御技術が必要になる。例えば、積分時
間が短かすぎる時、積分結果が平坦になってしまって差
が得られないが、長すぎても回路の飽和によって、積分
結果が均一になってしまう。
However, since the amount of light entering each of the sensors S1 to S4 varies depending on the brightness of the scene, the color of the object, and the reflectance, the amount of light integrated by the integration amplifiers A1 to A4 having a limited dynamic range. In order to keep the value at an appropriate value, an accurate integration control technique is required. For example, when the integration time is too short, the integration result becomes flat and no difference can be obtained. However, when the integration time is too long, the integration result becomes uniform due to saturation of the circuit.

【0042】先の相関演算の説明からも明らかなよう
に、像に変化がとぼしいと、2つのセンサアレイで得ら
れた2つの像の相関がとりにくく、結果として正しい測
距ができなくなってしまう。
As is clear from the above description of the correlation calculation, if the image changes little, it is difficult to correlate the two images obtained by the two sensor arrays, and as a result, correct distance measurement cannot be performed. .

【0043】そこで、積分結果をリアルタイムでモニタ
して適正なレベルになった所で積分を終了させる技術が
用いられる。すなわち、複数のスイッチ7cのうちどの
スイッチをONさせるかによって、モニタすべきセンサ
の出力が決定される。図3はこのスイッチ7cをONさ
せて積分制御を行なうときのタイミングチャートであ
る。各センサS1〜S4に光が入射されているときに
は、最初にリセットスイッチ7bをONさせて積分アン
プA1〜A4の出力を基準レベルにリセットした後、積
分開始/終了スイッチ7aをON、リセットスイッチ7
bをOFFすると、T1のタイミングで積分が開始され
る。
Therefore, a technique of monitoring the integration result in real time and terminating the integration when the level reaches an appropriate level is used. That is, the output of the sensor to be monitored is determined depending on which one of the plurality of switches 7c is turned on. FIG. 3 is a timing chart when the switch 7c is turned on to perform integral control. When light is incident on each of the sensors S1 to S4, first, the reset switch 7b is turned on to reset the outputs of the integration amplifiers A1 to A4 to a reference level, and then the integration start / end switch 7a is turned on, and the reset switch 7 is turned on.
When b is turned off, integration is started at the timing of T1.

【0044】最大積分値検出回路6は、複数のスイッチ
7cを逐次切り替えて入力される積分アンプA1〜A4
の積分値のうち、最大のものを検出する回路である。従
って、A/D選択スイッチ8がこの最大積分値検出回路
6に接続されているときに最も積分量の大きい出力が選
択されてCPU1のA/D変換器1aに入力されること
になる。従ってCPU1はこの最大積分出力を、図3
(a)に示すようにA/D変換器1aを動作させながら
逐次モニタして、この最大積分値が回路のダイナミック
レンジを越えない時点T2で積分開始/終了スイッチ7
aをOFFすれば、各センサの積分出力が、ダイナミッ
クレンジを越えることはない。積分停止後、各センサS
1〜S4の積分出力を取り入れてA/D変換するため
に、A/D選択スイッチ8を切換えて制御すれば、CP
U1は各センサ出力を順次モニタすることができる。
The maximum integration value detection circuit 6 includes a plurality of integration amplifiers A1 to A4 which are input by sequentially switching a plurality of switches 7c.
Is a circuit that detects the largest one of the integrated values of Therefore, when the A / D selection switch 8 is connected to the maximum integration value detection circuit 6, the output having the largest integration amount is selected and input to the A / D converter 1a of the CPU 1. Therefore, the CPU 1 calculates this maximum integrated output as shown in FIG.
As shown in (a), the A / D converter 1a is sequentially operated and monitored, and at time T2 when this maximum integrated value does not exceed the dynamic range of the circuit, the integration start / end switch 7 is turned on.
If a is turned off, the integrated output of each sensor does not exceed the dynamic range. After integration stops, each sensor S
If the A / D selection switch 8 is switched and controlled to perform A / D conversion by taking in the integrated outputs of 1 to S4, CP
U1 can monitor each sensor output sequentially.

【0045】このようにして得られた像信号は図3
(b)のようなもので、光の入射状態に従って、暗い所
は低い出力、明るい所は高い出力を示す。このような技
術によって、カメラの測距装置は適正な像信号を得るこ
とができる。
The image signal thus obtained is shown in FIG.
As shown in (b), dark places show low output and bright places show high output according to the incident state of light. With such a technique, the distance measuring device of the camera can obtain an appropriate image signal.

【0046】また、CPU1により複数のスイッチ7c
を選択的に動作させて特定の積分アンプの出力のみが最
大積分値検出回路6に接続されるようにしたので、各セ
ンサS1〜S4のうち、図1(c)の例のように、セン
サS1に太陽の光が入射したとしても、このセンサS1
が最大積分値検出回路6に接続されていなければ太陽の
強い光によって積分制御がなされてしまうことはない。
逆に、積分モニタ時に太陽の直射光が入射すると、被写
体の像信号が得られる前に積分制御が終了してしまい正
確な測距ができなくなってしまう場合が多い。このよう
なことは、上記最大積分値検出回路6の代わりに、最大
値と最小値の差をとる回路や平均値を検出する回路であ
っても同様の事が起こりうる。
Further, the CPU 1 controls a plurality of switches 7c.
Is selectively operated so that only the output of a specific integration amplifier is connected to the maximum integration value detection circuit 6, so that among the sensors S1 to S4, as shown in the example of FIG. Even if the sun's light enters S1, this sensor S1
Is not connected to the maximum integration value detection circuit 6, the integration control is not performed by the strong light of the sun.
Conversely, when direct sunlight from the sun is incident during integration monitoring, integration control ends before an image signal of the subject is obtained, and accurate distance measurement often cannot be performed. The same can occur in a circuit that takes the difference between the maximum value and the minimum value or a circuit that detects the average value, instead of the maximum integration value detection circuit 6.

【0047】また、図1(a)の構成で、受光レンズ3
aからの点線で示した光線を利用すると、被写体5に関
して画面中心にあるポイントC以外のポイント、つまり
基線長方向にズレたポイントL、Rの測距も可能であ
る。
Further, in the configuration shown in FIG.
Using the light beam indicated by the dotted line from a, it is possible to measure the distance of points other than the point C at the center of the screen with respect to the subject 5, that is, the points L and R shifted in the base line length direction.

【0048】また、図4(a)のように、受光レンズ3
a、3bの後方に配置されたセンサアレイ2a、2bを
基線長方向と垂直の方向に上下各々1本ずつ追加するこ
とにより、基線長方向とは垂直な方向Uの部分とDの部
分を測距可能となる。すなわち、図4(b)に示すよう
な模式的なセンサアレイのモニタ域(測距可能域)につ
いて画面内の多くのポイントを測距できるようになる。
Also, as shown in FIG.
By adding one sensor array 2a and 2b arranged behind the sensors 3a and 3b in the direction perpendicular to the base line length direction, one part in the direction U and the part D in the direction perpendicular to the base line length direction are measured. The distance becomes possible. In other words, it is possible to measure the distance of many points in the screen in the schematic sensor array monitor area (distance-measurable area) as shown in FIG.

【0049】さらにこの考え方を拡張すれば、図5に示
すように、1本あるいは3本のラインセンサではなく、
センサが連続して並べられたいわゆるエリアセンサ2
a、2bを用いることによって画面内をくまなくモニタ
でき、例えば図29(c)に示すように、測距可能ポイ
ント数を30ポイントにしたり、それ以上に増加させる
ことが可能になる。
If this idea is further extended, as shown in FIG. 5, instead of one or three line sensors,
So-called area sensor 2 in which sensors are arranged continuously
By using a and 2b, the entire screen can be monitored. For example, as shown in FIG. 29C, the number of measurable points can be increased to 30 or more.

【0050】このような工夫によって測距ポイント数を
増加させれば、画面のどこに主要被写体が存在しても正
確な測距ができ、例えば、従来の画面中央しか測距でき
なかった、図13(a)のような構図で画面の端の方に
人物がいる場合も、正確なピント合せができるようにな
る。しかしながら、すでに説明したように測距域が広く
なる程、測距の時によけいなものを無駄に測距する事が
多くなり、このことに付随して誤測距に到る確率も増加
する。
If the number of distance measurement points is increased by such a measure, accurate distance measurement can be performed irrespective of the position of the main subject on the screen. Even in the case of a composition as shown in FIG. 3A, even when a person is present at the edge of the screen, accurate focusing can be performed. However, as described above, the wider the ranging area is, the more often unnecessary measurement is performed at the time of ranging, and the probability of erroneous ranging increases accompanying this.

【0051】そこで例えば、図1(b)、(c)のよう
なシーンでは、まず最初から被写体5の位置を測定して
そこにピント合せをしてしまえば、他のポイントを誤測
距してしまうことによるピンボケや、タイムラグによる
問題を起こすことはない。このため本実施形態では図6
を用いて後述するように、まず全画面の積分制御結果よ
り得られる画面内各点(ここではCPU1の分割手段と
しての機能によりM個の点に分割される)の輝度分布を
測定する。次にこのときの輝度分布に基づいてM個の点
のうちN個の点を優先度の高いエリアとして選択する。
次にこのN個の各点をさらに分割して測距を行うことに
より距離分布を得、得られた距離分布に基づいて主要被
写体の位置を判定する。そして、この主要被写体位置に
ついてのみ補間演算を行うようにする。このような測距
方法によれば、測距動作は優先度の低いポイントが測距
されることがないうちに終了するので、高速な測距が可
能となる。ここで、画面のまん中より上では空や太陽な
ど、主要被写体より高輝度のものがある場合が多いの
で、本実施形態では、こうした情報をもとに主要被写体
判定の一助とする。
Therefore, for example, in the scenes shown in FIGS. 1B and 1C, if the position of the subject 5 is measured from the beginning and focused thereon, other points will be erroneously measured. It does not cause out of focus or time lag. Therefore, in the present embodiment, FIG.
As described later, first, the luminance distribution of each point in the screen (in this case, divided into M points by the function of the dividing unit of the CPU 1) obtained from the integration control result of the entire screen is measured. Next, based on the luminance distribution at this time, N points out of the M points are selected as high priority areas.
Next, a distance distribution is obtained by further dividing each of the N points and measuring the distance, and the position of the main subject is determined based on the obtained distance distribution. Then, interpolation calculation is performed only for the main subject position. According to such a distance measuring method, the distance measuring operation is completed before a point having a low priority is measured, so that high-speed distance measuring can be performed. Here, there are many cases where the brightness of the main subject is higher than that of the main subject above the center of the screen, such as the sky and the sun. Therefore, in the present embodiment, it is helpful to determine the main subject based on such information.

【0052】図7、図8は優先度決定の手順の詳細を説
明するためのフローチャートである。ここで撮影者が構
図を横にしたり縦にしたりする事を考えて、まずステッ
プS1では、画面の上部がどの位置にあるのかを検出す
る。
FIGS. 7 and 8 are flowcharts for explaining the details of the procedure for determining the priority. Here, considering that the photographer makes the composition horizontal or vertical, first, in step S1, the position of the upper portion of the screen is detected.

【0053】図9は、カメラの縦横検知、または、上向
き検知について説明するための図である。図9に示すよ
うに、カメラ内に水銀のような流体の導電物質52を収
めたケース51を内蔵させ、このケース51内に差し込
まれた複数の電極(イ−ニ)53のうち、どの電極どう
しが流体導電体でショートされるかをCPUが判定する
ことによってカメラの縦横検知が可能になる。つまり、
(a)に示すようにロとハがショートすれば横と判定で
き、(b)に示すようにロとイならば縦と判定でき、
(c)に示すようにロとニならば上向きと判定できる。
FIG. 9 is a diagram for explaining vertical / horizontal detection or upward detection of a camera. As shown in FIG. 9, a case 51 containing a fluid conductive material 52 such as mercury is built in the camera, and any one of a plurality of electrodes (ini) 53 inserted into the case 51 is selected. The vertical and horizontal detection of the camera can be performed by the CPU determining whether the short circuit occurs due to the fluid conductor. That is,
If (b) and (c) are short-circuited as shown in (a), it can be determined as horizontal, and if (b) and (b), it can be determined as vertical, and
As shown in (c), if b and d, it can be determined to be upward.

【0054】上記した方法により画面の上部がどの位置
かを調べた後、ステップS2に進む。ステップS2で
は、このときの判定結果に基づいて図10(a)のよう
に画面を9分割(1〜9)した時に、のブロック
が上にあるのか、のブロックが上にあるのか、
のブロックが上にあるのかによって判定方法を切り
替える。いずれの場合も考え方は同じで、画面上方は空
であり、主要被写体は下の方に存在するという考え方、
さらに、画面内中央は主要被写体の存在確率が高いであ
ろうという考え方でシーケンスを構成しているので、こ
こでは、カメラを普通に構えた横長構図の例(が
上部)を想定してフローの説明を行なう。このような構
図では、の領域は空である確率が高いので、ステ
ップS3ではの部分の平均輝度を求め、これを空
である部分の判定基準とする。つまり、図10(b)の
ような構図では、に加えての部分も空である
と判断する時に、この明るさ情報が用いられる。
After checking the position of the upper part of the screen by the above-described method, the process proceeds to step S2. In step S2, based on the determination result at this time, when the screen is divided into nine (1 to 9) as shown in FIG. 10A, whether the block is on the upper side, whether the block is on the upper side,
The determination method is switched depending on whether or not the block is above. In each case, the idea is the same: the top of the screen is empty, and the main subject is at the bottom,
Furthermore, since the sequence is configured in the center of the screen based on the idea that the probability of the existence of the main subject will be high, the description of the flow will be made here, assuming an example of a horizontally long composition in which the camera is normally held (the upper part). Perform In such a composition, since the area has a high probability of being empty, the average luminance of the area in step S3 is obtained, and this is used as a criterion for determining the empty area. That is, in the composition as shown in FIG. 10B, this brightness information is used when it is determined that the additional portion is also empty.

【0055】ただし、一番上のブロックが空であって、
全く測距の必要がないかどうかはこれだけでは判断でき
ないのでステップS4では、所定の輝度BVSと、一番
上のブロックの平均輝度BVUとを比較し、所定の明る
さ以上なら空である確率が高いので、優先度係数Pを1
×1とする(ステップS5)。1×1のうち、最初の数
字1は、図10(a)の〜の各部に付けられた重み
づけの値である。画面の4つの角部と、上部の
まん中のは、主要被写体の存在頻度が低いので1とし
ている。それらの部分を除くエリアは重みづけを
2とし、中央のは存在確率がきわめて高いので、重み
づけを3としている。
However, if the top block is empty,
In this case, it is not possible to judge whether or not the distance measurement is necessary. Therefore, in step S4, the predetermined luminance BVS is compared with the average luminance BVU of the uppermost block. Since the priority coefficient P is 1
× 1 (step S5). The first numeral 1 of 1 × 1 is the value of the weight given to each of the parts of FIG. 10A. The four corners of the screen and the middle of the upper part are set to 1 because the frequency of the main subject is low. Areas other than those parts are assigned a weight of 2, and the center is given a weight of 3, since the existence probability is extremely high.

【0056】また、1×1の後の数字1は空である時、
測距の必要が低いとして1、それ以外の場合には2ある
いは6と、輝度やその変化によって重みづけを増すよう
にしている。つまり空であり、存在確率が低い領域であ
る場合は、優先度係数は1×1=1となる。従って、図
10(c)のシーンのように空の一部に山があるような
場合は、ステップS4をNに分岐してステップS6に進
み、優先度係数を1×2とする。1×2の前半の数字1
は位置依存なので変化しない。
When the number 1 after 1 × 1 is empty,
The weighting is increased by 1 depending on the necessity of the distance measurement and 1 or 2 or 6 in other cases, depending on the luminance and its change. That is, when the area is empty and has a low existence probability, the priority coefficient is 1 × 1 = 1. Therefore, when there is a mountain in a part of the sky as in the scene of FIG. 10C, step S4 is branched to N and the process proceeds to step S6, where the priority coefficient is set to 1 × 2. 1x2 first half number 1
Does not change because it is position dependent.

【0057】このようにのブロックの優先度係数
を決めたあとで、次のブロック(ここでは、)の
判定を行なうが、ステップS7ではこのの輝度変
化を調べる。図10(b)のようなシーンでは変化があ
り、図10(c)のようなシーンでは変化がない。変化
があった場合にはステップS8をYに分岐してステップ
S9に進み、の各ブロックの輝度と、あらかじめ
求めた画面上部の平均輝度BVUとを比較し、同じよう
な輝度ならば空であると考えて2の重みづけを、異なる
ならば6の重みづけをしていく。以上がステップS9か
らステップS17までの処理である。
After the priority coefficient of the block is determined, the next block (here) is determined. In step S7, a change in the luminance is checked. There is a change in the scene as shown in FIG. 10B, and there is no change in the scene as shown in FIG. If there is a change, step S8 is branched to Y and the process proceeds to step S9, where the luminance of each block is compared with the average luminance BVU at the upper portion of the screen previously obtained. Therefore, the weight of 2 is given, and if different, the weight of 6 is given. The above is the processing from step S9 to step S17.

【0058】図10(b)のようなシーンではステップ
S9をNに分岐してステップS10に進み、優先度を2
×6=12とする。また、図10(c)のシーンでは
とも同じような輝度分布なのでステップS8をNに
分岐してステップS20に移行する。ここでは、大きな
輝度変化はないので、共に同じような重みづけ2
でよい。それに位置の重みづけを考慮すると、につい
てはステップS20で3×2=6、についてはステ
ップS21で2×2=4の重みづけとなる。
In the scene as shown in FIG. 10B, step S9 is branched to N, and the flow advances to step S10 to set the priority to 2
× 6 = 12. Further, since the luminance distribution is the same in the scene of FIG. 10C, step S8 branches to N, and the process proceeds to step S20. Here, since there is no large change in luminance, the same weight 2
Is fine. Considering the weighting of the position, weighting of 3 × 2 = 6 is performed in step S20, and weighting of 2 × 2 = 4 is performed in step S21.

【0059】そして、これまでの輝度判定により、残っ
たそれよりも低い位置のブロックに被写体が存在
する確率が高いとして各々6の重みづけを行なう。さら
に位置の重みづけが乗ぜられるのでについては1×
6=6、については2×6=12の重みづけとなる
(ステップS22、ステップS23)。したがって、
の重みづけが12、とが6となり、これらが優先
度の高い測距ポイントとなる。
Then, weighting of 6 is performed on the assumption that there is a high probability that an object is present in the remaining block at a lower position than the remaining blocks, based on the luminance determination so far. Furthermore, since the weight of the position is multiplied, 1 ×
For 6 = 6, the weighting is 2 × 6 = 12 (step S22, step S23). Therefore,
Are 12, and 6 are 6, and these are distance measuring points with high priority.

【0060】ステップS17の後は以下の処理を行う。
図10(b)のようなシーンではについての重み
付けは、各々12、6、4となり、最下段のにつ
いては、ステップS18、ステップS19で位置の重み
づけに対しこれまでの輝度判定の残りの予測から3の重
みづけを乗じる。これによってについては1×3=
3、については2×3=6の重みづけとなる。従っ
て、優先度の高いのはの順となる。
After step S17, the following processing is performed.
In the scene as shown in FIG. 10 (b), the weights are 12, 6, and 4, respectively. For the lowermost stage, the remaining predictions of the luminance determination so far are performed with respect to the position weights in steps S18 and S19. Is multiplied by 3. This gives 1 × 3 =
3 is weighted by 2 × 3 = 6. Therefore, the order of priority is higher.

【0061】そして、ステップS24では、このように
〜の優先度係数P1〜P9の重みづけ結果に基づい
て、図10(b)のシーンでは…、図10
(c)のシーンでは、…の順で優先順位付けが行
なわれる。
In step S24, based on the weighting results of the priority coefficients P1 to P9, in the scene of FIG.
In the scene (c), priorities are assigned in the order of...

【0062】以上説明したように、被写体の存在する確
率を考慮した、画面内の位置及び輝度の分布の解析によ
って、測距すべきポイント(図10(a)の〜の9
分割は、もっと分割を細かくしてもよい)の絞りこみが
可能となる。
As described above, by analyzing the distribution of the position and the luminance in the screen in consideration of the probability that the subject exists, the points to be distance-measured (9 to 9 in FIG.
The division can be made finer).

【0063】なお、ステップS2をステップS3に分岐
しない場合(ステップS25またはS26に分岐した場
合)についても、各々考え方は同じなのでここでの説明
は省略する。このような考え方によって測距ポイントを
増加させても、実際測距を行なうポイントの絞込み(図
6の実施形態では4ポイント)を行うことが可能とな
る。
Incidentally, also in the case where step S2 is not branched to step S3 (when branched to step S25 or S26), the concept is the same, so that the description here is omitted. Even if the number of distance measurement points is increased based on such a concept, it is possible to narrow down the points at which actual distance measurement is performed (four points in the embodiment of FIG. 6).

【0064】一方、図12(a)のようなシーンでは、
図7のステップS2をステップS3に分岐、図8のステ
ップS8をNに分岐してステップS20に進む。この場
合は、図11(a)のような、で示す斜線の領
域が測距候補域となる。従って、この選ばれた領域のみ
を重点的に測距する。の各エリアに対し、各々
より細かい微少部分に分けて測距を行なう。ここでは、
図11(a)のように各エリアについて3ヶ所の測距を
行なう。
On the other hand, in a scene as shown in FIG.
Step S2 in FIG. 7 branches to step S3, and step S8 in FIG. 8 branches to N, and the process proceeds to step S20. In this case, a hatched area shown by (a) in FIG. 11 is a distance measurement candidate area. Therefore, only the selected area is measured with emphasis. For each area, the distance measurement is performed by dividing the area into smaller parts. here,
As shown in FIG. 11A, three distances are measured for each area.

【0065】もしも、本実施形態のような絞りこみを行
わなければ、9エリア×3ポイント=27ポイントの測
距が必要であるが、この実施形態では、4×3=12ポ
イントに絞りこまれて、高速化が図られていることがわ
かる。ここで相関演算のみの測距を上記に12ポイント
について行なうと、図11(b)の3次元グラフで示さ
れるような距離分布が得られる。このような距離分布に
より図11(c)に示すような被写体の顔の部分と体の
部分が明瞭になるので、CPUはこの顔の中心を主要被
写体としてピント合せをすればよい。こうしたより正確
な主要被写体の判定は、単に明るさの分布のみからでは
割り出すことができないが、本実施形態では、図6のよ
うな測距手順により実現している。
If the focusing as in the present embodiment is not performed, a distance measurement of 9 areas × 3 points = 27 points is required. In this embodiment, the focusing is limited to 4 × 3 = 12 points. Thus, it can be seen that the speeding up has been achieved. Here, when the distance measurement only for the correlation operation is performed for the above 12 points, a distance distribution as shown in the three-dimensional graph of FIG. 11B is obtained. Such a distance distribution clarifies the face part and the body part of the subject as shown in FIG. 11C, so that the CPU may focus on the center of the face as the main subject. Although such a more accurate determination of the main subject cannot be determined only from the brightness distribution alone, in the present embodiment, it is realized by a distance measurement procedure as shown in FIG.

【0066】図6のステップS201は、画面全域が適
当なコントラストを持つような積分制御を行なうステッ
プであり、次のステップS202では上記した図7、図
8のような手順を用いてM個の各エリアの輝度分布によ
り優先度の決定を行なう。ステップS203、S20
4、S205及びステップS210で測距候補エリアを
4つ選択し、各エリアにつき3ポイントごとの測距(相
関演算)を行なう。これによって図11(b)のような
距離分布が得られる(ステップS206)。次のステッ
プS207で顔と体の部分との関係に基づいて主要被写
体位置の判別を行ない(ステップS207)、ここでは
図10(a)のエリアの中心を主要被写体位置とす
る。次のステップS208でこの主要被写体位置データ
についての補間演算を行ない、ステップS209にてピ
ント合せを行なう。
Step S201 in FIG. 6 is a step for performing integral control so that the entire screen has an appropriate contrast. In the next step S202, M number of steps are performed by using the procedure shown in FIGS. The priority is determined based on the luminance distribution of each area. Step S203, S20
In step 4, S205 and step S210, four distance measurement candidate areas are selected, and distance measurement (correlation calculation) is performed for each area at every three points. As a result, a distance distribution as shown in FIG. 11B is obtained (step S206). In the next step S207, the main subject position is determined based on the relationship between the face and the body part (step S207). Here, the center of the area in FIG. In the next step S208, interpolation calculation is performed on the main subject position data, and in step S209, focusing is performed.

【0067】このように本実施形態では、明るさの情報
に加え、より細かい距離分布の情報を用いたので、主要
被写体の位置を高速かつ正確に判定してピント合せを行
うことが可能となる。なお、CPUが高速でタイムラグ
に余裕があれば、ステップS204で補間演算までを行
ってもよい。これはステップS202にてすでに測距ポ
イントが絞りこまれているからである。
As described above, in the present embodiment, in addition to the brightness information, finer distance distribution information is used, so that the position of the main subject can be determined quickly and accurately for focusing. . If the CPU has a high speed and has a sufficient time lag, the interpolation calculation may be performed in step S204. This is because the distance measurement points have already been narrowed down in step S202.

【0068】また、上記した図7、図8のフローに示す
ような縦横の構図判定の方法を用いるのではなく、図1
2、図13のようにエリアセンサの出力から、最適な測
距領域を選ぶようにしてもよい。
Instead of using the vertical / horizontal composition determination method shown in the flowcharts of FIGS.
2. An optimum ranging area may be selected from the output of the area sensor as shown in FIG.

【0069】例えば図12(a)のような横構図では、
上半分が空であるので、下半分のどこかに主要被写体が
存在する確率が高い。これを自動的に判定するには、図
12(b)のようにエリアセンサをx,yの座標で考
え、x方向に沿って同じy値をとる画素の出力値を加算
してグラフ表示した場合の加算輝度分布と、図12
(c)のように、y方向に沿って同じx値をとる画素の
出力値を加算してグラフ表示した場合の加算輝度分布を
比べればよい。図12(b)では、空と大地が分離され
るため、ΔBVで示した大きな輝度変化がみられるが、
図12(c)では、空と大地が溶け合って単調な輝度変
化となる。この大きな輝度変化があった部分を、yBと
して検出する。
For example, in a horizontal composition as shown in FIG.
Since the upper half is empty, there is a high probability that the main subject exists somewhere in the lower half. In order to determine this automatically, as shown in FIG. 12 (b), the area sensor is considered based on the x and y coordinates, and the output values of pixels having the same y value along the x direction are added and displayed as a graph. Luminance distribution in the case and FIG.
As shown in (c), the output luminance values of the pixels having the same x value along the y direction are added, and the added luminance distribution when the graph is displayed may be compared. In FIG. 12B, since the sky and the earth are separated, a large luminance change represented by ΔBV is observed.
In FIG. 12 (c), the sky and the ground melt and a monotonous change in luminance occurs. The portion where this large change in luminance is detected as yB.

【0070】一方、図13(a)のような縦構図では、
逆に、y方向に加算した加算輝度分布に大きなΔBVの
変化が見られ、x方向に同じyの値をとるセンサエリア
の出力値を加算した加算輝度分布には単調な変化しか見
られない(図13(b)、(c))。ここでも図12と
同様に大きな輝度変化があった部分をxBとする。
On the other hand, in a vertical composition as shown in FIG.
Conversely, a large change in ΔBV is seen in the added luminance distribution added in the y direction, and only a monotonous change is seen in the added luminance distribution obtained by adding the output values of the sensor areas having the same y value in the x direction ( (FIG. 13 (b), (c)). Here, as in FIG. 12, a portion where a large change in luminance occurs is defined as xB.

【0071】このような特性を用いて、以下の図14、
図15に示すようなフローで優先すべき測距ポイントを
選択すれば、図16(a)、図16(b)のように空部
を除いた部分に優先すべき測距エリアを設定することが
できる。また、xB、yBが検出不能であった場合は、
主要被写体が存在する確率の高い、図16(c)のよう
な画面中央部を優先エリアとすればよい。
Using such characteristics, the following FIG.
If a distance measuring point to be prioritized is selected in the flow as shown in FIG. 15, a priority distance measuring area is set in a portion excluding the empty space as shown in FIGS. 16 (a) and 16 (b). Can be. When xB and yB cannot be detected,
The central area of the screen as shown in FIG. 16C, which has a high probability that the main subject exists, may be set as the priority area.

【0072】図14、図15のフローは、図10(a)
に示したような9分割のエリアから測距優先エリア(ピ
ント合せ優先エリア)を決定するフローであって、上記
した図7、図8のフローと同様に、さらに分割数の多い
応用も可能であるが、ここではあえて単純化して説明を
簡単にしている。
The flow shown in FIGS. 14 and 15 corresponds to the flow shown in FIG.
This is a flow for determining the distance measurement priority area (focusing priority area) from the nine divisional areas as shown in FIG. 7, and can be applied to an application with a larger number of divisions as in the flow of FIGS. 7 and 8 described above. There is, however, a simplification here to simplify the explanation.

【0073】図14のステップS30は全画面の像信号
を得るための積分制御ステップであり、ステップS3
1、ステップS32、ステップS33は図16(a)の
ような画面横構図等の横切り輝度分布を求めるステップ
で、図12の例で言えばx方向に加算したデータを求め
る。縦方向には3分割なので、上、中、下の段の各々の
加算結果を、BV1、BV2、BV3とする。これらの
比較をステップS34、ステップS35で行なうが、所
定の輝度差を越えて大きく変化した所は空との境界を越
えたと考えられるので、それより上の部分の測距優先度
を下げて下の方の優先度を上げる。ただし、図7、図8
と同様の考え方で、画面位置の重みづけを考慮する。ス
テップS34をyに分岐すると、一番上の段のみ
が空なので、中の段が輝度分布による6の重みづけ、下
の段が3の重みづけとなり、それが各エリアの位置の重
み付けに乗ぜられる。また、ステップS35をyに分岐
すると上の段のみならず中の段も空なの
で、一番上の段は最も軽い重みづけとなる(ステップS
50)。また、中の段が2の重みづけ(ステップS5
2、S53)、下の段が6の重みづけ(ステップS5
3、S54)となる。
Step S30 in FIG. 14 is an integration control step for obtaining an image signal of the entire screen. Step S3
1. Steps S32 and S33 are steps for obtaining a transverse luminance distribution such as a horizontal composition of a screen as shown in FIG. 16A. In the example of FIG. 12, data added in the x direction is obtained. Since there are three divisions in the vertical direction, the addition results of the upper, middle, and lower stages are BV1, BV2, and BV3. These comparisons are performed in steps S34 and S35. Since a place where the luminance greatly changes beyond a predetermined luminance difference is considered to have crossed the boundary with the sky, the distance measurement priority of a portion above it is lowered to lower the distance measurement priority. Raise the priority of the person. However, FIGS. 7 and 8
The weight of the screen position is considered in the same way as described above. When step S34 is branched to y, only the top stage is empty, so the middle stage is weighted by 6 according to the luminance distribution, and the lower stage is weighted by 3, which is multiplied by the weight of the position of each area. Can be When step S35 is branched to y, not only the upper stage but also the middle stage is empty, so the uppermost stage has the lightest weight (step S35).
50). The middle stage is weighted by 2 (step S5).
2, S53), the lower stage is weighted by 6 (step S5).
3, S54).

【0074】また、ステップS34、ステップS35で
ΔBV0を越える大きな輝度分布がなかった時は、ステ
ップS36で上の段と中の段の輝度差と、上の段と下の
段の輝度差とを比較して大きい方をΔBVYとして記憶
する。これは後で縦横の構図判定を改めて行なうためで
ある。
If there is no large luminance distribution exceeding .DELTA.BV0 in steps S34 and S35, the luminance difference between the upper and middle stages and the luminance difference between the upper and lower stages are determined in step S36. The larger one is stored as ΔBVY. This is for re-determining the vertical and horizontal composition later.

【0075】図15のステップS37からステップS3
9は、図16(b)のように縦構図であるか否かを判定
するために、今度は図13のようにy方向の輝度データ
加算を行っている部分である。ステップS40、ステッ
プS41ではステップS34、35と同様に、各加算値
間の輝度差を所定の輝度差ΔBV0と比較し、これを越
える時は空部が検出されたと判定する。
Steps S37 to S3 in FIG.
Reference numeral 9 denotes a portion in which luminance data addition in the y direction is performed as shown in FIG. 13 in order to determine whether or not the composition is a vertical composition as shown in FIG. 16B. In steps S40 and S41, as in steps S34 and S35, the luminance difference between the added values is compared with a predetermined luminance difference ΔBV0. If the difference exceeds the predetermined value, it is determined that an empty portion has been detected.

【0076】ステップS40、ステップS41をyに分
岐した場合の処理はステップS34、ステップS35と
同じである。また、ステップS36と同様に、ステップ
S42で今度は縦構図時に上の段と中の段の輝度差と、
上の段と下の段の輝度差とで大きいものをΔBVTとし
て記憶する。ステップS43では、ステップS36で求
められたΔBVYと、ステップS42で求められたBV
Tとの差を求め、これが所定の輝度ΔBV1以上ある時
は、改めて横構図の可能性が高いとして、ステップS6
0に分岐する。これは暗い風景をバックにすると、ステ
ップS34、ステップS35で、ΔBV0以上の輝度差
が現れにくくなることの対策である。しかし、輝度差が
所定レベル以上ない時にはステップS44〜ステップS
47において、図16(c)のようなエリアを
優先した順位づけを行うようにする。
The processing when steps S40 and S41 are branched to y is the same as steps S34 and S35. Further, similarly to step S36, in step S42, the luminance difference between the upper row and the middle row at the time of vertical composition,
The larger difference between the luminances of the upper and lower stages is stored as ΔBVT. In step S43, ΔBVY obtained in step S36 and BVV obtained in step S42
T is determined, and when the difference is equal to or more than the predetermined luminance ΔBV1, it is determined that the possibility of the horizontal composition is high again, and step S6
Branch to zero. This is a countermeasure for preventing a brightness difference of ΔBV0 or more from appearing in steps S34 and S35 when a dark landscape is set as a background. However, when the luminance difference is not equal to or more than the predetermined level, steps S44 to S44 are executed.
At 47, the priority is given to the areas as shown in FIG.

【0077】図14に戻ってステップS55は、実際に
相関演算や補間演算によって、測距を行う時のポイント
を選ぶステップであり、P1〜P5のうち5以上の値を
示すものを選び、次のステップS56ではこのうち、優
先度の高いものから測距していく。この時、相関演算の
段階で主要被写体距離とは考えられないものはタイムラ
グ削減のために補間演算を行なわず、測距シーケンスを
途中で止めるようにしてもよい。ステップS57では、
得られた距離のうち最も近い距離を選択してピント合せ
距離とする。ここで最も近い距離ではなく、所定距離に
近いものを選択したり、平均値をピント合せ距離にして
もよい。
Returning to FIG. 14, step S55 is a step of selecting a point when distance measurement is actually performed by correlation calculation or interpolation calculation, and selects a point indicating a value of 5 or more from P1 to P5. In step S56, the distance is measured from the one with the highest priority. At this time, the distance measurement sequence may be stopped midway without performing the interpolation calculation to reduce the time lag for those which are not considered to be the main subject distance at the stage of the correlation calculation. In step S57,
The closest distance is selected from the obtained distances and used as the focusing distance. Here, instead of the closest distance, a distance close to a predetermined distance may be selected, or an average value may be used as the focusing distance.

【0078】以上説明したように本実施形態では、画面
内の輝度変化の分布によって空の領域を省くようにした
ので、図9のような縦横検知手段は不要となる。このよ
うに、この実施形態では、まず測距優先エリアを絞りこ
み、そのエリアについてはさらに細かいポイントを測距
して主要被写体に関する情報を増加させたので、高速、
高精度のピント合せが可能となる。
As described above, in the present embodiment, since the sky area is omitted by the distribution of the luminance change in the screen, the vertical / horizontal detecting means as shown in FIG. 9 becomes unnecessary. As described above, in this embodiment, the focus detection priority area is first narrowed down, and in that area, a finer point is measured to increase the information on the main subject.
High-precision focusing is possible.

【0079】なお、この実施形態では画面内を単純に9
つのエリアに分割したが、このエリア数を切り替えるよ
うにしてもよい。以下、これについて説明する。
In this embodiment, the screen is simply displayed as 9
Although the area is divided into two areas, the number of areas may be switched. Hereinafter, this will be described.

【0080】図17(a)と(c)では画面内に占める
主要被写体の大きさが違うので、おのずから重点的に測
距したいエリアの面積やポイント数が変化する。そこで
ここでは図18のステップS301〜S319で示すよ
うに、測距したいエリアや測距ポイント数を画面内の輝
度情報に応じて切り替えるようにする。ここでも図1
2、図13で説明したような輝度情報の所定軸方向への
加算データを用いるが、その変極点の位置xH,yHか
ら画面の分割ポイント、分割数を決定する。また、分割
のしかたによってエリアの面積や形が変化するので、そ
れに合わせて測距ポイント数も増減させるようにした。
In FIGS. 17A and 17C, the size of the main subject occupying the screen is different, so that the area of the area and the number of points to be focused on naturally change. Therefore, here, as shown in steps S301 to S319 in FIG. 18, the area to be measured and the number of ranging points are switched according to the luminance information in the screen. Again, Figure 1
2. Using the data obtained by adding the luminance information in the direction of the predetermined axis as described with reference to FIG. 13, the division points and the number of divisions of the screen are determined from the positions xH and yH of the inflection points. Also, since the area and shape of the area change depending on the division method, the number of ranging points is increased or decreased accordingly.

【0081】図18のフローでは、まずx方向に輝度デ
ータを加算し、そのy方向の変化をモニタしてy方向分
割数と測距ポイント数を決定する。次にy方向に輝度デ
ータを加算し、そのx方向の変化をモニタして、x方向
の分割数と測距ポイント数を決定する。このような手順
によって、図17(a)のシーンは、図17(b)のよ
うなエリア分割及び測距点配置がなされ、図17(c)
のようなシーンは図17(d)のようなエリア分割及び
測距点配置で測距がなされる。
In the flow of FIG. 18, first, luminance data is added in the x direction, and the change in the y direction is monitored to determine the number of divisions in the y direction and the number of distance measurement points. Next, the luminance data is added in the y direction, the change in the x direction is monitored, and the number of divisions in the x direction and the number of distance measurement points are determined. According to such a procedure, the scene shown in FIG. 17A is divided into areas and the distance measuring points are arranged as shown in FIG.
In such a scene, distance measurement is performed by area division and distance measurement point arrangement as shown in FIG.

【0082】こうして得られた各エリアから優先度の高
いエリアを図14、図15のような方法により選択して
測距データを得、その結果より主要被写体位置及び距離
を求めれば、無駄な測距をなくし、高速、高精度のピン
ト合せが可能となる。図17(b)のシーンならば9ポ
イント、図17(d)のシーンならば10ポイントの測
距を行うだけでその数倍の数の測距を行ったのと同じ効
果が得られる。
An area having a high priority is selected from the obtained areas by the method shown in FIGS. 14 and 15 to obtain distance measurement data, and the main subject position and distance are obtained from the result. The distance can be eliminated, and high-speed, high-precision focusing can be achieved. In the scene of FIG. 17B, the same effect can be obtained by measuring only 9 points in the scene of FIG. 17D and 10 points in the scene of FIG.

【0083】次に図19を用いて、スーパーコンビネー
ションAFと呼ばれるオートフォーカス技術について説
明する。
Next, an auto focus technique called super combination AF will be described with reference to FIG.

【0084】図19(a)は、被写体520をこの方式
のAFで測距するための主な構成を示すブロック図であ
る。
FIG. 19A is a block diagram showing a main configuration for measuring the distance of an object 520 by this type of AF.

【0085】2つの受光レンズから入射した被写体52
0からの光は、2つのエリアセンサ502a、502b
に入射する。このエリアセンサ502a、502bは、
被写体像を受像して光電変換するもので、その出力はA
/D変換部502cでA/D変換されて、各画素のディ
ジタル値がカメラ制御用マイコン(CPU)501に入
力される。
Subject 52 incident from two light receiving lenses
Light from 0 is transmitted to two area sensors 502a and 502b.
Incident on. These area sensors 502a and 502b
The object image is received and subjected to photoelectric conversion. The output is A
The digital value of each pixel is input to a camera control microcomputer (CPU) 501 after A / D conversion by the / D conversion unit 502c.

【0086】また、このエリアセンサ502a、502
bには定常光除去回路502dが接続されており、この
定常光除去回路502dが作動しているときには被写体
520から定常的に入射する直流的な光の信号が除去さ
れ、光源505aからのパルス光のみが出力信号として
得られるようになっている。従って、定常光除去回路5
02dを作動させた状態で、CPU501が発光手段5
05を制御してストロボ等505aを駆動すると、被写
体520からの反射信号光がエリアセンサ502aの上
に図19(b)のような像を結ぶ。黒の部分は光が入射
した部分を示している。
The area sensors 502a, 502
A stationary light removal circuit 502d is connected to b. When the stationary light removal circuit 502d is operating, a DC light signal that constantly enters from the subject 520 is removed, and the pulse light from the light source 505a is removed. Only as an output signal. Therefore, the steady light removing circuit 5
02d is activated, and the CPU 501
When the electronic flash 505a is driven by controlling the electronic flash 05, the reflected signal light from the subject 520 forms an image as shown in FIG. 19B on the area sensor 502a. The black part indicates the part where light is incident.

【0087】CPU501内にはこうしたエリアセンサ
上の像パターンを判別するソフトウェア501aが組み
こまれていて、人間の形であることが判定されればこれ
を主要被写体であるとみなすことができる。
In the CPU 501, software 501a for discriminating the image pattern on the area sensor is incorporated, and if it is determined that the image is a human figure, it can be regarded as a main subject.

【0088】図20はスーパーコンビネーションAFの
測距手順の詳細を示すフローチャートである。まず、ス
テップS101〜102では測距に先立って、光源50
5aにより被写体520に光線を照射してその反射信号
光のパターンのみを図19(b)のように抽出して、当
該パターンが人物の形状等から主要被写体であるかどう
かを判定する。主要被写体であると判定されたときには
抽出されたパターンを優先エリアとしてステップS10
3をYに分岐してステップS104に進む。ステップS
104では上記パターンを形成する光信号が弱いかどう
か、あるいは十分なコントラストがあるか否かを判別し
て、測距方式としていわゆるアクティブ方式(信号光を
カメラ側から投射して、その反射信号光を用いて測距す
るタイプ)とパッシブタイプ(被写体の像信号をもとに
測距するタイプ)のいずれの方式を用いるかの選択を行
なう。つまり、像信号のコントラストが弱い時にはステ
ップS110に分岐し、補助光照射により再度測距用光
を照射して、その反射信号光に基づいて先に求められた
優先エリアに対してアクティブAFを各エリアにつき3
ポイントづつ重点的に行なう(ステップS121)。
FIG. 20 is a flowchart showing details of the distance measurement procedure of the super combination AF. First, in steps S101 to S102, prior to the distance measurement, the light source 50 is used.
A light beam is applied to the subject 520 according to 5a, and only the pattern of the reflected signal light is extracted as shown in FIG. 19B, and it is determined whether or not the pattern is a main subject based on the shape of the person or the like. If it is determined that the subject is the main subject, the extracted pattern is set as a priority area in step S10.
3 branches to Y, and the process proceeds to step S104. Step S
At 104, it is determined whether the optical signal forming the pattern is weak or whether there is a sufficient contrast, and a so-called active method (a signal light is projected from the camera side and the reflected signal light is reflected as a distance measuring method). ) Or a passive type (a type in which distance measurement is performed based on an image signal of a subject). That is, when the contrast of the image signal is weak, the process branches to step S110, the distance measuring light is irradiated again by the auxiliary light irradiation, and the active AF is performed for the priority area previously obtained based on the reflected signal light. 3 per area
The process is performed point by point (step S121).

【0089】また、ステップS104で反射信号光が弱
いと判断された時は、パッシブAFの方が適していると
してステップS105に分岐する。ここでもすでに求め
られた優先エリアの像信号を重点的に用いたパッシブ方
式による測距を各エリアにつき3点づつ行なう。また、
ステップS103で主要被写体を見つけられなかった時
にはステップS120に分岐して被写体の存在確率の高
い画面の中央部を重点的にアクティブ測距する。
If it is determined in step S104 that the reflected signal light is weak, it is determined that the passive AF is more suitable, and the flow branches to step S105. Also in this case, three points are measured for each area by the passive method using the image signal of the priority area which has already been obtained. Also,
If the main subject cannot be found in step S103, the flow branches to step S120 to perform active distance measurement with emphasis on the central portion of the screen where the existence probability of the subject is high.

【0090】これらの測距方式、又は主要被写体の判別
の可否に従って、CPU501が音声信号発生部507
で発生される音声信号を選択して出力制御すれば、ユー
ザーにわかりやすく、このスーパーコンビネーションA
Fの特徴をアピールしながら、安心感のある測距を実現
できる。なお、「スーパーコンビネーションAF」の名
称は、アクティブ方式とパッシブ方式を単にハイブリッ
ド的に組み合わせたのではなく2つの方式を用いて主要
被写体の検知を行うことから命名されたものである。
The CPU 501 controls the audio signal generator 507 according to the distance measurement method or whether the main subject can be determined.
By selecting and controlling the output of the audio signal generated by the
A distance measurement with a sense of security can be realized while promoting the features of F. It should be noted that the name of “super combination AF” is derived from the fact that the main subject is detected by using two methods instead of simply combining the active method and the passive method in a hybrid manner.

【0091】図21は、図20のステップS102にお
ける優先度判定の処理の詳細を説明するためのフローチ
ャートである。ステップS80、ステップS81は、画
面構図の縦横を検出するために反射信号光量を比較する
ステップである。ここでは図22(a)、図22(b)
のような違いを考慮しており、図22(a)の場合は図
22(b)の場合と比べてのブロックからの反射光が
小さい分、ステップS82をyに分岐しやすくなる。こ
の時、画面上部エリアには主要被写体が存在しに
くいと考えて、位置の重みづけを1とする(ステップS
83)。また、のエリアには主要被写体が存在しや
すいと考えられるので重みづけを4とする(ステップS
84)。また、その他のエリアは存在確率が中
間に値するとして位置重みづけを2(ステップS85)
とする。
FIG. 21 is a flowchart for explaining the details of the priority determination process in step S102 in FIG. Steps S80 and S81 are steps for comparing the amounts of reflected signal light in order to detect the length and width of the screen composition. Here, FIGS. 22 (a) and 22 (b)
In the case of FIG. 22A, since the reflected light from the block is smaller than that in the case of FIG. 22B, the step S82 is easily branched to y. At this time, since it is considered that the main subject is unlikely to exist in the upper area of the screen, the weight of the position is set to 1 (step S
83). In addition, since it is considered that the main subject is likely to exist in the area, the weight is set to 4 (step S
84). In addition, the position weighting of the other areas is set to 2 assuming that the existence probability is intermediate (step S85).
And

【0092】一方、図22(b)のような構図では、
のエリアが上にあると考えてステップS82をステ
ップS95に分岐して位置の重みづけを1とする。ま
た、画面中心の重みづけは8(ステップS96)、その
他は2(ステップS97)とする。
On the other hand, in a composition as shown in FIG.
Is considered to be above, step S82 is branched to step S95, and the weight of the position is set to 1. The weight of the center of the screen is 8 (step S96), and the other weights are 2 (step S97).

【0093】縦横図はポートレートである事が多いので
中央の重みづけを大きくしている。ステップS86で
は、所定光量以上の反射光量のエリアは除去するが、こ
れは図23(a)のような構図で、手前のビン601や
テーブル602などを優先的に測距して、人物603に
ピント合せできなくなる事を防止するためである。次に
ステップS87〜S90で、光量の大きい順から光量に
よる重みづけを行ない、こうして得られた位置と光量の
重みづけをステップS91で乗算して、各エリア〜
の優先度係数P1〜P9を求める。ステップS92では
こうして得られた優先度の高いエリア3つを選択して測
距候補エリアとする。図23(a)の例では、図23
(b)のように太い線で囲んだ部分になる。このように
して得られた3エリアを重点的に3点測距し、その他の
点を測距しないようにすれば、タイムラグを短くして、
しかも高精度のピント合せができる。
The vertical and horizontal figures are often portraits, so the center weight is increased. In step S86, the area of the reflected light amount equal to or larger than the predetermined light amount is removed. This is a composition as shown in FIG. 23A, and the bin 601 and the table 602 in front of the object are preferentially measured for distance to the person 603. This is to prevent the camera from becoming out of focus. Next, in steps S87 to S90, weighting is performed based on the light amount in descending order of the light amount, and the obtained position and the weighting of the light amount are multiplied in step S91.
Are calculated. In step S92, the three high-priority areas obtained in this manner are selected and set as distance measurement candidate areas. In the example of FIG.
This is a portion surrounded by a thick line as shown in FIG. If the three areas obtained in this way are focused on three points and the other points are not measured, the time lag can be shortened,
Moreover, highly accurate focusing can be performed.

【0094】前述したように、パッシブ測距における相
関演算や補間演算には複雑な演算によってタイムラグを
生じやすく、多大なプログラム容量やメモリの容量も必
要とするが、本実施形態のように測距ポイントを少ない
エリアに絞りこむことにより、上記のことに対して十分
に対策することができる。
As described above, the correlation operation and the interpolation operation in the passive distance measurement tend to cause a time lag due to a complicated operation and require a large program capacity and a large memory capacity. By narrowing the points to a small area, it is possible to sufficiently cope with the above.

【0095】こうして得られた3つのエリアの測距効果
から、最も主要被写体が存在しやすい距離を選択してピ
ント合せを行なうが、この時、まず各エリアの3点につ
き、相関演算のみを行って、図23(c)のような大ざ
っぱな距離分布を求め、ピント合せエリアが決った後、
1点のみを重点的に補間演算を行うようにすれば、さら
に効果を高めることができる。図23(c)のような分
布が求まれば、順次下から距離が変化していく部分はテ
ーブルであると判別して人物にピントを合せることがで
きる。
From the distance measurement effects of the three areas obtained in this way, a distance where the main subject is most likely to be selected is selected for focusing. At this time, first, only the correlation calculation is performed for three points in each area. Then, a rough distance distribution as shown in FIG. 23C is obtained, and after the focusing area is determined,
If the interpolation calculation is performed with emphasis on only one point, the effect can be further enhanced. If the distribution as shown in FIG. 23 (c) is obtained, the part where the distance changes sequentially from below can be determined to be a table and the person can be focused.

【0096】以上上記した実施形態によれば、測距ポイ
ントを少なくして主要被写体位置を絞りこみ、高速のピ
ント合せが可能となる。単に測距ポイントを減少させる
と、測距しなかった位置に主要被写体が存在する場合に
はピントがぼけてしまう可能性が高かったが、本実施形
態では測距に先立って、画面内の明るさの分布によって
シーンの判定を行なうので、主要被写体に正しくピント
合せができる。
According to the above-described embodiment, the main subject position can be narrowed down by reducing the distance measuring points, and high-speed focusing can be performed. Simply reducing the distance measurement points would likely result in defocus if the main subject is located at a position where distance measurement was not performed. Since the scene is determined based on the distribution of the height, the main subject can be correctly focused.

【0097】なお、上記した具体的実施形態から以下の
ような構成の発明が抽出される。
The invention having the following configuration is extracted from the specific embodiment described above.

【0098】(付記) (1)画面内全域の輝度分布を測定する輝度分布測定手
段と、上記測定された輝度分布に応じて、測距領域を設
定する測距領域設定手段と、この測距領域内の測距点に
つき測距動作を実行する測距手段と、これら複数の測距
結果を評価して主要被写体が含まれる領域を特定する手
段とを具備し、上記特定された主要被写体迄の距離を確
定するようにしたことを特徴とするカメラの測距装置。
(Supplementary Note) (1) Luminance distribution measuring means for measuring the luminance distribution of the entire area in the screen, distance measuring area setting means for setting a distance measuring area in accordance with the measured luminance distribution, and this distance measuring A distance measuring means for performing a distance measuring operation for a distance measuring point in the area; and a means for evaluating a plurality of distance measuring results to specify an area including a main subject, and A distance measuring device for a camera, wherein the distance of the camera is determined.

【0099】(2)上記輝度分布測定手段は、カメラか
ら発せられた測距用投光に基づく輝度分布を測定するこ
とを特徴とする(1)に記載の測距装置。
(2) The distance measuring apparatus according to (1), wherein the luminance distribution measuring means measures a luminance distribution based on a distance measuring light emitted from a camera.

【0100】(3)全画面測距可能なカメラの測距装置
であって、画面内の輝度分布に応じて第1測距領域を設
定し、第1測距領域の測距結果に基づいて、主要被写体
が含まれる第2測距領域を抽出し、この第2測距領域に
対して測距動作を行い、ピント合せ位置を決定するよう
にしたことを特徴とするカメラの測距装置。
(3) A ranging device for a camera capable of ranging over the entire screen, wherein a first ranging region is set according to the luminance distribution in the screen, and based on the result of ranging in the first ranging region. A second ranging area including a main subject is extracted, a ranging operation is performed on the second ranging area, and a focusing position is determined.

【0101】[0101]

【発明の効果】本発明によれば、通常のワンチップマイ
コン等、単純な演算制御回路を用いて廉価に構成しなが
ら、高速に効率よく測距ポイントを求めることが可能な
カメラの測距装置が提供される。
According to the present invention, a distance measuring apparatus for a camera capable of quickly and efficiently finding a distance measuring point while being inexpensively constructed using a simple arithmetic control circuit such as a normal one-chip microcomputer. Is provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態を適用した測距装置の構成
を示す図である。
FIG. 1 is a diagram showing a configuration of a distance measuring apparatus to which an embodiment of the present invention is applied.

【図2】図1の積分部の詳細な構成を主として示す図で
ある。
FIG. 2 is a diagram mainly showing a detailed configuration of an integration unit in FIG. 1;

【図3】スイッチ7cをONさせて積分制御を行なうと
きのタイミングチャートである。
FIG. 3 is a timing chart when performing integral control by turning on a switch 7c.

【図4】基線長方向とは垂直な方向のエリアを測距する
ためにセンサアレイを追加した構成を示す図である。
FIG. 4 is a diagram showing a configuration in which a sensor array is added to measure a distance in an area perpendicular to the base line length direction.

【図5】エリアセンサを追加して画面内をくまなく測距
するための構成を示す図である。
FIG. 5 is a diagram showing a configuration for adding an area sensor to measure the entire distance in a screen.

【図6】本実施形態による測距手順を説明するためのフ
ローチャートである。
FIG. 6 is a flowchart for explaining a distance measuring procedure according to the embodiment.

【図7】図6における優先度決定の手順の詳細を説明す
るためのフローチャートの前部である。
FIG. 7 is a front part of a flowchart for explaining details of a procedure for determining a priority in FIG. 6;

【図8】図6における優先度決定の手順の詳細を説明す
るためのフローチャートの後部である。
FIG. 8 is a latter part of a flowchart for explaining details of a procedure for determining a priority in FIG. 6;

【図9】カメラの縦横検知、または、上向き検知につい
て説明するための図である。
FIG. 9 is a diagram for describing vertical / horizontal detection or upward detection of a camera.

【図10】分割された画面の特定のブロックがどの位置
にあるのかを判定する方法を説明するための図である。
FIG. 10 is a diagram for explaining a method of determining a position of a specific block on a divided screen.

【図11】(a)は優先度決定により選択された特定の
測距候補領域を示す図であり、(b)は距離分布を示す
図であり、(c)は被写体の一例を示す図である。
11A is a diagram illustrating a specific distance measurement candidate area selected by priority determination, FIG. 11B is a diagram illustrating a distance distribution, and FIG. 11C is a diagram illustrating an example of a subject; is there.

【図12】エリアセンサから最適な測距領域を選ぶ方法
の一例を説明するための図である。
FIG. 12 is a diagram for explaining an example of a method of selecting an optimum ranging area from an area sensor.

【図13】エリアセンサから最適な測距領域を選ぶ方法
の他の例を説明するための図である。
FIG. 13 is a diagram for explaining another example of a method of selecting an optimum ranging area from an area sensor.

【図14】優先すべき測距ポイントを選択するときの手
順を説明するためのフローチャートの前部である。
FIG. 14 is a front part of a flowchart for describing a procedure for selecting a ranging point to be prioritized;

【図15】優先すべき測距ポイントを選択するときの手
順を説明するためのフローチャートの後部である。
FIG. 15 is the latter part of the flowchart for explaining the procedure when selecting a ranging point to be prioritized.

【図16】測距優先領域から除かれる空部を有する画面
の例と、優先エリアとされる画面中央部の領域を示す図
である。
FIG. 16 is a diagram illustrating an example of a screen having a space removed from a distance measurement priority area and an area in the center of the screen that is a priority area.

【図17】エリア数を切り替えて測距を行う場合の手順
について説明するための図である。
FIG. 17 is a diagram for explaining a procedure in a case where distance measurement is performed by switching the number of areas.

【図18】測距したいエリアや測距ポイント数を画面内
の輝度情報に応じて切り替えて測距を行う手順を説明す
るためのフローチャートである。
FIG. 18 is a flowchart for explaining a procedure for performing distance measurement by switching an area to be measured or the number of distance measurement points in accordance with luminance information in a screen.

【図19】スーパーコンビネーションAFのオートフォ
ーカス技術について説明するための図である。
FIG. 19 is a diagram for describing an autofocus technique of the super combination AF.

【図20】スーパーコンビネーションAFの測距手順の
詳細を示すフローチャートである。
FIG. 20 is a flowchart illustrating details of a distance measurement procedure of the super combination AF.

【図21】図20のステップS102における優先度判
定の処理の詳細を説明するためのフローチャートであ
る。
FIG. 21 is a flowchart illustrating details of a priority determination process in step S102 of FIG. 20;

【図22】画面構図の縦横を検出するために反射信号光
量を比較するのに用いられる2つの画面の例を示す図で
ある。
FIG. 22 is a diagram illustrating an example of two screens used for comparing the amounts of reflected signals to detect the length and width of the screen composition.

【図23】所定光量以上の反射光量のエリアを除去する
方法について説明するための図である。
FIG. 23 is a diagram for explaining a method of removing an area having a reflected light amount equal to or larger than a predetermined light amount.

【図24】「式1」の内容を示す図である。FIG. 24 is a diagram showing the contents of “Equation 1”.

【図25】「式2」の内容を示す図である。FIG. 25 is a diagram showing the contents of “Equation 2”.

【図26】「式3」の内容を示す図である。FIG. 26 is a diagram showing the contents of “Equation 3”.

【図27】「式4」の内容を示す図である。FIG. 27 is a diagram illustrating the content of “Equation 4”.

【図28】従来の測距装置の基本構成を示す図である。FIG. 28 is a diagram showing a basic configuration of a conventional distance measuring device.

【図29】従来の測距手順を説明するための図である。FIG. 29 is a diagram for explaining a conventional distance measuring procedure.

【図30】測距の演算原理を説明するための図である。FIG. 30 is a diagram for explaining the calculation principle of distance measurement.

【符号の説明】[Explanation of symbols]

1 CPU 1a A/D変換器 1b 積分制御部 1c 相関演算部 2a、2b センサアレイ 3a、3b 受光レンズ 4 ピント合わせ部 5 被写体 6 最大積分値検出回路 7 積分部 8 選択部 A1〜A4 積分アンプ DESCRIPTION OF SYMBOLS 1 CPU 1a A / D converter 1b Integral control part 1c Correlation calculating part 2a, 2b Sensor array 3a, 3b Light receiving lens 4 Focusing part 5 Subject 6 Maximum integrated value detection circuit 7 Integrating part 8 Selecting part A1-A4 Integrating amplifier

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA06 BB05 DD06 FF01 FF05 FF09 JJ03 JJ05 JJ26 QQ03 QQ13 QQ14 QQ25 QQ27 QQ38 QQ42 QQ47 RR02 SS13 SS15 UU05 2F112 AC03 BA05 CA02 FA03 FA07 FA29 FA35 FA45 2H011 AA01 BA14 BA23 BA33 2H051 BA04 BA17 BA39 BB07 BB24 CB20 CC07 DA22  ──────────────────────────────────────────────────続 き Continuing on the front page F term (reference) 2F065 AA06 BB05 DD06 FF01 FF05 FF09 JJ03 JJ05 JJ26 QQ03 QQ13 QQ14 QQ25 QQ27 QQ38 QQ42 QQ47 RR02 SS13 SS15 UU05 2F112 AC03 BA05 CA02 FA03 FA07 FA01 BA35 BA04 2H BA17 BA39 BB07 BB24 CB20 CC07 DA22

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 画面内をM個の点に分割する第1分割手
段と、 このM個の各点の輝度分布を測定する輝度測定手段と、 この輝度測定手段の輝度測定結果に基づいて、上記M個
の点のうち、N個の点を選択する選択手段と、 主要被写体位置を決定するにあたって、前記選択手段に
より選択されたN個の点の各々をさらに分割する第2分
割手段と、 を具備することを特徴とするカメラの測距装置。
A first division unit that divides the screen into M points; a luminance measurement unit that measures a luminance distribution of each of the M points; and a luminance measurement result obtained by the luminance measurement unit. Selecting means for selecting N points among the M points; second dividing means for further dividing each of the N points selected by the selecting means in determining a main subject position; A distance measuring device for a camera, comprising:
【請求項2】 上記輝度測定手段は、カメラから補助光
を投射した際の輝度分布を測定することを特徴とする請
求項1に記載の測距装置。
2. The distance measuring apparatus according to claim 1, wherein said luminance measuring means measures a luminance distribution when auxiliary light is projected from a camera.
【請求項3】 上記N個の点の各々は、それぞれ複数の
測距ポイントを有し、この複数の測距結果に基づいて上
記主要被写体の位置を決定することを特徴とする請求項
1に記載の測距装置。
3. The method according to claim 1, wherein each of the N points has a plurality of distance measurement points, and the position of the main subject is determined based on the plurality of distance measurement results. The distance measuring device as described.
【請求項4】 画面内の主要被写体の位置を決定するカ
メラにおいて、 上記画面内の輝度分布を判断するセンサアレイと、 このセンサアレイの出力に基づいて画面内をM個の点に
分割し、これらM個のうち限られたN個の点について測
距動作を行い、この測距動作により得られた複数の距離
情報に基づいて主要被写体の位置を決定する決定手段と
を具備することを特徴とするカメラの測距装置。
4. A camera for determining a position of a main subject in a screen, a sensor array for determining a luminance distribution in the screen, and dividing the screen into M points based on an output of the sensor array. Determining means for performing a distance measurement operation on a limited number of N points among these M points and determining a position of a main subject based on a plurality of pieces of distance information obtained by the distance measurement operation. Camera ranging device.
【請求項5】 上記分割されたM個の点のうち、測距動
作を行う点の数を切換える切換え手段をさらに備えたこ
とを特徴とする請求項4に記載の測距装置。
5. The distance measuring apparatus according to claim 4, further comprising switching means for switching the number of points for which a distance measuring operation is performed among the M divided points.
JP35954599A 1999-12-17 1999-12-17 Range-finder for camera Withdrawn JP2001174691A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35954599A JP2001174691A (en) 1999-12-17 1999-12-17 Range-finder for camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35954599A JP2001174691A (en) 1999-12-17 1999-12-17 Range-finder for camera

Publications (1)

Publication Number Publication Date
JP2001174691A true JP2001174691A (en) 2001-06-29

Family

ID=18465057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35954599A Withdrawn JP2001174691A (en) 1999-12-17 1999-12-17 Range-finder for camera

Country Status (1)

Country Link
JP (1) JP2001174691A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005331748A (en) * 2004-05-20 2005-12-02 Olympus Corp Focus detecting device of camera
JP2009015185A (en) * 2007-07-09 2009-01-22 Nikon Corp Image detection device, focusing device and image pickup apparatus
JP2010072659A (en) * 2009-11-06 2010-04-02 Olympus Corp Camera
JP2013015806A (en) * 2011-06-09 2013-01-24 Nikon Corp Focus detector and imaging apparatus
JP2021143879A (en) * 2020-03-10 2021-09-24 オムロン株式会社 Photoelectronic sensor and detection method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005331748A (en) * 2004-05-20 2005-12-02 Olympus Corp Focus detecting device of camera
JP4576157B2 (en) * 2004-05-20 2010-11-04 オリンパス株式会社 Camera focus detection device
JP2009015185A (en) * 2007-07-09 2009-01-22 Nikon Corp Image detection device, focusing device and image pickup apparatus
US8917334B2 (en) 2007-07-09 2014-12-23 Nikon Corporation Image detection device, focusing device, image-capturing device, image detection method, and focusing method
JP2010072659A (en) * 2009-11-06 2010-04-02 Olympus Corp Camera
JP2013015806A (en) * 2011-06-09 2013-01-24 Nikon Corp Focus detector and imaging apparatus
JP2021143879A (en) * 2020-03-10 2021-09-24 オムロン株式会社 Photoelectronic sensor and detection method

Similar Documents

Publication Publication Date Title
US7512330B2 (en) Focus state detection apparatus and optical instrument
CN101841656B (en) Image pickup apparatus and signal processor
JP2002051255A (en) Main object detectable camera
JP6116277B2 (en) Imaging apparatus and control method thereof
US9380200B2 (en) Image pickup apparatus and control method in which object searching based on an image depends on pixel combining on the image
US7292279B2 (en) Solid state image sensing device and photographing apparatus
JP4450899B2 (en) Multi-point distance measuring device
JP4426669B2 (en) Multi AF device
JP2001304855A (en) Range finder
JP2017040726A (en) Imaging device and control method of the same
US6434332B1 (en) Distance-measuring device, distance-measuring method and camera using the same
JP2001174691A (en) Range-finder for camera
US11233931B2 (en) Image processing device, imaging device, control method for image processing device, and recording medium
JP5371474B2 (en) Imaging apparatus, control method, and program
JP2009088800A (en) Color imaging device
JP2000184271A (en) Digital still camera
US11140333B2 (en) Image pickup apparatus capable of controlling flash exposure and control method therefor
JP4036503B2 (en) Ranging device
JP4434375B2 (en) Ranging device
JP3938989B2 (en) Ranging device
US6385402B1 (en) Distance measuring apparatus
JP3955201B2 (en) Auto focus camera
JP6421032B2 (en) Focus detection apparatus, focus detection method, and focus detection program
JP4282300B2 (en) Camera ranging device
JP2001305413A (en) Range-finding device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070306