[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH0537940A - Video camera - Google Patents

Video camera

Info

Publication number
JPH0537940A
JPH0537940A JP3216288A JP21628891A JPH0537940A JP H0537940 A JPH0537940 A JP H0537940A JP 3216288 A JP3216288 A JP 3216288A JP 21628891 A JP21628891 A JP 21628891A JP H0537940 A JPH0537940 A JP H0537940A
Authority
JP
Japan
Prior art keywords
skin color
area
routine
human
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3216288A
Other languages
Japanese (ja)
Inventor
Nobuo Hashimoto
信雄 橋本
Keizo Ochi
圭三 越智
Hajime Sasaki
元 佐々木
Kenji Mizumoto
賢次 水本
Hiroaki Kubo
広明 久保
Yoshihiko Azuma
義彦 東
Takehiro Kato
武宏 加藤
Hiroshi Otsuka
博司 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP3216288A priority Critical patent/JPH0537940A/en
Publication of JPH0537940A publication Critical patent/JPH0537940A/en
Priority to US08/208,791 priority patent/US6249317B1/en
Priority to US08/887,792 priority patent/US6072526A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To obtain a focus appropriate for a person by detecting the skin- colored part of the person and finding a range. CONSTITUTION:A chrominance signal inputted from an image is converted into digital signals through A/D converters 31 to 33, the digital signals are inputted to a memory 34, a read skin-colored area signal is detected by a human detecting microcomputer 35, and an exposure level signal is formed by a screen dividing circuit 41 and sent to a control microcomputer 21. On the other hand, the microcomputer 35 executes individual extracting processing and judges a human based upon an extracted outline in accordance with the data read out from the memory 34. The microcomputer 21 controls a lens driving part 22 so that the area of the skin-colored part in the judged human part is fixed. Thereby the human can be focused independently of his position and human's size can be constantly controlled.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はビデオカメラに関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video camera.

【0002】[0002]

【従来の技術】従来のビデオカメラでは、固定の測距エ
リア、測光エリア、測色エリアでピント合わせや、露出
制御、色調整等を行なうのが普通であった。ところが、
特に人物を主体として撮影を行なう場合は、着目する人
物のピント、露出、色再現等を適正になるように調定し
たいと考えるのが自然である。そのためには画面内の位
置に拘らず人物に追尾して人物の肌色部分を中心とした
適正なピント、露出、色再現等になるようにすべきであ
る。
2. Description of the Related Art In a conventional video camera, focus adjustment, exposure control, color adjustment and the like are usually performed in a fixed distance measuring area, photometric area and color measuring area. However,
Especially when a person is mainly used for photographing, it is natural to want to adjust the focus, exposure, color reproduction and the like of the person of interest. For that purpose, the person should be tracked regardless of the position on the screen so as to obtain proper focus, exposure, color reproduction, etc., centering on the skin color portion of the person.

【0003】しかるに、従来例にはこのようなことを配
慮したものは存しない。例えば、特開平1−12018
1号や特開平1−120178号では、検出領域の内外
より得られる周波数成分の差情報を利用して被写体の位
置、大きさを判定し、その判定結果に基いて測光エリア
の位置を制御しているが、人物の肌色部分を抽出した
り、それに追尾したりということは何ら行なわれていな
い。
However, there is no conventional example in which such a consideration is taken into consideration. For example, Japanese Patent Laid-Open No. 1-12018
In Japanese Patent Laid-Open No. 1-120178 and Japanese Patent Laid-Open No. 1-120178, the position and size of a subject are determined by using the difference information of frequency components obtained from inside and outside the detection area, and the position of the photometric area is controlled based on the determination result. However, neither extracting the skin color part of a person nor tracking it.

【0004】[0004]

【発明が解決しようとする課題】従って、従来のビデオ
カメラでは人物を主体とした撮影の場合に理想的なピン
ト、露出、色再現等が実現し得なかった。
Therefore, in the conventional video camera, ideal focus, exposure, color reproduction, etc. could not be realized in the case of photographing mainly by a person.

【0005】本発明はこのような点に鑑みなされたもの
であって、人物の肌色部分を中心とした適正なピント、
露出、色再現等になるようにしたビデオカメラを提供す
ることを目的とする。
The present invention has been made in view of the above points, and provides an appropriate focus centering on a person's skin color portion.
It is an object of the present invention to provide a video camera capable of exposure, color reproduction, etc.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
め本発明のビデオカメラは、映像信号から肌色部分を抽
出する肌色部分抽出回路と、この肌色部分抽出回路で抽
出された肌色部分が人物部分と特定できるか否か判定す
る判定手段と、人物部分と判定された肌色部分に対し該
肌色部分よりやや広い範囲の測距エリアを形成する測距
エリア形成手段と、を有する。
In order to achieve the above object, the video camera of the present invention has a skin color part extraction circuit for extracting a skin color part from a video signal and a skin color part extracted by the skin color part extraction circuit. And a distance measuring area forming means for forming a distance measuring area slightly wider than the flesh-colored portion with respect to the flesh-colored portion determined to be the human portion.

【0007】この場合、前回検出された肌色部分位置の
近傍に肌色部分が検出された際には測距エリア形成手段
は前記判定手段による判定を行なうことなく測距エリア
を形成するものとする。
In this case, when the skin color portion is detected in the vicinity of the previously detected skin color portion position, the distance measuring area forming means forms the distance measuring area without performing the determination by the determining means.

【0008】本発明のビデオカメラは、映像信号から肌
色部分を抽出する肌色部分抽出回路と、肌色部分抽出回
路で抽出された肌色部分が人物部分と特定できるか否か
判定する判定手段と、ズ−ムレンズを有する撮影レンズ
と、人物部分と判定された肌色部分の面積が一定となる
ように前記ズ−ムレンズを駆動する手段と、を有する。
The video camera of the present invention comprises a skin color part extraction circuit for extracting a skin color part from a video signal, a determination means for determining whether or not the skin color part extracted by the skin color part extraction circuit can be identified as a human part, and And a means for driving the zoom lens so that the area of the flesh-colored portion determined to be the human portion becomes constant.

【0009】[0009]

【作用】このように本発明のビデオカメラでは、人物の
肌色部分を検出して測距を行なうことになるので、人物
の画面内の位置に拘らず人物に合焦することができる。
また、画面内の位置に拘らず人物の肌色部分を一定面積
になるように制御するので、人物の大きさを一定に制御
しやすい。
As described above, in the video camera of the present invention, since the skin-colored portion of the person is detected and distance measurement is performed, the person can be focused regardless of the position on the screen of the person.
Further, since the skin color portion of the person is controlled to have a constant area regardless of the position on the screen, it is easy to control the size of the person to be constant.

【0010】[0010]

【実施例】図1は図5以下に示す本発明の実施例を適用
するビデオカメラの公知の回路を示しているが、この図
1の回路自体も本実施例の一部を成すので、まず図1に
示されたビデオカメラの回路全般について説明する。同
図において、1は撮影レンズ、2は絞りである。ここで
撮影レンズ1は1枚のレンズの形で図示されているが、
実際にはフォ−カシングレンズやズ−ムレンズを含んで
いるものとする。3は自然光を赤(R)、緑(G)、青
(B)の光に分解して出力する色分解光学系であって、
例えば色透過プリズムで構成される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows a known circuit of a video camera to which the embodiments of the present invention shown in FIG. 5 and subsequent figures are applied. Since the circuit itself of FIG. A general circuit of the video camera shown in FIG. 1 will be described. In the figure, 1 is a taking lens and 2 is a diaphragm. Here, the taking lens 1 is illustrated as a single lens,
Actually, it includes a focusing lens and a zoom lens. Reference numeral 3 denotes a color separation optical system that decomposes natural light into red (R), green (G), and blue (B) light and outputs the light.
For example, it is composed of a color transmission prism.

【0011】4、5、6はそれぞれ色分解光学系3から
与えられたR、G、Bの光に対し作用するCCD(電荷
結合素子)であり、R、G、Bの光信号に応じた電気信
号R1、G1、B1を出力する。このCCD出力信号R
1、G1、B1は加算回路15で適当な割合で加算され
た後、第1検波回路16で検波される。その検波出力電
圧は絞り駆動部17に与えられ、絞り2を制御する。こ
の制御は例えば被写体が明るいとき、CCD出力信号R
1、G1、B1が大きくなり、検波出力電圧が上がって
絞り2を絞るというフィードバックル−プで行われ、検
波回路16の出力電圧が常に一定になるように絞りが制
御される。
CCDs (charge coupled devices) 4, 5 and 6 which act on the R, G and B lights supplied from the color separation optical system 3, respectively, correspond to the R, G and B light signals. It outputs electrical signals R1, G1, B1. This CCD output signal R
1, G1, and B1 are added by the adding circuit 15 at an appropriate ratio, and then detected by the first detecting circuit 16. The detected output voltage is given to the diaphragm drive unit 17 to control the diaphragm 2. This control is, for example, when the subject is bright, the CCD output signal R
1, G1 and B1 increase, the detection output voltage rises, and the diaphragm 2 is narrowed down. This is performed by a feedback loop, and the diaphragm is controlled so that the output voltage of the detection circuit 16 is always constant.

【0012】7、8、9はAGC回路であり、後段のマ
トリクス回路12から出力される輝度信号Yを検波回路
18でレベル検波した出力によって制御される。10、
11はRチャンネルとBチャンネルに挿入されたホワイ
トバランス用の電圧制御増幅器であり、これらの増幅器
10、11は、ホワイトバランスセンサ19の出力
R’、G’、B’を処理回路20で処理して得られた
R’/G’、B’/G’信号によってそれぞれゲインが
制御される。例えば、色温度が低い場合は、白色被写体
撮像時にホワイトバランスセンサ19の出力がR’>
G’>B’となるので、処理回路20の2つの出力はそ
れぞれR’/G’>1、B’/G’<1となり、この比
R’/G’、B’/G’に応じてRチャンネルの増幅器
10はゲインを下げ、一方Bチャンネルの増幅器11は
ゲインを上げて、R2=G2=B2となるように働く。
Reference numerals 7, 8 and 9 denote AGC circuits, which are controlled by the level-detected outputs of the luminance signal Y output from the matrix circuit 12 in the subsequent stage. 10,
Reference numeral 11 is a voltage control amplifier for white balance inserted in the R channel and B channel. These amplifiers 10 and 11 process the outputs R ′, G ′ and B ′ of the white balance sensor 19 by the processing circuit 20. The gains are respectively controlled by the R ′ / G ′ and B ′ / G ′ signals thus obtained. For example, when the color temperature is low, the output of the white balance sensor 19 is R ′> when capturing a white subject.
Since G '>B', the two outputs of the processing circuit 20 are R '/ G'> 1 and B '/ G'<1, respectively, and depending on this ratio R '/ G', B '/ G'. The R-channel amplifier 10 lowers the gain, while the B-channel amplifier 11 increases the gain so that R2 = G2 = B2.

【0013】12はマトリクス回路であり、原色信号R
2、G2、B2から輝度信号Yと、2つの色差信号R−
Y、B−Yを形成する。次段の映像信号処理回路13は
輝度信号Yに同期信号を付加し、一方R−Y、B−Y信
号を直角変調するとともにカラーバーストを付加してク
ロマ信号Cとして出力し、それぞれをデッキ部14に供
給する。21は制御用のマイクロコンピュータ(以下
「制御マイコン」という)であり、種々の制御を司る
が、その1つとしてレンズ駆動部22を介してレンズ1
をフォーカシング等のために駆動する機能を有する。ま
た、レンズ駆動部22からレンズの焦点距離やレンズ繰
り出し量等の情報を入力する。
Reference numeral 12 is a matrix circuit, which is a primary color signal R.
2, G2, B2 to a luminance signal Y and two color difference signals R-
Y and BY are formed. The video signal processing circuit 13 in the next stage adds a synchronizing signal to the luminance signal Y, orthogonally modulates the R-Y and B-Y signals, adds a color burst and outputs as a chroma signal C, each of which is a deck section. Supply to 14. Reference numeral 21 denotes a control microcomputer (hereinafter referred to as “control microcomputer”), which controls various controls. One of them is the lens 1 via the lens drive unit 22.
Has a function of driving for focusing or the like. In addition, information such as the focal length of the lens and the lens extension amount is input from the lens driving unit 22.

【0014】ところで、ビデオカメラではAF(オート
フォーカス)として従来より赤外線AF方式や位相差検
出AF方式等が使用されてきたが、最近は小型化の点で
有利である映像信号を用いた映像信号AF方式が主流に
なってきており、図1でもこの方式を使用している。図
1において、マトリクス後の輝度信号Yの高周波成分を
バンドパスフィルタ23で分離し、その信号レベルをA
/D変換器24でA/D変換する。制御マイコン21か
らのAFエリア信号によって画面分割回路25を制御
し、図4に示す画面28の中央部分をAFエリア29と
して設定し、このエリア29内のデータをデジタル積分
回路26で積算する。
By the way, in a video camera, an infrared AF method or a phase difference detection AF method has been conventionally used as AF (autofocus), but recently, a video signal using a video signal which is advantageous in terms of downsizing. The AF method has become mainstream, and this method is also used in FIG. In FIG. 1, the high frequency component of the luminance signal Y after matrix is separated by the bandpass filter 23, and the signal level is A
The A / D converter 24 performs A / D conversion. The screen division circuit 25 is controlled by the AF area signal from the control microcomputer 21, the central portion of the screen 28 shown in FIG. 4 is set as the AF area 29, and the data in this area 29 is integrated by the digital integration circuit 26.

【0015】そのため、デジタル積分回路26の出力デ
ータとしては、合焦時には大きな値となって高いAF評
価値が得られ、非合焦時には小さな値となって低い評価
値が得られる。このデータは制御マイコン21の制御に
より1フィールド毎に積分され、且つ読み出される。
Therefore, as the output data of the digital integrator circuit 26, a large value is obtained at the time of focusing to obtain a high AF evaluation value, and a small value is obtained at the time of non-focusing to obtain a low evaluation value. This data is integrated and read out for each field under the control of the control microcomputer 21.

【0016】図2は制御マイコン21によるAF制御動
作のフローチャート(AFル−チン)を示しており、
まずこのルーチンがスタートすると、ステップ#5でデ
ジタル積分回路26の出力データによるAFの評価値が
安定するまで待ってから、レンズ1(この場合フォ−カ
シングレンズ)を駆動し(ステップ#10)、そのレン
ズ駆動によりAF評価値が増加したか否かを判定する
(ステップ#15)。ここで、AF評価値が増加してい
ればステップ#25へ進みAF評価値が減少するまで、
そのままレンズを動かす。そして、AF評価値が減少し
始めたら、ステップ#30で合焦点に戻し、ステップ#
35でレンズ駆動を停止する。
FIG. 2 shows a flow chart (AF routine) of the AF control operation by the control microcomputer 21.
First, when this routine starts, in step # 5, the lens 1 (focusing lens in this case) is driven after waiting until the AF evaluation value based on the output data of the digital integration circuit 26 stabilizes (step # 10). Then, it is determined whether or not the AF evaluation value is increased by driving the lens (step # 15). If the AF evaluation value has increased, the process proceeds to step # 25 until the AF evaluation value decreases.
Move the lens as it is. Then, when the AF evaluation value starts to decrease, the focus is returned to the in-focus point in step # 30, and step #
At 35, the lens drive is stopped.

【0017】この様子を図3で説明すると、例えば駆動
する前のレンズ位置がP1にあったときレンズを無限遠
方向へ駆動すると、AF評価値が徐々に上がっていき、
合焦点P2を過ぎると減少する。そこで、P3でレンズ
を逆方向(この場合、近側方向)に移動させて合焦点P
2に戻すのである。
This situation will be described with reference to FIG. 3. For example, when the lens is driven in the infinity direction when the lens position before driving is P1, the AF evaluation value gradually increases,
It decreases after passing the focal point P2. Therefore, at P3, the lens is moved in the opposite direction (in this case, the near side direction), and the focal point P
Return to 2.

【0018】上記図2のステップ#15の判定でAF評
価値が増加していないときは、逆方向に合焦点があると
考え、ステップ#20へ進んでレンズを逆方向(近側方
向)に駆動し、これをステップ#25でAF評価値が減
少するまで行い、しかる後、合焦点に戻してからレンズ
駆動を停止する(ステップ#30、#35)。この様子
を図3を参照して説明すると、駆動する前のレンズが例
えばP4にあったとき、これを無限遠方向に駆動する
と、AFの評価値は増加しない。そこで、途中のP5で
逆方向に駆動していき、評価値が減少するまで、これを
続ける。この場合、評価値が減少するのは合焦点P2を
超えて更に近側へ移動したときである。従って、レンズ
の移動を再度逆方向(無限遠方向)にして、合焦点P2
に戻し、レンズ駆動を停止するのである。
When the AF evaluation value does not increase in the determination of step # 15 in FIG. 2 above, it is considered that there is a focal point in the opposite direction, and the process proceeds to step # 20 to move the lens in the opposite direction (near side direction). Driving is performed, and this is performed until the AF evaluation value decreases in step # 25. After that, the lens drive is stopped after returning to the in-focus point (steps # 30, # 35). This situation will be described with reference to FIG. 3. When the lens before driving is at P4, for example, if this lens is driven in the infinity direction, the AF evaluation value does not increase. Therefore, driving is performed in the opposite direction at P5 on the way, and this is continued until the evaluation value decreases. In this case, the evaluation value decreases when the focal point P2 is exceeded and the evaluation value is further moved to the near side. Therefore, the lens is moved again in the opposite direction (infinity direction) and the focus P2
Then, the lens drive is stopped.

【0019】尚、上記説明では駆動前のレンズ位置から
最初に(即ちステップ#10で)無限遠方向に移動させ
る場合について述べたが、ステップ#10の駆動を近側
方向とした場合にも同様に処理され、レンズは合焦位置
P2へもたらされる。さて、ステップ#40では、いっ
たん合焦された状態から被写体に変化が生じたか否か判
定し、変化が生じるとステップ#5へ戻り、最初からA
F動作をやり直す。変化がなければ、フローを終了す
る。
In the above description, the case where the lens position before driving is first moved to the infinity direction (that is, in step # 10) has been described, but the same applies when the driving in step # 10 is performed in the near side direction. And the lens is brought to the in-focus position P2. Now, in step # 40, it is determined whether or not there is a change in the subject from the state of being in focus, and if there is a change, the process returns to step # 5, and from the beginning A
Repeat F action. If there is no change, the flow ends.

【0020】図1に戻って、27はトリガースイッチで
あり、このスイッチをONすると、制御マイコン21が
これを検知し、デッキ部14の状態を変える。即ち、ス
イッチ27のON前にデッキ部14が録画状態であれ
ば、録画を停止させ、録画状態でなければ録画をスター
トさせる。
Returning to FIG. 1, 27 is a trigger switch, and when this switch is turned on, the control microcomputer 21 detects this and changes the state of the deck section 14. That is, if the deck unit 14 is in the recording state before the switch 27 is turned on, the recording is stopped, and if not, the recording is started.

【0021】以上において、図1の説明を終り、続いて
図5に示す本発明の第1実施例について説明する。以下
に述べる図5の回路において、図1と同一の符号を付し
た部分については原則として説明を省略する。図5にお
いて、まず30はAGC制御され且つホワイトバランス
調整済みの原色信号R2、G2、B2を制御マイコン2
1からの色再現補正データに基づいて色再現補正を行う
色再現補正回路である。この色再現補正回路30は後述
する色補正スイッチ50の操作によってユ−ザの好みに
合った色に調整するために設けられた回路であり、その
挿入位置は図示のR2、G2、B2に作用する位置の代
わりにマトリクス回路12の後段においてR−Y、B−
Yに作用する位置であってもよい。
Above, the explanation of FIG. 1 is finished, and then the first embodiment of the present invention shown in FIG. 5 will be explained. In the circuit of FIG. 5 described below, the description of the parts denoted by the same reference numerals as those of FIG. 1 will be omitted in principle. In FIG. 5, reference numeral 30 is a microcomputer 2 for controlling the primary color signals R2, G2 and B2 which are AGC-controlled and whose white balance has been adjusted.
The color reproduction correction circuit performs color reproduction correction based on the color reproduction correction data from 1. The color reproduction correction circuit 30 is a circuit provided for adjusting a color to a user's preference by operating a color correction switch 50 described later, and its insertion position acts on R2, G2, B2 shown in the drawing. Instead of the position to be set, RY, B-
It may be a position that acts on Y.

【0022】31、32、33はの前記原色信号R2、
G2、B2をそれぞれデジタル値に変換するA/D変換
器であり、その変換出力はメモリ34へr、g、b信号
として取り込まれる。メモリ34に、いったん取り込ま
れた後、メモリ34から読み出されたr、g、b信号は
人物検出用マイクロコンピュータ(以下「人物検出マイ
コン」という)35で処理される。メモリ34には2フ
ィールド分の各色の画像メモリがあって、1フィールド
毎に読み出し、書き込みを繰り返す。人物検出マイコン
35は第1AFエリア信号を第1の画面分割回路25へ
与え、第2AFエリア信号を第2の画面分割回路38へ
与えるとともに、肌色エリア信号を第3の画面分割回路
41へ与える。
Reference numerals 31, 32 and 33 denote the primary color signals R2,
It is an A / D converter that converts G2 and B2 into digital values, and the converted outputs are taken into the memory 34 as r, g, and b signals. The r, g, and b signals read out from the memory 34 after being taken into the memory 34 are processed by a person detecting microcomputer (hereinafter referred to as “person detecting microcomputer”) 35. The memory 34 has an image memory for each color for two fields, and reading and writing are repeated for each field. The person detection microcomputer 35 applies the first AF area signal to the first screen division circuit 25, the second AF area signal to the second screen division circuit 38, and the skin color area signal to the third screen division circuit 41.

【0023】ここで、第2の画面分割回路38はバンド
パスフィルタ36、A/D変換器37を通して輝度信号
のデジタル化された高周波成分を人物検出マイコン35
からの第2AFエリア信号に基づいてゲートし、デジタ
ル積分回路39へ与える。デジタル積分回路39の出力
は第2AFエリアのAF評価値を示し、AF信号として
制御マイコン21へ送られる。バンドパスフィルタ3
6、A/D変換器37、画面分割回路38、デジタル積
分回路39は、図1で説明したバンドパスフィルタ2
3、A/D変換器24、画面分割回路25、デジタル積
分回路26が第1AFエリア内の信号に関するものであ
るのに対し、第2AFエリアに関するものであるという
点で相違するだけで、その構成は23、24、25、2
6と同一である。
Here, the second screen division circuit 38 passes the bandpass filter 36 and the A / D converter 37 to the digitized high frequency component of the luminance signal to detect the person 35.
It is gated on the basis of the second AF area signal from and is given to the digital integration circuit 39. The output of the digital integration circuit 39 indicates the AF evaluation value of the second AF area and is sent to the control microcomputer 21 as an AF signal. Bandpass filter 3
6, the A / D converter 37, the screen division circuit 38, and the digital integration circuit 39 are the bandpass filter 2 described in FIG.
3, the A / D converter 24, the screen division circuit 25, and the digital integration circuit 26 are related to the signals in the first AF area, but are different in that they are related to the second AF area. Is 23, 24, 25, 2
Same as 6.

【0024】人物検出マイコン35からの肌色エリア信
号により制御される第3の画面分割回路41はローパス
フィルタ40により抽出された輝度信号Yの低域成分を
ゲートする。そのゲート出力は平均化回路42で平均化
された後、A/D変換器43でデジタル化され、露出レ
ベル信号として制御マイコン21へ送られる。絞り2か
らは絞り開放情報が制御マイコン21へ送られる。逆
に、制御マイコン21からはD/A変換回路47、加算
回路48を介して絞り補正信号が絞り駆動回路17へ与
えられる。AGC回路7、8、9に対し、制御マイコン
21からD/A変換器45、加算回路46を通してAG
C補正信号が与えられる。
The third screen division circuit 41 controlled by the skin color area signal from the person detection microcomputer 35 gates the low frequency component of the luminance signal Y extracted by the low pass filter 40. The gate output is averaged by the averaging circuit 42, digitized by the A / D converter 43, and sent to the control microcomputer 21 as an exposure level signal. From the diaphragm 2, diaphragm opening information is sent to the control microcomputer 21. On the contrary, from the control microcomputer 21, an aperture correction signal is given to the aperture drive circuit 17 via the D / A conversion circuit 47 and the addition circuit 48. For the AGC circuits 7, 8 and 9, the control microcomputer 21 passes the D / A converter 45 and the adder circuit 46 to the AG.
A C correction signal is provided.

【0025】また、図5にはオートトリガースイッチ4
4、APZスイッチ49、色補正スイッチ50が設けら
れているが、そのうちオートトリガースイッチ44はオ
ートトリガーのON/OFFを制御するもので、ONの
場合、制御マイコン21よりのスタート/ストップ信号
によりデッキのON/OFFを自動制御する。また、A
PZスイッチ49はオートズームのON/OFFを制御
するもので、ONの場合、制御マイコン21からズーム
レンズ駆動信号が出力され、レンズ1(この場合ズ−ム
レンズ)が駆動される。これによって画角を自動調整す
る。色補正スイッチ50は色補正をON/OFFするも
のであり、ONの場合は制御マイコン21により色再現
補正データが色再現補正回路30へ与えられる。
Further, FIG. 5 shows the auto trigger switch 4
4, an APZ switch 49, and a color correction switch 50 are provided. Among them, the auto trigger switch 44 controls ON / OFF of the auto trigger, and when it is ON, the deck is started by the start / stop signal from the control microcomputer 21. ON / OFF of is automatically controlled. Also, A
The PZ switch 49 controls ON / OFF of the auto zoom. When the PZ switch 49 is ON, a zoom lens drive signal is output from the control microcomputer 21 to drive the lens 1 (zoom lens in this case). With this, the angle of view is automatically adjusted. The color correction switch 50 turns the color correction ON / OFF, and when it is ON, the color reproduction correction data is given to the color reproduction correction circuit 30 by the control microcomputer 21.

【0026】図1に比し、図5が特徴とする点の1つに
人物検出機能がある。人物検出用の画像データはホワイ
トバランス調整後の原色信号R2、G2、B2をA/D
変換器31、32、33によりA/D変換したデジタル
データを用いる。このデジタルデータはメモリ34によ
って1フィールド毎に書き込み、読み出しされる。メモ
リ34から読み出したデータに基づいて人物検出マイコ
ン35は図6、図7に示す個体抽出の処理を実行する。
As compared with FIG. 1, one of the features of FIG. 5 is a person detection function. Image data for human detection is obtained by A / D conversion of the primary color signals R2, G2, B2 after white balance adjustment.
The digital data A / D converted by the converters 31, 32 and 33 is used. This digital data is written and read by the memory 34 for each field. Based on the data read from the memory 34, the person detection microcomputer 35 executes the individual extraction process shown in FIGS. 6 and 7.

【0027】この個体抽出のルーチンに入ると、人物検
出マイコン35はステップ#100で前回の個体の有無
を判定する。初回の実行では前回の個体は無いので、ス
テップ#105へ進んで画面内の肌色部総画素数を計算
する。この計算はメモリ34の画素データrij、gi
j、bijを順に人物検出マイコン35にロードし、r
(i、j)、g(i、j)、b(i、j)の比を算出
し、その結果、肌色部と判定された画素をf(i、j)
=1、肌色以外をf(i、j)=0として肌色部とされ
た画素の総数をカウントすることにより行う。
When entering the routine for extracting an individual, the person detecting microcomputer 35 determines the presence or absence of the previous individual in step # 100. Since there is no previous individual in the first execution, the process proceeds to step # 105 to calculate the total number of pixels of the skin color part in the screen. This calculation is performed by the pixel data rij, gi of the memory 34.
j and bij are sequentially loaded into the person detection microcomputer 35, and r
The ratio of (i, j), g (i, j), b (i, j) is calculated, and as a result, the pixel determined to be the skin color part is f (i, j).
= 1 and f (i, j) = 0 except for the skin color, and counting the total number of pixels which are the skin color part.

【0028】次に、ステップ#110で、その肌色部の
総画素数が一定値以上か否か判定し、一定値以上であれ
ばステップ#115で肌色部の輪郭抽出を行うととも
に、ステップ#120で輪郭の直線度の計算を行う。肌
色部の輪郭抽出は肌色部の輪郭を一例として次のアルゴ
リズムで計算することにより行う。
Next, in step # 110, it is determined whether or not the total number of pixels of the flesh color portion is a certain value or more. If it is more than the certain value, the contour extraction of the flesh color portion is performed in step # 115, and step # 120. Calculate the straightness of the contour with. The contour extraction of the skin color part is performed by calculating the contour of the skin color part as an example with the following algorithm.

【0029】 f(i、j)−f(i−1、j)=δ1 δ1=1のときf(i、j)=1 δ1≠1のときf(i、j)=0 f(i、j)−f(i、j−1)=δ2 δ2=1のときf(i、j)=1 δ2≠1のときf(i、j)=0[0029]   f (i, j) -f (i-1, j) = δ1 When δ1 = 1, f (i, j) = 1                                         When δ1 ≠ 1, f (i, j) = 0   f (i, j) -f (i, j-1) = δ2 When δ2 = 1, f (i, j) = 1                                         When δ2 ≠ 1, f (i, j) = 0

【0030】また、輪郭部の直線度計算としては輪郭部
に直線部が多ければ、壁や床など肌色に近い色の部分と
考えられるので、輪郭部に直線部が多いかどうかを計算
する。図8は抽出された輪郭部の画素を黒丸51で表し
た図である。各格子は座標を表す。ここで、画面の左上
の丸印52をつけた画素から左回りに次の輪郭画素の方
向を図9の方向コードに従って記憶する。この例では図
10のようにコードが記憶される。コードが変化してい
る画素を1、変化していない画素を0として変化した画
素の総数NBを計算する。コードの変化している部分は
曲線部であるから、この数が多い方が曲線に近いという
ことになる。
Further, in calculating the straightness of the contour portion, if the contour portion has a large number of straight line portions, it can be considered to be a portion having a color close to skin color such as a wall or a floor. Therefore, it is calculated whether the contour portion has a large number of straight line portions. FIG. 8 is a diagram in which the pixels of the extracted contour portion are represented by black circles 51. Each grid represents a coordinate. Here, the direction of the next contour pixel is stored counterclockwise from the pixel marked with the circle mark 52 at the upper left of the screen according to the direction code of FIG. In this example, the code is stored as shown in FIG. The total number NB of changed pixels is calculated by setting the pixel where the code has changed to 1 and the pixel which has not changed to 0. The part where the code changes is the curved part, so the larger this number is, the closer the curve is.

【0031】ステップ#125では円に近いものがある
か否か判定するが、これは円に近いものは人物の輪郭と
考えてもよいという論理に基づいている。この判定では
輪郭部の総画素数NAと、変化した画素の総数NBとの
比NB/NAを計算し、その比が一定以上であれば円に
近いもの(人物の輪郭)があると判断する。
In step # 125, it is determined whether or not there is an object close to a circle. This is based on the logic that an object close to a circle may be considered as the outline of a person. In this determination, the ratio NB / NA between the total number of pixels NA in the contour portion and the total number NB of changed pixels is calculated, and if the ratio is equal to or greater than a certain value, it is determined that there is something close to a circle (human outline). .

【0032】そして、前記ステップ#125で円に近い
ものがあると判定されたときは、次のステップ#130
で円に近い輪郭部内の肌色面積を計算する。これは輪郭
部内の画素数を数えることで容易に計算できる。次に、
ステップ#135で一定以上の面積の肌色部があるか否
かを判定する。ここで、NOの場合(即ち、一定以上で
ない場合)は人物が遠い位置にいるか、或いはノイズと
いうことである。YES(即ち、一定以上)であれば、
次のステップ#140で一定以上の面積の肌色部が複数
個あるかどうか判断する。1個であれば、個体が決定さ
れたことになるので、人物検出マイコン35はステップ
#145で肌色部を含む第1AFエリア信号を設定し、
この第1AFエリア信号を第1の画面分割回路25に与
える。これに伴い、ステップ#150で上述した図2の
AFルーチンが実行され、そのエリア内のAF評価値
が最大となるように制御される。尚、このAFルーチン
の制御は制御マイコン21によって行われる。
If it is determined in step # 125 that there is something close to a circle, the next step # 130
Calculate the skin color area in the contour near the circle with. This can be easily calculated by counting the number of pixels in the contour portion. next,
In step # 135, it is determined whether or not there is a skin-colored part having a certain size or more. Here, in the case of NO (that is, when it is not above a certain level), it means that the person is at a distant position or noise. If YES (that is, above a certain level),
In the next step # 140, it is determined whether or not there are a plurality of skin-colored portions having a certain area or more. If the number is one, it means that the individual has been determined, so the person detection microcomputer 35 sets the first AF area signal including the skin color portion in step # 145.
The first AF area signal is given to the first screen division circuit 25. Along with this, the above-described AF routine of FIG. 2 is executed in step # 150, and the AF evaluation value in the area is controlled to be maximum. The control of the AF routine is performed by the control microcomputer 21.

【0033】上記ステップ#140で一定値以上の面積
の肌色部が複数ある場合は、それぞれにAFエリア信号
を設定し、図11に示すAFルーチンで処理を行う
(但し、図11は肌色部が2つある場合、つまり第1A
Fエリア信号及び第2AFエリア信号が設定されている
場合のAFル−チンを示している)。図12は2人の
人物が異なる距離にいる場合のレンズ位置とAF評価値
の関係を示している。この場合、AFルーチンの処理
では2人の人物のうち近い方の人物に合焦点するように
している。
If there are a plurality of flesh-colored areas having a predetermined value or more in step # 140, an AF area signal is set for each and the AF routine shown in FIG. 11 is executed (however, in FIG. 11, the flesh-colored areas are If there are two, namely 1A
The AF routine when the F area signal and the second AF area signal are set is shown). FIG. 12 shows the relationship between the lens position and the AF evaluation value when two people are at different distances. In this case, in the processing of the AF routine, the closer one of the two persons is focused.

【0034】ここで、図11のAFルーチンについて
説明する。このルーチンがスタートすると、まず、ステ
ップ#300でAF評価値が安定するのを待ち、それま
でレンズ1を動かさない。これは被写体が動いたりして
誤測距になるのを避けるためである。評価値が安定する
と、ステップ#305でフラグFLGをセットする(F
LG=1)。このフラグFLGはレンズを近方向に動か
すことを示すフラグである。このフラグのセットに従っ
てステップ#310でフォーカスレンズを近方向に駆動
し、次のステップ#315で第1AFエリアに関するA
F評価値(1)が増加しているかどうか判定する。
Now, the AF routine of FIG. 11 will be described. When this routine starts, first, in step # 300, the AF evaluation value is allowed to stabilize, and the lens 1 is not moved until then. This is to prevent the subject from moving and erroneous distance measurement. When the evaluation value is stable, the flag FLG is set in step # 305 (F
LG = 1). This flag FLG is a flag indicating that the lens is moved in the near direction. In accordance with the setting of this flag, the focus lens is driven in the near direction in step # 310, and in the next step # 315, A for the first AF area is set.
It is determined whether the F evaluation value (1) has increased.

【0035】AF評価値(1)が増加していればステッ
プ#320で第2AFエリアに関するAF評価値(2)
が増加しているか否か判定する。ここで、AF評価値
(2)も増加していれば、そのままフォーカスレンズを
近方向に駆動し続ける。そして、ステップ#325でA
F評価値(1)(2)が共に減少するか否かを判定し、
これらが同時に減少すれば同時に合焦のピークを超えた
と判断して、第1、第2AFエリアとも被写体は同一距
離とする(ステップ#330)。そこで、フォーカスレ
ンズを合焦点に戻し(ステップ#355)、ステップ#
360でレンズ駆動を停止する。その後はステップ#3
65で被写体に変化が生じたか否かを監視(具体的には
AF評価値(1)(2)を監視)し、変化がなければこ
のルーチンを終了する。変化があれば、被写体が動いた
としてステップ#300へ戻り、ステップ#300以降
のフローを実行する。
If the AF evaluation value (1) has increased, then in step # 320 the AF evaluation value (2) for the second AF area.
It is determined whether or not is increasing. Here, if the AF evaluation value (2) also increases, the focus lens is continuously driven in the near direction. Then, in step # 325, A
It is determined whether or not the F evaluation values (1) and (2) both decrease,
If these decrease at the same time, it is judged that the peak of focusing has been exceeded at the same time, and the subject is set to the same distance in both the first and second AF areas (step # 330). Then, the focus lens is returned to the focal point (step # 355), and step #
At 360, the lens drive is stopped. Then step # 3
At 65, it is monitored whether or not the subject has changed (specifically, the AF evaluation values (1) and (2) are monitored), and if there is no change, this routine ends. If there is a change, it is determined that the subject has moved, the process returns to step # 300, and the flow from step # 300 is executed.

【0036】上記ステップ#325でAF評価値(1)
(2)が共に減少しないときはフォーカスレンズを近方
向に駆動したままAF評価値(1)が増加するか否かの
判別ステップ#315に戻る。
In step # 325, the AF evaluation value (1)
If both (2) do not decrease, the process returns to the step # 315 of determining whether or not the AF evaluation value (1) increases while the focus lens is driven in the near direction.

【0037】次に、AF評価値(1)が増加している場
合でAF評価値(2)が増加していない場合(ステップ
#320の判定でNOの場合)について説明する。この
場合は第1AFエリア内の被写体が現在の合焦位置より
近側にあり、第2AFエリアの被写体が現在の合焦位置
より遠側にあるケースである。本アルゴリズムは第1、
第2AFエリアのいずれか近い方の被写体にピントを合
わせるので、フォーカスレンズを近方向に駆動し続け
る。
Next, the case where the AF evaluation value (1) is increasing and the AF evaluation value (2) is not increasing (NO in the determination in step # 320) will be described. In this case, the subject in the first AF area is closer to the current focus position, and the subject in the second AF area is farther from the current focus position. This algorithm is the first
Since the subject closer to whichever of the second AF areas is focused, the focus lens is continuously driven in the near direction.

【0038】ステップ#335でAF評価値(1)の値
を監視し、減少し始めるとステップ#350でフラグF
LGの状態を判定する。FLG=1であればレンズは近
方向に駆動中である。従って、AF評価値(2)に続い
てAF評価値(1)の減少が始まった点、即ち近側被写
体のAF評価値(1)のピークを検出できたことにな
る。従って、ステップ#355で合焦点(ピーク点)に
戻し、フォーカスレンズ駆動を停止する(ステップ#3
60)。
In step # 335, the value of the AF evaluation value (1) is monitored, and if it starts to decrease, the flag F is detected in step # 350.
Determine the state of LG. If FLG = 1, the lens is driving in the near direction. Therefore, the point at which the AF evaluation value (1) starts to decrease following the AF evaluation value (2), that is, the peak of the AF evaluation value (1) of the near-side subject can be detected. Therefore, in step # 355, the focal point (peak point) is returned to and the focus lens drive is stopped (step # 3).
60).

【0039】前記フラグFLGが1でなければ、フォー
カスレンズは遠側に駆動中であり、AF評価値(2)に
続いてAF評価値(1)が減少を始めた点は遠側被写体
のAF評価値のピークを過ぎた点である。従って、FL
G=1でないときはステップ#350からステップ#3
70へ進んでFLG=1としフォーカスレンズを近方向
に駆動(ステップ#375)し、最初のステップ#31
5へ戻る。
If the flag FLG is not 1, the focus lens is being driven to the far side, and the point where the AF evaluation value (1) starts decreasing after the AF evaluation value (2) is the AF of the far side object. It is a point beyond the peak of the evaluation value. Therefore, FL
When G is not 1, step # 350 to step # 3
In step 70, FLG = 1, the focus lens is driven in the near direction (step # 375), and the first step # 31
Return to 5.

【0040】次に、上記ステップ#315において、A
F評価値(1)が増加しない場合は、ステップ#340
へ進んでAF評価値(2)が増加するかどうか判定する
ことによって、第2AFエリアに合焦点があるかどうか
判断する。ステップ#340でAF評価値(2)が増加
していれば次のステップ#345でAF評価値(2)が
減少するかどうか判定し、減少すればステップ#350
でフラグFLGを判別する。そして、FLGが1であれ
ば近側合焦点と判断しステップ#355以降の処理を行
う。FLGが1でなければ、前記ステップ#370、#
375を経てステップ#315へ戻る。
Next, in step # 315, A
If the F evaluation value (1) does not increase, step # 340
By advancing to, it is determined whether or not the AF evaluation value (2) increases, thereby determining whether or not the second AF area has the in-focus point. If the AF evaluation value (2) has increased in step # 340, it is determined in the next step # 345 whether or not the AF evaluation value (2) will decrease. If the AF evaluation value (2) has decreased, step # 350
The flag FLG is discriminated by. Then, if FLG is 1, it is determined that the focus is on the near side, and the processes in and after step # 355 are performed. If FLG is not 1, step # 370, #
After 375, the process returns to step # 315.

【0041】ステップ#340でAF評価値(2)が増
加していない場合は、ステップ#380でフォーカスレ
ンズを遠方向に駆動し、フラグFLGをFLG=0とす
る。そして、ステップ#390でAF評価値(1)
(2)共に減少すればステップ#330へジャンプしス
テップ#330以降の処理を行う。しかし、ステップ#
390でAF評価値(1)(2)が共に減少しなければ
ステップ#315へ戻り、それ以降の処理を実行する。
If the AF evaluation value (2) has not increased in step # 340, the focus lens is driven in the far direction in step # 380, and the flag FLG is set to FLG = 0. Then, in step # 390, the AF evaluation value (1)
(2) If both decrease, the process jumps to step # 330, and the processes after step # 330 are performed. But step #
If both AF evaluation values (1) and (2) do not decrease at 390, the process returns to step # 315 and the subsequent processing is executed.

【0042】上述した通りAFルーチンにおいては、
AF評価値(1)(2)が同時に減少し始めれば第1、
第2AFエリアは同一距離にあると判定する。近方向に
駆動中にはAF評価値(1)(2)のうち後で減少し始
めた方に合焦する。遠方向に駆動中は最初に減少し始め
た方に合焦する。また、AFルーチンではフォーカス
レンズの駆動方向をFLGで判別し、FLGが1になっ
たとき、近い方の人物と判断し、合焦点に戻しフォーカ
スレンズを停止する。
As described above, in the AF routine,
If the AF evaluation values (1) and (2) start decreasing at the same time, the first,
It is determined that the second AF areas are at the same distance. During the driving in the near direction, the AF evaluation value (1) or (2) which is later decreased is focused. When driving in the far direction, the focus is first on the one that begins to decrease. In the AF routine, the driving direction of the focus lens is determined by the FLG, and when FLG becomes 1, it is determined that the person is closer, and the focus lens is returned to the in-focus point and the focus lens is stopped.

【0043】さて、図6のフローに戻って、ステップ#
160で上述のAFルーチンの処理を終了すると、ス
テップ#165〜#180のステップを実行する。これ
は、AFルーチンの処理後、第1、第2AFエリアの
人物が同一距離であった場合、それぞれ別方向に動くこ
とも考えられるので追尾すべき人物を選択するためであ
る。
Now, returning to the flow of FIG. 6, step #
When the processing of the AF routine described above is completed at 160, steps # 165 to # 180 are executed. This is to select the person to be tracked because it is possible that the persons in the first and second AF areas move in different directions after the processing of the AF routine, if they are at the same distance.

【0044】この場合、画面の中央に近い人物を優先さ
せるようにしており(ステップ#170)、もし、画面
中央に対し、第1、第2AFエリアの人物が等距離にあ
る場合は、面積の大きい方の人物を選択する(ステップ
#175、#180)。第1、第2エリアの人物が同一
距離でなければ、追尾する人物を選択する必要がないの
で、ステップ#170〜#180をスキップする。
In this case, the person near the center of the screen is prioritized (step # 170). If the persons in the first and second AF areas are equidistant from the center of the screen, the area The larger person is selected (steps # 175, # 180). If the persons in the first and second areas are not at the same distance, it is not necessary to select the person to be tracked, so steps # 170 to # 180 are skipped.

【0045】ステップ#150のAFルーチン及びス
テップ#160〜#180の処理を行った後、ステップ
#185で個体の決定を行い、このフローを終了する。
以上は個体抽出が初回の場合であり、従ってステップ#
100で前回の個体なしとしてステップ#105以降の
フローに進んだ場合について説明したが、初回でない場
合はステップ#100で前回個体有りと判定されて、図
7のステップ#190へ進む。尚、このステップ#19
0へは、上記ステップ#110、#125、#135で
それぞれNOと判定されたときもくる。
After performing the AF routine of step # 150 and the processes of steps # 160 to # 180, the individual is determined in step # 185, and this flow ends.
The above is the case where the individual extraction is the first time, so step #
The case where the process proceeds to step # 105 and the subsequent steps assuming that there is no previous individual in 100 has been described. However, if it is not the first time, it is determined in step # 100 that the previous individual exists, and the process proceeds to step # 190 in FIG. This step # 19
It also comes to 0 when NO is determined in each of the steps # 110, # 125, and # 135.

【0046】ステップ#190では前回のAFエリアの
近くに肌色部分があるどうかを調べる。具体的には図1
3(b)に示すように前回のAFエリア61を1回り大
きなAFエリア62とし、その内に含まれる肌色部の面
積を調べる。ここで、複数の肌色部分があるときは大き
い方を選択する(ステップ#195、#200)。前回
より1回り大きいAFエリア62内で前回のAFエリア
61と同じ大きさのAFエリアを移動させ最も肌色部を
含む位置に設定する(ステップ#205)。AFエリア
内がすべて肌色部で占められたときはAFエリアを1回
り大きくする(ステップ#210)。AFエリア部がス
テップ#215で個体として決定され、ステップ#22
0のAFルーチンで合焦される。
In step # 190, it is checked whether or not there is a skin color portion near the previous AF area. Specifically,
As shown in FIG. 3 (b), the previous AF area 61 is set as an AF area 62 that is one size larger, and the area of the skin color portion included therein is checked. Here, when there are a plurality of skin color portions, the larger one is selected (steps # 195, # 200). The AF area having the same size as the previous AF area 61 is moved within the AF area 62 which is one size larger than the previous one, and is set to the position including the most skin color portion (step # 205). When the entire AF area is occupied by the skin color portion, the AF area is enlarged by one (step # 210). The AF area part is determined as an individual in step # 215, and then the step # 22.
Focusing is performed by the 0 AF routine.

【0047】ステップ#190で、前回のAFエリア位
置の近くに肌色がないときは、(イ)人物が後ろを向く
など人物は同じ位置にいるのに肌色部がなくなった、
(ロ)人物が画面外に消えた、等の場合が考えられる。
そこで前回と同じAFエリアを設定し(ステップ#22
5)、AFルーチンを用いて合焦動作を行い(ステッ
プ#230)、前回の測距距離と今回の測距距離の差が
少なければ前記(イ)の場合と考え個体を決定する(ス
テップ#235、#240)。
In step # 190, when there is no flesh color near the position of the previous AF area, (a) the person is at the same position, but the flesh color part disappears, such as when the person is facing backwards.
(B) It is possible that the person disappeared from the screen.
Therefore, the same AF area as the previous time is set (step # 22
5), the focusing operation is performed using the AF routine (step # 230), and if the difference between the distance measured last time and the distance measured this time is small, it is considered to be the case of (a) and the individual is determined (step # 230). 235, # 240).

【0048】前回と今回の距離が異なるときはAF評価
値を調べて信頼性の高い合焦点があるか否か判定し(ス
テップ#245)、一定値以上なら合焦点有りとし、ス
テップ#245からステップ#240へ進んで個体を決
定する。合焦点がなければ人物はなかったとし(ステッ
プ#250)、初期設定のAFエリアでAFルーチン
の処理で合焦動作をする(ステップ#255、#26
0)。
When the distance between the previous time and this time is different, the AF evaluation value is checked to determine whether or not there is a highly reliable in-focus point (step # 245). The process proceeds to step # 240 to determine the individual. If there is no in-focus point, there is no person (step # 250), and an in-focus operation is performed in the AF routine processing in the default AF area (steps # 255 and # 26).
0).

【0049】次に図14のメインルーチンについて説明
する。まず、電源投入時、ステップ#400でAFエリ
アを初期設定し、次にステップ#405でAFルーチン
で合焦動作する。しかる後、ステップ#410の個体
抽出ルーチン(図6で説明済)で個体抽出と再合焦動作
を行う。そして、ステップ#415へ進んでAPZモー
ドになっているか否か判定する。APZモードはAPZ
スイッチ49の操作により設定される。ここで、APZ
モードに設定されていれば、ステップ#420のAPZ
ルーチンで肌色部の面積が一定になるようズームレンズ
駆動速度方向を設定する。このAPZルーチンのフロー
を図15に示す。
Next, the main routine of FIG. 14 will be described. First, when the power is turned on, the AF area is initialized in step # 400, and then the focusing operation is performed in the AF routine in step # 405. Then, the individual extraction and refocusing operations are performed in the individual extraction routine of step # 410 (described in FIG. 6). Then, the process proceeds to step # 415 to determine whether or not the APZ mode is set. APZ mode is APZ
It is set by operating the switch 49. Where APZ
If the mode is set, APZ in step # 420
Routinely, the zoom lens drive speed direction is set so that the area of the skin-colored portion is constant. The flow of this APZ routine is shown in FIG.

【0050】図15において、まずステップ#500で
肌色部の面積を計算し、その値をS1とする。続いて、
ステップ#505で前回の面積S0と今回の面積S1の
大小関係を調べ、S0>S1であればステップ#510
へ進んでズームレンズを望遠端方向へ移動させ、S0<
S1であればステップ#515へ進んで広角端方向へ移
動させて、それぞれS0=S1になるまでズーミングを
行う。そして、S0=S1になると、ステップ#520
へ進み、このルーチンを終了する。尚、前回の面積S0
に変えて今回の面積S1と比較される面積を操作者が自
由に設定できるようにしてもよいし、カメラ側で予め決
められていても構わない。
In FIG. 15, first, in step # 500, the area of the skin color portion is calculated, and the value is set to S1. continue,
In step # 505, the size relationship between the previous area S0 and the current area S1 is checked. If S0> S1, step # 510
Go to and move the zoom lens toward the telephoto end, and press S0 <
If it is S1, the process proceeds to step # 515 to move toward the wide-angle end, and zooming is performed until S0 = S1. Then, when S0 = S1, step # 520
Then, the routine ends. In addition, the previous area S0
Alternatively, the operator may freely set the area to be compared with the area S1 at this time, or may be predetermined by the camera side.

【0051】図14に戻って、ステップ#420で上記
APZルーチンを終了すると、次のステップ#425へ
進み、ここで肌色AEルーチンを実行する。この肌色A
Eルーチンは図16に示される。この肌色AEルーチン
に入ると、まずステップ#600でレンズ1を近方向へ
駆動するフラグFLGを0に設定し、ステップ#605
で肌色部のレベルが55IRE以上か否か判定する。
Returning to FIG. 14, when the APZ routine is completed at step # 420, the process proceeds to the next step # 425, where the skin color AE routine is executed. This skin color A
The E routine is shown in FIG. When this skin color AE routine is entered, first in step # 600, the flag FLG for driving the lens 1 in the near direction is set to 0, and in step # 605.
Then, it is determined whether or not the level of the skin color part is 55 IRE or higher.

【0052】ここで肌色部のレベルとは、画面分割回路
41でゲートされた後、平均化回路42で平均化され且
つA/D変換器43でA/D変換されて制御マイコン2
1に入力された肌色部分の輝度信号のレベルのことであ
る。この肌色部のレベルが55IRE以上であれば、ス
テップ#610で、それが75IRE以内かどうか判定
する。75IRE以内であればステップ#610へ進ん
で、このルーチンを終了する。即ち、55IRE〜75
IREの範囲内であれば問題はないので、補正を行わな
い。
Here, the level of the skin color portion is gated by the screen division circuit 41, averaged by the averaging circuit 42 and A / D converted by the A / D converter 43, and then the control microcomputer 2
It is the level of the luminance signal of the flesh color portion input to 1. If the level of this skin color portion is 55 IRE or higher, it is determined in step # 610 whether it is within 75 IRE. If it is within 75 IRE, the routine proceeds to step # 610 to end this routine. That is, 55 IRE to 75
If there is no problem within the range of IRE, no correction is performed.

【0053】しかし、ステップ#605で55IRE未
満と判定されたときは、露出アンダーであるためステッ
プ#625で一定量絞り2を開く。その結果、絞り2が
開放になった場合は、それ以上、絞り2で補正できない
ので、ステップ#635でAGC量を増加させてからス
テップ#605へ戻り、ステップ#605以降のフロー
を実行して、最終的に肌色部の信号レベルを55IRE
〜75IREの範囲にもたらす。尚、ステップ#635
でのAGC量増加は制御マイコン21からゲイン増加の
信号がAGC補正信号としてD/A変換回路45、加算
回路46を通して各AGC回路7、8、9へ与えられる
ことにより行われる。
However, if it is determined in step # 605 that it is less than 55 IRE, the exposure is underexposure, so the aperture 2 is opened by a fixed amount in step # 625. As a result, when the aperture 2 is opened, the aperture 2 cannot correct any more. Therefore, the AGC amount is increased in step # 635, the process returns to step # 605, and the flow from step # 605 is executed. Finally, the signal level of the skin color part is set to 55IRE
Bring to the range of ~ 75 IRE. Note that step # 635
The increase of the AGC amount is performed by the control microcomputer 21 giving a gain increase signal as an AGC correction signal to the AGC circuits 7, 8 and 9 through the D / A conversion circuit 45 and the addition circuit 46.

【0054】ステップ#610で75IREを超えてい
ると判定されたときは、露出オーバーであるので、ステ
ップ#640で一定量絞り2を閉じる。しかる後、ステ
ップ#605へ戻り、ステップ#605以降のフローを
実行して最終的に肌色部の信号レベルを55IRE〜7
5IREの範囲へもたらす。
If it is determined in step # 610 that the value exceeds 75 IRE, then overexposure has occurred, so the aperture 2 is closed by a fixed amount in step # 640. Then, the process returns to step # 605, and the flow from step # 605 is executed to finally set the signal level of the skin color part to 55 IRE to 7
Brings to the range of 5 IRE.

【0055】図14に戻って、ステップ#425での上
記肌色AEルーチンが終了すると、次のステップ#43
0で色補正スイッチ50がONされているか否か判定
し、ONされていればステップ#435で色補正ルーチ
ンを実行する。この色補正ルーチンは、抽出された肌色
部を色補正スイッチ50の操作内容に基づいて色再現の
補正を行う。色再現の補正は人物検出マイコン35で検
出された人物部分の信号を受けて人物部分に追尾して制
御マイコン21から色再現補正データを色再現補正回路
30へ送ることにより行なわれる。このとき、色再現補
正回路30では入力のR2、G2、B2を色再現補正デ
ータに基づく比になるようゲイン調定をし、R3、G
3、B3を出力する。
Returning to FIG. 14, when the flesh color AE routine in step # 425 ends, the next step # 43
At 0, it is determined whether or not the color correction switch 50 is turned on, and if it is turned on, a color correction routine is executed at step # 435. This color correction routine corrects the color reproduction of the extracted skin color portion based on the operation content of the color correction switch 50. The color reproduction is corrected by receiving the signal of the human part detected by the human detection microcomputer 35, tracking the human part, and sending the color reproduction correction data from the control microcomputer 21 to the color reproduction correction circuit 30. At this time, the color reproduction correction circuit 30 adjusts the gain of the input R2, G2, and B2 so that the ratio becomes a ratio based on the color reproduction correction data.
3 and B3 are output.

【0056】色補正ルーチンを実行した後、処理はステ
ップ#460に進み、オートトリガースイッチ44によ
ってオートトリガーがかかっているか否か判定する。こ
こで、オートトリガーがかかっていればステップ#46
5で図17に示すオートトリガールーチンを実行した
後、ステップ#410へ戻り、かかっていなければ直接
ステップ#410へ戻る。
After executing the color correction routine, the process proceeds to step # 460 to determine whether or not the auto trigger switch 44 is auto-triggered. Here, if the auto trigger is applied, step # 46.
After executing the auto-trigger routine shown in FIG. 17 in step 5, the process returns to step # 410, and if not, the process directly returns to step # 410.

【0057】ここで、前記オートトリガールーチンを説
明する。図17において、まずデッキ部14にテープカ
セットが装着されているか否か判定し、装着されていな
ければステップ#725へ進んで、このルーチンを終了
するが、装着されていれば、次のステップ#705で録
画モードか否か判定する。ここで録画モードでなけれ
ば、ステップ#725でルーチンを終了し、録画モード
であればステップ#710へ進んで個体の有無を判定す
る。個体があれば、ステップ#715で録画状態として
ステップ#725へ進み、個体がなければ、ステップ#
720で録画を一時停止状態としてステップ#725へ
進む。このようにテ−プカセットが装着されており且つ
録画モードにセットされている状態で画角内に個体が検
出されれば録画を行い、画面から個体が消失したときは
録画を自動的に停止することにより録画チャンスを逃す
ことなく、またテープの無駄を軽減することができる。
Here, the auto trigger routine will be described. In FIG. 17, first, it is determined whether or not the tape cassette is loaded in the deck portion 14, and if it is not loaded, the process proceeds to step # 725 to end this routine, but if it is loaded, the next step # At 705, it is determined whether the recording mode is set. If the recording mode is not set, the routine is ended in step # 725. If the recording mode is set, the process proceeds to step # 710 to determine the presence / absence of an individual. If there is an individual, the recording state is set in step # 715 and the process proceeds to step # 725. If there is no individual, step # 715.
At 720, the recording is paused and the process proceeds to step # 725. When the tape cassette is installed and the recording mode is set in this way, recording is performed when an individual is detected within the angle of view, and when the individual disappears from the screen, recording is automatically stopped. As a result, it is possible to reduce the waste of tape without missing a recording opportunity.

【0058】さて、以上説明した図5の実施例はビデオ
系のみを示し、音声系は省略しているが、図18の実施
例は図5と同一のビデオ系に、更に音声系の特徴部分を
示している。図18において、オートパン/チルトスイ
ッチ70はオートパン/チルトのON/OFFを制御す
るもので、ONの場合、制御マイコン21よりの電動雲
台駆動信号により、雲台駆動回路77を介して雲台76
を駆動し、パン/チルトを行う。矢印78、79はこの
場合の雲台76の動きを示している。一方、雲台76の
移動量を示す信号が雲台駆動回路77を介して制御マイ
コン21へ伝送される。制御マイコン21は、この移動
量信号に基づいて雲台駆動の停止を行う。
Although the embodiment of FIG. 5 described above shows only the video system and omits the audio system, the embodiment of FIG. 18 has the same video system as that of FIG. 5 and further features of the audio system. Is shown. In FIG. 18, an auto pan / tilt switch 70 controls ON / OFF of the auto pan / tilt. When it is ON, an electric pan head drive signal from the control microcomputer 21 causes a pan head drive circuit 77 to move the cloud. Stand 76
To pan / tilt. Arrows 78 and 79 indicate the movement of the platform 76 in this case. On the other hand, a signal indicating the amount of movement of the platform 76 is transmitted to the control microcomputer 21 via the platform drive circuit 77. The control microcomputer 21 stops the platform drive based on this movement amount signal.

【0059】次に、音声f特補正スイッチ71は、周波
数特性自動制御のON/OFFを制御するもので、ON
の場合制御マイコン21よりのf特制御信号によりD/
A変換器75を通して音声プリアンプ73の周波数特性
をコントロールし、マイクユニット72からの音声信号
をイコライジングする。このイコライジングされた音声
信号は自動レベルコントロール回路74を通してデッキ
部14へ与えられる。
Next, the sound f special correction switch 71 controls ON / OFF of the frequency characteristic automatic control.
In the case of D / D by the f special control signal from the control microcomputer 21
The frequency characteristic of the audio preamplifier 73 is controlled through the A converter 75 to equalize the audio signal from the microphone unit 72. The equalized audio signal is given to the deck section 14 through the automatic level control circuit 74.

【0060】さて、先に説明した図5の実施例に関する
各種の制御は図18の場合にも、同様に行われるが、そ
れらの説明はここでは省略し、図5に存しない音声系の
制御についてのみ説明する。図19に示すメインのフロ
ーチャートにおいて、ステップ#400〜#435は図
14において既に説明している。図19において、ステ
ップ#435の色補正ルーチンが終了すると、制御マイ
コン21による処理はステップ#440に進んで、音声
f特補正スイッチ71がONか否か判定し、ONであれ
ばステップ#445で図20に示す音声ルーチンを実行
して画角内の個体情報によって音声帯域を制御し、OF
Fであれば、このルーチンをスキップする。
The various controls relating to the embodiment of FIG. 5 described above are performed in the same manner in the case of FIG. 18, but a description thereof will be omitted here, and control of a voice system not shown in FIG. Will be described only. In the main flow chart shown in FIG. 19, steps # 400 to # 435 have already been described in FIG. In FIG. 19, when the color correction routine of step # 435 is completed, the process by the control microcomputer 21 proceeds to step # 440 to determine whether or not the sound f special correction switch 71 is ON, and if it is ON, step # 445 is executed. The voice routine shown in FIG. 20 is executed to control the voice band by the individual information within the angle of view.
If it is F, this routine is skipped.

【0061】ここで、前記音声ルーチンについて説明す
ると、図20において、まずステップ#800で、上述
した個体抽出ルーチンで計算された画角内の肌色部の総
画素数の全画素に対する割合を計算する。しかる後、ス
テップ#805で、その割合が5%以上か否か判定し、
5%未満であればステップ#825へ進んで、このルー
チンを終了する。5%以上であれば次のステップ#81
0で20%以下かどうか判定し、20%を超えていれば
ステップ#820で高域と低域をカットし、3〜4KH
zを強調した後、ステップ#825へ進む。
To explain the voice routine, first, in FIG. 20, in step # 800, the ratio of the total number of pixels of the skin color portion within the angle of view calculated by the individual extraction routine described above to all the pixels is calculated. . Then, in step # 805, it is determined whether the ratio is 5% or more,
If it is less than 5%, the process proceeds to step # 825 to end this routine. If 5% or more, next step # 81
It is judged whether it is 20% or less at 0, and if it exceeds 20%, the high range and the low range are cut at step # 820, and 3 to 4 KH.
After emphasizing z, the process proceeds to step # 825.

【0062】20%以下(従って5%〜20%)であれ
ば、ステップ#815で肌色部の撮影距離が10m以上
か否か判定し、10m以上であれば、そのままステップ
#825へ進み、10mより近ければステップ#820
での周波数特性の補正をしてからステップ#825へ進
む。このように音声ルーチンでは、肌色部の画素数が2
0%以上であるか、又は5%〜20%で且つAF距離情
報が10m以内である場合に、人物を意識した撮影又は
撮影時に人物が近くにいると判断し、人物の音声がより
明確に記録できるよう、プリアンプ73の周波数特性の
ピークを3〜4KHzに設定するようにしている。
If it is 20% or less (hence 5% to 20%), it is determined in step # 815 whether or not the photographing distance of the flesh-colored portion is 10 m or more. If it is 10 m or more, the process directly proceeds to step # 825 and 10 m. If closer, step # 820
After correcting the frequency characteristic in step # 825, the process proceeds to step # 825. Thus, in the voice routine, the number of pixels in the skin color part is 2
When it is 0% or more, or 5% to 20% and the AF distance information is within 10 m, it is determined that the person is close to the person when the person is conscious of shooting or when shooting, and the voice of the person becomes clearer. For recording, the peak of the frequency characteristic of the preamplifier 73 is set to 3 to 4 KHz.

【0063】図19に戻って、ステップ#445で前記
音声ルーチンを実行した後、又はステップ#440の判
定の結果がNOのとき、ステップ#450でオートパン
/チルトモードがONか否か判定し、ONであればステ
ップ#455で図21に示すオートパンチルトルーチン
を実行する。
Returning to FIG. 19, after executing the voice routine in step # 445 or when the result of the determination in step # 440 is NO, it is determined in step # 450 whether the auto pan / tilt mode is ON. , ON, the auto pan / tilt routine shown in FIG. 21 is executed in step # 455.

【0064】ここで、図21に示すオートパンチルトル
ーチンを説明する。このオートパンチルトルーチンで
は、人物が画角から外れると、パンニング、チルティン
グモータを駆動し、被写体追尾を行う。このルーチンに
入ると、まずステップ#900で今回個体があるか否か
判定し、あれば画角内に個体があるということなので、
被写体追尾を行う必要がないので、何もせずステップ#
960へ進んで、このルーチンを終了する。尚、この個
体の有無は上述した個体抽出データに基づいて行う。
Now, the auto pan / tilt routine shown in FIG. 21 will be described. In this auto pan / tilt routine, when a person deviates from the angle of view, the panning and tilting motors are driven to track the subject. When this routine is entered, it is first determined in step # 900 whether or not there is an individual this time. If so, it means that the individual is within the angle of view.
No need to do subject tracking, so do nothing and step #
Proceed to 960 to end this routine. The presence or absence of this individual is determined based on the individual extraction data described above.

【0065】さて、ステップ#900で今回個体が存し
ない場合、ステップ#905へ進んで、前回個体がある
か否か判定する。ここで前回個体がなければ被写体追尾
を行うことができないので、ステップ#955で雲台7
6を初期位置へリセットした後、ステップ#960でこ
のルーチンを終了する。前回個体があれば、ステップ#
910で前回の個体位置を判別する。本実施例では図2
2に示すように予め4つのエリア(エリアA1〜エリア
A4)を用意しており、個体位置がこの4つのエリアの
いずれに位置しているか判別する。
If it is determined in step # 900 that the individual does not exist this time, the flow advances to step # 905 to determine whether or not the previous individual exists. Here, if there is no individual last time, it is not possible to perform subject tracking, so in step # 955, the camera platform 7
After resetting 6 to the initial position, this routine ends in step # 960. If there was a previous animal, step #
At 910, the previous individual position is determined. In this embodiment, FIG.
As shown in FIG. 2, four areas (area A1 to area A4) are prepared in advance, and it is determined which of these four areas the individual position is located.

【0066】そこで、ステップ#915、#925、#
935、#945で前回個体の位置をエリアA1からエ
リアA4まで順に調べ、もしエリアA1にあれば、雲台
76を上方向へチルトし(ステップ#920)、エリア
A2にあれば下方向へチルトする(ステップ#93
0)。エリアA3にあれば、左方向へパンニングし(ス
テップ#940)、エリアA4にあれば右方向へパンニ
ングする(ステップ#950)。
Therefore, steps # 915, # 925, #
At 935 and # 945, the position of the previous individual is checked in order from area A1 to area A4. If it is in area A1, tilt the platform 76 upward (step # 920), and if it is in area A2, tilt downward. (Step # 93
0). If it is in the area A3, it is panned to the left (step # 940), and if it is in the area A4, it is panned to the right (step # 950).

【0067】再び図19に戻って、ステップ#455で
前記オートパンチルトルーチンを実行した後、又はステ
ップ#450でオートパンチルトモードでないときはス
テップ#460へ進む。ステップ#460、ステップ#
465は図14においても存するが、図19の場合のオ
ートトリガールーチンでは図23に示すようにステップ
#710で個体無しと判定されたときに、ステップ#7
16でオ−トパン/チルトモ−ドか否か判定し、オ−ト
パン/チルトモ−ドでなければ、録画を一時停止し(ス
テップ#720)、オ−トパン/チルトモ−ドであれ
ば、それが完了したか否か判定し(ステップ#71
8)、完了していれば録画を一時停止し、完了していな
ければ録画を行なう(ステップ#715)。
Returning to FIG. 19 again, after executing the auto pan / tilt routine in step # 455, or when the auto pan / tilt mode is not in step # 450, the process proceeds to step # 460. Step # 460, Step #
Although 465 exists also in FIG. 14, in the auto-trigger routine in the case of FIG. 19, when it is determined that there is no individual in step # 710 as shown in FIG.
In step 16, it is determined whether the mode is auto pan / tilt mode. If the mode is not auto pan / tilt mode, the recording is temporarily stopped (step # 720). If the mode is auto pan / tilt mode, it is determined. It is determined whether or not it has been completed (step # 71
8) If it is completed, the recording is temporarily stopped, and if not completed, the recording is performed (step # 715).

【0068】[0068]

【発明の効果】以上説明したように本発明のビデオカメ
ラでは、人物の肌色部分を検出して測距を行なうことに
なるので、人物の画面内の位置に拘らず人物に合焦する
ことができ、人物を主体とした良好な撮影を実現するこ
とができるという効果がある。また、画面内の位置に拘
らず人物の肌色部分を一定面積になるように制御するの
で、従来の像倍率だけで制御するAPZ(Adbanced Pr
ogram Zoom)に比し人物の大きさを一定に制御しやす
いという効果がある。
As described above, in the video camera of the present invention, since the skin-colored portion of a person is detected and distance measurement is performed, it is possible to focus on the person regardless of the position on the screen of the person. Therefore, there is an effect that it is possible to realize good shooting mainly for a person. Further, since the skin color part of the person is controlled to have a constant area regardless of the position on the screen, APZ (Adbanced Pr
Compared with ogram zoom, it has the effect of making it easier to control the size of a person.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の一部をなすビデオカメラのブ
ロック回路図。
FIG. 1 is a block circuit diagram of a video camera that forms part of an embodiment of the present invention.

【図2】図1に採用されている映像信号を用いたAF制
御のルーチンを示す図。
FIG. 2 is a diagram showing a routine of AF control using a video signal adopted in FIG.

【図3】その説明図。FIG. 3 is an explanatory diagram thereof.

【図4】図1の一部の説明図。FIG. 4 is an explanatory view of a part of FIG.

【図5】本発明を実施したビデオカメラのブロック回路
図。
FIG. 5 is a block circuit diagram of a video camera embodying the present invention.

【図6】その個体抽出の制御ル−チンを示すフロ−チャ
−ト。
FIG. 6 is a flowchart showing a control routine for the individual extraction.

【図7】図6に引き続くフロ−チャ−ト。FIG. 7 is a flowchart following FIG. 6;

【図8】その個体抽出ル−チンの説明図。FIG. 8 is an explanatory view of the individual extraction routine.

【図9】同じく個体抽出ル−チンの説明図。FIG. 9 is an explanatory diagram of an individual extraction routine.

【図10】同じく個体抽出ル−チンの説明図。FIG. 10 is an explanatory view of an individual extraction routine.

【図11】個体が複数ある場合のAF制御ル−チンを示
すフロ−チャ−ト。
FIG. 11 is a flowchart showing an AF control routine when there are a plurality of individuals.

【図12】その説明図。FIG. 12 is an explanatory diagram thereof.

【図13】同じくその説明図。FIG. 13 is an explanatory view of the same.

【図14】図5の実施例のメインル−チンを示すフロ−
チャ−ト。
14 is a flow chart showing the main routine of the embodiment of FIG.
Chart.

【図15】APZル−チンのフロ−チャ−ト。FIG. 15: Flow chart of APZ routine.

【図16】肌色AEル−チンのフロ−チャ−ト。FIG. 16: Flow chart of skin color AE routine.

【図17】オ−トトリガ−ル−チンのフロ−チャ−ト。FIG. 17: Flow chart of auto trigger routine.

【図18】本発明の他の実施例を示すビデオカメラのブ
ロック回路図。
FIG. 18 is a block circuit diagram of a video camera showing another embodiment of the present invention.

【図19】そのメインル−チンを示すフロ−チャ−ト。FIG. 19 is a flowchart showing the main routine.

【図20】音声ル−チンのフロ−チャ−ト。FIG. 20 is a flowchart of an audio routine.

【図21】オ−トパン/チルトル−チンのフロ−チャ−
ト。
FIG. 21: Autopan / tilt routine flow chart
To.

【図22】その説明図。FIG. 22 is an explanatory diagram thereof.

【図23】オ−トトリガ−ル−チンのフロ−チャ−ト。FIG. 23 is a flowchart of an auto trigger routine.

【符号の説明】[Explanation of symbols]

1 レンズ 2 絞り 7、8、9 AGC回路 10、11 ホワイトバランス用増幅器 14 デッキ部 21 制御マイコン 25、38、41 画面分割回路 30 色再現補正回路 34 メモリ 35 人物制御マイコン 44 オ−トトリガ−スイッチ 49 APZスイッチ 50 色補正スイッチ 70 オ−トパン/チルトスイッチ 71 音声f特補正スイッチ 73 プリアンプ 76 雲台 1 lens 2 aperture 7, 8, 9 AGC circuit 10, 11 White balance amplifier 14 deck section 21 Control microcomputer 25, 38, 41 screen division circuit 30 color reproduction correction circuit 34 memory 35 Human control microcomputer 44 Auto trigger switch 49 APZ switch 50 color correction switch 70 Auto pan / tilt switch 71 Voice f special correction switch 73 preamplifier 76 pan head

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐々木 元 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタカメラ株式会社内 (72)発明者 水本 賢次 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタカメラ株式会社内 (72)発明者 久保 広明 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタカメラ株式会社内 (72)発明者 東 義彦 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタカメラ株式会社内 (72)発明者 加藤 武宏 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタカメラ株式会社内 (72)発明者 大塚 博司 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタカメラ株式会社内   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hajime Sasaki             2-3-3 Azuchi-cho, Chuo-ku, Osaka             Kokusai Building Minolta Camera Co., Ltd. (72) Inventor Kenji Mizumoto             2-3-3 Azuchi-cho, Chuo-ku, Osaka             Kokusai Building Minolta Camera Co., Ltd. (72) Inventor Hiroaki Kubo             2-3-3 Azuchi-cho, Chuo-ku, Osaka             Kokusai Building Minolta Camera Co., Ltd. (72) Inventor Yoshihiko Higashi             2-3-3 Azuchi-cho, Chuo-ku, Osaka             Kokusai Building Minolta Camera Co., Ltd. (72) Inventor Takehiro Kato             2-3-3 Azuchi-cho, Chuo-ku, Osaka             Kokusai Building Minolta Camera Co., Ltd. (72) Inventor Hiroshi Otsuka             2-3-3 Azuchi-cho, Chuo-ku, Osaka             Kokusai Building Minolta Camera Co., Ltd.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】映像信号から肌色部分を抽出する肌色部分
抽出回路と、 前記肌色部分抽出回路で抽出された肌色部分が人物部分
と特定できるか否か判定する判定手段と、 人物部分と判定された肌色部分に対し該肌色部分よりや
や広い範囲の測距エリアを形成する測距エリア形成手段
と、 を有するビデオカメラ。
1. A skin color part extraction circuit for extracting a skin color part from a video signal, a judging means for judging whether or not the skin color part extracted by the skin color part extraction circuit can be specified as a human part, and it is judged as a human part. And a distance measurement area forming means for forming a distance measurement area in a slightly wider range than the skin color portion.
【請求項2】前回検出された肌色部分位置の近傍に肌色
部分が検出された際には前記測距エリア形成手段は前記
判定手段による判定を行なうことなく測距エリアを形成
することを特徴とする請求項1に記載のビデオカメラ。
2. A distance measuring area forming means forms a distance measuring area without the judgment by the judging means when a skin color portion is detected in the vicinity of the position of the previously detected skin color portion. The video camera according to claim 1.
【請求項3】映像信号から肌色部分を抽出する肌色部分
抽出回路と、 前記肌色部分抽出回路で抽出された肌色部分が人物部分
と特定できるか否か判定する判定手段と、 ズ−ムレンズを有する撮影レンズと、 人物部分と判定された肌色部分の面積が一定となるよう
に前記ズ−ムレンズを駆動する手段と、 を有するビデオカメラ。
3. A skin color part extraction circuit for extracting a skin color part from a video signal, a determination means for determining whether or not the skin color part extracted by the skin color part extraction circuit can be identified as a human part, and a zoom lens. A video camera, comprising: a taking lens; and means for driving the zoom lens so that the area of a skin-colored portion determined to be a human portion is constant.
JP3216288A 1990-08-01 1991-08-01 Video camera Pending JPH0537940A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP3216288A JPH0537940A (en) 1991-08-01 1991-08-01 Video camera
US08/208,791 US6249317B1 (en) 1990-08-01 1994-03-09 Automatic exposure control apparatus
US08/887,792 US6072526A (en) 1990-10-15 1997-07-03 Image sensing device that can correct colors corresponding to skin in a video signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3216288A JPH0537940A (en) 1991-08-01 1991-08-01 Video camera

Publications (1)

Publication Number Publication Date
JPH0537940A true JPH0537940A (en) 1993-02-12

Family

ID=16686189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3216288A Pending JPH0537940A (en) 1990-08-01 1991-08-01 Video camera

Country Status (1)

Country Link
JP (1) JPH0537940A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003195151A (en) * 2001-12-27 2003-07-09 Minolta Co Ltd Autofocus device
US7113213B2 (en) 1995-08-11 2006-09-26 Tokyo Shibaura Electric Co Image system, solid-state imaging semiconductor integrated circuit device used in the image system, and difference output method used for the image system
US7248300B1 (en) 1999-06-03 2007-07-24 Fujifilm Corporation Camera and method of photographing good image
WO2008026434A1 (en) * 2006-08-30 2008-03-06 Nikon Corporation Image tracking apparatus, image tracking method and camera
JP2009094725A (en) * 2007-10-05 2009-04-30 Fujifilm Corp Imaging method and device
JP2010113129A (en) * 2008-11-06 2010-05-20 Nikon Corp Image tracking device, focusing device, and image capturing apparatus
US7821545B2 (en) 2005-09-26 2010-10-26 Sony Ericsson Mobile Communications Japan, Inc. Portable information terminal and image management program
JP2011015844A (en) * 2009-07-09 2011-01-27 Canon Inc Fundus camera
US8120664B2 (en) 2004-02-06 2012-02-21 Nikon Corporation Digital camera
JP2012208513A (en) * 2012-06-15 2012-10-25 Canon Inc Imaging apparatus and control method thereof
JP2013500544A (en) * 2009-07-24 2013-01-07 ディジマーク コーポレイション Improved audio / video method and system
JP2014061435A (en) * 2013-12-04 2014-04-10 Canon Inc Ophthalmologic apparatus and control method thereof
JP2015152484A (en) * 2014-02-17 2015-08-24 キヤノン株式会社 Distance metering device, imaging device, distance metering method and program

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7113213B2 (en) 1995-08-11 2006-09-26 Tokyo Shibaura Electric Co Image system, solid-state imaging semiconductor integrated circuit device used in the image system, and difference output method used for the image system
US7248300B1 (en) 1999-06-03 2007-07-24 Fujifilm Corporation Camera and method of photographing good image
JP2003195151A (en) * 2001-12-27 2003-07-09 Minolta Co Ltd Autofocus device
US8120664B2 (en) 2004-02-06 2012-02-21 Nikon Corporation Digital camera
US8830343B2 (en) 2004-02-06 2014-09-09 Nikon Corporation Digital camera
US8269875B2 (en) 2005-09-26 2012-09-18 Sony Mobile Communications Japan, Inc. Portable information terminal and image management program
US7821545B2 (en) 2005-09-26 2010-10-26 Sony Ericsson Mobile Communications Japan, Inc. Portable information terminal and image management program
WO2008026434A1 (en) * 2006-08-30 2008-03-06 Nikon Corporation Image tracking apparatus, image tracking method and camera
US8154605B2 (en) 2006-08-30 2012-04-10 Nikon Corporation Image tracking apparatus, image tracking method and camera for improved recognition of a target object
JP2009094725A (en) * 2007-10-05 2009-04-30 Fujifilm Corp Imaging method and device
US8106995B2 (en) 2007-10-05 2012-01-31 Fujifilm Corporation Image-taking method and apparatus
JP4518131B2 (en) * 2007-10-05 2010-08-04 富士フイルム株式会社 Imaging method and apparatus
JP2010113129A (en) * 2008-11-06 2010-05-20 Nikon Corp Image tracking device, focusing device, and image capturing apparatus
JP2011015844A (en) * 2009-07-09 2011-01-27 Canon Inc Fundus camera
US8545019B2 (en) 2009-07-09 2013-10-01 Canon Kabushiki Kaisha Fundus camera
JP2013500544A (en) * 2009-07-24 2013-01-07 ディジマーク コーポレイション Improved audio / video method and system
JP2012208513A (en) * 2012-06-15 2012-10-25 Canon Inc Imaging apparatus and control method thereof
JP2014061435A (en) * 2013-12-04 2014-04-10 Canon Inc Ophthalmologic apparatus and control method thereof
JP2015152484A (en) * 2014-02-17 2015-08-24 キヤノン株式会社 Distance metering device, imaging device, distance metering method and program

Similar Documents

Publication Publication Date Title
US6249317B1 (en) Automatic exposure control apparatus
CN1992820B (en) Digital camera with face detection function for facilitating exposure compensation
KR100196305B1 (en) Automatic white balance adjusting apparatus for white balance adjusting on the basis of color information abtained from ccd
US8514320B2 (en) Electronic camera and focus control method which minimizes the time required for adjusting a focus
US7925047B2 (en) Face importance level determining apparatus and method, and image pickup apparatus
US8130284B2 (en) Imaging apparatus and method for controlling white balance
US20090073287A1 (en) Image capturing device
JPH0537940A (en) Video camera
KR100781169B1 (en) Camera
JPH0698253A (en) Image pickup device
US20040179111A1 (en) Imaging device
JPH0515587U (en) Video equipment
JP4975134B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2817820B2 (en) Exposure control device for video camera
JPH05122599A (en) Exposure controller for video camera
JP4301977B2 (en) Imaging method and imaging apparatus
WO2022209478A1 (en) Information processing device, information processing method, and information processing program
JP2532968B2 (en) Color video camera
JP3181365B2 (en) Automatic focus detection device
JP2614542B2 (en) White balance adjustment device
JPH05219431A (en) Exposure controller for video camera
JP2009065382A (en) Imaging apparatus
JP2936824B2 (en) Exposure control device for video camera
JP2003107336A (en) Image pickup device
JPH0553041A (en) Lens controller