JP2000193420A - Eye position detecting device - Google Patents
Eye position detecting deviceInfo
- Publication number
- JP2000193420A JP2000193420A JP11243942A JP24394299A JP2000193420A JP 2000193420 A JP2000193420 A JP 2000193420A JP 11243942 A JP11243942 A JP 11243942A JP 24394299 A JP24394299 A JP 24394299A JP 2000193420 A JP2000193420 A JP 2000193420A
- Authority
- JP
- Japan
- Prior art keywords
- nose
- area
- face
- eye
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、眼の位置検出装置
に係り、特に、鼻の角度及び向き等に影響されずに安定
して眼の位置を検出することができる眼の位置検出装置
に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eye position detecting device, and more particularly to an eye position detecting device capable of stably detecting an eye position without being affected by the angle and direction of a nose. .
【0002】[0002]
【従来の技術及び発明が解決しようとする課題】特開昭
61−77703号公報には、車両運転者の目の位置認
識装置が記載されている。この装置では、鼻の輪郭を明
確に出すために、斜め横方向からドライバーの顔を撮影
し、撮影したドライバーの顔画像上で、鼻を探索する鼻
探索領域をある領域に固定し、鼻探索領域内で鼻のパタ
ーンマッチングにより、鼻尖の位置を検出する。そし
て、検出された鼻尖の位置から鼻筋を検出し、検出され
た鼻筋の傾きを算出し、鼻尖の位置及び鼻筋の傾きか
ら、瞳の中心位置を算出する。2. Description of the Related Art Japanese Patent Laying-Open No. 61-77703 discloses a device for recognizing a position of an eye of a vehicle driver. In this device, in order to clearly outline the nose, the driver's face is photographed obliquely from the lateral direction, and a nose search area for searching the nose is fixed to a certain area on the photographed driver's face image, and the nose search is performed. The position of the nose tip is detected by pattern matching of the nose within the region. Then, the nose muscle is detected from the detected position of the nose tip, the inclination of the detected nose muscle is calculated, and the center position of the pupil is calculated from the position of the nose tip and the inclination of the nose muscle.
【0003】また、特開昭63−311105号公報に
記載されている車両乗員の乗車位置認識装置は、ドライ
バーの座席状態検出手段を用いて、座席の前後の位置及
び姿勢を検出し、検出された座席の位置及び姿勢からド
ライバーの顔の位置を推定し、鼻を探索するための所定
領域を設定している。A vehicle occupant riding position recognition device described in Japanese Patent Application Laid-Open No. 63-311105 detects the front and rear positions and postures of a seat using a driver's seat state detecting means, and the detected position is detected. The position of the driver's face is estimated from the seat position and attitude, and a predetermined area for searching for a nose is set.
【0004】上記従来の車両運転者の目の位置認識装置
では、ドライバーの顔面に対して、かなり浅い角度、す
なわち真横に近い角度でドライバーの顔を撮影してい
る。従って、ドライバーの座る前後の位置によって、鼻
の位置も前後に変化する。このため、鼻探索領域の位置
を固定した場合、鼻探索領域内に必ず鼻が存在するとは
限らないので、パターンマッチングにより鼻尖の位置を
検出するのが困難な場合がある。また、鼻の形は個人差
によって大きく異なり、顔の向き、すなわち撮影する角
度により鼻の形は大きく変化する。このため、斜め横か
ら撮影した赤外画像の場合等には、鼻の左側が暗くなっ
て、エッジが不明瞭になる場合があり、エッジが不鮮明
になると検出する鼻の形に影響する。パターンマッチン
グでは、鼻の形の変化に対応することができず、鼻の形
の変化に対応するためには、鼻のパターンを変化する鼻
の形に応じて多種類用意する必要があり、この方法は現
実的ではない。[0004] In the above-mentioned conventional apparatus for recognizing the position of the eyes of a vehicle driver, the driver's face is photographed at a considerably shallow angle with respect to the driver's face, that is, an angle close to the side. Therefore, the position of the nose also changes back and forth depending on the position before and after the driver sits. For this reason, when the position of the nose search area is fixed, the nose does not always exist in the nose search area, and it may be difficult to detect the position of the nose tip by pattern matching. In addition, the shape of the nose greatly differs depending on individual differences, and the shape of the nose greatly changes depending on the direction of the face, that is, the angle at which the image is taken. For this reason, in the case of an infrared image photographed obliquely from the side, the left side of the nose may be dark and the edge may be unclear, and the unclear edge may affect the shape of the detected nose. In pattern matching, it is not possible to respond to changes in the shape of the nose, and in order to respond to changes in the shape of the nose, it is necessary to prepare various types of nose patterns according to the shape of the changing nose. The method is not practical.
【0005】また、上記の車両乗員の乗車位置認識装置
は、座席状態検出手段が必要になるので、コスト高にな
る、という問題がある。また、ドライバーの個人差によ
って、座席での着座のし方、背もたれに対する姿勢も異
なるので、座席の位置、及び姿勢からドライバーの顔の
位置を推定する場合には、高い精度が得られない、とい
う問題がある。[0005] Further, the above-mentioned device for recognizing the occupant's boarding position has a problem that the cost is high because a seat state detecting means is required. In addition, the method of sitting on the seat and the posture with respect to the backrest differ depending on the individual difference of the driver, so that when estimating the position of the driver's face from the position of the seat and the posture, high accuracy cannot be obtained. There's a problem.
【0006】本発明は、上記問題点を解決するためにな
されたもので、斜め横から撮影した赤外画像等において
も鼻の存在領域を検出して眼の位置を検出することがで
きる眼の位置検出装置を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is possible to detect the position of the eye by detecting the region where the nose is present even in an infrared image or the like taken obliquely from the side. It is an object to provide a position detecting device.
【0007】[0007]
【課題を解決するための手段】上記目的を達成するため
に、本発明は、顔を斜め前方から撮影した画像、または
斜め前方から光を受けた顔を撮影した画像に基づいて眼
の位置を検出する眼の位置検出装置であって、入力され
た画像から顔の領域を抽出する顔領域抽出手段と、抽出
された顔の領域から各々異なるしきい値を用いて左側エ
ッジと右側エッジとを抽出し、抽出した左側エッジ及び
右側エッジに基づいた領域を鼻筋の候補として抽出する
鼻筋候補抽出手段と、抽出された鼻筋の候補から鼻筋を
抽出する鼻筋抽出手段と、抽出された鼻筋の位置に基づ
いて眼の存在領域を設定する眼領域設定手段と、設定さ
れた眼の存在領域から眼の位置を検出する眼位置検出手
段と、を含んで構成したものである。SUMMARY OF THE INVENTION In order to achieve the above object, the present invention provides a method for determining the position of an eye based on an image of a face taken diagonally from the front or an image of a face received light diagonally from the front. An eye position detecting apparatus for detecting, comprising: a face area extracting unit that extracts a face area from an input image; and a left edge and a right edge using different thresholds from the extracted face area. A nose ridge candidate extracting means for extracting a region based on the extracted left and right edges as a nose ridge candidate, a nose ridge extracting means for extracting a nose ridge from the extracted nose ridge candidates, and a position of the extracted nose ridge. An eye area setting unit configured to set an eye existence area based on the eye area detection unit that detects an eye position from the set eye existence area.
【0008】本発明では、顔を斜め前方から撮影した画
像、または斜め前方から光を受けた顔を撮影した画像に
基づいて眼の位置を検出する。顔を斜め前方から撮影す
る場合には、顔はいずれの方向から光を受けてもよく、
斜め前方から光を受けた顔を撮影する場合は、顔の真正
面や斜め前方等いずれの方向から撮影してもよい。これ
によって、鼻筋の左側エッジと右側エッジとが異なるよ
うに撮影される。顔を斜め前方から撮影するときの角
度、及び光の角度は、顔の正面を0°、顔の真横を90
°とすると、20°〜70°が適当である。顔領域抽出
手段は、入力された画像から顔の領域を抽出する。この
顔の領域は、入力された顔画像を適当な輝度しきい値に
より2値画像に変換し、変換された2値画像を用いて抽
出することができる。In the present invention, the position of the eyes is detected based on an image of a face photographed diagonally from the front or an image of a face photographed diagonally from the front. When shooting a face diagonally from the front, the face may receive light from any direction,
When capturing a face that receives light obliquely from the front, the image may be captured from any direction such as directly in front of the face or obliquely forward. As a result, the photographing is performed such that the left edge and the right edge of the nose line are different. The angle at which the face is photographed obliquely from the front and the angle of the light are 0 ° in front of the face and 90 ° just beside the face.
In the case of °, 20 ° to 70 ° is appropriate. The face area extracting means extracts a face area from the input image. This face area can be extracted by converting the input face image into a binary image using an appropriate luminance threshold, and using the converted binary image.
【0009】鼻筋候補抽出手段は、抽出された顔の領域
から各々異なるしきい値を用いて左側エッジと右側エッ
ジとを抽出し、抽出した左側エッジ及び右側エッジに基
づいた領域を鼻筋の候補として抽出する。The nose line candidate extracting means extracts a left edge and a right edge from each of the extracted face regions using different threshold values, and uses the region based on the extracted left edge and right edge as a nose line candidate. Extract.
【0010】この場合、抽出された顔の領域内で、所定
の領域を鼻筋探索領域として設定して鼻筋の候補を抽出
するのが効果的である。この所定の領域は、顔の撮影方
向または顔が光を受ける方向に応じて設定することがで
き、顔に向かって斜め右前方から顔を撮影した画像、ま
たは顔に向かって斜め右前方から光を受けた顔を撮影し
た画像に基づいて眼の位置を検出する場合には、顔の領
域の向かって左側半分の領域を鼻筋探索領域として設定
することができる。また、鼻筋の候補は、左側エッジ及
び右側エッジの対を検出し、エッジの対が存在する領域
を鼻筋の候補として抽出することができる。In this case, it is effective to set a predetermined area as a nose ridge search area in the extracted face area and extract nose ridge candidates. This predetermined area can be set according to the direction in which the face is photographed or the direction in which the face receives light. When the position of the eyes is detected based on the image of the face that has been received, the area on the left half of the face area can be set as the nose muscle search area. In addition, a nose ridge candidate can be detected by detecting a pair of a left edge and a right edge, and extracting a region where the edge pair exists as a nose ridge candidate.
【0011】本発明において、左側エッジと右側エッジ
とを抽出する際のしきい値を異ならせたのは、顔を斜め
前方から撮影しているか、または斜め前方から光を受け
た顔を撮影していることから鼻筋の左右のエッジ強度が
異なるためである。顔に向かって斜め右前方から顔を撮
影した場合、または顔に向かって斜め右前方から光を受
けた顔を撮影した場合には、左側エッジに対するしきい
値<右側エッジに対するしきい値になる。In the present invention, the threshold values for extracting the left edge and the right edge are made different from each other because the face is photographed obliquely from the front or the face photographed obliquely from the front. This is because the left and right edge intensities of the nose muscles are different. When the face is photographed diagonally right front toward the face, or when the face is photographed obliquely right front facing the face, the threshold value for the left edge is smaller than the threshold value for the right edge. .
【0012】鼻筋抽出手段は、抽出された鼻筋の候補か
ら、例えば、候補領域の縦の長さに関する条件を用い
て、最も確からしい候補を鼻筋として抽出する。条件を
満足しない場合は、鼻筋検出不可とする。候補領域の縦
の長さに関する条件を用いて抽出する場合には、適当な
しきい値より長い候補を選択し、選択した候補の中から
長さの最も長いものを鼻筋として抽出する。The nose ridge extracting means extracts the most probable nose ridge from the extracted nose ridge candidates using, for example, a condition relating to the vertical length of the candidate region. If the condition is not satisfied, the nose line cannot be detected. When extracting using the condition regarding the vertical length of the candidate area, a candidate longer than an appropriate threshold is selected, and the longest one of the selected candidates is extracted as a nose line.
【0013】眼領域設定手段は、抽出された鼻筋の位置
に基づいて眼の存在領域を設定する。眼の存在領域は、
抽出された鼻筋を線分と仮定し、抽出された鼻筋の中点
から眼が存在する領域を予想することにより設定するこ
とができる。The eye area setting means sets an eye existence area based on the position of the extracted nose muscle. The existence area of the eye is
It can be set by assuming the extracted nose muscle as a line segment and estimating the region where the eye exists from the middle point of the extracted nose muscle.
【0014】眼位置検出手段は、設定された眼の存在領
域から眼の位置を検出する。The eye position detecting means detects the position of the eye from the set eye existence region.
【0015】なお、本発明において鼻筋が検出できなか
った場合には、顔の領域全体で眼の位置の検出を行えば
よい。In the present invention, when the nose muscle cannot be detected, the position of the eye may be detected in the entire face area.
【0016】[0016]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0017】本実施の形態は、図1に示すように、ドラ
イバーの顔をドライバーに向かって右斜め前方から撮影
するカメラ10、画像処理用のコンピュータ、及びコン
ピュータに接続されて抽出された2値化画像等を表示す
るCRTで構成された表示装置32によって構成されて
いる。In this embodiment, as shown in FIG. 1, a camera 10 for photographing a driver's face from a diagonally right front toward the driver, a computer for image processing, and a binary image extracted by being connected to the computer. It is configured by a display device 32 configured by a CRT for displaying a structured image and the like.
【0018】画像処理用のコンピュータは、カメラ10
から入力された画像信号をディジタル変換するアナログ
−ディジタル(A/D)変換器12、CPU14、眼位
置検出処理ルーチンのプログラムが記憶されたROM1
6、RAM18、画像データを記憶する画像メモリ2
0、輝度平均値を記憶する平均値レジスタ22、以下で
説明する各種の度数分布を表すヒストグラムを記憶する
ヒストグラムメモリ24、顔領域の座標を記憶する顔領
域座標レジスタ26、鼻筋探査領域の座標を記憶する鼻
筋探査領域座標レジスタ28、表示装置32に接続され
た出力ポート30、輝度平均値の差、輝度平均値の総和
の値及び0等を記憶する画像メモリ34、及びこれらを
接続するコントロールバスやデータバス等のバス36で
構成されている。The computer for image processing is a camera 10
Analog-to-digital (A / D) converter 12 for digitally converting an image signal input from the CPU, a CPU 14, and a ROM 1 storing a program for an eye position detection processing routine.
6, RAM 18, image memory 2 for storing image data
0, an average value register 22 for storing an average luminance value, a histogram memory 24 for storing histograms representing various frequency distributions described below, a face area coordinate register 26 for storing the coordinates of the face area, and coordinates of the nose muscle search area. Nasal muscle search area coordinate register 28 to be stored, output port 30 connected to display device 32, image memory 34 to store the difference between the average brightness values, the sum of the average brightness values and 0, and a control bus connecting these And a bus 36 such as a data bus.
【0019】次に、本実施の形態の眼位置検出処理ルー
チンについて図2を参照して説明する。Next, an eye position detection processing routine according to this embodiment will be described with reference to FIG.
【0020】カメラ10から入力された画像信号は、A
/D変換器12によってディジタルの画像データに変換
されて画像メモリ20に記憶されている。The image signal input from the camera 10 is A
The image data is converted into digital image data by the / D converter 12 and stored in the image memory 20.
【0021】ステップ100において、画像メモリ20
に記憶されている顔画像から矩形状の顔領域の対角線の
両端座標で表される顔領域座標(x1 ,y1 ),(x
2 ,y 2 )を算出し、算出した顔領域座標を顔領域レジ
スタ26に記憶すると共に、顔領域座標から鼻筋探索領
域座標(x1 ,y1 ),(x0 ,y2 )を算出し鼻筋探
索領域座標レジスタ28に記憶する。ただし、x1 <x
0 <x2 、y1 <y2 、x0 =(x1 +x2 )/2であ
る。In step 100, the image memory 20
Of the diagonal of the rectangular face area from the face image stored in
Face area coordinates (x1 , Y1 ), (X
Two , Y Two ) Is calculated, and the calculated face area coordinates are stored in the face area register.
And a nose line search area based on the face area coordinates.
Area coordinates (x1 , Y1 ), (X0 , YTwo ) To calculate the nose
It is stored in the search area coordinate register 28. Where x1 <X
0 <XTwo , Y1 <YTwo , X0 = (X1 + XTwo ) / 2
You.
【0022】ステップ102では、画像メモリ20に記
憶されている顔画像上の算出された鼻筋探索領域座標で
示される領域内に対して、各々異なるしきい値を用いて
鼻筋探索領域の左側エッジと右側エッジとを抽出し、抽
出した左側エッジ及び右側エッジに基づいた複数の領域
を鼻筋の候補として抽出する。ステップ104では、抽
出された鼻筋の候補から鼻筋の候補の縦方向の長さに基
づいて鼻筋を選択し、ステップ106において鼻筋が選
択されたか否か、すなわち鼻筋が検出されたか否かを判
断する。In step 102, the left edge of the nose ridge search area is set using different thresholds in the area indicated by the calculated nose ridge search area coordinates on the face image stored in the image memory 20. A right edge is extracted, and a plurality of regions based on the extracted left edge and right edge are extracted as candidates for a nose line. In step 104, a nose ridge is selected from the extracted nose ridge candidates based on the vertical length of the nose ridge candidate, and it is determined whether or not the nose ridge is selected in step 106, that is, whether or not a nose ridge is detected. .
【0023】ステップ106で鼻筋が検出されていない
と判断された場合には、ステップ108でステップ10
0において検出された画像メモリ20に記憶されている
顔画像上の顔領域内で眼の位置を検出する処理を行う。
一方、ステップ106で鼻筋が検出されたと判断された
場合には、ステップ110で選択された鼻筋の中点を検
出し、ステップ112で鼻筋の中点に基づいて眼の存在
領域(眼領域)を設定し、ステップ114で設定された
眼領域から眼の位置を検出する。If it is determined at step 106 that the nose muscle has not been detected, then at step 108
0, a process of detecting the position of the eye in the face area on the face image stored in the image memory 20 detected.
On the other hand, if it is determined in step 106 that the nose muscle has been detected, the midpoint of the nose muscle selected in step 110 is detected, and in step 112 the eye existence region (eye region) is determined based on the nose muscle midpoint. Then, the eye position is detected from the eye region set in step 114.
【0024】図3は図2のステップ100の詳細を示す
もので、ステップ120において、顔画像(グレー画
像)の各画素の輝度値を予め定められた適当なしきい値
と比較することにより、顔画像をラベル1、0が付され
た2値画像に変換する。次のステップ122では、図4
に示すように、2値画像のラベルをXY平面上のX軸、
及びY軸へ投影したヒストグラムを求め、ステップ12
4において求めたヒストグラムをヒストグラムメモリ2
4に記憶する。このヒストグラムは、あるX座標を通り
かつY軸に平行な直線上に位置する画素のラベルを積算
した値を度数とすることにより得られる。なお、Y軸に
ついても同様であり、あるY座標を通りかつX軸に平行
な直線上に位置する画素のラベルを積算した値を度数と
することにより得られる。FIG. 3 shows the details of step 100 in FIG. 2. In step 120, the luminance value of each pixel of the face image (gray image) is compared with a predetermined appropriate threshold value, thereby obtaining the face value. The image is converted into a binary image with labels 1 and 0. In the next step 122, FIG.
As shown in the figure, the label of the binary image is represented by the X axis on the XY plane
And the histogram projected on the Y axis is determined, and step 12
4 is stored in the histogram memory 2
4 is stored. This histogram is obtained by using a value obtained by integrating labels of pixels located on a straight line passing through a certain X coordinate and parallel to the Y axis as a frequency. Note that the same applies to the Y-axis, which is obtained by calculating a value obtained by integrating labels of pixels located on a straight line that passes through a certain Y coordinate and is parallel to the X-axis.
【0025】ステップ126では、図4に示すように、
X軸上でのヒストグラムの度数のピーク値を算出する。
Y軸についても同様に度数のピーク値を算出する。ステ
ップ128では、図4に示すように、X軸上で度数がピ
ークの座標から、しきい値と度数とを比較しながら左右
へ進んでいく過程で、しきい値を横切った座標より度数
が大きいX座標x1 ,x2 を顔領域座標として抽出す
る。Y軸に関しても同様な方法で顔領域座標y1 ,y2
を抽出する。これによって、顔領域座標(x1 ,y
1 ),(x2 ,y2 )が算出される。算出された顔領域
座標は、ステップ130において顔領域座標レジスタ2
6に記憶される。In step 126, as shown in FIG.
The peak value of the frequency of the histogram on the X axis is calculated.
The peak value of the frequency is similarly calculated for the Y axis. In step 128, as shown in FIG. 4, in the process of moving left and right from the coordinates of the peak on the X axis while comparing the threshold with the frequency from the coordinates of the peak, the frequency is calculated from the coordinates crossing the threshold. Large X coordinates x 1 and x 2 are extracted as face area coordinates. For the Y axis, face area coordinates y 1 and y 2 are obtained in the same manner.
Is extracted. Thereby, the face area coordinates (x 1 , y
1 ) and (x 2 , y 2 ) are calculated. The calculated face area coordinates are stored in the face area coordinate register 2 in step 130.
6 is stored.
【0026】ステップ132において、顔領域座標から
顔の向かって左半分の領域に属する座標を鼻筋探索領域
座標(x1 ,y1 ),(x0 ,y2 )として選択し、ス
テップ134において選択された鼻筋探索領域座標が鼻
筋探索領域座標レジスタ28に記憶される。In step 132, the coordinates belonging to the left half area of the face from the face area coordinates are selected as the nose ridge search area coordinates (x 1 , y 1 ), (x 0 , y 2 ). The obtained nose ridge search area coordinates are stored in the nose ridge search area coordinate register 28.
【0027】次に、図2のステップ102の鼻筋候補抽
出処理の詳細について説明する。鼻筋候補抽出処理は、
図5に示す左側エッジ抽出処理ルーチン、図6に示す右
側エッジ抽出処理ルーチン、図7に示す左右エッジの対
抽出処理ルーチンの3ブロックに分けられるので、各々
について説明する。Next, details of the nose ridge candidate extraction process in step 102 of FIG. 2 will be described. The nose ridge candidate extraction process
The processing is divided into three blocks: a left edge extraction processing routine shown in FIG. 5, a right edge extraction processing routine shown in FIG. 6, and a left and right edge pair extraction processing routine shown in FIG.
【0028】図5の左側エッジ抽出処理ルーチンでは、
図8(A)に示すように、鼻筋探索領域座標レジスタ2
8に記憶されている鼻筋探索領域座標に基づき、画像メ
モリ20に記憶されている顔画像上の鼻筋探索領域上で
顔の横方向に隣接して連続するように左側から右側に向
かって設定された1画素の矩形領域1、矩形領域2の2
個の矩形領域を2組備えた矩形のウインドウ40を用い
る。このウインドウ40は、矩形領域1及び矩形領域2
からなる1組の矩形領域を顔の横方向に1画素分左方向
にずらして構成されており、鼻筋探索領域上で1画素ず
つ右方向にずらしてスキャンすることを上から下方向に
1画素ずつずらしてスキャンすることにより左側エッジ
が抽出される。In the left edge extraction processing routine of FIG.
As shown in FIG. 8A, the nose ridge search area coordinate register 2
8 is set from the left side to the right side so as to be continuous adjacent to the face in the lateral direction on the nose line search area on the face image stored in the image memory 20 based on the nose line search area coordinates stored in the image memory 20. 1 pixel of rectangular area 1 and 2 of rectangular area 2
A rectangular window 40 having two sets of rectangular areas is used. The window 40 includes a rectangular area 1 and a rectangular area 2
Is shifted leftward by one pixel in the horizontal direction of the face, and scanning is performed by shifting one pixel to the right on the nose line search area by one pixel from top to bottom. The left edge is extracted by scanning while shifting each other.
【0029】図5のステップ140では、各矩形領域
1、2内の全画素の輝度値を積算することにより輝度積
算値を各々算出する。ステップ142では、矩形領域1
内の輝度積算値の和を矩形領域1内の全画素数で除算す
ると共に、矩形領域2内の輝度積算値の和を矩形領域2
内の全画素数で除算することにより、矩形領域1、2内
の輝度平均値P1,P2を算出し、輝度平均値レジスタ
22にウインドウ40の位置に応じて保存する。In step 140 of FIG. 5, the luminance integrated values are calculated by integrating the luminance values of all the pixels in each of the rectangular areas 1 and 2. In step 142, the rectangular area 1
Is divided by the total number of pixels in the rectangular area 1, and the sum of the luminance integrated values in the rectangular area 2 is divided by the rectangular area 2.
The luminance average values P1 and P2 in the rectangular areas 1 and 2 are calculated by dividing by the total number of pixels in the pixel area and stored in the luminance average value register 22 according to the position of the window 40.
【0030】次のステップ144では、隣接する矩形領
域1、2内の輝度平均値の差(P1−P2)の各々と、
しきい値K1とを比較し、P1−P2>K1の条件を満
足するか否かを判断する。In the next step 144, each of the differences (P1-P2) between the average brightness values in the adjacent rectangular areas 1 and 2 is calculated.
It is compared with the threshold value K1 to determine whether or not the condition of P1-P2> K1 is satisfied.
【0031】ステップ144で上記の条件を満足すると
判断されたとき、すなわち隣接する矩形領域内の輝度平
均値の差が大きいことから鼻筋候補の左側エッジである
と判断される場合には、ステップ146において、顔画
像が記憶されている画像メモリとは別の画像メモリ34
へ、輝度平均値の差(P1−P2)の値を書き込む。書
き込むべき座標は、図8の矩形領域1の中で最も上に位
置する画素の座標とする。同時にステップ148におい
てヒストグラムメモリ24に記憶されている輝度平均値
の差の度数分布を表すヒストグラムの差(P1−P2)
に対する度数を1増加する。If it is determined in step 144 that the above condition is satisfied, that is, if it is determined that the left edge is a candidate for a nose line because of a large difference between the average brightness values in adjacent rectangular areas, step 146 is performed. , An image memory 34 different from the image memory in which the face image is stored.
Then, the value of the difference (P1−P2) between the average brightness values is written in. The coordinates to be written are the coordinates of the uppermost pixel in the rectangular area 1 in FIG. At the same time, in step 148, the histogram difference (P1-P2) representing the frequency distribution of the difference between the average brightness values stored in the histogram memory 24.
Is increased by one.
【0032】ステップ144において上記の条件を満足
しないと判断されたとき、すなわち隣接する矩形領域
1、2間の輝度平均値の差が小さい場合には、左側エッ
ジが存在しないと推定してステップ150において、顔
画像が記憶されている画像メモリとは別の画像メモリ3
4へ0を書き込む。書き込むべき座標は、図8(A)の
矩形領域1の中で最も上に位置する画素の座標とする。
同時に、ステップ152においてヒストグラムメモリ2
4の差が0の度数を1増加する。If it is determined in step 144 that the above condition is not satisfied, that is, if the difference between the average luminance values of the adjacent rectangular areas 1 and 2 is small, it is estimated that the left edge does not exist and step 150 is performed. , An image memory 3 different from the image memory in which the face image is stored.
Write 0 to 4. The coordinates to be written are the coordinates of the uppermost pixel in the rectangular area 1 in FIG.
At the same time, in step 152, the histogram memory 2
A difference of 4 increases the frequency of 0 by 1.
【0033】なお、輝度平均値の差(P1−P2)の値
及び0は、図8(A)のウインドウの中心座標に書き込
むべきであるが、この例では便宜上、左上の画素として
いる。The value of the difference between the average luminance values (P1−P2) and 0 should be written in the center coordinates of the window in FIG. 8A, but in this example, it is the upper left pixel for convenience.
【0034】次のステップ154では、鼻筋探索領域の
画像全面についてステップ140〜ステップ152の処
理が終了したか否かを判断し、処理が終了していない場
合にはウインドウを1画素ずらしてステップ140に戻
り、上記の処理を繰り返す。In the next step 154, it is determined whether or not the processing of steps 140 to 152 has been completed for the entire image of the nose ridge search area. If the processing has not been completed, the window is shifted by one pixel and step 140 is performed. And the above processing is repeated.
【0035】上記の処理を、矩形のウインドウ40を1
画素ずつずらしながら、入力画像である鼻筋探索領域の
画像全体に対して行うことにより、輝度平均値の差が書
き込まれた画像及びヒストグラムが得られる。The above processing is performed by setting the rectangular window 40 to 1
By performing the process on the entire image of the nose ridge search area, which is the input image, while shifting each pixel, an image in which the difference in the average luminance value is written and a histogram are obtained.
【0036】ステップ154で鼻筋探索領域の画像全面
について処理が終了していると判断された場合は、ステ
ップ156においてヒストグラムメモリに記憶されてい
るヒストグラムに基づいて輝度平均値の差(P1−P
2)に対するしきい値K2を算出する。すなわち、ヒス
トグラムの上位の度数から度数を積算し、積算した値が
全度数に対して所定割り合いに到達した際の差(P1−
P2)の値をしきい値K2として設定する。この全度数
に対する所定割り合いは、予めシミュレーション等によ
って設定される。If it is determined in step 154 that the processing has been completed for the entire image of the nose ridge search area, in step 156 the difference between the average brightness values (P1-P) is determined based on the histogram stored in the histogram memory.
Calculate the threshold value K2 for 2). That is, the frequencies are integrated from the higher frequencies in the histogram, and the difference (P1-
The value of P2) is set as the threshold value K2. The predetermined ratio to the total frequency is set in advance by simulation or the like.
【0037】ステップ158では、各画素の輝度平均値
の差(P1−P2)としきい値K2とを比較して(P1
−P2)>K2の条件を満足するか否かを判断する。In step 158, the difference (P1-P2) between the average luminance values of the pixels is compared with the threshold value K2 (P1
-P2)> It is determined whether or not the condition of K2 is satisfied.
【0038】上記条件を満足する画素に対してはステッ
プ160において出力するときの値を1とし、上記条件
を満足しない画素に対してはステップ162において出
力するときの値を0とするようにラベリングを行い2値
化を行う。上記の2値化処理はステップ164で鼻筋探
索領域の画像全面について処理が終了したと判断される
まで継続される。そして、鼻筋探索領域の画像全面につ
いて処理を行うことにより鼻筋の左側のエッジに相当す
る白/黒エッジが抽出される。左側のエッジ抽出処理に
よる2値画像の例を図10(A)に示す。Labeling is performed so that the value output at step 160 is 1 for pixels satisfying the above conditions, and the value output at step 162 is 0 for pixels not satisfying the above conditions. To perform binarization. The above-described binarization processing is continued until it is determined in step 164 that the processing has been completed for the entire image of the nose ridge search area. Then, by performing processing on the entire image of the nose ridge search region, a white / black edge corresponding to the left edge of the nose ridge is extracted. FIG. 10A shows an example of a binary image obtained by the left edge extraction processing.
【0039】次に、図6に示す右側エッジ抽出処理ルー
チンについて説明する。Next, the right edge extraction processing routine shown in FIG. 6 will be described.
【0040】図6の右側エッジ抽出処理ルーチンでは、
図8(B)に示すように、鼻筋探索領域座標レジスタ2
8に記憶されている鼻筋探索領域座標に基づき、画像メ
モリ20に記憶されている顔画像上の鼻筋探索領域上で
顔の横方向に隣接して連続するように左側から右側に向
かって設定された1画素の矩形領域3、及び4画素の矩
形領域4からなる2個の矩形領域を4組備えた矩形のウ
インドウ50を用いる。このウインドウ50は、矩形領
域3及び矩形領域4からなる1組の矩形領域を顔の横方
向に順に1画素ずつ左方向にずらして構成されており、
鼻筋探索領域上で1画素ずつ右方向にずらしてスキャン
することを下方向に1画素ずつずらしてスキャンするこ
とにより右側エッジが抽出される。In the right edge extraction processing routine shown in FIG.
As shown in FIG. 8B, the nose ridge search area coordinate register 2
8 is set from the left side to the right side so as to be continuous adjacent to the face in the lateral direction on the nose line search area on the face image stored in the image memory 20 based on the nose line search area coordinates stored in the image memory 20. A rectangular window 50 provided with four sets of two rectangular regions including a rectangular region 3 of one pixel and a rectangular region 4 of four pixels is used. The window 50 is configured by shifting a set of rectangular areas including a rectangular area 3 and a rectangular area 4 one pixel at a time in the horizontal direction of the face to the left.
The right edge is extracted by scanning the nose muscle search area by shifting it one pixel to the right in the right direction and by scanning it one pixel down in the downward direction.
【0041】右側エッジ抽出処理に使用する矩形のウイ
ンドウ50が、左側エッジ抽出処理に使用する矩形のウ
インドウ40と形状が異なるのは、ドライバーの顔をド
ライバーに向かって右斜め前方から撮影しているためで
あり、左側エッジが右側エッジに比較して弱いことから
左側エッジについては微小面積で輝度平均の差を演算し
てエッジを抽出し易くしている。The difference between the rectangular window 50 used for the right edge extraction processing and the rectangular window 40 used for the left edge extraction processing is that the driver's face is photographed obliquely to the front of the driver toward the driver. Because the left edge is weaker than the right edge, it is easy to extract the edge of the left edge by calculating the difference in the average brightness with a small area.
【0042】図6に示す右側エッジ抽出処理は、図5で
説明した左側エッジ抽出処理と同様であるので対応する
部分には同一符号を付して説明する。図6に示す右側エ
ッジ抽出処理では、ステップ142において矩形領域3
内の輝度積算値の和を矩形領域3内の全画素数で除算す
ると共に、矩形領域4内の輝度積算値の和を矩形領域4
内の全画素数で除算することにより、矩形領域3、4内
の輝度平均値P3,P4を算出し、ステップ156にお
いてヒストグラムメモリに記憶されているヒストグラム
に基づいて輝度平均値の差(P4−P3)に対するしき
い値K3を算出する。すなわち、ヒストグラムの上位の
度数から度数を積算し、積算した値が全度数に対して所
定割り合いに到達した際の差(P4−P3)の値をしき
い値K3として設定する。この全度数に対する所定割り
合いは、予めシミュレーション等によって設定される。The right edge extraction processing shown in FIG. 6 is the same as the left edge extraction processing described with reference to FIG. 5, and the corresponding parts will be denoted by the same reference numerals. In the right edge extraction processing shown in FIG.
Is divided by the total number of pixels in the rectangular area 3 and the sum of the integrated luminance values in the rectangular area 4 is
, The average luminance values P3 and P4 in the rectangular areas 3 and 4 are calculated, and the difference between the average luminance values (P4−P4) is calculated based on the histogram stored in the histogram memory in step 156. A threshold value K3 for P3) is calculated. That is, the frequencies are integrated from the higher frequencies in the histogram, and the value of the difference (P4-P3) when the integrated value reaches a predetermined ratio with respect to all the frequencies is set as the threshold value K3. The predetermined ratio to the total frequency is set in advance by simulation or the like.
【0043】顔を斜め右方向から撮影していることから
鼻の左右のエッジ強度が異なるため、このしきい値K3
は左側エッジのしきい値K2とは異なった大きさに設定
されている。すなわち、顔を斜め右方向から撮影してい
ることから(左側エッジに対するしきい値K2)<(右
側エッジに対するしきい値K3)のように定められてい
る。Since the right and left edges of the nose are different in intensity because the face is photographed obliquely from the right, the threshold value K3
Is set to a size different from the threshold value K2 of the left edge. That is, since the face is photographed obliquely from the right direction, the threshold value is determined as (the threshold value K2 for the left edge) <(the threshold value K3 for the right edge).
【0044】そして、鼻筋領域の画像全面について左側
エッジの場合と同様の処理を行うことにより鼻筋の右側
のエッジに相当する黒/白エッジが抽出される。右側の
エッジ抽出処理による2値画像の例を図10(B)に示
す。Then, by performing the same processing as in the case of the left edge on the entire image of the nose line region, a black / white edge corresponding to the right edge of the nose line is extracted. FIG. 10B shows an example of a binary image obtained by the right edge extraction processing.
【0045】次に、図7に基づいて、左側エッジの抽出
結果及び左側エッジの抽出結果に対して行う左右エッジ
の対抽出処理ルーチンについて説明する。この左右エッ
ジの対抽出処理では、左右のエッジが近接して存在する
点を抽出する。Next, a left edge extraction result and a left / right edge pair extraction processing routine performed on the left edge extraction result will be described with reference to FIG. In this pair extraction process of the left and right edges, a point where the left and right edges are close to each other is extracted.
【0046】ステップ170では右側エッジ点を選択
し、ステップ172で図9に示すように、右側のエッジ
点を起点として、左方向へ適当な距離だけ水平方向に探
索していき、ステップ174で左側のエッジ点が存在す
るか否かを判断する。左側のエッジ点が存在すれば、ス
テップ176で起点とした右側エッジ点及び右側エッジ
点に対応する左側エッジ点をエッジ対として採用する。
エッジ対として採用した場合には、右側エッジの座標を
RAM等のメモリに記憶する。In step 170, the right edge point is selected, and in step 172, as shown in FIG. 9, starting from the right edge point, a horizontal search is performed to the left by an appropriate distance, and in step 174, the left edge point is searched. It is determined whether or not an edge point exists. If there is a left edge point, the right edge point and the left edge point corresponding to the right edge point, which are the starting points in step 176, are adopted as an edge pair.
When adopted as an edge pair, the coordinates of the right edge are stored in a memory such as a RAM.
【0047】一方、左側エッジ点が存在しなければ、ス
テップ178において選択した右側のエッジ点を消去す
る。そして、ステップ180において右側のエッジ点の
全部についてステップ170〜ステップ178の処理を
行った否かを判断し、行っていない場合にはステップ1
70に戻って上記の処理を繰り返す。On the other hand, if there is no left edge point, the right edge point selected in step 178 is deleted. Then, in step 180, it is determined whether or not the processing of steps 170 to 178 has been performed for all of the right edge points.
Returning to step 70, the above processing is repeated.
【0048】以上の結果、左右のエッジ対が存在する場
合に右側のエッジの座標が記憶され、この右側のエッジ
の座標で表される領域が鼻筋候補領域として図10
(C)の例に示すように抽出される。この鼻筋候補領域
は通常複数個抽出される。図13は、顔領域と抽出され
た鼻筋候補領域との関係を示すものであり、図13では
鼻筋候補領域1、2の2つの候補が抽出されている。As a result, when the right and left edge pairs exist, the coordinates of the right edge are stored, and the area represented by the coordinates of the right edge is determined as a nose line candidate area in FIG.
It is extracted as shown in the example of (C). Usually, a plurality of nose ridge candidate regions are extracted. FIG. 13 shows the relationship between the face region and the extracted nose ridge candidate regions. In FIG. 13, two nose ridge candidate regions 1 and 2 are extracted.
【0049】次に、図11を参照して抽出された複数の
鼻筋候補領域から鼻筋を検出する処理を行うステップ1
04の詳細について説明する。ステップ200では、ス
テップ102で抽出された複数の鼻筋候補領域の各々に
対して、図12に示すように、各鼻筋候補領域の右上、
左下の位置座標を求める。なお、鼻筋候補領域の位置座
標の算出の詳細については後述する。Next, referring to FIG. 11, a process of detecting a nose ridge from a plurality of nose ridge candidate regions extracted is performed.
04 will be described in detail. In step 200, for each of the plurality of candidate nose ridges extracted in step 102, as shown in FIG.
Find the lower left position coordinates. The details of calculating the position coordinates of the nose ridge candidate region will be described later.
【0050】ステップ202では、抽出された鼻筋候補
領域を線分と仮定し、鼻筋候補領域の右上、左下の位置
座標から鼻筋候補領域の縦の長さを算出する。In step 202, the extracted nose ridge line candidate area is assumed to be a line segment, and the vertical length of the nose ridge line candidate area is calculated from the upper right and lower left position coordinates of the nose line candidate area.
【0051】ステップ204では、鼻筋候補領域の縦方
向の長さと予め定められたしきい値Lとを比較し、縦方
向の長さがしきい値Lを越えている場合にステップ20
6で鼻筋候補として選択する。一方、鼻筋候補領域の縦
方向の長さがしきい値L以下の場合には鼻筋候補として
選択することなく次のステップに進む。In step 204, the length of the candidate nose line region in the vertical direction is compared with a predetermined threshold L. If the length in the vertical direction exceeds the threshold L, step 20 is executed.
In step 6, it is selected as a nose ridge candidate. On the other hand, when the length in the vertical direction of the nose ridge candidate region is equal to or smaller than the threshold value L, the process proceeds to the next step without selecting the nose ridge candidate.
【0052】ステップ208では、全鼻筋候補領域につ
いてステップ200〜ステップ206の処理を終了した
か否かを判断し、終了していない場合にはステップ20
0に戻って上記の処理を繰り返し、終了した場合にはス
テップ210において選択された鼻筋候補のうち縦方向
の長さが最も長い鼻筋候補を鼻筋として選択する。図1
3の例では、鼻筋候補領域1が選択される。鼻筋候補が
選択されなかった場合は、鼻筋の検出は不可となり図2
のステップ106で否定判断される。In step 208, it is determined whether or not the processing in steps 200 to 206 has been completed for all the candidate nose ridges.
Returning to 0, the above processing is repeated, and when the processing is completed, the nose ridge candidate having the longest length in the vertical direction among the nose ridge candidates selected in step 210 is selected as the nose ridge. FIG.
In the example of No. 3, the nose ridge candidate region 1 is selected. When no nose ridge candidate is selected, the nose ridge cannot be detected, and FIG.
Is negative in step 106.
【0053】図2のステップ110では、上記のように
して選択された鼻筋を示す領域の右上、左下の位置座標
を結んだ直線の中点座標(図14)を演算する。In step 110 of FIG. 2, the midpoint coordinates (FIG. 14) of a straight line connecting the upper right and lower left position coordinates of the region indicating the nose muscle selected as described above are calculated.
【0054】図2のステップ112では、ステップ11
0で演算された中点座標を鼻筋の中心点であると仮定し
て、この中点座標から眼が存在すると予想される眼領域
を設定する。この眼領域は、顔の統計的情報に基づいて
決定された鼻と眼との位置関係に基づいて設定される。
この鼻と眼との位置関係は、図15に示すように、中心
座標(鼻筋中点)が右下角に位置するL1×L3の矩形
とこの矩形から右方向に距離L2だけ離れたL1×L3
の矩形とで表され、各矩形の中に眼が存在すると仮定さ
れる。そして、顔領域のサイズを算出し、この顔領域の
サイズに応じてL1、L2、L3の長さを変化させて眼
領域を設定する。例えば、顔領域の縦の長さに比例させ
てL1の長さを変化させる。また、顔領域の横の長さに
比例させてL2、L3の長さを変化させる。なお、顔領
域の縦及び横の長さの各々に比例させてL1、L2、L
3の長さを各々変化させてもよい。In step 112 of FIG.
Assuming that the midpoint coordinates calculated at 0 are the center points of the nose muscles, an eye area where an eye is expected to be present is set based on the midpoint coordinates. The eye region is set based on the positional relationship between the nose and the eye determined based on the statistical information of the face.
As shown in FIG. 15, the positional relationship between the nose and the eye is represented by an L1 × L3 rectangle whose center coordinate (the midpoint of the nose muscle) is located at the lower right corner and an L1 × L3 rectangle separated by a distance L2 in the right direction from this rectangle.
It is assumed that an eye exists in each rectangle. Then, the size of the face region is calculated, and the eye region is set by changing the lengths of L1, L2, and L3 according to the size of the face region. For example, the length of L1 is changed in proportion to the vertical length of the face area. Further, the lengths of L2 and L3 are changed in proportion to the horizontal length of the face area. Note that L1, L2, and L1 are proportional to the vertical and horizontal lengths of the face area, respectively.
The length of each of the three may be changed.
【0055】図2のステップ114の詳細を図16を参
照して説明する。図16のステップ220では、設定さ
れた眼領域に対応する画像データを画像メモリ20から
読み込み、ステップ222で設定された眼領域の輝度値
の度数分布を表すヒストグラムを算出する。ステップ2
24では、算出されたヒストグラム上で度数のピークを
検出する。ステップ226では、図17に示すように、
ヒストグラム上で度数のピークから左へ進んでいき、最
初に現れた度数の谷を検出し、この谷の輝度値をしきい
値として設定する。ステップ228では、前記眼領域の
各画素の輝度値としきい値とを比較し、輝度がしきい値
を越える画素に対してはステップ230において出力す
るときの値を1とし、輝度がしきい値以下の画素に対し
てはステップ232において出力するときの値を0と
し、2値化を行う。上記の2値化処理はステップ234
で眼領域全面について処理が終了したと判断されるまで
継続される。そして、眼領域全面について処理を行うこ
とにより眼領域の画像が2値画像に変換される。このと
きの眼領域の原画と眼領域の2値画像の例を図18
(A),(B)に示す。Details of step 114 in FIG. 2 will be described with reference to FIG. In step 220 of FIG. 16, the image data corresponding to the set eye region is read from the image memory 20, and a histogram representing the frequency distribution of the luminance values of the eye region set in step 222 is calculated. Step 2
At 24, a frequency peak is detected on the calculated histogram. In step 226, as shown in FIG.
The histogram proceeds to the left from the frequency peak on the histogram, detects a valley of the frequency that appears first, and sets the luminance value of the valley as a threshold value. In step 228, the luminance value of each pixel in the eye region is compared with a threshold value, and the value output at step 230 is set to 1 for a pixel whose luminance exceeds the threshold value. For the following pixels, the value output at step 232 is set to 0, and binarization is performed. The above binarization processing is performed in step 234.
Is continued until it is determined that the processing has been completed for the entire eye region. Then, the image of the eye region is converted into a binary image by performing processing on the entire surface of the eye region. FIG. 18 shows an example of the original image of the eye region and the binary image of the eye region at this time.
(A) and (B) show.
【0056】次に、ステップ236において眼領域の2
値画像に最小値フィルタ処理を実行すると、図18
(C)に示すように黒領域が検出され、検出された黒領
域の中で、眼領域のほぼ中央に位置する黒領域を、眼の
領域として選択する。Next, at step 236, the 2
When the minimum value filter processing is performed on the value image, FIG.
As shown in (C), a black area is detected, and among the detected black areas, a black area located substantially at the center of the eye area is selected as an eye area.
【0057】次に、上記ステップ200の鼻筋候補領域
の位置座標算出処理ルーチンの詳細を図19を参照して
説明する。この鼻筋候補領域の位置座標算出処理では、
図10(C)に例示する2値画像(鼻筋候補領域画像)
を右から左へスキャンすることを上から下ヘ順に実行し
ながら、ラベルが“1”の座標、すなわち2値画像の輝
度値が1の座標を探索する。なお、2値画像を右から左
ヘスキャンする理由は、ラベルが“1”であり、かつ最
も右上の画素を最初に発見するためである。Next, the details of the routine for calculating the position coordinates of the nose ridge candidate region in step 200 will be described with reference to FIG. In the position coordinate calculation process of the nose ridge candidate region,
Binary image illustrated in FIG. 10C (nose ridge line candidate region image)
Is scanned from right to left in order from top to bottom, while searching for the coordinates with the label “1”, that is, the coordinates with the luminance value 1 of the binary image. The reason why the binary image is scanned from right to left is that the label is “1” and the top right pixel is found first.
【0058】ラベルが“1”である最も右上の点を発見
した後、ステップ240でその座標の画素を注目画素と
してその画素の周辺座標の画素のラベルを評価する。After finding the top-right point whose label is "1", at step 240, the pixel at that coordinate is set as the target pixel and the label of the pixel at the coordinates around the pixel is evaluated.
【0059】第1番目として、図20に示すように注目
画素(i,j)が含まれるスキャンラインの次のスキャ
ンライン上の最も右側に位置するD座標のラベルを評価
する(ステップ242)。D座標のラベルが“1”なら
ば、D座標へ移動して、D座標のラベルを“0”にする
(ステップ242、244)。First, as shown in FIG. 20, the label of the D coordinate located at the rightmost position on the scan line following the scan line including the target pixel (i, j) is evaluated (step 242). If the label of the D coordinate is "1", it moves to the D coordinate and sets the label of the D coordinate to "0" (steps 242, 244).
【0060】第2番目として、図20に示すように注目
画素の左隣に位置するC座標のラベルを評価する(ステ
ップ246)。C座標のラベルが“1”ならば、C座標
へ移動して、C座標のラベルを“0”にする(ステップ
246、248)。As a second step, the label of the C coordinate located on the left side of the target pixel as shown in FIG. 20 is evaluated (step 246). If the label of the C coordinate is "1", it moves to the C coordinate and sets the label of the C coordinate to "0" (steps 246, 248).
【0061】第3番目として、図20に示すようにC座
標の下側に位置するB座標のラベルを評価する(ステッ
プ250)。B座標のラベルが“1”ならば、B座標へ
移動して、B座標のラベルを“0”にする(ステップ2
50、252)。Third, the label of the B coordinate located below the C coordinate as shown in FIG. 20 is evaluated (step 250). If the label of the B coordinate is "1", it moves to the B coordinate and sets the label of the B coordinate to "0" (step 2).
50, 252).
【0062】第4番目として、図20に示すように注目
画素の下側に位置するA座標のラベルを評価する(ステ
ップ254)。A座標のラベルが“1”ならば、A座標
へ移動して、A座標のラベルを“0”にする(ステップ
254、256)。Fourth, the label of the A coordinate located below the target pixel as shown in FIG. 20 is evaluated (step 254). If the label of the A coordinate is "1", the coordinate is moved to the A coordinate and the label of the A coordinate is set to "0" (steps 254, 256).
【0063】第5番目として、図20に示すようにC座
標の左隣に位置するE座標のラベルを評価する(ステッ
プ258)。E座標のラベルが“1”ならば、E座標の
ラベルを“0”にする(ステップ258、260)。Fifth, the label of the E coordinate located on the left of the C coordinate as shown in FIG. 20 is evaluated (step 258). If the label of the E coordinate is "1", the label of the E coordinate is set to "0" (steps 258, 260).
【0064】第6番目として、図20に示すようにE座
標の左隣に位置するF座標のラベルを評価する(ステッ
プ262)。F座標のラベルが“1”ならば、F座標の
ラベルを“0”にする(ステップ262、264)。Sixth, the label of the F coordinate located on the left of the E coordinate as shown in FIG. 20 is evaluated (step 262). If the label of the F coordinate is "1", the label of the F coordinate is set to "0" (steps 262 and 264).
【0065】ステップ266で座標の移動があったか否
かを判断し、座標の移動があれば、ステップ242へ戻
って移動した座標で上記ステップ242〜ステップ26
4の処理を繰り返す。一方、ステップ266で移動がな
いと判断されたならば、A,B,C,Dの全座標のラベ
ルが“0”なので、ラベルの探索はその座標点で終了
し、右上、左下の座標をレジスタに書き込む。At step 266, it is determined whether or not the coordinates have been moved. If the coordinates have been moved, the process returns to step 242 and the above-mentioned steps 242 to 26 are performed using the moved coordinates.
Step 4 is repeated. On the other hand, if it is determined in step 266 that there is no movement, since the labels of all the coordinates of A, B, C, and D are "0", the search for the label ends at the coordinate point, and the coordinates of the upper right and lower left are set to the coordinates. Write to register.
【0066】鼻筋候補領域画像全面について右上に位置
する注目画素を出発点として左下まで行うことにより、
鼻筋候補領域の位置座標が算出される。By starting from the target pixel located at the upper right to the lower left with respect to the entire nose line candidate area image,
The position coordinates of the nose ridge candidate region are calculated.
【0067】上記の実施の形態において、顔領域検出の
際に、度数ピークから左右へ進んでいく過程で、図21
に示すように、極小点が存在する場合、この極小点を境
に顔領域が検出されてしまう可能性がある。そこで、以
下では極小点が存在する場合でも、正確に顔領域を検出
することができる顔領域検出処理について図22を参照
して説明する。なお、この顔領域検出処理において、顔
領域座標の算出については図3と同一部分には同一符号
を付して説明する。In the above embodiment, when the face area is detected, the process proceeds from the frequency peak to the left and right in the process of FIG.
As shown in (1), when a minimum point exists, there is a possibility that a face area is detected at the boundary of the minimum point. Therefore, hereinafter, a face area detection process capable of accurately detecting a face area even when a minimum point exists will be described with reference to FIG. In the face area detection processing, the calculation of the face area coordinates will be described by assigning the same reference numerals to the same parts as in FIG.
【0068】ステップ128では、図21に示すよう
に、X軸上で、度数ピークの座標から、左右へ進んでい
く過程で、しきい値と度数を比較しながら、最初にしき
い値を横切った座標xa,xbで囲まれる領域を、暫定的
な顔領域として、顔領域座標レジスタ26に記憶する。In step 128, as shown in FIG. 21, in the process of moving right and left from the coordinate of the frequency peak on the X-axis, the threshold was first crossed while comparing the frequency with the threshold. The area surrounded by the coordinates x a and x b is stored in the face area coordinate register 26 as a temporary face area.
【0069】次のステップ270、272では、顔領域
座標の最小の座標xa 及び最大の座標xbから出発して
それぞれ左右の一定範囲内の各座標の度数としきい値を
逐次比較し、しきい値を越える座標が存在するかどうか
判断する。一定範囲内の各座標の度数の全てが、しきい
値を超えていないならば、図4に示したように顔領域内
には極小点は存在しないので、顔領域座標レジスタ26
に記憶された暫定的な顔領域を顔領域座標として確定す
る。一定範囲内の度数が、一箇所でもしきい値を超えて
いれば、記憶された顔領域座標は極小点で抽出された顔
領域であるとみなして、ステップ274で顔領域座標レ
ジスタの顔領域の座標を消去し、ステップ128に戻っ
てしきい値を超えた座標から再度、左右へ進んでしきい
値と度数を比較しながら、しきい値を横切った座標を暫
定的な顔領域として顔領域座標レジスタ26に記憶し、
ステップ270、274を繰り返し、顔領域座標を探索
する。[0069] In the next step 270, compares sequentially the frequency and thresholds for each coordinate within a range of left and right, starting from the minimum of the coordinate x a and maximum coordinates x b of the face area coordinates, teeth It is determined whether or not there is a coordinate exceeding the threshold. If all of the frequencies of the respective coordinates within the certain range do not exceed the threshold value, there is no minimum point in the face area as shown in FIG.
Is determined as face area coordinates. If the frequency within a certain range exceeds the threshold value even at one point, the stored face area coordinates are regarded as the face area extracted at the minimum point, and in step 274, the face area in the face area coordinate register is determined. Then, the process returns to step 128 and returns to the left and right again from the coordinates exceeding the threshold value, compares the threshold value with the frequency, and sets the coordinates crossing the threshold value as a provisional face area. Stored in the area coordinate register 26,
Steps 270 and 274 are repeated to search for face area coordinates.
【0070】図21の例では、左側の一定範囲内の各座
標の度数の全てがしきい値を超えていないので左側の顔
領域座標として座標xa が確定するが、右側の顔領域座
標では座標xc でしきい値を超えているので、顔領域座
標レジスタの顔領域の座標x b を消去し、座標xc から
再度右へ進んでしきい値と度数を比較しながらしきい値
を横切った座標xd を抽出する。座標xd より右側の一
定範囲内の各座標の度数の全てがしきい値を超えていな
いので、右側の顔領域座標として座標xd が確定する。In the example of FIG. 21, each seat within a certain range on the left is
The face on the left side because all the frequencies of the target do not exceed the threshold
Coordinate x as area coordinatesa Is determined, but the right face area
Coordinates xc Exceeds the threshold value, so the face area
Coordinate x of the face area of the target register b And delete the coordinate xc From
Go to the right again and compare the threshold with the frequency
Coordinate x acrossd Is extracted. Coordinate xd One on the right
Not all frequencies of each coordinate within the fixed range exceed the threshold.
Therefore, the coordinate xd Is determined.
【0071】最終的に確定された顔領域座標は、顔領域
座標レジスタに記憶される。Y軸に関しても同様な方法
で顔領域座標を算出して顔領域座標レジスタに記憶す
る。The face area coordinates finally determined are stored in the face area coordinate register. For the Y axis, the face area coordinates are calculated in the same manner and stored in the face area coordinate register.
【0072】次に、鼻筋候補領域から鼻筋を検出する際
の他の例を説明する。Next, another example of detecting a nose ridge from a nose ridge candidate region will be described.
【0073】予め検出された顔領域において、図23に
示すように、横軸(X軸)上で中心より左側、縦軸(Y
軸)上で中心より下側の領域を鼻筋候補選択領域として
設定する。In the face area detected in advance, as shown in FIG. 23, the horizontal axis (X axis) is on the left side of the center, and the vertical axis (Y
An area below the center on the (axis) is set as a nose ridge candidate selection area.
【0074】図23に示す場合、鼻筋候補領域2は、前
髪によって発生した候補領域である。縦軸上で中心より
下側の領域に鼻筋候補選択領域を限定することにより、
このような誤認識の可能性のある候補を除外することが
できる。In the case shown in FIG. 23, the nose ridge candidate region 2 is a candidate region generated by the bangs. By limiting the nose ridge candidate selection area to the area below the center on the vertical axis,
Candidates with such a possibility of erroneous recognition can be excluded.
【0075】鼻筋候補領域から鼻筋を検出する際の他の
例として、鼻筋候補領域の縦横比を用いた例について説
明する。まず、鼻筋候補領域の右上、左下の座標から、
その鼻筋候補領域の縦横比を求める。この縦横比は右
上、左下の座標を結んだ線分を対角線に持つ長方形を用
いて算出する。そして、縦横比に対して適当なしきい値
を設定して、縦長の候補のみを選択する。As another example of detecting a nose line from a nose line candidate region, an example using the aspect ratio of the nose line candidate region will be described. First, from the coordinates of the upper right and lower left of the nose line candidate area,
The aspect ratio of the nose ridge candidate region is determined. This aspect ratio is calculated using a rectangle having a diagonal line segment connecting the upper right and lower left coordinates. Then, an appropriate threshold value is set for the aspect ratio, and only vertically long candidates are selected.
【0076】次に、眼位置検出処理の他の例を図25を
参照して説明する。この例では、図24(A)に示すよ
うに、眼領域上で顔の縦方向に隣接して連続するように
上側から下側に向かって設定された矩形領域1、矩形領
域2、及び矩形領域3の3個の矩形領域で構成されたウ
インドウ60を用いる。このウインドウ60において、
矩形領域1と矩形領域3とは同じ形状で同じ面積であ
り、矩形領域2の幅は矩形領域1と同じで矩形領域1の
面積よりも大きく、例えば略2倍の面積を有している。Next, another example of the eye position detecting process will be described with reference to FIG. In this example, as shown in FIG. 24A, a rectangular area 1, a rectangular area 2, and a rectangular area set from the upper side to the lower side so as to be adjacent and continuous in the vertical direction of the face on the eye area. A window 60 composed of three rectangular areas in the area 3 is used. In this window 60,
The rectangular area 1 and the rectangular area 3 have the same shape and the same area, and the width of the rectangular area 2 is the same as that of the rectangular area 1 and is larger than the area of the rectangular area 1, for example, approximately twice as large.
【0077】図25のステップ300では、各矩形領域
内の全画素の輝度値を積算することにより輝度積算値を
各々算出する。ステップ302では、各矩形領域内の輝
度積算値を各矩形領域の全画素数で除算することによ
り、各矩形領域内の輝度平均値P1,P2,P3(図2
4(B)参照)を算出し、輝度平均値レジスタ22にウ
インドウの位置に応じて保存する。In step 300 of FIG. 25, the integrated luminance values are calculated by integrating the luminance values of all the pixels in each rectangular area. In step 302, the luminance integrated value in each rectangular area is divided by the total number of pixels in each rectangular area to obtain the average luminance values P1, P2, and P3 in each rectangular area (FIG. 2).
4 (B)) and stores the calculated value in the average brightness value register 22 according to the position of the window.
【0078】次のステップ304では、隣接する矩形領
域内の輝度平均値の差(P1−P2)、(P3−P2)
の各々と、しきい値K1とを比較し、次の条件を満足す
るか否かを判断する。In the next step 304, the differences (P1-P2) and (P3-P2) between the average luminance values in adjacent rectangular areas are determined.
Is compared with a threshold value K1 to determine whether or not the following condition is satisfied.
【0079】 (P1−P2>K1)かつ(P3−P2>K1) ステップ304で上記の条件を満足すると判断されたと
き、すなわち隣接する矩形領域内の輝度平均値の差が大
きいことから眼の候補領域であると判断される場合に
は、ステップ306において、顔画像が記憶されている
画像メモリとは別の画像メモリ34へ輝度平均値の差の
総和(P1−P2)+(P3−P2)の値を書き込む。
書き込むべき座標は、矩形領域2の中心点の座標に書き
込む。同時にステップ308においてヒストグラムメモ
リ24に記憶されている輝度平均値の差の総和の度数分
布を表すヒストグラムの総和(P1−P2)+(P3−
P2)に対する度数を1増加する。(P1-P2> K1) and (P3-P2> K1) When it is determined in step 304 that the above condition is satisfied, that is, since the difference between the average luminance values in adjacent rectangular areas is large, If it is determined that the area is a candidate area, in step 306, the sum of the differences between the average luminance values (P1-P2) + (P3-P2) is stored in an image memory 34 different from the image memory in which the face image is stored. Write the value of).
The coordinates to be written are written to the coordinates of the center point of the rectangular area 2. At the same time, in step 308, the total sum of histograms (P1-P2) + (P3-
The frequency for P2) is increased by one.
【0080】ステップ304において上記の条件を満足
しないと判断されたとき、すなわち隣接する矩形領域間
の輝度平均値の差が小さい場合には、顔の肌領域である
と推定してステップ310において、顔画像が記憶され
ている画像メモリとは別の画像メモリ34へ0を書き込
む。書き込むべき座標は、矩形領域2の中心点の座標に
書き込む。同時に、ステップ312においてヒストグラ
ムメモリ24の総和が0の度数を1増加する。If it is determined in step 304 that the above condition is not satisfied, that is, if the difference between the average luminance values of adjacent rectangular areas is small, it is estimated that the area is a face skin area, and in step 310, 0 is written in an image memory 34 different from the image memory in which the face image is stored. The coordinates to be written are written to the coordinates of the center point of the rectangular area 2. At the same time, in step 312, the frequency at which the sum of the histogram memory 24 is 0 is increased by 1.
【0081】次のステップ314では、眼領域全面につ
いてステップ300〜ステップ312の処理が終了した
か否かを判断し、処理が終了していない場合にはウイン
ドウを1画素ずらしてステップ300に戻り、上記の処
理を繰り返す。In the next step 314, it is determined whether or not the processing of steps 300 to 312 has been completed for the entire eye area. If the processing has not been completed, the window is shifted by one pixel and the process returns to step 300. The above process is repeated.
【0082】上記の処理を、矩形のウインドウを1画素
ずつずらしながら、入力画像である眼領域全面に対して
行うことにより、輝度平均値の差の値が書き込まれた画
像及びヒストグラムが得られる。The above processing is performed on the entire eye area, which is the input image, while shifting the rectangular window by one pixel, thereby obtaining an image in which the difference value of the average luminance value is written and a histogram.
【0083】ステップ314で眼領域全体について処理
が終了していると判断された場合は、ステップ316に
おいてヒストグラムメモリに記憶されているヒストグラ
ムに基づいて輝度平均値の差の総和(P1−P2)+
(P3−P2)に対するしきい値K2を算出する。すな
わち、ヒストグラムの上位の度数から度数を積算し、積
算した値が全度数に対して所定割り合いに到達した際の
総和(P1−P2)+(P3−P2)の値をしきい値K
2として設定する。この全度数に対する所定割り合い
は、予めシミュレーション等によって設定される。If it is determined in step 314 that the processing has been completed for the entire eye region, in step 316, the sum of the differences between the average luminance values (P1-P2) +
A threshold value K2 for (P3-P2) is calculated. That is, the frequencies are integrated from the higher frequencies in the histogram, and the value of the sum (P1-P2) + (P3-P2) when the integrated value reaches a predetermined ratio with respect to all the frequencies is determined by the threshold K
Set as 2. The predetermined ratio to the total frequency is set in advance by simulation or the like.
【0084】ステップ318では、各画素の輝度平均値
の差の総和(P1−P2)+(P3−P2)としきい値
K2とを比較して次の条件を満足するか否かを判断す
る。At step 318, it is determined whether or not the following condition is satisfied by comparing the sum (P1-P2) + (P3-P2) of the differences between the average brightness values of the pixels with the threshold value K2.
【0085】(P1−P2)+(P3−P2)>K2 上記条件を満足する画素に対してはステップ320にお
いて出力するときの値を1とし、上記条件を満足しない
画素に対してはステップ322において出力するときの
値を0とし、2値化を行う。上記の2値化処理はステッ
プ324で眼領域全面について処理が終了したと判断さ
れるまで継続される。そして、眼領域全面について処理
を行うことにより2値画像が得られる。得られた2値画
像のうちラベル1の領域が眼の位置となる。(P1-P2) + (P3-P2)> K2 For a pixel satisfying the above condition, the value at the time of output in step 320 is set to 1, and for a pixel not satisfying the above condition, step 322 is performed. The value at the time of output is set to 0 and binarization is performed. The above-described binarization processing is continued until it is determined in step 324 that the processing has been completed for the entire eye region. Then, a binary image is obtained by performing processing on the entire eye region. The area of label 1 in the obtained binary image is the position of the eye.
【0086】次に、ステップ108における鼻筋検出が
できなかった場合の顔領域における眼位置検出処理につ
いて説明する。上記で説明した図25の処理ルーチンを
用いて眼候補領域を抽出する。ただし、この場合は、眼
領域だけでなく顔領域全体で候補抽出を実行する。候補
抽出結果として図26に示すような結果が得られるの
で、複数の候補から以下のようにして最終的に眼の領域
を選択する。Next, a description will be given of the eye position detection processing in the face area when the nose line detection in step 108 cannot be performed. The eye candidate area is extracted using the processing routine of FIG. 25 described above. However, in this case, candidate extraction is performed not only for the eye region but also for the entire face region. Since a result as shown in FIG. 26 is obtained as a candidate extraction result, an eye region is finally selected from a plurality of candidates as follows.
【0087】すなわち、顔領域において、次の条件によ
り選択する。まず、横長の形の眼候補領域を選択する。
この横長の形の眼候補領域は、上記で説明した縦横比を
それぞれの眼候補領域に対して求め、この縦横比を用い
て所定のしきい値を設定し、所定のしきい値の範囲内の
横長の形の領域を眼候補領域として選択することにより
選択する。横長の形の眼候補領域が複数選択された場合
には、以下の方法で眼の領域を選択する。That is, in the face area, selection is made under the following conditions. First, a horizontally long eye candidate area is selected.
For the eye candidate area having the horizontally long shape, the aspect ratio described above is obtained for each eye candidate area, and a predetermined threshold value is set using the aspect ratio. Are selected by selecting the horizontally long region as the eye candidate region. When a plurality of horizontally long eye candidate regions are selected, an eye region is selected by the following method.
【0088】顔領域の中で、最も上に位置しており、か
つ上下に略平行に並んだ2つの眼候補領域の対を選択す
る。この2つの眼候補領域のうち、上側は眉の領域と考
えられるので、下側の眼候補領域を眼の領域として選択
する。一方、眼候補領域の対が発見できない場合は、顔
領域の中で、最も上に位置している眼候補領域を、眼の
領域として選択する。A pair of two eye candidate areas located at the top of the face area and arranged substantially parallel to each other vertically is selected. Since the upper side of the two eye candidate areas is considered to be the eyebrow area, the lower eye candidate area is selected as the eye area. On the other hand, if no pair of eye candidate regions can be found, the eye candidate region located at the top of the face regions is selected as the eye region.
【0089】なお、上記の実施の形態では、カメラによ
ってドライバーの顔をドライバーに向かって右斜め前方
から撮影する場合について説明したが、ドライバーの顔
をドライバーに向かって左斜め前方から撮影してもよ
く、ドライバーに向かって右斜め前方または左斜め前方
から光を受けているドライバの顔を真正面、左斜め前
方、または右斜め前方から撮影してもよい。ドライバー
に向かって右斜め前方から光を受けているドライバの顔
を撮影する場合には、上記と同様に(左側エッジに対す
るしきい値K2)<(右側エッジに対するしきい値K
3)であり、ドライバーに向かって左斜め前方から撮影
する場合及びドライバーに向かって左斜め前方から光を
受けているドライバの顔を撮影する場合には、(左側エ
ッジに対するしきい値K2)>(右側エッジに対するし
きい値K3)である。In the above embodiment, a case has been described in which the camera is used to photograph the driver's face from the front diagonally right toward the driver. Often, the driver's face receiving light from the diagonally right front or diagonally left front toward the driver may be photographed from the front, diagonally left front, or diagonally right front. When photographing the face of the driver receiving light from the diagonally right front toward the driver, similarly to the above, (threshold K2 for the left edge) <(threshold K for the right edge)
3) In the case of photographing the driver from the diagonally left front toward the driver and photographing the driver's face receiving light from the diagonally left front toward the driver, (the threshold value K2 for the left edge)> (The threshold value K3 for the right edge).
【0090】[0090]
【発明の効果】以上説明したように、本発明によれば、
鼻の左右のエッジを独立して抽出し、その後、左右のエ
ッジの対を検出しているので、鼻の角度、向き等に影響
されずに、安定して鼻の位置を検出でき、顔の領域を予
め検出することにより、眼鏡が存在する場合において
も、眼鏡のフレームを誤って、鼻筋と誤認識することを
避けることができ、また眼鏡が存在するような複雑な場
合においても、鼻の位置を検出することにより、眼の存
在する領域を安定して特定することができる、という効
果が得られる。As described above, according to the present invention,
Since the left and right edges of the nose are extracted independently, and then the pair of left and right edges is detected, the position of the nose can be detected stably without being affected by the angle, direction, etc. of the nose. By detecting the region in advance, even when glasses are present, it is possible to avoid erroneously recognizing a frame of the glasses as a nose line, and even in a complicated case where glasses are present, By detecting the position, the effect that the region where the eye exists can be specified stably can be obtained.
【図1】本実施の形態のブロック図である。FIG. 1 is a block diagram of an embodiment.
【図2】本実施の形態の眼位置検出処理ルーチンを示す
流れ図である。FIG. 2 is a flowchart showing an eye position detection processing routine according to the embodiment.
【図3】図2のステップ100の詳細を示す流れ図であ
る。FIG. 3 is a flowchart showing details of step 100 in FIG. 2;
【図4】2値画像をX軸に投影したヒストグラムを示す
線図である。FIG. 4 is a diagram showing a histogram obtained by projecting a binary image on the X axis.
【図5】左側エッジ抽出処理ルーチンを示す流れ図であ
る。FIG. 5 is a flowchart showing a left edge extraction processing routine;
【図6】右側エッジ抽出処理ルーチンを示す流れ図であ
る。FIG. 6 is a flowchart showing a right edge extraction processing routine;
【図7】左右エッジの対抽出処理ルーチンを示す流れ図
である。FIG. 7 is a flowchart showing a left / right edge pair extraction processing routine;
【図8】(A)は左側エッジ抽出処理用のウインドウの
平面図、(B)右側エッジ抽出処理用のウインドウの平
面図である8A is a plan view of a window for extracting a left edge, and FIG. 8B is a plan view of a window for extracting a right edge.
【図9】左右エッジの対抽出処理を説明するための流れ
図である。FIG. 9 is a flowchart illustrating a pair extraction process of right and left edges.
【図10】(A)は左側エッジ抽出処理による2値画像
の平面図、(B)右側エッジ抽出処理による2値画像の
平面図、(C)はエッジ対抽出結果である鼻筋候補領域
画像を示す平面図である10A is a plan view of a binary image obtained by a left edge extraction process, FIG. 10B is a plan view of a binary image obtained by a right edge extraction process, and FIG. FIG.
【図11】図2のステップ104の詳細を示す流れ図で
ある。FIG. 11 is a flowchart showing details of step 104 in FIG. 2;
【図12】各鼻筋候補領域の右上、左下の位置座標を示
す線図である。FIG. 12 is a diagram showing upper right and lower left position coordinates of each nose ridge candidate region;
【図13】鼻筋候補領域と顔領域の位置関係を示す線図
である。FIG. 13 is a diagram showing a positional relationship between a nose ridge candidate region and a face region.
【図14】鼻筋領域と中点との位置関係を示す線図であ
る。FIG. 14 is a diagram showing a positional relationship between a nose ridge region and a midpoint.
【図15】鼻筋中点と眼領域との関係を示す線図であ
る。FIG. 15 is a diagram showing a relationship between a nose muscle midpoint and an eye area.
【図16】図2のステップ114の詳細を示す流れ図で
ある。FIG. 16 is a flowchart showing details of step 114 in FIG. 2;
【図17】眼領域ヒストグラムを示す線図である。FIG. 17 is a diagram showing an eye area histogram.
【図18】(A)は眼領域原画像を示す図、(B)は眼
領域2値画像を示す図、(C)は最小値フィルタ実行後
の画像を示す図である。18A is a diagram illustrating an eye region original image, FIG. 18B is a diagram illustrating an eye region binary image, and FIG. 18C is a diagram illustrating an image after execution of a minimum value filter.
【図19】図11のステップ200の詳細を示す流れ図
である。FIG. 19 is a flowchart showing details of step 200 in FIG. 11;
【図20】注目画素と周辺画素との関係を示す図であ
る。FIG. 20 is a diagram illustrating a relationship between a target pixel and peripheral pixels.
【図21】極小点が存在する場合のヒストグラムを示す
線図である。FIG. 21 is a diagram showing a histogram when a minimum point exists.
【図22】極小点が存在する場合の顔領域を検出する処
理ルーチンを示す流れ図である。FIG. 22 is a flowchart showing a processing routine for detecting a face area when a minimum point exists.
【図23】鼻筋候補選択領域と顔領域との関係を示す図
である。FIG. 23 is a diagram illustrating a relationship between a nose ridge candidate selection area and a face area.
【図24】(A)は眼を抽出するウインドウ構成を示す
図、(B)は輝度平均値を示す図である。FIG. 24A is a diagram showing a window configuration for extracting eyes, and FIG. 24B is a diagram showing an average luminance value.
【図25】眼領域を2値画像に変換するルーチンを示す
図である。FIG. 25 is a diagram showing a routine for converting an eye region into a binary image.
【図26】眼領域抽出結果を示す図である。FIG. 26 is a diagram showing an eye region extraction result.
10 カメラ 12 アナログ−ディジタル変換器 20 画像メモリ 22 平均値レジスタ 24 ヒストグラムメモリ Reference Signs List 10 camera 12 analog-digital converter 20 image memory 22 average value register 24 histogram memory
Claims (1)
め前方から光を受けた顔を撮影した画像に基づいて眼の
位置を検出する眼の位置検出装置であって、 入力された画像から顔の領域を抽出する顔領域抽出手段
と、 抽出された顔の領域から各々異なるしきい値を用いて左
側エッジと右側エッジとを抽出し、抽出した左側エッジ
及び右側エッジに基づいた領域を鼻筋の候補として抽出
する鼻筋候補抽出手段と、 抽出された鼻筋の候補から鼻筋を抽出する鼻筋抽出手段
と、 抽出された鼻筋の位置に基づいて眼の存在領域を設定す
る眼領域設定手段と、 設定された眼の存在領域から眼の位置を検出する眼位置
検出手段と、 を含む眼の位置検出装置。An eye position detecting device for detecting an eye position based on an image of a face photographed diagonally from the front or an image of a face photographed diagonally from the front. A face region extracting means for extracting a face region, and extracting a left edge and a right edge from the extracted face region using different threshold values, respectively, and extracting a region based on the extracted left edge and right edge into a nose ridge. A nose ridge candidate extracting means for extracting a nose ridge from the extracted nose ridge candidates; an eye area setting means for setting an eye existence area based on the position of the extracted nose ridge; An eye position detecting device, comprising: an eye position detecting unit configured to detect an eye position from the detected eye existence region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24394299A JP3414331B2 (en) | 1998-10-19 | 1999-08-30 | Eye position detector |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10-297319 | 1998-10-19 | ||
JP29731998 | 1998-10-19 | ||
JP24394299A JP3414331B2 (en) | 1998-10-19 | 1999-08-30 | Eye position detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000193420A true JP2000193420A (en) | 2000-07-14 |
JP3414331B2 JP3414331B2 (en) | 2003-06-09 |
Family
ID=26536501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24394299A Expired - Fee Related JP3414331B2 (en) | 1998-10-19 | 1999-08-30 | Eye position detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3414331B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005078311A (en) * | 2003-08-29 | 2005-03-24 | Fujitsu Ltd | Device for tracing face site, device for deciding status of eyes and computer program |
US7079669B2 (en) | 2000-12-27 | 2006-07-18 | Mitsubishi Denki Kabushiki Kaisha | Image processing device and elevator mounting it thereon |
KR100809431B1 (en) | 2006-11-21 | 2008-03-05 | 한국전자통신연구원 | Method and apparatus for detecting eye in face region |
US7502494B2 (en) | 2003-01-30 | 2009-03-10 | Fujtisu Limited | Face orientation detection apparatus, face orientation detection method, and computer memory product |
JP2010134867A (en) * | 2008-12-08 | 2010-06-17 | Toyota Motor Corp | Facial part detection apparatus |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6141903A (en) * | 1984-08-03 | 1986-02-28 | Nippon Denso Co Ltd | Recognizing device for position of eye of vehicle driver |
JPH0589243A (en) * | 1991-09-27 | 1993-04-09 | Nippon Telegr & Teleph Corp <Ntt> | Background image alternation device |
JPH07208927A (en) * | 1994-01-18 | 1995-08-11 | Nissan Motor Co Ltd | Detector of position of vehicle driver's eye balls |
JPH07280746A (en) * | 1994-04-11 | 1995-10-27 | Kawasaki Steel Corp | Apparatus for extracting flaw from metal plate surface |
JPH10171995A (en) * | 1996-12-13 | 1998-06-26 | Canon Inc | Characteristic point detecting device, pupil edge detecting device and sight line detecting device |
JPH11242745A (en) * | 1998-02-25 | 1999-09-07 | Victor Co Of Japan Ltd | Method for measuring and processing facial image |
JP2000123148A (en) * | 1998-10-12 | 2000-04-28 | Toyota Central Res & Dev Lab Inc | Face feature extractor |
-
1999
- 1999-08-30 JP JP24394299A patent/JP3414331B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6141903A (en) * | 1984-08-03 | 1986-02-28 | Nippon Denso Co Ltd | Recognizing device for position of eye of vehicle driver |
JPH0589243A (en) * | 1991-09-27 | 1993-04-09 | Nippon Telegr & Teleph Corp <Ntt> | Background image alternation device |
JPH07208927A (en) * | 1994-01-18 | 1995-08-11 | Nissan Motor Co Ltd | Detector of position of vehicle driver's eye balls |
JPH07280746A (en) * | 1994-04-11 | 1995-10-27 | Kawasaki Steel Corp | Apparatus for extracting flaw from metal plate surface |
JPH10171995A (en) * | 1996-12-13 | 1998-06-26 | Canon Inc | Characteristic point detecting device, pupil edge detecting device and sight line detecting device |
JPH11242745A (en) * | 1998-02-25 | 1999-09-07 | Victor Co Of Japan Ltd | Method for measuring and processing facial image |
JP2000123148A (en) * | 1998-10-12 | 2000-04-28 | Toyota Central Res & Dev Lab Inc | Face feature extractor |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7079669B2 (en) | 2000-12-27 | 2006-07-18 | Mitsubishi Denki Kabushiki Kaisha | Image processing device and elevator mounting it thereon |
US7502494B2 (en) | 2003-01-30 | 2009-03-10 | Fujtisu Limited | Face orientation detection apparatus, face orientation detection method, and computer memory product |
JP2005078311A (en) * | 2003-08-29 | 2005-03-24 | Fujitsu Ltd | Device for tracing face site, device for deciding status of eyes and computer program |
KR100809431B1 (en) | 2006-11-21 | 2008-03-05 | 한국전자통신연구원 | Method and apparatus for detecting eye in face region |
US7929734B2 (en) | 2006-11-21 | 2011-04-19 | Electronics And Telecommunications Research Institute | Method and apparatus for detecting eyes in face region |
JP2010134867A (en) * | 2008-12-08 | 2010-06-17 | Toyota Motor Corp | Facial part detection apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP3414331B2 (en) | 2003-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100480781B1 (en) | Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image | |
US8059868B2 (en) | License plate recognition apparatus, license plate recognition method, and computer-readable storage medium | |
WO2020108225A1 (en) | Fingerprint acquisition method and related apparatus | |
JP3143819B2 (en) | Eyelid opening detector | |
JP4008282B2 (en) | Pupil / iris circle detector | |
EP1271403A1 (en) | Method and device for character location in images from digital camera | |
KR20010103631A (en) | System and method for biometrics-based facial feature extraction | |
JPH0944685A (en) | Face image processor | |
JP2000105829A (en) | Method and device for face parts image detection | |
EP2639743A2 (en) | Image processing device, image processing program, and image processing method | |
JP3490482B2 (en) | Edge and contour extraction device | |
CN112419207A (en) | Image correction method, device and system | |
JP4198542B2 (en) | Face presence / absence determination device and face presence / absence determination program | |
JP2000193420A (en) | Eye position detecting device | |
JP4172236B2 (en) | Facial image processing apparatus and program | |
RU2329535C2 (en) | Method of automatic photograph framing | |
KR101407070B1 (en) | Method of extracting feature for human detection and apparatus for performing the same | |
US20060010582A1 (en) | Chin detecting method, chin detecting system and chin detecting program for a chin of a human face | |
JP2007219899A (en) | Personal identification device, personal identification method, and personal identification program | |
JPH09270010A (en) | Device for recognizing feature value of face picture | |
JPH08279044A (en) | Pattern recognition device and gesture recognition device | |
CN114821676A (en) | Passenger flow human body detection method and device, storage medium and passenger flow statistical camera | |
JPH11283036A (en) | Object detector and object detection method | |
JP3447751B2 (en) | Pattern recognition method | |
JP4852454B2 (en) | Eye tilt detection device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |