[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH06262959A - Alarm device for distracting driving - Google Patents

Alarm device for distracting driving

Info

Publication number
JPH06262959A
JPH06262959A JP5054347A JP5434793A JPH06262959A JP H06262959 A JPH06262959 A JP H06262959A JP 5054347 A JP5054347 A JP 5054347A JP 5434793 A JP5434793 A JP 5434793A JP H06262959 A JPH06262959 A JP H06262959A
Authority
JP
Japan
Prior art keywords
interest
point
driver
points
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5054347A
Other languages
Japanese (ja)
Inventor
Katsuo Suzuki
木 勝 雄 鈴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP5054347A priority Critical patent/JPH06262959A/en
Publication of JPH06262959A publication Critical patent/JPH06262959A/en
Pending legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Eye Examination Apparatus (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

PURPOSE:To automatically give alarm for distracting driving constantly and accurately by photographing the eyes of a driver two-dimensionally and processing the image, thereby judging distracting driving when the position change in the eyes is not matched with the proceeding direction of a vehicle, and by giving alarm. CONSTITUTION:The face of a driver who drives a vehicle is photographed by a CCD camera 3 under the light of a floodlight 4. On one hand, the eyes in the photographed image are detected by an input/output control CPU 6 and a calculation CPU 8 while the position change of the eyes is detected. On the other hand, the proceeding direction of the vehicle is detected by an angle velocity detector 21 and an angle velocity detection circuit 20. When the position change of the eyes does not match with the proceeding direction of the vehicle, it is judged that the driver is driving distractingly. A buzzer 5 is activated through a buzzer controller 19, and the attention of the driver is thus provoked. Alarm for distracting driving can thus be issued automatically, and constantly correctly.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、車両上の運転警報装置
に関し、特に、ドライバの顔をビデオカメラで撮影し画
像処理により画像上の眼像を検出し眼像を時系列で監視
して、車両走行の安全性が損なわれるようなドライバの
行状に対して自動的に警報を発っする警報装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle driving warning device, and more particularly to a driver's face photographed by a video camera to detect an eye image on the image by image processing and monitor the eye image in time series. The present invention relates to an alarm device that automatically issues an alarm for a driver's behavior that impairs vehicle safety.

【0002】[0002]

【従来の技術】例えば、特公平3−14656号公報に
は、ドライバ(運転者)の居眠り運転防止のために、ド
ライバの目に赤外線を照射しその反射光を検出し、反射
光検出値に基づいてまばたきを判定し、まばたき頻度に
基づいてドライバの居眠りを検知する技術が提示されて
いる。居眠り検知装置は、めがねに装備されている。ま
た、特公平4−284号公報には、車両上ドライバ(運
転者)の顔をカメラで撮影し、撮影画像上において目お
よび口を認識する技術が開示されている。これは、ドラ
イバに特別なものを付ける必要はなく、ドライバの顔を
ビデオカメラで撮影し、撮影画像上で目を検出および追
跡して、目の開度(開,閉)を算出し、開度に基づいて
目を閉じているか否かを判定する。ドライバの顔部を照
明する照明灯の明るさは、画像デ−タに基づいて目およ
び口を認識するのに最適に調整される。画像データはフ
レームメモリに格納されると共に、2値化される。2値
データに基づいてドライバの目および口が検出される。
目の閉じ時間が長いと、ドライバが居眠りをしていると
見なして警報が発っせられる。
2. Description of the Related Art For example, in Japanese Examined Patent Publication No. 3-14656, in order to prevent a driver (driver) from falling asleep, infrared rays are radiated to the driver's eyes to detect reflected light, and the reflected light detection value is set. There is proposed a technique of determining blinking based on the blinking frequency and detecting drowsiness of the driver based on the blinking frequency. The drowsiness detection device is equipped with glasses. Japanese Patent Publication No. 4-284 discloses a technique in which the face of a vehicle driver (driver) is photographed by a camera and the eyes and mouth are recognized on the photographed image. This is because it is not necessary to attach anything special to the driver, the driver's face is photographed with a video camera, the eyes are detected and tracked on the photographed image, the eye opening (open, closed) is calculated, and the eyes are opened. Whether or not the eyes are closed is determined based on the degree. The brightness of the lamp that illuminates the driver's face is optimally adjusted to recognize the eyes and mouth based on the image data. The image data is stored in the frame memory and binarized. The driver's eyes and mouth are detected based on the binary data.
If the eyes are closed for too long, the driver is considered dozing and an alarm is issued.

【0003】[0003]

【発明が解決しようとする課題】車両運転では、ドライ
バの居眠りのみならず脇見が車両走行の安全性を損なう
ことがあり、脇見を自動検知し警報を発っする装置があ
れば、車両運転の安全性がより向上すると期待される。
When driving a vehicle, not only the driver's drowsiness but also the inattentiveness may impair the safety of the vehicle traveling. If there is a device for automatically detecting the inattentive and issuing an alarm, it is safe to drive the vehicle. It is expected that the sex will improve further.

【0004】本発明は、車両運転者の脇見に対して自動
的に警報を発っすることを目的とする。
An object of the present invention is to automatically give an alarm to a driver looking aside.

【0005】[0005]

【課題を解決するための手段】本発明の脇見運転警報装
置は、車両上ドライバを撮影する2次元撮像手段(3);
該2次元撮像手段(3)が撮影した画像上の、眼像を検出
する像検出手段(6,8);該像検出手段(6,8)が検出した眼
像の位置の変化を算出する移動検出手段(6,8);前記車
両の進行方向を検出する方向検出手段(21,20);前記移
動検出手段(6,8)が算出した変化と前記方向検出手段(2
1,20)が検出した車両進行方向の一致/不一致を検出す
る脇見判定手段(6,8);警報手段(19,5);および、前記
脇見判定手段(6,8)の不一致の検出に従って前記警報手
段(19,5)を付勢する警報制御手段(6,8);を備える。な
お、カッコ内の記号は、図面に示し後述する実施例の対
応要素又は対応事項に付したものである。
The inattentive driving warning device of the present invention is a two-dimensional image pickup means (3) for photographing an on-vehicle driver;
Image detecting means (6, 8) for detecting an eye image on the image photographed by the two-dimensional imaging means (3); Calculate a change in the position of the eye image detected by the image detecting means (6, 8) Movement detecting means (6, 8); Direction detecting means (21, 20) for detecting the traveling direction of the vehicle; Change calculated by the movement detecting means (6, 8) and the direction detecting means (2
Inattentive judgment means (6,8) for detecting the match / mismatch of the vehicle traveling directions detected by (1,20); warning means (19,5); and in accordance with the detection of inconsistency by the inattentive judgment means (6,8). An alarm control means (6, 8) for activating the alarm means (19, 5) is provided. In addition, the symbols in parentheses are attached to corresponding elements or corresponding matters in the embodiments shown in the drawings and described later.

【0006】[0006]

【作用】車両上ドライバの脇見の場合、ドライバの顔の
向きが車両前方から右又は左にずれ、2次元撮像手段
(3)でドライバを撮影していると、撮影画像上で眼像の
位置が右又は左にずれる。すなわち眼像の位置が変化す
る。移動検出手段(6,8)が、像検出手段(6,8)が検出した
眼像の位置より、このずれを算出する。ところで、車両
がタ−ンしているときには、車両の前後方向長手軸と車
両の進行方向とは異なり、ドライバはタ−ン方向を見る
ので、撮影画像上で眼像の位置がタ−ン方向(右又は
左)にずれる。すなわち、道路のカ−ブでは、直進走行
の場合の脇見の場合と同様な、眼像の位置変化を生ず
る。本発明の脇見運転警報装置では、方向検出手段(21,
20)が車両の進行方向を検出し、脇見判定手段(6,8)が眼
像の位置変化と車両進行方向の一致/不一致を検出す
る。一致の場合は例え眼像の位置変化があっても、それ
はカ−ブ走行によるものである。しかして警報制御手段
(6,8)が、不一致の検出に従って警報手段(19,5)を付勢
するので、ドライバの視線が車両進行方向と異なるとき
に、警報が自動的に発っせられる。
When the driver on the vehicle looks aside, the direction of the driver's face shifts from the front of the vehicle to the right or left, and the two-dimensional image pickup means.
When the driver is photographed in (3), the position of the eye image shifts to the right or left on the photographed image. That is, the position of the eye image changes. The movement detecting means (6, 8) calculates this deviation from the position of the eye image detected by the image detecting means (6, 8). By the way, when the vehicle is turning, unlike the longitudinal axis of the vehicle and the traveling direction of the vehicle, the driver looks in the turning direction, so the position of the eye image on the photographed image is in the turning direction. Shift to (right or left). That is, in the curve of the road, the position change of the eye image occurs as in the case of looking aside when traveling straight ahead. In the inattentive driving warning device of the present invention, the direction detection means (21,
20) detects the traveling direction of the vehicle, and the inattentiveness judging means (6, 8) detects a change in the position of the eye image and a match / mismatch between the vehicle traveling directions. In the case of coincidence, even if there is a change in the position of the eye image, it is due to the curve running. Then alarm control means
Since (6, 8) activates the alarm means (19, 5) in accordance with the detection of the inconsistency, the alarm is automatically issued when the driver's line of sight is different from the traveling direction of the vehicle.

【0007】ところで、ドライバがル−ムミラ−(車内
のバックミラ−)又はサイドミラ−(車外のドアミラ−
又はボンネットミラ−)を見るときには、ドライバの視
線が車両進行方向から外れる。この後方確認又は側方確
認は短時間である。そこで本発明の好ましい実施例で
は、警報制御手段(6,8)は、不一致の検出に応答して計
時を開始し不一致の検出が継続すると設定時間(1秒)後
に警報手段(19,5)を付勢するものとする。これによれ
ば、短時間(1秒未満)の脇見や短時間(1秒未満)の後方確
認又は側方確認の場合には警報は発っせられない。後方
確認又は側方確認でもそれが設定時間(1秒)以上になる
と警報が発っせられる。
By the way, the driver is a room mirror (a back mirror inside the vehicle) or a side mirror (a door mirror outside the vehicle).
Alternatively, when looking at the hood mirror, the driver's line of sight deviates from the traveling direction of the vehicle. This rearward confirmation or lateral confirmation is a short time. Therefore, in the preferred embodiment of the present invention, the alarm control means (6, 8) starts the clocking in response to the detection of the inconsistency, and if the detection of the inconsistency continues, the alarm means (19, 5) after the set time (1 second). Shall be activated. According to this, the alarm cannot be issued in the case of looking aside for a short time (less than 1 second) or rearward confirmation or lateral confirmation for a short time (less than 1 second). Even if you check backward or sideward, if it exceeds the set time (1 second), an alarm will be issued.

【0008】また、眼像の位置変化の基点(基準)は、
通常の車両運転で車両前方を運転者が見るときの眼像位
置を想定して予め装置に固定値と設定しておくとか、運
転者が操作ボ−ドで位置情報を入力しあるいは調整する
とか、更には、運転者が自己が最も定常的と見なす姿勢
のときに装置のセットスイッチを操作し、装置はそのと
きの眼像位置を基準位置として記憶するとか、各種態様
で定めることができるが、本発明の好ましい実施例で
は、移動検出手段(6,8)は、眼像の位置の、比較的に短
い時間区間(0.5秒)の第1平均位置と比較的に長い時間
区間(5秒)の第2平均位置を算出し、第2平均位置に対
する第1平均位置の偏差を眼像の位置の変化とする。こ
れによれば、比較的に長い時間区間(5秒)の第2平均位
置は、車両進行方向を見る定常的な運転中の眼像位置
(時系列中心値又は代表値)であり、比較的に短い時間区
間(0.5秒)の第1平均位置はいわば瞬時位置である。ド
ライバの運転姿勢が時系列で変化するのは一般的である
がこの変化は緩やかである。この変化に第2平均位置が
追従する。したがって、第2平均位置に対する第1平均
位置の偏差(すなわち、時系列中心値に対する瞬時値の
偏差)は、非定常な位置変化量、例えば脇見又はミラ−
確認によるものである。この実施例によればしたがっ
て、ドライバの運転姿勢の時系列の変動によって誤警報
を発っする確率が低い。本発明の他の目的および特徴
は、図面を参照した以下の実施例の説明より明らかにな
ろう。
Further, the base point (reference) of the position change of the eye image is
It is possible to set a fixed value in the device in advance assuming the eye image position when the driver looks at the front of the vehicle in normal vehicle driving, or the driver inputs or adjusts position information using the operation board. In addition, the driver operates the set switch of the device when the driver considers the posture to be the most stationary, and the device stores the eye image position at that time as a reference position, or it can be determined in various modes. In a preferred embodiment of the present invention, the movement detecting means (6, 8) is configured so that the first average position of the eye image position in a relatively short time section (0.5 seconds) and a relatively long time section (5 seconds). ) Is calculated, and the deviation of the first average position from the second average position is taken as the change in the position of the eye image. According to this, the second average position in a relatively long time section (5 seconds) is the eye image position during steady driving looking in the vehicle traveling direction.
(Time series center value or representative value), and the first average position in a relatively short time section (0.5 seconds) is, so to speak, an instantaneous position. It is common for the driver's driving posture to change over time, but this change is gradual. The second average position follows this change. Therefore, the deviation of the first average position from the second average position (that is, the deviation of the instantaneous value from the time-series center value) is an unsteady position change amount, for example, the inattentive or mirror.
This is due to confirmation. According to this embodiment, therefore, the probability of giving a false alarm due to the time-series variation of the driver's driving posture is low. Other objects and features of the present invention will become apparent from the following description of embodiments with reference to the drawings.

【0009】[0009]

【実施例】図1に、一実施例の構成を示す。この実施例
は車両上ドライバの顔を撮影して撮像画像中の目を検出
し、時系列で目を追跡して、目の開,閉を認識し、所定
時間以上継続して目が閉じられている(居眠り)とブザー
5を付勢するものである。CCDカメラ3およびドライ
バの少なくとも顔部を照明する照明灯4は、図2に示す
ように、一体に構成されてインスツルメントパネル2
に、上下および左右に指向方向を調整自在に固着されて
いる。CCDカメラ3の側面には警報を発生するブザー
5およびブザー5の警報を止めるストップスイッチSS
Wが設けられている。照明灯4は、発光ダイオードから
構成される赤外線照明であり、CCDカメラ3は赤外線
領域における感度を有している。赤外線照明は、普通光
による照明と異なりドライバにまぶしさを与えることが
ないのでドライバの前方視認をむつかしくすることがな
い。したがって照明灯4は常時点灯してもよい。図2に
おいて、符号1は車両の走行方向制御のためドライバが
操作するステアリングホイールである。
EXAMPLE FIG. 1 shows the configuration of an example. In this embodiment, the driver's face on the vehicle is photographed to detect the eyes in the captured image, the eyes are tracked in time series to recognize whether the eyes are open or closed, and the eyes are closed for a predetermined time or longer. When it is sleeping (sleeping), it activates the buzzer 5. As shown in FIG. 2, the CCD camera 3 and the illuminating lamp 4 for illuminating at least the face portion of the driver are integrally configured to form an instrument panel 2.
In addition, it is fixed so that the pointing direction can be adjusted vertically and horizontally. A buzzer 5 for generating an alarm and a stop switch SS for stopping the alarm of the buzzer 5 are provided on the side surface of the CCD camera 3.
W is provided. The illuminating lamp 4 is an infrared illuminator composed of a light emitting diode, and the CCD camera 3 has sensitivity in the infrared region. The infrared illumination does not give glare to the driver, unlike the illumination by ordinary light, and thus does not make the driver's front view difficult. Therefore, the illumination lamp 4 may be constantly turned on. In FIG. 2, reference numeral 1 is a steering wheel operated by a driver for controlling the traveling direction of the vehicle.

【0010】再度図1を参照する。ブザー5はブザーコ
ントローラ19によりオン/オフ付勢される。このブザ
ー5は後述するように、ドライバが目を閉じた状態が所
定時間以上継続すると(居眠りと見なして)付勢され
る。また照明灯4は赤外線ランプコントローラ18によ
り点灯付勢される。ブザーコントローラ19,赤外線ラ
ンプコントローラ18,その他出力(ラジオ,エアコ
ン,ワイパ,ヘッドライト等を制御するコントローラ)
には、マイクロプロセッサ6が、インターフェイス13
を介してオン/オフ指示信号等を与える。
Referring again to FIG. The buzzer 5 is turned on / off by the buzzer controller 19. As will be described later, the buzzer 5 is urged when the driver's eyes are closed for a predetermined time or longer (assuming that the driver is asleep). The illumination lamp 4 is energized by the infrared lamp controller 18. Buzzer controller 19, infrared lamp controller 18, other outputs (controller that controls radio, air conditioner, wiper, headlight, etc.)
Includes a microprocessor 6 and an interface 13
An on / off instruction signal or the like is given via.

【0011】車両上には角速度検出器21が搭載されて
おり、この検出器21は角速度検出回路20により励振
付勢され、車両の右方向タ−ンのときには正極性の、左
方向タ−ンのときには負極性の回転角速度信号を発生
し、検出回路20がこの角速度信号を校正処理(波形整
形および増幅)して、パラレルインタ−フェイス13に
与える。インタ−フェイス13は、回転角速度信号の極
性を判別し極性を表わす信号をマイクロプロセッサ6に
与える。
An angular velocity detector 21 is mounted on the vehicle, and the detector 21 is excited and excited by the angular velocity detection circuit 20. When the vehicle is in the right turn, the positive turn is made in the left turn. In the case of, a negative rotation angular velocity signal is generated, and the detection circuit 20 calibrates (waveforms and amplifies) this angular velocity signal and supplies it to the parallel interface 13. The interface 13 discriminates the polarity of the rotational angular velocity signal and gives a signal indicating the polarity to the microprocessor 6.

【0012】CCDカメラ3は、2次元CCDを備える
ものであり、このCCDカメラ3に、インターフェイス
16を介して、マイクロプロセッサ6が、オン/オフ信
号を与える。CCDカメラ3は、撮影した映像信号(ビ
デオ信号:アナログ)を繰り返してA/Dコンバータ1
7に出力すると共に、画素同期パルスをA/Dコンバー
タ17にA/D変換同期パルスとして与えると共に、フ
レーム同期パルス,ライン同期パルスおよび画素同期パ
ルスをインターフェイス16を介してマイクロプロセッ
サ6に与える。
The CCD camera 3 is provided with a two-dimensional CCD, and the microprocessor 6 gives an ON / OFF signal to the CCD camera 3 via an interface 16. The CCD camera 3 repeats the captured video signal (video signal: analog) to repeat the A / D converter 1
7 and outputs the pixel sync pulse to the A / D converter 17 as an A / D conversion sync pulse, and also applies the frame sync pulse, the line sync pulse and the pixel sync pulse to the microprocessor 6 via the interface 16.

【0013】マイクロプロセッサ6は、画像データの1
フレーム分を読込むときには、フレーム同期パルスに同
期してフレームメモリ(RAM)12に書込みを指示
し、ライン同期パルスおよび画素同期パルスに同期して
フレームメモリ12の書込アドレスを進める。フレーム
メモリ12には、この例ではCCDカメラ3が1画面を
横512画素,縦485画素分割で撮影するので、51
2×485画素分の256階調の画像デ−タを記憶しう
る画像メモリを使用する。
The microprocessor 6 uses the image data 1
When reading a frame, the frame memory (RAM) 12 is instructed to write in synchronization with the frame sync pulse, and the write address of the frame memory 12 is advanced in synchronization with the line sync pulse and the pixel sync pulse. In the frame memory 12, in this example, the CCD camera 3 captures one screen with 512 horizontal pixels and 485 vertical pixels.
An image memory capable of storing 256-gradation image data for 2 × 485 pixels is used.

【0014】A/Dコンバータ17は、ビデオ信号を8
ビット(256階調)のデジタルデータに変換する。す
なわち、フレームメモリ12に書込まれる画像データ
は、一画素(以下ドット)当り8ビット(256階調)
の、明るさを示すデ−タである。したがってマイクロプ
ロセッサ6はフレームメモリ12の値を読み出すこと
で、画面上の任意の位置の明るさを知ることができる。
The A / D converter 17 converts the video signal into 8
It is converted into digital data of bits (256 gradations). That is, the image data written in the frame memory 12 is 8 bits (256 gradations) per pixel (hereinafter, dot).
Is data indicating the brightness. Therefore, the microprocessor 6 can know the brightness at any position on the screen by reading the value in the frame memory 12.

【0015】マイクロプロセッサ6には、各種画像処理
および判定用の演算を行うためにもう1つのマイクロプ
ロセッサ8が接続されており、また通常のコンピュータ
システム制御用のROM9およびRAM10,バスコン
トローラ15および前述のフレームメモリ12が接続さ
れている。
The microprocessor 6 is connected to another microprocessor 8 for performing various image processing and arithmetic operations for determination, and a ROM 9 and a RAM 10 for controlling a normal computer system, a bus controller 15 and the above-mentioned. The frame memory 12 of is connected.

【0016】図3に、マイクロプロセッサ6および8の
動作の概要(メインルーチン)を示し、動作の詳細(サ
ブルーチン)を図4〜図15に示す。以下これらの図面
を参照して、設定されたプログラムに基づいたマイクロ
プロセッサ6および8の制御動作を説明する。
FIG. 3 shows an outline (main routine) of the operation of the microprocessors 6 and 8, and details of the operation (subroutine) are shown in FIGS. The control operation of the microprocessors 6 and 8 based on the set program will be described below with reference to these drawings.

【0017】まず動作の概要を図3を参照して説明す
る。電源が投入されるとマイクロプロセッサ6は、初期
化を行う(ステップ1:以下カッコ内ではステップとい
う語を省略する)。これにおいては、入出力ポートを初
期化して、内部レジスタ,フラグ等をクリアし、CCD
カメラ3および赤外線ランプコントローラ18にオンを
示す付勢信号を与え、ブザーコントローラ19にオフを
示す信号を与える。またマイクロプロセッサ6は、図1
6に示すように、フレームメモリ12に書込む画像デ−
タの一画面分布に対して、画面の中央付近に横25個,
縦17個,の総計425個の注目点(カーソル)を縦,
横15ドット間隔で配置する。この間隔は、画面上で人
の目の大きさがどの程度になるかによって変わるが、図
17に示すように、CCDカメラ3の撮影画面上で1つ
の目の縦方向の最大幅は30ドット,横方向は40〜5
0ドットであるため、1つの目の領域に少くとも1個の
注目点が存在するように、本実施例では15ドット間隔
としている。図16のように、フレームメモリ12に書
込まれる画像の横方向をx軸,縦方向をy軸とした場合
(画像の左上端座標(0,0),右下端座標(511,
484))、425個の注目点の左上端座標を(68,
200),右下端座標を(428,440)となるよう
注目点を配置し、その座標データ(Xm,Yn)を、図1
8に示すような、RAM(メモリ)10(図1)のメモリ
テーブルのアドレスAnmに書込む。
First, the outline of the operation will be described with reference to FIG. When the power is turned on, the microprocessor 6 performs initialization (step 1: hereinafter, the word step is omitted in parentheses). In this, the I / O ports are initialized, the internal registers, flags, etc. are cleared, and the CCD
The camera 3 and the infrared lamp controller 18 are supplied with an energizing signal indicating ON, and the buzzer controller 19 is supplied with a signal indicating OFF. Further, the microprocessor 6 is similar to that shown in FIG.
As shown in FIG. 6, image data to be written in the frame memory 12
25 screens in the center of the screen,
A total of 425 points of interest (cursors), 17 in the vertical direction,
It is arranged at intervals of 15 dots horizontally. This interval varies depending on the size of the human eyes on the screen, but as shown in FIG. 17, the maximum vertical width of one eye on the shooting screen of the CCD camera 3 is 30 dots. , Horizontal direction is 40-5
Since there are 0 dots, the interval is 15 dots in this embodiment so that at least one target point exists in one eye area. As shown in FIG. 16, when the horizontal direction of the image written in the frame memory 12 is the x-axis and the vertical direction is the y-axis (the upper left corner coordinates (0, 0) of the image, the lower right coordinates (511,
484)) and the upper left corner coordinates of the 425 points of interest are (68,
200), the target point is arranged so that the lower right coordinate is (428, 440), and its coordinate data (X m , Y n ) is calculated as shown in FIG.
Write to address A nm in the memory table of RAM (memory) 10 (FIG. 1) as shown in FIG.

【0018】ただし、Xm=68+15(m−1);1
≦m≦25, Yn=200+15(n−1);1≦n≦17,であ
る。
However, X m = 68 + 15 (m-1); 1
≦ m ≦ 25, Y n = 200 + 15 (n−1); 1 ≦ n ≦ 17.

【0019】そして初期化から所定時間(照明ランプ4
の明るさが安定し、ドライバの顔が運転時の位置に静止
するのを待っ時間)の後、CCDカメラ3からのフレー
ム同期パルスに同期して、1フレーム分の画像データ
の、フレームメモリ12への書込みを開始し、1フレー
ム分の画像データ(1ドット当り8ビットの多階調デー
タ)をメモリ12に書込む(2)。
Then, a predetermined time (lighting lamp 4
Of the image data for one frame in synchronization with the frame sync pulse from the CCD camera 3 after waiting for the brightness of the driver to stabilize and the driver's face to stop at the driving position). Writing is started, and image data for one frame (8-bit multi-gradation data per dot) is written in the memory 12 (2).

【0020】次にマイクロプロセッサ6は、各々の注目
点を中心とした小領域を設定し、該領域内で最も暗い点
に注目点の座標を更新する(3)。この操作を425個
の注目点のすべてについて行う。この内容は、図4を参
照して後述する。
Next, the microprocessor 6 sets a small area centered on each target point and updates the coordinates of the target point to the darkest point in the area (3). This operation is performed for all 425 points of interest. The contents will be described later with reference to FIG.

【0021】次にマイクロプロセッサ6は、座標更新後
の注目点について、周辺に他の注目点が存在しない孤立
点を消去したり、ある注目点の近傍の他の注目点を1つ
にまとめる処理等を行い、最終的に注目点の数Nが人の
目の数,すなわち注目点が2個であるか否かの判定を行
う(4)。この内容は、図5〜12を参照して後述す
る。最終的に注目点の数Nが2でない場合には、ステッ
プ2に戻る。
Next, the microprocessor 6 erases the isolated points having no other points of interest from the points of interest after the coordinate update, or combines other points of interest in the vicinity of a certain point of interest into one. Etc., and finally, it is determined whether the number N of attention points is the number of eyes of a person, that is, whether there are two attention points (4). The contents will be described later with reference to FIGS. Finally, when the number N of attention points is not 2, the process returns to step 2.

【0022】注目点が2個であれば、注目点の座標は人
の両目の位置を示すものとみなして、毎フレームをメモ
リ12に書込むごとに該注目点を追跡して、時系列的に
両目の開閉状態を検知してドライバが居眠り,あるいは
脇見をしているか否かの判断を行う(5)。この内容は
図13および図14を参照して後述する。追跡処理中
に、追跡不能となるとステップ1の初期化に戻る。
If there are two points of interest, the coordinates of the points of interest are regarded as indicating the positions of both eyes of a person, and the points of interest are tracked each time each frame is written in the memory 12, and the points of interest are tracked in time series. Then, the open / closed state of both eyes is detected to determine whether the driver is dozing or looking aside (5). The contents will be described later with reference to FIGS. 13 and 14. If tracking becomes impossible during the tracking process, the process returns to the initialization of step 1.

【0023】図4を参照して、「小領域での暗点検出」
(3)の内容を説明する。これは、注目点を中心に縦横
方向に±10ドット範囲の小領域を設定し、小領域内で
一番暗い点を示す座標に注目点の座標を更新する処理で
ある。
Referring to FIG. 4, "dark spot detection in a small area"
The contents of (3) will be described. This is a process of setting a small area within a range of ± 10 dots in the vertical and horizontal directions around the target point, and updating the coordinates of the target point to the coordinates indicating the darkest point in the small area.

【0024】まず、マイクロプロセッサ6はレジスタ
m,nに1をセットし(31)、図18に示すメモリの
アドレスAnmの座標データXm,Ynを読み出す(3
2)。最初はアドレスA11の座標データX1,Y1が読み
出される。次にレジスタx1にXm−10をy1にYn−1
0をセットして小領域の左上端の座標を設定し(3
3)、レジスタx2にXm+10をy2にYn+10をセッ
トして小領域の右下端の座標を設定する(34)。そし
て、領域,x1≦x≦x2&y1≦y≦y2内においてフレ
ームメモリ12のデータを読み出して明るさ値の最も暗
い点を検出し、その座標をメモリのアドレスAnmに更新
メモリする(35)。次に、レジスタmを1インクレメ
ント(36)し、ステップ37でmの値が25より大き
くなるまではステップ32〜36の処理を繰り返す。す
なわち、これにより25個の注目点の座標(X1
1),(X2,Y1),・・,(X25,Y1)が更新され
る。レジスタmが25より大きくなると(37)、mの
値を1にセットしレジスタnを1インクレメントし(3
8)、ステップ39でnの値が17より大きくなるまで
はステップ32〜38の処理を繰り返す。これにより注
目点の座標(X1,Y2),(X2,Y2),・・,
(X25,Y2),(X1,Y3),(X2,Y3),・・,
(X25,Y3),・・・が更新され、総計425個の注
目点の座標が更新されると(ステップ39でYES)リ
ターンする。これにより、初期化で等間隔で配置された
注目点は人の目,眉や髪の毛等、暗い部分に移動する。
First, the microprocessor 6 sets 1 in the registers m and n (31) and reads the coordinate data X m and Y n at the address A nm of the memory shown in FIG. 18 (3
2). Initially, the coordinate data X 1 and Y 1 of the address A 11 are read. Next, register x 1 has X m −10 and y 1 has Y n −1.
Set 0 to set the coordinates of the upper left corner of the small area (3
3), X m +10 is set in the register x 2 and Y n +10 is set in y 2 to set the coordinates of the lower right corner of the small area (34). Then, the data of the frame memory 12 is read in the area x 1 ≤x≤x 2 & y 1 ≤y≤y 2 to detect the darkest point of the brightness value, and the coordinates are updated to the memory address A nm. Yes (35). Next, the register m is incremented by 1 (36), and the processes of steps 32 to 36 are repeated until the value of m becomes larger than 25 in step 37. That is, this allows the coordinates (X 1 ,
Y 1 ), (X 2 , Y 1 ), ..., (X 25 , Y 1 ) are updated. When the register m becomes larger than 25 (37), the value of m is set to 1 and the register n is incremented by 1 (3
8), the processes of steps 32 to 38 are repeated until the value of n becomes larger than 17 in step 39. As a result, the coordinates (X 1 , Y 2 ) of the point of interest, (X 2 , Y 2 ), ...
(X 25 , Y 2 ), (X 1 , Y 3 ), (X 2 , Y 3 ), ...
(X 25 , Y 3 ), ... Are updated, and when the coordinates of a total of 425 points of interest are updated (YES in step 39), the routine returns. As a result, the points of interest arranged at equal intervals during initialization move to dark areas such as the human eyes, eyebrows, and hair.

【0025】図5を参照して、「判定」(4)の制御動
作を説明する。判定では、黒目には複数の注目点が集ま
っているので孤立点を削除する、「孤立点の削除」(4
1),注目点の周辺に複数の注目点がある場合に一つの
注目点に統合する、「注目点近傍の他注目点の削除」
(42),注目点を中心とする縦方向と横方向の平均階
調を比較して縦階調の方が暗い注目点を削除する、「十
字階調差による削除」(43),予め検出した目のテン
プレート画像との比較を行って比較誤差の大きい注目点
を削除する、「テンプレートマッチングによる削除」
(44),注目点を中心とする右上斜め方向と左上斜め
方向の平均階調を比較して比較誤差の大きい注目点を削
除する、「斜め方向階調差による削除」(45),残存
する注目点をステップ3と同様の処理により小領域内で
最暗点に移動させる、「小領域での暗点検出」(4
6),互いに位置の近い注目点を統合する、「近傍注目
点の統合」(47),の処理を行い、最終的に残存する
注目点の数Nが両目に対応して2であるか否かを判定す
る、「注目点数の判定」(48)を実行する。
The control operation of the "determination" (4) will be described with reference to FIG. In the judgment, since a plurality of points of interest are gathered on the black eye, the isolated point is deleted.
1), when there are multiple points of interest around the point of interest, they are integrated into one point of interest, "deletion of other points of interest near the point of interest"
(42), comparing the average gray scales in the vertical and horizontal directions centering on the point of interest and deleting the point of interest with darker vertical gray scale, "deletion by cross gray scale difference" (43), detected in advance “Delete by template matching”, which removes the points of interest with a large comparison error by comparing it with the template image
(44), comparing the average gray scales in the upper right diagonal direction and the upper left diagonal direction centering on the target point to delete the target point having a large comparison error, "deletion due to diagonal direction gradation difference" (45), remaining By moving the point of interest to the darkest point in the small area by the same processing as in step 3, "dark point detection in small area" (4
6), the process of "unifying neighboring attention points" (47), which integrates the attention points that are close to each other, is performed, and whether or not the number N of the finally remaining attention points is 2 for both eyes Then, the “determination of the number of points of interest” (48) is executed.

【0026】図6を参照して、「孤立点の削除」(4
1)の制御動作を更に詳細に説明する。まず、マイクロ
プロセッサ6はレジスタm1,n1に1をセットし(410
1)、レジスタm1,n1の値をレジスタm,nにセットし
て(4102)、メモリのアドレスAnmの座標データXm,Yn
を読み出す(4103)。m1,n1は注目点を示すレジスタで
ある。最初はアドレスA11の座標データX1,Y1が読み
出される。次にレジスタx1にXm−10をy1にYn−1
0をセットして他の注目点の存在の有無を検出する領域
の左上端の座標を設定し(4104)、レジスタx2にXm
10をy2にYn+10をセットして検出領域の右下端の
座標を設定する(4105)。
Referring to FIG. 6, "deletion of isolated points" (4
The control operation 1) will be described in more detail. First, the microprocessor 6 sets 1 in the registers m 1 and n 1 (410
1), the values of the registers m 1 and n 1 are set in the registers m and n (4102), and the coordinate data X m and Y n of the memory address A nm are set.
Is read (4103). m 1 and n 1 are registers indicating points of interest. Initially, the coordinate data X 1 and Y 1 of the address A 11 are read. Next, register x 1 has X m −10 and y 1 has Y n −1.
0 is set to set the coordinates of the upper left corner of the area for detecting the presence or absence of another target point (4104), and X m + is set in the register x 2.
10. Set y 2 to Y n +10 to set the coordinates of the lower right corner of the detection area (4105).

【0027】次に、レジスタm2,n2に1をセットする
(4106)。レジスタm2,n2はm1,n1で示す注目点に対
する他の注目点を示すレジスタである。次にm1=m2
1=n2であるか、すなわち注目点と他の注目点とが同
一のものであるか否かをチェックする(4107)。同一の
ものであれば、孤立点の削除の必要はないため後述する
ステップ4112に進むが、同一でなければレジスタm,n
にm2,n2をセットし(4108)、メモリのアドレスAnm
データが存在するか否かをチェックし(4109)、データが
なければステップ4112に進むが、データが有ればその座
標データXm,Ynを読み出す(4110)。最初は、レジスタ
1,n1およびm2,n2には1がセットされるためステ
ップ4112に進みm2が1インクレメントされ、ステップ4
107に戻るので、注目点としてアドレスA11の座標デー
タX1,Y1と、他の注目点としてアドレスA21の座標デ
ータX2,Y1が読み出される。
Next, 1 is set in the registers m 2 and n 2.
(4106). The registers m 2 and n 2 are registers indicating other points of interest with respect to the points of interest indicated by m 1 and n 1 . Then m 1 = m 2 &
It is checked whether n 1 = n 2, that is, whether the target point is the same as another target point (4107). If they are the same, it is not necessary to delete the isolated points, and therefore the process proceeds to step 4112, which will be described later.
M 2 and n 2 are set to (4108), and it is checked whether or not data exists at the memory address A nm (4109). If there is no data, the process proceeds to step 4112. The data X m and Y n are read (4110). Initially, 1 is set in the registers m 1 and n 1 and m 2 and n 2 , so the flow advances to step 4112 to increment m 2 by 1 and step 4
Since the process returns to 107, the coordinate data X 1 and Y 1 at the address A 11 are read as the target points and the coordinate data X 2 and Y 1 at the address A 21 are read as the other target points.

【0028】次に、他の注目点の座標データXm,Yn
注目点の検出領域内に存在するか否かをチェックし(411
1)、存在すれば注目点は孤立点ではないのでそのまま残
置するが、検出領域内に存在しなければ、他の全ての注
目点についても検出領域内に在存するか否かを一つ存在
することが検知されるまで行う。すなわち、m2が25よ
り大きくなるまでm2を1インクレメントし(4112,411
3)、25より大きくなるとm2を1にセットしn2を1インク
レメントし(4114)、n2が17より大きくなるまでステッ
プ4107〜4111の処理を繰り返す(4115)。そして、注目点
を中心とする検出領域にその他の注目点が全く存在しな
い場合に(ステップ4115でYES)、レジスタm,nにm1
1をセットして(4116)、メモリのアドレスAnmの座標
データを消去する(4117)。
Next, it is checked whether or not the coordinate data X m , Y n of another target point exists in the detection region of the target point (411).
1) If it exists, the point of interest is not an isolated point and is left as it is, but if it does not exist in the detection area, there is one whether all other points of interest also exist in the detection area. Repeat until it is detected. That is, m 2 is incremented by 1 until m 2 becomes larger than 25 (4112,411
3), the n 2 sets m 2 to 1 when greater than 25 1 increments and (4114), n 2 repeats the processing at steps 4107 to 4111 until greater than 17 (4115). Then, when there is no other target point in the detection area centered on the target point (YES in step 4115), m 1 in the registers m and n,
sets the n 1 (4116), to erase the address A nm coordinate data in the memory (4117).

【0029】座標データの消去あるいは検出領域に一つ
他の注目点が存在すると、注目点を示すレジスタm1を1
インクレメントし(4118)、ステップ4102に戻り上述の処
理を残置する(ステップ4109でYES)全ての注目点に関し
て繰り返す(4118〜4121〜4102〜4118・・・)。そして全注
目点について孤立点か否かの判定を終了すると(4121でY
ES)、リターンする。すなわち注目点を中心とする±10
ドット領域内に他の注目点があるか否か判定し、他の注
目点が全く存在しないと、基準となる注目点はメモリ10
から消去される。これにより、人の目,眉や髪の毛等、
暗い部分に移動した注目点は残置されるが、それ以外の
注目点はメモリテーブルから消去される。図7を参照し
て、「注目点近傍の他注目点の削除」(42)の制御動
作を更に詳細に説明する。まず、マイクロプロセッサ6
はレジスタm1,n1に1をセットし(4201)、レジスタm
1,n1の値をレジスタm,nにセットして(4202)、メモ
リのアドレスAnmにデータが存在するか否かをチェック
する(4203)。これは「孤立点の削除」(41)処理によってデ
ータがメモリ10から消去されている場合があるからであ
る。なおm1,n1は基準となる注目点を示すレジスタで
ある。データがなければステップ4217に進むが、データ
が有ればその座標データXm,Ynを読み出す(4204)。次
に、レジスタx1にXm−5をy1にYn−5をセットして
他の注目点の存在の有無を検出する領域の左上端の座標
を設定し(4205)、レジスタx2にXm+5をy2にYn
5をセットして検出領域の右下端の座標を設定する(42
06)。
If another point of interest exists in the area where the coordinate data is erased or detected, the register m 1 indicating the point of interest is set to 1
Increment (4118), return to step 4102, and leave the above processing (YES at step 4109) and repeat for all points of interest (4118-4121-4102-4118 ...). When the determination of whether all the points of interest are isolated points is completed (Y in 4121
ES), return. That is, ± 10 around the point of interest
If there is no other point of interest in the dot area, and if there is no other point of interest, the reference point of interest is the memory 10
Erased from. As a result, human eyes, eyebrows, hair, etc.
The attention points moved to the dark part are left, but the other attention points are erased from the memory table. With reference to FIG. 7, the control operation of “deletion of other attention points near the attention point” (42) will be described in more detail. First, the microprocessor 6
Sets 1 to registers m 1 and n 1 (4201), and register m 1
The values of 1 and n 1 are set in the registers m and n (4202), and it is checked whether data exists at the memory address A nm (4203). This is because the data may have been erased from the memory 10 by the "deletion of isolated points" (41) process. It should be noted that m 1 and n 1 are registers indicating a reference point of interest. If there is no data, the process proceeds to step 4217, but if there is data, the coordinate data X m and Y n are read (4204). Next, X m -5 is set in the register x 1 and Y n -5 is set in y 1 to set the coordinates of the upper left corner of the area for detecting the presence or absence of another target point (4205), and register x 2 To X m +5 and y 2 to Y n +
Set 5 to set the coordinates of the lower right corner of the detection area (42
06).

【0030】次に、レジスタm2にm1+1を,n2にn1
セットする(4207)。「孤立点の削除」(41)と同様にm2,n
2に1をセットしないのは、メモリのアドレスAnmに残置
しているデータは、それ以前の注目点に対して検出領域
外のものであり、重複して検出する必要がないからであ
る。よって、基準となる注目点を示すレジスタm1,n1
に対し、検出領域に存在するか否かの対象となる他の注
目点のレジスタm2,n2はm1,n1より大きいものをチ
ェックすればよい。
Next, the register m 2 is set to m 1 +1 and the register n 2 is set to n 1 (4207). As in "Deletion of isolated points" (41), m 2 , n
The reason why 1 is not set to 2 is that the data remaining at the address A nm of the memory is outside the detection area with respect to the point of interest before that and does not need to be detected in duplicate. Therefore, the registers m 1 and n 1 indicating the reference point of interest
On the other hand, the registers m 2 and n 2 of the other points of interest, which are the objects of existence in the detection area, may be checked if they are larger than m 1 and n 1 .

【0031】次に、レジスタm,nにm2,n2をセット
し(4208)、メモリのアドレスAnmにデータが存在するか
否かをチェックし(4209)、データがなければステップ42
12に進むが、データが有ればその座標データXm,Yn
読み出す(4210)。
Next, m 2 and n 2 are set in the registers m and n (4208), and it is checked whether or not data exists at the memory address A nm (4209). If there is no data, step 42
12, the coordinate data X m and Y n are read if there is data (4210).

【0032】次に、他の注目点の座標データXm,Yn
注目点の検出領域内に存在するか否かをチェックし(421
1)、存在すればその点は注目点の近傍であるためメモリ
のアドレスAnmの座標データを消去する(4216)。一方、
検出領域外であればその点は残置する。これら処理を
「孤立点の削除」(41)と同様に全ての残存している注目点
について行う(4212〜4215〜4217〜4220〜4202〜4212,・・
・)。そして全注目点について孤立点か否かの判定を終了
すると(4220でYES)、リターンする。すなわち、注目点
を中心として±5ドット領域内の他の注目点はメモリ10
から消去し、領域内には注目点を一とする。これによ
り、人の目,眉や髪の毛等、暗い部分に移動した注目点
のうち近傍の注目点は一とされ、注目点の残存数は減少
する。
Next, it is checked whether or not the coordinate data X m , Y n of another target point exists within the detection region of the target point (421).
1) If it exists, the point is near the target point, and the coordinate data of the address A nm of the memory is deleted (4216). on the other hand,
If it is outside the detection area, the point is left. These processes are performed for all remaining attention points (4212 to 4215 to 4217 to 4220 to 4202 to 4212, ..., Similar to `` deletion of isolated points '' (41).
・). When the determination as to whether all the points of interest are isolated points is completed (YES in 4220), the process returns. That is, the other points of interest within the ± 5 dot area around the point of interest are the memory 10
And the target point is set to be one in the area. As a result, among the points of interest that have moved to dark areas such as human eyes, eyebrows, and hair, the points of interest in the vicinity are set to one, and the number of remaining points of interest decreases.

【0033】図8を参照して、「十字階調差による削
除」(43)の制御動作を更に詳細に説明する。まず、
マイクロプロセッサ6はレジスタm,nに1をセットし
(4301)、メモリのアドレスAnmにデータが存在するか否
かをチェックする(4302)。データがなければステップ43
10に進むが、データが有ればその座標データXm,Yn
読み出し(4303)、レジスタx1にXm−20をy1にYn
20をセットし(4304)、レジスタx2にXm+20をy
2にYn+20をセットする(4305)。
With reference to FIG. 8, the control operation of "deletion by cross gradation difference" (43) will be described in more detail. First,
The microprocessor 6 sets 1 in the registers m and n
(4301), it is checked whether or not data exists at the memory address A nm (4302). If there is no data, step 43
The process proceeds to 10, the coordinate data X m If there is data, it reads out the Y n (4303), the X m -20 to register x 1 to y 1 Y n -
20 is set (4304), and X m +20 is set to y in the register x 2.
Set Y n +20 to 2 (4305).

【0034】次に、領域,y=Yn&x1≦x≦x2、す
なわち注目点を中心に横方向±20ドットにおける各点
の明るさ値を検出し、その総和をレジスタTHにセット
し(4306)、領域,x=Xm&y1≦y≦y2、すなわち注
目点を中心に縦方向±20ドットにおける各点の明るさ
値を検出し、その総和をレジスタTVにセットする(430
7)。そして、THとTVを比較し(4308)、縦階調THの方
が横階調TVより大きい場合のみ注目点をメモリのアド
レスAnmから消去する(4309)。
Next, the area, y = Y n & x 1 ≦ x ≦ x 2 , that is, the brightness value of each point within ± 20 dots in the horizontal direction centering on the target point is detected, and the sum is set in the register T H. (4306), the area, x = X m & y 1 ≦ y ≦ y 2 , that is, the brightness value of each point in the vertical direction ± 20 dots centering on the target point is detected, and the sum thereof is set in the register T V. (430
7). Then, T H and T V are compared (4308), and only when the vertical gradation T H is larger than the horizontal gradation T V , the target point is erased from the memory address A nm (4309).

【0035】この処理を「注目点近傍の他注目点の削除」
(42)の終了時に残存する全注目点に関して行う(4310〜4
313〜4302〜4310,・・・)。すなわち、図17で示すよう
に、人の目の大きさは縦方向より横方向が長く、横階調
の方が縦階調より暗いので、注目点のうち縦階調の方が
暗いものは人の目の位置にあるものでないとしてメモリ
10から消去する。これにより、人の目や眉以外の特に髪
の毛等の暗い部分に移動した注目点の残存数は減少す
る。
This processing is performed by "deleting other attention points near the attention point".
Perform all remaining attention points at the end of (42) (4310-4
313-4302-4310, ...). That is, as shown in FIG. 17, the size of human eyes is longer in the horizontal direction than in the vertical direction, and the horizontal gradation is darker than the vertical gradation. Memory as not in the eye position of the person
Erase from 10. As a result, the number of remaining attention points that have moved to dark areas other than the human eyes and eyebrows, particularly hair, is reduced.

【0036】図9を参照して、「テンプレートマッチン
グによる削除」(44)の制御動作を更に詳細に説明す
る。まず、マイクロプロセッサ6はレジスタm,nに1
をセットし(4401)、メモリのアドレスAnmにデータが存
在するか否かをチェックする(4402)。データがなければ
ステップ4408に進むが、データが有ればその座標データ
m,Ynを読み出し(4403)、レジスタx1にXm−30を
1にYn−20をセットし(4404)、レジスタx2にXm
+30をy2にYn+20をセットする(4405)。 次
に、領域,x1≦x≦x2&y1≦y≦y2、内の各点の明
るさ値と、各点の位置に対応するテンプレートの領域,
0−30≦x≦x0+30&y0−20≦y≦y0+2
0、内の各点の明るさ値の差の絶対値の総和を検出し、
レジスタTnmにセットする(4406)。すなわち、注目点
を中心に縦方向±20ドット,横方向±30ドット範囲にお
ける各点(2400=60×40個)の階調度と、予め読み込んで
おいた人の目の中心(x0,y0)に同じく縦方向±20ドッ
ト,横方向±30ドット範囲における各点(2400=60×40個)
の階調度を、対応する各点,(Xm−30,Yn−20)と
(x0−30,y0−20),(Xm−29,Yn−20)と(x0
−29,y0−20),(Xm−28,Yn−20)と(x0−2
8,y0−20),・・・,(Xm,Yn)と(x0,y0),・
・・,(Xm+30,Yn+20)と(x0+30,y0+2
0),につきそれぞれ比較する。そして、セットしたT
nmをアドレスAnm対応でセーブする(4407)。
The control operation of "deletion by template matching" (44) will be described in more detail with reference to FIG. First, the microprocessor 6 sets 1 in the registers m and n.
Is set (4401), and it is checked whether data exists at the memory address A nm (4402). The process proceeds to step 4408 if there is no data, if there is data the coordinate data X m, reads Y n (4403), the X m -30 sets Y n -20 to y 1 to the register x 1 (4404 ), X m in register x 2
Set +30 to y 2 and Y n +20 (4405). Next, the brightness value of each point in the area, x 1 ≦ x ≦ x 2 & y 1 ≦ y ≦ y 2 , and the area of the template corresponding to the position of each point,
x 0 −30 ≦ x ≦ x 0 +30 & y 0 −20 ≦ y ≦ y 0 +2
The sum of the absolute values of the differences in the brightness value of each point within 0, is detected,
The register T nm is set (4406). That is, the tonality of each point (2400 = 60 × 40) in the range of ± 20 dots in the vertical direction and ± 30 dots in the horizontal direction around the point of interest and the center of the human eye (x 0 , y (0 ) Similarly, each point in the range of ± 20 dots in the vertical direction and ± 30 dots in the horizontal direction (2400 = 60 × 40)
And the gradient of each of the corresponding points, (X m −30, Y n −20)
(x 0 -30, y 0 -20 ), (X m -29, Y n -20) and (x 0
−29, y 0 −20), (X m −28, Y n −20) and (x 0 −2
8, y 0 -20), ..., (X m , Y n ) and (x 0 , y 0 ),
··, (X m + 30, Y n +20) and (x 0 + 30, y 0 +2
0), respectively. And the set T
Save nm with address A nm (4407).

【0037】この処理を「十字階調差による削除」(43)の
終了時に残存する全注目点に関して行う(4408〜4411〜4
402〜4408,・・・)。次に、総和グループ中の最大値と最小
値を検出し、それらの中間値T0を算出し(4412)、総和
が中間値T0より大きいアドレスの座標データをメモリ
から消去する(4413)。これにより、人の目以外の眉や髪
の毛等の暗い部分に移動した注目点の残存数は減少す
る。
This processing is performed for all remaining attention points at the end of the "deletion by cross tone difference" (43) (4408 to 4411 to 4).
402-4408, ...). Next, the maximum value and the minimum value in the total sum group are detected, the intermediate value T 0 between them is calculated (4412), and the coordinate data of the address whose total sum is larger than the intermediate value T 0 is erased from the memory (4413). This reduces the number of remaining attention points that have moved to dark areas such as eyebrows and hairs other than human eyes.

【0038】図10を参照して、「斜め方向階調差によ
る削除」(45)の制御動作を更に詳細に説明する。こ
れは前述の「十字階調差による削除」(43)の注目点
を中心とする縦横方向の十字を45度回転した位置にお
ける階調差による削除を行う処理である。まず、マイク
ロプロセッサ6はレジスタm,nに1をセットし(450
1)、メモリのアドレスAnmにデータが存在するか否かを
チェックする(4502)。データがなければステップ4512に
進むが、データが有ればその座標データXm,Ynを読み
出し(4503)、レジスタx1にXm−20をy1にYn−20
をセットし(4504)、レジスタx2にXm+20をy2
n+20をセットする(4505)。
With reference to FIG. 10, the control operation of "deletion by diagonal gradation difference" (45) will be described in more detail. This is a process of performing deletion by gradation difference at a position obtained by rotating the cross in the vertical and horizontal directions centered on the point of interest of the above "deletion by cross gradation difference" (43) by 45 degrees. First, the microprocessor 6 sets 1 in the registers m and n (450
1), it is checked whether or not data exists at the memory address A nm (4502). Proceeds Without data to step 4512, if there is data the coordinate data X m, reads Y n (4503), Y n -20 to X m -20 to y 1 in the register x 1
Sets (4504), the X m +20 sets Y n +20 to y 2 into register x 2 (4505).

【0039】次に、(x1,y1)と(x2,y2)を結ぶ
直線上,すなわち注目点の中心を通る左斜め上〜右斜め
下方向における各点の明るさ値を検出し、その総和をレ
ジスタTRDにセットし(4506)、(x1,y2)と(x2
1)を結ぶ直線上,すなわち注目点の中心を通る右斜
め上〜左斜め下方向における各点の明るさ値を検出し、
その総和をレジスタTRUにセットする(4507)。そし
て、TRDとTRUを比較し(4508)、両者の差がいずれか小
さい方の階調和の+20%の範囲にあるか否かをチェック
し(4509,4510)、範囲外の場合の注目点をメモリのアド
レスAnmから消去する(4511)。
Next, the brightness value of each point is detected on a straight line connecting (x 1 , y 1 ) and (x 2 , y 2 ), that is, in the left diagonally upper direction to the right diagonally lower direction passing through the center of the point of interest. Then, the sum is set in the register T RD (4506), and (x 1 , y 2 ) and (x 2 ,
y 1 ) on a straight line, that is, the brightness value of each point in the diagonally right upper direction to the left diagonally lower direction passing through the center of the point of interest is detected,
The sum is set in the register T RU (4507). Then, T RD and T RU are compared (4508), and it is checked whether the difference between the two is within + 20% of the smaller gradation sum (4509, 4510). The point is deleted from the memory address A nm (4511).

【0040】この処理を「テンプレートマッチングによ
る削除」(44)の終了時に残存する全注目点に関して行う
(4512〜4515〜4502〜4512,・・・)。すなわち、人の黒目の
中心に位置する注目点は、TRDとTRUの差はほとんどな
いので、差の大きい注目点をメモリ10から消去する。こ
れにより、人の目の縁や眉の縁に移動した注目点の残存
数は減少する。
This processing is performed for all remaining points of interest at the end of the “deletion by template matching” (44)
(4512-4515-4502-4512, ...). That is, since there is almost no difference between T RD and T RU for the point of interest located at the center of the human eye, the point of interest with a large difference is deleted from the memory 10. As a result, the number of remaining attention points that have moved to the edge of the human eye or the edge of the eyebrow decreases.

【0041】その後、残存する注目点をステップ46
(図5)で、小領域,注目点を中心として縦横方向±2
0ドットの範囲内で注目点を最暗点に移動させる、「小
領域での暗点検出」(46)を実行する。この処理(図
示しない)はステップ3(図4)と同様であるが、領域
範囲が±20ドット(図4では±10ドット)である
点,および図4のステップ31とステップ32の間に
「メモリのアドレスAnmにデータ有?」の判定処理を設
け、存在すればステップ32に進むが存在しなければス
テップ36に進むようにする点において異なる。
Thereafter, the remaining points of interest are identified in step 46.
In (Fig. 5), the small area and the point of interest are centered in the vertical and horizontal directions ± 2.
The "detection of dark spots in a small area" (46) of moving the target point to the darkest spot within the range of 0 dots is executed. This process (not shown) is the same as step 3 (FIG. 4), except that the area range is ± 20 dots (± 10 dots in FIG. 4) and that between step 31 and step 32 in FIG. The difference is that a determination process of "data exists at memory address A nm ?"

【0042】図11を参照して、「近傍注目点の統合」
(47)の制御動作を更に詳細に説明する。「注目点近
傍の他注目点の削除」(42)では、注目点を中心とす
る縦横方向±5ドット範囲内の他の注目点を削除した
が、「近傍注目点の統合」(47)では、縦横方向±2
0ドット範囲内に他の注目点が存在する場合には、両点
の中間位置に注目点を移動させて他の注目点を削除す
る。また、「注目点近傍の他注目点の削除」(42)で
は基準となる注目点を示すレジスタm1,n1に対し、検
出領域に存在するか否かの対象となる他の注目点のレジ
スタm2,n2はm1,n1より大きいものをチェックすれ
ばよかったが、「近傍注目点の統合」(47)では基準
となる注目点は移動するため、基準となる注目点に対し
残っている全ての注目点についてチェックする。
Referring to FIG. 11, "integration of neighboring points of interest"
The control operation (47) will be described in more detail. In "Delete other attention points in the vicinity of attention point" (42), other attention points within the range of ± 5 dots in the vertical and horizontal directions centering on the attention point were deleted, but in "Integration of neighborhood attention points" (47) , Horizontal and vertical ± 2
If another point of interest exists within the 0 dot range, the point of interest is moved to an intermediate position between the two points and the other point of interest is deleted. In addition, in the "deletion of other attention points near the attention point" (42), the registers m 1 and n 1 indicating the reference attention points are set to the other attention points which are the objects of presence or absence in the detection area. It suffices to check registers m 2 and n 2 that are larger than m 1 and n 1 , but in “Integration of neighboring attention points” (47), the reference attention point moves, so Check all remaining attention points.

【0043】まず、マイクロプロセッサ6はレジスタm
1,n1に1をセットし(4701)、レジスタm1,n1の値を
レジスタm,nにセットして(4702)、メモリのアドレス
nmにデータが存在するか否かをチェックし(4703)、デ
ータがなければステップ4722に進むが、データが有れば
メモリのアドレスAnmの座標データXm1,Yn1を読み出
す(4704)。m1,n1は基準となる注目点を示すレジスタ
である。次にレジスタx1にXm1−20をy1にYn1−2
0をセットして他の注目点の存在の有無を検出する領域
の左上端の座標を設定し(4705)、レジスタx2にXm1
+20をy2にYn1+20をセットして検出領域の右下
端の座標を設定する(4706)。
First, the microprocessor 6 uses the register m.
1 is set to 1 and n 1 (4701), the values of the registers m 1 and n 1 are set to the registers m and n (4702), and it is checked whether or not data exists at the memory address A nm. (4703) If there is no data, the process proceeds to step 4722, but if there is data, the coordinate data X m1 and Y n1 at the address A nm of the memory are read (4704). m 1 and n 1 are registers indicating a reference point of interest. Next, register x 1 has X m1 -20 and y 1 has Y n1 -2
Set 0 to set the coordinates of the upper left corner of the area for detecting the presence / absence of another target point (4705), and set X m1 in the register x 2.
The coordinate of the lower right corner of the detection area is set by setting Y n1 +20 to y 2 of +20 (4706).

【0044】次に、レジスタm2,n2に1をセットする
(4707)。レジスタm2,n2はm1,n1で示す注目点に対
する他の注目点を示すレジスタである。次にm1=m2
1=n2であるか、すなわち注目点と他の注目点とが同
一のものであるか否かをチェックする(4708)。同一の
ものであれば、統合する必要はないため後述するステッ
プ4718に進むが、同一でなければレジスタm,nに
2,n2をセットし(4709)、メモリのアドレスAnmにデ
ータが存在するか否かをチェックし(4710)、データがな
ければステップ4718に進むが、データが有ればその座標
データXm2,Yn2を読み出す(4711)。
Next, 1 is set in the registers m 2 and n 2.
(4707). The registers m 2 and n 2 are registers indicating other points of interest with respect to the points of interest indicated by m 1 and n 1 . Then m 1 = m 2 &
It is checked whether n 1 = n 2, that is, whether the target point is the same as another target point (4708). If they are the same, it is not necessary to integrate them, and the process proceeds to step 4718 described later. If they are not the same, m 2 and n 2 are set in the registers m and n (4709), and the data is stored in the memory address A nm. It is checked whether or not it exists (4710), and if there is no data, the process proceeds to step 4718, but if there is data, the coordinate data X m2 , Y n2 is read (4711).

【0045】次に、他の注目点の座標データXm2,Yn2
が注目点の検出領域内に存在するか否かをチェックし(4
712)、存在しなければ統合する必要はないのそのまま残
置するが、検出領域内に存在すれば、両注目点を統合す
る。すなわち、基準となる注目点と対象となる注目点の
中間位置(Xi,Yi)を計算し(Xi=(Xm1+Xm2)/2,
i=(Ym1+Ym2)/2)、中間位置(Xi,Yi)に注目
点を移動してメモリのアドレスAnmの座標データを更新
メモリし(4713〜4715)、対象となる注目点の座標データ
をメモリのアドレスAnmから消去する(4716,4717)。
Next, the coordinate data X m2 , Y n2 of the other points of interest.
Check whether or not exists in the detection area of the point of interest (4
712) If it does not exist, there is no need to integrate it, and it is left as it is, but if it exists in the detection area, both points of interest are integrated. That is, the intermediate position (X i , Y i ) between the reference point of interest and the target point of interest is calculated (X i = (X m1 + X m2 ) / 2,
Y i = (Y m1 + Y m2 ) / 2), the attention point is moved to the intermediate position (X i , Y i ) and the coordinate data of the address A nm of the memory is updated and stored (4713 to 4715) to be the target. The coordinate data of the target point is erased from the memory address A nm (4716, 4717).

【0046】この処理を残存する全注目点について行う
(4718〜4725〜4702〜4718,・・・)。これにより、注目点は
人の黒目の中心部を示す位置に近づく。
This processing is performed for all remaining points of interest.
(4718-4725-4702-4718, ...). As a result, the point of interest approaches the position indicating the center of the human iris.

【0047】図12を参照して、「注目点数の判定」
(48)の制御動作を更に詳細に説明する。まず、マイ
クロプロセッサ6はレジスタm,nに1,およびNに0
をそれぞれをセットし(4801)、メモリのアドレスAnm
データが存在するか否かをチェックする(4802)。データ
がなければステップ4805に進むが、データが有ればレジ
スタNを1インクレメントし(4803)、Nが2以下である
か否かをチェックする(4804)。Nが2以下であるとメ
モリの全領域についてデータが存在するか否かをチェッ
クする(4805〜4809〜4802〜4805,・・・)。すなわち、メモ
リ10に存在するデータの数,すなわち注目点の数は人の
目の数(=2)であるか否かをチェックする。このチェック
の途中にNが2より大きくなると(ステップ4804NO),
あるいは全領域についてチェック終了時にNが2でない
と(ステップ4810NO;N=0又は1のとき)両目の位置を注目
点によって特定することができなかったとして、図3の
ステップ2に戻り1フレーム画像の入力し、Nが2とな
るまで上述の「小領域での暗点検出」(3)および「判
定」(4)を繰り返す。
Referring to FIG. 12, "determination of the number of points of interest"
The control operation (48) will be described in more detail. First, the microprocessor 6 registers 1 in registers m and n and 0 in N.
Are set (4801), and it is checked whether data exists at the memory address A nm (4802). If there is no data, the process proceeds to step 4805, but if there is data, the register N is incremented by 1 (4803), and it is checked whether N is 2 or less (4804). If N is 2 or less, it is checked whether or not data exists in all areas of the memory (4805 to 4809 to 4802 to 4805, ...). That is, it is checked whether the number of data existing in the memory 10, that is, the number of attention points is the number of human eyes (= 2). If N becomes greater than 2 during this check (step 4804NO),
Alternatively, if N is not 2 at the end of the check for all areas (step 4810 NO; when N = 0 or 1), it is determined that the positions of both eyes cannot be specified by the points of interest, and the process returns to step 2 of FIG. Is input, and the above-mentioned “dark spot detection in small area” (3) and “determination” (4) are repeated until N becomes 2.

【0048】これにより、Nが2であれば両目の位置は
注目点によって特定されるので、メモリにある座標デー
タ(m1,n1)および(m2,n2)をセーブする(4811)。図
19に、最終的に残った2個の注目点が人の両目の位置
を特定する状態を示す。
As a result, if N is 2, the positions of both eyes are specified by the point of interest, so the coordinate data (m 1 , n 1 ) and (m 2 , n 2 ) in the memory are saved (4811). . FIG. 19 shows a state in which the last two remaining attention points specify the positions of both eyes of a person.

【0049】図13および図14に、図3に示す「追
跡」(5)の内容を示す。これにおいてマイクロプロセ
ッサ6はまず、1フレーム画像データをフレームメモリ
12に書込む(501)。そしてレジスタm,nにm1,n1
をセットする,すなわち人の両目のうち、いずれ一方の
目の位置を示す注目点のアドレスを示す値をセットする
(502)。そして、メモリのアドレスからその目の位置を
示す座標データXm,Ynを読み出す(503)。次に、「小領
域での暗点検出」(3)と同様に小領域(この場合は注目点
を中心として縦横方向±20ドットの範囲)を設定、すな
わちレジスタx1にX m−20をy1にYn−20をセット
して小領域の左上端の座標を設定し(504)、レジスタx2
にXm+20をy2にYn+20をセットして検出領域の
右下端の座標を設定する(505)。そして、領域,x1
x≦x2&y1≦y≦y2内においてフレームメモリ12
のデータを読み出して明るさ値の最も暗い点を検出し、
その座標をメモリのアドレスAnmに更新メモリする(50
6)。これにより一方の目の時系列的に変化する位置が
検出される。次に、目の開閉状態をチェックする。すな
わち、最暗点に移動した後の注目点を中心とする縦方向
±20ドット範囲における明るさ値の最大値T(max)と最
小値T(min)を検出し、その平均値を算出し、レジスタ
AVにセットする(507)。そしてTAV以下の明るさ値
を示す縦(y)方向の幅W1を検出する(508)。図13
に示す模式図において縦方向の幅は、W1=|y′−
y″|となる。
FIG. 13 and FIG. 14 show "Additional information" shown in FIG.
The content of "trace" (5) is shown. In this
The server 6 first stores one frame of image data in the frame memory.
Write on 12 (501). And m in the registers m, n1, N1
Set, that is, one of the two eyes of a person
Set the value that indicates the address of the point of interest that indicates the eye position
(502). Then, from the memory address
Coordinate data X to showm, YnIs read (503). Next, "President
Area detection (in this case, the point of interest in this case).
(The range of ± 20 dots in the horizontal and
Wachi register x1To X m-20 to y1To YnSet -20
Then set the coordinates of the upper left corner of the small area (504) and register x2
To Xm+20 to y2To YnSet +20 for the detection area
Set the coordinates of the lower right corner (505). And the region, x1
x ≦ x2& Y1≤ y ≤ y2In the frame memory 12
Data is read to detect the darkest point in the brightness value,
The coordinates are the address A of the memorynmUpdate memory to (50
6). This allows the position of one eye to change over time.
To be detected. Next, the open / closed state of the eyes is checked. sand
That is, the vertical direction centered on the point of interest after moving to the darkest point
Maximum brightness value T within ± 20 dot range(max)And up
Small value T(min)Detected, calculate the average value, and register
TAVSet to (507). And TAVThe following brightness values
Showing the width W in the vertical (y) direction1Is detected (508). FIG.
In the schematic diagram shown in, the width in the vertical direction is W1= | Y'-
y ″ |

【0050】同様の処理を他方の目についても行い縦
(y)方向の幅W2を検出する(509〜515)。これにより
時系列的に変化する両目の開閉度が検出される。
The same process is performed for the other eye to detect the width W 2 in the vertical (y) direction (509 to 515). As a result, the degree of opening / closing of both eyes that changes in time series is detected.

【0051】次に、両目の幅W1およびW2が所定値W0
以下であるか否かをチェックし(516)、いずれかの目が
所定値W0より大きいとドライバは正常(居眠り状態では
ない)と判定し、「脇見判定」525を実行しそしてス
テップ501に戻り上述の処理(501〜516〜501,・・・)を続行
する。「脇見判定」525の内容は図15を参照して後
述する。両目の幅W1およびW2が所定値W0以下になる
と、タイマの作動の有無を示すフラグFが0(作動して
いない)であるかチェックし(517)、フラグFが0であれ
ばマイクロプロセッサ6は内部タイマをオンし(518)、
フラグFに1をセットしタイマ作動中を示す(519)。そ
して、タイマがオーバしたかをチェックし(520)、タイ
マがオーバしていないとステップ501に戻り処理を繰り
返すが、タイマがオーバしているとドライバは居眠り状
態であると判定しブザーコントローラ19を介して、ドラ
イバからのストップ指示(ストップスイッチSSWをド
ライバがオン)があるまで警報を発し続ける(521〜52
2)。なお、一旦タイマがオンされてタイマがオーバして
いない間に、ドライバのいずれかの目の幅が所定値W0
より大きくなると(516)フラグは0にセットされるため
(524)、例えばドライバの自然のまだたき等、一時的に
目を閉じる状態(タイマのセット時間未満)では警報は発
せられない。警報オンの状態で、ドライバからのストッ
プ指示があるとステップ1の初期化に戻る(図3)。
Next, the widths W 1 and W 2 of both eyes are set to a predetermined value W 0.
It is checked whether or not it is the following (516), and if any of the eyes is larger than the predetermined value W 0, it is determined that the driver is normal (not in the dozing state), the “inattentiveness determination” 525 is executed, and the routine proceeds to step 501. Return The above processing (501 to 516 to 501, ...) Is continued. The contents of the “side-looking determination” 525 will be described later with reference to FIG. When the widths W 1 and W 2 of both eyes become equal to or less than the predetermined value W 0 , it is checked whether the flag F indicating whether the timer is operating is 0 (not operating) (517). If the flag F is 0, The microprocessor 6 turns on the internal timer (518),
The flag F is set to 1 to indicate that the timer is operating (519). Then, it is checked whether the timer is over (520), and if the timer is not over, the process returns to step 501 and repeats the process, but if the timer is over, it is determined that the driver is in the dozing state and the buzzer controller 19 is set. Via the driver, a warning is continued until a stop instruction is issued from the driver (stop switch SSW is turned on by the driver) (521 to 52).
2). It should be noted that while the timer is once turned on and the timer has not expired, the width of one of the eyes of the driver is equal to the predetermined value W 0.
If it becomes larger, the (516) flag will be set to 0.
(524), the alarm is not issued in the state where the eyes are temporarily closed (less than the set time of the timer) such as the driver's natural knocking. If the driver gives a stop instruction while the alarm is on, the process returns to the initialization of step 1 (FIG. 3).

【0052】次に、図15を参照して「脇見判定」52
5の内容を説明する。なお、この「脇見判定」525
は、左,右の眼の少くとも一方が開と判定(図14の5
16)しているときに実行される点に注意されたい。こ
こではまず、テ−ブルWa(メモリの1領域)のアドレ
ス49のデ−タをアドレス50に、アドレス48のデ−
タをアドレス49に書込むという具合に、テ−ブルWa
のデ−タ(のアドレス)をシフトして、このシフトによ
り開いたアドレス1に、最新の黒目位置座標(Xm,Y
n)(図13のステップ506でメモリのアドレスAn1
m1に書込んだ位置デ−タ)を書込む(5251)。
Next, referring to FIG. 15, a "look aside" 52
The contents of 5 will be described. It should be noted that this “inattentive judgment” 525
Determines that at least one of the left and right eyes is open (see 5 in FIG. 14).
16) Please note that it is executed while doing. Here, first, the data of address 49 of table Wa (one area of memory) is set to address 50 and the data of address 48 is set.
Data to address 49, table Wa
Data (address of) is shifted to the address 1 opened by this shift to the latest black eye position coordinates (Xm, Y
n) (at step 506 in FIG. 13, the memory address An1
The position data written in m1) is written (5251).

【0053】この「脇見判定」525が含まれる「追
跡」5は、0.1sec周期で繰返し実行するので、眼が連続
して開いている場合には、テ−ブルWaのアドレス1に
は今回算出したW値が、アドレス2には今回より0.1sec
前の算出値が、・・・そしてアドレス50には5sec前
の算出値が格納されている。
Since "tracking" 5 including this "looking aside" 525 is repeatedly executed at a cycle of 0.1 sec, when the eyes are continuously open, the address 1 of the table Wa is calculated this time. The W value is 0.1 seconds from address
The previous calculated value is ... And the calculated value 5 seconds before is stored in the address 50.

【0054】上述のように最新の黒目位置座標(Xm,
Yn)をアドレス1に書込むと、テ−ブルWaのアドレ
ス1〜50の座標の第2平均座標(Xm5,Yn5)
(現在から過去5secの間の中心値)を算出し(525
2)、更に、テ−ブルWaのアドレス1〜5の座標の第
1平均座標(Xmo,Yno)(現在から過去0.5se
cの間の中心値)を算出する(5253)。第1平均座
標(Xmo,Yno)はいわば黒目の瞬時位置を表わす
もの、第2平均座標(Xm5,Yn5)は黒目の時系列
変化の中心位置を表わすもの、である。
As described above, the latest iris position coordinates (Xm,
Yn) is written to the address 1, the second average coordinates (Xm5, Yn5) of the coordinates of the addresses 1 to 50 of the table Wa
Calculate (center value between the present and the past 5 seconds) (525
2) Furthermore, the first average coordinates (Xmo, Yno) of the coordinates of addresses 1 to 5 of the table Wa (from the present to the past 0.5se).
The central value between c) is calculated (5253). The first average coordinates (Xmo, Yno) represent, so to speak, the instantaneous position of the black eye, and the second average coordinates (Xm5, Yn5) represent the center position of the time series change of the black eye.

【0055】そして、第2平均座標(Xm5,Yn5)
に対する第1平均座標(Xmo,Yno)の、横方向
(X軸方向)のずれXdif=Xmo−Xm5(極性が黒
目の位置変化方向、値の絶対値が変化量)を算出する
(5254)。そして角速度検出器21が検出している
角速度信号Wjの正(右タ−ン),負(左タ−ン)を判
定して(5255)、Xdif≧A(車両前方より視線が
左にある)かつWj≧0(車両は直進又は右タ−ン)で
あると左脇見と判定し、Xdif≦−A(車両前方より視
線が右にある)かつWj≦0(車両は直進又は左タ−
ン)であると右脇見と判定する(5256,525
7)。いずれでもないと脇見でないと判定する。右脇見
又は左脇見と判定すると、レジスタFsaのデ−タをチ
ェックして、それが0(この直前は脇見と判定していな
い)であると、ドライバが脇見を始めたので、これを表
わすためにレジスタFsaに1を書込んで(5260,
5261)、1秒タイマをスタ−トする(5262)。
脇見と判定しレジスタFsaのデ−タをチェックしたと
きにそれが1(すでに脇見と判定し1秒タイマをスタ−
トしている)であると、1秒タイマがタイムオ−バして
いるかをチェックし、タイムオ−バしているとブザ−5
を鳴らす(5263,5264)。なお、その後脇見で
なくなると、ステップ5258でレジスタFsaがクリ
アされブザ−の鳴動が止められる(5259)。1秒タ
イマがタイムオ−バする前(ブザ−はオフ)に脇見でな
くなると、ステップ5258でレジスタFsaがクリア
されるので、ブザ−の鳴動は生じない。これは、サイド
ミラ−(ドアミラ−)や室内ミラ−(バックミラ−)を
一瞬視認する目の動きに対してブザ−を鳴らさないよう
にするためである。なお、サイドミラ−(ドアミラ−)
又は室内ミラ−(バックミラ−)を連続して1秒以上見
ているとブザ−が鳴る。
The second average coordinates (Xm5, Yn5)
Of the first average coordinates (Xmo, Yno) with respect to the horizontal direction (X-axis direction) Xdif = Xmo-Xm5 (polarity is the position change direction of the black eye position, absolute value is the amount of change) is calculated.
(5254). Then, it is determined whether the angular velocity signal Wj detected by the angular velocity detector 21 is positive (right turn) or negative (left turn) (5255), and Xdif ≧ A (the line of sight is on the left from the front of the vehicle). If Wj ≧ 0 (the vehicle is straight ahead or right turn), it is determined that the vehicle is on the left side, and Xdif ≦ −A (the line of sight is on the right side of the front of the vehicle) and Wj ≦ 0 (the vehicle is straight ahead or left turn).
It is determined that the user is looking aside to the right (5256, 525).
7). If neither of these is the case, it is determined that the person is not looking away. If it is determined that the driver is looking aside to the right or looking aside to the left, the data in the register Fsa is checked, and if it is 0 (not determined to be looking aside immediately before), the driver starts looking aside. Write 1 to the register Fsa (5260,
5261) Start the 1 second timer (5262).
When it is judged to be looking aside and the data in the register Fsa is checked, it is 1 (it is already judged to be looking aside and the 1 second timer is started.
Check that the 1-second timer is time-over, and if it is time-over, buzzer 5
Is sounded (5263, 5264). After that, when the person is no longer looking aside, the register Fsa is cleared in step 5258 and the buzzer stops ringing (5259). If the one-second timer does not look aside before the time is over (the buzzer is off), the register Fsa is cleared in step 5258, and the buzzer does not ring. This is to prevent the buzzer from ringing with respect to the movement of the eyes that visually recognizes the side mirror (door mirror) and the indoor mirror (back mirror) for a moment. In addition, side mirror (door mirror)
Or, the buzzer sounds when continuously watching the indoor mirror (back mirror) for 1 second or more.

【0056】なお、「追跡」中に目の検出に失敗するこ
とがあるが、そのときには上述の「居眠り状態」との判
定結果となり、ブザ−5が付勢される。したがってブザ
−5は、「追跡」中に目の検出に失敗したとき、ならび
に、監視対象のドライバが「居眠り状態あるいは脇見運
転中」のときに鳴動する。
In some cases, eye detection may fail during the "tracking". At that time, the buzzer 5 is energized as a result of the above-mentioned "drowsy state". Therefore, the buzzer 5 sounds when the eye detection fails during the “tracking” and when the driver to be monitored is in the “dozing state or looking aside”.

【0057】上述の実施例では、角速度検出器21によ
り車両進行方向を検出するが、角速度検出器21に代え
てあるいはそれに加えて、ステアリングホイ−ルの操舵
角センサを用いて、それが検出する操舵角より車両進向
方向を検出してもよい。
In the above-mentioned embodiment, the vehicle traveling direction is detected by the angular velocity detector 21, but it is detected by using the steering angle sensor of the steering wheel instead of or in addition to the angular velocity detector 21. The vehicle heading direction may be detected from the steering angle.

【0058】また、上述の実施例では、人の目の検出の
ため小領域内で最暗点を検出し、注目点を最暗点に移動
させたが、最も明るい点,あるいは所定の明るさの値に
設定してもよく、所望の画像のテンプレートマッチン
グ,階調差による削除処理等を実行すれば、撮影対象は
人の目に限らず、他の物体あるいはその一部等、撮影画
像上で特徴ある暗パタ−ン又は明パタ−ンをもたらすも
のであってもよい。
In the above-described embodiment, the darkest point is detected in the small area to detect human eyes, and the point of interest is moved to the darkest point. However, the brightest point or the predetermined brightness is set. May be set to the value of, and if the desired image is subjected to template matching, gradation difference deletion processing, etc., the object to be photographed is not limited to human eyes, and other objects or parts thereof, etc. In the above, it may provide a characteristic dark pattern or light pattern.

【0059】また上記実施例では、メモリテ−ブルに予
め所定ピッチで分散させた注目点の座標を書込むが、こ
の書込みは省略し、代りに、例えば第1注目点(68,
200)を指定してその座標デ−タを座標レジスタに書
込み、その周縁の最暗部を検出してその座標をメモリテ
−ブルに書込み、次に座標レジスタのx座標デ−タを1
5ドット分インクリメントして第2注目点座標とする具
合に、座標デ−タを順次インクリメントして順次に注目
点を指定してもよい。また、上記実施例ではメモリテ−
ブルに注目点の座標デ−タを保持するが、RAM10又
は別途のメモリに1フレ−ム2値デ−タテ−ブルを割り
当てて、そのアドレスを多階調デ−タを書込むフレ−ム
メモリ12のアドレスと一対一に対応付けて、注目点の
座標に対応する2値デ−タテ−ブルアドレスに、「注目
点」を示す「1」を書込むことにより注目点位置情報を
2値デ−タテ−ブルに保持し、注目点を確認(サ−チ又
は読出し)するときには、アドレスを順次に更新して2
値デ−タテ−ブルのデ−タを順次に読出し、読出しデ−
タが「1」(注目点)のときの読出しアドレスをセ−ブ
(注目点のアドレスとして摘出)すればよい。
In the above embodiment, the coordinates of the points of interest dispersed in advance at a predetermined pitch are written in the memory table, but this writing is omitted and instead, for example, the first points of interest (68,
200) and write the coordinate data to the coordinate register, detect the darkest part of the periphery and write the coordinates to the memory table, and then set the x coordinate data of the coordinate register to 1
The coordinate data may be sequentially incremented and the points of interest may be sequentially specified, such that the coordinates of the second points of interest are incremented by 5 dots. In the above embodiment, the memory table is
Although the coordinate data of the target point is held in the blue memory, a frame memory for allocating one frame binary data table to the RAM 10 or a separate memory and writing the address to the multi-gradation data. The point of interest position information is binary-coded by writing "1" indicating the "point of interest" in the binary data table address corresponding to the coordinates of the point of interest in a one-to-one correspondence with the 12 addresses. -When the data is held in the table and the point of interest is confirmed (searched or read), the address is sequentially updated to 2
The data of the value data table is sequentially read and the read data is read.
The read address when the data is "1" (point of interest) may be saved (extracted as the address of the point of interest).

【0060】[0060]

【発明の効果】以上の通り本発明では、車両上ドライバ
を撮影した画像上の眼像の位置変化を検出してドライバ
の脇見を自動検出する。車両タ−ンにより、車両の前後
方向長手軸に対してドライバの視線がタ−ン方向にずれ
る場合にこれを脇見と誤警報することがない。ドライバ
の視線が車両進行方向と異なるときに、警報が自動的に
発っせられる。
As described above, in the present invention, the driver's inattentiveness is automatically detected by detecting the position change of the eye image on the image photographed by the vehicle driver. When the vehicle turn causes the driver's line of sight to deviate in the turn direction with respect to the longitudinal axis of the vehicle, this does not give a false alarm as a look aside. When the driver's line of sight is different from the traveling direction of the vehicle, an alarm is automatically issued.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施例の構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing a configuration of an exemplary embodiment of the present invention.

【図2】 図1に示すCCDカメラ3,照明ランプ4お
よびブザー5の配置外観を示す斜視図である。
FIG. 2 is a perspective view showing the external appearance of the arrangement of a CCD camera 3, an illumination lamp 4 and a buzzer 5 shown in FIG.

【図3】 図1に示すマイクロプロセッサ6の制御動作
の概要を示すフローチャートである。
FIG. 3 is a flowchart showing an outline of a control operation of the microprocessor 6 shown in FIG.

【図4】 図3に示す「小領域での暗点検出」(3)の
制御動作を示すフローチャートである。
FIG. 4 is a flowchart showing a control operation of “dark spot detection in a small area” (3) shown in FIG.

【図5】 図3に示す「判定」(4)の制御動作を示す
フローチャートである。
FIG. 5 is a flowchart showing a control operation of “determination” (4) shown in FIG.

【図6】 図5に示す「孤立点の削除」(41)の制御
動作を示すフローチャートである。
FIG. 6 is a flowchart showing a control operation of “deletion of isolated points” (41) shown in FIG.

【図7】 図5に示す「注目点近傍の他注目点の削除」
(42)の制御動作を示すフローチャートである。
[FIG. 7] “Delete other attention points near the attention point” shown in FIG.
It is a flowchart which shows the control operation of (42).

【図8】 図5に示す「十字階調差による削除」(4
3)の制御動作を示すフローチャートである。
FIG. 8 shows “deletion due to cross gradation difference” (4
It is a flow chart which shows control operation of 3).

【図9】 図5に示す「テンプレートマッチングによる
削除」(44)の制御動作を示すフローチャートであ
る。
9 is a flowchart showing a control operation of "deletion by template matching" (44) shown in FIG.

【図10】 図5に示す「斜め方向階調差による削除」
(45)の制御動作を示すフローチャートである。
[FIG. 10] “Delete due to gradation difference in diagonal direction” shown in FIG.
It is a flowchart which shows the control operation of (45).

【図11】 図5に示す「近傍注目点の統合」(47)
の制御動作を示すフローチャートである。
[FIG. 11] “Integration of neighboring points of interest” shown in FIG. 5 (47)
3 is a flowchart showing the control operation of FIG.

【図12】 図5に示す「注目点数の判定」(48)の
制御動作を示すフローチャートである。
12 is a flowchart showing a control operation of "determination of the number of points of interest" (48) shown in FIG.

【図13】 図3に示す「追跡」(5)の制御動作を示
すフローチャートである。
13 is a flowchart showing a control operation of "tracking" (5) shown in FIG.

【図14】 図3に示す「追跡」(5)の制御動作を示
すフローチャートである。
FIG. 14 is a flowchart showing a control operation of “tracking” (5) shown in FIG.

【図15】 図14に示す「脇見判定」(525)の内
容を示すフロ−チャ−トである。
FIG. 15 is a flowchart showing the contents of the “inattentiveness judgment” (525) shown in FIG.

【図16】 フレームメモリ12に書込む画像データの
一画面分布に425個の注目点を配置した様子を示す状
態図である。
16 is a state diagram showing a state in which 425 points of interest are arranged in one screen distribution of image data to be written in the frame memory 12. FIG.

【図17】 人の目の縦方向と横方向の大きさを示すブ
ロック図である。
FIG. 17 is a block diagram showing vertical and horizontal sizes of human eyes.

【図18】 図1に示すRAM10のメモリテーブルの
内容を示すブロック図である。
18 is a block diagram showing the contents of a memory table of RAM 10 shown in FIG.

【図19】 2個の注目点が人の両目の位置を特定する
様子を示す状態図である。
FIG. 19 is a state diagram showing how two points of interest specify the positions of both eyes of a person.

【符号の説明】[Explanation of symbols]

3:CCDカメラ 4:照明ランプ 5:ブザー 6,8:マイク
ロプロセッサ 7:アドレスバス&コントロールバス 9:ROM 10:RAM 12:フレーム
メモリ 17:A/Dコンバータ 18:赤外線ラ
ンプコントローラ 19:ブザーコントローラ SSW:ストッ
プスイッチ
3: CCD camera 4: Illumination lamp 5: Buzzer 6, 8: Microprocessor 7: Address bus & control bus 9: ROM 10: RAM 12: Frame memory 17: A / D converter 18: Infrared lamp controller 19: Buzzer controller SSW : Stop switch

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】車両上ドライバを撮影する2次元撮像手
段;該2次元撮像手段が撮影した画像上の、眼像を検出
する像検出手段;該像検出手段が検出した眼像の位置の
変化を算出する移動検出手段;前記車両の進行方向を検
出する方向検出手段;前記移動検出手段が算出した変化
と前記方向検出手段が検出した車両進行方向の一致/不
一致を検出する脇見判定手段;警報手段;および、 前記脇見判定手段の不一致の検出に従って前記警報手段
を付勢する警報制御手段;を備える脇見運転警報装置。
1. A two-dimensional image pickup means for photographing an on-vehicle driver; an image detection means for detecting an eye image on an image photographed by the two-dimensional image pickup means; a change in the position of the eye image detected by the image detection means. Movement detection means for calculating the traveling direction of the vehicle; inattentive judgment means for detecting a match / mismatch between the change calculated by the movement detection means and the traveling direction of the vehicle detected by the direction detection means; And a warning control means for energizing the warning means in accordance with the detection of the disagreement by the inattentiveness judging means.
【請求項2】警報制御手段は、前記脇見判定手段の不一
致の検出に応答して計時を開始し不一致の検出が継続す
ると設定時間後に警報手段を付勢する、請求項1記載の
脇見運転警報装置。
2. The inattentive driving alarm according to claim 1, wherein the alarm control means starts clocking in response to the detection of the inconsistency of the inattentiveness determining means and activates the alarming means after a set time when the inconsistency detection continues. apparatus.
【請求項3】移動検出手段は、眼像の位置の、比較的に
短い時間区間の第1平均位置と比較的に長い時間区間の
第2平均位置を算出し、第2平均位置に対する第1平均
位置の偏差を眼像の位置の変化とする、請求項1又は請
求項2記載の脇見運転警報装置。
3. The movement detecting means calculates a first average position of the eye image position in a relatively short time section and a second average position of a relatively long time section, and a first average position with respect to the second average position. The inattentive driving warning device according to claim 1 or 2, wherein the deviation of the average position is a change in the position of the eye image.
JP5054347A 1993-03-15 1993-03-15 Alarm device for distracting driving Pending JPH06262959A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5054347A JPH06262959A (en) 1993-03-15 1993-03-15 Alarm device for distracting driving

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5054347A JPH06262959A (en) 1993-03-15 1993-03-15 Alarm device for distracting driving

Publications (1)

Publication Number Publication Date
JPH06262959A true JPH06262959A (en) 1994-09-20

Family

ID=12968100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5054347A Pending JPH06262959A (en) 1993-03-15 1993-03-15 Alarm device for distracting driving

Country Status (1)

Country Link
JP (1) JPH06262959A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19734307A1 (en) * 1997-08-08 1999-02-11 Bosch Gmbh Robert Monitoring and control method for automobile travel characteristics
WO2007058095A1 (en) * 2005-11-17 2007-05-24 Aisin Seiki Kabushiki Kaisha Vehicle surrounding display device
JP2010066968A (en) * 2008-09-10 2010-03-25 Toyota Motor Corp Visual line state detection device
US8144002B2 (en) 2008-03-31 2012-03-27 Hyundai Motor Company Alarm system for alerting driver to presence of objects
CN103661095A (en) * 2012-09-11 2014-03-26 财团法人车辆研究测试中心 Driving state detecting system
DE102014209238A1 (en) 2013-05-15 2014-11-20 Honda Motor Co., Ltd. Driving support facility and driving assistance method
US8907797B2 (en) 2011-12-26 2014-12-09 Denso Corporation Driver monitoring apparatus
US9351019B2 (en) 2012-12-27 2016-05-24 Automotive Research & Testing Center System for detecting vehicle driving state
CN110053555A (en) * 2019-04-15 2019-07-26 深圳市英泰斯达智能技术有限公司 A kind of safe driving of vehicle auxiliary system and automobile
DE102018214935A1 (en) * 2018-09-03 2020-03-05 Bayerische Motoren Werke Aktiengesellschaft Method, device, computer program and computer program product for determining the attention of a driver of a vehicle

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19734307C2 (en) * 1997-08-08 1999-06-10 Bosch Gmbh Robert Method and device for monitoring and / or influencing the vehicle behavior of a driver-controlled motor vehicle
DE19734307A1 (en) * 1997-08-08 1999-02-11 Bosch Gmbh Robert Monitoring and control method for automobile travel characteristics
WO2007058095A1 (en) * 2005-11-17 2007-05-24 Aisin Seiki Kabushiki Kaisha Vehicle surrounding display device
US8115811B2 (en) 2005-11-17 2012-02-14 Aisin Seiki Kabushiki Kaisha Vehicle surrounding area display device
US8144002B2 (en) 2008-03-31 2012-03-27 Hyundai Motor Company Alarm system for alerting driver to presence of objects
JP2010066968A (en) * 2008-09-10 2010-03-25 Toyota Motor Corp Visual line state detection device
US8907797B2 (en) 2011-12-26 2014-12-09 Denso Corporation Driver monitoring apparatus
CN103661095A (en) * 2012-09-11 2014-03-26 财团法人车辆研究测试中心 Driving state detecting system
CN103661095B (en) * 2012-09-11 2015-12-02 财团法人车辆研究测试中心 The detecting system of driving condition
US9351019B2 (en) 2012-12-27 2016-05-24 Automotive Research & Testing Center System for detecting vehicle driving state
DE102014209238A1 (en) 2013-05-15 2014-11-20 Honda Motor Co., Ltd. Driving support facility and driving assistance method
DE102014209238B4 (en) 2013-05-15 2022-10-06 Honda Motor Co., Ltd. Driving support device and driving support method
DE102018214935A1 (en) * 2018-09-03 2020-03-05 Bayerische Motoren Werke Aktiengesellschaft Method, device, computer program and computer program product for determining the attention of a driver of a vehicle
DE102018214935B4 (en) 2018-09-03 2023-11-02 Bayerische Motoren Werke Aktiengesellschaft Method, device, computer program and computer program product for determining the attention of a driver of a vehicle
CN110053555A (en) * 2019-04-15 2019-07-26 深圳市英泰斯达智能技术有限公司 A kind of safe driving of vehicle auxiliary system and automobile

Similar Documents

Publication Publication Date Title
US6717518B1 (en) Method and apparatus for detection of drowsiness
JP3922245B2 (en) Vehicle periphery monitoring apparatus and method
JPS62247410A (en) Energization controller for electric apparatus
JPH06262959A (en) Alarm device for distracting driving
JP3228086B2 (en) Driving operation assist device
JPH11328364A (en) Area estimating device and display processor
EP2507742A2 (en) A cost effective and robust system and method for eye tracking and driver drowsiness identification
CN101161200A (en) Eye condition detection apparatus and method for installing same
US11400862B2 (en) Vision-based interactive control apparatus and method of controlling rear-view mirror for vehicle
CN107960989B (en) Pulse wave measurement device and pulse wave measurement method
JPH06270712A (en) Inattentive driving alarming device
JPH06278495A (en) Device to prevent dozing at the wheel
JPH06293228A (en) On-vehicle crew identification device
JPH06262958A (en) Detector for closing of moving body for opening/closing opening
JPH06266981A (en) Doze at wheel alarming device
JPH06270710A (en) Asleep drive alarming device
JPH06348980A (en) Device for monitoring eyes of driver on vehicle
JP2001229499A (en) State detecting device for eye
JPH06344801A (en) Monitor of driver's eyes on vehicle
JP2802635B2 (en) Energization control device for electrical equipment
JPH10105898A (en) Warning device for driven asleep
JPH06176157A (en) Method and device for detecting specified object
JP3057996B2 (en) Eye position detection device for vehicle driver
JP3109230B2 (en) Eye position detection device for vehicle driver
JPH06293227A (en) On-vehicle crew identification device