[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3376207B2 - Eye gaze detecting apparatus and method - Google Patents

Eye gaze detecting apparatus and method

Info

Publication number
JP3376207B2
JP3376207B2 JP05650396A JP5650396A JP3376207B2 JP 3376207 B2 JP3376207 B2 JP 3376207B2 JP 05650396 A JP05650396 A JP 05650396A JP 5650396 A JP5650396 A JP 5650396A JP 3376207 B2 JP3376207 B2 JP 3376207B2
Authority
JP
Japan
Prior art keywords
eye
pupil
image
detected
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05650396A
Other languages
Japanese (ja)
Other versions
JPH09243327A (en
Inventor
恭一 岡本
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP05650396A priority Critical patent/JP3376207B2/en
Priority to US08/816,453 priority patent/US5912721A/en
Publication of JPH09243327A publication Critical patent/JPH09243327A/en
Application granted granted Critical
Publication of JP3376207B2 publication Critical patent/JP3376207B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、視線の指示した位
置を検出する視線検出装置及びその方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line-of-sight detection device and method for detecting a position indicated by a line of sight.

【0002】[0002]

【従来技術】オペレータが、計算機のモニタ画面を見な
がら作業を行う場合、例えば、マルチウインドウシステ
ムで表示されたウインドウの選択等、画面上の特定の位
置を指示する作業が発生する。現在の一般的な計算機で
は、オペレータがマウスを操作することによって画面上
の位置を指示する操作を行っている。
2. Description of the Related Art When an operator works while looking at a monitor screen of a computer, there is a work of instructing a specific position on the screen, such as selecting a window displayed by a multi-window system. In a general computer at present, an operator operates a mouse to instruct a position on the screen.

【0003】これに対して、眼球運動分析装置(特公平
4−46570号)では、オペレータの視線を検出する
ことにより、位置を指示する装置を提案している。この
装置では、オペレータが視線を検出するセンサと頭部の
姿勢を検出するセンサをつけ、双方のセンサの出力から
3次元空間中でのオペレータの視線方向を計算してい
る。このため、オペレータが2つのセンサを頭部に装着
する必要があるためオペレータの負荷になるという問題
があった。また、2つのセンサの出力は、それぞれ、頭
部の姿勢と頭部に対しての視線の向きを検出し、これら
の結果を総計して視線の方向を算出するため、算出した
視線方向には2つのセンサの誤差が累積して精度が期待
できないという問題があった。
On the other hand, an eye movement analysis device (Japanese Patent Publication No. 4-46570) proposes a device for indicating a position by detecting the line of sight of an operator. In this device, an operator attaches a sensor for detecting the line of sight and a sensor for detecting the posture of the head, and calculates the line of sight of the operator in the three-dimensional space from the outputs of both sensors. For this reason, there is a problem that the operator needs to wear two sensors on the head, which is a burden on the operator. The outputs of the two sensors detect the posture of the head and the direction of the line of sight with respect to the head, respectively, and calculate the direction of the line of sight by summing these results. There was a problem that the accuracy of the two sensors could not be expected due to the accumulated error.

【0004】上記の問題を解決するため、"Non Intrusi
ve Gaze Tracking Using Artificial Neural Network"
Shumeet Baluja,Dean Pomerleau,Advances in Neural I
nformation Processing Systems 6 Cowan J.D, Tesaur
o, G.& Alspector,J.(eds)MOrgan Kaufman Publishers,
1994 では、ニューラルネットに目近傍を撮影した画像
を入力して視線の方向を推定する装置を提案している。
しかし、この装置では、目近傍の画像全部を用いるた
め、操作環境の照明状態の変化、オペレータの頭の位置
の変化の影響を受けるという問題があった。また、目近
傍領域の画像という個人差のある情報から視線方向を推
定するため、予め多数の画像を用いてニューラルネット
を学習させる必要がある、等の問題があった。
In order to solve the above problems, "Non Intrusi
ve Gaze Tracking Using Artificial Neural Network "
Shumeet Baluja, Dean Pomerleau, Advances in Neural I
nformation Processing Systems 6 Cowan JD, Tesaur
o, G. & Alspector, J. (eds) MOrgan Kaufman Publishers,
In 1994, we proposed a device that estimates the direction of the line of sight by inputting an image of the vicinity of the eye into a neural network.
However, this device has a problem that it is affected by changes in the illumination state of the operating environment and changes in the position of the operator's head because all images near the eyes are used. In addition, there is a problem that it is necessary to train a neural network using a large number of images in advance in order to estimate the line-of-sight direction from information having an individual difference, which is an image in the area near the eyes.

【0005】また、上記方法では、オペレータの視線の
方向はカメラに対する方向として計算されるので、オペ
レータが視線で指示する対象とカメラの位置関係は固定
されて操作中には動かせない。カメラを固定した状態で
オペレータの頭の動きを許して視線を検出するために
は、カメラの視線範囲を広く取る必要があるが、視野を
広くすると1ピクセル当りの解像度が落ちるため、視線
検出の精度も低下するという問題があった。
Further, in the above method, since the operator's line-of-sight direction is calculated as the direction with respect to the camera, the positional relationship between the object indicated by the operator's line-of-sight and the camera is fixed and cannot be moved during operation. In order to detect the line of sight by allowing the operator's head to move while the camera is fixed, it is necessary to widen the line-of-sight range of the camera. However, widening the field of view lowers the resolution per pixel. There was a problem that the accuracy was also reduced.

【0006】[0006]

【発明が解決しようとする課題】以上述べたように、従
来方式でオペレータが視線で指示する位置を検出しよう
とする場合、オペレータにセンサを装着する方式では、
オペレータに負荷を強いるという問題があった。また、
カメラで撮影した画像から視線で指示する位置を検出す
る方式では、個人差のある特徴を検出して視線の方向推
定に用いる、カメラの方向が固定されて解像度が低い等
の理由により、視線方向の計測精度が十分ではないとい
う問題があった。
As described above, in the conventional method in which a sensor is attached to the operator when detecting the position indicated by the line of sight by the operator,
There was a problem of imposing a load on the operator. Also,
In the method that detects the position indicated by the line of sight from the image captured by the camera, it is used for estimating the direction of the line of sight by detecting features with individual differences, and because the direction of the camera is fixed and the resolution is low, etc. There was a problem that the measurement accuracy of was not sufficient.

【0007】本発明は以上の問題点に鑑み、ディスプレ
イ等表示装置上でオペレータが視線で指示した位置を容
易かつ正確に検出する視線検出装置及びその方法を提供
する。
In view of the above problems, the present invention provides an eye-gaze detecting device and method for easily and accurately detecting a position indicated by an eye-gaze by an operator on a display device such as a display.

【0008】[0008]

【課題を解決するための手段】請求項1の発明は、使用
者の画像を撮影する画像入力手段と、前記画像入力手段
で撮影した前記画像から前記使用者の眼を検出する眼検
出手段と、前記眼検出手段で検出した前記眼における瞳
の位置を求める瞳検出手段と、前記使用者が指示する指
示対象領域と略同じ面上に配置され、前記使用者に向か
って光を照射する3個以上の発光手段と、前記3個以上
の発光手段が発光した状態で撮影した画像と発光してい
ない状態で撮影した画像を減算して差分処理を行い、前
記各発光手段の照射光の前記使用者の眼球上でのそれぞ
れの映り込み位置である参照点を検出する参照点検出手
段と、前記参照点検出手段で検出した3個以上の参照点
と、前記瞳検出手段で検出した前記瞳の位置に基づい
、前記指示対象領域中で前記使用者の視線の指示した
位置を検出する指示位置検出手段とからなることを特徴
とする視線検出装置である。
According to a first aspect of the present invention, there is provided image input means for capturing an image of a user, and eye detection means for detecting the eye of the user from the image captured by the image input means. A pupil detecting means for obtaining a position of a pupil in the eye detected by the eye detecting means, and a finger designated by the user
The three or more light emitting means, which are arranged on substantially the same plane as the target area and irradiate light toward the user, emit light together with an image taken in a state in which the three or more light emitting means emit light.
Before subtracting the image taken in the state where there is no
The reference point detecting means for detecting the reference points which are the respective reflection positions of the light emitted from the respective light emitting means on the eyeball of the user, and the three or more reference points detected by the reference point detecting means. /> and, based on the position of the pupil detected by the pupil detection unit, line of sight, characterized in that it consists of an instruction position detecting means for detecting an indication position of the user's line of sight in the instruction target area It is a detection device.

【0009】請求項1記載の視線検出装置は、発光手段
の発した光の眼球上での映り込みを撮影し、撮影した画
像中での瞳の位置と発光手段の映り込みの位置を比較す
ることにより視線の向きを計算する。
The line-of-sight detection device of the present invention photographs the reflection of the light emitted by the light emitting means on the eyeball and compares the position of the pupil in the photographed image with the reflection position of the light emitting means. To calculate the direction of the line of sight.

【0010】請求項2の発明は、前記眼検出手段は、前
記前記画像入力手段で撮影した前記画像と、前記参照点
検出手段で検出した3個以上の参照点とを比較して、前
記画像における前記映り込み位置の近傍領域を眼である
と検出することを特徴とする請求項1記載の視線検出装
置である。
According to a second aspect of the present invention, the eye detection means compares the image photographed by the image input means with three or more reference points detected by the reference point detection means, and the image is compared. The line-of-sight detection device according to claim 1, wherein a region in the vicinity of the reflection position in is detected as an eye.

【0011】請求項2記載の視線検出装置は、前記眼検
出手段が、前記前記画像入力手段で撮影した前記画像
と、前記参照点検出手段で検出した3個以上の映り込み
位置とを比較して、前記画像における前記映り込み位置
の近傍領域を眼であるとするため、使用者の眼の位置を
正確かつ確実に判別できる。
In the line-of-sight detection device according to claim 2, the eye detection means compares the image photographed by the image input means with three or more reflection positions detected by the reference point detection means. Since the area near the reflection position in the image is an eye, the position of the user's eye can be accurately and reliably determined.

【0012】請求項3の発明は、前記瞳検出手段は、
記眼検出手段で検出した前記眼における瞳領域の重心の
位置を検出し、前記指示位置検出手段は、前記参照点検
出手段で検出する3個以上の参照点の位置と、前記瞳検
出手段で検出する前記瞳領域 の重心を用いて、指示対象
領域中で視線が指示する位置を検出することを特徴とす
る請求項1記載の視線検出装置である。
According to a third aspect of the present invention, the pupil detecting means detects the center of gravity of the pupil region of the eye detected by the eye detecting means .
The position is detected, and the pointing position detecting means uses the positions of three or more reference points detected by the reference point detecting means and the center of gravity of the pupil region detected by the pupil detecting means to indicate the pointing target.
The line-of-sight detection device according to claim 1, wherein a position indicated by the line-of-sight in the area is detected.

【0013】請求項3記載の視線検出装置は、前記指示
位置検出手段が、前記参照点検出手段の3個以上の参照
と、瞳検出手段の前記瞳領域の重心から、指示対象領
域中で視線が指示する位置を正確に検出できる。請求項
4の発明は、使用者の画像を撮影する画像入力ステップ
と、前記画像入力ステップで撮影した前記画像から前記
使用者の眼を検出する眼検出ステップと、前記眼検出ス
テップで検出した前記眼における瞳の位置を求める瞳検
出ステップと、前記使用者が指示する指示対象領域と略
同じ面上に配置され、前記使用者に向かって光を照射す
る3個以上の発光手段が発光した状態で撮影した画像と
発光していない状態で撮影した画像を減算して差分処理
を行い、前記各発光手段の照射光の前記使用者の眼球上
でのそれぞれの映り込み位置である参照点を検出する参
照点検出ステップと、前記参照点検出ステップで検出し
た3個以上の参照点と、前記瞳検出ステップで検出した
前記瞳の位置に基づいて、前記指示対象領域中で前記使
用者の視線の指示した位置を検出する指示位置検出ステ
ップとからなることを特徴とする視線検出方法である。
In the line-of-sight detection device according to the present invention, the designated position detection means has three or more reference points of the reference point detection means .
From the point and the center of gravity of the pupil area of the pupil detecting means,
The position indicated by the line of sight can be accurately detected in the area. According to a fourth aspect of the invention, an image input step of capturing an image of the user, an eye detection step of detecting the user's eye from the image captured in the image input step, and the eye detection step detected in the eye detection step. A pupil detection step of obtaining the position of the pupil in the eye, and a pointing target area designated by the user
An image taken in a state in which three or more light emitting means, which are arranged on the same surface and emit light toward the user, emit light.
Difference processing by subtracting images taken in the state of not emitting light
And a reference point detection step of detecting a reference point which is each reflection position of the irradiation light of each of the light emitting means on the eyeball of the user, and three or more references detected in the reference point detection step . and the point, based on the position of the pupil detected by the pupil detection step, the line-of-sight detection, characterized in that consist of an instruction position detecting step of detecting the indicated position of the line of sight of the said in the instruction target area user Is the way.

【0014】請求項5の発明は、前記眼検出ステップ
は、前記前記画像入力ステップで撮影した前記画像と、
前記参照点検出ステップで検出した3個以上の参照点
を比較して、前記画像における前記映り込み位置の近傍
領域を眼であると検出することを特徴とする請求項4記
載の視線検出方法である。
According to a fifth aspect of the present invention, the eye detection step includes the image captured in the image input step,
Compares the three or more reference points detected by the reference point detection step, the line-of-sight detection method of claim 4, wherein the region near the location glare said in the image and detects that the eye Is.

【0015】請求項6の発明は、前記瞳検出ステップ
は、前記眼検出ステップで検出した前記眼における瞳領
域の重心の位置を検出し、前記指示位置検出ステップ
は、前記参照点検出ステップで検出する3個以上の参照
の位置と、前記瞳検出ステップで検出する前記瞳領域
の重心を用いて、指示対象領域中で視線が指示する位置
を検出することを特徴とする請求項4記載の視線検出方
法である。
According to a sixth aspect of the invention, the pupil detecting step is performed.
Is the pupil area in the eye detected in the eye detection step.
The position of the center of gravity of the area is detected, and the pointing position detection step includes three or more references detected in the reference point detection step .
The position of the point and the pupil region detected in the pupil detection step
The eye gaze detection method according to claim 4, wherein the position indicated by the eye gaze is detected in the instruction target area by using the center of gravity of .

【0016】[0016]

【発明の実施の形態】第1の実施例 以下、本発明に関する第1の実施例を図を用いて説明す
る。
DETAILED DESCRIPTION OF THE INVENTION First Embodiment Hereinafter, a first embodiment relating to the present invention will be described with reference to FIG.

【0017】図1は第1の実施例の視線検出装置の構成
を示したブロック図である。また、この実施例による、
視線の位置指示情報の獲得手順を図2に示す。
FIG. 1 is a block diagram showing the construction of the visual axis detecting device of the first embodiment. Also, according to this embodiment,
FIG. 2 shows a procedure of acquiring the position indication information of the line of sight.

【0018】(制御部1) 制御部1は、オペレータがマウスのボタンを押したとい
うようなオペレータからの指示情報入力要求や、オペレ
ーティングシステム、アプリケーションプログラム等か
らの指示情報入力要求を受けて、指示位置情報を出力す
る。
(Control Unit 1) The control unit 1 receives an instruction information input request from the operator such as the operator pressing a mouse button or an instruction information input request from an operating system, an application program, etc. Output location information.

【0019】この時、指示情報入力要求を受けた後、一
連の制御信号を発生して指示位置を計測し、指示位置情
報を出力するか、または、一定時間間隔ごとに制御信号
を発生して常に指示位置の計測を行ない、指示情報入力
要求を受けると計測した指示位置情報について、最新の
指示位置情報を出力する。
At this time, after receiving the instruction information input request, a series of control signals are generated to measure the pointed position and the pointed position information is output, or a control signal is generated at regular time intervals. The designated position is constantly measured, and when the designated information input request is received, the latest designated position information is output for the measured designated position information.

【0020】(発光部2) 発光部2は、画像入力部3から受ける指示信号に同期し
て発光する複数の発光素子から構成される。
(Light Emitting Section 2) The light emitting section 2 is composed of a plurality of light emitting elements which emit light in synchronization with the instruction signal received from the image input section 3.

【0021】モニタディスプレイのディスプレイ面を指
示領域とする視線検出装置では、この発光素子は、図3
で示す、オペレータが指示するモニタディスプレイのデ
ィスプレイ面と同じ平面上の位置に3箇所以上の複数配
置する。図中、斜線で示した部分が発光素子の位置であ
る。
In the line-of-sight detection device in which the display surface of the monitor display is the designated area, this light-emitting element is shown in FIG.
A plurality of them are arranged at three or more positions on the same plane as the display surface of the monitor display instructed by the operator. In the figure, the shaded portion is the position of the light emitting element.

【0022】ディスプレイ装置が図3左側のブラウン管
を用いた装置の場合は、発光素子をブラウン管の周囲に
配置する。
In the case where the display device is a device using the cathode ray tube on the left side of FIG. 3, the light emitting element is arranged around the cathode ray tube.

【0023】ディスプレイ装置がビデオウォール等と称
されるブラウン管や投射型ディスプレイを平面上に並べ
た大型のディスプレイ装置の場合は、個々のディスプレ
イ装置の繋ぎ目にも発光素子を配置する。発光素子は、
オペレータがまぶしくなくするため、赤外線を発光する
LED素子を用い、このLEDを図3の素子の位置に配
置する。または、光源にはストロボ装置を用いて、光源
からの光を可視光を吸収し赤外線透過するフィルタを通
し光ファイバーで図3の発光素子の位置に誘導して発光
してもよい。なお、この例ではディスプレイは平面であ
るとしているが、ディスプレイ面は湾曲していてもよ
い。
When the display device is a large display device in which cathode ray tubes or projection displays called video walls are arranged on a plane, a light emitting element is also arranged at the joint between the individual display devices. The light emitting element is
In order to make the operator dazzling, an LED element that emits infrared light is used, and this LED is arranged at the position of the element in FIG. Alternatively, a strobe device may be used as the light source, and light from the light source may be guided to the position of the light emitting element of FIG. 3 through an optical fiber through a filter that absorbs visible light and transmits infrared light to emit light. Although the display is flat in this example, the display surface may be curved.

【0024】また、発光部2として、モニタディスプレ
イの表示を用いてもよい。この場合、例えば、モニタデ
ィスプレイの複数の小領域内の画素を高輝度にするか、
マルチウインドウ表示している場合には図4に示した表
示中のウインドウの枠等一定面積以上の既知形状をした
領域内の画素を高輝度にした状態を発光素子として用い
る発光部として用いる。ウインドウの枠を発光素子とし
て用いた場合は、複数のウインドウ枠は必要ない。
The display of the monitor display may be used as the light emitting unit 2. In this case, for example, the pixels in a plurality of small areas of the monitor display are made to have high brightness, or
In the case of multi-window display, a state in which pixels in a known shape region having a predetermined area or more such as the frame of the window being displayed shown in FIG. When the window frame is used as the light emitting element, a plurality of window frames are not necessary.

【0025】(画像入力部3) 画像入力部3はオペレータの目をTVカメラで撮影し、
参照点検出部4、瞳検出部5に出力する。
(Image Input Section 3) The image input section 3 captures the operator's eyes with a TV camera,
It outputs to the reference point detection unit 4 and the pupil detection unit 5.

【0026】まず、発光部2に制御信号を送って、発光
部2が発光している状態でオペレータの目を撮影する。
光源としてストロボを用いている場合は、画像を撮影し
ている間にストロボを発光する。
First, a control signal is sent to the light emitting unit 2 to photograph the operator's eyes while the light emitting unit 2 is emitting light.
When a strobe is used as a light source, the strobe is emitted while shooting an image.

【0027】次に、発光部2が発光しない状態で画像を
撮影する。この2枚の画像の撮影順序については、どち
らが先でも構わない。また、この2枚の画像の撮影時刻
は短い間隔とし、例えば、ビデオレートでの連続する2
フレームとする。
Next, an image is taken while the light emitting section 2 does not emit light. It does not matter which of the two images is taken first. In addition, the shooting times of these two images are set to short intervals, for example, two consecutive images at the video rate.
Let it be a frame.

【0028】(参照点検出部4) 参照点検出部4は、まず、画像入力部3で撮影した2枚
の画像について、発光部2が発光した状態で撮影した画
像から、発光部2が発光しない状態で撮影した画像を減
算した、差分処理を行う。
(Reference Point Detecting Section 4) The reference point detecting section 4 first causes the light emitting section 2 to emit light from the two images captured by the image input section 3 while the light emitting section 2 is emitting light. The difference processing is performed by subtracting the image taken in the state where it is not.

【0029】この処理結果の差分画像では、発光部2が
発した光がオペレータの眼球上で反射している部分の画
素の値が正の値をとり、それ以外の画素の値はほぼ0に
なっている。
In the difference image obtained as a result of this processing, the value of the pixel in the portion where the light emitted from the light emitting unit 2 is reflected on the operator's eye takes a positive value, and the values of the other pixels are almost zero. Has become.

【0030】差分処理の結果得られた画像をしきい値と
比較して2値化処理を行い、しきい値より大きい画素を
抽出した2値画素を得る。
The image obtained as a result of the difference processing is compared with a threshold value and binarization processing is performed to obtain binary pixels by extracting pixels larger than the threshold value.

【0031】得られた画像について隣接した画素ごとに
ラベル付けを行い、領域に分割する。
The obtained image is labeled for each adjacent pixel and divided into regions.

【0032】この後、各領域の面積が一定範囲にあるも
のを抽出し、抽出した領域の重心座標を参照点の座標と
する。
After that, the area in which the area of each area is within a certain range is extracted, and the barycentric coordinates of the extracted area are used as the coordinates of the reference point.

【0033】指示位置情報を連続して計測する場合、一
度、上述の差分処理によって参照点の位置を検出すれ
ば、その後は差分処理を行なう必要はない。オペレータ
の頭の位置姿勢や目の向きは時間的に連続した画像の間
では大きな変化はないと考えられるので、前回の処理結
果で得られた参照点にたいして追跡処理を行なって座標
を検出していくことができる。
In the case of continuously measuring the designated position information, once the position of the reference point is detected by the above-mentioned difference processing, it is not necessary to perform the difference processing thereafter. Since it is considered that the position and orientation of the operator's head and the direction of the eyes do not change significantly between images that are continuous in time, tracking processing is performed on the reference point obtained in the previous processing result to detect the coordinates. I can go.

【0034】発光部2が発光した状態で撮影した画像を
入力し、画像の2値化、ラベル付けを行なって面積が一
定範囲にある領域を検出し、抽出した領域の重心座標を
求める。そして、各参照点について、前回の参照点検出
部4での処理で検出した参照点座標に最も近い重心座標
を次の参照点の座標とする。前回の処理で検出した参照
点座標と、検出した領域重心座標との距離が予め決めた
閾値より大きい場合は、その参照点は以後の処理で使用
しない。また、前回の処理で検出した参照点座標と検出
した領域重心座標との距離の参照点全部についての平均
値が予め決めた一定値より大きい場合は、上述の差分処
理を用いて参照点座標を計算する。
An image photographed with the light emitting section 2 emitting light is input, the image is binarized and labeled to detect a region having a certain area, and the barycentric coordinates of the extracted region are obtained. Then, for each reference point, the barycentric coordinate closest to the reference point coordinate detected in the previous processing by the reference point detection unit 4 is set as the coordinate of the next reference point. If the distance between the reference point coordinates detected in the previous processing and the detected area barycentric coordinates is larger than a predetermined threshold value, the reference point is not used in the subsequent processing. If the average value of all the reference points of the distance between the reference point coordinates detected in the previous processing and the detected area barycentric coordinates is larger than a predetermined constant value, the reference point coordinates are calculated using the above difference processing. calculate.

【0035】(目領域検出部5) 目領域検出部5は、参照点検出部4から参照点座標を入
力し、参照点の集合に外接する長方形を計算する。この
長方形の重心を中心として、長方形の縦横の長さのそれ
ぞれに予め決めた一定値をかけたものを目領域とする。
(Eye Area Detection Unit 5) The eye area detection unit 5 inputs the reference point coordinates from the reference point detection unit 4 and calculates a rectangle circumscribing the set of reference points. With the center of gravity of the rectangle as the center, the vertical and horizontal lengths of the rectangle are multiplied by a predetermined constant value to form an eye region.

【0036】(画像入力制御部6) 画像入力制御部6は、画像入力部3を制御して、オペレ
ータの目の撮影条件を最適に保つ。画像入力部3のTV
カメラは、左右方向への回転(パン)、上下方向への回
転(チルト)の運動を行なうことのできる雲台の上に搭
載されている。まず、参照点検出部4から参照点の集合
を入力する。入力した画像中で参照点が検出されなかっ
た場合は、図5に示したフローチャートにしたがって雲
台を動作させ、カメラで撮影可能な空間を走査して参照
点の検出を行なう。
(Image Input Control Unit 6) The image input control unit 6 controls the image input unit 3 to keep the photographing conditions of the eyes of the operator optimal. TV of image input unit 3
The camera is mounted on a pan / tilt head capable of rotating in a horizontal direction (pan) and rotating in a vertical direction (tilt). First, a set of reference points is input from the reference point detection unit 4. When the reference point is not detected in the input image, the platform is operated according to the flowchart shown in FIG. 5, and the space photographable by the camera is scanned to detect the reference point.

【0037】参照点が検出されれば、目領域検出部5か
ら目領域の中心位置と面積を入力する。目領域が画像入
力部3で撮影した画像の中心にあって、面積が予め設定
した一定範囲の中に入るように、画像入力部3であるT
Vカメラの向きとカメラレンズのズーム比を制御する。
また、指示位置情報を連続して計測する場合は、前回の
処理で計測した瞳重心の位置が画像の中心にある位置に
カメラの向きを制御する。
When the reference point is detected, the center position and area of the eye area are input from the eye area detecting unit 5. The image input unit 3 is T so that the eye region is at the center of the image captured by the image input unit 3 and the area is within a predetermined range.
Controls the orientation of the V-camera and the zoom ratio of the camera lens.
When continuously measuring the designated position information, the orientation of the camera is controlled so that the position of the center of gravity of the pupil measured in the previous process is at the center of the image.

【0038】(瞳検出部7) 瞳検出部7は、画像中の目領域から瞳の位置を検出す
る。この処理では、まず、目領域の画像と、予め与えた
マスク画像との畳込み処理を行う。マスク画像は、図6
に示した画像で、半径rの円内の画素が−1,円外の画
素が1で表された画像である。
(Pupil Detection Unit 7) The pupil detection unit 7 detects the position of the pupil from the eye region in the image. In this process, first, a convolution process of an image of the eye region and a mask image given in advance is performed. The mask image is shown in Figure 6.
In the image shown in (1), the pixel inside the circle of radius r is represented by -1, and the pixel outside the circle is represented by 1.

【0039】次に、畳込み処理を行って得た画像の各画
素の画素値を比較し、最高値を取る画素を取り出す。
Next, the pixel values of the respective pixels of the image obtained by performing the convolution processing are compared, and the pixel having the highest value is taken out.

【0040】最高値を取った画素の位置を中心にして、
図7で示された、半径rの円の左右の円周上に10個の
マスクを配置し、このマスク内で、円の内側と外側領域
の区切るステップエッジの検出処理を行う。
With the position of the pixel taking the highest value as the center,
Ten masks are arranged on the left and right circumferences of a circle having a radius r shown in FIG. 7, and step edge detection processing for dividing the inside and outside areas of the circle is performed in this mask.

【0041】その後、各マスク内で検出したエッジ位置
情報の計10点の位置座標と楕円の方程式で最小自乗推
定を行い、10点のエッジ位置に最も近い楕円を求め
る。瞳検出部7は、上記の最小自乗推定で求めた楕円の
重心座標を出力する。
After that, least square estimation is performed using the position coordinates of the edge position information detected in each mask and the equation of the ellipse to find the ellipse closest to the edge positions of the 10 points. The pupil detection unit 7 outputs the barycentric coordinates of the ellipse obtained by the above least square estimation.

【0042】(指示位置検出部8) 指示位置検出部8は、瞳領域の重心と参照点座標を用い
て演算を行い、指示対象領域中で視線が指示する位置座
標を求める。
(Pointed Position Detecting Section 8) The pointed position detecting section 8 calculates using the center of gravity of the pupil area and the coordinates of the reference point to find the position coordinates indicated by the line of sight in the pointing area.

【0043】この例では、指示対象領域をモニタディス
プレイの表示面とする。瞳重心の座標をM=(xm,y
m)とする。画像に撮影されたi番目(1≦i≦n)の
参照点Riの位置を(xi,yi)とする。参照点の集
合の中から3つの参照点を選ぶ組み合わせの中で、3つ
の参照点で構成された三角形がMを内部に含む組合せを
選択する。三角形を構成する3点を、それぞれ、Ra,
Rb,Rcとする。
In this example, the designated area is the display surface of the monitor display. The coordinates of the center of gravity of the pupil are M = (xm, y
m). The position of the i-th (1 ≦ i ≦ n) reference point Ri captured in the image is defined as (xi, yi). Among the combinations that select three reference points from the set of reference points, the combination in which the triangle formed by the three reference points includes M inside is selected. The three points that make up the triangle are Ra,
Rb and Rc.

【0044】このとき、瞳重心の座標は、At this time, the coordinates of the center of gravity of the pupil are

【数1】 で表すことができる。上記の式1のパラメータs,t
は、
[Equation 1] Can be expressed as The parameters s and t of Equation 1 above
Is

【数2】 で求めることができる。[Equation 2] Can be found at.

【0045】このとき、視線による表示装置用の指示位
置(Xm,Ym)を、後で述べる各参照点Riのキャリ
ブレーションデータ(Xi,Yi)を用いて、
At this time, the designated position (Xm, Ym) for the display device by the line of sight is calculated using the calibration data (Xi, Yi) of each reference point Ri described later.

【数3】 と決める。[Equation 3] Decide.

【0046】次に、別の計算方式について述べる。全て
の参照点Riの座標の重心を(xo,yo)とする。
Next, another calculation method will be described. The center of gravity of the coordinates of all the reference points Ri is (xo, yo).

【0047】[0047]

【数4】 とすれば、xとXの関係は、以下に示すある2×2の変
換行列a’を用いて、
[Equation 4] Then, the relationship between x and X is calculated by using a certain 2 × 2 conversion matrix a ′ shown below.

【数5】 の関係にある。この行列a’は、疑似逆行列を用いて、[Equation 5] Have a relationship. This matrix a ′ is a pseudo-inverse matrix,

【数6】 で求めることができる。a’を用いて瞳重心から視線で
指示した位置を以下の式で計算する。
[Equation 6] Can be found at. Using a ′ , the position indicated by the line of sight from the center of gravity of the pupil is calculated by the following formula.

【0048】[0048]

【数7】 先に述べた発光部2の記述では、発光素子はディスプレ
イ平面と同一平面に配置すると述べたが、実際にはカメ
ラで撮影した画像に影響がなければ、ディスプレイは平
面でなくても構わない、また、発光素子の位置は厳密に
ディスプレイ面と同一の平面上になくても構わない。
[Equation 7] In the description of the light emitting unit 2 described above, it is stated that the light emitting elements are arranged on the same plane as the display plane, but the display may not be a plane as long as it does not affect the image captured by the camera. The position of the light emitting element does not have to be strictly on the same plane as the display surface.

【0049】画像入力部3では、オペレータの眼球をク
ローズアップして撮影するので、上記の計算では、カメ
ラで撮影した画像平面上への発光部2の映り込みの投影
が弱透視投影であると仮定して計算している。この弱透
視投影は、実際のカメラの投影である中心投影の近似に
なるが、“THREE-DIMENSINA MODEL MATCHING FROMAN
UNC ONSTRAINED VIDEPOINT" Thompson,D.W.Mundy,J.L.
IEEE proceedings of Robotics and Automation 1987
pp.208-220 によれば、カメラで撮影する対象の大きさ
がカメラから物体までの距離の10%以下であれば、弱
透視投影による近似が有効になると述べられている。通
常、オペレータの目からディスプレイまでの距離はディ
スプレイの表示面最大径の2倍程度である。人間の眼球
は半径約15mmで、15インチディスプレイでの表示
面の横幅が300mm程度で目からディスプレイの距離
は600mmであるので、弱透視投影で近似できる。こ
の状態で、発光素子の位置のディスプレイ平面からのず
れについて計算する。
In the image input section 3, the operator's eyeball is photographed in close-up, so in the above calculation, the projection of the reflection of the light emitting section 2 on the image plane photographed by the camera is the weak perspective projection. It is calculated assuming. This weak perspective projection is an approximation of the central projection, which is the projection of the actual camera, but the "THREE-DIMENSINA MODEL MATCHING FROMAN
UNC ONSTRAINED VIDEPOINT "Thompson, DWMundy, JL
IEEE proceedings of Robotics and Automation 1987
According to pp.208-220, if the size of the object photographed by the camera is 10% or less of the distance from the camera to the object, the approximation by weak perspective projection is effective. Usually, the distance from the operator's eyes to the display is about twice the maximum diameter of the display surface of the display. Since the human eye has a radius of about 15 mm, the width of the display surface of a 15-inch display is about 300 mm, and the distance from the eye to the display is 600 mm, it can be approximated by weak perspective projection. In this state, the displacement of the position of the light emitting element from the display plane is calculated.

【0050】弱透視投影では、眼球からカメラ撮像面へ
の射影軸はカメラ光軸と平行であると近似できる(図
8)。この図8では、ディスプレイの端に配置した発光
素子の映り込みのカメラ画像への投影位置は、γsin
(θ),発光素子の位置は、2ltan(2θ)で表さ
れる。
In weak perspective projection, the projection axis from the eyeball to the camera image pickup surface can be approximated to be parallel to the camera optical axis (FIG. 8). In FIG. 8, the projection position of the reflection of the light emitting element arranged at the edge of the display on the camera image is γsin
(Θ), the position of the light emitting element is represented by 2 ltan (2θ).

【0051】また、このとき、θとarctan(0.
5l/2l)とは略等しい。そして、arctan
(0.5l/2l)は略14degreeである。
At this time, θ and arctan (0.
5l / 2l) is almost equal. And arctan
(0.5l / 2l) is approximately 14 degrees.

【0052】発光素子の位置が、ディスプレイ平面から
dl離れた結果、眼球への射影角度が2dθずれるとす
る。
It is assumed that the projection angle on the eyeball deviates by 2dθ as a result of the position of the light emitting element being dl away from the display plane.

【0053】[0053]

【数8】 画像入力部3のカメラが眼球の直径の30mmの範囲を
500ピクセルの解像度で撮影しているとすると、画像
上での発光素子映り込みの位置の1ピクセルのずれはθ
のずれdθで0.24degreeに相当する。このdθを上
記の式にあたえると、dl=0.07が得られる。つま
り、発光素子の位置は、ディスプレイ平面からの距離が
表示径の7%以内であれば、投影した画像でのずれが1
ピクセル以下であるので計測に影響しない。
[Equation 8] Assuming that the camera of the image input unit 3 is capturing a range of the eyeball diameter of 30 mm with a resolution of 500 pixels, the deviation of 1 pixel in the position of the reflection of the light emitting element on the image is θ.
The deviation dθ corresponds to 0.24 degree. By applying this dθ to the above equation, dl = 0.07 is obtained. In other words, the position of the light emitting element has a deviation of 1 in the projected image if the distance from the display plane is within 7% of the display diameter.
Since it is less than pixels, it does not affect the measurement.

【0054】したがって、発光素子の位置はディスプレ
イ平面と同一平面になくても構わない。また、ディスプ
レイ面も平面でなく、表示径の7%以下であれば湾曲し
ても構わない。
Therefore, the position of the light emitting element need not be in the same plane as the display plane. Also, the display surface is not flat and may be curved as long as it is 7% or less of the display diameter.

【0055】オペレータが眼鏡を着用している場合、参
照点検出部4で発光部2の発した光の眼球上への映り込
みと同時に、眼鏡のレンズ上での映り込みも検出される
ために以後の処理を誤る可能性があるので、以下に述べ
る方法で対処する。
When the operator wears spectacles, the reference point detection unit 4 detects the reflection of the light emitted from the light emitting unit 2 on the eyeball and the reflection on the lens of the spectacles at the same time. Since there is a possibility that the subsequent processing will be erroneous, the following method will be used.

【0056】まず、参照点検出部4では、抽出された参
照点の数が発光素子の数より多い場合、各参照点と全参
照点の重心座標との距離を求め、距離が大きいものから
順に一定数の参照点を削除する。
First, when the number of extracted reference points is larger than the number of light emitting elements, the reference point detection unit 4 finds the distances between the respective reference points and the barycentric coordinates of all the reference points, and the distances in descending order. Delete a fixed number of reference points.

【0057】図8で示した、ディスプレイの端に配置し
た発光素子の映り込みのカメラ画像への投影位置は、γ
sin(θ)で表される。眼鏡のレンズ表面が球面であ
ると仮定した場合、この球の半径γ′は眼球の半径γに
比べて大きいため、眼鏡レンズ上への映り込み位置は、
眼球上への映り込み位置に比べて広い範囲に分布し、全
参照点の重心座標からの距離も大きくなる。
The projection position of the reflection of the light emitting element arranged at the edge of the display on the camera image shown in FIG.
It is represented by sin (θ). Assuming that the lens surface of the spectacles is spherical, the radius γ ′ of this sphere is larger than the radius γ of the eyeball, so the reflection position on the spectacle lens is
It is distributed over a wider range than the position of reflection on the eyeball, and the distance from the barycentric coordinates of all reference points is also large.

【0058】次に、指示位置検出部8では、式6の行列
aを求めた後、各参照点Riについてキャリブレーショ
ンデータ(X´i,Y´i)と、以下の参照点座標(x
´i,´i)に行列aを適用した座標との間の距離を
計算する。計算した距離が予め定めた閾値より大きい参
照点を削除し、残った参照点だけで、行列aを計算しな
おす。
Next, in the designated position detection unit 8, after obtaining the matrix a of the equation 6, the calibration data (X'i, Y'i) for each reference point Ri and the following reference point coordinates (x
′ I, y ′ i) Calculate the distance between the coordinates and the matrix a. A reference point whose calculated distance is larger than a predetermined threshold is deleted, and the matrix a is recalculated only with the remaining reference points.

【0059】眼球上での映り込みから得られた参照点で
は、式6が成立するので、計測誤差がなければ参照点座
標に行列aを適用した結果とキャリブレーションデータ
は一致しているはずであるが、眼鏡レンズ上での映り込
みに行列aを適用した結果はキャリブレーションデータ
とは一致しない。したがって、上記の比較を行う事によ
り、レンズ上での映り込みを削除できる。
At the reference point obtained from the reflection on the eyeball, the equation 6 is established. Therefore, if there is no measurement error, the result of applying the matrix a to the coordinates of the reference point and the calibration data should match. However, the result of applying the matrix a to the reflection on the spectacle lens does not match the calibration data. Therefore, by performing the above comparison, the reflection on the lens can be eliminated.

【0060】(キャリブレーション部9) キャリブレーション部9では、指示位置計算用のパラメ
ータを学習し、そのパラメータを保存する。図9は、こ
のキャリブレーションのフローチャートである。
(Calibration Unit 9) The calibration unit 9 learns the parameters for pointing position calculation and stores the parameters. FIG. 9 is a flowchart of this calibration.

【0061】まず、ディスプレイの前、画像入力部3で
入力した画像上に発光素子の画像が投影される位置に鏡
を置く。
First, in front of the display, a mirror is placed at a position where the image of the light emitting element is projected on the image input by the image input unit 3.

【0062】ディスプレイ上の予め定めた座標(Xi,
Yi)に図形を表示する。例えば、ディスプレイの全面
を暗くし、座標(Xi,Yi)に白の塗りつぶし円を表
示する(ステップ101)。
Predetermined coordinates (Xi,
Display the figure in Yi). For example, the entire surface of the display is darkened and a white filled circle is displayed at the coordinates (Xi, Yi) (step 101).

【0063】カメラで撮影した画像から、表示した図形
の画像中での位置(xi,yi)を検出する(ステップ
102)。
The position (xi, yi) of the displayed figure in the image is detected from the image taken by the camera (step 102).

【0064】検出には、撮影した画像と、先にディスプ
レイ全面を暗くした画像とで差分処理を行ない、差分画
像を一定閾値で2値化、ラベル付けを行なって、閾値以
上の値を持つ領域を取り出し、面積が最大になる領域の
重心を、表示した図形の画像中での位置とする。ディス
プレイ上に表示する座標の位置を替えて、以上の処理を
一定数(ここでは、kとする)に達するまで繰り返す
(ステップ103)。
For detection, difference processing is performed between the photographed image and the image in which the entire surface of the display is previously darkened, and the difference image is binarized and labeled with a certain threshold value, and an area having a value equal to or greater than the threshold value is obtained. Then, the center of gravity of the area having the maximum area is taken as the position of the displayed figure in the image. The position of the coordinates displayed on the display is changed, and the above processing is repeated until a fixed number (here, k) is reached (step 103).

【0065】k枚の画像について表示した図形のディス
プレイ上の位置(Xi,Yi)と画像中での位置(x
i,yi)について、
The position (Xi, Yi) on the display of the figure displayed for the k images and the position (x
i, yi),

【数9】 が成立する。上記の式から、行列aを求める(ステップ
104)。
[Equation 9] Is established. The matrix a is obtained from the above equation (step 104).

【0066】行列aは、疑似逆行列を用いてThe matrix a is a pseudo-inverse matrix.

【数10】 で求めることができる。[Equation 10] Can be found at.

【0067】次に、参照点の画像中での位置(xri,
yri)を、参照点検出部4で求める(ステップ10
5)。
Next, the position (xri,
yri) is calculated by the reference point detection unit 4 (step 10).
5).

【0068】検出した座標と行列aを用いて、参照点の
キャリブレーションデータ(Xri,Yri)を以下の
ように求める(ステップ106)。
Using the detected coordinates and the matrix a, the calibration data (Xri, Yri) of the reference point is obtained as follows (step 106).

【0069】[0069]

【数11】 以上の処理で求めたキャリブレーションデータは発光部
2を配置した時に一度決めれば良いので、本発明による
視線検出装置の作成時、または視線検出装置を表示装置
に装着した時にキャリブレーション部9を用いてキャリ
ブレーションデータを作成する。
[Equation 11] The calibration data obtained by the above process can be determined once when the light emitting unit 2 is arranged. Therefore, the calibration unit 9 is used when the eye gaze detection device according to the present invention is created or when the eye gaze detection device is attached to the display device. To create calibration data.

【0070】(個人調整部10) 次に、個人調整部10について述べる。(Individual adjustment unit 10) Next, the individual adjustment unit 10 will be described.

【0071】人間の瞳は、正確な円ではなく、光学的な
光軸中心の位置にも個人差があって瞳の中心からのずれ
がある。このため、指示位置検出部で検出した指示位置
は、画像入力部3から入力した画像から計測した指示位
置であって、オペレータが意図した指示位置は一致しな
い場合がある。
The human pupil is not an exact circle, and the position of the optical center of the optical axis also varies from person to person due to individual differences. Therefore, the designated position detected by the designated position detection unit is the designated position measured from the image input from the image input unit 3, and the designated position intended by the operator may not match.

【0072】個人調整部10は、システムの出力を上記
の個人特性に合わせる部であって、指示位置検出部8の
出力からオペレータの意図した指示位置への変換パラメ
ータを学習し、このパラメータを用いて指示位置検出部
の出力を変換し、システムの出力を調整する。
The individual adjusting unit 10 is a unit for matching the output of the system with the above-mentioned individual characteristics, and learns the conversion parameter from the output of the pointing position detecting unit 8 to the pointing position intended by the operator, and uses this parameter. The output of the pointed position detection unit is converted by the above to adjust the output of the system.

【0073】発光部2の配置の違い等、個々のシステム
の差はキャリブレーション部9で計測、学習する。個人
調整部10では、個々のオペレータ毎の差を学習し、調
整する。このように、システムの差を学習するキャリブ
レーション部9と、人間の個人差の影響を個人調整部の
2つの部を用意することにより、各オペレータは、一度
個体差を学習すれば、その後は、システムが変更されて
も、新しいシステムのキャリブレーションデータと自分
の個人調整パラメータを使って視線による位置指示を行
うことが出来る。
The calibration unit 9 measures and learns the difference between individual systems such as the arrangement of the light emitting unit 2. The individual adjustment unit 10 learns and adjusts the difference for each operator. In this way, by preparing the calibration unit 9 for learning the system difference and the individual adjustment unit for the influence of the individual difference of humans, each operator can learn the individual difference once, and thereafter, Even if the system is changed, the position data can be indicated by the line of sight using the calibration data of the new system and the individual adjustment parameters of the user.

【0074】個人調整部10の構成を図10に示す。FIG. 10 shows the configuration of the individual adjustment unit 10.

【0075】個人調整パラメータ学習部11では、実際
にディスプレイ上で指示対象になる図形を表示し、オペ
レータがこの図形を注視した時の指示位置検出部8の出
力と、図形の表示位置の対応を与えて、指示位置検出部
8の出力から個々のオペレータが意図した指示位置への
変換パラメータを学習する。指示位置情報変換部13
は、個人調整パラメータ学習部11で学習したパラメー
タを用いて、入力した指示位置情報を変換して出力す
る。
The individual adjustment parameter learning unit 11 displays the figure to be instructed on the display, and the correspondence between the output of the instructed position detection unit 8 and the display position of the figure when the operator gazes at this figure. Then, the conversion parameter to the designated position intended by each operator is learned from the output of the designated position detection unit 8. Pointed position information conversion unit 13
Uses the parameters learned by the individual adjustment parameter learning unit 11 to convert and output the input designated position information.

【0076】個人調整パラメータ学習部11での処理の
流れを図11に示す。
FIG. 11 shows the flow of processing in the individual adjustment parameter learning unit 11.

【0077】まず、ディスプレイ上の予め定めた位置
(x´i,y´i)に、図形を表示する。表示位置は、
ディスプレイの表示面上に偏りなく配置する(ステップ
201)。
First, a graphic is displayed at a predetermined position (x'i, y'i) on the display. The display position is
They are arranged evenly on the display surface of the display (step 201).

【0078】オペレータは、表示された図形を注視した
状態で、キーボードのキーを押下する、マウスのボタン
を押下する等する。個人調整部10では、キーボードや
マウスボタンの入力を検知するまで、待機する(ステッ
プ202)。
The operator depresses a key on the keyboard, depresses a button on the mouse or the like while gazing at the displayed graphic. The individual adjustment unit 10 waits until the input of the keyboard or the mouse button is detected (step 202).

【0079】前記ステップの終了後、指示位置検出部8
から視線による指示位置(xi,yi)を入力する(ス
テップ203)。
After the above steps are completed, the designated position detecting unit 8
Then, the designated position (xi, yi) by the line of sight is input (step 203).

【0080】ステップ201から、ステップ203まで
の処理を、指示位置の数が一定数kになるまで繰り返し
行う(ステップ204)。
The processing from step 201 to step 203 is repeated until the number of designated positions reaches the constant number k (step 204).

【0081】次に、ディスプレイ上の表示位置(x´
i,y´i)と視線による指示位置(xi,yi)につ
いて、以下の式で表現したモデルを当てはめる最小自乗
推定を行なう。式中の数nは、例えば2等の予め定めた
値を用いる(ステップ205)。
Next, the display position (x 'on the display
i, y'i) and the position indicated by the line of sight (xi, yi) are subjected to least squares estimation by applying the model expressed by the following equation. For the number n in the equation, a predetermined value such as 2 is used (step 205).

【0082】[0082]

【数12】 最小自乗推定では、モデルを表すパラメータaj,bj
(j=0..n)のうち、aj(j=0..n)は以下
の式の解として得られる。
[Equation 12] In the least-squares estimation, the parameters aj and bj representing the model
Among (j = 0..n), aj (j = 0..n) is obtained as a solution of the following equation.

【0083】[0083]

【数13】 パラメータbj(j=0..n)についてもajと同様
の式の解として計算する事ができる。
[Equation 13] The parameter bj (j = 0..n) can also be calculated as a solution of the same formula as aj.

【0084】次に、ステップ205で行なった最小自乗
推定による残差平均と予め定めた閾値との比較を行う
(ステップ206)。残差平均が閾値より小さい場合
は、最小自乗推定で得られたパラメータaj,bj(j
=0..n)を学習パラメータとして個人調整部10に
出力する。
Next, the residual mean obtained by the least squares estimation in step 205 is compared with a predetermined threshold value (step 206). When the residual mean is smaller than the threshold, the parameters aj, bj (j
= 0. . n) is output to the individual adjustment unit 10 as a learning parameter.

【0085】この最小自乗推定による残差平均が、予め
定めた閾値より大きい場合は、ステップ201からの処
理を再度行う。
When the residual mean by the least squares estimation is larger than a predetermined threshold value, the processing from step 201 is performed again.

【0086】次に、個人調整パラメータ学習部11の別
の構成例を図に示す。ディスプレイ上の表示位置(x´
i,y´i)と視線による指示位置(xi,yi)につ
いて、以下の式の関係があるとする。式中の数nは、例
えば2等の予め定めた値を用いる。
Next, another example of the configuration of the individual adjustment parameter learning section 11 is shown in the figure. Display position on display (x '
It is assumed that there is a relation of the following formula between i, y'i) and the position (xi, yi) indicated by the line of sight. For the number n in the equation, a predetermined value such as 2 is used.

【0087】[0087]

【数14】 まず、パラメータaj,bj(j=0..n)の初期推
定値として、a1=1,b1=1、それ以外のパラメー
タには0とする(ステップ301)。
[Equation 14] First, a1 = 1 and b1 = 1 are set as initial estimated values of the parameters aj and bj (j = 0..n), and 0 is set to the other parameters (step 301).

【0088】ディスプレイ上の予め定めた位置(x´
i,y´i)に、図形を表示して、オペレータは、表示
された図形への注視を促す(ステップ302)。
A predetermined position (x 'on the display
A graphic is displayed on i, y'i), and the operator prompts the user to pay attention to the displayed graphic (step 302).

【0089】指示位置検出部8から視線による指示位置
(xi,yi)を入力する(ステップ303)。
The designated position (xi, yi) by the line of sight is input from the designated position detection unit 8 (step 303).

【0090】位置(xi,yi)と(x´i,y´i)
からパラメータaj,bj(j=0..n)の推定を行
う(ステップ304)。このパラメータ推定には、例え
ば、”ディジタル信号処理と制御”木村英紀著、pp.
212に書かれているカルマンフィルタの手法を用いる
ことができる。
Positions (xi, yi) and (x'i, y'i)
Parameters aj and bj (j = 0..n) are estimated (step 304). For this parameter estimation, for example, "Digital Signal Processing and Control" by Hideki Kimura, pp.
The Kalman filter technique described in 212 can be used.

【0091】カルマンフィルタは、以下の式で表現され
たモデルで観測データy[t]から状態ベクトルx
[t]の推定を行うアルゴリズムである。
The Kalman filter is a model expressed by the following equation, from the observation data y [t] to the state vector x
This is an algorithm for estimating [t].

【0092】[0092]

【数15】 t番目のディスプレイ上の図形の位置(x´i,y´
i)と指示位置検出部8から入力した視線による指示位
置(xt,yt)について、パラメータaj,bj(j
=0..n)を表す状態ベクトルx[t]を、
[Equation 15] Position of the figure on the t-th display (x'i, y '
i) and the pointed position (xt, yt) by the line of sight input from the pointed position detection unit 8, the parameters aj, bj (j
= 0. . n), the state vector x [t]

【数16】 で表現する。また、遷移行列Aと計測行列C、観測デー
タy[t]を、以下の式で表す。
[Equation 16] Express with. In addition, the transition matrix A, the measurement matrix C, and the observation data y [t] are represented by the following formulas.

【0093】[0093]

【数17】 上記の行列を用いて状態ベクトルの推定を行う。推定に
用いる誤差の共分散行列Q[t],R[t]には、予め
定めた一定の行列を与える。
[Equation 17] The state matrix is estimated using the above matrix. A predetermined constant matrix is given to the error covariance matrices Q [t] and R [t] used for estimation.

【0094】次に、推定した状態ベクトルxと指示位置
検出部8の出力(xt,yt)から求めた行列C[t]
を用いて、
Next, the matrix C [t] obtained from the estimated state vector x and the output (xt, yt) of the pointed position detector 8
Using,

【数18】 と(x´t,y´t)の図形表示位置を変更する(ステ
ップ305)。
[Equation 18] And the graphic display positions of (x't, y't) are changed (step 305).

【0095】前回の表示位置と新たに推定した位置の距
離が予め決めた一定閾値より小さくなるか判定し、閾値
より小さければ処理を終了する(ステップ306)。
It is determined whether or not the distance between the previous display position and the newly estimated position is smaller than a predetermined threshold value. If it is smaller than the threshold value, the process ends (step 306).

【0096】新たに推定した位置がディスプレイの表示
範囲からはずれるか判定し、外れなければ、図形を表示
し、ステップ302からの処理を繰り返す。推定位置が
表示範囲からはずれた場合は、表示位置を初期値に戻し
てステップ301からの処理を繰り返す(ステップ30
7)。
It is determined whether the newly estimated position is out of the display range of the display. If it is not out of the display range, a graphic is displayed, and the processing from step 302 is repeated. If the estimated position is out of the display range, the display position is returned to the initial value and the processing from step 301 is repeated (step 30).
7).

【0097】以上の処理を、ディスプレイ上に初期値を
表示する位置を変更して数回行う。例えば、ディスプレ
イ上での図形を表示する初期位置を図13に示す5箇所
に順に変更し、それぞれの初期位置から出発して、ステ
ップの処理を終了した時点で個人調整パラメータの学習
を終了し、パラメータaj,bj(j=0..n)を個
人調整部10に出力する。
The above processing is repeated several times while changing the position where the initial value is displayed on the display. For example, the initial position for displaying a graphic on the display is changed in order to five positions shown in FIG. 13, starting from each of the initial positions and ending the learning of the individual adjustment parameter when the processing of the step is completed, The parameters aj and bj (j = 0..n) are output to the individual adjustment unit 10.

【0098】第2の実施例 次に、第2の実施例の構成例を示す。この構成例では、
図1の構成例と比較して、指示位置検出部8、個人調整
部10、個人調整パラメータ学習部11が異なる。
[0098] [Second Embodiment] Next, a configuration example of the second embodiment. In this configuration example,
The pointed position detection unit 8, the individual adjustment unit 10, and the individual adjustment parameter learning unit 11 are different from the configuration example of FIG.

【0099】(指示位置検出部8) まず、指示位置検出部8の構成から述べる。(Pointed position detector 8) First, the configuration of the pointed position detector 8 will be described.

【0100】入力した瞳重心の座標をM=(xm,y
m)とする。画像に撮影されたi番目(1≦i≦n)の
参照点Riの位置を(xi,yi)とし、キャリブレー
ションデータを(Xi,Yi)とする。
The coordinate of the input pupil centroid is M = (xm, y
m). The position of the i-th (1 ≦ i ≦ n) reference point Ri captured in the image is set to (xi, yi), and the calibration data is set to (Xi, Yi).

【0101】式10で(xi,yi)を(Xi,Yi)
に変換する行列aを求める。瞳重心を中心とした一定の
大きさの画像Iについて、位置(x,y)にある画素の
明度をI(x,y)で表すとする。この画像に行列aで
表されるアフィン変換を施してた画像に写像を行う。ア
フィン変換によって画像Iは、以下の式によって別の画
像I′に射影される。キャリブレーションデータ(X
i,Yi)は、画像によっては変化しないので、射影前
の画像で(xi,yi)にある発光部2は、必ずキャリ
ブレーションデータ(Xi,Yi)の位置に射影され
る。
In equation 10, (xi, yi) is changed to (Xi, Yi)
The matrix a to be converted to is obtained. For an image I having a constant size centered on the center of gravity of the pupil, the brightness of the pixel at the position (x, y) is represented by I (x, y). Mapping is performed on the image obtained by subjecting this image to the affine transformation represented by the matrix a. The image I is projected by the affine transformation onto another image I ′ according to the following equation. Calibration data (X
Since i, Yi) does not change depending on the image, the light emitting unit 2 located at (xi, yi) in the image before projection is always projected at the position of the calibration data (Xi, Yi).

【0102】[0102]

【数19】 図14にアフィン写像の例を示す。写像された画像中
で、予め定めた直線上でエッジ抽出を行って、射影され
た瞳領域の輪郭エッジの位置を求める。図15は、上記
の方法でのエッジ抽出を行う直線の一例である。この直
線上で、エッジ抽出を行う。エッジ抽出には、まず、直
線上の画素をI(x)として、ステップ状エッジの抽出
フィルタの畳込み演算を行う。畳込み結果の局所的最大
値を抽出し、その中で予め決めた閾値より大きい値を抽
出する。閾値より大きい値があれば、エッジフィルタが
最大値をとる位置と、次に大きい値をとる位置をエッジ
の位置とする。
[Formula 19] FIG. 14 shows an example of the affine map. In the mapped image, edge extraction is performed on a predetermined straight line to obtain the position of the contour edge of the projected pupil region. FIG. 15 is an example of a straight line that performs edge extraction by the above method. Edge extraction is performed on this straight line. For edge extraction, first, a pixel on a straight line is set to I (x), and a convolution operation of a stepwise edge extraction filter is performed. A local maximum value of the convolution result is extracted, and a value larger than a predetermined threshold value is extracted therein. If there is a value larger than the threshold value, the position where the edge filter takes the maximum value and the position where the edge filter takes the next largest value are taken as the edge positions.

【0103】指示位置検出部8では、それぞれの直線上
でのエッジの位置を個人調整部10に出力する。
The pointed position detection unit 8 outputs the position of the edge on each straight line to the individual adjustment unit 10.

【0104】(個人調整部10) 個人調整部10は、個人調整パラメータ学習部11で学
習したパラメータを用いて、指示位置検出部8の出力か
らオペレータの意図した指示位置への変換を行う。指示
位置検出部8でエッジ抽出を行う直線がn本あり、i番
目の直線から入力したエッジの位置をxli,xriと
する。このとき出力する指示位置(xp,yp)を、
(Individual Adjustment Unit 10) The individual adjustment unit 10 uses the parameters learned by the individual adjustment parameter learning unit 11 to convert the output of the indicated position detection unit 8 into the indicated position intended by the operator. There are n straight lines from which the pointed position detection unit 8 extracts edges, and the positions of the edges input from the i-th straight line are xli and xri. The designated position (xp, yp) output at this time is

【数20】 で計算する。この計算に用いるパラメータai,bi
(i=0〜2n)は個人調整パラメータ学習部で求め
る。
[Equation 20] Calculate with. Parameters ai and bi used in this calculation
(I = 0 to 2n) is obtained by the individual adjustment parameter learning unit.

【0105】(個人調整パラメータ学習部11) 個人調整パラメータ学習部11では、実際にディスプレ
イ上で指示対象になる図形を表示し、オペレータがこの
図形を注視した時の指示位置検出部8の出力と、図形の
表示位置の対応を与えて、指示位置検出部8の出力から
個々のオペレータが意図した指示位置への変換パラメー
タを学習する。
(Individual Adjustment Parameter Learning Unit 11) The individual adjustment parameter learning unit 11 displays the figure to be instructed on the display and outputs the output of the instructed position detecting section 8 when the operator gazes at the figure. , The correspondence of the display position of the figure is given, and the conversion parameter from the output of the pointing position detecting unit 8 to the pointing position intended by each operator is learned.

【0106】この個人調整パラメータ学習部11の処理
の流れは、先に説明した図12と同じであるのでこの図
を用いて説明する。
The flow of the processing of the individual adjustment parameter learning unit 11 is the same as that of FIG. 12 described above, and therefore will be described using this figure.

【0107】まず、パラメータaj,bj(j=0..
2n)の初期推定値として、a1=1,b1=1、それ
以外のパラメータには0とする(ステップ301)。
First, the parameters aj and bj (j = 0 ..
2n) has an initial estimated value of a1 = 1, b1 = 1, and 0 for other parameters (step 301).

【0108】ディスプレイ上の予め定めた位置(x´
i,y´i)に、図形を表示して、オペレータは、表示
された図形への注視を促す(ステップ302)。
A predetermined position (x 'on the display
A graphic is displayed on i, y'i), and the operator prompts the user to pay attention to the displayed graphic (step 302).

【0109】指示位置検出部8からエッジの位置xl
i,xri(i=1..n)を入力する(ステップ30
3)。
Edge position xl from the pointed position detector 8
Input i, xri (i = 1..n) (step 30)
3).

【0110】エッジの位置xli,xri(i=1..
n)と図形の表示位置(x´i,y´i)から,ステッ
プ304と同様にカルマンフィルタの手法を用いてパラ
メータaj,bj(j=0..2n)の推定を行う(ス
テップ304)。
Edge positions xli, xri (i = 1 ..
n) and the display position (x'i, y'i) of the figure, the parameters aj and bj (j = 0.0.2n) are estimated using the Kalman filter method as in step 304 (step 304).

【0111】t番目のディスプレイ上の図形の位置(x
´t,y´t)と指示位置検出部8から入力したエッジ
の位置xli,xri(i=1..n)について、パラ
メータaj,bj(j=0..2n)を表現する状態ベ
クトルx[t]を、
Position of the figure on the t-th display (x
'T, y't) and the edge positions xli, xri (i = 1..n) input from the pointed position detection unit 8 are state vectors x expressing parameters aj, bj (j = 0.0.2n). [T]

【数21】 とする。また、遷移行列Aと計測行列C、観測データy
[t]を、以下の式で表す。
[Equation 21] And Moreover, the transition matrix A, the measurement matrix C, and the observation data y
[T] is represented by the following formula.

【0112】[0112]

【数22】 上記の行列を用いて状態ベクトルの推定を行う。推定に
用いる誤差の共分散行列Q[t],R[t]について
は、Q[t]は予め定めた一定の行列を与える。R
[t]には、対応するエッジ位置xliかxriのエッ
ジ抽出結果の信頼度に応じた行列を与える。
[Equation 22] The state matrix is estimated using the above matrix. Regarding the error covariance matrices Q [t] and R [t] used for estimation, Q [t] gives a predetermined constant matrix. R
A matrix corresponding to the reliability of the edge extraction result at the corresponding edge position xli or xri is given to [t].

【0113】次に、推定した状態ベクトルxと指示位置
検出部8の出力xli,xri(i=1..n)から求
めた行列C[t]を用いて、次の図形表示位置(x´
t,y´t)を計算する(ステップ305)。
Next, using the estimated state vector x and the matrix C [t] obtained from the outputs xli, xri (i = 1..n) of the designated position detection unit 8, the next figure display position (x ′
t, y't) is calculated (step 305).

【0114】[0114]

【数23】 前回の表示位置と新たに推定した位置の距離が予め決め
た一定閾値より小さくなるか判定し、閾値より小さけれ
ば処理を終了する(ステップ306)。
[Equation 23] It is determined whether or not the distance between the previous display position and the newly estimated position is smaller than a predetermined fixed threshold value, and if smaller than the threshold value, the process ends (step 306).

【0115】新たに推定した位置がディスプレイの表示
範囲からはずれるか判定し、外れなければ、図形を表示
し、ステップ302からの処理を繰り返す。推定位置が
表示範囲からはずれた場合は、表示位置を初期値に戻し
てステップ301からの処理を繰り返す(ステップ30
7)。
It is determined whether or not the newly estimated position is out of the display range of the display. If it is not out of the display range, a graphic is displayed and the process from step 302 is repeated. If the estimated position is out of the display range, the display position is returned to the initial value and the processing from step 301 is repeated (step 30).
7).

【0116】距離が一定閾値より小さい場合は、ディス
プレイ上に初期値を表示する位置を変更して以上の処理
を行う。例えば、ディスプレイ上での図形を表示する初
期位置を図13に示す5箇所に順に変更し、それぞれの
初期位置から出発して、ステップの処理を終了した時点
で個人調整パラメータの学習を終了し、パラメータa
j,bj(j=0..2n)を個人調整部10に出力す
る。
When the distance is smaller than the fixed threshold value, the position where the initial value is displayed on the display is changed and the above processing is performed. For example, the initial position for displaying a graphic on the display is changed in order to five positions shown in FIG. 13, starting from each of the initial positions and ending the learning of the individual adjustment parameter when the processing of the step is completed, Parameter a
It outputs j and bj (j = 0..2n) to the individual adjustment unit 10.

【0117】[0117]

【発明の効果】以上述べたように、請求項1記載の視線
検出装置及び請求項4記載の視線検出方法は、表示装置
上で使用者が視線で指示する位置を、使用者がなんらか
の装置を装着することなく使用者の目を撮影した画像か
ら測定できるので、使用者に負荷をかけることなく指示
位置を測定することができる。また、目頭や目尻等個人
差のある特徴を利用せず、発光部の反射位置を用いて計
測を行なうので、精度良く指示位置をを測定することが
できる。
As described above, the line-of-sight detection device according to the first aspect and the line-of-sight detection method according to the fourth aspect of the present invention are arranged such that the user indicates a position on the display device indicated by the line of sight by the user. Since it is possible to measure the image of the user's eyes without wearing it, it is possible to measure the indicated position without imposing a load on the user. In addition, since the measurement is performed using the reflection position of the light emitting unit without utilizing the characteristics such as the inner corner of the eye and the outer corner of the eye, it is possible to accurately measure the indicated position.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施例の視線検出装置のブロック図であ
る。
FIG. 1 is a block diagram of a line-of-sight detection device according to a first embodiment.

【図2】位置指示情報獲得手順のフローチャートであ
る。
FIG. 2 is a flowchart of a procedure for acquiring position indication information.

【図3】発光部の構成例である。FIG. 3 is a configuration example of a light emitting unit.

【図4】ウインドウ枠を用いた発光部の構成例である。FIG. 4 is a configuration example of a light emitting unit using a window frame.

【図5】雲台制御のフローチャートである。FIG. 5 is a flowchart of a pan head control.

【図6】瞳位置検出用マスク画像である。FIG. 6 is a mask image for detecting a pupil position.

【図7】瞳輪郭検出用マスク位置である。FIG. 7 is a mask position for pupil contour detection.

【図8】発光素子映り込みの投影である。FIG. 8 is a projection of a reflection of a light emitting element.

【図9】キャリブレーションのフローチャートである。FIG. 9 is a flowchart of calibration.

【図10】個人調整部の構成図である。FIG. 10 is a configuration diagram of an individual adjustment unit.

【図11】個人調整パラメータ学習部のフローチャート
(1)である。
FIG. 11 is a flowchart (1) of an individual adjustment parameter learning unit.

【図12】個人調整パラメータ学習部のフローチャート
(2)である。
FIG. 12 is a flowchart (2) of an individual adjustment parameter learning unit.

【図13】図形表示位置の例である。FIG. 13 is an example of a graphic display position.

【図14】アフイン写像の例である。FIG. 14 is an example of an Affine map.

【図15】エッジ検出位置である。FIG. 15 is an edge detection position.

【符号の説明】[Explanation of symbols]

1…制御部 2…発光部 3…画像入力部 4…参照点検出部 5…目領域検出部 6…画像入力制御部 7…瞳検出部 8…指示位置検出部 9…キャリブレーション部 10…個人調整部 11…個人調整パラメータ学習部 12…表示部 1 ... Control unit 2 ... Light emitting part 3 ... Image input section 4 ... Reference point detector 5 ... Eye area detector 6 ... Image input control unit 7 ... Eye detector 8 ... Pointed position detector 9 ... Calibration section 10 ... Personal adjustment department 11 ... Individual adjustment parameter learning unit 12 ... Display

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平7−199045(JP,A) 特開 平5−199996(JP,A) 実開 昭58−18502(JP,U) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 G06T 1/00 280 ─────────────────────────────────────────────────── --Continued from the front page (56) References Japanese Patent Laid-Open No. 7-199045 (JP, A) Japanese Patent Laid-Open No. 5-199996 (JP, A) Actual Development Sho 58-18502 (JP, U) (58) Field (Int.Cl. 7 , DB name) G01B 11/00 G06T 1/00 280

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】使用者の画像を撮影する画像入力手段と、 前記画像入力手段で撮影した前記画像から前記使用者の
眼を検出する眼検出手段と、 前記眼検出手段で検出した前記眼における瞳の位置を求
める瞳検出手段と、前記使用者が指示する指示対象領域と略同じ面上に配置
され、 前記使用者に向かって光を照射する3個以上の発
光手段と、 前記3個以上の発光手段が発光した状態で撮影した画像
と発光していない状態で撮影した画像を減算して差分処
理を行い、前記各発光手段の照射光の前記使用者の眼球
上でのそれぞれの映り込み位置である参照点を検出する
参照点検出手段と、 前記参照点検出手段で検出した3個以上の参照点と、
瞳検出手段で検出した前記瞳の位置に基づいて、前記
指示対象領域中で前記使用者の視線の指示した位置を検
出する指示位置検出手段とからなることを特徴とする視
線検出装置。
1. An image input unit for capturing an image of a user, an eye detecting unit for detecting the user's eye from the image captured by the image input unit, and an eye detecting unit for detecting the eye of the user. The pupil detection means for determining the position of the pupil and the pupil detection means are arranged on substantially the same plane as the pointing target area designated by the user.
And three or more light emitting means for emitting light toward the user, and an image taken in a state in which the three or more light emitting means emit light
And subtract the image taken in the state where it does not emit light
And a reference point detection unit that detects a reference point that is a respective reflection position on the eyeball of the user of the irradiation light of each light emitting unit , and three or more reference points detected by the reference point detection unit. Reference point and before
Based on the position of the pupil detected by the serial pupil detecting means, wherein
A line-of-sight detection device comprising: a pointed position detection unit that detects a position pointed by the user's line of sight in the pointing target area .
【請求項2】前記眼検出手段は、 前記前記画像入力手段で撮影した前記画像と、前記参照
点検出手段で検出した3個以上の参照点とを比較して、
前記画像における前記映り込み位置の近傍領域を眼であ
ると検出することを特徴とする請求項1記載の視線検出
装置。
2. The eye detecting means compares the image photographed by the image input means with three or more reference points detected by the reference point detecting means,
The line-of-sight detection apparatus according to claim 1, wherein a region near the reflection position in the image is detected as an eye.
【請求項3】前記瞳検出手段は、前記眼検出手段で検出
した前記眼における瞳領域の重心の位置を検出し、 前記指示位置検出手段は、 前記参照点検出手段で検出する3個以上の参照点の位置
と、前記瞳検出手段で検出する前記瞳領域の重心を用い
て、指示対象領域中で視線が指示する位置を検出するこ
とを特徴とする請求項1記載の視線検出装置。
3. The pupil detecting means detects the position of the center of gravity of a pupil region in the eye detected by the eye detecting means, and the pointing position detecting means detects three or more points detected by the reference point detecting means. Using the position of the reference point and the center of gravity of the pupil area detected by the pupil detection means,
The line-of-sight detection device according to claim 1, wherein the position indicated by the line of sight is detected in the pointing target area .
【請求項4】使用者の画像を撮影する画像入力ステップ
と、 前記画像入力ステップで撮影した前記画像から前記使用
者の眼を検出する眼検出ステップと、 前記眼検出ステップで検出した前記眼における瞳の位置
を求める瞳検出ステップと、前記使用者が指示する指示対象領域と略同じ面上に配置
され、 前記使用者に向かって光を照射する3個以上の発
光手段が発光した状態で撮影した画像と発光していない
状態で撮影した画像を減算して差分処理を行い、前記各
発光手段の照射光の前記使用者の眼球上でのそれぞれの
映り込み位置である参照点を検出する参照点検出ステッ
プと、 前記参照点検出ステップで検出した3個以上の参照点
と、前記瞳検出ステップで検出した前記瞳の位置に基づ
いて、前記指示対象領域中で前記使用者の視線の指示し
た位置を検出する指示位置検出ステップとからなること
を特徴とする視線検出方法。
4. An image input step for capturing an image of a user
When, The use from the image taken in the image input step
An eye detection step of detecting a human eye, Position of the pupil in the eye detected in the eye detection step
A pupil detection step for obtainingArranged on substantially the same plane as the target area designated by the user
Is Three or more light sources that illuminate the user
Light meansThe image was taken with the flash on and no flash
The image taken in the state is subtracted and the difference processing is performed.
Luminous meansOf the illuminating light of each on the eyeball of the user.
Reflection positionReference point that isReference point detection step
And 3 or more detected in the reference point detection stepReference point
When,The aboveBased on the position of the pupil detected in the pupil detection step
There, In the target areaInstructing the line of sight of the user
And a designated position detecting step for detecting the
A visual line detection method characterized by:
【請求項5】前記眼検出ステップは、 前記前記画像入力ステップで撮影した前記画像と、前記
参照点検出ステップで検出した3個以上の参照点とを比
較して、前記画像における前記映り込み位置の近傍領域
を眼であると検出することを特徴とする請求項4記載の
視線検出方法。
Wherein said eye detecting step, said image taken by said image input step, by comparing the three or more reference points detected by the reference point detection step, the position of reflection the in the image The eye gaze detection method according to claim 4, wherein the vicinity region of is detected as an eye.
【請求項6】前記瞳検出ステップは、前記眼検出ステッ
プで検出した前記眼における瞳領域の重心の位置を検出
し、 前記指示位置検出ステップは、 前記参照点検出ステップで検出する3個以上の参照点
位置と、前記瞳検出ステップで検出する前記瞳領域の重
心を用いて、指示対象領域中で視線が指示する位置を検
出することを特徴とする請求項4記載の視線検出方法。
6. The pupil detecting step detects a position of a center of gravity of a pupil region in the eye detected in the eye detecting step.
And the indicated position detecting step, the position of three or more reference points to be detected by the reference point detection step, the heavy of the pupil region detected by said pupil detecting step
The eye gaze detection method according to claim 4, wherein a position indicated by the eye gaze in the instruction target area is detected using the mind .
JP05650396A 1996-03-13 1996-03-13 Eye gaze detecting apparatus and method Expired - Fee Related JP3376207B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP05650396A JP3376207B2 (en) 1996-03-13 1996-03-13 Eye gaze detecting apparatus and method
US08/816,453 US5912721A (en) 1996-03-13 1997-03-12 Gaze detection apparatus and its method as well as information display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05650396A JP3376207B2 (en) 1996-03-13 1996-03-13 Eye gaze detecting apparatus and method

Publications (2)

Publication Number Publication Date
JPH09243327A JPH09243327A (en) 1997-09-19
JP3376207B2 true JP3376207B2 (en) 2003-02-10

Family

ID=13028929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05650396A Expired - Fee Related JP3376207B2 (en) 1996-03-13 1996-03-13 Eye gaze detecting apparatus and method

Country Status (1)

Country Link
JP (1) JP3376207B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030069531A (en) * 2002-02-21 2003-08-27 한국과학기술원 Eye gaze point estimation method
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
JP5065798B2 (en) * 2007-08-03 2012-11-07 株式会社ニデック Ophthalmic ultrasonic measurement apparatus and program

Also Published As

Publication number Publication date
JPH09243327A (en) 1997-09-19

Similar Documents

Publication Publication Date Title
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
JP5858433B2 (en) Gaze point detection method and gaze point detection device
US5912721A (en) Gaze detection apparatus and its method as well as information display apparatus
JP4517049B2 (en) Gaze detection method and gaze detection apparatus
JP6963820B2 (en) Line-of-sight detector
US5604818A (en) Apparatus for measuring sighting direction
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
JP4649319B2 (en) Gaze detection device, gaze detection method, and gaze detection program
US12056274B2 (en) Eye tracking device and a method thereof
KR20120057033A (en) Gaze tracking system and method for controlling internet protocol tv at a distance
JPH113429A (en) Observer tracking automatic stereoscopic display device, image tracking system, and image tracking method
KR20110038568A (en) Apparatus and mehtod for tracking eye
CN114973392A (en) Human eye motion tracking system and method
US11937928B2 (en) Evaluation apparatus, evaluation method, and evaluation program
JP2016099759A (en) Face detection method, face detection device, and face detection program
WO2016142489A1 (en) Eye tracking using a depth sensor
JP3726122B2 (en) Gaze detection system
JP3711053B2 (en) Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program
JP6288770B2 (en) Face detection method, face detection system, and face detection program
JP3376207B2 (en) Eye gaze detecting apparatus and method
JP4055858B2 (en) Gaze detection system
EP3811852B1 (en) Device, method, and program for detecting gaze
JP2016051317A (en) Visual line detection device
EP4379316A1 (en) Measuring system providing shape from shading
JP5004099B2 (en) Cursor movement control method and cursor movement control apparatus

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071129

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081129

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091129

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101129

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101129

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111129

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121129

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131129

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees