JP4464686B2 - さまざまな光線条件下におけるリアルタイムの目の検知および追跡 - Google Patents
さまざまな光線条件下におけるリアルタイムの目の検知および追跡 Download PDFInfo
- Publication number
- JP4464686B2 JP4464686B2 JP2003577739A JP2003577739A JP4464686B2 JP 4464686 B2 JP4464686 B2 JP 4464686B2 JP 2003577739 A JP2003577739 A JP 2003577739A JP 2003577739 A JP2003577739 A JP 2003577739A JP 4464686 B2 JP4464686 B2 JP 4464686B2
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- eye
- image
- difference image
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title abstract description 22
- 210000001747 pupil Anatomy 0.000 claims abstract description 85
- 238000000034 method Methods 0.000 claims abstract description 72
- 230000004424 eye movement Effects 0.000 claims abstract description 21
- 238000012706 support-vector machine Methods 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 23
- 238000001914 filtration Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims 5
- 238000005286 illumination Methods 0.000 abstract description 22
- 230000008569 process Effects 0.000 abstract description 21
- 230000000694 effects Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Developmental Disabilities (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Pathology (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Description
本発明の一実施例によって、さまざまな照明条件下でリアルタイムの目の検知と追跡が提供される。さまざまな照明条件には強力な非赤外光(例えば、従来の蛍光室内灯)が含まれる。確実な目の検知と動きの追跡を実行するために、能動的赤外方式と外観準拠の方法が結合されている。対象物の目は対象物の差分画像を発生させる能動的な照射解析を用いて検知される。差分画像においては、明るい瞳孔の効果が対象物の瞳孔の外観を強調する。
発明の更なる特徴と、特質及び多岐にわたる利点については、付随する図面と以下の詳細な説明によって明確になる。
付随する図面は本発明の実施例を示し、説明とともに本発明の原理を説明する。
本発明の一つの実施例において、強い非赤外光のようなさまざまな光線条件下で目の検知と追跡を実施するために、能動的赤外(IR)照射および外観準拠の技術が使用される。能動的IR照射は明るい瞳孔の効果を得るために対象物の顔を明るくするために用いられる。明るい瞳孔の効果および目の外観(例えば、目のパターンに基づいた統計的分布)が対象物の瞳孔を検知して追跡するために用いられる。対象物の目の外観に基づいて、パターン分類認識(例えば、サポートベクターマシン)と目標物追跡(例えば、平均シフト処理)が瞳孔の検知と目の動きの追跡のために用いられる。
能動的照射解析及び外観準拠の解析は対象物の顔のIR画像または連続したIR画像を利用する。一般には、対象物の顔がIR光線で照射され、カメラによってその照射された顔の画像を撮る。図1Aは本発明に基づいた赤外照射器の第1の形態を示す図面である。図示の実施例には、アウターリング105、インナーリング110およびカメラ115が含まれる。アウターリング105は複数のIR発光ダイオード(LEDs)を含む。インナーリング110も複数のIR LEDsを含む。アウターリング105はカメラ115の光軸から離して配置されるが、インナーリング110はカメラ115のレンズの光軸の近傍に配置される。具体的には、インナーリング110は明るい瞳孔画像を発生させるためにカメラ115のレンズの光軸に十分に近い位置に配置される。アウターリング105は明るい瞳孔画像とほぼ同じ画像特性(例えば、コントラスト及び/又は明るさ)を持った暗い瞳孔画像を発生させるために、カメラ115のレンズの光軸から十分離して配置される。カメラ115のレンズは通常対象物の顔面上に焦点を結ぶ。平均焦点距離あるいは対象物のカメラからの距離が適用例に従って調整されることは、当業者であれば理解に難くないであろう。例えば、自動車へ適用した場合には、ダッシュボードに搭載された照射器から2から6フィートの範囲に運転者の顔が位置することになるだろう。本発明の一つの実施例として、カメラ115に対象物の画像のサイズを設定あるいは再設定するための対物レンズを装備することもできる。
LEDsは、消費電力32mW、波長帯域40nm幅においてノミナル波長880nmで動作する。カメラ115は、IR LEDsのノミナル波長に適合するように選択された、約880nmの最大スペクトル感度を持つ。カメラ115は、約10nm幅の波長通過域を持った光学帯域通過フィルタを含む。本発明のこの実施例では、フィルタを用いない時と比較して、光学帯域通過フィルタによって信号対雑音比を20倍上げることが出来る。第1の形態の赤外照射器の利点は画像の質が改善されることである。画像の質は後段の画像処理技術の精度またはローバスト性に影響を及ぼす。
図2は本発明の一実施例による目の検知および追跡を示すフローチャートである。図2に示された処理は全体の機能フローチャートを示す。図2に示されたステップの詳細を以下に示す。一般に、図示の処理には目の検知と目の追跡の2つの段階が含まれる。本発明の一実施例では、目の検知段階には能動的照射と外観準拠の処理が含まれる。目の追跡段階には2つの追跡レベルが含まれる。第1の追跡段階では目の動きを追跡するために差分画像を用いる。第1の追跡レベルで目の発見が出来ない場合は、第2の追跡レベルが実行される。第2の追跡レベルでは、目の動きを追跡するために暗い瞳孔画像が解析される。第2の追跡レベルが失敗した場合には、処理は目の検知段階から再スタートする。
図4は本発明の一実施例による能動的照射解析を示すフローチャートである。本発明の一実施例において、カメラ115/160はインターレースフレームを撮像する。インターレースフレームは奇数フィールドと偶数フィールドを含む。1秒間に30フレームのフレームレートの画像シーケンスにおいて、全体で1秒間に30フレームを発生させるためにインターレースされた1秒間にそれぞれ60フレームの偶数と奇数のフィールドがある。本発明の一実施例において、図1Aおよび図1Bの能動的照射器はカメラ115/160の偶数および奇数のフィールドと同期されることが可能である。一例として、カメラ115が偶数フィールドをスキャンしている時、インナーリング110はターンオンされアウターリング105はターンオフされる。奇数フィールドがスキャンされる時は、アウターリング105がターンオンされインナーリング110がターンオフされる。
図5は本発明の一実施例による外観準拠の解析を示すフローチャートである。本発明の実施例では、能動的照射解析310によって得られた瞳孔の候補を確認するための外観準拠の解析350を実行するために、サポートベクターマシン(SVM)が用いられる。当業者であれば、他のパターンマッチング技術、例えばニューラルネットワークに基づいた方法が使用できることを予想するに難くない。
初期フレームまたはカメラ115/160の画像から目が検出された210後、瞳孔はリアルタイムでフレームごとに追跡される。図6は本発明の一実施例による差分画像における目の追跡の更なる詳細を示すフローチャートである。上記のように追跡処理は2レベルの追跡からなる。図6に示された処理は第1のレベルを示す。差分画像での目の追跡230には対象物の第2の画像に対する能動的照射解析310の繰り返しが含まれる。第2の画像は撮像された画像シーケンスのもう一つのフレーム、またはリアルタイムのフレーム撮像に相当する。前の画像で目が存在した限定領域において目の位置を追跡するために、従来のカルマンフィルタ解析が実行される320。カルマンフィルタは次のフレームにおける移動特徴点の位置と不確定性を予想する。即ち、次のフレームにおいてある確度で特徴を確実に見つけるために、以降の解析でどこを捜すか、次のフレームでどのくらいの領域がサーチされるべきかを予想する。従来のカルマンフィルタリング技術は、キュー ジ他「リアル タイム ヴィジュアル キューズ エクストラクション フォー モニタリング ドライバー ビジランス」プロシーディングズ オブ インターナショナル ワークショップ オン コンピュータ ビジョン システムズ、2001年7月(Q. Ji, et al., "Real time visual cues extraction for monitoring driver vigilance," Proceedings of International Workshop on Computer Vision Systems, July 2001)に示されている。その内容の全てが本願で参照されて取り込まれている。
次に、重み{wi}i=1…nが式(4)によってそれぞれのピクセルに対して得られる710。ここで、gは重要度の高いピクセル位置には大きな値を割付ける重み関数で、uiはi番目のピクセルの強度である。従来の平均シフト手法はデー コマニシュ他「リアルタイム トラッキング オブ ノンリジッド オブジェクツ ユージング ミーンシフト」プロシーディングズ オブ IEEE コンファランス オン コンピュータ ビジョン アンド パターン レコグニション、ヒルトン ヘッド アイランド、サウスカロライナ、2000年(D. Comaniciu, et al., "Real-time tracking of non-rigid objects using mean-shift," Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Hilton Head Island, South Carolina, 2000)に示されている。この内容の全てが参照されて本願に取り込まれている。
Claims (27)
- 対象物の目を検知する方法であって、
能動的照射解析を用いて、計算装置によって前記対象物の第1の差分画像を発生するステップと、
前記計算装置によって前記第1の差分画像から瞳孔の候補のセットを識別するステップと、
前記瞳孔の候補の中から前記対象物の目を識別するために前記瞳孔の候補のセットを用いて外観準拠の解析を、前記計算装置によって実行するステップと、
能動的照射解析を用いて、前記計算装置によって前記対象物の第2の差分画像を発生するステップと、
前記計算装置によって前記第2の差分画像にカルマンフィルタリングを実行して、目の動きを識別するステップと、
前記カルマンフィルタリングに基づく目の動きの識別ができない場合には、前記計算装置によって、平均シフト追跡手法を実行して、暗い瞳孔画像における目を追跡するステップとからなる方法。 - 前記発生ステップは、オンアクシスの照射器を用いて第1の画像を取得するステップと、オフアクシスの照射器を用いて第2の画像を取得するステップからなることを特徴とする請求項1の方法。
- 前記第1の画像はビデオ信号の偶数フィールド及び奇数フィールドの1つからなることを特徴とする請求項2の方法。
- 前記第2の画像はビデオ信号の偶数フィールド及び奇数フィールドの1つからなることを特徴とする請求項2の方法。
- 前記オンアクシスの照射器及びオフアクシス照射器の少なくとも1つが波長領域40nm幅の赤外発光体からなることを特徴とする請求項2の方法。
- 前記識別ステップは、
瞳孔の候補になり得る少なくとも1つのブロブを識別するために、所定の閾値より低い強度のピクセルを前記第1の差分画像から除外するステップと、
前記瞳孔の候補のセットを発生するために前記少なくとも1つのブロブに対してコンポーネント解析を実行するステップとからなることを特徴とする請求項1の方法。 - 前記コンポーネント解析は前記少なくとも1つのブロブのサイズ及び形状の少なくとも1つによって、非瞳孔ブロブを瞳孔ブロブから分離することを特徴とする請求項6の方法。
- 前記解析実行ステップは、
ポジティブ及びネガティブな画像を有する訓練セットを用いてサポートベクターマシンを訓練するステップと、
第1の対象物に対してパターンマッチングを実行するステップとからなることを特徴とする請求項1の方法。 - 前記第1の対象物に対して実行された前記パターンマッチングに対応して前記サポートベクターマシンを再訓練するステップと、第2の対象物にパターンマッチングを実行するステップとを更に含む請求項8の方法。
- 所定の目の識別精度が達成されるまで前記再訓練ステップと前記第2の対象物にパターンマッチングを実行するステップとを繰り返すステップを更に含む請求項9の方法。
- 前記平均シフト追跡手法を実行するステップは、
第1フレームで前記目の動きの目標位置を初期化するステップと、
前記目標位置のそれぞれのピクセルに対して重み付けするステップと、
第2のフレームで前記目の動きの予測位置を計算するステップとを更に含むことを特徴とする請求項1の方法。 - 前記第1フレームの前記目標位置と前記第2フレームの前記予測位置との間の変化が所定の閾値より小さいか決定するステップを更に含む請求項11の方法。
- 前記変化が前記閾値を越える場合、前記第2フレームの前記予測位置の計算を繰り返すステップを更に含む請求項12の方法。
- 対象物の目を識別する方法で、
能動的照射解析を用いて、計算装置によって前記対象物の第1の差分画像を発生するステップと、
瞳孔の候補になり得る少なくとも1つのブロブを識別するために、前記計算装置によって前記第1の差分画像から所定の閾値より低い強度のピクセルを除外するステップと、
瞳孔の候補のセットを発生するために、前記少なくとも1つのブロブに対して前記計算装置によってコンポーネント解析を実施するステップと、
前記瞳孔の候補の中から前記対象物の目を識別するために、ポジティブ及びネガティブな画像を含む訓練セットと共にサポートベクターマシンを用いて前記瞳孔の候補に対して、前記計算装置によってパターンマッチングを実行するステップと、
能動的照射解析を用いて、前記計算装置によって前記対象物の第2の差分画像を発生するステップと、
前記計算装置によって前記第2の差分画像にカルマンフィルタリングを実行して、目の動きを識別するステップと、
前記カルマンフィルタリングに基づく目の動きの識別ができない場合には、前記計算装置によって、平均シフト追跡手法を実行して、暗い瞳孔画像における目を追跡するステップからなる方法。 - 対象物の目を検知するシステムで、
能動的照射解析を用いて前記対象物の第1の差分画像を発生する手段と、
前記第1の差分画像から瞳孔の候補のセットを識別する手段と、
前記瞳孔の候補の中から前記対象物の目を識別するために前記瞳孔の候補のセットを用いて外観準拠の解析を実行する手段と、
能動的照射解析を用いて、前記対象物の第2の差分画像を発生する手段と、
前記第2の差分画像にカルマンフィルタリングを実行して、目の動きを識別する手段と、
前記カルマンフィルタリングに基づく目の動きの識別ができない場合には、前記計算装置によって、平均シフト追跡手法を実行して、暗い瞳孔画像における目を追跡する手段とからなるシステム。 - 前記発生手段はオンアクシスの照射器を用いて第1の画像を取得する手段と、オフアクシスの照射器を用いて第2の画像を取得する手段とからなることを特徴とする請求項15のシステム。
- 前記第1の画像はビデオ信号の偶数フィールド及び奇数フィールドのうちの1つからなることを特徴とする請求項16のシステム。
- 前記第2の画像はビデオ信号の偶数フィールド及び奇数フィールドのうちの1つからなることを特徴とする請求項16のシステム。
- 前記オンアクシスの照射器及びオフアクシスの照射器のうちの少なくとも1つが波長領域40nm幅の赤外発光体からなることを特徴とする請求項16のシステム。
- 前記識別手段は、
瞳孔の候補になり得る少なくとも1つのブロブを識別するために、所定の閾値より低い強度のピクセルを前記第1の差分画像から除外する手段と、
前記瞳孔の候補のセットを発生するために前記少なくとも1つのブロブに対してコンポーネント解析を実施する手段とからなることを特徴とする請求項15のシステム。 - 前記コンポーネント解析は前記少なくとも1つのブロブのサイズ及び形状のうちの少なくとも1つによって、非瞳孔ブロブを瞳孔ブロブから分離することを特徴とする請求項20のシステム。
- 前記解析実行手段は、
ポジティブ及びネガティブな画像を有する訓練セットを用いてサポートベクターマシンを訓練する手段と、
第1の対象物に対してパターンマッチングを実行する手段とからなることを特徴とする請求項15のシステム。 - 前記第1の対象物に対して実行された前記パターンマッチングに対応して前記サポートベクターマシンを再訓練する手段と、第2の対象物にパターンマッチングを実行する手段とを更に含む請求項22のシステム。
- 所定の目の識別精度が達成されるまで前記再訓練と前記第2の対象物に対するパターンマッチングを繰り返す手段を更に含む請求項23のシステム。
- 前記平均シフト追跡手法を実行する手段は、
第1フレームにおいて前記目の動きの目標位置を初期化する手段と、
前記目標位置のそれぞれのピクセルに対して重み付けする手段と、
第2のフレームにおいて前記目の動きの予測位置を計算する手段とを更に含むことを特徴とする請求項15のシステム。 - 前記第1フレームにおける前記目標位置と前記第2フレームにおける前記予測位置の間の変化が所定の閾値より小さいか決定する手段を更に含む請求項25のシステム。
- 前記変化が前記閾値を越える場合前記第2フレームにおける前記予測位置の計算を繰り返す手段を更に含む請求項26のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US36787802P | 2002-03-26 | 2002-03-26 | |
US10/396,285 US7206435B2 (en) | 2002-03-26 | 2003-03-24 | Real-time eye detection and tracking under various light conditions |
PCT/JP2003/003739 WO2003079902A1 (en) | 2002-03-26 | 2003-03-26 | Real-time eye detection and tracking under various light conditions |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005521146A JP2005521146A (ja) | 2005-07-14 |
JP4464686B2 true JP4464686B2 (ja) | 2010-05-19 |
Family
ID=28457188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003577739A Expired - Fee Related JP4464686B2 (ja) | 2002-03-26 | 2003-03-26 | さまざまな光線条件下におけるリアルタイムの目の検知および追跡 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7206435B2 (ja) |
EP (1) | EP1487341B1 (ja) |
JP (1) | JP4464686B2 (ja) |
AT (1) | ATE509567T1 (ja) |
AU (1) | AU2003219552A1 (ja) |
WO (1) | WO2003079902A1 (ja) |
Families Citing this family (109)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USRE39539E1 (en) | 1996-08-19 | 2007-04-03 | Torch William C | System and method for monitoring eye movement |
US7305108B2 (en) * | 2001-11-08 | 2007-12-04 | Pelco | Security identification system |
US20040057622A1 (en) * | 2002-09-25 | 2004-03-25 | Bradski Gary R. | Method, apparatus and system for using 360-degree view cameras to identify facial features |
SE524003C2 (sv) * | 2002-11-21 | 2004-06-15 | Tobii Technology Ab | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
GB2395853A (en) * | 2002-11-29 | 2004-06-02 | Sony Uk Ltd | Association of metadata derived from facial images |
US7762665B2 (en) | 2003-03-21 | 2010-07-27 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
US8292433B2 (en) | 2003-03-21 | 2012-10-23 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7665041B2 (en) * | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US20050047647A1 (en) * | 2003-06-10 | 2005-03-03 | Ueli Rutishauser | System and method for attentional selection |
US20050100191A1 (en) * | 2003-11-11 | 2005-05-12 | Harbach Andrew P. | Imaging system and method for monitoring an eye |
KR100580630B1 (ko) * | 2003-11-19 | 2006-05-16 | 삼성전자주식회사 | 적외선을 이용한 사람 식별 장치 및 방법 |
KR101108634B1 (ko) | 2004-01-06 | 2012-01-31 | 소니 주식회사 | 화상 처리 장치 및 화상 처리 방법 및 기록 매체 |
US7336806B2 (en) * | 2004-03-22 | 2008-02-26 | Microsoft Corporation | Iris-based biometric identification |
US10039445B1 (en) | 2004-04-01 | 2018-08-07 | Google Llc | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
US20110077548A1 (en) * | 2004-04-01 | 2011-03-31 | Torch William C | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
KR100552709B1 (ko) * | 2004-05-21 | 2006-02-20 | 삼성전자주식회사 | 눈검출 장치 및 방법 |
EP1602322A1 (en) * | 2004-06-02 | 2005-12-07 | SensoMotoric Instruments GmbH | Method and apparatus for eye tracking latency reduction |
KR100601963B1 (ko) * | 2004-08-23 | 2006-07-14 | 삼성전자주식회사 | 시선을 이용한 인증 장치 및 그 방법 |
KR100664956B1 (ko) * | 2004-11-24 | 2007-01-04 | 삼성전자주식회사 | 눈 검출 방법 및 장치 |
JP4491604B2 (ja) * | 2004-12-17 | 2010-06-30 | 国立大学法人静岡大学 | 瞳孔検出装置 |
US20060204052A1 (en) * | 2005-03-11 | 2006-09-14 | Fuji Photo Film Co., Ltd. | Method, apparatus, and program for detecting red eye |
US20060279745A1 (en) * | 2005-06-13 | 2006-12-14 | Wenstrand John S | Color imaging system for locating retroreflectors |
US20060291697A1 (en) * | 2005-06-21 | 2006-12-28 | Trw Automotive U.S. Llc | Method and apparatus for detecting the presence of an occupant within a vehicle |
WO2007015200A2 (en) * | 2005-08-04 | 2007-02-08 | Koninklijke Philips Electronics N.V. | Apparatus for monitoring a person having an interest to an object, and method thereof |
US7580545B2 (en) * | 2005-10-03 | 2009-08-25 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Method and system for determining gaze direction in a pupil detection system |
US8066375B2 (en) | 2005-10-10 | 2011-11-29 | Tobii Technology Ab | Eye tracker having an extended span of operating distances |
US8260008B2 (en) | 2005-11-11 | 2012-09-04 | Eyelock, Inc. | Methods for performing biometric recognition of a human eye and corroboration of same |
US8077914B1 (en) | 2006-08-07 | 2011-12-13 | Arkady Kaplan | Optical tracking apparatus using six degrees of freedom |
FR2905586B1 (fr) * | 2006-09-28 | 2009-04-17 | Siemens Vdo Automotive Sas | "procede de localisation des pupilles" |
JP4356733B2 (ja) * | 2006-11-09 | 2009-11-04 | アイシン精機株式会社 | 車載用画像処理装置とその制御方法 |
JP2008125619A (ja) * | 2006-11-17 | 2008-06-05 | National Univ Corp Shizuoka Univ | 瞳孔検出装置及び瞳孔検出方法 |
EP1978394A1 (en) * | 2007-04-06 | 2008-10-08 | Global Bionic Optics Pty Ltd. | Optical system for increasing depth of field |
JP5045212B2 (ja) * | 2007-04-25 | 2012-10-10 | 株式会社デンソー | 顔画像撮像装置 |
US8218811B2 (en) | 2007-09-28 | 2012-07-10 | Uti Limited Partnership | Method and system for video interaction based on motion swarms |
DE102007056528B3 (de) * | 2007-11-16 | 2009-04-02 | Seereal Technologies S.A. | Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren |
US20090245594A1 (en) * | 2008-03-31 | 2009-10-01 | General Electric Company | Iris imaging and iris-based identification |
CN101278839B (zh) * | 2008-05-22 | 2010-10-13 | 曹宇 | 夜间驾驶跟踪方法 |
WO2010037233A1 (en) * | 2008-10-02 | 2010-04-08 | The University Of Western Ontario | System and method for processing images |
US8774498B2 (en) * | 2009-01-28 | 2014-07-08 | Xerox Corporation | Modeling images as sets of weighted features |
EP2238889B1 (en) | 2009-04-01 | 2011-10-12 | Tobii Technology AB | Adaptive camera and illuminator eyetracker |
US20120105486A1 (en) | 2009-04-09 | 2012-05-03 | Dynavox Systems Llc | Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
BR112012012635A2 (pt) | 2009-12-18 | 2016-07-12 | Honda Motor Co Ltd | sistema e método para fornecer alerta de aviso de acidente em veículo |
US8890946B2 (en) * | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
TWI447658B (zh) * | 2010-03-24 | 2014-08-01 | Ind Tech Res Inst | 人臉影像擷取方法與裝置 |
US9037217B1 (en) | 2010-10-13 | 2015-05-19 | Gholam A. Peyman | Laser coagulation of an eye structure or a body surface from a remote location |
US11309081B2 (en) | 2010-10-13 | 2022-04-19 | Gholam A. Peyman | Telemedicine system with dynamic imaging |
US10456209B2 (en) | 2010-10-13 | 2019-10-29 | Gholam A. Peyman | Remote laser treatment system with dynamic imaging |
US8452372B2 (en) * | 2010-10-13 | 2013-05-28 | Gholam Peyman | System for laser coagulation of the retina from a remote location |
US8903468B2 (en) | 2010-10-13 | 2014-12-02 | Gholam Peyman | Laser coagulation of an eye structure from a remote location |
US9931171B1 (en) | 2010-10-13 | 2018-04-03 | Gholam A. Peyman | Laser treatment of an eye structure or a body surface from a remote location |
US9510974B1 (en) | 2010-10-13 | 2016-12-06 | Gholam A. Peyman | Laser coagulation of an eye structure or a body surface from a remote location |
US20150379708A1 (en) * | 2010-12-07 | 2015-12-31 | University Of Iowa Research Foundation | Methods and systems for vessel bifurcation detection |
WO2012078636A1 (en) | 2010-12-07 | 2012-06-14 | University Of Iowa Research Foundation | Optimal, user-friendly, object background separation |
JP5603258B2 (ja) | 2011-01-13 | 2014-10-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 検出装置及び検出方法 |
JP6005663B2 (ja) | 2011-01-20 | 2016-10-12 | ユニバーシティ オブ アイオワ リサーチ ファウンデーション | 血管画像における動静脈比の自動測定 |
US8911087B2 (en) | 2011-05-20 | 2014-12-16 | Eyefluence, Inc. | Systems and methods for measuring reactions of head, eyes, eyelids and pupils |
US8885877B2 (en) | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
RU2616175C2 (ru) * | 2011-09-28 | 2017-04-12 | Конинклейке Филипс Н.В. | Определение расстояния до объекта по изображению |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
EP2807605A2 (en) * | 2012-01-26 | 2014-12-03 | Umoove Services Ltd. | Eye tracking |
KR101977638B1 (ko) * | 2012-02-29 | 2019-05-14 | 삼성전자주식회사 | 영상 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말 |
JP2013215549A (ja) | 2012-03-16 | 2013-10-24 | Fujitsu Ltd | 画像処理装置、画像処理プログラムおよび画像処理方法 |
US9545196B2 (en) | 2012-05-04 | 2017-01-17 | University Of Iowa Research Foundation | Automated assessment of glaucoma loss from optical coherence tomography |
US9952663B2 (en) | 2012-05-10 | 2018-04-24 | Umoove Services Ltd. | Method for gesture-based operation control |
KR101979669B1 (ko) * | 2012-07-13 | 2019-05-17 | 삼성전자주식회사 | 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말 |
US9612656B2 (en) | 2012-11-27 | 2017-04-04 | Facebook, Inc. | Systems and methods of eye tracking control on mobile device |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US10572774B2 (en) * | 2012-12-06 | 2020-02-25 | Toyota Motor Engineering & Manufacturing North America. Inc. | Methods and robots for adjusting object detection parameters, object recognition parameters, or both object detection parameters and object recognition parameters |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
WO2014143891A1 (en) | 2013-03-15 | 2014-09-18 | University Of Iowa Research Foundation | Automated separation of binary overlapping trees |
US20140313308A1 (en) * | 2013-04-19 | 2014-10-23 | Samsung Electronics Co., Ltd. | Apparatus and method for tracking gaze based on camera array |
JP6304999B2 (ja) * | 2013-10-09 | 2018-04-04 | アイシン精機株式会社 | 顔検出装置、方法およびプログラム |
CN104224204B (zh) * | 2013-12-24 | 2016-09-07 | 烟台通用照明有限公司 | 一种基于红外检测技术的驾驶员疲劳检测系统 |
WO2015131009A1 (en) * | 2014-02-28 | 2015-09-03 | The Johns Hopkins University | Eye alignment monitor and method |
US10410355B2 (en) | 2014-03-21 | 2019-09-10 | U.S. Department Of Veterans Affairs | Methods and systems for image analysis using non-euclidean deformed graphs |
US9361519B2 (en) * | 2014-03-28 | 2016-06-07 | Intel Corporation | Computational array camera with dynamic illumination for eye tracking |
US10708550B2 (en) | 2014-04-08 | 2020-07-07 | Udisense Inc. | Monitoring camera and mount |
US9953247B2 (en) * | 2015-01-29 | 2018-04-24 | Samsung Electronics Co., Ltd. | Method and apparatus for determining eye position information |
US9961258B2 (en) | 2015-02-23 | 2018-05-01 | Facebook, Inc. | Illumination system synchronized with image sensor |
US10115194B2 (en) | 2015-04-06 | 2018-10-30 | IDx, LLC | Systems and methods for feature detection in retinal images |
JP2017144086A (ja) * | 2016-02-18 | 2017-08-24 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
USD854074S1 (en) | 2016-05-10 | 2019-07-16 | Udisense Inc. | Wall-assisted floor-mount for a monitoring camera |
EP4151307A3 (en) * | 2016-07-15 | 2023-07-26 | Gate Scientific, Inc. | Wirelessly sensing properties of a closed environment and devices thereof |
JP6751324B2 (ja) * | 2016-09-14 | 2020-09-02 | 株式会社デンソーアイティーラボラトリ | 虹彩検出装置、虹彩検出方法、およびプログラム |
KR102707595B1 (ko) * | 2016-12-01 | 2024-09-19 | 삼성전자주식회사 | 눈 검출 방법 및 장치 |
US10166996B2 (en) * | 2017-02-09 | 2019-01-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for adaptively communicating notices in a vehicle |
CN109325394B (zh) * | 2017-08-01 | 2022-06-21 | 苹果公司 | 确定稀疏图案照明与密集图案照明 |
USD855684S1 (en) | 2017-08-06 | 2019-08-06 | Udisense Inc. | Wall mount for a monitoring camera |
CN107679448B (zh) * | 2017-08-17 | 2018-09-25 | 平安科技(深圳)有限公司 | 眼球动作分析方法、装置及存储介质 |
US10956737B1 (en) | 2017-10-24 | 2021-03-23 | Wells Fargo Bank, N.A. | System and apparatus for improved eye tracking using a mobile device |
KR102495359B1 (ko) | 2017-10-27 | 2023-02-02 | 삼성전자주식회사 | 객체 트래킹 방법 및 장치 |
US10874332B2 (en) | 2017-11-22 | 2020-12-29 | Udisense Inc. | Respiration monitor |
WO2019163066A1 (ja) | 2018-02-22 | 2019-08-29 | 日本電気株式会社 | なりすまし検知装置、なりすまし検知方法、及びコンピュータ読み取り可能な記録媒体 |
US11406257B2 (en) | 2018-07-27 | 2022-08-09 | Welch Allyn, Inc. | Vision screening device and methods |
US10866635B2 (en) | 2018-09-13 | 2020-12-15 | Toyota Research Institute, Inc. | Systems and methods for capturing training data for a gaze estimation model |
KR102608471B1 (ko) * | 2018-11-06 | 2023-12-01 | 삼성전자주식회사 | 눈 추적 방법 및 장치 |
CN109684915B (zh) * | 2018-11-12 | 2021-01-01 | 温州医科大学 | 瞳孔跟踪图像处理方法 |
USD900431S1 (en) | 2019-01-28 | 2020-11-03 | Udisense Inc. | Swaddle blanket with decorative pattern |
USD900429S1 (en) | 2019-01-28 | 2020-11-03 | Udisense Inc. | Swaddle band with decorative pattern |
USD900428S1 (en) | 2019-01-28 | 2020-11-03 | Udisense Inc. | Swaddle band |
USD900430S1 (en) | 2019-01-28 | 2020-11-03 | Udisense Inc. | Swaddle blanket |
SE543455C2 (en) * | 2019-06-28 | 2021-02-23 | Tobii Ab | Method and system for 3d cornea position estimation |
KR20210073135A (ko) * | 2019-12-10 | 2021-06-18 | 삼성전자주식회사 | 눈 복원 기반의 눈 추적 방법 및 장치 |
ES2925382T3 (es) * | 2020-04-09 | 2022-10-17 | Irisbond Crowdbonding S L | Método para el seguimiento de la mirada |
JP2023529679A (ja) | 2020-06-12 | 2023-07-11 | ユニバーシティ オブ ワシントン | 接眼ディスプレイ内での眼追跡 |
WO2023233334A1 (en) * | 2022-06-02 | 2023-12-07 | Alcon Inc. | Eye tracker with hardware filtering and software sorting |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6714665B1 (en) * | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
JP3376207B2 (ja) | 1996-03-13 | 2003-02-10 | 株式会社東芝 | 視線検出装置及びその方法 |
JP2917953B2 (ja) | 1997-02-05 | 1999-07-12 | 日本電気株式会社 | 視点位置検出装置 |
US6421463B1 (en) * | 1998-04-01 | 2002-07-16 | Massachusetts Institute Of Technology | Trainable system to search for objects in images |
US6539100B1 (en) * | 1999-01-27 | 2003-03-25 | International Business Machines Corporation | Method and apparatus for associating pupils with subjects |
JP3812298B2 (ja) | 2000-06-26 | 2006-08-23 | 日産自動車株式会社 | 眼の状態検出装置 |
-
2003
- 2003-03-24 US US10/396,285 patent/US7206435B2/en active Active
- 2003-03-26 WO PCT/JP2003/003739 patent/WO2003079902A1/en active Application Filing
- 2003-03-26 JP JP2003577739A patent/JP4464686B2/ja not_active Expired - Fee Related
- 2003-03-26 AU AU2003219552A patent/AU2003219552A1/en not_active Abandoned
- 2003-03-26 EP EP03715430A patent/EP1487341B1/en not_active Expired - Lifetime
- 2003-03-26 AT AT03715430T patent/ATE509567T1/de not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
ATE509567T1 (de) | 2011-06-15 |
EP1487341B1 (en) | 2011-05-18 |
US20040005083A1 (en) | 2004-01-08 |
EP1487341A1 (en) | 2004-12-22 |
WO2003079902A1 (en) | 2003-10-02 |
US7206435B2 (en) | 2007-04-17 |
AU2003219552A1 (en) | 2003-10-08 |
JP2005521146A (ja) | 2005-07-14 |
EP1487341A4 (en) | 2007-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4464686B2 (ja) | さまざまな光線条件下におけるリアルタイムの目の検知および追跡 | |
Chakraborty et al. | Review of constraints on vision‐based gesture recognition for human–computer interaction | |
Zhu et al. | Real-time eye detection and tracking under various light conditions | |
JP4216668B2 (ja) | 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法 | |
Vadakkepat et al. | Multimodal approach to human-face detection and tracking | |
KR100983346B1 (ko) | Ir조명을 이용한 얼굴인식 시스템 및 방법 | |
JP5800175B2 (ja) | 画像処理装置、画像処理方法、プログラム、及び電子機器 | |
Radu et al. | A robust sclera segmentation algorithm | |
KR20110128059A (ko) | 운전자 눈동자 검출을 이용한 졸음 운전 방지 방법 및 장치 | |
Ng et al. | An effective segmentation method for iris recognition system | |
Wu et al. | NIR-based gaze tracking with fast pupil ellipse fitting for real-time wearable eye trackers | |
Sikander et al. | Facial feature detection: A facial symmetry approach | |
Xu et al. | Efficient eye states detection in real-time for drowsy driving monitoring system | |
Dias et al. | OGRE-open gestures recognition engine | |
Liu et al. | Robust real-time eye detection and tracking for rotated facial images under complex conditions | |
Jha et al. | Real Time Hand Gesture Recognition for Robotic Control | |
Kim et al. | Eye tracking using neural network and mean-shift | |
Schmidt Feris et al. | Detection and tracking of facial features in video sequences | |
Wang et al. | Image compensation for improving extraction of driver's facial features | |
CN117197877B (zh) | 一种基于区域加权光流特征的微表情识别方法及系统 | |
El Nahal et al. | Robust and High Accuracy Algorithm for Detection of Pupil Images | |
Motwakel et al. | Presentation Attack Detection (PAD) for Iris Recognition System on Mobile Devices-A Survey | |
Vivero et al. | Directional gaze analysis in webcam video sequences | |
Mamatha et al. | Automatic eyewinks interpretation system using face orientation recognition for human-machine interface | |
Dasari et al. | Enhancing Emotional Insight: The Benefits of Integrating Various Approaches for Better Emotion Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100209 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100219 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130226 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4464686 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130226 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140226 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |