[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6056323B2 - 視線検出装置、視線検出用コンピュータプログラム - Google Patents

視線検出装置、視線検出用コンピュータプログラム Download PDF

Info

Publication number
JP6056323B2
JP6056323B2 JP2012210182A JP2012210182A JP6056323B2 JP 6056323 B2 JP6056323 B2 JP 6056323B2 JP 2012210182 A JP2012210182 A JP 2012210182A JP 2012210182 A JP2012210182 A JP 2012210182A JP 6056323 B2 JP6056323 B2 JP 6056323B2
Authority
JP
Japan
Prior art keywords
user
light source
image
face
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012210182A
Other languages
English (en)
Other versions
JP2014067102A (ja
Inventor
上村 拓也
拓也 上村
浩寧 吉川
浩寧 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012210182A priority Critical patent/JP6056323B2/ja
Priority to US13/947,605 priority patent/US9473696B2/en
Publication of JP2014067102A publication Critical patent/JP2014067102A/ja
Application granted granted Critical
Publication of JP6056323B2 publication Critical patent/JP6056323B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Description

本発明は、例えば、プルキンエ像を検出することにより視線方向を検出する視線検出装置及び視線検出用コンピュータプログラム、そのような視線検出装置で利用される表示装置に関する。
従来より、ユーザの視線方向を検出することにより、ユーザが注視している位置を検出する技術が研究されている。このような技術の一例として、ユーザの眼を撮影して得られた画像を解析することで、光源の角膜反射像と瞳孔とを検出し、その角膜反射像の位置と瞳孔の位置の差に基づいてユーザの視線を検出する技術が提案されている(例えば、特許文献1及び2を参照)。なお、光源の角膜反射像は、プルキンエ像またはプルキニエ像と呼ばれる。本願では、光源の角膜反射像をプルキンエ像と呼ぶ。
特開2012−65719号公報 特開2012−115505号公報
プルキンエ像を視線の検出に利用する技術では、プルキンエ像が正確に検出できることが求められる。しかし、ユーザの眼を照明する光源とユーザの眼を撮影するカメラとの間隔が近いと、その光源からの光が網膜で反射され、その反射光が瞳孔を通じてカメラへ達することになる。その結果として、そのカメラにより撮影された画像上で瞳孔全体が明るくなる明瞳孔状態となることが知られている。このような場合、プルキンエ像の輪郭がはっきりしなくなるので、プルキンエ像の検出が困難となるおそれがあった。
そこで本明細書は、プルキンエ像の検出が困難な場合に、ユーザの注視位置を誤検出することを抑制できる視線検出装置を提供することを目的とする。
一つの実施形態によれば、視線検出装置が提供される。この視線検出装置は、ユーザの眼を照明する光源と、ユーザの顔を撮影した画像を生成する撮像部と、撮像部からユーザの顔までの距離を推定する距離推定部と、撮像部と光源間の間隔に対する、撮像部からユーザの顔までの距離の比に応じて、ユーザの眼の瞳孔全体が光源からの光により明るくなる明瞳孔状態となるか否かを判定する判定部と、判定部が明瞳孔状態とならないと判定した場合に、画像から光源の角膜反射像とユーザの瞳孔重心とを検出するプルキンエ像検出部と、判定部が明瞳孔状態とならないと判定した場合に、瞳孔重心と角膜反射像との位置関係に応じてユーザの視線方向または注視位置を検出する視線検出部とを有する。
本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
本明細書に開示された視線検出装置は、プルキンエ像の検出が困難な場合に、ユーザの注視位置を誤検出することを抑制できる。
視線検出装置の一実施形態であるコンピュータのハードウェア構成図である。 表示部の概略正面図である。 制御部の視線検出処理に関する機能ブロック図である。 表示部の表示画面から所定距離離れた位置における、広角カメラの視野と赤外カメラの視野との対応関係を示す図である。 照明光源と、赤外カメラと、ユーザの顔の位置の関係の一例を示す図である。 参照テーブルの一例を示す図である。 注視位置テーブルの一例を示す図である。 視線検出処理の動作フローチャートを示す図である。 第2の実施形態による表示部の概略正面図である。 第2の実施形態による視線検出処理の動作フローチャートを示す図である。 第3の実施形態による視線検出装置が有する制御部の視線検出処理に関する機能ブロック図である。
以下、図を参照しつつ、一つの実施形態による視線検出装置について説明する。
発明者は、ユーザの眼を照明する光源と、ユーザの眼を撮影するカメラとの間隔に対する、そのカメラからユーザの顔までの距離の比が所定値以上になると、そのカメラにより生成された画像上で明瞳孔状態になるとの知見を得た。
そこでこの視線検出装置は、画像生成時における、カメラからユーザの顔までの距離を推定することで、光源とカメラ間の間隔に対するカメラからユーザの顔までの距離の比を求める。そしてこの視線検出装置は、その比が明瞳孔状態が生じる比の最小値未満である場合に限り、その画像に基づいてユーザの注視位置を検出する。
なお、以下に説明する実施形態では、視線検出装置は、コンピュータに実装され、そして視線検出装置は、コンピュータのディスプレイ上のユーザの注視位置を検出する。しかしこの視線検出装置は、ユーザの注視位置または視線方向を検出し、その注視位置または視線方向を利用する様々な装置、例えば、携帯情報端末、携帯電話機、運転支援装置あるいはカーナビゲーションシステムに利用可能である。
図1は、視線検出装置の一実施形態であるコンピュータのハードウェア構成図である。コンピュータ1は、表示部2と、広角カメラ3と、照明光源4と、赤外カメラ5と、入力部6と、記憶媒体アクセス装置7と、記憶部8と、制御部9とを有する。さらにコンピュータ1は、コンピュータ1を他の機器に接続するための通信インターフェース回路(図示せず)を有していてもよい。コンピュータ1は、いわゆるデスクトップ型のコンピュータとすることができる。この場合、コンピュータ1の各構成要素のうち、記憶媒体アクセス装置7、記憶部8及び制御部9は、筐体(図示せず)内に収容され、一方、表示部2、広角カメラ3、照明光源4、赤外カメラ5及び入力部6は、その筐体とは別個に設けられる。あるいは、コンピュータ1は、いわゆるノート型のコンピュータであってもよい。この場合には、コンピュータ1の全ての構成要素は、一つの筐体内に収容されてもよい。さらにまた、コンピュータ1は、入力部6以外の構成要素が一つの筐体内に収容される、ディスプレイ一体型のコンピュータであってもよい。
表示部2は、例えば、液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイを有する。そして表示部2は、例えば、様々なアイコンまたは操作メニューを制御部9からの制御信号に応じて表示する。各アイコンまたは操作メニューには、表示部2の表示画面上の位置及び範囲を表す情報が関連付けられている。そのため、後述するように、制御部9により検出されたユーザの注視位置が、何れかのアイコンまたは操作メニューと重なるとそのアイコンまたは操作メニューが選択されたと判定することが可能となっている。
図2は、表示部2の概略正面図である。表示部2の中央には、様々なアイコンなどを表示するための表示画面2aが設けられており、表示画面2aは、その周囲の枠2bにより保持されている。表示画面2aの上側には、枠2bの略中央に、広角カメラ3が取り付けられている。一方、表示画面2aの下側には、枠2bの略中央に、照明光源4及び赤外カメラ5が並んで取り付けられている。本実施形態では、広角カメラ3の水平位置と赤外カメラ5の水平位置とが一致するように、広角カメラ3及び赤外カメラ5は取り付けられる。
なお、表示画面2aを注視するユーザの顔全体が画像上に写るように、広角カメラ3の光軸が表示画面2aと直交するように、広角カメラ3は取り付けられることが好ましい。一方、赤外カメラ5により撮影された画像上にユーザの眼及びその周囲が写るように、赤外カメラ5の光軸が表示画面2aと直交するか、表示画面2aの法線よりも上方を向くように、赤外カメラ5は取り付けられることが好ましい。
広角カメラ3は、第2の撮像部の一例であり、可視光に感度を有し、コンピュータ1の表示部2を注視するユーザの顔の位置が想定される範囲内の何れにあってもその顔全体を撮影可能な画角(例えば、対角60度〜80度)を持つ。そして広角カメラ3は、視線検出処理の実行中、所定のフレームレートで表示画面2aと対向するユーザの顔全体を撮影することにより、ユーザの顔全体が写った画像を生成する。そして広角カメラ3は、画像を生成する度に、その画像を制御部9へ渡す。
なお、広角カメラ3も、赤外カメラ5と同様に、照明光源4から発せられる赤外光に感度を有するカメラであってもよい。
照明光源4は、赤外光を発光する光源、例えば、少なくとも一つの赤外発光ダイオードと、制御部9からの制御信号に応じて、赤外発光ダイオードに図示しない電源からの電力を供給する駆動回路とを有する。照明光源4は、表示画面2aを見るために表示画面2aと対向するユーザの顔、特にユーザの眼を照明可能なように、枠2bに赤外カメラ5と並べて取り付けられている。そして照明光源4は、制御部9から光源を点灯させる制御信号を受信している間、照明光を発する。
照明光源4と赤外カメラ5との間隔が広いほど、明瞳孔状態は生じ難くなる。あるいは照明光源4と赤外カメラ5との間隔が一定値に固定される場合は、赤外カメラ5からユーザの顔までの距離が近いほど、明瞳孔状態は生じ難くなる。一方、照明光源4から発する照明光には、ある程度の指向性があるため、照明光源4と赤外カメラ5との間隔が極端に広過ぎると、ユーザの顔を照明する照明光にムラが生じる。そのため、赤外カメラ5により生成された画像上で、ユーザの左眼と右眼のうち、照明光源4から遠い方の眼が暗くなり過ぎて、瞳孔またはプルキンエ像の検出が困難になるおそれがある。そこで、照明光源4と赤外カメラ5との間隔dは、例えば、次式により決定されることが好ましい。
Figure 0006056323
ここで、lmaxは、赤外カメラ5により生成された画像上でユーザの瞳孔及びプルキンエ像が識別可能なサイズの下限値となるときの赤外カメラ5からユーザの顔までの距離である。すなわち、lmaxは、赤外カメラ5の画角が狭いほど、あるいは、画素数が多いほど、長くなる。またrateは、画像上で明瞳孔状態が生じ得る、照明光源4と赤外カメラ5の間隔に対する赤外カメラ5からユーザの顔までの距離の比の下限値である。
赤外カメラ5は、撮像部の一例であり、眼を含むユーザの顔の少なくとも一部の領域が写った画像を生成する。そのために、赤外カメラ5は、照明光源4が発する赤外光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上にユーザの眼の像を結像する撮像光学系を有する。赤外カメラ5は、虹彩による反射像及び照明光源4以外の光源からの光のプルキンエ像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。
また赤外カメラ5は、広角カメラ3の画角よりも狭い画角(例えば、対角30度〜40度)を持つ。そして赤外カメラ5は、視線検出処理の実行中、所定のフレームレートでユーザの眼を撮影することにより、ユーザの眼が写った画像を生成する。なお、赤外カメラ5は、この画像上でユーザの瞳に写った照明光源4のプルキンエ像及び瞳孔が識別可能な解像度を有する。そして赤外カメラ5は、画像を生成する度に、その画像を制御部9へ渡す。
上記のように、赤外カメラ5は、表示部2の表示画面2aの下方に取り付けられているので、赤外カメラ5は、表示画面2aを注視するユーザの顔を下方から撮影することになる。そのため、コンピュータ1は、赤外カメラ5に対してプルキンエ像及び瞳孔が睫毛に隠れてしまう可能性を低減できる。
また、広角カメラ3の感度と赤外カメラ5の感度は、それぞれ別個に最適化されてもよい。例えば、広角カメラ3の感度は、画像上で顔の輪郭が識別できるように、相対的に低く設定され、一方、赤外カメラ5の感度は、画像上でプルキンエ像及び瞳孔が識別できるように、相対的に高く設定されてもよい。
以下では、便宜上、広角カメラ3により生成された画像を広角画像と呼び、赤外カメラ5により生成された画像を狭角画像と呼ぶ。
入力部6は、例えば、キーボードと、マウスのようなポインティングデバイスとを有する。そして入力部6を介してユーザにより入力された操作信号は、制御部9へ渡される。
なお、表示部2と入力部6とは、例えば、タッチパネルディスプレイのように一体化されていてもよい。この場合、入力部6は、表示部2の表示画面上に表示されたアイコンの位置にユーザが触れた場合に、その位置に応じた操作信号を生成し、その操作信号を制御部9へ出力する。
記憶媒体アクセス装置7は、例えば、磁気ディスク、半導体メモリカード及び光記憶媒体といった記憶媒体10にアクセスする装置である。記憶媒体アクセス装置7は、例えば、記憶媒体10に記憶された、制御部9上で実行される、視線検出処理用のコンピュータプログラムを読み込み、制御部9に渡す。
記憶部8は、例えば、読み書き可能な不揮発性の半導体メモリ、及び読み書き可能な揮発性の半導体メモリを有する。そして記憶部8は、制御部9上で実行される、視線検出処理用のコンピュータプログラム、各種のアプリケーションプログラム及び各種のデータを記憶する。また記憶部8は、表示部2の表示画面に表示中のアイコンの位置及び範囲または操作メニューの位置及び範囲を表す情報を記憶する。
さらに、記憶部8は、ユーザが注視する位置を検出するために利用される各種のデータを記憶する。例えば、記憶部8は、プルキンエ像の重心に対する瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブルを記憶する。また記憶部8は、広角画像上の位置座標と狭角画像上の位置座標との対応関係を表す座標変換テーブルを記憶してもよい。
制御部9は、一つまたは複数のプロセッサ及びその周辺回路を有する。そして制御部9は、コンピュータ1の各部と信号線を介して接続されており、コンピュータ1全体を制御する。例えば、制御部9は、入力部6から受け取った操作信号と実行中のアプリケーションプログラムに応じた処理を実行する。
さらに、制御部9は、視線検出処理を実行することにより、表示部2の表示画面2a上でユーザが注視している位置を求める。そして制御部9は、ユーザが注視している位置と記憶部8に記憶されている表示部2の表示画面2a上の各アイコンまたは操作メニューの表示領域とを比較する。そして制御部9は、ユーザが注視している位置と何れかのアイコンまたは操作メニューの表示領域とが重なっている場合、そのアイコンまたは操作メニューに応じた処理を実行する。あるいは、制御部9は、ユーザが注視している位置を表す情報を制御部9が実行中のアプリケーションプログラムに渡す。なお、制御部9は、検出したユーザの注視位置を表すアイコンを表示部2に表示させてもよい。これにより、ユーザは、コンピュータ1によって検出された注視位置を確認することができ、もし、検出された注視位置が本当の注視位置とずれていても、ユーザは視線を動かすことで、コンピュータ1に検出される注視位置を適切な位置へ移動できる。
図3は、制御部9の視線検出処理に関する機能ブロック図である。制御部9は、顔検出部21と、眼周辺領域検出部22と、座標変換部23と、眼精密検出部24と、距離推定部25と、判定部26と、プルキンエ像検出部27と、視線検出部28とを有する。
制御部9が有するこれらの各部は、制御部9が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。また制御部9が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として、制御部9が有するプロセッサとは別個にコンピュータ1に実装されてもよい。この場合、その集積回路は、記憶部8とは別個に、視線検出処理で利用される各種のデータを記憶して、視線検出装置が有する記憶部として機能する記憶回路を含んでいてもよい。
顔検出部21は、視線検出処理の実行中において、広角画像上でユーザの眼が写っている可能性のある領域を特定するために、広角画像上で、ユーザの顔が写っている領域である顔領域を検出する。
例えば、顔検出部21は、広角画像の各画素の値をHSV表色系により表される値に変換する。そして顔検出部21は、各画素の色相成分(H成分)の値が肌色に相当する値(例えば、0°〜30°の範囲内の値)となる画素を、顔の一部が写っている可能性がある顔領域候補画素として抽出する。
また、ユーザの視線に応じてコンピュータ1の操作が実行される場合、ユーザの顔は、表示部2の表示画面2aを向いており、かつ、表示画面2aから数十cm離れた位置にあると想定される。そのため、広角画像上でユーザの顔が占める領域は比較的大きく、かつ、広角画像上で顔が占める領域の大きさもある程度推定される。
そこで顔検出部21は、顔領域候補画素に対してラベリング処理を行って、互いに隣接している顔領域候補画素の集合を顔候補領域とする。そして顔検出部21は、顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれているか否か判定する。顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれていれば、顔検出部21はその顔候補領域を顔領域と判定する。
なお、顔候補領域の大きさは、例えば、顔候補領域の水平方向の最大幅の画素数で表される。この場合、基準範囲は、例えば、広角画像の水平方向画素数の1/4以上〜2/3以下に設定される。あるいは、顔候補領域の大きさは、例えば、顔候補領域に含まれる画素数で表されてもよい。この場合、基準範囲は、例えば、広角画像全体の画素数の1/16以上〜4/9以下に設定される。
顔検出部21は、顔候補領域の大きさだけでなく、顔候補領域の形状も、顔候補領域を顔領域と判定するための判定条件に加えてもよい。人の顔は、一般に略楕円形状を有している。そこで顔検出部21は、例えば、顔候補領域の大きさが上記の基準範囲に含まれ、かつ、顔候補領域の円形度が、一般的な顔の輪郭に相当する所定の閾値以上である場合に顔候補領域を顔領域としてもよい。なお顔検出部21は、顔候補領域の輪郭上に位置する画素の合計を顔候補領域の周囲長として求め、顔候補領域内の総画素数に4πを乗じた値を周囲長の2乗で除することにより円形度を算出できる。
あるいは、顔検出部21は、顔候補領域の輪郭上の各画素の座標を楕円方程式に当てはめて最小二乗法を適用することにより、顔候補領域を楕円近似してもよい。そして顔検出部21は、その楕円の長軸と短軸の比が一般的な顔の長軸と短軸の比の範囲に含まれる場合に、顔候補領域を顔領域としてもよい。なお、顔検出部21は、楕円近似により顔候補領域の形状を評価する場合、画像の各画素の輝度成分に対して近傍画素間演算を行ってエッジに相当するエッジ画素を検出してもよい。この場合、顔検出部21は、エッジ画素を例えばラベリング処理を用いて連結し、一定の長さ以上に連結されたエッジ画素を顔候補領域の輪郭とする。
なお、顔検出部21は、画像上に写っている顔の領域を検出する他の様々な方法の何れかに従って顔領域を検出してもよい。例えば、顔検出部21は、顔候補領域と一般的な顔の形状に相当するテンプレートとの間でテンプレートマッチングを行って、顔候補領域とテンプレートとの一致度を算出し、その一致度が所定値以上である場合に、顔候補領域を顔領域と判定してもよい。
顔検出部21は、顔領域を検出できると、顔領域の位置及び範囲を表す情報である顔領域情報を生成する。例えば、顔領域情報は、広角画像と同一のサイズを有し、かつ顔領域内の画素と顔領域外の画素とが異なる画素値を持つ2値画像とすることができる。あるいは、顔領域情報は、顔領域の外接矩形の各コーナーの座標を含んでいてもよい。
そして顔検出部21は、顔領域を表す情報を眼周辺領域検出部22へ渡す。
眼周辺領域検出部22は、狭角画像上でユーザの眼が写っている領域を探索する範囲を限定するため、及び、赤外カメラ5とユーザの顔間の距離の推定に利用するために、広角画像の顔領域内でユーザの眼及び眼周辺が写っている領域である眼周辺領域を検出する。
眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこで眼周辺領域検出部22は、顔領域内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そして眼周辺領域検出部22は、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼周辺領域候補とする。
人の眼は、水平方向に二つ並んでいる。そこで、眼周辺領域検出部22は、検出された眼周辺領域候補のうち、眼周辺領域候補の重心間の垂直方向の位置差がもっとも少なく、かつ、水平方向に左眼と右眼間の間隔に相当する距離だけ離れている二つの眼周辺領域候補を抽出する。そして眼周辺領域検出部22は、その二つの眼周辺領域候補の外接矩形領域を眼周辺領域とする。
あるいは、眼周辺領域検出部22は、両眼を表すテンプレートと、顔領域とのテンプレートマッチングにより、顔領域内でテンプレートに最も一致する領域を検出し、その検出した領域を眼周辺領域としてもよい。
眼周辺領域検出部22は、広角画像上の眼周辺領域の位置及び範囲を表す情報である眼周辺領域情報を、座標変換部23及び距離推定部25へ渡す。なお、眼周辺領域情報は、例えば、眼周辺領域の各コーナーの広角画像上での位置座標を含む。
座標変換部23は、広角画像上で検出された眼周辺領域の位置座標、例えば、眼周辺領域の各コーナーの位置座標を、広角カメラ3及び赤外カメラ5の画角、画素数、設置位置及び撮影方向に基づいて狭角画像上の位置座標に変換する。これにより、座標変換部23は、眼周辺領域に対応する狭角画像上の領域を特定する。以下では、便宜上、眼周辺領域に対応する狭角画像上の領域を、拡大眼周辺領域と呼ぶ。
図4は、表示部2の表示画面2aから所定距離離れた位置における、広角カメラ3の視野と赤外カメラ5の視野との対応関係を示す図である。この例では、広角カメラ3と赤外カメラ5の水平方向の位置は同一であり、表示画面2aからその所定距離の位置で、広角カメラ3の光軸と赤外カメラ5の光軸が交差するとした。そのため、広角カメラ3の視野400の中心と赤外カメラ5の視野410の中心は一致する。ここで、広角カメラ3の水平方向の画素数がNhwであり、広角カメラ3の垂直方向の画素数がNvwであるとする。一方、赤外カメラ5の水平方向の画素数がNhnであり、赤外カメラ5の垂直方向の画素数がNvnであるとする。また、広角カメラ3の水平方向の画角及び垂直方向の画角が、それぞれ、ωhw、ωvwであり、赤外カメラ5の水平方向の画角及び垂直方向の画角が、それぞれ、ωhn、ωvnであるとする。このとき、広角画像の中心を原点とする座標系で表される、広角画像の画素の座標(px,py)に対応する、狭角画像の画素の狭角画像の中心を原点とする座標(qx,qy)は、次式で表される。
Figure 0006056323
座標変換部23は、例えば、上記の(2)式に従って、広角画像上の眼周辺領域の各コーナーの位置座標を狭角画像上の対応する位置座標に変換することで、拡大眼周辺領域を特定できる。
なお、ユーザの顔の位置で、広角カメラ3の光軸と赤外カメラ5の光軸とが所定の間隔だけ離れている場合、座標変換部23は、座標(qx,qy)を求めるために、上記の(2)式において、その所定の間隔に相当するオフセットを(2)式の右辺に加えればよい。
変形例によれば、広角画像上の位置座標と狭角画像上の位置座標との対応関係を表した座標変換テーブルが予め準備され、記憶部8に記憶されていてもよい。この場合には、座標変換部23は、座標変換テーブルを参照することにより、広角画像上の眼周辺領域の各コーナーの位置座標を狭角画像上の対応する位置座標に変換できる。
この変形例によれば、広角カメラ3の歪曲収差と赤外カメラ5の歪曲収差が無視できないほど大きい場合でも、座標変換部23は、広角画像上の眼周辺領域に相当する狭角画像上の拡大眼周辺領域を正確に特定できる。
またさらに他の変形例によれば、座標変換部23は、広角画像上の眼周辺領域をテンプレートとして、狭角画像とテンプレートマッチングを行うことにより、そのテンプレートと最も一致する領域を拡大眼周辺領域としてもよい。
座標変換部23は、拡大眼周辺領域の位置及び範囲を表す情報である拡大眼周辺領域情報を、眼精密検出部24へ通知する。なお、拡大眼周辺領域情報は、例えば、狭角画像上の拡大眼周辺領域の各コーナーの位置座標を含む。
眼精密検出部24は、座標変換部23から、拡大眼周辺領域情報を受け取る。そして眼精密検出部24は、狭角画像の拡大眼周辺領域及びその周囲で、再度眼が写っている領域を検出する。以下では、便宜上、眼精密検出部24により検出された眼が写っている領域を、精密眼領域と呼ぶ。
狭角画像上のユーザの眼のサイズは、広角画像上のユーザの眼のサイズよりも大きいので、眼精密検出部24は、眼及びその周囲のより詳細な情報を利用できるため、眼周辺領域検出部22よりも正確な眼の位置を特定できる。
なお、眼精密検出部24は、眼周辺領域検出部22が眼周辺領域を検出するのと同様に、例えば、両眼に相当するテンプレートと狭角画像上の拡大眼周辺領域とのテンプレートマッチングを行う。そして、眼精密検出部24は、拡大眼周辺領域内でテンプレートと最も一致する領域を精密眼領域として検出できる。
ただし、赤外カメラ5の視野は広角カメラ3の視野よりも狭いため、狭角画像にはユーザの顔全体が写らないことがある。この場合、眼精密検出部24が両眼に相当するテンプレートを利用すると、拡大眼周辺領域ではそのテンプレートと片方の眼しか一致しないので、精密眼領域の検出精度が低下するおそれがある。そこで眼精密検出部24は、拡大眼周辺領域全体が狭角画像に含まれるか否かによって、利用するテンプレートを変更してもよい。
例えば、拡大眼周辺領域全体が狭角画像に含まれている場合、眼精密検出部24は、例えば、精密眼領域を検出するために、両眼に相当するテンプレートを利用する。一方、拡大眼周辺領域の一部が狭角画像から外れている場合、眼精密検出部24は、狭角画像に含まれる方の眼と、顔の眼以外の部位(例えば、鼻孔、口、眉毛など)とを含むテンプレートを利用してもよい。またこの場合、顔の眼以外の部位は、眼と離れているので、拡大眼周辺領域内に含まれていない可能性がある。そこで精密眼領域の探索範囲は、拡大眼周辺領域だけでなく、拡大眼周辺領域の周囲の、テンプレートに含まれる他の部位が写っている可能性がある領域も含むように設定されてもよい。なお、眼精密検出部24は、拡大眼周辺領域の左辺及び右辺の何れか一方が、狭角画像の外側に位置する場合、拡大眼周辺領域の一部が狭角画像から外れていると判定できる。
また、広角カメラ3と赤外カメラ5とは、表示画面2aの垂直方向に沿って離れて設置されているので、広角カメラ3の視野と赤外カメラ5の視野との間には、垂直方向の視差がある。そして表示部2からユーザの顔までの距離に応じて、その視差は変動する。そこで眼精密検出部24は、精密眼領域の垂直方向の探索範囲を拡大眼周辺領域の上端と下端の間に限定せず、水平方向の探索範囲のみ、拡大眼周辺領域の左端と右端の間に限定してもよい。
眼精密検出部24は、狭角画像上の拡大眼周辺領域及びその周囲の探索範囲内でテンプレートと最も一致する領域のうち、そのテンプレート中の何れかの眼に相当する部分を、精密眼領域とする。そして眼精密検出部24は、精密眼領域の位置及び範囲を表す精密眼領域情報を距離推定部25及びプルキンエ像検出部27へ渡す。
距離推定部25は、広角画像から検出された眼周辺領域と、狭角画像から検出された精密眼領域とから、赤外カメラ5からユーザの顔までの距離を推定する。
一般に、画像上の各画素の座標は、その画像を生成したカメラからその画素に写っている物体の方向に対応している。また、広角カメラ3と赤外カメラ5間の距離、広角カメラ3の光軸方向及び赤外カメラ5の光軸方向は予め分かっている。そこで距離推定部25は、例えば、広角画像上の眼周辺領域内の何れかの眼に相当する位置から、広角カメラ3からユーザのその眼への方向ベクトルを求める。同様に、距離推定部25は、狭角画像上の精密眼領域内のその眼に相当する位置から、赤外カメラ5からその眼への方向ベクトルを求める。なお、広角画像上の眼の位置及び狭角画像上の眼の位置は、例えば、眼の瞳孔に相当するテンプレートと眼周辺領域及び精密眼領域とのテンプレートマッチングを実行することによって検出されるそのテンプレートと最も一致する位置とすることができる。
距離推定部25は、三角測量の原理に基づいて、広角カメラ3と赤外カメラ5間の距離と、それぞれのカメラからユーザの眼への方向ベクトルとから、その方向ベクトル同士が交差する位置を求める。そして距離推定部25は、赤外カメラ5からその交差位置までの距離を、赤外カメラ5からユーザの顔までの距離と推定する。
距離推定部25は、赤外カメラ5からユーザの顔までの距離の推定値を判定部26へ通知する。
判定部26は、照明光源4と赤外カメラ5間の間隔に対する、赤外カメラ5からユーザの顔までの距離の推定値の比に応じて、狭角画像上で明瞳孔状態となるか否かを判定する。本実施形態では、判定部26は、その比を所定の閾値と比較する。そして判定部26は、その比が所定の閾値以上であれば、狭角画像上で明瞳孔状態になっている可能性が高いと判断し、その狭角画像を用いた注視位置の検出を中止する。そして判定部26は、ユーザに対して、顔が表示部2から離れすぎていることを示す警告メッセージを表示部2に表示させる。
一方、その比が所定の閾値未満であれば、狭角画像上では、プルキンエ像を除いて瞳孔が暗くなっている暗瞳孔状態となっている可能性が高い。そこで判定部26は、プルキンエ像検出部27にプルキンエ像及び瞳孔の検出を実行させる。
図5は、照明光源4と、赤外カメラ5と、ユーザの顔の位置の関係の一例を示す図である。明瞳孔状態は、照明光源4と赤外カメラ5間の間隔dに対する、赤外カメラ5からユーザの顔までの距離の比が大きくなるほど、すなわち、瞳孔と赤外カメラ5を結ぶ線と、瞳孔と照明光源4を結ぶ線とのなす角が小さくなるほど生じ易くなる。例えば、ユーザの眼501が、赤外カメラ5から所定の距離l1よりも近くに位置している場合には、明瞳孔状態とならないが、赤外カメラ5から距離l1よりも離れた位置にユーザの眼501がある場合には、明瞳孔状態となる。そこで所定の閾値は、例えば、明瞳孔状態が生じ得る、照明光源4と赤外カメラ5間の間隔に対する、赤外カメラ5からユーザの顔までの距離の比の下限値に設定される。
発明者は、実験により、複数の被験者に対して明瞳孔状態が生じるときの、照明光源4と赤外カメラ5間の間隔dに対する、赤外カメラ5からユーザの顔までの距離の比を求めた。15〜24インチ程度のモニタを有するパーソナルコンピュータでユーザが作業する場合、赤外カメラ5からユーザの顔までの平均的な距離は500mmであった。この場合、照明光源4と赤外カメラ5の間隔dが15mm以下(間隔dに対する赤外カメラ5からユーザの顔までの距離の比率が26.7)の条件において明瞳孔状態を生じた。その他、赤外カメラ5からユーザの顔までの距離または間隔dについての条件を変えて実験し、また多少の個人差等も解析的に考慮した結果、発明者は、明瞳孔状態が生じるその比の下限値は約26〜27となるとの知見を得た。そこで、本実施形態では、上記の閾値を27に設定した。
また、照明光源4と赤外カメラ5との間隔は、表示部2から利用者までの距離の想定される最大値を所定の係数、例えば、上記の閾値で割って求めた間隔以上空けられていることが好ましい。さらに、この閾値条件を十分に満たして明瞳孔状態を回避して、さらにユーザの顔を照明する明るさのムラも同時に回避することが好ましい。例えば上記のように、赤外カメラ5により生成される画像上でユーザの瞳孔及びプルキンエ像が識別可能なサイズの下限値となるときの赤外カメラ5からユーザの顔までの距離をlmaxとし、閾値の27をrateとして(1)式に従うと、間隔dは約50.0mmに設定される。これにより、プルキンエ像を用いて視線検出処理を行える限りにおいては明瞳孔状態は生じず、かつ、照明光源4による顔の照明ムラを抑制することができる。
プルキンエ像検出部27は、視線検出処理の実行中において、狭角画像上の精密眼領域内でプルキンエ像及び瞳孔を検出する。
本実施形態では、プルキンエ像検出部27は、一方の眼の瞳孔に相当するテンプレートと精密眼領域との間でテンプレートマッチングを行い、精密眼領域内でテンプレートとの一致度が最も高くなる領域を検出する。そしてプルキンエ像検出部27は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。なお、テンプレートは、瞳孔の大きさに応じて複数準備されてもよい。この場合、プルキンエ像検出部27は、各テンプレートと精密眼領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、プルキンエ像検出部27は、一致度の最高値に対応するテンプレートと重なった領域に瞳孔が写っていると判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。
また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこでプルキンエ像検出部27は、精密眼領域内で、同心円状に半径の異なる2本のリングを設定する。そしてプルキンエ像検出部27は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。またプルキンエ像検出部27は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、精密眼領域内の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。
プルキンエ像検出部27は、瞳孔領域の検出に成功した場合、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の位置座標として算出する。一方、プルキンエ像検出部27は、瞳孔領域の検出に失敗した場合、制御部9へその旨を表す信号を返す。
またプルキンエ像検出部27は、精密眼領域内で照明光源4のプルキンエ像を検出する。照明光源4のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高く、その輝度値は略飽和している(すなわち、輝度値が、画素値が取り得る輝度の値の略最高値となっている)。また、照明光源4のプルキンエ像が写っている領域の形状は、各光源の発光面の形状と略一致する。そこでプルキンエ像検出部27は、精密眼領域内で、照明光源4の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そしてプルキンエ像検出部27は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値を求める。プルキンエ像検出部27は、その差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い場合、その内側のリングで囲まれた領域を照明光源4のプルキンエ像とする。なお、差分閾値は、例えば、精密眼領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、精密眼領域内での輝度値の最高値の80%とすることができる。
なお、プルキンエ像検出部27は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔が写っている領域を検出してもよい。同様に、プルキンエ像検出部27は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、照明光源4のプルキンエ像が写っている領域を検出してもよい。
プルキンエ像検出部27は、照明光源4のプルキンエ像の検出に成功した場合、プルキンエ像に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の位置座標として算出する。一方、プルキンエ像検出部27は、照明光源4のプルキンエ像の検出に失敗した場合、制御部9へその旨を表す信号を返す。
プルキンエ像検出部27は、プルキンエ像の重心及び瞳孔重心を視線検出部28へ通知する。
視線検出部28は、視線検出処理の実行中において、プルキンエ像の重心及び瞳孔重心に基づいてユーザの視線方向またはユーザの注視位置を検出する。
角膜の表面は略球形であるため、視線方向によらず、光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ユーザの視線方向に応じて移動する。そのため、視線検出部28は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ユーザの視線方向を検出できる。
本実施形態では、視線検出部28は、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部28は、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブルを参照することにより、ユーザの視線方向を決定する。
図6は、参照テーブルの一例を示す図である。参照テーブル600の左側の列の各欄には、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置の座標が表される。また参照テーブル600の右側の列の各欄には、同じ行の瞳孔重心の相対的な位置の座標に対応するユーザの視線方向が表される。なお、この例では、視線方向は、所定の基準点(例えば、表示画面2aの中心または赤外カメラ5の取り付け位置)をユーザが注視しているときの視線方向を基準方向として、その基準方向からの水平方向及び垂直方向の角度の差で表される。なお、瞳孔重心の相対的な位置の座標は、画像上の画素単位で表される。
視線検出部28は、さらに、ユーザの視線方向に基づいて、ユーザが表示部2の表示画面2a上で注視している位置を検出する。なお、以下では、便宜上、ユーザが表示画面2a上で注視している位置を単に注視位置と呼ぶ。
本実施形態では、視線検出部28は、ユーザの視線方向と表示画面上でのユーザの注視位置との関係を表す注視位置テーブルを参照することにより、ユーザの注視位置を決定する。
図7は、注視位置テーブルの一例を示す図である。注視位置テーブル700の上端の行には、ユーザの視線方向が表される。そして注視位置テーブル700の各欄には、同じ列の視線方向に対応する、表示画面2a上の注視位置の座標が表示画面2aの画素単位で表される。例えば、注視位置テーブル700の欄701には、視線方向が水平方向0°、垂直方向1°の場合の注視位置が(cx,cy+40)であることが示されている。なお、cx、cyは、視線方向が(0,0)のときの注視位置、すなわち基準注視位置の座標、例えば、表示画面2aの中心の水平座標及び垂直座標である。
なお、視線検出部28は、赤外カメラ5からユーザの顔までの推定距離を、表示画面2a上のユーザの注視位置をより正確に求めるために利用できる。例えば、赤外カメラ5からユーザの顔までの距離ごとに、視線方向と注視位置の関係を表す注視位置テーブルが記憶部8に予め記憶されていてもよい。そして視線検出部28は、赤外カメラ5からユーザの顔までの推定距離に相当する注視位置テーブルを記憶部8から読み込んで、注視位置を特定するために利用する。
また、赤外カメラ5からユーザの顔までの想定距離(以下、基準距離と呼ぶ)についての注視位置テーブルのみが記憶部8に記憶されている場合、視線検出部28は、基準距離に対する、表示部2からユーザの顔までの推定距離の比を求める。そして視線検出部28は、その比を、注視位置テーブルを参照して得られた視線方向に対応する注視位置の座標と基準注視位置の座標との差に乗じた距離だけ、基準注視位置からその注視位置へ向かう方向に沿って離れた位置に、注視位置を補正してもよい。
視線検出部28は、ユーザの注視位置を制御部9で実行中のアプリケーションプログラムへ通知する。
図8は、制御部9により実行される、視線検出処理の動作フローチャートを示す。制御部9は、広角画像及び狭角画像が生成される度に、以下の動作フローチャートに従って視線検出処理を実行する。
制御部9は、広角カメラ3から広角画像を取得し、赤外カメラ5から、照明光源4が点灯した状態でユーザの顔を撮影した狭角画像を取得する(ステップS101)。そして制御部9の顔検出部21は、広角画像上で顔が写っている顔領域を検出する(ステップS102)。顔検出部21は、顔領域の検出に成功したか否か判定する(ステップS103)。顔領域の検出に失敗した場合(ステップS103−No)、ユーザは表示部2の表示画面2aを向いていないと推定される。そのため、制御部9は、視線検出処理を終了する。
一方、顔検出部21が顔領域の検出に成功した場合(ステップS103−Yes)、顔検出部21は、顔領域情報を制御部9の眼周辺領域検出部22へ渡す。
眼周辺領域検出部22は、広角画像の顔領域内で眼周辺領域を検出する(ステップS104)。そして眼周辺領域検出部22は、眼周辺領域情報を制御部9の座標変換部23及び距離推定部25へ渡す。
座標変換部23は、狭角画像上で広角画像上の眼周辺領域に対応する拡大眼周辺領域を特定する(ステップS105)。そして座標変換部23は、拡大眼周辺領域情報を制御部9の眼精密検出部24へ渡す。
眼精密検出部24は、拡大眼周辺領域情報を座標変換部23から受け取ると、拡大眼周辺領域及びその周辺領域において精密眼領域を検出する(ステップS106)。眼精密検出部24は、精密眼領域情報を距離推定部25及びプルキンエ像検出部27へ渡す。
距離推定部25は、眼周辺領域内に位置する眼と精密眼領域内に位置する眼との位置関係に基づいて、例えば、三角測量により、赤外カメラ5からユーザの顔までの距離lを推定する(ステップS107)。そして距離推定部25は、その距離lを制御部9の判定部26へ通知する。
判定部26は、照明光源4と赤外カメラ5との間隔dに対する、距離lの比(l/d)が所定の閾値Th未満か否か判定する(ステップS108)。なお、所定の閾値Thは、上記のように、例えば、明瞳孔状態が生じる(l/d)の下限値に設定される。
比(l/d)が閾値Th以上である場合(ステップS108−No)、判定部26は、ユーザの顔が表示部に対して遠過ぎる旨の警告メッセージを表示部2に表示させる(ステップS109)。その後、制御部9は、視線検出処理を終了する。
一方、比(l/d)が閾値Th未満である場合(ステップS108−Yes)、プルキンエ像検出部27は、狭角画像上の精密眼領域内で瞳孔重心及びプルキンエ像を検出する(ステップS110)。そしてプルキンエ像検出部27は、瞳孔重心及びプルキンエ像の検出に成功したか否か判定する(ステップS111)。
プルキンエ像検出部27が瞳孔重心の検出または照明光源4のプルキンエ像の検出に失敗した場合(ステップS111−No)、制御部9は、視線検出処理を終了する。その後、制御部9は、前回の撮影時の露出条件と異なる露出条件でユーザの顔を撮影するように広角カメラ3及び赤外カメラ5に変更後の露出条件を表す制御信号を送信してもよい。
一方、プルキンエ像検出部27が瞳孔重心及び照明光源4のプルキンエ像の検出に成功した場合(ステップS111−Yes)、プルキンエ像検出部27は、プルキンエ像の重心及び瞳孔重心を制御部9の視線検出部28へ通知する。
視線検出部28は、参照テーブルを参照してプルキンエ像の重心を基準とする瞳孔重心の位置に対応する視線方向を検出する(ステップS112)。
視線検出部28は、注視位置テーブルを参照して、視線方向に対応する表示部2の表示画面2a上の注視位置を求める(ステップS113)。そして視線検出部28は、その注視位置を表す情報を、制御部9が実行中のアプリケーションプログラムへ渡す。
その後、制御部9は、視線検出処理を終了する。
以上に説明してきたように、第1の実施形態による視線検出装置は、赤外カメラからユーザの顔までの距離を推定し、照明光源と赤外カメラとの間隔に対する、その距離の推定値の比に基づいて、明瞳孔状態となるか否か判定する。そしてこの視線検出装置は、明瞳孔状態が生じ得るほどその比が大きい場合には、注視位置を検出せずに、表示部に対してユーザの顔が離れ過ぎている旨を警告する。そのため、この視線検出装置は、明瞳孔状態となる場合にユーザの注視位置を誤検出することを防止できる。
次に、第2の実施形態による視線検出装置について説明する。第2の実施形態による視線検出装置は、赤外カメラからの距離が異なる二つの照明光源を有し、通常は、赤外カメラに近い方の照明光源を用いてユーザの顔を照明する。そして、赤外カメラとその近い方の照明光源との間隔に対する赤外カメラからユーザの顔までの距離の推定値の比が明瞳孔状態が生じ得るほど大きいとき、この視線検出装置は、ユーザの顔を照明する光源を、赤外カメラから遠い方の照明光源に切り替える。
第2の実施形態による視線検出装置は、第1の実施形態による視線検出装置と比較して、照明光源及び制御部のうちの判定部の処理が異なる。そこで、以下では、照明光源及び判定部について説明する。視線検出装置のその他の部分に関しては、第1の実施形態における関連部分の説明を参照されたい。
図9は、第2の実施形態による表示部2の概略正面図である。表示部2の中央には、表示画面2aの上側には、枠2bの略中央に、広角カメラ3が取り付けられている。一方、表示画面2aの下側には、枠2bの略中央に、二つの照明光源4−1、4−2と、赤外カメラ5とが並んで取り付けられている。
照明光源4−1は、照明光源4−2よりも赤外カメラ5の近くに配置されており、例えば、照明光源4−1と赤外カメラ5の間隔は30mmであり、照明光源4−2と赤外カメラ5の間隔は60mmである。なお、赤外カメラ5と照明光源4−2の間隔は、(1)式に従って決定されてもよい。
判定部26は、照明光源4−1と赤外カメラ5との間隔dnearに対する、赤外カメラ5からユーザの顔までの距離lの比(l/dnear)が閾値Th未満である場合には、照明光源4−1にユーザの顔を照明させる。一方、その比(l/ dnear)が閾値Th以上である場合には、判定部26は、照明光源4−2にユーザの顔を照明させる。なお、閾値Thは、例えば、第1の実施形態における、照明光源4と赤外カメラ5との間隔dに対する、赤外カメラ5からユーザの顔までの距離lの比(l/d)に対する閾値と同じく、明瞳孔状態が生じるその比の下限値に設定される。これにより、照明光源4−1が点灯していても明瞳孔状態とならないほど、ユーザの顔と赤外カメラ5間の距離が短い場合には、照明光源4−1がユーザの顔を照明するので、ユーザの顔の照度ムラが少なくて済む。その結果として、視線検出装置は、プルキンエ像及び瞳孔重心の検出精度の低下を抑制できる。一方、照明光源4−1が点灯すると明瞳孔状態となるほど、ユーザの顔と赤外カメラ5とが離れている場合には、照明光源4−1よりも赤外カメラ5から遠い照明光源4−2がユーザの顔を照明するので、視線検出装置は、明瞳孔状態となることを抑制できる。
図10は、制御部9により実行される、第2の実施形態による視線検出処理の動作フローチャートを示す。制御部9は、広角画像及び狭角画像が生成される度に、以下の動作フローチャートに従って視線検出処理を実行する。なお、第2の実施形態による視線検出処理は、第1の実施形態による視線検出処理と比較して、赤外カメラ5からユーザの顔までの距離lを推定するステップS107よりも後の処理が異なる。そこで以下では、ステップS107よりも後の処理について説明する。
赤外カメラ5からユーザの顔までの距離lが推定されると、判定部26は、最新の狭角画像取得時に点灯している照明光源と赤外カメラ5との間隔dに対する、その距離の比(l/d)を算出する(ステップS201)。そして判定部26は、その比(l/d)が閾値Th未満か否か判定する(ステップS202)。
比(l/d)が閾値Th未満である場合(ステップS202−Yes)、判定部26は、最新の狭角画像生成時に点灯中の照明光源が、赤外カメラ5から遠い方の照明光源、すなわち、照明光源4−2か否か判定する(ステップS203)。照明光源4−2が点灯している場合(ステップS203−Yes)、判定部26は、照明光源4−1と赤外カメラ5との間隔dnearに対する、赤外カメラ5からユーザの顔までの距離lの比(l/dnear)が閾値Th未満か否か判定する(ステップS204)。比(l/dnear)が閾値Th未満であれば(ステップS204−Yes)、赤外カメラ5に近い方の照明光源4−1が点灯していても、狭角画像上で明瞳孔状態にはならない。そこで判定部26は、点灯させる照明光源を、照明光源4−2から照明光源4−1に切り替える(ステップS205)。この結果、次に狭角画像が生成されるときには、照明光源4−1が点灯していることになり、次回の視線検出処理は、照明光源4−1が点灯している状態で生成された狭角画像に基づいて行われる。
一方、点灯中の照明光源が照明光源4−1である場合(ステップS203−No)、あるいは、比(l/dnear)が閾値Th以上である場合(ステップS204−No)、判定部26は、点灯させる照明光源を切り替えない。
その後、プルキンエ像検出部27は、狭角画像上の精密眼領域内で瞳孔重心及びプルキンエ像を検出する(ステップS206)。そしてプルキンエ像検出部27は、瞳孔重心及びプルキンエ像の検出に成功したか否か判定する(ステップS207)。
プルキンエ像検出部27が瞳孔重心及び照明光源4のプルキンエ像の検出に成功した場合(ステップS207−Yes)、プルキンエ像検出部27は、プルキンエ像の重心及び瞳孔重心を制御部9の視線検出部28へ通知する。
視線検出部28は、参照テーブルを参照してプルキンエ像の重心を基準とする瞳孔重心の位置に対応する視線方向を検出する(ステップS208)。なお、参照テーブルは、照明光源ごとに予め作成され、記憶部8に記憶される。そしてステップS208では、視線検出部28は、最新の狭角画像生成時に点灯していた方の照明光源に対応する参照テーブルを記憶部から読み込んで、視線方向の検出に利用する。
視線検出部28は、注視位置テーブルを参照して、視線方向に対応する表示部2の表示画面2a上の注視位置を求める(ステップS209)。そして視線検出部28は、その注視位置を表す情報を、制御部9が実行中のアプリケーションプログラムへ渡す。
ステップS209の後、あるいは、ステップS207にて瞳孔重心またはプルキンエ像が検出されなかった場合(ステップS207−No)、制御部9は、視線検出処理を終了する。
また、ステップS202において、比(l/d)が閾値Th以上である場合(ステップS202−No)、判定部26は、狭角画像において明瞳孔状態が生じ得ると判定する。そこで判定部26は、最新の狭角画像生成時に点灯中の照明光源が、赤外カメラ5に近い方の照明光源、すなわち、照明光源4−1か否か判定する(ステップS210)。点灯中の照明光源が照明光源4−1である場合(ステップS210−Yes)、判定部26は、点灯させる照明光源を、赤外カメラ5から遠い方の照明光源4−2に切り替える(ステップS211)。すなわち、判定部26は、照明光源4−1を消灯し、照明光源4−2を点灯させる。この結果、次に狭角画像が生成されるときには、照明光源4−2が点灯していることになり、次回の視線検出処理は、照明光源4−2が点灯している状態で生成された狭角画像に基づいて行われる。
一方、点灯中の照明光源が照明光源4−2である場合(ステップS210−No)、照明光源4−2がユーザの顔を照明しているにもかかわらず、狭角画像上で明瞳孔状態が生じ得る。そこで判定部26は、ユーザの顔が表示部に対して遠過ぎる旨の警告メッセージを表示部2に表示させる(ステップS212)。
ステップS211またはS212の後、制御部9は、最新の狭角画像からユーザの注視位置を求めることなく、視線検出処理を終了する。
以上に説明してきたように、第2の実施形態による視線検出装置は、赤外カメラから近い方の照明光源を使用すると明瞳孔状態となり得るほど、赤外カメラとユーザの顔とが離れている場合に、赤外カメラから遠い方の照明光源を使用する。これにより、この視線検出装置は、照明ムラが生じ難い、赤外カメラに近い方の照明光源を極力使用して、プルキンエ像及び瞳孔の検出精度を向上する。一方、この視線検出装置は、赤外カメラに近い方の照明光源では明瞳孔状態となり得る場合でも、ユーザが自身の顔の位置を変えずに注視位置を検出できる。
次に、第3の実施形態による視線検出装置について説明する。第3の実施形態による視線検出装置は、赤外カメラと照明光源との間隔に対する赤外カメラからユーザの顔までの距離の推定値の比が明瞳孔状態が生じ得るほど大きいとき、プルキンエ像を利用しない視線方向検出処理により、ユーザの注視位置を推定する。
第3の実施形態による視線検出装置は、第1の実施形態による視線検出装置と比較して、制御部の処理が異なる。そこで、以下では、制御部について説明する。視線検出装置のその他の部分に関しては、第1の実施形態における関連部分の説明を参照されたい。
図11は、第3の実施形態による制御部91の視線検出処理に関する機能ブロック図である。制御部91は、顔検出部21と、眼周辺領域検出部22と、座標変換部23と、眼精密検出部24と、距離推定部25と、判定部26と、プルキンエ像検出部27と、視線検出部28と、第2視線検出部29とを有する。
制御部91が有するこれらの各部は、制御部91が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。また制御部91が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として、制御部91が有するプロセッサとは別個にコンピュータ1に実装されてもよい。この場合、その集積回路は、記憶部8とは別個に、視線検出処理で利用される各種のデータを記憶して、視線検出装置が有する記憶部として機能する記憶回路を含んでいてもよい。
第3の実施形態による視線検出装置の制御部91は、第1の実施形態による視線検出装置の制御部9と比較して、第2視線検出部29を有する点で異なる。そこで以下では、第2視線検出部29及びその関連部分について説明する。
判定部26は、照明光源4と赤外カメラ5との間隔dに対する、赤外カメラ5からユーザの顔までの推定距離lの比(l/d)が閾値Th以上となり、狭角画像上で明瞳孔状態が生じ得る場合、狭角画像を第2視線検出部29へ渡す。
第2視線検出部29は、プルキンエ像を利用せずにユーザの視線方向を検出する。例えば、第2視線検出部29は、狭角画像上で、何れか一方の眼について、角膜(いわゆる黒目の部分)よりも内側の白眼の部分の面積と、角膜よりも外側の白眼の部分の面積との比を算出することにより、角膜の重心の位置を推定する。そして第2視線検出部29は、その面積比を、ユーザが基準位置(例えば、表示画面2aの中心)を見ているときのその面積比との比によって、ユーザが基準位置を見ている場合の視線方向からのずれを求めることで、ユーザの視線方向を検出する。
なお、第2視線検出部29は、眼の角膜に相当するテンプレートと眼周辺領域または精密眼領域との間でテンプレートマッチングを行い、眼周辺領域または精密眼領域内でテンプレートとの一致度が最も高くなる領域を角膜が写っている角膜領域と判定する。そして第2視線検出部29は、角膜領域よりも顔の内側に位置し、角膜領域と隣接するとともに、白眼に相当する輝度または色を持つ画素の集合を、角膜よりも内側の白眼の部分とする。また第2視線検出部29は角膜領域よりも顔の外側に位置し、角膜領域と隣接するとともに、白眼に相当する輝度または色を持つ画素の集合を、角膜よりも外側の白眼の部分とする。
なお、第2視線検出部29は、角膜領域の重心そのものを角膜の重心とし、ユーザが基準位置を見ているときの角膜の重心との差によって、ユーザが基準位置を見ている場合の視線方向からのずれを求めることで、ユーザの視線方向を検出してもよい。また、第2視線検出部29は、プルキンエ像を利用しない他の視線方向検出処理に従って、ユーザの視線方向を検出してもよい。
ユーザの視線方向が検出されると、第2視線検出部29は、視線検出部28と同様に、ユーザの視線方向と注視位置との対応関係を表す注視位置テーブルを参照することにより、ユーザの視線方向に対応するユーザの注視位置を求める。
なお、第3の実施形態による視線検出処理では、制御部91は、図8に示された視線検出処理の動作フローチャートにおけるステップS109において、警告メッセージを表示させる代わりに、第2視線検出部29による視線検出及び注視位置検出を行えばよい。
以上に説明してきたように、第3の実施形態による視線検出装置は、明瞳孔状態となり得るほど、赤外カメラとユーザの顔とが離れている場合には、プルキンエ像を用いずに視線方向を検出する。そのため、この視線検出装置は、明瞳孔状態となり得るほど、赤外カメラとユーザの顔とが離れている場合でも、ユーザが自身の顔の位置を変えることなく、ユーザの注視位置を検出できる。
また、上記の各実施形態において、制御部9は、広角画像及び狭角画像のそれぞれについて、所定間隔で画素を間引くことにより縮小画像を生成し、その縮小画像に対して、上記の各部の処理を実行させてもよい。これにより、視線検出処理に用いられるデータの量が削減されるので、制御部9は、視線検出処理の処理時間を短縮できる。
さらに、上記の各実施形態の変形例によれば、距離推定部25は、両眼の瞳孔重心間の間隔を求め、その間隔に応じて赤外カメラ5からユーザの顔までの距離を推定してもよい。例えば、距離推定部25は、赤外カメラ5から所定の基準距離(例えば、500mm)だけ離れてユーザの顔が位置するときの両眼の瞳孔重心間の間隔(以下、基準間隔と呼ぶ)に対する、狭角画像または広角画像から求めた両眼の瞳孔重心間の間隔の比を算出する。そして距離推定部25は、基準距離をその比で割って得られる値を、赤外カメラ5からユーザの顔までの距離の推定値とする。あるいは、瞳孔重心間の間隔と赤外カメラ5からユーザの顔までの距離との対応関係を表す距離テーブルが予め記憶部8に記憶されていてもよい。この場合には、距離推定部25は、その距離テーブルを参照することにより、求めた瞳孔重心間の間隔に応じて赤外カメラ5からユーザの顔までの距離を推定してもよい。
この場合、距離推定部25は、プルキンエ像検出部27が瞳孔重心を検出する処理と同様の処理を行って、それぞれの眼の瞳孔重心を検出すればよい。
またこの場合、距離推定部25は、両眼の瞳孔重心間の間隔を求めるために、広角画像及び狭角画像の何れを利用してもよい。なお、狭角画像に基づいて両眼の瞳孔重心間の間隔を求める場合には、広角カメラは省略されてもよい。
あるいは、視線検出装置は、表示部2に、表示部2からユーザの顔までの距離を検知する距離センサをさらに有し、その距離センサの測定値を、赤外カメラ5からユーザの顔までの距離の値としてもよい。そのような距離センサとして、例えば、照明光源4から発し、ユーザの顔で反射された赤外光に基づいてその距離を推定するPosition sensitive detectorを用いることができる。
なお、この変形例においても、広角カメラは省略されてもよい。広角カメラが省略される場合には、制御部の顔検出部21、眼周辺領域検出部22及び座標変換部23も省略されてもよい。そしてこの場合、眼精密検出部24は、狭角画像全体を探索範囲として精密眼領域を検出してもよい。
さらに、上記の各実施形態またはその変形例による視線検出装置は、ユーザの視線方向を利用する装置、例えば、ドライバの視線方向の変化に応じてドライバに注意喚起するか否かを決定する運転支援装置に実装されてもよい。この場合、視線検出部は、ユーザの視線方向のみを検出し、ユーザの注視位置を検出しなくてもよい。
上記の実施形態またはその変形例による視線検出装置の制御部の機能を実現するコンピュータプログラムは、磁気記録媒体、光記録媒体といったコンピュータ読み取り可能な記録媒体に記録された形で提供されてもよい。なお、この記録媒体には、搬送波は含まれない。
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
ユーザの眼を照明する光源と、
ユーザの顔を撮影した画像を生成する撮像部と、
前記撮像部からユーザの顔までの距離を推定する距離推定部と、
前記撮像部と前記光源間の間隔に対する、前記撮像部からユーザの顔までの距離の比に応じて、ユーザの眼の瞳孔全体が前記光源からの光により明るくなる明瞳孔状態となるか否かを判定する判定部と、
前記判定部が明瞳孔状態とならないと判定した場合に、前記画像から前記光源の角膜反射像とユーザの瞳孔重心とを検出するプルキンエ像検出部と、
前記判定部が明瞳孔状態とならないと判定した場合に、前記瞳孔重心と前記角膜反射像との位置関係に応じてユーザの視線方向または注視位置を検出する視線検出部と、
を有する視線検出装置。
(付記2)
前記判定部は、前記比を、明瞳孔状態となる前記撮像部と前記光源間の間隔に対する前記撮像部からユーザの顔までの距離の比の下限値と比較し、前記比が前記下限値以上である場合に、明瞳孔状態となると判定し、一方、前記比が前記下限値未満である場合に、明瞳孔状態とならないと判定する、付記1に記載の視線検出装置。
(付記3)
前記光源と前記撮像部間の間隔は、当該間隔に対する前記撮像部からユーザの顔までの距離の比が前記下限値と等しい場合に前記画像上でユーザの瞳孔のサイズ及び前記角膜反射像のサイズが識別可能なサイズの下限値となるように設定される、付記2に記載の視線検出装置。
(付記4)
前記光源よりも前記撮像部から離れた位置に配置された第2の光源をさらに有し、
前記判定部は、明瞳孔状態となると判定した場合、前記光源を消灯し、かつ前記第2の光源を点灯させ、
前記撮像部は、前記第2の光源が点灯した状態でユーザの顔を撮影した第2の画像を生成し、
前記プルキンエ像検出部は、前記第2の画像から前記第2の光源の角膜反射像とユーザの瞳孔重心とを検出し、
前記視線検出部は、前記第2の光源の角膜反射像とユーザの瞳孔重心との位置関係に応じてユーザの視線方向または注視位置を検出する、付記1または2に記載の視線検出装置。
(付記5)
前記判定部が明瞳孔状態となると判定した場合に、前記画像から前記ユーザの角膜の重心を検出し、該角膜の重心の位置に応じてユーザの視線方向または注視位置を検出する第2の視線検出部をさらに有する、付記1〜3の何れか一項に記載の視線検出装置。
(付記6)
前記撮像部と異なる位置に配置され、ユーザの顔を撮影した第3の画像を生成する第2の撮像部をさらに有し、
前記距離推定部は、前記画像上のユーザの眼の位置と前記第3の画像上のユーザの眼の位置との位置関係に基づいて前記撮像部から前記ユーザの顔までの距離を推定する、付記1〜4の何れか一項に記載の視線検出装置。
(付記7)
前記距離推定部は、前記画像上でユーザの左眼の瞳孔と右眼の瞳孔とをそれぞれ検出し、前記画像上での該左眼の瞳孔と該右眼の瞳孔間の間隔に応じて前記撮像部からユーザの顔までの距離を推定する、付記1〜4の何れか一項に記載の視線検出装置。
(付記8)
ユーザの顔を撮影した画像を生成する撮像部からユーザの顔までの距離を推定し、
前記撮像部とユーザの眼を照明する光源間の間隔に対する、前記撮像部からユーザの顔までの距離の比に応じて、ユーザの眼の瞳孔全体が前記光源からの光により明るくなる明瞳孔状態となるか否かを判定し、
明瞳孔状態とならないと判定した場合に、前記画像から前記光源の角膜反射像とユーザの瞳孔重心とを検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じてユーザの視線方向または注視位置を検出する、
ことを含む視線検出方法。
(付記9)
ユーザの顔を撮影した画像を生成する撮像部からユーザの顔までの距離を推定し、
前記撮像部とユーザの眼を照明する光源間の間隔に対する、前記撮像部からユーザの顔までの距離の比に応じて、ユーザの眼の瞳孔全体が前記光源からの光により明るくなる明瞳孔状態となるか否かを判定し、
明瞳孔状態とならないと判定した場合に、前記画像から前記光源の角膜反射像とユーザの瞳孔重心とを検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じてユーザの視線方向または注視位置を検出する、
ことをコンピュータに実行させるための視線検出用コンピュータプログラム。
(付記10)
照明光源部と赤外撮像部とを有する表示装置であって、
前記照明光源部と前記赤外撮像部との間隔が、該表示装置から利用者までの利用を想定する最大距離と所定の係数から求めた距離以上空けられていること、
を特徴とする表示装置。
(付記11)
前記所定の係数は、明瞳孔状態が生じ得る、前記照明光源部と前記赤外撮像部の間隔に対する、前記撮像部からユーザの顔までの距離の比の下限値であり、前記間隔は、前記最大距離を前記比の下限値で割って得られる距離以上空けられている、付記10に記載の表示装置。
(付記12)
前記最大距離は、前記赤外撮像部により生成された画像上でユーザの瞳孔のサイズ及び前記角膜反射像のサイズが識別可能なサイズの下限値となる距離である、付記10または11に記載の表示装置。
1 コンピュータ
2 表示部
2a 表示画面
3 広角カメラ
4、4−1、4−2 照明光源
5 赤外カメラ
6 入力部
7 記憶媒体アクセス装置
8 記憶部
9 制御部
10 記憶媒体
21 顔検出部
22 眼周辺領域検出部
23 座標変換部
24 眼精密検出部
25 距離推定部
26 判定部
27 プルキンエ像検出部
28 視線検出部
29 第2視線検出部

Claims (6)

  1. ユーザの眼を照明する光源と、
    ユーザの顔を撮影した画像を生成する撮像部と、
    前記撮像部からユーザの顔までの距離を推定する距離推定部と、
    前記撮像部と前記光源間の間隔に対する、前記撮像部からユーザの顔までの距離の比に応じて、ユーザの眼の瞳孔全体が前記光源からの光により明るくなる明瞳孔状態となるか否かを判定する判定部と、
    前記判定部が明瞳孔状態とならないと判定した場合に、前記画像から前記光源の角膜反射像とユーザの瞳孔重心とを検出するプルキンエ像検出部と、
    前記判定部が明瞳孔状態とならないと判定した場合に、前記瞳孔重心と前記角膜反射像との位置関係に応じてユーザの視線方向または注視位置を検出する視線検出部と、
    を有する視線検出装置。
  2. 前記判定部は、前記比を、明瞳孔状態となる前記撮像部と前記光源間の間隔に対する前記撮像部からユーザの顔までの距離の比の下限値と比較し、前記比が前記下限値以上である場合に、明瞳孔状態となると判定し、一方、前記比が前記下限値未満である場合に、明瞳孔状態とならないと判定する、請求項1に記載の視線検出装置。
  3. 前記光源と前記撮像部間の間隔は、当該間隔に対する前記撮像部からユーザの顔までの距離の比が前記下限値と等しい場合に前記画像上でユーザの瞳孔のサイズ及び前記角膜反射像のサイズが識別可能なサイズの下限値となるように設定される、請求項2に記載の視線検出装置。
  4. 前記光源よりも前記撮像部から離れた位置に配置された第2の光源をさらに有し、
    前記判定部は、明瞳孔状態となると判定した場合、前記光源を消灯し、かつ前記第2の光源を点灯させ、
    前記撮像部は、前記第2の光源が点灯した状態でユーザの顔を撮影した第2の画像を生成し、
    前記プルキンエ像検出部は、前記第2の画像から前記第2の光源の角膜反射像とユーザの瞳孔重心とを検出し、
    前記視線検出部は、前記第2の光源の角膜反射像とユーザの瞳孔重心との位置関係に応じてユーザの視線方向または注視位置を検出する、請求項1または2に記載の視線検出装置。
  5. 前記判定部が明瞳孔状態となると判定した場合に、前記画像から前記ユーザの角膜の重心を検出し、該角膜の重心の位置に応じてユーザの視線方向または注視位置を検出する第2の視線検出部をさらに有する、請求項1〜3の何れか一項に記載の視線検出装置。
  6. ユーザの顔を撮影した画像を生成する撮像部からユーザの顔までの距離を推定し、
    前記撮像部とユーザの眼を照明する光源間の間隔に対する、前記撮像部からユーザの顔までの距離の比に応じて、ユーザの眼の瞳孔全体が前記光源からの光により明るくなる明瞳孔状態となるか否かを判定し、
    明瞳孔状態とならないと判定した場合に、前記画像から前記光源の角膜反射像とユーザの瞳孔重心とを検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じてユーザの視線方向または注視位置を検出する、
    ことをコンピュータに実行させるための視線検出用コンピュータプログラム。
JP2012210182A 2012-09-24 2012-09-24 視線検出装置、視線検出用コンピュータプログラム Expired - Fee Related JP6056323B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012210182A JP6056323B2 (ja) 2012-09-24 2012-09-24 視線検出装置、視線検出用コンピュータプログラム
US13/947,605 US9473696B2 (en) 2012-09-24 2013-07-22 Gaze detection apparatus, gaze detection computer program, and display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012210182A JP6056323B2 (ja) 2012-09-24 2012-09-24 視線検出装置、視線検出用コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2014067102A JP2014067102A (ja) 2014-04-17
JP6056323B2 true JP6056323B2 (ja) 2017-01-11

Family

ID=50338461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012210182A Expired - Fee Related JP6056323B2 (ja) 2012-09-24 2012-09-24 視線検出装置、視線検出用コンピュータプログラム

Country Status (2)

Country Link
US (1) US9473696B2 (ja)
JP (1) JP6056323B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102128942B1 (ko) * 2019-02-25 2020-07-01 강원대학교산학협력단 2자유도 공진형 믹서의 방진 설계 방법

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9633186B2 (en) * 2012-04-23 2017-04-25 Apple Inc. Systems and methods for controlling output of content based on human recognition data detection
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9402018B2 (en) * 2013-12-17 2016-07-26 Amazon Technologies, Inc. Distributing processing for imaging processing
EP4250738A3 (en) * 2014-04-22 2023-10-11 Snap-Aid Patents Ltd. Method for controlling a camera based on processing an image captured by other camera
DE102014208966A1 (de) * 2014-05-13 2015-11-19 Bayerische Motoren Werke Aktiengesellschaft System zur Erkennung der Blickrichtung
JP6547268B2 (ja) * 2014-10-02 2019-07-24 富士通株式会社 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム
KR101587533B1 (ko) * 2014-10-17 2016-01-21 인중현 피사체의 시선에 따라 영상을 이동시키는 영상처리시스템
US11194398B2 (en) 2015-09-26 2021-12-07 Intel Corporation Technologies for adaptive rendering using 3D sensors
JP6536324B2 (ja) 2015-09-30 2019-07-03 富士通株式会社 視線検出システム、視線検出方法および視線検出プログラム
CN106817622A (zh) * 2015-11-30 2017-06-09 西安中兴新软件有限责任公司 一种显示方法及显示设备
JP6601264B2 (ja) * 2016-02-29 2019-11-06 富士通株式会社 照明条件設定装置、照明条件設定方法及び照明条件設定用コンピュータプログラム
KR101690646B1 (ko) * 2016-08-02 2016-12-28 아이피랩 주식회사 시 스루 디스플레이를 위한 카메라 구동 장치 및 그 방법
US10137893B2 (en) * 2016-09-26 2018-11-27 Keith J. Hanna Combining driver alertness with advanced driver assistance systems (ADAS)
JP6856017B2 (ja) * 2017-12-28 2021-04-07 株式会社Jvcケンウッド 角膜反射位置検出装置、視線検出装置及び角膜反射位置検出方法
CN109993029A (zh) * 2017-12-29 2019-07-09 上海聚虹光电科技有限公司 注视点模型初始化方法
JP7075237B2 (ja) * 2018-02-23 2022-05-25 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法
JP6717330B2 (ja) 2018-03-15 2020-07-01 オムロン株式会社 視線検出装置、該視線検出装置の制御方法、角膜反射像位置の検出方法、及びコンピュータプログラム
EP4343499A3 (en) * 2018-05-04 2024-06-05 Google LLC Adapting automated assistant based on detected mouth movement and/or gaze
CN109271027B (zh) * 2018-09-17 2022-10-14 北京旷视科技有限公司 页面控制方法、装置及电子设备
SE542887C2 (en) 2018-10-31 2020-08-11 Tobii Ab Gaze tracking using mapping of pupil center position
USD914021S1 (en) 2018-12-18 2021-03-23 Intel Corporation Touchpad display screen for computing device
KR20210139233A (ko) * 2019-03-27 2021-11-22 인텔 코포레이션 스마트 디스플레이 패널 장치 및 관련 방법들
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
CN112099615B (zh) * 2019-06-17 2024-02-09 北京七鑫易维科技有限公司 注视信息确定方法、装置、眼球追踪设备及存储介质
CN110572618B (zh) * 2019-09-24 2021-03-16 增长引擎(北京)信息技术有限公司 一种非法拍照行为监控方法、装置及系统
US11543873B2 (en) 2019-09-27 2023-01-03 Intel Corporation Wake-on-touch display screen devices and related methods
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence
US11809535B2 (en) 2019-12-23 2023-11-07 Intel Corporation Systems and methods for multi-modal user device authentication
US11360528B2 (en) 2019-12-27 2022-06-14 Intel Corporation Apparatus and methods for thermal management of electronic user devices based on user activity
CN111182212B (zh) * 2019-12-31 2021-08-24 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质以及电子设备
JP7490372B2 (ja) * 2020-01-21 2024-05-27 キヤノン株式会社 撮像制御装置及びその制御方法
US11381730B2 (en) * 2020-06-25 2022-07-05 Qualcomm Incorporated Feature-based image autofocus
US11080516B1 (en) * 2020-12-30 2021-08-03 EyeVerify, Inc. Spoof detection based on red-eye effects
ES1275154Y (es) * 2021-05-07 2021-10-22 Sport Vision S L Dispositivo para determinacion del centrado de lentes de contacto o intraoculares

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016282A (en) 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
JPH0782539B2 (ja) * 1988-07-14 1995-09-06 株式会社エイ・ティ・アール通信システム研究所 瞳孔画像撮影装置
US5231674A (en) * 1989-06-09 1993-07-27 Lc Technologies, Inc. Eye tracking method and apparatus
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
SE524003C2 (sv) * 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
JP2006095008A (ja) * 2004-09-29 2006-04-13 Gen Tec:Kk 視線検出方法
KR100729280B1 (ko) * 2005-01-08 2007-06-15 아이리텍 잉크 스테레오 카메라를 장착한 이동단말기를 이용한 홍채인식시스템 및 그 방법
US8358337B2 (en) * 2005-08-23 2013-01-22 National University Corporation Shizuoka University Pupil detection device and pupil detection method
US8260008B2 (en) * 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US8913004B1 (en) * 2010-03-05 2014-12-16 Amazon Technologies, Inc. Action based device control
JP5184596B2 (ja) * 2010-09-03 2013-04-17 本田技研工業株式会社 脇見判定装置
JP5621456B2 (ja) 2010-09-21 2014-11-12 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラムならびに携帯端末
JP5601179B2 (ja) 2010-12-01 2014-10-08 富士通株式会社 視線検出装置及び視線検出方法
US8408706B2 (en) * 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102128942B1 (ko) * 2019-02-25 2020-07-01 강원대학교산학협력단 2자유도 공진형 믹서의 방진 설계 방법

Also Published As

Publication number Publication date
US9473696B2 (en) 2016-10-18
US20140085451A1 (en) 2014-03-27
JP2014067102A (ja) 2014-04-17

Similar Documents

Publication Publication Date Title
JP6056323B2 (ja) 視線検出装置、視線検出用コンピュータプログラム
JP5949319B2 (ja) 視線検出装置及び視線検出方法
JP6930223B2 (ja) 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
CN113729611B (zh) 使用眼球中心位置的眼睛追踪
EP3225154A2 (en) Gaze detection apparatus and gaze detection method
JP5655644B2 (ja) 視線検出装置及び視線検出方法
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5621456B2 (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラムならびに携帯端末
JP6957993B2 (ja) ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法
US10146306B2 (en) Gaze position detection apparatus and gaze position detection method
JP2016091457A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP2018205819A (ja) 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法
JP2015112151A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6870474B2 (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
JP2014188322A (ja) 視線検出装置、視線検出方法及びプログラム
JP5626039B2 (ja) 視線検出装置及び視線検出方法
KR100960269B1 (ko) 눈동자 시선 추정 장치 및 추정 방법
JP2015046111A (ja) 視点検出装置および視点検出方法
JP2017199148A (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP6575353B2 (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP2018120299A (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
Lee et al. A new eye tracking method as a smartphone interface
US20240153136A1 (en) Eye tracking
JP2017146987A (ja) 視点検出装置および視点検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161121

R150 Certificate of patent or registration of utility model

Ref document number: 6056323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees