[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5529660B2 - 瞳孔検出装置及び瞳孔検出方法 - Google Patents

瞳孔検出装置及び瞳孔検出方法 Download PDF

Info

Publication number
JP5529660B2
JP5529660B2 JP2010162964A JP2010162964A JP5529660B2 JP 5529660 B2 JP5529660 B2 JP 5529660B2 JP 2010162964 A JP2010162964 A JP 2010162964A JP 2010162964 A JP2010162964 A JP 2010162964A JP 5529660 B2 JP5529660 B2 JP 5529660B2
Authority
JP
Japan
Prior art keywords
pupil
luminance
image
straight line
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010162964A
Other languages
English (en)
Other versions
JP2012024154A (ja
Inventor
宗太郎 築澤
兼司 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010162964A priority Critical patent/JP5529660B2/ja
Priority to PCT/JP2011/003411 priority patent/WO2012011221A1/ja
Priority to US13/496,713 priority patent/US8649583B2/en
Priority to EP11809400.2A priority patent/EP2596746B1/en
Priority to CN201180003893.XA priority patent/CN102510734B/zh
Publication of JP2012024154A publication Critical patent/JP2012024154A/ja
Application granted granted Critical
Publication of JP5529660B2 publication Critical patent/JP5529660B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Developmental Disabilities (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、瞳孔検出装置及び瞳孔検出方法に関する。
夜間又はトンネル内などの照度が十分に確保できない環境において顔画像から視線検出又は表情検出を行なう場合、照度を確保するために、投光器を用いることがある。投光器を用いた場合、投光器が眼球の角膜上に映り込むことによって生ずる角膜反射像が、眼球上に観測される。この角膜反射像の画像(以下では、「角膜反射画像」と呼ばれることがある)が瞳孔画像と重なった場合、瞳孔画像が角膜反射画像によって隠されてしまうことがある。このような状況の下では、瞳孔画像が完全に見えていることを前提とする従来の瞳孔検出手法によっては、瞳孔画像の検出が困難になる。
このような課題に対応する第1の方法として、特許文献1に開示されている方法がある。この第1の方法では、目領域内で輝度の微分が算出され、この算出結果に基づいて、負のエッジとこれに対応する正のエッジとを探索する。これにより、瞳孔画像内に角膜反射画像が現れる場合でも、瞳孔検出を行なうことができる。
また、第2の方法として、特許文献2に開示されている方法がある。この第2の方法では、投光器にSLD(スーパールミネッセントダイオード)を用いられる。これにより、眼鏡又は角膜に映り込んだ投光器の反射像の面積を小さくすることができるので、瞳孔検出の安定化を図ることができる。
さらに、第3の方法として、非特許文献1に開示されている方法がある。この第3の方法では、瞳孔領域のエッジから複数の平行四辺形が生成され、各平行四辺形の中心に対して投票が為される。そして、最も多く投票された座標が瞳孔中心として検出される。そして、検出された瞳孔中心から等距離にあるエッジから瞳孔輪郭が検出される。
特開平2−213322号公報 特開平7−248216号公報
「高速楕円検出に基づく眼球回旋運動の計測(Measurement of Cycloduction Movement Based on Fast Ellipse Detection)」,坂下祐輔, 藤吉弘亘, 平田豊, 高丸尚教, 深谷直樹,SSII2006論文集
ところで、上記した第1の方法では、瞳孔輪郭に角膜反射像が重なった場合には、投光器の位置が変更され、瞳孔輪郭と角膜反射像とが重ならない状況を作る試みが為されている。しかしながら、複数の投光器を用いたり、又は、投光器の位置を変更したりすることが困難な場合には、瞳孔輪郭に角膜反射像が重なった状況を回避することは困難であり、結果として、瞳孔検出が困難となる。
また、上記した第2の方法では、角膜反射像の物理的な大きさを小さくすることで、瞳孔が角膜反射像によって隠されている領域を小さくしている。しかしながら、画像の解像度が十分に確保できない場合には、角膜反射像の物理的大きさに関わらず、角膜反射画像と瞳孔画像との大きさが略同じになってしまう。例えば、デジタル画像の原理上、画像上の角膜反射画像の直径は1画素以上であるが、解像度が低い場合には、瞳孔直径も最小で1画素程度まで小さくなりうる。このため、角膜反射像と瞳孔とが重なった場合には、瞳孔画像が角膜反射画像に隠される「被隠蔽面積」が画像上では大きくなってしまい、結果として、瞳孔検出が困難となる。
また、上記した第3の方法では、瞳孔輪郭候補となるエッジ画素から4点ずつ抽出することにより、複数の平行四辺形を生成し、最も平行四辺形の中心となることの多い画素を瞳孔中心としている。しかしながら、瞳孔中心に関して対称な位置にあるエッジが観測されない場合には、瞳孔中心部分に平行四辺形の中心が来ることは少ない。このため、瞳孔が角膜反射像によって半分以上隠されている状況では、瞳孔検出が困難となる。
本発明は、かかる点に鑑みてなされたものであり、角膜反射像によって瞳孔の大部分が隠されてしまっている場合でも、瞳孔を安定して検出することができる瞳孔検出装置及び瞳孔検出方法を提供することを目的とする。
本発明の瞳孔検出装置は、目領域画像内の瞳孔画像を検出する瞳孔検出装置であって、前記目領域画像の高輝度画像領域である角膜反射画像を検出する第1の検出手段と、前記角膜反射画像内の基準点を一端とし且つ所定の長さを持つ複数の線分を設定し、各線分における各画素の輝度及び基準輝度に基づいて輝度評価値を算出する評価値算出手段と、前記輝度評価値に基づいて、前記複数の線分の中から前記瞳孔画像の中心を通る瞳孔中心直線を特定する特定手段と、前記瞳孔中心直線の周辺における輝度状態、又は、前記瞳孔中心直線上の輝度状態に基づいて、前記瞳孔画像を検出する第2の検出手段と、を具備する。
本発明の瞳孔検出方法は、目領域画像内の瞳孔画像を検出する瞳孔検出方法であって、前記目領域画像の高輝度画像領域である角膜反射画像を検出し、前記角膜反射画像内の基準点を一端とし且つ所定の長さを持つ複数の線分を設定し、各線分における各画素の輝度及び基準輝度に基づいて輝度評価値を算出し、前記輝度評価値に基づいて、前記複数の線分の中から前記瞳孔画像の中心を通る瞳孔中心直線を特定し、前記瞳孔中心直線の周辺における輝度状態、又は、前記瞳孔中心直線上の輝度状態に基づいて、前記瞳孔画像を検出する。
本発明によれば、角膜反射像によって瞳孔の大部分が隠されてしまっている場合でも、角膜反射像の情報を積極的に利用することにより、瞳孔を安定して検出することができる瞳孔検出装置及び瞳孔検出方法を提供することができる。
本発明の実施の形態1に係る瞳孔検出装置の構成を示すブロック図 目領域検出部の構成を示すブロック図 瞳孔検出装置の動作説明に供するフロー図 ターゲット画像である顔画像を示す図 角膜反射画像検出処理及び輝度評価値算出処理の説明に供する図 輝度評価値と、当該輝度評価値の算出された放射方向と基準方向とのなす角度との対応関係の一例を示す図 輝度評価値算出処理の説明に供する図 瞳孔探索処理の説明に供する図 本発明の実施の形態2に係る瞳孔検出装置の構成を示すブロック図 瞳孔検出装置の動作説明に供するフロー図 本発明の実施の形態3に係る瞳孔検出装置の構成を示すブロック図 瞳孔検出装置の動作説明に供するフロー図 本発明の実施の形態4に係る瞳孔検出装置の構成を示すブロック図 本発明の実施の形態5に係る瞳孔検出装置の構成を示すブロック図 瞳孔中心直線算出部の動作説明に供する図 本発明の実施の形態6に係る瞳孔検出装置の構成を示すブロック図 瞳孔探索部の動作説明に供する図 本発明の実施の形態7に係る瞳孔検出装置の構成を示すブロック図 瞳孔探索部の動作説明に供する図
以下、本発明の実施の形態について図面を参照して詳細に説明する。なお、実施の形態において、同一の構成要素には同一の符号を付し、その説明は重複するので省略する。
[実施の形態1]
[瞳孔検出装置100の構成]
図1は、本発明の実施の形態1に係る瞳孔検出装置100の構成を示すブロック図である。瞳孔検出装置100は、例えば、自動車の車室内に設けられ、視線検出装置と接続されて使用される。この視線検出装置は、瞳孔検出装置100の検出結果に基づいて瞳孔位置を決定し、ドライバーの視線方向を検出する。以下では、特に、瞳孔検出装置100が視線検出装置に適用された場合について説明する。
図1において、瞳孔検出装置100は、目領域画像取得部101と、角膜反射像検出部102と、瞳孔状態予測部103と、瞳孔状態記憶部104と、周辺状態評価部105と、瞳孔中心直線算出部106と、瞳孔探索部107とを有する。
目領域画像取得部101は、目領域画像を取得し、角膜反射像検出部102へ出力する。
具体的には、目領域画像取得部101は、画像入力部111と、目領域検出部112とを有する。
画像入力部111は、撮像ターゲット(つまり、ここでは、人物)を撮像する。このターゲット画像データは、目領域検出部112へ出力される。
画像入力部111は、例えば、車のハンドルの上、又は、ダッシュボード上など、運転席の正面に設置される。これにより、画像入力部111によって運転中の運転者の顔が撮影される。
目領域検出部112は、画像入力部111から受け取るターゲット画像から、目領域画像を検出する。
具体的には、目領域検出部112は、図2に示すように、顔検出部121と、顔部品検出部122と、目領域決定部123とを有する。
顔検出部121は、画像入力部111から受け取るターゲット画像から顔画像を検出し、顔画像データを顔部品検出部122へ出力する。
顔部品検出部122は、顔検出部121から受け取る顔画像から顔部品群(つまり、目尻、目頭など)を検出し、各顔部品の位置座標を目領域決定部123へ出力する。
目領域決定部123は、顔部品検出部122から受け取る、各顔部品の位置座標に基づいて、目領域画像の位置、大きさを決定する。この目領域画像の位置、および大きさは、目領域画像検出結果として、画像入力部111から出力されたターゲット画像と共に角膜反射像検出部102へ出力される。なお、目領域画像の位置及び大きさは、右目及び左目のそれぞれについて算出される。
図1に戻り、角膜反射像検出部102は、目領域画像取得部101から受け取るターゲット画像データから角膜反射画像を検出し、検出された角膜反射画像に関する情報を周辺状態評価部105へ出力する。この角膜反射画像に関する情報には、角膜反射画像領域の中心の座標が含まれる。
周辺状態評価部105は、角膜反射画像を基準とする放射方向についての「輝度評価値」を算出する。すなわち、周辺状態評価部105は、輝度評価値と、当該輝度評価値の算出された放射方向と基準方向とのなす角度との対応関係を算出する。
具体的には、周辺状態評価部105は、角膜反射像検出部102で検出された角膜反射画像内に基準点を設定し、当該基準点を一端とし且つ所定の長さを持つ複数の線分を設定する。その複数の線分は、基準方向から所定角度ずつ回転されることにより、順次設定される。線分の所定の長さは、ここでは、角膜反射画像と瞳孔画像とが重なっている場合を前提としているので、推定される瞳孔画像の直径(以下では、「推定瞳孔直径」と呼ばれることがある)とされる。推定瞳孔直径は、瞳孔状態予測部103によって推定される。なお、角膜反射画像と瞳孔画像とが重なっていない場合も含めて処理を行う場合には、線分の長さを推定瞳孔直径より長く設定すれば良い。
そして、周辺状態評価部105は、各線分における各画素の輝度及び基準輝度に基づいて、輝度評価値を算出する。詳細には、周辺状態評価部105は、各線分における各画素の輝度と基準輝度とを比較し、基準輝度よりも低い輝度を持つ画素を抽出し、抽出された全ての画素についての輝度と基準輝度との差の総和を輝度評価値として算出する。すなわち、輝度評価値は、次の式(1)を用いて求められる。
Figure 0005529660
ここで、Vは輝度評価値であり、Sは、基準輝度として用いられる強膜平均輝度であり、Bは、線分上の各画素の輝度であり、Lは、線分である。
瞳孔中心直線算出部106は、周辺状態評価部105で算出された輝度評価値に基づいて、瞳孔画像の中心を通る線分(以下では、「瞳孔中心直線」と呼ばれることがある)を特定する。具体的には、瞳孔中心直線算出部106は、周辺状態評価部105で算出された輝度評価値の最も大きい線分を瞳孔中心直線として特定する。
瞳孔探索部107は、瞳孔中心直線の周辺における輝度状態に基づいて、瞳孔画像を探索する。具体的には、瞳孔探索部107は、瞳孔中心直線算出部106で特定された瞳孔中心直線と、上記した推定瞳孔直径を含む直径候補群とに基づいて瞳孔画像領域候補を順次設定し、瞳孔画像領域候補内の輝度状態に基づいて瞳孔画像領域候補群の内から瞳孔画像領域(つまり、最も瞳孔画像領域らしい領域)を検出することにより、瞳孔画像領域を探索する。
具体的には、瞳孔探索部107は、瞳孔中心直線上に中心が存在し、且つ、直径候補群の内の1つの直径候補を直径とする円を瞳孔画像領域候補として設定し、当該瞳孔画像領域候補内の輝度状態指標を算出する。この輝度状態指標には、ここでは設定された瞳孔画像領域候補内の画素群の内、基準輝度よりも輝度の低い画素群の平均輝度が用いられる。すなわち、輝度状態指標は、次の式(2)を用いて求められる。
Figure 0005529660
ここで、Xは、瞳孔画像領域候補の輝度状態指標であり、Pは、瞳孔画像領域候補、つまり、瞳孔中心直線上に中心が存在し、且つ、直径候補群の内の1つの直径候補を直径とする円である。すなわち、式(2)の分母では、瞳孔画像領域候補内で基準輝度よりも輝度の低い画素の数がカウントされる一方、分子では、瞳孔画像領域候補内で基準輝度よりも輝度の低い画素の輝度の総和が求められている。
この輝度状態指標が各瞳孔画像領域候補(つまり、中心位置及び直径候補の組み合わせの異なる各瞳孔画像領域候補)について求められ、瞳孔画像領域候補群の内、輝度状態指標が最も小さいものが瞳孔画像領域として特定される。
以上のようにして特定された瞳孔画像領域に関する情報(つまり、中心位置及び直径に関する情報)は、瞳孔状態記憶部104に記憶されると共に、後段の機能部である視線検出部(図示せず)における視線検出処理に用いられる。なお、ここでは、複数の直径候補を用意したが、推定瞳孔直径のみを用いても良い。これにより、瞳孔直径の変動が少ない撮影環境においては瞳孔検出精度も維持することができると共に、処理量を低減できる。
瞳孔状態記憶部104は、瞳孔探索部107で検出された瞳孔画像領域に関する情報(つまり、中心位置及び直径に関する情報)を、瞳孔画像領域の検出に用いられたターゲット画像の撮像時刻と対応付けて記憶する。
瞳孔状態予測部103は、瞳孔状態記憶部104に保存された過去の検出瞳孔直径(つまり、瞳孔画像領域の直径)から、現在の瞳孔の直径を推定する。この推定瞳孔直径は、周辺状態評価部105および瞳孔探索部107へ出力される。
[瞳孔検出装置100の動作]
以上の構成を有する瞳孔検出装置100の動作について説明する。図3は、瞳孔検出装置100の動作説明に供するフロー図である。図3のフロー図には、上記した視線検出装置における処理フローも含まれている。
図3に示す処理フローは、撮影作業の開始と共にスタートする。撮影作業は、ユーザの操作によって開始されても良いし、外的な何らかの信号をトリガとして開始されても良い。
<画像取得処理>
ステップS201で画像入力部111は、撮像ターゲット(つまり、ここでは、人物)を撮像する。これにより、ターゲット画像が取得される。
画像入力部111としては、例えば、CMOSイメージセンサとレンズを備えたデジタルカメラが想定される。従って、画像入力部111で撮像されたPPM(Portable Pix Map file format)形式の画像等が、画像入力部111に含まれる、図示されていない画像記憶部(例えば、PCのメモリ空間)に一時記憶された後、PPM形式のまま目領域検出部112へ出力される。
<顔画像検出処理>
ステップS202で顔検出部121は、画像入力部111から受け取るターゲット画像から顔画像を検出する。図4は、ターゲット画像である顔画像を示す図である。なお、撮像した顔画像では、例えば、画像横方向をX軸、画像縦方向をY軸とし、1画素が1座標点である。
顔領域検出処理では、例えば、入力画像から、特徴となる画像の候補(つまり、特徴画像候補)を抽出し、抽出された特徴画像候補と、あらかじめ用意した顔領域を表す特徴画像とを比較することにより、類似度の高い特徴画像候補を検出する。類似度は、例えば、あらかじめ取得した平均顔のガボール特徴量と、入力画像をスキャンすることにより抽出されるガボール特徴量とを照合し、両者の差分の絶対値の逆数として求められる。
この場合、顔検出部121は、あらかじめ用意したテンプレートと比べて、図4の画像400の中で最も相関の高い領域を、顔画像401として特定する。なお、顔領域検出処理は、画像中から肌色領域を検出すること(つまり、肌色領域検出)によって行われても良いし、楕円部分を検出すること(つまり、楕円検出)により行われても良いし、統計的パターン識別手法を用いることにより行われても良い。その他、上記顔検出を行うことができる技術であれば、どのような方法が採用されても良い。
<顔部品検出処理>
ステップS203で顔部品検出部122は、顔検出部121から受け取る顔画像から顔部品群(つまり、口角、目尻、目頭など)を検出し、各顔部品の位置座標を目領域決定部123へ出力する。顔部品群の探索領域は、ステップS202で特定された顔領域401である。図4には、それぞれ顔部品群402が示されている。
顔部品群検出処理では、例えば、分離度フィルタを用いて、口角、目尻、目頭などの顔部品の端点又は鼻の穴などの2次元座標が検出される。また、あらかじめ複数の顔画像と顔画像に対応する顔部品の位置との対応関係を学習器に学習させておき、顔部品検出部122は、顔画像401が入力された際に、その対応関係に関して最も尤度が高い場所を顔部品として検出しても良い。又は、顔部品検出部122は、標準的な顔部品のテンプレートを用いて、顔画像401内から顔部品を探索しても良い。
<目領域決定処理>
ステップS204で、目領域決定部123は、顔検出部121から受け取る顔画像と、顔部品検出部122から受け取る顔部品群から、目の領域を決定する。
目領域決定処理では、例えば、左右それぞれの目において、目尻、目頭を含む矩形領域403を目領域として決定し、矩形の左上端点座標と、右下端点座標を、目領域情報として取得する。
<角膜反射画像検出処理>
ステップS205で、角膜反射像検出部102は、顔検出部121から受け取る顔画像と目領域決定部123から受け取る目領域情報から、角膜反射画像を検出する。具体的には、角膜反射像検出部102は、図5に示すように、目領域403内で角膜反射画像501の中心座標を検出する。角膜反射像検出部102は、例えば、目領域403内で、輝度分布を作成し、作成された輝度分布を用いて、所定の輝度以上の領域であって領域の大きさが所定の大きさの範囲内である領域を角膜反射画像として検出し、その領域の重心を角膜反射画像の中心とする。
<推定瞳孔直径算出処理>
ステップS206で、瞳孔状態予測部103は、瞳孔状態記憶部104に保存された過去の検出瞳孔直径から、現在の瞳孔直径として推定瞳孔直径を算出する。推定瞳孔直径は、例えば、過去の検出瞳孔直径の履歴から瞳孔直径の変化する速度を算出し、当該瞳孔直径変化速度を維持した場合の瞳孔直径を推定瞳孔直径とする。ただし、推定瞳孔直径の算出は、上記方法に限らず、例えば、瞳孔直径の変化が小さくなる方向であれば常に人の平均的な最大縮瞳速度を用い、大きくなる方向であれば、最大散瞳速度を用いても良い。又は、カルマンフィルタなどを用いた状態予測によって、推定瞳孔直径が求められても良い。
<輝度評価値算出処理>
ステップS207で、周辺状態評価部105は、角膜反射像検出部102で作成された角膜反射画像を含む画像領域の輝度分布から、輝度評価値と、当該輝度評価値の算出された放射方向と基準方向とのなす角度との対応関係を算出する。図6は、輝度評価値と、当該輝度評価値の算出された放射方向と基準方向とのなす角度との対応関係の一例を示す。
具体的には、周辺状態評価部105は、まず、目領域内で、角膜反射画像像の中心から、平均的な角膜半径(例えば5mm)以上離れている領域の平均輝度を、強膜平均輝度として算出する。この強膜平均輝度は、上記した基準輝度として用いられる。
次に、周辺状態評価部105は、図5に示すように、角膜反射像検出部102で検出された角膜反射画像内に基準点(ここでは、角膜反射画像領域の中心)を設定し、当該基準点を一端とし、且つ、推定瞳孔直径の長さを持つ線分502を設定する。
そして、周辺状態評価部105は、各線分502における各画素の輝度及び基準輝度に基づいて、輝度評価値を算出する。この輝度評価値は、基準輝度よりも低い輝度を持つ画素を抽出し、抽出された全ての画素についての輝度と基準輝度との差の総和として求められる。
この算出処理が、図7に示すように、基準方向から所定角度ずつ回転されることによって順次設定される複数の線分502のそれぞれについて行われる。
ここで、角膜に対応する画像、又は、眼鏡若しくは角膜上に外光が映り込んだ画像領域は、瞳孔に対応する画像よりも輝度が高い。従って、強膜に対応する画像領域の輝度を基準として、当該基準輝度よりも輝度の低い画素のみを抽出することにより、瞳孔に対応する画像領域ではない可能性の高い画素の影響を排除することができる。そして、瞳孔に対応する画像領域である可能性の高い、低輝度の画素のみを対象として輝度評価値を算出することにより、瞳孔中心直線の検出精度を高める評価値を得ることができる。
<瞳孔中心直線検出処理>
ステップS208で、瞳孔中心直線算出部106は、周辺状態評価部105で算出された輝度評価値に基づいて、瞳孔中心直線を特定する。具体的には、瞳孔中心直線算出部106は、周辺状態評価部105で算出された輝度評価値の最も大きい線分を瞳孔中心直線として特定する。なお、所定の角度範囲内の輝度評価値の和が最も高い範囲の重み付き平均をとることによって、瞳孔中心直線の基準方向に対する角度を検出しても良い。この場合、角膜反射画像領域の中心を通り、且つ、検出角度方向に延びる直線が、瞳孔中心直線とされる。
<瞳孔探索処理>
ステップS209で、瞳孔探索部107は、図8に示すように、瞳孔中心直線算出部106で特定された瞳孔中心直線と、上記した推定瞳孔直径を含む直径候補群とに基づいて瞳孔画像領域候補を順次設定し、瞳孔画像領域候補内の輝度状態に基づいて瞳孔画像領域候補群の内から瞳孔画像領域(つまり、最も瞳孔画像領域らしい領域)を検出することにより、瞳孔画像領域を探索する。なお、図8では、推定瞳孔直径の瞳孔画像領域候補群のみが示されている。
具体的には、瞳孔探索部107は、瞳孔中心直線上に中心が存在し、且つ、直径候補群の内の1つの直径候補を直径とする円を瞳孔画像領域候補として設定し、当該瞳孔画像領域候補内の輝度状態指標を算出する。この輝度状態指標には、ここでは、設定された瞳孔画像領域候補内の画素群の内、基準輝度よりも輝度の低い画素群の平均輝度が用いられる。
<瞳孔画像領域情報の保存処理>
ステップS210で、瞳孔状態記憶部104は、瞳孔探索部107で検出された瞳孔画像領域に関する情報(つまり、中心位置及び直径に関する情報)を、瞳孔画像領域の検出に用いられたターゲット画像の撮像時刻と対応付けて記憶する。
<視線検出処理>
ステップS211で、視線検出部(図示せず)は、視線を検出する。
視線検出は、例えば、顔部品群402の座標から算出される顔の正面方向の向きを表す顔向きベクトルと、目尻、目頭、瞳孔中心の座標から算出される顔の正面方向に対する視線方向ベクトルから算出される。
顔向きベクトルは、例えば、以下の手順で算出される。まず、あらかじめ取得した運転者の顔部品群の三次元座標を回転および並進させることにより変換する。そして、変換した三次元座標を、瞳孔検出に使用されたターゲット画像に投影する。そして、ステップS203で検出した顔部品群と最も一致する回転・並進パラメータを算出する。このとき、あらかじめ運転者の顔部品群の三次元座標を取得した際に、運転者の顔が向いている方向を表すベクトルと、決定された回転パラメータによって回転したベクトルとの組みが、顔向きベクトルである。
また、視線方向ベクトルは、例えば、以下の手順で算出される。まず、あらかじめ、所定の方向を顔が向いている場合に、顔向きと同じ方向を見ている際の運転者の顔部品群と瞳孔中心の三次元座標とを記憶する。瞳孔中心の検出は、例えば、目領域内において所定の輝度以下の画素の重心をとることで行なわれる。次に、検出した瞳孔の三次元座標から、視線方向と反対側に所定の距離だけ移動した位置を眼球中心位置として算出する。このとき、上記所定の距離は、一般的な成人眼球の半径である12mm程度が適当であるが、上記値に限らず、任意の値を用いても良い。次に、顔向きベクトル算出時に取得した顔の回転・並進パラメータを用いて、検出時の眼球中心の三次元座標を求める。次に、眼球中心を中心とし、半径が上記所定の距離である球上に瞳孔があると想定し、検出された瞳孔中心が上記球上のどこにあるか探索する。最後に、眼球中心と探索された球上の点を結ぶベクトルを視線方向として算出する。
<終了判定処理>
ステップS212では、終了判定が行なわれる。終了判定は、人手による終了命令の入力によって行われても良いし、外的な何らかの信号をトリガに瞳孔検出装置100により行われても良い。
ステップS212で終了すると判定された場合に、図3の処理が終了する。
以上のように本実施の形態によれば、瞳孔検出装置100において、周辺状態評価部105が、角膜反射画像内の基準点を一端とし且つ所定の長さを持つ複数の線分を設定し、各線分における各画素の輝度及び基準輝度に基づいて輝度評価値を算出し、瞳孔中心直線算出部106が、輝度評価値に基づいて、複数の線分の中から瞳孔画像の中心を通る瞳孔中心直線を特定し、瞳孔探索部107が、瞳孔中心直線の周辺における輝度状態に基づいて、瞳孔画像を検出する。
こうして、角膜反射画像を基準として設定した線分における輝度評価値に基づいて瞳孔中心直線を特定した後に、その瞳孔中心直線の周辺の輝度状態に基づいて瞳孔画像を検出するので、角膜反射像の情報を積極的に利用し且つ安定した瞳孔検出を実現することができる。
また、周辺状態評価部105は、各線分について、各画素の輝度と前記基準輝度とを比較し、基準輝度よりも低い輝度を持つ画素を抽出し、抽出された全ての画素についての輝度と基準輝度との差の総和を、輝度評価値として算出する。
また、瞳孔中心直線算出部106は、輝度評価値の最も大きい線分を、瞳孔中心直線として特定する。
また、設定される線分の所定の長さは、瞳孔状態予測部103によって、過去の検出瞳孔直径から推定された推定瞳孔直径が用いられる。ただし、この所定の長さとしては、予め定められた規定値が用いられても良い。
また、基準輝度としては、強膜平均輝度が用いられる。
[実施の形態2]
実施の形態2では、基準輝度として、検出瞳孔画像に基づいて直近に算出された強膜平均輝度が用いられる。
図9は、本発明の実施の形態2に係る瞳孔検出装置600の構成を示すブロック図である。図9において、瞳孔検出装置600は、周辺状態評価部601と、強膜平均輝度算出部602と、強膜平均輝度記憶部603とを有する。
周辺状態評価部601は、周辺状態評価部105と同様に、輝度評価値と、当該輝度評価値の算出された放射方向と基準方向とのなす角度との対応関係を算出する。ただし、ここでは、周辺状態評価部601は、強膜平均輝度記憶部603から受け取る、検出瞳孔画像に基づいて直近に算出された強膜平均輝度を、基準輝度として用いる。
強膜平均輝度算出部602は、瞳孔探索部107によって検出された瞳孔中心の座標を用いて強膜平均輝度を算出し、強膜平均輝度記憶部603へ出力する。
強膜平均輝度記憶部603は、強膜平均輝度算出部602で算出された強膜平均輝度を、当該強膜平均輝度の算出に用いられたターゲット画像の撮像時刻と対応付けて記憶する。
以上の構成を有する瞳孔検出装置600の動作について説明する。図10は、瞳孔検出装置600の動作説明に供するフロー図である。
ステップS701で、周辺状態評価部601は、基準輝度として、検出瞳孔画像に基づいて直近に算出された強膜平均輝度を用いて、輝度評価値と、当該輝度評価値の算出された放射方向と基準方向とのなす角度との対応関係を算出する。
ステップS702で、強膜平均輝度算出部602は、ターゲット画像、ステップS205で算出した角膜反射画像、並びに、ステップS209で算出した瞳孔中心及び検出瞳孔直径から、ターゲット画像上の強膜平均輝度を算出する。
具体的には、目領域内において、角膜反射画像以上の輝度を持つ画素と、瞳孔中心を中心とし且つ検出瞳孔直径を直径とする円内に属する画素とを除いた、画素の平均輝度を強膜平均輝度とする。
ステップS703で、強膜平均輝度記憶部603は、ステップS702で算出した強膜平均輝度を、当該強膜平均輝度の算出に用いられたターゲット画像の撮像時刻と対応付けて記憶する。
以上のように本実施の形態2によれば、瞳孔検出装置600において、周辺状態評価部601が、検出瞳孔画像に基づいて直近に算出された強膜平均輝度を基準輝度として、輝度評価値を算出する。
こうすることで、瞳孔検出精度を向上させることができる。
[実施の形態3]
実施の形態3では、瞳孔探索処理において設定される直径候補を、照度に応じて調整する。
図11は、本発明の実施の形態3に係る瞳孔検出装置800の構成を示すブロック図である。図11において、瞳孔検出装置800は、照度計測部801と、照明状態記憶部802と、照明状態推定部803と、瞳孔探索部804とを有する。
照度計測部801は、ターゲット画像の撮影時における照度を計測し、照明状態記憶部802及び照明状態推定部803へ出力する。
照明状態記憶部802は、照度計測部801から受け取る照度を、撮影時刻と対応付けて記憶する。
照明状態推定部803は、照度計測部801から受け取る第1の照度と、照明状態記憶部802に記憶されている、第1の照度の直前に計測された第2の照度とを比較し、比較結果を瞳孔探索部804へ出力する。
瞳孔探索部804は、実施の形態1の瞳孔探索部107と同様に、瞳孔中心直線算出部106で特定された瞳孔中心直線と、上記した推定瞳孔直径を含む直径候補群とに基づいて瞳孔画像領域候補を順次設定し、瞳孔画像領域候補内の輝度状態に基づいて瞳孔画像領域候補群の内から瞳孔画像領域(つまり、最も瞳孔画像領域らしい領域)を検出することにより、瞳孔画像領域を探索する。
ただし、瞳孔探索部804は、照明状態推定部803から受け取る比較結果に関する情報に基づいて、上記した直径候補を調整する。
具体的には、瞳孔探索部804は、第1の照度が第2の照度よりも低い場合(つまり、今回の照度が前回の照度よりも低い場合)には、直径候補を大きくする一方、逆の場合には、直径候補を小さくする。
以上の構成を有する瞳孔検出装置800の動作について説明する。図12は、瞳孔検出装置800の動作説明に供するフロー図である。
ステップS901で、照度計測部801は、撮影環境の照度を計測する。
ステップS902で、照明状態記憶部802は、ステップS901で計測した照度をターゲット画像の撮像時刻と対応付けて記憶する。
ステップS903で、瞳孔探索部804は、照明状態推定部803から受け取る比較結果に関する情報に基づいて直径候補を調整し、瞳孔中心直線算出部106で特定された瞳孔中心直線と、調整された直径候補とに基づいて瞳孔画像領域候補を順次設定し、瞳孔画像領域候補内の輝度状態に基づいて瞳孔画像領域候補群の内から瞳孔画像領域を検出することにより、瞳孔画像領域を探索する。
以上のように本実施の形態によれば、瞳孔検出装置800において、瞳孔探索部804が、ターゲット画像の撮影時の照度に基づいて、直径候補を調整する。
こうすることで、ターゲット画像の撮影時の瞳孔状態を反映させた直径候補を設定することができるので、瞳孔検出に掛かる時間を短縮することができる。
[実施の形態4]
実施の形態4は、輝度評価値と、当該輝度評価値の算出された放射方向と基準方向とのなす角度との対応関係から、瞳孔中心直線を特定する方法のバリエーションに関する。
図13は、本発明の実施の形態4に係る瞳孔検出装置1000の構成を示すブロック図である。図13において、瞳孔検出装置1000は、瞳孔中心直線算出部1001を有する。
瞳孔中心直線算出部1001は、周辺状態評価部105で算出された輝度評価値に基づいて、瞳孔中心直線を特定する。具体的には、瞳孔中心直線算出部1001は、所定の角度範囲を有する平均算出範囲を、その基準角度をずらしながら順次設定し、各平均算出範囲内に属する角度に対して、上記した対応関係で対応付けられている輝度評価値の平均値を算出する。ここで、平均算出範囲は、例えば、基準角度を中心として±3度程度である。そして、瞳孔中心直線算出部1001は、平均値が最大となる平均算出範囲の基準角度に対応する線分を瞳孔中心直線として特定する。
こうして、所定の角度範囲を有する平均算出範囲で輝度評価値の平均値を算出することにより、基準角度だけでなくその周辺範囲の状況も考慮された評価値を得ることができる。
[実施の形態5]
実施の形態5は、実施の形態4と同様に、輝度評価値と、当該輝度評価値の算出された放射方向と基準方向とのなす角度との対応関係から、瞳孔中心直線を特定する方法のバリエーションに関する。
図14は、本発明の実施の形態4に係る瞳孔検出装置1100の構成を示すブロック図である。図14において、瞳孔検出装置1100は、瞳孔中心直線算出部1101を有する。
瞳孔中心直線算出部1101は、周辺状態評価部105で算出された輝度評価値に基づいて、瞳孔中心直線を特定する。具体的には、瞳孔中心直線算出部1101は、上記した対応関係において、任意の角度を中心とし所定の角度幅を有する角度範囲であって、輝度評価値がその中心を基準として対称となる複数の角度範囲の内、中心の輝度評価値が最大となる角度範囲の中心角度に対応する線分を瞳孔中心直線として特定する。すなわち、瞳孔中心直線算出部1101は、輝度評価値の分布が周辺で対称になる複数の角度の内、輝度評価値が最大となる角度に対応する線分を瞳孔中心直線として特定する。
詳細には、瞳孔中心直線算出部1101は、上記した対応関係を表す曲線を角度で微分し、微分値の正負が切り替わる角度を抽出する。そして、瞳孔中心直線算出部1101は、抽出した角度群の内、最大の輝度評価値を持つ角度に対応する線分を瞳孔中心直線として特定する。
以上のような瞳孔中心直線の特定方法によれば、図15における、ピークP1201は除外される一方、ピークP1202が選択されることになる。
ここで、瞳孔は略円形であるので、瞳孔中心を通る直線に対して線対称の形状をしている。そのため、輝度評価値も、瞳孔中心直線を中心に対称な分布をとることになる。上記したように、この特性を利用して瞳孔中心直線を特定することにより、画像のノイズ、又は、まつげなどの誤検出要因によって、瞳孔中心を通る直線の角度以外の角度が最大の輝度評価値を持つことによる誤検出を軽減することができる。
[実施の形態6]
実施の形態6は、瞳孔探索処理のバリエーションに関する。
図16は、本発明の実施の形態6に係る瞳孔検出装置1300の構成を示すブロック図である。図16において、瞳孔検出装置1300は、瞳孔探索部1301を有する。
瞳孔探索部1301は、瞳孔中心直線上の輝度状態に基づいて、瞳孔画像を探索する。具体的には、瞳孔探索部1301は、角膜反射像検出部102で作成された画像領域の輝度分布から、瞳孔中心直線上の各点における輝度勾配(角膜反射画像の中心から離れる方向での輝度勾配)を算出し、輝度勾配が最も大きい点を瞳孔の輪郭上の点(つまり、瞳孔輪郭点)として選択する。そして、瞳孔探索部1301は、瞳孔中心直線上で、瞳孔輪郭点から角膜反射画像の中心に向けて、推定瞳孔直径の半分(つまり、推定瞳孔半径)だけ離れた点を瞳孔中心として検出する。
すなわち、輝度に関しては、角膜反射画像、角膜画像、瞳孔画像の順番で低くなる。このため、角膜反射画像の中心から離れる方向での輝度勾配を算出すると、図17に示すように、角膜反射画像と瞳孔画像との境界で輝度勾配が低くなり(つまり、輝度勾配がマイナスとなり)、瞳孔画像と角膜(角膜反射画像部分を除く)との境界で輝度勾配が最も高くなる。従って、上記したように、輝度勾配が最も大きい点を選択することにより、瞳孔輪郭点を特定することができ、この瞳孔輪郭点から瞳孔中心を特定することができる。
[実施の形態7]
実施の形態7は、実施の形態6と同様に、瞳孔探索処理のバリエーションに関する。実施の形態7では、瞳孔探索処理に分離度フィルタが用いられる。
図18は、本発明の実施の形態7に係る瞳孔検出装置1400の構成を示すブロック図である。図18において、瞳孔検出装置1400は、瞳孔探索部1401を有する。
瞳孔探索部1401は、瞳孔中心直線の周辺における輝度状態に基づいて、瞳孔画像を探索する。具体的には、瞳孔探索部1401は、分離度フィルタの基準点を瞳孔中心直線上に合わせた状態で分離度フィルタを順次移動させ、基準点の位置する各ポイントで分離度ηを算出し、分離度ηの最も大きいポイントを瞳孔中心として検出する。
ここで、分離度フィルタは、図19に示すように、推定瞳孔直径を直径とする円状の領域1と、その周辺領域である領域2とから構成される。また、分離度フィルタは、次の式(3)によって表される。
Figure 0005529660
式(3)において、n、n、Nは、それぞれ領域1、領域2、領域全体(つまり、領域1+領域2)の画素数を表し、σは、領域全体の全分散値を表し、σは、領域1と領域2との級間分散値を表す。また、Pは、位置iの輝度値を表し、P、P、Pはそれぞれ領域1、領域2、領域全体の平均輝度値を表す。ただし、領域1又は領域2内に角膜反射画像が存在する場合には、領域1又は領域2から角膜反射画像の部分を除いて、分離度ηを算出する。
すなわち、分離度ηの値が大きい程、領域1及び領域2のそれぞれにおける輝度が均一であり、且つ、領域1と領域2との輝度差が大きい傾向を表す。そのため、領域1が瞳孔画像と一致し、且つ、領域2が虹彩画像(つまり、瞳孔画像の周辺の画像領域)と一致するときに、分離度ηの値が最大となる。これは、瞳孔画像の輝度は低く、虹彩の輝度が高いためである。
従って、上記したように、分離度フィルタの基準点を瞳孔中心直線上に合わせた状態で分離度フィルタを順次移動させ、基準点の位置する各ポイントで分離度ηを算出し、分離度ηの最も大きいポイントを特定することにより、瞳孔中心を特定することができる。
なお、上記各実施の形態では、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はソフトウェアで実現することも可能である。
また、上記各実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
上記各実施の形態で説明した瞳孔検出装置は、パーソナルコンピュータ、OA機器、携帯電話などの情報端末、又は、自動車、飛行機、船、電車などの移動手段に搭載される情報提供装置に適用して有用である。また、監視装置、警報装置、ロボット、映像音響再生装置などにも適用することができる。
本発明の瞳孔検出装置及び瞳孔検出方法は、角膜反射像によって瞳孔の大部分が隠されてしまっている場合でも、角膜反射像の情報を積極的に利用することにより、瞳孔を安定して検出することができるものとして有用である。
100,600,800,1000,1100,1300,1400 瞳孔検出装置
101 目領域画像取得部
102 角膜反射像検出部
103 瞳孔状態予測部
104 瞳孔状態記憶部
105,601 周辺状態評価部
106,1001,1101 瞳孔中心直線算出部
107,804,1301,1401 瞳孔探索部
111 画像入力部
112 目領域検出部
121 顔検出部
122 顔部品検出部
123 目領域決定部
602 強膜平均輝度算出部
603 強膜平均輝度記憶部
801 照度計測部
802 照明状態記憶部
803 照明状態推定部

Claims (11)

  1. 目領域画像内の瞳孔画像を検出する瞳孔検出装置であって、
    前記目領域画像の高輝度画像領域である角膜反射画像を検出する第1の検出手段と、
    前記角膜反射画像内の基準点を一端とし且つ所定の長さを持つ複数の線分を設定し、各線分における各画素の輝度及び基準輝度に基づいて輝度評価値を算出する評価値算出手段と、
    前記輝度評価値に基づいて、前記複数の線分の中から前記瞳孔画像の中心を通る瞳孔中心直線を特定する特定手段と、
    前記瞳孔中心直線の周辺における輝度状態、又は、前記瞳孔中心直線上の輝度状態に基づいて、前記瞳孔画像を検出する第2の検出手段と、
    を具備する瞳孔検出装置。
  2. 前記評価値算出手段は、前記各線分について、前記各画素の輝度と前記基準輝度とを比較し、前記基準輝度よりも低い輝度を持つ画素を抽出し、抽出された全ての画素についての輝度と前記基準輝度との差の総和を、前記輝度評価値として算出する、
    請求項1に記載の瞳孔検出装置。
  3. 前記特定手段は、前記輝度評価値の最も大きい線分を、前記瞳孔中心直線として特定する、
    請求項2に記載の瞳孔検出装置。
  4. 前記第2の検出手段は、前記瞳孔中心直線上に中心が存在する瞳孔画像領域候補を順次設定し、設定された各瞳孔画像領域候補内の画素群の中で前記基準輝度よりも輝度の低い画素群の平均輝度に基づいて、前記瞳孔画像を検出する、
    請求項1乃至3のいずれかに記載の瞳孔検出装置。
  5. 前記第2の検出手段によって検出された前記瞳孔画像の径に基づいて、前記瞳孔画像の外に存在する強膜の輝度を算出する強膜輝度算出手段、をさらに具備し、
    前記評価値算出手段は、前記強膜輝度算出手段によって直近に算出された前記強膜の輝度を前記基準輝度とする、
    請求項1乃至4のいずれかに記載の瞳孔検出装置。
  6. 前記第2の検出手段は、照度に応じて、前記設定される瞳孔画像領域候補の径を調整する、
    請求項4に記載の瞳孔検出装置。
  7. 前記特定手段は、所定の角度範囲を有する平均算出範囲を順次ずらし、各平均算出範囲で算出された輝度評価値の平均値に基づいて、前記瞳孔中心直線を特定する、
    請求項2に記載の瞳孔検出装置。
  8. 前記特定手段は、各線分に関して算出された輝度評価値と、基準方向と各線分との為す角度との対応関係において、輝度評価値の分布が周辺で対称になる複数の角度の内、輝度評価値が最大となる角度に対応する線分を、前記瞳孔中心直線として特定する、
    請求項2に記載の瞳孔検出装置。
  9. 前記第2の検出手段は、前記瞳孔中心直線上の輝度勾配に基づいて前記瞳孔画像の輪郭点を検出し、前記輪郭点から瞳孔半径だけ離れた点を前記瞳孔画像の中心として検出する、
    請求項1乃至3のいずれかに記載の瞳孔検出装置。
  10. 前記第2の検出手段は、前記瞳孔中心直線上の複数のポイントに分離度フィルタを設定し、各ポイントで算出された分離度に基づいて、前記瞳孔画像を検出する、
    請求項1乃至3のいずれかに記載の瞳孔検出装置。
  11. 目領域画像内の瞳孔画像を検出する瞳孔検出方法であって、
    前記目領域画像の高輝度画像領域である角膜反射画像を検出し、
    前記角膜反射画像内の基準点を一端とし且つ所定の長さを持つ複数の線分を設定し、
    各線分における各画素の輝度及び基準輝度に基づいて輝度評価値を算出し、
    前記輝度評価値に基づいて、前記複数の線分の中から前記瞳孔画像の中心を通る瞳孔中心直線を特定し、
    前記瞳孔中心直線の周辺における輝度状態、又は、前記瞳孔中心直線上の輝度状態に基づいて、前記瞳孔画像を検出する、
    瞳孔検出方法。
JP2010162964A 2010-07-20 2010-07-20 瞳孔検出装置及び瞳孔検出方法 Active JP5529660B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010162964A JP5529660B2 (ja) 2010-07-20 2010-07-20 瞳孔検出装置及び瞳孔検出方法
PCT/JP2011/003411 WO2012011221A1 (ja) 2010-07-20 2011-06-15 瞳孔検出装置及び瞳孔検出方法
US13/496,713 US8649583B2 (en) 2010-07-20 2011-06-15 Pupil detection device and pupil detection method
EP11809400.2A EP2596746B1 (en) 2010-07-20 2011-06-15 Pupil detection device and pupil detection method
CN201180003893.XA CN102510734B (zh) 2010-07-20 2011-06-15 瞳孔检测装置及瞳孔检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010162964A JP5529660B2 (ja) 2010-07-20 2010-07-20 瞳孔検出装置及び瞳孔検出方法

Publications (2)

Publication Number Publication Date
JP2012024154A JP2012024154A (ja) 2012-02-09
JP5529660B2 true JP5529660B2 (ja) 2014-06-25

Family

ID=45496659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010162964A Active JP5529660B2 (ja) 2010-07-20 2010-07-20 瞳孔検出装置及び瞳孔検出方法

Country Status (5)

Country Link
US (1) US8649583B2 (ja)
EP (1) EP2596746B1 (ja)
JP (1) JP5529660B2 (ja)
CN (1) CN102510734B (ja)
WO (1) WO2012011221A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10086268B2 (en) 2014-11-19 2018-10-02 Sharp Kabushiki Kaisha Eyeball movement detection device

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2812775A1 (en) * 2012-02-06 2014-12-17 Sony Mobile Communications AB Gaze tracking with projector
JP2013215549A (ja) * 2012-03-16 2013-10-24 Fujitsu Ltd 画像処理装置、画像処理プログラムおよび画像処理方法
JP6045171B2 (ja) * 2012-03-30 2016-12-14 キヤノン株式会社 眼科システム
JP6140478B2 (ja) * 2013-03-04 2017-05-31 株式会社メガチップス 物体検出装置、プログラムおよび集積回路
JP6157165B2 (ja) * 2013-03-22 2017-07-05 キヤノン株式会社 視線検出装置及び撮像装置
JP6322986B2 (ja) 2013-12-09 2018-05-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2016028669A (ja) 2014-07-23 2016-03-03 株式会社Jvcケンウッド 瞳孔検出装置、および瞳孔検出方法
CN106793944A (zh) * 2014-08-29 2017-05-31 阿尔卑斯电气株式会社 视线检测装置
KR101619656B1 (ko) * 2014-12-03 2016-05-10 현대자동차주식회사 시선추적장치 및 그의 동공검출방법
US9704038B2 (en) * 2015-01-07 2017-07-11 Microsoft Technology Licensing, Llc Eye tracking
JP6536324B2 (ja) * 2015-09-30 2019-07-03 富士通株式会社 視線検出システム、視線検出方法および視線検出プログラム
JP2017099717A (ja) * 2015-12-02 2017-06-08 株式会社ニデック 眼科撮影装置
CN105310646B (zh) * 2015-12-09 2017-09-22 博奥颐和健康科学技术(北京)有限公司 基于白睛无影成像的人体健康状况在体分析系统
US10713760B2 (en) * 2015-12-31 2020-07-14 Thomson Licensing Configuration for rendering virtual reality with an adaptive focal plane
JP2017182739A (ja) 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP2017213191A (ja) * 2016-05-31 2017-12-07 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム
KR101854991B1 (ko) 2016-09-12 2018-05-08 에스테 로우더, 인코포레이티드 눈 흰자위와 동공의 색을 기반으로 한 디지털 이미지 색 보정 방법 및 시스템
JP6930223B2 (ja) 2017-05-31 2021-09-01 富士通株式会社 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
CN110996759B (zh) * 2017-08-07 2022-09-09 兴和株式会社 泪液状态评价方法、计算机程序、装置
CN107798316B (zh) * 2017-11-30 2021-05-14 永目堂股份有限公司 一种基于瞳孔特征判断眼睛状态的方法
JP6717330B2 (ja) 2018-03-15 2020-07-01 オムロン株式会社 視線検出装置、該視線検出装置の制御方法、角膜反射像位置の検出方法、及びコンピュータプログラム
JP7147292B2 (ja) 2018-06-29 2022-10-05 株式会社デンソー 勾配方向算出装置
DE112020006447T5 (de) 2020-01-08 2022-10-27 Mitsubishi Electric Corporation Pupillenerkennungsvorrichtung, Sichtlinienerkennungsvorrichtung, Insassenüberwachungssystem und Pupillenerkennungsverfahren
CN111429428B (zh) * 2020-03-20 2022-05-13 长安大学 一种基于外形特征的异常磨斑图像的检测方法
CN112434675B (zh) * 2021-01-26 2021-04-09 西南石油大学 一种全局自适应优化参数的瞳孔定位方法
CN113397477B (zh) * 2021-06-08 2023-02-21 山东第一医科大学附属肿瘤医院(山东省肿瘤防治研究院、山东省肿瘤医院) 一种瞳孔监测方法及系统

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH024313A (ja) * 1988-06-13 1990-01-09 Nippon Telegr & Teleph Corp <Ntt> 注視位置検出装置
JP2754663B2 (ja) 1989-02-14 1998-05-20 キヤノン株式会社 視線検出方法及び視線検出装置
JP2500726B2 (ja) * 1992-06-12 1996-05-29 日本電気株式会社 上まぶた領域、目頭・目尻・上まぶた領域及び目の構造の検出方法及び装置
JP3297481B2 (ja) * 1992-10-29 2002-07-02 キヤノン株式会社 視線検出装置
JPH06230271A (ja) * 1993-02-06 1994-08-19 Nikon Corp 視線検出装置
JPH07248216A (ja) 1994-03-11 1995-09-26 Nissan Motor Co Ltd 車両用視線方向計測装置
JP3520618B2 (ja) * 1995-08-16 2004-04-19 日産自動車株式会社 車両用視線方向計測装置
JP3735947B2 (ja) * 1996-06-26 2006-01-18 日産自動車株式会社 視線入力装置
SE524003C2 (sv) * 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
JP2005018405A (ja) * 2003-06-26 2005-01-20 Matsushita Electric Ind Co Ltd 目画像撮像装置
JP3848953B2 (ja) * 2003-07-04 2006-11-22 松下電器産業株式会社 生体眼判定方法および生体眼判定装置
JP4527088B2 (ja) * 2003-07-04 2010-08-18 パナソニック株式会社 生体眼判定方法および生体眼判定装置
JP4987276B2 (ja) * 2005-10-11 2012-07-25 株式会社ニデック 眼科装置
EP2042079B1 (en) * 2006-07-14 2010-10-20 Panasonic Corporation Visual axis direction detection device and visual line direction detection method
JP4420002B2 (ja) * 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
US8041118B2 (en) * 2007-02-16 2011-10-18 The Boeing Company Pattern recognition filters for digital images
JP5145555B2 (ja) * 2007-03-30 2013-02-20 国立大学法人静岡大学 瞳孔検出方法
JP2008246143A (ja) * 2007-03-30 2008-10-16 Hamamatsu Photonics Kk 瞳孔測定装置
JP2009254525A (ja) * 2008-04-15 2009-11-05 Calsonic Kansei Corp 瞳孔検知方法及び装置
CN101625263B (zh) * 2008-07-07 2013-03-27 杭州浙大三色仪器有限公司 亮度测量装置
EP2338416B1 (en) * 2008-09-26 2019-02-27 Panasonic Intellectual Property Corporation of America Line-of-sight direction determination device and line-of-sight direction determination method
JP2010162964A (ja) 2009-01-13 2010-07-29 Toshio Sato 自転車用ペダルのカント調整機構。
JP5362405B2 (ja) * 2009-03-25 2013-12-11 安川情報システム株式会社 瞳孔計測装置、瞳孔計測方法ならびに瞳孔計測プログラム
WO2011158463A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 外光映り込み判定装置、視線検出装置及び外光映り込み判定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10086268B2 (en) 2014-11-19 2018-10-02 Sharp Kabushiki Kaisha Eyeball movement detection device

Also Published As

Publication number Publication date
US8649583B2 (en) 2014-02-11
EP2596746A1 (en) 2013-05-29
CN102510734B (zh) 2015-05-13
CN102510734A (zh) 2012-06-20
WO2012011221A1 (ja) 2012-01-26
US20120177266A1 (en) 2012-07-12
EP2596746B1 (en) 2019-11-20
EP2596746A4 (en) 2017-08-30
JP2012024154A (ja) 2012-02-09

Similar Documents

Publication Publication Date Title
JP5529660B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP5538160B2 (ja) 瞳孔検出装置及び瞳孔検出方法
CN109716268B (zh) 眼部和头部跟踪
CN106598221B (zh) 基于眼部关键点检测的3d视线方向估计方法
JP5694161B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP5661043B2 (ja) 外光映り込み判定装置、視線検出装置及び外光映り込み判定方法
WO2018000020A1 (en) Systems and methods for performing eye gaze tracking
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
US10552675B2 (en) Method and apparatus for eye detection from glints
KR101706992B1 (ko) 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체
JP5001930B2 (ja) 動作認識装置及び方法
WO2015027289A1 (en) Method and apparatus for eye detection from glints
JP2003150942A (ja) 目位置追跡方法
US11163994B2 (en) Method and device for determining iris recognition image, terminal apparatus, and storage medium
JP6870474B2 (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
JP5995217B2 (ja) 瞳孔部分を近似する楕円の検出を行う方法
JP6452236B2 (ja) 眼球識別装置及び眼球識別方法
JP2002366958A (ja) 画像認識方法および画像認識装置
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
Bashir et al. Video surveillance for biometrics: long-range multi-biometric system
JP6468755B2 (ja) 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム
JP2019146087A (ja) 情報処理装置、撮像装置の制御方法、コンピュータプログラム、及び記憶媒体
Valenti et al. Simple and efficient visual gaze estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140417

R151 Written notification of patent or utility model registration

Ref document number: 5529660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350