JPWO2016027627A1 - 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム - Google Patents
角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム Download PDFInfo
- Publication number
- JPWO2016027627A1 JPWO2016027627A1 JP2016543883A JP2016543883A JPWO2016027627A1 JP WO2016027627 A1 JPWO2016027627 A1 JP WO2016027627A1 JP 2016543883 A JP2016543883 A JP 2016543883A JP 2016543883 A JP2016543883 A JP 2016543883A JP WO2016027627 A1 JPWO2016027627 A1 JP WO2016027627A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- pupil
- corneal reflection
- reflection position
- corneal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000001747 pupil Anatomy 0.000 title claims abstract description 468
- 238000001514 detection method Methods 0.000 title claims description 88
- 238000000034 method Methods 0.000 title claims description 54
- 239000013598 vector Substances 0.000 claims abstract description 55
- 238000004364 calculation method Methods 0.000 claims description 107
- 230000008569 process Effects 0.000 claims description 12
- 210000004087 cornea Anatomy 0.000 claims description 10
- 238000005286 illumination Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 description 45
- 238000012937 correction Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 16
- 230000001133 acceleration Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 210000001525 retina Anatomy 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000036461 convulsion Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 206010041349 Somnolence Diseases 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Geometry (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
Description
<検出システムの構成>
図1〜4を用いて、実施形態に係る検出システム1の構成を説明する。検出システム1は、対象者の瞳孔を検出するコンピュータシステムであり、このシステムにより、本実施形態に係る角膜反射位置推定方法および瞳孔検出方法が実施される。対象者とは、瞳孔を検出する対象となる人であり、被験者ともいうことができる。検出システム1、角膜反射位置推定方法、および瞳孔検出方法の利用目的は何ら限定されず、例えば、よそ見運転の検出、運転者の眠気の検出、商品の興味の度合いの調査、コンピュータへのデータ入力などに検出システム1を利用することができる。
次に、図5〜8を用いて、検出システム1の動作について説明するとともに、本実施形態に係る角膜反射位置推定方法および瞳孔検出方法について説明する。
眼に入った光は網膜で乱反射し、反射光のうち瞳孔を通り抜けた光は強い指向性をもって光源へ戻る性質がある。カメラの開口部近くにある光源が発光した時にカメラを露光させると、網膜で反射した光の一部がその開口部に入るため、瞳孔が瞳孔周辺よりも明るく写った画像を取得することができる。この画像が明瞳孔画像である。これに対して、カメラの開口部から離れた位置にある光源が発光した時にカメラを露光させると、眼から戻ってきた光はカメラの開口部にほとんど戻らないため、瞳孔が暗く写った画像を取得することができる。この画像が暗瞳孔画像である。また、透過率が高い波長の光を眼に照射すると、網膜での光の反射が多くなるので瞳孔が明るく写り、透過率が低い波長の光を眼に照射すると、網膜での光の反射が少なくなるので瞳孔が暗く写る。カメラのどの光源も点灯させることなくカメラを露光させて得られる画像が無照明画像であり、この無照明画像も瞳孔画像の一種である。
算出部22は、画像取得部21から入力された瞳孔画像に基づいて、対象者Aの片眼または両眼の瞳孔中心を求める。
図6に示す、4枚の画像(明瞳孔画像→無照明画像→暗瞳孔画像→無照明画像)を取得する処理を1サイクルの処理とする。サイクルの番号を0以上の整数で表すとすると、nサイクル目では、4n番目の画像は明瞳孔画像であり、(4n+1)番目の画像は無照明画像であり、(4n+2)番目の画像は暗瞳孔画像であり、(4n+3)番目の画像は無照明画像である。
X4n+3=X4n+2+1/2(X4n+2−X4n) …(1)
この式(1)は、(4n+3)番目の画像(無照明画像)の直前に得られた明瞳孔画像および暗瞳孔画像の間の角膜反射位置の動き(移動ベクトル(X4n+2−X4n))が当該(4n+3)番目の画像までそのまま続くと仮定して、処理対象画像における角膜反射位置を推定することを意味する。なお、本実施形態における「移動ベクトル」とは、角膜反射位置の移動の方向および量を示すベクトルである。また、本実施形態では、移動ベクトルの計算に用いる基準位置は角膜反射位置である。
X4(n+1)=X4n+2+(X4n+2−X4n) …(2)
この式(2)は、角膜反射の動き(移動ベクトル(X4n+2−X4n))が{4(n+1)}番目の画像の画像までそのまま続くと仮定して、処理対象画像における角膜反射位置を推定することを意味する。
X4(n+1)+1=X4(n+1)+1/2(X4(n+1)−X4n+2) …(3)
X4(n+1)+2=X4(n+1)+(X4(n+1)−X4n+2) …(4)
上記式(1)〜(4)を示した説明は画像の取得間隔が一定であることを前提とした。しかし、実際には画像の取得間隔が区々である状況が生じ得る。例えば、画像処理に多くの時間が掛かったり、画像処理装置20のマルチタスクOSが他の処理をして画像処理のタイミングが遅れたりするなどの理由により、所定のタイミングで(例えば約4.2ms間隔で)画像を取得することができず(画像の取りこぼし)、何回目かの再試行でやっと所望の画像を取得する状況が起こり得る。この場合には画像の取得間隔が変わり得る(例えば、その間隔が約8.4(=4.2×2)msになったり約12.6(=4.2×3)msになったりする)。一方、画像処理装置20がある画像を処理し終えた段階で次の画像取得命令をカメラ10に送る外部同期を採用した場合には画像の取りこぼしは起こらないが、この場合には画像処理装置20内のハードウェアの状況(例えばCPUの稼働状況)により画像の取得間隔が不規則になり得る。
次に、図9を用いて、画像処理装置20を実現するための検出プログラム(角膜反射位置推定プログラムおよび瞳孔検出プログラム)P1を説明する。
第1実施形態では、画像処理装置20が1サイクルで4枚の画像(明瞳孔画像→無照明画像→暗瞳孔画像→無照明画像)を取得したが、画像の取得方法はこれに限定されない。本実施形態では、画像処理装置20は図10に示すように3枚毎に明瞳孔画像(または暗瞳孔画像)を取得するように明瞳孔画像と暗瞳孔画像との間に無照明画像を取得してもよい。この場合には、算出部22は3n番目に取得した明瞳孔画像と(3n+1)番目に取得した無照明画像との差分を取ることで差分明瞳孔画像を取得し、その無照明画像と(3n+2)番目に取得した暗瞳孔画像との差分を取ることで差分暗瞳孔画像を取得する。そして、算出部22はこれらの差分明瞳孔画像および差分暗瞳孔画像の差分を取ることで差分画像を取得する。算出部22は、連続して取得した暗瞳孔画像および明瞳孔画像(例えば、(3n+2)番目に取得した暗瞳孔画像と3(n+1)番目に取得した明瞳孔画像)の差分を取ることで更なる差分画像を取得してもよい。
X3(n+1)=X3n+2+1/2(X3n+2−X3n) …(9)
X3(n+1)+1=X3n+2+(X3n+2−X3n) …(10)
X3(n+1)+2=X(3n+1)+2(X3(n+1)−X3n+2) …(11)
第1および第2実施形態では画像上での座標、すなわち2次元座標に対して等速度モデルを適用したが、算出部22は3次元座標に対して等速度モデルを適用してもよい。3次元座標に対して等速度モデルを適用して角膜反射位置を推定することで、撮像平面と交差する方向に瞳孔が移動する場合にも角膜反射位置を正確に推定することができる。
(参考文献1)国際公開第2012/077713号パンフレット
(参考文献2)国際公開第2012/020760号パンフレット
X´4n+3=X´4n+2+1/2(X´4n+2−X´4n) …(15)
X4n+3=(x(f/z),y(f/z)) …(16)
算出部22は、左カメラ10Lから得られた画像と右カメラ10Rから得られた画像のそれぞれに対してその2次元座標への変換を実行する。
X´4(n+1)=X´4n+2+(X´4n+2−X´4n) …(17)
X´4(n+1)+1=X4´(n+1)+1/2(X4´(n+1)−X´4n+2) …(18)
X´4(n+1)+2=X4´(n+1)+(X4´(n+1)−X´4n+2) …(19)
第1実施形態および第2実施形態では算出部22は等速度モデルを用いて角膜反射位置を推定したが、算出部22は等加速度モデルを用いてその推定を実行してもよい。算出部22は、角膜反射位置を推定しようとする無照明画像の一つ前、二つ前、および3つ前に得た瞳孔画像(明瞳孔画像または暗瞳孔画像)における角膜反射位置を用いる。現在の画像、一つ前の画像、二つ前の画像、および三つ前の画像における角膜反射位置の2次元ベクトルをそれぞれx0,x−1,x−2,x−3で表すとする。また、各ベクトルが得られた時刻をそれぞれt0,t−1,t−2,t−3で表すとする。すると、現在の画像における座標と一つ前の画像における座標とから現在の速度v0が求まり、一つ前の画像における座標と二つ前の画像における座標とから一つ前の速度v−1が求まり、二つ前の画像における座標と三つ前の画像における座標とから二つ前の速度v−2が求まる。これらの速度は下記式(20)〜(22)で得られる。
v0=(x0−x−1)/(t0−t−1) …(20)
v−1=(x−1−x−2)/(t−1−t−2) …(21)
v−2=(x−2−x−3)/(t−2−t−3) …(22)
ここで、t0〜t−3はそれぞれの画像の取得時刻である。
a0=(v0−v−1)/(t0−t−1) …(23)
a−1=(v−1−v−2)/(t−1−t−2) …(24)
v4(n+1)=X4(n+1)−X4n+2
v4n+2=X4n+2−X4n
である。
算出部22は、上記の手法により求めた瞳孔中心座標および角膜反射位置の相対的な位置関係からおよその視線を検出してもよい。この場合には、検出システム1は視線検出システムとしても機能する。この視線検出を厳密に実施するための方法は、例えば上記の参考文献1,2あるいは下記の参考文献3に記載されている。
(参考文献3)特開2005−185431号公報
算出部22は、上記の手法により求めた瞳孔中心座標を用いて顔姿勢を検出してもよい。この場合には、検出システム1は顔姿勢検出システムとしても機能する。顔姿勢検出の方法そのものは、例えば下記参考文献4に記載されている。
(参考文献4)特開2007−271554号公報
瞳孔を追跡している最中に対象者Aが眼を閉じた場合には画像中に瞳孔および角膜反射が写らないので、算出部22は瞳孔を検出できず、瞳孔の追跡に失敗してしまう。この場合には、算出部22は無照明画像を用いずに、明瞳孔画像および暗瞳孔画像のペアに対して位置補正をすることなく当該ペアから差分画像を生成し、その差分画像からの瞳孔検出を試みる。算出部22は瞳孔検出に成功するまでこの試行を繰り返す。そして、瞳孔検出に成功すると、今度は上記実施形態のうちのいずれかの処理、すなわち無照明画像を用いた角膜反射位置の推定を含む瞳孔検出を再開する。
なお、等速度モデルに代えてカルマンフィルタを用いる場合には線形カルマンフィルタを用いればよく、等加速度モデルに代えてカルマンフィルタを用いる場合には拡張カルマンフィルタを用いればよい。
Claims (17)
- 光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得部であって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得部と、
前記複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、前記無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて推定する推定部と
を備える角膜反射位置推定システム。 - 前記推定部が、前記移動ベクトルと、前記画像取得部が個々の画像を取得する際の個々の時間間隔とに基づいて、前記無照明画像における角膜反射位置を推定する、
請求項1に記載の角膜反射位置推定システム。 - 前記複数の瞳孔画像が二つの瞳孔画像であり、
前記推定部が、前記二つの瞳孔画像のそれぞれにおける前記基準位置を算出し、二つの該基準位置に基づいて前記移動ベクトルを算出し、前記無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて等速度モデルもしくは線形カルマンフィルタにより推定する、
請求項1または2に記載の角膜反射位置推定システム。 - 前記複数の瞳孔画像が三つの瞳孔画像であり、
前記推定部が、前記三つの瞳孔画像のそれぞれにおける前記基準位置を算出し、三つの該基準位置に基づいて二つの移動ベクトルを算出し、前記無照明画像における角膜反射位置を該二つの移動ベクトルに少なくとも基づいて等加速度モデルもしくは拡張カルマンフィルタにより推定する、
請求項1または2に記載の角膜反射位置推定システム。 - 前記画像取得部が、前記無照明画像を取得した後に、前記光源からの光を用いて撮影された一つの更なる瞳孔画像を取得し、
前記推定部が、前記更なる瞳孔画像における角膜反射位置を前記移動ベクトルに少なくとも基づいて推定する、
請求項1〜4のいずれか一項に記載の角膜反射位置推定システム。 - 請求項5に記載の角膜反射位置推定システムにより推定された前記無照明画像における角膜反射位置に基づいて瞳孔位置を算出する瞳孔算出部を備え、
前記複数の瞳孔画像が明瞳孔画像および暗瞳孔画像のうちの一方を含み、前記更なる瞳孔画像が前記明瞳孔画像および前記暗瞳孔画像のうちの他方であり、
前記瞳孔算出部が、前記明瞳孔画像および前記無照明画像からの差分明瞳孔画像の生成と、前記暗瞳孔画像および前記無照明画像からの差分暗瞳孔画像の生成とを前記無照明画像における角膜反射位置に基づいて実行し、該差分明瞳孔画像および該差分暗瞳孔画像から差分画像を生成し、該差分画像に基づいて前記瞳孔位置を算出する、
瞳孔検出システム。 - 前記瞳孔算出部が、前記無照明画像における角膜反射位置に基づく前記瞳孔位置の算出に失敗した場合には、無照明画像を用いることなく、新たに取得された明瞳孔画像および暗瞳孔画像から新たな差分画像を生成し、該新たな差分画像に基づいて前記瞳孔位置を算出し、
前記新たな差分画像に基づいて前記瞳孔位置が得られた場合には、前記画像取得部および前記推定部による処理が実行され、前記瞳孔算出部が該処理に基づいて推定された新たな無照明画像における角膜反射位置に基づいて瞳孔位置を算出する、
請求項6に記載の瞳孔検出システム。 - 請求項6または7に記載の瞳孔検出システムにより算出された瞳孔位置に基づいて視線を検出する視線検出システム。
- 請求項6または7に記載の瞳孔検出システムにより算出された瞳孔位置と、前記明瞳孔画像または前記暗瞳孔画像を参照して算出された鼻孔位置とに基づいて顔姿勢を検出する顔姿勢検出システム。
- プロセッサを備える角膜反射位置推定システムにより実行される角膜反射位置推定方法であって、
光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得ステップであって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得ステップと、
前記複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、前記無照明画像における角膜反射位置を該移動ベクトルに基づいて推定する推定ステップと
を含む角膜反射位置推定方法。 - 光源を備えるカメラを制御して対象者の眼の画像を連続的に取得する画像取得部であって、該光源からの光を用いて撮影された複数の瞳孔画像を取得した後に、該光源からの光を用いることなく撮影された一つの無照明画像を取得する該画像取得部と、
前記複数の瞳孔画像のそれぞれに対応する角膜反射または角膜球中心の位置を基準位置として算出し、複数の該基準位置に基づいて角膜反射または角膜球中心の移動ベクトルを算出し、前記無照明画像における角膜反射位置を該移動ベクトルに少なくとも基づいて推定する推定部と
してコンピュータを機能させるための角膜反射位置推定プログラム。 - プロセッサを備えるコンピュータシステムにより実行される瞳孔検出方法であって、
請求項10に記載の角膜反射位置推定方法により推定された前記無照明画像における角膜反射位置に基づいて瞳孔位置を算出する瞳孔算出ステップを含み、
前記画像取得ステップでは、前記無照明画像を取得した後に、前記光源からの光を用いて撮影された一つの更なる瞳孔画像を取得し、
前記推定ステップでは、前記更なる瞳孔画像における角膜反射位置を前記移動ベクトルに少なくとも基づいて推定し、
前記複数の瞳孔画像のうち前記無照明画像の直前に得られた瞳孔画像が明瞳孔画像および暗瞳孔画像のうちの一方を含み、前記更なる瞳孔画像が前記明瞳孔画像および前記暗瞳孔画像のうちの他方であり、
前記瞳孔算出ステップでは、前記明瞳孔画像および前記無照明画像からの差分明瞳孔画像の生成と、前記暗瞳孔画像および前記無照明画像からの差分暗瞳孔画像の生成とを前記無照明画像における角膜反射位置に基づいて実行し、該差分明瞳孔画像および該差分暗瞳孔画像から差分画像を生成し、該差分画像に基づいて前記瞳孔位置を算出する、
瞳孔検出方法。 - コンピュータを請求項6または7に記載の瞳孔検出システムとして機能させるための瞳孔検出プログラム。
- 請求項12に記載の瞳孔検出方法により算出された瞳孔位置に基づいて視線を検出する視線検出方法。
- 請求項12に記載の瞳孔検出方法により算出された瞳孔位置と、前記明瞳孔画像または前記暗瞳孔画像を参照して算出された鼻孔位置とに基づいて顔姿勢を検出する顔姿勢検出方法。
- コンピュータを請求項8に記載の視線検出システムとして機能させるための視線検出プログラム。
- コンピュータを請求項9に記載の顔姿勢検出システムとして機能させるための顔姿勢検出プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014169508 | 2014-08-22 | ||
JP2014169508 | 2014-08-22 | ||
PCT/JP2015/071270 WO2016027627A1 (ja) | 2014-08-22 | 2015-07-27 | 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016027627A1 true JPWO2016027627A1 (ja) | 2017-06-08 |
JP6583734B2 JP6583734B2 (ja) | 2019-10-02 |
Family
ID=55350573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016543883A Active JP6583734B2 (ja) | 2014-08-22 | 2015-07-27 | 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10417782B2 (ja) |
EP (1) | EP3185211B1 (ja) |
JP (1) | JP6583734B2 (ja) |
WO (1) | WO2016027627A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102466996B1 (ko) * | 2016-01-06 | 2022-11-14 | 삼성전자주식회사 | 눈 위치 예측 방법 및 장치 |
WO2017154370A1 (ja) * | 2016-03-09 | 2017-09-14 | アルプス電気株式会社 | 視線検出装置および視線検出方法 |
CN107357429B (zh) * | 2017-07-10 | 2020-04-07 | 京东方科技集团股份有限公司 | 用于确定视线的方法、设备和计算机可读存储介质 |
JP2019046141A (ja) | 2017-09-01 | 2019-03-22 | アルパイン株式会社 | 運転者監視装置、運転者監視方法、及びプログラム |
EP3459436A1 (en) * | 2017-09-22 | 2019-03-27 | Smart Eye AB | Image acquisition with reflex reduction |
CN108537111A (zh) * | 2018-02-26 | 2018-09-14 | 阿里巴巴集团控股有限公司 | 一种活体检测的方法、装置及设备 |
SE543240C2 (en) | 2018-12-21 | 2020-10-27 | Tobii Ab | Classification of glints using an eye tracking system |
CN112099615B (zh) * | 2019-06-17 | 2024-02-09 | 北京七鑫易维科技有限公司 | 注视信息确定方法、装置、眼球追踪设备及存储介质 |
SE543455C2 (en) * | 2019-06-28 | 2021-02-23 | Tobii Ab | Method and system for 3d cornea position estimation |
CN112464012B (zh) * | 2020-10-31 | 2022-06-17 | 浙江工业大学 | 可自动筛选照片的景区自动拍照系统及景区自动拍照方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008029702A (ja) * | 2006-07-31 | 2008-02-14 | National Univ Corp Shizuoka Univ | 瞳孔を検出する方法及び装置 |
WO2008120321A1 (ja) * | 2007-03-28 | 2008-10-09 | Fujitsu Limited | 画像処理装置、画像処理方法、画像処理プログラム |
JP2008246004A (ja) * | 2007-03-30 | 2008-10-16 | National Univ Corp Shizuoka Univ | 瞳孔検出方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4517049B2 (ja) | 2003-12-25 | 2010-08-04 | 国立大学法人静岡大学 | 視線検出方法および視線検出装置 |
JP4431749B2 (ja) | 2006-03-31 | 2010-03-17 | 国立大学法人静岡大学 | 顔姿勢検出方法 |
US8371693B2 (en) * | 2010-03-30 | 2013-02-12 | National University Corporation Shizuoka University | Autism diagnosis support apparatus |
JP5915981B2 (ja) * | 2010-08-09 | 2016-05-11 | 国立大学法人静岡大学 | 注視点検出方法及び注視点検出装置 |
JP5644342B2 (ja) * | 2010-10-05 | 2014-12-24 | トヨタ自動車株式会社 | 多気筒内燃機関の制御装置 |
US9329683B2 (en) * | 2010-12-08 | 2016-05-03 | National University Corporation Shizuoka University | Method for detecting point of gaze and device for detecting point of gaze |
JP5923180B2 (ja) | 2012-11-12 | 2016-05-24 | アルプス電気株式会社 | 生体情報計測装置及びそれを用いた入力装置 |
-
2015
- 2015-07-27 EP EP15833722.0A patent/EP3185211B1/en active Active
- 2015-07-27 JP JP2016543883A patent/JP6583734B2/ja active Active
- 2015-07-27 WO PCT/JP2015/071270 patent/WO2016027627A1/ja active Application Filing
- 2015-07-27 US US15/505,781 patent/US10417782B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008029702A (ja) * | 2006-07-31 | 2008-02-14 | National Univ Corp Shizuoka Univ | 瞳孔を検出する方法及び装置 |
WO2008120321A1 (ja) * | 2007-03-28 | 2008-10-09 | Fujitsu Limited | 画像処理装置、画像処理方法、画像処理プログラム |
JP2008246004A (ja) * | 2007-03-30 | 2008-10-16 | National Univ Corp Shizuoka Univ | 瞳孔検出方法 |
Also Published As
Publication number | Publication date |
---|---|
US10417782B2 (en) | 2019-09-17 |
US20170278269A1 (en) | 2017-09-28 |
EP3185211B1 (en) | 2021-06-02 |
WO2016027627A1 (ja) | 2016-02-25 |
EP3185211A1 (en) | 2017-06-28 |
JP6583734B2 (ja) | 2019-10-02 |
EP3185211A4 (en) | 2018-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6583734B2 (ja) | 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム | |
JP7076368B2 (ja) | レンジゲート式デプスカメラ部品 | |
EP3589978B1 (en) | Multi-spectrum illumination-and-sensor module for head tracking, gesture recognition and spatial mapping | |
JP6695503B2 (ja) | 車両の運転者の状態を監視するための方法及びシステム | |
KR101506525B1 (ko) | 주시점 검출 장치, 주시점 검출 방법, 개인 파라미터 산출 장치, 개인 파라미터 산출 방법, 프로그램, 및 컴퓨터 판독 가능한 기록 매체 | |
JP6377863B2 (ja) | 反射マップ表現による奥行きマップ表現の増補 | |
ES2940634T3 (es) | Mapeo de la dirección de la mirada | |
JP2020034919A (ja) | 構造化光を用いた視線追跡 | |
JP2018522348A (ja) | センサーの3次元姿勢を推定する方法及びシステム | |
JP2018511098A (ja) | 複合現実システム | |
US10552675B2 (en) | Method and apparatus for eye detection from glints | |
US10475415B1 (en) | Strobe tracking of head-mounted displays (HMDs) in virtual, augmented, and mixed reality (xR) applications | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP6452235B2 (ja) | 顔検出方法、顔検出装置、及び顔検出プログラム | |
JP6870474B2 (ja) | 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法 | |
US11308321B2 (en) | Method and system for 3D cornea position estimation | |
CN107687818A (zh) | 三维量测方法及三维量测装置 | |
JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
US20230122185A1 (en) | Determining relative position and orientation of cameras using hardware | |
JP6468755B2 (ja) | 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム | |
JP6169446B2 (ja) | 視線検出装置 | |
Fujiyoshi et al. | Inside-out camera for acquiring 3D gaze points | |
US20200089940A1 (en) | Human behavior understanding system and method | |
JP2022131345A (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
JP2006209342A (ja) | 画像処理装置及び画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6583734 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |