[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019091253A - 視線検出装置 - Google Patents

視線検出装置 Download PDF

Info

Publication number
JP2019091253A
JP2019091253A JP2017219750A JP2017219750A JP2019091253A JP 2019091253 A JP2019091253 A JP 2019091253A JP 2017219750 A JP2017219750 A JP 2017219750A JP 2017219750 A JP2017219750 A JP 2017219750A JP 2019091253 A JP2019091253 A JP 2019091253A
Authority
JP
Japan
Prior art keywords
user
attention
gaze
screen
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017219750A
Other languages
English (en)
Inventor
善数 大貫
Yoshikazu Onuki
善数 大貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2017219750A priority Critical patent/JP2019091253A/ja
Priority to US16/161,467 priority patent/US11073910B2/en
Publication of JP2019091253A publication Critical patent/JP2019091253A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】比較的ユーザーの負担が少なく、かつ映像への影響も比較的少ない方法で、ユーザーが注目する表示画面内の位置を特定することのできる視線検出装置を提供する。【解決手段】ユーザーの脳波を測定する脳波測定装置40と、ユーザーの瞳を観測する瞳観測装置30と、表示装置20と、に接続され、表示装置の画面に所定パターンの映像を表示させた際の脳波測定装置40の測定結果を用いて、画面内におけるユーザーの注目位置を特定し、当該注目位置の特定が行われる際の瞳観測装置30の観測結果と、特定された注目位置と、を用いて、ユーザーの視線方向と画面内の位置との対応関係を特定する視線検出装置である。【選択図】図1

Description

本発明は、表示画面内においてユーザーの視線が向けられている位置を特定する視線検出装置、その制御方法、及びその制御プログラムに関する。
近年、ユーザーが表示画面のどこを見ているかを特定する視線検出装置が登場している。このような視線検出装置は、例えばユーザーの瞳に赤外線を照射し、瞳に現れる反射点を観測するなど、ユーザーの瞳を観測することによって、ユーザーの視線方向を特定する。
また、ユーザーの脳波を測定することによって、ユーザーの視線が向けられている表示画面内の位置を特定する技術も研究されている。このような技術では、例えば画面内を複数のエリアに分割し、エリア毎に異なるパターンで変化する映像を表示させる。エリア毎に異なるパターンというのは、例えばエリア毎に異なる周波数や位相で明滅する映像である。脳波の測定結果には、ユーザーが注目している位置の光の明滅に対する反応が現れる。そのため、脳波の測定結果を解析することで、ユーザーが画面内のどのエリアに視線を向けているかを特定できる。
上述した技術のうち、瞳の観測結果を用いる方法では、ユーザーの視線方向を特定することができるが、その方向が表示画面内のどの位置に対応しているかまでは特定できない。そのため、視線方向と表示画面との対応関係を特定するキャリブレーション処理が必要になる。このキャリブレーション処理は、例えばユーザーに表示画面内の複数の基準位置を順に注視してもらい、そのそれぞれのタイミングでユーザーの視線方向を特定するなどの手順で行われる。しかしながら、このようなキャリブレーション処理は、ユーザーにとって手間がかかる。さらに、一度キャリブレーション処理を終えても、ユーザーと表示装置との位置関係にずれが生じたりすると再度キャリブレーション処理を実行する必要が生じるため、ユーザーの負担が増加する。
これに対して脳波を用いる方法によれば、直接的にユーザーが注目している表示画面内の位置を特定することができる。しかしながら、この方法では、注目位置を特定する際にしばらくの間表示画面の全体に特定パターンで明滅する映像を表示する必要があり、映像の自由度が著しく損なわれてしまう。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、比較的ユーザーの負担が少なく、かつ映像への影響も比較的少ない方法で、ユーザーが注目する表示画面内の位置を特定することのできる視線検出装置、その制御方法、及びその制御プログラムを提供することにある。
本発明に係る視線検出装置は、ユーザーの脳波を測定する脳波測定装置と、ユーザーの瞳を観測する瞳観測装置と、表示装置と、に接続され、表示装置の画面に所定パターンの映像を表示させた際の前記脳波測定装置の測定結果を用いて、前記画面内における前記ユーザーの注目位置を特定する注目位置特定部と、前記注目位置の特定が行われる際の前記瞳観測装置の観測結果と、前記特定された注目位置と、を用いて、前記ユーザーの視線方向と前記画面内の位置との対応関係を特定する対応関係特定部と、を含むことを特徴とする。
本発明に係る視線検出装置の制御方法は、ユーザーの脳波を測定する脳波測定装置と、ユーザーの瞳を観測する瞳観測装置と、表示装置と、に接続される視線検出装置の制御方法であって、表示装置の画面に所定パターンの映像を表示させた際の前記脳波測定装置の測定結果を用いて、前記画面内における前記ユーザーの注目位置を特定するステップと、前記注目位置の特定が行われる際の前記瞳観測装置の観測結果と、前記特定された注目位置と、を用いて、前記ユーザーの視線方向と前記画面内の位置との対応関係を特定するステップと、を含むことを特徴とする。
本発明に係るプログラムは、ユーザーの脳波を測定する脳波測定装置と、ユーザーの瞳を観測する瞳観測装置と、表示装置と、に接続されるコンピュータを、表示装置の画面に所定パターンの映像を表示させた際の前記脳波測定装置の測定結果を用いて、前記画面内における前記ユーザーの注目位置を特定する注目位置特定部、及び、前記注目位置の特定が行われる際の前記瞳観測装置の観測結果と、前記特定された注目位置と、を用いて、前記ユーザーの視線方向と前記画面内の位置との対応関係を特定する対応関係特定部、として機能させるためのプログラムである。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
本発明の実施の形態に係る視線検出装置を含む姿勢検出システムのシステム構成図である。 本発明の実施の形態に係る視線検出装置の機能を示す機能ブロック図である。 表示画面内に設定される注目領域の一例を示す図である。 表示画面内に設定される注目領域の別の例を示す図である。 表示画面内に設定される注目領域のさらに別の例を示す図である。 本発明の実施の形態に係る情報処理装置が実行する処理の流れの一例を示すフロー図である。
以下、本発明の実施形態について、図面に基づき詳細に説明する。
図1は、本発明の実施の形態に係る視線検出装置10を含む視線検出システム1のシステム構成図である。同図に示されるように、視線検出システム1は、視線検出装置10と、表示装置20と、瞳観測装置30と、脳波測定装置40と、を含む。
視線検出装置10は、据え置き型ゲーム機やパーソナルコンピュータ等の情報処理装置であって、図1に示すように、制御部11と、記憶部12と、インタフェース部13と、を含んで構成されている。
制御部11は、少なくとも一つのプロセッサーを含んで構成され、記憶部12に記憶されているプログラムに従って各種の情報処理を実行する。制御部11が実行する処理の具体例については、後述する。記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラム、及び当該プログラムによる処理の対象となるデータを記憶する。
インタフェース部13は、無線、又は有線で表示装置20、瞳観測装置30、及び脳波測定装置40のそれぞれと接続され、これらの装置との間で各種のデータを送受信する。具体的にインタフェース部13は、表示装置20に対して映像信号を送信する。また、瞳観測装置30、及び脳波測定装置40のそれぞれから、ユーザーを測定して得られるデータを受信する。
表示装置20は、視線検出装置10から受信した映像信号に応じた映像を表示して、ユーザーに提示する。なお、表示装置20は、ユーザーが頭部に装着して使用するヘッドマウントディスプレイ等であってもよい。以下では、表示装置20が映像を表示する領域を、表示画面Sと表記する。
瞳観測装置30は、ユーザーの視線方向を特定するために、ユーザーの瞳を観測し、観測結果を視線検出装置10に対して送信する。瞳観測装置30は、カメラや赤外線センサー等を含んで構成される。また、観測のために赤外線等をユーザーの瞳に照射する発光部を備えてもよい。また、瞳観測装置30は、ユーザーの頭部に装着されてもよいし、ユーザーから離れた位置に配置するものであってもよい。さらに、表示装置20がユーザーの頭部に装着して使用するタイプのデバイスの場合、瞳観測装置30は表示装置20内に配置されてもよい。
脳波測定装置40は、ユーザーの脳波を測定する。具体的に脳波測定装置40は、ユーザーの頭部に装着されるセンサーを含んで構成されており、このセンサーが検出する電気信号を視線検出装置10に対して送信する。
以下、視線検出装置10が実現する機能について、図2の機能ブロック図を用いて説明する。図2に示すように、視線検出装置10は、機能的に、視線方向特定部51と、視線注目位置特定部52と、アプリケーション実行部53と、キャリブレーション処理部54と、を含んで構成されている。これらの機能は、制御部11が記憶部12に格納されているプログラムを実行することによって実現される。このプログラムは、インターネット等の通信ネットワークを介して視線検出装置10に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。
視線方向特定部51は、瞳観測装置30の観測結果を用いて、ユーザーの視線方向を特定する。具体的に視線方向特定部51は、瞳観測装置30の観測結果に含まれる瞳孔の位置や、瞳孔内に写っている光の反射点などの位置を用いて、ユーザーの視線方向を特定する。
視線注目位置特定部52は、視線方向特定部51が特定した視線方向の情報を用いて、ユーザーが注目している表示画面S内の位置を特定する。以下では、ユーザーが注目している表示画面S内の位置(すなわち、ユーザーの視線が向けられている位置)を、注目位置Pと表記する。ここで、ユーザーの視線方向と表示画面S内の位置との間の対応関係(以下、視線−画面対応関係という)は、後述するキャリブレーション処理部54によって特定される。視線注目位置特定部52は、キャリブレーション処理部54によって特定される視線−画面対応関係を用いて、視線方向を表示画面S内の注目位置Pに変換する。
アプリケーション実行部53は、制御部11がアプリケーションプログラムを実行することにより実現される。具体的にアプリケーション実行部53は、例えばゲームプログラム等、ユーザーの操作に応じて表示装置20の表示画面Sに表示する内容を更新する各種のプログラムを実行してよい。また、本実施形態においてアプリケーション実行部53は、視線注目位置特定部52によって特定される注目位置Pの情報を、ユーザーによる入力の一種として利用することとする。
キャリブレーション処理部54は、前述した視線−画面対応関係を特定する処理(以下、キャリブレーション処理という)を実行する。具体的にキャリブレーション処理部54は、機能的に、注目領域特定部54aと、脳波注目位置特定部54bと、対応関係特定部54cと、を含んで構成されている。以下、これらの機能によって実現されるキャリブレーション処理の内容について、説明する。
注目領域特定部54aは、表示画面S内において、ユーザーが現在注目していると推定される領域を特定する。以下では、注目領域特定部54aが特定する表示画面S内の一部の領域を、注目領域Aという。注目領域特定部54aが注目領域Aを特定する方法の具体例については、後述する。
脳波注目位置特定部54bは、視線注目位置特定部52とは異なり、脳波測定装置40による測定結果を用いて、表示画面S内においてユーザーが注目する注目位置Pを特定する。具体的に脳波注目位置特定部54bは、表示画面Sに所定パターンの映像を表示させる。この所定パターンの映像は、例えば、表示画面S内の複数のエリアのそれぞれを、他のエリアとは異なるパターン(異なる周波数や位相など)で明滅させる映像であってよい。以下では、脳波注目位置特定部54bが脳波による注目位置P特定のために表示する所定パターンの映像を、単にパターン映像という。このようなパターン映像の表示中に、ユーザーの脳波に現れる波形を解析することで、脳波注目位置特定部54bはユーザーが複数のエリアのうちどのエリアを注目しているかを特定する。例えば複数のエリアを互いに異なる周波数で明滅させる場合、ユーザーが注目しているエリアの周波数に対応する波形が脳波に現れる。そこで、脳波測定装置40による測定結果に含まれる脳波に現れる波形の周波数を特定することで、ユーザーが注目しているエリアを特定できる。このエリアの代表位置(例えば中心点)を、注目位置Pとして特定する。
特に本実施形態では、脳波注目位置特定部54bは、表示画面Sの全体にパターン映像を表示するのではなく、注目領域特定部54aが特定した注目領域A内に選択的にパターン映像を表示することとする。注目領域Aの推定が正しく行われていれば、注目位置Pは注目領域A内に存在するはずであり、注目領域Aの外側をユーザーが注目している可能性は低い。そこで脳波注目位置特定部54bは、パターン映像として、注目領域A内のみを対象にその内部を複数のエリアに分割し、エリア毎に異なるパターンで明滅する映像を表示する。一方、注目領域A以外の領域には通常の映像(アプリケーション実行部53が描画する映像)を表示し続けることとする。そして、このようなパターン映像を一部に含んだ映像の表示中におけるユーザーの脳波の測定結果を用いて、注目領域A内のどの位置をユーザーが注目しているかを特定する。こうすれば、脳波を用いて注目位置Pを特定する際に表示画面Sの全体を明滅させるような映像を表示する必要がなくなり、表示中の映像への影響を必要最小限に留めることができる。
対応関係特定部54cは、脳波注目位置特定部54bが特定した注目位置Pの情報と、視線方向特定部51が特定した視線方向の情報と、を用いて、視線−画面対応関係を特定する。具体的に対応関係特定部54cは、脳波注目位置特定部54bによる注目位置Pの特定が行われている際に瞳観測装置30の観測結果から特定された視線方向の情報を、特定された注目位置Pと対応づける。このような処理を、表示画面S内の複数の注目位置Pについて実行することで、表示画面S内部の任意の位置と視線方向との対応関係、すなわち視線方向を表示画面S内の位置に変換する変換式のパラメーターを得ることができる。
以上説明したようなキャリブレーション処理によって得られる視線−画面対応関係の情報を利用することで、視線注目位置特定部52は、視線方向特定部51が特定した視線方向の情報を用いて注目位置Pを特定することができる。このように、脳波を用いて特定された注目位置Pと瞳の観測結果を用いて特定された視線方向とを対応づけることによって、本実施形態に係る視線検出装置10は、ユーザーに特定の位置を複数回にわたって注目させるような動作を要求せずとも、視線−画面対応関係を特定することができる。また、予め注目領域Aの絞り込みを行うことによって、脳波を用いた注目位置Pの特定を実行する際に、表示画面Sの全体にパターン映像を表示させる必要がなくなり、キャリブレーション処理のために専用の時間を確保する必要がなくなる。そのため、アプリケーション実行部53が描画するアプリケーションプログラムの処理結果を示す映像の表示中にも、キャリブレーション処理を実行することが可能となる。
以下、注目領域特定部54aが注目領域Aを特定する方法のいくつかの具体例について、説明する。
まず第1の例として、表示画面S内に表示される内容に応じた特定方法の例について、説明する。この例では、注目領域特定部54aは、アプリケーション実行部53から表示中の注目オブジェクトに関する情報を取得する。ここで注目オブジェクトとは、ユーザーがその時点で注目していると想定される表示要素であって、アプリケーション実行部53によって特定される。具体例として、アプリケーション実行部53が複数の選択候補オブジェクト(例えばメニュー項目等)を含んだ表示画面Sに表示しており、ユーザーが操作デバイスを操作するなどしてそのうちのいずれかを選択した場合、ユーザーの視線は選択されたオブジェクトに向けられていると推定される。そこで注目領域特定部54aは、選択候補オブジェクトの中から選択されたオブジェクトを含む領域を注目領域Aとして特定する。
図3は、この例において表示画面S内に設定された注目領域Aの一例を示す図である。この図では、複数のメニュー項目を含んだメニュー画面が表示画面Sに表示されており、そのうち一つのメニュー項目Iが選択状態にある。そして、そのメニュー項目Iを含むように注目領域Aが設定されている。
注目領域特定部54aは、選択されたメニュー項目に限らず、各種の注目オブジェクトを含む領域を注目領域Aとして特定してもよい。一例として、アプリケーション実行部53がユーザーの操作指示に応じて移動するオブジェクトを表示画面S内に表示している場合、注目領域特定部54aは、そのオブジェクトを含むそのオブジェクトの周辺の領域を注目領域Aとして特定する。具体例として、アプリケーション実行部53がシューティングゲームのプログラムを実行している場合、銃の照準を表す照準マークCが表示画面S内に表示され、ユーザーの操作に応じて表示画面S内を移動する。注目領域特定部54aは、この照準マークCの周辺を注目領域Aとして設定してもよい。図4は、この場合の注目領域Aの一例を示す図である。また、アプリケーション実行部53が表示画面S内に表示されるユーザーキャラクターを操作するゲームのプログラムを実行している場合、注目領域特定部54aはそのユーザーキャラクターを含む領域を注目領域Aとして設定してもよい。また、ユーザーが表示画面S内に表示されるカーソルやポインタ等を操作可能な場合、そのカーソルやポインタの周辺の領域を注目領域Aとして設定してもよい。
また、注目領域特定部54aは、一度キャリブレーション処理が実行されて視線−画面対応関係が特定された後は、視線注目位置特定部52によって特定される注目位置Pに基づいて注目領域Aを特定してもよい。一度キャリブレーションが完了した後も、ユーザーと表示装置20との位置関係にずれが生じたりすると、視線−画面対応関係にも変化が生じてしまう。そのため、ユーザーが視線検出装置10を使用している間、キャリブレーション処理部54は、ユーザーからの指示があったタイミングや、前回のキャリブレーションから所定時間が経過したタイミングなど、所定のタイミングでキャリブレーション処理を繰り返し実行することが好ましい。このような場合において、2回目以降のキャリブレーション処理を実行する際には、前回のキャリブレーション処理によって得られた視線−画面対応関係から大きな変化は生じていないと想定される。そこで注目領域特定部54aは、2回目以降のキャリブレーション処理が行われる際には、前回のキャリブレーションの結果得られている視線−画面対応関係に基づいて視線注目位置特定部52が特定する注目位置Pを中心として、その周囲の所定の大きさの領域を、注目領域Aとして特定してもよい。
特にアプリケーション実行部53は、視線注目位置特定部52が特定した注目位置Pを用いて、Foveated Renderingなどと呼ばれる技術を適用した画像を描画する場合がある。具体的にアプリケーション実行部53は、表示画面Sに表示する画像を描画する際に、注目位置P近傍の領域は比較的高解像度で描画し、それ以外の領域は比較的低解像度で描画する。これにより、全体として描画処理の負荷を抑えながら、ユーザーが注目する領域は高解像度で描画された画像を表示できる。ここで、Foveated Renderingで描画された複数種類の解像度が混在する画像を複合画像と表記し、複合画像内で最も高い解像度で描画される領域(視線注目位置特定部52が特定した注目位置Pを含む領域)を高解像度領域H、それ以外の領域を低解像度領域という。なお、低解像度領域も、さらに注目位置Pまでの距離に応じて複数の領域に分割され、領域ごとに異なる解像度で描画されてもよい。
アプリケーション実行部53が複合画像を表示している場合、視線−画面対応関係に変化が生じると、現実にユーザーが注目している位置(真の注目位置)を高解像度で表示することができなくなり、不都合が生じる。そのため複合画像の表示中は、特に真の注目位置が高解像度領域から外れていないかを検出できることが望ましい。そこでキャリブレーション処理部54は、複合画像の表示中、所定のタイミングでキャリブレーション処理を実行することとする。なお、このようなキャリブレーション処理は、継続的に(すなわち、複合画像が表示されている間常に)実行されてもよいし、所定の条件が満たされたタイミングなどに実行されてもよい。以下では、複合画像の表示中におけるキャリブレーション処理の具体例について、説明する。
注目領域特定部54aは、高解像度領域H、及びその周囲の領域(以下、外周領域Oという)を注目領域Aとして設定する。外周領域Oは、高解像度領域Hを取り囲む環状の領域となる。この例では、脳波注目位置特定部54bは、高解像度領域Hと外周領域Oについて互いに異なるパターンで明滅するようなパターン映像を表示し、そのパターン映像を表示中に測定されるユーザーの脳波を用いて、注目位置Pを特定する。これにより、ユーザーが高解像度領域H内の位置を注目しているのか、あるいは外周領域O内の位置を注目しているのかを識別することができる。ユーザーが外周領域O内の位置を注目している場合、対応関係特定部54cは、脳波注目位置特定部54bの特定結果を用いて視線−画面対応関係を再定義する。その後、視線注目位置特定部52は、再定義された視線−画面対応関係を用いて注目位置Pを特定し、アプリケーション実行部53は特定された注目位置Pを含む領域を高解像度領域Hとして複合画像を描画する。これにより、ユーザーが注目する位置を高解像度で描画することができる。
さらに、脳波注目位置特定部54bは、段階的に注目位置Pを特定する処理を実行してもよい。具体的に脳波注目位置特定部54bは、まず第1段階の処理として、ユーザーの真の注目位置が高解像度領域Hか、外周領域Oかを識別する処理を行う。この場合、脳波注目位置特定部54bは、外周領域Oの全体で、高解像度領域Hとは異なる周波数で明滅するようなパターン映像を表示する。これによりユーザーが高解像度領域H内を注目していると判定された場合、それ以上の処理は行われず、通常の描画処理が続けられる。一方、ユーザーが外周領域O内を注目していると判定された場合、第2段階の処理として、外周領域O内を例えば放射状に分割し、分割された領域ごとに他の領域と異なる周波数で明滅するようなパターン映像を表示する。図5は、この場合において複数の領域に分割された外周領域Oの一例を示している。この例では、破線で囲まれた外周領域Oが注目領域Aに相当しており、一点鎖線は外周領域Oを放射状に分割して得られる各領域を示している。この第2段階の処理によって、脳波注目位置特定部54bは、外周領域O内のどの位置をユーザーが注目しているのかを詳細に特定する。このような段階的な処理によれば、真の注目位置が高解像度領域Hから外れるまでの間は、比較的単純なパターン映像を表示するだけでよくなる。
なお、このような段階的な注目位置Pの特定処理を実行する場合、第1段階の処理と第2段階との処理とで、パターン映像を表示する範囲を変化させてもよい。例えば第1段階の処理では表示画面S全体を対象にパターン映像を表示してもよい。また、第2段階の処理を行う際にはユーザーの注目する位置は高解像度領域Hから外れていることが分かっているので、高解像度領域H内にはパターン映像を表示しないこととしてもよい。すなわち、段階的な処理を行う際には、最初の段階では比較的広い範囲を注目領域Aとして設定し、次の段階では前の段階で注目位置Pを含むと判定された、前の段階における注目領域Aよりも狭い領域を新たな注目領域Aとして設定し、その範囲にパターン映像を表示する。このように注目領域Aを狭めながら、その注目領域A内においてユーザーが注目する領域を特定する処理を繰り返すことによって、段階的に注目位置Pを絞り込むことができる。
また、注目領域特定部54aは、脳波測定装置40による脳波の測定結果を用いて、注目領域Aを特定してもよい。具体例として、ユーザーが注目している表示要素が表示画面Sに表示されると、その表示に反応する波形が脳波に現れることが知られている。そのため、複数の表示要素を順に互いに異なる位置に表示した場合に、脳波の測定結果を参照することで、ユーザーが意識している表示要素を特定することができる。このような手法によれば、ユーザーが操作デバイスに対する操作などを行うことなく複数の要素のいずれかを選択する指示入力を実現することができる。このときユーザーは、自身が注目している表示要素が表示された位置に視線を向けると想定される。そこで、脳波の測定結果を用いてユーザーが注目する表示要素が特定された場合、注目領域特定部54aは、特定された表示要素が表示された位置を中心とした領域を注目領域Aとして特定してもよい。
以下、本実施形態に係る視線検出装置10の制御部11が実行する処理の流れの具体例について、図6のフロー図を用いて説明する。以下では具体例として、アプリケーション実行部53は図4に示したようなシューティングゲームのプログラムを実行することとし、キャリブレーション処理部54はこのシューティングゲームの実行中にキャリブレーション処理を実行するものとする。また、ここでは表示装置20はユーザーが頭部に装着して使用するヘッドマウントディスプレイであることとし、視線検出装置10は表示装置20に内蔵されたモーションセンサー等を用いて表示装置20の姿勢(向き)を特定し、特定された姿勢に応じて画像を更新するものとする。さらに、この例ではアプリケーション実行部53は視線注目位置特定部52が特定する注目位置Pに応じて照準マークCの表示位置を変化させることとする。
まずアプリケーション実行部53は、モーションセンサー等の検出結果を用いて表示装置20の姿勢(方向)を特定する(S1)。さらに視線注目位置特定部52が、視線方向特定部51によって特定される視線方向と、過去のキャリブレーション処理によって特定されている視線−画面対応関係に基づいて、注目位置Pを特定する(S2)。
続いてアプリケーション実行部53は、S1で特定された姿勢に対応する方向から仮想空間内を見た様子を示す空間画像を描画する(S3)。そして、S2で特定された注目位置Pに対応する空間画像内の位置に、照準マークCを配置する(S4)。
次にキャリブレーション処理部54が、キャリブレーション処理を実行するか否か判定する(S5)。キャリブレーション処理部54は、例えば前回のキャリブレーション処理から所定時間が経過した場合にキャリブレーション処理を実行すると判定してもよいし、照準マークCが所定時間以上大きな距離を移動していない場合にキャリブレーション処理を実行すると判定してもよい。キャリブレーション処理を実行しないと判定された場合、照準マークCを含んだ空間画像が表示装置20の表示画面Sに表示される(S6)。そして、S1に戻って次のサイクルの処理が実行される。
一方、S5でキャリブレーション処理を実行すると判定された場合、注目領域特定部54aは、S4で照準マークCが配置された位置を中心に、注目領域Aを設定する(S7)。この例では、視線注目位置特定部52が特定する注目位置Pに応じて注目領域Aが特定されていることになる。脳波注目位置特定部54bは、S3で描画された空間画像のうち、S7で設定された注目領域A内に、パターン映像を重ねて描画する(S8)。そして、パターン映像の内容を含んだ空間画像が表示装置20の表示画面Sに表示される(S9)。
その後、脳波注目位置特定部54bは、脳波測定装置40が測定した脳波を用いて、注目位置Pの特定を試みる(S10)。注目位置Pが特定されれば、対応関係特定部53cが、S2で特定された注目位置PとS8で特定された注目位置Pとのずれを補正するように、視線−画面対応関係の内容(具体的には、視線方向を表示画面S内の位置に変換する変換パラメーター)を更新する(S11)。
視線−画面対応関係の更新が行われた場合、及び脳波による注目位置Pの特定が完了していない場合のいずれの場合にも、S1に戻って次のサイクルの処理が実行される。視線−画面対応関係の更新が行われた場合、次にS2で視線注目位置特定部52が注目位置Pを特定する際には、更新された視線−画面対応関係に基づいて特定が行われる。以上説明したような処理を繰り返すことで、定期的に視線−画面対応関係を更新しながら、ゲームの処理を継続的に実行することができる。
以上説明したように、本実施形態に係る視線検出装置10によれば、通常時にはユーザーの視線方向に基づいて注目位置Pを特定するので、常にユーザーの脳波を測定して注目位置Pを特定する場合と比較して、任意の映像を表示しながら注目位置Pの特定を行うことができる。また、視線方向と表示画面S内の位置との対応関係を特定するキャリブレーション処理を実行する際には、脳波を測定した結果を利用することで、ユーザーに特定の位置をわざわざ注視してもらう必要がなくなり、ユーザーへの負担を比較的少なくすることができる。
さらに、表示画面Sの一部の注目領域Aに選択的にパターン映像を表示することで、アプリケーションプログラムの実行中などに、アプリケーションプログラムが描画する映像を表示しながらキャリブレーション処理を実行することができる。
なお、本発明の実施の形態は、以上説明したものに限られない。例えば以上の説明では、視線方向特定部51、視線注目位置特定部52、及びキャリブレーション処理部54の機能は、アプリケーションプログラムとは別のプログラムによって実現されることとしたが、これらの機能の一部又は全部は、アプリケーションプログラム内で実現されてもよい。
また、以上の説明ではキャリブレーション処理を実行する際には常に表示画面Sの一部の注目領域Aに選択的にパターン映像を表示することとしたが、場面によっては表示画面Sの全体にパターン映像を表示してキャリブレーション処理を実行してもよい。この場合、注目領域Aの推定を行う必要はなく、ユーザーが表示画面Sのどこを注目していてもキャリブレーション処理を実行することができる。
1 視線検出システム、10 視線検出装置、11 制御部、12 記憶部、13 インタフェース部、20 表示装置、30 瞳観測装置、40 脳波測定装置、51 視線方向特定部、52 視線注目位置特定部、53 アプリケーション実行部、54 キャリブレーション処理部、54a 注目領域特定部、54b 脳波注目位置特定部、54c 対応関係特定部。

Claims (9)

  1. ユーザーの脳波を測定する脳波測定装置と、ユーザーの瞳を観測する瞳観測装置と、表示装置と、に接続され、
    表示装置の画面に所定パターンの映像を表示させた際の前記脳波測定装置の測定結果を用いて、前記画面内における前記ユーザーの注目位置を特定する注目位置特定部と、
    前記注目位置の特定が行われる際の前記瞳観測装置の観測結果と、前記特定された注目位置と、を用いて、前記ユーザーの視線方向と前記画面内の位置との対応関係を特定する対応関係特定部と、
    を含むことを特徴とする視線検出装置。
  2. 請求項1に記載の視線検出装置において、
    前記画面内において前記ユーザーが注目していると推定される注目領域を特定する注目領域特定部をさらに含み、
    前記注目位置特定部は、前記画面のうちの前記注目領域に選択的に前記所定パターンの映像を表示させ、前記注目領域内における前記ユーザーの注目位置を特定する
    ことを特徴とする視線検出装置。
  3. 請求項2に記載の視線検出装置において、
    前記注目領域特定部は、前記画面に表示されている、前記ユーザーが注目すると想定される注目オブジェクトを含む領域を、前記注目領域として特定する
    ことを特徴とする視線検出装置。
  4. 請求項3に記載の視線検出装置において、
    前記注目オブジェクトは、複数の選択候補オブジェクトの中から前記ユーザーが選択したオブジェクトである
    ことを特徴とする視線検出装置。
  5. 請求項3に記載の視線検出装置において、
    前記注目オブジェクトは、前記ユーザーの指示に応じて前記画面内を移動するオブジェクトである
    ことを特徴とする視線検出装置。
  6. 請求項2に記載の視線検出装置において、
    前記注目領域特定部は、前記瞳観測装置の観測結果と、過去に前記対応関係特定部が特定した対応関係と、に応じて特定される前記ユーザーの注目位置を含む領域を、前記注目領域として特定する
    ことを特徴とする視線検出装置。
  7. 請求項6に記載の視線検出装置において、
    前記注目位置特定部は、前記注目領域を狭めながら、当該注目領域内における前記ユーザーが注目する領域を特定する処理を複数回にわたって実行することにより、前記注目位置を特定する
    ことを特徴とする視線検出装置。
  8. ユーザーの脳波を測定する脳波測定装置と、ユーザーの瞳を観測する瞳観測装置と、表示装置と、に接続される視線検出装置の制御方法であって、
    表示装置の画面に所定パターンの映像を表示させた際の前記脳波測定装置の測定結果を用いて、前記画面内における前記ユーザーの注目位置を特定するステップと、
    前記注目位置の特定が行われる際の前記瞳観測装置の観測結果と、前記特定された注目位置と、を用いて、前記ユーザーの視線方向と前記画面内の位置との対応関係を特定するステップと、
    を含むことを特徴とする視線検出装置の制御方法。
  9. ユーザーの脳波を測定する脳波測定装置と、ユーザーの瞳を観測する瞳観測装置と、表示装置と、に接続されるコンピュータを、
    表示装置の画面に所定パターンの映像を表示させた際の前記脳波測定装置の測定結果を用いて、前記画面内における前記ユーザーの注目位置を特定する注目位置特定部、及び、
    前記注目位置の特定が行われる際の前記瞳観測装置の観測結果と、前記特定された注目位置と、を用いて、前記ユーザーの視線方向と前記画面内の位置との対応関係を特定する対応関係特定部、
    として機能させるためのプログラム。
JP2017219750A 2017-11-15 2017-11-15 視線検出装置 Pending JP2019091253A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017219750A JP2019091253A (ja) 2017-11-15 2017-11-15 視線検出装置
US16/161,467 US11073910B2 (en) 2017-11-15 2018-10-16 Line-of-sight detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017219750A JP2019091253A (ja) 2017-11-15 2017-11-15 視線検出装置

Publications (1)

Publication Number Publication Date
JP2019091253A true JP2019091253A (ja) 2019-06-13

Family

ID=66433308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017219750A Pending JP2019091253A (ja) 2017-11-15 2017-11-15 視線検出装置

Country Status (2)

Country Link
US (1) US11073910B2 (ja)
JP (1) JP2019091253A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022070746A1 (ja) * 2020-09-30 2022-04-07 株式会社ドワンゴ アイトラッキングシステム、アイトラッキング方法、およびアイトラッキングプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
JP7467071B2 (ja) * 2019-10-24 2024-04-15 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
CN112116422B (zh) * 2020-09-10 2022-11-04 湖南工商大学 基于脑机接口的网上购物系统及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009057260A1 (ja) * 2007-10-29 2009-05-07 Panasonic Corporation 脳波インタフェースシステムのための起動装置、方法およびコンピュータプログラム
CA2942852C (en) * 2013-03-15 2023-03-28 Interaxon Inc. Wearable computing apparatus and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022070746A1 (ja) * 2020-09-30 2022-04-07 株式会社ドワンゴ アイトラッキングシステム、アイトラッキング方法、およびアイトラッキングプログラム

Also Published As

Publication number Publication date
US11073910B2 (en) 2021-07-27
US20190146584A1 (en) 2019-05-16

Similar Documents

Publication Publication Date Title
US10496160B2 (en) Gaze tracking system with calibration improvement, accuracy compensation, and gaze localization smoothing
KR102529120B1 (ko) 영상을 획득하는 방법, 디바이스 및 기록매체
US10456072B2 (en) Image interpretation support apparatus and method
CN110502099B (zh) 可靠地检测注视与刺激之间的关联的方法
JP5949319B2 (ja) 視線検出装置及び視線検出方法
EP3389020B1 (en) Information processing device, information processing method, and program
US20190037132A1 (en) Adjusting Motion Capture Based on the Distance Between Tracked Objects
JP2019091253A (ja) 視線検出装置
US10884577B2 (en) Identification of dynamic icons based on eye movement
US9870058B2 (en) Control of a real world object user interface
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3367214A1 (en) Line-of-sight input device, line-of-sight input method, and line-of-sight input program
JP6604271B2 (ja) 注視位置検出装置、注視位置検出方法及び注視位置検出用コンピュータプログラム
JP2015152939A (ja) 情報処理装置、情報処理方法、及びプログラム
CN108027654A (zh) 输入设备、输入方法和程序
CN108027656A (zh) 输入设备、输入方法和程序
JP5868128B2 (ja) 情報処理装置およびその制御方法
US10713488B2 (en) Inspection spot output apparatus, control method, and storage medium
KR20210052516A (ko) 디지털 병리학을 위한 시선 추적 이미지 뷰어
WO2016208261A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP5949389B2 (ja) 検出装置、検出プログラムおよび検出方法
JP6092173B2 (ja) 電子装置とその操作方法
US20180267615A1 (en) Gesture-based graphical keyboard for computing devices
EP3922166B1 (en) Display device, display method and display program
CN114740966A (zh) 多模态图像显示控制方法、系统及计算机设备