[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6334484B2 - メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー - Google Patents

メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー Download PDF

Info

Publication number
JP6334484B2
JP6334484B2 JP2015172230A JP2015172230A JP6334484B2 JP 6334484 B2 JP6334484 B2 JP 6334484B2 JP 2015172230 A JP2015172230 A JP 2015172230A JP 2015172230 A JP2015172230 A JP 2015172230A JP 6334484 B2 JP6334484 B2 JP 6334484B2
Authority
JP
Japan
Prior art keywords
display data
display
user
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015172230A
Other languages
English (en)
Other versions
JP2017049781A (ja
Inventor
広昭 古牧
広昭 古牧
田中 明良
明良 田中
賢一 道庭
賢一 道庭
宏樹 熊谷
宏樹 熊谷
隆 須藤
隆 須藤
康裕 鹿仁島
康裕 鹿仁島
伸秀 岡林
伸秀 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015172230A priority Critical patent/JP6334484B2/ja
Priority to US14/979,197 priority patent/US11016295B2/en
Publication of JP2017049781A publication Critical patent/JP2017049781A/ja
Application granted granted Critical
Publication of JP6334484B2 publication Critical patent/JP6334484B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/12Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations different stations being capable of presenting different information simultaneously
    • G09B5/125Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations different stations being capable of presenting different information simultaneously the stations being mobile
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eyeglasses (AREA)

Description

本発明の実施形態は、メガネ型ウェアラブル装置のデータ処理装置及びその制御方法及び情報管理サーバーに関する。
従来、使用者の視線の延長線上に種々の映像やメッセージ等の情報提供が可能なウェアラブル装置を用いて、作業効率を向上させる技術が知られている。特許文献1には、ウェアラブル装置を使用して作業をする複数の使用者の作業状況を、ウェアラブル装置のディスプレイに表示することで、他の使用者の作業状況を容易に把握させ、作業全体の効率を向上させる技術が開示されている。
また、ウェアラブル装置を用いた視線を検出する技術も知られている。視線検出の方法のうち、電気的な方法としてEOG(Electro−oculography)と呼ばれる方法が存在している。この方法は、眼球の角膜側が正電位に、網膜側が負電位に帯電している性質を利用して、眼球の周辺に複数の電極を配置し眼球の動きによって生じる電位の変化を測定することでウェアラブル装置の利用者の視線を検出するものである。
眼電位を測定する技術として、特許文献2に開示されているように眼鏡のノーズパッド部分に電極を配置することで、電極の皮膚に接することによる不快感を低減する方法が開示されている。この結果、使用者は、電極付眼鏡を不快感なく使用することが可能となっている。
特開2012−212991号公報 特開2013−244370号公報
人間のまばたきの頻度は、精神状態によって大きく変動すると言われている。例えば、ストレスが多い場合や集中力が低下している場合は、その頻度が増す傾向にある。また、使用者がテレビを視聴しているとき、テレビで放映されている内容の文脈と文脈の間で使用者の集中力は低下する傾向にあり、そのタイミングでまばたきの頻度が増す傾向にある。このように、まばたきをする頻度を観察することで、使用者の精神状態を推定することが可能である。
上記した眼電位が測定可能な眼鏡を使用して、使用者が作業を行っている際のまばたきの頻度を測定することで、使用者の精神状態を推定する技術が開発されている。この技術を利用すれば、眼電位が測定可能な眼鏡の使用者の精神状態の推定することができ、その結果を利用して使用者に指示を出すことで、行っている作業の危険回避、作業効率の改善などを行うことが可能となる。
そこで本実施形態では、眼電位が測定可能なメガネ型ウェアラブル装置を装着して作業を実施している使用者の精神状態を推定し、その推定結果をもとに次の指示を判断することができるメガネ型ウェアラブル装置及びその制御方法及び情報管理サーバーを提供することを目的とする。
本実施形態によれば、
使用者の眼球周辺の電位を検出する複数の電位検出センサから複数の検出信号を取得する検出信号取得部と、
使用者の視線の延長線上に位置し、表示用データを表示する表示部と、
重要表示位置と非重要表示位置を含む第1の表示用データが前記表示部に表示されているとき、前記検出信号取得部により取得された前記複数の検出信号の変化から、少なくとも前記使用者がまばたきをした時間位置を判定する特性判定部と、
前記検出信号取得部により取得された前記複数の検出信号に基づいて前記使用者の眼球の動きを検出する検出部と、
前記表示部で表示されている前記第1の表示用データの前記重要表示位置を前記使用者が看過したか否かを前記特性判定部により判定された前記まばたきをした時間位置と前記検出部により検出された前記眼球の動きに基づいて判定する看過判定部と、
を備える。
実施形態に係るメガネ型ウェアラブル装置およびメガネ型ウェアラブル装置を認識するシステムの一例を示す概略図である。 実施形態に係るメガネ型ウェアラブル装置を認識するシステムにおける監督者用端末のシステム構成の一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置のシステム構成の一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置の斜視図の一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置に備えられている眼電位検出部の検出電極の配置の一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置の使用者が目を動かすことにより、眼電位の検出信号が変化する様子の一例を示した図である。 実施形態に係るメガネ型ウェアラブル装置の主として機能構成の一例を示すブロック図である。 実施形態に係るメガネ型ウェアラブル装置の看過判定の処理の流れの一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置の看過判定の処理において、使用するまばたきのパターンの一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置の看過判定の処理において、まばたきのパターンを考慮に加えた場合の処理の流れの一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置の看過判定の処理において、まばたきのパターンを考慮に加えた場合の処理の流れの一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置の看過判定の処理の結果に応じて表示部に表示する表示用データの内容の一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置の看過判定の処理の結果に応じて表示部に表示する表示用データの内容の一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置の看過判定の処理の結果に応じて表示部に表示する表示用データの内容の一例を示す図である。 実施形態に係るメガネ型ウェアラブル装置の表示部の表示内容を、ネットワークを経由して他のメガネ型ウェアラブル装置の使用者と共有する場合の一例を示す図である。
以下、図面を参照して、実施形態について説明する。
図1は、本発明の実施形態に係るメガネ型ウェアラブル装置およびメガネ型ウェアラブル装置を認識するシステムの一例を示す概略図である。
監督者用端末103および個々の作業員用端末であるメガネ型ウェアラブル装置110−1〜110−mならびに情報管理サーバー101およびシステムコントローラ102は、ネットワークNTWを通じて、相互に信号の受け渡しが可能である。
システムコントローラ102(または情報管理サーバー101)と監督者用端末104および個々のメガネ型ウェアラブル装置110−1〜110−mとの間の通信は、有線あるいは無線のいずれであっても良い。システムコントローラ102(情報管理サーバー101)と監督者用端末103および個々のメガネ型ウェアラブル装置110−1〜110−mとの間の通信は、例えば近距離無線通信であって、IEEE802.11(b/g)等に準拠する、例えばBluetooth(登録商標)/(ブルートゥース(登録商標))であることが好ましい。
図2は、監督者用端末103のシステムの一例を示す概略図である。図2に示すように監督者用端末103は、例えばプロセッサ211、不揮発メモリ212、主メモリ213、表示部201、ボタン202、無線モジュール203等を備える。表示部201は、監督者に情報を提示する表示部である。ボタン202は、監督者が端末を操作するためのボタンである。プロセッサ211は、監督者用端末103を制御するプロセッサであり、不揮発メモリ212から主メモリ213にロードされた各種ソフトウェアを実行する。
図3は、メガネ型ウェアラブル装置(作業員用端末)110−1〜110−mのシステムの一例を示す概略図である。各メガネ型ウェアラブル装置は同じ構成であるので、ここではメガネ型ウェアラブル装置110−1を代表して説明する。表示部301は、メガネ型ウェアラブル装置110−1の使用者の視線の延長線上に位置するものであり、例えばメガネ型ウェアラブル装置110のレンズ部分に液晶フィルムを貼り付けることで構成できる。表示部301は、この液晶を用いて種々の情報を表示することができる。ボタン302は、作業者が端末を操作するためのボタンである。プロセッサ311は、メガネ型ウェアラブル装置(作業員用端末)110−1を制御するプロセッサであり、不揮発メモリ312から主メモリ313にロードされた各種ソフトウェアを実行する。
眼電位センサ324は、眼電位を測定するためのセンサである。眼電位センサ324は、使用者の眼電位を検知するための複数の検出電極を持つ。これらの検出電極は、絶縁体(誘電体)上に設けられる。各検出電極には、メガネ型ウェアラブル装置110−1を装着した使用者の鼻に接触する金属、導電プラスチックなどを利用することができる。
検出電極からの検出信号波形(例えば検出電極間の電位差に対応した信号波形)は、メガネ型ウェアラブル装置110−1を装着した使用者の眼の動き(眼球の上下左右の動き、まばたき、眼つぶり、ウィンクなど)に対応して変化する。この変化の状況を観測することで、使用者の目の動きを推定することが出来る。
なお眼球の動きを特定する方法として、カメラあるいは赤外線センサを用いる方法もあるが、本実施形態では眼電位センサ324を用いて特定する方法を用いるものとする。
図4は、本発明の実施形態に係るメガネ型ウェアラブル装置110−1の斜視図の一例を示す図である。図4に示すメガネ型ウェアラブル装置400は、左右両眼の位置に配置される左右アイフレーム部分401と鼻の位置に配置されるノーズパッド部分402を持ち、アイフレーム部分401に備えられた電子機器本体403と、表示部404と、無線モジュール405と、ノーズパッド部分402に眼電位センサ406を備えている。なお、メガネ型ウェアラブル装置400は、表示部404として右眼用のレンズ部分に液晶フィルムを貼り付けた例を示している。プロセッサ311、不揮発メモリ312、主メモリ313は、電子機器本体403に含まれる。
図5は、メガネ型ウェアラブル装置400に備えられている眼電位センサ406の検出電極(501a、501b、502a、502b)の配置の一例を示したものである。使用者に直接接触する複数の眼電位の検出電極の設置場所をノーズパッド部分のみにしている。ノーズパッドは、通常の眼鏡においてもユーザーに接触する部分として存在するものである。したがって、このように使用者に直接接触する必要がある眼電位の検出電極をノーズパッド部分にのみに配置したメガネ型ウェアラブル装置400を使用者が装着した場合は、通常の眼鏡を装着した場合と比べてほとんど違和感がない。そのため使用者が作業をする際に、このようなノーズパッド部分のみに眼電位の検出電極を配置したメガネ型ウェアラブル装置100を装着した場合には、使用者の作業効率の低下を招くことはほとんどない。
図6は、メガネ型ウェアラブル装置400の使用者が目の動かすことにより、眼電位センサ406により測定された眼電位信号が変化する様子の一例を示した例である。
図6(A)は、使用者が、視線を正面に向いた状態でまばたきを5回繰り返した際の眼電位の検出信号の変化の様子を示した図である。使用者が目を閉じた場合、視線は上方向に移動する。よって、使用者がまばたきをした場合は、視線は一瞬上方向に移動する。このタイミングで、視線の縦方向の移動を検出する上下に配置された電極のペア(501aと501b)における、電極501bの電位を基準にした501aの電位は、一瞬正となる。したがって、眼電位の検出信号は、使用者がまばたきをしたタイミングで図6(A)の矢印(601a、601b、601c、601d、601e)で示したような上向き三角形の波形となる。視線の縦方向に移動を検出する上下に配置された電極のペア(502aと502b)における、電極502bの電位を基準にした502aの電位も、電極のペア(501aと501b)の場合の電位の動きと同様の動きをする。
図6(B)は、使用者が、視線を正面に向いた状態で目を瞑った状態(1秒間)を5回繰り返した際の眼電位の検出信号の変化の様子を示した図である。目を瞑っている間は、視線は上方向に移動したままとなる。よって、眼電位の検出信号もその間は基準値よりも高い値が続き、信号波形は凸型の波形となる。
図6(C)は、使用者が、視線を正面に向いた状態でまばたきを5回繰り返した後に、左眼ウィンクを5回繰り返した際の眼電位の検出信号の変化の様子を示した図である。同様に図6(D)は、使用者が、視線を正面に向いた状態でまばたきを5回繰り返した後に、右眼ウィンクを5回行った際の眼電位の検出信号の変化の様子を示した図である。図6C−(1)と図6D−(1)は、横方向の電極のペア(501a、502a)による眼電位の検出信号の変化の様子を示している。また図6C−(2)と図6D−(2)は、縦方向の電極のペア(501a、501b)による眼電位の検出信号の変化の様子を示している。
ウィンクの左右の検出は、横方向の電極のペア(501a、502a)による検出信号の変化の様子から検出することが出来る。ウィンクをしている部分は、図6(C)/(D)の点線で囲まれた部分である。この部分において、縦方向の電極のペア(501a、501b)による検出信号の変化の様子は、図6C−(2)と図6D−(2)に示すように、まばたきの場合同様に上向き三角形の波形となる。左眼ウィンクの場合は、電極のペア(501a、502a)による検出信号の変化の様子は、図6C−(1)に示すように小さな凹型の波形となる。右眼ウィンクの場合は、電極のペア(501a、502a)による検出信号の変化の様子は、電極のペア(501a、502a)による検出信号の変化の様子は図6D−(1)に示すように小さな凸型の波形となる。このように、検出信号の変化の様子を観測することで、眼球の上下左右の動き、まばたき、目瞑り、ウィンクなどの動きを推定することが出来る。また、これらの推定を元に、メガネ型ウェアラブル装置400の使用者の視線位置も推定することが出来る。
図7は、メガネ型ウェアラブル装置400の主として機能構成を示すブロック図であり、700は検出信号応答処理部である。本実施形態に係るメガネ型ウェアラブル装置400は、眼電位センサ324を介して検出された眼電位の変化に基づき、メガネ型ウェアラブル装置400の使用者のまばたきの頻度を推定し、その結果をもとに表示部301に表示用データを表示することで、作業をしている使用者に指示を出す機能を有する。図7に示すように、メガネ型ウェアラブル装置400は、検出信号取得部701、特性判定部702、表示用データ出力部703、看過判定部704、表示用データDB705を含む。
検出信号取得部701、特性判定部702、表示用データ出力部703、看過判定部704、の一部または全ては、上記したプロセッサ311にプログラムを実行させることによって実現されてもよい。またIC(Integrated Circuit)等のハードウェアによって実現されてもよい。更にソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。
検出信号取得部701は、眼電位センサ324によって検出された眼電位の検出信号を取得する。検出信号取得部701は、予め決められた間隔で眼電位センサ324から眼電位の検出信号の取得を繰り返し実行し、取得した眼電位の検出信号を都度特性判定部702に送出する。
特性判定部702は、検出信号取得部701から送られてきた眼電位の検出信号を時間軸上に保存し、その変化の状況を観測することで、まばたきをした時間位置を特定する。
表示用データ出力部703は、メガネ型ウェアラブル装置400を装着して作業をしている使用者に、作業に関する情報として認識させる内容を表示部301に出力する。この作業に関する情報は、例えばマニュアル画像データである。また、例えば看過判定部704の判断結果に基づいた指示内容である。これらの表示用データは、表示用データDB705に保存されている。なお、表示用データDB705の内容は、システムコントローラ102の指示に従い無線モジュール405によりネットワーク経由で更新することができる。
看過判定部704は、特性判定部702によって判定された使用者がまばたきをした時間位置をもとに、その時間位置における表示用データ出力部703が出力した表示用データの内容を判定し、使用者が表示用データの重要表示位置を看過したかどうかを判定する。なお後述するように、看過判定部704は、特性判定部702より通知されたまばたきをした時間位置からまばたきのパターンを考慮して、表示用データの重要表示位置を看過したかどうかの判定に、このまばたきのパターンを考慮に加えることもできる。
なお、上記した検出信号応答処理部700は、メガネ型ウェアラブル装置400が備えるものとして説明したが、図1に示したシステムコントローラ102が備えてもよい。この場合、眼電位センサ324からの検出信号、表示部301に表示する表示用データは、システムコントローラ102とメガネ型ウェアラブル装置400の間で無線モジュール405により送受される
図8は、本実施形態に係るメガネ型ウェアラブル装置400の看過判定の処理の流れの一例を示す図である。表示用データ出力部703により、表示部301に表示する表示用データの出力が開始されると、看過判定処理が開始(S801)される。検出信号取得部501は、眼電位センサ324より眼電位の検出信号の取得を行う(S802)。
取得された眼電位の検出信号は、都度特性判定部702に送られる。特性判定部702は、送られてきた眼電位の検出信号を時間軸で蓄積し、時間的な変化の状況を判定する(S803)。判定の結果(S804)、眼電位の検出信号が変化したと判定されると、特性判定部702は、眼電位の検出信号が変化した時間位置を看過判定部704に通知する。眼電位の検出信号が変化した時間位置を取得(S805)した看過判定部704は、その時間位置における、表示用データ出力部703が表示部301に出力した表示用データの内容を取得(S806)し、その表示内容の重要度を判定する(S807)。
判定の結果(S808)、重要と判定されると、看過判定部704は、メガネ型ウェアラブル装置400の使用者が、S806で取得した時間位置の表示用データの内容を看過したと判断(S809)する。看過判定部704は、看過したとの判断結果に基づく処理を実施する(S810)。
看過したとの判断結果に基づく処理として、例えば、看過判定部704は、表示用データ出力部703により表示部301に表示している表示用データとは別の内容の第2の表示用データを表示するように、表示用データ出力部703に指示を出す。指示を受けた表示用データ出力部703は、表示部301に表示用データを表示するために、第2の表示用データを出力する。
このように、メガネ型ウェアラブル装置400の使用者のまばたきの時間位置から、リアルタイムに使用者の精神状態や表示用データの看過した状況を推定することができ、その結果に基づき使用者に示す表示内容をリアルタイムに追加したり変更したりすることができる。
上記図8の処理の流れでは、看過判定部704は、特性判定部702からまばたきをした時間位置が通知されるごとに、看過判定処理を実施している。しかし、看過判定部704は、特性判定部702から通知されるまばたきの時間位置をある一定時間観測し、その観測した一定時間のおけるまばたきの時間位置から検出したまばたきのパターンを利用して、看過判定処理を行ってもよい。
図9は、看過判定部704が、看過判定処理に利用するまばたきのパターンの例を示している。
まばたきのパターンとして以下の3つの例を挙げる
(1) まばたきパターン1:
まばたきを検出してから、観測時間=t内のまばたき回数がm回未満(m>0)
(2) まばたきパターン2:
まばたきを検出してから、観測時間=t内のまばたき回数がm回未満(m>0)、かつ観測時間2=s内にその状態がn回以上連続
(3) まばたきパターン3:
まばたきを検出してから、観測時間t内のまばたき回数がm回以上(m>0)
それぞれのまばたきパターンの様子を、まばたきパターン1を図9(A)に、まばたきパターン2を図9(B)に、まばたきパターン3を図9(C)に示す。
それぞれのまばたきパターンに対して、看過判定部704は、以下の判定をするものとする。
(1) まばたきパターン1に対する判定(判定パターン1):
まばたきをしたとは判定しない(集中力は途切れていない、と見なす)
(2) まばたきパターン2に対する判定(判定パターン2):
まばたきをしたと判定(集中力がやや途切れてきている、と見なす)
(3) まばたきパターン3に対する判定(判定パターン3):
まばたきをしたと判定(集中力が途切れた、と見なす)
例えば看過判定部704が、特性判定部702より通知されたまばたきをした時間位置からまばたきパターン1と認識した場合、看過判定部704は、メガネ型ウェアラブル装置400の使用者は表示部301に表示されている表示用データを看過していない、と判断する(判定パターン1)。
また看過判定部704は、まばたきパターン2とまばたきパターン3のようにメガネ型ウェアラブル装置400の使用者が表示部301に表示されている表示用データを看過した度合いを区別することも出来る。
例えば、看過判定部704が、特性判定部702から通知されたまばたきの時間位置からまばたきパターン2であると認識した場合、メガネ型ウェアラブル装置400の使用者は集中力がやや途切れてきていると判断し(判定パターン2)、表示部301に第1の表示用データを表示に加え、第2の表示用データとして警告内容のデータを表示部301に表示するように、表示用データ出力部703に指示を出してもよい。あるいは、音声による警告であってもよい。
また、看過判定部704が、特性判定部702から通知されたまばたきの時間位置からをまばたきパターン3であると認識した場合、メガネ型ウェアラブル装置400の使用者は集中力が途切れたと判断し(判定パターン3)、表示部301に第1の表示用データの表示を停止して、停止位置から一定時間戻った地点から第1の表示用データの表示を再開するように、表示用データ出力部703に指示を出してもよい。
このように看過判定部704は、メガネ型ウェアラブル装置400の使用者が表示部301に表示されている表示用データの重要表示位置を看過した度合いを判定し、その判定した看過の度合いを加味して、リアルタイムに使用者の精神状態や表示用データの看過した状況を推定することができ、その結果に応じて使用者に示す表示内容をリアルタイムに追加したり変更したりすることができる。
図10A及び図10Bは、看過判定部704が、メガネ型ウェアラブル装置400の使用者が表示用データの重要表示位置を看過したかどうかの判定に、まばたきのパターンを加味する場合の、看過判定の処理の流れの一例を示す図である。図8の処理との相違点は、まばたきのパターンの判定を追加している点である。
眼電位が変化した時間位置を取得(S1005)した看過判定部704は、まばたきパターンを判定するための観測時間が満了したかどうかの判定を行う(S1006)。観測時間が満了していない場合、看過判定部704は、観測時間が満了するまで眼電位が変化した時間を取得し続ける。観測時間が満了した場合、看過判定部704は、観測時間内に取得した眼電位が変化した時間から、まばたきパターンの判定を行う(S1007)。看過判定部704は、眼電位が変化した時間から特定されたまばたきが、例えばまばたきパターン1からまばたきパターン3に一致するかどうかの判定を行う。
判定の結果、一致していることが判明した場合、看過判定部704は、観測時間の開始の時間位置を取得し(S1008)、その時間位置における、表示用データ出力部703が表示部301に出力した表示用データの内容を取得(S1009)して、その表示内容の重要度を判定する(S1010)。判定の結果(S1011)、重要と判定されると、看過判定部704は、メガネ型ウェアラブル装置400の使用者が、S1009で取得した時間位置の表示用データを看過したと判断(S1012)する。看過判定部704は、看過したとの判断結果に基づく処理を実施する(S1013)。
看過したとの判断結果に基づく処理(S1013)は、S1007で判定されたまばたきパターンによって変えることが望ましい。例えば先に述べたように、看過判定部704が、パターン2であると認識した場合、表示部301に第1の表示用データを表示している最中に、第2の表示用データとして警告内容のデータを表示部301に表示するように、表示用データ出力部703に指示を出してもよい。また、看過判定部704が、まばたきパターン3であると認識した場合、メガネ型ウェアラブル装置400の使用者は集中力が途切れたと判断し、表示部301に第1の表示用データの表示を停止して、停止位置から一定時間戻った地点から、再度第1の表示用データの表示を再開するように、表示用データ出力部703に指示を出してもよい。
看過したとの判断結果に基づく処理(S1013)を実施したのち、看過判定部704は、観測時間中に保存していた眼電位が変化した時間位置の情報をクリアする(S1014)。以降第1の表示用データが存在している間(S1015)、上記の処理を繰り返す。第1の表示用データの表示が終了した場合、その時点まで取得した眼電位の変化した時間から、まばたきパターンの判定(S1016)及び重要な表示用データを看過したかの判定(S1020)を行い、判定に基づいてS1013同様に処理を行う(S1022)
図11から図13は、看過判定部704によって看過したとの判断結果に基づいて、表示部301に表示する表示用データの内容の一例を示したものである。
図11(A)は、メガネ型ウェアラブル装置400の使用者がまばたきをした時間位置が、表示用データの重要表示位置でない(文節の切れ目)部分を読んでいる時であることを示している例である。したがって看過判定部704は、メガネ型ウェアラブル装置400の使用者が表示用データ「○○○を△△△した後で、×××をする」を看過してないと判断する。したがって、表示用データ出力部703は、例えば次の表示内容として図11(B)に示したように、「作業を開始してください」の表示用データを表示部301に表示する。
図12(A)は、メガネ型ウェアラブル装置400の使用者がまばたきをした時間位置が、表示用データの重要表示位置である(文節の中)ことを示している例である。したがって看過判定部704は、メガネ型ウェアラブル装置400の使用者が表示用データ「○○○を△△△した後で、×××をする」を看過したと判断する。このような場合、看過判定部704は、例えば図12(B)に示すように表示するデータを動画マニュアルに変更して表示するように、表示用データ出力部703に指示する。指示を受けた表示用データ出力部703は、表示用データDB705に保存されている動画マニュアルを読み出し、表示部301に表示する。
図13(A)は、表示用データが表示されている間、メガネ型ウェアラブル装置400の使用者がまばたきを続けている(あるいは、目を閉じ続けている)場合の例である。したがって看過判定部704は、メガネ型ウェアラブル装置400の使用者が表示用データ「○○○を△△△した後で、×××をする」をまったく見ていないと判断する。このような場合、看過判定部704は、例えば図13(B)に示すように表示部301に表示しているデータを一旦停止させる。看過判定部704は、メガネ型ウェアラブル装置400の使用者のまばたきが終了(あるいは、目をあけている)と判定したら、図13(C)に示すように、表示部301に表示されている内容から一定時間戻った位置から表示用データの表示を再開するよう表示用データ出力部703に指示を出す。表示用データ出力部703は、看過判定部704の指示に従って、一定時間戻った位置から表示用データの出力を再開する。
このように、看過判定部704によって看過したと判定されると、表示用データ出力部703は、表示部301に表示する内容を、次の作業に進むように促す表示をするように指示したり、使用者のまばたきの状況から推定される理解度に合わせて表示用データを変えるように指示したりすることが可能である。これにより、メガネ型ウェアラブル装置400の使用者の看過の状況に合わせて、表示用データを表示部301に表示することが可能となる。
メガネ型ウェアラブル装置400の使用者がまばたきをした時間位置において、表示部301に表示されている表示用データを読み取っている位置は、使用者の視線位置を用いて判定することもできる。上記したように特性判定部702は、取得した検出信号の変化の状況を観測することで、視線位置も推定することができる。この視線位置の情報を用いて、看過判定部は、表示部301に表示されている表示用データのうち、使用者が読み込んでいる場所を判定することができる。
図11から図13に示したように、使用者がまばたきした時間位置において表示用データを読み取っている位置は、この視線位置の情報を元に推定してもよい。
また例えば、表示用データが動画(ビデオ)の場合はその表示内容の時間経過位置を用い、表示用データがテキスト(画像)の場合は視線位置を用いて、使用者がまばたきをした時間位置において、表示部301に表示されている表示用データのうち使用者が読み取っている位置を推定してもよい。勿論その逆でもよいし、両方の情報を併用して表示用データを読み取っている位置を推定してもよい。
図14は、メガネ型ウェアラブル装置400にある無線モジュール405を使って、表示部301に表示している内容を、ネットワークを経由して他のメガネ型ウェアラブル装置の使用者と共有する場合の一例を示す図である。グラス型ウェアラブル装置110−1の使用者は、表示部301に表示されている第1の表示用データを見ながら作業をしているとする。グラス型ウェアラブル装置110−2の使用者は、表示部301に表示されている第2の表示用データを見ながら作業をしているとする。この時に、グラス型ウェアラブル装置110−2の看過判定処理によりグラス型ウェアラブル装置110−2の使用者が、第2の表示用データを看過したと判定され、表示部301に警告を示す第3の表示用データが表示されとする。この第3の表示用データが表示されると、グラス型ウェアラブル装置110−2の無線モジュール303は、ネットワークを経由して監督者用端末103の表示部201にも第3の表示用データを同時に表示できるように、第3の表示用データの送信を行う。このように無線モジュール303により、特定の表示用データを特定の人とリアルタイムで共有することも可能である。
また、特定の表示用データを特定の人とリアルタイムで共有する際に、メガネ型ウェアラブル装置400にある他のセンサ325、センサ326の情報も併せて共有してもよい。例えば、メガネ型ウェアラブル装置400は、センサ325として加速度センサを備えているとする。表示用データを共有するタイミングで、この加速度センサにより収集した体動情報も共有することで、共有する表示用データの内容を補完することができ、共有する情報の精度を高めることができる。例えば共有する表示用データの内容が、警告を示すものである場合、加速度センサで収集した動体情報が一定周期での動作を示している場合、メガネ型ウェアラブル装置400の使用者が寝ている、という確度を高めることができる。
今までの例は、看過判定部704により第1の表示用データを看過したことが判定された場合、リアルタイムで表示部301に表示している第1の表示用データに第2の表示用データを追加したり、他の表示用データの内容を表示したりするものであるが、表示部301に表示する内容を変えるタイミングは、リアルタイムの場合だけに限らない。
例えば、看過判定部704が、メガネ型ウェアラブル装置400の使用者が表示部301に表示されている第1の表示用データの重要表示位置を看過した、と判定したとする。この場合看過判定部704は、メガネ型ウェアラブル装置400の使用者が第1の表示用データの重要表示位置を看過したと判断した時間位置の表示内容に、第2の表示用データとして警告内容のデータを編集した、第3の表示用データを作成することも可能である。
新たに作成された第3の表示用データは、表示用DB705に保存することができる。したがって、メガネ型ウェアラブル装置400の使用者は、必要なタイミングであらたに作成された第3の表示用データを表示部301に表示して見ることが可能である。
また例えば、看過判定部704がメガネ型ウェアラブル装置400の使用者が重要表示位置を看過したと判定した場合、看過判定部704は、表示部301に表示している表示用データの内容と看過したと判断した時間位置の組み合わせの情報を表示用データDB705に保存してもよい。更に、同様のデータをメガネ型ウェアラブル装置400を使用している多くの使用者から集めて表示用データDB705に蓄積し、表示用データの今後の更新の際の参考情報として活用してもよい。また、メガネ型ウェアラブル装置400が備える他のセンサ325、センサ326の情報も併せて表示用データDB705に蓄積してもよい。
例えば第1の表示用データが、メガネ型ウェアラブル装置400の使用者にとってトレーニング用の表示用データである場合、使用者がこのトレーニング用データを見ている際の眼電位の検出信号の変化を検出することで、トレーニング時の集中力の度合いやストレスの有無、トレーニング用データの理解度等をリアルタイムに推定することが出来る。これらのデータは、無線モジュール303によりネットワーク経由で情報管理サーバー101に保存してもよい。またトレーニング用データを見た他の多くの使用者のデータも併せて情報管理サーバー101に保存してもよい。
このトレーニング用データを見た後に、実際の作業を行った際の作業の状況から作業の理解度を採点し、この実際の作業の理解度の情報も情報管理サーバー101に保存することで、トレーニング用データを視聴した際の理解度等のデータと、実際に作業を行った際の作業内容の理解度等のデータをまとめて解析し、今後の改善に生かすことが可能となる。
例えば、トレーニング用データを見て実際の作業を行ったメガネ型ウェアラブル装置400の使用者の作業の理解度を推定する場合、その推定方法を、情報管理サーバー101に保存されているトレーニング用データを視聴した際の理解度等のデータと、実際に作業を行った際の作業内容の理解度等のデータをまとめて解析することで、より適切なものに修正することができる。また解析の結果、どの使用者においても同じように理解度や集中度が低い作業箇所が発見できた場合は、トレーニング用データや実際の作業において表示する表示用データに問題があったと推定され、トレーニング用データや実際の作業において表示する表示用データの内容を改善することができる。
トレーニング用データや実際の作業において表示する表示用データの内容の改善は、
個人ごとに適した作業指示を含む表示用データを作成することも可能である。また、個人ごとの作業指示を含む表示用データを集合し、共通部分を抽出することで、一般的な作業指示の表示用データとして作成することも可能である。
第1の表示用データをベースにして新たに作成された第3の表示用データは、今まで第1の表示用データを見ながら作業をしていた作業者が、以降の作業においても必要となる表示用データである。このように作業を行うために必要となる表示用データにおいて、過去の作業時の様子が追加された内容の表示用データを見ることで、今後の作業における危険回避や効率改善を行うことが可能となる。
上記した実施形態では、メガネ型ウェアラブル装置400の使用者のまばたきを調べることにより、リアルタイムでメガネ型ウェアラブル装置400の使用者の精神状態や表示用データの看過した状況を推定することができる。
これにより、推定した精神状態や表示用データの看過した状況を元に、使用者に表示する表示用データをリアルタイムで変更することで作業効率の促進を図ることができる。また、これらの表示用データは、必要な内容に関してネットワークを通じて他の関係者とリアルタイムに共有することができるため、例えば監督者がメガネ型ウェアラブル装置400を使用した作業者の作業状況の問題点をリアルタイムに容易に把握することができ、遠隔からの状況把握が容易になる。また、推定した精神状態や表示用データの看過した状況を蓄積して、表示用データを今後更新する際に活用したり、推定した精神状況を元に作業者の今後の予定を決める、というよう、今後の作業を行う際の基礎データとして活用することも可能である。
上記したように実施例によると、いわゆる眼電位検出機能にて「まばたきを検出」してメガネ型ウェアラブル装置を用いたトレーニング装置を得ることができる。例えば、教育ビデオの閲覧であれば、内容と時間軸が事前に判っており、表示がテキストベースであれば眼電位検出機能を応用した視線移動検出により読んでいる箇所をリアルタイムに推定することができる。これにより、メガネ型ウェアラブル装置を用いたトレーニング装置によるトレーニング受講者の「まばたき発生タイミング」から理解度をリアルタイムで推定することができる。また、これらのデータを収集して記録し第1のビッグデータとして利用することができる。
一方では、受講者の実務データから推定される理解度を採点することができる。また、これらのデータを記録して第2のビッグデータとして利用することができる。
例えば、具体的な応用として、複数の受講者の推定/採点のデータを機械学習等のビッグデータとして記録保存し、このビッグデータを解析して理解度を推定する推定エンジンを改善することができる。そして、誰が受講しても理解度/集中度が低い箇所は、教育ビデオ/テキスト側に問題があると推定することができる。これにより、教育ビデオ/テキスト側の問題がみつかり、教育ビデオ/テキスト側を改善することもできる。更に、理解度のリアルタイムの推定の精度が向上した際には、受講者の理解度/集中度に合わせてメガネ型ウェアラブル装置上に注意や警告の表示をおこなうこともできる。
したがって、本実施形態によると、トレーニングにおいて、或いは実務において、特性判定部は、少なくともメガネ型ウェアラブル装置の使用者がまばたきをした時間位置を判定する、看過判定部は、前記まばたきをした時間位置と、表示用データの時間経過位置とを比較し、使用者が重要表示位置を看過したか否かを判定する。そしてこれらのトレーニングによる推定データを第1のビッグデータとし、実務における採点データを第2のビッグデータとして情報管理サーバーに格納することができる。これらの第1、第2のビッグデータの量が多くなれば、例えばシステムコントローラ、或いは別途設けた解析装置によるデータ解析により、先に説明したように、推定エンジンを改善、作業の教育ビデオ/テキスト側の改善が可能となる。
上記した受講者が、先の実施形態で述べた作業者であることで、作業の危険回避、作業効率の改善などを行うことが可能となる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
400・・・メガネ型ウェアラブル装置、402・・・ノーズパッド、404・・・表示部、406・・・眼電位検出電極、501a・・・眼電位検出電極、501b・・・眼電位検出電極、502a・・・眼電位検出電極、501b・・・眼電位検出電極、701・・・検出信号取得部、702・・・特定判定部、703・・・表示用データ出力部、704・・・看過判定部、705・・・表示用データDB。

Claims (20)

  1. 使用者の眼球周辺の電位を検出する複数の電位検出センサから複数の検出信号を取得する検出信号取得部と、
    使用者の視線の延長線上に位置し、表示用データを表示する表示部と
    重要表示位置と非重要表示位置を含む第1の表示用データが前記表示部に表示されているとき、前記検出信号取得部により取得された前記複数の検出信号の変化から、少なくとも前記使用者がまばたきをした時間位置を判定する特性判定部と、
    前記検出信号取得部により取得された前記複数の検出信号に基づいて前記使用者の眼球の動きを検出する検出部と、
    前記表示部で表示されている前記第1の表示用データの前記重要表示位置を前記使用者が看過したか否かを前記特性判定部により判定された前記まばたきをした時間位置と前記検出部により検出された前記眼球の動きに基づいて判定する看過判定部と、
    を備えるメガネ型ウェアラブル装置。
  2. 前記看過判定部が、前記使用者が前記第1の表示用データの前記重要表示位置を看過したと判定した場合、前記表示部は、前記第1の表示用データと異なる第2の表示用データを表示することを特徴とする
    請求項1記載のメガネ型ウェアラブル装置。
  3. 前記第1の表示用データは、前記使用者に見せるためのマニュアル画像データである請求項1記載のメガネ型ウェアラブル装置。
  4. 前記看過判定部が、前記使用者が前記第1の表示用データの前記重要表示位置を看過したと判定した場合、前記表示部は、前記第1の表示用データの繰り返しのデータである前記第2の表示用データを表示することを特徴とする請求項2記載のメガネ型ウェアラブル装置。
  5. 前記第1の表示用データは、前記使用者に仮想作業として、トレーニングを行わせるためのデータである
    請求項1記載のメガネ型ウェアラブル装置。
  6. 前記第2の表示用データは、警告表示用のデータ又は許可表示用のデータである
    請求項2記載のメガネ型ウェアラブル装置。
  7. 前記看過判定部は、一定時間内に存在する前記まばたきをした時間位置から、前記まばたきをした時間位置のパターンを判定し、判定した前記まばたきをした時間位置のパターンから、前記第2の表示用データの内容を変えることを特徴とする、
    請求項2記載のメガネ型ウェアラブル装置。
  8. 前記看過判定部は、前記使用者が前記第1の表示用データの前記重要表示位置を看過したと判定した場合、前記第1の表示用データに対して第2の表示用データを書き込んで、第3の表示用データを作成することを特徴とする、
    請求項1記載のメガネ型ウェアラブル装置。
  9. 前記特性判定部は、前記検出信号取得部により取得された検出信号の変化から、前記使用者の視線位置を判定し、
    前記看過判定部は、判定された前記視線位置を用いて、前記表示部に表示されている表示用データを前記使用者が読み取っている位置を判定し、前記まばたきをした時間位置と前記読み取っている位置とを比較し、前記使用者が第1の表示用データの前記重要表示位置を看過したか否かを判定する
    請求項1記載のメガネ型ウェアラブル装置。
  10. 前記第1の表示用データを、前記表示部で表示する際に、前記第1の表示用データを、ネットワークを通じて他の使用者と共有するための送受信部をさらに具備する、
    請求項1記載のメガネ型ウェアラブル装置。
  11. 前記第1の表示用データがテキストデータを具備する場合、前記重要表示位置は文節の中であり、前記非重要表示位置は前記文節の切れ目である請求項1記載のメガネ型ウェアラブル装置。
  12. 使用者の眼球周辺の電位を検出する複数の電位検出センサから複数の検出信号を取得する検出信号取得部と、
    使用者の視線の延長線上に位置し、表示用データを表示する表示部と
    重要表示位置と非重要表示位置を含む第1の表示用データが前記表示部に表示されているとき、前記検出信号取得部により取得された前記複数の検出信号の変化から、少なくとも前記使用者がまばたきをした時間位置を判定する特性判定部と、
    前記検出信号取得部により取得された前記複数の検出信号に基づいて前記使用者の眼球の動きを検出する検出部と、を備えるメガネ型ウェアラブル端末の制御方法であって、
    前記表示部で表示されている前記第1の表示用データの前記重要表示位置を前記使用者が看過したか否かを前記特性判定部により判定された前記まばたきをした時間位置と前記検出部により検出された前記眼球の動きに基づいて判定するメガネ型ウェアラブル端末の制御方法。
  13. 使用者の眼球周辺の電位を検出する複数の電位検出センサから複数の検出信号を取得する検出信号取得部と、
    使用者の視線の延長線上の所定の位置に位置し、表示用データを表示する表示部と、
    時間経過とともに変化する第1の表示用データを前記表示部に送信する表示用データ出力部と、
    前記第1の表示用データが前記表示部に表示されているとき、前記検出信号取得部により取得された検出信号の変化から、少なくとも前記使用者がまばたきをした時間位置を判定する特性判定部と、
    前記まばたきをした時間位置と、前記第1の表示用データの時間経過位置とを比較し、前記使用者が重要表示位置を看過したか否かを判定する看過判定部と、
    前記看過判定部の判定結果から前記使用者の理解度をリアルタイムで推定し、推定した結果を収集して記録し第1のビッグデータとし保存し、前記使用者の実務データから推定した理解度のデータを記録して第2のビッグデータとして保存するデータサーバーとを備えた、
    情報管理サーバー。
  14. 前記第1の表示用データがトレーニング用の表示データを含む場合、前記データサーバーは、前記トレーニング用の表示データにおける看過位置の集計結果に応じて前記トレーニング用の表示データの看過位置に関する情報を前記表示部で表示させる請求項13記載の情報管理サーバー。
  15. 前記第1の表示用データがトレーニング用の表示データを含む場合、前記データサーバーは、前記第1のビッグデータと前記第2のビッグデータに応じて前記トレーニング用の表示データの内容を変更する請求項13記載の情報管理サーバー。
  16. 使用者の眼球周辺の電位を検出する複数の電位検出センサから複数の検出信号を取得する検出信号取得部と、
    使用者の視線の延長線上の所定の位置に位置し、表示用データを表示する表示部と、
    時間経過とともに変化する第1の表示用データを前記表示部に送信する表示用データ出力部と、
    前記第1の表示用データが前記表示部に表示されているとき、前記検出信号取得部により取得された検出信号の変化から、少なくとも前記使用者がまばたきをした時間位置を判定する特性判定部と、
    前記まばたきをした時間位置と、前記第1の表示用データの時間経過位置とを比較し、前記使用者が重要表示位置を看過したか否かを判定する看過判定部と、
    を備え、
    前記看過判定部が、前記使用者が前記重要表示位置を看過したと判定した場合、前記表示用データ出力部は、前記第1の表示用データと異なる警告表示用のデータ又は許可表示用のデータである第2の表示用データを、前記表示部に対して出力するメガネ型ウェアラブル装置。
  17. 使用者の眼球周辺の電位を検出する複数の電位検出センサから複数の検出信号を取得する検出信号取得部と、
    使用者の視線の延長線上の所定の位置に位置し、表示用データを表示する表示部と、
    時間経過とともに変化する第1の表示用データを前記表示部に送信する表示用データ出力部と、
    前記第1の表示用データが前記表示部に表示されているとき、前記検出信号取得部により取得された検出信号の変化から、少なくとも前記使用者がまばたきをした時間位置を判定する特性判定部と、
    前記まばたきをした時間位置と、前記第1の表示用データの時間経過位置とを比較し、前記使用者が重要表示位置を看過したか否かを判定する看過判定部と、
    を備え、
    前記看過判定部が、前記使用者が前記重要表示位置を看過したと判定した場合、前記表示用データ出力部は、第2の表示用データとして前記第1の表示用データと異なる表示用データを、前記表示部に対して、出力し、
    前記看過判定部は、一定時間内に存在する前記まばたきをした時間位置から、まばたきをした時間位置のパターンを判定し、判定した前記まばたきをした時間位置のパターンから、前記第2の表示用データの内容を変えるメガネ型ウェアラブル装置。
  18. 使用者の眼球周辺の電位を検出する複数の電位検出センサから複数の検出信号を取得する検出信号取得部と、
    使用者の視線の延長線上の所定の位置に位置し、表示用データを表示する表示部と、
    時間経過とともに変化する第1の表示用データを前記表示部に送信する表示用データ出力部と、
    前記第1の表示用データが前記表示部に表示されているとき、前記検出信号取得部により取得された検出信号の変化から、少なくとも前記使用者がまばたきをした時間位置を判定する特性判定部と、
    前記まばたきをした時間位置と、前記第1の表示用データの時間経過位置とを比較し、前記使用者が重要表示位置を看過したか否かを判定する看過判定部と、
    を備え、
    前記看過判定部は、前記使用者が前記重要表示位置を看過したと判定した場合、前記第1の表示用データに対して第2の表示用データを書き込んで、第3の表示用データを作成するメガネ型ウェアラブル装置。
  19. 使用者の眼球周辺の電位を検出する複数の電位検出センサから複数の検出信号を取得する検出信号取得部と、
    使用者の視線の延長線上の所定の位置に位置し、表示用データを表示する表示部と、
    時間経過とともに変化する第1の表示用データを前記表示部に送信する表示用データ出力部と、
    前記第1の表示用データが前記表示部に表示されているとき、前記検出信号取得部により取得された検出信号の変化から、少なくとも前記使用者がまばたきをした時間位置を判定する特性判定部と、
    前記まばたきをした時間位置と、前記第1の表示用データの時間経過位置とを比較し、前記使用者が重要表示位置を看過したか否かを判定する看過判定部と、
    を備え、
    前記特性判定部は、前記検出信号取得部により取得された検出信号の変化から、前記使用者の視線位置を判定し、
    前記看過判定部は、判定された前記視線位置を用いて、前記表示部に表示されている表示用データを前記使用者が読み取っている位置を判定し、まばたきをした時間位置と前記読み取っている位置とを比較し、前記使用者が重要表示位置を看過したか否かを判定するメガネ型ウェアラブル装置。
  20. 使用者の眼球周辺の電位を検出する複数の電位検出センサから複数の検出信号を取得する検出信号取得部と、
    使用者の視線の延長線上の所定の位置に位置し、表示用データを表示する表示部と、
    時間経過とともに変化する第1の表示用データを前記表示部に送信する表示用データ出力部と、
    前記第1の表示用データが前記表示部に表示されているとき、前記検出信号取得部により取得された検出信号の変化から、少なくとも前記使用者がまばたきをした時間位置を判定する特性判定部と、
    前記まばたきをした時間位置と、前記第1の表示用データの時間経過位置とを比較し、前記使用者が重要表示位置を看過したか否かを判定する看過判定部と、
    表示用データを、前記表示部に対して出力する際に、前記表示用データを、ネットワークを通じて他の使用者と共有するための送受信部と、を具備するメガネ型ウェアラブル装置。
JP2015172230A 2015-09-01 2015-09-01 メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー Active JP6334484B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015172230A JP6334484B2 (ja) 2015-09-01 2015-09-01 メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー
US14/979,197 US11016295B2 (en) 2015-09-01 2015-12-22 Eyeglasses wearable device, method of controlling the eyeglasses wearable device and data management server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015172230A JP6334484B2 (ja) 2015-09-01 2015-09-01 メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー

Publications (2)

Publication Number Publication Date
JP2017049781A JP2017049781A (ja) 2017-03-09
JP6334484B2 true JP6334484B2 (ja) 2018-05-30

Family

ID=58097918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015172230A Active JP6334484B2 (ja) 2015-09-01 2015-09-01 メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー

Country Status (2)

Country Link
US (1) US11016295B2 (ja)
JP (1) JP6334484B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110023816A (zh) * 2016-12-01 2019-07-16 黄绅嘉 辨别情绪或心理状态的系统
JP2020030390A (ja) * 2018-08-24 2020-02-27 株式会社ジンズホールディングス アイウエアおよびアイウエアアクセサリ、これらに使用するレンズ
JP2024075801A (ja) * 2021-03-24 2024-06-05 株式会社Nttドコモ 表示制御装置
US20230355090A1 (en) * 2022-05-09 2023-11-09 Kure, Llc Smart eye mask

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3032369B2 (ja) 1992-01-30 2000-04-17 株式会社フジタ 双方向情報伝送システム
JP3324945B2 (ja) 1996-11-15 2002-09-17 日本輸送機株式会社 ピッキング作業方法
JPH10207615A (ja) * 1997-01-22 1998-08-07 Tec Corp ネットワークシステム
JP2000354943A (ja) 1999-06-09 2000-12-26 Nippon Telegr & Teleph Corp <Ntt> 作業管理・支援方法、その装置及びそのプログラムを記録した記録媒体
JP2002288294A (ja) 2001-03-26 2002-10-04 Mitsubishi Heavy Ind Ltd 現場支援システム
JP2003196681A (ja) 2001-12-26 2003-07-11 Sharp Corp 作業指図システム、作業指図方法及びそれを実現するためのプログラムを格納した記録媒体
JP2003216687A (ja) 2002-01-28 2003-07-31 Yamaha Livingtec Corp 施工支援システム
JP2004102727A (ja) 2002-09-10 2004-04-02 Mitsubishi Heavy Ind Ltd 作業支援システム
JP2006072876A (ja) * 2004-09-06 2006-03-16 Fuji Xerox Co Ltd 情報提示装置及び情報提示方法、並びにコンピュータ・プログラム
KR100594117B1 (ko) * 2004-09-20 2006-06-28 삼성전자주식회사 Hmd 정보 단말기에서 생체 신호를 이용하여 키를입력하는 장치 및 방법
JP2007003618A (ja) * 2005-06-21 2007-01-11 Sharp Corp 表示装置および携帯端末装置
US8374687B2 (en) * 2006-01-21 2013-02-12 Honeywell International Inc. Rapid serial visual presentation triage prioritization based on user state assessment
US20070173699A1 (en) * 2006-01-21 2007-07-26 Honeywell International Inc. Method and system for user sensitive pacing during rapid serial visual presentation
JP2008237369A (ja) * 2007-03-26 2008-10-09 Canon Inc 画像処理装置及び画像処理方法
US8059136B2 (en) * 2007-12-11 2011-11-15 Honeywell International Inc. Hierarchichal rapid serial visual presentation for robust target identification
JP5061931B2 (ja) * 2008-02-04 2012-10-31 ソニー株式会社 情報処理装置および情報処理方法
JP2009279193A (ja) 2008-05-22 2009-12-03 Fujifilm Corp 医療機器管理システム
JP2010271928A (ja) 2009-05-21 2010-12-02 Kanto Auto Works Ltd 作業アシストシステム及び作業アシスト方法並びに該作業アシスト方法を記録した記録媒体
JP2011022211A (ja) * 2009-07-13 2011-02-03 Toyota Central R&D Labs Inc 運転模擬装置及び運転模擬制御プログラム
JP2011081737A (ja) 2009-10-09 2011-04-21 Toshiba Tec Corp 調理補助端末及びプログラム
JP5613025B2 (ja) * 2009-11-18 2014-10-22 パナソニック株式会社 視線検出装置、視線検出方法、眼電位計測装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがねおよび眼科診断装置
JP5490664B2 (ja) * 2009-11-18 2014-05-14 パナソニック株式会社 眼電位推定装置、眼電位算出方法、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイおよび電子めがね
JP5193988B2 (ja) 2009-12-03 2013-05-08 東芝テック株式会社 調理補助端末及びプログラム
KR20120019153A (ko) * 2010-08-25 2012-03-06 에스케이 텔레콤주식회사 학습 플랜 분석 방법, 장치 및 시스템
JP5423716B2 (ja) 2011-03-30 2014-02-19 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5348192B2 (ja) 2011-07-11 2013-11-20 日本電気株式会社 作業支援システム、端末、方法およびプログラム
US8970452B2 (en) * 2011-11-02 2015-03-03 Google Inc. Imaging method
US9230221B2 (en) * 2012-02-23 2016-01-05 Worcester Polytechnic Institute Instruction system with eyetracking-based adaptive scaffolding
TWI466655B (zh) * 2012-03-16 2015-01-01 Univ Nat Chiao Tung 可偵測眼動訊號之影像控制系統
JP5661067B2 (ja) 2012-05-29 2015-01-28 株式会社ジェイアイエヌ アイウエア
US9070301B2 (en) * 2012-06-04 2015-06-30 At&T Intellectual Property I, L.P. System and method for improved human learning through multi-sensory stimulus
JP5888205B2 (ja) * 2012-11-02 2016-03-16 ソニー株式会社 画像表示装置並びに情報入力装置
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9619911B2 (en) * 2012-11-13 2017-04-11 Qualcomm Incorporated Modifying virtual object display properties
JP2014123179A (ja) * 2012-12-20 2014-07-03 Fujitsu Ltd 情報処理装置、情報処理方法、見落し防止プログラム
JP6082272B2 (ja) 2013-02-25 2017-02-15 東京エレクトロン株式会社 支援情報表示方法、基板処理装置の保守支援方法、支援情報表示制御装置、基板処理システム及びプログラム
CA2905760C (en) * 2013-03-13 2020-06-09 The Henry M. Jackson Foundation For The Advancement Of Military Medicine, Inc. Enhanced neuropsychological assessment with eye tracking
TWI486630B (zh) * 2013-03-27 2015-06-01 聚晶半導體股份有限公司 適應性調整頭戴式顯示器的方法與頭戴式顯示器
JP6197366B2 (ja) 2013-05-23 2017-09-20 ソニー株式会社 情報処理装置及び記憶媒体
US20150079560A1 (en) * 2013-07-03 2015-03-19 Jonathan Daniel Cowan Wearable Monitoring and Training System for Focus and/or Mood
US9652034B2 (en) * 2013-09-11 2017-05-16 Shenzhen Huiding Technology Co., Ltd. User interface based on optical sensing and tracking of user's eye movement and position
KR20150037251A (ko) * 2013-09-30 2015-04-08 엘지전자 주식회사 착용형 컴퓨팅 디바이스 및 사용자 인터페이스 방법
JP6222440B2 (ja) 2013-10-07 2017-11-01 コニカミノルタ株式会社 Ar表示システム、およびar表示装置、情報処理装置、プログラム
KR102287905B1 (ko) * 2013-11-01 2021-08-09 삼성전자주식회사 멀티미디어 기기, 온라인 교육 시스템 및 이들의 컨텐츠 제공 방법
US9955895B2 (en) * 2013-11-05 2018-05-01 The Research Foundation For The State University Of New York Wearable head-mounted, glass-style computing devices with EOG acquisition and analysis for human-computer interfaces
US20150145670A1 (en) * 2013-11-26 2015-05-28 Kabushiki Kaisha Toshiba Electronic device and control method thereof
CN104049761B (zh) * 2014-06-27 2017-11-07 北京智谷睿拓技术服务有限公司 眼电检测方法及眼电检测装置
WO2016017966A1 (en) * 2014-07-29 2016-02-04 Samsung Electronics Co., Ltd. Method of displaying image via head mounted display device and head mounted display device therefor
KR20160017854A (ko) * 2014-08-06 2016-02-17 삼성디스플레이 주식회사 표시 장치의 블링크 장치 및 블링크 유도 방법
CN104182046A (zh) * 2014-08-22 2014-12-03 京东方科技集团股份有限公司 眼控提醒方法、眼控图像显示方法及显示系统
JP5646108B1 (ja) 2014-08-26 2014-12-24 宮川工機株式会社 木材プレカット工場用業務支援システム
US9946340B2 (en) 2014-11-06 2018-04-17 Kabushiki Kaisha Toshiba Electronic device, method and storage medium
US20160247322A1 (en) 2015-02-23 2016-08-25 Kabushiki Kaisha Toshiba Electronic apparatus, method and storage medium
US20170115742A1 (en) * 2015-08-01 2017-04-27 Zhou Tian Xing Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command

Also Published As

Publication number Publication date
US11016295B2 (en) 2021-05-25
US20170059865A1 (en) 2017-03-02
JP2017049781A (ja) 2017-03-09

Similar Documents

Publication Publication Date Title
US10877715B2 (en) Emotionally aware wearable teleconferencing system
JP5475893B2 (ja) 視覚疲労度測定装置およびその方法
US10431116B2 (en) Orator effectiveness through real-time feedback system with automatic detection of human behavioral and emotional states of orator and audience
KR20190006553A (ko) 사용자 거동에 관한 눈 추적 기반 정보를 제공하기 위한 방법 및 시스템, 클라이언트 디바이스, 서버 및 컴퓨터 프로그램 제품
JP6334484B2 (ja) メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー
KR101584090B1 (ko) 미러 디바이스, 웨어러블 디바이스 및 이를 이용한 운동 관리 시스템
WO2016078911A1 (en) Eye training system and computer program product
GB2478034A (en) Systems for inducing change in a human physiological characteristic representative of an emotional state
JP6774975B2 (ja) 眼球回転検出装置、電子機器及びシステム
US11443650B2 (en) Method and apparatus for VR training
US20150215412A1 (en) Social network service queuing using salience
US9811993B2 (en) Vehicle operator impairment detection system and method
CN107562213A (zh) 视疲劳状态的检测方法、装置以及头戴式可视设备
CN111966224A (zh) 护眼模式的提示方法、装置、电子设备及存储介质
US11328187B2 (en) Information processing apparatus and information processing method
US11243609B2 (en) Information processing apparatus, information processing method, and program
CN106681509A (zh) 界面操作的方法和系统
CN106199970A (zh) 一种头戴设备的防疲劳方法和系统
CA3231733A1 (en) System and method for monitoring human-device interactions
US20240164677A1 (en) Attention detection
EP3996385A1 (en) Daydream-aware information recovery system
US20170147871A1 (en) Fatigue-warning system
US20240115831A1 (en) Enhanced meditation experience based on bio-feedback
CN114207662A (zh) 疲劳度评价系统及疲劳度评价装置
WO2020003293A2 (en) Apparatus, system, and method for machine perception

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180426

R151 Written notification of patent or utility model registration

Ref document number: 6334484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151