JP7296069B2 - 視線入力装置、および視線入力方法 - Google Patents
視線入力装置、および視線入力方法 Download PDFInfo
- Publication number
- JP7296069B2 JP7296069B2 JP2021012093A JP2021012093A JP7296069B2 JP 7296069 B2 JP7296069 B2 JP 7296069B2 JP 2021012093 A JP2021012093 A JP 2021012093A JP 2021012093 A JP2021012093 A JP 2021012093A JP 7296069 B2 JP7296069 B2 JP 7296069B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- region
- imaging
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
前記撮像データを、予め作成された視線領域予測の学習済みモデルに入力して、前記使用者の視線領域を特定する特定工程と、を有し、
前記予め作成された視線領域の学習済みモデルが、複数の注視座標点の情報を有する顔画像を学習用データとして、前記学習用データから顔領域を検出し、前記顔領域の畳み込みニューラルネットワークに対して機械学習して作成したものである、視線入力方法。
<2> 前記撮像する工程の撮像データが、前記使用者の顔を、所定の時間ごとに連続的に複数回撮像した複数の撮像データを含む連続撮像データであり、
前記特定工程により、前記連続撮像データのそれぞれの撮像データについて視線領域を特定し、
前記連続撮像データに基づいて特定されたそれぞれの前記視線領域を、移動平均処理したものを、前記所定の時間の平均視線領域とする平均化処理工程を有する、前記<1>に記載の視線入力方法。
<3> 前記特定工程により特定される前記視線領域が所定の時間、所定の領域内と判断され、前記視線領域に入力情報が存在するとき、選択肢を強調表示する強調表示工程と、
前記強調表示されているとき、前記強調表示の入力情報を入力することを確認するための確認領域を前記画面に表示し、前記確認領域に前記使用者の視線領域が特定されたとき、前記使用者が、前記強調表示の入力情報を入力したものとする確認工程とを有する、前記<1>または<2>に記載の視線入力方法。
<4> 前記入力情報が複数設けられ、表示される前記複数の入力情報間に、入力情報としない不感帯を有する、前記<1>~<3>のいずれかに記載の視線入力方法。
<5> 前記撮像手段が、表示部の周囲に固定されたものである、前記<1>~<4>のいずれかに記載の視線入力方法。
<6> 電子計算機への入力情報が表示された画面を有する表示部と、
前記画面を見ている使用者の顔を撮像し撮像データを取得する撮像手段と、
前記撮像データを、予め作成された視線領域予測の学習済みモデルに入力して、前記使用者の視線領域を特定する特定部と、を有し、
前記予め作成された視線領域の学習済みモデルが、複数の注視座標点の情報を有する顔画像を学習用データとして、前記学習用データから顔領域を検出し、前記顔領域の畳み込みニューラルネットワークに対して機械学習して作成したものである、視線入力装置。
本発明の視線入力方法は、電子計算機への入力情報が表示された画面を見ている使用者の顔を撮像手段で撮像し撮像データを取得する撮像工程と、前記撮像データを、予め作成された視線領域予測の学習済みモデルに入力して、前記使用者の視線領域を特定する特定工程と、を有し、
前記予め作成された視線領域の学習済みモデルが、複数の注視座標点の情報を有する顔画像を学習用データとして、前記学習用データから顔領域を検出し、前記顔領域の畳み込みニューラルネットワークに対して機械学習して作成したものである。
本発明の視線入力装置は、電子計算機への入力情報が表示された画面を有する表示部と、前記画面を見ている使用者の顔を撮像し撮像データを取得する撮像手段と、前記撮像データを、予め作成された視線領域予測の学習済みモデルに入力して、前記使用者の視線領域を特定する特定部と、を有し、前記予め作成された視線領域の学習済みモデルが、複数の注視座標点の情報を有する顔画像を学習用データとして、前記学習用データから顔領域を検出し、前記顔領域の畳み込みニューラルネットワークに対して機械学習して作成したものである。
図1は、本発明の視線入力方法に係るフロー図である。また、図2、3は、本発明の視線入力装置に係る概要図である。図2、3に示すように視線入力装置10は、表示部1と、撮像手段2と、特定部31を含む制御部3と、記憶部4と、表示部1への信号出力などを行う出力部5を有する。制御部3や記憶部4、出力部5は電子計算機6に内蔵されている。電子計算機6と、表示部1や撮像手段2は、有線や無線で信号を入出力できる。
ステップS21は、より詳しくは、ステップS11で撮像した撮像データを、予め作成された視線領域予測の学習済みモデルに入力して、使用者の視線領域を特定するものである。
ステップS31は、ステップS21で特定された視線領域に対応する選択肢を選択したものとして、操作するための入力を行うものである。
視線入力装置10は、視線で使用者の選択した選択内容を電子計算機に入力するものである。例えば、文章などの文字入力をしようとするときは、文字の選択肢を表示部に表示したところから、視線でその選択肢を選択し、入力する。このほかにも、その時の使用者の意思表示などを視線だけで入力するものである。
表示部1は、パーソナルコンピュータなどの電子計算機に接続されたモニターや、タブレット端末やラップトップコンピュータのように電子計算機と一体化されたモニターなどを用いることができる。または、プロジェクタなどで投影した像などでもよい。
撮像手段2は、表示部1の画面を見ている使用者の顔を撮像し撮像データを取得するものである。撮像手段2は、使用者の顔を撮像することができる位置に配置され、使用者の顔を撮像できる画素数や画角などを有するものである。表示部1や撮像手段2と使用者の距離などにもよるが、1MP(100万画素)程度以上の画素で、60度以上程度の画角のものなどを用いることができる。画素数は、高すぎると解析負荷が大きく、画素数を低減する処理などが必要な場合もあるため、12MP以下程度としてもよい。また、画角も広すぎると顔周辺が十分に映らずに周囲の要素が増え、複数人映り込む恐れもあるため、90度以下程度とすることができる。画素は、0.8MP~12Mp程度や2MP~6MP程度とし、画角は70~90度程度のものを用いることができる。
特定部31は、撮像手段2により得た撮像データを、予め作成された視線領域予測の学習済みモデルに入力して、使用者の視線領域を特定する。
予め作成された視線領域の学習済みモデルが、複数の注視座標点の情報を有する画像を学習用データとして用いる。また、その学習用データから、顔領域を検出して用いる。また、学習済みモデルは、画像を学習用データとして畳み込みニューラルネットワークに対して機械学習を行って、顔と目に係る特徴量を抽出することにより作成されたものである。この学習済みモデルは、顔領域を対象としていることから、顔と目に係る特徴量を抽出したものとなる。
記憶部4は、学習済みモデルや、撮像された撮像データや、抽出された顔領域や、これらの処理を行うためのプログラムなどを記憶するメモリである。
平均化処理部32は、所定の時間の平均視線領域を得る平均化処理を行う部分である。平均化処理工程は、撮像データとして、使用者の顔を、所定の時間ごとに連続的に複数回撮像した複数の撮像データを含む連続撮像データを用いて処理する。平均化処理を行うにあたって、特定工程により、連続撮像データのそれぞれの撮像データについて視線領域を特定する。そして、連続撮像データに基づいて特定されたそれぞれの視線領域を、移動平均処理したものを、所定の時間の平均視線領域とする。
確認部33は、入力された視線領域を確認する処理を行う部分である。図3(a)は、特定手段により特定される視線領域が所定の時間、選択肢Aに関する入力情報が存在する領域内と判断された例である。このため、その選択肢Aを強調表示する強調表示が行われている。この強調表示は、選択肢Aをハイライト表示したり、その周囲に確認のフレームを表示したり、他の選択肢の視認性を薄く表示して相対的に強調するなどの処理とすることができる。
さらに、図3(b)は、選択肢Aが強調表示されているとき、その強調表示の入力情報を入力することを確認するための確認領域を表示部1の画面に表示し、左上に「はい」の確認領域を設け、右上に「いいえ」のキャンセル表示を行ったものである。「はい」に相当する確認領域に使用者の視線領域が特定されたとき、使用者が、強調表示の入力情報を入力したものとする確認を行うことができる。
出力部5は、撮像手段2から入力された画像などに基づいて、制御部3で処理された結果に基づいて、さらに確認の表示を行ったり、その選択に対する次の処理などを表示部1に表示させたり、他の端末等にその信号を出力する部分である。
これらの制御部3や出力部5は、電子計算機6にアプリケーションソフトとしてインストールさせたものとして用いることができる。電子計算機6は、さらに表示部1やカメラ2、記憶部4と一体化されたタブレット端末などを用いることもできる。
本発明の視線入力に係る視線領域の特定に関して、以下の試験を行った。
1.学習用データの構成
機械学習の学習用データセットとして、MPII GAZEを用いた。MPII GAZEは、インカメラが設置されているノートPCを注視している15人の画像と、そのパソコンのモニター上の注視座標点に係る組み合わせの37667組で構成されている。このデータセットを用いて、以下の手順で再構成した。
(1)注視点座標から注視領域のラベリングを行う。(2)Haar-Like特徴量に基づき、元画像から顔領域のみを抽出する。(3)Haar-Like特徴量による顔領域検出ができない画像をスクリーニングして排除し、残った画像について、訓練用、検証用、テスト用データに分割した。訓練用データは18000枚、検証用データは2860枚、テスト用データは2008枚とした。訓練用データおよび検証用データは機械学習を行う際に用いて、テスト用データは推定精度を確認する際に用いた。
前述の訓練用データをおよび検証用データを用いて、畳み込みニューラルネットワークに対して機械学習を行った。畳み込みニューラルネットワークは、VGG16を用いた。この機械学習を行ったことにより作成されたCNNモデルを、学習済みモデルとして使用する。
1.撮像条件
図8本願の試験例に係る試験条件の概要を説明するための概要図である。
デスクトップパーソナルコンピュータのモニターを注視用ディスプレイとした。この注視用ディスプレイの上部にウェブカメラ(Logicool webカメラ“C270”(画素数1280×720) フレームレート25fps以上に設定)を取り付けた。
ウェブカメラからの高さ(Hc)を調整できるものとした。
ウェブカメラからの前に、実験台用顎台を配置して、この実験台用顎台上に被験者の顔を置いて撮像するものとした。
実験台用顎台は、あごの高さ(H)、ウェブカメラからの距離(L)、被験者の顔の向きに係るヨー角(Yaw)、ロール角(Roll)、ピッチ角(Pitch)を調整できるものとした。
撮像した画像について、以下の処理を行って、視線領域を特定した。(1)ウェブカメラから画像フレームを取得する。(2)Haar-Like特徴量分類器を用いて、顔領域を切り出し、画像として保存する。(3)保存された顔画像を、前述のCNNモデルの入力とする。(4)画面注視領域の推定結果を比較し、最も確率の高いものを推定領域とした。なお、適宜、推定領域を画像フレームに赤枠で表示した。また、注視点は後述する4つの領域としており、その4つの領域のうちCNNの推定確率が50%を上回った領域をシステムが推定した視線領域として扱った。
図9は、試験例における表示部の注視点の配置パターンを示す図である。No.1~9を領域1(area1)、No.10~18を領域2(area2)、No.19~27を領域3(area3)、No.28~36を領域4(area4)とした。
図10は、基本姿勢における視線領域の推定精度のグラフである。基本姿勢は、L=700mm、Hc=450mm、H=350mmとした。基本姿勢となる初期配置におけるヨー角を0度、ピッチ角を0度、ロール角を0度とする。1人あたり、注視点(Marker position)1点ごとに150フレームのデータを取得した。被験者は6名として、その平均を求めた。被験者は20代~50代の健常者男性である。
注視点が含まれる領域を正しく判定できたかの正確さ(Accurasy)をグラフ化したものが図10である。
図11は、推定精度の時間変化のグラフである。注視点16は、領域2(area2)に属する。しかし、他の領域との境界に近いため、誤認識が生じやすい部分である。図11は、この点について、1名の被験者の150フレームの詳細データを示したものである。正答となるarea2が支配的なものの、領域1や領域4に誤認識される瞬間も散見された。
図12は、推定精度の時間変化を移動平均処理したグラフである。図12は、図11に係る推定精度の時間変化について、10フレームの移動平均処理を施したものである。移動平均処理することで、推定結果は、領域2とより正確に推定されるものとなり、他の領域に誤った推定がされる可能性が非常に低くなった。
図13は、距離を変更したときの推定精度のグラフである。図13は、基本姿勢に準じる条件で、距離(L)を700mmから、1200mmに変更し、被験者を4名とした試験結果である。距離を変更しても、平均推定精度97.4%を達成することができた。
図14は、顔の位置を変更したときの推定精度のグラフである。図14は、基本姿勢に準じる条件で、顎台の高さを100mm下げて、被験者を4名とした試験結果である。顎帯の高さを変更しても、平均推定精度97.4%を達成することができた。
図15は、ヨー角を変更したときの推定精度のグラフである。図15は、基本姿勢に準じる条件で、ヨー角を10度変更し、被験者を1名とした試験結果である。ヨー角を変更しても、高い推定精度を達成することができた。
図16は、ピッチ角を変更したときの推定精度のグラフである。図16は、基本姿勢に準じる条件で、ピッチ角を、15度に変更し、被験者を1名とした試験結果である。ピッチ角を変更しても、高い推定精度を達成することができた。
図17は、ロール角を変更したときの推定精度のグラフである。図17は、基本姿勢に準じる条件で、ロール角を、17度に変更し、被験者を1名とした試験結果である。ロール角を変更しても、高い推定精度を達成することができた。
図18は、複合的な条件を変更したときの推定精度のグラフである。図18は、基本姿勢に準じる条件で、ヨー角10度、ピッチ角15度、ロール角15度に変更し、被験者を1名とした試験結果である。これらの条件を複合的に変更しても、平均推定精度92.5%を達成することができた。ただし、最も正確性が低下した注視点は推定精度67.3%となった。
図19は、複合的な条件を変更し移動平均処理をした推定精度のグラフである。この図19は、図18の試験結果に基づいて、10フレームの移動平均処理を行ったときと、15フレームの移動平均処理したときの推定精度の推移である。なお、本試験例の条件では、15フレームが約0.5秒に相当する。
図20は、表示部の注視点の配置パターンに不感帯を設けた状態を示す図である。領域の境界付近となる注視点は、誤認識が生じやすいため、これらについては、図20に右上がり斜線で示す不感帯を設けるものとすることができる。CNNモデルによる注視点座標が、仮にこの不感帯の範囲と推定された場合は、視線領域を判定しないものとすることができる。また、視線入力装置において、表示部に対しては、これらの不感帯は、選択肢が表示されないものとする。
図21は、不感帯を排除したときの推定精度を選択的に表示したグラフである。図21は、不感帯に相当する部分を濃いグレーで着色している。これらの不感帯に相当する部分を排除すれば、より正確性が高い判定がされた部分のみとなるため、キャリブレーションを行わずとも、視線入力を行うことができる。
1 表示部
11 注視点
2 撮像手段
3 制御部
31 特定部
32 平均化処理部
33 確認部
4 記憶部
5 出力部
6 電子計算機
91~93 画像
921~922 抽出領域
Claims (6)
- 電子計算機への入力情報が表示された画面を見ている使用者の顔全体を、前記画面を有する表示部の周囲に固定された撮像手段で撮像し撮像データを取得する撮像工程と、
前記撮像データを、予め作成された視線領域予測の学習済みモデルに入力して、前記使用者の視線領域を特定する特定工程と、を有し、
前記予め作成された視線領域の学習済みモデルが、注視座標点の情報を有する顔全体を含む画像を学習用データとして、前記学習用データから顔領域を検出し、前記顔領域の畳み込みニューラルネットワークに対して機械学習して作成したものである、視線入力方法。 - 前記撮像する工程の撮像データが、前記使用者の顔全体を、所定の時間ごとに連続的に複数回撮像した複数の撮像データを含む連続撮像データであり、
前記特定工程により、前記連続撮像データのそれぞれの撮像データについて視線領域を特定し、
前記連続撮像データに基づいて特定されたそれぞれの前記視線領域を、移動平均処理したものを、前記所定の時間の平均視線領域とする平均化処理工程を有する、請求項1に記載の視線入力方法。 - 前記特定工程により特定される前記視線領域が所定の時間、所定の領域内と判断され、前記視線領域に入力情報が存在するとき、選択肢を強調表示する強調表示工程と、
前記強調表示されているとき、前記強調表示の入力情報を入力することを確認するための確認領域を前記画面に表示し、前記確認領域に前記使用者の視線領域が特定されたとき、前記使用者が、前記強調表示の入力情報を入力したものとする確認工程とを有する、請求項1または2に記載の視線入力方法。 - 前記入力情報が複数設けられ、表示される前記複数の入力情報間に、入力情報としない不感帯を有する、請求項1~3のいずれかに記載の視線入力方法。
- 前記撮像手段の画素が0.8MP~12MPであり、前記撮像手段の画角が70~90度である、請求項1~4のいずれかに記載の視線入力方法。
- 電子計算機への入力情報が表示された画面を有する表示部と、
前記画面を見ている使用者の顔全体を撮像し撮像データを取得する前記表示部の周囲に固定された撮像手段と、
前記撮像データを、予め作成された視線領域予測の学習済みモデルに入力して、前記使用者の視線領域を特定する特定部と、を有し、
前記予め作成された視線領域の学習済みモデルが、複数の注視座標点の情報を有する顔全体を含む画像を学習用データとして、前記学習用データから顔領域を検出し、前記顔領域の畳み込みニューラルネットワークに対して機械学習して作成したものである、視線入力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021012093A JP7296069B2 (ja) | 2021-01-28 | 2021-01-28 | 視線入力装置、および視線入力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021012093A JP7296069B2 (ja) | 2021-01-28 | 2021-01-28 | 視線入力装置、および視線入力方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022115480A JP2022115480A (ja) | 2022-08-09 |
JP7296069B2 true JP7296069B2 (ja) | 2023-06-22 |
Family
ID=82747701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021012093A Active JP7296069B2 (ja) | 2021-01-28 | 2021-01-28 | 視線入力装置、および視線入力方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7296069B2 (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013074601A (ja) | 2011-09-29 | 2013-04-22 | Manabu Chijimatsu | 類推型注視点検出及び携帯情報端末操作 |
WO2015029554A1 (ja) | 2013-09-02 | 2015-03-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2018078857A1 (ja) | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 視線推定装置、視線推定方法及びプログラム記録媒体 |
JP2018088118A (ja) | 2016-11-29 | 2018-06-07 | パイオニア株式会社 | 表示制御装置、制御方法、プログラム及び記憶媒体 |
WO2018186031A1 (ja) | 2017-04-03 | 2018-10-11 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2019003387A1 (ja) | 2017-06-29 | 2019-01-03 | マクセル株式会社 | 携帯端末 |
JP2019175449A (ja) | 2018-03-28 | 2019-10-10 | 株式会社リコー | 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム |
JP2020140630A (ja) | 2019-03-01 | 2020-09-03 | 国立大学法人九州工業大学 | 注視点推定システム、注視点推定方法、注視点推定プログラム、及び、これが記録された情報記録媒体 |
CN111931694A (zh) | 2020-09-02 | 2020-11-13 | 北京嘀嘀无限科技发展有限公司 | 确定人物的视线朝向的方法、装置、电子设备和存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6946831B2 (ja) * | 2017-08-01 | 2021-10-13 | オムロン株式会社 | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 |
-
2021
- 2021-01-28 JP JP2021012093A patent/JP7296069B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013074601A (ja) | 2011-09-29 | 2013-04-22 | Manabu Chijimatsu | 類推型注視点検出及び携帯情報端末操作 |
WO2015029554A1 (ja) | 2013-09-02 | 2015-03-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2018078857A1 (ja) | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 視線推定装置、視線推定方法及びプログラム記録媒体 |
JP2018088118A (ja) | 2016-11-29 | 2018-06-07 | パイオニア株式会社 | 表示制御装置、制御方法、プログラム及び記憶媒体 |
WO2018186031A1 (ja) | 2017-04-03 | 2018-10-11 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2019003387A1 (ja) | 2017-06-29 | 2019-01-03 | マクセル株式会社 | 携帯端末 |
JP2019175449A (ja) | 2018-03-28 | 2019-10-10 | 株式会社リコー | 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム |
JP2020140630A (ja) | 2019-03-01 | 2020-09-03 | 国立大学法人九州工業大学 | 注視点推定システム、注視点推定方法、注視点推定プログラム、及び、これが記録された情報記録媒体 |
CN111931694A (zh) | 2020-09-02 | 2020-11-13 | 北京嘀嘀无限科技发展有限公司 | 确定人物的视线朝向的方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2022115480A (ja) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11715231B2 (en) | Head pose estimation from local eye region | |
EP3608755B1 (en) | Electronic apparatus operated by head movement and operation method thereof | |
Al-Rahayfeh et al. | Eye tracking and head movement detection: A state-of-art survey | |
US11699529B2 (en) | Systems and methods for diagnosing a stroke condition | |
CN111933275A (zh) | 一种基于眼动与面部表情的抑郁评估系统 | |
CN112232128B (zh) | 基于视线追踪的老年残障人士照护需求识别方法 | |
Ghani et al. | GazePointer: A real time mouse pointer control implementation based on eye gaze tracking | |
US20240321007A1 (en) | Determining digital markers indicative of a neurological condition | |
Jafari et al. | Eye-gaze estimation under various head positions and iris states | |
Lin et al. | An eye tracker based on webcam and its preliminary application evaluation in Chinese reading tests | |
Lv et al. | Design and implementation of an eye gesture perception system based on electrooculography | |
Utaminingrum et al. | Eye movement and blink detection for selecting menu on-screen display using probability analysis based on facial landmark | |
Madhusanka et al. | Biofeedback method for human–computer interaction to improve elder caring: Eye-gaze tracking | |
Perez et al. | Real-time iris detection on coronal-axis-rotated faces | |
Heo et al. | Object recognition and selection method by gaze tracking and SURF algorithm | |
JP7296069B2 (ja) | 視線入力装置、および視線入力方法 | |
US20240119594A1 (en) | Determining Digital Markers Indicative of a Neurological Condition Using Eye Movement Parameters | |
Khan et al. | A new 3D eyeball tracking system to enhance the usability of page scrolling | |
Madhusanka et al. | Attention-aware recognition of activities of daily living based on eye gaze tracking | |
Ni et al. | A remote free-head pupillometry based on deep learning and binocular system | |
Xiahou et al. | Integrated approach of dynamic human eye movement recognition and tracking in real time | |
CN116883436A (zh) | 一种基于视线估计的辅助理解方法及系统 | |
Alagarsamy et al. | Control the movement of mouse using computer vision technique | |
CN110858095A (zh) | 可由头部操控的电子装置与其操作方法 | |
Rahnama-ye-Moqaddam et al. | Designing a pervasive eye movement-based system for ALS and paralyzed patients |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20210212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211008 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7296069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |