JP7119224B2 - デジタルパソロジーのためのアイトラッキング画像ビューア - Google Patents
デジタルパソロジーのためのアイトラッキング画像ビューア Download PDFInfo
- Publication number
- JP7119224B2 JP7119224B2 JP2021517949A JP2021517949A JP7119224B2 JP 7119224 B2 JP7119224 B2 JP 7119224B2 JP 2021517949 A JP2021517949 A JP 2021517949A JP 2021517949 A JP2021517949 A JP 2021517949A JP 7119224 B2 JP7119224 B2 JP 7119224B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- view
- user
- detecting
- macroview
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本願は、2018年12月19日提出の米国特許仮出願第62/782,191号に対し優先権を主張するものであり、この文献をここで参照したことによりその内容全体が本願に取り込まれるものとする。
本明細書で説明する実施形態は、全般的にデジタルパソロジーに向けられたものであり、より具体的には、デジタルパソロジーのスライド画像の閲覧中にアイトラッキングを使用することに関する。
1.1 例示的な処理デバイス
図1は、例示的な有線または無線のシステム100を示すブロック図であって、本明細書で説明する様々な実施形態に関連して、このシステム100を使用することができる。例えばシステム100を、本明細書で説明する(例えばアプリケーションまたはアプリケーションの1つまたは複数のソフトウェアモジュールを記憶および/または実行するための)機能、プロセスまたは方法のうちの1つまたは複数として、またはそれに関連して使用することができる。システム100をサーバ、パーソナルコンピュータ、デジタルスライドスキャニング装置、または有線または無線のデータ通信が可能な他の任意のプロセッサ作動型デバイスとすることができる。当業者に自明のとおり、他のコンピュータシステムおよび/またはアーキテクチャを使用してもよい。
上述のように1つの実施形態によれば、システム100はアイトラッキングデバイス190を有する。アイトラッキングデバイス190をディスプレイ180上に取り付けることができ、またはディスプレイ180内に組み込むことができる。1つの実施形態によれば、アイトラッキングデバイス190およびディスプレイ180を、コンピュータモニタ、スマートグラス、VRヘッドセットおよび/またはこれらに類するのものなど、単一のデバイスに組み込むことができる。択一的に、アイトラッキングデバイス190をディスプレイ180とは分離することができる。いずれのケースであっても、ディスプレイ180に対するユーザ注視を検出するために、アイトラッキングデバイス190を取り付けるまたはさもなければポジショニングするのが望ましい。
次に、デジタルスライド画像を調査するためにアイトラッキングデバイス190を使用するためのプロセスの実施形態について、詳しく説明する。自明のとおり、ここで説明するプロセスを、1つまたは複数のハードウェアプロセッサ(例えばプロセッサ110)によって実行される1つまたは複数のソフトウェアモジュールにおいて、具現化することができる。ここで説明するプロセスを、ソースコード、オブジェクトコードおよび/または機械コードで表現された命令として、実装することができる。これらの命令を、ハードウェアプロセッサ110によってそのまま実行することができ、または択一的に、オブジェクトコードとハードウェアプロセッサ110との間で動作する仮想マシンによって、実行することができる。
図3Aおよび図3Bには、アイトラッキングデバイス190の出力を用いてデジタルスライド画像をパンするための、複数の実施形態による例示的な処理が示されている。プロセス300Aおよび300B各々がステップの特定の配置および順序で示されているけれども、各プロセス300Aおよび300Bを、これよりも少ない、これよりも多い、または異なるステップで、ならびにステップの異なる配置および/または順序で、実装してもよい。これに加え、プロセス300Aおよび300Bの双方を、ユーザにより双方ともに使用可能な一対の択一的な機能として、同じシステム100において実装してもよい。択一的に、プロセス300Aおよび300Bのうちの一方だけを、任意の特定のシステム100において実装してもよい。いずれのケースにせよ、プロセス300Aおよび300Bを1つまたは複数のプロセッサ110によって実行することができる。
図4A~図4Cには、ズーミングなどの画像閲覧機能を実施するための、複数の実施形態による例示的なプロセスが示されている。プロセス400および450各々がステップの特定の配置および順序で示されているけれども、各プロセス400および450を、これよりも少ない、これよりも多い、または異なるステップで、ならびにステップの異なる配置および/または順序で、実装してもよい。プロセス400および450を、1つまたは複数のプロセッサ110によって実行することができる。
本明細書で説明する複数のプロセスは、アイトラッキングデバイス190により検出されるようなユーザの目の注視に基づくジェスチャ検出を利用する。複数のジェスチャを、アイトラッキングデバイス190から得られる複数の出力の独立した組み合わせとして定義することができる。アイトラッキングデバイス190を、3つの軸に沿った頭部の向きの変化(例えば上および下への傾き、左および右への傾き、ならびに左回転および右回転)を検出および出力するように構成することができる。注目すべきことに、人間は、これら3つの角度とは無関係に、1つのデジタルスライド画像中の同じポイントに目を向けることができる。したがってアイトラッキングデバイス190を、ユーザ注視ポジションとは無関係に頭部の向きの変化を検出および出力できるものとすることができる。1つの実施形態によれば、各ジェスチャは、2つ以上の単純で自然な運動から成るシーケンス(例えば上への傾き、下への傾き、左への傾き、右への傾き、左回転、右回転など)を有し、これは他のジェスチャを定義するシーケンスと紛らわしいほどには似ていない。換言すれば、容易に見分けられる複数の基本運動から選択された、基本運動から成る複数のユニークなシーケンスを定義することができ、この場合、ユニークなシーケンス各々によって1つの異なるジェスチャが表現される。
自明のとおり、本明細書で説明したアイトラッキング機能を、他の入力手段を排除して使用してもよいし、他の入力手段と併せて使用してもよい。アイトラッキング機能を他の入力手段と併せて使用する1つの実施形態の場合、アイトラッキング機能によって、マウスおよびキーボードなど手動操作型入力デバイスを介した慣用の入力に対する代替が提供される。例えば、アイトラッキングデバイス190およびそれに関連付けられた機能を使用することに加えて、ユーザは、ズームインおよびズームアウトのためにキーボードショートカットおよび/またはマウスホイールを使用することもできる。
1つの実施形態によれば、プロセッサ110および/または外部システム(例えばリモートサーバ)は、各ユーザ(例えば病理学者)が各デジタルスライド画像をどのようにして調査するのかに関する統計を、収集および記憶することができる。例えば各システム100は、アイトラッキングデバイス190から取得された注視データを収集および記憶することができ、集約のためにこの注視データを1つまたは複数のネットワークを介してリモートサーバに周期的に送信することができる。次いでリモートサーバは、このリモートサーバの少なくとも1つのプロセッサを使用して、複数のシステム100から収集されて集約された注視データを解析することができる。
Claims (20)
- ディスプレイ上のユーザ注視ポジションをセンシングするように構成されたアイトラッキングデバイスと、少なくとも1つのハードウェアプロセッサと、を有するシステムであって、
少なくとも1つの前記ハードウェアプロセッサは、以下のように構成されている、すなわち、
前記アイトラッキングデバイスからの出力に基づき、ディスプレイ上の前記ユーザ注視ポジションを検出し、前記ディスプレイは、マクロビュー内の画像の少なくとも一部分と、前記画像のサムネイル画像とを表示し、
検出された前記ユーザ注視ポジションが前記サムネイル画像内にあるのかまたは前記マクロビュー内にあるのかを判定し、
前記ユーザ注視ポジションが前記マクロビュー内にあることの検出に応答して、前記マクロビュー内の前記画像のビューを自動的にパンして、前記マクロビュー内の検出された前記ポジションに対応する前記画像上のポジションを、前記マクロビューの中央部に向かって移動させ、
前記ユーザ注視ポジションが前記サムネイル画像内にあることの検出に応答して、前記サムネイル画像内の検出された前記ポジションに対応する前記画像上のポジションを特定し、前記画像上の特定された前記ポジションが前記マクロビューの前記中央部内にあるように、前記マクロビューを更新する、
システム。 - 前記マクロビュー内の前記ユーザ注視ポジションが閾値よりも大きく変更されたことの検出に応答して、自動的なパニングが実施される、
請求項1記載のシステム。 - 前記画像は、有線または無線のネットワークを介して、デジタルパソロジーのスライドサーバまたはスキャニング装置から取得される、
請求項1記載のシステム。 - 少なくとも1つの前記ハードウェアプロセッサは、前記マクロビュー内の検出された前記ポジションに対応する前記画像上の前記ポジションが、前記マクロビューの前記中央部内に入るまで、前記ビューを自動的にパンするように構成されている、
請求項1記載のシステム。 - 少なくとも1つの前記ハードウェアプロセッサは、検出された前記ユーザ注視ポジションが前記マクロビューの前記中央部内に入るまで、前記ビューを自動的にパンするように構成されている、
請求項1記載のシステム。 - 少なくとも1つの前記ハードウェアプロセッサはさらに、
前記アイトラッキングデバイスからの出力に基づきユーザ頭部の向きを検出し、
前記ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた開始ジェスチャを検出する
ように構成されており、自動的なパニングが、予め定められた前記開始ジェスチャの検出に応答して実施される、
請求項1記載のシステム。 - 少なくとも1つの前記ハードウェアプロセッサはさらに、
前記ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた停止ジェスチャを検出し、
予め定められた前記停止ジェスチャの検出に応答して、前記マクロビュー内の前記画像の前記ビューのパニングを自動的に停止させる
ように構成されている、
請求項6記載のシステム。 - 前記マクロビューの更新は、前記画像の前記ビューを自動的にパンして、前記画像上の特定された前記ポジションを前記マクロビューの前記中央部に向かって移動させることを有する、
請求項1記載のシステム。 - 少なくとも1つの前記ハードウェアプロセッサはさらに、前記ユーザ注視ポジションにおける変化の距離を計算するように構成されており、自動的なパニングの速度は、計算された前記距離に基づく、
請求項1記載のシステム。 - 少なくとも1つのハードウェアプロセッサを用いたアイトラッキング方法であって、前記方法は、以下のことを有する、すなわち、
アイトラッキングデバイスからの出力に基づき、ディスプレイ上のユーザ注視ポジションを検出し、前記ディスプレイは、マクロビュー内の画像の少なくとも一部分と、前記画像のサムネイル画像と、を表示し、
検出された前記ユーザ注視ポジションが前記サムネイル画像内にあるのかまたは前記マクロビュー内にあるのかを判定し、
前記ユーザ注視ポジションが前記マクロビュー内にあることの検出に応答して、前記マクロビュー内の前記画像のビューを自動的にパンして、前記マクロビュー内の検出された前記ポジションに対応する前記画像上のポジションを、前記マクロビューの中央部に向かって移動させ、
前記ユーザ注視ポジションが前記サムネイル画像内にあることの検出に応答して、前記サムネイル画像内の検出された前記ポジションに対応する前記画像上のポジションを特定し、前記画像上の特定された前記ポジションが前記マクロビューの前記中央部内にあるように、前記マクロビューを更新する、
ことを有する方法。 - 前記マクロビュー内の前記ユーザ注視ポジションが閾値よりも大きく変更されたことの検出に応答して、自動的なパニングを実施する、
請求項10記載の方法。 - 前記方法はさらに、前記ディスプレイのための前記画像を、有線または無線のネットワークを介して、デジタルパソロジーのスライドサーバまたはスキャニング装置から取得することを有する、
請求項10記載の方法。 - 前記方法は、検出された前記ユーザ注視ポジションが前記マクロビューの前記中央部内に入るまで、前記ビューを自動的にパンすることを有する、
請求項10記載の方法。 - 前記方法はさらに、
前記アイトラッキングデバイスからの出力に基づき、ユーザ頭部の向きを検出し、
前記ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた開始ジェスチャを検出する
ことを有し、自動的なパニングを、予め定められた前記開始ジェスチャの検出に応答して実施する、
請求項10記載の方法。 - 前記方法はさらに、前記ユーザ注視ポジションにおける変化の距離を計算することを有し、自動的なパニングの速度は、計算された前記距離に基づく、
請求項10記載の方法。 - 内部に記憶された命令を有する非一時的コンピュータ可読媒体であって、
前記命令は、プロセッサにより実行されると、以下のことを前記プロセッサに実施させる、すなわち、
アイトラッキングデバイスからの出力に基づき、ディスプレイ上のユーザ注視ポジションを検出し、前記ディスプレイは、マクロビュー内の画像の少なくとも一部分と、前記画像のサムネイル画像と、を表示し、
検出された前記ユーザ注視ポジションが前記サムネイル画像内にあるのかまたは前記マクロビュー内にあるのかを判定し、
前記ユーザ注視ポジションが前記マクロビュー内にあることの検出に応答して、前記マクロビュー内の前記画像のビューを自動的にパンして、前記マクロビュー内の検出された前記ポジションに対応する前記画像上のポジションを、前記マクロビューの中央部に向かって移動させ、
前記ユーザ注視ポジションが前記サムネイル画像内にあることの検出に応答して、前記サムネイル画像内の検出された前記ポジションに対応する前記画像上のポジションを特定し、前記画像上の特定された前記ポジションが前記マクロビューの前記中央部内にあるように、前記マクロビューを更新する、
非一時的コンピュータ可読媒体。 - 前記マクロビュー内の前記ユーザ注視ポジションが閾値よりも大きく変更されたことの検出に応答して、自動的なパニングが実施される、
請求項16記載の非一時的コンピュータ可読媒体。 - 前記命令によって前記プロセッサは、検出された前記ユーザ注視ポジションが前記マクロビューの前記中央部内に入るまで、前記ビューを自動的にパンする、
請求項16記載の非一時的コンピュータ可読媒体。 - 前記命令によって前記プロセッサはさらに、
前記アイトラッキングデバイスからの出力に基づきユーザ頭部の向きを検出し、
前記ユーザ頭部の検出された1つまたは複数の向きに基づき、予め定められた開始ジェスチャを検出し、
自動的なパニングは、予め定められた前記開始ジェスチャの検出に応答して実施される、
請求項16記載の非一時的コンピュータ可読媒体。 - 前記命令によって前記プロセッサはさらに、前記ユーザ注視ポジションにおける変化の距離を計算し、自動的なパニングの速度は、計算された前記距離に基づく、
請求項16記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862782191P | 2018-12-19 | 2018-12-19 | |
US62/782,191 | 2018-12-19 | ||
PCT/US2019/067665 WO2020132358A1 (en) | 2018-12-19 | 2019-12-19 | Eye-tracking image viewer for digital pathology |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022515304A JP2022515304A (ja) | 2022-02-18 |
JP7119224B2 true JP7119224B2 (ja) | 2022-08-16 |
Family
ID=71102293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021517949A Active JP7119224B2 (ja) | 2018-12-19 | 2019-12-19 | デジタルパソロジーのためのアイトラッキング画像ビューア |
Country Status (6)
Country | Link |
---|---|
US (2) | US11385713B2 (ja) |
EP (1) | EP3844600A4 (ja) |
JP (1) | JP7119224B2 (ja) |
KR (1) | KR20210052516A (ja) |
CN (1) | CN112805670B (ja) |
WO (1) | WO2020132358A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7119224B2 (ja) * | 2018-12-19 | 2022-08-16 | ライカ バイオシステムズ イメージング インコーポレイテッド | デジタルパソロジーのためのアイトラッキング画像ビューア |
JP2022544160A (ja) | 2019-08-06 | 2022-10-17 | オーピー ソリューションズ, エルエルシー | 適応分解能管理信号伝達 |
CN114503581A (zh) | 2019-08-06 | 2022-05-13 | Op方案有限责任公司 | 基于块的自适应分辨率管理 |
MX2022001592A (es) | 2019-08-06 | 2022-03-11 | Op Solutions Llc | Método de gestión de resolución adaptativa para reajuste de predicción. |
JP7532045B2 (ja) * | 2020-02-19 | 2024-08-13 | キヤノン株式会社 | 電子機器 |
US12010382B2 (en) * | 2021-03-04 | 2024-06-11 | Arris Enterprises Llc | Providing enhanced viewing experience using user gaze detection and video casting |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000089884A (ja) | 1998-09-09 | 2000-03-31 | Hitachi Business Solution Kk | 情報処理システム |
US20020105482A1 (en) | 2000-05-26 | 2002-08-08 | Lemelson Jerome H. | System and methods for controlling automatic scrolling of information on a display or screen |
JP2006023953A (ja) | 2004-07-07 | 2006-01-26 | Fuji Photo Film Co Ltd | 情報表示システム |
JP2007029248A (ja) | 2005-07-25 | 2007-02-08 | Hitachi Medical Corp | 比較読影支援装置及び画像処理プログラム |
JP2012155016A (ja) | 2011-01-24 | 2012-08-16 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
JP2015106327A (ja) | 2013-12-02 | 2015-06-08 | 富士通株式会社 | 表示装置,プログラム及び表示方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0822385A (ja) * | 1994-02-22 | 1996-01-23 | Nippon Hoso Kyokai <Nhk> | 視線対応表示方法及び装置 |
JPH07265289A (ja) * | 1994-03-28 | 1995-10-17 | Toshiba Corp | デジタルx線診断装置 |
US8155479B2 (en) | 2008-03-28 | 2012-04-10 | Intuitive Surgical Operations Inc. | Automated panning and digital zooming for robotic surgical systems |
US8463741B2 (en) * | 2009-09-04 | 2013-06-11 | Omnyx, LLC | Digital pathology system |
CA2847975A1 (en) * | 2011-09-07 | 2013-03-14 | Tandemlaunch Technologies Inc. | System and method for using eye gaze information to enhance interactions |
US20170235360A1 (en) * | 2012-01-04 | 2017-08-17 | Tobii Ab | System for gaze interaction |
US9864498B2 (en) | 2013-03-13 | 2018-01-09 | Tobii Ab | Automatic scrolling based on gaze detection |
KR20140143623A (ko) * | 2013-06-07 | 2014-12-17 | 삼성전자주식회사 | 휴대 단말기에서 컨텐츠를 표시하는 장치 및 방법 |
IN2014DE02666A (ja) | 2013-09-18 | 2015-06-26 | Booktrack Holdings Ltd | |
US20150113454A1 (en) * | 2013-10-21 | 2015-04-23 | Motorola Mobility Llc | Delivery of Contextual Data to a Computing Device Using Eye Tracking Technology |
GB2526515A (en) * | 2014-03-25 | 2015-12-02 | Jaguar Land Rover Ltd | Image capture system |
EP3129849B1 (en) * | 2014-04-11 | 2020-02-12 | Facebook Technologies, LLC | Systems and methods of eye tracking calibration |
US10564714B2 (en) * | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
US10048749B2 (en) * | 2015-01-09 | 2018-08-14 | Microsoft Technology Licensing, Llc | Gaze detection offset for gaze tracking models |
US10338677B2 (en) * | 2015-10-28 | 2019-07-02 | Microsoft Technology Licensing, Llc | Adjusting image frames based on tracking motion of eyes |
US20170195562A1 (en) * | 2016-01-05 | 2017-07-06 | 360fly, Inc. | Dynamic field of view adjustment for panoramic video content using eye tracker apparatus |
JP7119224B2 (ja) * | 2018-12-19 | 2022-08-16 | ライカ バイオシステムズ イメージング インコーポレイテッド | デジタルパソロジーのためのアイトラッキング画像ビューア |
-
2019
- 2019-12-19 JP JP2021517949A patent/JP7119224B2/ja active Active
- 2019-12-19 US US17/281,907 patent/US11385713B2/en active Active
- 2019-12-19 KR KR1020217009468A patent/KR20210052516A/ko not_active Application Discontinuation
- 2019-12-19 WO PCT/US2019/067665 patent/WO2020132358A1/en unknown
- 2019-12-19 EP EP19899957.5A patent/EP3844600A4/en active Pending
- 2019-12-19 CN CN201980064513.XA patent/CN112805670B/zh active Active
-
2022
- 2022-07-07 US US17/859,765 patent/US11747900B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000089884A (ja) | 1998-09-09 | 2000-03-31 | Hitachi Business Solution Kk | 情報処理システム |
US20020105482A1 (en) | 2000-05-26 | 2002-08-08 | Lemelson Jerome H. | System and methods for controlling automatic scrolling of information on a display or screen |
JP2006023953A (ja) | 2004-07-07 | 2006-01-26 | Fuji Photo Film Co Ltd | 情報表示システム |
JP2007029248A (ja) | 2005-07-25 | 2007-02-08 | Hitachi Medical Corp | 比較読影支援装置及び画像処理プログラム |
JP2012155016A (ja) | 2011-01-24 | 2012-08-16 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
JP2015106327A (ja) | 2013-12-02 | 2015-06-08 | 富士通株式会社 | 表示装置,プログラム及び表示方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020132358A1 (en) | 2020-06-25 |
EP3844600A4 (en) | 2022-05-25 |
US11385713B2 (en) | 2022-07-12 |
US20220019281A1 (en) | 2022-01-20 |
CN112805670B (zh) | 2024-02-09 |
KR20210052516A (ko) | 2021-05-10 |
JP2022515304A (ja) | 2022-02-18 |
US20220342479A1 (en) | 2022-10-27 |
CN112805670A (zh) | 2021-05-14 |
EP3844600A1 (en) | 2021-07-07 |
US11747900B2 (en) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7119224B2 (ja) | デジタルパソロジーのためのアイトラッキング画像ビューア | |
KR101184460B1 (ko) | 마우스 포인터 제어 장치 및 방법 | |
US9063563B1 (en) | Gesture actions for interface elements | |
CN105229582B (zh) | 基于近距离传感器和图像传感器的手势检测 | |
US10075653B2 (en) | Method and electronic device for image processing | |
JP5915000B2 (ja) | 情報処理装置及びプログラム | |
US20100232704A1 (en) | Device, method and computer program product | |
KR101608423B1 (ko) | 모바일 디바이스상의 풀 3d 상호작용 | |
CN110175995B (zh) | 一种基于病理图像的图像状态确定方法、装置以及系统 | |
US20110261213A1 (en) | Real time video process control using gestures | |
CN104932809B (zh) | 用于控制显示面板的装置和方法 | |
JP7152532B2 (ja) | ビデオ処理方法及び装置、電子機器並びに記憶媒体 | |
KR20210042621A (ko) | 전자 장치 및 이를 이용한 카메라 배율 조정 방법 | |
EP2401701A1 (en) | Image object detection browser | |
US9538086B2 (en) | Method of performing previewing and electronic device for implementing the same | |
US10095384B2 (en) | Method of receiving user input by detecting movement of user and apparatus therefor | |
WO2019184947A1 (zh) | 图像查看方法及移动终端 | |
US20130293460A1 (en) | Computer vision based control of an icon on a display | |
JP2011192081A (ja) | 情報処理装置及びその制御方法 | |
US10754446B2 (en) | Information processing apparatus and information processing method | |
CN108920069A (zh) | 一种触控操作方法、装置、移动终端和存储介质 | |
CN112749590B (zh) | 目标检测方法、装置、计算机设备和计算机可读存储介质 | |
WO2015127731A1 (zh) | 软键盘布局调整方法及装置 | |
CN111093035A (zh) | 图像处理方法、电子设备及存储介质 | |
CN112905132A (zh) | 投屏方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210528 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210528 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7119224 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |