JP7252252B2 - 手の位置に基づいたモーダル制御の開始 - Google Patents
手の位置に基づいたモーダル制御の開始 Download PDFInfo
- Publication number
- JP7252252B2 JP7252252B2 JP2020554878A JP2020554878A JP7252252B2 JP 7252252 B2 JP7252252 B2 JP 7252252B2 JP 2020554878 A JP2020554878 A JP 2020554878A JP 2020554878 A JP2020554878 A JP 2020554878A JP 7252252 B2 JP7252252 B2 JP 7252252B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- view
- field
- computing device
- outside
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 31
- 238000004891 communication Methods 0.000 claims description 13
- 238000010801 machine learning Methods 0.000 claims description 13
- 238000009877 rendering Methods 0.000 claims description 5
- 210000004247 hand Anatomy 0.000 description 18
- 230000003993 interaction Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 230000000977 initiatory effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
Description
Claims (20)
- データおよび命令を格納するメモリと、
前記メモリと通信するプロセッサと、
プライマリユーザエクスペリエンス(UX)をレンダリングするヘッドマウントディスプレイ(HMD)と、
前記メモリおよび前記プロセッサと通信するオペレーティングシステムと、を備え、
前記オペレーティングシステムおよびプロセッサが、
前記HMDの視野の内側にあるユーザの手の位置を追跡する手の位置追跡システムから手の動き情報を受信することであって、前記手の動き情報は、前記視野の内側から前記視野の外側に移動する手の情報を含む、こと、
前記手の動き情報に基づいて、前記手が前記HMDの視野の外側にあると判別すること、
前記視野の外側にある間の前記手の位置を予測すること、
前記手の前記予測位置に基づいて、前記HMD上のセカンダリUXと対話することであって、前記セカンダリUXは、前記プライマリUXとは異なる、こと、
を行うように動作可能である、コンピュータデバイス。 - 前記視野の外側にある間の前記手の前記位置が、機械学習に基づいて予測される、請求項1に記載のコンピュータデバイス。
- 前記オペレーティングシステムおよびプロセッサが、
前記手が前記視野の外側に位置する間に前記セカンダリUXと対話するためのコマンドを受信し、
前記コマンドに基づいて前記セカンダリUXと対話するようにさらに動作可能である、請求項1に記載のコンピュータデバイス。 - 前記コマンドが、音声コマンドまたはハンドコントローラからの信号のうちの1つ以上である、請求項3に記載のコンピュータデバイス。
- 前記オペレーティングシステムおよびプロセッサが、
前記手の第1の予測位置および第1のコマンドに基づく第1の命令に従って、前記セカンダリUXと対話し、
前記手の第2の予測位置および第2のコマンドに基づく第2の命令に従って、前記セカンダリUXと対話するようにさらに動作可能であり、前記第1の命令が、前記第2の命令とは異なり、前記第1の予測位置が、前記第2の予測位置とは異なる、請求項3に記載のコンピュータデバイス。 - 前記オペレーティングシステムおよびプロセッサが、
前記手の動き情報に基づいて、前記手が前記HMDの前記視野の内側に戻ったことを判別するようにさらに動作可能であり、前記コマンドが、前記手が前記視野の内側にある間に受信した前記手の動き情報に基づいている、請求項3に記載のコンピュータデバイス。 - 前記視野の外側にある間の前記手の前記位置が、前記ユーザによって格納された履歴アクションに基づいてさらに予測される、請求項1に記載のコンピュータデバイス。
- 前記手が前記HMDの前記視野の外側にあると判別されたときに、前記セカンダリUXが、前記HMD上にレンダリングされる、請求項1に記載のコンピュータデバイス。
- コンピュータデバイスのモーダル制御のための方法であって、前記方法が、
前記コンピュータデバイスのヘッドマウントディスプレイ(HMD)の視野の内側にあるユーザの手の位置を追跡する手の位置追跡システムから手の動き情報を受信することであって、前記HMDは、プライマリユーザエクスペリエンス(UX)をレンダリングし、前記手の動き情報は、前記視野の内側から前記視野の外側に移動する手の情報を含む、こと、
前記手の動き情報に基づいて、前記手が前記HMDの視野の外側にあると判別すること、
前記視野の外側にある間の前記手の位置を予測すること、
前記手の前記予測位置に基づいて、前記HMDにセカンダリUXをレンダリングすることであって、前記セカンダリUXは、前記プライマリUXとは異なる、こと、
を含む、方法。 - 前記視野の外側にある間の前記手の前記位置が、機械学習に基づいて予測される、請求項9に記載の方法。
- 前記セカンダリUXと対話するためのコマンドを受信することと、
前記コマンドに基づいて前記セカンダリUXと対話することと、をさらに含む、請求項9に記載の方法。 - 前記コマンドが、音声コマンドまたはハンドコントローラからの信号のうちの1つ以上である、請求項11に記載の方法。
- 前記位置が前記手の第1の予測位置であるときに、第1の命令に従って、前記セカンダリUXは対話され、
前記位置が前記手の第2の予測位置であるときに、第2の命令に従って、前記セカンダリUXは対話され、
前記第1の予測位置は、前記第2の予測位置とは異なる、請求項11に記載の方法。 - 前記手の動き情報に基づいて、前記手が前記HMDの前記視野の内側に戻ったことを判別することを更に含み、前記コマンドが、前記手が前記視野の内側にある間に受信した前記手の動き情報に基づいている、請求項11に記載の方法。
- 前記視野の外側にある間の前記手の前記位置が、前記ユーザによって格納された履歴アクションに基づいてさらに予測される、請求項9に記載の方法。
- 前記手が前記HMDの前記視野の外側にあると判別されたときに、前記セカンダリUXが、前記HMD上にレンダリングされる、請求項9に記載の方法。
- コンピュータデバイスによって実行可能な命令を格納するコンピュータ可読媒体であって、
前記コンピュータデバイスに、前記コンピュータデバイスのヘッドマウントディスプレイ(HMD)の視野の内側にあるユーザの手の位置を追跡する手の位置追跡システムから手の動き情報を受信させるための少なくとも1つの命令であって、前記HMDは、プライマリユーザエクスペリエンス(UX)をレンダリングし、前記手の動き情報は、前記視野の内側から前記視野の外側に移動する手の情報を含む、少なくとも1つの命令と、
前記コンピュータデバイスに、前記手の動き情報に基づいて、前記手が前記HMDの視野の外側にあると判別させるための少なくとも1つの命令と、
前記コンピュータデバイスに、前記視野の外側にある間に前記手の位置を予測させるための少なくとも1つの命令と、
前記コンピュータデバイスに、前記手の前記予測位置に基づいて、前記HMDにセカンダリUXをレンダリングさせるための少なくとも1つの命令であって、前記セカンダリUXは、前記プライマリUXとは異なる、少なくとも1つの命令と、
を含む、コンピュータ可読媒体。 - 前記視野の外側にある間の前記手の前記位置が、機械学習に基づいて予測される、請求項17に記載のコンピュータ可読媒体。
- 前記コンピュータデバイスに、前記手が前記視野の外側に位置する間に前記セカンダリUXと対話するためのコマンドを受信させるための少なくとも1つの命令と、
前記コンピュータデバイスに、前記コマンドに基づいて前記セカンダリUXと対話させるための少なくとも1つの命令と、
をさらに含む、請求項17に記載のコンピュータ可読媒体。 - 前記コマンドが、音声コマンドまたはハンドコントローラからの信号のうちの1つ以上である、請求項19に記載のコンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862666494P | 2018-05-03 | 2018-05-03 | |
US62/666,494 | 2018-05-03 | ||
US16/119,098 | 2018-08-31 | ||
US16/119,098 US10860088B2 (en) | 2018-05-03 | 2018-08-31 | Method and system for initiating application and system modal control based on hand locations |
PCT/US2019/028599 WO2019212793A1 (en) | 2018-05-03 | 2019-04-22 | Initiating modal control based on hand locations |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021521512A JP2021521512A (ja) | 2021-08-26 |
JPWO2019212793A5 JPWO2019212793A5 (ja) | 2022-03-25 |
JP7252252B2 true JP7252252B2 (ja) | 2023-04-04 |
Family
ID=68385186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020554878A Active JP7252252B2 (ja) | 2018-05-03 | 2019-04-22 | 手の位置に基づいたモーダル制御の開始 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10860088B2 (ja) |
EP (1) | EP3788460A1 (ja) |
JP (1) | JP7252252B2 (ja) |
KR (1) | KR102732803B1 (ja) |
WO (1) | WO2019212793A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210138923A (ko) | 2020-05-13 | 2021-11-22 | 삼성전자주식회사 | 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
JPWO2022172651A1 (ja) * | 2021-02-12 | 2022-08-18 | ||
GB2614330B (en) * | 2021-12-31 | 2024-10-02 | Sony Interactive Entertainment Europe Ltd | Peripheral tracking system and method |
WO2024043438A1 (ko) * | 2022-08-24 | 2024-02-29 | 삼성전자주식회사 | 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013012158A (ja) | 2011-06-30 | 2013-01-17 | Toshiba Corp | 電子機器および制御方法 |
JP2013178645A (ja) | 2012-02-28 | 2013-09-09 | Onkyo Corp | 電子機器の入力装置 |
US20140204002A1 (en) | 2013-01-21 | 2014-07-24 | Rotem Bennet | Virtual interaction with image projection |
JP2015520471A (ja) | 2012-06-20 | 2015-07-16 | アマゾン・テクノロジーズ、インコーポレイテッド | ジェスチャー入力のための指先の場所特定 |
US20160274732A1 (en) | 2015-03-16 | 2016-09-22 | Elliptic Laboratories As | Touchless user interfaces for electronic devices |
JP2017083916A (ja) | 2014-03-12 | 2017-05-18 | コニカミノルタ株式会社 | ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末 |
JP2017104207A (ja) | 2015-12-08 | 2017-06-15 | 京楽産業.株式会社 | 遊技機 |
JP2017191496A (ja) | 2016-04-14 | 2017-10-19 | 株式会社東海理化電機製作所 | ジェスチャ判定装置 |
JP2018022426A (ja) | 2016-08-05 | 2018-02-08 | セイコーエプソン株式会社 | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2002342067A1 (en) * | 2001-10-12 | 2003-04-22 | Hrl Laboratories, Llc | Vision-based pointer tracking method and apparatus |
US8488888B2 (en) * | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
US8217856B1 (en) * | 2011-07-27 | 2012-07-10 | Google Inc. | Head-mounted display that displays a visual representation of physical interaction with an input interface located outside of the field of view |
KR102010782B1 (ko) * | 2012-09-18 | 2019-08-14 | 삼성전자주식회사 | 멀티미디어 장치의 인식 범위로 컨트롤러의 위치를 보정하도록 유도하는 방법, 이를 위한 멀티미디어 장치 및 타겟 추적 장치 |
EP2708982B1 (en) | 2012-09-18 | 2019-09-11 | Samsung Electronics Co., Ltd | Method for guiding the user of a controller of a multimedia apparatus to move within recognizable range of the multimedia apparatus, the multimedia apparatus, and target tracking apparatus thereof |
US9911361B2 (en) * | 2013-03-10 | 2018-03-06 | OrCam Technologies, Ltd. | Apparatus and method for analyzing images |
KR102360176B1 (ko) * | 2014-03-21 | 2022-02-09 | 삼성전자주식회사 | 웨어러블 디바이스에서 가상의 입력 인터페이스를 제공하는 방법 및 이를 위한 웨어러블 디바이스 |
US10564714B2 (en) * | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
WO2017104207A1 (ja) * | 2015-12-16 | 2017-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10410360B2 (en) * | 2017-12-15 | 2019-09-10 | United States Of America As Represented By Secretary Of The Navy | Method for displaying off-screen target indicators in motion video |
-
2018
- 2018-08-31 US US16/119,098 patent/US10860088B2/en active Active
-
2019
- 2019-04-22 EP EP19727139.8A patent/EP3788460A1/en active Pending
- 2019-04-22 WO PCT/US2019/028599 patent/WO2019212793A1/en active Application Filing
- 2019-04-22 JP JP2020554878A patent/JP7252252B2/ja active Active
- 2019-04-22 KR KR1020207031557A patent/KR102732803B1/ko active IP Right Grant
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013012158A (ja) | 2011-06-30 | 2013-01-17 | Toshiba Corp | 電子機器および制御方法 |
JP2013178645A (ja) | 2012-02-28 | 2013-09-09 | Onkyo Corp | 電子機器の入力装置 |
JP2015520471A (ja) | 2012-06-20 | 2015-07-16 | アマゾン・テクノロジーズ、インコーポレイテッド | ジェスチャー入力のための指先の場所特定 |
US20140204002A1 (en) | 2013-01-21 | 2014-07-24 | Rotem Bennet | Virtual interaction with image projection |
JP2017083916A (ja) | 2014-03-12 | 2017-05-18 | コニカミノルタ株式会社 | ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末 |
US20160274732A1 (en) | 2015-03-16 | 2016-09-22 | Elliptic Laboratories As | Touchless user interfaces for electronic devices |
JP2017104207A (ja) | 2015-12-08 | 2017-06-15 | 京楽産業.株式会社 | 遊技機 |
JP2017191496A (ja) | 2016-04-14 | 2017-10-19 | 株式会社東海理化電機製作所 | ジェスチャ判定装置 |
JP2018022426A (ja) | 2016-08-05 | 2018-02-08 | セイコーエプソン株式会社 | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102732803B1 (ko) | 2024-11-20 |
US10860088B2 (en) | 2020-12-08 |
US20190339767A1 (en) | 2019-11-07 |
EP3788460A1 (en) | 2021-03-10 |
WO2019212793A1 (en) | 2019-11-07 |
KR20210005041A (ko) | 2021-01-13 |
JP2021521512A (ja) | 2021-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12164739B2 (en) | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments | |
US10976804B1 (en) | Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments | |
JP7252252B2 (ja) | 手の位置に基づいたモーダル制御の開始 | |
US11023035B1 (en) | Virtual pinboard interaction using a peripheral device in artificial reality environments | |
US20210011556A1 (en) | Virtual user interface using a peripheral device in artificial reality environments | |
US11054894B2 (en) | Integrated mixed-input system | |
US20180150204A1 (en) | Switching of active objects in an augmented and/or virtual reality environment | |
US20180143693A1 (en) | Virtual object manipulation | |
US10331340B2 (en) | Device and method for receiving character input through the same | |
US11023036B1 (en) | Virtual drawing surface interaction using a peripheral device in artificial reality environments | |
WO2020146122A1 (en) | Context-aware system menu behavior for mixed reality | |
US9904444B2 (en) | Method of providing user interface of device and device including the user interface | |
EP3811186B1 (en) | Input scaling to keep controller inside field of view | |
CN116594497A (zh) | 虚拟现实中的滚动和导航 | |
US20140111551A1 (en) | Information-processing device, storage medium, information-processing method, and information-processing system | |
US20230326144A1 (en) | Triggering Field Transitions for Artificial Reality Objects | |
WO2024175006A1 (zh) | 虚拟环境中的交互方法、装置、设备和存储介质 | |
EP3850468B1 (en) | Snapping range for augmented reality objects | |
US20230333645A1 (en) | Method and device for processing user input for multiple devices | |
US20230298267A1 (en) | Event routing in 3d graphical environments | |
US20240231559A9 (en) | Three-dimensional programming environment | |
US10809794B2 (en) | 3D navigation mode | |
US12105926B2 (en) | XR manipulation feature with smart watch | |
US20240281071A1 (en) | Simultaneous Controller and Touch Interactions | |
US20240265656A1 (en) | Facilitating System User Interface (UI) Interactions in an Artificial Reality (XR) Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220316 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7252252 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |