JP7480218B2 - 拡張現実システムのための仮想レチクル - Google Patents
拡張現実システムのための仮想レチクル Download PDFInfo
- Publication number
- JP7480218B2 JP7480218B2 JP2022071526A JP2022071526A JP7480218B2 JP 7480218 B2 JP7480218 B2 JP 7480218B2 JP 2022071526 A JP2022071526 A JP 2022071526A JP 2022071526 A JP2022071526 A JP 2022071526A JP 7480218 B2 JP7480218 B2 JP 7480218B2
- Authority
- JP
- Japan
- Prior art keywords
- head pose
- user
- head
- threshold
- reticle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title description 5
- 238000000034 method Methods 0.000 claims description 160
- 230000033001 locomotion Effects 0.000 claims description 33
- 230000006870 function Effects 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 12
- 210000003128 head Anatomy 0.000 description 884
- 239000013598 vector Substances 0.000 description 211
- 239000011295 pitch Substances 0.000 description 170
- 230000007935 neutral effect Effects 0.000 description 59
- 230000036544 posture Effects 0.000 description 59
- 230000008569 process Effects 0.000 description 49
- 230000003287 optical effect Effects 0.000 description 39
- 238000003384 imaging method Methods 0.000 description 36
- 238000004422 calculation algorithm Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 25
- 210000001747 pupil Anatomy 0.000 description 24
- 230000004044 response Effects 0.000 description 23
- 206010050031 Muscle strain Diseases 0.000 description 18
- 230000008859 change Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 16
- 230000004308 accommodation Effects 0.000 description 15
- 238000000605 extraction Methods 0.000 description 15
- 238000009826 distribution Methods 0.000 description 14
- 206010053156 Musculoskeletal discomfort Diseases 0.000 description 9
- 230000004438 eyesight Effects 0.000 description 8
- 230000000670 limiting effect Effects 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 239000000463 material Substances 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 208000003464 asthenopia Diseases 0.000 description 7
- 239000000835 fiber Substances 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 239000007787 solid Substances 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- 230000004424 eye movement Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000005266 casting Methods 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 230000004886 head movement Effects 0.000 description 4
- 230000001939 inductive effect Effects 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000001902 propagating effect Effects 0.000 description 4
- 230000035807 sensation Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 206010019233 Headaches Diseases 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000005452 bending Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 231100000869 headache Toxicity 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 230000003187 abdominal effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 230000002350 accommodative effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000013488 ordinary least square regression Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0081—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0185—Displaying image at variable distance
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
Description
本特許文書の開示の一部分は、著作権保護を受けるべき資料を含む。本著作権所有者は、本特許文書または本特許開示を誰が複写しても、それが特許商標局の特許ファイルまたは記録に現れる通りである限りでは異議はないが、その他の場合、いかなる著作権も全て保有する。
(関連出願の相互参照)
(分野)
本発明は、例えば、以下を提供する。
(項目1)
システムであって、前記システムは、
前記システムのユーザの頭部姿勢データを取得するように構成された頭部姿勢センサと、
前記頭部姿勢データを記憶するように構成された非一過性メモリと、
ユーザの眼の正面に位置付けられるように構成されたディスプレイであって、前記ディスプレイは、仮想レチクルを前記ユーザの眼に向かって式投影するように構成されている、ディスプレイと、
前記頭部姿勢センサ、前記ディスプレイ、および前記非一過性メモリと通信しているハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記ユーザの前記頭部姿勢データを取得することと、
少なくとも部分的に前記頭部姿勢データに基づいて、前記ユーザの頭部姿勢を識別することと、
少なくとも部分的に前記ユーザの頭部姿勢と基準頭部姿勢との間の比較に基づいて、前記仮想レチクルの位置のための調節を決定することと、
少なくとも部分的に前記決定された調節に基づいて、前記仮想レチクルに定位置に変らせることと
を行うようにプログラムされている、システム。
(項目2)
前記仮想レチクルは、前記ユーザの視野内の前記ユーザの位置を識別する移動可能なインジケータを備えている、項目1に記載のシステム。
(項目3)
頭部姿勢データは、前記ユーザの頭部のヨー、ピッチ、またはロールの指示のうちの少なくとも1つに対応している、項目1に記載のシステム。
(項目4)
ヨー、ピッチ、またはロールの前記指示は、前記基準頭部姿勢に関している、項目3に記載のシステム。
(項目5)
前記基準頭部姿勢は、前記ユーザの頭部の水平頭部姿勢に対応している、項目4に記載のシステム。
(項目6)
前記水平頭部姿勢は、前記ユーザの頭部の冠状平面、前記ユーザの頭部の矢状平面、および前記ユーザの頭部の軸平面の各々が互いに直交している頭部姿勢を備えている、項目5に記載のシステム。
(項目7)
前記基準頭部姿勢は、前記ユーザの頭部の中立に置かれた状態に対応する頭部姿勢を備えている、項目1に記載のシステム。
(項目8)
前記ユーザの頭部の前記中立に置かれた状態は、前記水平頭部姿勢に対して、-5~5度のヨー、-5~5度のロール、および-15~-25度のピッチに対応している、項目7に記載のシステム。
(項目9)
前記基準頭部姿勢は、前記水平頭部姿勢に対して、0度のヨー、0度のロール、または-20度のピッチのうちの少なくとも1つに対応している、項目8に記載のシステム。
(項目10)
前記ハードウェアプロセッサは、前記ユーザの前記頭部姿勢に対応している頭部姿勢ベクトルを識別し、前記基準頭部姿勢に対応している基準頭部姿勢ベクトルを識別するようにさらにプログラムされている、項目1に記載のシステム。
(項目11)
前記ハードウェアプロセッサは、少なくとも部分的に前記ユーザの前記頭部姿勢と前記基準頭部姿勢との間の比較に基づいて、前記頭部姿勢ベクトルと前記基準頭部姿勢ベクトルとの間の角度差を決定するようにさらにプログラムされ、前記角度差は、前記ユーザの前記頭部姿勢のヨー、ピッチ、またはロールにおける前記基準頭部姿勢に対する差異のうちの少なくとも1つに対応している、項目10に記載のシステム。
(項目12)
前記仮想レチクルの位置のための前記調節を決定するために、前記ハードウェアプロセッサは、前記決定された角度差を1つ以上の頭部姿勢閾値と比較するようにプログラムされている、項目11に記載のシステム。
(項目13)
前記1つ以上の頭部姿勢閾値は、最大頭部姿勢閾値または最小頭部姿勢閾値のうちの少なくとも1つを備えている、項目12に記載のシステム。
(項目14)
前記最大頭部姿勢閾値は、最大頭部ヨー閾値、最大頭部ロール閾値、または最大頭部ピッチ閾値のうちの少なくとも1つに対応している、項目13に記載のシステム。
(項目15)
前記基準頭部姿勢に対して、前記最大頭部ヨー閾値が、50度であるか、前記最大頭部ロール閾値が、20度であるか、または、前記最大頭部ピッチ閾値が、5度である、項目14に記載のシステム。
(項目16)
前記最小頭部姿勢閾値は、最小頭部ヨー閾値、最小頭部ロール閾値、または最小頭部ピッチ閾値のうちの少なくとも1つに対応している、項目13に記載のシステム。
(項目17)
前記基準頭部姿勢に対して、前記最小頭部ヨー閾値が、-50度であるか、前記最小頭部ロール閾値が、-20度であるか、または、前記最小頭部ピッチ閾値が、-45度である、項目16に記載のシステム。
(項目18)
前記ハードウェアプロセッサは、
前記角度差が前記最小頭部姿勢閾値を満たさないことの決定に応答して、少なくとも部分的に第1の調節値に基づいて、前記仮想レチクルの位置のための前記調節を決定するようにさらにプログラムされている、項目13に記載のシステム。
(項目19)
前記第1の調節値は、約-12度である、項目18に記載のシステム。
(項目20)
前記ハードウェアプロセッサは、前記角度差が前記最大頭部姿勢閾値を満たすことの決定に応答して、少なくとも部分的に第2の調節値に基づいて、前記仮想レチクルの位置のための前記調節を決定するようにさらにプログラムされている、項目13に記載のシステム。
(項目21)
前記第2の調節値は、約+5度である、項目20に記載のシステム。
(項目22)
前記ハードウェアプロセッサは、
前記角度差が、前記最小頭部姿勢閾値を満たし、前記最大頭部姿勢閾値を満たさないことの決定に応答して、少なくとも部分的に第3の調節値に基づいて、前記仮想レチクルの位置のための前記調節を決定するようにさらにプログラムされている、項目13に記載のシステム。
(項目23)
前記第3の調節値は、イージング関数に対応している、項目22に記載のシステム。
(項目24)
前記第3の調節値は、約0度である、項目22に記載のシステム。
(項目25)
前記仮想レチクルに定位置に変らせることは、前記仮想レチクルに前記ユーザの視野のデフォルトレチクル位置から位置を変えさせることを含む、項目1に記載のシステム。
(項目26)
前記デフォルトレチクル位置は、前記ユーザの視野の中心を備えている、項目25に記載のシステム。
(項目27)
前記頭部姿勢センサは、慣性測定ユニット(IMU)、加速度計、ジャイロスコープ、または磁力計を備えている、項目1に記載のシステム。
(項目28)
前記ウェアラブルシステムは、頭部搭載型ウェアラブルシステムを備えている、項目1に記載のシステム。
(項目29)
ディスプレイシステムのディスプレイに対応している視野内のユーザの位置を識別する仮想レチクルの位置を調節する方法であって、前記方法は、
ユーザの頭部姿勢を追跡するように構成された部姿勢センサからディスプレイシステムの前記ユーザの頭部姿勢データを取得することと、
少なくとも部分的に前記頭部姿勢データに基づいて、前記ユーザの前記頭部姿勢に対応している頭部姿勢ベクトルを識別することと、
基準頭部姿勢に対応している基準頭部姿勢ベクトルを識別することと、
少なくとも部分的に前記ユーザの前記頭部姿勢と前記基準頭部姿勢との間の比較に基づいて、前記頭部姿勢ベクトルと前記基準頭部姿勢ベクトルとの間の角度差を決定することであって、前記角度差は、前記ユーザの前記頭部姿勢のヨー、ピッチ、またはロールにおける前記基準頭部姿勢に対する差異のうちの少なくとも1つに対応している、ことと、
前記決定された角度差を1つ以上の頭部姿勢閾値と比較することであって、前記1つ以上の頭部姿勢閾値は、最大頭部姿勢閾値または最小頭部姿勢閾値のうちの少なくとも1つを備えている、ことと、
前記角度差が前記最小頭部姿勢閾値を満たさないことの決定に応答して、少なくとも部分的に第1の調節値に基づいて、仮想レチクルの位置のための調節を決定することであって、前記仮想レチクルの位置は、前記ユーザの視野内の前記ユーザの位置を識別する前記移動可能なインジケータの位置に対応している、ことと、
前記角度差が前記最大頭部姿勢閾値を満たすことの決定に応答して、少なくとも部分的に第2の調節値に基づいて、前記仮想レチクルの位置のための前記調節を決定することと、
前記角度差が、前記最小頭部姿勢閾値を満たし、前記最大頭部姿勢閾値を満たさないことの決定に応答して、少なくとも部分的に第3の調節値に基づいて、前記仮想レチクルの位置のための前記調節を決定することと、
前記決定された調節に基づいて、前記仮想レチクルの位置が前記ユーザの視野のデフォルトレチクル位置から調節されるようにすることと
を含む、方法。
(項目30)
ディスプレイシステムのディスプレイに対応している視野内のユーザの位置を識別する仮想レチクルの位置を調節する方法であって、前記方法は、
前記ディスプレイシステムの前記ユーザの頭部姿勢データを取得することと、
少なくとも部分的に前記頭部姿勢データに基づいて、頭部姿勢を識別することと、
基準頭部姿勢を識別することと、
少なくとも部分的に前記頭部姿勢と前記基準頭部姿勢との間の比較に基づいて、頭部搭載型ディスプレイ上に投影される仮想レチクルの位置のための調節を決定することと
を含む、方法。
(項目31)
ユーザの視野内の前記ユーザの位置を識別する移動可能なインジケータのディスプレイシステムのディスプレイに対する位置を調節する方法であって、前記方法は、
最大頭部ピッチ閾値、最小頭部ピッチ閾値、または中立頭部ピッチ閾値のうちの少なくとも1つを識別することと、
ユーザの頭部姿勢に対応している頭部姿勢ベクトルを識別することと、
基準頭部姿勢ベクトルを識別することと、
前記頭部姿勢ベクトルと前記基準頭部姿勢ベクトルとの間の角度差を計算することと、
少なくとも部分的に前記角度差と前記最大頭部ピッチ閾値、前記最小頭部ピッチ閾値、または前記中立頭部ピッチ閾値のうちの少なくとも1つとに基づいて、レチクル調節を計算することと、
少なくとも部分的に前記計算されたレチクル調節に基づいて、調節されたレチクル位置を決定することと
を含む、方法。
(項目32)
ディスプレイシステムのディスプレイに対応している視野内のユーザの位置を識別する仮想レチクルの位置を調節する方法であって、前記方法は、
頭部姿勢ベクトルと基準頭部姿勢ベクトルとの間の角度差を計算することであって、前記頭部姿勢ベクトルは、ディスプレイシステムのユーザの頭部姿勢に対応し、前記基準頭部姿勢ベクトルは、基準頭部姿勢に対応している、ことと、
前記角度差が最小頭部ピッチ閾値を満たさないことを決定することと、
少なくとも部分的に前記最小頭部ピッチ閾値に関連付けられた角度調節に基づいて、調節されたレチクル位置を決定することと
を含む、方法。
(項目33)
ディスプレイシステムのディスプレイに対応している視野内のユーザの位置を識別する仮想レチクルの位置を調節する方法であって、前記方法は、
頭部姿勢ベクトルと基準頭部姿勢ベクトルとの間の角度差を計算することであって、前記頭部姿勢ベクトルは、ディスプレイシステムのユーザの頭部姿勢に対応し、前記基準頭部姿勢ベクトルは、基準頭部姿勢に対応している、ことと、
前記角度差が最小頭部ピッチ閾値を満たすことを決定することと、
前記角度差が最大頭部ピッチ閾値を満たさないことを決定することと、
少なくとも部分的に前記最大頭部ピッチ閾値に関連付けられた角度調節に基づいて、調節されたレチクル位置を決定することと
を含む、方法。
(項目34)
ディスプレイシステムのディスプレイに対応している視野内のユーザの位置を識別する仮想レチクルの位置を調節する方法であって、前記方法は、
頭部姿勢ベクトルと基準頭部姿勢ベクトルとの間の角度差を計算することであって、前記頭部姿勢ベクトルは、ディスプレイシステムのユーザの頭部姿勢に対応し、前記基準頭部姿勢ベクトルは、基準頭部姿勢に対応している、ことと、
前記角度差が最小頭部ピッチ閾値を満たすことを決定することと、
前記角度差が中立頭部ピッチ閾値を満たさないことを決定することと、
少なくとも部分的にイージング関数に基づいて、調節されたレチクル位置を決定することと
を含む、方法。
(項目35)
ディスプレイシステムのディスプレイに対応している視野内のユーザの位置を識別する仮想レチクルの位置を調節する方法であって、前記方法は、
頭部姿勢ベクトルと基準頭部姿勢ベクトルとの間の角度差を計算することであって、前記頭部姿勢ベクトルは、ディスプレイシステムのユーザの頭部姿勢に対応し、前記基準頭部姿勢ベクトルは、基準頭部姿勢に対応している、ことと、
前記角度差が中立頭部ピッチ閾値を満たすことを決定することと、
前記角度差が最大頭部ピッチ閾値を満たさないことを決定することと、
少なくとも部分的にイージング関数に基づいて、調節されたレチクル位置を決定することと
を含む、方法。
(項目36)
システムであって、前記システムは、
前記システムのユーザの頭部姿勢データを測定するように構成された頭部姿勢センサと、
前記ユーザの頭部のヨー、ピッチ、またはロールの指示のうちの少なくとも1つに対応している前記頭部姿勢データを記憶するように構成された非一過性メモリと、
ユーザの眼の正面に位置付けられるように構成されたディスプレイであって、前記ディスプレイは、仮想レチクルを前記ユーザの眼に向かって投影するように構成され、前記仮想レチクルは、視野内の前記ユーザの位置を識別する移動可能なインジケータを備えている、ディスプレイと、
前記頭部姿勢センサ、前記ディスプレイ、および前記非一過性メモリと通信しているハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記ユーザの前記頭部姿勢データを取得することと、
少なくとも部分的に前記頭部姿勢データに基づいて、前記ユーザの前記頭部姿勢に対応している頭部姿勢ベクトルを識別することと、
基準頭部姿勢に対応している基準頭部姿勢ベクトルを識別することと、
少なくとも部分的に前記ユーザの前記頭部姿勢と前記基準頭部姿勢との間の比較に基づいて、前記頭部姿勢ベクトルと前記基準頭部姿勢ベクトルとの間の角度差を決定することであって、前記角度差は、前記ユーザの前記頭部姿勢のヨー、ピッチ、またはロールにおける前記基準頭部姿勢に対する差異のうちの少なくとも1つに対応している、ことと、
前記決定された角度差を1つ以上の頭部姿勢閾値と比較することであって、前記1つ以上の頭部姿勢閾値は、最大頭部姿勢閾値または最小頭部姿勢閾値のうちの少なくとも1つを備えている、ことと、
前記角度差が前記最小頭部姿勢閾値を満たさないことの決定に応答して、少なくとも部分的に第1の調節値に基づいて、前記仮想レチクルの位置のための調節を決定することと、
前記角度差が前記最大頭部姿勢閾値を満たすことの決定に応答して、少なくとも部分的に第2の調節値に基づいて、前記仮想レチクルの位置のための前記調節を決定することと、
前記角度差が前記最小頭部姿勢閾値を満たし、前記最大頭部姿勢閾値を満たさないことの決定に応答して、少なくとも部分的に第3の調節値に基づいて、前記仮想レチクルの位置のための前記調節を決定することと、
前記決定された調節に基づいて、前記仮想レチクルの位置が前記ユーザの視野のデフォルトレチクル位置から調節されるようにすることと
を行うようにプログラムされている、システム。
ウェアラブルデバイスは、双方向VR/AR/MR環境を提示するためのディスプレイを含むことができる。VR/AR/MR環境は、例えば、頭部姿勢、眼の注視、または身体姿勢等の種々の姿勢を通して、ユーザによって相互作用され得るデータ要素を含むことができる。VR/AR/MR環境は、ユーザの視野(例えば、任意の所与の瞬間に見られるVR/AR/MR環境の範囲)に対するユーザの現在の位置に対応するレチクルを含み得る。例えば、レチクルは、ユーザの注視方向を表し得る。ユーザが動き回っているとき(例えば、眼、頭部、身体、またはそれらの任意の組み合わせを移動させることによって)、レチクルも、ユーザとともに移動し得る。レチクルは、1つ以上のオブジェクトを指し得、ユーザは、レチクルが指している標的オブジェクトを選択し得る。例えば、ユーザは、その頭部を移動させ、レチクルを選択されるべきオブジェクトに向け、次いで、ハンドヘルドユーザ入力トーテムをクリックし、オブジェクトを選択し得る。ウェアラブルディスプレイデバイスは、適切なアクションを選択されたオブジェクトに対して実施することができる(例えば、オブジェクトを移動させること、オブジェクトをハイライトまたは拡大すること、オブジェクトについての情報を呼び出すこと、オブジェクトに関連付けられた実施され得るアクションのメニューを表示すること等)。
(ウェアラブルシステムの3Dディスプレイの例)
(導波管スタックアセンブリ)
、または磁力計を含み得る)等を使用して、頭部姿勢(例えば、頭部位置または頭部向き)も決定し得る。
(ウェアラブルシステムの他のコンポーネント)
(例示的ウェアラブルシステム、環境、およびインターフェース)
(動眼視野(FOR)および視野(FOV)内の例示的オブジェクト)
(レチクルの利用)
(レチクルの位置の加速)
(例示的頭部姿勢角度調節)
(レチクルの位置への例示的頭部姿勢角度調節)
(レチクルを位置付ける例示的プロセス)
(頭部姿勢に基づくレチクル位置付けまたは調節)
(角度差に基づくレチクル位置付けまたは調節)
(頭部ピッチ閾値に基づくレチクル位置付けまたは調節)
(例示的ソフトウェアコード)
(追加の側面)
ユーザの頭部姿勢データを取得することと、少なくとも部分的に頭部姿勢データに基づいて、ユーザの頭部姿勢を識別することと、少なくとも部分的にユーザの頭部姿勢と基準頭部姿勢との間の比較に基づいて、仮想レチクルの位置のための調節を決定することと、少なくとも部分的に決定された調節に基づいて、仮想レチクルに定位置に変らせることとを行うようにプログラムされている、システム。
(追加の考慮点)
(付属A)
[Header(’Pitcheslimits relative to horizontal’)]
public float maxHeadPitch = 5;
public float neutralHeadPitch = -20;
public float minHeadPitch= -45;
[Header(’Angle offsets at the min/max head pitch’)]
public float maxHeadPitchDelta = 8;
public float minHeadPitchDelta = -12;
public Vector3 GetAcceleratedForwardVector() {
// Pitch limitsrelative to horizontal
float maxHeadPitch = 5;
float neutralHeadPitch = -20;
float minHeadPitch = -45;
// Angle offsets at the min/max head pitch
float maxHeadPitchDelta = 8;
float minHeadPitchDelta = -12;
// Get the camera/headpose forward vector
Vector3 forward = Headpose.Forward;
// Get the forward vector projected on to the horizontal plane
Vector3 flat = forward;
flat.y = 0;
flat.Normalize ();
// Calculate the absolute angle between
the headpose forward vector and the flattened forward vector
float pitch = Mathf.Acos (Vector3.Dot (forward,flat)) * Mathf.Rad2Deg;
// If the forward vector is pointing downwards,then the angle is negative
if (forward.y < 0)
{
pitch = -pitch;
}
// pitchAdjustment is the angular deviation from the forward vector
float pitchAdjustment = 0;
if (pitch >= maxHeadPitch)
{
// If pitch > maxHeadPitch,set adjustment to maxHeadPitchDelta
pitchAdjustment = maxHeadPitchDelta;
}
else if (pitch >= neutralHeadPitch)
{
// If pitch is between neutralHeadPitch
and maxHeadPitch,set adjustment to be an eased value between 0 and maxHeadPitchDelta
float t = (pitch - neutralHeadPitch) / (maxHeadPitch - neutralHeadPitch);
t = EaseOutSine(t);
pitchAdjustment = maxHeadPitchDelta * t;
}
else if (pitch >= minHeadPitch)
{
// If pitch is between neutralHeadPitch
and minHeadPitch,set adjustment to be an eased value between 0 and minHeadPitchDelta
float t = (pitch - minHeadPitch) / (neutralHeadPitch - minHeadPitch);
t = EaseOutSine(1 - t);
pitchAdjustment = minHeadPitchDelta * t;
}
else
{
// If pitch < minHeadPitch,set adjustment to minHeadPitchDelta
pitchAdjustment = minHeadPitchDelta;
}
// If the pitch adjustment is not equal
to zero
if (pitchAdjustment != 0)
{
// Calculate the vector perpendicular to the up and forward vectors
Vector3 right = Vector3.Cross (Vector3.up,flat);
// Calculate the rotation adjustment
Quaternionadjust = Quaternion.AngleAxis(pitchAdjustment,-right);
// Apply the adjustment to the forward vector to get a new adjusted forward vector
forward = adjust * forward;
}
return forward;
}
(著作権)MAGIC LEAP,INC. All rights reserved.
Claims (15)
- システムであって、前記システムは、
前記システムのユーザの頭部姿勢データを取得するように構成された頭部姿勢センサと、
前記頭部姿勢データを記憶するように構成された非一過性メモリと、
ユーザの眼の正面に位置付けられるように構成されたディスプレイであって、前記ディスプレイは、前記ユーザの視野(FOV)内で仮想レチクルを前記ユーザの前記眼に向かって投影するように構成されており、前記ユーザの頭部姿勢が変化するにつれて、前記FOVが変化する、ディスプレイと、
前記頭部姿勢センサ、前記ディスプレイ、および前記非一過性メモリと通信しているハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記頭部姿勢データに少なくとも部分的に基づいて、前記ユーザの頭部姿勢を識別することと、
前記頭部姿勢に少なくとも部分的に基づいて、前記ディスプレイに、前記FOV内の場所に前記仮想レチクルをレンダリングさせることと
を行うようにプログラムされ、
前記頭部姿勢が第1の頭部姿勢閾値を満たし、第2の頭部姿勢閾値を満たさないときに、前記FOV内の前記仮想レチクルの前記場所は、前記頭部姿勢およびイージング関数に少なくとも部分的に基づいており、前記頭部姿勢が変化するにつれて、前記FOV内の前記仮想レチクルの前記場所が変化し、
前記頭部姿勢が前記第1の頭部姿勢閾値を満たさないときに、前記頭部姿勢が変化するにつれて、前記FOVが変化し、前記仮想レチクルの前記場所は、前記FOV内に固定されており、
前記第1の頭部姿勢閾値は、イージング閾値であり、前記第2の頭部姿勢閾値は、最大頭部姿勢閾値である、システム。 - 前記頭部姿勢が前記第1の頭部姿勢閾値を満たし、第2の頭部姿勢閾値を満たさないときに、前記仮想レチクルの前記場所は、前記頭部姿勢およびオフセットに少なくとも部分的に基づいている、請求項1に記載のシステム。
- 前記仮想レチクルは、前記FOV内の位置を識別する移動可能なインジケータを備えている、請求項1に記載のシステム。
- 前記第2の頭部姿勢閾値は、前記ユーザの軸平面に対して50度、前記ユーザの冠状平面に対して20度、または、前記ユーザの矢状平面に対して5度のうちの少なくとも1つに対応する、請求項1に記載のシステム。
- 前記頭部姿勢が前記第2の頭部姿勢閾値を満たしているとき、前記FOV内の前記仮想レチクルの移動は、前記FOVに関連付けられた境界によって制限される、請求項1に記載のシステム。
- システムであって、前記システムは、
前記システムのユーザの頭部姿勢データを取得するように構成された頭部姿勢センサと、
前記頭部姿勢データを記憶するように構成された非一過性メモリと、
ユーザの眼の正面に位置付けられるように構成されたディスプレイであって、前記ディスプレイは、前記ユーザの視野(FOV)内で仮想レチクルを前記ユーザの前記眼に向かって投影するように構成され、前記ユーザの頭部姿勢が変化するにつれて、前記FOVが変化する、ディスプレイと、
前記頭部姿勢センサ、前記ディスプレイ、および前記非一過性メモリと通信しているハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記頭部姿勢データに少なくとも部分的に基づいて、前記ユーザの頭部姿勢を識別することと、
前記頭部姿勢が第1の頭部姿勢閾値を満たさないことの決定に少なくとも部分的に基づいて、前記ディスプレイに、前記FOV内の固定場所に仮想レチクルをレンダリングさせることであって、前記頭部姿勢が前記第1の頭部姿勢閾値を満たさないときに、前記頭部姿勢が変化するにつれて、前記FOVが変化する、ことと、
前記頭部姿勢が前記第1の頭部姿勢閾値を満たし、第2の頭部姿勢閾値を満たさないことの決定に少なくとも部分的に基づいて、前記ディスプレイに、前記ユーザの前記頭部姿勢およびイージング関数に少なくとも部分的に基づいて変動する前記FOV内の場所に前記仮想レチクルをレンダリングさせることと
を行うようにプログラムされており、
前記第1の頭部姿勢閾値は、イージング閾値であり、前記第2の頭部姿勢閾値は、最大頭部姿勢閾値である、システム。 - 前記頭部姿勢が前記第1の頭部姿勢閾値を満たし、前記第2の頭部姿勢閾値を満たさないときに、前記仮想レチクルの前記場所は、前記頭部姿勢およびオフセットに少なくとも部分的に基づいている、請求項6に記載のシステム。
- 前記固定場所は、前記FOVの中心に対応している、請求項6に記載のシステム。
- 前記仮想レチクルは、前記FOV内の位置を識別する移動可能なインジケータを備える、請求項6に記載のシステム。
- 前記頭部姿勢が前記第2の頭部姿勢閾値を満たしているとき、前記FOV内の前記仮想レチクルの移動は、前記FOVに関連付けられた境界によって制限される、請求項6に記載のシステム。
- ディスプレイシステムのディスプレイに対応する視野(FOV)内の位置を識別する仮想レチクルの位置を調節する方法であって、前記方法は、
頭部姿勢センサから取得された頭部姿勢データに少なくとも部分的に基づいて、ユーザの頭部姿勢を識別することと、
前記頭部姿勢が第1の頭部姿勢閾値を満たさないことの決定に少なくとも部分的に基づいて、前記ディスプレイに、前記FOV内の固定場所に仮想レチクルをレンダリングさせることであって、前記頭部姿勢が前記第1の頭部姿勢閾値を満たさないときに、前記頭部姿勢が変化するにつれて、前記FOVが変化する、ことと、
前記頭部姿勢が前記第1の頭部姿勢閾値を満たし、第2の頭部姿勢閾値を満たさないことの決定に少なくとも部分的に基づいて、前記ディスプレイに、前記ユーザの前記頭部姿勢およびイージング関数に少なくとも部分的に基づいて変動する前記FOV内の場所に前記仮想レチクルをレンダリングさせることと
を含み、
前記第1の頭部姿勢閾値は、イージング閾値であり、前記第2の頭部姿勢閾値は、最大頭部姿勢閾値である、方法。 - 前記頭部姿勢が前記第1の頭部姿勢閾値を満たし、前記第2の頭部姿勢閾値を満たさないときに、前記仮想レチクルの前記場所は、前記頭部姿勢およびオフセットに少なくとも部分的に基づいている、請求項11に記載の方法。
- デフォルト場所は、前記FOVの中心に対応している、請求項11に記載の方法。
- 前記仮想レチクルは、前記FOV内の位置を識別する移動可能なインジケータを備える、請求項11に記載の方法。
- 前記頭部姿勢が前記第2の頭部姿勢閾値を満たしているとき、前記FOV内の前記仮想レチクルの移動は、前記FOVに関連付けられた境界によって制限される、請求項11に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024070428A JP2024097815A (ja) | 2017-10-27 | 2024-04-24 | 拡張現実システムのための仮想レチクル |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762578094P | 2017-10-27 | 2017-10-27 | |
US62/578,094 | 2017-10-27 | ||
JP2020520778A JP7116166B2 (ja) | 2017-10-27 | 2018-10-25 | 拡張現実システムのための仮想レチクル |
PCT/US2018/057593 WO2019084325A1 (en) | 2017-10-27 | 2018-10-25 | VIRTUAL RETICLE FOR INCREASED REALITY SYSTEMS |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020520778A Division JP7116166B2 (ja) | 2017-10-27 | 2018-10-25 | 拡張現実システムのための仮想レチクル |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024070428A Division JP2024097815A (ja) | 2017-10-27 | 2024-04-24 | 拡張現実システムのための仮想レチクル |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022101656A JP2022101656A (ja) | 2022-07-06 |
JP7480218B2 true JP7480218B2 (ja) | 2024-05-09 |
Family
ID=66244898
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020520778A Active JP7116166B2 (ja) | 2017-10-27 | 2018-10-25 | 拡張現実システムのための仮想レチクル |
JP2022071526A Active JP7480218B2 (ja) | 2017-10-27 | 2022-04-25 | 拡張現実システムのための仮想レチクル |
JP2024070428A Pending JP2024097815A (ja) | 2017-10-27 | 2024-04-24 | 拡張現実システムのための仮想レチクル |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020520778A Active JP7116166B2 (ja) | 2017-10-27 | 2018-10-25 | 拡張現実システムのための仮想レチクル |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024070428A Pending JP2024097815A (ja) | 2017-10-27 | 2024-04-24 | 拡張現実システムのための仮想レチクル |
Country Status (9)
Country | Link |
---|---|
US (3) | US10839576B2 (ja) |
EP (1) | EP3701497A4 (ja) |
JP (3) | JP7116166B2 (ja) |
KR (2) | KR102668725B1 (ja) |
CN (1) | CN111480181A (ja) |
AU (1) | AU2018355441B2 (ja) |
CA (1) | CA3078895A1 (ja) |
IL (2) | IL310847A (ja) |
WO (1) | WO2019084325A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3353633A1 (en) * | 2015-09-24 | 2018-08-01 | Tobii AB | Eye-tracking enabled wearable devices |
FR3057950B1 (fr) * | 2016-10-24 | 2018-10-19 | Nexter Systems | Procede d'aide a la localisation d'un objectif et dispositif d'observation permettant la mise en oeuvre de ce procede |
US10664993B1 (en) * | 2017-03-13 | 2020-05-26 | Occipital, Inc. | System for determining a pose of an object |
KR102668725B1 (ko) | 2017-10-27 | 2024-05-29 | 매직 립, 인코포레이티드 | 증강 현실 시스템들에 대한 가상 레티클 |
JP7118650B2 (ja) * | 2018-01-18 | 2022-08-16 | キヤノン株式会社 | 表示装置 |
JP6518028B1 (ja) * | 2018-08-01 | 2019-05-22 | 楽天株式会社 | 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 |
US11726320B2 (en) * | 2018-08-29 | 2023-08-15 | Sony Corporation | Information processing apparatus, information processing method, and program |
CN109582134B (zh) * | 2018-11-09 | 2021-07-23 | 北京小米移动软件有限公司 | 信息显示的方法、装置及显示设备 |
US10929982B2 (en) * | 2019-01-25 | 2021-02-23 | Google Llc | Face pose correction based on depth information |
EP3901919A4 (en) * | 2019-04-17 | 2022-06-08 | Rakuten Group, Inc. | DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, PROGRAM, AND COMPUTER READABLE NON-TRANSITORY INFORMATION RECORDING MEDIA |
GB201906420D0 (en) * | 2019-05-07 | 2019-06-19 | Farley Adam | Virtual augmented and mixed reality systems with physical feedback |
EP4170654A1 (en) | 2019-05-22 | 2023-04-26 | Google LLC | Methods, systems, and media for object grouping and manipulation in immersive environments |
US11470017B2 (en) * | 2019-07-30 | 2022-10-11 | At&T Intellectual Property I, L.P. | Immersive reality component management via a reduced competition core network component |
CN112416115B (zh) * | 2019-08-23 | 2023-12-15 | 亮风台(上海)信息科技有限公司 | 一种用于控件交互界面中进行人机交互的方法与设备 |
US11576570B2 (en) * | 2019-08-30 | 2023-02-14 | Qualcomm Incorporated | Determining eye strain indicator based on multiple devices |
CN110717968B (zh) * | 2019-10-11 | 2023-04-07 | 长春理工大学 | 三维场景的计算资源请求驱动自适应云渲染方法 |
US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
WO2021178247A1 (en) * | 2020-03-02 | 2021-09-10 | Qsinx Management Llc | Systems and methods for processing scanned objects |
US11442268B2 (en) * | 2020-09-29 | 2022-09-13 | Snap Inc. | Augmented reality gaming using virtual eyewear beams |
CN116324573A (zh) | 2020-10-02 | 2023-06-23 | 伊奎蒂公司 | 十字线对准 |
FR3122327A1 (fr) * | 2021-04-29 | 2022-11-04 | Clubdes3 | Zones de vision croisées |
US11899204B2 (en) * | 2021-06-09 | 2024-02-13 | Snap Inc. | Soft follow and pitch angle effects for VR/AR interface |
US11691072B2 (en) * | 2021-08-24 | 2023-07-04 | Sony Interactive Entertainment LLC | Aiming display automation for head mounted display applications |
CN114661152B (zh) * | 2022-03-16 | 2022-12-20 | 北京伊园未来科技有限公司 | 一种降低视觉疲劳的ar显示控制系统及方法 |
US20230343028A1 (en) * | 2022-04-20 | 2023-10-26 | Apple Inc. | Method and Device for Improving Comfortability of Virtual Content |
CN114911384B (zh) * | 2022-05-07 | 2023-05-12 | 青岛海信智慧生活科技股份有限公司 | 镜子显示器及其远程控制方法 |
WO2024167532A1 (en) * | 2023-02-10 | 2024-08-15 | Google Llc | Calibrating gaze tracking based on head movement |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001337645A (ja) | 2000-05-26 | 2001-12-07 | Fujitsu Ltd | 表示システム及び記憶媒体 |
JP2021501397A (ja) | 2017-10-27 | 2021-01-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 拡張現実システムのための仮想レチクル |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
JPH08202281A (ja) * | 1995-01-30 | 1996-08-09 | Olympus Optical Co Ltd | 頭部装着型映像表示装置システム |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
CA2290765C (en) * | 1998-02-02 | 2000-07-25 | Steve Mann | Covert camera viewfinder or display having appearance of ordinary eyeglasses |
EP1116211A4 (en) | 1998-09-22 | 2001-11-21 | Vega Vista Inc | INTUITIVE CONTROL OF A PORTABLE DATA PRESENTATION SCREEN |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
US9348143B2 (en) | 2010-12-24 | 2016-05-24 | Magic Leap, Inc. | Ergonomic head mounted display device and optical system |
EP3462286A1 (en) | 2011-05-06 | 2019-04-03 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
EP2760363A4 (en) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION |
KR101964223B1 (ko) | 2011-10-28 | 2019-04-01 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US8970452B2 (en) * | 2011-11-02 | 2015-03-03 | Google Inc. | Imaging method |
EP2841991B1 (en) | 2012-04-05 | 2020-01-08 | Magic Leap, Inc. | Wide-field of view (fov) imaging devices with active foveation capability |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
KR20150054967A (ko) | 2012-09-11 | 2015-05-20 | 매직 립, 인코포레이티드 | 인체공학적 헤드 마운티드 디스플레이 디바이스 및 광학 시스템 |
US9134793B2 (en) * | 2013-01-04 | 2015-09-15 | Kopin Corporation | Headset computer with head tracking input used for inertial control |
KR102141992B1 (ko) | 2013-01-15 | 2020-08-06 | 매직 립, 인코포레이티드 | 초고해상도 스캐닝 섬유 디스플레이 |
FR3003049B1 (fr) | 2013-03-08 | 2015-04-10 | Thales Sa | Systeme de visualisation de casque comportant des moyens visuels d'interaction avec la symbologie affichee |
KR20230044041A (ko) | 2013-03-11 | 2023-03-31 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
CA3160567A1 (en) | 2013-03-15 | 2014-09-18 | Magic Leap, Inc. | Display system and method |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
KR20230098359A (ko) | 2013-10-16 | 2023-07-03 | 매직 립, 인코포레이티드 | 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
EP4220999A3 (en) | 2013-11-27 | 2023-08-09 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9229235B2 (en) * | 2013-12-01 | 2016-01-05 | Apx Labs, Inc. | Systems and methods for unlocking a wearable device |
US20150220142A1 (en) | 2014-01-31 | 2015-08-06 | Kopin Corporation | Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Displays (HMD) |
EP3100098B8 (en) | 2014-01-31 | 2022-10-05 | Magic Leap, Inc. | Multi-focal display system and method |
NZ722904A (en) | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
CN107087431B (zh) | 2014-05-09 | 2021-02-05 | 谷歌有限责任公司 | 用于辨别眼睛信号和连续生物识别的系统和方法 |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
CA3124368C (en) | 2014-05-30 | 2023-04-25 | Magic Leap, Inc. | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
US9965030B2 (en) * | 2014-07-31 | 2018-05-08 | Samsung Electronics Co., Ltd. | Wearable glasses and method of displaying image via the wearable glasses |
US9767373B2 (en) * | 2014-09-05 | 2017-09-19 | Ford Global Technologies, Llc | Head-mounted display head pose and activity estimation |
US10013808B2 (en) * | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
EP4198911A1 (en) | 2015-08-18 | 2023-06-21 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
CN108292040B (zh) | 2015-09-30 | 2020-11-06 | 索尼互动娱乐股份有限公司 | 优化头戴式显示器屏幕上的内容定位的方法 |
JP2017097306A (ja) | 2015-11-27 | 2017-06-01 | 株式会社リコー | ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイシステムにおける表示制御方法 |
JP6130478B1 (ja) | 2015-12-15 | 2017-05-17 | 株式会社コロプラ | プログラム及びコンピュータ |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
US10127727B1 (en) * | 2017-01-10 | 2018-11-13 | Meta Company | Systems and methods to provide an interactive environment over an expanded field-of-view |
-
2018
- 2018-10-25 KR KR1020207013981A patent/KR102668725B1/ko active IP Right Grant
- 2018-10-25 IL IL310847A patent/IL310847A/en unknown
- 2018-10-25 CN CN201880081582.7A patent/CN111480181A/zh active Pending
- 2018-10-25 US US16/170,407 patent/US10839576B2/en active Active
- 2018-10-25 AU AU2018355441A patent/AU2018355441B2/en active Active
- 2018-10-25 JP JP2020520778A patent/JP7116166B2/ja active Active
- 2018-10-25 EP EP18870487.8A patent/EP3701497A4/en active Pending
- 2018-10-25 KR KR1020247016469A patent/KR20240090488A/ko active Application Filing
- 2018-10-25 IL IL274038A patent/IL274038B2/en unknown
- 2018-10-25 WO PCT/US2018/057593 patent/WO2019084325A1/en unknown
- 2018-10-25 CA CA3078895A patent/CA3078895A1/en active Pending
-
2020
- 2020-10-05 US US17/063,077 patent/US11367230B2/en active Active
-
2022
- 2022-04-25 JP JP2022071526A patent/JP7480218B2/ja active Active
- 2022-06-02 US US17/831,217 patent/US12100080B2/en active Active
-
2024
- 2024-04-24 JP JP2024070428A patent/JP2024097815A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001337645A (ja) | 2000-05-26 | 2001-12-07 | Fujitsu Ltd | 表示システム及び記憶媒体 |
JP2021501397A (ja) | 2017-10-27 | 2021-01-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 拡張現実システムのための仮想レチクル |
Also Published As
Publication number | Publication date |
---|---|
JP2022101656A (ja) | 2022-07-06 |
US11367230B2 (en) | 2022-06-21 |
WO2019084325A1 (en) | 2019-05-02 |
US12100080B2 (en) | 2024-09-24 |
JP7116166B2 (ja) | 2022-08-09 |
IL274038B2 (en) | 2024-07-01 |
JP2021501397A (ja) | 2021-01-14 |
US20190130622A1 (en) | 2019-05-02 |
CA3078895A1 (en) | 2019-05-02 |
EP3701497A4 (en) | 2021-07-28 |
US20220309722A1 (en) | 2022-09-29 |
AU2018355441A1 (en) | 2020-05-14 |
CN111480181A (zh) | 2020-07-31 |
IL310847A (en) | 2024-04-01 |
JP2024097815A (ja) | 2024-07-19 |
IL274038B1 (en) | 2024-03-01 |
US10839576B2 (en) | 2020-11-17 |
AU2018355441B2 (en) | 2023-11-09 |
US20210090311A1 (en) | 2021-03-25 |
KR102668725B1 (ko) | 2024-05-29 |
IL274038A (en) | 2020-06-30 |
KR20240090488A (ko) | 2024-06-21 |
KR20200079263A (ko) | 2020-07-02 |
EP3701497A1 (en) | 2020-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7480218B2 (ja) | 拡張現実システムのための仮想レチクル | |
JP7549681B2 (ja) | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 | |
JP7543466B2 (ja) | 眼追跡較正技術 | |
JP7540112B2 (ja) | 視野周辺の視覚的背光 | |
JP2024159778A (ja) | 視野周辺の視覚的背光 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7480218 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |