JP2020511709A - 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース - Google Patents
向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース Download PDFInfo
- Publication number
- JP2020511709A JP2020511709A JP2019543275A JP2019543275A JP2020511709A JP 2020511709 A JP2020511709 A JP 2020511709A JP 2019543275 A JP2019543275 A JP 2019543275A JP 2019543275 A JP2019543275 A JP 2019543275A JP 2020511709 A JP2020511709 A JP 2020511709A
- Authority
- JP
- Japan
- Prior art keywords
- user
- user interface
- image element
- global
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 23
- 210000003128 head Anatomy 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 10
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 claims 4
- 210000005252 bulbus oculi Anatomy 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 6
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/533—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本出願は、2017年2月10日に出願された、PAIRED LOCAL AND GLOBAL USER INTERFACES FOR AN IMPROVED AUGMENTED REALITY EXPERIENCEと題する、米国特許出願第15/429,781号の優先権を主張する。この文献は、これにより、すべての目的に関し、本明細書に全体が説明されているかのように、参照することによって組み込まれる。
Claims (20)
- 外部環境内の移動が自由であるユーザの拡張現実の体験の向上方法であって、
ローカルユーザインターフェースを形成し、前記ローカルユーザインターフェースを前記ユーザに対し、第1の視認可能な領域内に表示することと、
グローバルユーザインターフェースを形成し、前記グローバルユーザインターフェースを前記ユーザに対し、前記第1の視認可能な領域よりも前記ユーザから離れている、第2の視認可能な領域内に表示することと、を含み、
前記ローカルユーザインターフェースが、第1の空間的位置に維持されており、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止しており、
前記グローバルユーザインターフェースが、第2の空間的位置に維持されており、前記第2の空間的位置が、前記外部環境に対して静止している、前記向上方法。 - 前記ローカルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記外部環境内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記グローバルユーザインターフェース内に表示される、請求項1に記載の方法。
- 前記グローバルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記第1の視認可能な領域内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記ローカルユーザインターフェース内に表示される、請求項1に記載の方法。
- 前記第1の画像要素及び前記第2の画像要素の少なくとも一方が、3次元的である、請求項2に記載の方法。
- 前記第2の画像要素が3次元的であり、それにより、前記ユーザが位置及び方向を変更した場合、それに応じて、前記第2の画像要素の異なる特徴が、前記ユーザによって認識される、請求項2に記載の方法。
- 前記第2の画像要素が3次元的であり、それにより、前記第2の画像要素が、前記グローバルユーザインターフェースと相互作用する前記ユーザによる制御、または、前記拡張現実の体験を実行するソフトウェアによる制御に応じて、位置及び方向を変更した場合、それに応じて、前記第2の画像要素の異なる特徴が、前記ユーザによって認識される、請求項2に記載の方法。
- 前記第2の画像要素が、前記ユーザにより、不透明であるものと認識される、請求項2に記載の方法。
- 前記第2のバーチャル画像要素が、前記ユーザによる意図的なジェスチャに応じて前記外部環境内で移動し、前記グローバルユーザインターフェースと相互作用する、請求項2に記載の方法。
- 前記ローカルユーザインターフェースを前記表示すること、及び、前記グローバルユーザインターフェースを前記表示することが、前記ユーザによって着用された、光学的ヘッドマウントディスプレイデバイスを使用して実施される、請求項1に記載の方法。
- 前記光学的ヘッドマウントディスプレイデバイスが、
OLEDディスプレイと、
頭部の位置センサと、
頭部の方向センサと、
前記ユーザから外に向けられた第1のカメラ及び第2のカメラと、を備え、
前記第1のカメラ及び前記第2のカメラが、電磁スペクトルの可視領域で画像を取得する、請求項9に記載の方法。 - 前記外部環境における、前記ユーザによって視認される現実の対象の、前記ユーザからの距離が、前記第1のカメラ及び前記第2のカメラによって取得された画像の画像処理によって判定される、請求項10に記載の方法。
- 前記光学的ヘッドマウントディスプレイが、前記ユーザに向けられた第3のカメラをさらに備え、前記第3のカメラが、前記電磁スペクトルの前記可視領域において、前記ユーザの眼球の画像を取得する、請求項10に記載の方法。
- 外部環境内の移動が自由であるユーザの拡張現実の体験を向上させるためのシステムであって、
ディスプレイデバイスと、
前記ディスプレイデバイスに結合され、
ローカルユーザインターフェースを形成することと、
前記ローカルユーザインターフェースを前記ユーザに、第1の視認可能な領域内に提供するように前記ディスプレイを制御することと、
グローバルユーザインターフェースを形成することと、
前記グローバルユーザインターフェースを前記ユーザに対し、前記第1の視認可能な領域よりも前記ユーザから離れている、第2の視認可能な領域内に提供するように、前記ディスプレイを制御することと、
前記ユーザの動きに応じて、前記ディスプレイデバイスを、
前記ローカルユーザインターフェースを第1の空間的位置に維持することであって、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止している、前記維持すること、及び、
前記グローバルユーザインターフェースを、第2の空間的位置に維持することであって、前記第2の空間的位置が、前記外部環境に対して静止している、前記維持すること
を行うようにさらに制御することと、
を行うように構成された、少なくとも1つのプロセッサと、を備えた、前記システム。 - 前記ローカルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記外部環境内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記グローバルユーザインターフェース内に表示される、請求項13に記載のシステム。
- 前記グローバルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記第1の視認可能な領域内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記ローカルユーザインターフェース内に表示される、請求項13に記載のシステム。
- 前記ローカルユーザインターフェースを前記表示すること、及び、前記グローバルユーザインターフェースを前記表示することが、前記ユーザによって着用された、光学的ヘッドマウントディスプレイデバイスを使用して実施され、前記光学的ヘッドマウントディスプレイデバイスが、
OLEDディスプレイと、
頭部の位置センサと、
頭部の方向センサと、
前記ユーザから外に向けられた第1のカメラ及び第2のカメラと、を備え、
前記第1のカメラ及び前記第2のカメラが、電磁スペクトルの可視領域で画像を取得する、請求項11に記載のシステム。 - 外部環境内の移動が自由であるユーザの拡張現実の体験を向上させるための、1つまたは複数のプロセッサによって実行可能である1つまたは複数の命令を含む非一時的なコンピュータ可読貯蔵デバイスであって、前記1つまたは複数の命令が、実行される場合、
ローカルユーザインターフェースを形成し、前記ローカルユーザインターフェースを前記ユーザに対し、第1の視認可能な領域内に表示することと、
グローバルユーザインターフェースを形成し、前記グローバルユーザインターフェースを前記ユーザに対し、前記第1の視認可能な領域よりも前記ユーザから離れている、第2の視認可能な領域内に表示することと、
を実施するように操作可能であり、
前記ローカルユーザインターフェースが、第1の空間的位置に維持されており、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止しており、
前記グローバルユーザインターフェースが、第2の空間的位置に維持されており、前記第2の空間的位置が、前記外部環境に対して静止している、前記非一時的なコンピュータ可読貯蔵デバイス。 - 前記ローカルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記外部環境内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記グローバルユーザインターフェース内に表示され、
前記グローバルユーザインターフェースが、第1のバーチャル画像要素を備え、前記ユーザが、前記第1のバーチャル画像要素を選択すること、及び、ジェスチャにより、前記第1の視認可能な領域内の所望の位置を示すことに応じて、対応する第2のバーチャル画像要素が、形成されるとともに、前記ユーザによって視認されるように、前記所望の位置において、前記ローカルユーザインターフェース内に表示される、請求項17に記載の非一時的なコンピュータ可読貯蔵デバイス。 - 前記ローカルユーザインターフェースを前記表示すること、及び、前記グローバルユーザインターフェースを前記表示することが、前記ユーザによって着用された、光学的ヘッドマウントディスプレイデバイスを使用して実施され、前記光学的ヘッドマウントディスプレイデバイスが、
OLEDディスプレイと、
頭部の位置センサと、
頭部の方向センサと、
前記ユーザから外に向けられた第1のカメラ及び第2のカメラと、を備え、
前記第1のカメラ及び前記第2のカメラが、電磁スペクトルの可視領域で画像を取得する、請求項17に記載の非一時的なコンピュータ可読貯蔵デバイス。 - ローカルユーザインターフェース及びグローバルユーザインターフェースを形成するための手段と、
前記ローカルユーザインターフェースを、第1の視認可能な領域内において、外部環境内の移動の自由を有するユーザに対して表示するための手段と、
前記グローバルユーザインターフェースを前記ユーザに対し、前記第1の視認可能な領域よりも前記ユーザから離れている、第2の視認可能な領域内に表示するための手段と、を備え、
前記ローカルユーザインターフェースが、第1の空間的位置に維持されており、前記第1の空間的位置が、前記ユーザの身体の一部に対して静止しており、
前記グローバルユーザインターフェースが、第2の空間的位置に維持されており、前記第2の空間的位置が、前記外部環境に対して静止している、装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/429,781 US10438399B2 (en) | 2017-02-10 | 2017-02-10 | Paired local and global user interfaces for an improved augmented reality experience |
US15/429,781 | 2017-02-10 | ||
PCT/US2018/016201 WO2018148077A1 (en) | 2017-02-10 | 2018-01-31 | Paired local and global user interfaces for an improved augmented reality experience |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020511709A true JP2020511709A (ja) | 2020-04-16 |
JP6931068B2 JP6931068B2 (ja) | 2021-09-01 |
Family
ID=63105324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019543275A Active JP6931068B2 (ja) | 2017-02-10 | 2018-01-31 | 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース |
Country Status (5)
Country | Link |
---|---|
US (1) | US10438399B2 (ja) |
EP (1) | EP3580747A4 (ja) |
JP (1) | JP6931068B2 (ja) |
CN (1) | CN110291577B (ja) |
WO (1) | WO2018148077A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6736944B2 (ja) * | 2016-03-29 | 2020-08-05 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN110347471B (zh) * | 2019-07-15 | 2020-10-23 | 珠海格力电器股份有限公司 | 层级式显示组件系统、显示组件调用方法和装置 |
JP6710845B1 (ja) | 2019-10-07 | 2020-06-17 | 株式会社mediVR | リハビリテーション支援装置、その方法およびプログラム |
CN110882537B (zh) * | 2019-11-12 | 2023-07-25 | 北京字节跳动网络技术有限公司 | 一种交互方法、装置、介质和电子设备 |
WO2023173285A1 (zh) * | 2022-03-15 | 2023-09-21 | 深圳市大疆创新科技有限公司 | 音频处理方法、装置、电子设备及计算机可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101307609B1 (ko) * | 2012-03-13 | 2013-09-12 | 동신대학교산학협력단 | 실감형 콘텐츠 기반 스킨스쿠버 교육장치 |
US20130307875A1 (en) * | 2012-02-08 | 2013-11-21 | Glen J. Anderson | Augmented reality creation using a real scene |
US20150317831A1 (en) * | 2014-05-01 | 2015-11-05 | Michael John Ebstyne | Transitions between body-locked and world-locked augmented reality |
WO2015192117A1 (en) * | 2014-06-14 | 2015-12-17 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
JP2015231445A (ja) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
WO2016203792A1 (ja) * | 2015-06-15 | 2016-12-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017004457A (ja) * | 2015-06-16 | 2017-01-05 | 株式会社ファイン | 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2377147A (en) * | 2001-06-27 | 2002-12-31 | Nokia Corp | A virtual reality user interface |
WO2006035816A1 (ja) * | 2004-09-30 | 2006-04-06 | Pioneer Corporation | 立体的二次元画像表示装置 |
US8726154B2 (en) * | 2006-11-27 | 2014-05-13 | Sony Corporation | Methods and apparatus for controlling transition behavior of graphical user interface elements based on a dynamic recording |
US20100207950A1 (en) * | 2009-02-17 | 2010-08-19 | Microsoft Corporation | Defining simple and complex animations |
US8990682B1 (en) * | 2011-10-05 | 2015-03-24 | Google Inc. | Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display |
US8954890B2 (en) * | 2012-04-12 | 2015-02-10 | Supercell Oy | System, method and graphical user interface for controlling a game |
US9389420B2 (en) * | 2012-06-14 | 2016-07-12 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
US8922557B2 (en) * | 2012-06-29 | 2014-12-30 | Embarcadero Technologies, Inc. | Creating a three dimensional user interface |
US9591295B2 (en) * | 2013-09-24 | 2017-03-07 | Amazon Technologies, Inc. | Approaches for simulating three-dimensional views |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9430038B2 (en) * | 2014-05-01 | 2016-08-30 | Microsoft Technology Licensing, Llc | World-locked display quality feedback |
US9508195B2 (en) | 2014-09-03 | 2016-11-29 | Microsoft Technology Licensing, Llc | Management of content in a 3D holographic environment |
US20160109952A1 (en) * | 2014-10-17 | 2016-04-21 | Top Victory Investments Ltd. | Method of Controlling Operating Interface of Display Device by User's Motion |
US10740971B2 (en) | 2015-01-20 | 2020-08-11 | Microsoft Technology Licensing, Llc | Augmented reality field of view object follower |
-
2017
- 2017-02-10 US US15/429,781 patent/US10438399B2/en active Active
-
2018
- 2018-01-31 WO PCT/US2018/016201 patent/WO2018148077A1/en unknown
- 2018-01-31 EP EP18750684.5A patent/EP3580747A4/en active Pending
- 2018-01-31 JP JP2019543275A patent/JP6931068B2/ja active Active
- 2018-01-31 CN CN201880011209.4A patent/CN110291577B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130307875A1 (en) * | 2012-02-08 | 2013-11-21 | Glen J. Anderson | Augmented reality creation using a real scene |
KR101307609B1 (ko) * | 2012-03-13 | 2013-09-12 | 동신대학교산학협력단 | 실감형 콘텐츠 기반 스킨스쿠버 교육장치 |
US20150317831A1 (en) * | 2014-05-01 | 2015-11-05 | Michael John Ebstyne | Transitions between body-locked and world-locked augmented reality |
JP2015231445A (ja) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
WO2015192117A1 (en) * | 2014-06-14 | 2015-12-17 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
WO2016203792A1 (ja) * | 2015-06-15 | 2016-12-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017004457A (ja) * | 2015-06-16 | 2017-01-05 | 株式会社ファイン | 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3580747A4 (en) | 2021-01-06 |
JP6931068B2 (ja) | 2021-09-01 |
WO2018148077A1 (en) | 2018-08-16 |
US20180232941A1 (en) | 2018-08-16 |
CN110291577B (zh) | 2023-03-28 |
CN110291577A (zh) | 2019-09-27 |
EP3580747A1 (en) | 2019-12-18 |
US10438399B2 (en) | 2019-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11900527B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
US11043031B2 (en) | Content display property management | |
US20220083197A1 (en) | Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences | |
CN107209386B (zh) | 增强现实视野对象跟随器 | |
US9864495B2 (en) | Indirect 3D scene positioning control | |
CN111344749B (zh) | 引向用户关注 | |
JP6027747B2 (ja) | 空間相関したマルチディスプレイヒューマンマシンインターフェース | |
JP6931068B2 (ja) | 向上した拡張現実の体験のための、対になっているローカルユーザインターフェースとグローバルユーザインターフェース | |
CN114766038A (zh) | 共享空间中的个体视图 | |
JP2019510321A (ja) | 仮想現実用パススルーカメラのユーザインターフェイス要素 | |
CN118215903A (zh) | 用于在虚拟环境中呈现虚拟对象的设备、方法和图形用户界面 | |
US11934569B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
JP6220937B1 (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
JP2018194889A (ja) | 情報処理方法、コンピュータ及びプログラム | |
JP2023116432A (ja) | アニメーション制作システム | |
TW201616281A (zh) | 虛擬實境系統及其虛擬實境中的物件之互動方法 | |
WO2024064932A1 (en) | Methods for controlling and interacting with a three-dimensional environment | |
JP2019207714A (ja) | 情報処理方法、コンピュータ及びプログラム | |
JP2018029969A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
WO2024226681A1 (en) | Methods for displaying and rearranging objects in an environment | |
WO2024064036A1 (en) | User interfaces for managing sharing of content in three-dimensional environments | |
CN118672393A (zh) | 用于与三维环境进行交互的设备、方法和图形用户界面 | |
JPWO2021059370A1 (ja) | アニメーション制作システム | |
JP2017006355A (ja) | ヘッドマウントディスプレイを制御するプログラム。 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201007 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210714 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210812 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6931068 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |