[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

ES2656868T3 - Dispositivo portátil, sistema y método de realidad virtual - Google Patents

Dispositivo portátil, sistema y método de realidad virtual Download PDF

Info

Publication number
ES2656868T3
ES2656868T3 ES11183970.0T ES11183970T ES2656868T3 ES 2656868 T3 ES2656868 T3 ES 2656868T3 ES 11183970 T ES11183970 T ES 11183970T ES 2656868 T3 ES2656868 T3 ES 2656868T3
Authority
ES
Spain
Prior art keywords
world
user
real
virtual
portable device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11183970.0T
Other languages
English (en)
Inventor
Christopher Mutschler
Stephan Otto
Nicolas Witt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2656868T3 publication Critical patent/ES2656868T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/205Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform for detecting the geographical location of the game platform
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6615Methods for processing data by generating or executing the game program for rendering three dimensional images using models with different levels of detail [LOD]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Environmental & Geological Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un dispositivo portátil (100) que comprende: un sensor de dirección de visualización (101) configurado para determinar la dirección de visualización (111) de un usuario del dispositivo portátil (100) en el mundo real; un determinador de posición (103) configurado para determinar una posición (113) del usuario en el mundo real; una unidad de procesamiento (105) configurada para generar - basándose en la dirección de visualización (111) del usuario y la posición (113) del usuario en el mundo real - un mundo virtual en el que un cambio de la dirección de visualización (111) en un sistema de coordenadas en 3D del mundo real ocasione un cambio de la dirección de visualización en un sistema de coordenadas en 3D del mundo virtual; y un monitor (107) configurado para mostrar el mundo virtual generado al usuario bloqueando al mismo tiempo una visión del mundo real; y un sensor de condiciones ambientales (121) configurado para determinar una condición ambiental (123) en el mundo real; en el que la unidad de procesamiento (105) también se configura para generar el mundo virtual basándose en la condición ambiental (123) determinada para que un cambio de la condición ambiental (123) en el mundo real ocasione un cambio en el mundo virtual generado, caracterizado porque la condición ambiental (123) comprende temperatura, humedad del aire o luz en el mundo real.

Description

5
10
15
20
25
30
35
40
45
50
55
60
Dispositivo portátil, sistema y método de realidad virtual DESCRIPCIÓN
Campo técnico
Las realizaciones de la presente invención se refieren a un dispositivo portátil. Otras realizaciones de la presente invención se refieren a un sistema de realidad virtual.
Antecedentes de la invención
Hasta ahora, no es posible poner en marcha juegos en primera persona en los que un usuario pueda actuar y moverse en un entorno virtual como si estuviera en la realidad debido a dos problemas principales. Primero, no fue posible determinar la dirección de visualización de un objeto con suficiente exactitud. Segundo, la localización de objetos no puede realizarse precisamente en un modo de un par de centímetros con sistemas conocidos. Asimismo, los tiempos de procesamiento tienen que estar a un mínimo para transmitir una interacción real con el sistema. Tercero, los enfoques actuales aplican configuraciones de hardware más o menos restringidas como, por ejemplo, la denominada plataforma Cyber Walk en 2D a partir de cintas para correr o simuladores conocidos de los sectores aeronáutico o automotriz.
Esta plataforma Cyber Walk es muy inflexible porque hay que instalar puntos de apoyo para el suelo y dispositivos electrónicos enormes a la cabeza. Además, la interacción con otros usuarios requeriría dicha configuración para cualquier persona que esté interviniendo.
El documento GB 2 376 397 A describe un monitor en forma de visor portátil que muestra un área operativa de realidad virtual o aumentada, por ejemplo, para su uso en juegos. Dos cámaras situadas en el monitor comprenden un sistema de detección de profundidad de visión estéreo para reconocer y determinar la distancia a obstáculos en el campo de visión del usuario. Los obstáculos reales en el monitor pueden “ocultarse” formando objetos virtuales a su alrededor. Por lo tanto, el usuario puede moverse por el entorno físico, utilizando solamente la realidad mostrada como guía sin miedo de chocarse con objetos reales.
El documento US 2006/017654 A1 describe un sistema de interactividad de realidad virtual que incluye una pluralidad de indicadores de posición que indica una pluralidad de posiciones en un sistema de coordenadas físicas cada uno de los cuales está asociado con uno de una pluralidad de objetos situados dentro del entorno físico mapeado por el sistema de coordenadas físicas. El sistema también incluye un sistema de comunicación de posiciones que comunica la pluralidad de posiciones de la pluralidad de indicadores de posición. El sistema también incluye un módulo de usuario de realidad virtual asociado con un usuario situado dentro del entorno físico. El módulo de usuario de realidad virtual determina una posición de un objeto dentro del sistema de coordenadas físicas como una función de la pluralidad de señales de posición. El módulo de usuario determina una posición de un objeto asociado dentro del sistema de coordenadas de realidad virtual y genera a señal de imagen de realidad virtual que incluye la posición determinada del objeto asociado dentro del sistema de coordenadas de realidad virtual. El módulo de usuario también incluye una interfaz de usuario de realidad virtual que muestra una imagen de realidad virtual al usuario como una función de la señal de imagen de realidad virtual.
Sumario de la invención
Un objeto de la presente invención es crear un concepto que sea capaz de transmitir la impresión a un usuario de que se encuentra en un entorno o mundo completamente virtual.
Este objeto se soluciona mediante un dispositivo portátil de acuerdo con la reivindicación 1 y un método de acuerdo con la reivindicación 14.
Las realizaciones de la presente invención crean un dispositivo portátil que comprende un sensor de dirección de visualización configurado para determinar la dirección de visualización de un usuario del dispositivo portátil en el mundo real. Además, el dispositivo portátil comprende un determinador de posición configurado para determinar una posición del usuario en el mundo real. Además, el dispositivo portátil comprende una unidad de procesamiento configurada para generar (basándose en la dirección de visualización del usuario y la position del usuario en el mundo real) un mundo virtual en el que un cambio de la dirección de visualización en un sistema de coordenadas en 3D del mundo real ocasione un cambio de la dirección de visualización en un sistema de coordenadas en 3D del mundo virtual. Además, el dispositivo portátil comprende un monitor configurado para mostrar el mundo virtual generado al usuario bloqueando al mismo tiempo una visión del mundo real.
Una idea de las realizaciones de la presente invención es que el dispositivo portátil puede transmitir la impresión al
5
10
15
20
25
30
35
40
45
50
55
60
usuario de que se encuentra en un mundo completamente virtual cuando se combina diferente información de los sensores (como una posición y una dirección de visualización del usuario en el mundo real) para crear un mundo virtual y, además, cuando el mundo virtual se muestra al usuario mientras se bloquea una visión del mundo real. Por tanto, el dispositivo portátil puede detectar un movimiento del usuario en el mundo real y puede ser portado (o transferido) a un movimiento del usuario en el mundo virtual. Mediante el bloqueo de la visión del mundo real del usuario el dispositivo portátil puede transmitir la impresión de que el usuario se encuentra en un mundo completamente virtual.
Por consiguiente, el dispositivo portátil permite simular una realidad virtual o un mundo virtual independiente de la temperatura, el tiempo y la hora, en el que el usuario pueda moverse libremente y con el que el usuario pueda interactuar. Además, el dispositivo portátil permite una integración de más de un usuario en un caso de un sistema de realidad virtual que comprenda una pluralidad de dichos dispositivos portátiles. Como ejemplo, cada usuario puede llevar su propio dispositivo portátil, que puede comunicarse directamente con los otros dispositivos portátiles o por medio de una unidad de comunicación externa.
De acuerdo con algunas realizaciones, el dispositivo portátil puede ser un dispositivo de mano que el usuario puede llevar a todos lados en la mano. El monitor del dispositivo portátil puede estar junto en un alojamiento con la unidad de procesamiento, el determinador de posición y el sensor de dirección de visualización, por ejemplo, de manera que el usuario solo lleve un dispositivo en la mano, que también comprenda el monitor. Además, el monitor puede estar en un alojamiento diferente al sensor de dirección de visualización, el determinador de posición y la unidad de procesamiento. Por ejemplo, la unidad de procesamiento puede conectarse al monitor por medio de una interfaz de comunicación móvil o una interfaz de comunicación por cable. Como ejemplo, el dispositivo portátil puede comprender gafas, comprendiendo el monitor.
De acuerdo con otras realizaciones, el dispositivo portátil completo puede estar integrado en gafas, por ejemplo de manera que el usuario no tenga que llevar el dispositivo portátil en la mano, sino que lo pueda llevar en la cabeza.
Como se ha mencionado antes, el monitor está configurado para mostrar el mundo virtual generado al usuario bloqueando una visión del mundo real. De acuerdo con algunas realizaciones, el monitor puede bloquear la visión del mundo real a través del monitor, lo que significa que el monitor solo muestra el mundo virtual y no el mundo real. Esto es significativamente diferente a los sistemas de realidad aumentada, en los que elementos virtuales se colocan virtualmente en la visión del mundo real.
Dicho de otro modo, el usuario solo puede ver el mundo real cuando no está mirando al monitor.
De acuerdo con otras realizaciones, por ejemplo en realizaciones en las que el monitor está comprendido en gafas, el monitor y las gafas pueden elaborarse de manera que una visión del mundo real de un usuario que lleve las gafas se bloquee aun cuando el usuario no esté mirando directamente at el monitor.
Una ventaja de la presente invención es que las realizaciones proporcionan un sistema o un dispositivo portátil que proporciona todo un entorno creado virtualmente basado en datos de sensores reales y exactos (por ejemplo, desde el sensor de dirección de visualización y el determinador de posición). Esto permite que el usuario actúe físicamente en el entorno real pero que vea e interactúe con el entorno virtual. El usuario puede actuar y moverse en este entorno virtual como si estuviera en la realidad. Por lo tanto, el usuario puede jugar a juegos (a los que haya jugado recientemente en su workstation en casa) por sí mismo, actuando y moviéndose él solo sin controlar un avatar en una pantalla.
Breve descripción de las figuras
Las realizaciones de la presente invención se describirán en detalle, en las que:
La Figura 1 muestra un diagrama de bloques de un dispositivo portátil de acuerdo con una realización de la presente invención;
la Figura 2 muestra una ilustración de un ejemplo para una aplicación del dispositivo portátil a partir de la Figura 1;
la Figura 3
muestra un diagrama de bloques de un sistema de realidad virtual de acuerdo con una realización de la presente invención;
la Figura 4 muestra un diagrama de bloques de un sistema de realidad virtual de acuerdo con otra realización de la presente invención; y
la Figura 5 muestra un diagrama de flujo de un método de acuerdo con una realización de la presente invención.
5
10
15
20
25
30
35
40
45
50
55
60
Descripción detallada de las realizaciones de la presente invención
Antes de que las realizaciones de la presente invención se describan en detalle usando las figuras adjuntas, cabe señalar que los mismos elementos o elementos que tengan la misma función están provistos de los mismos números de referencia y que se omite una descripción repetida de elementos provistos de los mismos números de referencia. Por tanto, las descripciones proporcionadas para elementos que tengan los mismos números de referencia son mutuamente intercambiables.
La Figura 1 muestra un diagrama de bloques de un dispositivo portátil 100 de acuerdo con una realización preferida de la presente invención. El dispositivo portátil 100 comprende un sensor de dirección de visualización 101, un determinador de posición 103, una unidad de procesamiento 105 y un monitor 107. El sensor de dirección de visualización 101 se configura para determinar una dirección de visualización 111 de un usuario del dispositivo portátil 100 en el mundo real.
El determinador de posición 103 se configura para determinar una posición 113 del usuario en el mundo real. La unidad de procesamiento 105 se configura para generar (basándose en la dirección de visualización 111 determinada del usuario y la posición 113 del usuario en el mundo real determinada) un mundo virtual en el que un cambio de la dirección de visualización 111 en un sistema de coordenadas en 3D del mundo real ocasione un cambio de la dirección de visualización en un sistema de coordenadas en 3D del mundo virtual.
Además, el monitor se configura para mostrar el mundo virtual generado al usuario bloqueando al mismo tiempo una visión del mundo real (por ejemplo, a través del monitor 107).
Como se describe en la parte introductoria de esta aplicación, el dispositivo portátil 100 es capaz de proporcionar todo un entorno o mundo creado virtualmente basado en datos de sensores reales y exactos (desde el sensor de dirección de visualización 101 y el determinador de posición 103), de manera que el usuario pueda actuar físicamente en el entorno o mundo real, pero vea o interactúe con el entorno o mundo virtual. El usuario puede actuar o moverse en este entorno o mundo virtual como si estuviera en la realidad. Por lo tanto, el usuario puede jugar a juegos (a los que haya jugado recientemente en su workstation en casa) por sí mismo, actuando y moviéndose él solo sin controlar un avatar en una pantalla.
Los inventores han descubierto que puede obtenerse una dirección de visualización con suficiente exactitud mediante sistemas microelectromecánicos (MEMS), en este caso, principalmente giroscopios. Dichos giroscopios pueden utilizarse para determinar el cambio angular de la orientación. La información de los sensores (desde los giroscopios) combinada con un magnetómetro muy lento (es muy lento debido a su naturaleza) y sensores de inercia, el sensor de dirección de visualización 101 permite obtener la dirección de visualización 111 de manera muy precisa, incluso con rápidos movimientos o cambios de dirección.
Dicho de otro modo, el sensor de dirección de visualización 101 puede comprender un tipo de sensor o una pluralidad de diferentes tipos de sensores, sobre la base de los cuales el sensor de dirección de visualización determina la dirección de visualización 111. Como ejemplo, el sensor de dirección de visualización 101 puede comprender un sensor giroscopio, un sensor acelerómetro y/o un sensor magnetómetro para obtener movimientos del usuario en el mundo real y puede configurarse para obtener la dirección de visualización 111 basándose en datos del sensor giroscopio, datos del sensor acelerómetro y/o datos del sensor magnetómetro. Esto permite una determinación muy precisa de la dirección de visualización 111 del usuario en el mundo real. Como se ha descrito anteriormente, la unidad de procesamiento 105 se configura para generar el mundo virtual de manera que un cambio de la dirección de visualización en el sistema de coordenadas en 3D del mundo real ocasione un cambio de la dirección de visualización en el sistema de coordenadas en 3D del mundo virtual. Por tanto, puede observarse que el sensor de dirección de visualización 111 determina la dirección de visualización del usuario de una forma tridimensional que después puede portar la unidad de procesamiento 105 al mundo virtual tridimensional. En otras palabras, el sensor de dirección de visualización 111 no solo es capaz de determinar un giro del usuario en una dirección horizontal, sino que también está configurado para determinar un cambio de la dirección de visualización 111 en una dirección vertical. En consecuencia, la unidad de procesamiento 105 se configura para portar el cambio de la dirección de visualización 111 en la dirección horizontal y en la dirección vertical al mundo virtual generado, por ejemplo, de manera que un cambio de la dirección de visualización 111 en la dirección horizontal en el mundo real ocasione un cambio (por ejemplo, un cambio alineado) de la dirección de visualización en una dirección horizontal en el mundo virtual y un cambio de la dirección de visualización 111 en una dirección vertical en el mundo real ocasione un cambio (por ejemplo, un cambio alineado) de la dirección de visualización en una dirección vertical en el mundo virtual. O dicho de otra forma, de acuerdo con algunas realizaciones, el cambio de la dirección de visualización del usuario en el mundo virtual puede estar alineado o al menos ser proporcional a la dirección de visualización 111 del usuario en el mundo real.
Por tanto, el usuario puede interactuar con el mundo virtual igual que en el mundo real cambiando su dirección de visualización de forma tridimensional dando lugar a un cambio de la dirección de visualización de forma tridimensional en el mundo virtual.
5
10
15
20
25
30
35
40
45
50
55
60
Además, la unidad de procesamiento 105 puede configurarse para generar el mundo virtual de manera que un cambio de la posición del usuario en el sistema de coordenadas en 3D del mundo real ocasione un cambio de la posición del usuario en el sistema de coordenadas en 3D del mundo virtual. Dicho de otro modo, tras un cambio de la posición 113 del usuario en el mundo real (por ejemplo, determinado por el determinador de posición 103) la unidad de procesamiento 105 puede simular un cambio de la posición del usuario en el mundo virtual.
De acuerdo con algunas realizaciones el cambio de la posición del usuario en el mundo virtual puede estar alineado o al menos ser proporcional a un cambio de la posición 113 del usuario en el mundo real.
Dicho de otro modo, la unidad de procesamiento 105 se configura para combinar los datos del sensor procedentes del sensor de dirección de visualización 101 con datos de posición procedentes del determinador de posición 103 para obtener la posición 113 del dispositivo portátil 100 (que puede ser un dispositivo de mano) y, por tanto, del usuario, y la dirección de visualización 111 en ese punto precisamente.
De acuerdo con algunas realizaciones de la presente invención el determinador de posición 103 puede ser un sensor con sistema de localización en tiempo real (RTLS) que permita una detección de la posición 113 del usuario con una alta precisión, especialmente al compararse con sistemas GPS. Además, el uso de dichos sistemas RTLS permite un uso del dispositivo portátil 100 en áreas sin cobertura GPS (por ejemplo, en hogares u otras áreas sin contacto con satélites GPS).
De acuerdo con algunas realizaciones, un error de medición para los sistemas de localización (por ejemplo, para la posición determinada 113) es tolerable por unos pocos centímetros.
De acuerdo con algunas realizaciones, por ejemplo, como las descritas junto con un sistema de realidad virtual de acuerdo con la Figura 4, puede inspeccionarse un área de movimiento (que es el área en que dicho sistema de realidad virtual es capaz de efectuar una localización con transmisores) para que la posición 113 real del dispositivo portátil 100 pueda cubrirse en el entorno virtual o mundo virtual. Llevando el dispositivo portátil 100 (o solo los sensores de movimiento, tales como el sensor de dirección de visualización 101 y el determinador de posición 103) directamente sobre la cabeza, la persona puede girar la mano y mirar alrededor en la realidad virtual o el mundo virtual como si estuviera en el mundo real. Como se ha descrito anteriormente, el determinador de posición 103 puede estar basado en un sistema de localización en tiempo real. Como ejemplo, el determinador de posición 103 puede configurarse para la comunicación con una unidad de comunicación externa (por ejemplo, terrestre) que inspeccione el área de movimiento para el dispositivo portátil 100 y transmita la posición 113 del dispositivo portátil 100 al determinador de posición 103. Para determinar la posición 113 del dispositivo portátil 100 el dispositivo portátil 100 puede comprender una etiqueta electrónica 115 (localizable) (o transpondedor), cuya posición 113 puede determinarse gracias a la unidad de comunicación externa. Mediante la etiqueta electrónica 115 localizable (idealmente también montada sobre la cabeza) la persona o el usuario puede moverse y el dispositivo portátil 100 puede reproducir la imagen desde la posición derecha en el mundo o entorno virtual en el monitor 107.
En resumen, el dispositivo portátil 100 puede comprender la etiqueta electrónica 115 que es localizada por la unidad de comunicación externa y el determinador de posición 103 se configura para determinar la posición 113 del usuario en el mundo real basándose en una señal de comunicación recibida desde la unidad de comunicación externa. Como ejemplo, la unidad de comunicación externa puede efectuar una diferencia de tiempo de llegada (TDoA), un tiempo de llegada (ToA), una dirección de llegada (DoA) o una RSS medida (RSS - potencia de señal recibida) y puede determinar, basándose en una o más de estas mediciones, la posición 113 del dispositivo portátil 100 y puede transmitir la posición 113 como la señal de comunicación al determinador de posición 103.
Por tanto, en algunas realizaciones de la presente invención el determinador de posición 103 puede ponerse en marcha como una interfaz o unidad de comunicación, tal como una interfaz WLAN (WLAN - red de área local inalámbrica).
De acuerdo con otras realizaciones, el determinador de posición puede ser una interfaz de comunicación móvil como, por ejemplo, una interfaz LTE (Long Term Evolution), UMTs (Sistema Universal de Telecomunicaciones Móviles), o GSM (Sistema Global para las Comunicaciones Móviles).
De acuerdo con algunas realizaciones de la presente invención, una funcionalidad de la etiqueta electrónica 115 puede ser independiente de una funcionalidad del determinador de posición 103. Como ejemplo, la etiqueta electrónica 115 puede ser una denominada etiqueta pasiva, que no tiene su propia tensión de suministro, tal como una etiqueta RFID pasiva. Dicho de otro modo, la etiqueta electrónica 115 puede desacoplarse electrónicamente de los otros componentes del dispositivo portátil 100 e incluso puede colocarse en un alojamiento diferente que los otros componentes del dispositivo portátil 100.
De acuerdo con otras realizaciones, la etiqueta electrónica 115 puede ser una etiqueta activa que tenga su propia tensión de suministro o que comparta la tensión de suministro con el resto de los componentes del dispositivo portátil
5
10
15
20
25
30
35
40
45
50
55
60
100. Incluso en este caso la funcionalidad de la etiqueta electrónica 115 puede ser independiente de la funcionalidad del determinador de posición 103, por ejemplo, la etiqueta electrónica 115 y el determinador de posición 103 pueden no ser capaces de comunicarse entre sí, ya que ambos solo son capaces de comunicarse con la unidad de comunicación externa. En una realización muy fácil de la presente invención la etiqueta electrónica 115 puede ser un denominado transpondedor de solo lectura que envíe un número de serie tras la recepción de una señal de atención válida desde la unidad de comunicación externa. La unidad de comunicación externa puede recibir el número de serie y puede efectuar las mediciones de localización descritas anteriormente, para determinar la posición 113 de la etiqueta electrónica 115 y, por tanto, del usuario y puede transmitir esta posición 113 al determinador de posición 103 del dispositivo portátil 100.
Como ejemplo, todos los componentes del dispositivo portátil 100 aparte de la etiqueta electrónica 115 (tales como el sensor de dirección de visualización 101, el determinador de posición 103, el monitor 107 y la unidad de procesamiento 105) pueden formar parte un teléfono móvil (por ejemplo, un denominado teléfono inteligente) mientras que la etiqueta electrónica 115 está montada (externamente) al teléfono móvil. Dicho de otro modo, la etiqueta electrónica 115 (o el "transmisor de posición") está separada del resto del dispositivo portátil 100. Esta es una ventaja de una puesta en marcha más fácil y más económica. En dicho teléfono móvil el determinador de posición 103 puede ponerse en marcha utilizando la interfaz WLAN o la interfaz UMTS del teléfono móvil para recibir la información de la posición y otros datos. En el caso de utilizar una WLAN y un sistema RTLS para determinar la posición 113 del usuario, cabe señalar que en este caso algunas realizaciones están restringidas a una WLAN de 5 GHz, ya que el estándar de 2,4 GHz choca con el sistema RTLS. Además, el uso de UMTS para recibir la información de la posición puede ocasionar una gran demora de hasta 200 ms.
De acuerdo con otras realizaciones, el monitor 107 puede ser un monitor externo que se conecte a la unidad de procesamiento 105, por ejemplo, mediante el uso de un cable. Dicho de otro modo, puede que el monitor 107 no sea necesariamente el monitor normal del teléfono móvil, sino que sea un monitor externo, por ejemplo, comprendiendo gafas.
Además, el monitor 107 puede comprender gafas de realidad virtual en 3D que pueden conectarse a la unidad de procesamiento 105, de manera que el dispositivo portátil 100 pueda reproducir dos imágenes y mostrarlas en las gafas.
De acuerdo con otras realizaciones, el dispositivo portátil 100 puede comprender un altavoz 117 o un conector 117 para un altavoz. La unidad de procesamiento 105 puede configurarse para proporcionar una señal de audio 119 al altavoz 117 o al conector 117 para el altavoz, por ejemplo, dependiendo de la dirección de visualización y/o la posición del usuario en el mundo real o el mundo virtual.
Junto con el monitor 107, dependiendo de la dirección de visualización 111 y la posición 113 del usuario en el mundo real, los efectos audiovisuales pueden realizarse de manera muy realista. Como ejemplo, pueden conectarse auriculares al conector 117 en el dispositivo portátil 100. Por lo tanto, el dispositivo portátil 100 o de mano puede generar efectos de audio y transmitirlos a los oídos como en la realidad. Por ejemplo, puede generarse sonido de cataratas en el dispositivo de mano (o puede reproducirse desde una memoria) de forma modulada de manera que el oído que está dirigido hacia la catarata (virtual) reciba mayor amplitud de sonido que el otro oído.
En resumen, la unidad de procesamiento 105 puede configurarse para generar sonidos en el altavoz 117 o en un altavoz conectado al conector 117 basándose en la dirección de visualización 111 y/o la posición 113 del usuario en el mundo real.
De acuerdo con otras realizaciones preferidas, el dispositivo portátil 100 puede comprender un sensor de condiciones ambientales 121 configurado para determinar una condición ambiental 123 en el mundo real. La unidad de procesamiento 105 también puede configurarse para generar el mundo virtual basándose en la condición ambiental 123 de manera que un cambio de la condición ambiental 123 en el mundo real ocasione un cambio en el mundo virtual generado. Como ejemplo, el sensor de condiciones ambientales 121 puede ser un sensor de luz y/o temperatura. Mediante el uso de dicho sensor de luz y/o temperatura del dispositivo portátil 100 la realidad virtual o el mundo virtual también pueden tener por objeto reproducir una realidad que tenga la radiación diurna y solar actual. Así, por ejemplo, si la temperatura actual en el mundo real es muy alta, la realidad virtual puede representarse de acuerdo con esta condición.
De acuerdo con algunas realizaciones, la condición ambiental 123 determinada puede no ser visible para un usuario en el mundo real, tal como una temperatura o humedad del aire en el mundo real. La unidad de procesamiento 105 puede configurarse para visualizar gráficamente la condición ambiental 123 determinada en el mundo virtual generado. Como ejemplo, si una temperatura en el mundo real es muy elevada y una humedad es muy reducida, la unidad de procesamiento 105 puede visualizar gráficamente esta condición ambiental 123 simulando un desierto en el que el usuario se mueve virtualmente. Como otro ejemplo, en el caso de una temperatura elevada y una humedad elevada del aire, la unidad de procesamiento 105 puede visualizar gráficamente esta condición ambiental 123 determinada simulando una selva en la que el usuario se mueve virtualmente.
De acuerdo con otras realizaciones, la unidad de procesamiento 105 puede configurarse para generar objetos
5
10
15
20
25
30
35
40
45
50
55
60
virtuales en el mundo virtual en posiciones en el sistema de coordenadas en 3D del mundo virtual que correspondan a posiciones en el sistema de coordenadas en 3D del mundo real en las que estén situados los objetos en el mundo real. Esta funcionalidad se explicará a continuación usando un breve ejemplo de aplicación del dispositivo portátil 100.
El dispositivo portátil 100 puede usarse, por ejemplo, en aplicaciones de juego, pero también en aplicaciones de seguridad crítica.
Como ejemplo, en el caso de una emergencia por incendio, un bombero puede estar equipado con el dispositivo portátil 100 para navegar en un edificio en llamas. El dispositivo portátil 100 (por ejemplo, la unidad de procesamiento 105) puede configurarse para crear una replicación virtual completa del edificio en llamas, para que el bombero pueda moverse en el mundo real en el edificio mientras observa el mundo virtual a través de su monitor 107. La ventaja de esto es que aunque la visibilidad sea muy mala debido al fuego en el edificio, el bombero puede seguir navegando en el edificio con la ayuda del dispositivo portátil 100. Los objetos, por ejemplo, las puertas o escaleras, en el mundo real son simuladas por la unidad de procesamiento 105 en el mundo virtual. Dicho de otro modo, la unidad de procesamiento 105 genera los objetos virtuales en el mundo virtual, por ejemplo, escaleras virtuales o puertas virtuales, en el sistema de coordenadas en 3D del edificio virtual en posiciones en el sistema de coordenadas en 3D del mundo virtual que corresponden a (sus posiciones reales) en el sistema de coordenadas en 3D del mundo real (el edificio real).
Dicho de otro modo, la unidad de procesamiento 105 puede configurarse para generar (basándose en una base de datos de objetos) el mundo virtual como una reproducción virtual del mundo real en el que actúa el usuario.
Como ejemplo, los objetos reales y sus posiciones en el sistema de coordenadas en 3D del mundo real pueden guardarse en una base de datos de objetos que puede colocarse en el dispositivo portátil 100 o en la unidad de comunicación externa descrita anteriormente, por ejemplo, en un servidor centralizado. La unidad de procesamiento 105 puede configurarse para generar los objetos virtuales basándose en la base de datos de objetos. Además, como se ha descrito antes, la unidad de procesamiento 105 puede configurarse para visualizar una condición ambiental 123 determinada en el mundo virtual generado. En este ejemplo, la unidad de procesamiento 105 puede simular áreas calientes, por ejemplo, detrás de puertas cerradas, con colores diferentes, por ejemplo, simulando una puerta roja, para que el bombero sepa que detrás de esta puerta cerrada se encuentra una fuente de temperatura elevada.
En esta aplicación descrita, normalmente los objetos reales en el mundo real son replicados por la unidad de procesamiento 105 con objetos virtuales en el mundo virtual, que son similares o iguales que los objetos reales en el mundo real.
De acuerdo con otras realizaciones, por ejemplo en una aplicación de juego, la unidad de procesamiento 105 puede configurarse para sustituir un objeto real en el mundo real con un objeto virtual en el mundo virtual, de manera que el objeto virtual en el mundo virtual que sustituye el objeto real en el mundo real ocasione un comportamiento del usuario similar al objeto real en el mundo real. Dicho ejemplo se muestra en la Figura 2.
El ejemplo mostrado en la Figura 2 puede ser una aplicación de juego. En este ejemplo el usuario se está moviendo en un sistema de coordenadas en 3D del mundo real. El sistema de coordenadas en 3D del mundo real puede describirse mediante un vector tridimensional que tenga un componente x, un componente y un componente z, todos los cuales sean ortogonales entre sí. Por tanto, la posición y la dirección de visualización del usuario en el mundo real pueden describirse mediante un vector xyz tridimensional. El sistema de coordenadas en 3D del mundo virtual puede describirse mediante un vector tridimensional que tenga un componente x', un componente y' un componente z', todos los cuales sean ortogonales entre sí. Por tanto, la posición y la dirección de visualización del usuario en el mundo virtual pueden describirse mediante un vector x'y'z' tridimensional.
Como se ha descrito anteriormente, los cambios de la dirección de visualización y/o la posición del usuario en el mundo virtual pueden alinearse con cambios de la dirección de visualización y/o la posición del usuario en el mundo real.
En el ejemplo mostrado en la Figura 2 se muestran árboles, que representan objetos reales 201. Estos objetos reales 201 pueden ser sustituidos por la unidad de procesamiento 105 del dispositivo portátil 100 con uno o más objeto/s virtual/es 203 que ocasione/n un comportamiento del usuario similar al de los objetos reales 201. En el ejemplo mostrado en la Figura 2 la unidad de procesamiento 105 sustituye los árboles reales 201 con un muro virtual 203. Este muro virtual 203 ocasiona un comportamiento del usuario similar al de los árboles reales 201, por ejemplo, un usuario evitaría chocarse con un árbol y también evitaría chocarse con un muro. Los objetos reales 201 (en el ejemplo de la Figura 2, los árboles 201) pueden guardarse en una base de datos de objetos junto con las ubicaciones en el mundo real, para que la unidad de procesamiento 105 pueda generar los objetos virtuales (por ejemplo, el muro 203) basándose en la base de datos de objetos. Además, la unidad de procesamiento 105 puede configurarse para generar el mundo virtual de acuerdo con un juego al que juegue el usuario, de manera que una
5
10
15
20
25
30
35
40
45
50
55
60
forma en que la unidad de procesamiento 105 genere el mundo virtual sea diferente para distintos juegos a los que juegue el usuario o para diferentes situaciones de juego del juego al que juegue el usuario, mientras el mundo real en el que actúe el usuario sigue igual. Como ejemplo, en otra situación de juego o en otro juego los árboles reales 201 pueden sustituirse por otros objetos virtuales, por ejemplo, por un abismo, una valla o una roca empinada que ocasione un comportamiento del usuario similar que los árboles reales 201.
Por tanto, la unidad de procesamiento 105 puede adaptar la generación del mundo virtual dependiendo de un juego o una situación de juego, aunque el mundo real siga igual. Por tanto, el usuario puede, durante dos juegos diferentes
0 situaciones de juego diferentes, moverse y actuar en la misma área del mundo real, pero puede tener una experiencia virtual completamente diferente debido al hecho de que la unidad de procesamiento 105 genere un mundo virtual completamente diferente.
De acuerdo con otras realizaciones, la unidad de procesamiento 105 puede configurarse para cambiar un nivel de detalle o un tamaño de los objetos virtuales en respuesta a un cambio de una precisión de la posición determinada 113 y/o dirección de visualización 111 del usuario en el mundo real. Como ejemplo, la unidad de procesamiento 105 puede elegir el nivel de detalle o el tamaño de los objetos virtuales dependiendo de un algoritmo de localización utilizado actualmente para determinar la posición 113 del usuario. Como ejemplo, cuando la posición 113 del usuario se determina basándose en un sistema o algoritmo de localización por GPS, el nivel de detalle de los objetos virtuales puede elegirse más bajo que cuando se utiliza un RTLS sistema o algoritmo para determinar la posición 113 del usuario, ya que el sistema RTLS es generalmente mucho más preciso que el GPS. Como ejemplo, en el ejemplo presentado del bombero, una precisión de menos de 1 m sería suficiente, mientras que en juegos digitales interactivos puede que sea necesaria una mayor precisión de menos de 10 cm. En resumen, la realidad virtual o el mundo virtual puede depender de la precisión del algoritmo o sistema de localización (es decir, cuanto menos preciso sea el sistema de localización, menos precisos deberían ser los elementos en el mundo virtual).
Otro aspecto de las realizaciones de la presente invención es el aspecto del tiempo real, es decir, los cambios de la dirección de visualización tienen que determinarse lo suficientemente rápido como para que un ser humano no se sienta irritado. Esto significa, por un lado, que el hardware o los sensores tienen que ser suficientemente precisos y rápidos y, por otro lado, que la reproducción del mundo virtual tiene que suceder con suficiente rapidez. De acuerdo con algunas realizaciones, una demora máxima de 40 ms puede ser tolerable (lo que corresponde a una demora de
1 imagen en 25 imágenes por segundo). De acuerdo con otras realizaciones, la demora tolerable puede ser 20 ms. Los datos de posicionamiento pueden demorarse más ya que una demora de los datos de posición no influye en la impresión virtual tanto como una demora de los datos de la dirección de visualización.
Además, como se ha descrito anteriormente, el dispositivo portátil 100 puede configurarse para determinar su posición y, por tanto, la posición 113 del usuario en el mundo real por sí solo, por ejemplo basándose en una señal GPS o con la ayuda de un dispositivo de comunicación externo (por ejemplo, terrestre), que determine la posición del dispositivo portátil 100, por ejemplo, basándose en la etiqueta electrónica 115. En este último supuesto el dispositivo portátil 100 es situado cerca de la infraestructura (por ejemplo, cerca de las antenas de la unidad de comunicación externa) y la posición determinada 113 se transmite al dispositivo portátil 100 por medio de una comunicación sin cables.
De acuerdo con otras realizaciones, para mejorar más el realismo, pueden utilizarse dispositivos de contrarreacción de fuerza para transmitir información física. Dichas cuestiones físicas podrían ser lluvia, terremotos o interacción física con jugadores de ordenador, por ejemplo, controlados por inteligencia artificial.
Dicho de otro modo, la unidad de procesamiento 105 también puede configurarse para generar datos de contrarreacción de fuerza que se proporcionen a dispositivos de contrarreacción de fuerza adecuados (por ejemplo, montados en el usuario).
De acuerdo con algunas realizaciones de la presente invención, el sensor de dirección de visualización 101 puede comprender diferentes unidades sensoras, tal como: una unidad de sensor giroscopio, una unidad de sensor acelerómetro y/o una unidad de sensor magnetómetro. El sensor de dirección de visualización 101 puede determinar la dirección de visualización 111 del usuario en el mundo real basándose en datos del sensor procedentes de estas diferentes unidades sensoras.
La Figura 3 muestra en una ilustración esquemática las diferentes señales de datos y señales de comunicación que puede recibir y generar la unidad de procesamiento 105 del dispositivo portátil 100. Como puede observarse en la Figura 3, el dispositivo portátil 100 puede configurarse para comunicarse con un servidor 301, por ejemplo, en una unidad de comunicación externa desde la cual el dispositivo portátil 100 recibe detalles sobre el entorno virtual (tal como mapas, objetos, etc.) por medio de una comunicación sin cables.
Además, el dispositivo móvil 100 puede recibir una información de la sincronización de diferentes jugadores o usuarios actuando en el mundo real. Por tanto, el dispositivo portátil 100 puede configurarse no solo para generar
5
10
15
20
25
30
35
40
45
50
55
60
objetos virtuales en el mundo virtual, sino también mostrar a otros usuarios que actúen junto con el usuario del dispositivo portátil 100 en el mundo real. Por tanto, el dispositivo portátil 100 permite una interacción con otras personas en un área localizable teniendo simplemente un dispositivo portátil 100 en cada usuario.
Además, en la Figura 3 puede observarse que el dispositivo portátil 100 puede recibir sus datos de posición 113 desde una unidad de localización RTLS 303, por ejemplo, integrada en el dispositivo de comunicación externo. En el ejemplo mostrado en la Figura 3 el determinador de posición 103 puede ser una interfaz de comunicación a través de la cual el dispositivo portátil 100 recibe los datos de posición desde la unidad de localización RTLS 303.
La Figura 4 muestra un diagrama de bloques de un sistema de realidad virtual 400 de acuerdo con otra realización de la presente invención. El sistema de realidad virtual 400 comprende un dispositivo portátil de acuerdo con una realización de la presente invención. En el ejemplo mostrado en la Figura 4 el sistema de realidad virtual 400 comprende el dispositivo portátil 100 mostrado en la Figura 1. Además, el sistema de realidad virtual 400 comprende una unidad de comunicación terrestre 401, que se dispone externa al dispositivo portátil 100. Por ejemplo, la unidad de comunicación terrestre 401 puede disponerse en un primer alojamiento y el dispositivo portátil 100 puede disponerse en el segundo alojamiento, que es distinto del primer alojamiento. Mientras que un usuario suele llevar el dispositivo portátil 100 por todos lados, la unidad de comunicación terrestre 401 se dispone en una posición predeterminada de la cual no suele alejarse (cuando la unidad de comunicación terrestre está en funcionamiento). El determinador de posición 103 del dispositivo portátil 100 se configura para determinar la posición 113 del usuario en el mundo real basándose en una señal de comunicación sin cables 403 recibida desde la unidad de comunicación terrestre 401.
El término terrestre significa que no hay ningún satélite, como un satélite GPS, que participe en la determinación de la posición 113 del usuario del dispositivo portátil 100. Como ejemplo, la unidad de comunicación terrestre 401 puede configurarse para determinar la posición del dispositivo portátil 100 por medio de un algoritmo RTLS.
Además, la unidad de comunicación terrestre 401 puede configurarse para inspeccionar un área de movimiento dedicada para determinar posiciones de una pluralidad de dispositivos portátiles 100 llevados por una pluralidad de usuarios y para transmitir las posiciones de la pluralidad de dispositivos portátiles 100 a la pluralidad de dispositivos portátiles 100. Por tanto, de acuerdo con algunas realizaciones, el sistema de realidad virtual 400 puede comprender una pluralidad de dispositivos portátiles 100.
En resumen, las realizaciones de la presente invención proporcionan un enfoque de realidad virtual en el que un usuario coge un dispositivo inalámbrico o dispositivo portátil 100 e interactúa con otras personas en un área localizable (en el mundo real). Otras aplicaciones de realidad virtual no proporcionan habitualmente una estructura tan interactiva, realista y fácil de utilizar. Asimismo, localizar a personas con una precisión tan buena no ha estado disponible para mucha gente, por lo que otros enfoques ni siquiera se ocuparon de dicha característica.
Los casos de uso posibles están extendidos. Por ejemplo, podría proporcionarse una aplicación de juego realista. Dichos juegos son cualquier juego en primera persona. Además, los supermercados y las tiendas pueden proporcionar su entorno virtual y la gente podría caminar como si realmente estuvieran en este mercado. Otra aplicación sería una emisión (en directo) de un concierto o un espectáculo de TV, donde el usuario no esté sentado delante de la TV, sino que realmente pudiera sentir como si estuviera en ese lugar. Es posible una gran variedad de otras aplicaciones. Simplificada, es posible cualquier aplicación donde uno pueda interactuar con otras personas y con objetos como sí mismo.
Por tanto, las realizaciones de la presente invención proporcionan un sistema para jugar a juegos interactivos reales mediante la fusión de sensores y la representación en tiempo real en dispositivos de mano en colaboración con sistemas de localización en tiempo real (RTLS) y sensores de movimiento. Dicho sistema es capaz de transmitir la sensación en un usuario de que se encuentra en un entorno totalmente virtual. Utilizando sistemas de localización en tiempo real, múltiples datos del sensor y hardware de reproducción, es posible simular una realidad virtual independiente de la temperatura, el tiempo y la hora para un usuario, en la que pueda moverse libremente y pueda interactuar. Además, las realizaciones permiten la puesta en marcha de más de un usuario en un caso del sistema.
Las realizaciones de la presente invención permiten a un usuario caminar por el mundo virtual o el entorno virtual con sus propias piernas, sin presionar teclas en un teclado ni apuntar con un ratón.
La Figura 5 muestra un diagrama de flujo de un método 500 de acuerdo con una realización de la presente invención.
El método 500 comprende una etapa 501 de determinar una dirección de visualización de un usuario en el mundo real.
Además, el método 500 comprende una etapa 503 de determinar una posición del usuario en el mundo real.
5
10
15
20
25
30
35
40
45
50
55
60
Además, el método 500 comprende la etapa 505 de generar (basándose en la dirección de visualización del usuario y la posición del usuario en el mundo real) un mundo virtual en el que un cambio de la dirección de visualización en un sistema de coordenadas en 3D del mundo real ocasione un cambio de la dirección de visualización en un sistema de coordenadas en 3D del mundo virtual.
Además, el método 500 comprende una etapa 507 de mostrar el mundo virtual generado al usuario bloqueando al mismo tiempo una visión del mundo real.
El método 500 puede ser realizado por un dispositivo portátil de acuerdo con una realización de la presente invención, por ejemplo, el dispositivo portátil 100 mostrado en la Figura 1.
El método 500 puede ser complementado por cualquiera de las características y funcionalidades descritas en la presente memoria con respecto al aparato, y puede ponerse en marcha utilizando los componentes de hardware del aparato.
Aunque algunos aspectos se han descrito en el contexto de un aparato, está claro que estos aspectos también representan una descripción del correspondiente método, donde un bloque o dispositivo corresponde a una etapa del método o a una característica de una etapa del método. Análogamente, los aspectos descritos en el contexto de una etapa del método también representan una descripción de un correspondiente bloque, objeto o característica de un correspondiente aparato. La totalidad o parte de las etapas del método pueden ser realizadas por (o utilizando) un aparato de hardware como, por ejemplo, un microprocesador, un ordenador programable o un circuito electrónico. En algunas realizaciones, una o más de las etapas del método más importantes pueden ser ejecutadas por dicho aparato.
Dependiendo de determinados requisitos de puesta en marcha, las realizaciones de la invención pueden ponerse en marcha en hardware o en software. La puesta en marcha puede realizarse utilizando un medio de almacenamiento digital, por ejemplo un disquete, un DVD, un Blu-Ray, un cD, una memoria ROM, una memoria PROM, una memoria EPROM, una memoria eEpROM o una memoria FLASH, que tenga señales de control legibles electrónicamente guardadas dentro, que cooperen (o sean capaces de cooperar) con un sistema informático programable para que se realice el respectivo método. Por lo tanto, el medio de almacenamiento digital puede ser legible por ordenador.
Algunas realizaciones de acuerdo con la invención comprenden un soporte informático con señales de control legibles electrónicamente, que son capaces de cooperar con un sistema informático programable, para que se realice uno de los métodos descritos en la presente memoria.
En general, las realizaciones de la presente invención pueden ponerse en marcha como un producto de programa informático con un código de programa, siendo el código de programa operativo para realizar uno de los métodos cuando el producto de programa informático se ejecuta en un ordenador. El código de programa puede almacenarse, por ejemplo, en un soporte legible por máquina.
Otras realizaciones comprenden el programa informático para realizar uno de los métodos descritos en la presente memoria, guardado en un soporte legible por máquina.
Dicho de otro modo, una realización del método inventivo es, por tanto, un programa informático que tiene un código de programa para realizar uno de los métodos descritos en la presente memoria, cuando el programa informático se ejecuta en un ordenador.
Otra realización de los métodos inventivos es, por tanto, un soporte informático (o un medio de almacenamiento digital, o un medio legible por ordenador) que comprende, grabado dentro, el programa informático para realizar uno de los métodos descritos en su interior. El soporte informático, el medio de almacenamiento digital o el medio grabado suele ser tangible y/o no transitorio.
Otra realización del método inventivo es, por tanto, un flujo de datos o una secuencia de señales que representan el programa informático para realizar uno de los métodos descritos en la presente memoria. El flujo de datos o la secuencia de señales puede configurarse, por ejemplo, para transferirse a través de una conexión de comunicación de datos, por ejemplo, por internet.
Otra realización comprende un medio de procesamiento, por ejemplo, un ordenador, o un dispositivo de lógica programable, configurado o adaptado para realizar uno de los métodos descritos en la presente memoria.
Otra realización comprende un ordenador que tiene instalado el programa informático para realizar uno de los métodos descritos en la presente memoria.
Otra realización de acuerdo con la invención comprende un aparato o un sistema configurado para transferir (por ejemplo, de forma electrónica u óptica) un programa informático para realizar uno de los métodos descritos en la presente memoria a un receptor. El receptor puede ser, por ejemplo, un ordenador, un dispositivo móvil, un dispositivo de memoria o similar. El aparato o sistema puede comprender, por ejemplo, a servidor de archivos para 5 transferir el programa informático al receptor.
En algunas realizaciones, puede utilizarse un dispositivo de lógica programable (por ejemplo, una matriz de puertas programable in situ) para realizar la totalidad o parte de las funcionalidades de los métodos descritos en la presente memoria. En algunas realizaciones, una matriz de puertas programable in situ puede cooperar con un 10 microprocesador para realizar uno de los métodos descritos en la presente memoria. En general, cualquier aparato de hardware realiza preferentemente los métodos.
Las realizaciones descritas anteriormente son meramente ilustrativas para los principios de la presente invención. Se entiende que las modificaciones y variaciones de las disposiciones y los detalles descritos en la presente memoria 15 serán evidentes para otros expertos en la materia. La intención es, por tanto, que solamente estén limitados por el alcance de las reivindicaciones de la patente inminente y no por los detalles específicos presentados a modo de descripción y explicación de las realizaciones en la presente memoria.

Claims (15)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    REIVINDICACIONES
    1. Un dispositivo portátil (100) que comprende:
    un sensor de dirección de visualización (101) configurado para determinar la dirección de visualización (111) de un usuario del dispositivo portátil (100) en el mundo real;
    un determinador de posición (103) configurado para determinar una posición (113) del usuario en el mundo real; una unidad de procesamiento (105) configurada para generar
    - basándose en la dirección de visualización (111) del usuario y la posición (113) del usuario en el mundo real
    - un mundo virtual en el que un cambio de la dirección de visualización (111) en un sistema de coordenadas en 3D del mundo real ocasione un cambio de la dirección de visualización en un sistema de coordenadas en 3D del mundo virtual; y
    un monitor (107) configurado para mostrar el mundo virtual generado al usuario bloqueando al mismo tiempo una visión del mundo real; y un sensor de condiciones ambientales (121) configurado para determinar una condición ambiental (123) en el mundo real;
    en el que la unidad de procesamiento (105) también se configura para generar el mundo virtual basándose en la condición ambiental (123) determinada para que un cambio de la condición ambiental (123) en el mundo real ocasione un cambio en el mundo virtual generado, caracterizado porque la condición ambiental (123) comprende temperatura, humedad del aire o luz en el mundo real.
  2. 2. El dispositivo portátil (100) de acuerdo con la reivindicación 1,
    en el que la unidad de procesamiento (105) también se configura para generar el mundo virtual para que un cambio de la posición (113) del usuario en el sistema de coordenadas en 3D del mundo real ocasione un cambio de la posición del usuario en el sistema de coordenadas en 3D del mundo virtual.
  3. 3. El dispositivo portátil (100) de acuerdo con la reivindicación 1 o 2,
    en el que la condición ambiental (123) determinada no es visible para un usuario en el mundo real; y en el que la unidad de procesamiento (105) se configura para visualizar gráficamente la condición ambiental (123) determinada en el mundo virtual generado.
  4. 4. El dispositivo portátil (100) de acuerdo con una de las reivindicaciones 1 a 3,
    en el que la unidad de procesamiento (105) se configura para generar objetos virtuales (203) en el mundo virtual en posiciones en el sistema de coordenadas en 3D del mundo virtual que corresponden a posiciones en el sistema de coordenadas en 3D del mundo real en las que se encuentran objetos reales (201) en el mundo real.
  5. 5. El dispositivo portátil (100) de acuerdo con la reivindicación 4,
    en el que la unidad de procesamiento (105) se configura para sustituir los objetos reales (201) en el mundo real con los objetos virtuales (203) en el mundo virtual, de manera que un objeto virtual (203) en el mundo virtual que sustituye un objeto real (201) en el mundo real ocasione un comportamiento del usuario similar al objeto real (201).
  6. 6. El dispositivo portátil (100) de acuerdo con una de las reivindicaciones 4 o 5,
    en el que la unidad de procesamiento (105) comprende una base de datos de objetos en la que se guardan los objetos reales (201) y sus ubicaciones en el mundo real o la unidad de procesamiento (105) se configura para recibir una información de objetos sobre los objetos reales (201) y sus ubicaciones en el mundo real; y en el que la unidad de procesamiento (105) se configura para generar los objetos virtuales (203) basándose en la base de datos de objetos o la información de objetos recibida.
  7. 7. El dispositivo portátil (100) de acuerdo con una de las reivindicaciones 1 a 6,
    en el que la unidad de procesamiento (105) se configura para generar objetos virtuales (203) en el mundo virtual en posiciones en el sistema de coordenadas en 3D del mundo virtual; y en el que la unidad de procesamiento (105) se configura para cambiar un nivel de detalle o un tamaño de los objetos virtuales (203) en respuesta a un cambio de una precisión de la posición determinada (113) del usuario en el mundo real.
  8. 8. El dispositivo portátil (100) de acuerdo con una de las reivindicaciones 1 a 7,
    en el que el determinador de posición (103) es una unidad de sistema de localización en tiempo real configurada para determinar la posición (113) del usuario en el mundo real basándose en un algoritmo de localización terrestre.
  9. 9. El dispositivo portátil (100) de acuerdo con una de las reivindicaciones 1 a 8,
    que comprende además una etiqueta electrónica (115) que es localizable gracias a una unidad de comunicación externa; y
    en el que el determinador de posición (103) se configura para determinar la posición (113) del usuario en el mundo real basándose en una señal de comunicación recibida desde la unidad de comunicación externa.
  10. 10. El dispositivo portátil (100) de acuerdo con la reivindicación 9,
    5
    10
    15
    20
    25
    30
    35
    en el que una funcionalidad de la etiqueta electrónica (115) es independiente de una funcionalidad del determinador de posición (103).
  11. 11. El dispositivo portátil (100) de acuerdo con una de las reivindicaciones 1 a 10, en el que el dispositivo portátil (100) es un mando de juegos; y
    en el que la unidad de procesamiento (105) se configura para generar el mundo virtual de acuerdo con un juego al que juegue el usuario, de manera que una forma en la que la unidad de procesamiento (105) genere el mundo virtual sea diferente para los distintos juegos a los que juegue el usuario o para las distintas situaciones de juego del juego al que juegue el usuario, mientras el mundo real en el que actúe el usuario sigue igual.
  12. 12. El dispositivo portátil (100) de acuerdo con una de las reivindicaciones 1 a 10,
    en el que la unidad de procesamiento (105) se configura para generar (basándose en una base de datos de objetos) el mundo virtual como una reproducción virtual del mundo real en el que actúa el usuario.
  13. 13. Un sistema de realidad virtual (400) que comprende:
    un dispositivo portátil (100) de acuerdo con una de las reivindicaciones 1 a 12; y
    una unidad de comunicación terrestre (401), que se dispone externa al dispositivo portátil (100); y
    en el que el determinador de posición (103) del dispositivo portátil (100) se configura para determinar la posición
    (113) del usuario en el mundo real basándose en una señal de comunicación sin cables (403) recibida desde la
    unidad de comunicación terrestre.
  14. 14. Un método que comprende:
    determinar una dirección de visualización (501) de un usuario en el mundo real; determinar una posición (503) del usuario en el mundo real;
    generar (505) (basándose en la dirección de visualización del usuario y la posición del usuario en el mundo real) un mundo virtual en el que un cambio de la dirección de visualización en un sistema de coordenadas en 3D del mundo real ocasione un cambio de la dirección de visualización en un sistema de coordenadas en 3D del mundo virtual;
    mostrar (507) el mundo virtual generado al usuario bloqueando al mismo tiempo una visión del mundo real; determinar, mediante un sensor, una condición ambiental en el mundo real;
    en el que el mundo virtual se genera basándose en la condición ambiental determinada de forma que un cambio de la condición ambiental en el mundo real ocasione un cambio en el mundo virtual generado, caracterizado porque la condición ambiental comprende la temperatura, la humedad del aire o la luz en el mundo real.
  15. 15. El medio de almacenamiento no transitorio que tiene guardado un programa informático que tiene un código de programa para realizar, cuando se ejecuta en un ordenador, un método de acuerdo con la reivindicación 14.
ES11183970.0T 2011-10-05 2011-10-05 Dispositivo portátil, sistema y método de realidad virtual Active ES2656868T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP11183970.0A EP2579128B1 (en) 2011-10-05 2011-10-05 Portable device, virtual reality system and method

Publications (1)

Publication Number Publication Date
ES2656868T3 true ES2656868T3 (es) 2018-02-28

Family

ID=47010581

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11183970.0T Active ES2656868T3 (es) 2011-10-05 2011-10-05 Dispositivo portátil, sistema y método de realidad virtual

Country Status (7)

Country Link
US (1) US9216347B2 (es)
EP (2) EP2579128B1 (es)
JP (1) JP5934368B2 (es)
KR (1) KR101670147B1 (es)
CN (1) CN104024984B (es)
ES (1) ES2656868T3 (es)
WO (1) WO2013050473A1 (es)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
CN103473692A (zh) * 2013-06-17 2013-12-25 展讯通信(上海)有限公司 一种三维购物平台显示系统
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
HUE031114T2 (en) 2014-08-11 2017-06-28 Mack Rides Gmbh & Co Kg Procedure for operating an apparatus, in particular fairground entertainment equipment, means of transport, fitness machine or the like
US10943395B1 (en) 2014-10-03 2021-03-09 Virtex Apps, Llc Dynamic integration of a virtual environment with a physical environment
EP3256932A4 (en) 2014-10-15 2018-06-20 DIRTT Environmental Solutions, Ltd. Virtual reality immersion with an architectural design software application
US20160163063A1 (en) * 2014-12-04 2016-06-09 Matthew Ashman Mixed-reality visualization and method
US10099134B1 (en) 2014-12-16 2018-10-16 Kabam, Inc. System and method to better engage passive users of a virtual space by providing panoramic point of views in real time
US10181219B1 (en) 2015-01-21 2019-01-15 Google Llc Phone control and presence in virtual reality
US10311171B2 (en) * 2015-03-02 2019-06-04 Ca, Inc. Multi-component and mixed-reality simulation environments
US10102674B2 (en) 2015-03-09 2018-10-16 Google Llc Virtual reality headset connected to a mobile computing device
DE102015003883B4 (de) 2015-03-26 2024-07-11 Audi Ag Kraftfahrzeugsimulationsanordnung zur Simulation einer virtuellen Umgebung mit einem virtuellen Kraftfahrzeug und Verfahren zur Simulation einer virtuellen Umgebung
CN104808341A (zh) * 2015-04-09 2015-07-29 青岛歌尔声学科技有限公司 一种头戴式虚拟现实设备
US9760790B2 (en) * 2015-05-12 2017-09-12 Microsoft Technology Licensing, Llc Context-aware display of objects in mixed environments
CN104881123A (zh) * 2015-06-06 2015-09-02 深圳市虚拟现实科技有限公司 基于虚拟现实的嗅觉模拟方法、设备和系统
US20170053042A1 (en) * 2015-08-19 2017-02-23 Benjamin John Sugden Holographic building information update
CN105159450B (zh) * 2015-08-25 2018-01-05 中国运载火箭技术研究院 一种便携式可交互桌面级虚拟现实系统
CN106371572B (zh) 2015-11-30 2019-10-15 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN105547285B (zh) * 2016-01-30 2019-01-15 清华大学 基于虚拟现实技术的建筑内导航系统
CN105843380B (zh) * 2016-03-17 2019-05-14 广东小天才科技有限公司 一种用于虚拟现实场景的环境温度模拟方法及装置
US10311622B2 (en) * 2016-03-29 2019-06-04 Htc Corporation Virtual reality device and method for virtual reality
EP3443441A1 (en) * 2016-04-12 2019-02-20 R-Stor Inc. Method and apparatus for presenting imagery within a virtualized environment
CN105979239A (zh) * 2016-04-28 2016-09-28 乐视控股(北京)有限公司 虚拟现实终端及其视频的显示方法和装置
EP3458938A1 (en) * 2016-05-17 2019-03-27 Google LLC Methods and apparatus to project contact with real objects in virtual reality environments
US10788888B2 (en) 2016-06-07 2020-09-29 Koninklijke Kpn N.V. Capturing and rendering information involving a virtual environment
EP3329466A4 (en) 2016-06-10 2019-03-13 DIRTT Environmental Solutions, Ltd. ARCHITECTURAL DESIGN ENVIRONMENT WITH MIXED REALITY
CA3000008A1 (en) 2016-06-10 2017-12-14 Dirtt Environmental Solutions, Inc. Mixed-reality and cad architectural design environment
CN106251406A (zh) * 2016-08-04 2016-12-21 合肥景昇信息科技有限公司 基于虚拟现实技术的城市巷道定位系统
WO2018023736A1 (en) * 2016-08-05 2018-02-08 SZ DJI Technology Co., Ltd. System and method for positioning a movable object
CN107818540A (zh) * 2016-09-12 2018-03-20 北京易讯理想科技有限公司 基于增强现实的天气信息显示方法及装置
CN106390448A (zh) * 2016-11-22 2017-02-15 包磊 体感模拟设备
CN106474737A (zh) * 2016-11-22 2017-03-08 包磊 具有热触感的体感模拟装置及体感模拟系统
JP6948128B2 (ja) * 2017-01-13 2021-10-13 キヤノン株式会社 映像監視装置及びその制御方法及びシステム
US11287292B2 (en) 2017-02-13 2022-03-29 Lockheed Martin Corporation Sensor system
CN106950534B (zh) * 2017-02-27 2020-07-03 广东小天才科技有限公司 一种空间位置检测方法、系统及vr穿戴设备
EP3476448B1 (de) 2017-10-24 2021-12-08 VR Coaster GmbH & Co. KG Vr-vorrichtung zum erzeugen und darstellen einer virtuellen realität
CN207488953U (zh) * 2017-12-04 2018-06-12 深圳市易特科信息技术有限公司 虚拟现实场景模拟装置
KR20190078475A (ko) * 2017-12-26 2019-07-04 (주)스코넥엔터테인먼트 가상 환경 제어 시스템
CN108132712A (zh) * 2018-01-12 2018-06-08 网易(杭州)网络有限公司 虚拟场景中天气状态的呈现方法、装置及存储介质和终端
PT3539628T (pt) 2018-03-16 2020-12-11 Vr Coaster Gmbh & Co Kg Dispositivo de sincronização para a sincronização de dispositivos de exibição montados na cabeça com um mundo virtual num passeio de diversão, passeio de diversão com um tal dispositivo de sincronização, bem como processo para a operação de um tal passeio de diversão
DK3539627T3 (da) 2018-03-16 2020-12-14 Vr Coaster Gmbh & Co Kg Synkroniseringsindretning med en basisstation til synkronisering af head-mounted displays med en virtuel verden i en forlystelse, forlystelse med en sådan synkroniseringsindretning og fremgangsmåde til drift af en sådan forlystelse
US11079897B2 (en) 2018-05-24 2021-08-03 The Calany Holding S. À R.L. Two-way real-time 3D interactive operations of real-time 3D virtual objects within a real-time 3D virtual world representing the real world
JP6944098B2 (ja) * 2018-05-24 2021-10-06 ザ カラニー ホールディング エスエーアールエル 仮想世界を介してデジタル現実アプリケーションを開発および試験して実世界の中に展開するためのシステムおよび方法
US11032508B2 (en) * 2018-09-04 2021-06-08 Samsung Electronics Co., Ltd. Display apparatus and method for controlling audio and visual reproduction based on user's position
CN109529318A (zh) * 2018-11-07 2019-03-29 艾葵斯(北京)科技有限公司 虚拟视觉系统
CN113678191A (zh) * 2019-03-29 2021-11-19 索尼互动娱乐股份有限公司 边界显示控制设备,边界显示控制方法和程序
US10499044B1 (en) 2019-05-13 2019-12-03 Athanos, Inc. Movable display for viewing and interacting with computer generated environments
US11918289B2 (en) 2019-05-14 2024-03-05 Twenty Twenty Therapeutics Llc Periocular environment monitoring in a headset
CN111973979B (zh) 2019-05-23 2024-11-01 卡兰控股有限公司 经由持久性虚拟世界系统对现实世界进行实况管理
US11650719B2 (en) * 2019-06-18 2023-05-16 The Calany Holding S.À.R.L. Virtual creation of real-world projects
US11196964B2 (en) 2019-06-18 2021-12-07 The Calany Holding S. À R.L. Merged reality live event management system and method
CN112100798A (zh) 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 用于将现实世界元素的虚拟副本部署到持久性虚拟世界系统中的系统和方法
US11663685B2 (en) 2019-06-18 2023-05-30 The Calany Holding S. À R.L. System and method for providing digital reality experiences and decentralized transactions of real estate projects
US11076004B2 (en) * 2019-08-20 2021-07-27 The Calany Holding S.Á R.L. Virtual radio access network system and method for optimized real-time responsive continuous location-based cloud computing, rendering, tracking, and communication services in three-dimensional space through a distributed computing center network
FR3104290B1 (fr) * 2019-12-05 2022-01-07 Airbus Defence & Space Sas Jumelles de visee de simulation, et systeme et procedes de simulation
CN111263174B (zh) * 2020-01-14 2022-05-20 广州虎牙科技有限公司 直播控制方法和装置、电子设备、直播系统及存储介质
CN111443490B (zh) * 2020-04-15 2022-11-18 杭州赶梦科技有限公司 一种ar hud的虚像显示区域调节方法
CN113633991B (zh) * 2021-08-13 2023-11-03 腾讯科技(深圳)有限公司 虚拟技能的控制方法、装置、设备及计算机可读存储介质
US12026831B2 (en) 2021-10-27 2024-07-02 Samsung Electronics Co., Ltd. Electronic device and method for spatial mapping using the same

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048562A (ja) * 2000-08-01 2002-02-15 Institute For Welcome System Ltd 端末の空間的位置情報に対応して、位置情報に関連づけられた各種情報をサーバから端末に送信するサービスを利用して、道路標識、交通規制情報、看板、広告等を、現実の空間的位置における物理的実体から位置情報に対応してサーバ内に格納された情報に置き換える方法および機構
JP3406965B2 (ja) * 2000-11-24 2003-05-19 キヤノン株式会社 複合現実感提示装置及びその制御方法
GB2376397A (en) * 2001-06-04 2002-12-11 Hewlett Packard Co Virtual or augmented reality
JP2003305276A (ja) * 2002-02-18 2003-10-28 Space Tag Inc ゲームシステム、ゲーム装置、および記録媒体
US20090111670A1 (en) * 2003-05-29 2009-04-30 Julian D Williams Walk simulation apparatus for exercise and virtual reality
US20060017654A1 (en) * 2004-07-23 2006-01-26 Romo Justin R Virtual reality interactivity system and method
JP4661314B2 (ja) * 2005-04-04 2011-03-30 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
ATE428154T1 (de) * 2005-05-03 2009-04-15 Seac02 S R L Augmented-reality-system mit identifizierung der realen markierung des objekts
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
JP5424323B2 (ja) * 2009-09-14 2014-02-26 株式会社ユピテル ナビゲーション装置及びプログラム
JP4679661B1 (ja) * 2009-12-15 2011-04-27 株式会社東芝 情報提示装置、情報提示方法及びプログラム
JP5521621B2 (ja) * 2010-02-19 2014-06-18 日本電気株式会社 携帯端末、拡張現実システム、及び拡張現実情報表示方法

Also Published As

Publication number Publication date
EP2579128B1 (en) 2017-11-22
WO2013050473A1 (en) 2013-04-11
US9216347B2 (en) 2015-12-22
KR101670147B1 (ko) 2016-11-09
CN104024984B (zh) 2017-06-09
CN104024984A (zh) 2014-09-03
US20140221090A1 (en) 2014-08-07
KR20140083015A (ko) 2014-07-03
JP2015502584A (ja) 2015-01-22
JP5934368B2 (ja) 2016-06-15
EP2579128A1 (en) 2013-04-10
EP2764422A1 (en) 2014-08-13

Similar Documents

Publication Publication Date Title
ES2656868T3 (es) Dispositivo portátil, sistema y método de realidad virtual
US10255726B2 (en) Systems and methods for augmented reality representations of networks
ES2348510T3 (es) Sistema y método de medios.
CN103218198B (zh) 运动用户的声音定位
US20160292924A1 (en) System and method for augmented reality and virtual reality applications
US20150097719A1 (en) System and method for active reference positioning in an augmented reality environment
WO2017020132A1 (en) Augmented reality in vehicle platforms
JP7191210B2 (ja) 仮想環境の観察方法、デバイス及び記憶媒体
CN104486586B (zh) 一种基于视频地图的灾难救生模拟训练方法及系统
CN107274438A (zh) 支持移动虚拟现实应用的单Kinect多人跟踪系统及方法
JP2004102835A (ja) 情報提供方法およびそのシステム、携帯型端末装置、頭部装着装置、並びにプログラム
WO2018113759A1 (zh) 基于定位系统和ar/mr的探测系统及探测方法
WO2015048890A1 (en) System and method for augmented reality and virtual reality applications
JP2005277670A (ja) 全方位映像作成装置、地図連動全方位映像記録・表示装置及び地図連動全方位映像利用装置
Zeman et al. Augmented Reality-Aided Indoor Localization and Navigation for Next-Gen Rescue Services
RU2660631C1 (ru) Способ и система для формирования изображений совмещенной реальности
US11823344B2 (en) Mobile device tracking module within a VR simulation
CN111754631B (zh) 三维模型的生成方法、装置、设备及可读存储介质
Hernández et al. The empty museum. Multi-user interaction in an immersive and physically walkable VR space
Pasman et al. Prototype application