[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

ES2716012B2 - INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES - Google Patents

INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES Download PDF

Info

Publication number
ES2716012B2
ES2716012B2 ES201830941A ES201830941A ES2716012B2 ES 2716012 B2 ES2716012 B2 ES 2716012B2 ES 201830941 A ES201830941 A ES 201830941A ES 201830941 A ES201830941 A ES 201830941A ES 2716012 B2 ES2716012 B2 ES 2716012B2
Authority
ES
Spain
Prior art keywords
zoom
scene
virtual scene
virtual
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES201830941A
Other languages
Spanish (es)
Other versions
ES2716012A1 (en
Inventor
Llamas Camino Fernández
Costales Gonzalo Esteban
Fernández Alexis Gutiérrez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad de Leon
Original Assignee
Universidad de Leon
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad de Leon filed Critical Universidad de Leon
Priority to ES201830941A priority Critical patent/ES2716012B2/en
Publication of ES2716012A1 publication Critical patent/ES2716012A1/en
Application granted granted Critical
Publication of ES2716012B2 publication Critical patent/ES2716012B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

DESCRIPCIÓNDESCRIPTION

SISTEMA Y MÉTODO DE INTERACCIÓN EN ENTORNOS VIRTUALES UTILIZANDO SYSTEM AND METHOD OF INTERACTION IN VIRTUAL ENVIRONMENTS USING

DISPOSITIVOS HÁPTICOSHAPTIC DEVICES

CAMPO DE LA INVENCIÓNFIELD OF THE INVENTION

El objeto de la invención se enmarca en el campo de la informática, más concretamente en el de los dispositivos hápticos y la simulación virtual.The object of the invention is framed in the field of computing, more specifically in that of haptic devices and virtual simulation.

ANTECEDENTES DE LA INVENCIÓNBACKGROUND OF THE INVENTION

Las técnicas diseñadas para controlar la interacción mediante dispositivos hápticos se pueden clasificar en tres grupos atendiendo a su modo de funcionamiento: basadas en control de posición, basadas en control de velocidad y técnicas híbridas. En primer lugar, las técnicas basadas en el control de posición se sirven de la posición del efector final del dispositivo háptico -dentro del espacio de trabajo físico- para, consecuentemente, situar su avatar virtual. En segundo lugar, las técnicas basadas en control de velocidad desplazan el avatar virtual en concordancia a la desviación del efector final y con respecto al centro del espacio de trabajo, como si de un joystick se tratara. Por último, las técnicas híbridas combinan el control de posición y el control de velocidad en una misma, añadiendo algún mecanismo que permite intercambiarlas.The techniques designed to control the interaction by haptic devices can be classified into three groups according to their mode of operation: based on position control, based on speed control and hybrid techniques. In the first place, techniques based on position control use the position of the end effector of the haptic device - within the physical workspace - to, consequently, position its virtual avatar. Second, techniques based on speed control move the virtual avatar according to the deviation of the end effector and with respect to the center of the workspace, as if it were a joystick. Finally, hybrid techniques combine position control and speed control in the same, adding a mechanism that allows them to be interchanged.

Dentro de las técnicas de interacción basadas en control de posición se encuentran el clutching [1] y el mapeado directo o escalado [2]. El clutching es una adaptación a los dispositivos hápticos de la técnica utilizada en los ratones de escritorio. Consiste en levantar el ratón y volverlo a posar en una posición más cómoda cuando con un solo movimiento no es posible alcanzar un área de interés. Aplicado a los dispositivos hápticos, consiste en desacoplar el movimiento del efector final del movimiento del avatar virtual mientras se presione, por ejemplo, un botón. De esta manera, es posible realizar repetidas veces tal maniobra y alcanzar así cualquier parte de la escena virtual con un dispositivo háptico que tenga un espacio de trabajo limitado. El mapeado directo o escalado, realiza una correspondencia entre el espacio de trabajo del dispositivo háptico y toda la escena virtual, estableciendo un factor de escala lo que implica que en escenas grandes un movimiento pequeño del dispositivo háptico produzca un gran movimiento en el avatar virtual, penalizando seriamente la precisión. Among the interaction techniques based on position control are clutching [1] and direct or scaled mapping [2]. Clutching is an adaptation to haptic devices of the technique used in desktop mice. It consists of lifting the mouse and putting it back in a more comfortable position when with a single movement it is not possible to reach an area of interest. Applied to haptic devices, it consists of decoupling the movement of the end effector from the movement of the virtual avatar while pressing, for example, a button. In this way, it is possible to repeatedly perform such a maneuver and thus reach any part of the virtual scene with a haptic device having a limited working space. The direct mapping or scaling, performs a correspondence between the workspace of the haptic device and the entire virtual scene, establishing a scale factor which implies that in large scenes a small movement of the haptic device produces a large movement in the virtual avatar, seriously penalizing accuracy.

Otra de las técnicas basadas en control de posición es la presentada por Conti & Khatib [3], consistente en recolocar continuamente el efector final hacia el centro del espacio de trabajo sin actualizar la realimentación visual. En otras palabras, mientras se está interaccionando con un objeto virtual, el efector final se va desplazando gradualmente—y con movimientos suaves— hacia el centro del espacio de trabajo físico, sin que ello repercuta de ninguna manera en su aspecto visual, y por ende, sin que el usuario se percate.Another technique based on position control is the one presented by Conti & Khatib [3], consisting of continuously repositioning the end effector towards the center of the workspace without updating the visual feedback. In other words, while interacting with a virtual object, the end effector gradually moves — and with smooth movements — towards the center of the physical workspace, without affecting its visual appearance in any way, and therefore , without the user noticing.

Las técnicas híbridas comprenden dos modos de funcionamiento: uno basado en control de posición y otro en control de velocidad. Estas técnicas se centran en resolver el problema del cambio de modo, como es el caso de la propuesta de Liu et al. [4]. En ella, se propone mantener un área neutra alrededor del centro del espacio de trabajo del dispositivo háptico. Así, al ejecutar el cambio de modo no se perturba la posición deseada por el usuario, ya que dicho cambio está asociado a la pulsación de un botón— lo que puede repercutir en un movimiento no deseado del efector final.Hybrid techniques comprise two modes of operation: one based on position control and the other based on speed control. These techniques focus on solving the problem of mode change, as is the case in the proposal by Liu et al. [4]. In it, it is proposed to maintain a neutral area around the center of the working space of the haptic device. Thus, when executing the mode change, the position desired by the user is not disturbed, since said change is associated with the pressing of a button — which can lead to unwanted movement of the end effector.

Por último, la denominada técnica de la burbuja también se encuadra dentro de las técnicas de interacción híbridas y consiste en dividir virtualmente el espacio de trabajo del dispositivo háptico en dos secciones: una burbuja interior y el resto del área de trabajo exterior. Se representa visualmente una burbuja semitransparente en el entorno virtual y, dentro de la burbuja, se consigue una buena precisión gracias a un mapeado 1:1; mientras que para poder alcanzar cualquier parte del entorno es necesario mover la burbuja. Para ello, realizando fuerza con el avatar virtual hacia afuera de la misma, ésta se moverá en la dirección del avatar, a mayor o menor velocidad dependiendo de la magnitud aplicada [5].Finally, the so-called bubble technique also falls within the hybrid interaction techniques and consists of virtually dividing the working space of the haptic device into two sections: an inner bubble and the rest of the outer working area. A semitransparent bubble is visually represented in the virtual environment and, within the bubble, good precision is achieved thanks to a 1: 1 mapping; while in order to reach any part of the environment it is necessary to move the bubble. To do this, making force with the virtual avatar out of it, it will move in the direction of the avatar, at a higher or lower speed depending on the applied magnitude [5].

Referencias bibliográficasBibliographic references

[1] Dominjon, L., Perret, J., & Lécuyer, A. (2007). Novel devices and interaction techniques for human-scale haptics. The Visual Computer, 23(4), 257-266.[1] Dominjon, L., Perret, J., & Lécuyer, A. (2007). Novel devices and interaction techniques for human-scale haptics. The Visual Computer, 23 (4), 257-266.

[2] Hirzinger, G., Brunner, B., Dietrich, J., & Heindl, J. (1993). Sensor-based space robotics-ROTEX and its telerobotic features. IEEE Transactions on robotics and automation, 9(5), 649­ 663.[2] Hirzinger, G., Brunner, B., Dietrich, J., & Heindl, J. (1993). Sensor-based space robotics-ROTEX and its telerobotic features. IEEE Transactions on robotics and automation, 9 (5), 649 663.

[3] Conti, F., & Khatib, O. (2005, March). Spanning large workspaces using small haptic devices. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 183-188). IEEE.[3] Conti, F., & Khatib, O. (2005, March). Spanning large workspaces using small haptic devices. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 183-188). IEEE.

[4] Liu, L., Liu, G., Zhang, Y., & Wang, D. (2014, August). A modified motion mapping method for haptic device based space teleoperation. In Robot and Human Interactive Communication, 2014 RO-MAN: The 23rd IEEE International Symposium on (pp. 449-453). IEEE.[4] Liu, L., Liu, G., Zhang, Y., & Wang, D. (2014, August). A modified motion mapping method for haptic device based space teleoperation. In Robot and Human Interactive Communication, 2014 RO-MAN: The 23rd IEEE International Symposium on (pp. 449-453). IEEE.

[5] Dominjon, L., Lecuyer, A., Burkhardt, J. M., Andrade-Barroso, G., & Richir, S. (2005, March). The" Bubble" technique: interacting with large virtual environments using haptic devices with limited workspace. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 639-640). IEEE.[5] Dominjon, L., Lecuyer, A., Burkhardt, J. M., Andrade-Barroso, G., & Richir, S. (2005, March). The "Bubble" technique: interacting with large virtual environments using haptic devices with limited workspace. In Eurohaptics Conference, 2005 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2005. World Haptics 2005. First Joint (pp. 639-640). IEEE.

DESCRIPCIÓN DE LA INVENCIÓNDESCRIPTION OF THE INVENTION

La invención se refiere a un método y sistema de interacción en entornos virtuales utilizando dispositivos hápticos. La invención propone un nuevo modelo de interacción para dispositivos hápticos que soluciona el principal problema de los mismos, su espacio de trabajo limitado, permitiendo utilizar este tipo de dispositivos con un área de trabajo limitada como principales elementos de interacción, consiguiendo un alto nivel de movilidad y precisión.The invention relates to a method and system of interaction in virtual environments using haptic devices. The invention proposes a new interaction model for haptic devices that solves their main problem, their limited work space, allowing the use of this type of device with a limited work area as the main interaction elements, achieving a high level of mobility. and precision.

La presente invención permite utilizar los dispositivos hápticos para una interacción natural y precisa con escenas virtuales. El modelo de interacción está basado en la realización de ampliaciones sobre una escena virtual inicial utilizando un dispositivo háptico (por lo que la ampliación realizada se puede denominar “zoom háptico”), lo que permite al operador realizar una primera fase de aproximación al área de interés de la escena para posteriormente activar el zoom háptico y disponer de una mayor precisión. Por tanto, dada una escena virtual en la que se utilice un dispositivo háptico, el zoom háptico consiste en realizar una o varias ampliaciones de la misma para conseguir un mayor nivel de precisión háptica.The present invention allows haptic devices to be used for natural and accurate interaction with virtual scenes. The interaction model is based on making enlargements on an initial virtual scene using a haptic device (so the enlargement carried out can be called “haptic zoom”), which allows the operator to carry out a first phase of approach to the area of interest of the scene to later activate the haptic zoom and have greater precision. Therefore, given a virtual scene in which a haptic device is used, the haptic zoom consists of making one or more enlargements of it to achieve a higher level of haptic precision.

En cada una de las escenas ampliadas, el espacio de trabajo disponible para el avatar virtual del dispositivo háptico se mapea directamente con el espacio que representa la escena virtual, permitiendo de esta manera que el avatar alcance cualquier lugar de la escena. Si el usuario requiere un mayor nivel de precisión sobre alguna zona de la escena, se activa el zoom háptico. Este hecho repercute en la realización de un zoom visual sobre el área de interés, dando lugar a una segunda escena. Con la nueva escena ya determinada, se mapea de nuevo el espacio de trabajo del dispositivo háptico con el espacio que representa la nueva escena, permitiendo una vez más que el avatar virtual alcance cualquier zona.In each of the enlarged scenes, the workspace available for the virtual avatar of the haptic device is mapped directly with the space that represents the virtual scene, thus allowing the avatar to reach anywhere in the scene. If the user requires a higher level of precision over any area of the scene, the haptic zoom is activated. This fact affects the realization of a visual zoom on the area of interest, giving rise to a second scene. With the new scene already determined, it is mapped again the workspace of the haptic device with the space that represents the new scene, once again allowing the virtual avatar to reach any zone.

El método de interacción en entornos virtuales de acuerdo a la presente invención comprende las siguientes etapas:The method of interaction in virtual environments according to the present invention comprises the following stages:

- Detectar una orden de zoom de una escena virtual inicial.- Detect a zoom command of an initial virtual scene.

- Generar, por parte de una unidad de procesamiento gráfico, una nueva escena virtual a partir de la escena virtual inicial con un nivel de ampliación modificado en función de la orden de zoom detectada.- Generate, by a graphic processing unit, a new virtual scene from the initial virtual scene with a magnification level modified according to the detected zoom order.

- Mapear el espacio de trabajo de un dispositivo háptico con el espacio que representa la nueva escena virtual.- Map the workspace of a haptic device with the space that represents the new virtual scene.

- Representar la nueva escena virtual en un dispositivo de visualización, preferentemente en un visor de realidad virtual (aunque también podría representarse en una pantalla).- Represent the new virtual scene on a display device, preferably in a virtual reality viewer (although it could also be represented on a screen).

La orden de zoom puede ser una instrucción que permite modificar progresivamente el nivel de ampliación de la escena virtual inicial o modificar puntualmente el nivel de ampliación de la escena virtual inicial según un determinado valor predefinido.The zoom command can be an instruction that makes it possible to progressively modify the magnification level of the initial virtual scene or to change the magnification level of the initial virtual scene according to a certain predefined value.

La detección de la orden de zoom la puede realizar el propio dispositivo háptico, preferentemente mediante la detección de la pulsación de un botón del dispositivo háptico. En este caso, el método comprende enviar la orden de zoom detectada a la unidad de procesamiento gráfico. Adicionalmente, o alternativamente, la detección de la orden de zoom se puede llevar a cabo mediante el reconocimiento de un comando de voz. Para este caso la detección la puede realizar directamente la unidad de procesamiento gráfico mediante el análisis de la señal capturada por un micrófono.Detection of the zoom command can be performed by the haptic device itself, preferably by detecting a button press on the haptic device. In this case, the method comprises sending the detected zoom command to the graphics processing unit. Additionally, or alternatively, the detection of the zoom command can be carried out by recognizing a voice command. In this case, detection can be performed directly by the graphic processing unit by analyzing the signal captured by a microphone.

Un segundo aspecto de la presente invención se refiere a un sistema de interacción en entornos virtuales que implementa el método anteriormente descrito. El sistema comprende un dispositivo háptico para interactuar con un entorno virtual, una unidad de procesamiento gráfico encargada de generar escenas del entorno virtual, y un dispositivo de visualización para representar las escenas virtuales generadas. La unidad de procesamiento gráfico está configurada para recibir una orden de zoom de una escena virtual inicial; generar, a partir de la escena virtual inicial, una nueva escena virtual con un nivel de ampliación modificado en función de la orden de zoom recibida; y mapear el espacio de trabajo del dispositivo háptico con el espacio que representa la nueva escena virtual.A second aspect of the present invention refers to an interaction system in virtual environments that implements the method described above. The system comprises a haptic device for interacting with a virtual environment, a graphic processing unit in charge of generating scenes from the virtual environment, and a display device for representing the virtual scenes generated. The graphics processing unit is configured to receive a zoom command of an initial virtual scene; generate, from the initial virtual scene, a new virtual scene with a magnification level modified by function of the zoom order received; and mapping the workspace of the haptic device with the space representing the new virtual scene.

Existen también diferentes maneras de aplicar el zoom háptico atendiendo a la localización de la ampliación y a la del avatar virtual.There are also different ways to apply the haptic zoom depending on the location of the magnification and that of the virtual avatar.

• Zoom centrado en el avatar virtual. En este modo de zoom se tomará la posición del avatar virtual como el centro de la escena tras la ampliación. Este modo de zoom implica la recolocación física del efector final del dispositivo háptico hacia el centro del espacio de trabajo para que concuerde con la representación en pantalla del mismo. Al realizar una ampliación de la escena centrada en el avatar virtual (puntero háptico), en la escena resultante el avatar virtual estará en el centro de la misma. Para hacer corresponder la escena con el dispositivo físico (efector), se debe recolocar el mismo automáticamente en el centro del espacio de trabajo, de tal forma que tanto el avatar virtual esté en el centro de la escena como el efector esté en el centro del espacio de trabajo. Esta correspondencia permitirá que con los movimientos permitidos por el espacio de trabajo (limitado) se alcance cualquier punto de la escena virtual. La recolocación automática se lleva a cabo mediante la aplicación de fuerzas del dispositivo háptico hacia el centro de su espacio de trabajo.• Zoom centered on the virtual avatar. In this zoom mode the position of the virtual avatar will be taken as the center of the scene after magnification. This zoom mode involves physically repositioning the end effector of the haptic device towards the center of the workspace to match the on-screen representation of the workspace. When making an enlargement of the scene centered on the virtual avatar (haptic pointer), in the resulting scene the virtual avatar will be in the center of it. To match the scene with the physical device (effector), it must be automatically repositioned in the center of the workspace, so that both the virtual avatar is in the center of the scene and the effector is in the center of the scene. work space. This correspondence will allow the movements allowed by the (limited) workspace to reach any point in the virtual scene. Automatic repositioning is accomplished by applying forces from the haptic device toward the center of your workspace.

• Zoom manteniendo las proporciones. En este modo de zoom se realiza un aumento en la escena manteniendo el avatar virtual a las mismas distancias en porcentaje de los bordes de la escena, por lo que no será necesaria una recolocación física del efector final.• Zoom keeping the proportions. In this zoom mode, the scene is magnified by keeping the virtual avatar at the same distances in percentage from the edges of the scene, so a physical repositioning of the end effector will not be necessary.

La presente invención soluciona un problema inherente a los dispositivos hápticos, su pequeño espacio de trabajo. Aplicar el modelo descrito por la invención en los dispositivos hápticos permite utilizarlos de una manera más natural y precisa como principales dispositivos de interacción en diferentes tipos de simulaciones de diferentes campos técnicos (sector médico, industria automovilística, industria aeroespacial, etc.).The present invention solves a problem inherent in haptic devices, their small workspace. Applying the model described by the invention to haptic devices allows them to be used in a more natural and precise way as main interaction devices in different types of simulations from different technical fields (medical sector, automobile industry, aerospace industry, etc.).

BREVE DESCRIPCIÓN DE LOS DIBUJOSBRIEF DESCRIPTION OF THE DRAWINGS

A continuación, se describen de manera muy breve una serie de figuras que ayudan a comprender mejor la invención y que se relacionan expresamente con una realización de dicha invención que se presenta como un ejemplo no limitativo de ésta.Next, a series of figures are very briefly described that help to better understand the invention and that expressly relate to an embodiment of said invention that is presented as a non-limiting example thereof.

Las Figuras 1A y 1B representan un diagrama de flujo del método de interacción en entornos virtuales de acuerdo a dos posibles realizaciones de la presente invención.Figures 1A and 1B represent a flow chart of the interaction method in environments virtual according to two possible embodiments of the present invention.

Las Figuras 2A y 2B muestran, de acuerdo a una posible realización, el sistema de interacción en entornos virtuales en funcionamiento, cuando el usuario realiza un zoom háptico.Figures 2A and 2B show, according to a possible embodiment, the interaction system in virtual environments in operation, when the user performs a haptic zoom.

La Figura 3 representa la relación entre las imágenes por segundo (trames) y el nivel de zoom aplicado.Figure 3 represents the relationship between the images per second ( frames) and the zoom level applied.

REALIZACIÓN PREFERENTE DE LA INVENCIÓNPREFERRED EMBODIMENT OF THE INVENTION

La presente invención se refiere a un método y sistema de interacción en entornos virtuales utilizando dispositivos hápticos.The present invention relates to a method and system of interaction in virtual environments using haptic devices.

La Figura 1A representa un esquema principal del método de interacción en entornos virtuales de acuerdo a la presente invención, a través del cual se realiza un zoom (ya sea de acercamiento o de alejamiento de la imagen) utilizando un dispositivo háptico. Este tipo de zoom habilitado por un dispositivo háptico se puede denominar “zoom háptico”. Figure 1A represents a main diagram of the interaction method in virtual environments according to the present invention, through which a zoom is performed (either to zoom in or out of the image) using a haptic device. This type of zoom enabled by a haptic device can be called "haptic zoom."

Un usuario realiza una acción que genera una orden de zoom 102 para ampliar o reducir una escena virtual inicial, que es la imagen mostrada al usuario a través de un visor de realidad virtual. La acción puede consistir, por ejemplo, en la pulsación de un botón de un dispositivo háptico. La orden de zoom es detectada 104 por el dispositivo háptico, el cual envía 106 la orden de zoom detectada a una unidad de procesamiento gráfico.A user performs an action that generates a zoom command 102 to enlarge or reduce an initial virtual scene, which is the image displayed to the user through a virtual reality viewer. The action may consist, for example, of pressing a button on a haptic device. The zoom command is detected 104 by the haptic device, which sends 106 the detected zoom command to a graphics processing unit.

A continuación, la unidad de procesamiento gráfico genera 108 una nueva escena virtual a partir de la escena virtual inicial con un nivel de ampliación modificado en función de la orden de zoom recibida, y mapea 110 el espacio de trabajo del dispositivo háptico con el espacio que representa la nueva escena virtual. Finalmente, la nueva escena virtual se representa 112 en un visor de realidad virtual (el cual estará normalmente portado por el mismo usuario).Next, the graphic processing unit generates 108 a new virtual scene from the initial virtual scene with a magnification level modified according to the received zoom order, and maps 110 the working space of the haptic device with the space that represents the new virtual scene. Finally, the new virtual scene is represented 112 in a virtual reality viewer (which will normally be carried by the same user).

La orden de zoom incluye al menos la información indicativa de si hay que realizar una ampliación o una reducción de la imagen inicial. Además, la orden de zoom puede contener información del nivel de zoom a aplicar sobre la escena virtual inicial, si bien dicha información está preferentemente prefijada en la unidad de procesamiento gráfico (e.g. mediante una variable almacenada en memoria y modificable por el usuario utilizando una aplicación). La orden de zoom también puede incluir información relativa a si se trata de un zoom puntual o un zoom continuo o progresivo que hay que aplicar a la escena virtual inicial. En el caso de zoom progresivo, la orden se envía preferentemente de manera continuada mientras el dispositivo háptico detecte la actuación del usuario (e.g. mientras el usuario mantenga apretado un botón). De esta forma, la unidad de procesamiento gráfico generará, según una tasa determinada de refresco, sucesivas imágenes (i.e. “frames”) ampliadas o reducidas a partir de la escena virtual inicial, según un nivel de ampliación entre imágenes sucesivas determinado, hasta que deje de recibir la orden de zoom. Debido al uso de una alta tasa de refresco (e.g. 30, 60 o 90 frames por segundo) y el cómputo acelerado de las imágenes sucesivas, el usuario percibe de manera fluida un zoom de la escena virtual inicial mientras realice la acción de orden de zoom (e.g. mientras mantenga un botón pulsado).The zoom order includes at least the information indicating whether to enlarge or reduce the initial image. Furthermore, the zoom order may contain information on the zoom level to be applied on the initial virtual scene, although said information is preferably preset in the graphic processing unit (eg by means of a variable stored in memory and modifiable by the user using an application. ). The zoom order can also include information regarding whether it is a point zoom or a continuous or progressive zoom to be applied to the initial virtual scene. In the case of progressive zoom, the command is preferably sent continuously as long as the haptic device detects the user's action (eg as long as the user holds down a button). In this way, the graphic processing unit will generate, according to a determined refresh rate, successive images (ie "frames") enlarged or reduced from the initial virtual scene, according to a certain level of enlargement between successive images, until it stops to receive the zoom command. Due to the use of a high refresh rate (eg 30, 60 or 90 frames per second) and the accelerated count of successive images, the user fluidly perceives a zoom of the initial virtual scene while performing the zoom command action (eg as long as you hold down a button).

La Figura 1B representa un esquema del método de interacción en entornos virtuales de acuerdo a otra posible realización. Esta realización difiere de la realización anterior en el modo de detección de la orden de zoom. En el caso de la Figura 1A, la detección 104 es realizada por el dispositivo háptico, mediante la detección de la pulsación de un botón del dispositivo háptico. En la realización de la Figura 1B la detección 105 la realiza la unidad de procesamiento gráfico mediante la detección de un comando de voz del usuario capturado por un micrófono. Figure 1B represents a diagram of the interaction method in virtual environments according to another possible embodiment. This embodiment differs from the previous embodiment in the zoom command detection mode. In the case of Figure 1A, detection 104 is performed by the haptic device, by detecting a button press on the haptic device. In the embodiment of Figure 1B detection 105 is performed by the graphic processing unit by detecting a voice command from the user captured by a microphone.

En la Figura 2A se muestran los distintos elementos del sistema de interacción en entornos virtuales de acuerdo a una posible realización de la presente invención. En particular, el sistema comprende un dispositivo háptico 204 para que el usuario interactúe con un entorno virtual, una unidad de procesamiento gráfico 206 encargada de generar escenas del entorno virtual, y un dispositivo de visualización 208 para representar las escenas virtuales generadas. De acuerdo a la realización mostrada en la Figura 2A, el dispositivo de visualización es un visor de realidad virtual 208, si bien puede ser también una pantalla normal (e.g. un monitor, un televisor). Figure 2A shows the different elements of the interaction system in virtual environments according to a possible embodiment of the present invention. In particular, the system comprises a haptic device 204 for the user to interact with a virtual environment, a graphic processing unit 206 responsible for generating scenes from the virtual environment, and a display device 208 for representing the virtual scenes generated. According to the embodiment shown in Figure 2A, the display device is a virtual reality viewer 208, although it can also be a normal screen (eg a monitor, a television).

Según la realización de la Figura 2A, la unidad de procesamiento gráfico 206 es una entidad separada e independiente del visor de realidad virtual 208. Dicha unidad de procesamiento gráfico se puede implementar, por ejemplo, mediante un ordenador conectado por cable 210 (o por conexión inalámbrica a alta frecuencia según las recientes tecnologías, e.g. WiGig) al visor de realidad virtual 208. Sin embargo, en otra realización (no mostrada en las figuras) la unidad de procesamiento gráfico 206 y el visor de realidad virtual 208 pueden ser la misma entidad, esto es, la unidad de procesamiento gráfico 206 puede estar integrada en el propio visor de realidad virtual 208 autónomo (e.g. Oculus Go). En otra realización, la unidad de procesamiento gráfico 206 y el dispositivo de visualización pueden estar implementados en un teléfono móvil inteligente que se acopla a un soporte (e.g. casco de realidad virtual Samsung Gear VR) para su correcta utilización.According to the embodiment of Figure 2A, the graphic processing unit 206 is a separate and independent entity from the virtual reality viewer 208. Said graphic processing unit can be implemented, for example, by a computer connected by cable 210 (or by connection high-frequency wireless according to recent technologies, eg WiGig) to the virtual reality viewer 208. However, in another embodiment (not shown in the figures) the graphic processing unit 206 and the virtual reality viewer 208 may be the same entity , that is, the graphics processing unit 206 may be integrated into the stand-alone virtual reality headset 208 (eg Oculus Go). In another embodiment, the graphic processing unit 206 and the display device can be implemented in a smart mobile phone that is attached to a support (eg Samsung Gear VR virtual reality headset) for correct use.

El dispositivo háptico 204 está configurado para detectar una orden de zoom para ampliar o reducir una escena virtual inicial 212, representada a modo de ejemplo en la figura. La orden de zoom puede ser detectada por el dispositivo háptico 204 mediante la detección de la pulsación, realizada por un usuario 202, de un botón 205 del dispositivo háptico 204. El dispositivo háptico 204 envía 106, preferentemente de manera inalámbrica, la orden de zoom detectada (y convenientemente procesada) a la unidad de procesamiento gráfico 206.The haptic device 204 is configured to detect a zoom command to enlarge or reduce an initial virtual scene 212, shown by way of example in the figure. The zoom command can be detected by the haptic device 204 by detecting the pressing, by a user 202, of a button 205 of the haptic device 204. The haptic device 204 sends 106, preferably wirelessly, the zoom command detected (and suitably processed) to graphics processing unit 206.

Según se muestra en la Figura 2B, la unidad de procesamiento gráfico 206 genera, a partir de la escena virtual inicial 212, una nueva escena virtual 216 con un nivel de ampliación modificado en función de la orden de zoom recibida (en el ejemplo, la orden de zoom es de ampliación, pero podría ser en su lugar de reducción). Tal y como se ha indicado anteriormente, el nivel de ampliación o reducción a aplicar (e.g. 1.5x, 2x, 4x,...) puede estar predeterminado por la unidad de procesamiento gráfico 206 (e.g. un dato almacenado en memoria) o puede ser un dato incluido en la propia orden de zoom enviada 106. El zoom a realizar puede ser puntual o progresivo, en función de la orden de zoom enviada 106 (por ejemplo, la orden de zoom puede incluir un campo que determina el tipo de zoom a aplicar, si puntual o progresivo). A partir de entonces, la unidad de procesamiento gráfico 206 mapea el espacio de trabajo del dispositivo háptico 204 (las coordenadas espaciales donde se mueve el dispositivo háptico) con el espacio que representa la nueva escena virtual 216.As shown in Figure 2B , the graphic processing unit 206 generates, from the initial virtual scene 212, a new virtual scene 216 with a magnification level modified as a function of the received zoom order (in the example, the zoom order is magnification, but it could be reduction instead). As indicated above, the level of enlargement or reduction to be applied (eg 1.5x, 2x, 4x, ...) may be predetermined by the graphic processing unit 206 (eg a data stored in memory) or it may be data included in the zoom order sent 106. The zoom to be performed can be one-off or progressive, depending on the zoom order sent 106 (for example, the zoom order can include a field that determines the type of zoom to apply, if punctual or progressive). Thereafter, the graphics processing unit 206 maps the working space of the haptic device 204 (the spatial coordinates where the haptic device moves) with the space representing the new virtual scene 216.

De acuerdo a una realización, la unidad de procesamiento gráfico 206 puede estar configurada para efectuar un zoom en la escena virtual inicial 212 centrado en un avatar virtual, recolocando el dispositivo háptico 204 hacia el centro del espacio de trabajo.According to one embodiment, the graphics processing unit 206 may be configured to zoom into the initial virtual scene 212 centered on a virtual avatar, repositioning the haptic device 204 towards the center of the workspace.

En otra realización, se aplica un zoom en el que se mantienen las proporciones desde un avatar virtual a los bordes de la escena. En esta realización la unidad de procesamiento gráfico 206 efectúa un zoom en la escena virtual inicial manteniendo a un avatar virtual 214 (representado con un aspa) a la misma distancia (Dx, Dy) de los bordes de la escena virtual, tal y como se representa en el ejemplo de las Figuras 2A y 2B, donde las líneas punteadas representan la distancia en porcentaje desde el avatar 214 a los bordes de la escena. Tras la activación del zoom háptico, se comprueba cómo el avatar 214 se mantiene a la misma distancia en porcentaje de los bordes de la escena, lo que representa que tanto el efector final (i.e. el dispositivo físico que maneja el usuario con la mano) como el puntero háptico (i.e. la representación del efector final en el entorno virtual) del dispositivo háptico mantienen su posición.In another embodiment, a zoom is applied in which the proportions are maintained from a virtual avatar to the edges of the scene. In this embodiment, the graphic processing unit 206 zooms in on the initial virtual scene, keeping a virtual avatar 214 (represented with a cross) at the same distance (Dx, Dy) from the edges of the virtual scene, as shown. represents in the example of Figures 2A and 2B, where the dotted lines represent the distance in percentage from the avatar 214 to the edges of the scene. Behind the activation of the haptic zoom, it is verified how the avatar 214 is kept at the same distance in percentage from the edges of the scene, which represents that both the end effector (ie the physical device that the user handles with the hand) and the pointer haptic (ie the representation of the end effector in the virtual environment) of the haptic device maintain their position.

En función de la orden de zoom recibida o de la configuración de la unidad de procesamiento gráfico 206, el zoom háptico ejecutado puede ser un zoom puntual, de forma que cada pulsación del botón 205 del dispositivo háptico 204 conlleva la realización de un zoom en la escena con un determinado valor predefinido, o un zoom continuo, donde al mantener pulsado el botón 205 del dispositivo háptico 204 se aplicará un zoom progresivo sobre la escena hasta que el usuario deje de presionar el botón, momento en el que se considera alcanzado el nivel de ampliación deseado.Depending on the zoom order received or the configuration of the graphic processing unit 206, the executed haptic zoom can be a point zoom, so that each press of the button 205 of the haptic device 204 leads to a zoom in the image. scene with a certain predefined value, or a continuous zoom, where by holding down the button 205 of the haptic device 204, a progressive zoom will be applied to the scene until the user stops pressing the button, at which point the level is considered reached. desired magnification.

La Figura 3 muestra, para la ejecución de un zoom continuo, el cálculo del nivel de ampliación sobre la escena original que debe tener cada trame durante 1 segundo, tanto a 30 trames por segundo (parte superior de la Figura 3) como a 60 trames por segundo (parte inferior de la Figura 3). Figure 3 shows, for the execution of a continuous zoom, the calculation of the magnification level on the original scene that each frame should have during 1 second, both at 30 frames per second (upper part of Figure 3) and at 60 frames per second (bottom of Figure 3).

Dada una escena inicial eo y una posición del avatar virtual p medida en porcentaje a los bordes de la escena, el zoom háptico se activa cuando el usuario mantenga presionado uno de los botones 205 del dispositivo háptico 204. Para conseguir un nivel aceptable de fluidez en la ampliación se realizan como mínimo 30 pequeñas ampliaciones del zoom en cada segundo, siendo 60 el número de actualizaciones por segundo deseadas. Partiendo de la escena inicial eo con un valor de ampliación 1.0 y una tasa de refresco de 30 ampliaciones por segundo, el valor que debe tomar el zoom en la escena posterior, escena ei, es:Given an initial scene eo and a position of the virtual avatar p measured in percentage to the edges of the scene, the haptic zoom is activated when the user holds down one of the buttons 205 of the haptic device 204. To achieve an acceptable level of fluidity in enlargement At least 30 small zoom enlargements are made every second, with 60 being the number of updates per second desired. Starting from the initial scene eo with a magnification value of 1.0 and a refresh rate of 30 enlargements per second, the value that the zoom should take in the subsequent scene, scene ei, is:

a x zoom(e0) a x zoom ( e0)

zoom(e1) = zoom(e0) ----------—-------- zoom ( e1) = zoom ( e0) --------------------

La fórmula general para el cálculo del nivel de zoom para una escena genérica e, a partir de la escena anterior e-i, es:The general formula for calculating the zoom level for a generic scene e, from the previous scene ei, is:

a x zoom(ei_1) ax zoom ( ei_1)

zoom(ei) = zoom(ei_1) + zoom ( ei) = zoom ( ei_1) +

fps fps

En la fórmula anterior a es una constante y fps es la tasa de refresco (en frames por segundo). En una realización preferida a =0,3. Al aplicar dicha fórmula consecutivamente durante 30 iteraciones (un segundo) sobre la escena inicial, con nivel de zoom inicial de 1.0 ( zoom(e0) = 1.0), se obtiene un nivel de zoom final de 1.3478, por lo que la escena inicial eo en un segundo habrá experimentado un nivel de ampliación del 34.78% ( zoom(e30) = 1.3478). Para el ejemplo de 60 fps, el zoom final es de 34.88% ( zoom(e60) = 1.3488).In the above formula a is a constant and fps is the frame rate (in frames per second). In a preferred embodiment a = 0.3. By applying this formula consecutively for 30 iterations (one second) on the initial scene, with an initial zoom level of 1.0 ( zoom ( e0) = 1.0 ), a final zoom level of 1.3478 is obtained, so that the initial scene eo in a second you will have experienced a magnification level of 34.78% ( zoom ( e30) = 1.3478 ). For the 60fps example, the final zoom is 34.88% ( zoom ( e60) = 1.3488 ).

Una vez calculado el valor del zoom de cada escena e¡, se aplicará ese nivel de zoom sobre la escena anterior en, de tal manera que la escena resultante e¡conserve el avatar virtual a la misma distancia en porcentaje de los bordes de la escena que la escena anterior e¡-i. Once the zoom value of each scene has been calculated, that level of zoom will be applied to the previous scene in, in such a way that the resulting scene e ¡keeps the virtual avatar at the same distance in percentage from the edges of the scene than the previous scene e¡-i.

Existen diferentes maneras de activar el zoom háptico atendiendo a las posibilidades físicas (e.g. botones) de los que disponga el dispositivo háptico en cuestión. Dada la diferente disponibilidad de botones en los diferentes dispositivos hápticos de escritorio presentes en el mercado, la activación del zoom háptico (ya sea en modo de zoom puntual o en modo de zoom continuo) se puede realizar de varias maneras:There are different ways to activate the haptic zoom according to the physical possibilities (e.g. buttons) available to the haptic device in question. Given the different availability of buttons on the different desktop haptic devices on the market, the activation of the haptic zoom (either in point zoom mode or in continuous zoom mode) can be done in several ways:

- Dispositivos hápticos con un único botón:- Single button haptic devices:

• Zoom puntual (niveles constantes de zoom): Cada pulsación del botón del dispositivo háptico conlleva la realización de un zoom en la escena con un determinado valor predefinido. Deshacer un nivel de zoom podrá llevarse a cabo con una doble pulsación rápida del botón.• Spot zoom (constant zoom levels): Each press of the button on the haptic device zooms the scene to a certain preset value. Undoing a zoom level can be done with a quick double press of the button.

• Zoom continuo: Manteniendo pulsado el botón del dispositivo háptico se aplicará un zoom progresivo sobre la escena hasta que el usuario deje de presionar el botón, momento en el que se considera alcanzado el nivel de ampliación deseado. La acción que activará el zoom reverso será una doble pulsación del botón del dispositivo háptico manteniendo pulsado el botón tras la segunda pulsación.• Continuous zoom: By holding down the button on the haptic device, a progressive zoom will be applied to the scene until the user stops pressing the button, at which point the desired magnification level is considered reached. The action that will activate the reverse zoom will be a double press of the button on the haptic device while holding the button down after the second press.

- Dispositivos hápticos con al menos dos botones:- Haptic devices with at least two buttons:

• Zoom puntual (niveles constantes de zoom): Cada pulsación de uno de los botones del dispositivo háptico conllevará la realización de un zoom en la escena con un determinado valor predefinido. Deshacer un nivel de zoom podrá realizarse con una pulsación sobre el otro de los botones.• Spot zoom (constant zoom levels): Each press of one of the buttons on the haptic device will zoom the scene with a certain preset value. Undoing a zoom level can be done by pressing the other button.

• Zoom continuo: Manteniendo pulsado uno de los botones del dispositivo háptico se aplicará un zoom progresivo sobre la escena hasta que el usuario deje de presionar el botón, que será cuando se haya alcanzado el nivel de ampliación deseado. La acción que activará el zoom reverso será el mantener pulsado el otro botón del dispositivo háptico.• Continuous zoom: By holding down one of the buttons on the haptic device, a progressive zoom will be applied on the scene until the user stops pressing the button, which will be when the magnification level has been reached. wanted. The action that will activate the reverse zoom will be to press and hold the other button on the haptic device.

- Dispositivos hápticos sin botones: Mediante órdenes de voz el usuario puede aplicar, de forma constante o continua, tanto aumentos como decrementos al nivel de zoom. Las órdenes de voz son capturadas a través de un micrófono conectado a la unidad de procesamiento gráfico 206 (e.g. un ordenador o el propio visor de realidad virtual) encargada de representar el entorno virtual. La unidad de procesamiento gráfico 206 recibe, analiza y ejecuta los comandos de voz, aplicando la acción correspondiente sobre la escena virtual (i.e. activando el zoom háptico en la representación virtual).- Haptic devices without buttons: Using voice commands, the user can apply, constantly or continuously, both increases and decreases to the zoom level. The voice commands are captured through a microphone connected to the graphic processing unit 206 (e.g. a computer or the virtual reality viewer itself) in charge of representing the virtual environment. The graphic processing unit 206 receives, analyzes and executes the voice commands, applying the corresponding action on the virtual scene (i.e. activating the haptic zoom in the virtual representation).

La implementación del zoom háptico más adecuada es aquella en la que se utiliza un dispositivo háptico de escritorio con al menos dos botones como método de interacción aplicando un zoom continuo en el que se mantienen las proporciones desde el avatar a los bordes de la escena. The most suitable haptic zoom implementation is one in which a desktop haptic device with at least two buttons is used as the interaction method applying a continuous zoom in which the proportions from the avatar to the edges of the scene are maintained.

Claims (20)

REIVINDICACIONES 1. Método de interacción en entornos virtuales, caracterizado por que comprende:1. Method of interaction in virtual environments, characterized by comprising: detectar (104, 105) una orden de zoom de una escena virtual inicial (212);detecting (104, 105) a zoom command of an initial virtual scene (212); generar (108), por parte de una unidad de procesamiento gráfico (206), una nueva escena virtual (216) a partir de la escena virtual inicial (212) con un nivel de ampliación modificado en función de la orden de zoom detectada;generating (108), by a graphic processing unit (206), a new virtual scene (216) from the initial virtual scene (212) with a magnification level modified as a function of the detected zoom order; mapear (110) el espacio de trabajo de un dispositivo háptico (204) de realimentación de fuerzas con el espacio que representa la nueva escena virtual (216);mapping (110) the workspace of a haptic force feedback device (204) with the space representing the new virtual scene (216); representar (112) la nueva escena virtual (216).represent (112) the new virtual scene (216). 2. Método según la reivindicación 1, caracterizado por que la orden de zoom es una instrucción para modificar puntualmente el nivel de ampliación de la escena virtual inicial (212) según un determinado valor predefinido.Method according to claim 1, characterized in that the zoom command is an instruction to punctually modify the magnification level of the initial virtual scene (212) according to a certain predefined value. 3. Método según la reivindicación 1, caracterizado por que la orden de zoom es una instrucción para modificar progresivamente el nivel de ampliación de la escena virtual inicial (212),3. Method according to claim 1, characterized in that the zoom command is an instruction to progressively modify the magnification level of the initial virtual scene (212), donde el nivel de zoom aplicado a una escena ei se calcula a partir del nivel de zoom aplicado en una escena anterior e ^ según la siguiente fórmula:where the zoom level applied to a scene ei is calculated from the zoom level applied to a previous scene e ^ according to the following formula: a x zoom{ei_1)a x zoom {ei_1) zoom(ei) = zoom{ei_1) ------------------------- zoom ( ei) = zoom {ei_1) ------------------------- dondewhere zoom (e) es el nivel de zoom de la escena e¡, zoom ( e) is the zoom level of the scene e, zoom (e¡-i) es el nivel de zoom de la escena anterior e-i, zoom ( e¡-i) is the zoom level of the previous scene ei, a es una constante, a is a constant, fps es la tasa de refresco. fps is the frame rate. 4. Método según cualquiera de las reivindicaciones anteriores, caracterizado por que la detección (104) de la orden de zoom se realiza por parte del dispositivo háptico (204);Method according to any of the preceding claims, characterized in that the detection (104) of the zoom command is carried out by the haptic device (204); donde el método comprende enviar (106) la orden de zoom detectada a la unidad de procesamiento gráfico (206).wherein the method comprises sending (106) the detected zoom command to the graphic processing unit (206). 5. Método según la reivindicación 4, caracterizado por que la detección (104) de la orden de zoom comprende la detección de la pulsación de un botón (205) del dispositivo háptico (204). Method according to claim 4, characterized in that the detection (104) of the zoom command comprises the detection of the pressing of a button (205) of the haptic device (204). 6. Método según cualquiera de las reivindicaciones 1 a 3, caracterizado por que la detección (105) de la orden de zoom comprende la detección de un comando de voz.Method according to any one of claims 1 to 3, characterized in that the detection (105) of the zoom command comprises the detection of a voice command. 7. Método según cualquiera de las reivindicaciones 1 a 6, caracterizado por que el zoom efectuado en la escena virtual inicial (212) está centrado en un avatar virtual (214), donde el método comprende la recolocación del dispositivo háptico hacia el centro del espacio de trabajo.7. Method according to any of claims 1 to 6, characterized in that the zoom carried out in the initial virtual scene (212) is centered on a virtual avatar (214), where the method comprises repositioning the haptic device towards the center of space of work. 8. Método según cualquiera de las reivindicaciones 1 a 6, caracterizado por que el zoom efectuado en la escena virtual inicial (212) mantiene a un avatar virtual (214) a la misma distancia en porcentaje de los bordes de la escena virtual.Method according to any one of claims 1 to 6, characterized in that the zoom performed in the initial virtual scene (212) keeps a virtual avatar (214) at the same distance in percentage from the edges of the virtual scene. 9. Método según cualquiera de las reivindicaciones anteriores, caracterizado por que la nueva escena virtual (216) se representa (112) en un visor de realidad virtual (208).9. Method according to any of the preceding claims, characterized in that the new virtual scene (216) is represented (112) in a virtual reality viewer (208). 10. Método según cualquiera de las reivindicaciones anteriores, caracterizado por que la nueva escena virtual (216) se representa (112) en una pantalla.Method according to any of the preceding claims, characterized in that the new virtual scene (216) is represented (112) on a screen. 11. Sistema de interacción en entornos virtuales, que comprende:11. Interaction system in virtual environments, comprising: un dispositivo háptico (204) de realimentación de fuerzas para interactuar con un entorno virtual,a haptic force feedback device (204) to interact with a virtual environment, una unidad de procesamiento gráfico (206) encargada de generar escenas del entorno virtual,a graphic processing unit (206) in charge of generating scenes of the virtual environment, un dispositivo de visualización para representar las escenas virtuales generadas, a display device to represent the virtual scenes generated, caracterizado por que la unidad de procesamiento gráfico (206) está configurada para:characterized in that the graphic processing unit (206) is configured to: recibir una orden de zoom de una escena virtual inicial (212);receiving a zoom command of an initial virtual scene (212); generar, a partir de la escena virtual inicial (212), una nueva escena virtual (216) con un nivel de ampliación modificado en función de la orden de zoom recibida;generating, from the initial virtual scene (212), a new virtual scene (216) with a magnification level modified as a function of the received zoom order; mapear el espacio de trabajo del dispositivo háptico (204) con el espacio que representa la nueva escena virtual (216). mapping the workspace of the haptic device (204) with the space representing the new virtual scene (216). 12. Sistema según la reivindicación 11, caracterizado por que la orden de zoom es una instrucción para modificar puntualmente el nivel de ampliación de la escena virtual inicial (212),System according to claim 11, characterized in that the zoom command is an instruction to punctually modify the magnification level of the initial virtual scene (212), donde la unidad de procesamiento gráfico (206) está configurada para ampliar o reducir, en función de la orden de zoom, la escena virtual inicial (212) con un nivel de ampliación predefinido.wherein the graphic processing unit (206) is configured to enlarge or reduce, depending on the zoom order, the initial virtual scene (212) with a predefined magnification level. 13. Sistema según la reivindicación 11, caracterizado por que la orden de zoom es una instrucción para modificar progresivamente el nivel de ampliación de la escena virtual inicial (212),System according to claim 11, characterized in that the zoom command is an instruction to progressively modify the magnification level of the initial virtual scene (212), donde la unidad de procesamiento gráfico (206) está configurada para ampliar o reducir, en función de la orden de zoom, de forma progresiva la escena virtual inicial (212) según una tasa de refresco determinada,where the graphic processing unit (206) is configured to progressively enlarge or reduce, as a function of the zoom order, the initial virtual scene (212) according to a determined refresh rate, y donde la unidad de procesamiento gráfico (206) está configurada para calcular el nivel de zoom aplicado a una escena ei a partir del nivel de zoom aplicado en una escena anterior ei_1 según la siguiente fórmula:and where the graphic processing unit (206) is configured to calculate the zoom level applied to a scene ei from the zoom level applied to a previous scene ei_1 according to the following formula: a x zoom(ei_1) ax zoom ( ei_1) zoom(ei ) = zoom(ei_1) ----------------------- zoom ( ei ) = zoom ( ei_1) ----------------------- dondewhere zoom (e) es el nivel de zoom de la escena e¡, zoom ( e) is the zoom level of the scene e, zoom (e¡-i) es el nivel de zoom de la escena anterior e-i, zoom ( e¡-i) is the zoom level of the previous scene ei, a es una constante, a is a constant, fps es la tasa de refresco. fps is the frame rate. 14. Sistema según cualquiera de las reivindicaciones 11 a 13, caracterizado por que el dispositivo háptico (204) está configurado para detectar (104) una orden de zoom de una escena virtual inicial (212) y enviar (106) la orden de zoom a la unidad de procesamiento gráfico (206).System according to any one of claims 11 to 13, characterized in that the haptic device (204) is configured to detect (104) a zoom command of an initial virtual scene (212) and send (106) the zoom command to the graphics processing unit (206). 15. Sistema según la reivindicación 14, caracterizado por que el dispositivo háptico (204) está configurado para detectar (104) la orden de zoom mediante la detección de la pulsación de un botón (205) del dispositivo háptico (204). System according to claim 14, characterized in that the haptic device (204) is configured to detect (104) the zoom command by detecting the pressing of a button (205) of the haptic device (204). 16. Sistema según cualquiera de las reivindicaciones 11 a 13, caracterizado por que la unidad de procesamiento gráfico (206) está configurada para detectar (105) la orden de zoom mediante la detección de un comando de voz capturado por un micrófono.16. System according to any of claims 11 to 13, characterized in that the graphics processing unit (206) is configured to detect (105) the zoom command by detecting a voice command captured by a microphone. 17. Sistemas según cualquiera de las reivindicaciones 11 a 16, caracterizado por que la unidad de procesamiento gráfico (206) está configurada para:17. Systems according to any of claims 11 to 16, characterized in that the graphic processing unit (206) is configured to: efectuar un zoom en la escena virtual inicial centrado en un avatar virtual (214), y recolocar del dispositivo háptico (204) hacia el centro del espacio de trabajo.zooming in on the initial virtual scene centered on a virtual avatar (214), and repositioning the haptic device (204) toward the center of the workspace. 18. Sistema según cualquiera de las reivindicaciones 11 a 16, caracterizado por que la unidad de procesamiento gráfico (206) está configurada para efectuar un zoom en la escena virtual inicial manteniendo a un avatar virtual (214) a la misma distancia en porcentaje de los bordes de la escena virtual.System according to any one of claims 11 to 16, characterized in that the graphic processing unit (206) is configured to zoom in on the initial virtual scene, keeping a virtual avatar (214) at the same distance in percentage of the edges of the virtual scene. 19. Sistema según cualquiera de las reivindicaciones 11 a 18, caracterizado por que el dispositivo de visualización es un visor de realidad virtual (208).19. System according to any of claims 11 to 18, characterized in that the display device is a virtual reality viewer (208). 20. Sistema según cualquiera de las reivindicaciones 11 a 18, caracterizado por que el dispositivo de visualización es una pantalla. 20. System according to any of claims 11 to 18, characterized in that the display device is a screen.
ES201830941A 2018-09-28 2018-09-28 INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES Active ES2716012B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES201830941A ES2716012B2 (en) 2018-09-28 2018-09-28 INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201830941A ES2716012B2 (en) 2018-09-28 2018-09-28 INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES

Publications (2)

Publication Number Publication Date
ES2716012A1 ES2716012A1 (en) 2019-06-07
ES2716012B2 true ES2716012B2 (en) 2020-07-22

Family

ID=66676931

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201830941A Active ES2716012B2 (en) 2018-09-28 2018-09-28 INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES

Country Status (1)

Country Link
ES (1) ES2716012B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2807674B2 (en) * 2020-10-29 2021-09-29 Univ Leon PROGRAM METHOD, SYSTEM AND PRODUCT FOR INTERACTION IN VIRTUAL REALITY ENVIRONMENTS THROUGH HAPTIC DESKTOP FORCES FEEDBACK DEVICE

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5129478B2 (en) * 2006-03-24 2013-01-30 株式会社デンソーアイティーラボラトリ Screen display device
US8662900B2 (en) * 2009-06-04 2014-03-04 Zimmer Dental Inc. Dental implant surgical training simulation system
US20130300740A1 (en) * 2010-09-13 2013-11-14 Alt Software (Us) Llc System and Method for Displaying Data Having Spatial Coordinates
CA3018758A1 (en) * 2016-03-31 2017-10-05 Magic Leap, Inc. Interactions with 3d virtual objects using poses and multiple-dof controllers
US10754416B2 (en) * 2016-11-14 2020-08-25 Logitech Europe S.A. Systems and methods for a peripheral-centric augmented/virtual reality environment

Also Published As

Publication number Publication date
ES2716012A1 (en) 2019-06-07

Similar Documents

Publication Publication Date Title
US10384348B2 (en) Robot apparatus, method for controlling the same, and computer program
US20220151716A1 (en) Association processes and related systems for manipulators
JP7283506B2 (en) Information processing device, information processing method, and information processing program
EP2755194B1 (en) 3d virtual training system and method
CN116324680A (en) Method for manipulating objects in an environment
CN109906424B (en) Input controller stabilization techniques for virtual reality systems
JP2017027206A (en) Information processing apparatus, virtual object operation method, computer program, and storage medium
JP2014203463A5 (en)
US10606342B2 (en) Handsfree user input method for controlling an immersive virtual environment application
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
CN110913786A (en) Touch screen user interface for interacting with virtual models
CN109648568A (en) Robot control method, system and storage medium
KR102666191B1 (en) Center of gravity shifting force device
US11688148B2 (en) Methods and systems for selection of objects
ES2716012B2 (en) INTERACTION SYSTEM AND METHOD IN VIRTUAL ENVIRONMENTS USING HAPTIC DEVICES
JP6174646B2 (en) Computer program for 3-axis operation of objects in virtual space
US20220308658A1 (en) Head-mounted information processing apparatus and its controlling method
WO2018074054A1 (en) Display control device, display control method, and program
WO2021166717A1 (en) Display control device, display control method, and recording medium
KR20100024631A (en) Three-dimensional control system specialized navigation system and method thereof
CN205889192U (en) Intelligence indoor navigation robot
KR101586895B1 (en) Method and apparatus for selecting 3-dimensional volume and medical imaging device using the same
JPH09244853A (en) Virtual body display device
JPH0683935A (en) Three-dimensional pointing assistance system
JP2012164161A (en) Object correction processing apparatus, method, and program

Legal Events

Date Code Title Description
BA2A Patent application published

Ref document number: 2716012

Country of ref document: ES

Kind code of ref document: A1

Effective date: 20190607

FG2A Definitive protection

Ref document number: 2716012

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20200722