WO2019188229A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- WO2019188229A1 WO2019188229A1 PCT/JP2019/009855 JP2019009855W WO2019188229A1 WO 2019188229 A1 WO2019188229 A1 WO 2019188229A1 JP 2019009855 W JP2019009855 W JP 2019009855W WO 2019188229 A1 WO2019188229 A1 WO 2019188229A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- view
- angle
- information processing
- state
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6812—Motion detection based on additional sensors, e.g. acceleration sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Definitions
- the present technology relates to an information processing device, an information processing method, and a program, and more particularly, to an information processing device, an information processing method, and a program that can suppress VR sickness while enhancing an immersive feeling.
- Patent Literature 1 discloses a technique for performing a correction to reversely rotate an image in accordance with a change in line-of-sight direction in order to suppress screen shaking caused by rotational movement of an imaging device attached to the head. ing.
- Patent Document 2 discloses a technique for presenting a force sense corresponding to a change in an image viewed by a user to the head of the user wearing an HMD (Head-Mounted Display). .
- VR Virtual Reality
- the present technology has been made in view of such a situation, and is capable of suppressing VR sickness while enhancing an immersive feeling.
- An information processing apparatus includes a video generation unit that generates a video in which an angle of view of a virtual camera corresponding to the user's field of view in a virtual space is controlled based on a posture of a user's head, and the video generation The unit is based on the acceleration direction of the user from the first angle of view when the user is in the non-accelerated state, when the user is in the accelerated state in the virtual space. Change to the second angle of view.
- the information processing apparatus generates an image in which the angle of view of the virtual camera corresponding to the user's field of view in the virtual space is controlled based on the posture of the user's head, and the virtual space
- the angle of view of the virtual camera is changed from a first angle of view when the user is in a non-acceleration state to a second angle of view based on the acceleration direction of the user.
- the program of the present technology generates a video in which the angle of view of the virtual camera corresponding to the field of view of the user in the virtual space is controlled based on the posture of the user's head on the computer.
- an image in which the angle of view of the virtual camera corresponding to the field of view of the user in the virtual space is controlled is generated, and the user is in an accelerated state in the virtual space. Then, the angle of view of the virtual camera is changed from a first angle of view when the user is in a non-accelerated state to a second angle of view based on the acceleration direction of the user.
- the video presentation system to which the technology according to the present disclosure (present technology) is applied presents a video using the rebound reflection of the visual to return to the original posture of the human.
- the bounce reflex is one of the posture reflexes that an animal tries to maintain its posture. Humans try to maintain the position of the head normally by inducing a visual stimulus as a rebounding visual reflex.
- FIG. 1 is a diagram showing an outline of video presentation by a video presentation system to which the present technology is applied.
- 1A to 1C show a state where the user U1 wears the HMD 10 on the head and views the video.
- the HMD 10 is configured as a VR display device and includes a non-transmissive display unit 11.
- the display unit 11 presents an image that is a field of view of the user U1 in a virtual space (hereinafter referred to as a VR space).
- a VR space a virtual space
- the video captured by the virtual camera VC corresponding to the field of view of the user U1 in the VR space is presented on the display unit 11.
- the video presented on the display unit 11 is a first-person viewpoint video including a state in which the user U1 moves at a predetermined acceleration in the VR space.
- the display unit 11 presents an image of the viewpoint from the driver's seat of the car and an image of the viewpoint of a person who is skiing, snowboarding or surfing.
- acceleration state a state in which acceleration is forcibly applied to the user U1 such as the user U1 moving at a predetermined acceleration in the VR space
- non-accelerated state a state in which acceleration is forcibly applied to the user U1 such as the user U1 moving at a predetermined acceleration in the VR space
- the acceleration state includes a state in which the user U1 is moving at a predetermined acceleration by a moving object separate from the user U1 in the VR space.
- the moving object is a vehicle on which the user U1 rides in the VR space, such as the above-described car, airplane or train, or a magic carpet or broom unique to the virtual space, or the above-described skiing, snowboarding, surfing, or the like.
- the tool (plate) used may be sufficient.
- the moving object may be an escalator used by the user in the VR space or an elevator car that can be seen from the outside.
- the acceleration state may include a state in which vibration is forcibly applied (swayed) to the user U1 due to an earthquake or a seismic vehicle in the VR space. Further, the acceleration state includes a state in which a force is applied by the user U1 being pulled by a character or the like appearing in the VR space, blown by the wind, or sucked into something. Also good.
- the video presented on the display unit 11 can display a video outside the currently displayed area (up / down / left / right video of the area), such as a omnidirectional video or a 3D model video modeling a real space. It is considered to be a good picture.
- FIG. 1A shows a state in which the user U1 is in a non-accelerated state in which the user U1 gets in the vehicle and moves forward at a constant speed in the VR space.
- On the display unit 11 as a field of view of the user U ⁇ b> 1 in the VR space, an image that the virtual camera VC captures with its angle of view in front of the front is presented.
- Gravity G is applied to the head of user U1 in the direction of gravity (downward in the figure).
- FIG. 1B shows a state in which the user U1 is in an accelerating state moving from the state of FIG. 1A while starting acceleration in the VR space.
- an image captured by the virtual camera VC with its angle of view tilted downward from the front in front is presented on the display unit 11. That is, the field of view of the user U1 in the VR space is tilted downward from the front front.
- the user U1 tries to tilt his / her head backward while curving his / her body in order to maintain his posture (trying to return the field of view to the front front).
- the gravity G applied to the head of the user U1 is decomposed into a force g1 applied to the rear of the head and a force g2 applied in the trunk direction.
- the user U1 since the center of gravity shifts when the user U1 warps the body, the user U1 feels the force by which the body is pulled backward. On the other hand, the user U1 tries to maintain the posture by putting force on the back and legs. This means that the posture is maintained as in the case where the user U1 gets in a car in real space and moves while accelerating forward.
- an image that the virtual camera VC captures with its angle of view returned to the front front is displayed on the display unit 11 according to the backward tilt of the head of the user U1.
- FIG. 2 is a block diagram illustrating a configuration example of a video presentation system to which the present technology is applied, which realizes the video presentation described with reference to FIG.
- the 2 includes an HMD 10 and an information processing device 20.
- the HMD 10 is mounted on the user's head, and supplies posture information representing the posture of the user's head to the information processing apparatus 20. Further, the HMD 10 presents video that the user views based on video information from the information processing apparatus 20.
- the information processing apparatus 20 is configured as, for example, a PC (Personal Computer).
- the information processing device 20 generates a video based on the posture information from the HMD 10 and supplies video information representing the video to the HMD 10.
- a CPU Central Processor Unit
- ROM Read Only Memory
- RAM Random Access Memory
- CPU21 performs the process for implement
- the RAM 23 also appropriately stores data necessary for the CPU 21 to execute various processes.
- An input / output interface 25 is also connected to the bus 24.
- the input / output interface 25 is connected with an input unit 26, an output unit 27, a storage unit 28, and a communication unit 29.
- the input unit 26 includes keys, buttons, a touch panel, and a microphone
- the output unit 27 includes a display, a speaker, and the like.
- the storage unit 28 is configured by a nonvolatile memory or the like.
- the storage unit 28 stores various data such as video presented in the HMD 10 in addition to the program executed by the CPU 21.
- the communication unit 29 is configured by a network interface or the like.
- the communication unit 29 performs wireless or wired communication with the HMD 10.
- a drive 30 is connected to the input / output interface 25 as necessary, and a removable medium 32 composed of a semiconductor memory or the like is appropriately attached.
- the program read from the removable medium 32 is installed in the storage unit 28 as necessary.
- the 4 includes an attitude detection unit 51, a video generation unit 52, and a display control unit 53.
- the posture detection unit 51 is realized by the HMD 10, and the video generation unit 52 and the display control unit 53 are realized by the information processing apparatus 20. Note that the display control unit 53 may be realized by the HMD 10.
- the posture detection unit 51 detects the posture of the head of the user wearing the HMD 10 and supplies posture information representing the posture to the video generation unit 52.
- the HMD 10 is provided with an acceleration sensor, and the posture detection unit 51 detects the posture of the user's head based on the output of the acceleration sensor.
- the video generation unit 52 generates a video to be presented to the user based on the posture information from the posture detection unit 51.
- the video generation unit 52 includes an angle of view control unit 61.
- the view angle control unit 61 controls the view angle of the virtual camera corresponding to the field of view of the user in the VR space.
- the view angle control unit 61 determines the view angle of the virtual camera from the first view angle when the user is in the non-accelerated state when the user is in the acceleration state in the VR space. To the second angle of view based on the above.
- the second angle of view is such that the posture of the user's head is reflected in the direction of the force applied to the user in the same state as the acceleration state in the real space due to the visual rebound reflection.
- the angle of view to be induced.
- the view angle control unit 61 controls the view angle of the virtual camera based on the posture information from the posture detection unit 51. For example, the view angle control unit 61 changes the view angle of the virtual camera to the second view angle as shown in FIG. 1C according to the change in the posture of the head when the user is in an acceleration state in the VR space. The angle of view is changed to approach the first angle of view.
- the video generation unit 52 generates a video in which the angle of view of the virtual camera is controlled by the angle of view control unit 61.
- Video information representing the generated video is supplied to the display control unit 53.
- the display control unit 53 supplies the video information from the video generation unit 52 to the HMD 10 and controls the display of the video represented by the video information.
- step S11 the angle-of-view control unit 61 determines whether the user is in an accelerated state in the VR space based on the video generated by the video generation unit 52.
- Step S11 is repeated until it is determined that the user is in an accelerated state.
- the process proceeds to step S12.
- step S12 the angle-of-view control unit 61 calculates the angle of view of the virtual camera according to the magnitude of acceleration in the video presented in the accelerated state.
- the change amount d1 of the view angle is expressed by the following equation using an arbitrary coefficient k1. It is represented by
- step S13 when the angle of view (change amount) is calculated according to the magnitude of acceleration in the video presented in the accelerated state, the process proceeds to step S13.
- step S13 the view angle control unit 61 changes the view angle of the virtual camera based on the calculated change amount d1 of the view angle.
- step S14 the angle-of-view control unit 61 determines whether a change in the posture of the user's head has been detected based on the posture information from the posture detection unit 51.
- Step S14 is repeated until it is determined that a change in posture has been detected. If it is determined that a change in posture has been detected, the process proceeds to step S15.
- step S15 the angle-of-view control unit 61 calculates the angle of view of the virtual camera again according to the acceleration in the video presented in the accelerated state and the amount of change in the posture of the user's head.
- the amount of warping of the user's body is, for example, the amount of movement h1 backward from that position and the amount of upward rotation (angle) from that position on the basis of the position and orientation of the user's head in the non-accelerated state.
- the amount of change is defined by the product of h2.
- the amount of change d2 of the angle of view when the angle of view of the virtual camera is returned to the front side according to the amount of warp of the user's body uses the above-described amount of warp h1 ⁇ h2 of the user's body and an arbitrary coefficient k2. Is represented by the following formula.
- the change amount d3 of the view angle from the non-accelerated state calculated according to the change in the posture of the user's head is the change amount d1 of the view angle, the change amount d2 of the view angle, and an arbitrary coefficient.
- k3 it is expressed by the following equation.
- the process returns to step S13, and based on the calculated change amount d3 of the angle of view, the virtual camera The angle of view can be changed.
- the amount of warp h1 ⁇ h2 of the user's body at this time can be said to be an ideal amount of warp that allows the user to experience acceleration.
- the user when a user accelerates and moves in the VR space in a game or a simulation, the user can feel the force applied by the acceleration in the same manner as in the real space. It is possible to suppress VR sickness while increasing. As a result, the user can experience a more realistic experience in the VR space.
- the acceleration state as described above is obtained.
- a video different from the video at a certain time may be generated and presented.
- the presented video is different from the video in the acceleration start state as shown in the display unit 11 of FIG. To switch to a video that collides with other cars or rolls over.
- Such a video presentation makes it possible to give a higher immersion to the user.
- FIG. 6 is a diagram illustrating a configuration example of a video presentation system using a single display as a display device.
- FIG. 6 shows a state where the user U1 is viewing the video in front of the display 82 on which the sensor 81 is installed.
- the posture of the user U1 may be a standing position or a sitting position.
- the sensor 81 includes an RGB camera, a depth sensor, and the like, and detects the posture of the user U1 by performing skeleton recognition of the user U1.
- the display 82 is configured as a large-screen television receiver, a large screen, or the like.
- the display 82 presents an image that is the field of view of the user U1 in the VR space.
- FIG. 7 is a block diagram showing a configuration example of the video presentation system of FIG.
- the 7 includes a sensor 81, a display 82, and an information processing apparatus 20.
- the sensor 81 supplies posture information representing the posture of the head of the user U1 to the information processing apparatus 20 by performing skeleton recognition of the user U1.
- the information processing apparatus 20 generates a video based on the attitude information from the sensor 81 and supplies video information representing the video to the display 82.
- the display 82 presents the video viewed by the user U1 based on the video information from the information processing apparatus 20.
- FIG. 8 is a diagram showing an example of video presentation by the video presentation system of FIGS. 6 and 7.
- FIG. 8A shows a state in which the user U1 is in a non-accelerated state in which the user U1 gets in the vehicle and moves forward at a constant speed in the VR space.
- On the display 82 as a field of view of the user U1 in the VR space, an image that a virtual camera (not shown) captures with the angle of view in front of the front is presented.
- Gravity G is applied to the head of user U1 in the direction of gravity (downward in the figure).
- FIG. 8B shows a state in which the user U1 is moving from the state of FIG. 8A while moving forward in the VR space while starting acceleration.
- the display 82 on the display 82, as a field of view of the user U1 in the VR space, an image captured by a virtual camera (not shown) with its angle of view tilted downward from the front in front is presented. That is, the field of view of the user U1 in the VR space is tilted downward from the front front.
- the user U1 tries to tilt his / her head backward while curving his / her body in order to maintain his / her posture (to return the field of view to the front in front).
- the gravity G applied to the head of the user U1 is decomposed into a force g1 applied to the rear of the head and a force g2 applied in the trunk direction.
- the user U1 since the center of gravity shifts when the user U1 warps the body, the user U1 feels the force by which the body is pulled backward. On the other hand, the user U1 tries to maintain the posture by putting force on the back and legs. This means that the posture is maintained as in the case where the user U1 gets in a car in real space and moves while accelerating forward.
- the display 82 presents an image captured by a virtual camera (not shown) with its angle of view returned to the front front. Is done.
- Video presentation in other acceleration states >
- the example of the video presentation when the user is in the forward acceleration state in the VR space has been described, but the acceleration direction of the user in the VR space is not limited to the forward direction.
- an example of video presentation when in another acceleration state will be described.
- FIG. 9 is a diagram illustrating an example of video presentation when the user is in a backward acceleration state.
- the backward acceleration state includes not only the state of moving while accelerating backward, but also the state of moving while decelerating forward.
- FIG. 9A shows a state in which the user U1 is in a non-accelerated state where the user U1 gets in the vehicle and moves forward at a constant speed in the VR space.
- On the display device 100 as a field of view of the user U1 in the VR space, an image that a virtual camera (not shown) captures with the angle of view in front of the front is presented.
- the display device 100 may be configured as an HMD or a single display.
- the head (face) of the user U1 is facing the right side, but it is assumed that the user U1 is actually facing the display unit of the display device 100.
- FIG. 9B shows a state in which the user U1 is moving in the VR space while decelerating forward from the state of FIG. 9A in the backward acceleration state.
- the display device 100 presents a video that is viewed by a virtual camera (not shown) tilting the angle of view upward from the front in front as the field of view of the user U1 in the VR space. That is, the field of view of the user U1 in the VR space is inclined upward from the front front.
- the user U1 tries to tilt his / her head forward by bending his / her body forward in order to maintain his / her posture (trying to return the field of view to the front front). .
- the gravity G applied to the head of the user U1 is decomposed into a force g11 applied in front of the head and a force g12 applied in the trunk direction.
- the user U1 since the center of gravity shifts when the user U1 bends the body forward, the user U1 feels the force by which the body is pulled forward. On the other hand, the user U1 tries to maintain the posture by putting force on the belly and legs. This means that the posture is maintained as in the case where the user U1 gets on the car in real space and moves while decelerating forward.
- FIG. 10 is a diagram illustrating an example of video presentation when the user is in an acceleration state with a turn.
- the acceleration state accompanied by the turning is a state in which the vehicle is moving forward (or backward) so as to turn in the right (or left) direction.
- FIG. 10A shows a state in which the user U1 is in a non-accelerated state where the user U1 gets in the vehicle and moves forward at a constant speed in the VR space.
- On the display device 100 as a field of view of the user U1 in the VR space, an image that a virtual camera (not shown) captures with the angle of view in front of the front is presented.
- FIG. 10B shows a state in which the user U1 is moving forward while turning right in the VR space from the state shown in FIG.
- the display device 100 presents an image captured by a virtual camera (not shown) by rotating its angle of view inward in the turning direction (right) as the field of view of the user U1 in the VR space. That is, the horizontal direction of the field of view of the user U1 in the VR space is tilted to the right.
- the user U1 tilts his / her body to the left and tilts his head to the left in order to maintain his / her posture (in order to restore the horizontal direction of the field of view). And thereby, the gravity G applied to the head of the user U1 is decomposed into a force g21 applied to the left of the head and a force g22 applied in the trunk direction.
- the user U1 since the center of gravity shifts when the user U1 tilts the body to the left, the user U1 feels the force with which the body is pulled to the left. On the other hand, the user U1 tries to maintain the posture by putting force on the body and neck. This means that the posture is maintained as in the case where the user U1 is in a real space and moves while turning right.
- the display device 100 captures a video captured by a virtual camera (not shown) by returning the rotation of the angle of view to the display device 100 according to the tilt of the head of the user U1 to the left. Is presented.
- FIG. 11 is a diagram illustrating an example of video presentation when the user is in a lateral acceleration state.
- the acceleration state in the lateral direction is a state of moving while accelerating (or decelerating) in the right (or left) direction.
- FIG. 11A shows a non-accelerated state in which the user U1 gets on the train in the VR space and moves to the right as viewed from the user U1 at a constant speed.
- On the display device 100 as a field of view of the user U1 in the VR space, an image in which a virtual camera (not shown) captures the angle of view with the left hand in the traveling direction of the train in front is presented. Therefore, in this example, the video captured by the virtual camera moves to the left with respect to the angle of view.
- FIG. 11B shows a state in which the user U1 is moving in the right direction while accelerating in the right direction from the state in FIG.
- the display device 100 presents an image captured by a virtual camera (not shown) by rotating the angle of view to the acceleration direction side (right) as the field of view of the user U1 in the VR space. That is, the horizontal direction of the field of view of the user U1 in the VR space is tilted to the right.
- the user U1 tilts his / her body to the left and tilts his head to the left in order to maintain his / her posture (trying to restore the horizontal direction of view). And thereby, the gravity G applied to the head of the user U1 is decomposed into a force g31 applied to the left of the head and a force g32 applied in the trunk direction.
- the user U1 since the center of gravity shifts when the user U1 tilts the body to the left, the user U1 feels the force with which the body is pulled to the left. On the other hand, the user U1 tries to maintain the posture by putting force on the body and neck. This means that the posture is maintained as in the case where the user U1 gets on the train in real space and moves while accelerating in the right direction.
- the display device 100 captures a video captured by the virtual camera (not shown) by returning the rotation of the angle of view according to the tilt of the head of the user U1 to the left. Is presented.
- video presentation system of the present technology may take other forms as long as video that gives an immersive feeling to the user can be presented.
- FIG. 12 is a diagram illustrating a configuration example of a video presentation system using a dome-type display as a display device.
- FIG. 12 shows a state where the user U1 is viewing the video in front of the display 132 on which the sensor 131 is installed.
- the sensor 131 includes an RGB camera and a depth sensor, and detects the posture of the user U1 by performing skeleton recognition of the user U1.
- the display 132 is configured as a dome type display and has a dome-shaped display surface. The display 132 presents an image that is the field of view of the user U1 in the VR space.
- FIG. 13 is a diagram showing a configuration example of a video presentation system using a mobile terminal as a display device.
- 13 is configured as, for example, a smartphone or a tablet terminal, and includes a sensor 151 and a display unit 152.
- the sensor 151 includes an RGB camera, a depth sensor, and the like, and detects the user's posture by performing skeleton recognition of the user.
- the display unit 152 is configured as a display having a touch panel function.
- the display unit 152 presents an image serving as a user's field of view in the VR space.
- the series of processes described above can be executed by hardware or software.
- a program constituting the software is installed from a network or a recording medium.
- the recording medium includes a removable medium 31 distributed to distribute the program to the user of the information processing apparatus 20 separately from the apparatus main body.
- the removable medium 31 includes a magnetic disk (including a flexible disk) on which the program is recorded, an optical disk (including a CD-ROM and a DVD), a magneto-optical disk, or a semiconductor memory.
- the recording medium includes a ROM 22 in which a program distributed to an administrator in a state of being incorporated in the apparatus main body is recorded, a hard disk included in the storage unit 28, and the like.
- the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
- this technique can take the following structures. (1) Based on the posture of the user's head, a video generation unit that generates a video in which the angle of view of the virtual camera corresponding to the field of view of the user in the virtual space is controlled, When the user is in an accelerating state in the virtual space, the video generation unit determines the angle of view of the virtual camera from the first angle of view when the user is in a non-accelerated state. An information processing device that changes to a second angle of view based on. (2) The second angle of view is an angle of view in which the posture of the head is guided by a visual rebound reflection in the direction of force applied to the user in the same state as the acceleration state in real space. The information processing apparatus described.
- the information processing apparatus is a state in which acceleration is forcibly applied to the user in the virtual space.
- the acceleration state is a state in which the user is moving at a predetermined acceleration by a moving object separate from the user in the virtual space.
- the moving object is a vehicle on which the user rides in the virtual space.
- the video generation unit controls the amount of change from the first angle of view to the second angle of view according to the magnitude of acceleration in the acceleration state of the user. Any one of (1) to (9) An information processing apparatus according to claim 1.
- the information processing apparatus (11) The information processing apparatus according to (10), wherein the video generation unit increases the amount of change from the first angle of view to the second angle of view as the acceleration of the user in the acceleration state increases. (12) The video generation unit is configured to display a first video when the user is in the acceleration state in the virtual space when an amount of change from the first angle of view to the second angle of view exceeds a predetermined threshold.
- the information processing apparatus according to (10) or (11), wherein a second video different from the first video is generated.
- the video generation unit changes the angle of view of the virtual camera from the second angle of view to the first angle according to a change in the posture of the head when the user is in the acceleration state in the virtual space.
- the information processing apparatus according to any one of (1) to (12), wherein the information processing apparatus is changed so as to approach the angle of view.
- the video generation unit according to a change amount from the first angle of view to the second angle of view and a change amount of the posture of the head when the user is in the acceleration state in the virtual space.
- the information processing apparatus according to (13), wherein the angle of view of the virtual camera is calculated based on a difference between the values.
- the display device is an HMD.
- the information processing apparatus according to (15), wherein the display device is a single display.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Computer Graphics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
本技術は、没入感を高めつつVR酔いを抑制することができるようにする情報処理装置、情報処理方法、およびプログラムに関する。 映像生成部は、ユーザの頭部の姿勢に基づいて、仮想空間を移動するユーザの視界に対応する仮想カメラの画角が制御された映像を生成する。映像生成部は、仮想空間においてユーザが加速状態にあるとき、仮想カメラの画角を、ユーザが非加速状態にあるときの第1の画角から、ユーザの加速方向に基づいた第2の画角に変化させる。本技術は、例えば、HMDに適用することができる。
Description
本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、没入感を高めつつVR酔いを抑制することができるようにする情報処理装置、情報処理方法、およびプログラムに関する。
従来、一人称視点の画像の提示により様々な体験を提供するための仕組みが検討されている。そのなかで、提示される画像と頭部の動きとの間のずれなどによって引き起こされる酔いを抑える技術がある。
例えば、特許文献1には、頭部に装着された撮像装置の回転運動に起因する画面の揺れを抑制するために、視線方向の変化に応じて画像を逆回転させる補正を行う技術が開示されている。
また、特許文献2には、HMD(Head-Mounted Display)を装着したユーザの頭部に対して、そのユーザが視聴している映像の変化に応じた力覚を提示する技術が開示されている。
また近年、仮想空間における映像を提示するVR(Virtual Reality)技術が知られている。
このVR技術においては、例えば、ユーザが仮想空間内で加速して移動する際、加速している様子の映像が提示される一方、ユーザの体にかかる力には変化がないため、ユーザは違和感を覚えたり、いわゆるVR酔いを感じてしまうおそれがあった。
本技術は、このような状況に鑑みてなされたものであり、没入感を高めつつVR酔いを抑制することができるようにするものである。
本技術の情報処理装置は、ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成する映像生成部を備え、前記映像生成部は、前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる。
本技術の情報処理方法は、情報処理装置が、ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成し、前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる情報処理方法である。
本技術のプログラムは、コンピュータに、ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成し、前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる処理を実行させるプログラムである。
本技術においては、ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像が生成され、前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角が、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させられる。
本技術によれば、没入感を高めつつVR酔いを抑制することが可能となる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.本開示に係る技術の映像提示の概要
2.映像提示システムの第1の構成(HMD)
3.映像提示システムの第2の構成(単体のディスプレイ)
4.他の加速状態における映像提示
5.映像提示システムの他の構成
2.映像提示システムの第1の構成(HMD)
3.映像提示システムの第2の構成(単体のディスプレイ)
4.他の加速状態における映像提示
5.映像提示システムの他の構成
<1.本開示に係る技術の映像提示の概要>
本開示に係る技術(本技術)を適用した映像提示システムは、人間の元の姿勢に戻ろうとする視覚性の立ち直り反射を利用した映像を提示する。
本開示に係る技術(本技術)を適用した映像提示システムは、人間の元の姿勢に戻ろうとする視覚性の立ち直り反射を利用した映像を提示する。
立ち直り反射は、動物がその体勢を維持しようとする姿勢反射の1つである。人間は、視覚性の立ち直り反射として、視覚刺激の誘発により、頭部の位置を正常に保持しようとする。
図1は、本技術を適用した映像提示システムによる映像提示の概要を示す図である。
図1のA乃至Cにはそれぞれ、ユーザU1が、その頭部にHMD10を装着し、映像を視聴している様子が示されている。
HMD10は、VR用の表示装置として構成され、非透過型の表示部11を備える。表示部11には、仮想空間(以下、VR空間という)におけるユーザU1の視界となる映像が提示される。言い換えると、表示部11には、VR空間におけるユーザU1の視界に対応する仮想カメラVCが捉えた映像が提示される。
特に、本実施の形態においては、表示部11に提示される映像は、VR空間においてユーザU1が所定の加速度で移動する状態を含む一人称視点の映像とされる。具体的には、表示部11には、車の運転席からの視点の映像や、スキーやスノーボード、サーフィンをしている人の視点の映像が提示される。
以下においては、VR空間においてユーザU1が所定の加速度で移動するなど、ユーザU1に対して強制的に加速度が加わった状態を「加速状態」といい、VR空間においてユーザU1が停止していたり、定速で移動している状態を「非加速状態」という。
加速状態には、ユーザU1が、VR空間においてユーザU1とは別個の移動物体によって所定の加速度で移動している状態が含まれる。移動物体は、上述した車、飛行機や列車、さらには、仮想空間ならではの魔法のじゅうたんやほうきなどのような、VR空間においてユーザU1が乗る乗り物であったり、上述したスキーやスノーボード、サーフィンなどに用いたれる用具(板)であってもよい。また、移動物体は、VR空間においてユーザが利用するエスカレータや、外部が見渡せるエレベータのかごであってもよい。
また、加速状態として、VR空間において、地震や起震車によりユーザU1に対して強制的に振動が加わっている(揺らされている)状態が含まれるようにしてもよい。さらに、加速状態として、ユーザU1が、VR空間に登場するキャラクタなどに引っ張られたり、風に吹き飛ばされたり、何かに吸い込まれたりなどすることによる力が加わっている状態が含まれるようにしてもよい。
表示部11に提示される映像は、後述するように、ユーザU1の(頭部の)姿勢の変化などに応じて、表示される領域(VR空間におけるユーザU1の視界)が変化する。したがって、表示部11に提示される映像は、全天球映像や、実空間をモデル化した3Dモデル映像など、現在表示されている領域外の映像(その領域の上下左右の映像)が表示可能な映像とされる。
図1のAは、VR空間においてユーザU1が車に乗り、例えば前方へ定速で移動している非加速状態にある様子を示している。表示部11には、VR空間におけるユーザU1の視界として、仮想カメラVCがその画角を前方正面にして捉えている映像が提示されている。ユーザU1の頭部には、重力方向(図中下方向)に重力Gがかかっている。
図1のBは、図1のAの状態から、VR空間においてユーザU1が、前方へ加速を開始しながら移動している加速状態にある様子を示している。このとき、表示部11には、VR空間におけるユーザU1の視界として、仮想カメラVCがその画角を前方正面から下に傾けて捉えている映像が提示される。すなわち、VR空間におけるユーザU1の視界が、前方正面から下に傾く。
ところで、ユーザが実空間で車に乗り、前方へ加速しながら移動した場合、その加速度により、体が後方へ引っ張られる力が生じる。これに対して、ユーザは、背中や脚に力を入れることで、姿勢を維持しようとする。
しかしながら、従来のVR技術においては、VR空間においてユーザが非加速状態にあっても加速状態にあっても、そのユーザは同じ姿勢で映像を視聴していた。
一方、本技術を適用した映像提示システムにおいては、VR空間においてユーザU1が前方への加速状態にあるときには、図1のBに示されるように、提示される映像を前方正面から下(ユーザU1の足元側)に傾ける。これにより、ユーザU1は、自身の頭部が前方に傾いたと錯覚し、元の姿勢に戻ろうとする視覚性の立ち直り反射が誘発される。
その結果、図1のCに示されるように、ユーザU1は姿勢を維持する(視界を前方正面に戻そうとする)ために、体を反らして、頭部を後方に傾けようとする。これにより、ユーザU1の頭部にかかる重力Gは、頭部の後方にかかる力g1と、体幹方向にかかる力g2とに分解される。
すなわち、ユーザU1が体を反らすことによって重心がずれるため、ユーザU1は、体が後方へ引っ張られる力を感じることになる。これに対して、ユーザU1は、背中や脚に力を入れることで、姿勢を維持しようとする。これは、ユーザU1が実空間で車に乗り、前方へ加速しながら移動している場合と同様に、姿勢を維持していることになる。
なお、図1のCの状態では、ユーザU1の頭部の後方への傾きに応じて、表示部11には、仮想カメラVCがその画角を前方正面に戻して捉えている映像が提示される。
このようにして、本技術を適用した映像提示システムにおいては、ユーザがVR空間内で加速して移動する際に、加速によってかかる力を自然に感じることができる。
<2.映像提示システムの第1の構成例>
(映像提示システムの構成例)
図2は、図1を参照して説明した映像提示を実現する、本技術を適用した映像提示システムの構成例を示すブロック図である。
(映像提示システムの構成例)
図2は、図1を参照して説明した映像提示を実現する、本技術を適用した映像提示システムの構成例を示すブロック図である。
図2の映像提示システムは、HMD10と情報処理装置20から構成される。
HMD10は、ユーザの頭部に装着されることで、そのユーザの頭部の姿勢を表す姿勢情報を、情報処理装置20に供給する。また、HMD10は、情報処理装置20からの映像情報に基づいて、ユーザが視聴する映像を提示する。
情報処理装置20は、例えばPC(Personal Computer)などとして構成される。情報処理装置20は、HMD10からの姿勢情報に基づいて映像を生成し、その映像を表す映像情報をHMD10に供給する。
(情報処理装置の構成例)
次に、図3を参照して、情報処理装置20の構成例について説明する。
次に、図3を参照して、情報処理装置20の構成例について説明する。
図3に示されるように、CPU(Central Processor Unit)21、ROM(Read Only Memory)22、およびRAM(Random Access Memory)23は、バス24を介して相互に接続されている。
CPU21は、ROM22に記憶されているプログラム、またはRAM23にロードされたプログラムに従って、情報処理装置20が備える各種の機能を実現するための処理を実行する。RAM23にはまた、CPU21が各種の処理を実行する上において必要なデータなども適宜記憶される。
バス24にはまた、入出力インタフェース25が接続されている。
入出力インタフェース25には、入力部26、出力部27、記憶部28、および通信部29が接続される。
入力部26は、キー、ボタン、タッチパネル、およびマイクロフォンなどで構成され、出力部27は、ディスプレイやスピーカなどで構成される。
記憶部28は、不揮発性のメモリなどにより構成される。記憶部28は、CPU21が実行するプログラムの他に、HMD10において提示される映像などの各種のデータを記憶する。
通信部29は、ネットワークインタフェースなどにより構成される。通信部29は、無線や有線による通信をHMD10との間で行う。
入出力インタフェース25にはまた、必要に応じてドライブ30が接続され、半導体メモリなどで構成されるリムーバブルメディア32が適宜装着される。リムーバブルメディア32から読み出されたプログラムは、必要に応じて記憶部28にインストールされる。
(映像提示システムの機能構成例)
次に、図4を参照して、映像提示システムの機能構成例について説明する。
次に、図4を参照して、映像提示システムの機能構成例について説明する。
図4の映像提示システムは、姿勢検出部51、映像生成部52、および表示制御部53から構成される。
姿勢検出部51は、HMD10によって実現され、映像生成部52と表示制御部53は、情報処理装置20によって実現されるものとする。なお、表示制御部53は、HMD10によって実現されてもよい。
姿勢検出部51は、HMD10を装着しているユーザの頭部の姿勢を検出し、その姿勢を表す姿勢情報を映像生成部52に供給する。HMD10には、例えば加速度センサが設けられており、姿勢検出部51は、その加速度センサの出力に基づいて、ユーザの頭部の姿勢を検出する。
映像生成部52は、姿勢検出部51からの姿勢情報に基づいて、ユーザに提示する映像を生成する。
映像生成部52は、画角制御部61を備える。画角制御部61は、VR空間におけるユーザの視界に対応する仮想カメラの画角を制御する。
具体的には、画角制御部61は、VR空間においてユーザが加速状態にあるとき、仮想カメラの画角を、ユーザが非加速状態にあるときの第1の画角から、ユーザの加速方向に基づいた第2の画角に変化させる。
ここで、第2の画角は、図1のBに示されるような、実空間において加速状態と同じ状態にあるユーザにかかる力方向に、視覚性の立ち直り反射によってユーザの頭部の姿勢が誘導される画角とされる。
また、画角制御部61は、姿勢検出部51からの姿勢情報に基づいて、仮想カメラの画角を制御する。例えば、画角制御部61は、VR空間においてユーザが加速状態にあるときの頭部の姿勢の変化に応じて、図1のCに示されるように、仮想カメラの画角を、第2の画角から第1の画角に近づけるように変化させる。
このようにして、映像生成部52は、画角制御部61によって仮想カメラの画角が制御された映像を生成する。生成された映像を表す映像情報は、表示制御部53に供給される。
表示制御部53は、映像生成部52からの映像情報をHMD10に供給し、その映像情報で表される映像の表示を制御する。
(映像の画角制御処理の流れ)
次に、図5のフローチャートを参照して、HMD10で提示される映像の画角制御処理について説明する。図5の処理は、HMD10で映像の提示が開始されるとともに開始される。
次に、図5のフローチャートを参照して、HMD10で提示される映像の画角制御処理について説明する。図5の処理は、HMD10で映像の提示が開始されるとともに開始される。
ステップS11において、画角制御部61は、映像生成部52によって生成される映像に基づいて、VR空間においてユーザが加速状態にあるか否かを判定する。
ステップS11は、ユーザが加速状態にあると判定されるまで繰り返され、ユーザが加速状態にあると判定されると、処理はステップS12に進む。
ステップS12において、画角制御部61は、加速状態で提示される映像における加速度の大きさに応じて、仮想カメラの画角を算出する。
実空間では、前方への加速度が大きいほど、体が後方へ引っ張られる力は強くなる。そのため、VR空間においては、前方への加速度が大きいほど、その加速をユーザに体感させるために、より大きくユーザの体を反らせたい。
そこで本実施の形態では、VR空間において前方への加速度が大きいほど、仮想カメラの画角を、前方正面からより大きく下に傾けるようにする。
加速状態で提示される映像における加速度をαとし、非加速状態からの仮想カメラの画角の変化量をd1とすると、画角の変化量d1は、任意の係数k1を用いて、以下の式で表される。
d1=k1×α
このようにして、加速状態で提示される映像における加速度の大きさに応じて画角(変化量)が算出されると、処理はステップS13に進む。
ステップS13において、画角制御部61は、算出した画角の変化量d1に基づいて、仮想カメラの画角を変化させる。
ステップS14において、画角制御部61は、姿勢検出部51からの姿勢情報に基づいて、ユーザの頭部の姿勢の変化を検出したか否かを判定する。
ステップS14は、姿勢の変化を検出したと判定されるまで繰り返され、姿勢の変化を検出したと判定されると、処理はステップS15に進む。
ステップS15において、画角制御部61は、加速状態で提示される映像における加速度と、ユーザの頭部の姿勢の変化量に応じて、仮想カメラの画角を再度算出する。
前方への加速状態にあるユーザが、前方正面から下に傾いた映像を視ることで、視覚性の立ち直り反射によって体を反らせた場合、体を反らせた程度(反り量)に応じて、下に傾けた仮想カメラの画角は、前方正面側に戻される。
ユーザの体の反り量は、例えば、非加速状態にあるユーザの頭部の位置および向きを基準として、その位置からの後方への移動量h1と、その向きからの上方への回転量(角度変化量)h2の積によって定義する。
ユーザの体の反り量に応じて、仮想カメラの画角を前方正面側に戻すときの画角の変化量d2は、上述したユーザの体の反り量h1×h2と、任意の係数k2を用いて、以下の式で表される。
d2=k2×h1×h2
これにより、ユーザの頭部の姿勢の変化に応じて算出される、非加速状態からの画角の変化量d3は、画角の変化量d1、画角の変化量d2、および、任意の係数k3を用いて、以下の式で表される。
d3=k3(d1-d2)
このようにして、ユーザの頭部の姿勢の変化に応じて画角(変化量)が算出されると、処理はステップS13に戻り、算出した画角の変化量d3に基づいて、仮想カメラの画角が変化させられる。
すなわち、画角の変化量d2が、画角の変化量d1と同じ値になるように、ユーザが体を反らせることで、画角の変化量d3の値は0になり、仮想カメラの画角は、非加速状態の画角と同じ画角となる。
このとき、VR空間におけるユーザの視界は前方正面となるので、ユーザは、さらに体を反らせることなくその姿勢を維持する。これにより、ユーザは、体が後方へ引っ張られる力を感じることになり、実空間で一定の加速度で移動している状態が再現される。すなわち、このときのユーザの体の反り量h1×h2は、ユーザに加速を体感させる理想の反り量といえる。
以上の処理によれば、ユーザが、ゲームやシミュレーションなどで、VR空間内で加速して移動する際に、実空間と同様に、加速によってかかる力を自然に感じることができるので、没入感を高めつつVR酔いを抑制することが可能となる。これにより、ユーザは、VR空間において、より臨場感のある体験を味わうことができる。
なお、上述した処理では、VR空間でのユーザの加速状態における加速度が大きいほど、仮想カメラの画角の、前方正面から下への変化量が大きくなるものとした。
例えば、実空間においてユーザが乗る車が、加速し続けながら走行した場合、運転の制御が不能になり、他の車と衝突したり、横転する可能性がある。
そこで、VR空間でのユーザの加速状態における加速度が、一定の加速度を超えるなどして、算出された仮想カメラの画角の変化量が所定の閾値を超えた場合、上述したような加速状態にあるときの映像とは異なる映像が生成され、提示されるようにしてもよい。
例えば、算出された仮想カメラの画角の変化量が所定の閾値を超えた場合、提示される映像が、図1のBの表示部11に示されるような加速開始の状態の映像から、他の車と衝突したり、横転する映像に切り替わるようにする。
このような映像提示により、ユーザに対してより高い没入感を与えることが可能となる。
以上においては、HMDを表示装置とした映像提示システムの構成について説明したが、単体のディスプレイを表示装置としてもよい。
<3.映像提示システムの第2の構成例>
図6は、単体のディスプレイを表示装置とした映像提示システムの構成例を示す図である。
図6は、単体のディスプレイを表示装置とした映像提示システムの構成例を示す図である。
図6には、ユーザU1が、センサ81が設置されたディスプレイ82を前に、映像を視聴している様子が示されている。ユーザU1の体位は、立位であってもよいし、座位であってもよい。
センサ81は、RGBカメラや深度センサなどを備え、ユーザU1の骨格認識などを行うことで、ユーザU1の姿勢を検出する。
ディスプレイ82は、大画面のテレビジョン受像機や、大型のスクリーンなどとして構成される。ディスプレイ82には、VR空間におけるユーザU1の視界となる映像が提示される。
図7は、図6の映像提示システムの構成例を示すブロック図である。
図7の映像提示システムは、センサ81、ディスプレイ82、および情報処理装置20から構成される。
センサ81は、ユーザU1の骨格認識などを行うことで、そのユーザU1の頭部の姿勢を表す姿勢情報を、情報処理装置20に供給する。
情報処理装置20は、センサ81からの姿勢情報に基づいて映像を生成し、その映像を表す映像情報を、ディスプレイ82に供給する。
ディスプレイ82は、情報処理装置20からの映像情報に基づいて、ユーザU1が視聴する映像を提示する。
図8は、図6および図7の映像提示システムによる映像提示の例を示す図である。
図8のAは、VR空間においてユーザU1が車に乗り、例えば前方へ定速で移動している非加速状態にある様子を示している。ディスプレイ82には、VR空間におけるユーザU1の視界として、図示せぬ仮想カメラがその画角を前方正面にして捉えている映像が提示されている。ユーザU1の頭部には、重力方向(図中下方向)に重力Gがかかっている。
図8のBは、図8のAの状態から、VR空間においてユーザU1が、前方へ加速を開始しながら移動している加速状態にある様子を示している。このとき、ディスプレイ82には、VR空間におけるユーザU1の視界として、図示せぬ仮想カメラがその画角を前方正面から下に傾けて捉えている映像が提示される。すなわち、VR空間におけるユーザU1の視界が、前方正面から下に傾く。
これにより、ユーザU1は、自身の頭部が前方に傾いたと錯覚し、元の姿勢に戻ろうとする視覚性の立ち直り反射が誘発される。
その結果、図8のCに示されるように、ユーザU1は姿勢を維持する(視界を前方正面に戻そうとする)ために、体を反らして、頭部を後方に傾けようとする。これにより、ユーザU1の頭部にかかる重力Gは、頭部の後方にかかる力g1と、体幹方向にかかる力g2とに分解される。
すなわち、ユーザU1が体を反らすことによって重心がずれるため、ユーザU1は、体が後方へ引っ張られる力を感じることになる。これに対して、ユーザU1は、背中や脚に力を入れることで、姿勢を維持しようとする。これは、ユーザU1が実空間で車に乗り、前方へ加速しながら移動している場合と同様に、姿勢を維持していることになる。
なお、図8のCの状態では、ユーザU1の頭部の後方への傾きに応じて、ディスプレイ82には、図示せぬ仮想カメラがその画角を前方正面に戻して捉えている映像が提示される。
このようにして、図6および図7の映像提示システムにおいても、ユーザがVR空間内で加速して移動する際に、加速によってかかる力を自然に感じることができるので、没入感を高めつつVR酔いを抑制することができる。
<4.他の加速状態における映像提示>
以上においては、VR空間においてユーザが前方への加速状態にあるときの映像提示の例について説明したが、VR空間におけるユーザの加速方向は、前方に限られない。以下においては、他の加速状態にあるときの映像提示の例について説明する。
以上においては、VR空間においてユーザが前方への加速状態にあるときの映像提示の例について説明したが、VR空間におけるユーザの加速方向は、前方に限られない。以下においては、他の加速状態にあるときの映像提示の例について説明する。
(後方への加速状態)
図9は、ユーザが後方への加速状態にあるときの映像提示の例を示す図である。なお、後方への加速状態には、後方へ加速しながら移動している状態はもちろん、前方へ減速しながら移動している状態も含まれる。
図9は、ユーザが後方への加速状態にあるときの映像提示の例を示す図である。なお、後方への加速状態には、後方へ加速しながら移動している状態はもちろん、前方へ減速しながら移動している状態も含まれる。
図9のAは、VR空間においてユーザU1が車に乗り、例えば前方へ定速で移動している非加速状態にある様子を示している。表示装置100には、VR空間におけるユーザU1の視界として、図示せぬ仮想カメラがその画角を前方正面にして捉えている映像が提示されている。表示装置100は、HMDとして構成されてもよいし、単体のディスプレイとして構成されてもよい。
なお、図中、ユーザU1の頭部(顔)は右側を向いているが、実際には、表示装置100の表示部に正対しているものとする。
図9のBは、図9のAの状態から、VR空間においてユーザU1が、前方へ減速しながら移動している、後方への加速状態にある様子を示している。このとき、表示装置100には、VR空間におけるユーザU1の視界として、図示せぬ仮想カメラがその画角を前方正面から上に傾けて捉えている映像が提示される。すなわち、VR空間におけるユーザU1の視界が、前方正面から上に傾く。
これにより、ユーザU1は、自身の頭部が後方に傾いたと錯覚し、元の姿勢に戻ろうとする視覚性の立ち直り反射が誘発される。
その結果、図9のCに示されるように、ユーザU1は姿勢を維持する(視界を前方正面に戻そうとする)ために、体を前に屈めて、頭部を前方に傾けようとする。これにより、ユーザU1の頭部にかかる重力Gは、頭部の前方にかかる力g11と、体幹方向にかかる力g12とに分解される。
すなわち、ユーザU1が体を前に屈めることによって重心がずれるため、ユーザU1は、体が前方へ引っ張られる力を感じることになる。これに対して、ユーザU1は、腹や脚に力を入れることで、姿勢を維持しようとする。これは、ユーザU1が実空間で車に乗り、前方へ減速しながら移動している場合と同様に、姿勢を維持していることになる。
なお、図9のCの状態では、ユーザU1の頭部の前方への傾きに応じて、表示装置100には、図示せぬ仮想カメラがその画角を前方正面に戻して捉えている映像が提示される。
このようにして、本技術の映像提示システムにおいて、ユーザがVR空間内で減速して移動する場合にも、減速によってかかる力を自然に感じることができるので、没入感を高めつつVR酔いを抑制することができる。
(旋回を伴った加速状態)
図10は、ユーザが旋回を伴った加速状態にあるときの映像提示の例を示す図である。旋回を伴った加速状態は、右(または左)方向へ回りこむようにして前方(または後方)へ移動している状態である。
図10は、ユーザが旋回を伴った加速状態にあるときの映像提示の例を示す図である。旋回を伴った加速状態は、右(または左)方向へ回りこむようにして前方(または後方)へ移動している状態である。
図10のAは、VR空間においてユーザU1が車に乗り、例えば前方へ定速で移動している非加速状態にある様子を示している。表示装置100には、VR空間におけるユーザU1の視界として、図示せぬ仮想カメラがその画角を前方正面にして捉えている映像が提示されている。
図10のBは、図10のAの状態から、VR空間においてユーザU1が、右へ旋回しながら前方へ移動している、旋回を伴った加速状態にある様子を示している。このとき、表示装置100には、VR空間におけるユーザU1の視界として、図示せぬ仮想カメラがその画角を旋回方向内側(右)に回転させて捉えている映像が提示される。すなわち、VR空間におけるユーザU1の視界の水平方向が右に傾く。
これにより、ユーザU1は、自身の頭部が右に傾いたと錯覚し、元の姿勢に戻ろうとする視覚性の立ち直り反射が誘発される。
その結果、図10のCに示されるように、ユーザU1は姿勢を維持する(視界の水平方向を元に戻そうとする)ために、体を左側に倒して、頭部を左に傾けようとする。これにより、ユーザU1の頭部にかかる重力Gは、頭部の左方にかかる力g21と、体幹方向にかかる力g22とに分解される。
すなわち、ユーザU1が体を左側に倒すことによって重心がずれるため、ユーザU1は、体が左方へ引っ張られる力を感じることになる。これに対して、ユーザU1は、体や首に力を入れることで、姿勢を維持しようとする。これは、ユーザU1が実空間で車に乗り、右へ旋回しながら移動している場合と同様に、姿勢を維持していることになる。
なお、図10のCの状態では、ユーザU1の頭部の左への傾きに応じて、表示装置100には、図示せぬ仮想カメラがその画角の回転を元に戻して捉えている映像が提示される。
このようにして、本技術の映像提示システムにおいて、ユーザがVR空間内で旋回しながら移動する場合にも、旋回によってかかる力を自然に感じることができるので、没入感を高めつつVR酔いを抑制することができる。
(横方向への加速状態)
図11は、ユーザが横方向への加速状態にあるときの映像提示の例を示す図である。横方向への加速状態は、右(または左)方向へ加速(または減速)しながら移動している状態である。
図11は、ユーザが横方向への加速状態にあるときの映像提示の例を示す図である。横方向への加速状態は、右(または左)方向へ加速(または減速)しながら移動している状態である。
図11のAは、VR空間においてユーザU1が列車に乗り、ユーザU1から見て右方向へ定速で移動している非加速状態にある様子を示している。表示装置100には、VR空間におけるユーザU1の視界として、図示せぬ仮想カメラがその画角を、列車の進行方向左手を正面にして捉えている映像が提示されている。したがって、この例では、仮想カメラが捉えている映像は、その画角に対して左側へ移動している。
図11のBは、図11のAの状態から、VR空間においてユーザU1が、右方向へ加速しながら移動している、右方向への加速状態にある様子を示している。このとき、表示装置100には、VR空間におけるユーザU1の視界として、図示せぬ仮想カメラがその画角を加速方向側(右)に回転させて捉えている映像が提示される。すなわち、VR空間におけるユーザU1の視界の水平方向が右に傾く。
これにより、ユーザU1は、自身の頭部が右に傾いたと錯覚し、元の姿勢に戻ろうとする視覚性の立ち直り反射が誘発される。
その結果、図11のCに示されるように、ユーザU1は姿勢を維持する(視界の水平方向を元に戻そうとする)ために、体を左側に倒して、頭部を左に傾けようとする。これにより、ユーザU1の頭部にかかる重力Gは、頭部の左方にかかる力g31と、体幹方向にかかる力g32とに分解される。
すなわち、ユーザU1が体を左側に倒すことによって重心がずれるため、ユーザU1は、体が左方へ引っ張られる力を感じることになる。これに対して、ユーザU1は、体や首に力を入れることで、姿勢を維持しようとする。これは、ユーザU1が実空間で列車に乗り、右方向へ加速しながら移動している場合と同様に、姿勢を維持していることになる。
なお、図11のCの状態では、ユーザU1の頭部の左への傾きに応じて、表示装置100には、図示せぬ仮想カメラがその画角の回転を元に戻して捉えている映像が提示される。
このようにして、本技術の映像提示システムにおいて、ユーザがVR空間内で横方向へ加速しながら移動している場合にも、加速によってかかる力を自然に感じることができるので、没入感を高めつつVR酔いを抑制することができる。
なお、ユーザに対して没入感を与える映像を提示できれば、本技術の映像提示システムは、他の形態を採ることもできる。
<5.映像提示システムの他の構成例>
図12は、ドーム型ディスプレイを表示装置とした映像提示システムの構成例を示す図である。
図12は、ドーム型ディスプレイを表示装置とした映像提示システムの構成例を示す図である。
図12には、ユーザU1が、センサ131が設置されたディスプレイ132を前に、映像を視聴している様子が示されている。
センサ131は、RGBカメラや深度センサなどを備え、ユーザU1の骨格認識などを行うことで、ユーザU1の姿勢を検出する。ディスプレイ132は、ドーム型ディスプレイとして構成され、ドーム状の表示面を有する。ディスプレイ132には、VR空間におけるユーザU1の視界となる映像が提示される。
図13は、携帯端末を表示装置とした映像提示システムの構成例を示す図である。
図13に示される携帯端末150は、例えば、スマートフォンやタブレット端末などとして構成され、センサ151と表示部152を備えている。
センサ151は、RGBカメラや深度センサなどを備え、ユーザの骨格認識などを行うことで、ユーザの姿勢を検出する。表示部152は、タッチパネル機能を有するディスプレイとして構成される。表示部152には、VR空間におけるユーザの視界となる映像が提示される。
図12や図13の映像提示システムにおいても、没入感を与える映像が提示できれば、ユーザがVR空間内で加速して移動する際に、加速によってかかる力を自然に感じることができるので、没入感を高めつつVR酔いを抑制することができる。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、例えば、図3に示されるように、装置本体とは別に、情報処理装置20のユーザにプログラムを配信するために配布されるリムーバブルメディア31により構成される。リムーバブルメディア31は、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどより構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM22や、記憶部28に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本技術は以下のような構成をとることができる。
(1)
ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成する映像生成部
を備え、
前記映像生成部は、前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる
情報処理装置。
(2)
前記第2の画角は、実空間において前記加速状態と同じ状態にある前記ユーザにかかる力方向に、視覚性の立ち直り反射によって前記頭部の姿勢が誘導される画角である
(1)に記載の情報処理装置。
(3)
前記映像生成部は、前記仮想空間において前記ユーザが前方への前記加速状態にあるとき、前記仮想カメラの前記画角を、前方正面から下に傾ける
(2)に記載の情報処理装置。
(4)
前記映像生成部は、前記仮想空間において前記ユーザが後方への前記加速状態にあるとき、前記仮想カメラの前記画角を、前方正面から上に傾ける
(2)に記載の情報処理装置。
(5)
前記映像生成部は、前記仮想空間において前記ユーザが旋回を伴った前記加速状態にあるとき、前記仮想カメラの前記画角を、旋回方向内側に回転させる
(2)に記載の情報処理装置。
(6)
前記映像生成部は、前記仮想空間において前記ユーザが左右いずれかの方向への前記加速状態にあるとき、前記仮想カメラの前記画角を、加速方向側に回転させる
(2)に記載の情報処理装置。
(7)
前記加速状態は、前記仮想空間において前記ユーザに対して強制的に加速度が加わった状態である
(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記加速状態は、前記ユーザが、前記仮想空間において前記ユーザとは別個の移動物体によって所定の加速度で移動している状態である
(7)に記載の情報処理装置。
(9)
前記移動物体は、前記仮想空間において前記ユーザが乗る乗り物である
(8)に記載の情報処理装置。
(10)
前記映像生成部は、前記ユーザの前記加速状態における加速度の大きさに応じて、前記第1の画角から前記第2の画角への変化量を制御する
(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記映像生成部は、前記ユーザの前記加速状態における加速度が大きいほど、前記第1の画角から前記第2の画角への変化量を大きくする
(10)に記載の情報処理装置。
(12)
前記映像生成部は、前記第1の画角から前記第2の画角への変化量が所定の閾値を超えた場合、前記仮想空間において前記ユーザが前記加速状態にあるときの第1の映像とは異なる第2の映像を生成する
(10)または(11)に記載の情報処理装置。
(13)
前記映像生成部は、前記仮想空間において前記ユーザが前記加速状態にあるときの前記頭部の姿勢の変化に応じて、前記仮想カメラの前記画角を、前記第2の画角から前記第1の画角に近づけるように変化させる
(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記映像生成部は、前記仮想空間において前記ユーザが前記加速状態にあるときの、前記第1の画角から前記第2の画角への変化量と、前記頭部の姿勢の変化量に応じた値の差分に基づいて、前記仮想カメラの前記画角を算出する
(13)に記載の情報処理装置。
(15)
前記映像生成部により生成された前記映像の表示装置での表示を制御する表示制御部をさらに備える
(1)乃至(14)のいずれかに記載の情報処理装置。
(16)
前記表示装置は、HMDである
(15)に記載の情報処理装置。
(17)
前記表示装置は、単体のディスプレイである
(15)に記載の情報処理装置。
(18)
前記表示装置は、携帯端末である
(15)に記載の情報処理装置。
(19)
情報処理装置が、
ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成し、
前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる
情報処理方法。
(20)
コンピュータに、
ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成し、
前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる
処理を実行させるプログラム。
(1)
ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成する映像生成部
を備え、
前記映像生成部は、前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる
情報処理装置。
(2)
前記第2の画角は、実空間において前記加速状態と同じ状態にある前記ユーザにかかる力方向に、視覚性の立ち直り反射によって前記頭部の姿勢が誘導される画角である
(1)に記載の情報処理装置。
(3)
前記映像生成部は、前記仮想空間において前記ユーザが前方への前記加速状態にあるとき、前記仮想カメラの前記画角を、前方正面から下に傾ける
(2)に記載の情報処理装置。
(4)
前記映像生成部は、前記仮想空間において前記ユーザが後方への前記加速状態にあるとき、前記仮想カメラの前記画角を、前方正面から上に傾ける
(2)に記載の情報処理装置。
(5)
前記映像生成部は、前記仮想空間において前記ユーザが旋回を伴った前記加速状態にあるとき、前記仮想カメラの前記画角を、旋回方向内側に回転させる
(2)に記載の情報処理装置。
(6)
前記映像生成部は、前記仮想空間において前記ユーザが左右いずれかの方向への前記加速状態にあるとき、前記仮想カメラの前記画角を、加速方向側に回転させる
(2)に記載の情報処理装置。
(7)
前記加速状態は、前記仮想空間において前記ユーザに対して強制的に加速度が加わった状態である
(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記加速状態は、前記ユーザが、前記仮想空間において前記ユーザとは別個の移動物体によって所定の加速度で移動している状態である
(7)に記載の情報処理装置。
(9)
前記移動物体は、前記仮想空間において前記ユーザが乗る乗り物である
(8)に記載の情報処理装置。
(10)
前記映像生成部は、前記ユーザの前記加速状態における加速度の大きさに応じて、前記第1の画角から前記第2の画角への変化量を制御する
(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記映像生成部は、前記ユーザの前記加速状態における加速度が大きいほど、前記第1の画角から前記第2の画角への変化量を大きくする
(10)に記載の情報処理装置。
(12)
前記映像生成部は、前記第1の画角から前記第2の画角への変化量が所定の閾値を超えた場合、前記仮想空間において前記ユーザが前記加速状態にあるときの第1の映像とは異なる第2の映像を生成する
(10)または(11)に記載の情報処理装置。
(13)
前記映像生成部は、前記仮想空間において前記ユーザが前記加速状態にあるときの前記頭部の姿勢の変化に応じて、前記仮想カメラの前記画角を、前記第2の画角から前記第1の画角に近づけるように変化させる
(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記映像生成部は、前記仮想空間において前記ユーザが前記加速状態にあるときの、前記第1の画角から前記第2の画角への変化量と、前記頭部の姿勢の変化量に応じた値の差分に基づいて、前記仮想カメラの前記画角を算出する
(13)に記載の情報処理装置。
(15)
前記映像生成部により生成された前記映像の表示装置での表示を制御する表示制御部をさらに備える
(1)乃至(14)のいずれかに記載の情報処理装置。
(16)
前記表示装置は、HMDである
(15)に記載の情報処理装置。
(17)
前記表示装置は、単体のディスプレイである
(15)に記載の情報処理装置。
(18)
前記表示装置は、携帯端末である
(15)に記載の情報処理装置。
(19)
情報処理装置が、
ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成し、
前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる
情報処理方法。
(20)
コンピュータに、
ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成し、
前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる
処理を実行させるプログラム。
10 HMD, 11 表示部, 20 情報処理装置, 51 姿勢検出部, 52 映像生成部, 53 表示制御部, 61 画角制御部, 81 センサ, 82 ディスプレイ, 150 携帯端末, 151 センサ, 152 表示部
Claims (20)
- ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成する映像生成部
を備え、
前記映像生成部は、前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる
情報処理装置。 - 前記第2の画角は、実空間において前記加速状態と同じ状態にある前記ユーザにかかる力方向に、視覚性の立ち直り反射によって前記頭部の姿勢が誘導される画角である
請求項1に記載の情報処理装置。 - 前記映像生成部は、前記仮想空間において前記ユーザが前方への前記加速状態にあるとき、前記仮想カメラの前記画角を、前方正面から下に傾ける
請求項2に記載の情報処理装置。 - 前記映像生成部は、前記仮想空間において前記ユーザが後方への前記加速状態にあるとき、前記仮想カメラの前記画角を、前方正面から上に傾ける
請求項2に記載の情報処理装置。 - 前記映像生成部は、前記仮想空間において前記ユーザが旋回を伴った前記加速状態にあるとき、前記仮想カメラの前記画角を、旋回方向内側に回転させる
請求項2に記載の情報処理装置。 - 前記映像生成部は、前記仮想空間において前記ユーザが左右いずれかの方向への前記加速状態にあるとき、前記仮想カメラの前記画角を、加速方向側に回転させる
請求項2に記載の情報処理装置。 - 前記加速状態は、前記仮想空間において前記ユーザに対して強制的に加速度が加わった状態である
請求項1に記載の情報処理装置。 - 前記加速状態は、前記ユーザが、前記仮想空間において前記ユーザとは別個の移動物体によって所定の加速度で移動している状態である
請求項7に記載の情報処理装置。 - 前記移動物体は、前記仮想空間において前記ユーザが乗る乗り物である
請求項8に記載の情報処理装置。 - 前記映像生成部は、前記ユーザの前記加速状態における加速度の大きさに応じて、前記第1の画角から前記第2の画角への変化量を制御する
請求項1に記載の情報処理装置。 - 前記映像生成部は、前記ユーザの前記加速状態における加速度が大きいほど、前記第1の画角から前記第2の画角への変化量を大きくする
請求項10に記載の情報処理装置。 - 前記映像生成部は、前記第1の画角から前記第2の画角への変化量が所定の閾値を超えた場合、前記仮想空間において前記ユーザが前記加速状態にあるときの第1の映像とは異なる第2の映像を生成する
請求項10に記載の情報処理装置。 - 前記映像生成部は、前記仮想空間において前記ユーザが前記加速状態にあるときの前記頭部の姿勢の変化に応じて、前記仮想カメラの前記画角を、前記第2の画角から前記第1の画角に近づけるように変化させる
請求項1に記載の情報処理装置。 - 前記映像生成部は、前記仮想空間において前記ユーザが前記加速状態にあるときの、前記第1の画角から前記第2の画角への変化量と、前記頭部の姿勢の変化量に応じた値の差分に基づいて、前記仮想カメラの前記画角を算出する
請求項13に記載の情報処理装置。 - 前記映像生成部により生成された前記映像の表示装置での表示を制御する表示制御部をさらに備える
請求項1に記載の情報処理装置。 - 前記表示装置は、HMDである
請求項15に記載の情報処理装置。 - 前記表示装置は、単体のディスプレイである
請求項15に記載の情報処理装置。 - 前記表示装置は、携帯端末である
請求項15に記載の情報処理装置。 - 情報処理装置が、
ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成し、
前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる
情報処理方法。 - コンピュータに、
ユーザの頭部の姿勢に基づいて、仮想空間における前記ユーザの視界に対応する仮想カメラの画角が制御された映像を生成し、
前記仮想空間において前記ユーザが加速状態にあるとき、前記仮想カメラの前記画角を、前記ユーザが非加速状態にあるときの第1の画角から、前記ユーザの加速方向に基づいた第2の画角に変化させる
処理を実行させるプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020509842A JP7235041B2 (ja) | 2018-03-26 | 2019-03-12 | 情報処理装置、情報処理方法、およびプログラム |
US16/981,764 US11480787B2 (en) | 2018-03-26 | 2019-03-12 | Information processing apparatus and information processing method |
KR1020207026590A KR20200133338A (ko) | 2018-03-26 | 2019-03-12 | 정보 처리 장치, 정보 처리 방법, 및 프로그램 |
CN201980020486.6A CN111868667B (zh) | 2018-03-26 | 2019-03-12 | 信息处理装置、信息处理方法和程序 |
EP19776170.3A EP3779644B1 (en) | 2018-03-26 | 2019-03-12 | Information processing device and information processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018057580 | 2018-03-26 | ||
JP2018-057580 | 2018-03-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019188229A1 true WO2019188229A1 (ja) | 2019-10-03 |
Family
ID=68061436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/009855 WO2019188229A1 (ja) | 2018-03-26 | 2019-03-12 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11480787B2 (ja) |
EP (1) | EP3779644B1 (ja) |
JP (1) | JP7235041B2 (ja) |
KR (1) | KR20200133338A (ja) |
CN (1) | CN111868667B (ja) |
WO (1) | WO2019188229A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021095143A1 (ja) * | 2019-11-12 | 2021-05-20 | 株式会社ハシラス | Vr用搭乗装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112021003448T5 (de) * | 2020-06-29 | 2023-07-06 | Sony Group Corporation | Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015122108A1 (ja) | 2014-02-17 | 2015-08-20 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017027163A (ja) * | 2015-07-16 | 2017-02-02 | 株式会社コロプラ | 仮想カメラの制御方法及び制御プログラム |
JP2017076319A (ja) * | 2015-10-16 | 2017-04-20 | 株式会社カプコン | 映像生成方法、映像生成プログラムおよび映像生成装置 |
JP2017138701A (ja) * | 2016-02-02 | 2017-08-10 | 株式会社コロプラ | 仮想空間画像提供方法、及びそのプログラム |
JP2017182130A (ja) | 2016-03-28 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2864003C (en) * | 2012-02-23 | 2021-06-15 | Charles D. Huston | System and method for creating an environment and for sharing a location based experience in an environment |
WO2014008185A1 (en) * | 2012-07-02 | 2014-01-09 | Sony Computer Entertainment Inc. | Methods and systems for interaction with an expanded information space |
US9417762B2 (en) * | 2013-01-09 | 2016-08-16 | Northrop Grumman Systems Corporation | System and method for providing a virtual immersive environment |
US10955665B2 (en) * | 2013-06-18 | 2021-03-23 | Microsoft Technology Licensing, Llc | Concurrent optimal viewing of virtual objects |
US10380799B2 (en) * | 2013-07-31 | 2019-08-13 | Splunk Inc. | Dockable billboards for labeling objects in a display having a three-dimensional perspective of a virtual or real environment |
US20150138099A1 (en) * | 2013-11-15 | 2015-05-21 | Marc Robert Major | Systems, Apparatus, and Methods for Motion Controlled Virtual Environment Interaction |
US20160027218A1 (en) * | 2014-07-25 | 2016-01-28 | Tom Salter | Multi-user gaze projection using head mounted display devices |
US9865089B2 (en) * | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US9363569B1 (en) * | 2014-07-28 | 2016-06-07 | Jaunt Inc. | Virtual reality system including social graph |
SG10201907954PA (en) * | 2014-11-28 | 2019-10-30 | Haptech Inc | Methods and apparatuses for haptic systems |
US10163255B2 (en) * | 2015-01-07 | 2018-12-25 | Geopogo, Inc. | Three-dimensional geospatial visualization |
US10684485B2 (en) * | 2015-03-06 | 2020-06-16 | Sony Interactive Entertainment Inc. | Tracking system for head mounted display |
US10300362B2 (en) * | 2015-04-23 | 2019-05-28 | Win Reality, Llc | Virtual reality sports training systems and methods |
US10078917B1 (en) * | 2015-06-26 | 2018-09-18 | Lucasfilm Entertainment Company Ltd. | Augmented reality simulation |
US9766713B2 (en) * | 2015-09-08 | 2017-09-19 | Unity IPR ApS | System and method for providing user interface tools |
WO2017051564A1 (ja) * | 2015-09-25 | 2017-03-30 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
US20170091993A1 (en) * | 2015-09-25 | 2017-03-30 | Microsoft Technology Licensing, Llc | 3D Model Generation From Map Data and User Interface |
US10724874B2 (en) * | 2015-10-13 | 2020-07-28 | Here Global B.V. | Virtual reality environment responsive to predictive route navigation |
JP6675209B2 (ja) * | 2016-01-20 | 2020-04-01 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置およびユーザガイド提示方法 |
US11314089B2 (en) * | 2016-03-07 | 2022-04-26 | Apple Inc. | Method and device for evaluating view images |
US10518172B2 (en) * | 2016-03-07 | 2019-12-31 | Htc Corporation | Accessory management of virtual reality system |
US11163358B2 (en) * | 2016-03-17 | 2021-11-02 | Sony Interactive Entertainment Inc. | Spectating virtual (VR) environments associated with VR user interactivity |
KR20170126295A (ko) * | 2016-05-09 | 2017-11-17 | 엘지전자 주식회사 | 헤드 마운티드 디스플레이 장치 및 그것의 제어방법 |
WO2017215899A2 (en) * | 2016-05-27 | 2017-12-21 | Holobuilder Inc, | Augmented and virtual reality |
US10981061B2 (en) * | 2016-06-13 | 2021-04-20 | Sony Interactive Entertainment LLC | Method and system for directing user attention to a location based game play companion application |
US10395428B2 (en) * | 2016-06-13 | 2019-08-27 | Sony Interactive Entertainment Inc. | HMD transitions for focusing on specific content in virtual-reality environments |
US10482662B2 (en) * | 2016-06-30 | 2019-11-19 | Intel Corporation | Systems and methods for mixed reality transitions |
JP6719308B2 (ja) * | 2016-07-13 | 2020-07-08 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
JP6774260B2 (ja) * | 2016-08-12 | 2020-10-21 | 株式会社バンダイナムコアミューズメント | シミュレーションシステム |
JP6185123B1 (ja) * | 2016-08-18 | 2017-08-23 | グリー株式会社 | プログラム、制御方法、及び情報処理装置 |
US10255714B2 (en) * | 2016-08-24 | 2019-04-09 | Disney Enterprises, Inc. | System and method of gaze predictive rendering of a focal area of an animation |
US20180061084A1 (en) * | 2016-08-24 | 2018-03-01 | Disney Enterprises, Inc. | System and method of bandwidth-sensitive rendering of a focal area of an animation |
US10617956B2 (en) * | 2016-09-30 | 2020-04-14 | Sony Interactive Entertainment Inc. | Methods for providing interactive content in a virtual reality scene to guide an HMD user to safety within a real world space |
US20180096505A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US20180095636A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US10152851B2 (en) * | 2016-11-29 | 2018-12-11 | Microsoft Technology Licensing, Llc | Notification artifact display |
WO2018100906A1 (ja) * | 2016-11-30 | 2018-06-07 | グリー株式会社 | アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム |
US10620441B2 (en) * | 2016-12-14 | 2020-04-14 | Qualcomm Incorporated | Viewport-aware quality metric for 360-degree video |
US20180182172A1 (en) * | 2016-12-28 | 2018-06-28 | Brillio LLC | Method and electronic device for managing display information in first immersive mode and second immersive mode |
US10373342B1 (en) * | 2017-01-10 | 2019-08-06 | Lucasfilm Entertainment Company Ltd. | Content generation in an immersive environment |
US10503964B1 (en) * | 2017-02-10 | 2019-12-10 | Aldin Dynamics, Ehf. | Method and system for measuring and visualizing user behavior in virtual reality and augmented reality |
US10554950B1 (en) * | 2017-03-16 | 2020-02-04 | Amazon Technologies, Inc. | Collection of camera calibration data using augmented reality |
US10656704B2 (en) * | 2017-05-10 | 2020-05-19 | Universal City Studios Llc | Virtual reality mobile pod |
JP6909286B2 (ja) * | 2017-05-18 | 2021-07-28 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像表示システム、および画像生成方法 |
US20180373348A1 (en) * | 2017-06-22 | 2018-12-27 | Microsoft Technology Licensing, Llc | Systems and methods of active brightness depth calculation for object tracking |
US10751621B2 (en) * | 2017-09-01 | 2020-08-25 | Square Enix Limited | Method and system for rendering video game images |
US11179635B2 (en) * | 2017-10-11 | 2021-11-23 | Sony Interactive Entertainment LLC | Sound localization in an augmented reality view of a live event held in a real-world venue |
US10930075B2 (en) * | 2017-10-16 | 2021-02-23 | Microsoft Technology Licensing, Llc | User interface discovery and interaction for three-dimensional virtual environments |
US11303814B2 (en) * | 2017-11-09 | 2022-04-12 | Qualcomm Incorporated | Systems and methods for controlling a field of view |
US10553016B2 (en) * | 2017-11-15 | 2020-02-04 | Google Llc | Phase aligned foveated rendering |
US20190204599A1 (en) * | 2017-12-28 | 2019-07-04 | Microsoft Technology Licensing, Llc | Head-mounted display device with electromagnetic sensor |
US10636188B2 (en) * | 2018-02-09 | 2020-04-28 | Nicholas T. Hariton | Systems and methods for utilizing a living entity as a marker for augmented reality content |
-
2019
- 2019-03-12 WO PCT/JP2019/009855 patent/WO2019188229A1/ja unknown
- 2019-03-12 US US16/981,764 patent/US11480787B2/en active Active
- 2019-03-12 EP EP19776170.3A patent/EP3779644B1/en active Active
- 2019-03-12 KR KR1020207026590A patent/KR20200133338A/ko not_active Application Discontinuation
- 2019-03-12 JP JP2020509842A patent/JP7235041B2/ja active Active
- 2019-03-12 CN CN201980020486.6A patent/CN111868667B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015122108A1 (ja) | 2014-02-17 | 2015-08-20 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017027163A (ja) * | 2015-07-16 | 2017-02-02 | 株式会社コロプラ | 仮想カメラの制御方法及び制御プログラム |
JP2017076319A (ja) * | 2015-10-16 | 2017-04-20 | 株式会社カプコン | 映像生成方法、映像生成プログラムおよび映像生成装置 |
JP2017138701A (ja) * | 2016-02-02 | 2017-08-10 | 株式会社コロプラ | 仮想空間画像提供方法、及びそのプログラム |
JP2017182130A (ja) | 2016-03-28 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
See also references of EP3779644A4 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021095143A1 (ja) * | 2019-11-12 | 2021-05-20 | 株式会社ハシラス | Vr用搭乗装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3779644B1 (en) | 2023-03-08 |
EP3779644A1 (en) | 2021-02-17 |
US11480787B2 (en) | 2022-10-25 |
US20210096361A1 (en) | 2021-04-01 |
CN111868667B (zh) | 2024-08-23 |
KR20200133338A (ko) | 2020-11-27 |
EP3779644A4 (en) | 2021-04-28 |
CN111868667A (zh) | 2020-10-30 |
JP7235041B2 (ja) | 2023-03-08 |
JPWO2019188229A1 (ja) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109478341B (zh) | 模拟系统、处理方法及信息存储介质 | |
JP6761340B2 (ja) | シミュレーションシステム及びプログラム | |
JP5450569B2 (ja) | プログラム、電子機器およびコンピュータシステム | |
CN110769906B (zh) | 模拟系统、图像处理方法以及信息存储介质 | |
JP2019175323A (ja) | シミュレーションシステム及びプログラム | |
WO2017188224A1 (ja) | シミュレーションシステム | |
WO2019188229A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20150135154A (ko) | 가상현실 시뮬레이터 | |
CN112104857A (zh) | 图像生成系统、图像生成方法及信息存储介质 | |
US10525352B2 (en) | Game processing method and recording medium | |
JP6425846B1 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP2017196293A (ja) | ゲームシステム | |
JP2017220224A (ja) | 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム | |
JP6057738B2 (ja) | ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 | |
JP2019080743A (ja) | プログラム及びコンピュータシステム | |
JP7104539B2 (ja) | シミュレーションシステム及びプログラム | |
JP3138448B2 (ja) | 画像生成装置及び情報記憶媒体 | |
JP4040609B2 (ja) | 移動体シミュレーション装置及び移動体シミュレーションプログラム | |
JP2019176934A (ja) | シミュレーションシステム | |
JP5439741B2 (ja) | ゲーム装置 | |
JP2020004061A (ja) | 仮想体験を提供するためにコンピュータで実行される方法、プログラム、情報処理装置および情報処理システム | |
WO2021095143A1 (ja) | Vr用搭乗装置 | |
JP2019080742A (ja) | プログラムおよびコンピュータシステム | |
JP5377868B2 (ja) | プログラム、情報記憶媒体、およびゲームシステム | |
JP2004097243A (ja) | 可動式仮想空間システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19776170 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2020509842 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2019776170 Country of ref document: EP Effective date: 20201026 |