WO2017199848A1 - 仮想空間を提供する方法、プログラム及び記録媒体 - Google Patents
仮想空間を提供する方法、プログラム及び記録媒体 Download PDFInfo
- Publication number
- WO2017199848A1 WO2017199848A1 PCT/JP2017/017878 JP2017017878W WO2017199848A1 WO 2017199848 A1 WO2017199848 A1 WO 2017199848A1 JP 2017017878 W JP2017017878 W JP 2017017878W WO 2017199848 A1 WO2017199848 A1 WO 2017199848A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- content
- virtual space
- user
- hmd
- sight
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
Definitions
- the present disclosure relates to a method, a program, and a recording medium that provide a virtual space.
- Patent Document 1 describes a method of displaying objects such as a signboard and a bulletin board in a virtual space.
- Patent Document 2 describes a system for viewing content using a head-mounted display.
- Patent Literature 3 describes a system for viewing content using a head-mounted display.
- Patent Document 4 discloses a technique for allowing a user to visually recognize content played back in a virtual space through a head-mounted display.
- JP 2003-248844 A Japanese Patent No. 5882517 JP 2013-258614 A JP 2009-145883 A
- the present disclosure has been made in view of such circumstances, and provides a method of displaying other content such as advertisements when reproducing moving image content on a head-mounted display.
- FIG. 1 is a diagram showing a configuration of the HMD system 100.
- the HMD system 100 includes an HMD 110, an HMD sensor 120, a control circuit unit 200, and a controller 300.
- the HMD 110 is worn on the user's head.
- the HMD 110 includes a display 112 which is a non-transmissive display device, a sensor 114, and a gaze sensor 130.
- the HMD 110 displays a right-eye image and a left-eye image on the display 112, thereby allowing the user to visually recognize a three-dimensional image that is stereoscopically viewed by the user based on the parallax between both eyes of the user.
- This provides a virtual space to the user. Since the display 112 is disposed in front of the user's eyes, the user can immerse in the virtual space through an image displayed on the display 112.
- the virtual space may include a background, various objects that can be operated by the user, menu images, and the like.
- the display 112 may include a right-eye sub-display that displays a right-eye image and a left-eye sub-display that displays a left-eye image.
- the display 112 may be a single display device that displays the right-eye image and the left-eye image on a common screen.
- a display device for example, a display device that alternately displays a right-eye image and a left-eye image independently by switching a shutter so that the display image can be recognized only by one eye. .
- FIG. 2 is a diagram illustrating a hardware configuration of the control circuit unit 200.
- the control circuit unit 200 is a computer for causing the HMD 110 to provide a virtual space.
- the control circuit unit 200 includes a processor, a memory, a storage, an input / output interface, and a communication interface. These are connected to each other in the control circuit unit 200 through a bus as a data transmission path.
- the memory functions as main memory.
- the memory stores a program processed by the processor and control data (such as calculation parameters).
- Memory is ROM (Read It may be configured to include only memory (RAM) or random access memory (RAM).
- Storage functions as auxiliary storage stores a program for controlling the operation of the entire HMD system 100, various simulation programs, a user authentication program, and various data (images, objects, etc.) for defining a virtual space. Furthermore, a database including a table for managing various data may be constructed in the storage.
- the storage can be configured to include a flash memory or a HDD (Hard Disc Drive).
- Input / output interfaces include USB (Universal Serial Bus) terminals, DVI (Digital Visual Interface) terminals, HDMI (registered trademark) (High-Definition Multimedia Interface) terminals, and various wired connection terminals for wireless connection. These processing circuits are included.
- the input / output interface connects the HMD 110, various sensors including the HMD sensor 120, and the controller 300 to each other.
- the communication interface includes various wired connection terminals for communicating with an external device via the network NW and various processing circuits for wireless connection.
- the communication interface is configured to conform to various communication standards and protocols for communication via a LAN (Local Area Network) or the Internet.
- the control circuit unit 200 provides a virtual space to the user by loading a predetermined application program stored in the storage into the memory and executing it.
- the memory and the storage store various programs for operating various objects arranged in the virtual space and displaying and controlling various menu images and the like.
- the control circuit unit 200 may or may not be mounted on the HMD 110. That is, the control circuit unit 200 may be another hardware independent of the HMD 110 (for example, a personal computer or a server device that can communicate with the HMD 110 through a network).
- the control circuit unit 200 may be a device in which one or a plurality of functions are implemented by cooperation of a plurality of hardware. Alternatively, only a part of all the functions of the control circuit unit 200 may be mounted on the HMD 110, and the remaining functions may be mounted on different hardware.
- a global coordinate system (reference coordinate system, xyz coordinate system) is set in advance for each element such as the HMD 110 constituting the HMD system 100.
- This global coordinate system has three reference directions (axes) parallel to the vertical direction, the horizontal direction orthogonal to the vertical direction, and the front-rear direction orthogonal to both the vertical direction and the horizontal direction in the real space.
- the horizontal direction, vertical direction (vertical direction), and front-rear direction in the global coordinate system are set as an x-axis, a y-axis, and a z-axis, respectively.
- the x-axis of the global coordinate system is parallel to the horizontal direction of the real space
- the y-axis is parallel to the vertical direction of the real space
- the z-axis is parallel to the front-rear direction of the real space.
- the HMD sensor 120 has a position tracking function for detecting the movement of the HMD 110. With this function, the HMD sensor 120 detects the position and inclination of the HMD 110 in the real space.
- the HMD 110 includes a plurality of light sources (not shown). Each light source is, for example, an LED that emits infrared rays.
- the HMD sensor 120 includes, for example, an infrared sensor. The HMD sensor 120 detects the detection point of the HMD 110 by detecting the infrared ray irradiated from the light source of the HMD 110 with the infrared sensor.
- the HMD sensor 120 may include an optical camera. In this case, the HMD sensor 120 detects the position and inclination of the HMD 110 based on the image information of the HMD 110 obtained by the optical camera.
- the HMD 110 may detect its own position and inclination using the sensor 114.
- the sensor 114 may be an angular velocity sensor, a geomagnetic sensor, an acceleration sensor, or a gyro sensor, for example.
- the HMD 110 uses at least one of these.
- the sensor 114 is an angular velocity sensor
- the sensor 114 detects the angular velocity around the three axes in the real space of the HMD 110 over time according to the movement of the HMD 110.
- the HMD 110 can determine the temporal change of the angle around the three axes of the HMD 110 based on the detected value of the angular velocity, and can detect the inclination of the HMD 110 based on the temporal change of the angle.
- the HMD sensor 120 When the HMD 110 detects the position and inclination of the HMD 110 based on the detection value by the sensor 114, the HMD sensor 120 is not necessary for the HMD system 100. Conversely, when the HMD sensor 120 arranged at a position away from the HMD 110 detects the position and inclination of the HMD 110, the sensor 114 is not necessary for the HMD 110.
- each inclination of the HMD 110 detected by the HMD sensor 120 corresponds to each inclination around the three axes of the HMD 110 in the global coordinate system.
- the HMD sensor 120 sets the uvw visual field coordinate system to the HMD 110 based on the detected value of the inclination of the HMD sensor 120 in the global coordinate system.
- the uvw visual field coordinate system set in the HMD 110 corresponds to a viewpoint coordinate system when a user wearing the HMD 110 views an object.
- FIG. 3 is a diagram illustrating a uwv visual field coordinate system set in the HMD 110.
- the HMD sensor 120 detects the position and inclination of the HMD 110 in the global coordinate system when the HMD 110 is activated. Then, a three-dimensional uvw visual field coordinate system based on the detected tilt value is set in the HMD 110. As shown in FIG. 3, the HMD sensor 120 sets a three-dimensional uvw visual field coordinate system around the head of the user wearing the HMD 110 as the center (origin) in the HMD 110.
- the horizontal direction, the vertical direction, and the front-rear direction (x axis, y axis, z axis) that define the global coordinate system are respectively set around each axis by an inclination around each axis of the HMD 110 in the global coordinate system.
- Three new directions obtained by tilting are set as the pitch direction (u-axis), yaw direction (v-axis), and roll direction (w-axis) of the uvw visual field coordinate system in the HMD 110.
- the HMD sensor 120 sets the uvw visual field coordinate system parallel to the global coordinate system to the HMD 110 when the user wearing the HMD 110 stands upright and visually recognizes the front.
- the horizontal direction (x-axis), the vertical direction (y-axis), and the front-back direction (z-axis) of the global coordinate system are the same as the pitch direction (u-axis) and yaw direction (v of the uvw visual field coordinate system in the HMD 110. Axis) and the roll direction (w-axis).
- the HMD sensor 120 can detect the inclination (amount of change in inclination) of the HMD 110 in the currently set uvw visual field coordinate system according to the movement of the HMD 110 after setting the uvw visual field coordinate system in the HMD 110.
- the HMD sensor 120 detects the pitch angle ( ⁇ u), yaw angle ( ⁇ v), and roll angle ( ⁇ w) of the HMD 110 in the currently set uvw visual field coordinate system as the inclination of the HMD 110.
- the pitch angle ( ⁇ u) is an inclination angle of the HMD 110 around the pitch direction in the uvw visual field coordinate system.
- the yaw angle ( ⁇ v) is an inclination angle of the HMD 110 around the yaw direction in the uvw visual field coordinate system.
- the roll angle ( ⁇ w) is an inclination angle of the HMD 110 around the roll direction in the uvw visual field coordinate system.
- the HMD sensor 120 newly sets the uvw visual field coordinate system in the HMD 110 after moving based on the detected value of the inclination of the HMD 110 to the HMD 110.
- the relationship between the HMD 110 and the uvw visual field coordinate system of the HMD 110 is always constant regardless of the position and inclination of the HMD 110.
- the position and inclination of the HMD 110 change, the position and inclination of the uvw visual field coordinate system of the HMD 110 in the global coordinate system similarly change in conjunction with the change.
- the HMD sensor 120 determines the position of the HMD 110 in the real space relative to the HMD sensor 120 based on the infrared light intensity acquired by the infrared sensor and the relative positional relationship (distance between the detection points) between the plurality of detection points. You may specify as a position.
- the origin of the uvw visual field coordinate system of the HMD 110 in the real space (global coordinate system) may be determined based on the specified relative position.
- the HMD sensor 120 detects the inclination of the HMD 110 in the real space based on the relative positional relationship between the plurality of detection points, and further, based on the detected value, the uvw visual field coordinates of the HMD 110 in the real space (global coordinate system).
- the orientation of the system may be determined.
- FIG. 4 is a diagram illustrating an outline of the virtual space 2 provided to the user. As shown in this figure, the virtual space 2 has a spherical structure that covers the entire 360 ° direction of the center 21. FIG. 4 illustrates only the upper half celestial sphere in the entire virtual space 2. A plurality of substantially square or substantially rectangular meshes are associated with the virtual space 2. The position of each mesh in the virtual space 2 is defined in advance as coordinates in a space coordinate system (XYZ coordinate system) defined in the virtual space 2.
- XYZ coordinate system space coordinate system
- the control circuit unit 200 associates each partial image constituting content (still image, moving image, etc.) that can be developed in the virtual space 2 with each corresponding mesh in the virtual space 2, thereby enabling the virtual space image that can be visually recognized by the user.
- the virtual space 2 in which 22 is expanded is provided to the user.
- the virtual space 2 defines an XYZ space coordinate system with the center 21 as the origin.
- the XYZ coordinate system is parallel to the global coordinate system, for example. Since the XYZ coordinate system is a kind of viewpoint coordinate system, the horizontal direction, vertical direction (vertical direction), and front-rear direction in the XYZ coordinate system are defined as an X axis, a Y axis, and a Z axis, respectively.
- the X axis (horizontal direction) of the XYZ coordinate system is parallel to the x axis of the global coordinate system
- the Y axis (vertical direction) of the XYZ coordinate system is parallel to the y axis of the global coordinate system
- the Z axis (front-rear direction) is parallel to the z axis of the global coordinate system.
- the virtual camera 1 When the HMD 110 is activated (initial state), the virtual camera 1 is arranged at the center 21 of the virtual space 2.
- the virtual camera 1 moves similarly in the virtual space 2 in conjunction with the movement of the HMD 110 in the real space. Thereby, changes in the position and orientation of the HMD 110 in the real space are similarly reproduced in the virtual space 2.
- the uvw visual field coordinate system is defined for the virtual camera 1 similarly to the HMD 110.
- the uvw visual field coordinate system of the virtual camera 1 in the virtual space 2 is defined to change to the uvw visual field coordinate system of the HMD 110 in the real space (global coordinate system). Therefore, when the inclination of the HMD 110 changes, the inclination of the virtual camera 1 also changes accordingly.
- the virtual camera 1 can also move in the virtual space 2 in conjunction with the movement of the user wearing the HMD 110 in the real space.
- the orientation of the virtual camera 1 in the virtual space 2 is determined according to the position and inclination of the virtual camera 1 in the virtual space 2.
- a line of sight reference line of sight 5
- the control circuit unit 200 determines the visual field region 23 in the virtual space 2 based on the reference visual line 5.
- the visual field area 23 is an area corresponding to the visual field of the user wearing the HMD 110 in the virtual space 2.
- FIG. 5 is a diagram showing a cross section of the visual field region 23.
- FIG. 5A shows a YZ cross section of the visual field region 23 viewed from the X direction in the virtual space 2.
- FIG. 5B shows an XZ cross-section of the visual field region 23 viewed from the Y direction in the virtual space 2.
- the visual field region 23 is defined by the first region 24 (see FIG. 5A) that is a range defined by the reference line of sight 5 and the YZ section of the virtual space 2, and the reference line of sight 5 and the XZ section of the virtual space 2.
- a second region 25 (see FIG. 5B) which is a defined range.
- the control circuit unit 200 sets a range including the polar angle ⁇ around the reference line of sight 5 in the virtual space 2 as the first region 24.
- a range including the azimuth angle ⁇ around the reference line of sight 5 in the virtual space 2 is set as the second region 25.
- the control circuit unit 200 may move the virtual camera 1 in the virtual space 2 in conjunction with the movement of the user wearing the HMD 110 in the real space. In this case, the control circuit unit 200 identifies the visual field region 23 that is visually recognized by the user by being projected on the display 112 of the HMD 110 in the virtual space 2 based on the position and orientation of the virtual camera 1 in the virtual space 2.
- the gaze sensor 130 has an eye tracking function that detects the direction (gaze direction) in which the line of sight of the user's right eye and left eye is directed.
- the gaze sensor 130 a known sensor having an eye tracking function can be employed.
- the gaze sensor 130 preferably includes a right eye sensor and a left eye sensor.
- the gaze sensor 130 may be, for example, a sensor that detects the rotation angle of each eyeball by irradiating the user's right eye and left eye with infrared light and receiving reflected light from the cornea and iris with respect to the irradiated light.
- the gaze sensor 130 can detect the direction of the user's line of sight based on each detected rotation angle.
- the user's line-of-sight direction detected by the gaze sensor 130 is a direction in the viewpoint coordinate system when the user visually recognizes the object.
- the uvw visual field coordinate system of the HMD 110 is equal to the viewpoint coordinate system when the user visually recognizes the display 112.
- the uvw visual field coordinate system of the virtual camera 1 is linked to the uvw visual field coordinate system of the HMD 110. Therefore, in the HMD system 100, the user's line-of-sight direction detected by the gaze sensor 130 can be regarded as the user's line-of-sight direction in the uvw visual field coordinate system of the virtual camera 1.
- the line-of-sight direction N0 is a direction in which the user U actually points the line of sight with both eyes.
- the line-of-sight direction N0 is also a direction in which the user U actually directs his / her line of sight with respect to the field-of-view area 23.
- the HMD system 100 may include a microphone and a speaker in any element constituting the HMD system 100. Thereby, the user can give a voice instruction to the virtual space 2. Further, in order to receive a broadcast of a television program on a virtual television in a virtual space, the HMD system 100 may include a television receiver as any element. Further, it may include a communication function or the like for displaying an electronic mail or the like acquired by the user.
- the controller 300 is a device that can transmit various commands based on user operations to the control circuit unit 200.
- the controller 300 can be a portable terminal capable of wired or wireless communication.
- the controller 300 may be, for example, a smartphone, a PDA (Personal Digital Assistant), a tablet computer, a game console, a general-purpose PC (Personal Computer), or the like.
- the controller 300 is preferably a device including a touch panel, and any terminal including a processor, a memory, a storage, a communication unit, and a touch panel in which a display unit and an input unit are integrated with each other may be employed.
- the user inputs various touch operations including tap, swipe, and hold on the touch panel of the controller 300, thereby affecting various objects and UI (User Interface) arranged in the virtual space 2. be able to.
- UI User Interface
- FIG. 7 is a block diagram showing a functional configuration of the control circuit unit 200.
- the control circuit unit 200 controls the virtual space 2 provided to the user by using various data received from the HMD sensor 120, the gaze sensor 130, and the controller 300, and displays an image on the display 112 of the HMD 110.
- Control As illustrated in FIG. 7, the control circuit unit 200 includes a detection unit 210, a display control unit 220, a virtual space control unit 230, a storage unit 240, and a communication unit 250.
- the control circuit unit 200 functions as a detection unit 210, a display control unit 220, a virtual space control unit 230, a storage unit 240, and a communication unit 250 by the cooperation of the hardware illustrated in FIG.
- the functions of the detection unit 210, the display control unit 220, and the virtual space control unit 230 can be realized mainly by the cooperation of the processor and the memory.
- the function of the storage unit 240 can be realized mainly by the cooperation of the memory and the storage.
- the function of the communication unit 250 can be realized mainly by the cooperation of the processor and the communication interface.
- the detection unit 210 receives detection values from various sensors (such as the HMD sensor 120) connected to the control circuit unit 200. Moreover, the predetermined process using the received detected value is performed as needed.
- the detection unit 210 includes an HMD detection unit 211, a line-of-sight detection unit 212, and an operation reception unit 213.
- the HMD detection unit 211 receives detection values from the HMD 110 and the HMD sensor 120, respectively.
- the line-of-sight detection unit 212 receives the detection value from the gaze sensor 130.
- the operation reception unit 213 receives the operation by receiving a command transmitted in response to a user operation on the controller 300.
- the display control unit 220 controls image display on the display 112 of the HMD 110.
- the display control unit 220 includes a virtual camera control unit 221, a visual field region determination unit 222, and a visual field image generation unit 223.
- the virtual camera control unit 221 arranges the virtual camera 1 in the virtual space 2 and controls the behavior of the virtual camera 1 in the virtual space 2.
- the view area determination unit 222 determines the view area 23.
- the view image generation unit 223 generates a view image 26 displayed on the display 112 based on the determined view area 23.
- the virtual space control unit 230 controls the virtual space 2 provided to the user.
- the virtual space control unit 230 includes a virtual space defining unit 231, a line-of-sight management unit 232, a content specification unit 233, a content management unit 234, an inclination correction value specification unit 235, an operation object control unit 236, and a rotation control unit 237.
- the virtual space defining unit 231 defines the virtual space 2 in the HMD system 100 by generating virtual space data representing the virtual space 2 provided to the user.
- the line-of-sight management unit 232 manages the user's line of sight in the virtual space 2.
- the content specifying unit 233 specifies the content to be reproduced in the virtual space 2.
- the content management unit 234 synthesizes the advertising content with the moving image content.
- the content management unit 234 identifies content to be played back in the virtual space 2.
- the content management unit 234 recognizes the temporal position of the content being reproduced in the virtual space 2 and determines whether or not it is time for the advertisement to be displayed.
- the inclination correction value specifying unit 235 specifies an inclination correction value defined in advance for content to be reproduced in the virtual space 2.
- the operation object control unit 236 controls the operation object 28 in the virtual space 2.
- the rotation control unit 237 controls the rotation of the virtual camera 1 or the virtual space 2 based on the operation on the operation object 28.
- the template data is data representing a template of the virtual space 2.
- the template data has spatial structure data that defines the spatial structure of the virtual space 2.
- the spatial structure data is data that defines the spatial structure of a 360-degree celestial sphere centered on the center 21, for example.
- the template data further includes data defining the XYZ coordinate system of the virtual space 2.
- the template data further includes coordinate data for specifying the position of each mesh constituting the celestial sphere in the XYZ coordinate system.
- the template data further includes a flag indicating whether or not an object can be arranged in the virtual space 2.
- Content is content that can be played back in the virtual space 2.
- Examples of content include platform content and viewing content.
- Platform content is content related to an environment (platform) for allowing the user to select viewing content that the user wants to view in the virtual space 2. By reproducing the platform content in the virtual space 2, a platform for content selection is provided to the user.
- the platform content has at least a background image and data defining an object.
- the viewing content is, for example, still image content or moving image content.
- the still image content has a background image.
- the moving image content includes at least an image (still image) of each frame.
- the moving image content may further include audio data.
- the moving image content is, for example, content generated by an omnidirectional camera.
- An omnidirectional camera is a camera that can generate images in all directions at once by photographing all directions in a real space around the lens of the camera at once.
- Each image constituting the moving image content obtained by the omnidirectional camera is distorted, but when the moving image content is reproduced in the virtual space 2, the distortion of each image is canceled by the lens constituting the display 112 of the HMD 110. It is solved by. Therefore, at the time of reproduction of the moving image content, the user can visually recognize a natural image without distortion in the virtual space 2.
- an initial direction facing an image to be shown to the user in the initial state (starting up) of the HMD 110 is defined in advance.
- the initial direction defined in the moving image content generated by the omnidirectional camera usually matches the predetermined shooting direction defined in the omnidirectional camera used for shooting the moving image content.
- the initial direction may be changed to a direction different from the shooting direction.
- the moving image content obtained may be edited as appropriate so that the moving image content is defined as the initial direction in the direction deviated from the shooting direction.
- Each content has a predetermined inclination correction value as required in advance.
- the tilt correction value is defined for the content in accordance with the attitude that is assumed when the user views the content. For example, an inclination correction value corresponding to a sitting posture is defined for content on the assumption that the user views in a sitting posture. On the other hand, an inclination correction value corresponding to the supine posture is defined for content on the assumption that the user views in the supine posture.
- the tilt correction value is used to correct the tilt of the virtual camera 1 with respect to the HMD 110 in the global coordinate system. Alternatively, it is used to correct the inclination of the XYZ coordinate system of the virtual space 2 with respect to the global coordinate system.
- the tilt correction value defined for the content is 0 °.
- Many contents are based on the premise that the user views in a sitting position. The user views this type of content while actually sitting or standing in order to enhance the reality in the virtual space 2 where this type of content is reproduced.
- the tilt correction value defined in the content is, for example, 60 °.
- this type of content for example, there is a moving image content that presents the user with a video that the user visually recognizes when another user has a knee pillow.
- the initial direction defined in advance for such moving image content is directed to a portion of the omnidirectional image that is viewed with the user lying down. The user views this type of moving image content while actually lying on the floor in order to enhance the reality in the virtual space 2 where this type of moving image content is reproduced.
- the tilt correction value described above is merely an example.
- An arbitrary value corresponding to the user's posture assumed when viewing the content can be set as the tilt correction value in the content. For example, if the content is based on the premise that the user views with the user facing vertically upward, 90 ° is defined as the tilt correction value. On the other hand, if the content is based on the premise that the user is viewing directly below the content, -90 ° is defined as the tilt correction value for the content.
- tilt correction values need not be specified in advance for such content. If no tilt correction value is specified for the content, the tilt correction value specifying unit 235 assumes that a tilt correction value having a value of 0 ° is specified for the content.
- the communication unit 250 transmits / receives data to / from an external device 400 (for example, a server) via the network NW.
- an external device 400 for example, a server
- the gaze sensor 130 detects the right eye line and the left eye line of the user in S25, and transmits each detected value to the control circuit unit 200 in S26.
- the line-of-sight detection unit 212 receives this detection value.
- the line-of-sight detection unit 212 identifies the user's line-of-sight direction N ⁇ b> 0 in the uvw visual field coordinate system of the virtual camera 1 using the received detection value.
- the line-of-sight management unit 232 determines whether or not the user's line of sight has hit a specific thumbnail included in the view image 26 for a predetermined time or more based on the line-of-sight direction N0 and each thumbnail included in the view area 23. . More specifically, the line-of-sight management unit 232 determines whether or not the point where the line-of-sight direction N0 in the visual field region 23 intersects is included in the display range (arrangement range) of a specific thumbnail included in the visual field region 23. If the determination result is YES, it is determined that the line of sight has hit a specific thumbnail included in the field-of-view image 26. If NO, it is determined that the line of sight has not hit the specific thumbnail.
- the process of FIG. 9 returns to immediately before S25. Thereafter, the processes of S25 to S28 are repeated until S28 becomes YES.
- the content specifying unit 233 specifies the content corresponding to the thumbnail that has been determined that the line of sight has been hit for a specified time or more. For example, when the user focuses on the thumbnail SN1 for a predetermined time or more, the moving image content associated with the management data of the thumbnail SN1 is specified as the content corresponding to the thumbnail SN1.
- the virtual space defining unit 231 defines the virtual space 2 for reproducing the moving image content by generating virtual space data for reproducing the specified moving image content.
- the generation procedure is as follows. First, the virtual space defining unit 231 acquires the template data of the virtual space 2 corresponding to the moving image content from the template storage unit 241.
- the virtual space defining unit 231 acquires the moving image content specified by the content specifying unit 233 from the content storage unit 242.
- the virtual space defining unit 231 generates virtual space data that defines the virtual space 2 for reproducing moving image content by adapting the acquired moving image content to the acquired template data.
- the virtual space defining unit 231 appropriately associates each partial image constituting the first frame image included in the moving image content with the management data of each mesh constituting the celestial sphere of the virtual space 2 in the virtual space data.
- the virtual space defining unit 231 generates virtual space data that does not include object management data.
- the view image generation unit 223 After generating virtual space data representing the virtual space 2 for reproducing moving image content, the view image generation unit 223 generates a view image 26 based on the user's reference line of sight 5 in S31. This generation method is the same as the method described with reference to FIG. Here, a view image 26 of the moving image content is generated.
- the visual field image generation unit 223 outputs the generated visual field image 26 to the HMD 110.
- the HMD 110 updates the view image 26 by displaying the received view image 26 on the display 112. Thereby, the reproduction of the moving image content in the virtual space 2 is started, and the user visually recognizes the view image 26 of the moving image content.
- the view field image 26 is updated in conjunction with the movement. Therefore, the user can visually recognize a partial image (view image 26) at a desired position in the omnidirectional image of each frame constituting the moving image content by appropriately moving the HMD 110.
- FIG. 10C shows an example of the visual field image 26 of the moving image content.
- the view image 26 shown in this figure is the view image 26 of the moving image content corresponding to the thumbnail SN1 selected by the user.
- the platform view image 26 displayed on the display 112 is shown in FIG.
- the view image 26 of the moving image content shown in FIG. That is, the user can view the moving image content corresponding to this in the virtual space 2 by selecting the thumbnail SN1 by moving the line of sight in the virtual space 2.
- the user can select the moving image content to be viewed in the virtual space 2 through the moving image content selection platform in the virtual space 2. Therefore, the user does not need to select the moving image content that the user wants to view in the virtual space 2 while visually recognizing another general display connected to the control circuit unit 200 in the real space before wearing the HMD 110. Thereby, a user's immersion feeling with respect to the virtual space 2 can be improved further.
- the control circuit unit 200 provides the user with the virtual space 2 in which the moving image content is reproduced. Then, again, the virtual space 2 in which the platform for selecting moving image contents is developed is provided to the user. Thus, the user can view other moving image content in the virtual space 2 by selecting another thumbnail. Since the user does not need to remove the HMD 110 when switching the moving image content that the user wants to view, the user's immersion in the virtual space 2 can be further enhanced.
- the combined content obtained by combining the moving image content and the advertising content SC1 is reproduced so that the content of the advertising content SC1 is displayed in the specified display area in the moving image content.
- the display area is defined by information including at least a temporal position and a spatial position of moving image content.
- the temporal position can be said to be information indicating which frame is displayed.
- the spatial position indicates a place in one frame.
- the information indicating the viewing direction of the user used in the processing of the control circuit unit 200 such as the line-of-sight management unit 232 may be information indicating the direction of the line-of-sight direction N0, or information indicating the viewing direction. It may be.
- FIG. 11 shows a view field image of a scene displaying the contents of the advertisement content SC1 or SC2 among the view images displayed by the view field image generation unit 223 reproducing the composite content. That is, the visual field image generation unit 223 displays a visual field image obtained by combining the advertising content SC1 in the moving image content display area F1 in the scene C1 ′, and displays the advertising content SC2 in the moving picture content display area F2 in the scene C1 ′′. In other words, the view field image generation unit 223 combines the moving image content and the advertising content SC1 so as to display the advertising content SC1 in the display area F1 in the scene C1 ′, and the scene. Processing for synthesizing the moving image content and the advertising content SC2 is performed so that the advertising content SC2 is displayed in the display area F2 in C1 ′′.
- the advertisement contents SC1 and SC2 may be moving images or still images.
- FIG. 12 is a flowchart showing a flow of processing in which the control circuit unit 200 synthesizes the moving image content and the advertising content SC1.
- the communication unit 250 receives moving image content.
- the timing at which the communication unit 250 acquires the moving image content is not particularly limited.
- the operation receiving unit 213 receives an operation instructing acquisition of the moving image content performed by the user using the controller 300, thereby acquiring the moving image content. May be.
- the communication unit 250 determines whether or not the video content not stored in the storage unit 240 is stored in the external device 400 at a predetermined time by referring to the external device 400, and the unstored video content May be obtained automatically.
- Display advertising content A user who views moving image content on a head-mounted display is deeply immersed in the content of the moving image content as compared to a user who views moving image content on a stationary television or the like. Therefore, if an advertisement can be displayed when reproducing the moving image content on the head mounted display, a high advertising effect can be expected. However, if an advertisement is displayed at a position that is easy to enter the user's field of view, the sense of immersion in the virtual space may be impaired.
- This disclosure provides a method of displaying content such as an advertisement that has little effect on the user's immersive feeling even when other content such as an advertisement is displayed when reproducing moving image content on a head-mounted display.
- FIG. 13 shows a visual field image for displaying the advertising content SC1 (first sub-content), a visual field image for displaying the advertising content SC2 (second sub-content) for guiding the line of sight to the advertising content SC1, and the virtual space 2 It is a figure for demonstrating the relationship with this position.
- the visual field image v1 is a part of the virtual space image 22 generated during the reproduction of the moving image content.
- the visual field image v ⁇ b> 1 is a part of the visual field image displayed based on the reference line of sight when the user is facing forward in the virtual space 2.
- the “front” may be a plus direction ( ⁇ 90 ° or more and + 90 ° or less) in the horizontal direction with respect to the initial direction, for example, preferably in the vicinity of the initial direction.
- “rearward” is a minus direction in the horizontal direction with respect to the initial direction (range of greater than 90 ° and less than or equal to 180 °, less than ⁇ 90 ° and greater than or equal to ⁇ 180
- the visual field image generation unit 223 displays a part of the bookshelf in the advertising content SC1 on the mirror m1 in the visual field image v1 (second sub content display step).
- a part of the image on the bookshelf is the advertisement content SC2 for guiding the line of sight to the advertisement content SC1 located on the rear side as viewed from the user viewing the moving image content facing the front side.
- the advertisement content SC2 is content for informing the user that there is content to be noted on the rear side with respect to the initial direction. While the moving image content is being reproduced, the user tends to mainly view the front side near the initial direction. Therefore, if the control circuit unit 200 displays advertising content on the rear side with respect to the initial direction, the user's immersive feeling is not impaired.
- the display method of the advertisement content SC2 is not limited to the form in which a part of the advertisement content SC1 is displayed in the mirror as in the present embodiment. What is necessary is just to be able to reflect a part of the content on the rear side on the front side of the virtual space image 22 so as not to be unnatural. For example, if an image having some reflection surface is displayed on the front side of the virtual space image 22, it is preferable to display an image showing at least a part of the advertising content SC1 in that portion. Therefore, when a person appearing in the moving image content opens the window, a part of the advertisement content SC1 may be drawn in the window, and it may be drawn as if a part of the advertisement content SC1 behind is reflected in the window. .
- the visual field image generation unit 223 may always display the advertisement content SC2, or may display only a predetermined temporal position.
- the visual field image generation unit 223 may display the advertising content SC2 when the main character in the moving image content looks into a mirror or opens a curtain on the window.
- a still image is used as content for visual line guidance will be described.
- a moving image or audio may be used.
- the visual field image generation unit 223 displays the visual field image v2 when recognizing that the user is facing backward. That is, the visual field image generation unit 223 generates the visual field image v2 by updating the visual field image based on the orientation of the HMD 110.
- the visual field image v2 is a part of the virtual space image 22 generated during the reproduction of the moving image content.
- the visual field image v2 is a part of the visual field image displayed based on the reference line of sight when the user is facing backward in the virtual space 2.
- the visual field image v2 includes advertisement content SC1.
- the advertisement content SC1 includes advertisement images p1 and p2 and an advertisement background image b1.
- the advertisement background image b1 hides a joint area S described later.
- the advertisement images p1 and p2 are displayed on the advertisement background image b1.
- the advertising content SC1 may be a moving image or a still image.
- the joint region S is a place where joints that cause inconsistencies between images among the joints of a plurality of images are gathered.
- the joint region S is positioned on the negative direction (backward) side of the initial direction.
- the moving image content is taken by an omnidirectional camera.
- an image may be generated by connecting the separated images.
- the separated image may be an image separated into a plurality of images or a part of one image separated.
- the communication unit 250 When the communication unit 250 acquires the moving image content, the communication unit 250 stores it in the storage unit 240.
- the content management unit 234 recognizes that new moving image content is stored in the storage unit 240.
- the content management unit 234 acquires line-of-sight guidance frame information (frame information) from the moving image content (second sub-content frame information acquisition step).
- the line-of-sight guidance frame information includes information indicating the temporal position of the scene including the display area of the advertisement content SC2 and the spatial position of the display area.
- the creator of the moving image content associates the gaze guidance frame information with the content when creating the content.
- the creator of the moving image content can specify a portion that is not unnatural even if the advertising content SC2 is displayed, such as the above-described mirror, in the video displayed in the moving image content. Therefore, it is possible to display an image for guiding the line of sight without impairing the user's immersive feeling.
- the content management unit 234 synthesizes the advertisement background image b1 and the virtual space image 22 of the moving image content so as to have continuity.
- the content management unit 234 synthesizes the wall and floor in the advertisement image b ⁇ b> 1 so as to be continuous with the wall and floor near the joint region S of the virtual space image 22.
- Advertisement images p1 and p2 are images showing the contents of the advertisement.
- the advertisement background image b1 includes a bookshelf and a poster stand so that a natural display can be achieved even if the contents of the advertisement are displayed.
- the content management unit 234 combines the advertisement images p1 and p2 on the shelves and poster stands in the bookshelf. As a result, the advertisement images p1 and p2 are displayed as if they were originally present in the bookshelf or the posters themselves, so that the user's immersive feeling is not impaired.
- a method for combining the advertising content SC1 and SC2 with the moving image content is not particularly limited. For example, a process of pasting an image such as the advertising content on a frame image of the moving image content is performed. Further, the size and shape of the image may be adjusted as appropriate. For example, if an object such as a bookshelf or a mirror to which the image is to be pasted is visible in the distance, the size of each image is reduced, or if the object is visible from an oblique direction, each image The shape may be processed into a trapezoidal shape.
- the present invention is not limited to such a mode.
- the visual field image generation unit 223 displays the moving image content on the HMD 110
- the composite content is generated by generating the visual field image so that the advertising content SC1 and the advertising content SC2 are superimposed and displayed in a predetermined display area. May be.
- the HMD system 100 may acquire the composite of the external device 400 such as a server.
- the external device 400 may perform a process of hiding the joint area S with an image corresponding to the advertisement background image, and the HMD system 100 may perform a process of synthesizing the advertisement image on the advertisement background image.
- FIG. 14 is a schematic diagram for explaining the relationship between the lattice and the position of the advertisement content.
- a lattice G is associated with the virtual space data generated when the control circuit unit 200 reproduces the moving image content. More specifically, the grid G is associated with the template data that is a part of the virtual space data.
- the line-of-sight information collection section FE is one of the sections formed by the lattice G, and is set at a specified location in the celestial sphere constituting the virtual space 2.
- the line-of-sight information collection section FE is assigned a function for determining whether or not the user's line of sight (view direction or line-of-sight direction N0) intersects the line-of-sight information collection section FE. More specifically, the line-of-sight information collection section FE is associated with template data for generating virtual space data.
- a line-of-sight information collection section FE is set in the virtual space 2 by generating virtual space data using the template data.
- a virtual space is provided by arranging objects as in a game or the like, it is sufficient that the objects have a function of collecting line-of-sight information. Easy. However, in the case of moving image content that does not use an object, it is difficult to collect line-of-sight information. However, it is possible to collect line-of-sight information by providing a function for collecting line-of-sight information in a specified section as in this embodiment.
- template data may be created so that the line-of-sight information collection section FE overlaps the joint region S
- virtual space data may be created using the template data in a plurality of moving image contents. Since there is no need to change the position of the line-of-sight information collection section for each moving image content, it is possible to efficiently collect line-of-sight information for advertisements even if the moving image content increases. Even for a content that does not use an object or a limited number of contents even if it is used, it becomes easy to efficiently collect information indicating attention to an advertisement in many moving image contents.
- FIG. 15 is a diagram showing a flow of processing for collecting line-of-sight information.
- the content management unit 234 determines whether it is time to display the advertisement content SC1. Specifically, the content management unit 234 refers to information indicating the temporal position in the advertisement space information, and compares the information with the temporal position of the moving image content being reproduced by the content management unit 234 to make the above-described determination. .
- S301 is NO, that is, if it is not time for the advertisement content SC1 to be displayed, the determination in S301 is continued until S301 becomes YES.
- the reproduction of the moving image content may be started by the user selecting the moving image content from the platform described above.
- the line-of-sight management unit 232 determines whether or not the user's line of sight intersects with the line-of-sight information collection section FE corresponding to the location displaying the advertisement content SC1. In the case of NO in S302, the determination of whether or not the line of sight intersects the line-of-sight information collection section FE is continued. In the case of YES in S302, in S303, the line-of-sight management unit 232 measures the time when the line of sight intersects the line-of-sight information collection section FE (line-of-sight information collection step).
- the line-of-sight management unit 232 finishes the measurement.
- the line-of-sight management unit 232 collects the line-of-sight information to be measured when the time position at which the measurement is started, the time position at which the measurement is finished, and a plurality of line-of-sight information collection sections FE are set.
- the line-of-sight information is created by associating with the information indicating whether the section is FE.
- the line-of-sight management unit 232 associates information indicating which advertising content SC1 is combined with the line-of-sight information at a corresponding position in the line-of-sight information collection section FE. Note that the information indicating which advertising content SC1 has been combined with the line-of-sight information collection section FE is determined by the communication unit 250 at any timing after combining the moving image content and the advertising content SC1 in S203 described above. You may transmit to 400.
- the communication unit 250 transmits line-of-sight information to the external device 400.
- the administrator of the external device 400 can evaluate how much the line of sight is directed to which advertisement based on the line-of-sight information. Further, the degree of interest that the user has for the advertisement can be evaluated according to the content of the moving image content. For example, if the scene where the user saw the advertisement is a mountain scene in a moving image content, a scene that is excited, or the like, it can be evaluated that the user has shown a high interest in the advertisement.
- the scene in which the user views the advertisement is a scene that is not a hill in the moving image content and a scene that is not raised, it can be evaluated that the interest that the user has shown in the advertisement is not high.
- a temporal position in the moving image content may be associated with information indicating the situation of the scene such as whether or not it is a hill. Analysis of the user's interest described above becomes easy. As described above, according to the present embodiment, it is possible to efficiently grasp the effect of the advertisement displayed on the moving image content reproduced on the head mounted display.
- the information indicating which advertising content SC1 has been combined with the line-of-sight information collection section FE is determined by the communication unit 250 at any timing after combining the moving image content and the advertising content SC1 in S203 described above. You may transmit to 400. Also, which advertising content SC1 is to be combined with which moving image content is managed by the external device 400, and the control circuit unit 200 may combine the content in accordance with an instruction from the external device 400. In this case, the line-of-sight information does not need to be associated with information indicating which advertisement content SC1 is combined with the corresponding position of the line-of-sight information collection section FE, and how much interest the user has in which advertisement the external device 400 has. Can be evaluated.
- the content management unit 234 associates a plurality of advertisement contents with the line-of-sight information collection section FE at the same location, and changes the advertisement contents displayed as time passes.
- Video content and advertising content may be combined.
- the content management unit 234 may associate information indicating the advertising content corresponding to the temporal position of the video content being played back with the line-of-sight information.
- One gaze information collection section can be used to evaluate the degree of user interest in a plurality of advertisements.
- Information indicating which advertisement content is displayed at which time position may be stored in the external device 400.
- the line-of-sight information only needs to include the temporal position at which the line of sight intersects the line-of-sight information collection section FE.
- the external device 400 can evaluate how much line of sight is directed to which advertisement.
- the mode of collecting line-of-sight information using one line-of-sight information collection section FE in one video content has been described, but the present invention is not limited to such a form.
- the template data having the line-of-sight information collection section FE may be commonly used for virtual space data when a plurality of moving image contents are reproduced.
- what is not unnatural may be positioned even if an advertisement is displayed at the same spatial position. There is no need to change the position of the line-of-sight information collection section for each video content. Therefore, even if there are a large number of moving image contents, the degree of user interest in the advertisement can be efficiently evaluated.
- a plurality of line-of-sight information collection sections FE may be set in one template data, and the size may be different for each line-of-sight information collection section FE.
- the information of the line-of-sight information collection section FE is provided to the creator of the moving image content, and the creator of the moving image content can appropriately select which line-of-sight information collection section FE and when the advertisement is displayed.
- Information indicating at which temporal position an advertisement is to be displayed in the line-of-sight information collection section FE at which spatial position may be associated with the moving image content as advertisement frame information.
- the size of the line-of-sight information collection section FE may be set as appropriate, but is larger than the display area F1 in both the vertical and horizontal directions, and from the difference in the vertical width between the line-of-sight information collection section FE and the display area F1. More preferably, the horizontal width difference is set to be small. Adjustment of the initial vertical direction in the virtual space 2 can be reduced. For example, when moving image content is shot with an omnidirectional camera, the initial direction (front) and the initial image in the virtual space are automatically determined based on the shooting direction of the omnidirectional camera. However, the degree of freedom of the spatial position of the target object for displaying the advertisement is limited by the target object and the shooting environment.
- the initial direction may be edited when editing the moving image content.
- the ground where the user stands in the virtual space is inclined. This may cause the user to get drunk.
- the vertical direction width of the line-of-sight information collection section FE is increased in advance, the necessity of adjusting the initial direction to the vertical direction can be reduced.
- the difference in size between the line-of-sight information collection section FE and the display area F1 is small.
- the difference in size between the line-of-sight information collection section FE and the display area F1 is reduced by making the width difference in the horizontal direction smaller than the width difference in the vertical direction between the line-of-sight information collection section FE and the display area F1.
- the necessity of adjusting the initial direction to the vertical direction can be reduced.
- the prior art is configured to play back content that is assumed to be viewed by the user in a sitting position.
- some content played back in the virtual space is premised on the user viewing in a supine posture.
- the prior art described above does not take into account that the user actually visually recognizes such content in a supine posture. Therefore, when such content is played back, if the user takes a supine posture, there arises a problem of visually recognizing an unnatural image.
- the present disclosure suitably reproduces various contents on the premise that the content is viewed in different postures in a virtual space according to the posture of the user.
- FIG. 16 is a sequence diagram showing a flow of processing in which the HMD system 100 provides the user with the virtual space 2 in which the tilt of the virtual camera 1 is corrected.
- the processing shown in this figure is processing at the start of reproduction of the corresponding video content after the user selects any thumbnail through the platform.
- the virtual space defining unit 231 After the moving image content corresponding to the thumbnail selected by the user is specified, in S41, the virtual space defining unit 231 generates virtual space data for reproducing the moving image content. This detail is the same as the detail of S21 of FIG. Therefore, the virtual space defining unit 231 generates virtual space data without considering any inclination correction value defined for the moving image content to be played back. That is, in the example of FIG. 10, the XYZ coordinate system of the virtual space 2 defined by the generated virtual space data is not corrected by the inclination correction value defined by the content, and is always parallel to the global coordinate system. .
- the virtual camera control unit 221 After generating the virtual space data, the virtual camera control unit 221 initializes the virtual camera 1 in the virtual space 2. Unlike the initialization procedure described with reference to FIG. 8, the initialization procedure performed at this time takes into account the content inclination correction value.
- the initialization procedure is as follows. First, in S42, the virtual camera control unit 221 places the virtual camera 1 at an initial position in the virtual space 2 (eg, the center 21 in FIG. 4). Next, in S43, the HMD sensor 120 detects the current position and inclination of the HMD 110, and outputs these detected values to the control circuit unit 200 in S44. The HMD detection unit 211 receives each detection value.
- the tilt correction value specifying unit 235 specifies the tilt correction value defined for the video content to be played back (the video content specified by the content specifying unit 233) from the video content. If the tilt correction value is not defined for the moving image content, the tilt correction value specifying unit 235 specifies 0 ° as the tilt correction value.
- FIG. 19B shows an example of the view image 26 including the advertisement A2.
- the view image 26 including the advertisement A2 is displayed on the display 112 as the initial view image 26.
- the position of the advertisement A2 in the virtual space 2 is superimposed on the functional section 27 on the celestial sphere. Therefore, the line-of-sight management unit 232 can detect that the user has applied the line of sight to the advertisement A2 by detecting that the line of sight has hit the functional section 27.
- the HMD system 100 can measure the degree of the user's interest in the advertisement A2.
- the position of the functional section 27 for the advertisement for each content is easily unified. be able to.
- the virtual camera control unit 221 arranges the virtual camera 1 in the virtual space 2 and then matches the inclination of the virtual camera 1 in the global coordinate system with the inclination of the HMD 110 to thereby change the orientation of the virtual camera 1 in the virtual space 2.
- the inclination of the virtual camera 1 with respect to the HMD 110 is not corrected.
- the virtual camera control unit 221 changes the orientation of the virtual camera 1 with respect to the XY plane in the virtual space 2 when the tilt of the HMD 110 with respect to the horizontal direction in the global coordinate system matches the tilt correction value defined in the moving image content.
- the XYZ coordinate system is parallel to the global coordinate system, and the tilt of the virtual camera 1 is linked to the tilt of the HMD 110.
- the orientation of the virtual camera 1 is parallel to the XZ plane of the virtual space 2.
- the field-of-view image 26 corresponding to the reference line of sight 5 parallel to the XZ plane is displayed on the display 112, so that the user can visually recognize a natural image in a sitting posture.
- the XYZ coordinate system of the virtual space 2 is inclined by 60 ° with respect to the global coordinate system, and The inclination of the virtual camera 1 in the global coordinate system is linked to the inclination of the HMD 110. Therefore, when the user is sleeping and viewing vertically 60 ° obliquely upward (the HMD 110 is inclined 60 ° from the horizontal direction), the orientation of the virtual camera 1 is parallel to the XZ plane of the virtual space 2. As a result, the view field image 26 corresponding to the reference line of sight 5 parallel to the XZ plane is displayed on the display 112. As a result, the user can visually recognize a natural image while sleeping.
- the user's visual recognition location in the virtual space can be changed, so that the user's sense of immersion in the virtual space can be enhanced.
- a device for improving the operability in the virtual space so that the user can more easily visually recognize an arbitrary place in the virtual space while increasing the immersion space in the virtual space.
- the present disclosure further improves operability in the virtual space.
- FIG. 20A shows an example of a virtual space 2 for providing a platform.
- This figure shows a virtual space 2 for providing a platform in which one operation object 28 and four thumbnails SN1 to SN4 are arranged.
- Each of these thumbnails SN1 to SN4 is an object associated with a summary image (thumbnail) of the corresponding moving image content.
- the operation object 28 is used for rotating the virtual camera 1 or the virtual space 2.
- the shape of the operation object 28 is basically circular. As will be described in detail later, the operation object 28 elastically deforms (extends) in response to an operation on the operation object 28 by the user.
- the visual field image generation unit 223 determines the position of the gazing point 29 in the visual field image 26 based on the reference visual line 5 and the visual line direction N0.
- the visual field image generation unit 223 applies a note to the center of the visual field image 26 based on the reference visual line 5 when generating the visual field image 26.
- the viewpoint 29 is arranged.
- the reference line of sight 5 coincides with the line-of-sight direction N0, so that the gazing point 29 is always arranged at the center of the visual field image 26.
- the visual field image generation unit 223 determines the position of the gazing point 29 in the visual field image 26 based on the current visual line direction N0 when the visual line direction N0 deviates from the reference visual line 5 because the user moves the line of sight. Specifically, an intersection point where the line-of-sight direction N0 intersects in the visual field region 23 is specified, and then a visual field image 26 in which the gazing point 29 is applied to a position corresponding to the intersection point in the visual field image 26 is generated.
- the position of the gazing point 29 in the view field image 26 is changed following the movement of the line of sight.
- the view field image 26 is updated so that the gazing point 29 is displayed at the position where the user gazed in the view field image 26.
- the user can freely move the gazing point 29 in the view field image 26 by the movement of the line of sight. Therefore, the user can accurately grasp which part of the view image 26 is line of sight by confirming the gazing point 29.
- the view field image 26 is updated in conjunction with the movement. For example, when the user moves the HMD 110 and the position of the visual field area 23 changes to a position including the thumbnails SN1 and SN3, the visual field image 26 including the thumbnails SN1 and SN3 is displayed on the display 112. Therefore, the user can put the thumbnail of the moving image content that he / she wants to watch in his / her field of view by moving the HMD 110 as appropriate.
- the line-of-sight management unit 232 determines whether the user's line of sight (gaze point 29) has hit a specific thumbnail included in the field-of-view image 26 based on the line-of-sight direction N ⁇ b> 0 and each thumbnail included in the field-of-view area 23. Determine whether or not. More specifically, the line-of-sight management unit 232 determines whether or not the point where the line-of-sight direction N0 in the visual field region 23 intersects is included in the display range (arrangement range) of a specific thumbnail included in the visual field region 23. If the determination result is YES, it is determined that the line of sight has hit a specific thumbnail included in the field-of-view image 26. If NO, it is determined that the line of sight has not hit the specific thumbnail.
- the virtual space defining unit 231 defines the virtual space 2 for reproducing the moving image content by generating virtual space data for reproducing the specified moving image content.
- the generation procedure is as follows. First, the virtual space defining unit 231 acquires the template data of the virtual space 2 corresponding to the moving image content from the template storage unit 241.
- the virtual space defining unit 231 acquires the moving image content specified by the content specifying unit 233 from the content storage unit 242.
- the virtual space defining unit 231 generates virtual space data that defines the virtual space 2 for reproducing moving image content by adapting the acquired moving image content to the acquired template data.
- the virtual space defining unit 231 appropriately associates each partial image constituting the first frame image included in the moving image content with the management data of each mesh constituting the celestial sphere of the virtual space 2 in the virtual space data.
- the virtual space defining unit 231 generates virtual space data that does not include object management data.
- the view image generation unit 223 After generating virtual space data representing the virtual space 2 for reproducing moving image content, the view image generation unit 223 generates a view image 26 based on the user's reference line of sight 5 in S31. This generation method is the same as the method described with reference to FIG. Here, a view image 26 of the moving image content is generated.
- the visual field image generation unit 223 outputs the generated visual field image 26 to the HMD 110.
- the HMD 110 updates the view image 26 by displaying the received view image 26 on the display 112. Thereby, the reproduction of the moving image content in the virtual space 2 is started, and the user visually recognizes the view image 26 of the moving image content.
- the view field image 26 is updated in conjunction with the movement. Therefore, the user can visually recognize a partial image (view image 26) at a desired position in the omnidirectional image of each frame constituting the moving image content by appropriately moving the HMD 110.
- FIG. 20 (c) shows an example of the field-of-view image 26 of the moving image content.
- the view image 26 shown in this figure is the view image 26 of the moving image content corresponding to the thumbnail SN1 selected by the user.
- the platform view image 26 displayed on the display 112 is displayed as shown in FIG.
- the view image 26 of the moving image content shown in FIG. That is, the user can view the moving image content corresponding to this in the virtual space 2 by selecting the thumbnail SN1 by moving the line of sight in the virtual space 2.
- the user can select the moving image content to be viewed in the virtual space 2 through the moving image content selection platform in the virtual space 2. Therefore, the user does not need to select the moving image content that the user wants to view in the virtual space 2 while visually recognizing another general display connected to the control circuit unit 200 in the real space before wearing the HMD 110. Thereby, a user's immersion feeling with respect to the virtual space 2 can be improved further.
- the control circuit unit 200 provides the user with the virtual space 2 in which the moving image content is reproduced. Then, again, the virtual space 2 in which the platform for selecting moving image contents is developed is provided to the user. Thus, the user can view other moving image content in the virtual space 2 by selecting another thumbnail. Since the user does not need to remove the HMD 110 when switching the moving image content that the user wants to view, the user's immersion in the virtual space 2 can be further enhanced.
- the control circuit unit 200 does not control the tilt of the virtual camera 1 in the virtual space 2 in conjunction with the tilt of the HMD 110. Therefore, even if the user tilts the HMD 110 in the rotation mode, the virtual camera 1 does not tilt in conjunction with the tilt. Instead, the control circuit unit 200 rotates the virtual camera 1 in the virtual space 2 according to the operation of the operation object 28 by the user. In the present embodiment, the user can operate the operation object 28 by the movement of the HMD 110. Therefore, the control circuit unit 200 rotates the virtual camera 1 according to the inclination of the HMD 110 in the rotation mode.
- the rotation mode even if the user stops the movement of the HMD 110, the rotation of the virtual camera 1 does not stop. That is, as long as the user continues to maintain the state in which the HMD 110 is further tilted from the state at the time of starting rotation, the virtual camera 1 continues to rotate. Thereby, the view image 26 is also continuously updated.
- FIG. 21 is a sequence diagram showing the flow of processing when the HMD system 100 shifts to the rotation mode.
- the virtual space 2 in which the platform is reproduced is provided to the user will be described as an example.
- the HMD sensor 120 detects the position and inclination of the HMD 110 in S41-1, and outputs the detected value to the control circuit unit 200 in S42-1.
- the HMD detection unit 211 receives this detection value.
- the virtual camera control unit 221 specifies the reference line of sight 5 according to the above-described procedure based on the detected values of the position and inclination of the HMD 110.
- the virtual camera control unit 221 controls the virtual camera 1 based on the identified reference line of sight 5.
- the operation object control unit 236 determines whether or not the reference line of sight 5 has hit the operation object 28 in the virtual space 2 for a predetermined time or more.
- the visual field region determination unit 222 determines the visual field region 23 in the virtual space 2 based on the identified reference visual line 5.
- the visual field image generation unit 223 generates the visual field image 26, and outputs it to the HMD 110 in S45-1.
- the HMD 110 updates the view image 26 by displaying the received view image 26 on the display 112. Thereby, if the user moves the HMD 110 in the normal mode, the view image 26 is updated in conjunction with the movement.
- the procedure for realizing this is as follows. First, the operation object control unit 236 detects that at least a part of the operation object 28 is located outside the field-of-view area 23. Next, when the operation object control unit 236 detects that at least a part of the operation object 28 is located outside the view area 23, the operation object control unit 236 moves the operation object 28 into the view area 23. Specifically, the position (coordinates) of the operation object 28 in the data defining the operation object 28 is updated to one of the coordinates in the current visual field region 23.
- the position where the operation object 28 returns to the view area 23 may be any position within the view area 23. It is preferable that the position where the movement amount is the smallest when the operation object 28 moves. For example, when the operation object 28 comes to be positioned on the right side of the view area 23, the operation object control unit 236 preferably moves the operation object 28 to the right end of the view area 23.
- the operation object 28 is always included in the visual field region 23 since the operation object 28 is always included in the visual field image 26 generated based on the visual field region 23. Therefore, when the user wants to select the operation object 28, the user can easily find the operation object 28. Further, as will be described later, when the operation object 28 is selected with the reference line of sight 5, the movement control of the HMD 110 for applying the reference line of sight 5 to the operation object 28 can be minimized.
- the operation object control unit 236 detects that the operation object 28 has been selected by the user in S47-1. As described above, the user can select the operation object 28 by applying a line of sight to the operation object 28. Using the selection of the operation object 28 as a trigger, the control circuit unit 200 shifts to the rotation mode in S48-1. Thereby, the user can shift the control circuit unit 200 to the rotation mode by his / her own intention. After shifting to the rotation mode, the rotation of the virtual camera 1 is started in response to a user operation on the operation object 28.
- FIG. 22 is a sequence diagram showing a flow of processing when the control circuit unit 200 starts to rotate the virtual camera 1 in the rotation mode.
- the HMD sensor 120 After the shift to the rotation mode, the HMD sensor 120 detects the position and inclination of the HMD 110 in S51, and outputs the detected value to the control circuit unit 200 in S52.
- the HMD detection unit 211 receives this detection value.
- the operation object control unit 236 determines whether or not the inclination of the HMD 110 has changed. If NO in S53, the process in FIG. 22 returns to before S51. Therefore, after the operation object 28 is selected, the steps S51 to S53 are repeated until the user further tilts the HMD 110.
- the operation object control unit 236 specifies the amount of change in the inclination of the HMD 110 in S54.
- the operation object control unit 236 specifies the extension direction (predetermined direction) and the extension amount (predetermined amount) of the operation object 28 designated by the user based on the specified change amount of inclination.
- the operation object control unit 236 expands the operation object 28 by the specified extension amount in the specified extension direction. At this time, the operation object control unit 236 expands the operation object 28 so that the operation object 28 gradually becomes narrower from the root of the operation object 28 toward the end portion in the expansion direction. Further, the display state of the operation object 28 is changed so that the reference line of sight 5 is superimposed on the end portion of the operation object 28 in the extension direction.
- the rotation control unit 237 determines the rotation direction of the virtual camera 1 based on the expansion direction of the operation object 28, and determines the rotation speed of the virtual camera 1 based on the expansion amount of the operation object 28.
- the operation object control unit 236 preferably specifies a direction parallel to the horizontal component in the extension direction as the rotation direction of the virtual camera 1.
- the virtual camera 1 rotates only around the Y axis in the virtual space 2.
- the virtual camera 1 can be prevented from rotating around the Z axis in the virtual space 2.
- the virtual camera control unit 221 starts rotating the virtual camera 1 at the determined rotation speed in the determined rotation direction.
- the roll direction of the virtual camera 1 in the virtual space 2 changes, so that the field-of-view area 23 is changed.
- the operation object control unit 236 controls the operation object 28 so that the operation object 28 is always arranged at the center of the visual field area 23 when the virtual camera 1 is rotated.
- the coordinates of the operation object 28 are updated to the coordinates of the center of the visual field area 23.
- the visual field area determination unit 222 determines the visual field area 23 based on the direction (roll direction) of the virtual camera 1 after rotation for a certain time.
- the visual field image generation unit 223 generates a visual field image 26 based on the determined visual field region 23, and transmits the visual field image 26 to the HMD 110 in step S60.
- the HMD 110 updates the view image 26 by displaying the received view image 26 on the display 112. Thereby, the view image 26 before the rotation of the virtual camera 1 is updated to the view image 26 after the rotation of the virtual camera 1.
- the view field image 26 based on the view field area 23 after the virtual camera 1 rotates includes a thumbnail SN1 and a thumbnail SN2. Since the positions of the thumbnail SN1 and the thumbnail SN2 in the view area 23 are shifted to the right side before the rotation of the virtual camera 1 is started, correspondingly, the positions of the thumbnail SN1 and the thumbnail SN2 in the view image 26 are also the virtual camera. 1 is shifted to the right than before the start of rotation. Therefore, the user can grasp that the virtual camera 1 has started to rotate counterclockwise.
- the virtual camera 1 After the virtual camera 1 starts to rotate, the virtual camera 1 continues to rotate counterclockwise while the user continues to twist his neck to the left. On the other hand, when the user stops twisting his neck and turns his face to the front, the rotation of the virtual camera 1 is stopped.
- the flow of these processes will be described.
- the visual field area determination unit 222 determines the visual field area 23 based on the direction (roll direction) of the virtual camera 1 after rotation for a predetermined time.
- the visual field image generation unit 223 generates the visual field image 26 based on the determined visual field region 23, and transmits the visual field image 26 to the HMD 110 in step S76.
- the HMD 110 updates the view image 26 by displaying the received view image 26 on the display 112. Thereby, the view image 26 after rotating the virtual camera 1 for a certain time is updated to the view image 26 after further rotating the virtual camera 1.
- FIG. 25 is a diagram showing the virtual space 2 and the view field image 26 after the virtual camera 1 is further rotated.
- FIG. 25A shows the virtual space 2
- FIG. 25B shows the field-of-view image 26.
- the virtual camera 1 further rotates counterclockwise, the position of the visual field region 23 is further shifted counterclockwise in the virtual space 2.
- the visual field region 23 is arranged at a position including the thumbnail SN1, the thumbnail SN3, and the thumbnail SN4 in the virtual space 2. Since the virtual camera 1 is rotating, the operation object 28 is still stretched.
- the view field image 26 based on the view field area 23 after the virtual camera 1 has further rotated includes a thumbnail SN1, a thumbnail SN3, and a thumbnail SN4. Therefore, the user grasps that the thumbnail SN4 newly enters his field of view while the virtual camera 1 is rotating.
- an operation for stopping the rotation of the virtual camera 1 at this time is performed on the operation object 28 will be described.
- the operation object control unit 236 detects that the designation of the extension direction and extension amount to the operation object 28 by the user has been cancelled. As a result, the operation object control unit 236 returns the shape of the operation object 28 to the original circle in S79. In step S80, the operation object control unit 236 cancels the selection of the operation object 28.
- the virtual camera control unit 221 stops the rotation of the virtual camera 1.
- the control circuit unit 200 shifts to the normal mode.
- the visual field region determination unit 222 identifies the visual field region 23 based on the orientation of the virtual camera 1 at the time when the rotation of the virtual camera 1 stops.
- the view image generation unit 223 generates a view image 26 based on the view region 23 in S83, and outputs the view image 26 to the HMD 110 in S84.
- the HMD 110 updates the view image 26 by displaying the received view image 26 on the display 112.
- FIG. 26 is a diagram illustrating the virtual space 2 and the view image 26 after the rotation of the virtual camera 1 is stopped.
- FIG. 26A shows the virtual space 2
- FIG. 26B shows the view field image 26.
- FIG. 26 shows an example in which the rotation of the virtual camera 1 is stopped immediately after the virtual camera 1 is rotated to the state shown in FIG. After the rotation of the virtual camera 1 is stopped, the shape of the operation object 28 in the virtual space 2 returns to the original circle. Correspondingly, the shape of the operation object 28 included in the view field image 26 is also returned to the original circle.
- the operation object 28 is not selected, and the control circuit unit 200 operates in the normal mode. Therefore, the user can select a desired thumbnail in the view field image 26 by moving the line of sight as usual.
- the field-of-view image 26 shown in (b) of FIG. 26 includes a thumbnail SN4 that is located away from the thumbnail SN1 in the virtual space 2. Therefore, the user can easily put the thumbnail SN4 that could not be visually recognized before the rotation of the virtual camera 1 into his field of view by a simple operation. Further, the user can start viewing the moving image content corresponding to the thumbnail SN4 by gazing at the thumbnail SN4.
- the HMD system 100 can enhance the user's immersion in the virtual space 2 in the normal mode. Further, in the rotation mode, the user can visually recognize a desired location in the virtual space 2 with a simpler operation than in the normal mode. Since the HMD system 100 supports both the normal mode and the rotation mode, the operability in the virtual space 2 can be further improved while increasing the user's immersion in the virtual space 2. Further, since each thumbnail can be arranged in a wide range in the virtual space 2, the virtual space 2 can be used more effectively.
- the virtual space defining unit 231 rotates the virtual space 2 by rotating the XYZ coordinate system of the virtual space 2 in the global coordinate system.
- the data is updated to data defining the rotated XYZ coordinate system. Since the position of each mesh in the virtual space 2 is defined in the management data of each mesh as coordinates in the XYZ coordinate system, each mesh is similarly rotated in the global coordinate system when the XYZ coordinate system rotates in the global coordinate system. To do.
- the positions of the thumbnails SN1 to SN4 arranged in the virtual space 2 are also defined in the management data of each thumbnail as coordinates in the XYZ coordinate system. Therefore, when the XYZ coordinate system rotates in the global coordinate system, the thumbnails SN1 to SN4 rotate in the same manner in the global coordinate system.
- the controller 300 may include a right controller that the user has with the right hand and a left controller that the user has with the left hand.
- the control circuit unit 200 generates the user's virtual right hand in the virtual space 2 based on the detection value of the position and inclination of the right controller and the detection result of the user's pressing operation on each button included in the right controller. be able to.
- the control circuit unit 200 generates the virtual left hand of the user in the virtual space 2 based on the detection value of the position and inclination of the left controller and the detection result of the user's pressing operation on each button included in the left controller. be able to.
- the virtual right hand and the virtual left hand are both objects.
- the user can select or operate the operation object 28 by acting on the operation object 28 with the virtual right hand or the virtual left hand.
- the operation object control unit 236 detects that the operation object 28 has been selected by the user. Thereafter, the user performs an operation for pinching the operation object 28 with the virtual right hand on the controller 300 (for example, pressing any button of the right controller) and drags the operation object 28 in the predetermined direction with the virtual right hand.
- the operation object control unit 236 specifies the extension direction and the extension amount of the operation object 28 based on the detected values of the position of the right controller before and after the right hand is moved.
- the extension method of the operation object 28 and the rotation method of the virtual camera 1 (or the virtual space 2) after the extension direction and the extension amount are determined are the same as in the above-described example.
- the user can rotate the virtual camera 1 or the virtual space 2 in a desired direction by operating the right controller without moving the HMD 110 and without changing the line of sight.
- the virtual camera 1 can be rotated clockwise (the virtual space 2 is counterclockwise).
- the virtual camera 1 can be rotated counterclockwise (the virtual space 2 is rotated clockwise). In these cases, the user can rotate the virtual camera 1 or the virtual space 2 more intuitively.
- a functional partition may be defined at any position on the celestial sphere constituting the virtual space 2 where the platform is developed.
- the functional partition is an area to which a predetermined function can be assigned.
- a function for detecting whether or not the user's line of sight (viewing direction or line-of-sight direction N0) hits the functional section is assigned to the functional section.
- a function for detecting the time when the user's line of sight hits the function section is also assigned to the function section.
- the control circuit unit 200 When the line-of-sight management unit 232 detects that the user's line of sight (the reference line of sight 5 or the line-of-sight direction N0) hits the functional section in the normal mode for a predetermined time or more, it detects that the user has selected the functional section. Thereby, the control circuit unit 200 shifts to the rotation mode. Thereafter, the control circuit unit 200 starts to rotate the virtual camera 1 or the virtual space 2 based on some operation by the user. For example, the control circuit unit 200 determines whether or not the user's line of sight has deviated from the functional section selected by the user by gaze for a specified time or longer.
- the control circuit unit 200 identifies the direction in which the line of sight has deviated. Then, the direction in which the line of sight is deviated is specified as the movement direction of the line of sight, and the virtual camera 1 or the virtual space 2 is rotated in the rotation direction based on the specified movement direction of the line of sight. If the functional partition is used as in this example, the virtual camera 1 or the virtual space 2 can be rotated based on the user's operation even when the virtual space 2 in which the operation object 28 cannot be defined is provided to the user. it can.
- a control block (detection unit 210, display control unit 220, virtual space control unit 230, storage unit 240, and communication unit 250) of the control circuit unit 200 is a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. ) Or by software using a CPU (Central Processing Unit).
- IC chip integrated circuit
- CPU Central Processing Unit
- control block is a CPU that executes instructions of a program that is software that realizes each function, a ROM (Read Only Memory) or a memory in which the program and various data are recorded so as to be readable by the computer (or CPU)
- a device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided.
- recording media these are referred to as “recording media”
- RAM Random Access Memory
- the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
- the recording medium a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
- the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
- a transmission medium such as a communication network or a broadcast wave
- the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
- a method for providing a virtual space to a user wearing a head-mounted display (hereinafter, HMD), the step of defining the virtual space, the moving image content reproduced in the virtual space, and the moving image content Generating a composite content by combining sub-contents displayed in a part of the display area, adapting the composite content to the virtual space, identifying the user's line of sight, and the line of sight
- HMD head-mounted display
- a method for providing a virtual space comprising: identifying a visual field area, and generating a visual field image corresponding to the visual field area of the composite content and outputting the visual field image to the HMD.
- Information 3 including a step of acquiring advertising space information indicating a spatial position and a temporal position of the section associated with the moving image content, and combining the moving image content and the sub-content based on the advertising space information
- the creator of the video content can identify a spatial position and a temporal position that are not unnatural even if an advertisement is displayed in the video displayed in the video content, thereby impairing the user's immersive feeling.
- Ads can be displayed without
- (Item 5) A step of displaying a list of contents indicating the contents of a plurality of candidate moving image contents in conformity with the virtual space, and displaying the candidate moving image content selected by the user in the content list as the moving image And in the two or more candidate moving image contents included in the plurality of candidate moving image contents, when the moving image content is specified, the sub-contents are defined in the same spatial position.
- the method of item 4 which is synthesized so as to include a part of Even if there are a plurality of moving image contents, it is possible to efficiently evaluate the degree of user interest in the advertisement.
- (Item 5) A step of displaying a list of contents indicating the contents of a plurality of candidate moving image contents in conformity with the virtual space, and displaying the candidate moving image content selected by the user in the content list as the moving image And in the two or more candidate moving image contents included in the plurality of candidate moving image contents, when the moving image content is specified, the sub-contents are defined in the same spatial position.
- Item 5 The method according to Item 4, wherein the compound is synthesized so as to include a part thereof.
- (Item 7) A step of displaying a list of contents indicating the contents of a plurality of candidate moving image contents in conformity with the virtual space, and displaying the candidate moving image content selected by the user in the content list as the moving image
- the user can select desired video content from a plurality of video content.
- the moving image content is associated with frame information including a spatial position and a temporal position for displaying the second sub-content, and further includes the step of acquiring the frame information, The method of item 2 or 3, wherein the second sub-content is displayed based on frame information.
- the creator of the video content can identify a portion that is not unnatural even if the second sub-content is displayed in the video displayed in the video content, so that the user's immersive feeling is not impaired.
- Content for guiding the line of sight to the advertisement can be displayed.
- (Item 2) A step of defining the virtual space having the spatial coordinate system parallel to the reference coordinate system, a step of arranging the virtual camera in the virtual space, and an inclination correction value defined in advance for the content And setting the orientation of the virtual camera in the virtual space by tilting the virtual camera relative to the HMD in the reference coordinate system. There is no need to tilt the spatial coordinate system of the virtual space with respect to the reference coordinate system.
- (Item 3) A step of defining the virtual space having the spatial coordinate system tilted relative to the reference coordinate system based on a tilt correction value preliminarily defined in the content; and the virtual space in the virtual space
- the method of item 1, comprising: arranging a camera; and setting an orientation of the virtual camera in the virtual space by matching an inclination of the virtual camera in the reference coordinate system with an inclination of the HMD. There is no need to tilt the virtual camera relative to the HMD.
- Step 2 In the step of displaying the view image on the HMD, the view image including the operation object arranged in the virtual space is displayed on the HMD, and the operation object is selected by the user in the first mode.
- (Item 4) 4 The method according to item 3, wherein in the step of determining the rotation direction, the rotation direction is determined based on a horizontal component in the predetermined direction. It is possible to prevent the user from getting drunk in the virtual space.
- the method further includes a step of specifying a change amount of the inclination of the HMD in a reference coordinate system, and the step of specifying the predetermined amount
- the predetermined amount is specified based on a change amount of the inclination.
- the user can adjust the rotation speed method of the virtual camera or the virtual space by changing the degree of tilting the HMD.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
ヘッドマウントディスプレイにて動画コンテンツを再生する際に、広告等の他のコンテンツを表示する。仮想空間を定義するステップと、仮想空間において再生される動画コンテンツと、動画コンテンツの表示域の一部に表示されるサブコンテンツとを合成して合成コンテンツを生成するステップと、合成コンテンツを仮想空間に適合させるステップと、ユーザの視線を特定するステップと、視線に基づいて、視界領域を特定するステップと、合成コンテンツのうち、視界領域に相当する視界画像を生成し、HMDに出力するステップと、を含む。
Description
本開示は仮想空間を提供する方法、プログラム及び記録媒体に関する。
特許文献1には、仮想空間に看板及び掲示板等のオブジェクトを表示する方法が記載されている。特許文献2には、ヘッドマウントディスプレイを用いてコンテンツを視聴するシステムが記載されている。特許文献3には、ヘッドマウントディスプレイを用いてコンテンツを視聴するシステムが記載されている。特許文献4には、仮想空間において再生されるコンテンツを、ヘッドマウントディスプレイを通じてユーザに視認させるための技術が開示されている。
ヘッドマウントディスプレイにて動画コンテンツを視聴するユーザは、据え置き型のテレビ等で動画コンテンツを視聴するユーザに比べて、より深く動画コンテンツの内容に没入する。そこで、ヘッドマウントディスプレイにて動画コンテンツを再生する際に広告を表示できれば、高い広告効果が期待できる。
本開示は、このような事情に鑑みてなされたものであり、ヘッドマウントディスプレイにて動画コンテンツを再生する際に、広告等の他のコンテンツを表示する方法を提供する。
前述の課題を解決するために、本開示に係る仮想空間を提供する方法は、ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに仮想空間を提供する方法であって、前記仮想空間を定義するステップと、前記仮想空間において再生される動画コンテンツと、前記動画コンテンツの表示域の一部に表示されるサブコンテンツとを合成して合成コンテンツを生成するステップと、前記合成コンテンツを前記仮想空間に適合させるステップと、前記ユーザの視線を特定するステップと、前記視線に基づいて、視界領域を特定するステップと、前記合成コンテンツのうち、前記視界領域に相当する視界画像を生成し、前記HMDに出力するステップと、を含む。
本開示によれば、ヘッドマウントディスプレイにて動画コンテンツを再生する際に、広告等の他のコンテンツを表示できるという効果を奏する。
[本発明の実施形態の詳細]
本発明の実施形態に係る仮想空間を提供する方法、および、プログラムの具体例を、以下に図面を参照しつつ説明する。本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。
本発明の実施形態に係る仮想空間を提供する方法、および、プログラムの具体例を、以下に図面を参照しつつ説明する。本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。
(HMDシステム100の構成)
図1は、HMDシステム100の構成を示す図である。この図に示すように、HMDシステム100は、HMD110、HMDセンサ120、制御回路部200、およびコントローラ300を備えている。
図1は、HMDシステム100の構成を示す図である。この図に示すように、HMDシステム100は、HMD110、HMDセンサ120、制御回路部200、およびコントローラ300を備えている。
HMD110は、ユーザの頭部に装着される。HMD110は、非透過型の表示装置であるディスプレイ112、センサ114、および注視センサ130を備えている。HMD110は、右目用画像および左目用画像をディスプレイ112にそれぞれ表示することにより、ユーザの両目の視差に基づきユーザに立体的に視認される3次元画像を、ユーザに視認させる。これにより仮想空間をユーザに提供する。ディスプレイ112がユーザの眼前に配置されているので、ユーザは、ディスプレイ112に表示される画像を通じて仮想空間に没入できる。仮想空間は、背景、ならびにユーザが操作可能な各種のオブジェクトおよびメニュー画像等を含み得る。
ディスプレイ112は、右目用画像を表示する右目用サブディスプレイと、左目用画像を表示する左目用サブディスプレイとを含んでもよい。または、ディスプレイ112は、右目用画像および左目用画像を共通の画面に表示する1つの表示装置であってもよい。このような表示装置として、たとえば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像および左目用画像を独立して交互に表示する表示装置が挙げられる。
(制御回路部200のハード構成)
図2は、制御回路部200のハード構成を示す図である。制御回路部200は、HMD110に仮想空間を提供させるためのコンピュータである。図2に示すように、制御回路部200は、プロセッサ、メモリ、ストレージ、入出力インターフェース、および通信インターフェースを備えている。これらは、データ伝送路としてのバスを通じて、制御回路部200内において互いに接続されている。
図2は、制御回路部200のハード構成を示す図である。制御回路部200は、HMD110に仮想空間を提供させるためのコンピュータである。図2に示すように、制御回路部200は、プロセッサ、メモリ、ストレージ、入出力インターフェース、および通信インターフェースを備えている。これらは、データ伝送路としてのバスを通じて、制御回路部200内において互いに接続されている。
プロセッサは、CPU(Central Processing Unit)、MPU(Micro-processing unit)、またはGPU(Graphics Processing Unit)等を含んで構成され、制御回路部200およびHMDシステム100全体の動作を制御する。
メモリは、主記憶として機能する。メモリには、プロセッサによって処理されるプログラムおよび制御用データ(演算パラメータなど)が記憶される。メモリは、ROM(Read
Only Memory)またはRAM(Random Access Memory)等を含んで構成され得る。
Only Memory)またはRAM(Random Access Memory)等を含んで構成され得る。
ストレージは、補助記憶として機能する。ストレージには、HMDシステム100全体の動作を制御するためのプログラム、各種のシミュレーションプログラム、ユーザ認証プログラム、および、仮想空間を規定するための各種のデータ(画像およびオブジェクト等)が格納されている。さらには、各種のデータを管理するためのテーブルを含むデータベースがストレージに構築されていてもよい。ストレージは、フラッシュメモリまたはHDD(Hard Disc Drive)等を含んで構成され得る。
入出力インターフェースは、USB(Universal Serial Bus)端子、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High-Definition Multimedia Interface)端子等の各種の有線接続端子、および、無線接続のための各種の処理回路を含んで構成されている。入出力インターフェースは、HMD110と、HMDセンサ120を含む各種のセンサと、コントローラ300とを互いに接続する。
通信インターフェースは、ネットワークNWを介して外部装置と通信するための各種の有線接続端子、および、無線接続のための各種の処理回路を含んで構成される。通信インターフェースは、LAN(Local Area Network)またはインターネットを介して通信するための各種の通信規格およびプロトコルに適合するように、構成されている。
制御回路部200は、ストレージに格納された所定のアプリケーションプログラムをメモリにロードして実行することによって、ユーザに仮想空間を提供する。プログラムの実行時に、メモリおよびストレージには、仮想空間内に配置される各種のオブジェクトを操作したり、各種のメニュー画像等を表示および制御したりするための各種のプログラムが格納される。
制御回路部200は、HMD110に搭載されていてもよいし、されていなくてもよい。すなわち制御回路部200は、HMD110から独立した別のハードウェア(たとえば、パーソナルコンピュータ、またはネットワークを通じてHMD110と通信可能なサーバ装置)であってもよい。制御回路部200は、複数のハードウェアの協働によって1または複数の機能が実装される形態の装置であってもよい。または、制御回路部200が有する全機能のうち一部の機能のみがHMD110に実装され、残りの機能が別のハードウェアに実装されていてもよい。
HMDシステム100を構成するHMD110等の各要素には、予め、グローバル座標系(基準座標系、xyz座標系)が設定されている。このグローバル座標系は、現実空間における、鉛直方向、鉛直方向と直交する横方向、ならびに、鉛直方向および横方向の双方と直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施形態では、グローバル座標系は視点座標系の一種であるため、グローバル座標系における横方向、鉛直方向(上下方向)、および前後方向を、それぞれx軸、y軸、z軸とする。具体的には、グローバル座標系のx軸は現実空間の横方向に平行であり、y軸は現実空間の鉛直方向に平行であり、z軸は現実空間の前後方向に平行である。
HMDセンサ120は、HMD110の動きを検出するためのポジション・トラッキング機能を有する。HMDセンサ120は、この機能によって、現実空間内におけるHMD110の位置および傾きを検出する。この検出を実現するために、HMD110は、図示しない複数の光源を備えている。各光源は、たとえば赤外線を発するLEDである。HMDセンサ120は、たとえば赤外線センサを含んで構成される。HMDセンサ120は、HMD110の光源から照射された赤外線を、赤外線センサによって検出することによって、HMD110の検出点を検出する。さらに、HMD110の検出点の検出値に基づき、ユーザの動きに応じたHMD110の現実空間内における位置および傾きを検出する。HMDセンサ120は、検出値の経時的変化に基づき、HMD110の位置および傾きの時間変化を決定することができる。
HMDセンサ120は、光学カメラを含んで構成されてもよい。この場合、HMDセンサ120は、光学カメラによって得られたHMD110の画像情報に基づき、HMD110の位置および傾きを検出する。
HMDセンサ120の代わりに、HMD110が、センサ114を用いて自身の位置および傾きを検出してもよい。この場合、センサ114は、たとえば角速度センサ、地磁気センサ、加速度センサ、またはジャイロセンサであればよい。HMD110は、これらのうち少なくとも1つを用いる。センサ114が角速度センサである場合、センサ114は、HMD110の動きに応じて、HMD110の現実空間における3軸回りの角速度を経時的に検出する。HMD110は、角速度の検出値に基づき、HMD110の3軸回りの角度の時間的変化を決定し、さらに、角度の時間的変化に基づきHMD110の傾きを検出することができる。
HMD110がセンサ114による検出値に基づきHMD110の位置および傾きを自ら検出する場合、HMDシステム100にHMDセンサ120は不要である。逆に、HMD110から離れた位置に配置されるHMDセンサ120がHMD110の位置および傾きを検出する場合、HMD110にセンサ114は不要である。
上述したように、グローバル座標系は現実空間の座標系と平行である。そのため、HMDセンサ120によって検出されたHMD110の各傾きは、グローバル座標系におけるHMD110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMDセンサ120の傾きの検出値に基づき、uvw視野座標系をHMD110に設定する。HMD110に設定されるuvw視野座標系は、HMD110を装着したユーザが物体を見る際の視点座標系に対応する。
(uwv視野座標系)
図3は、HMD110に設定されるuwv視野座標系を例示する図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置および傾きを検出する。そして、傾きの検出値に基づく3次元のuvw視野座標系を、HMD110に設定する。図3に示すように、HMDセンサ120は、HMD110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を、HMD110に設定する。具体的には、グローバル座標系を規定する横方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって得られる新たな3つの方向を、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)として設定する。
図3は、HMD110に設定されるuwv視野座標系を例示する図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置および傾きを検出する。そして、傾きの検出値に基づく3次元のuvw視野座標系を、HMD110に設定する。図3に示すように、HMDセンサ120は、HMD110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を、HMD110に設定する。具体的には、グローバル座標系を規定する横方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって得られる新たな3つの方向を、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)として設定する。
図3に示すように、HMDセンサ120は、HMD110を装着したユーザが直立しかつ正面を視認している場合、グローバル座標系に平行なuvw視野座標系をHMD110に設定する。この場合、グローバル座標系の横方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)が、そのまま、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)に一致する。
HMDセンサ120は、HMD110にuvw視野座標系を設定した後、HMD110の動きに応じて、現在設定中のuvw視野座標系におけるHMD110の傾き(傾きの変化量)を検出することができる。この場合、HMDセンサ120は、HMD110の傾きとして、現在設定中のuvw視野座標系におけるHMD110のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD110の傾き角度である。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD110の傾き角度である。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD110の傾き角度である。
HMDセンサ120は、HMD110の傾きの検出値に基づき、動いた後のHMD110におけるuvw視野座標系を、新たにHMD110に設定する。HMD110と、HMD110のuvw視野座標系との関係は、HMD110の位置および傾きによらず常に一定である。HMD110の位置および傾きが変わると、それの変化に連動して、グローバル座標系におけるHMD110のuvw視野座標系の位置および傾きが同様に変化する。
HMDセンサ120は、赤外線センサによって取得される赤外線の光強度および複数の検出点間の相対位置関係(検出点間の距離等)に基づき、HMD110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、特定した相対位置に基づき、現実空間内(グローバル座標系)におけるHMD110のuvw視野座標系の原点を決定してもよい。また、HMDセンサ120は、複数の検出点間の相対位置関係に基づきHMD110の現実空間内における傾きを検出し、さらに、その検出値に基づき現実空間内(グローバル座標系)におけるHMD110のuvw視野座標系の向きを決定してもよい。
(仮想空間2の概要)
図4は、ユーザに提供される仮想空間2の概要を説明する図である。この図に示すように、仮想空間2は、中心21の360°方向全体を覆う全天球状の構造を有する。図4には、仮想空間2の全体のうち上半分の天球のみを例示する。仮想空間2には、略正方形または略長方形の複数のメッシュが関連付けられている。仮想空間2における各メッシュの位置は、仮想空間2に規定される空間座標系(XYZ座標系)における座標として、予め規定されている。制御回路部200は、仮想空間2に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間2における対応する各メッシュに対応付けることによって、ユーザによって視認可能な仮想空間画像22が展開される仮想空間2をユーザに提供する。
図4は、ユーザに提供される仮想空間2の概要を説明する図である。この図に示すように、仮想空間2は、中心21の360°方向全体を覆う全天球状の構造を有する。図4には、仮想空間2の全体のうち上半分の天球のみを例示する。仮想空間2には、略正方形または略長方形の複数のメッシュが関連付けられている。仮想空間2における各メッシュの位置は、仮想空間2に規定される空間座標系(XYZ座標系)における座標として、予め規定されている。制御回路部200は、仮想空間2に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間2における対応する各メッシュに対応付けることによって、ユーザによって視認可能な仮想空間画像22が展開される仮想空間2をユーザに提供する。
仮想空間2には、中心21を原点とするXYZ空間座標系が規定されている。XYZ座標系は、たとえばグローバル座標系に平行である。XYZ座標系は視点座標系の一種であるため、XYZ座標系における横方向、鉛直方向(上下方向)、および前後方向を、それぞれX軸、Y軸、Z軸とする。すなわち、XYZ座標系のX軸(横方向)がグローバル座標系のx軸と平行であり、XYZ座標系のY軸(上下方向)がグローバル座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)がグローバル座標系のz軸と平行である。
HMD110の起動時(初期状態)において、仮想空間2の中心21に仮想カメラ1が配置されている。仮想カメラ1は、現実空間内におけるHMD110の動きに連動して、仮想空間2内において同様に動く。これにより、現実空間内におけるHMD110の位置および向きの変化が、仮想空間2内において同様に再現される。
仮想カメラ1には、HMD110と同様にuvw視野座標系が規定される。仮想空間2内における仮想カメラ1のuvw視野座標系は、現実空間(グローバル座標系)内におけるHMD110のuvw視野座標系に変動するように規定されている。したがって、HMD110の傾きが変化すると、それに連動して仮想カメラ1の傾きも変化する。仮想カメラ1は、HMD110を装着したユーザの現実空間における移動に連動して、仮想空間2において移動することもできる。
仮想空間2における仮想カメラ1の位置および傾きに応じて、仮想空間2における仮想カメラ1の向きが決まる。これにより、仮想空間2に展開される仮想空間画像22をユーザが視認する際の基準となる視線(基準視線5)が決まる。制御回路部200は、基準視線5に基づき、仮想空間2における視界領域23を決定する。視界領域23は、仮想空間2のうち、HMD110を装着したユーザの視界に対応する領域である。
図5は、視界領域23の断面を示す図である。図5の(a)に、仮想空間2において視界領域23をX方向から見たYZ断面を示す。図5の(b)に、仮想空間2において視界領域23をY方向から見たXZ断面を示す。視界領域23は、基準視線5と仮想空間2のYZ断面とによって定義される範囲である第1領域24(図5の(a)参照)と、基準視線5と仮想空間2のXZ断面とによって定義される範囲である第2領域25(図5の(b)参照)とを有する。制御回路部200は、仮想空間2における基準視線5を中心として極角αを含む範囲を、第1領域24として設定する。また、仮想空間2における基準視線5を中心とした方位角βを含む範囲を、第2領域25として設定する。
HMDシステム100は、仮想空間画像22のうち視界領域23に重畳する部分である視界画像26をHMD110のディスプレイ112に表示させることによって、ユーザに仮想空間2を提供する。ユーザがHMD110を動かせば、それに連動して仮想カメラ1も動き、その結果、仮想空間2における視界領域23の位置が変化する。これによりディスプレイ112に表示される視界画像26が、仮想空間画像22のうち、仮想空間2においてユーザが向いた箇所(=視界領域23)に重畳する画像に更新される。したがってユーザは、仮想空間2における所望の箇所を視認することができる。
ユーザは、HMD110を装着している間、現実世界を目にすることなく、仮想空間2に展開される仮想空間画像22のみを視認する。そのためHMDシステム100は、仮想空間2への高い没入感をユーザに与えることができる。
制御回路部200は、HMD110を装着したユーザの現実空間における移動に連動して、仮想カメラ1を仮想空間2内において移動させてもよい。この場合、制御回路部200は、仮想カメラ1の仮想空間2内における位置および向きに基づき、仮想空間2のうちHMD110のディスプレイ112に投影されることによってユーザが視認する視界領域23を特定する。
仮想カメラ1は、右眼用画像を提供する右眼用仮想カメラと、左眼用画像を提供する左眼用仮想カメラとを含むことが好ましい。さらに、2つの仮想カメラには、ユーザが3次元の仮想空間2を認識できるように適切な視差が設定されていることが好ましい。本実施形態では、このような2つの仮想カメラのロール方向が合成されることによって生成されるロール方向(w)がHMD110のロール方向(w)に適合されるような仮想カメラ1のみを、代表して図示および説明するものとする。
(視線方向の検出)
注視センサ130は、ユーザの右目および左目の視線が向けられる方向(視線方向)を検出するアイトラッキング機能を有する。注視センサ130として、アイトラッキング機能を有する公知のセンサを採用することができる。注視センサ130は、右目用センサおよび左目用センサを備えていることが好ましい。注視センサ130は、たとえば、ユーザの右目および左目に赤外光を照射すると共に、照射光に対する角膜および虹彩からの反射光を受光することによって、各眼球の回転角を検出するセンサでもよい。注視センサ130は、検出した各回転角に基づき、ユーザの視線方向を検知することができる。
注視センサ130は、ユーザの右目および左目の視線が向けられる方向(視線方向)を検出するアイトラッキング機能を有する。注視センサ130として、アイトラッキング機能を有する公知のセンサを採用することができる。注視センサ130は、右目用センサおよび左目用センサを備えていることが好ましい。注視センサ130は、たとえば、ユーザの右目および左目に赤外光を照射すると共に、照射光に対する角膜および虹彩からの反射光を受光することによって、各眼球の回転角を検出するセンサでもよい。注視センサ130は、検出した各回転角に基づき、ユーザの視線方向を検知することができる。
注視センサ130によって検出されるユーザの視線方向は、ユーザが物体を視認する際の視点座標系における方向である。上述したように、HMD110のuvw視野座標系は、ユーザがディスプレイ112を視認する際の視点座標系に等しい。また、仮想カメラ1のuvw視野座標系は、HMD110のuvw視野座標系に連動している。したがってHMDシステム100では、注視センサ130によって検出されたユーザの視線方向を、仮想カメラ1のuvw視野座標系におけるユーザの視線方向と見なすことができる。
図6は、ユーザの視線方向を決定する方法を例示する図である。この図に示すように、注視センサ130は、ユーザUの右目および左目の視線を検出する。ユーザUが近くを見ている場合、注視センサ130は、ユーザUの視線R1およびL1を検出する。ユーザが遠くを見ている場合、注視センサ130は、ユーザの視線R1およびL1よりも、HMD110のロール方向(w)とのなす角が小さい視線R2およびL2を特定する。注視センサ130は、検出値を制御回路部200に送信する。
制御回路部200は、視線の検出値として視線R1およびL1を受信した場合、両者の交点である注視点N1を特定する。一方、視線R2およびL2を受信した場合も、両者の交点である注視点N1(不図示)を特定する。制御回路部200は、特定した注視点N1に基づき、ユーザUの視線方向N0を検出する。制御回路部200は、たとえば、ユーザUの右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の伸びる方向を、視線方向N0として検出する。視線方向N0は、ユーザUが両目により実際に視線を向けている方向である。視線方向N0はまた、視界領域23に対してユーザUが実際に視線を向けている方向でもある。
HMDシステム100は、HMDシステム100を構成するいずれかの要素に、マイクおよびスピーカを備えていてもよい。これにより、ユーザは仮想空間2内に対して、音声による指示を与えることができる。また、仮想空間内の仮想テレビにテレビ番組の放送を受信するために、HMDシステム100はいずれかの要素にテレビジョン受像機を含んでいてもよい。また、ユーザが取得した電子メール等を表示させるための、通信機能等を含んでいてもよい。
(コントローラ300)
コントローラ300は、ユーザの操作に基づく各種の指令を制御回路部200に対して送信することができるデバイスである。コントローラ300は、有線または無線通信が可能な携帯端末であり得る。コントローラ300は、たとえば、スマートフォン、PDA(Personal Digital Assistant)、タブレット型コンピュータ、ゲーム用コンソール、汎用のPC(Personal Computer)等であればよい。コントローラ300は、タッチパネルを備え
るデバイスであることが好ましく、互いにバス接続されたプロセッサ、メモリ、ストレージ、通信部、表示部と入力部が一体として構成されたタッチパネル、を備える任意の端末が採用され得る。ユーザは、コントローラ300のタッチパネルに対し、タップ、スワイプ、およびホールドを含む各種のタッチ動作を入力することによって、仮想空間2に配置される各種のオブジェクトおよびUI(User Interface)に対して影響を及ぼすことができる。
コントローラ300は、ユーザの操作に基づく各種の指令を制御回路部200に対して送信することができるデバイスである。コントローラ300は、有線または無線通信が可能な携帯端末であり得る。コントローラ300は、たとえば、スマートフォン、PDA(Personal Digital Assistant)、タブレット型コンピュータ、ゲーム用コンソール、汎用のPC(Personal Computer)等であればよい。コントローラ300は、タッチパネルを備え
るデバイスであることが好ましく、互いにバス接続されたプロセッサ、メモリ、ストレージ、通信部、表示部と入力部が一体として構成されたタッチパネル、を備える任意の端末が採用され得る。ユーザは、コントローラ300のタッチパネルに対し、タップ、スワイプ、およびホールドを含む各種のタッチ動作を入力することによって、仮想空間2に配置される各種のオブジェクトおよびUI(User Interface)に対して影響を及ぼすことができる。
(制御回路部200の機能的構成)
図7は、制御回路部200の機能的構成を示すブロック図である。制御回路部200は、HMDセンサ120、注視センサ130、およびコントローラ300から受信した各種のデータを用いることによって、ユーザに提供される仮想空間2を制御すると共に、HMD110のディスプレイ112への画像表示を制御する。図7に示すように、制御回路部200は、検出部210、表示制御部220、仮想空間制御部230、記憶部240、および通信部250を備えている。制御回路部200は、図2に示す各ハードウェアの協働によって、検出部210、表示制御部220、仮想空間制御部230、記憶部240、および通信部250として機能する。検出部210、表示制御部220、および仮想空間制御部230は、主としてプロセッサおよびメモリの協働によってその機能が実現され得る。記憶部240は、主としてメモリおよびストレージの協働によってその機能が実現され得る。通信部250は、主としてプロセッサおよび通信インターフェースの協働によってその機能が実現され得る。
図7は、制御回路部200の機能的構成を示すブロック図である。制御回路部200は、HMDセンサ120、注視センサ130、およびコントローラ300から受信した各種のデータを用いることによって、ユーザに提供される仮想空間2を制御すると共に、HMD110のディスプレイ112への画像表示を制御する。図7に示すように、制御回路部200は、検出部210、表示制御部220、仮想空間制御部230、記憶部240、および通信部250を備えている。制御回路部200は、図2に示す各ハードウェアの協働によって、検出部210、表示制御部220、仮想空間制御部230、記憶部240、および通信部250として機能する。検出部210、表示制御部220、および仮想空間制御部230は、主としてプロセッサおよびメモリの協働によってその機能が実現され得る。記憶部240は、主としてメモリおよびストレージの協働によってその機能が実現され得る。通信部250は、主としてプロセッサおよび通信インターフェースの協働によってその機能が実現され得る。
検出部210は、制御回路部200に接続される各種のセンサ(HMDセンサ120等)から検出値を受信する。また、必要に応じて、受信した検出値を用いた所定の処理を実行する。検出部210は、HMD検出部211、視線検出部212、および操作受付部213を備えている。HMD検出部211は、HMD110およびHMDセンサ120から検出値をそれぞれ受信する。視線検出部212は、注視センサ130から検出値を受信する。操作受付部213は、コントローラ300に対するユーザの操作に応じて送信された指令を受信することによって、当該操作を受け付ける。
表示制御部220は、HMD110のディスプレイ112への画像表示を制御する。表示制御部220は、仮想カメラ制御部221、視界領域決定部222、および視界画像生成部223を備えている。仮想カメラ制御部221は、仮想空間2内に仮想カメラ1を配置すると共に、仮想空間2内における仮想カメラ1の挙動を制御する。視界領域決定部222は、視界領域23を決定する。視界画像生成部223は、決定された視界領域23に基づき、ディスプレイ112に表示される視界画像26を生成する。
仮想空間制御部230は、ユーザに提供される仮想空間2を制御する。仮想空間制御部230は、仮想空間規定部231、視線管理部232、コンテンツ特定部233、コンテンツ管理部234、傾き補正値特定部235、操作オブジェクト制御部236、および回転制御部237を備えている。仮想空間規定部231は、ユーザに提供される仮想空間2を表す仮想空間データを生成することによって、HMDシステム100における仮想空間2を規定する。視線管理部232は、仮想空間2におけるユーザの視線を管理する。コンテンツ特定部233は、仮想空間2における再生対象のコンテンツを特定する。コンテンツ管理部234は、動画コンテンツに広告コンテンツを合成する。コンテンツ管理部234は仮想空間2における再生対象のコンテンツを特定する。コンテンツ管理部234は、仮想空間2において再生しているコンテンツの時間的位置を認識して、広告が表示されている時間か否かの判断を行なう。傾き補正値特定部235は、仮想空間2において再生されるコンテンツに予め規定されている傾き補正値を特定する。操作オブジェクト制御部236は、仮想空間2における操作オブジェクト28を制御する。回転制御部237は、操作オブジェクト28への操作に基づく仮想カメラ1または仮想空間2の回転を制御する。
記憶部240は、制御回路部200が仮想空間2をユーザに提供するために用いる各種のデータを格納している。記憶部240は、雛形格納部241およびコンテンツ格納部242を備えている。雛形格納部241は、各種の雛形データを格納している。コンテンツ格納部242は、各種のコンテンツを格納している。
雛形データは、仮想空間2の雛形を表すデータである。雛形データは、仮想空間2の空間構造を規定する空間構造データを有する。空間構造データは、たとえば、中心21を中心とする360°の全天球の空間構造を規定するデータである。雛形データは、仮想空間2のXYZ座標系を規定するデータをさらに有する。雛形データは、天球を構成する各メッシュのXYZ座標系における位置を特定する座標データをさらに有する。また、雛形データは、仮想空間2内にオブジェクトを配置可能であるか否かを示すフラグをさらに有す
る。
る。
コンテンツは、仮想空間2において再生可能なコンテンツである。コンテンツの例として、たとえば、プラットフォームコンテンツおよび視聴用コンテンツが挙げられる。
プラットフォームコンテンツは、ユーザが視聴したい視聴用コンテンツを仮想空間2においてユーザに選択させるための環境(プラットフォーム)に関するコンテンツである。このプラットフォームコンテンツが仮想空間2において再生されることによって、コンテンツ選択用のプラットフォームがユーザに提供される。プラットフォームコンテンツは、背景画像、および、オブジェクトを規定するデータを少なくとも有する。
視聴用コンテンツは、たとえば静止画コンテンツまたは動画コンテンツである。静止画コンテンツは、背景画像を有する。動画コンテンツは、各フレームの画像(静止画)を少なくとも有する。動画コンテンツは、さらに音声データを有してもよい。
動画コンテンツは、たとえば、全天球カメラによって生成されるコンテンツである。全天球カメラは、当該カメラのレンズを中心とした現実空間の全方向を一度に撮影することによって、全方向の画像を一度に生成することができるカメラである。全天球カメラによって得られる動画コンテンツを構成する各画像は歪んでいるが、動画コンテンツが仮想空間2において再生されるとき、各画像の歪みは、HMD110のディスプレイ112を構成するレンズによってキャンセルされることによって解消される。したがって動画コンテンツの再生時、ユーザは仮想空間2内において歪みのない自然な画像を視認することができる。
各コンテンツには、HMD110の初期状態(起動時)にユーザに見せる画像を向いた初期方向が、予め規定されている。全天球カメラによって生成される動画コンテンツに規定される初期方向は、通常、動画コンテンツの撮影に用いた全天球カメラに規定される所定の撮影方向に一致する。なお、この初期方向を、撮影方向とは異なる方向に変更してもよい。具体的には、全天球カメラによる撮影後、得られた動画コンテンツを適宜編集することによって、撮影方向からずれた方向を初期方向として動画コンテンツに規定してもよい。
各コンテンツには、所定の傾き補正値が必要に応じて予め規定されている。傾き補正値は、コンテンツをユーザが視聴する際に前提とする姿勢に応じて、当該コンテンツに対して規定される。たとえば、ユーザが座位姿勢で視聴することを前提としたコンテンツには、座位姿勢に応じた傾き補正値が規定される。一方、ユーザが仰臥姿勢で視聴することを前提としたコンテンツには、仰臥姿勢に応じた傾き補正値が規定される。傾き補正値は、グローバル座標系におけるHMD110に対する仮想カメラ1の傾きを補正するために用いられる。あるいは、グローバル座標系に対する仮想空間2のXYZ座標系の傾きを補正するために用いられる。
たとえば、コンテンツが、ユーザが座位姿勢または立位姿勢で視聴することを前提としたものであれば、当該コンテンツに規定される傾き補正値は0°である。多くのコンテンツは、ユーザが座位姿勢で視聴することを前提としたものである。ユーザは、この種のコンテンツが再生される仮想空間2における現実感を高めるために、実際に座ったまたは立った状態でこの種のコンテンツを視聴する。
一方、コンテンツが、ユーザが鉛直斜め上を向いて寝た状態(仰臥姿勢)で視聴することが適したものであれば、コンテンツに規定される傾き補正値はたとえば60°である。この種のコンテンツとして、たとえば、ユーザ自身が他の人物に膝枕してもらったときにユーザが視認する映像をユーザに提示する動画コンテンツがある。このような動画コンテンツに予め規定される初期方向は、全天球画像のうちユーザが寝ころんだ状態で視認する箇所を向いている。ユーザは、この種の動画コンテンツが再生される仮想空間2における現実感を高めるために、実際に床に寝ころんだ状態でこの種の動画コンテンツを視聴する。
上述した傾き補正値は、単なる例示に過ぎない。コンテンツを視聴する際に前提とするユーザの姿勢に応じた任意の値が、傾き補正値としてコンテンツに設定され得る。たとえばコンテンツが、ユーザが鉛直真上を向いた状態で視聴することを前提としたものであれば、傾き補正値として90°がコンテンツに規定される。一方、コンテンツが、ユーザが鉛直真下を向いて視聴することを前提としたものであれば、傾き補正値として-90°がコンテンツに規定される。
多くのコンテンツは、ユーザが座位姿勢または立位姿勢で視聴することを前提とするので、このようなコンテンツには傾き補正値を予め規定しなくてもよい。コンテンツに傾き補正値が規定されていない場合、傾き補正値特定部235は、このコンテンツに値が0°の傾き補正値が規定されているものと見なす。
通信部250は、ネットワークNWを介して外部機器400(たとえばサーバ)との間でデータを送受信する。
(仮想空間2の提供処理)
図8は、HMDシステム100が仮想空間2をユーザに提供する処理の流れを示すシーケンス図である。仮想空間2は、基本的に、HMD110および制御回路部200の協働によってユーザに提供される。図8に示す処理が開始されると、まず、S1において、仮想空間規定部231が、ユーザに提供される仮想空間2を表す仮想空間データを生成することによって、仮想空間2を規定する。生成の手順は次の通りである。まず仮想空間規定部231が、仮想空間2の雛形データを雛形格納部241から取得することによって、仮想空間2の原型を定義する。仮想空間規定部231は、さらに、仮想空間2において再生されるコンテンツを、コンテンツ格納部242から取得する。仮想空間規定部231は、取得した雛形データに、取得したコンテンツを適合することによって、仮想空間2を規定する仮想空間データを生成する。仮想空間規定部231は、仮想空間データにおいて、仮想空間2の天球を構成する各メッシュの管理データに、コンテンツに含まれる背景画像を構成する各部分画像を適宜関連付ける。仮想空間規定部231は、コンテンツに規定される初期方向を仮想空間2のXYZ座標系におけるZ方向に合致させるように、各部分画像と各メッシュとを関連付けることが好ましい。
図8は、HMDシステム100が仮想空間2をユーザに提供する処理の流れを示すシーケンス図である。仮想空間2は、基本的に、HMD110および制御回路部200の協働によってユーザに提供される。図8に示す処理が開始されると、まず、S1において、仮想空間規定部231が、ユーザに提供される仮想空間2を表す仮想空間データを生成することによって、仮想空間2を規定する。生成の手順は次の通りである。まず仮想空間規定部231が、仮想空間2の雛形データを雛形格納部241から取得することによって、仮想空間2の原型を定義する。仮想空間規定部231は、さらに、仮想空間2において再生されるコンテンツを、コンテンツ格納部242から取得する。仮想空間規定部231は、取得した雛形データに、取得したコンテンツを適合することによって、仮想空間2を規定する仮想空間データを生成する。仮想空間規定部231は、仮想空間データにおいて、仮想空間2の天球を構成する各メッシュの管理データに、コンテンツに含まれる背景画像を構成する各部分画像を適宜関連付ける。仮想空間規定部231は、コンテンツに規定される初期方向を仮想空間2のXYZ座標系におけるZ方向に合致させるように、各部分画像と各メッシュとを関連付けることが好ましい。
仮想空間規定部231は、さらに、必要に応じて、コンテンツに含まれる各オブジェクトの管理データを、仮想空間データに追加する。その際、各管理データに、対応するオブジェクトが仮想空間2において配置される位置を表す座標を、設定する。これにより各オブジェクトが、仮想空間2における当該座標の位置にそれぞれ配置される。
その後、ユーザによってHMD110が起動されると、S2において、HMDセンサ120が、HMD110の初期状態における位置および傾きを検出して、S3において、検出値を制御回路部200に出力する。HMD検出部211は、この検出値を受信する。この後、S4において、仮想カメラ制御部221は、仮想空間2において仮想カメラ1を初期化する。
初期化の手順は次の通りである。まず仮想カメラ制御部221は、仮想空間2内における初期位置(図4における中心21等)に、仮想カメラ1を配置する。次に、仮想空間2における仮想カメラ1の向きを設定する。その際、仮想カメラ制御部221は、HMDセンサ120からの検出値に基づき初期状態のHMD110のuvw視野座標系を特定すると共に、HMD110のuvw視野座標系に一致するuvw視野座標系を仮想カメラ1に設定することによって、仮想カメラ1の向きを設定すればよい。仮想カメラ制御部221は、仮想カメラ1にuvw視野座標系を設定する際、仮想カメラ1のロール方向(w軸)をXYZ座標系のZ方向(Z軸)に適合させる。具体的には、仮想カメラ制御部221は、仮想カメラ1のロール方向をXZ平面に投影して得られる方向を、XYZ座標系のZ方向に一致させると共に、XZ平面に対する仮想カメラ1のロール方向の傾きを、水平面に対するHMD110のロール方向の傾きに一致させる。このような適合処理によって、初期状態の仮想カメラ2のロール方向がコンテンツの初期方向に適合されるので、コンテンツの再生開始後におけるユーザが最初に向く水平方向の向きを、コンテンツの初期方向に一致させることができる。
仮想カメラ1の初期化処理が終わると、視界領域決定部222は、仮想カメラ1のuvw視野座標系に基づき、仮想空間2における視界領域23を決定する。具体的には、仮想カメラ1のuvw視野座標系のロール方向(w軸)をユーザの基準視線5として特定し、この基準視線5に基づき視界領域23を決定する。S5において、視界画像生成部223は、仮想空間データを処理することによって、仮想空間2に展開される仮想空間画像22の全体のうち、仮想空間2における視界領域23に投影される部分に相当する視界画像26を生成(レンダリング)する。S6において、視界画像生成部223は、生成した視界画像26を初期視界画像としてHMD110に出力する。S7において、HMD110は、受信した初期視界画像をディスプレイ112に表示する。これによりユーザは初期視界画像を視認する。
その後、S8において、HMDセンサ120が、HMD110の現在の位置および傾きを検出して、S9において、これらの検出値を制御回路部200に出力する。HMD検出部211は、各検出値を受信する。仮想カメラ制御部221は、HMD110の位置および傾きの検出値に基づき、HMD110における現在のuvw視野座標系を特定する。さらに、S10において、仮想カメラ制御部221は、XYZ座標系におけるuvw視野座標系のロール方向(w軸)を、HMD110の視界方向として特定する。
本実施形態では、S11において、仮想カメラ制御部221が、特定したHMD110の視界方向を、仮想空間2におけるユーザの基準視線5として特定する。S12において
、仮想カメラ制御部221は、特定した基準視線5に基づき、仮想カメラ1を制御する。仮想カメラ制御部221は、基準視線5の位置(起点)および方向が仮想カメラ1の初期状態と同一であれば、仮想カメラ1の位置および方向をそのまま維持する。一方、基準視
線5の位置(起点)および/または方向が、仮想カメラ1の初期状態から変化していれば
、仮想空間2内における仮想カメラ1の位置および/または傾きを、変化後の基準視線5に応じた位置および/または傾きに変更する。また、制御後の仮想カメラ1に対してuvw視野座標系を再設定する。
、仮想カメラ制御部221は、特定した基準視線5に基づき、仮想カメラ1を制御する。仮想カメラ制御部221は、基準視線5の位置(起点)および方向が仮想カメラ1の初期状態と同一であれば、仮想カメラ1の位置および方向をそのまま維持する。一方、基準視
線5の位置(起点)および/または方向が、仮想カメラ1の初期状態から変化していれば
、仮想空間2内における仮想カメラ1の位置および/または傾きを、変化後の基準視線5に応じた位置および/または傾きに変更する。また、制御後の仮想カメラ1に対してuvw視野座標系を再設定する。
S13において、視界領域決定部222は、特定した基準視線5に基づき、仮想空間2における視界領域23を決定する。その後、S14において、視界画像生成部223は、仮想空間データを処理することによって、仮想空間2に展開される仮想空間画像22の全体のうち、仮想空間2における視界領域23に投影(重畳)される部分である視界画像26を生成(レンダリング)する。S15において、視界画像生成部223は、生成した視界画像26を更新用の視界画像としてHMD110に出力する。S16において、HMD110は、受信した視界画像26をディスプレイ112に表示することによって、視界画像26を更新する。これにより、ユーザがHMD110を動かせば、それに連動して視界画像26が更新される。
(プラットフォームの提供およびコンテンツの再生処理)
本実施形態では、HMDシステム100は、仮想空間2においてユーザが視聴したいコンテンツを仮想空間2においてユーザに選択するための環境(プラットフォーム)を、ユーザに提供する。ユーザが、仮想空間2に展開されるプラットフォームを通じて、視聴したいコンテンツを選択すれば、制御回路部200は、選択されたコンテンツの仮想空間2における再生を開始する。以下に、プラットフォームの提供およびコンテンツの再生処理の詳細について、説明する。
本実施形態では、HMDシステム100は、仮想空間2においてユーザが視聴したいコンテンツを仮想空間2においてユーザに選択するための環境(プラットフォーム)を、ユーザに提供する。ユーザが、仮想空間2に展開されるプラットフォームを通じて、視聴したいコンテンツを選択すれば、制御回路部200は、選択されたコンテンツの仮想空間2における再生を開始する。以下に、プラットフォームの提供およびコンテンツの再生処理の詳細について、説明する。
図9は、HMDシステム100が、仮想空間2内のプラットフォームを通じてユーザが選択した動画コンテンツを仮想空間2において再生する処理の流れを示すシーケンス図である。図10は、仮想空間2内のプラットフォームを通じた動画コンテンツの選択および再生を説明する図である。図9に示す処理が開始されると、まず、S21において、仮想空間規定部231が、プラットフォーム提供用の仮想空間2を表す仮想空間データを生成することによって、プラットフォーム提供用の仮想空間2を規定する。生成の手順は次の通りである。まず仮想空間規定部231は、プラットフォームに対応した仮想空間2の雛形データを、雛形格納部241から取得する。ここでは、オブジェクトが使用可能な雛形データが取得される。
仮想空間規定部231は、さらに、仮想空間2において提供されるプラットフォームに関するプラットフォームコンテンツを、コンテンツ格納部242から取得する。仮想空間規定部231は、取得した雛形データに、取得したプラットフォームコンテンツを適合することによって、プラットフォームを提供するための仮想空間2を規定する仮想空間データを生成する。仮想空間規定部231は、仮想空間データにおいて、仮想空間2の天球を構成する各メッシュの管理データに、プラットフォームコンテンツに含まれる背景画像を構成する各部分画像を適宜関連付ける。
仮想空間規定部231は、さらに、プラットフォームコンテンツに含まれる各オブジェクトの管理データを、仮想空間データに追加する。これにより各オブジェクトが、プラットフォームを提供する仮想空間2における所定の位置にそれぞれ配置される。仮想空間規定部231は、次に、コンテンツ格納部242に格納される一定数の視聴用コンテンツ(ここでは動画コンテンツ)の概要画像(サムネイル)を、それぞれ取得する。仮想空間規定部231は、取得した各サムネイルを、仮想空間データ内のいずれかのオブジェクトの管理データに関連付ける。これにより、仮想空間2に配置される各オブジェクトに、サムネイルが関連付けられる。以下では、説明の便宜のために、仮想空間2に配置される、サムネイルが関連付けられたオブジェクトのことを、単にサムネイルと表記する場合がある
。
。
対応するサムネイルがオブジェクトに関連付けられた各視聴用コンテンツは、ユーザが仮想空間2において再生させるために選択可能な動画コンテンツの候補(候補動画コンテンツ)である。ユーザは、サムネイルの選択を通じて、対応する候補動画コンテンツを選択することができる。制御回路部200は、プラットフォームにおいてユーザによって選択された候補動画コンテンツを、仮想空間2において再生させる動画コンテンツとして特定する。
図10の(a)に、プラットフォーム提供用の仮想空間2の一例を示す。この図には、4つのサムネイルSN1~SN4が配置される、プラットフォーム提供用の仮想空間2を示す。これらのサムネイルSN1~SN4は、いずれも、対応する動画コンテンツの概要画像(サムネイル)が関連付けられたオブジェクトである。
図10の(a)に示す仮想空間2を表す仮想空間データの生成後、S22において、視界画像生成部223は、ユーザの基準視線5に基づき視界画像26を生成する。この生成方法は図8を参照して説明した方法と同一である。ここでは、プラットフォームに対応した視界画像26が生成される。図10の(a)では、サムネイルSN1~N4のうち、ユーザの基準視線5によって規定される視界領域23の内部に、サムネイルSN1およびSN2が配置されている。一方、サムネイルSN3およびSN4は、視界領域23の外部に配置されている。そのため視界画像生成部223は、サムネイルSN1およびSN2を含む視界画像26を生成する。
S23において、視界画像生成部223は、生成した視界画像26をHMD110に出力する。S24においてHMD110は、受信した視界画像26をディスプレイ112に表示する。ユーザは、プラットフォームの視界画像26を視認する。サムネイルが関連付けられたオブジェクトが視界画像26に含まれる場合、視界画像26の表示時、当該オブジェクトに関連付けられたサムネイルがディスプレイ112に表示される。これによりユーザは、サムネイルを含む視界画像26を視認する。図10の(b)に、プラットフォームの視界画像26の一例を示す。この図に示す視界画像26は、サムネイルSN1およびN2を含むので、ユーザは、仮想空間2において、サムネイルSN1およびSN2を視認する。
図9には示さないが、この後、ユーザがHMD110を動かせば、その動きに連動して視界画像26が更新される。たとえば、ユーザがHMD110を動かすことによって、視界領域23の位置が、サムネイルSN1およびSN3を含む位置に変化すれば、サムネイルSN1およびSN3を含む視界画像26がディスプレイ112に表示される。したがってユーザは、HMD110を適宜動かすことによって、視聴したい動画コンテンツのサムネイルを、自身の視界のうちに収めることができる。
プラットフォームの視界画像26が表示された後、S25において、注視センサ130は、ユーザの右目の視線および左目の視線をそれぞれ検出し、S26において、各検出値を制御回路部200に送信する。視線検出部212が、この検出値を受信する。S27において、視線検出部212は、受信した検出値を用いて、仮想カメラ1のuvw視野座標系におけるユーザの視線方向N0を特定する。
S28において、視線管理部232は、視線方向N0と、視界領域23に含まれる各サムネイルとに基づき、視界画像26に含まれる特定のサムネイルに規定時間以上ユーザの視線が当たったか否かを判定する。より詳細には、視線管理部232は、視界領域23における視線方向N0が交わる点が、視界領域23に含まれる特定のサムネイルの表示範囲(配置範囲)に含まれているか否かを判定する。この判定結果がYESであれば、視界画像26に含まれる特定のサムネイルに視線が当たったと判定し、NOであれば、視線は特定のサムネイルに当たっていないと判定する。
S28がNoの場合、図9の処理はS25の直前に戻る。この後、S28がYESになるまで、S25~S28の処理が繰り返される。一方、S28がYESの場合、S29において、コンテンツ特定部233は、規定時間以上視線が当たったと判定されたサムネイルに対応するコンテンツを特定する。たとえば、ユーザがサムネイルSN1に規定時間以上視線を当てれば、サムネイルSN1に対応するコンテンツとして、サムネイルSN1の管理データに関連付けられる動画コンテンツを特定する。
この後、S30において、仮想空間規定部231は、特定された動画コンテンツを再生するための仮想空間データを生成することによって、動画コンテンツ再生用の仮想空間2を規定する。生成の手順は次の通りである。まず仮想空間規定部231は、動画コンテンツに対応した仮想空間2の雛形データを、雛形格納部241から取得する。
仮想空間規定部231は、コンテンツ特定部233によって特定された動画コンテンツを、コンテンツ格納部242から取得する。仮想空間規定部231は、取得した雛形データに、取得した動画コンテンツを適合することによって、動画コンテンツ再生用の仮想空間2を規定する仮想空間データを生成する。仮想空間規定部231は、仮想空間データにおいて、仮想空間2の天球を構成する各メッシュの管理データに、動画コンテンツに含まれる最初のフレームの画像を構成する各部分画像を適宜関連付ける。
ここで生成される仮想空間データによって規定される仮想空間2においては、オブジェクトを配置することが想定されていない。さらに、動画コンテンツには、オブジェクトを規定する管理データが含まれない。そのためS30において、仮想空間規定部231は、オブジェクトの管理データを含まない仮想空間データを生成する。
動画コンテンツ再生用の仮想空間2を表す仮想空間データの生成後、S31において、視界画像生成部223は、ユーザの基準視線5に基づき視界画像26を生成する。この生成方法は図8を参照して説明した方法と同一である。ここでは、動画コンテンツの視界画像26が生成される。S32において、視界画像生成部223は、生成した視界画像26をHMD110に出力する。S33においてHMD110は、受信した視界画像26をディスプレイ112に表示することによって、視界画像26を更新する。これにより仮想空間2における動画コンテンツの再生が開始され、ユーザは動画コンテンツの視界画像26を視認する。
図9には示さないが、この後、ユーザがHMD110を動かせば、その動きに連動して視界画像26が更新される。したがってユーザは、HMD110を適宜動かすことによって、動画コンテンツを構成する各フレームの全天球画像における所望の位置の部分画像(視界画像26)を、視認することができる。
図10の(c)に、動画コンテンツの視界画像26の一例を示す。この図に示す視界画像26は、ユーザによって選択されたサムネイルSN1に対応する動画コンテンツの視界画像26である。このように、ユーザが、図10の(b)に示すプラットフォームの視界画像26を視認中にサムネイルSN1を視線によって選択すると、ディスプレイ112に表示されるプラットフォームの視界画像26が、図10の(c)に示す動画コンテンツの視界画像26に更新される。すなわちユーザは、仮想空間2において視線移動によってサムネイルSN1を選択することによって、これに対応した動画コンテンツを仮想空間2において視聴することができる。
以上のように、ユーザは、仮想空間2において視聴したい動画コンテンツを、仮想空間2における動画コンテンツ選択用のプラットフォームを通じて選択することができる。したがってユーザは、HMD110を装着する前に、制御回路部200に接続される他の一般的なディスプレイを現実空間において視認しながら、仮想空間2において視聴したい動画コンテンツを選択する必要がない。これにより、仮想空間2に対するユーザの没入感をより一層高めることができる。
また、制御回路部200は、動画コンテンツの再生中にユーザが所定の操作をHMDシステム100に対して(たとえばコントローラ300を通じて)行えば、動画コンテンツが再生される仮想空間2をユーザに提供することを終了し、それから再び、動画コンテンツ選択用のプラットフォームが展開される仮想空間2をユーザに提供する。これによりユーザは、他のサムネイルを選択することによって、他の動画コンテンツを仮想空間2において視聴することができる。ユーザは、視聴したい動画コンテンツを切り替える際にHMD110を外す必要がないので、仮想空間2に対するユーザの没入感をより一層高めることができる。
(コンテンツの合成)
動画コンテンツの表示域の一部に広告コンテンツを表示する方法の一形態について図11及び12を参照して説明する。本実施形態では、動画コンテンツ中の規定の表示域に広告コンテンツSC1の内容が表示されるように動画コンテンツ及び広告コンテンツSC1を合成した合成コンテンツを再生する。本明細書において表示域とは、動画コンテンツの時間的位置および空間的位置を少なくとも含む情報によって規定される。動画コンテンツを再生すると規定時間ごとに既定のフレームが連続して表示される。時間的位置とは表示するフレームがどのフレームであるかを示す情報ともいえる。また、空間的位置は一つのフレーム中の場所を示す。また、本実施形態において、視線管理部232等の制御回路部200の処理で用いるユーザの視る方向を示す情報は、視線方向N0の方向を示す情報であってもよく、視界方向を示す情報であってもよい。
動画コンテンツの表示域の一部に広告コンテンツを表示する方法の一形態について図11及び12を参照して説明する。本実施形態では、動画コンテンツ中の規定の表示域に広告コンテンツSC1の内容が表示されるように動画コンテンツ及び広告コンテンツSC1を合成した合成コンテンツを再生する。本明細書において表示域とは、動画コンテンツの時間的位置および空間的位置を少なくとも含む情報によって規定される。動画コンテンツを再生すると規定時間ごとに既定のフレームが連続して表示される。時間的位置とは表示するフレームがどのフレームであるかを示す情報ともいえる。また、空間的位置は一つのフレーム中の場所を示す。また、本実施形態において、視線管理部232等の制御回路部200の処理で用いるユーザの視る方向を示す情報は、視線方向N0の方向を示す情報であってもよく、視界方向を示す情報であってもよい。
図11は、視界画像生成部223が合成コンテンツを再生することによって表示する視野画像の内、広告コンテンツSC1又はSC2の内容を表示するシーンの視野画像を示している。つまり、視界画像生成部223は、シーンC1’において、動画コンテンツの表示域F1に広告コンテンツSC1を合成した視野画像を表示し、また、シーンC1”において動画コンテンツの表示域F2に広告コンテンツSC2を合成した視野画像を表示する。換言すれば、視界画像生成部223は、シーンC1’において表示域F1に広告コンテンツSC1を表示するように動画コンテンツと広告コンテンツSC1とを合成する処理、および、シーンC1”において表示域F2に広告コンテンツSC2を表示するように動画コンテンツと広告コンテンツSC2とを合成する処理を行なう。なお、広告コンテンツSC1およびSC2は動画であっても静止画であってもよい。
制御回路部200が前述の通り動画コンテンツと広告コンテンツとの合成を行なうことを利用して、ユーザの没入感を損なわないように広告を表示させることができる。なぜなら、動画コンテンツの作成者は、表示域F1、表示域F2に、広告を表示しても不自然ではない物を配置するように動画コンテンツを作成することができるからである。例えば、屋内のシーンC1’では、実際に当該屋内に設置されているテレビの画面を、広告を表示する対象物とすればよい。そして、表示域F1に当該画面を配置するようにコンテンツを作成すればよい。これにより、あたかもシーンC1’のテレビにて実際に放映されているかのように広告コンテンツSC1を表示することができる。同様に、屋内のシーンC1”では、実際に搭乗する人物が手に持つスマートフォン端末の画面が表示域F2に位置するようにコンテンツを作成すればよい。これにより、あたかもシーンC1”のスマートフォンにて実際に表示されているように広告コンテンツSC2を表示することができる。このように、動画コンテンツ中の広告を表示しても不自然では無い箇所に広告を表示することで、ユーザの没入感を損ねずに広告を表示することができる。また、表示域F1、表示域F2の空間的位置および時間的位置を動画コンテンツ作成時に予め特定せずに、広告コンテンツを合成するときに広告を表示しても不自然ではない場所を特定して合成してもよい。また、広告を表示する表示域の空間的位置を予め定めておけば、動画コンテンツの作成者は、広告を表示しても不自然ではないものを当該空間的位置に配置しておけばよいので、ユーザの没入感を損ねずに広告を表示させることができる。なお、広告が表示されていても不自然ではない対象物の他の例としては、デジタルサイネージ、ポスター、電光掲示板等が挙げられる。屋外又は大規模施設の屋内であればデジタルサイネージとする等、シーンに応じて適宜、表示域を設定すればよい。
図12は制御回路部200が動画コンテンツと広告コンテンツSC1とを合成する処理の流れを示すフロー図である。まず、S201において、通信部250が動画コンテンツを受信する。通信部250が動画コンテンツを取得するタイミングは特に限定されないが、例えば、ユーザがコントローラ300を用いて行なった動画コンテンツの取得を指示する操作を、操作受付部213が受け付けることによって、動画コンテンツを取得してもよい。また、既定の時間に、記憶部240に格納されていない動画コンテンツが外部機器400に格納されているか否かを、通信部250が外部機器400を参照することによって判断し、未格納の動画コンテンツを自動的に取得してもよい。
通信部250は、動画コンテンツを取得すると記憶部240に格納する。コンテンツ管理部234は、記憶部240に新たな動画コンテンツが格納されたことを認識する。次に、S202において、コンテンツ管理部234は広告枠情報を動画コンテンツから取得する(広告枠情報取得ステップ)。広告枠情報とは、広告コンテンツの表示域を含むシーンの時間的位置、及び、当該表示域の空間的位置を示す情報を含む。動画コンテンツの作成者は、動画コンテンツを作成する際に、広告枠情報を当該動画コンテンツに関連付ける。
S203において、コンテンツ管理部234は広告枠情報に基づいて動画コンテンツと広告コンテンツSC1とを合成する(合成コンテンツ生成ステップ)。例えば、動画コンテンツにおける表示域を含むシーンを構成するフレームの画像に広告コンテンツSC1の画像を貼り付ける処理を行なう。空間的位置、時間的位置、および広告枠の大きさに基づいて広告コンテンツの大きさおよび形状を適宜調整してもよい。例えば、広告を表示する対象物が遠方に見えるものであれば、広告コンテンツSC1の大きさを小さくしたり、当該対象物が斜めから見えるものであれば広告コンテンツSC1の形状を台形状に処理したりしてもよい。合成が終わるとコンテンツ管理部234はコンテンツ格納部242に合成後の動画コンテンツを格納する。コンテンツ格納部242に格納されている動画コンテンツをユーザが選択して再生する手順(再生ステップ)については上述の通りである。
以上のように、本実施形態では予め動画コンテンツと広告コンテンツSC1とを合成してコンテンツ格納部242に格納しておく形態について説明したが、本発明はこのような形態に限定されない。例えば、視界画像生成部223が、動画コンテンツをHMD110に表示させるときに、既定の表示域に広告コンテンツSC1を重畳して表示するように視界画像を生成することによって合成コンテンツを合成してもよい。
また、本実施形態では、HMDシステム100が合成コンテンツを合成する形態について説明したが、サーバ等の外部機器400で合成したものをHMDシステム100が取得してもよい。
(広告コンテンツの表示)
ヘッドマウントディスプレイにて動画コンテンツを視聴するユーザは、据え置き型のテレビ等で動画コンテンツを視聴するユーザに比べて、より深く動画コンテンツの内容に没入する。そこで、ヘッドマウントディスプレイにて動画コンテンツを再生する際に広告を表示できれば、高い広告効果が期待できる。しかし、ユーザの視界に入り易い位置に広告が表示されると仮想空間への没入感が損なわれる虞がある。
ヘッドマウントディスプレイにて動画コンテンツを視聴するユーザは、据え置き型のテレビ等で動画コンテンツを視聴するユーザに比べて、より深く動画コンテンツの内容に没入する。そこで、ヘッドマウントディスプレイにて動画コンテンツを再生する際に広告を表示できれば、高い広告効果が期待できる。しかし、ユーザの視界に入り易い位置に広告が表示されると仮想空間への没入感が損なわれる虞がある。
本開示は、ヘッドマウントディスプレイにて動画コンテンツを再生する際に広告等の他のコンテンツを表示しても、ユーザの没入感に与える影響が少ない、広告等のコンテンツを表示する方法を提供する。
動画コンテンツの表示域の一部に広告コンテンツを表示する方法の一形態について図13及び12を参照して説明する。本実施形態では、制御回路部200が動画コンテンツの表示域の内、初期方向に対して後方の表示域に広告コンテンツを表示する。本明細書において表示域とは、動画コンテンツの時間的位置および空間的位置を少なくとも含む情報によって規定される。動画コンテンツを再生すると規定時間ごとに既定のフレームが連続して表示される。時間的位置とは表示するフレームがどのフレームであるかを示す情報ともいえる。また、空間的位置は一つのフレーム中の場所を示す。また、本実施形態において、視線管理部232等の制御回路部200の処理で用いるユーザの視る方向を示す情報は、視線方向N0の方向を示す情報であってもよく、視界方向を示す情報であってもよい。
図13は、広告コンテンツSC1(第1サブコンテンツ)を表示する視野画像と、広告コンテンツSC1に視線を誘導するための広告コンテンツSC2(第2サブコンテンツ)を表示する視野画像と、仮想空間2内の位置との関係を説明するための図である。視野画像v1は、動画コンテンツの再生中に生成される仮想空間画像22の一部である。また、視野画像v1は、仮想空間2においてユーザが前方を向いているときの基準視線に基づいて表示される視野画像の一部である。ここで「前方」とは、初期方向を基準として水平方向におけるプラス方向(-90°以上、+90°以下)であればよく、例えば初期方向の近辺であることが好ましい。また、「後方」とは初期方向を基準として水平方向におけるマイナス方向(90°より大きく180°以下、-90°より小さく-180°以上の範囲)である。
視界画像生成部223は、視野画像v1内の鏡m1に、広告コンテンツSC1中の本棚の一部を表示する(第2のサブコンテンツ表示ステップ)。この本棚の一部の画像は、前方側を向いて動画コンテンツを視聴するユーザから見て後方側に位置する広告コンテンツSC1に視線を誘導するための広告コンテンツSC2である。広告コンテンツSC2は、初期方向に対する後方側にも注目すべきコンテンツが存在していることをユーザに知らせるためコンテンツである。動画コンテンツが再生されている間、ユーザは初期方向に近い前方側を主として視聴する傾向が有る。そのため、制御回路部200が初期方向に対して後方側に広告コンテンツを表示すれば、ユーザの没入感を損なわない。しかし、後方側はユーザに見られ難いので、広告効果が低いという課題がある。そこで、本実施形態では、後方側の広告コンテンツSC1のみならず、ユーザの視線を誘導する広告コンテンツSC2を表示する。これにより、ユーザの視線を後方側に誘導することができ、ユーザに広告コンテンツSC1を閲覧させることができる。よって、本実施形態は、ユーザの没入感を損ねずに、後方側に表示される広告効果を高めることができる。
広告コンテンツSC1が常時再生される形態では無い場合には、視界画像生成部223は、仮に視野が後方であれば広告コンテンツSC1が表示されている時間的位置で、広告コンテンツSC2を表示することが好ましい。すなわち、広告コンテンツSC2は、広告コンテンツSC1の空間的位置および時間的位置に基づいて、鏡m1に表示させることが好ましい。広告コンテンツSC1が表示されるタイミングと広告コンテンツSC2とが表示されるタイミングを連動させることにより、効果的に広告コンテンツSC1にユーザの視線を誘導することができる。
また、広告コンテンツSC2の表示方法は、本実施形態のように鏡に広告コンテンツSC1の一部を表示する形態には限定されない。仮想空間画像22の前方側に、後方側のコンテンツの一部を不自然でないように反映させることができるものであればよい。例えば、仮想空間画像22の前方側に何らかの反射面を有する画像が表示されるのであれば、その部分に広告コンテンツSC1の少なくとも一部示す画像を表示させることが好ましい。従って、動画コンテンツに登場する人物が窓を開ける際に、窓に広告コンテンツSC1の一部を描画して、あたかも窓に後方の広告コンテンツSC1の一部が映っているように描画してもよい。視界画像生成部223は、広告コンテンツSC2を常時表示してもよく、既定の時間的位置のみ表示してもよい。例えば、視界画像生成部223は、動画コンテンツ内の主人公が鏡を覗き込んでいるとき、または、窓にかかるカーテンを開けたときなどに広告コンテンツSC2を表示してもよい。また、本実施形態では視線誘導のためのコンテンツとして静止画を用いる場合について説明するが、動画であってもよく、音声であってもよい。
視界画像生成部223は、ユーザが後方を向いたことを認識すると、視野画像v2を表示する。すなわち、視界画像生成部223は、HMD110の向きに基づいて視界画像を更新することで、視野画像v2を生成する。視野画像v2は動画コンテンツの再生中に生成される仮想空間画像22の一部である。また、視野画像v2は仮想空間2においてユーザが後方を向いているときの基準視線に基づいて表示される視野画像の一部である。視野画像v2には広告コンテンツSC1が含まれる。広告コンテンツSC1は、広告画像p1、p2および広告用背景画像b1を含んでいる。広告用背景画像b1が、後述のつなぎ目領域Sを隠している。広告画像p1およびp2は広告用背景画像b1上に表示される。このように、初期方向を基準として後方側に広告コンテンツSC1を含む仮想空間画像22を生成することでユーザの没入感を損なうことなく広告を視聴させる機会を提供できる。なお、広告コンテンツSC1は動画であっても静止画であってもよい。
つなぎ目領域Sとは、複数の画像のつなぎ目のうち、画像間の不整合が生じるつなぎ目が集合する場所である。本実施形態では、つなぎ目領域Sを初期方向のマイナス方向(後方)側に位置させる。本実施形態では、動画コンテンツは全天球カメラによって撮影されたものである。全天球カメラで撮影したコンテンツのように天球状、または、半球等の球の一部に適合するように画像を表示する場合、分離した画像をつないで画像を生成することがある。分離した画像としては、複数の画像に分離したもの、および、一つの画像の一部が分離したものであり得る。この場合、画像のつなぎ目のうち、画像間の不整合が生じるつなぎ目においては、画像が歪んだり、画像が途切れて何も表示されない空間が生じたりすることがある。そのような場所に広告コンテンツを合成することで、広告を表示させるのみならず、ユーザの没入感を損なう画像を隠すことができる。つまり、本実施形態ではつなぎ目領域Sの上に広告コンテンツSC1が重ねられることでつなぎ目領域Sが隠されている。従って、ユーザは歪んだ画像または何も表示されていない空間を視認すること
がないので、ユーザの没入感を損ねない。
がないので、ユーザの没入感を損ねない。
図12は制御回路部200が動画コンテンツと、広告コンテンツSC1と、広告コンテンツSC2とを合成する処理の流れを示すフロー図である。まず、S201において、通信部250が動画コンテンツを受信する。通信部250が動画コンテンツを取得するタイミングは特に限定されないが、例えば、ユーザがコントローラ300を用いて行なった動画コンテンツの取得を指示する操作を、操作受付部213が受け付けることによって、動画コンテンツを取得してもよい。また、既定の時間に、記憶部240に格納されていないコンテンツが外部機器400に格納されているか否かを、通信部250が外部機器400を参照することによって判断し、未格納の動画コンテンツを自動的に取得してもよい。
通信部250は、動画コンテンツを取得すると記憶部240に格納する。コンテンツ管理部234は、記憶部240に新たな動画コンテンツが格納されたことを認識する。次に、S202において、コンテンツ管理部234は視線誘導枠情報(枠情報)を動画コンテンツから取得する(第2のサブコンテンツ枠情報取得ステップ)。視線誘導枠情報とは、広告コンテンツSC2の表示域を含むシーンの時間的位置、および、当該表示域の空間的位置を示す情報を含むである。動画コンテンツの作成者は、コンテンツを作成する際に、視線誘導枠情報をコンテンツに関連付ける。動画コンテンツの作成者は、動画コンテンツにおいて表示される映像の中で、例えば上述の鏡のように、広告コンテンツSC2を表示しても不自然ではない箇所を特定しておくことができる。よって、ユーザの没入感を損ねずに視線誘導するための画像を表示することができる。
S203において、コンテンツ管理部234は動画コンテンツと、広告コンテンツSC1および広告コンテンツSC2とを合成する。上述の通り、広告コンテンツSC1を合成する空間的位置は、動画コンテンツを合成する画像のつなぎ目領域Sに位置する。このような位置は、初期方向とは真反対に位置することが多い。ユーザの没入感を損なわないように、初期方向から最も遠い位置にするからである。従って、コンテンツ管理部234は、画像のつなぎ目領域Sがどこかを動画コンテンツ毎に認識することなく、初期方向を認識することで、当該方向の真反対の位置に広告コンテンツSC1が重なるように合成すればよい。なお、このような形態に限定されず、コンテンツ管理部234は、動画コンテンツを解析して、つなぎ目領域Sがどこかを認識したうえで広告コンテンツSC1を合成してもよい。
また、コンテンツ管理部234は、広告用背景画像b1と動画コンテンツの仮想空間画像22とが連続性を有するように合成する。コンテンツ管理部234は、広告用画像b1中の壁、床を仮想空間画像22のつなぎ目領域S付近の壁、床と連続するように合成する。広告画像p1、p2は広告の内容を示す画像である。広告用背景画像b1は、広告の内容を表示しても自然な表示となるように、本棚、ポスター立てを含んでいる。コンテンツ管理部234は、広告画像p1、p2を本棚中の棚、ポスター立て上に合成する。これにより、広告画像p1、p2は、あたかも本棚中に元から存在する物、または、ポスター自体のように表示されるため、ユーザの没入感を損なわない。
また、コンテンツ管理部234は視線誘導枠情報に基づいて、規定の空間的位置および時間的位置に広告コンテンツSC2を合成する。
動画コンテンツに広告コンテンツSC1、SC2を合成する方法は特に限定されないが、例えば、動画コンテンツのフレームの画像に広告コンテンツ等の画像を貼り付ける処理
を行なう。また、当該画像の大きさおよび形状を適宜調整してもよい。例えば、当該画像を貼り付ける対象である本棚、鏡等の対象物が遠方に見えるものであれば、各画像の大きさを小さくしたり、当該対象物が斜めから見えるものであれば、各画像の形状を台形状に
処理したりしてもよい。
を行なう。また、当該画像の大きさおよび形状を適宜調整してもよい。例えば、当該画像を貼り付ける対象である本棚、鏡等の対象物が遠方に見えるものであれば、各画像の大きさを小さくしたり、当該対象物が斜めから見えるものであれば、各画像の形状を台形状に
処理したりしてもよい。
コンテンツ管理部234は、コンテンツの合成が終わると、コンテンツ格納部242に合成後の動画コンテンツを格納する。コンテンツ格納部242に格納されている動画コンテンツをユーザが選択して再生する手順については上述の通りである。
以上のように、本実施形態では予め動画コンテンツと広告コンテンツSC1および広告コンテンツSC2とを合成してコンテンツ格納部242に格納しておく形態について説明したが、本発明はこのような形態に限定されない。例えば、視界画像生成部223が、動画コンテンツをHMD110に表示させるときに、既定の表示域に広告コンテンツSC1および広告コンテンツSC2を重畳して表示するように視界画像を生成することによって合成コンテンツを合成してもよい。
また、本実施形態では、HMDシステム100が合成コンテンツを合成する形態について説明したが、サーバ等の外部機器400が合成したものをHMDシステム100が取得してもよい。また、外部機器400が広告用背景画像に相当する画像でつなぎ目領域Sを隠す処理をしておき、HMDシステム100が広告画像を広告用背景画像上に合成する処理を行なってもよい。
(視線情報収集)
次に、動画コンテンツに合成する広告コンテンツSC1の位置と、視線情報収集区画FEとの関係について説明する。図14は格子と広告コンテンツの位置との関係を説明する模式図である。制御回路部200が動画コンテンツを再生するときに生成する仮想空間データには格子Gが関連付けられている。より詳細には仮想空間データの一部である雛形データに格子Gが関連付けられている。
次に、動画コンテンツに合成する広告コンテンツSC1の位置と、視線情報収集区画FEとの関係について説明する。図14は格子と広告コンテンツの位置との関係を説明する模式図である。制御回路部200が動画コンテンツを再生するときに生成する仮想空間データには格子Gが関連付けられている。より詳細には仮想空間データの一部である雛形データに格子Gが関連付けられている。
視線情報収集区画FEは、格子Gによって形成される区画のうちの一つであり、仮想空間2を構成する天球面の内の規定の箇所に設定されている。視線情報収集区画FEには、ユーザの視線(視界方向または視線方向N0)が視線情報収集区画FEと交わっているか否かを判定する機能が割り当てられている。より具体的には視線情報収集区画FEは仮想空間データを生成するための雛形データに関連付けられている。当該雛形データを用いて仮想空間データを生成することで、仮想空間2中に視線情報収集区画FEが設定される。仮にゲーム等のようにオブジェクトを配置することで仮想空間を提供する場合、オブジェクトに視線情報を収集する機能を持たせればよいため、当該オブジェクトに注目されたか否かを示す情報を収集することは容易である。しかし、オブジェクトを用いない動画コンテンツの場合には、視線の情報を収集することは困難である。しかし、本実施形態のように規定の区画に視線情報を収集するための機能を持たせることで、視線の情報を収集することが可能となる。
また、つなぎ目領域Sに視線情報収集区画FEが重複するように雛形データを作成しておき、複数の動画コンテンツにおいて、当該雛形データを用いて仮想空間データを作成してもよい。動画コンテンツ毎に視線情報収集区画の位置を変更する必要が無いため、動画コンテンツが増えても広告に対する視線情報の収集を効率的に行うことができる。オブジェクトを使用しないか、又は、使用するとしても限られた数となるコンテンツにおいても、効率的に多くの動画コンテンツにて広告に対する注目を示す情報を収集することが容易となる。
次に、視線情報収集区画FEを用いて視線情報を収集する処理の流れを説明する。図15は視線情報を収集する処理の流れを示す図である。まず、最初に動画コンテンツの再生が開始されると、S301において、コンテンツ管理部234は広告コンテンツSC1が表示される時間か否かを判定する。具体的には、コンテンツ管理部234は広告枠情報のうち時間的位置を示す情報を参照し、コンテンツ管理部234が再生している動画コンテンツの時間的位置と照合して、前述の判定を行なう。S301がNOの場合、つまり、広告コンテンツSC1が表示される時間でない場合には、S301がYESになるまで、S301の判定を続ける。なお、動画コンテンツの再生は、ユーザによる前述のプラットフォームからの動画コンテンツの選択によって開始すればよい。
S301がYESの場合、S302において、視線管理部232は、ユーザの視線が広告コンテンツSC1を表示している箇所に対応する視線情報収集区画FEと交わっているか否かを判定する。S302においてNOの場合、視線が当該視線情報収集区画FEと交わっているか否かの判定を続ける。S302においてYESの場合、S303において、視線管理部232は、視線と当該視線情報収集区画FEとが交わっている時間を計測する(視線情報収集ステップ)。視線が視線情報収集区画FEから外れると、視線管理部232は計測を終える。計測が終わると、視線管理部232は、計測を開始した時間的位置と、計測を終了した時間的位置と、視線情報収集区画FEが複数設定されている場合には計測対象がどの視線情報収集区画FEであったかを示す情報とを関連付けて視線情報を作成する。さらに、視線管理部232は、視線情報に視線情報収集区画FEの対応する位置にどの広告コンテンツSC1を合成したかを示す情報も関連付ける。なお、視線情報収集区画FEにどの広告コンテンツSC1を合成したかを示す情報は、上述したS203における動画コンテンツと広告コンテンツSC1との合成を行なった後の任意のタイミングで、通信部250が外部機器400に送信しておいてもよい。
S304において、通信部250は視線情報を外部機器400に送信する。外部機器400の管理者は、視線情報に基づいて、どの広告にどの程度視線が向けられたかを評価することができる。また、動画コンテンツの内容に応じて、ユーザが広告に対して持った興味の度合いを評価することができる。例えば、ユーザが広告を見たシーンが、動画コンテンツにおける山場のシーン、および、盛り上がっているシーン等であれば、ユーザが当該広告に高い興味を示したと評価できる。また、例えば、ユーザが広告を見たシーンが、動画コンテンツにおける山場ではないシーン、および、盛り上がっていないシーン等であればユーザが当該広告に示した興味は高くないと評価できる。動画コンテンツ内の時間的位置と、山場であるか否か等のシーンの状況を示す情報とを関連付けておいてもよい。上述のユーザの興味の解析が容易となる。以上のように、本実施形態によれば、ヘッドマウントディスプレイにて再生する動画コンテンツに表示された広告の効果を効率的に把握することができる。
なお、視線情報収集区画FEにどの広告コンテンツSC1を合成したかを示す情報は、上述したS203における動画コンテンツと広告コンテンツSC1との合成を行なった後の任意のタイミングで、通信部250が外部機器400に送信しておいてもよい。また、どの広告コンテンツSC1をどの動画コンテンツに合成するかを外部機器400で管理しておき、制御回路部200は外部機器400からの指示に従ってコンテンツの合成を行なってもよい。この場合、視線情報には視線情報収集区画FEの対応する位置にどの広告コンテンツSC1を合成したかを示す情報を関連付ける必要は無く、外部機器400がどの広告にどの程度の関心をユーザが持ったかを評価できる。
また、コンテンツ管理部234は、上述したS201~S203において、同じ場所の視線情報収集区画FEに、複数の広告コンテンツを対応付けて、時間の経過に応じて表示される広告コンテンツが変化するように動画コンテンツと広告コンテンツとを合成してもよい。この場合、コンテンツ管理部234は再生されている動画コンテンツの時間的位置に対応する広告コンテンツを示す情報を視線情報に関連付けてもよい。一つの視線情報収集区画を用いて、複数の広告に対するユーザの関心の度合いを評価することができる。なお、どの時間的位置でどの広告コンテンツが表示されるかを示す情報は、外部機器400に保存しておいてもよい。そして、視線情報には視線が視線情報収集区画FEに交わっていた時間的位置が含まれていればよい。外部機器400が、どの広告にどの程度視線が向けられていたかを評価することができる。
以上の実施形態では、一つの動画コンテンツ中の一つの視線情報収集区画FEを用いて視線情報を収集する形態について説明したが本発明はこのような形態に限定されない。例えば、視線情報収集区画FEを有する雛形データは、複数の動画コンテンツを再生するときの仮想空間データに共通して用いてもよい。換言すれば、複数の動画コンテンツにおいて同じ空間的位置に広告コンテンツを合成して、視線情報収集区画FEを用いて視線情報を収集する形態でもよい。このような形態の場合、複数の動画コンテンツを作成するとき、同じ空間的位置に広告を表示しても不自然では無いものが位置するようにすればよい。動画コンテンツ毎に視線情報収集区画の位置を変更する必要が無い。よって、動画コンテンツが多数であっても広告に対するユーザの関心の度合いを効率的に評価することができ
る。
る。
視線情報収集区画FEは、一つの雛形データに複数設定してもよく、また、大きさが視線情報収集区画FE毎に異なってもよい。視線情報収集区画FEの情報は動画コンテンツの作成者に提供され、動画コンテンツの作成者はどの視線情報収集区画FEに、いつ広告を表示するかを適宜選択することができる。どの空間的位置の視線情報収集区画FEに、どの時間的位置で広告を表示するかを示す情報を広告枠情報として動画コンテンツに関連付けておけばよい。
また、視線情報収集区画FEの大きさは適宜設定すればよいが、鉛直方向および水平方向共に表示域F1より大きく、且つ、視線情報収集区画FEと表示域F1とにおける鉛直方向の幅の差より水平方向の幅の差が小さくなるように設定することがより好ましい。仮想空間2内における初期方向の鉛直方向の調整を低減できる。例えば、動画コンテンツを全天球カメラで撮影する場合、仮想空間における初期方向(正面)および初期画像は全天球カメラの撮影方向に基づいて自動的に定まる。しかし、上述の広告を表示する対象物の空間的位置の自由度は、撮影対象物および撮影環境によって限られる。そのため、広告を表示する対象物の空間的位置を、視線情報収集区画FEに重ねるために、動画コンテンツを編集する際に初期方向も編集してもよい。ここで、初期方向を鉛直方向に移動させる調整を行なうと、仮想空間内のユーザの立つ地面が傾くことになる。これではユーザが酔う虞がある。しかし、予め、視線情報収集区画FEの鉛直方向の幅を大きくしておけば、初期方向を鉛直方向に調整する必要性を低減させることができる。一方、広告に対して視線が向けられたか否かをより正確に評価する観点から、視線情報収集区画FEと表示域F1との大きさの差は小さいことがより好ましい。そこで、視線情報収集区画FEと表示域F1とにおける鉛直方向の幅の差より水平方向の幅の差を小さくすることによって、視線情報収集区画FEと表示域F1との大きさの差を小さくしつつ、初期方向を鉛直方向に調整する必要性を低減させることができる。
(仮想カメラ1の傾き補正)
従来技術は、ユーザが座位姿勢で見ることを前提としたコンテンツを再生するように構成されている。しかし、仮想空間において再生されるコンテンツの中には、ユーザが仰臥姿勢で見ることを前提としたものがある。上述した従来技術には、ユーザが実際に仰臥姿勢でこのようなコンテンツを視認することが、何ら考慮されていない。そのため、このようなコンテンツが再生される際、ユーザが仰臥姿勢を取ると不自然な映像を視認する問題が生ずる。本開示は、異なる姿勢で見ることを前提とした様々なコンテンツを、ユーザの姿勢に応じて仮想空間において好適に再生する。
従来技術は、ユーザが座位姿勢で見ることを前提としたコンテンツを再生するように構成されている。しかし、仮想空間において再生されるコンテンツの中には、ユーザが仰臥姿勢で見ることを前提としたものがある。上述した従来技術には、ユーザが実際に仰臥姿勢でこのようなコンテンツを視認することが、何ら考慮されていない。そのため、このようなコンテンツが再生される際、ユーザが仰臥姿勢を取ると不自然な映像を視認する問題が生ずる。本開示は、異なる姿勢で見ることを前提とした様々なコンテンツを、ユーザの姿勢に応じて仮想空間において好適に再生する。
仮想空間2において再生可能な各コンテンツには、その内容に応じた傾き補正値が予め規定されている。制御回路部200は、コンテンツの再生開始時に、この傾き補正値に応じて仮想カメラ1の傾きを適宜補正する。これにより、異なる姿勢で見ることを前提とした様々なコンテンツを、ユーザの姿勢に応じて仮想空間2において好適に再生することができるので、コンテンツに応じた姿勢でユーザがコンテンツを視聴した際にユーザが自然な映像を視認することができる。以下に、制御回路部200がコンテンツの傾き補正値に応じて仮想カメラ1の傾きを補正する際の詳細を説明する。
図16は、HMDシステム100が、仮想カメラ1の傾きが補正された仮想空間2をユーザに提供する処理の流れを示すシーケンス図である。この図に示す処理は、プラットフォームを通じてユーザがいずれかのサムネイルを選択した後における、対応する動画コンテンツの再生開始時の処理である。ユーザが選択したサムネイルに対応する動画コンテンツが特定された後、S41において、仮想空間規定部231は、動画コンテンツ再生用の仮想空間データを生成する。この詳細は、図9のS21の詳細と同一である。したがって、仮想空間規定部231は、再生対象の動画コンテンツに規定される傾き補正値を何ら考慮することなく、仮想空間データを生成する。すなわち、図10の例では、生成される仮想空間データによって規定される仮想空間2のXYZ座標系は、コンテンツに規定される傾き補正値によって補正されていないため、常にグローバル座標系と平行である。
仮想空間データの生成後、仮想カメラ制御部221は、仮想空間2において仮想カメラ1を初期化する。このとき行われる初期化の手順には、図8を参照して説明した初期化の手順と異なり、コンテンツの傾き補正値が考慮される。初期化の手順は次の通りである。まず、S42において、仮想カメラ制御部221は、仮想空間2における初期位置(図4における中心21等)に、仮想カメラ1を配置する。次に、S43において、HMDセンサ120が、HMD110の現在の位置および傾きを検出して、S44において、これらの検出値を制御回路部200に出力する。HMD検出部211は、各検出値を受信する。
次に、傾き補正値特定部235が、S45において、再生対象の動画コンテンツ(コンテンツ特定部233によって特定された動画コンテンツ)に規定される傾き補正値を、当該動画コンテンツから特定する。もし動画コンテンツに傾き補正値が規定されていない場合、傾き補正値特定部235は、傾き補正値として0°を特定する。
次にS46において、仮想カメラ制御部221は、仮想カメラ1をグローバル座標系においてHMD110に対して傾き補正値だけ傾けることによって、仮想空間2における仮想カメラ1の向きを設定する。この詳細は次の通りである。まず仮想カメラ制御部221は、HMD110の位置および傾きの検出値に基づき、HMD110における現在のuvw視野座標系を特定する。さらに、HMD110のuvw視野座標系をグローバル座標系において傾き補正値だけ傾けたuvw視野座標系を算出し、これを仮想カメラ1に設定する。たとえば仮想カメラ制御部221は、グローバル座標系における水平方向に対するHMD110の傾きが、動画コンテンツに規定される傾き補正値に一致する場合、仮想カメラ1の向きを、仮想空間2におけるXY平面に対して平行に設定する。仮想カメラ制御部221は、仮想カメラ1に設定したuvw視野座標系のロール方向(w軸)をユーザの基準視線5として特定する。
その後、S47において、視界画像生成部223は、仮想カメラ1の向きに基づく視界画像26を生成し、S48においてHMD110に出力する。S49において、HMD110は、受信した視界画像26をディスプレイ112に表示することによって、視界画像26を更新する。
(仮想カメラ1の傾き補正例)
図17は、コンテンツに応じてHMD110に対する仮想カメラ1の傾きが異なることを説明する図である。図17の(a)に、ユーザが座位姿勢で見ることを前提とした動画コンテンツが再生される仮想空間2を示す。一方、図17の(b)に、ユーザが仰臥姿勢で見ることを前提としたコンテンツが再生される仮想空間2を示す。
図17は、コンテンツに応じてHMD110に対する仮想カメラ1の傾きが異なることを説明する図である。図17の(a)に、ユーザが座位姿勢で見ることを前提とした動画コンテンツが再生される仮想空間2を示す。一方、図17の(b)に、ユーザが仰臥姿勢で見ることを前提としたコンテンツが再生される仮想空間2を示す。
図17の(a)では、仮想空間2において再生される動画コンテンツに規定される傾き補正値は、0°である。したがって、仮想空間2が規定された後、仮想カメラ1の傾きは補正されない。すなわち、グローバル座標系における仮想カメラ1の傾きは、グローバル座標系におけるHMD110の傾きに一致する。仮想空間2のXYZ座標系はグローバル座標系と平行であるため、XYZ座標系における仮想カメラ1の傾きは、グローバル座標系におけるHMD110の傾きに一致する。すなわち、HMD110の傾きに連動して仮想カメラ1が傾くように、仮想空間2における仮想カメラ1の向きが設定される。
たとえば図17の(a)に示すように、ユーザが座位姿勢で水平方向を視認している場合、グローバル座標系における水平面に対するHMD110の傾きは0°(水平面と平行)である。このとき同様に、XYZ座標系におけるXY平面に対する仮想カメラ1の傾きも0°(XZ平面と平行)である。したがって、ユーザが座位姿勢で見ることを前提としたコンテンツの再生を、ユーザが水平方向を視認した状態で開始すると、この動画コンテンツに規定される初期方向に対応した視界画像26が、ディスプレイ112に表示される。これによりユーザは、座位姿勢で視認する場合に自然に見える映像を、座位姿勢で実際に視認することができる。
一方、図17の(b)では、仮想空間2において再生される動画コンテンツに規定される傾き補正値は、60°である。したがって、仮想空間2が規定された後、仮想カメラ1の傾きは傾き補正値に基づき補正される。具体的には、グローバル座標系において仮想カメラ1はHMD110に対して相対的に60°傾いている。仮想空間2のXYZ座標系はグローバル座標系と平行であるため、XYZ座標系におけるXZ平面に対する仮想カメラ1の傾きは、グローバル座標系における水平面に対するHMD110の傾きを60°だけ補正した傾きである。すなわち、HMD110の傾きを60°補正した傾きで仮想カメラ1を傾けることによって、仮想空間2における仮想カメラ1の向きが設定される。
たとえば図17の(b)に示すように、ユーザが寝た状態で鉛直60°斜め上を視認している場合、グローバル座標系におけるHMD110の傾きは60°(水平面に対して60°傾く)である。このとき、XYZ座標系における仮想カメラ1の傾きは、HMD110の傾きである60°を傾き補正値で補正した値である0°である。すなわち仮想カメラ1のロール方向(w軸)は、XY平面に対して平行である。
したがって、ユーザが仰臥姿勢で見ることを前提としたコンテンツの再生を、ユーザが実際に寝た状態で開始すると、この動画コンテンツに規定される初期方向に対応した視界画像26が、ディスプレイ112に表示される。これによりユーザは、仰臥姿勢で視認する場合に自然に見える映像を、仰臥姿勢で実際に視認することができる。
(機能区画の統一)
HMDシステム100は、動画コンテンツに規定される傾き補正値に基づき仮想カメラ1の傾きを補正することによって、再生される動画コンテンツの内容によらず、動画コンテンツに含まれる広告の表示位置に対する機能区画の位置を統一化することができる。この点について、以下に説明する。
HMDシステム100は、動画コンテンツに規定される傾き補正値に基づき仮想カメラ1の傾きを補正することによって、再生される動画コンテンツの内容によらず、動画コンテンツに含まれる広告の表示位置に対する機能区画の位置を統一化することができる。この点について、以下に説明する。
図18は、ユーザが座位姿勢で見ることを前提としたコンテンツが再生される際の機能区画の位置を説明する図である。図18の(a)に、機能区画27が規定される仮想空間2を示す。この図の例では、仮想空間2を構成する天球面におけるZ軸の正方向(図中右方向)と交わる位置の近辺に、機能区画27が予め規定されている。機能区画27は、所定の機能を割り当てることができる領域である。本実施形態では、機能区画27には、ユーザの視線(視界方向または視線方向N0)が機能区画27に当たったか否かを検出する機能が割り当てられている。さらに、機能区画27には、ユーザの視線が機能区画27に当たった時間を検出する機能も割り当てられている。
図18の(a)に示す仮想空間2において再生される、ユーザが座位姿勢で見ることを前提とした動画コンテンツには、広告が含まれている。広告はあくまでも動画コンテンツを構成する各フレームの画像の一部であり、動画コンテンツが別途広告データをさらに有する訳ではない。仮想空間2において動画コンテンツが再生される際、動画コンテンツに含まれる広告が仮想空間2内の機能区画27の位置に配置されるように、動画コンテンツ内の広告の位置が予め規定されている。具体的には、動画コンテンツの初期方向を仮想空間2のXYZ座標系における方向に一致させるように動画コンテンツの各部分画像と仮想空間2の各メッシュとを関連付けた際、仮想空間2における機能区画27の位置に対応するメッシュに広告を含む部分画像が関連付けられるようになっている。
図18の(a)では、初期状態(ユーザが動画コンテンツを選択した直後)に規定される仮想空間2を示す。この例では、ユーザは水平方向を向いており、そのため仮想カメラ1はXZ平面に対して平行に配置されている。したがって、基準視線5はZ方向(動画コンテンツの初期方向)に一致するため、機能区画27を含む視界領域23が決定される。これにより、機能区画27に重畳する部分画像(すなわち広告の表示箇所)を含む視界画像26が生成される。
図18の(b)に、広告A1を含む視界画像26の一例を示す。この例では、ユーザが座位姿勢で見ることを前提とした動画コンテンツの再生開始時、初期の視界画像26として、広告A1を含む視界画像26がディスプレイ112表示される。仮想空間2における広告A1の位置は、天球面における機能区画27に重畳している。したがって、視線管理部232は、機能区画27に対して視線が当たったことを検出することによって、ユーザが広告A1に視線を当てたことを検出することができる。これによりHMDシステム100は、動画コンテンツ視聴時の広告A1に対するユーザの関心の度合いを測ることができる。
図19は、ユーザが仰臥姿勢で見ることを前提としたコンテンツが再生される際の機能区画の位置を説明する図である。図19の(a)に、機能区画27が規定される仮想空間2を示す。この図の例でも、図19の(a)と同様に、仮想空間2を構成する天球面におけるZ軸の正方向(図中右方向)と交わる位置の近辺に、機能区画27が予め規定されている。すなわち、仮想空間2における機能区画27の位置は、図18の(b)の場合と統一されている。これにより、図19の(a)に示す仮想空間2を規定する場合と、図18の(a)に示す仮想空間2を規定する場合とで、同一の雛形データを用いることができる
。
。
図19の(a)に示す仮想空間2において再生される、ユーザが仰臥姿勢で見ることを前提とした動画コンテンツにも、広告が含まれている。この動画コンテンツが再生される際、動画コンテンツに含まれる広告が仮想空間2内の機能区画27の位置に配置されるように、動画コンテンツ内の広告の位置が予め規定されている。
図19の(a)では、初期状態、すなわちユーザが動画コンテンツを選択した直後、に規定される仮想空間2を示す。この例では、ユーザは鉛直斜め60°上を向いて寝ており、そのため仮想カメラ1は60°の傾き傾き補正値によって補正されてXZ平面に対して平行に配置されている。したがって、基準視線5はZ方向(動画コンテンツの初期方向)に一致するため、機能区画27を含む視界領域23が決定される。これにより、機能区画27に重畳する部分画像(すなわち広告の表示箇所)を含む視界画像26が生成される。
図19の(b)に、広告A2を含む視界画像26の一例を示す。この例では、ユーザが仰臥姿勢で見ることを前提とした動画コンテンツの再生開始時、初期の視界画像26として、広告A2を含む視界画像26がディスプレイ112表示される。仮想空間2における広告A2の位置は、天球面における機能区画27に重畳している。したがって、視線管理部232は、機能区画27に対して視線が当たったことを検出することによって、ユーザが広告A2に視線を当てたことを検出することができる。これによりHMDシステム100は、広告A2に対するユーザの関心の度合いを測ることができる。
図18および図19に示すように、各コンテンツに規定される傾き補正値を用いて仮想カメラ1の傾きを補正することによって、コンテンツごとの広告に対する機能区画27の位置を、容易に統一化することができる。これにより、コンテンツごとに、機能区画27の機能を規定するプログラムを変更する必要がなくなる。すなわち、共通のプログラムを用いて、各コンテンツ内の広告へのユーザの視線に関する視線情報を収集することができる。その結果、プラットフォームを用いた動画コンテンツの再生を効率よく運営することができる。
(XYZ座標系を傾ける例)
制御回路部200は、コンテンツに規定される傾き補正値を用いて、仮想カメラ1の傾きではなく、仮想空間2のXYZ座標系の傾きを補正してもよい。以下、この例について説明する。
制御回路部200は、コンテンツに規定される傾き補正値を用いて、仮想カメラ1の傾きではなく、仮想空間2のXYZ座標系の傾きを補正してもよい。以下、この例について説明する。
本例では、仮想空間規定部231が仮想空間2を規定する際、グローバル座標系に対するXYZ座標系の傾きを、コンテンツに規定される傾き補正値を用いて補正する。具体的には、仮想空間規定部231は、傾き補正値特定部235によって特定された傾き補正値だけ、XYZ座標系をグローバル座標系に対して相対的に傾ける。たとえば傾き補正値が60°であれば、仮想空間規定部231は、XYZ座標系のXZ平面とグローバル座標系の水平面とのなす角度が60°になるように、XYZ座標系をグローバル座標系に対して傾ける。
仮想空間規定部231は、雛形データに含まれる仮想空間2のXYZ座標系を規定するデータを傾き補正値を用いて処理することによって、傾き補正後のXYZ座標系を規定するデータを生成し、仮想空間データに追加する。仮想空間2における各メッシュの位置はXYZ座標系における座標として各メッシュの管理データに規定されているので、XYZ座標系がグローバル座標系に対して傾くことによって、各メッシュもグローバル座標系に対して同様に傾く。一方、仮想カメラ制御部221は、仮想カメラ1を仮想空間2に配置した後、グローバル座標系における仮想カメラ1の傾きをHMD110の傾きに一致させることによって、仮想空間2における仮想カメラ1の向きを設定する。すなわちHMD110に対する仮想カメラ1の傾きは補正しない。たとえば仮想カメラ制御部221は、グローバル座標系における水平方向に対するHMD110の傾きが、動画コンテンツに規定される傾き補正値に一致する場合、仮想カメラ1の向きを、仮想空間2におけるXY平面に対して平行に設定する。
本例では、ユーザが座位姿勢で見ることを前提としたコンテンツが仮想空間2において再生される場合、XYZ座標系はグローバル座標系に平行であり、仮想カメラ1の傾きはHMD110の傾きに連動する。したがって、ユーザが座位姿勢で水平方向を視認している(HMD110が水平方向を向いている)場合、仮想カメラ1の向きは仮想空間2のXZ平面に平行である。これによりXZ平面に平行な基準視線5に応じた視界画像26がディスプレイ112に表示されるので、ユーザは、自然な映像を座位姿勢で視認することができる。
一方、本例では、ユーザが仰臥姿勢で見ることを前提としたコンテンツが仮想空間2において再生される場合、仮想空間2のXYZ座標系はグローバル座標系に対して60°傾いており、かつ、グローバル座標系における仮想カメラ1の傾きはHMD110の傾きに連動する。したがって、ユーザが寝た状態で鉛直60°斜め上を視認している(HMD110が水平方向から60°傾いている)場合、仮想カメラ1の向きは仮想空間2のXZ平面に平行である。これによりXZ平面に平行な基準視線5に応じた視界画像26がディスプレイ112に表示される。その結果、ユーザは、自然な映像を寝た状態で視認することができる。
従来技術では、ユーザがHMDを動かすと、仮想空間におけるユーザの視認箇所を変えることができるので、仮想空間に対するユーザの没入感を高めることができる。一方で、仮想空間における没入間を高めつつ、より簡単に仮想空間における任意の箇所をユーザが視認できるように仮想空間における操作性をより高めるための工夫が、求められている。本開示は、仮想空間における操作性をより高める。
図20の(a)に、プラットフォーム提供用の仮想空間2の一例を示す。この図には、1つの操作オブジェクト28および4つのサムネイルSN1~SN4が配置される、プラットフォーム提供用の仮想空間2を示す。これらのサムネイルSN1~SN4は、いずれも、対応する動画コンテンツの概要画像(サムネイル)が関連付けられたオブジェクトである。操作オブジェクト28は、仮想カメラ1または仮想空間2を回転させるために用いられる。操作オブジェクト28の形状は、基本的に円形である。詳しくは後述するが、操作オブジェクト28は、ユーザによる操作オブジェクト28への操作に応じて弾性変形(伸張)する。
図20の(a)に示す仮想空間2を表す仮想空間データの生成後、S22において、視界画像生成部223は、ユーザの基準視線5に基づき視界画像26を生成する。この生成方法は図8を参照して説明した方法と同一である。ここでは、プラットフォームに対応した視界画像26が生成される。図20の(a)では、サムネイルSN1~N4のうち、ユーザの基準視線5によって規定される視界領域23の内部に、操作オブジェクト28、サムネイルSN1、およびSN2が配置されている。一方、サムネイルSN3およびSN4は、視界領域23の外部に配置されている。そのため視界画像生成部223は、操作オブジェクト28、サムネイルSN1、SN2を含む視界画像26を生成する。詳しくは後述するが、視界画像生成部223は、さらに注視点29を含む視界画像26を生成する。注視点29は、ユーザが視界画像26におけるどの位置に視線を当てているのかを示す情報である。
S23において、視界画像生成部223は、生成した視界画像26をHMD110に出力する。S24においてHMD110は、受信した視界画像26をディスプレイ112に表示する。ユーザは、プラットフォームの視界画像26を視認する。サムネイルが関連付けられたオブジェクトが視界画像26に含まれる場合、視界画像26の表示時、当該オブジェクトに関連付けられたサムネイルがディスプレイ112に表示される。これによりユーザは、サムネイルを含む視界画像26を視認する。また、操作オブジェクト28が視界画像26に含まれる場合、視界画像26の表示時、操作オブジェクト28がディスプレイ112に表示される。これによりユーザは、操作オブジェクト28を含む視界画像26を視認する。
図20の(b)に、プラットフォームの視界画像26の一例を示す。この図に示す視界画像26は、操作オブジェクト28、注視点29、サムネイルSN1、およびサムネイルSN2を含む。したがってユーザは、仮想空間2において、操作オブジェクト28、注視点29、サムネイルSN1、およびサムネイルSN2を視認する。
視界画像生成部223は、基準視線5および視線方向N0に基づき視界画像26における注視点29の位置を決定する。ユーザが正面を視認している場合、すなわち、基準視線5が視線方向N0に一致する場合、視界画像生成部223は、視界画像26の生成時に、基準視線5に基づき視界画像26の中央に注視点29を配置する。ユーザが正面を視認したまま視線を変えない場合、基準視線5は視線方向N0に一致するので、注視点29は常に視界画像26の中央に配置される。
一方、視界画像生成部223は、ユーザが視線を動かしたために視線方向N0が基準視線5からずれた場合、現在の視線方向N0に基づき、視界画像26における注視点29の位置を決定する。具体的には、視界領域23における視線方向N0が交わる交点を特定し、次に、視界画像26におけるこの交点に対応する位置に注視点29が当てられた視界画像26を生成する。
ユーザがHMD110を動かさずに(基準視線5が固定されたまま)視線だけを動かすと、その視線の動きに追随して、視界画像26における注視点29の位置が変更される。これにより、視界画像26においてユーザが視線を当てた位置に注視点29が表示されるように、視界画像26が更新される。言い換えると、ユーザは、視線の動きによって、視界画像26内において注視点29を自在に動かすことができる。したがってユーザは、注視点29を確認することによって、視界画像26におけるどの箇所に視線を当てているのかを正確に把握することができる。
図9には示さないが、この後、ユーザがHMD110を動かせば、その動きに連動して視界画像26が更新される。たとえば、ユーザがHMD110を動かすことによって、視界領域23の位置が、サムネイルSN1およびSN3を含む位置に変化すれば、サムネイルSN1およびSN3を含む視界画像26がディスプレイ112に表示される。したがってユーザは、HMD110を適宜動かすことによって、視聴したい動画コンテンツのサムネイルを、自身の視界のうちに収めることができる。
プラットフォームの視界画像26が表示された後、S25において、注視センサ130は、ユーザの右目の視線および左目の視線をそれぞれ検出し、S26において、各検出値を制御回路部200に送信する。視線検出部212が、この検出値を受信する。S27において、視線検出部212は、受信した検出値を用いて、仮想カメラ1のuvw視野座標系におけるユーザの視線方向N0を特定する。
S28において、視線管理部232は、視線方向N0と、視界領域23に含まれる各サムネイルとに基づき、視界画像26に含まれる特定のサムネイルに規定時間以上ユーザの視線(注視点29)が当たったか否かを判定する。より詳細には、視線管理部232は、視界領域23における視線方向N0が交わる点が、視界領域23に含まれる特定のサムネイルの表示範囲(配置範囲)に含まれているか否かを判定する。この判定結果がYESであれば、視界画像26に含まれる特定のサムネイルに視線が当たったと判定し、NOであれば、視線は特定のサムネイルに当たっていないと判定する。
S28がNoの場合、図9の処理はS25の直前に戻る。この後、S28がYESになるまで、S25~S28の処理が繰り返される。一方、S28がYESの場合、S29において、コンテンツ特定部233は、規定時間以上視線が当たったと判定されたサムネイルに対応するコンテンツを特定する。たとえばユーザがサムネイルSN1に視線を当てれば、視界画像26においてサムネイルSN1に注視点29が重畳される。さらに、ユーザがサムネイルSN1に規定時間以上視線を当てれば、サムネイルSN1に対応するコンテンツとして、サムネイルSN1の管理データに関連付けられる動画コンテンツを特定する
。
。
この後、S30において、仮想空間規定部231は、特定された動画コンテンツを再生するための仮想空間データを生成することによって、動画コンテンツ再生用の仮想空間2を規定する。生成の手順は次の通りである。まず仮想空間規定部231は、動画コンテン
ツに対応した仮想空間2の雛形データを、雛形格納部241から取得する。
ツに対応した仮想空間2の雛形データを、雛形格納部241から取得する。
仮想空間規定部231は、コンテンツ特定部233によって特定された動画コンテンツを、コンテンツ格納部242から取得する。仮想空間規定部231は、取得した雛形データに、取得した動画コンテンツを適合することによって、動画コンテンツ再生用の仮想空間2を規定する仮想空間データを生成する。仮想空間規定部231は、仮想空間データにおいて、仮想空間2の天球を構成する各メッシュの管理データに、動画コンテンツに含まれる最初のフレームの画像を構成する各部分画像を適宜関連付ける。
ここで生成される仮想空間データによって規定される仮想空間2においては、オブジェクトを配置することが想定されていない。さらに、動画コンテンツには、オブジェクトを規定する管理データが含まれない。そのためS30において、仮想空間規定部231は、オブジェクトの管理データを含まない仮想空間データを生成する。
動画コンテンツ再生用の仮想空間2を表す仮想空間データの生成後、S31において、視界画像生成部223は、ユーザの基準視線5に基づき視界画像26を生成する。この生成方法は図8を参照して説明した方法と同一である。ここでは、動画コンテンツの視界画像26が生成される。S32において、視界画像生成部223は、生成した視界画像26をHMD110に出力する。S33においてHMD110は、受信した視界画像26をディスプレイ112に表示することによって、視界画像26を更新する。これにより仮想空間2における動画コンテンツの再生が開始され、ユーザは動画コンテンツの視界画像26を視認する。
図9には示さないが、この後、ユーザがHMD110を動かせば、その動きに連動して視界画像26が更新される。したがってユーザは、HMD110を適宜動かすことによって、動画コンテンツを構成する各フレームの全天球画像における所望の位置の部分画像(視界画像26)を、視認することができる。
図20の(c)に、動画コンテンツの視界画像26の一例を示す。この図に示す視界画像26は、ユーザによって選択されたサムネイルSN1に対応する動画コンテンツの視界画像26である。このように、ユーザが、図20の(b)に示すプラットフォームの視界画像26を視認中にサムネイルSN1を視線によって選択すると、ディスプレイ112に表示されるプラットフォームの視界画像26が、図20の(c)に示す動画コンテンツの視界画像26に更新される。すなわちユーザは、仮想空間2において視線移動によってサムネイルSN1を選択することによって、これに対応した動画コンテンツを仮想空間2において視聴することができる。
以上のように、ユーザは、仮想空間2において視聴したい動画コンテンツを、仮想空間2における動画コンテンツ選択用のプラットフォームを通じて選択することができる。したがってユーザは、HMD110を装着する前に、制御回路部200に接続される他の一般的なディスプレイを現実空間において視認しながら、仮想空間2において視聴したい動画コンテンツを選択する必要がない。これにより、仮想空間2に対するユーザの没入感をより一層高めることができる。
また、制御回路部200は、動画コンテンツの再生中にユーザが所定の操作をHMDシステム100に対して(たとえばコントローラ300を通じて)行えば、動画コンテンツが再生される仮想空間2をユーザに提供することを終了し、それから再び、動画コンテンツ選択用のプラットフォームが展開される仮想空間2をユーザに提供する。これによりユーザは、他のサムネイルを選択することによって、他の動画コンテンツを仮想空間2において視聴することができる。ユーザは、視聴したい動画コンテンツを切り替える際にHMD110を外す必要がないので、仮想空間2に対するユーザの没入感をより一層高めることができる。
(仮想カメラ1の回転制御)
本実施形態に係る制御回路部200は、通常モード(第1のモード)または回転モード(第2のモード)において動作する。通常モードと回転モードとでは、制御回路部200による仮想カメラ1の制御方法が相違する。通常モードにおいて、制御回路部200は、HMD110の傾きに連動させて仮想空間2における仮想カメラ1の傾きを制御する。したがって、通常モードにおいてユーザがHMD110を傾けると、それに連動して仮想カメラ1も傾き、その傾きに応じた視界画像26がHMD110に表示される。
本実施形態に係る制御回路部200は、通常モード(第1のモード)または回転モード(第2のモード)において動作する。通常モードと回転モードとでは、制御回路部200による仮想カメラ1の制御方法が相違する。通常モードにおいて、制御回路部200は、HMD110の傾きに連動させて仮想空間2における仮想カメラ1の傾きを制御する。したがって、通常モードにおいてユーザがHMD110を傾けると、それに連動して仮想カメラ1も傾き、その傾きに応じた視界画像26がHMD110に表示される。
回転モードにおいて、制御回路部200は、仮想空間2における仮想カメラ1の傾きを、HMD110の傾きに連動させて制御しない。したがって、回転モードにおいてユーザがHMD110を傾けても、それに連動して仮想カメラ1は傾かない。その代わりに、制御回路部200は、ユーザによる操作オブジェクト28の操作に応じて、仮想空間2において仮想カメラ1を回転させる。本実施形態ではユーザはHMD110の動きによって操作オブジェクト28を操作することができる。したがって、制御回路部200は、回転モードおいて、HMD110の傾きに応じて仮想カメラ1を回転させる。
通常モードでは、ユーザがHMD110の動きを止めると、仮想カメラ1の動きも止まる。したがって、視界画像26の更新も止まる。一方、回転モードでは、ユーザがHMD110の動きを止めても、仮想カメラ1の回転は止まらない。すなわち、ユーザがHMD110を回転開始時の状態からさらに傾けた状態を維持し続ける限り、仮想カメラ1は回転し続ける。これにより、視界画像26も更新され続ける。
図21は、HMDシステム100が回転モードに移行する際の処理の流れを示すシーケンス図である。以下では、プラットフォームが再生される仮想空間2がユーザに提供されている場合を例に挙げて説明する。
プラットフォームの視界画像26が表示された後、S41-1において、HMDセンサ120が、HMD110の位置および傾きを検出して、S42-1において、検出値を制御回路部200に出力する。HMD検出部211は、この検出値を受信する。仮想カメラ制御部221は、HMD110の位置および傾きの検出値に基づき、上述した手順によって基準視線5を特定する。仮想カメラ制御部221は、特定した基準視線5に基づき、仮想カメラ1を制御する。
次に、S43-1において、操作オブジェクト制御部236は、仮想空間2において操作オブジェクト28に基準視線5が規定時間以上当たったか否かを判定する。S43-1においてNOの場合、視界領域決定部222は、特定した基準視線5に基づき、仮想空間2における視界領域23を決定する。その後、S44-1において、視界画像生成部223は、視界画像26を生成し、S45-1においてHMD110に出力する。S46-1において、HMD110は、受信した視界画像26をディスプレイ112に表示することによって、視界画像26を更新する。これにより、通常モードにおいてユーザがHMD110を動かせば、それに連動して視界画像26が更新される。
ユーザがHMD110を動かした場合、操作オブジェクト28が視界領域23に含まれていれば、操作オブジェクト28は他のオブジェクトと同様に動かない。一方、ユーザがHMD110を動かすことによって、操作オブジェクト28が視界領域23から外れた場合、操作オブジェクト28は視界領域23内に戻るように動く。
これを実現する手順は次の通りである。まず操作オブジェクト制御部236は、操作オブジェクト28の少なくとも一部が視界領域23の外に位置することを検出する。次に操作オブジェクト制御部236は、操作オブジェクト28の少なくとも一部が視界領域23の外に位置することを検出した場合、操作オブジェクト28を視界領域23の中に移動させる。具体的には、操作オブジェクト28を規定するデータにおける、操作オブジェクト28の位置(座標)を、現在の視界領域23内のいずれかの座標に更新する。
操作オブジェクト28が視界領域23に戻る位置は、視界領域23内の任意の位置であればよい。操作オブジェクト28が移動する際に移動量が最も少なくなる位置であることが好ましい。たとえば、操作オブジェクト28が視界領域23の右側に位置するようになった場合、操作オブジェクト制御部236は、操作オブジェクト28を視界領域23の右端に移動させることが好ましい。
これにより、通常モードおいて、視界領域23に常に操作オブジェクト28が含まれるので、視界領域23に基づき生成される視界画像26にも、常に操作オブジェクト28が含まれる。したがってユーザは、操作オブジェクト28を選択したい場合、操作オブジェクト28を容易に見つけ出すことができる。また、後述するように基準視線5によって操作オブジェクト28を選択する場合、基準視線5を操作オブジェクト28に当てるためのHMD110の移動制御を、最小限にすることができる。
一方、S43-1においてYESの場合、操作オブジェクト制御部236は、S47-1において、ユーザによって操作オブジェクト28が選択されたことを検出する。このように、ユーザは、視線を操作オブジェクト28に当てることによって、操作オブジェクト28を選択することができる。操作オブジェクト28の選択をトリガとして、S48-1において、制御回路部200は回転モードに移行する。これにより、ユーザは自らの意思で制御回路部200を回転モードに移行させることができる。回転モードへの移行後、操作オブジェクト28へのユーザの操作に応じて、仮想カメラ1の回転が開始される。
図22は、制御回路部200が回転モードにおいて仮想カメラ1の回転を開始する際の処理の流れを示すシーケンス図である。
回転モードへの移行後、S51において、HMDセンサ120が、HMD110の位置および傾きを検出して、S52において、検出値を制御回路部200に出力する。HMD検出部211は、この検出値を受信する。S53において、操作オブジェクト制御部236は、HMD110の傾きが変化したか否かを判定する。S53においてNOの場合、図22の処理はS51の前に戻る。したがって、操作オブジェクト28の選択後、ユーザがHMD110をさらに傾けるまで、S51~S53の工程が繰り返される。
一方、S53においてYESの場合、S54において、操作オブジェクト制御部236は、HMD110の傾きの変化量を特定する。S55において、操作オブジェクト制御部236は、特定した傾きの変化量に基づき、ユーザによって指定された操作オブジェクト28の伸張方向(所定方向)および伸張量(所定量)を特定する。S56において、操作オブジェクト制御部236は、操作オブジェクト28を、特定した伸張方向に、特定した伸張量だけ伸張させる。その際、操作オブジェクト制御部236は、操作オブジェクト28の根本から伸張方向の終端部に向かって徐々に操作オブジェクト28が細くなるように、操作オブジェクト28を伸張する。また、操作オブジェクト28の伸張方向の終端部に基準視線5が重畳するように、操作オブジェクト28の表示状態を変更する。
その後、S57において、回転制御部237は、操作オブジェクト28の伸張方向に基づき仮想カメラ1の回転方向を決定すると共に、操作オブジェクト28の伸張量に基づき仮想カメラ1の回転速度を決定する。その際、操作オブジェクト制御部236は、伸張方向における水平方向の成分に平行な方向を、仮想カメラ1の回転方向として特定することが好ましい。これにより、仮想カメラ1は仮想空間2におけるY軸周りにのみ回転する。また、仮想カメラ1が仮想空間2におけるZ軸周りに回転することを防止することができる。これにより、視界画像26の更新時に仮想空間2の地面が上下に移動するユーザが視認することを防止できるので、仮想空間2におけるユーザの酔い発生を防止することができる。
S58において、仮想カメラ制御部221は、決定された回転方向に決定された回転速度で仮想カメラ1の回転を開始する。仮想カメラ1が回転すると、仮想空間2における仮想カメラ1のロール方向が変わるので、視界領域23が変更される。操作オブジェクト制御部236は、仮想カメラ1の回転時に操作オブジェクト28が常に視界領域23の中央に配置されるように、操作オブジェクト28を制御する。具体的には、操作オブジェクト28の管理データにおいて、操作オブジェクト28の座標を視界領域23の中央の座標に更新する。これにより仮想カメラ1のuvw視野座標系における操作オブジェクト28の位置が固定された状態で、仮想カメラ1および操作オブジェクト28がいずれも仮想空間2において回転する。
視界領域決定部222は、一定時間回転後の仮想カメラ1の向き(ロール方向)に基づき視界領域23を決定する。そして、S59において、視界画像生成部223は、決定された視界領域23に基づき視界画像26を生成し、S60においてHMD110に送信する。S61おいて、HMD110は、受信した視界画像26をディスプレイ112に表示することによって、視界画像26を更新する。これにより、仮想カメラ1の回転前の視界画像26が、仮想カメラ1の回転後の視界画像26に更新される。
図23は、仮想カメラ1が回転した後の仮想空間2および視界画像26を示す図である。図23の(a)に仮想空間2を示し、図23の(b)に視界画像26を示す。以下では、操作オブジェクト28の選択後、ユーザが首を左側にねじることによって、操作オブジェクト28を左側に伸張させる操作を操作オブジェクト28に対して行った例を説明する。この場合、操作オブジェクト28の伸張方向はユーザから見て左側の方向なので、仮想カメラ1の回転方向として、Y軸を自転軸とした左回りの回転方向が決定される。したがって仮想カメラ1は、Y軸を自転軸として左回りに回転する。
仮想カメラ1が左回りに回転することによって、視界領域23の位置が、仮想空間2において左回りにずれる。これにより、図23の(a)に示すように、視界領域23におけるサムネイルSN1およびサムネイルSN2の位置が、回転開始前の位置よりも相対的に右側にずれるようになる。仮想カメラ1は回転中であるので、操作オブジェクト28は伸張している。
図23の(b)に示すように、仮想カメラ1が回転した後の視界領域23に基づく視界画像26には、サムネイルSN1およびサムネイルSN2が含まれる。視界領域23におけるサムネイルSN1およびサムネイルSN2の位置が仮想カメラ1の回転開始前よりも右側にずれていることから、これに対応して、視界画像26におけるサムネイルSN1およびサムネイルSN2の位置も、仮想カメラ1の回転開始前よりも右側にずれている。したがってユーザは、仮想カメラ1が左回りの回転を開始したことを把握することができる
。
。
仮想カメラ1の回転開始後、ユーザが左側に首をねじり続けている間、仮想カメラ1は左回りに回転し続ける。一方、ユーザが、首をねじることを止めて、顔を正面に向けると、仮想カメラ1の回転は停止される。以下では、これらの処理の流れを説明する。
図24は、制御回路部200が回転モードにおいて仮想カメラ1をさらに回転させるかまたは仮想カメラ1の回転を停止させる際の処理の流れを示すシーケンス図である。
仮想カメラ1の回転中に、S71において、HMDセンサ120が、HMD110の位置および傾きを検出して、S72において、検出値を制御回路部200に出力する。HMD検出部211は、この検出値を受信する。S73において、操作オブジェクト制御部236は、HMD110の現在の傾きが、操作オブジェクト28の選択時のHMD110の傾き一致するか否かを判定する。S73においてNOの場合、S74において、仮想カメラ制御部221は、仮想カメラ1をさらに回転させる。
その後、視界領域決定部222は、一定時間回転後の仮想カメラ1の向き(ロール方向)に基づき視界領域23を決定する。そして、S75において、視界画像生成部223は、決定された視界領域23に基づき視界画像26を生成し、S76においてHMD110に送信する。S77において、HMD110は、受信した視界画像26をディスプレイ112に表示することによって、視界画像26を更新する。これにより、仮想カメラ1を一定時間回転した後の視界画像26が、仮想カメラ1をさらに回転した後の視界画像26に更新される。
S77の後、図24に示す処理はS71の前に戻る。したがって、仮想カメラ1の回転開始後、ユーザがHMD110の傾きを元に戻す(操作オブジェクト28の選択時の傾きに戻す)まで、S71~S77の工程が繰り返される。すなわち、操作オブジェクト28に対するユーザの操作が検出され続ける限り、仮想カメラ制御部221は仮想カメラ1を回転させ続ける。
図25は、仮想カメラ1がさらに回転した後の仮想空間2および視界画像26を示す図である。図25の(a)に仮想空間2を示し、図25の(b)に視界画像26を示す。仮想カメラ1が左回りにさらに回転することによって、視界領域23の位置も、仮想空間2においてさらに左回りにずれる。これにより視界領域23は、仮想空間2におけるサムネイルSN1、サムネイルSN3、およびサムネイルSN4を含む位置に配置されるようになる。仮想カメラ1が回転中であるので、操作オブジェクト28も依然として伸張したままである。
図25の(b)に示すように、仮想カメラ1がさらに回転した後の視界領域23に基づく視界画像26には、サムネイルSN1、サムネイルSN3、およびサムネイルSN4が含まれる。したがってユーザは、仮想カメラ1の回転中に、サムネイルSN4が新たに自身の視界に入ったことを把握する。以下では、この時点で仮想カメラ1の回転を停止させるための操作を操作オブジェクト28に対して行う例を説明する。
S73においてYESの場合、S78において、操作オブジェクト制御部236は、ユーザによる操作オブジェクト28への伸張方向および伸張量の指定が解除されたことを検出する。これにより操作オブジェクト制御部236は、S79において、操作オブジェクト28の形状を元の円形に戻す。次にS80において、操作オブジェクト制御部236は、操作オブジェクト28の選択を解除する。次にS81において、仮想カメラ制御部221は、仮想カメラ1の回転を停止させる。
仮想カメラ1の回転停止後、S82において、制御回路部200は、通常モードに移行する。これにより視界領域決定部222は、仮想カメラ1の回転が停止した時点での仮想カメラ1の向きに基づき視界領域23を特定する。視界画像生成部223は、S83において、視界領域23に基づき視界画像26を生成し、S84において視界画像26をHMD110に出力する。HMD110は、S85において、受信した視界画像26をディスプレイ112に表示することによって、視界画像26を更新する。
図26は、仮想カメラ1の回転が停止した後の仮想空間2および視界画像26を示す図である。図26の(a)に仮想空間2を示し、図26の(b)に視界画像26を示す。図26には、図25に示す状態まで仮想カメラ1が回転した直後に、仮想カメラ1の回転が停止した場合の例を示す。仮想カメラ1の回転停止後、仮想空間2における操作オブジェクト28の形状は元の円形に戻っている。これに対応して、視界画像26に含まれる操作オブジェクト28の形状も、元の円形に戻っている。操作オブジェクト28は選択されておらず、さらに制御回路部200は通常モードで動作している。したがってユーザは、通常通り、視線を動かすことによって視界画像26内の所望のサムネイルを選択することができる。
図26の(b)に示す視界画像26には、仮想空間2においてサムネイルSN1から離れた位置にあるサムネイルSN4が含まれる。したがってユーザは、仮想カメラ1の回転前には視認できなかったサムネイルSN4を、簡単な操作によって容易に自身の視野に収めることができる。また、ユーザは、サムネイルSN4に視線を当てることによって、サムネイルSN4に対応した動画コンテンツの視聴を開始することができる。
以上のように、本発明に係るHMDシステム100は、通常モードでは仮想空間2に対するユーザの没入感を高めることができる。さらに、回転モードでは、ユーザは、通常モードに比べてより簡単な操作で、仮想空間2における所望の箇所を視認することができる。HMDシステム100が通常モードおよび回転モードの両方に対応していることによって、仮想空間2におけるユーザの没入間を高めつつ、仮想空間2における操作性をより高めることができる。また、各サムネイルを仮想空間2における幅広い範囲にそれぞれ配置することができるので、仮想空間2をより有効に活用することができる。
制御回路部200は、回転モードにおいて、操作オブジェクト28の伸張量が閾値を超えた場合、仮想カメラ1の回転を停止してもよい。具体的には、操作オブジェクト制御部236は、第2のモードにおいて、操作オブジェクト28の伸張量が閾値を超えた場合、操作オブジェクトを元の形状に戻し、かつ、操作オブジェクトの選択を解除する。操作オブジェクト制御部236は、操作オブジェクト28を元の形状に戻す前に、伸張した操作オブジェクト28を切るように操作オブジェクト28の表示状態を変更してもよい。仮想カメラ制御部221は、操作オブジェクト28の伸張量が閾値を超えた場合、仮想カメラ1の回転を停止する。この後、制御回路部200は、通常モードに移行する。この場合も、ユーザは簡単な操作で仮想カメラ1の停止させることができる。
(仮想空間2を回転させる例)
制御回路部200は、回転モードにおいて、操作オブジェクト28に対するユーザの操作に基づき、仮想カメラ1ではなく仮想空間2を回転させてもよい。この場合、回転制御部237は、特定した回転方向および回転速度を、仮想空間規定部231に通知する。仮想空間規定部231は、通知された回転方向および回転速度で仮想空間2を回転させる。ここでいう「回転」とは、仮想空間2の中心21を通る軸を自転軸とした仮想空間2の自転を意味する。
制御回路部200は、回転モードにおいて、操作オブジェクト28に対するユーザの操作に基づき、仮想カメラ1ではなく仮想空間2を回転させてもよい。この場合、回転制御部237は、特定した回転方向および回転速度を、仮想空間規定部231に通知する。仮想空間規定部231は、通知された回転方向および回転速度で仮想空間2を回転させる。ここでいう「回転」とは、仮想空間2の中心21を通る軸を自転軸とした仮想空間2の自転を意味する。
仮想空間規定部231は、仮想空間2のXYZ座標系をグローバル座標系において回転させることによって、仮想空間2を回転させる。このとき、仮想空間データに含まれるXYZ座標系を規定するデータを処理することによって、回転後のXYZ座標系を規定するデータに更新する。仮想空間2における各メッシュの位置はXYZ座標系における座標として各メッシュの管理データに規定されているので、XYZ座標系がグローバル座標系において回転することによって、各メッシュもグローバル座標系において同様に回転する。同様に、仮想空間2に配置されるサムネイルSN1~SN4の位置も、XYZ座標系における座標として各サムネイルの管理データに規定されているので、XYZ座標系がグローバル座標系において回転することによって、サムネイルSN1~SN4もグローバル座標系において同様に回転する。
仮想空間規定部231は、仮想空間2を回転させる際、仮想カメラ1を仮想空間2と共に回転させない。すなわち、グローバル座標系における仮想カメラ1の位置および傾きを固定したまま、仮想空間2を回転させる。したがって、仮想空間2が回転すると、仮想空間2における仮想カメラ1のロール方向が相対的に変化する(仮想空間2に対して相対的に回転する)。その結果、視界領域23の位置も相対的に変化するので、その変化に追随して視界領域23に基づく視界画像26も変化する。
仮想空間2が鉛直方向を自転軸として左回りに回転すると、仮想空間2における視界領域23の位置は、仮想空間2において相対的に右回りの方向に移動する。これにより視界画像26は、ユーザから見て右から左に流れるように更新される。逆に、仮想空間2が鉛直方向を自転軸として右回りに回転すると、仮想空間2における視界領域23の位置は、仮想空間2において相対的に左回りの方向に移動する。これにより視界画像26は、ユーザから見て左から右に流れるように更新される。
仮想空間規定部231は、仮想空間2を回転させる際、操作オブジェクト28は仮想空間2と共に回転させないように制御する。具体的には、仮想カメラ1のuvw視野座標系における基準視線5と操作オブジェクトとの位置関係を維持したまま、仮想空間2を回転させる。言い換えると、仮想空間2の回転時、視界領域23において基準視線5が交わる点に操作オブジェクト28が常に配置されるように、仮想空間2における操作オブジェクト28の位置を更新する。この結果、回転モードにおいて仮想空間2がどれだけ回転しても、視界画像26には必ず操作オブジェクト28が含まれる。ユーザは、仮想空間2の回転中において、伸張した操作オブジェクト28を常に視認することによって、現在、操作オブジェクト28に対する操作に基づき仮想空間2が回転していることを認識することができる。
ユーザによって指定された操作オブジェクト28の伸張方向に基づく仮想空間2の回転方向は、同じ伸張方向が指定された場合の仮想カメラ1の回転方向と逆であることが好ましい。これにより、視界画像26が流れる方向を、仮想カメラ1の回転時と仮想空間2の回転時とで一致させることができる。したがって、仮想カメラ1または仮想空間2のいずれを回転させる場合でも、操作オブジェクト28に対するユーザの同一の操作に基づく視界画像26の流れる方向に一貫性を持たせることができる。
(視線による操作オブジェクト28の操作)
通常モードにおいて、ユーザは、HMD110ではなく視線を動かすことによって、操作オブジェクト28を選択したり操作したりしてもよい。この場合、ユーザは、視界画像26に含まれる操作オブジェクト28に視線を向けることによって、視界画像26において注視点29を操作オブジェクト28に当てる。視線管理部232は、注視点29が操作オブジェクト28に規定時間以上当たった否かを判定する。この判定結果が真である場合、操作オブジェクト制御部236は、操作オブジェクト28がユーザによって選択されたことを検出する。これにより、制御回路部200は回転モードに移行する。
通常モードにおいて、ユーザは、HMD110ではなく視線を動かすことによって、操作オブジェクト28を選択したり操作したりしてもよい。この場合、ユーザは、視界画像26に含まれる操作オブジェクト28に視線を向けることによって、視界画像26において注視点29を操作オブジェクト28に当てる。視線管理部232は、注視点29が操作オブジェクト28に規定時間以上当たった否かを判定する。この判定結果が真である場合、操作オブジェクト制御部236は、操作オブジェクト28がユーザによって選択されたことを検出する。これにより、制御回路部200は回転モードに移行する。
視線による操作オブジェクト28の選択後、ユーザは、視線移動によって操作オブジェクト28を操作することができる。この場合、ユーザは、操作オブジェクト28が選択されているときに、視線をいずれかの方向に変化させる。視線管理部232は、視線変化前後の各視線方向N0に基づき、視線方向N0の移動方向および移動量を特定する。操作オブジェクト制御部236は、視線方向N0の移動方向に基づき操作オブジェクト28の伸張方向を決定し、さらに、視線方向N0の移動量に基づき操作オブジェクト28の伸張量を決定する。伸張方向および伸張量の決定後の操作オブジェクト28の伸張および仮想カメラ1(または仮想空間2)の回転方法は、上述した例と同一である。
以上の例では、ユーザは、HMD110を動かすことなく、視線を変化させる(眼球を動かす)ことによって、仮想カメラ1または仮想空間2を所望の方向に回転させることができる。たとえば、回転モードにおいてユーザが正面右側に視線を移せば、仮想カメラ1を右回り(仮想空間2を左回り)に回転させることができる。一方、回転モードにおいてユーザが正面左側に視線を移せば、仮想カメラ1を左回り(仮想空間2を右回り)に回転させることができる。これらのようにユーザは、より簡単な操作で、仮想空間2における所望の箇所を自身の視界に収めることができる。
(コントローラ300による回転制御)
ユーザは、コントローラ300を操作することによって、操作オブジェクト28を選択したり操作したりこともできる。この場合、通常モードにおいて、操作オブジェクト制御部236は、ユーザがコントローラ300に対して操作オブジェクト28を選択するための操作を行った場合、ユーザによって操作オブジェクト28が選択されたことを検出する。また、回転モードにおいて、操作オブジェクト制御部236は、ユーザがコントローラ300を操作することによって操作オブジェクト28の伸張方向および伸張量を操作オブジェクト28に指定する操作を行った場合、これらの伸張方向および伸張量を特定する。伸張方向および伸張量の決定後の操作オブジェクト28の伸張および仮想カメラ1(または仮想空間2)の回転方法は、上述した例と同一である。
ユーザは、コントローラ300を操作することによって、操作オブジェクト28を選択したり操作したりこともできる。この場合、通常モードにおいて、操作オブジェクト制御部236は、ユーザがコントローラ300に対して操作オブジェクト28を選択するための操作を行った場合、ユーザによって操作オブジェクト28が選択されたことを検出する。また、回転モードにおいて、操作オブジェクト制御部236は、ユーザがコントローラ300を操作することによって操作オブジェクト28の伸張方向および伸張量を操作オブジェクト28に指定する操作を行った場合、これらの伸張方向および伸張量を特定する。伸張方向および伸張量の決定後の操作オブジェクト28の伸張および仮想カメラ1(または仮想空間2)の回転方法は、上述した例と同一である。
以上の例では、ユーザは、HMD110を動かすことなく、かつ視線を変化させることなく、コントローラ300を操作することによって、仮想カメラ1または仮想空間2を所望の方向に回転させることができる。たとえば、回転モードにおいてユーザが操作オブジェクト28を右側に伸張させるための操作をコントローラ300に対して行えば、仮想カメラ1を右回り(仮想空間2を左回り)に回転させることができる。一方、回転モードにおいてユーザが操作オブジェクト28を左側に伸張するための操作をコントローラ300に対して行えば、仮想カメラ1を左回り(仮想空間2を右回り)に回転させることができる。
コントローラ300は、ユーザが右手で持つ右コントローラと、ユーザが左手で持つ左コントローラとからなるものであってもよい。この場合、制御回路部200は、右コントローラの位置および傾きの検知値、ならびに、右コントローラが備える各ボタンへのユーザの押下操作の検出結果に基づき、ユーザの仮想右手を仮想空間2に生成することができる。同様に、制御回路部200は、左コントローラの位置および傾きの検知値、ならびに、左コントローラが備える各ボタンへのユーザの押下操作の検出結果に基づき、ユーザの仮想左手を仮想空間2に生成することができる。仮想右手および仮想左手は、いずれもオブジェクトである。
この態様では、ユーザは、仮想右手または仮想左手によって操作オブジェクト28に作用を与えることによって、操作オブジェクト28を選択したり操作したりすることができる。たとえばユーザが、仮想右手を操作オブジェクト28に接触させるように右手を動かした場合、操作オブジェクト制御部236は、操作オブジェクト28がユーザによって選択されたことを検出する。この後、ユーザが、仮想右手で操作オブジェクト28をつまむための操作をコントローラ300に対して行う(たとえば右コントローラのいずれかのボタンを押下する)と共に、仮想右手によって操作オブジェクト28を所定方向にドラッグするように右手を動かした場合、操作オブジェクト制御部236は、右手を動かす前後の右コントローラの位置の各検知値に基づき、操作オブジェクト28の伸張方向および伸張量を特定する。伸張方向および伸張量の決定後の操作オブジェクト28の伸張および仮想カメラ1(または仮想空間2)の回転方法は、上述した例と同一である。
以上の例では、ユーザは、HMD110を動かすことなく、かつ視線を変化させることなく、右コントローラを操作することによって、仮想カメラ1または仮想空間2を所望の方向に回転させることができる。たとえば、回転モードにおいて、ユーザが、仮想右手によって操作オブジェクト28を右方向にドラッグするように右コントローラを操作すれば、仮想カメラ1を右回り(仮想空間2を左回り)に回転させることができる。一方、回転モードにおいて、ユーザが、仮想右手によって操作オブジェクト28を左側にドラッグするように右コントローラを操作すれば、仮想カメラ1を左回り(仮想空間2を右回り)に回転させることができる。これらの場合、ユーザは、より直感的に、仮想カメラ1または仮想空間2を回転させることができる。
(機能区画による回転制御)
プラットフォームが展開される仮想空間2を構成する天球面におけるいずれかの位置に、機能区画が規定されていてもよい。機能区画は、所定の機能を割り当てることができる領域である。以下では、機能区画をユーザが選択した場合に、制御回路部200が回転モードに移行する例を説明する。以下の例では、機能区画には、ユーザの視線(視界方向または視線方向N0)が機能区画に当たったか否かを検出する機能が割り当てられている。さらに、機能区画には、ユーザの視線が機能区画に当たった時間を検出する機能も割り当てられている。
プラットフォームが展開される仮想空間2を構成する天球面におけるいずれかの位置に、機能区画が規定されていてもよい。機能区画は、所定の機能を割り当てることができる領域である。以下では、機能区画をユーザが選択した場合に、制御回路部200が回転モードに移行する例を説明する。以下の例では、機能区画には、ユーザの視線(視界方向または視線方向N0)が機能区画に当たったか否かを検出する機能が割り当てられている。さらに、機能区画には、ユーザの視線が機能区画に当たった時間を検出する機能も割り当てられている。
視線管理部232は、通常モードにおいて機能区画に対してユーザの視線(基準視線5または視線方向N0)が規定時間以上当たったことを検出した場合、機能区画をユーザが選択したことを検出する。これにより制御回路部200は、回転モードに移行する。この後、ユーザによる何らかの操作に基づき、制御回路部200は仮想カメラ1または仮想空間2の回転を開始する。たとえば制御回路部200は、規定時間以上の注視によってユーザが選択した機能区画からユーザの視線が外れたか否かを判定する。制御回路部200は、ユーザの視線が機能区画から外れたと判定した場合、視線が外れた方向を特定する。そして、視線が外れた方向を視線の移動方向として特定し、さらに、特定した視線の移動方向に基づく回転方向に仮想カメラ1または仮想空間2を回転させる。本例のように機能区画を活用すれば、操作オブジェクト28を規定することができない仮想空間2がユーザに提供される場合も、ユーザの操作に基づき仮想カメラ1または仮想空間2を回転させることができる。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態も、本発明の技術的範囲に含まれる。各実施形態にそれぞれ開示された技術的手段を組み合わせることによって、新しい技術的特徴を形成することもできる。
〔ソフトウェアによる実現例〕
制御回路部200の制御ブロック(検出部210、表示制御部220、仮想空間制御部230、記憶部240、および通信部250)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
制御回路部200の制御ブロック(検出部210、表示制御部220、仮想空間制御部230、記憶部240、および通信部250)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、制御ブロックは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
〔付記事項1〕
(項目1)ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに仮想空間を提供する方法であって、前記仮想空間を定義するステップと、前記仮想空間において再生される動画コンテンツと、前記動画コンテンツの表示域の一部に表示されるサブコンテンツとを合成して合成コンテンツを生成するステップと、前記合成コンテンツを前記仮想空間に適合させるステップと、前記ユーザの視線を特定するステップと、前記視線に基づいて、視界領域を特定するステップと、前記合成コンテンツのうち、前記視界領域に相当する視界画像を生成し、前記HMDに出力するステップと、を含む、仮想空間を提供する方法。ヘッドマウントディスプレイにて動画コンテンツを再生する際に、広告等の他のコンテンツを表示することができる。
(項目2)前記サブコンテンツが前記仮想空間の予め定められた区画に表示されるように、前記動画コンテンツと前記サブコンテンツとを合成する、項目1の方法。動画コンテンツの作成者は、動画コンテンツにおいて表示される映像の中で広告を表示しても不自然ではない箇所を特定しておくことができるので、ユーザの没入感を損ねずに広告を表示することができる。
(項目3)前記動画コンテンツに関連付けられた前記区画の空間的位置及び時間的位置を示す広告枠情報を取得するステップを含み、前記広告枠情報に基づいて前記動画コンテンツと前記サブコンテンツとを合成する、項目2の方法。動画コンテンツの作成者は、動画コンテンツにおいて表示される映像の中で広告を表示しても不自然ではない空間的位置および時間的位置を特定しておくことができるので、ユーザの没入感を損ねずに広告を表示することができる。
(項目4)前記区画と、前記視線とが交わっているか否かを判別して視線情報を収集するステップをさらに含む、項目2又は3の方法。当該区画を用いることで、オブジェクトを用いなくてもユーザが広告に対して関心を持った度合いを評価することができる。
(項目5)複数の候補動画コンテンツの内容を示す情報を一覧表示するコンテンツ一覧を前記仮想空間に適合させて表示するステップと、前記コンテンツ一覧において前記ユーザにより選択された前記候補動画コンテンツを前記動画コンテンツとして特定するステップと、をさらに含み、前記複数の候補動画コンテンツに含まれる2以上の候補動画コンテンツにおいては、前記動画コンテンツとして特定された場合に、前記サブコンテンツを同じ空間的位置の前記区画の一部を含むように合成する、項目4の方法。動画コンテンツが複数であっても広告に対するユーザの関心の度合いを効率的に評価することができる。
(項目5)複数の候補動画コンテンツの内容を示す情報を一覧表示するコンテンツ一覧を前記仮想空間に適合させて表示するステップと、前記コンテンツ一覧において前記ユーザにより選択された前記候補動画コンテンツを前記動画コンテンツとして特定するステップと、をさらに含み、前記複数の候補動画コンテンツに含まれる2以上の候補動画コンテンツにおいては、前記動画コンテンツとして特定された場合に、前記サブコンテンツを同じ空間的位置の前記区画の一部を含むように合成する、項目4に記載の方法。
(項目6)前記視線情報収集ステップでは、前記区画の水平方向の幅及び鉛直方向の幅が、前記動画コンテンツ中の前記サブコンテンツを合成する箇所の水平方向の幅及び鉛直方向の幅より大きくし、前記区画の鉛直方向の幅と前記箇所の鉛直方向の幅との差より、前記区画の水平方向の幅と当該箇所の水平方向の幅との差が小さい、項目2~5の方法。動画コンテンツの初期方向を鉛直方向に調整する必要性を低減させることができる。
(項目7)複数の候補動画コンテンツの内容を示す情報を一覧表示するコンテンツ一覧を前記仮想空間に適合させて表示するステップと、前記コンテンツ一覧において前記ユーザにより選択された前記候補動画コンテンツを前記動画コンテンツとして特定するステップと、をさらに含む、項目1~4の方法。ユーザは複数の動画コンテンツの中から所望の動画コンテンツを選ぶことができる。
(項目8)項目1から7のいずれか1つの方法の各ステップを、コンピュータに実行させるプログラム。
(項目9)項目8に記載のプログラムを記録したコンピュータ読取可能な記録媒体。
〔付記事項2〕
(項目1)ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに仮想空間を提供する方法であって、前記仮想空間に適合させて再生するための動画コンテンツの初期方向を特定するステップと、前記初期方向の水平方向における向きと前記HMDのロール方向の水平方向における向きとが一致するように前記仮想空間に前記動画コンテンツを適合させて再生するステップと、前記初期方向の後方側に、第1のサブコンテンツを表示するステップと、前記HMDの向きおよび傾きのうち少なくとも一方に応じて視野を更新するステップと、を含む方法。ヘッドマウントディスプレイにて動画コンテンツを再生する際に広告等の他のコンテンツを表示しても、ユーザの没入感に与える影響が少ない。
(項目2)前記初期方向の前方側に、第2のサブコンテンツをさらに表示するステップを含む、項目1の仮想空間を提供する方法。この方法によれば、第2のサブコンテンツとして、第1のサブコンテンツにユーザの視線を誘導する内容のものを表示することができる。よって、広告効果を高めることができる。
(項目3)前記第2のサブコンテンツは、前記第1のサブコンテンツの少なくとも一部を示す画像である項目2の方法。この方法によれば、効果的に第1のサブコンテンツにユーザの視線を誘導することができる。よって、広告効果を高めることができる。
(項目4)前記動画コンテンツには、前記第2のサブコンテンツを表示するための空間的位置及び時間的位置を含む枠情報が関連付けられており、前記枠情報を取得するステップをさらに含み、前記枠情報に基づいて、前記第2のサブコンテンツを表示する、項目2又は3の方法。動画コンテンツの作成者は、動画コンテンツにおいて表示される映像の中で第2のサブコンテンツを表示しても不自然ではない箇所を特定しておくことができるので、ユーザの没入感を損ねずに広告に視線誘導するためのコンテンツを表示することができる。
(項目5)前記第1のサブコンテンツは広告コンテンツであり、前記第2のサブコンテンツは前記動画コンテンツに登場する反射面に投影される画像である、項目4の方法。この方法によれば、ユーザの没入感を損ねることなく、効果的に第1のサブコンテンツにユーザの視線を誘導することができる。よって、広告効果を高めることができる。
(項目6)前記動画コンテンツを構成するフレームは、互いに異なる方向を向く複数の撮像素子によって撮影された画像であって、少なくとも一部が分離している画像をつなぎ合せて生成されており、前記視野更新ステップでは、前記第1のサブコンテンツを、前記画像のつなぎ目に重畳させて表示する、項目1~5の方法。つなぎ目は画像が歪んでいたり表示されていなかったりする虞があるが、そのような場所を広告等の第1のサブコンテンツで隠すことができるのでユーザの没入感を損ねない。
(項目7)項目1~6の方法の各ステップを、コンピュータに実行させるプログラム。
(項目8)項目7のプログラムを記録したコンピュータ読取可能な記録媒体。
〔付記事項3〕
(項目1)ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに仮想空間を提供する方法であって、前記仮想空間において再生されるコンテンツに応じて、前記基準座標系における前記HMDに対する仮想カメラの相対的な傾きまたは基準座標系に対する前記仮想空間の空間座標系の相対的な傾きを異ならせた状態で、前記仮想空間における前記仮想カメラの向きに応じた視界画像を生成するステップと、前記視界画像を前記HMDに表示させるステップとを有する、方法。異なる姿勢で見ることを前提とした様々なコンテンツを、ユーザの姿勢に応じて仮想空間において好適に再生することができる。
(項目2)前記基準座標系に平行な前記空間座標系を有する前記仮想空間を規定するステップと、前記仮想空間に前記仮想カメラを配置するステップと、前記コンテンツに予め規定される傾き補正値に基づき、前記仮想カメラを前記基準座標系において前記HMDに対して相対的に傾けることによって、前記仮想空間における前記仮想カメラの向きを設定するステップとを有する、項目1の方法。仮想空間の空間座標系を基準座標系に対して傾ける必要がない。
(項目3)前記コンテンツに予め規定される傾き補正値に基づき、前記基準座標系に対して相対的に傾いた前記空間座標系を有する前記仮想空間を規定するステップと、前記仮想空間に前記仮想カメラを配置するステップと、前記基準座標系における前記仮想カメラの傾きを前記HMDの傾きに一致させることによって、前記仮想空間における前記仮想カメラの向きを設定するステップとを有する、項目1の方法。仮想カメラをHMDに対して傾ける必要がない。
(項目4)前記仮想カメラの向きを設定するステップにおいて、水平方向に対する前記HMDの傾きが前記傾き補正値に一致する場合、前記仮想カメラの向きを、前記仮想空間におけるXZ平面に対して平行に設定する、項目2または3の方法。異なる姿勢で見ることを前提とした様々なコンテンツを、ユーザの姿勢に応じて仮想空間において最も好適に再生することができる。
(項目5)前記ユーザの基準視線を特定するステップと、前記基準視線に基づいて、前記仮想カメラの向きを更新すると共に、視界領域を特定するステップと、前記視界領域に基づいて、前記視界画像を更新するステップとをさらに有する、項目1~4のいずれか1つの方法。HMDの動きに連動して視界画像を適切に更新することができる。
(項目6)項目1~5のいずれか1つの方法の各ステップを、コンピュータに実行させるプログラム。
(項目7)項目6のプログラムを記録したコンピュータ読み取り可能な記録媒体。
〔付記事項〕
(項目1)ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに仮想空間を提供する方法であって、第1のモードにおいて、前記仮想空間内に配置されかつ前記HMDに連動する仮想カメラのロール方向に基づく視界画像を前記HMDに表示させるステップと、第2のモードにおいて、前記ユーザの操作に基づき少なくとも回転方向を特定すると共に、前記操作が検出され続ける間、前記仮想カメラまたは前記仮想空間を前記回転方向に回転させ続けながら、前記HMDに表示させる前記視界画像を更新するステップとを有する、方法。仮想空間における操作性を高めることができる。
(項目1)ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに仮想空間を提供する方法であって、第1のモードにおいて、前記仮想空間内に配置されかつ前記HMDに連動する仮想カメラのロール方向に基づく視界画像を前記HMDに表示させるステップと、第2のモードにおいて、前記ユーザの操作に基づき少なくとも回転方向を特定すると共に、前記操作が検出され続ける間、前記仮想カメラまたは前記仮想空間を前記回転方向に回転させ続けながら、前記HMDに表示させる前記視界画像を更新するステップとを有する、方法。仮想空間における操作性を高めることができる。
(項目2)
前記視界画像を前記HMDに表示させるステップにおいて、前記仮想空間に配置される操作オブジェクトを含む前記視界画像を前記HMDに表示させ、前記第1のモードにおいて、前記操作オブジェクトが前記ユーザによって選択されたことを検出するステップと、前記第1のモードにおいて、前記操作オブジェクトが選択されたことが検出された後、前記第2のモードに移行するステップとをさらに有する、項目1の方法。ユーザの意思により、第2のモードに移行することができる。
前記視界画像を前記HMDに表示させるステップにおいて、前記仮想空間に配置される操作オブジェクトを含む前記視界画像を前記HMDに表示させ、前記第1のモードにおいて、前記操作オブジェクトが前記ユーザによって選択されたことを検出するステップと、前記第1のモードにおいて、前記操作オブジェクトが選択されたことが検出された後、前記第2のモードに移行するステップとをさらに有する、項目1の方法。ユーザの意思により、第2のモードに移行することができる。
(項目3)前記第2のモードにおいて、前記操作オブジェクトが選択されたことが検出された後、前記ユーザによって前記操作オブジェクトに指定された所定方向を特定するステップと、前記第2のモードにおいて、前記操作オブジェクトを前記所定方向に弾性変形させるステップとをさらに有し、前記回転方向を決定するステップにおいて、前記所定方向に基づき前記回転方向を決定する、項目2の方法。操作オブジェクトに対するユーザの操作に基づき、仮想カメラまたは仮想空間を回転させることができる。
(項目4)
前記回転方向を決定するステップにおいて、前記所定方向における水平方向の成分に基づき前記回転方向を決定する、項目3の方法。ユーザが仮想空間において酔うことを防止できる。
前記回転方向を決定するステップにおいて、前記所定方向における水平方向の成分に基づき前記回転方向を決定する、項目3の方法。ユーザが仮想空間において酔うことを防止できる。
(項目5)
前記第2のモードにおいて、前記操作オブジェクトへの前記所定方向の指定が解除されたことを検出するステップと、前記第2のモードにおいて、前記所定方向の指定が解除されたことが検出された場合、前記操作オブジェクトを元の形状に戻すと共に、前記操作オブジェクトの選択を解除する変更するステップと、前記第2のモードにおいて、前記所定方向の指定が解除されたことが検出された場合、前記仮想カメラまたは前記仮想空間の回転を停止させると共に、前記第1のモードに移行するステップとをさらに有する、項目4の方法。ユーザは簡単な操作で仮想カメラまたは仮想空間の回転を停止させることができる。
前記第2のモードにおいて、前記操作オブジェクトへの前記所定方向の指定が解除されたことを検出するステップと、前記第2のモードにおいて、前記所定方向の指定が解除されたことが検出された場合、前記操作オブジェクトを元の形状に戻すと共に、前記操作オブジェクトの選択を解除する変更するステップと、前記第2のモードにおいて、前記所定方向の指定が解除されたことが検出された場合、前記仮想カメラまたは前記仮想空間の回転を停止させると共に、前記第1のモードに移行するステップとをさらに有する、項目4の方法。ユーザは簡単な操作で仮想カメラまたは仮想空間の回転を停止させることができる。
(項目6)
前記第2のモードにおいて、前記操作オブジェクトが選択されたことが検出された後、基準座標系における前記HMDの傾きの変化量を特定するステップと、前記所定方向を特定するステップにおいて、前記傾きの変化量に基づき前記所定方向を特定する、項目3~5のいずれかの方法。ユーザはHMDを傾ける方向を変えることによって仮想カメラまたは仮想空間の回転速方法を調整することができる。
前記第2のモードにおいて、前記操作オブジェクトが選択されたことが検出された後、基準座標系における前記HMDの傾きの変化量を特定するステップと、前記所定方向を特定するステップにおいて、前記傾きの変化量に基づき前記所定方向を特定する、項目3~5のいずれかの方法。ユーザはHMDを傾ける方向を変えることによって仮想カメラまたは仮想空間の回転速方法を調整することができる。
(項目7)
前記所定方向の指定が解除されたことを検出するステップにおいて、前記仮想カメラまたは仮想空間の回転が開始された後の前記HMDの傾きが、前記操作オブジェクトが選択されたことが検出された時点の前記HMDの傾きに一致した場合、前記所定方向の指定が解除されたことを検出する、項目6の方法。ユーザは簡単な操作によって仮想カメラまたは仮想空間の回転を停止させることができる。
前記所定方向の指定が解除されたことを検出するステップにおいて、前記仮想カメラまたは仮想空間の回転が開始された後の前記HMDの傾きが、前記操作オブジェクトが選択されたことが検出された時点の前記HMDの傾きに一致した場合、前記所定方向の指定が解除されたことを検出する、項目6の方法。ユーザは簡単な操作によって仮想カメラまたは仮想空間の回転を停止させることができる。
(項目8)
前記第2のモードにおいて、前記操作オブジェクトが選択されたことが検出された後、前記ユーザによって前記操作オブジェクトに指定された所定量を特定するステップと、前記第2のモードにおいて、前記所定量に基づき、前記仮想カメラまたは前記仮想空間を回転させる際の回転速度を決定するステップとをさらに有し、前記操作オブジェクトを弾性変形させるステップにおいて、前記操作オブジェクトを前記所定量だけ伸張させ、前記視界画像を更新するステップにおいて、前記仮想カメラまたは仮想空間を前記回転速度で回転させ続ける、項目3~7のいずれかの方法。ユーザは所望の回転速度で仮想カメラまたは仮想空間を回転させることができる。
前記第2のモードにおいて、前記操作オブジェクトが選択されたことが検出された後、前記ユーザによって前記操作オブジェクトに指定された所定量を特定するステップと、前記第2のモードにおいて、前記所定量に基づき、前記仮想カメラまたは前記仮想空間を回転させる際の回転速度を決定するステップとをさらに有し、前記操作オブジェクトを弾性変形させるステップにおいて、前記操作オブジェクトを前記所定量だけ伸張させ、前記視界画像を更新するステップにおいて、前記仮想カメラまたは仮想空間を前記回転速度で回転させ続ける、項目3~7のいずれかの方法。ユーザは所望の回転速度で仮想カメラまたは仮想空間を回転させることができる。
(項目9)
前記第2のモードにおいて、前記所定量が閾値を超えた場合、前記操作オブジェクトを元の形状に戻し、かつ、前記操作オブジェクトの選択を解除するステップと、前記第2のモードにおいて、前記所定量が閾値を超えた場合、前記仮想カメラまたは前記仮想空間の回転を停止させるステップと、前記第2のモードにおいて、前記仮想カメラまたは前記仮想空間の回転が停止した後、前記第1のモードに移行するステップとをさらに有する、項目8の方法。ユーザは簡単な操作で仮想カメラまたは仮想空間の回転を停止させることができる。
前記第2のモードにおいて、前記所定量が閾値を超えた場合、前記操作オブジェクトを元の形状に戻し、かつ、前記操作オブジェクトの選択を解除するステップと、前記第2のモードにおいて、前記所定量が閾値を超えた場合、前記仮想カメラまたは前記仮想空間の回転を停止させるステップと、前記第2のモードにおいて、前記仮想カメラまたは前記仮想空間の回転が停止した後、前記第1のモードに移行するステップとをさらに有する、項目8の方法。ユーザは簡単な操作で仮想カメラまたは仮想空間の回転を停止させることができる。
(項目10)
前記第2のモードにおいて、前記操作オブジェクトが選択されたことが検出された後、基準座標系における前記HMDの傾きの変化量を特定するステップをさらに備えており、、前記所定量を特定するステップにおいて、前記傾きの変化量に基づき前記所定量を特定する、項目8または9の方法。ユーザはHMDを傾ける度合いを変えることによって仮想カメラまたは仮想空間の回転速方法を調整することができる。
前記第2のモードにおいて、前記操作オブジェクトが選択されたことが検出された後、基準座標系における前記HMDの傾きの変化量を特定するステップをさらに備えており、、前記所定量を特定するステップにおいて、前記傾きの変化量に基づき前記所定量を特定する、項目8または9の方法。ユーザはHMDを傾ける度合いを変えることによって仮想カメラまたは仮想空間の回転速方法を調整することができる。
(項目11)
前記第1のモードにおいて、前記操作オブジェクトの少なくとも一部が、前記仮想カメラの視界領域の外に位置することを検出するステップと、前記第1のモードにおいて、前記操作オブジェクトの少なくとも一部が、前記視界領域の外に位置することが検出された場合、前記操作オブジェクトを前記視界領域の中に移動させるステップとをさらに有する、項目2~10のいずれかの1つの方法。ユーザがオブジェクトを見つけ出しやすくなる
。
前記第1のモードにおいて、前記操作オブジェクトの少なくとも一部が、前記仮想カメラの視界領域の外に位置することを検出するステップと、前記第1のモードにおいて、前記操作オブジェクトの少なくとも一部が、前記視界領域の外に位置することが検出された場合、前記操作オブジェクトを前記視界領域の中に移動させるステップとをさらに有する、項目2~10のいずれかの1つの方法。ユーザがオブジェクトを見つけ出しやすくなる
。
(項目12)
前記第1のモードにおいて、前記仮想空間に規定される機能区画をユーザが選択したことを検出するステップと、前記第1のモードにおいて、前記仮想空間に規定される機能区画をユーザが選択したことが検出された場合、前記第2のモードに移行するステップをさらに有する、項目1の方法。オブジェクトを用いることができない仮想空間が提供される場合も、ユーザの操作に基づき仮想カメラまたは仮想空間を回転させることができる。
前記第1のモードにおいて、前記仮想空間に規定される機能区画をユーザが選択したことを検出するステップと、前記第1のモードにおいて、前記仮想空間に規定される機能区画をユーザが選択したことが検出された場合、前記第2のモードに移行するステップをさらに有する、項目1の方法。オブジェクトを用いることができない仮想空間が提供される場合も、ユーザの操作に基づき仮想カメラまたは仮想空間を回転させることができる。
(項目13)
項目1~12のいずれかの方法の各ステップを、コンピュータに実行させるプログラム。
項目1~12のいずれかの方法の各ステップを、コンピュータに実行させるプログラム。
(項目14)
項目13のプログラムを記録したコンピュータ読み取り可能な記録媒体。
項目13のプログラムを記録したコンピュータ読み取り可能な記録媒体。
1 仮想カメラ、2 仮想空間、5 基準視線、21 中心、22 仮想空間画像、23 視界領域、24 第1領域、25 第2領域、26 視界画像、100 HMDシステム、110 HMD、112 ディスプレイ、114 センサ、120 HMDセンサ
、130 注視センサ、200 制御回路部、210 検出部、211 HMD検出部、
212 視線検出部、213 操作受付部、220 表示制御部、221 仮想カメラ制
御部、222 視界領域決定部、223 視界画像生成部、230 仮想空間制御部、2
31 仮想空間規定部、232 視線管理部、233 コンテンツ特定部、234 コンテンツ管理部、240 記憶部、241 雛形格納部、242 コンテンツ格納部、250 通信部、300 コントローラ、C1’、C1” シーン、F1 表示域、F2 表示域、FE 視線情報収集区画、G 格子、N0 視線方向、N1 注視点、SC1、SC2 広告コンテンツ
、130 注視センサ、200 制御回路部、210 検出部、211 HMD検出部、
212 視線検出部、213 操作受付部、220 表示制御部、221 仮想カメラ制
御部、222 視界領域決定部、223 視界画像生成部、230 仮想空間制御部、2
31 仮想空間規定部、232 視線管理部、233 コンテンツ特定部、234 コンテンツ管理部、240 記憶部、241 雛形格納部、242 コンテンツ格納部、250 通信部、300 コントローラ、C1’、C1” シーン、F1 表示域、F2 表示域、FE 視線情報収集区画、G 格子、N0 視線方向、N1 注視点、SC1、SC2 広告コンテンツ
Claims (9)
- ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに仮想空間を提供する方法であって、
前記仮想空間を定義するステップと、
前記仮想空間において再生される動画コンテンツと、前記動画コンテンツの表示域の一部に表示されるサブコンテンツとを合成して合成コンテンツを生成するステップと、
前記合成コンテンツを前記仮想空間に適合させるステップと、
前記ユーザの視線を特定するステップと、
前記視線に基づいて、視界領域を特定するステップと、
前記合成コンテンツのうち、前記視界領域に相当する視界画像を生成し、前記HMDに出力するステップと、を含む、方法。 - 前記サブコンテンツが前記仮想空間の予め定められた区画に表示されるように、前記動画コンテンツと前記サブコンテンツとを合成する、請求項1に記載の方法。
- 前記動画コンテンツに関連付けられた前記区画の空間的位置及び時間的位置を示す広告枠情報を取得するステップを含み、
前記広告枠情報に基づいて前記動画コンテンツと前記サブコンテンツとを合成する、請求項2に記載の方法。 - 前記区画と、前記視線とが交わっているか否かを判別して視線情報を収集するステップをさらに含む、請求項2又は3に記載の方法。
- 複数の候補動画コンテンツの内容を示す情報を一覧表示するコンテンツ一覧を前記仮想空間に適合させて表示するステップと、
前記コンテンツ一覧において前記ユーザにより選択された前記候補動画コンテンツを前記動画コンテンツとして特定するステップと、をさらに含み、
前記複数の候補動画コンテンツに含まれる2以上の候補動画コンテンツにおいては、前記動画コンテンツとして特定された場合に、前記サブコンテンツを同じ空間的位置の前記区画の一部を含むように合成する、請求項4に記載の方法。 - 前記区画の水平方向の幅及び鉛直方向の幅が、前記動画コンテンツ中の前記サブコンテンツを合成する箇所の水平方向の幅及び鉛直方向の幅より大きく、
前記区画の水平方向の幅と当該箇所の水平方向の幅との差が、前記区画の鉛直方向の幅と前記箇所の鉛直方向の幅との差より小さい、請求項2~5のいずれか1項に記載の方法。 - 複数の候補動画コンテンツの内容を示す情報を一覧表示するコンテンツ一覧を前記仮想空間に適合させて表示するステップと、
前記コンテンツ一覧において前記ユーザにより選択された前記候補動画コンテンツを前記動画コンテンツとして特定するステップと、をさらに含む、請求項1~4のいずれか1項に記載の方法。 - 請求項1から7のいずれか1項に記載の仮想空間を提供する方法の各ステップを、コンピュータに実行させるプログラム。
- 請求項8に記載のプログラムを記録したコンピュータ読取可能な記録媒体。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-099119 | 2016-05-17 | ||
JP2016099119A JP6126272B1 (ja) | 2016-05-17 | 2016-05-17 | 仮想空間を提供する方法、プログラム及び記録媒体 |
JP2016099088A JP6262283B2 (ja) | 2016-05-17 | 2016-05-17 | 仮想空間を提供する方法、プログラム、および記録媒体 |
JP2016-099108 | 2016-05-17 | ||
JP2016-099088 | 2016-05-17 | ||
JP2016099108A JP6126271B1 (ja) | 2016-05-17 | 2016-05-17 | 仮想空間を提供する方法、プログラム及び記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017199848A1 true WO2017199848A1 (ja) | 2017-11-23 |
Family
ID=60326322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/017878 WO2017199848A1 (ja) | 2016-05-17 | 2017-05-11 | 仮想空間を提供する方法、プログラム及び記録媒体 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2017199848A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020054456A1 (ja) * | 2018-09-14 | 2020-03-19 | ソニー株式会社 | 表示制御装置および表示制御方法、並びにプログラム |
JP7578904B2 (ja) | 2020-11-30 | 2024-11-07 | マツダ株式会社 | 広告提供システム及び広告提供方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002271693A (ja) * | 2001-03-13 | 2002-09-20 | Canon Inc | 画像処理装置、画像処理方法、及び制御プログラム |
JP2005173042A (ja) * | 2003-12-09 | 2005-06-30 | Canon Inc | 携帯型情報装置及びその広告表示方法 |
JP2012048597A (ja) * | 2010-08-30 | 2012-03-08 | Univ Of Tokyo | 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム |
JP2012168798A (ja) * | 2011-02-15 | 2012-09-06 | Sony Corp | 情報処理装置、オーサリング方法及びプログラム |
JP5777185B1 (ja) * | 2014-05-16 | 2015-09-09 | 株式会社ユニモト | 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム |
JP5914739B1 (ja) * | 2015-08-27 | 2016-05-11 | 株式会社コロプラ | ヘッドマウントディスプレイシステムを制御するプログラム |
-
2017
- 2017-05-11 WO PCT/JP2017/017878 patent/WO2017199848A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002271693A (ja) * | 2001-03-13 | 2002-09-20 | Canon Inc | 画像処理装置、画像処理方法、及び制御プログラム |
JP2005173042A (ja) * | 2003-12-09 | 2005-06-30 | Canon Inc | 携帯型情報装置及びその広告表示方法 |
JP2012048597A (ja) * | 2010-08-30 | 2012-03-08 | Univ Of Tokyo | 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム |
JP2012168798A (ja) * | 2011-02-15 | 2012-09-06 | Sony Corp | 情報処理装置、オーサリング方法及びプログラム |
JP5777185B1 (ja) * | 2014-05-16 | 2015-09-09 | 株式会社ユニモト | 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム |
JP5914739B1 (ja) * | 2015-08-27 | 2016-05-11 | 株式会社コロプラ | ヘッドマウントディスプレイシステムを制御するプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020054456A1 (ja) * | 2018-09-14 | 2020-03-19 | ソニー株式会社 | 表示制御装置および表示制御方法、並びにプログラム |
JP7578904B2 (ja) | 2020-11-30 | 2024-11-07 | マツダ株式会社 | 広告提供システム及び広告提供方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10539797B2 (en) | Method of providing virtual space, program therefor, and recording medium | |
JP6126271B1 (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
JP7042644B2 (ja) | 情報処理装置、画像生成方法およびコンピュータプログラム | |
WO2017086263A1 (ja) | 情報処理装置および画像生成方法 | |
CN111684393A (zh) | 在虚拟、增强或混合现实环境中生成和显示3d视频的方法和系统 | |
US12022357B1 (en) | Content presentation and layering across multiple devices | |
JP6126272B1 (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
JP6523493B1 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP6130478B1 (ja) | プログラム及びコンピュータ | |
US20230412897A1 (en) | Video distribution system for live distributing video containing animation of character object generated based on motion of actors | |
CN114327700A (zh) | 一种虚拟现实设备及截屏图片播放方法 | |
JP6306083B2 (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
JP6262283B2 (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
JP2017208808A (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
WO2017199848A1 (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
JP2017121082A (ja) | プログラム及びコンピュータ | |
JP6223614B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 | |
JP2017208809A (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
CN113574849A (zh) | 用于后续对象检测的对象扫描 | |
JP2017228322A (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
JP2023065528A (ja) | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム | |
JP2017201524A (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
JP7030075B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
WO2023242981A1 (ja) | ヘッドマウントディスプレイ、ヘッドマウントディスプレイシステム、および、ヘッドマウントディスプレイの表示方法 | |
WO2023248832A1 (ja) | 遠隔視認システム、現地撮像システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17799272 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17799272 Country of ref document: EP Kind code of ref document: A1 |