[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2018230443A1 - シミュレーションシステム、画像処理方法及び情報記憶媒体 - Google Patents

シミュレーションシステム、画像処理方法及び情報記憶媒体 Download PDF

Info

Publication number
WO2018230443A1
WO2018230443A1 PCT/JP2018/021916 JP2018021916W WO2018230443A1 WO 2018230443 A1 WO2018230443 A1 WO 2018230443A1 JP 2018021916 W JP2018021916 W JP 2018021916W WO 2018230443 A1 WO2018230443 A1 WO 2018230443A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
item
information
virtual space
game
Prior art date
Application number
PCT/JP2018/021916
Other languages
English (en)
French (fr)
Inventor
徹也 篠田
木元 昌洋
Original Assignee
株式会社バンダイナムコエンターテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社バンダイナムコエンターテインメント filed Critical 株式会社バンダイナムコエンターテインメント
Priority to CN201880038784.3A priority Critical patent/CN110769906B/zh
Priority to GB2000258.0A priority patent/GB2577464A/en
Publication of WO2018230443A1 publication Critical patent/WO2018230443A1/ja
Priority to US16/710,106 priority patent/US11090554B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Definitions

  • the present invention relates to a simulation system, an image processing method, an information storage medium, and the like.
  • a simulation system that generates an image that can be seen from a virtual camera in a virtual space.
  • a simulation system that realizes virtual reality (VR) by displaying an image seen from a virtual camera on an HMD (head-mounted display device)
  • VR virtual reality
  • Patent Document 1 a technique disclosed in Patent Document 1
  • Patent Document 2 a technique disclosed in Patent Document 2.
  • a simulation system in a system that displays an image of a virtual space, a simulation system, an image processing method, and information that enable acquisition of items in a natural form without impairing the sense of immersion of the game
  • a storage medium or the like can be provided.
  • One aspect of the present invention is an information acquisition unit that acquires user information including at least one of user position information, direction information, and posture information, a virtual space setting unit that performs virtual space setting processing, and the user
  • a moving body processing unit that performs a process of moving a user character in the virtual space, a game processing unit that performs a game process in the virtual space, and a display image that displays an image in the virtual space to the user
  • the game processing unit determines whether or not the user has performed an item acquisition operation based on the user information, and determines that the item acquisition operation has been performed.
  • a simulation system for performing processing for causing the user character to acquire the item
  • the present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.
  • user information including at least one of user position information, direction information, and posture information is acquired. Then, in the game in which the user character corresponding to the user moves in the virtual space, based on the acquired user information, it is determined whether or not an item acquisition operation has been performed, and it is determined that the item acquisition operation has been performed. A process for causing the user character to acquire an item is performed. This makes it possible to provide a simulation system and the like that can acquire items in a natural form without impairing the immersive feeling of the game in a system that displays an image of the virtual space.
  • the game processing unit determines whether or not the user in the basic posture state has performed the item acquisition operation based on the user information, and determines that the item acquisition operation has been performed. If the user character determines that the user has returned to the basic posture after the user character has acquired and held the item, the user character holds the item. The state may be released.
  • the user can release the possession state of the acquired item by a simple operation of returning to the basic posture state after acquiring and retaining the item.
  • the moving body processing unit performs a process of moving the moving body on which the user character is boarded in the virtual space, and the virtual space setting unit is An item area is set at a place where the user character cannot contact, and the game processing unit determines whether the user has performed the item acquisition operation toward the item in the item area based on the user information. If it is determined that the item acquisition operation has been performed, a process for acquiring the item by the user character may be performed.
  • the user character can get on the moving object and move in the virtual space, and the item area can be placed in a place where the user character cannot touch when the moving object is being operated in the normal operation state. Is set. Then, the user can acquire the item by performing an item acquisition operation toward the item in the item area.
  • the game processing unit may perform a process of storing the user information in the normal operation state of the user in a storage unit.
  • the virtual space setting unit may set the item area for a course along which the moving body moves.
  • the game processing unit performs an operation in which the user moves a predetermined part, and determines that the part of the user character corresponding to the predetermined part has approached the item. It may be determined that an acquisition operation has been performed.
  • the user can acquire an item by moving a predetermined part and bringing the corresponding part of the user character close to the item.
  • the game processing unit determines based on the user information that the user has performed an item use operation using the predetermined part while the user character has acquired and held the item.
  • the item use process may be executed.
  • a user will be able to perform various processing using an item by performing an item use operation using a predetermined part in the state where the acquired item is held in a user character. .
  • the information acquisition unit acquires part information including at least one of position information and direction information of the predetermined part as the user information
  • the virtual space setting unit includes the predetermined part.
  • the part of the user character corresponding to may be placed and set in the virtual space based on the part information, and the display processing unit may perform a process of displaying the part placed and set in the virtual space.
  • the part of the user character also moves in conjunction with it, and an image of the part is displayed.
  • the moving body processing unit may perform a process of moving the item in the moving direction of the moving body when the user character acquires the item.
  • the moving body processing unit may perform a process of moving the item acquired and held by the user character so as to follow the movement of the moving body.
  • the acquired and held item can be moved following the movement of the moving object, and the user can perform various operations using the item.
  • An item use process may be executed.
  • the game processing unit includes an operation direction of the item use operation, an intensity of the item use operation, the type of the item, the line-of-sight information of the user at the time of the item use operation, and the The item use process may be executed in accordance with at least one state of a predetermined part of the user who performs the item use operation.
  • the item use process can be executed by setting the execution content of the process.
  • the game processing unit cancels the item holding state of the user character when a given condition is satisfied in a state where the user character has acquired and held the item. May be.
  • the game processing unit may perform a notification process for notifying that the item has been acquired by an image, sound, or vibration when the item is acquired.
  • the virtual space setting unit may set the location of the item according to the physical information of the user.
  • the display processing unit may generate a display image of a head-mounted display device worn by the user so as to cover the field of view as the display image.
  • information acquisition processing for acquiring user information including at least one of user position information, direction information, and posture information, virtual space setting processing for performing virtual space setting processing, and the user
  • a moving body process for performing a process of moving the user character corresponding to the virtual character in the virtual space, a game process for performing a game process in the virtual space, and a display image for displaying an image in the virtual space to the user Display processing generated as follows, and in the game process, whether or not the user has performed an item acquisition operation is determined based on the user information, and if it is determined that the item acquisition operation has been performed,
  • the present invention relates to an image processing method for performing processing for causing the user character to acquire an item.
  • FIG. 5A and FIG. 5B are examples of game images generated by this embodiment.
  • 6A and 6B show examples of game images generated according to the present embodiment.
  • FIG. 7A and FIG. 7B are examples of game images generated by this embodiment.
  • FIG. 8A and FIG. 8B are examples of game images generated according to the present embodiment.
  • FIG. 9A and FIG. 9B are examples of game images generated by this embodiment.
  • FIGS. 17A to 17C are explanatory diagrams of a method for moving an item when acquiring an item.
  • FIG. 18 (A) to 18 (D) are explanatory diagrams of a method for setting an item placement location based on physical information. Explanatory drawing of the field used with the simulation system of the modification of this embodiment. The example of the game image produced
  • FIG. 21 (A) and FIG. 21 (B) are explanatory diagrams of item acquisition and possession in a modification of the present embodiment.
  • FIG. 22A and FIG. 22B are explanatory diagrams of the use of items in a modified example of the present embodiment.
  • FIG. 23 (A) and FIG. 23 (B) are explanatory diagrams of item acquisition, possession, and release of possession in a modification of the present embodiment.
  • the flowchart explaining the detailed process example of this embodiment The flowchart explaining the detailed process example of this embodiment.
  • FIG. 1 is a block diagram illustrating a configuration example of a simulation system (a simulator, a game system, and an image generation system) according to the present embodiment.
  • the simulation system of this embodiment is a system that simulates virtual reality (VR), for example, a game system that provides game content, a real-time simulation system such as a driving simulator and a sports competition simulator, a system that provides SNS services, and video
  • VR virtual reality
  • the present invention can be applied to various systems such as a content providing system that provides content such as an operating system that implements remote work.
  • the simulation system of the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of the components (each unit) or adding other components are possible.
  • the movable housing 30 (a housing in a broad sense) is a housing that changes a user's play position.
  • the movable housing 30 is called an arcade housing, for example, and serves as an outer shell of the apparatus of the simulation system, and does not need to be box-shaped.
  • the movable casing 30 may be a cockpit casing (sensory casing) in a car game, a robot game, an airplane game, or the like, or may be a casing of another form.
  • the movable housing 30 is a main part of the simulation system, and is provided with various devices and structures for realizing the simulation system. At least a play position is set in the movable housing 30.
  • a configuration example of the movable housing 30 will be described in detail with reference to FIG.
  • the operation unit 160 is for a user (player) to input various operation information (input information).
  • the operation unit 160 can be realized by various operation devices such as a handle, an accelerator pedal, a brake pedal, a lever, an operation button, a direction instruction key, or a voice input device.
  • the operation unit 160 is realized by the handle 50, the accelerator pedal 52, and the brake pedal 54 (not shown).
  • the storage unit 170 stores various types of information.
  • the storage unit 170 functions as a work area such as the processing unit 100 or the communication unit 196.
  • the game program and game data necessary for executing the game program are held in the storage unit 170.
  • the function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (Hard Disk Drive), SSD, optical disk device, or the like.
  • the storage unit 170 includes an object information storage unit 172, an initial setting information storage unit 174, and a drawing buffer 178.
  • the information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like.
  • the processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an input device, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.
  • the HMD 200 (head-mounted display device) is a device that is mounted on the user's head and displays an image in front of the user's eyes.
  • the HMD 200 is preferably a non-transmissive type, but may be a transmissive type.
  • the HMD 200 may be a so-called glasses-type HMD.
  • the HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. A modification in which a light emitting element is provided in the HMD 200 is also possible.
  • the sensor unit 210 is for realizing tracking processing such as head tracking, for example.
  • the position and direction of the HMD 200 are specified by tracking processing using the sensor unit 210.
  • the user's viewpoint position and line-of-sight direction can be specified.
  • the first tracking method which is an example of the tracking method
  • a plurality of light receiving elements are provided as the sensor unit 210, as will be described in detail with reference to FIGS. 2A and 2B described later.
  • the position of the HMD 200 (user's head) in the real world three-dimensional space, Identify the direction.
  • a plurality of light emitting elements LEDs are provided in the HMD 200 as will be described in detail with reference to FIGS. 3A and 3B described later.
  • a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor.
  • the motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor.
  • the position and direction of the HMD 200 in a three-dimensional space in the real world can be specified.
  • the position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method.
  • tracking processing that directly specifies the user's viewpoint position and line-of-sight direction may be employed.
  • the display unit 220 of the HMD 200 can be realized by, for example, an organic EL display (OEL) or a liquid crystal display (LCD).
  • the display unit 220 of the HMD 200 includes a first display or first display area set in front of the user's left eye and a second display or second display area set in front of the right eye. It is provided and stereoscopic display is possible.
  • stereoscopic display for example, a left-eye image and a right-eye image with different parallax are generated, a left-eye image is displayed on the first display, and a right-eye image is displayed on the second display. To do.
  • the left-eye image is displayed in the first display area of one display, and the right-eye image is displayed in the second display area.
  • the HMD 200 is provided with two eyepiece lenses (fisheye lenses) for the left eye and the right eye, thereby expressing a VR space that extends over the entire perimeter of the user's field of view. Then, correction processing for correcting distortion generated in an optical system such as an eyepiece is performed on the left-eye image and the right-eye image. This correction process is performed by the display processing unit 120.
  • the processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. Further, the processing unit 240 may perform a three-dimensional sound (stereoscopic sound) process to realize reproduction of a three-dimensional sound direction, distance, and spread.
  • a three-dimensional sound stereographic sound
  • the sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, a speaker or headphones.
  • the I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and its function can be realized by an ASIC for I / F processing or the like.
  • the portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied.
  • the portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.
  • the communication unit 196 communicates with the outside (another apparatus) via a wired or wireless network, and functions thereof are hardware such as a communication ASIC or communication processor, or communication firmware. Can be realized.
  • a program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. May be. Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.
  • the processing unit 100 is used for operation information from the operation unit 160, tracking information in the HMD 200 (information on at least one of the position and direction of the HMD, information on at least one of the viewpoint position and the line-of-sight direction), a program, and the like. Based on this, game processing (simulation processing), virtual space setting processing, moving body processing, virtual camera control processing, display processing, sound processing, or the like is performed.
  • each process (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware).
  • each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program.
  • the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware.
  • the processor may include hardware, and the hardware may include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal.
  • the processor can be configured by one or a plurality of circuit devices (for example, ICs) mounted on a circuit board or one or a plurality of circuit elements (for example, resistors, capacitors, etc.).
  • the processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (GraphicsGProcessing Unit) or a DSP (Digital Signal Processor) can be used.
  • the processor may be an ASIC hardware circuit.
  • the processor may include an amplifier circuit, a filter circuit, and the like that process an analog signal.
  • the memory storage unit 170
  • the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor.
  • the instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.
  • the processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140.
  • the arithmetic processing unit 110 includes an information acquisition unit 111, a virtual space setting unit 112, a moving body processing unit 113, a virtual camera control unit 114, a game processing unit 115, a control unit 117, a display processing unit 120, and a sound processing unit 130.
  • each process of the present embodiment executed by these units can be realized by a processor (or a processor and a memory).
  • Various modifications such as omitting some of these components (each unit) or adding other components are possible.
  • the input processing unit 102 performs processing for receiving operation information and tracking information, processing for reading information from the storage unit 170, and processing for receiving information via the communication unit 196 as input processing.
  • the input processing unit 102 stores, in the storage unit 170, processing for acquiring operation information input by the user using the operation unit 160, tracking information detected by the sensor unit 210 of the HMD 200, and the information specified by the read command.
  • a process for reading data from a computer or a process for receiving information from an external device (such as a server) via a network is performed as an input process.
  • the reception process includes a process of instructing the communication unit 196 to receive information, a process of acquiring information received by the communication unit 196, and writing the information in the storage unit 170, and the like.
  • the arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as information acquisition processing, virtual space setting processing, moving body processing, virtual camera control processing, game processing (simulation processing), display processing, or sound processing is performed.
  • arithmetic processing such as information acquisition processing, virtual space setting processing, moving body processing, virtual camera control processing, game processing (simulation processing), display processing, or sound processing is performed.
  • the information acquisition unit 111 (program module for information acquisition processing) performs various information acquisition processing. For example, the information acquisition unit 111 acquires position information of the user wearing the HMD 200 and the like. The information acquisition unit 111 may acquire user direction information, posture information, movement information, and the like.
  • the virtual space setting unit 112 (program module for virtual space setting processing) performs setting processing for a virtual space (object space) in which objects are arranged. For example, moving objects (cars, people, robots, trains, airplanes, ships, monsters, animals, etc.), maps (terrain), buildings, auditoriums, courses (roads), items, trees, walls, water surfaces, etc.
  • objects to be represented objects composed of primitive surfaces such as polygons, free-form surfaces, or subdivision surfaces are arranged and set in the virtual space.
  • the position and rotation angle (synonymous with direction and direction) of the object in the world coordinate system are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z).
  • Arrange objects Specifically, in the object information storage unit 172 of the storage unit 170, object information that is information such as the position, rotation angle, moving speed, and moving direction of an object (part object) in the virtual space is associated with the object number. Is memorized.
  • the virtual space setting unit 112 performs a process of updating the object information for each frame, for example.
  • the moving body processing unit 113 performs various processes on the moving body moving in the virtual space. For example, processing for moving the moving body in virtual space (object space, game space) and processing for moving the moving body are performed.
  • the mobile object processing unit 113 is based on operation information input by the user through the operation unit 160, acquired tracking information, a program (movement / motion algorithm), various data (motion data), and the like.
  • Control processing for moving the model object) in the virtual space or moving the moving object (motion, animation) is performed. Specifically, a simulation for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (for example, 1/60 second). Process.
  • a frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object.
  • the moving body is, for example, a user moving body corresponding to a user (player) in real space.
  • the moving body is a user character (avatar, player character) in a virtual space corresponding to a user in real space, or a moving body (boarding moving body, operation moving body) on which the user character is boarded (operated).
  • the virtual camera control unit 114 controls the virtual camera. For example, a process for controlling the virtual camera is performed based on user operation information, tracking information, and the like input by the operation unit 160.
  • the virtual camera control unit 114 controls the virtual camera set as the first-person viewpoint or the third-person viewpoint of the user. For example, by setting a virtual camera at a position corresponding to the viewpoint (first-person viewpoint) of a user moving body moving in the virtual space, and setting the viewpoint position and line-of-sight direction of the virtual camera, the position (positional coordinates) of the virtual camera And control the attitude (rotation angle around the rotation axis). Alternatively, by setting a virtual camera at the position of the viewpoint (third-person viewpoint) following the moving body (user character, boarding moving body), and setting the viewpoint position and line-of-sight direction of the virtual camera, Control attitude.
  • the virtual camera control unit 114 controls the virtual camera so as to follow the change of the user's viewpoint based on the tracking information of the user's viewpoint information acquired by the viewpoint tracking.
  • tracking information viewpoint tracking information
  • This tracking information can be acquired by performing tracking processing of the HMD 200, for example.
  • the virtual camera control unit 114 changes the viewpoint position and the line-of-sight direction of the virtual camera based on the acquired tracking information (information on at least one of the user's viewpoint position and the line-of-sight direction).
  • the virtual camera control unit 114 is configured so that the viewpoint position and the line-of-sight direction (position and posture) of the virtual camera change in the virtual space according to changes in the viewpoint position and the line-of-sight direction of the user in the real space. Set up the camera. By doing in this way, a virtual camera can be controlled to follow a user's viewpoint change based on tracking information of a user's viewpoint information.
  • the game processor 115 performs various game processes for the user to play the game.
  • the game processing unit 115 simulate processing unit executes various simulation processes for the user to experience virtual reality (virtual reality).
  • the game process is, for example, a process for starting a game when a game start condition is satisfied, a process for advancing the started game, a process for ending a game when a game end condition is satisfied, or calculating a game result. Processing.
  • the control unit 117 (control processing program module) performs control processing of the movable housing 30 and the like. For example, control for changing the play position of the user by the movable housing 30 is performed.
  • the display processing unit 120 performs display processing of a game image (simulation image). For example, a drawing process is performed based on the results of various processes (game process, simulation process) performed by the processing unit 100, thereby generating an image and displaying it on the display unit 220. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, ⁇ value, etc.) are created.
  • the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.).
  • an image that can be seen from the virtual camera given viewpoints, the first and second viewpoints for the left eye and the right eye
  • the drawing processing performed by the display processing unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.
  • the sound processing unit 130 performs sound processing based on the results of various processes performed by the processing unit 100. Specifically, game sounds such as music (music, BGM), sound effects, or sounds are generated, and the game sounds are output to the sound output unit 192. Note that part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.
  • the output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs processing for writing information in the storage unit 170 and processing for transmitting information via the communication unit 196 as output processing. For example, the output processing unit 140 performs a process of writing information specified by a write command in the storage unit 170 or a process of transmitting information to an external apparatus (server or the like) via a network.
  • the transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information.
  • the simulation system of this embodiment contains the information acquisition part 111, the virtual space setting part 112, the mobile body process part 113, the game process part 115, and the display process part 120, as shown in FIG.
  • the information acquisition unit 111 acquires user information including at least one of user position information, direction information, and posture information.
  • the information acquisition unit 111 is based on tracking information from the HMD 200, tracking information from a tracking device (for example, tracking devices 250 and 260 described later) attached to a predetermined part (such as a hand, foot, or head) of the user.
  • a tracking device for example, tracking devices 250 and 260 described later
  • user information including at least one of user position information, direction information, and posture information in real space is acquired.
  • the position information may be position information of the user's viewpoint in real space
  • the direction information may be direction information of the user's line of sight in real space.
  • the position information and the direction information are obtained when the user plays in a real space (real world) field (play field, simulation field, play area) or the movable housing 30, It may be direction information (position coordinates in a coordinate system with a given position as an origin, rotation angle around each coordinate axis).
  • Posture information is information for specifying each posture of the user (standing posture, crouching posture, sitting posture, etc.) or specifying the position and direction of each part of the user (body, head, hand, foot, etc.). is there.
  • the posture information may be information specified by tracking information from a tracking device attached to a predetermined part of the user, or may be information specified by motion tracking such as Kinect (registered trademark). Good.
  • the user information can include part information including at least one of position information and direction information of a predetermined part of the user.
  • the information acquisition unit 111 acquires the position information and direction information of the HMD 200 as the position information and direction information of the user wearing the HMD 200, or the position information and direction information of the tracking device attached to the predetermined part of the user.
  • the position information and direction information of the predetermined part of the user may be acquired.
  • the virtual space setting unit 112 performs virtual space setting processing. For example, a process of placing and setting an object such as a moving object, item, course object, background object, or map object in the virtual space is performed. For example, the virtual space setting unit 112 performs processing for setting a moving body that moves based on operation information from the operation unit 160 in the virtual space. In addition, a process is performed in which an item to be acquired is arranged and set in an item area set in a course in which the moving body moves. Information such as the position and direction of an object such as a moving object or item is stored in the object information storage unit 172, for example.
  • the moving object processing unit 113 performs a process of moving the moving object in the virtual space (game space) set by the virtual space setting unit 112. For example, a process of moving a user character corresponding to the user in the virtual space is performed. For example, the user character is moved in the virtual space based on the user information acquired by the information acquisition unit 111 or the operation information from the operation unit 160. In this case, the user character itself may move, or the moving body on which the user character is boarded may move in the virtual space so that the user character moves in the virtual space following it.
  • the game processing unit 115 performs game processing in a virtual space. For example, various processes for a user to play a game in a virtual space are performed.
  • the display processing unit 120 performs processing for generating an image in the virtual space as a display image to be displayed to the user. For example, an image visible from a virtual camera in the virtual space is generated as a display image to be displayed to the user. Specifically, the display processing unit 120 generates an image in the virtual space as a display image of the HMD 200 worn by the user so as to cover the field of view. For example, the virtual camera control unit 114 performs a virtual camera control process corresponding to the viewpoint of the user wearing the HMD 200. For example, the virtual camera control unit 114 controls the virtual camera set as the first-person viewpoint of the user.
  • the display process part 120 produces
  • display images display video
  • HMD200 display images
  • an image that is visible from a given viewpoint is generated in an object space that is a virtual space.
  • the generated image is, for example, a stereoscopic image.
  • the game processing unit 115 determines whether or not the user has performed an item acquisition operation based on the user information. For example, whether or not the user has performed an item acquisition operation is determined based on part information that is at least one of position information and direction information of a predetermined part such as the user's hand. If the game processing unit 115 determines that an item acquisition operation has been performed, the game processing unit 115 performs processing for causing the user character to acquire the item. For example, the process which registers an item as a possession item of a user character is performed. For example, the game processing unit 115 performs a process of storing the item in the storage unit 170 (object information storage unit 172) in association with the user character information. For example, an item is registered and held as part of the user character. When the predetermined part for acquiring the item is the hand, the item object is connected to the hand object so as to follow the bone of the hand in the motion data.
  • the game processing unit 115 performs a process of canceling the item possession state of the user character. For example, the game processing unit 115 determines whether or not the user in the basic posture state (normally the steering state in a narrow sense) has performed the item acquisition operation based on the user information (user information), and determines that the item acquisition operation has been performed. In this case, a process for causing the user character to acquire an item is performed. Then, after the user character acquires and holds the item, the item holding state of the user character is canceled when it is determined that the user has returned to the basic posture state. That is, when the user returns to the basic posture state with the item held, the item acquisition / holding registration is canceled, and the item is deleted or hidden.
  • the basic posture state is a posture determined as a basic posture (standard posture, normal posture) of the user at the time of game play such as a battle game.
  • the basic posture state is a normal posture by lowering at least one hand. It is in a state of taking a posture.
  • the release of the possession state of the item only needs to be in a state where at least the item is not connected to the part of the user character.
  • the item whose possession state has been released is temporarily disabled. You may be able to stock.
  • the use processing of the item can be executed.
  • the stocked item is stored, and when the usable condition is satisfied, the item is connected to the part of the user character, and when the user performs the item use operation, the item use process is executed.
  • the moving object processing unit 113 performs a process of moving the moving object on which the user character is boarded in the virtual space.
  • the moving body on which the user character is boarded in the virtual space the user character also moves in the virtual space following it.
  • the virtual space setting unit 112 sets an item area (sets an item) in a place (item placement location) where the user character cannot touch (reach) in the normal steering state of the user.
  • the normal maneuvering state (basic posture state or normal posture state in a broad sense) is a state in which the user is maneuvering the moving body on which the user character is boarded without performing an operation such as item acquisition.
  • An example is a state in which operating members such as a handle and a control lever are operated with both hands.
  • the item is arranged in a place where the user character cannot touch (a place that cannot be reached) in such a normal control state. For example, when the user character is operating an operation member such as a handle with both hands, the item is arranged in a place where it cannot be touched.
  • the game processing unit 115 uses, for example, user information (part information of a predetermined part such as a hand) as to whether or not the user has performed an item acquisition operation in the direction of the item in the item area (the direction of the item placement location). Judge based. And when it is judged that the item acquisition operation
  • the game processing unit 115 performs processing for storing the user information in the normal operation state (basic posture state) of the user in the storage unit 170.
  • the user takes a posture (basic posture) in a normal maneuvering state
  • part information of a predetermined part in the normal maneuvering state is stored in, for example, the initial setting information storage unit 174 of the storage unit 170. Is stored as initial setting information. If the part information in the normal maneuvering state is stored in this way, the part information of the predetermined part in the normal maneuvering state according to the user's physique (physical information), the position and posture of the user in the movable housing 30, and the like. Is stored in the storage unit 170. Then, by using the part information that is the initial setting information, whether or not the user is in the normal maneuvering state during the game does not depend on the user's physique or the position and posture of the user on the movable housing 30. Will be able to judge.
  • the virtual space setting unit 112 sets an item area for the course on which the moving body moves.
  • an item area is set on the course of the racing game or along the course. In this way, in a game such as a race game in which the moving body moves along the course, the item area can be set at a place where an item can be acquired by the character boarding the moving body.
  • the game processing unit 115 determines that an item acquisition operation has been performed when the user performs an operation of moving a predetermined part. For example, when the user performs an action of moving a predetermined part and determines that the part (part object) of the user character corresponding to the predetermined part has approached (arrived) the item, an item acquisition operation is performed (the item is acquired) Judged). For example, when it is determined that the predetermined part of the user approaches the direction of the installation location of the item and the predetermined part and the item are hit, it is determined that the item acquisition operation has been performed.
  • the hit determination process (intersection) between the hit volume (or the predetermined part itself) set for the part of the user character (part corresponding to the predetermined part) and the hit volume (or the item itself) set for the item If it is determined that the item has been hit, it is determined that the item acquisition operation has been performed. Alternatively, it is determined that the item acquisition operation has been performed when the distance between the part of the user character and the item is equal to or less than a given distance.
  • the predetermined part is a part used for the item acquisition operation, and is a part of the user such as a hand, a foot, or a head.
  • the part of the user character is a part corresponding to a predetermined part of the user, and is a part (part object) such as a hand, a foot, or a head of the user character.
  • the game processing unit 115 executes item use processing when it is determined that the user has performed an item use operation. For example, when the user character has acquired and held the item and the user performs an item use operation using a predetermined part based on the user information (part information), the item use process is executed.
  • the item use process is a process of moving an item held by the user character, for example, or exerting the effect of the item. Specifically, a process of moving an item held by the user character by throwing or shaking, a process of displaying an effect image by the item, or an item hitting a target (target object) such as an enemy moving object This is a process for demonstrating the effect of an item, such as giving damage, changing the movement state of the target, or changing various game parameters of the target.
  • the information acquisition unit 111 acquires part information including at least one of position information and direction information of a predetermined part as user information. For example, when the user moves a predetermined part, the position or direction of the predetermined part is tracked by a tracking device or the like attached to the predetermined part, and tracking information obtained by this tracking is acquired as part information. Then, the virtual space setting unit 112 places and sets the part of the user character corresponding to the predetermined part (for example, a part object representing a part such as a hand, a leg, or a head) in the virtual space based on the part information. For example, the part of the user character is arranged and set at a position and direction corresponding to the position and direction of the predetermined part of the user in the real space.
  • the predetermined part for example, a part object representing a part such as a hand, a leg, or a head
  • the part of the user character is moved so as to be interlocked with the predetermined part of the user.
  • the display process part 120 performs the process which displays the site
  • the moving object processing unit 113 performs a process of moving the item in the moving direction of the moving object when acquiring the item of the user character. For example, when it is determined that the part of the user character has approached the item, the item is moved in a direction corresponding to the moving direction of the moving body on which the user character is boarded (the moving direction of the user character).
  • the moving speed of the item is, for example, a speed equal to or lower than the moving speed of the moving body.
  • the setting of the item moving speed may be changed according to the user's game level, handy setting, and the like. In this way, the item can be easily acquired by moving the item in conjunction with the movement of the moving body.
  • the moving body processing unit 113 performs a process of moving the acquired item.
  • the process which moves the item acquired by the user character and brought into the possessed state is made to follow the movement of the moving body (user character).
  • the moving body user character
  • the item depends on the user character.
  • the moving body on which the user character is boarded moves, the item also moves according to the movement.
  • the game processing unit 115 executes the item use processing when it is determined based on the user information that the user has performed the item use operation while the user character has acquired and held the item. For example, when the user performs an operation that uses an item, if it is determined based on user information including the user's position information, direction information, and posture information, the item use process is executed, and the item is thrown or shaken. The process to move and the process to show the effect of the item is executed.
  • the game processing unit 115 determines the direction of the item use action, the strength of the item use action, the item type, the user's line-of-sight information during the item use action, and the state of the predetermined part of the user who performs the item use action
  • the item use process is executed according to at least one of the following. For example, the presence / absence of execution of the item use processing is determined or the execution content is set according to the direction of operation, strength, type, line-of-sight information, or the state of a predetermined part.
  • the operation direction of the item use operation is the operation direction when the user performs an operation of moving the item by, for example, throwing or shaking the item.
  • the strength of the item use operation is the strength of the operation represented by the speed or acceleration of the operation when the user performs an operation of moving the item by throwing or shaking, for example.
  • the item type represents the type of item acquired by the user character. For example, depending on the type of item, the shape of the item, the image, or the effect exhibited during the item use process differs.
  • the user's line-of-sight information at the time of the item use operation is the direction in which the user's line of sight faces when performing an operation such as throwing an item. For example, when an operation of throwing an item is performed while directing the line of sight in a predetermined direction such as upward, the item is moved in the direction of the line of sight.
  • the state of the predetermined part of the user when performing the item use operation is a state such as the direction (posture, rotation angle around the predetermined coordinate axis) or position of the predetermined part during the item use operation. For example, it is determined whether or not an item use operation is performed according to a state such as a direction of a predetermined part, or a moving direction of an item due to the item use operation is determined.
  • the game processing unit 115 cancels the item holding state of the user character when a given condition is satisfied in a state where the user character has acquired and holding the item. For example, when a given condition is satisfied when the item is held, the acquisition of the item and registration of holding are canceled, and the held item is erased and hidden, for example.
  • the given condition for releasing the item holding state is, for example, when a given time has passed since the item was acquired (held), when a specific game situation occurs, or in the normal maneuvering state as described above. This is true when returning to the (basic posture state).
  • the specific game situation is a specific situation in a predetermined game such as a collision of the moving body or a jump of the moving body.
  • the game processing unit 115 performs an item acquisition notification process. For example, when an item is acquired, a notification process for notifying that the item has been acquired by an image, sound, or vibration is performed. This notification process is executed by the notification processing unit 116 of the game processing unit 115. For example, when an item is acquired, an image of the item or an image of a display object around the item is changed, a specific game sound (sound effect) that notifies the acquisition of the item is output, the operation unit 160 or the movable casing is output. A process of vibrating the body 30 is performed.
  • the notification process can be realized by various sensation devices (sound sensation devices such as sound, vibration, air cannon, or light) provided in the movable housing 30.
  • the virtual space setting unit 112 may set the item placement location according to the user's physical information. For example, according to physical information such as the size of the user's physique, the item placement location is varied. For example, when the user is an adult (when the height is high), the item is placed at a high place, and when the user is a child (when the height is low), the item is placed at a low place. Moreover, you may set the arrangement
  • the user's physical information may be, for example, input by the user before the game starts, or may be initially set, or the user's physical information may be automatically acquired using a sensor or the like. For example, the information acquisition unit 111 performs the physical information acquisition process.
  • the display processing unit 120 generates a display image of the HDM 200 that the user wears so as to cover the field of view as the display image.
  • the display processing unit 120 may generate a display image of a display unit other than the HMD 200. For example, a display image of a display unit such as a television in a home game device, a monitor display in a personal computer, or an arcade game device may be generated.
  • a virtual reality simulation process is performed as the game process of the game played by the user.
  • the virtual reality simulation process is a simulation process for simulating an event in the real space in the virtual space, and is a process for causing the user to experience the event virtually. For example, a user character corresponding to a user in the real space or a moving body such as a boarding moving body is moved in the virtual space, or a process for causing the user to experience changes in the environment and surroundings associated with the movement is performed.
  • the processing of the simulation system of this embodiment shown in FIG. 1 includes processing devices such as arcade game devices and home game devices, processing devices such as PCs installed in facilities, and processing devices (back Pack PC) or distributed processing of these processing devices. Or you may implement
  • FIG. 2A shows an example of the HMD 200 used in the simulation system of this embodiment.
  • the HMD 200 is provided with a plurality of light receiving elements 201, 202, and 203 (photodiodes).
  • the light receiving elements 201 and 202 are provided on the front side of the HMD 200, and the light receiving element 203 is provided on the right side of the HMD 200.
  • a light receiving element (not shown) is also provided on the left side, upper surface, and the like of the HMD.
  • the user US wears the tracking devices 250 and 260 in a hand which is a predetermined part.
  • the tracking device 250 attached to the right hand is provided with a plurality of light receiving elements 251 to 254.
  • the tracking device 260 attached to the left hand is also provided with a plurality of light receiving elements 261 to 264 (not shown).
  • part information such as the position and direction of a predetermined part such as a hand.
  • the predetermined part of the user US to which the tracking device is attached is not limited to the hand (back of the hand), and various parts such as a foot, a head, a chest, an abdomen, or a waist can be assumed.
  • base stations 280 and 284 are installed around the movable casing 30.
  • the base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286.
  • the light emitting elements 281, 282, 285, and 286 are realized by LEDs that emit laser (infrared laser or the like), for example.
  • the base stations 280 and 284 use these light emitting elements 281, 282, 285, and 286 to emit, for example, a laser beam radially.
  • the 2A receive the lasers from the base stations 280 and 284, whereby the tracking processing of the HMD 200 is realized and the head position of the user US is pointed.
  • the direction (viewpoint position, line-of-sight direction) can be detected.
  • position information and posture information (direction information) of the user US can be detected.
  • the light receiving elements 251 to 254 and 261 to 264 provided in the tracking devices 250 and 260 receive the laser from the base stations 280 and 284, so that the position and direction of the user's US hand (predetermined part in a broad sense) are detected. At least one of them can be detected.
  • FIG. 3A shows another example of the HMD 200.
  • a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by LEDs, for example.
  • the light emitting elements 231 to 234 are provided on the front side of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in a visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors.
  • the tracking device 250 worn by the user US on the hand predetermined site
  • the tracking device 260 is provided with light emitting elements 265 and 266 (not shown).
  • the imaging unit 150 shown in FIG. 3B is installed in at least one place around the user US (for example, the front side, the front side, the rear side, or the like).
  • Image up to 236 lights that is, spot images of these light emitting elements 231 to 236 are reflected in the captured image of the imaging unit 150.
  • the tracking of the user's US head (HMD) is implement
  • the imaging unit 150 includes first and second cameras 151 and 152, and the first and second cameras 151 and 152 of the first and second cameras 151 and 152 are provided.
  • the position of the head of the user US in the depth direction can be detected.
  • the rotation angle (line of sight) of the head of the user US can also be detected. Therefore, by using such an HMD 200, when the user US faces in any direction of all 360 degrees around the image, the image (the user's virtual space in the virtual space (virtual three-dimensional space)) Image viewed from a virtual camera corresponding to the viewpoint) can be displayed on the display unit 220 of the HMD 200.
  • the user US's hand (right hand, At least one of the position and direction of the left hand) can be detected.
  • the light-emitting elements 231 to 236, 255, 256, 265, and 266, infrared LEDs instead of visible light may be used.
  • the position or movement of the user's head or hand (predetermined part) may be detected by another method such as using a depth camera.
  • the tracking processing method for detecting the position information and posture information of the user US and the user US's hand is not limited to the method described with reference to FIGS. 2 (A) to 3 (B).
  • the position information, the direction information, and the posture information may be detected by performing tracking processing of the HMD 200 and the tracking devices 250 and 260 using a motion sensor or the like provided in the HMD 200 or the tracking devices 250 and 260. That is, tracking processing is realized without providing external devices such as the base stations 280 and 284 in FIG. 2B and the imaging unit 150 in FIG.
  • various viewpoint tracking methods such as known eye tracking, face tracking, or head tracking may be used. Or you may use the method of the motion tracking which detects and identifies a user's motion (motion data).
  • FIG. 4 is a perspective view of the movable housing 30.
  • a cover portion 33 is provided on the bottom portion 32, and a base portion 34 (pedestal portion) is provided thereon.
  • the base portion 34 is provided so as to face the bottom portion 32.
  • the base portion 34 is provided with a ride portion 60 having a seat 62.
  • the user US is seated on the seat 62 of the ride unit 60.
  • the base portion 34 is provided with a moving portion 40, and the moving portion 40 is provided with operation portions 160 such as a handle 50, an accelerator pedal 52, and a brake pedal 54 (not shown).
  • the moving unit 40 is provided with a blower 80 that blows air to the user.
  • the blower 80 is realized by, for example, a sirocco fan.
  • the moving unit 40 is movable in the front-rear direction as indicated by E1 in FIG. Specifically, a movement unlocking lever (not shown) is provided, and the movement of the moving unit 40 is unlocked by the user operating the lever.
  • the user can move the moving unit 40 along the direction indicated by E1 in 10 steps, for example, every 2 cm. As a result, it is possible to adjust the operation unit 160 such as the handle 50 at a position optimal for the user.
  • the movable casing 30 is a casing (an arcade casing, a cockpit casing, etc.) that changes the play position of the user.
  • the movable housing 30 changes the play position of the user according to the result (game situation) of the game processing of the game processing unit 115 (processing unit 100) in FIG.
  • the game processing unit 115 performs a virtual reality simulation process as a game process of a game played by the user.
  • the mobile body car, robot, etc.
  • casing 30 changes a play position based on the result of the simulation process which is a game process.
  • the play position is changed based on the result of movement processing in the virtual space of the moving body (or user character) on which the user character is boarded.
  • a process of changing the play position is performed as a simulation process for causing the user to experience acceleration associated with acceleration, deceleration, or change in direction when a car (racing car) moves.
  • the process which changes a play position is performed as a simulation process for making a user experience the impact.
  • the play position is a play position where the user is located when playing a virtual reality (VR) simulation game.
  • the play position is a ride position of the ride unit 60 of the user.
  • the play position is, for example, a seating position that is a ride position of the seat 62.
  • the play position is a straddling position.
  • the play position is, for example, a standing position at the ride section.
  • the simulation system of the present embodiment includes the movable casing 30 that can change the play position of the user based on the result of the game process (game situation).
  • the play position for example, it is possible to allow the user to experience a change in acceleration associated with the movement of the user character's boarding moving body (car, robot) in the virtual space. It is possible to improve virtual reality.
  • first to fourth air spring portions (not shown) (expandable portions in a broad sense) are provided at the four corners.
  • These first to fourth air springs expand and contract in the Y-axis direction of FIG. 4 by supplying and discharging air using an air compressor and bubbles.
  • the base portion 34 can be moved upward or downward in the Y-axis direction. Due to the movement of the base portion 34 in the vertical direction, for example, the road surface state of the course can be reproduced. For example, road surface irregularities (rattle roads) can be expressed by moving the base portion 34 in the vertical direction with a small stroke and at a high speed.
  • the base part 34 can be pitched around the X axis by extending one of the first to fourth air springs at the four corners and extending one of the front and rear air springs and contracting the other air spring. it can. Further, one of the left and right air spring portions of the first to fourth air spring portions at the four corners extends and the other air spring portion contracts, whereby the base portion 34 can be rolled around the Z axis.
  • the method of this embodiment will be described.
  • the method of the present embodiment includes various games other than racing games (competition games other than cars, robot games, battle games such as first person shooter (FPS) and fighting games), simulation games for vehicles such as trains and airplanes, RPG , An action game, a virtual experience game, a sports game, a horror experience game, a music game, etc.) and can be applied to other than games.
  • a technique for realizing acquisition and use of items in a natural manner without impairing the immersive feeling of the game in a game of manipulating a moving body in a virtual space Specifically, in the present embodiment, in a game played by a user (player) in a virtual space, the user controls a moving body (including a user character in FPS or the like) and calculates a game situation in the virtual space. Is done. The user's position, direction, or posture is detected by the HMD or tracking device.
  • the area where the item is installed which is in a position that cannot be reached (contacted) in the normal state of the user who steers the moving body, and the user (avatar) moves in the direction (up / down / left / right) of the area
  • an item area is set in which items in the area can be acquired. Then, an item can be acquired when a user's given operation (movement and approaching above a threshold) is detected.
  • a race game realized by the method of this embodiment will be described.
  • a user character in a virtual space corresponding to a user in real space becomes a driver and rides on a car (racing car) to drive and compete with enemy vehicles.
  • An item area is set in the course, and by acquiring and using items in this item area, the racing game can be advanced.
  • FIGS. 5A to 9B are examples of game images generated according to the present embodiment
  • FIGS. 10A to 12B are diagrams for explaining the operation of the user during game play. is there.
  • FIG. 10A shows a case where the user US is in a normal steering state (basic posture state), and the user US is driving the vehicle by holding the handle 50 with both the right and left hands as shown in A1.
  • a game image as shown in FIGS. 5A and 5B is displayed on the HMD 200 of the user US.
  • a user's car CP moving body in a broad sense
  • an enemy vehicle CE enemy moving body traveling on a virtual space course
  • the handle ST of the car CP and the hands HR and HL (parts) of the user character (player character) who operates the handle ST are also displayed.
  • items are arranged in the item area along the course.
  • the bomb item BM is attached to the balloon BAL and appears in front of the vehicle CP driven by the user character.
  • the user US in the real space lifts his right hand away from the handle 50 as shown in A2, for example, and raises it up as shown in A3.
  • Information on the position and direction of the right hand is acquired by the tracking device 250 as hand part information.
  • the tracking device 250 detects the position and direction of the hand of the user US, and the position and direction of the hand HR in the virtual space also change based on the detection result.
  • the item BM is arranged at the height of the hand HR raised in this way. That is, it is a position that cannot be contacted in the normal operation state (two-handed operation) as shown in FIG. 10A, and a position that can be contacted in the non-normal operation state (one-handed operation) as shown in FIG. Item BM is arranged.
  • the hand HR of the user character in the virtual space moves, the hand HR approaches (contacts) the item BM, and the item BM is successfully acquired.
  • the item US is acquired by the user US performing the item acquisition operation.
  • a notification process for notifying that the item BM has been acquired is performed using an image, sound, vibration, or the like.
  • the item BM becomes in possession state, and the bomb item BM moves together with the hand HR.
  • the item BM moves so as to follow the movement of the hand HR (hand bone) of the user character.
  • the item BM is registered as a part object subordinate to the hand HR.
  • the user US who has successfully acquired the bomb item BM performs an item use operation as shown in B1 of FIG. 11, for example. For example, in an overslow form, waving from the front side to the back side as seen from the viewpoint, and throwing a bomb. Then, as shown in FIG. 7A, the action of the user character's hand HR throwing the bomb item BM is performed also in the virtual space. For example, while holding the handle ST with the left hand HL, an operation of throwing the item BM with the right hand HR is performed. As a result, the bomb item BM is thrown toward the enemy vehicle CE and flies away. That is, the item use process is executed.
  • FIG. 8A a hammer item HM attached to the balloon BAL appears. Then, as the user US performs the item acquisition operation, in FIG. 8B, the item HM is successfully acquired by the hand HR, and the item HM is in the possessed state. That is, the item HM moves together with the hand HR as if it had a hammer with a hand.
  • FIG. 12 (A) As shown to B2, the user US is performing the operation
  • movement As a result, as shown in FIG. 9A, even in the virtual space, the user character's hand HR moves in the vertical direction with the hammer item HM.
  • FIG. 9B since the hammered item HM hits the enemy vehicle CE, an image of the effect EF indicating that the hammer hits is displayed, and damage is given to the enemy vehicle CE.
  • the operation of throwing the bomb item BM is performed only when the hand is waved from the near side to the far side in the overslow form.
  • the operation of throwing the bomb item BM is not performed.
  • an operation of throwing the bomb item BM is performed.
  • the operation direction of the item use operation, the strength (speed) of the item use operation, or the state (position, direction) of the hand HR (predetermined part) of the user US when performing the item use operation is executed according to the above. For example, it is determined whether or not the item use process is executed, and the content (level) of the execution process is set.
  • a user can take a real bomb with his / her hand and throw it against an enemy vehicle, or grasp a real hammer with his / her hand and hit the enemy vehicle.
  • Such virtual reality can be obtained.
  • the movement of the user's hand is detected by the tracking device, the movement of the user's hand in the real space and the movement of the user character's hand in the virtual space are linked. Therefore, there is an advantage that the virtual reality can be greatly improved as compared with a method of performing an operation of throwing a bomb using an operation member such as a keyboard, a mouse, or a game controller.
  • a user who is in a normal maneuvering state in real space performs an item acquisition operation by moving one hand away from the handle 50, for example.
  • Items can be acquired.
  • an item area is set at a place where the user character cannot touch in the normal steering state of the user.
  • the user is in a normal maneuvering state, and the user character CH corresponding to the user rides on the car CP and travels on the course CS. Since the user is in a normal maneuvering state in which the user grips the handle with both hands, the user character CH who drives the car CP in the virtual space is also in a normal maneuvering state in which the user holds the handle ST with both hands.
  • the item area AR in which the items HM and BM are arranged is set to a place where the user character CH cannot contact when the user is in the normal operation state.
  • the item area and the item arrangement method are not limited to the method shown in FIG. 13, and for example, the item area and the item may be arranged in a place where the item area and the item can be contacted even in the normal operation state.
  • a process for causing the user character to acquire the item is performed. Specifically, when the user moves the predetermined part and determines that the part of the user character corresponding to the predetermined part has approached (contacted) the item, it is determined that the item acquisition operation has been performed.
  • the user in the normal steering state in FIG. 10A releases one hand from the handle 50 and raises it upward, it is determined that the user has performed an item acquisition operation in the direction of the item.
  • This determination process is performed based on part information (user information in a broad sense) such as the position or direction of the hand detected by the tracking devices 250 and 260 attached to the user's hand.
  • part information user information in a broad sense
  • the hand HR of the user character in the virtual space also rises upward as shown in FIG. 6A, and the item BM can be acquired.
  • the item BM has been acquired as shown in FIG. 14B. For example, it is determined that the item BM has been acquired when the distance between the character's hand HR and the item BM is equal to or less than a threshold value. More specifically, for example, hit determination processing is performed using the hit volume set for the item BM and the hit volume set for the hand HR, and it is determined that the item BM has been acquired when it is determined that the hit has occurred. To do. This hit determination process is performed based on the position information of the item BM in the virtual space and the part information (position and direction) of the user's hand detected by the tracking devices 250 and 260.
  • the item BM When the item BM is acquired as shown in FIG. 14B, the item BM is registered as the possessed item of the user character. For example, the item BM is subordinate to the hand HR, and the hand HR and the item BM are integrated. Will be held.
  • an item acquisition notification process is performed by sound such as an image such as an effect or sound or vibration. By performing such notification processing, the user can recognize that the item has been acquired by visual, auditory or tactile sense.
  • the item use process is executed. For example, when it is determined based on the user information that the user has performed a predetermined operation in the state where the item is held, it is considered that the item use process has been executed.
  • the use operation of the item in this case is an operation of a predetermined part such as a hand used when acquiring the item. That is, when an item is acquired with a hand that is a predetermined part, it is determined whether or not an item use operation such as throwing an item is performed with the hand.
  • FIG. 14C it is determined that an item use operation of throwing an item has been performed
  • FIG. 14D it is determined that an item use operation of swinging an item has been performed.
  • FIGS. 6A to 7B it is determined that the item use operation of throwing the bomb item BM has been performed.
  • an item use process such as the bomb item BM flying toward the enemy vehicle CE, hitting the enemy vehicle CE to generate an explosion effect EF, or damaging the enemy vehicle CE is executed.
  • FIGS. 8A to 9B it is determined that the item use operation of swinging the hammer item HM has been performed.
  • the item use processing such as the hammer item HM being swung with the enemy vehicle CE as a target, the enemy vehicle CE hitting the enemy vehicle CE, an explosion effect EF is generated, or the enemy vehicle CE is rotated by impact when hit by a hammer. Executed.
  • the direction of the item use operation, the strength of the item use operation, the item type, the user's line-of-sight information during the item use operation, or the user's hand (predetermined part) performing the item use operation The item use process is executed by determining whether the item use process is executed or setting the execution content of the item use process according to the state of the item. For example, in the case of the bomb item BM of FIGS. 6 (A) to 7 (B), the movement direction of the user's hand is an overslow direction as shown in FIG. When the release speed at the time of throwing is equal to or higher than a predetermined speed, an item use process is executed in which the bomb item BM is thrown.
  • the hammer item HM of FIGS. 8 (A) to 9 (B) in the direction according to the movement direction of the user's hand as shown in FIGS. 12 (A) and 12 (B), The hammer item HM will be shaken. In this case, even if the swing speed, which is the strength of the item use operation, is slow, the hammer item HM is swung at the slow speed. In other words, according to the item type (bomb, hammer), the item use process is executed by determining whether or not the item use process is executed, or by setting the execution content of the item use process.
  • the item is moved in a curved trajectory during the item use process.
  • the item is a kind of item that causes the enemy vehicle to slip, such as a banana, when the item is thrown in front of the enemy vehicle, an item use process that causes the enemy vehicle to slip is performed.
  • the item use processing is executed while reflecting the user's line-of-sight information during the item use operation of throwing the item BM.
  • the user performs a throwing motion while turning his / her line of sight upward, the item BM is thrown upward in a mountain.
  • the user's line-of-sight information is acquired by the tracking process of the HMD 200.
  • the state of the hand, the direction and the like when throwing are also determined. For example, as shown in FIG.
  • the part (part object, part object) of the user character corresponding to the predetermined part of the user is detected by the tracking devices 250 and 260, and the virtual information corresponding to the detected position is detected. It is displayed at the position of the space. Specifically, part information including at least one of position information and direction information of a predetermined part such as a hand is acquired as user information, and a part of a user character corresponding to the predetermined part is acquired in the acquired part information. Based on this, the placement is set in the virtual space. And the process which displays the site
  • the user character's hand HR, HL (corresponding to the user's hand) as shown in FIGS.
  • FIGS. In a broad sense, an image is displayed in which the steering wheel ST is steered left and right.
  • the user character's hand HR (pseudo hand) changes the bomb item BM as shown in FIGS. 6 (B) to 7 (A).
  • the throwing image will be displayed.
  • FIGS. 8B to 9A an image in which the hand HR of the user character is waving the hammer item BM is displayed as shown in FIGS. 8B to 9A. Will come to be.
  • the user's hand and the user character's hand in the virtual space move in conjunction with each other, so that the user's virtual reality can be further improved.
  • the item holding state of the user character when a given condition is satisfied in a state where the user character has acquired and held an item, the item holding state of the user character is canceled. For example, when the user returns to the normal maneuvering state (basic posture state) after the item holding state, the item holding state is canceled. Alternatively, the item holding state is canceled when a given time elapses after the item holding state or when a specific game situation (such as collision, rotation or jump of a moving object) occurs.
  • a specific game situation such as collision, rotation or jump of a moving object
  • the user performs an operation of acquiring and holding an item by moving one hand away from the handle from a normal steering state in which the handle is operated with both hands. In this possessed state, the item is used.
  • FIG. 15 (B) after acquiring and holding an item with one hand from the normal operation state, the state returns to the normal operation state again.
  • the possession state of the item is canceled, for example, the item is deleted or the item is not displayed. As a result, the user cannot use the acquired and owned items.
  • the item can be used only when the user holds the item with the hand away from the steering wheel from the normal steering state. For example, when the user returns to the normal steering state in which the user holds the steering wheel with both hands to concentrate on driving, the possession state of the item is automatically released, and the convenience for the user can be improved.
  • a given time for example, 5 to 10 seconds
  • the item holding state is canceled and the item is erased or hidden.
  • the item holding state is canceled even in a game situation in which the car is in a rotating state or the like due to, for example, an attack, a collision, or a collision with a wall.
  • the items whose possessed state is released may be temporarily disabled and stocked.
  • the item is stocked so that it can be used again, although the connection with the user character's hand or the like is released.
  • the use processing of the stocked item may be executed.
  • a process for storing the user information in the normal operation state of the user in the storage unit 170 is performed.
  • a process for storing user information in the normal maneuvering posture at the initial setting before starting the game is performed.
  • the facility operator or the like instructs the user to hold the handle 50 with both hands as shown in FIG. 16 (A.
  • the line connecting the right hand and the left hand indicates the handle 50.
  • the hand position information and direction information detected by the tracking devices 250 and 260 are displayed.
  • the initial setting information is stored in the storage unit 170 (initial setting information storage unit 174.)
  • the position, direction, etc. of this hand is, for example, the position, direction in the coordinate space detected by the base stations 280, 284 in FIG. Etc.
  • the moving unit 40 can be moved back and forth along the direction of E1.
  • the user can set the handle 50 at his / her preferred position.
  • the adjustment by the moving unit 40 is performed as described above, if the position or the like of the hand is detected as the part information by the tracking devices 250 and 260 attached to the user's hand as shown in FIG.
  • the user's right and left hand positions in the state can be appropriately detected and stored as initial setting information. That is, it is not necessary to detect what adjustment is performed by the moving unit 40 using another sensor for detecting the adjustment position.
  • the tracking information 250 and 260 are used to detect the part information of the user's right and left hands, and the determination process such as item acquisition is performed.
  • the advantage is that For example, even if the user is the same right-handed user, when acquiring an item, some users try to acquire an item with the right hand while holding the handle 50 with the left hand, while holding the handle 50 with the right hand, Some users try to get items. Therefore, for example, when the facility operator inquires about the user's dominant arm before the start of the game, it is impossible to appropriately determine with which hand the user intends to acquire the item.
  • the user's item acquisition operation or the like is determined using the tracking devices 250 and 260 attached to the right and left hands of the user. For example, for a user who wants to acquire an item with the right hand while grasping the handle 50 with the left hand, it can be determined that an item acquisition operation or the like has been performed with the right hand using the tracking device 250 attached to the right hand. On the other hand, for a user who tries to acquire an item with the left hand while holding the handle 50 with the right hand, it can be determined that the item acquisition operation has been performed with the left hand using the tracking device 260 attached to the left hand. Therefore, it is possible to perform an appropriate determination process without considering the circumstances such as the user's dominant arm.
  • the user wears the HMD 200 so as to cover the field of view, and the display image of the HMD 200 is shown in FIGS. A game image as shown in FIG. 9 (B) is displayed.
  • the tracking devices 250 and 260 are blocked by the HMD 200 and cannot be seen by the user. Therefore, even if the tracking devices 250 and 260 are attached to their own hands, there is an advantage that the user does not feel unnatural and forgets about the presence of the tracking devices 250 and 260 when immersed in the game. . In this sense, in a system using the HMD 200, it is effective to perform an item acquisition process or the like by detecting the hand position or the like by the tracking devices 250 and 260.
  • Character hands HR and HL are displayed on the HMD 200. And this display process is performed based on the site
  • the handle 50 in the real space comes to be located at a location corresponding to the location of the handle ST in the virtual space, so that the user who plays the game while looking at the display image of the HMD 200 accidentally hits the handle 50 with his hand. Can be prevented.
  • the hand HR of the user character when the item of the user character is acquired, a process for moving the item in the moving direction of the moving body is performed.
  • the hand HR of the user character since the user character is on a car CP (moving body) that runs on a course in virtual space, the hand HR of the user character also moves at the same speed as the speed of the car CP. It becomes like this. For this reason, the relative speed of the item BM with respect to the hand HR increases, and a situation occurs in which it becomes difficult to acquire the item BM.
  • a process of moving the item BM in the moving direction of the car CP is performed.
  • a movement process for moving the item BM at a speed satisfying VI ⁇ VA for example, is performed.
  • the movement process is started.
  • the relative speed of the item BM with respect to the hand HR can be reduced as in the case of a baton relay, for example, so that the user can easily acquire the item BM as shown in FIG.
  • various methods can be used for setting the speed VI in the movement process in which the item BM is moved at the speed VI when acquiring the item. For example, for the beginner player, the difference between the speed VI and the speed VA is reduced to facilitate the item acquisition, while for the advanced player, the difference between the speed VI and the speed VA is increased to make it difficult to acquire the item. May be.
  • the game play handy is set at the speed VI. Or you may prepare the specific item etc. which change the speed VI variably.
  • a method may be adopted in which the item BM is moved in the direction opposite to the moving direction of the hand HR, thereby making it very difficult to acquire the item.
  • a process is performed in which the item acquired by the user character and brought into the possessed state is moved following the movement of the moving object.
  • the item BM is acquired by the user character CH and is in the possessed state.
  • the item BM also moves with the movement of the vehicle CP on which the user character CH is boarded.
  • the item BM is connected to the hand HR of the user character CH and is integrated with the hand HR.
  • the position of the item BM is set to the position of the local coordinate system of the car CP.
  • the item BM also moves along with the movement. Then, for example, as shown in FIG.
  • an item area is set for the course on which the moving body moves.
  • the item area AR is set along the course CS along which the vehicle CP as a moving body moves.
  • the item placement location may be set in accordance with the user's physical information.
  • FIG. 18A an adult user USA rides on the movable casing 30 (game casing) and plays a game in real space.
  • the arrangement location of the items HM and BM is set to a high position. If it does in this way, item HM and BM will be arranged in the place where a tall adult user USA raised his hand, and user USA will be able to acquire these items HM and BM.
  • FIG. 18C a child user USC rides on the movable housing 30 and plays a game in real space.
  • the arrangement locations of the items HM and BM are set to a lower position than in FIG. 18B. If it does in this way, item HM and BM will be arranged in the place where user USC of a short child raised his hand, and user USC will be able to acquire these items HM and BM appropriately.
  • the item can be arranged at an appropriate place according to the height of the user and the user can acquire the item.
  • the user's physical information may be manually input by, for example, announcing the user before starting the game, or the physical information such as the user's height and physique may be automatically recognized by a sensor or the like.
  • FIGS. 4 to 18D the case where the method of the present embodiment is applied to a game in which a user character corresponding to the user gets on a moving body such as a car has been described.
  • the present embodiment is not limited to this. It is not something.
  • the method of the present embodiment can also be applied to a game such as an FPS or RPG game that is played from the first person viewpoint of the user character without boarding a moving object.
  • FIG. 4 is an explanatory diagram of fields used in such a game.
  • a field FL (play field, play area, play space) is prepared in a facility in the real world, and the users US1 to US4 move in the field FL.
  • the field FL is provided with a partition WL realized by a wall or the like.
  • the users US1 to US4 wear HMD1 to HMD4 and have gun type controllers GN1 to GN4 (controllers in a broad sense). Further, the users US1 to US4 wear, for example, the tracking devices SR1 to SR4 on the right hand and the tracking device (not shown) on the left hand. By using these tracking devices, the positions and directions of the right and left hands of the users US1 to US4 can be specified. Furthermore, the users US1 to US4 wear a processing device (backpack PC) (not shown) on their backs, for example. These users US1 to US4 form a team (group in a broad sense) for a team battle game, for example. A video in the virtual space is displayed on the HMD1 to HMD4, and the users US1 to US4 play a game such as a battle game while watching the video.
  • backpack PC processing device
  • FIG. 20 shows an example of a game image displayed on the HMD in such a game.
  • FIG. 20 is an example of a game image displayed on the HMD1 of the user US1 in FIG. 19, in which the hand of the user character MV1 (user avatar) corresponding to the user US1 and the gun GV1 possessed are displayed.
  • user characters MV2 and MV3 corresponding to the users US2 and US3 of the teammates, and user characters MB1, MB2 and MB3 corresponding to the users of the enemy team are displayed.
  • whether or not the user has performed an item acquisition operation is determined based on user information (part information) including at least one of the user's position information, direction information, and posture information.
  • user information part information
  • a process for causing the user character to acquire the item is performed.
  • the item use process is executed when it is determined based on the user information (part information).
  • the user US who has been in the basic posture is performing an item acquisition operation of raising his hand to acquire an item.
  • This item acquisition operation of the hand can be detected based on the part information (user information) from the tracking device SL attached to the hand.
  • the user character MV which is a substitute for the user US, has acquired the bomb item BM in the virtual space.
  • the item BM is held by the user character MV.
  • the user US performs the item use operation as shown in FIG. 22A in the state where the user character MV has acquired and held the item BM. That is, an action of throwing the hand from the front side to the front side is performed.
  • This item use operation can be detected based on part information (user information) from the tracking device SL attached to the hand.
  • the user character MV in the virtual space throws the item BM held in the hand, and the item use process is executed. For example, when a bomb item BM hits an enemy, an effect of bomb explosion is displayed, or an item use process for damaging the enemy is executed.
  • FIGS. 21A to 22B when the user performs an item acquisition operation by moving one hand and performs an item use operation using the one hand, the user character MV is displayed.
  • An item use process is executed in which an item is acquired with one hand, and the item is thrown with one hand and hit against an enemy.
  • the item acquisition operation and the item use operation are detected based on the part information (user information) detected by the tracking device. Therefore, it is possible to give the user a realistic virtual reality as if a series of operations of acquiring and using an item such as a bomb is performed in the real world. In other words, by wearing the HMD, it is possible to realize a virtual reality as if a real bomb was picked up and thrown in a VR space spreading in the user's field of view.
  • the present embodiment it is determined whether or not the user in the basic posture state has performed the item acquisition operation based on the user information, and when it is determined that the item acquisition operation has been performed, a process for causing the user character to acquire the item is performed. Do. Then, after the user character acquires and holds the item, if it is determined that the user has returned to the basic posture state, a process of canceling the item holding state of the user character is performed.
  • the item can be used only when the user performs an item acquisition operation such as raising the hand from the basic posture state and is holding the item.
  • the possession state of the item is automatically released, and the convenience for the user can be improved.
  • the possession state of an item may be canceled when a given period has elapsed since the item was acquired or when a specific game situation occurs.
  • the release process of the possession state of the item may be a process of temporarily releasing the connection between the part such as the hand of the user character and the item and stocking the item in the stock location. For example, when the user satisfies a given use permission condition such as raising his hand again within the time limit, the stock item may be used.
  • FIG. 24 is a flowchart showing an overview of the overall processing of this embodiment.
  • the part information of the user's hand in a state where the handle is held with both hands is stored as initial setting information (step S1). That is, as described with reference to FIG. 16, processing for storing the hand part information in the normal steering state (basic posture state) in the storage unit 170 is performed.
  • step S2 it is determined whether or not the game has started (step S2). If the game has started, game processing is executed based on the operation information and tracking information (step S3).
  • the image generated by the game process is displayed on the HMD (step S4). For example, game images as shown in FIGS. 5A to 9B are generated and displayed on the HMD.
  • it is determined whether or not the game has ended step S5). If the game has ended, the process ends.
  • FIG. 25 is a flowchart showing details of the item acquisition process and use process.
  • the part information of the user's hand separated from the handle is acquired (step S11).
  • hand part information is acquired by the tracking devices 250 and 260 attached to the user's hand.
  • a hit determination process between the user character's hand and the item corresponding to the user's hand is performed (step S12). That is, the hit determination process described with reference to FIG.
  • it is determined whether or not the hand has hit the item step S13). If it is hit, the item is registered as a part of the user character's hand, and the item is acquired and held (step S14). That is, as shown in FIG. 14B, processing for acquiring and holding an item is performed. At this time, an item acquisition notification process is also performed.
  • step S15 it is determined whether or not an item use operation has been performed. For example, whether or not the use operation as shown in FIGS. 14C and 14D has been performed is determined based on the part information detected by the tracking devices 250 and 260. Then, depending on the operation direction and strength of the item use operation, the item type, the user's line of sight information during the item use operation, or the state of the hand part, the execution content of the item use processing is set, and the item use Processing is executed (step S16). For example, processing such as moving an item, displaying an effect image due to an item hit, or damaging an enemy due to an item hit is performed. Then, it is determined whether or not the user has returned to the normal operation state (step S17).
  • step S19 When the user has returned to the normal operation state, the possession of the item is canceled (step S19). Further, it is determined whether or not a predetermined time has passed (step S18), and when the predetermined time has passed, the possession of the item is canceled (step S19).
  • the present invention is not limited to those described in the present embodiment, and techniques, processes, and configurations equivalent to these are also included in the scope of the present invention.
  • the present invention can be applied to various games. Further, the present invention can be applied to various simulation systems such as a business game device, a home game device, or a large attraction system in which a large number of users participate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

シミュレーションシステムは、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、仮想空間の設定処理を行う仮想空間設定部と、ユーザに対応するユーザキャラクタを仮想空間において移動させる処理を行う移動体処理部と、仮想空間でのゲームの処理を行うゲーム処理部と、仮想空間での画像を、ユーザに表示する表示画像として生成する表示処理部を含む。そしてゲーム処理部は、ユーザがアイテムの獲得動作を行ったか否かを、ユーザ情報に基づき判断し、アイテム獲得動作を行ったと判断した場合に、アイテムをユーザキャラクタに獲得させる処理を行う。

Description

シミュレーションシステム、画像処理方法及び情報記憶媒体
 本発明は、シミュレーションシステム、画像処理方法及び情報記憶媒体等に関する。
 従来より、仮想空間において仮想カメラから見える画像を生成するシミュレーションシステムが知られている。例えば仮想カメラから見える画像をHMD(頭部装着型表示装置)に表示して、バーチャルリアリティ(VR)を実現するシミュレーションシステムの従来技術としては、特許文献1に開示される技術がある。またユーザが仮想空間のレースカーを操縦して楽しむレースゲームを実現するシステムの従来技術としては、特許文献2に開示される技術がある。
特開平11-309269号公報 特開2013-59574号公報
 しかしながら特許文献2のシステムでは、ユーザはゲーム筐体のハンドルを操作して、仮想空間のレースカーを操縦するゲームを楽しむだけであり、ゲームプレイ中はユーザの両手はハンドルを握ったままとなっている。またコース上に配置されたアイテムを獲得したり、獲得したアイテムを使用するなどの遊びの要素は導入されていなかった。例えばレースゲームなどのゲームにおいて、アイテム獲得などの遊びの要素を導入しようとした場合に、ユーザの意思や動きとは無関係にアイテムが獲得されてしまうと、ユーザの仮想現実感を損ねてしまい、ゲームへの没入感が低下してしまう。
 本発明の幾つかの態様によれば、仮想空間の画像を表示するシステムにおいて、ゲームの没入感を損なわずに、自然な形でのアイテムの獲得を可能にするシミュレーションシステム、画像処理方法及び情報記憶媒体等を提供できる。
 本発明の一態様は、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、仮想空間の設定処理を行う仮想空間設定部と、前記ユーザに対応するユーザキャラクタを、前記仮想空間において移動させる処理を行う移動体処理部と、前記仮想空間でのゲームの処理を行うゲーム処理部と、前記仮想空間での画像を、前記ユーザに表示する表示画像として生成する表示処理部と、を含み、前記ゲーム処理部は、前記ユーザがアイテムの獲得動作を行ったか否かを、前記ユーザ情報に基づき判断し、前記アイテム獲得動作を行ったと判断した場合に、前記アイテムを前記ユーザキャラクタに獲得させる処理を行うシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
 本発明の一態様によれば、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報が取得される。そしてユーザに対応するユーザキャラクタが仮想空間を移動するゲームにおいて、取得されたユーザ情報に基づいて、アイテムの獲得動作が行われたか否かが判断され、アイテム獲得動作が行われたと判断されると、アイテムをユーザキャラクタに獲得させる処理が行われる。このようにすれば、仮想空間の画像を表示するシステムにおいて、ゲームの没入感を損なわずに、自然な形でのアイテムの獲得が可能になるシミュレーションシステム等の提供が可能になる。
 また本発明の一態様では、前記ゲーム処理部は、基本姿勢状態の前記ユーザが前記アイテム獲得動作を行ったか否かを、前記ユーザ情報に基づき判断し、前記アイテム獲得動作を行ったと判断した場合に、前記アイテムを前記ユーザキャラクタに獲得させる処理を行い、前記ユーザキャラクタが前記アイテムを獲得して保有した後、前記ユーザが前記基本姿勢状態に戻ったと判断した場合に、前記ユーザキャラクタのアイテム保有状態を解除してもよい。
 このようにすれば、ユーザは、アイテムを獲得して保有した後、基本姿勢状態に戻るという簡素な動作で、獲得したアイテムの保有状態を解除できるようになる。
 また本発明の一態様では、前記移動体処理部は、前記ユーザキャラクタが搭乗する移動体を、前記仮想空間において移動させる処理を行い、前記仮想空間設定部は、前記ユーザの通常操縦状態時には前記ユーザキャラクタが接触できない場所に、アイテムエリアを設定し、前記ゲーム処理部は、前記ユーザが前記アイテムエリアの前記アイテムの方向に向けて前記アイテム獲得動作を行ったか否かを、前記ユーザ情報に基づき判断し、前記アイテム獲得動作を行ったと判断した場合に、前記アイテムを前記ユーザキャラクタに獲得させる処理を行ってもよい。
 このようにすれば、ユーザキャラクタは、移動体に搭乗して仮想空間を移動するようになり、当該移動体を通常操縦状態で操縦している際にはユーザキャラクタが接触できない場所に、アイテムエリアが設定される。そしてユーザは、このアイテムエリアのアイテムの方向に向けてアイテム獲得動作を行うことで、当該アイテムを獲得できるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記ユーザの前記通常操縦状態での前記ユーザ情報を、記憶部に記憶させる処理を行ってもよい。
 このようにすれば、ユーザの通常操縦状態でのユーザ情報を記憶部から読み出すことで、通常操縦状態でのユーザ情報を用いた種々の処理を実行できるようになる。
 また本発明の一態様では、前記仮想空間設定部は、前記移動体が移動するコースに対して前記アイテムエリアを設定してもよい。
 このようにすれば、移動体がコースを移動するようなゲームにおいて、コースに対してアイテムを配置し、配置されたアイテムの獲得が可能なゲームを実現できる。
 また本発明の一態様では、前記ゲーム処理部は、前記ユーザが所定部位を動かす動作を行い、前記所定部位に対応する前記ユーザキャラクタの部位が前記アイテムに接近したと判断した場合に、前記アイテム獲得動作が行われたと判断してもよい。
 このようにすれば、ユーザは、所定部位を動かして、ユーザキャラクタの対応する部位をアイテムに接近させることで、アイテムを獲得できるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記ユーザキャラクタが前記アイテムを獲得して保有した状態で、前記ユーザが前記所定部位を用いてアイテム使用動作を行ったと前記ユーザ情報に基づき判断した場合に、アイテム使用処理を実行してもよい。
 このようにすれば、ユーザは、獲得したアイテムをユーザキャラクタに保有させた状態で、所定部位を用いてアイテム使用動作を行うことで、アイテムを使用した種々の処理を実行させることが可能になる。
 また本発明の一態様では、前記情報取得部は、前記所定部位の位置情報及び方向情報の少なくとも1つを含む部位情報を、前記ユーザ情報として取得し、前記仮想空間設定部は、前記所定部位に対応する前記ユーザキャラクタの前記部位を、前記部位情報に基づき前記仮想空間に配置設定し、前記表示処理部は、前記仮想空間に配置設定された前記部位を表示する処理を行ってもよい。
 このようにすれば、ユーザが所定部位を動かすと、それに連動してユーザキャラクタの部位も動くようになり、当該部位の画像が表示されるようになる。
 また本発明の一態様では、前記移動体処理部は、前記ユーザキャラクタの前記アイテムの獲得の際に、前記移動体の移動方向に前記アイテムを移動させる処理を行ってもよい。
 このようにすれば、アイテムの獲得の際に、ユーザキャラクタに対するアイテムの相対的な速度を遅くすることなどが可能になり、アイテムの獲得が難しなってしまう事態を防止できる。
 また本発明の一態様では、前記移動体処理部は、前記ユーザキャラクタにより獲得されて保有状態となった前記アイテムを、前記移動体の移動に追従させて移動させる処理を行ってもよい。
 このようにすれば、獲得されて保有状態となったアイテムを、移動体の移動に追従させて移動させ、ユーザは、当該アイテムを用いた種々の動作を行うことが可能になる。
 また本発明の一態様では、前記ゲーム処理部は、前記ユーザキャラクタが前記アイテムを獲得して保有している状態で、前記ユーザがアイテム使用動作を行ったと前記ユーザ情報に基づき判断した場合に、アイテム使用処理を実行してもよい。
 このようにすれば、獲得したアイテムをユーザキャラクタに保有させた状態で、ユーザがアイテム使用動作を行うことで、アイテムを使用した種々の処理が実行されるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記アイテム使用動作の動作方向、前記アイテム使用動作の強さ、前記アイテムの種類、前記アイテム使用動作の際の前記ユーザの視線情報、及び前記アイテム使用動作を行う前記ユーザの所定部位の状態の少なくとも1つに応じて、前記アイテム使用処理を実行してもよい。
 このようにすれば、アイテム使用動作の動作方向や強さ、アイテムの種類、ユーザの視線情報、或いはユーザの所定部位の状態に応じて、アイテム使用処理の実行の有無を判断したり、アイテム使用処理の実行内容を設定するなどして、アイテム使用処理を実行できるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記ユーザキャラクタが前記アイテムを獲得して保有している状態において、所与の条件が成立した場合に、前記ユーザキャラクタのアイテム保有状態を解除してもよい。
 このようにすれば、アイテムを獲得して保有した後、所与の条件が成立すると、アイテムの保有状態が解除され、アイテムの使用等ができないようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記アイテムが獲得された場合に、前記アイテムが獲得されたことを、画像、音又は振動で報知する報知処理を行ってもよい。
 このようにすれば、アイテムが獲得されたことを、視覚、聴覚又は触覚によりユーザに認識させることが可能になる。
 また本発明の一態様では、前記仮想空間設定部は、前記ユーザの身体情報に応じて、前記アイテムの配置場所を設定してもよい。
 このようにすれば、ユーザの身体情報に応じた適切な場所にアイテムを配置できるようになる。
 また本発明の一態様では、前記表示処理部は、前記表示画像として、前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像を生成してもよい。
 このようにすれば、頭部装着型表示装置により実現されるVR空間において移動体を移動させながら、当該移動体の移動中にアイテムを獲得できるゲームを実現できるようになる。
 また本発明の他の態様は、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得処理と、仮想空間の設定処理を行う仮想空間設定処理と、前記ユーザに対応するユーザキャラクタを、前記仮想空間において移動させる処理を行う移動体処理と、前記仮想空間でのゲームの処理を行うゲーム処理と、前記仮想空間での画像を、前記ユーザに表示する表示画像として生成する表示処理と、を行い、前記ゲーム処理において、前記ユーザがアイテムの獲得動作を行ったか否かを、前記ユーザ情報に基づき判断し、前記アイテム獲得動作を行ったと判断した場合に、前記アイテムを前記ユーザキャラクタに獲得させる処理を行う画像処理方法に関係する。
本実施形態のシミュレーションシステムの構成例を示すブロック図。 図2(A)、図2(B)はHMDのトラッキング処理の一例の説明図。 図3(A)、図3(B)はHMDのトラッキング処理の他の例の説明図。 本実施形態の可動筐体の構成例を示す斜視図。 図5(A)、図5(B)は本実施形態により生成されるゲーム画像の例。 図6(A)、図6(B)は本実施形態により生成されるゲーム画像の例。 図7(A)、図7(B)は本実施形態により生成されるゲーム画像の例。 図8(A)、図8(B)は本実施形態により生成されるゲーム画像の例。 図9(A)、図9(B)は本実施形態により生成されるゲーム画像の例。 図10(A)、図10(B)はゲームプレイ中のユーザの動作の説明図。 ゲームプレイ中のユーザの動作の説明図。 図12(A)、図12(B)はゲームプレイ中のユーザの動作の説明図。 アイテムエリアの設定についての説明図。 図14(A)~図14(D)はアイテムの獲得、保有、使用についての説明図。 図15(A)、図15(B)はアイテムの獲得、保有、使用と保有の解除についての説明図。 通常操縦状態での部位情報を記憶する手法の説明図。 図17(A)~図17(C)はアイテム獲得の際にアイテムを移動させる、手法の説明図。 図18(A)~図18(D)は身体情報に基づくアイテムの配置場所の設定手法の説明図。 本実施形態の変形例のシミュレーションシステムで用いられるフィールドの説明図。 本実施形態の変形例で生成されるゲーム画像の例。 図21(A)、図21(B)は本実施形態の変形例でのアイテムの獲得、保有の説明図。 図22(A)、図22(B)は本実施形態の変形例でのアイテムの使用の説明図。 図23(A)、図23(B)は本実施形態の変形例でのアイテムの獲得、保有、保有の解除の説明図。 本実施形態の詳細な処理例を説明するフローチャート。 本実施形態の詳細な処理例を説明するフローチャート。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
 1.シミュレーションシステム
 図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム、画像生成システム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステム、運転シミュレータやスポーツ競技シミュレータなどのリアルタイムシミュレーションシステム、SNSのサービスを提供するシステム、映像等のコンテンツを提供するコンテンツ提供システム、或いは遠隔作業を実現するオペレーティングシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 可動筐体30(広義には筐体)は、ユーザのプレイ位置を変化させる筐体である。この可動筐体30は、例えばアーケード筐体などと呼ばれるものであり、シミュレーションシステムの装置の外殻となるものであり、箱状である必要はない。可動筐体30は、車ゲームやロボットゲームや飛行機ゲームなどにおけるコックピット筐体(体感筐体)であってもよいし、その他の形態の筐体であってもよい。可動筐体30は、シミュレーションシステムの本体部分であり、シミュレーションシステムを実現するための種々の機器、構造物が設けられる。可動筐体30には、少なくともプレイ位置が設定されている。可動筐体30の構成例については後述の図4により詳細に説明する。
 操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えばハンドル、アクセルペダル、ブレーキペダル、レバー、操作ボタン、方向指示キー又は音声入力装置等の種々の操作デバイスにより実現できる。例えば後述の図4の可動筐体30では、ハンドル50、アクセルペダル52、ブレーキペダル54(不図示)により操作部160が実現される。
 記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、初期設定情報記憶部174、描画バッファ178を含む。
 情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
 HMD200(頭部装着型表示装置)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。
 HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、ユーザの視点位置、視線方向を特定できる。
 トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する。第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでユーザの視点位置、視線方向を特定するのではなく、ユーザの視点位置、視線方向を直接に特定するトラッキング処理を採用してもよい。
 HMD200の表示部220は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部220には、ユーザの左眼の前に設定される第1のディスプレイ又は第1の表示領域と、右眼の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左眼用画像と右眼用画像を生成し、第1のディスプレイに左眼用画像を表示し、第2のディスプレイに右眼用画像を表示する。或いは1つのディスプレイの第1の表示領域に左眼用画像を表示し、第2の表示領域に右眼用画像を表示する。またHMD200には左眼用、右眼用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左眼用画像、右眼用画像に対して行われる。この補正処理は表示処理部120が行う。
 HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。
 音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。
 I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。
 通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
 なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。
 処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、仮想空間設定処理、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。
 処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
 処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、情報取得部111、仮想空間設定部112、移動体処理部113、仮想カメラ制御部114、ゲーム処理部115、制御部117、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200のセンサ部210等により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。
 演算処理部110は、各種の演算処理を行う。例えば情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理(シミュレーション処理)、表示処理、或いは音処理などの演算処理を行う。
 情報取得部111(情報取得処理のプログラムモジュール)は種々の情報の取得処理を行う。例えば情報取得部111は、HMD200を装着するユーザの位置情報などを取得する。情報取得部111は、ユーザの方向情報や姿勢情報や動き情報などを取得してもよい。
 仮想空間設定部112(仮想空間設定処理のプログラムモジュール)は、オブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(車、人、ロボット、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、アイテム、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。
 移動体処理部113(移動体処理のプログラムモジュール)は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部113は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のユーザ(プレーヤ)に対応するユーザ移動体である。例えば移動体は、実空間のユーザに対応する仮想空間のユーザキャラクタ(アバター、プレーヤキャラクタ)や、或いは当該ユーザキャラクタが搭乗(操作)する移動体(搭乗移動体、操作移動体)などである。
 仮想カメラ制御部114(仮想カメラ制御処理のプログラムモジュール)は、仮想カメラの制御を行う。例えば、操作部160により入力されたユーザの操作情報やトラッキング情報などに基づいて、仮想カメラを制御する処理を行う。
 例えば仮想カメラ制御部114は、ユーザの一人称視点又は三人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動するユーザ移動体の視点(一人称視点)に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。或いは、移動体(ユーザキャラクタ、搭乗移動体)に追従する視点(三人称視点)の位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置や姿勢を制御する。
 例えば仮想カメラ制御部114は、視点トラッキングにより取得されたユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。例えば本実施形態では、ユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)が取得される。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。そして仮想カメラ制御部114は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部114は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。
 ゲーム処理部115(ゲーム処理のプログラムモジュール)は、ユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部115(シミュレーション処理部)は、ユーザが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。
 制御部117(制御処理のプログラムモジュール)は、可動筐体30の制御処理などを行う。例えば可動筐体30によりユーザのプレイ位置を変化させるための制御などを行う。
 表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、仮想空間において仮想カメラ(所与の視点。左眼用、右眼用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。
 音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。
 出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。
 そして本実施形態のシミュレーションシステムは、図1に示すように、情報取得部111と、仮想空間設定部112と、移動体処理部113と、ゲーム処理部115と、表示処理部120を含む。
 情報取得部111は、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する。例えば情報取得部111は、HMD200からのトラッキング情報や、ユーザの所定部位(手、足又は頭部等)に取り付けられたトラッキング装置(例えば後述のトラッキング装置250、260)からのトラッキング情報などに基づいて、実空間でのユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。位置情報は、実空間でのユーザの視点の位置情報であってもよく、方向情報は、実空間でのユーザの視線の方向情報であってもよい。位置情報、方向情報は、ユーザが実空間(現実世界)のフィールド(プレイフィールド、シミュレーションフィールド、プレイエリア)や可動筐体30でプレイする場合に、そのフィールドや可動筐体30での位置情報、方向情報(所与の位置を原点とする座標系での位置座標、各座標軸回りでの回転角度)であってもよい。姿勢情報は、ユーザの各姿勢(立ち姿勢、しゃがみ姿勢又は座り姿勢等)を特定したり、或いはユーザの各部位(胴体、頭、手又は足等)の位置、方向を特定するための情報である。姿勢情報は、ユーザの所定部位に取り付けられたトラッキング装置からのトラッキング情報により特定される情報であってもよいし、キネクト(Kinectは登録商標)などのモーショントラッキングにより特定される情報であってもよい。例えばユーザ情報は、ユーザの所定部位の位置情報及び方向情報の少なくとも1つを含む部位情報を含むことができる。また情報取得部111は、HMD200の位置情報、方向情報を、当該HMD200を装着するユーザの位置情報、方向情報として取得したり、ユーザの所定部位に取り付けられたトラッキング装置の位置情報、方向情報を、当該ユーザの所定部位の位置情報、方向情報として取得してもよい。
 仮想空間設定部112は仮想空間の設定処理を行う。例えば、移動体、アイテム、コースオブジェクト、背景オブジェクト又はマップオブジェクト等のオブジェクトを仮想空間に配置設定する処理を行う。例えば仮想空間設定部112は、操作部160からの操作情報に基づき移動する移動体を仮想空間に配置設定する処理を行う。また移動体が移動するコースに設定されたアイテムエリアに、獲得対象となるアイテムを配置設定する処理を行う。移動体やアイテムなどのオブジェクトの位置、方向等の情報は、例えばオブジェクト情報記憶部172に記憶される。
 移動体処理部113は、仮想空間設定部112により設定された仮想空間(ゲーム空間)において、移動体を移動させる処理を行う。例えばユーザに対応するユーザキャラクタを、仮想空間において移動させる処理を行う。例えば情報取得部111により取得されたユーザ情報や、或いは操作部160からの操作情報に基づいて、ユーザキャラクタを仮想空間において移動させる。この場合にユーザキャラクタ自体が移動してもよいし、ユーザキャラクタが搭乗する移動体が仮想空間において移動することで、ユーザキャラクタがそれに追従して仮想空間において移動するようにしてもよい。
 ゲーム処理部115は、仮想空間でのゲームの処理を行う。例えば仮想空間でのゲームをユーザがプレイするための種々の処理を行う。
 表示処理部120は、仮想空間での画像を、ユーザに表示する表示画像として生成する処理を行う。例えば仮想空間において仮想カメラから見える画像を、ユーザに表示する表示画像として生成する。具体的には表示処理部120は、仮想空間での画像を、ユーザが視界を覆うように装着するHMD200の表示画像として生成する。例えば仮想カメラ制御部114は、HMD200を装着するユーザの視点に対応する仮想カメラの制御処理を行う。例えば仮想カメラ制御部114は、ユーザの一人称視点として設定される仮想カメラの制御を行う。例えば仮想空間におけるユーザキャラクタの視点に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。そして表示処理部120は、HMD200等の表示画像(表示映像)として、仮想空間において仮想カメラ(ユーザ視点)から見える画像を生成する。例えば仮想空間であるオブジェクト空間において所与の視点から見える画像を生成する。生成される画像は例えば立体視用の画像である。このようにすることで、視界の全周囲に亘って広がる仮想空間(VR空間)の画像がHMD200に表示されるようになる。
 そして本実施形態ではゲーム処理部115は、ユーザがアイテム獲得動作を行った否かを、ユーザ情報に基づき判断する。例えばユーザがアイテムの獲得動作を行ったか否かを、ユーザの手等の所定部位の位置情報及び方向情報の少なくとも一方である部位情報に基づき判断する。そしてゲーム処理部115は、アイテム獲得動作を行ったと判断した場合に、アイテムをユーザキャラクタに獲得させる処理を行う。例えばアイテムを、ユーザキャラクタの保有アイテムとして登録する処理を行う。例えばゲーム処理部115は、アイテムを、ユーザキャラクタの情報に関連づけて記憶部170(オブジェクト情報記憶部172)に記憶する処理を行う。例えばアイテムを、ユーザキャラクタの一部として登録して、保有させる。アイテムを獲得する所定部位が手である場合には、モーションデータにおける手の骨(ボーン)に追従するように、手のオブジェクトに対してアイテムのオブジェクトを連結する。
 またゲーム処理部115は、ユーザキャラクタのアイテム保有状態を解除する処理を行う。例えばゲーム処理部115は、基本姿勢状態(狭義には通常操縦状態)のユーザがアイテム獲得動作を行ったか否かを、ユーザ情報(ユーザ情報)に基づき判断し、アイテム獲得動作を行ったと判断した場合に、アイテムをユーザキャラクタに獲得させる処理を行う。そしてユーザキャラクタがアイテムを獲得して保有した後、ユーザが基本姿勢状態に戻ったと判断した場合に、ユーザキャラクタのアイテム保有状態を解除する。即ち、アイテムを保有した状態で、ユーザが基本姿勢状態に戻ると、アイテムの獲得、保有の登録が解除され、アイテムが消去されたり、非表示になる。ここで基本姿勢状態は、戦闘ゲーム等のゲームプレイ時に、ユーザの基本的な姿勢(基準姿勢、通常姿勢)として決められている姿勢であり、例えば、少なくとも一方の手を下ろすなどして通常の姿勢をとっている状態である。
 なお、アイテムの保有状態の解除は、少なくとも、ユーザキャラクタの部位に対してアイテムが連結されていない状態になっていればよく、例えば保有状態が解除されたアイテムを、一時的に使用不可にして、ストックできるようにしてもよい。そしてストックされたアイテムの使用許可条件が満たされた場合に、そのアイテムの使用処理を実行できるようにする。例えばストックされたアイテムは保管され、使用可能条件が満たされると、当該アイテムは、ユーザキャラクタの部位に連結されて、ユーザがアイテム使用動作を行うと、アイテム使用処理が実行される。
 また本実施形態では移動体処理部113は、ユーザキャラクタが搭乗する移動体を、仮想空間において移動させる処理を行う。このように、ユーザキャラクタが搭乗する移動体を仮想空間において移動させることで、ユーザキャラクタもそれに追従して仮想空間において移動することになる。
 そして本実施形態では仮想空間設定部112は、ユーザの通常操縦状態時にはユーザキャラクタが接触(到達)できない場所(アイテム配置場所)に、アイテムエリアを設定(アイテムを設定)する。通常操縦状態(広義には基本姿勢状態、通常姿勢状態)は、ユーザが、例えばアイテム獲得等の動作を行うことなく、ユーザキャラクタが搭乗する移動体を操縦している状態である。一例としては、ハンドル、操縦レバー等の操作部材を両手で操作している状態である。そしてアイテムは、このような通常操縦状態においては、ユーザキャラクタが触れることができない場所(到達できない場所)に配置される。例えばユーザキャラクタがハンドル等の操作部材を両手で操作している状態では、触れることができないような場所にアイテムが配置される。
 そしてゲーム処理部115は、例えばユーザがアイテムエリアのアイテムの方向(アイテム配置場所の方向)に向けてアイテムの獲得動作を行ったか否かを、ユーザ情報(手等の所定部位の部位情報)に基づき判断する。そして、アイテム獲得動作を行ったと判断した場合に、アイテムをユーザキャラクタに獲得させる処理を行う。例えばアイテムを、ユーザキャラクタの保有アイテムとして登録する処理を行う。
 またゲーム処理部115は、ユーザの通常操縦状態(基本姿勢状態)でのユーザ情報を、記憶部170に記憶させる処理を行う。例えばゲーム開始前の初期設定時等に、ユーザが通常操縦状態の姿勢(基本姿勢)をとり、この通常操縦状態での所定部位の部位情報が、例えば記憶部170の初期設定情報記憶部174に、初期設定情報として記憶される。このように通常操縦状態での部位情報を記憶しておけば、ユーザの体格(身体情報)や可動筐体30でのユーザの位置、姿勢等に応じた通常操縦状態での所定部位の部位情報が、記憶部170に記憶されるようになる。そして、この初期設定情報である部位情報を用いることで、ゲーム中にユーザが通常操縦状態になったか否かを、ユーザの体格や可動筐体30でのユーザの位置、姿勢等に依存せずに判断できるようになる。
 また仮想空間設定部112は、移動体が移動するコースに対してアイテムエリアを設定する。例えばレースゲームのコース上やコースに沿った場所にアイテムエリアを設定する。このようにすれば、移動体がコースに沿って移動するようなレースゲーム等のゲームにおいて、移動体に搭乗するキャラクタによりアイテムの獲得が可能な場所に、アイテムエリアを設定できるようになる。
 またゲーム処理部115は、ユーザが所定部位を動かす動作を行った場合に、アイテム獲得動作が行われたと判断する。例えばユーザが所定部位を動かす動作を行い、所定部位に対応するユーザキャラクタの部位(部位オブジェクト)がアイテムに接近(到達)したと判断した場合に、アイテム獲得動作が行われた(アイテムが獲得された)と判断する。例えばユーザの所定部位が、アイテムの設置場所の方向に対して接近し、所定部位とアイテムとがヒットしたと判定された場合に、アイテムの獲得動作が行われたと判断する。具体的には、ユーザキャラクタの部位(所定部位に対応する部位)に設定されたヒットボリューム(或いは所定部位自体)と、アイテムに設定されたヒットボリューム(或いはアイテム自体)とのヒット判定処理(交差判定処理、コリジョン処理)を行い、ヒットしたと判定された場合に、アイテムの獲得動作が行われたと判定する。或いはユーザキャラクタの部位とアイテムとの距離が所与の距離以下となった場合に、アイテムの獲得動作が行われたと判定する。ここで所定部位は、アイテムの獲得動作に用いられる部位であり、ユーザの例えば手、足又は頭部等の部位である。ユーザキャラクタの部位は、ユーザの所定部位に対応する部位であり、ユーザキャラクタの手、足又は頭部等の部位(パーツオブジェクト)である。
 またゲーム処理部115は、ユーザがアイテム使用動作を行ったと判断した場合に、アイテム使用処理を実行する。例えばユーザキャラクタがアイテムを獲得して保有した状態で、ユーザが所定部位を用いてアイテム使用動作を行ったとユーザ情報(部位情報)に基づき判断した場合に、アイテム使用処理を実行する。アイテム使用処理は、例えばユーザキャラクタが保持していたアイテムを移動させたり、アイテムの効果を発揮させる処理である。具体的には、ユーザキャラクタが保持していたアイテムを、投げたり、振ったりして移動させる処理や、アイテムによるエフェクト画像を表示する処理や、アイテムが敵移動体などの標的(対象オブジェクト)に当たってダメージを与えたり、アイテムが標的の移動状態を変化させたり、標的の各種のゲームパラメータを変化させるなどのアイテムの効果を発揮させる処理である。
 また情報取得部111は、所定部位の位置情報及び方向情報の少なくとも1つを含む部位情報を、ユーザ情報として取得する。例えばユーザが所定部位を動かすと、所定部位に取り付けられたトラッキング装置等により、所定部位の位置や方向などをトラッキングし、このトラッキングにより得られたトラッキング情報が、部位情報として取得される。そして仮想空間設定部112は、所定部位に対応するユーザキャラクタの部位(例えば手、足又は頭部等の部位を表すパーツオブジェクト)を、部位情報に基づき仮想空間に配置設定する。例えば実空間でのユーザの所定部位の位置や方向に対応する位置や方向に、ユーザキャラクタの部位を配置設定する。即ち、ユーザの所定部位に連動するようにユーザキャラクタの部位を動かす。そして表示処理部120は、仮想空間に配置設定された部位を表示する処理を行う。例えば実空間でユーザが所定部位を動かすと、その動きに対応するようにユーザキャラクタの対応する部位が動くようになり、当該部位が動く様子が、HMD200等の表示部に表示される。
 また移動体処理部113は、ユーザキャラクタのアイテムの獲得の際に、移動体の移動方向にアイテムを移動させる処理を行う。例えばユーザキャラクタの部位がアイテムに接近したと判断された場合に、ユーザキャラクタが搭乗する移動体の移動方向(ユーザキャラクタの移動方向)に対応する方向に、アイテムを移動させる。この場合のアイテムの移動速度は、例えば移動体の移動速度以下の速度である。またアイテムの移動速度の設定を、ユーザのゲームレベルやハンディ設定などに応じて変化させてもよい。このように移動体の移動に連動するようにアイテムを移動させることで、アイテムの獲得を容易化できる。
 また移動体処理部113は、獲得されたアイテムを移動させる処理を行う。例えばユーザキャラクタにより獲得されて保有状態となったアイテムを、移動体(ユーザキャラクタ)の移動に追従させて移動させる処理を行う。例えばアイテムがユーザキャラクタの一部として登録されることで、アイテムはユーザキャラクタに従属する。そしてユーザキャラクタが搭乗する移動体が移動すると、その移動に応じてアイテムも移動するようになる。
 またゲーム処理部115は、ユーザキャラクタがアイテムを獲得して保有している状態で、ユーザがアイテム使用動作を行ったとユーザ情報に基づき判断した場合に、アイテム使用処理を実行する。例えばユーザがアイテムを使用するような動作を行ったと、ユーザの位置情報、方向情報及び姿勢情報を含むユーザ情報に基づき判断されると、アイテム使用処理を実行させて、アイテムを投げたり、振るなどして移動させる処理や、アイテムの効果を発揮させる処理などを実行する。
 この場合にゲーム処理部115は、アイテム使用動作の動作方向、アイテム使用動作の強さ、アイテムの種類、アイテム使用動作の際のユーザの視線情報、及びアイテム使用動作を行うユーザの所定部位の状態の少なくとも1つに応じて、アイテム使用処理を実行する。例えばこれらの動作方向、強さ、種類、視線情報又は所定部位の状態に応じて、アイテム使用処理の実行の有無を判断したり、実行内容を設定する。アイテム使用動作の動作方向は、例えばアイテムを投げたり、振るなどして移動させる動作をユーザが行う場合に、その動作の方向である。またアイテム使用動作の強さは、例えばアイテムを投げたり、振るなどして移動させる動作をユーザが行う場合に、その動作の速度や加速度などにより表される動作の強さである。またアイテムの種類は、ユーザキャラクタにより獲得されたアイテムの種別を表すものである。例えばアイテムの種類に応じて、アイテムの形状、画像、或いはアイテム使用処理時に発揮する効果などが異なっている。アイテム使用動作の際のユーザの視線情報は、アイテムを投げるなどの動作を行っているときのユーザの視線の向く方向などである。例えば上方向などの所定の方向に視線を向けながら、アイテムを投げる動作を行うと、その視線の方向にアイテムを移動させる。またアイテム使用動作を行う際のユーザの所定部位の状態は、アイテム使用動作時の所定部位の方向(姿勢、所定座標軸周りの回転角度)や位置などの状態である。例えば所定部位の方向等の状態に応じて、アイテム使用動作を行うか否かを決定したり、或いはアイテム使用動作によるアイテムの移動方向等を決定する。
 またゲーム処理部115は、ユーザキャラクタがアイテムを獲得して保有している状態において、所与の条件が成立した場合に、ユーザキャラクタのアイテム保有状態を解除する。例えばアイテムの保有状態時に、所与の条件が成立すると、アイテムの獲得、保有の登録が解除され、保有していたアイテムが例えば消去されて非表示になる。
 アイテム保有状態を解除させる所与の条件は、例えばアイテムを獲得(保有)してから所与の時間が経過した場合や、特定のゲーム状況が発生した場合や、或いは上述のように通常操縦状態(基本姿勢状態)に戻った場合などに成立する。特定のゲーム状況は、移動体が衝突したり、或いは移動体がジャンプするなどの予め決められたゲームにおける特定の状況である。
 またゲーム処理部115は、アイテム獲得の報知処理を行う。例えばアイテムが獲得された場合に、アイテムが獲得されたことを、画像、音又は振動で報知する報知処理を行う。この報知処理はゲーム処理部115の報知処理部116が実行する。例えばアイテムが獲得された場合に、アイテムの画像やアイテムの周囲の表示物の画像を変化させたり、アイテムの獲得を知らせる特定のゲーム音(効果音)を出力したり、操作部160や可動筐体30を振動させる処理を行う。例えば可動筐体30に設けられる各種の体感装置(音、振動、空気砲又は光等による体感装置)により報知処理を実現することができる。
 また仮想空間設定部112は、ユーザの身体情報に応じて、アイテムの配置場所を設定してもよい。例えばユーザの体格の大きさなどの身体情報に応じて、アイテムの配置場所を異ならせる。例えば、ユーザが大人である場合(身長が高い場合)には、アイテムを高い場所に配置し、ユーザが子供である場合(身長が低い場合)には、アイテムを低い場所に配置する。またユーザの手などの所定部位の長さに応じてアイテムの配置場所を設定してもよい。或いはユーザの性別又は年齢などの情報に応じてアイテムの配置場所を設定してもよい。またユーザの身体情報は、例えばゲーム開始前にユーザが入力したりして初期設定するものであってもよいし、センサ等を用いてユーザの身体情報を自動的に取得してもよい。この身体情報の取得処理は例えば情報取得部111が行う。
 また本実施形態では表示処理部120は、表示画像として、ユーザが視界を覆うように装着するHDM200の表示画像を生成する。このように、ユーザが視界を覆うようにHMD200を装着する場合には、ユーザがアイテム獲得動作を行った場合に、ユーザキャラクタに当該アイテムを獲得させることは、ユーザの仮想現実感の向上のために有効である。但し、表示処理部120は、HMD200以外の表示部の表示画像を生成してもよい。例えば家庭用ゲーム装置におけるテレビ、パーソナルコンピュータや業務用ゲーム装置におけるモニターディプレイなどの表示部の表示画像を生成してもよい。
 また本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応するユーザキャラクタやその搭乗移動体などの移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。
 なお図1の本実施形態のシミュレーションシステムの処理は、業務用ゲーム装置や家庭用ゲーム装置などの処理装置、施設に設置されるPC等の処理装置、ユーザが背中等に装着する処理装置(バックパックPC)、或いはこれらの処理装置の分散処理などにより実現できる。或いは、本実施形態のシミュレーションシステムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。
 2.トラッキング処理
 次にトラッキング処理の例について説明する。図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。
 またユーザUSは、所定部位である手にトラッキング装置250、260を装着している。右手に装着されるトラッキング装置250には、HMD200と同様に複数の受光素子251~254が設けられている。左手に装着されるトラッキング装置260にも複数の受光素子261~264(不図示)が設けられている。このような受光素子が設けられたトラッキング装置250、260を用いることで、HMD200の場合と同様に、手等の所定部位の位置、方向等の部位情報を特定できるようになる。なおトラッキング装置が装着されるユーザUSの所定部位は、手(手の甲)には限定されず、例えば足、頭部、胸部、腹部又は腰等の種々の部位を想定できる。
 図2(B)に示すように、可動筐体30の周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201~203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキング処理が実現され、ユーザUSの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。例えばユーザUSの位置情報や姿勢情報(方向情報)を検出できるようになる。
 またトラッキング装置250、260に設けられる受光素子251~254、261~264が、ベースステーション280、284からのレーザーを受光することで、ユーザUSの手(広義には所定部位)の位置及び方向の少なくとも一方を検出できるようになる。
 図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231~236が設けられている。これらの発光素子231~236は例えばLEDなどにより実現される。発光素子231~234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231~236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231~236は、互いに異なる色の光を出射する。またユーザUSが手(所定部位)に装着するトラッキング装置250には発光素子255、256が設けられ、トラッキング装置260には発光素子265、266(不図示)が設けられている。
 そして図3(B)に示す撮像部150を、ユーザUSの周囲の少なくとも1つの場所(例えば前方側、或いは前方側及び後方側など)に設置し、この撮像部150により、HMD200の発光素子231~236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231~236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザUSの頭部(HMD)のトラッキングを実現する。即ちユーザUSの頭部の3次元位置や向く方向(視点位置、視線方向)を検出する。
 例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザUSの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザUSの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザUSが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。
 また撮像部150により、トラッキング装置250の発光素子255、256の光や、トラッキング装置260の発光素子265、266の光を撮像することで、HMD200の場合と同様に、ユーザUSの手(右手、左手)の位置及び方向の少なくとも一方を検出できる。
 なお、発光素子231~236、255、256、265、266として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部や手(所定部位)の位置や動き等を検出するようにしてもよい。
 また、ユーザUSやユーザUSの手(所定部位)の位置情報、姿勢情報を検出するトラッキング処理の手法は、図2(A)~図3(B)で説明した手法には限定されない。例えばHMD200やトラッキング装置250、260に設けられたモーションセンサ等を用いて、HMD200、トラッキング装置250、260のトラッキング処理を行って、位置情報や方向情報や姿勢情報を検出してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法を用いてもよい。或いはユーザのモーション(モーションデータ)を検出して特定するモーショントラッキングの手法を用いてもよい。
 3.可動筐体
 次に本実施形態の可動筐体30の構成例について説明する。図4は可動筐体30の斜視図である。
 図4に示す可動筐体30では、底部32の上にカバー部33が設けられ、その上に、ベース部34(台座部)が設けられる。ベース部34は底部32に対して対向するように設けられる。
 ベース部34には、シート62を有するライド部60が設けられる。ユーザUSは、このライド部60のシート62に着座する。またベース部34には、移動部40が設けられており、移動部40には、ハンドル50やアクセルペダル52、ブレーキペダル54(不図示)などの操作部160が設けられている。また移動部40には、ユーザに対して送風を行う送風機80が設けられている。この送風機80は例えばシロッコファンなどにより実現される。
 移動部40は、図4のE1に示すように前後方向に移動自在となっている。具体的には、移動のロック解除用のレバー(不図示)が設けられ、このレバーをユーザが操作することで、移動部40の移動のロックが解除される。そしてユーザは、例えば2cm刻みに10段階で、移動部40を、E1に示す方向に沿って移動させることができる。これにより、ユーザにとって最適なポジションに、ハンドル50等の操作部160を位置させる調整が可能になる。
 可動筐体30は、ユーザのプレイ位置を変化させる筐体(アーケード筐体、コックピット筐体等)である。例えば可動筐体30は、図1のゲーム処理部115(処理部100)のゲーム処理の結果(ゲーム状況)に応じて、ユーザのプレイ位置を変化させる。
 例えばゲーム処理部115は、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。例えば実空間のユーザに対応するユーザキャラクタが搭乗する移動体(車、ロボット等)を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。そして可動筐体30は、ゲーム処理であるシミュレーション処理の結果に基づいてプレイ位置を変化させる。例えばユーザキャラクタが搭乗する移動体(或いはユーザキャラクタ)の仮想空間での移動処理の結果等に基づいて、プレイ位置を変化させる。例えばレースゲームでは、車(レーシングカー)の移動の際の加速や減速や方向の変化に伴う加速度を、ユーザに体感させるためのシミュレーション処理として、プレイ位置を変化させる処理を行う。或いは敵からの攻撃が車にヒットした場合に、その衝撃をユーザに体感させるためのシミュレーション処理として、プレイ位置を変化させる処理を行う。
 ここでプレイ位置は、仮想現実(VR)のシミュレーションゲームをプレイする際にユーザが位置するプレイポジションである。例えばプレイ位置は、ユーザのライド部60のライド位置である。例えばユーザがライド部60のシート62に座って、仮想現実のシミュレーションゲームをプレイする場合には、プレイ位置は例えばシート62のライド位置である着座位置である。ユーザが、バイク、自転車、又は馬などの乗り物や動物を模擬したライド部にまたがっている場合には、プレイ位置は、またがっている位置である。またユーザが立ち姿勢でシミュレーションゲームをプレイする場合には、プレイ位置は、例えばライド部での立ち位置である。
 このように本実施形態のシミュレーションシステムは、ユーザのプレイ位置をゲーム処理の結果(ゲーム状況)に基づいて変化させることが可能な可動筐体30を有している。このように、プレイ位置(ライド位置)を変化させることで、例えば仮想空間でのユーザキャラクタの搭乗移動体(車、ロボット)の移動等に伴う加速度の変化等を、ユーザに体感させることが可能になり、仮想現実感の向上を図れる。
 具体的には図4において、底部32とベース部34の間には、その四隅に、不図示の第1~第4のエアバネ部(広義には伸縮部)が設けられている。これらの第1~第4のエアバネ部は、エアコンプレッサやバブルを用いて空気の供給や排出が行われることで、図4のY軸方向において伸縮する。例えば全ての第1~第4のエアバネ部が伸びたり、縮むことで、ベース部34を、Y軸方向で上側や下側に移動させることができる。これらの上下方向でのベース部34の移動により、例えばコースの路面状態の再現などが可能になる。例えば少ないストロークで、且つ、速い速度で上下方向にベース部34を移動させることで、路面の凹凸(ガタガタ道)などを表現できる。
 また、四隅の第1~第4のエアバネ部のうちの前側及び後ろ側の一方のエアバネ部が伸び、他方のエアバネ部が縮むことで、ベース部34を、X軸の回りにピッチングさせることができる。また四隅の第1~第4のエアバネ部のうちの左側及び右側の一方のエアバネ部が伸び、他方のエアバネ部が縮むことで、ベース部34を、Z軸の回りにローリングさせことができる。このようなピッチングやローリングを行うことで、車等の移動体の移動に伴う加速感、減速感や、コーナリング時の慣性力をユーザに体感させることができる。これによりユーザの仮想現実感を向上できると共に、いわゆる3D酔いを抑制することも可能になる。
 4.本実施形態の手法
 次に本実施形態の手法について説明する。なお、以下では、ユーザキャラクタが車に搭乗して他の車と競争するレースゲームに、本実施形態の手法を適用した場合について主に説明する。但し本実施形態の手法が適用されるゲームはこのようなレースゲームには限定されない。例えば本実施形態の手法は、レースゲーム以外の種々のゲーム(車以外の競争ゲーム、ロボットゲーム、FPS(First Person shooter)や格闘ゲーム等の対戦ゲーム、電車や飛行機等の乗り物のシミュレーションゲーム、RPG、アクションゲーム、仮想体験ゲーム、スポーツゲーム、ホラー体験ゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。
 4.1 ゲームの説明
 本実施形態では、仮想空間の移動体を操縦するゲームにおいて、ゲームの没入感を損なわず、自然な形でアイテムの獲得と使用を実現するための手法を実現する。具体的には本実施形態では、ユーザ(プレーヤ)が仮想空間でプレイするゲームにおいて、ユーザは移動体(FPS等でのユーザキャラクタを含む)を操縦し、仮想空間のゲーム状況を演算するゲーム処理が行われる。ユーザの位置、方向又は姿勢等はHMDやトラッキング装置により検出される。アイテムが設置されているエリアであって、移動体を操縦するユーザの通常状態では到達(接触)できない位置にあり、ユーザ(アバター)が、そのエリアの方向(上下左右)に、所与の動作(閾値以上の移動、接近)を行うことによって、エリア内のアイテムを獲得することが可能となるアイテムエリアが設定される。そしてユーザの所与動作(閾値以上の移動、接近)が検出された際にアイテムを獲得できるようにする。
 このような本実施形態の手法により実現されるレースゲームについて説明する。このレースゲームでは、実空間のユーザに対応する仮想空間のユーザキャラクタが、ドライバーとなって車(レーシングカー)に搭乗して運転し、敵車と競争する。コースにはアイテムエリアが設定され、このアイテムエリアのアイテムを獲得して使用することで、レースゲームを優位に進めることができる。
 図5(A)~図9(B)は本実施形態により生成されるゲーム画像の例であり、図10(A)~図12(B)はゲームプレイ中のユーザの動作を説明する図である。
 図10(A)は、ユーザUSが通常操縦状態(基本姿勢状態)の場合であり、A1に示すようにユーザUSは右手、左手の両手でハンドル50を握って車の運転を行っている。この場合にはユーザUSのHMD200には図5(A)、図5(B)に示すようなゲーム画像が表示される。このゲーム画像では、仮想空間のコースで走行するユーザの車CP(広義には移動体)や敵車CE(敵移動体)が表示されている。また車CPのハンドルSTや、ハンドルSTを操作するユーザキャラクタ(プレーヤキャラクタ)の手HR、HL(部位)も表示されている。
 そして図10(A)の実空間のユーザUSがハンドル50を左に操舵すると、図5(A)に示すように仮想空間においても、車CPのハンドルSTがユーザキャラクタの手HR、HLにより左に操舵されるゲーム画像が表示される。また実空間のユーザUSがハンドル50を右に操舵すると、図5(B)に示すように仮想空間においても、ハンドルSTがユーザキャラクタの手HR、HLにより右に操舵されるゲーム画像が表示される。即ち実空間のユーザUSの手の動きに連動して、仮想空間のユーザキャラクタの手HR、HLも動くようなゲーム画像が表示される。このようにすることで、あたかも本物の車を運転しているかのような仮想現実感をユーザUSに与えることができる。
 そして本実施形態のレースゲームでは、コースに沿ったアイテムエリアにアイテムが配置される。例えば図6(A)では爆弾のアイテムBMが、風船BALに取り付けられて、ユーザキャラクタが運転する車CPの前方に出現している。このアイテムBMを獲得するために、図10(B)に示すように実空間のユーザUSは、例えばA2に示すように右の手をハンドル50から離して、A3に示すように上方に上げる。この右の手の位置や方向の情報は、トラッキング装置250により手の部位情報として取得される。
 このように実空間のユーザUSが手を上げると、図6(A)に示すように仮想空間のユーザキャラクタも手HRを上げる。即ち上述のようにトラッキング装置250によりユーザUSの手の位置、方向が検出され、この検出結果に基づいて、仮想空間の手HRの位置、方向も変化するようになる。そして本実施形態では、このように上げられた手HRの高さに、アイテムBMが配置されている。即ち図10(A)のような通常操縦状態(両手運転時)では接触できない位置であって、図10(B)に示すような非通常操縦状態時(片手運転時)では接触できる位置に、アイテムBMが配置されている。
 そして図6(B)では、実空間のユーザUSが手を動かすことで、仮想空間のユーザキャラクタの手HRが動き、手HRがアイテムBMに接近(接触)し、アイテムBMの獲得に成功している。即ちユーザUSがアイテム獲得動作を行うことで、アイテムBMを獲得している。この際に例えば画像、音又は振動等を用いて、アイテムBMが獲得されたことを知らせる報知処理が行われる。そして、このようにアイテムBMの獲得に成功すると、アイテムBMは保有状態になり、爆弾のアイテムBMは手HRと一体となって動くようになる。例えばユーザキャラクタの手HR(手の骨)の動きに追従するようにアイテムBMが動く。例えばアイテムBMが手HRに従属するパーツオブジェクトとして登録される。
 爆弾のアイテムBMの獲得に成功したユーザUSは、例えば図11のB1に示すようなアイテム使用動作を行う。例えばオーバースローのフォームで、視点から見て手前側から奥側に手を振って、爆弾を投げる動作を行う。すると図7(A)に示すように、仮想空間においても、ユーザキャラクタの手HRが爆弾のアイテムBMを投げる動作が行われるようになる。例えば左の手HLでハンドルSTを握りながら、右の手HRでアイテムBMを投げる動作が行われる。これにより爆弾のアイテムBMが敵車CEに向かって投げられて飛んで行く。即ちアイテム使用処理が実行される。
 そして図7(B)では、投げられた爆弾のアイテムBMが敵車CEにヒットしたため、例えば爆発のエフェクトEFの画像が表示され、敵車CEに対してダメージが与えられる。
 また図8(A)では、風船BALに取り付けられたハンマーのアイテムHMが出現している。そしてユーザUSがアイテム獲得動作を行うことで、図8(B)では、手HRによりアイテムHMを獲得することに成功しており、アイテムHMが保有状態となっている。即ち、あたかも手でハンマーを持ったかのように、アイテムHMは手HRと一体となって動くようになる。
 そして図12(A)では、B2に示すようにユーザUSは、アイテム使用動作として、手を縦方向に振る動作を行っている。これにより図9(A)に示すように仮想空間においても、ユーザキャラクタの手HRがハンマーのアイテムHMを持って縦方向に振る動作が行われるようになる。そして図9(B)では、振ったハンマーのアイテムHMが敵車CEにヒットしたため、ハンマーがヒットしたことを表すエフェクトEFの画像が表示され、敵車CEに対してダメージが与えられる。
 このようなハンマーの場合には、図12(A)のB2に示すように縦方向にユーザUSが手を振った時には、仮想空間においても縦方向にハンマーのアイテムHMが振られる動作(アイテム使用動作)が行われる。一方、図12(B)のB3に示すように斜め横方向にユーザUSが手を振った時には、仮想空間においても斜め横方向にハンマーのアイテムHMが振られる動作が行われる。即ち、ユーザUSがいずれの方向で振る動作を行った場合にも、対応する方向でアイテムHMが振られる動作が行われるようになる。
 一方、爆弾の場合には、例えば図11に示すようにオーバースローのフォームで手前側から奥側に縦方向に手を振った時にだけ、爆弾のアイテムBMを投げる動作が行われる。例えばサイドスローのように横方向に手を振った場合には、爆弾のアイテムBMを投げる動作は行われない。また例えば手を振る速さが、所与の速度以上である場合にだけ、爆弾のアイテムBMを投げる動作が行われる。このように本実施形態では、アイテム使用動作の動作方向、アイテム使用動作の強さ(速さ)、或いはアイテム使用動作を行う際のユーザUSの手HR(所定部位)の状態(位置、方向)などに応じて、アイテム使用処理を実行する。例えばアイテム使用処理の実行の有無を判断したり、実行処理の内容(レベル)を設定する。
 以上のように本実施形態の手法によれば、ユーザは、あたかも自身の手で本物の爆弾を取って敵車に対して投げたり、自身の手で本物のハンマーを握って敵車を叩いたかのような仮想現実感を得ることができる。例えば本実施形態ではユーザの手の動きをトラッキング装置により検出しているため、実空間でのユーザの手の動きと、仮想空間でのユーザキャラクタの手の動きが連動するようになる。従って、キーボード、マウス又はゲームコントローラ等の操作部材を用いて爆弾を投げる操作を行う手法に比べて、仮想現実感を大幅に向上できるという利点がある。
 4.2 アイテムの獲得、使用
 次に本実施形態の手法について更に詳細に説明する。図5(A)~図12(B)で説明したように本実施形態では、実空間で通常操縦状態であったユーザが、例えば一方の手をハンドル50から離してアイテム獲得動作を行うことで、アイテムの獲得が可能になる。この場合に本実施形態ではユーザの通常操縦状態時にはユーザキャラクタが接触できない場所にアイテムエリア(アイテム配置場所)を設定する。
 例えば図13ではユーザが通常操縦状態であり、ユーザに対応するユーザキャラクタCHが車CPに乗り、コースCSを走行している。そしてユーザが両手でハンドルを握る通常操縦状態であるため、仮想空間の車CPを運転するユーザキャラクタCHも、両手でハンドルSTを握る通常操縦状態になっている。この場合に図13では、アイテムHM、BMが配置されるアイテムエリアARは、ユーザの通常操縦状態時にはユーザキャラクタCHが接触できない場所に設定されている。即ちユーザキャラクタCHの両方の手HR、HLがハンドルSTを握っているため、実空間のユーザが手を上げて、ユーザキャラクタCHが手HR又はHLを上げない限り、アイテムエリアARのアイテムHM、BMに触れることはできない。このようにすれば、両手でハンドルSTを握る通常操縦状態時には、アイテムHM、BMを獲得できないようになり、ユーザが意図していないのにアイテムHM、BMが獲得されてしまうような不自然な事態の発生を防止できる。
 例えばユーザが意図していないのに、車CPがコースCS上を走行するだけでアイテムHM、BMを獲得できてしまうと、なぜアイテムHM、BMを獲得できたかをユーザが理解できなくなり、ユーザの仮想現実感が低下してしまう。この点、通常操縦状態では手の届かない所にアイテムHM、BMを配置すれば、ユーザが意図しないのにアイテムHM、BMが獲得されて不自然さを感じてしまうような事態を防止でき、仮想現実感を向上できるようになる。なお、アイテムエリアやアイテムの配置手法は図13の手法には限定されず、例えば通常操縦状態時にも接触できるような場所にアイテムエリアやアイテムを配置する変形実施も可能である。
 そして本実施形態では、ユーザがアイテムの方向に向けてアイテムの獲得動作を行ったと判断した場合に、アイテムをユーザキャラクタに獲得させる処理を行う。具体的にはユーザが所定部位を動かすことで、所定部位に対応するユーザキャラクタの部位がアイテムに接近(接触)したと判断した場合に、アイテム獲得動作が行われたと判断する。
 例えば図10(A)の通常操縦状態のユーザ(US)が、ハンドル50から一方の手を離して上方に上げると、ユーザがアイテムの方向に向けてアイテムの獲得動作を行ったと判断する。この判断処理は、ユーザの手に取り付けられたトラッキング装置250、260により検出された手の位置又は方向等の部位情報(広義にはユーザ情報)に基づき行われる。そしてこのようにユーザが手を上げると、図6(A)に示すように仮想空間のユーザキャラクタの手HRも上方に上がり、アイテムBMの獲得が可能になる。
 そして図14(A)に示すようにユーザキャラクタの手HRがアイテムBMに接近したと判断された場合に、図14(B)に示すようにアイテムBMが獲得されたと判断する。例えばキャラクタの手HRとアイテムBMの距離がしきい値以下になった場合にアイテムBMが獲得されたと判断する。より具体的には、例えばアイテムBMに設定されたヒットボリューム等と手HRに設定されたヒットボリューム等を用いてヒット判定処理を行い、ヒットしたと判定された場合にアイテムBMが獲得されたと判断する。このヒット判定処理は、仮想空間でのアイテムBMの位置情報と、トラッキング装置250、260により検出されたユーザの手の部位情報(位置、方向)に基づき行われる。
 そして図14(B)に示すようにアイテムBMが獲得されると、当該アイテムBMはユーザキャラクタの保有アイテムとして登録され、例えば手HRにアイテムBMが従属して、手HRとアイテムBMが一体化された保有状態になる。またアイテムBMが獲得されると、例えばエフェクト等の画像や効果音などの音や振動によるアイテム獲得の報知処理が行われる。このような報知処理が行われることで、ユーザは、アイテムを獲得したことを、視覚、聴覚又は触覚により認識できるようになる。
 また本実施形態では、ユーザキャラクタがアイテムを獲得して保有した状態で、ユーザが例えば所定部位を用いてアイテム使用動作を行ったと判断した場合に、アイテム使用処理を実行する。例えばアイテムを保有した状態で、ユーザが所定の動作を行ったとユーザ情報に基づき判断された場合に、アイテムの使用処理が実行されたと見なす。この場合のアイテムの使用動作は、アイテムの獲得の際に使用した手等の所定部位の動作である。即ち、所定部位である手でアイテムを獲得した場合には、その手で、アイテムを投げるなどのアイテム使用動作が行われたか否かが判断される。
 例えば図14(C)ではアイテムを投げるというアイテム使用動作が行われたと判断され、図14(D)ではアイテムを振るというアイテム使用動作が行われたと判断されている。例えば図6(A)~図7(B)の場合には、爆弾のアイテムBMを投げるというアイテム使用動作が行われたと判断される。そして爆弾のアイテムBMが敵車CEの方に飛んで行ったり、敵車CEにヒットして爆発のエフェクトEFが発生したり、敵車CEにダメージを与えるなどのアイテム使用処理が実行される。また図8(A)~図9(B)の場合には、ハンマーのアイテムHMを振るというアイテム使用動作が行われたと判断される。そしてハンマーのアイテムHMが敵車CEをターゲットとして振られたり、敵車CEにヒットして爆発のエフェクトEFが発生したり、ハンマーが当たって敵車CEが衝撃で回転するなどのアイテム使用処理が実行される。
 この場合に本実施形態では、アイテム使用動作の動作方向、アイテム使用動作の強さ、アイテムの種類、アイテム使用動作の際のユーザの視線情報、或いはアイテム使用動作を行うユーザの手(所定部位)の状態などに応じて、アイテム使用処理の実行の有無を判断したり、アイテム使用処理の実行内容を設定して、アイテム使用処理が実行される。例えば図6(A)~図7(B)の爆弾のアイテムBMの場合には、図11のようにユーザの手の動作方向が、オーバースローの方向であり、且つ、アイテム使用動作の強さである投げる際のリリース速度が、所定速度以上である場合に、爆弾のアイテムBMが投げられるというアイテム使用処理が実行される。一方、図8(A)~図9(B)のハンマーのアイテムHMの場合には、図12(A)、図12(B)に示すようなユーザの手の動作方向に応じた方向に、ハンマーのアイテムHMが振られることになる。この場合には、アイテム使用動作の強さである振り速度が遅くても、ハンマーのアイテムHMは、その遅い速度で振られることになる。即ち、アイテムの種類(爆弾、ハンマー)に応じて、アイテム使用処理の実行の有無を判断したり、アイテム使用処理の実行内容を設定して、アイテム使用処理が実行される。或いは、例えばカーブして飛ぶような種類のアイテムであれば、アイテム使用処理の際に、アイテムを、カーブした軌道で移動させる。また例えば、バナナのように敵車をスリップさせるような種類のアイテムであれば、敵車の前に当該アイテムが投げられた場合に、敵車をスリップさせるようなアイテムの使用処理が行われる。
 図6(A)~図7(B)の爆弾のアイテムBMの場合には、アイテムBMを投げるというアイテム使用動作の際のユーザの視線情報も反映させて、アイテム使用処理が実行される。例えばユーザが上方向に視線を向けながら、投げる動作を行うと、アイテムBMは上方向に山なりに投げられるようになる。この場合のユーザの視線情報はHMD200のトラッキング処理により取得される。また図6(A)~図7(B)の爆弾のアイテムBMの場合は、投げる際の手の位置、方向等の状態も判断される。例えば図11のようにユーザが手の平を正面側に向けていることを条件に、アイテムを投げるアイテム使用動作が行われたと判断して、アイテム使用処理が実行される。即ち手の平が投げる方向側に向いていることを条件に、アイテムが投げられるというアイテム使用処理が実行される。このように種々の条件や情報に応じて、アイテム使用処理を実行すれば、より現実世界の事象に近いアイテムの使用処理を実現できるようになり、ユーザの仮想現実感を向上できる。
 なお本実施形態では、ユーザの所定部位に対応するユーザキャラクタの部位(部位オブジェクト、パーツオブジェクト)は、その位置、方向などの部位情報がトラッキング装置250、260により検出され、検出位置に対応する仮想空間の位置に表示される。具体的には、手等の所定部位の位置情報及び方向情報の少なくとも1つを含む部位情報が、ユーザ情報として取得され、所定部位に対応するユーザキャラクタの部位が、取得された記部位情報に基づき仮想空間に配置設定される。そして仮想空間に配置設定された部位を表示する処理が行われる。例えば図10(A)においてユーザがハンドル50を左右に操舵すると、それに応じて、図5(A)、図5(B)に示すようにユーザの手に対応するユーザキャラクタの手HR、HL(広義には部位)が、ハンドルSTを左右に操舵している画像が表示される。またユーザが手により爆弾を投げる動作を行うと、それに応じて、図6(B)~図7(A)に示すようにユーザキャラクタの手HR(疑似的な手)が、爆弾のアイテムBMを投げる画像が表示されるようになる。またユーザが手によりハンマーを振る動作を行うと、それに応じて、図8(B)~図9(A)に示すようにユーザキャラクタの手HRが、ハンマーのアイテムBMを振っている画像が表示されるようになる。このようにすれば、ユーザの手と、仮想空間のユーザキャラクタの手とが、連動して動くようになるため、ユーザの仮想現実感を更に向上できる。
 また本実施形態では、ユーザキャラクタがアイテムを獲得して保有している状態において、所与の条件が成立した場合に、ユーザキャラクタのアイテム保有状態を解除する。例えばアイテムの保有状態の後、ユーザが通常操縦状態(基本姿勢状態)に戻った場合に、アイテム保有状態を解除する。或いはアイテム保有状態の後、所与の時間が経過したり、特定のゲーム状況(移動体の衝突、回転又はジャンプ等)が発生した場合に、アイテム保有状態を解除する。
 例えば図15(A)では、ユーザは両手でハンドルを握って操縦する通常操縦状態から、一方の手をハンドルから離してアイテムを獲得、保有する動作を行っている。そしてこの保有状態においてアイテムの使用動作を行っている。
 一方、図15(B)では、通常操縦状態から、一方の手でアイテムを獲得、保有した後、再度、通常操縦状態に戻っている。このように通常操縦状態に戻ると、アイテムの保有状態が解除され、例えばアイテムが消去されたり、アイテムが非表示になる。これによりユーザは、獲得、保有したアイテムを使用できなくなる。
 このようにすれば、ユーザが通常操縦状態から、手をハンドルから離して、アイテムを保有している時にだけ、アイテムを使用できるようになる。そして例えばユーザが運転に集中するために両手でハンドルを握る通常操縦状態に戻ると、アイテムの保有状態が自動的に解除されるようになり、ユーザの利便性を向上できる。或いは、アイテムを獲得、保有した後、所与の時間(例えば5秒~10秒)が経過すると、アイテムの保有状態が解除され、アイテムが消去、非表示になる。或いは、例えば攻撃や衝突、或いは壁との衝突などにより、車が回転状態等になるようなゲーム状況の場合にも、アイテムの保有状態が解除される。また例えば敵車がジャンプしている時に、アイテムがヒットして、敵車が回転状態等になると、敵車のユーザのいわゆる3D酔いが発生してしまうおそれがある。このため、このようなゲーム状況の場合にも、アイテムの保有状態を解除して、アイテムを使用できないようにする。
 なお、保有状態が解除されたアイテムを、一時的に使用不可にして、ストックするようにしてもよい。例えばユーザキャラクタの手等の部位との連結は解除されるが、再び使用できるように当該アイテムをストックする。そして、例えば使用許可条件が満たされた場合に、ストックされたアイテムの使用処理を実行できるようにしてもよい。
 また本実施形態では、ユーザの通常操縦状態でのユーザ情報を、記憶部170に記憶させる処理を行う。例えばゲーム開始前の初期設定時に通常操縦状態の姿勢でのユーザ情報を記憶させる処理を行う。例えば、ゲーム開始時に、施設のオペレータ等が、図16(Aに示すようにユーザに対して、両手でハンドル50を握るように指示する。具体的には右手と左手を結ぶ線がハンドル50の中心を通るように握ることを指示する。そして、ユーザが、このような通常操縦状態の姿勢を取った状態で、トラッキング装置250、260により検出された手の位置、方向等の部位情報を、初期設定情報として記憶部170(初期設定情報記憶部174)に記憶する。この手の位置、方向等は、例えば図2(B)のベースステーション280、284による検出の座標空間での位置、方向等である。
 このようにすれば、記憶された部位情報に基づいて、ユーザが通常操縦状態なのか否かを容易に判断できるようになる。これにより、ユーザがハンドル50から手を離し、通常操縦状態ではなくなったか否や、アイテムの保有状態の解除処理においてユーザが通常操縦状態に戻ったか否かなどを、簡素な処理で判断できるようになる。また例えば、記憶された部位情報に基づきユーザが通常操縦状態であると判断されたことを条件に、例えば図5(A)、図5(B)に示すように、実空間でのユーザのハンドル50の操舵に連動して、仮想空間のユーザキャラクタがハンドルSTを握る手HR、HLを動かすような画像の生成も可能になる。
 例えば図4の可動筐体30では、移動部40をE1の方向に沿って前後に移動することができる。これにより、ユーザは、自身の好みの位置にハンドル50をセットできるようになる。このように移動部40による調整が行われた場合にも、図16に示すようにユーザの手に取り付けられたトラッキング装置250、260により、手の位置等を部位情報として検出すれば、通常操縦状態でのユーザの右、左の手の位置を適切に検出して、初期設定情報として記憶できるようになる。即ち、移動部40によりどのような調整が行われたかを、調整位置検出用の別のセンサにより検出しなくても済むようになる。
 また本実施形態では、ユーザの右、左の手の部位情報をトラッキング装置250、260により検出して、アイテム獲得等の判断処理を行っているため、ユーザの利き腕などの事情を考慮しなくても済むという利点がある。例えば、同じ右利きのユーザであっても、アイテムの獲得を行う場合に、左手でハンドル50を握りながら、右手でアイテムを獲得しようとするユーザもいれば、右手でハンドル50を握りながら、左手でアイテムを獲得しようとするユーザもいる。従って、例えばゲームの開始前に、ユーザの利き腕を施設のオペレータが問い合わせる手法では、ユーザがいずれの手でアイテムを獲得しようとするのかを、適切に判断することができない。
 この点、図16では、ユーザの右、左の手に取り付けられたトラッキング装置250、260を用いて、ユーザのアイテム獲得動作等を判定している。例えば左手でハンドル50を握りながら、右手でアイテムを獲得しようとするユーザについては、右手に取り付けられたトラッキング装置250を用いて、右手によりアイテム獲得動作等が行われた事を判定できる。一方、右手でハンドル50を握りながら、左手でアイテムを獲得しようとするユーザについては、左手に取り付けられたトラッキング装置260を用いて、左手によりアイテム獲得動作が行われた事を判定できる。従って、ユーザの利き腕などの事情を考慮しなくても適切な判定処理を行うことが可能になる。
 また本実施形態では図10(A)~図12(B)に示すように、ユーザは、視界を覆うようにHMD200を装着しており、このHMD200の表示画像として、図5(A)~図9(B)に示すようなゲーム画像が表示される。このようにユーザは視界を覆うようにHMD200を装着しているため、トラッキング装置250、260はHMD200に遮られてユーザには見えないようになる。従って、自身の手にトラッキング装置250、260が取り付けられていても、ユーザは不自然さを感じず、ゲームに没頭している時にはトラッキング装置250、260の存在についても忘れてしまうという利点がある。この意味で、HMD200を用いるシステムにおいてトラッキング装置250、260により手の位置等を検出して、アイテムの獲得処理等を行う手法は有効である。
 またHMD200で視界を覆われているユーザは、実空間のハンドル50を見ることができないため、手をハンドル50にぶつけてしまうおそれもある。この点、本実施形態では、図5(A)、図5(B)等に示すように、実空間のハンドル50に対応する仮想空間のハンドルSTや、実空間のユーザの手に対応するユーザキャラクタの手HR、HLを、HMD200に表示している。そして、この表示処理は、図16で説明したように通常操縦状態で記憶された手の部位情報に基づき行われる。従って、仮想空間のハンドルSTの場所に対応する場所に実空間のハンドル50が位置するようになるため、HMD200の表示画像を見ながらゲームをプレイするユーザが、誤って手をハンドル50にぶつけてしまうような事態を防止できるようになる。
 また本実施形態ではユーザキャラクタのアイテムの獲得の際に、移動体の移動方向にアイテムを移動させる処理を行う。例えば図6(A)において、ユーザキャラクタは、仮想空間のコース上を走行する車CP(移動体)に搭乗しているため、ユーザキャラクタの手HRも、車CPの速度と同じ速度で移動するようになる。このため、手HRに対するアイテムBMの相対速度が速くなってしまい、アイテムBMを獲得するのが難しくなってしまうという事態が生じる。
 そこで本実施形態では図17(A)に示すように、手HRによるアイテムBMの獲得の際に、車CPの移動方向にアイテムBMを移動させる処理を行う。例えば車CPの移動の速度がVAであり、ユーザキャラクタの手HRが速度VAで移動する場合には、例えばVI≦VAとなる速度でアイテムBMを移動させる移動処理を行う。例えば手HRとアイテムBMの距離が所与の距離以下となった場合に、当該移動処理を開始する。このようにすれば、例えばバトンリレーのように、手HRに対するアイテムBMの相対速度を遅くできるため、図17(B)に示すように、ユーザは容易にアイテムBMを獲得できるようになる。これにより、ユーザがアイテムBMをなかなか獲得できないため、ゲームを楽しんだりゲームに没入できなくなってしまうような事態を防止できる。
 なお、アイテム獲得の際にアイテムBMを速度VIで移動させる移動処理における速度VIの設定については、種々の手法を採用できる。例えば初級プレーヤについては、速度VIと速度VAの差を小さくして、アイテムの獲得を容易にする一方で、上級プレーヤについては、速度VIと速度VAの差を大きくして、アイテムの獲得を難しくしてもよい。例えば速度VIによりゲームプレイのハンディ設定を行う。或いは、速度VIを可変に変化させるような特定のアイテム等を用意してもよい。或いは、アイテム獲得の際に、手HRの移動方向とは逆方向にアイテムBMを移動させて、アイテムの獲得を非常に困難にするような手法を採用してもよい。
 また本実施形態では、ユーザキャラクタにより獲得されて保有状態となったアイテムを、移動体の移動に追従させて移動させる処理を行う。例えば図17(C)ではユーザキャラクタCHによりアイテムBMが獲得されて保有状態になっている。この場合には、ユーザキャラクタCHが搭乗する車CPの移動と共にアイテムBMも移動する。例えばアイテムBMはユーザキャラクタCHの手HRに連結されて、手HRと一体になる。例えば車CPのローカル座標系の位置にアイテムBMの位置を設定する。これにより仮想空間の車CPがコース上を移動すると、その移動に伴ってアイテムBMも移動するようになる。そして例えば図6(B)のようにユーザキャラクタCHがアイテムBMを獲得した手HRを用いて、図7(A)、図7(B)に示すように爆弾のアイテムBMを投げるようなアイテムの使用処理も実現できるようになる。また図8(B)のようにユーザキャラクタCHがアイテムHMを獲得した手HRを用いて、図9(A)、図9(B)に示すようにハンマーのアイテムBMを敵車CEをターゲットとして振るようなアイテムの使用処理も実現できるようになる。
 また本実施形態では移動体が移動するコースに対してアイテムエリアを設定している。例えば前述の図13において、移動体である車CPが移動するコースCSに沿ってアイテムエリアARを設定する。このようにすれば、レースゲームのようにコースに沿って車を移動させるゲームにおいて、車の操縦や敵車との競争の楽しみの要素だけではなく、アイテム獲得の楽しみの要素も付加することができ、ゲームの面白味を増すことができる。
 また本実施形態では、ユーザの身体情報に応じて、アイテムの配置場所を設定するようにしてもよい。
 例えば図18(A)では、実空間において、大人のユーザUSAが可動筐体30(ゲーム筐体)に搭乗してゲームをプレイしている。この場合には図18(B)に示すように、仮想空間において、アイテムHM、BM(アイテムエリアAR)の配置場所を高い位置に設定する。このようにすれば、背が高い大人のユーザUSAが手を上げた場所に、アイテムHM、BMを配置して、ユーザUSAが、これらのアイテムHM、BMを獲得できるようになる。
 一方、図18(C)では、実空間において、子供のユーザUSCが可動筐体30に搭乗してゲームをプレイしている。この場合には図18(D)に示すように、仮想空間において、アイテムHM、BM(アイテムエリアAR)の配置場所を、図18(B)に比べて低い位置に設定する。このようにすれば、背が低い子供のユーザUSCが手を上げた場所に、アイテムHM、BMを配置して、ユーザUSCが、これらのアイテムHM、BMを適切に獲得できるようになる。このように、ユーザの身長や体格などの身体情報に応じてアイテムを配置すれば、ユーザの身長等に応じた適切な場所にアイテムを配置して、当該アイテムをユーザが獲得できるようになる。
 なおユーザの身体情報は、例えばゲームの開始前にユーザが告知するなどして手動で入力してもよいし、例えばセンサ等によりユーザの身長や体格などの身体情報を自動認識してもよい。
 4.3 変形例
 次に本実施形態の変形例について説明する。例えば図4~図18(D)では、ユーザに対応するユーザキャラクタが車等の移動体に搭乗するゲームに本実施形態の手法を適用した場合について説明したが、本実施形態はこれに限定されるものではない。例えばFPSやRPGのゲームなどのように、移動体には搭乗せずにユーザキャラクタの一人称視点で行われるようなゲームにも、本実施形態の手法は適用可能である。
 図4は、このようなゲームにおいて用いられるフィールドの説明図である。このゲームでは、現実世界の施設等にフィールドFL(プレイフィールド、プレイエリア、プレイ空間)が用意され、ユーザUS1~US4はこのフィールドFLにおいて移動する。フィールドFLには、壁等により実現される仕切りWLが設けられている。
 ユーザUS1~US4は、HMD1~HMD4を装着すると共にガン型コントローラGN1~GN4(広義にはコントローラ)を所持している。またユーザUS1~US4は、例えば右手にトラッキング装置SR1~SR4を装着しており、左手にも不図示のトラッキング装置を装着している。これらのトラッキング装置を用いることで、ユーザUS1~US4の右手や左手の位置、方向等を特定できる。更にユーザUS1~US4は、不図示の処理装置(バックパックPC)を例えば背中に装着している。これらのユーザUS1~US4は、例えばチーム対戦ゲームのためにチーム(広義にはグループ)を組んでいる。HMD1~HMD4には仮想空間での映像が映し出されており、ユーザUS1~US4は、この映像を見ながら対戦ゲーム等のゲームをプレイする。
 図20はこのようなゲームにおいて、HMDに表示されるゲーム画像の例である。例えば図20は、図19のユーザUS1のHMD1に表示されるゲーム画像の例であり、ユーザUS1に対応するユーザキャラクタMV1(ユーザアバター)の手や所持する銃GV1が表示されている。また味方チームのユーザUS2、US3に対応するユーザキャラクタMV2、MV3や、敵チームのユーザに対応するユーザキャラクタMB1、MB2、MB3が表示されている。味方チームのユーザキャラクタMV1、MV2、MV3は、所持する銃GV1、GV2、GV3により敵側に対して攻撃を行い、敵チームのユーザキャラクタMB1、MB2、MB3は、所持する銃GB1、GB2、GB3により攻撃を行う。
 そして本実施形態では、このようなゲームにおいて、ユーザがアイテムの獲得動作を行ったか否かを、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(部位情報)に基づき判断し、アイテム獲得動作を行ったと判断した場合に、アイテムをユーザキャラクタに獲得させる処理を行う。そしてユーザキャラクタがアイテムを獲得して保有している状態で、ユーザがアイテム使用動作を行ったと、ユーザ情報(部位情報)に基づき判断した場合に、アイテム使用処理を実行する。
 例えば図21(A)では、基本姿勢状態であったユーザUSが、アイテムを獲得するために手を上げるアイテム獲得動作を行っている。この手のアイテム獲得動作は、手に取り付けられたトラッキング装置SLからの部位情報(ユーザ情報)に基づき検出できる。そして、このようなユーザUSの手を上げるアイテム獲得動作により、図21(B)に示すように、ユーザUSの分身であるユーザキャラクタMVが、仮想空間において爆弾のアイテムBMを獲得している。これによりアイテムBMはユーザキャラクタMVに保有された状態になる。
 そしてこのようにユーザキャラクタMVがアイテムBMを獲得して保有している状態で、図22(A)に示すようにユーザUSが、アイテム使用動作を行っている。即ち、手を手前側から前方側に振って投げる動作を行っている。このアイテム使用動作は、手に取り付けられたトラッキング装置SLからの部位情報(ユーザ情報)に基づき検出できる。これにより仮想空間のユーザキャラクタMVは、手に持っていたアイテムBMを投げ、アイテム使用処理が実行される。例えば爆弾のアイテムBMが敵にヒットすると、爆弾の爆発のエフェクトが表示されたり、敵にダメージを与えるアイテム使用処理が実行される。
 このように図21(A)~図22(B)では、ユーザが一方の手を動かしてアイテムの獲得動作を行い、当該一方の手を用いてアイテムの使用動作を行うと、ユーザキャラクタMVが一方の手でアイテムを獲得して、当該一方の手でアイテムを投げて敵に当てるというアイテム使用処理が実行される。そして、この場合のアイテム獲得動作やアイテム使用動作の検出が、トラッキング装置により検出された部位情報(ユーザ情報)に基づき行われる。従って、爆弾などのアイテムを獲得して使用するという一連の動作を、あたかも現実世界において行っているようなリアルな仮想現実感をユーザに与えることが可能になる。即ちHMDを装着することでユーザの視野に広がるVR空間において、あたかも本物の爆弾を手に取って投げたかのような仮想現実感を実現できる。
 また本実施形態では、基本姿勢状態のユーザがアイテムの獲得動作を行ったか否かを、ユーザ情報に基づき判断し、アイテム獲得動作を行ったと判断した場合に、アイテムをユーザキャラクタに獲得させる処理を行う。そしてユーザキャラクタがアイテムを獲得して保有した後、ユーザが基本姿勢状態に戻ったと判断した場合には、ユーザキャラクタのアイテム保有状態を解除する処理を行う。
 例えば本実施形態では、前述の図21(A)、図21(B)に示すように、ユーザUSがアイテムの獲得動作を行ったと判断されると、ユーザキャラクタMVにアイテムBMを獲得させる処理が行われる。そして、このようにユーザキャラクタMVがアイテムBMを獲得して保有した後、図23(A)に示すようにユーザUSが基本姿勢状態に戻ったとする。即ち、アイテムの獲得を行わない通常の基本姿勢状態に戻ったとする。この基本姿勢状態(通常姿勢状態)は、一方の手にガン型コントローラGNを持ち、他方の手は何も持たずに、体の前方に置いた状態である。このようにユーザUSが基本姿勢状態に戻ると、図23(C)に示すように仮想空間では、ユーザキャラクタMVによるアイテムBMの保有状態が解除される。即ち、アイテムBMが消去されて非表示になり、ユーザキャラクタMVはアイテムBMを使用できなくなる。
 このようにすれば、ユーザが基本姿勢状態から手を上げるなどのアイテム獲得動作を行って、アイテムを保有している状態の時にだけ、アイテムを使用できるようになる。そして例えばユーザにアイテムの使用意思が無く、基本姿勢状態に戻ると、アイテムの保有状態が自動的に解除されるようになり、ユーザの利便性を向上できる。なおアイテムを獲得してから所与の期間経過した場合や、特定のゲーム状況になった場合に、アイテムの保有状態を解除するようにしてもよい。またアイテムの保有状態の解除処理は、一時的にユーザキャラクタの手等の部位とアイテムとの連結を解除して、当該アイテムをストック場所にストックする処理であってもよい。そして例えば制限時間内にユーザが、再度、手を上げるなど、所与の使用許可条件を満たした場合には、ストックされたアイテムを使用できるようにしてもよい。
 4.4 詳細な処理
 次に本実施形態の詳細な処理例について図24、図25のフローチャートを用いて説明する。
 図24は本実施形態の全体的な処理の概要を示すフローチャートである。まず、両手でハンドルを握った状態のユーザの手の部位情報を、初期設定情報として記憶する(ステップS1)。即ち図16で説明したように、通常操縦状態(基本姿勢状態)での手の部位情報を記憶部170に記憶する処理を行う。次にゲームが開始したか否かを判断し(ステップS2)、ゲームが開始した場合には、操作情報やトラッキング情報に基づいてゲーム処理を実行する(ステップS3)。そして、ゲーム処理により生成された画像をHMDに表示する(ステップS4)。例えば図5(A)~図9(B)に示すようなゲーム画像を生成してHMDに表示する。そして、ゲームが終了したか否かを判断し(ステップS5)、ゲームが終了した場合には、処理を終了する。
 図25はアイテムの獲得処理や使用処理の詳細を示すフローチャートである。まず、ハンドルから離したユーザの手の部位情報を取得する(ステップS11)。例えば図10(B)において、ユーザの手に取り付けられたトラッキング装置250、260により手の部位情報を取得する。そしてユーザの手に対応するユーザキャラクタの手とアイテムとのヒット判定処理を行う(ステップS12)。即ち図14(A)で説明したようなヒット判定処理を行う。そして、手がアイテムにヒットしたか否かを判断し(ステップS13)、ヒットした場合には、アイテムをユーザキャラクタの手の一部として登録し、アイテムを獲得させて保有させる(ステップS14)。即ち図14(B)に示すようにアイテムを獲得させて保有させる処理を行う。この際にアイテムの獲得の報知処理も行う。
 次にアイテムの使用動作が行われたか否かを判断する(ステップS15)。例えば図14(C)、図14(D)に示すような使用動作が行われたか否かを、トラッキング装置250、260により検出された部位情報に基づき判断する。そして、アイテム使用動作の動作方向、強さ、アイテムの種類、アイテム使用動作の際のユーザの視線情報、或いは手の部位の状態に応じて、アイテム使用処理の実行内容を設定して、アイテム使用処理を実行する(ステップS16)。例えばアイテムを移動させたり、アイテムのヒットによるエフェクトの画像を表示したり、アイテムのヒットにより敵にダメージを与えるなどの処理を行う。そして、ユーザが通常操縦状態に戻ったか否かを判断し(ステップS17)、通常操縦状態に戻った場合には、アイテムの保有を解除する(ステップS19)。また、所定時間が経過したか否かを判断し(ステップS18)、所定時間が経過した場合には、アイテムの保有を解除する(ステップS19)。
 なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(所定部位、移動体、ユーザ情報、基本姿勢状態等)と共に記載された用語(手、車、部位情報、通常操縦状態等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またシミュレーションシステムの構成、可動筐体の構成、構造、仮想空間の設定処理、アイテムエリアやアイテムの配置設定処理、移動体の移動処理、ゲーム処理、表示処理、アイテムの獲得処理、使用処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。
US ユーザ、CH、MV ユーザキャラクタ、ST ハンドル、
HL、HR 手、CP 車、CE 敵車、
AR アイテムエリア、BM、HM アイテム、
CS コース、FL フィールド、BAL 風船、EF エフェクト、
30 可動筐体、32 底部、33 カバー部、34 ベース部、
SL、SL1~SL4 トラッキング装置、
30 可動筐体、32、底部、33 カバー部、40 移動部、
50 ハンドル、52 アクセルペダル、54 ブレーキペダル、
60 ライド部、62 シート、80 送風機、
100 処理部、102 入力処理部、110 演算処理部、
111 情報取得部、112 仮想空間設定部、113 移動体処理部、
114 仮想カメラ制御部、115 ゲーム処理部、116 報知処理部、
117 制御部、120 表示処理部、130 音処理部、
140 出力処理部、150 撮像部、151、152 カメラ、
160 操作部、170 記憶部、172 オブジェクト情報記憶部、
174 初期設定情報記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201~203 受光素子、
210 センサ部、220 表示部、231~236 発光素子、
240 処理部、250、260 トラッキング装置、251~254、
261~264 受光素子、255、256、265、266 発光素子、
280、284 ベースステーション、
281、282、285、286 発光素子

Claims (18)

  1.  ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
     仮想空間の設定処理を行う仮想空間設定部と、
     前記ユーザに対応するユーザキャラクタを、前記仮想空間において移動させる処理を行う移動体処理部と、
     前記仮想空間でのゲームの処理を行うゲーム処理部と、
     前記仮想空間での画像を、前記ユーザに表示する表示画像として生成する表示処理部と、
     を含み、
     前記ゲーム処理部は、
     前記ユーザがアイテムの獲得動作を行ったか否かを、前記ユーザ情報に基づき判断し、前記アイテム獲得動作を行ったと判断した場合に、前記アイテムを前記ユーザキャラクタに獲得させる処理を行うことを特徴とするシミュレーションシステム。
  2.  請求項1において、
     前記ゲーム処理部は、
     基本姿勢状態の前記ユーザが前記アイテム獲得動作を行ったか否かを、前記ユーザ情報に基づき判断し、前記アイテム獲得動作を行ったと判断した場合に、前記アイテムを前記ユーザキャラクタに獲得させる処理を行い、前記ユーザキャラクタが前記アイテムを獲得して保有した後、前記ユーザが前記基本姿勢状態に戻ったと判断した場合に、前記ユーザキャラクタのアイテム保有状態を解除することを特徴とするシミュレーションシステム。
  3.  請求項1又は2において、
     前記移動体処理部は、
     前記ユーザキャラクタが搭乗する移動体を、前記仮想空間において移動させる処理を行い、
     前記仮想空間設定部は、
     前記ユーザの通常操縦状態時には前記ユーザキャラクタが接触できない場所に、アイテムエリアを設定し、
     前記ゲーム処理部は、
     前記ユーザが前記アイテムエリアの前記アイテムの方向に向けて前記アイテム獲得動作を行ったか否かを、前記ユーザ情報に基づき判断し、前記アイテム獲得動作を行ったと判断した場合に、前記アイテムを前記ユーザキャラクタに獲得させる処理を行うことを特徴とするシミュレーションシステム。
  4.  請求項3において、
     前記ゲーム処理部は、
     前記ユーザの前記通常操縦状態での前記ユーザ情報を、記憶部に記憶させる処理を行うことを特徴とするシミュレーションシステム。
  5.  請求項3又は4において、
     前記仮想空間設定部は、
     前記移動体が移動するコースに対して前記アイテムエリアを設定することを特徴とするシミュレーションシステム。
  6.  請求項1乃至5のいずれかにおいて、
     前記ゲーム処理部は、
     前記ユーザが所定部位を動かす動作を行い、前記所定部位に対応する前記ユーザキャラクタの部位が前記アイテムに接近したと判断した場合に、前記アイテム獲得動作が行われたと判断することを特徴とするシミュレーションシステム。
  7.  請求項6において、
     前記ゲーム処理部は、
     前記ユーザキャラクタが前記アイテムを獲得して保有した状態で、前記ユーザが前記所定部位を用いてアイテム使用動作を行ったと前記ユーザ情報に基づき判断した場合に、アイテム使用処理を実行することを特徴とするシミュレーションシステム。
  8.  請求項6又は7において、
     前記情報取得部は、
     前記所定部位の位置情報及び方向情報の少なくとも1つを含む部位情報を、前記ユーザ情報として取得し、
     前記仮想空間設定部は、
     前記所定部位に対応する前記ユーザキャラクタの前記部位を、前記部位情報に基づき前記仮想空間に配置設定し、
     前記表示処理部は、
     前記仮想空間に配置設定された前記部位を表示する処理を行うことを特徴とするシミュレーションシステム。
  9.  請求項1乃至8のいずれかにおいて、
     前記移動体処理部は、
     前記ユーザキャラクタの前記アイテムの獲得の際に、前記移動体の移動方向に前記アイテムを移動させる処理を行うことを特徴とするシミュレーションシステム。
  10.  請求項1乃至9のいずれかにおいて、
     前記移動体処理部は、
     前記ユーザキャラクタにより獲得されて保有状態となった前記アイテムを、前記移動体の移動に追従させて移動させる処理を行うことを特徴とするシミュレーションシステム。
  11.  請求項1乃至10のいずれかにおいて、
     前記ゲーム処理部は、
     前記ユーザキャラクタが前記アイテムを獲得して保有している状態で、前記ユーザがアイテム使用動作を行ったと前記ユーザ情報に基づき判断した場合に、アイテム使用処理を実行することを特徴とするシミュレーションシステム。
  12.  請求項11において、
     前記ゲーム処理部は、
     前記アイテム使用動作の動作方向、前記アイテム使用動作の強さ、前記アイテムの種類、前記アイテム使用動作の際の前記ユーザの視線情報、及び前記アイテム使用動作を行う前記ユーザの所定部位の状態の少なくとも1つに応じて、前記アイテム使用処理を実行することを特徴とするシミュレーションシステム。
  13.  請求項1乃至12のいずれかにおいて、
     前記ゲーム処理部は、
     前記ユーザキャラクタが前記アイテムを獲得して保有している状態において、所与の条件が成立した場合に、前記ユーザキャラクタのアイテム保有状態を解除することを特徴とするシミュレーションシステム。
  14.  請求項1乃至13のいずれかにおいて、
     前記ゲーム処理部は、
     前記アイテムが獲得された場合に、前記アイテムが獲得されたことを、画像、音又は振動で報知する報知処理を行うことを特徴とするシミュレーションシステム。
  15.  請求項1乃至14のいずれかにおいて、
     前記仮想空間設定部は、
     前記ユーザの身体情報に応じて、前記アイテムの配置場所を設定することを特徴とするシミュレーションシステム。
  16.  請求項1乃至15のいずれかにおいて、
     前記表示処理部は、
     前記表示画像として、前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像を生成することを特徴とするシミュレーションシステム。
  17.  ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得処理と、
     仮想空間の設定処理を行う仮想空間設定処理と、
     前記ユーザに対応するユーザキャラクタを、前記仮想空間において移動させる処理を行う移動体処理と、
     前記仮想空間でのゲームの処理を行うゲーム処理と、
     前記仮想空間での画像を、前記ユーザに表示する表示画像として生成する表示処理と、
     を行い、
     前記ゲーム処理において、
     前記ユーザがアイテムの獲得動作を行ったか否かを、前記ユーザ情報に基づき判断し、前記アイテム獲得動作を行ったと判断した場合に、前記アイテムを前記ユーザキャラクタに獲得させる処理を行うことを特徴とする画像処理方法。
  18.  ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
     仮想空間の設定処理を行う仮想空間設定部と、
     前記ユーザに対応するユーザキャラクタを、前記仮想空間において移動させる処理を行う移動体処理部と、
     前記仮想空間でのゲームの処理を行うゲーム処理部と、
     前記仮想空間での画像を、前記ユーザに表示する表示画像として生成する表示処理部として、
     コンピュータを機能させるプログラムを記憶し、
     前記ゲーム処理部は、
     前記ユーザがアイテムの獲得動作を行ったか否かを、前記ユーザ情報に基づき判断し、前記アイテム獲得動作を行ったと判断した場合に、前記アイテムを前記ユーザキャラクタに獲得させる処理を行うことを特徴とするコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2018/021916 2017-06-12 2018-06-07 シミュレーションシステム、画像処理方法及び情報記憶媒体 WO2018230443A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880038784.3A CN110769906B (zh) 2017-06-12 2018-06-07 模拟系统、图像处理方法以及信息存储介质
GB2000258.0A GB2577464A (en) 2017-06-12 2018-06-07 Simulation system, image processing method, and information storage medium
US16/710,106 US11090554B2 (en) 2017-06-12 2019-12-11 Simulation system, image processing method, and information storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-115421 2017-06-12
JP2017115421A JP6957218B2 (ja) 2017-06-12 2017-06-12 シミュレーションシステム及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/710,106 Continuation US11090554B2 (en) 2017-06-12 2019-12-11 Simulation system, image processing method, and information storage medium

Publications (1)

Publication Number Publication Date
WO2018230443A1 true WO2018230443A1 (ja) 2018-12-20

Family

ID=64660746

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/021916 WO2018230443A1 (ja) 2017-06-12 2018-06-07 シミュレーションシステム、画像処理方法及び情報記憶媒体

Country Status (5)

Country Link
US (1) US11090554B2 (ja)
JP (1) JP6957218B2 (ja)
CN (1) CN110769906B (ja)
GB (1) GB2577464A (ja)
WO (1) WO2018230443A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024116465A1 (ja) * 2022-11-28 2024-06-06 株式会社Subaru 情報伝達装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10635895B2 (en) * 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
CN111314730A (zh) * 2020-02-25 2020-06-19 广州华多网络科技有限公司 视频直播的虚拟资源寻找方法、装置、设备及存储介质
CN111277890B (zh) * 2020-02-25 2023-08-29 广州方硅信息技术有限公司 虚拟礼物的获取方法和三维全景直播间的生成方法
CN111760275B (zh) * 2020-07-08 2024-07-30 网易(杭州)网络有限公司 游戏控制方法、装置和电子设备
JP7534199B2 (ja) 2020-11-30 2024-08-14 雅貴 桂澤 ゴーグル表示システム
US11836301B2 (en) * 2021-08-10 2023-12-05 Qualcomm Incorporated Electronic device for tracking objects
WO2023028687A1 (en) * 2021-09-03 2023-03-09 Dreamcraft Attractions Ltd. System and method for integrating real-world props into virtual reality amusement attractions
JP7591098B2 (ja) 2023-06-16 2024-11-27 任天堂株式会社 ゲームプログラム、ゲームシステム、ゲーム装置およびゲーム処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009070416A (ja) * 2009-01-05 2009-04-02 Sony Computer Entertainment Inc 制御システムおよび制御方法
JP2012516507A (ja) * 2009-01-30 2012-07-19 マイクロソフト コーポレーション 標準的なジェスチャー
JP5996138B1 (ja) * 2016-03-18 2016-09-21 株式会社コロプラ ゲームプログラム、方法およびゲームシステム
JP2016192029A (ja) * 2015-03-31 2016-11-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP2017516186A (ja) * 2014-03-14 2017-06-15 株式会社ソニー・インタラクティブエンタテインメント 空間感知を備えるゲーム機

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0246059B2 (ja) * 1982-11-25 1990-10-12 Mitsubishi Petrochemical Co Puropirenkeijushiseikeihinnohyomenshorihoho
JP2739458B2 (ja) * 1995-09-07 1998-04-15 ニューロング株式会社 身体移動装置
JPH11309269A (ja) 1998-04-27 1999-11-09 Sony Corp ゲーム装置、シミュレーション装置及びゲーム画像表示方法
CN102989174B (zh) * 2006-05-04 2016-06-29 美国索尼电脑娱乐公司 获得用于控制游戏程序的运行的输入
US9098873B2 (en) * 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US8736583B2 (en) * 2011-03-29 2014-05-27 Intel Corporation Virtual links between different displays to present a single virtual object
JP5788275B2 (ja) 2011-09-14 2015-09-30 株式会社バンダイナムコエンターテインメント ゲーム装置、ゲームシステム、プログラム、情報記憶媒体及びサーバシステム
JP6121181B2 (ja) * 2013-02-05 2017-04-26 株式会社バンダイナムコエンターテインメント ゲームシステム及びプログラム
JP6206099B2 (ja) * 2013-11-05 2017-10-04 セイコーエプソン株式会社 画像表示システム、画像表示システムを制御する方法、および、頭部装着型表示装置
CN106730811B (zh) * 2016-12-07 2018-09-07 腾讯科技(深圳)有限公司 一种vr场景下的道具运动处理方法和装置
JP2019109849A (ja) * 2017-12-20 2019-07-04 セイコーエプソン株式会社 透過型頭部装着型表示装置、表示制御方法、およびコンピュータープログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009070416A (ja) * 2009-01-05 2009-04-02 Sony Computer Entertainment Inc 制御システムおよび制御方法
JP2012516507A (ja) * 2009-01-30 2012-07-19 マイクロソフト コーポレーション 標準的なジェスチャー
JP2017516186A (ja) * 2014-03-14 2017-06-15 株式会社ソニー・インタラクティブエンタテインメント 空間感知を備えるゲーム機
JP2016192029A (ja) * 2015-03-31 2016-11-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP5996138B1 (ja) * 2016-03-18 2016-09-21 株式会社コロプラ ゲームプログラム、方法およびゲームシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024116465A1 (ja) * 2022-11-28 2024-06-06 株式会社Subaru 情報伝達装置

Also Published As

Publication number Publication date
JP2019000171A (ja) 2019-01-10
CN110769906B (zh) 2023-06-20
CN110769906A (zh) 2020-02-07
JP6957218B2 (ja) 2021-11-02
US11090554B2 (en) 2021-08-17
US20200108308A1 (en) 2020-04-09
GB2577464A (en) 2020-03-25
GB202000258D0 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
WO2018230443A1 (ja) シミュレーションシステム、画像処理方法及び情報記憶媒体
CN109478340B (zh) 模拟系统、处理方法以及信息存储介质
US11014000B2 (en) Simulation system, processing method, and information storage medium
WO2018012395A1 (ja) シミュレーションシステム、処理方法及び情報記憶媒体
JP6719308B2 (ja) シミュレーションシステム及びプログラム
WO2018124280A1 (ja) シミュレーションシステム、画像処理方法及び情報記憶媒体
WO2017188224A1 (ja) シミュレーションシステム
JP7071823B2 (ja) シミュレーションシステム及びプログラム
JP6774260B2 (ja) シミュレーションシステム
JP6425846B1 (ja) プログラム、情報処理装置、及び情報処理方法
JP2017196293A (ja) ゲームシステム
JP2019202061A (ja) シミュレーションシステム及びプログラム
JP2018171320A (ja) シミュレーションシステム及びプログラム
JP6660321B2 (ja) シミュレーションシステム及びプログラム
JP2019213764A (ja) シミュレーションシステム
JP2019176934A (ja) シミュレーションシステム
JP6918189B2 (ja) シミュレーションシステム及びプログラム
JP7017702B2 (ja) ゲームプログラム、コンピュータ、及びゲームシステム
JP7339571B2 (ja) ゲームプログラム、ゲームシステム、及び自動運転車
JP6974782B2 (ja) ゲームプログラム、コンピュータ、及びゲームシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18816811

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 202000258

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20180607

122 Ep: pct application non-entry in european phase

Ref document number: 18816811

Country of ref document: EP

Kind code of ref document: A1