WO2022130681A1 - ゲームシステム、プログラム及び情報処理方法 - Google Patents
ゲームシステム、プログラム及び情報処理方法 Download PDFInfo
- Publication number
- WO2022130681A1 WO2022130681A1 PCT/JP2021/028905 JP2021028905W WO2022130681A1 WO 2022130681 A1 WO2022130681 A1 WO 2022130681A1 JP 2021028905 W JP2021028905 W JP 2021028905W WO 2022130681 A1 WO2022130681 A1 WO 2022130681A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- game
- finger
- dimensional
- movement
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 17
- 238000003672 processing method Methods 0.000 title claims abstract description 10
- 230000033001 locomotion Effects 0.000 claims description 128
- 210000003811 finger Anatomy 0.000 description 88
- 238000012545 processing Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000005057 finger movement Effects 0.000 description 3
- 230000009191 jumping Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 1
- 238000012508 change request Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Definitions
- the present invention relates to a game system, a program and an information processing method, particularly a game system, a program and an information processing method for providing a game that can be executed by a plurality of user terminals that can access a server via a network.
- a virtual operation unit also called a virtual stick
- the operation unit is operated by, for example, a swipe operation of the user, so that the game is used by the user. There is something that the player in the game can operate.
- the player In a game in which a virtual operation unit as described above is displayed on the game screen, the player is operated by a swipe operation in which the user touches the game screen. Therefore, for example, the player is three-dimensional in the depth direction with respect to the game screen.
- the movement of the player may be limited to a two-dimensional movement without realizing the movement.
- the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a game system, a program, and an information processing method capable of improving convenience when operating a game.
- the game system according to the present invention for achieving the above problems is a game system that provides a game that can be executed by a plurality of user terminals that can access a server via a network, and is a user's finger detected by the user terminal. It is characterized by including a motion control unit that controls a virtual three-dimensional motion in the game of a player used by the user in the game based on the three-dimensional motion.
- the player used by the user is controlled to follow the three-dimensional movement of the user's finger detected by the user terminal, so that the user can intuitively operate the game. , The convenience of the user when operating the game is improved.
- the motion control unit of this game system is characterized in that the motion of the player is controlled based on the three-dimensional camera that detects the three-dimensional motion of the user's finger.
- the game system is characterized in that the position of the user's finger detected by the three-dimensional camera when the game is started is set as a reference position when the motion control unit controls the player's motion. ..
- the motion control unit of the game system is characterized in that the vector of the three-dimensional motion of the user's finger and the vector of the motion of the player in the game are associated and matched.
- the game system is characterized by including an interface generation unit that generates a state display interface that indicates the state of the three-dimensional movement of the user's finger.
- the program according to the present invention for achieving the above problems is a program for executing a game on a plurality of user terminals that can access a server via a network, and is used for three-dimensional movement of a user's finger detected by the user terminals. Based on this, it is characterized in that the virtual three-dimensional movement of the player used by the user in the game is controlled in the game.
- the information processing method according to the present invention for achieving the above problems is a tertiary of a user's finger detected by a user terminal in an information processing method for executing a game on a plurality of user terminals that can access a server via a network. It is characterized in that it controls a virtual three-dimensional motion in the game of a player used by the user in the game based on the original motion.
- the convenience of the user when operating the game is improved.
- FIG. 1 is a block diagram illustrating an outline of a configuration of a game system according to an embodiment of the present invention.
- the game system 10 includes a server 20 and a plurality of user terminals 30 as a main configuration, and these are connected to each other so as to be accessible via a network 100 such as an Internet network.
- a network 100 such as an Internet network.
- the server 20 is deployed to the business operator 1 that provides the game in the game system 10, and the user terminal 30 is owned by a plurality of users 2 who use the game provided by the business operator 1.
- the game provided by the operator 1 in the game system 10 is a game whose main purpose is to generate objects such as images, videos, and sounds in the present embodiment, and is, for example, a battle game, a puzzle game, and an action game.
- a battle game a puzzle game
- an action game a game whose main purpose is to generate objects such as images, videos, and sounds in the present embodiment
- Baseball games, soccer games, other sports games quiz games, pinball games, card games, rhythm games, RPGs (role playing games), location information games, board games, adventure games, casino games, simulation games, strategy games, It may be a racing game or the like.
- the server 20 is implemented by a desktop computer or a notebook computer.
- FIG. 2 is a block diagram illustrating an outline of the configuration of the server 20.
- the server 20 includes a processor 21, a memory 22, a storage 23, a transmission / reception unit 24, and an input / output unit 25, which are electrically connected to each other via a bus 26.
- the processor 21 is an arithmetic unit that controls the operation of the server 20, controls the transmission and reception of data between each element, and performs processing necessary for executing an application program.
- the processor 21 is, for example, a CPU (Central Processing Unit), and executes each process by executing an application program stored in the storage 23 described later and expanded in the memory 22.
- a CPU Central Processing Unit
- the memory 22 includes a main storage device composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory), and an auxiliary storage device composed of a non-volatile storage device such as a flash memory and an HDD (Hard Disc Drive). ..
- a volatile storage device such as a DRAM (Dynamic Random Access Memory)
- auxiliary storage device composed of a non-volatile storage device such as a flash memory and an HDD (Hard Disc Drive). ..
- BIOS Basic Input / Output System
- the storage 23 stores programs and information used for various processes. The configuration of the storage 23 will be described later.
- the transmission / reception unit 24 connects the server 20 to the network 200.
- the transmission / reception unit 24 may be provided with a short-range communication interface such as Bluetooth (registered trademark) or BLE (Bluetooth Low Energy).
- the input / output unit 25 is an interface to which an input / output device such as a keyboard, a mouse, or a display is connected.
- the bus 26 transmits, for example, an address signal, a data signal, and various control signals between the connected processor 21, memory 22, storage 23, transmission / reception unit 24, and input / output unit 25.
- FIG. 3 is a block diagram illustrating an outline of the configuration of the storage 23. As shown in the figure, the storage 23 includes a database 40 and an information processing program 41 in this embodiment.
- the database 40 is realized as a storage area provided by the storage 23, and in the present embodiment, the game information D1 is stored.
- FIG. 4 is a block diagram illustrating an outline of the configuration of the game information D1.
- the game information D1 includes game data d1a, event data d1b, player data d1c, and reward data d1d.
- the game data d1a is composed of data related to game settings according to the type of game, such as characters and items appearing in the game, background images, and the like.
- the stage ID In the case of a battle game, the stage ID. The stage name etc. associated with is included.
- the character constituting the game data d1a is a player who acts in the game by the user 2 operating via the user terminal 30, a character which is a friend of the player, or an enemy character who plays against the player. Etc. are included.
- the event data d1b is composed of an arbitrary event in which a trial (for example, a battle with an enemy character) executed by the user 2 as a player is set, and when this kind of event is cleared, the event data d1b is in-game. In-game rewards such as items used in the game and recovery of the player's energy may be given.
- the player data d1c relates to a player name, data regarding a character owned by the user 2 as a player, data regarding setting of the operation of the player of the user 2, data regarding items owned by the player of the user 2, and a play stage. It is composed of data and so on.
- the data related to the owned character includes, for example, the current values of various parameters such as the level, attack power, defense power, and physical strength associated with the character's ID.
- the data related to the setting of the player's motion includes, for example, an arbitrary preset criterion for associating the three-dimensional motion vector of the finger of the user 2 with the vector of the player's motion.
- the player when the finger of the user 2 moves in the x direction, the player also moves in the x direction, and when the finger of the user 2 moves in the y direction, the player also moves in the y direction. Is done.
- the data related to the owned item includes, for example, a value such as the number of possessed items associated with the item ID.
- the data related to the play stage is data related to a stage in which the user 2 has played as a player so far among a plurality of set stages, and includes, for example, the number of plays and the data when the stage is cleared. ..
- the reward data d1d is data related to the in-game reward given to the player.
- the in-game reward is exchanged for an item in the game, for example, execution of an arbitrary event executed in the game, an increase in the drop rate indicating the probability when the player acquires an arbitrary item, and so on.
- the information processing program 41 shown in FIG. 3 includes a game processing unit 41a, an operation control unit 41b, and an interface generation unit 41c.
- the game processing unit 41a is a module that executes basic game processing such as game progress and character control.
- basic game processing such as game progress and character control.
- character training processing for example, character training processing, event processing, and function restriction.
- the character training process is based on an arbitrary preset action such that the character selected by the user 2 as a player is run or swam by the user 2, and the experience value or energy of the character is increased. It is a process of improving the value and executing the training of the character.
- the event process is a process of executing an event according to the action of the character selected by the user 2 as a player
- the function restriction process is a process of limiting the functions executed in the game and releasing the restrictions.
- the reward granting process is a process of granting an in-game reward to the player used by the user 2.
- the game processing unit 41a also executes various basic game processing.
- the motion control unit 41b shown in FIG. 3 is a module that controls the motion of the player in the game in the present embodiment.
- FIG. 5 is a flowchart illustrating an outline of the processing of the operation control unit 41b.
- the motion control unit is as shown in the figure.
- 41b sets the detected finger position of the user 2 as a reference position when controlling the operation of the player.
- the three-dimensional camera detects the position of the finger of the user 2 at that position, and the detected position. Is set as the reference position.
- step S2 the detection generated according to the three-dimensional movement of the finger of the user 2 detected by the three-dimensional camera of the user terminal 30 and transmitted from the user terminal 30. Based on the signal, the mode of finger movement of the user 2 is determined.
- the three-dimensional movement of the user 2's finger detected by the three-dimensional camera means the three-dimensional finger position relative to the reference position, or the movement direction, movement distance, movement speed, and the like of the finger.
- the user 2 is three-dimensionally moving the finger in the vertical and horizontal directions of the user terminal 30, or the user 2 is three-dimensionally moving the finger in the depth direction of the user terminal 30.
- the mode of the finger movement of the user 2 such as whether or not the user 2 is determined.
- step S3 the virtual three-dimensional operation of the player in the game is controlled.
- the vector of the three-dimensional motion of the finger of the user 2 and the vector of the motion of the character C selected by the user 2 as the player are set based on the data related to the setting of the player's motion included in the player data d1c. Control the operation by associating and matching.
- FIG. 6 is a diagram illustrating an outline of processing of the operation control unit 41b when the view of the game screen is set to view the character C selected by the user 2 as a player from the front.
- the movement of the finger of the user 2 is an operation of moving the finger upward on the screen indicated by the arrow V1 or an operation of moving the finger downward on the screen indicated by the arrow V2, it is displayed on the game screen IF1.
- the character C is controlled to move in the upward direction indicated by the arrow U or in the downward direction indicated by the arrow D, depending on the mode of movement of the finger of the user 2.
- the upward movement is, for example, a jumping motion when the character C is walking, an ascending motion when the character C is flying, and a downward motion.
- the motion to D is, for example, a crouching motion when the character C is walking, and a descending motion when the character C is flying.
- the mode of the finger movement of the user 2 is the movement to the left of the screen indicated by the arrow V3 or the movement to the right of the screen indicated by the arrow V4, the character displayed on the game screen IF1.
- C controls the movement so as to move to the right indicated by the arrow R or to the left indicated by the arrow L according to the mode of the movement of the finger of the user 2.
- the operation of the user 2's finger is moved forward in the depth direction with respect to the game screen IF1 indicated by the arrow V5 (for example, the operation of moving the finger closer to the camera) or backward in the depth direction with respect to the game screen IF1 indicated by the arrow V6.
- the motion for example, the motion of moving the finger away from the camera
- the character C displayed on the game screen IF1 is in the forward direction indicated by the arrow F depending on the mode of the motion of the finger of the user 2.
- the movement is controlled so as to move in the backward direction indicated by the arrow line B.
- FIG. 7 is a diagram illustrating an outline of processing of the operation control unit 41b when the view of the game screen IF1 is set to view the character C from the side.
- the character C displayed on the game screen IF1 is the user 2.
- the movement is controlled such that the finger moves upward U or downward D depending on the mode of movement of the finger.
- the upward movement is, for example, a jumping motion when the character C is walking, an ascending motion when the character C is flying, and a downward motion.
- the motion to D is, for example, a crouching motion when the character C is walking, and a descending motion when the character C is flying.
- the character C displayed on the game screen IF1 is the finger of the user 2.
- the operation is controlled so as to move in the forward direction F or the backward direction B depending on the mode of the operation.
- the movement of the finger of the user 2 is an operation of moving the finger to the front V5 in the depth direction with respect to the game screen IF1 or an operation to move the finger to the rear V6 in the depth direction with respect to the game screen IF1, the character displayed on the game screen IF1.
- C controls the movement so as to move to the left L or to the right R depending on the mode of movement of the finger of the user 2.
- FIG. 8 is a diagram illustrating an outline of processing of the operation control unit 41b when the view of the game screen IF1 is set to view the character C from above.
- the character C displayed on the game screen IF1 is the user 2.
- the movement is controlled such that the finger moves in the backward direction B or the forward direction F depending on the mode of the movement of the finger.
- the character C displayed on the game screen IF1 is the finger of the user 2.
- the operation is controlled so as to move in the right direction R or the left direction L depending on the mode of the operation.
- the movement of the finger of the user 2 is an operation of moving the finger to the front V5 in the depth direction with respect to the game screen IF1 or an operation to move the finger to the rear V6 in the depth direction with respect to the game screen IF1, the character displayed on the game screen IF1.
- C controls the movement so as to move upward U or downward D depending on the mode of movement of the finger of the user 2.
- the upward movement is, for example, a jumping motion when the character C is walking, an ascending motion when the character C is flying, and a downward motion.
- the motion to D is, for example, a crouching motion when the character C is walking, and a descending motion when the character C is flying.
- the interface generation unit 41c shown in FIG. 3 is a module that generates a state display interface showing the state of the three-dimensional operation of the finger of the user 2.
- FIG. 9 is a diagram illustrating an outline of the status display interface.
- the state display interface IF2 comprises a transparent (or translucent) virtual sphere S arranged in a virtual three-dimensional region consisting of an x-axis, a y-axis, and a z-axis.
- the motion line M is from the center point O of the virtual sphere S according to the direction of the three-dimensional motion of the finger of the user 1, that is, the direction of the virtual three-dimensional motion of the character selected as the player. Is extended, and the operation area A is displayed on the spherical surface of the virtual sphere S where the operation line M and the virtual sphere S intersect.
- This status display interface IF2 is displayed at any part of the game screen, for example, at the lower left of the game screen.
- the position of the status display interface IF2 may be changeable. In that case, for example, a button image or the like requesting the position change of the status display interface IF2 is displayed on the game screen, and the user 2 selects the position change request button and then taps the position of any screen. By specifying it, the position of the status display interface IF2 may be changed.
- the user 2 can simultaneously visually recognize the three-dimensional movement of his / her finger and the virtual three-dimensional movement of the character following it, which improves convenience when operating the game.
- the game is executed on the user terminal 30 based on the processing by the information processing program 41 including the game processing unit 41a, the operation control unit 41b, and the interface generation unit 41c.
- the user terminal 30 shown in FIG. 1 is implemented by a smartphone which is a portable information terminal, but is implemented by, for example, a game-dedicated terminal, a tablet computer, a desktop computer, or a notebook computer. It may be a thing.
- FIG. 10 is a block diagram illustrating an outline of the configuration of the user terminal 30.
- the user terminal 30 includes a control unit 31, a display 32, and a three-dimensional camera 33 as main configurations.
- control unit 31 controls each unit of the user terminal 30 such as the display 32 and the three-dimensional camera 33, and is composed of, for example, a processor, a memory, a storage, a transmission / reception unit, and the like.
- control unit 31 stores a browser capable of browsing a game application or a website, and is a user terminal via the game application or the browser based on the processing by the information processing program 41 of the server 20. At 30, the game is executed.
- the display 32 displays a screen interface of a game executed on the user terminal 30, including the game screen IF1 shown in FIGS. 6 to 8.
- the display 32 is a so-called touch panel that accepts information input by contact with the display surface, and is implemented by various techniques such as a resistance film method and a capacitance method.
- the three-dimensional camera 33 is an in-camera mounted on the front surface of the smartphone, which is the user terminal 30, and is configured to include various sensors such as a proximity sensor for detecting the distance to an object.
- the user operation information D2 is detected.
- the user operation information D2 is information input regarding the operation or operation of the player, and is video information based on an arbitrary operation of the user 2.
- the user operation information D2 is, for example, an operation in which the user 2 moves his / her finger up / down / left / right in three dimensions with respect to the user terminal 30, or a user 2 moves his / her finger in three dimensions to the depth of the user terminal 30. It is an action to move in a direction.
- the three-dimensional camera 33 When the user operation information D2 is detected by the three-dimensional camera 33 of the user terminal 30, the three-dimensional camera 33 generates a detection signal according to the mode of operation of the user 2.
- FIG. 11 is a flowchart illustrating an outline of the processing of the game system 10 according to the present embodiment. As shown in the figure, first, in step S10, the user 2 starts the game.
- the three-dimensional camera 33 detects the position of the finger of the user 2
- the three-dimensional camera 33 detects the position of the finger of the user 2.
- the detected finger position of the user 2 is set as a reference position when controlling the operation of the player.
- step S12 the user 2 starts the game.
- step S13 the virtual three-dimensional movement of the character selected by the user 2 as the player is controlled based on the three-dimensional movement of the finger of the user 2.
- the finger of the user 2 is moved according to the operation of the user 2 in three dimensions to move the finger up / down / left / right in the game screen or the user 2 in three dimensions to move the finger in the depth direction of the game screen.
- the character performs a virtual three-dimensional movement in the game.
- the character selected by the user 2 as the player is controlled so as to follow the three-dimensional movement of the finger of the user 2 detected by the user terminal 30, so that the user 2 intuitively operates the game. Therefore, the convenience of the user 2 when operating the game is improved.
- the case where the view of the game screen is set to view the character C selected by the user 2 as the player from the front, the case where the character C is viewed from the side, and the case where the character C is viewed from above will be described.
- various settings may be used, such as a setting in which the character C is viewed from below or from the back.
- the operation line M when the finger of the user 2 is in the reference position after setting the reference position, the operation line M does not extend from the center point O of the virtual sphere S (the operation area A is not displayed), and the center point is not displayed. It may be displayed that the operation line M is located in O (for example, the display of the center point O becomes larger, brighter, darker, etc.). At that time, the character may be in a stopped state. Further, when the user 2 stops the finger at a position away from the reference position, the character keeps moving in the direction of the finger position with respect to the reference position according to the position of the user 2's finger with respect to the reference position. May be good. In that case, the state display interface IF2 keeps displaying the operation line M extending from the center point O of the virtual sphere S and the operation area A of the spherical surface according to the direction of the virtual three-dimensional operation of the character. You may.
- the motion sensor mounted on the user terminal 30 detects the finger of the user 2. It may be the one that detects the three-dimensional operation of.
- the number of fingers of the user 2 detected by the user terminal 30 may be one, two, or any other number, and may be an index finger, a middle finger, a thumb, or the like. It may be a finger.
- the present invention comprises the following configurations.
- (Item 1) In a game system that provides a game that can be executed by multiple user terminals that can access the server via a network.
- An motion control unit that controls a virtual three-dimensional motion of a player used by the user in the game based on the three-dimensional motion of the user's finger detected by the user terminal.
- (Item 2) The motion control unit The game system according to item 1, wherein the movement of the player is controlled based on a three-dimensional camera that detects the three-dimensional movement of the user's finger.
- (Item 3) An item characterized in that the position of the user's finger detected by the three-dimensional camera when the game is started is set as a reference position when the motion control unit controls the motion of the player.
- the game system according to 2.
- the motion control unit The game system according to any one of items 1 to 3, wherein the vector of the three-dimensional movement of the user's finger and the vector of the movement of the player in the game are associated and matched.
- (Item 5) An interface generator that generates a state display interface that indicates the state of the three-dimensional movement of the user's finger.
- the game system according to any one of items 1 to 4, wherein the game system comprises.
- (Item 6) In a program that runs a game on multiple user terminals that can access the server via a network A program characterized by controlling a virtual three-dimensional movement of a player used by the user in the game based on the three-dimensional movement of the user's finger detected by the user terminal. (Item 7) In an information processing method that executes a game on multiple user terminals that can access the server via a network. Information processing characterized by controlling a virtual three-dimensional motion of a player used by the user in the game based on a three-dimensional motion of a user's finger detected by the user terminal. Method.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】ゲームを操作する際の利便性を向上させることができるゲームシステム、プログラム及び情報処理方法を提供する。 【解決手段】ネットワークを介してサーバにアクセス可能な複数のユーザ端末で実行可能なゲームを提供するゲームシステムにおいて、ユーザ端末で検出されるユーザの指の三次元の動作に基づいてゲーム内でユーザが使用するプレイヤのゲーム内における仮想的な三次元の動作を制御する動作制御部を備える。
Description
本発明は、ゲームシステム、プログラム及び情報処理方法、特に、ネットワークを介してサーバにアクセス可能な複数のユーザ端末で実行可能なゲームを提供するゲームシステム、プログラム及び情報処理方法に関する。
近年、ネットワークを介してサーバにアクセス可能なスマートフォンやゲーム端末等のユーザ端末で実行可能なゲームが提供されている。この種のゲームでは、ユーザの身体の動作に基づいてゲーム内での操作が実行されるものが存在する(例えば、特許文献1を参照。)。
一方、ユーザ端末で実行可能なゲームでは、バーチャルスティックとも称される仮想的な操作部がゲーム画面に表示され、この操作部が例えばユーザのスワイプ動作によって操作されることによって、ユーザが使用するゲーム内のプレイヤが操作されるものが存在している。
上記のような仮想的な操作部がゲーム画面に表示されるゲームでは、ユーザがゲーム画面に接触するスワイプ動作によってプレイヤが操作されることから、例えばゲーム画面に対する奥行き方向のプレイヤの三次元的な動作を実現することができずに、プレイヤの動作が二次元的な動作に制限されることがある。
このような場合に、三次元的な動作を実現させる観点から、仮想的な操作部とは別の操作インターフェースを準備して、その操作インターフェースと仮想的な操作部とを同時に操作すると、プレイヤが三次元的な動作を行うといった手法を採用することが考えられる。
しかし、仮想的な操作部とは別に操作インターフェースを準備するとすれば、ユーザインターフェースが増えてゲーム画面が煩雑になるとともに、ユーザインターフェースを介したユーザによる操作も複雑になって、ゲームを操作する際の利便性が損なわれることが懸念される。
本発明は、上記事情に鑑みてなされたものであり、ゲームを操作する際の利便性を向上させることができるゲームシステム、プログラム及び情報処理方法を提供することを課題とするものである。
上記課題を達成するための本発明に係るゲームシステムは、ネットワークを介してサーバにアクセス可能な複数のユーザ端末で実行可能なゲームを提供するゲームシステムにおいて、ユーザ端末で検出されるユーザの指の三次元の動作に基づいてゲーム内でユーザが使用するプレイヤのゲーム内における仮想的な三次元の動作を制御する動作制御部を備えることを特徴としている。
これによれば、ユーザが使用するプレイヤが、ユーザ端末で検出されるユーザの指の三次元の動作に追従するように制御されることによって、ユーザは直感的にゲームを操作することができることから、ゲームを操作する際のユーザの利便性が向上する。
このゲームシステムの動作制御部は、ユーザの指の三次元の動作を検出する三次元カメラに基づいてプレイヤの動作を制御することを特徴としている。
さらに、ゲームシステムは、ゲームが開始される際に三次元カメラで検出されたユーザの指の位置が、動作制御部がプレイヤの動作を制御する際の基準位置として設定されることを特徴としている。
しかも、ゲームシステムの動作制御部は、ユーザの指の三次元の動作のベクトルとゲーム内のプレイヤの動作のベクトルとを関連づけて一致させることを特徴としている。
さらに、ゲームシステムは、ユーザの指の三次元の動作の状態を示す状態表示インターフェースを生成するインターフェース生成部を備えることを特徴としている。
上記課題を達成するための本発明に係るプログラムは、ネットワークを介してサーバにアクセス可能な複数のユーザ端末でゲームを実行させるプログラムにおいて、ユーザ端末で検出されるユーザの指の三次元の動作に基づいてゲーム内でユーザが使用するプレイヤのゲーム内における仮想的な三次元の動作を制御することを特徴としている。
上記課題を達成するための本発明に係る情報処理方法は、ネットワークを介してサーバにアクセス可能な複数のユーザ端末でゲームを実行する情報処理方法において、ユーザ端末で検出されるユーザの指の三次元の動作に基づいてゲーム内でユーザが使用するプレイヤのゲーム内における仮想的な三次元の動作を制御することを特徴としている。
この発明によれば、ゲームを操作する際のユーザの利便性が向上する。
次に、図1~図11に基づいて、本発明の実施の形態に係るゲームシステムについて説明する。
図1は、本発明の実施の形態に係るゲームシステムの構成の概略を説明するブロック図である。図示のように、ゲームシステム10は、サーバ20及び複数のユーザ端末30を主要構成として備え、これらがインターネット網等のネットワーク100を介して互いにアクセス可能に接続される。
サーバ20は、本実施の形態では、ゲームシステム10でゲームを提供する事業者1に配備され、ユーザ端末30は、事業者1が提供するゲームを利用する複数のユーザ2に保有される。
ゲームシステム10で事業者1が提供するゲームは、本実施の形態では、画像、動画、音声等のオブジェクトの生成を主な目的とするゲームであって、例えば、対戦ゲーム、パズルゲーム、アクションゲーム、野球ゲーム、サッカーゲーム、その他スポーツゲーム、クイズゲーム、ピンボールゲーム、カードゲーム、リズムゲーム、RPG(ロールプレイングゲーム)、位置情報ゲーム、ボードゲーム、アドベンチャーゲーム、カジノゲーム、シミュレーションゲーム、ストラテジーゲーム、レーシングゲーム等であってよい。
次に、本実施の形態のゲームシステム10の各部の具体的な構成について説明する。
サーバ20は、本実施の形態では、デスクトップ型あるいはノート型のコンピュータによって実装される。
図2は、サーバ20の構成の概略を説明するブロック図である。図示のように、サーバ20は、プロセッサ21、メモリ22、ストレージ23、送受信部24、及び入出力部25を備え、これらが互いにバス26を介して電気的に接続される。
プロセッサ21は、サーバ20の動作を制御し、各要素間におけるデータの送受信の制御や、アプリケーションプログラムの実行に必要な処理等を行う演算装置である。
このプロセッサ21は、本実施の形態では例えばCPU(Central Processing Unit)であり、後述するストレージ23に格納されてメモリ22に展開されたアプリケーションプログラムを実行して各処理を行う。
メモリ22は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶装置、及びフラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶装置を備える。
このメモリ22は、プロセッサ21の作業領域として使用される一方、サーバ20の起動時に実行されるBIOS(Basic Input/Output System)、及び各種の設定情報等が格納される。
ストレージ23は、プログラムや各種の処理に用いられる情報等が格納されている。このストレージ23の構成については、後述する。
送受信部24は、サーバ20をネットワーク200に接続する。この送受信部24は、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。
入出力部25は、キーボードやマウス、あるいはディスプレイ等の入出力機器が接続されるインターフェースである。
バス26は、接続したプロセッサ21、メモリ22、ストレージ23、送受信部24及び入出力部25の間において、例えばアドレス信号、データ信号及び各種の制御信号を伝達する。
図3は、ストレージ23の構成の概略を説明するブロック図である。図示のように、ストレージ23は、本実施の形態では、データベース40及び情報処理プログラム41を備える。
データベース40は、ストレージ23の提供する記憶領域として実現され、本実施の形態では、ゲーム情報D1が格納される。
図4は、ゲーム情報D1の構成の概略を説明するブロック図である。図示のように、ゲーム情報D1は、ゲームデータd1a、イベントデータd1b、プレイヤデータd1c及び報酬データd1dを備える。
ゲームデータd1aは、本実施の形態では、ゲームに登場するキャラクタやアイテム、背景画像等、ゲームの種類に応じたゲームの設定に関するデータによって構成され、例えば、対戦ゲームである場合は、ステージのIDに関連づけられたステージ名等が含まれる。
ゲームデータd1aを構成するキャラクタは、本実施の形態では、ユーザ2がユーザ端末30を介して操作することによってゲーム内で行動するプレイヤ、プレイヤの仲間となるキャラクタ、あるいはプレイヤと対戦する敵のキャラクタ等が含まれる。
イベントデータd1bは、本実施の形態では、ユーザ2がプレイヤとして実行するトライアル(例えば敵のキャラクタとの対戦等)が設定された任意のイベントによって構成され、この種のイベントをクリアすると、ゲーム内で使用されるアイテムやプレイヤのエナジーの回復等といった後述するゲーム内報酬が付与される場合がある。
プレイヤデータd1cは、本実施の形態では、プレイヤ名、ユーザ2がプレイヤとして所有するキャラクタに関するデータ、ユーザ2のプレイヤの動作の設定に関するデータ、ユーザ2のプレイヤが所有するアイテムに関するデータ、プレイステージに関するデータ等によって構成される。
所有するキャラクタに関するデータは、例えば、キャラクタのIDに関連づけられたレベル、攻撃力、防御力及び体力等の各種のパラメータの現在の値が含まれる。
プレイヤの動作の設定に関するデータは、例えば、ユーザ2の指の三次元の動作のベクトルとプレイヤの動作のベクトルとを関連づける予め設定された任意の基準が含まれる。
本実施の形態では、例えば、ユーザ2の指がx方向に動いた場合はプレイヤもx方向に動き、ユーザ2の指がy方向に動いた場合はプレイヤもy方向に動く等といった基準が含まれる。
所有するアイテムに関するデータは、例えば、アイテムのIDに関連づけられたアイテムの保有数等の値が含まれる。
プレイステージに関するデータは、設定された複数のステージのうち、ユーザ2がプレイヤとしてこれまでにプレイしたことがあるステージに関するデータであり、例えばプレイの回数やステージをクリアした際のデータ等が含まれる。
報酬データd1dは、プレイヤに付与されるゲーム内報酬に関するデータである。
このゲーム内報酬は、本実施の形態では、例えばゲーム内で実行される任意のイベントの実行、プレイヤが任意のアイテムを取得する際の確率を示すドロップ率の上昇、ゲーム内でアイテムと交換したりプレイヤのエナジーを回復したりする等の際に費消するゲーム内ポイント、あるいはゲーム内で実行される機能が制限されている場合にその制限を解除して機能を実行させる機能実行指令等が含まれる。
図3で示す情報処理プログラム41は、本実施の形態では、ゲーム処理部41a、動作制御部41b及びインターフェース生成部41cを備える。
ゲーム処理部41aは、本実施の形態では、ゲームの進行やキャラクタの制御といったゲームの基本的な処理を実行するモジュールであって、本実施の形態では、例えばキャラクタ育成処理、イベント処理、機能制限処理あるいは報酬付与処理等を実行する。
キャラクタ育成処理は、本実施の形態では、ユーザ2がプレイヤとして選択したキャラクタが、ユーザ2によって例えば走らせられたり泳がせられたりといった予め設定された任意のアクションに基づいて、キャラクタの経験値やエナジーの値を向上させて、キャラクタの育成を実行する処理である。
イベント処理は、本実施の形態では、ユーザ2がプレイヤとして選択したキャラクタの行動に応じてイベントを実行する処理であり、機能制限処理は、ゲーム内で実行される機能の制限及びその制限の解除を実行する処理であり、報酬付与処理は、ユーザ2が使用するプレイヤにゲーム内報酬を付与する処理である。
ゲーム処理部41aは、その他、ゲームの基本的な各種の処理を実行する。
図3で示す動作制御部41bは、本実施の形態では、ゲーム内におけるプレイヤの動作を制御するモジュールである。
図5は、動作制御部41bの処理の概略を説明するフローチャートである。まず、ゲームの起動後であってゲームを開始する際に、ユーザ端末30の後述する三次元カメラ(デプスカメラ)でユーザ2の指の位置が検出されると、図示のように、動作制御部41bは、ステップS1において、検出されたユーザ2の指の位置をプレイヤの動作を制御する際の基準位置として設定する。
本実施の形態では、例えば、ユーザ2がユーザ端末30の正面側の任意の部位に対して指をかざすと、三次元カメラがその位置でユーザ2の指の位置を検出し、検出したその位置を基準位置として設定する。
基準位置の設定に続いて、ゲームを開始すると、ステップS2において、ユーザ端末30の三次元カメラが検出したユーザ2の指の三次元の動作に応じて生成されてユーザ端末30から送信される検出信号に基づいて、ユーザ2の指の動作の態様を判別する。三次元カメラが検出したユーザ2の指の三次元の動作とは、基準位置に対する相対的な三次元の指の位置、または指の移動方向、移動距離、移動速度等を意味する。
本実施の形態では、例えば、ユーザ2が三次元で指をユーザ端末30の上下左右方向に動かす動作であるのか、あるいはユーザ2が三次元で指をユーザ端末30の奥行き方向に動かす動作であるのか等といったユーザ2の指の動作の態様を判別する。
ユーザ2の動作の態様を判別すると、ステップS3において、ゲーム内におけるプレイヤの仮想的な三次元の動作を制御する。
本実施の形態では、プレイヤデータd1cに含まれるプレイヤの動作の設定に関するデータに基づいて、ユーザ2の指の三次元の動作のベクトルとユーザ2がプレイヤとして選択したキャラクタCの動作のベクトルとを関連づけて一致させて動作を制御する。
図6は、ゲーム画面のビューが、ユーザ2がプレイヤとして選択したキャラクタCを正面から見る設定の場合における動作制御部41bの処理の概略を説明する図である。
図示のように、ユーザ2の指の動作の態様を矢線V1で示す画面上方向に動かす動作あるいは矢線V2で示す画面下方向に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて矢線Uで示す上方向あるいは矢線Dで示す下方向に動くというように、動作を制御する。
なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり、キャラクタCが飛行している場合は下降する動作である。
一方、ユーザ2の指の動作の態様を矢線V3で示す画面左方向に動かす動作あるいは矢線V4で示す画面右方向に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて矢線Rで示す右方向あるいは矢線Lで示す左方向に動くというように、動作を制御する。
さらに、ユーザ2の指の動作の態様を矢線V5で示すゲーム画面IF1に対する奥行き方向前方に動かす動作(例えば、指をカメラに近づける動作)あるいは矢線V6で示すゲーム画面IF1に対する奥行き方向後方に動かす動作(例えば、指をカメラから遠ざける動作)であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて矢線Fで示す前進方向あるいは矢線Bで示す後退方向に動くというように、動作を制御する。
図7は、ゲーム画面IF1のビューがキャラクタCを側面から見る設定の場合における動作制御部41bの処理の概略を説明する図である。
図示のように、ユーザ2の指の動作の態様を画面上方向V1に動かす動作あるいは画面下方向V2に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて上方向Uあるいは下方向Dに動くというように、動作を制御する。
なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり、キャラクタCが飛行している場合は下降する動作である。
一方、ユーザ2の指の動作の態様を画面左方向V3に動かす動作あるいは画面右方向V4に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて前進方向Fあるいは後退方向Bに動くというように、動作を制御する。
さらに、ユーザ2の指の動作の態様をゲーム画面IF1に対する奥行き方向前方V5に動かす動作あるいはゲーム画面IF1に対する奥行き方向後方V6に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて左方向Lに動くあるいは右方向Rに動くというように、動作を制御する。
図8は、ゲーム画面IF1のビューがキャラクタCを上方から見る設定の場合における動作制御部41bの処理の概略を説明する図である。
図示のように、ユーザ2の指の動作の態様を画面上方向V1に動かす動作あるいは画面下方向V2に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて後退方向Bあるいは前進方向Fに動くというように、動作を制御する。
一方、ユーザ2の指の動作の態様を画面左方向V3に動かす動作あるいは画面右方向V4に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて右方向Rあるいは左方向Lに動くというように、動作を制御する。
さらに、ユーザ2の指の動作の態様をゲーム画面IF1に対する奥行き方向前方V5に動かす動作あるいはゲーム画面IF1に対する奥行き方向後方V6に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて上方向Uあるいは下方向Dに動くというように、動作を制御する。
なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり、キャラクタCが飛行している場合は下降する動作である。
図3で示すインターフェース生成部41cは、ユーザ2の指の三次元の動作の状態を示す状態表示インターフェースを生成するモジュールである。
図9は、状態表示インターフェースの概略を説明する図である。図示のように、状態表示インターフェースIF2は、x軸、y軸及びz軸からなる仮想的な三次元の領域に配置される透明(または半透明)な仮想球体Sを備える。
本実施の形態では、ユーザ1の指の三次元の動作の方向、すなわちプレイヤとして選択されたキャラクタの仮想的な三次元の動作の方向に応じて、仮想球体Sの中心点Oから動作線Mが伸長し、動作線Mと仮想球体Sとが交差する仮想球体Sの球面に動作領域Aが表示される。
この状態表示インターフェースIF2は、例えばゲーム画面の左下等、ゲーム画面における任意の部位に表示される。状態表示インターフェースIF2の位置は変更可能であってもよい。その場合、例えば状態表示インターフェースIF2の位置変更を要求するボタン画像等をゲーム画面に表示して起き、ユーザ2は当該位置変更要求ボタンを選択してから、任意の画面の位置をタップ操作等で指定することで、状態表示インターフェースIF2の位置変更を行えるようにしてもよい。
これにより、ユーザ2は自らの指の三次元の動作及びそれに追従するキャラクタの仮想的な三次元の動作を同時に視認することができることから、ゲームを操作する際の利便性が向上する。
これらゲーム処理部41a、動作制御部41b及びインターフェース生成部41cを備える情報処理プログラム41での処理に基づいて、本実施の形態では、ユーザ端末30においてゲームが実行される。
図1で示すユーザ端末30は、本実施の形態では、携帯型情報端末であるスマートフォンで実装されるが、例えばゲーム専用の端末、タブレット型のコンピュータ、デスクトップ型あるいはノート型のコンピュータによって実装されるものであってもよい。
図10は、ユーザ端末30の構成の概略を説明するブロック図である。図示のように、ユーザ端末30は、制御部31、ディスプレイ32及び三次元カメラ33を主要構成として備える。
制御部31は、本実施の形態では、ディスプレイ32や三次元カメラ33等のユーザ端末30の各部を制御するものであって、例えばプロセッサ、メモリ、ストレージ、送受信部等によって構成される。
この制御部31には、本実施の形態では、ゲームアプリケーションあるいはウェブサイトを閲覧可能なブラウザが格納され、サーバ20の情報処理プログラム41での処理に基づいて、ゲームアプリケーションあるいはブラウザを介してユーザ端末30においてゲームが実行される。
ディスプレイ32には、本実施の形態では、図6~図8で示したゲーム画面IF1を含む、ユーザ端末30で実行されるゲームの画面インターフェースが表示される。
このディスプレイ32は、表示面への接触によって情報の入力を受け付けるいわゆるタッチパネルであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される。
三次元カメラ33は、本実施の形態では、ユーザ端末30であるスマートフォンの前面に搭載されたインカメラであって、物体との距離を検出する近接センサ等の各種のセンサを備えて構成され、ユーザ動作情報D2を検出する。
ユーザ動作情報D2は、プレイヤの操作あるいは動作に関して入力される情報であって、ユーザ2の任意の動作に基づく映像情報である。
このユーザ動作情報D2は、本実施の形態では、例えば、ユーザ端末30に対してユーザ2が三次元で指を上下左右方向に動かす動作、あるいはユーザ2が三次元で指をユーザ端末30の奥行き方向に動かす動作である。
ユーザ動作情報D2がユーザ端末30の三次元カメラ33に検出されると、三次元カメラ33は、ユーザ2の動作の態様に応じた検出信号を生成する。
次に、本実施の形態に係るゲームシステム10の処理の概略について説明する。
図11は、本実施の形態に係るゲームシステム10の処理の概略を説明するフローチャートである。図示のように、まず、ステップS10において、ユーザ2はゲームを起動する。
ゲームの起動後、ゲームの開始に際して、ユーザ2が指をユーザ端末30の三次元カメラ33にかざして三次元カメラ33がユーザ2の指の位置を検出すると、ステップS11において、三次元カメラ33が検出したユーザ2の指の位置を、プレイヤの動作を制御する際の基準位置として設定する。
基準位置の設定後、ステップS12において、ユーザ2はゲームを開始する。
ゲームを開始すると、ステップS13において、ユーザ2の指の三次元の動作に基づいて、ユーザ2がプレイヤとして選択したキャラクタの仮想的な三次元の動作を制御する。
本実施の形態では、例えば、ユーザ2が三次元で指をゲーム画面の上下左右方向に動かす動作あるいはユーザ2が三次元で指をゲーム画面の奥行き方向に動かす動作に応じて、ユーザ2の指の三次元の動作のベクトルと一致したベクトルにおいてキャラクタがゲーム内で仮想的な三次元の動作を行う。
このように、ユーザ2がプレイヤとして選択したキャラクタが、ユーザ端末30で検出されるユーザ2の指の三次元の動作に追従するように制御されることによって、ユーザ2は直感的にゲームを操作することができることから、ゲームを操作する際のユーザ2の利便性が向上する。
なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲で種々の変更が可能である。
上記実施の形態では、ゲーム画面のビューが、ユーザ2がプレイヤとして選択したキャラクタCを正面から見る設定の場合、キャラクタCを側面から見る設定の場合及びキャラクタCを上方から見る設定の場合を説明したが、例えばキャラクタCを下方あるいは背面から見る設定等、種々の設定であってもよい。
上記実施の形態では、基準位置の設定後、ユーザ2の指が基準位置にあるときには、仮想球体Sの中心点Oから動作線Mは伸長せず(動作領域Aが表示されず)、中心点Oに動作線Mが位置していることを表示する(例えば中心点Oの表示が大きくなったり、明るくなったり、もしくは暗くなったりする等)などしてもよい。また、その際、キャラクタは停止した状態としてもよい。また、基準位置から離れた位置でユーザ2が指を停止している場合、基準位置に対するユーザ2の指の位置に応じて、キャラクタが基準位置に対する指の位置の方向に移動し続けるようにしてもよい。その場合、状態表示インターフェースIF2は、キャラクタの仮想的な三次元の動作の方向に応じて、仮想球体Sの中心点Oから延びる動作線Mと、球面の動作領域Aとが表示され続けるようにしてもよい。
上記実施の形態では、ユーザ端末30に搭載された三次元カメラ33でユーザ2の指の三次元の動作を検出する場合を説明したが、ユーザ端末30に搭載されたモーションセンサでユーザ2の指の三次元の動作を検出するものであってもよい。
さらに、ユーザ端末30で検出するユーザ2の指の本数は、1本であっても2本であってもそれ以外の任意の数であってもよいし、人差し指、中指あるいは親指等、いずれの指であってもよい。
本発明は、以下の構成を備える。
(項目1)
ネットワークを介してサーバにアクセス可能な複数のユーザ端末で実行可能なゲームを提供するゲームシステムにおいて、
前記ユーザ端末で検出されるユーザの指の三次元の動作に基づいて前記ゲーム内で前記ユーザが使用するプレイヤの前記ゲーム内における仮想的な三次元の動作を制御する動作制御部、
を備えることを特徴とするゲームシステム。
(項目2)
前記動作制御部は、
前記ユーザの指の三次元の動作を検出する三次元カメラに基づいて前記プレイヤの動作を制御することを特徴とする項目1に記載のゲームシステム。
(項目3)
前記ゲームが開始される際に前記三次元カメラで検出された前記ユーザの指の位置が、前記動作制御部が前記プレイヤの動作を制御する際の基準位置として設定されることを特徴とする項目2に記載のゲームシステム。
(項目4)
前記動作制御部は、
前記ユーザの指の三次元の動作のベクトルと前記ゲーム内の前記プレイヤの動作のベクトルとを関連づけて一致させることを特徴とする項目1~3のいずれか1項に記載のゲームシステム。
(項目5)
前記ユーザの指の三次元の動作の状態を示す状態表示インターフェースを生成するインターフェース生成部、
を備えることを特徴とする項目1~4のいずれか1項に記載のゲームシステム。
(項目6)
ネットワークを介してサーバにアクセス可能な複数のユーザ端末でゲームを実行させるプログラムにおいて、
前記ユーザ端末で検出されるユーザの指の三次元の動作に基づいて前記ゲーム内で前記ユーザが使用するプレイヤの前記ゲーム内における仮想的な三次元の動作を制御することを特徴とするプログラム。
(項目7)
ネットワークを介してサーバにアクセス可能な複数のユーザ端末でゲームを実行する情報処理方法において、
前記ユーザ端末で検出されるユーザの指の三次元の動作に基づいて前記ゲーム内で前記ユーザが使用するプレイヤの前記ゲーム内における仮想的な三次元の動作を制御することを特徴とする情報処理方法。
(項目1)
ネットワークを介してサーバにアクセス可能な複数のユーザ端末で実行可能なゲームを提供するゲームシステムにおいて、
前記ユーザ端末で検出されるユーザの指の三次元の動作に基づいて前記ゲーム内で前記ユーザが使用するプレイヤの前記ゲーム内における仮想的な三次元の動作を制御する動作制御部、
を備えることを特徴とするゲームシステム。
(項目2)
前記動作制御部は、
前記ユーザの指の三次元の動作を検出する三次元カメラに基づいて前記プレイヤの動作を制御することを特徴とする項目1に記載のゲームシステム。
(項目3)
前記ゲームが開始される際に前記三次元カメラで検出された前記ユーザの指の位置が、前記動作制御部が前記プレイヤの動作を制御する際の基準位置として設定されることを特徴とする項目2に記載のゲームシステム。
(項目4)
前記動作制御部は、
前記ユーザの指の三次元の動作のベクトルと前記ゲーム内の前記プレイヤの動作のベクトルとを関連づけて一致させることを特徴とする項目1~3のいずれか1項に記載のゲームシステム。
(項目5)
前記ユーザの指の三次元の動作の状態を示す状態表示インターフェースを生成するインターフェース生成部、
を備えることを特徴とする項目1~4のいずれか1項に記載のゲームシステム。
(項目6)
ネットワークを介してサーバにアクセス可能な複数のユーザ端末でゲームを実行させるプログラムにおいて、
前記ユーザ端末で検出されるユーザの指の三次元の動作に基づいて前記ゲーム内で前記ユーザが使用するプレイヤの前記ゲーム内における仮想的な三次元の動作を制御することを特徴とするプログラム。
(項目7)
ネットワークを介してサーバにアクセス可能な複数のユーザ端末でゲームを実行する情報処理方法において、
前記ユーザ端末で検出されるユーザの指の三次元の動作に基づいて前記ゲーム内で前記ユーザが使用するプレイヤの前記ゲーム内における仮想的な三次元の動作を制御することを特徴とする情報処理方法。
1 事業者
2 ユーザ
10 ゲームシステム
20 サーバ
30 ユーザ端末
33 検知センサ
40 データベース
41 情報処理プログラム(プログラム)
41b 動作制御部
41c インターフェース生成部
D2 ユーザ動作情報
IF2 状態表示インターフェース
2 ユーザ
10 ゲームシステム
20 サーバ
30 ユーザ端末
33 検知センサ
40 データベース
41 情報処理プログラム(プログラム)
41b 動作制御部
41c インターフェース生成部
D2 ユーザ動作情報
IF2 状態表示インターフェース
Claims (8)
- ネットワークを介してサーバにアクセス可能な複数のユーザ端末で実行可能なゲームを提供するゲームシステムにおいて、
前記ユーザ端末で検出されるユーザの指の三次元の動作に基づいて前記ゲーム内で前記ユーザが使用するプレイヤの前記ゲーム内における仮想的な三次元の動作を制御する動作制御部、及び、
基準位置に対する前記ユーザの指の相対的な三次元の位置を示す状態表示インターフェースを生成するインターフェース生成部、
を備えることを特徴とするゲームシステム。 - 前記動作制御部は、
前記ユーザの指の三次元の動作を検出する三次元カメラに基づいて前記プレイヤの動作を制御することを特徴とする請求項1に記載のゲームシステム。 - 前記ゲームが開始される際に前記三次元カメラで検出された前記ユーザの指の位置が、前記動作制御部が前記プレイヤの動作を制御する際の基準位置として設定されることを特徴とする請求項2に記載のゲームシステム。
- 前記動作制御部は、
前記ユーザの指の三次元の動作のベクトルと前記ゲーム内の前記プレイヤの動作のベクトルとを関連づけて一致させることを特徴とする請求項1~3のいずれか1項に記載のゲームシステム。 - 前記ユーザの指の三次元の動作は、前記指の移動方向、移動距離及び移動速度の少なくとも1つを含むことを特徴とする請求項1~4のいずれか1項に記載のゲームシステム。
- 前記状態表示インターフェースは、
中心点が前記基準位置に対応し、内部が透過表示される仮想球体と、
前記中心点から、前記ユーザの指の三次元の位置に対応する点まで延びる動作線とを有することを特徴とする請求項1~5のいずれか1項に記載のゲームシステム。 - ネットワークを介してサーバにアクセス可能な複数のユーザ端末でゲームを実行させるプログラムにおいて、
前記ユーザ端末で検出されるユーザの指の三次元の動作に基づいて前記ゲーム内で前記ユーザが使用するプレイヤの前記ゲーム内における仮想的な三次元の動作を制御し、
基準位置に対する前記ユーザの指の相対的な三次元の位置を示す状態表示インターフェースを生成することを特徴とするプログラム。 - ネットワークを介してサーバにアクセス可能な複数のユーザ端末でゲームを実行する情報処理方法において、
前記ユーザ端末で検出されるユーザの指の三次元の動作に基づいて前記ゲーム内で前記ユーザが使用するプレイヤの前記ゲーム内における仮想的な三次元の動作を制御し、
基準位置に対する前記ユーザの指の相対的な三次元の位置を示す状態表示インターフェースを生成することを特徴とする情報処理方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-208010 | 2020-12-16 | ||
JP2020208010A JP6919050B1 (ja) | 2020-12-16 | 2020-12-16 | ゲームシステム、プログラム及び情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022130681A1 true WO2022130681A1 (ja) | 2022-06-23 |
Family
ID=77172749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/028905 WO2022130681A1 (ja) | 2020-12-16 | 2021-08-04 | ゲームシステム、プログラム及び情報処理方法 |
Country Status (2)
Country | Link |
---|---|
JP (3) | JP6919050B1 (ja) |
WO (1) | WO2022130681A1 (ja) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004110259A (ja) * | 2002-09-17 | 2004-04-08 | Satoshi Torigoe | 3次元箱型入力媒体及び箱型入力方法 |
JP2013017640A (ja) * | 2011-07-11 | 2013-01-31 | Kyocera Corp | 表示機器、制御システムおよび制御プログラム |
WO2014207971A1 (ja) * | 2013-06-26 | 2014-12-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | ユーザインタフェース装置及び表示オブジェクト操作方法 |
WO2017150129A1 (ja) * | 2016-03-04 | 2017-09-08 | 株式会社ソニー・インタラクティブエンタテインメント | 制御装置 |
JP6290490B1 (ja) * | 2017-04-14 | 2018-03-07 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
WO2019077652A1 (ja) * | 2017-10-16 | 2019-04-25 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、コントローラデバイス、及び情報処理装置 |
JP2019128941A (ja) * | 2018-01-24 | 2019-08-01 | アップル インコーポレイテッドApple Inc. | 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース |
JP2020086939A (ja) * | 2018-11-26 | 2020-06-04 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008225985A (ja) * | 2007-03-14 | 2008-09-25 | Namco Bandai Games Inc | 画像認識システム |
JP3132391U (ja) * | 2007-03-26 | 2007-06-07 | 新世代株式会社 | 入力装置 |
JP2012212237A (ja) * | 2011-03-30 | 2012-11-01 | Namco Bandai Games Inc | 画像生成システム、サーバシステム、プログラム及び情報記憶媒体 |
JP6534011B2 (ja) * | 2015-02-10 | 2019-06-26 | 任天堂株式会社 | 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法 |
-
2020
- 2020-12-16 JP JP2020208010A patent/JP6919050B1/ja active Active
-
2021
- 2021-07-21 JP JP2021120121A patent/JP2022095525A/ja active Pending
- 2021-07-21 JP JP2021120140A patent/JP2022095526A/ja active Pending
- 2021-08-04 WO PCT/JP2021/028905 patent/WO2022130681A1/ja active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004110259A (ja) * | 2002-09-17 | 2004-04-08 | Satoshi Torigoe | 3次元箱型入力媒体及び箱型入力方法 |
JP2013017640A (ja) * | 2011-07-11 | 2013-01-31 | Kyocera Corp | 表示機器、制御システムおよび制御プログラム |
WO2014207971A1 (ja) * | 2013-06-26 | 2014-12-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | ユーザインタフェース装置及び表示オブジェクト操作方法 |
WO2017150129A1 (ja) * | 2016-03-04 | 2017-09-08 | 株式会社ソニー・インタラクティブエンタテインメント | 制御装置 |
JP6290490B1 (ja) * | 2017-04-14 | 2018-03-07 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
WO2019077652A1 (ja) * | 2017-10-16 | 2019-04-25 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、コントローラデバイス、及び情報処理装置 |
JP2019128941A (ja) * | 2018-01-24 | 2019-08-01 | アップル インコーポレイテッドApple Inc. | 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース |
JP2020086939A (ja) * | 2018-11-26 | 2020-06-04 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022095526A (ja) | 2022-06-28 |
JP2022094975A (ja) | 2022-06-28 |
JP2022095525A (ja) | 2022-06-28 |
JP6919050B1 (ja) | 2021-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115427122A (zh) | 虚拟控制台游戏控制器 | |
US20080297492A1 (en) | Storage medium storing movement controlling program and movement controlling apparatus | |
JP6738872B2 (ja) | ゲームプログラム、方法、および情報処理装置 | |
JP7518442B2 (ja) | ゲームプログラム、ゲーム処理方法及びゲーム端末 | |
Pelegrino et al. | Creating and designing customized and dynamic game interfaces using smartphones and touchscreen | |
JP2024086840A (ja) | ゲームプログラム、ゲーム処理方法及びゲーム端末 | |
JP6919050B1 (ja) | ゲームシステム、プログラム及び情報処理方法 | |
JP6953650B1 (ja) | ゲームシステム、プログラム及び情報処理方法 | |
JP6672401B2 (ja) | ゲームプログラム、方法、および情報処理装置 | |
JP7052128B1 (ja) | 情報処理システム、プログラム及び情報処理方法 | |
JP7163526B1 (ja) | 情報処理システム、プログラム及び情報処理方法 | |
JP7286856B2 (ja) | 情報処理システム、プログラム及び情報処理方法 | |
JP7286857B2 (ja) | 情報処理システム、プログラム及び情報処理方法 | |
JP7368957B2 (ja) | プログラム、および情報処理装置 | |
Chien et al. | Gesture-based head-mounted augmented reality game development using leap motion and usability evaluation | |
Teather et al. | Tilt-Touch synergy: Input control for “dual-analog” style mobile games | |
JP7146052B1 (ja) | ゲームシステム、ゲームプログラム及び情報処理方法 | |
CN113680062A (zh) | 一种游戏中的信息查看方法及装置 | |
JP6922111B1 (ja) | ゲームシステム、プログラム及び情報処理方法 | |
JP2020110603A (ja) | ゲームプログラム、方法、および情報処理装置 | |
JP2021145888A (ja) | プログラム、端末、及びゲームシステム | |
JP2023015979A (ja) | 情報処理システム、プログラム及び情報処理方法 | |
JP6978540B2 (ja) | プログラム、端末、及びゲームシステム | |
JP2020116178A (ja) | ゲームプログラム、方法、および情報処理装置 | |
JP7532692B1 (ja) | 情報処理システム、プログラム、情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21906047 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21906047 Country of ref document: EP Kind code of ref document: A1 |