[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7256398B2 - computer system - Google Patents

computer system Download PDF

Info

Publication number
JP7256398B2
JP7256398B2 JP2019197451A JP2019197451A JP7256398B2 JP 7256398 B2 JP7256398 B2 JP 7256398B2 JP 2019197451 A JP2019197451 A JP 2019197451A JP 2019197451 A JP2019197451 A JP 2019197451A JP 7256398 B2 JP7256398 B2 JP 7256398B2
Authority
JP
Japan
Prior art keywords
user
game
information
scenario
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019197451A
Other languages
Japanese (ja)
Other versions
JP2021069601A (en
Inventor
淑恵 坪倉
和啓 高原
芳高 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2019197451A priority Critical patent/JP7256398B2/en
Publication of JP2021069601A publication Critical patent/JP2021069601A/en
Application granted granted Critical
Publication of JP7256398B2 publication Critical patent/JP7256398B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータシステムに関する。 The present invention relates to computer systems.

従来、仮想空間におけるユーザの仮想体験を高めたシステムが提案されている。例えば、現実空間におけるユーザの動作に応じたパフォーマンスを、仮想空間におけるアバターが行うことによって、ユーザの仮想体験の興趣性を高めたものがある(例えば、特許文献1を参照)。 Conventionally, systems have been proposed that enhance a user's virtual experience in a virtual space. For example, there is a technique in which an avatar in a virtual space performs a performance according to the user's actions in the real space, thereby increasing the interest of the user's virtual experience (see, for example, Patent Document 1).

特許第6514397号公報Japanese Patent No. 6514397

コンピュータシステムにおいて、ユーザが仮想体験の興趣性を得たいというニーズが存在する。 In computer systems, there is a need for users to obtain the interest of virtual experiences.

そこで、本発明の目的は、ユーザが仮想体験の興趣性を得られることが可能なコンピュータシステムを提供することである。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a computer system that allows a user to enjoy a virtual experience.

第1の発明は、1または複数のコンピュータを備えたコンピュータシステムであって、
前記コンピュータを、
仮想空間上に形成された代理のオブジェクトに動作を行わせる第1ユーザに対して、前記代理のオブジェクトの動作を導き出すオブジェクト動作情報を出力する第1出力部と、
前記オブジェクト動作情報に対応した前記第1ユーザの動作を示す第1ユーザ動作情報を取得する第1取得部と、
第2ユーザに対して、前記第1ユーザ動作情報を出力する第2出力部と、
前記第2ユーザの動作を示す第2ユーザ動作情報を取得する第2取得部と
して機能させ、
前記第1出力部は、前記第1ユーザに対して、前記第2ユーザ動作情報に応じた前記オブジェクト動作情報を出力し、
前記第2出力部は、前記第2ユーザに対して、前記オブジェクト動作情報を出力しないことを特徴とするコンピュータシステムである。
A first invention is a computer system comprising one or more computers,
said computer,
a first output unit configured to output, to a first user who causes a proxy object formed in a virtual space to perform an action, object action information for deriving the action of the proxy object;
a first acquisition unit that acquires first user action information indicating an action of the first user corresponding to the object action information;
a second output unit that outputs the first user action information to a second user;
functioning as a second acquisition unit for acquiring second user motion information indicating the motion of the second user;
The first output unit outputs the object action information corresponding to the second user action information to the first user,
The computer system is characterized in that the second output unit does not output the object action information to the second user.

第2の発明は、1または複数のコンピュータを備えたコンピュータシステムであって、
前記コンピュータを、
仮想空間上に形成された代理のオブジェクトに動作を行わせる第1ユーザに対して、前記代理のオブジェクトの動作を導き出すオブジェクト動作情報を出力する第1出力部と、
前記オブジェクト動作情報に対応した前記第1ユーザの動作を示す第1ユーザ動作情報を取得する第1取得部と、
第2ユーザに対して、前記第1ユーザ動作情報を出力する第2出力部と、
前記第2ユーザの動作を示す第2ユーザ動作情報を取得する第2取得部と
して機能させ、
前記第2出力部が前記第2ユーザに対して前記第1ユーザ動作情報を出力した後に前記第2取得部が取得した前記第2ユーザ動作情報、が所定条件を満たす場合、前記第1出力部は、前記第1ユーザに対して、前記第2ユーザ動作情報に応じた前記オブジェクト動作情報を出力することを特徴とするコンピュータシステムである。
A second invention is a computer system comprising one or more computers,
said computer,
a first output unit configured to output, to a first user who causes a proxy object formed in a virtual space to perform an action, object action information for deriving the action of the proxy object;
a first acquisition unit that acquires first user action information indicating an action of the first user corresponding to the object action information;
a second output unit that outputs the first user action information to a second user;
functioning as a second acquisition unit for acquiring second user motion information indicating the motion of the second user;
When the second user action information acquired by the second acquisition section after the second output section outputs the first user action information to the second user satisfies a predetermined condition, the first output section satisfies a predetermined condition. is a computer system characterized by outputting the object action information according to the second user action information to the first user.

また、第1の発明または第2の発明において、前記オブジェクト動作情報は、前記第1ユーザの動作に応じて定められている、ことができる。 Also, in the first invention or the second invention, the object action information may be determined according to the action of the first user.

また、第1の発明または第2の発明において、前記コンピュータは、ゲームを実行し、
前記第1出力部は、前記第1ユーザに対して、前記ゲームのシナリオに応じた前記オブジェクト動作情報を出力する、ことができる。
Further, in the first invention or the second invention, the computer executes a game,
The first output unit can output the object action information according to the game scenario to the first user.

また、第1の発明または第2の発明において、前記コンピュータを、
前記第1ユーザまたは前記第2ユーザからの操作入力を受け付ける操作入力部と、
前記操作入力に基づいて、前記ゲームのシナリオを決定するシナリオ決定部と
してさらに機能させ、
前記第1出力部は、前記第1ユーザに対して、前記シナリオ決定部により決定された前記シナリオに応じた前記オブジェクト動作情報を出力する、ことができる。
Further, in the first invention or the second invention, the computer
an operation input unit that receives an operation input from the first user or the second user;
further functioning as a scenario determination unit that determines a scenario of the game based on the operation input;
The first output unit can output the object action information according to the scenario determined by the scenario determination unit to the first user.

また、第1の発明または第2の発明において、前記シナリオ決定部は、前記操作入力に基づいて、前記ゲームにおける複数のシナリオのうち少なくとも1つのシナリオを抽選により決定する、ことができる。 In addition, in the first invention or the second invention, the scenario determination section can determine at least one scenario out of a plurality of scenarios in the game by lottery based on the operation input.

また、第1の発明または第2の発明において、前記第1出力部は、前記第1ユーザに対して、前記シナリオ決定部により決定されたシナリオに関する情報を出力する、ことができる。 Further, in the first invention or the second invention, the first output section can output information regarding the scenario determined by the scenario determination section to the first user.

また、第1の発明または第2の発明において、前記コンピュータを、
前記第2ユーザからの操作入力に基づいて、複数の前記第1ユーザの中から前記第2ユーザと同一の前記シナリオをプレイする前記第1ユーザを選択する第1ユーザ選択部と
してさらに機能させる、ことができる。
Further, in the first invention or the second invention, the computer
Further functions as a first user selection unit that selects the first user who plays the same scenario as the second user from among the plurality of first users, based on an operation input from the second user. let, can

また、第1の発明または第2の発明において、前記コンピュータを、
前記第1ユーザからの操作入力に基づいて、複数の前記第2ユーザの中から前記第1ユーザと同一の前記シナリオをプレイする前記第2ユーザを選択する第2ユーザ選択部と
してさらに機能させる、ことができる。
Further, in the first invention or the second invention, the computer
Further functions as a second user selection unit that selects the second user who plays the same scenario as the first user from among the plurality of second users based on an operation input from the first user. let, can

また、第1の発明または第2の発明において、前記コンピュータを、
前記第1ユーザまたは前記第2ユーザからの操作入力に基づいて、前記ゲームのシナリオを決定するシナリオ決定部と、
前記シナリオ決定部により決定されたシナリオに基づいて、複数の前記第1ユーザの中から前記第2ユーザと同一の前記シナリオをプレイする前記第1ユーザを選択する第1ユーザ選択部と
としてさらに機能させる、ことができる。
Further, in the first invention or the second invention, the computer
a scenario determination unit that determines a scenario of the game based on an operation input from the first user or the second user;
a first user selection unit that selects the first user who plays the same scenario as the second user from among the plurality of first users based on the scenario determined by the scenario determination unit; let, can

本発明によれば、ユーザが仮想体験の興趣性を得られることが可能なコンピュータシステムを提供することができる。 According to the present invention, it is possible to provide a computer system that allows a user to enjoy a virtual experience.

本実施形態におけるゲームシステムのハードウェア構成および機能的構成を示すブロック図。1 is a block diagram showing the hardware configuration and functional configuration of a game system in this embodiment; FIG. 本実施形態におけるゲームシステムの模式図。The schematic diagram of the game system in this embodiment. 本実施形態におけるゲームシステムの一連の流れを示す図。The figure which shows a series of flows of the game system in this embodiment.

[実施形態]
本発明の実施形態におけるゲームシステム1について、図面を参照して説明する。図1は本実施形態におけるゲームシステムのブロック図を示す。図2は本実施形態におけるゲームシステムの模式図を示す。
[Embodiment]
A game system 1 according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a block diagram of a game system in this embodiment. FIG. 2 shows a schematic diagram of the game system in this embodiment.

<ゲームの説明>
図1に示す実施形態のゲームシステム1では、サーバ装置2と複数の第1ゲーム装置3と複数の第2ゲーム装置5とが、通信ネットワーク6を介して互いに通信可能に接続されている。サーバ装置2、各第1ゲーム装置3および各第2ゲーム装置5には、ゲームプログラムおよびゲームデータがインストールされている。第1ゲーム装置3の第1ユーザU1および第2ゲーム装置5の第2ユーザU2は、それぞれ、プレイヤキャラクタを仮想空間上で活動させたり、プレイヤキャラクタを敵キャラクタと対戦させたりする。
<Description of the game>
In the game system 1 of the embodiment shown in FIG. 1, a server device 2, a plurality of first game devices 3, and a plurality of second game devices 5 are connected via a communication network 6 so as to be able to communicate with each other. A game program and game data are installed in the server device 2 , each first game device 3 and each second game device 5 . The first user U1 of the first game device 3 and the second user U2 of the second game device 5 each make the player character act in the virtual space and make the player character fight against the enemy character.

本実施形態で説明するゲームでは、第1ゲーム装置3の第1ユーザU1の動作(例えば、第1ユーザU1の身体の動き、音声など)に応じて、プレイヤキャラクタが仮想空間上で動作を行う。ゲームでは、第1ゲーム装置3の第1ユーザU1が、プレイヤキャラクタ(キャラクタC1)を演ずる演者となって、ゲームが進行される。 In the game described in this embodiment, the player character performs actions in the virtual space in accordance with actions of the first user U1 of the first game device 3 (eg, body movements, voice, etc. of the first user U1). . In the game, the first user U1 of the first game device 3 becomes an actor who plays the player character (character C1), and the game progresses.

また、本ゲームでは、各第2ユーザU2は、HMD(Head Mounted Display)61を装着している。第2ゲーム装置5は、第2ユーザU2が装着したHMD61の表示部(図示は省略する)に、三次元の仮想空間から生成されたゲーム画像を表示する。本ゲームは、第2ユーザU2に対してバーチャルリアリティ(VR:Virtual Reality)体験をさせるものである。 Also, in this game, each second user U2 is wearing an HMD (Head Mounted Display) 61 . The second game device 5 displays a game image generated from the three-dimensional virtual space on the display unit (not shown) of the HMD 61 worn by the second user U2. This game allows the second user U2 to experience virtual reality (VR).

また、本ゲームでは、所定のシナリオに従ってゲームが進行される。例えば、ゲームのシナリオには、所定の敵キャラクタを討伐するミッション、仮想空間上にてキャラクタが進むストーリーなど、ゲームの内容に関するものが幅広く含まれる。 Also, in this game, the game progresses according to a predetermined scenario. For example, the game scenario includes a wide range of game contents, such as a mission to subdue a predetermined enemy character, a story in which a character progresses in a virtual space, and the like.

上記ゲームでは、第2ユーザU2側は、プレイステーション(登録商標)などの家庭用ゲーム機、PlayStation Vita(登録商標)などの携帯ゲーム機、パーソナルコンピュータ、タブレットなどにおいて実行される。 The above game is executed on the side of the second user U2 on a home-use game machine such as PlayStation (registered trademark), a portable game machine such as PlayStation Vita (registered trademark), a personal computer, a tablet, or the like.

<ゲームシステム1の概要>
ゲームシステム1は、サーバ装置2、第1ゲーム装置3および第2ゲーム装置5を含んでいる。
<Overview of Game System 1>
A game system 1 includes a server device 2 , a first game device 3 and a second game device 5 .

サーバ装置2は、ゲームプログラムの提供およびゲームデータの管理を行う。 The server device 2 provides game programs and manages game data.

また、サーバ装置2は、第1ゲーム装置3および第2ゲーム装置5のマッチング処理を実行する。具体的には、サーバ装置2は、第2ゲーム装置5からのマッチング要求に応じて、第2ユーザU2と同一のシナリオをプレイする第1ユーザU1を決定(マッチング)する。サーバ装置2は、第1ユーザU1が操作する第1ゲーム装置3と、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5とを相互に通信可能に接続する。 The server device 2 also executes matching processing between the first game device 3 and the second game device 5 . Specifically, in response to a matching request from the second game device 5, the server device 2 determines (matches) the first user U1 who plays the same scenario as the second user U2. The server device 2 connects the first game device 3 operated by the first user U1 and the second game device 5 operated by the second user U2 who is matched with the first user U1 so as to be able to communicate with each other.

第1ゲーム装置3は、第1ユーザU1の身体の動きや音声などをトラッキングし、その結果を示す動作トラッキング情報および音声トラッキング情報を生成する。第1ゲーム装置3は、生成した動作トラッキング情報および音声トラッキング情報を、マッチング相手の第2ユーザU2が操作する第2ゲーム装置5に送信する。 The first game device 3 tracks the body movement and voice of the first user U1, and generates motion tracking information and voice tracking information indicating the results. The first game device 3 transmits the generated action tracking information and voice tracking information to the second game device 5 operated by the second user U2 who is a matching partner.

第2ゲーム装置5は、第2ユーザU2がコントローラ63に対して行った操作入力を入力情報として、第1ゲーム装置3に送信する。 The second game device 5 transmits to the first game device 3 as input information the operational input performed by the second user U2 on the controller 63 .

第1ゲーム装置3および第2ゲーム装置5は、動作トラッキング情報および音声トラッキング情報に応じてキャラクタC1を仮想空間上で動作させ、入力情報に応じてキャラクタC2を仮想空間上で動作させる。すなわち、キャラクタC1は第1ユーザU1によって操作されるキャラクタであり、キャラクタC2は第2ユーザU2によって操作されるキャラクタである。 The first game device 3 and the second game device 5 move the character C1 in the virtual space according to the motion tracking information and the voice tracking information, and move the character C2 in the virtual space according to the input information. That is, the character C1 is a character operated by the first user U1, and the character C2 is a character operated by the second user U2.

第1ゲーム装置3および第2ゲーム装置5は、仮想空間からゲーム画像を生成して、HMD41,61の表示部に表示させる。第1ゲーム装置3および第2ゲーム装置5とで同期を取りながらゲームが進行される。 The first game device 3 and the second game device 5 generate game images from the virtual space and display them on the display units of the HMDs 41 and 61 . The game progresses while the first game device 3 and the second game device 5 are synchronized.

<ハードウェア構成>
以下、サーバ装置2、第1ゲーム装置3および第2ゲーム装置5の各ハードウェア構成について説明する。
<Hardware configuration>
Each hardware configuration of the server device 2, the first game device 3, and the second game device 5 will be described below.

<サーバ装置2の構成>
図1に示すように、サーバ装置2は、ネットワークインターフェース21、記憶部22および制御部23を有する。ネットワークインターフェース21および記憶部22は、バス29を介して、制御部23と電気的に接続されている。
<Configuration of Server Apparatus 2>
As shown in FIG. 1 , the server device 2 has a network interface 21 , a storage section 22 and a control section 23 . Network interface 21 and storage unit 22 are electrically connected to control unit 23 via bus 29 .

ネットワークインターフェース21は、インターネットおよびLANなどの通信ネットワーク6を介して、各第1ゲーム装置3および各第2ゲーム装置5と通信可能に接続されている。 The network interface 21 is communicably connected to each first game device 3 and each second game device 5 via a communication network 6 such as the Internet and LAN.

記憶部22は、HDD、SSD、RAMおよびROMなどで構成される。具体的に、記憶部22には、ゲームシステムを利用するユーザのアカウント情報、ログイン履歴、ゲームプログラムおよびゲームデータを含む各種プログラムが格納されている。また、記憶部22には、マッチング処理を実行する際に用いられるマッチングリストが記憶されている。 The storage unit 22 is composed of an HDD, SSD, RAM, ROM, and the like. Specifically, the storage unit 22 stores various programs including account information of users who use the game system, login histories, game programs, and game data. The storage unit 22 also stores a matching list used when executing the matching process.

制御部23は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置2の動作を制御する。 The control unit 23 is composed of a microcomputer including a CPU and a semiconductor memory, and controls the operation of the self-device 2 .

<サーバ装置2における制御部23の機能的構成>
制御部23は、各種プログラムを実行することにより、図1に示すように、情報処理手段231およびマッチング処理手段232として機能する。
<Functional Configuration of Control Unit 23 in Server Device 2>
By executing various programs, the control unit 23 functions as an information processing means 231 and a matching processing means 232 as shown in FIG.

情報処理手段231は、主に、ゲーム実行に必要なデータを、各第1ゲーム装置3との間、および、各第2ゲーム装置5との間で送受信する。 The information processing means 231 mainly transmits and receives data necessary for game execution to and from each first game device 3 and each second game device 5 .

情報処理手段231が、各第1ゲーム装置3から受信するデータとしては、ゲームプログラムのダウンロード要求情報、第1ユーザU1のアカウント情報が挙げられる。情報処理手段231が各第1ゲーム装置3に送信するデータとしては、マッチングされた第2ユーザU2を示す情報、第2ゲーム装置5において決定されたシナリオを示すシナリオ情報などが挙げられる。 The data that the information processing means 231 receives from each of the first game devices 3 includes download request information of the game program and account information of the first user U1. The data that the information processing means 231 transmits to each first game device 3 includes information indicating the matched second user U2, scenario information indicating the scenario determined in the second game device 5, and the like.

情報処理手段231が、各第2ゲーム装置5から受信するデータとしては、ゲームプログラムのダウンロード要求情報、第2ユーザU2のアカウント情報、マッチング要求情報などが挙げられる。情報処理手段231が各第2ゲーム装置5に送信するデータとしては、マッチングされた第1ユーザU1を示す情報などが挙げられる。 The data that the information processing means 231 receives from each of the second game devices 5 includes game program download request information, account information of the second user U2, matching request information, and the like. The data that the information processing means 231 transmits to each second game device 5 includes information indicating the matched first user U1.

マッチング処理手段232は、マッチング要求情報を情報処理手段231が受信した場合、記憶部22に記憶されたマッチングリストに基づいて、マッチング処理を実行する。マッチング処理が実行された場合、情報処理手段231は、第1ユーザU1が操作する第1ゲーム装置3と、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5とを相互に通信可能に接続する。 The matching processing means 232 executes matching processing based on the matching list stored in the storage unit 22 when the information processing means 231 receives the matching request information. When the matching process is executed, the information processing means 231 selects the first game device 3 operated by the first user U1 and the second game device 5 operated by the second user U2 who is matched with the first user U1. Connect so that they can communicate with each other.

<第1ゲーム装置3の構成>
第1ゲーム装置3には、HMD41、スピーカ42、モーションセンサ43およびマイク44が外部接続または内蔵される。また、第1ゲーム装置3は、ネットワークインターフェース31、グラフィック処理部32、オーディオ処理部33、トラッキング処理部34、記憶部35および制御部36を有する。ネットワークインターフェース31、グラフィック処理部32、オーディオ処理部33、トラッキング処理部34および記憶部35は、バス39を介して制御部36と電気的に接続されている。
<Structure of first game device 3>
The HMD 41 , the speaker 42 , the motion sensor 43 and the microphone 44 are externally connected or built into the first game device 3 . The first game device 3 also has a network interface 31 , a graphics processing unit 32 , an audio processing unit 33 , a tracking processing unit 34 , a storage unit 35 and a control unit 36 . The network interface 31 , graphics processing section 32 , audio processing section 33 , tracking processing section 34 and storage section 35 are electrically connected to a control section 36 via a bus 39 .

ネットワークインターフェース31は、第1ゲーム装置3とサーバ装置2および各第2ゲーム装置5との間で各種データを送受信するために、通信ネットワーク6に通信可能に接続される。 The network interface 31 is communicatively connected to the communication network 6 in order to transmit and receive various data between the first game device 3 and the server device 2 and each of the second game devices 5 .

グラフィック処理部32は、ゲームプレイ中に、制御部36から出力されるゲーム画像のデータに従って、ゲーム空間に関する各種オブジェクトを含むゲーム画像を、動画形式で描画する。グラフィック処理部32は、例えば、第1ユーザU1に装着されているHMD41と通信可能に接続されており、動画形式に描画されたゲーム画像がゲーム画面としてHMD41の表示部に表示される。 The graphics processing unit 32 draws game images including various objects related to the game space in a moving image format according to game image data output from the control unit 36 during game play. The graphics processing unit 32 is communicably connected to, for example, the HMD 41 worn by the first user U1, and a game image rendered in a moving image format is displayed on the display unit of the HMD 41 as a game screen.

また、グラフィック処理部32は、後述するキャラクタ動作情報を、制御部36の指示に従ってHMD41の表示部に表示させる。 Further, the graphics processing unit 32 causes the display unit of the HMD 41 to display character motion information, which will be described later, on the display unit of the HMD 41 according to instructions from the control unit 36 .

オーディオ処理部33は、スピーカ42と通信可能に接続されており、ゲームプレイ中、制御部36の指示に従ってゲーム音声を再生および合成すると、これをスピーカ42から出力させる。また、オーディオ処理部33は、後述する変換音声を、スピーカ42から出力させる。 The audio processing unit 33 is communicably connected to the speaker 42 , and reproduces and synthesizes game sound according to instructions from the control unit 36 during game play, and outputs this from the speaker 42 . Also, the audio processing unit 33 causes the speaker 42 to output a converted voice, which will be described later.

トラッキング処理部34は、第1ユーザU1に装着されたモーションセンサ43と通信可能に接続されている。モーションセンサ43は、例えば、第1ユーザU1に装着された加速度センサなどを含み、第1ユーザU1の身体の動き(第1ユーザU1の腕、脚、胴体の動きなど)を検出する。トラッキング処理部34は、モーションセンサ43からの出力に応じて、第1ユーザU1の身体の動きを示す動作トラッキング情報を制御部36に出力する。 The tracking processing unit 34 is communicably connected to the motion sensor 43 worn by the first user U1. The motion sensor 43 includes, for example, an acceleration sensor attached to the first user U1, and detects body movements of the first user U1 (arms, legs, body movements, etc. of the first user U1). The tracking processing unit 34 outputs motion tracking information indicating the body movement of the first user U1 to the control unit 36 according to the output from the motion sensor 43 .

また、トラッキング処理部34は、第1ユーザU1が発した音声などを検出するマイク44と通信可能に接続されており、マイク44からの出力に応じて、第1ユーザU1が発した音声を示す音声トラッキング情報を制御部36に出力する。 Further, the tracking processing unit 34 is communicably connected to a microphone 44 that detects the voice uttered by the first user U1, and indicates the voice uttered by the first user U1 according to the output from the microphone 44. Audio tracking information is output to the control unit 36 .

記憶部35は、HDD、SSD、RAMおよびROMなどで構成される。記憶部35には、サーバ装置2からダウンロードしたゲームデータおよびゲームプログラムを含む各種プログラムなどが格納されている。また、記憶部35には、第1ゲーム装置3を使用している第1ユーザU1のアカウント情報およびキャラクタ動作情報が格納されている。 The storage unit 35 is composed of HDD, SSD, RAM, ROM, and the like. The storage unit 35 stores various programs including game data and game programs downloaded from the server device 2 . The storage unit 35 also stores account information and character action information of the first user U1 who uses the first game device 3 .

キャラクタ動作情報には、キャラクタC1の動作に関する情報が含まれる。例えば、キャラクタ動作情報には、コントローラ63に対して所定の操作入力が行われたときに、第1ユーザU1に対して、キャラクタC1の動作を指示する情報が含まれる。すなわち、記憶部35には、第2ゲーム装置5から受信した入力情報に応じたキャラクタ動作情報が記憶されている。 The character action information includes information on actions of the character C1. For example, the character motion information includes information for instructing the first user U1 to perform the motion of the character C1 when a predetermined operation input is performed on the controller 63 . That is, the storage unit 35 stores character motion information corresponding to the input information received from the second game device 5 .

制御部36は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置3の動作を制御する。 The control unit 36 is composed of a microcomputer including a CPU and a semiconductor memory, and controls the operation of the device 3 itself.

<第1ゲーム装置3における制御部36の機能的構成>
制御部36は、各種プログラムを実行することにより、通信手段361、ゲーム進行手段362、キャラクタ動作情報処理手段363および音声変換手段364として機能する。
<Functional Configuration of Control Unit 36 in First Game Device 3>
The control unit 36 functions as communication means 361, game progression means 362, character action information processing means 363, and voice conversion means 364 by executing various programs.

通信手段361は、ネットワークインターフェース31を介してサーバ装置2および第2ゲーム装置5との通信を行う機能である。 The communication means 361 has a function of communicating with the server device 2 and the second game device 5 via the network interface 31 .

具体的には、通信手段361は、アカウント情報、ゲームデータのダウンロード要求を含むダウンロード要求情報などを、サーバ装置2に送信する。通信手段361は、シナリオ情報、マッチングされた第2ユーザU2に関する情報などを、サーバ装置2から受信する。 Specifically, the communication means 361 transmits account information, download request information including a download request for game data, and the like to the server device 2 . The communication means 361 receives scenario information, information about the matched second user U2, and the like from the server device 2 .

また、通信手段361は、動作トラッキング情報、音声トラッキング情報に基づいて生成される変換音声情報、ゲームのシナリオの開始を通知するシナリオ開始情報などを、第2ゲーム装置5に送信する。通信手段361は、第2ユーザU2の操作入力を示す入力情報などを、第2ゲーム装置5から受信する。 Further, the communication means 361 transmits to the second game device 5 action tracking information, converted voice information generated based on the voice tracking information, scenario start information for notifying the start of a game scenario, and the like. The communication means 361 receives from the second game device 5 input information indicating an operation input by the second user U2.

ゲーム進行手段362は、通信手段361がシナリオ情報を受信した場合、シナリオ情報に応じてゲームプログラムを実行する。具体的に、ゲーム進行手段362は、ゲームデータに含まれるゲーム空間オブジェクトおよびテクスチャなどのデータを記憶部35から読み出すか、または、サーバ装置2から受信したデータを用いて、三次元のゲーム画像情報を生成する。ゲーム画像情報がグラフィック処理部32によって処理されることにより、HMD41の表示部には処理後のゲーム画像が逐次表示される。 When the communication means 361 receives the scenario information, the game progress means 362 executes the game program according to the scenario information. Specifically, the game progress means 362 reads out data such as game space objects and textures included in the game data from the storage unit 35, or uses data received from the server device 2 to generate three-dimensional game image information. to generate As the game image information is processed by the graphics processing unit 32 , the processed game images are sequentially displayed on the display unit of the HMD 41 .

そして、ゲーム進行手段362は、ゲーム画像上に、キャラクタC1,C2を配置する。ゲーム進行手段362は、トラッキング処理部34から出力される動作トラッキング情報に従ってキャラクタC1を動作させ、第2ゲーム装置5から受信した入力情報に従ってキャラクタC2を動作させる。 Then, the game advancing means 362 arranges the characters C1 and C2 on the game image. The game progression means 362 causes the character C1 to act according to the action tracking information output from the tracking processing section 34 and causes the character C2 to act according to the input information received from the second game device 5 .

キャラクタ動作情報処理手段363は、ゲームのシナリオに応じて、記憶部35に記憶されたキャラクタ動作情報をHMD41の表示部に表示させる。例えば、キャラクタ動作情報処理手段363は、第2ゲーム装置5から受信した入力情報に応じて、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2を、ゲーム画像とともに、HMD41の表示部に表示させる。 The character action information processing means 363 displays the character action information stored in the storage section 35 on the display section of the HMD 41 according to the game scenario. For example, the character action information processing means 363 causes the display section of the HMD 41 to display the character action instruction information cm1 and the character voice instruction information cm2 along with the game image in accordance with the input information received from the second game device 5 .

具体的に、キャラクタ動作指示情報cm1は、第1ユーザU1に対して、キャラクタC1の動作を指示する情報である。キャラクタ音声指示情報cm2は、第1ユーザU1に対して、キャラクタC1の発する音声を指示する情報である。キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2は、コントローラ63に対して所定の操作入力が行われたときに、HMD41の表示部に表示される。 Specifically, the character action instruction information cm1 is information that instructs the first user U1 to perform the action of the character C1. The character voice instruction information cm2 is information for instructing the first user U1 to make a voice uttered by the character C1. Character action instruction information cm1 and character voice instruction information cm2 are displayed on the display section of HMD 41 when a predetermined operation input is performed on controller 63 .

音声変換手段364は、音声トラッキング情報に示される音声を他の音声に変換する。例えば、音声変換手段364は、音声トラッキング情報に含まれる音声の周波数を補正した変換音声を生成する。オーディオ処理部33は、音声変換手段364が生成した変換音声をスピーカ42に出力する。また、通信手段361は、音声変換手段364によって生成された変換音声を示す変換音声情報を第2ゲーム装置5に送信する。 The voice converter 364 converts the voice indicated in the voice tracking information into another voice. For example, the audio converter 364 generates converted audio by correcting the frequency of the audio included in the audio tracking information. The audio processor 33 outputs the converted voice generated by the voice converter 364 to the speaker 42 . Also, the communication means 361 transmits converted voice information indicating the converted voice generated by the voice conversion means 364 to the second game device 5 .

<第2ゲーム装置5の構成>
第2ゲーム装置5には、HMD61、スピーカ62およびコントローラ63が外部接続または内蔵される。また、第2ゲーム装置5は、ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54、記憶部55および制御部56を有する。ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54および記憶部55は、バス59を介して制御部56と電気的に接続されている。
<Configuration of Second Game Device 5>
The second game device 5 has an HMD 61 , a speaker 62 and a controller 63 externally connected or built therein. The second game device 5 also has a network interface 51 , a graphics processing section 52 , an audio processing section 53 , an operation section 54 , a storage section 55 and a control section 56 . Network interface 51 , graphics processing unit 52 , audio processing unit 53 , operation unit 54 and storage unit 55 are electrically connected to control unit 56 via bus 59 .

ネットワークインターフェース51は、サーバ装置2および各第1ゲーム装置3との間で各種データを送受信するために、通信ネットワーク6に通信可能に接続される。 The network interface 51 is communicably connected to the communication network 6 in order to transmit and receive various data between the server device 2 and each first game device 3 .

グラフィック処理部52は、ゲームプレイ中に、制御部56から出力されるゲーム画像のデータに従って、ゲーム空間に関する各種オブジェクトを含むゲーム画像を、動画形式で描画する。グラフィック処理部52は、例えば、第2ユーザU2に装着されたHMD61と通信可能に接続されており、動画形式に描画されたゲーム画像がゲーム画面としてHMD61の表示部に表示される。 The graphics processing unit 52 draws game images including various objects related to the game space in a moving image format according to game image data output from the control unit 56 during game play. The graphics processing unit 52 is communicably connected to, for example, the HMD 61 worn by the second user U2, and a game image rendered in a moving image format is displayed on the display unit of the HMD 61 as a game screen.

オーディオ処理部53は、スピーカ62と通信可能に接続されており、ゲームプレイ中、制御部56の指示に従ってゲーム音声を再生および合成すると、これをスピーカ62から出力させる。また、オーディオ処理部53は、第1ゲーム装置3から受信した変換音声情報に示される変換音声をスピーカ62から出力させる。 The audio processing unit 53 is communicably connected to the speaker 62 , reproduces and synthesizes game sounds according to instructions from the control unit 56 during game play, and outputs the sound from the speaker 62 . Also, the audio processing unit 53 causes the speaker 62 to output the converted sound indicated in the converted sound information received from the first game device 3 .

操作部54は、コントローラ63と通信可能に接続され、第2ユーザU2からの操作入力を示す入力情報をコントローラ63との間で送受信する。例えば、第2ユーザU2は、コントローラ63の各種ボタンを押下することで、第2ゲーム装置5に入力情報を入力する。 The operation unit 54 is communicably connected to the controller 63 and transmits/receives input information indicating an operation input from the second user U2 to/from the controller 63 . For example, the second user U2 inputs input information to the second game device 5 by pressing various buttons of the controller 63 .

記憶部55は、HDD、SSD、RAMおよびROMなどで構成される。記憶部55には、サーバ装置2からダウンロードしたゲームデータおよびゲームプログラムを含む各種プログラムなどが格納されている。また、記憶部55には、第2ゲーム装置5を使用している第2ユーザU2のアカウント情報が格納されている。 The storage unit 55 is configured with an HDD, SSD, RAM, ROM, and the like. The storage unit 55 stores various programs including game data and game programs downloaded from the server device 2 . The storage unit 55 also stores account information of the second user U2 who uses the second game device 5 .

制御部56は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置5の動作を制御する。 The control unit 56 is composed of a microcomputer including a CPU and a semiconductor memory, and controls the operation of the device 5 itself.

<第2ゲーム装置5における制御部56の機能的構成>
制御部56は、各種プログラムを実行することにより、通信手段561、シナリオ決定手段562、マッチング要求手段563およびゲーム進行手段564として機能する。
<Functional Configuration of Control Unit 56 in Second Game Device 5>
The control unit 56 functions as communication means 561, scenario determination means 562, matching request means 563, and game progression means 564 by executing various programs.

通信手段561は、ネットワークインターフェース31を介してサーバ装置2および第1ゲーム装置3との通信を行う機能である。 The communication means 561 has a function of communicating with the server device 2 and the first game device 3 via the network interface 31 .

具体的には、通信手段561は、アカウント情報、ダウンロード要求情報、マッチング要求情報などを、サーバ装置2に送信する。通信手段561は、マッチングされた第1ユーザU1が操作する第1ゲーム装置3に関する情報などを、サーバ装置2から受信する。 Specifically, the communication means 561 transmits account information, download request information, matching request information, and the like to the server device 2 . The communication unit 561 receives information about the first game device 3 operated by the matched first user U1 from the server device 2 .

また、通信手段561は、コントローラ63に対して行われた操作入力を示す入力情報などを、第1ゲーム装置3に送信する。通信手段561は、動作トラッキング情報、変換音声情報およびゲームのシナリオを通知するシナリオ開始情報などを、第1ゲーム装置3から受信する。 In addition, the communication means 561 transmits input information indicating an operation input performed on the controller 63 to the first game device 3 . The communication means 561 receives, from the first game device 3, action tracking information, converted voice information, scenario start information for notifying a game scenario, and the like.

シナリオ決定手段562は、第2ユーザU2の操作入力に応じて、第2ゲーム装置5において実行されるゲームのシナリオを決定する。例えば、シナリオ決定手段562は、第2ユーザU2がシナリオを決定する操作入力を行った場合、シナリオの抽選処理を実行し、複数のシナリオの中からプレイする1つのシナリオを決定する。シナリオ決定手段562は、例えば、乱数を用いて、複数のシナリオの中から1つのシナリオを選択する。 The scenario determining means 562 determines the scenario of the game to be executed on the second game device 5 according to the operation input of the second user U2. For example, when the second user U2 performs an operation input for determining a scenario, the scenario determining means 562 executes scenario lottery processing and determines one scenario to be played from among a plurality of scenarios. Scenario determination means 562 selects one scenario from a plurality of scenarios using, for example, random numbers.

マッチング要求手段563は、シナリオ決定手段562によりシナリオが決定された場合、決定されたシナリオをシナリオ情報として含むマッチング要求情報を生成する。通信手段561は、生成されたマッチング要求情報をサーバ装置2に送信する。 When the scenario determination means 562 determines the scenario, the matching request means 563 generates matching request information including the determined scenario as scenario information. Communication means 561 transmits the generated matching request information to server device 2 .

ゲーム進行手段564は、シナリオ決定手段562によりシナリオが決定された場合、決定されたシナリオに応じてゲームプログラムを実行する。具体的に、ゲーム進行手段564は、ゲームデータに含まれるゲーム空間オブジェクトおよびテクスチャなどのデータを記憶部65から読み出すか、または、サーバ装置2から受信したデータを用いて、決定されたシナリオに応じて、三次元のゲーム画像情報を生成する。ゲーム画像情報がグラフィック処理部52によって処理されることにより、HMD61の表示部には処理後のゲーム画像が逐次表示される。 When the scenario determination means 562 determines the scenario, the game progress means 564 executes the game program according to the determined scenario. Specifically, the game progress means 564 reads out data such as game space objects and textures included in the game data from the storage unit 65, or uses data received from the server device 2 to read out data according to the determined scenario. to generate three-dimensional game image information. As the game image information is processed by the graphics processing unit 52 , the processed game images are sequentially displayed on the display unit of the HMD 61 .

そして、ゲーム進行手段564は、ゲーム画像上に、キャラクタC1,C2を配置する。ゲーム進行手段564は、第1ゲーム装置3から受信した動作トラッキング情報に従ってキャラクタC1を動作させ、コントローラ63に対する入力情報に従ってキャラクタC2を動作させる。 Then, the game advancing means 564 arranges the characters C1 and C2 on the game image. The game progression means 564 moves the character C1 according to the motion tracking information received from the first game device 3 and moves the character C2 according to the input information to the controller 63 .

<マッチング処理手段232において実行されるマッチング処理について>
マッチング処理手段232は、情報処理手段231が第2ゲーム装置5からマッチング要求情報を受信したとき、記憶部22に格納されたマッチングリストを参照して、マッチング処理を実行する。具体的に、マッチングリストには、第1ユーザU1のアカウント情報とシナリオ情報とが対応付けられている。
<Regarding Matching Processing Executed in Matching Processing Means 232>
When the information processing means 231 receives the matching request information from the second game device 5, the matching processing means 232 refers to the matching list stored in the storage section 22 and executes matching processing. Specifically, the matching list associates the account information of the first user U1 with the scenario information.

マッチング処理手段232は、第2ゲーム装置5からマッチング要求情報を受信した場合、マッチング要求情報に含まれるシナリオ情報に対応する第1ユーザU1をマッチングリストから検索する。マッチング処理手段232は、シナリオ情報に対応する第1ユーザU1のうちログイン状態の第1ユーザU1を、第2ユーザU2とマッチングさせる。 When the matching request information is received from the second game device 5, the matching processing means 232 searches the matching list for the first user U1 corresponding to the scenario information included in the matching request information. The matching processing means 232 matches the logged-in first user U1 among the first users U1 corresponding to the scenario information with the second user U2.

ここで、マッチング処理手段232は、第2ユーザU2とマッチング可能な第1ユーザU1が複数存在する場合、複数の第1ユーザU1の中から一の第1ユーザU1を選択する。マッチングする第1ユーザU1の選択は、ランダムで行われてもよいし、第2ユーザU2による選択(例えば、コントローラ63に対する操作入力によって選択されるもの)でもよい。 Here, the matching processing unit 232 selects one first user U1 from among the plurality of first users U1 when there are a plurality of first users U1 that can be matched with the second user U2. The matching first user U1 may be selected randomly, or may be selected by the second user U2 (for example, selected by operating the controller 63).

そして、情報処理手段231は、第1ユーザU1が操作する第1ゲーム装置3と、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5とを相互に通信可能に接続する。 Then, the information processing means 231 connects the first game device 3 operated by the first user U1 and the second game device 5 operated by the second user U2 who is matched with the first user U1 so as to be able to communicate with each other. do.

<キャラクタ動作情報について>
マッチング処理手段232によりマッチング処理が実行された場合、情報処理手段231は、第2ゲーム装置5から受信したマッチング要求情報に含まれるシナリオ情報を第1ゲーム装置3に送信する。すなわち、サーバ装置2は、マッチング処理を実行した場合、第2ゲーム装置5のシナリオ決定手段562により決定されたシナリオを示すシナリオ情報を、第2ユーザU2とマッチングされた第1ユーザU1が操作する第1ゲーム装置3に送信する。
<About character movement information>
When matching processing is executed by the matching processing means 232 , the information processing means 231 transmits scenario information included in the matching request information received from the second game device 5 to the first game device 3 . That is, when the server device 2 executes the matching process, the scenario information indicating the scenario determined by the scenario determining means 562 of the second game device 5 is operated by the first user U1 matched with the second user U2. It is transmitted to the first game device 3 .

そして、第1ゲーム装置3のゲーム進行手段362、および、第2ゲーム装置5のゲーム進行手段564は、シナリオ決定手段562により決定されたシナリオに従って、ゲームを進行する。 The game progress means 362 of the first game device 3 and the game progress means 564 of the second game device 5 progress the game according to the scenario determined by the scenario determination means 562 .

ゲームのシナリオが開始された後、第1ゲーム装置3は、モーションセンサ43により第1ユーザU1の動作を検出する。第1ゲーム装置3は、検出した第1ユーザU1の動作を示す動作トラッキング動作情報を、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5に送信する。 After the game scenario is started, the motion sensor 43 of the first game device 3 detects the motion of the first user U1. The first game device 3 transmits motion tracking motion information indicating the detected motion of the first user U1 to the second game device 5 operated by the second user U2 matched with the first user U1.

また、第1ゲーム装置3は、マイク44によりユーザU1の音声を検出する。第1ゲーム装置3は、検出したユーザU1の音声を示す音声トラッキング情報を生成する。さらに、第1ゲーム装置3は、音声トラッキング情報の第1ユーザU1の音声の周波数を補正した変換音声を生成する。第1ゲーム装置3は、変換音声を示す変換音声情報を、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5に送信する。 Also, the first game device 3 detects the voice of the user U1 with the microphone 44 . The first game device 3 generates voice tracking information indicating the detected voice of the user U1. Furthermore, the first game device 3 generates a converted voice in which the frequency of the voice of the first user U1 in the voice tracking information is corrected. The first game device 3 transmits converted voice information indicating the converted voice to the second game device 5 operated by the second user U2 who is matched with the first user U1.

一方、第2ゲーム装置5は、コントローラ63に対する操作入力を検出する。第2ゲーム装置5は、コントローラ63に対する操作入力を示す入力情報を、第2ユーザU2とマッチングされた第1ユーザU1が操作する第1ゲーム装置3に送信する。 On the other hand, the second game device 5 detects an operational input to the controller 63 . The second game device 5 transmits input information indicating an operation input to the controller 63 to the first game device 3 operated by the first user U1 matched with the second user U2.

そして、ゲーム進行手段362,564は、それぞれ、動作トラッキング情報および変換音声情報に応じて第1ユーザU1のキャラクタC1を動作させる。また、ゲーム進行手段362,564は、それぞれ、入力情報に応じて第2ユーザU2のキャラクタC2を動作させる。 Then, the game progression means 362 and 564 move the character C1 of the first user U1 according to the motion tracking information and the converted voice information, respectively. In addition, the game progression means 362 and 564 respectively move the character C2 of the second user U2 according to the input information.

すなわち、マッチング処理により相互に通信可能となった第1ゲーム装置3および第2ゲーム装置5では、同一のシナリオが実行され、キャラクタC1,C2がそれぞれ同じ動作を行う。 That is, the first game device 3 and the second game device 5, which have become communicable with each other through the matching process, execute the same scenario, and the characters C1 and C2 perform the same actions.

ここで、第1ゲーム装置3では、第1ユーザU1に対して、キャラクタC1の動作を導き出すキャラクタ動作情報が、HMD41の表示部に表示される。キャラクタ動作情報は、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2を含む。 Here, in the first game device 3, the display unit of the HMD 41 displays character action information for deriving the action of the character C1 for the first user U1. The character action information includes character action instruction information cm1 and character voice instruction information cm2.

具体的に、図2の表示画面SC1は第1ゲーム装置3におけるHMD41の表示部に表示される表示画面の例であり、表示画面SC2は第2ゲーム装置5におけるHMD61の表示部に表示される表示画面の例である。 Specifically, the display screen SC1 in FIG. 2 is an example of a display screen displayed on the display unit of the HMD 41 in the first game device 3, and the display screen SC2 is displayed on the display unit of the HMD 61 in the second game device 5. It is an example of a display screen.

表示画面SC1には、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2が表示される。キャラクタ動作指示情報cm1は、ユーザU1に対して、キャラクタC1の動作を指示する情報である。キャラクタ音声指示情報cm2は、ユーザU1に対して、キャラクタC1の音声を指示する情報である。 Character action instruction information cm1 and character voice instruction information cm2 are displayed on the display screen SC1. The character action instruction information cm1 is information for instructing the user U1 to perform the action of the character C1. The character voice command information cm2 is information for commanding the voice of the character C1 to the user U1.

図2では、第1ユーザU1は、ゲームのシナリオにおける敵キャラクタであるキャラクタC1を操作している。第2ユーザU2は、ゲームのシナリオにおけるプレイヤキャラクタであるキャラクタC2を操作している。例えば、第2ユーザU2がキャラクタC2を操作することによって、キャラクタC1がキャラクタC2と遭遇した場合、キャラクタ動作指示情報cm1に“動作「両手を振り上げる」”と表示され、キャラクタ音声指示情報cm2に“セリフ「私を倒してみるがよい」”と表示される。 In FIG. 2, the first user U1 is operating a character C1, which is an enemy character in the game scenario. A second user U2 is operating a character C2, which is a player character in the game scenario. For example, when the second user U2 operates the character C2 and the character C1 encounters the character C2, the character action instruction information cm1 displays "Action 'Raise both hands up'", and the character voice instruction information cm2 displays “The line “Try to beat me”” is displayed.

すなわち、第2ユーザU2の操作入力によって、ゲームのシナリオにおいて所定条件を満たしたとき、HMD41の表示部に、キャラクタ動作情報が表示される。キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2には、ゲームのシナリオに沿った、キャラクタC1の動きを指示する情報、および、キャラクタC1の音声(キャラクターC1のセリフ)を指示する情報がそれぞれ表示される。 That is, when a predetermined condition is satisfied in the game scenario by the operation input of the second user U2, the character action information is displayed on the display section of the HMD 41 . In the character action instruction information cm1 and the character voice instruction information cm2, information for instructing the movement of the character C1 and information for instructing the voice of the character C1 (dialogue of the character C1) according to the game scenario are respectively displayed. be.

キャラクタ動作情報が表示されると、第1ユーザU1は、キャラクタ動作指示情報cm1に従って、身体を動作させる。また、第1ユーザU1は、キャラクタ音声指示情報cm2に従って、発話する。例えば、図2では、第1ユーザU1は、キャラクタ動作指示情報cm1に従って、両腕を挙げる。第1ユーザU2は、キャラクタ音声指示情報cm2に従って、セリフを読み上げる。このため、第1ユーザU1によって行われた身体の動作と発話とが、キャラクタC1によって行われているかのように、キャラクタC1の動作に反映される。 When the character action information is displayed, the first user U1 moves his/her body according to the character action instruction information cm1. Also, the first user U1 speaks according to the character voice instruction information cm2. For example, in FIG. 2, the first user U1 raises both arms according to the character action instruction information cm1. The first user U2 reads out the lines according to the character voice instruction information cm2. Therefore, the body motion and speech performed by the first user U1 are reflected in the motion of the character C1 as if they were performed by the character C1.

キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2に従って、第1ユーザU1が動作を行うことにより、ゲームのシナリオを盛り上げることができるため、ユーザの仮想体験の興趣性を高めることができる。 Since the first user U1 performs actions according to the character action instruction information cm1 and the character voice instruction information cm2, the scenario of the game can be livened up, and the interest of the user's virtual experience can be enhanced.

<ゲームシステムの動作の流れ>
図1~図3を用いて、ゲームシステムの動作の流れを説明する。
<Operation flow of the game system>
The operation flow of the game system will be described with reference to FIGS. 1 to 3. FIG.

第2ゲーム装置5では、コントローラ63が第2ユーザU2からの操作入力を検出する。操作部54は、コントローラ63によって検出された、第2ユーザU2からの操作入力を示す入力情報を制御部56に出力する(ステップS101)。入力情報がシナリオの抽選処理を実行するものであった場合、制御部56では、シナリオ決定手段562が、シナリオの抽選処理を実行し、ゲームプレイするゲームのシナリオを決定する(ステップS102)。マッチング要求手段563は、決定されたシナリオをシナリオ情報として含むマッチング要求情報を生成し、サーバ装置2に送信する(ステップS103)。 In the second game device 5, the controller 63 detects an operation input from the second user U2. The operation unit 54 outputs input information indicating an operation input from the second user U2, which is detected by the controller 63, to the control unit 56 (step S101). When the input information is to execute a scenario lottery process, the scenario determining means 562 in the control unit 56 executes a scenario lottery process to determine the scenario of the game to be played (step S102). The matching request means 563 generates matching request information including the determined scenario as scenario information, and transmits it to the server device 2 (step S103).

サーバ装置2では、情報処理手段231がマッチング要求情報を受信する(ステップS201)。マッチング処理手段232は、マッチング要求情報に含まれるシナリオ情報と、記憶部22に記憶されたマッチングリストとに基づいてマッチング処理を実行する(ステップS202)。具体的に、マッチング処理手段232は、マッチングリストから、受信したシナリオ情報に対応する第1ユーザU1を検索し、第2ユーザU2と同一のシナリオをプレイする第1ユーザU1を決定する。そして、マッチング処理手段232は、第1ユーザU1が操作する第1ゲーム装置3と、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5とを相互に通信可能に接続する。 In the server device 2, the information processing means 231 receives the matching request information (step S201). The matching processing means 232 executes matching processing based on the scenario information included in the matching request information and the matching list stored in the storage unit 22 (step S202). Specifically, the matching processing means 232 searches the matching list for the first user U1 corresponding to the received scenario information, and determines the first user U1 who plays the same scenario as the second user U2. Then, the matching processing means 232 connects the first game device 3 operated by the first user U1 and the second game device 5 operated by the second user U2 who is matched with the first user U1 so as to be able to communicate with each other. do.

そして、情報処理手段231は、第2ゲーム装置5から受信したシナリオ情報を、通信可能となった第1ゲーム装置3に送信する(ステップS203)。 Then, the information processing means 231 transmits the scenario information received from the second game device 5 to the first game device 3 that has become communicable (step S203).

第1ゲーム装置3では、通信手段361が、シナリオ情報を受信する(ステップS301)。例えば、モーションセンサ43により第1ユーザU1の所定動作を検出された場合、通信手段361は、シナリオの開始を通知するシナリオ開始情報を第2ゲーム装置5に送信する(ステップS302)。 In the first game device 3, the communication means 361 receives the scenario information (step S301). For example, when the motion sensor 43 detects a predetermined action of the first user U1, the communication means 361 transmits scenario start information for notifying the start of the scenario to the second game device 5 (step S302).

ゲーム進行手段362は、通信手段361が受信したシナリオ情報に従って、ゲームを進行する(ステップS303)。例えば、ゲーム進行手段362は、ゲームのシナリオに設定された第1ユーザU1の動作(身体の動き)とセリフ(発する音声)とを示す情報を、HMD41の表示部に表示させる。第1ユーザU1は、HMD41の表示部に表示された情報に従って、身体を動作させたり、セリフを発したりする。 The game progression means 362 progresses the game according to the scenario information received by the communication means 361 (step S303). For example, the game progress means 362 causes the display section of the HMD 41 to display information indicating the actions (body movements) and lines (spoken voice) of the first user U1 set in the game scenario. The first user U1 moves his or her body or utters a line according to the information displayed on the display section of the HMD 41 .

一方、第2ゲーム装置5は、通信手段561がシナリオ開始情報を受信するまで待ち受ける。そして、通信手段561がシナリオ開始情報を受信した場合(ステップS104)、ゲーム進行手段564は、シナリオ決定手段562により決定されたシナリオに従って、ゲームを進行する(ステップS105)。 On the other hand, the second game device 5 waits until the communication means 561 receives the scenario start information. Then, when the communication means 561 receives the scenario start information (step S104), the game progress means 564 progresses the game according to the scenario determined by the scenario determination means 562 (step S105).

ステップS303の後、第1ゲーム装置3では、モーションセンサ43およびマイク44が、第1ユーザU1の動作および第1ユーザU1の音声をそれぞれ検出する。そして、トラッキング処理部34は、動作トラッキング情報および音声トラッキング情報を生成する(ステップS304)。具体的に、トラッキング処理部34は、モーションセンサ43の出力に応じて、第1ユーザU1の動作を示す動作トラッキング情報を生成する。また、トラッキング処理部34は、マイク44の出力に応じて、第1ユーザU1の音声を示す音声トラッキング情報を生成する。 After step S303, in the first game device 3, the motion sensor 43 and the microphone 44 respectively detect the motion of the first user U1 and the voice of the first user U1. The tracking processing unit 34 then generates motion tracking information and voice tracking information (step S304). Specifically, the tracking processing unit 34 generates motion tracking information indicating the motion of the first user U1 according to the output of the motion sensor 43 . Also, the tracking processing unit 34 generates voice tracking information indicating the voice of the first user U1 in accordance with the output of the microphone 44 .

また、音声変換手段364は、変換音声情報を生成する(ステップS305)。具体的に、音声変換手段364は、音声トラッキング情報に含まれる第1ユーザU1の音声の周波数を補正した変換音声情報を生成する。そして、通信手段361は、生成された動作トラッキング情報および変換音声情報を第2ゲーム装置5に送信する(ステップS306)。 Also, the voice converting means 364 generates converted voice information (step S305). Specifically, the voice converter 364 generates converted voice information by correcting the frequency of the voice of the first user U1 included in the voice tracking information. Then, the communication means 361 transmits the generated action tracking information and converted voice information to the second game device 5 (step S306).

ステップS105の後、第2ゲーム装置5は、通信手段561が動作トラッキング情報および変換音声情報を受信するまで、ゲームのシナリオの進行を停止させる(例えば、ゲームのストーリーなどを展開させない)。そして、通信手段561が動作トラッキング情報および変換音声情報を受信した場合(ステップS106)、通信手段561は、入力情報(コントローラ63によって検出された、第2ユーザU2からの操作入力を示す情報)を第1ゲーム装置3に送信する(ステップS107)。 After step S105, the second game device 5 stops the progress of the game scenario (for example, does not develop the story of the game) until the communication means 561 receives the action tracking information and the converted voice information. Then, when the communication means 561 receives the action tracking information and the converted voice information (step S106), the communication means 561 receives the input information (information indicating the operation input from the second user U2 detected by the controller 63). It is transmitted to the first game device 3 (step S107).

ステップS306の後、第1ゲーム装置3では、通信手段361が、入力情報を受信する(ステップS307)。ゲーム進行手段362は、生成した動作トラッキング情報に応じてキャラクタC1を動作させ、受信した入力情報に応じてキャラクタC2を動作させる(ステップS308)。 After step S306, in the first game device 3, the communication means 361 receives the input information (step S307). The game progress means 362 moves the character C1 according to the generated motion tracking information, and moves the character C2 according to the received input information (step S308).

一方、ステップS107の後、第2ゲーム装置5では、ゲーム進行手段564が、受信した動作トラッキング情報に応じてキャラクタC1を動作させ、生成した入力情報に応じてキャラクタC2を動作させる(ステップS108)。 On the other hand, after step S107, in the second game device 5, the game progression means 564 causes the character C1 to act according to the received action tracking information, and causes the character C2 to act according to the generated input information (step S108). .

ステップS308の後、第1ゲーム装置3では、キャラクタ動作情報処理手段363が、HMD41の表示部にキャラクタ動作情報が表示されるように、キャラクタ動作情報処理を実行する(ステップS309)。具体的に、キャラクタ動作情報処理手段363は、第2ゲーム装置5から受信した入力情報に応じて、HMD41の表示部に、ゲームのシナリオに沿ったキャラクタ動作情報が表示されるように制御する(ステップS309)。 After step S308, in the first game device 3, the character action information processing means 363 executes character action information processing so that the character action information is displayed on the display section of the HMD 41 (step S309). Specifically, the character action information processing means 363 controls the display section of the HMD 41 to display character action information according to the game scenario in accordance with the input information received from the second game device 5 ( step S309).

例えば、図2に示すように、キャラクタ動作情報処理手段363は、HMD41の表示部に、キャラクタ動作情報がゲーム画面に重ね合わせられた表示画面SC1を表示させる(ステップS310)。キャラクタ動作情報は、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2を含む。キャラクタ動作指示情報cm1は、キャラクタC1の動作を指示する情報であり、キャラクタ音声指示情報cm2は、キャラクタC1の発する音声を指示する情報である。そして、オーディオ処理部33は、生成した変換音声情報に従って、スピーカ42から変換音声を再生させる(ステップS311)。 For example, as shown in FIG. 2, the character action information processing means 363 causes the display section of the HMD 41 to display a display screen SC1 in which the character action information is superimposed on the game screen (step S310). The character action information includes character action instruction information cm1 and character voice instruction information cm2. The character action instruction information cm1 is information for instructing the action of the character C1, and the character voice instruction information cm2 is information for instructing the sound produced by the character C1. Then, the audio processing unit 33 reproduces the converted voice from the speaker 42 according to the generated converted voice information (step S311).

一方、ステップS108の後、第2ゲーム装置5では、グラフィック処理部52が、制御部56からの出力に応じて、HMD61の表示部に表示画面SC2を表示させる(ステップS109)。また、オーディオ処理部53は、スピーカ62に変換音声を再生させる(ステップS110)。 On the other hand, after step S108, in the second game device 5, the graphics processing unit 52 causes the display unit of the HMD 61 to display the display screen SC2 according to the output from the control unit 56 (step S109). Also, the audio processing unit 53 causes the speaker 62 to reproduce the converted sound (step S110).

第1ゲーム装置3は、ステップS311の後、ステップS303に戻って、ステップS303~S311を繰り返し実行する。一方、第2ゲーム装置5は、ステップS110の後、ステップS105に戻って、ステップS105~S110を繰り返し実行する。 After step S311, the first game device 3 returns to step S303 and repeats steps S303 to S311. On the other hand, after step S110, the second game device 5 returns to step S105 and repeats steps S105 to S110.

以上をまとめると、本実施形態のゲームシステムは、第1ゲーム装置3の制御部36(コンピュータ)および第2ゲーム装置5の制御部56(コンピュータ)を、ゲームに登場するキャラクタC1(代理のオブジェクト)の動作を行う第1ユーザU1に対して、キャラクタC1の動作を導き出すキャラクタ動作情報(オブジェクト動作情報)を表示するHMD41の表示部(第1出力部)と、キャラクタ動作情報に対応した第1ユーザU1の動作を示す動作トラッキング情報(第1ユーザ動作情報)を検出(取得)するモーションセンサ43(第1取得部)と、第1ユーザU1の音声を示す音声トラッキング情報(第1ユーザ動作情報)を検出(取得)するマイク44(第1取得部)と、第2ユーザU2に対して、動作トラッキング情報に基づいてキャラクタC1を動作させた表示画面SC2を表示するHMD61の表示部(第2出力部)と、音声トラッキング情報に基づいて生成された変換音声を再生するスピーカ62(第2出力部)と、第2ユーザU2によって行われた操作入力を示す入力情報(第2ユーザ動作情報)を検出(取得)するコントローラ63(第2取得部)と、として機能させ、HMD41の表示部は、第1ユーザU1に対して、入力情報に応じたキャラクタ動作情報を表示(出力)する。 To summarize the above, the game system of the present embodiment allows the controller 36 (computer) of the first game device 3 and the controller 56 (computer) of the second game device 5 to be the character C1 (proxy object) appearing in the game. ), a display unit (first output unit) of the HMD 41 that displays character action information (object action information) for deriving the action of the character C1, and a first output unit corresponding to the character action information. Motion sensor 43 (first acquisition unit) for detecting (obtaining) motion tracking information (first user motion information) indicating motion of user U1, and voice tracking information (first user motion information) indicating voice of first user U1 ), and the display unit of the HMD 61 (second output unit), a speaker 62 (second output unit) that reproduces the converted voice generated based on the voice tracking information, and input information (second user action information) indicating the operation input performed by the second user U2. , and the display unit of the HMD 41 displays (outputs) character action information corresponding to the input information to the first user U1.

<発明の効果>
以上のように、本実施形態では、モーションセンサ43およびマイク44は、キャラクタC1に動作を行わせる第1ユーザU1の動作を示す動作トラッキング情報および音声トラッキング情報をそれぞれ検出(取得)する。また、HMD61の表示部およびスピーカ62は、第2ユーザU2に対して、動作トラッキング情報および音声トラッキング情報(変換音声情報)をそれぞれ表示および再生(出力)する。コントローラ63は、第2ユーザU2の操作入力を示す入力情報を検出(取得)する。HMD41の表示部は、第1ユーザU1に対して、入力情報に応じて、第1ユーザU1の動作を導き出すキャラクタ動作情報を表示する。
<Effect of invention>
As described above, in the present embodiment, the motion sensor 43 and the microphone 44 respectively detect (acquire) motion tracking information and voice tracking information indicating motions of the first user U1 who cause the character C1 to perform motions. Also, the display unit of the HMD 61 and the speaker 62 respectively display and reproduce (output) the motion tracking information and the voice tracking information (converted voice information) for the second user U2. The controller 63 detects (acquires) input information indicating an operation input by the second user U2. The display unit of the HMD 41 displays character motion information that guides the motion of the first user U1 according to the input information to the first user U1.

すなわち、第2ユーザU2に対して、第1ユーザU1の動作を示す動作トラッキング情報および音声トラッキング情報が出力される。また、キャラクタC1に動作を行わせる第1ユーザU1に対して、第2ユーザU2の操作入力に応じて、キャラクタC1の動作を導き出すキャラクタ動作情報が出力される。キャラクタ動作情報には、ユーザが興味を持ちそうな動作を設定できる。そうすると、第1ユーザU1は、ゲームプレイを盛り上げるようにキャラクタC1を動作させることができる。したがって、ユーザが仮想体験の興趣性を得ることが可能となる。 That is, motion tracking information and voice tracking information indicating the motion of the first user U1 are output to the second user U2. In addition, character action information for deriving the action of the character C1 is output to the first user U1 who causes the character C1 to perform the action in accordance with the operation input of the second user U2. In the character motion information, motions that are likely to interest the user can be set. Then, the first user U1 can move the character C1 so as to liven up the game play. Therefore, it is possible for the user to obtain interest in the virtual experience.

また、シナリオ決定手段562(シナリオ決定部)は、第2ユーザU2の操作入力に応じて、第2ユーザU2がプレイするシナリオを決定する。第1ゲーム装置3のゲーム進行手段362は、シナリオ決定手段562により決定されたシナリオに従って、ゲームを進行する。キャラクタ動作情報処理手段363は、決定されたシナリオに応じたキャラクタ動作情報をHMD41の表示部に表示(出力)させる。キャラクタ動作情報には、シナリオに応じて、第1ユーザU1および第2ユーザU2が興味を持ちそうな動作を設定できる。そうすると、第1ユーザU1は、ゲームプレイを盛り上げるようにキャラクタC1を、シナリオに応じて、動作させることができる。したがって、ユーザが仮想体験の興趣性を得ることが可能となる。 Further, the scenario determination means 562 (scenario determination unit) determines the scenario played by the second user U2 according to the operation input of the second user U2. The game progression means 362 of the first game device 3 progresses the game according to the scenario determined by the scenario determination means 562 . The character action information processing means 363 causes the display section of the HMD 41 to display (output) character action information corresponding to the determined scenario. In the character motion information, motions that the first user U1 and the second user U2 are likely to be interested in can be set according to the scenario. Then, the first user U1 can make the character C1 act in accordance with the scenario so as to liven up the game play. Therefore, it is possible for the user to obtain interest in the virtual experience.

また、第2ゲーム装置5のシナリオ決定手段562は、第2ユーザU2の操作入力に応じて、第2ユーザU2がプレイするシナリオを複数のシナリオのうちから1つのシナリオを抽選により決定する。これにより、ユーザの興趣性を高めることができる。 In addition, the scenario determining means 562 of the second game device 5 determines, by lottery, one scenario to be played by the second user U2 from a plurality of scenarios according to the operation input of the second user U2. Thereby, user's interest can be enhanced.

また、サーバ装置2のマッチング処理手段232(第1ユーザ選択部)は、第2ゲーム装置5からマッチングを要求されたとき(第2ゲーム装置5からマッチング要求情報を受信したとき)に、シナリオ決定手段562によって決定されたシナリオに基づいて、複数の第1ユーザU1の中から、マッチングを要求した第2ユーザU2と同一のシナリオをプレイする第1ユーザU1を選択する。これにより、ユーザの仮想体験の興趣性を高めることができる。 Further, the matching processing means 232 (first user selection unit) of the server device 2 determines a scenario when a request for matching is received from the second game device 5 (when matching request information is received from the second game device 5). Based on the scenario determined by means 562, the first user U1 who plays the same scenario as the second user U2 who requested matching is selected from among the plurality of first users U1. This makes it possible to enhance the interest of the user's virtual experience.

[その他の実施形態]
なお、第1ゲーム装置3および第2ゲーム装置5は、シナリオ決定手段562によりシナリオが決定された場合、HMD41,61の表示部に決定されたシナリオに関する情報を表示してもよい。例えば、アクションゲームである場合、討伐する敵キャラクタやプレイするステージの情報などをHMD41,61の表示部に表示してもよい。
[Other embodiments]
Note that, when the scenario determination means 562 determines the scenario, the first game device 3 and the second game device 5 may display information about the determined scenario on the display units of the HMDs 41 and 61 . For example, in the case of an action game, the display units of the HMDs 41 and 61 may display information such as enemy characters to be defeated and stages to be played.

第1ユーザU1が操作するキャラクタC1、および、第2ユーザU2が操作するキャラクタC2は、人間や動物、モンスターなど、キャラクタ以外の他の代理のオブジェクトでもよい。 The character C1 operated by the first user U1 and the character C2 operated by the second user U2 may be substitute objects other than characters, such as humans, animals, and monsters.

また、第1ユーザU1および第2ユーザU2が、同一のシナリオをプレイしているときに、その他のユーザが観戦できてもよい。 Also, other users may be able to watch while the first user U1 and the second user U2 are playing the same scenario.

また、マッチング処理手段232は、第2ゲーム装置5からマッチング要求があったとき、複数の第1ユーザU1と一の第2ユーザU2とをマッチングしてもよいし、一の第1ユーザU1と複数のユーザU2とをマッチングしてもよいし、複数の第1ユーザU1と複数の第2ユーザU2とをマッチングしてもよい。 Further, when receiving a matching request from the second game device 5, the matching processing means 232 may match a plurality of first users U1 with one second user U2, or may A plurality of users U2 may be matched, or a plurality of first users U1 and a plurality of second users U2 may be matched.

また、第1ゲーム装置3は、サーバ装置2に対して、マッチング要求情報を送信してもよい。この場合、マッチング処理手段232は、第1ゲーム装置3から受信したマッチング要求情報に応じてマッチング処理を実行してもよい。 Also, the first game device 3 may transmit matching request information to the server device 2 . In this case, the matching processing means 232 may execute matching processing according to matching request information received from the first game device 3 .

また、マッチング処理手段232がマッチングを行う際に用いるマッチングリストは、時間帯、曜日、第1ユーザU1の得意なシナリオ情報などに基づいて作成されていてもよい。 Also, the matching list used when the matching processing means 232 performs matching may be created based on the time zone, the day of the week, the first user U1's favorite scenario information, and the like.

また、第2ゲーム装置5(第2ユーザU2)は、特定の第1ユーザU1に対して同じシナリオをプレイするように、サーバ装置2に対してマッチング要求できてもよい。このとき、第1ゲーム装置3のHMD61の表示部にシナリオをプレイする要求があったことを表示してもよい。 Also, the second game device 5 (second user U2) may be able to make a matching request to the server device 2 so as to play the same scenario with a specific first user U1. At this time, the display section of the HMD 61 of the first game device 3 may display that there is a request to play the scenario.

また、第2ゲーム装置5(第2ユーザU2)が特定の第1ユーザU1に対して同じシナリオをプレイするように要求したときに、第1ユーザU1が他のユーザとゲームをプレイしている場合、第2ユーザU2は、ゲームプレイの順番待ちができるようにしてもよい。このとき、第2ユーザU2は、第1ユーザU1がプレイ中のゲームを観戦できるようにしてもよい。 Also, when the second game device 5 (second user U2) requests the specific first user U1 to play the same scenario, the first user U1 is playing the game with another user. In this case, the second user U2 may be allowed to wait in line to play the game. At this time, the second user U2 may be allowed to watch the game being played by the first user U1.

また、第1ユーザU1および第2ユーザU2が、ゲームのシナリオをクリアしたときに、報酬(例えば、ゲーム内通貨など)を入手できるようにしてもよい。また、第1ユーザU1および第2ユーザU2が、ゲームにおけるすべてのシナリオをクリアしたとき(シナリオをコンプリートしたとき)に、報酬(例えば、ゲーム内通貨など)を入手できるようにしてもよい。 Also, the first user U1 and the second user U2 may be allowed to obtain a reward (for example, in-game currency) when the game scenario is cleared. Also, the first user U1 and the second user U2 may be able to obtain a reward (for example, in-game currency) when all the scenarios in the game are cleared (when the scenarios are completed).

また、マッチング処理手段232がマッチング処理を実行した際に、第2ユーザU2とマッチング可能な第1ユーザU1が複数存在する場合、第2ユーザU2が複数の第1ユーザU1の中からマッチングする第1ユーザU1を選択できてもよい。 Further, when the matching processing means 232 executes the matching processing, if there are a plurality of first users U1 that can be matched with the second user U2, the second user U2 is matched from among the plurality of first users U1. One user U1 may be selected.

また、マッチング処理手段232がマッチング処理を実行した際に、第2ユーザU2とマッチング可能な第1ユーザU1が複数存在する場合、マッチング処理手段232は、複数の第1ユーザU1の中から第2ユーザU2とマッチングする第1ユーザU1をランダムで選択してもよい。この場合、第2ユーザU2は、マッチングリストに含まれるすべての第1ユーザU1とゲームプレイをしたい(第1ユーザU1をコンプリートしたい)と欲するため、何度も同じシナリオをプレイする。これにより、ユーザの興趣性を高めることができる。 Further, when the matching processing means 232 executes the matching process, if there are a plurality of first users U1 that can be matched with the second user U2, the matching processing means 232 selects the second user U1 from among the plurality of first users U1. A first user U1 that matches user U2 may be randomly selected. In this case, the second user U2 wants to play the game with all the first users U1 included in the matching list (want to complete the first user U1), so he plays the same scenario many times. Thereby, user's interest can be enhanced.

また、第2ユーザU2は、マッチングリストに含まれるすべての第1ユーザU1とゲームプレイ(第1ユーザU1をコンプリート)をした場合、報酬(例えば、ゲーム内通貨など)を入手できるようにしてもよい。 Also, if the second user U2 plays the game (completes the first user U1) with all the first users U1 included in the matching list, the second user U2 can obtain a reward (for example, in-game currency). good.

また、マッチング処理部232は、第2ゲーム装置5からマッチング要求があったとき、マッチングリストを参照せずにマッチング処理を行ってもよい。例えば、マッチング処理部232は、第2ゲーム装置5を操作する第2ユーザU2とマッチングする相手を、ログイン状態にある第1ユーザU1の中からランダムで選択してもよい。 Further, when receiving a matching request from the second game device 5, the matching processing section 232 may perform matching processing without referring to the matching list. For example, the matching processing unit 232 may randomly select a partner to be matched with the second user U2 who operates the second game device 5 from among the logged-in first users U1.

また、サーバ装置2およびネットワーク6に代えて、通信ケーブル等を介して有線によりまたは無線により、第1ゲーム装置3および第2ゲーム装置5が互いに直接通信可能に構成されていてもよい。この場合、第1ゲーム装置3および第2ゲーム装置5の少なくとも一方にマッチング処理部が備えられる。マッチング処理部は、通信ケーブル等を介して通信可能となっている第1ゲーム装置3および第2ゲーム装置5を操作している第1ユーザU1と第2ユーザU2をマッチングしてもよい。 Further, instead of using the server device 2 and the network 6, the first game device 3 and the second game device 5 may be configured so as to be able to directly communicate with each other by wire or wirelessly via a communication cable or the like. In this case, at least one of the first game device 3 and the second game device 5 is provided with a matching processing section. The matching processing unit may match the first user U1 and the second user U2 operating the first game device 3 and the second game device 5, which are communicable via a communication cable or the like.

また、第2ユーザU2が、ゲームプレイ中に不適切な行為(他のユーザに対する妨害行為やゲームデータの改ざん行為など)を行った場合、第1ユーザU1が不適切な行為を行った第2ユーザU2のゲームプレイを中断してもよい。この場合、第2ユーザU2が操作していたキャラクタC2を所定のプログラムに従って動作させるようにしてもよいし、別のオブジェクトに差し替えてもよい。 In addition, when the second user U2 performs an inappropriate act (interfering with other users, falsifying game data, etc.) during the game play, the second user U1 who has performed the inappropriate act User U2's game play may be interrupted. In this case, the character C2 operated by the second user U2 may be moved according to a predetermined program, or may be replaced with another object.

また、第2ユーザU2は、他の第2ユーザU2が抽選により決定されたシナリオをプレイできてもよい。例えば、サーバ装置2の記憶部22は、第2ゲーム装置5から受信したシナリオ情報と、シナリオ情報を送信した第2ゲーム装置5を操作する第2ユーザU2とを関連付けたシナリオ決定履歴を記憶しておく。そして、第2ゲーム装置5は、サーバ装置2に記憶されたシナリオ決定履歴を参照して、第2ユーザが、他の第2ユーザU2と関連付けられたシナリオ情報をプレイ可能としてもよい。 Also, the second user U2 may be able to play a scenario in which another second user U2 is determined by lottery. For example, the storage unit 22 of the server device 2 stores a scenario determination history that associates the scenario information received from the second game device 5 with the second user U2 operating the second game device 5 that transmitted the scenario information. Keep Then, the second game device 5 may refer to the scenario determination history stored in the server device 2 so that the second user can play the scenario information associated with the other second user U2.

また、シナリオ決定手段562は、ゲームプレイまでの待ち時間の長さに応じて、抽選するシナリオを変更してもよい。例えば、シナリオ決定手段562は、ゲームプレイまでの待ち時間が長いほど、レア度(「レアリティ」と呼ばれる希少度)の高いシナリオが当たるようにしてもよい。 In addition, the scenario determining means 562 may change the scenario to be drawn according to the length of waiting time until game play. For example, the scenario determining means 562 may win a scenario with a higher rarity (a rarity called "rarity") as the waiting time until game play is longer.

ゲームプレイまでの待ち時間の長さを計測するために、例えば、第2ユーザU2に対して、ゲーム参加券を配布してもよい。具体的に、第2ゲーム装置5は、ゲーム参加券を発行する発行装置、および、参加券に付与されたコードを読み取る読取装置を、外部または内部に備える。第2ユーザU2は、ゲームプレイを開始する前に発行装置にゲーム参加券を発行させる。このとき、発行装置は、発行した時刻を示すコードが付与されたゲーム参加券を発行する。そして、第2ユーザU2は、ゲームプレイの順番が来たときに、ゲーム参加券を読取装置に認識させる(例えば、読取装置にかざして読み取らせる)。第2ゲーム装置5は、ゲーム参加券に示される時刻と、ゲーム参加券が読み取られた時刻との差を、ゲームプレイまでの待ち時間と決定する。なお、参加券は、紙媒体でもよいし、電子データでもよい。 For example, a game participation ticket may be distributed to the second user U2 in order to measure the length of waiting time until game play. Specifically, the second game device 5 includes an issuing device that issues a game participation ticket and a reading device that reads a code given to the participation ticket, either externally or internally. The second user U2 causes the issuing device to issue a game participation ticket before starting the game play. At this time, the issuing device issues a game participation ticket with a code indicating the time of issue. Then, when it is the turn of the second user U2 to play the game, the second user U2 causes the reading device to recognize the game participation ticket (for example, holds it over the reading device to read it). The second game device 5 determines the difference between the time indicated on the game participation ticket and the time when the game participation ticket is read as the waiting time until game play. Note that the participation ticket may be a paper medium or may be electronic data.

また、シナリオ決定手段562は、シナリオの抽選方法として「ガチャ」と呼ばれる抽選方法によって、プレイするシナリオを決定してもよい。また、第2ユーザU2は、ガチャによって決定されたシナリオを他のユーザと交換できてもよい。 Further, the scenario determination means 562 may determine the scenario to be played by a lottery method called "gacha" as a scenario lottery method. Also, the second user U2 may be able to exchange scenarios determined by Gacha with other users.

また、シナリオにごとにレア度が設定されており、レア度が低いシナリオでは、キャラクタC1がプログラムによって動作し、レア度が高いシナリオでは、キャラクタC1が第1ユーザU1の操作入力に基づいて動作するようにしてもよい。これにより、ユーザの興趣性を高めることができる。 In addition, a rarity level is set for each scenario. In a scenario with a low rarity level, the character C1 operates according to a program, and in a scenario with a high rarity level, the character C1 operates based on the operation input of the first user U1. You may make it Thereby, user's interest can be enhanced.

また、シナリオ決定手段562を、第1ゲーム装置3の制御部36に備えてもよい。この場合、シナリオ決定手段562は、第1ユーザU1の操作入力(例えば、モーションセンサ43などによる操作)に応じて、シナリオ抽選が実行し、複数のシナリオの中から第1ユーザU1がプレイするシナリオを決定してもよい。 Also, the scenario determining means 562 may be provided in the control section 36 of the first game device 3 . In this case, the scenario determining means 562 executes a scenario lottery in response to an operation input by the first user U1 (for example, an operation by the motion sensor 43 or the like), and selects a scenario for the first user U1 to play from among a plurality of scenarios. may be determined.

また、マッチング処理手段232は、第1ゲーム装置3(第1ユーザU1)からのマッチング要求に基づいて、第1ユーザU1と同一のシナリオをプレイする第2ユーザU2を選択してもよい。この場合、マッチングリストは、第2ユーザU2とシナリオ情報とが対応付けられたものとなる。 Further, the matching processing means 232 may select the second user U2 who plays the same scenario as the first user U1 based on a matching request from the first game device 3 (first user U1). In this case, the matching list associates the second user U2 with the scenario information.

また、HMD41,61は、それぞれ、他の表示装置であってもよい。例えば、HMD41,61は、それぞれ、ディスプレイやウェアラブルデバイスなどの表示装置であってもよいし、バーサライタなどの発光表示装置であってもよい。 Also, the HMDs 41 and 61 may be other display devices. For example, each of the HMDs 41 and 61 may be a display device such as a display or a wearable device, or may be a light-emitting display device such as a Versalighter.

また、コントローラ63は、他の入力装置であってもよい。例えば、コントローラ63は、マウス、キーボード、タッチパネルなどの入力装置であってもよい。また、第2ゲーム装置5の操作部54は、第2ユーザU2の動作を検出するモーションセンサの出力に応じて入力情報を生成してもよい。 Also, the controller 63 may be another input device. For example, the controller 63 may be an input device such as a mouse, keyboard, or touch panel. Further, the operation unit 54 of the second game device 5 may generate input information according to the output of a motion sensor that detects the motion of the second user U2.

また、トラッキング処理部34は、モーションセンサ43に代えて、他の装置からの出力に基づいて、動作トラッキング情報を生成してもよい。例えば、第1ユーザU1をカメラ等により撮影して、カメラから出力される画像データを解析して、動作トラッキング情報を出力してもよい。 Also, the tracking processing unit 34 may generate motion tracking information based on output from another device instead of the motion sensor 43 . For example, the first user U1 may be photographed with a camera or the like, image data output from the camera may be analyzed, and motion tracking information may be output.

また、トラッキング処理部34は、第1ユーザU1の顔に装着されたモーションセンサ43の出力から、第1ユーザU1の表情の動きを示す動作トラッキング情報を生成してもよい。この場合、トラッキング処理部34は、第1ユーザU1の顔をカメラ等により撮影して、カメラから出力される画像データを解析して、動作トラッキング情報を出力してもよい。 Further, the tracking processing unit 34 may generate motion tracking information indicating the movement of the facial expression of the first user U1 from the output of the motion sensor 43 attached to the face of the first user U1. In this case, the tracking processing unit 34 may photograph the face of the first user U1 with a camera or the like, analyze the image data output from the camera, and output action tracking information.

また、第1ゲーム装置3は、モーションセンサ43およびマイク44のいずれか一方を備なくてもよい。 Also, the first game device 3 does not have to include either one of the motion sensor 43 and the microphone 44 .

また、キャラクタ動作情報処理手段363は、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2のいずれか一方をHMD41の表示部に表示しなくてもよい。また、キャラクタ動作情報処理手段363は、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2を音声としてスピーカ42から出力してもよい。 Also, the character action information processing means 363 does not have to display either the character action instruction information cm1 or the character voice instruction information cm2 on the display section of the HMD 41 . Further, the character action information processing means 363 may output the character action instruction information cm1 and the character voice instruction information cm2 from the speaker 42 as sounds.

また、キャラクタ動作情報処理手段363は、動作トラッキング情報および音声トラッキング情報に基づいて、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2をHMD41の表示部に表示させてもよい。すなわち、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2に表示される内容は、第1ユーザU1の動作に応じて定められていてもよい。 Further, the character action information processing means 363 may display the character action instruction information cm1 and the character voice instruction information cm2 on the display section of the HMD 41 based on the action tracking information and the voice tracking information. That is, the contents displayed in the character action instruction information cm1 and the character voice instruction information cm2 may be determined according to the action of the first user U1.

また、音声変換手段364は、音声トラッキング情報に示される音声を解析して、第1ユーザU1の音声を他人の音声(例えば、人工音声やキャラクタを演じている俳優などの音声)に変換してもよいし、その他の音声に変換してもよい。 In addition, the voice conversion means 364 analyzes the voice indicated in the voice tracking information, and converts the voice of the first user U1 into another person's voice (for example, artificial voice or the voice of an actor playing a character). , or may be converted to other voices.

また、第1ゲーム装置3には、音声変換手段364が備えられなくてもよい。この場合、第1ゲーム装置3は、音声トラッキング情報を第2ゲーム装置5に送信し、第2ゲーム装置は、音声トラッキング情報に応じて音声を再生する。 Also, the first game device 3 may not be equipped with the voice conversion means 364 . In this case, the first game device 3 transmits the audio tracking information to the second game device 5, and the second game device reproduces the audio according to the audio tracking information.

また、ゲームシステムに、第1ゲーム装置3から音声トラッキング情報を受信して、音声トラッキング情報に含まれる音声を所定の周波数に変換した変換音声情報を生成し、第1ゲーム装置3および第2ゲーム装置5に送信するゲーム装置またはサーバ装置をさらに備えてもよい。 In addition, the game system receives the audio tracking information from the first game device 3, generates converted audio information by converting the audio included in the audio tracking information into a predetermined frequency, and converts the audio information into a predetermined frequency. A game device or server device transmitting to the device 5 may further be provided.

また、第1ゲーム装置3には、キャラクタ動作情報処理手段363が備えられなくてもよい。この場合、ステップS109において、HMD41の表示部には、表示画面SC2に代えて表示画面SC1が表示される。 Also, the character motion information processing means 363 may not be provided in the first game device 3 . In this case, in step S109, the display screen SC1 is displayed on the display section of the HMD 41 instead of the display screen SC2.

また、第2ゲーム装置5に、第2ユーザU2の身体の動きを検出するモーションセンサや第2ユーザU2の発する音声を検出するマイクを備えてもよい。この場合、第2ゲーム装置5のモーションセンサおよびマイクによって検出された情報を、第2ゲーム装置5の通信手段561は第1ゲーム装置3に送信する。そして、第1ゲーム装置3のゲーム進行手段362および第2ゲーム装置5のゲーム進行手段564は、第2ゲーム装置5のモーションセンサおよびマイクによって検出された情報に従って、キャラクタC2を動作させる。 Further, the second game device 5 may be provided with a motion sensor that detects the body movement of the second user U2 and a microphone that detects the voice uttered by the second user U2. In this case, the communication means 561 of the second game device 5 transmits information detected by the motion sensor and microphone of the second game device 5 to the first game device 3 . Then, the game progress means 362 of the first game device 3 and the game progress means 564 of the second game device 5 move the character C2 according to the information detected by the motion sensor and microphone of the second game device 5 .

また、第2ゲーム装置5は、第1ユーザU1の、身体の動きのみ、発する音声のみ、表情のみを検出してもよいし、これらの2以上の組み合わせを検出してもよい。 Further, the second game device 5 may detect only the body movement, the uttered voice, or the facial expression of the first user U1, or may detect a combination of two or more of these.

また、本ゲームは、1つのシナリオに従って、ゲームが進行されてもよい。この場合、シナリオ決定手段562が不要となる。 In addition, the game may proceed according to one scenario. In this case, the scenario determination means 562 becomes unnecessary.

また、本ゲームシステムは、ゲームシステム以外に適用することが可能である。例えば、第1ユーザU1の動作に応じて、仮想空間上のアバターなどが動作するコミュニケーションシステムなどに適用することができる。 Also, the present game system can be applied to other than the game system. For example, it can be applied to a communication system or the like in which an avatar or the like in a virtual space moves according to the motion of the first user U1.

また、サーバ装置2、第1ゲーム装置3および第2ゲーム装置5は、それぞれが複数の装置であってもよいし、1台であってもよい。また、サーバ装置2、第1ゲーム装置3および第2ゲーム装置5が、協働して同様の処理を行うようにしてもよい。 In addition, each of the server device 2, the first game device 3, and the second game device 5 may be a plurality of devices, or may be a single device. Further, the server device 2, the first game device 3 and the second game device 5 may cooperate to perform similar processing.

1 ゲームシステム
2 サーバ装置
23 制御部(コンピュータ)
232 マッチング処理手段(第1ユーザ選択部)
3 第1ゲーム装置
36 制御部(コンピュータ)
363 キャラクタ動作情報処理手段
364 音声変換手段
41 HMD(第1出力部)
43 モーションセンサ(第1取得部)
44 マイク(第1取得部)
5 第2ゲーム装置
56 制御部(コンピュータ)
562 シナリオ決定手段(シナリオ決定部)
61 HMD(第2出力部)
62 スピーカ(第2出力部)
63 コントローラ(第2取得部)
1 game system 2 server device 23 control unit (computer)
232 matching processing means (first user selection unit)
3 first game device 36 control unit (computer)
363 character motion information processing means 364 voice conversion means 41 HMD (first output unit)
43 motion sensor (first acquisition unit)
44 microphone (first acquisition unit)
5 second game device 56 control unit (computer)
562 Scenario Determination Means (Scenario Determination Unit)
61 HMD (second output unit)
62 speaker (second output unit)
63 controller (second acquisition unit)

Claims (10)

1または複数のコンピュータを備えたコンピュータシステムであって、
前記コンピュータを、
仮想空間上に形成された代理のオブジェクトに動作を行わせる第1ユーザに対して、前記代理のオブジェクトの動作を導き出すオブジェクト動作情報を出力する第1出力部と、
前記オブジェクト動作情報に対応した前記第1ユーザの動作を示す第1ユーザ動作情報を取得する第1取得部と、
第2ユーザに対して、前記第1ユーザ動作情報を出力する第2出力部と、
前記第2ユーザの動作を示す第2ユーザ動作情報を取得する第2取得部と
して機能させ、
前記第1出力部は、前記第1ユーザに対して、前記第2ユーザ動作情報に応じた前記オブジェクト動作情報を出力し、
前記第2出力部は、前記第2ユーザに対して、前記オブジェクト動作情報を出力しないことを特徴とするコンピュータシステム。
A computer system comprising one or more computers,
said computer,
a first output unit configured to output, to a first user who causes a proxy object formed in a virtual space to perform an action, object action information for deriving the action of the proxy object;
a first acquisition unit that acquires first user action information indicating an action of the first user corresponding to the object action information;
a second output unit that outputs the first user action information to a second user;
functioning as a second acquisition unit for acquiring second user motion information indicating the motion of the second user;
The first output unit outputs the object action information corresponding to the second user action information to the first user,
The computer system, wherein the second output unit does not output the object action information to the second user.
1または複数のコンピュータを備えたコンピュータシステムであって、
前記コンピュータを、
仮想空間上に形成された代理のオブジェクトに動作を行わせる第1ユーザに対して、前記代理のオブジェクトの動作を導き出すオブジェクト動作情報を出力する第1出力部と、
前記オブジェクト動作情報に対応した前記第1ユーザの動作を示す第1ユーザ動作情報を取得する第1取得部と、
第2ユーザに対して、前記第1ユーザ動作情報を出力する第2出力部と、
前記第2ユーザの動作を示す第2ユーザ動作情報を取得する第2取得部と
して機能させ、
前記第2出力部が前記第2ユーザに対して前記第1ユーザ動作情報を出力した後に前記第2取得部が取得した前記第2ユーザ動作情報、が所定条件を満たす場合、前記第1出力部は、前記第1ユーザに対して、前記第2ユーザ動作情報に応じた前記オブジェクト動作情報を出力することを特徴とするコンピュータシステム。
A computer system comprising one or more computers,
said computer,
a first output unit configured to output, to a first user who causes a proxy object formed in a virtual space to perform an action, object action information for deriving the action of the proxy object;
a first acquisition unit that acquires first user action information indicating an action of the first user corresponding to the object action information;
a second output unit that outputs the first user action information to a second user;
functioning as a second acquisition unit for acquiring second user motion information indicating the motion of the second user;
When the second user action information acquired by the second acquisition section after the second output section outputs the first user action information to the second user satisfies a predetermined condition, the first output section satisfies a predetermined condition. A computer system, wherein the object action information corresponding to the second user action information is output to the first user.
請求項1または2において、
前記オブジェクト動作情報は、前記第1ユーザの動作の内容に応じて定められていることを特徴とするコンピュータシステム。
In claim 1 or 2 ,
The computer system, wherein the object action information is determined according to the content of the action of the first user.
請求項1からのいずれか1つにおいて、
前記コンピュータは、ゲームを実行し、
前記第1出力部は、前記第1ユーザに対して、前記ゲームのシナリオに応じた前記オブジェクト動作情報を出力することを特徴とするコンピュータシステム。
In any one of claims 1 to 3 ,
The computer executes a game,
The computer system, wherein the first output unit outputs the object action information according to the scenario of the game to the first user.
請求項において、
前記コンピュータを、
前記第1ユーザまたは前記第2ユーザからの操作入力を受け付ける操作入力部と、
前記操作入力に基づいて、前記ゲームのシナリオを決定するシナリオ決定部と
してさらに機能させ、
前記第1出力部は、前記第1ユーザに対して、前記シナリオ決定部により決定された前記シナリオに応じた前記オブジェクト動作情報を出力することを特徴とするコンピュータシステム。
In claim 4 ,
said computer,
an operation input unit that receives an operation input from the first user or the second user;
further functioning as a scenario determination unit that determines a scenario of the game based on the operation input;
The computer system, wherein the first output unit outputs the object action information corresponding to the scenario determined by the scenario determination unit to the first user.
請求項において、
前記シナリオ決定部は、前記操作入力に基づいて、前記ゲームにおける複数のシナリオのうち少なくとも1つのシナリオを抽選により決定することを特徴とするコンピュータシステム。
In claim 5 ,
The computer system, wherein the scenario determination unit determines at least one scenario out of a plurality of scenarios in the game by lottery based on the operation input.
請求項またはにおいて、
前記第1出力部は、前記第1ユーザに対して、前記シナリオ決定部により決定されたシナリオに関する情報を出力することを特徴とするコンピュータシステム。
In claim 5 or 6 ,
The computer system, wherein the first output unit outputs information regarding the scenario determined by the scenario determination unit to the first user.
請求項からのいずれか1つにおいて、
前記コンピュータを、
前記第2ユーザからの操作入力に基づいて、複数の前記第1ユーザの中から前記第2ユーザと同一の前記シナリオをプレイする前記第1ユーザを選択する第1ユーザ選択部と
してさらに機能させることを特徴とするコンピュータシステム。
In any one of claims 5 to 7 ,
said computer,
Further functions as a first user selection unit that selects the first user who plays the same scenario as the second user from among the plurality of first users, based on an operation input from the second user. A computer system characterized by allowing
請求項からのいずれか1つにおいて、
前記コンピュータを、
前記第1ユーザからの操作入力に基づいて、複数の前記第2ユーザの中から前記第1ユーザと同一の前記シナリオをプレイする前記第2ユーザを選択する第2ユーザ選択部と
してさらに機能させることを特徴とするコンピュータシステム。
In any one of claims 5 to 7 ,
said computer,
Further functions as a second user selection unit that selects the second user who plays the same scenario as the first user from among the plurality of second users based on an operation input from the first user. A computer system characterized by allowing
請求項からのいずれか1つにおいて、
前記コンピュータを、
前記第1ユーザまたは前記第2ユーザからの操作入力に基づいて、前記ゲームのシナリオを決定するシナリオ決定部と、
前記シナリオ決定部により決定されたシナリオに基づいて、複数の前記第1ユーザの中から前記第2ユーザと同一の前記シナリオをプレイする前記第1ユーザを選択する第1ユーザ選択部と
としてさらに機能させることを特徴とするコンピュータシステム。
In any one of claims 5 to 9 ,
said computer,
a scenario determination unit that determines a scenario of the game based on an operation input from the first user or the second user;
a first user selection unit that selects the first user who plays the same scenario as the second user from among the plurality of first users based on the scenario determined by the scenario determination unit; A computer system characterized by allowing
JP2019197451A 2019-10-30 2019-10-30 computer system Active JP7256398B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019197451A JP7256398B2 (en) 2019-10-30 2019-10-30 computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019197451A JP7256398B2 (en) 2019-10-30 2019-10-30 computer system

Publications (2)

Publication Number Publication Date
JP2021069601A JP2021069601A (en) 2021-05-06
JP7256398B2 true JP7256398B2 (en) 2023-04-12

Family

ID=75711773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019197451A Active JP7256398B2 (en) 2019-10-30 2019-10-30 computer system

Country Status (1)

Country Link
JP (1) JP7256398B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314657A (en) 2000-05-08 2001-11-13 Sega Corp Network system and storage medium
JP2014054304A (en) 2012-09-11 2014-03-27 Sony Computer Entertainment Inc Game device, game server, game control method, and game control program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314657A (en) 2000-05-08 2001-11-13 Sega Corp Network system and storage medium
JP2014054304A (en) 2012-09-11 2014-03-27 Sony Computer Entertainment Inc Game device, game server, game control method, and game control program

Also Published As

Publication number Publication date
JP2021069601A (en) 2021-05-06

Similar Documents

Publication Publication Date Title
US20230016824A1 (en) Voice help system via hand held controller
JP6672380B2 (en) Game program, character control program, method, and information processing device
JP7344948B2 (en) system
JP6595043B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP7349348B2 (en) Character control program, method, and information processing device
JP7571953B2 (en) PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING SYSTEM
JP7140996B2 (en) Game-related service providing program and server device
JP7256398B2 (en) computer system
JP2021074561A5 (en)
JP7260794B2 (en) Game system and game control method
JP2023510057A (en) Speech-to-text conversion method, system, device, device and program
JP6997386B2 (en) Game-related service provision program and server device
JP6639561B2 (en) Game program, method, and information processing device
JP2022012889A (en) Computer program and computer device
JP7386927B2 (en) Program, method, and information processing device
JP7258923B2 (en) program
JP7526401B2 (en) Computer program, method, and server device
JP7457753B2 (en) PROGRAM AND INFORMATION PROCESSING APPARATUS
US20230191252A1 (en) Method, computer readable medium, and information processing device
JP7216314B1 (en) Program, information processing device, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R150 Certificate of patent or registration of utility model

Ref document number: 7256398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150