JP2023162525A - Simulation device, simulation method, and program - Google Patents
Simulation device, simulation method, and program Download PDFInfo
- Publication number
- JP2023162525A JP2023162525A JP2022072891A JP2022072891A JP2023162525A JP 2023162525 A JP2023162525 A JP 2023162525A JP 2022072891 A JP2022072891 A JP 2022072891A JP 2022072891 A JP2022072891 A JP 2022072891A JP 2023162525 A JP2023162525 A JP 2023162525A
- Authority
- JP
- Japan
- Prior art keywords
- controller
- experiencer
- virtual reality
- simulation
- simulation device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004088 simulation Methods 0.000 title claims description 123
- 238000000034 method Methods 0.000 title claims description 10
- 238000001514 detection method Methods 0.000 claims abstract description 46
- 238000011156 evaluation Methods 0.000 claims description 26
- 238000005259 measurement Methods 0.000 abstract description 30
- 238000010586 diagram Methods 0.000 abstract description 12
- 238000004891 communication Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 現実の第三者が仮想現実での模擬体験を行っている体験者の動作を正確に評価できるようにする。
【解決手段】 検知部(11)は、仮想現実での模擬体験を行っている体験者によるコントローラの操作を検知し、測定部(12)は、体験者によるコントローラの操作を検知したとき、体験者の状態を測定し、出力部(13)は、測定した体験者の状態を示す第1の情報とともに、検知したコントローラの操作の内容を示す第2の情報を出力する。
【選択図】 図1
[Problem] To enable a real third party to accurately evaluate the movements of a person experiencing a simulated experience in virtual reality.
[Solution] A detection unit (11) detects an operation of a controller by an experience person performing a simulated experience in virtual reality, and a measurement unit (12) detects an operation of a controller by an experience person. The output unit (13) outputs first information indicating the measured condition of the person experiencing the experience, as well as second information indicating the content of the detected controller operation.
[Selection diagram] Figure 1
Description
本発明は、シミュレーション装置、シミュレーション方法、およびプログラムに関し、特に、仮想現実での模擬体験を提供するシミュレーション装置、シミュレーション方法、およびプログラムに関する。 The present invention relates to a simulation device, a simulation method, and a program, and particularly to a simulation device, a simulation method, and a program that provide a simulated experience in virtual reality.
シミュレーション映像を用いて、訓練や実技講習、あるいは、ビデオゲームやeスポーツが行われている。関連する技術の一例では、シミュレーション装置は、プロジェクタースクリーン上に、あるいは、ディスプレイの画面上に、シミュレーション映像を表示する。体験者は、表示されたシミュレーション映像が指し示す状況に応じて、動作を実施する。指導者は、体験者の動作が状況に応じた適切なものかどうかを評価する(特許文献2)。または、指導者は、体験者が状況に応じて適切な動作を実行しているかどうかを確認する(特許文献3)。 Simulation videos are used for training, practical courses, video games, and e-sports. In an example of related technology, a simulation device displays a simulation image on a projector screen or a display screen. The user performs actions according to the situation indicated by the displayed simulation video. The instructor evaluates whether the experiencer's movements are appropriate according to the situation (Patent Document 2). Alternatively, the instructor checks whether the participant is performing appropriate actions according to the situation (Patent Document 3).
特許文献2または3に記載の関連する技術では、二次元のシミュレーション映像を用いている。体験者は、二次元のシミュレーション映像を視認しても、シミュレーション映像中の目標までの距離を正確に感知することが難しい。これらの関連する技術は、訓練の効果が大きくはないという問題がある。VR(Virtual Realty)技術を用いて、現実により近い訓練を可能にすることが要望されている。 A related technique described in Patent Document 2 or 3 uses a two-dimensional simulation image. Even when the user visually recognizes the two-dimensional simulation image, it is difficult for the user to accurately sense the distance to the target in the simulation image. The problem with these related techniques is that their training effects are not large. There is a demand for using VR (Virtual Realty) technology to enable training that is closer to reality.
しかしながら、体験者がVRゴーグルなどを装着して、仮想現実での訓練を行う場合、指導者などの現実の第三者は、仮想現実での状況と関連して、体験者の状態を把握することが難しい。その結果、現実の第三者は、体験者の動作を正確に評価できない。 However, when participants wear VR goggles and perform training in virtual reality, a real third party such as an instructor can grasp the participant's condition in relation to the situation in virtual reality. It's difficult. As a result, a real third party cannot accurately evaluate the experiencer's movements.
本発明は、上記の課題に鑑みてなされたものであり、その目的は、現実の第三者が仮想現実での模擬体験を行っている体験者の動作を正確に評価できるようにすることにある。 The present invention has been made in view of the above-mentioned problems, and its purpose is to enable a real third party to accurately evaluate the movements of a person experiencing a simulated experience in virtual reality. be.
本発明の一態様に係るシミュレーション装置は、仮想現実での模擬体験を行っている体験者によるコントローラの操作を検知する検知手段と、前記体験者による前記コントローラの操作を検知したとき、前記体験者の状態を測定する測定手段と、測定した前記体験者の状態を示す第1の情報とともに、検知した前記コントローラの操作の内容を示す第2の情報を出力する出力手段とを備えている。 A simulation device according to one aspect of the present invention includes a detection unit that detects an operation of a controller by an experiencer performing a simulated experience in virtual reality; and output means that outputs first information indicating the measured condition of the person experiencing the experience, as well as second information indicating the content of the detected operation of the controller.
本発明の一態様に係るシミュレーション方法では、シミュレーション装置が、仮想現実での模擬体験を行っている体験者によるコントローラの操作を検知し、前記体験者による前記コントローラの操作を検知したとき、前記体験者の状態を測定し、測定した前記体験者の状態を示す第1の情報とともに、検知した前記コントローラの操作の内容を示す第2の情報を出力する。 In the simulation method according to one aspect of the present invention, the simulation device detects an operation of a controller by an experiencer performing a simulated experience in virtual reality, and when detecting the operation of the controller by the experiencer, the simulation device detects the operation of the controller by the experiencer. and outputs first information indicating the measured condition of the person experiencing the experience, as well as second information indicating the content of the detected operation of the controller.
本発明の一態様に係るプログラムは、仮想現実での模擬体験を行っている体験者によるコントローラの操作を検知することと、前記体験者による前記コントローラの操作を検知したとき、前記体験者の状態を測定することと、測定した前記体験者の状態を示す第1の情報とともに、検知した前記コントローラの操作の内容を示す第2の情報を出力することとをコンピュータに実行させる。 A program according to one aspect of the present invention detects an operation of a controller by an experiencer performing a simulated experience in virtual reality, and detects a state of the experiencer when detecting the operation of the controller by the experiencer. and outputting first information indicating the measured state of the experience person and second information indicating the content of the detected operation of the controller.
本発明の一態様によれば、現実の第三者が仮想現実での模擬体験を行っている体験者の動作を正確に評価することができる。 According to one aspect of the present invention, a real third party can accurately evaluate the movements of an experiencer who is performing a simulated experience in virtual reality.
以下では、本発明の実施形態の具体例をいくつか説明する。 Below, some specific examples of embodiments of the present invention will be described.
〔実施形態1〕
図1から図2を参照して、実施形態1について説明する。
[Embodiment 1]
(シミュレーション装置10)
図1を参照して、本実施形態1に係るシミュレーション装置10の構成を説明する。図1は、シミュレーション装置10の構成を示すブロック図である。
(Simulation device 10)
With reference to FIG. 1, the configuration of a
図1に示すように、シミュレーション装置10は、検知部11、測定部12、および出力部13を備えている。
As shown in FIG. 1, the
シミュレーション装置10は、仮想現実での模擬体験のためのシミュレーション映像データを取得する。シミュレーション映像の内容は、例えば、訓練や実技講習、あるいは、ビデオゲームやeスポーツと関連する。
The
一例では、シミュレーション装置10は、図示しない記憶装置から、仮想現実での模擬体験のためのシミュレーション映像のデータを取得する。シミュレーション装置10は、記憶装置から取得したシミュレーション映像のデータを、体験者が装着するVR(Virtual Realty)ゴーグル200(図5)へ出力する。シミュレーション装置10は、VRゴーグル200のディスプレイの画面上に、シミュレーション映像を表示する。
In one example, the
検知部11は、シミュレーション映像を視認している体験者によるコントローラ100(図5)の操作を検知する。検知部11は、検知手段の一例である。
The
一例では、検知部11は、コントローラ100から、体験者の操作によってコントローラ100へ入力されたデータを受信する。
In one example, the
体験者の操作とは、例えば、体験者がコントローラ100を動かしたり、コントローラ100に設けられたトリガスイッチを押したりすることである。別の例では、体験者の操作とは、コントローラ100が備えたマイクロフォンへ、音声を入力することである。なお、体験者の操作は、上記の例には限定されない。
The experiencer's operation means, for example, that the experiencer moves the
検知部11は、コントローラ100の仮想現実での向きを検知してもよい。さらに、検知部11は、コントローラ100が仮想現実内で指している位置を検知してもよい。この場合、検知部11は、コントローラ100が備えたジャイロセンサ(図示せず)より、コントローラ100の傾き角度を表すセンサデータを受信する。検知部11は、コントローラ100のジャイロセンサから受信したセンサデータを用いて、コントローラ100の仮想現実での向きを計算する。
The
また、検知部11は、コントローラ100の仮想現実での向きを示す情報と、仮想現実のシミュレーション映像データとを用いて、コントローラ100が仮想現実内で指している位置を計算する。
Furthermore, the
ここで、仮想現実のシミュレーション映像データは、仮想現実での模擬体験のためのシミュレーションプログラムにしたがって、図示しない演算装置によって生成される。検知部11は、図示しない演算装置から、仮想現実のシミュレーション映像データを取得することができる。
Here, the virtual reality simulation video data is generated by an arithmetic device (not shown) according to a simulation program for a simulated experience in virtual reality. The
検知部11は、コントローラ100が備えたマイクロフォン(図示せず)により、体験者の発話を検知してもよい。
The
あるいは、検知部11は、コントローラ100が備えたセンサ(図示せず)により、体験者の動作を検知してもよい。
Alternatively, the
検知部11は、シミュレーション映像を視認している体験者によるコントローラ100の操作を検知したことを、測定部12に通知する。また、検知部11は、検知したコントローラ100の操作の内容を示す情報を、出力部13へ出力する。体験者によるコントローラ100の操作の内容は、体験者の動作の内容を表すと言い換えることもできる。
The
測定部12は、体験者によるコントローラ100の操作を検知したとき、体験者の状態を測定する。測定部12は、測定手段の一例である。
The
一例では、測定部12は、検知部11から、シミュレーション映像を視認している体験者によるコントローラ100の操作を検知したことを通知される。このとき、測定部12は、体験者の状態を測定する。
In one example, the
例えば、測定部12は、仮想現実での体験者から目標(例えば、アバター)までの距離(図7)を測定する。このとき、測定部12は、仮想現実での模擬体験のためのシミュレーションプログラムを読み込んで実行する演算装置(図示せず)から、仮想現実での体験者の位置情報、および、仮想現実での目標の位置情報を取得する。そして、測定部12は、仮想現実での体験者の位置情報、および、仮想現実での目標の位置情報に基づいて、仮想現実での体験者と目標との間の距離を計算する。本例では、仮想現実での体験者と目標との間の距離が、体験者の状態を示す情報である。
For example, the measuring
他の一例では、測定部12は、VRゴーグル200が備えたインカメラ(図示せず)より、体験者の目を撮影した映像のデータを取得する。測定部12は、体験者の目を撮影した映像のデータを、周知の解析技術を用いて解析することにより、仮想現実での体験者の視線の位置を計算する。本例では、仮想現実での体験者の視線の位置座標が、体験者の状態を示す情報である。
In another example, the measuring
測定部12は、体験者によるコントローラ100の操作を検知したときの体験者の状態を示す情報を、出力部13へ出力する。体験者の状態を示す情報とは、例えば、仮想現実での体験者の視線の位置を示す情報や、コントローラ100の向きを示す情報などである。
The
出力部13は、測定した体験者の状態を示す第1の情報とともに、検知したコントローラ100の操作の内容を示す第2の情報を出力する。出力部13は、出力手段の一例である。
The
一例では、出力部13は、測定部12から、測定データ、すなわち、体験者によるコントローラ100の操作を検知したときの体験者の状態を示す情報(第1の情報と呼ぶ)を受信する。また、出力部13は、検知部11から、検知部11が検知したコントローラ100の操作の内容を示す情報(第2の情報と呼ぶ)を受信する。
In one example, the
出力部13は、測定部12が測定した体験者の状態を示す第1の情報とともに、検知部11が検知したコントローラ100の操作の内容を示す第2の情報を出力する。例えば、出力部13は、指導者などの第三者が監視している外部モニタ(図示せず)へ、第1の情報および第2の情報を出力する。そして、出力部13は、外部モニタの画面上に、第1の情報および第2の情報を同時に表示する。
The
(シミュレーション装置10の動作)
図2を参照して、本実施形態1に係るシミュレーション装置10の動作を説明する。図2は、シミュレーション装置10の各部が実行する処理の流れを示すフローチャートである。
(Operation of simulation device 10)
The operation of the
図2に示すように、まず、シミュレーション装置10は、仮想現実での模擬体験のためのシミュレーション映像をVRゴーグル200(図5)等に表示する。
As shown in FIG. 2, first, the
対に、検知部11は、シミュレーション映像を視認している体験者によるコントローラ100(図5)の操作を検知する(S1)。検知部11は、シミュレーション映像を視認している体験者によるコントローラ100の操作を検知したことを、測定部12に通知する。また、検知部11は、検知したコントローラ100の操作の内容を示す情報を、出力部13へ出力する。
On the other hand, the
体験者によるコントローラ100の操作を検知部11が検知したとき、続いて、測定部12は、体験者の状態を測定する(S2)。測定部12は、測定データを、出力部13へ出力する。
When the
出力部13は、測定部12が測定した体験者の状態を示す第1の情報とともに、検知部11が検知したコントローラ100の操作の内容を示す第2の情報を出力する(S3)。
The
以上で、本実施形態1に係るシミュレーション装置10の動作は終了する。
With this, the operation of the
(本実施形態の効果)
本実施形態の構成によれば、検知部11は、仮想現実での模擬体験を行っている体験者によるコントローラ100の操作を検知する。測定部12は、体験者によるコントローラ100の操作を検知したとき、体験者の状態を測定する。出力部13は、測定した体験者の状態を示す第1の情報とともに、検知したコントローラ100の操作の内容を示す第2の情報を出力する。現実の第三者は、第1の情報を得ることで、体験者の状態を知ることができる。同じ第三者は、第2の情報を得ることで、体験者によるコントローラ100の操作の内容を知ることができる。このようにして、現実の第三者は、体験者の状態と体験者による操作の内容を共に知ることができるので、仮想現実での模擬体験を行っている体験者の動作を正確に評価することができる。
(Effects of this embodiment)
According to the configuration of this embodiment, the
〔実施形態2〕
図3から図4を参照して、実施形態2について説明する。本実施形態2では、体験者の動作を評価するための参考指標を提供する構成を説明する。本実施形態2では、前記実施形態1と共通する構成に対して、前記実施形態1と同じ符号を付して、それらの構成に関する説明を省略する。
[Embodiment 2]
Embodiment 2 will be described with reference to FIGS. 3 to 4. In Embodiment 2, a configuration for providing reference indicators for evaluating the actions of the person experiencing the experience will be described. In the second embodiment, components common to those in the first embodiment are given the same reference numerals as those in the first embodiment, and explanations regarding these components will be omitted.
(シミュレーション装置20)
図3を参照して、本実施形態2に係るシミュレーション装置20の構成を説明する。図3は、シミュレーション装置10の構成を示すブロック図である。
(Simulation device 20)
The configuration of the
図3に示すように、シミュレーション装置20は、検知部11、測定部12、および出力部13を備えている。加えて、シミュレーション装置20は、評価部24をさらに備えている。
As shown in FIG. 3, the
評価部24は、測定部12が測定した体験者の状態、および、検知部11が検知したコントローラ100の操作の内容に基づいて、指導者が体験者の動作を評価するための参考指標を導出する。評価部24は、評価手段の一例である。
The evaluation unit 24 derives a reference index for the instructor to evaluate the behavior of the person based on the condition of the person measured by the
一例では、評価部24は、測定部12から、体験者によるコントローラ100の操作を検知したときの体験者の状態を示す情報(すなわち測定データ)を受信する。また、評価部24は、検知部11から、検知したコントローラ100の操作の内容を示す情報を受信する。
In one example, the evaluation unit 24 receives from the
評価部24は、測定部12が測定した体験者の状態、および、検知部11が検知したコントローラ100の操作の内容に基づいて、体験者の動作を評価するための参考指標を導出する。参考指標は、例えば、指導者から見た、体験者の動作の手順の適合度である。
The evaluation unit 24 derives a reference index for evaluating the user's behavior based on the state of the user measured by the
なお、評価部24は、体験者の動作を評価するための参考指標に代えて、体験者の動作に関する評価指標(例えば、評価値)を導出してもよい。 Note that the evaluation unit 24 may derive an evaluation index (for example, an evaluation value) regarding the experiencer's behavior instead of the reference index for evaluating the experiencer's behavior.
評価部24は、導出した参考指標のデータを、出力部13へ出力する。
The evaluation unit 24 outputs the derived reference index data to the
出力部13は、前記実施形態1と同様に、測定部12が測定した体験者の状態を示す第1の情報とともに、検知部11が検知したコントローラ100の操作の内容を示す第2の情報を出力する。
Similarly to the first embodiment, the
また、出力部13は、評価部24から、評価部24が導出した参考指標のデータを受信する。出力部13は、体験者の動作に関する評価の参考指標をさらに出力する。
Further, the
(シミュレーション装置20の動作)
図4を参照して、本実施形態2に係るシミュレーション装置20の動作を説明する。図4は、シミュレーション装置20の各部が実行する処理の流れを示すフローチャートである。
(Operation of simulation device 20)
The operation of the
図4に示すように、まず、シミュレーション装置20は、仮想現実での模擬体験のためのシミュレーション映像をVRゴーグル200(図5)等に表示する。
As shown in FIG. 4, first, the
対に、検知部11は、シミュレーション映像を視認している体験者によるコントローラ100(図5)の操作を検知する(S201)。検知部11は、シミュレーション映像を視認している体験者によるコントローラ100の操作を検知したことを、測定部12に通知する。また、検知部11は、検知したコントローラ100の操作の内容を示す情報を、出力部13および評価部24へ出力する。
On the other hand, the
体験者によるコントローラ100の操作を検知部11が検知したとき、続いて、測定部12は、体験者の状態を測定する(S202)。測定部12は、測定データを、出力部13および評価部24へ出力する。
When the
出力部13は、測定部12が測定した体験者の状態を示す第1の情報とともに、検知部11が検知したコントローラ100の操作の内容を示す第2の情報を出力する(S203)。
The
評価部24は、測定部12が測定した体験者の状態、および、検知部11が検知したコントローラ100の操作の内容に基づいて、体験者の動作を評価するための参考指標を導出する(S204)。評価部24は、導出した参考指標のデータを、出力部13へ出力する。
The evaluation unit 24 derives a reference index for evaluating the experiencer's behavior based on the experiencer's state measured by the
出力部13は、体験者の動作に関する評価の参考指標をさらに出力する(S205)。
The
以上で、本実施形態2に係るシミュレーション装置20の動作は終了する。
With this, the operation of the
(本実施形態の効果)
本実施形態の構成によれば、検知部11は、仮想現実での模擬体験を行っている体験者によるコントローラ100の操作を検知する。測定部12は、体験者によるコントローラ100の操作を検知したとき、体験者の状態を測定する。出力部13は、測定した体験者の状態を示す第1の情報とともに、検知したコントローラ100の操作の内容を示す第2の情報を出力する。現実の第三者は、第1の情報を得ることで、体験者の状態を知ることができる。同じ第三者は、第2の情報を得ることで、体験者によるコントローラ100の操作の内容を知ることができる。このようにして、現実の第三者は、体験者の状態と体験者による操作の内容を共に知ることができるので、仮想現実での模擬体験を行っている体験者の動作を正確に評価することができる。
(Effects of this embodiment)
According to the configuration of this embodiment, the
さらに、本実施形態の構成によれば、評価部24は、測定した体験者の状態、および、検知したコントローラ100の操作の内容に基づいて、体験者の動作を評価するための参考指標を導出する。出力部13は、体験者の動作に関する評価の参考指標をさらに出力する。これにより、現実の第三者は、出力された参考指標を考慮して、体験者の動作を評価することができる。
Further, according to the configuration of the present embodiment, the evaluation unit 24 derives a reference index for evaluating the movement of the user based on the measured state of the user and the detected operation of the
〔実施形態3〕
図5から図7を参照して、実施形態3について説明する。本実施形態3では、前記実施形態1~2において説明したシミュレーション装置10,20のいずれかを備えたシミュレーションシステム1について説明する。
[Embodiment 3]
Embodiment 3 will be described with reference to FIGS. 5 to 7. In the third embodiment, a
(シミュレーションシステム1)
図5を参照して、前述した実施形態1~2に係るシミュレーション装置10,20のいずれかを備えたシミュレーションシステム1の構成の一例を、最初に説明する。図5において、「シミュレーション装置10(20)」とは、実施形態1~2に係るシミュレーション装置10,20のいずれかを表す。
(Simulation system 1)
Referring to FIG. 5, an example of the configuration of a
図5に示すように、シミュレーションシステム1は、シミュレーション装置10(20)、コントローラ100、およびVRゴーグル200を備えている。
As shown in FIG. 5, the
コントローラ100は、シミュレーション映像を視認している体験者による操作のために使用される。コントローラ100は、機械や道具を模したものであってもよいし、専用のデザインと設計とを与えられたものであってもよい。コントローラ100は、有線又は無線により、シミュレーション装置10(20)と通信可能に接続されている。
The
コントローラ100は、ジャイロセンサなどの各種センサを備えている。さらに、コントローラ100は、トリガスイッチを備えている。体験者は、コントローラ100を動かしたり、トリガスイッチを押したりする操作を行うことにより、シミュレーションプログラムを進行または分岐させる。
The
VRゴーグル200は、仮想現実の認知を体験者に提供する。VRゴーグル200は、体験者が視界の周りに装着することにより使用される。VRゴーグル200には、シミュレーションプログラムを読み込んで実行する演算装置(図示せず)から、仮想現実のシミュレーション映像データが送信される。体験者は、VRゴーグル200を装着している限り、あたかも自分が仮想現実内にいるかのように認識する。
The
(仮想現実での模擬体験の一例)
図6は、仮想現実の一例を模式的に示す図である。図6に示すように、体験者は、VRゴーグル200を装着している。このとき、体験者は、自分が仮想現実内にいるように認識する。上述したように、仮想現実のシミュレーション映像データは、図示しない演算装置により生成される。シミュレーション装置10(20)は、演算装置が生成したシミュレーション映像データを取得して、VRゴーグル200のディスプレイの画面上に、シミュレーション映像を表示する。
(An example of a simulated experience in virtual reality)
FIG. 6 is a diagram schematically showing an example of virtual reality. As shown in FIG. 6, the person experiencing the experience is wearing
体験者が仮想現実内で移動(あるいは移動しようと)したり、向きを変えたりすると、仮想現実での体験者の視点が変換される。このとき、シミュレーション装置10(20)は、変換された後の体験者の視点から見た仮想現実のシミュレーション映像データを演算装置から取得して、取得したシミュレーション映像データを、VRゴーグル200へ送信する。
As the experiencer moves (or attempts to move) or turns within the virtual reality, the experiencer's perspective in virtual reality is transformed. At this time, the simulation device 10 (20) acquires the converted virtual reality simulation video data seen from the experiencer's perspective from the computing device, and transmits the acquired simulation video data to the
図6に示すように、仮想現実内には、体験者のほか、目標(本例では、人)が存在する。目標は、シミュレーションプログラムにしたがって、仮想現実内で行動する。図6では、目標は、体験者に向かって移動している。体験者の視点では、目標が自分に近づいているように見える。 As shown in FIG. 6, in addition to the experiencer, a target (in this example, a person) exists in the virtual reality. The target acts in virtual reality according to a simulation program. In FIG. 6, the target is moving toward the experiencer. From the experiencer's perspective, the goal appears to be approaching them.
図7は、体験者の動作の一例を説明する図である。図7に示す一例では、体験者は、目標が自分に近づいている間に、予め定められたいくつかの動作(ここでは5つの動作とする)(例えば、「警告」「コントローラ100を取り出す」「威嚇」「コントローラ100を構える」「トリガを引く(トリガスイッチを押す)」)を実施する。図7では、5つの動作を、時系列にしたがって、動作1~動作5とそれぞれ附番している。
FIG. 7 is a diagram illustrating an example of the user's movements. In the example shown in FIG. 7, the experiencer performs several predetermined actions (here, five actions) (for example, "warning", "take out the
体験者が「警告」の動作を実施したとき、体験者の発話による音声が、コントローラ100のマイクロフォン(図示せず)に入力される。
When the experiencer performs the "warning" action, the voice uttered by the experiencer is input to the microphone (not shown) of the
体験者が「コントローラ100を取り出す」「コントローラ100を構える」の各動作を実施したとき、体験者の動作に伴って、コントローラ100の動きが発生する。コントローラ100が備えたジャイロセンサ(図示せず)は、コントローラ100の動きを検知する。
When the user performs the actions of "taking out the
体験者が「威嚇」「トリガを引く」の各動作を実施したとき、コントローラ100のトリガスイッチが押される。コントローラ100が備えたトリガスイッチ(図示せず)は、体験者による押す操作を検知する。
When the experiencer performs the actions of "threatening" and "pulling the trigger," the trigger switch of the
コントローラ100は、マイクロフォンや各種センサが出力するデータを、通信ネットワークを介して、シミュレーション装置10(20)へ送信する。
The
このようにして、シミュレーションシステム1では、体験者の動作を示す情報が、コントローラ100からシミュレーション装置10(20)へ渡される。体験者の動作を示す情報とは、例えば、体験者の発話を示す情報や、コントローラ100を動かしたことを示す情報である。
In this way, in the
シミュレーション装置10(20)の検知部11は、コントローラ100から渡された、コントローラ100が備えたマイクロフォンが出力する音声データ(体験者の動作を示す情報の一例である)を用いて、コントローラ100が備えたマイクロフォンへの音声入力を検知することができる。また、検知部11は、コントローラ100が備えたトリガスイッチが出力するデータ(体験者の動作を示す情報の一例である)を用いて、コントローラ100が備えたトリガスイッチへの入力操作を検知することができる。
The
また、体験者が「コントローラ100を構える」という動作を実施したとき、コントローラ100の傾きが発生する。コントローラ100が備えたジャイロセンサ(図示せず)は、コントローラ100の傾きを検知する。
Further, when the user performs the action of "holding the
コントローラ100は、ジャイロセンサが出力する傾き角度のデータを、通信ネットワークを介して、シミュレーション装置10(20)へ送信する。
The
加えて、VRゴーグル200が備えたインカメラ(図示せず)より、体験者の目が撮影される。VRゴーグル200は、インカメラが出力する撮影データを、通信ネットワークを介して、シミュレーション装置10(20)へ送信する。
In addition, an in-camera (not shown) included in the
このようにして、シミュレーションシステム1では、体験者の状態を示す情報が、VRゴーグル200からシミュレーション装置10(20)へ渡される。
In this manner, in the
シミュレーション装置10(20)の測定部12は、VRゴーグル200から渡された、VRゴーグル200のインカメラが出力する撮影データ(体験者の状態を示す情報の一例である)を用いて、仮想現実での体験者の視線の位置を測定することができる。または、測定部12は、コントローラ100の傾き角度のデータ(体験者の状態を示す情報の一例である)を用いて、体験者の視線の向きを測定することができる。あるいはまた、測定部12は、コントローラ100の傾き角度のデータ(体験者の状態を示す情報の一例である)を用いて、コントローラ100が仮想現実内で指している位置を測定することができる。
The
(本実施形態の効果)
本実施形態の構成によれば、検知部11は、仮想現実での模擬体験を行っている体験者によるコントローラ100の操作を検知する。測定部12は、体験者によるコントローラ100の操作を検知したとき、体験者の状態を測定する。出力部13は、測定した体験者の状態を示す第1の情報とともに、検知したコントローラ100の操作の内容を示す第2の情報を出力する。現実の第三者は、第1の情報を得ることで、体験者の状態を知ることができる。同じ第三者は、第2の情報を得ることで、体験者によるコントローラ100の操作の内容を知ることができる。このようにして、現実の第三者は、体験者の状態と体験者による操作の内容を共に知ることができるので、仮想現実での模擬体験を行っている体験者の動作を正確に評価することができる。
(Effects of this embodiment)
According to the configuration of this embodiment, the
(ハードウェア構成について)
前記実施形態1~2で説明したシミュレーション装置10,20の各構成要素は、機能単位のブロックを示している。これらの構成要素の一部又は全部は、例えば図8に示すような情報処理装置900により実現される。図8は、情報処理装置900のハードウェア構成の一例を示すブロック図である。
(About hardware configuration)
Each component of the
図8に示すように、情報処理装置900は、一例として、以下のような構成を含む。
As shown in FIG. 8, the
CPU(Central Processing Unit)901
ROM(Read Only Memory)902
RAM(Random Access Memory)903
RAM903にロードされるプログラム904
プログラム904を格納する記憶装置905
記録媒体906の読み書きを行うドライブ装置907
通信ネットワーク909と接続する通信インタフェース908
データの入出力を行う入出力インタフェース910
各構成要素を接続するバス911
前記実施形態1~2で説明したシミュレーション装置10,20の各構成要素は、これらの機能を実現するプログラム904をCPU901が読み込んで実行することで実現される。各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やROM902に格納されており、必要に応じてCPU901がRAM903にロードして実行される。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
CPU (Central Processing Unit) 901
ROM (Read Only Memory) 902
RAM (Random Access Memory) 903
A
Input/
Each component of the
上記の構成によれば、前記実施形態1~2で説明したシミュレーション装置10,20が、ハードウェアとして実現される。したがって、前記実施形態1~2のいずれかにおいて説明した効果と同様の効果を奏することができる。
According to the above configuration, the
(付記)
本発明の一態様は、以下のようにも記載され得るが、以下に限定されない。
(Additional note)
One embodiment of the present invention may also be described as follows, but is not limited to the following.
(付記1)
仮想現実での模擬体験を行っている体験者によるコントローラの操作を検知する検知手段と、
前記体験者による前記コントローラの操作を検知したとき、前記体験者の状態を測定する測定手段と、
測定した前記体験者の状態を示す第1の情報とともに、検知した前記コントローラの操作の内容を示す第2の情報を出力する出力手段と
を備えたシミュレーション装置。
(Additional note 1)
a detection means for detecting an operation of a controller by an experiencer performing a simulated experience in virtual reality;
Measuring means for measuring the state of the experiencer when detecting an operation of the controller by the experiencer;
A simulation device comprising: output means for outputting first information indicating the measured state of the person experiencing the experience and second information indicating the content of the detected operation of the controller.
(付記2)
前記測定手段は、前記仮想現実での前記体験者から目標までの距離を測定する
ことを特徴とする付記1に記載のシミュレーション装置。
(Additional note 2)
The simulation device according to
(付記3)
前記測定手段は、前記仮想現実での前記体験者の視線の位置を測定する
ことを特徴とする付記1に記載のシミュレーション装置。
(Additional note 3)
The simulation device according to
(付記4)
前記測定手段は、前記体験者の視線の向きを測定する
ことを特徴とする付記1に記載のシミュレーション装置。
(Additional note 4)
The simulation device according to
(付記5)
前記測定手段は、前記コントローラが前記仮想現実内で指している位置を測定する
ことを特徴とする付記1から4のいずれか1項に記載のシミュレーション装置。
(Appendix 5)
5. The simulation device according to any one of
(付記6)
前記検知手段は、前記コントローラが備えたマイクロフォンへの音声入力を検知する
ことを特徴とする付記1から4のいずれか1項に記載のシミュレーション装置。
(Appendix 6)
The simulation device according to any one of
(付記7)
前記検知手段は、前記コントローラが備えたトリガスイッチへの入力操作を検知する
ことを特徴とする付記1に記載のシミュレーション装置。
(Appendix 7)
The simulation device according to
(付記8)
測定した前記体験者の状態、および、検知した前記コントローラの操作の内容に基づいて、前記体験者の動作を評価するための参考指標を導出する評価手段をさらに備え、
前記出力手段は、前記体験者の動作に関する評価の前記参考指標をさらに出力する
ことを特徴とする付記1に記載のシミュレーション装置。
(Appendix 8)
Further comprising an evaluation means for deriving a reference index for evaluating the operation of the user based on the measured state of the user and the detected operation of the controller,
The simulation device according to
(付記9)
シミュレーション装置が、
仮想現実での模擬体験を行っている体験者によるコントローラの操作を検知し、
前記体験者による前記コントローラの操作を検知したとき、前記体験者の状態を測定し、
測定した前記体験者の状態を示す第1の情報とともに、検知した前記コントローラの操作の内容を示す第2の情報を出力する
シミュレーション方法。
(Appendix 9)
The simulation device
Detects controller operations by participants performing a simulated experience in virtual reality,
When detecting the operation of the controller by the experiencer, measuring the state of the experiencer,
A simulation method that outputs first information indicating a measured state of the person experiencing the experience and second information indicating the content of the detected operation of the controller.
(付記10)
仮想現実での模擬体験を行っている体験者によるコントローラの操作を検知することと、
前記体験者による前記コントローラの操作を検知したとき、前記体験者の状態を測定することと、
測定した前記体験者の状態を示す第1の情報とともに、検知した前記コントローラの操作の内容を示す第2の情報を出力することと
をコンピュータに実行させるためのプログラム。
(Appendix 10)
Detecting controller operations by an experiencer performing a simulated experience in virtual reality;
Measuring the state of the experiencer when detecting an operation of the controller by the experiencer;
A program for causing a computer to output first information indicating a measured state of the person experiencing the experience and second information indicating the content of the detected operation of the controller.
(付記11)
前記出力手段は、前記仮想現実での前記体験者による射撃が目標に当たったかどうかを示す第2の情報を出力する
ことを特徴とする付記1から4のいずれか1項に記載のシミュレーション装置。
(Appendix 11)
The simulation device according to any one of
(付記12)
前記測定手段は、前記体験者が装着するゴーグルが備えたセンサにより、前記体験者の状態を測定する
ことを特徴とする付記1に記載のシミュレーション装置。
(Appendix 12)
The simulation device according to
(付記13)
前記検知手段は、仮想現実での模擬体験のためのシミュレーション映像を視認している前記体験者を撮影して得られた撮影映像から、前記体験者の動作および状態の少なくとも一方を検出する
ことを特徴とする付記1に記載のシミュレーション装置。
(Appendix 13)
The detection means detects at least one of a motion and a state of the experience person from a photographed image obtained by photographing the experience person viewing a simulation image for a simulated experience in virtual reality. The simulation device according to
本発明は、例えば、仮想現実での模擬体験を提供するシミュレーション装置に利用することができる。 The present invention can be used, for example, in a simulation device that provides a simulated experience in virtual reality.
1 シミュレーションシステム
10 シミュレーション装置
11 検知部
12 測定部
13 出力部
20 シミュレーション装置
24 評価部
100 コントローラ
200 VRゴーグル
1
Claims (10)
前記体験者による前記コントローラの操作を検知したとき、前記体験者の状態を測定する測定手段と、
測定した前記体験者の状態を示す第1の情報とともに、検知した前記コントローラの操作の内容を示す第2の情報を出力する出力手段と
を備えたシミュレーション装置。 a detection means for detecting an operation of a controller by an experiencer performing a simulated experience in virtual reality;
Measuring means for measuring the state of the experiencer when detecting an operation of the controller by the experiencer;
A simulation device comprising: output means for outputting first information indicating the measured state of the person experiencing the experience and second information indicating the content of the detected operation of the controller.
ことを特徴とする請求項1に記載のシミュレーション装置。 The simulation device according to claim 1, wherein the measuring means measures a distance from the experiencer to the target in the virtual reality.
ことを特徴とする請求項1に記載のシミュレーション装置。 The simulation device according to claim 1, wherein the measuring means measures the position of the user's line of sight in the virtual reality.
ことを特徴とする請求項1に記載のシミュレーション装置。 The simulation device according to claim 1, wherein the measuring means measures the direction of the user's line of sight.
ことを特徴とする請求項1から4のいずれか1項に記載のシミュレーション装置。 The simulation device according to any one of claims 1 to 4, wherein the measuring means measures a position pointed by the controller in the virtual reality.
ことを特徴とする請求項1から4のいずれか1項に記載のシミュレーション装置。 The simulation device according to any one of claims 1 to 4, wherein the detection means detects audio input to a microphone included in the controller.
ことを特徴とする請求項1から4のいずれか1項に記載のシミュレーション装置。 The simulation device according to any one of claims 1 to 4, wherein the detection means detects an input operation to a trigger switch included in the controller.
前記出力手段は、前記体験者の動作に関する評価の前記参考指標をさらに出力する
ことを特徴とする請求項1に記載のシミュレーション装置。 Further comprising an evaluation means for deriving a reference index for evaluating the operation of the user based on the measured state of the user and the detected operation of the controller,
The simulation device according to claim 1, wherein the output means further outputs the reference index for evaluation regarding the movement of the person experiencing the experience.
仮想現実での模擬体験を行っている体験者によるコントローラの操作を検知し、
前記体験者による前記コントローラの操作を検知したとき、前記体験者の状態を測定し、
測定した前記体験者の状態を示す第1の情報とともに、検知した前記コントローラの操作の内容を示す第2の情報を出力する
シミュレーション方法。 The simulation device
Detects controller operations by participants performing a simulated experience in virtual reality,
When detecting the operation of the controller by the experiencer, measuring the state of the experiencer,
A simulation method that outputs first information indicating a measured state of the person experiencing the experience and second information indicating the content of the detected operation of the controller.
前記体験者による前記コントローラの操作を検知したとき、前記体験者の状態を測定することと、
測定した前記体験者の状態を示す第1の情報とともに、検知した前記コントローラの操作の内容を示す第2の情報を出力することと
をコンピュータに実行させるためのプログラム。 Detecting controller operations by an experiencer performing a simulated experience in virtual reality;
Measuring the state of the experiencer when detecting an operation of the controller by the experiencer;
A program for causing a computer to output first information indicating a measured state of the person experiencing the experience and second information indicating the content of the detected operation of the controller.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022072891A JP2023162525A (en) | 2022-04-27 | 2022-04-27 | Simulation device, simulation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022072891A JP2023162525A (en) | 2022-04-27 | 2022-04-27 | Simulation device, simulation method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023162525A true JP2023162525A (en) | 2023-11-09 |
Family
ID=88650960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022072891A Pending JP2023162525A (en) | 2022-04-27 | 2022-04-27 | Simulation device, simulation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023162525A (en) |
-
2022
- 2022-04-27 JP JP2022072891A patent/JP2023162525A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110167421B (en) | System for integrally measuring clinical parameters of visual function | |
KR101501297B1 (en) | Unitary vision and coordination testing center | |
KR102209873B1 (en) | Perception based predictive tracking for head mounted displays | |
JP5610153B2 (en) | Inspection device and inspection method for visual and cooperative actions | |
JP6369811B2 (en) | Gait analysis system and gait analysis program | |
KR20170013271A (en) | Rehabilitation assistance system | |
US10832483B2 (en) | Apparatus and method of monitoring VR sickness prediction model for virtual reality content | |
JPWO2014016987A1 (en) | 3D user interface device and 3D operation method | |
US11089976B2 (en) | Method and apparatus for assisting spasticity and clonus evaluation using inertial sensor | |
KR102259762B1 (en) | Cooperation Training System for Crane using Virtual Reality | |
US20250182412A1 (en) | System and method for augmented reality visualization of benign paroxysmal position vertigo (bppv) disorder | |
WO2011086466A1 (en) | Apparatus and method for detecting and classifying so as to be able to evaluate and self-evaluate exercises | |
US20230172527A1 (en) | Three-dimensional cognitive ability evaluation system | |
JP2016080752A (en) | Medical practice training suitability evaluation device | |
WO2021148880A1 (en) | Systems for dynamic assessment of upper extremity impairments in virtual/augmented reality | |
KR20180080848A (en) | Rehabilitation system and the method for the same which use virtual reality provided by game engine | |
JP2001084375A (en) | Operation verification system and non-contact manipulation system | |
JP2023162525A (en) | Simulation device, simulation method, and program | |
JP2005230068A (en) | Exercise support method and apparatus | |
WO2019021149A1 (en) | Portable virtual reality system for carrying out a subjective visual vertical test | |
JP2019024579A (en) | Rehabilitation support system, rehabilitation support method and program | |
US20140062997A1 (en) | Proportional visual response to a relative motion of a cephalic member of a human subject | |
JP7412265B2 (en) | Operation evaluation system, operation evaluation device, and operation evaluation method | |
CA3127544A1 (en) | Recording medium recorded with cardiopulmonary resuscitation training program, cardiopulmonary resuscitation training method, apparatus, and system | |
US20250148727A1 (en) | Information processing apparatus controlling reproduction of video of virtual object, control method of information processing apparatus, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20250203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250314 |