JP7219862B2 - Communication system, communication method and communication program - Google Patents
Communication system, communication method and communication program Download PDFInfo
- Publication number
- JP7219862B2 JP7219862B2 JP2021093153A JP2021093153A JP7219862B2 JP 7219862 B2 JP7219862 B2 JP 7219862B2 JP 2021093153 A JP2021093153 A JP 2021093153A JP 2021093153 A JP2021093153 A JP 2021093153A JP 7219862 B2 JP7219862 B2 JP 7219862B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- smart device
- image
- unit
- attack power
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 72
- 238000000034 method Methods 0.000 title claims description 25
- 238000001514 detection method Methods 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 13
- 239000011521 glass Substances 0.000 description 82
- 238000012545 processing Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 21
- 238000003860 storage Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 11
- 230000002093 peripheral effect Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、通信システム、通信方法及び通信プログラムに関する。 The present invention relates to a communication system, communication method and communication program.
近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)をユーザに体感させるHMD(Head Mounted Display)などが提案されている。このうち、AR技術を用いたHMDとして、一般的な眼鏡と同様に、ユーザの頭部に装着して使用されるARグラスが提案されている。 In recent years, HMDs (Head Mounted Displays) and the like have been proposed that allow users to experience virtual reality (VR) and augmented reality (AR). Among these, as an HMD using AR technology, AR glasses, which are worn on the user's head and used in the same manner as general eyeglasses, have been proposed.
ARグラスは、ユーザの前方の実空間を撮像し、撮像した実空間の画像を、ARグラスのレンズ部分に相当するディスプレイに表示させる。また、ARグラスは、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。これにより、ARグラスを装着したユーザは、実空間の中に仮想的なコンテンツが重畳されたAR空間を体感することができる。 The AR glasses capture an image of the real space in front of the user, and display the captured image of the real space on a display corresponding to the lens portion of the AR glasses. In addition, AR glasses display virtual content generated by CG on a display by superimposing it on a captured image of the real space. As a result, a user wearing AR glasses can experience an AR space in which virtual content is superimposed on a real space.
ARグラスのディスプレイにRPG(Role-Playing Game)コンテンツを表示させることで、RPGをユーザに体験させるシステムが提案されている。このシステムに対し、リアリティのあるAR体験のユーザへの提供が要望されていた。 A system has been proposed that allows a user to experience an RPG (Role-Playing Game) by displaying RPG (Role-Playing Game) content on an AR glass display. There has been a demand for this system to provide users with a realistic AR experience.
本発明は、上記に鑑みてなされたものであって、リアリティのある仮想空間上の体験をユーザに提供することを可能とする通信システム、通信方法及び通信プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a communication system, a communication method, and a communication program capable of providing a user with a realistic virtual space experience.
上述した課題を解決し、目的を達成するために、本発明の通信システムは、ユーザが使用する表示装置と、ユーザが持つモーションコントローラーと、ユーザが携帯するスマートデバイスと、スマートデバイスと通信を行うサーバとを有し、仮想的なコンテンツを表示装置に表示させてゲーム体験をユーザに提供する通信システムであって、サーバは、ユーザの選択に応じた種別の武器の仮想的なコンテンツをスマートデバイスに設定する第1の設定部と、少なくともスマートデバイスの位置情報と、地図情報と、天候情報とを基に、ユーザの周辺状況を判定する判定部と、ユーザの周辺状況に応じて、ユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する第2の設定部と、を有し、スマートデバイスは、少なくとも該スマートデバイスの位置情報を検出し、検出した位置情報をサーバに送信する位置検出部と、第1の設定部によって設定された武器の仮想的なコンテンツを、第2の設定部によって設定された攻撃力となるように、表示装置に出力させる制御部と、を有することを特徴とする。 In order to solve the above problems and achieve the object, the communication system of the present invention communicates with the display device used by the user, the motion controller held by the user, the smart device carried by the user, and the smart device. and a server for displaying virtual content on a display device to provide a game experience to a user, wherein the server displays the virtual content of a type of weapon according to the user's selection on the smart device. a determination unit that determines the surrounding conditions of the user based on at least location information of the smart device, map information, and weather information; and a second setting unit for setting the attack power of the virtual content of the set weapon, wherein the smart device detects at least location information of the smart device and transmits the detected location information to the server. and a controller for outputting the virtual content of the weapon set by the first setting unit to the display device so as to have the attack power set by the second setting unit. Characterized by
本発明によれば、仮想空間上の体験をユーザに提供することを可能とする。 According to the present invention, it is possible to provide a user with an experience in virtual space.
以下に、本願に係る通信システム、通信方法及び通信プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る通信システム、通信方法及び通信プログラムが限定されるものではない。 Hereinafter, embodiments of a communication system, a communication method, and a communication program according to the present application will be described in detail with reference to the drawings. Note that the communication system, communication method, and communication program according to the present application are not limited by this embodiment.
以下の実施の形態では、実施の形態に係る通信システム、通信方法及び通信プログラムの処理の流れを順に説明し、最後に実施の形態による効果を説明する。 In the following embodiments, a communication system, a communication method, and a processing flow of a communication program according to the embodiments will be described in order, and finally effects of the embodiments will be described.
[実施の形態]
まず、実施の形態について説明する。実施の形態では、所定の地域、具体的には、観光地(例えば、島)を観光するユーザに、ユーザが使用する表示装置として、例えば、仮想的なRPGコンテンツを表示可能であるARグラスを装着させ、観光地を観光しながら、RPGも体験可能とするシステムについて説明する。
[Embodiment]
First, an embodiment will be described. In the embodiment, AR glasses capable of displaying virtual RPG content, for example, are used as the display device used by the user who is sightseeing in a predetermined area, specifically, a sightseeing spot (for example, an island). We will explain a system that allows you to experience RPG while wearing it and sightseeing in tourist spots.
図1は、ARグラスのディスプレイに表示される画像の一例を示す図である。図1に例示するように、実際の島の画像(例えば、森の画像)に、モンスターのコンテンツC1やコインのコンテンツC2を重畳してARグラスに表示させ、ユーザが、モンスターを倒す、コインを集める、ミッションに取り組むなどのゲーム体験を可能としている。また、ARグラスを装着したユーザ間で通信が可能である。実施の形態では、小さな島全体を活用して、ユーザ自身が体を動かし、仲間とコミュニケーションを取りながら、その土地ならではのRPG体験を可能とする。 FIG. 1 is a diagram showing an example of an image displayed on a display of AR glasses. As illustrated in FIG. 1, a monster content C1 and a coin content C2 are superimposed on an image of an actual island (for example, an image of a forest) and displayed on the AR glass, and the user defeats the monster and collects the coin. It enables game experiences such as collecting and working on missions. In addition, communication is possible between users wearing AR glasses. In the embodiment, the entire small island is used to enable the user to have an RPG experience unique to the area while moving their bodies and communicating with their friends.
さらに、実施の形態では、ユーザが手に持つモーションコントローラーを武器に見立て、モーションコントローラーの動きに応じて動く武器のコンテンツをARグラスに表示させることで、ユーザの動きをゲーム世界に反映する。この際、実施の形態では、ユーザの動きに応じて、攻撃力や攻撃の種類が変化するように仮想的なコンテンツをARグラスに表示させるとともに、ユーザの周囲の状況に応じて、武器の攻撃力を変化させることで、リアリティのあるAR体験を提供する。 Furthermore, in the embodiment, the motion controller held by the user is regarded as a weapon, and the user's movement is reflected in the game world by displaying the content of the weapon that moves according to the movement of the motion controller on the AR glasses. At this time, in the embodiment, in accordance with the movement of the user, virtual content is displayed on the AR glasses so that the attack power and the type of attack change, and in accordance with the surrounding conditions of the user, the weapon attack By changing the force, it provides a realistic AR experience.
[通信システムの構成]
実施の形態に係る通信システムの構成を説明する。図2は、実施の形態に係る通信システムの構成を説明する図である。図3は、実施の形態に係る通信システムの構成の一例を示すブロック図である。
[Configuration of communication system]
A configuration of a communication system according to an embodiment will be described. FIG. 2 is a diagram illustrating the configuration of the communication system according to the embodiment. FIG. 3 is a block diagram showing an example of the configuration of the communication system according to the embodiment.
図2及び図3に示すように、実施の形態に係る通信システム1は、ARグラス10(表示装置)、ユーザが手に持つモーションコントローラー20、ユーザが携帯するスマートデバイス30、及び、データセンタ等に配置されるサーバ40を有する。
As shown in FIGS. 2 and 3, the
ARグラス10は、一般的な眼鏡と同様にユーザの頭部に装着される。ARグラス10は、撮像機能、音声入力機能、通信機能、表示機能、音声出力機能を有する。ARグラス10は、実空間を撮像し、撮像した実空間の画像を、ARグラス10のレンズ部分に相当するディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、CGで生成された仮想的なコンテンツを、撮像された実空間の画像に重畳してディスプレイに表示させる。また、ARグラス10は、スマートデバイス30の制御の基、ユーザの周辺状況に応じた仮想的なコンテンツを出力する。
The
モーションコントローラー20は、ユーザが手に持つコントローラである。モーションコントローラー20は、例えば、加速度センサと、加速度センサの検出結果をスマートデバイス30送信する通信機能とを有する。
The
スマートデバイス30は、ユーザが携帯するデバイスであり、例えば、タブレット、スマートフォン等のスマートデバイスであり、位置検出機能、画像認識機能を有する。スマートデバイス30は、ARグラス10の制御を行う。スマートデバイス30は、ネットワークNを介して、サーバ40に接続し、ユーザの位置情報、画像認識結果、気温情報をサーバ40に送信する。スマートデバイス30は、ネットワークNを介して、サーバ40から、ARグラス10が出力する敵キャラクター画像や武器等の仮想的なコンテンツの提供を受ける。
The
スマートデバイス30は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザの手の動きを取得する。スマートデバイス30は、ARグラス10に対する、サーバ40から提供された仮想的なコンテンツの出力を制御する。例えば、スマートデバイス30は、ユーザが手に武器を手に持つように武器の画像コンテンツをARグラス10に表示させ、ユーザが手に持つモーションコントローラー20の動きに応じて動くように武器の画像コンテンツをARグラス10に表示させる。この際、スマートデバイス30は、サーバ40によって設定された攻撃力となるように、ARグラス10に武器の画像コンテンツを出力させる。
The
サーバ40は、地図情報及びAR空間上の仮想的なコンテンツを保持する。サーバ40は、スマートデバイス30に、ARグラス10に出力させる仮想的なコンテンツを送信する。サーバ40は、ユーザの選択に応じた種別の武器の仮想的なコンテンツをユーザに設定する。サーバ40は、スマートデバイス30の位置情報と、地図情報と、天候情報と、スマートデバイス30による画像認識結果、気温情報とを基に、ユーザの周辺状況を判定する。そして、サーバ40は、ユーザの周辺状況に応じてユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する。
The
[ARグラス]
次に、ARグラス10について説明する。図4は、図3に示すARグラス10の構成の一例を示すブロック図である。
[AR glass]
Next, the
図4に示すように、ARグラス10は、撮像部11、音声入力部12(録音部)、通信部13、表示部14及び音声出力部15を有する。
As shown in FIG. 4 , the
撮像部11は、実空間を撮像する。例えば、撮像部11は、撮像部11の撮像方向がARグラス10の前方である場合には、ARグラス10の前方の実空間を撮像する。撮像部11は、CCDやCMOS等の光電変換素子と、撮像素子から出力される光電変換信号を処理して実空間の画像を生成する。撮像部11は、例えば、R(赤)、G(緑)、B(青)の3色の2次元画像を取得する。
The imaging unit 11 images the real space. For example, when the imaging direction of the imaging unit 11 is in front of the
音声入力部12は、音声の入力を受け付け、入力された音声を録音するデバイスによって構成される。 The voice input unit 12 is configured by a device that receives input of voice and records the input voice.
通信部13は、スマートデバイス30との無線通信を行う。通信部13は、撮像部11が撮像した画像及び音声入力部12が録音した音声を、スマートデバイス30に送信する。通信部13は、スマートデバイス30から送信された仮想的なコンテンツを受信する。仮想的なコンテンツは、敵や味方のキャラクター画像、武器の画像、敵や味方等の音声やユーザのアクションに伴う音声のコンテンツである。なお、キャラクター画像は、ゲームキャラクター風の画像に限らず、写真等から作成した画像でもよく、動画も含まれる。
The communication unit 13 performs wireless communication with the
表示部14は、ディスプレイによって構成される。表示部14は、撮像部11が撮像した実空間の画像を表示する。表示部14は、通信部13が受信した仮想的なコンテンツのうち、武器の画像コンテンツを、実空間の画像に重畳して表示する。武器の画像コンテンツは、ユーザが手に持つモーションコントローラーに差し替えて表示する。なお、表示部14は、透過表示可能なディスプレイであって、画像コンテンツを表示してもよい。 The display unit 14 is configured by a display. The display unit 14 displays the image of the real space captured by the imaging unit 11 . The display unit 14 displays the image content of the weapon among the virtual content received by the communication unit 13 by superimposing it on the image of the real space. The image content of the weapon is displayed by replacing it with the motion controller held by the user. Note that the display unit 14 may be a display capable of transmissive display, and may display image content.
音声出力部15は、音声を出力する。音声出力部15は、通信部が受信した仮想的なコンテンツのうち、動物の鳴き声や足音等の音声を出力する。 The audio output unit 15 outputs audio. The audio output unit 15 outputs sounds such as animal barks and footsteps from the virtual content received by the communication unit.
[スマートデバイス]
次に、スマートデバイス30について説明する。図5は、図3に示すスマートデバイス30の構成の一例を示すブロック図である。図5に示すように、スマートデバイス30は、通信部31、記憶部32及び制御部33を有する。
[Smart device]
Next, the
通信部31は、無線または有線にて他の装置との間で通信を行う。通信部31は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部31は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部33(後述)との間の通信を行う。例えば、通信部31は、ARグラス10から画像、音声を受信し、ARグラス10に仮想的なコンテンツを送信する。通信部31は、サーバ40に、位置情報、画像認識結果、気温情報を送信し、サーバ40から仮想的なコンテンツを受信する。
The communication unit 31 performs wireless or wired communication with other devices. The communication unit 31 is a communication interface that transmits and receives various information to and from another device connected via a network or the like. The communication unit 31 is realized by a NIC (Network Interface Card) or the like, and performs communication between another device and the control unit 33 (described later) via an electric communication line such as a LAN (Local Area Network) or the Internet. For example, the communication unit 31 receives images and sounds from the
記憶部32は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部32は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部32は、スマートデバイス30で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部32は、プログラムの実行で用いられる各種情報を記憶する。記憶部32は、ARグラス10から送信された画像データ321と、サーバ40から送信された敵や武器等の仮想的なコンテンツを含むコンテンツ情報322とを記憶する。
The storage unit 32 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like. Note that the storage unit 32 may be a rewritable semiconductor memory such as a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 32 stores an OS (Operating System) and various programs executed by the
制御部33は、スマートデバイス30全体を制御する。制御部33は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部33は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部33は、各種のプログラムが動作することにより各種の処理部として機能する。制御部33は、位置検出部331、画像認識部332、温度検出部333、動き検出部334、ARグラス制御部335(制御部)を有する。
The control unit 33 controls the
位置検出部331は、スマートデバイス30の位置を検出する。位置検出部331は、例えば、GPS(Global Positioning System)等によりスマートデバイス30の位置情報が取得可能である。位置検出部331は、定期的に、スマートデバイス30の位置を取得して、緯度及び経度で表した位置情報を、通信部31を介して、サーバ40に送信する。
The position detection unit 331 detects the position of the
画像認識部332は、ARグラス10が撮像した画像を処理し、画像に映るオブジェクトなどの画像の特徴を認識する。画像認識部332は、ARグラス10が撮像した画像の中に映る、動物、植物、風景、建物を認識する。画像認識部332は、例えば、機械学習によって、所定の地域、具体的には、ユーザが観光中の観光地に特有の動物、植物、風景、建物等の画像の特徴を学習済みである画像認識モデルを用いて、ARグラス10が撮像した画像の特徴を認識する。画像認識部332は、ARグラス10が撮像した画像から、ユーザがいる場所の明るさを認識する。画像認識部332は、前後の画像を比べて、画像に所定以上の変化があった場合に、動物、植物、風景、建物を認識する処理を行ってもよい。画像認識部332は、画像認識処理結果を、通信部31を介してサーバ40に送信する。
The image recognition unit 332 processes the image captured by the
なお、画像認識機能は、サーバ40が有してもよい。その際には、スマートデバイス30は、ARグラス10が撮像した画像をサーバ40に送信する。
Note that the
温度検出部333は、スマートデバイス30が位置する箇所の気温を検出し、検出した気温情報を、通信部31を介してサーバ40に送信する。
The temperature detection unit 333 detects the temperature of the location where the
動き検出部334は、モーションコントローラー20から送信された加速度センサの検出結果を基に、ユーザのアクション、具体的には、ユーザの手の動きを取得する。
The motion detection unit 334 acquires the user's action, specifically, the motion of the user's hand, based on the detection result of the acceleration sensor transmitted from the
ARグラス制御部335は、ARグラス10の処理を制御する。例えば、ARグラス制御部335は、ARグラス10のレンズ部のディスプレイへの画像表示処理やARグラス10による音声出力処理を制御する。ARグラス制御部335は、RPG体験において、ユーザが選択した武器や装備等の選択情報を、通信部31を介して、サーバ40に送信する。ARグラス制御部335は、コンテンツ取得部336と、コンテンツ合成部337とを有する。
The AR glasses control unit 335 controls the processing of the
コンテンツ取得部336は、サーバ40から送信された、仮想的なコンテンツを取得する。この仮想的なコンテンツは、実空間の画像に重畳するための敵や味方のキャラクター画像、武器画像のコンテンツ、或いは、敵や味方等の音声やユーザのアクションに伴う音声のコンテンツである。ARグラス制御部335は、コンテンツ取得部336が取得したコンテンツが音声である場合、敵や味方のキャラクター画像の動きやユーザのアクションに合わせて、ARグラス10の音声出力部15から音声を出力させる。
The
コンテンツ合成部337は、コンテンツ取得部336が取得したコンテンツが、実空間の画像に重畳してのキャラクター画像である場合、キャラクター画像と実空間の画像との合成処理を行う。コンテンツ合成部337による合成処理後、ARグラス制御部335は、ARグラス10の表示部14に、実空間の画像にキャラクター画像を重畳させた画像を表示させる。キャラクター画像の重畳位置は、例えば、予め設定されている。或いは、キャラクター画像の重畳位置は、サーバ40による指示によって設定される。
When the content acquired by the
ARグラス制御部335は、コンテンツ合成部337の合成処理を制御し、ユーザが持つモーションコントローラー20が武器と見えるように、武器画像のコンテンツをARグラス10に表示させる。そして、ARグラス制御部335は、モーションコントローラー20の動きに応じて武器が動くように、武器画像のコンテンツをARグラス10に表示させる。ARグラス制御部335は、ユーザの動きに応じて、攻撃力や攻撃の種類が変化するように仮想的なコンテンツをARグラス10に表示させる。
The AR glasses control unit 335 controls the synthesis processing of the
その際、ARグラス制御部335は、ユーザのアクションを演出する仮想的なコンテンツをARグラス10に表示させる。例えば、ARグラス制御部335は、剣で敵と戦っている際には、剣がぶつかったときに火花が出るような画像コンテンツをARグラス10に表示させる。ARグラス制御部335は、剣で敵と戦っている際には、剣が敵にぶつかったような音声をARグラス10に出力させる。
At that time, the AR glasses control unit 335 causes the
そして、ARグラス制御部335は、ユーザの周囲の状況に応じて武器の攻撃力を変化させることで、リアリティのあるAR体験を提供する。すなわち、ARグラス制御部335は、武器の仮想的なコンテンツを、攻撃力設定部433(後述)によって設定された攻撃力となるように、ARグラス10に出力させる。
The AR glasses control unit 335 provides a realistic AR experience by changing the attack power of the weapon according to the user's surroundings. That is, the AR glasses control unit 335 causes the
[サーバ]
次に、サーバ40について説明する。図6は、図3に示すサーバ40の構成の一例を示すブロック図である。図6に示すように、サーバ40は、通信部41、記憶部42及び制御部43を有する。
[server]
Next, the
通信部41は、無線または有線にて他の装置との間で通信を行う。通信部41は、ネットワーク等を介して接続された他の装置との間で、各種情報を送受信する通信インタフェースである。通信部41は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した他の装置と制御部43後述)との間の通信を行う。例えば、通信部41は、スマートデバイス30から位置情報、画像認識結果、音声認識結果を受信し、スマートデバイス30に仮想的なコンテンツを送信する。
The communication unit 41 performs wireless or wired communication with other devices. The communication unit 41 is a communication interface that transmits and receives various information to and from another device connected via a network or the like. The communication unit 41 is realized by a NIC (Network Interface Card) or the like, and performs communication between another device and the control unit 43 (described later) via an electric communication line such as a LAN (Local Area Network) or the Internet. For example, the communication unit 41 receives location information, image recognition results, and voice recognition results from the
記憶部42は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部42は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部42は、サーバ40で実行されるOS(Operating System)や各種プログラムを記憶する。記憶部42は、プログラムの実行で用いられる各種情報を記憶する。記憶部42は、地図情報421と、各種仮想的なコンテンツを含むコンテンツ情報422と、基準情報423とを記憶する。
The storage unit 42 is a storage device such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like. Note that the storage unit 42 may be a rewritable semiconductor memory such as a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 42 stores an OS (Operating System) and various programs executed by the
地図情報421は、ユーザが観光する島等の観光地の森、川、山、平野、名所等を含む地図である。地図情報421は、等高線で土地の高低が示される。地図情報421は、ぬかるみやすい場所が記載されたものでもよいし、山道であるか舗装された道であるかを区別して道を表示したものでもよい。 The map information 421 is a map including forests, rivers, mountains, plains, famous places, etc. of sightseeing spots such as islands that the user visits. The map information 421 indicates the elevation of the land by contour lines. The map information 421 may describe places that tend to be muddy, or may display roads by distinguishing between mountain roads and paved roads.
各種仮想的なコンテンツは、敵や味方のキャラクター画像、武器の画像、敵や味方等の音声、或いは、ユーザのアクションに伴う音声のコンテンツである。武器の画像コンテンツ及びユーザのアクションに伴う音声のコンテンツは、攻撃力の各度合いに合わせてそれぞれ設定される。これらのコンテンツは、所定の地域、例えば、観光地や名所等の各所定箇所に対応づけて予め作成された、観光地の各所定箇所に特有のコンテンツであってもよい。例えば、名所であれば、この名所のシンボルキャラクターの画像が、敵または味方のコンテンツとして設定されていてもよい。コンテンツ情報422は、例えば、キャラクター画像の表示位置や大きさ等の設定情報である各種コンテンツの設定条件を含む。 Various types of virtual content are character images of enemies and allies, images of weapons, voices of enemies and allies, or voices accompanying actions of the user. The image content of the weapon and the audio content accompanying the user's action are set according to each degree of offensive power. These contents may be contents peculiar to each predetermined place of a tourist spot, which are created in advance in association with each predetermined place such as a predetermined area, for example, a sightseeing spot or a famous place. For example, in the case of a famous place, the image of the symbol character of this famous place may be set as the enemy or ally content. The content information 422 includes, for example, setting conditions for various types of content, which are setting information such as the display position and size of character images.
基準情報423は、周辺状況判定部432(後述)における判定において、基準とする状況を示す情報を含む。基準情報423は、基準となる攻撃力である基準攻撃力を示す情報を含む。基準状況は、例えば、乾いた道、傾斜がない、曇天程度の明るさ、気温が平均気温であり、雨が降っていない状況である。また、基準攻撃力は、例えば、レベルが「1」~「3」である場合、レベル「2」である。 The reference information 423 includes information indicating a reference situation in determination by the surrounding situation determination unit 432 (described later). The reference information 423 includes information indicating the reference attack power, which is the reference attack power. The reference conditions are, for example, a dry road, no slope, cloudy light, average temperature, and no rain. Also, the reference attack power is level "2" when the level is "1" to "3", for example.
制御部43は、サーバ40全体を制御する。制御部43は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部43は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部43は、各種のプログラムが動作することにより各種の処理部として機能する。制御部43は、武器コンテンツ設定部431(第1の設定部)、周辺状況判定部432(判定部)及び攻撃力設定部433(第2の設定部)を有する。
The
武器コンテンツ設定部431は、スマートデバイス30からユーザによる武器の選択情報を取得すると、このユーザの選択に応じた種別の武器の仮想的なコンテンツをユーザのスマートデバイス30に設定する。
When the weapon content setting unit 431 acquires the user's weapon selection information from the
武器コンテンツ設定部431は、攻撃力の各度合いに合わせてそれぞれ設定された武器の画像コンテンツをスマートデバイス30に設定する。武器コンテンツ設定部431は、ユーザによって選択された武器の画像コンテンツと武器使用時の演出用のコンテンツとをスマートデバイス30に送信する。この武器の画像コンテンツは、ユーザの動きによって、攻撃力や攻撃の種類を変化させるよう、設定されている。また、この武器の画像コンテンツは、攻撃力に応じて、例えば、攻撃力のレベルごとに、各コンテンツが設定されている。例えば、攻撃力のレベルが「3」である場合には金色の剣の画像であり、攻撃力のレベルが「2」である場合には金属の剣の画像であり、攻撃力のレベルが「1」である場合には、さびて欠けのある剣の画像である。
The weapon content setting unit 431 sets, in the
周辺状況判定部432は、少なくともスマートデバイス30の位置情報と、地図情報421と、天候情報とを基に、ユーザの周辺状況を判定する。周辺状況判定部432は、さらに、スマートデバイス30の画像認識部332による画像認識結果、または、画像認識結果及び温度検出部333によって検出された気温情報を用いて、より的確にユーザの周辺状況を判定してもよい。周辺状況判定部432は、ユーザの周辺状況が基準となる状況よりも良いか、または、悪いかを判定する。
The peripheral situation determination unit 432 determines the user's peripheral situation based on at least the location information of the
例えば、基準となる状況を、乾いた道、傾斜がない、曇天程度の明るさ、気温が平均気温であり、雨が降っていない状況とする。そして、周辺状況判定部432は、次の場合には、ユーザの周辺状況が基準となる状況よりも悪いと判定する。具体的には、ユーザがいる場所が、地図情報421、天候情報及び画像認識結果に基づいて、ぬかるんでいて状況が悪い道であると周辺状況判定部432が判定した場合である。或いは、ユーザがいる場所が、地図情報421の等高線に基づいて、傾斜している場所であると周辺状況判定部432が判定した場合である。或いは、ユーザがいる場所が、画像認識結果に基づいて、見通しが悪く、暗く、気温情報に基づいて、平均気温よりも気温が低いと周辺状況判定部432が判定した場合である。或いは、天候情報及び画像認識結果に基づいて、雨が降っていると周辺状況判定部432が判定した場合である。 For example, the reference conditions are a dry road, no slopes, cloudy weather, average temperature, and no rain. In the following cases, the peripheral situation determination unit 432 determines that the user's peripheral situation is worse than the reference situation. Specifically, this is the case where the surrounding situation determination unit 432 determines that the location where the user is located is a muddy and bad road based on the map information 421, weather information, and image recognition results. Alternatively, the surrounding situation determination unit 432 determines that the location where the user is located is a sloped location based on the contour lines of the map information 421 . Alternatively, the surrounding situation determination unit 432 determines that the location where the user is located has poor visibility and is dark based on the image recognition result, and the temperature is lower than the average temperature based on the temperature information. Alternatively, it is the case where the surrounding situation determination unit 432 determines that it is raining based on the weather information and the image recognition result.
また、周辺状況判定部432は、次の場合には、ユーザの周辺状況が基準となる状況よりも良いと判定する。例えば、ユーザがいる場所が、地図情報421、天候情報及び画像認識結果に基づいて、舗装道路であると周辺状況判定部432が判定した場合である。或いは、地図情報421の等高線に基づいて、平坦な場所であると周辺状況判定部432が判定した場合である。或いは、画像認識結果に基づいて、見通しがよく、明るく、気温情報に基づいて、平均気温の気温であると周辺状況判定部432が判定した場合や、天候情報及び画像認識結果から晴れていると周辺状況判定部432が判定した場合である。 In addition, the peripheral situation determination unit 432 determines that the user's peripheral situation is better than the reference situation in the following cases. For example, this is the case where the surrounding situation determination unit 432 determines that the location where the user is located is a paved road based on the map information 421, weather information, and image recognition results. Alternatively, it is a case where the surrounding situation determination unit 432 determines that the place is flat based on the contour lines of the map information 421 . Alternatively, based on the image recognition result, the surrounding situation determination unit 432 determines that the visibility is good, it is bright, and the temperature is the average temperature based on the temperature information, or the weather information and the image recognition result indicate that it is sunny. This is the case when the surrounding situation determination unit 432 determines.
攻撃力設定部433は、ユーザの周辺状況に応じて、ユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する。攻撃力設定部433は、ユーザの周辺状況が基準となる状況よりも悪い場合、ユーザに設定した武器の攻撃力を、基準の攻撃力よりも低く設定する。また、攻撃力設定部433は、ユーザの周辺状況が基準となる状況よりも良い場合、ユーザに設定した武器の攻撃力を、基準の攻撃力よりも高く設定する。 The attack power setting unit 433 sets the attack power of the virtual content of the weapon set for the user according to the surrounding situation of the user. The attack power setting unit 433 sets the attack power of the weapon set for the user lower than the reference attack power when the surrounding situation of the user is worse than the reference situation. Also, if the user's peripheral situation is better than the reference situation, the attack power setting unit 433 sets the attack power of the weapon set for the user higher than the reference attack power.
[ユーザによる武器設定例]
図7は、ユーザによる武器の設定例を説明する図である。例えば、ユーザU1が、武器として、剣と盾を選択した場合には、サーバ40は、ユーザU1が選択した剣と盾の画像コンテンツをユーザU1のスマートデバイス30に送信する。また、サーバ40は、他の装備のコンテンツもユーザU1の選択に応じて、ユーザU1のスマートデバイス30に送信する。なお、剣と盾を選択する際には、二つのモーションセンサー20をユーザが有する。或いは、一つのモーションセンサー20をユーザが有する場合には、一つのモーションセンサー20の動きを、所定の設定で剣と盾とに使い分けてもよい。或いは、一つのモーションセンサー20をユーザが有する場合には、剣と盾のいずれかは、モーションセンサー20とは連動しない構成でもよい。
[Weapon setting example by user]
FIG. 7 is a diagram illustrating an example of weapon setting by the user. For example, when the user U1 selects a sword and shield as weapons, the
スマートデバイス30は、図7の例では、ユーザU1が、右手に剣を持ち、左手に盾を持つように、剣と盾の画像コンテンツをARグラス10に表示させる。そして、ユーザU1が縦に右手を振ると、スマートデバイス30は、モンスター等のキャラクターを縦に切るアクション画像をARグラス10に表示させる。この時、ユーザU1が素早く剣を振った際には、スマートデバイス30は、剣の攻撃力を高くし、さらに、演出として、火花や、きらきらとした光が出るような演出用の画像コンテンツをARグラス10に表示させる。また、ユーザU1が横に右手を振ると、スマートデバイス30は、モンスター等のキャラクターを薙ぎ払うアクション画像をARグラス10に表示させる。
In the example of FIG. 7, the
そして、通信システム1は、ユーザU1の周辺状況に応じて武器の攻撃力を変更する。図8及び図9は、ユーザの周辺状況の一例を説明する図である。図8に示すように、ユーザU1が、暗く、ぬかるんでいる森の中の道にいる場合、通信システム1は、ユーザの周辺状況が基準となる状況よりも悪いと判定する。そして、通信システム1では、ユーザU1が選択した剣の攻撃力を、周辺状況の悪化度合いに応じて、基準攻撃力(例えば、レベル「2」)より低い、レベル「1」とする。これによって、ユーザU1のARグラス10には、ユーザU1の手に握られるように、レベル「1」の攻撃力しかない剣の画像コンテンツC11が表示される。
Then, the
また、図9に示すように、ユーザU1が、晴天下で見晴らしのよい舗装道路にいる場合、通信システム1は、ユーザの周辺状況が基準となる状況よりも良いと判定する。そして、通信システム1では、ユーザU1が選択した剣の攻撃力を、周辺状況に応じて、基準攻撃力より高い、レベル「3」とする。これによって、ユーザU1のARグラス10には、ユーザU1の手に握られるように、レベル「3」の金色の剣の画像コンテンツC12が表示される。
Also, as shown in FIG. 9, when the user U1 is on a paved road with a good view under fine weather, the
このように、通信システム1は、ユーザの実際の周辺状況に応じて、ユーザがAR空間上で持つ武器の攻撃力を変える。
In this way, the
[通信処理の処理手順]
図10は、実施の形態に係る通信処理の処理手順を示すシーケンス図である。
[Processing procedure of communication processing]
FIG. 10 is a sequence diagram illustrating a processing procedure of communication processing according to the embodiment.
図10に示すように、ユーザによるスマートデバイス30の操作によって、ユーザによる武器の選択が行われると(ステップS1)、スマートデバイス30は、ユーザによって選択された武器を示す武器情報をサーバ40に送信する(ステップS2)。これに応じて、サーバ40は、このユーザの選択に応じた種別の武器の仮想的なコンテンツをユーザのスマートデバイス30に設定し(ステップS3)、この武器の仮想的なコンテンツをスマートデバイス30に送信する(ステップS4)。
As shown in FIG. 10, when the user selects a weapon by operating the smart device 30 (step S1), the
スマートデバイス30は、スマートデバイス30の位置を検出する度に(ステップS5)、サーバ40に位置情報を送信する(ステップS6)。そして、スマートデバイス30は、ARグラス10から画像が送信されると(ステップS7)、その画像に対する画像認識処理を実行し(ステップS8)、画像認識結果をサーバ40に送信する(ステップS9)。スマートデバイス30は、気温を検出し(ステップS10)、検出した気温を示す気温情報をサーバ40に送信する(ステップS11)。
Each time the
サーバ40は、さらに、天候情報を参照する(ステップS12)。サーバ40は、ユーザの周辺状況を判定する(ステップS13)。サーバ40は、判定のために、少なくとも、スマートデバイス30の位置情報と、地図情報421と、天候情報とを用いる。サーバ40は、さらに、スマートデバイス30の画像認識部332による画像認識結果、または、画像認識結果及び温度検出部333によって検出された気温情報を用いてもよい。サーバ40は、ユーザの周辺状況に応じて、ユーザに設定した武器の仮想的なコンテンツの攻撃力を設定する(ステップS14)。サーバ40は、設定した攻撃力を示す情報をスマートデバイス30に送信する(ステップS15)。
モーションコントローラー20は、加速度センサを用いて加速度を検出し(ステップS16)、検出した加速度情報をスマートデバイス30送信する(ステップS17)。スマートデバイス30は、モーションコントローラー20から送信された加速度情報を基に、ユーザの手の動きを検出する(ステップS18)。
The
スマートデバイス30は、送信された武器の画像コンテンツを、サーバ40によって設定された攻撃力となるように、動き検出処理(ステップS18)で検出した動きに応じて、実空間の画像と合成するコンテンツ合成処理を行う(ステップS19)。そして、スマートデバイス30は、ARグラス10に、コンテンツの出力を指示し(ステップS20)、AR空間上の仮想的なコンテンツ(例えば、敵、味方、武器の画像コンテンツ、演出用のコンテンツ、音声コンテンツ)をARグラス10から出力させる(ステップS21)。
The
[実施の形態の効果]
このように、本実施の形態では、ユーザの実際の周辺状況に応じて、ユーザがAR空間上で持つ武器の攻撃力を変えることで、実環境で実際に敵に戦っているような、よりリアリティのある仮想空間上のAR体験をユーザに提供することができる。
[Effects of Embodiment]
As described above, in the present embodiment, by changing the attack power of the weapon held by the user in the AR space according to the actual surrounding situation of the user, it is possible to make the game more realistic as if the user were actually fighting an enemy in the real environment. A user can be provided with a realistic AR experience in a virtual space.
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPU及び当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device is realized by a CPU or GPU and a program analyzed and executed by the CPU or GPU, or as hardware by wired logic can be realized.
また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in this embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be done automatically by known methods. In addition, information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.
[プログラム]
また、上記実施形態において説明したARグラス10、スマートデバイス30及びサーバ40及びが実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態におけるARグラス10、スマートデバイス30及びサーバ40が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
[program]
It is also possible to create a program in which the processes executed by the
図11は、プログラムを実行するコンピュータを示す図である。図11に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
FIG. 11 is a diagram showing a computer executing a program. As illustrated in FIG. 11,
メモリ1010は、図11に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図11に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
The
ここで、図11に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。
Here, as illustrated in FIG. 11, the hard disk drive 1090 stores an
また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。
Various data described in the above embodiments are stored as program data in the
なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
Note that the
上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above-described embodiments and modifications thereof are included in the scope of the invention described in the claims and their equivalents, as well as in the technology disclosed in the present application.
1 通信システム
10 ARグラス
11 撮像部
12 音声入力部
13,31,41 通信部
14 表示部
15 音声出力部
20 モーションコントローラー
30 スマートデバイス
32,42 記憶部
33,43 制御部
40 サーバ
321 画像データ
322,422 コンテンツ情報
331 位置検出部
332 画像認識部
333 温度検出部
334 動き検出部
335 ARグラス制御部
336 コンテンツ取得部
337 コンテンツ合成部
421 地図情報
431 武器コンテンツ設定部
432 周辺状況判定部
433 攻撃力設定部
1
Claims (4)
前記表示装置は、
実空間の画像を撮像する撮像部と、
前記スマートデバイスとの間で通信を行い、前記実空間の画像を前記スマートデバイスに送信する通信部と、
前記実空間の画像に仮想的なコンテンツを重畳して表示する表示部と、
を有し、
前記サーバは、
前記ユーザの選択に応じた種別の武器の仮想的なコンテンツを前記スマートデバイスに設定する第1の設定部と、
少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報とを基に、前記ユーザの周辺状況を判定する判定部と、
前記ユーザの周辺状況に応じて、前記ユーザに設定した前記武器の仮想的なコンテンツの攻撃力を設定する第2の設定部と、
を有し、
前記スマートデバイスは、
少なくとも該スマートデバイスの位置情報を検出し、検出した位置情報を前記サーバに送信する位置検出部と、
前記第1の設定部によって設定された前記武器の仮想的なコンテンツを、前記第2の設定部によって設定された攻撃力となるように、前記表示装置に出力させる制御部と、
を有し、
当該通信システムは、
前記実空間の画像の特徴を認識する画像認識部、
を有し、
前記判定部は、前記スマートデバイスの位置情報と、地図情報と、天候情報と、前記画像認識部による画像認識結果とを基に、前記ユーザの周辺状況を判定し、
前記判定部は、前記ユーザが、暗く、ぬかるんでいる森の中の道にいる場合、前記ユーザの周辺状況が基準となる状況よりも悪いと判定し、前記ユーザに設定した武器の攻撃力を、基準の攻撃力よりも低く設定し、
前記判定部は、前記ユーザが、晴天下で見晴らしのよい舗装道路にいる場合、前記ユーザの周辺状況が前記基準となる状況よりも良いと判定し、前記ユーザに設定した武器の攻撃力を、前記基準の攻撃力よりも高く設定する
ことを特徴とする通信システム。 A spectacles-type display device worn by a user who is sightseeing in a predetermined area, a motion controller held by the user, a smart device carried by the user, and a server communicating with the smart device, wherein virtual content is provided. is displayed on the display device to provide the user with a game experience,
The display device
an imaging unit that captures an image of a real space;
a communication unit that communicates with the smart device and transmits an image of the real space to the smart device;
a display unit that superimposes and displays virtual content on the image of the real space;
has
The server is
a first setting unit that sets virtual content of a type of weapon selected by the user in the smart device;
a determination unit that determines a surrounding situation of the user based on at least location information of the smart device, map information, and weather information;
a second setting unit that sets the offensive power of the virtual content of the weapon set for the user according to the surrounding situation of the user;
has
The smart device is
a location detection unit that detects at least location information of the smart device and transmits the detected location information to the server;
a control unit that causes the display device to output the virtual content of the weapon set by the first setting unit so as to have the attack power set by the second setting unit;
has
The communication system shall:
an image recognition unit that recognizes features of the image in the real space;
has
The determination unit determines the surrounding situation of the user based on location information of the smart device, map information, weather information, and an image recognition result of the image recognition unit,
When the user is on a road in a dark and muddy forest, the determination unit determines that the surrounding situation of the user is worse than a reference situation, and reduces the attack power of the weapon set for the user. , set lower than the standard attack power,
When the user is on a paved road with a good view under fine weather, the determination unit determines that the surrounding situation of the user is better than the reference situation, and sets the attack power of the weapon set for the user to Set higher than the standard attack power
A communication system characterized by:
前記スマートデバイスが位置する箇所の気温を検出し、検出した気温情報を前記サーバに送信する温度検出部
を有し、
前記判定部は、少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報と、前記気温情報とを基に、前記ユーザの周辺状況を判定することを特徴とする請求項1に記載の通信システム。 The smart device is
a temperature detection unit that detects the temperature of a location where the smart device is located and transmits the detected temperature information to the server;
2. The communication according to claim 1 , wherein the judgment unit judges the surrounding situation of the user based on at least location information of the smart device, map information, weather information, and the temperature information. system.
前記表示装置が、実空間の画像を撮像する工程と、
前記表示装置が、前記スマートデバイスとの間で通信を行い、前記実空間の画像を前記スマートデバイスに送信する工程と、
前記表示装置が、前記実空間の画像に仮想的なコンテンツを重畳して表示する工程と、
前記サーバが、前記ユーザの選択に応じた種別の武器の仮想的なコンテンツを前記スマートデバイスに設定する第1の設定工程と、
前記サーバが、少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報とを基に、前記ユーザの周辺状況を判定する工程と、
前記サーバが、前記ユーザの周辺状況に応じて、前記ユーザに設定した前記武器の仮想的なコンテンツの攻撃力を設定する第2の設定工程と、
前記スマートデバイスが、少なくとも該スマートデバイスの位置情報を検出し、検出した位置情報を前記サーバに送信する工程と、
前記スマートデバイスが、前記第1の設定工程において設定された前記武器の仮想的なコンテンツを、前記第2の設定工程において設定された攻撃力となるように、前記表示装置に出力させる工程と、
当該通信システムが、前記実空間の画像の特徴を認識する工程と、
を含み、
前記判定する工程は、前記スマートデバイスの位置情報と、地図情報と、天候情報と、前記認識する工程における画像認識結果とを基に、前記ユーザの周辺状況を判定し、
前記判定する工程は、前記ユーザが、暗く、ぬかるんでいる森の中の道にいる場合、前記ユーザの周辺状況が基準となる状況よりも悪いと判定し、前記ユーザに設定した武器の攻撃力を、基準の攻撃力よりも低く設定し、
前記判定する工程は、前記ユーザが、晴天下で見晴らしのよい舗装道路にいる場合、前記ユーザの周辺状況が前記基準となる状況よりも良いと判定し、前記ユーザに設定した武器の攻撃力を、前記基準の攻撃力よりも高く設定することを特徴とする通信方法。 A communication method executed by a communication system having a spectacle-type user-used display device worn by a user who is sightseeing in a predetermined area, a smart device carried by the user, and a server that communicates with the smart device. ,
a step in which the display device captures an image of a real space;
a step of the display device communicating with the smart device and transmitting an image of the real space to the smart device;
a step in which the display device superimposes and displays virtual content on the image of the real space;
a first setting step in which the server sets virtual content of a type of weapon selected by the user in the smart device;
a step in which the server determines a surrounding situation of the user based on at least location information of the smart device, map information, and weather information;
a second setting step in which the server sets the attack power of the virtual content of the weapon set for the user according to the surrounding circumstances of the user;
the smart device detecting at least location information of the smart device and transmitting the detected location information to the server;
a step of causing the smart device to output the virtual content of the weapon set in the first setting step to the display device so as to have the attack power set in the second setting step;
the communication system recognizing features of the real space image;
including
the determining step determines the user's surroundings based on location information of the smart device, map information, weather information, and an image recognition result in the recognizing step;
In the determining step, when the user is on a road in a dark and muddy forest, it is determined that the surrounding situation of the user is worse than a reference situation, and the attack power of the weapon set for the user is determined. is set lower than the standard attack power,
In the step of determining, when the user is on a paved road with a fine view under fine weather, it is determined that the surrounding situation of the user is better than the reference situation, and the offensive power of the weapon set for the user is reduced. , a communication method characterized in that the attack power is set higher than the reference attack power .
所定の地域を観光するユーザが装着する眼鏡型の表示装置としてのコンピュータに、
実空間の画像を撮像するステップと、
スマートデバイスとの間で通信を行い、前記実空間の画像を前記スマートデバイスに送信するステップと、
前記実空間の画像に仮想的なコンテンツを重畳して表示するステップと、
サーバとしてのコンピュータに、
ユーザの選択に応じた種別の武器の仮想的なコンテンツを、ユーザが携帯するスマートデバイスに設定する第1の設定ステップと、
少なくとも前記スマートデバイスの位置情報と、地図情報と、天候情報とを基に、前記ユーザの周辺状況を判定するステップと、
前記ユーザの周辺状況に応じて、前記ユーザに設定した前記武器の仮想的なコンテンツの攻撃力を設定する第2の設定ステップと、
前記実空間の画像の特徴を認識するステップと、
を実行させ、
前記スマートデバイスとしてのコンピュータに、
少なくとも前記スマートデバイスの位置情報を検出し、検出した位置情報を前記サーバに送信するステップと、
前前記第1の設定ステップにおいて設定された前記武器の仮想的なコンテンツを、前記第2の設定ステップにおいて設定された攻撃力となるように、ユーザが使用する表示装置に出力させるステップと、
を実行させ、
前記判定するステップは、前記スマートデバイスの位置情報と、地図情報と、天候情報と、前記認識するステップにおける画像認識結果とを基に、前記ユーザの周辺状況を判定し、
前記判定するステップは、前記ユーザが、暗く、ぬかるんでいる森の中の道にいる場合、前記ユーザの周辺状況が基準となる状況よりも悪いと判定し、前記ユーザに設定した武器の攻撃力を、基準の攻撃力よりも低く設定し、
前記判定するステップは、前記ユーザが、晴天下で見晴らしのよい舗装道路にいる場合、前記ユーザの周辺状況が前記基準となる状況よりも良いと判定し、前記ユーザに設定した武器の攻撃力を、前記基準の攻撃力よりも高く設定することを特徴とする通信プログラム。 A communication program that causes a computer to perform the method, comprising:
A computer as a spectacle-type display device worn by a user who is sightseeing in a predetermined area,
capturing an image of real space;
communicating with a smart device and transmitting the image of the real space to the smart device;
a step of superimposing and displaying virtual content on the image of the real space;
computer as a server,
a first setting step of setting, in a smart device carried by the user, virtual content of the type of weapon selected by the user;
determining the surrounding situation of the user based on at least location information of the smart device, map information, and weather information;
a second setting step of setting the attack power of the virtual content of the weapon set for the user according to the user's surroundings;
recognizing features of the real space image;
and
a computer as the smart device;
detecting location information of at least the smart device and transmitting the detected location information to the server;
a step of outputting the virtual content of the weapon set in the first setting step to a display device used by a user so as to have the attack power set in the second setting step;
and
the determining step determines the surrounding situation of the user based on location information of the smart device, map information, weather information, and an image recognition result in the recognizing step;
In the determining step, when the user is on a road in a dark and muddy forest, it is determined that the surrounding situation of the user is worse than a reference situation, and the attack power of the weapon set for the user is determined. is set lower than the standard attack power,
In the determining step, if the user is on a paved road with a good view under fine weather, it is determined that the surrounding situation of the user is better than the reference situation, and the attack power of the weapon set for the user is reduced. , a communication program characterized in that the attack power is set higher than the standard attack power .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021093153A JP7219862B2 (en) | 2021-06-02 | 2021-06-02 | Communication system, communication method and communication program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021093153A JP7219862B2 (en) | 2021-06-02 | 2021-06-02 | Communication system, communication method and communication program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022185453A JP2022185453A (en) | 2022-12-14 |
JP7219862B2 true JP7219862B2 (en) | 2023-02-09 |
Family
ID=84438878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021093153A Active JP7219862B2 (en) | 2021-06-02 | 2021-06-02 | Communication system, communication method and communication program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7219862B2 (en) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003190631A (en) | 2001-12-28 | 2003-07-08 | Konami Computer Entertainment Yokyo Inc | Game device and program |
JP2007050154A (en) | 2005-08-19 | 2007-03-01 | Aruze Corp | Game program and game system |
JP2013178639A (en) | 2012-02-28 | 2013-09-09 | Seiko Epson Corp | Head mounted display device and image display system |
JP2015073746A (en) | 2013-10-09 | 2015-04-20 | 株式会社スクウェア・エニックス・ホールディングス | Video game processing server and video game processing system |
JP2016026361A (en) | 2009-07-22 | 2016-02-12 | イマージョン コーポレーションImmersion Corporation | System and method for providing complex haptic stimulation during input of control gestures, and relating to control of virtual equipment |
JP5909301B1 (en) | 2015-07-24 | 2016-04-26 | 株式会社コロプラ | GAME METHOD, GAME PROGRAM, GAME TERMINAL, AND GAME SYSTEM USING MAP DATA |
JP2017104344A (en) | 2015-12-10 | 2017-06-15 | 株式会社コロプラ | Game program |
JP2017147001A (en) | 2011-05-06 | 2017-08-24 | マジック リープ, インコーポレイテッド | Massive simultaneous remote digital presence world |
JP2018064713A (en) | 2016-10-18 | 2018-04-26 | 株式会社コロプラ | Method and system of computer proceeding game based on position information of user, and program for computer executing method |
JP2018175505A (en) | 2017-04-14 | 2018-11-15 | 株式会社コロプラ | Information processing method, apparatus, and program for implementing that information processing method in computer |
JP2020074822A (en) | 2018-11-05 | 2020-05-21 | 株式会社スクウェア・エニックス | Game program and game system |
-
2021
- 2021-06-02 JP JP2021093153A patent/JP7219862B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003190631A (en) | 2001-12-28 | 2003-07-08 | Konami Computer Entertainment Yokyo Inc | Game device and program |
JP2007050154A (en) | 2005-08-19 | 2007-03-01 | Aruze Corp | Game program and game system |
JP2016026361A (en) | 2009-07-22 | 2016-02-12 | イマージョン コーポレーションImmersion Corporation | System and method for providing complex haptic stimulation during input of control gestures, and relating to control of virtual equipment |
JP2017147001A (en) | 2011-05-06 | 2017-08-24 | マジック リープ, インコーポレイテッド | Massive simultaneous remote digital presence world |
JP2013178639A (en) | 2012-02-28 | 2013-09-09 | Seiko Epson Corp | Head mounted display device and image display system |
JP2015073746A (en) | 2013-10-09 | 2015-04-20 | 株式会社スクウェア・エニックス・ホールディングス | Video game processing server and video game processing system |
JP5909301B1 (en) | 2015-07-24 | 2016-04-26 | 株式会社コロプラ | GAME METHOD, GAME PROGRAM, GAME TERMINAL, AND GAME SYSTEM USING MAP DATA |
JP2017104344A (en) | 2015-12-10 | 2017-06-15 | 株式会社コロプラ | Game program |
JP2018064713A (en) | 2016-10-18 | 2018-04-26 | 株式会社コロプラ | Method and system of computer proceeding game based on position information of user, and program for computer executing method |
JP2018175505A (en) | 2017-04-14 | 2018-11-15 | 株式会社コロプラ | Information processing method, apparatus, and program for implementing that information processing method in computer |
JP2020074822A (en) | 2018-11-05 | 2020-05-21 | 株式会社スクウェア・エニックス | Game program and game system |
Also Published As
Publication number | Publication date |
---|---|
JP2022185453A (en) | 2022-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10708704B2 (en) | Spatial audio for three-dimensional data sets | |
US9623332B2 (en) | Method and device for augmented reality message hiding and revealing | |
CN107683449A (en) | The personal space content that control is presented via head mounted display | |
CN110755845B (en) | Virtual world picture display method, device, equipment and medium | |
CN106664401A (en) | Systems and methods for providing feedback to a user while interacting with content | |
CN109453517B (en) | Virtual character control method and device, storage medium and mobile terminal | |
JP7397364B2 (en) | Game programs, game devices, and game systems | |
KR20140102232A (en) | Local sensor augmentation of stored content and ar communication | |
US20210192851A1 (en) | Remote camera augmented reality system | |
JP2011221851A (en) | Image display program, image display system, image display method and image display device | |
WO1998046323A1 (en) | Computer games having optically acquired images which are combined with computer generated graphics and images | |
JP7219860B2 (en) | Communication system, communication method and communication program | |
JP7219862B2 (en) | Communication system, communication method and communication program | |
TW202300201A (en) | Repeatability predictions of interest points | |
JP7216940B2 (en) | Communication system, communication method and communication program | |
WO2017145552A1 (en) | Program and eye wear | |
JP2023171563A (en) | Game program, game apparatus and game system | |
JP7219859B2 (en) | Communication system, communication method and communication program | |
CN113641248A (en) | System and method for realizing in-vehicle augmented reality entertainment | |
JP6836676B2 (en) | Game equipment and game programs | |
CN112738498B (en) | Virtual tour system and method | |
JP7472912B2 (en) | Information processing device, information processing method, and recording medium | |
JP7219861B2 (en) | Communication system, communication method and communication program | |
US10668379B2 (en) | Computer-readable recording medium, computer apparatus, image display method | |
CN112791396B (en) | Shooting picture generation method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20221216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7219862 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |