JP6615732B2 - Information processing apparatus and image generation method - Google Patents
Information processing apparatus and image generation method Download PDFInfo
- Publication number
- JP6615732B2 JP6615732B2 JP2016213117A JP2016213117A JP6615732B2 JP 6615732 B2 JP6615732 B2 JP 6615732B2 JP 2016213117 A JP2016213117 A JP 2016213117A JP 2016213117 A JP2016213117 A JP 2016213117A JP 6615732 B2 JP6615732 B2 JP 6615732B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- character
- image
- virtual space
- operation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、ヘッドマウントディスプレイなどの表示装置にアプリケーションの画像データを出力する技術または表示装置に提供するための画像データを生成する技術に関する。 The present invention relates to a technique for outputting image data of an application to a display device such as a head-mounted display or a technique for generating image data to be provided to a display device.
特許文献1は、自分と他のユーザとが3次元仮想現実空間を共有するシステムを開示する。このシステムにおいて自分のクライアント端末は、仮想現実空間を構成する基本オブジェクトに関するデータを情報サーバ端末から提供され、また他人のアバタに関するデータを共有サーバ端末から提供されることで、自分のアバタの視点と位置から見える仮想現実空間を表示装置に表示する。特許文献1において基本オブジェクトは、仮想現実空間で複数のユーザが共通して利用するオブジェクト、たとえばビルディングや道路などの、その基本的な状態が変化しないオブジェクトである。 Patent Document 1 discloses a system in which a user and another user share a three-dimensional virtual reality space. In this system, the client terminal is provided with data on basic objects constituting the virtual reality space from the information server terminal, and is provided with data on the other person's avatar from the shared server terminal. The virtual reality space visible from the position is displayed on the display device. In Patent Document 1, a basic object is an object that is used in common by a plurality of users in a virtual reality space, for example, an object whose basic state does not change, such as a building or a road.
複数のユーザが仮想現実空間に参加可能なシステムを構築することで、サービス提供主体は、複数のユーザに様々な体験を提供できる。たとえば仮想現実空間として複数のユーザが参加するクラスルームを構築すれば、ユーザは自宅にいながらにして他のユーザと一緒に授業を受けられるようになる。また仮想現実空間として海外の名所や町並みを構築すると、複数のユーザが一緒に海外旅行を楽しむことができる。 By constructing a system in which a plurality of users can participate in the virtual reality space, the service providing entity can provide various experiences to the plurality of users. For example, if a classroom where a plurality of users participate is constructed as a virtual reality space, the user can take classes with other users while at home. In addition, if overseas landmarks and townscapes are constructed as a virtual reality space, multiple users can enjoy traveling abroad together.
仮想現実空間(以下「仮想空間」とも呼ぶ)で、各ユーザはそれぞれのキャラクタを自由に動かせる。そのためサービス提供主体が、仮想空間内に注目するべき対象物(オブジェクト)を設定しても、各キャラクタの位置や視線方向がばらばらであるために、複数のユーザを同時にまたは同じ時間帯に当該オブジェクトに注目させることが難しかった。 In a virtual reality space (hereinafter also referred to as “virtual space”), each user can freely move each character. For this reason, even if the service providing entity sets a target object (object) to be noted in the virtual space, the positions and line-of-sight directions of each character are different. It was difficult to get attention.
本発明はこうした課題に鑑みてなされたものであり、その目的は、仮想空間におけるユーザキャラクタの注目するべき方向を示唆するための技術を提供することにある。 This invention is made | formed in view of such a subject, The objective is to provide the technique for suggesting the direction which the user character should pay attention in virtual space.
上記課題を解決するために、本発明のある態様の情報処理装置は、アプリケーションの画像データを表示装置に出力する情報処理装置であって、仮想空間においてユーザのキャラクタを動かすための操作情報を取得する取得部と、当該ユーザとは別のユーザのキャラクタを含む画像データを表示装置に出力する画像提供部と、を備える。画像提供部は、別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを、表示装置に出力する。 In order to solve the above problems, an information processing apparatus according to an aspect of the present invention is an information processing apparatus that outputs image data of an application to a display device, and acquires operation information for moving a user character in a virtual space And an image providing unit that outputs image data including a character of a user different from the user to the display device. The image providing unit outputs image data including a direction image indicating a direction in which another user's character is viewing and / or a direction in which the character is viewed to the display device.
本発明の別の態様は、画像生成方法である。この方法は、仮想空間においてユーザのキャラクタを動かすための操作情報を取得するステップと、仮想空間において当該ユーザとは別のユーザのキャラクタを動かすための操作情報を取得するステップと、当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、それぞれの操作情報にもとづいて制御するステップと、仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタと、当該別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを生成するステップと、を有する。 Another aspect of the present invention is an image generation method. This method includes a step of obtaining operation information for moving a user character in a virtual space, a step of obtaining operation information for moving a user character different from the user in the virtual space, and the user character. And a step of controlling the movement of the user's character different from the user based on the respective operation information, and based on the position of the user's character in the virtual space, Generating image data including a direction image indicating a direction in which another user's character is viewing and / or a direction in which the character is viewed.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。 Note that any combination of the above components, the expression of the present invention converted between a method, an apparatus, a system, a computer program, a recording medium on which the computer program is recorded so as to be readable, a data structure, etc. are also included in the present invention It is effective as an embodiment of
本発明によれば、仮想空間におけるユーザキャラクタの注目するべき方向を示唆するための技術を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the technique for suggesting the direction which the user character should pay attention in virtual space can be provided.
図1は、実施例における情報処理システム1を示す。情報処理システム1は、複数のユーザが3次元仮想空間を共有するサービスを提供する。情報処理システム1は複数のユーザシステム3a、3b・・・3m、3n(以下、総称する場合には「ユーザシステム3」と呼ぶ)と、サーバシステム4を備える。サーバシステム4は、サービスの提供主体により運営・管理され、各ユーザシステム3は、それぞれのユーザにより使用される。サーバシステム4および複数のユーザシステム3はインターネットなどのネットワーク2に接続し、サーバシステム4と各ユーザシステム3とは、互いにデータを送受信できる。なお複数のユーザシステム3が、互いにデータを送受信できてもよい。
FIG. 1 shows an information processing system 1 in the embodiment. The information processing system 1 provides a service in which a plurality of users share a three-dimensional virtual space. The information processing system 1 includes a plurality of user systems 3a, 3b,... 3m, 3n (hereinafter, collectively referred to as “
サーバシステム4は管理サーバ5および記憶装置6を備える。記憶装置6は、3次元仮想空間を生成するための3次元画像データを保持するコンテンツDB7と、3次元仮想空間におけるユーザの挙動情報を蓄積するためのユーザ挙動DB8とを有する。以下、コンテンツDB7が保持する3次元画像データを「コンテンツデータ」と呼ぶ。
The server system 4 includes a
たとえばサーバシステム4はクラスルームの3次元仮想空間をユーザシステム3に提供し、サーバシステム4のオペレータが教師となり、複数のユーザシステム3のユーザが生徒となることで、複数のユーザが一緒に授業を受けられるサービスを提供できる。またサーバシステム4は都市や観光地の3次元仮想空間をユーザシステム3に提供し、オペレータがツアーガイドとなり、複数のユーザが旅行参加者となることで、複数のユーザがガイド付きで旅行を楽しむサービスを提供できる。またサーバシステム4は宝が隠された3次元仮想空間をユーザシステム3に提供し、オペレータが宝探しの案内人となり、複数のユーザがトレジャーハンターとなることで、複数のユーザが案内人からのヒントをもとに宝探しを競うサービスを提供できる。
For example, the server system 4 provides a three-dimensional virtual space of a classroom to the
このようにサーバシステム4は、3次元仮想空間を複数のユーザで共有するサービスを提供する。コンテンツDB7に記憶されるコンテンツデータは、基本的に位置情報や姿勢情報などが更新されない静的なオブジェクトデータにより構成される。たとえば観光地の仮想空間を表現するコンテンツデータは、相対的な位置関係を定義された建物オブジェクト、道路オブジェクト、街灯オブジェクト、看板オブジェクトなどを含んで構成される。なお仮想空間内でユーザが動かすことのできるオブジェクトが存在してもよい。 As described above, the server system 4 provides a service for sharing a three-dimensional virtual space among a plurality of users. The content data stored in the content DB 7 is basically composed of static object data whose position information and posture information are not updated. For example, the content data representing the virtual space of a sightseeing spot includes a building object, a road object, a streetlight object, a signboard object, and the like whose relative positional relationships are defined. There may be an object that the user can move in the virtual space.
ユーザシステム3は、サービスの提供を受ける前に、コンテンツデータを再生するためのビューワアプリケーションをインストールする。ユーザシステム3がネットワーク2を介してサーバシステム4からコンテンツデータをダウンロードすると、ビューワアプリケーションは、コンテンツデータをもとに仮想空間を構築し、仮想空間内でユーザによる操作情報をもとにキャラクタを動かし、ユーザキャラクタの位置および姿勢(視線方向)に応じて仮想空間をレンダリングする。これによりユーザはユーザキャラクタを通じて、仮想空間内を自由に移動し、自由視点からの画像を見ることができる。
The
図2は、あるユーザキャラクタの視点から見た仮想空間の画像の一例を示す。ビューワアプリケーションは、ユーザキャラクタの位置および視線方向に応じて、ユーザキャラクタの視点からの画像を生成する。 FIG. 2 shows an example of a virtual space image viewed from the viewpoint of a certain user character. The viewer application generates an image from the viewpoint of the user character according to the position and line-of-sight direction of the user character.
それぞれのユーザシステム3がコンテンツデータをダウンロードすることで、複数のユーザによる仮想空間の共有が実現される。以下、10人のユーザA、B、C、D、E、F、G、H、I、Jが仮想空間を共有する例について説明する。管理サーバ5は、複数ユーザによる仮想空間の共有処理を担当する。各ユーザは、仮想空間内でそれぞれのユーザキャラクタを操作するが、その操作情報は、当該ユーザのユーザシステム3においてビューワアプリケーションによる処理に使用されるとともに、管理サーバ5に送信され、管理サーバ5は、他のユーザのユーザシステム3に転送する。つまりユーザAが自身のキャラクタを操作した操作情報は、他の9人のユーザB〜Jのユーザシステム3にも提供されて、それぞれのユーザシステム3のビューワアプリケーションによる処理に使用される。このように各ユーザによるキャラクタの操作情報が全てのユーザに共有されることで、各ユーザシステム3において全ユーザA〜Jのユーザキャラクタは、通信遅延の影響を除けば基本的に同じ挙動を示すようになる。
Each
図3は、実施例におけるユーザシステム3の構成例を示す。ユーザシステム3は情報処理装置10と、ヘッドマウントディスプレイ装置(HMD)100と、ユーザが手指で操作する入力装置16と、HMD100を装着したユーザを撮影する撮像装置14と、画像を表示する出力装置15とを備える。情報処理装置10は、アクセスポイント(AP)17を介してネットワーク2に接続される。AP17は無線アクセスポイントおよびルータの機能を有し、情報処理装置10はAP17とケーブルで接続してもよく、既知の無線通信プロトコルで接続してもよい。
FIG. 3 shows a configuration example of the
HMD100はユーザの頭部に装着されて仮想現実(VR)の世界をユーザに提供する。HMD100にヘッドトラッキング機能をもたせ、ユーザの頭部の動きに連動して表示画面を更新することで、映像世界への没入感を高められる。なお実施例では、レンダリングした画像をHMD100の表示パネルに表示するが、レンダリングした画像は出力装置15に表示されてもよい。
The
情報処理装置10は、処理装置11、出力制御装置12および記憶装置13を備える。処理装置11は、ユーザにより入力装置16に入力された操作情報を受け付けて、ビューワアプリケーションを実行する端末装置である。処理装置11と入力装置16とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。なお実施例の処理装置11は、HMD100の姿勢情報をビューワアプリケーションに対するユーザの操作情報として受け付けて、ビューワアプリケーションを実行する機能ももつ。出力制御装置12は、処理装置11で生成された画像データをHMD100に出力する処理ユニットである。出力制御装置12とHMD100とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。
The
撮像装置14はステレオカメラであって、HMD100を装着したユーザを所定の周期で撮影し、撮影画像を処理装置11に供給する。後述するがHMD100にはユーザ頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、処理装置11は、撮影画像に含まれるマーカの位置にもとづいてHMD100の動きを検出する。なおHMD100には姿勢センサ(加速度センサおよびジャイロセンサ)が搭載され、処理装置11は、姿勢センサで検出されたセンサデータをHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実施する。なおトラッキング処理については従来より様々な手法が提案されており、処理装置11はHMD100の動きを検出できるのであれば、どのようなトラッキング手法を採用してもよい。
The
実施例のユーザシステム3では、HMD100にユーザキャラクタの視点から見た画像を提供するビューワアプリケーションを実行する。実施例ではユーザがHMD100で画像を見るため、ユーザシステム3において出力装置15は必ずしも必要ではないが、変形例ではユーザがHMD100を装着せず、出力制御装置12または処理装置11が、画像を出力装置15から出力させてもよい。
In the
HMD100は、ユーザが頭に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。HMD100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像を構成し、立体視を実現する。なおユーザは光学レンズを通して表示パネルを見るため、情報処理装置10は、レンズによる光学歪みを補正した視差画像データをHMD100に供給する。この光学歪みの補正処理は、処理装置11、出力制御装置12のいずれが行ってもよい。
The
処理装置11、記憶装置13、出力装置15、入力装置16および撮像装置14は、従来型のゲームシステムを構築してよい。この場合、処理装置11はゲームを実行するゲーム装置であり、入力装置16はゲームコントローラ、キーボード、マウス、ジョイスティックなど処理装置11にユーザによる操作情報を供給する機器である。このゲームシステムの構成要素に、出力制御装置12およびHMD100を追加することで、VRのビューワアプリケーションを実施するユーザシステム3が構築される。
The
なお出力制御装置12による機能は、ビューワアプリケーションの一部の機能として処理装置11に組み込まれてもよい。つまり情報処理装置10の処理ユニットは、1台の処理装置11から構成されても、また処理装置11および出力制御装置12から構成されてもよい。以下においては、ビューワアプリケーションの実施に必要な処理装置11および出力制御装置12の機能を、まとめて情報処理装置10の機能として説明する。
Note that the function of the output control device 12 may be incorporated into the
ビューワアプリケーションを実施する前段階として、処理装置11は、サーバシステム4の記憶装置6に記憶されているコンテンツデータを記憶装置13にダウンロードする。またユーザは、ビューワアプリケーションを開始する際に自身のキャラクタを設定し、設定したユーザキャラクタデータは、記憶装置13に記憶されるとともに、サーバシステム4に送信されて、サーバシステム4から他のユーザのユーザシステム3に送信される。
As a stage before executing the viewer application, the
ビューワアプリケーションは、入力装置16から入力された操作情報にもとづいて仮想空間内でユーザキャラクタを動かし、ユーザの頭部に装着されたHMD100の姿勢情報にもとづいてユーザキャラクタの視線方向を定める。実施例ではビューワアプリケーションが、HMD100の姿勢情報を、ユーザキャラクタの視線方向を操作するための操作情報として利用するが、入力装置16における入力情報を、視線方向を操作するための操作情報として利用してもよい。またユーザキャラクタを移動させるための操作情報は、入力装置16の入力情報を用いずに、HMD100の位置情報を利用してもよい。実施例において、ユーザキャラクタの操作情報は、入力装置16およびHMD100のいずれから取得されてもよく、また他のユーザインタフェースから取得されてもよい。
The viewer application moves the user character in the virtual space based on the operation information input from the
情報処理装置10は、ユーザのヘッドトラッキング処理を行うことで、ユーザ頭部(実際にはHMD100)の位置座標および姿勢を検出する。ここでHMD100の位置座標とは、基準位置を原点とした3次元空間における位置座標であり、基準位置はHMD100の電源がオンされたときの位置座標(緯度、経度)であってよい。またHMD100の姿勢とは、3次元空間における基準姿勢に対する3軸方向の傾きである。なお基準姿勢は、ユーザの視線方向が水平方向となる姿勢であり、HMD100の電源がオンされたときに基準姿勢が設定されてよい。
The
情報処理装置10は、HMD100の姿勢センサが検出したセンサデータのみから、HMD100の位置座標および姿勢を検出でき、さらに撮像装置14で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の位置座標および姿勢を検出できる。上記したように情報処理装置10は、HMD100の位置情報をもとにユーザキャラクタの仮想空間内の位置を算出し、HMD100の姿勢情報をもとにユーザキャラクタの視線方向を算出してもよいが、実施例では仮想空間内におけるユーザキャラクタの位置は、入力装置16の操作情報をもとに算出する。
The
図4は、HMD100の外観形状の例を示す。HMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造をもつ。
FIG. 4 shows an example of the external shape of the
出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどであってよい。筐体108内部にはさらに、表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、ユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。
The
筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置14により撮影されて、情報処理装置10がマーカ位置を画像解析できるものであればよい。発光マーカ110の数や配置は特に限定されないが、HMD100の姿勢を検出できるための数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置14に対して背を向けたときにも撮影できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。
On the outer surface of the
HMD100は、情報処理装置10にケーブルで接続されても、既知の無線通信プロトコルで接続されてもよい。HMD100は、姿勢センサが検出したセンサデータを情報処理装置10に送信し、また情報処理装置10で生成された画像データを受信して、左目用表示パネルおよび右目用表示パネルに表示する。
The
図5は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサデータなどの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。
FIG. 5 shows functional blocks of the
通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から出力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。
The
制御部120は、画像データや音声データを情報処理装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。表示パネル130は、左目用表示パネル130aと右目用表示パネル130bから構成され、各表示パネルに一対の視差画像が表示される。また制御部120は、姿勢センサ124からのセンサデータや、マイク126からの音声データを、通信制御部128から情報処理装置10に送信させる。
When the
図6は、情報処理装置10の機能ブロックを示す。情報処理装置10は、外部との入出力インタフェースとして、センサデータ受信部20、撮影画像受信部22、入力データ受信部24、サーバデータ受信部26、操作情報送信部30、画像提供部32および音声提供部34を備える。サーバデータ受信部26は、管理サーバ5から送信されるデータを受信する通信インタフェースである。
FIG. 6 shows functional blocks of the
情報処理装置10は、さらに取得部40、処理部50および記憶装置13を備える。取得部40は、入出力インタフェースで受信したデータからビューワアプリケーションで使用する情報を取得する機能をもち、第1操作情報取得部42、第2操作情報取得部44およびオブジェクト情報取得部46を有する。処理部50は、取得部40で取得した情報から画像データを生成する機能をもち、キャラクタ制御部52、判定部54および画像生成部56を有する。記憶装置13は、3次元仮想空間を構築するためのコンテンツデータや、情報処理装置10の利用ユーザのキャラクタデータおよび他のユーザのキャラクタデータなどを記憶する。
The
図6において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 In FIG. 6, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded in the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
以下、「ユーザA」が使用する情報処理装置10の動作について説明する。第1操作情報取得部42は、仮想空間においてユーザAのキャラクタを動かすための操作情報を取得する。一方で、第2操作情報取得部44は、仮想空間においてユーザAとは別のユーザ、つまりユーザB、C、D、E、F、G、H、I、Jのキャラクタを動かすための操作情報を取得する。
Hereinafter, the operation of the
なお「ユーザB」が使用する情報処理装置10においては、第1操作情報取得部42が、ユーザBのキャラクタを動かすための操作情報を取得し、第2操作情報取得部44が、ユーザBとは別のユーザのキャラクタを動かすための操作情報を取得する。
In the
以下、ユーザAによる操作情報について説明する。
センサデータ受信部20は、ユーザAが装着したHMD100の姿勢センサ124から所定の周期でセンサデータを受信して、第1操作情報取得部42に供給する。撮影画像受信部22は、撮像装置14から所定の周期でHMD100を撮影した画像を受信して、第1操作情報取得部42に供給する。たとえば撮像装置14は(1/60)秒ごとに前方の空間を撮影し、撮影画像受信部22は、(1/60)秒ごとに撮影画像を受信する。入力データ受信部24は入力装置16から、ユーザAが入力したキーデータを受信して、第1操作情報取得部42に供給する。
Hereinafter, the operation information by the user A will be described.
The sensor
第1操作情報取得部42は、ユーザの頭部に装着されたHMD100の動きにもとづいてHMD100の姿勢の変化を検出し、仮想空間におけるユーザAのキャラクタの視線方向の変化を示す操作情報を取得する。また第1操作情報取得部42は、入力データ受信部24で受信した入力装置16のキーデータにもとづいて、仮想空間におけるユーザAのキャラクタの移動量および移動方向を示す操作情報を取得する。
The first operation
第1操作情報取得部42は、姿勢センサ124のセンサデータからHMD100の姿勢の変化を検出する。第1操作情報取得部42は3軸ジャイロセンサのセンサデータから、HMD100の姿勢変化を特定してよい。なお第1操作情報取得部42は、トラッキング用の発光マーカ110の撮影結果をさらに利用して、姿勢変化の検出精度を高めることが好ましい。第1操作情報取得部42は、検出したHMD100の姿勢の変化から、ユーザAの視線方向の変化を示す操作情報を取得する。
The first operation
また第1操作情報取得部42は、入力装置16に入力されたキーデータから、ユーザAのキャラクタの移動量および移動方向を示す操作情報を取得する。入力装置16の操作により仮想空間内のキャラクタを動作させる処理は、既知の技術を利用してよい。実施例ではユーザAがHMD100を装着するため、キャラクタの視線方向を、HMD100を装着したユーザAの視線方向に合わせているが、変形例ではユーザAがHMD100を装着しない実施態様も想定され、この場合はユーザAが、入力装置16から、キャラクタの位置および視線方向を制御するためのキーデータを入力してもよい。
The first operation
このようにして第1操作情報取得部42は、仮想空間においてユーザAのキャラクタを動かすための操作情報を取得する。この操作情報は、位置および視線方向の変化量を指定する情報であってよいが、位置および視線方向を直接指定する情報であってもよい。第1操作情報取得部42は、ユーザAのキャラクタを動かすための操作情報をキャラクタ制御部52に供給する。第1操作情報取得部42がどのような操作情報を取得するかは、ビューワアプリケーションに依存し、いずれにしてもキャラクタ制御部52が処理できる操作情報であればよい。第1操作情報取得部42は、所定の周期で操作情報を生成してキャラクタ制御部52に供給してよいが、状態変化が生じたとき、つまりHMD100の姿勢が変化したとき又は入力装置16でキー入力が生じたときに操作情報を生成してキャラクタ制御部52に供給してもよい。
In this way, the first operation
キャラクタ制御部52は、第1操作情報取得部42から供給される操作情報にもとづいて、仮想空間内のユーザAのキャラクタの動作、具体的にはキャラクタの位置および視線方向を制御する。
Based on the operation information supplied from the first operation
画像生成部56は、仮想空間におけるユーザキャラクタの位置(3次元仮想空間座標値)にもとづいて、仮想空間の3次元レンダリングを行う。具体的に画像生成部56は、ユーザキャラクタの位置に、ユーザキャラクタの視線方向を光軸とする仮想カメラを配置して、画像データを生成する。画像提供部32は、生成された画像データをHMD100に出力する。
The
実施例のビューワアプリケーションでは、ユーザAが入力装置16のキー入力によりキャラクタを移動させ、また首を傾けてHMD100の向きを変更することで、キャラクタの視線方向を変えることができる。HMD100の表示パネル130には、キャラクタの位置および視線方向に応じた画像が表示される(図2参照)。
In the viewer application of the embodiment, the user A can change the line-of-sight direction of the character by moving the character by key input of the
以上はユーザAのキャラクタの動作制御であるが、実施例の情報処理システム1は、3次元仮想空間を複数のユーザで共有するサービスを提供する。そのため第1操作情報取得部42で取得されたユーザAのキャラクタの操作情報は、操作情報送信部30から管理サーバ5に送信され、管理サーバ5から別のユーザB〜Jの情報処理装置10に転送される。
The above is the motion control of the character of the user A, but the information processing system 1 of the embodiment provides a service for sharing the three-dimensional virtual space among a plurality of users. Therefore, the operation information of the user A character acquired by the first operation
別のユーザB〜Jの情報処理装置10においても、それぞれのユーザのキャラクタを動かすための操作情報が取得され、管理サーバ5に送信される。管理サーバ5は、ユーザAの情報処理装置10に、ユーザB〜Jの情報処理装置10で取得されたキャラクタの操作情報を送信する。サーバデータ受信部26は、管理サーバ5から送信される別のユーザのキャラクタ操作情報を受信する。
Also in the
管理サーバ5は、仮想空間共有サービスに参加するユーザの情報を管理する。ユーザ情報は、ユーザを識別するためのユーザアカウント、ユーザのキャラクタデータを少なくとも含み、管理サーバ5はサービス開始前に、各参加ユーザのユーザ情報を、すべての参加ユーザの情報処理装置10に送信しておく。サービス開始後、管理サーバ5は、ユーザのキャラクタの操作情報をユーザアカウントに紐付けて各情報処理装置10に送信し、したがって情報処理装置10は、サーバデータ受信部26で受信した操作情報がどのユーザのキャラクタの動作に反映させる情報であるかを特定できる。
The
第2操作情報取得部44は、サーバデータ受信部26から、別のユーザB〜Jのキャラクタを動かすための操作情報を取得し、キャラクタ制御部52に供給する。キャラクタ制御部52は、第2操作情報取得部44から供給される操作情報にもとづいて、仮想空間内の別のユーザのキャラクタの動作、具体的にはキャラクタの位置および視線方向を制御する。なおキャラクタの視線方向の制御は、キャラクタの首の向きを制御することで実施される。
The second operation
上記したように画像生成部56は、ユーザAのキャラクタの位置から、キャラクタの視線方向に見える仮想空間の画像を生成する。そのためユーザAのキャラクタの視野に、別のユーザのキャラクタが含まれていれば、画像生成部56は、ユーザAとは別のユーザのキャラクタを含む画像データを生成する。画像提供部32は、生成された画像データを、表示装置であるHMD100に出力する。
As described above, the
図7は、ユーザAのキャラクタの視点から見た仮想空間の画像の一例を示す。ここでは、ユーザAのキャラクタの視野に、5人のユーザのキャラクタが含まれている様子が示される。それぞれのユーザキャラクタは、左から順に、ユーザB、ユーザD、ユーザF、ユーザG、ユーザHのキャラクタであるとする。なお、それ以外のユーザC、ユーザE、ユーザI、ユーザJのキャラクタについては、ユーザAのキャラクタの後ろにいたり、また建物の中に入っているなどの理由により、ユーザAのキャラクタの視野角内に存在せず、画像データには含まれていない。HMD100において、通信制御部128が情報処理装置10から画像データを受信し、制御部120が仮想空間画像を表示パネル130に表示する。
FIG. 7 shows an example of an image of the virtual space viewed from the viewpoint of the user A character. Here, a state where five user characters are included in the field of view of the user A character is shown. Each user character is assumed to be a character of user B, user D, user F, user G, and user H in order from the left. For the other users C, E, I, and J, the viewing angle of the user A's character is because it is behind the user A's character or in the building. It is not included in the image data. In the
実施例ではサーバシステム4が観光地の仮想空間を複数のユーザシステム3に提供し、サーバシステム4のオペレータがツアーガイドとなり、また複数のユーザが旅行参加者となることで、複数のユーザがガイド付きで一緒に旅行するサービスを提供する。オペレータは管理サーバ5を操作して、音声ガイドを各ユーザシステム3に配信し、ユーザが移動する方向や注目する対象(オブジェクト)を音声で指定する。各ユーザシステム3において、サーバデータ受信部26が音声案内用の音声データを受信すると、音声提供部34が音声データをHMD100に送信する。HMD100において通信制御部128が音声データを受信し、制御部120が音声案内を音声出力部132からイヤホン(不図示)に出力する。
In the embodiment, the server system 4 provides a virtual space of a sightseeing spot to a plurality of
オペレータは、たとえば以下のような音声案内を行う。
「前方に続くアーケードをまっすぐ進んで下さい。」
「通路両脇にある建物は17世紀後半に建築されました。」
「足元の石畳は、当時のままの状態で残っています。」
各ユーザは音声案内にしたがってキャラクタを操作し、キャラクタが仮想空間を移動する。各ユーザのHMD100には、キャラクタの移動にともない、仮想空間画像が刻々と変化して表示される。
The operator performs the following voice guidance, for example.
“Go straight ahead in the arcade that follows.”
“The buildings on both sides of the passage were built in the late 17th century.”
“The cobblestones at the feet remain as they were at the time.”
Each user operates the character according to the voice guidance, and the character moves in the virtual space. On the
なおキャラクタの移動は各ユーザの操作によるため、各ユーザキャラクタの仮想空間内の位置は様々である。管理サーバ5は、全てのユーザによるキャラクタの操作情報を受信しており、オペレータは、各ユーザのキャラクタの位置を把握している。そのため規定の移動ルートから外れたり、遅れたり又は先に行きすぎているユーザに対して、オペレータは個別に音声案内を提供できる。
In addition, since movement of a character is based on operation of each user, the position in the virtual space of each user character is various. The
このような仮想空間において、注目するべきオブジェクトが存在する場合、ツアーガイドであるオペレータは、そのオブジェクトに注目させるように音声案内を行う。それは「通路脇にある看板に注目してください」というものであってよい。この音声案内により「説明イベント」が開始される。図7に示す画面例において、オブジェクト200が注目するべきオブジェクトとして設定されており、オペレータは、全てのユーザがオブジェクト200を見ていることを確認すると、オブジェクト200の注目ポイント(たとえば看板の店の歴史など)を説明する。注目ポイントの説明が終了すると、説明イベントは終了となり、次の注目オブジェクトへの移動案内が行われる。なお説明イベントの開始および終了は、オペレータにより任意のタイミングで行われてよい。
When there is an object to be noted in such a virtual space, an operator who is a tour guide performs voice guidance so as to pay attention to the object. It may be "Please pay attention to the signboard beside the aisle". An “explanation event” is started by this voice guidance. In the screen example shown in FIG. 7, the
「通路脇にある看板に注目してください」とする音声案内が行われたときに、キャラクタがオブジェクト200の近傍にいれば、ユーザはオブジェクト200を比較的容易に見つけられるが、キャラクタがオブジェクト200から離れた位置にいる場合、ユーザはただちにオブジェクト200を見つけることが難しい。そこでビューワアプリケーションはユーザキャラクタの注目するべき方向を示唆するための画像を表示画像に含め、ユーザがオブジェクト200の位置を容易に認識できるようにする。
When the voice guidance “Please pay attention to the signboard beside the passage” is performed, if the character is in the vicinity of the
管理サーバ5のオペレータは、「通路脇にある看板に注目してください」とする音声データを、複数のユーザの情報処理装置10に送信するとき、オブジェクト200の識別子(オブジェクトID)とともに、オブジェクト200の仮想空間内での3次元座標もあわせて送信する。以下、オブジェクトIDおよびオブジェクト3次元座標を「オブジェクト情報」と呼ぶ。
When the operator of the
情報処理装置10において、サーバデータ受信部26が、音声データおよびオブジェクト情報を受信すると、音声提供部34が音声データをHMD100に送信し、オブジェクト情報取得部46がオブジェクト情報を取得して判定部54に供給する。HMD100に送信された音声データは、音声出力部132により出力される。
In the
判定部54は、別のユーザのキャラクタの位置および視線方向にもとづいて、別のユーザがオブジェクト200を現在見ているか否かを判定する。この判定処理は、別のユーザのキャラクタの位置に、当該キャラクタの視線方向を光軸とする仮想カメラを配置したときに、オブジェクト200が仮想カメラにより撮影されるか否かを判断する処理となる。基本的に判定部54は、キャラクタの視野角内にオブジェクト200の3次元座標が含まれていれば、別のユーザがオブジェクト200を見ていることを判定し、一方で視野角内にオブジェクト200の3次元座標が含まれていなければ、別のユーザがオブジェクト200を見ていないことを判定する。なお判定部54は、キャラクタの視野角内にオブジェクト200の3次元座標が含まれている場合であっても、キャラクタとオブジェクト200との間の別のオブジェクト(障害物)によりオブジェクト200が隠される場合には、別のユーザがオブジェクト200を見ていないことを判定する。
The
以上の判定処理により、判定部54は、ユーザAとは別のユーザのキャラクタがオブジェクト200を見ているか否かを特定できる。図7に示す画面例で、判定部54は、ユーザB、ユーザD、ユーザF、ユーザGのキャラクタがオブジェクト200を見ていることを判定し、一方でユーザHのキャラクタがオブジェクト200を見ていないことを判定する。判定部54は判定結果を画像生成部56に提供する。
With the above determination processing, the
判定部54による判定処理は、周期的に実施されてよく、判定周期は、キャラクタの動作制御周期と同じであってよい。つまりキャラクタ制御部52は、ユーザAのキャラクタおよび別のユーザのキャラクタの動作を周期的に制御するが、判定部54は、その周期にあわせて判定処理を実施してよい。
The determination process by the
画像生成部56は、判定部54による判定結果をもとに、別のユーザのキャラクタが見ている方向を示す方向画像を含む画像データを生成する。ここで別のユーザのキャラクタがオブジェクト200を見ている場合、方向画像は、別のユーザのキャラクタの視線方向を示すものであってもよいが、別のユーザのキャラクタからオブジェクト200に向かう方向を示すものであってよい。なお別のユーザのキャラクタがオブジェクト200を見ていない場合、方向画像は、キャラクタの視線方向を示す画像となる。
The
キャラクタの視線方向と、キャラクタからオブジェクト200に向かう方向について説明する。実施例においてキャラクタの視線方向は、ユーザが装着しているHMD100が向いている方向であって、且つキャラクタの両眼の中心から延びる方向である。HMD100に表示される画面に関して言えば、キャラクタの視線方向は、表示画面の中心を垂直につらぬく方向である。
The direction of the character's line of sight and the direction from the character toward the
一方、キャラクタからオブジェクト200に向かう方向について説明すると、図7に示す表示画面は、ユーザAのHMD100に表示される画面であるが、オブジェクト200は画面中心よりもやや左上に含まれている。この場合、キャラクタからオブジェクト200に向かう方向は、視線方向に平行とはならない。なおオブジェクト200が表示画面の中心に位置するようにユーザAがHMD100を動かす場合には、視線方向は、キャラクタからオブジェクト200に向かう方向に一致する。
On the other hand, the direction from the character toward the
図8は、3次元仮想空間をレンダリングした画像に方向画像を含めた画面例を示す。画像生成部56は、ユーザB、ユーザD、ユーザF、ユーザGのそれぞれのキャラクタからオブジェクト200に向かう方向を示す方向画像202b、202d、202f、202gと、ユーザHのキャラクタの視線方向を示す方向画像202hを含む画像データを生成する。ここでオブジェクト200を見ているキャラクタに対して付加する方向画像202b、202d、202f、202gと、オブジェクト200を見ていないキャラクタに対して付加する方向画像202hは、異なる表示態様となるように生成される。
FIG. 8 shows an example of a screen in which a direction image is included in an image obtained by rendering a three-dimensional virtual space. The
図8に示す画面例で、方向画像202b、202d、202f、202gは、実線の矢印画像であり、方向画像202hは、点線の矢印画像であるが、表示態様はこれに限るものではない。たとえば方向画像202b、202d、202f、202gを赤色、方向画像202hを青色など、異なる色で表現してもよい。いずれにしても表示態様を異ならせることで、ユーザAが、どのキャラクタがオブジェクト200を見ているか、またどのキャラクタがオブジェクト200を見ていないかを容易に認識できる。
In the screen example shown in FIG. 8, the
図8に示す画面例では、ユーザAが見ている表示画面にオブジェクト200は既に含まれているが、ユーザAはオブジェクト200に気付かないこともある。表示画面に方向画像202b、202d、202f、202gを含ませることで、ユーザAは、どのオブジェクトに注目するべきかを一目で分かる。なお方向画像202hはオブジェクト200に向いていないため、画像生成部56は、画像データに方向画像202hを含ませないようにしてもよい。
In the screen example shown in FIG. 8, the
図9は、3次元仮想空間をレンダリングした画像に方向画像を含めた別の画面例を示す。図8では、画面左上の看板が注目オブジェクトである場合について説明したが、図9では、その看板は実は注目オブジェクトではなく、別の看板が注目オブジェクトであった例について説明する。 FIG. 9 shows another screen example in which a direction image is included in an image obtained by rendering a three-dimensional virtual space. Although the case where the signboard at the upper left of the screen is an attention object has been described with reference to FIG. 8, an example in which the signboard is not actually the attention object and another signboard is the attention object will be described.
このとき、ユーザB、ユーザD、ユーザF、ユーザGのキャラクタは、間違ったオブジェクトに注目している。そのため各キャラクタに付加される方向画像は、注目オブジェクトを見ていないことを示す点線矢印画像となっている。 At this time, the characters of the user B, the user D, the user F, and the user G are paying attention to the wrong object. Therefore, the direction image added to each character is a dotted arrow image indicating that the object of interest is not viewed.
ここでユーザHのキャラクタに付加される方向画像は、実線矢印画像であり、正しく注目オブジェクトを見ていることを示している。これにより図9に示す画面を見たユーザAは、ユーザHの目線の先に注目オブジェクトが存在していることを認識する。 Here, the direction image added to the character of the user H is a solid line arrow image, which indicates that the object of interest is correctly viewed. As a result, the user A who sees the screen shown in FIG. 9 recognizes that the object of interest exists beyond the line of sight of the user H.
仮想空間において、あるオブジェクトに注目させたい場合、当該オブジェクトを目立たせるような(たとえば点滅させるような)エフェクトを施すことも有効である。しかしながら、そもそもオブジェクトが表示画面に含まれていない場合には、ユーザがエフェクトを認識できない。そこで図9に示すように、正しくオブジェクトに注目しているユーザのキャラクタに方向画像を付加することで、ユーザは、表示画面に含まれていないオブジェクトの場所を確認できるようになる。 When it is desired to pay attention to an object in the virtual space, it is also effective to apply an effect that makes the object stand out (for example, blinks). However, if the object is not included in the display screen, the user cannot recognize the effect. Therefore, as shown in FIG. 9, by adding a direction image to the user's character who is correctly paying attention to the object, the user can check the location of the object not included in the display screen.
現実世界でツアーに参加した場合であっても、ツアーガイドの説明をよく聞いていなかったために、なにに注目するべきか分からないことがある。そのような場合、人は、周りの人の動きから注目するべきものが何であるかを想像する。実施例では、別のユーザのキャラクタに方向画像を付加することで、ユーザAが注目オブジェクトを認識しやすくしており、仮想空間のツアー参加者は、現実世界に似た感覚で注目オブジェクトを探し出せる。 Even if you take a tour in the real world, you may not know what to pay attention to because you didn't listen to the tour guide. In such a case, the person imagines what should be noted from the movements of those around him. In the embodiment, by adding a direction image to another user's character, the user A can easily recognize the object of interest, and the tour participant in the virtual space can find the object of interest with a sense similar to the real world. .
実施例では方向画像を矢印で表現したが、これに限定するものではない。たとえばキャラクタの視野角を表現するべく、キャラクタ位置を頂点として注目オブジェクトに延びる錐体の方向画像を使用してもよい。また方向画像は半透明の色を付されて、方向画像の背景となる空間画像の視認性を確保してもよい。 In the embodiment, the direction image is represented by an arrow, but the present invention is not limited to this. For example, in order to express the viewing angle of the character, a direction image of a cone extending to the object of interest with the character position as a vertex may be used. The direction image may be given a translucent color to ensure the visibility of the spatial image serving as the background of the direction image.
なおユーザは一度オブジェクトを認識すると、その後、オペレータからの説明が開始されるまでの間、常にオブジェクトを見続けるとは限らない。他のユーザのオブジェクト設置地点への到着が遅れており、オペレータの説明がまだ開始されないのであれば、周囲の光景を見渡すことも観光の醍醐味である。そのため、あるユーザが遅れてオブジェクト設置地点に到着したときには、他の全てのユーザがオブジェクトを見ていないことも想定される。 Note that once the user recognizes the object, the user does not always continue to see the object until the explanation from the operator is started. If the arrival of other users at the object installation point is delayed and the explanation of the operator has not started yet, it is also a pleasure of sightseeing to look around the surrounding scene. Therefore, when a certain user arrives at the object installation point with a delay, it is assumed that all other users do not see the object.
そこで画像生成部56は、キャラクタが現時点で注目オブジェクトを見ていなくても、過去に注目オブジェクトを見ていたことがあれば、そのキャラクタに、注目オブジェクトに向かう方向を示す方向画像を付加してもよい。たとえば画像生成部56は、当該キャラクタが、最後に注目オブジェクトを見た時刻から所定時間内に限って、注目オブジェクトに向かう方向を示す方向画像を付加してもよい。この方向画像は、注目オブジェクトの位置を示すヒントとなり、オブジェクト設置位置に遅れてくるユーザのオブジェクト探索をアシストする。しかしながら、あまりにも遅れてオブジェクト設置位置に到着するユーザは他のユーザに大きな迷惑をかけているため、注目オブジェクトに向かう方向を示す方向画像の表示時間を所定時間に限定することで、アシストに制限をかけてもよい。
Therefore, if the character has not seen the object of interest at the current time but has seen the object of interest in the past, the
なお画像生成部56は、当該キャラクタが最後に注目オブジェクトを見た時刻における位置から所定距離内にいる場合に限って、注目オブジェクトに向かう方向を示す方向画像を付加してもよい。当該キャラクタが同じ位置にとどまっている場合には、その地点から方向画像を付加すればよいが、たとえば当該キャラクタが移動して、周囲を散策しているような場合は、もはや注目オブジェクトを見られない位置にいる可能性もある。そこで画像生成部56は、当該キャラクタの現在位置にしたがって、過去に見た注目オブジェクトに向かう方向を示す方向画像を付加するか否かを決定してもよい。
Note that the
なお実施例では、複数のユーザが旅行参加者となるサービスについて説明したが、サーバシステム4におけるオペレータないしはそれに準ずる者が、ダミー参加者としてツアーに参加してもよい。ダミー参加者は、旅行の全容を把握しており、快適なツアーを陰からアシストする役割を担う。たとえば、どのユーザも注目オブジェクトを見つけられないような場合に、ダミー参加者が注目オブジェクトに視線を向けることで、他のユーザは、ダミー参加者のキャラクタから注目オブジェクトに向かう方向画像を見て、注目オブジェクトの場所を認識できるようになる。 In addition, although the Example demonstrated the service in which a some user becomes a travel participant, the operator in the server system 4 or the person according to it may participate in a tour as a dummy participant. The dummy participant knows the whole of the trip and plays the role of assisting with a comfortable tour behind the scenes. For example, when no user can find the target object, the dummy participant looks at the target object, so that other users see the direction image from the dummy participant character toward the target object, The location of the object of interest can be recognized.
なお実際にオペレータがダミー参加者としてツアーに参加するのではなく、管理サーバ5が所定のルールにより動作するキャラクタをツアーに参加させてもよい。このキャラクタはいわゆるノンプレイヤーキャラクタ(NPC)であり、実施例では「非操作キャラクタ」と呼ぶ。このときサービス提供主体は、参加するキャラクタに非操作キャラクタが紛れ込んでいることを、ユーザに知らせないことが好ましい。
It should be noted that instead of the operator actually participating in the tour as a dummy participant, the
管理サーバ5は、非操作キャラクタを動かすための操作情報を、各ユーザの情報処理装置10に送信する。情報処理装置10において、サーバデータ受信部26が、管理サーバ5から非操作キャラクタの操作情報を受信すると、第2操作情報取得部44が、非操作キャラクタの操作情報を取得し、キャラクタ制御部52に供給する。非操作キャラクタの操作情報は、別のユーザの操作情報と同様に扱われる。
The
管理サーバ5は、説明イベントの開始後、所定の条件が成立した場合に、非操作キャラクタが注目オブジェクトを見るように動かすための操作情報を、各情報処理装置10に送信する。たとえば説明イベントの開始後から所定時間内に、どのユーザも注目オブジェクトを見つけられない場合に、非操作キャラクタが注目オブジェクトを見るように動作する。これにより非操作キャラクタから注目オブジェクトに向かう方向を示す方向画像が表示されることになり、ユーザは、注目オブジェクトの場所を認識できるようになる。非操作オブジェクトの利用は、管理サーバ5側で、ダミー参加者のキャラクタを操作しなくてよいため効率的である。なお管理サーバ5では、非操作キャラクタをダミー参加者による操作キャラクタに、またはダミー参加者による操作キャラクタを非操作キャラクタに自在に切り替えられることが好ましい。
When a predetermined condition is satisfied after the start of the explanation event, the
以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 In the above, this invention was demonstrated based on the Example. It is to be understood by those skilled in the art that the embodiments are exemplifications, and that various modifications can be made to combinations of the respective components and processing processes, and such modifications are within the scope of the present invention.
実施例では、HMD100の向いている方向をユーザの視線方向として利用したが、ユーザの目の動きを検出してユーザの真の視線方向を検出できる場合には、その視線方向を利用してよい。
In the embodiment, the direction in which the
また実施例で説明したサービスにおいて、ユーザが注目オブジェクトを探しやすくするために、入力装置16を利用できるようにしてもよい。たとえば入力装置16に姿勢センサを搭載し、入力装置16の姿勢を変化させたときに、現実の3次元空間における入力装置16の姿勢方向と、仮想の3次元空間におけるユーザキャラクタから注目オブジェクトに向かう方向とが一致ないしは近似すると、入力装置16が振動したり、報知音が出力されることで、ユーザに注目オブジェクトの向きを知らせてもよい。入力装置16をオブジェクト探索に利用するメリットは、HMD100を装着したユーザが、首を動かして注目オブジェクトを探さなくてもよい点にある。たとえばHMD100の表示パネル130に、別のユーザキャラクタから注目オブジェクトに向かう方向を示す方向画像が表示されていない場合、入力装置16を用いて注目オブジェクトを探索することで、いち早く注目オブジェクトを見つけられるようになる。たとえば宝探しのように、オブジェクトを見つけることを目的とするサービスでは、このような入力装置16の機能が有用に利用されると考えられる。
In the service described in the embodiment, the
また実施例の情報処理システム1では、図6に示す処理機能を情報処理装置10にもたせたが、管理サーバ5にもたせてもよい。この場合、管理サーバ5は、実施例の情報処理装置10の機能を備えたクラウドサーバとなり、各ユーザシステム3に対して個別に生成した画像データを提供する。
Further, in the information processing system 1 of the embodiment, the processing function shown in FIG. In this case, the
1・・・情報処理システム、3・・・ユーザシステム、4・・・サーバシステム、5・・・管理サーバ、6・・・記憶装置、7・・・コンテンツDB、8・・・ユーザ挙動DB、10・・・情報処理装置、15・・・出力装置、20・・・センサデータ受信部、22・・・撮影画像受信部、24・・・入力データ受信部、26・・・サーバデータ受信部、30・・・操作情報送信部、32・・・画像提供部、34・・・音声提供部、40・・・取得部、42・・・第1操作情報取得部、44・・・第2操作情報取得部、46・・・オブジェクト情報取得部、50・・・処理部、52・・・キャラクタ制御部、54・・・判定部、56・・・画像生成部、100・・・HMD。
DESCRIPTION OF SYMBOLS 1 ... Information processing system, 3 ... User system, 4 ... Server system, 5 ... Management server, 6 ... Storage device, 7 ... Content DB, 8 ... User behavior DB DESCRIPTION OF
Claims (6)
仮想空間においてユーザのキャラクタを動かすための操作情報を取得する取得部と、
当該ユーザとは別のユーザのキャラクタを含む画像データを、表示装置に出力する画像提供部と、を備え、前記画像提供部は、別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを、前記表示装置に出力するものであって、
仮想空間には、ユーザが注目するべきオブジェクトが設定されており、
別のユーザのキャラクタの視野角内に前記オブジェクトが含まれていれば、別のユーザのキャラクタから前記オブジェクトに向かう方向を示す方向画像が画像データに含まれ、別のユーザのキャラクタの視野角内に前記オブジェクトが含まれていなければ、別のユーザの視線方向を示す方向画像が画像データに含まれる、情報処理装置。 An information processing device that outputs image data of an application to a display device,
An acquisition unit for acquiring operation information for moving the user's character in the virtual space;
An image providing unit that outputs image data including a character of a user different from the user to a display device, and the image providing unit was viewing and / or viewing the character of another user the image data including the direction image indicating the direction, there is to be output to the display device,
In the virtual space, objects that the user should pay attention to are set,
If the object is included in the viewing angle of another user's character, the image data includes a direction image indicating the direction from the other user's character toward the object, and is within the viewing angle of the other user's character. If the object is not included in the image information, the image data includes a direction image indicating the direction of the line of sight of another user .
当該情報処理装置は、
仮想空間における当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、前記取得部が取得したそれぞれの操作情報にもとづいて制御する制御部と、
仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタを含む画像データを生成する画像生成部と、をさらに備える、
ことを特徴とする請求項1に記載の情報処理装置。 The acquisition unit acquires operation information for moving another user's character in the virtual space,
The information processing apparatus
A control unit that controls the movement of the user's character in the virtual space, and the movement of the user's character different from the user based on the respective operation information acquired by the acquisition unit;
An image generation unit that generates image data including another user's character based on the position of the user's character in the virtual space;
The information processing apparatus according to claim 1.
ことを特徴とする請求項1または2に記載の情報処理装置。 In the image data, a direction image added to a character watching and / or watching the object and a direction image added to a character not watching the object are displayed in different display modes. include,
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記取得部は、前記検出部により検出されたヘッドマウントディスプレイの姿勢情報を、ユーザのキャラクタを動かすための操作情報として取得する、
ことを特徴とする請求項1から3のいずれかに記載の情報処理装置。 A detection unit for detecting the posture of the head mounted display mounted on the user's head;
The acquisition unit acquires the posture information of the head mounted display detected by the detection unit as operation information for moving the user character.
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
仮想空間において当該ユーザとは別のユーザのキャラクタを動かすための操作情報を取得するステップと、
当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、それぞれの操作情報にもとづいて制御するステップと、
仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタと、当該別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを生成するステップと、を有し、
画像データを生成するステップは、
別のユーザのキャラクタの視野角内に所定のオブジェクトが含まれていれば、別のユーザのキャラクタから前記オブジェクトに向かう方向を示す方向画像を画像データに含ませ、別のユーザのキャラクタの視野角内に前記オブジェクトが含まれていなければ、別のユーザの視線方向を示す方向画像を画像データに含ませる、画像生成方法。 Obtaining operation information for moving the user's character in the virtual space;
Obtaining operation information for moving a character of a user different from the user in the virtual space;
Controlling the movement of the user's character and the movement of a user's character different from the user based on each operation information;
Step of generating image data including another user's character and a direction image showing the direction of the other user's character and / or a direction of viewing based on the position of the user's character in the virtual space And having
The step of generating image data is as follows:
If a predetermined object is included within the viewing angle of another user character, the image data includes a direction image indicating the direction from the other user character toward the object, and the viewing angle of the other user character. If the object is not included in the image data, a direction image indicating the direction of the line of sight of another user is included in the image data .
仮想空間においてユーザのキャラクタを動かすための操作情報を取得する機能と、
仮想空間において当該ユーザとは別のユーザのキャラクタを動かすための操作情報を取得する機能と、
当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、それぞれの操作情報にもとづいて制御する機能と、
仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタと、当該別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを生成する機能と、を実現させるためのプログラムであって、
画像データを生成する機能は、
別のユーザのキャラクタの視野角内に所定のオブジェクトが含まれていれば、別のユーザのキャラクタから前記オブジェクトに向かう方向を示す方向画像を画像データに含ませ、別のユーザのキャラクタの視野角内に前記オブジェクトが含まれていなければ、別のユーザの視線方向を示す方向画像を画像データに含ませる機能を含む、プログラム。 On the computer,
A function of acquiring operation information for moving the user's character in the virtual space;
A function of acquiring operation information for moving a character of a user different from the user in the virtual space;
A function for controlling the movement of the user's character and the movement of a user's character different from the user based on each operation information;
A function for generating image data including another user's character and a direction of the other user's character and / or a direction image indicating the direction of viewing based on the position of the user's character in the virtual space a program for causing the the realization,
The function to generate image data is
If a predetermined object is included within the viewing angle of another user character, the image data includes a direction image indicating the direction from the other user character toward the object, and the viewing angle of the other user character. If the object is not included in the program, the program includes a function of including, in the image data, a direction image indicating the direction of the line of sight of another user.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016213117A JP6615732B2 (en) | 2016-10-31 | 2016-10-31 | Information processing apparatus and image generation method |
PCT/JP2017/038377 WO2018079557A1 (en) | 2016-10-31 | 2017-10-24 | Information processing device and image generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016213117A JP6615732B2 (en) | 2016-10-31 | 2016-10-31 | Information processing apparatus and image generation method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018073172A JP2018073172A (en) | 2018-05-10 |
JP2018073172A5 JP2018073172A5 (en) | 2019-01-17 |
JP6615732B2 true JP6615732B2 (en) | 2019-12-04 |
Family
ID=62025056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016213117A Active JP6615732B2 (en) | 2016-10-31 | 2016-10-31 | Information processing apparatus and image generation method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6615732B2 (en) |
WO (1) | WO2018079557A1 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020129176A (en) * | 2019-02-07 | 2020-08-27 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP7395172B2 (en) * | 2019-06-07 | 2023-12-11 | 株式会社アルファコード | Incentive grant system, incentive grant device, incentive grant method, and incentive management program in virtual reality space |
JP2021121912A (en) * | 2020-01-31 | 2021-08-26 | ソニーグループ株式会社 | Information processing device and information processing method |
JP2021121913A (en) * | 2020-01-31 | 2021-08-26 | ソニーグループ株式会社 | Information processing device and information processing method |
JP7324469B2 (en) | 2021-06-28 | 2023-08-10 | グリー株式会社 | Information processing system, information processing method, information processing program |
WO2023276156A1 (en) * | 2021-07-02 | 2023-01-05 | 日本電信電話株式会社 | Spatial image display device, spatial image display method, and program |
US20240345657A1 (en) * | 2021-08-25 | 2024-10-17 | Ntt Docomo, Inc. | Display control device |
JP7550456B2 (en) * | 2021-11-19 | 2024-09-13 | グリー株式会社 | Information processing system, information processing method, and information processing program |
JP2023148674A (en) * | 2022-03-30 | 2023-10-13 | 株式会社バンダイナムコエンターテインメント | Computer system, virtual space control system and virtual space control method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002113261A (en) * | 2000-07-06 | 2002-04-16 | Sony Computer Entertainment Inc | Game system, storage medium and entertainment device |
JP4262011B2 (en) * | 2003-07-30 | 2009-05-13 | キヤノン株式会社 | Image presentation method and apparatus |
JP2016158795A (en) * | 2015-02-27 | 2016-09-05 | 株式会社ソニー・インタラクティブエンタテインメント | Display control program, display control apparatus, and display control method |
US10062208B2 (en) * | 2015-04-09 | 2018-08-28 | Cinemoi North America, LLC | Systems and methods to provide interactive virtual environments |
-
2016
- 2016-10-31 JP JP2016213117A patent/JP6615732B2/en active Active
-
2017
- 2017-10-24 WO PCT/JP2017/038377 patent/WO2018079557A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018079557A1 (en) | 2018-05-03 |
JP2018073172A (en) | 2018-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6615732B2 (en) | Information processing apparatus and image generation method | |
JP6058184B1 (en) | Method and program for controlling head mounted display system | |
JP6845111B2 (en) | Information processing device and image display method | |
JP6807455B2 (en) | Information processing device and image generation method | |
US20160292924A1 (en) | System and method for augmented reality and virtual reality applications | |
WO2017086263A1 (en) | Image processing device and image generation method | |
JP6298561B1 (en) | Program executed by computer capable of communicating with head mounted device, information processing apparatus for executing the program, and method executed by computer capable of communicating with head mounted device | |
JP6462059B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP6242473B1 (en) | Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program | |
JP6342024B1 (en) | Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program | |
JP2019087226A (en) | Information processing device, information processing system, and method of outputting facial expression images | |
KR20200060361A (en) | Information processing apparatus, information processing method, and program | |
WO2015048890A1 (en) | System and method for augmented reality and virtual reality applications | |
JP2019046291A (en) | Information processing apparatus and image display method | |
JP2019128721A (en) | Program for reflecting user motion on avatar, information processing device for executing the same and method for distributing image containing avatar | |
WO2018016928A1 (en) | Virtual reality implementation system and virtual reality implementation method thereof | |
JP6518645B2 (en) | INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD | |
WO2022149496A1 (en) | Entertainment system and robot | |
JP2020145654A (en) | Moving image display system, information processing device, and moving image display method | |
US20190089899A1 (en) | Image processing device | |
JP6999538B2 (en) | Information processing methods, information processing programs, information processing systems, and information processing equipment | |
US11310472B2 (en) | Information processing device and image generation method for projecting a subject image onto a virtual screen | |
JP6921204B2 (en) | Information processing device and image output method | |
JP2022015647A (en) | Information processing apparatus and image display method | |
US20240205513A1 (en) | Video display system, information processing device, information processing method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6615732 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |