JP2021043476A - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- JP2021043476A JP2021043476A JP2017249034A JP2017249034A JP2021043476A JP 2021043476 A JP2021043476 A JP 2021043476A JP 2017249034 A JP2017249034 A JP 2017249034A JP 2017249034 A JP2017249034 A JP 2017249034A JP 2021043476 A JP2021043476 A JP 2021043476A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- user
- virtual object
- image
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザの仮想現実体験の利便性を向上させることができる情報処理装置を提供する。【解決手段】情報処理システムにおいて、情報処理装置10は、ユーザに装着されたHMD1に表示される仮想空間の画像を提供する。情報処理装置は、ユーザの付近の実空間を撮像した実空間画像を取得する画像取得部12と、実空間画像に含まれる物体を認識し、仮想空間V上に物体に対応する仮想オブジェクトを生成する仮想オブジェクト生成部13と、仮想オブジェクトを含む仮想空間Vの少なくとも一部を示す仮想空間画像であって、HMD1に表示される該仮想空間画像を生成する画像生成部16と、を備える。【選択図】図1
Description
本発明の一側面は、情報処理装置に関する。
従来、HMD(Head Mounted Display)等を装着したユーザに、あたかも当該ユーザが仮想空間上に存在するかのような視界を提供することにより、仮想空間に没入させる仮想現実(VR:Virtual Reality)と呼ばれる技術が知られている(例えば、特許文献1参照)。このようなVR技術では、例えば、ユーザの動作(例えば頭部及び手等の身体の一部の動作)に連動するユーザオブジェクト(アバター、キャラクタ等)が、仮想空間上に生成され、ユーザの動作に応じて制御される。そして、ユーザオブジェクトから見た視界を示す画像がHMDに表示されることにより、あたかも仮想空間上にユーザオブジェクトとして存在しているかのような体験が、ユーザに提供される。
しかしながら、例えば仮想空間を介して複数のユーザ間で打合せ等のビジネスコミュニケーションを行う場合等には、ユーザが手元にある物(例えば、議事メモ、ノートPC等)を全く認識できないことは、ユーザの利便性を損なう結果となり得る。
そこで、本発明の一側面は、ユーザの仮想現実体験の利便性を向上させることができる情報処理装置を提供することを目的とする。
本発明の一側面に係る情報処理装置は、ユーザに装着された表示装置に表示される仮想空間の画像を提供する情報処理装置であって、ユーザの付近の実空間を撮像した実空間画像を取得する画像取得部と、実空間画像に含まれる物体を認識し、仮想空間上に上記物体に対応する仮想オブジェクトを生成する仮想オブジェクト生成部と、上記仮想オブジェクトを含む仮想空間の少なくとも一部を示す仮想空間画像であって、表示装置に表示される該仮想空間画像を生成する画像生成部と、を備える。
本発明の一側面に係る情報処理装置によれば、ユーザの付近の実空間を撮像した実空間画像に含まれる物体が、仮想空間上の仮想オブジェクトとして生成され、当該仮想オブジェクトを含む仮想空間画像(当該仮想オブジェクトが写り込んだ仮想空間画像)が生成される。このような処理により、表示装置を装着したユーザは、仮想空間画像を介して自身の付近に存在する物体を視認することができる。したがって、上記情報処理装置によれば、ユーザの仮想現実体験の利便性を向上させることができる。
本発明の一側面によれば、ユーザの仮想現実体験の利便性を向上させることができる情報処理装置を提供することができる。
以下、添付図面を参照して、本発明の一実施形態について詳細に説明する。なお、図面の説明において同一又は相当要素には同一符号を付し、重複する説明を省略する。
図1は、本発明の一実施形態に係る情報処理装置10を含む情報処理システム100の機能構成を示す図である。情報処理装置10は、ゲーム空間及びチャット空間等の任意のVRコンテンツが展開される仮想空間を、ユーザに装着されたHMD(Head Mounted Display)1(表示装置)を介してユーザに提供する装置である。すなわち、情報処理装置10は、HMD1に表示される仮想空間の画像を介してユーザに仮想現実(VR)体験を提供する装置である。情報処理装置10は、実空間に存在する物体から当該物体に対応する仮想オブジェクトを仮想空間上に生成する機能を有する。
本実施形態では、同一の仮想空間上に複数のユーザの各々によって操作される複数のユーザオブジェクト(アバター、キャラクタ等)が存在する場合について説明する。ただし、後述する情報処理装置10の処理は、同一の仮想空間上に一人のユーザのユーザオブジェクトのみが存在する場合にも適用され得る。
図1に示されるように、情報処理装置10は、通信部11と、画像取得部12と、仮想オブジェクト生成部13と、仮想オブジェクト記憶部14と、共有設定部15と、画像生成部16と、物体検出部17と、仮想オブジェクト更新部18と、を備えている。情報処理装置10は、例えば、複数のユーザの各々によって装着された複数のHMD1と通信可能なゲーム端末、パーソナルコンピュータ、タブレット端末等である。ただし、情報処理装置10の実装形態は、特定の形態に限定されない。例えば、情報処理装置10は、HMD1と同じ装置に内蔵されたコンピュータ装置であってもよい。また、情報処理装置10は、インターネット等の通信回線を介して複数のユーザの各々のHMD1(又は各HMD1の動作を制御する各コンピュータ端末)と通信可能なサーバ装置等であってもよい。また、情報処理装置10は、物理的に単一の装置によって構成されてもよいし、複数の装置によって構成されてもよい。例えば、情報処理装置10は、一部の機能(例えば、画像生成部16の機能)が各HMD1の動作を制御するコンピュータ端末(HMD1毎に設けられたコンピュータ端末)により実現され、他の機能が当該コンピュータ端末と通信可能なサーバ装置により実現される分散システムとして構成されてもよい。
HMD1は、ユーザの身体(例えば頭部)に装着される表示装置である。HMD1は、例えば、ユーザの頭部に装着された状態においてユーザの各目の前に画像(左目用画像及び右目用画像)を表示する表示部を備えている。左目用画像と右目用画像とに互いに異なる画像(映像)が表示されることにより、立体的な画像(3次元画像)がユーザによって認識される。なお、上述した表示部は、眼鏡型、ヘルメット型等のようなユーザの身体に装着される本体部と一体的に構成されたディスプレイであってもよいし、HMD1の本体部と着脱自在なデバイス(例えば、本体部に取り付けられるスマートフォン等の端末のディスプレイ)が、上記表示部として機能してもよい。
HMD1は、例えば、ユーザの頭部(すなわち、HMD1)の位置、向き(傾き)、速度、加速度等を検出可能なセンサ(例えば、加速度センサ、角速度センサ、地磁気センサ、ジャイロセンサ等)を備えている。HMD1は、このようなセンサにより検出されたユーザの頭部の動作(位置、向き、速度、加速度等)の情報を、ユーザの頭部の動作情報として定期的に情報処理装置10に送信する。
また、HMD1は、例えば、ユーザの目の動作(例えば、黒目部分の位置及び動き等)を検出する赤外線カメラ等のセンサを備えている。当該センサは、例えば、公知のアイトラッキング機能を有するセンサである。当該センサは、例えば、ユーザの右目及び左目に照射した赤外光の角膜等からの反射光を受けることで、各眼球の動作を検出する。HMD1は、上述のようにして検出されるユーザの目の動作情報を、定期的に情報処理装置10に送信する。
また、HMD1は、当該HMD1を装着したユーザの音声を入力するためのマイク(不図示)と、各ユーザの音声等を出力するスピーカー(不図示)と、を付属品として備えている。マイクにより取得された音声は、情報処理装置10に送信される。また、スピーカーは、情報処理装置10から受信した他ユーザの音声等を出力する。このようなマイク及びスピーカーにより、複数ユーザ間で会話(チャット)を行うことが可能となっている。なお、マイク及びスピーカーは、HMD1と一体型のデバイスであってもよいし、HMD1とは異なるデバイスであってもよい。
また、HMD1は、当該HMD1を装着したユーザの付近の空間(本実施形態では、ユーザの前方の空間)を撮影するためのカメラ2(撮影装置)を付属品として備えている。HMD1とカメラ2とは相互に通信可能となっている。カメラ2は、HMD1の本体部と一体的に構成されたカメラであってもよいし、HMD1の本体部と着脱自在なデバイス(例えばスマートフォン等)に設けられたカメラであってもよい。
本実施形態では、図2に示されるように、HMD1のカメラ2は、当該HMD1を装着したユーザ5の前方の机3上の特定領域4を認識し、当該特定領域4上に存在する物体を撮像する。例えば、特定領域4は、机3の上に置かれたグリーンバックのマット等によって規定される。例えば、当該マットの特定位置(例えば中央位置又は四隅等)にカメラ2と通信可能なセンサ(又はカメラ2により認識可能なマーカ)が埋め込まれており、カメラ2は、当該センサとの通信(又はマーカの認識)によって把握した当該センサ(又はマーカ)の位置に基づいて特定領域4を認識してもよい。なお、カメラ2は、必ずしもHMD1に付随する装置でなくてもよく、特定領域4を含む空間を撮影可能な位置に固定的に配置されるカメラ(HMD1とは別体の装置)であってもよい。また、カメラ2は、特定領域4を含む空間を互いに異なる複数のアングルから撮影する複数の固定カメラによって構成されていてもよい。この場合、複数の固定カメラにより撮影された互いに異なる複数のアングルの画像に基づいて、特定領域4上に存在する物体の三次元画像を得ることが可能となる。
例えば、カメラ2は、HMD1に付随するコントローラ(或いは、HMD1とは別体としてのコントローラ)に対するユーザからの操作に応じて、特定領域4を含む実空間の撮影を開始する。カメラ2により撮影された映像は、随時、HMD1に送信され、HMD1に表示される仮想空間画像に重畳して表示される。ここで、仮想空間画像は、当該HMD1を装着したユーザの頭部及び目の動作情報に基づいて特定されたアングルの仮想空間の画像である。例えば、カメラ2により撮影された映像は、仮想空間画像の隅部(例えば右上隅等)に設けられた小窓状の画面(いわゆるワイプ)に表示されてもよい。この場合、ユーザは、仮想空間画像を視認することにより仮想現実を体験すると同時に、当該小窓状の画面を確認することにより、特定領域4を含む空間(実空間)の状態を把握することができる。なお、この段階では、特定領域4上の物体は、仮想オブジェクトとして生成されていない。このため、当該特定領域4上の物体を仮想空間上で物のように扱ったり(例えば持ち運んだり)、当該ユーザ以外のユーザに認識させたりすることはできない。
通信部11は、有線又は無線の通信ネットワークを介して、HMD1(HMD1の付属品であるマイク、スピーカー、カメラ2、コントローラ等を含む)等の外部装置との間でデータを送受信する。本実施形態では、通信部11は、上述のようにHMD1において取得されたユーザの頭部及び目の動作情報を、HMD1から受信する。また、通信部11は、後述する画像生成部16により生成された画像をHMD1に送信する。この処理により、各ユーザに装着された各HMD1おいて、各ユーザの頭部及び目の動作情報に基づいて決定されたアングルの仮想空間の画像が表示される。また、通信部11は、上述したマイクに入力された各ユーザの音声を受信すると共に、受信された各ユーザの音声を各ユーザのスピーカーに送信する。このような処理により、ユーザ間で音声が共有され、上述したチャットが実現される。
画像取得部12は、ユーザの付近の実空間を撮像した実空間画像を取得する。例えば、画像取得部12は、通信部11を介して、上述したカメラ2により取得された画像(詳しくは後述)を実空間画像として取得する。また、仮想オブジェクト生成部13は、実空間画像に含まれる物体を認識し、仮想空間上に当該物体に対応する仮想オブジェクトを生成する。本実施形態では、仮想オブジェクト生成部13は、実空間画像に含まれる複数の物体のうちユーザにより指定された物体に対応する仮想オブジェクトを生成する。つまり、仮想オブジェクト生成部13は、実空間画像に含まれる全ての物体に対応する仮想オブジェクトを直ちに生成するのではなく、ユーザにより指定された物体に対応する仮想オブジェクトのみを生成する。このような処理により、ユーザが所望する仮想オブジェクトのみを生成でき、仮想オブジェクトの生成(以下「オブジェクト化」ともいう。)の処理負荷を低減できる。
図2の(B)は、ユーザ5の前方の特定領域4上に2つの物体6(6A,6B)が存在している状態を表している。物体6Aは、飲料が入ったペットボトルであり、物体6Bは、ユーザ5により操作されるノートPCである。例えば、上述したコントローラ等に対するユーザからの操作(画像取得指示)に応じて、カメラ2は、特定領域4を含む実空間画像を取得してHMD1に送信する。このような処理により、物体6A,6Bが含まれる実空間画像がHMD1に表示される。そして、例えば、ユーザ5は、上記コントローラ等を用いた操作により、実空間画像のうちオブジェクト化の対象となる物体6(ここでは一例として物体6B)を含む対象領域を指定する。続いて、当該実空間画像と対象領域を示す情報とが、HMD1から情報処理装置10へと送信される。
画像取得部12は、通信部11を介してこれらの情報(実空間画像及び対象領域を示す情報)を取得する。そして、仮想オブジェクト生成部13は、実空間画像における対象領域に対して公知の画像認識を実行する。このような処理により、当該対象領域に含まれる物体6Bの外観情報が抽出される。図2の(B)に示されるように、仮想オブジェクト生成部13は、このように抽出された外観情報に基づいて、物体6Bに対応する仮想オブジェクト8を生成する。
なお、図2の(B)の例では、仮想空間V上にユーザ5に対応付けられたユーザオブジェクト7が配置されている。本実施形態では一例として、仮想オブジェクト生成部13は、仮想空間V上におけるユーザオブジェクト7に対する仮想オブジェクト8の相対位置と実空間におけるユーザ5に対する物体6Bの相対位置とが一致するように、仮想オブジェクト8の位置を決定する。このような処理により、ユーザは、仮想空間V上でユーザオブジェクト7を介して仮想オブジェクト8に対する操作(例えば持ち運ぶ操作等)を行うことにより、実空間の物体6Bに対する操作を行うことが可能となる。ただし、ユーザオブジェクト7に対する仮想オブジェクト8の相対位置は、ユーザ5に対する物体6Bの相対位置と一致しなくてもよい。すなわち、仮想オブジェクト生成部13は、仮想空間上の任意の位置(例えば、ユーザ5によって指定された位置)に仮想オブジェクト8を生成してもよい。
仮想オブジェクト記憶部14は、仮想オブジェクト生成部13により生成された仮想オブジェクトに関する情報(以下「仮想オブジェクト情報」)を記憶する。本実施形態では一例として、仮想オブジェクト情報は、仮想オブジェクト毎に、仮想オブジェクトを一意に特定するための仮想オブジェクトID、仮想オブジェクトを描画するための外観情報、仮想オブジェクトが生成された生成時刻、仮想オブジェクトを生成する基となった実空間画像を取得したカメラ2(或いは当該カメラ2のユーザ5等)を一意に特定するためのカメラID、仮想オブジェクトの共有を許可されたユーザ(又はHMD1等の機器)を示す共有設定情報等を含んでいる。なお、カメラIDは、例えば、カメラ2により実空間画像が撮影された際に、当該実空間画像に対して付加情報として関連付けられる。
ここで、仮想空間Vは、複数のユーザによって共有される空間である。すなわち、仮想空間Vは、少なくとも第1HMD(HMD1、第1表示装置)を装着した第1ユーザ(ここではユーザ5)と第2HMD(HMD1、第2表示装置)を装着した第2ユーザ(ユーザ5とは異なるユーザ)とに共有される空間である。仮想空間Vは、例えば、複数ユーザ間で打合せ等のビジネスコミュニケーションを行うためのチャット空間である。このような場合、第1ユーザは、実空間の物体をオブジェクト化しつつも、当該オブジェクト化により生成された仮想オブジェクトの内容を特定のユーザ以外のユーザには知られたくない場合がある。例えば、機密情報が記載されたメモ等に対応する仮想オブジェクトについては、特定の役職以上のユーザのみに閲覧させたい場合がある。
そこで、共有設定部15は、第1ユーザによる指定に基づいて仮想オブジェクト生成部13により生成された仮想オブジェクトについて、第1ユーザから受け付けた操作内容に応じて、第2ユーザと当該仮想オブジェクトを共有するか否かを設定する。図2の(B)の例において、例えば、仮想オブジェクト8の共有を許可するユーザを設定するための共有設定画面が第1HMDに表示される。共有設定画面には、例えば、共有設定の対象となる仮想オブジェクト8の外観等を示す情報、当該仮想オブジェクト8の共有を許可するユーザを設定するための画面等が表示される。なお、仮想オブジェクト生成部13により複数の仮想オブジェクトが生成された場合には、上記共有設定画面は、当該複数の仮想オブジェクトの各々の共有設定を行うことが可能な設定画面であってもよい。
ユーザ5(第1ユーザ)は、当該共有設定画面に対して、上述したコントローラ等を用いた操作を行うことにより、仮想オブジェクト8の共有を許可するユーザ(或いは、共有を許可しないユーザ)を指定する。共有設定部15は、このような処理により生成された設定情報を取得し、当該設定情報に基づいて仮想オブジェクト8の共有設定情報を設定する。具体的には、共有設定部15は、仮想オブジェクト記憶部14に記憶された仮想オブジェクト8の仮想オブジェクト情報にアクセスし、当該仮想オブジェクト情報の共有設定情報を設定又は更新する。
画像生成部16は、仮想オブジェクト生成部13により生成された仮想オブジェクト8を含む仮想空間Vの少なくとも一部を示す仮想空間画像を生成する。具体的には、画像生成部16は、HMD1に表示される仮想空間画像(当該HMD1を装着したユーザの頭部及び目の動作情報に基づいて決定されたアングルの画像)に仮想オブジェクト8が写り込む場合には、当該仮想オブジェクト8を含む仮想空間画像を生成する。なお、仮想空間Vが複数のユーザによって共有される場合には、画像生成部16は、ユーザ毎(HMD1毎)の仮想空間画像を生成する。
ここで、上述した共有設定部15の処理によって、ある仮想オブジェクト(例えば、仮想オブジェクト8)について、あるユーザ(以下、第2ユーザ)との共有が許可されていない場合(すなわち、仮想オブジェクト8の閲覧が第2ユーザに許可されていない場合)があり得る。このような場合、画像生成部16は、第2ユーザとの共有が許可されていない仮想オブジェクト8を、第2ユーザのHMD1(第2HMD)に表示される仮想空間画像に表示しない。すなわち、画像生成部16は、第2HMD用の仮想空間画像に仮想オブジェクト8が含まれていたとしても、当該仮想空間画像において仮想オブジェクト8を非表示にする。一方、画像生成部16は、仮想オブジェクト8について第2ユーザとの共有が許可されており、第2HMD用の仮想空間画像に仮想オブジェクト8が含まれている場合には、第2HMD用の仮想空間画像に仮想オブジェクト8を表示する。このような処理により、仮想オブジェクト8の共有が許可されたユーザにのみ、仮想オブジェクト8を認識させることができる。
画像生成部16により生成されたユーザ毎(HMD1毎)の仮想空間画像は、各ユーザのHMD1に送信される。このような処理により、各ユーザは、HMD1を介して、上述した共有設定に応じた仮想オブジェクト8の表示又は非表示が反映された仮想空間画像を視認することになる。
物体検出部17は、仮想オブジェクト生成部13により仮想オブジェクトが生成された後に画像取得部12により更に取得された実空間画像から、当該仮想オブジェクトに対応する物体を検出する。
具体的には、物体検出部17は、当該更に取得された実空間画像の中に、既にオブジェクト化された物体と同一の物体が含まれている場合に、当該物体を検出する。例えば、物体検出部17は、仮想オブジェクト記憶部14に記憶されている一以上の仮想オブジェクト情報のうちから、当該更に取得された実空間画像に含まれる物体の外観に類似する外観情報(例えば、物体の輪郭、色、形状等に基づく公知の画像認識により、一定以上類似と認識される外観情報)と、当該更に取得された実空間画像を撮影したカメラ2を示すカメラIDと、当該更に取得された実空間画像が取得された時刻よりも過去の生成時刻と、が対応付けられた仮想オブジェクト情報を検索する。このような条件に合致する仮想オブジェクト情報が抽出された場合、物体検出部17は、当該更に取得された実空間画像に含まれる物体を、抽出された仮想オブジェクト情報により示される仮想オブジェクトに対応する物体として検出する。
上述した物体検出部17の処理について、図2の(B)の例を用いて具体的に説明する。この例において、物体6B(ノートPCの画面部分を含む)に対応する仮想オブジェクト8が生成された時点よりも後の時点において、画像取得部12が、当該物体6Bを含む実空間画像を取得する。この場合、物体検出部17は、仮想オブジェクト記憶部14に記憶されている一以上の仮想オブジェクト情報のうちから、当該実空間画像に含まれる物体6Bの外観に類似する外観情報と、当該実空間画像を撮影したカメラ2を示すカメラIDと、当該実空間画像が撮影された時刻よりも過去の生成時刻と、が対応付けられた仮想オブジェクト情報を検索する。このような処理により、仮想オブジェクト8の仮想オブジェクト情報が抽出される。その結果、物体検出部17は、当該実空間画像に含まれる物体6Bを、仮想オブジェクト8に対応する物体として検出する。
仮想オブジェクト更新部18は、物体検出部17により検出された物体の状態に基づいて、当該物体に対応する仮想オブジェクトの状態を更新する。上述した図2の(B)の例では、仮想オブジェクト更新部18は、物体検出部17により検出された物体6Bの状態に基づいて、当該物体6Bに対応する仮想オブジェクト8の状態を更新する。例えば、仮想オブジェクト8が最初に生成された時点よりも後の時点において取得された実空間画像に含まれる物体6Bの状態は、仮想オブジェクト8の生成時点における物体6Bの状態と異なる場合がある。具体的には、当該後の時点における物体6B(ノートPC)の画面(物体6Bの外観の一部)は、仮想オブジェクト8の生成時点における物体6Bの画面と異なっている場合がある。そこで、仮想オブジェクト更新部18は、物体6Bに対応する仮想オブジェクト8の状態(ここでは画面の内容)を、当該後の時点において取得された実空間画像に写った物体6Bの画面の内容に更新する。具体的には、仮想オブジェクト更新部18は、仮想オブジェクト記憶部14に記憶された仮想オブジェクト8の仮想オブジェクト情報の外観情報を、当該後の時点において取得された実空間画像に写った物体6Bの画面の内容に基づいて更新する。また、仮想オブジェクト更新部18は、仮想オブジェクト8の仮想オブジェクト情報の生成時刻を、当該更新が行われた時刻に変更する。以上のような処理により、実空間における最新の物体6Bの内容を、当該物体6Bに対応する仮想オブジェクト8に反映させることができる。
ここで、古い状態の物体に対応する仮想オブジェクトと新しい状態の物体に対応する仮想オブジェクトとを仮想空間V上に並存させ、見比べたい場合もあり得る。そこで、上述した仮想オブジェクト生成部13、物体検出部17、及び仮想オブジェクト更新部18は、以下のような処理を実行してもよい。
すなわち、物体検出部17は、上述のように更に取得された実空間画像から、既に生成されている仮想オブジェクトに対応する物体を検出した場合、当該仮想オブジェクトを更新する第1処理(すなわち、上述した仮想オブジェクト更新部18の処理)と当該物体に対応する新たな仮想オブジェクトを生成する第2処理(すなわち、上述した仮想オブジェクト生成部13の処理)とのいずれを実行するかについてのユーザの選択を受け付ける。例えば、物体検出部17は、第1処理と第2処理とのいずれかを選択させるための選択画面をユーザのHMD1に表示させ、ユーザからの上記コントローラ等による選択操作の結果(ユーザの選択)を取得する。
物体検出部17が第1処理を実行することを示すユーザの選択を受け付けた場合、仮想オブジェクト更新部18が上記第1処理を実行する。一方、物体検出部17が第2処理を実行することを示すユーザの選択を受け付けた場合、仮想オブジェクト生成部13が上記第2処理を実行する。このような構成によれば、既に生成された仮想オブジェクトを更新する第1処理と、新規に新たな仮想オブジェクトを生成する第2処理とを、ユーザの希望に応じて、適切に切り替えて実行することができる。
次に、図2〜図5を参照して、情報処理システム100の動作の一例について説明する。図3は、仮想オブジェクトを生成するまでの処理を示すシーケンス図である。図4は、仮想オブジェクトが生成されてから共有設定に応じた仮想空間画像が各HMD1に表示されるまでの処理を示すシーケンス図である。図5は、実空間画像から既にオブジェクト化された物体が検出された場合の処理(仮想オブジェクトの更新又は新規生成)を示すシーケンス図である。
図3に示されるように、まず、情報処理装置10が、複数のユーザによって共有される仮想空間Vを生成する(ステップS1)。具体的には、各ユーザに対応付けられたユーザオブジェクト等の各種オブジェクトが初期位置に配置された仮想空間Vが生成される。このように生成された仮想空間Vを示す仮想空間データ(各ユーザオブジェクトから見た仮想空間の画像)は、各ユーザのHMD1(ここでは、第1HMD及び第2HMD)に送信される(ステップS2)。これにより、各ユーザは、各HMD1を介して、あたかも仮想空間Vにいるかのような仮想現実を体験する。
続いて、第1HMDが、上記コントローラ等に対する第1HMDのユーザ5(第1ユーザ)からの操作に応じて、カメラ2に対して撮影開始を指示する(ステップS3)。撮影開始指示を受け取ったカメラ2は、特定領域4(図2参照)を含む実空間の撮影を開始し、当該実空間の映像を取得する(ステップS4)。カメラ2により撮影された映像は、随時第1HMDに送信され(ステップS5)、第1HMDに表示される仮想空間画像に重畳して表示される(ステップS6)。例えば、カメラ2により撮影された映像は、仮想空間画像の隅部に設けられた小窓状の画面(ワイプ)に表示される。
続いて、第1HMDが、上記コントローラ等に対するユーザ5からの操作に応じて、カメラ2に対して実空間画像の取得を指示する(ステップS7)。ここで、実空間画像は、仮想オブジェクトを抽出する基となる静止画像である。画像取得指示を受け取ったカメラ2は、特定領域4を含む実空間を撮像した実空間画像を取得する(ステップS8)。カメラ2により取得された実空間画像は、第1HMDに送信され(ステップS9)、第1HMDに表示される(ステップS10)。
続いて、第1HMDは、ユーザ5による上記コントローラ等に対する操作を受け付けることにより、実空間画像のうちオブジェクト化の対象となる物体を含む対象領域(ここでは一例として、物体6Bを含む領域)を示す情報を取得する(ステップS11)。続いて、ステップS9において取得された実空間画像とステップS11において取得された対象領域を示す情報とが、情報処理装置10に送信される(ステップS12)。
続いて、画像取得部12が、ステップS12において送信された実空間画像及び対象領域を示す情報を取得する(ステップS13)。続いて、仮想オブジェクト生成部13が、実空間画像における対象領域に対して公知の画像認識を実行することにより、当該対象領域に含まれる物体6Bに対応する仮想オブジェクト8を生成する(ステップS14)。この際、仮想オブジェクト8に関する仮想オブジェクト情報が、仮想オブジェクト記憶部14に記憶される。
続いて、図4に示されるように、共有設定部15が、仮想オブジェクト8の外観等のデータを第1HMDに送信し(ステップS15)、上述した共有設定画面(例えば、共有設定の対象となる仮想オブジェクト8の外観を含む設定画面)を第1HMDに表示させる(ステップS16)。第1HMD(例えば、第1HMDに付随する上記コントローラ)は、共有設定画面に対してユーザ5によって入力された共有設定の内容を示す設定情報を取得し(ステップS17)、情報処理装置10に送信する(ステップS18)。続いて、共有設定部15が、当該設定情報に基づいて、仮想オブジェクト8の共有設定情報を設定する(ステップS19)。
続いて、画像生成部16が、仮想オブジェクト生成部13により生成された仮想オブジェクト8を含む仮想空間Vの少なくとも一部を示す仮想空間画像を生成する(ステップS20)。ここで、画像生成部16は、ユーザ毎(HMD1毎)に仮想空間画像を生成し、第1HMD用の仮想空間画像を第1HMDに送信すると共に、第2HMD用の仮想空間画像を第2HMDに送信する(ステップS21,S22)。続いて、第1HMD及び第2HMDの各々において、仮想空間画像が表示される(ステップS23,S24)。
ここで、仮想オブジェクト8について、第2HMDのユーザ(第2ユーザ)との共有が許可されていない場合には、ステップS20において、画像生成部16は、第2HMD用の仮想空間画像に仮想オブジェクト8を表示しない。すなわち、画像生成部16は、仮想オブジェクト8が非表示とされた仮想空間画像を生成する。この場合、ステップS24において第2HMDに表示される仮想空間画像には、仮想オブジェクト8が表示されない。一方、仮想オブジェクト8について、第2ユーザとの共有が許可されている場合には、ステップS20において、画像生成部16は、第2HMD用の仮想空間画像に仮想オブジェクト8を表示する。その結果、ステップS24において第2HMDに表示される仮想空間画像には、仮想オブジェクト8が表示される。
続いて、図5を参照して、仮想オブジェクト8が生成された後に、実空間画像が再度取得された場合の処理の一例について説明する。
ステップS31〜S36の処理は、ステップS8〜S13の処理と同様であるため、詳細な説明を省略する。続いて、物体検出部17が、ステップS36において取得された実空間画像から、既に生成された仮想オブジェクト8に対応する物体6Bを検出する(ステップS37)。
続いて、物体検出部17は、当該仮想オブジェクト8を更新する第1処理(仮想オブジェクト更新部18の処理)と当該物体6Bに対応する新たな仮想オブジェクト(既に生成された仮想オブジェクト8とは異なる新規のオブジェクト)を生成する第2処理(仮想オブジェクト生成部13の処理)とのいずれを実行するかについてのユーザ5の選択を受け付ける。このために、例えば、物体検出部17は、既に生成された仮想オブジェクト8に対応する物体6Bが実空間画像から検出されたことを第1HMDに通知する(ステップS38)。例えば、物体検出部17は、第1HMDに通知ポップアップ等を表示させる。
続いて、第1HMD(上記コントローラ等)が、第1処理及び第2処理のいずれを実行するかについてのユーザ5の選択を受け付け(ステップS39)、当該選択の結果を情報処理装置10に送信する(ステップS40)。続いて、情報処理装置10は、ユーザ5の選択に応じた処理を実行する(ステップS41)。具体的には、物体検出部17が第1処理を実行することを示すユーザ5の選択を受け付けた場合、仮想オブジェクト更新部18が上記第1処理を実行する。この例では、仮想オブジェクト更新部18が、ステップS36において取得された実空間画像から検出された物体6Bの状態に基づいて、仮想オブジェクト8の状態を更新する。一方、物体検出部17が第2処理を実行することを示すユーザ5の選択を受け付けた場合、仮想オブジェクト生成部13が上記第2処理を実行する。この例では、仮想オブジェクト生成部13が、ステップS36において取得された実空間画像から検出された物体6Bの状態に基づいて、新たな仮想オブジェクトを生成する。この場合、このように生成された新たな仮想オブジェクトと既に生成済みの仮想オブジェクト8とは、仮想空間V上において併存する。
以上述べた情報処理装置10によれば、ユーザ5の付近の実空間を撮像した実空間画像に含まれる物体6(本実施形態では物体6B)が、仮想空間V上の仮想オブジェクト8として生成され、当該仮想オブジェクト8を含む仮想空間画像(当該仮想オブジェクト8が写り込んだ仮想空間画像)が生成される。このような処理により、HMD1を装着したユーザ5は、仮想空間画像を介して自身の付近に存在する物体6を視認することができる。したがって、情報処理装置10によれば、ユーザ5の仮想現実体験の利便性を向上させることができる。
また、情報処理装置10は、物体検出部17と、仮想オブジェクト更新部18と、を備えている。これにより、既にオブジェクト化された物体6Bを含む実空間画像が再度取得された場合に、当該実空間画像に含まれる物体6Bの状態に基づいて、当該物体6Bに対応する仮想オブジェクト8を更新することができる。その結果、実空間における物体6Bの最新の状態を仮想空間V上の仮想オブジェクト8を通じて認識することが可能となる。また、同一の物体に対応する仮想オブジェクトを複数生成しないことにより、使用メモリ量を抑制できる。
また、物体検出部17は、更に取得された実空間画像から仮想オブジェクト8に対応する物体6Bを検出した場合、当該仮想オブジェクト8を更新する第1処理と当該物体6Bに対応する新たな仮想オブジェクトを生成する第2処理とのいずれを実行するかについてのユーザの選択を受け付ける。物体検出部17が第1処理を実行することを示すユーザの選択を受け付けた場合、仮想オブジェクト更新部18が第1処理を実行し、物体検出部17が第2処理を実行することを示すユーザの選択を受け付けた場合、仮想オブジェクト生成部13が第2処理を実行する。この構成によれば、ユーザの希望に応じて、既存の仮想オブジェクト8の更新と新たな仮想オブジェクトの生成とを適切に切り替えて実行することができる。
また、仮想オブジェクト生成部13は、実空間画像に含まれる複数の物体6(図2の例では、物体6A,6B)のうちユーザ5により指定された物体6(図2の例では、物体6B)に対応する仮想オブジェクト8を生成する。この構成によれば、ユーザが所望する物体に対応する仮想オブジェクトのみを生成することができるため、無駄なオブジェクト化処理を省略して処理量を低減できると共に、無駄な仮想オブジェクトによる使用メモリ量の増大を抑制できる。
また、仮想空間Vは、少なくとも第1HMDを装着した第1ユーザと第2HMDを装着した第2ユーザとに共有される空間であり、情報処理装置10は、上述した共有設定部15を備えている。画像生成部16は、第2ユーザとの共有が許可されていない仮想オブジェクトを、第2HMDに表示される仮想空間画像に表示しない。この構成によれば、仮想オブジェクト毎に上述したような共有設定を行うことにより、特定の仮想オブジェクト(例えば機密情報が記載された書類等に対応するオブジェクト)を、特定のユーザ(例えば特定の役職以上のユーザ)にのみ閲覧させることができる。これにより、仮想空間Vを介した打合せ等のビジネスコミュニケーションをより円滑に進めることが可能となる。
なお、上記実施形態の説明に用いたブロック図(図1)は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線で)接続し、これら複数の装置により実現されてもよい。
例えば、上記実施形態における情報処理装置10は、上記実施形態の情報処理装置10の処理を行うコンピュータとして機能してもよい。図6は、本実施形態に係る情報処理装置10のハードウェア構成の一例を示す図である。上述の情報処理装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、及びバス1007等を含むコンピュータ装置として構成されてもよい。
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニット等に読み替えることができる。情報処理装置10のハードウェア構成は、図6に示された各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
情報処理装置10における各機能は、プロセッサ1001、メモリ1002等のハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタ等を含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、及び/又はデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、情報処理装置10の仮想オブジェクト生成部13は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、図1に示した他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等の少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)等と呼ばれてもよい。メモリ1002は、上記実施形態に係る情報処理方法(例えば図3〜図5のシーケンス図に示される手順等)を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュール等を保存することができる。
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)等の光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップ等の少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバ、その他の適切な媒体であってもよい。
通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等ともいう。
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサ等)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプ等)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
また、プロセッサ1001及びメモリ1002等の各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
また、情報処理装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。
以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更された態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。
本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャート等は、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理されてもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
本明細書で説明した各態様/実施形態は単独で用いられてもよいし、組み合わせて用いられてもよいし、実行に伴って切り替えて用いられてもよい。
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能等を意味するよう広く解釈されるべきである。
また、ソフトウェア、命令等は、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)等の有線技術及び/又は赤外線、無線及びマイクロ波等の無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
本明細書で説明した情報及び信号等は、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップ等は、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
また、本明細書で説明した情報、パラメータ等は、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。
上述したパラメータに使用される名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」との両方を意味する。
「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」及び「或いは(or)」は、排他的論理和ではないことが意図される。
本明細書において、文脈又は技術的に明らかに1つのみしか存在しない装置であることが示されていなければ、複数の装置をも含むものとする。
本明細書で使用する「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「決定」したとみなす事等を含み得る。また、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「決定」したとみなす事等を含み得る。また、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)等した事を「決定」したとみなす事を含み得る。つまり、「決定」は、何らかの動作を「決定」したとみなす事を含み得る。
本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。
1…HMD(表示装置)、5…ユーザ、6,6A,6B…物体、7…ユーザオブジェクト、8…仮想オブジェクト、10…情報処理装置、12…画像取得部、13…仮想オブジェクト生成部、15…共有設定部、16…画像生成部、17…物体検出部、18…仮想オブジェクト更新部、V…仮想空間。
Claims (5)
- ユーザに装着された表示装置に表示される仮想空間の画像を提供する情報処理装置であって、
前記ユーザの付近の実空間を撮像した実空間画像を取得する画像取得部と、
前記実空間画像に含まれる物体を認識し、前記仮想空間上に前記物体に対応する仮想オブジェクトを生成する仮想オブジェクト生成部と、
前記仮想オブジェクトを含む前記仮想空間の少なくとも一部を示す仮想空間画像であって、前記表示装置に表示される該仮想空間画像を生成する画像生成部と、
を備える情報処理装置。 - 前記仮想オブジェクトが生成された後に前記画像取得部により更に取得された前記実空間画像から、当該仮想オブジェクトに対応する物体を検出する物体検出部と、
前記物体検出部により検出された物体の状態に基づいて、当該物体に対応する前記仮想オブジェクトの状態を更新する仮想オブジェクト更新部と、
を更に備える、請求項1に記載の情報処理装置。 - 前記物体検出部は、前記更に取得された前記実空間画像から前記仮想オブジェクトに対応する物体を検出した場合、当該仮想オブジェクトを更新する第1処理と当該物体に対応する新たな仮想オブジェクトを生成する第2処理とのいずれを実行するかについての前記ユーザの選択を受け付け、
前記物体検出部が前記第1処理を実行することを示す前記ユーザの選択を受け付けた場合、前記仮想オブジェクト更新部が前記第1処理を実行し、
前記物体検出部が前記第2処理を実行することを示す前記ユーザの選択を受け付けた場合、前記仮想オブジェクト生成部が前記第2処理を実行する、
請求項2に記載の情報処理装置。 - 前記仮想オブジェクト生成部は、前記実空間画像に含まれる複数の物体のうち前記ユーザにより指定された物体に対応する前記仮想オブジェクトを生成する、
請求項1〜3のいずれか一項に記載の情報処理装置。 - 前記仮想空間は、少なくとも第1表示装置を装着した第1ユーザと第2表示装置を装着した第2ユーザとに共有される空間であり、
前記情報処理装置は、前記第1ユーザによる指定に基づいて生成された前記仮想オブジェクトについて、前記第1ユーザから受け付けた操作内容に応じて、前記第2ユーザと当該仮想オブジェクトを共有するか否かを設定する共有設定部を更に備え、
前記画像生成部は、前記第2ユーザとの共有が許可されていない前記仮想オブジェクトを、前記第2表示装置に表示される前記仮想空間画像に表示しない、
請求項4に記載の情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017249034A JP2021043476A (ja) | 2017-12-26 | 2017-12-26 | 情報処理装置 |
PCT/JP2018/044278 WO2019130991A1 (ja) | 2017-12-26 | 2018-11-30 | 情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017249034A JP2021043476A (ja) | 2017-12-26 | 2017-12-26 | 情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021043476A true JP2021043476A (ja) | 2021-03-18 |
Family
ID=67063503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017249034A Pending JP2021043476A (ja) | 2017-12-26 | 2017-12-26 | 情報処理装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021043476A (ja) |
WO (1) | WO2019130991A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022269888A1 (ja) * | 2021-06-25 | 2022-12-29 | 京セラ株式会社 | ウェアラブル端末装置、プログラム、表示方法および仮想画像配信システム |
WO2024047720A1 (ja) * | 2022-08-30 | 2024-03-07 | 京セラ株式会社 | 仮想画像共有方法および仮想画像共有システム |
WO2024147184A1 (ja) * | 2023-01-05 | 2024-07-11 | 日本電信電話株式会社 | 仮想空間表示システム、端末装置、および仮想空間表示プログラム |
WO2024147194A1 (ja) * | 2023-01-06 | 2024-07-11 | マクセル株式会社 | 情報処理装置および情報処理方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7023005B2 (ja) * | 2019-10-24 | 2022-02-21 | 克己 横道 | 情報処理システム、情報処理方法およびプログラム |
JP7413122B2 (ja) * | 2020-03-30 | 2024-01-15 | 日産自動車株式会社 | 画像生成システム、画像生成装置及び画像生成方法 |
JP7298921B2 (ja) * | 2020-08-12 | 2023-06-27 | 株式会社赤外線高精度技術利用機構 | 赤外線調査解析診断装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014197348A (ja) * | 2013-03-29 | 2014-10-16 | キヤノン株式会社 | サーバ装置、情報処理方法及びプログラム |
WO2015111283A1 (ja) * | 2014-01-23 | 2015-07-30 | ソニー株式会社 | 画像表示装置及び画像表示方法 |
-
2017
- 2017-12-26 JP JP2017249034A patent/JP2021043476A/ja active Pending
-
2018
- 2018-11-30 WO PCT/JP2018/044278 patent/WO2019130991A1/ja active Application Filing
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022269888A1 (ja) * | 2021-06-25 | 2022-12-29 | 京セラ株式会社 | ウェアラブル端末装置、プログラム、表示方法および仮想画像配信システム |
US20240288931A1 (en) * | 2021-06-25 | 2024-08-29 | Kyocera Corporation | Wearable terminal apparatus, program, display method, and virtual image distribution system |
JP7550313B2 (ja) | 2021-06-25 | 2024-09-12 | 京セラ株式会社 | ウェアラブル端末装置、プログラム、表示方法および仮想画像配信システム |
WO2024047720A1 (ja) * | 2022-08-30 | 2024-03-07 | 京セラ株式会社 | 仮想画像共有方法および仮想画像共有システム |
WO2024147184A1 (ja) * | 2023-01-05 | 2024-07-11 | 日本電信電話株式会社 | 仮想空間表示システム、端末装置、および仮想空間表示プログラム |
WO2024147194A1 (ja) * | 2023-01-06 | 2024-07-11 | マクセル株式会社 | 情報処理装置および情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019130991A1 (ja) | 2019-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019130991A1 (ja) | 情報処理装置 | |
CN114303120B (zh) | 虚拟键盘 | |
US11068072B2 (en) | Mixed reality display system and mixed reality display terminal | |
US20210001223A1 (en) | Method and Apparatus for Displaying Virtual Pet, Terminal, and Storage Medium | |
JP6970757B2 (ja) | 情報処理装置 | |
US10254847B2 (en) | Device interaction with spatially aware gestures | |
US20190026950A1 (en) | Program executed on a computer for providing virtual space, method and information processing apparatus for executing the program | |
US20190043263A1 (en) | Program executed on a computer for providing vertual space, method and information processing apparatus for executing the program | |
CN110136228B (zh) | 虚拟角色的面部替换方法、装置、终端及存储介质 | |
CN111432245B (zh) | 多媒体信息的播放控制方法、装置、设备及存储介质 | |
JP2015090569A (ja) | 情報処理装置及び情報処理方法 | |
CN111259183A (zh) | 图像识图方法、装置、电子设备和介质 | |
JP2020017176A (ja) | 情報処理装置 | |
CN111031391A (zh) | 视频配乐方法、装置、服务器、终端及存储介质 | |
CN112823528B (zh) | 信息处理装置、信息处理方法和信息处理程序 | |
US11474595B2 (en) | Display device and display device control method | |
JP6921789B2 (ja) | 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置 | |
WO2020083178A1 (zh) | 数字图像展示方法、装置、电子设备及存储介质 | |
US10956604B2 (en) | Electronic device and operation method thereof | |
JP2019036239A (ja) | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 | |
JP6999822B2 (ja) | 端末装置および端末装置の制御方法 | |
WO2023037812A1 (ja) | オンライン対話支援システム | |
JP2023549652A (ja) | 文書の有形インスタンスのマッピング | |
JP7562831B2 (ja) | 情報処理装置 | |
US20240259528A1 (en) | Provision system and control method for same |