[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6908053B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6908053B2
JP6908053B2 JP2018557537A JP2018557537A JP6908053B2 JP 6908053 B2 JP6908053 B2 JP 6908053B2 JP 2018557537 A JP2018557537 A JP 2018557537A JP 2018557537 A JP2018557537 A JP 2018557537A JP 6908053 B2 JP6908053 B2 JP 6908053B2
Authority
JP
Japan
Prior art keywords
sensory stimulus
output
unit
stimulus
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018557537A
Other languages
English (en)
Other versions
JPWO2018116544A1 (ja
Inventor
石川 毅
毅 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018116544A1 publication Critical patent/JPWO2018116544A1/ja
Application granted granted Critical
Publication of JP6908053B2 publication Critical patent/JP6908053B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
従来、例えば振動などの触覚刺激をユーザに提示するための技術が各種提案されている。
例えば、下記特許文献1には、仮想空間において2つのオブジェクトが接触した状態で相対的にオブジェクトが移動された場合に、オブジェクトの接触面の粗さ情報に応じて、音声または触覚刺激の出力を制御する技術が記載されている。
特開2015−170174号公報
しかしながら、特許文献1に記載の技術では、音声または触覚刺激の出力に関する制御内容が異なる場合であっても、表示される映像は変化しない。
そこで、本開示では、感覚刺激の出力に関する制御内容に適応した画像の表示を制御することが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、を備える、情報処理装置が提供される。
また、本開示によれば、ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示をプロセッサが制御すること、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータを、ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、として機能させるための、プログラムが提供される。
以上説明したように本開示によれば、感覚刺激の出力に関する制御内容に適応した画像の表示を制御することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の実施形態による情報処理システムの構成例を示した説明図である。 図1に示したユーザ2の正面の外観の一例を示した図である。 同実施形態による情報処理装置10の構成例を示した機能ブロック図である。 オリジナルの温度と実際の温度との関係の一例を示したグラフである。 仮想オブジェクトに対してユーザが接触したと判定された際の付加画像の表示例を示した図である。 所定の仮想オブジェクトがHMD20eにより表示された際の付加画像の表示例を示した図である。 仮想オブジェクトに対してユーザが接触したと判定された際の付加画像の別の表示例を示した図である。 仮想オブジェクトに対してユーザが接触したと判定された際の付加画像の別の表示例を示した図である。 仮想オブジェクトに対してユーザが接触したと判定された際の付加画像の別の表示例を示した図である。 同実施形態による処理の流れの一部を示したフローチャートである。 同実施形態による処理の流れの一部を示したフローチャートである。 同実施形態による処理の流れの変形例の一部を示したフローチャートである。 同実施形態による情報処理装置10のハードウェア構成例を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成要素を、必要に応じて刺激出力部20aおよび刺激出力部20bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、刺激出力部20aおよび刺激出力部20bを特に区別する必要が無い場合には、単に刺激出力部20と称する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.情報処理システムの構成
2.実施形態の詳細な説明
3.ハードウェア構成
4.変形例
<<1.情報処理システムの構成>>
まず、本開示の実施形態による情報処理システムの構成について、図1を参照して説明する。図1に示すように、本実施形態による情報処理システムは、情報処理装置10、複数の種類の刺激出力部20、および、通信網22を有する。
<1−1.刺激出力部20>
刺激出力部20は、本開示における第1の出力部および第2の出力部の一例である。刺激出力部20は、例えば所定の感覚をユーザに提示するためのデバイスであり得る。例えば、刺激出力部20は、後述する情報処理装置10から受信される出力制御情報に従って、皮膚感覚、視覚、聴覚、および/または、嗅覚に関する刺激を出力する。ここで、皮膚感覚は、例えば触覚、圧覚、温冷覚、および、痛覚を含み得る。なお、以下では、皮膚感覚に関する刺激を触覚刺激と称する。例えば、刺激出力部20は、(触覚刺激として)振動を発生させたり、熱を発生させ得る。
{1−1−1.触覚刺激部20a〜20c}
例えば、図1に示したように、刺激出力部20は、触覚刺激部20a(アクチュエータ付きグローブなど)、および、触覚刺激部20b(アクチュエータ付きジャケットなど)を含み得る。
図1に示したように、触覚刺激部20aおよび触覚刺激部20bは、ユーザ(例えばユーザの手や胴体など)に装着され得る。この場合、触覚刺激部20は、触覚刺激部20が装着されている部位に対して触覚刺激を出力し得る。例えば、後述するHMD20eによりオブジェクトが表示され、かつ、当該オブジェクトに対してユーザが接触したと判定される場合には、触覚刺激部20は、情報処理装置10から受信される出力制御情報に従って、当該オブジェクトにユーザが接触したことに対するフィードバック(または応答)として触覚刺激を出力する。
図2は、図1に示したユーザ2の正面の外観の一例を示した図である。図2に示したように、触覚刺激部20bは、複数のアクチュエータ200を含み得る。この場合、個々のアクチュエータ200は、例えば情報処理装置10から受信される出力制御情報に従って、触覚刺激(振動など)を出力し得る。これにより、ユーザ2は、触覚刺激部20bにより提示される触覚、力覚、温冷覚、または、痛覚を感じ得る。
また、図1に示したように、刺激出力部20は、触覚刺激部20c(扇風機やエア・コンディショナーなど)を含み得る。触覚刺激部20cは、例えば情報処理装置10から受信される出力制御情報に従って、風を発生し得る。ここで、風は、触覚刺激の一例である。なお、以下では、触覚刺激部20a〜触覚刺激部20cを総称して触覚刺激部20と称する場合がある。
{1−1−2.嗅覚刺激部20d}
また、図1に示したように、刺激出力部20は、嗅覚刺激部20dを含み得る。嗅覚刺激部20dは、香り(臭い)を発生し得る。ここで、香りは、嗅覚に関する刺激の一例である。
{1−1−3.HMD20e}
また、図1に示したように、刺激出力部20は、HMD(Head Mounted Display)20eを含み得る。HMD20eは、例えば図1に示したような頭部装着型デバイスである。HMD20eは、表示部および音声出力部を含み得る。
HMD20eは、遮蔽型のヘッドマウントディスプレイであってもよいし、透過型のヘッドマウントディスプレイであってもよい。例えば、HMD20eは、光学シースルー型のデバイスであり得る。この場合、HMD20eは、左目用レンズおよび右目用レンズ(または、ゴーグル型レンズ)と表示部とを有し得る。そして、当該表示部は、左目用レンズおよび右目用レンズのそれぞれ少なくとも一部の領域(または、ゴーグル型レンズの少なくとも一部の領域)を投影面として映像を投影し得る。
または、HMD20eは、ビデオシースルー型のデバイスであり得る。この場合、HMD20eは、HMD20eの装着時のユーザの前方を撮影するカメラと、当該カメラにより撮影された映像を表示する表示部とを有し得る。例えば、HMD20eは、当該カメラにより撮影された映像を当該表示部に逐次表示し得る。これにより、ユーザは、当該表示部に表示される映像を介して、ユーザの前方の風景を見ることができる。なお、当該表示部は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や、OLED(Organic Light Emitting Diode)などにより構成され得る。
このHMD20eは、例えば情報処理装置10から受信される出力制御情報に従って、映像を表示したり、音声を出力することが可能である。ここで、映像は、視覚に関する刺激の一例であり、また、音声は、聴覚に関する刺激の一例である。
例えば、HMD20eは、情報処理装置10から受信される出力制御情報に従って、オブジェクトを含む映像を表示する。ここで、オブジェクトは、仮想オブジェクト、または、実オブジェクトを含む。なお、オブジェクトが実オブジェクトである場合には、実オブジェクトが撮影された画像がHMD20eにより表示され得る。また、例えば、実オブジェクトが撮影された画像に対する画像認識の結果に基づいて、当該実オブジェクトの属性情報(例えばオブジェクトの種類、当該画像内でのオブジェクトのサイズ、または、オブジェクトのテクスチャ情報など)が特定され得る。
また、仮想オブジェクトは、例えばCG(Computer Graphics)により生成される3Dデータや、実オブジェクトのセンシング結果から得られる3Dデータなどを含む。なお、以下では、オブジェクトが仮想オブジェクトである例を中心として説明を行う。
{1−1−4.ユーザの動きのセンシング}
また、刺激出力部20(例えば触覚刺激部20a、触覚刺激部20b、および、HMD20eなど)は、例えば加速度センサやジャイロスコープなどの各種のセンサを有し得る。この場合、刺激出力部20は、ユーザの身体の動き(例えば手の動きなど)をセンシングすることが可能である。また、刺激出力部20は、センシング結果を当該ユーザのモーション情報として通信網22を介して情報処理装置10へ送信することが可能である。また、HMD20eにカメラが設置される場合、当該カメラはユーザの身体(例えば手など)の画像を撮影し、そして、HMD20eは、撮影された画像を情報処理装置10へ送信することも可能である。
<1−2.情報処理装置10>
情報処理装置10は、本開示における情報処理装置の一例である。情報処理装置10は、例えば、後述する通信網22を介して、刺激出力部20の動作を制御する。例えば、情報処理装置10は、VR(Virtual Reality)やAR(Augmented Reality)のアプリケーションに関する映像をHMD20eに表示させる。また、情報処理装置10は、所定のタイミング(例えばHMD20eによる映像の表示時など)に所定の触覚刺激を触覚刺激部20aに出力させる。
ここで、情報処理装置10は、例えば、サーバ、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、または、ロボットなどであり得る。なお、図1では、情報処理装置10が一台だけ図示されているが、かかる例に限定されず、複数台のコンピュータが協同して動作することにより、本実施形態による情報処理装置10の機能が実現されてもよい。
<1−3.通信網22>
通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
なお、本実施形態による情報処理システムは、前述した例に限定されない。例えば、ユーザが位置する実空間内には音声出力部20(スピーカーなど)がさらに設置されてもよいし、または、ユーザは音声出力部20(ステレオフォンやイヤフォンなど)をさらに装着してもよい。この場合、音声出力部20は、(HMD20eの代わりに、または、HMD20eとともに)情報処理装置10から受信される出力制御情報に従って、音声を出力し得る。
<1−4.課題の整理>
以上、本実施形態による情報処理システムの構成について説明した。ところで、従来、所望の皮膚感覚をユーザに提示するための技術が研究されている。しかしながら、提示される皮膚感覚の度合いによっては、人体に危険性が生じ得る。例えば、提示される温度が高温である場合にはユーザが火傷をしたり、また、提示される圧が強い場合にはユーザが怪我をする恐れがある。
また、別の課題として、対象のユーザに応じて、異なる強度の感覚を提示可能であることが望まれる。例えば、対象のユーザが子どもである場合と専門のオペレータである場合とでは、異なる強度の感覚(皮膚感覚など)を提示可能であることが望まれる。
そこで、上記事情を一着眼点にして、本実施形態による情報処理装置10を創作するに至った。情報処理装置10は、HMD20eにより表示される仮想オブジェクトに応じたオリジナルの感覚刺激を、所定の基準に基づいて決定される変換方法を用いて変換し、そして、変換後の感覚刺激を刺激出力部20に出力させることが可能である。このため、適切な度合いの感覚刺激をユーザに提示することができる。
また、情報処理装置10は、刺激出力部20に対する、感覚刺激の出力に関する制御情報に応じた付加画像の表示を制御することが可能である。これにより、感覚刺激の出力に関する制御内容に適応した付加画像の表示を制御することができる。ここで、付加画像は、本開示における画像の一例である。
<<2.実施形態の詳細な説明>>
<2−1.構成>
次に、本実施形態による情報処理装置10の構成について詳細に説明する。図3は、本実施形態による情報処理装置10の構成例を示した機能ブロック図である。図3に示すように、情報処理装置10は、制御部100、通信部120、および、記憶部122を有する。
{2−1−1.制御部100}
制御部100は、例えば、後述するCPU(Central Processing Unit)150やGPU(Graphics Processing Unit)などの処理回路を含んで構成され得る。制御部100は、情報処理装置10の動作を統括的に制御する。また、図3に示すように、制御部100は、情報取得部102、判定部104、および、出力制御部106を有する。
{2−1−2.情報取得部102}
(2−1−2−1.モーション情報の取得)
情報取得部102は、ユーザのモーション情報を取得する。例えば、モーション情報が触覚刺激部20によりセンシングされる場合には、情報取得部102は、触覚刺激部20から受信されるモーション情報を取得する。または、ユーザが装着する他のセンサ(例えばHMD20eに設置されているカメラなど)や、当該ユーザが位置する実空間内に設置された他のセンサ(カメラなど)によるセンシング結果が受信される場合には、情報取得部102は、当該センシング結果を解析(例えば画像認識など)し、そして、解析結果を当該ユーザのモーション情報として取得してもよい。
例えば、情報取得部102は、HMD20eに仮想オブジェクトが表示されている際の、当該仮想オブジェクトに対するユーザのモーション情報を触覚刺激部20から取得する。一例として、情報取得部102は、HMD20eに表示されている仮想オブジェクトに対してユーザが触れる動作のセンシング結果を当該モーション情報として刺激出力部20から取得する。
(2−1−2−2.仮想オブジェクトの属性情報の取得)
また、情報取得部102は、HMD20eにより表示されている仮想オブジェクトの属性情報を取得する。例えば、仮想オブジェクトごとの属性情報が予め制作者により定められ、そして、仮想オブジェクトと属性情報とが関連付けてオブジェクトDB124に登録され得る。この場合、情報取得部102は、HMD20eにより表示されている仮想オブジェクトの属性情報をオブジェクトDB124から取得し得る。
ここで、オブジェクトDB124は、例えば、仮想オブジェクトの識別情報と仮想オブジェクトの属性情報とを関連付けて格納するデータベースである。また、属性情報は、例えば、仮想オブジェクトが含む個々の面に関連付けられているテクスチャの情報(例えばテクスチャの種類など)を含み得る。なお、テクスチャの情報は、制作者により制作されてもよいし、または、当該仮想オブジェクトに対応する実オブジェクトが撮影された画像に対する画像認識に基づいて特定されてもよい。ここで、画像認識は、例えば機械学習やディープラーニングなどの方法を用いて行われ得る。
{2−1−3.判定部104}
(2−1−3−1.ユーザの動きの判定)
判定部104は、HMD20eにより表示されている仮想オブジェクトに対するユーザの動きを、情報取得部102により取得されたモーション情報に基づいて判定する。例えば、判定部104は、HMD20eにより表示されている仮想オブジェクトに対してユーザが接触または近接しているか否か(例えば触れているか否か)を、取得されたモーション情報に基づいて判定する。一例として、判定部104は、当該仮想オブジェクトに含まれる各面とユーザの身体との距離に基づいて、当該仮想オブジェクトにユーザが接触しているか否かを判定する。例えば、当該仮想オブジェクトに含まれるいずれかの面と、ユーザの身体との距離が所定の閾値以内である場合には、判定部104は、当該仮想オブジェクトの当該面にユーザが接触していると判定する。また、当該仮想オブジェクトに含まれる全ての面とユーザの身体との距離が所定の閾値よりも大きい場合には、判定部104は、当該仮想オブジェクトにユーザが接触していないと判定する。
また、当該仮想オブジェクトにユーザが接触していると判定した場合には、判定部104は、さらに、当該仮想オブジェクトに対するユーザの触れ方を判定する。ここで、ユーザの触れ方は、例えば、触れる強さ、触れる速度、および、触れる方向などを含む。
(2−1−3−2.オリジナルの感覚刺激の特定)
また、判定部104は、さらに、HMD20eにより表示されている仮想オブジェクトに応じて、オリジナルの感覚刺激(つまり本来の感覚刺激)の情報を特定することが可能である。例えば、仮想オブジェクトとオリジナルの感覚刺激(例えば視覚、聴覚、または、嗅覚に関する刺激など)の情報とが関連付けて、所定のテーブルに格納され得る。この場合、判定部104は、HMD20eにより現在表示されている仮想オブジェクトごとに、当該仮想オブジェクトと、当該所定のテーブルとに基づいて、オリジナルの感覚刺激の情報を特定し得る。ここで、オリジナルの感覚刺激の情報は、例えば感覚刺激の種類や、感覚刺激の強度(例えば輝度や音量など)などを含み得る。なお、所定のテーブルは、オブジェクトDB124であってもよい。
また、HMD20eにより表示されている仮想オブジェクトにユーザが接触していると判定した場合には、判定部104は、当該仮想オブジェクトに対するユーザの触れ方に応じて、オリジナルの触覚刺激の情報を特定することが可能である。例えば、テクスチャの情報とオリジナルの触覚刺激の情報とが関連付けて、所定のテーブルに格納され得る。この場合、判定部104は、まず、HMD20eにより表示されている仮想オブジェクトに含まれる面のうち、ユーザが接触したと判定される面のテクスチャ情報を特定し得る。そして、判定部104は、特定した面のテクスチャ情報と、当該面に対するユーザの触れ方と、当該所定のテーブルとに基づいて、オリジナルの触覚刺激の情報を特定し得る。なお、所定のテーブルは、オブジェクトDB124であってもよい。
‐変形例1
なお、変形例として、テクスチャ情報とオリジナルの皮膚感覚の情報とは関連付けられていなくてもよい。この場合、情報処理装置10(制御部100)は、まず、HMD20eにより表示されている仮想オブジェクトに含まれる面ごとに、当該面のテクスチャ情報に関連付けられている音データを取得し、そして、取得した音データと公知の技術とに基づいてオリジナルの皮膚感覚の情報を動的に生成してもよい。なお、通信網22に接続された他の装置(図示省略)または記憶部122において、個々のテクスチャ情報と音データとは関連付けて格納され得る。
‐変形例2
また、別の変形例として、仮想オブジェクトとオリジナルの感覚(例えば皮膚感覚、視覚、聴覚、または、嗅覚)の情報とが関連付けて、所定のテーブルに格納されてもよい。この場合、判定部104は、HMD20eにより現在表示されている仮想オブジェクトごとに、当該仮想オブジェクトと、当該所定のテーブルとに基づいて、オリジナルの感覚の情報を特定してもよい。そして、判定部104は、特定したオリジナルの感覚に対応する感覚刺激を、オリジナルの感覚刺激として特定してもよい。
{2−1−4.出力制御部106}
(2−1−4−1.仮想オブジェクトの表示制御)
出力制御部106は、例えば仮想オブジェクトを含む映像の表示をHMD20eに対して制御する。例えば、出力制御部106は、当該映像を表示させるための表示制御情報をHMD20eへ通信部120に送信させる。
(2−1−4−2.感覚刺激の出力制御)
また、出力制御部106は、刺激出力部20に対する感覚刺激の出力を制御する。例えば、出力制御部106は、まず、所定の感覚刺激を出力させるための出力制御情報を生成し、そして、当該所定の感覚刺激を出力可能な刺激出力部20へ当該出力制御情報を通信部120に送信させる。一例として、HMD20eに表示されている仮想オブジェクトにユーザが触れていると判定部104により判定された場合には、出力制御部106は、当該仮想オブジェクトにユーザが接触したことに対するフィードバック(または応答)に相当する触覚刺激を触覚刺激部20に出力させるための出力制御情報を生成する。
(2−1−4−3.感覚刺激の変換)
ここで、出力制御情報は、HMD20eにより表示されている仮想オブジェクトに応じたオリジナルの感覚刺激の情報が所定の変換方法に基づいて変換(抑制または強化)された感覚刺激(以下、実際の感覚刺激と称する)を刺激出力部20に出力させるための情報であり得る。すなわち、出力制御情報は感覚刺激の出力量を含むと見做されてよい。なお、オリジナルの感覚刺激は、本開示における第1の感覚刺激の一例であり、また、実際の感覚刺激は、本開示における第2の感覚刺激の一例である。なお、オリジナルの感覚刺激に対応する感覚と、実際の感覚刺激に対応する感覚とは、基本的に同じ種類であり得る。
例えば、出力制御部106は、まず、HMD20eにより表示されている各仮想オブジェクトに関するオリジナルの感覚刺激の変換方法を所定の基準に基づいて動的に決定する。そして、出力制御部106は、仮想オブジェクトごとに、判定部104により特定されたオリジナルの感覚刺激の情報を、決定された変換方法に基づいて変換することにより、実際の感覚刺激の情報を決定する。そして、出力制御部106は、当該実際の感覚刺激を刺激出力部20に出力させるための出力制御情報を生成する。
‐ユーザのプロファイル
ここで、所定の基準は、ユーザのプロファイルを含み得る。プロファイルは、例えば年齢、性別、操作の熟練度(専門のオペレータであるか否かや、利用回数など)、および、感覚刺激(触覚刺激など)に対する耐性を示す情報などを含み得る。例えば、ユーザが専門のオペレータである場合には、出力制御部106は、オリジナルの感覚刺激をそのまま実際の感覚刺激として決定してもよい。また、ユーザが子どもである場合には、出力制御部106は、オリジナルの感覚刺激の度合いが所定の変換式に基づいて抑制された感覚刺激を実際の感覚刺激として決定してもよい。
または、ユーザの情報と変換式とが関連付けて所定のデータベース(図示省略)に登録され得る。この場合、出力制御部106は、まず、該当のユーザに関連付けて所定のデータベースに登録されている変換式を抽出し、そして、オリジナルの感覚刺激の情報を当該変換式に基づいて変換することにより実際の感覚刺激を決定してもよい。
‐コンテキスト情報
また、所定の基準は、仮想オブジェクトの表示時のコンテキスト情報を含み得る。ここで、当該コンテキスト情報は、HMD20eにより表示されている映像に対応するアプリケーションに関するユーザの利用状況を示す情報であってもよい。例えば、より正確に皮膚感覚を再現することをユーザが望む状況であることを当該コンテキスト情報が示す場合には、出力制御部106は、オリジナルの感覚刺激をほとんど変更せずに実際の感覚刺激として決定してもよい。また、特定の範囲内の皮膚感覚に関してより詳細に情報を得ることをユーザが望む状況であることを当該コンテキスト情報が示す場合には、出力制御部106は、当該特定の範囲を、当該特定の範囲よりも広い範囲にマッピングすることにより、(オリジナルの触覚刺激に対応する)オリジナルの皮膚感覚の度合いを変換し、そして、変換後の皮膚感覚に対応する触覚刺激を実際の触覚刺激として決定してもよい。
または、当該コンテキスト情報は、当該アプリケーションに関して設定されている利用モードを示す情報であってもよい。ここで、利用モードは、例えば、検査モードおよび通常モードを含み得る。なお、検査モードは、例えば食品加工時の油の温度などを遠隔地で検査する場面や、当該検査を仮想的に体験する場面などで利用され得る。例えば、利用モードが検査モードに設定されている場合には、出力制御部106は、オリジナルの感覚刺激(例えば熱など)をそのまま実際の感覚刺激として決定してもよい。また、利用モードが通常モードである場合には、出力制御部106は、オリジナルの感覚刺激の度合いが所定の変換式に基づいて抑制された感覚刺激を実際の感覚刺激として決定してもよい。
‐オリジナルの感覚刺激の度合い
また、所定の基準は、オリジナルの感覚刺激の度合いが所定の閾値以上であることを含み得る。例えばVRのカーレースゲームやスポーツゲームなどにおいて激しい衝突が発生した場合や、ゲームにおいて銃で撃たれた場合などには、これらのイベントに対応するオリジナルの圧覚がそのままユーザに提示されると、ユーザが怪我をしてしまう恐れがある。そこで、圧覚に関するオリジナルの刺激の度合いが所定の閾値以上である場合には、出力制御部106は、人体に影響がない範囲内の圧覚が提示されるように当該オリジナルの刺激を抑制し、そして、抑制後の刺激を(実際の触覚刺激として)触覚刺激部20(例えば図1に示した触覚刺激部20b)に出力させる。これにより、ゲームとして楽しめる範囲内の皮膚感覚をユーザに提示することができる。
また、仮想オブジェクトに関連付けられている輝度が所定の閾値以上である場合や、当該仮想オブジェクトに関連付けられている音量(例えば、仮想空間内のスピーカーから出力される音量など)が所定の閾値以上である場合には、オリジナルの輝度やオリジナルの音量がそのままユーザに提示されると、ユーザにとって有害になり得る。そこで、これらの場合には、出力制御部106は、当該仮想オブジェクトに関連付けられているオリジナルの輝度やオリジナルの音量(のみ)を人体に影響がない範囲内の値になるようにそれぞれ抑制することが可能である。すなわち、出力制御部106は、表示部の輝度や音声出力部20が出力する音量を全体として維持しつつ、仮想オブジェクトそれぞれの輝度や関連する音量を独立して制御することが可能である。そして、出力制御部106は、抑制後の輝度で当該仮想オブジェクトをHMD20eに表示させたり、また、抑制後の音量を音声出力部20に出力させることが可能である。なお、ユーザの利便性を向上するために、独立して制御される仮想オブジェクトのパラメータは仮想オブジェクトの種類ごとにグループ分けされても良い。仮想オブジェクトの種類は、例えば“発光体”や“武器(特に銃火器)”などのように、感覚刺激の種類や感覚刺激の強度に応じてグループ分けされるのが好ましい。
‐変換方法の具体例
ここで、感覚刺激の変換方法の具体例について、図4を参照して説明する。図4は、HMD20eにより表示されている仮想オブジェクトにユーザが触れた際の、触れた位置に対応するオリジナルの温度と、当該オリジナルの温度が変換された温度(実際の温度)との関係の一例を示したグラフである。図4に示した例では、オリジナルの温度が80℃以上100℃以下である場合には、出力制御部106は、非線形の変換式を用いてオリジナルの温度を、20℃以上80℃以下の温度に変換し、そして、変換後の温度に対応する触覚刺激を実際の触覚刺激として決定する。また、オリジナルの温度が100℃よりも大きい場合には、出力制御部106は、「80℃」に対応する触覚刺激を実際の触覚刺激として(画一的に)決定する。この変換例によれば、特定範囲(つまり「80℃以上100℃以下」)の温度変化に関して、ユーザは、より詳細に情報を得ることができる。また、提示される温度の上限値(「80℃」)が設定されるので、例えば専門のオペレータではないユーザが仮想オブジェクトに触れた際の安全性を確保することができる。
(2−1−4−4.付加画像の表示制御)
また、出力制御部106は、刺激出力部20に対する感覚刺激の出力制御情報に応じた付加画像の表示を制御することが可能である。ここで、当該付加画像は、オリジナルの感覚刺激の度合いを示す第1の表示、および、オリジナルの感覚刺激を変換(抑制または強化)していることを示す文字列や画像を含み得る。また、当該付加画像は、(刺激出力部20により出力されている)実際の感覚刺激の度合いを示す第2の表示をさらに含み得る。ここで、感覚刺激の度合いとは、例えば感覚刺激の強度のレベル(度合い)や、感覚刺激の強度の値であり得る。または、当該付加画像は、オリジナルの感覚刺激と実際の感覚刺激との差異の度合い(例えば、差異のレベル、差異の値、または、オリジナルの感覚刺激の度合いに対する実際の感覚刺激の度合いの割合(パーセンテージ)など)を示す表示をさらに含んでもよい。
例えば、出力制御部106は、HMD20eにおける仮想オブジェクトの表示位置と関連付けて当該付加画像をHMD20eに表示させる。一例として、出力制御部106は、当該仮想オブジェクトの表示位置の近辺に当該付加画像をHMD20eに表示させる。または、HMD20eに表示されている仮想オブジェクトにユーザが接触していると判定された場合には、出力制御部106は、当該仮想オブジェクト内の、接触していると判定された位置と関連付けて付加画像をHMD20eに表示させる。なお、仮想オブジェクトと付加画像との対応関係をユーザが認識可能なように当該付加画像がラベリングされているのであれば、仮想オブジェクトと付加画像との位置関係は特に制限されないものと見做して良い。
‐表示例1
図5は、HMD20eにより表示される映像40内の仮想オブジェクト50(仮想のフライパン)に対してユーザが接触したと判定された際の付加画像54の表示例(付加画像54a)を示した図である。なお、実空間におけるユーザの手の認識結果に応じて、図5に示したように、映像40内に仮想の手52が表示され得る。例えば、映像40と三次元の仮想空間とが関連付けられており、そして、実空間において認識されたユーザの手の位置に対応する、当該仮想空間内の位置に仮想の手52は表示される。
図5に示した映像40bのように、仮想オブジェクト50にユーザが接触したと判定された際には、出力制御部106は、付加画像54aを映像40bに重畳させてHMD20eに表示させる。例えば、図5に示したように、出力制御部106は、仮想オブジェクト50にユーザが触れている位置500の近辺に付加画像54aを表示させる。
なお、図5に示したように、付加画像54aは、仮想オブジェクト50に対するユーザの接触位置500に対応するオリジナルの温度を示す表示540、および、当該オリジナルの温度が抑制されて提示されていること(つまり、当該オリジナルの温度よりも低い温度が提示されていること)を示す表示542を含む。なお、図5に示したように、表示540は、温度の度合いを示すインジケータ(例えばメーターなど)を含んでもよいし、または、温度の値を示す文字列(つまり「180℃」)のみを含んでもよい。なお、表示540がインジケータを含む場合、温度の度合いに応じて当該インジケータの表示態様(例えばインジケータの長さや色など)が動的に変更される。また、図5に示したように、付加画像54aは、接触位置500を示す画像(例えば円など)をさらに含んでもよい。これにより、ユーザは、仮想オブジェクト50に対して自分が触れている位置500を正確に知ることができる。
‐‐変形例
なお、HMD20eに表示されている、一以上の仮想オブジェクト50に対してユーザが両手で接触したと判定された場合には、手ごとに、当該手が接触している位置に対応するオリジナルの感覚刺激の度合いを示す付加画像54を、当該手の接触位置の近辺にそれぞれ表示させてもよい。なお、このような場合の例としては、個々の手が別々の仮想オブジェクトに接触する場合や、両手で同じ仮想オブジェクトに接触する場合などが挙げられる。
‐表示例2
また、図6は、所定の仮想オブジェクト50(仮想の太陽50)がHMD20eにより表示された際の付加画像54の表示例(付加画像54b)を示した図である。なお、図6に示した例では、仮想の太陽50に関連付けられているオリジナルの輝度が、例えば子どもなどのユーザの視覚に対して過剰である程度に大きいものとする。また、図6に示した例では、出力制御部106は、当該オリジナルの輝度を80%に抑制して、仮想の太陽50をHMD30に表示させている例を示している。この場合、図6に示したように、出力制御部106は、「仮想の太陽50の輝度が80%に抑制されていること」を示す文字列を含む付加画像54bを、仮想の太陽50の表示位置の近くに表示させてもよい。
‐表示例3
また、図7は、HMD20eにより表示される仮想オブジェクト50に対してユーザが接触したと判定された際の付加画像54の別の表示例(付加画像54c)を示した図である。図7に示したように、付加画像54cは、仮想オブジェクト50内の各位置において提示され得る皮膚感覚(例えば温度など)の分布を示す表示56を(図5に示した付加画像54aと比較して)さらに含む。例えば、図7に示したように、表示56は、仮想オブジェクト50内の各位置の温度を示す等値線を含んでもよい。これにより、ユーザは、仮想オブジェクト50において自分が現在接触している位置500の温度と、接触位置500の周囲の温度との関係を同時に知ることができる。
‐表示例4
また、図8は、HMD20eにより表示される仮想オブジェクト50に対してユーザが接触したと判定された際の付加画像54のさらに別の表示例(付加画像54d)を示した図である。図8に示したように、付加画像54dは、刺激出力部20により実際に提示されている温度を示す表示540bを(図5に示した付加画像54aと比較して)さらに含む。例えば、図8に示したように、出力制御部106は、オリジナルの温度を示す表示540aと、実際の温度を示す表示540bとを並べて映像40b内に表示させてもよい。この表示例によれば、オリジナルの温度と、現在提示されている温度とをユーザは同時に知ることができる。従って、現在皮膚で感じている温度と、オリジナルの温度(つまり、仮想オブジェクトに関連付けられている本来の温度)とがどの程度異なるかを、ユーザは、付加画像54aを閲覧することにより知ることができる。
(2−1−4−5.感覚刺激の出力に関する設定)
なお、実際の感覚刺激の度合い、または、上記の所定の変換式は、例えば所定の設定画面に対するユーザの入力に基づいて予め設定可能であってもよいし、または、リアルタイムに調整可能であってもよい。また、付加画像54は、例えば、出力される感覚刺激(または提示される感覚)の種類、出力される感覚刺激の度合い、または、上記の所定の変換式などをユーザが指定するためのGUI(Graphical User Interface)を含んでもよい。この場合、出力される感覚刺激の種類、出力される感覚刺激の度合い、または、上記の所定の変換式は、当該GUIに対するユーザの操作に基づいてリアルタイムに調整可能であってもよい。ここで、GUIは、本開示における操作画像の一例である。なお、GUIは、例えばスライダのような形状のオブジェクトであってもよい。
ここで、図9を参照して、上記の内容についてより詳細に説明する。図9は、HMD20eにより表示される仮想オブジェクト50にユーザが接触したと判定された際の付加画像54のさらに別の表示例(付加画像54e)を示した図である。図9に示したように、付加画像54eは、触覚刺激部20により出力される熱の温度をユーザが調整可能なGUI544をさらに含む。図9に示した例では、出力制御部106は、GUI544に対するユーザの操作に基づいて、触覚刺激部20により出力される熱の温度をリアルタイムに変更することが可能である。例えば、図9に示したように、ユーザが仮想オブジェクト50に右手を接触させた状態で、「120℃」に対応する位置までGUI544を左手で移動させた場合には、出力制御部106は、触覚刺激部20により出力される熱の温度を例えば「80℃」から「120℃」へと変更する。なお、図9に示した例において、手でGUI544を操作する例に限定されず、所定の入力デバイス(ジョイスティックなど)を用いてGUI544を操作可能であってもよい。
(2−1−4−6.代替の感覚刺激の出力制御)
また、ある感覚刺激に関して、実際の感覚刺激の度合いがオリジナルの感覚刺激の度合いよりも所定の閾値以上小さくなるように感覚刺激が変換される場合、または、当該感覚刺激の出力が中止される場合には、出力制御部106は、当該感覚刺激に対応する感覚とは異なる感覚に関する刺激を補償フィードバックとして(つまり代替の感覚刺激として)別の刺激出力部20に新たに出力させることも可能である。例えば、実際の触覚刺激の度合いがオリジナルの感覚刺激の度合いよりも所定の閾値以上小さくなるように触覚刺激が抑制される場合には、出力制御部106は、視覚または聴覚に対応する刺激出力部20(つまり、HMD20eまたは音声出力部20)に所定の映像や所定の音声を新たに出力させてもよい。
または、ある感覚刺激に関して、実際の感覚刺激の度合いがオリジナルの感覚刺激の度合いよりも所定の閾値以上小さくなるように感覚刺激が変換される場合、または、当該感覚刺激の出力が中止される場合には、出力制御部106は、現在出力されている、当該感覚刺激に対応する感覚とは異なる感覚に関する刺激の強度を該当の刺激出力部20に変更させてもよい。例えば、実際の触覚刺激の度合いがオリジナルの触覚刺激の度合いよりも所定の閾値以上小さくなるように触覚刺激が抑制される場合には、出力制御部106は、HMD20eにより表示されている映像の表示態様を変更したり、また、HMD20eまたは音声出力部20により出力されている音声を変化させてもよい。
例えば、アミューズメントパークなどに設置されている専用のバイクにユーザが乗っている状況において、HMD20eにより表示されているVR映像(ゲームなど)に応じて、バイクの走行風に対応する風を扇風機20cが発生させているとする。この場合、扇風機20cにより発生される風の強さ(風量や風速など)が、オリジナルの風の強さよりも所定の閾値以上小さくなるように抑制される場合には、出力制御部106は、HMD20eに表示されている映像に対して、風のエフェクト(例えば表示中の映像を揺らすなど)を新たに表示させたり、現在表示中の風のエフェクトを強調するように当該エフェクトを変更したり、または、風が吹いていることを示すオノマトペ(例えば「びゅー」など)を新たに表示させてもよい。または、この場合、出力制御部106は、風のエフェクト音(暴風の音など)をHMD20eに新たに出力させたり、または、現在出力中の風のエフェクト音を強調するように当該エフェクトを変更してもよい。例えば、出力制御部106は、現在出力中の風のエフェクト音の音量を大きくしてもよい。
{2−1−5.通信部120}
通信部120は、例えば、後述する通信装置162を含んで構成され得る。通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、モーション情報を刺激出力部20から受信する。また、通信部120は、出力制御部106の制御に従って、出力制御情報を刺激出力部20へ送信する。
{2−1−6.記憶部122}
記憶部122は、例えば、後述するストレージ装置160を含んで構成され得る。記憶部122は、各種のデータ、および、各種のソフトウェアを記憶する。例えば、図3に示したように、記憶部122は、オブジェクトDB124を記憶する。
なお、本実施形態による情報処理装置10の構成は、前述した例に限定されない。例えば、オブジェクトDB124は、記憶部122に記憶される代わりに、通信網22に接続された他の装置(図示省略)に記憶されてもよい。
<2−2.処理の流れ>
以上、本実施形態の構成について説明した。次に、本実施形態による処理の流れの一例について、図10および図11を参照して説明する。なお、以下では、仮想オブジェクトを含む映像を情報処理装置10がHMD20eに表示させる場面における処理の流れの例について説明する。
図10に示したように、まず、情報処理装置10の出力制御部106は、仮想オブジェクトを含む所定の映像をHMD20eに表示させるための表示制御情報をHMD20eへ通信部120に送信させる。そして、HMD20eは、当該表示制御情報に従って所定の映像を表示する(S101)。
その後、刺激出力部20は、ユーザの動きをセンシングする。そして、刺激出力部20は、センシング結果をモーション情報として情報処理装置10へ送信する(S103)。
その後、情報処理装置10の判定部104は、HMD20eに表示されている仮想オブジェクトに対するユーザの動きを当該モーション情報に基づいて判定する(S105)。そして、当該仮想オブジェクトに対してユーザが触れていないと判定された場合には(S107:No)、再びS103の処理が行われる。
一方、当該仮想オブジェクトに対してユーザが触れていると判定された場合には(S107:Yes)、まず、出力制御部106は、S105における、当該仮想オブジェクトに対するユーザの触れ方の判定結果と、当該仮想オブジェクトの属性情報とに応じて、オリジナルの感覚刺激の情報を特定する(S109)。
続いて、出力制御部106は、例えばユーザのプロファイルや、現在のコンテキスト情報などに基づいて、オリジナルの感覚刺激の変換方法を決定する。そして、出力制御部106は、当該オリジナルの感覚刺激の情報を、決定した変換方法を用いて変換することにより、実際の感覚刺激の情報を決定する(S111)。
続いて、出力制御部106は、例えばオリジナルの感覚刺激の度合いなどを示す付加画像を当該仮想オブジェクトと関連付けてHMD20eに表示させる(S113)。
ここで、図11を参照して、S113より後の処理の流れについて説明する。図11に示したように、S113の後、出力制御部106は、S111で決定された感覚刺激を刺激出力部20に出力させるための出力制御情報を生成する。そして、通信部120は、出力制御部106の制御に従って、当該感覚刺激に対応する刺激出力部20へ出力制御情報を送信する。その後、刺激出力部20は、受信した出力制御情報に従って、感覚刺激を出力する(S121)。
{変形例}
なお、本実施形態による処理の流れは、前述した例に限定されない。ここで、本実施形態による処理の流れの変形例について、図12を参照して説明する。なお、図10に示したS101〜S113の処理は、本変形例でも同様である。以下では、S113より後の処理の流れについて説明する。
S113の後、出力制御部106は、S109で特定されたオリジナルの感覚刺激の度合いと、S111で決定された実際の感覚刺激の度合いとの差異が所定の閾値以上であるか否かを判定する(S151)。当該差異が所定の閾値よりも小さい場合には(S151:No)、出力制御部106は、後述するS155の処理を行う。
一方、当該差異が所定の閾値以上である場合には(S151:Yes)、出力制御部106は、当該オリジナルの感覚刺激に対応する感覚とは別の感覚に関する刺激を、当該別の感覚に対応する刺激出力部20bに出力させるための出力制御情報を生成する。そして、通信部120は、出力制御部106の制御に従って、当該出力制御情報を刺激出力部20bへ送信する(S153)。
なお、図12に示したS155は、図11に示したS121と概略同様である。
<2−3.効果>
{2−3−1.効果1}
以上説明したように、本実施形態によれば、情報処理装置10は、HMD20eにより表示される仮想オブジェクトに応じたオリジナルの感覚刺激を、所定の基準に基づいて決定される変換方法を用いて変換し、そして、変換後の感覚刺激を刺激出力部20に出力させることが可能である。このため、適切な度合いの感覚刺激をユーザに提示することができる。
例えば、子どもなどのユーザが当該仮想オブジェクトに接触したと判定された場合には、情報処理装置10は、オリジナルの感覚刺激を、人体に影響がない範囲内の強度の感覚刺激に変換し、そして、変換後の感覚刺激を触覚刺激部20に出力させる。このため、例えばユーザが怪我をすることを防止できる。
{2−3−2.効果2}
また、本実施形態によれば、情報処理装置10は、刺激出力部20に対する、感覚刺激の出力に関する制御情報に応じた付加画像の表示を制御する。このため、感覚刺激の出力に関する制御内容に適応した付加画像の表示を制御することができる。
例えば、当該付加画像は、オリジナルの感覚刺激が抑制されて出力されていることを示したり、また、抑制の程度を示す。また、情報処理装置10は、表示されている仮想オブジェクトと関連付けて当該付加画像をHMD20eに表示させる。従って、例えばオリジナルの感覚刺激が抑制されて刺激出力部20により出力されていることや、オリジナルの感覚刺激の度合いなどをユーザは容易に知ることができる。
<<3.ハードウェア構成>>
次に、本実施形態による情報処理装置10のハードウェア構成について、図13を参照して説明する。図13に示すように、情報処理装置10は、CPU150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、バス156、インターフェース158、ストレージ装置160、および通信装置162を備える。
CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。また、CPU150は、情報処理装置10において制御部100の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
RAM154は、例えば、CPU150により実行されるプログラムや、使用中のデータなどを一時的に記憶する。
バス156は、CPUバスなどから構成される。このバス156は、CPU150、ROM152、および、RAM154を相互に接続する。
インターフェース158は、ストレージ装置160および通信装置162を、バス156と接続する。
ストレージ装置160は、記憶部122として機能する、データ格納用の装置である。ストレージ装置160は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
通信装置162は、例えば通信網22などに接続するための通信デバイス(例えばネットワークカードなど)等で構成された通信インターフェースである。また、通信装置162は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。この通信装置162は、通信部120として機能する。
<<4.変形例>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<4−1.変形例1>
例えば、前述した実施形態では、情報処理装置10(出力制御部106)が、刺激出力部20に対する、感覚刺激の出力に関する制御情報に応じた付加画像をHMD20eに表示させる例について説明したが、本開示はかかる例に限定されない。例えば、情報処理装置10(出力制御部106)は、刺激出力部20に対する、感覚刺激の出力に関する制御情報に応じた音声を音声出力部20(HMD20eやイヤフォンなど)に出力させてもよい。一例として、図5に示したように、HMD20eにより表示される仮想オブジェクト50にユーザが接触したと判定された際には、出力制御部106は、仮想オブジェクト50に対するユーザの接触位置500に対応するオリジナルの温度を示す音声や、当該オリジナルの温度が抑制されていることを示す音声などを(仮想オブジェクト50の表示中に)音声出力部20に出力させてもよい。例えば、この場合、出力制御部106は、「触っている位置の本来の温度は180℃です。現在、温度を抑制しています。」などの音声を音声出力部20に出力させてもよい。
<4−2.変形例2>
また、前述した実施形態による情報処理システムの構成は、図1に示した例に限定されない。例えば、HMD20eと情報処理装置10とは一体的に構成されてもよい。一例として、前述した制御部100に含まれる各構成要素はHMD20eが有してもよい。この場合、本開示における情報処理装置は、HMD20eであり得る。例えば、HMD20eは、触覚刺激部20a〜触覚刺激部20cに対して触覚刺激の出力を制御したり、嗅覚刺激部20dに対して香りの出力を制御し得る。
また、ユーザ2が位置する実空間内にプロジェクタが配置されてもよい。そして、情報処理装置10は、例えば仮想オブジェクトなどを含む映像を当該実空間内の投影対象(例えば壁など)に対して当該プロジェクタに投影させてもよい。なお、この変形例では、本開示における表示部は、プロジェクタであってもよい。また、この場合、当該情報処理システムは、HMD20eを有しなくてもよい。
<4−3.変形例3>
また、前述した実施形態の処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
また、前述した実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、前述した実施形態による情報処理装置10の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、当該コンピュータプログラムが記録された記録媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、
を備える、情報処理装置。
(2)
前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させる、前記(1)に記載の情報処理装置。
(3)
前記感覚刺激は、皮膚感覚に関する刺激であり、
前記情報処理装置は、表示部により表示されている仮想オブジェクトに前記ユーザが接触しているか否かを判定する判定部をさらに備え、
前記出力制御部は、前記仮想オブジェクトに対して前記ユーザが接触していると判定された位置と関連付けて前記画像を前記表示部に表示させる、前記(1)または(2)に記載の情報処理装置。
(4)
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じである、前記(2)または(3)に記載の情報処理装置。
(5)
前記画像は、前記第1の感覚刺激の度合いを示す第1の表示、および、前記第2の感覚刺激の度合いを示す第2の表示のうち少なくとも一方を含む、前記(4)に記載の情報処理装置。
(6)
前記画像は、前記第2の感覚刺激の度合い、または、前記所定の変換方法をユーザが指定するための操作画像をさらに含む、前記(5)に記載の情報処理装置。
(7)
前記第1の感覚刺激の強度と、前記第2の感覚刺激の強度とは異なる、前記(4)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記第2の感覚刺激の強度は、前記第1の感覚刺激の強度よりも小さい、前記(7)に記載の情報処理装置。
(9)
前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、さらに、前記ユーザに対して第3の感覚刺激を第2の出力部に出力させ、
前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、前記(4)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、第2の出力部により出力されている第3の感覚刺激の強度を前記第2の出力部に変化させ、
前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、前記(4)〜(8)のいずれか一項に記載の情報処理装置。
(11)
前記第1の感覚は、皮膚感覚であり、
前記第2の感覚は、視覚または聴覚である、前記(9)または(10)に記載の情報処理装置。
(12)
前記出力制御部は、さらに、前記所定の変換方法を所定の基準に基づいて決定し、かつ、前記制御情報を生成する、前記(4)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記所定の基準は、前記ユーザのプロファイルを含む、前記(12)に記載の情報処理装置。
(14)
前記所定の基準は、前記仮想オブジェクトの表示時のコンテキスト情報を含む、前記(12)または(13)に記載の情報処理装置。
(15)
前記所定の基準は、前記第1の感覚刺激の度合いを含む、前記(12)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記感覚刺激は、皮膚感覚に関する刺激であり、
前記情報処理装置は、前記仮想オブジェクトに前記ユーザが接触しているか否かを判定する判定部をさらに備え、
前記仮想オブジェクトに前記ユーザが接触したと判定された際に、前記出力制御部は、前記制御情報を生成する、前記(12)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記出力制御部は、さらに、前記第1の出力部へ前記制御情報を通信部に送信させる、前記(12)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記制御情報は、前記感覚刺激の出力量に関する情報を含み、
前記出力制御部は、前記感覚刺激の出力量に基づいて前記画像の表示を変化させる、前記(1)〜(17)のいずれか一項に記載の情報処理装置。
(19)
ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示をプロセッサが制御すること、
を含む、情報処理方法。
(20)
コンピュータを、
ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、
として機能させるための、プログラム。
10 情報処理装置
20 刺激出力部
20e HMD
22 通信網
100 制御部
102 情報取得部
104 判定部
106 出力制御部
120 通信部
122 記憶部
124 オブジェクトDB

Claims (12)

  1. ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、を備え、
    前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
    前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
    前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
    前記画像は、前記第2の感覚刺激の度合い、または、前記所定の変換方法をユーザが指定するための操作画像を含む、
    情報処理装置。
  2. 前記第1の感覚刺激の強度と、前記第2の感覚刺激の強度とは異なる、請求項に記載の情報処理装置。
  3. 前記第2の感覚刺激の強度は、前記第1の感覚刺激の強度よりも小さい、請求項に記載の情報処理装置。
  4. ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、を備え、
    前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
    前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
    前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
    前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、さらに、前記ユーザに対して第3の感覚刺激を第2の出力部に出力させ、
    前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
    情報処理装置。
  5. ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、を備え、
    前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
    前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
    前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
    前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、第2の出力部により出力されている第3の感覚刺激の強度を前記第2の出力部に変化させ、
    前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
    情報処理装置。
  6. 前記第1の感覚は、皮膚感覚であり、
    前記第2の感覚は、視覚または聴覚である、請求項またはに記載の情報処理装置。
  7. ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示をプロセッサが制御すること、を含み、
    前記プロセッサは、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
    前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
    前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
    前記画像は、前記第2の感覚刺激の度合い、または、前記所定の変換方法をユーザが指定するための操作画像を含む、
    情報処理方法。
  8. ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示をプロセッサが制御すること、を含み、
    前記プロセッサは、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
    前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
    前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
    前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記プロセッサは、さらに、前記ユーザに対して第3の感覚刺激を第2の出力部に出力させ、
    前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
    情報処理方法。
  9. ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示をプロセッサが制御すること、を含み、
    前記プロセッサは、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
    前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
    前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
    前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記プロセッサは、第2の出力部により出力されている第3の感覚刺激の強度を前記第2の出力部に変化させ、
    前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
    情報処理方法。
  10. コンピュータを、
    ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、として機能させるための、プログラムであって、
    前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
    前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
    前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
    前記画像は、前記第2の感覚刺激の度合い、または、前記所定の変換方法をユーザが指定するための操作画像を含む、
    プログラム。
  11. コンピュータを、
    ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、として機能させるための、プログラムであって、
    前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
    前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
    前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
    前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、さらに、前記ユーザに対して第3の感覚刺激を第2の出力部に出力させ、
    前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
    プログラム。
  12. コンピュータを、
    ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、として機能させるための、プログラムであって、
    前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
    前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
    前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
    前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、第2の出力部により出力されている第3の感覚刺激の強度を前記第2の出力部に変化させ、
    前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
    プログラム。
JP2018557537A 2016-12-19 2017-09-08 情報処理装置、情報処理方法、およびプログラム Active JP6908053B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016245395 2016-12-19
JP2016245395 2016-12-19
PCT/JP2017/032519 WO2018116544A1 (ja) 2016-12-19 2017-09-08 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2018116544A1 JPWO2018116544A1 (ja) 2019-10-24
JP6908053B2 true JP6908053B2 (ja) 2021-07-21

Family

ID=62626306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018557537A Active JP6908053B2 (ja) 2016-12-19 2017-09-08 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US11422626B2 (ja)
EP (1) EP3557375B1 (ja)
JP (1) JP6908053B2 (ja)
KR (1) KR102469574B1 (ja)
WO (1) WO2018116544A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020098152A (ja) * 2018-12-18 2020-06-25 株式会社中電工 表示システム
JP7240180B2 (ja) * 2019-01-10 2023-03-15 東京瓦斯株式会社 設備環境出力システムおよびプログラム
WO2021193421A1 (ja) * 2020-03-27 2021-09-30 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム
US11249553B2 (en) * 2020-06-12 2022-02-15 Emerge Now Inc. Method and system for the generation and management of tactile commands for tactile sensation
JP2023053592A (ja) * 2021-10-01 2023-04-13 株式会社電通 食品、感覚提示システムおよび感覚提示方法
WO2023228919A1 (ja) * 2022-05-27 2023-11-30 京セラ株式会社 表示装置および空中像表示装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5957739B2 (ja) * 2011-11-11 2016-07-27 パナソニックIpマネジメント株式会社 電子機器
US9063570B2 (en) * 2012-06-27 2015-06-23 Immersion Corporation Haptic feedback control system
CA2879523A1 (en) * 2012-07-19 2014-01-09 Gaurav VATS User-controlled 3d simulation for providing realistic and enhanced digital object viewing and interaction experience
WO2014061310A1 (ja) 2012-10-16 2014-04-24 日本電気株式会社 表示物制御システム、表示物制御方法及びプログラム
EP2988275A4 (en) * 2013-04-16 2016-11-30 Sony Corp INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD, DISPLAY DEVICE AND DISPLAY METHOD AND INFORMATION PROCESSING SYSTEM
JP6225989B2 (ja) 2013-06-21 2017-11-08 株式会社ニコン 振動データ生成プログラム、および振動データ生成装置
GB201313444D0 (en) * 2013-07-29 2013-09-11 Ambi Labs Ltd Energy efficient indoor climate controller
JP6264542B2 (ja) 2014-01-30 2018-01-24 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
US10627904B2 (en) 2014-02-07 2020-04-21 Ultrahaptics IP Two Limited Systems and methods of determining interaction intent in three-dimensional (3D) sensory space
JP2015162152A (ja) 2014-02-28 2015-09-07 京セラドキュメントソリューションズ株式会社 タッチパネル装置及び画像形成装置
JP2015170174A (ja) 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6341417B2 (ja) 2014-06-10 2018-06-13 任天堂株式会社 振動生成システム、振動生成プログラム、および振動生成方法
US10296086B2 (en) * 2015-03-20 2019-05-21 Sony Interactive Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments
CN105843278B (zh) 2016-04-29 2018-04-17 广东美的制冷设备有限公司 根据虚拟场景控制环境温度的方法、温度数据终端和系统

Also Published As

Publication number Publication date
EP3557375A1 (en) 2019-10-23
WO2018116544A1 (ja) 2018-06-28
KR102469574B1 (ko) 2022-11-22
JPWO2018116544A1 (ja) 2019-10-24
EP3557375B1 (en) 2023-10-25
US20210286432A1 (en) 2021-09-16
US11422626B2 (en) 2022-08-23
EP3557375A4 (en) 2019-10-23
KR20190096988A (ko) 2019-08-20

Similar Documents

Publication Publication Date Title
JP6908053B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6977134B2 (ja) 頭部装着ディスプレイにおける仮想現実(vr)コンテンツの視野(fov)絞り
JP6982215B2 (ja) 検出された手入力に基づく仮想手ポーズのレンダリング
US11562528B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP6922908B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6646620B2 (ja) 広範囲同時遠隔ディジタル提示世界
JP2018014119A (ja) 手袋インタフェースオブジェクト及び方法
US11334226B2 (en) Information processing device, information processing method, and program
WO2018173399A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20240091224A (ko) 사용자의 표현을 생성 및 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
JP2018524673A (ja) 仮想現実の反応性アニメーション
JPWO2019187862A1 (ja) 情報処理装置、情報処理方法、および記録媒体
US20230306695A1 (en) Devices, methods, and graphical user interfaces for three-dimensional user experience sessions in an extended reality environment
JP6863391B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2023127403A1 (ja) Vr臨場感向上システムおよびvr臨場感向上プログラム
CN117331434A (zh) 在3d环境内定位内容
CN118963890A (zh) 用于生成和显示用户的表示的设备、方法和图形用户界面

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210614

R151 Written notification of patent or utility model registration

Ref document number: 6908053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151