JP6908053B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP6908053B2 JP6908053B2 JP2018557537A JP2018557537A JP6908053B2 JP 6908053 B2 JP6908053 B2 JP 6908053B2 JP 2018557537 A JP2018557537 A JP 2018557537A JP 2018557537 A JP2018557537 A JP 2018557537A JP 6908053 B2 JP6908053 B2 JP 6908053B2
- Authority
- JP
- Japan
- Prior art keywords
- sensory stimulus
- output
- unit
- stimulus
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 95
- 238000003672 processing method Methods 0.000 title claims description 8
- 230000001953 sensory effect Effects 0.000 claims description 241
- 230000035807 sensation Effects 0.000 claims description 81
- 238000000034 method Methods 0.000 claims description 36
- 238000006243 chemical reaction Methods 0.000 claims description 35
- 230000000638 stimulation Effects 0.000 claims description 20
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 38
- 230000033001 locomotion Effects 0.000 description 20
- 238000012986 modification Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 14
- 230000004048 modification Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000004936 stimulating effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000007689 inspection Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008058 pain sensation Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008786 sensory perception of smell Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Description
1.情報処理システムの構成
2.実施形態の詳細な説明
3.ハードウェア構成
4.変形例
まず、本開示の実施形態による情報処理システムの構成について、図1を参照して説明する。図1に示すように、本実施形態による情報処理システムは、情報処理装置10、複数の種類の刺激出力部20、および、通信網22を有する。
刺激出力部20は、本開示における第1の出力部および第2の出力部の一例である。刺激出力部20は、例えば所定の感覚をユーザに提示するためのデバイスであり得る。例えば、刺激出力部20は、後述する情報処理装置10から受信される出力制御情報に従って、皮膚感覚、視覚、聴覚、および/または、嗅覚に関する刺激を出力する。ここで、皮膚感覚は、例えば触覚、圧覚、温冷覚、および、痛覚を含み得る。なお、以下では、皮膚感覚に関する刺激を触覚刺激と称する。例えば、刺激出力部20は、(触覚刺激として)振動を発生させたり、熱を発生させ得る。
例えば、図1に示したように、刺激出力部20は、触覚刺激部20a(アクチュエータ付きグローブなど)、および、触覚刺激部20b(アクチュエータ付きジャケットなど)を含み得る。
また、図1に示したように、刺激出力部20は、嗅覚刺激部20dを含み得る。嗅覚刺激部20dは、香り(臭い)を発生し得る。ここで、香りは、嗅覚に関する刺激の一例である。
また、図1に示したように、刺激出力部20は、HMD(Head Mounted Display)20eを含み得る。HMD20eは、例えば図1に示したような頭部装着型デバイスである。HMD20eは、表示部および音声出力部を含み得る。
また、刺激出力部20(例えば触覚刺激部20a、触覚刺激部20b、および、HMD20eなど)は、例えば加速度センサやジャイロスコープなどの各種のセンサを有し得る。この場合、刺激出力部20は、ユーザの身体の動き(例えば手の動きなど)をセンシングすることが可能である。また、刺激出力部20は、センシング結果を当該ユーザのモーション情報として通信網22を介して情報処理装置10へ送信することが可能である。また、HMD20eにカメラが設置される場合、当該カメラはユーザの身体(例えば手など)の画像を撮影し、そして、HMD20eは、撮影された画像を情報処理装置10へ送信することも可能である。
情報処理装置10は、本開示における情報処理装置の一例である。情報処理装置10は、例えば、後述する通信網22を介して、刺激出力部20の動作を制御する。例えば、情報処理装置10は、VR(Virtual Reality)やAR(Augmented Reality)のアプリケーションに関する映像をHMD20eに表示させる。また、情報処理装置10は、所定のタイミング(例えばHMD20eによる映像の表示時など)に所定の触覚刺激を触覚刺激部20aに出力させる。
通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態による情報処理システムの構成について説明した。ところで、従来、所望の皮膚感覚をユーザに提示するための技術が研究されている。しかしながら、提示される皮膚感覚の度合いによっては、人体に危険性が生じ得る。例えば、提示される温度が高温である場合にはユーザが火傷をしたり、また、提示される圧が強い場合にはユーザが怪我をする恐れがある。
<2−1.構成>
次に、本実施形態による情報処理装置10の構成について詳細に説明する。図3は、本実施形態による情報処理装置10の構成例を示した機能ブロック図である。図3に示すように、情報処理装置10は、制御部100、通信部120、および、記憶部122を有する。
制御部100は、例えば、後述するCPU(Central Processing Unit)150やGPU(Graphics Processing Unit)などの処理回路を含んで構成され得る。制御部100は、情報処理装置10の動作を統括的に制御する。また、図3に示すように、制御部100は、情報取得部102、判定部104、および、出力制御部106を有する。
(2−1−2−1.モーション情報の取得)
情報取得部102は、ユーザのモーション情報を取得する。例えば、モーション情報が触覚刺激部20によりセンシングされる場合には、情報取得部102は、触覚刺激部20から受信されるモーション情報を取得する。または、ユーザが装着する他のセンサ(例えばHMD20eに設置されているカメラなど)や、当該ユーザが位置する実空間内に設置された他のセンサ(カメラなど)によるセンシング結果が受信される場合には、情報取得部102は、当該センシング結果を解析(例えば画像認識など)し、そして、解析結果を当該ユーザのモーション情報として取得してもよい。
また、情報取得部102は、HMD20eにより表示されている仮想オブジェクトの属性情報を取得する。例えば、仮想オブジェクトごとの属性情報が予め制作者により定められ、そして、仮想オブジェクトと属性情報とが関連付けてオブジェクトDB124に登録され得る。この場合、情報取得部102は、HMD20eにより表示されている仮想オブジェクトの属性情報をオブジェクトDB124から取得し得る。
(2−1−3−1.ユーザの動きの判定)
判定部104は、HMD20eにより表示されている仮想オブジェクトに対するユーザの動きを、情報取得部102により取得されたモーション情報に基づいて判定する。例えば、判定部104は、HMD20eにより表示されている仮想オブジェクトに対してユーザが接触または近接しているか否か(例えば触れているか否か)を、取得されたモーション情報に基づいて判定する。一例として、判定部104は、当該仮想オブジェクトに含まれる各面とユーザの身体との距離に基づいて、当該仮想オブジェクトにユーザが接触しているか否かを判定する。例えば、当該仮想オブジェクトに含まれるいずれかの面と、ユーザの身体との距離が所定の閾値以内である場合には、判定部104は、当該仮想オブジェクトの当該面にユーザが接触していると判定する。また、当該仮想オブジェクトに含まれる全ての面とユーザの身体との距離が所定の閾値よりも大きい場合には、判定部104は、当該仮想オブジェクトにユーザが接触していないと判定する。
また、判定部104は、さらに、HMD20eにより表示されている仮想オブジェクトに応じて、オリジナルの感覚刺激(つまり本来の感覚刺激)の情報を特定することが可能である。例えば、仮想オブジェクトとオリジナルの感覚刺激(例えば視覚、聴覚、または、嗅覚に関する刺激など)の情報とが関連付けて、所定のテーブルに格納され得る。この場合、判定部104は、HMD20eにより現在表示されている仮想オブジェクトごとに、当該仮想オブジェクトと、当該所定のテーブルとに基づいて、オリジナルの感覚刺激の情報を特定し得る。ここで、オリジナルの感覚刺激の情報は、例えば感覚刺激の種類や、感覚刺激の強度(例えば輝度や音量など)などを含み得る。なお、所定のテーブルは、オブジェクトDB124であってもよい。
なお、変形例として、テクスチャ情報とオリジナルの皮膚感覚の情報とは関連付けられていなくてもよい。この場合、情報処理装置10(制御部100)は、まず、HMD20eにより表示されている仮想オブジェクトに含まれる面ごとに、当該面のテクスチャ情報に関連付けられている音データを取得し、そして、取得した音データと公知の技術とに基づいてオリジナルの皮膚感覚の情報を動的に生成してもよい。なお、通信網22に接続された他の装置(図示省略)または記憶部122において、個々のテクスチャ情報と音データとは関連付けて格納され得る。
また、別の変形例として、仮想オブジェクトとオリジナルの感覚(例えば皮膚感覚、視覚、聴覚、または、嗅覚)の情報とが関連付けて、所定のテーブルに格納されてもよい。この場合、判定部104は、HMD20eにより現在表示されている仮想オブジェクトごとに、当該仮想オブジェクトと、当該所定のテーブルとに基づいて、オリジナルの感覚の情報を特定してもよい。そして、判定部104は、特定したオリジナルの感覚に対応する感覚刺激を、オリジナルの感覚刺激として特定してもよい。
(2−1−4−1.仮想オブジェクトの表示制御)
出力制御部106は、例えば仮想オブジェクトを含む映像の表示をHMD20eに対して制御する。例えば、出力制御部106は、当該映像を表示させるための表示制御情報をHMD20eへ通信部120に送信させる。
また、出力制御部106は、刺激出力部20に対する感覚刺激の出力を制御する。例えば、出力制御部106は、まず、所定の感覚刺激を出力させるための出力制御情報を生成し、そして、当該所定の感覚刺激を出力可能な刺激出力部20へ当該出力制御情報を通信部120に送信させる。一例として、HMD20eに表示されている仮想オブジェクトにユーザが触れていると判定部104により判定された場合には、出力制御部106は、当該仮想オブジェクトにユーザが接触したことに対するフィードバック(または応答)に相当する触覚刺激を触覚刺激部20に出力させるための出力制御情報を生成する。
ここで、出力制御情報は、HMD20eにより表示されている仮想オブジェクトに応じたオリジナルの感覚刺激の情報が所定の変換方法に基づいて変換(抑制または強化)された感覚刺激(以下、実際の感覚刺激と称する)を刺激出力部20に出力させるための情報であり得る。すなわち、出力制御情報は感覚刺激の出力量を含むと見做されてよい。なお、オリジナルの感覚刺激は、本開示における第1の感覚刺激の一例であり、また、実際の感覚刺激は、本開示における第2の感覚刺激の一例である。なお、オリジナルの感覚刺激に対応する感覚と、実際の感覚刺激に対応する感覚とは、基本的に同じ種類であり得る。
ここで、所定の基準は、ユーザのプロファイルを含み得る。プロファイルは、例えば年齢、性別、操作の熟練度(専門のオペレータであるか否かや、利用回数など)、および、感覚刺激(触覚刺激など)に対する耐性を示す情報などを含み得る。例えば、ユーザが専門のオペレータである場合には、出力制御部106は、オリジナルの感覚刺激をそのまま実際の感覚刺激として決定してもよい。また、ユーザが子どもである場合には、出力制御部106は、オリジナルの感覚刺激の度合いが所定の変換式に基づいて抑制された感覚刺激を実際の感覚刺激として決定してもよい。
また、所定の基準は、仮想オブジェクトの表示時のコンテキスト情報を含み得る。ここで、当該コンテキスト情報は、HMD20eにより表示されている映像に対応するアプリケーションに関するユーザの利用状況を示す情報であってもよい。例えば、より正確に皮膚感覚を再現することをユーザが望む状況であることを当該コンテキスト情報が示す場合には、出力制御部106は、オリジナルの感覚刺激をほとんど変更せずに実際の感覚刺激として決定してもよい。また、特定の範囲内の皮膚感覚に関してより詳細に情報を得ることをユーザが望む状況であることを当該コンテキスト情報が示す場合には、出力制御部106は、当該特定の範囲を、当該特定の範囲よりも広い範囲にマッピングすることにより、(オリジナルの触覚刺激に対応する)オリジナルの皮膚感覚の度合いを変換し、そして、変換後の皮膚感覚に対応する触覚刺激を実際の触覚刺激として決定してもよい。
また、所定の基準は、オリジナルの感覚刺激の度合いが所定の閾値以上であることを含み得る。例えばVRのカーレースゲームやスポーツゲームなどにおいて激しい衝突が発生した場合や、ゲームにおいて銃で撃たれた場合などには、これらのイベントに対応するオリジナルの圧覚がそのままユーザに提示されると、ユーザが怪我をしてしまう恐れがある。そこで、圧覚に関するオリジナルの刺激の度合いが所定の閾値以上である場合には、出力制御部106は、人体に影響がない範囲内の圧覚が提示されるように当該オリジナルの刺激を抑制し、そして、抑制後の刺激を(実際の触覚刺激として)触覚刺激部20(例えば図1に示した触覚刺激部20b)に出力させる。これにより、ゲームとして楽しめる範囲内の皮膚感覚をユーザに提示することができる。
ここで、感覚刺激の変換方法の具体例について、図4を参照して説明する。図4は、HMD20eにより表示されている仮想オブジェクトにユーザが触れた際の、触れた位置に対応するオリジナルの温度と、当該オリジナルの温度が変換された温度(実際の温度)との関係の一例を示したグラフである。図4に示した例では、オリジナルの温度が80℃以上100℃以下である場合には、出力制御部106は、非線形の変換式を用いてオリジナルの温度を、20℃以上80℃以下の温度に変換し、そして、変換後の温度に対応する触覚刺激を実際の触覚刺激として決定する。また、オリジナルの温度が100℃よりも大きい場合には、出力制御部106は、「80℃」に対応する触覚刺激を実際の触覚刺激として(画一的に)決定する。この変換例によれば、特定範囲(つまり「80℃以上100℃以下」)の温度変化に関して、ユーザは、より詳細に情報を得ることができる。また、提示される温度の上限値(「80℃」)が設定されるので、例えば専門のオペレータではないユーザが仮想オブジェクトに触れた際の安全性を確保することができる。
また、出力制御部106は、刺激出力部20に対する感覚刺激の出力制御情報に応じた付加画像の表示を制御することが可能である。ここで、当該付加画像は、オリジナルの感覚刺激の度合いを示す第1の表示、および、オリジナルの感覚刺激を変換(抑制または強化)していることを示す文字列や画像を含み得る。また、当該付加画像は、(刺激出力部20により出力されている)実際の感覚刺激の度合いを示す第2の表示をさらに含み得る。ここで、感覚刺激の度合いとは、例えば感覚刺激の強度のレベル(度合い)や、感覚刺激の強度の値であり得る。または、当該付加画像は、オリジナルの感覚刺激と実際の感覚刺激との差異の度合い(例えば、差異のレベル、差異の値、または、オリジナルの感覚刺激の度合いに対する実際の感覚刺激の度合いの割合(パーセンテージ)など)を示す表示をさらに含んでもよい。
図5は、HMD20eにより表示される映像40内の仮想オブジェクト50(仮想のフライパン)に対してユーザが接触したと判定された際の付加画像54の表示例(付加画像54a)を示した図である。なお、実空間におけるユーザの手の認識結果に応じて、図5に示したように、映像40内に仮想の手52が表示され得る。例えば、映像40と三次元の仮想空間とが関連付けられており、そして、実空間において認識されたユーザの手の位置に対応する、当該仮想空間内の位置に仮想の手52は表示される。
なお、HMD20eに表示されている、一以上の仮想オブジェクト50に対してユーザが両手で接触したと判定された場合には、手ごとに、当該手が接触している位置に対応するオリジナルの感覚刺激の度合いを示す付加画像54を、当該手の接触位置の近辺にそれぞれ表示させてもよい。なお、このような場合の例としては、個々の手が別々の仮想オブジェクトに接触する場合や、両手で同じ仮想オブジェクトに接触する場合などが挙げられる。
また、図6は、所定の仮想オブジェクト50(仮想の太陽50)がHMD20eにより表示された際の付加画像54の表示例(付加画像54b)を示した図である。なお、図6に示した例では、仮想の太陽50に関連付けられているオリジナルの輝度が、例えば子どもなどのユーザの視覚に対して過剰である程度に大きいものとする。また、図6に示した例では、出力制御部106は、当該オリジナルの輝度を80%に抑制して、仮想の太陽50をHMD30に表示させている例を示している。この場合、図6に示したように、出力制御部106は、「仮想の太陽50の輝度が80%に抑制されていること」を示す文字列を含む付加画像54bを、仮想の太陽50の表示位置の近くに表示させてもよい。
また、図7は、HMD20eにより表示される仮想オブジェクト50に対してユーザが接触したと判定された際の付加画像54の別の表示例(付加画像54c)を示した図である。図7に示したように、付加画像54cは、仮想オブジェクト50内の各位置において提示され得る皮膚感覚(例えば温度など)の分布を示す表示56を(図5に示した付加画像54aと比較して)さらに含む。例えば、図7に示したように、表示56は、仮想オブジェクト50内の各位置の温度を示す等値線を含んでもよい。これにより、ユーザは、仮想オブジェクト50において自分が現在接触している位置500の温度と、接触位置500の周囲の温度との関係を同時に知ることができる。
また、図8は、HMD20eにより表示される仮想オブジェクト50に対してユーザが接触したと判定された際の付加画像54のさらに別の表示例(付加画像54d)を示した図である。図8に示したように、付加画像54dは、刺激出力部20により実際に提示されている温度を示す表示540bを(図5に示した付加画像54aと比較して)さらに含む。例えば、図8に示したように、出力制御部106は、オリジナルの温度を示す表示540aと、実際の温度を示す表示540bとを並べて映像40b内に表示させてもよい。この表示例によれば、オリジナルの温度と、現在提示されている温度とをユーザは同時に知ることができる。従って、現在皮膚で感じている温度と、オリジナルの温度(つまり、仮想オブジェクトに関連付けられている本来の温度)とがどの程度異なるかを、ユーザは、付加画像54aを閲覧することにより知ることができる。
なお、実際の感覚刺激の度合い、または、上記の所定の変換式は、例えば所定の設定画面に対するユーザの入力に基づいて予め設定可能であってもよいし、または、リアルタイムに調整可能であってもよい。また、付加画像54は、例えば、出力される感覚刺激(または提示される感覚)の種類、出力される感覚刺激の度合い、または、上記の所定の変換式などをユーザが指定するためのGUI(Graphical User Interface)を含んでもよい。この場合、出力される感覚刺激の種類、出力される感覚刺激の度合い、または、上記の所定の変換式は、当該GUIに対するユーザの操作に基づいてリアルタイムに調整可能であってもよい。ここで、GUIは、本開示における操作画像の一例である。なお、GUIは、例えばスライダのような形状のオブジェクトであってもよい。
また、ある感覚刺激に関して、実際の感覚刺激の度合いがオリジナルの感覚刺激の度合いよりも所定の閾値以上小さくなるように感覚刺激が変換される場合、または、当該感覚刺激の出力が中止される場合には、出力制御部106は、当該感覚刺激に対応する感覚とは異なる感覚に関する刺激を補償フィードバックとして(つまり代替の感覚刺激として)別の刺激出力部20に新たに出力させることも可能である。例えば、実際の触覚刺激の度合いがオリジナルの感覚刺激の度合いよりも所定の閾値以上小さくなるように触覚刺激が抑制される場合には、出力制御部106は、視覚または聴覚に対応する刺激出力部20(つまり、HMD20eまたは音声出力部20)に所定の映像や所定の音声を新たに出力させてもよい。
通信部120は、例えば、後述する通信装置162を含んで構成され得る。通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、モーション情報を刺激出力部20から受信する。また、通信部120は、出力制御部106の制御に従って、出力制御情報を刺激出力部20へ送信する。
記憶部122は、例えば、後述するストレージ装置160を含んで構成され得る。記憶部122は、各種のデータ、および、各種のソフトウェアを記憶する。例えば、図3に示したように、記憶部122は、オブジェクトDB124を記憶する。
以上、本実施形態の構成について説明した。次に、本実施形態による処理の流れの一例について、図10および図11を参照して説明する。なお、以下では、仮想オブジェクトを含む映像を情報処理装置10がHMD20eに表示させる場面における処理の流れの例について説明する。
なお、本実施形態による処理の流れは、前述した例に限定されない。ここで、本実施形態による処理の流れの変形例について、図12を参照して説明する。なお、図10に示したS101〜S113の処理は、本変形例でも同様である。以下では、S113より後の処理の流れについて説明する。
{2−3−1.効果1}
以上説明したように、本実施形態によれば、情報処理装置10は、HMD20eにより表示される仮想オブジェクトに応じたオリジナルの感覚刺激を、所定の基準に基づいて決定される変換方法を用いて変換し、そして、変換後の感覚刺激を刺激出力部20に出力させることが可能である。このため、適切な度合いの感覚刺激をユーザに提示することができる。
また、本実施形態によれば、情報処理装置10は、刺激出力部20に対する、感覚刺激の出力に関する制御情報に応じた付加画像の表示を制御する。このため、感覚刺激の出力に関する制御内容に適応した付加画像の表示を制御することができる。
次に、本実施形態による情報処理装置10のハードウェア構成について、図13を参照して説明する。図13に示すように、情報処理装置10は、CPU150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、バス156、インターフェース158、ストレージ装置160、および通信装置162を備える。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、前述した実施形態では、情報処理装置10(出力制御部106)が、刺激出力部20に対する、感覚刺激の出力に関する制御情報に応じた付加画像をHMD20eに表示させる例について説明したが、本開示はかかる例に限定されない。例えば、情報処理装置10(出力制御部106)は、刺激出力部20に対する、感覚刺激の出力に関する制御情報に応じた音声を音声出力部20(HMD20eやイヤフォンなど)に出力させてもよい。一例として、図5に示したように、HMD20eにより表示される仮想オブジェクト50にユーザが接触したと判定された際には、出力制御部106は、仮想オブジェクト50に対するユーザの接触位置500に対応するオリジナルの温度を示す音声や、当該オリジナルの温度が抑制されていることを示す音声などを(仮想オブジェクト50の表示中に)音声出力部20に出力させてもよい。例えば、この場合、出力制御部106は、「触っている位置の本来の温度は180℃です。現在、温度を抑制しています。」などの音声を音声出力部20に出力させてもよい。
また、前述した実施形態による情報処理システムの構成は、図1に示した例に限定されない。例えば、HMD20eと情報処理装置10とは一体的に構成されてもよい。一例として、前述した制御部100に含まれる各構成要素はHMD20eが有してもよい。この場合、本開示における情報処理装置は、HMD20eであり得る。例えば、HMD20eは、触覚刺激部20a〜触覚刺激部20cに対して触覚刺激の出力を制御したり、嗅覚刺激部20dに対して香りの出力を制御し得る。
また、前述した実施形態の処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
(1)
ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、
を備える、情報処理装置。
(2)
前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させる、前記(1)に記載の情報処理装置。
(3)
前記感覚刺激は、皮膚感覚に関する刺激であり、
前記情報処理装置は、表示部により表示されている仮想オブジェクトに前記ユーザが接触しているか否かを判定する判定部をさらに備え、
前記出力制御部は、前記仮想オブジェクトに対して前記ユーザが接触していると判定された位置と関連付けて前記画像を前記表示部に表示させる、前記(1)または(2)に記載の情報処理装置。
(4)
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じである、前記(2)または(3)に記載の情報処理装置。
(5)
前記画像は、前記第1の感覚刺激の度合いを示す第1の表示、および、前記第2の感覚刺激の度合いを示す第2の表示のうち少なくとも一方を含む、前記(4)に記載の情報処理装置。
(6)
前記画像は、前記第2の感覚刺激の度合い、または、前記所定の変換方法をユーザが指定するための操作画像をさらに含む、前記(5)に記載の情報処理装置。
(7)
前記第1の感覚刺激の強度と、前記第2の感覚刺激の強度とは異なる、前記(4)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記第2の感覚刺激の強度は、前記第1の感覚刺激の強度よりも小さい、前記(7)に記載の情報処理装置。
(9)
前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、さらに、前記ユーザに対して第3の感覚刺激を第2の出力部に出力させ、
前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、前記(4)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、第2の出力部により出力されている第3の感覚刺激の強度を前記第2の出力部に変化させ、
前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、前記(4)〜(8)のいずれか一項に記載の情報処理装置。
(11)
前記第1の感覚は、皮膚感覚であり、
前記第2の感覚は、視覚または聴覚である、前記(9)または(10)に記載の情報処理装置。
(12)
前記出力制御部は、さらに、前記所定の変換方法を所定の基準に基づいて決定し、かつ、前記制御情報を生成する、前記(4)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記所定の基準は、前記ユーザのプロファイルを含む、前記(12)に記載の情報処理装置。
(14)
前記所定の基準は、前記仮想オブジェクトの表示時のコンテキスト情報を含む、前記(12)または(13)に記載の情報処理装置。
(15)
前記所定の基準は、前記第1の感覚刺激の度合いを含む、前記(12)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記感覚刺激は、皮膚感覚に関する刺激であり、
前記情報処理装置は、前記仮想オブジェクトに前記ユーザが接触しているか否かを判定する判定部をさらに備え、
前記仮想オブジェクトに前記ユーザが接触したと判定された際に、前記出力制御部は、前記制御情報を生成する、前記(12)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記出力制御部は、さらに、前記第1の出力部へ前記制御情報を通信部に送信させる、前記(12)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記制御情報は、前記感覚刺激の出力量に関する情報を含み、
前記出力制御部は、前記感覚刺激の出力量に基づいて前記画像の表示を変化させる、前記(1)〜(17)のいずれか一項に記載の情報処理装置。
(19)
ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示をプロセッサが制御すること、
を含む、情報処理方法。
(20)
コンピュータを、
ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、
として機能させるための、プログラム。
20 刺激出力部
20e HMD
22 通信網
100 制御部
102 情報取得部
104 判定部
106 出力制御部
120 通信部
122 記憶部
124 オブジェクトDB
Claims (12)
- ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、を備え、
前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
前記画像は、前記第2の感覚刺激の度合い、または、前記所定の変換方法をユーザが指定するための操作画像を含む、
情報処理装置。 - 前記第1の感覚刺激の強度と、前記第2の感覚刺激の強度とは異なる、請求項1に記載の情報処理装置。
- 前記第2の感覚刺激の強度は、前記第1の感覚刺激の強度よりも小さい、請求項2に記載の情報処理装置。
- ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、を備え、
前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、さらに、前記ユーザに対して第3の感覚刺激を第2の出力部に出力させ、
前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
情報処理装置。 - ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、を備え、
前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、第2の出力部により出力されている第3の感覚刺激の強度を前記第2の出力部に変化させ、
前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
情報処理装置。 - 前記第1の感覚は、皮膚感覚であり、
前記第2の感覚は、視覚または聴覚である、請求項4または5に記載の情報処理装置。 - ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示をプロセッサが制御すること、を含み、
前記プロセッサは、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
前記画像は、前記第2の感覚刺激の度合い、または、前記所定の変換方法をユーザが指定するための操作画像を含む、
情報処理方法。 - ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示をプロセッサが制御すること、を含み、
前記プロセッサは、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記プロセッサは、さらに、前記ユーザに対して第3の感覚刺激を第2の出力部に出力させ、
前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
情報処理方法。 - ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示をプロセッサが制御すること、を含み、
前記プロセッサは、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記プロセッサは、第2の出力部により出力されている第3の感覚刺激の強度を前記第2の出力部に変化させ、
前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
情報処理方法。 - コンピュータを、
ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、として機能させるための、プログラムであって、
前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
前記画像は、前記第2の感覚刺激の度合い、または、前記所定の変換方法をユーザが指定するための操作画像を含む、
プログラム。 - コンピュータを、
ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、として機能させるための、プログラムであって、
前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、さらに、前記ユーザに対して第3の感覚刺激を第2の出力部に出力させ、
前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
プログラム。 - コンピュータを、
ユーザに対して感覚刺激を出力する第1の出力部に対する制御情報に応じた画像の表示を制御する出力制御部、として機能させるための、プログラムであって、
前記出力制御部は、表示部における仮想オブジェクトの表示位置と関連付けて前記画像を前記表示部に表示させ、
前記制御情報は、前記仮想オブジェクトに応じた第1の感覚刺激が所定の変換方法に基づいて変換された第2の感覚刺激を前記第1の出力部に出力させるための情報であり、
前記第1の感覚刺激に対応する感覚と、前記第2の感覚刺激に対応する感覚とは種類が同じであり、
前記第2の感覚刺激の度合いが前記第1の感覚刺激の度合いよりも所定の閾値以上小さくなるように前記第1の感覚刺激が変換される場合には、前記出力制御部は、第2の出力部により出力されている第3の感覚刺激の強度を前記第2の出力部に変化させ、
前記第1の感覚刺激および前記第2の感覚刺激に対応する第1の感覚と、前記第3の感覚刺激に対応する第2の感覚とは種類が異なる、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016245395 | 2016-12-19 | ||
JP2016245395 | 2016-12-19 | ||
PCT/JP2017/032519 WO2018116544A1 (ja) | 2016-12-19 | 2017-09-08 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018116544A1 JPWO2018116544A1 (ja) | 2019-10-24 |
JP6908053B2 true JP6908053B2 (ja) | 2021-07-21 |
Family
ID=62626306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018557537A Active JP6908053B2 (ja) | 2016-12-19 | 2017-09-08 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11422626B2 (ja) |
EP (1) | EP3557375B1 (ja) |
JP (1) | JP6908053B2 (ja) |
KR (1) | KR102469574B1 (ja) |
WO (1) | WO2018116544A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020098152A (ja) * | 2018-12-18 | 2020-06-25 | 株式会社中電工 | 表示システム |
JP7240180B2 (ja) * | 2019-01-10 | 2023-03-15 | 東京瓦斯株式会社 | 設備環境出力システムおよびプログラム |
WO2021193421A1 (ja) * | 2020-03-27 | 2021-09-30 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム及び情報処理システム |
US11249553B2 (en) * | 2020-06-12 | 2022-02-15 | Emerge Now Inc. | Method and system for the generation and management of tactile commands for tactile sensation |
JP2023053592A (ja) * | 2021-10-01 | 2023-04-13 | 株式会社電通 | 食品、感覚提示システムおよび感覚提示方法 |
WO2023228919A1 (ja) * | 2022-05-27 | 2023-11-30 | 京セラ株式会社 | 表示装置および空中像表示装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5957739B2 (ja) * | 2011-11-11 | 2016-07-27 | パナソニックIpマネジメント株式会社 | 電子機器 |
US9063570B2 (en) * | 2012-06-27 | 2015-06-23 | Immersion Corporation | Haptic feedback control system |
CA2879523A1 (en) * | 2012-07-19 | 2014-01-09 | Gaurav VATS | User-controlled 3d simulation for providing realistic and enhanced digital object viewing and interaction experience |
WO2014061310A1 (ja) | 2012-10-16 | 2014-04-24 | 日本電気株式会社 | 表示物制御システム、表示物制御方法及びプログラム |
EP2988275A4 (en) * | 2013-04-16 | 2016-11-30 | Sony Corp | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD, DISPLAY DEVICE AND DISPLAY METHOD AND INFORMATION PROCESSING SYSTEM |
JP6225989B2 (ja) | 2013-06-21 | 2017-11-08 | 株式会社ニコン | 振動データ生成プログラム、および振動データ生成装置 |
GB201313444D0 (en) * | 2013-07-29 | 2013-09-11 | Ambi Labs Ltd | Energy efficient indoor climate controller |
JP6264542B2 (ja) | 2014-01-30 | 2018-01-24 | 任天堂株式会社 | 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法 |
US10627904B2 (en) | 2014-02-07 | 2020-04-21 | Ultrahaptics IP Two Limited | Systems and methods of determining interaction intent in three-dimensional (3D) sensory space |
JP2015162152A (ja) | 2014-02-28 | 2015-09-07 | 京セラドキュメントソリューションズ株式会社 | タッチパネル装置及び画像形成装置 |
JP2015170174A (ja) | 2014-03-07 | 2015-09-28 | ソニー株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP6341417B2 (ja) | 2014-06-10 | 2018-06-13 | 任天堂株式会社 | 振動生成システム、振動生成プログラム、および振動生成方法 |
US10296086B2 (en) * | 2015-03-20 | 2019-05-21 | Sony Interactive Entertainment Inc. | Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments |
CN105843278B (zh) | 2016-04-29 | 2018-04-17 | 广东美的制冷设备有限公司 | 根据虚拟场景控制环境温度的方法、温度数据终端和系统 |
-
2017
- 2017-09-08 JP JP2018557537A patent/JP6908053B2/ja active Active
- 2017-09-08 WO PCT/JP2017/032519 patent/WO2018116544A1/ja active Application Filing
- 2017-09-08 US US16/343,250 patent/US11422626B2/en active Active
- 2017-09-08 KR KR1020197016051A patent/KR102469574B1/ko active IP Right Grant
- 2017-09-08 EP EP17883645.8A patent/EP3557375B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3557375A1 (en) | 2019-10-23 |
WO2018116544A1 (ja) | 2018-06-28 |
KR102469574B1 (ko) | 2022-11-22 |
JPWO2018116544A1 (ja) | 2019-10-24 |
EP3557375B1 (en) | 2023-10-25 |
US20210286432A1 (en) | 2021-09-16 |
US11422626B2 (en) | 2022-08-23 |
EP3557375A4 (en) | 2019-10-23 |
KR20190096988A (ko) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6908053B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6977134B2 (ja) | 頭部装着ディスプレイにおける仮想現実(vr)コンテンツの視野(fov)絞り | |
JP6982215B2 (ja) | 検出された手入力に基づく仮想手ポーズのレンダリング | |
US11562528B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
JP6922908B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6646620B2 (ja) | 広範囲同時遠隔ディジタル提示世界 | |
JP2018014119A (ja) | 手袋インタフェースオブジェクト及び方法 | |
US11334226B2 (en) | Information processing device, information processing method, and program | |
WO2018173399A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20240091224A (ko) | 사용자의 표현을 생성 및 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 | |
JP2018524673A (ja) | 仮想現実の反応性アニメーション | |
JPWO2019187862A1 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
US20230306695A1 (en) | Devices, methods, and graphical user interfaces for three-dimensional user experience sessions in an extended reality environment | |
JP6863391B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2023127403A1 (ja) | Vr臨場感向上システムおよびvr臨場感向上プログラム | |
CN117331434A (zh) | 在3d环境内定位内容 | |
CN118963890A (zh) | 用于生成和显示用户的表示的设备、方法和图形用户界面 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210614 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6908053 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |