JP2024135766A - Tactile Presentation System - Google Patents
Tactile Presentation System Download PDFInfo
- Publication number
- JP2024135766A JP2024135766A JP2023046623A JP2023046623A JP2024135766A JP 2024135766 A JP2024135766 A JP 2024135766A JP 2023046623 A JP2023046623 A JP 2023046623A JP 2023046623 A JP2023046623 A JP 2023046623A JP 2024135766 A JP2024135766 A JP 2024135766A
- Authority
- JP
- Japan
- Prior art keywords
- tactile
- user
- output device
- objects
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000015541 sensory perception of touch Effects 0.000 claims abstract description 8
- 230000035807 sensation Effects 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 description 26
- 210000003811 finger Anatomy 0.000 description 13
- 230000000694 effects Effects 0.000 description 10
- 239000012530 fluid Substances 0.000 description 10
- 238000013500 data storage Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000004397 blinking Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 235000009508 confectionery Nutrition 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
この発明は、仮想空間上のオブジェクトの触覚を利用者に提示するシステムに関する。 This invention relates to a system that presents the tactile sensation of an object in a virtual space to a user.
コンテンツと連動して利用者に触感による効果を味わわせる触覚提示装置が様々な形で提案されている。触感としては例えば振動や圧迫、風、湿気、熱などの、利用者が止まっていても実感できる能動的な触覚効果を映画などの映像コンテンツに合わせて提供することが既に行われている。また、人の動作を受けるインターフェースデバイスでは、固さや柔らかさといった手にして握ったときにかかる抵抗などの、利用者の動作に対して実感される受動的な触覚効果を与えることが検討されている。 Various types of tactile presentation devices have been proposed that allow users to experience tactile effects in conjunction with content. Active tactile effects such as vibration, pressure, wind, humidity, and heat that can be felt even when the user is standing still have already been provided in conjunction with video content such as movies. In addition, for interface devices that receive human movements, consideration is being given to providing passive tactile effects that can be felt in response to the user's movements, such as the resistance felt when holding something in the hand, such as hardness or softness.
一方で、仮想空間においてユーザ同士がアバターを操作して交流するVR(Virtual Reality)システムが普及しつつある。現時点においてVRで再現する仮想空間の感覚は視覚と聴覚が中心である。さらに現実味を向上させるために、触覚提示装置と連動してオブジェクトなどと接触した感触をユーザに体験させることが検討されている。 On the other hand, VR (Virtual Reality) systems, in which users interact with each other by operating avatars in a virtual space, are becoming more and more popular. At present, the senses of virtual space reproduced in VR are primarily visual and auditory. To further improve the sense of realism, there are plans to link this with a tactile presentation device to allow users to experience the sensation of touching objects, etc.
特許文献1には、ヘッドマウントディスプレイを用い、ディスプレイ内に表示した仮想オブジェクトの触覚をユーザに提示する触覚提示装置が提案されている。ユーザが視線で仮想オブジェクトを選択した際、そのオブジェクトに対応した触覚を端末機器に出力し、ユーザが仮想オブジェクトの触感として触覚での体験をする。 Patent Document 1 proposes a tactile presentation device that uses a head-mounted display to present the user with the tactile sensation of a virtual object displayed on the display. When the user selects a virtual object with their line of sight, a tactile sensation corresponding to that object is output to a terminal device, allowing the user to experience the tactile sensation of the virtual object.
しかしながら、仮想空間を構成するオブジェクト全てに触覚の情報を付与しようとすると、データ量が膨大になり、処理負荷が大きくなりやすいので、オブジェクトの一部にのみ触覚を設定することが現実的な対応として考えられる。しかし、一部のオブジェクトのみに触感が付与されていると、ユーザがオブジェクトを触っても、その設定によっては触覚を出力されず、ユーザの落胆に繋がってしまうおそれがある。また、ユーザはそもそもオブジェクトに触覚が設定されているかわからないため、元から触感が感じられないオブジェクトに触れてしまった場合に、触覚を提示する装置の不具合やプログラムのエラーなどを疑わざるを得ず、没入感が妨げられてしまう。 However, if haptic information is added to all objects that make up a virtual space, the amount of data would be enormous, and the processing load would be large, so a realistic solution would be to set haptics only to some of the objects. However, if haptics are added to only some of the objects, depending on the settings, haptics may not be output when the user touches an object, which could lead to disappointment for the user. Furthermore, because the user does not know whether haptics are set for an object in the first place, if they touch an object that does not have a haptic sensation to begin with, they are forced to suspect a malfunction in the device that presents haptics or an error in the program, which hinders the sense of immersion.
そこでこの発明は、ユーザに触覚が設定されているオブジェクトか予め認識させ、無駄な確認行動をとらせないようにし、機器不調などの疑いを回避することを目的とする。 The purpose of this invention is to allow the user to recognize in advance whether an object has tactile sensations, to prevent unnecessary checking actions, and to avoid suspicion of equipment malfunction, etc.
この発明は、
ディスプレイに仮想空間を出力する画像出力部を有し、
ユーザに触覚を体感させる触覚出力装置と接続され、
前記仮想空間にオブジェクトを表示し、前記触覚出力装置によってユーザが触覚を体感可能な可触オブジェクト、又は前記触覚を体感不可能な不触オブジェクトをユーザが識別可能にさせるユーザ認識手段を実行可能な
触覚提示システムにより、上記の課題を解決したのである。
The present invention relates to
An image output unit that outputs a virtual space to a display,
It is connected to a haptic output device that allows the user to experience haptics,
The above problem was solved by a tactile presentation system capable of displaying objects in the virtual space and executing a user recognition means that enables the user to identify tactile objects whose tactile sensations can be experienced by the user through the tactile output device, or non-tactile objects whose tactile sensations cannot be experienced by the user.
この発明にかかる触覚提示システムは、前記ユーザ認識手段が、前記可触オブジェクト、又は前記不触オブジェクトを、視覚で認識できる情報を表示する実施形態を採用できる。例えば、当該オブジェクトに仮想空間上で触れることができる条件下において、前記可触オブジェクトのみ点滅表示されたり、前記可触オブジェクトのみ所定の色調で光ったり、前記可触オブジェクトと前記不触オブジェクトとが異なる色調で光ったり、前記不触オブジェクトのみ半透明表示されたりといった表示による実施形態が挙げられる。 The tactile presentation system according to the present invention may employ an embodiment in which the user recognition means displays information that allows the tactile object or the non-tactile object to be visually recognized. For example, under conditions in which the object can be touched in virtual space, the tactile object alone may be displayed flashing, the tactile object alone may be illuminated in a predetermined color tone, the tactile object and the non-tactile object may be illuminated in different colors, or only the non-tactile object may be displayed semi-transparently.
この発明にかかる触覚提示システムは、前記ユーザ認識手段が、ユーザが選択したオブジェクトを選択したときに、前記可触オブジェクトと前記不触オブジェクトとを、聴覚で認識できる情報を出力する実施形態が採用できる。例えば、前記可触オブジェクトを選択していた場合は、触覚提示可能であることを示す音声を再生し、前記不触オブジェクトを選択していた場合は、音声を再生しないか又は触覚提示できないことを示す音声を再生する。 The tactile presentation system according to the present invention may employ an embodiment in which the user recognition means outputs information that allows the tactile object and the non-tactile object to be audibly recognized when the user selects a selected object. For example, if the tactile object is selected, a sound is played indicating that tactile presentation is possible, and if the non-tactile object is selected, no sound is played or a sound is played indicating that tactile presentation is not possible.
この発明にかかる触覚提示システムは、サーバと、ユーザが操作する制御装置とを有し、
前記サーバが仮想空間におけるオブジェクトと、前記制御装置を操作するユーザのアバターとの位置を管理し、
前記制御装置が前記画像出力部と前記触覚出力装置とを有し、
前記制御装置は、前記サーバから受け取った情報に従い、前記ユーザ認識手段を実行する実施形態が採用できる。
The tactile presentation system according to the present invention includes a server and a control device operated by a user,
The server manages the positions of objects in a virtual space and an avatar of a user who operates the control device;
the control device has the image output unit and the haptic output device,
The control device may be configured to execute the user recognition means in accordance with information received from the server.
この発明にかかる触覚提示方法は、
仮想空間をディスプレイに出力して、表示されるオブジェクトのうちの一部について、触覚出力装置によってユーザに当該オブジェクトに接触した触覚を体感させる方法であって、
前記仮想空間に表示されるオブジェクトのうち、ユーザが触覚を体感可能に設定されている可触オブジェクト、又は触覚を体感不可能に設定されている不触オブジェクトを、ユーザに識別可能にさせるステップと、
前記ユーザによるアバターが前記可触オブジェクトを選択して接触した際に、当該前記可触オブジェクトについて設定されている触覚を、前記触覚出力装置によって提示するステップと、
を実行する。
The tactile presentation method according to the present invention comprises:
A method for outputting a virtual space to a display and allowing a user to experience a haptic sensation of touching a part of a displayed object by a haptic output device, comprising:
A step of allowing a user to identify tactile objects that are set so that the user can experience a tactile sense or non-tactile objects that are set so that the user cannot experience a tactile sense among the objects displayed in the virtual space;
When the user's avatar selects and touches the tactile object, a haptic sensation set for the tactile object is presented by the haptic output device;
Execute.
この発明にかかるプログラムは、前記触覚提示システムにおいて、前記画像出力部を有し、前記触覚出力装置と接続されるコンピュータにおいて、前記ユーザ認識手段を実行させるためのプログラムである。 The program of the present invention is a program for executing the user recognition means in a computer in the tactile presentation system, the computer having the image output unit and connected to the tactile output device.
この発明により、ユーザが触覚提示装置により触覚を体験できる仮想空間において、いちいち全てのオブジェクトに対してアバターで接触して触覚が体験できるものであるか否かを手作業で判定する必要が無くなる。つまり、触覚が体験できるオブジェクトを視覚や聴覚などで接触する前から検知でき、ユーザが触覚を体験しようとして触覚が設定されていないオブジェクトに触れてしまい落胆する事態を回避でき、仮想空間における体験のユーザビリティが向上する。 This invention eliminates the need for a user in a virtual space where they can experience haptics using a haptic presentation device to manually determine whether or not they can experience haptics by touching each and every object with an avatar. In other words, it is possible to detect objects that can be experienced with haptics before touching them visually or audibly, preventing a user from being disappointed by touching an object that does not have haptics set when trying to experience haptics, thereby improving the usability of the experience in the virtual space.
以下、この発明について詳細に説明する。この発明は、仮想空間におけるオブジェクトに触れる感触をユーザに体感させるにあたり、触覚を体感可能なオブジェクトを認識可能とする触覚提示システムである。 The present invention is described in detail below. The present invention is a tactile presentation system that allows a user to experience the sensation of touching an object in a virtual space and recognizes the object that is tactile.
この発明において触覚とは、五感のうちの一つであり直接的又は間接的に肌や筋肉、神経などによって体感できる感覚をいい、特に断りがない場合は広義の意味で用いる。狭義の触覚とは皮膚で感じる感覚として知られる触覚、圧覚、痛覚、冷覚、温覚のうちの一つであるが、この発明においての触覚とは狭義の触覚だけでなく、圧覚などその他の感覚も含む。本発明はこれらの感覚について、体感する度合いの強弱が味わえるものを好適に調整する。押されて圧力の強弱の違いとして感じられる圧感のような利用者の動作によらずに体感する能動的な触覚効果だけでなく、抵抗や手ごたえ、足ごたえといった利用者の動作に対して体感する受動的な触覚効果も対象となる。 In this invention, touch is one of the five senses and refers to a sensation that can be felt directly or indirectly through the skin, muscles, nerves, etc., and is used in a broad sense unless otherwise specified. Touch in the narrow sense is one of the sensations known as those felt through the skin, such as touch, pressure, pain, cold, and warmth, but touch in this invention includes not only touch in the narrow sense but also other sensations such as pressure. The present invention appropriately adjusts the intensity of these sensations. This applies not only to active tactile effects that are felt regardless of the user's actions, such as the sense of pressure felt when pressed and the difference in pressure, but also to passive tactile effects that are felt in response to the user's actions, such as resistance, a sense of resistance, or a sense of resistance in the hand.
この発明で用いる前記触覚出力装置は、それらを利用する利用者に対して前記の触覚を体感させる装置である。前記触覚出力装置は、その触覚を体感させる挙動を、電気信号を受けて実現する触覚出力デバイスを有する。この発明で用いる触覚出力デバイスとしては、電気信号の単なるオンオフだけではなく、電気信号の電流量や電圧に応じて、強度が異なる触覚による体感を実現させるものが用いられる。この触覚出力デバイスとしては、例えば、電気信号を受けて装置を駆動するモーターなどのアクチュエータや、電気信号を受けて装置を加熱して気体を膨らませるバルーンや、電気信号を受けて回転翼を回転させて気流を発生させる扇風機や、電気信号を受けて装置の回転抵抗を上昇させる磁気粘性流体デバイスなどが挙げられる。この他、電気信号を受けて装置が有する直動体(ピストン)の抵抗を上昇させる磁気粘性ダンパーも利用可能である。 The tactile output device used in this invention is a device that allows a user who uses it to experience the tactile sensation. The tactile output device has a tactile output device that realizes the behavior that causes the tactile sensation by receiving an electric signal. The tactile output device used in this invention is not simply an on/off of an electric signal, but is one that realizes a tactile sensation of different strengths depending on the current amount and voltage of the electric signal. Examples of this tactile output device include an actuator such as a motor that receives an electric signal to drive a device, a balloon that receives an electric signal to heat a device and inflate a gas, an electric fan that receives an electric signal to rotate a rotor and generate an airflow, and a magnetorheological fluid device that receives an electric signal to increase the rotational resistance of a device. In addition, a magnetorheological damper that receives an electric signal to increase the resistance of a linear moving body (piston) of a device can also be used.
この発明にかかる触覚提示システム10の実施形態例である機能ブロック図を図1に示す。触覚提示システム10は、実際に利用者に対して触覚による体感を発生させる触覚出力装置11と接続され、触覚出力装置11と通信してその体感させる動作を制御するとともに、ディスプレイに仮想空間を出力する画像出力部70を有するか、又は画像出力部70と接続される制御装置51を有する。
Figure 1 shows a functional block diagram of an embodiment of a
触覚出力装置11は、電気信号に応じて触覚をユーザに提示させる触覚出力デバイス14を有する。モーターなどのアクチュエータや加熱によるバルーンなどの直接的に利用者に接触させて触覚を体感させるものや、ファンによる風圧を利用者が受けて非接触で間接的に体感させるものといった能動的な触覚感覚を味わわせるデバイス、MRFデバイスなどの利用者の動きに対する抵抗を増減させて受動的な触覚感覚を味わわせるデバイスのどちらも利用できる。
The
触覚出力装置11は、触覚出力デバイス14に電気信号を送信する又は送信させるなどの演算やコマンドなどの制御を行う触覚制御部21と、触覚制御部21が利用するメモリであるデータ記憶部22を有する。データ記憶部22は、信号の一時的な記録や触覚制御部21による演算に必要な情報及び結果、命令等を格納するものである。データ記憶部22のメモリは揮発性メモリであってよいが、不揮発性メモリも有しているとさらに好ましい。不揮発性メモリを有していると、高性能な触覚出力装置11では個人向けの出力変更の記録や履歴などを保存して、出力のさらなる好適化のために参照することができる。なお図示しないが、触覚制御部21を動作されるプログラムは、データ記憶部22が不揮発性メモリである場合はそこに格納されていてもよいし、別途格納されていてもよい。ここではこれらが行う触覚出力装置11の制御を担う部分をまとめて出力装置制御部20とする。出力装置制御部20の構成は触覚制御部21とデータ記憶部22以外の要素を含んでいてもよい。
The
また、触覚出力装置11は装置自体を作動させるために必要な電源25を有する。バッテリでもよいし、外部電源と接続されていてもよい。バッテリの場合は、触覚出力装置11が必要とする電流量が小さい場合は交換可能な一次電池でよいが、必要とする電流量が多い場合は、外部電源から充電される二次電池であると運用しやすい。また、後述する通信部26を有線ケーブルが担う場合には、制御装置51を外部電源として給電されるものでもよい。
The
触覚出力装置11は、制御装置51の通信部63との間で通信できる通信部26を有する。少なくとも制御装置51からの通信を受信できるものである必要があり、相互通信できるものであると制御装置51による制御がより多様にできるため好ましい。通信部26で受信したデータや命令は出力装置制御部20に送られ、それを用いて触覚出力装置11が動作する。また、センサ等によるデータや履歴、ログなどを出力装置制御部20から通信部26を介して制御装置51に送ってもよい。また、触覚出力装置11はデータの一部を制御装置51に送信し、その返信として結果を受け取ってもよい。
The
通信部26と通信部63との通信は有線通信でもよいし、無線通信でもよい。有線通信の場合は、有線ケーブルを介して電源を供給するものでもよい。規格は特に限定されず、本発明出願時点においてはUSBケーブル、Lightning(登録商標)ケーブル、Thunderbolt(登録商標)ケーブルなどが選択可能であるが、同様の又は上位互換の通信が可能である規格であればよい。無線通信の場合は、近距離無線通信規格であれば利用でき、種々の無線LAN規格や、Bluetooth(登録商標。以下略)、Bluetooth LE、ワイヤレスUSBなどが挙げられる。ただし、少なくともこの発明における調整自体を実現するために必要とするデータ量は小さいため、BluetoothやBluetooth LEなどの比較的低速かつ使用電力の少ない規格が好適に用いられる。もちろん、本発明で必要とする以外の動作のために大量のデータを必要とし、高速の通信規格を採用するものでもよい。
The communication between the communication unit 26 and the
触覚出力装置11は、触覚出力デバイス14が体感させる触覚のためのデバイス自体の変位や、触覚出力デバイス14を利用者が操作した際の位置や変位、荷重などを測定するセンサ16を有すると好ましい。
It is preferable that the
制御装置51は、通信部63を介して触覚出力装置11と通信し、触覚出力装置11に対してコンテンツの一環としての感触を利用者に提供させるように制御するコンピュータである装置である。具体的には、利用者が利用するパソコン、ゲーム機、スマートフォン、スマートウォッチ、テレビ、ルータ、ネットワークスピーカーなどの端末が例として挙げられる。また、ルータや端末を介して接続されるネットワーク92の先に設けられたサーバ91が後述する制御装置51の機能の一部を担っていてもよい。そのために、制御装置51は有線LAN機能、無線LAN機能や移動体通信網への接続機能といったネットワークインターフェース(NWIF)69を有していると好ましい。なお、ネットワークインターフェース69は通信部63と兼用でもよいし、独立していてもよい。通信量が大きく異なるため、独立している方が好適である場合が多い。図では独立している例を示す。
The
制御装置51は、入出力装置54を有する。入出力装置54は利用者とのインターフェースであり、入力を受け付け、触覚以外の要素を出力する。図ではまとめているが、一つの装置である必要はなく、複数個の装置によって構成されていてよい。また、入出力装置54そのものが制御装置51の筐体の中にまとまっている必要はなく、接続される他の装置と接続できるインターフェースだけを有していてもよい。
The
入出力装置54のうち出力装置としては、画像出力部70が挙げられる。画像出力部70には映像出力装置であるディスプレイ72が接続され、画像出力部70からの出力に応じて仮想空間を画像として出力する。ディスプレイ72は筐体に組み込まれたディスプレイだけでなく、HDMIやDisplayPortケーブルで接続されたディスプレイやプロジェクター、ヘッドマウントディスプレイなどが挙げられる。この中でも特に没入感の高いヘッドマウントディスプレイが望ましい。筐体に組み込まれたディスプレイとしては、スマートフォンやタブレットのタッチパネルが他の入出力を受け付ける入出力装置54を兼ねて採用されていてもよい。
An example of an output device among the input/output devices 54 is the image output unit 70. A
また、出力装置として音声を出力するための音声出力装置も有していると好ましい。音声出力装置としては、筐体が有するスピーカー、有線又は無線接続されたヘッドホンやイヤホン、スピーカーなどの装置や、これらと接続されるインターフェース(音声出力部(図示せず))が挙げられる。 It is also preferable that the output device has an audio output device for outputting audio. Examples of audio output devices include a speaker built into the housing, wired or wirelessly connected headphones, earphones, speakers, and other devices, as well as an interface (audio output unit (not shown)) connected to these.
入出力装置54のうち操作に用いる入力装置としては、筐体に組み込まれたディスプレイと一体化したタッチパネルの他、USBケーブルで接続されたマウスやトラックボール、コントローラ、キーボードなどの装置や、これらと接続されるインターフェース(入力部(図示せず))であってもよい。また、入力装置の一部が触覚出力装置11と兼用されていてもよい。
The input device used for operation among the input/output devices 54 may be a touch panel integrated with a display built into the housing, or a device such as a mouse, trackball, controller, or keyboard connected via a USB cable, or an interface (input unit (not shown)) connected to these. In addition, part of the input device may also serve as the
制御装置51は、演算などを行う制御部61を有する。具体的にはCPUやGPUなどの演算装置であり、コンテンツの読み込み、演算、入出力装置54への出力や入力の受付、触覚出力装置11との通信などの装置の挙動を制御する。また、特にこの実施形態では、アプリ65の一部として後述するユーザ認識手段71を実行する。
The
制御装置51は、データやプログラムを保持する記憶部62を有する。記憶部62としては、ストレージとして用いられる不揮発性メモリや磁気ディスクと、演算に用いる揮発性メモリとの両方を有していることが好ましい。図では読み込まれているか否かを区別せずに記載している。
The
記憶部62には、利用者が触覚の出力をコンテンツの一部として体感できる仮想空間を操作、表示するアプリケーションソフト(図中「アプリ65」)が記録される。上記の制御装置51にプリインストールされたものであってもよいし、ネットワーク92を介したサーバ91からダウンロードされてインストールされたものであってもよい。
The storage unit 62 stores application software ("app 65" in the figure) that operates and displays a virtual space in which the user can experience tactile output as part of the content. This may be pre-installed in the
アプリ65は、映像としての仮想空間を提供するとともに、その映像で表示されたオブジェクトのうちの一部について、触覚の出力を触覚出力装置11に行わせて、利用者に触覚による体感を提供するプログラムである。
The application 65 is a program that provides a virtual space in the form of an image, and causes the
アプリ65は、仮想空間の視覚や聴覚での体感を、入出力装置54と通信部63とを介して提供するために、それを再現するためのプログラムを含む音声信号や映像信号などのメディア信号を含むメディアデータのメディアデータベース66を記憶部62に有する。このメディアデータとは、たとえば仮想空間を構成する座標、テクスチャ、エフェクトなどの情報、前記仮想空間内に設置されるオブジェクトの形状についての3Dデータやグラフィック、声やセリフ、効果音などであり、触覚出力装置11で触覚を体感させようとするオブジェクトごとに紐付されていると好ましい。なお、メディアデータベース66は全ての必要なメディアデータを記憶部62内に保持している必要はなく、ネットワーク経由で必要に応じて適宜ダウンロードして一時的に、または永続的に追加されるものでもよい。
In order to provide a visual and auditory experience of the virtual space via the input/output device 54 and the
またアプリ65は、前記の仮想空間とその中にあるオブジェクトの触感を、入出力装置54への出力と並行して触覚出力装置11を介して提供するために、それを再現するための触覚データを含む触覚データベース67を記憶部62に有する。この触覚データとは、触覚出力装置11が触覚出力デバイス14をどのような状況でどのような値で動作させるかについての値の集合や関数などの設定である。触覚データは、その複数記録される中から前記の仮想空間の中でユーザが能動的に触れようとするオブジェクト、または受動的に触覚で体感することになるオブジェクトごとに選択されるものである。制御装置51は、入出力装置54からの操作や再生しているコンテンツにおけるトリガーなどから、体感させようとするオブジェクトを選択し、又は自動的に選択されると、そのオブジェクトに紐づけられた触覚データを、触覚データベース67から読み出して、通信部63と通信部26を介して触覚出力装置11へ送信する。
In addition, the app 65 has a haptic database 67 in the storage unit 62, which contains haptic data for reproducing the virtual space and the haptic sensation of the objects therein, in order to provide it via the
触覚出力装置11では、ユーザにより選択されたオブジェクトが触覚を体感可能な可触オブジェクトである場合に、デフォルト値として送られてきた触覚データを、データ記憶部22に記録し、この触覚データを参照した出力で触覚出力デバイス14を制御して、具体的に利用者に触覚を体感させる。
When the object selected by the user is a tactile object that allows the user to experience the sense of touch, the
以下、触覚出力デバイス14として具体的なデバイスを用いた例を挙げて説明する。以下の説明では、触覚出力デバイス14として、磁気粘性流体(MRF:Magneto Rheological Fluid)デバイス(以下、「MRFデバイス」と略記する。)を有するタップユニットである触覚出力装置11を例にとり説明する。ここで具体例として用いるMRFデバイスは、回転軸41、円板32、ヨーク34,35、コイル37,磁気粘性流体38、ケーシング31,36などで構成されている。図2に示すように回転軸41に取り付けられた円板32の周囲に、ヨーク34,35に挟まれた空間が設けられ、その空間に、置かれた磁場の強さによって粘性が変化する磁気粘性流体38が導入されている。また、ヨーク35に支えられて磁界(図中矢印)を発生させるコイル37が格納されている。回転軸41は軸受39に支えられ、磁気粘性流体38に囲まれた円板32と一体化されている。磁気粘性流体38は、回転軸41を回転させる際の抵抗を、磁場を発生させるコイル37に供給される電流量によって調節できる。この回転軸41を回転させようとする力を加えた利用者に対して、磁気粘性流体38の粘性を増減させることで、回転軸41と一体化している円板32に対する抵抗を増減させて、回転軸41の「回動させにくさ」として能動的な触覚効果を体感させるものである。この例では、円板32が、触覚出力デバイス14において磁気粘性流体38と接する前記回転体にあたる。センサ16は、この円板32そのものの角度を検知するか、円板32と連動して回転する回転軸41の角度を検知するように取り付けられているとよい。
The following describes an example of a specific device used as the haptic output device 14. In the following description, the haptic output device 14 will be described as an example of a
このようなMRFデバイスを用いた触覚出力装置11であるタップユニットを図3(a)(b)に示す。指や手のひらにより挟持される基部40と、基部40に設けられたMRFデバイスの回転軸41に連動して回動する指当てパーツ42とを有する。指当てパーツ42は人差し指、中指、薬指、小指のいずれかまたはそれらの全てに対応しており、指を曲げて握ろうとすると、支点部43を中心にして回動する。すなわち、この指当てパーツ42が、利用者が直接に接触して操作する部位にあたる。指当てパーツ42が押されると、第一リンク材44と、ピン46を介してリンクされた第二リンク材45が図3(c)のように回動する。この動きにより、第二リンク材45と連結された回転軸41が基部40に対して回動される。この回動の際の抵抗が、MRFデバイスの磁気粘性流体38によって増減される。
3(a) and (b) show a tap unit, which is a
このMRFデバイスに付属するセンサ16としては、指当てパーツ42の回転中心に対する角度として変位を測定する角度センサや、指当てパーツ42にかかる荷重を測定するトルクセンサなどを搭載するとよい。これらセンサ16のデータに応じてその状況における適切な電流量が加えられて、適切な抵抗が生じ、状況に応じた触覚を出力する。
The sensors 16 attached to this MRF device may include an angle sensor that measures the displacement of the
このMRFデバイスの触覚データの例を図4のテーブルに示す。選択したオブジェクトごとに定められたテーブルで、指当てパーツ42がデフォルト状態から押込まれることで第二リンク材45が何度回転した回転位置で、どの程度電流を流して回転軸にかかる抵抗を上昇させるかを配列としたものである。このようなテーブルが、利用しようとするオブジェクトごとに設定され、触覚データベース67にまとめて記録されている。なお、このようなテーブルでなくても、回転位置に応じた関数で定義したものであってもよい。例えば、オブジェクトが小さいものであれば、回転位置が大きく進んで触れると表現されるところまでは抵抗がなく、回転位置が進んで触れたと表現されるところから抵抗を増やすように電流値が上がる。あるいは、グミ状のオブジェクトを握る触感を仮想的に実現するなら、最初からグミを変形させる感触を模してある程度の抵抗が加わるが、グミが変形してこれ以上は変形しないと表現される角度から急激に抵抗があがり、それ以上は回転位置が進まないように電流値を最大値に設定する。
An example of the tactile data of this MRF device is shown in the table in FIG. 4. The table is determined for each selected object, and is an array of the amount of current flow to increase the resistance on the rotation axis at the rotation position where the
利用者が触覚を体感しようとするオブジェクトが選択されたら、そのオブジェクトに紐づけられた触覚データを、触覚データベース67に蓄積された中から呼び出して選択する。仮にそのオブジェクトに紐づけられた触覚データが触覚データベース67に無ければ、制御装置51はネットワーク92を介してサーバ91から該当する触覚データをダウンロードして選択してもよい。制御装置51は選択された触覚データを、触覚出力装置11に送信する。
When an object for which the user wishes to experience a haptic sensation is selected, the haptic data associated with that object is retrieved and selected from among the data stored in the haptic database 67. If there is no haptic data associated with that object in the haptic database 67, the
利用者がタップユニットを握って指当てパーツ42が押し込まれ、連動して第二リンク材45が回動し、回転軸41及び円板32の回転位置が変化したら、角度センサであるセンサ16がそれを検知する。回転位置が2度に到達したときの、触覚制御部21がMRFデバイスに流す電流値をデータ記憶部22に格納した触覚データのテーブルを参照して確認する。触覚制御部21はこの電流値に対応する電圧をMRFデバイスに掛けて、想定した手ごたえとなる触覚を利用者に体感させるように触覚提示手段を実行する。回転位置がさらに変化したことをセンサ16が検知したら、その新たな回転位置に対応した電流値を参照し、信号を計算し、触覚を体感させる。
When the user grasps the tap unit and the
制御装置51で実行するアプリ65において、仮想空間でユーザが選択するオブジェクトが変更になったら、制御装置51は触覚データベース67から、新たなオブジェクトに紐づけられた触覚データを呼び出し、触覚出力装置11へ送信して新たなオブジェクトに対応した触覚を提供する。
When the object selected by the user in the virtual space is changed in the application 65 executed by the
この発明において、ユーザは制御装置51が有する画像出力部70に接続された、ディスプレイ72に出力される仮想空間を観測する。仮想空間80の例を図5(a)(b)に示す。仮想空間80の内部には少なくとも複数のオブジェクト81が表示される。また、仮想空間80内にはユーザのアバター82の一部が少なくとも表示されると好ましい。特に前記触覚出力装置11が装着される部位に相当する人体のパーツが表示に含まれているのが好ましい。特に腕や手に相当するパーツが表示されているのが好ましい。ユーザは入出力装置54の操作用デバイスを操作し、制御装置51はその操作に応じてアバター82を仮想空間80内で移動させたり姿勢変更させたりする。また、アバター82の操作以外にも、選択やボタンの押下などの操作も受け付ける。
In this invention, the user observes a virtual space output on a
仮想空間80に表示されるオブジェクトのうち、一部のオブジェクトは触覚を体感可能な可触オブジェクト81aであり、残りのオブジェクトは触覚を体感不可能な不触オブジェクト81bである。可触オブジェクト81aには、触覚データが登録又は紐づけられている。ユーザが当該可触オブジェクト81aを選択して触覚を体感しようとすると、触覚出力装置11の触覚出力デバイス14により、当該可触オブジェクト81aの触感として定義されている触覚データにより触覚が出力されてユーザは体感できる。一方、不触オブジェクト81bには、触覚データが登録又は紐づけられていない。ユーザが当該不触オブジェクト81bを選択して触覚を体感しようとしても特段の出力がされないか、または選択が不可能となっている。
Of the objects displayed in the
これらの可触オブジェクト81aと不触オブジェクト81bとを区別する接触可否設定は、メディアデータベース66において各オブジェクトの設定として登録されており、オブジェクトを表示しようとする際にその接触可否設定も読み込むとよい。または、オブジェクトを表示しようとする際に、サーバ91から個々のオブジェクトの接触可否設定を読み込むようにしてもよい。接触可否設定がメディアデータベース66に保存されている場合、可触オブジェクト81aの触覚データも触覚データベース67に登録されていると、サーバ91への問い合わせを抑えて高速で表示できるので好ましい。
The touchability settings that distinguish these
この発明にかかる触覚提示システムでは、制御部61が、仮想空間80に表示されるオブジェクト81のうち、触覚出力装置11によってユーザが触覚を体感可能な可触オブジェクト81aを識別可能にさせるユーザ認識手段71を実行する。ユーザに識別可能にさせるとは、視覚又は聴覚、触覚により識別できる情報の違いを有し、ディスプレイ上の表示または音声出力装置からの音声出力において、不触オブジェクト81bとは異なることが識別できることをいう。
In the tactile presentation system of the present invention, the control unit 61 executes a user recognition means 71 that enables the user to identify
具体的には、視覚により識別できる情報の違いとしては、可触オブジェクト81aを共通の色調にしたり、点滅させたり、オブジェクト周囲に「触覚有」のメッセージを表示させたりすることが挙げられる。逆に、不触オブジェクト81bを半透明に表示したり、可触オブジェクト81aとは違う色調にしたりすることも挙げられる。共通の色調にするとは、例えば可触オブジェクト81aの本来の表示の周囲に特定の色調での発光表示をさせたり、可触オブジェクト81aの色調自体を特定の共通の色調に変更させたりするといったことが挙げられる。不触オブジェクト81bを光らせたり色調を変えたりする場合には、可触オブジェクト81aより目立ちにくくするように、明度や彩度が低い色にすることが挙げられる。このような色調や透明度によって識別可能にさせる方式は、オブジェクト81の表示される数が比較的多くても判別しやすい。
Specifically, examples of differences in information that can be visually identified include making the
図5(a)に示す例では、仮想空間80内で表示される際に、触覚データが紐づけられた可触オブジェクト81aは周囲に点滅する光を放つようにし、触覚データが紐づけられていない不触オブジェクト81bはそのような点滅する光を放っていないように表示する。これにより、目立つ発光を示しているオブジェクト81が可触オブジェクト81aであることが、ディスプレイ72で仮想空間80の表示を見たユーザには容易に識別できる。このような表示
In the example shown in FIG. 5(a), when displayed in the
図5(b)に示す例では、可触オブジェクト81aに「接触可」である旨をメッセージとして表示している。また、併せて不触オブジェクト81bを半透明に表示している。ここでは吹き出し型のウインドウ83を表示させているが、オブジェクト81に重なるようにテキストを表示してもよい。また、ウインドウ83やテキストを点滅表示にしたりしてもよい。ウインドウ83を表示する形式は特に可触オブジェクト81aが目立つので、多くの不触オブジェクト81bの中に、ごく少数の可触オブジェクト81aが存在するような仮想空間において好適に利用できる。
In the example shown in FIG. 5(b), a message is displayed on the
これらの視覚により識別可能にさせる方式の場合、仮想空間80にオブジェクト81を表示し始めるときから可触オブジェクト81aに識別可能な表示をさせてもよいし、ユーザが操作するアバター82から当該オブジェクト81までの仮想空間80上における距離が所定の範囲内となったときから識別可能な表示をしてもよい。また、単に表示させるだけではなく、ユーザが仮想空間80内で当該オブジェクトをポインティングデバイスなどによる操作によって選択したタイミングで識別可能な表示をしてもよい。選択したタイミングで識別可能に表示される場合、目的とするものを探索して手に取るまでは可触オブジェクト81aであるか不触オブジェクト81bであるかが区別できないが、選択した後は触覚を体感しようとする前から識別可能となるので、以降は期待して当該可触オブジェクト81aの触感を体験しようとすることができる。
In the case of these visually identifiable methods, the
この発明にかかる触覚提示システムは、ユーザ認識手段71として、ユーザが選択したオブジェクトを選択したときに、可触オブジェクト81aと不触オブジェクト81bとを、聴覚で認識できる情報の違いを有するように処理してもよい。可触オブジェクト81aに近づいていくと特定の音声の出力が強くなり、逆に遠ざかると特定の音声の出力が弱くなって、所定の距離以上離れると聞こえなくなるようにすることが挙げられる。この場合の特定の音声とは警報のような音でもよいし、可触オブジェクト81aの声として設定されるような言葉であってもよいし、音楽であってもよい。
The tactile presentation system of the present invention may process the
また、アバター82を操作してオブジェクト81を選択する際に、可触オブジェクト81aを選択した場合にのみ触覚提示可能であることを示す音声を再生し、不触オブジェクト81bを選択した場合は、音声を再生しないか又は触覚提示できないことを示す音声を再生するという実施形態でもよい。触覚提示できないことを示す音声としては例えば警告音などが挙げられる。
In another embodiment, when the
この実施形態を実行した場合のイメージ図を図6に示す。例えば可触オブジェクト81aがその仮想空間80における知的存在と設定されているとする。ユーザUのアバター82を介して当該可触オブジェクト81aを選択したら、所定の色調で光るように画像出力部70が表示するとともに、入出力装置54であるヘッドホン73からは「私に触ってみてよ」などのように接触を促す音声を発生する。ユーザUは視覚では特定の色調として、聴覚では音声として、当該可触オブジェクト81aに触覚データが紐づけられていることを識別できる。ユーザUは識別できたその可触オブジェクト81aの触覚を体感すべく、触覚出力装置11を操作するか、または自動的に、当該可触オブジェクト81aに紐づけられている触覚データによる触覚を触覚出力装置11により体感する。
Figure 6 shows an image of this embodiment when it is executed. For example, assume that a
上記に示す実施形態では、仮想空間におけるオブジェクト80とアバター82の位置を制御装置51のアプリ65が管理していたが、この発明に示す触覚提示システムはこれに限定されない。複数のユーザが操作する制御装置51が、ネットワーク92を介してサーバ91に接続し、サーバ91が仮想空間におけるアバター82とオブジェクト81の位置を管理する実施形態でもよい。この場合、ユーザUは入出力装置54を介してアバター82を仮想空間80内で操作する信号をサーバ91に送信し、情報を各ユーザの制御装置51との間で同期する。サーバ91が管理する仮想空間80内で可触オブジェクト81aと不触オブジェクト81bとを識別可能にしようとする場合、図7に示す実施形態のように、サーバ91がユーザ認識手段71を行った上で識別可能である画面表示の情報を制御装置51に送り、制御装置51はすでに可触オブジェクト81aを識別可能となったその情報をそのままディスプレイ72やヘッドホン73などに出力させてもよい。逆に、サーバ91は位置の管理などの限定的な情報を管理するのみで、アバター82とオブジェクト81との位置が所定の条件を満たしたときに、制御装置51のアプリ65側でユーザ認識手段71を実行して、識別可能にさせる視覚上又は聴覚上の効果を認識させてもよい。この場合の構成は図1に示す形態に準じる。
In the embodiment shown above, the app 65 of the
この発明にかかる触覚提示システム又は触覚提示方法を実行する処理フローの例を、図8を用いて説明する。まず、ユーザUがパソコンやゲーム機などである制御装置51を操作して、アプリ65を起動し、サーバ91が提供する仮想空間80サービスに接続する(S101)。この制御装置51には、触覚出力装置11が接続されており、ユーザUは触覚出力装置11を装着するなどして、触覚を提示され得る状態である。制御装置51に接続されたディスプレイ72に、仮想空間80が表示される。仮想空間80内にはユーザUのアバター82と、複数のオブジェクト81とが内包されている(S102)。アバター82とオブジェクト81のグラフィックスデータはメディアデータベース66から読み出される。ユーザUが入出力装置54のコントローラからの入力に応じて、アバター82が移動したり視線が変更されたりすると、仮想空間80の表示が更新される(S103)。制御装置51の制御部61は、更新された仮想空間80内にあるオブジェクト81についてチェックを行うユーザ認識手段71を実行する(S104)。当該オブジェクト81が、触覚データが登録されたり又は紐づけられたりしていない不触オブジェクト81bであれば(S105→No)、その不触オブジェクト81bを基本的な設定の通りに表示するものとする(S106)。当該オブジェクト81が、触覚データが登録又は紐づけられている可触オブジェクト81aであれば(S105→Yes)、その可触オブジェクト81aの周囲を所定の色で発光させるエフェクトを掛けて表示するものとする(S107)。この判定を、表示するすべてのオブジェクト81について行い(S108→No)、仮想空間80内において可触オブジェクト81aが発光して表示される(S108→Yes,S110)。ユーザUはディスプレイ72上で表示される仮想空間80内で、どのオブジェクト81が可触オブジェクト81aであるかを、発光する光を見ることで識別できる。
An example of a process flow for executing the tactile presentation system or tactile presentation method according to the present invention will be described with reference to FIG. 8. First, the user U operates the
ユーザUがアバター82を操作して、可触オブジェクト81aを選択して触れようとするまでは、このユーザ認識手段71を実行しての表示が繰り返される(S111→No)。発光により可触オブジェクト81aが識別可能となっているので、ユーザUは触感を体感しようとする可触オブジェクト81aを把握した上で移動し、接触可能な位置までアバター82を移動させることができる。ユーザUは接触可能な位置まで近づいたら、アバター82を操作して、可触オブジェクト81aを選択して触れようとする(S111→Yes)。この触れようとする意思をアプリ65が判定する挙動としては、例えばアバター82が選択可能な範囲まで近づいたことを条件としてもよいし、アバター82の腕を伸ばして仮想空間80上で実際に触れる位置関係となったことを条件としてもよいし、カーソルや視点表示などで可触オブジェクト81aをユーザが選択(ターゲット)したことを条件としてもよい。
The display by executing this user recognition means 71 is repeated until the user U operates the
いずれの条件でも、ユーザUが可触オブジェクト81aに接触しようとすると判定されたら、制御部61はその可触オブジェクト81aに登録又は紐づけられた触覚データを触覚データベース67から読み出し(S112)、触覚信号送信部64から通信部63へ送る(S113)。通信部26を介して触覚データを受け取った触覚出力装置11は、その触覚データに従って触覚出力デバイス14への出力を制御する(S114)。これにより、ユーザUはアバター82として仮想空間80内で接触している当該可触オブジェクト81aに設定された触覚を提示される。
Regardless of the conditions, when it is determined that the user U is attempting to touch the
また、フロー上は現れないが、発光により可触オブジェクト81aと不触オブジェクト81bとが触れる必要なくディスプレイ72を見ているだけで識別できるので、ユーザUは触覚を体感しようとして、誤って不触オブジェクト81bを選択して、触覚データが読み出されずに空振りに終わるという事態を防止できる。
In addition, although it is not shown in the flow, the
10 触覚提示システム
11 触覚出力装置
14 触覚出力デバイス
16 センサ
20 出力装置制御部
21 触覚制御部
22 データ記憶部
25 電源
26 通信部
31 ケーシング
32 円板
34 ヨーク
35 ヨーク
37 コイル
38 磁気粘性流体
39 軸受
40 基部
41 回転軸
42 パーツ
43 支点部
44 第一リンク材
45 第二リンク材
46 ピン
51 制御装置
54 入出力装置
61 制御部
62 記憶部
63 通信部
64 触覚信号送信部
65 アプリ
66 メディアデータベース
67 触覚データベース
69 ネットワークインターフェース
70 画像出力部
71 ユーザ認識手段
72 ディスプレイ
73 ヘッドホン
80 仮想空間
81 オブジェクト
81a 可触オブジェクト
81b 不触オブジェクト
82 アバター
83 ウインドウ
91 サーバ
92 ネットワーク
U ユーザ
10
Claims (6)
ユーザに触覚を体感させる触覚出力装置と接続され、
前記仮想空間にオブジェクトを表示し、前記触覚出力装置によってユーザが触覚を体感可能な可触オブジェクト、又は前記触覚を体感不可能な不触オブジェクトをユーザが識別可能にさせるユーザ認識手段を実行可能な、触覚提示システム。 An image output unit that outputs a virtual space to a display,
It is connected to a haptic output device that allows the user to experience haptics,
A tactile presentation system capable of executing a user recognition means for displaying objects in the virtual space and enabling a user to identify tactile objects with which the user can experience a sense of touch via the tactile output device, or non-tactile objects with which the user cannot experience a sense of touch.
前記サーバが仮想空間におけるオブジェクトと、前記制御装置を操作するユーザのアバターとの位置を管理し、
前記制御装置が前記画像出力部と前記触覚出力装置とを有し、
前記制御装置は、前記サーバから受け取った情報に従い、前記ユーザ認識手段を実行する、請求項1に記載の触覚提示システム。 A server and a control device operated by a user,
The server manages the positions of objects in a virtual space and an avatar of a user who operates the control device;
the control device has the image output unit and the haptic output device,
The tactile presentation system according to claim 1 , wherein the control device executes the user recognition means in accordance with information received from the server.
前記仮想空間に表示されるオブジェクトのうち、ユーザが触覚を体感可能に設定されている可触オブジェクト、又は触覚を体感不可能に設定されている不触オブジェクトを、ユーザに識別可能にさせるステップと、
前記ユーザによるアバターが前記可触オブジェクトを選択して接触した際に、当該前記可触オブジェクトについて設定されている触覚を、前記触覚出力装置によって提示するステップと、
を実行する、触覚提示方法。 A method for outputting a virtual space to a display and allowing a user to experience a haptic sensation of touching a part of a displayed object by a haptic output device, comprising:
A step of allowing a user to identify tactile objects that are set so that the user can experience a tactile sense or non-tactile objects that are set so that the user cannot experience a tactile sense among the objects displayed in the virtual space;
When the user's avatar selects and touches the tactile object, a haptic sensation set for the tactile object is presented by the haptic output device;
A tactile presentation method for performing the above.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023046623A JP2024135766A (en) | 2023-03-23 | 2023-03-23 | Tactile Presentation System |
PCT/JP2024/011077 WO2024195830A1 (en) | 2023-03-23 | 2024-03-21 | Tactile sensation presentation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023046623A JP2024135766A (en) | 2023-03-23 | 2023-03-23 | Tactile Presentation System |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024135766A true JP2024135766A (en) | 2024-10-04 |
Family
ID=92841713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023046623A Pending JP2024135766A (en) | 2023-03-23 | 2023-03-23 | Tactile Presentation System |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024135766A (en) |
WO (1) | WO2024195830A1 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6611501B2 (en) * | 2015-07-17 | 2019-11-27 | キヤノン株式会社 | Information processing apparatus, virtual object operation method, computer program, and storage medium |
EP3496045A4 (en) * | 2016-08-05 | 2019-07-31 | Sony Corporation | Information processing device, method, and computer program |
EP3552095B1 (en) * | 2016-12-06 | 2023-09-06 | Telefonaktiebolaget LM Ericsson (PUBL) | Generating a haptic model |
CN110785688B (en) * | 2017-04-19 | 2021-08-27 | 奇跃公司 | Multi-modal task execution and text editing for wearable systems |
JP7457453B2 (en) * | 2018-07-27 | 2024-03-28 | 株式会社栗本鐵工所 | Virtual object tactile presentation device and program |
CN110975278A (en) * | 2019-12-18 | 2020-04-10 | 网易(杭州)网络有限公司 | Method and device for simulating touch sense in game, electronic equipment and storage medium |
JP2022165335A (en) * | 2021-04-19 | 2022-10-31 | 本田技研工業株式会社 | Communication system and coaching system |
-
2023
- 2023-03-23 JP JP2023046623A patent/JP2024135766A/en active Pending
-
2024
- 2024-03-21 WO PCT/JP2024/011077 patent/WO2024195830A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024195830A1 (en) | 2024-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7335462B2 (en) | Luminous user input device | |
US10347093B2 (en) | Programmable haptic devices and methods for modifying haptic effects to compensate for audio-haptic interference | |
JP6735747B2 (en) | Position control of user input element associated with haptic output device | |
US10146311B2 (en) | Haptic devices and methods for providing haptic effects via audio tracks | |
EP3575928A1 (en) | Displacement control method and device for virtual character, and storage medium | |
CN208756945U (en) | Game console with reconfigurable simulation rocking bar sensitivity modifier button | |
CN106569614A (en) | Method and system for controlling scene switching in virtual reality | |
WO2019163260A1 (en) | Information processing apparatus, information processing method, and program | |
JP6801838B2 (en) | Fixing haptic effects for slow motion | |
JP2024135766A (en) | Tactile Presentation System | |
WO2023189422A1 (en) | Control device, control method, haptic presentation system, and program product | |
WO2021193421A1 (en) | Information processing device, information processing method, program, and information processing system | |
JP2023148211A (en) | Haptic feedback device | |
JP2023148855A (en) | Virtual object tactile presentation device, virtual object tactile presentation method and non-transitory storage medium storing control program | |
US20250032911A1 (en) | Multi-modal computer game feedback using conversational digital assistant | |
EP4458441A1 (en) | An information processing method, information processing system and computer program | |
JP2016101261A (en) | Sound message system | |
JP2024135764A (en) | Tactile Presentation System | |
JP2023148201A (en) | Sensibility presentation device | |
JP2023148158A (en) | Sense presentation device | |
WO2024090303A1 (en) | Information processing device and information processing method | |
JP2023148271A (en) | Haptic feedback device | |
JP2023148164A (en) | Sense presentation device | |
JP2023150607A (en) | Input-output device | |
JP2023150608A (en) | Haptic sound providing system, haptic sound providing program, and haptic sound providing method |