Microsoft Researchら、VRにおける仮想物体の触覚を再現する人差し指ベースのVRハプティックコントローラ「CLAW」発表 2018-03-09 Microsoft Researchとスタンフォード大学の研究者らは、人差し指に動作を加えてVR内の触覚を再現するハンドヘルドVRハプティックコントローラ「CLAW」を発表しました。 論文:CLAW: A Multifunctional Handheld Haptic Controller for Grasping, Touching, and Triggering in Virtual Reality 著者:Inrak Choi1,2, Eyal Ofek, Hrvoje Benko, Mike Sinclair, Christian Holz 本デバイスは、3つの異なる触覚(仮想物体の把持、仮想表面の接触、拳銃などのトリガ)を再
コントローラー不要のLeap Motion、VR開発用ツール正式公開 VRコンテンツでハンドトラッキングデバイスLeap Motionを扱うためのUnity向け補助ツール「Interaction Engine」の正式版がリリースされ、物理インタラクションの改善、VR向けUIの拡張、Oculus RiftやHTC Viveのコントローラーサポートなどが追加されました。 ウェアラブルUIやコントローラーとの併用などが追加 Leap Motionではセンサー型のコントロールデバイスです。手のひらや五本の指など、人の手の形を細かく読み取ることができますが、それだけではバーチャル空間上での物理的な干渉までを再現することはできません。「Interaction Engine」を用いることで、開発者はUnityでLeap Motionを扱う際の基本的な物理法則やUIを実装することができます。 同エンジンは
両手に持つOculus Touchの人差し指でテーブルを叩きVR空間を操作するUIをUnityのデザイナーが披露 2016-12-27 Unity TechnologiesのUXシニアデザイナー「Greg Madison」氏は、自身のYouTubeアカウントにてOculus Touchを使用したVR空間でのUIを披露しました。 「Tangible Mixed Reality」というタイトルと共に複数投稿され、どれもOculus Touchと目の前のテーブルを活用したVR内操作が披露されます。VR内のテーブル的平面上にキーボードやその他操作キーが設置されており、押すと音が鳴りコントロールする様子が映し出されます。 特徴的なのが、Touchを手に持って伸ばした人差し指(合計2本の指)だけで操作している点と、テーブルという日常によくある物体を触覚フィードバックに採用している点です。Leap Mo
はじめに Unity 4.6 から導入された新 UI システムでは、マウスやキーボード、キーパッドの入力を担当する Standalone Input Module と、タッチを担当する Touch Input Module によって、入力イベントが扱われます。何かしらの UI 要素を追加すると、自動でこれらのモジュール及び EventSystem のアタッチされたゲームオブジェクトが自動で生成されます。 そして新 UI システムでは、Canvas のRender Mode を World Space にすることで、VR のシーンでも簡単に扱うことが出来ます。が、そのままではマウスやキーボードの操作になってしまい、色んなガジェットと組み合わせたりしながら VR 内で望ましい UI を色々と試行錯誤するにはカスタムしてあげる必要があります。 そこで本エントリでは、独自のイベントハンドリングを新
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く