HMDのVR920には加速度センサーがついているので、それを使うと、顔をどこに向けているのか分かります。 その情報を、node.jsのアプリを経由してWebSocketに送ると、顔の向きでWebGL内の視点の方向を動かして、WebGL内を見渡せます。 不完全な部分が多いので試作ですが、別な作業に移るので一旦ポストします。 デモムービー 実現方法とソースコード 1.VR920 --> 2.VR920のSDKのサンプルを改造したアプリ --[TCP]--> 3.ローカルNode.jsサーバー --[WebSocket(SocketIO)]--> 4.ブラウザでWebGL(scene.js)を使って表示 "2.VR920のサンプルを改造したアプリ" HelloTracker2を改造。適当にフィルターしてTCPで投げる。 改造点のdiff: http://ndruger.lolipop.jp/ha