詳細な説明
ここで、図面を参照するが、同様の参照番号は、全体を通して同様の部分を指す。別様に示されない限り、図面は、概略必ずしも、正確な縮尺で描かれていない。
ウェアラブルシステムの3Dディスプレイの実施例
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2Dまたは3D仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせまたは同等物における、静止画像、ビデオのフレーム、またはビデオであってもよい。ウェアラブルシステムの少なくとも一部は、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示し得る、ウェアラブルデバイス上に実装されることができる。ウェアラブルデバイスは、ARデバイス(ARD)と同義的に使用されることができる。さらに、本開示の目的のために、用語「AR」は、用語「MR」と同義的に使用される。
図1は、人物によって視認される、ある仮想現実オブジェクトおよびある物理的オブジェクトを伴う、複合現実シナリオの例証を描写する。図1では、MR場面100が、描写され、MR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム120を特徴とする、実世界公園状設定110が見える。これらのアイテムに加え、MR技術のユーザはまた、実世界プラットフォーム120上に立っているロボット像130と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ140とが「見える」と知覚するが、これらの要素は、実世界には存在しない。
3Dディスプレイが、真の深度感覚、より具体的には、表面深度のシミュレートされた感覚を生成するために、ディスプレイの視野内の点毎に、その仮想深度に対応する遠近調節応答を生成することが望ましくあり得る。ディスプレイ点に対する遠近調節応答が、収束および立体視の両眼深度キューによって決定されるようなその点の仮想深度に対応しない場合、ヒトの眼は、遠近調節衝突を体験し、不安定な結像、有害な眼精疲労、頭痛、および遠近調節情報の不在下では、表面深度のほぼ完全な欠如をもたらし得る。
VR、AR、およびMR体験は、複数の深度面に対応する画像が視認者に提供されるディスプレイを有する、ディスプレイシステムによって提供されることができる。画像は、深度面毎に異なってもよく(例えば、場面またはオブジェクトの若干異なる提示を提供する)、視認者の眼によって別個に集束され、それによって、異なる深度面上に位置する場面に関する異なる画像特徴に合焦させるために要求される眼の遠近調節に基づいて、または合焦からずれている異なる深度面上の異なる画像特徴を観察することに基づいて、ユーザに深度キューを提供することに役立ち得る。本明細書のいずれかに議論されるように、そのような深度キューは、信用できる深度の知覚を提供する。
図2は、ウェアラブルシステム200の実施例を図示し、これは、AR/VR/MR場面を提供するように構成されることができる。ウェアラブルシステム200はまた、ARシステム200と称され得る。ウェアラブルシステム200は、ディスプレイ220と、ディスプレイ220の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ220は、ユーザ、装着者、または視認者210によって装着可能である、フレーム230に結合されてもよい。ディスプレイ220は、ユーザ210の眼の正面に位置付けられることができる。ディスプレイ220は、AR/VR/MRコンテンツをユーザに提示することができる。ディスプレイ220は、ユーザの頭部上に装着される、頭部搭載型ディスプレイ(HMD)を備えることができる。
いくつかの実施形態では、スピーカ240が、フレーム230に結合され、ユーザの外耳道に隣接して位置付けられる(いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する)。ディスプレイ220は、環境からオーディオストリームを検出し、周囲音を捕捉するために、オーディオセンサ(例えば、マイクロホン)232を含むことができる。いくつかの実施形態では、示されない1つまたはそれを上回る他のオーディオセンサが、ステレオ音受信を提供するために位置付けられる。ステレオ音受信は、音源の場所を決定するために使用されることができる。ウェアラブルシステム200は、音声または発話認識をオーディオストリームに実施することができる。
ウェアラブルシステム200は、ユーザの周囲の環境内の世界を観察する、外向きに面した結像システム464(図4に示される)を含むことができる。ウェアラブルシステム200はまた、ユーザの眼移動を追跡し得る、内向きに面した結像システム462(図4に示される)を含むことができる。内向きに面した結像システムは、一方の眼の移動または両方の眼の移動のいずれかを追跡することができる。内向きに面した結像システム462は、フレーム230に取り付けられてもよく、内向きに面した結像システムによって入手された画像情報を処理し、例えば、ユーザ210の眼の瞳孔直径または配向、眼の移動、または眼姿勢を決定し得る、処理モジュール260または270と電気通信してもよい。内向きに面した結像システム462は、1つまたはそれを上回るカメラを含んでもよい。例えば、少なくとも1つのカメラは、各眼を結像するために使用されてもよい。カメラによって入手された画像は、眼毎に、別個に、瞳孔サイズまたは眼姿勢を決定し、それによって、各眼への画像情報の提示がその眼に対して動的に調整されることを可能にするために使用されてもよい。
実施例として、ウェアラブルシステム200は、外向きに面した結像システム464または内向きに面した結像システム462を使用して、ユーザの姿勢の画像を入手することができる。画像は、静止画像、ビデオのフレーム、またはビデオであってもよい。
ディスプレイ220は、有線導線または無線接続等によって、フレーム230に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ210に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成において搭載され得る、ローカルデータ処理モジュール260に動作可能に結合されることができる(250)。
ローカル処理およびデータモジュール260は、ハードウェアプロセッサおよび不揮発性メモリ(例えば、フラッシュメモリ)等のデジタルメモリを備えてもよく、その両方とも、データの処理、キャッシュ、および記憶を補助するために利用され得る。データは、a)画像捕捉デバイス(例えば、内向きに面した結像システムおよび/または外向きに面した結像システム内のカメラ)、オーディオセンサ(例えば、マイクロホン)、慣性測定ユニット(IMU)、加速度計、コンパス、全地球測位システム(GPS)ユニット、無線デバイス、またはジャイロスコープ等の(例えば、フレーム230に動作可能に結合される、または別様にユーザ210に取り付けられ得る)センサから捕捉されるデータ、または、b)可能性として処理または読出後にディスプレイ220への通過のために、遠隔処理モジュール270または遠隔データリポジトリ280を使用して入手または処理されるデータを含んでもよい。ローカル処理およびデータモジュール260は、これらの遠隔モジュールがローカル処理およびデータモジュール260へのリソースとして利用可能であるように、有線または無線通信リンク等を介して、通信リンク262または264によって遠隔処理モジュール270または遠隔データリポジトリ280に動作可能に結合されてもよい。加えて、遠隔処理モジュール280および遠隔データリポジトリ280は、相互に動作可能に結合されてもよい。
いくつかの実施形態では、遠隔処理モジュール270は、データまたは画像情報を分析および処理するように構成される、1つまたはそれを上回るプロセッサを備えてもよい。いくつかの実施形態では、遠隔データリポジトリ280は、デジタルデータ記憶設備を備えてもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュールにおいて実施され、遠隔モジュールからの完全に自律的な使用を可能にする。
ウェアラブルシステムの例示的コンポーネント
図3は、ウェアラブルシステムの例示的コンポーネントを図式的に図示する。図3は、ウェアラブルシステム200を示し、これは、ディスプレイ220と、フレーム230とを含むことができる。引き伸ばし図202は、ウェアラブルシステム200の種々のコンポーネントを図式的に図示する。ある実装では、図3に図示されるコンポーネントのうちの1つまたはそれを上回るものは、ディスプレイ220の一部であることができる。種々のコンポーネントは、単独で、または組み合わせて、ウェアラブルシステム200のユーザまたはユーザの環境と関連付けられる種々のデータ(例えば、オーディオ、画像、またはビデオデータ等)を収集することができる。他の実施形態は、ウェアラブルシステムが使用される用途に応じて、付加的またはより少ないコンポーネントを有してもよいことを理解されたい。なお、図3は、種々のコンポーネントのうちのいくつかと、ウェアラブルシステムを通して収集、分析、および記憶され得る、データのタイプの基本概念とを提供する。
図3は、例示的ウェアラブルシステム200を示し、これは、ディスプレイ220を含むことができる。ディスプレイ220は、ユーザの頭部、またはフレーム230に対応する、筐体またはフレーム230に搭載され得る、ディスプレイレンズ226を備えることができる。ディスプレイレンズ230は、筐体230によって、ユーザの眼302、304の正面に位置付けられる、1つまたはそれを上回る透明ミラーを備えてもよく、投影された光338を眼302、304の中にバウンスさせ、ビーム成形を促進しながら、また、ローカル環境からの少なくとも一部の光の透過を可能にするように構成されてもよい。投影された光ビーム338の波面は、投影された光の所望の焦点距離と一致するように屈曲または集束されてもよい。図示されるように、2つの広視野マシンビジョンカメラ316(世界カメラとも称される)が、筐体230に結合され、ユーザの周囲の環境を結像することができる。これらのカメラ316は、二重捕捉式可視光/非可視(例えば、赤外線)光カメラであることができる。カメラ316は、図4に示される外向きに面した結像システム464の一部であってもよい。世界カメラ316によって入手された画像は、姿勢プロセッサ336によって処理されることができる。例えば、姿勢プロセッサ336は、1つまたはそれを上回るオブジェクト認識装置を実装し、ユーザまたはユーザの環境内の別の人物の姿勢を識別する、またはユーザの環境内の物理的オブジェクトを識別することができる。
図3を継続して参照すると、光338を眼302、304の中に投影するように構成される、ディスプレイミラーおよび光学系を伴う、一対の走査式レーザ成形波面(例えば、深度のために)光投影モジュールが、示される。描写される図はまた、ユーザの眼302、304を追跡し、レンダリングおよびユーザ入力をサポート可能であるように構成される、赤外線光源326(発光ダイオード「LED」等)とペアリングされる、2つの小型赤外線カメラ324を示す。カメラ324は、図4に示される、内向きに面した結像システム462の一部であってもよい。ウェアラブルシステム200はさらに、センサアセンブリ339を特徴とすることができ、これは、X、Y、およびZ軸加速度計能力および磁気コンパスおよびX、Y、およびZ軸ジャイロスコープ能力を備え、好ましくは、200Hz等の比較的に高周波数でデータを提供し得る。センサアセンブリ339は、図2Aを参照して説明される、IMUの一部であってもよい。描写されるシステム200はまた、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、またはARMプロセッサ(高度縮小命令セット機械)等の頭部姿勢プロセッサ336を備えることができ、これは、リアルタイムまたは近リアルタイムユーザ頭部姿勢を捕捉デバイス316から出力された広視野画像情報から計算するように構成されてもよい。頭部姿勢プロセッサ336は、ハードウェアプロセッサであることができ、図2Aに示されるローカル処理およびデータモジュール260の一部として実装されることができる。
ウェアラブルシステムはまた、1つまたはそれを上回る深度センサ234を含むことができる。深度センサ234は、環境内のオブジェクトとウェアラブルデバイスとの間の距離を測定するように構成されることができる。深度センサ234は、レーザスキャナ(例えば、LIDAR)、超音波深度センサ、または深度感知カメラを含んでもよい。カメラ316が深度感知能力を有する、ある実装では、カメラ316はまた、深度センサ234と見なされ得る。
また、示されるものは、デジタルまたはアナログ処理を実行し、姿勢をセンサアセンブリ339からのジャイロスコープ、コンパス、または加速度計データから導出するように構成される、プロセッサ332である。プロセッサ332は、図2に示される、ローカル処理およびデータモジュール260の一部であってもよい。ウェアラブルシステム200はまた、図3に示されるように、例えば、GPS337(全地球測位システム)等の測位システムを含み、姿勢および測位分析を補助することができる。加えて、GPSはさらに、ユーザの環境についての遠隔ベース(例えば、クラウドベース)の情報を提供してもよい。本情報は、ユーザの環境内のオブジェクトまたは情報を認識するために使用されてもよい。
ウェアラブルシステムは、GPS337および遠隔コンピューティングシステム(例えば、遠隔処理モジュール270、別のユーザのARD等)によって入手されたデータを組み合わせてもよく、これは、ユーザの環境についてのより多くの情報を提供することができる。一実施例として、ウェアラブルシステムは、GPSデータに基づいて、ユーザの場所を決定し、ユーザの場所と関連付けられる仮想オブジェクトを含む、世界マップを読み出すことができる(例えば、遠隔処理モジュール270と通信することによって)。別の実施例として、ウェアラブルシステム200は、世界カメラ316(図4に示される外向きに面した結像システム464の一部であってもよい)を使用して、環境を監視することができる。世界カメラ316によって入手された画像に基づいて、ウェアラブルシステム200は、環境内のオブジェクトを検出することができる。ウェアラブルシステムはさらに、GPS337によって入手されたデータを使用して、キャラクタを解釈することができる。
ウェアラブルシステム200はまた、レンダリングエンジン334を備えてもよく、これは、世界のユーザのビューのために、ユーザにローカルなレンダリング情報を提供し、スキャナの動作およびユーザの眼の中への結像を促進するように構成されることができる。レンダリングエンジン334は、ハードウェアプロセッサ(例えば、中央処理ユニットまたはグラフィック処理ユニット等)によって実装されてもよい。いくつかの実施形態では、レンダリングエンジンは、ローカル処理およびデータモジュール260の一部である。レンダリングエンジン334は、ウェアラブルシステム200の他のコンポーネントに通信可能に結合されることができる(例えば、有線または無線リンクを介して)。例えば、レンダリングエンジン334は、通信リンク274を介して、眼カメラ324に結合され、通信リンク272を介して、投影サブシステム318(網膜走査ディスプレイに類似する様式において、走査レーザ配列を介して、光をユーザの眼302、304の中に投影することができる)に結合されることができる。レンダリングエンジン334はまた、それぞれ、リンク276および294を介して、例えば、センサ姿勢プロセッサ332および画像姿勢プロセッサ336等の他の処理ユニットと通信することができる。
カメラ324(例えば、小型赤外線カメラ)は、眼姿勢を追跡し、レンダリングおよびユーザ入力をサポートするために利用されてもよい。いくつかの例示的眼姿勢は、ユーザが見ている場所または合焦させている深度(眼の輻輳・開散運動を用いて推定されてもよい)を含んでもよい。GPS337、ジャイロスコープ、コンパス、および加速度計339は、大まかなまたは高速姿勢推定を提供するために利用されてもよい。カメラ316のうちの1つまたはそれを上回るものは、画像および姿勢を入手することができ、これは、関連付けられるクラウドコンピューティングリソースからのデータと併せて、ローカル環境をマッピングし、ユーザビューを他者と共有するために利用されてもよい。
図3に描写される例示的コンポーネントは、例証目的のためだけのものである。複数のセンサおよび他の機能モジュールが、例証および説明の容易性のために、ともに示される。いくつかの実施形態は、これらのセンサまたはモジュールの1つのみまたはサブセットを含んでもよい。さらに、これらのコンポーネントの場所は、図3に描写される位置に限定されない。いくつかのコンポーネントは、ベルト搭載型コンポーネント、ハンドヘルドコンポーネント、またはヘルメットコンポーネント等、他のコンポーネント内に搭載または格納されてもよい。一実施例として、画像姿勢プロセッサ336、センサ姿勢プロセッサ332、およびレンダリングエンジン334は、ベルトパック内に位置付けられ、超広帯域、Wi-Fi、Bluetooth(登録商標)等の無線通信を介して、または有線通信を介して、ウェアラブルシステムの他のコンポーネントと通信するように構成されてもよい。描写される筐体230は、好ましくは、ユーザによって頭部搭載可能かつ装着可能である。しかしながら、ウェアラブルシステム200のいくつかのコンポーネントは、ユーザの身体の他の部分に装着されてもよい。例えば、スピーカ240が、ユーザの耳の中に挿入され、音をユーザに提供してもよい。
ユーザの眼302、304の中への光338の投影に関して、いくつかの実施形態では、カメラ324は、一般に、眼の焦点の位置または「焦点深度」と一致する、ユーザの眼の中心が幾何学的に輻輳される場所を測定するために利用されてもよい。眼が輻輳する全ての点の3次元表面は、「単視軌跡」と称され得る。焦点距離は、有限数の深度をとり得る、または無限に変動し得る。輻輳・開散運動距離から投影された光は、対象の眼302、304に集束されるように現れる一方、輻輳・開散運動距離の正面または背後の光は、ぼかされる。本開示のウェアラブルシステムおよび他のディスプレイシステムの実施例はまた、米国特許公開第2016/0270656号(参照することによってその全体として本明細書に組み込まれる)に説明される。
ヒト視覚系は、複雑であって、深度の現実的知覚を提供することは、困難である。オブジェクトの視認者は、輻輳・開散運動と遠近調節の組み合わせに起因して、オブジェクトを3次元として知覚し得る。相互に対する2つの眼の輻輳・開散運動移動(例えば、眼の視線を収束させ、オブジェクトを固視するための相互に向かった、またはそこから離れる瞳孔の回転移動)は、眼の水晶体の合焦(または「遠近調節」)と緊密に関連付けられる。正常条件下、焦点を1つのオブジェクトから異なる距離における別のオブジェクトに変化させるための眼の水晶体の焦点の変化または眼の遠近調節は、「遠近調節-輻輳・開散運動反射」として知られる関係下、輻輳・開散運動の整合変化を自動的に同一距離に生じさせるであろう。同様に、輻輳・開散運動の変化が、正常条件下、遠近調節の合致する変化を誘起するであろう。遠近調節と輻輳・開散運動との間のより良好な合致を提供するディスプレイシステムが3次元画像のより現実的かつ快適なシミュレーションを形成し得る。
さらに、約0.7ミリメートル未満のビーム直径を伴う、空間的にコヒーレントな光は、眼が合焦している場所にかかわらず、ヒトの眼によって正しく解決され得る。したがって、適切な焦点深度の錯覚を作成するために、眼の輻輳・開散運動が、カメラ324を用いて追跡されてもよく、レンダリングエンジン334および投影サブシステム318は、単視軌跡上またはそれに近接する全てのオブジェクトを合焦させてレンダリングし、全ての他のオブジェクトを可変程度に焦点をずらしてレンダリングするために利用されてもよい(例えば、意図的に作成されたぼけを使用して)。好ましくは、システム220は、ユーザに、約60フレーム/秒またはそれを上回るフレームレートでレンダリングする。上記に説明されるように、好ましくは、カメラ324は、眼追跡のために利用されてもよく、ソフトウェアは、輻輳・開散運動幾何学形状だけではなく、また、ユーザ入力としての役割を果たすための焦点場所キューも取り上げるように構成されてもよい。好ましくは、そのようなディスプレイシステムは、昼間または夜間の使用のために好適な明度およびコントラストを用いて構成される。
いくつかの実施形態では、ディスプレイシステムは、好ましくは、視覚的オブジェクト整合のために約20ミリ秒未満の待ち時間、約0.1度未満の角度整合、および約1弧分の分解能を有し、これは、理論によって限定されるわけではないが、ヒトの眼のほぼ限界であると考えられる。ディスプレイシステム220は、位置特定システムと統合されてもよく、これは、GPS要素、光学追跡、コンパス、加速度計、または他のデータソースを伴い、位置および姿勢決定を補助し得る。位置特定情報は、関連世界のユーザのビュー内における正確なレンダリングを促進するために利用されてもよい(例えば、そのような情報は、眼鏡が実世界に対する場所を把握することを促進するであろう)。
いくつかの実施形態では、ウェアラブルシステム200は、ユーザの眼の遠近調節に基づいて、1つまたはそれを上回る仮想画像を表示するように構成される。ユーザに画像が投影されている場所に合焦させるように強制する、従来の3Dディスプレイアプローチと異なり、いくつかの実施形態では、ウェアラブルシステムは、投影された仮想コンテンツの焦点を自動的に変動させ、ユーザに提示される1つまたはそれを上回る画像のより快適な視認を可能にするように構成される。例えば、ユーザの眼が、1mの現在の焦点を有する場合、画像は、ユーザの焦点と一致するように投影されてもよい。ユーザが、焦点を3mに偏移させる場合、画像は、新しい焦点と一致するように投影される。したがって、ユーザに所定の焦点を強制するのではなく、いくつかの実施形態のウェアラブルシステム200は、ユーザの眼がより自然な様式において機能することを可能にする。
そのようなウェアラブルシステム200は、仮想現実デバイスに対して典型的に観察される、眼精疲労、頭痛、および他の生理学的症状の発生率を排除または低減させ得る。これを達成するために、ウェアラブルシステム200の種々の実施形態は、1つまたはそれを上回る可変焦点要素(VFE)を通して、仮想画像を可変焦点距離に投影するように構成される。1つまたはそれを上回る実施形態では、3D知覚は、画像をユーザから固定された焦点面に投影する、多面焦点システムを通して達成されてもよい。他の実施形態は、可変面焦点を採用し、焦点面は、ユーザの焦点の現在の状態と一致するように、z-方向に往復して移動される。
多面焦点システムおよび可変面焦点システムの両方において、ウェアラブルシステム200は、眼追跡を採用し、ユーザの眼の輻輳・開散運動を決定し、ユーザの現在の焦点を決定し、仮想画像を決定された焦点に投影してもよい。他の実施形態では、ウェアラブルシステム200は、ファイバスキャナまたは他の光生成源を通して、網膜を横断して、可変焦点の光ビームをラスタパターンで可変に投影する、光変調器を備える。したがって、画像を可変焦点距離に投影するウェアラブルシステム200のディスプレイの能力は、ユーザがオブジェクトを3Dにおいて視認するための遠近調節を容易にするだけではなく、また、米国特許公開第2016/0270656号(参照することによってその全体として本明細書に組み込まれる)にさらに説明されるように、ユーザの眼球異常を補償するために使用されてもよい。いくつかの他の実施形態では、空間光変調器は、種々の光学コンポーネントを通して、画像をユーザに投影してもよい。例えば、以下にさらに説明されるように、空間光変調器は、画像を1つまたはそれを上回る導波管上に投影してもよく、これは、次いで、画像をユーザに伝送する。
導波管スタックアセンブリ
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、4400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応し得、図4Aは、そのウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
図4を継続して参照すると、導波管アセンブリ480はまた、複数の特徴458、456、454、452を導波管の間に含んでもよい。いくつかの実施形態では、特徴458、456、454、452は、レンズであってもよい。他の実施形態では、特徴458、456、454、452は、レンズではなくてもよい。むしろ、それらは、単に、スペーサ(例えば、クラッディング層または空気間隙を形成するための構造)であってもよい。
導波管432b、434b、436b、438b、440bまたは複数のレンズ458、456、454、452は、種々のレベルの波面曲率または光線発散を用いて、画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度面と関連付けられてもよく、その深度面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス420、422、424、426、428は、それぞれ、眼410に向かって出力するために、各個別の導波管を横断して入射光を分散させるように構成され得る、導波管440b、438b、436b、434b、432bの中に画像情報を投入するために利用されてもよい。光は、画像投入デバイス420、422、424、426、428の出力表面から出射し、導波管440b、438b、436b、434b、432bの対応する入力縁の中に投入される。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、特定の導波管と関連付けられる深度面に対応する特定の角度(および発散量)において眼410に向かって指向される、クローン化されるコリメートされたビームの場全体を出力してもよい。
いくつかの実施形態では、画像投入デバイス420、422、424、426、428は、それぞれ、それぞれの対応する導波管440b、438b、436b、434b、432bの中への投入のための画像情報を生成する、離散ディスプレイである。いくつかの他の実施形態では、画像投入デバイス420、422、424、426、428は、例えば、1つまたはそれを上回る光学導管(光ファイバケーブル等)を介して、画像情報を画像投入デバイス420、422、424、426、428のそれぞれに送り得る、単一の多重化されたディスプレイの出力端である。
コントローラ460が、スタックされた導波管アセンブリ480および画像投入デバイス420、422、424、426、428の動作を制御する。コントローラ460は、導波管440b、438b、436b、434b、432bへの画像情報のタイミングおよび提供を調整する、プログラミング(例えば、非一過性コンピュータ可読媒体内の命令)を含む。いくつかの実施形態では、コントローラ460は、単一一体型デバイスまたは有線または無線通信チャネルによって接続される分散型システムであってもよい。コントローラ460は、いくつかの実施形態では、処理モジュール260または270(図2に図示される)の一部であってもよい。
導波管440b、438b、436b、434b、432bは、全内部反射(TIR)によって各個別の導波管内で光を伝搬するように構成されてもよい。導波管440b、438b、436b、434b、432bはそれぞれ、主要上部表面および底部表面およびそれらの主要上部表面と底部表面との間に延在する縁を伴う、平面である、または別の形状(例えば、湾曲)を有してもよい。図示される構成では、導波管440b、438b、436b、434b、432bはそれぞれ、各個別の導波管内で伝搬する光を導波管から外に再指向し、画像情報を眼410に出力することによって、光を導波管から抽出するように構成される、光抽出光学要素440a、438a、436a、434a、432aを含んでもよい。抽出された光はまた、外部結合光と称され得、光抽出光学要素はまた、外部結合光学要素と称され得る。抽出された光のビームは、導波管によって、導波管内で伝搬する光が光再指向要素に衝打する場所において出力される。光抽出光学要素(440a、438a、436a、434a、432a)は、例えば、反射または回折光学特徴であってもよい。説明を容易にし、図面を明確性にするために、導波管440b、438b、436b、434b、432bの底部主要表面に配置されて図示されるが、いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、上部または底部主要表面に配置されてもよい、または導波管440b、438b、436b、434b、432bの容積内に直接配置されてもよい。いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、透明基板に取り付けられ、導波管440b、438b、436b、434b、432bを形成する、材料の層内に形成されてもよい。いくつかの他の実施形態では、導波管440b、438b、436b、434b、432bは、材料のモノリシック片であってもよく、光抽出光学要素440a、438a、436a、434a、432aは、その材料片の表面上および/または内部に形成されてもよい。
図4を継続して参照すると、本明細書に議論されるように、各導波管440b、438b、436b、434b、432bは、光を出力し、特定の深度面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管432bは、そのような導波管432bの中に投入されるにつれて、コリメートされた光を眼410に送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管434bは、眼410に到達し得る前に、第1のレンズ452(例えば、負のレンズ)を通して通過する、コリメートされた光を送出するように構成されてもよい。第1のレンズ452は、眼/脳が、その次の上方の導波管434bから生じる光を光学無限遠から眼410に向かって内向きにより近い第1の焦点面から生じるものとして解釈するように、若干の凸面波面曲率を生成するように構成されてもよい。同様に、第3の上方の導波管436bは、眼410に到達する前に、その出力光を第1のレンズ452および第2のレンズ454の両方を通して通過させる。第1および第2のレンズ452および454の組み合わせられた屈折力は、眼/脳が、第3の導波管436bから生じる光が次の上方の導波管434bからの光であったよりも光学無限遠から人物に向かって内向きにさらに近い第2の焦点面から生じるものとして解釈するように、別の漸増量の波面曲率を生成するように構成されてもよい。
他の導波管層(例えば、導波管438b、440b)およびレンズ(例えば、レンズ456、458)も同様に構成され、スタック内の最高導波管440bを用いて、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ480の他側の世界470から生じる光を視認/解釈するとき、レンズ458、456、454、452のスタックを補償するために、補償レンズ層430が、スタックの上部に配置され、下方のレンズスタック458、456、454、452の集約力を補償してもよい(補償レンズ層430およびスタックされた導波管アセンブリ480は、全体として、世界470から生じる光が、最初にスタックされた導波管アセンブリ480によって受光されたときに光が有していたものと実質的に同一レベルの発散(またはコリメーション)で眼410に伝達されるように構成され得る)。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の光抽出光学要素およびレンズの集束側面は両方とも、静的であってもよい(例えば、動的または電気活性ではない)。いくつかの代替実施形態では、一方または両方とも、電気活性特徴を使用して動的であってもよい。
図4を継続して参照すると、光抽出光学要素440a、438a、436a、434a、432aは、導波管と関連付けられる特定の深度面のために、光をそれらの個別の導波管から外に再指向し、かつ本光を適切な量の発散またはコリメーションを伴って出力するように構成されてもよい。結果として、異なる関連付けられる深度面を有する導波管が、関連付けられる深度面に応じて、異なる量の発散を伴って光を出力する、光抽出光学要素の異なる構成を有してもよい。いくつかの実施形態では、本明細書に議論されるように、光抽出光学要素440a、438a、436a、434a、432aは、光を具体的角度で出力するように構成され得る、立体または表面特徴であってもよい。例えば、光抽出光学要素440a、438a、436a、434a、432aは、立体ホログラム、表面ホログラム、および/または回折格子であってもよい。回折格子等の光抽出光学要素は、2015年6月25日に公開された米国特許公開第2015/0178939号(参照することによってその全体として本明細書に組み込まれる)に説明される。
いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、回折パターンを形成する回折特徴または「回折光学要素」(本明細書では、「DOE」とも称される)である。好ましくは、DOEは、ビームの光の一部のみがDOEの各交差部で眼410に向かって偏向される一方、残りが、全内部反射を介して、導波管を通して移動し続けるように、比較的に低回折効率を有する。画像情報を搬送する光は、したがって、複数の場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果、導波管内でバウンスする本特定のコリメートされたビームに関して、眼304に向かって非常に均一なパターンの出射放出となり得る。
いくつかの実施形態では、1つまたはそれを上回るDOEは、それらが能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であり得る。例えば、切替可能なDOEは、ポリマー分散液晶の層を備えてもよく、その中で微小液滴は、ホスト媒体中に回折パターンを備え、微小液滴の屈折率は、ホスト材料の屈折率に実質的に整合するように切り替えられてもよい(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のものに合致しない屈折率に切り替えられてもよい(その場合、パターンは、入射光を能動的に回折させる)。
いくつかの実施形態では、深度面または被写界深度の数および分布は、視認者の眼の瞳孔サイズまたは配向に基づいて、動的に変動されてもよい。被写界深度は、視認者の瞳孔サイズと反比例して変化してもよい。その結果、視認者の眼の瞳孔のサイズが減少するにつれて、被写界深度は、その平面の場所が眼の焦点深度を越えるため判別不能である1つの平面が、判別可能となり、瞳孔サイズの低減および被写界深度の相当する増加に伴って、より合焦して現れ得るように増加する。同様に、異なる画像を視認者に提示するために使用される、離間された深度面の数は、減少された瞳孔サイズに伴って減少され得る。例えば、視認者は、一方の深度面から他方の深度面への眼の遠近調節を調節することなく、第1の深度面および第2の深度面の両方の詳細を1つの瞳孔サイズにおいて明確に知覚することが可能ではない場合がある。しかしながら、これらの2つの深度面は、同時に、遠近調節を変化させることなく、別の瞳孔サイズにおいてユーザにとって十分に合焦し得る。
いくつかの実施形態では、ディスプレイシステムは、瞳孔サイズまたは配向の決定に基づいて、または特定の瞳孔サイズまたは配向を示す電気信号の受信に応じて、画像情報を受信する導波管の数を変動させてもよい。例えば、ユーザの眼が、2つの導波管と関連付けられる2つの深度面間を区別不能である場合、コントローラ460(ローカル処理およびデータモジュール260の実施形態であり得る)は、これらの導波管のうちの1つへの画像情報の提供を停止するように構成またはプログラムされることができる。有利なこととして、これは、システムへの処理負担を低減させ、それによって、システムの応答性を増加させ得る。導波管のためのDOEがオンおよびオフ状態間で切替可能である実施形態では、DOEは、導波管が画像情報を受信するとき、オフ状態に切り替えられてもよい。
いくつかの実施形態では、出射ビームに視認者の眼の直径未満の直径を有するという条件を満たさせることが望ましくあり得る。しかしながら、本条件を満たすことは、視認者の瞳孔のサイズの変動性に照らして、困難であり得る。いくつかの実施形態では、本条件は、視認者の瞳孔のサイズの決定に応答して出射ビームのサイズを変動させることによって、広範囲の瞳孔サイズにわたって満たされる。例えば、瞳孔サイズが減少するにつれて、出射ビームのサイズもまた、減少し得る。いくつかの実施形態では、出射ビームサイズは、可変開口を使用して変動されてもよい。
ウェアラブルシステム400は、世界470の一部を結像する、外向きに面した結像システム464(例えば、デジタルカメラ)を含むことができる。世界470の本部分は、世界カメラの視野(FOV)と称され得、結像システム464は、時として、FOVカメラとも称される。世界カメラのFOVは、視認者210のFOVと同一である場合とそうではない場合があり、これは、視認者210が所与の時間に知覚する、世界470の一部を包含する。例えば、いくつかの状況では、世界カメラのFOVは、ウェアラブルシステム400の視認者210の視野より大きくあり得る。視認者による視認または結像のために利用可能な領域全体は、動眼視野(FOR)と称され得る。FORは、装着者が、その身体、頭部、または眼を移動させ、空間内の実質的に任意の方向を知覚し得るため、ウェアラブルシステム400を囲繞する4πステラジアンの立体角を含んでもよい。他のコンテキストでは、装着者の移動は、より抑制されてもよく、それに応じて、装着者のFORは、より小さい立体角に接し得る。外向きに面した結像システム464から得られた画像は、ユーザによって行われるジェスチャ(例えば、手または指のジェスチャ)を追跡し、ユーザの正面における世界470内のオブジェクトを検出する等のために、使用されることができる。
ウェアラブルシステム400は、オーディオセンサ232、例えば、マイクロホンを含み、周囲音を捕捉することができる。上記に説明されるように、いくつかの実施形態では、1つまたはそれを上回る他のオーディオセンサが、発話源の場所の決定に有用なステレオ音受信を提供するために位置付けられることができる。オーディオセンサ232は、別の実施例として、指向性マイクロホンを備えることができ、これはまた、オーディオ源が位置する場所に関するそのような有用な指向性情報を提供することができる。ウェアラブルシステム400は、発話源を位置特定する際、または特定の瞬間におけるアクティブ話者を決定するために等、外向きに面した結像システム464およびオーディオセンサ230の両方からの情報を使用することができる。例えば、ウェアラブルシステム400は、単独で、または話者の反射された画像(例えば、鏡に見られるように)と組み合わせて、音声認識を使用して、話者の識別を決定することができる。別の実施例として、ウェアラブルシステム400は、指向性マイクロホンから入手された音に基づいて、環境内の話者の位置を決定することができる。ウェアラブルシステム400は、発話認識アルゴリズムを用いて、話者の位置から生じる音を解析し、発話のコンテンツを決定し、音声認識技法を使用して、話者の識別(例えば、名前または他の人口統計情報)を決定することができる。
ウェアラブルシステム400はまた、眼移動および顔移動等のユーザの移動を観察する、内向きに面した結像システム466(例えば、デジタルカメラ)を含むことができる。内向きに面した結像システム466は、眼410の画像を捕捉し、眼304の瞳孔のサイズおよび/または配向を決定するために使用されてもよい。内向きに面した結像システム466は、ユーザが見ている方向(例えば、眼姿勢)を決定する際に使用するため、またはユーザのバイオメトリック識別のため(例えば、虹彩識別を介して)、画像を得るために使用されることができる。いくつかの実施形態では、少なくとも1つのカメラが、眼毎に、独立して、各眼の瞳孔サイズまたは眼姿勢を別個に決定し、それによって、各眼への画像情報の提示がその眼に対して動的に調整されることを可能にするために利用されてもよい。いくつかの他の実施形態では、単一眼410のみの瞳孔直径または配向(例えば、対の眼あたり単一カメラのみを使用して)が、決定され、ユーザの両眼に関して類似すると仮定された。内向きに面した結像システム466によって得られる画像は、ユーザに提示されるべきオーディオまたは視覚的コンテンツを決定するためにウェアラブルシステム400によって使用され得る、ユーザの眼姿勢または気分を決定するために分析されてもよい。ウェアラブルシステム400はまた、IMU、加速度計、ジャイロスコープ等のセンサを使用して、頭部姿勢(例えば、頭部位置または頭部配向)を決定してもよい。
ウェアラブルシステム400は、ユーザが、コマンドをコントローラ460に入力し、ウェアラブルシステム400と相互作用し得る、ユーザ入力デバイス466を含むことができる。例えば、ユーザ入力デバイス466は、トラックパッド、タッチスクリーン、ジョイスティック、多自由度(DOF)コントローラ、容量感知デバイス、ゲームコントローラ、キーボード、マウス、指向性パッド(Dパッド)、ワンド、触知デバイス、トーテム(例えば、仮想ユーザ入力デバイスとして機能する)等を含むことができる。マルチDOFコントローラは、コントローラの一部または全部の可能性として考えられる平行移動(例えば、左/右、前方/後方、または上/下)または回転(例えば、ヨー、ピッチ、またはロール)におけるユーザ入力を感知することができる。平行移動をサポートする、マルチDOFコントローラは、3DOFと称され得る一方、平行移動および回転をサポートする、マルチDOFコントローラは、6DOFと称され得る。ある場合には、ユーザは、指(例えば、親指)を使用して、タッチセンサ式入力デバイスを押下またはその上でスワイプし、入力をウェアラブルシステム400に提供してもよい(例えば、ユーザ入力をウェアラブルシステム400によって提供されるユーザインターフェースに提供するために)。ユーザ入力デバイス466は、ウェアラブルシステム400の使用の間、ユーザの手によって保持されてもよい。ユーザ入力デバイス466は、ウェアラブルシステム400と有線または無線通信することができる。
ウェアラブルシステムの他のコンポーネント
多くの実装では、ウェアラブルシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つまたはそれを上回る触知デバイスまたはコンポーネントを含んでもよい。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力またはテクスチャの触覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトまたはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
ウェアラブルシステムは、例えば、ユーザによって操作可能であって、ウェアラブルシステムへの入力またはそれとの相互作用を可能にする、1つまたはそれを上回る物理的オブジェクトを含んでもよい。これらの物理的オブジェクトは、本明細書では、トーテムと称され得る。いくつかのトーテムは、無生物オブジェクト、例えば、金属またはプラスチック片、壁、テーブルの表面の形態をとってもよい。ある実装では、トーテムは、実際には、任意の物理的入力構造(例えば、キー、トリガ、ジョイスティック、トラックボール、ロッカスイッチ)を有していなくてもよい。代わりに、トーテムは、単に、物理的表面を提供してもよく、ウェアラブルシステムは、ユーザにトーテムの1つまたはそれを上回る表面上にあるように見えるように、ユーザインターフェースをレンダリングしてもよい。例えば、ウェアラブルシステムは、トーテムの1つまたはそれを上回る表面上に常駐するように見えるように、コンピュータキーボードおよびトラックパッドの画像をレンダリングしてもよい。例えば、ウェアラブルシステムは、トーテムとしての役割を果たす、アルミニウムの薄い長方形プレートの表面上に見えるように、仮想コンピュータキーボードおよび仮想トラックパッドをレンダリングしてもよい。長方形プレート自体は、いずれの物理的キーまたはトラックパッドまたはセンサも有していない。しかしながら、ウェアラブルシステムは、仮想キーボードまたは仮想トラックパッドを介して行われた選択または入力として、長方形プレートを用いたユーザ操作または相互作用またはタッチを検出し得る。ユーザ入力デバイス466(図4に示される)は、トラックパッド、タッチパッド、トリガ、ジョイスティック、トラックボール、ロッカまたは仮想スイッチ、マウス、キーボード、多自由度コントローラ、または別の物理的入力デバイスを含み得る、トーテムの実施形態であってもよい。ユーザは、単独で、または姿勢と組み合わせて、トーテムを使用し、ウェアラブルシステムまたは他のユーザと相互作用してもよい。
本開示のウェアラブルデバイス、HMD、およびディスプレイシステムと使用可能な触知デバイスおよびトーテムの実施例は、米国特許公開第2015/0016777号(参照することによってその全体として本明細書に組み込まれる)に説明される。
眼画像の実施例
図5は、眼瞼504と、強膜508(「白眼」)と、虹彩512と、瞳孔516とを伴う、眼500の画像を図示する。曲線516aは、瞳孔516と虹彩512との間の瞳孔境界を示し、曲線512aは、虹彩512と強膜508との間の辺縁境界を示す。眼瞼504は、上側眼瞼504aと、下側眼瞼504bとを含む。眼500は、自然静置姿勢(例えば、ユーザの顔および視線の両方が、ユーザの真正面の遠距離オブジェクトに向かうであろうように配向される)に図示される。眼500の自然静置姿勢は、自然静置姿勢(例えば、図5に示される眼500に関しては、すぐ面外)にあって、本実施例では、瞳孔516内に中心合わせされるときの眼500の表面に直交する方向である、自然静置方向520によって示され得る。
眼500が、異なるオブジェクトに向かって見るように移動するにつれて、眼姿勢は、自然静置方向520に対して変化するであろう。現在の眼姿勢は、眼の表面に直交する(かつ瞳孔516内に中心合わせされる)方向であるが、眼が現在指向されているオブジェクトに向かって配向される、眼姿勢方向524を参照して決定されることができる。図5Aに示される例示的座標系を参照すると、眼500の姿勢は、両方とも眼の自然静置方向520に対する、眼の眼姿勢方向524の方位角偏向および天頂偏向を示す、2つの角度パラメータとして表され得る。例証目的のために、これらの角度パラメータは、θ(基点方位角から決定される、方位角偏向)およびφ(時として、極性偏向とも称される、天頂偏向)として表され得る。いくつかの実装では、眼姿勢方向524の周囲の眼の角度ロールが、眼姿勢の決定に含まれることができ、角度ロールは、以下の分析に含まれることができる。他の実装では、眼姿勢を決定するための他の技法が、例えば、ピッチ、ヨー、および随意に、ロール系が、使用されることができる。
光源326は、眼500を照明することができ(例えば、IR内で)、眼から(典型的には、角膜から)の光源の反射は、閃光と称される。図5は、4つの閃光550が存在する、実施例を図式的に示す。閃光550の位置、数、明度等は、光源326の位置および数、眼の姿勢等に依存し得る。眼追跡カメラ324は、眼画像を取得することができ、プロセッサは、眼画像を分析し、眼追跡のための閃光の位置および移動を決定することができる。
眼画像は、任意の適切なプロセスを使用して、例えば、画像を1つまたはそれを上回るシーケンシャルフレーム(または非シーケンシャルフレーム)から抽出し得る、ビデオ処理アルゴリズムを使用して、ビデオから取得されることができる。図4の内向きに面した結像システム462または図3のカメラ324および光源326は、眼の一方または両方のビデオまたは画像を提供するために利用されることができる。眼の姿勢は、種々の眼追跡技法を使用して、眼画像から決定されることができる。例えば、眼姿勢は、提供される光源に及ぼす角膜のレンズ効果を検討することによって決定されることができる。任意の好適な眼追跡技法が、本明細書に説明される眼瞼形状推定技法において眼姿勢を決定するために使用されることができる。
眼追跡システムの実施例
図6は、眼追跡システムを含む、ウェアラブルシステム600の概略図を図示する。ウェアラブルシステム600は、少なくともいくつかの実施形態では、頭部搭載型ユニット602内に位置するコンポーネントと、非頭部搭載型ユニット604内に位置するコンポーネントとを含む。非頭部搭載型ユニット604は、実施例として、ベルト搭載型コンポーネント、ハンドヘルドコンポーネント、リュック内のコンポーネント、遠隔コンポーネント等であってもよい。ウェアラブルシステム600のコンポーネントのうちのいくつかを非頭部搭載型ユニット604内に組み込むことは、頭部搭載型ユニット602のサイズ、重量、複雑性、およびコストを低減させることに役立ち得る。いくつかの実装では、頭部搭載型ユニット602および/または非頭部搭載型604の1つまたはそれを上回るコンポーネントによって実施されているように説明される機能性の一部または全部は、ウェアラブルシステム600内のいずれかに含まれる1つまたはそれを上回るコンポーネントを用いて提供されてもよい。例えば、頭部搭載型ユニット602のCPU612と関連して下記に説明される機能性の一部または全部は、非頭部搭載型ユニット604のCPU616を用いて提供されてもよく、その逆も同様である。いくつかの実施例では、そのような機能性の一部または全部は、ウェアラブルシステム600の周辺デバイスを用いて提供されてもよい。さらに、いくつかの実装では、そのような機能性の一部または全部は、図2を参照して上記に説明されたものに類似する様式において、1つまたはそれを上回るクラウドコンピューティングデバイスまたは他の遠隔に位置するコンピューティングデバイスを用いて提供されてもよい。
図6に示されるように、ウェアラブルシステム600は、ユーザの眼610の画像を捕捉する、カメラ324を含む、眼追跡システム601を含むことができる。所望に応じて、眼追跡システムはまた、光源326aおよび326b(発光ダイオード「LED」等)を含んでもよい。光源326aおよび326bは、閃光(例えば、カメラ324によって捕捉された眼の画像内に現れる、ユーザの眼からの反射)を生成し得る。カメラ324に対する光源326aおよび326bの位置は、既知であり得、その結果、カメラ324によって捕捉された画像内の閃光の位置が、ユーザの眼を追跡する際に使用されてもよい。少なくとも一実施形態では、1つの光源326と、ユーザの眼610の片方と関連付けられる1つのカメラ324とが存在してもよい。別の実施形態では、1つの光源326と、ユーザの眼610のそれぞれと関連付けられる1つのカメラ324とが存在してもよい。さらに他の実施形態では、1つまたはそれを上回るカメラ324と、ユーザの眼610の一方またはそれぞれと関連付けられる1つまたはそれを上回る光源326とが存在してもよい。具体的実施例として、2つの光源326aおよび326bと、ユーザの眼610のそれぞれと関連付けられる1つまたはそれを上回るカメラ324とが存在してもよい。別の実施例として、光源326aおよび326b等の3つまたはそれを上回る光源と、ユーザの眼610のそれぞれと関連付けられる1つまたはそれを上回るカメラ324とが存在してもよい。
眼追跡モジュール614は、画像を眼追跡カメラ324から受信してもよく、画像を分析し、種々の情報を抽出してもよい。実施例として、眼追跡モジュール614は、ユーザの眼姿勢、眼追跡カメラ324(および頭部搭載型ユニット602)に対するユーザの眼の3次元位置、合焦されているユーザの眼610の一方または両方の方向、ユーザの輻輳・開散運動深度(例えば、ユーザが合焦しているユーザからの深度)、ユーザの瞳孔の位置、ユーザの角膜および角膜球面の位置、ユーザの眼のそれぞれの回転中心、およびユーザの眼のそれぞれの視点の中心を検出してもよい。図6に示されるように、眼追跡モジュール614は、頭部搭載型ユニット602内のCPU612を使用して実装される、ソフトウェアモジュールであってもよい。
眼追跡モジュール614からのデータは、ウェアラブルシステム内の他のコンポーネントに提供されてもよい。実施例として、そのようなデータは、ライトフィールドレンダリングコントローラ618および位置合わせオブザーバ620のためのソフトウェアモジュールを含む、CPU616等の非頭部搭載型ユニット604内のコンポーネントに伝送されてもよい。
レンダリングコントローラ618は、レンダリングエンジン622(例えば、GPU620内のソフトウェアモジュールであり得、画像をディスプレイ220に提供し得る、レンダリングエンジン)によって、眼追跡モジュール614からの情報を使用して、ユーザに表示される画像を調節してもよい。実施例として、レンダリングコントローラ618は、ユーザの回転中心または視点の中心に基づいて、ユーザに表示される画像を調節してもよい。特に、レンダリングコントローラ618は、ユーザの視点の中心に関する情報を使用して、レンダリングカメラをシミュレートしてもよく(例えば、ユーザの視点からの画像の収集をシミュレートする)、シミュレートされたレンダリングカメラに基づいて、ユーザに表示される画像を調節してもよい。
時として、「ピンホール透視投影カメラ」(または単に、「透視投影カメラ」)または「仮想ピンホールカメラ」(または単に、「仮想カメラ」)とも称される、「レンダリングカメラ」は、可能性として、仮想世界内のオブジェクトのデータベースからの仮想画像コンテンツをレンダリングする際に使用するためのシミュレートされたカメラである。オブジェクトは、ユーザまたは装着者に対する、および可能性として、ユーザまたは装着者を囲繞する環境内の実オブジェクトに対する、場所および配向を有してもよい。換言すると、レンダリングカメラは、そこからユーザまたは装着者がレンダリング空間の3D仮想コンテンツ(例えば、仮想オブジェクト)を視認すべきである、レンダリング空間内の視点を表し得る。レンダリングカメラは、レンダリングエンジンによって管理され、該眼に提示されるべき仮想オブジェクトのデータベースに基づいて、仮想画像をレンダリングしてもよい。仮想画像は、ユーザまたは装着者の視点から撮影されたかのようにレンダリングされ得る。例えば、仮想画像は、固有のパラメータの具体的セット(例えば、焦点距離、カメラピクセルサイズ、主点座標、歪/歪曲パラメータ等)と、付帯パラメータの具体的セット(例えば、仮想世界に対する平行移動成分および回転成分)とを有する、ピンホールカメラ(「レンダリングカメラ」に対応する)によって捕捉されたかのようにレンダリングされ得る。仮想画像は、レンダリングカメラの位置および配向(例えば、レンダリングカメラの付帯パラメータ)を有する、そのようなカメラの視点から撮影される。システムは、固有のおよび付帯レンダリングカメラパラメータを定義および/または調節し得るということになる。例えば、システムは、仮想画像が、ユーザまたは装着者の視点からであるように現れる画像を提供するように、ユーザまたは装着者の眼に対する具体的場所を有する、カメラの視点から捕捉されたかのようにレンダリングされるように、特定のセットの付帯レンダリングカメラパラメータを定義してもよい。システムは、後に、該具体的場所との位置合わせを維持するように、付帯レンダリングカメラパラメータをオンザフライで動的に調節してもよい。同様に、固有のレンダリングカメラパラメータも、定義され、経時的に動的に調節されてもよい。いくつかの実装では、画像は、開口(例えば、ピンホール)をユーザまたは装着者の眼に対する具体的場所(視点の中心または回転中心または他の場所等)に有するカメラの視点から捕捉されたかのようにレンダリングされる。
いくつかの実施形態では、システムは、ユーザの眼が、相互から物理的に分離され、したがって、一貫して異なる場所に位置付けられるにつれて、ユーザの左眼のための1つのレンダリングカメラおよびユーザの右眼のために別のレンダリングカメラを作成または動的に再位置付および/または再配向してもよい。少なくともいくつかの実装では、視認者の左眼と関連付けられるレンダリングカメラの視点からレンダリングされた仮想コンテンツは、頭部搭載型ディスプレイ(例えば、頭部搭載型ユニット602)の左側の接眼レンズを通してユーザに提示され得、ユーザの右眼と関連付けられるレンダリングカメラの視点からレンダリングされた仮想コンテンツは、そのような頭部搭載型ディスプレイの右側の接眼レンズを通してユーザに提示され得るということになる。レンダリングプロセスにおけるレンダリングカメラの作成、調節、および使用について議論するさらなる詳細は、「METHODS AND SYSTEMS FOR DETECTING AND COMBINING STRUCTURAL FEATURES IN 3D RECONSTRUCTION」と題された米国特許第10,559,127号(あらゆる目的のために、参照することによってその全体として本明細書に明示的に組み込まれる)に提供される。
いくつかの実施例では、システム600の1つまたはそれを上回るモジュール(またはコンポーネント)(例えば、ライトフィールドレンダリングコントローラ618、レンダリングエンジン620等)は、ユーザの頭部および眼の位置および配向(例えば、それぞれ、頭部姿勢および眼追跡データに基づいて決定されるように)に基づいて、レンダリング空間内のレンダリングカメラの位置および配向を決定してもよい。すなわち、システム600は、事実上、ユーザの頭部および眼の位置および配向を3D仮想環境内の特定の場所および角位置にマッピングし、レンダリングカメラを3D仮想環境内の特定の場所および角位置に設置および配向し、レンダリングカメラによって捕捉されるであろうにつれて、仮想コンテンツをユーザのためにレンダリングし得る。実世界/仮想世界マッピングプロセスについて議論するさらなる詳細は、「SELECTING VIRTUAL OBJECTS IN A THREE-DIMENSIONAL SPACE」と題された米国特許第10,521,025号(あらゆる目的のために、参照することによってその全体として本明細書に明示的に組み込まれる)に提供される。実施例として、レンダリングコントローラ618は、画像が、画像を表示するために任意の所与の時間に利用される深度面(または複数の深度面)を選択することによって表示される、深度を調節してもよい。いくつかの実装では、そのような深度面切替は、1つまたはそれを上回る固有のレンダリングカメラパラメータの調節を通して、行われてもよい。例えば、ライトフィールドレンダリングコントローラ618は、深度面切替または調節を実行するとき、レンダリングカメラの焦点距離を調節してもよい。深度面は、ユーザの決定された輻輳・開散運動または固視深度に基づいて、切り替えられてもよい。
位置合わせオブザーバ620は、眼追跡モジュール614からの情報を使用して、頭部搭載型ユニット602がユーザの頭部上に適切に位置付けられているかどうかを識別してもよい。実施例として、眼追跡モジュール614は、カメラ324に対するユーザの眼の3次元位置を示す、ユーザの眼の回転中心の位置等の眼場所情報を提供してもよく、頭部搭載型ユニット602および眼追跡モジュール614は、場所情報を使用して、ディスプレイ220がユーザの視野内に適切に整合されているかどうか、または頭部搭載型ユニット602(またはヘッドセット)が滑脱している、または別様にユーザの眼と不整合状態であるかどうかを決定してもよい。実施例として、位置合わせオブザーバ620は、頭部搭載型ユニット602が、ユーザの鼻梁から滑脱しており、したがって、ディスプレイ220をユーザの眼から離れさせ、そこから下方に移動させている(望ましくあり得ない)かどうか、頭部搭載型ユニット602が、ユーザの鼻梁の上方に移動しており、したがって、ディスプレイ220をユーザの眼により近づけ、そこから上方に移動させているかどうか、頭部搭載型ユニット602が、ユーザの鼻梁に対して左または右に偏移されているかどうか、頭部搭載型ユニット602が、ユーザの鼻梁の上方に持ち上げられているかどうか、または頭部搭載型ユニット602が、これらまたは他の方法において、所望の位置または位置の範囲から離れて移動されているかどうかを決定することが可能であり得る。一般に、位置合わせオブザーバ620は、一般に、頭部搭載型ユニット602、特に、ディスプレイ220が、ユーザの眼の正面に適切に位置付けられているかどうかを決定することが可能であり得る。換言すると、位置合わせオブザーバ620は、ディスプレイシステム220内の左ディスプレイが、ユーザの左眼と適切に整合されており、ディスプレイシステム220内の右ディスプレイが、ユーザの右眼と適切に整合されているかどうかを決定し得る。位置合わせオブザーバ620は、頭部搭載型ユニット602が、ユーザの眼に対する位置および/または配向の所望の範囲内に位置付けられ、配向されているかどうかを決定することによって、頭部搭載型ユニット602が適切に位置付けられているかどうかを決定してもよい。
少なくともいくつかの実施形態では、位置合わせオブザーバ620は、アラート、メッセージ、または他のコンテンツの形態におけるユーザフィードバックを生成してもよい。そのようなフィードバックは、ユーザに提供され、ユーザに、頭部搭載型ユニット602の任意の不整合を、不整合を補正する方法に関する随意のフィードバック(頭部搭載型ユニット602を特定の様式において調節するための提案等)とともに知らせてもよい。
位置合わせオブザーバ620によって利用され得る、例示的位置合わせ観察およびフィードバック技法は、「PERIOCULAR TEST FOR MIXED REALITY CALIBRATION」と題された米国特許第10,473,042号および「DISPLAY SYSTEMS AND METHODS FOR DETERMINING REGISTRATION BETWEEN A DISPLAY AND A USER’S EYES」と題された米国特許公開第2019/0222830号(両方とも、参照することによってその全体として本明細書に組み込まれる)に説明される。
交互サンプリングを使用した眼追跡
カメラ324等の1つまたはそれを上回る眼追跡カメラは、特定のフレームレートにおいて、左眼および右眼のビデオ(例えば、ビデオのフレームを含む)および/または画像(時として、視覚的データまたは視線ベクトルとも称される)を捕捉することができる。フレームレートは、ビデオ捕捉の間の眼の暴露時間を示すことができる。例えば、より高いフレームレートは、本明細書に説明されるように、より長い暴露時間を示すことができ、これは、より多くのイベントを検出することにつながり得る。図7Aは、30フレーム/秒(fps)のフレームレート(時として、サンプリングレートまたはサンプルレートとも称される)(または30Hzのサンプリングレート)における、左眼および右眼の視覚的データの捕捉のグラフ700Aを図示する。グラフ700Aのx-軸は、時間を表す。上側のバーは、L1、L2、L3、およびL4(時間インスタンス(または時間)t1、t2、t3、およびt4において捕捉された視覚的データに対応する)として標識された左眼の捕捉された視覚的データを図示する。視覚的データが捕捉された(またはサンプリングされた)、時間インスタンスは、時として、サンプリングインターバルまたはサンプリング時間とも称され得る。下側のバーは、R1、R2、R3、およびR4(時間インスタンスt1、t2、t3、およびt4において捕捉された視覚的データに対応する)として標識された右眼の捕捉された視覚的データを図示する。図示されるように、左および右眼からの視覚的データは、概して、同時に捕捉される。図7Aでは、左眼の連続する視覚的データサンプル間の時間は、33.3ミリ秒(ms)(1/30Hzに対応する)である。同様に、右眼の連続する視覚的データサンプル間の時間は、33.3ミリ秒(ms)(1/30Hzに対応する)である。いくつかの変形例では、1つまたはそれを上回るカメラは、異なるサンプリングレートにおいて、左および右眼のビデオを捕捉することができる。
図7Bは、60フレーム/秒(fps)のフレームレート(または60Hzのサンプリングレート)における、左眼および右眼の視覚的データの捕捉のグラフ700Bを図示する。グラフ700Bは、より多くの視覚的データが、より高いサンプリングレートに起因して、図7Bにおいて捕捉されるように図示されることを除き、グラフ700Aに類似する。特に、グラフ700Bは、左眼の捕捉された視覚的データL1-L7と、右眼の視覚的データR1-R7(時間インスタンスt1-t7に対応する)とを図示する。左および右眼からの視覚的データは、概して、同時に捕捉される。図7Bでは、左眼の連続する視覚的データサンプル間の時間は、16.7(ms)(1/60Hzに対応する)である。同様に、右眼の連続する視覚的データサンプル間の時間は、16.7(ms)(1/60Hzに対応する)である。グラフ700Bに示されるように、より高いサンプリングレートを使用する利点のうちの1つは、より高速の発生率を伴う、イベント(眼移動または眼姿勢の変化等)を検出する能力である。例えば、グラフ700Bでは、最短検出可能イベント持続時間は、16.7msである一方、グラフ700Aでは、最短検出可能イベント持続時間は、約33.3msである。より高いサンプリングレートを使用する別の利点は、連続する視覚的データサンプル間の持続時間に対応し得る、サンプリング待ち時間の減少である。サンプリング待ち時間は、新しい視覚的データサンプルを、捕捉された視覚的データを記憶する、メモリバッファ内に記憶するための持続時間を示すことができる。より低いサンプリング待ち時間は、サッカード眼球運動(固視を変化させるときの眼の高速移動に対応し得る)等の高速イベントを検出するために好ましくあり得る。図7Aおよび7Bに図示されるサンプリングレートは、単に、実施例であって、他のより高いまたはより低いサンプリングレートも、使用されることができる(40Hz、60Hz、100Hz、120Hz、または同等物等)。
より高いサンプリングレートを使用することは、イベントの改良された検出のために有益であり得るが、サンプリングレートを増加させることは、電力消費の増加、コンピューティング速度の増加、コンピューティングリソースの使用量の増加等を引き起こし得る。加えて、または代替として、より高いサンプリングレートをサポートする、1つまたはそれを上回る眼追跡カメラの可用性は、より低いサンプリングレートより限定され得る。結果として、より高いサンプリングレートにおける眼追跡は、よりコストがかかり、ウェアラブルシステム内に実装することがより困難であり得る。
より低いサンプリングレートを使用することと関連付けられる、単純性を留保しながら、より高いサンプリングレートを利用することと関連付けられる、利益を取得するために、交互サンプリングが、実装されることができる。図8は、交互サンプリングを使用した左眼および右眼の視覚的データの捕捉を図示する、グラフ800である。グラフ700Aおよび700Bと同様に、グラフ800では、上側のバーは、左眼の捕捉された視覚的データを表し、下側のバーは、右眼の捕捉された視覚的データを表す。図8に図示されるように、左および右眼のための1つまたはそれを上回る眼追跡カメラは、各眼の視覚的データの捕捉を交互させるように構成されることができる。例えば、図示されるように、左眼に関する視覚的データ(L1)は、初期時間(t1等)において捕捉される一方、本初期時間の間、右眼に関する視覚的データは、捕捉されない。次の時間(例えば、t2)では、右眼に関する視覚的データ(R2)は、捕捉されるが、左眼に関する視覚的データは、捕捉されない。いくつかの実装では、右眼に関する視覚的データは、t1の間、捕捉されないが、右眼に関する視覚的データの推定値が、代わりに、時間t1において提供されてもよい。同様に、左眼に関する視覚的データは、t2の間、捕捉されないが、左眼に関する視覚的データの推定値が、代わりに、時間t2において提供されてもよい。本プロセスは、後続時間インスタンスt3、t4、t5、t6、t7等にわたって継続することができる。
結果として、眼毎の1つまたはそれを上回る眼追跡カメラは、視覚的データの捕捉を交互させる。グラフ800内の暗色バーは、左および右眼のための1つまたはそれを上回る眼追跡カメラによって実際に捕捉される、視覚的データを表す。下記に説明されるように、グラフ800内の明色バーは、左および右眼に関する推定される視覚的データを表す。左眼の視覚的データの捕捉は、初期時間において実施されるように図示されるが、右眼の視覚的データの捕捉が、代わりに実施されてもよい。
図8では、左眼の1つまたはそれを上回る眼追跡カメラは、30Hzのサンプリングレート(L1およびL3またはL3およびL5またはL5およびL7等、左眼の連続する視覚的データサンプリング間の33.3msの時間インターバルに対応する)において、左眼の視覚的データを捕捉するように図示される。同様に、右眼の1つまたはそれを上回る追跡するカメラは、30Hzのサンプリングレート(R2およびR4またはR4およびR6等、連続サンプル間の33.3msの持続時間によって示されるように)において、右眼の視覚的データを捕捉するように図示される。左および右眼の視覚的データの捕捉は、互い違いにされるため、両眼の視覚的データを捕捉するための組み合わせられたサンプリングレートは、60Hzである(例えば、それぞれ、左眼に関する連続して捕捉および推定されるサンプルL1とL2との間の16.7msの持続時間によって示されるように)。有利なこととして、図8に図示されるアプローチは、図7Aのアプローチと比較して、サンプリングレートを2倍にすることができる。また、図8に図示されるアプローチは、図7Aのアプローチと比較して、眼毎のサンプリング待ち時間を半分に低減させることができる(推定されるサンプルに起因して)。加えて、図8に図示されるアプローチは、1つまたはそれを上回る眼追跡カメラのフレームレートの増加または電力消費の増加、コンピューティング速度の増加、コンピューティングリソースの使用量の増加(下記に説明されるように、視覚的データを推定するためのコンピューティングリソースのわずかな増加以外)、または同等物を必要としなくてもよい。
左および右眼は、強固に結合され得ることが観察されている。例えば、左および右眼の瞬目は、連動して生じ得る。別の実施例として、左および右眼のサッカードは、眼が、等しく、かつ同一方向に移動し得るように、連動して生じ得る。故に、種々の状況では、左および右眼の視線ベクトルの垂直成分は、同一であり得る。結果として、眼の視覚的データの推定(または予測)は、左眼と右眼(またはその逆)との間の差異が低速変動であり得るという、原理に基づいて実施されることができる。ある場合には、推定は、左および右眼の視覚的データ間の差異を決定することを伴い得る。決定された差異は、フィルタリングされ(例えば、平均すること等によって、低域通過フィルタを使用して)、続いて、その間、その眼の視覚的データが捕捉されない、時間インスタンス(図8における明色バーによって示される、時間インスタンスの間等)において、眼の視覚的データを推定するために使用されることができる。本アプローチを用いることで、左および右眼の垂直移動と水平移動間の差異が、考慮されることができる。
種々の実装では、推定は、左眼の視覚的データ間の差異と、右眼の視覚的データ間の差異とを決定することを伴い得る。差異値は、個別の眼の過去の視覚的データサンプルから決定されることができる。差異値は、左眼および右眼の視線ベクトルの水平成分間の差異を示し得る。いくつかの実装では、決定された差異値は、フィルタリング(例えば、平均)されることができる。続いて、差異またはフィルタリングされた差異値は、左および右眼の視覚的データ間の差異を決定するために使用されることができる(例えば、方程式(1a)および(2a)に提供されるように)。右眼に関する視覚的データは、左眼の視覚的データと、左および右眼の視覚的データ間の差異とを使用して、推定されることができる(例えば、方程式1(b)に提供されるように)。同様に、左眼に関する視覚的データは、右眼の視覚的データと、左および右眼の視覚的データ間の差異とを使用して、推定されることができる(例えば、方程式2(b)に提供されるように)。右および左眼に関する視覚的データの推定はまた、いくつかの実装では、予測フィルタを使用することを伴い得る。
実施例として、視覚的データは、時間インスタンスn=[0、1、2、3、...、N]において捕捉されることができる。左眼の視覚的データは、偶数時間インスタンスにおいて捕捉され、セットL[n]によって表されることができる。右眼の視覚的データは、奇数時間インスタンスにおいて捕捉され、セットR[n]によって表されることができる。ある場合には、右眼の視覚的データは、偶数時間インスタンスにおいて捕捉されることができ、左眼の視覚的データは、奇数時間インスタンスにおいて捕捉されることができる。2つの眼の視覚的データ間の差異は、セットD[n]によって表され得る。例えば、いくつかの実装では、偶数時間インスタンス(その間、左眼の視覚的データは、捕捉される一方、右眼の視覚的データは、捕捉されない)にわたって、右眼に関する視覚的データR’[n]は、以下のように推定されることができる。
D[n]=(L[n]+L[n-2])/2-R[n-1] (1a)
R’[n]=L[n]-D[n] (1b)
奇数時間インスタンス(その間、右眼の視覚的データは、捕捉される一方、左眼の視覚的データは、捕捉されない)にわたって、左眼に関する視覚的データL’[n]は、以下のように推定されることができる。
D[n]=L[n-1]-(R[n]+R[n-2])/2 (2a)
L’[n]=R[n]+D[n] (2b)
故に、上記に説明されるように、特定の時間の間の第1の眼(例えば、左眼)に関する視覚的データは、特定の時間(例えば、tn)の間に捕捉された第2の眼(例えば、右眼)の視覚的データから推定されることができる。本実施例では、特定の時間(tn)は、3つの時間インスタンス(tn、tnー1、tn-2)のシーケンスにおける、第3の時間であってもよい。本第3の時間tnは、第2の時間tn-1の直前であってもよく、これは、第1の時間tnー2の直前である。いくつかの実装では、上記に議論されるように、第3の時間tnの間の第1の眼(例えば、左眼)に関する視覚的データは、先行時間(例えば、tnー1)の間に捕捉された第1の眼(例えば、左眼)に関する視覚的データと、現在の時間(例えば、第3の時間tn)の間に捕捉された第2の眼(例えば、右眼)に関するビデオデータと、ビデオデータが第2の眼に関して捕捉された先行時間、例えば、第1の時間tn-2との平均とから推定されることができる。いくつかの実装では、例えば、第3の時間tnの間の第1の眼(例えば、左眼)に関する視覚的データは、先行時間(例えば、tn-1)の間に捕捉された第1の眼(例えば、左眼)に関する視覚的データと第2の眼に関するビデオデータの本平均との間の差異から推定されることができる。いくつかの実装では、例えば、差異は、1)第3の時間tnと、その間、ビデオデータが第2の眼に関して捕捉された、先行時間に対応する、第1の時間tn-2との間に捕捉された第2の眼の平均された視覚的データと、2)先行時間tn-1(例えば、眼の視覚的データを捕捉するための第3の時間tnの直前の時間)の間に捕捉された第1の眼に関する視覚的データとの間の差異として、決定されることができる。本差異は、特定の時間tnの間に捕捉された第2の眼(例えば、右眼)の視覚的データと組み合わせられ、特定の時間の間の第1の眼(例えば、左眼)に関する視覚的データを推定することができる。いくつかの実装では、平均は、低域通過フィルタリングに寄与することができる。平均は、低域通過フィルタを適用することを表し得る(例えば、雑音に起因する誤差を除去または限定するために)。当然ながら、本アプローチは、ビデオデータが左眼に関して捕捉された時間の間の右眼に関する視覚的データを推定するためにも適用されることができる。同様に、左眼が、第1の眼であってもよく、右眼が、第2の眼であってもよい、または右眼が、第1の眼であってもよく、左眼が、第2の眼であってもよい。図8に図示されるように、種々の実装では、左および右眼は、それに関して、眼追跡システムが一連の時間インスタンスを通して進行するにつれて、ビデオデータが収集され、ビデオデータが推定される、眼として、交互するであろう。
いくつかの実装では、視覚的データの付加的サンプルが、推定のために使用されることができる。例えば、眼の視覚的データを捕捉するための1つまたは2つの時間インスタンスの直前の時間よりさらに遡った視覚的データのサンプルも、使用されることができる。より多くのサンプルを推定にを含むことは、潜在的に、推定の正確度を改良することができる。故に、2つを上回る時間インスタンスにわたる平均が、いくつかの実装では、使用されてもよい。推定するための他の方法もまた、採用されてもよい。ある場合には、例えば、カルマンフィルタ、機械学習、深層学習等が、推定のために使用されることができる。
いくつかの実装では、推定問題は、概して、視覚的データL’[n]およびR’[n]を、個別の眼追跡カメラによって交互に捕捉される、視覚的データの以前のサンプル、例えば、L[n]、R[n-1]、L[n-2]、R[n-3]、L[n-4]等のうちの任意の1つまたはそれを上回るものから推定する方法として述べられることができる。捕捉された視覚的データサンプルは、幾分、雑音があり得る。推定問題は、特に、雑音の性質および/または視線ベクトルの周波数成分が既知である場合、カルマンフィルタを使用して、解法されることができる。カルマンフィルタは、個別の眼追跡カメラが眼の視覚的データを捕捉しないとき、左および右眼の視線ベクトルの同時確率分布を推定し、同時確率に基づいて、1つまたはそれを上回る時間インスタンスにおける、左および/または右眼の視覚的データを推定するために使用されることができる。カルマンフィルタは、推定および雑音除去を実施することができる。
ある場合には、機械学習および/または深層学習が、視覚的データを推定するために使用されることができる。視覚的データL’[n]およびR’[n]を推定するためのネットワーク(ニューラルネットワーク等)が、作成されることができる。ネットワークは、両眼に関して同時に捕捉された、視覚的データの1つまたはそれを上回るデータセットを使用して、訓練されることができる。そのような1つまたはそれを上回るデータセットは、大量のデータを含み得る。続いて、訓練されたネットワークは、視覚的データを、個別の眼追跡カメラによって交互に捕捉された、以前の視覚的データサンプル、例えば、L[n]、R[n-1]、L[n-2]、R[n-3]、L[n-4]等のうちの任意の1つまたはそれを上回るものから推定するために使用されることができる。
実験結果は、左および右眼の両方に関する、例えば、30Hzサンプリングレートにおける交互サンプリング(方程式(1a)-(1b)および(2a)-(2b)を使用する、推定を伴う)が、図7Aに図示されるような30Hzにおける眼のそれぞれのサンプリングと比較して、イベントを検出することに関する誤差の少なくとも32%の減少、サッカード検出に関するサンプリング待ち時間の少なくとも50%の低下、瞬目検出に関するサンプリング待ち時間の少なくとも50%の低下、または同等物をもたらし得ることを示す。これらの改良は、図7Bに図示されるような交互サンプリングを伴わない、60Hzにおける眼のそれぞれのサンプリングに匹敵し得る。類似改良は、眼毎に60Hzのサンプリングレートにおける交互サンプリングを使用するとき(両眼に関する120Hzの組み合わせられたサンプリングレートを伴う)と、眼毎に120Hzのサンプリングレートにおける交互サンプリングを使用するとき(両眼に関する240Hzの組み合わせられたサンプリングレートを伴う)にも取得されている。
図9は、交互サンプリングを使用した、複数の眼追跡カメラを用いた両眼の視覚的データの捕捉を図示する、グラフ900である。グラフ900は、各眼あたり2つの眼追跡カメラが視覚的データを捕捉することを除き、図8のグラフ800に類似する。例えば、第1の眼追跡カメラは、眼の片側上(こめかみ側上等)に位置付けられることができ、第2の眼追跡カメラは、眼の他側上(眼の鼻側上等)に位置付けられることができる。他の位置も、可能性として考えられる。例えば、第1のカメラは、前額により近い、眼の上方にあることができ、第2のカメラは、頬により近い、眼の下方にあることができる。故に、眼毎に2つの眼追跡カメラが、2つの眼に関する合計4つの眼追跡カメラのために使用されることができる。
図9では、左眼のための両方の眼追跡カメラおよび右眼のための両方の眼追跡カメラは、眼毎に視覚的データを交互に捕捉するように構成される。そして、左眼のための眼追跡カメラもまた、右眼の眼追跡カメラと交互するように構成される。故に、本実施例では、4つのカメラ(左眼のために2つおよび右眼のために2つ)が、眼毎に視覚的データを交互に捕捉するように構成される。例えば、示されるように、左眼に関する視覚的データ(FL1)が、初期時間(t1等)において、左眼をからより遠く(左こめかみ側、左鼻側、または本明細書に説明されるような別の位置等)に位置付けられ得る、第1の左眼追跡カメラによって捕捉される。そのような時間の間、左眼に関する視覚的データは、左眼のより近く(左鼻側、左こめかみ側、または本明細書に説明されるような別の位置等)に位置付けられ得る、第2の左眼追跡カメラによって捕捉されず、右眼に関する視覚的データも、捕捉されない。次の時間(t2等)において、左眼に関する視覚的データ(L2)が、第2の左眼追跡カメラによって捕捉される。そのような時間の間、左眼に関する視覚的データは、第1の左眼追跡カメラによって捕捉されず、右眼に関する視覚的データも、捕捉されない。次の時間(t3等)において、右眼に関する視覚的データ(FR3)が、右眼からより遠く(右側のこめかみ側、右鼻側、または本明細書に説明されるような別の位置等)に位置付けられ得る、第1の右眼追跡カメラによって捕捉される。そのような時間の間、左眼に関する視覚的データは、捕捉されず、右眼に関する視覚的データも、右眼のより近く(右側の鼻側、右こめかみ側、または本明細書に説明されるような別の位置等)に位置付けられ得る、第2の右眼追跡カメラによって捕捉されない。次の時間(t4等)において、右眼に関する視覚的データ(FR4)が、第2の右眼追跡カメラによって捕捉される。そのような時間の間、左眼に関する視覚的データは、捕捉されず、右眼に関する視覚的データも、第1の眼追跡カメラによって捕捉されない。図9に図示されるように、本プロセスは、後続時間インスタンスt5、t6、t7、t8等にわたって、継続することができる。カメラがビデオデータを捕捉する、配列および順序は、異なり得、時間に伴って変動し得る。他の変形例も、可能性として考えられる。
結果として、眼毎の1つまたはそれを上回る眼追跡カメラは、視覚的データの捕捉を交互する。図9に図示される実施例では、4つのサンプリングインターバルが、採用され、4つの眼追跡カメラを使用して、両方の眼に関する完全な視覚的データセットを捕捉する。例えば、各眼追跡カメラが、30fpsのフレームレート(または30Hzのサンプリングレート)で動作することを前提として、4つの眼追跡カメラによって、両方の眼の視覚的データを捕捉するための組み合わせられたフレームレートは、図示される実施例では、240fps(または240Hz)である。
図8と同様に、グラフ900では、暗色バーは、左および右眼に関する1つまたはそれを上回る眼追跡カメラによって捕捉される、視覚的データを表す。グラフ900内の明色バーは、左および右眼に関する視覚的データの推定を表す。視覚的データの推定は、本明細書に説明されるアプローチのいずれかと同様に、および可能性として、他のアプローチを使用して、実施されることができる。眼毎の複数の眼追跡カメラは、眼あたり1つの眼追跡カメラより多くの視覚的データサンプルを捕捉することができる。例えば、視覚的データサンプルFL[n]、L[n-1]、FR[n-3]、R[n-4]、FL[n-5]等が、図9に図示されるように、複数の眼追跡カメラによって捕捉されることができる。捕捉された視覚的データサンプルは、各サンプルの正確度が、異なり、かつ経時的に変動し得るように、異なる雑音性質を有し得る。例えば、ユーザが、左の遠くを見ている場合、左鼻側に位置付けられる眼追跡カメラは、左眼のクリアなビューを有していない場合があり、これは、そのようなカメラによって捕捉された雑音のある視覚的データサンプルをもたらし得る。しかしながら、左こめかみ側に位置付けられる眼追跡カメラは、左眼のクリアなビューを有し、結果として、左眼のより雑音が少ない視覚的データサンプルを捕捉し得る。左こめかみ側に位置付けられる眼追跡カメラによって捕捉された視覚的データサンプルは、例えば、右眼の視覚的データ(R’[n]またはFR’[n]等)を推定するために使用されることができる。
例示的眼追跡のための方法
図10は、眼追跡のための例示的方法1000を図示する、フローチャートである。方法1000は、ウェアラブルディスプレイシステム200、400、または600の実装によって、例えば、図6を参照して説明される眼追跡システム601または他の構成を使用して、実施されることができる。方法1000の種々の実装では、下記に説明されるブロックは、任意の好適な順序またはシーケンスで実施されることができ、ブロックは、省略される、組み合わせられる、または再配列されることができる、他のブロックが、追加されることができる、または任意のこれらの組み合わせであることができる。
ブロック1010では、方法1000は、1つまたはそれを上回る眼追跡カメラを使用して、左眼(または、ある場合には、右眼)の視覚的データを捕捉することができる。ブロック1020では、方法1000は、1つまたはそれを上回る眼追跡カメラを使用して、右眼(または、ある場合には、左眼)の視覚的データを捕捉することができる。本明細書に説明されるように、1つまたはそれを上回る眼追跡カメラは、右および左眼の視覚的データの捕捉を交互させることができる。結果として、ブロック1010では、右眼の視覚的データは、捕捉されなくてもよい。同様に、ブロック1020では、左眼の視覚的データは、捕捉されなくてもよい。図8を参照すると、例えば、ブロック1010は、時間t1に対応し得、ブロック1020は、時間t2に対応し得る。
ブロック1030では、方法1000は、その間、左眼の視覚的データが、1つまたはそれを上回る眼追跡カメラによって捕捉されない、1つまたはそれを上回る時間インスタンスにおいて、左眼の視覚的データを推定することができる。ブロック1040では、方法1000は、その間、右眼の視覚的データが、1つまたはそれを上回る眼追跡カメラによって捕捉されない、1つまたはそれを上回る時間インスタンスにおいて、右眼の視覚的データを推定することができる。本明細書に説明される推定技法のいずれかが、方法1000によって利用されることができる。
ブロック1050では、方法1000は、推定される視覚的データおよび/または捕捉された視覚的データに基づいて、左および/または右眼の眼移動(または姿勢)を決定することができる。ビデオデータを収集するおよび/または推定のためのデータ捕捉の1つまたはそれを上回る反復は、繰り返され、眼移動を決定するために使用されてもよい。ウェアラブルディスプレイシステムの1つまたはそれを上回るプロセッサは、本明細書に説明されるように、推定される視覚的データおよび/または捕捉された視覚的データを分析し、眼追跡のための閃光の位置および移動を決定することができる。本明細書に解説されるように、眼追跡は、ユーザへの提示のために仮想コンテンツをレンダリングする方法を決定することを補助することができる。ある場合には、眼追跡は、眼に関する眼姿勢を別個に決定し、それによって、個別の眼への仮想コンテンツの提示がその眼に対して動的に調整されることを可能にしてもよい。
付加的実施例
実施例1.ウェアラブルディスプレイシステムであって、
光を頭部搭載型ディスプレイの装着者の眼に出力することによって、仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、
光を装着者の眼に向かって指向させるように構成される、少なくとも1つの光源と、
第1のサンプリングレートにおいて、装着者の右眼の第1の複数の視覚的データを捕捉するように構成される、右眼追跡カメラと、
第2のサンプリングレートにおいて、装着者の左眼の第2の複数の視覚的データを捕捉するように構成される、左眼追跡カメラであって、第2の複数の視覚的データは、第1の複数の視覚的データと異なるサンプリング時間の間に捕捉される、左眼追跡カメラと、
頭部搭載型ディスプレイおよび右および左眼追跡カメラに通信可能に結合される、処理電子機器であって、処理電子機器は、
第1および第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、その間、第1の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、右眼の視覚的データを推定し、
第1および第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、その間、第2の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、左眼の視覚的データを推定し、
右または左眼のうちの少なくとも1つの眼移動を決定し、右眼の眼移動の決定は、右眼の推定される視覚的データの少なくともいくつかおよび右眼の第1の複数の視覚的データの少なくともいくつかの視覚的データに基づき、左眼の眼移動の決定は、左眼の推定される視覚的データの少なくともいくつかおよび左眼の第2の複数の視覚的データの少なくともいくつかの視覚的データに基づき、
頭部搭載型ディスプレイに、右または左眼のうちの少なくとも1つの眼移動に基づいて、仮想コンテンツを提示させる、
ように構成される、処理電子機器と、
を備える、ウェアラブルディスプレイシステム。
実施例2.少なくとも1つの光源は、赤外線光源を備える、実施例1に記載のウェアラブルディスプレイシステム。
実施例3.少なくとも1つの光源は、光を左眼に向かって指向させるように構成される、第1の光源と、光を右眼に向かって指向させるように構成される、第2の光源とを備える、実施例1または実施例2に記載のウェアラブルディスプレイシステム。
実施例4.右および左眼追跡カメラの組み合わせられたサンプリングレートは、第1および第2のサンプリングレートの総計を備える、実施例1-3のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例5.第1のサンプリングレートは、第2のサンプリングレートに等しい、実施例1-4のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例6.右および左眼追跡カメラは、第1および第2の複数の視覚的データの捕捉を交互させるように構成される、実施例1-5のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例7.第1および第2のサンプリングレートは、30Hzを備える、実施例1-6のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例8.右および左眼追跡カメラの組み合わせられたサンプリングレートは、60Hzを備える、実施例7に記載のウェアラブルディスプレイシステム。
実施例9.処理電子機器は、右眼の第1の複数の視覚的データの視覚的データと左眼の第2の複数の視覚的データの視覚的データとの間の差異の決定に基づいて、右眼または左眼の視覚的データを推定するように構成される、実施例1-8のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例10.処理電子機器はさらに、
推定される視覚的データのサンプリング時間の間に捕捉される、左眼の第2の複数の視覚的データの視覚的データと、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、右眼の第1の複数の視覚的データの視覚的データとの間の第1の差異に基づいて、右眼の視覚的データを推定し、
推定される視覚的データのサンプリング時間の間に捕捉される、右眼の第1の複数の視覚的データの視覚的データと、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、左眼の第2の複数の視覚的データの視覚的データとの間の第2の差異に基づいて、左眼の視覚的データを推定する、
ように構成される、実施例9に記載のウェアラブルディスプレイシステム。
実施例11.処理電子機器はさらに、
差異と、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、右眼の第1の複数の視覚的データの視覚的データとに基づいて、右眼の視覚的データを推定し、
差異と、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、左眼の第2の複数の視覚的データの視覚的データとに基づいて、左眼の視覚的データを推定する、
ように構成される、実施例9-10のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例12.処理電子機器はさらに、差異をフィルタリングすることに基づいて、右または左眼の視覚的データを推定するように構成される、実施例9-11のいずれか1項に記載のウェアラブルディスプレイシステム。
実施例13.差異をフィルタリングすることは、平均することを含む、実施例12に記載のウェアラブルディスプレイシステム。
実施例14.眼追跡のための方法であって、
第1のカメラを用いて、第1のサンプリングレートにおいて、右眼の第1の複数の視覚的データを捕捉することと、
第2のカメラを用いて、第2のサンプリングレートにおいて、左眼の第2の複数の視覚的データを捕捉することであって、第2の複数の視覚的データは、第1の複数の視覚的データと異なるサンプリング時間の間に捕捉される、ことと、
処理電子機器によって、
その間、それに関して視覚的データが推定されている、眼の視覚的データが、捕捉されていない、サンプリング時間において、第1および第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、右または左眼のうちの少なくとも1つの視覚的データを推定することと、
推定される視覚的データの少なくともいくつかおよび第1または第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、眼の眼移動を決定することと、
を含む、方法。
実施例15.処理電子機器によって、ディスプレイに、少なくとも部分的に、眼移動に基づいて、仮想コンテンツをレンダリングさせることをさらに含む、実施例14に記載の方法。
実施例16.眼移動を決定することは、
右眼の推定される視覚的データの少なくともいくつかおよび右眼の第1の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、右眼の眼移動を決定することと、
左眼の推定される視覚的データの少なくともいくつかおよび左眼の第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、左眼の眼移動を決定することと、
を含む、実施例14-15のうちのいずれか1項に記載の方法。
実施例17.第1および第2のカメラの組み合わせられたサンプリングレートは、第1および第2のサンプリングレートの総計を備える、実施例14-16のうちのいずれか1項に記載の方法。
実施例18.第1のサンプリングレートは、第2のサンプリングレートに等しい、実施例14-17のうちのいずれか1項に記載の方法。
実施例19.第1のカメラおよび第2のカメラは、交互に、第1および第2の複数の視覚的データを捕捉する、実施例14-18のうちのいずれか1項に記載の方法。
実施例20.第1および第2のサンプリングレートは、30Hzを備える、実施例14-18のうちのいずれか1項に記載の方法。
実施例21.第1および第2のカメラの組み合わせられたサンプリングレートは、60Hzを備える、実施例19に記載の方法。
実施例22.視覚的データを推定することは、右眼の第1の複数の視覚的データの視覚的データと左眼の第2の複数の視覚的データの視覚的データとの間の差異を決定することを含む、実施例14-21のうちのいずれか1項に記載の方法。
実施例23.
右眼の視覚的データを推定することは、推定される視覚的データのサンプリング時間の間に捕捉される、左眼の第2の複数の視覚的データの視覚的データと、推定される視覚的データのサンプリング時間に先立ったサンプリング時間の間に捕捉される、右眼の第1の複数の視覚的データの視覚的データとの間の第1の差異を決定することを含み、
左眼の視覚的データを推定することは、推定される視覚的データのサンプリング時間の間に捕捉される、右眼の第1の複数の視覚的データの視覚的データと、推定される視覚的データのサンプリング時間に先立ったサンプリング時間の間に捕捉される、左眼の第2の複数の視覚的データの視覚的データとの間の第2の差異を決定することを含む、
実施例22に記載の方法。
実施例24.
右眼の第1の複数の視覚的データの視覚的データのサンプリング時間は、推定される視覚的データのサンプリング時間の直前であって、
左眼の第2の複数の視覚的データの視覚的データのサンプリング時間は、推定される視覚的データのサンプリング時間の直前である、
実施例23に記載の方法。
実施例25.処理電子機器によって、
差異と、推定される視覚的データのサンプリング時間に先立ったサンプリング時間の間に捕捉される、右眼の第1の複数の視覚的データの視覚的データとに基づいて、右眼の視覚的データを推定することと、
差異と、推定される視覚的データのサンプリング時間に先立ったサンプリング時間の間に捕捉される、左眼の第2の複数の視覚的データの視覚的データとに基づいて、左眼の視覚的データを推定することと、
をさらに含む、実施例22-24のうちのいずれか1項に記載の方法。
実施例26.
右眼の第1の複数の視覚的データの視覚的データのサンプリング時間は、推定される視覚的データのサンプリング時間の直前であって、
左眼の第2の複数の視覚的データの視覚的データのサンプリング時間は、推定される視覚的データのサンプリング時間の直前である、
実施例25に記載の方法。
実施例27.低域通過フィルタによって、差異をフィルタリングすることをさらに含む、実施例22-26のうちのいずれか1項に記載の方法。
実施例28.眼追跡システムであって、
第1のサンプリングレートにおいて、ユーザの右眼の第1の複数の視覚的データを捕捉するように構成される、第1のカメラと、
第2のサンプリングレートにおいて、ユーザの左眼の第2の複数の視覚的データを捕捉するように構成される、第2のカメラであって、第2の複数の視覚的データは、第1の複数の視覚的データと異なるサンプリング時間の間に捕捉される、第2のカメラと、
第1および第2のカメラに通信可能に結合される、処理電子機器であって、処理電子機器は、
その間、それに関して視覚的データが推定されている、眼の視覚的データが、捕捉されていない、サンプリング時間において、第1および第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、右または左眼のうちの少なくとも1つの視覚的データを推定し、
推定される視覚的データの少なくともいくつかおよび第1または第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、眼の眼移動を決定する、
ように構成される、処理電子機器と、
を備える、眼追跡システム。
実施例29.処理電子機器は、
右眼の推定される視覚的データの少なくともいくつかおよび右眼の第1の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、右眼の眼移動を決定し、
左眼の推定される視覚的データの少なくともいくつかおよび左眼の第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、左眼の眼移動を決定する、
ように構成される、実施例28に記載の眼追跡システム。
実施例30.第1および第2のカメラの組み合わせられたサンプリングレートは、第1および第2のサンプリングレートの総計を備える、実施例28-29のうちのいずれか1項に記載の眼追跡システム。
実施例31.第1のサンプリングレートは、第2のサンプリングレートに等しい、実施例28-30のうちのいずれか1項に記載の眼追跡システム。
実施例32.第1および第2のカメラは、第1および第2の複数の視覚的データの捕捉を交互させるように構成される、実施例28-31のうちのいずれか1項に記載の眼追跡システム。
実施例33.第1および第2のサンプリングレートは、30Hzを備える、実施例28-32のうちのいずれか1項に記載の眼追跡システム。
実施例34.第1および第2のカメラの組み合わせられたサンプリングレートは、60Hzを備える、実施例33に記載の眼追跡システム。
実施例35.処理電子機器は、右眼の第1の複数の視覚的データの少なくとも1つの視覚的データと左眼の第2の複数の視覚的データの少なくとも1つの視覚的データとの間の差異の決定に基づいて、視覚的データを推定するように構成される、実施例28-34のうちのいずれか1項に記載の眼追跡システム。
実施例36.処理電子機器はさらに、
推定される視覚的データのサンプリング時間の間に捕捉される、左眼の第2の複数の視覚的データの視覚的データと、推定される視覚的データのサンプリング時間に先立ったサンプリング時間の間に捕捉される、右眼の第1の複数の視覚的データの視覚的データとの間の第1の差異の決定に基づいて、右眼の視覚的データを推定し、
推定される視覚的データのサンプリング時間の間に捕捉される、右眼の第1の複数の視覚的データの視覚的データと、推定される視覚的データのサンプリング時間に先立ったサンプリング時間の間に捕捉される、左眼の第2の複数の視覚的データの視覚的データとの間の第2の差異の決定に基づいて、左眼の視覚的データを推定する、
ように構成される、実施例35に記載の眼追跡システム。
実施例37.
右眼の第1の複数の視覚的データの視覚的データのサンプリング時間は、推定される視覚的データのサンプリング時間の直前であって、
左眼の第2の複数の視覚的データの視覚的データのサンプリング時間は、推定される視覚的データのサンプリング時間の直前である、
実施例36に記載の眼追跡システム。
実施例38.処理電子機器はさらに、
差異と、推定される視覚的データのサンプリング時間に先立ったサンプリング時間の間に捕捉される、右眼の第1の複数の視覚的データの視覚的データとに基づいて、右眼の視覚的データを推定し、
差異と、推定される視覚的データのサンプリング時間に先立ったサンプリング時間の間に捕捉される、左眼の第2の複数の視覚的データの視覚的データとに基づいて、左眼の視覚的データを推定する、
ように構成される、実施例35-37のうちのいずれか1項に記載の眼追跡システム。
実施例39.
右眼の第1の複数の視覚的データの視覚的データのサンプリング時間は、推定される視覚的データのサンプリング時間の直前であって、
左眼の第2の複数の視覚的データの視覚的データのサンプリング時間は、推定される視覚的データのサンプリング時間の直前である、
実施例38に記載の眼追跡システム。
実施例40.処理電子機器はさらに、低域通過フィルタを使用して、差異をフィルタリングすることに基づいて、右または左眼の視覚的データを推定するように構成される、実施例35-39のうちのいずれか1項に記載の眼追跡システム。
実施例41.実施例28-40のうちのいずれか1項に記載の眼追跡システムと、仮想コンテンツを提示するように構成される、ディスプレイとを備える、ウェアラブルディスプレイシステムであって、処理電子機器は、ディスプレイに通信可能に結合され、さらに、ディスプレイに、眼移動に基づいて、仮想コンテンツを提示させるように構成される、ウェアラブルディスプレイシステム。
実施例42.頭部搭載型ディスプレイを備える、実施例41に記載のウェアラブルディスプレイシステム。
実施例43.ウェアラブルディスプレイシステムであって、
装着者の頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、光を装着者の眼に出力することによって、仮想画像コンテンツを装着者に提示するように構成される、ディスプレイと、
装着者の右眼の第1の複数の視覚的データを捕捉するように構成される、右眼追跡カメラと、
装着者の左眼の第2の複数の視覚的データを捕捉するように構成される、左眼追跡カメラと、
を備え、第2の複数の視覚的データは、第1の複数の視覚的データと異なるサンプリング時間の間に捕捉され、該左眼追跡カメラは、該右眼追跡カメラが視覚的データを捕捉している期間の間、視覚的データを捕捉せず、該右眼追跡カメラは、該左眼追跡カメラが視覚的データを捕捉している期間の間、視覚的データを捕捉しない、ウェアラブルディスプレイシステム。
実施例44.光を装着者の眼に向かって指向させるように構成される、少なくとも1つの光源をさらに備える、実施例43に記載のウェアラブルディスプレイシステム。
実施例45.少なくとも1つの光源は、赤外線光源を備える、実施例44に記載のウェアラブルディスプレイシステム。
実施例46.少なくとも1つの光源は、光を左眼に向かって指向させるように構成される、第1の光源と、光を右眼に向かって指向させるように構成される、第2の光源とを備える、実施例44-45のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例47.右および左眼追跡カメラの組み合わせられたサンプリングレートは、左および右眼追跡カメラのサンプリングレートの総計を備える、実施例43-46のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例48.左眼追跡カメラのサンプリングレートは、右眼追跡カメラのサンプリングレートに等しい、実施例47に記載のウェアラブルディスプレイシステム。
実施例49.左および右眼追跡カメラのサンプリングレートは、30Hzを備える、実施例48に記載のウェアラブルディスプレイシステム。
実施例50.左および右眼追跡カメラの組み合わせられたサンプリングレートは、60Hzを備える、実施例49に記載のウェアラブルディスプレイシステム。
実施例51.右および左眼追跡カメラは、第1および第2の複数の視覚的データの捕捉を交互させるように構成される、実施例43-50のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例52.頭部搭載型ディスプレイおよび右および左眼追跡カメラに通信可能に結合される、処理電子機器をさらに備える、実施例43または51のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例53.処理電子機器は、その間、第1の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、右眼の視覚的データを推定し、その間、第2の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、左眼の視覚的データを推定するように構成される、実施例52に記載のウェアラブルディスプレイシステム。
実施例54.処理電子機器は、
少なくともいくつかの視覚的データに基づいて、その間、第1の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、右眼の視覚的データを推定し、
少なくともいくつかの視覚的データに基づいて、その間、第2の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、左眼の視覚的データを推定する、
ように構成される、実施例52または53のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例55.処理電子機器は、第1および第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、その間、第1の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、右眼の視覚的データを推定し、
第1および第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、その間、第2の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、左眼の視覚的データを推定する、
ように構成される、実施例52-54のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例56.処理電子機器は、捕捉された視覚的データを使用して、右または左眼のうちの少なくとも1つの眼移動を決定するように構成される、実施例52-55のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例57.処理電子機器は、右または左眼のうちの少なくとも1つの眼移動を決定するように構成され、右眼の眼移動の決定は、右眼の少なくともいくつかの推定される視覚的データと、右眼の第1の複数の視覚的データの少なくともいくつかの視覚的データとに基づき、左眼の眼移動の決定は、左眼の少なくともいくつかの推定される視覚的データと、左眼の第2の複数の視覚的データの少なくともいくつかの視覚的データとに基づく、実施例52-56のいずれかに記載のウェアラブルディスプレイシステム。
実施例58.処理電子機器は、第1の複数の視覚的データの視覚的データと第2の複数の視覚的データの視覚的データとの間の差異の決定に基づいて、その間、第1の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、右眼の視覚的データを推定し、その間、第2の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、左眼の視覚的データを推定するように構成される、実施例52-57のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例59.処理電子機器はさらに、
推定される視覚的データのサンプリング時間の間に捕捉される第2の複数の視覚的データの視覚的データと、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、第1の複数の視覚的データの視覚的データとの間の第1の差異に基づいて、右眼の視覚的データを推定し、推定される視覚的データのサンプリング時間の間に捕捉される、第1の複数の視覚的データの視覚的データと、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、第2の複数の視覚的データの視覚的データとの間の第2の差異に基づいて、左眼の視覚的データを推定する、
ように構成される、実施例58に記載のウェアラブルディスプレイシステム。
実施例60.処理電子機器はさらに、
差異と、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、第1の複数の視覚的データの視覚的データとに基づいて、右眼の視覚的データを推定し、
差異と、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、第2の複数の視覚的データの視覚的データとに基づいて、左眼の視覚的データを推定する、
ように構成される、実施例58-59のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例61.処理電子機器はさらに、差異をフィルタリングすることに基づいて、右または左眼の視覚的データを推定するように構成される、実施例58-60のいずれかに記載のウェアラブルディスプレイシステム。
実施例62.差異をフィルタリングすることは、平均することを含む、実施例61に記載のウェアラブルディスプレイシステム。
実施例63.ウェアラブルディスプレイシステムであって、
光を頭部搭載型ディスプレイの装着者の眼に出力することによって、仮想コンテンツを提示するように構成される、頭部搭載型ディスプレイと、
装着者の右眼の第1の複数の視覚的データを捕捉するように構成される、右眼追跡カメラと、
装着者の左眼の第2の複数の視覚的データを捕捉するように構成される、左眼追跡カメラと、
頭部搭載型ディスプレイおよび右および左眼追跡カメラに通信可能に結合される、処理電子機器であって、処理電子機器は、
少なくともいくつかの視覚的データに基づいて、右眼の視覚的データを推定し、
少なくともいくつかの視覚的データに基づいて、左眼の視覚的データを推定する、
ように構成される、処理電子機器と、
を備える、ウェアラブルディスプレイシステム。
実施例64.光を装着者の眼に向かって指向させるように構成される、少なくとも1つの光源をさらに備える、実施例63に記載のウェアラブルディスプレイシステム。
実施例65.少なくとも1つの光源は、赤外線光源を備える、実施例64に記載のウェアラブルディスプレイシステム。
実施例66.少なくとも1つの光源は、光を左眼に向かって指向させるように構成される、第1の光源と、光を右眼に向かって指向させるように構成される、第2の光源とを備える、実施例64-65のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例67.右および左眼追跡カメラの組み合わせられたサンプリングレートは、左および右眼追跡カメラのサンプリングレートの総計を備える、実施例63-66のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例68.左眼追跡カメラのサンプリングレートは、右眼追跡カメラのサンプリングレートに等しい、実施例67に記載のウェアラブルディスプレイシステム。
実施例69.左および右眼追跡カメラのサンプリングレートは、30Hzを備える、実施例68に記載のウェアラブルディスプレイシステム。
実施例70.左および右眼追跡カメラの組み合わせられたサンプリングレートは、60Hzを備える、実施例69に記載のウェアラブルディスプレイシステム。
実施例71.右および左眼追跡カメラは、第1および第2の複数の視覚的データの捕捉を交互させるように構成される、実施例63-70のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例72.処理電子機器は、その間、第1の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、右眼の視覚的データを推定し、その間、第2の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、左眼の視覚的データを推定するように構成される、実施例63または71のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例73.処理電子機器は、
第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、右眼の視覚的データを推定し、
第1の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、左眼の視覚的データを推定する、
ように構成される、実施例63-72のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例74.処理電子機器は、
第1の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、右眼の視覚的データを推定し、
第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、左眼の視覚的データを推定する、
ように構成される、
実施例63-73のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例75.処理電子機器は、
第1および第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、その間、第1の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間にわたって、右眼の視覚的データを推定し、
第1および第2の複数の視覚的データの少なくともいくつかの視覚的データに基づいて、その間、第2の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間にわたって、左眼の視覚的データを推定する、
ように構成される、実施例63または71のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例76.処理電子機器は、捕捉された視覚的データに基づいて、右または左眼のうちの少なくとも1つの眼移動を決定するように構成される、実施例63-75のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例77.処理電子機器は、右または左眼のうちの少なくとも1つの眼移動を決定するように構成され、右眼の眼移動の決定は、右眼の少なくともいくつかの推定される視覚的データと、右眼の第1の複数の視覚的データの少なくともいくつかの視覚的データとに基づき、左眼の眼移動の決定は、左眼の少なくともいくつかの推定される視覚的データと、左眼の第2の複数の視覚的データの少なくともいくつかの視覚的データとに基づく、実施例63-76のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例78.処理電子機器は、第1の複数の視覚的データの視覚的データと第2の複数の視覚的データの視覚的データとの間の差異の決定に基づいて、その間、第1の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、右眼の視覚的データを推定し、その間、第2の複数の視覚的データの視覚的データが捕捉されていない、サンプリング時間において、左眼の視覚的データを推定するように構成される、実施例63-77のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例79.処理電子機器はさらに、
推定される視覚的データのサンプリング時間の間に捕捉される、第2の複数の視覚的データの視覚的データと、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、第1の複数の視覚的データの視覚的データとの間の第1の差異に基づいて、右眼の視覚的データを推定し、
推定される視覚的データのサンプリング時間の間に捕捉される、第1の複数の視覚的データの視覚的データと、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、第2の複数の視覚的データの視覚的データとの間の第2の差異に基づいて、左眼の視覚的データを推定する、
ように構成される、実施例78に記載のウェアラブルディスプレイシステム。
実施例80.処理電子機器はさらに、
差異と、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、第1の複数の視覚的データの視覚的データとに基づいて、右眼の視覚的データを推定し、
差異と、推定される視覚的データのサンプリング時間の直前のサンプリング時間の間に捕捉される、第2の複数の視覚的データの視覚的データとに基づいて、左眼の視覚的データを推定する、
ように構成される、実施例78-79のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例81.処理電子機器はさらに、差異をフィルタリングすることに基づいて、右または左眼の視覚的データを推定するように構成される、実施例78-80のうちのいずれか1項に記載のウェアラブルディスプレイシステム。
実施例82.差異をフィルタリングすることは、平均することを含む、実施例81に記載のウェアラブルディスプレイシステム。
実施例83.先行実施例のいずれかに記載のシステムを使用および/または動作させる方法。
実施例84.図示および/または説明されるされるような装置および/または方法。
付加的考慮点
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つまたはそれを上回る物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得ることを理解されたい。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、またはインタープリタ型プログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つまたはそれを上回る物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、アニメーションまたはビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。加えて、AR、MR、VRウェアラブルデバイスのためのリアルタイム眼追跡は、算出上困難であって、本明細書に開示される眼追跡技法は、効率的CPU、GPU、ASIC、またはFPGAを利用してもよい。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つまたはそれを上回る実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、追加される、削除される、修正される、または別様に本明細書に提供される例証的実施例から変更されてもよい。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、いずれの特定のシーケンスにも限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそこから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証目的のためであり、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
本プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線または無線ネットワークまたは任意の他のタイプの通信ネットワークであり得る。
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
別個の実装の文脈において本明細書に説明されるある特徴はまた、単一の実装における組み合わせにおいて実装されることができる。逆に、単一の実装の文脈において説明される種々の特徴もまた、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つまたはそれを上回る特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要または必須ではない。
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つまたはそれを上回る実施形態に対していかようにも要求されること、または1つまたはそれを上回る実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるべきかどうかを決定するための論理を必然的に含むことを含意することを意図されない。用語「~を備える(comprising)」、「~を含む(including)」、「~を有する(having)」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つまたはそれを上回る」または「少なくとも1つ」を意味するように解釈されるべきである。
本明細書で使用されるように、項目のリスト「~のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図するものではない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、図面は、フローチャートの形態で1つまたはそれを上回る例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つまたはそれを上回る付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成し得る。