JP2016038889A - モーション感知を伴う拡張現実 - Google Patents
モーション感知を伴う拡張現実 Download PDFInfo
- Publication number
- JP2016038889A JP2016038889A JP2014164597A JP2014164597A JP2016038889A JP 2016038889 A JP2016038889 A JP 2016038889A JP 2014164597 A JP2014164597 A JP 2014164597A JP 2014164597 A JP2014164597 A JP 2014164597A JP 2016038889 A JP2016038889 A JP 2016038889A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- real world
- world space
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 101
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000005286 illumination Methods 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 18
- 230000010354 integration Effects 0.000 abstract description 4
- 238000004458 analytical method Methods 0.000 description 21
- 239000000872 buffer Substances 0.000 description 13
- 238000010191 image analysis Methods 0.000 description 13
- 238000000034 method Methods 0.000 description 13
- 230000003190 augmentative effect Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 241000270295 Serpentes Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】装着者を取り囲む環境を反映した実時間イメージストリームへの、仮想(例えば、計算の)情報の統合を正確に提供する。【解決手段】ヘッドマウント装置201は、ユーザに周囲の環境或いは仮想環境を表示する光学組立品203を備える。ヘッドマウント装置201にモーションキャプチャシステム200を組み込むことで、ユーザは、表示された環境をインタラクティブに制御可能となる。システム200は、感知処理システム206と接続するカメラ102,104を備える。対象領域212内で動く対象物214を含むとともに、種々の仮想物体216を含む仮想的に描写または仮想的に拡張された対象領域212の光景を見るために、カメラ102,104は、装置201の動きによって、対象領域212の一部に向けられる。1以上のセンサ208、210が装置201の動きを捉える。【選択図】図2
Description
開示する技術は、イメージセンサまたは他のセンサを用いて3次元(3D)感知空間内でのジェスチャを検出し、3D拡張現実をユーザに提示することのできる装着型の感知システムにおいて使用するための高機能且つ高精度の感知及びイメージング装置に関する。
グーグルグラス等の分類の装置は、ユーザが装着したシースルー型スクリーン上に情報を重畳して提示する能力を提供する。オキュラス・リフト等の他の分類の装置は、ユーザを取り囲む実世界からの情報の無いユーザに対して仮想現実表示を提供する。しかしながら、当該両分類の装置は、装着者を取り囲む環境を反映した実時間イメージストリームへの、仮想(例えば、計算の)情報の統合を正確に提供することができない。それゆえ、景色(scene)のイメージ情報を取得し、少なくともほぼ実時間(near real time)のイメージ情報のパススルー(pass−through)をユーザに提供することのできる高機能の感知及びイメージング装置が必要とされる。当該感知及びイメージング装置は、理想的には、仮想化または創出された情報の提示(presentaion)とともに、拡張されたイメージ情報を装着者に提示可能な装着型感知システムを作り出す装着型装置または可搬装置と接続され得る。このような能力を提供する装置は、これまで知られていない。
本開示技術の実施は、景色のイメージ情報を取得し、少なくともほぼ実時間のイメージ情報のパススルーをユーザに提供することのできるモーション感知及びイメージング装置を提供することにより、上記問題及びその他の問題に対処する。該モーション感知及びイメージング装置は、単独で、或いは、仮想化または創出された情報とともに、拡張されたイメージ情報を装着者に提示可能な装着型感知システムを作り出す装着型装置または可搬装置と接続して使用される。
モーション感知及びイメージング装置の一実施態様では、該装置は、眺められている景色の立体的なイメージ情報を提供するように配置された複数のイメージセンサと、前記イメージセンサの周辺に配置された1または複数の照明源と、前記イメージセンサ及び前記照明源に接続して、前記イメージセンサ及び前記照明源の動作を制御するコントローラを備える。前記コントローラは、前記装置が、前記景色のイメージ情報を取得し、少なくともほぼ実時間のイメージ情報のパススルーをユーザに提供することを可能にする。前記装置は、装着型装置と接続して、仮想化または創出された情報とともに、拡張されたイメージ情報を装着者に提示可能な装着型感知システムを作り出すことができる。
一実施態様では、モーション感知及びイメージング装置は、イメージセンサの見える範囲内の制御物体(人間の手などの制御物体を含む)ためのイメージ情報を取り込む。当該制御物体のための前記イメージ情報が、制御下の機械に対するコマンドを指示するジェスチャ情報を決定するために使用される。実施態様では、前記装置は、サブミリメートルの精度で、該装置の装着者の周りの物体の位置、姿勢、及び、動きを検出し、この情報を、該装着者に提供される提示に統合するために提供することができる。
一実施態様では、モーション感知及びイメージング装置は、赤外光に感応する画素から受信した情報を、可視光、例えば、RGB(赤、緑、青)に感応する画素から受信した情報と分離すること、ジェスチャの認識に使用するために、IR(赤外)センサからの情報を処理すること、及び、提示インターフェース(presentation interface)を介してライブビデオ供給として提供するために、RGBセンサからの情報を処理することが可能である。例えば、実世界中の景色の一連のイメージを含むビデオストリームが、RGB画素の集合及びIR(赤外)画素の集合を備えたカメラを用いて取り込まれる。赤外光に感応する画素から受信した情報は、ジェスチャを認識する処理のために分離される。RGBに感応する画素から受信した情報は、提示出力へのライブビデオ供給として、装着型装置(HUD、HMD等)の提示インターフェースに提供される。該提示出力は、装着型装置のユーザに対して表示される。前記提示出力を形成するために、1以上の仮想物体が、前記ビデオストリームイメージと統合され得る。従って、前記装置は、ジェスチャの認識、パススルービデオ供給を介して実世界物体の実世界提示、及び/または、実世界ビューと統合された仮想物体を含む拡張現実の何れを提供することも可能である。
一実施態様では、モーション感知及びイメージング装置は、前記カメラのRGB画素とIR画素を組み合わせて用い、前記装置自体の動きを探知するために使用できる。特に、このことは、RGB画素を用いて、実世界空間の全体または粗い特徴、及び、対応する特徴値を取得すること、及び、IR画素を用いて、実世界空間の細かなまたは正確な特徴、及び、対応する特徴値を取得することと関連する。一旦取得されると、前記景色の少なくとも1つの特徴に対する前記装着型感知システムのモーション情報が、異なる時間インスタンスで検知された特徴値の比較に基づいて決定される。例えば、実世界空間の特徴は、該実世界空間内の所定位置の物体であり、そして、その特徴値は、該実世界空間内の該物体の位置の3次元(3D)座標であり得る。何対かのイメージフレームまたは他のイメージボリュームの間で、位置座標の値が変化した場合、これは、イメージフレーム間で位置が変化した物体に対する装着型感知システムのモーション情報を決定するのに使用できる。
別の例として、実世界空間の特徴は、実世界空間内の壁であり、その対応する特徴値は、装着型感知システムで動作するビューアによって感知される前記壁の方向である。この例では、前記壁の方向の変化が、該装着型感知システムに電気的に接続するカメラによって取り込まれた連続するイメージフレーム間で登録された場合、このことは、前記壁を見る該装着型感知システムの位置の変化を示していると言える。
一実施態様に応じて、カメラのRGB画素からの情報が、実世界内の物体の輪郭、形状、容積モデル、骨格モデル、シルエット、全体的な配置、及び/または、構造等のイメージまたは一連のイメージから得られる物体の顕著な、或いは、全体の特徴とともに、実世界内の物体を識別するのに使用できる。このことは、領域の平均的な画素強度または領域の性状変化を測定することによって達成できる。つまり、RGB画素によって、実世界または実世界内の物体の粗い評価を得ることができる。
更に、IR画素からのデータは、実世界空間の細かなまたは正確な特徴を取り込むのに使用することができ、RGB画素から抽出されたデータを強調する。細かな特徴の例として、実世界空間及び実世界空間内の物体の表面性状、エッジ、湾曲(curcatures)、及び、他のかすかな特徴が含まれる。一実施例において、RGB画素が手の立体モデルを取り込む一方で、IR画素が、その手の静脈及び/または動脈パターンまたは指紋を取り込むのに用いられる。
他の幾つかの実施態様には、RGB画素とIR画素を異なる組み合わせ及び順列で使用してイメージデータを取り込むことが含まれる。例えば、一実施態様では、RGB画素とIR画素を同時に起動し、粗い特徴と細かな特徴を区別せずに、イメージデータの全体規模での収集を実行することが含まれる。他の実施態様では、RGB画素とIR画素を間欠的に用いることが含まれる。更に他の実施態様では、2次関数またはガウス関数に基づいてRGB画素とIR画素を起動することが含まれる。幾つかの他の実施態様では、最初にIR画素を用いてスキャンを行い、引き続きRGB画素を用いたスキャンを行うこと、及び、その逆順でのスキャンの実行が含まれる。
一実施態様では、周囲の照明条件が決定され、当該条件を出力の表示の調整に使用することができる。例えば、RGB画素集合からの情報は通常の照明条件で表示され、IR画素集合からの情報は暗い照明条件で表示される。代替または追加として、IR画素集合からの情報は、微小光条件でのRGB画素集合からの情報を強調するのに使用できる、また、その逆も可能である。幾つかの実施態様では、RGB画素からのカラーイメージの1つ及びIR画素からのIRイメージ、または、これらの組み合わせから選択された好ましい表示を示す選択をユーザから受け取る。更に、代替または追加として、前記装置自らが、周囲の条件、ユーザの選択、状況認識、他の要因、または、これらの組み合わせに応じて、表示用に、RGBに感応する画素を用いて取り込んだビデオ情報と、赤外光に感応する画素から取り込んだビデオ情報を、動的にスイッチしても良い。
一実施態様では、赤外光に感応する画素からの情報は、ジェスチャを認識する処理用に分離され、一方で、RGBに感応する画素からの情報は、ライブビデオ供給として出力に提供され、その結果、ジェスチャ認識に対する帯域幅を確保できる。ジェスチャ処理では、実世界内の物体に対応するイメージの特徴を検出できる。ジェスチャモーションと相関のある前記物体の特徴は、変化を決定するために、複数のイメージに亘って相互に関連付けられる。ジェスチャモーションは、制御下の機械、そこに内蔵されたアプリケーション、または、これらの組み合わせに対するコマンド情報を決定するのに使用できる。
一実施態様では、モーションセンサ、及び/または、他のタイプのセンサがモーションキャプチャシステムと接続して、モーションキャプチャシステムが、例えば、ユーザの接触に起因する少なくともモーションキャプチャシステムの前記センサの動作をモニタする。モーションセンサからの情報は、第1及び第2の時間に、固定点に対する前記センサの第1及び第2の位置情報を決定するのに使用できる。第1及び第2の位置情報の間の差分情報が決定される。固定点に対する前記装置についての動き情報が、前記差分情報に基づいて計算される。前記装置についての動き情報は、前記センサによって検出された見かけ上の環境情報に提供され、前記センサの動きが該見かけ上の環境情報から差し引かれて実際の環境情報が得られ、該実際の環境情報が伝達され得る。制御情報は、可搬型装置を介して仮想現実または拡張現実経験を提供するように構成されたシステム、及び/または、前記センサから生成され、センサ自体の動きを除去するために調整された空間内を動く物体についてのモーションキャプチャ情報い基づいて期間等を制御するシステムに、伝達され得る。幾つかの応用では、触覚、オーディオ、及び/または、視覚プロジェクタを追加して、仮想装置経験を拡張できる。
或る実施態様において、見かけ上の環境情報は、前記モーションキャプチャシステムのセンサを用いて、第1及び第2の時間における物体の部分の位置情報から得られる。前記第1及び第2の時間における前記固定点と相対的な物体部分の動き情報が、前記差分情報と前記センサの動き情報に基づいて計算される。
更なる実施態様では、一連の時間において、モーションセンサを用いて前記センサの動き情報を、前記センサを用いて前記物体の部分を、繰り返し決定し、前記固定点に対する前記物体の部分の経路を決定するために一連の動き情報を解析することにより、前記物体の経路が計算される。当該経路は、軌跡を識別するためのテンプレートと対照することができる。身体部位の軌跡はジェスチャとして識別される。ジェスチャは、システムに対して伝達されるコマンド情報を指し示すことができる。幾つかのジェスチャは、システムの動作モード(例えば、ズームイン、ズームアウト、パン(pan)、より詳細に見せる、次表示ページ、等)を変化させるコマンドを伝達する。
幾つかの実施態様では、有利に、装着型装置のユーザに対して改良されたユーザ体験、より大きな安全性、及び、改良された機能性を可能とする。幾つかの実施態様は、更に、ユーザが仮想物体に対する仮想化された接触を伴う直感的なジェスチャを実行できるようにして、モーションキャプチャシステムに対して、ジェスチャを認識できる能力を提供する。例えば、正確なジェスチャ認識を促進するために、装置自体のモーションから物体のモーションを区別する能力が該装置に提供される。幾つかの実施態様では、種々の可搬型または装着型の機械(例えば、スマートフォン、ラップトップコンピュータを含むポータブル演算システム、タブレット型演算装置、パーソナルデータアシスタンツ、例えば飛行機や自動車で使用されるヘッドアップディスプレイ(HUD)を含む特定用途向け視覚化演算機構、グーグルグラス等の装着型の仮想及び/または拡張現実システム、グラフィックプロセッサ、内蔵型マイクロコントローラ、ゲーム機、等、及び、これらの1以上の有線または無線で結合したネットワーク、及び/または、これらの組み合わせ)との改良されたインターフェースを提供することができ、当該改良されたインターフェースによって、マウス、ジョイスティック、タッチパッド、または、タッチスクリーン等の接触型の入力装置の必要性を除去または削減できる。幾つかの実施態様は、演算及び/またはその他の機構とのインターフェースとして、従来技術により可能であったものより、更に改良されたインターフェースを提供することができる。幾つかの実施態様では、より豊富なヒューマン・マシーン・インターフェースが提供され得る。
本技術の他の態様及び利点は、以下に示す図面、詳細な説明、及び、特許請求の範囲の説明により明らかになる。
開示する本技術は、真の実時間またはほぼ実時間の景色を取り込み、3D感知空間内のジェスチャを検出し、該ジェスチャを制御下のシステムまたは機械に対するコマンドとして解釈し、適切な場合には取り込んだイメージ情報と該コマンドを提供することのできるモーション感知及びイメージング装置に関する。
実施態様は、仮想現実装置のユーザに対して、その中でライブビデオが提供される「パススルー」を、該ユーザが実世界を直接知覚できるようにして、単独で、或いは、1以上の仮想物体の表示を伴って提供することを含む。例えば、前記ユーザは、仮想アプリケーションまたはそこに混在する物体と同様に、実際の机の環境を見ることが可能となる。ジェスチャの認識及び感知は、仮想物体(例えば、ユーザの実際の机の表面上方に浮かぶ仮想書類)と並んで、実際の物体(例えば、ユーザのコーラの缶)を把持またはやり取りする能力をユーザに提供する実施態様を可能とする。幾つかの実施態様では、異なるスペクトル源からの情報が、一または他の体験の様子を駆動するのに選択的に使用される。例えば、赤外光に感応するセンサからの情報は、ユーザの手の動きを検出して、ジェスチャを認識するのに用いることができる。一方、可視光領域からの情報は、現実及び仮想の物体の実世界提示を作り出して、パススルービデオ提示を駆動するのに用いることができる。更なる例として、複数のソースからのイメージ情報の組み合わせを用いることができ、システムまたはユーザが、状況、条件、環境、その他の要因、または、これらの組み合わせに基づいて赤外イメージと可視光イメージを選択する。例えば、装置は、周囲の光条件が保証されている場合には、可視光イメージから赤外イメージに切り替えることができる。ユーザが同様にイメージングソースを制御する能力を備えることも可能である。更に別の例として、1つのタイプのセンサからの情報を、他のタイプのセンサからの情報を拡張、訂正、或いは、補強するのに使用することができる。赤外センサからの情報は、可視光に感応するセンサからの導出されるイメージ表示を訂正するのに使用することができ、また、その逆も可能である。光学イメージを導出できない微小光または他の状況、つまり、自由形式のジェスチャを十分な信頼度で光学的に認識できない状況において、オーディオ信号または振動波を検出して、物体の方向や位置を提供するのに使用できる。この点に関しては、更に説明する。
開示する本技術は、装着型感知システムを用いて、没入型仮想現実環境におけるユーザ体験の向上に応用できる。開示される実施態様に基づくシステム、装置、及び、方法の実施例を、「装着型感知システム」という事情(context)において説明する。「装着型感知システム」の実施例は、開示する本技術を理解する上での事情(context)及び手掛かりを追加するためだけの理由で提供される。他の例では、自動車、ロボット、または、他の機械等の他の事情におけるジェスチャに基づく相互作用の実施例が、仮想ゲーム、仮想アプリケーション、仮想プログラム、仮想オペレーティングシステム等に応用され得る。他の応用も可能であるが、以下に示す実施例は、適用範囲、事情、または、設定の何れにおいても確定的または限定的に扱われるべきではない。よって、実施態様は、「装着型感知システム」という事情の範囲内及び外において実行でき得ることは、当業者にとって明らかである。
先ず、モーション感知装置100の一例を示す図1を参照する。図1に示すように、モーション感知装置100は、ネジ固定部品またはその他の方法でメインボード182と結合可能な照明ボード172を備える。ケーブルの布線(明瞭性のため図1には示していない)によって、照明ボード172とメインボード182の間の電気的接続を行い、信号及び電力の交換が可能となっている。メインボード182(第1部分)と照明ボード172(第2部分)を接合する前記固定部品は、更に、これらのボードを、装着型または可搬型の電子装置(例えば、HMD、HUD、スマートフォン)の取り付け面Aに固定することができる。取り付け面Aは、装着型または可搬型の電子装置の(内部或いは外部の)面とすることができる。更に、装置は、装着型または可搬型の電子装置の空洞や容器内に、嵌合、ネジ止め、または、これらの組み合わせによって、設置されても良い。装置100は、広範な用途の設計要求に適合するように、任意の種々の装着型または可搬型の電子装置に組み込むことが可能である。
照明ボード172は、当該ボード上に組み込まれたLEDまたは他の光源である個別に制御可能な多くの照明源115,117を有する。図示された実施例では、2つのカメラ102,104が、装置100のメインボード182上に設けられ、眺められている景色の立体的イメージ型の検知を提供する。メインボード182は、更に、基本的な画像処理、及び、カメラ102,104及びボード172のLEDの制御を行うプロセッサを有する。図1に示す設計に対して種々の変更が可能である。例えば、LED、光検知器、及び、カメラの個数及び配置は変更されても良い。また、スキャニング及びイメージング用のハードウェアは1つのボードに一体化しても良い。或いは、これらの変更は、特定の用途の必要に応じて適宜行える。
カメラ102,104によって提供された立体的イメージ情報は、選択的或いは連続的に、ユーザが装着或いは携行している装着型または可搬型の電子装置に提供される。装置100は、生の「実時間」またはほぼ実時間のカメラからのイメージ情報の供給、コンピュータによって生成されたグラフィック、情報、アイコン、または他の仮想化提示等によって拡張された実時間またはほぼ実時間のイメージ情報、眺めている景色の仮想化された表示、これらから選択された時間的に変化する組み合わせを提供できる。ユーザによるジェスチャは、感知装置100のカメラ102,104によって検知され、その結果生成されるイメージ情報は、ジェスチャから制御される如何なるシステム(装着型または可搬型装置を含む)に対する命令を確認及び決定するために、モーションキャプチャに提供され得る。単一のモーション感知装置100にイメージング能力を備えたジェスチャ認識を一体化することで、高機能で適応性が有り、しかも、装着型または可搬型の電子装置等に設置するのに適した小型の装置を、有利に、提供できる。
幾つかの実施態様において、照明源115,117の幾つかは付属の集束光学系(明瞭性のため図1には示していない)を有することができる。ボード172,182の何れかは、明瞭性のため図1に示していない光検知器(またはその他のセンサ)と結合するためのソケットを更に備えていても良い。光検知器が反射率の変化を検知して得られる情報は、照明源例えばLEDが空間領域をスキャニングする間に、該照明源が光を出射する当該空間領域に、物体が存在するか存在しないかを示す。
図2に、開示する本技術の一実施態様に従ってイメージデータを取り込むシステム200を示す。システム200は、好ましくは、装着型装置201と接続している。装着型装置201は、図2に示すようなグーグルフォームファクター、ヘルメットフォームファクターを備えるヘッドマウントディスプレイ(HMD)であっても良く、或いは、時計、スマートフォン、その他の可搬型装置に組み込まれるか或いは接続して、装着型感知システムを形成することもできる。
種々の実施態様では、ここに説明する物体の3Dモーションを取り込むシステム及び方法は、ヘッドマウント装置或いは携帯型装置等の他のアプリケーションと一体化することができる。図2に示すように、ヘッドマウント装置201は、ユーザに周囲の環境或いは仮想環境を表示する光学組立品203を備えることができる。ヘッドマウント装置201にモーションキャプチャシステム200を組み込むことで、ユーザは、表示された環境をインタラクティブに制御可能となる。例えば、仮想環境は、モーションキャプチャシステム200で追跡されるユーザの手のジェスチャで操作可能な仮想物体を含むことができる。一実施態様では、ヘッドマウント装置201と一体化したモーションキャプチャシステム200は、ユーザの手の位置及び形を検出して、ユーザがその手を見て、仮想環境内の物体をインタラクティブに制御できるように、検出した手をヘッドマウント装置201のディスプレイ上に投影する。このことは、例えば、ゲームやインターネットブラウジングに応用できる。
システム200は、感知処理システム206と接続するカメラ102,104を備える。カメラ102,104は、可視光スペクトルに感応するカメラ、または、限定的な波長域(例えば、赤外域または紫外域)に強化された感度を有するカメラを含む如何なるタイプのカメラであっても良い。また、より一般的に、ここでは、「カメラ」という用語は、物体のイメージを捕えて、そのイメージをディジタルデータ形式で表示できる任意の装置(または、当該装置の組み合わせ)を参考とする。例えば、従来の2次元(2D)イメージを取り込む従来型カメラに代えて、ラインセンサ或いはラインカメラを採用することもできる。用語「光」は、一般的に、任意の電磁放射を意味し、可視光であっても或いはなくても良く、広帯域光(例えば、白色光)或いは狭帯域光(例えば、単一波長光、狭帯域波長光)であっても良い。
カメラ102,104は、好ましくは、ビデオイメージ(つまり、約毎秒15フレーム等の実質的に一定レートで連続するイメージフレーム)を取り込む能力を備える。但し、特定のフレームレートに限定されるものではない。カメラ102,104の能力は、本開示技術に対して重要ではない。該カメラは、フレームレート、イメージ解像度(例えば、イメージ当たりの画素数)、色または強度分解能(例えば、画素当たりの強度データのビット数)、レンズの焦点距離、被写界深度、等に関して変更可能である。一般に、特定の用途に対して、関心のある空間的な大きさ内で被写体に焦点を合わせることのできる如何なるカメラも使用可能である。例えば、手以外は静止している人の手の動きを取り込むには、当該大きさは、一辺約1メートルの立方体で規定することができる。
図示するように、対象領域212内で動く対象物214(本実施例では、1以上の手)を含むとともに、種々の仮想物体216を含むことのできる仮想的に描写または仮想的に拡張された対象領域212の光景を見るために、カメラ102,104は、装置201の動きによって、対象領域212の一部に向けられる。1以上のセンサ208,210が装置201の動きを捉える。幾つかの実施態様では、1以上の照明源115,117が対象領域212を照明するように配置される。幾つかの実施態様では、1以上のカメラ102,104が、検知すべき動作に向かい合って、例えば、手214が動くと予期される場所に配置される。手に関して記録される情報量は、手がカメライメージ内で占有する画素数に比例し、手の「指示方向」に対するカメラの角度が直角に近い程、手の占有する画素数は多くなるため、上述の位置が最良の位置である。例えば、コンピュータシステム等である感知処理システム206は、対象領域212のイメージを取り込むためにカメラ102,104の動作を制御し、装置201の動きを捉えるためにセンサ208,210の動作を制御することができる。センサ208,210からの情報は、装置201の動きの影響を相殺するために、カメラ102,104が取得したイメージのモデルに適用され、装置201によって描写される仮想体験に対してより大きな正確さが提供される。取り込まれたイメージと装置201の動きに基づいて、感知処理システム206が物体214の位置及び/または動きを決定し、組立品203を介してユーザにそれらの表示を描写する。
例えば、物体214の動きを決定する動作として、感知処理システム206がカメラ102,104によって取り込まれた種々のイメージのどの画素が物体214の部分を含んでいるかを判断する。幾つかの実施態様では、イメージ内の如何なる画素も、画素が物体214の部分を含んでいるか否かによって、「物体」画素か「背景」画素の何れかに分類される。従って、物体画素は、明るさに基づいて容易に背景画素と区別され得る。更に、物体のエッジは、隣接する画素間の明るさの差に基づいて容易に検出され、各イメージ内の物体の位置が判断できるようになる。幾つかの実施態様では、物体のシルエットが1以上の物体のイメージから抽出され、異なる視点から見える物体に関する情報を明らかにする。幾つかの実施態様では、シルエットは多くの異なる手法を用いて取得できるが、当該シルエットは、物体のイメージを取り込むカメラを用い、該イメージを解析して物体のエッジを検出することで得られる。カメラ102,104のイメージ間で物体の位置の相関を取り、センサ208,210から取得した装置201の動きを相殺することで、感知処理システム206が物体214の3D空間内の位置を決定できるようになり、一連のイメージを解析することで、感知処理システム206が、既存のモーションアルゴリズム或いは他の手法を用いて物体214の3Dモーションを再構築できるようになる。例えば、米国出願13/414,485(2012年3月7日出願)、米国仮出願61/724,091(2012年11月8日出願)、及び、米国仮出願61/587,554(2012年1月17日出願)を参照されたい。また、当該全ての開示は本願に引用して援用する。
提示インターフェース220は、装置のユーザに個人的な仮想体験を提供するために装置201の光学組立品203に、ロード可能な、或いは、協同して実施されるアプリケーションによって作成された仮想(或いは仮想化された現実の)物体(視覚、オーディオ、触覚等)を表示するために、センサに基づく追跡と共に、投影技術を採用する。投影は、物体のイメージまたは他の視覚表示を含むことができる。
一実施態様では、実環境内のモーションをモニタするために、モーションセンサ及び/または他のタイプのセンサを使用する。実環境の拡張された描写内に一体化された仮想物体は、可搬型装置201のユーザに対して投影される。ユーザの身体部分のモーション情報は、少なくともある程度は、イメージセンサ102,104または音響センサまたは他のセンサ装置から受信した感知情報に基づいて、決定することができる。制御情報は、可搬型装置201のモーションと、イメージセンサ102,104または音響センサまたは他のセンサ装置から受信した感知情報から決定されるユーザのモーションの組み合わせに少なくともある程度基づいて、システムに伝達される。視覚装置による経験は、幾つかの実施態様では、触覚、オーディオ、及び/または、他の感知情報プロジェクタによって、拡張され得る。例えば、図5を参照すると、視覚投影組立品504は、ライブビデオ供給を介してユーザに表示される実世界物体、例えば、机216に重畳された仮想の本の物体からのページイメージ(例えば、仮想装置501)を投影することができる。その結果、たとえ本や電子読み取り機が存在していなくても、本物の本、或いは、物理的な電子読み取り機上の電子書籍を読んでいる仮想装置経験を作り出す。触覚プロジェクタ506は、読み手の指に、当該本の「仮想の紙」の性状の感触を投射することができる。オーディオプロジェクタ502は、ページをめくるための読み手のスワイプ(swipe)操作を検出してページをめくる音を投射する。それは拡張現実世界であるので、手214の裏側はユーザに投影され、ユーザには、あたかもユーザが自身の手を見ているように景色が見える。
再び図2を参照すると、複数のセンサ208,210が、装置201のモーションを取り込むために、感知処理システム206と接続している。センサ208,210は、モーションの種々のパラメータ(加速度、速度、角加速度、角速度、位置/場所(position/location))から信号を得るために有用な如何なるセンサでも良い。より一般的には、用語「モーション検出器」は、機械的なモーションを電気的な信号に変換する能力を有する任意の装置(または、装置の組み合わせ)を参考とする。当該装置は、単独或いは種々の組み合わせにおいて、加速度計、ジャイロスコープ、及び、磁気計を含み、方向、磁気、または、重力の変化を通してモーションを検知するように設計されている。多くのタイプのモーションセンサが存在し、別の実施態様は変化に富んでいる。
図示したシステム200は、装置201のユーザに提供される仮想体験を増強するために、明瞭性のため図2には示されていない種々の他のセンサの何れかを、単独或いは種々に組み合わせて含むことができる。例えば、システム206は、自由形式のジェスチャを十分な信頼度で光学的に認識できない微小光の状況では、音響または振動センサに基づいてタッチ(接触)ジェスチャが認識されるタッチモードに切り替える。或いは、システム206は、音響または振動センサからの信号が検知された場合に、該タッチモードに切り替えるか、タッチ検知処理を行うとともに、補完的にイメージキャプチャ処理を行うようにしても良い。更に、他の動作モードとして、タップまたはタッチジェスチャは、「ウェークアップ(目覚まし)」信号として振る舞い、イメージ及び音響の解析システム206を、スタンバイモードから動作モードに推移させる。例えば、システム206は、閾値間隔より長い間、カメラ102,104からの光学的な信号が無い場合には、スタンバイモードに推移できる。
当然のことながら、図2に示す事項は一例である。幾つかの実施態様では、システム200を別形状の筐体に収容すること、或いは、より大きな構成要素や組立品内に内蔵することも好ましい。更に、イメージセンサ、モーション検出器、照明源等の個数及びタイプは、明瞭性のための図解したもので、大きさ或いは数量は全ての実施態様において同じではない。
次に、図3を参照して説明する。図3は、本技術の実施態様に基づいて感知処理システム206を実現するためのコンピュータシステム300の簡略化したブロック図である。コンピュータシステム300は、プロセッサ302、メモリ304、モーション検出器及びカメラのインターフェース306、提示インターフェース220、スピーカ309、マイクロフォン310、及び、無線インターフェース311を備える。メモリ304は、プロセッサ302によって実行される命令、及び、当該命令の実行に関連する入力データ及び/または出力データを格納するために使用される。特に、メモリ304は、概念的に一群のモジュールとして説明され(詳細は後述する)、プロセッサ302の動作及び他のハードウェア部品との相互作用を制御する命令を格納している。オペレーティングシステム(OS)は、メモリ割り当て、ファイル管理、大容量記憶装置の操作等の低レベルで基本的なシステム機能を監督する。オペレーティングシステムは、下記に列挙する種々のオペレーティングシステムで構成されるか、または、当該オペレーティングシステムを含んで構成される。当該種々のオペレーティングシステムとして、例えば、マイクロソフト社のWINDOWS(登録商標)オペレーティングシステム、UNIX(登録商標)オペレーティングシステム、Linux(登録商標)オペレーティングシステム、Xenixオペレーティングシステム、IBM社のAIXオペレーティングシステム、ヒューレット・パッカード社のUXオペレーティングシステム、Novell社のNETWAREオペレーティングシステム、サンマイクロシステムズ社のSOLARISオペレーティングシステム、OS/2オペレーティングシステム、BeOSオペレーティングシステム、MACINTOSH OSオペレーティングシステム、APACHEオペレーティングシステム、OPENACTIONオペレーティングシステム、iOSやAndroid等のモバイルオペレーティングシステム、或いは、その他のオペレーティングシステムまたはプラットフォームが想定される。
コンピューティング環境は、更に、その他の取り外し可能/不可能な、揮発性/不揮発性のコンピュータ記憶媒体を備えることができる。例えば、ハードディスクドライブは、取り外し不可能な不揮発性の磁気記憶媒体の読み出し及び書き込みができる。磁気ディスクドライブは、取り外し可能な不揮発性の磁気記憶媒体からの読み出し、または、同磁気記憶媒体への書き込みができ、光ディスクドライブは、取り外し可能な不揮発性のCD−ROM等の光ディスクからの読み出し、または、同光ディスクへの書き込みができる。模範的な操作環境で使用可能な他の取り外し可能/不可能な、揮発性/不揮発性のコンピュータ記憶媒体は、これらに限定されないが、磁気テープカセット、フラッシュメモリカード、ディジタル多用途ディスク(DVD)、ディジタルビデオテープ、半導体RAM、半導体ROM、等を含む。記憶媒体は、典型的には、取り外し可能/不可能なメモリインターフェースを介してシステムバスに接続している。
プロセッサ302は、汎用のマイクロプロセッサを使用できるが、実施態様によっては、代替的に、マイクロコントローラ、周辺集積回路素子、CSIC(特定カスタマ向けIC)、ASIC(特定用途向けIC)、論理回路、ディジタル信号プロセッサ、FPGA(フィールド・プログラマブル・ゲートアレイ)、PLD(プログラマブル論理デバイス)、PLA(プログラマブル論理アレイ)等のプログラマブル論理デバイス、RFIDプロセッサ、スマートチップ、或いは、任意の他のデバイス、或いは、本技術の処理動作を実行できるデバイスの配置等が使用できる。
モーション検出器及びカメラのインターフェース306は、コンピュータシステム300と、センサ208,210(図2参照)と同様にカメラ102,104間の通信を可能にするハードウェア、及び/または、ソフトウェアを含む。従って、例えば、モーション検出器及びカメラのインターフェース306は、プロセッサ302で実行されるモーションキャプチャ(“mocap”)プログラム314への入力として信号が提供される前の前記カメラ及びモーション検出器から受信したデータ信号を変更(例えば、ノイズ低減、データの再フォーマット等)するハードウェア、及び/または、ソフトウェアの信号プロセッサと同様に、カメラ、照明源、及び、モーション検出器が(従来のプラグ及びジャックを介して)接続可能な1以上のカメラデータポート316,318、照明源ポート313,315、及び、モーション検出器ポート317,319を含むことができる。幾つかの実施態様では、モーション検出器及びカメラのインターフェース306は、更に、カメラ、照明源、及び、センサに信号を送信し、例えば、これらを活性化或いは非活性化する、カメラの設定(フレームレート、画質、感度等)を制御する、照明源の設定(強度、照明時間等)を制御する、センサの設定(キャリブレーション、感度レベル等)を制御すること等ができる。当該信号は、例えば、プロセッサ302からの制御信号に応答して送信される。尚、プロセッサ302からの制御信号は、ユーザ入力、または、他の検知されたイベントに応答して順番に生成され得る。
mocapプログラム314を規定する命令はメモリ304に格納され、当該命令は、実行されると、カメラから供給されるイメージ、及び、モーション検出器及びカメラのインターフェース306に接続するセンサから供給されるオーディオ信号に対して、モーションキャプチャ解析を実行する。1つの実施態様では、mocapプログラム314は、物体解析モジュール322、及び、経路解析モジュール324等の種々のモジュールを有する。物体解析モジュール322は、イメージ(例えば、インターフェース306を介して取り込まれたイメージ)内の物体のエッジ、及び/または、物体の位置に関する他の情報を検知するために、当該イメージを解析することができる。幾つかの実施態様では、物体解析モジュール322は、例えば、当該物体の到着の時間距離(所要時間)、マルチラテレーション等による当該物体の局所化のために、音声信号(例えば、インターフェース306を介して取り込まれた音声信号)も解析することができる。尚、マルチラテレーションとは、既知の位置から既知の時間に信号を発信する2以上の基地との距離差の測定を基礎とするナビゲーション技術である(例えば、ウィキペディア(Wikipedia:http://en.wikipedia.org/w/index.php?title=Multilateration&oldid=523281858, on Nov. 16, 2012, 06:07 UTC)参照)。経路解析モジュール324は、カメラを介して得られた情報に基づいて3Dでの物体の動きを追跡及び予測できる。幾つかの実施態様では、仮想現実/拡張現実環境マネージャー326が、個人的な仮想体験213を提供する提示インターフェース220を介して、装置201のユーザに対して提示するための合成物体216と同様に、実物体(例えば、手214)を反映する仮想物体の統合を提供することを含む。1以上のアプリケーション328は、装置201の機能を拡張またはカスタマイズして、システム200がプラットフォームとして機能させるために、メモリ304内にロード(或いは、他の方法でプロセッサ302に対して利用可能に)することができる。一連のカメライメージは、物体の動き及び速度を抽出するために、画素レベルで解析される。オーディオ信号は、既知の面上の物体を判別し、当該信号の強度及び変化は、当該物体の存在を検出するのに利用できる。オーディオ及びイメージ情報の両方が同時に利用可能な場合、両タイプの情報は、解析され、且つ、より詳細な及び/または正確な経路解析を提供するために調整され得る。ビデオ供給インテグレータ329は、カメラ102,104からのライブビデオ供給と、1以上の仮想物体(例えば、図5の501)との統合を提供する。ビデオ供給インテグレータ329は、異なるタイプのカメラ102,104からのビデオ情報の処理を管理する。例えば、赤外光に感応する画素及び可視光(例えば、RGB)に感応する画素から受け取った情報は、インテグレータ329によって分離され、異なって処理され得る。IRセンサからのイメージ情報は、ジェスチャ認識に用いることができ、一方、RGBセンサからのイメージ情報は、提示インターフェース220を介してライブビデオ供給として提供され得る。1つのタイプのセンサからの情報は、別のセンサからの情報を強調、訂正、及び/または、補強するのに使用することができる。1つのタイプのセンサからの情報は、幾つかのタイプの状況または環境条件(例えば、微小光、霧、明るい光、等)において有利となる場合がある。本装置は、1つまたは他のタイプのイメージ情報に基づく提示出力を、自動的に提供するか、或いは、ユーザからの選択を受け付けて提供するかを選択できる。インテグレータ329は、VR/AR環境マネージャー326と共に、提示インターフェース220を介してユーザに提示される環境の作成を制御する。
提示インターフェース220、スピーカ309、マイクロフォン310、及び、無線インターフェース311は、ユーザの装置201を介するコンピュータシステム300との相互作用を容易にするために用いることができる。これらの構成要素は、一般的に、従来設計のもの、或いは、任意のタイプのユーザ相互作用の提供に望ましく変更されたものが使用できる。幾つかの実施態様では、モーション検出器及びカメラのインターフェース306とmocapプログラム314を用いたモーションキャプチャの結果は、ユーザ入力として解釈される。例えば、mocapプログラム314を用いて解析される手のジェスチャ或いは表面を横切る動きを実行でき、その解析結果は、プロセッサ302上で実行している他のプログラム(例えば、ウェブブラウザ、ワードプロセッサ、または、他のアプリケーション)に対する命令として解釈することができる。つまり、実例として、ユーザは、提示インターフェース220を介して装置201のユーザに対して現在表示されているウェブページを「スクロール」するために、上向きまたは下向きに手を大きく動かすジェスチャ、スピーカ309からのオーディオ出力のボリュームを大きくまたは小さくするために、手を回すジェスチャ、等を用いても良い。経路解析モジュール324は、例えば、動きを予想して、提示インターフェース220による装置201上の動作の描写を改良するために、検出された経路をベクトルとして表示し、該経路を予測するために外挿することができる。
コンピュータシステム300は、一例であり、種々の変形及び変更が可能であると理解される。コンピュータシステムは、サーバシステム、デスクトップシステム、ラップトップシステム、タブレット、スマートフォン、または、パーソナルディジタルアシスタンツ等の種々のフォームファクターで実現できる。特定の実施態様は、例えば、有線及び/または無線ネットワークインターフェース、メディア再生及び/または記録機能等のここに記載していない他の機能、を含むこともできる。幾つかの実施態様では、1以上のカメラ及び1以上のマイクロフォンは、別部品として供給されるのではなく寧ろコンピュータ内に組み込まれても良い。更に、イメージまたはオーディオアナライザは、コンピュータシステムの部品の一部(例えば、プログラムコードを実行するプロセッサ、ASIC、または、機能が固定されたディジタル信号プロセッサと、イメージデータの受信と解析結果の出力に適したI/Oインターフェース)だけでも実現できる。
コンピュータシステム300は、特定のブロックを参照して説明されているが、当該ブロックは説明の便宜上規定されたもので、構成部品の特定の物理的な配置を意図するものではない。更に、当該ブロックは、必ずしも、物理的に別個の構成部品と対応している必要はない。物理的に別個の構成部品が使用されている場合、当該部品間の接続(例えば、データ通信のための接続)は、その要請に応じて有線及び/または無線での接続が可能である。従って、例えば、プロセッサ302による物体解析モジュール322の実行に起因して、イメージ及び/またはオーディオデータを解析することで物体の入場を検出するための面を横切って移動し、接触する物体のイメージ及び/またはオーディオ信号を取り込むように、プロセッサ302がモーション検出器及びカメラのインターフェース306を操作するようにできる。
図4は、本技術の実施態様に基づくモーションキャプチャ及びイメージ解析において関係する基本操作及び機能的ユニット400を示す。図4に示されるように、カメラ402,404は景色のディジタルイメージ410を記録する。各ディジタルイメージは、関連するカメラのイメージセンサによって、画素値のアレイとして取り込まれ、当該ディジタルイメージは、生(raw)データのまま、或いは、在来式の前処理に続いて、1以上のフレームバッファ415に転送される。フレームバッファは、イメージを記録したカメラによる出力としてイメージの画素値に対応する「ビットマップ」のイメージフレーム420を格納する揮発性メモリの区画または専用のセグメントである。当該ビットマップは、一般には、概念的に格子として、各画素が表示装置の出力要素に1対1または別の方法でマッピングされて、構成される。しかしながら、フレームバッファ415内でメモリセルが物理的にどのように編成されるかというトポロジーは、概念的な編成に対して重要ではなく、直接一致する必要もない点は重視すべきである。
システム内に含まれるフレームバッファの数は、一般的に、解析システムまたは解析モジュール430(詳細は後述する)によって同時に解析されるイメージの数を反映する。簡単に言えば、解析モジュール430は、そこに物体を置いて、それらの動きを、時間をかけて追跡するために(符号440で示す)、一連のイメージフレーム420の夫々の画素データを解析する。この解析は種々の形式を取ることができ、当該解析を実行するアルゴリズムは、イメージフレーム420の画素をどのように扱うかを指示する。例えば、解析モジュール430により実行されるアルゴリズムは、各フレームバッファの画素を1ライン毎に処理できる。つまり、画素グリッドの各行は逐次的に解析される。他のアルゴリズムは、列、タイル状の領域、或いは、他の組織的な形式で画素を解析する。
様々な実施態様では、一連のカメライメージ内に取り込まれたモーションは、ディスプレイ220上へ表示するために連続する対応する出力イメージを計算するのに使用される。例えば、動いている手のカメライメージは、プロセッサ302によって、手のワイヤーフレーム表示または他のグラフィック表示に変換することができる。或いは、手のジェスチャは、別個の視覚出力を制御するために使用される入力として解釈され得る。実例として、ユーザは、現在表示されているウェブページまたは他のドキュメントをスクロールするために、上向きまたは下向きに手を大きく動かすジェスチャ、或いは、当該ウェブページをズームインまたはズームアウトするために手を開いたり閉じたりジェスチャを使用することができる。如何なる場合でも、出力イメージは、一般的にフレームバッファ、例えば、フレームバッファ415の1つの中に画素データ形式で格納される。ビデオ表示コントローラはフレームバッファを読み出して、組立品203にイメージを出力するために、データストリーム及び関連する制御信号を生成する。提示インターフェース220によって提供されるビデオ表示コントローラは、プロセッサ302とメモリ304とともに、コンピュータ300のマザーボード上に搭載して提供でき、更に、プロセッサ302と共に一体化され得るか、或いは、分離したビデオメモリを操作するコプロセッサとして実施され得る。上述したように、コンピュータシステム300は、組立品203への出力イメージの供給の生成を助ける個別のグラフィックまたはビデオカードを備えることができる。一実施態様では、ビデオカードは、一般的に、グラフィック処理ユニット(GPU)とビデオメモリを備え、特に、複雑且つコンピュータ処理上高価なイメージ処理及びレンダリングに有用である。グラフィックカードは、フレームバッファとビデオ表示コントローラの機能(オンボードビデオ表示コントローラは無効にできる)を含むことができる。一般に、システムのイメージ処理及びモーションキャプチャ機能は、GPUとメインプロセッサ302間に、種々の方法で分配できる。
モーションキャプチャプログラム314に適したアルゴリズムは以下で説明するが、更に詳しくは、例えば、2012年1月17日、2012年3月7日、2012年11月8日、2012年12月21日、及び、2013年1月16日に夫々出願された米国出願61/587,554、13/414,485、61/724,091、13/724,357、及び、13/742,953に開示されており、当該全ての開示は本願に引用して援用する。種々のモジュールは、例えば、C、C++、C#、OpenGL、Ada、Basic、Cobra、FORTRAN、Java(登録商標)、Lisp、Perl、Python,Ruby、または、Object Pascal、または、低レベルアッセンブリ言語等を含む、高レベル言語に限定されない任意の適したプログラミング言語でプログラムされ得る。
再度図4を参照すると、モーション感知制御装置に備えられた装置の動作モードは、イメージ解析モジュール430に提供されるデータの粗さ、解析の粗さ、または、その両方を、性能データベースの登録に基づいて、判定する。例えば、広域モードの動作の間、イメージ解析モジュール430は、全てのイメージフレーム上で動作することができ、更に、フレーム容量制限内の全てのデータ上で、フレームバッファ415の各データが一連のデータラインとして構成されている場合、フレーム当たりのイメージデータの削減量(つまり、解像度)の解析、または、幾つかのフレームを全て捨てることを指示できる。データが解析から欠落する手法は、イメージ解析アルゴリズム、または、モーションキャプチャ出力を加えて行う使用に依存する可能性がある。幾つかの実施態様では、データは、例えば、1ラインおき、2ラインおき等のように、対称或いは一様に欠落し、イメージ解析アルゴリズムまたはその出力を利用するアプリケーションの許容限度まで捨てられる。他の実施態様では、ライン欠落の頻度は、フレームの端部に向けて増加する。更に別の変化し得るイメージ取得パラメータは、フレームサイズ、フレーム解像度、及び、1秒当たりに取得されるフレーム数を含む。特に、フレームサイズは、例えば、端部の画素を捨てる、より低い解像度で再サンプリングする(及び、フレームバッファ容量の一部のみを使用する)等により、削減できる。イメージデータの取得に関連するパラメータ(例えば、サイズ、フレームレート、及び、特性)は、集合的に「取得パラメータ」と称し、一方、イメージ解析モジュール430の動作(例えば、物体の輪郭の規定)に関連するパラメータは、集合的に「イメージ解析パラメータ」と称する。上述の取得パラメータ及びイメージ解析パラメータは、代表的なものだけであり、これだけに限定されるものではない。
取得パラメータは、カメラ402,404及び/またはフレームバッファ415に供給され得る。例えば、カメラ402,404は、カメラ402,404の操作における取得パラメータに応答して、指示されたレートでイメージを取得し、或いは、それに代えて、フレームバッファ415に(単位時間当たりに)転送される取得フレーム数を制限することができる。イメージ解析パラメータは、輪郭規定アルゴリズムの動作に影響を与える数量として、イメージ解析モジュール430に、供給され得る。
利用可能な資源の所定のレベルに好適な取得パラメータ及びイメージ解析パラメータの望ましい値は、例えば、イメージ解析モジュール430の特性、mocap出力を利用するアプリケーションの種類、及び、設計上の優先事項に依存し得る。幾つかのイメージ処理アルゴリズムが、広帯域に亘って、入力フレーム解像度に対して輪郭概算の解像度をトレードオフできるのに対して、別のイメージ処理アルゴリズムは、大きな許容を全く提示しない場合もあり得、例えば、それ以下ではアプリケーションが一緒に機能しなくなる最小のイメージ解像度を要求する。
幾つかの実施態様は、仮想現実アプリケーションまたは拡張現実アプリケーションに適用可能である。例えば、図5を参照すると、図5では、実物体の光景を含む仮想装置の拡張現実体験213、例えば、机の表面媒体516と本技術の一実施態様に基づく1以上の仮想物体(例えば、物体501)を投影するためのシステム500が図示されている。システム500は、種々のセンサ及びプロジェクタ、例えば、1以上のカメラ102,104(または、他のイメージセンサ)及びイメージングシステムを備える任意の幾つかの照明源115,117等を制御する処理システム206を備える。随意的に、机516への接触を感知する複数の振動センサ(または、音響センサ)508,510が含まれていても良い。更に、随意的に、システム206が制御するプロジェクタとして、例えば、オーディオフィードバックを提供する任意のオーディオプロジェクタ502、任意のビデオプロジェクタ504、例えば、拡張現実のユーザに触覚フィードバックを提供する任意の触覚プロジェクタ506がある。プロジェクタに関する更なる情報に関して、“Visio−Tactile Projector” Youtube (https://www.youtube.com/watch?v=Bb0hNMxxewg:2014年1月15日検索)が参考になる。動作では、センサ及びプロジェクタは、少なくとも机516の一部、または、対象物体214(本例では、手)が指示された経路に沿って動く自由空間を含むことのできる対象となる領域212に向けられる。1以上のアプリケーション521,522が、拡張現実213の表示内に統合された仮想物体として提供できる。これにより、ユーザ(例えば、手214の持ち主)は、例えば、仮想物体501と同じ環境内で、机516、コーラ517等の実物体との相互作用が可能となる。
幾つかの実施態様では、仮想物体はユーザに対して投射される。投射には、物体のイメージ、その他の視覚表示が含まれ得る。例えば、例えば、図5の視覚プロジェクション機構504は、ページ(例えば、仮想装置501)を本から読み手の拡張現実環境213内(例えば、表面部分516及び/または周囲の空間212)に投影することができる。その結果、たとえ本や電子読み取り機が存在していなくても、本物の本、或いは、物理的な電子読み取り機上の電子書籍を読んでいる仮想装置経験を作り出す。幾つかの実施態様では、任意の触覚プロジェクタ506が、読み手の指に、当該本の「仮想の紙」の性状の感触を投射することができる。幾つかの実施態様では、任意のオーディオプロジェクタ502が、ページをめくるための読み手のスワイプ(swipe)操作を検出してページをめくる音を投射する。
Claims (17)
- 眺められている景色の立体的なイメージ情報を提供するように配置された複数のイメージセンサと、
前記イメージセンサの周辺に配置された1または複数の照明源と、
前記イメージセンサ及び前記照明源に接続して、前記イメージセンサ及び前記照明源の動作を制御するコントローラと、を備え、
景色のイメージ情報を取得し、少なくともほぼ実時間のイメージ情報のパススルーをユーザに提供することを特徴とするモーション感知及びイメージング装置。 - 前記コントローラが、更に、前記イメージセンサの見える範囲内の制御物体のためのイメージ情報を取り込むことを提供し、
当該制御物体のための前記イメージ情報が、制御下の機械に対するコマンドを指示するジェスチャ情報を決定するために使用されることを特徴とする請求項1に記載の装置。 - 前記イメージ情報を取り込むことが、更に、
赤外光に感応する画素から受信した情報を、可視光(例えば、RGB)に感応する画素から受信した情報と分離すること、
ジェスチャの認識に使用するために、赤外センサからの情報を処理すること、及び、
提示インターフェースを介してライブビデオ供給として提供するために、RGBセンサからの情報を処理すること、
を含むことを特徴とする請求項2に記載の装置。 - 前記RGBセンサからの情報を処理することが、更に、前記景色内の照明の赤、緑、及び、青要素を各別に取り込むRGB画素を用いて、実世界空間の全体の特徴を抽出することを含むことを特徴とする請求項3に記載の装置。
- 前記赤外センサからの情報を処理することが、更に、前記景色内の照明の赤外要素を取り込む赤外画素を用いて、実世界空間の細かな特徴を抽出することを含むことを特徴とする請求項3に記載の装置。
- 前記実世界空間の細かな特徴が、前記実世界空間の表面性状を含むことを特徴とする請求項5に記載の装置。
- 前記実世界空間の細かな特徴が、前記実世界空間のエッジを含むことを特徴とする請求項5に記載の装置。
- 前記実世界空間の細かな特徴が、前記実世界空間の湾曲を含むことを特徴とする請求項5に記載の装置。
- 前記実世界空間の細かな特徴が、前記実世界空間内の物体の表面性状を含むことを特徴とする請求項5に記載の装置。
- 前記実世界空間の細かな特徴が、前記実世界空間内の物体のエッジを含むことを特徴とする請求項5に記載の装置。
- 前記実世界空間の細かな特徴が、前記実世界空間内の物体の湾曲を含むことを特徴とする請求項5に記載の装置。
- 前記コントローラが、更に、
周囲の照明条件を決定すること、及び、前記決定された条件に基づいて出力の表示を調整することを提供し、
第1及び第2の時間に、固定点に対する前記センサの第1及び第2の位置情報を決定することを特徴とする請求項1に記載の装置。 - モーションセンサを更に備え、
前記コントローラが、更に、
前記モーションセンサからの第1及び第2の位置情報の間の差分情報を決定すること、及び、前記差分情報に基づいて、固定点に対する前記装置についての動き情報を計算することを提供することを特徴とする請求項1に記載の装置。 - 装着型提示装置の取り付け面に前記イメージセンサと前記照明源を取り付ける1以上の固定部材を、更に備えることを特徴とする請求項1に記載の装置。
- 装着型提示装置の空洞部分に前記イメージセンサと前記照明源を取り付ける1以上の固定部材を、更に備えることを特徴とする請求項1に記載の装置。
- 可搬提示装置の取り付け面に前記イメージセンサと前記照明源を取り付ける1以上の固定部材を、更に備えることを特徴とする請求項1に記載の装置。
ことを特徴とする請求項1に記載の装置。 - 可搬提示装置の空洞部分に前記イメージセンサと前記照明源を取り付ける1以上の固定部材を、更に備えることを特徴とする請求項1に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462035008P | 2014-08-08 | 2014-08-08 | |
US62/035,008 | 2014-08-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016038889A true JP2016038889A (ja) | 2016-03-22 |
Family
ID=51618846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014164597A Pending JP2016038889A (ja) | 2014-08-08 | 2014-08-12 | モーション感知を伴う拡張現実 |
Country Status (4)
Country | Link |
---|---|
US (5) | US10349036B2 (ja) |
JP (1) | JP2016038889A (ja) |
CN (1) | CN204480228U (ja) |
DE (1) | DE202014103729U1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017163648A1 (ja) * | 2016-03-23 | 2017-09-28 | 株式会社ソニー・インタラクティブエンタテインメント | 頭部装着装置 |
US10140777B2 (en) | 2016-08-02 | 2018-11-27 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling information processing apparatus, and storage medium |
US20230107097A1 (en) * | 2021-10-06 | 2023-04-06 | Fotonation Limited | Method for identifying a gesture |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9857919B2 (en) * | 2012-05-17 | 2018-01-02 | Hong Kong Applied Science And Technology Research | Wearable device with intelligent user-input interface |
US9952042B2 (en) | 2013-07-12 | 2018-04-24 | Magic Leap, Inc. | Method and system for identifying a user location |
US10007329B1 (en) | 2014-02-11 | 2018-06-26 | Leap Motion, Inc. | Drift cancelation for portable object detection and tracking |
US9754167B1 (en) | 2014-04-17 | 2017-09-05 | Leap Motion, Inc. | Safety for wearable virtual reality devices via object detection and tracking |
US9646201B1 (en) | 2014-06-05 | 2017-05-09 | Leap Motion, Inc. | Three dimensional (3D) modeling of a complex control object |
US10007350B1 (en) | 2014-06-26 | 2018-06-26 | Leap Motion, Inc. | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
DE202014103729U1 (de) | 2014-08-08 | 2014-09-09 | Leap Motion, Inc. | Augmented-Reality mit Bewegungserfassung |
WO2016100933A1 (en) * | 2014-12-18 | 2016-06-23 | Oculus Vr, Llc | System, device and method for providing user interface for a virtual reality environment |
US9407865B1 (en) * | 2015-01-21 | 2016-08-02 | Microsoft Technology Licensing, Llc | Shared scene mesh data synchronization |
US10616561B2 (en) * | 2015-09-03 | 2020-04-07 | Inuitive Ltd. | Method and apparatus for generating a 3-D image |
EP3179338B1 (en) * | 2015-12-11 | 2021-07-14 | Tata Consultancy Services Ltd. | Hybrid reality based object interaction and control |
CN105657494B (zh) * | 2015-12-31 | 2018-12-25 | 北京小鸟看看科技有限公司 | 一种虚拟影院及其实现方法 |
US10908694B2 (en) * | 2016-02-01 | 2021-02-02 | Microsoft Technology Licensing, Llc | Object motion tracking with remote device |
US10067636B2 (en) * | 2016-02-09 | 2018-09-04 | Unity IPR ApS | Systems and methods for a virtual reality editor |
EP3475785A4 (en) | 2016-04-22 | 2020-05-13 | SZ DJI Technology Co., Ltd. | SYSTEMS AND METHODS FOR PROCESSING IMAGE DATA BASED ON A USER'S INTEREST |
US20180005437A1 (en) * | 2016-06-30 | 2018-01-04 | Glen J. Anderson | Virtual manipulator rendering |
CN106228614A (zh) * | 2016-07-29 | 2016-12-14 | 宇龙计算机通信科技(深圳)有限公司 | 一种场景再现方法和装置 |
CA3032812A1 (en) | 2016-08-04 | 2018-02-08 | Reification Inc. | Methods for simultaneous localization and mapping (slam) and related apparatus and systems |
US9983687B1 (en) * | 2017-01-06 | 2018-05-29 | Adtile Technologies Inc. | Gesture-controlled augmented reality experience using a mobile communications device |
US10482900B2 (en) | 2017-01-18 | 2019-11-19 | Microsoft Technology Licensing, Llc | Organization of signal segments supporting sensed features |
US10679669B2 (en) | 2017-01-18 | 2020-06-09 | Microsoft Technology Licensing, Llc | Automatic narration of signal segment |
US10635981B2 (en) | 2017-01-18 | 2020-04-28 | Microsoft Technology Licensing, Llc | Automated movement orchestration |
US10606814B2 (en) | 2017-01-18 | 2020-03-31 | Microsoft Technology Licensing, Llc | Computer-aided tracking of physical entities |
US10637814B2 (en) | 2017-01-18 | 2020-04-28 | Microsoft Technology Licensing, Llc | Communication routing based on physical status |
US10437884B2 (en) | 2017-01-18 | 2019-10-08 | Microsoft Technology Licensing, Llc | Navigation of computer-navigable physical feature graph |
US11094212B2 (en) | 2017-01-18 | 2021-08-17 | Microsoft Technology Licensing, Llc | Sharing signal segments of physical graph |
FR3062488B1 (fr) * | 2017-02-01 | 2020-12-25 | Peugeot Citroen Automobiles Sa | Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realite virtuelle |
CN108399633A (zh) * | 2017-02-06 | 2018-08-14 | 罗伯团队家居有限公司 | 用于立体视觉的方法和装置 |
US10401954B2 (en) * | 2017-04-17 | 2019-09-03 | Intel Corporation | Sensory enhanced augmented reality and virtual reality device |
CN107095384B (zh) * | 2017-04-26 | 2023-11-24 | 左志权 | 一种基于wifi传输的智能消防头盔装置 |
CN111065952B (zh) * | 2017-06-14 | 2022-04-05 | 惠普发展公司,有限责任合伙企业 | 显示器、用于调整显示器的方法和可读介质 |
WO2018236601A1 (en) * | 2017-06-19 | 2018-12-27 | Get Attached, Inc. | EXPLORING DIGITAL MEDIA BASED ON AUTOMATIC DIGITAL MEDIA INTERACTION CONTEXT AND FEEDBACK INTERACTION |
US11127212B1 (en) * | 2017-08-24 | 2021-09-21 | Sean Asher Wilens | Method of projecting virtual reality imagery for augmenting real world objects and surfaces |
US10728430B2 (en) * | 2018-03-07 | 2020-07-28 | Disney Enterprises, Inc. | Systems and methods for displaying object features via an AR device |
US11189054B2 (en) * | 2018-09-28 | 2021-11-30 | Apple Inc. | Localization and mapping using images from multiple devices |
KR20200098034A (ko) | 2019-02-11 | 2020-08-20 | 삼성전자주식회사 | 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법 |
CN113282163A (zh) * | 2020-02-19 | 2021-08-20 | 海思智财控股有限公司 | 具可调整影像感测模块的头戴式装置及其系统 |
WO2022036302A1 (en) | 2020-08-14 | 2022-02-17 | Hes Ip Holdings, Llc | Systems and methods for superimposing virtual image on real-time image |
TWI838640B (zh) | 2020-09-03 | 2024-04-11 | 美商海思智財控股有限公司 | 改善雙眼視覺的系統與方法 |
WO2022072565A1 (en) | 2020-09-30 | 2022-04-07 | Hes Ip Holdings, Llc | Virtual image display system for virtual reality and augmented reality devices |
US20220148268A1 (en) * | 2020-11-10 | 2022-05-12 | Noderix Teknoloji Sanayi Ticaret Anonim Sirketi | Systems and methods for personalized and interactive extended reality experiences |
US11556169B2 (en) * | 2021-02-11 | 2023-01-17 | Meta Platforms Technologies, Llc | Adaptable personal user interfaces in cross-application virtual reality settings |
US20230379568A1 (en) * | 2022-05-17 | 2023-11-23 | Raja Singh Tuli | Weareable camera with gestrue-based control |
WO2023235519A1 (en) * | 2022-06-03 | 2023-12-07 | Datasya Ltd. | Interactive multimedia collaboration platform with remote-controlled camera and annotation |
WO2024077077A1 (en) * | 2022-10-05 | 2024-04-11 | University Of Pittsburgh - Of The Commonwealth System Of Higher Education | Augmented-reality headsets for use in medical settings including surgery |
CN115630131B (zh) * | 2022-12-19 | 2023-04-07 | 北京码牛科技股份有限公司 | 一种轨迹数据时空切片方法、系统及电子设备 |
Family Cites Families (577)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2665041A (en) | 1952-01-09 | 1954-01-05 | Daniel J Maffucci | Combination form for washing woolen socks |
US4175862A (en) | 1975-08-27 | 1979-11-27 | Solid Photography Inc. | Arrangement for sensing the geometric characteristics of an object |
US4521831A (en) | 1984-01-18 | 1985-06-04 | Thayer John R | Protective helmet with dual adjustment illumination means |
GB8412587D0 (en) | 1984-05-17 | 1986-12-17 | Secr Defence | Aircrew headgear |
US4879659A (en) | 1987-11-24 | 1989-11-07 | Bowlin William P | Log processing systems |
US4876455A (en) | 1988-02-25 | 1989-10-24 | Westinghouse Electric Corp. | Fiber optic solder joint inspection system |
US4893223A (en) | 1989-01-10 | 1990-01-09 | Northern Telecom Limited | Illumination devices for inspection systems |
DE3906555A1 (de) | 1989-03-02 | 1989-07-06 | Zeiss Carl Fa | Auflicht-objektbeleuchtungseinrichtung |
JPH076782B2 (ja) | 1989-03-10 | 1995-01-30 | 工業技術院長 | 物体の形状測定方法及び装置 |
US5134661A (en) | 1991-03-04 | 1992-07-28 | Reinsch Roger A | Method of capture and analysis of digitized image data |
US5282067A (en) | 1991-10-07 | 1994-01-25 | California Institute Of Technology | Self-amplified optical pattern recognition system |
DE4201934A1 (de) | 1992-01-24 | 1993-07-29 | Siemens Ag | Gestik computer |
US6184326B1 (en) | 1992-03-20 | 2001-02-06 | Fina Technology, Inc. | Syndiotactic polypropylene |
US7983817B2 (en) | 1995-06-07 | 2011-07-19 | Automotive Technologies Internatinoal, Inc. | Method and arrangement for obtaining information about vehicle occupants |
JP3244798B2 (ja) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
CA2148231C (en) | 1993-01-29 | 1999-01-12 | Michael Haysom Bianchi | Automatic tracking camera control system |
WO1994026057A1 (en) | 1993-04-29 | 1994-11-10 | Scientific Generics Limited | Background separation for still and moving images |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US6061064A (en) | 1993-08-31 | 2000-05-09 | Sun Microsystems, Inc. | System and method for providing and using a computer user interface with a view space having discrete portions |
JPH0795561A (ja) | 1993-09-21 | 1995-04-07 | Sony Corp | 展示物説明システム |
US5659475A (en) | 1994-03-17 | 1997-08-19 | Brown; Daniel M. | Electronic air traffic control system for use in airport towers |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5900863A (en) | 1995-03-16 | 1999-05-04 | Kabushiki Kaisha Toshiba | Method and apparatus for controlling computer without touching input device |
JP3737537B2 (ja) | 1995-03-22 | 2006-01-18 | 帝人ファイバー株式会社 | 画像処理用照明手段の劣化検出方法 |
GB2301216A (en) | 1995-05-25 | 1996-11-27 | Philips Electronics Uk Ltd | Display headset |
IL114838A0 (en) | 1995-08-04 | 1996-11-14 | Spiegel Ehud | Apparatus and method for object tracking |
US5574511A (en) | 1995-10-18 | 1996-11-12 | Polaroid Corporation | Background replacement for an image |
US5742263A (en) | 1995-12-18 | 1998-04-21 | Telxon Corporation | Head tracking system for a head mounted display system |
JPH09259278A (ja) | 1996-03-25 | 1997-10-03 | Matsushita Electric Ind Co Ltd | 画像処理装置 |
US6002808A (en) | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
US6184926B1 (en) | 1996-11-26 | 2001-02-06 | Ncr Corporation | System and method for detecting a human face in uncontrolled environments |
JP3438855B2 (ja) | 1997-01-23 | 2003-08-18 | 横河電機株式会社 | 共焦点装置 |
US6492986B1 (en) | 1997-06-02 | 2002-12-10 | The Trustees Of The University Of Pennsylvania | Method for human face shape and motion estimation based on integrating optical flow and deformable models |
US6075895A (en) | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
US6252598B1 (en) | 1997-07-03 | 2001-06-26 | Lucent Technologies Inc. | Video hand image computer interface |
US6263091B1 (en) | 1997-08-22 | 2001-07-17 | International Business Machines Corporation | System and method for identifying foreground and background portions of digitized images |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6195104B1 (en) | 1997-12-23 | 2001-02-27 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6031161A (en) | 1998-02-04 | 2000-02-29 | Dekalb Genetics Corporation | Inbred corn plant GM9215 and seeds thereof |
US6154558A (en) | 1998-04-22 | 2000-11-28 | Hsieh; Kuan-Hong | Intention identification method |
US6421453B1 (en) | 1998-05-15 | 2002-07-16 | International Business Machines Corporation | Apparatus and methods for user recognition employing behavioral passwords |
JP2000023038A (ja) | 1998-06-30 | 2000-01-21 | Toshiba Corp | 画像抽出装置 |
US6493041B1 (en) | 1998-06-30 | 2002-12-10 | Sun Microsystems, Inc. | Method and apparatus for the detection of motion in video |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
JP4016526B2 (ja) | 1998-09-08 | 2007-12-05 | 富士ゼロックス株式会社 | 3次元物体識別装置 |
US6501515B1 (en) | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
US6594632B1 (en) | 1998-11-02 | 2003-07-15 | Ncr Corporation | Methods and apparatus for hands-free operation of a voice recognition system |
US7483049B2 (en) | 1998-11-20 | 2009-01-27 | Aman James A | Optimizations for live event, real-time, 3D object tracking |
WO2000034919A1 (en) | 1998-12-04 | 2000-06-15 | Interval Research Corporation | Background estimation and segmentation based on range and color |
US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US6204852B1 (en) | 1998-12-09 | 2001-03-20 | Lucent Technologies Inc. | Video hand image three-dimensional computer interface |
US6578203B1 (en) | 1999-03-08 | 2003-06-10 | Tazwell L. Anderson, Jr. | Audio/video signal distribution system for head mounted displays |
WO2000070558A1 (fr) | 1999-05-18 | 2000-11-23 | Sanyo Electric Co., Ltd. | Procede et dispositif de traitement d'image dynamique et support |
US6804656B1 (en) | 1999-06-23 | 2004-10-12 | Visicu, Inc. | System and method for providing continuous, expert network critical care services from a remote location(s) |
US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
US6346933B1 (en) | 1999-09-21 | 2002-02-12 | Seiko Epson Corporation | Interactive display presentation system |
US6734911B1 (en) | 1999-09-30 | 2004-05-11 | Koninklijke Philips Electronics N.V. | Tracking camera using a lens that generates both wide-angle and narrow-angle views |
WO2001095061A2 (en) | 1999-12-07 | 2001-12-13 | Frauenhofer Institut Fuer Graphische Datenverarbeitung | The extended virtual table: an optical extension for table-like projection systems |
JP4332964B2 (ja) | 1999-12-21 | 2009-09-16 | ソニー株式会社 | 情報入出力システム及び情報入出力方法 |
US6738424B1 (en) | 1999-12-27 | 2004-05-18 | Objectvideo, Inc. | Scene model generation from video for use in video processing |
US6771294B1 (en) | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
GB2358098A (en) | 2000-01-06 | 2001-07-11 | Sharp Kk | Method of segmenting a pixelled image |
US6674877B1 (en) | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6965113B2 (en) | 2000-02-10 | 2005-11-15 | Evotec Ag | Fluorescence intensity multiple distributions analysis: concurrent determination of diffusion times and molecular brightness |
US6798628B1 (en) | 2000-11-17 | 2004-09-28 | Pass & Seymour, Inc. | Arc fault circuit detector having two arc fault detection levels |
US6463402B1 (en) | 2000-03-06 | 2002-10-08 | Ralph W. Bennett | Infeed log scanning for lumber optimization |
WO2001089204A1 (en) | 2000-04-21 | 2001-11-22 | Lockheed Martin Corporation | Wide-field extended-depth doubly telecentric catadioptric optical system for digital imaging |
US6417970B1 (en) | 2000-06-08 | 2002-07-09 | Interactive Imaging Systems | Two stage optical system for head mounted display |
JP4040825B2 (ja) | 2000-06-12 | 2008-01-30 | 富士フイルム株式会社 | 画像撮像装置及び距離測定方法 |
EP1739528B1 (en) | 2000-07-05 | 2009-12-23 | Smart Technologies ULC | Method for a camera-based touch system |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US6850872B1 (en) | 2000-08-30 | 2005-02-01 | Microsoft Corporation | Facial image processing methods and systems |
US6901170B1 (en) | 2000-09-05 | 2005-05-31 | Fuji Xerox Co., Ltd. | Image processing device and recording medium |
US20020105484A1 (en) | 2000-09-25 | 2002-08-08 | Nassir Navab | System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality |
JP4483067B2 (ja) | 2000-10-24 | 2010-06-16 | 沖電気工業株式会社 | 対象物体抽出画像処理装置 |
US8042740B2 (en) | 2000-11-24 | 2011-10-25 | Metrologic Instruments, Inc. | Method of reading bar code symbols on objects at a point-of-sale station by passing said objects through a complex of stationary coplanar illumination and imaging planes projected into a 3D imaging volume |
JP3645177B2 (ja) | 2000-11-29 | 2005-05-11 | 三菱電機株式会社 | 車両周辺監視装置 |
US6774869B2 (en) | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
WO2002071333A2 (de) | 2001-03-08 | 2002-09-12 | Université Joseph Fourier | Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen |
US7542586B2 (en) | 2001-03-13 | 2009-06-02 | Johnson Raymond C | Touchless identification system for monitoring hand washing or application of a disinfectant |
WO2002086592A1 (de) | 2001-03-20 | 2002-10-31 | Thomson Licensing S.A. | Element zur kombinierten symmetrisierung und homogenisierung eines strahlenbündels |
US6814656B2 (en) | 2001-03-20 | 2004-11-09 | Luis J. Rodriguez | Surface treatment disks for rotary tools |
US7009773B2 (en) | 2001-05-23 | 2006-03-07 | Research Foundation Of The University Of Central Florida, Inc. | Compact microlenslet arrays imager |
US6919880B2 (en) | 2001-06-01 | 2005-07-19 | Smart Technologies Inc. | Calibrating camera offsets to facilitate object position determination using triangulation |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US20030123703A1 (en) | 2001-06-29 | 2003-07-03 | Honeywell International Inc. | Method for monitoring a moving object and system regarding same |
US20030053658A1 (en) | 2001-06-29 | 2003-03-20 | Honeywell International Inc. | Surveillance system and methods regarding same |
US20030053659A1 (en) | 2001-06-29 | 2003-03-20 | Honeywell International Inc. | Moving object assessment system and method |
US20040125228A1 (en) | 2001-07-25 | 2004-07-01 | Robert Dougherty | Apparatus and method for determining the range of remote objects |
US6999126B2 (en) | 2001-09-17 | 2006-02-14 | Mazzapica C Douglas | Method of eliminating hot spot in digital photograph |
US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
AU2002337944A1 (en) | 2001-10-22 | 2003-05-06 | University Of Southern | Extendable tracking by line auto-calibration |
US7213707B2 (en) | 2001-12-11 | 2007-05-08 | Walgreen Co. | Product shipping and display carton |
US6804654B2 (en) | 2002-02-11 | 2004-10-12 | Telemanager Technologies, Inc. | System and method for providing prescription services using voice recognition |
US7215828B2 (en) | 2002-02-13 | 2007-05-08 | Eastman Kodak Company | Method and system for determining image orientation |
US7340077B2 (en) | 2002-02-15 | 2008-03-04 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
JP2003256814A (ja) | 2002-02-27 | 2003-09-12 | Olympus Optical Co Ltd | 基板検査装置 |
US7831932B2 (en) | 2002-03-08 | 2010-11-09 | Revelations in Design, Inc. | Electric device control apparatus and methods for making and using same |
DE10213643A1 (de) | 2002-03-27 | 2003-10-09 | Geka Brush Gmbh | Kosmetikeinheit |
US7120297B2 (en) | 2002-04-25 | 2006-10-10 | Microsoft Corporation | Segmented layered image system |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
KR100575906B1 (ko) | 2002-10-25 | 2006-05-02 | 미츠비시 후소 트럭 앤드 버스 코포레이션 | 핸드 패턴 스위치 장치 |
US7046924B2 (en) | 2002-11-25 | 2006-05-16 | Eastman Kodak Company | Method and computer program product for determining an area of importance in an image using eye monitoring information |
US7400344B2 (en) | 2002-12-19 | 2008-07-15 | Hitachi Kokusai Electric Inc. | Object tracking method and object tracking apparatus |
GB2398469B (en) | 2003-02-12 | 2005-10-26 | Canon Europa Nv | Image processing apparatus |
JP2004246252A (ja) | 2003-02-17 | 2004-09-02 | Takenaka Komuten Co Ltd | 画像情報収集装置及び方法 |
US7257237B1 (en) | 2003-03-07 | 2007-08-14 | Sandia Corporation | Real time markerless motion tracking using linked kinematic chains |
US7532206B2 (en) | 2003-03-11 | 2009-05-12 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
US7738725B2 (en) | 2003-03-19 | 2010-06-15 | Mitsubishi Electric Research Laboratories, Inc. | Stylized rendering using a multi-flash camera |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
EP1625388A1 (de) | 2003-05-19 | 2006-02-15 | Micro-Epsilon Messtechnik GmbH & Co. KG | Verfahren und vorrichtung zur optischen qualitätsprüfung von objekten mit vor-zugsweise kreisförmig umlaufendem rand |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
DE10326035B4 (de) | 2003-06-10 | 2005-12-22 | Hema Electronic Gmbh | Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche |
US7492934B2 (en) | 2003-06-17 | 2009-02-17 | Brown University | Methods and apparatus for model-based detection of structure in view data |
US7606417B2 (en) | 2004-08-16 | 2009-10-20 | Fotonation Vision Limited | Foreground/background segmentation in digital images with differential exposure calculations |
US7244233B2 (en) | 2003-07-29 | 2007-07-17 | Ntd Laboratories, Inc. | System and method for utilizing shape analysis to assess fetal abnormality |
JP3752246B2 (ja) | 2003-08-11 | 2006-03-08 | 学校法人慶應義塾 | ハンドパターンスイッチ装置 |
US7633633B2 (en) | 2003-08-29 | 2009-12-15 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Position determination that is responsive to a retro-reflective object |
US8661571B1 (en) | 2003-10-06 | 2014-03-04 | Wilcox Industries Corp. | Helmet mounting systems |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
GB2407635B (en) | 2003-10-31 | 2006-07-12 | Hewlett Packard Development Co | Improvements in and relating to camera control |
US7961934B2 (en) | 2003-12-11 | 2011-06-14 | Strider Labs, Inc. | Probable reconstruction of surfaces in occluded regions by computed symmetry |
US7217913B2 (en) | 2003-12-18 | 2007-05-15 | Micron Technology, Inc. | Method and system for wavelength-dependent imaging and detection using a hybrid filter |
US7184022B2 (en) | 2004-01-16 | 2007-02-27 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Position determination and motion tracking |
US7663689B2 (en) | 2004-01-16 | 2010-02-16 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
US7707039B2 (en) | 2004-02-15 | 2010-04-27 | Exbiblio B.V. | Automatic modification of web pages |
US8872914B2 (en) | 2004-02-04 | 2014-10-28 | Acushnet Company | One camera stereo system |
US7812860B2 (en) | 2004-04-01 | 2010-10-12 | Exbiblio B.V. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
EP1599033A4 (en) | 2004-02-18 | 2008-02-13 | Matsushita Electric Ind Co Ltd | IMAGE CORRECTION METHOD AND IMAGE CORRECTION APPARATUS |
JP4419603B2 (ja) | 2004-02-25 | 2010-02-24 | 日本電気株式会社 | 液晶表示装置の駆動方法 |
JP2005277445A (ja) | 2004-03-22 | 2005-10-06 | Fuji Xerox Co Ltd | 会議映像処理装置、会議映像処理方法およびプログラム |
DE102004015785B4 (de) | 2004-03-25 | 2012-06-06 | Sikora Ag | Verfahren zur Bestimmung der Abmessung eines Querschnitts eines Flachkabels oder eines Sektorleiters |
US7325735B2 (en) | 2004-04-02 | 2008-02-05 | K-Nfb Reading Technology, Inc. | Directed reading mode for portable reading machine |
JP4708422B2 (ja) | 2004-04-15 | 2011-06-22 | ジェスチャー テック,インコーポレイテッド | 両手動作の追跡 |
JP4751032B2 (ja) | 2004-04-22 | 2011-08-17 | 株式会社森精機製作所 | 変位検出装置 |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
JP2008505383A (ja) | 2004-06-29 | 2008-02-21 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 個人ジェスチャ署名 |
US7743348B2 (en) | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
JP4916096B2 (ja) | 2004-07-01 | 2012-04-11 | イビデン株式会社 | 光通信用デバイス |
US20060017720A1 (en) | 2004-07-15 | 2006-01-26 | Li You F | System and method for 3D measurement and surface reconstruction |
US7990422B2 (en) | 2004-07-19 | 2011-08-02 | Grandeye, Ltd. | Automatically expanding the zoom capability of a wide-angle video camera |
US7576767B2 (en) | 2004-07-26 | 2009-08-18 | Geo Semiconductors Inc. | Panoramic vision system and method |
WO2006020846A2 (en) | 2004-08-11 | 2006-02-23 | THE GOVERNMENT OF THE UNITED STATES OF AMERICA as represented by THE SECRETARY OF THE NAVY Naval Research Laboratory | Simulated locomotion method and apparatus |
EP1645944B1 (en) | 2004-10-05 | 2012-08-15 | Sony France S.A. | A content-management interface |
US7706571B2 (en) | 2004-10-13 | 2010-04-27 | Sarnoff Corporation | Flexible layer tracking with weak online appearance model |
GB2419433A (en) | 2004-10-20 | 2006-04-26 | Glasgow School Of Art | Automated Gesture Recognition |
WO2006057768A2 (en) | 2004-11-24 | 2006-06-01 | Battelle Memorial Institute | Optical system for cell imaging |
CN101198964A (zh) | 2005-01-07 | 2008-06-11 | 格斯图尔泰克股份有限公司 | 使用红外图案照射创建对象的三维图像 |
US7598942B2 (en) | 2005-02-08 | 2009-10-06 | Oblong Industries, Inc. | System and method for gesture based control system |
EP1851727A4 (en) | 2005-02-23 | 2008-12-03 | Craig Summers | AUTOMATIC SCENES MODELING FOR 3D CAMERA AND 3D VIDEO |
WO2006090197A1 (en) | 2005-02-24 | 2006-08-31 | Nokia Corporation | Motion-input device for a computing terminal and method of its operation |
US7715589B2 (en) | 2005-03-07 | 2010-05-11 | Massachusetts Institute Of Technology | Occluding contour detection and storage for digital photography |
JP4678487B2 (ja) | 2005-03-15 | 2011-04-27 | オムロン株式会社 | 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム |
JP4642538B2 (ja) | 2005-04-20 | 2011-03-02 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
WO2006116634A2 (en) | 2005-04-26 | 2006-11-02 | Novadaq Technologies, Inc. | Method and apparatus for vasculature visualization with applications in neurosurgery and neurology |
US20060239921A1 (en) | 2005-04-26 | 2006-10-26 | Novadaq Technologies Inc. | Real time vascular imaging during solid organ transplant |
US20090309710A1 (en) | 2005-04-28 | 2009-12-17 | Aisin Seiki Kabushiki Kaisha | Vehicle Vicinity Monitoring System |
JP2006323212A (ja) | 2005-05-19 | 2006-11-30 | Konica Minolta Photo Imaging Inc | レンズユニット、およびそれを備えた撮像装置 |
US7613363B2 (en) | 2005-06-23 | 2009-11-03 | Microsoft Corp. | Image superresolution through edge extraction and contrast enhancement |
GB2442627A (en) | 2005-07-08 | 2008-04-09 | Electro Scient Ind Inc | Achieving convergent light rays emitted by planar array of light sources |
EP1929430A4 (en) | 2005-08-29 | 2011-06-29 | Evryx Technologies Inc | INTERACTIVITY OF MOBILITY RECOGNITION |
US8625854B2 (en) | 2005-09-09 | 2014-01-07 | Industrial Research Limited | 3D scene scanner and a position and orientation system |
JP4622763B2 (ja) | 2005-09-14 | 2011-02-02 | 日本電気株式会社 | 携帯通信端末装置及び認証方法 |
WO2007035558A2 (en) | 2005-09-16 | 2007-03-29 | Flixor, Inc. | Personalizing a video |
US8057408B2 (en) | 2005-09-22 | 2011-11-15 | The Regents Of The University Of Michigan | Pulsed cavitational ultrasound therapy |
DE102005047160B4 (de) | 2005-09-30 | 2007-06-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zum Ermitteln einer Information über eine Form und/oder eine Lage einer Ellipse in einem graphischen Bild |
US8050461B2 (en) | 2005-10-11 | 2011-11-01 | Primesense Ltd. | Depth-varying light fields for three dimensional sensing |
US9046962B2 (en) | 2005-10-31 | 2015-06-02 | Extreme Reality Ltd. | Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region |
US7570732B2 (en) | 2005-11-09 | 2009-08-04 | Dexela Limited | Methods and apparatus for obtaining low-dose imaging |
US20070130547A1 (en) | 2005-12-01 | 2007-06-07 | Navisense, Llc | Method and system for touchless user interface control |
CN100502463C (zh) | 2005-12-14 | 2009-06-17 | 浙江工业大学 | 一种交通流信息视频检测中的特征采集方法 |
DE102005061557B3 (de) | 2005-12-22 | 2007-11-22 | Siemens Ag | Bildgebungsgerät sowie Verfahren zum Betrieb eines Bildgebungsgerätes |
EP1983402A4 (en) * | 2006-02-03 | 2013-06-26 | Panasonic Corp | INPUT DEVICE AND ITS METHOD |
US20090278915A1 (en) | 2006-02-08 | 2009-11-12 | Oblong Industries, Inc. | Gesture-Based Control System For Vehicle Interfaces |
KR20070083436A (ko) | 2006-02-21 | 2007-08-24 | 삼성전자주식회사 | 객체인증장치 및 방법 |
US7466790B2 (en) | 2006-03-02 | 2008-12-16 | General Electric Company | Systems and methods for improving a resolution of an image |
US7834780B2 (en) | 2006-03-20 | 2010-11-16 | Tektronix, Inc. | Waveform compression and display |
JP2007271876A (ja) | 2006-03-31 | 2007-10-18 | Denso Corp | 音声認識装置および音声認識用のプログラム |
JP4797752B2 (ja) | 2006-03-31 | 2011-10-19 | 株式会社デンソー | 移動体用操作物体抽出装置 |
JP2009533786A (ja) | 2006-04-10 | 2009-09-17 | アヴァワークス インコーポレーテッド | 自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法 |
WO2007137093A2 (en) | 2006-05-16 | 2007-11-29 | Madentec | Systems and methods for a hands free mouse |
US7676169B2 (en) | 2006-05-22 | 2010-03-09 | Lexmark International, Inc. | Multipath toner patch sensor for use in an image forming device |
US8086971B2 (en) | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US7983451B2 (en) | 2006-06-30 | 2011-07-19 | Motorola Mobility, Inc. | Recognition method using hand biometrics with anti-counterfeiting |
EP1879149B1 (en) | 2006-07-10 | 2016-03-16 | Fondazione Bruno Kessler | method and apparatus for tracking a number of objects or object parts in image sequences |
US8180114B2 (en) | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8589824B2 (en) | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US9696808B2 (en) | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
KR100776801B1 (ko) | 2006-07-19 | 2007-11-19 | 한국전자통신연구원 | 화상 처리 시스템에서의 제스처 인식 장치 및 방법 |
US20080030429A1 (en) | 2006-08-07 | 2008-02-07 | International Business Machines Corporation | System and method of enhanced virtual reality |
US20080064954A1 (en) | 2006-08-24 | 2008-03-13 | Baylor College Of Medicine | Method of measuring propulsion in lymphatic structures |
USD552152S1 (en) | 2006-08-31 | 2007-10-02 | William Chase Almond | Utility tray for tripod |
KR100783552B1 (ko) | 2006-10-11 | 2007-12-07 | 삼성전자주식회사 | 휴대 단말기의 입력 제어 방법 및 장치 |
US20110025818A1 (en) | 2006-11-07 | 2011-02-03 | Jonathan Gallmeier | System and Method for Controlling Presentations and Videoconferences Using Hand Motions |
US8102465B2 (en) | 2006-11-07 | 2012-01-24 | Fujifilm Corporation | Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject |
US7605686B2 (en) | 2006-11-16 | 2009-10-20 | Motorola, Inc. | Alerting system for a communication device |
EP2081494B1 (en) | 2006-11-16 | 2018-07-11 | Vanderbilt University | System and method of compensating for organ deformation |
US8050206B2 (en) | 2006-11-20 | 2011-11-01 | Micropower Technologies, Inc. | Wireless network camera systems |
SE0602545L (en) | 2006-11-29 | 2008-05-30 | Tobii Technology Ab | Eye tracking illumination |
US7971156B2 (en) | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
WO2008087652A2 (en) | 2007-01-21 | 2008-07-24 | Prime Sense Ltd. | Depth mapping using multi-beam illumination |
KR20080073933A (ko) | 2007-02-07 | 2008-08-12 | 삼성전자주식회사 | 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치 |
AU2008222933A1 (en) | 2007-03-02 | 2008-09-12 | Organic Motion | System and method for tracking three dimensional objects |
JP2008227569A (ja) | 2007-03-08 | 2008-09-25 | Seiko Epson Corp | 撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム |
JP4605170B2 (ja) | 2007-03-23 | 2011-01-05 | 株式会社デンソー | 操作入力装置 |
JP2008250774A (ja) | 2007-03-30 | 2008-10-16 | Denso Corp | 情報機器操作装置 |
US8493496B2 (en) | 2007-04-02 | 2013-07-23 | Primesense Ltd. | Depth mapping using projected patterns |
JP4664432B2 (ja) | 2007-04-13 | 2011-04-06 | パイオニア株式会社 | ショットサイズ識別装置及び方法、電子機器、並びにコンピュータプログラム |
JP4854582B2 (ja) | 2007-04-25 | 2012-01-18 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US20080291160A1 (en) | 2007-05-09 | 2008-11-27 | Nintendo Co., Ltd. | System and method for recognizing multi-axis gestures based on handheld controller accelerometer outputs |
US20080278589A1 (en) | 2007-05-11 | 2008-11-13 | Karl Ola Thorn | Methods for identifying a target subject to automatically focus a digital camera and related systems, and computer program products |
US8229134B2 (en) | 2007-05-24 | 2012-07-24 | University Of Maryland | Audio camera using microphone arrays for real time capture of audio images and method for jointly processing the audio images with video images |
US7940985B2 (en) | 2007-06-06 | 2011-05-10 | Microsoft Corporation | Salient object detection |
US8027518B2 (en) | 2007-06-25 | 2011-09-27 | Microsoft Corporation | Automatic configuration of devices based on biometric data |
US20090002489A1 (en) | 2007-06-29 | 2009-01-01 | Fuji Xerox Co., Ltd. | Efficient tracking multiple objects through occlusion |
US20090038056A1 (en) | 2007-07-20 | 2009-02-12 | Joseph Bobbin | Electronic module adapter for headgear |
JP2009031939A (ja) | 2007-07-25 | 2009-02-12 | Advanced Telecommunication Research Institute International | 画像処理装置、画像処理方法及び画像処理プログラム |
CN101802760B (zh) | 2007-08-30 | 2013-03-20 | 奈克斯特控股有限公司 | 具有改进照明的光学触摸屏 |
JP4929109B2 (ja) | 2007-09-25 | 2012-05-09 | 株式会社東芝 | ジェスチャ認識装置及びその方法 |
GB2453163B (en) * | 2007-09-26 | 2011-06-29 | Christopher Douglas Blair | Three-dimensional imaging system |
US8144233B2 (en) | 2007-10-03 | 2012-03-27 | Sony Corporation | Display control device, display control method, and display control program for superimposing images to create a composite image |
US20090093307A1 (en) | 2007-10-08 | 2009-04-09 | Sony Computer Entertainment America Inc. | Enhanced game controller |
US8139110B2 (en) | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
WO2009059465A1 (en) | 2007-11-08 | 2009-05-14 | Lite-On It Corporation | Continuous control of led light beam position and focus based on selection and intensity control |
US8777875B2 (en) | 2008-07-23 | 2014-07-15 | Otismed Corporation | System and method for manufacturing arthroplasty jigs having improved mating accuracy |
WO2009085233A2 (en) | 2007-12-21 | 2009-07-09 | 21Ct, Inc. | System and method for visually tracking with occlusions |
US20120204133A1 (en) | 2009-01-13 | 2012-08-09 | Primesense Ltd. | Gesture-Based User Interface |
US8319832B2 (en) | 2008-01-31 | 2012-11-27 | Denso Corporation | Input apparatus and imaging apparatus |
US8270669B2 (en) | 2008-02-06 | 2012-09-18 | Denso Corporation | Apparatus for extracting operating object and apparatus for projecting operating hand |
US8555207B2 (en) | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
DE102008000479A1 (de) | 2008-03-03 | 2009-09-10 | Amad - Mennekes Holding Gmbh & Co. Kg | Steckvorrichtung mit Zugentlastung |
US9503562B2 (en) | 2008-03-19 | 2016-11-22 | Universal Electronics Inc. | System and method for appliance control via a personal communication or entertainment device |
US8073203B2 (en) | 2008-04-15 | 2011-12-06 | Cyberlink Corp. | Generating effects in a webcam application |
WO2009144707A1 (en) | 2008-04-17 | 2009-12-03 | Shilat Optronics Ltd | Intrusion warning system |
EP2283375B1 (en) | 2008-04-18 | 2014-11-12 | Eidgenössische Technische Hochschule (ETH) | Travelling-wave nuclear magnetic resonance method |
US9952673B2 (en) | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
WO2009142797A2 (en) | 2008-05-19 | 2009-11-26 | Bae Systems Aerospace & Defense Group Inc. | Vision augmentation system |
US8537122B2 (en) | 2008-06-24 | 2013-09-17 | Microsoft Corporation | Touch screen adapter for monitor |
US8249345B2 (en) | 2008-06-27 | 2012-08-21 | Mako Surgical Corp. | Automatic image segmentation using contour propagation |
WO2010007662A1 (ja) | 2008-07-15 | 2010-01-21 | イチカワ株式会社 | 成形プレス用耐熱クッション材 |
US8131063B2 (en) | 2008-07-16 | 2012-03-06 | Seiko Epson Corporation | Model-based object image processing |
US20100013662A1 (en) | 2008-07-17 | 2010-01-21 | Michael Stude | Product locating system |
JP2010033367A (ja) | 2008-07-29 | 2010-02-12 | Canon Inc | 情報処理装置及び情報処理方法 |
US20100027845A1 (en) | 2008-07-31 | 2010-02-04 | Samsung Electronics Co., Ltd. | System and method for motion detection based on object trajectory |
DE102008040949B4 (de) | 2008-08-01 | 2012-03-08 | Sirona Dental Systems Gmbh | Optisches Projektionsgitter, Messkamera mit optischem Projektionsgitter und Verfahren zur Erzeugung eines optischen Projektionsgitters |
US8520979B2 (en) | 2008-08-19 | 2013-08-27 | Digimarc Corporation | Methods and systems for content processing |
TW201009650A (en) | 2008-08-28 | 2010-03-01 | Acer Inc | Gesture guide system and method for controlling computer system by gesture |
US20100053209A1 (en) | 2008-08-29 | 2010-03-04 | Siemens Medical Solutions Usa, Inc. | System for Processing Medical Image data to Provide Vascular Function Information |
DE102008045387B4 (de) | 2008-09-02 | 2017-02-09 | Carl Zeiss Ag | Vorrichtung und Verfahren zum Vermessen einer Oberfläche |
US20100053151A1 (en) | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
TWI425203B (zh) | 2008-09-03 | 2014-02-01 | Univ Nat Central | 高頻譜掃描裝置及其方法 |
US20110163948A1 (en) * | 2008-09-04 | 2011-07-07 | Dor Givon | Method system and software for providing image sensor based human machine interfacing |
JP4613994B2 (ja) | 2008-09-16 | 2011-01-19 | ソニー株式会社 | 動態推定装置、動態推定方法、プログラム |
WO2010032268A2 (en) | 2008-09-19 | 2010-03-25 | Avinash Saxena | System and method for controlling graphical objects |
JP5529146B2 (ja) | 2008-10-10 | 2014-06-25 | クアルコム,インコーポレイテッド | シングルカメラトラッキング装置 |
CN101729808B (zh) | 2008-10-14 | 2012-03-28 | Tcl集团股份有限公司 | 一种电视遥控方法及用该方法遥控操作电视机的系统 |
WO2010045406A2 (en) | 2008-10-15 | 2010-04-22 | The Regents Of The University Of California | Camera system with autonomous miniature camera and light source assembly and method for image enhancement |
US8744122B2 (en) | 2008-10-22 | 2014-06-03 | Sri International | System and method for object detection from a moving platform |
CN201332447Y (zh) | 2008-10-22 | 2009-10-21 | 康佳集团股份有限公司 | 一种通过手势变化控制或操作游戏的电视 |
DE102008052928A1 (de) | 2008-10-23 | 2010-05-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zur Erkennung einer Geste in einem Bild, sowie Vorrichtung, Verfahren und Computerprogramm zur Steuerung eines Geräts |
USD620514S1 (en) | 2008-10-31 | 2010-07-27 | Microsoft Corporation | Electronic camera and base |
US20100121189A1 (en) | 2008-11-12 | 2010-05-13 | Sonosite, Inc. | Systems and methods for image presentation for medical examination and interventional procedures |
TW201020896A (en) | 2008-11-19 | 2010-06-01 | Nat Applied Res Laboratories | Method of gesture control |
US8502787B2 (en) | 2008-11-26 | 2013-08-06 | Panasonic Corporation | System and method for differentiating between intended and unintended user input on a touchpad |
EP2193825B1 (en) | 2008-12-03 | 2017-03-22 | Alcatel Lucent | Mobile device for augmented reality applications |
US20100153457A1 (en) | 2008-12-15 | 2010-06-17 | Grant Isaac W | Gestural Interface Device and Method |
KR101215987B1 (ko) | 2008-12-22 | 2012-12-28 | 한국전자통신연구원 | 전경/배경 분리 장치 및 방법 |
US8289162B2 (en) | 2008-12-22 | 2012-10-16 | Wimm Labs, Inc. | Gesture-based user interface for a wearable portable device |
US8379987B2 (en) | 2008-12-30 | 2013-02-19 | Nokia Corporation | Method, apparatus and computer program product for providing hand segmentation for gesture analysis |
US8126985B1 (en) | 2008-12-31 | 2012-02-28 | Qurio Holdings, Inc. | Prioritizing virtual object downloads in a distributed virtual environment |
US8290208B2 (en) | 2009-01-12 | 2012-10-16 | Eastman Kodak Company | Enhanced safety during laser projection |
EP2389622A1 (en) | 2009-01-26 | 2011-11-30 | Zrro Technologies (2009) Ltd. | Device and method for monitoring an object's behavior |
US7996793B2 (en) | 2009-01-30 | 2011-08-09 | Microsoft Corporation | Gesture recognizer system architecture |
US8448094B2 (en) | 2009-01-30 | 2013-05-21 | Microsoft Corporation | Mapping a natural input device to a legacy system |
JP4771183B2 (ja) | 2009-01-30 | 2011-09-14 | 株式会社デンソー | 操作装置 |
US8624962B2 (en) | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
JP5816098B2 (ja) | 2009-02-02 | 2015-11-18 | アイサイト モバイル テクノロジーズ リミテッド | ビデオストリームの中のオブジェクト認識および追跡システムおよび方法 |
US9569001B2 (en) | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
EP2394224A1 (en) | 2009-02-05 | 2011-12-14 | Digimarc Corporation | Television-based advertising and distribution of tv widgets for the cell phone |
KR100992411B1 (ko) | 2009-02-06 | 2010-11-05 | (주)실리콘화일 | 피사체의 근접여부 판단이 가능한 이미지센서 |
US8976158B2 (en) | 2009-02-15 | 2015-03-10 | Neonode Inc. | User interface for white goods and associated multi-channel proximity sensors |
US8775023B2 (en) | 2009-02-15 | 2014-07-08 | Neanode Inc. | Light-based touch controls on a steering wheel and dashboard |
GB2467932A (en) | 2009-02-19 | 2010-08-25 | Sony Corp | Image processing device and method |
US20100216508A1 (en) | 2009-02-23 | 2010-08-26 | Augusta Technology, Inc. | Systems and Methods for Driving an External Display Device Using a Mobile Phone Device |
JP2010204730A (ja) | 2009-02-27 | 2010-09-16 | Seiko Epson Corp | ジェスチャーに応答して機器を制御するシステム |
US9317128B2 (en) | 2009-04-02 | 2016-04-19 | Oblong Industries, Inc. | Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control |
JP4840620B2 (ja) | 2009-04-30 | 2011-12-21 | 株式会社デンソー | 車載用電子機器操作装置 |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
JP5522757B2 (ja) | 2009-05-12 | 2014-06-18 | コーニンクレッカ フィリップス エヌ ヴェ | カメラ、カメラを有するシステム、カメラを動作させる方法及び記録された画像をデコンボリュートする方法 |
WO2010134512A1 (ja) | 2009-05-20 | 2010-11-25 | 株式会社 日立メディコ | 医用画像診断装置とその関心領域設定方法 |
TWI395483B (zh) | 2009-05-25 | 2013-05-01 | Visionatics Inc | 使用適應性背景模型之移動物體偵測方法及其電腦程式產品 |
US20100302357A1 (en) | 2009-05-26 | 2010-12-02 | Che-Hao Hsu | Gesture-based remote control system |
US8112719B2 (en) | 2009-05-26 | 2012-02-07 | Topseed Technology Corp. | Method for controlling gesture-based remote control system |
EP2436001B1 (en) | 2009-05-27 | 2018-02-14 | Analog Devices, Inc. | Position measurement systems using position sensitive detectors |
JP2011010258A (ja) | 2009-05-27 | 2011-01-13 | Seiko Epson Corp | 画像処理装置、画像表示システム、画像抽出装置 |
US8009022B2 (en) | 2009-05-29 | 2011-08-30 | Microsoft Corporation | Systems and methods for immersive interaction with virtual objects |
US8693724B2 (en) | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
GB2470831B (en) | 2009-06-01 | 2016-11-02 | Wilcox Ind Corp | Helmet mount for viewing device |
US20100309097A1 (en) | 2009-06-04 | 2010-12-09 | Roni Raviv | Head mounted 3d display |
US9594431B2 (en) | 2009-06-19 | 2017-03-14 | Hewlett-Packard Development Company, L.P. | Qualified command |
US8907941B2 (en) | 2009-06-23 | 2014-12-09 | Disney Enterprises, Inc. | System and method for integrating multiple virtual rendering systems to provide an augmented reality |
CN101930610B (zh) | 2009-06-26 | 2012-05-02 | 思创影像科技股份有限公司 | 使用适应性背景模型的移动物体侦测方法 |
US8356261B1 (en) | 2009-07-02 | 2013-01-15 | Asml Netherlands B.V. | Determining the gradient and hessian of the image log slope for design rule optimization for accelerating source mask optimization (SMO) |
US20110007072A1 (en) | 2009-07-09 | 2011-01-13 | University Of Central Florida Research Foundation, Inc. | Systems and methods for three-dimensionally modeling moving objects |
JP5771913B2 (ja) | 2009-07-17 | 2015-09-02 | 株式会社ニコン | 焦点調節装置、およびカメラ |
US9131142B2 (en) | 2009-07-17 | 2015-09-08 | Nikon Corporation | Focusing device and camera |
US8428368B2 (en) | 2009-07-31 | 2013-04-23 | Echostar Technologies L.L.C. | Systems and methods for hand gesture control of an electronic device |
WO2011024193A2 (en) | 2009-08-20 | 2011-03-03 | Natarajan Kannan | Electronically variable field of view (fov) infrared illuminator |
JP5614014B2 (ja) | 2009-09-04 | 2014-10-29 | ソニー株式会社 | 情報処理装置、表示制御方法及び表示制御プログラム |
USD627815S1 (en) | 2009-09-11 | 2010-11-23 | Tomy Company, Ltd. | Monitor with camera |
US8341558B2 (en) | 2009-09-16 | 2012-12-25 | Google Inc. | Gesture recognition on computing device correlating input to a template |
US8681124B2 (en) | 2009-09-22 | 2014-03-25 | Microsoft Corporation | Method and system for recognition of user gesture interaction with passive surface video displays |
US9507411B2 (en) | 2009-09-22 | 2016-11-29 | Facebook, Inc. | Hand tracker for device with display |
JP2011081453A (ja) | 2009-10-02 | 2011-04-21 | Toshiba Corp | 映像再生装置及び映像再生方法 |
US8547327B2 (en) | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
DE102009049073A1 (de) | 2009-10-12 | 2011-04-21 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung |
US9292084B2 (en) | 2009-10-13 | 2016-03-22 | Intel Corporation | Control systems and methods for head-mounted information systems |
GB2483168B (en) | 2009-10-13 | 2013-06-12 | Pointgrab Ltd | Computer vision gesture based control of a device |
US8593576B2 (en) | 2009-10-15 | 2013-11-26 | At&T Intellectual Property I, L.P. | Gesture-based remote control |
US9400548B2 (en) | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
KR101633359B1 (ko) | 2009-10-20 | 2016-06-27 | 삼성전자 주식회사 | 투사 불변량을 이용한 무표식 증강 현실 구현 시스템 및 그 방법 |
US20110107216A1 (en) | 2009-11-03 | 2011-05-05 | Qualcomm Incorporated | Gesture-based user interface |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US8739313B2 (en) | 2009-11-20 | 2014-06-03 | Wilcox Industries Corp. | Helmet mounting systems |
KR101092909B1 (ko) | 2009-11-27 | 2011-12-12 | (주)디스트릭트홀딩스 | 제스쳐 인터렉티브 홀로그램 출력장치 및 방법 |
US20110205186A1 (en) | 2009-12-04 | 2011-08-25 | John David Newton | Imaging Methods and Systems for Position Detection |
KR101373285B1 (ko) | 2009-12-08 | 2014-03-11 | 한국전자통신연구원 | 제스쳐 인식 기능을 갖는 휴대 단말기 및 이를 이용한 인터페이스 시스템 |
GB0921461D0 (en) | 2009-12-08 | 2010-01-20 | Qinetiq Ltd | Range based sensing |
EP2337323A1 (en) | 2009-12-17 | 2011-06-22 | NTT DoCoMo, Inc. | Method and an apparatus for performing interaction between a mobile device and a screen |
KR101307341B1 (ko) | 2009-12-18 | 2013-09-11 | 한국전자통신연구원 | 동적 개체 모션 캡쳐 방법 및 그 장치 |
US8232990B2 (en) | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
US8631355B2 (en) | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US9019201B2 (en) | 2010-01-08 | 2015-04-28 | Microsoft Technology Licensing, Llc | Evolving universal gesture sets |
US9268404B2 (en) | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US8933884B2 (en) | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
US9335825B2 (en) | 2010-01-26 | 2016-05-10 | Nokia Technologies Oy | Gesture control |
US8984665B2 (en) | 2010-02-02 | 2015-03-24 | Wilcox Industries Corp. | Helmet mounting system and mounting shoe interface |
RU2422878C1 (ru) | 2010-02-04 | 2011-06-27 | Владимир Валентинович Девятков | Способ управления телевизором с помощью мультимодального интерфейса |
KR101184460B1 (ko) | 2010-02-05 | 2012-09-19 | 연세대학교 산학협력단 | 마우스 포인터 제어 장치 및 방법 |
US8659658B2 (en) | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US20130278631A1 (en) | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US20140063055A1 (en) | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US20120194420A1 (en) | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with event triggered user action control of ar eyepiece facility |
AU2011220382A1 (en) | 2010-02-28 | 2012-10-18 | Microsoft Corporation | Local advertising content on an interactive head-mounted eyepiece |
TW201133358A (en) | 2010-03-18 | 2011-10-01 | Hon Hai Prec Ind Co Ltd | System and method for detecting objects in a video image |
CN102201121A (zh) | 2010-03-23 | 2011-09-28 | 鸿富锦精密工业(深圳)有限公司 | 视频场景中的物件侦测系统与方法 |
WO2011119154A1 (en) | 2010-03-24 | 2011-09-29 | Hewlett-Packard Development Company, L.P. | Gesture mapping for display device |
CA2735325C (en) | 2010-03-25 | 2015-01-20 | User Interface In Sweden Ab | System and method for gesture detection and feedback |
US20110234631A1 (en) | 2010-03-25 | 2011-09-29 | Bizmodeline Co., Ltd. | Augmented reality systems |
JP5743416B2 (ja) | 2010-03-29 | 2015-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
EP2372512A1 (en) | 2010-03-30 | 2011-10-05 | Harman Becker Automotive Systems GmbH | Vehicle user interface unit for a vehicle electronic device |
JP2011210139A (ja) | 2010-03-30 | 2011-10-20 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US20110251896A1 (en) | 2010-04-09 | 2011-10-13 | Affine Systems, Inc. | Systems and methods for matching an advertisement to a video |
CN201859393U (zh) | 2010-04-13 | 2011-06-08 | 任峰 | 三维手势识别盒 |
US8405680B1 (en) | 2010-04-19 | 2013-03-26 | YDreams S.A., A Public Limited Liability Company | Various methods and apparatuses for achieving augmented reality |
WO2011139734A2 (en) | 2010-04-27 | 2011-11-10 | Sanjay Nichani | Method for moving object detection using an image sensor and structured light |
WO2011134083A1 (en) | 2010-04-28 | 2011-11-03 | Ryerson University | System and methods for intraoperative guidance feedback |
CN102236412A (zh) | 2010-04-30 | 2011-11-09 | 宏碁股份有限公司 | 三维手势识别系统以及基于视觉的手势识别方法 |
US9539510B2 (en) | 2010-04-30 | 2017-01-10 | Microsoft Technology Licensing, Llc | Reshapable connector with variable rigidity |
WO2011138775A1 (en) | 2010-05-04 | 2011-11-10 | Timocco Ltd. | System and method for tracking and mapping an object to a target |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US20110289455A1 (en) | 2010-05-18 | 2011-11-24 | Microsoft Corporation | Gestures And Gesture Recognition For Manipulating A User-Interface |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US20110299737A1 (en) | 2010-06-04 | 2011-12-08 | Acer Incorporated | Vision-based hand movement recognition system and method thereof |
US8985411B2 (en) | 2010-06-07 | 2015-03-24 | Ryan Mongan | Duty belt system |
EP2395413B1 (en) | 2010-06-09 | 2018-10-03 | The Boeing Company | Gesture-based human machine interface |
JP2011257337A (ja) | 2010-06-11 | 2011-12-22 | Seiko Epson Corp | 光学式位置検出装置および位置検出機能付き表示装置 |
US8670029B2 (en) | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US8542320B2 (en) | 2010-06-17 | 2013-09-24 | Sony Corporation | Method and system to control a non-gesture controlled device using gesture interactions with a gesture controlled device |
US20110314427A1 (en) | 2010-06-18 | 2011-12-22 | Samsung Electronics Co., Ltd. | Personalization using custom gestures |
US8416187B2 (en) | 2010-06-22 | 2013-04-09 | Microsoft Corporation | Item navigation using motion-capture data |
DE102010030616A1 (de) | 2010-06-28 | 2011-12-29 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erkennen eines Störobjekts in einem Kamerabild |
USD656175S1 (en) | 2010-07-12 | 2012-03-20 | Gary Fong, Inc. | Tripod mount for electronic device |
US20120050007A1 (en) | 2010-08-24 | 2012-03-01 | Babak Forutanpour | Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display |
US9111498B2 (en) | 2010-08-25 | 2015-08-18 | Eastman Kodak Company | Head-mounted display with environmental state detection |
US10026227B2 (en) | 2010-09-02 | 2018-07-17 | The Boeing Company | Portable augmented reality |
US20130241832A1 (en) | 2010-09-07 | 2013-09-19 | Zrro Technologies (2009) Ltd. | Method and device for controlling the behavior of virtual objects on a display |
US8842084B2 (en) | 2010-09-08 | 2014-09-23 | Telefonaktiebolaget L M Ericsson (Publ) | Gesture-based object manipulation methods and devices |
US8619005B2 (en) | 2010-09-09 | 2013-12-31 | Eastman Kodak Company | Switchable head-mounted display transition |
US8706170B2 (en) | 2010-09-20 | 2014-04-22 | Kopin Corporation | Miniature communications gateway for head mounted display |
US8941559B2 (en) * | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
US9513791B2 (en) | 2010-09-29 | 2016-12-06 | Sony Corporation | Electronic device system with process continuation mechanism and method of operation thereof |
US8781234B2 (en) | 2010-10-01 | 2014-07-15 | Intel Corporation | Optimized fast hessian matrix computation architecture |
US9946076B2 (en) | 2010-10-04 | 2018-04-17 | Gerard Dirk Smits | System and method for 3-D projection and enhancements for interactivity |
US8907983B2 (en) | 2010-10-07 | 2014-12-09 | Aria Glassworks, Inc. | System and method for transitioning between interface modes in virtual and augmented reality applications |
IL208600A (en) | 2010-10-10 | 2016-07-31 | Rafael Advanced Defense Systems Ltd | Real-time network-based laminated reality for mobile devices |
CN101951474A (zh) | 2010-10-12 | 2011-01-19 | 冠捷显示科技(厦门)有限公司 | 基于手势控制的电视技术 |
US10036891B2 (en) | 2010-10-12 | 2018-07-31 | DISH Technologies L.L.C. | Variable transparency heads up displays |
US8884984B2 (en) * | 2010-10-15 | 2014-11-11 | Microsoft Corporation | Fusing virtual content into real content |
IL208910A0 (en) | 2010-10-24 | 2011-02-28 | Rafael Advanced Defense Sys | Tracking and identification of a moving object from a moving sensor using a 3d model |
CN102053702A (zh) | 2010-10-26 | 2011-05-11 | 南京航空航天大学 | 动态手势控制系统与方法 |
US8817087B2 (en) | 2010-11-01 | 2014-08-26 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
US20120113223A1 (en) | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
JP5735128B2 (ja) | 2010-12-02 | 2015-06-17 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実システム |
US9244606B2 (en) | 2010-12-20 | 2016-01-26 | Apple Inc. | Device, method, and graphical user interface for navigation of concurrently open software applications |
CN106774880B (zh) | 2010-12-22 | 2020-02-21 | Z空间股份有限公司 | 用户控制装置的在空间中的三维跟踪 |
KR101587962B1 (ko) | 2010-12-22 | 2016-01-28 | 한국전자통신연구원 | 모션 캡처 장치 및 방법 |
US20120170800A1 (en) | 2010-12-30 | 2012-07-05 | Ydreams - Informatica, S.A. | Systems and methods for continuous physics simulation from discrete video acquisition |
US8929609B2 (en) | 2011-01-05 | 2015-01-06 | Qualcomm Incorporated | Method and apparatus for scaling gesture recognition to physical dimensions of a user |
US8570320B2 (en) | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
SG182880A1 (en) | 2011-02-01 | 2012-08-30 | Univ Singapore | A method and system for interaction with micro-objects |
WO2012107892A2 (en) | 2011-02-09 | 2012-08-16 | Primesense Ltd. | Gaze detection in a 3d mapping environment |
WO2012114199A2 (en) | 2011-02-25 | 2012-08-30 | Smiths Heimann Gmbh | Image reconstruction based on parametric models |
US20120223959A1 (en) | 2011-03-01 | 2012-09-06 | Apple Inc. | System and method for a touchscreen slider with toggle control |
US8600107B2 (en) | 2011-03-31 | 2013-12-03 | Smart Technologies Ulc | Interactive input system and method |
US8824749B2 (en) | 2011-04-05 | 2014-09-02 | Microsoft Corporation | Biometric recognition |
US9117147B2 (en) | 2011-04-29 | 2015-08-25 | Siemens Aktiengesellschaft | Marginal space learning for multi-person tracking over mega pixel imagery |
US8457355B2 (en) | 2011-05-05 | 2013-06-04 | International Business Machines Corporation | Incorporating video meta-data in 3D models |
US8718334B2 (en) | 2011-05-05 | 2014-05-06 | Honeywell International Inc. | System for biometric hand analysis |
CN102184014B (zh) | 2011-05-12 | 2013-03-20 | 浙江大学 | 基于移动设备指向的智能家电交互控制方法及装置 |
US8810640B2 (en) | 2011-05-16 | 2014-08-19 | Ut-Battelle, Llc | Intrinsic feature-based pose measurement for imaging motion compensation |
US8842163B2 (en) | 2011-06-07 | 2014-09-23 | International Business Machines Corporation | Estimation of object properties in 3D world |
KR101255950B1 (ko) | 2011-06-13 | 2013-05-02 | 연세대학교 산학협력단 | 위치기반 건설 현장 관리 방법 및 시스템 |
US20120320080A1 (en) | 2011-06-14 | 2012-12-20 | Microsoft Corporation | Motion based virtual object navigation |
US8773512B1 (en) | 2011-06-30 | 2014-07-08 | Aquifi, Inc. | Portable remote control device enabling three-dimensional user interaction with at least one appliance |
US9600933B2 (en) | 2011-07-01 | 2017-03-21 | Intel Corporation | Mobile augmented reality system |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US9086794B2 (en) | 2011-07-14 | 2015-07-21 | Microsoft Technology Licensing, Llc | Determining gestures on context based menus |
US8891868B1 (en) | 2011-08-04 | 2014-11-18 | Amazon Technologies, Inc. | Recognizing gestures captured by video |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
TW201310389A (zh) | 2011-08-19 | 2013-03-01 | Vatics Inc | 使用影像對比增進的移動物件偵測方法 |
JP5789793B2 (ja) | 2011-08-23 | 2015-10-07 | パナソニックIpマネジメント株式会社 | 3次元撮像装置、レンズ制御装置、およびプログラム |
US8830302B2 (en) | 2011-08-24 | 2014-09-09 | Lg Electronics Inc. | Gesture-based user interface method and apparatus |
TW201324258A (zh) | 2011-09-07 | 2013-06-16 | Nitto Denko Corp | 輸入體之動作檢測方法及使用其之輸入裝置 |
US20130080898A1 (en) | 2011-09-26 | 2013-03-28 | Tal Lavian | Systems and methods for electronic communications |
JP5624530B2 (ja) | 2011-09-29 | 2014-11-12 | 株式会社東芝 | コマンド発行装置、方法及びプログラム |
US9081177B2 (en) | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
US20130097566A1 (en) | 2011-10-17 | 2013-04-18 | Carl Fredrik Alexander BERGLUND | System and method for displaying items on electronic devices |
US9195900B2 (en) | 2011-11-21 | 2015-11-24 | Pixart Imaging Inc. | System and method based on hybrid biometric detection |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
EP2602691A1 (en) | 2011-12-05 | 2013-06-12 | Alcatel Lucent | Method for gesture control, gesture server device and sensor input device |
AU2011253910B2 (en) | 2011-12-08 | 2015-02-26 | Canon Kabushiki Kaisha | Method, apparatus and system for tracking an object in a sequence of images |
KR101304431B1 (ko) | 2012-01-03 | 2013-09-06 | 국방과학연구소 | 회전식 장착대 및 이를 구비한 헬멧 장치 |
WO2013103410A1 (en) | 2012-01-05 | 2013-07-11 | California Institute Of Technology | Imaging surround systems for touch-free display control |
US20150097772A1 (en) | 2012-01-06 | 2015-04-09 | Thad Eugene Starner | Gaze Signal Based on Physical Characteristics of the Eye |
US9230171B2 (en) | 2012-01-06 | 2016-01-05 | Google Inc. | Object outlining to initiate a visual search |
US8878749B1 (en) | 2012-01-06 | 2014-11-04 | Google Inc. | Systems and methods for position estimation |
US20150084864A1 (en) | 2012-01-09 | 2015-03-26 | Google Inc. | Input Method |
US20140307920A1 (en) | 2013-04-12 | 2014-10-16 | David Holz | Systems and methods for tracking occluded objects in three-dimensional space |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US20130182079A1 (en) | 2012-01-17 | 2013-07-18 | Ocuspec | Motion capture using cross-sections of an object |
DE112013000590B4 (de) | 2012-01-17 | 2016-05-04 | Leap Motion, Inc. | Verbesserter Kontrast zur Objekterfassung und Charakterisierung durch optisches Abbilden |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US20150253428A1 (en) | 2013-03-15 | 2015-09-10 | Leap Motion, Inc. | Determining positional information for an object in space |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US8693731B2 (en) * | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9372978B2 (en) | 2012-01-20 | 2016-06-21 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
USD689539S1 (en) | 2012-01-26 | 2013-09-10 | Michael Zaletel | Camera stabilizer |
US20130194304A1 (en) * | 2012-02-01 | 2013-08-01 | Stephen Latta | Coordinate-system sharing for augmented reality |
US20130204457A1 (en) | 2012-02-06 | 2013-08-08 | Ford Global Technologies, Llc | Interacting with vehicle controls through gesture recognition |
KR101905648B1 (ko) | 2012-02-27 | 2018-10-11 | 삼성전자 주식회사 | 카메라 장치의 동영상 촬영방법 및 장치 |
US9093012B2 (en) | 2012-02-29 | 2015-07-28 | Lenovo (Beijing) Co., Ltd. | Operation mode switching method and electronic device |
TWI456486B (zh) | 2012-03-06 | 2014-10-11 | Acer Inc | 電子裝置及控制電子裝置的方法 |
WO2013136053A1 (en) | 2012-03-10 | 2013-09-19 | Digitaloptics Corporation | Miniature camera module with mems-actuated autofocus |
US9671869B2 (en) | 2012-03-13 | 2017-06-06 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
US9122354B2 (en) | 2012-03-14 | 2015-09-01 | Texas Instruments Incorporated | Detecting wave gestures near an illuminated surface |
US9218723B2 (en) | 2012-03-20 | 2015-12-22 | Intralot S.A.—Integrated Lottery Systems and Services | Methods and systems for a gesture-controlled lottery terminal |
JP5938977B2 (ja) | 2012-03-23 | 2016-06-22 | ソニー株式会社 | ヘッドマウントディスプレイ及び手術システム |
US8942881B2 (en) * | 2012-04-02 | 2015-01-27 | Google Inc. | Gesture-based automotive controls |
TWI464640B (zh) | 2012-04-03 | 2014-12-11 | Wistron Corp | 手勢感測裝置及具有手勢輸入功能的電子系統 |
US9170674B2 (en) | 2012-04-09 | 2015-10-27 | Qualcomm Incorporated | Gesture-based device control using pressure-sensitive sensors |
US9239624B2 (en) | 2012-04-13 | 2016-01-19 | Nokia Technologies Oy | Free hand gesture control of automotive user interface |
US9448635B2 (en) | 2012-04-16 | 2016-09-20 | Qualcomm Incorporated | Rapid gesture re-engagement |
GB2501767A (en) | 2012-05-04 | 2013-11-06 | Sony Comp Entertainment Europe | Noise cancelling headset |
GB2501768A (en) | 2012-05-04 | 2013-11-06 | Sony Comp Entertainment Europe | Head mounted display |
US20130300831A1 (en) | 2012-05-11 | 2013-11-14 | Loren Mavromatis | Camera scene fitting of real world scenes |
US9035955B2 (en) | 2012-05-16 | 2015-05-19 | Microsoft Technology Licensing, Llc | Synchronizing virtual actor's performances to a speaker's voice |
JP2013250637A (ja) | 2012-05-30 | 2013-12-12 | Toshiba Corp | 認識装置 |
US20130328867A1 (en) | 2012-06-06 | 2013-12-12 | Samsung Electronics Co. Ltd. | Apparatus and method for providing augmented reality information using three dimension map |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
JP5580855B2 (ja) | 2012-06-12 | 2014-08-27 | 株式会社ソニー・コンピュータエンタテインメント | 障害物回避装置および障害物回避方法 |
US9152226B2 (en) | 2012-06-15 | 2015-10-06 | Qualcomm Incorporated | Input method designed for augmented reality goggles |
US10165817B2 (en) | 2012-06-28 | 2019-01-01 | Revision Military S.A.R.L. | Battery pack and helmet mounting arrangement |
US9245492B2 (en) | 2012-06-28 | 2016-01-26 | Intermec Ip Corp. | Dual screen display for mobile computing device |
US9697418B2 (en) | 2012-07-09 | 2017-07-04 | Qualcomm Incorporated | Unsupervised movement detection and gesture recognition |
KR20140010616A (ko) | 2012-07-16 | 2014-01-27 | 한국전자통신연구원 | 3d 가상 객체에 대한 조작 처리 장치 및 방법 |
JP6024952B2 (ja) | 2012-07-19 | 2016-11-16 | パナソニックIpマネジメント株式会社 | 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム |
CN104509102B (zh) | 2012-07-27 | 2017-12-29 | 日产自动车株式会社 | 三维物体检测装置和异物检测装置 |
US10839227B2 (en) | 2012-08-29 | 2020-11-17 | Conduent Business Services, Llc | Queue group leader identification |
US9124778B1 (en) | 2012-08-29 | 2015-09-01 | Nomi Corporation | Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest |
JP6186689B2 (ja) | 2012-09-26 | 2017-08-30 | セイコーエプソン株式会社 | 映像表示システム |
JP2014071499A (ja) | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置および制御方法 |
DE102012109481A1 (de) | 2012-10-05 | 2014-04-10 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US8781171B2 (en) | 2012-10-24 | 2014-07-15 | Honda Motor Co., Ltd. | Object recognition in low-lux and high-lux conditions |
US9274742B2 (en) | 2012-10-25 | 2016-03-01 | PixiOnCloud, Inc. | Visual-symbolic control of remote devices having display-based user interfaces |
US9386298B2 (en) | 2012-11-08 | 2016-07-05 | Leap Motion, Inc. | Three-dimensional image sensors |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US9234176B2 (en) | 2012-11-13 | 2016-01-12 | The Board Of Trustees Of The Leland Stanford Junior University | Chemically defined production of cardiomyocytes from pluripotent stem cells |
JP6058978B2 (ja) | 2012-11-19 | 2017-01-11 | サターン ライセンシング エルエルシーSaturn Licensing LLC | 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム |
EP2927902A4 (en) | 2012-11-27 | 2016-07-06 | Sony Corp | DISPLAY DEVICE, DISPLAY PROCESS AND COMPUTER PROGRAM |
US9369677B2 (en) | 2012-11-30 | 2016-06-14 | Qualcomm Technologies International, Ltd. | Image assistance for indoor positioning |
US10912131B2 (en) | 2012-12-03 | 2021-02-02 | Samsung Electronics Co., Ltd. | Method and mobile terminal for controlling bluetooth low energy device |
KR101448749B1 (ko) | 2012-12-10 | 2014-10-08 | 현대자동차 주식회사 | 물체 영상 검출 시스템 및 방법 |
US9274608B2 (en) | 2012-12-13 | 2016-03-01 | Eyesight Mobile Technologies Ltd. | Systems and methods for triggering actions based on touch-free gesture detection |
US9733713B2 (en) | 2012-12-26 | 2017-08-15 | Futurewei Technologies, Inc. | Laser beam based gesture control interface for mobile devices |
USD717361S1 (en) | 2012-12-26 | 2014-11-11 | Nikon Corporation | Tripod mount for camera lens |
US9483934B2 (en) | 2012-12-26 | 2016-11-01 | Oren Kotlicki | Presence based system and method for controlling devices |
US20140189579A1 (en) | 2013-01-02 | 2014-07-03 | Zrro Technologies (2009) Ltd. | System and method for controlling zooming and/or scrolling |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
CN103090862A (zh) | 2013-01-18 | 2013-05-08 | 华为终端有限公司 | 一种终端设备及终端设备的导航模式切换方法 |
US9720504B2 (en) | 2013-02-05 | 2017-08-01 | Qualcomm Incorporated | Methods for system engagement via 3D object detection |
US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
US9864198B2 (en) | 2013-02-22 | 2018-01-09 | Sony Corporation | Head-mounted display |
US20140240225A1 (en) | 2013-02-26 | 2014-08-28 | Pointgrab Ltd. | Method for touchless control of a device |
US8744645B1 (en) | 2013-02-26 | 2014-06-03 | Honda Motor Co., Ltd. | System and method for incorporating gesture and voice recognition into a single system |
US20140240215A1 (en) | 2013-02-26 | 2014-08-28 | Corel Corporation | System and method for controlling a user interface utility using a vision system |
GB201303707D0 (en) | 2013-03-01 | 2013-04-17 | Tosas Bautista Martin | System and method of interaction for mobile devices |
DE102013203667B4 (de) | 2013-03-04 | 2024-02-22 | Adidas Ag | Kabine zum Ausprobieren eines oder mehrerer Bekleidungsstücke |
US9056396B1 (en) | 2013-03-05 | 2015-06-16 | Autofuss | Programming of a robotic arm using a motion capture system |
US20140253711A1 (en) | 2013-03-07 | 2014-09-11 | Advanced Optical Systems, Inc. | Agile non-contact biometric sensor |
US20140253785A1 (en) | 2013-03-07 | 2014-09-11 | Mediatek Inc. | Auto Focus Based on Analysis of State or State Change of Image Content |
JP6037901B2 (ja) | 2013-03-11 | 2016-12-07 | 日立マクセル株式会社 | 操作検出装置、操作検出方法及び表示制御データ生成方法 |
KR102037930B1 (ko) | 2013-03-15 | 2019-10-30 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
US9766709B2 (en) | 2013-03-15 | 2017-09-19 | Leap Motion, Inc. | Dynamic user interactions for display control |
US8954340B2 (en) | 2013-03-15 | 2015-02-10 | State Farm Mutual Automobile Insurance Company | Risk evaluation based on vehicle operator behavior |
JP5900393B2 (ja) | 2013-03-21 | 2016-04-06 | ソニー株式会社 | 情報処理装置、操作制御方法及びプログラム |
JP6107276B2 (ja) | 2013-03-22 | 2017-04-05 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
US9367136B2 (en) | 2013-04-12 | 2016-06-14 | Microsoft Technology Licensing, Llc | Holographic object feedback |
US9304594B2 (en) | 2013-04-12 | 2016-04-05 | Microsoft Technology Licensing, Llc | Near-plane segmentation using pulsed light source |
US10509533B2 (en) | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
US10137361B2 (en) | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
US10019057B2 (en) | 2013-06-07 | 2018-07-10 | Sony Interactive Entertainment Inc. | Switching mode of operation in a head mounted display |
US9908048B2 (en) | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
US20140375947A1 (en) | 2013-06-24 | 2014-12-25 | Joseph Juseop Park | Headset with comfort fit temple arms |
WO2014208087A1 (ja) | 2013-06-27 | 2014-12-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 複数の光源を有するモーションセンサ装置 |
US9239950B2 (en) | 2013-07-01 | 2016-01-19 | Hand Held Products, Inc. | Dimensioning system |
WO2015009887A1 (en) | 2013-07-18 | 2015-01-22 | Intelligent Decisions, Inc. | Systems and methods for virtual environment conflict nullification |
US9857876B2 (en) | 2013-07-22 | 2018-01-02 | Leap Motion, Inc. | Non-linear motion capture using Frenet-Serret frames |
US9514571B2 (en) | 2013-07-25 | 2016-12-06 | Microsoft Technology Licensing, Llc | Late stage reprojection |
JP2015027015A (ja) | 2013-07-29 | 2015-02-05 | ソニー株式会社 | 情報提示装置及び情報処理システム |
US9232826B2 (en) | 2013-08-06 | 2016-01-12 | Bradley N. Vermillion | Clip for hard hat |
GB201314984D0 (en) | 2013-08-21 | 2013-10-02 | Sony Comp Entertainment Europe | Head-mountable apparatus and systems |
US9261966B2 (en) | 2013-08-22 | 2016-02-16 | Sony Corporation | Close range natural user interface system and method of operation thereof |
US9766855B2 (en) | 2013-09-10 | 2017-09-19 | Avigilon Corporation | Method and apparatus for controlling surveillance system with gesture and/or audio commands |
US9630105B2 (en) | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
US9729864B2 (en) | 2013-09-30 | 2017-08-08 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
US8922590B1 (en) | 2013-10-01 | 2014-12-30 | Myth Innovations, Inc. | Augmented reality interface and method of use |
US10318100B2 (en) | 2013-10-16 | 2019-06-11 | Atheer, Inc. | Method and apparatus for addressing obstruction in an interface |
CN105579929B (zh) | 2013-10-29 | 2019-11-05 | 英特尔公司 | 基于手势的人机交互 |
US9546776B2 (en) | 2013-10-31 | 2017-01-17 | General Electric Company | Customizable modular luminaire |
US9476670B2 (en) | 2013-11-05 | 2016-10-25 | Armament Systems And Procedures, Inc. | Carrying case for police or military baton |
US9402018B2 (en) | 2013-12-17 | 2016-07-26 | Amazon Technologies, Inc. | Distributing processing for imaging processing |
US20150205358A1 (en) | 2014-01-20 | 2015-07-23 | Philip Scott Lyren | Electronic Device with Touchless User Interface |
US20150205400A1 (en) | 2014-01-21 | 2015-07-23 | Microsoft Corporation | Grip Detection |
US9311718B2 (en) | 2014-01-23 | 2016-04-12 | Microsoft Technology Licensing, Llc | Automated content scrolling |
US9691181B2 (en) | 2014-02-24 | 2017-06-27 | Sony Interactive Entertainment Inc. | Methods and systems for social sharing head mounted display (HMD) content with a second screen |
US20150253574A1 (en) | 2014-03-10 | 2015-09-10 | Ion Virtual Technology Corporation | Modular and Convertible Virtual Reality Headset System |
US9987554B2 (en) | 2014-03-14 | 2018-06-05 | Sony Interactive Entertainment Inc. | Gaming device with volumetric sensing |
CN106255916B (zh) | 2014-03-14 | 2019-08-09 | 索尼互动娱乐股份有限公司 | 跟踪头戴式显示器(hmd)的方法和系统以及用于hmd头带调整的校准 |
US9754167B1 (en) | 2014-04-17 | 2017-09-05 | Leap Motion, Inc. | Safety for wearable virtual reality devices via object detection and tracking |
US9361732B2 (en) | 2014-05-01 | 2016-06-07 | Microsoft Technology Licensing, Llc | Transitions between body-locked and world-locked augmented reality |
US9442293B2 (en) | 2014-05-06 | 2016-09-13 | Microsoft Technology Licensing, Llc | Composite variable light attenuator |
WO2015172118A1 (en) | 2014-05-09 | 2015-11-12 | Leap Motion, Inc. | Mounts for attaching a motion capture device to a head mounted display |
US9741169B1 (en) | 2014-05-20 | 2017-08-22 | Leap Motion, Inc. | Wearable augmented reality devices with object detection and tracking |
US10782657B2 (en) | 2014-05-27 | 2020-09-22 | Ultrahaptics IP Two Limited | Systems and methods of gestural interaction in a pervasive computing environment |
USD756443S1 (en) | 2014-05-28 | 2016-05-17 | Leap Motion, Inc. | Motion capture device attachment adapter |
US9868449B1 (en) | 2014-05-30 | 2018-01-16 | Leap Motion, Inc. | Recognizing in-air gestures of a control object to control a vehicular control system |
US10383387B2 (en) | 2014-06-10 | 2019-08-20 | Revision Military S.A.R.L. | Apparatus and methods for securing accessories to a helmet |
US9661891B2 (en) | 2014-06-19 | 2017-05-30 | Revision Military S.A.R.L. | Helmet visor |
US10371944B2 (en) | 2014-07-22 | 2019-08-06 | Sony Interactive Entertainment Inc. | Virtual reality headset with see-through mode |
DE202014103729U1 (de) | 2014-08-08 | 2014-09-09 | Leap Motion, Inc. | Augmented-Reality mit Bewegungserfassung |
US10073590B2 (en) | 2014-09-02 | 2018-09-11 | Apple Inc. | Reduced size user interface |
US9984505B2 (en) | 2014-09-30 | 2018-05-29 | Sony Interactive Entertainment Inc. | Display of text information on a head-mounted display |
US9740010B2 (en) | 2014-11-28 | 2017-08-22 | Mahmoud A. ALHASHIM | Waterproof virtual reality goggle and sensor system |
US10656720B1 (en) | 2015-01-16 | 2020-05-19 | Ultrahaptics IP Two Limited | Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
-
2014
- 2014-08-12 DE DE202014103729.2U patent/DE202014103729U1/de not_active Expired - Lifetime
- 2014-08-12 JP JP2014164597A patent/JP2016038889A/ja active Pending
- 2014-08-12 CN CN201420453536.4U patent/CN204480228U/zh not_active Expired - Lifetime
-
2015
- 2015-08-07 US US14/821,499 patent/US10349036B2/en active Active
-
2019
- 2019-07-08 US US16/505,265 patent/US10880537B2/en active Active
-
2020
- 2020-12-23 US US17/133,616 patent/US11483538B2/en active Active
-
2022
- 2022-10-24 US US17/972,288 patent/US11778159B2/en active Active
-
2023
- 2023-09-28 US US18/374,661 patent/US12095969B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017163648A1 (ja) * | 2016-03-23 | 2017-09-28 | 株式会社ソニー・インタラクティブエンタテインメント | 頭部装着装置 |
US10587862B2 (en) | 2016-03-23 | 2020-03-10 | Sony Interactive Entertainment Inc. | Head-mounted device |
US10140777B2 (en) | 2016-08-02 | 2018-11-27 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling information processing apparatus, and storage medium |
US20230107097A1 (en) * | 2021-10-06 | 2023-04-06 | Fotonation Limited | Method for identifying a gesture |
US11983327B2 (en) * | 2021-10-06 | 2024-05-14 | Fotonation Limited | Method for identifying a gesture |
Also Published As
Publication number | Publication date |
---|---|
US20190335158A1 (en) | 2019-10-31 |
US20230042990A1 (en) | 2023-02-09 |
US10880537B2 (en) | 2020-12-29 |
US20160044298A1 (en) | 2016-02-11 |
US20240031547A1 (en) | 2024-01-25 |
US11778159B2 (en) | 2023-10-03 |
US20210120222A1 (en) | 2021-04-22 |
US12095969B2 (en) | 2024-09-17 |
US10349036B2 (en) | 2019-07-09 |
US11483538B2 (en) | 2022-10-25 |
CN204480228U (zh) | 2015-07-15 |
DE202014103729U1 (de) | 2014-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12095969B2 (en) | Augmented reality with motion sensing | |
US11676349B2 (en) | Wearable augmented reality devices with object detection and tracking | |
US12125157B2 (en) | Safety for wearable virtual reality devices via object detection and tracking | |
US10437347B2 (en) | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments | |
US20230368577A1 (en) | Automotive and industrial motion sensory device | |
US9613262B2 (en) | Object detection and tracking for providing a virtual device experience | |
US8933912B2 (en) | Touch sensitive user interface with three dimensional input sensor | |
US20110234481A1 (en) | Enhancing presentations using depth sensing cameras | |
US20140037135A1 (en) | Context-driven adjustment of camera parameters | |
WO2014105646A1 (en) | Low-latency fusing of color image data in a color sequential display system | |
US12067157B2 (en) | Drift cancelation for portable object detection and tracking |