JP6813501B2 - 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ - Google Patents
拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ Download PDFInfo
- Publication number
- JP6813501B2 JP6813501B2 JP2017558982A JP2017558982A JP6813501B2 JP 6813501 B2 JP6813501 B2 JP 6813501B2 JP 2017558982 A JP2017558982 A JP 2017558982A JP 2017558982 A JP2017558982 A JP 2017558982A JP 6813501 B2 JP6813501 B2 JP 6813501B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- augmented reality
- removable camera
- display system
- housing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title claims description 89
- 238000000034 method Methods 0.000 claims description 102
- 230000007246 mechanism Effects 0.000 claims description 50
- 238000003860 storage Methods 0.000 claims description 49
- 238000012545 processing Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 18
- 238000013459 approach Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000009877 rendering Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000003287 bathing Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
- H04N21/2743—Video hosting of uploaded data from client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Geometry (AREA)
- Controls And Circuits For Display Device (AREA)
- Remote Sensing (AREA)
Description
例えば、本願は以下の項目を提供する。
(項目1)
拡張現実を表示するための方法であって、前記方法は、
空間光変調器を通して、1つ以上の仮想画像をユーザに投影することと、
複数のセンサを通して、前記ユーザの周囲に関するデータの組を捕捉することであって、前記データの組は、画像を含む、ことと、
処理モジュールを通して、前記複数のセンサから読み出される前記データの組を処理することであって、前記処理モジュールは、前記複数のセンサから読み出される前記データの組がモバイルプラットフォームに伝送されることを選択的に可能にするゲート機構を備えている、ことと、
取り外し可能カメラが前記拡張現実デバイスの筐体に取り付けられているかどうかを検出することと
を含み、
前記ゲート機構は、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されるかどうかに少なくとも部分的に基づいて、前記複数のセンサから読み出される前記データの組が前記モバイルプラットフォームに伝送されることを選択的に可能にする、方法。
(項目2)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記ゲート機構が、前記データの組が前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、項目1に記載の方法。
(項目3)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記ゲート機構が、前記データの組の一部のみが前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、項目1に記載の方法。
(項目4)
前記複数のセンサから読み出される前記データの組の少なくとも一部は、画像またはビデオデータに対応している、項目1に記載の方法。
(項目5)
VPUを通して、前記複数のセンサから読み出される前記データの組に対応する画像の組から幾何学情報を抽出することをさらに含む、項目1に記載の方法。
(項目6)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記ゲート機構が、前記幾何学情報が前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、項目5に記載の方法。
(項目7)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記ゲート機構が、前記幾何学情報と前記取り外し可能カメラが前記拡張現実ディスプレイシステムに取り付けられていることが検出されているときに捕捉された前記画像の組とが、前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、項目5に記載の方法。
(項目8)
前記幾何学情報は、前記画像の組に関する姿勢情報に対応している、項目5に記載の方法。
(項目9)
前記幾何学情報は、前記画像の組に関する2Dまたは3Dポイントに対応している、項目5に記載の方法。
(項目10)
前記幾何学情報は、前記画像の組に関する深度情報に対応している、項目5に記載の方法。
(項目11)
前記幾何学情報をマップデータベースに伝送することをさらに含み、前記マップデータベースは、仮想コンテンツが世界の実オブジェクトと関連して前記ユーザに表示されるように、前記世界の前記実オブジェクトの座標情報を備えている、項目5に記載の方法。
(項目12)
前記VPUは、前記複数のセンサを通して捕捉された画像を記憶するための画像記憶モジュールを備えている、項目5に記載の方法。
(項目13)
前記VPUは、前記複数のセンサを通して捕捉された画像に関する前記幾何学情報を記憶するための幾何学形状記憶モジュールを備えている、項目5に記載の方法。
(項目14)
前記ゲート機構が、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合でも、幾何学情報が前記モバイルプラットフォームまで通されることを可能にすることをさらに含む、項目5に記載の方法。
(項目15)
前記取り外し可能カメラを通して捕捉された画像をカメラ記憶モジュール内に記憶することをさらに含む、項目1に記載の方法。
(項目16)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記カメラ記憶モジュールは、前記画像をモバイルプラットフォームに伝送しない、項目15に記載の方法。
(項目17)
前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記カメラ記憶モジュールが、前記取り外し可能カメラが前記モバイルプラットフォームに取り付けられていることが検出されている間に捕捉された画像を伝送することをさらに含む、項目15に記載の方法。
(項目18)
前記取り外し可能カメラは、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることを信号伝達するインジケータを備えている、項目1に記載の方法。
(項目19)
前記インジケータは、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられている場合にオンにされるライトを備えている、項目18に記載の方法。
(項目20)
前記インジケータは、前記取り外し可能カメラのレンズを物理的に開放または遮断するシャッタを備えている、項目18に記載の方法。
(項目21)
前記取り外し可能カメラを前記拡張現実デバイスの前記筐体に電気的に取り付けることをさらに含む、項目1に記載の方法。
(項目22)
前記取り外し可能カメラを前記拡張現実デバイスの前記筐体に機械的に取り付けることをさらに含む、項目1に記載の方法。
(項目23)
前記取り外し可能カメラが前記取り外し可能カメラに取り付けられているときに回路を完成する電気接点に少なくとも部分的に基づいて、前記取り外し可能カメラを検出することをさらに含む、項目1に記載の方法。
(項目24)
前記方法ステップを実装する手段を有するシステムとして実装される項目1−23に記載の方法。
(項目25)
前記方法ステップを実行するための実行可能コードを有するコンピュータ使用可能記憶媒体を備えているコンピュータプログラム製品として実装される項目1−23に記載の方法。
Claims (24)
- 拡張現実を表示するための方法であって、前記方法は、
空間光変調器を通して、1つ以上の仮想画像をユーザに投影することと、
複数のセンサを通して、前記ユーザの周囲に関するデータの組を捕捉することであって、前記データの組は、画像を含む、ことと、
処理モジュールを通して、前記複数のセンサから読み出された前記データの組を処理することであって、前記処理モジュールは、前記複数のセンサから読み出された前記データの組がモバイルプラットフォームに伝送されることを選択的に可能にするゲート機構を備えている、ことと、
取り外し可能カメラが拡張現実ディスプレイシステムの筐体に取り付けられているかどうかを検出することと
を含み、
前記ゲート機構は、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されているかどうかに少なくとも部分的に基づいて、前記複数のセンサから読み出された前記データの組が前記モバイルプラットフォームに伝送されることを選択的に可能にする、方法。 - 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記ゲート機構が、前記データの組が前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、請求項1に記載の方法。
- 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記ゲート機構が、前記データの組の一部のみが前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、請求項1に記載の方法。
- 前記複数のセンサから読み出された前記データの組の少なくとも一部は、画像またはビデオデータに対応している、請求項1に記載の方法。
- VPUを通して、前記複数のセンサから読み出された前記データの組に対応する画像の組から幾何学情報を抽出することをさらに含む、請求項1に記載の方法。
- 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記ゲート機構が、前記幾何学情報が前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、請求項5に記載の方法。
- 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記ゲート機構が、前記幾何学情報と前記取り外し可能カメラが前記拡張現実ディスプレイシステムに取り付けられていることが検出されているときに捕捉された前記画像の組とが、前記モバイルプラットフォームまで通ることを可能にすることをさらに含む、請求項5に記載の方法。
- 前記幾何学情報は、前記画像の組に関する姿勢情報に対応している、請求項5に記載の方法。
- 前記幾何学情報は、前記画像の組に関する2Dポイントまたは3Dポイントに対応している、請求項5に記載の方法。
- 前記幾何学情報は、前記画像の組に関する深度情報に対応している、請求項5に記載の方法。
- 前記幾何学情報をマップデータベースに伝送することをさらに含み、前記マップデータベースは、仮想コンテンツが世界の実オブジェクトと関連して前記ユーザに表示されるように、前記世界の前記実オブジェクトの座標情報を備えている、請求項5に記載の方法。
- 前記VPUは、前記複数のセンサを通して捕捉された画像を記憶するための画像記憶モジュールを備えている、請求項5に記載の方法。
- 前記VPUは、前記複数のセンサを通して捕捉された画像に関する前記幾何学情報を記憶するための幾何学形状記憶モジュールを備えている、請求項5に記載の方法。
- 前記ゲート機構が、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合でも、幾何学情報が前記モバイルプラットフォームまで通されることを可能にすることをさらに含む、請求項5に記載の方法。
- 前記取り外し可能カメラを通して捕捉された画像をカメラ記憶モジュール内に記憶することをさらに含む、請求項1に記載の方法。
- 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されていない場合、前記カメラ記憶モジュールは、前記画像をモバイルプラットフォームに伝送しない、請求項15に記載の方法。
- 前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることが検出されている場合、前記カメラ記憶モジュールが、前記取り外し可能カメラが前記モバイルプラットフォームに取り付けられていることが検出されている間に捕捉された画像を伝送することをさらに含む、請求項15に記載の方法。
- 前記取り外し可能カメラは、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられていることを信号伝達するインジケータを備えている、請求項1に記載の方法。
- 前記インジケータは、前記取り外し可能カメラが前記拡張現実ディスプレイシステムの前記筐体に取り付けられている場合にオンにされるライトを備えている、請求項18に記載の方法。
- 前記インジケータは、前記取り外し可能カメラのレンズを物理的に開放または遮断するシャッタを備えている、請求項18に記載の方法。
- 前記取り外し可能カメラを前記拡張現実ディスプレイシステムの前記筐体に電気的に取り付けることをさらに含む、請求項1に記載の方法。
- 前記取り外し可能カメラを前記拡張現実ディスプレイシステムの前記筐体に機械的に取り付けることをさらに含む、請求項1に記載の方法。
- 前記取り外し可能カメラが前記取り外し可能カメラに取り付けられているときに回路を完成する電気接点に少なくとも部分的に基づいて、前記取り外し可能カメラを検出することをさらに含む、請求項1に記載の方法。
- 請求項1〜23のいずれか一項に記載の方法を実装する手段を備えたシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562161665P | 2015-05-14 | 2015-05-14 | |
US62/161,665 | 2015-05-14 | ||
PCT/US2016/032580 WO2016183538A1 (en) | 2015-05-14 | 2016-05-14 | Privacy-sensitive consumer cameras coupled to augmented reality systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018522324A JP2018522324A (ja) | 2018-08-09 |
JP6813501B2 true JP6813501B2 (ja) | 2021-01-13 |
Family
ID=57249374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017558982A Active JP6813501B2 (ja) | 2015-05-14 | 2016-05-14 | 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ |
Country Status (11)
Country | Link |
---|---|
US (1) | US9990777B2 (ja) |
EP (2) | EP3294428B1 (ja) |
JP (1) | JP6813501B2 (ja) |
KR (1) | KR102331780B1 (ja) |
CN (1) | CN107533376A (ja) |
AU (1) | AU2016262576B2 (ja) |
CA (1) | CA2984147C (ja) |
HK (1) | HK1252884A1 (ja) |
IL (1) | IL255326B (ja) |
NZ (1) | NZ736758A (ja) |
WO (1) | WO2016183538A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9916002B2 (en) | 2014-11-16 | 2018-03-13 | Eonite Perception Inc. | Social applications for augmented reality technologies |
US10043319B2 (en) | 2014-11-16 | 2018-08-07 | Eonite Perception Inc. | Optimizing head mounted displays for augmented reality |
US9754419B2 (en) | 2014-11-16 | 2017-09-05 | Eonite Perception Inc. | Systems and methods for augmented reality preparation, processing, and application |
US11017712B2 (en) | 2016-08-12 | 2021-05-25 | Intel Corporation | Optimized display image rendering |
US9928660B1 (en) | 2016-09-12 | 2018-03-27 | Intel Corporation | Hybrid rendering for a wearable display attached to a tethered computer |
CN106654044B (zh) * | 2016-12-19 | 2018-11-06 | 深圳市华星光电技术有限公司 | 头戴增强现实显示装置 |
US10241587B2 (en) * | 2016-12-22 | 2019-03-26 | Microsoft Technology Licensing, Llc | Magnetic tracker power duty cycling |
CN107132657B (zh) * | 2017-05-22 | 2023-06-30 | 歌尔科技有限公司 | Vr一体机、手机、手机和vr一体机套装 |
US10178294B2 (en) | 2017-05-25 | 2019-01-08 | International Business Machines Corporation | Controlling a video capture device based on cognitive personal action and image identification |
US11468174B2 (en) * | 2017-08-11 | 2022-10-11 | Eys3D Microelectronics Co. | Surveillance camera system and related surveillance system thereof |
CN109670282B (zh) * | 2017-10-17 | 2023-12-22 | 深圳富泰宏精密工业有限公司 | 解锁系统、解锁方法及电子装置 |
CN108777779A (zh) * | 2018-06-12 | 2018-11-09 | 北京京东金融科技控股有限公司 | 一种视频拍摄设备的智能化装置、方法、介质及电子设备 |
US11103763B2 (en) | 2018-09-11 | 2021-08-31 | Real Shot Inc. | Basketball shooting game using smart glasses |
US11141645B2 (en) | 2018-09-11 | 2021-10-12 | Real Shot Inc. | Athletic ball game using smart glasses |
US10780359B2 (en) * | 2019-01-08 | 2020-09-22 | Universal City Studios Llc | Systems and methods for a connected augmented environment |
CN110264818B (zh) * | 2019-06-18 | 2021-08-24 | 国家电网有限公司 | 一种基于增强现实的机组进水阀拆装训练方法 |
US11209581B2 (en) * | 2019-06-19 | 2021-12-28 | Universal City Studios Llc | Techniques for selective viewing of projected images |
US11431038B2 (en) * | 2019-06-21 | 2022-08-30 | Realwear, Inc. | Battery system for a head-mounted display |
WO2022066188A1 (en) | 2020-09-28 | 2022-03-31 | Hewlett-Packard Development Company, L.P. | Head mountable device with tracking feature |
CN112181152B (zh) * | 2020-11-13 | 2023-05-26 | 幻蝎科技(武汉)有限公司 | 基于mr眼镜的广告推送管理方法、设备及应用 |
KR102622094B1 (ko) * | 2022-03-15 | 2024-01-05 | 한밭대학교 산학협력단 | 증강현실을 위한 실내공간 3d 맵핑 지원 시스템 |
WO2023196417A1 (en) * | 2022-04-07 | 2023-10-12 | Universal City Studios Llc | Systems and methods for storing player state caches locally on ride vehicles |
US11972039B1 (en) | 2022-12-02 | 2024-04-30 | ARMaps | Augmented reality skydiving system |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350127A (ja) * | 1999-06-02 | 2000-12-15 | Sony Corp | 画像処理装置及び画像処理方法 |
JP4677269B2 (ja) * | 2005-04-08 | 2011-04-27 | キヤノン株式会社 | 情報処理方法およびシステム |
JP3121579U (ja) * | 2006-03-02 | 2006-05-18 | 株式会社島津製作所 | 頭部装着型表示装置 |
FR2911211B1 (fr) | 2007-01-05 | 2009-06-12 | Total Immersion Sa | Procede et dispositifs pour inserer en temps reel des objets virtuels dans un flux d'images a partir de donnees issues de la scene reelle representee par ces images |
US9600067B2 (en) * | 2008-10-27 | 2017-03-21 | Sri International | System and method for generating a mixed reality environment |
US20100182340A1 (en) * | 2009-01-19 | 2010-07-22 | Bachelder Edward N | Systems and methods for combining virtual and real-time physical environments |
US8482859B2 (en) * | 2010-02-28 | 2013-07-09 | Osterhout Group, Inc. | See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film |
US20120206322A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event and sensor input triggered user action capture device control of ar eyepiece facility |
US20120142415A1 (en) * | 2010-12-03 | 2012-06-07 | Lindsay L Jon | Video Show Combining Real Reality and Virtual Reality |
US9690099B2 (en) * | 2010-12-17 | 2017-06-27 | Microsoft Technology Licensing, Llc | Optimized focal area for augmented reality displays |
US20120306850A1 (en) * | 2011-06-02 | 2012-12-06 | Microsoft Corporation | Distributed asynchronous localization and mapping for augmented reality |
WO2013028813A1 (en) | 2011-08-23 | 2013-02-28 | Microsoft Corporation | Implicit sharing and privacy control through physical behaviors using sensor-rich devices |
JP2013254399A (ja) * | 2012-06-08 | 2013-12-19 | Sharp Corp | 入力システム及び電子会議システム |
US9042596B2 (en) * | 2012-06-14 | 2015-05-26 | Medibotics Llc | Willpower watch (TM)—a wearable food consumption monitor |
KR102056175B1 (ko) * | 2013-01-28 | 2020-01-23 | 삼성전자 주식회사 | 증강현실 콘텐츠 생성 방법 및 이를 구현하는 휴대단말장치 |
KR102086510B1 (ko) * | 2013-09-26 | 2020-04-14 | 엘지전자 주식회사 | 헤드 마운트 디스플레이 및 제어 방법 |
US9950257B2 (en) * | 2014-03-04 | 2018-04-24 | Microsoft Technology Licensing, Llc | Recording companion |
US9715113B2 (en) * | 2014-03-18 | 2017-07-25 | Seiko Epson Corporation | Head-mounted display device, control method for head-mounted display device, and computer program |
CN204272295U (zh) * | 2014-12-04 | 2015-04-15 | 高新兴科技集团股份有限公司 | 一种增强现实摄像机监控系统 |
CN104363430A (zh) * | 2014-12-04 | 2015-02-18 | 高新兴科技集团股份有限公司 | 一种增强现实摄像机监控方法及其系统 |
-
2016
- 2016-05-14 WO PCT/US2016/032580 patent/WO2016183538A1/en active Application Filing
- 2016-05-14 EP EP16793668.1A patent/EP3294428B1/en active Active
- 2016-05-14 US US15/155,000 patent/US9990777B2/en active Active
- 2016-05-14 AU AU2016262576A patent/AU2016262576B2/en active Active
- 2016-05-14 JP JP2017558982A patent/JP6813501B2/ja active Active
- 2016-05-14 KR KR1020177035994A patent/KR102331780B1/ko active IP Right Grant
- 2016-05-14 CN CN201680026435.0A patent/CN107533376A/zh active Pending
- 2016-05-14 CA CA2984147A patent/CA2984147C/en active Active
- 2016-05-14 NZ NZ736758A patent/NZ736758A/en unknown
- 2016-05-14 EP EP20168678.9A patent/EP3695888B1/en active Active
-
2017
- 2017-10-30 IL IL255326A patent/IL255326B/en active IP Right Grant
-
2018
- 2018-09-21 HK HK18112231.4A patent/HK1252884A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
US9990777B2 (en) | 2018-06-05 |
WO2016183538A1 (en) | 2016-11-17 |
IL255326B (en) | 2020-08-31 |
NZ736758A (en) | 2020-06-26 |
KR102331780B1 (ko) | 2021-11-25 |
CA2984147C (en) | 2022-02-08 |
IL255326A0 (en) | 2017-12-31 |
HK1252884A1 (zh) | 2019-06-06 |
JP2018522324A (ja) | 2018-08-09 |
EP3294428B1 (en) | 2020-07-01 |
CN107533376A (zh) | 2018-01-02 |
US20160335802A1 (en) | 2016-11-17 |
EP3294428A4 (en) | 2018-05-16 |
EP3695888A1 (en) | 2020-08-19 |
AU2016262576A1 (en) | 2017-11-16 |
KR20180008631A (ko) | 2018-01-24 |
CA2984147A1 (en) | 2016-11-17 |
EP3294428A1 (en) | 2018-03-21 |
EP3695888B1 (en) | 2021-12-29 |
AU2016262576B2 (en) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6813501B2 (ja) | 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ | |
JP7445720B2 (ja) | 拡張現実のためのシステムおよび方法 | |
JP2021082310A (ja) | 拡張現実および仮想現実のためのシステムおよび方法 | |
US9495008B2 (en) | Detecting a primary user of a device | |
CN105051653B (zh) | 信息处理装置、通知状态控制方法以及程序 | |
JP2021036449A (ja) | 拡張現実および仮想現実のためのシステムおよび方法 | |
JP6770536B2 (ja) | 仮想画像生成システムにおけるテキストをより効率的に表示するための技法 | |
JP7546116B2 (ja) | 拡張現実のためのシステムおよび方法 | |
CN107209950A (zh) | 从现实世界材料自动生成虚拟材料 | |
CN107111370A (zh) | 现实世界对象的虚拟表示 | |
CN105452994A (zh) | 虚拟物体的同时优选观看 | |
CN105264478A (zh) | 全息锚定和动态定位 | |
JP2014011655A (ja) | 映像処理装置、映像処理方法、および映像処理システム | |
CN110506249A (zh) | 信息处理设备、信息处理方法和记录介质 | |
CN118614071A (zh) | 用于预测性地下载体数据的系统和方法 | |
US11240482B2 (en) | Information processing device, information processing method, and computer program | |
JP2024033849A (ja) | 情報処理装置および情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6813501 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |