JP2023509137A - パノラマ3次元画像をキャプチャ及び生成するシステム及び方法 - Google Patents
パノラマ3次元画像をキャプチャ及び生成するシステム及び方法 Download PDFInfo
- Publication number
- JP2023509137A JP2023509137A JP2022540653A JP2022540653A JP2023509137A JP 2023509137 A JP2023509137 A JP 2023509137A JP 2022540653 A JP2022540653 A JP 2022540653A JP 2022540653 A JP2022540653 A JP 2022540653A JP 2023509137 A JP2023509137 A JP 2023509137A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- capture device
- image capture
- capture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000002156 mixing Methods 0.000 claims description 29
- 238000004891 communication Methods 0.000 claims description 26
- 238000012800 visualization Methods 0.000 claims description 15
- 238000010801 machine learning Methods 0.000 description 40
- 230000008569 process Effects 0.000 description 26
- 238000012545 processing Methods 0.000 description 26
- 239000000203 mixture Substances 0.000 description 20
- 238000010586 diagram Methods 0.000 description 15
- 238000003860 storage Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 11
- 239000003086 colorant Substances 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 7
- 238000009877 rendering Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 238000000576 coating method Methods 0.000 description 4
- 238000013481 data capture Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000002209 hydrophobic effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 229910001416 lithium ion Inorganic materials 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 239000004033 plastic Substances 0.000 description 3
- 229920003023 plastic Polymers 0.000 description 3
- 230000005355 Hall effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000012467 final product Substances 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 150000002739 metals Chemical class 0.000 description 2
- 239000002991 molded plastic Substances 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000010792 warming Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
- G01S7/4813—Housing arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4816—Constructional features, e.g. arrangements of optical elements of receivers alone
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/56—Accessories
- G03B17/561—Support related camera accessories
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
- G03B37/02—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with scanning movement of lens or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/236—Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/58—Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Exposure Control For Cameras (AREA)
- Accessories Of Cameras (AREA)
- Studio Devices (AREA)
Abstract
装置であって:ハウジング;上記装置を水平に移動させるためにモータに結合されるよう構成されたマウント;広角レンズであって、上記広角レンズは、上記マウントの上方に位置決めされ、従って回転軸に沿っており、上記回転軸は上記装置がそれに沿って回転する軸である、広角レンズ;上記ハウジング内の画像キャプチャデバイスであって、上記画像キャプチャデバイスは、環境の、上記広角レンズを通した2次元画像を受信するよう構成される、画像キャプチャデバイス;並びに上記ハウジング内のLiDARデバイスであって、上記LiDARデバイスは上記環境に基づいて深度データを生成するよう構成される、LiDARデバイスを備える、装置。【選択図】図3
Description
本発明の実施形態は一般に、ある物理的環境のシーンのパノラマ画像のキャプチャ及びスティッチングに関する。
現実世界の3次元(3D)パノラマ画像を提供することが人気になったことにより、2次元(2D)画像をキャプチャし、キャプチャされた2D画像に基づいて3D画像を作成する機能を有する多くのソリューションが生み出されている。複数の2D画像をキャプチャし、これらをスティッチングしてパノラマ画像にすることができる、ハードウェアソリューション、及びソフトウェアアプリケーション(即ち「アプリ」)が存在している。
建造物から3Dデータをキャプチャ及び生成するための技術が存在している。しかしながら、既存の技術は一般に、明るい光のあるエリアの3Dレンダリングをキャプチャ及び生成することはできない。日光が差し込む窓、又は明るい光が当たる床若しくは壁のエリアは通常、3Dレンダリングでは穴として現れ、これを埋めるための追加のポストプロダクション作業が必要となり得る。これによって、3Dレンダリングのターンアラウンド時間が増大し、信頼性が向上する。更に、構造化照明を3D画像のキャプチャに利用できないため、屋外環境もまた既存の多くの3Dキャプチャデバイスに課題をもたらす。
3Dデータのキャプチャ及び生成のための既存の技術の他の限界としては、3Dパノラマ画像の生成に必要なデジタル画像のキャプチャ及び処理に必要な時間の量が挙げられる。
ある例示的な装置は:ハウジング、及び上記装置を水平に移動させるためにモータに結合されるよう構成されたマウント;上記ハウジングに結合された広角レンズであって、上記広角レンズは、上記マウントの上方に位置決めされ、従って回転軸に沿っており、上記回転軸は、上記モータに結合されたときに上記装置がそれに沿って回転する軸である、広角レンズ;上記ハウジング内の画像キャプチャデバイスであって、上記画像キャプチャデバイスは、環境の、上記広角レンズを通した2次元画像を受信するよう構成される、画像キャプチャデバイス;並びに上記ハウジング内のLiDARデバイスであって、上記LiDARデバイスは上記環境に基づいて深度データを生成するよう構成される、LiDARデバイスを備える。
画像キャプチャデバイスは、ハウジング、第1のモータ、広角レンズ、画像センサ、マウント、LiDAR、第2のモータ、及びミラーを備えてよい。上記ハウジングは前面及び背面を有してよい。上記第1のモータは、上記ハウジングの上記前面と上記背面との間の第1の位置において、上記ハウジングに結合されていてよく、上記第1のモータは、上記画像キャプチャデバイスを垂直軸の周りで略270°水平にターンさせるよう構成される。上記広角レンズは、上記垂直軸に沿った上記ハウジングの上記前面と上記背面との間の第2の位置において、上記ハウジングに結合されていてよく、上記第2の位置は無視差点であり、上記広角レンズは上記ハウジングの上記前面から離れた視野を有する。上記画像センサは、上記ハウジングに結合されていてよく、上記広角レンズが受信した光から画像信号を生成するよう構成されていてよい。上記マウントは、上記第1のモータに結合されていてよい。上記LiDARは第3の位置において上記ハウジングに結合されていてよく、上記LiDARは、レーザパルスを生成し、深度信号を生成するよう構成される。上記第2のモータは、上記ハウジングに結合されていてよい。上記ミラーは、上記第2のモータに結合されていてよく、上記第2のモータは、上記ミラーを水平軸の周りで回転させるよう構成されていてよく、上記ミラーは、上記LiDARから上記レーザパルスを受信して、上記レーザパルスを上記水平軸の周りに向けるよう構成された、角度付き表面を含む。
いくつかの実施形態では、上記画像センサは、上記画像キャプチャデバイスが静止して第1の方向を向いているときに、異なる複数の露出で第1の複数の画像を生成するよう構成される。上記第1のモータは、上記第1の複数の画像の生成後に、上記画像キャプチャデバイスを上記垂直軸の周りでターンさせるよう構成されていてよい。様々な実施形態において、上記画像センサは、上記第1のモータが上記画像キャプチャデバイスをターンさせている間は画像を生成せず、上記LiDARは、上記第1のモータが上記画像キャプチャデバイスをターンさせている間に、上記レーザパルスに基づいて深度信号を生成する。上記画像センサは、上記画像キャプチャデバイスが静止して第2の方向を向いているときに、上記異なる複数の露出で第2の複数の画像を生成するよう構成されていてよく、上記第1のモータは、上記第2の複数の画像の生成後に、上記画像キャプチャデバイスを上記垂直軸の周りで90°ターンさせるよう構成される。上記画像センサは、上記画像キャプチャデバイスが静止して第3の方向を向いているときに、上記異なる複数の露出で第3の複数の画像を生成するよう構成されていてよく、上記第1のモータは、上記第3の複数の画像の生成後に、上記画像キャプチャデバイスを上記垂直軸の周りで90°ターンさせるよう構成される。上記画像センサは、上記画像キャプチャデバイスが静止して第4の方向を向いているときに、上記異なる複数の露出で第4の複数の画像を生成するよう構成されていてよく、上記第1のモータは、上記第4の複数の画像の生成後に、上記画像キャプチャデバイスを上記垂直軸の周りで90°ターンさせるよう構成される。
いくつかの実施形態では、上記システムは更に、上記画像センサが上記第2の複数の画像を生成する前に、上記第1の複数の画像のフレームをブレンドするよう構成された、プロセッサを備えてよい。リモートデジタルデバイスは、上記画像キャプチャデバイスと通信してよく、また上記第1、第2、第3、第4の複数の画像と、上記深度信号とに基づいて、3Dビジュアライゼーションを生成するよう構成されていてよく、上記リモートデジタルデバイスは、上記第1、第2、第3、第4の複数の画像以外の画像を用いずに、上記3Dビジュアライゼーションを生成するよう構成される。いくつかの実施形態では、上記第1、第2、第3、第4の複数の画像は、上記画像キャプチャデバイスを上記垂直軸の周りで270°ターンさせる複数のターンを組み合わせたターンの間に生成される。上記水平軸の周りでの上記ミラーの速度又は回転は、上記第1のモータが上記画像キャプチャデバイスをターンさせる際に上昇する。上記ミラーの上記角度付き表面は90°であってよい。いくつかの実施形態では、上記LiDARは、上記ハウジングの上記前面と反対の方向に、上記レーザパルスを放出する。
ある例示的な方法は:画像キャプチャデバイスの広角レンズから光を受信するステップであって、上記広角レンズは上記画像キャプチャデバイスのハウジングに結合され、上記光は上記広角レンズの視野において受信され、上記視野は上記ハウジングの前面から離れて延在する、ステップ;上記広角レンズからの上記光を用いて、画像キャプチャデバイスの画像センサによって第1の複数の画像を生成するステップであって、上記画像センサは上記ハウジングに結合され、上記第1の複数の画像は、異なる複数の露出でのものである、ステップ;第1のモータによって、上記画像キャプチャデバイスを、垂直軸の周りで略270°水平にターンさせるステップであって、上記第1のモータは、上記ハウジングの上記前面と上記背面との間の第1の位置において、上記ハウジングに結合され、上記広角レンズは上記垂直軸に沿った第2の位置にあり、上記第2の位置は無視差点である、ステップ;第2のモータによって、角度付き表面を有するミラーを水平軸の周りで回転させるステップであって、上記第2のモータは上記ハウジングに結合される、ステップ;LiDARによってレーザパルスを生成するステップであって、上記LiDARは第3の位置において上記ハウジングに結合され、上記レーザパルスは、上記画像キャプチャデバイスが水平にターンしている間、回転する上記ミラーに向いている、ステップ;及び上記レーザパルスに基づいて、上記LiDARによって深度信号を生成するステップを含む。
上記画像センサによって上記第1の複数の画像を生成する上記ステップは、上記画像キャプチャデバイスが水平にターンする前に行ってよい。いくつかの実施形態では、上記画像センサは、上記第1のモータが上記画像キャプチャデバイスをターンさせている間は画像を生成せず、上記LiDARは、上記第1のモータが上記画像キャプチャデバイスをターンさせている間に、上記レーザパルスに基づいて上記深度信号を生成する。
上記方法は更に:上記画像キャプチャデバイスが静止して第2の方向を向いているときに、上記画像センサによって、上記異なる複数の露出で第2の複数の画像を生成するステップ;及び上記第2の複数の画像の生成後に、上記第1のモータによって、上記画像キャプチャデバイスを上記垂直軸の周りで90°ターンさせるステップを含んでよい。
いくつかの実施形態では、上記方法は更に:上記画像キャプチャデバイスが静止して第3の方向を向いているときに、上記画像センサによって、上記異なる複数の露出で第3の複数の画像を生成するステップ;及び上記第3の複数の画像の生成後に、上記第1のモータによって、上記画像キャプチャデバイスを上記垂直軸の周りで90°ターンさせるステップを含んでよい。上記方法は更に、上記画像キャプチャデバイスが静止して第4の方向を向いているときに、上記画像センサによって、上記異なる複数の露出で第4の複数の画像を生成するステップを含んでよい。上記方法は、上記第1、第2、第3、第4の複数の画像を用い、また上記深度信号に基づいて、3Dビジュアライゼーションを生成するステップを含んでよく、上記3Dビジュアライゼーションを生成する上記ステップは、他のいかなる画像も使用しない。
いくつかの実施形態では、上記方法は更に、上記画像センサが上記第2の複数の画像を生成する前に、上記第1の複数の画像のフレームをブレンドするステップを含んでよい。上記第1、第2、第3、第4の複数の画像は、上記画像キャプチャデバイスを上記垂直軸の周りで270°ターンさせる複数のターンを組み合わせたターンの間に生成できる。いくつかの実施形態では、上記水平軸の周りでの上記ミラーの速度又は回転は、上記第1のモータが上記画像キャプチャデバイスをターンさせる際に上昇する。
本明細書に記載されるイノベーションの多くは、図面を参照して行われる。同様の参照番号は、同様の要素を指すために用いられる。以下の記述では、説明を目的として、多数の具体的な詳細を示すことで、完全な理解を提供する。しかしながら、これらの具体的な詳細を用いることなく、異なるイノベーションを実践できることは明らかであり得る。他の例では、イノベーションの説明を容易にするために、公知の構造及び構成要素をブロック図の形式で示す。
装置の様々な実施形態は、ユーザに屋内及び屋外環境の3Dパノラマ画像を提供する。いくつかの実施形態では、装置は、単一の広視野(field‐of‐view:FOV)レンズ及び単一の光検出・測距センサ(light and detection and ranging sensor:LiDARセンサ)を用いて、ユーザに屋内及び屋外環境の3Dパノラマ画像を効率的かつ迅速に提供できる。
以下は、本明細書に記載の例示的な装置の例示的な使用例である。以下の使用例は、複数の実施形態のうちの1つである。本明細書に記載されているように、上記装置の異なる実施形態は、この使用例と類似した1つ以上の特徴及び機能を含んでよい。
図1aは、いくつかの実施形態による、家等の例示的な環境のドールハウスビュー100である。ドールハウスビュー100は、(本明細書に記載の)環境キャプチャシステムがキャプチャする上記例示的な環境の全体図を提供する。ユーザは、この例示的な環境の異なる複数のビューを切り替えることによって、ユーザシステム上でドールハウスビュー100と対話できる。例えばユーザは、エリア110と対話して、図1bに示されているような家の1階の間取り図をトリガできる。いくつかの実施形態では、ユーザはドールハウスビュー100内のアイコン、例えばアイコン120、130、140と対話して、それぞれ(例えば3Dウォークスルーのための)ウォークスルービュー、間取り図、又は測定ビューを提供できる。
図1bは、いくつかの実施形態による、家の1階の間取り図を示す。この間取り図は、家の1階を上から見た図である。ユーザはこの間取り図のエリア、例えばエリア150と対話して、リビングルームといったこの間取りの特定の部分の目の高さからの図をトリガできる。リビングルームの目の高さからの図の一例は図2で確認でき、これは仮想ウォークスルーの一部となり得る。
ユーザは、図1bのエリア150に対応する、間取り200の一部分と対話してよい。ユーザは、あたかもユーザが実際にこのリビングルーム内に居るかのように、ビューを部屋中に移動させることができる。リビングルームの水平な360℃のビューに加えて、ユーザはリビングルームの床又は天井を視認又は操作することもできる。更にユーザは、間取り200の上記一部分の特定のエリア、例えばエリア210、220と対話することによって、上記家の他の部分に向かってリビングルームを通過できる。ユーザがエリア220と対話すると、環境キャプチャシステムは、エリア150が示す家の領域に略対応する家のエリアと、エリア220が示す家の領域に略対応する家のエリアとの間の、歩いているような遷移を提供できる。
図3は、いくつかの実施形態による環境キャプチャシステム300の一例を示す。環境キャプチャシステム300は、レンズ310、ハウジング320、マウントアタッチメント330、及び可動式カバー340を含む。
使用時には、環境キャプチャシステム300を部屋等の環境の中に位置決めしてよい。環境キャプチャシステム300を支持体(例えば三脚)上に位置決めしてもよい。可動式カバー340を動かして、LiDAR及び高速回転可能なミラーを露出させてよい。起動されると、環境キャプチャシステム300は画像のバーストを撮影でき、その後モータを用いてターンできる。環境キャプチャシステム300はマウントアタッチメント330上でターンできる。ターン時、LiDARは測定を実施してよい(ターン中、環境キャプチャシステムは画像を撮影できない)。新たな方向を向くと、環境キャプチャシステムは画像のバーストを撮影した後、次の方向へとターンできる。
例えば位置決め後、ユーザは環境キャプチャシステム300に、スイープを開始するように命令してよい。スイープは、以下のようなものであってよい:
(1)露出の推定、及びそれに続くHDR RGB画像の撮影
90°回転、深度データのキャプチャ
(2)露出の推定、及びそれに続くHDR RGB画像の撮影
90°回転、深度データのキャプチャ
(3)露出の推定、及びそれに続くHDR RGB画像の撮影
90°回転、深度データのキャプチャ
(4)露出の推定、及びそれに続くHDR RGB画像の撮影
90°回転(合計360°)、深度データのキャプチャ
(1)露出の推定、及びそれに続くHDR RGB画像の撮影
90°回転、深度データのキャプチャ
(2)露出の推定、及びそれに続くHDR RGB画像の撮影
90°回転、深度データのキャプチャ
(3)露出の推定、及びそれに続くHDR RGB画像の撮影
90°回転、深度データのキャプチャ
(4)露出の推定、及びそれに続くHDR RGB画像の撮影
90°回転(合計360°)、深度データのキャプチャ
各バーストについて、異なる複数の露出でいずれの数の画像があってもよい。環境キャプチャシステムは、別のフレームの待機中、及び/又は次のバーストの待機中に、1つのバーストのいずれの数の画像を1つにブレンドできる。
ハウジング320は、環境キャプチャシステム300の電子部品を保護してよく、またユーザとの対話のためのインタフェースに電源ボタン、スキャンボタン等を設けることができる。例えばハウジング320は可動式カバー340を含んでよく、これはLiDARのカバーを解除するために移動可能であってよい。更にハウジング320は、電源アダプタ及びインジケータライトといった電子インタフェースを含んでよい。いくつかの実施形態では、ハウジング320は成形プラスチック製ハウジングである。様々な実施形態において、ハウジング320は、プラスチック、金属、及びポリマーのうちの1つ以上の組み合わせである。
レンズ310はレンズアセンブリの一部であってよい。レンズアセンブリの更なる詳細を、図7の記述において説明できる。レンズ310は、環境キャプチャシステム300の回転軸305の中心に、戦略的に配置される。この例では、回転軸305はx‐y平面上にある。レンズ310を回転軸305の中心に配置することによって、視差効果を排除又は低減できる。視差とは、非視差点(non‐parallax point:NPP)の周りでの画像キャプチャデバイスの回転によって生じる誤差である。この例では、NPPはレンズの入射瞳の中心に確認できる。
例えば、物理的環境のパノラマ画像を、環境キャプチャシステム300がキャプチャした4つの画像を用いて生成すると仮定し、ここで該パノラマ画像の画像間には25%のオーバラップが存在する。視差がない場合、ある画像の25%が、この物理的環境の同一エリアの別の画像と、正確に重なることができる。画像センサがレンズ310を介してキャプチャした複数の画像の視差効果の排除又は低減は、複数の画像を2Dパノラマ画像へとスティッチングするのを支援できる。
レンズ310は広い視野を含んでよい(例えばレンズ310は魚眼レンズであってよい)。いくつかの実施形態では、レンズは、少なくとも148°の水平FOV(HFOV)及び少なくとも94°の垂直FOV(VFOV)を有してよい。
マウントアタッチメント330は、環境キャプチャシステム300を、マウントに取り付けることができるようにすることができる。上記マウントは、環境キャプチャシステム300を、三脚、平坦面、又は(例えば環境キャプチャシステム300を移動させるための)電動マウントに結合できるようにすることができる。いくつかの実施形態では、上記マウントは、環境キャプチャシステム300を水平軸に沿って回転できるようにすることができる。
いくつかの実施形態では、環境キャプチャシステム300は、環境キャプチャシステム300をマウントアタッチメント330の周りで水平にターンさせるためのモータを含んでよい。
いくつかの実施形態では、電動マウントが、環境キャプチャシステム300を、水平軸、垂直軸、又はこれら両方に沿って移動させてよい。いくつかの実施形態では、上記電動マウントは、x‐y平面内で回転又は移動できる。マウントアタッチメント330を用いると、環境キャプチャシステム300を電動マウント、三脚等に結合して環境キャプチャシステム300を安定させることによって、揺れを削減又は最小化できるようにすることができる。別の例では、マウントアタッチメント330を、3D環境キャプチャシステム300を安定した既知の速度で回転させることができる電動マウントに結合してよく、これは、LiDARの各レーザパルスの(x,y,z)座標の決定においてLiDARを支援する。
図4は、いくつかの実施形態における、環境キャプチャシステム400の見取り図を示す。この見取り図は、(図3の環境キャプチャシステム300の一例となり得る)環境キャプチャシステム400を、多様なビュー、例えば正面図410、上面図420、側面図430、及び背面図440から示す。これらの見取り図において、環境キャプチャシステム400は、側面図430に示されている任意の中空部分を含んでよい。
いくつかの実施形態では、環境キャプチャシステム400は、75mmの幅、180mmの高さ、及び189mmの深さを有する。環境キャプチャシステム400はいかなる幅、高さ、又は深さを有してよいことが理解されるだろう。様々な実施形態において、第1の例における幅と深さとの比は、具体的な測定に関係なく維持される。
3D環境キャプチャシステム400のハウジングは、環境キャプチャシステム400の電子部品を保護してよく、またユーザとの対話のためのインタフェース(例えば背面図440のスクリーン)を提供できる。更にハウジングは、電源アダプタ及びインジケータライトといった電子インタフェースを含んでよい。いくつかの実施形態では、ハウジングは成形プラスチック製ハウジングである。様々な実施形態において、ハウジングは、プラスチック、金属、及びポリマーのうちの1つ以上の組み合わせである。環境キャプチャシステム400は可動式カバーを含んでよく、これはLiDARのカバーを解除するため、及び非使用時にLiDARを複数の要素から保護するために、移動可能であってよい。
正面図410に図示されているレンズはレンズアセンブリの一部であってよい。環境キャプチャシステム300と同様に、環境キャプチャシステム400のレンズは、回転軸305の中心に戦略的に配置される。レンズは広い視野を含んでよい。様々な実施形態において、正面図410に図示されているレンズは凹状であり、ハウジングはフレア状になっていることにより、広角レンズがちょうど無視差点(例えばマウント及び/又はモータの中点の真上)となるものの、依然としてハウジングからの干渉なしに画像を撮影できる。
環境キャプチャシステム400のベースにあるマウントアタッチメントは、環境キャプチャシステムを、マウントに取り付けることができるようにすることができる。上記マウントは、環境キャプチャシステム400を、三脚、平坦面、又は(例えば環境キャプチャシステム400を移動させるための)電動マウントに結合できるようにすることができる。いくつかの実施形態では、上記マウントは、環境キャプチャシステム400をマウントの周りでターンさせるための、内部モータと結合されていてよい。
いくつかの実施形態では、上記マウントは、環境キャプチャシステム400を、水平軸に沿って回転できるようにすることができる。様々な実施形態において、電動マウントが、環境キャプチャシステム400を、水平軸、垂直軸、又はこれら両方に沿って移動させてよい。マウントアタッチメントを用いると、環境キャプチャシステム400を電動マウント、三脚等に結合して環境キャプチャシステム400を安定させることによって、揺れを削減又は最小化できるようにすることができる。別の例では、マウントアタッチメントを、環境キャプチャシステム400を安定した既知の速度で回転させることができる電動マウントに結合してよく、これは、LiDARの各レーザパルスの(x,y,z)座標の決定においてLiDARを支援する。
ビュー430では、ミラー450が露出している。LiDARは、レーザパルスをミラーへと(レンズのビューと反対の方向に)放出してよい。上記レーザパルスは、(例えば90°の角度で)角度を付けられていてよいミラー450に当たることができる。ミラー450は内部モータと結合されていてよく、この内部モータはミラーをターンさせ、これによってLiDARのレーザパルスは、環境キャプチャシステム400の周りの多数の異なる角度で放出及び/又は受信され得る。
図5は、いくつかの実施形態における、環境キャプチャシステム400の周りの、LiDARからのレーザパルスの図である。この例では、レーザパルスは高速回転するミラー450において放出される。レーザパルスは、環境キャプチャシステム400の水平軸602(図6を参照)に対して垂直に放出及び受信されてよい。LiDARからのレーザパルスが環境キャプチャシステム400から離れる方向を向くように、ミラー450に角度がつけられていてよい。いくつかの例では、ミラーの角度付き表面の角度は、90°であってよく、又は60°、120°、若しくは60°~120°であってよい。
いくつかの実施形態では、環境キャプチャシステム400が静止しておりかつ動作中であるとき、環境キャプチャシステム400はレンズを通して画像のバーストを撮影できる。環境キャプチャシステム400は、画像のバーストとバーストの間に、水平モータ上でターンしてよい。マウントに沿ってターンする間に、環境キャプチャシステム400のLiDARは、高速回転するミラー450に当たるレーザパルスを放出及び/又は受信してよい。LiDARは、受信したレーザパルスの反射から深度信号を生成してよく、及び/又は深度データを生成してよい。
いくつかの実施形態では、深度データを、環境キャプチャシステム400に関する座標と関連付けてよい。同様に、画像のピクセル又は部分を、環境キャプチャシステム400に関する座標と関連付けることによって、画像及び深度データを用いた3Dビジュアライゼーション(例えば異なる複数の方向からの画像、3Dウォークスルー等)の作成が可能となる。
図5に示されているように、LiDARのパルスは、環境キャプチャシステム400の底部によって遮断され得る。環境キャプチャシステム400がマウントの周りで移動している間、ミラー450は継続的に高速回転でき、又は環境キャプチャシステム400が移動を開始するとき、及び環境キャプチャシステム400が再び減速して停止するとき、ミラー450はよりゆっくりと高速回転できる(例えばマウントモータの始動と停止との間では一定の速度を維持できる)ことが理解されるだろう。
LiDARは、上記パルスから深度データを受信できる。環境キャプチャシステム400の移動及び/又はミラー450の速度の増減によって、環境キャプチャシステム400に関する深度データの密度は一貫していない(例えば一部のエリアでは密度が高く、他のエリアでは密度が低い)場合がある。
図6aは、環境キャプチャシステム400の側面図を示す。この図にはミラー450が図示されており、このミラー450は水平軸の周りで高速回転できる。パルス604は、高速回転するミラー450においてLiDARによって放出されてよく、また水平軸602に対して垂直に放出されてよい。同様に、パルス604は同様の様式でLiDARによって受信されてよい。
LiDARパルスは水平軸602に対して垂直であるものとして説明されているが、LiDARパルスは水平軸602に対していずれの角度であってよい(例えばミラーの角度は60~120°を含むいずれの角度であってよい)ことが理解されるだろう。様々な実施形態において、LiDARは、環境キャプチャシステム400の正面側(例えば正面側604)の反対側に(例えばレンズの視野の中心と反対の方向、又は背面606に向かう方向に)、パルスを放出する。
本明細書に記載されているように、環境キャプチャシステム400は垂直軸608の周りでターンしてよい。様々な実施形態において、環境キャプチャシステム400は画像を撮影した後90°ターンすることにより、環境キャプチャシステム400が第1の画像のセットを撮影した元の開始位置から270°のターンを完了する際には、第4の画像のセットが撮影される。従って環境キャプチャシステム400は、(例えば第1の画像のセットが、環境キャプチャシステム400の最初のターンの前に撮影されたと仮定すると)合計270°の複数回のターンの間に、画像の4つのセットを生成できる。様々な実施形態において、(例えば垂直軸の周りでの1回転又は270°の回転中に撮影される)環境キャプチャシステム400の単一のスイープからの画像(例えば画像の4つのセット)は、同じスイープの間に取得された深度データと共に、環境キャプチャシステム400の更なるスイープ又はターンを用いずに3Dビジュアライゼーションを生成するために十分なものである。
この例では、LiDARパルスは放出されて、環境キャプチャシステム400の回転点から離れた位置で高速回転するミラーによって方向転換されることが理解されるだろう。この例では、マウントの回転点からの距離は608である(例えばレンズは無視差点にあってよいが、レンズは環境キャプチャシステム400の正面に対してレンズの背後の位置にあってよい)。LiDARのパルスは、回転点から離れた位置のミラー450によって方向転換されるため、LiDARは、環境キャプチャシステム400の上から環境キャプチャシステム400の下まで延在する円柱からは深度データを受信できない。この例では、上記円柱(例えばこの円柱には深度情報が欠けている)の半径は、モータマウントの回転点の中心から、ミラー450がLiDARパルスを方向転換する点までで測定できる。
更に図6aには、キャビティ610が示されている。この例では、環境キャプチャシステム400は、環境キャプチャシステム400のハウジングの本体内に、高速回転するミラーを含む。ハウジングからの切り欠きセクションが存在する。レーザパルスをミラーによってハウジングの外へと反射させた後、反射をミラーによって受信して、LiDARに戻るように方向転換でき、これによってLiDARが深度信号及び/又は深度データを作成できるようにする。キャビティ610の下方の環境キャプチャシステム400の本体のベースは、レーザパルスの一部を遮断し得る。キャビティ610は、環境キャプチャシステム400のベースと回転するミラーとによって画定できる。図6bに示されているように、角度付きミラーと、LiDARを含む環境キャプチャシステム400のハウジングとの間には、依然として空間が存在してよい。
様々な実施形態において、LiDARは、ミラーの回転速度が回転安全閾値未満に低下した場合(例えばミラーを高速回転させるモータが故障した場合、又はミラーが所定の位置に保持されている場合)に、レーザパルスの放出を停止するよう構成される。これによって、LiDARを安全のために構成でき、レーザパルスが同一方向に(例えばユーザの眼に)放出され続ける可能性を低減できる。
図6bは、いくつかの実施形態による、環境キャプチャシステム400の上からの図を示す。この例では、環境キャプチャシステム400の正面は、レンズと共に凹状に、回転点の中心の真上に(例えばマウントの中心の真上に)図示されている。カメラの正面はレンズのために凹状となっており、ハウジングの正面は、画像センサの視野をハウジングが遮ることがないように、フレア状になっている。ミラー450は上を向いた状態で図示されている。
図7は、いくつかの実施形態による環境キャプチャシステム300の構成部品の見取り図を示す。環境キャプチャシステム700は、フロントカバー702、レンズアセンブリ704、構造フレーム706、LiDAR708、フロントハウジング710、ミラーアセンブリ712、GPSアンテナ714、リアハウジング716、垂直モータ718、ディスプレイ720、バッテリパック722、マウント724、及び水平モータ726を含む。
様々な実施形態において、環境キャプチャシステム700は、晴天の屋外及び屋内で3Dメッシュのスキャン、位置合わせ、及び作成を行うように構成できる。これにより、屋内専用ツールである他のシステムを採用する際の障壁がなくなる。環境キャプチャシステム700は、広い空間を他のデバイスよりも迅速にスキャンできる。いくつかの実施形態では、環境キャプチャシステム700は、90mでの単一スキャン深度精度を改善することにより、改善された深度精度を提供できる。
いくつかの実施形態では、環境キャプチャシステム700の重さは1kg又は約1kgであってよい。ある例では、環境キャプチャシステム700の重さは1~3kgであってよい。
フロントカバー702、フロントハウジング710、及びリアハウジング716は、ハウジングの一部を構成する。ある例では、フロントカバーの幅wは75mmであってよい。
レンズアセンブリ704は、光を画像キャプチャデバイス上に集束させるカメラレンズを含んでよい。画像キャプチャデバイスは、物理的環境の画像をキャプチャできる。ユーザは、図1の第2の建造物422のような建造物のフロアの一部分をキャプチャして、上記フロアの上記一部分のパノラマ画像を得るために、環境キャプチャシステム700を配置してよい。環境キャプチャシステム700を上記建造物の上記フロアの別の部分に移動させることによって、上記フロアの別の部分のパノラマ画像を得ることができる。ある例では、画像キャプチャデバイスの被写界深度は、0.5メートルから無限大である。図8aは、いくつかの実施形態における例示的なレンズの寸法を示す。
いくつかの実施形態では、画像キャプチャデバイスは、相補型金属酸化膜半導体(complementary metal‐oxide‐semiconductor:CMOS)画像センサ(例えばNVidia Jetson Nano SOMを備えたSony IMX283 ~20 Megapixel CMOS MIPIセンサ)である。様々な実施形態において、画像キャプチャデバイスは電荷結合素子(charged coupled device:CCD)である。ある例では、画像キャプチャデバイスは赤色‐緑色‐青色(red‐green‐blue:RGB)センサである。一実施形態では、画像キャプチャデバイスは赤外線(IR)センサである。レンズアセンブリ704は、画像キャプチャデバイスに広い視野を与えることができる。
画像センサは多くの異なる仕様を有してよい。ある例では、画像センサは以下を含む:
例示的な仕様は、以下の通りであってよい:
様々な実施形態において、F0相対視野(即ち中心)でのMTFを見ると、焦点シフトは0.5mにおける+28マイクロメートルから無限遠点での-25マイクロメートルまで変化し得、全体を通した焦点シフトは53マイクロメートルとなる。
図8bは、いくつかの実施形態における例示的なレンズの設計仕様を示す。
いくつかの例では、レンズアセンブリ704は、少なくとも148°のHFOV、及び少なくとも94°のVFOVを有する。ある例では、レンズアセンブリ704は、150°、180°、又は145°~180°の視野を有する。環境キャプチャシステム700の周りでの360°のビューの画像キャプチャを、ある例では、環境キャプチャシステム700の画像キャプチャデバイスからの3回又は4回の別個の画像キャプチャによって得ることができる。様々な実施形態において、画像キャプチャデバイスは、1°あたり少なくとも37ピクセルの解像度を有してよい。いくつかの実施形態では、環境キャプチャシステム700は、非使用時にレンズアセンブリ704を保護するためのレンズキャップ(図示せず)を含む。レンズアセンブリ704の出力は、物理的環境のあるエリアのデジタル画像であってよい。レンズアセンブリ704がキャプチャした複数の画像を1つにスティッチングすることによって、上記物理的環境の2Dパノラマ画像を形成できる。3Dパノラマは、LiDAR708がキャプチャした深度データを、レンズアセンブリ704からの複数の画像を1つにスティッチングすることによって生成された2Dパノラマ画像と組み合わせることによって、生成できる。いくつかの実施形態では、環境キャプチャシステム402がキャプチャした複数の画像は、画像処理システム406によって1つにスティッチングされる。様々な実施形態において、環境キャプチャシステム402は、2Dパノラマ画像の「プレビュー」又は「サムネイル」バージョンを生成する。2Dパノラマ画像のプレビュー又はサムネイルバージョンは、iPad、パーソナルコンピュータ、スマートフォン等といったユーザシステム1110上で提示できる。いくつかの実施形態では、環境キャプチャシステム402は、物理的環境のあるエリアを表す、上記物理的環境のミニマップを生成してよい。様々な実施形態において、画像処理システム406は、上記物理的環境のあるエリアを表すミニマップを生成する。
レンズアセンブリ704がキャプチャした画像は、2D画像のキャプチャ場所を特定する又は示す、キャプチャデバイス場所データを含んでよい。例えばいくつかの実装形態では、キャプチャデバイス場所データは、2D画像と関連付けられた全地球測位システム(global positioning system:GPS)座標を含むことができる。他の実装形態では、キャプチャデバイス場所データは、キャプチャデバイス(例えばカメラ及び/又は3Dセンサ)の、その環境に対する相対位置、例えばキャプチャデバイスの、上記環境内のあるオブジェクト、上記環境内の別のデバイス等に対する、相対位置又は較正位置を示す、位置情報を含むことができる。いくつかの実装形態では、このタイプの場所データは、キャプチャデバイス(例えばカメラ、並びに/又は位置決め用ハードウェア及び/若しくはソフトウェアを備えたカメラに動作可能に結合されたデバイス)によって、画像のキャプチャに関連して決定でき、画像と共に受信できる。レンズアセンブリ704の配置は、設計によるものだけではない。レンズアセンブリ704を回転軸の中心又は略中心に配置することによって、視差効果を低減できる。
いくつかの実施形態では、構造フレーム706は、レンズアセンブリ704及びLiDAR708をある特定の位置に保持し、この例の環境キャプチャシステムの構成部品の保護に役立つことができる。構造フレーム706は、LiDAR708のしっかりとした設置を支援し、LiDAR708を固定位置に配置する役割を果たすことができる。更に、レンズアセンブリ704及びLiDAR708の固定された位置により、深度データを画像情報と位置合わせして3D画像の作成を支援するための、固定された関係が可能となる。上記物理的環境でキャプチャされた2D画像データ及び深度データを、共通の3D座標空間に対して位置合わせすることによって、上記物理的環境の3Dモデルを生成できる。
様々な実施形態において、LiDAR708は、物理的環境の深度情報をキャプチャする。ユーザが環境キャプチャシステム700を、第2の建造物のあるフロアの一部分に置くと、LiDAR708はオブジェクトの深度情報を得ることができる。LiDAR708は、光学感知モジュールを含んでよく、これは、レーザからのパルスを利用して標的又はシーンを照射し、光子が標的まで移動してLiDAR708に戻るのにかかる時間を測定することによって、標的又はシーン内のオブジェクトまでの距離を測定できる。続いて、環境キャプチャシステム700の水平駆動列から導出された情報を用いて、測定値を格子座標系に変換してよい。
いくつかの実施形態では、LiDAR708は、10マイクロ秒毎に、深度データ点を10マイクロ秒毎に(内部クロックの)タイムスタンプ付きで返すことができる。LiDAR708は、(上部及び底部に小さな穴がある)部分的な球体を0.25°毎にサンプリングできる。10マイクロ秒及び0.25°毎のデータ点で、いくつかの実施形態では、複数の点の「ディスク」1つあたり14.40ミリ秒となり得、名目上20.7秒である球体をなすために1440個のディスクが存在し得る。各ディスクは前後にキャプチャするため、球体は180°のスイープでキャプチャできる。
ある例では、LiDAR708の仕様は以下の通りであってよい:
LiDARを利用する1つの利点は、LiDARを比較的低い波長(例えば905nm、900~940nm等)で用いることで、環境キャプチャシステム700が、屋外環境又は光が明るい屋内環境に関する深度情報を決定できることである。
レンズアセンブリ704及びLiDAR708の配置によって、環境キャプチャシステム700又はデジタルデバイスを環境キャプチャシステム700と通信させて、LiDAR708及びレンズアセンブリ704からの深度データを用いて3Dパノラマ画像を生成できる。いくつかの実施形態では、2D及び3Dパノラマ画像は環境キャプチャシステム402で生成されない。
LiDAR708の出力は、LiDAR708が送信する各レーザパルスに関連付けられた属性を含んでよい。上記属性としては:レーザパルスの強度;戻り回数;現在の戻りの番号;分類点;RGC値;GPS時間;スキャン角度;スキャン方向;又はこれらのいずれの組み合わせが挙げられる。被写界深度は、(0.5m;無限大)、(1m;無限大)等であってよい。いくつかの実施形態では、被写界深度は0.2m~1m及び無限大である。
いくつかの実施形態では、環境キャプチャシステム700は、環境キャプチャシステム700が静止している間に、レンズアセンブリ704を用いて4つの別個のRBG画像をキャプチャする。様々な実施形態において、LiDAR708は、環境キャプチャシステム700が移動中であり、あるRBG画像キャプチャ位置から別のRBG画像キャプチャ位置へと移動している間に、4つの異なるインスタンスの深度データをキャプチャする。ある例では、3Dパノラマ画像は、画像キャプチャシステム700の360°の回転によってキャプチャされ、この回転をスイープと呼ぶ場合がある。様々な実施形態において、3Dパノラマ画像は、環境キャプチャシステム700の360°未満の回転によってキャプチャされる。スイープの出力はスイープリスト(sweep list:SWL)であってよく、これは、レンズアセンブリ704からの画像データと、LiDAR708からの深度データと、GPSの場所及びスイープが実施された時点のタイムスタンプを含むスイープの特性とを含む。様々な実施形態において、単一のスイープ(例えば環境キャプチャシステム700の単一の360°のターン)は、(例えば環境キャプチャシステム700から画像及び深度データを受信して、単一のスイープでキャプチャされた環境キャプチャシステム700からの上記画像及び深度データのみを用いて3Dビジュアライゼーションを作成する、環境キャプチャシステム700と通信するデジタルデバイスによって)3Dビジュアライゼーションを生成するために十分な、画像及び深度情報をキャプチャする。
いくつかの実施形態では、以下で説明される画像スティッチング・処理システムによって、環境キャプチャシステム402がキャプチャした複数の画像をブレンドし、1つにスティッチングし、LiDAR708からの深度データと組み合わせることができる。
様々な実施形態において、環境キャプチャシステム402、及び/又はユーザシステム1110上のアプリケーションは、3Dパノラマ画像のプレビュー又はサムネイルバージョンを生成してよい。3Dパノラマ画像のプレビュー又はサムネイルバージョンは、ユーザシステム1110上で提示でき、画像処理システム406が生成する3Dパノラマ画像より低い画像解像度を有してよい。レンズアセンブリ704及びLiDAR708が物理的環境の画像及び深度データをキャプチャした後、環境キャプチャシステム402は、環境キャプチャシステム402がキャプチャした物理的環境のあるエリアを表す、ミニマップを生成してよい。いくつかの実施形態では、画像処理システム406は、上記物理的環境のあるエリアを表すミニマップを生成する。環境キャプチャシステム402を用いて、家のリビングルームの画像及び深度データをキャプチャした後、環境キャプチャシステム402は、物理的環境の上からの図を生成できる。ユーザはこの情報を用いて、ユーザが3Dパノラマ画像をキャプチャ又は生成していない、上記物理的環境のエリアを決定できる。
一実施形態では、環境キャプチャシステム700は、レンズアセンブリ704の画像キャプチャデバイスによる画像キャプチャの間に、LiDAR708による深度情報キャプチャを挟むことができる。例えば、画像キャプチャデバイスは、図16に見られるような物理的環境のセクション1605の画像をキャプチャしてよく、その後、LiDAR708がセクション1605から深度情報を得る。LiDAR708がセクション1605から深度情報を得ると、画像キャプチャデバイスは別のセクション1610の画像をキャプチャするために移動してよく、続いてLiDAR708がセクション1610から深度情報を得る。このようにして、画像キャプチャと深度情報キャプチャとを交互に行う。
いくつかの実施形態では、LiDAR708は少なくとも145°の視野を有してよく、環境キャプチャシステム700の360°のビューの全てのオブジェクトの深度情報は、環境キャプチャシステム700によって、3回又は4回のスキャンで得ることができる。別の例では、LiDAR708は、少なくとも150°、180°、又は145°~180°の視野を有してよい。
レンズの視野の増大によって、環境キャプチャシステム700の周りの物理的環境の視覚及び深度情報を得るために必要な時間量が削減される。様々な実施形態において、LiDAR708は0.5mの最小深度範囲を有する。一実施形態では、LiDAR708は8メートルを超える最大深度範囲を有する。
LiDAR708は、ミラーアセンブリ712を利用して、レーザを異なるスキャン角度に向けることができる。一実施形態では、任意の垂直モータ718は、ミラーアセンブリ712を垂直に移動させる機能を有する。いくつかの実施形態では、ミラーアセンブリ712は、疎水性コーティング又は層を有する誘電体ミラーであってよい。ミラーアセンブリ712は、使用時にミラーアセンブリ712を回転させる垂直モータ718に結合されていてよい。
ミラーアセンブリ712のミラーは例えば、以下の仕様を有してよい:
ミラーアセンブリ712のミラーは例えば、材料及びコーティングに関して以下の仕様を有してよい:
ミラーアセンブリ712のミラーの疎水性コーティングは例えば、105°を超える接触角を有してよい
ミラーアセンブリ712のミラーは、以下の品質仕様を有してよい:
垂直モータは例えば以下の仕様を有してよい:
RGBキャプチャデバイス及びLiDAR708によって、環境キャプチャシステム700は、晴天の屋外で、又は光が明るい若しくは窓からの日光が眩しい屋内で、画像をキャプチャできる。異なるデバイス(例えば構造化照明デバイス)を利用するシステムでは、屋内であるか屋外であるかにかかわらず、明るい環境では動作できない場合がある。これらのデバイスは多くの場合、光を制御するために、屋内のみ、及び夜明け若しくは日没の間のみに使用するよう制限されている。そうしなければ、室内の明るいスポットによって画像にアーティファクト又は「穴」が作成され、これを埋める又は修正する必要がある。しかしながら、環境キャプチャシステム700は、屋内及び屋外両方の、明るい日光の下で利用できる。キャプチャデバイス及びLiDAR708は、眩しい光又は明るい光によって引き起こされるアーティファクト又は穴を伴わずに、明るい環境で画像及び深度データをキャプチャできる。
一実施形態では、GPSアンテナ714は全地球測位システム(GPS)データを受信する。GPSデータを用いて、いずれの所与の時点における環境キャプチャシステム700の場所を決定できる。
様々な実施形態において、ディスプレイ720によって、環境キャプチャシステム700は、アップデート中、ウォームアップ中、スキャン中、スキャン完了、エラー等といったシステムの現在の状態を提供できる。
バッテリパック722は環境キャプチャシステム700に電力を供給する。バッテリパック722は着脱可能かつ再充電可能であってよく、これによってユーザは、枯渇したバッテリパックを充電する間、新しいバッテリパック722を入れることができる。いくつかの実施形態では、バッテリパック722は再充電前に、少なくとも1000SWL又は少なくとも250SWLの連続使用が可能であってよい。環境キャプチャシステム700は再充電のためにUSB‐Cプラグを利用してよい。
いくつかの実施形態では、マウント724は、環境キャプチャシステム700を三脚又はマウント等のプラットフォームに接続するためのコネクタを提供する。水平モータ726は環境キャプチャシステム700を、x‐y平面に関して回転させることができる。いくつかの実施形態では、水平モータ726は、各レーザパルスに関連付けられた(x,y,z)座標を決定するために、格子座標系に情報を提供してよい。様々な実施形態において、レンズの広い視野、回転軸の周りでのレンズの位置決め、及びLiDARデバイスによって、水平モータ726は、環境キャプチャシステム700がスキャンを迅速に実施できるようにすることができる。
水平モータ726は一例として、以下の仕様を有してよい:
様々な実施形態において、マウント724は、クイックリリースアダプタを含んでよい。保持トルクは例えば2.0Nm超であってよく、キャプチャ操作の耐久性は最高70,000サイクル、又は70,000サイクル超であってよい。
例えば環境キャプチャシステム700は、8mを超えるスイープ間距離で、標準的な家の3Dメッシュの構築が可能であってよい。屋内でのスイープのキャプチャ、処理、及び位置合わせのための時間は、45秒未満とすることができる。ある例では、スイープのキャプチャの開始から、ユーザが環境キャプチャシステム700を移動させることができる時点までの時間枠は、15秒未満とすることができる。
様々な実施形態において、これらの構成部品は、環境キャプチャシステム700に、屋外及び屋内の複数のスキャン位置を位置合わせすることによって、屋内と屋外との間のシームレスなウォークスルー体験を作成する能力を提供する(これは、ホテル、民泊施設、不動産、建設業における考証、CRE、並びに完成時のモデリング及び検証にとって、高い優先度を有し得る)。環境キャプチャシステム700は、「屋外ドールハウス」又は屋外ミニマップも作成できる。ここで示されているように、環境キャプチャシステム700はまた、主に測定の観点から、3D再構成の精度を向上させることもできる。スキャンの密度に関して、ユーザがこれを微調整できることもプラスになる可能性がある。これらの構成部品はまた、環境キャプチャシステム700が、何もない広い空間(例えば比較的長い範囲)をキャプチャできるようにすることができる。何もない広い空間の3Dモデルを生成するためには、環境キャプチャシステムが、より小さな空間の3Dモデルの生成よりも大きな距離範囲から、3Dデータ及び深度データをスキャン及びキャプチャする必要があり得る。
様々な実施形態において、これらの構成部品は、環境キャプチャシステム700が、屋内及び屋外での使用に関して同様の方法で、複数のSWLを位置合わせして3Dモデルを再構成できるようにする。これらの構成部品はまた、環境キャプチャシステム700が、3Dモデルの地理的位置特定を実施できるようにすることもできる(これは、Googleストリートビューへの統合を容易にし、必要に応じて複数の屋外パノラマを位置合わせするのに役立ち得る)。
環境キャプチャシステム700の画像キャプチャデバイスは、70°のVFOVに関して8.5インチ×11インチで印刷可能な品質、及びRGB画像スタイルを有する、DSLRのような画像を提供できるものであってよい。
いくつかの実施形態では、環境キャプチャシステム700は、画像キャプチャデバイスによって(例えば広角レンズを用いて)RGB画像を撮影し、レンズを移動させた後、次のRGB画像を撮影できる(モータを用いて合計4回移動させる)。水平モータ726が環境キャプチャシステムを90°回転させる間に、LiDAR708は深度データをキャプチャできる。いくつかの実施形態では、LiDAR708はAPDアレイを含む。
いくつかの実施形態では、画像及び深度データをその後、キャプチャアプリケーション(例えば、ネットワーク上のスマートデバイス又は画像キャプチャシステムといった、環境キャプチャシステム700と通信するデバイス)に送ってよい。いくつかの実施形態では、環境キャプチャシステム700は、処理、及び2Dパノラマ画像又は3Dパノラマ画像の生成のために、画像及び深度データを画像処理システム406に送ることができる。様々な実施形態において、環境キャプチャシステム700は、環境キャプチャシステム700の360°の回転からキャプチャされたRGB画像及び深度データのスイープリストを生成してよい。このスイープリストを、スティッチング及び位置合わせのために画像処理システム406に送ることができる。スイープの出力はSWLであってよく、これは、レンズアセンブリ704からの画像データと、LiDAR708からの深度データと、GPSの場所及びスイープが実施された時点のタイムスタンプを含むスイープの特性とを含む。
様々な実施形態において、システムの再較正を必要とすることなくハウジングを開けることができるように、LIDAR、垂直ミラー、RGBレンズ、三脚マウント、及び水平ドライブは、ハウジング内にしっかりと設置される。
図9aは、いくつかの実施形態による環境キャプチャシステムの一例のブロック図900を示す。ブロック図900は、電源902、電力コンバータ904、入出力(I/O)プリント回路基板アセンブリ(printed circuit board assembly:PCBA)、システム・オン・モジュール(system on module:SOM)PCBA、ユーザインタフェース910、LiDAR912、ミラーブラシレス直流(brushless direct current:BLCD)モータ914、駆動列916、ワイド(wide FOV:WFOV)レンズ918、及び画像センサ920を含む。
電源902は、図7のバッテリパック722であってよい。電源は、環境キャプチャシステムに電力を供給できる、リチウムイオンバッテリ(例えば4×18650 Li‐Ion電池)等の着脱可能かつ再充電可能なバッテリであってよい。
電力コンバータ904は、電源902からの電圧レベルを、環境キャプチャシステムの電子部品が利用できるように、より低い又はより高い電圧に変換できる。環境キャプチャシステムは、4S1P構成、即ち4つの直列接続及び1つの並列接続の構成の、4×18650 Li‐Ion電池を利用してよい。
いくつかの実施形態では、I/O PCBA906は、IMU、Wi‐Fi、GPS、Bluetooth、慣性計測装置(inertial measurement unit:IMU)、モータドライブ、及びマイクロコントローラを提供する要素を含んでよい。いくつかの実施形態では、I/O PCBA906は、水平モータを制御して水平モータの制御をエンコードするため、並びに垂直モータを制御して垂直モータの制御をエンコードするための、マイクロコントローラを含む。
SOM PCBA908は、中央演算処理装置(central processing unit:CPU)及び/又は画像演算処理装置(graphics processing unit:GPU)、メモリ、及びモバイルインタフェースを含んでよい。SOM PCBA908は、LiDAR912、画像センサ920、及びI/O PCBA906を制御できる。SOM PCBA908は、LiDAR912の各レーザパルスに関連付けられた(x,y,z)座標を決定し、上記座標をSOM PCBA908のメモリ構成部品に保存できる。いくつかの実施形態では、SOM PCBA908は、環境キャプチャシステム400の画像処理システムに上記座標を保存できる。各レーザパルスに関連付けられた座標に加えて、SOM PCBA908は、レーザパルスの強度、戻り回数、現在の戻りの番号、分類点、RGC値、GPS時間、スキャン角度、及びスキャン方向を含む、各レーザパルスに関連付けられた更なる属性を決定してよい。
いくつかの実施形態では、SOM PCBA908は、CPU/GPU、DDR、eMMC、Ethernetを備えたNvidia SOM PCBAを含む。
ユーザインタフェース910は、ユーザが対話できる物理的なボタン又はスイッチを含んでよい。上記ボタン又はスイッチは、環境キャプチャシステムのオン及びオフの切り替え、物理的環境のスキャン等の機能を提供できる。いくつかの実施形態では、ユーザインタフェース910は、図7のディスプレイ720等のディスプレイを含んでよい。
いくつかの実施形態では、LiDAR912は、物理的環境の深度情報をキャプチャする。LiDAR912は光学感知モジュールを含み、これは、標的又はシーンに光を照射することによって、標的又はシーン内のオブジェクトまでの距離を測定できる。LiDAR912の光学感知モジュールは、光子が上記標的又はオブジェクトまで移動して、反射した後にLiDAR912のレシーバに戻るのにかかる時間を測定することによって、上記標的又はオブジェクトからのLiDARの距離を与える。SOM PCBA908は上記距離と共に、各レーザパルスに関連付けられた(x,y,z)座標を決定できる。LiDAR912は、幅58mm、高さ55mm、及び深さ60mmの範囲内に収まるものとすることができる。
LiDAR912は、範囲(10%反射率)が90m、範囲(20%反射率)が130m、範囲(100%反射率)が260m、範囲精度(1σ@900m)が2cm、波長が1705nm、ビーム発散が0.28×0.03°であってよい。
SOM PCBA908は、駆動列916の場所に基づいて座標を決定してよい。様々な実施形態において、LiDAR912は1つ以上のLiDARデバイスを含んでよい。複数のLiDARデバイスを利用することによって、LiDARの解像度を向上させることができる。
ミラーブラシレス直流(BLCD)モータ914は、図7のミラーアセンブリ712を制御できる。
いくつかの実施形態では、駆動列916は、図7の水平モータ726を含んでよい。駆動列916は、環境キャプチャシステムが三脚等のプラットフォームに設置されているときに、環境キャプチャシステムの回転を提供できる。駆動列916は、ステッピングモータNema14、ウォーム及びプラスチック歯車駆動列、クラッチ、ブッシングベアリング、及びバックラッシュ防止機構を含んでよい。いくつかの実施形態では、環境キャプチャシステムは、1回のスキャンを17秒未満で完了できる。様々な実施形態において、駆動列916は、60°/秒の最高速度、300°/秒2の最高加速度、0.5nmの最大トルク、0.1°未満の角度位置精度、及び1回転あたり約4096カウントのエンコーダ解像度を有する。
いくつかの実施形態では、駆動列916は垂直モノゴンミラー及びモータを含む。この例では、駆動列916は、BLDCモータ、外部ホール効果センサ、(ホール効果センサと対になった)磁石、ミラーブラケット、及びミラーを含んでよい。この例の駆動列916は、4,000RPMの最高速度及び300°/秒^2の最高加速度を有してよい。いくつかの実施形態では、上記モノゴンミラーは誘電体ミラーである。一実施形態では、上記モノゴンミラーは、疎水性コーティング又は層を含む。
環境キャプチャシステムの構成部品の配置は、レンズアセンブリ及びLiDARが回転軸の略中心に配置されるようなものである。これによって、画像キャプチャシステムが回転軸の中心に配置されていない場合に発生する画像の視差を低減できる。
いくつかの実施形態では、WFOVレンズ918は、図7のレンズアセンブリ704のレンズであってよい。WFOVレンズ918は、光を画像キャプチャデバイス上に集束させる。いくつかの実施形態では、WFOVレンズは、少なくとも145°のFOVを有してよい。このような広いFOVによって、環境キャプチャシステムの周りの360°の画像キャプチャを、画像キャプチャデバイスの3回の別個の画像キャプチャによって得ることができる。いくつかの実施形態では、WFOVレンズ918は、約60mmの直径、及び約80mmのトータルトラック長(TTL)を有してよい。ある例では、WFOVレンズ918は、148.3°以上の水平視野、及び94°以上の垂直視野を有してよい。
画像キャプチャデバイスは、WFOVレンズ918及び画像センサ920を含んでよい。画像センサ920は、CMOS画像センサであってよい。一実施形態では、画像センサ920は電荷結合素子(CCD)である。いくつかの実施形態では、画像センサ920は、赤色‐緑色‐青色(RGB)センサである。一実施形態では、画像センサ920はIRセンサである。様々な実施形態において、画像キャプチャデバイスは、1°あたり少なくとも35ピクセル(PPD)の解像度を有してよい。
いくつかの実施形態では、画像キャプチャデバイスは:f/2.4のF値;15.86mmのイメージサークル直径;2.4μmのピクセルピッチ;148.3°超のHFOV;94.0°超のVFOV;38.0PPD超の1°あたりのピクセル数;3.0°の全高での主光線入射角度;1300mmの最短撮影距離;無限遠の最長撮影距離;130%超の相対光量;90%未満の最大歪み;及び5%以下のスペクトル透過率の変動を有してよい。
いくつかの実施形態では、レンズは:2.8のF値;15.86mmのイメージサークル直径;37超の1°あたりのピクセル数;3.0の、全高のセンサにおける主光線入射角度;60mm未満のL1直径;80mm未満のTTL;及び50%超の相対光量を有してよい。
レンズは、85%超の52lp/mm(軸上)、66%超の104lp/mm(軸上)、45%超の208lp/mm(軸上)、75%超の52lp/mm(視野の83%)、41%超の104lp/mm(視野の83%)、及び25%超の208lp/mm(視野の83%)を有してよい。
環境キャプチャシステムは、20MP超の解像度、1.7V/ルクス*秒超の緑色の感度、65dB超のSNR(100ルクス、1倍ゲイン)、及び70dB超のダイナミックレンジを有してよい。
図9bは、いくつかの実施形態による環境キャプチャシステムのSOM PCBA908の一例のブロック図を示す。SOM PCBA908は、通信用構成部品922、LiDAR制御用構成部品924、LiDAR配置用構成部品926、ユーザインタフェース構成部品928、分類用構成部品930、LiDARデータストア932、及びキャプチャ済み画像データストア934を含んでよい。
いくつかの実施形態では、通信用構成部品922は、SOM PCBA1008の構成部品のうちのいずれと、図9aの環境キャプチャシステムの構成部品との間で、リクエスト又はデータを送受信できる。
様々な実施形態において、LiDAR制御用構成部品924は、LiDARの様々な様相を制御できる。例えばLiDAR制御用構成部品924は、はLiDAR912に、レーザパルスの送出を開始するための制御信号を送ってよい。LiDAR制御用構成部品924によって送られる上記制御信号は、レーザパルスの周波数に対する命令を含んでよい。
いくつかの実施形態では、LiDAR配置用構成部品926はGPSデータを利用して、環境キャプチャシステムの場所を決定できる。様々な実施形態において、LiDAR配置用構成部品926はミラーアセンブリの位置を利用して、各レーザパルスに関連付けられたスキャン角度及び(x,y,z)座標を決定する。LiDAR配置用構成部品926はIMUを利用して、環境キャプチャシステムの配向を決定することもできる。
ユーザインタフェース構成部品928は、環境キャプチャシステムとのユーザの対話を容易にすることができる。いくつかの実施形態では、ユーザインタフェース構成部品928は、ユーザが対話できる1つ以上のユーザインタフェース要素を提供してよい。ユーザインタフェース構成部品928が提供するユーザインタフェースは、ユーザシステム1110に送ることができる。例えばユーザインタフェース構成部品928はユーザシステム(例えばデジタルデバイス)に、建造物の間取りのあるエリアの視覚的表現を提供できる。ユーザが環境キャプチャシステムを建造物の1つの階の異なる複数の部分に配置して、3Dパノラマ画像をキャプチャ及び生成すると、環境キャプチャシステムは間取りの視覚的表現を生成できる。ユーザは、環境キャプチャシステムを物理的環境のあるエリアに配置して、家の該領域の3Dパノラマ画像をキャプチャ及び生成できる。該エリアの3Dパノラマ画像が画像処理システムによって生成された後、ユーザインタフェース構成部品は、図1bに示されているようなリビングルームのエリアの上からの図を用いて、間取り図を更新できる。いくつかの実施形態では、間取り図200は、1つの家の、又はある建造物のあるフロアの2回目のスイープをキャプチャした後で、ユーザシステム1110によって生成できる。
様々な実施形態において、分類用構成部品930は、物理的環境のタイプを分類できる。分類用構成部品930は、画像内のオブジェクト又は画像内のオブジェクトを分析して、環境キャプチャシステムによってキャプチャされた物理的環境のタイプを分類できる。いくつかの実施形態では、画像処理システムは、環境キャプチャシステム400によってキャプチャされた物理的環境のタイプを分類する役割を果たすことができる。
LiDARデータストア932は、キャプチャされたLiDARデータに好適ないかなる構造及び/又は複数の構造(例えばアクティブデータベース、リレーショナルデータベース、自己参照データベース、テーブル、マトリックス、アレイ、フラットファイル、ドキュメント指向のストレージシステム、非リレーショナルNo‐SQLシステム、Lucene/Solar等のFTS管理システム等)であってよい。画像データストア408は、キャプチャされたLiDARデータを保存できる。しかしながらLiDARデータストア932は、通信ネットワーク404が機能していない場合に、キャプチャされたLiDARデータをキャッシュするために利用できる。例えば、環境キャプチャシステム402及びユーザシステム1110が、セルラーネットワークのない離れた場所、又はWi‐Fiのない領域にある場合、LiDARデータストア932は、キャプチャされたLiDARデータを、画像データストア934に転送できるようになるまで保存できる。
LiDARデータストアと同様に、キャプチャ済み画像データストア934は、キャプチャされた画像に好適ないかなる構造及び/又は複数の構造(例えばアクティブデータベース、リレーショナルデータベース、自己参照データベース、テーブル、マトリックス、アレイ、フラットファイル、ドキュメント指向のストレージシステム、非リレーショナルNo‐SQLシステム、Lucene/Solar等のFTS管理システム等)であってよい。画像データストア934は、キャプチャされた画像を保存できる。
図10a~10cは、いくつかの実施形態における、画像を撮影するための環境キャプチャシステム400のプロセスを示す。図10a~10cに示されているように、環境キャプチャシステム400は、異なる複数の露出で画像のバーストを撮影できる。画像のバーストは、それぞれ異なる露出の複数の画像のセットであってよい。第1の画像バーストは時点0.0のものである。環境キャプチャシステム400は、第1のフレームを受信して、このフレームを、第2のフレームの待機中に評価できる。図10aは、第2のフレームの到着後に第1のフレームがブレンドされることを示している。いくつかの実施形態では、環境キャプチャシステム400は各フレームを処理して、ピクセル、色等を識別してよい。次のフレームが到着すると、環境キャプチャシステム400は、最も新しく受信したフレームを処理し、2つのフレームを1つにブレンドしてよい。
様々な実施形態において、環境キャプチャシステム400は、画像処理を実施して第6のフレームをブレンドし、更に、ブレンドされたフレーム(例えばいずれの個数の画像バーストのフレームからの要素を含んでよいフレーム)中のピクセルを評価する。環境キャプチャシステム400の移動(例えばターン)の前又は間の、この最後のステップ中に、環境キャプチャシステム400は任意に、ブレンドされた画像を、画像演算処理装置からCPUメモリへと転送してよい。
プロセスは図10bで続行される。図10bの初めでは、環境キャプチャシステム400は別のバーストを実行する。環境キャプチャシステム400は、ブレンドされたフレーム、及び/又はキャプチャされたフレームの全て又は一部を、JXRを用いて圧縮してよい。図10aと同様に、画像のバーストは、それぞれ異なる露出の複数の画像のセットであってよい(上記セットの各フレームの露出の長さは、同一であってよく、また図10a、10cに包含される他のバーストと同じ順序であってよい)。第2の画像バーストは2秒の時点のものである。環境キャプチャシステム400は、第1のフレームを受信して、このフレームを、第2のフレームの待機中に評価できる。図10bは、第2のフレームの到着後に第1のフレームがブレンドされることを示している。いくつかの実施形態では、環境キャプチャシステム400は各フレームを処理して、ピクセル、色等を識別してよい。次のフレームが到着すると、環境キャプチャシステム400は、最も新しく受信したフレームを処理し、2つのフレームを1つにブレンドしてよい。
様々な実施形態において、環境キャプチャシステム400は、画像処理を実施して第6のフレームをブレンドし、更に、ブレンドされたフレーム(例えばいずれの個数の画像バーストのフレームからの要素を含んでよいフレーム)中のピクセルを評価する。環境キャプチャシステム400の移動(例えばターン)の前又は間の、この最後のステップ中に、環境キャプチャシステム400は任意に、ブレンドされた画像を、画像演算処理装置からCPUメモリへと転送してよい。
ターンした後、環境キャプチャシステム400は、およそ3.5秒の時点で(例えば180°のターン後に)別のカラーバーストを実行することによって、プロセスを継続できる。環境キャプチャシステム400は、ブレンドされたフレーム、及び/又はキャプチャされたフレームの全て又は一部を、JXRを用いて圧縮してよい。画像のバーストは、それぞれ異なる露出の複数の画像のセットであってよい(上記セットの各フレームの露出の長さは、同一であってよく、また図10a、10cに包含される他のバーストと同じ順序であってよい)。環境キャプチャシステム400は、第1のフレームを受信して、このフレームを、第2のフレームの待機中に評価できる。図10bは、第2のフレームの到着後に第1のフレームがブレンドされることを示している。いくつかの実施形態では、環境キャプチャシステム400は各フレームを処理して、ピクセル、色等を識別してよい。次のフレームが到着すると、環境キャプチャシステム400は、最も新しく受信したフレームを処理し、2つのフレームを1つにブレンドしてよい。
様々な実施形態において、環境キャプチャシステム400は、画像処理を実施して第6のフレームをブレンドし、更に、ブレンドされたフレーム(例えばいずれの個数の画像バーストのフレームからの要素を含んでよいフレーム)中のピクセルを評価する。環境キャプチャシステム400の移動(例えばターン)の前又は間の、この最後のステップ中に、環境キャプチャシステム400は任意に、ブレンドされた画像を、画像演算処理装置からCPUメモリへと転送してよい。
最後のバーストは、図10cの5秒の時点で行われる。環境キャプチャシステム400は、ブレンドされたフレーム、及び/又はキャプチャされたフレームの全て又は一部を、JXRを用いて圧縮してよい。画像のバーストは、それぞれ異なる露出の複数の画像のセットであってよい(上記セットの各フレームの露出の長さは、同一であってよく、また図10a、10bに包含される他のバーストと同じ順序であってよい)。環境キャプチャシステム400は、第1のフレームを受信して、このフレームを、第2のフレームの待機中に評価できる。図10cは、第2のフレームの到着後に第1のフレームがブレンドされることを示している。いくつかの実施形態では、環境キャプチャシステム400は各フレームを処理して、ピクセル、色等を識別してよい。次のフレームが到着すると、環境キャプチャシステム400は、最も新しく受信したフレームを処理し、2つのフレームを1つにブレンドしてよい。
様々な実施形態において、環境キャプチャシステム400は、画像処理を実施して第6のフレームをブレンドし、更に、ブレンドされたフレーム(例えばいずれの個数の画像バーストのフレームからの要素を含んでよいフレーム)中のピクセルを評価する。環境キャプチャシステム400の移動(例えばターン)の前又は間の、この最後のステップ中に、環境キャプチャシステム400は任意に、ブレンドされた画像を、画像演算処理装置からCPUメモリへと転送してよい。
画像キャプチャデバイスのダイナミックレンジは、画像センサがキャプチャできる光の量の尺度である。ダイナミックレンジは、画像の最も暗いエリアと最も明るいエリアとの間の差である。画像キャプチャデバイスのダイナミックレンジを向上させる方法は多数存在し、そのうちの1つは、同一の物理的環境の複数の画像を、異なる複数の露出を用いてキャプチャすることである。短い露出でキャプチャされた画像は、物理的環境の最も明るいエリアをキャプチャすることになり、長い露出は、物理的環境のより暗いエリアをキャプチャすることになる。いくつかの実施形態では、環境キャプチャシステムは、6つの異なる露出時間で複数の画像をキャプチャしてよい。環境キャプチャシステムがキャプチャした画像の一部又は全てを用いて、高ダイナミックレンジ(high dynamic range:HDR)の2D画像を生成する。キャプチャされたイメージのうちの1つ以上は、光の検出、フリッカーの検出等といった他の機能のために使用してよい。
物理的環境の3Dパノラマ画像は、画像キャプチャデバイスの4回の別個の画像キャプチャ、及び環境キャプチャシステムのLiDARデバイスの4回の別個の深度データに基づいて生成できる。4回の別個の画像キャプチャはそれぞれ、異なる複数の露出時間の一連の画像キャプチャを含んでよい。ブレンド用アルゴリズムを用いて、異なる複数の露出時間の上記一連の画像キャプチャをブレンドして、4つのRGB画像キャプチャのうちの1つを生成でき、これを利用して2Dパノラマ画像を生成できる。例えば環境キャプチャシステムを用いて、キッチンの3Dパノラマ画像をキャプチャしてよい。このキッチンの1つの壁の画像は、窓を含んでよく、短い露出でキャプチャされた画像は、窓の外のビューを提供できるが、キッチンの残りの部分は露出アンダーのままとなり得る。対称的に、長い露出でキャプチャされた別の画像は、キッチンの内部のビューを提供できる。ブレンド用アルゴリズムは、ある画像からのキッチンの窓の外のビューと、別の画像からのキッチンのビューの残りとをブレンドして、ブレンド済みRGB画像を生成できる。
様々な実施形態において、3Dパノラマ画像は、画像キャプチャデバイスの3回の別個の画像キャプチャ、及び環境キャプチャシステムのLiDARデバイスの4回の別個の深度データに基づいて生成できる。いくつかの実施形態では、画像キャプチャの回数と深度データキャプチャの回数とは、同一であってよい。一実施形態では、画像キャプチャの回数と深度データキャプチャの回数とは、異なっていてよい。
ある露出時間で第1の一連の画像をキャプチャした後、ブレンド用アルゴリズムは上記第1の一連の画像を受信し、上記画像に関する初期強度重みを計算し、上記画像を、それ以降に受信する画像を組み合わせるためのベースライン画像として設定する。いくつかの実施形態では、ブレンド用アルゴリズムは、画像演算処理装置(GPU)の画像処理ルーチン、例えば「blend_kernel」ルーチンを利用してよい。ブレンド用アルゴリズムは後続の画像を受信でき、これらは、それ以前に受信した画像とブレンドできる。いくつかの実施形態では、ブレンド用アルゴリズムは、blend_kernel GPU画像処理ルーチンのバリエーションを利用してよい。
一実施形態では、ブレンド用アルゴリズムは、ベースライン画像の最も暗い部分と最も明るい部分との間の差、即ちコントラストを決定して、ベースライン画像が露出オーバーであるか露出アンダーであるかを判断する等の、複数の画像をブレンドする他の方法を利用する。例えば、所定のコントラスト閾値未満のコントラスト値は、ベースライン画像が露出オーバー又は露出アンダーであることを意味する。一実施形態では、ベースライン画像のコントラストは、画像の、又は画像のサブセットの、光強度の平均を得ることによって計算できる。いくつかの実施形態では、ブレンド用アルゴリズムは、画像の各行又は列に関する平均光強度を計算する。いくつかの実施形態では、ブレンド用アルゴリズムは、画像キャプチャデバイスから受信した各画像のヒストグラムを決定し、このヒストグラムを分析することによって、各画像を構成するピクセルの光強度を決定してよい。
様々な実施形態において、ブレンドは、オブジェクト及び継ぎ目に沿ったものを含む、同じシーンの2つ以上の画像内の色を、サンプリングするステップを含んでよい。(例えば色、色相、輝度、彩度等の所定の閾値内において)2つの画像間に色の有意な差がある場合、(例えば環境キャプチャシステム400又はユーザデバイス1110上の)ブレンドモジュールは、上記差が存在する位置に沿って、所定のサイズの両方の画像をブレンドしてよい。いくつかの実施形態では、画像のある位置における色又は画像の差が大きくなるほど、該位置付近のより多量の空間をブレンドしてよい。
いくつかの実施形態では、ブレンド後、(例えば環境キャプチャシステム400又はユーザデバイス1110上の)ブレンドモジュールは、1つ以上の画像に沿って色を再スキャン及びサンプリングして、画像又は色に、色、色相、輝度、彩度等の上記所定の閾値を超える他の差が存在するかどうかを判定してよい。存在する場合、ブレンドモジュールは上記1つ以上の画像内の該部分を特定して、画像の該部分のブレンドを継続してよい。ブレンドモジュールは、ブレンドするべき画像の更なる部分が存在しなくなる(例えば色の差が1つ以上の所定の閾値未満となる)まで、継ぎ目に沿って画像をリサンプリングし続けてよい。
図11は、いくつかの実施形態による、画像をキャプチャ及びスティッチングして3Dビジュアライゼーションを形成できる例示的な環境1100のブロック図を示す。この例示的な環境1100は、3D及びパノラマキャプチャ・スティッチングシステム1102、通信ネットワーク1104、画像スティッチング・プロセッサシステム1106、画像データストア1108、ユーザシステム1110、及び物理的環境1112の第1のシーンを含む。3D及びパノラマキャプチャ・スティッチングシステム1102及び/又はユーザシステム1110は、環境(例えば物理的環境1112)の画像のキャプチャに使用できる画像キャプチャデバイス(例えば環境キャプチャシステム400)を含んでよい。
3D及びパノラマキャプチャ・スティッチングシステム1102及び画像スティッチング・プロセッサシステム1106は、環境キャプチャシステム400と通信可能に結合された1つのシステムの一部(例えば1つ以上のデジタルデバイスの一部)であってよい。いくつかの実施形態では、3D及びパノラマキャプチャ・スティッチングシステム1102及び画像スティッチング・プロセッサシステム1106の構成部品の機能のうちの少なくとも1つは、環境キャプチャシステム400によって実施できる。同様に、又はあるいは、3D及びパノラマキャプチャ・スティッチングシステム1102及び画像スティッチング・プロセッサシステム1106は、ユーザシステム1110及び/又は画像スティッチング・プロセッサシステム1106によって実施できる。
ユーザは3Dパノラマキャプチャ・スティッチングシステム1102を利用して、建造物の内側及び/又は建造物の外側といった環境の、複数の2D画像をキャプチャできる。例えばユーザは、3D及びパノラマキャプチャ・スティッチングシステム1102を利用して、環境キャプチャシステム400によって提供される物理的環境1112の第1のシーンの複数の2D画像をキャプチャしてよい。3D及びパノラマキャプチャ・スティッチングシステム1102は、位置合わせ・スティッチングシステム1114を含んでよい。あるいは、ユーザシステム1110が位置合わせ・スティッチングシステム1114を含んでよい。
位置合わせ・スティッチングシステム1114は、画像キャプチャシステムのユーザに(例えば3D及びパノラマキャプチャ・スティッチングシステム1102、若しくはユーザシステム1110についての)ガイダンスを提供する、並びに/又は(スティッチング、位置合わせ、クロップ等によって)改善されたパノラマ写真の作成を可能にするために画像を処理するよう構成された、ソフトウェア、ハードウェア、又は両方の組み合わせであってよい。位置合わせ・スティッチングシステム1114は、(本明細書に記載の)コンピュータ可読媒体上にあってよい。いくつかの実施形態では、位置合わせ・スティッチングシステム1114は、機能を実施するためのプロセッサを含んでよい。
物理的環境1112の第1のシーンの例は、何らかの部屋、不動産等(例えばリビングルームの表現)であってよい。いくつかの実施形態では、3D及びパノラマキャプチャ・スティッチングシステム1102を利用して、屋内環境の3Dパノラマ画像を生成する。いくつかの実施形態では、3Dパノラマキャプチャ・スティッチングシステム1102は、図4に関連して説明される環境キャプチャシステム400であってよい。
いくつかの実施形態では、3Dキャプチャ・スティッチングシステム1102は、画像及び深度データをキャプチャするためのデバイス、並びにソフトウェア(例えば環境キャプチャシステム400)と通信できる。ソフトウェアの全体又は一部は、3Dパノラマキャプチャ・スティッチングシステム1102、ユーザシステム1110、環境キャプチャシステム400、又はこれら全てにインストールされ得る。いくつかの実施形態では、ユーザはユーザシステム1110を介して3D及びパノラマキャプチャ・スティッチングシステム1102と対話できる。
3D及びパノラマキャプチャ・スティッチングシステム1102、又はユーザシステム1110は、複数の2D画像を得ることができる。3D及びパノラマキャプチャ・スティッチングシステム1102、又はユーザシステム1110は、(例えばLiDARデバイス等から)深度データを得ることができる。
様々な実施形態において、ユーザシステム1110(例えばスマートフォン若しくはタブレットコンピュータといった、ユーザのスマートデバイス)上のアプリケーション、又は環境キャプチャシステム400上のアプリケーションは、環境キャプチャシステム400を用いて画像を撮影するために、ユーザに視覚的又は聴覚的なガイダンスを提供できる。グラフィックによるガイダンスとしては例えば、画像キャプチャデバイスを位置決めする及び/又は向ける場所についてユーザをガイドするための、環境キャプチャシステム400のディスプレイ上(例えば環境キャプチャシステム400の背面のファインダー又はLEDスクリーン上)の、自由に動く矢印が挙げられる。別の例では、上記アプリケーションは、画像キャプチャデバイスを位置決めする及び/又は向ける場所に関する音声ガイダンスを提供できる。
いくつかの実施形態では、上記ガイダンスによって、ユーザは、三脚等の安定化のためのプラットフォームの助けを借りずに、物理的環境の複数の画像をキャプチャできるようになる。ある例では、画像キャプチャデバイスは、スマートフォン、タブレット、メディアタブレット、ラップトップ等といった個人向けデバイスであってよい。上記アプリケーションは、画像キャプチャデバイスの位置、画像キャプチャデバイスからの場所情報、及び/又は画像キャプチャデバイスの過去の画像に基づいて、無視差点を近似するために、各スイープの位置に関する方向を提供できる。
いくつかの実施形態では、視覚的及び/又は聴覚的なガイダンスによって、三脚を用いずに、また(例えばセンサ、GPSデバイス等からのカメラの場所、位置、及び/又は配向を示す)カメラ位置情報を用いずに、1つにスティッチングすることでパノラマを形成できる複数の画像のキャプチャが可能となる。
位置合わせ・スティッチングシステム1114は、(例えばユーザシステム1110又は3Dパノラマキャプチャ・スティッチングシステム1102がキャプチャした)2D画像を位置合わせ又はスティッチングして、2Dパノラマ画像を得ることができる。
いくつかの実施形態では、位置合わせ・スティッチングシステム1114は、機械学習アルゴリズムを利用して、複数の2D画像を位置合わせ又はスティッチングして2Dパノラマ画像とする。機械学習アルゴリズムのパラメータは、位置合わせ・スティッチングシステム1114によって管理できる。例えば、3D及びパノラマキャプチャ・スティッチングシステム1102及び/又は位置合わせ・スティッチングシステム1114は、2D画像内のオブジェクトを認識することによって、これらの画像を位置合わせして2Dパノラマ画像にするのを支援できる。
いくつかの実施形態では、位置合わせ・スティッチングシステム1114は、深度データ及び2Dパノラマ画像を利用して、3Dパノラマ画像を得ることができる。3Dパノラマ画像は、3D及びパノラマスティッチングシステム1102又はユーザシステム1110に提供されてよい。いくつかの実施形態では、位置合わせ・スティッチングシステム1114、3Dパノラマ画像内で認識されたオブジェクトに関連付けられた3D・深度測定値を決定し、及び/又は1つ以上の2D画像、深度データ、1つ以上の2Dパノラマ画像、1つ以上の3Dパノラマ画像を画像スティッチング・プロセッサシステム1106に送り、これによって、3D及びパノラマキャプチャ・スティッチングシステム1102によって提供された2Dパノラマ画像又は3Dパノラマ画像よりも高いピクセル解像度を有する2Dパノラマ画像又は3Dパノラマ画像を得る。
通信ネットワーク1104は、1つ以上のコンピュータネットワーク(例えばLAN、WAN等)又は他の伝送媒体を表してよい。通信ネットワーク1104は、システム1102、1106~1110、及び/又は本明細書に記載の他のシステムの間での通信を提供できる。いくつかの実施形態では、通信ネットワーク104は、1つ以上のデジタルデバイス、ルート、ケーブル、バス、及び/又は他のネットワークトポロジ(例えばメッシュ等)を含む。いくつかの実施形態では、通信ネットワーク1104は、有線及び/又は無線であってよい。様々な実施形態において、通信ネットワーク1104は:インターネット;1つ以上の広域ネットワーク(wide area network:WAN)又はローカルエリアネットワーク(local area network:LAN);パブリック、プライベート、IPベース、非IPベース等であってよい1つ以上のネットワークを含んでよい。
画像スティッチング・プロセッサシステム1106は、画像キャプチャデバイス(例えば環境キャプチャシステム400、又はスマートフォン、パーソナルコンピュータ、メディアタブレット等のユーザデバイス)がキャプチャした2D画像を処理して、これらを2Dパノラマ画像へとスティッチングしてよい。画像スティッチング・プロセッサシステム1106が処理した2Dパノラマ画像は、3D及びパノラマキャプチャ・スティッチングシステム1102によって得られたパノラマ画像より高いピクセル解像度を有してよい。
いくつかの実施形態では、画像スティッチング・プロセッサシステム1106は、3Dパノラマ画像を受信してこれを処理し、受信した3Dパノラマ画像より高いピクセル解像度を有する3Dパノラマ画像を作成する。ピクセル解像度がより高いこのパノラマ画像を、ユーザシステム1110より高いスクリーン解像度を有する出力デバイス、例えばコンピュータスクリーン、プロジェクタスクリーン等へと供給できる。いくつかの実施形態では、ピクセル解像度がより高いこのパノラマ画像は、出力デバイスに、より詳細なパノラマ画像を提供でき、また拡大可能である。
画像データストア1108は、キャプチャされた画像及び/又は深度データに好適ないかなる構造及び/又は複数の構造(例えばアクティブデータベース、リレーショナルデータベース、自己参照データベース、テーブル、マトリックス、アレイ、フラットファイル、ドキュメント指向のストレージシステム、非リレーショナルNo‐SQLシステム、Lucene/Solar等のFTS管理システム等)であってよい。画像データストア1108は、ユーザシステム1110の画像キャプチャデバイスがキャプチャした画像を保存できる。様々な実施形態において、画像データストア1108は、ユーザシステム1110の1つ以上の深度センサがキャプチャした深度データを保存する。様々な実施形態において、画像データストア1108は、画像キャプチャデバイスに関連付けられた特性、又は2D若しくは3Dパノラマ画像の決定に使用される複数の画像キャプチャ若しくは深度キャプチャそれぞれに関連付けられた特性を保存する。いくつかの実施形態では、画像データストア1108は、2D又は3Dパノラマ画像を保存する。2D又は3Dパノラマ画像は、3D及びパノラマキャプチャ・スティッチングシステム1102又は画像スティッチング・プロセッサシステム106によって決定できる。
ユーザシステム1110は、ユーザと他の関連付けられたシステムとの間で通信を実施できる。いくつかの実施形態では、ユーザシステム1110は、1つ以上の移動体デバイス(例えばスマートフォン、携帯電話、スマートウォッチ等)であってよく、又はこれらを含んでよい。
ユーザシステム1110は、1つ以上の画像キャプチャデバイスを含んでよい。1つ以上の画像キャプチャデバイスは例えば、RGBカメラ、HDRカメラ、ビデオカメラ、IRカメラ等を含むことができる。
3D及びパノラマキャプチャ・スティッチングシステム1102、及び/又はユーザシステム1110は、2つ以上のキャプチャデバイスを含んでよく、これらは、これらを合わせた視野が360°に及ぶような、同一のモバイルハウジング上又は同一のモバイルハウジング内での互いに対する相対位置に配設されていてよい。いくつかの実施形態では、ステレオ画像のペアを生成できる、(例えばわずかにオフセットされているものの部分的には重なった視野を有する)画像キャプチャデバイスの複数のペアを用いることができる。ユーザシステム1110は、垂直ステレオ画像のペアをキャプチャできる、垂直ステレオオフセット視野を有する2つの画像キャプチャデバイスを含んでよい。別の例では、ユーザシステム1110は、垂直ステレオ画像のペアをキャプチャできる、垂直ステレオオフセット視野を有する2つの画像キャプチャデバイスを備えることができる。
いくつかの実施形態では、ユーザシステム1110、環境キャプチャシステム400、又は3D及びパノラマキャプチャ・スティッチングシステム1102は、画像キャプチャ位置及び場所情報を生成及び/又は提供できる。例えば、ユーザシステム1110又は3D及びパノラマキャプチャ・スティッチングシステム1102は、複数の2D画像をキャプチャする1つ以上の画像キャプチャデバイスに関連付けられた位置データの決定を支援するために、慣性計測装置(IMU)を含んでよい。ユーザシステム1110は、1つ以上の画像キャプチャデバイスがキャプチャした複数の2D画像に関連付けられたGPS座標情報を提供するために、全地球測位センサ(GPS)を含んでよい。
いくつかの実施形態では、ユーザは、ユーザシステム1110にインストールされたモバイルアプリケーションを用いて、位置合わせ・スティッチングシステム1114と対話してよい。3D及びパノラマキャプチャ・スティッチングシステム1102は、画像をユーザシステム1110に提供してよい。ユーザは、ユーザシステム1110上の位置合わせ・スティッチングシステム1114を利用して、画像及びプレビューを確認してよい。
様々な実施形態において、位置合わせ・スティッチングシステム1114は、3D及びパノラマキャプチャ・スティッチングシステム1102及び/又は画像スティッチング・プロセッサシステム1106に対して、1つ以上の3Dパノラマ画像を送受信するよう構成されていてよい。いくつかの実施形態では、3D及びパノラマキャプチャ・スティッチングシステム1102は、3D及びパノラマキャプチャ・スティッチングシステム1102がキャプチャした、建造物の間取りの一部分の視覚的表現を、ユーザシステム1110に提供してよい。
システム1110のユーザは、上述のエリアの周辺の空間をナビゲートして、家の異なる複数の部屋を見ることができる。いくつかの実施形態では、ユーザシステム1110のユーザは、画像スティッチング・プロセッサシステム1106が3Dパノラマ画像の生成を完了すると、例示的な3Dパノラマ画像等の3Dパノラマ画像を表示させることができる。様々な実施形態において、ユーザシステム1110は、3Dパノラマ画像のプレビュー又はサムネイルを生成する。3Dパノラマ画像のプレビューは、3D及びパノラマキャプチャ・スティッチングシステム1102が生成した3Dパノラマ画像よりも低い画像解像度を有してよい。
図12は、いくつかの実施形態による位置合わせ・スティッチングシステム1114の例のブロック図である。位置合わせ・スティッチングシステム1114は、通信モジュール1202、画像キャプチャ位置モジュール1204、スティッチングモジュール1206、クロップモジュール1208、画像切り取りモジュール1210、ブレンドモジュール1211、3D画像生成器1214、キャプチャ済み2D画像データストア1216、3Dパノラマ画像データストア1218、及びガイダンスモジュール220を含む。本明細書で説明されるような1つ以上の異なる機能を実施する、位置合わせ・スティッチングシステム1114のいずれの個数のモジュールが存在し得ることを、理解できる。
いくつかの実施形態では、位置合わせ・スティッチングシステム1114は、1つ以上の画像キャプチャデバイス(例えばカメラ)から画像を受信するよう構成された、画像キャプチャモジュールを含む。位置合わせ・スティッチングシステム1114は、利用可能な場合は、LiDAR等の深度デバイスから深度データを受信するように構成された深度モジュールを含んでもよい。
通信モジュール1202は、位置合わせ・スティッチングシステム1114のモジュール又はデータストアのうちのいずれと、図11の例示的な環境1100の構成要素との間で、リクエスト、画像、又はデータを送受信できる。同様に、位置合わせ・スティッチングシステム1114は、通信ネットワーク1104を介していずれのデバイス又はシステムに対して、リクエスト、画像、又はデータを送受信できる。
いくつかの実施形態では、画像キャプチャ位置モジュール1204は、画像キャプチャデバイス(例えばスタンドアロン型カメラであってよいカメラ、スマートフォン、メディアタブレット、ラップトップ等)の、画像キャプチャデバイス位置データを決定できる。画像キャプチャデバイス位置データは、画像キャプチャデバイス及び/又はレンズの位置及び配向を示すものであってよい。ある例では、画像キャプチャ位置モジュール1204は、ユーザシステム1110、カメラ、カメラを備えたデジタルデバイス、又は3D及びパノラマキャプチャ・スティッチングシステム1102のIMUを利用して、画像キャプチャデバイスの位置データを生成できる。画像キャプチャ位置モジュール1204は、1つ以上の画像キャプチャデバイス(又はレンズ)の現在の方向、角度、又は傾斜を決定できる。画像キャプチャ位置モジュール1204は、ユーザシステム1110又は3D及びパノラマキャプチャ・スティッチングシステム1102のGPSを利用してもよい。
例えば、ユーザがリビングルーム等の物理的環境の360°のビューをキャプチャするためにユーザシステム1110を使用したいとき、ユーザは、ユーザシステム1110を自身の正面の目の高さに保持して、最終的に1つの3Dパノラマ画像となる複数の画像のうちの1つのキャプチャを開始してよい。画像に対する視差の量を低減して、3Dパノラマ画像のスティッチング及び生成により好適な画像をキャプチャするためには、1つ以上の画像キャプチャデバイスが回転軸の中心で回転すれば好ましい場合がある。位置合わせ・スティッチングシステム1114は、(例えばIMUから)位置情報を受信して、画像キャプチャデバイス又はレンズの位置を決定できる。位置合わせ・スティッチングシステム1114は、レンズの視野を受信して保存できる。ガイダンスモジュール1220は、画像キャプチャデバイスの推奨初期位置に関する視覚及び/又は音声情報を提供できる。ガイダンスモジュール1220は、後続の画像に対する画像キャプチャデバイスの位置決めの推奨を行うことができる。ある例では、ガイダンスモジュール1220は、画像キャプチャデバイスが回転の中心の付近で回転するように、画像キャプチャデバイスを回転させる及び位置決めするためのガイダンスを、ユーザに提供できる。更にガイダンスモジュール1220は、後続の画像が視野及び/又は画像キャプチャデバイスの特徴に基づいて概ね位置合わせされるように、画像キャプチャデバイスを回転させる及び位置決めするためのガイダンスを、ユーザに提供できる。
ガイダンスモジュール1220は、ユーザに視覚的ガイダンスを提供してよい。例えばガイダンスモジュール1220は、ユーザシステム1110又は3D及びパノラマキャプチャ・スティッチングシステム1102上のビューワー又はディスプレイに、マーカー又は矢印を配置してよい。いくつかの実施形態では、ユーザシステム1110は、ディスプレイを備えたスマートフォン又はタブレットコンピュータであってよい。1つ以上の写真を撮影するとき、ガイダンスモジュール1220は、1つ以上のマーカー(例えば異なる色のマーカー又は同一のマーカー)を、出力デバイス上及び/又はファインダー内に位置決めしてよい。その後、ユーザは出力デバイス及び/又はファインダー上のこれらのマーカーを用いて、次の画像を位置合わせしてよい。
ユーザシステム1110又は3D及びパノラマキャプチャ・スティッチングシステム1102のユーザをガイドして、複数の画像を、これらの画像を1つのパノラマに容易にスティッチングできるように撮影する、多数の技法が存在する。複数の画像からパノラマを得るとき、これらの画像を1つにスティッチングしてよい。アーティファクト又は位置ずれの補正の必要を低減しながら、画像を1つにスティッチングする時間、効率、及び有効性を改善するために、画像キャプチャ位置モジュール1204及びガイダンスモジュール1220は、所望のパノラマのための画像のスティッチングの品質、時間効率、及び有効性を改善する位置で、複数の画像を撮影することにおいて、ユーザを支援できる。
例えば第1の写真の撮影後、ユーザシステム1110のディスプレイは、円等の2つ以上のオブジェクトを含んでよい。2つの円は環境に対して静止しているように見えるものであってよく、2つの円はユーザシステム1110と共に移動できる。2つの静止した円を、ユーザシステム1110と共に移動する円と位置合わせすると、画像キャプチャデバイス及び/又はユーザシステム1110を次の画像のために位置合わせできる。
いくつかの実施形態では、画像キャプチャデバイスで画像を撮影した後、画像キャプチャ位置モジュール1204は、画像キャプチャデバイスの位置の(例えば配向、傾斜等を含む)センサ測定値を得ることができる。画像キャプチャ位置モジュール1204は、上記センサ測定値に基づいて視野の縁部の場所を計算することによって、撮影された画像の1つ以上の縁部を決定できる。更に、又はあるいは、画像キャプチャ位置モジュール1204は、画像キャプチャデバイスによって撮影された画像をスキャンし、該画像内のオブジェクトを(例えば本明細書に記載の機械学習モデルを用いて)特定し、画像の1つ以上の縁部を決定し、オブジェクト(例えば円又は他の形状)をユーザシステム1110上のディスプレイの縁部に位置決めすることによって、画像の1つ以上の縁部を決定できる。
画像キャプチャ位置モジュール1204は、次の写真のための視野の位置決めを示すユーザシステム1110のディスプレイ内に、2つのオブジェクトを表示できる。これら2つのオブジェクトは、環境内の、最後の画像の縁部が存在する場所を表す位置を示すことができる。画像キャプチャ位置モジュール1204は、画像キャプチャデバイスの位置のセンサ測定値を受信し続け、視野内の2つの更なるオブジェクトを計算できる。これら2つの更なるオブジェクトは、前の2つのオブジェクトと同じ幅だけ離れていてよい。最初の2つのオブジェクトは、撮影された画像のある縁部(例えば該画像の右端の縁部)を表してよいが、視野の縁部を表す次の2つの更なるオブジェクトは、反対側の縁部(例えば視野の左端の縁部)にあってよい。ユーザに、画像の縁部の最初の2つのオブジェクトと、視野の反対側の縁部の更なる2つのオブジェクトとを、物理的に位置合わせさせることにより、画像キャプチャデバイスを、三脚を用いることなくより効果的に1つにスティッチングできる別の画像を撮影するために、位置決めできる。このプロセスは、所望のパノラマがキャプチャされたとユーザが判断するまで、各画像に関して継続できる。
本明細書では複数のオブジェクトについて説明したが、画像キャプチャ位置モジュール1204は、画像キャプチャデバイスの位置決めのために、1つ以上のオブジェクトの位置を計算してよいことが理解されるだろう。上記オブジェクトは、いずれの形状(例えば円、楕円、正方形、絵文字、矢印等)であってよい。いくつかの実施形態では、上記オブジェクトは異なる形状のものであってよい。
いくつかの実施形態では、キャプチャされた画像の縁部を表すオブジェクトの間は距離が存在していてよく、また、視野のオブジェクトの間に距離が存在していてよい。ユーザは、オブジェクトの間に十分な距離を存在させることができるように、前方へと離れるように移動するよう、ガイドされ得る。あるいは、視野内のオブジェクトのサイズは、(例えば、画像のスティッチングを改善する位置で次の画像を撮影できるようにする位置に近づく、又は該位置から遠ざかることによって)画像キャプチャデバイスが正しい位置に近づくと、キャプチャされた画像の縁部を表すオブジェクトのサイズと一致するように変化してよい。
いくつかの実施形態では、画像キャプチャ位置モジュール1204は、画像キャプチャデバイスがキャプチャした画像内のオブジェクトを利用して、画像キャプチャデバイスの位置を推定できる。例えば画像キャプチャ位置モジュール1204は、GPS座標を利用して、画像に関連付けられた地理的な場所を決定してよい。画像キャプチャ位置モジュール1204は、この位置を用いて、画像キャプチャデバイスによってキャプチャされ得るランドマークを特定できる。
画像キャプチャ位置モジュール1204は、2D画像を2Dパノラマ画像に変換するための2D機械学習モデルを含んでよい。画像キャプチャ位置モジュール1204は、2D画像を3D表現に変換するための3D機械学習モデルを含んでよい。ある例では、3D表現を利用して、屋内及び/又は屋外環境の3次元ウォークスルー又はビジュアライゼーションを表示できる。
2D機械学習モデルは、2つ以上の2D画像をスティッチングすることによる2Dパノラマ画像の形成を行うよう、又はこれを支援するよう、訓練されていてよい。2D機械学習モデルは例えば、画像内に物理的なオブジェクトを含む2D画像、及びオブジェクト識別情報を用いて訓練でき、これによって2D機械学習モデルは、後続の2D画像内のオブジェクトを特定するように訓練される。2D画像内のオブジェクトは、2D画像内の1つ以上の位置の決定を支援でき、これによって、この2D画像の縁部の決定、この2D画像内でのワープ変形、及び画像の位置合わせを支援できる。更に、2D画像内のオブジェクトは、2D画像内のアーティファクトの決定、2つの画像観のアーティファクト若しくは境界のブレンド、画像を切り取る位置の決定、及び/又は画像をクロップする位置の決定を支援できる。
いくつかの実施形態では、2D機械学習モデルは例えば2D画像で訓練されたニューラルネットワークであってよく、上記2D画像は、(例えばユーザシステム1110又は3D及びパノラマキャプチャ・スティッチングシステム1102のLiDARデバイス又は構造化照明デバイスからの)環境の深度情報を含み、かつ画像内に物理的オブジェクトを含み、これによって物理的オブジェクト、上記物理的オブジェクトの位置、及び/又は画像キャプチャデバイス/視野の位置を特定する。2D機械学習モデルは、物理的オブジェクト、及び2D画像の他の側面に対する上記物理的オブジェクトの深度を特定することによって、スティッチングのための2つの2D画像の位置合わせ及び位置決めを支援できる(又は2つの画像をスティッチングできる)。
2D機械学習モデルは、いずれの個数の機械学習モデル(例えばいずれの個数の、ニューラルネットワーク等によって生成されたモデル)を含んでよい。
2D機械学習モデルは、3D及びパノラマキャプチャ・スティッチングシステム1102、画像スティッチング・プロセッサシステム1106、及び/又はユーザシステム1110に保存されていてよい。いくつかの実施形態では、2D機械学習モデルは、画像スティッチング・プロセッサシステム1106によって訓練されてよい。
画像キャプチャ位置モジュール1204は、スティッチングモジュール1206からの2つ以上の2D画像の間の継ぎ目、クロップモジュール1208からの画像のワープ変形、及び/又は画像切り取りモジュール1210からの画像切り取りに基づいて、画像キャプチャデバイス(画像キャプチャデバイスの視野の一部分)の位置を推定できる。
スティッチングモジュール1206は、スティッチングモジュール1206からの2つ以上の2D画像の間の継ぎ目、クロップモジュール1208からの画像のワープ変形、及び/又は画像切り取りに基づいて、2つ以上の2D画像を組み合わせて2Dパノラマを生成でき、これは、上記2つ以上の画像それぞれの視野より大きな視野を有する。
スティッチングモジュール1206は、同じ環境の異なる視点を提供する2つの異なる2D画像を位置合わせする、又は「1つにスティッチングする(stitch together)」ことによって、該環境のパノラマ2D画像を生成するよう構成されていてよい。例えばスティッチングモジュール1206は、各2D画像のキャプチャ位置及び配向に関する既知の情報又は(例えば本明細書の技法を用いて)導出された情報を用いて、2つの画像を1つにスティッチングするのを支援できる。
スティッチングモジュール1206は、2つの2D画像を受信してよい。第1の2D画像は、第2の2D画像の直前に、又は所定の期間内に、撮影されたものであってよい。様々な実施形態において、スティッチングモジュール1206は、第1の画像に関連付けられた画像キャプチャデバイスの位置決め情報、そして第2の画像に関連付けられた位置決め情報を受信してよい。これらの位置決め情報は、画像の撮影時点における、IMU、GPS、及び/又はユーザによって提供された情報からの位置決めデータに基づいて、上記画像に関連付けることができる。
いくつかの実施形態では、スティッチングモジュール1206は、2D機械学習モジュールを利用して、両方の画像をスキャンして両方の画像内のオブジェクトを認識でき、上記オブジェクトは、両方の画像が共有している可能性があるオブジェクト(又はオブジェクトの一部)を含む。例えばスティッチングモジュール1206は、両方の画像の対向する縁部において共有されている、隅、壁のパターン、家具等を特定できる。
スティッチングモジュール1206は、共有されているオブジェクト(又はオブジェクトの一部)の位置決め、IMUからの位置決めデータ、GPSからの位置決めデータ、及び/又はユーザによって提供された情報に基づいて、2つの2D画像の縁部を位置合わせして、これらの画像の上記2つの縁部を組み合わせる(即ちこれらを1つに「スティッチング」する)ことができる。いくつかの実施形態では、スティッチングモジュール1206は、互いに重なった2D画像の一部分を特定し、これらの画像を、(例えば位置決めデータ及び/又は2D機械学習モデルの結果を用いて)重なった位置においてスティッチングできる。
様々な実施形態において、2D機械学習モデルは、IMUからの位置決めデータ、GPSからの位置決めデータ、及び/又はユーザによって提供された情報を用いて、画像の2つの縁部を組み合わせる、又はスティッチングするように、訓練されていてよい。いくつかの実施形態では、2D機械学習モデルは、両方の2D画像内の共通するオブジェクトを特定することによって、これらの2D画像を位置合わせ及び位置決めし、これらの画像の2つの縁部を組み合わせる、又はスティッチングするように、訓練されていてよい。更なる実施形態では、2D機械学習モデルは、位置決めデータ及びオブジェクトの認識を用いて2D画像を位置合わせ及び位置決めして、これらの画像の2つの縁部を1つにスティッチングすることにより、パノラマ2D画像の全体又は一部を形成するように、訓練されていてよい。
スティッチングモジュール1206は、各画像(例えば各画像内のピクセル、各画像内のオブジェクト等)に関する深度情報を利用して、環境の単一の2Dパノラマ画像の生成に関連付けられた、各2D画像の互いに対する位置合わせを容易にすることができる。
クロップモジュール1208は、2D画像のキャプチャ時に画像キャプチャデバイスが同一位置に保持されなかった場合の、2つ以上の2D画像による問題を解決できる。例えば、ある画像のキャプチャ中には、ユーザはユーザシステム1110をある垂直位置に位置決めできる。しかしながら、別の画像のキャプチャ中、ユーザは上記ユーザシステムを、ある角度で位置決めする場合がある。結果として得られる画像は位置合わせされていない可能性があり、視差効果に悩まされる恐れがある。視差効果は、前景オブジェクトと背景オブジェクトとが、第1の画像及び第2の画像において同じように整列していない場合に発生し得る。
クロップモジュール1208は、(位置決め情報、深度情報、及び/又はオブジェクトの認識を適用することによって)2D機械学習モデルを利用して、2つ以上の画像における画像キャプチャデバイスの位置の変化を検出し、画像キャプチャデバイスの位置の変化の量を測定できる。クロップモジュール1208は、1つ又は複数の2D画像をワープ変形させて、これらの画像のスティッチング時にこれらの画像が1列に並んで1つのパノラマ画像を形成できるようにすることができ、また同時に、直線を真っ直ぐのまま維持するなど、画像の特定の特性を保存できる。
クロップモジュール1208の出力は、画像の各ピクセルをオフセットして画像を真っ直ぐにするための、ピクセル列及び行の数を含んでよい。各画像に関するオフセットの量は、画像の各ピクセルをオフセットするためのピクセル列及びピクセル行の数を表す行列の形式で出力できる。
いくつかの実施形態では、クロップモジュール1208は、ユーザシステム1110の画像キャプチャデバイスがキャプチャした複数の2D画像のうちの1つ以上に対して実施するべき画像のワープ変形の量を、画像キャプチャ位置モジュール1204からの1つ以上の画像キャプチャ位置、又はスティッチングモジュール1206からの2つ以上の2D画像の間の継ぎ目、画像切り取りモジュール1210からの画像切り取り、又はブレンドモジュール1211からの色のブレンドに基づいて、決定できる。
画像切り取りモジュール1210は、画像キャプチャデバイスがキャプチャした2D画像のうちの1つ以上を切り取る又はスライスするべき位置を決定できる。例えば画像切り取りモジュール1210は、2D機械学習モデルを利用して、両方の画像内のオブジェクトを特定し、これらが同一のオブジェクトであることを決定してよい。画像キャプチャ位置モジュール1204、クロップモジュール1208、及び/又は画像切り取りモジュール1210は、これらの2つの画像を、仮にワープ変形させても位置合わせできないことを決定してよい。画像切り取りモジュール1210は、2D機械学習モデルからの情報を利用して、2つの画像の、(例えば位置合わせ及び位置決めを支援するために、一方又は両方の画像の一部を切り取ることによって)1つにスティッチングできるセクションを特定してよい。いくつかの実施形態では、2つの2D画像は、画像内に表されている現実世界の少なくとも一部分において、重なっている場合がある。画像切り取りモジュール1210は、両方の画像内で1つのオブジェクト、例えば同一の椅子を特定できる。しかしながら、この椅子の画像は、画像キャプチャの位置決め及びクロップモジュール1208による画像のワープ変形の後でさえ、歪んでいないパノラマを生成するために1列にならない場合があり、現実世界の上記一部分を正しく表さないものとなる。画像切り取りモジュール1210は、椅子の2つの画像のうちの一方を、(例えば他方と比較した場合の一方の画像の位置ずれ、位置決め、及び/又はアーティファクトに基づいて)正しい表現として選択して、位置ずれ、位置決めのエラー、及びアーティファクトを有する画像から、椅子を切り取ることができる。スティッチングモジュール1206はその後、2つの画像を1つにスティッチングできる。
画像切り取りモジュール1210は、両方の組み合わせ、例えば椅子の画像を第1の画像から切り取って、第1の画像から椅子を除いたものを、第2の画像にスティッチングすることを試して、どちらの画像切り取りがより精密なパノラマ画像を生成するかを決定できる。画像切り取りモジュール1210の出力は、より精密なパノラマ画像を生成する画像切り取りに対応する、複数の2D画像のうちの1つ以上を切り取る場所であってよい。
画像切り取りモジュール1210は、画像キャプチャ位置モジュール1204からの1つ以上の画像キャプチャ位置;スティッチングモジュール1206からの、2つ以上の2D画像の間のスティッチング又は継ぎ目;クロップモジュール1208からの画像のワープ変形;及び画像切り取りモジュール1210からの画像切り取りに基づいて、画像キャプチャデバイスがキャプチャした2D画像のうちの1つ以上をどのように切り取る又はスライスするかを決定できる。
ブレンドモジュール1211は、2つの画像の間の継ぎ目(例えばスティッチング)を、上記継ぎ目が視認できなくなるように着色できる。照明及び影の変化によって、同一のオブジェクト又は表面がわずかに異なる色又は陰影で出力される可能性がある。ブレンドモジュールは:画像キャプチャ位置モジュール1204からの1つ以上の画像キャプチャ位置;スティッチング;2つの画像からの、継ぎ目に沿った画像の色;クロップモジュール1208からの画像のワープ変形;及び/又は画像切り取りモジュール1210からの画像切り取りに基づいて、必要な色のブレンドの量を決定できる。
様々な実施形態において、ブレンドモジュール1211は、2つの2D画像の組み合わせからパノラマを受信し、2つの2D画像の継ぎ目に沿って色をサンプリングしてよい。ブレンドモジュール1211は、画像キャプチャ位置モジュール1204から継ぎ目の場所の情報を受信してよく、これによってブレンドモジュール1211は、継ぎ目に沿って色をサンプリングして、差を決定できる。(例えば色、色相、輝度、彩度等の所定の閾値内において)2つの画像の間の継ぎ目に沿った色の有意な差がある場合、ブレンドモジュール1211は、上記差が存在する位置において、継ぎ目に沿って所定のサイズの両方の画像をブレンドしてよい。いくつかの実施形態では、継ぎ目に沿った色又は画像の差が大きくなるほど、2つの画像の継ぎ目に沿った、より多量の空間をブレンドしてよい。
いくつかの実施形態では、ブレンド後、(ブレンドモジュール1211は、継ぎ目に沿って色を再スキャン及びサンプリングして、画像又は色に、色、色相、輝度、彩度等の上記所定の閾値を超える他の差が存在するかどうかを判定してよい。存在する場合、ブレンドモジュール1211は継ぎ目に沿った該部分を特定して、画像の該部分のブレンドを継続してよい。ブレンドモジュール1211は、ブレンドするべき画像の更なる部分が存在しなくなる(例えば色の差が1つ以上の所定の閾値未満となる)まで、継ぎ目に沿って画像をリサンプリングし続けてよい。
3D画像生成器1214は、2Dパノラマ画像を受信して3D表現を生成できる。様々な実施形態において、3D画像生成器1214は3D機械学習モデルを利用して、2Dパノラマ画像を3D表現に変換する。3D機械学習モデルは、2Dパノラマ画像、及び(例えばLiDARセンサ又は構造化照明デバイスからの)深度データを用いて、3D表現を作成するように、訓練されていてよい。3D表現は、キュレーション及びフィードバックのために試験及びレビューされる場合がある。いくつかの実施形態では、3D機械学習モデルを2Dパノラマ画像及び深度データと共に使用することによって、3D表現を生成できる。
様々な実施形態において、3D画像生成器1214によって生成される3D表現の精度、レンダリングの速度、及び品質は、本明細書に記載のシステム及び方法を利用することによって大幅に改善される。例えば、本明細書に記載の方法を用いて(例えば:ハードウェアによって提供される位置合わせ及び位置決め情報によって;画像キャプチャ中にユーザに提供されるガイダンスによって生じる改善された位置決めによって;画像のクロップ、及びワープ変形の変更によって;アーティファクトを回避してワープ変形を克服するための画像の切り取りによって;画像のブレンドによって;並びに/又はこれらの組み合わせによって)位置合わせ、位置決め、及びスティッチングされた2Dパノラマ画像から、3D表現をレンダリングすることによって、3D表現の精度、レンダリングの速度、及び品質が改善される。更に、本明細書に記載の方法を用いて位置合わせ、位置決め、及びスティッチングされた2Dパノラマ画像を利用することによって、3D機械学習モデルの訓練を(例えば速度及び精度の点で)大幅に改善できることが理解されるだろう。更にいくつかの実施形態では、3D機械学習モデルはより小さく、より複雑でないものとすることができる。これは、位置ずれ、位置決めのエラー、ワープ変形、不十分な画像切り取り、不十分なブレンド、アーティファクト等を克服して、合理的な精度の3D表現を生成するために用いられる、処理及び学習が削減されるためである。
訓練された3D機械学習モデルは、3D及びパノラマキャプチャ・スティッチングシステム1102、画像スティッチング・プロセッサシステム106、及び/又はユーザシステム1110に保存できる。
いくつかの実施形態では、3D機械学習モデルは、ユーザシステム1110及び/又は3D及びパノラマキャプチャ・スティッチングシステム1102の画像キャプチャデバイスからの、複数の2D画像及び深度データを用いて訓練されていてよい。更に3D画像生成器1214は:画像キャプチャ位置モジュール1204からの、複数の2D画像それぞれに関連付けられた画像キャプチャ位置情報;スティッチングモジュール1206からの、複数の2D画像それぞれを位置合わせ若しくはスティッチングするための継ぎ目の場所;クロップモジュール1208からの、複数の2D画像それぞれに関するピクセルの1つ以上のオフセット;及び/又は画像切り取りモジュール1210からの画像切り取りを用いて、訓練されていてよい。いくつかの実施形態では、3D機械学習モデルを:2Dパノラマ画像;深度データ;画像キャプチャ位置モジュール1204からの、複数の2D画像それぞれに関連付けられた画像キャプチャ位置情報;スティッチングモジュール1206からの、複数の2D画像それぞれを位置合わせ若しくはスティッチングするための継ぎ目の場所;クロップモジュール1208からの、複数の2D画像それぞれに関するピクセルの1つ以上のオフセット;及び/又は画像切り取りモジュール1210からの画像切り取りと共に用いて、3D表現を生成できる。
スティッチングモジュール1206は、複数の2D画像を2Dパノラマ又は3Dパノラマ画像に変換する3Dモデルの一部であってよい。いくつかの実施形態では、3Dモデルは、3D・フロム・2D(3D‐from‐2D)予測ニューラルネットワークモデル等の、機械学習アルゴリズムである。クロップモジュール1208は、複数の2D画像を2Dパノラマ又は3Dパノラマ画像に変換する3Dモデルの一部であってよい。いくつかの実施形態では、3Dモデルは、3D・フロム・2D予測ニューラルネットワークモデル等の、機械学習アルゴリズムである。画像切り取りモジュール1210は、複数の2D画像を2Dパノラマ又は3Dパノラマ画像に変換する3Dモデルの一部であってよい。いくつかの実施形態では、3Dモデルは、3D・フロム・2D予測ニューラルネットワークモデル等の、機械学習アルゴリズムである。ブレンドモジュール1211は、複数の2D画像を2Dパノラマ又は3Dパノラマ画像に変換する3D機械学習モデルの一部であってよい。いくつかの実施形態では、3Dモデルは、3D・フロム・2D予測ニューラルネットワークモデル等の、機械学習アルゴリズムである。
3D画像生成器1214は、画像キャプチャ位置モジュール1204、クロップモジュール1208、画像切り取りモジュール1210、及びブレンドモジュール1211それぞれに対する重み付けを生成してよく、これはモジュールの信頼度、即ち「強さ(strength)」又は「弱さ(weakness)」を表すことができる。いくつかの実施形態では、これらのモジュールの重み付けの合計は1に等しい。
複数の2D画像に関して深度データが利用可能でない場合、3D画像生成器1214は、ユーザシステム1110の画像キャプチャデバイスがキャプチャした複数の2D画像中の1つ以上のオブジェクトに関する深度データを決定できる。いくつかの実施形態では、3D画像生成器1214は、ステレオ画像ペアがキャプチャした画像に基づいて深度データを導出してよい。3D画像生成器は、パッシブステレオアルゴリズムから深度データを決定するのではなく、ステレオ画像ペアを評価して、様々な深度での画像間の測光一致品質(より中間的な結果)に関するデータを決定できる。
3D画像生成器1214は、複数の2D画像を2Dパノラマ又は3Dパノラマ画像に変換する3Dモデルの一部であってよい。いくつかの実施形態では、3Dモデルは、3D・フロム・2D予測ニューラルネットワークモデル等の、機械学習アルゴリズムである。
キャプチャ済み2D画像データストア1216は、キャプチャされた画像及び/又は深度データに好適ないかなる構造及び/又は複数の構造(例えばアクティブデータベース、リレーショナルデータベース、自己参照データベース、テーブル、マトリックス、アレイ、フラットファイル、ドキュメント指向のストレージシステム、非リレーショナルNo‐SQLシステム、Lucene/Solar等のFTS管理システム等)であってよい。キャプチャ済み2D画像データストア1216は、ユーザシステム1110の画像キャプチャデバイスがキャプチャした画像を保存できる。様々な実施形態において、キャプチャ済み2D画像データストア1216は、ユーザシステム1110の1つ以上の深度センサがキャプチャした深度データを保存する。様々な実施形態において、キャプチャ済み2D画像データストア1216は、画像キャプチャデバイスに関連付けられた画像キャプチャデバイス特性、又は2Dパノラマ画像の決定に使用される複数の画像キャプチャ若しくは深度キャプチャそれぞれに関連付けられたキャプチャ特性を保存する。いくつかの実施形態では、画像データストア1108は、2Dパノラマ画像を保存する。2Dパノラマ画像は、3D及びパノラマキャプチャ・スティッチングシステム1102又は画像スティッチング・プロセッサシステム106によって決定できる。画像キャプチャデバイスパラメータとしては、照明、色、画像キャプチャレンズの焦点距離、最大口径、傾斜角等が挙げられる。キャプチャ特性としては、ピクセル解像度、レンズの歪み、照明、及び他の画像メタデータが挙げられる。
3Dパノラマ画像データストア1218は、3Dパノラマ画像に好適ないかなる構造及び/又は複数の構造(例えばアクティブデータベース、リレーショナルデータベース、自己参照データベース、テーブル、マトリックス、アレイ、フラットファイル、ドキュメント指向のストレージシステム、非リレーショナルNo‐SQLシステム、Lucene/Solar等のFTS管理システム等)であってよい。3Dパノラマ画像データストア1218は、3D及びパノラマキャプチャ・スティッチングシステム1102によって生成された3Dパノラマ画像を保存できる。様々な実施形態において、3Dパノラマ画像データストア1218は、画像キャプチャデバイスに関連付けられた特性、又は3Dパノラマ画像の決定に使用される複数の画像キャプチャ若しくは深度キャプチャそれぞれに関連付けられた特性を保存する。いくつかの実施形態では、3Dパノラマ画像データストア1218は、3Dパノラマ画像を保存する。2D又は3Dパノラマ画像は、3D及びパノラマキャプチャ・スティッチングシステム1102又は画像スティッチング・プロセッサシステム106によって決定できる。
図13は、いくつかの実施形態による3Dパノラマ画像キャプチャ・生成プロセスのフローチャート1300を示す。ステップ1302では、画像キャプチャデバイスは、図9の画像センサ920及びWFOVレンズ918を用いて、複数の2D画像をキャプチャしてよい。より広いFOVは、360°のビューを得るために環境キャプチャシステム402が必要とするスキャンが少なくなることを意味する。WFOVレンズ918はまた、水平及び垂直により広いものであってよい。いくつかの実施形態では、画像センサ920はRGB画像をキャプチャする。一実施形態では、画像センサ920は黒色画像及び白色画像をキャプチャする。
ステップ1304では、環境キャプチャシステムは、キャプチャされた2D画像を画像スティッチング・プロセッサシステム1106に送ってよい。画像スティッチング・プロセッサシステム1106は、3Dモデリングアルゴリズムを上記キャプチャされた2D画像に適用することによって、パノラマ2D画像を得ることができる。いくつかの実施形態では、3Dモデリングアルゴリズムは、キャプチャされた2D画像をスティッチングして1つのパノラマ2D画像とするための、機械学習アルゴリズムである。いくつかの実施形態では、ステップ1304は任意のものであってよい。
ステップ1306では、図9のLiDAR912及びWFOVレンズ918は、LiDARデータをキャプチャしてよい。より広いFOVは、360°のビューを得るために環境キャプチャシステム400が必要とするスキャンが少なくなることを意味する。
ステップ1308では、LiDARデータを画像スティッチング・プロセッサシステム1106に送ってよい。画像スティッチング・プロセッサシステム1106は、LiDARデータ及びキャプチャされた2D画像を3Dモデリングアルゴリズムに入力して、3Dパノラマ画像を生成できる。3Dモデリングアルゴリズムは機械学習アルゴリズムである。
ステップ1310では、画像スティッチング・プロセッサシステム1106は3Dパノラマ画像を生成する。3Dパノラマ画像は、画像データストア408に保存されてよい。一実施形態では、3Dモデリングアルゴリズムによって生成された3Dパノラマ画像は、画像スティッチング・プロセッサシステム1106に保存される。いくつかの実施形態では、3Dモデリングアルゴリズムは、環境キャプチャシステムを利用して物理的環境の様々な部分をキャプチャするため、物理的環境の間取りの視覚的表現を生成できる。
ステップ1312では、画像スティッチング・プロセッサシステム1106は、生成された3Dパノラマ画像の少なくとも一部分をユーザシステム1110に提供してよい。画像スティッチング・プロセッサシステム1106は、物理的環境の間取りの視覚的表現を提供できる。
フローチャート1300の1つ以上のステップの順序は、3Dパノラマ画像の最終的な産物に影響を及ぼすことなく、変更できる。例えば環境キャプチャシステムは、画像キャプチャデバイスによる画像キャプチャの間に、LiDAR912によるLiDARデータ又は深度情報キャプチャを挟むことができる。例えば画像キャプチャデバイスは、物理的環境のセクションの画像をキャプチャしてよく、その後、LiDAR912がこのセクション1605から深度情報を得る。LiDAR912がこのセクションから深度情報を得ると、画像キャプチャデバイスは別のセクションの画像をキャプチャするために移動してよく、続いてLiDAR912がこのセクションから深度情報を得る。このようにして、画像キャプチャと深度情報キャプチャとを交互に行う。
いくつかの実施形態では、本明細書に記載のデバイス及び/又はシステムは、1つの画像キャプチャデバイスを用いて2D入力画像をキャプチャする。いくつかの実施形態では、1つ以上の画像キャプチャデバイス1116は、単一の画像キャプチャデバイス(又は画像キャプチャレンズ)を表すことができる。これらの実施形態のうちのいくつかによると、画像キャプチャデバイスを収容する移動体デバイスのユーザは、軸の周りで回転して、環境に対して異なる複数のキャプチャ配向で画像を生成するよう構成でき、これらの画像を合わせた視野は、水平方向に最大360°まで広がる。
様々な実施形態において、本明細書に記載のデバイス及び/又はシステムは、2つ以上の画像キャプチャデバイスを用いて2D入力画像をキャプチャしてよい。いくつかの実施形態では、2つ以上の画像キャプチャデバイスは、これらを合わせた視野が360°に及ぶような、同一のモバイルハウジング上又は同一のモバイルハウジング内での互いに対する相対位置に配設できる。いくつかの実施形態では、ステレオ画像のペアを生成できる、(例えばわずかにオフセットされているものの部分的には重なった視野を有する)画像キャプチャデバイスの複数のペアを用いることができる。例えばユーザシステム1110(例えば2D入力画像をキャプチャするために使用される1つ以上の画像キャプチャデバイスを備えるデバイス)は、ステレオ画像のペアをキャプチャできる、水平ステレオオフセット視野を有する2つの画像キャプチャデバイスを備えることができる。別の例では、ユーザシステム1110は、垂直ステレオ画像のペアをキャプチャできる、垂直ステレオオフセット視野を有する2つの画像キャプチャデバイスを備えることができる。これらの例のいずれかによると、各カメラは、360°に及ぶ視野を有することができる。この点に関して、一実施形態では、ユーザシステム1110は、(垂直ステレオオフセットを有する)ステレオペアを形成するパノラマ画像のペアをキャプチャできる、垂直ステレオオフセットを有する2つのパノラマカメラを使用できる。
位置決め用構成部品1118は、ユーザシステム位置データ及び/又はユーザシステム場所データをキャプチャするよう構成された、いずれのハードウェア及び/又はソフトウェアを含んでよい。例えば位置決め用構成部品1118は、複数の2D画像をキャプチャするために使用されるユーザシステム1110の1つ以上の画像キャプチャデバイスに関連付けられた、ユーザシステム1110の位置データを生成するために、IMUを含む。位置決め用構成部品1118は、1つ以上の画像キャプチャデバイスがキャプチャした複数の2D画像に関連付けられた、GPS座標情報を提供するために、GPSユニットを含んでよい。いくつかの実施形態では、位置決め用構成部品1118は、ユーザシステムの位置データ及び場所データを、ユーザシステム1110の1つ以上の画像キャプチャデバイスを用いてキャプチャされた各画像と相関させることができる。
装置の様々な実施形態は、ユーザに屋内及び屋外環境の3Dパノラマ画像を提供する。いくつかの実施形態では、装置は、単一の広視野(FOV)レンズ及び単一の光検出・測距センサ(LiDARセンサ)を用いて、ユーザに屋内及び屋外環境の3Dパノラマ画像を効率的かつ迅速に提供できる。
以下は、本明細書に記載の例示的な装置の例示的な使用例である。以下の使用例は、複数の実施形態のうちの1つである。本明細書に記載されているように、上記装置の異なる実施形態は、この使用例と類似した1つ以上の特徴及び機能を含んでよい。
図14は、いくつかの実施形態による3D及びパノラマキャプチャ・スティッチングプロセス1400のフローチャートを示す。図14のフローチャートは、3D及びパノラマキャプチャ・スティッチングシステム1102を、画像キャプチャデバイスを含むものとしているが、いくつかの実施形態では、データキャプチャデバイスはユーザシステム1110であってよい。
ステップ1402では、3D及びパノラマキャプチャ・スティッチングシステム1102は、少なくとも1つの画像キャプチャデバイスから複数の2D画像を受信してよい。3D及びパノラマキャプチャ・スティッチングシステム1102の画像キャプチャデバイスは、相補型金属酸化膜半導体(CMOS)画像センサであってよく、又はこれを含んでよい。様々な実施形態において、画像キャプチャデバイスは電荷結合素子(CCD)である。ある例では、画像キャプチャデバイスは赤色‐緑色‐青色(RGB)センサである。一実施形態では、画像キャプチャデバイスはIRセンサである。複数の2D画像はそれぞれ、上記複数の2D画像のうちの少なくとも1つの他の画像と部分的に重なった視野を有してよい。いくつかの実施形態では、複数の2D画像のうちの少なくともいくつかを組み合わせて、物理的環境(例えば屋内、屋外、又は両方)の360°のビューを作成する。
いくつかの実施形態では、複数の2D画像は全て、同一の画像キャプチャデバイスから受信される。様々な実施形態において、複数の2D画像の少なくとも一部分は、3D及びパノラマキャプチャ・スティッチングシステム1102の2つ以上の画像キャプチャデバイスから受信される。ある例では、複数の2D画像は、RGB画像のセット及びIR画像のセットを含み、IR画像は、3D及びパノラマキャプチャ・スティッチングシステム1102に深度データを提供する。いくつかの実施形態では、各2D画像を、LiDARデバイスから提供された深度データと関連付けることができる。いくつかの実施形態では、各2D画像を位置決めデータと関連付けることができる。
ステップ1404、3D及びパノラマキャプチャ・スティッチングシステム1102は、受信した複数の2D画像それぞれに関連付けられた、キャプチャパラメータ及び画像キャプチャデバイスパラメータを受信してよい。画像キャプチャデバイスパラメータとしては、照明、色、画像キャプチャレンズの焦点距離、最大口径、視野等が挙げられる。キャプチャ特性としては、ピクセル解像度、レンズの歪み、照明、及び他の画像メタデータが挙げられる。3D及びパノラマキャプチャ・スティッチングシステム1102は、位置決めデータ及び深度データも受信してよい。
ステップ1406では、3D及びパノラマキャプチャ・スティッチングシステム1102は、ステップ1402、1404から受信した情報を、上記2D画像をスティッチングして2Dパノラマ画像を形成するために用いてよい。2D画像をスティッチングするプロセスについては、図15のフローチャートに関連して更に説明する。
ステップ1408では、3D及びパノラマキャプチャ・スティッチングシステム1102は3D機械学習モデルを適用して、3D表現を生成してよい。3D表現は、3Dパノラマ画像データストアに保存されてよい。様々な実施形態において、3D表現は、画像スティッチング・プロセッサシステム1106によって生成される。いくつかの実施形態では、3D機械学習モデルは、環境キャプチャシステムを利用して物理的環境の様々な部分をキャプチャするため、物理的環境の間取りの視覚的表現を生成できる。
ステップ1410では、3D及びパノラマキャプチャ・スティッチングシステム1102は、生成された3D表現又はモデルの少なくとも一部分をユーザシステム1110に提供してよい。ユーザシステム1110は、物理的環境の間取りの視覚的表現を提供できる。
いくつかの実施形態では、ユーザシステム1110は、複数の2D画像、キャプチャパラメータ、及び画像キャプチャパラメータを、画像スティッチング・プロセッサシステム1106に送ってよい。様々な実施形態において、3D及びパノラマキャプチャ・スティッチングシステム1102は、複数の2D画像、キャプチャパラメータ、及び画像キャプチャパラメータを、画像スティッチング・プロセッサシステム1106に送ってよい。
画像スティッチング・プロセッサシステム1106は、ユーザシステム1110の画像キャプチャデバイスがキャプチャした複数の2D画像を処理して、これらを2Dパノラマ画像へとスティッチングしてよい。画像スティッチング・プロセッサシステム1106が処理した2Dパノラマ画像は、3D及びパノラマキャプチャ・スティッチングシステム1102によって得られた2Dパノラマ画像より高いピクセル解像度を有してよい。
いくつかの実施形態では、画像スティッチング・プロセッサシステム106は、3D表現を受信し、受信した3Dパノラマ画像より高いピクセル解像度を有する3Dパノラマ画像を出力してよい。ピクセル解像度がより高いこのパノラマ画像を、ユーザシステム1110より高いスクリーン解像度を有する出力デバイス、例えばコンピュータスクリーン、プロジェクタスクリーン等へと供給できる。いくつかの実施形態では、ピクセル解像度がより高いこのパノラマ画像は、出力デバイスに、より詳細なパノラマ画像を提供でき、また拡大可能である。
図15は、図14の3D及びパノラマキャプチャ・スティッチングプロセスの1つのステップの更なる詳細を示すフローチャートを示す。ステップ1502では、画像キャプチャ位置モジュール1204は、画像キャプチャデバイスがキャプチャした各画像に関連付けられた画像キャプチャデバイス位置データを決定してよい。画像キャプチャ位置モジュール1204は、ユーザシステム1110のIMUを利用して、画像キャプチャデバイスの位置データ(又は画像キャプチャデバイスのレンズの視野)を決定してよい。上記位置データは、1つ以上の2D画像の撮影時の、1つ以上の画像キャプチャデバイスの方向、角度、又は傾斜を含んでよい。クロップモジュール1208、画像切り取りモジュール1210、及びブレンドモジュール1212のうちの1つ以上は、複数の2D画像それぞれに関連付けられた方向、角度、又は傾斜を利用して、これらの画像をどのようにワープ変形させる、切り取る、及び/又はブレンドするかを決定してよい。
ステップ1504では、クロップモジュール1208は、複数の2D画像のうちの1つ以上をワープ変形させて、これら2つの画像が1列に並んで1つのパノラマ画像を形成できるようにすることができ、また同時に、直線を真っ直ぐのまま維持するなど、画像の特定の特性を保存できる。クロップモジュール1208の出力は、画像の各ピクセルをオフセットして画像を真っ直ぐにするための、ピクセル列及び行の数を含んでよい。各画像に関するオフセットの量は、画像の各ピクセルをオフセットするためのピクセル列及びピクセル行の数を表す行列の形式で出力できる。この実施形態では、クロップモジュール1208は、複数の2D画像それぞれの画像キャプチャポーズ推定に基づいて、複数の2D画像それぞれが必要とするワープ変形の量を決定してよい。
ステップ1506では、画像切り取りモジュール1210は、複数の2D画像のうちの1つ以上を切り取る又はスライスするべき位置を決定する。この実施形態では、画像切り取りモジュール1210は、複数の2D画像それぞれの画像キャプチャポーズ推定及び画像ワープ変形に基づいて、複数の2D画像それぞれを切り取る又はスライスするべき位置を決定してよい。
ステップ1508では、スティッチングモジュール1206は、画像の縁部及び/又は画像の切り取りを用いて、2つ以上の画像を1つにスティッチングしてよい。スティッチングモジュール1206は、画像内で検出されたオブジェクト、ワープ変形、画像の切り取り等に基づいて、画像を位置合わせ及び/又は位置決めしてよい。
ステップ1510では、ブレンドモジュール1212は、継ぎ目(例えば2つの画像のスティッチング)、又は別の画像に接触する若しくは接続されるある画像の場所を調整してよい。ブレンドモジュール1212は:画像キャプチャ位置モジュール1204からの1つ以上の画像キャプチャ位置;クロップモジュール1208からの画像のワープ変形;及び/画像切り取りモジュール1210からの画像切り取りに基づいて、必要な色のブレンドの量を決定できる。
3D及びパノラマキャプチャ・スティッチングプロセス1400の1つ以上のステップの順序は、3Dパノラマ画像の最終的な産物に影響を及ぼすことなく、変更できる。例えば環境キャプチャシステムは、画像キャプチャデバイスによる画像キャプチャの間に、LiDARデータ又は深度情報キャプチャを挟むことができる。例えば画像キャプチャデバイスは、物理的環境の図16のセクション1605の画像をキャプチャしてよく、その後、LiDAR612がセクション1605から深度情報を得る。LiDARがセクション1605から深度情報を得ると、画像キャプチャデバイスは別のセクション1610の画像をキャプチャするために移動してよく、続いてLiDAR612がセクション1610から深度情報を得る。このようにして、画像キャプチャと深度情報キャプチャとを交互に行う。
図16は、いくつかの実施形態による例示的なデジタルデバイス1602のブロック図を示す。ユーザシステム1110、3Dパノラマキャプチャ・スティッチングシステム1102、及び画像スティッチング・プロセッサシステムのうちのいずれかは、デジタルデバイス1602のインスタンスを含んでよい。デジタルデバイス1602は、プロセッサ1604、メモリ1606、ストレージ1608、入力デバイス1610、通信ネットワークインタフェース1612、出力デバイス1614、画像キャプチャデバイス1616、及び位置決め用構成部品1618を備える。プロセッサ1604は、実行可能な命令(例えばプログラム)を実行するよう構成される。いくつかの実施形態では、プロセッサ1604は、実行可能な命令を処理できる回路又はいずれのプロセッサを含む。
メモリ1606はデータを保存する。メモリ1606のいくつかの例としては、RAM、ROM、RAMキャッシュ、仮想メモリ等といったストレージデバイスが挙げられる。様々な実施形態において、作業データはメモリ1606内に保存される。メモリ1606内のデータはクリアされるか、又は最終的にストレージ1608に転送されてよい。
ストレージ1608は、データを取得して保存するよう構成された、いずれのストレージを含む。ストレージ1608のいくつかの例としては、フラッシュドライブ、ハードドライブ、光学ドライブ、及び/又は磁気テープが挙げられる。メモリ1606及びストレージ1608はそれぞれ、コンピュータ可読媒体を含み、これはプロセッサ1604が実行可能な命令又はプログラムを保存する。
入力デバイス1610は、データを入力するいずれのデバイス(例えばタッチキーボード、スタイラス)である。出力デバイス1614はデータを出力する(例えばスピーカー、ディスプレイ、仮想現実ヘッドセット)。ストレージ1608、入力デバイス1610、及び出力デバイス1614が理解されるだろう。いくつかの実施形態では、出力デバイス1614は任意のものである。例えば、ルータ/スイッチャは、プロセッサ1604及びメモリ1606、並びにデータを受信して出力するためのデバイス(例えば通信ネットワークインタフェース1612及び/又は出力デバイス1614)を備えてよい。
通信ネットワークインタフェース1612は、通信ネットワークインタフェース1612を介してネットワーク(例えば通信ネットワーク104)に結合されていてよい。通信ネットワークインタフェース1612は、イーサネット接続、直列接続、並列接続、及び/又はATA接続を介した通信をサポートできる。通信ネットワークインタフェース1612はまた、無線通信(例えば802.16 a/b/g/n、WiMAX、LTE、Wi‐Fi)もサポートできる。通信ネットワークインタフェース1612が有線規格及び無線規格をサポートできることは明らかであろう。
構成部品は、ハードウェア又はソフトウェアであってよい。いくつかの実施形態では、構成部品は、1つ以上のプロセッサを、該構成部品に関連付けられた機能を実施するように構成できる。本明細書中では様々な構成部品が説明されているが、サーバシステムは、本明細書に記載されているあらゆる機能を実施するいずれの個数の構成部品を含んでよいことが理解されるだろう。
デジタルデバイス1602は、1つ以上の画像キャプチャデバイス1616を含んでよい。1つ以上の画像キャプチャデバイス1616は例えば、RGBカメラ、HDRカメラ、ビデオカメラ等を含むことができる。1つ以上の画像キャプチャデバイス1616は、いくつかの実施形態に従ってビデオをキャプチャできるビデオカメラも含むことができる。いくつかの実施形態では、1つ以上の画像キャプチャデバイス1616は、相対的に標準的な視野(例えば約75°)を提供する画像キャプチャデバイスを含むことができる。他の実施形態では、1つ以上の画像キャプチャデバイス1616は、魚眼カメラ等の、相対的に広い視野(例えば約120°~360°)を提供するカメラを含むことができる(例えばデジタルデバイス1602は、環境キャプチャシステム400を含んでも、又は環境キャプチャシステム400に含まれていてもよい)。
構成部品は、ハードウェア又はソフトウェアであってよい。いくつかの実施形態では、構成部品は、1つ以上のプロセッサを、該構成部品に関連付けられた機能を実施するように構成できる。本明細書中では様々な構成部品が説明されているが、サーバシステムは、本明細書に記載されているあらゆる機能を実施するいずれの個数の構成部品を含んでよいことが理解されるだろう。
Claims (23)
- 画像キャプチャデバイスであって:
ハウジングであって、前記ハウジングは前面及び背面を有する、ハウジング;
前記ハウジングの前記前面と前記背面との間の第1の位置において、前記ハウジングに結合された、第1のモータであって、前記第1のモータは、前記画像キャプチャデバイスを垂直軸の周りで略270°水平にターンさせるよう構成される、第1のモータ;
前記垂直軸に沿った前記ハウジングの前記前面と前記背面との間の第2の位置において、前記ハウジングに結合された、広角レンズであって、前記第2の位置は無視差点であり、前記広角レンズは前記ハウジングの前記前面から離れた視野を有する、広角レンズ;
前記ハウジングに結合され、前記広角レンズが受信した光から画像信号を生成するよう構成された、画像センサ;
前記第1のモータに結合された、マウント;
第3の位置において前記ハウジングに結合された、LiDARであって、前記LiDARは、レーザパルスを生成し、深度信号を生成するよう構成される、LiDAR;
前記ハウジングに結合された、第2のモータ;並びに
前記第2のモータに結合された、ミラーであって、前記第2のモータは、前記ミラーを水平軸の周りで回転させるよう構成されていてよく、前記ミラーは、前記LiDARから前記レーザパルスを受信して、前記レーザパルスを前記水平軸の周りに向けるよう構成された、角度付き表面を含む、ミラー
を備える、画像キャプチャデバイス。 - 前記画像センサは、前記画像キャプチャデバイスが静止して第1の方向を向いているときに、異なる複数の露出で第1の複数の画像を生成するよう構成される、請求項1に記載の画像キャプチャデバイス。
- 前記第1のモータは、前記第1の複数の画像の生成後に、前記画像キャプチャデバイスを前記垂直軸の周りでターンさせるよう構成される、請求項2に記載の画像キャプチャデバイス。
- 前記画像センサは、前記第1のモータが前記画像キャプチャデバイスをターンさせている間は画像を生成せず、前記LiDARは、前記第1のモータが前記画像キャプチャデバイスをターンさせている間に、前記レーザパルスに基づいて深度信号を生成する、請求項3に記載の画像キャプチャデバイス。
- 前記画像センサは、前記画像キャプチャデバイスが静止して第2の方向を向いているときに、前記異なる複数の露出で第2の複数の画像を生成するよう構成され、前記第1のモータは、前記第2の複数の画像の生成後に、前記画像キャプチャデバイスを前記垂直軸の周りで90°ターンさせるよう構成される、請求項3に記載の画像キャプチャデバイス。
- 前記画像センサは、前記画像キャプチャデバイスが静止して第3の方向を向いているときに、前記異なる複数の露出で第3の複数の画像を生成するよう構成され、前記第1のモータは、前記第3の複数の画像の生成後に、前記画像キャプチャデバイスを前記垂直軸の周りで90°ターンさせるよう構成される、請求項5に記載の画像キャプチャデバイス。
- 前記画像センサは、前記画像キャプチャデバイスが静止して第4の方向を向いているときに、前記異なる複数の露出で第4の複数の画像を生成するよう構成され、前記第1のモータは、前記第4の複数の画像の生成後に、前記画像キャプチャデバイスを前記垂直軸の周りで90°ターンさせるよう構成される、請求項6に記載の画像キャプチャデバイス。
- 前記画像センサが前記第2の複数の画像を生成する前に、前記第1の複数の画像のフレームをブレンドするよう構成された、プロセッサを更に備える、請求項7に記載の画像キャプチャデバイス。
- 前記画像キャプチャデバイスと通信し、また前記第1、第2、第3、第4の複数の画像と、前記深度信号とに基づいて、3Dビジュアライゼーションを生成するよう構成された、リモートデジタルデバイスを更に備え、前記リモートデジタルデバイスは、前記第1、第2、第3、第4の複数の画像以外の画像を用いずに、前記3Dビジュアライゼーションを生成するよう構成される、請求項7に記載の画像キャプチャデバイス。
- 前記第1、第2、第3、第4の複数の画像は、前記画像キャプチャデバイスを前記垂直軸の周りで270°ターンさせる複数のターンを組み合わせたターンの間に生成される、請求項9に記載の画像キャプチャデバイス。
- 前記水平軸の周りでの前記ミラーの速度又は回転は、前記第1のモータが前記画像キャプチャデバイスをターンさせる際に上昇する、請求項4に記載の画像キャプチャデバイス。
- 前記ミラーの前記角度付き表面は90°である、請求項1に記載の画像キャプチャデバイス。
- 前記LiDARは、前記ハウジングの前記前面と反対の方向に、前記レーザパルスを放出する、請求項1に記載の画像キャプチャデバイス。
- 方法であって:
画像キャプチャデバイスの広角レンズから光を受信するステップであって、前記広角レンズは前記画像キャプチャデバイスのハウジングに結合され、前記光は前記広角レンズの視野において受信され、前記視野は前記ハウジングの前面から離れて延在する、ステップ;
前記広角レンズからの前記光を用いて、画像キャプチャデバイスの画像センサによって第1の複数の画像を生成するステップであって、前記画像センサは前記ハウジングに結合され、前記第1の複数の画像は、異なる複数の露出でのものである、ステップ;
第1のモータによって、前記画像キャプチャデバイスを、垂直軸の周りで略270°水平にターンさせるステップであって、前記第1のモータは、前記ハウジングの前記前面と前記背面との間の第1の位置において、前記ハウジングに結合され、前記広角レンズは前記垂直軸に沿った第2の位置にあり、前記第2の位置は無視差点である、ステップ;
第2のモータによって、角度付き表面を有するミラーを水平軸の周りで回転させるステップであって、前記第2のモータは前記ハウジングに結合される、ステップ;
LiDARによってレーザパルスを生成するステップであって、前記LiDARは第3の位置において前記ハウジングに結合され、前記レーザパルスは、前記画像キャプチャデバイスが水平にターンしている間、回転する前記ミラーに向いている、ステップ;及び
前記レーザパルスに基づいて、前記LiDARによって深度信号を生成するステップ
を含む、方法。 - 前記画像センサによって前記第1の複数の画像を生成する前記ステップは、前記画像キャプチャデバイスが水平にターンする前に行われる、請求項14に記載の方法。
- 前記画像センサは、前記第1のモータが前記画像キャプチャデバイスをターンさせている間は画像を生成せず、前記LiDARは、前記第1のモータが前記画像キャプチャデバイスをターンさせている間に、前記レーザパルスに基づいて前記深度信号を生成する、請求項15に記載の方法。
- 前記画像キャプチャデバイスが静止して第2の方向を向いているときに、前記画像センサによって、前記異なる複数の露出で第2の複数の画像を生成するステップ;及び
前記第2の複数の画像の生成後に、前記第1のモータによって、前記画像キャプチャデバイスを前記垂直軸の周りで90°ターンさせるステップ
を更に含む、請求項16に記載の方法。 - 前記画像キャプチャデバイスが静止して第3の方向を向いているときに、前記画像センサによって、前記異なる複数の露出で第3の複数の画像を生成するステップ;及び
前記第3の複数の画像の生成後に、前記第1のモータによって、前記画像キャプチャデバイスを前記垂直軸の周りで90°ターンさせるステップ
を更に含む、請求項17に記載の方法。 - 前記画像キャプチャデバイスが静止して第4の方向を向いているときに、前記画像センサによって、前記異なる複数の露出で第4の複数の画像を生成するステップを更に含む、請求項18に記載の方法。
- 前記第1、第2、第3、第4の複数の画像を用い、また前記深度信号に基づいて、3Dビジュアライゼーションを生成するステップを更に含み、前記3Dビジュアライゼーションを生成する前記ステップは、他のいかなる画像も使用しない、請求項19に記載の方法。
- 前記画像センサが前記第2の複数の画像を生成する前に、前記第1の複数の画像のフレームをブレンドするステップを更に含む、請求項17に記載の方法。
- 前記第1、第2、第3、第4の複数の画像は、前記画像キャプチャデバイスを前記垂直軸の周りで270°ターンさせる複数のターンを組み合わせたターンの間に生成される、請求項19に記載の方法。
- 前記水平軸の周りでの前記ミラーの速度又は回転は、前記第1のモータが前記画像キャプチャデバイスをターンさせる際に上昇する、請求項1に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962955414P | 2019-12-30 | 2019-12-30 | |
US62/955,414 | 2019-12-30 | ||
PCT/US2020/067474 WO2021138427A1 (en) | 2019-12-30 | 2020-12-30 | System and method of capturing and generating panoramic three-dimensional images |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023509137A true JP2023509137A (ja) | 2023-03-07 |
Family
ID=76546077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022540653A Pending JP2023509137A (ja) | 2019-12-30 | 2020-12-30 | パノラマ3次元画像をキャプチャ及び生成するシステム及び方法 |
Country Status (8)
Country | Link |
---|---|
US (4) | US20210199809A1 (ja) |
EP (1) | EP4085302A4 (ja) |
JP (1) | JP2023509137A (ja) |
KR (1) | KR20220123268A (ja) |
CN (2) | CN114830030A (ja) |
AU (3) | AU2020417796B2 (ja) |
CA (1) | CA3165230A1 (ja) |
WO (1) | WO2021138427A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11943539B2 (en) | 2019-12-30 | 2024-03-26 | Matterport, Inc. | Systems and methods for capturing and generating panoramic three-dimensional models and images |
JP2023509137A (ja) | 2019-12-30 | 2023-03-07 | マターポート・インコーポレーテッド | パノラマ3次元画像をキャプチャ及び生成するシステム及び方法 |
US11922580B2 (en) | 2020-01-17 | 2024-03-05 | Apple Inc. | Floorplan generation based on room scanning |
WO2022081717A1 (en) * | 2020-10-13 | 2022-04-21 | Flyreel, Inc. | Generating measurements of physical structures and environments through automated analysis of sensor data |
US20220137197A1 (en) * | 2020-10-30 | 2022-05-05 | Motional Ad Llc | Robust eye safety for lidars |
US11836973B2 (en) * | 2021-02-25 | 2023-12-05 | MFTB Holdco, Inc. | Automated direction of capturing in-room information for use in usability assessment of buildings |
US11789125B2 (en) * | 2021-09-10 | 2023-10-17 | Li Zhijian | Position locator |
US20240020897A1 (en) * | 2022-07-12 | 2024-01-18 | Nvidia Corporation | Neural network-based image lighting |
KR102707798B1 (ko) * | 2022-07-13 | 2024-09-20 | 주식회사 아이디스 | 팬틸트줌 동작이 가능한 카메라 장치와 이를 이용한 영상 감시 시스템 및 방법 |
JP2024017224A (ja) * | 2022-07-27 | 2024-02-08 | 株式会社リコー | 情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラム |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6192196B1 (en) * | 1994-10-11 | 2001-02-20 | Keller James Mcneel | Panoramic camera |
JP4004316B2 (ja) * | 2002-03-20 | 2007-11-07 | 株式会社トプコン | 測量装置及び測量装置を用いて画像データを取得する方法 |
DE20320216U1 (de) * | 2003-12-29 | 2004-03-18 | Iqsun Gmbh | Laserscanner |
DE202006005643U1 (de) | 2006-03-31 | 2006-07-06 | Faro Technologies Inc., Lake Mary | Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs |
GB0625442D0 (en) * | 2006-12-20 | 2007-01-31 | Csl Surveys Stevenage Ltd | Profiling device |
CN101394487B (zh) * | 2008-10-27 | 2011-09-14 | 华为技术有限公司 | 一种合成图像的方法与系统 |
US20110308576A1 (en) * | 2010-06-18 | 2011-12-22 | General Electric Company | Hybrid photovoltaic system and method thereof |
DE102010032726B3 (de) * | 2010-07-26 | 2011-11-24 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US10848731B2 (en) * | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
WO2014039623A1 (en) * | 2012-09-06 | 2014-03-13 | Faro Technologies, Inc. | Laser scanner with additional sensing device |
GB2522142A (en) * | 2012-09-14 | 2015-07-15 | Faro Tech Inc | Laser scanner with dynamical adjustment of angular scan velocity |
WO2014152855A2 (en) * | 2013-03-14 | 2014-09-25 | Geerds Joergen | Camera system |
US20150116691A1 (en) | 2013-10-25 | 2015-04-30 | Planitar Inc. | Indoor surveying apparatus and method |
US9294672B2 (en) * | 2014-06-20 | 2016-03-22 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax and tilt artifacts |
US10175360B2 (en) * | 2015-03-31 | 2019-01-08 | Faro Technologies, Inc. | Mobile three-dimensional measuring instrument |
CN107923567B (zh) * | 2015-07-02 | 2020-07-31 | 深圳市大疆灵眸科技有限公司 | 用于图像捕捉的云台 |
EP3425333B1 (en) * | 2017-07-04 | 2020-10-14 | Hexagon Technology Center GmbH | Surveying instrument for scanning an object and image acquisition of the object |
US10586342B2 (en) * | 2017-08-31 | 2020-03-10 | Facebook Technologies, Llc | Shifting diffractive optical element for adjustable depth sensing resolution |
US10506217B2 (en) | 2017-10-09 | 2019-12-10 | Facebook Technologies, Llc | Head-mounted display tracking system |
US10451716B2 (en) * | 2017-11-22 | 2019-10-22 | Luminar Technologies, Inc. | Monitoring rotation of a mirror in a lidar system |
US10782118B2 (en) * | 2018-02-21 | 2020-09-22 | Faro Technologies, Inc. | Laser scanner with photogrammetry shadow filling |
US11109822B2 (en) | 2018-08-20 | 2021-09-07 | Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd | Method of needle localization via partial computerized tomographic scanning and system thereof |
JP2023509137A (ja) * | 2019-12-30 | 2023-03-07 | マターポート・インコーポレーテッド | パノラマ3次元画像をキャプチャ及び生成するシステム及び方法 |
-
2020
- 2020-12-30 JP JP2022540653A patent/JP2023509137A/ja active Pending
- 2020-12-30 CN CN202080084506.9A patent/CN114830030A/zh active Pending
- 2020-12-30 EP EP20909333.5A patent/EP4085302A4/en active Pending
- 2020-12-30 WO PCT/US2020/067474 patent/WO2021138427A1/en active Application Filing
- 2020-12-30 US US17/137,958 patent/US20210199809A1/en active Pending
- 2020-12-30 CN CN202310017851.6A patent/CN116017164A/zh active Pending
- 2020-12-30 CA CA3165230A patent/CA3165230A1/en active Pending
- 2020-12-30 AU AU2020417796A patent/AU2020417796B2/en active Active
- 2020-12-30 KR KR1020227026261A patent/KR20220123268A/ko active IP Right Grant
-
2022
- 2022-05-23 US US17/664,602 patent/US11640000B2/en active Active
- 2022-06-10 US US17/806,447 patent/US11630214B2/en active Active
-
2023
- 2023-04-03 US US18/295,258 patent/US11852732B2/en active Active
- 2023-12-14 AU AU2023282280A patent/AU2023282280B2/en active Active
-
2024
- 2024-03-22 AU AU2024201887A patent/AU2024201887B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20220123268A (ko) | 2022-09-06 |
US20240241262A1 (en) | 2024-07-18 |
US11852732B2 (en) | 2023-12-26 |
AU2024201887B2 (en) | 2024-09-05 |
AU2023282280A1 (en) | 2024-01-18 |
AU2024201887A1 (en) | 2024-04-11 |
AU2020417796A1 (en) | 2022-08-25 |
US11630214B2 (en) | 2023-04-18 |
EP4085302A1 (en) | 2022-11-09 |
US20220334262A1 (en) | 2022-10-20 |
WO2021138427A1 (en) | 2021-07-08 |
US20210199809A1 (en) | 2021-07-01 |
US20230243978A1 (en) | 2023-08-03 |
AU2020417796B2 (en) | 2023-09-14 |
CA3165230A1 (en) | 2021-07-08 |
EP4085302A4 (en) | 2023-12-27 |
US20240353563A1 (en) | 2024-10-24 |
US20220317307A1 (en) | 2022-10-06 |
CN116017164A (zh) | 2023-04-25 |
US11640000B2 (en) | 2023-05-02 |
AU2023282280B2 (en) | 2024-02-29 |
CN114830030A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2020417796B2 (en) | System and method of capturing and generating panoramic three-dimensional images | |
JP6946188B2 (ja) | 複数技術奥行きマップ取得および融合のための方法および装置 | |
JP6974873B2 (ja) | シーンから深度情報を取得するための装置および方法 | |
ES2781181T3 (es) | Procedimiento y aparato para la cámara computacional de Scheimpflug | |
CN108332660B (zh) | 机器人三维扫描系统和扫描方法 | |
JP2023546739A (ja) | シーンの3次元モデルを生成するための方法、装置、およびシステム | |
US20240244330A1 (en) | Systems and methods for capturing and generating panoramic three-dimensional models and images | |
JP2024114712A (ja) | 撮像装置、撮像方法、及び、プログラム | |
US12140679B2 (en) | System and method of capturing and generating panoramic three-dimensional images | |
US12140680B1 (en) | System and method of capturing and generating panoramic three-dimensional images | |
CN112672134B (zh) | 基于移动终端三维信息采集控制设备及方法 | |
WO2018161322A1 (zh) | 基于深度的图像处理方法、处理装置和电子装置 | |
CN109104597A (zh) | 投影装置、投影方法以及记录介质 | |
CN221807052U (zh) | 一种三维空间指示装置 | |
CN115103169B (zh) | 投影画面校正方法、装置、存储介质以及投影设备 | |
RU188093U1 (ru) | Сканер для получения панорамных снимков и трехмерных моделей окружающего пространства | |
JP5980541B2 (ja) | 撮像装置、及び撮像制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241016 |