JP6168577B2 - マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法 - Google Patents
マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法 Download PDFInfo
- Publication number
- JP6168577B2 JP6168577B2 JP2016539306A JP2016539306A JP6168577B2 JP 6168577 B2 JP6168577 B2 JP 6168577B2 JP 2016539306 A JP2016539306 A JP 2016539306A JP 2016539306 A JP2016539306 A JP 2016539306A JP 6168577 B2 JP6168577 B2 JP 6168577B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- lens
- microlens array
- subject distance
- lenses
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 171
- 238000003384 imaging method Methods 0.000 title claims description 85
- 238000013519 translation Methods 0.000 claims description 42
- 230000033001 locomotion Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 238000003331 infrared imaging Methods 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 2
- 239000007787 solid Substances 0.000 description 41
- 230000014616 translation Effects 0.000 description 39
- 238000005259 measurement Methods 0.000 description 20
- 238000001514 detection method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/08—Stereoscopic photography by simultaneous recording
- G03B35/10—Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Instructional Devices (AREA)
- Cameras In General (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Description
を備える方法が明記される。
を有し、
を有する。
を含む。
をさらに有する。
を含む。
を含む。
を備える。
ことにより、被写体距離を取得するよう構成される。
ことにより、第1レンズおよび第2レンズを選択するよう構成される。
ことにより選択される。
を備え、
をさらに備える。
をさらに備える。
を備え、
ここで、cxおよびcyは、マイクロレンズ310aおよび310bのそれぞれの中心座標を表し、xiおよびyiは、画像320aおよび320bの一方または両方における関心対象の被写体198の複数の座標を表し、Tは基準線(言い換えると、マイクロレンズ310aおよび310bの中心座標間の距離)であり、fは、マイクロレンズ310aおよび310bの修正された焦点距離であり、iは、複数の関心対象の被写体198に亘る、および/または関心対象の被写体198の複数の特徴点355に亘るインデックスであり、dは、ここで
として表される、画像320aおよび320b間の両眼視差である。
として表され得る。ここで、Tは基準線(言い換えると、マイクロレンズ310aおよび310bの中心座標間の距離)であり、fは、マイクロレンズ310aおよび310bの修正された焦点距離であり、
により表され得る、第1画像320aの点
ここで、Zは、マイクロレンズアレイ102Aと関心対象の被写体198との間の被写体距離であり、fは、第1レンズ310aおよび第2レンズ310bの修正された焦点距離であり、Tは、2つの第1レンズおよび第2レンズ310A、310B間の基準線であり、xlは第1画像320a上の特徴点であり、xrは、xlに対応する一致している点である。修正された焦点距離fの計算は、図8を参照して説明される。ここで、特徴点xlおよびxrは、図10を参照して上記にてより詳細に述べられているやり方で選択され得る。いくつかの実施形態において、xlおよびxrは、最小被写体距離を有する、および/または最大被写体距離を有する点から選択され得る。好ましくは、xlおよびxrは、平均的な被写体距離を有する点から選択され得る。平均的な被写体距離は、算術平均、幾何平均、メジアン、および/または最頻値を決定することを含むがこれらに限定されない任意の従来のやり方で決定され得る。好ましい実施形態において、マイクロレンズアレイ102上で利用可能な2つの最も近いレンズ310a、310bが、最短の基準線Tを提供するよう選択される。
ここで、dは、第1レンズ310aおよび第2レンズ310bにより生成される視差であり、Zは被写体距離であり、fは、第1レンズ310aおよび第2レンズ310bの修正された焦点距離である。いくつかの好ましい実施形態において、dは、10またはそれより多くのの画素であるよう選択される。いくつかの他の実施形態において、被写体距離Zは、上記にて計算された最小被写体距離Zminであり得る。好ましい実施形態において、基準線Tは、数式8において条件d>10が満たされつつ、マイクロレンズアレイの任意の2つのレンズによる最小である利用可能な距離として選択される。2つのレンズ310a、310bの最初の選択の後、異なる複数のレンズ102Aを選択することにより視差が大きく、または小さくされ得る。好ましい実施形態において、視差は大きくさえすればよい。
として表され得、ここで、Rは、複数の回転測定値を表す3次元アレイであり、Pjは、第1フレームの立体点であり、Tは、計算されることになる第2フレームの並進の3次元アレイを表し、μは、因数としての働きをする乱数である。
[項目1]
マイクロレンズアレイを有する立体画像化システムの基準線を設定する方法であって、
前記マイクロレンズアレイと関心対象の被写体との間の被写体距離を取得するステップと、
前記被写体距離を取得する前記ステップに基づき前記マイクロレンズアレイから2つのレンズを動的に選択するステップと
を備える方法。
[項目2]
前記2つのレンズを動的に選択する前記ステップは、前記マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択するステップを有する、項目1に記載の方法。
[項目3]
前記被写体距離を取得する前記ステップは、前記マイクロレンズアレイと関心対象の被写体との間の変化する被写体距離を繰り返し取得するステップを有し、
前記マイクロレンズアレイの複数のレンズから前記第1レンズおよび前記第2レンズを選択する前記ステップは、前記変化する被写体距離を繰り返し取得する前記ステップに基づく、項目2に記載の方法。
[項目4]
前記第1レンズおよび前記第2レンズを選択する前記ステップに基づき前記基準線を設定するステップをさらに備える、項目2または項目3に記載の方法。
[項目5]
前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離に基づき前記基準線を自動的に調節するステップをさらに備える、項目4に記載の方法。
[項目6]
前記被写体距離を取得する前記ステップは、
前記第1レンズを介して前記関心対象の被写体の第1画像を取得するステップと、
前記第2レンズを介して前記関心対象の被写体の第2画像を取得するステップと、
前記第1画像と前記第2画像との間の両眼視差を決定するステップと
を有し、
前記被写体距離を取得する前記ステップは、前記両眼視差を決定する前記ステップに基づき前記被写体距離を計算するステップを有する、項目2に記載の方法。
[項目7]
前記被写体距離を取得する前記ステップは、前記両眼視差を決定する前記ステップの前に前記第1レンズおよび前記第2レンズの複数の焦点距離に基づき、修正された焦点距離を計算するステップをさらに有する、項目6に記載の方法。
[項目8]
前記被写体距離を取得する前記ステップは、
前記第1画像上の複数の特徴点を取得するステップと、
前記第1画像の前記複数の特徴点の、前記第2画像の複数の点とのマッチングを行うステップと
を有する、項目6または項目7に記載の方法。
[項目9]
前記複数の特徴点は、前記第1画像または前記第2画像のうち一方の複数の画素を含む、項目8に記載の方法。
[項目10]
前記両眼視差を決定する前記ステップは、少なくとも5画素および画像の幅の5分の1またはそれより短い前記両眼視差を決定するステップを含む、項目8または項目9に記載の方法。
[項目11]
前記複数の特徴点のマッチングを行う前記ステップは、
前記第2画像を走査して、前記第1画像の選択された特徴点に一致している前記第2画像の点を識別するステップと、
前記第1画像の前記選択された特徴点と前記点との間の類似性を計算するステップと
を含む、項目8から10の何れか一項に記載の方法。
[項目12]
前記類似性を計算する前記ステップは、前記第1画像の前記選択された特徴点を、前記第2画像上の前記点を中心とした3×3画素のエリアと比較するステップを含む、項目11に記載の方法。
[項目13]
3×3画素のエリアを比較する前記ステップは、複数のカラー画像の各画素の各色成分に関する複数の差の合計、または複数の白黒画像の各画素の複数のグレースケール値の複数の差の合計を比較するステップを含む、項目12に記載の方法。
[項目14]
前記被写体距離を取得する前記ステップは、
前記マイクロレンズアレイと前記複数の特徴点のそれぞれとの間の複数のそれぞれの特徴距離を決定するステップと、
複数の前記特徴距離を用いて前記被写体距離を決定するステップと
をさらに有する、前記項目の何れか一項に記載の方法。
[項目15]
前記被写体距離を決定する前記ステップは、前記複数の特徴距離の平均に基づき前記被写体距離を取得するステップを含む、項目14に記載の方法。
[項目16]
前記被写体距離を決定する前記ステップは、前記複数の特徴点のうち1または複数を選択するステップと、選択された前記特徴点の前記特徴距離に基づき前記被写体距離を取得するステップとを含む、項目14または項目15に記載の方法。
[項目17]
前記特徴点を選択する前記ステップは、前記マイクロレンズアレイに最も近い予め定められた割合の複数の特徴点を選択するステップと、前記マイクロレンズアレイから最も遠い選択された前記特徴点の前記特徴距離として前記被写体距離を取得するステップとを含む、項目16に記載の方法。
[項目18]
前記2つのレンズを動的に選択する前記ステップは、
前記マイクロレンズアレイのために利用可能な最小基準線と、修正された焦点距離と、予め定められた視差範囲とに基づき、前記被写体距離の検出範囲を推定するステップと、
前記被写体距離の推定された前記検出範囲に基づき基準線範囲を計算するステップと、
予め定められたレベルより大きい視差を確かなものにしながら最小基準線により選択するステップと
を有する、前記項目の何れか一項に記載の方法。
[項目19]
前記第1レンズおよび前記第2レンズを選択する前記ステップは、
Z=f×(T/(x l −x r ))[Zは前記被写体距離であり、fは、前記複数の選択されたレンズの前記修正された焦点距離であり、Tは、2つの最も近いレンズ間の前記基準線であり、(x l −x r )は、2つの一致した点の視差である]により前記被写体距離の検出範囲(ZminからZmax)を推定するステップと、
T=Zd/f[d=(x l −x r )は前記視差である]により利用可能な複数の基準線の範囲を計算するステップと、
前記視差d>10の関係が満たされることを確保しながら最小基準線Tにより前記第1レンズおよび前記第2レンズを選択するステップと
を含む、項目2から18の何れか一項に記載の方法。
[項目20]
前記第1レンズおよび前記第2レンズを選択する前記ステップは、前記第1レンズの視野が少なくとも50%だけ前記第2レンズの視野と重なるまで前記基準線を大きくするステップを含む、項目2から19の何れか一項に記載の方法。
[項目21]
前記基準線の前記自動調節の後に前記立体画像化システムの複数の外部パラメータを較正するステップをさらに備える、項目5に記載の方法。
[項目22]
較正する前記ステップは、前記立体画像化システムの並進に関する外部パラメータおよび/または回転に関する外部パラメータのうち少なくとも1つを較正するステップを有する、項目21に記載の方法。
[項目23]
較正する前記ステップは、前記2つのレンズを選択する前記段階に従って、複数の前記並進に関する外部パラメータを最初に較正するステップを有する、項目22に記載の方法。
[項目24]
較正する前記ステップは、最初に較正する前記段階の後に、前記外部パラメータを較正して前記外部パラメータを最適化するステップをさらに有する、項目23に記載の方法。
[項目25]
前記立体画像化システムは、モバイルプラットフォームに乗せて設置され、自動的に調節する前記ステップは、前記モバイルプラットフォームの移動モードに依存する、項目5から23の何れか一項に記載の方法。
[項目26]
前記モバイルプラットフォームは無人航空機(UAV)であり、前記移動モードは前記UAVの飛行モードである、項目24に記載の方法。
[項目27]
項目1から26の何れか一項に従って自動的な基準線調節を実行するよう構成された、立体画像化システム。
[項目28]
項目1から26の何れか一項に従って、マイクロレンズアレイを有する立体画像化システムの基準線を自動的に調節するための複数の命令を備える、コンピュータプログラムプロダクト。
[項目29]
個別に、または1または複数の他のレンズとの組み合わせで画像を取得するようそれぞれが構成された複数のレンズを有するマイクロレンズアレイと、
前記マイクロレンズアレイと関心対象の被写体との間の取得された被写体距離に基づき2つのレンズを動的に選択するよう構成されたコントローラと
を備える、立体画像化システムの基準線を設定するための装置。
[項目30]
前記コントローラは、前記マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択するよう構成される、項目29に記載の装置。
[項目31]
前記コントローラは、前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離を取得し、前記変化する被写体距離の繰り返しの前記取得に基づき、前記マイクロレンズアレイの複数のレンズから前記第1レンズおよび前記第2レンズを選択するよう構成される、項目30に記載の装置。
[項目32]
前記コントローラは、前記第1レンズおよび前記第2レンズに基づき前記基準線を設定するよう構成される、項目31に記載の装置。
[項目33]
前記コントローラは、前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離に基づき前記基準線を動的に調節するよう構成される、項目32に記載の装置。
[項目34]
前記コントローラは、
前記第1レンズを介して前記関心対象の被写体の第1画像を取得し、
前記第2レンズを介して前記関心対象の被写体の第2画像を取得し、
前記第1画像と前記第2画像との間の両眼視差を決定し、
前記両眼視差の前記決定に基づき前記被写体距離を計算する
ことにより、前記被写体距離を取得するよう構成される、項目31から33の何れか一項に記載の装置。
[項目35]
前記コントローラは、前記両眼視差の前記決定の前に前記第1レンズおよび前記第2レンズの複数の焦点距離に基づき、修正された焦点距離を計算するよう構成される、項目34に記載の装置。
[項目36]
前記コントローラは、前記第1画像上の複数の特徴点を取得し、前記第1画像の前記複数の特徴点の、前記第2画像の複数の点とのマッチングを行うよう構成される、項目34または35に記載の装置。
[項目37]
前記複数の特徴点は、前記第1画像または前記第2画像のうち一方の複数の画素を含む、項目36に記載の装置。
[項目38]
前記コントローラは、少なくとも5画素および画像の幅の5分の1またはそれより短い前記両眼視差を決定するよう構成される、項目36または37に記載の装置。
[項目39]
前記コントローラは、前記第2画像を走査して、前記第1画像の選択された特徴点に一致する前記第2画像の点を識別し、前記第1画像の前記選択された特徴点と前記点との間の類似性を計算するよう構成される、項目38に記載の装置。
[項目40]
前記コントローラは、前記第1画像の各選択された特徴点を、前記第2画像上の前記点を中心とした3×3画素のエリアと比較するよう構成される、項目39に記載の装置。
[項目41]
前記コントローラは、複数のカラー画像の各画素の各色成分に関する複数の差の合計、または複数の白黒画像の各画素の複数のグレースケール値の複数の差の合計を比較するよう構成される、項目40に記載の装置。
[項目42]
前記コントローラは、前記マイクロレンズアレイと前記複数の特徴点のそれぞれとの間の複数のそれぞれの特徴距離を決定し、複数の前記特徴距離を用いて前記被写体距離を決定するよう構成される、項目36から41の何れか一項に記載の装置。
[項目43]
前記被写体距離は、前記複数の特徴距離の平均である、項目42に記載の装置。
[項目44]
前記コントローラは、前記複数の特徴点のうち1または複数を選択し、選択された前記特徴点の前記特徴距離に基づき前記被写体距離を取得するよう構成される、項目42または43に記載の装置。
[項目45]
前記複数の特徴点は、前記マイクロレンズアレイに最も近い、または前記マイクロレンズアレイから最も遠い予め定められた割合の複数の特徴点が選択される、項目44に記載の装置。
[項目46]
前記コントローラは、
前記マイクロレンズアレイのために利用可能な最小基準線と、修正された焦点距離と、予め定められた視差範囲とに基づき、前記被写体距離の検出範囲を推定し、
前記被写体距離の推定された前記検出範囲に基づき基準線範囲を計算し、
視差が予め定められたレベルより大きいことを確保しながら最小基準線により選択する
ことにより、前記第1レンズおよび前記第2レンズを選択するよう構成される、項目30から45の何れか一項に記載の装置。
[項目47]
前記第1レンズおよび前記第2レンズは、
Z=f×(T/(x l −x r ))[Zは前記被写体距離であり、fは、選択された前記第1レンズおよび前記第2レンズの前記修正された焦点距離であり、Tは、2つの最も近いマイクロレンズ間の前記基準線であり、(x l −x r )は、2つの一致した点の視差である]により前記被写体距離の検出範囲(ZminからZmax)を推定し、
T=Zd/f[d=(x l −x r )は前記視差である]により利用可能な複数の基準線の範囲を計算し、
前記視差d>10の関係を確かなものにしながら最小基準線Tにより前記第1レンズおよび前記第2レンズを選択する
ことにより選択される、項目30から46の何れか一項に記載の装置。
[項目48]
前記コントローラは、前記第1レンズの視野が少なくとも50%だけ前記第2レンズの視野と重なるまで前記基準線を大きくするよう構成される、項目30から47の何れか一項に記載の装置。
[項目49]
前記コントローラは、前記基準線の前記調節の後に前記立体画像化システムの複数の外部パラメータを較正するよう構成される、項目33から48の何れか一項に記載の装置。
[項目50]
前記複数の外部パラメータは、前記立体画像化システムの並進に関する外部パラメータおよび/または回転に関する外部パラメータのうち少なくとも1つを含む、項目49に記載の装置。
[項目51]
複数の前記並進に関する外部パラメータは、前記第1レンズおよび前記第2レンズに従って最初に較正される、項目50に記載の装置。
[項目52]
前記コントローラは、最初の前記較正の後に前記複数の外部パラメータを較正して、前記外部パラメータを最適化するよう構成される、項目51に記載の装置。
[項目53]
前記立体画像化システムは無人航空機(UAV)であり、前記基準線の前記調節は、前記UAVの飛行モードに依存する、項目52に記載の装置。
[項目54]
前記立体画像化システムは赤外線画像化システムである、項目30から53の何れか一項に記載の装置。
[項目55]
前記立体画像化システムはX線画像化システムである、項目30から54の何れか一項に記載の装置。
[項目56]
マイクロレンズアレイを有する撮像装置により同時位置推定および地図生成(SLAM)を実行する方法であって、
項目2から26の何れか一項に記載の方法を通じて前記マイクロレンズアレイにより第1立体フレームおよび第2立体フレームを取得する段階と、
第1立体フレームに対する前記第2フレームの複数の回転を慣性測定ユニットIMUにより測定して回転データを生成する段階と、
前記回転データを前記第1立体フレームおよび前記第2立体フレームと組み合わることにより前記第1立体フレームおよび前記第2立体フレームのマッチングを行う段階と
を備え、
前記第1立体フレームは、予め定められた割合だけ前記第2立体フレームと重なる、方法。
[項目57]
前記第1立体フレームおよび前記第2立体フレームを取得する前記段階は、異なる複数の時点において前記第1立体フレームおよび前記第2立体フレームを取得する段階を有する、項目56に記載の同時位置推定および地図生成のための方法。
[項目58]
異なる複数の時点において前記第1立体フレームおよび前記第2立体フレームを取得する前記段階は、60分の1秒またはそれより長い、および20分の1秒またはそれより短い間隔で前記第1立体フレームおよび前記第2立体フレームを取得する段階を含む、項目57に記載の同時位置推定および地図生成のための方法。
[項目59]
前記第1立体フレームに基づき立体点クラウドを取得する段階をさらに備え、
前記立体点クラウドは複数の立体特徴点のアレイ{P 1 ,P 2 ,P 3… ,P n }である、項目58に記載の同時位置推定および地図生成のための方法。
[項目60]
前記立体点クラウドに基づきx−y面における第2投射アレイ
[項目61]
前記第2投射アレイを取得する前記段階は、
前記立体点クラウドに基づきx−y面における第1投射アレイ
項目11から13の何れか一項に記載の方法を用いて、前記第2立体画像に対して前記第1投射アレイの複数の点のマッチングを行って、前記第2投射アレイ
を有する、項目60に記載の同時位置推定および地図生成のための方法。
[項目62]
前記回転データ、前記立体点クラウド、および前記第2投射アレイに基づき並進アレイTを計算する段階をさらに備える、項目61に記載の同時位置推定および地図生成のための方法。
[項目63]
前記並進アレイTを計算する前記段階は、関係
[項目64]
[項目65]
前記立体点クラウドから選択される複数の点、およびそれらの、前記第2投射アレイの対応する複数の投射点を用いて前記並進アレイTを数式
一致している複数の点の最大計数を有する並進アレイTを選択された並進アレイTとして選択する段階と
をさらに備える、項目62から64の何れか一項に記載の同時位置推定および地図生成のための方法。
[項目66]
前記回転データ、前記選択された並進T、および前記関係
[項目67]
項目2から26の何れか一項に記載の方法を通じて、前記マイクロレンズアレイにより他の立体フレームを取得する段階と、
項目56から66に規定される複数の前記段階を、前記第2立体フレームを前記第1立体フレームとし、新たに取得された前記立体フレームを前記第2立体フレームとして繰り返す段階と
をさらに備える、項目56から66の何れか一項に記載の同時位置推定および地図生成のための方法。
[項目68]
項目56から67の何れか一項に従って自動位置推定および地図生成を実行するよう構成された同時位置推定および地図生成システム。
[項目69]
マイクロレンズアレイを有する立体画像化システムにより、項目56から67の何れか一項に従って同時位置推定および地図生成を自動的に実行するための複数の命令を備える、コンピュータプログラムプロダクト。
[項目70]
マイクロレンズアレイを有する撮像装置により同時位置推定および地図生成(SLAM)を実行するための装置であって、
第1時点における第1立体フレームに対する第2時点において取得される第2立体フレームの複数の回転を測定するよう構成された慣性測定ユニットIMUと、
項目2から26の何れか一項の方法を通じて、前記マイクロレンズアレイにより前記第1立体フレームおよび前記第2立体フレームを取得し、前記IMUから前記第2立体フレームの回転データを取得し、前記回転データを前記第1立体フレームおよび前記第2立体フレームと組み合わせることにより前記第1立体フレームおよび前記第2立体フレームのマッチングを行うよう構成されたコントローラと
を備え、
前記第1立体フレームは、予め定められた割合だけ前記第2立体フレームと重なる、装置。
[項目71]
前記第1立体フレームおよび前記第2立体フレームは、異なる複数の時点において取得される、項目70に記載の同時位置推定および地図生成のための装置。
[項目72]
前記異なる複数の時点間の間隔は、60分の1秒またはそれより長く、および20分の1秒またはそれより短い、項目71に記載の同時位置推定および地図生成のための装置。
[項目73]
前記コントローラはさらに、前記第1立体フレームに基づき立体点クラウドを取得するよう構成され、
前記立体点クラウドは、複数の立体特徴点のアレイ{P 1 ,P 2 ,P 3… ,P n }である、項目72に記載の同時位置推定および地図生成のための装置。
[項目74]
前記コントローラはさらに、前記立体点クラウドに基づきx−y面における第2投射アレイ
[項目75]
前記コントローラは、
前記立体点クラウドに基づきx−y面における第1投射アレイ
項目11から13の何れか一項に記載の方法を用いて、前記第2立体画像に対して前記第1投射アレイの複数の点のマッチングを行って、前記第2投射アレイ
ことにより前記第2投射アレイを取得するよう構成される、項目74に記載の同時位置推定および地図生成のための装置。
[項目76]
前記コントローラはさらに、前記回転データ、前記立体点クラウド、および前記第2投射アレイに基づき並進アレイTを計算するよう構成される、項目75に記載の同時位置推定および地図生成のための装置。
[項目77]
前記並進アレイTは、関係
[項目78]
前記並進アレイTは、前記立体点クラウドから選択される少なくとも2つの点、およびそれらの、前記第2投射アレイの一致している2つの点に関して一式の数式を解くことにより計算される、項目77に記載の同時位置推定および地図生成のための装置。
[項目79]
前記コントローラは、
前記立体点クラウドから選択される複数の点、およびそれらの、前記第2投射アレイの対応する複数の投射点を用いて前記並進アレイTを数式
一致している複数の点の数が最も多い並進アレイTを選択された並進アレイTとして選択するよう構成される、項目70から78の何れか一項に記載の同時位置推定および地図生成のための装置。
[項目80]
前記コントローラは、前記回転データ、前記選択された並進T、および前記関係
[項目81]
前記コントローラは、前記マイクロレンズアレイにより、項目2から26の何れか一項に記載の方法を通じて他の立体フレームを取得し、前記第2立体フレームを前記第1立体フレームとし、新たに取得された前記立体フレームを前記第2立体フレームとするよう構成される、項目70から80の何れか一項に記載の同時位置推定および地図生成のための装置。
Claims (51)
- マイクロレンズアレイを有する立体画像化システムの基準線を設定する方法であって、
前記マイクロレンズアレイと関心対象の被写体との間の被写体距離を取得するステップと、
前記被写体距離を取得する前記ステップに基づき、前記マイクロレンズアレイから2つのレンズを動的に選択するステップと
を含み、
前記マイクロレンズアレイから2つのレンズを動的に選択するステップは、
前記被写体距離及び2つのレンズの修正された焦点距離に基づき、予め定められたレベルより大きい視差が得られ、かつ、基準線が最小となる2つのレンズを、前記マイクロレンズアレイから選択するステップ
を有する、
方法。 - マイクロレンズアレイを有する立体画像化システムの基準線を設定する方法であって、
前記マイクロレンズアレイと関心対象の被写体との間の被写体距離を取得するステップと、
前記被写体距離を取得する前記ステップに基づき、前記マイクロレンズアレイから2つのレンズを動的に選択するステップと
を含み、
前記マイクロレンズアレイから2つのレンズを動的に選択するステップは、
T=Zd/f[Zは前記被写体距離であり、fは2つのレンズの修正された焦点距離であり、dは視差であり、Tは2つのレンズの基準線である]に基づいて、d>10を満たし、かつ、Tが最小となる2つのレンズを、前記マイクロレンズアレイから選択するステップ
を有する、方法。 - 前記2つのレンズを動的に選択するステップは、前記マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択するステップを有する、請求項1または請求項2に記載の方法。
- 前記被写体距離を取得するステップは、前記マイクロレンズアレイと関心対象の被写体との間の変化する被写体距離を繰り返し取得するステップを有し、
前記第1レンズおよび前記第2レンズを選択するステップは、前記変化する被写体距離を繰り返し取得する前記ステップに基づき、前記マイクロレンズアレイの複数のレンズから前記第1レンズおよび前記第2レンズを選択する、請求項3に記載の方法。 - 前記第1レンズおよび前記第2レンズを選択するステップに基づき前記基準線を設定するステップをさらに含む、請求項3または請求項4に記載の方法。
- 前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離に基づき、前記基準線を自動的に調節するステップをさらに含む、請求項5に記載の方法。
- 前記被写体距離を取得するステップは、
前記第1レンズを介して前記関心対象の被写体の第1画像を取得するステップと、
前記第2レンズを介して前記関心対象の被写体の第2画像を取得するステップと、
前記第1画像と前記第2画像との間の両眼視差を決定するステップと
を有し、
前記被写体距離を取得するステップは、前記両眼視差を決定するステップに基づき前記被写体距離を計算するステップを有する、請求項4から請求項6の何れか一項に記載の方法。 - 前記被写体距離を取得する前記ステップは、前記両眼視差を決定する前記ステップの前に前記第1レンズおよび前記第2レンズの複数の焦点距離に基づき、修正された焦点距離を計算するステップをさらに有する、請求項7に記載の方法。
- 前記被写体距離を取得するステップは、
前記第1画像上の複数の特徴点を取得するステップと、
前記第1画像の前記複数の特徴点の、前記第2画像の複数の点とのマッチングを行うステップと
を有する、請求項7または請求項8に記載の方法。 - 前記複数の特徴点は、前記第1画像または前記第2画像のうち一方の複数の画素を含む、請求項9に記載の方法。
- 前記両眼視差を決定するステップは、少なくとも5画素および画像の幅の5分の1またはそれより短い前記両眼視差を決定するステップを含む、請求項9または請求項10に記載の方法。
- 前記複数の特徴点のマッチングを行うステップは、
前記第2画像を走査して、前記第1画像の選択された特徴点に一致している前記第2画像の点を識別するステップと、
前記第1画像の前記選択された特徴点と前記点との間の類似性を計算するステップと
を含む、請求項9から請求項11の何れか一項に記載の方法。 - 前記類似性を計算する前記ステップは、前記第1画像の前記選択された特徴点を、前記第2画像上の前記点を中心とした3×3画素のエリアと比較するステップを含む、請求項12に記載の方法。
- 前記3×3画素のエリアを比較するステップは、複数のカラー画像の各画素の各色成分に関する複数の差の合計、または複数の白黒画像の各画素の複数のグレースケール値の複数の差の合計を比較するステップを含む、請求項13に記載の方法。
- 前記被写体距離を取得するステップは、
前記マイクロレンズアレイと前記複数の特徴点のそれぞれとの間の複数のそれぞれの特徴距離を決定するステップと、
複数の前記特徴距離を用いて前記被写体距離を決定するステップと
をさらに有する、請求項9から請求項14の何れか一項に記載の方法。 - 前記被写体距離を決定するステップは、前記複数の特徴距離の平均に基づき前記被写体距離を取得するステップを含む、請求項15に記載の方法。
- 前記被写体距離を決定するステップは、前記複数の特徴点のうち1または複数を選択するステップと、選択された前記1または複数の特徴点の前記特徴距離に基づき前記被写体距離を取得するステップとを含む、請求項15または請求項16に記載の方法。
- 前記1または複数の特徴点を選択するステップは、前記マイクロレンズアレイに最も近い予め定められた割合の複数の特徴点を選択するステップと、前記マイクロレンズアレイから最も遠い選択された特徴点の前記特徴距離として前記被写体距離を取得するステップとを含む、請求項17に記載の方法。
- 前記基準線を前記自動的に調節するステップの後に前記立体画像化システムの複数の外部パラメータを較正するステップをさらに含む、請求項6に記載の方法。
- 前記較正するステップは、前記立体画像化システムの並進に関する外部パラメータおよび回転に関する外部パラメータのうち少なくとも1つを較正するステップを有する、請求項19に記載の方法。
- 前記較正するステップは、複数の前記並進に関する外部パラメータを最初に較正するステップを有する、請求項20に記載の方法。
- 前記較正するステップの後には、前記外部パラメータを較正して前記外部パラメータを最適化するステップをさらに有する、請求項21に記載の方法。
- 前記立体画像化システムは、モバイルプラットフォームに乗せて設置され、自動的に調節する前記ステップは、前記モバイルプラットフォームの移動モードに依存する、請求項6、請求項19から請求項22の何れか一項に記載の方法。
- 前記モバイルプラットフォームは無人航空機(UAV)であり、前記移動モードは前記UAVの飛行モードである、請求項23に記載の方法。
- 請求項1から請求項24の何れか一項に記載の方法に従って自動的な基準線調節を実行するよう構成された、立体画像化システム。
- 請求項1から請求項24の何れか一項に記載の方法に従って、マイクロレンズアレイを有する立体画像化システムの基準線を自動的に調節するための複数の命令を備える、コンピュータプログラム。
- 1または複数の他のレンズとの組み合わせで画像を取得する複数のレンズを有するマイクロレンズアレイと、
前記マイクロレンズアレイと関心対象の被写体との間の取得された被写体距離に基づき2つのレンズを動的に選択するコントローラと
を備え、
前記コントローラは、前記被写体距離及び2つのレンズの修正された焦点距離に基づき、予め定められたレベルより大きい視差が得られ、かつ、基準線が最小となる2つのレンズを、前記マイクロレンズアレイから選択する、
立体画像化システムの基準線を設定する装置。 - 1または複数の他のレンズとの組み合わせで画像を取得する複数のレンズを有するマイクロレンズアレイと、
前記マイクロレンズアレイと関心対象の被写体との間の取得された被写体距離に基づき2つのレンズを選択するコントローラと
を備え、
前記コントローラは、T=Zd/f[Zは前記被写体距離であり、fは2つのレンズの修正された焦点距離であり、dは視差であり、Tは2つのレンズの基準線である]に基づいて、d>10を満たし、かつ、Tが最小となる2つのレンズを、前記マイクロレンズアレイから選択する、
立体画像化システムの基準線を設定する装置。 - 前記コントローラは、前記マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択する、請求項27または請求項28に記載の装置。
- 前記コントローラは、前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離を取得し、前記変化する被写体距離の繰り返しの前記取得に基づき、前記マイクロレンズアレイの複数のレンズから前記第1レンズおよび前記第2レンズを選択する、請求項29に記載の装置。
- 前記コントローラは、前記第1レンズおよび前記第2レンズに基づき前記基準線を設定する、請求項29または請求項30に記載の装置。
- 前記コントローラは、前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離に基づき前記基準線を調節する、請求項31に記載の装置。
- 前記コントローラは、
前記第1レンズを介して前記関心対象の被写体の第1画像を取得し、
前記第2レンズを介して前記関心対象の被写体の第2画像を取得し、
前記第1画像と前記第2画像との間の両眼視差を決定し、
前記両眼視差の前記決定に基づき前記被写体距離を計算する
ことにより、前記被写体距離を取得する、請求項30から請求項32の何れか一項に記載の装置。 - 前記コントローラは、前記両眼視差の前記決定の前に前記第1レンズおよび前記第2レンズの複数の焦点距離に基づき、修正された焦点距離を計算する、請求項33に記載の装置。
- 前記コントローラは、前記第1画像上の複数の特徴点を取得し、前記第1画像の前記複数の特徴点の、前記第2画像の複数の点とのマッチングを行う、請求項33または請求項34に記載の装置。
- 前記複数の特徴点は、前記第1画像または前記第2画像のうち一方の複数の画素を含む、請求項35に記載の装置。
- 前記コントローラは、少なくとも5画素および画像の幅の5分の1またはそれより短い前記両眼視差を決定する、請求項35または請求項36に記載の装置。
- 前記コントローラは、前記第2画像を走査して、前記第1画像の選択された特徴点に一致する前記第2画像の点を識別し、前記第1画像の前記選択された特徴点と前記点との間の類似性を計算する、請求項35から請求項37の何れか一項に記載の装置。
- 前記コントローラは、前記第1画像の各選択された特徴点を、前記第2画像上の前記点を中心とした3×3画素のエリアと比較する、請求項38に記載の装置。
- 前記コントローラは、複数のカラー画像の各画素の各色成分に関する複数の差の合計、または複数の白黒画像の各画素の複数のグレースケール値の複数の差の合計を比較する、請求項39に記載の装置。
- 前記コントローラは、前記マイクロレンズアレイと前記複数の特徴点のそれぞれとの間の複数のそれぞれの特徴距離を決定し、複数の前記特徴距離を用いて前記被写体距離を決定する、請求項35から請求項40の何れか一項に記載の装置。
- 前記被写体距離は、前記複数の特徴距離の平均である、請求項41に記載の装置。
- 前記コントローラは、前記複数の特徴点のうち1または複数を選択し、選択された前記1または複数の特徴点の前記特徴距離に基づき前記被写体距離を取得する、請求項41または請求項42に記載の装置。
- 前記複数の特徴点は、前記マイクロレンズアレイに最も近い、または前記マイクロレンズアレイから最も遠い予め定められた割合の複数の特徴点が選択される、請求項43に記載の装置。
- 前記コントローラは、前記基準線の前記調節の後に前記立体画像化システムの複数の外部パラメータを較正する、請求項32に記載の装置。
- 前記複数の外部パラメータは、前記立体画像化システムの並進に関する外部パラメータおよび回転に関する外部パラメータのうち少なくとも1つを含む、請求項45に記載の装置。
- 複数の前記並進に関する外部パラメータは、前記第1レンズおよび前記第2レンズに従って最初に較正される、請求項46に記載の装置。
- 前記コントローラは、最初の前記較正の後に前記複数の外部パラメータを較正して、前記外部パラメータを最適化するよう構成される、請求項47に記載の装置。
- 前記立体画像化システムは無人航空機(UAV)であり、前記基準線の前記調節は、前記UAVの飛行モードに依存する、請求項32、請求項45から請求項48の何れか一項に記載の装置。
- 前記立体画像化システムは赤外線画像化システムである、請求項27から請求項49の何れか一項に記載の装置。
- 前記立体画像化システムはX線画像化システムである、請求項27から請求項49の何れか一項に記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/095917 WO2016106694A1 (en) | 2014-12-31 | 2014-12-31 | System and method for adjusting a baseline of an imaging system with microlens array |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017511495A JP2017511495A (ja) | 2017-04-20 |
JP6168577B2 true JP6168577B2 (ja) | 2017-07-26 |
Family
ID=56283968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016539306A Expired - Fee Related JP6168577B2 (ja) | 2014-12-31 | 2014-12-31 | マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US9826217B2 (ja) |
EP (2) | EP3799427A1 (ja) |
JP (1) | JP6168577B2 (ja) |
CN (1) | CN105940674B (ja) |
WO (1) | WO2016106694A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD790053S1 (en) * | 2015-08-27 | 2017-06-20 | Mustang Sampling, Llc | Chromatograph exhaust vent back pressure diffuser |
US10706569B2 (en) * | 2016-06-08 | 2020-07-07 | Amazon Technologies, Inc. | Selectively paired imaging elements for stereo images |
CN109074476A (zh) * | 2016-08-01 | 2018-12-21 | 深圳市大疆创新科技有限公司 | 用于障碍物规避的系统以及方法 |
CN109983468A (zh) * | 2016-12-01 | 2019-07-05 | 深圳市大疆创新科技有限公司 | 使用特征点检测和跟踪对象的方法和系统 |
WO2018139879A1 (en) * | 2017-01-25 | 2018-08-02 | Samsung Electronics Co., Ltd. | Method and apparatus for determining stereoscopic multimedia information |
CN108615243B (zh) * | 2017-01-25 | 2024-10-22 | 北京三星通信技术研究有限公司 | 立体多媒体信息的确定方法、装置及系统 |
USD848383S1 (en) | 2017-07-13 | 2019-05-14 | Fat Shark Technology SEZC | Printed circuit board |
US10179647B1 (en) | 2017-07-13 | 2019-01-15 | Fat Shark Technology SEZC | Unmanned aerial vehicle |
USD825381S1 (en) | 2017-07-13 | 2018-08-14 | Fat Shark Technology SEZC | Unmanned aerial vehicle |
EP3459462A1 (en) * | 2017-09-26 | 2019-03-27 | Koninklijke Philips N.V. | Mobile x-ray imaging system |
CN108235725B (zh) * | 2018-02-26 | 2021-08-10 | 达闼机器人有限公司 | 基于云端的轨迹地图生成方法、装置、设备及应用程序 |
CN109068118B (zh) * | 2018-09-11 | 2020-11-27 | 北京旷视科技有限公司 | 双摄模组的基线距离调整方法、装置及双摄模组 |
CN111416973A (zh) * | 2019-01-08 | 2020-07-14 | 三赢科技(深圳)有限公司 | 三维感测装置 |
CN109947886B (zh) * | 2019-03-19 | 2023-01-10 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、电子设备及存储介质 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1466137B1 (en) * | 2001-12-28 | 2010-04-14 | Rudolph Technologies, Inc. | Stereoscopic three-dimensional metrology system and method |
US7702229B2 (en) * | 2006-10-18 | 2010-04-20 | Eastman Kodak Company | Lens array assisted focus detection |
US20080310757A1 (en) * | 2007-06-15 | 2008-12-18 | George Wolberg | System and related methods for automatically aligning 2D images of a scene to a 3D model of the scene |
WO2009141998A1 (ja) * | 2008-05-19 | 2009-11-26 | パナソニック株式会社 | キャリブレーション方法、キャリブレーション装置及びその装置を備えるキャリブレーションシステム |
US8866920B2 (en) * | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US20100045701A1 (en) * | 2008-08-22 | 2010-02-25 | Cybernet Systems Corporation | Automatic mapping of augmented reality fiducials |
US9144714B2 (en) * | 2009-05-02 | 2015-09-29 | Steven J. Hollinger | Ball with camera for reconnaissance or recreation and network for operating the same |
JP5553202B2 (ja) * | 2010-01-14 | 2014-07-16 | 株式会社リコー | 距離測定装置及び距離測定方法 |
JP5776173B2 (ja) * | 2010-03-01 | 2015-09-09 | 株式会社リコー | 撮像装置及び距離測定装置 |
EP2400261A1 (de) * | 2010-06-21 | 2011-12-28 | Leica Geosystems AG | Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche |
US9267797B2 (en) * | 2010-06-22 | 2016-02-23 | Ricoh Company, Ltd. | Range-finding device and imaging apparatus |
US8717467B2 (en) * | 2011-01-25 | 2014-05-06 | Aptina Imaging Corporation | Imaging systems with array cameras for depth sensing |
CN102164298B (zh) * | 2011-05-18 | 2012-10-03 | 长春理工大学 | 全景成像系统中基于立体匹配的元素图像获取方法 |
JP5762211B2 (ja) * | 2011-08-11 | 2015-08-12 | キヤノン株式会社 | 画像処理装置および画像処理方法、プログラム |
IL217361A0 (en) * | 2012-01-04 | 2012-03-29 | Rafael Advanced Defense Sys | Device & method providing combined video camera and range finder functionality |
JP2013172292A (ja) * | 2012-02-21 | 2013-09-02 | Sony Corp | 撮像装置及び撮像素子アレイ |
EP4296963B1 (en) * | 2012-08-21 | 2025-01-15 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
US9398287B2 (en) * | 2013-02-28 | 2016-07-19 | Google Technology Holdings LLC | Context-based depth sensor control |
WO2014145856A1 (en) * | 2013-03-15 | 2014-09-18 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
CN103793911A (zh) * | 2014-01-24 | 2014-05-14 | 北京科技大学 | 一种基于集成图像技术的场景深度获取方法 |
CN103941750B (zh) * | 2014-04-30 | 2016-08-31 | 东北大学 | 基于小型四旋翼无人机的构图装置及方法 |
-
2014
- 2014-12-31 WO PCT/CN2014/095917 patent/WO2016106694A1/en active Application Filing
- 2014-12-31 EP EP20201447.8A patent/EP3799427A1/en not_active Withdrawn
- 2014-12-31 JP JP2016539306A patent/JP6168577B2/ja not_active Expired - Fee Related
- 2014-12-31 EP EP14909278.5A patent/EP3158731B1/en active Active
- 2014-12-31 CN CN201480074618.0A patent/CN105940674B/zh not_active Expired - Fee Related
-
2016
- 2016-06-15 US US15/183,744 patent/US9826217B2/en active Active
-
2017
- 2017-08-04 US US15/669,138 patent/US10582188B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3158731B1 (en) | 2020-11-25 |
CN105940674B (zh) | 2018-07-27 |
WO2016106694A1 (en) | 2016-07-07 |
US10582188B2 (en) | 2020-03-03 |
US20160301916A1 (en) | 2016-10-13 |
EP3158731A4 (en) | 2017-06-28 |
CN105940674A (zh) | 2016-09-14 |
US9826217B2 (en) | 2017-11-21 |
JP2017511495A (ja) | 2017-04-20 |
EP3158731A1 (en) | 2017-04-26 |
US20170339396A1 (en) | 2017-11-23 |
EP3799427A1 (en) | 2021-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6168577B2 (ja) | マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法 | |
US8718326B2 (en) | System and method for extracting three-dimensional coordinates | |
US20220036574A1 (en) | System and method for obstacle avoidance | |
WO2019015154A1 (zh) | 基于单目三维扫描系统的三维重构方法和装置 | |
CN106875435B (zh) | 获取深度图像的方法及系统 | |
KR20150112362A (ko) | 깊이 센서의 깊이 보정을 위한 이미지 처리방법 및 그 장치 | |
WO2018227576A1 (zh) | 地面形态检测方法及系统、无人机降落方法和无人机 | |
JP6333396B2 (ja) | モバイルプラットフォームの変位を計測する方法及び装置 | |
US10713810B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and storage medium | |
WO2011125937A1 (ja) | キャリブレーションデータ選択装置、選択方法、及び選択プログラム、並びに三次元位置測定装置 | |
KR101565900B1 (ko) | 카메라 및 레이저 센서의 캘리브레이션 장치 및 캘리브레이션 방법 | |
JP6694234B2 (ja) | 距離測定装置 | |
US8599278B2 (en) | Method for estimating a plane in a range image and range image camera | |
JP6282377B2 (ja) | 3次元形状計測システムおよびその計測方法 | |
JP2019101000A (ja) | 測距点群データ測定システム、および制御プログラム | |
JP2015049200A (ja) | 計測装置、方法及びプログラム | |
JP6573196B2 (ja) | 距離情報補正装置、距離情報補正方法及び距離情報補正プログラム | |
JP5727969B2 (ja) | 位置推定装置、方法、及びプログラム | |
JP6456084B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US11195290B2 (en) | Apparatus and method for encoding in structured depth camera system | |
WO2014033731A2 (en) | A system and method for depth estimation | |
JP6604934B2 (ja) | 点群画素位置決定装置、方法、及びプログラム | |
Uranishi et al. | Three-dimensional measurement system using a cylindrical mirror |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170621 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6168577 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |