[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6168577B2 - マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法 - Google Patents

マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法 Download PDF

Info

Publication number
JP6168577B2
JP6168577B2 JP2016539306A JP2016539306A JP6168577B2 JP 6168577 B2 JP6168577 B2 JP 6168577B2 JP 2016539306 A JP2016539306 A JP 2016539306A JP 2016539306 A JP2016539306 A JP 2016539306A JP 6168577 B2 JP6168577 B2 JP 6168577B2
Authority
JP
Japan
Prior art keywords
image
lens
microlens array
subject distance
lenses
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016539306A
Other languages
English (en)
Other versions
JP2017511495A (ja
Inventor
ザン、ホンフイ
ザオ、コン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2017511495A publication Critical patent/JP2017511495A/ja
Application granted granted Critical
Publication of JP6168577B2 publication Critical patent/JP6168577B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Instructional Devices (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

開示される複数の実施形態は概して、デジタル画像化に関し、より具体的には、マイクロレンズアレイを有する画像化システムの基準線を調節するための複数のシステムおよび方法に関する。
デジタル画像技術、特にドローン技術の開発と共に、屋内および屋外の両方の用途のために自動的な同時位置推定および地図生成(SLAM)を可能とすることが重要な技術となっている。しかし、的確なSLAMは常に、困難な課題である。
SLAMは、よく知られていない環境地図の構築または更新を、それを用いて同時にエージェントの所在の追跡をし続けながら行うことに関する計算上の課題を扱う。典型的なSLAMは、複数の立体フレームを構築しそれらフレームを結合して、途切れない地図を形成することを扱う。
現在、主流の複数のSLAMシステムは通常、複数の単眼カメラまたは双眼カメラを用いて、立体的な環境地図生成機能および位置推定機能を実現する。いくつかの新たに開発された研究方法は、複数の深度カメラを用い、すなわち、複数の単眼または両眼カメラを、構造化光または飛行時間(TOF)深度センサと置き換える。しかし、これらのアプローチは、それらの現在の適用可能な状況、およびそれらの比較的高いコストにより大いに制限される。
加えて、いくつかの現在の主流のSLAMアプローチは通常、複数の視覚的な測定と組み合わせることにより実施される。現在のポピュラーな複数の視覚測定方法は、受動的な単眼または両眼レンズを用いることが多い。人間の一対の目と同様に、視覚的な測定の基本的な原理は、異なる複数の視野角の視差を用いて関心対象の被写体の3次元的な構造を計算し、位置推定を実現するということである。単眼レンズの場合、視差は並進によってのみ生成され得る。ゆえに、その3次元環境を検出する能力は、その動き特性に依存し、比較的制限される。
双眼カメラの視差は、第1レンズと第2レンズとの間の基準線により生じさせられる。ゆえに、その画像立体環境の能力は、基準線の長さに関連している。長さが固定されているとき、近すぎる、または遠すぎる被写体は、死角の存在が原因となり検出可能ではない。能動的な深度センサ(構造化光、TOF)の開発に伴い、能動的な深度センサに基づくSLAMは新たな研究のホットスポットとなっている。しかし、それらの性能の限界、それら能動的なセンサの設計構造およびコストに起因して、それらの適用可能な状況は小規模の屋内の場面である。例えば、太陽光のスペクトル全体が原因となり、構造化光に基づく深度センサは屋外では適用可能ではない。さらに、TOF深度センサは、屋外で用いられたとき、特定の放射光の比較的強いエネルギー、および比較的洗練されたセンサ設計等に依存する。ゆえに、それらは小規模の飛行プラットフォームには適切ではない。
他方、それらの物理的な原理の限界に起因して、いくつかの他の技術、例えば、慣性測定ユニット(IMU)、気圧計、および他のセンサを正確にSLAMシステムにおいて用いて、的確であり、かつ広く適用可能なSLAMシステムを構築することは困難である。
以上のことを鑑みて、様々な状況下で正確であり、かつより実用的なSLAMシステムおよび方法の必要性がある。
本明細書に開示される第1態様によると、マイクロレンズアレイを有する立体画像化システムの基準線を設定する方法であって、
マイクロレンズアレイと関心対象の被写体との間の被写体距離を取得するステップと、
被写体距離を取得するステップに基づきマイクロレンズアレイから2つのレンズを動的に選択するステップと
を備える方法が明記される。
開示されている複数の方法の例示的実施形態において、2つのレンズを動的に選択するステップは、マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択するステップを有する。
開示されている複数の方法の例示的実施形態において、被写体距離を取得するステップは、マイクロレンズアレイと関心対象の被写体との間の変化する被写体距離を繰り返し取得するステップを有し、
マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択するステップは、変化する被写体距離を繰り返し取得するステップに基づく。
開示されている複数の方法の複数の例示的実施形態は、第1レンズおよび第2レンズを選択するステップに基づき基準線を設定するステップをさらに備える。
開示されている複数の方法の複数の例示的実施形態は、マイクロレンズアレイと関心対象の被写体との間の変化する被写体距離に基づき基準線を自動的に調節するステップをさらに備える。
開示されている複数の方法の例示的実施形態において、被写体距離を取得するステップは、
第1レンズを介して関心対象の被写体の第1画像を取得するステップと、
第2レンズを介して関心対象の被写体の第2画像を取得するステップと、
第1画像と第2画像との間の両眼視差を決定するステップと
を有し、
被写体距離を取得するステップは、両眼視差を決定するステップに基づき被写体距離を計算するステップを有する。
開示されている複数の方法の例示的実施形態において、被写体距離を取得するステップは、両眼視差を決定するステップの前に第1レンズおよび第2レンズの複数の焦点距離に基づき、修正された焦点距離を計算するステップをさらに有する。
開示されている複数の方法の例示的実施形態において、被写体距離を取得するステップは、
第1画像上の複数の特徴点を取得するステップと、
第1画像の複数の特徴点の、第2画像の複数の点とのマッチングを行うステップと
を有する。
開示されている複数の方法の例示的実施形態において、複数の特徴点は、第1画像または第2画像のうち一方の複数の画素を含む。
開示されている複数の方法の例示的実施形態において、両眼視差を決定するステップは、少なくとも5画素および画像の幅の5分の1またはそれより短い両眼視差を決定するステップを含む。
開示されている複数の方法の例示的実施形態において、複数の特徴点のマッチングを行うステップは、
第2画像を走査して、第1画像の選択された特徴点に一致する第2画像の点を識別するステップと、
第1画像の選択された特徴点と点との間の類似性を計算するステップと
を含む。
開示されている複数の方法の例示的実施形態において、類似性を計算するステップは、第1画像の選択された特徴点を、第2画像上の点を中心とした3×3画素のエリアと比較するステップを含む。
開示されている複数の方法の例示的実施形態において、3×3画素のエリアを比較するステップは、複数のカラー画像の各画素の各色成分に関する複数の差の合計、または複数の白黒画像の各画素の複数のグレースケール値の複数の差の合計を比較するステップを含む。
開示されている複数の方法の例示的実施形態において、被写体距離を取得するステップは、
マイクロレンズアレイと複数の特徴点のそれぞれとの間の複数のそれぞれの特徴距離を決定するステップと、
複数の特徴距離を用いて被写体距離を決定するステップと
をさらに有する。
開示されている複数の方法の例示的実施形態において、被写体距離を決定するステップは、複数の特徴距離の平均に基づき被写体距離を取得するステップを含む。
開示されている複数の方法の例示的実施形態において、被写体距離を決定するステップは、複数の特徴点のうち1または複数を選択するステップと、選択された特徴点の特徴距離に基づき被写体距離を取得するステップとを含む。
開示されている複数の方法の例示的実施形態において、特徴点を選択するステップは、マイクロレンズアレイに最も近い予め定められた割合の複数の特徴点を選択するステップと、マイクロレンズアレイから最も遠い選択された特徴点の特徴距離として被写体距離を取得するステップとを含む。
開示されている複数の方法の例示的実施形態において、第1レンズおよび第2レンズを選択するステップは、
マイクロレンズアレイのために利用可能な最小基準線と、修正された焦点距離と、予め定められた視差範囲とに基づき、被写体距離の検出範囲を推定するステップと、
被写体距離の推定された検出範囲に基づき基準線範囲を計算するステップと、
被写体距離の推定された検出範囲に基づき基準線範囲を計算するステップと、
予め定められたレベルより大きい視差を確かなものにしながら最小基準線により選択するステップと
を含む。
開示されている複数の方法の例示的実施形態において、第1レンズおよび第2レンズを選択するステップは、
Z=f×(T/(x−x))[Zは被写体距離であり、fは、複数の選択されたレンズの修正された焦点距離であり、Tは、2つの最も近いレンズ間の基準線であり、(x−x)は、2つの一致した点の視差である]により被写体距離の検出範囲(ZminからZmax)を推定するステップと、
T=Zd/f[d=(x−x)は視差である]により利用可能な複数の基準線の範囲を計算するステップと、
視差d>10の関係が満たされることを確保しながら最小基準線Tにより第1レンズおよび第2レンズを選択するステップと
を含む。
開示されている複数の方法の例示的実施形態において、第1レンズおよび第2レンズを選択するステップは、第1レンズの視野が少なくとも50%だけ第2レンズの視野と重なるまで基準線を大きくするステップを含む。
開示されている複数の方法の複数の例示的実施形態は、基準線の自動調節の後に立体画像化システムの複数の外部パラメータを較正するステップをさらに備える。
開示されている複数の方法の例示的実施形態において、較正するステップは、立体画像化システムの並進に関する外部パラメータおよび/または回転に関する外部パラメータのうち少なくとも1つを較正するステップを有する。
開示されている複数の方法の例示的実施形態において、較正するステップは、2つのレンズを選択するステップに従って、複数の並進に関する外部パラメータを最初に較正するステップを有する。
開示されている複数の方法の例示的実施形態において、較正するステップは、最初に較正するステップの後に、外部パラメータを較正して外部パラメータを最適化するステップをさらに有する。
開示されている複数の方法の例示的実施形態において、立体画像化システムは、モバイルプラットフォームに乗せて設置され、自動的に調節するステップは、モバイルプラットフォームの移動モードに依存する。
開示されている複数の方法の例示的実施形態において、モバイルプラットフォームは無人航空機(UAV)であり、移動モードはUAVの飛行モードである。
本明細書に開示されている他の態様によると、上記の複数の方法の何れか1つに従って自動的な基準線調節を実行するよう構成された立体画像化システムが明記される。
本明細書に開示されている他の態様によると、上記の複数の方法の何れか1つに従って、マイクロレンズアレイを有する立体画像化システムの基準線を自動的に調節するための複数の命令を備えるコンピュータプログラムプロダクトが明記される。
開示されている装置の例示的実施形態において、装置は、
個別に、または1または複数の他のレンズとの組み合わせで画像を取得するようそれぞれが構成された複数のレンズを有するマイクロレンズアレイと、
マイクロレンズアレイと関心対象の被写体との間の取得された被写体距離に基づき2つのレンズを動的に選択するよう構成されたコントローラと
を備える。
開示されている装置の例示的実施形態において、コントローラは、マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、マイクロレンズアレイと関心対象の被写体との間の変化する被写体距離を取得し、変化する被写体距離の繰り返しの取得に基づき、マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、第1レンズおよび第2レンズに基づき基準線を設定するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、マイクロレンズアレイと関心対象の被写体との間の変化する被写体距離に基づき基準線を動的に調節するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、
第1レンズを介して関心対象の被写体の第1画像を取得し、
第2レンズを介して関心対象の被写体の第2画像を取得し、
第1画像と第2画像との間の両眼視差を決定し、
両眼視差の決定に基づき被写体距離を計算する
ことにより、被写体距離を取得するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、両眼視差の決定の前に第1レンズおよび第2レンズの複数の焦点距離に基づき、修正された焦点距離を計算するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、第1画像上の複数の特徴点を取得し、第1画像の複数の特徴点の、第2画像の複数の点とのマッチングを行うよう構成される。
開示されている装置の例示的実施形態において、複数の特徴点は、第1画像または第2画像のうち一方の複数の画素を含む。
開示されている装置の例示的実施形態において、コントローラは、少なくとも5画素および画像の幅の5分の1またはそれより短い両眼視差を決定するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、第2画像を走査して、第1画像の選択された特徴点に一致する第2画像の点を識別し、第1画像の選択された特徴点と点との間の類似性を計算するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、第1画像の各選択された特徴点を、第2画像上の点を中心とした3×3画素のエリアと比較するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、複数のカラー画像の各画素の各色成分に関する複数の差の合計、または複数の白黒画像の各画素の複数のグレースケール値の複数の差の合計を比較するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、マイクロレンズアレイと複数の特徴点のそれぞれとの間の複数のそれぞれの特徴距離を決定し、複数の特徴距離を用いて被写体距離を決定するよう構成される。
開示されている装置の例示的実施形態において、被写体距離は、複数の特徴距離の平均である。
開示されている装置の例示的実施形態において、コントローラは、複数の特徴点のうち1または複数を選択し、選択された特徴点の特徴距離に基づき被写体距離を取得するよう構成される。
開示されている装置の例示的実施形態において、複数の特徴点は、マイクロレンズアレイに最も近い、またはマイクロレンズアレイから最も遠い予め定められた割合の複数の特徴点が選択される。
開示されている装置の例示的実施形態において、コントローラは、
マイクロレンズアレイのために利用可能な最小基準線と、修正された焦点距離と、予め定められた視差範囲とに基づき、被写体距離の検出範囲を推定し、
被写体距離の推定された検出範囲に基づき基準線範囲を計算し、
視差が予め定められたレベルより大きいことを確保しながら最小基準線により選択する
ことにより、第1レンズおよび第2レンズを選択するよう構成される。
開示されている装置の例示的実施形態において、第1レンズおよび第2レンズは、
Z=f×(T/(x−x))[Zは被写体距離であり、fは、選択された第1レンズおよび第2レンズの修正された焦点距離であり、Tは、2つの最も近いマイクロレンズ間の基準線であり、(x−x)は、2つの一致した点の視差である]により被写体距離の検出範囲(ZminからZmax)を推定し、
T=Zd/f[d=(x−x)は視差である]により利用可能な複数の基準線の範囲を計算し、
視差d>10の関係を確かなものにしながら最小基準線Tにより第1レンズおよび第2レンズを選択する
ことにより選択される。
開示されている装置の例示的実施形態において、コントローラは、第1レンズの視野が少なくとも50%だけ第2レンズの視野と重なるまで基準線を大きくするよう構成される。
開示されている装置の例示的実施形態において、コントローラは、基準線の調節の後に立体画像化システムの複数の外部パラメータを較正するよう構成される。
開示されている装置の例示的実施形態において、複数の外部パラメータは、立体画像化システムの並進に関する外部パラメータおよび/または回転に関する外部パラメータのうち少なくとも1つを含む。
開示されている装置の例示的実施形態において、複数の並進に関する外部パラメータは、第1レンズおよび第2レンズに従って最初に較正される。
開示されている装置の例示的実施形態において、コントローラは、最初の較正の後に複数の外部パラメータを較正して、外部パラメータを最適化するよう構成される。
開示されている装置の例示的実施形態において、立体画像化システムは無人航空機(UAV)であり、基準線の調節は、UAVの飛行モードに依存する。
開示されている装置の例示的実施形態において、立体画像化システムは赤外線画像化システムである。
開示されている装置の例示的実施形態において、立体画像化システムはX線画像化システムである。
本明細書に開示されている他の態様によると、マイクロレンズアレイを有する撮像装置により同時位置推定および地図生成(SLAM)を実行する方法であって、
上記の方法の何れか1つを通じてマイクロレンズアレイにより第1立体フレームおよび第2立体フレームを取得するステップと、
第1立体フレームに対する第2フレームの複数の回転を慣性測定ユニットIMUにより測定して回転データを生成するステップと、
回転データを第1立体フレームおよび第2立体フレームと組み合わることにより第1立体フレームおよび第2立体フレームのマッチングを行うステップと
を備え、
第1立体フレームは、予め定められた割合だけ第2立体フレームと重なる、方法が明記される。
開示されている複数の方法の例示的実施形態において、第1立体フレームおよび第2立体フレームを取得するステップは、異なる複数の時点において第1立体フレームおよび第2立体フレームを取得するステップを有する。
開示されている装置の例示的実施形態において、異なる複数の時点において第1立体フレームおよび第2立体フレームを取得するステップは、60分の1秒またはそれより長い、および20分の1秒またはそれより短い間隔で第1立体フレームおよび第2立体フレームを取得するステップを含む。
開示されている複数の方法の複数の例示的実施形態は、
第1立体フレームに基づき立体点クラウドを取得するステップをさらに備え、
立体点クラウドは複数の立体特徴点のアレイ{P,P,P3…,P}である。
開示されている複数の方法の複数の例示的実施形態は、
立体点クラウドに基づきx−y面における第2投射アレイ
Figure 0006168577
を取得するステップをさらに備える。
開示されている複数の方法の例示的実施形態において、第2投射アレイを取得するステップは、
立体点クラウドに基づきx−y面における第1投射アレイ
Figure 0006168577
を取得するステップと、
請求項9から11の何れか一項に記載の方法を用いて、第2立体画像に対して第1投射アレイの複数の点のマッチングを行って、第2投射アレイ
Figure 0006168577
を生成するステップと
を有する。
開示されている複数の方法の複数の例示的実施形態は、
回転データ、立体点クラウド、および第2投射アレイに基づき並進アレイTを計算するステップをさらに備える。
開示されている複数の方法の例示的実施形態において、並進アレイTを計算するステップは、関係
Figure 0006168577
[Rは、複数の回転測定値のアレイであり、Pjは立体点であり、Tは、計算されることになる並進アレイを表し、μは乱数である]を適用するステップを有する。
開示されている複数の方法の例示的実施形態において、
Figure 0006168577
を適用するステップは、立体点クラウドから選択される少なくとも2つの点、およびそれらの、第2投射アレイの一致している2つの点に関して一式の数式を解くことによりTを計算するステップをさらに含む。
開示されている複数の方法の複数の例示的実施形態は、
立体点クラウドから選択される複数の点、およびそれらの、第2投射アレイの対応する複数の投射点を用いて並進アレイTを数式
Figure 0006168577
へ導入することによりTを検証して、一致している複数の点の計数を得るステップと、
一致している複数の点の最大計数を有する並進アレイTを選択された並進アレイTとして選択するステップと
をさらに備える。
開示されている複数の方法の複数の例示的実施形態は、
回転データ、選択された並進T、および関係
Figure 0006168577
を用いて第2フレームに関して立体点クラウドを計算するステップをさらに備える。
開示されている複数の方法の複数の例示的実施形態は、
上記にて述べた方法を介して、マイクロレンズアレイにより他の立体フレームを取得するステップと、
上記の複数のステップを、第2立体フレームを第1立体フレームとし、新たに取得された立体フレームを第2立体フレームとして繰り返すステップと
をさらに備える。
本明細書に開示されている他の態様によると、上記の複数の方法の何れかに従って自動位置推定および地図生成を実行するよう構成された同時位置推定および地図生成システムが明記される。
本明細書に開示されている他の態様によると、マイクロレンズアレイを有する立体画像化システムにより、上記の複数の方法の何れかに従って同時位置推定および地図生成を自動的に実行するための複数の命令を備えるコンピュータプログラムプロダクトが明記される。
本明細書に開示されている他の態様によると、マイクロレンズアレイを有する撮像装置により同時位置推定および地図生成(SLAM)を実行するための装置であって、
第1時点における第1立体フレームに対する第2時点において取得される第2立体フレームの複数の回転を測定するよう構成された慣性測定ユニットIMUと、
上記にて述べた複数の方法の何れかを通じて、マイクロレンズアレイにより第1立体フレームおよび第2立体フレームを取得し、
IMUから第2立体フレームの回転データを取得し、
回転データを第1立体フレームおよび第2立体フレームと組み合わせることにより第1立体フレームおよび第2立体フレームのマッチングを行うよう構成されたコントローラと
を備え、
第1立体フレームは、予め定められた割合だけ第2立体フレームと重なる、装置が明記される。
開示されている装置の例示的実施形態において、第1立体フレームおよび第2立体フレームは、異なる複数の時点において取得される。
開示されている装置の例示的実施形態において、異なる複数の時点間の間隔は、60分の1秒またはそれより長く、および20分の1秒またはそれより短い。
開示されている装置の例示的実施形態において、コントローラはさらに、第1立体フレームに基づき立体点クラウドを取得するよう構成されており、立体点クラウドは、複数の立体特徴点のアレイ{P,P,P3…,P}である。
開示されている装置の例示的実施形態において、コントローラはさらに、立体点クラウドに基づきx−y面における第2投射アレイ
Figure 0006168577
を取得するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、
立体点クラウドに基づきx−y面における第1投射アレイ
Figure 0006168577
を取得し、
請求項10から12の何れか一項に記載の方法を用いて、第2立体画像に対して第1投射アレイの複数の点のマッチングを行って、第2投射アレイ
Figure 0006168577
を生成する
ことにより第2投射アレイを取得するよう構成される。
開示されている装置の例示的実施形態において、コントローラはさらに、回転データ、立体点クラウド、および第2投射アレイに基づき並進アレイTを計算するよう構成される。
開示されている装置の例示的実施形態において、並進アレイTは、関係
Figure 0006168577
[Rは、複数の回転測定値のアレイであり、Pjは、立体点クラウドの立体点であり、Tは、計算されることになる並進アレイを表し、μは乱数である]を適用することにより計算される。
開示されている装置の例示的実施形態において、並進アレイTは、立体点クラウドから選択される少なくとも2つの点、およびそれらの、第2投射アレイの一致している2つの点に関して一式の数式を解くことにより計算される。
開示されている装置の例示的実施形態において、コントローラは、立体点クラウドから選択される複数の点、およびそれらの、第2投射アレイの対応する複数の投射点を用いて並進アレイTを数式
Figure 0006168577
へ導入することによりTを検証して、一致している複数の点の計数を得、
一致している複数の点の数が最も多い並進アレイTを選択された並進アレイTとして選択するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、回転データ、選択された並進T、および関係
Figure 0006168577
を用いて第2フレームに関して立体点クラウドを計算するよう構成される。
開示されている装置の例示的実施形態において、コントローラは、マイクロレンズアレイにより、上記の方法を通じて他の立体フレームを取得し、第2立体フレームを第1立体フレームとし、新たに取得された立体フレームを第2立体フレームとするよう構成される。
マイクロレンズアレイとセンサアレイとを含む立体画像化システムの実施形態を示す例示的な最上位のブロック図である。
図1のマイクロレンズアレイの実施形態を示す例示的な詳細図である。
マイクロレンズアレイが立体知覚において用いられる、図1の立体画像化システムの代替的実施形態を示す例示的な詳細図である。
被写体距離が三角測量を介して決定される、図3の立体画像化システムの代替的実施形態を示す例示的な詳細図である。
マイクロレンズアレイのためのコントローラを含む、図1の立体画像化システムの実施形態を示す例示的な最上位のブロック図である。
被写体距離に基づく、図1の立体画像化システムの方法の実施形態を示す例示的な最上位のフローチャートである。
図1の立体画像化システムの基準線を被写体距離に基づき調節する方法の実施形態を示す例示的なフローチャートである。
図7の立体画像化システムの基準線を被写体距離に基づき調節する方法の他の実施形態を示す例示的なフローチャートである。
図8の方法に従って被写体距離を決定する方法の実施形態を示す例示的な図である。
選択された複数のマイクロレンズに関して修正された焦点距離を取得するステップを含む、図8の方法の代替的実施形態を示す例示的な図である。
利用可能な複数の基準線の範囲を用いて基準線が推定される、図6の方法の他の代替的実施形態を示す例示的な図である。
同時位置推定および地図生成(SLAM)のための方法の実施形態を示す例示的な最上位の図である。
複数の対の立体画像のマッチングが行われる、図10の方法の代替的実施形態を示す例示的な図である。
図面は縮尺通りに描かれていないこと、例示の目的のために、同様の構造または機能の構成要素が概して、複数の図面を通じて同様の参照数詞により表されていることに留意されるべきである。図面が、好ましい実施形態の説明を容易にすることのみを意図されていることにも留意されるべきである。図面は説明されている複数の実施形態のあらゆる態様を示しておらず、本開示の範囲を限定しない。
現在利用可能であるSLAMシステムは広く適用可能ではなく、正確な位置推定および地図生成が可能ではないので、マイクロレンズアレイを有する画像化システムの基準線を調節して、それらの要求を満たすことが出来るSLAMシステムおよび方法が望ましいことが分かり、それらSLAMシステムおよび方法は、ドローンシステムおよび他の複数のモバイルデバイスシステムなどの広い範囲のシステム用途のために基礎を提供し得る。この結果は、図1に開示されている一実施形態に従って達成され得る。
ここで図1を参照すると、関心対象の被写体198から反射された光を受光するために、マイクロレンズアレイ102を有する例示的な立体画像化システム100が示されている。マイクロレンズアレイ102の(図2に示されている)各マイクロレンズ(またはレンズ)102Aは、センサアレイ104のそれぞれのセンサに対応する。マイクロレンズアレイ102の複数のレンズ102Aを介して受光された光は、センサアレイ104の対応する複数のセンサに提供される。典型的には、立体画像化のために、第1レンズ102bおよび第2レンズ102cなどの2つのレンズ102Aが構成される。しかし、マイクロレンズアレイ102の任意の適切な数のレンズ102Aが選択され得る。対応する複数のセンサは、センサアレイ104により生成される複数の画像を表すデータフロー133を生成する。典型的には、生成される画像の数は、マイクロレンズアレイ102の選択されるマイクロレンズ102Aの数と等しい。データフロー133は、画像信号プロセッサ(ISP)110に提供される。本例示的実施形態において、データフロー133は、センサアレイ104により生成される、内部メモリおよび/または外部メモリであり得るメモリ106に格納される2つの画像106Aおよび106Bを表す。例示のみを目的として、複数の対の画像を処理するものとして本明細書においては示され説明されているが、立体画像化システム100は、任意の適切な数の画像を処理するよう適合され得る。
関心対象の被写体198を画像化するとき、選択された各マイクロレンズ102Aおよび対応するセンサにより生成される複数の画像は、選択された視野角からの関心対象の被写体198を表し得る。複数のマイクロレンズ102Aを選択することにより、関心対象の被写体198は、複数の異なる視野角から画像化され得る。ISP110は、結果として得られる複数の画像を処理して、データフロー137を通じ立体画像199を生成し得る。一実施形態において、ISP110は、SLAMシステム(不図示)の一部として、位置推定を目的として、立体画像199を生成し得る。図1に示されているように、立体撮像装置100のマイクロレンズアレイ102、センサアレイ104、メモリ106、および/またはISP110は、コントローラ120の制御の下、動作し得る。追加的に、および/または代替的に、ISP110は、立体撮像装置100の全体または一部の制御を提供し得る。
図1に示されるように、例示的な立体撮像装置100は、オプションの慣性測定ユニット(IMU)150と通信を行い得る。IMU150は、2つの時点間の、立体撮像装置100の複数の回転測定値を提供する役割を担い得る。ISP110は複数の回転測定値を利用して、立体撮像装置100の移動経路に沿って、異なる複数の時点の2つの立体フレームを組み合わせて、途切れない複数の地図生成を生成し得る。途切れない複数の地図生成は、複数のSLAMシステムの第2の部分である。立体撮像装置100とは別個の(またはその外部の)コンポーネントとして示されているが、IMU150は、立体撮像装置100内部に配置されてもよい。
本明細書に開示されている複数のアプローチは、複数のSLAMシステムが、様々な屋内および/または屋外環境においてより的確に、かつ、より実際的に実行することを可能とする。ゆえに、複数のSLAMシステムは、構造化光および/または飛行時間(TOF)深度センサを用いる従来の複数のシステムと比較してより大きな利用範囲を有し得る。
図2は、図1のマイクロレンズアレイ102の実施形態の例示的配置を示す。図2のマイクロレンズアレイ102は、4×4のアレイのマイクロレンズであり、合計16のマイクロレンズ102Aを提供するものとして示されている。複数のマイクロレンズ102Aのそれぞれは、別々に、および/または、マイクロレンズアレイ102の任意の数の他のマイクロレンズ102Aと組み合わせて複数の画像を撮像するのに用いられ得る。2つの選択されたマイクロレンズ102Aが複数の画像を生成するのに用いられるとき、例えば、2つのマイクロレンズ102A間の距離が、両眼撮像装置の基準線を規定する。すなわち、立体撮像装置100は、マイクロレンズアレイ102の2つの選択されたマイクロレンズ102Aが複数の画像を生成するために用いられるとき、両眼撮像装置を形成する。両眼撮像装置の一実施形態についての例示的な複数の詳細は、図3を参照して以下に述べられている。
再び図2を参照すると、マイクロレンズアレイ102の、最長距離を有する第1レンズ102bおよび第2レンズ102cなどの2つのレンズ102Aが、両眼撮像装置の最大基準線Tmaxを規定する。第1レンズ102dおよび第2レンズ102eなどの互いに最も近い2つのレンズ102Aが、最小基準線Tminを規定する。4×4のマイクロレンズアレイ102が示されている図2において、Tmaxは、対角線上に位置付けられている、最も外側の2つのマイクロレンズ102A間の距離である。Tminは、より短い距離を有する何れかの、同じ行または列内の任意の2つの隣接するマイクロレンズ102A間の距離である。
立体視の複数の原理に基づき、基準線Tの値を下げることにより、検出範囲の下側の閾値および/またはその範囲の上側の閾値が下げられ得る。Tを大きくすることにより、逆の効果が得られ得る。ゆえに、従来の両眼撮像装置は、下側の閾値および上側の閾値の両方を考慮に入れられないので、立体撮像装置100は、固定された基準線を有する従来のデバイスより複数の利点を有し得る。
他方、マイクロレンズアレイ102は、図2に示されているように、複数のマイクロレンズ102Aの選択に基づき、予め定められた範囲の異なる複数の基準線を提供し得る。より近い被写体の立体的な位置は、より小さい複数の基準線を有する複数のマイクロレンズ102Aを用いて計算され得、より遠い被写体の立体的な位置は、より大きな複数の基準線を有するマイクロレンズ102Aを用いて計算され得る。ゆえに、立体視の範囲は、図2のマイクロレンズアレイ102を介して広められ得る。例示のみを目的として、4×4のアレイの16のマイクロレンズ102Aを提供するものとして図2を参照して示され説明されているが、マイクロレンズアレイ102は、任意の適切な構成またはサイズで提供される任意の適切な数のマイクロレンズ102Aを含み得る。複数のマイクロレンズ102Aにおける複数の行および列のアレイとして提供された場合、マイクロレンズアレイ102は、マイクロレンズアレイ102の列の数と異なり、またはそれと同じ数の行を含み得る。マイクロレンズアレイ102における隣接する複数のマイクロレンズ102A間のスペースは、マイクロレンズアレイ102における選択された複数の対の隣接するマイクロレンズ102Aに関して同じであり得る、および/または異なり得る。
ここで図3を参照すると、マイクロレンズアレイ102と関心対象の被写体198との間の被写体距離Zを確かなものにするシステムが示されている。図3は、マイクロレンズアレイ102の2つの選択されたレンズ102A、第1レンズ310aおよび第2レンズ310b、を参照し、立体知覚の使用を示している。本明細書の例示においてマイクロレンズアレイ102の複数のレンズ102Aが用いられているが、任意の種類のレンズアレイまたはマイクロレンズアレイが適用可能である。ゆえに、複数のレンズ102Aおよびマイクロレンズ102Aは互いに完全に入れ替え可能である。マイクロレンズ310aおよび310bのそれぞれは同じ関心対象の被写体198を知覚するが、座標軸(x,y,z)および(x,y,z)で示される異なる空間座標で知覚する。マイクロレンズ310aおよび310bは、それらのそれぞれの光軸330aおよび330bに沿って関心対象の被写体198を知覚し、それにより、関心対象の被写体198の2つの異なる2次元画像320aおよび320bを得ることになる。典型的には、マイクロレンズ310aおよび310bの光軸330aおよび330bが一致するようにマイクロレンズ310aおよび310bが位置付けられない限り、異なる複数の位置および/または角度から撮像される2次元画像320aおよび320bは異なる。したがって、殆どの状況において、図4を参照して以下により詳細に説明されるように、画像320aおよび320b間には、(例えば、数式4で表される)両眼視差dが見つけられ得る。
ここで図4を参照すると、2次元画像320aおよび320bが比較されて、一対のマイクロレンズ310aおよび310bと、関心対象の被写体198との間の被写体距離Zを確かなものにし得る。画像320aおよび320b間の両眼視差dを用いて被写体距離Zを確かなものにするのに、三角測量法が用いられ得る。具体的に、その座標(X,Y,Z)により表される、インデックスiを有する関心対象の被写体198の位置は、以下のように得られる。
Figure 0006168577
数式(1)
Figure 0006168577
数式(2)
Figure 0006168577
数式(3)
ここで、cおよびcは、マイクロレンズ310aおよび310bのそれぞれの中心座標を表し、xおよびyは、画像320aおよび320bの一方または両方における関心対象の被写体198の複数の座標を表し、Tは基準線(言い換えると、マイクロレンズ310aおよび310bの中心座標間の距離)であり、fは、マイクロレンズ310aおよび310bの修正された焦点距離であり、iは、複数の関心対象の被写体198に亘る、および/または関心対象の被写体198の複数の特徴点355に亘るインデックスであり、dは、ここで
Figure 0006168577
数式(4)
として表される、画像320aおよび320b間の両眼視差である。
図5は、立体画像化システム100の基準線Tを調節するための例示的な方法100の実施形態を示す。図5において、立体画像化システム100は、(図1に示される)コントローラ120と(図1に示される)マイクロレンズアレイ102とを有するものとして示されている。コントローラ120は、マイクロレンズアレイ102の動作を制御することによりマイクロレンズアレイ102とインタラクトする。図5において、コントローラ120は、マイクロレンズアレイ102から1または複数のマイクロレンズ102Aを選択して、立体画像化のために望ましい基準線を生成し得る。マイクロレンズアレイ102は、(図1に示される)マイクロレンズアレイ102と(図1に示される)関心対象の被写体198との間の被写体距離Zを取得および/または推定するための基準として用いられる複数の画像を撮像するのに用いられる。常に変化し得る被写体距離Zは、予め定められた時間間隔に従って繰り返し取得または推定され得る。いくつかの実施形態において、時間間隔は、60分の1秒から20分の1秒の範囲内に限定され得る。
加えて、コントローラ120は、マイクロレンズアレイ102から2つのマイクロレンズ310aおよび310bを選択するために、マイクロレンズアレイ102を介して生成された複数の画像の受信を制御し、それら画像に基づき望ましい基準線を計算し得る。望ましい基準線の計算、および/または、2つのマイクロレンズ310aおよび310bの選択は、繰り返し取得される、変化する被写体距離に基づき得る。
ここで図6を参照すると、立体画像化システム100の基準線Tを調節するための例示的な方法200の実施形態が示されている。方法200の一実施形態は、基準線Tが自動的に、および/または手動で調節されることを可能とする。610で、(図1に示される)立体画像化システム100またはマイクロレンズアレイ102と(図1に示される)関心対象の被写体198との間の被写体距離Zが取得される。被写体距離Zは、所望に応じて、いくつかの様々な方法の何れかを用いて取得され得る。いくつかの実施形態において、被写体距離Zは、立体視を介して、(図1に示される)マイクロレンズアレイ102から選択される(図2に示される)複数のマイクロレンズ102Aを用いて取得され得る。例えば、2つのマイクロレンズ102Aはそれぞれ、関心対象の被写体198の(図3から4に示される)それぞれの画像320a、320bを取得し得る。取得された画像320a、320bの重複する複数の部分が解析されて、関心対象の被写体198までの被写体距離Zを評価し得る。代替的に、および/または追加的に、被写体距離Zは、レーザーを用いる、および/または超音波を用いるなどの複数の非立体視方法を用いて取得され得る。680で、被写体距離Zに従って基準線Tを得るよう、一対のレンズ102Aが自動的に選択される。レンズの選択は、図11を参照してより詳細に説明される。
方法300の代替的実施形態は図7に示されている。ここで、方法300は、立体視に基づき、第1レンズ310aおよび第2レンズ310bを用いて被写体距離Zを取得する。611Aで、(図3および4に示される)関心対象の被写体198の(図3および4に示される)第1画像320aが第1レンズ310aを用いて取得される。611Bで、関心対象の被写体198の(図3および4に示される)第2画像320bが第2レンズ310bを用いて取得される。第1および第2画像320a、320bは、同時に、および/または連続的に行うことを含む任意の従来のやり方で取得され得る。好ましい実施形態において、第1および第2画像320a、320bは有利には、関心対象の被写体198および/または立体画像化システム100の経時的なずれに起因するエラーを減らすよう同時に取得される。
614で、第1画像320aと第2画像320bとの間の両眼視差dが計算される。代替的に、および/または追加的に、マイクロレンズ310a、310bの一方(または両方)の焦点距離が、614で両眼視差dを決定するのに用いられ得る。視差dを計算するための例示的実施形態は、図7を参照して以下により詳細に説明される。
619で、被写体距離Zが計算される。被写体距離Zは、任意の適切なやり方で計算され得る。例示的なやり方は、計算された両眼視差dを用いることを含む。例えば、被写体距離Zは、両眼視差d、第1レンズ310aおよび第2レンズ310b間の基準線T、および615に明記されているように修正された焦点距離fの関数として見つけられ得る。そのような関数は、
Figure 0006168577
数式(5)
として表され得る。ここで、Tは基準線(言い換えると、マイクロレンズ310aおよび310bの中心座標間の距離)であり、fは、マイクロレンズ310aおよび310bの修正された焦点距離であり、
Figure 0006168577
は、関心対象の被写体198の画像320aおよび320b間の両眼視差であり、
Figure 0006168577
は、
Figure 0006168577
により表される第1画像310a上の点に一致する、第2画像310b上の点である。
システム400の他の実施形態は図8に示されている。図8において、新たなステップが導入されていることを除き、全てのステップが図7に示されているシステム300と同じである。図8において、代替的実施形態が、修正された焦点距離fが2つの選択されたマイクロレンズ310a、310bの焦点距離に基づき計算され得る615におけるステップを有するものとして示されている。第1レンズ310aおよび第2レンズ310bの焦点距離は通常同じであり得るが、またそれらは異なり得る。修正された焦点距離を計算する全ての方法が本明細書において適用され得る。実施形態において、「Stereo Camera Calibration」(Markus Mann,Stereo Camera Calibration,(December 10,2004),available at http://cs.nyu.edu/courses/fall14/CSCI−GA.2271−001/06StereoCameraCalibration.pdf)に示される修正された焦点距離を計算する複数の方法が本明細書において用いられ得る。
図7および図8に関する説明に基づき、
Figure 0006168577
が知られている要素なので、視差dが、第2画像320b上の一致している点
Figure 0006168577
を用いて計算され得る。図9において、第2画像320b上の一致している点
Figure 0006168577
の位置を確認する例示的実施形態が、例示のみを目的として明記されている。図9において、Iは第1画像320aを表し、Iは、同じ関心対象の被写体198の第2画像320bを表す。第1画像320a上の点
Figure 0006168577
は知られており、第2画像320b上の一致している点
Figure 0006168577
は、以下の数式
Figure 0006168577
数式(6)
により表され得る、第1画像320aの点
Figure 0006168577
と「類似性の最も高い」点として定義され得、ここで、dは、(図3および図4に示される)2つの選択されたマイクロレンズ310a、310bの視差を表し、Iは第1画像320aであり、Iは、同じ関心対象の被写体198の第2画像320bを表し、
Figure 0006168577
は、第1画像320aの点
Figure 0006168577
である。
起こり得るマッチングのエラーが原因となり、マッチングの的確性および視野範囲を確かなものにするには、視差dは特定の予め定められた複数の値より小さくてはならず、またはより大きくてはならない。本開示に係る好ましい実施形態において、視差dは、5画素より大きく、第1画像320aと同じサイズであり得る第2画像320bの幅の5分の1未満である。例示的な例として、f=480、T=0.15mであり、画像解像度が320×240画素であるとすると、有効視野範囲は1.5mから15.4mが差し引かれ得る。
類似性の決定において、画像310a、310bのそれぞれから、それぞれが中心に比較点を有する3×3画素のブロックが取り上げられる。第1および第2画像320aおよび320bがカラー画像であるとき、複数の色成分の複数の値が、3×3画素のブロックの各画素に関して比較され得る。逆に、画像320aおよび320bが白黒画像であるとき、各画素に関する複数のグレースケール値が比較され得る。数式6に基づき、9つの画素全てに関する複数の値の差の合計が最も小さい点が一致している点として選択される。この処理は、第1画像310a上の選択された特徴点全てに関して繰り返され得る。
ここで図10を参照すると、関心対象の被写体198の複数の特徴点355を用いて、被写体距離Zを取得する方法600の他の代替的実施形態が示されている。922で、関心対象の被写体198上の複数の特徴点355が取得される。特徴点355は、様々な異なる方法のうち1または複数を用いて選択され得る。1つの例示的実施形態において、複数の特徴点355は、関心対象の被写体198の事前定義された複数の形状として識別され得る。他の実施形態において、複数の特徴点355は、特定の色または輝度を有する関心対象の被写体198の1または複数の部分として認識され得る。他の実施形態において、複数の特徴点355は、関心対象の被写体198の無作為な複数の部分として選択され得る。他の実施形態において、複数の特徴点355は、関心対象の被写体198上の規則的に隔てられた複数の間隔をおいて、例えば、1画素毎、1画素おき、2画素おき、3画素おき、などで選択され得る。複数の特徴点355は、所望に応じて、変化する複数の形状およびサイズであり得る。いくつかの実施形態において、上記にて説明された複数の方法の組み合わせを用いて複数の特徴点355が選択され得る。
924で、選択された複数の特徴点355の、第1画像310aから第2画像310bへのマッチングが行われ得る。好ましい実施形態において、複数の特徴点のマッチングは2つのステップから成る。924Aで、第1画像の特徴点355が選択される。計算された点から開始して、マイクロレンズ310a、310bの中央の線と平行な線に沿って、一致している点が走査される。マッチングの開始点は、第1画像310a上の点の複数の座標、基準線の方向および/または長さに基づき計算され得る。好ましくは、選択された線に沿った1方向のみに限定されるが、走査は、1または複数の予め定められた方向の何れかの方向に実行され得る。
924Bで、各点に関して走査を行いつつ、図8を参照して本明細書においてより詳細に説明されている方法により、2つの点間の類似性が計算され、第1画像310aの特徴点との複数の差の合計が最小の第2画像310bの点が選択される。
926で、各特徴点355と立体画像化システム100との間の特徴距離zが見つけられる。各特徴距離zは、(図3および4に示される)第1レンズ310aにより取得される(図3および4に示される)第1画像320aにおける特徴点355の位置と、(図3および4に示される)第2レンズ310bにより取得される(図3および4に示される)第2画像320bの特徴点355の位置との間の両眼視差dを用いることを含む任意の適切なやり方で見つけられ得る。両眼視差dを用いて、特徴距離zが、上記にて説明されたやり方で数式1から4を介して見つけられ得る。
928で、被写体距離Zが、926で見つけられた複数の特徴距離zを用いて見つけられる。関心対象の被写体198の個別の複数の特徴距離zに基づき被写体距離Zを決定するのに、様々な方法の何れかが用いられ得る。一実施形態において、被写体距離Zは、複数の特徴距離zの平均に基づき見つけられる。例示的な種類の平均は、算術平均、幾何平均、メジアン、および/または最頻値を含み得るが、これらに限定されない。他の実施形態において、被写体距離Zは、複数の特徴点355のうち1または複数を選択し、選択された特徴点355の複数の特徴距離zに基づき、被写体距離Zを取得することにより見つけられ得る。
図11は、マイクロレンズアレイ102から異なるレンズ102Aを選択する方法700の実施形態を示す。第1画像320aが取得された後短い時間間隔をおいて第2画像320bが取得されるとする。いくつかの実施形態において、時間間隔は、60分の1秒から20分の1秒の範囲内に限定され得る。時間間隔の短さが原因となり、典型的に、被写体距離Zの変化は無視出来る程度であり、したがって、被写体距離Z、およびその対応基準線の計算において無視され得る。言い換えると、被写体距離Zの変化は方法700の実行に実質的に影響を与えない可能性が高い。しかし、被写体距離Zの急な、または突然の変化は、以下の段落において説明されている例示的な方法のより長い計算を引き起こし得る。そのような急な、または突然の変化が稀であることが原因となり、計算の合計量は実質的に影響を受けない。
基準線を推定するとき、952で、被写体距離Zの検出範囲(ZminからZmax)が以下の数式を用いて推定される。
Figure 0006168577
数式(7)
ここで、Zは、マイクロレンズアレイ102Aと関心対象の被写体198との間の被写体距離であり、fは、第1レンズ310aおよび第2レンズ310bの修正された焦点距離であり、Tは、2つの第1レンズおよび第2レンズ310A、310B間の基準線であり、xは第1画像320a上の特徴点であり、xは、xに対応する一致している点である。修正された焦点距離fの計算は、図8を参照して説明される。ここで、特徴点xおよびxは、図10を参照して上記にてより詳細に述べられているやり方で選択され得る。いくつかの実施形態において、xおよびxは、最小被写体距離を有する、および/または最大被写体距離を有する点から選択され得る。好ましくは、xおよびxは、平均的な被写体距離を有する点から選択され得る。平均的な被写体距離は、算術平均、幾何平均、メジアン、および/または最頻値を決定することを含むがこれらに限定されない任意の従来のやり方で決定され得る。好ましい実施形態において、マイクロレンズアレイ102上で利用可能な2つの最も近いレンズ310a、310bが、最短の基準線Tを提供するよう選択される。
検出範囲(ZminからZmax)が推定されるとき、基準線Tは予め定められた視差d、修正された焦点距離f、および検出範囲(ZminからZmax)に基づき計算され得る。基準線Tを計算するために、956で、第1レンズ310aおよび第2レンズ310bの選択を取得するのに以下の数式が適用され得る。
Figure 0006168577
数式(8)
ここで、dは、第1レンズ310aおよび第2レンズ310bにより生成される視差であり、Zは被写体距離であり、fは、第1レンズ310aおよび第2レンズ310bの修正された焦点距離である。いくつかの好ましい実施形態において、dは、10またはそれより多くのの画素であるよう選択される。いくつかの他の実施形態において、被写体距離Zは、上記にて計算された最小被写体距離Zminであり得る。好ましい実施形態において、基準線Tは、数式8において条件d>10が満たされつつ、マイクロレンズアレイの任意の2つのレンズによる最小である利用可能な距離として選択される。2つのレンズ310a、310bの最初の選択の後、異なる複数のレンズ102Aを選択することにより視差が大きく、または小さくされ得る。好ましい実施形態において、視差は大きくさえすればよい。
図12は、同時位置推定および地図生成(SLAM)を実行する方法800の例示的実施形態を示す。図12において、810で、(図1に示される)立体撮像装置100が複数の画像の2つの立体フレームを取得する。2つのフレームは、図1から図11を参照して上記にて説明された複数の方法の何れかに従うことを含む任意の適切なやり方で取得され得る。820で、関心対象の被写体198の被写体距離Zが計算され得る。被写体距離Zは、図1から図11を参照して上記にて説明された複数の方法の何れかに従うことを含む任意の適切なやり方で計算され得る。830で、第1および第2フレーム上の複数の特徴点のマッチングを行うことにより2つのフレームのマッチングが行われる。840で、取得された複数のフレームを用いて、3つの並進移動および3つの回転における6つの動きが推定される。複数の回転は、回転データを得る慣性測定ユニット(IMU)150により取得され得、複数の並進は、回転データに基づき計算される。
複数の回転および複数の並進が取得されたとき、以下のセクションに説明されるように、850のように複数の測定値が複数のフレームに適用される。また850で、画像の次のフレームが取得され、システムは、新たに取得されたフレームを計算するために処理を繰り返す。処理は、途切れのない地図生成を実現するために何度も継続される。
図13は、(図12に示される)方法800の代替的実施形態を示す。図12に示されるように、811で、2つの立体フレーム、1つの第1立体フレームおよび第2立体フレームが、図1から図11を参照して説明されている複数の方法の何れかにより取得される。図1から図11を参照して説明されるように、複数の立体フレームは、複数の立体点から成り、それらの点のそれぞれは、x、yおよびzの座標値により表される。本明細書に説明されている2つのフレームは、(図1に示される)立体撮像装置100の移動経路と共に、異なる複数の時点において取得される。
831における第1フレームおよび第2フレームのマッチングは2つのステップから成る。831の第1ステップとして、832で、第1フレーム{P,P,P3…,P}に基づき立体点クラウドが取得される。各Pは、第1フレームの特徴点である。x−y面において、立体点クラウドは、
Figure 0006168577
により表され得る。取得される特徴点の数は、処理速度、フレームのサイズ、フレームの解像度、並びに、コントローラ120の計算能力等に基づき異なる。本明細書に開示される典型的な実施形態において、例として点の数は、100から200の範囲内であり得る。
831の複数のフレームのマッチングの第2ステップとして、834で、第2投射アレイが第2フレーム
Figure 0006168577
において計算される。第2投射アレイの点
Figure 0006168577
のそれぞれは、x−y面に投射された、第1フレームの点クラウドの点Pまたは
Figure 0006168577
に対応する一致している点を表す。クラウドアレイ{P,P,P3…,P}の全ての点が第2フレームに対してマッチングが行われた場合、第2投射アレイのサイズは、クラウドアレイのサイズと同じであり得る。しかし、殆どの場合、全ての点が第2フレームに対してマッチングが行われ得るわけではないので、第2投射アレイのサイズは、クラウドアレイ{P,P,P3…,P}のサイズ未満である。第1フレームの点クラウドの第2フレームに対するマッチングは、図9を参照して説明されている、2つの点の類似性を決定するのに3×3画素が比較される方法により達成され得る。
次に、841で、第1立体フレームに対する第2立体フレームの動きが測定される。841は3つのステップから成る。842で、IMU150は、複数の回転測定値を測定するよう構成され、それらはコントローラ120に渡される。複数の回転測定値は、3次元アレイRにより表される。回転測定値アレイRにより、第1フレームの点クラウドアレイと第2フレームの投射された点アレイとの間の関係は
Figure 0006168577
数式(9)
として表され得、ここで、Rは、複数の回転測定値を表す3次元アレイであり、Pjは、第1フレームの立体点であり、Tは、計算されることになる第2フレームの並進の3次元アレイを表し、μは、因数としての働きをする乱数である。
IMU150により測定される相対的な回転アレイの的確性を保証すべく、第1フレームが撮像された時点と第2フレームが撮像された時点との間の間隔は比較的短い。第1フレームおよび第2フレーム間の間隔は通常、実際の用途の要求に依存して、20分の1から60分の1秒の範囲内であり得る。
数式9には3つの知られていない値(Tx,Ty,Tz)がある。ゆえに、数学の原理によると、844でそれら3つの知られていない値を有するアレイTを一緒に解くには3つの数式が必要とされる。しかし、投射された複数の点のそれぞれは、xおよびyにおいて2つの値のみを有する。したがて、Tにおける3つの知られていない値を解くために、2つのそのような点に関して利用可能な4つの数式のうち3つの数式を組み合わせる必要がある。
現実的には、第1立体フレームと第2立体フレームとの間の複数の点のマッチングにおけるエラーおよび/または不的確性が原因となり、計算されたTが的確ではないかもしれない。846で、計算された並進アレイTが数式9に導入され、数式において定義されている関係に適合する点の数を決定するよう計算が行われる。そして、844でTを解くのに他の一対の点が用いられ得、それはその後、846で数式9の関係に適合する点の数を決定するよう計算するのに用いられる。この処理は予め定められた数の複数の対の点に関して繰り返され、その結果として、各Tの数式9に適合する点の数と共に予め定められた数の複数のTが得られる。
548で、適合する複数の点の複数の数が比較され、適合する点の数が最も多いTが選択される。
851で、計算されたTおよび測定されたRを用いて、修正された数式9
Figure 0006168577
数式(10)を用いて第2立体フレームに関する立体点クラウドを取得し得る。
861で、第2立体フレームの計算された立体点クラウドが、第1立体フレームの立体点クラウドと融合される。第1立体フレームは第2立体フレームと置き換えられ、新たな第2立体フレームが次の時点において取得される。図13を参照して説明された処理が何度も繰り返され、途切れない位置推定および地図生成が実行され得る。
説明されている複数の実施形態は、様々な複数の変更及び代替的な複数の形態の対象であり得るものであり、これらの複数の具体例は、複数の図面において、例として示されたものであり、本明細書において詳細に説明されている。しかしながら、説明されている複数の実施形態は、開示された特定の複数の形態または複数の方法に限定されるものではなく、反対に、本開示は、全ての変更、均等物及び代替物を包含するものであることが理解されるべきである。
[項目1]
マイクロレンズアレイを有する立体画像化システムの基準線を設定する方法であって、
前記マイクロレンズアレイと関心対象の被写体との間の被写体距離を取得するステップと、
前記被写体距離を取得する前記ステップに基づき前記マイクロレンズアレイから2つのレンズを動的に選択するステップと
を備える方法。
[項目2]
前記2つのレンズを動的に選択する前記ステップは、前記マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択するステップを有する、項目1に記載の方法。
[項目3]
前記被写体距離を取得する前記ステップは、前記マイクロレンズアレイと関心対象の被写体との間の変化する被写体距離を繰り返し取得するステップを有し、
前記マイクロレンズアレイの複数のレンズから前記第1レンズおよび前記第2レンズを選択する前記ステップは、前記変化する被写体距離を繰り返し取得する前記ステップに基づく、項目2に記載の方法。
[項目4]
前記第1レンズおよび前記第2レンズを選択する前記ステップに基づき前記基準線を設定するステップをさらに備える、項目2または項目3に記載の方法。
[項目5]
前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離に基づき前記基準線を自動的に調節するステップをさらに備える、項目4に記載の方法。
[項目6]
前記被写体距離を取得する前記ステップは、
前記第1レンズを介して前記関心対象の被写体の第1画像を取得するステップと、
前記第2レンズを介して前記関心対象の被写体の第2画像を取得するステップと、
前記第1画像と前記第2画像との間の両眼視差を決定するステップと
を有し、
前記被写体距離を取得する前記ステップは、前記両眼視差を決定する前記ステップに基づき前記被写体距離を計算するステップを有する、項目2に記載の方法。
[項目7]
前記被写体距離を取得する前記ステップは、前記両眼視差を決定する前記ステップの前に前記第1レンズおよび前記第2レンズの複数の焦点距離に基づき、修正された焦点距離を計算するステップをさらに有する、項目6に記載の方法。
[項目8]
前記被写体距離を取得する前記ステップは、
前記第1画像上の複数の特徴点を取得するステップと、
前記第1画像の前記複数の特徴点の、前記第2画像の複数の点とのマッチングを行うステップと
を有する、項目6または項目7に記載の方法。
[項目9]
前記複数の特徴点は、前記第1画像または前記第2画像のうち一方の複数の画素を含む、項目8に記載の方法。
[項目10]
前記両眼視差を決定する前記ステップは、少なくとも5画素および画像の幅の5分の1またはそれより短い前記両眼視差を決定するステップを含む、項目8または項目9に記載の方法。
[項目11]
前記複数の特徴点のマッチングを行う前記ステップは、
前記第2画像を走査して、前記第1画像の選択された特徴点に一致している前記第2画像の点を識別するステップと、
前記第1画像の前記選択された特徴点と前記点との間の類似性を計算するステップと
を含む、項目8から10の何れか一項に記載の方法。
[項目12]
前記類似性を計算する前記ステップは、前記第1画像の前記選択された特徴点を、前記第2画像上の前記点を中心とした3×3画素のエリアと比較するステップを含む、項目11に記載の方法。
[項目13]
3×3画素のエリアを比較する前記ステップは、複数のカラー画像の各画素の各色成分に関する複数の差の合計、または複数の白黒画像の各画素の複数のグレースケール値の複数の差の合計を比較するステップを含む、項目12に記載の方法。
[項目14]
前記被写体距離を取得する前記ステップは、
前記マイクロレンズアレイと前記複数の特徴点のそれぞれとの間の複数のそれぞれの特徴距離を決定するステップと、
複数の前記特徴距離を用いて前記被写体距離を決定するステップと
をさらに有する、前記項目の何れか一項に記載の方法。
[項目15]
前記被写体距離を決定する前記ステップは、前記複数の特徴距離の平均に基づき前記被写体距離を取得するステップを含む、項目14に記載の方法。
[項目16]
前記被写体距離を決定する前記ステップは、前記複数の特徴点のうち1または複数を選択するステップと、選択された前記特徴点の前記特徴距離に基づき前記被写体距離を取得するステップとを含む、項目14または項目15に記載の方法。
[項目17]
前記特徴点を選択する前記ステップは、前記マイクロレンズアレイに最も近い予め定められた割合の複数の特徴点を選択するステップと、前記マイクロレンズアレイから最も遠い選択された前記特徴点の前記特徴距離として前記被写体距離を取得するステップとを含む、項目16に記載の方法。
[項目18]
前記2つのレンズを動的に選択する前記ステップは、
前記マイクロレンズアレイのために利用可能な最小基準線と、修正された焦点距離と、予め定められた視差範囲とに基づき、前記被写体距離の検出範囲を推定するステップと、
前記被写体距離の推定された前記検出範囲に基づき基準線範囲を計算するステップと、
予め定められたレベルより大きい視差を確かなものにしながら最小基準線により選択するステップと
を有する、前記項目の何れか一項に記載の方法。
[項目19]
前記第1レンズおよび前記第2レンズを選択する前記ステップは、
Z=f×(T/(x −x ))[Zは前記被写体距離であり、fは、前記複数の選択されたレンズの前記修正された焦点距離であり、Tは、2つの最も近いレンズ間の前記基準線であり、(x −x )は、2つの一致した点の視差である]により前記被写体距離の検出範囲(ZminからZmax)を推定するステップと、
T=Zd/f[d=(x −x )は前記視差である]により利用可能な複数の基準線の範囲を計算するステップと、
前記視差d>10の関係が満たされることを確保しながら最小基準線Tにより前記第1レンズおよび前記第2レンズを選択するステップと
を含む、項目2から18の何れか一項に記載の方法。
[項目20]
前記第1レンズおよび前記第2レンズを選択する前記ステップは、前記第1レンズの視野が少なくとも50%だけ前記第2レンズの視野と重なるまで前記基準線を大きくするステップを含む、項目2から19の何れか一項に記載の方法。
[項目21]
前記基準線の前記自動調節の後に前記立体画像化システムの複数の外部パラメータを較正するステップをさらに備える、項目5に記載の方法。
[項目22]
較正する前記ステップは、前記立体画像化システムの並進に関する外部パラメータおよび/または回転に関する外部パラメータのうち少なくとも1つを較正するステップを有する、項目21に記載の方法。
[項目23]
較正する前記ステップは、前記2つのレンズを選択する前記段階に従って、複数の前記並進に関する外部パラメータを最初に較正するステップを有する、項目22に記載の方法。
[項目24]
較正する前記ステップは、最初に較正する前記段階の後に、前記外部パラメータを較正して前記外部パラメータを最適化するステップをさらに有する、項目23に記載の方法。
[項目25]
前記立体画像化システムは、モバイルプラットフォームに乗せて設置され、自動的に調節する前記ステップは、前記モバイルプラットフォームの移動モードに依存する、項目5から23の何れか一項に記載の方法。
[項目26]
前記モバイルプラットフォームは無人航空機(UAV)であり、前記移動モードは前記UAVの飛行モードである、項目24に記載の方法。
[項目27]
項目1から26の何れか一項に従って自動的な基準線調節を実行するよう構成された、立体画像化システム。
[項目28]
項目1から26の何れか一項に従って、マイクロレンズアレイを有する立体画像化システムの基準線を自動的に調節するための複数の命令を備える、コンピュータプログラムプロダクト。
[項目29]
個別に、または1または複数の他のレンズとの組み合わせで画像を取得するようそれぞれが構成された複数のレンズを有するマイクロレンズアレイと、
前記マイクロレンズアレイと関心対象の被写体との間の取得された被写体距離に基づき2つのレンズを動的に選択するよう構成されたコントローラと
を備える、立体画像化システムの基準線を設定するための装置。
[項目30]
前記コントローラは、前記マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択するよう構成される、項目29に記載の装置。
[項目31]
前記コントローラは、前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離を取得し、前記変化する被写体距離の繰り返しの前記取得に基づき、前記マイクロレンズアレイの複数のレンズから前記第1レンズおよび前記第2レンズを選択するよう構成される、項目30に記載の装置。
[項目32]
前記コントローラは、前記第1レンズおよび前記第2レンズに基づき前記基準線を設定するよう構成される、項目31に記載の装置。
[項目33]
前記コントローラは、前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離に基づき前記基準線を動的に調節するよう構成される、項目32に記載の装置。
[項目34]
前記コントローラは、
前記第1レンズを介して前記関心対象の被写体の第1画像を取得し、
前記第2レンズを介して前記関心対象の被写体の第2画像を取得し、
前記第1画像と前記第2画像との間の両眼視差を決定し、
前記両眼視差の前記決定に基づき前記被写体距離を計算する
ことにより、前記被写体距離を取得するよう構成される、項目31から33の何れか一項に記載の装置。
[項目35]
前記コントローラは、前記両眼視差の前記決定の前に前記第1レンズおよび前記第2レンズの複数の焦点距離に基づき、修正された焦点距離を計算するよう構成される、項目34に記載の装置。
[項目36]
前記コントローラは、前記第1画像上の複数の特徴点を取得し、前記第1画像の前記複数の特徴点の、前記第2画像の複数の点とのマッチングを行うよう構成される、項目34または35に記載の装置。
[項目37]
前記複数の特徴点は、前記第1画像または前記第2画像のうち一方の複数の画素を含む、項目36に記載の装置。
[項目38]
前記コントローラは、少なくとも5画素および画像の幅の5分の1またはそれより短い前記両眼視差を決定するよう構成される、項目36または37に記載の装置。
[項目39]
前記コントローラは、前記第2画像を走査して、前記第1画像の選択された特徴点に一致する前記第2画像の点を識別し、前記第1画像の前記選択された特徴点と前記点との間の類似性を計算するよう構成される、項目38に記載の装置。
[項目40]
前記コントローラは、前記第1画像の各選択された特徴点を、前記第2画像上の前記点を中心とした3×3画素のエリアと比較するよう構成される、項目39に記載の装置。
[項目41]
前記コントローラは、複数のカラー画像の各画素の各色成分に関する複数の差の合計、または複数の白黒画像の各画素の複数のグレースケール値の複数の差の合計を比較するよう構成される、項目40に記載の装置。
[項目42]
前記コントローラは、前記マイクロレンズアレイと前記複数の特徴点のそれぞれとの間の複数のそれぞれの特徴距離を決定し、複数の前記特徴距離を用いて前記被写体距離を決定するよう構成される、項目36から41の何れか一項に記載の装置。
[項目43]
前記被写体距離は、前記複数の特徴距離の平均である、項目42に記載の装置。
[項目44]
前記コントローラは、前記複数の特徴点のうち1または複数を選択し、選択された前記特徴点の前記特徴距離に基づき前記被写体距離を取得するよう構成される、項目42または43に記載の装置。
[項目45]
前記複数の特徴点は、前記マイクロレンズアレイに最も近い、または前記マイクロレンズアレイから最も遠い予め定められた割合の複数の特徴点が選択される、項目44に記載の装置。
[項目46]
前記コントローラは、
前記マイクロレンズアレイのために利用可能な最小基準線と、修正された焦点距離と、予め定められた視差範囲とに基づき、前記被写体距離の検出範囲を推定し、
前記被写体距離の推定された前記検出範囲に基づき基準線範囲を計算し、
視差が予め定められたレベルより大きいことを確保しながら最小基準線により選択する
ことにより、前記第1レンズおよび前記第2レンズを選択するよう構成される、項目30から45の何れか一項に記載の装置。
[項目47]
前記第1レンズおよび前記第2レンズは、
Z=f×(T/(x −x ))[Zは前記被写体距離であり、fは、選択された前記第1レンズおよび前記第2レンズの前記修正された焦点距離であり、Tは、2つの最も近いマイクロレンズ間の前記基準線であり、(x −x )は、2つの一致した点の視差である]により前記被写体距離の検出範囲(ZminからZmax)を推定し、
T=Zd/f[d=(x −x )は前記視差である]により利用可能な複数の基準線の範囲を計算し、
前記視差d>10の関係を確かなものにしながら最小基準線Tにより前記第1レンズおよび前記第2レンズを選択する
ことにより選択される、項目30から46の何れか一項に記載の装置。
[項目48]
前記コントローラは、前記第1レンズの視野が少なくとも50%だけ前記第2レンズの視野と重なるまで前記基準線を大きくするよう構成される、項目30から47の何れか一項に記載の装置。
[項目49]
前記コントローラは、前記基準線の前記調節の後に前記立体画像化システムの複数の外部パラメータを較正するよう構成される、項目33から48の何れか一項に記載の装置。
[項目50]
前記複数の外部パラメータは、前記立体画像化システムの並進に関する外部パラメータおよび/または回転に関する外部パラメータのうち少なくとも1つを含む、項目49に記載の装置。
[項目51]
複数の前記並進に関する外部パラメータは、前記第1レンズおよび前記第2レンズに従って最初に較正される、項目50に記載の装置。
[項目52]
前記コントローラは、最初の前記較正の後に前記複数の外部パラメータを較正して、前記外部パラメータを最適化するよう構成される、項目51に記載の装置。
[項目53]
前記立体画像化システムは無人航空機(UAV)であり、前記基準線の前記調節は、前記UAVの飛行モードに依存する、項目52に記載の装置。
[項目54]
前記立体画像化システムは赤外線画像化システムである、項目30から53の何れか一項に記載の装置。
[項目55]
前記立体画像化システムはX線画像化システムである、項目30から54の何れか一項に記載の装置。
[項目56]
マイクロレンズアレイを有する撮像装置により同時位置推定および地図生成(SLAM)を実行する方法であって、
項目2から26の何れか一項に記載の方法を通じて前記マイクロレンズアレイにより第1立体フレームおよび第2立体フレームを取得する段階と、
第1立体フレームに対する前記第2フレームの複数の回転を慣性測定ユニットIMUにより測定して回転データを生成する段階と、
前記回転データを前記第1立体フレームおよび前記第2立体フレームと組み合わることにより前記第1立体フレームおよび前記第2立体フレームのマッチングを行う段階と
を備え、
前記第1立体フレームは、予め定められた割合だけ前記第2立体フレームと重なる、方法。
[項目57]
前記第1立体フレームおよび前記第2立体フレームを取得する前記段階は、異なる複数の時点において前記第1立体フレームおよび前記第2立体フレームを取得する段階を有する、項目56に記載の同時位置推定および地図生成のための方法。
[項目58]
異なる複数の時点において前記第1立体フレームおよび前記第2立体フレームを取得する前記段階は、60分の1秒またはそれより長い、および20分の1秒またはそれより短い間隔で前記第1立体フレームおよび前記第2立体フレームを取得する段階を含む、項目57に記載の同時位置推定および地図生成のための方法。
[項目59]
前記第1立体フレームに基づき立体点クラウドを取得する段階をさらに備え、
前記立体点クラウドは複数の立体特徴点のアレイ{P ,P ,P 3… ,P }である、項目58に記載の同時位置推定および地図生成のための方法。
[項目60]
前記立体点クラウドに基づきx−y面における第2投射アレイ
Figure 0006168577
を取得する段階をさらに備える、項目59に記載の同時位置推定および地図生成のための方法。
[項目61]
前記第2投射アレイを取得する前記段階は、
前記立体点クラウドに基づきx−y面における第1投射アレイ
Figure 0006168577
を取得する段階と、
項目11から13の何れか一項に記載の方法を用いて、前記第2立体画像に対して前記第1投射アレイの複数の点のマッチングを行って、前記第2投射アレイ
Figure 0006168577
を生成する段階と
を有する、項目60に記載の同時位置推定および地図生成のための方法。
[項目62]
前記回転データ、前記立体点クラウド、および前記第2投射アレイに基づき並進アレイTを計算する段階をさらに備える、項目61に記載の同時位置推定および地図生成のための方法。
[項目63]
前記並進アレイTを計算する前記段階は、関係
Figure 0006168577
[Rは、複数の回転測定値のアレイであり、Pjは立体点であり、Tは、計算されることになる並進アレイを表し、μは乱数である]を適用する段階を有する、項目62に記載の同時位置推定および地図生成のための方法。
[項目64]
Figure 0006168577
を適用する前記段階は、前記立体点クラウドから選択される少なくとも2つの点、およびそれらの、前記第2投射アレイの一致している2つの点に関して一式の数式を解くことによりTを計算する段階をさらに含む、項目63に記載の同時位置推定および地図生成のための方法。
[項目65]
前記立体点クラウドから選択される複数の点、およびそれらの、前記第2投射アレイの対応する複数の投射点を用いて前記並進アレイTを数式
Figure 0006168577
へ導入することによりTを検証して、一致している複数の点の計数を得る段階と、
一致している複数の点の最大計数を有する並進アレイTを選択された並進アレイTとして選択する段階と
をさらに備える、項目62から64の何れか一項に記載の同時位置推定および地図生成のための方法。
[項目66]
前記回転データ、前記選択された並進T、および前記関係
Figure 0006168577
を用いて前記第2フレームに関して立体点クラウドを計算する段階をさらに備える、項目65に記載の同時位置推定および地図生成のための方法。
[項目67]
項目2から26の何れか一項に記載の方法を通じて、前記マイクロレンズアレイにより他の立体フレームを取得する段階と、
項目56から66に規定される複数の前記段階を、前記第2立体フレームを前記第1立体フレームとし、新たに取得された前記立体フレームを前記第2立体フレームとして繰り返す段階と
をさらに備える、項目56から66の何れか一項に記載の同時位置推定および地図生成のための方法。
[項目68]
項目56から67の何れか一項に従って自動位置推定および地図生成を実行するよう構成された同時位置推定および地図生成システム。
[項目69]
マイクロレンズアレイを有する立体画像化システムにより、項目56から67の何れか一項に従って同時位置推定および地図生成を自動的に実行するための複数の命令を備える、コンピュータプログラムプロダクト。
[項目70]
マイクロレンズアレイを有する撮像装置により同時位置推定および地図生成(SLAM)を実行するための装置であって、
第1時点における第1立体フレームに対する第2時点において取得される第2立体フレームの複数の回転を測定するよう構成された慣性測定ユニットIMUと、
項目2から26の何れか一項の方法を通じて、前記マイクロレンズアレイにより前記第1立体フレームおよび前記第2立体フレームを取得し、前記IMUから前記第2立体フレームの回転データを取得し、前記回転データを前記第1立体フレームおよび前記第2立体フレームと組み合わせることにより前記第1立体フレームおよび前記第2立体フレームのマッチングを行うよう構成されたコントローラと
を備え、
前記第1立体フレームは、予め定められた割合だけ前記第2立体フレームと重なる、装置。
[項目71]
前記第1立体フレームおよび前記第2立体フレームは、異なる複数の時点において取得される、項目70に記載の同時位置推定および地図生成のための装置。
[項目72]
前記異なる複数の時点間の間隔は、60分の1秒またはそれより長く、および20分の1秒またはそれより短い、項目71に記載の同時位置推定および地図生成のための装置。
[項目73]
前記コントローラはさらに、前記第1立体フレームに基づき立体点クラウドを取得するよう構成され、
前記立体点クラウドは、複数の立体特徴点のアレイ{P ,P ,P 3… ,P }である、項目72に記載の同時位置推定および地図生成のための装置。
[項目74]
前記コントローラはさらに、前記立体点クラウドに基づきx−y面における第2投射アレイ
Figure 0006168577
を取得するよう構成される、項目73に記載の同時位置推定および地図生成のための装置。
[項目75]
前記コントローラは、
前記立体点クラウドに基づきx−y面における第1投射アレイ
Figure 0006168577
を取得し、
項目11から13の何れか一項に記載の方法を用いて、前記第2立体画像に対して前記第1投射アレイの複数の点のマッチングを行って、前記第2投射アレイ
Figure 0006168577
を生成する
ことにより前記第2投射アレイを取得するよう構成される、項目74に記載の同時位置推定および地図生成のための装置。
[項目76]
前記コントローラはさらに、前記回転データ、前記立体点クラウド、および前記第2投射アレイに基づき並進アレイTを計算するよう構成される、項目75に記載の同時位置推定および地図生成のための装置。
[項目77]
前記並進アレイTは、関係
Figure 0006168577
[Rは、複数の回転測定値のアレイであり、Pjは、前記立体点クラウドの立体点であり、Tは、計算されることになる前記並進アレイを表し、μは乱数である]を適用することにより計算される、項目76に記載の同時位置推定および地図生成のための装置。
[項目78]
前記並進アレイTは、前記立体点クラウドから選択される少なくとも2つの点、およびそれらの、前記第2投射アレイの一致している2つの点に関して一式の数式を解くことにより計算される、項目77に記載の同時位置推定および地図生成のための装置。
[項目79]
前記コントローラは、
前記立体点クラウドから選択される複数の点、およびそれらの、前記第2投射アレイの対応する複数の投射点を用いて前記並進アレイTを数式
Figure 0006168577
へ導入することによりTを検証して、一致している複数の点の計数を得、
一致している複数の点の数が最も多い並進アレイTを選択された並進アレイTとして選択するよう構成される、項目70から78の何れか一項に記載の同時位置推定および地図生成のための装置。
[項目80]
前記コントローラは、前記回転データ、前記選択された並進T、および前記関係
Figure 0006168577
を用いて前記第2フレームに関して立体点クラウドを計算するよう構成される、項目79に記載の同時位置推定および地図生成のための装置。
[項目81]
前記コントローラは、前記マイクロレンズアレイにより、項目2から26の何れか一項に記載の方法を通じて他の立体フレームを取得し、前記第2立体フレームを前記第1立体フレームとし、新たに取得された前記立体フレームを前記第2立体フレームとするよう構成される、項目70から80の何れか一項に記載の同時位置推定および地図生成のための装置。

Claims (51)

  1. マイクロレンズアレイを有する立体画像化システムの基準線を設定する方法であって、
    前記マイクロレンズアレイと関心対象の被写体との間の被写体距離を取得するステップと、
    前記被写体距離を取得する前記ステップに基づき、前記マイクロレンズアレイから2つのレンズを動的に選択するステップと
    を含み、
    前記マイクロレンズアレイから2つのレンズを動的に選択するステップは、
    前記被写体距離及び2つのレンズの修正された焦点距離に基づき、予め定められたレベルより大きい視差が得られ、かつ、基準線が最小となる2つのレンズを、前記マイクロレンズアレイから選択するステップ
    を有する、
    方法。
  2. マイクロレンズアレイを有する立体画像化システムの基準線を設定する方法であって、
    前記マイクロレンズアレイと関心対象の被写体との間の被写体距離を取得するステップと、
    前記被写体距離を取得する前記ステップに基づき、前記マイクロレンズアレイから2つのレンズを動的に選択するステップと
    を含み、
    前記マイクロレンズアレイから2つのレンズを動的に選択するステップは、
    T=Zd/f[Zは前記被写体距離であり、fは2つのレンズの修正された焦点距離であり、dは視差であり、Tは2つのレンズの基準線である]に基づいて、d>10を満たし、かつ、Tが最小となる2つのレンズを、前記マイクロレンズアレイから選択するステップ
    を有する、方法。
  3. 前記2つのレンズを動的に選択するステップは、前記マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択するステップを有する、請求項1または請求項2に記載の方法。
  4. 前記被写体距離を取得するステップは、前記マイクロレンズアレイと関心対象の被写体との間の変化する被写体距離を繰り返し取得するステップを有し、
    前記第1レンズおよび前記第2レンズを選択するステップは、前記変化する被写体距離を繰り返し取得する前記ステップに基づき、前記マイクロレンズアレイの複数のレンズから前記第1レンズおよび前記第2レンズを選択する、請求項に記載の方法。
  5. 前記第1レンズおよび前記第2レンズを選択するステップに基づき前記基準線を設定するステップをさらに含む、請求項または請求項に記載の方法。
  6. 前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離に基づき、前記基準線を自動的に調節するステップをさらに含む、請求項に記載の方法。
  7. 前記被写体距離を取得するステップは、
    前記第1レンズを介して前記関心対象の被写体の第1画像を取得するステップと、
    前記第2レンズを介して前記関心対象の被写体の第2画像を取得するステップと、
    前記第1画像と前記第2画像との間の両眼視差を決定するステップと
    を有し、
    前記被写体距離を取得するステップは、前記両眼視差を決定するステップに基づき前記被写体距離を計算するステップを有する、請求項4から請求項6の何れか一項に記載の方法。
  8. 前記被写体距離を取得する前記ステップは、前記両眼視差を決定する前記ステップの前に前記第1レンズおよび前記第2レンズの複数の焦点距離に基づき、修正された焦点距離を計算するステップをさらに有する、請求項に記載の方法。
  9. 前記被写体距離を取得するステップは、
    前記第1画像上の複数の特徴点を取得するステップと、
    前記第1画像の前記複数の特徴点の、前記第2画像の複数の点とのマッチングを行うステップと
    を有する、請求項または請求項に記載の方法。
  10. 前記複数の特徴点は、前記第1画像または前記第2画像のうち一方の複数の画素を含む、請求項に記載の方法。
  11. 前記両眼視差を決定するステップは、少なくとも5画素および画像の幅の5分の1またはそれより短い前記両眼視差を決定するステップを含む、請求項または請求項10に記載の方法。
  12. 前記複数の特徴点のマッチングを行うステップは、
    前記第2画像を走査して、前記第1画像の選択された特徴点に一致している前記第2画像の点を識別するステップと、
    前記第1画像の前記選択された特徴点と前記点との間の類似性を計算するステップと
    を含む、請求項から請求項11の何れか一項に記載の方法。
  13. 前記類似性を計算する前記ステップは、前記第1画像の前記選択された特徴点を、前記第2画像上の前記点を中心とした3×3画素のエリアと比較するステップを含む、請求項12に記載の方法。
  14. 前記3×3画素のエリアを比較するステップは、複数のカラー画像の各画素の各色成分に関する複数の差の合計、または複数の白黒画像の各画素の複数のグレースケール値の複数の差の合計を比較するステップを含む、請求項13に記載の方法。
  15. 前記被写体距離を取得するステップは、
    前記マイクロレンズアレイと前記複数の特徴点のそれぞれとの間の複数のそれぞれの特徴距離を決定するステップと、
    複数の前記特徴距離を用いて前記被写体距離を決定するステップと
    をさらに有する、請求項から請求項14の何れか一項に記載の方法。
  16. 前記被写体距離を決定するステップは、前記複数の特徴距離の平均に基づき前記被写体距離を取得するステップを含む、請求項15に記載の方法。
  17. 前記被写体距離を決定するステップは、前記複数の特徴点のうち1または複数を選択するステップと、選択された前記1または複数の特徴点の前記特徴距離に基づき前記被写体距離を取得するステップとを含む、請求項15または請求項16に記載の方法。
  18. 前記1または複数の特徴点を選択するステップは、前記マイクロレンズアレイに最も近い予め定められた割合の複数の特徴点を選択するステップと、前記マイクロレンズアレイから最も遠い選択された特徴点の前記特徴距離として前記被写体距離を取得するステップとを含む、請求項17に記載の方法。
  19. 前記基準線を前記自動的に調節するステップの後に前記立体画像化システムの複数の外部パラメータを較正するステップをさらに含む、請求項に記載の方法。
  20. 前記較正するステップは、前記立体画像化システムの並進に関する外部パラメータおよび回転に関する外部パラメータのうち少なくとも1つを較正するステップを有する、請求項19に記載の方法。
  21. 前記較正するステップは、複数の前記並進に関する外部パラメータを最初に較正するステップを有する、請求項20に記載の方法。
  22. 前記較正するステップの後には、前記外部パラメータを較正して前記外部パラメータを最適化するステップをさらに有する、請求項21に記載の方法。
  23. 前記立体画像化システムは、モバイルプラットフォームに乗せて設置され、自動的に調節する前記ステップは、前記モバイルプラットフォームの移動モードに依存する、請求項6、請求項19から請求項22の何れか一項に記載の方法。
  24. 前記モバイルプラットフォームは無人航空機(UAV)であり、前記移動モードは前記UAVの飛行モードである、請求項23に記載の方法。
  25. 請求項1から請求項24の何れか一項に記載の方法に従って自動的な基準線調節を実行するよう構成された、立体画像化システム。
  26. 請求項1から請求項24の何れか一項に記載の方法に従って、マイクロレンズアレイを有する立体画像化システムの基準線を自動的に調節するための複数の命令を備える、コンピュータプログラム。
  27. 1または複数の他のレンズとの組み合わせで画像を取得する複数のレンズを有するマイクロレンズアレイと、
    前記マイクロレンズアレイと関心対象の被写体との間の取得された被写体距離に基づき2つのレンズを動的に選択するコントローラと
    を備え
    前記コントローラは、前記被写体距離及び2つのレンズの修正された焦点距離に基づき、予め定められたレベルより大きい視差が得られ、かつ、基準線が最小となる2つのレンズを、前記マイクロレンズアレイから選択する、
    立体画像化システムの基準線を設定する装置。
  28. 1または複数の他のレンズとの組み合わせで画像を取得する複数のレンズを有するマイクロレンズアレイと、
    前記マイクロレンズアレイと関心対象の被写体との間の取得された被写体距離に基づき2つのレンズを選択するコントローラと
    を備え、
    前記コントローラは、T=Zd/f[Zは前記被写体距離であり、fは2つのレンズの修正された焦点距離であり、dは視差であり、Tは2つのレンズの基準線である]に基づいて、d>10を満たし、かつ、Tが最小となる2つのレンズを、前記マイクロレンズアレイから選択する、
    立体画像化システムの基準線を設定する装置。
  29. 前記コントローラは、前記マイクロレンズアレイの複数のレンズから第1レンズおよび第2レンズを選択する、請求項27または請求項28に記載の装置。
  30. 前記コントローラは、前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離を取得し、前記変化する被写体距離の繰り返しの前記取得に基づき、前記マイクロレンズアレイの複数のレンズから前記第1レンズおよび前記第2レンズを選択する、請求項29に記載の装置。
  31. 前記コントローラは、前記第1レンズおよび前記第2レンズに基づき前記基準線を設定する、請求項29または請求項30に記載の装置。
  32. 前記コントローラは、前記マイクロレンズアレイと前記関心対象の被写体との間の変化する被写体距離に基づき前記基準線を調節する、請求項31に記載の装置。
  33. 前記コントローラは、
    前記第1レンズを介して前記関心対象の被写体の第1画像を取得し、
    前記第2レンズを介して前記関心対象の被写体の第2画像を取得し、
    前記第1画像と前記第2画像との間の両眼視差を決定し、
    前記両眼視差の前記決定に基づき前記被写体距離を計算する
    ことにより、前記被写体距離を取得する、請求項30から請求項32の何れか一項に記載の装置。
  34. 前記コントローラは、前記両眼視差の前記決定の前に前記第1レンズおよび前記第2レンズの複数の焦点距離に基づき、修正された焦点距離を計算する、請求項33に記載の装置。
  35. 前記コントローラは、前記第1画像上の複数の特徴点を取得し、前記第1画像の前記複数の特徴点の、前記第2画像の複数の点とのマッチングを行う、請求項33または請求項34に記載の装置。
  36. 前記複数の特徴点は、前記第1画像または前記第2画像のうち一方の複数の画素を含む、請求項35に記載の装置。
  37. 前記コントローラは、少なくとも5画素および画像の幅の5分の1またはそれより短い前記両眼視差を決定する、請求項35または請求項36に記載の装置。
  38. 前記コントローラは、前記第2画像を走査して、前記第1画像の選択された特徴点に一致する前記第2画像の点を識別し、前記第1画像の前記選択された特徴点と前記点との間の類似性を計算する、請求項35から請求項37の何れか一項に記載の装置。
  39. 前記コントローラは、前記第1画像の各選択された特徴点を、前記第2画像上の前記点を中心とした3×3画素のエリアと比較する、請求項38に記載の装置。
  40. 前記コントローラは、複数のカラー画像の各画素の各色成分に関する複数の差の合計、または複数の白黒画像の各画素の複数のグレースケール値の複数の差の合計を比較する、請求項39に記載の装置。
  41. 前記コントローラは、前記マイクロレンズアレイと前記複数の特徴点のそれぞれとの間の複数のそれぞれの特徴距離を決定し、複数の前記特徴距離を用いて前記被写体距離を決定する、請求項35から請求項40の何れか一項に記載の装置。
  42. 前記被写体距離は、前記複数の特徴距離の平均である、請求項41に記載の装置。
  43. 前記コントローラは、前記複数の特徴点のうち1または複数を選択し、選択された前記1または複数の特徴点の前記特徴距離に基づき前記被写体距離を取得する、請求項41または請求項42に記載の装置。
  44. 前記複数の特徴点は、前記マイクロレンズアレイに最も近い、または前記マイクロレンズアレイから最も遠い予め定められた割合の複数の特徴点が選択される、請求項43に記載の装置。
  45. 前記コントローラは、前記基準線の前記調節の後に前記立体画像化システムの複数の外部パラメータを較正する、請求項32に記載の装置。
  46. 前記複数の外部パラメータは、前記立体画像化システムの並進に関する外部パラメータおよび回転に関する外部パラメータのうち少なくとも1つを含む、請求項45に記載の装置。
  47. 複数の前記並進に関する外部パラメータは、前記第1レンズおよび前記第2レンズに従って最初に較正される、請求項46に記載の装置。
  48. 前記コントローラは、最初の前記較正の後に前記複数の外部パラメータを較正して、前記外部パラメータを最適化するよう構成される、請求項47に記載の装置。
  49. 前記立体画像化システムは無人航空機(UAV)であり、前記基準線の前記調節は、前記UAVの飛行モードに依存する、請求項32、請求項45から請求項48の何れか一項に記載の装置。
  50. 前記立体画像化システムは赤外線画像化システムである、請求項27から請求項49の何れか一項に記載の装置。
  51. 前記立体画像化システムはX線画像化システムである、請求項27から請求項49の何れか一項に記載の装置。
JP2016539306A 2014-12-31 2014-12-31 マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法 Expired - Fee Related JP6168577B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/095917 WO2016106694A1 (en) 2014-12-31 2014-12-31 System and method for adjusting a baseline of an imaging system with microlens array

Publications (2)

Publication Number Publication Date
JP2017511495A JP2017511495A (ja) 2017-04-20
JP6168577B2 true JP6168577B2 (ja) 2017-07-26

Family

ID=56283968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016539306A Expired - Fee Related JP6168577B2 (ja) 2014-12-31 2014-12-31 マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法

Country Status (5)

Country Link
US (2) US9826217B2 (ja)
EP (2) EP3799427A1 (ja)
JP (1) JP6168577B2 (ja)
CN (1) CN105940674B (ja)
WO (1) WO2016106694A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD790053S1 (en) * 2015-08-27 2017-06-20 Mustang Sampling, Llc Chromatograph exhaust vent back pressure diffuser
US10706569B2 (en) * 2016-06-08 2020-07-07 Amazon Technologies, Inc. Selectively paired imaging elements for stereo images
CN109074476A (zh) * 2016-08-01 2018-12-21 深圳市大疆创新科技有限公司 用于障碍物规避的系统以及方法
CN109983468A (zh) * 2016-12-01 2019-07-05 深圳市大疆创新科技有限公司 使用特征点检测和跟踪对象的方法和系统
WO2018139879A1 (en) * 2017-01-25 2018-08-02 Samsung Electronics Co., Ltd. Method and apparatus for determining stereoscopic multimedia information
CN108615243B (zh) * 2017-01-25 2024-10-22 北京三星通信技术研究有限公司 立体多媒体信息的确定方法、装置及系统
USD848383S1 (en) 2017-07-13 2019-05-14 Fat Shark Technology SEZC Printed circuit board
US10179647B1 (en) 2017-07-13 2019-01-15 Fat Shark Technology SEZC Unmanned aerial vehicle
USD825381S1 (en) 2017-07-13 2018-08-14 Fat Shark Technology SEZC Unmanned aerial vehicle
EP3459462A1 (en) * 2017-09-26 2019-03-27 Koninklijke Philips N.V. Mobile x-ray imaging system
CN108235725B (zh) * 2018-02-26 2021-08-10 达闼机器人有限公司 基于云端的轨迹地图生成方法、装置、设备及应用程序
CN109068118B (zh) * 2018-09-11 2020-11-27 北京旷视科技有限公司 双摄模组的基线距离调整方法、装置及双摄模组
CN111416973A (zh) * 2019-01-08 2020-07-14 三赢科技(深圳)有限公司 三维感测装置
CN109947886B (zh) * 2019-03-19 2023-01-10 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1466137B1 (en) * 2001-12-28 2010-04-14 Rudolph Technologies, Inc. Stereoscopic three-dimensional metrology system and method
US7702229B2 (en) * 2006-10-18 2010-04-20 Eastman Kodak Company Lens array assisted focus detection
US20080310757A1 (en) * 2007-06-15 2008-12-18 George Wolberg System and related methods for automatically aligning 2D images of a scene to a 3D model of the scene
WO2009141998A1 (ja) * 2008-05-19 2009-11-26 パナソニック株式会社 キャリブレーション方法、キャリブレーション装置及びその装置を備えるキャリブレーションシステム
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
US9144714B2 (en) * 2009-05-02 2015-09-29 Steven J. Hollinger Ball with camera for reconnaissance or recreation and network for operating the same
JP5553202B2 (ja) * 2010-01-14 2014-07-16 株式会社リコー 距離測定装置及び距離測定方法
JP5776173B2 (ja) * 2010-03-01 2015-09-09 株式会社リコー 撮像装置及び距離測定装置
EP2400261A1 (de) * 2010-06-21 2011-12-28 Leica Geosystems AG Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
US9267797B2 (en) * 2010-06-22 2016-02-23 Ricoh Company, Ltd. Range-finding device and imaging apparatus
US8717467B2 (en) * 2011-01-25 2014-05-06 Aptina Imaging Corporation Imaging systems with array cameras for depth sensing
CN102164298B (zh) * 2011-05-18 2012-10-03 长春理工大学 全景成像系统中基于立体匹配的元素图像获取方法
JP5762211B2 (ja) * 2011-08-11 2015-08-12 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
IL217361A0 (en) * 2012-01-04 2012-03-29 Rafael Advanced Defense Sys Device & method providing combined video camera and range finder functionality
JP2013172292A (ja) * 2012-02-21 2013-09-02 Sony Corp 撮像装置及び撮像素子アレイ
EP4296963B1 (en) * 2012-08-21 2025-01-15 Adeia Imaging LLC Method for depth detection in images captured using array cameras
US9398287B2 (en) * 2013-02-28 2016-07-19 Google Technology Holdings LLC Context-based depth sensor control
WO2014145856A1 (en) * 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
CN103793911A (zh) * 2014-01-24 2014-05-14 北京科技大学 一种基于集成图像技术的场景深度获取方法
CN103941750B (zh) * 2014-04-30 2016-08-31 东北大学 基于小型四旋翼无人机的构图装置及方法

Also Published As

Publication number Publication date
EP3158731B1 (en) 2020-11-25
CN105940674B (zh) 2018-07-27
WO2016106694A1 (en) 2016-07-07
US10582188B2 (en) 2020-03-03
US20160301916A1 (en) 2016-10-13
EP3158731A4 (en) 2017-06-28
CN105940674A (zh) 2016-09-14
US9826217B2 (en) 2017-11-21
JP2017511495A (ja) 2017-04-20
EP3158731A1 (en) 2017-04-26
US20170339396A1 (en) 2017-11-23
EP3799427A1 (en) 2021-03-31

Similar Documents

Publication Publication Date Title
JP6168577B2 (ja) マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法
US8718326B2 (en) System and method for extracting three-dimensional coordinates
US20220036574A1 (en) System and method for obstacle avoidance
WO2019015154A1 (zh) 基于单目三维扫描系统的三维重构方法和装置
CN106875435B (zh) 获取深度图像的方法及系统
KR20150112362A (ko) 깊이 센서의 깊이 보정을 위한 이미지 처리방법 및 그 장치
WO2018227576A1 (zh) 地面形态检测方法及系统、无人机降落方法和无人机
JP6333396B2 (ja) モバイルプラットフォームの変位を計測する方法及び装置
US10713810B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
WO2011125937A1 (ja) キャリブレーションデータ選択装置、選択方法、及び選択プログラム、並びに三次元位置測定装置
KR101565900B1 (ko) 카메라 및 레이저 센서의 캘리브레이션 장치 및 캘리브레이션 방법
JP6694234B2 (ja) 距離測定装置
US8599278B2 (en) Method for estimating a plane in a range image and range image camera
JP6282377B2 (ja) 3次元形状計測システムおよびその計測方法
JP2019101000A (ja) 測距点群データ測定システム、および制御プログラム
JP2015049200A (ja) 計測装置、方法及びプログラム
JP6573196B2 (ja) 距離情報補正装置、距離情報補正方法及び距離情報補正プログラム
JP5727969B2 (ja) 位置推定装置、方法、及びプログラム
JP6456084B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
WO2014033731A2 (en) A system and method for depth estimation
JP6604934B2 (ja) 点群画素位置決定装置、方法、及びプログラム
Uranishi et al. Three-dimensional measurement system using a cylindrical mirror

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170621

R150 Certificate of patent or registration of utility model

Ref document number: 6168577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees