[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015502058A - マルチスペクトル撮像システム - Google Patents

マルチスペクトル撮像システム Download PDF

Info

Publication number
JP2015502058A
JP2015502058A JP2014540041A JP2014540041A JP2015502058A JP 2015502058 A JP2015502058 A JP 2015502058A JP 2014540041 A JP2014540041 A JP 2014540041A JP 2014540041 A JP2014540041 A JP 2014540041A JP 2015502058 A JP2015502058 A JP 2015502058A
Authority
JP
Japan
Prior art keywords
image
nir
visible
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014540041A
Other languages
English (en)
Other versions
JP5908599B2 (ja
Inventor
ジャン、シャオペン
ク、ガン
ワン、ジライ
ジョウ、シャオミン
シェン、リァン
アレクシク、ミリボジェ
バドダディー、サンディープ
ジョウ、シャオジー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015502058A publication Critical patent/JP2015502058A/ja
Application granted granted Critical
Publication of JP5908599B2 publication Critical patent/JP5908599B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

マルチスペクトル撮像のためのシステムおよび方法が、開示される。マルチスペクトル撮像システムは、近赤外線(NIR)撮像センサーおよび可視撮像センサーを含み得る。開示されるシステムおよび方法は、NIR画像と可視画像との間の位置合わせを改善するように実装され得る。NIR画像と可視画像とが位置合わせされると、さまざまな種類のマルチスペクトル処理技術が、位置合わせされた画像に対して実行され得る。

Description

本開示は、マルチスペクトル撮像のためのシステムおよび方法に関する。特に、本開示は、近赤外線(NIR)画像を可視画像に位置合わせするためのシステムおよび方法に関する。
スマートフォンまたはタブレットコンピューティングデバイスなどのモバイルデバイスは、ますます、広範な応用をユーザに提供するための多数のデバイスおよびソフトウェアモジュールを含むように設計されている。例えば、カメラは、モバイルデバイスの重要な特徴となりつつあり、モバイルデバイスに搭載されたカメラの画像品質と機能の両方を改善する要求が高まっている。例えば、品質を高めることを目的としてか、または立体撮像の応用などの開発されている新しい特徴のためかのどちらかで、カメラがより豊富な画像情報を取り込むことができることが望ましい。
通常、モバイルデバイスのカメラは、可視撮像センサーを使用して静止画または動画を取り込むために使用されている。改善された色の品質およびより高い信号対雑音比(SNR)を実現するために、撮像センサーは、通常、可視光スペクトルのみを取り込むように設計される。テクノロジーが進んだので、一部の可搬型電子デバイスは、立体画像も取り込むことができる。デバイスの製造業者は、この能力をサポートするためのデジタル画像処理を組み込み、単一のまたは複数のデジタル撮像センサーを利用するデバイスを導入することによって対応してきた。モバイル無線通信デバイス、タブレットコンピューティングデバイス、携帯情報端末(PDA)、個人用音楽システム、デジタルカメラ、デジタル記録デバイス、テレビ会議システムなどを含む広範な電子デバイスが、それらの電子デバイスのユーザにさまざまな能力および特徴を提供するために立体撮像能力を利用する。これらは、立体(3D)写真および動画などの3D撮像の応用を含む。
1つの実装において、近赤外線(NIR)撮像センサーおよび可視撮像センサーを含むシステムでNIR画像を可視画像に位置合わせするための電子的方法が、開示される。方法は、NIR撮像センサーからNIR画像を受信することと、可視撮像センサーから可視画像を受信することとを備える可能性がある。方法は、NIR画像中の複数のピクセルを可視画像中の複数のピクセルとマッチングして複数のマッチングされたピクセルの対を形成することをさらに含む可能性がある。さらに、方法は、それぞれのマッチングされたピクセルの対に関するピクセル視差(pixel disparity)を計算することを含む可能性がある。方法は、それぞれのマッチングされたピクセルの対に関する計算されたピクセル視差に少なくとも部分的に基づいてそれぞれのマッチングされたピクセルの対に重みを割り当てる可能性もある。方法は、割り当てられた複数の重みに少なくとも部分的に基づいてNIR画像を可視画像に位置合わせする可能性がある。
別の実装において、マルチスペクトル撮像システムが、開示される。撮像システムは、近赤外線(NIR)画像を取り込むように構成されたNIR撮像センサーと、可視光画像を取り込むように構成された可視光撮像センサーとを含む可能性がある。加えて、システムは、NIR画像中の複数のピクセルを可視光画像中の複数のピクセルとマッチングして複数のマッチングされたピクセルの対を形成するようにプログラムされた密(dense)マッチングモジュールを含む可能性がある。システムは、それぞれのマッチングされたピクセルの対に関するピクセル視差を計算するようにプログラムされた疎(sparse)マッチングモジュールも含む可能性がある。疎マッチングモジュールは、それぞれのマッチングされたピクセルの対に関する計算されたピクセル視差に少なくとも部分的に基づいてそれぞれのマッチングされたピクセルの対に重みを割り当てるようにプログラムされる可能性もある。位置合わせされた画像形成モジュールが、割り当てられた複数の重みに少なくとも部分的に基づいてNIR画像を可視画像に位置合わせするようにプログラムされる可能性がある。ストレージモジュールが、位置合わせされた画像をシステムに記憶するようにプログラムされる可能性がある。
別の実装において、撮像システムが、開示される。撮像システムは、NIR撮像センサーからNIR画像を受信するための手段と、可視撮像センサーから可視画像を受信するための手段とを含む可能性がある。システムは、NIR画像中の複数のピクセルを可視画像中の複数のピクセルとマッチングして複数のマッチングされたピクセルの対を形成するための手段も含む可能性がある。さらに、システムは、それぞれのマッチングされたピクセルの対に関するピクセル視差を計算するための手段を含む可能性がある。システムは、それぞれのマッチングされたピクセルの対に関する計算されたピクセル視差に少なくとも部分的に基づいてそれぞれのマッチングされたピクセルの対に重みを割り当てるための手段も含む可能性がある。システムは、割り当てられた複数の重みに少なくとも部分的に基づいてNIR画像を可視画像に位置合わせするための手段も含む可能性がある。
さらに別の実装において、非一時的コンピュータ可読媒体が、開示される。非一時的コンピュータ可読媒体は、実行されるときに、コンピュータによって実施される方法を実行するコードを記憶している可能性がある。コンピュータによって実施される方法は、NIR撮像センサーからNIR画像を受信することと、可視撮像センサーから可視画像を受信することとを含む可能性がある。非一時的コンピュータ可読媒体に記憶されるコードは、実行されるときに、NIR画像中の複数のピクセルを可視画像中の複数のピクセルとマッチングして複数のマッチングされたピクセルの対を形成することをさらに含む方法を実行する可能性がある。コンピュータによって実施される方法は、それぞれのマッチングされたピクセルの対に関するピクセル視差を計算することも含む可能性がある。さらに、非一時的コンピュータ可読媒体に記憶されるコードは、実行されるときに、それぞれのマッチングされたピクセルの対に関する計算されたピクセル視差に少なくとも部分的に基づいてそれぞれのマッチングされたピクセルの対に重みを割り当てることをさらに含む方法を実行する可能性がある。コンピュータによって実施される方法は、割り当てられた複数の重みに少なくとも部分的に基づいてNIR画像を可視画像に位置合わせすることも含む可能性がある。
本明細書に記載の対象の1つまたは複数の実装の詳細が、添付の図面および以下の説明に記載されている。その他の特徴、態様、および利点は、それらの説明、図面、および特許請求の範囲から明らかになるであろう。以下の図面の相対的な寸法は正確な縮尺で描かれていない可能性があることに留意されたい。
以降、本発明の特定の実装が、限定ではなく例として与えられる以下の図面を参照して説明される。
対象のシーンのマルチスペクトル画像データを取り込むように構成されるマルチスペクトル撮像システムを有するモバイルデバイスの一実施形態の斜視図。 一実施形態によるマルチスペクトル撮像システムの概略ブロック図。 一実施形態による特定のシーンのマルチスペクトル画像データを取り込むための方法の流れ図。 図3の実装によるNIR画像と可視光画像とを位置合わせするための方法の流れ図。 図4の実装によるNIR画像中の複数のピクセルを可視光画像中の複数のピクセルとマッチングするための方法の流れ図。 図2のマルチスペクトル撮像システムによって取り込まれた画像を示す概略図。 図2のマルチスペクトル撮像システムによって取り込まれた画像を示す概略図。 図2のマルチスペクトル撮像システムによって取り込まれた画像を示す概略図。 図2のマルチスペクトル撮像システムによって取り込まれた画像を示す概略図。 図4の実装によるそれぞれのマッチングされたピクセルの対に重みを割り当てるための方法の流れ図。 図3の実装による画像データを処理するための方法の流れ図。 1つの実装による画像位置合わせプロセスのさまざまな段階の例示的な画像を示す図。 1つの実装による画像位置合わせプロセスのさまざまな段階の例示的な画像を示す図。 1つの実装による画像位置合わせプロセスのさまざまな段階の例示的な画像を示す図。
本明細書において開示される実装は、2つの異なる種類の撮像センサー、例えば、NIRセンサーおよび可視光センサーを使用して画像を撮影するためのシステム、方法、および装置を提供する。この種のマルチスペクトル撮像は、例えば、可視光センサーのみによって取り込まれる画像よりも優れたコントラストを有する画像を生成するのに有用である可能性がある。一実施形態において、可視光センサーで受信される光は、シーンの詳細を豊富に伝えることができ、一方、NIRセンサーによって取り込まれる光は、画像のコントラストを高めるか、または画像の霞除去(de-hazing)を実行するために使用され得る。例えば、NIR画像および可視画像は、平均のおよび詳細なウェーブレットサブバンドに分解される可能性がある。明るさおよびテクスチャ(texture)の詳細が、取り込まれた可視光画像の品質を改善するためにヒストグラムマッチング(histogram-matching)技術を使用してNIR画像から可視画像に移される可能性がある。
別の実施形態は、NIRセンサーおよび可視光センサーを使用して画像を改善するシステムである。この実施形態においては、NIR画像からのコントラストおよびテクスチャデータが、重み付けされた領域マスクを使用して可視画像に移され、ウェーブレット変換が実行される。次いで、ヒストグラムマッチング技術が、可視画像およびNIR画像の低周波数サブバンドを使用してコントラストデータを計算するために使用される可能性がある。可視画像とNIR画像の両方の高周波数サブバンドは、テクスチャデータを計算するために使用される。もちろん、当業者が認めるであろうように、これらのコントラストおよびテクスチャの改善方法は、マルチスペクトル撮像システムでコントラストを改善するいくつかの方法であるに過ぎない。その他の好適な方法が、開示された撮像システムで使用され得る。
別の実施形態においては、NIRセンサーが、低光量条件で取り込まれた画像を改善するために使用される。例えば、これまでの低光量システムにおいては、可視フラッシュシステムが、撮像されるべき被写体を照らすために使用されることが多い。しかし、そのような人工的な光は、画像の雰囲気を台無しにする可能性があり、赤目、望ましくない反射、および陰のような不要なアーティファクト(artifact)をもたらす可能性がある。この方法においては、可視フラッシュの代わりにNIRフラッシュランプが使用され、(RGBカラーCCDなどの)通常の可視撮像センサーが画像を取り込む。NIRフラッシュ画像は、可視フラッシュのように雑音によって悪影響を受けず、低光量条件によって引き起こされる雑音を可視(例えば、RGB)画像から取り除くために(加重最小自乗平滑化(weighted least squares smoothing)技術などの)雑音除去技術と併せて使用され得る。もちろん、当業者が認めるであろうように、この雑音低減方法は、撮像システムで雑音を低減する1つの方法であるに過ぎない。その他の好適な方法が、開示された撮像システムで使用され得る。
さらにその他の実施形態においては、開示されるハイブリッド撮像システムが、美肌補正の応用で使用される可能性がある。人物写真の撮影においては、しわ、そばかす、およびにきびなどの特定の望ましくない肌の特徴が、画像に取り込まれる可能性がある。開示されるマルチスペクトル撮像システムは、多くの異なる方法でこれらの望ましくない特徴を除去または平滑化するために使用され得る。
さまざまな実装において、NIR画像を可視画像に位置合わせするためのシステムおよび方法が、開示される。例えば、本明細書において説明されるように、マルチスペクトル撮像システムは、それぞれの撮像センサーの波長で取り込まれた画像データを利用することができる。NIR−可視マルチスペクトル撮像システムにおいては、NIR画像データおよび可視画像データが、例えば、画像品質を改善し、ハイブリッドおよび/または立体撮像の応用を可能にするために使用され得る。NIR−可視マルチスペクトル撮像の応用の恩恵を利用するためには、画像処理が行われる前にNIR画像データが可視画像データに位置合わせされていることを確実にすることが重要である可能性がある。
本明細書において開示されるさまざまな実装は、NIR画像と可視画像との位置合わせを改善するシステムおよび方法を提供する。例えば、1つの実装においては、NIRセンサーおよび可視光センサーが、事前較正手順において並べて位置決めされ、垂直方向に位置合わせされる。入力画像は、NIRセンサーおよび可視光センサーによって取り込まれる。マルチスペクトル撮像システムは、NIR画像と可視画像とを基本的にピクセル毎にマッチングする最初の密なマッチング手順を実行することができる。システムは、ピクセルのより大きなブロックの一致を検出する後続の疎なマッチング手順をさらに実行することができ、NIR画像および可視画像のパースペクティブ(perspective)の間のホモグラフィ的制約(homographic constraint)を確立することができる。システムは、疎なマッチングの結果を密なマッチングの結果に伝搬させて位置合わせされた画像を得ることができる。当業者は、開示される実施形態がハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組み合わせで実装され得ることを認めるであろう。
以下の説明においては、例を完全に理解できるように特定の詳細が与えられる。しかし、例がこれらの特定の詳細なしに実施され得ることは、当業者によって理解されるであろう。例えば、電気的な構成要素/デバイスは、不必要に詳細にして例を曖昧にしないためにブロック図で示される可能性がある。その他の場合、そのような構成要素、その他の構造および技術は、例をさらに説明するために詳細に示される可能性がある。
例は、流れ図、フロー図、有限状態図、構造図、またはブロック図として描かれるプロセスとして示される可能性があることも留意される。流れ図は、動作を連続的なプロセスとして示す可能性があるが、動作の多くは、並列にまたは同時に実行される可能性があり、プロセスは、繰り返される可能性がある。加えて、動作の順序は、再編成され得る。プロセスは、そのプロセスの動作が完了するときに終了させられる。プロセスは、メソッド、関数、プロシージャ、サブルーチン、サブプログラムなどに対応する可能性がある。プロセスがソフトウェアの関数に対応するとき、そのプロセスの終了は、関数が呼び出し元の関数もしくはmain関数に戻ること、またはサブルーチンもしくは同様の機能の同様の完了に対応する可能性がある。
当業者は、情報および信号がさまざまな異なるテクノロジーおよび技術のうちのいずれかを使用して表され得ることを理解するであろう。例えば、上の説明の全体を通じて参照される可能性があるデータ、命令、コマンド、情報、信号、ビット、シンボル、およびチップは、電圧、電流、電磁波、磁場もしくは磁気的粒子、光場もしくは光学的粒子、またはそれらの任意の組み合わせで表される可能性がある。
図1は、シーンのマルチスペクトル画像データを取り込むように構成されるマルチスペクトル撮像システム10の3D斜視図である。図1に示されたように、マルチスペクトル撮像システム10は、木2を含むシーンのマルチスペクトル画像データを取り込むようにユーザによって動作させられる可能性がある。マルチスペクトル撮像システム10は、それぞれ可視光およびNIR光を取り込むように構成される可視光センサー5およびNIRセンサー7を含む。さまざまな実装において、例えば、可視光センサー5は、赤、緑、および青色可視光を感知するRGBセンサーとして構成された撮像センサーである。
有利なことに、マルチスペクトル撮像システム10は、ユーザによって容易に操作され得るようにモバイルデバイス(例えば、携帯電話またはその他のモバイルコンピューティングデバイス)と統合される可能性がある。マルチスペクトル撮像システム10が可視スペクトルとNIRスペクトルの両方からの光を取り込むことができるので、ユーザは、撮像される木2の詳細を非常に細かく見ることができる可能性がある。さらに、撮像センサーが静止画像および動画を取り込むように構成される場合、ユーザは、本発明において説明されるように、大幅にぼけを除去される動画像データを見ることができる。その上、2つのセンサーが使用されるので、可視光センサー5およびNIRセンサー7によって取り込まれたマルチスペクトル画像データが、さまざまな立体撮像手順を使用することによって木2の三次元(3D)パースペクティブをレンダリングするために使用され得る。当業者は、図1に開示されたマルチスペクトル撮像システム10によってさらにその他の応用があり得る可能性があることを理解するであろう。
図2は、マルチスペクトル撮像システム10の概略ブロック図である。マルチスペクトル撮像システム10は、マルチスペクトル撮像装置1を含み得る。マルチスペクトル撮像装置1は、少なくとも可視光波長および近赤外線(NIR)光波長を含む広い帯域の波長を感知することができる1つまたは複数のマルチスペクトル撮像センサーを含むように構成される可能性がある。例えば、マルチスペクトル撮像装置1は、約390nmから約1400nmまでの間の波長の光を検出するように構成される可能性がある。もちろん、撮像装置1は、さらにずっと広い範囲の波長を検出するように構成される可能性もある。一部の実装においては、電荷結合素子(CCD)が、(1つまたは複数の)マルチスペクトル撮像センサーとして使用される可能性がある。その他の実装においては、CMOS撮像センサーが、(1つまたは複数の)マルチスペクトル撮像センサーとして使用される可能性がある。加えて、フラッシュモジュール8および/またはその他のアクセサリが、シーンを照らすのを支援するためにマルチスペクトル撮像装置1に含まれる可能性がある。さまざまな実装において、フラッシュモジュール8は、可視フラッシュデバイスおよび/またはNIRフラッシュデバイスを含み得る。
図2に示された実装において、マルチスペクトル撮像装置1は、単一のマルチスペクトル撮像センサーの代わりに2つの別々のセンサーを含む。この実装において、マルチスペクトル撮像装置1は、可視光センサー5および別のNIRセンサー7を含む。例えば、マルチスペクトル撮像装置1は、少なくとも約390nmから約800nmまでの間の範囲の可視光を検出することができるCCD/CMOSセンサーなどの第1の、可視センサー5を有する。マルチスペクトル撮像装置1は、約800nmから約1400nmまでの間の範囲のNIR光を検出することができるCCD/CMOSセンサーなどの第2の、NIRセンサー7をさらに含む。一部の実装において、可視センサーおよびNIRセンサーの波長範囲は、重なる可能性があり、またはおおむね同じである可能性さえある。一部の実装においては、NIR通過フィルタなどの撮像フィルタが、NIRデータのみを検出するために好適なCCD/CMOSで使用される可能性がある。1つの実装においては、例えば、可視光センサー5とNIRセンサー7の両方が、Samsumg(登録商標)S5K4E1GX QSXGA CMOSセンサーで実装される可能性がある。NIRセンサー7は、センサーがNIR光を受信することを可能にするためにIR遮断フィルタを外すことによって実装される可能性がある。修正されたNIRセンサー7は、比較的短い波長、例えば、約800nm未満の波長を除去するためのIRフィルタによってさらに蔽われる可能性がある。例えば、Kodak(登録商標)Wratten IRフィルタ(#87C)が、NIRセンサー7を蔽って適用される可能性がある。当業者は、その他の種類のセンサーがあり得ることを理解するであろう。当業者は、さまざまなその他のセンサーまたはそれらの組み合わせが可視画像データおよびNIR画像データを取り込むために使用され得ることを理解するであろう。
マルチスペクトル撮像システム10は、互いにデータ通信し、撮像装置1とデータ通信するプロセッサ11およびメモリ13をさらに含む。プロセッサ11およびメモリ13は、撮像装置1によって取り込まれた画像を処理し、記憶するために使用され得る。加えて、マルチスペクトル撮像システム10は、ユーザに入力/出力(I/O)操作を提供するように構成されたユーザインターフェース(UI)(図示せず)を含み得る。例えば、UIは、さまざまなアイコンをユーザに対して提示するディスプレイを含む可能性がある。UIは、キーボード、タッチスクリーン入力、マウス、ローラーボール、データ入力(例えば、USBもしくは無線)、および/または任意のその他の好適な種類の入力デバイスなどのさまざまな入力デバイスをさらに含み得る。UIは、ユーザが、画像データを操作し、および/またはユーザが使用したい撮像モードを選択することを可能にするようにプログラムされる可能性がある。UIは、マルチスペクトル画像データを取り込むためのコントロールをさらに含み得る。
さらに、プロセッサ11およびメモリ13は、画像処理モジュール20のソフトウェアモジュールとして記憶されるプロセスを実施するように構成され、マルチスペクトル撮像装置1によって取り込まれたマルチスペクトル画像データを処理するように構成される可能性がある。画像処理モジュール20は、非一時的ストレージ媒体などの任意の好適なコンピュータ可読ストレージ媒体で実装される可能性がある。画像処理モジュール20は、任意の数のソフトウェアモジュールを有する可能性がある。例えば、通信モジュール21が、画像処理モジュール20で実装される可能性がある。通信モジュール21は、マルチスペクトル撮像システム10の構成要素の間のデータのフローを管理するコンピュータで実施される命令を備える可能性がある。例えば、通信モジュール21は、マルチスペクトル撮像装置1からの画像データの受信を管理する命令を含む可能性がある。画像処理モジュール20は、さまざまな種類のデータ、ソースコード、および/または実行ファイルを記憶するように構成されたストレージモジュール12をさらに含む。例えば、ストレージモジュール12は、撮像装置1によって受信された画像データおよび/または画像処理モジュール20によって処理された画像データを記憶するようにプログラムされる可能性がある。
画像処理モジュール20は、さまざまなマルチスペクトル撮像アプリケーションを実装するようにプログラムされるさまざまなモジュールをさらに含み得る。例えば、画像処理モジュール20は、NIR画像および可視画像から計算された深度マップに基づいて3次元(3D)画像をレンダリングするようにプログラムされる立体撮像モジュール23を含む。本明細書において説明されるように、可視光センサー5およびNIRセンサー7は、知られている距離だけ離間される可能性がある。立体撮像モジュール23は、可視光センサー5とNIRセンサー7との間の知られている離間を利用してユーザに対する3D可視化効果を生み出すことができる。
加えて、画像処理モジュール20は、ハイブリッド撮像モジュール25を含む。ハイブリッド撮像モジュール25は、撮像装置1によって取り込まれた静止画と動画の両方を処理するようにプログラムされる可能性がある。例えば、ハイブリッド撮像モジュール25は、可視光センサー5からの静止画像データおよびNIRセンサー7からの動画像データ、またはその逆を処理するようにプログラムされる可能性がある。静止画像データおよび動画像データは、一部の構成においてはそれぞれのセンサーによって同時に取り込まれる可能性があり、その他の構成においては、静止画像データおよび動画像データは、別々の時間に取り込まれる可能性がある。さまざまな実装において、静止画像データは、シーンの画像内のモーションブラー(motion blur)を低減するために動画像データよりも高い解像度で取り込まれる可能性がある。
画像処理モジュール20は、マルチスペクトル情報処理モジュール27をさらに含む。マルチスペクトル情報処理モジュール27は、可視光センサー5から取り込まれた可視画像データのコントラストを改善するためにNIRセンサー7から取り込まれたNIR画像データを処理するようにプログラムされ得る。さまざまな実装において、マルチスペクトル情報処理モジュール27は、画像から霞を除去し、および/または画像内のテクスチャ情報を改善するようにプログラムされ得る。マルチスペクトル情報処理モジュール27は、NIRフラッシュデバイス8を使用して可視画像内の雑音を低減するようにさらにプログラムされ得る。さらにその他の実装においては、マルチスペクトル情報処理モジュール27は、取り込まれた画像の肌の欠点を平滑化するようにプログラムされ得る。
上述のように、一実施形態において、NIR画像および可視画像は、画像がさまざまなマルチスペクトル撮像の応用のいずれかのために処理される前に位置合わせされる。したがって、画像処理モジュール20は、画像位置合わせモジュール22をさらに含む可能性がある。画像位置合わせモジュール22は、例えば、可視光センサー5およびNIRセンサー7が垂直方向に位置合わせされていることを確認するなど、NIR画像および可視画像に対する任意の予備的操作を実行するようにプログラムされた前処理モジュール24を含む可能性がある。画像位置合わせモジュール22は、NIR画像中の複数のピクセルを可視画像中の複数のピクセルとマッチングして複数のマッチングされたピクセルの対を形成するようにプログラムされた密マッチングモジュール26をさらに含む可能性がある。密マッチングモジュール26は、それによって、各画像に関する画像記述子(image descriptor)に基づいてNIR画像および可視画像の最初のピクセル毎の位置合わせを行うことができる。本明細書において説明されるように、画像記述子は、それぞれの画像において測定された画像勾配(image gradient)に部分的に基づく可能性がある。
画像位置合わせモジュール22は、NIR画像および可視画像の疎な部分を大まかに位置合わせするようにプログラムされた疎マッチングモジュール28をさらに含む。例えば、本明細書において説明されるように、疎マッチングモジュール28は、それぞれのマッチングされたピクセルの対に関するピクセル視差を計算するようにプログラムされる可能性がある。さまざまな実装において、ピクセル視差は、それぞれのマッチングされたピクセルの対に関するピクセルの分離距離(separation distance)に基づく可能性がある。疎マッチングモジュール28は、それぞれのマッチングされたピクセルの対に関する計算されたピクセル視差に少なくとも部分的に基づいてそれぞれのマッチングされたピクセルの対に重みを割り当てるようにプログラムされる可能性がある。重みが割り当てられると、さまざまな実装において、比較的重い重みを有する一致が残される一方、比較的軽い重みを有する一致は破棄される。可視画像とNIR画像との間の区分的なホモグラフィ的制約が、推定される可能性があり、ホモグラフィ的制約を満たす一致が、その後の位置合わせ処理のために残される可能性がある。
さらに、画像位置合わせモジュール22は、割り当てられた複数の重みに少なくとも部分的に基づいてNIR画像を可視画像に位置合わせするようにプログラムされた位置合わせされた画像形成モジュール29を含み得る。例えば、画像位置合わせモジュール22は、例えば、疎マッチングモジュール28によって割り当てられた複数の重みなどの強度の類似性(intensity similarity)の値および/または信頼性マップ(confidence map)に基づいて疎なマッチングの結果を密なマッチングの結果に伝搬させることができる。一部の態様においては、画像の位置合わせが正確であることを確実にするためにNIR画像が可視画像のパースペクティブに、またはその逆にワーピングされる可能性がある。
プロセスの概要
図3は、一実施形態による特定のシーンのマルチスペクトル画像データを取り込むための方法30の流れ図である。図示された方法30は、NIR光センサーおよび可視光センサーが有効化されるブロック31で始まる。例えば、図1および2を参照すると、ユーザが、撮像システム10を始動および/または起動して、センサーがシーンを取り込むことを可能にする可能性がある。さまざまな実装においては、モバイルデバイス上のアイコンが、NIR光センサー5および可視光センサー7を有効化するために使用される可能性がある。次に、方法はブロック33に移り、ブロック33において、可視光画像が可視光センサーによって取り込まれ、NIR画像がNIRセンサーによって取り込まれる。さまざまな構成において、フラッシュ(例えば、可視フラッシュおよび/またはNIRフラッシュ)が、シーンを照らすために使用される可能性がある。シーンの可視光画像およびNIR画像を取り込んだ後、プロセス30はブロック35に移り、ブロック35において、取り込まれた画像が、ストレージモジュール12などのストレージモジュールに記憶される。
ブロック35において画像が記憶されると、プロセスのブロック37において、NIR画像および可視画像がプロセス30によって位置合わせされ得る。画像を正確に位置合わせすることによって、位置合わせの不良によって引き起こされる画像のアーティファクトが削減または除去され得る。次いで、プロセス30は、プロセスのブロック39に移って、位置合わせされた画像を処理する。マルチスペクトル撮像の応用および/またはユーザのプリファレンスに応じて、さまざまな種類のマルチスペクトル撮像手順が、処理ブロック39で実行される可能性がある。例えば、立体撮像モジュール23が、ユーザに対して3Dパースペクティブをレンダリングする手順を実行する可能性がある。その他の態様においては、ハイブリッド撮像モジュール25が、静止画データと動画像データの両方を処理するためのコンピュータで実施される命令を実行する可能性がある。さらに、マルチスペクトル情報処理モジュール27が、可視画像および/またはNIR画像の画像品質を改善することができる。当業者は、さまざまなその他のマルチスペクトル画像処理技術がブロック39において実行され得ることを理解するであろう。
次に、プロセス30は、判定ブロック32に移って、追加の画像が処理されるべきかどうかを判定する。判定ブロック32において、追加の画像が処理されるべきであるとの判定がなされる場合、方法30はブロック33に戻って、追加のNIR画像データおよび可視光画像データを取り込む。判定ブロック32において、追加の画像が処理されるべきでないとの判定がなされる場合、方法30は終了する。
画像の位置合わせの概要
図4は、図3の実装によるNIR画像と可視光画像とを位置合わせするためのプロセスのブロック37に示された方法の流れ図である。方法37は、NIR画像が受信されるブロック41で始まる。例えば、図2の画像位置合わせモジュール20が、マルチスペクトル撮像装置1からNIR画像を受信することができる。方法37は、ブロック43に進んで可視画像を受信する可能性がある。本明細書において説明されるように、画像位置合わせモジュール20が、マルチスペクトル撮像装置1(図2)から可視画像を受信することができる。
次に、方法37は、プロセスのブロック45に移り、NIR画像中の複数のピクセルを可視画像中の複数のピクセルとマッチングする。上で図2に関連して説明されたように、密マッチングモジュール26が、NIR画像および可視画像の最初のピクセル毎の位置合わせを行うために複数のマッチングされたピクセルの対を形成することができる。図5および6A〜6Bに関連して下で説明されるように、NIR画像および可視画像のマッチングされたピクセルの対は、それぞれの画像における画像勾配に基づいて画像記述子を計算することによって形成され得る。画像のうちの一方(NIR画像または可視画像)の各ピクセルに関して、画像位置合わせモジュール22は、他方の画像内でそのピクセルの最も近い近隣のピクセルを探索する可能性がある。例えば、NIR画像内の特定のピクセルに関して、その特定のピクセル、またはその特定のピクセルを含む領域に関する画像記述子は、当該ピクセルにおける、または当該ピクセルの近くの画像勾配に基づいて計算され得る。
画像位置合わせモジュール22は、NIR画像内のその特定のピクセルの最も近い近隣のピクセルである可能性がある、他方の画像、例えば、可視画像内の1組の候補ピクセルを生成することができる。画像位置合わせモジュール22は、NIR画像内の特定のピクセルに関する記述子と、可視画像内のピクセルの候補の組の中の各ピクセルに関する記述子との間のユークリッド距離をさらに計算する可能性がある。そして、画像記述子間の最小のユークリッド距離を有する可視画像内のピクセルが、マッチングされたピクセルの対を形成するためにNIR画像内の特定のピクセルと対にされる。プロセスのブロック45において決定されたマッチングされたピクセルの対は、したがって、取り込まれたシーンの同じ部分に関連するNIR画像および可視画像のそれぞれのピクセルを表す可能性がある。よって、ピクセルAおよびBがマッチングされたピクセルの対である場合、NIR画像中の複数のピクセルAは、対応する可視画像においてピクセルBが表す撮像されたシーンまたは被写体の同じ部分を表す可能性がある。プロセスのブロック45で行われるプロセスのさらなる詳細は、図5および6A〜6Bに関連して本明細書において説明される。本明細書において説明されるように、ピクセルの対に関する画像記述子の間のユークリッド距離を計算することは、2つのピクセルに関連するマッチングのコストを計算する1つの方法である。しかし、NIR画像中の複数のピクセルと可視画像中の複数のピクセルとの間のマッチングのコストを計算するその他の方法が存在することを理解されたい。当業者は、2つの記述子のベクトルを比較するためのその他の方法がさまざまな実装に好適である可能性があることを理解するであろう。
次いで、方法37は、ブロック47に移って、それぞれのマッチングされたピクセルの対に関するピクセル視差を計算する。ピクセル視差は、シーン内の被写体の特定の部分を表す画像データを表示する画像平面内のピクセルのずれを指す可能性がある。例えば、マッチングされたピクセルのペアの第1のピクセル、ピクセルAは、NIR画像内の第1の位置にある可能性があり、一方、マッチングされたピクセルのペアの第2のピクセル、ピクセルBは、可視画像内の第2の位置にある可能性がある。NIR画像および可視画像は別々の画像である可能性があるが、それぞれの画像内のピクセルが共通の基準系に関連して参照されるかまたは位置を特定され得るように、共通の座標系が両方の画像に割り当てられ得ることに留意されたい。よって、NIR画像中の複数のピクセルAの第1の位置が可視画像中の複数のピクセルBの第2の位置からある距離だけ分離されている場合、ピクセルAおよびBは、NIR画像および可視画像において共通の基準系から測定されるピクセル視差、例えば、画像平面内のピクセルを隔てる距離を有すると見なされ得る。ピクセル視差のさらなる例は、図6A〜6Bに関連して本明細書において説明される。
次に、方法37は、プロセスのブロック49に進んで、それぞれのマッチングされたピクセルの対に重みを割り当てる可能性がある。図7に関連して本明細書において説明されるように、画像およびマッチングされたピクセルの対は、より大きなブロックへと分割または区分けされる可能性があり、それぞれのマッチングされたピクセルの対は、ブロック47において計算されたピクセル視差に少なくとも部分的に基づき、それぞれのマッチングされた対のピクセルの間の色視差(color disparity)に部分的に基づく重みを割り当てられ得る。本明細書において説明されるように、重みは、それぞれのマッチングされたピクセルの対に関する画像記述子の間のユークリッド距離に基づいて計算される距離の比に基づく可能性もある。比較的重い重みを有するブロック内の一致(例えば、上位50%の重みを有するマッチングされた対)が、NIR画像および可視画像の幾何学的配置を関連付けるホモグラフィ的制約を推定するために使用され得る。概して、ホモグラフィ的制約は、2つの画像のパースペクティブを関連付けるために使用され得る幾何学変換である。NIR画像および可視画像に関するホモグラフィ的制約を満たす一致が、位置合わせされたNIR画像および可視画像を形成するために使用され得る。プロセスのブロック49のさらなる詳細は、図7に関連して本明細書において説明される。
したがって、概して、プロセスのブロック49で担われる方法は、撮像されている被写体の同じ表面または部分に属するブロック内のピクセルを発見するために実施される可能性がある。例えば、プロセスのブロック45の密なピクセルマッチングプロセスは、ピクセル毎にピクセルをマッチングするために実施され得る。一方、(ブロック47のステップも含む可能性がある)プロセスのブロック49の疎なマッチングプロセスは、画像の視差のある部分が大まかに位置合わせされることを保証するために実施され得る。したがって、ピクセルがブロック45においてピクセル毎にマッチングされる可能性があるとしても、これは、マッチングされたピクセルが画像全体でシーン内の同じ被写体に関連するピクセルに対応することを必ずしも意味しない。
プロセスのブロック49で担われるプロセスは、プロセスのブロック45で密にマッチングされたピクセルが画像全体にわたって(1つまたは複数の)同じ被写体に確かに対応することを確実にし、例えば、画像が疎および密に位置合わせされていることを保証するために実行される。実際は、ホモグラフィ的制約を計算するために重い重みを選択することが、特定のブロック内のマッチングされた対が正確に位置合わせされているという高い信頼性があることを保証する可能性がある。さらに、ピクセル視差(例えば、マッチングされた対のピクセルの分離距離)と(例えば、マッチングされた対の色の差に関連する)色視差の両方を考慮することによって、プロセスのブロック49の方法は、例えば、可視画像とNIR画像とを位置合わせするときに被写体のテクスチャおよびその他の表面の特徴が考慮されることを保証するのに役立つ可能性がある。
次に、方法37は、ブロック42に移り、NIR画像を可視画像に位置合わせする。ブロック42において、例えば、プロセスのブロック49で実行された疎なマッチングが、プロセスのブロック45で実行された密なマッチングに伝搬させられる可能性がある。伝搬処理は、焦点がぼけた画像から深さ情報を取り出すための知られている方法を使用して実行され得る。例えば、ブロック42において画像を位置合わせするための1つの通常の方法は、疎なマッチングと密なマッチングとを関連付けるコスト関数を生成し、疎なマップ(sparse map)を密なマップ(dense map)に伝搬させるためにコスト関数を数値的に最小化することである。1つの例示的な伝搬プロセスが、例えば、あらゆる目的でその全体が参照により本明細書に援用されるShaojie ZhuoおよびTerence Sim、「Recovering Depth from a Single Defocused Image」、Pattern Recognition、第44巻、第9号、1852〜1858ページ(2011年)に開示されている。当業者は、疎な画像マップを密なマップに伝搬させるさまざまな方法が存在することを理解するであろう。さらに、NIR画像が、NIR画像および可視画像が十分に位置合わせされているか否かを視覚的に確認するために、プロセスのブロック45の密なマッチングプロセスに基づいて可視画像のパースペクティブにワーピングされる可能性がある。
有利なことに、本明細書において開示される実装は、プロセスのブロック49において計算された重みと、強度の類似性の値の両方の組み合わせを利用してコスト関数を生成し、ブロック42において画像を位置合わせすることができる。例えば、強度の類似性の値を計算するために、例えば、ピクセルと、取り込まれた可視画像またはNIR画像の対応する位置の近くのまたは近隣のピクセルとの間の強度の差を計算することによるなどして、視差マップ(disparity map)の各ピクセルに関して強度の差が推定され得る。さらに、プロセスのブロック49で割り当てられた複数の重みが、比較的重い重みを有する一致のみが疎なマッチングの結果を伝搬させるために使用されるようにフィルタリングされる可能性がある。一部の実装においては、上位50%の重みを有する一致のみが使用される可能性がある。(信頼性マップとして機能することができる)重みおよび/または強度の類似性の値の両方が、より正確な伝搬が得られるように位置合わせにおいて使用され得る。信頼性マップ(例えば、重み)および/または強度の類似性の値を組み込んだ結果として、NIR画像と可視画像との位置合わせが改善され得る。
次いで、方法37は、ブロック44に進んで、位置合わせされた画像を、例えば、ストレージモジュール12によってシステムに記憶する。それから、プロセス37は、判定ブロック46に進んで、追加の画像が位置合わせされるべきかどうかを判定する。追加の画像が位置合わせされるべきであるという判定がなされる場合、方法37は、ブロック41に戻ってNIR画像を受信する。位置合わせすべき追加の画像がないとの判定がなされる場合、方法37は終了する。
密なマッチングプロセス
図5は、図4の実装によるNIR画像中の複数のピクセルを可視光画像中の複数のピクセルとマッチングするための方法45の流れ図である。開示されたピクセル毎のプロセスは、例えば、密マッチングモジュール26によって実行される可能性がある。方法45は、NIR画像および可視画像の各ピクセルに関する画像記述子を計算するブロック51で始まる。概して、画像記述子は、画像の部分またはピクセルに関する局所的な画像勾配に基づく可能性がある。局所的な画像勾配は、特定のピクセルまたは画像の部分の周りの複数の方向または向きの画像データの変化率を測ることができる。各ピクセル(または画像の部分)において、ピクセルまたは画像の部分を取り囲む領域における局所的な画像勾配は、方向ヒストグラム(orientation histogram)へと累算される可能性がある。
特定のピクセルまたは画像の部分を取り囲む領域に関する方向ヒストグラムは、n×1画像記述子ベクトル
へと変換される可能性があり、ここで、nは、記述子の推定に使用される向きの数および取り囲む画像の領域の数に基づく。例えば、取り囲むピクセルまたは画像の領域の4×4配列が記述子を計算するために使用される場合、および8つの向きが使用される場合、記述子ベクトル
は、128×1ベクトル(例えば、4×4×8)である可能性がある。当業者は、局所的な画像勾配に基づいて画像記述子を決定するためのその他の技術があり得ることを理解するであろう。例えば、画像記述子を形成するための1つの技術が、あらゆる目的でその全体が参照により本明細書に援用されるDavid G.Lowe、「Distinctive Image Features from Scale−Invariant Keypoints」、International Journal of Computer Vision、91〜100ページ(2004年)に示されている。
図6A−1、6A−2、6B−1、および6B−2は、図2のマルチスペクトル撮像システム10によって取り込まれた木2の2枚の画像を示す概略図である。特に、図6A−1は、左の撮像センサーによって取り込まれた左の画像を示し、図6A−2は、撮像システム10の右の撮像センサーによって取り込まれた右の画像を示す。図6A−1の左の画像は、NIR撮像センサー7によって取り込まれた画像に対応する可能性があり、図6A−2の右の画像は、可視撮像センサー5によって取り込まれた画像に対応する可能性があり、またはその逆である可能性がある。示されたように、図6A−1および6A−2の取り込まれた画像は、それぞれ、x方向およびy方向に沿って距離をピクセルで測る共通の座標系Rを共有する。さまざまな実装において、図6A−1および6A−2の画像は、ピクセルの行が垂直方向に実質的に位置合わせされるように事前較正ステップの間に垂直方向に位置合わせされ得ることを理解されたい。図6A−1は、選択されたエリア60を含み、図6A−2は、選択されたエリア62を含む。
図6B−1および6B−2の画像は、それぞれ、図6A−1および6A−2からの木2の選択されたエリア60、62の拡大された部分の概略図である。したがって、図6B−1および6B−2に示された拡大された画像の部分は、図6A−1および6A−2の破線で示された四角によって境界を決められた画像の部分60および62に対応する。例えば、両方の画像の四角は、共通の座標系Rのx方向に0からx1までに及び、y方向にy1からy2に及ぶ可能性がある。図6B−1および6B−2に示されたように、これらの画像は、複数のピクセル、図6B−1の画像に関して
および図6B−2の画像に関して
に分割される可能性がある。下付き文字iは、y方向に関するインデックスを指す可能性があり、下付き文字jは、x方向に関するインデックスを指す可能性がある。図6B−1および6B−2のピクセルのサイズは例示を目的として誇張されている可能性があることに留意されたい。
図6B−1および6B−2においては、画像記述子が、それぞれの画像のあらゆるピクセルに関して計算される可能性がある。例えば、図6B−1のピクセル
においては、画像記述子
が、本明細書において説明されるように計算され得る。方向ヒストグラムがピクセル
に関してのみ示されているが、概して、局所的な画像勾配に関する方向ヒストグラムは、画像内のすべてのピクセルまたは画像の領域に関してやはり計算され得ることに留意されたい。加えて、図6B−2のピクセル
において、画像記述子
が計算され得る。図6B−1と同様に、ピクセル
における局所的な画像勾配に関する方向ヒストグラムが、単なる例として示される。
ここで図5を参照すると、方法45は、ブロック53に移って、NIR画像の画像記述子を可視画像の画像記述子とマッチングする。さまざまな実装において、密マッチングモジュール26は、他方の画像内でそれぞれの画像記述子の最も近い近隣の画像記述子
を探索することができる。例えば、図6B−1の元ピクセル
およびその元ピクセルの関連する画像記述子
を考える。ブロック53において、方法45は、図6B−1の特定の元ピクセル
に関連する画像記述子
から最小のユークリッド距離にある(または上で説明されたマッチングコストの別の尺度に関連する最小値にある)画像記述子
を有する図6B−2内の目標ピクセルを探索する。図6B−1および6B−2は事前較正ステップ中に垂直方向に位置合わせされる可能性があるので、蜜マッチングモジュール26は、図6B−2内のピクセル
に対する最も近い近隣のピクセルが、おそらく、ピクセルの同じ行、例えば、行4に沿って存在すると推測する可能性がある。しかし、事前較正ステップがない場合、または事前較正ステップが不正確である場合、密マッチングモジュール26は、代わりに、図6B−1のピクセル
を通る図6B−2のエピポーラ線に沿ってピクセルを探索する可能性がある。
図6B−1および6B−2が垂直方向に正確に位置合わせされていると仮定すると、方法45は、図6B−1内の元ピクセル
とマッチングするための候補である可能性がある図6B−2内の目標ピクセルのサブセットを選択することができる。例えば、一例において、方法45は、図6B−2のピクセル
、および
が図6B−1内のピクセル
の位置に空間的に近いので、それらのピクセルを、図6B−1内のピクセル
に対する候補目標ピクセルの一致として選択する可能性がある。もちろん、方法45は、代わりに、すべてのピクセルを含む図6B−2内の目標ピクセルのより大きな組を探索する可能性があるが、そのようなより多くの探索は、不利なことに、処理時間を増やす可能性がある。したがって、方法45は、例えば、図6B−2内の1組の候補ピクセルの各ピクセルに関して
を計算することによってユークリッド距離dを計算する可能性がある。最小のユークリッド距離dminに関連する図6B−2の1組の候補ピクセルの中の目標ピクセル
が、図6B−1の元ピクセル
とマッチングされて、マッチングされたピクセルの対を形成する可能性がある。例えば、図6B−1および6B−2においては、図6B−1のピクセル
および図6B−2のピクセル
が、それらのピクセルのそれぞれの画像記述子

との間のユークリッド距離が図6B−2からの1組の候補ピクセルに関して最小のユークリッド距離dminである場合、マッチングされたピクセルの対を形成する可能性がある。
図6A−1、6A−2、6B−1、および6B−2に関連して上で説明された例においては、元ピクセルが、図6B−1から選択され、1組の候補の目標の一致が、図6B−2内で探索された。さまざまな実装において、方法45は、図6B−2の元ピクセルから開始して、図6B−1内の1組の目標ピクセルの中で最も近い近隣のピクセルを探索することによって左右の整合性の検査を実行する可能性がある。両方向に最も近い近隣のピクセルの探索を実行することによって、方法45は、マッチングされたピクセルの対が正確に割り当てられることを保証する可能性がある。
方法45は、判定ブロック55に移って、マッチングされたピクセルの対が曖昧であるかどうか、例えば、それぞれのマッチングされたピクセルの対に高い信頼性があるか否かを判定する。さまざまな実装において、方法45は、最小のユークリッド距離dminと1組の候補目標ピクセルの中のn個の次に小さいユークリッド距離diとを比較する距離の比rを確定する可能性がある。例えば、一部の実装においては、m番目のマッチングされたピクセルの対に関する距離の比rmが、
によって計算される可能性がある。
大きな距離の比rm、例えば、1に近い比は、その他の近隣の記述子が元の記述子から似た距離diにあるので、区別可能でない一致を反映する可能性がある。より小さな値、例えば、約0.95未満の距離の比は、より信頼性のある一致をもたらす可能性がある。したがって、m番目のマッチングされた対に関する距離の比rmが特定の閾値を超える場合、方法45は、ブロック55において、曖昧な一致が存在すると判定する可能性がある。曖昧な一致が存在すると判定される場合、方法45は、ブロック57に移って、曖昧な結果を破棄するために、さらなる処理から曖昧なマッチングされたピクセルの対を削除する。しかし、m番目のマッチングされた対に関する距離の比rmが特定の閾値未満である場合、方法45は、ブロック55において、曖昧な一致が存在しないと判定する可能性がある。曖昧な一致が存在しないと判定される場合、方法45は終了する。
図7は、図4の実装によるそれぞれのマッチングされたピクセルの対に重みを割り当てるための方法49の流れ図である。方法49は、マッチングされたピクセルの対を複数のブロックに区分けするブロック71で始まる。ブロックは、画像をピクセルの複数のグループに大まかに分割することができる。例えば、画像は、例えば、ピクセルのブロックの4×4、8×8、または10×10配列などの任意の好適な数のブロックに区分けされる可能性がある。
方法49は、ブロック73に進んで、マッチングされたピクセルの対に関する視差類似性値(disparity-similarity value)を計算する。図4に関連して上で説明されたように、ピクセル視差qmは、マッチングされたピクセルの対のピクセルの間の可視画像およびNIR画像におけるピクセルの分離距離を指す可能性がある。例えば、図6B−1および6B−2の例に戻ると、ピクセル
および
のマッチングされた対は、図6B−1および6B−2に示された共通の座標系Rにおける距離だけ隔てられている。特に、この例のピクセル
および
のマッチングされた対に関するピクセル視差qmは、2つのピクセルが水平方向に3ピクセルだけ隔てられ、垂直方向に0ピクセル隔てられているので3ピクセルである。
ブロック73において、方法49は、m番目のマッチングされた対の視差qmがm番目のマッチングされたペアを含むブロック内の最も頻度の高い視差(または最頻視差)q0にどれだけ近いかを決定する視差類似性値を計算する。したがって、特定のブロックに関して、画像の視差qの5がそのブロック内で最も頻度の高い視差である場合、最頻視差q0は5ピクセルである。さまざまな実装において、視差類似性値sd(m)は、
によって定義される可能性があり、ここで、σdは、さまざまな実装において1である可能性がある分散因子である。したがって、視差類似性値sd(m)は、特定の一致の視差がブロック内の最も頻度の高い視差にどれだけ近いかを比較する可能性がある。
次いで、方法49は、マッチングされたピクセルの対に関する色類似性値(color-similarity value)Sc(m)を計算するブロック75に移る。その結果、色類似性値は、マッチングされたピクセルの対の色値cmが、そのマッチングされたピクセルの対を含むブロックの最頻ピクセル視差q0に近いまたは近接しているピクセル視差qmを有するマッチングされたピクセルの対の平均色値にどれだけ近いかを判定するために使用され得る。例えば、平均色値c0は、最頻視差q0から所定の数のピクセルt(例えば、一部の構成においてはt=2ピクセル)以内の視差qlを有するl個のピクセルに関して計算される可能性がある。したがって、平均の色c0は、
のように計算され得る。
平均色値c0が与えられると、色類似性値Sc(m)は、
によって計算される可能性があり、ここで、σcは、さまざまな実装において1である可能性がある分散因子である。
次に、方法49は、マッチングされたピクセルの対に重みw(m)を割り当てるブロック77に進む。さまざまな構成において、割り当てられる重みw(m)は、視差類似性値Sd(m)および色類似性値sc(m)に部分的に基づく可能性がある。一部の実装において、それぞれのマッチングされた対に関する重みw(m)は、さらに、図5のブロック55において上で計算された距離の比rmに基づく可能性がある。例えば、さまざまな実装において、m番目の一致に関して割り当てられる重みw(m)は、計算
に基づいて割り当てられる可能性がある。
したがって、小さな距離の比rmを有する一致は、概して、大きな距離の比を有する一致よりも重い重みを有する可能性がある。加えて、色類似性値および視差類似性値が増加するにつれて、割り当てられる重みも増加する可能性がある。さまざまな実装においては、特定の閾値を超えるか、または最大の重みである重みw(m)のみが、NIR画像と可視画像とを位置合わせするときに含められる可能性がある。例えば、特定のブロック内で、上位50%の重みが選択されるかまたは残される可能性がある。比較的重い重みw(m)のみを残すことによって、方法49は、同様の視差および/または色もしくは強度を有する一致のみを残す可能性がある。図4に関連して上で説明されたように、比較的重い重みに関連するマッチングされた対が、NIR画像と可視画像との間のホモグラフィ的制約を推定するために使用される可能性があり、そのホモグラフィを満たすすべてのマッチングされた対が、図4の位置合わせステップ42で残される可能性がある。
次に、方法49は、追加のマッチングされたピクセルの対が存在するかどうかを判定する判定ブロック79に進む。追加のマッチングされたピクセルの対が存在するという判定がなされる場合、方法49は、ブロック73に戻って、マッチングされたピクセルの対に関する視差類似性値を計算する。しかし、追加のピクセルの対が存在しないという判定がなされる場合、方法49は終了する。
図4に関連して上で説明されたように、NIR画像および可視画像がブロック42において位置合わせされる可能性があり、位置合わせされた画像が記憶される可能性がある。
マルチスペクトル撮像の応用
図8は、図3の実装による画像データを処理するための方法39の流れ図である。NIR画像と可視画像とが位置合わせされると、さまざまなマルチスペクトル撮像プロセスが、位置合わせされた画像に対して実行され得る。例えば、方法39は、図3のステップ37で位置合わせされた位置合わせされたNIR画像および可視画像を含む可能性がある位置合わせされた画像データを受信するブロック81で始まる。
次いで、方法39は、判定ブロック82に移って、ユーザが立体撮像の応用を望むかどうかを判定する。立体撮像が望まれているという判定がなされる場合、方法39は、ユーザに対して3D画像をレンダリングするために図2の立体撮像モジュール23に位置合わせされた画像データに送信するブロック83に移る。立体撮像の応用は、有利なことに、ユーザに対して3D画像を提示することができる。立体視の応用は、3D動画製作および/または距離測定の応用のために使用され得る。例えば、深度マップが、本明細書において説明されたように撮像の視差に基づいて計算され得る。動画出力の解像度に合わせるために、深度マップは、既存の超解像の方法を使用してより精細な解像度を得るように補完される可能性がある。当業者は、さまざまな立体撮像手順が使用され得ることを理解するであろう。
立体撮像および/またはレンダリングが望まれていないという判定がブロック82においてなされる場合、方法39は、ハイブリッド撮像が望まれているか否かを判定する判定ブロック84に進む。ハイブリッド撮像が望まれている場合、方法39は、位置合わせされた画像データをハイブリッド撮像モジュール25に送信するブロック85に移る。本明細書において説明されるように、ハイブリッド撮像プロセスは、高解像度での静止画像データおよび低解像度での動画データを利用するために使用され得る。ハイブリッド撮像は、例えば、雑音の除去、ぼけの除去、超解像などを含むさまざまな応用で使用され得る。開示されたマルチスペクトル撮像システム10は、上述のように、NIRセンサー7がシーンのより低い解像度での動画を撮影する一方、可視光センサー5が高解像度での静止写真を撮影することができるように構成される可能性がある。もちろん、その代わりに、可視光センサー5が動画を撮影する一方、NIRセンサー7が静止写真を撮影する可能性がある。
そのようなハイブリッドシステムにおいては、さまざまな方法が、カメラが画像を取り込むためにかかる時間の間のカメラとシーンとの相対的な動きによって引き起こされるモーションブラーを削減するために使用される可能性がある。2つの可視センサーを扱う1つのそのような方法が、あらゆる目的でその全体が参照により本明細書に援用されるM.Ben−EzraおよびS.K.Nayar、「Motion−based Motion Deblurring」、IEEE Transaction on Pattern Analysis and Machine Intelligence、2004年に開示されている。この方法においては、高解像度の可視(例えば、RGB)センサーが、画像を取り込み、(ビデオカメラなどの)低解像度の可視(例えば、RGB)モーションセンサーが、特定のシーンの画像を取り込む。低解像度ビデオカメラは、カメラに対するシーンの動きを表す連続点拡がり関数(continuous point spread function)を計算するために使用される。デコンボリューション(deconvolution)の手法が、高解像度での画像のぼけを除去するために使用される。もちろん、当業者が認めるであろうように、これらの方法は、画像内のモーションブラーを低減するいくつかの方法であるに過ぎない。その他の好適な方法が、開示された撮像システムで使用され得る。
ハイブリッド撮像が望まれていないという判定がブロック84においてなされる場合、方法39は、マルチスペクトル情報処理が望まれているかどうかを判定する判定ブロック86に移る。本明細書において説明されるように、開示されたNIR−可視マルチスペクトル撮像システム10などのマルチスペクトル撮像システムは、光の広い帯域幅に含まれる豊富な詳細を利用することができる。マルチスペクトル情報処理が望まれているという判定がブロック86においてなされる場合、方法39は、以下で説明されるさまざまなマルチスペクトル処理技術で使用するためにマルチスペクトル情報処理モジュール27に位置合わせされた画像データを送信するブロック87に移る。
概して、NIR光は、可視光よりも優れたコントラストをもたらす可能性があり、コントラストを高めることおよび画像の霞除去などの画像品質の改善の大きな潜在性を生む豊富な詳細を運ぶ。例えば、一部の実装においては、あらゆる目的でその全体が参照により本明細書に援用されるX.P.Zhang、T.Sim、X.P.Miao、「Enhancing Photographs with Near Infrared Images」、IEEE Computer Society Conference on Computer Vision and Pattern Recognition 2008、Anchorage、USに開示された方法によって、開示されたシステム10を使用して画像のコントラストが高められる可能性がある。この特定の方法において、NIR画像および可視画像は、平均のおよび詳細なウェーブレットサブバンドに分解される可能性がある。明るさおよびテクスチャの詳細が、ヒストグラムマッチング技術を使用してNIR画像から可視画像に移される可能性がある。
コントラストおよびテクスチャを高めるさらなる方法が、あらゆる目的でその全体が参照により本明細書に援用される、「Enhancing Photograph Visual Quality Using Texture and Contrast Data from Near Infra−red Image」と題された、2010年5月13日に出願された(2010年11月18日に公開された)米国特許出願公開第2010/0290703号に開示されている。公開第‘703号に開示された方法においては、可視(例えば、RGB)画像からの重み領域マスク(weight region mask)が計算される。NIR画像からのコントラストおよびテクスチャデータが、重み付けされた領域マスクを使用して可視画像に移され、ウェーブレット変換が実行される。ヒストグラムマッチング技術が、可視画像およびNIR画像の低周波数サブバンドを使用してコントラストデータを計算するために使用される。可視画像とNIR画像の両方の高周波数サブバンドが、テクスチャデータを計算するために使用される。もちろん、当業者が認めるであろうように、これらのコントラストおよびテクスチャの改善方法は、マルチスペクトル撮像システムでコントラストを高めるいくつかの方法であるに過ぎない。その他の好適な方法が、開示された撮像システムで使用され得る。
低光量条件において、本明細書で開示されたマルチスペクトル撮像システム10は、低い光量のレベルの結果として生じる可視(例えば、RGB)画像内の雑音を低減するために使用され得る。これまでの低光量システムにおいては、可視フラッシュシステムが、撮像されるべき被写体を照らすために使用されることが多い。しかし、そのような人工的な光は、画像の雰囲気を台無しにする可能性があり、赤目、望ましくない反射、および陰のような不要なアーティファクトをもたらす可能性がある。可視光フラッシュに関連する問題を最小化しながら低光量条件での雑音を低減するための1つの方法が、あらゆる目的でその全体が参照により本明細書に援用されるShaojie Zhuo、Xiaopeng Zhang、Xiaoping Miao、およびTerence Sim、「Enhancing Low Light Images Using Near Infrared Flash Images」、International Conference on Image Processing 2010、Hong Kongに開示されている。この方法においては、可視フラッシュの代わりにNIRフラッシュランプが使用され、(RGBカラーCCDなどの)通常の可視撮像センサーが画像を取り込む。NIRフラッシュ画像は、可視フラッシュのように雑音によって悪影響を受けず、低光量条件によって引き起こされる雑音を可視(例えば、RGB)画像から取り除くために(加重最小自乗平滑化技術などの)雑音除去技術と併せて使用され得る。もちろん、当業者が認めるであろうように、この雑音低減方法は、撮像システムで雑音を低減する1つの方法であるに過ぎない。その他の好適な方法が、開示された撮像システムで使用され得る。
その他の場合、マルチスペクトル撮像システム10は、画像の霞を除去するために使用される可能性がある。例えば、風景写真内の遠くの被写体は、大気中でのレイリー散乱が原因で霞んで見える可能性がある。画像の霞を除去する1つの手法が、あらゆる目的でその全体が参照により本明細書に援用されるL.Schaul、C.Fredembach、およびS.Susstrunk、「Color Image Dehazing using the Near−Infrared」、International Conference on Image Processing 2009、Cairo、Egyptに開示されている。この方法においては、特定のシーンの可視画像およびNIR画像が融合されられる。エッジ保存フィルタリングを使用する複数解像度の手法が、霞を低減するために使用される。もちろん、当業者が認めるであろうように、この方法は、画像の霞を除去する1つの方法に過ぎない。その他の好適な方法が、開示された撮像システムで使用され得る。
さらにその他の実施形態においては、開示されたハイブリッド撮像システムが、美肌補正の応用で使用される可能性がある。人物写真の撮影においては、しわ、そばかす、およびにきびなどの特定の望ましくない肌の特徴が、画像に取り込まれる可能性がある。開示されたマルチスペクトル撮像システム10は、多くの異なる方法でこれらの望ましくない特徴を除去または平滑化するために使用され得る。いくつかのそのような方法は、あらゆる目的でその全体が参照により本明細書に援用されるC.Fredembach、N.Barbuscia、およびS.Susstrunk、「Combining visible and near−infrared images for realistic skin smoothing」、IS&T/SID 17th Color Imaging Conferenceに開示されている。Fredembachらは、NIRを使用して肌の特徴を改善する3つの方法を開示する。第1の方法では、RGB画像の輝度が、単純にNIRデータによって置き換えられる可能性がある。Fredembachの第2の方法では、NIR画像とRGB画像とが、ウェーブレット分解を用いて融合させられる可能性がある。最後に、第3の方法では、相互的なエッジ認識空間フィルタ(bilateral, edge-aware spatial filter)が、画像を基底層(base layer)と詳細層(detail layer)とに分解し、NIR画像の詳細層を可視の輝度の基底層と融合させ、クロミナンス(chrominance)情報を追加し、最後に、結果として得られた画像をRGB可視画像に変換して戻すために使用される可能性がある。もちろん、当業者が認めるであろうように、これらの方法は、画像で肌を平滑化するいくつかの方法であるに過ぎない。その他の好適な方法が、本発明の精神から逸脱することなく、開示された撮像システムで使用され得ることを認識されたい。
図8の方法39に戻って、マルチスペクトル情報処理が望まれていないという判定がブロック86においてなされる場合、方法39は終了する。したがって、図8の方法39は、開示されたシステム10で使用され得るさまざまなマルチスペクトル画像処理技術および応用の概要を示す。
位置合わせプロセスの例示的な実装
図9A〜9Cは、1つの実装による画像位置合わせプロセスのさまざまな段階の例示的な画像である。図9A〜9Cの実験は、Samsung S5K4E1GX QSXGA CMOSセンサーの対を使用して取り込まれた。NIRセンサーに関しては、Kodak Wratten IRフィルタ(#87C)が、センサーを蔽って適用された。図9Aは、テーブルの上のマネキンならびに背景の椅子およびソファを含むシーンの取り込まれた画像の対を示す。入力NIR画像は、左側に示され、入力可視(例えば、RGB)画像は、右側に示されている。図9Bは、図4のステップ45で開示された密なマッチングプロセスの後の結果を示し、図9Cは、図4のステップ44において画像が位置合わせされた後の結果を示す。図9Cに示されたように、NIR画像は、密なマッチングの結果に基づいて可視画像のパースペクティブにワーピングされた。さまざまな画像のアーティファクト91が、図9Cのワーピングされた画像に見られる可能性がある。アーティファクト91は、位置合わせプロセスの不完全さが原因である視野のずれを表す可能性がある。加えて、アーティファクト91は、例えば、一方の撮像センサーが見ることができるシーンの部分を他方の撮像センサーが見ることができないときのさまざまな遮蔽(occlusion)が原因で起こる可能性がある。しかし、図9Cに示されたように、開示されたシステムおよび方法の結果は、NIR画像および可視画像が正確に位置合わせされ得ることを示す。
用語に関する説明
さらに、当業者は、本明細書において開示された実装に関連して説明されたさまざまな例示的な論理ブロック、モジュール、回路、およびプロセスのステップが、電子的なハードウェア、コンピュータソフトウェア、またはそれら両方の組み合わせとして実装され得ることを理解するであろう。ハードウェアとソフトウェアとのこの互換性を明確に示すために、さまざまな例示的な構成要素、ブロック、モジュール、回路、およびステップが、概してそれらの機能の観点で上で説明された。そのような機能がハードウェアで実装されるか、またはソフトウェアで実装されるかは、システム全体に課された特定の用途および設計の制約による。当業者は、説明された機能をそれぞれの特定の用途のためにさまざまな方法で実装することができるが、そのような実装の判断は本発明の範囲からの逸脱をもたらすものと解釈されるべきでない。当業者は、部分または一部が、全体に満たないかまたは全体に等しい何かを備える可能性があることを認めるであろう。例えば、ピクセルの集合の部分は、それらのピクセルの部分集合を指す可能性がある。
本明細書において開示された実装に関連して説明されたさまざまな例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)もしくはその他のプログラマブルロジックデバイス、離散的なゲートもしくはトランジスタ論理、離散的なハードウェア構成要素、または本明細書において説明された機能を実行するように設計されたそれらの任意の組み合わせを用いて実装または実行され得る。汎用プロセッサはマイクロプロセッサである可能性があるが、別法として、プロセッサは、任意の通常のプロセッサ、コントローラ、マイクロコントローラ、または状態機械である可能性がある。プロセッサは、コンピューティングデバイスの組み合わせ、例えばDSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアと連携する1つもしくは複数のマイクロプロセッサ、または任意のその他のそのような構成として実装される可能性もある。
本明細書において開示された実装に関連して説明された方法またはプロセスのステップは、直接ハードウェアで、プロセッサによって実行されるソフトウェアモジュールで、またはこれら2つの組み合わせで具現化される可能性がある。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROM(登録商標)メモリ、レジスタ、ハードディスク、リムーバブルディスク、CD−ROM、または当技術分野で知られている任意のその他の形態の非一時的ストレージ媒体に存在する可能性がある。例示的なコンピュータ可読ストレージ媒体は、プロセッサがコンピュータ可読ストレージ媒体から情報を読むことができ、コンピュータ可読ストレージ媒体に情報を書き込むことができるようにプロセッサに結合される。別法として、ストレージ媒体は、プロセッサに一体化される可能性がある。プロセッサおよびストレージ媒体は、ASIC内に存在する可能性がある。ASICは、ユーザ端末、カメラ、またはその他のデバイス内に存在する可能性がある。別法として、プロセッサおよびストレージ媒体は、ユーザ端末、カメラ、またはその他のデバイス内の別個の構成要素として存在する可能性がある。
参照のため、およびさまざまな節を見つけやすくするために本明細書に見出しが含められている。これらの見出しは、これらの見出しに関連して説明される概念の範囲を限定するように意図されていない。そのような概念は、明細書全体を通して当てはまる可能性がある。
開示された実装の上記の説明は、当業者が本発明を作製または使用することを可能にするために提供される。これらの実装に対するさまざまな修正が当業者には容易に明らかとなり、本明細書において定義された包括的な原理は、本発明の精神または範囲を逸脱することなくその他の実装に適用され得る。したがって、本発明は、本明細書において示された実装に限定されるように意図されておらず、本明細書において開示された原理および新規性のある特徴に合致する最も広い範囲を与えられるべきである。

Claims (24)

  1. 近赤外線(NIR)撮像センサーおよび可視撮像センサーを含むシステムでNIR画像を可視画像に位置合わせするための電子的方法であって、
    前記NIR撮像センサーからNIR画像を受信することと、
    前記可視撮像センサーから可視画像を受信することと、
    前記NIR画像中の複数のピクセルを前記可視画像中のピクセルとマッチングして複数のマッチングされたピクセルの対を形成することと、
    それぞれのマッチングされたピクセルの対に関するピクセル視差を計算することと、
    それぞれのマッチングされたピクセルの対に関する計算されたピクセル視差に少なくとも部分的に基づいてそれぞれのマッチングされたピクセルの対に重みを割り当てることと、
    割り当てられた複数の重みに少なくとも部分的に基づいて前記NIR画像を前記可視画像に位置合わせすることとを備える、方法。
  2. 前記NIR画像中のピクセルをマッチングすることが、前記NIR画像および前記可視画像の画像勾配に少なくとも部分的に基づいて前記NIR画像および前記可視画像のそれぞれのピクセルに関する画像記述子を計算することを備える請求項1に記載の方法。
  3. それぞれのマッチングされたピクセルの対に関する前記ピクセル視差を計算することが、前記マッチングされたピクセルの対中の前記複数のピクセルの間の前記可視画像および前記NIR画像中の複数のピクセルの分離距離を計算することを含む請求項1に記載の方法。
  4. マッチングされたピクセルのそれぞれの対に重みを割り当てることが、前記マッチングされたピクセルの対を複数のブロックに区分けし、それぞれのマッチングされたピクセルの対に関する色類似性値及び視差類似性値を計算することを備える請求項1に記載の方法。
  5. 前記NIR画像を前記可視画像に位置合わせすることが、前記NIR画像と前記可視画像との間の強度の差に少なくとも部分的に基づく請求項1に記載の方法。
  6. 前記複数のマッチングされたピクセルの対に少なくとも部分的に基づいて前記NIR画像および前記可視画像のうちの一方を前記NIR画像および前記可視画像のうちの他方のパースペクティブにワーピングすることをさらに備える請求項5に記載の方法。
  7. 前記NIR画像を前記可視画像に位置合わせすることが、前記NIR画像および可視画像のホモグラフィ的制約を満たす前記割り当てられた複数の重みに少なくとも部分的に基づく請求項1に記載の方法。
  8. 下記を備えるマルチスペクトル撮像システム、 近赤外線(NIR)画像を取り込むように構成されたNIR撮像センサーと、
    可視光画像を取り込むように構成された可視光撮像センサーと、
    前記NIR画像中のの複数のピクセルを前記可視光画像中の複数のピクセルとマッチングして複数のマッチングされたピクセルの対を形成するようにプログラムされた密マッチングモジュールと、
    それぞれのマッチングされたピクセルの対に関するピクセル視差を計算し、それぞれのマッチングされたピクセルの対に関する計算されたピクセル視差に少なくとも部分的に基づいてそれぞれのマッチングされたピクセルの対に重みを割り当てるようにプログラムされた疎マッチングモジュールと、
    割り当てられた複数の重みに少なくとも部分的に基づいて前記NIR画像を前記可視画像に位置合わせするようにプログラムされた位置合わせされた画像形成モジュールと、
    位置合わせされた画像を前記システムに記憶するようにプログラムされたストレージモジュール。
  9. 前記密マッチングモジュールが、前記NIR画像および前記可視画像の画像勾配に少なくとも部分的に基づいて前記NIR画像および前記可視画像のそれぞれのピクセルに関する画像記述子を計算するようにさらにプログラムされる請求項8に記載のシステム。
  10. 前記密マッチングモジュールが、前記NIR画像の画像記述子を前記可視画像の画像記述子とマッチングして前記複数のマッチングされたピクセルの対を形成するように構成される請求項9に記載のシステム。
  11. 前記疎マッチングモジュールが、前記マッチングされたピクセルの対を複数のブロックに区分けし、それぞれのマッチングされたピクセルの対に関する色類似性値および視差類似性値を計算するようにプログラムされる請求項8に記載のシステム。
  12. 前記位置合わせれた画像形成モジュールが、前記NIR画像と前記可視画像との間の強度の差に少なくとも部分的に基づいて前記NIR画像を前記可視画像に位置合わせするようにプログラムされる請求項8に記載のシステム。
  13. 前記位置合わせされた画像形成モジュールが、前記NIR画像および可視画像のホモグラフィ的制約を満たす前記割り当てられた複数の重みに少なくとも部分的に基づいて前記NIR画像を前記可視画像に位置合わせするようにプログラムされる請求項8に記載のシステム。
  14. 前記NIR画像および前記可視画像から計算された深度マップに少なくとも部分的に基づいて3次元画像をレンダリングするようにプログラムされた立体撮像モジュールをさらに備える請求項8に記載のシステム。
  15. 第1の解像度での前記可視撮像センサーからの静止画像データと、第2の解像度での前記NIR撮像センサーからの動画像データとを処理するようにプログラムされたハイブリッド撮像モジュールをさらに備え、前記第2の解像度は前記第1の解像度未満である請求項8に記載のシステム。
  16. 前記システムが、セルラ電話である請求項8に記載のシステム。
  17. 前記可視撮像センサーから取り込まれた可視画像データ中のコントラストを高めるするために前記NIR撮像センサーから取り込まれたNIR画像データを処理するようにプログラムされたマルチスペクトル情報処理モジュールをさらに備える請求項8に記載のシステム。
  18. NIR撮像センサーからNIR画像を受信するための手段と、
    可視撮像センサーから可視画像を受信するための手段と、
    前記NIR画像中の複数のピクセルを前記可視画像中の複数のピクセルとマッチングして複数のマッチングされたピクセルの対を形成するための手段と、
    それぞれのマッチングされたピクセルの対に関するピクセル視差を計算するための手段と、
    それぞれのマッチングされたピクセルの対に関する計算されたピクセル視差に少なくとも部分的に基づいてそれぞれのマッチングされたピクセルの対に重みを割り当てるための手段と、
    割り当てられた複数の重みに少なくとも部分的に基づいて前記NIR画像を前記可視画像に位置合わせするための手段とを備える撮像システム。
  19. 前記NIR画像を受信するための前記手段および前記可視画像を受信するための前記手段が、通信モジュールを含む請求項18に記載の撮像システム。
  20. 前記ピクセルをマッチングする手段が、密マッチングモジュールを含む請求項18に記載の撮像システム。
  21. 前記ピクセル視差を計算する手段が、疎マッチングモジュールを含む請求項18に記載の撮像システム。
  22. 前記疎マッチングモジュールが、前記重みを割り当てる手段をさらに含む請求項21に記載の撮像システム。
  23. 前記位置合わせする手段が、位置合わせされた画像形成モジュールを含む請求項18に記載の撮像システム。
  24. 実行されるときに、
    NIR撮像センサーからNIR画像を受信することと、
    可視撮像センサーから可視画像を受信することと、
    前記NIR画像中の複数のピクセルを前記可視画像中の複数のピクセルとマッチングして複数のマッチングされたピクセルの対を形成することと、
    それぞれのマッチングされたピクセルの対に関するピクセル視差を計算することと、
    それぞれのマッチングされたピクセルの対に関する計算されたピクセル視差に少なくとも部分的に基づいてそれぞれのマッチングされたピクセルの対に重みを割り当てることと、
    割り当てられた複数の重みに少なくとも部分的に基づいて前記NIR画像を前記可視画像に位置合わせすることとを備える方法を実行するコードを記憶している非一時的コンピュータ可読媒体。
JP2014540041A 2011-11-04 2012-10-31 マルチスペクトル撮像システム Active JP5908599B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161555910P 2011-11-04 2011-11-04
US61/555,910 2011-11-04
US13/663,897 US9692991B2 (en) 2011-11-04 2012-10-30 Multispectral imaging system
US13/663,897 2012-10-30
PCT/US2012/062799 WO2013067012A1 (en) 2011-11-04 2012-10-31 Multispectral imaging system

Publications (2)

Publication Number Publication Date
JP2015502058A true JP2015502058A (ja) 2015-01-19
JP5908599B2 JP5908599B2 (ja) 2016-04-26

Family

ID=47178971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014540041A Active JP5908599B2 (ja) 2011-11-04 2012-10-31 マルチスペクトル撮像システム

Country Status (7)

Country Link
US (1) US9692991B2 (ja)
EP (1) EP2774116B1 (ja)
JP (1) JP5908599B2 (ja)
KR (1) KR101604249B1 (ja)
CN (1) CN103999124B (ja)
IN (1) IN2014CN03104A (ja)
WO (1) WO2013067012A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017029784A1 (ja) * 2015-08-19 2017-02-23 日本電気株式会社 画像位置合わせシステム、方法および記録媒体
WO2019012647A1 (ja) * 2017-07-13 2019-01-17 日本電気株式会社 画像処理装置、画像処理方法およびプログラム記憶媒体
JP2021518700A (ja) * 2018-03-20 2021-08-02 マジック アイ インコーポレイテッド 三次元深度検知及び二次元撮像のためのカメラ露出調節
US11870969B2 (en) 2020-05-28 2024-01-09 Seiko Epson Corporation Imaging apparatus, portable terminal apparatus, and imaging method

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2289235A4 (en) 2008-05-20 2011-12-28 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
US8737723B1 (en) * 2010-12-09 2014-05-27 Google Inc. Fast randomized multi-scale energy minimization for inferring depth from stereo image pairs
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
CN107404609B (zh) 2011-05-11 2020-02-11 快图有限公司 用于传送阵列照相机图像数据的方法
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US8619082B1 (en) 2012-08-21 2013-12-31 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
WO2014052974A2 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
US9058655B2 (en) * 2012-11-06 2015-06-16 Apple Inc. Region of interest based image registration
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US8837861B2 (en) * 2012-12-13 2014-09-16 Microsoft Corporation Bayesian approach to alignment-based image hallucination
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9917998B2 (en) 2013-03-08 2018-03-13 Fotonation Cayman Limited Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
GB2511863A (en) * 2013-03-15 2014-09-17 Infrared Integrated Syst Ltd Apparatus and method for multispectral imaging
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9171355B2 (en) 2013-04-12 2015-10-27 Qualcomm Incorporated Near infrared guided image denoising
KR102190619B1 (ko) * 2013-04-22 2020-12-14 삼성전자주식회사 데이터 정합 방법 및 데이터 정합 모듈
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
EP3066690A4 (en) 2013-11-07 2017-04-05 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US9598011B2 (en) * 2014-01-09 2017-03-21 Northrop Grumman Systems Corporation Artificial vision system
FR3017480B1 (fr) * 2014-02-07 2017-09-08 Thales Sa Procede de detection et de classification d'evenements d'une scene
FR3018147B1 (fr) * 2014-03-03 2016-03-04 Sagem Defense Securite Debruitage video optimise pour systeme multicapteur heterogene
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
BR112015030886B1 (pt) * 2014-04-18 2022-09-27 Autonomous Solutions, Inc. Veículo, sistema de visão para uso por um veículo e método de direcionamento de um veículo com o uso de um sistema de visão
US10013764B2 (en) * 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9968285B2 (en) * 2014-07-25 2018-05-15 Christie Digital Systems Usa, Inc. Multispectral medical imaging devices and methods thereof
EP3467776A1 (en) 2014-09-29 2019-04-10 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
CN105513017B (zh) * 2014-10-14 2019-12-20 深圳力维智联技术有限公司 图像去雾处理方法、装置及摄像设备
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US9948914B1 (en) 2015-05-06 2018-04-17 The United States Of America As Represented By The Secretary Of The Air Force Orthoscopic fusion platform
CN104899836B (zh) * 2015-05-06 2018-07-03 南京第五十五所技术开发有限公司 一种基于近红外多光谱成像的雾天图像增强装置及方法
US9547904B2 (en) 2015-05-29 2017-01-17 Northrop Grumman Systems Corporation Cross spectral feature correlation for navigational adjustment
US10168542B2 (en) * 2015-08-26 2019-01-01 Raytheon Company Polarized pixelated filter array with reduced sensitivity to misalignment for polarimetric imaging
WO2017035661A1 (en) * 2015-09-02 2017-03-09 Irystec Software Inc. System and method for real-time tone-mapping
US20170099476A1 (en) * 2015-10-01 2017-04-06 Samsung Electronics Co., Ltd. Photographing device and method of controlling the same
KR102461144B1 (ko) 2015-10-16 2022-10-31 삼성전자주식회사 영상 연무 제거 장치
CN105430358B (zh) * 2015-11-26 2018-05-11 努比亚技术有限公司 一种图像处理方法及装置、终端
US10582179B2 (en) 2016-02-01 2020-03-03 Samsung Electronics Co., Ltd. Method and apparatus for processing binocular disparity image
CN107438170B (zh) * 2016-05-25 2020-01-17 杭州海康威视数字技术股份有限公司 一种图像透雾方法及实现图像透雾的图像采集设备
US10223775B2 (en) * 2016-09-14 2019-03-05 Omnivision Technologies, Inc. Array camera image combination with feature-based ghost removal
CN107918929B (zh) * 2016-10-08 2019-06-21 杭州海康威视数字技术股份有限公司 一种图像融合方法、装置及系统
WO2018154965A1 (ja) * 2017-02-24 2018-08-30 ソニー株式会社 画像処理装置及び撮像装置
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10337857B2 (en) 2017-10-17 2019-07-02 Raytheon Company Multi-spectral boresight alignment methods and systems
US10436640B2 (en) 2017-10-17 2019-10-08 Raytheon Company Alignment assembly and method for multi-spectral optical systems
US11335106B2 (en) 2017-11-29 2022-05-17 Intel Corporation Methods and apparatus to convert images for computer-vision systems
KR102667740B1 (ko) 2018-02-12 2024-05-22 삼성전자주식회사 영상 정합 방법 및 장치
CN108694715A (zh) * 2018-05-15 2018-10-23 清华大学 基于卷积稀疏编码的单相机rgb-nir成像系统
US11120534B2 (en) * 2018-09-04 2021-09-14 Richard H. Vollmerhausen Color night vision goggle
US10796443B2 (en) * 2018-10-17 2020-10-06 Kneron, Inc. Image depth decoder and computing device
US20200160560A1 (en) * 2018-11-19 2020-05-21 Canon Kabushiki Kaisha Method, system and apparatus for stabilising frames of a captured video sequence
CN109978926B (zh) * 2018-12-29 2021-05-25 深圳市行知达科技有限公司 一种图像自动融合方法、装置及终端设备
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
WO2021108002A1 (en) 2019-11-30 2021-06-03 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US20210168347A1 (en) * 2019-12-02 2021-06-03 ClairLabs Ltd. Cross-Modality Face Registration and Anti-Spoofing
DE102019133515B3 (de) * 2019-12-09 2021-04-01 Cubert GmbH Verfahren und Vorrichtung zur Parallaxenbestimmung von Aufnahmen eines Multilinsen-Kamerasystems
EP4081933A4 (en) 2020-01-29 2024-03-20 Intrinsic Innovation LLC SYSTEMS AND METHODS FOR CHARACTERIZING OBJECT POSE DETECTION AND MEASUREMENT SYSTEMS
EP4085424A4 (en) 2020-01-30 2024-03-27 Intrinsic Innovation LLC SYSTEMS AND METHODS OF DATA SYNTHESIS FOR TRAINING STATISTICAL MODELS ON DIFFERENT IMAGING MODALITIES INCLUDING POLARIZED IMAGES
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
KR102279867B1 (ko) * 2020-06-02 2021-07-21 주식회사 슈프리마아이디 조명 노이즈를 제거한 이미지 생성 방법 및 상기 이미지 생성 방법을 이용한 이미지 생성 장치
KR20220013183A (ko) 2020-07-24 2022-02-04 삼성전자주식회사 영상 복원 장치 및 방법
WO2021184027A1 (en) * 2020-11-12 2021-09-16 Innopeak Technology, Inc. Tuning color image fusion towards original input color with adjustable details
WO2022167096A1 (en) * 2021-02-08 2022-08-11 Huawei Technologies Co., Ltd. Device and method for a multi-camera system
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
DE102021203812B4 (de) 2021-04-16 2023-04-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Optische Messvorrichtung und Verfahren zum Bestimmen eines mehrdimensionalen Oberflächenmodells
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN117056377B (zh) * 2023-10-09 2023-12-26 长沙军顺航博科技有限公司 一种基于图论的红外图像处理方法、系统及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
US20050286756A1 (en) * 2004-06-25 2005-12-29 Stmicroelectronics, Inc. Segment based image matching method and system
JP2006146810A (ja) * 2004-11-24 2006-06-08 Advanced Telecommunication Research Institute International 画像作成システム及び画像作成方法
JP2007053621A (ja) * 2005-08-18 2007-03-01 Mitsubishi Electric Corp 画像生成装置
JP2007515853A (ja) * 2003-10-16 2007-06-14 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト 車両周辺部を可視化するための方法及び装置
JP2008511080A (ja) * 2004-08-23 2008-04-10 サーノフ コーポレーション 融合画像を形成するための方法および装置
WO2011114683A1 (ja) * 2010-03-19 2011-09-22 パナソニック株式会社 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5001558A (en) * 1985-06-11 1991-03-19 General Motors Corporation Night vision system with color video camera
US5555324A (en) * 1994-11-01 1996-09-10 Massachusetts Institute Of Technology Method and apparatus for generating a synthetic image by the fusion of signals representative of different views of the same scene
EP0908060A4 (en) * 1996-06-28 2004-04-28 Stanford Res Inst Int SMALL IMAGE MODULES FOR REAL-TIME STEREO AND MOTION ANALYSIS
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
US7345277B2 (en) * 2000-08-09 2008-03-18 Evan Zhang Image intensifier and LWIR fusion/combination system
US6646799B1 (en) * 2000-08-30 2003-11-11 Science Applications International Corporation System and method for combining multiple energy bands to improve scene viewing
KR100551825B1 (ko) 2004-04-23 2006-02-13 삼성탈레스 주식회사 통계적 상관 관계를 이용한 영상의 정렬 방법
US8531562B2 (en) * 2004-12-03 2013-09-10 Fluke Corporation Visible light and IR combined image camera with a laser pointer
US7570286B2 (en) 2005-05-27 2009-08-04 Honda Motor Co., Ltd. System and method for creating composite images
EP1806697B1 (en) 2006-01-10 2016-08-10 Microsoft Technology Licensing, LLC Segmenting image elements
ITTO20060214A1 (it) 2006-03-22 2007-09-23 Kria S R L Sistema di rilevamento di veicoli
JP2007334311A (ja) * 2006-05-18 2007-12-27 Nippon Hoso Kyokai <Nhk> 可視光・赤外光撮影光学系
US7809258B2 (en) * 2007-07-06 2010-10-05 Flir Systems Ab Camera and method for use with camera
EP2168096A1 (en) * 2007-07-12 2010-03-31 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
US8446470B2 (en) * 2007-10-04 2013-05-21 Magna Electronics, Inc. Combined RGB and IR imaging sensor
IL191615A (en) * 2007-10-23 2015-05-31 Israel Aerospace Ind Ltd A method and system for producing tie points for use in stereo adjustment of stereoscopic images and a method for identifying differences in the landscape taken between two time points
US8345936B2 (en) 2008-05-09 2013-01-01 Noblis, Inc. Multispectral iris fusion for enhancement and interoperability
US8503778B2 (en) 2009-05-14 2013-08-06 National University Of Singapore Enhancing photograph visual quality using texture and contrast data from near infra-red images
US20110080466A1 (en) * 2009-10-07 2011-04-07 Spatial View Inc. Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images
CN101833767B (zh) 2010-05-10 2012-05-23 河南理工大学 数字图像中基于梯度与颜色特征的直线自动匹配方法
KR101051716B1 (ko) 2010-11-12 2011-07-26 삼성탈레스 주식회사 다중센서 영상융합 방법
CN102012939B (zh) 2010-12-13 2012-11-14 中国人民解放军国防科学技术大学 综合颜色和局部不变特征匹配的动画场景自动标注方法
CN102231191B (zh) 2011-07-17 2012-12-26 西安电子科技大学 基于asift的多模态图像特征提取与匹配方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
JP2007515853A (ja) * 2003-10-16 2007-06-14 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト 車両周辺部を可視化するための方法及び装置
US20050286756A1 (en) * 2004-06-25 2005-12-29 Stmicroelectronics, Inc. Segment based image matching method and system
JP2008511080A (ja) * 2004-08-23 2008-04-10 サーノフ コーポレーション 融合画像を形成するための方法および装置
JP2006146810A (ja) * 2004-11-24 2006-06-08 Advanced Telecommunication Research Institute International 画像作成システム及び画像作成方法
JP2007053621A (ja) * 2005-08-18 2007-03-01 Mitsubishi Electric Corp 画像生成装置
WO2011114683A1 (ja) * 2010-03-19 2011-09-22 パナソニック株式会社 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017029784A1 (ja) * 2015-08-19 2017-02-23 日本電気株式会社 画像位置合わせシステム、方法および記録媒体
JPWO2017029784A1 (ja) * 2015-08-19 2018-05-31 日本電気株式会社 画像位置合わせシステム、方法および記録媒体
WO2019012647A1 (ja) * 2017-07-13 2019-01-17 日本電気株式会社 画像処理装置、画像処理方法およびプログラム記憶媒体
JPWO2019012647A1 (ja) * 2017-07-13 2020-04-23 日本電気株式会社 画像処理装置、画像処理方法およびコンピュータプログラム
TWI721288B (zh) * 2017-07-13 2021-03-11 日商日本電氣股份有限公司 影像處理裝置、影像處理方法及程式記錄媒體
US11055877B2 (en) 2017-07-13 2021-07-06 Nec Corporation Image processing device, image processing method, and program storage medium
JP2021518700A (ja) * 2018-03-20 2021-08-02 マジック アイ インコーポレイテッド 三次元深度検知及び二次元撮像のためのカメラ露出調節
JP7354133B2 (ja) 2018-03-20 2023-10-02 マジック アイ インコーポレイテッド 三次元深度検知及び二次元撮像のためのカメラ露出調節
US11870969B2 (en) 2020-05-28 2024-01-09 Seiko Epson Corporation Imaging apparatus, portable terminal apparatus, and imaging method

Also Published As

Publication number Publication date
IN2014CN03104A (ja) 2015-07-03
EP2774116B1 (en) 2016-01-13
KR101604249B1 (ko) 2016-03-17
KR20140088606A (ko) 2014-07-10
JP5908599B2 (ja) 2016-04-26
US20130250123A1 (en) 2013-09-26
WO2013067012A1 (en) 2013-05-10
CN103999124B (zh) 2018-10-26
US9692991B2 (en) 2017-06-27
CN103999124A (zh) 2014-08-20
EP2774116A1 (en) 2014-09-10

Similar Documents

Publication Publication Date Title
JP5908599B2 (ja) マルチスペクトル撮像システム
US11562498B2 (en) Systems and methods for hybrid depth regularization
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
US10573018B2 (en) Three dimensional scene reconstruction based on contextual analysis
US10013764B2 (en) Local adaptive histogram equalization
KR101175097B1 (ko) 파노라마 영상 생성 방법
WO2015165222A1 (zh) 全景图像的获取方法和装置
KR20150140380A (ko) 근적외선 가이드식 이미지 노이즈-제거
KR20130112311A (ko) 고밀도 삼차원 영상 재구성 장치 및 방법
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
WO2022160857A1 (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
WO2020205008A1 (en) Image fusion processing module
US20180068451A1 (en) Systems and methods for creating a cinemagraph
CN110909750A (zh) 图像差异检测方法及装置、存储介质、终端
CN112819878B (zh) 一种深度检测方法、装置、计算机设备和存储介质
KR102697687B1 (ko) 이미지 병합 방법 및 이를 수행하는 데이터 처리 장치
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP2014063290A (ja) 画像処理装置およびプログラム
CN113129353A (zh) 深度估计方法和装置
JP2000076442A (ja) 物体抽出装置、物体抽出方法、物体抽出プログラムを記録した媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160323

R150 Certificate of patent or registration of utility model

Ref document number: 5908599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250