[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5679978B2 - 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム - Google Patents

立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム Download PDF

Info

Publication number
JP5679978B2
JP5679978B2 JP2011536681A JP2011536681A JP5679978B2 JP 5679978 B2 JP5679978 B2 JP 5679978B2 JP 2011536681 A JP2011536681 A JP 2011536681A JP 2011536681 A JP2011536681 A JP 2011536681A JP 5679978 B2 JP5679978 B2 JP 5679978B2
Authority
JP
Japan
Prior art keywords
image
point
stereoscopic
matrix
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011536681A
Other languages
English (en)
Other versions
JPWO2011114683A1 (ja
Inventor
リ ボ
リ ボ
ラーサン ポンサク
ラーサン ポンサク
ペク オン チン
ペク オン チン
シェン シェンメイ
シェン シェンメイ
田川 潤一
潤一 田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2011536681A priority Critical patent/JP5679978B2/ja
Publication of JPWO2011114683A1 publication Critical patent/JPWO2011114683A1/ja
Application granted granted Critical
Publication of JP5679978B2 publication Critical patent/JP5679978B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数の画像対から対応点を検出し、それらを一定の基準を満たすように位置合わせする立体視用画像位置合わせ装置等に関し、特に、立体視表示装置において立体視が可能となるように画像対を位置合わせする、立体視用画像位置合わせ装置等に関する。
立体画像化は、当該技術において長年研究されてきた。立体画像により、視聴者は奥行きを感じて臨場感を得ることができ、家庭向け娯楽産業においては、現在では期待の高い最新の話題になっている。立体画像化の用途は、軍用ナビゲーションから、医療用画像、産業用検査、消費者用電子機器などまで多岐に亘る。立体画像化および表示の原理は、よく知られている。すなわち、画像対を構成する左眼用及び右眼用の各画像が、わずかに異なる視点(通常は、水平方向に位置がずれた視点)から撮影される。左眼用画像を左目に、かつ右眼用画像を右目に別々に表示することにより、人間の脳はそれらを組み合わせて、これらの視差を奥行きと知覚する。
従来、この画像対は、2つのイメージセンサを有する撮影装置(たとえば、デジタルステレオカメラ)を使用することで得ることができる。撮影した画像対が適切に位置合わせされると、視聴者/観察者が見たときに、快適な3D感覚を得る。残念ながら、撮影された画像対は、通常、(多くの理由により)適切に位置合わせされていない。たとえば、製造時における2つのイメージセンサ(光学系を含む)の配置は、完璧ではない。さらに、撮影された画像は、レンズの歪みまたはカメラの構造により、歪むことがある。これにより、水平方向および垂直方向に差異が生じる。2つの画像間の垂直方向および水平方向の差異は、一般的には視差として知られている。観察者の視覚的不快感と眼精疲労とを軽減し、立体視の効果を得るには、少なくとも垂直方向の視差を排除しなくてはならず、水平方向の視差を適切に調整する必要がある。
また、単眼式イメージセンサ装置を用いて異なる視点から連続的に撮影することにより、画像対を撮影することもできる。すなわち、1つの画像を撮影して、カメラを移動して次の画像を撮影することで立体視のための画像対を得ることができる。単眼式センサの装置を用いることの利点は2つある。1つは、二眼式の(ステレオ)センサ装置を用いる場合と比較して低コストであるということである。もう1つの利点は、左画像と右画像との距離を、そのシーン内容により変更できる柔軟性である。しかしながら、この方法による主な課題は、手持ち式のDSC(Digital still camera;デジタルスチルカメラ)を用いた場合、主に手振れにより左画像と右画像との位置ずれが起こることである。
特許文献1(米国特許第6,191,809、2001年2月20日に発行)は、たとえば立体電子内視鏡などの立体画像撮影システムの光学的な位置ずれを補正するための方法および装置を開示している。この方法は、較正目標を用いて、変換率、回転率、および縮尺を算出することで較正情報を決定している。そして、この決定された較正情報を用いて画像対の位置合わせを行う。
特許文献2(特開2003−244500)は、時系列的に左右の視差画像を撮影して対象物の立体画像を得る撮影システムを開示している。この発明では、LCDビューファインダを用いて、撮影中に2つの画像の位置合わせを行うようにユーザをガイドしている。
特許文献3(米国特許第7,113,632、2006年9月26日に発行)は、一対の画像の平行化変換を決定する方法を開示している。
特許文献4(米国特許第6,606,404、1999年6月19日に出願)は、3次元の対象物を立体視処理するための射影変換の修正を算出するシステムおよび方法を開示している。この発明の目的は、エピポールが無限遠にマッピングされ、エピポーラ線が水平軸と平行になるように左右の画像を変換することである。この方法により、立体視に適切な画像を出力することができる。
米国特許第6,191,809号明細書 特開2003−244500号公報 米国特許第7,113,632号明細書 米国特許第6,606,404号明細書
D.Lowe, "Object recognition from local scale-invariant features", International Conference on Computer Vision, 1999 H.Bay, et al., "SURF: Speeded up robust features", European Conference on Computer Vision, 2006 R.Hartley and A.Zisserman, "Multiple View Geometry in Computer Vision", Cambridge University Press、London, 2000 X. Armangue and J. Salvi, "Overall view regarding fundamental matrix estimation", Image and Vision Computing, 2003, Vol.21, p. 205-220 Z.Zhang, "Determining the epipolar geometry and its uncertainty:a review", International Journal of Computer Vision, 1998, Vol.27, p. 161-198
しかし、特許文献1に開示された方法は、たとえば、衝撃などでカメラの位置が変更された場合には適用できない。また、この方法は、単眼式の装置で撮影された画像対への適用は困難である。また、この方法は可変ベースラインステレオカメラで撮影された画像対への適用も困難である。
また、特許文献2に開示された方法は、その位置合わせの質と精度は、ユーザの技量に大きく依存する。ユーザによる位置合わせの調整には長時間かかることもあり、不便である。すなわち、この方法は、自動的ではない。
また、特許文献3に開始された方法は、特に、2つのセンサ間の距離が固定され、左右の画像が同時に撮影されるステレオカメラ用に構成されている方法である。よって、この方法は、単眼式の装置で撮影する画像対への適用は困難である。また、この方法は、可変ベースラインステレオカメラで撮影された画像対への適用も困難である。
また、特許文献4に開始された方法では、エピポールを無限遠にマッピングし、エピポーラ線を水平軸と平行にするが、しかしながら、立体視には、エピポールを無限遠にマッピングする必要も、エピポーラ線を水平軸と平行にする必要もない。よって、この方法は、立体視のために画像対の位置合わせを行うには必要以上に処理が複雑である。
そこで本発明は、カメラパラメータに依存せず、単眼式カメラ及び可変ベースラインカメラで撮影した画像対にも適用でき、従来よりも短時間で自動的に立体視のために画像対を位置合わせする、立体視用画像位置合わせ装置等を提供することを目的としている。
上記課題を解決するために、本発明のある局面に係る立体視用画像位置合わせ装置は、左眼用画像と、前記左眼用画像に対応する右眼用画像とを含む画像対を取得する画像対取得部と、前記画像対の一方である第1の画像に含まれる第1の点と、他方である第2の画像に含まれる点であり、前記第1の点に対応する点である第2の点との組である対応点を検出する対応点検出部と、前記第1の点と前記第2の点との垂直視差が最小となり、かつエピポーラ拘束を満たすように前記第1の点を変換する射影変換行列を算出する第1行列算出部と、前記射影変換行列を用いて前記第1の画像を変換する変換部と、前記変換された第1の画像である第3の画像と、前記第2の画像とを出力する出力部とを備える。
この構成によると、立体視用画像位置合わせ装置は、画像対に含まれる左右の画像が有する垂直方向の視差をなくすよう、位置合わせをすることができる。一般に、立体視に必要な視差は水平方向の視差であり、垂直方向の視差は、自然な立体視の効果を妨げる。特に、1つのレンズ及びイメージセンサしか備えていない通常のデジタルスチルカメラで2度にわけて左右の画像を撮影し、立体視用画像を作成する場合に、本実施の形態にかかる立体視用画像位置合わせ装置は効果的である。本実施の形態における射影変換行列の算出方法は、計算機で自動化可能であり、カメラパラメータに依存せず、単眼式カメラ及び可変ベースラインカメラで撮影した画像対にも適用できる。また、画像対に含まれる2枚の画像のうち、一方を基準にして、この画像と垂直方向の視差をなくすよう、他方の画像のみを変換するため、従来技術のように2枚の画像に処理を施すよりも、およそ半分の行列計算で済む。したがって、従来よりも短時間で計算を行うことができる。
具体的には、前記画像対取得部は、2つのイメージセンサと2つのレンズ、1つのイメージセンサと2つのレンズ、または2つのイメージセンサと1つのレンズにより同時に撮影された2つの画像を前記画像対として取得するとしてもよい。
また、前記画像対取得部は、1つのイメージセンサと1つのレンズを用いて、異なる視点から異なる時間に撮影された2つの画像を前記画像対として取得するとしてもよい。
また、前記第3の画像の座標系が直交性を有し、かつ、前記第1の画像と同じアスペクト比を有するように前記第3の画像を変換する斜傾変換行列を算出する第2行列算出部と、前記射影変換行列と前記斜傾変換行列とを組み合わせて合成変換行列を生成する行列合成部とをさらに備え、前記変換部は、前記合成変換行列を用いて、前記第1の画像を変換するとしてもよい。
この構成において、第2行列算出部は、斜傾した第3の画像の座標系が直交性を有し(すなわち、画像面における水平方向の軸と垂直方向の軸が垂直となり)、かつ、第1の画像と同じアスペクト比を有するように、第3の画像を変換する斜傾変換行列を算出する。これにより、取得した画像対を、より精度の高い立体視が可能な画像対を出力することができる。
また、前記第1の画像及び前記第2の画像に共通する領域である視域を算出する視域算出部をさらに備え、前記第2行列算出部は、前記第3の画像のうち前記視域に含まれる部分の座標系が、直交性を有し、かつ、前記第1の画像のうち前記視域に含まれる部分と同じアスペクト比を有するように前記斜傾変換行列を算出するとしてもよい。
これによると、視域算出部により立体視の効果を妨げる画像領域を事前に削除することができる。その結果、快適な立体視に有効な画像領域のみを対象に処理を施し、処理時間を短縮すると共に、より快適な立体視が可能な画像対を出力することができる。
また、前記対応点検出部は、前記画像対に含まれる前記第1の画像及び前記第2の画像の各々の中心から事前に定められた範囲内において、均一に分散された複数の小領域を選択し、当該小領域のなかから前記対応点を検出するとしてもよい。
これによると、対応点検出部は、対象画像に含まれる領域のうち、より対応点を見つけやすい領域に注目して、対象点を検出することができる。その結果、対応点の検出精度が高まり、より正確な射影変換行列による画像の補正処理が可能となる。
また、前記画像対においてブレ領域を検出するブレ領域検出部をさらに備え、前記対応点検出部は、前記画像対のうち前記ブレ領域以外の領域から前記対応点を検出するとしてもよい。
一般に、ブレ領域からの対応点検出は困難である。したがって、この構成により、事前にブレ領域を取り除くことで、対応点検出部による対応点検出の精度を向上させることができる。
また、前記出力部は、視聴ユーザからの入力操作、表示装置の大きさ、及び、表示装置と視聴ユーザとの距離のうち少なくとも1つを示す調整情報を取得し、前記調整情報に基づいて、前記第3の画像及び前記第2の画像の視差、3Dポップアップ、及びディープイン効果のうち少なくとも1つを調整して出力するとしてもよい。
この構成によると、出力部はその場のコンテキストに基づき、快適性や安全性等の指標を基準に最適な立体視の効果を出力画像に付与することができる。
また、前記画像対取得部は、(A)複数の画像対の候補である画像対候補を取得し、(B)前記複数の画像対候補の各々について、他の画像対候補の各々と共通する視域である共通視域を特定し、前記共通視域における光量、輝度、色、及び鮮明度のうち少なくとも1つに関する情報である品質情報を取得し、(C)前記品質情報によって示される画像品質が最もよい前記画像対候補を前記画像対として選択するとしてもよい。
この構成によれば、画像対取得部は、画像対となるべき画像を大量に取得した場合であっても、その中から、より品質のよい立体視の効果が得られる画像を選択し、画像対とすることができる。
また、前記画像対取得部は、(1)前記左眼用画像及び右眼用画像を含む画像群が圧縮され、かつメモリカードに記憶されている場合、または、(2)前記画像群が圧縮され、かつ外部装置からネットワークを介して送信されている場合は、圧縮されている前記画像群を復号するとしてもよい。
この構成によると、画像対取得部は、外部記憶媒体や通信ネットワークを介して取得した画像に対して、より適切な立体視が可能となる修正を施すことが可能となる。
また、前記対応点検出部は、回転角に対応する情報を出力するジャイロセンサからの出力に一致するように、前記射影変換行列の作成に用いる回転パラメータおよびシフトパラメータを算出するとしてもよい。
この構成によると、対応点検出部は、関連技術に係る対応点検出アルゴリズムとジャイロセンサによる実測値を併用することで、より高速かつ正確に、対応点を算出することができる。
なお、本発明は、このような立体視用画像位置合わせ装置として実現できるだけでなく、立体視用画像位置合わせ装置に含まれる特徴的な手段をステップとする立体視用画像位置合わせ方法として実現したり、そのような特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM(Compact Disc Read Only Memory)等の記録媒体及びインターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
さらに、本発明は、このような立体視用画像位置合わせ装置の機能の一部又は全てを実現する半導体集積回路(LSI)として実現したり、このような立体視用画像位置合わせ装置を含む立体視用画像位置合わせシステムとして実現したりできる。
カメラパラメータに依存せず、単眼式カメラ及び可変ベースラインカメラで撮影した画像対にも適用でき、従来よりも短時間で自動的に立体視のために画像対を位置合わせする、立体視用画像位置合わせ装置等を提供できる。
すなわち、本発明は、自動的に処理が可能であるため、特許文献2における先行技術を超える効果を有する。また、本発明は、較正目標に依存しないため、特許文献1における先行技術を超える効果を有する。また、本発明は、単眼式カメラ用に設計されたものであり、可変ベースラインの二眼式カメラで撮影された画像対にも適用できるため、特許文献1および特許文献3における先行技術を超える効果を有する。
その他の効果を、図5a、図5b、および図5cを用いて説明する。特許文献4における方法は、図5aに左画像402および右画像404として示される、位置合わせ前のカメラ及び画像の向きを、図5bに平行化済み左画像406および平行化済み右画像408として示されるような向きとする位置合わせ(平行化)を実現することを目的としている。ここではエピポールが無限遠にマッピングされ、エピポーラ線が水平軸と平行になっている。一方、本発明は、これを実現することを目的としていない。その代わりに、本発明は図5cにおいて示す位置合わせを実現することを目的としている。ここでは、垂直視差が最小限となり、アスペクト比および視域の直交性が保持される(詳細は、実施形態において説明する)。右画像404は、右画像410によって示されているように、変換(変形)される。本発明は、左画像及び右画像の両方ではなく、いずれか一方の画像変換を行う。したがって、本発明は、特許文献4における先行技術よりも複雑性が低い(処理が簡単である)ため、処理時間を短縮できるという効果を有する。
本発明における好ましい特徴を、付属図面を参照して図示例を用いて説明する。当該図面は、以下を示す。
図1は、手持ち式の単眼式撮影装置を用いて撮影された立体画像対の位置ずれを示す図である。 図2は、本発明の実施の形態1に係る立体視用画像位置合わせ装置の概要を示すブロック図である。 図3は、本発明の実施の形態1及び2に係る画像位置合わせモジュールの詳細な機能構成を示すブロック図である。 図4aは、本発明の実施の形態1及び2に係る画像位置合わせモジュールの処理を示すフローチャートである。 図4bは、本発明の実施の形態1及び2に係るブレ領域操作機能を含む画像位置合わせモジュールの処理を示すフローチャートである。 図5aは、位置合わせを行う前のカメラと画像との方向を示す図である。 図5bは、先行技術による平行化を行った後のカメラと画像との方向を示す図である。 図5cは、本発明の実施の形態1及び2に係る立体視用画像位置合わせ装置による位置合わせを行った後のカメラと画像との方向を示す図である。 図6aは、画像対からの視域または重なり合う領域の概念を示す図である。 図6bは、直交性の概念および射影変換行列による変形を行う前後の視域または重なり合う領域のアスペクト比を示す図である。 図7は、本発明の実施形態2に係る撮影装置のブロック図である。 図8は、本発明の実施形態1及び2に係る立体視用画像位置合わせ装置等の効果を示した結果の1つである。 図9は、3D処理エンジンとして本発明を用いた適用例である。 図10aは、正視差で立体表示を行う場合を示す図である。 図10bは、ゼロ視差で立体表示を行う場合を示す図である。 図10cは、負視差で立体表示を行う場合を示す図である。 図11は、3D表示ボタンを介して3D表示内の3D処理エンジンと通信する、ユーザインタラクションを示す図である。 図12aは、特徴点の抽出および変形行列を生成するための画像領域選択を示す第1の図である。 図12bは、特徴点の抽出および変形行列を生成するための画像領域選択を示す第2の図である。 図13は、本発明の実施の形態1及び2における斜傾変換行列の算出方法の一例を説明する図である。 図14は、本発明の実施の形態1及び2における射影変換行列及び斜傾変換行列による画像変換処理のイメージを示す概念図である。
図1は、単眼式の(すなわち、1つのレンズと、1つのイメージセンサを備える)撮影装置を用いて画像対を撮影する例を示す。左画像102および右画像104は、単眼式デジタルカメラ106を用いて、異なる視点から連続的に撮影される。左画像102の撮影と右画像104の撮影間のカメラの移動距離は、距離108で示される。たとえば、ユーザがある位置で左画像102を撮影した後、手を距離108だけ右へ移動させて右画像104を撮影することが考えられる。
この例において、撮影された画像(左画像102および右画像104)は位置合わせされておらず、カメラの(たとえば、手による)動きによる、変換および回転の影響を含む。なお、距離108は、シーンに応じて変動してもよい。たとえば、距離108は、対象物が近い場合には短くなり、対象物が遠い場合には、長くなる。この例で撮影された左画像102および右画像104を、本発明における立体視用画像位置合わせ装置によって適切に位置合わせすることが可能である。
図2は、本発明の一実施形態に係る立体視用画像位置合わせ装置200のブロック図である。
図2に示されるように、本実施の形態に係る立体視用画像位置合わせ装置200は、画像対取得部205と、画像位置合わせモジュール208と、出力部210と、内部バッファ212とを備える。
画像対取得部205は、左眼用画像と、左眼用画像に対応する右眼用画像とを含む画像対を取得する。画像対取得部205は、イメージセンサ及びレンズよりなる撮影装置(図示なし)から画像対を取得してもよく、記憶媒体又はネットワーク等を介して、画像対を取得してもよい。
ここで、画像対取得部205が撮影装置から画像対を取得する場合、(1)2つのイメージセンサと2つのレンズ、(2)1つのイメージセンサと2つのレンズ、または、(3)2つのイメージセンサと1つのレンズのいずれかを備えた撮影装置により、同時に撮影された2つの画像を画像対として取得することが考えられる。または、画像対取得部205は、1つのイメージセンサと1つのレンズを用いて、異なる視点から異なる時間に撮影された2つの画像を画像対として取得してもよい。
画像対取得部205は、記憶媒体リーダ202と、画像デコーダ204とを有する。たとえば、SDメモリカードのような記憶媒体から画像対である画像データを取得する場合、記憶媒体リーダ202は、記憶媒体から画像データを取得する。画像データS22が符号化されている場合は、必要に応じて、画像デコーダ204は、画像データを復号する。なお、画像デコーダ204は、たとえばネットワークを介して取得した符号化データを復号してもよい。すなわち、画像対取得部205は、(1)左眼用画像及び右眼用画像を含む画像群が圧縮され、かつメモリカードに記憶されている場合、または、(2)画像群が圧縮され、かつ外部装置からネットワークを介して送信されている場合は、圧縮されている画像群を復号してもよい。
画像位置合わせモジュール208は、画像変換を行うことで圧縮されていない画像対S23を位置合わせする。位置合わせ処理に伴う中間データは、内部バッファ212に記録される。位置合わせされた画像対S25は、出力部210に送信される。
出力部210は、位置合わせにより変換された画像を含む画像対を出力する。具体的には、出力部210は、好ましい出力タイプに応じて出力画像フォーマットを調整する。たとえば、出力部210は、表示装置214に表示させるため、表示装置214が表示可能な表示フォーマットに合致するように画像フォーマットを調整してもよい。このような形式には、眼鏡を使用せずに視聴する裸眼立体装置のための形式、(眼鏡を使用して視聴する)グレー/カラーアナグリフ、インターレース形式、チェッカーボード形式、またはアクティブシャッターメガネを用いて視聴する、フレームシーケンシャル型立体表示装置のための他の形式が含まれてもよい。または、位置合わせされた画像対S26を、記憶/送信装置216を用いて記憶/送信してもよい。記憶装置の例には、フラッシュベースのメモリカード、ハードドライブ、および光学ドライブが含まれるが、これらに限定されない。送信装置の例には、HDMIインターフェース、USBインターフェース、ワイヤレスインターフェースおよびdirect−to−printerインターフェースが含まれるが、これらに限定されない。記憶装置または送信装置で処理されるデータは、任意に可逆または不可逆圧縮されていてもよい。位置合わせされた画像対S26は、プリンタ218で印刷するために出力することもできる。プリンタ218は、印刷される画像上に奥行きの錯覚を構築する、レンチキュラーシートを備えてもよい。記憶/送信装置216において記憶された画像は、プリンタ218に直接送信されてもよく、または信号S27を介して表示装置214に送信されてもよい。必要に応じて、表示の幅を含むことができるフィードバック信号S29を画像位置合わせモジュール208にフィードバックしてもよい。
立体視用画像位置合わせ装置200が備える、画像位置合わせモジュール208、および他の内部モジュールは、通常、IC(集積回路)、ASIC(用途限定集積回路)、LSI(大規模集積回路)、DSP(デジタルシグナルプロセッサ)の形で実現することができ、またはCPUベースのプロセッサおよびPCを含む機械により実現される。これらの各モジュールは、複数の単一機能LSI内、または1つの集積LSI内にも備えることができる。ここで用いた名称はLSIであるが、集積度に応じて、IC、システムLSI、スーパーLSI、またはウルトラLSIとも呼ばれることもある。さらに、集積化を実現する方法としては、LSIのみではなく、専用回路または汎用プロセッサなども集積化を実現することができる。これには、プログラム命令により制御することができる、DSP(デジタルシグナルプロセッサ)など、特化したマイクロプロセッサが含まれる。LSI製造後にプログラムすることが可能なFPGA(フィールド・プログラマブル・ゲートアレイ)、またはLSIの接続もしくは構成を再構成可能なプロセッサを、同じ用途に用いることができる。将来的には、製造および処理技術が向上し、全く新しい技術がLSIにとって代わるかもしれない。その技術により、集積を行うこともできる。実施の際に、時系列に画像を表示する液晶表示装置またはプラズマ表示装置、レンチキュラーレンズ層が付加された表示装置、または他の種類の表示装置等、立体画像を表示可能な表示装置に立体視用画像位置合わせ装置200を組み込んでもよい。立体視用画像位置合わせ装置200は、デジタルビデオディスクプレーヤ、ブルーレイ(登録商標)ディスクプレーヤ、および他の種類のデジタルメディアプレーヤなどのデジタルメディアプレーヤ装置に実装されてもよい。他の種類の装置において立体視用画像位置合わせ装置200を実装することも可能であり、本願の範囲を限定するものではない。
図3は、本実施の形態に係る画像位置合わせモジュール208の詳細な機能構成を示すブロック図である。
図3に示されるように、画像位置合わせモジュール208は、対応点検出部252と、第1行列算出部254と、第2行列算出部256と、行列合成部258と、変換部260と、ブレ領域検出部220と、視域算出部262とを備える。
対応点検出部252は、画像対取得部205が取得した画像対の一方である第1の画像に含まれる第1の点と、他方である第2の画像に含まれる点であり、第1の点に対応する点である第2の点との組である対応点を検出する。
ブレ領域検出部220は、画像対においてブレ領域を検出する。ブレ領域の検出方法は、任意のものを使用できる。たとえば、画像を複数のブロックに分割し、ブロックごとに、一方向に並んだ複数の画素の濃度変化が閾値以上である部分の割合を検出することで、ブレがあるブロックを特定するブレ領域検出方法等を利用してもよい。
ブレ領域検出部220によりブレ領域が検出された場合、対応点検出部252は、画像対のうちブレ領域として特定された領域以外の領域から対応点を検出することが好ましい。
第1行列算出部254は、第1の点と第2の点との垂直視差が最小となり、かつエピポーラ拘束を満たすように第1の点を変換する射影変換行列を算出する。なお、垂直視差とは、垂直位置値の差である。詳細については、後述する。
第2行列算出部256は、第1行列算出部254が算出した射影変換行列により変換された第1の画像である第3の画像の座標系が、直交性を有し、かつ、第1の画像と同じアスペクト比を有するように、第3の画像を再度、変換する斜傾変換行列を算出する。より詳細には、後述する。
視域算出部262は、第1の画像及び第2の画像に共通する領域である視域を算出する。なお、視域が算出された場合、第2行列算出部256は、第3の画像すべてではなく、第3の画像のうち、視域に含まれる部分が直交性を有し、かつ、第1の画像のうち視域に含まれる部分と同じアスペクト比を有するように斜傾変換行列を算出することが好ましい。なお、視域の詳細については後述する。
行列合成部258は、射影変換行列と斜傾変換行列とを組み合わせて合成変換行列を生成する。
最後に、変換部260は、合成変換行列を用いて、第1の画像を変換する。
こうして画像位置合わせモジュール208によって変換された、第3の画像と、第2の画像とを含む画像対は、出力部210から補正後の画像対として出力される。
以上、図3を参照して画像位置合わせモジュール208の構成について説明した。
次に、画像位置合わせモジュール208が備える各処理部の処理内容について、より詳細に説明する。
図4aは、本実施形態に係る画像位置合わせモジュール208の動作を示すフロー図である。ステップS302では、画像対取得部205が画像対を取得することで、立体視用画像位置合わせ装置200へ画像対が入力される。ステップS304では、対応点検出部252により、画像対の対応点が検出される。
なお、画像対に含まれる2つの画像が撮影されたときに、ジャイロセンサのようなセンサを用いて2つの撮影位置の間の回転量を導き出す場合には、処理時間を短縮するためにステップS304を省くことができる。すなわち、対応点検出部252は、回転角に対応する情報を出力するジャイロセンサからの出力に一致するように、第1行列算出部254が射影変換行列の作成に用いる回転パラメータおよびシフトパラメータを算出することで、行列算出のための処理時間を短縮し、精度を向上させることができる。
ステップS306において、第1行列算出部254は、対応点を用いて基礎行列(Fundamental Matrix;F行列)を算出する。ステップS308において、第1行列算出部254は、対応点を用いて射影変換行列を算出する。これは、対応点の垂直視差が最小となり、かつエピポーラ拘束が満たされるように画像の一方を変形するための行列を見つけることを目的としている。
ステップS310において、第2行列算出部256は、変形された画像の視域が直交性を保ち、変形前の視域と同じアスペクト比を有するように斜傾変換行列を算出する。視域は、立体視のために用いられる、切り出し領域であり、両画像に共通する領域を含む。左右の画像の重なり合う領域である共通領域内の対応点のみが、斜傾変換行列の算出に役立ち、それ以外の領域を使用した場合は最終的に得られる3D画像の品質が保証されない。
ステップS312において、行列合成部258は、射影変換行列および斜傾変換行列を合成する。次にステップS314において、合成された変換行列(合成変換行列)に応じて画像対のうち一方の画像が変換される。最後に、ステップS316において、出力部210から位置合わせされた立体画像対が出力される。
図4bは、ブレ領域検出ステップS317(b)、ブレ領域補償ステップS318(b)、視差調整ステップS319(b)、およびユーザフィードバックステップS320(b)を含む別のフロー図である。
ステップS302(b)における入力画像対は、対応点検出のためにステップS304(b)に移る。ここではある一定の領域のみが対応点検出の対象とされる。具体的には、中央領域は、2つの画像の共通または重なり合う領域を好適に表すために、対応点検出の対象領域として中央領域を用いることが好ましい。また、ブレ領域検出ステップS317(b)からの結果を用いることによって対応点検出の対象領域からブレ領域を避けてもよい。複雑性を低減させるため、または特徴点抽出を迅速化するために中央周辺の均等に分布された領域のみを対応点検出の対象領域として選択してもよい。すなわち、対応点検出部252は、画像対に含まれる第1の画像及び第2の画像の各々の中心から事前に定められた範囲内において、均一に分散された複数の小領域を選択し、当該小領域のなかから対応点を検出してもよい。図12a及び図12bは、そのような構成の1つを示しており、その説明は本実施の形態の後半部分において行う。
ステップS306(b)、ステップS308(b)、およびステップS310(b)において、選択されたこれらの候補点のみを用いて、ブレ領域におけるあらゆる点を除外することにより、第1行列算出部254及び第2行列算出部256は、変換行列を生成する。
ステップS318(b)において、1つのフレーム内のブレ領域またはブレ対象物が、他のフレーム内の同じブレ領域またはステップ対象物を参照することにより補償またはシフトバックされる。そして、得られた画像は、ステップS314(b)において変形処理が施される。
ステップS319(b)において、出力部210は、ポップアップ効果(画像が飛び出る向きの効果)またはディープイン効果(画像が沈み込む向きの効果)のような視差または3D効果を、ステップS320(b)からのフィードバックでベースラインまたは他のパラメータを変更することによって調整することができる。そのフィードバックは、たとえば3D表示ボタン(図11に示す)を押すことによるユーザインタラクションによりステップS319(b)にフィードバックが行われるか、または測距センサもしくは2カメラシステムなどによって、視聴距離を自動的に検出することでステップS319(b)にフィードバックが行われる。たとえば、ユーザとの距離が近いほど、3D効果を弱めるように出力部210が画像対に対して画像処理を施した後、出力してもよい。
また、図11において、ユーザフィードバックは、3D表示ボタンを押すことで行うことができ、フィードバック信号は、図11に示す3D処理エンジンに送信される。たとえば、ユーザの可視距離およびユーザの目の許容範囲に応じて、「3D視差」上/下ボタンを押すことにより、さらに奥行きが深くまたは浅くなり、または「ポップアップ」もしくは「ディープイン」というボタンを押すことでコンテンツの3D効果を調整する。
また、出力部210は表示装置の大きさを取得し、表示装置が大きいほど、より3D効果を弱めるように画像対に対して画像処理を施した後、出力してもよい。
すなわち、出力部210は、視聴ユーザからの入力操作、表示装置の大きさ、及び、表示装置と視聴ユーザとの距離のうち少なくとも1つを示す調整情報を取得し、調整情報に基づいて、第3の画像及び第2の画像の視差、3Dポップアップ、及びディープイン効果のうち少なくとも1つを調整して出力する。
なお、3Dポップアップ及びディープイン効果等の3D効果を調整する際は、具体的には、出力部210は、画像対に含まれる左右画像の視差を調整する。たとえば、出力部210は、左眼用画像を基準にして、右眼用画像が左眼用画像よりも左側に配置される交差視差では、その交差視差を大きくするほど(すなわち、右眼用画像が左眼用画像よりも、より左側に配置されるほど)、3Dポップアップ効果を強めることができる。また、左眼用画像を基準にして、右眼用画像が左眼用画像よりも右側に配置される非交差視差では、その非交差視差を大きくするほど(すなわち、右眼用画像が左眼用画像よりも、より右側に配置されるほど)、ディープイン効果を強めることができる。
なお、図12aを参照し、対応点検出部252は、図12aに示されるように、画像1100を5つのサブブロックである、B1、B2、B3、B4、およびB5に分割してもよい。これらのブロック(または一部のブロック)は、特徴の検出、記述子の算出、および対応点の決定に用いてもよい。この場合、画像全体の処理は必要ない。これにより、システムの演算時間が迅速化される。さらに、これらのブロックは、変換行列の精度の向上、および望ましい対応点の選択の迅速化に役立つ。また、均質なブロックの場合は、通常、有益な特徴が存在しない。したがって、均質なブロックは除外すべきである。図12(b)のブロックB1を例に考えると、B1が均質なブロックである場合、B1の周囲の非均質なブロック(たとえば、B1’が非均質なブロックであればB1’)が選択される。これは、選択されたブロックがすべて有益な特徴を含むようにするためである。上記の前提で、画像領域選択の他の方式を用いてもよい。
ここで、ブロックが均質であるとは、当該ブロックに含まれる画像情報の分散が小さいことを意味する。たとえば、(1)ブロック内で隣接する画素の画素値が、事前に定められた閾値以上変化する画素(いわゆるエッジ部分)の数が事前に定められた閾値より小さい場合、又は、(2)ブロックごとの空間周波数の中央値又は平均値が事前に定められた閾値より小さい場合に、当該ブロックは均質であると判断し、その他のブロックは非均質であると判断してもよい。
対応点検出部252は、従来技術における任意の対応点検出方法を、対応点の検出に用いることができる。例えば、画像対の各々の画像を同一サイズの所定のブロックに分割し、各ブロックに含まれるエッジ間を抽出する。その後、エッジごとに類似度(例えば最小二乗和、尤度、AIC等)を算出し、最も類似するエッジに含まれる点を対応点として検出することなどが考えられる。より詳細には、既知の方法の例が、D.Loweの"International Conference on Computer Vision"(1999)における"Object recognition from local scale-invariant features"(非特許文献1)、およびH.Bayらの"European Conference on Computer Vision"(2006)における"SURF:Speeded up robust features"(非特許文献2)に開示されている。なお、対応点検出部252は、対応点検出の他の方法を用いてもよく、これは本発明の範囲および精神に影響するものではない。
次に、ステップS306において、第1行列算出部254は検出された対応点を用いて基礎行列Fを算出する。以下簡単に基礎行列Fの求め方を説明する。
基礎行列Fは、ランク2の3×3の行列であり、第1の画像に含まれる点を、第2の画像に含まれるエピポーラ線へと変換する行列である。すなわち、第1の画像に含まれる点rを基礎行列Fで変換したFrは、第2の画像におけるエピポーラ線となる。ここから明らかなように、基礎行列Fは、lΤFr=0となる性質を有する。なお、lは、第2の画像における、rの対応点である。
ここで、l、F、rをそれぞれ以下の数式1で表すとする。
Figure 0005679978
さらに、ベクトルu=(f11、f12、f13、f21、f22、f23、f31、f32、f33とし、ベクトルξ=(l、l、l、l、l、l、r、r、1)とすると、lΤFr=0より、u・ξ=0となる。
したがって、対応点検出部252で検出された、複数の対応点(実際にはこれらは、誤差を含む)で生成される9次元ベクトルデータ{ξα}から、内積が0になるという制約条件のもとで、9次元ベクトルuを推定すればよい。この解法は様々なものが知られているが、例えば最尤推定法により、尤度が最大になるように数値計算的にuを決定する等の方法で基礎行列Fを求めることができる。より詳細には、たとえば、R.Hartley and A.Zisserman、Multiple View Geometry in Computer Vision、Cambridge University Press、London、2000(非特許文献3)、X. Armangue and J. Salvi、"Overall view regarding fundamental matrix estimation"、 Image and Vision Computing、Vol.21、2003、205-220頁(非特許文献4)、およびZ.Zhang、"Determining the epipolar geometry and its uncertainty:a review"、"International Journal of Computer Vision"、Vol.27、1998、161-198頁(非特許文献5)に記載の方法を用いることができる。
次に、ステップS308における射影変換行列の演算に関する詳細をここに開示する。第2行列算出部256は、画像対のうち一方の画像を変形するための射影変換行列を算出する。どちらの画像を選択してもよい。本実施形態において、右眼用画像を変形の対象として選択する。しかしながら、左眼用画像が選択されたとしても、本発明の範囲または精神に影響することはない。一定の基準に基づき、変形のために左眼用画像または右眼用画像を選択する順応的アルゴリズムがあってもよい。その基準は、たとえば、左眼用画像もしくは右眼用画像のどちらがより水平であるか、左眼用画像もしくは右眼用画像のどちらがより鮮明であるか、または、左眼用画像もしくは右眼用画像のどちらが興味の対象を含んでいるかなどである。
本発明は、エピポーラ幾何対応の射影変換、すなわち、基礎行列に一致または適合する射影変換を用いている(非特許文献3を参照)。これは、通常の射影変換の自由度が8ではなく、3に制限され、以下の数式2によって表される。
Figure 0005679978
数式2において、Hは、右画像を変換するための3×3の射影変換行列(いわゆるホモグラフィ;Homography)である。すなわち、第1の画像に含まれる点をr、第2の画像に含まれる点をlとすると、l=Hrとなるようにrの座標を変換する行列である。
また、Fは、ステップS306において算出された3×3の基礎行列Fである。
また、e’は、右画像のエピポールの3×1同次座標である。これは、基礎行列Fから導き出すことができる。具体的には、エピポールe’は、基礎行列FによりFe’=0となる性質を有するので、エピポールe’は、行列FFの最小の固有値に対応する固有ベクトルとして求められる。
また、[a]bは、外積であり、a×bを意味する。
また、vは、自由度3のパラメータを含む、1×3ベクトルである。
本実施の形態に係る第1行列算出部254は、対応点間の垂直視差が最小化されるように、vによってパラメータ化されたHを求める。すなわち、次の数式3を満たすvを求める。ここで、Xは、左画像における対応点のリストであり、Xが右画像における対応点のリストであるとする。数式3を以下に示す。
Figure 0005679978
ここで、y_component_of (X) は、点Xの垂直座標成分を意味する。
したがって、第1行列算出部254は、複数の対応点(X及びX)から、数値計算的にパラメータvを決定することができる。例えば、最小二乗法により、数式3を最小化するvを決定することが可能である。なお、Hを求める他の方法としては、各対応点の対のHを求め、その平均を求める方法もある。
次に、ステップS310における斜傾変換行列を算出する方法の詳細をここに開示する。ステップS308において算出された射影変換行列は、x方向における視差を拘束しない。したがって、Hによって射影変換された画像は傾斜することもあるため、斜傾変換を行うことにより画像の傾斜をなおす必要がある。傾斜量を算出するために、本発明はアスペクト比と視域の直交性を復元する。「視域」、「アスペクト比」、および「直交性」という用語を、図6aおよび図6bを用いて説明する。
図6aは、左眼用画像502および右眼用画像504を示す。内側の矩形506、508は、両画像に共通する領域の外形を示している。内側の矩形506、508より外側の領域は、どちらか一方の画像のみに現れる。立体視において、これらの領域は不快である。なぜなら、これらの領域は1つの目のみで見ているため、人間の脳は、奥行きを知覚するための視差情報を抽出することができないからである。この内側の共通領域である矩形506、508を、視域と呼ぶ。図6bは、左右いずれかの画像の、変形前画像510および変形後画像512を示す。変形前視域514は、一定のアスペクト比を有しており、このアスペクト比は、点518および点522間の距離と、点520および点524間の距離との比により決定することができる。角526も直角である。変形後視域516も同様に、アスペクト比は変形点528、530、532、534により決定され、異なるアスペクト比を有してもよい。角540は、直角でなくてもよい。シアー変換行列は、直交性およびアスペクト比を復元させるために算出される。
以下、第2行列算出部256が算出する斜傾変換行列であるシアー変換行列の算出方法について、より具体的に説明する。
数式4に、シアー変換行列の一般形を示す。
Figure 0005679978
図13を参照して、数式4で表される行列Sは、第1行列算出部254で算出された行列Hにより右眼用画像350を変換した結果である右眼用画像352の斜傾を元にもどし、座標軸が直交した右眼用画像354を得るための行列である。
ここで、右眼用画像350、右眼用画像352、及び右眼用画像354において、それぞれ対応する点は、以下のとおりである。すなわち、右眼用画像350の点aは、右眼用画像352の点a’に対応し、右眼用画像352の点a’は、右眼用画像354の点a’’に対応する。
以下同様に、b、b’、及びb’’が対応し、c、c’、及びc’’が対応し、d、d’、及びd’’が対応する。
さらに、定義よりa’=Ha、b’=Hb、c’=Hc、d’=Hdであり、a’’=SHa、b’’=SHb、c’’=SHc、d’’=SHdである。
また、前述のとおり、右眼用画像354内の線分a’’c’’355と、線分b’’d’’356は直交する。さらに、右眼用画像350と右眼用画像352のアスペクト比が一致することから、線分a’’c’’355の長さと、線分b’’d’’356の長さの比は、線分acの長さhと、線分bdの長さwの比に一致する。
以上から、第2行列算出部256は、以下の数式5で示される2つの制約条件をともに満たすように、斜傾変換行列Sに含まれる変数s1及びs2を算出する。
Figure 0005679978
次に、視域を算出する方法の1つを説明する。まず、左眼用画像における複数の対応点の重心を算出する。次に、右眼用画像における対応点を変換し、変換された複数の対応点の重心を算出する。その結果、これらの重心の差が算出される。重心の差の垂直方向の成分は、図6aの垂直差536に対応する。また、重心の差の水平方向の成分は、図6aの水平差538に対応する。よって、視域の寸法は、元の画像サイズおよび重心の差から導き出すことができる。この方法によって、完璧な視域を求められないことがある。すなわち、算出された視域と、実際の視域との間に差異が生じる可能性がある。しかしながら、この方法で十分満足な結果が得られる。
射影変換行列およびシアー変換行列は、対応点を用いて算出される。画像そのものは、変形されていない。別々の2つの変換処理ではなく、1つの変換処理を行う前に、射影変換とシアー変換行列とを組み合わせることが好ましい。
以上説明した、ステップS308〜ステップS314における処理の効果を、図14を参照して、再度、説明する。
図14は、射影変換行列H及び斜傾変換行列Sによる画像変換処理のイメージを示す概念図である。
図14に示される画像のうち、左眼用画像面に含まれる視域362と、右眼用画像面に含まれる視域364aが、本実施の形態に係る画像対取得部205が取得した画像対に含まれる左右2つの画像の視域とする。なお、視域362に含まれる点372と、視域364aに含まれる点378は、点370を左焦点c’及び右焦点cからそれぞれ見たときに、左眼用画像面及び右眼用画像面にそれぞれ写される点である。すなわち、点372と、点378は対応点である。
ここで、点372と、点378の垂直位置は大きく異なっている。同様に、他の対応点の垂直位置も大きく異なっている。
視域364bは、視域364aを射影変換行列Hにより変換した画像である。この変換により、視域362と、視域364bの対応点の垂直位置は一致する。例えば、点372と、その対応点である点376の垂直位置は一致している。
しかし、図14に示されるように、視域362と視域364bとを比較すると、視域364bは座標軸が直交せず、傾斜している。
この視域364bを斜傾変換行列Sにより変換した画像が、視域364cである。視域364cは、視域362と対応点(点372及び点374)の垂直位置が一致し、かつ、視域内の座標の直交性が保たれた画像となる。
なお、行列Hと行列Sを合成した行列H(=SH)を算出することにより、視域364aから直接に視域364cへと変換できる。
図3との対応を示すと、第1行列算出部254は、射影変換行列Hを算出する。第2行列算出部256は、斜傾変換行列Sを算出する。行列合成部258は、行列Hを算出する。変換部260は、行列Hによる変換を取得画像対の一方に含まれる視域(例えば、視域364a)に施す。
次に、図7を参照して、本発明の実施の形態2について説明する。実施の形態2では、画像位置合わせモジュール208を撮影装置に組み込んだ実施形態について説明する。なお、図7における画像位置合わせモジュール1246は、立体視用画像位置合わせモジュール200と同様の構成を有する。
図7は、本発明の他の実施形態による撮影装置1200の概略ブロック図を示す。撮影装置1200は、光学系1202と、イメージセンサ1204と、ADC(アナログ−デジタル変換器)1206と、イメージプロセッサ1208と、マイクロコンピュータ1210と、外部メモリ1212と、ドライバコントローラ1220と、OIS(光学式手振れ防止機構)センサ1218と、操作部1222と、記憶/送信装置1216と、表示装置1214とを備える。イメージプロセッサ1208は、内部メモリ1240と、画像位置合わせモジュール1246と、原画像プロセッサ1242と、カラー画像プロセッサ1244とを備える。マイク、スピーカなどの他の構成要素は図示されていないが、これは本発明の範囲および精神を限定するものではない。
光学系1202は、イメージセンサ1204に到達する光信号を制御するために、複数のレンズまたはレンズの集合、ズーム/フォーカス機構、アクチュエータ、シャッター、開口部などの構成要素を備えてもよい。イメージセンサ1204は、マイクロコンピュータ1210の制御によって入射光信号を蓄積してその光信号を電気信号に変換する。電気信号は、ADC1206によりデジタルデータ(原画像データ)に変換され、内部メモリ1240または外部メモリ1212に記憶される。原画像データは、左右の画像が異なる視点から連続的に撮影された立体画像対を含んでもよい。原画像プロセッサ1242は、原画像データを内部メモリ1240(または外部メモリ1212)から取得し、ノイズ低減、リニア補正、ホワイトバランス、ガンマ補正等、多くの前処理(図示せず)を行ってから、前処理された原画像を出力してもよい。この前処理された原画像を、記憶/送信装置1216により記憶または送信することができる。前処理された原画像を、カラー画像プロセッサ1244で処理することで、RGBまたはYCbCr等のカラー画像を生成することもできる。カラー画像プロセッサ1244は、好適なカラー画像を生成するために、色補間、色補正、色調範囲の調整、色ノイズの低減等を含んでもよい。画像位置合わせモジュール1246は、立体画像対のカラー画像を取り込み、位置合わせする。出力される位置合わせ済み立体画像対は、3D視用の立体画像を表示可能なレンチキュラーレンズ層が付着された液晶モニタ等の表示装置1214により、表示することができる。上記画像は、2Dで表示することもできる。出力される位置合わせ済み立体画像対は、記憶/送信装置に記憶することもできる。前処理された原画像および出力画像は、記憶/送信装置1216により記憶/送信される前に、圧縮部(図示せず)により圧縮されてもよい。記憶装置の例には、フラッシュベースのメモリカード、ハードドライブ、および光学ドライブが含まれるが、これらに限定されない。送信装置の例には、HDMIインターフェース、USBインターフェース、ワイヤレスインターフェースおよびdirect−to−printerインターフェースが含まれるが、これらに限定されない。記憶装置または送信装置で処理されるデータは、任意に可逆または不可逆圧縮されていてもよい。
光学系1202は、ドライバコントローラ1220により制御されてもよい。ドライバコントローラ1220は、マイクロコンピュータ1210により制御される。操作部1222は、ユーザ操作入力を受信し、その電気信号をマイクロプロセッサ1210に送信することで、ユーザの入力に対応して関連するモジュール、たとえば、ドライバコントローラ1220、イメージセンサ1204、イメージプロセッサ1208等を制御することができる。OISセンサ1218は、手振れまたはカメラの動きによる揺れを検出し、その電気信号をマイクロコンピュータ1210に送信する。マイクロコンピュータ1210は、ドライバコントローラ1220を制御して、揺れを補償するようレンズを動かすために光学系1202におけるアクチュエータ等を制御するので、手振れまたはカメラの動きに起因するブレを低減させる。
画像位置合わせモジュール1246の詳細については、前述の実施形態を参照することができる。一定の基準において快適な視聴をもたらす、よりよい3D効果を与える画像対を選択しやすくするために、画像位置合わせモジュール1246の処理を行う前に、画像対選択モジュール1251による処理を行ってもよい。
画像撮影が異なる時間に行われた場合、3Dで視聴する際、被写体のブレ領域検出および補償モジュール1250を適用して被写体のモーションブラーを除去することがよいであろう。
画像処理1208、画像位置合わせモジュール1246、およびその内部のモジュールは、通常、IC(集積回路)、ASIC(特定用途集積回路)、またはLSI(大規模集積回路)の形で実現される。これらの各モジュールは、複数の単一機能LSI内、または1つの集積LSI内にも備えることができる。ここで用いた名称はLSIであるが、集積度に応じて、IC、システムLSI、スーパーLSI、またはウルトラLSIとも呼ばれることもある。さらに、集積化を達成する方法は、LSIのみではなく、専用回路または汎用プロセッサなども集積化を達成することができる。これには、プログラム命令により制御することができる、DSP(デジタルシグナルプロセッサ)など、特化したマイクロプロセッサが含まれる。LSI製造後にプログラムすることが可能なFPGA(フィールド・プログラマブル・ゲートアレイ)、またはLSIの接続または構成を再構成可能なプロセッサを、同じ用途に用いることができる。将来的には、製造および処理技術が向上し、全く新しい技術がLSIにとって代わるかもしれない。その技術により、集積を行うこともできる。
図8は、本発明の実施の形態1に係る立体視用画像位置合わせ装置200の効果を図示した画像結果の例である。得られた画像13LRは、画像の位置合わせを行う前の立体画像対の左眼用画像および右眼用画像間のオーバーレイ画像を示す。さらに、これらの画像間の対応(ズレ)を示す差分線(たとえば、L1302)が、オーバーレイ画像に重畳されて示されている。得られた画像13LRから、差分線は手振れのため垂直方向および水平方向のどちらにおいても長く伸びており、位置合わせされていないことがわかる。得られた画像13LRの立体画像対が3D視用に表示される場合、表示された画像により、視聴者は眼精疲労および視覚的不快感を覚える可能性がある。
得られた画像14LRは、本発明による画像位置合わせを行った後の立体画像対の左画像と右画像とのオーバーレイ画像を示す。得られた画像14LRから、差分線(L1304)は、好適に位置合わせされている(画像対が好適に位置合わせされている)ことがわかる。また、線L1306は、切り出し領域を示す。この位置合わせされた立体画像対を表示すると、非常に快適な3D視を生成することができる。したがって、本発明の効果は図8により実証される。
なお、実施の形態1に係る立体視用画像位置合わせ装置200をマルチショットモードで動作する画像撮影装置において用いてもよい。このようなモードにおいては、ユーザがボタンを押した際、複数の画像が自動的に撮影される。マルチショット撮影中にユーザがカメラを動かすと、異なる視点から同じシーンの画像が複数撮影される。画像対は、複数の画像から選択することができる。選択の基準は、対応点に基づくことができる。画像位置合わせモジュールに入力するために、十分な数の対応点を有する画像対を選択することが好ましい。対応点を検出する方法は、前述の実施形態1において開示されている。各撮影間の時間間隔は、タイマーによって設定することができる。各撮影は、撮影装置を動かすことにより開始することもできる。このような動きを判定するために、ジャイロセンサまたは加速度センサを用いることができる。視差が立体視に十分となるように、撮影装置が所定の距離を移動した際に、撮影を開始させることが好ましい。
また、1つの撮影シーンの中で対象物が異なる奥行きを有することもある。対象物が近い場合は、装置を動かす距離は短くなり、対象物が遠い場合には、装置を動かす距離は長くなる。この距離は、対象物の奥行きに応じて適応的に算出することができる。奥行きを求める方法の1つとして、合焦位置により求められるものがある。
また、現在の画像を隣接する画像のうち1つと対にして画像対を作成するビデオ撮影装置において、実施の形態1に係る立体視用画像位置合わせ装置200を用いることができる。よって、通常の2D映像から立体映像を生成することができる。
図9において、可能性のある用途を示している。通常のカメラまたは携帯電話が2以上の画像の撮影に用いられ、SDカードまたは他のメモリカードに記憶される。3D画像の位置合わせは、カメラまたは携帯電話の内部において行うことができる。また、3D画像の位置合わせは、3D画像位置合わせモジュール208をプレーヤまたはディスプレイのハードウェアに組み込むことで、任意のプレーヤまたはディスプレイにおいて行うことができる。3D画像の位置合わせは、3Dディスプレイに表示する前に、PCまたはサーバによって行うことも可能である。
前述のように、図2におけるフィードバック信号S29は、視聴者からディスプレイまでの視聴距離となることもある。フィードバック信号は、自動的にまたはユーザインタラクションを介して得ることができる。このフィードバックを得ることにより、画像位置合わせモジュール208は、画像変形または変換の途中または処理後に、左右の画像のベースラインを調整することができる。
画像位置合わせモジュール208と表示画面上の外部ボタンとの間のAPI(アプリケーションインターフェース)は、表示のコントラストまたは明るさを調整するボタンのように作られる。この外部ボタンを介して、ユーザは視覚的な快適さおよび3D効果を調整することができ、ユーザの要求を画像位置合わせモジュール208に送信することができる。
上記の構成を他の3D表示装置に適用して、3D処理モジュールおよびユーザ間のユーザインターフェースを作成することが可能である。
異なる3D効果の詳細な説明を、図10a、図10bおよび図10cに示す。図10aにおいて、正視差を示す。左眼用画像である左対象物9Lが、表示画面900の左側に表示され、右眼用画像である右対象物9Rが、表示画面900の右側に表示される。この場合、観察者は、対象物POが表示画面の後ろにあるように知覚する。水平視差は、たとえば原点を表示画面の左下端にとった場合、d=x−x>0となる。なお、式中xは、右目画像の画面上の位置であり、xは、左眼用画像の画面上の位置である。知覚された対象物の奥行きは、dによって制御することができる。dが大きくなるほど、知覚される奥行きが大きくなり、一方dが小さくなるほど、知覚される奥行きが小さくなる。図10bにおいて、ゼロ視差を示す。左対象物9Lと、右対象物9Rとが重なり合って、表示画面900に表示されている。この場合、観察者は、対象物POが表示画面上にあるように知覚する。この水平視差は、d=x−x=0である。図10cにおいて、負視差を示す。表示画面900において、左対象物9Lが右側に表示され、右対象物9Rが左側に表示される。この場合、観察者は対象物POが表示画面より手前にあるように知覚する。水平視差は、d=x−x<0である。快適な3D視のための立体画像対を生成するために、水平視差dを調整する必要がある。その理由の1つは、観察者の目には、dに限界があるからである。そのような限界は、眼間e(左目ELと右目ERとの間の距離である)によって生じる。眼間eは、50mm〜70mm(平均65mm)の範囲である。これは、表示画面上において、左画像および右画像の間の物理的差異が、距離eを超えてはならないことを意味する。
なお、立体視用画像位置合わせ装置200は、前述した構成の全てを備えなくとも、同様の発明の効果を奏する。
たとえば、立体視用画像位置合わせ装置200は、ブレ領域検出部220を備えなくてもよい。ブレを含む画像からも、対応点の検出は可能なためである。なお、対応点検出においては、ブレの少ない画像の方が好ましいため、たとえば手振れが激しい撮影状況では、ブレ領域検出部220を備えた方が、対応点検出の精度向上が期待できる。
また、立体視用画像位置合わせ装置200は、第2行列算出部256を備えなくてもよい。通常、一方の画像からみて他方の画像が極端に歪むこと、及び、アスペクト比に大きな差が生じることはまれである。よって、たとえば、事前に定められた斜傾変換行列を、変換部260が記憶しておき、この斜傾変換行列を第3の画像に適用することで、第2行列算出部256を備えなくても発明の効果を奏する。なお、第2行列算出部256により、撮影条件に応じて斜傾変換行列を算出することで、より、自然な立体効果を画像に付与することが可能となる。なお、立体視用画像位置合わせ装置200が第2行列算出部256を備えない場合、変換部260は、第1行列算出部254で算出された射影変換行列を用いて第1の画像を変換する。
また、立体視用画像位置合わせ装置200は、視域算出部262を備えなくてもよい。左右画像で共通する領域は、通常、毎回大きく異なることはないと考えられる。よって、たとえば、左眼用画像のうち右80%分の領域と、右眼用画像の左80%部の領域を視域と特定するなど、事前に定められたルールに従うことで、第2行列算出部256は、視域算出部262を備えなくても、画像中の処理領域を決定することができる。なお、視域算出部262を備えることで、より正確に視域を特定できる結果、より自然な立体効果を画像に付与することが可能となる。
また、立体視用画像位置合わせ装置200は、行列合成部258を備えなくてもよい。立体視用画像位置合わせ装置200が第2行列算出部256を備えない場合、行列合成部258は不要である。また、立体視用画像位置合わせ装置200が第2行列算出部256を備える場合であっても、変換部260は、記憶領域に記憶されている射影変換行列及び斜傾変換行列を順次用いて第1の画像に変換処理を施すことができるため、行列合成部258による合成を行わなくても、同様の発明の効果を奏する。
なお、実施の形態1に係る画像対取得部205は、(A)複数の画像対の候補である画像対候補を取得し、(B)複数の画像対候補の各々について、他の画像対候補の各々と共通する視域である共通視域を特定し、共通視域における光量、輝度、色、及び鮮明度のうち少なくとも1つに関する情報である品質情報を取得し、(C)品質情報によって示される画像品質が最もよい画像対候補を画像対として選択してもよい。上記(A)で、複数の画像対を取得する方法としては、例えば、連続撮影モードに設定されたデジタルスチルカメラを把持し、ユーザが把持した手を水平方向に移動させることにより、容易に取得することが可能である。
また、本発明の実施の形態1及び2に係る、立体視用画像位置合わせ装置200の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
さらに、本発明は上記プログラムであってもよいし、上記プログラムが記録された記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのはいうまでもない。
本発明は、複数の画像対から対応点を検出し、それらを一定の基準を満たすように位置合わせする立体視用画像位置合わせ装置等に適用でき、特に立体視表示装置において立体視が可能となるように画像対を位置合わせする、立体視用画像位置合わせ装置等に適用できる。
13LR、14LR、1100 画像
102、402、406 左画像
104、404、408、410 右画像
106 単眼式デジタルカメラ
108 距離
200 立体視用画像位置合わせ装置
202 記憶媒体リーダ
204 画像デコーダ
205 画像対取得部
208 画像位置合わせモジュール
210 出力部
212 内部バッファ
214 表示装置
216 記憶/送信装置
218 プリンタ
220 ブレ領域検出部
252 対応点検出部
254 第1行列算出部
256 第2行列算出部
258 行列合成部
260 変換部
262 視域算出部
350、352、354、504 右眼用画像
355 線分a’’c’’
356 線分b’’d’’
362、364a、364b、364c 視域
370、372、374、376、378 点
502 左眼用画像
506、508 矩形
510 変形前画像
512 変形後画像
514 変形前視域
516 変形後視域
518、520、522、524 点
528、530、532、534 変形点
526、540 角
536 垂直差
538 水平差
900 表示画面
L1302、L1304 差分線

Claims (17)

  1. 左眼用画像と、前記左眼用画像に対応する右眼用画像とを含む画像対を取得する画像対取得部と、
    前記画像対の一方である第1の画像に含まれる第1の点と、他方である第2の画像に含まれる点であり、前記第1の点に対応する点である第2の点との組である対応点を検出する対応点検出部と、
    前記第1の点と前記第2の点との垂直視差が最小となり、かつエピポーラ拘束を満たすように前記第1の点を変換する射影変換行列を算出する第1行列算出部と、
    前記射影変換行列を用いて前記第1の画像を変換する変換部と、
    前記変換された第1の画像である第3の画像と、前記第2の画像とを出力する出力部とを備える
    立体視用画像位置合わせ装置。
  2. 前記画像対取得部は、2つのイメージセンサと2つのレンズ、1つのイメージセンサと2つのレンズ、または2つのイメージセンサと1つのレンズにより同時に撮影された2つの画像を前記画像対として取得する
    請求項1に記載の立体視用画像位置合わせ装置。
  3. 前記画像対取得部は、1つのイメージセンサと1つのレンズを用いて、異なる視点から異なる時間に撮影された2つの画像を前記画像対として取得する
    請求項1に記載の立体視用画像位置合わせ装置。
  4. さらに、前記第3の画像の座標系が直交性を有し、かつ、前記第1の画像と同じアスペクト比を有するように前記第3の画像を変換する斜傾変換行列を算出する第2行列算出部と、
    前記射影変換行列と前記斜傾変換行列とを組み合わせて合成変換行列を生成する行列合成部とを備え、
    前記変換部は、前記合成変換行列を用いて、前記第1の画像を変換する
    請求項1に記載の立体視用画像位置合わせ装置。
  5. さらに、前記第1の画像及び前記第2の画像に共通する領域である視域を算出する視域算出部を備え、
    前記第2行列算出部は、前記第3の画像のうち前記視域に含まれる部分の座標系が、直交性を有し、かつ、前記第1の画像のうち前記視域に含まれる部分と同じアスペクト比を有するように前記斜傾変換行列を算出する
    請求項4に記載の立体視用画像位置合わせ装置。
  6. 前記対応点検出部は、前記画像対に含まれる前記第1の画像及び前記第2の画像の各々の中心から事前に定められた範囲内において、均一に分散された複数の小領域を選択し、当該小領域のなかから前記対応点を検出する
    請求項1に記載の立体視用画像位置合わせ装置。
  7. さらに、前記画像対においてブレ領域を検出するブレ領域検出部を備え、
    前記対応点検出部は、前記画像対のうち前記ブレ領域以外の領域から前記対応点を検出する
    請求項1または3に記載の立体視用画像位置合わせ装置。
  8. 前記出力部は、視聴ユーザからの入力操作、表示装置の大きさ、及び、表示装置と視聴ユーザとの距離のうち少なくとも1つを示す調整情報を取得し、前記調整情報に基づいて、前記第3の画像及び前記第2の画像の視差、3Dポップアップ、及びディープイン効果のうち少なくとも1つを調整して出力する
    請求項1に記載の立体視用画像位置合わせ装置。
  9. 前記画像対取得部は、(A)複数の画像対の候補である画像対候補を取得し、(B)前記複数の画像対候補の各々について、他の画像対候補の各々と共通する視域である共通視域を特定し、前記共通視域における光量、輝度、色、及び鮮明度のうち少なくとも1つに関する情報である品質情報を取得し、(C)前記品質情報によって示される画像品質が最もよい前記画像対候補を前記画像対として選択する
    請求項1に記載の立体視用画像位置合わせ装置。
  10. 前記画像対取得部は、(1)前記左眼用画像及び右眼用画像を含む画像群が圧縮され、かつメモリカードに記憶されている場合、または、(2)前記画像群が圧縮され、かつ外部装置からネットワークを介して送信されている場合は、圧縮されている前記画像群を復号する
    請求項1に記載の立体視用画像位置合わせ装置。
  11. 前記対応点検出部は、回転角に対応する情報を出力するジャイロセンサからの出力に一致するように、前記射影変換行列の作成に用いる回転パラメータおよびシフトパラメータを算出する
    請求項1に記載の立体視用画像位置合わせ装置。
  12. 2Dカメラに組み込むことで3Dカメラになり、3D処理エンジンとして3Dディスプレイに組み込むことで2D画像群を3D画像または3D映像に変換し、プレーヤまたはレコーダに組み込むことで2D画像群を3D画像または3D映像に変換する
    請求項1に記載の立体視用画像位置合わせ装置。
  13. 左眼用画像と、前記左眼用画像に対応する右眼用画像とを含む画像対を取得し、
    前記画像対の一方である第1の画像に含まれる第1の点と、他方である第2の画像に含まれる点であり、前記第1の点に対応する点である第2の点との組である対応点を検出し、
    前記第1の点と、前記第2の点とが同じ垂直位置値を有し、かつエピポーラ拘束を満たすように前記第1の点を変換する射影変換行列を算出し、
    前記射影変換行列を用いて前記第1の画像を変換し、
    前記変換された第1の画像である第3の画像と、前記第2の画像とを出力する
    立体視用画像位置合わせ方法。
  14. 請求項13に記載の立体視用画像位置合わせ方法をコンピュータに実行させる
    プログラム。
  15. 請求項14に記載のプログラムを記録した
    コンピュータ読み取り可能な記録媒体。
  16. 左眼用画像と右眼用画像とを含む画像対を取得する画像対取得部と、
    前記画像対に含まれる一方である第1の画像に含まれる第1の点と、他方である第2の画像に含まれる点であり、前記第1の点に対応する点である第2の点との組である対応点を検出する対応点検出部と、
    前記第1の点と、前記第2の点とが同じ垂直位置値を有し、かつエピポーラ拘束を満たすように前記第1の点を変換する射影変換行列を算出する第1行列算出部と、
    前記射影変換行列を用いて前記第1の画像を変換する変換部と、
    前記変換された第1の画像である第3の画像と、前記第2の画像とを出力する出力部とを備える
    集積回路。
  17. 請求項3に記載の立体視用画像位置合わせ装置を備える
    デジタルスチルカメラ。
JP2011536681A 2010-03-19 2011-03-14 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム Expired - Fee Related JP5679978B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011536681A JP5679978B2 (ja) 2010-03-19 2011-03-14 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010065185 2010-03-19
JP2010065185 2010-03-19
PCT/JP2011/001455 WO2011114683A1 (ja) 2010-03-19 2011-03-14 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
JP2011536681A JP5679978B2 (ja) 2010-03-19 2011-03-14 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム

Publications (2)

Publication Number Publication Date
JPWO2011114683A1 JPWO2011114683A1 (ja) 2013-06-27
JP5679978B2 true JP5679978B2 (ja) 2015-03-04

Family

ID=44648797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011536681A Expired - Fee Related JP5679978B2 (ja) 2010-03-19 2011-03-14 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム

Country Status (5)

Country Link
US (1) US8890934B2 (ja)
EP (1) EP2549762B1 (ja)
JP (1) JP5679978B2 (ja)
CN (1) CN102428707B (ja)
WO (1) WO2011114683A1 (ja)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2289235A4 (en) 2008-05-20 2011-12-28 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
EP2509324A1 (en) * 2011-04-08 2012-10-10 Thomson Licensing Method and apparatus for analyzing stereoscopic or multi-view images
CN107404609B (zh) 2011-05-11 2020-02-11 快图有限公司 用于传送阵列照相机图像数据的方法
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
KR20140045458A (ko) 2011-06-28 2014-04-16 펠리칸 이매징 코포레이션 어레이 카메라와 함께 사용하는 광학 장치
US20130033713A1 (en) * 2011-08-02 2013-02-07 Samsung Electronics Co., Ltd Apparatus and method of forming image, terminal and method of print control, and computer-readable medium
US9305361B2 (en) 2011-09-12 2016-04-05 Qualcomm Incorporated Resolving homography decomposition ambiguity based on orientation sensors
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
US9402065B2 (en) * 2011-09-29 2016-07-26 Qualcomm Incorporated Methods and apparatus for conditional display of a stereoscopic image pair
US9692991B2 (en) * 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
KR101888155B1 (ko) * 2011-11-22 2018-08-16 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
KR101862404B1 (ko) * 2011-12-09 2018-05-29 엘지이노텍 주식회사 스테레오 영상의 노이즈 제거장치 및 방법
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
EP2867757A4 (en) * 2012-06-30 2015-12-23 Intel Corp 3D GRAPHIC USER INTERFACE
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US8619082B1 (en) 2012-08-21 2013-12-31 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
US8948497B2 (en) * 2012-09-04 2015-02-03 Digital Signal Corporation System and method for increasing resolution of images obtained from a three-dimensional measurement system
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
WO2014052974A2 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
US9148651B2 (en) * 2012-10-05 2015-09-29 Blackberry Limited Methods and devices for generating a stereoscopic image
CN103792667B (zh) 2012-10-30 2016-06-01 财团法人工业技术研究院 立体摄像装置、自动校正装置与校正方法
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
EP2757524B1 (en) * 2013-01-16 2018-12-19 Honda Research Institute Europe GmbH Depth sensing method and system for autonomous vehicles
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
US9917998B2 (en) 2013-03-08 2018-03-13 Fotonation Cayman Limited Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
KR102210054B1 (ko) 2013-04-08 2021-02-02 스냅 아이엔씨 멀티-카메라 장치를 사용하는 거리 추정
JP2014207519A (ja) * 2013-04-11 2014-10-30 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および電子機器
TWI502271B (zh) * 2013-04-15 2015-10-01 Htc Corp 控制方法及電子裝置
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
CN103996215A (zh) * 2013-11-05 2014-08-20 深圳市云立方信息科技有限公司 一种实现虚拟视图转立体视图的方法及装置
EP3066690A4 (en) 2013-11-07 2017-04-05 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
TWI520098B (zh) 2014-01-28 2016-02-01 聚晶半導體股份有限公司 影像擷取裝置及其影像形變偵測方法
CN104811688B (zh) * 2014-01-28 2017-09-01 聚晶半导体股份有限公司 图像获取装置及其图像形变检测方法
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
GB2525170A (en) 2014-04-07 2015-10-21 Nokia Technologies Oy Stereo viewing
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US9613408B2 (en) * 2014-09-25 2017-04-04 Intel Corporation High dynamic range image composition using multiple images
EP3467776A1 (en) 2014-09-29 2019-04-10 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
KR101932547B1 (ko) * 2014-10-23 2018-12-27 한화테크윈 주식회사 카메라 시스템 및 이의 영상 정합 방법
HUP1400600A2 (hu) * 2014-12-17 2016-06-28 Pi Holding Zrt Eljárás képszegmens tartalmának lecserélésére
US10931933B2 (en) * 2014-12-30 2021-02-23 Eys3D Microelectronics, Co. Calibration guidance system and operation method of a calibration guidance system
WO2016158119A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 医療用観察装置、情報処理方法、プログラム、及びビデオ顕微鏡装置
US10275863B2 (en) * 2015-04-03 2019-04-30 Cognex Corporation Homography rectification
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
JP6570327B2 (ja) * 2015-06-05 2019-09-04 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
EP3348055B1 (en) * 2015-09-08 2021-05-26 SZ DJI Technology Co., Ltd. System and method for supporting three-dimensional display in first person view (fpv)
US10097747B2 (en) * 2015-10-21 2018-10-09 Qualcomm Incorporated Multiple camera autofocus synchronization
US9762893B2 (en) * 2015-12-07 2017-09-12 Google Inc. Systems and methods for multiscopic noise reduction and high-dynamic range
CN109070803B (zh) * 2016-04-14 2021-10-08 金泰克斯公司 提供深度信息的车辆显示系统
US10796425B1 (en) * 2016-09-06 2020-10-06 Amazon Technologies, Inc. Imagery-based member deformation gauge
KR102529928B1 (ko) * 2016-09-22 2023-05-09 삼성전자주식회사 스테레오 카메라의 교정 방법 및 이를 수행하는 전자 장치
US10284761B2 (en) 2016-11-17 2019-05-07 Motorola Mobility Llc Multi-camera capture of a high dynamic range image
CN107046638A (zh) * 2016-12-30 2017-08-15 无锡易维视显示技术有限公司 单摄像头的3d影像拍摄方法
US10250794B2 (en) 2017-01-04 2019-04-02 Motorola Mobility Llc Capturing an image using multi-camera automatic focus
US10169671B2 (en) 2017-02-17 2019-01-01 Motorola Mobility Llc Face detection with temperature and distance validation
US10250795B2 (en) 2017-03-15 2019-04-02 Motorola Mobility Llc Identifying a focus point in a scene utilizing a plurality of cameras
CN107147898B (zh) * 2017-05-10 2019-02-05 宁波视睿迪光电有限公司 一种3d显示屏对位系统和方法
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
WO2020097128A1 (en) 2018-11-06 2020-05-14 Flir Commercial Systems, Inc. Automatic co-registration of thermal and visible image pairs
CN110223355B (zh) * 2019-05-15 2021-01-05 大连理工大学 一种基于双重极线约束的特征标志点匹配方法
US11650596B2 (en) * 2019-05-31 2023-05-16 Cascade Corporation Load alignment aid
CN110533711A (zh) * 2019-09-04 2019-12-03 云南电网有限责任公司带电作业分公司 一种基于加速稳健特征的高效大尺度立体匹配算法
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
CN110969659B (zh) * 2019-10-31 2024-03-15 浙江清华长三角研究院 一种被动式标记点的空间定位装置和方法
WO2021108002A1 (en) 2019-11-30 2021-06-03 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11375180B2 (en) * 2019-12-10 2022-06-28 Yousseff El Moumni Video engine for generating an enhanced impression of depth based upon two-dimensioned video content
EP4081933A4 (en) 2020-01-29 2024-03-20 Intrinsic Innovation LLC SYSTEMS AND METHODS FOR CHARACTERIZING OBJECT POSE DETECTION AND MEASUREMENT SYSTEMS
EP4085424A4 (en) 2020-01-30 2024-03-27 Intrinsic Innovation LLC SYSTEMS AND METHODS OF DATA SYNTHESIS FOR TRAINING STATISTICAL MODELS ON DIFFERENT IMAGING MODALITIES INCLUDING POLARIZED IMAGES
CN111457886B (zh) * 2020-04-01 2022-06-21 北京迈格威科技有限公司 距离确定方法、装置及系统
JP7101918B2 (ja) * 2020-04-27 2022-07-15 三菱電機株式会社 画像検査装置および画像検査方法
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001517414A (ja) * 1998-01-15 2001-10-02 ビスタ・メディカル・テクノロジーズ・インコーポレーテッド 立体像を位置合わせする方法および装置
JP2002324234A (ja) * 2001-02-23 2002-11-08 Sharp Corp 立体画像を偏歪修正する方法および装置
US6606404B1 (en) * 1999-06-19 2003-08-12 Microsoft Corporation System and method for computing rectifying homographies for stereo vision processing of three dimensional objects
JP2003244500A (ja) * 2002-02-13 2003-08-29 Pentax Corp ステレオ画像撮像装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7343035B1 (en) 2003-10-20 2008-03-11 Open Invention Network Llc Method and system for three-dimensional feature attribution through synergy of rational polynomial coefficients and projective geometry
DE102006050379A1 (de) 2006-10-25 2008-05-08 Norbert Prof. Dr. Link Verfahren und Vorrichtung zur Überwachung eines Raumvolumens sowie Kalibrierverfahren
US8135238B2 (en) * 2008-06-05 2012-03-13 Kia Sha Managment Liability Company Free view generation in ray-space
JP2013509804A (ja) * 2009-10-30 2013-03-14 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 立体表示システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001517414A (ja) * 1998-01-15 2001-10-02 ビスタ・メディカル・テクノロジーズ・インコーポレーテッド 立体像を位置合わせする方法および装置
US6606404B1 (en) * 1999-06-19 2003-08-12 Microsoft Corporation System and method for computing rectifying homographies for stereo vision processing of three dimensional objects
JP2002324234A (ja) * 2001-02-23 2002-11-08 Sharp Corp 立体画像を偏歪修正する方法および装置
JP2003244500A (ja) * 2002-02-13 2003-08-29 Pentax Corp ステレオ画像撮像装置

Also Published As

Publication number Publication date
EP2549762B1 (en) 2017-05-03
US20120147139A1 (en) 2012-06-14
WO2011114683A1 (ja) 2011-09-22
CN102428707A (zh) 2012-04-25
US8890934B2 (en) 2014-11-18
EP2549762A4 (en) 2014-06-25
JPWO2011114683A1 (ja) 2013-06-27
EP2549762A1 (en) 2013-01-23
CN102428707B (zh) 2015-03-11

Similar Documents

Publication Publication Date Title
JP5679978B2 (ja) 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
US8908011B2 (en) Three-dimensional video creating device and three-dimensional video creating method
JP5963422B2 (ja) 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
US8760502B2 (en) Method for improving 3 dimensional effect and reducing visual fatigue and apparatus enabling the same
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
JP2011064894A (ja) 立体画像表示装置
JP5420075B2 (ja) 立体画像再生装置、その視差調整方法、視差調整プログラム、及び撮影装置
JP5467993B2 (ja) 画像処理装置、複眼デジタルカメラ、及びプログラム
US20130027520A1 (en) 3d image recording device and 3d image signal processing device
JP5840022B2 (ja) 立体画像処理装置、立体画像撮像装置、立体画像表示装置
US20130050427A1 (en) Method and apparatus for capturing three-dimensional image and apparatus for displaying three-dimensional image
TWI613904B (zh) 立體影像產生方法及使用此方法的電子裝置
KR20110025083A (ko) 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법
JP5453552B2 (ja) 撮影装置、方法及びプログラム
WO2012014695A1 (ja) 立体撮像装置およびその撮像方法
JP4588439B2 (ja) 立体視画像撮影装置および方法
JP5689693B2 (ja) 描画処理装置
JP2012220603A (ja) 3d映像信号撮影装置
JP2015029215A (ja) 立体画像処理装置
JP2005072674A (ja) 三次元画像生成装置および三次元画像生成システム
JP2012147370A (ja) 撮像装置
JP6022212B2 (ja) 空間情報算出システム
CA2982015A1 (en) Method and apparatus for depth enhanced imaging
WO2013001839A1 (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130704

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150106

R151 Written notification of patent or utility model registration

Ref document number: 5679978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees