JP2012029199A - Stereoscopic imaging device and imaging method for the same - Google Patents
Stereoscopic imaging device and imaging method for the same Download PDFInfo
- Publication number
- JP2012029199A JP2012029199A JP2010168145A JP2010168145A JP2012029199A JP 2012029199 A JP2012029199 A JP 2012029199A JP 2010168145 A JP2010168145 A JP 2010168145A JP 2010168145 A JP2010168145 A JP 2010168145A JP 2012029199 A JP2012029199 A JP 2012029199A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image
- unit
- pixel
- units
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/08—Stereoscopic photography by simultaneous recording
- G03B35/10—Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、立体撮像装置およびその撮像方法に関する。 The present invention relates to a stereoscopic imaging device and an imaging method thereof.
近年、映像の迫力や臨場感を高めるために立体映像装置の開発が盛んである。立体画像を生成する技術としては、左チャンネル(L)用と右チャンネル(R)用の2台の撮像装置を左右に配置し、2台の撮像装置で被写体を同時に撮影する技術が知られている。また、立体画像を表示する技術としては、左チャンネル(L)の画像と右(R)チャンネルの画像を一つの表示画面上に1画素毎に交互に表示すると共に、かまぼこ型のレンズを所定の間隔で並べたレンチキュラーレンズや、細かいスリットを所定の間隔で並べたでパララックスバリアや、微細偏光素子を規則正しく配列させたパターニング位相差板などの特殊な光学系を用いて鑑賞者の左目と右目で見える領域を調整して、鑑賞者の左目には左チャンネル(L)の画像のみが、右目には右チャンネル(R)の画像のみが見えるようにする技術が知られている。 In recent years, stereoscopic image devices have been actively developed in order to enhance the power and presence of images. As a technique for generating a stereoscopic image, there is known a technique in which two imaging devices for the left channel (L) and the right channel (R) are arranged on the left and right, and the subject is simultaneously photographed by the two imaging devices. Yes. Further, as a technique for displaying a stereoscopic image, a left channel (L) image and a right (R) channel image are alternately displayed on a single display screen for each pixel, and a kamaboko-shaped lens is provided in a predetermined manner. The left and right eyes of the viewer using a special optical system such as a lenticular lens arranged at intervals, a parallax barrier with fine slits arranged at a predetermined interval, and a patterning phase difference plate with regularly arranged fine polarizing elements A technique is known in which only the left channel (L) image is visible to the viewer's left eye and only the right channel (R) image is visible to the right eye.
更に近年、複数のカメラを用いて高精細な映像を生成する技術も開発されている。例えば撮像レンズ、カラーフィルタ、検出器アレイから構成される4つのサブカメラを組み合わせて、サブピクセル解像度を有する薄型カラーカメラも提案されている(例えば、特許文献1参照)。この薄型カラーカメラは、図18に示すように4つのレンズ22a〜22dと、4つのカラーフィルタ25a〜25dと、検出器アレイ24から構成される。カラーフィルタ25は、赤色光(R)を透過するフィルタ25a、緑色光(G)を透過するフィルタ25bと25c、青色光(B)を透過するフィルタ25dから構成され、検出器アレイ24は赤色、緑色、青色の画像を撮影する。この構成で、人間の視覚系で高い感度をもつ緑色の2つの画像から高解像度の合成画像を形成し、赤色と青色と組み合わせてフルカラー画像を得ることができるとしている。
Furthermore, in recent years, a technique for generating a high-definition video using a plurality of cameras has been developed. For example, a thin color camera having a sub-pixel resolution by combining four sub-cameras including an imaging lens, a color filter, and a detector array has also been proposed (for example, see Patent Document 1). As shown in FIG. 18, the thin color camera includes four
しかしながら、従来の立体画像を撮像する技術においては、一つの立体画像を得るために左チャンネル(L)用と右チャンネル(R)用の2台の撮像装置を必要とするため、装置構成が大規模になってしまうという問題がある。例えば、左チャンネルと、右チャンネルとに、特許文献1に記載の撮像装置を用いると、その撮像装置を2台並べて配置することになる。特許文献1に記載する撮像装置は、4つのサブカメラを備えるため、その2倍の8つのサブカメラが必要となる。
However, the conventional technology for capturing a stereoscopic image requires two imaging devices for the left channel (L) and the right channel (R) in order to obtain one stereoscopic image. There is a problem of becoming a scale. For example, when the imaging devices described in
本発明は、このような事情に鑑みてなされたもので、その目的は、装置規模の増大を抑えた立体撮像装置およびその撮像方法を提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide a stereoscopic imaging apparatus and an imaging method thereof in which an increase in apparatus scale is suppressed.
(1)この発明は上述した課題を解決するためになされたもので、本発明の立体撮像装置は、同じ被写体を撮像する2つの撮像部と、前記2つの撮像部の撮影映像の間で対応点を検出し、前記2つの撮像部の撮影映像の視差情報を算出する視差算出部と、前記2つの撮像部それぞれの視点を基準として、前記視差情報および前記2つの撮像部の撮影映像に基づき、該撮影映像よりも画素数の多い映像を合成し、2系統の前記画素数の多い映像を生成する合成処理部とを備えることを特徴とする。 (1) The present invention has been made to solve the above-described problems, and the stereoscopic imaging apparatus according to the present invention can cope with two imaging units that capture the same subject and the captured images of the two imaging units. Based on the parallax information and the captured images of the two imaging units based on the viewpoint of each of the two imaging units, and a parallax calculation unit that detects points and calculates parallax information of the captured images of the two imaging units And a synthesis processing unit for synthesizing an image having a larger number of pixels than the photographed image and generating two systems of images having the larger number of pixels.
(2)また、本発明の立体撮像装置は、上述の立体撮像装置であって、前記撮像部は、被写体の像を撮像面に結像させる光学系と、撮像面に結像した被写体の撮影映像の信号を生成する撮像素子とを備え、一方の前記撮像部は、他方の前記撮像部と比較して、前記光学系に対する前記撮像素子の位置が、該撮像素子の撮影画素の半分だけ上下いずれかにずれていることを特徴とする。 (2) The stereoscopic imaging apparatus of the present invention is the above-described stereoscopic imaging apparatus, wherein the imaging unit captures an optical system that forms an image of a subject on an imaging surface, and captures the subject that is imaged on the imaging surface. An image pickup device that generates a video signal, and the one image pickup unit has a position of the image pickup device relative to the optical system that is higher or lower than a half of the image pickup pixel of the image pickup device compared to the other image pickup unit. It is characterized by being shifted to either.
(3)また、本発明の立体撮像装置は、上述の立体撮像装置であって、前記撮像部を、3つ以上備え、前記撮像部のうち、横並びの撮像部の間では、前記光学系に対する前記撮像素子の位置が、該撮像素子の撮影画素の半分だけ上下いずれかにずれており、前記撮像部のうち、縦並びの撮像部の間では、前記光学系に対する前記撮像素子の位置が、該撮像素子の撮影画素の半分だけ左右いずれかにずれていることを特徴とする。 (3) Moreover, the stereoscopic imaging device of the present invention is the above-described stereoscopic imaging device, which includes three or more imaging units, and among the imaging units, between the side-by-side imaging units, the optical system The position of the image sensor is shifted either up or down by half of the imaging pixel of the image sensor, and the position of the image sensor with respect to the optical system is between the vertically aligned image capture units among the image capture units. It is characterized in that it is shifted to the left or right by half of the imaging pixel of the image sensor.
(4)また、本発明の立体撮像装置は、上述の立体撮像装置であって、4つの前記撮像部が、各辺が水平または鉛直方向のいずれかに沿う正方形の頂点に配置され、前記視差算出部は、前記4つの撮像部のうち、前記正方形の隣接する頂点に配置されている2つの撮像部の撮影映像の視差情報を算出し、前記合成処理部は、前記映像の合成の際に行う前記撮影映像の水平方向および鉛直方向の視差補正に、前記視差情報を用いることを特徴とする。 (4) Further, the stereoscopic imaging device of the present invention is the stereoscopic imaging device described above, wherein the four imaging units are arranged at the vertices of a square along which each side is either horizontal or vertical, and the parallax The calculation unit calculates parallax information of captured images of two imaging units arranged at adjacent vertices of the square among the four imaging units, and the synthesis processing unit is configured to combine the videos. The parallax information is used for horizontal and vertical parallax correction of the captured video to be performed.
(5)また、本発明の立体撮像装置は、上述の立体撮像装置であって、少なくとも3つの前記撮像部を備え、前記合成処理部は、少なくとも3つの前記撮像部それぞれの視点を基準として、前記視差情報および少なくとも2つの前記撮像部の撮影映像に基づき、該撮影映像よりも画素数の多い映像を合成し、少なくとも3系統の前記画素数の多い映像を生成することを特徴とする。 (5) Moreover, the stereoscopic imaging device of the present invention is the stereoscopic imaging device described above, and includes at least three imaging units, and the composition processing unit is based on the viewpoints of at least three imaging units. Based on the parallax information and at least two captured images of the imaging unit, an image having a larger number of pixels than the captured image is synthesized to generate at least three lines of the image having the larger number of pixels.
(6)また、本発明の撮像方法は、同じ被写体を撮像する2つの撮像部を備える立体撮像装置における撮像方法であって、前記2つの撮像部の撮影映像の間で対応点を検出し、前記2つの撮像部の撮影映像の視差情報を算出する第1の過程と、前記2つの撮像部それぞれの視点を基準として、前記視差情報および前記2つの撮像部の撮影映像に基づき、該撮影映像よりも画素数の多い映像を合成し、2系統の前記画素数の多い映像を生成する第2の過程とを有することを特徴とする。 (6) Moreover, the imaging method of the present invention is an imaging method in a stereoscopic imaging apparatus including two imaging units that capture the same subject, and detects corresponding points between the captured images of the two imaging units, Based on the first process of calculating parallax information of the captured images of the two imaging units and the viewpoint of each of the two imaging units, the captured video is based on the parallax information and the captured images of the two imaging units. And a second step of synthesizing an image having a larger number of pixels and generating two systems of images having the larger number of pixels.
この発明によれば、装置規模の増大を抑えることができる。 According to the present invention, an increase in device scale can be suppressed.
〔第一の実施形態〕
本発明の第一の実施形態について、図面を参照して詳細に説明する。本発明の実施形態に係る立体撮像装置10の概観を図1に、その機能構成を示す概略ブロック図を図2に示す。図1及び2に示すように、立体撮像装置10は、横並びに配置された撮像部101と撮像部102と、視差算出部21と、高解像度合成処理部20とを備える。撮像部101は、撮像レンズ11−1と撮像素子12−1を備える。撮像部102は、撮像レンズ11−2と撮像素子12−2を備える。なお、撮像部101と撮像部102とは、同じ被写体を撮像するように、光軸が平行になるように配置されている。
[First embodiment]
A first embodiment of the present invention will be described in detail with reference to the drawings. An overview of a
なお、撮像レンズ11−1と、撮像レンズ11−2とは、設置されている位置以外は同様の構成であるので、共通する部分の説明については、撮像レンズ11と表記して説明する。また、撮像素子12−1、撮像素子12−2とは、設置されている位置以外は同様の構成であるので、共通する部分の説明については、撮像素子12と表記して説明する。撮像レンズ11は被写体からの光を撮像素子12上に結像する。なお、撮像素子12(光学系)は、図2に示すように、一つの凸レンズから構成されていてもよいし、複数のレンズからなる光学系であってもよい。撮像素子12は、CMOS撮像素子などであり、結像されたイメージを光電変換して映像信号として出力する。以降、撮像部101の撮像素子12−1が出力する映像信号を、映像信号Rといい、撮像部102の撮像素子12−2が出力する映像信号を、映像信号Lという。
Since the imaging lens 11-1 and the imaging lens 11-2 have the same configuration except for the installed position, the description of the common part will be described as the imaging lens 11. In addition, since the image pickup device 12-1 and the image pickup device 12-2 have the same configuration except for the position where they are installed, the description of the common parts will be described as the image pickup device 12. The imaging lens 11 forms an image of light from the subject on the imaging element 12. As shown in FIG. 2, the imaging element 12 (optical system) may be composed of a single convex lens or an optical system composed of a plurality of lenses. The image sensor 12 is a CMOS image sensor or the like, and photoelectrically converts the image formed and outputs it as a video signal. Hereinafter, the video signal output from the imaging device 12-1 of the
撮像部101と撮像部102とにより出力された2系統の映像信号(映像信号R、映像信号L)は視差算出部21と高解像度合成処理部20に入力される。視差算出部21は入力された2つの映像信号の間で対応点探索を行い、その探索結果から撮像部101の視点を基準としたR基準視差データRSと、撮像部102の視点を基準としたL基準視差データLSを算出して、高解像度合成処理部20に出力する。高解像度合成処理部20は入力された2つの映像信号を、これらの視差データ(視差情報)に基づき合成処理して、右目用映像信号RCと左目用映像信号LCとを出力する。
Two systems of video signals (video signal R and video signal L) output by the
図3は、撮像レンズおよび撮像素子の配置例を示す図である。図3において、水平方向(横方向)にx軸をとり、鉛直方向(上下方向)にy軸をとり、奥行き方向にz軸をとる。すなわち、図3は、立体撮像装置10を正面から見たときの撮像レンズ、撮像素子の配置示す。図3に示すように、撮像レンズ11−1と、撮像レンズ11−2とは、y軸方向には同じ位置に配置されている。一方、撮像素子12−1は、撮像素子12−2より、y軸方向(上下方向)に、py/2だけ上にずれて配置されている。ここで、pyは、撮像素子12における画素のy軸方向の長さである。すなわち、撮像素子12−1と、撮像素子12−2とは、y軸方向(上下方向)に、撮像素子12の画素の高さの半分だけずれて配置されている。
FIG. 3 is a diagram illustrating an arrangement example of the imaging lens and the imaging element. In FIG. 3, the x axis is taken in the horizontal direction (lateral direction), the y axis is taken in the vertical direction (up and down direction), and the z axis is taken in the depth direction. That is, FIG. 3 shows the arrangement of the imaging lens and the imaging element when the
これにより、撮像部101は、撮像部102と比較して、撮像レンズに対する撮像素子の位置が、撮像素子の撮影画素の半分だけ上にずれている。なお、逆に、撮像素子12−1が、撮像素子12−2より、y軸方向(上下方向)に、py/2だけ下にずれて配置されていてもよい。その場合、後述する高解像度合成処理部20において合成処理する際の画素の配置順が逆となる。
As a result, in the
図4は、撮像レンズおよび撮像素子の別の配置例を示す図である。図4において、水平方向(横方向)にx軸をとり、鉛直方向(上下方向)にy軸をとり、奥行き方向にz軸をとる。図4に示す例では、撮像レンズ11−1は、撮像レンズ11−2より、y軸方向(上下方向)に、py/2だけ上にずれて配置されている。一方、撮像素子12−1と、撮像素子12−2とは、y軸方向には同じ位置に配置されている。すなわち、撮像レンズ11−1と、撮像レンズ11−2とは、y軸方向(上下方向)に、撮像素子12の画素の高さの半分だけずれて配置されている。 FIG. 4 is a diagram illustrating another arrangement example of the imaging lens and the imaging element. In FIG. 4, the x axis is taken in the horizontal direction (lateral direction), the y axis is taken in the vertical direction (up and down direction), and the z axis is taken in the depth direction. In the example illustrated in FIG. 4, the imaging lens 11-1 is arranged to be shifted by py / 2 in the y-axis direction (vertical direction) from the imaging lens 11-2. On the other hand, the image sensor 12-1 and the image sensor 12-2 are disposed at the same position in the y-axis direction. That is, the imaging lens 11-1 and the imaging lens 11-2 are arranged so as to be shifted in the y-axis direction (vertical direction) by half the pixel height of the imaging element 12.
これにより、撮像部101は、撮像部102と比較して、撮像レンズ11に対する撮像素子12の位置が、撮像素子12の撮影画素の半分だけ上にずれている。なお、逆に、撮像素子12−1が、撮像素子12−2より、y軸方向(上下方向)に、py/2だけ下にずれて配置されていてもよい。その場合、後述する高解像度合成処理部20において合成処理する際の画素の配置順が逆となる。
Thereby, in the
次に、視差算出部21について図5を参照し詳細に説明する。図5は、視差算出部21の構成を示す概略ブロック図である。視差算出部21は、図1の撮像部101から出力された映像信号Rと、撮像部L102から出力された映像信号Lとから、視差データを算出する。視差算出部21は、座標変換部31、32、右カメラパラメータ記憶部30R、左カメラパラメータ記憶部30L、対応点探索部33を備える。
Next, the
右カメラパラメータ記憶部30Rは、撮像部101固有の焦点距離やレンズ歪みパラメータなどの内部パラメータと、2つの撮像部101、102間の位置関係を表す外部パラメータとを含むカメラパラメータを保持している。同様に、左カメラパラメータ記憶部30Lは、撮像部102固有のカメラパラメータを保持している。
座標変換部31は、撮像部101と撮像部102の映像を同一平面上に乗せることを目的に、撮像部101が出力した映像信号Rが表す映像を公知の方法で幾何学変換(座標変換)してエピポーララインを平行化する。このとき、座標変換部31は、右カメラパラメータ記憶部30Rが記憶するカメラパラメータを用いる。座標変換部32は、撮像部101と撮像部102の映像を同一平面上に乗せることを目的に、撮像部102が出力した映像信号Lが表す映像を公知の方法で幾何学変換してエピポーララインを平行化する。このとき、座標変換部32は、左カメラパラメータ記憶部30Lが記憶するカメラパラメータを用いる。
The right camera
The coordinate
対応点探索部33は、座標変換部31と座標変換部32によりエピポーララインが平行化された映像間の対応画素を探索し、撮像部101の視点と102の視点との視差を表す視差データを求める。対応点探索部33は2種類の視差データを算出するブロックから構成される。1つは、R基準視差算出部34であり、もう1つは、L基準視差算出部35である。R基準視差算出部34は、エピポーララインが平行化された撮像部101の映像を基準映像とし、エピポーララインが平行化された撮像部102の映像を参照映像として、基準映像の各画素に対応する参照映像の画素を探索して、R基準視差データRSを算出する。L基準視差算出部35は、エピポーララインが平行化された撮像部102の映像を基準映像、エピポーララインが平行化された撮像部101の映像を参照映像として、基準映像の各画素に対応する参照映像の画素を探索して、L基準視差データを算出する。R基準視差算出ブロック34とL基準視差算出ブロック34は基準映像と参照映像が逆になっているだけで対応点探索動作は同じである。
The corresponding
次に、図6から 図9を参照して、R基準視差算出部34による対応画素を探索する処理動作について説明する。図6は、参照画像RGを示す図である。図7は、基準画像BGを示す図である。なお、上述したように、参照画像RG、基準画像BGともに、エピポーララインは平行化されている。基準画像BG上の画素に対応する参照画像RG上の画素(対応画素)を求めるために、基準画像BG上の注目画素の移動方法について図7を参照して説明する。R基準視差算出部34は、基準画像BG上の注目画素を中心とするブロック(以下、基準注目ブロックBBという)を基準画像BGの左上端(基準開始ブロックBS)からラインに沿って右側へ1画素毎に移動させ、移動させた基準注目ブロックBBがラインの右端に到達した場合は、1ライン下の左端からラインに沿って右側へ1画素毎に基準注目ブロックBBを移動させる。これを基準画像BGの右下端のブロック(基準終了ブロックBE)に到達するまで繰り返す。
Next, a processing operation for searching for a corresponding pixel by the R reference
次に、R基準視差算出部34が、図7に示す基準画像BG上のある1つの注目ブロック(基準注目ブロックBB)に類似する参照画像RG上のブロックを探索する処理動作について、図6を参照して説明する。R基準視差算出部34は、図7に示す基準画像BG上の基準注目ブロックBBの座標(x、y)と同じ座標となる参照画像RG上のブロック(参照開始ブロックRS)を、まず、参照注目ブロックRBとし、以降、ラインに沿って右側へ参照注目ブロックを1画素毎に移動させていく。そして、図6に示すように参照開始ブロックRSから探索範囲だけ右側に離れた参照終了ブロックREまで移動させる。ここで探索する範囲(探索範囲)は、撮影した被写体の最大視差に応じた値であり、設定した探索範囲によって、視差データを算出できる被写体までの最短の距離が決まる。R基準視差算出部34は、上述の参照注目ブロックの探索を、図7に示した基準画像BG上の各基準注目ブロックBBについて行う。
Next, the processing operation for the R-standard
次に、R基準視差算出部34による基準注目ブロックと類似する参照注目ブロックの決定方法について図8および図9を参照して説明する。図9は、基準注目ブロックBBの構成を示す図である。基準注目ブロックBBは、基準画像BG上の注目画素を中心とする横M×縦Nのサイズのブロックである。図8は、参照注目ブロックRBの構成を示す図である。参照注目ブロックRBは、参照画像RG上の注目画素を中心とする横M×縦Nのサイズのブロックである。図8に示す参照注目ブロックRBおよび図9に示す基準注目ブロックBB上の任意の画素を表すために、横方向をi、縦方向をjとした座標(i、j)の画素値をそれぞれR(i、j)、T(i、j)とする。
Next, a reference attention block determination method similar to the reference attention block by the R reference
R基準視差算出部34は、各基準注目ブロックBBと、参照注目ブロックRBとの組み合わせに対して類似度を算出して、各基準注目ブロックBBに類似する参照注目ブロックRBを決定する。類似度を求める方法には、一般的に多く用いられているSAD(Sum of Absolute Difference)を用いる。SADは、(1)式に示す類似度判定式のようにR(i、j)とT(i、j)の差分の絶対値をブロックの全画素について求め、それを合計した値(SSAD)である。R基準視差算出部34は、ある基準注目ブロックBBに対応する参照画像RG上の探索範囲内の各参照注目ブロックRGの中で(1)式のSSADの値が最も小さくなる参照注目ブロックを、その基準注目ブロックと類似していると決定する。そして、R基準視差算出部34は、基準注目ブロックBBに類似する参照注目ブロックRBの中心にある画素を、基準注目ブロックBBの中心にある注目画素に対応する画素とする。
The R reference
なお、L基準視差算出部35による対応画素を探索する処理動作は、R基準視差算出部34と、ほぼ同じであるが、探索する範囲が異なる。L基準視差算出部35の場合、参照開始ブロックRSは、基準注目ブロックBBと同じ座標から左側へ探索範囲だけ離れたブロックであり、参照終了ブロックREは、基準注目ブロックBBと同じ座標にあるブロックである。
The processing operation for searching for a corresponding pixel by the L reference
以上の説明は、視差データの算出方法を処理単位毎に説明したものである。次に、図6〜図9及び図10に示す処理フローを参照して、入力画素のシーケンスに沿った説明をする。R基準視差算出部34は、まず、基準注目ブロックを基準画像BG(図7)の先頭(基準開始ブロックBS)に設定する(ステップS900)。そして、基準注目ブロックBBの全画素値を基準画像BGから読み出す(ステップS901)。次に、R基準視差算出部34は、基準注目ブロックBBと同じ座標の参照画像RG(図6)中のブロック、すなわち参照画像RGの先頭(参照開始ブロックRS)を、参照注目ブロックRBに設定する(ステップS902)。そして、参照注目ブロックRBの全画素値を参照画像RGから読み出す(ステップS903)。R基準視差算出部34は、読み出した基準注目ブロックBBと参照注目ブロックRBの画素値のSSAD値を、(1)式に従って算出し、記憶する(ステップS904)。
In the above description, the parallax data calculation method is described for each processing unit. Next, description will be given along the sequence of input pixels with reference to the processing flows shown in FIGS. The R reference
次に、R基準視差算出部34は、探索範囲が終了したか否かを判定し(ステップS905)、終了していなければ参照注目ブロックをライン方向に沿って右側に1画素移動させ(ステップS906)、再度ステップS903およびステップS904を行う。これらステップS903からステップS906を、参照注目ブロックRBが探索範囲内にある間、繰り返し、探索範囲内の全SSAD値を算出する。R基準視差算出部34はこれらの算出結果に基づき、SSAD値が最小の参照注目ブロックRBを検出する(ステップS907)。ここで、ステップS907で算出した最小のSSAD値が必ずしも正しい類似ブロックとなるとは限らない。例えば、基準注目ブロックBBに特徴点となる模様(テクスチャー)や輪郭がない場合や、参照画像RG上の探索領域がオクルージョン領域の場合などに視差が正しく検出できない。この視差が正しく検出できたかは、最小のSSAD値がどれくらい小さい値になっているかから判断できる。
Next, the R reference
そこで、R基準視差算出部34は、最小のSSAD値を閾値と比較して(ステップ908)、SSAD値が閾値以下のとき(即ち類似度が高い場合)は、基準注目ブロックBBの中心(基準画像BG上の注目画素)のx座標と、検出した参照注目ブロックRBの中心(参照画像RG上の対応する画素)のx座標との差分を、その注目画素の視差データとして出力する(ステップS909)。一方、SSAD値が閾値を超えているとき(即ち類似度が低い場合)は、R基準視差算出部34は、視差が検出できなかったと判断して、エラーフラグとして視差データを0もしくはユニークな値にして出力する(ステップ910)。
Therefore, the R reference
最後に、R基準視差算出部34は、基準注目ブロックBBが基準終了ブロックBEに到達したか否か、すなわち処理が終了したか否かを判定し(ステップS911)、終了していなければ基準注目ブロックBBをライン方向に沿って右側に1画素移動させ(ステップS912)、再度ステップS901からステップS910を行う。ステップS911にて終了したと判定したときは、処理を終了する。このようにして、基準注目ブロックBBが基準画像BGの探索終了ブロックとなるまで、これらステップS901からステップS910を繰り返し、基準画像BG上の各画素の視差データを求める。
Finally, the R reference
以上の説明において、図5の対応点探索部33の処理方法の一例として、基準画像上の注目画素に類似する参照画像上の画素をSADの類似度評価関数で探索したが、この手法に限定されるものではなく、基準画像上と参照画像上の類似画素を探索する手法であればどのような手法を使用して、視差データを求めても良い。
In the above description, as an example of the processing method of the corresponding
次に、図11と図12を参照して図2に示す高解像度合成処理部20の詳細な構成と動作を説明する。図11は、高解像度合成処理部20の機能構成を示す概略ブロック図である。図11に示すように高解像度合成処理部20は、左目用映像信号LCを生成する左目用合成部908と、右目用映像信号RCを生成する右目用合成部909と、右カメラパラメータ記憶部902Rと、左カメラパラメータ記憶部902Lとを具備する。左目用合成部908と右目用合成ブロック部909の各々は、位置合わせ補正処理部901と補正処理部903と合成処理部906とを備える。左目用合成部908と右目用合成部909は入力される視差データの組み合わせが異なるだけで基本動作は同じであるため、ここでは左目用合成部908の動作を説明し、右目用合成部909の説明は省略する。
Next, the detailed configuration and operation of the high resolution
左目用合成部908において、撮像部101の映像信号Rは位置合わせ補正処理部901に、撮像部102の映像信号Lは補正処理部903に入力される。位置合わせ補正処理部901は、右カメラパラメータ記憶部902Rが記憶する撮像部101のレンズ歪の状態を示すカメラパラメータに基づき、映像信号Rが表す映像のレンズ歪みを補正した後、視差算出部21から入力されるL基準視差データLSと、右カメラパラメータ記憶部902Rが記憶する撮像部101の向きや姿勢を示すカメラパラメータに基づき、レンズ歪を補正した映像の各画素が撮像部102の映像(補正処理部903により補正された映像)中の同じ座標の画素と同じ被写体位置を捕らえるように位置合わせを行う。
In the left-
ただし、この位置合わせにおいて、図3、図4で説明した、撮像部101を、撮像部102と比較すると、撮像レンズ11−1に対する撮像素子12−1の位置が、撮像素子12−1の撮影画素の半分だけ上にずれている状態については、補正を行なわない。すなわち、位置合わせ補正処理部901の処理結果の座標(x、y)の画素は、補正処理部903の処理結果の座標(x、y)の画素と、座標(x、y−1)の画素との間の被写体位置を捕らえている。一方、補正処理部903は、左カメラパラメータ記憶部902Lが記憶するレンズ歪の状態を示すカメラパラメータに基づき、映像信号Lが表す映像のレンズ歪みを補正する。
However, in this alignment, when the
すなわち、位置合わせ補正処理部901と、補正処理部903とは、カメラパラメータを用いたエピポーララインの平行化と、L基準視差データLSを用いた視差の補正とを行う。ここで、エピポーララインの平行化は、公知の方法で行うことができる。また、視差の補正として、位置合わせ補正処理部901は、映像信号Rの表す映像に対してエピポーララインの平行化をした映像の画素を、L基準視差データLSが示す視差分だけ、画素を左に移動させる。例えば、座標(x、y)におけるL基準視差データLSがdであれば、座標(x+d、y)の画素を、座標(x、y)に移動させる。なお、右目用合成部909の補正処理部903には、映像信号Rと、撮像部101のカメラパラメータとが入力され、位置合わせ補正処理部901には、映像信号Lと、撮像部102のカメラパラメータと、R基準視差データRSとが入力される。また、右目用合成部909の位置合わせ補正処理部901における視差の補正では、視差データRSが示す視差分だけ、画素を右に移動させる。
That is, the alignment
次に、図12を参照して、左目用合成部908の合成処理部906の動作を説明する。図12において、横軸はy軸方向の空間の広がり(大きさ)、縦軸は光の振幅(光強度)示している。符号40aのグラフは、撮像部101、102の撮像素子12−1、12−2のうち、撮像レンズ11−1、11−2により被写体の像が結像されて、ある縦一列の画素に入射する光の分布を示す。符号40eのグラフは、撮像部101の撮像素子12−1の画素のうち、グラフ40aの光が入射している画素に対応する位置合わせ補正処理部901の出力の分布を示す。符号40fのグラフは、撮像部102の撮像素子12−2の画素のうち、グラフ40aの光が入射している画素に対応する補正処理部903の出力の分布を示す。符号40gのグラフは、符号40e、符号40fの分布に対する合成処理部906の出力の分布を示す。なお、ここでは、説明を簡易にするため、グラフ間の関係について、位置合わせ補正処理部901、補正処理部903による補正の影響を無視して説明する。
Next, the operation of the
図中の縦線のうち、実線は、撮像部101の撮像素子12−1の画素の境界線であり、破線は、撮像部102の撮像素子12−2の画素の境界線である。すなわち、図中の符号40bと符号40cはそれぞれ撮像部101と撮像部102の画素であり、相対位置関係が符号40dの矢印で示すオフセット分だけずれている。なお、このオフセットは、そのずれ量を撮像素子12−1と撮像素子12−2の画素(符号40b、符号40c)の半分の大きさに設定することが好ましい。半画素のオフセットにより最も高精細な画像を生成することが可能となる。撮像素子12−1、12−2は画素単位で光強度を積分することになるため、符号40aで示す被写体の像を撮像素子12−1で撮影すると、符号40eで示す光強度分布の映像信号が得られ、撮像素子12−2で撮影すると符号40fで示す光強度分布の映像信号が得られる。
Of the vertical lines in the figure, the solid line is the boundary line of the pixels of the image sensor 12-1 of the
合成処理部906は、y軸方向に、位置合わせ補正処理部901の出力と、補正処理部903の出力とを交互に並べることで、画像を合成し、撮像部101、102の出力に比べてy軸方向の解像度が2倍になった左目用映像信号LCを生成する。このとき、撮像部101は、撮像部102と比較して、撮像レンズ11−1に対する撮像素子12−1の位置が、撮像素子12−1の撮影画素の半分だけ上にずれていることを考慮し、撮像部101に由来する位置合わせ補正処理部901の画素aと同じ座標の画素であって、撮像部102に由来する補正処理部903の画素bを、画素aの下に配置する。すなわち、画像の右上を原点とし、右方向にx軸、下方向にy軸をとったとき、位置合わせ補正処理部901の出力中の座標(x、y)の画素は、合成処理部906の出力中の座標(2x、2y)の画素となり、補正処理部903の出力中の座標(x、y)の画素は、合成処理部906の出力中の座標(2x、2y+1)の画素となる。
The
合成処理部906は、このようにして、2つの画像を合成することで、符号40gに示すグラフ40aに近い高精細な画像を再現することができる。
なお、右目用合成部909の合成処理部906は、左目用合成部908の合成処理部906と同様に動作するが、撮像部101に由来する補正処理部903の画素cと同じ座標の画素であって、撮像部102に由来する位置合わせ補正処理部901の画素dを、画素cの下に配置する。
The
Note that the
以上の合成動作が左目用合成部908と右目用合成部909で実行される。その結果、左目用合成部908からは撮像部102の位置から撮影した(即ち左目から見た)高精細な映像の信号である左目用映像信号LCが出力され、右目用合成部909からは撮像部102の位置から撮影した(即ち右目から見た)高精細な映像の信号である右目用映像信号RCが出力される。この左目用と右目用の映像を立体表示装置で表示することで、撮像部101、102の2倍の解像度を持つ立体映像を表示することが可能となる。
The above combining operation is executed by the left
このように、立体撮像装置10が出力する左目用映像信号LCと、右目用映像信号RCとは、撮像部101、102が出力する映像信号R、Lと比較すると、2倍の解像度を有している。したがって、立体撮像装置10は、撮像部101が出力する映像信号と同等の解像度を有する立体撮像装置と同等の装置規模で、その2倍の解像度の立体映像を生成することができる。
As described above, the left-eye video signal LC and the right-eye video signal RC output from the
〔第二の実施形態〕
本発明の第二の実施形態について、図面を参照して詳細に説明する。なお、第一の実施形態と同じ機能の部分については同じ符号を用いて説明を省略する。図13は、本実施形態における立体撮像装置の概観を示す概観図である。図13に示すように、本実施形態における立体撮像装置111は、撮像部の数が第一の実施形態と異なり、2眼(符号101,102)から4眼(符号101,102,103,104)と増えている。すなわち、立体撮像装置111は、撮像部101、撮像部102、撮像部103、撮像部104を具備する。また、撮像部101は、撮像レンズ11−1、撮像素子12−1を具備する。同様に、撮像部102は、撮像レンズ11−2、撮像素子12−2を具備し、撮像部103は、撮像レンズ11−3、撮像素子12−3を具備し、撮像部104は、撮像レンズ11−4、撮像素子12−4を具備する。
[Second Embodiment]
A second embodiment of the present invention will be described in detail with reference to the drawings. In addition, about the part of the same function as 1st embodiment, description is abbreviate | omitted using the same code | symbol. FIG. 13 is an overview diagram illustrating an overview of the stereoscopic imaging apparatus according to the present embodiment. As shown in FIG. 13, the
図14は、本実施形態における立体撮像装置111の機能構成を示す概略ブロック図である。立体撮像装置111は、撮像部101、102、103、104、視差算出部21、多眼高解像度合成処理部121を具備する。撮像部101と撮像部102が出力した映像信号R、Lは多眼高解像度化合成処理部121と視差算出部21に入力される。撮像部103が出力した映像信号R’と撮像部104が出力した映像信号L’は、多眼高解像度合成処理部121に入力される。視差算出部21の処理は、第一の実施形態と同じであり、R基準視差データとL基準視差データを算出して多眼高解像度合成処理部121に出力する。高解像度合成処理部121は入力された4系統の映像信号を2系統の視差データに基づき合成処理して、右目用映像信号RCと左目用映像信号LCとを出力する。
FIG. 14 is a schematic block diagram illustrating a functional configuration of the
図15は、本実施形態における撮像レンズと、撮像素子との配置を説明する図である。図15において、水平方向(横方向)にx軸をとり、鉛直方向(上下方向)にy軸をとり、奥行き方向にz軸をとる。すなわち、図15は、立体撮像装置111を正面から見たときの撮像レンズ、撮像素子の配置示す。図15に示すように、撮像レンズ11−1と、撮像レンズ11−2とは、y軸方向には同じ位置に配置されている。また、撮像レンズ11−3と、撮像レンズ11−4とは、y軸方向には同じ位置に配置されている。また、撮像レンズ11−1と、撮像レンズ11−3とは、x軸方向には同じ位置に配置されている。また、撮像レンズ11−2と、撮像レンズ11−4とは、x軸方向には同じ位置に配置されている。また、撮像レンズ11−1の中心から撮像レンズ11−2の中心までの距離Dxは、撮像レンズ11−1の中心から撮像レンズ11−3の中心までの距離Dyと等しい。このように、本実施形態では、撮像部101〜104は、各辺が水平または鉛直方向のいずれかに沿う正方形の頂点に配置されている。
FIG. 15 is a diagram illustrating the arrangement of the imaging lens and the imaging element in the present embodiment. In FIG. 15, the x axis is taken in the horizontal direction (lateral direction), the y axis is taken in the vertical direction (up and down direction), and the z axis is taken in the depth direction. That is, FIG. 15 shows the arrangement of the imaging lens and the imaging element when the
一方、撮像素子12−1は、撮像素子12−2より、y軸方向(上下方向)に、py/2だけ上にずれて配置されている。また、撮像素子12−3は、撮像素子12−4より、y軸方向(上下方向)に、py/2だけ上にずれて配置されている。ここで、pyは、撮像素子12における画素のy軸方向の長さである。また、撮像素子12−1は、撮像素子12−3より、x軸方向(横方向)に、px/2だけ左にずれて配置されている。また、撮像素子12−2は、撮像素子12−4より、x軸方向(横方向)に、px/2だけ左にずれて配置されている。ここで、pxは、撮像素子における画素のx軸方向の長さである。 On the other hand, the image sensor 12-1 is displaced from the image sensor 12-2 by py / 2 in the y-axis direction (vertical direction). In addition, the image sensor 12-3 is arranged to be shifted by py / 2 in the y-axis direction (vertical direction) from the image sensor 12-4. Here, py is the length of the pixel in the image sensor 12 in the y-axis direction. Further, the image pickup device 12-1 is arranged to be shifted to the left by px / 2 in the x-axis direction (lateral direction) from the image pickup device 12-3. Further, the image sensor 12-2 is arranged to be shifted to the left by px / 2 in the x-axis direction (lateral direction) from the image sensor 12-4. Here, px is the length of the pixel in the x-axis direction in the image sensor.
これにより、撮像部101は、撮像部102と比較して、撮像レンズに対する撮像素子の位置が、撮像素子の撮影画素の半分だけ上にずれている。同様に、撮像部103は、撮像部104と比較して、撮像レンズに対する撮像素子の位置が、撮像素子の撮影画素の半分だけ上にずれている。また、撮像部101は、撮像部103と比較して、撮像レンズに対する撮像素子の位置が、撮像素子の撮影画素の半分だけ左にずれている。同様に、撮像部102は、撮像部104と比較して、撮像レンズに対する撮像素子の位置が、撮像素子の撮影画素の半分だけ左にずれている。
なお、ここでは、撮像素子がずれて配置される例を示したが、第一の実施形態で示した図4のように、撮像レンズがずれて配置されていてもよい。
As a result, in the
Here, an example in which the imaging elements are displaced is shown, but the imaging lens may be displaced as shown in FIG. 4 described in the first embodiment.
次に、図16、図17を参照して多眼高解像度合成処理部121の詳細な構成と動作を説明する。多眼高解像度合成処理部121は、左目用の高精細映像を生成する左目用多眼合成部130と、右目用の高精細映像を生成する右目用多眼合成部132と、撮像部101から104のカメラパラメータを記憶するカメラパラメータ記憶部902とを具備する。左目用合成部130と右目用合成ブロック130は、それぞれ位置合わせ補正処理部901と、補正処理部903と、縦横位置合わせ補正処理部904、縦位置合わせ補正処理部905、多眼合成処理部131とを具備する。左目用合成部130と右目用合成部132は入力される映像信号と視差データの組み合わせが異なるだけで基本動作は同じであるため、ここでは左目用合成ブロック131で動作を説明する。
Next, the detailed configuration and operation of the multi-view high resolution
撮像部101が出力した映像信号Rは、位置合わせ補正処理部901に入力される。位置合わせ補正処理部901は、第1の実施形態と同様に、映像信号Rが表す映像の補正処理および位置合わせを、カメラパラメータ記憶部902が記憶する撮像部101のカメラパラメータと、L基準視差データLSとに基づき行い、撮像部102の視点からの映像を生成する。撮像部102が出力した映像信号Lは、補正処理部903に入力される。補正処理部903は、第1の実施形態と同様に、映像信号Lが表す映像の補正処理を、カメラパラメータ記憶部902が記憶する撮像部102のカメラパラメータに基づき行う。
The video signal R output from the
撮像部103が出力した映像信号R’は、縦横位置合わせ補正処理部904に入力される。縦横位置合わせ補正処理部904は、映像信号R’が表す映像の補正処理および位置合わせを、カメラパラメータ記憶部902が記憶する撮像部103のカメラパラメータと、L基準視差データLSとに基づき行い、撮像部102の視点からの映像を生成する。このとき、撮像部101の撮像レンズ11−1の中心と、撮像部102の撮像レンズ12−1の中心との距離Dxは、撮像部101の撮像レンズ11−1の中心と、撮像部103の撮像レンズ12−3の中心との距離Dyと等しいことから、上下方向の視差データとして、L基準視差データLSを用いる。すなわち、縦横位置合わせ補正処理部904は、L基準視差データLSを上下方向と横方向とに適用して、位置合わせを行う。例えば、縦横位置合わせ補正処理部904により位置合わせされた画像中の座標(x、y)の画素値は、該座標におけるL基準視差データLSがdのときは、撮像部103が出力した映像信号が表す画像をカメラパラメータにより補正した画像中の座標(x+d、y―d)の画素値である。
The video signal R ′ output from the
撮像部104が出力した映像信号L’は縦位置合わせ補正処理部905に入力される。縦位置合わせ補正処理部905は、映像信号L’が表す映像の補正処理および位置合わせを、カメラパラメータ記憶部902が記憶する撮像部104のカメラパラメータと、L基準視差データLSとに基づき行い、撮像部102の視点からの映像を生成する。すなわち、縦位置合わせ補正処理部905は、L基準視差データLSを上下方向に適用して、位置合わせを行う。例えば、縦位置合わせ補正処理部905により位置合わせされた画像中の座標(x、y)の画素値は、該座標におけるL基準視差データLSがdのときは、撮像部104が出力した映像信号が表す画像をカメラパラメータにより補正した画像中の座標(x、y―d)の画素値である。
The video signal L ′ output from the
次に、図17を参照して、左目用合成部130および右目用合成部132における多眼合成処理部131の動作を説明する。第一の実施形態においては2つの画像による高解像度合成処理を行ったが、本実施形態では、多眼合成処理部131は、4つの撮像部101、102、103、104で得られた4系統の映像信号を用いて高解像度化合成する。左目用合成部130の多眼合成処理部131は、撮像部102の視点からの映像を表す信号である左目用映像信号LC’を生成し、出力する。また、右目用合成部132の多眼合成処理部131は、撮像部101の視点からの映像を表す信号である右目用映像信号RC’を生成し、出力する。4系統の高解像度化合成も図12の光強度分布で説明した原理と同じであるが、ここではより具体的に、4つの撮像部101、102、103、104の解像度がVGA(640×480画素)で、その4倍の画素数であるQuad−VGAの画素(1280×960画素)への高解像度合成処理を行う場合で説明する。
Next, the operation of the multi-eye
図17に示すように、Quad−VGAの画素(1280×960画素)の隣接する4つの画素が、異なる撮像部で撮像された画素を割り当てて合成することで高解像度の画像を得ることが可能である。ここで、撮像部101の撮像素子11−1は、撮像部102の撮像素子11−2に対して、半画素分だけ上にずれて配置されており、撮像部103の撮像素子11−3に対して、半画素分だけ左にずれて配置されており、撮像部104の撮像素子11−4は、撮像部102の撮像素子11−2に対して、半画素分だけ左にずれて配置されている。そこで、撮像素子の配置がずれている向きに合わせて、図17に示すように、撮像部101に由来する補正後映像MRと、撮像部102に由来する補正後映像MLと、撮像部103に由来する補正後映像MR’と、撮像部104に由来する補正後映像ML’との各々における同一座標の画素である画素G11、G21、G31、G41を、多眼合成処理部131は、以下のように配置する。すなわち、画素G11の右隣に画素G31を配置し、画素G11に下隣に画素G21を配置し、画素G32の右隣に画素G41を配置する。
As shown in FIG. 17, four pixels adjacent to Quad-VGA pixels (1280 × 960 pixels) can obtain a high-resolution image by assigning and synthesizing pixels captured by different imaging units. It is. Here, the image pickup device 11-1 of the
なお、左目用合成部131においては、撮像部101に由来する補正後映像MRは、位置合わせ補正処理部901が生成した画像であり、撮像部102に由来する補正後映像MLは、補正処理部903が生成した画像であり、撮像部103に由来する補正後映像MR’は、縦横位置合わせ補正処理部904が生成した画像であり、撮像部104に由来する補正後映像ML’は、縦位置合わせ補正処理部905が生成した画像である。右目用合成部132においては、撮像部101に由来する補正後映像MRは、補正処理部903が生成した画像であり、撮像部102に由来する補正後映像MLは、位置合わせ補正処理部901が生成した画像であり、撮像部103に由来する補正後映像MR’は、縦位置合わせ補正処理部905が生成した画像であり、撮像部104に由来する補正後映像ML’は、縦横位置合わせ補正処理部904が生成した画像である。
In the left-
以上の合成動作が左目用合成部130と右目用合成部132で実行される。その結果、左目用合成部130からは撮像部102の位置から撮影した(即ち左目から見た)4系統の映像を合成した高精細な映像が出力され、右目用合成部132からは撮像部101の位置から撮影した(即ち右目から見た)4系統を合成した、撮像部の出力と比較すると4倍の解像度を有する映像が出力される。この左目用と右目用の高精細化映像を立体表示装置で表示することで、高精細な立体映像を表示することが可能となる。
The above combining operation is executed by the left
このように、立体撮像装置111が出力する左目用映像信号LC’と、右目用映像信号RC’とは、撮像部101、102、103、104が出力する映像信号比較すると、4倍の解像度を有している。すなわち、立体撮像装置111が出力する左目用映像信号LC’と、右目用映像信号RC’とは、撮像部101が出力する映像信号と撮像部103が出力する映像信号とを合成した映像信号と比較すると、4倍の解像度を有している。したがって、立体撮像装置111は、撮像部101が出力する映像信号と撮像部103が出力する映像信号とを合成した映像信号と同等の解像度を有する立体撮像装置と同等の装置規模で、その2倍の解像度の立体映像を生成することができる。
As described above, the left-eye video signal LC ′ output from the
尚、本実施形態では視差算出部21に入力する映像信号を撮像部101、102が出力した2つの映像信号とした例を説明したが、入力する映像信号の数を増やすことも可能である。例えば、撮像部101、102、103、104が出力した4系統の映像を入力して、それぞれを基準として4系統の視差を算出し、それぞれの視差データで多眼高解像度合成することも可能である。その場合、右目用、左目用以外の複数視点の高精細映像が出力されることになり、結果的に、多視点立体映像を解像度劣化無く生成することが可能となる。
In the present embodiment, an example in which the video signals input to the
また、図2に視差算出部21、高解像度合成処理部20、あるいは図14における視差算出部21、多眼高解像度合成処理部121の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
In addition, FIG. 2 shows a program for realizing the functions of the
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.
10、111…立体撮像装置
11−1、11−2、11−3、11−4…撮像レンズ
12−1、12−2、12−3、12−4…撮像素子
20…高解像度合成処理部
21…視差算出部
30R…右カメラパラメータ記憶部
30L…左カメラパラメータ記憶部
31、32…座標変換部
33…対応点探索部
34…R基準視差算出部
35…L基準視差算出部
101、102、103、104…撮像部
121…多眼高解像度合成処理部
131…多眼合成処理部
901…位置合わせ補正処理部
902…カメラパラメータ記憶部
902R…右カメラパラメータ記憶部
902L…左カメラパラメータ記憶部
903…補正処理部
904…縦横位置合わせ補正処理部
905…縦位置合わせ補正処理部
906…合成処理部
908、130…左目用合成部
909、132…右目用合成部
DESCRIPTION OF
Claims (6)
前記2つの撮像部の撮影映像の間で対応点を検出し、前記2つの撮像部の撮影映像の視差情報を算出する視差算出部と、
前記2つの撮像部それぞれの視点を基準として、前記視差情報および前記2つの撮像部の撮影映像に基づき、該撮影映像よりも画素数の多い映像を合成し、2系統の前記画素数の多い映像を生成する合成処理部と
を備えることを特徴とする立体撮像装置。 Two imagers that image the same subject;
A parallax calculation unit that detects corresponding points between the captured images of the two imaging units and calculates parallax information of the captured images of the two imaging units;
Based on the viewpoints of each of the two image capturing units, based on the parallax information and the captured images of the two image capturing units, an image having a larger number of pixels than the captured image is synthesized, and two systems of images having the larger number of pixels A stereoscopic processing apparatus comprising: a synthesis processing unit that generates
被写体の像を撮像面に結像させる光学系と、
撮像面に結像した被写体の撮影映像の信号を生成する撮像素子と
を備え、
一方の前記撮像部は、他方の前記撮像部と比較して、前記光学系に対する前記撮像素子の位置が、該撮像素子の撮影画素の半分だけ上下いずれかにずれていること
を特徴とする請求項1に記載の立体撮像装置。 The imaging unit
An optical system that forms an image of a subject on the imaging surface;
An image sensor that generates a signal of a photographic image of a subject imaged on the imaging surface,
The one image pickup unit is characterized in that the position of the image pickup device with respect to the optical system is shifted up or down by half of the image pickup pixel of the image pickup device as compared with the other image pickup unit. Item 3. The stereoscopic imaging device according to Item 1.
前記撮像部のうち、横並びの撮像部の間では、前記光学系に対する前記撮像素子の位置が、該撮像素子の撮影画素の半分だけ上下いずれかにずれており、
前記撮像部のうち、縦並びの撮像部の間では、前記光学系に対する前記撮像素子の位置が、該撮像素子の撮影画素の半分だけ左右いずれかにずれていること
を特徴とする請求項2に記載の立体撮像装置。 Including three or more imaging units,
Among the imaging units, between the side-by-side imaging units, the position of the imaging element with respect to the optical system is shifted up or down by half of the imaging pixel of the imaging element,
The position of the said image pick-up element with respect to the said optical system has shifted | deviated to either the right or left by the half of the imaging pixel of this image pick-up element between the image pick-up parts arranged in a line among the said image pick-up parts. The three-dimensional imaging device described in 1.
前記視差算出部は、前記4つの撮像部のうち、前記正方形の隣接する頂点に配置されている2つの撮像部の撮影映像の視差情報を算出し、
前記合成処理部は、前記映像の合成の際に行う前記撮影映像の水平方向および鉛直方向の視差補正に、前記視差情報を用いること
を特徴とする請求項1に記載の立体撮像装置。 Four of the imaging units are arranged at the vertices of a square along which each side is either horizontal or vertical,
The parallax calculation unit calculates parallax information of captured images of two imaging units arranged at adjacent vertices of the square among the four imaging units,
The stereoscopic imaging apparatus according to claim 1, wherein the synthesis processing unit uses the parallax information for parallax correction in the horizontal direction and the vertical direction of the captured video performed when the video is synthesized.
前記合成処理部は、少なくとも3つの前記撮像部それぞれの視点を基準として、前記視差情報および少なくとも2つの前記撮像部の撮影映像に基づき、該撮影映像よりも画素数の多い映像を合成し、少なくとも3系統の前記画素数の多い映像を生成すること
を特徴とする請求項1に記載の立体撮像装置。 Comprising at least three imaging units;
The synthesis processing unit synthesizes a video having a larger number of pixels than the captured video based on the parallax information and the captured video of the at least two imaging units based on the viewpoints of each of the at least three imaging units, and at least The three-dimensional imaging device according to claim 1, wherein an image having a large number of pixels of three systems is generated.
前記2つの撮像部の撮影映像の間で対応点を検出し、前記2つの撮像部の撮影映像の視差情報を算出する第1の過程と、
前記2つの撮像部それぞれの視点を基準として、前記視差情報および前記2つの撮像部の撮影映像に基づき、該撮影映像よりも画素数の多い映像を合成し、2系統の前記画素数の多い映像を生成する第2の過程と
を有することを特徴とする撮像方法。 An imaging method in a stereoscopic imaging device including two imaging units for imaging the same subject,
A first step of detecting corresponding points between the captured images of the two imaging units and calculating parallax information of the captured images of the two imaging units;
Based on the viewpoints of each of the two image capturing units, based on the parallax information and the captured images of the two image capturing units, an image having a larger number of pixels than the captured image is synthesized, and two systems of images having the larger number of pixels And a second process for generating the imaging method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010168145A JP5088973B2 (en) | 2010-07-27 | 2010-07-27 | Stereo imaging device and imaging method thereof |
PCT/JP2011/066089 WO2012014695A1 (en) | 2010-07-27 | 2011-07-14 | Three-dimensional imaging device and imaging method for same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010168145A JP5088973B2 (en) | 2010-07-27 | 2010-07-27 | Stereo imaging device and imaging method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012029199A true JP2012029199A (en) | 2012-02-09 |
JP5088973B2 JP5088973B2 (en) | 2012-12-05 |
Family
ID=45529911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010168145A Expired - Fee Related JP5088973B2 (en) | 2010-07-27 | 2010-07-27 | Stereo imaging device and imaging method thereof |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5088973B2 (en) |
WO (1) | WO2012014695A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102752616A (en) * | 2012-06-20 | 2012-10-24 | 四川长虹电器股份有限公司 | Method for converting double-view three-dimensional video to multi-view three-dimensional video |
WO2013038629A1 (en) * | 2011-09-13 | 2013-03-21 | Canon Kabushiki Kaisha | Imaging apparatus and method for controlling same |
WO2014192487A1 (en) * | 2013-05-29 | 2014-12-04 | 日本電気株式会社 | Multi-eye imaging system, acquired image synthesis method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0686332A (en) * | 1992-09-04 | 1994-03-25 | Canon Inc | Compound eye image pickup method |
JPH0682608A (en) * | 1992-07-14 | 1994-03-25 | Nippon Telegr & Teleph Corp <Ntt> | Optical element, and optical axis chaging element and projection type display device using the same |
JPH0815616A (en) * | 1994-06-30 | 1996-01-19 | Olympus Optical Co Ltd | Stereoscopic endoscope image pickup device |
JP2008078772A (en) * | 2006-09-19 | 2008-04-03 | Oki Electric Ind Co Ltd | Stereo image processing apparatus and stereo image processing method |
JP2008177725A (en) * | 2007-01-17 | 2008-07-31 | Nippon Hoso Kyokai <Nhk> | Stereoscopic image pickup position adjusting device, stereoscopic image pickup position adjusting method and program thereof, and stereoscopic image pickup system |
JP2009124308A (en) * | 2007-11-13 | 2009-06-04 | Tokyo Denki Univ | Multi-viewpoint image creating system and multi-viewpoint image creating method |
-
2010
- 2010-07-27 JP JP2010168145A patent/JP5088973B2/en not_active Expired - Fee Related
-
2011
- 2011-07-14 WO PCT/JP2011/066089 patent/WO2012014695A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0682608A (en) * | 1992-07-14 | 1994-03-25 | Nippon Telegr & Teleph Corp <Ntt> | Optical element, and optical axis chaging element and projection type display device using the same |
JPH0686332A (en) * | 1992-09-04 | 1994-03-25 | Canon Inc | Compound eye image pickup method |
JPH0815616A (en) * | 1994-06-30 | 1996-01-19 | Olympus Optical Co Ltd | Stereoscopic endoscope image pickup device |
JP2008078772A (en) * | 2006-09-19 | 2008-04-03 | Oki Electric Ind Co Ltd | Stereo image processing apparatus and stereo image processing method |
JP2008177725A (en) * | 2007-01-17 | 2008-07-31 | Nippon Hoso Kyokai <Nhk> | Stereoscopic image pickup position adjusting device, stereoscopic image pickup position adjusting method and program thereof, and stereoscopic image pickup system |
JP2009124308A (en) * | 2007-11-13 | 2009-06-04 | Tokyo Denki Univ | Multi-viewpoint image creating system and multi-viewpoint image creating method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013038629A1 (en) * | 2011-09-13 | 2013-03-21 | Canon Kabushiki Kaisha | Imaging apparatus and method for controlling same |
CN102752616A (en) * | 2012-06-20 | 2012-10-24 | 四川长虹电器股份有限公司 | Method for converting double-view three-dimensional video to multi-view three-dimensional video |
WO2014192487A1 (en) * | 2013-05-29 | 2014-12-04 | 日本電気株式会社 | Multi-eye imaging system, acquired image synthesis method, and program |
JPWO2014192487A1 (en) * | 2013-05-29 | 2017-02-23 | 日本電気株式会社 | Multi-view imaging system, acquired image composition processing method, and program |
US9741143B2 (en) | 2013-05-29 | 2017-08-22 | Nec Corporation | Multocular imaging system, synthesis process method of acquired images, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2012014695A1 (en) | 2012-02-02 |
JP5088973B2 (en) | 2012-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5238429B2 (en) | Stereoscopic image capturing apparatus and stereoscopic image capturing system | |
US10455218B2 (en) | Systems and methods for estimating depth using stereo array cameras | |
CN102164298B (en) | Method for acquiring element image based on stereo matching in panoramic imaging system | |
EP1836859B1 (en) | Automatic conversion from monoscopic video to stereoscopic video | |
JP5014979B2 (en) | 3D information acquisition and display system for personal electronic devices | |
JP5982751B2 (en) | Image processing apparatus, image processing method, and program | |
JP5320524B1 (en) | Stereo camera | |
JP5308523B2 (en) | Stereoscopic image display device | |
KR20110124473A (en) | 3-dimensional image generation apparatus and method for multi-view image | |
JP5814692B2 (en) | Imaging apparatus, control method therefor, and program | |
JP2017531976A (en) | System and method for dynamically calibrating an array camera | |
JP2013192229A (en) | Two dimensional/three dimensional digital information acquisition and display device | |
US20130286170A1 (en) | Method and apparatus for providing mono-vision in multi-view system | |
US9207759B1 (en) | Method and apparatus for generating depth map from monochrome microlens and imager arrays | |
JP5370606B2 (en) | Imaging apparatus, image display method, and program | |
KR20150003576A (en) | Apparatus and method for generating or reproducing three-dimensional image | |
JP5088973B2 (en) | Stereo imaging device and imaging method thereof | |
KR101960577B1 (en) | Method for transmitting and receiving stereo information about a viewed space | |
KR102112491B1 (en) | Method for description of object points of the object space and connection for its implementation | |
JP2013120435A (en) | Image processing apparatus and image processing method, and program | |
JP5704885B2 (en) | Imaging device, imaging method, and imaging control program | |
JP6595878B2 (en) | Element image group generation apparatus and program thereof | |
JP5689693B2 (en) | Drawing processor | |
JP2011182325A (en) | Image pickup device | |
JP6292785B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120814 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120910 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |