[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013236291A - Stereoscopic imaging apparatus - Google Patents

Stereoscopic imaging apparatus Download PDF

Info

Publication number
JP2013236291A
JP2013236291A JP2012108095A JP2012108095A JP2013236291A JP 2013236291 A JP2013236291 A JP 2013236291A JP 2012108095 A JP2012108095 A JP 2012108095A JP 2012108095 A JP2012108095 A JP 2012108095A JP 2013236291 A JP2013236291 A JP 2013236291A
Authority
JP
Japan
Prior art keywords
image
psf
distance
lens system
relay lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012108095A
Other languages
Japanese (ja)
Inventor
Makoto Kitagawa
真 北川
Kenichi Iwauchi
謙一 岩内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012108095A priority Critical patent/JP2013236291A/en
Publication of JP2013236291A publication Critical patent/JP2013236291A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a stereoscopic image with a large depth of field to be captured, which is a focused from a short distance to a long distance.SOLUTION: A stereoscopic imaging apparatus includes: one objective lens 1 for forming an image of a subject in the air; a relay lens system 3 for reforming a formed aerial image 2; pupil division means 33 disposed close to a diaphragm 32 of the relay lens system 3 and dividing a light flux having arrived at the diaphragm 32 into multiple rays; and multiple imaging elements 4a and 4b disposed on each one of image forming surfaces of the relay lens system 3 after division by the pupil division means 33. A stereoscopic image is captured by the multiple imaging elements 4a and 4b. A wave surface modulator 35 is disposed close to the diaphragm 32 of the relay lens system 3, and a stereoscopic image with a large depth of field can be captured by the wave surface modulator 35.

Description

本発明は、立体撮像装置に関し、より詳細には、視差の異なる複数の画像を撮像することにより、立体視を可能とする立体撮像装置に関する。   The present invention relates to a stereoscopic imaging device, and more particularly to a stereoscopic imaging device that enables stereoscopic viewing by capturing a plurality of images having different parallaxes.

従来、内視鏡や顕微鏡などの分野において、被写体からの物体光を、1つの撮像光学系で取り込み、光学系内部で複数の光束に分割し、視差の異なる複数の画像を撮像することにより、立体視を可能とする立体撮像装置が知られている(例えば、特許文献1,特許文献2を参照)。   Conventionally, in a field such as an endoscope or a microscope, object light from a subject is captured by one imaging optical system, divided into a plurality of light beams inside the optical system, and a plurality of images with different parallaxes are captured, A stereoscopic imaging apparatus that enables stereoscopic viewing is known (see, for example, Patent Document 1 and Patent Document 2).

以下、従来の立体撮像装置について図15に基づき説明する。図15(A)において、被写体(図示せず)上の点光源から発した光は対物レンズ1に入射する。対物レンズ1に入射した光束は対物レンズ1の絞り12の前側の前群レンズ11、絞り後の後群レンズ13で集光され、対物レンズ1の像面に空中像2として結像される。これは被写体上の点光源と共役となっている。この空中像2を物体面としてリレーレンズ系3が配置される。リレーレンズ系3に入射した光束は、その前群レンズ31により上光線、主光線、下光線が略平行になるように曲げられリレーレンズ系3の絞り32に入射する。リレーレンズ系3の絞り32付近に光束を2方向に分割し方向を変える三角プリズムやミラーなどの瞳分割手段33が配置される。なお、ここでいう瞳とは絞りの像のことを意味し、図15(A)ではリレーレンズ系3の絞り32の前群レンズ31による像を瞳と呼ぶ。   Hereinafter, a conventional stereoscopic imaging apparatus will be described with reference to FIG. In FIG. 15A, light emitted from a point light source on a subject (not shown) enters the objective lens 1. The light beam incident on the objective lens 1 is condensed by the front group lens 11 on the front side of the diaphragm 12 of the objective lens 1 and the rear group lens 13 after the diaphragm, and is formed as an aerial image 2 on the image plane of the objective lens 1. This is conjugate with the point light source on the subject. A relay lens system 3 is arranged with the aerial image 2 as an object plane. The light beam incident on the relay lens system 3 is bent by the front lens group 31 so that the upper light beam, the main light beam, and the lower light beam are substantially parallel, and is incident on the stop 32 of the relay lens system 3. In the vicinity of the stop 32 of the relay lens system 3, pupil dividing means 33 such as a triangular prism or a mirror that divides the light beam in two directions and changes the direction is arranged. Here, the pupil means an image of a diaphragm, and in FIG. 15A, an image formed by the front group lens 31 of the diaphragm 32 of the relay lens system 3 is called a pupil.

ここで、図15(B)は、光の入射側から見たリレーレンズ系3の絞り32を示している。図15(B)に示すように、被写体から右方向に発せられた物体光は、対物レンズ1により左右反転し、リレーレンズ系3の瞳32の左側領域32aに到達する。同様に、被写体から左方向に発せられた物体光は、対物レンズ1により左右反転し、リレーレンズ系3の瞳32の右側領域32bに到達する。リレーレンズ系3の瞳の左側領域32aに到達した光は瞳分割手段33aにより左方向に反射し、リレーレンズ系3の瞳の右側領域32bに到達した光は瞳分割手段33bにより右方向に反射する。   Here, FIG. 15B shows the stop 32 of the relay lens system 3 as viewed from the light incident side. As shown in FIG. 15B, the object light emitted in the right direction from the subject is reversed left and right by the objective lens 1 and reaches the left region 32 a of the pupil 32 of the relay lens system 3. Similarly, object light emitted leftward from the subject is reversed left and right by the objective lens 1 and reaches the right region 32b of the pupil 32 of the relay lens system 3. The light reaching the left region 32a of the pupil of the relay lens system 3 is reflected leftward by the pupil dividing unit 33a, and the light reaching the right region 32b of the pupil of the relay lens system 3 is reflected rightward by the pupil dividing unit 33b. To do.

すなわち、リレーレンズ系3の瞳を左側領域32aと右側領域32bに分割すると、瞳の左側領域32aには物体から右方向に向かう光束が、瞳の右側領域32bには物体から左方向に向かう光束が集まるため、瞳の左側領域32aと右側領域32bには2つの異なる方向の視差を持つ光が集まることが分かる。瞳分割手段33aにより左方向に反射した光は、リレーレンズ系3の後群レンズ34aで撮像素子4a上に結像される。同様に、瞳分割手段33bにより右方向に反射した光は、リレーレンズ系3の後群レンズ34bで撮像素子4b上に結像される。   That is, when the pupil of the relay lens system 3 is divided into a left region 32a and a right region 32b, a light beam traveling from the object to the right direction in the left region 32a of the pupil, and a light beam traveling from the object to the left in the right region 32b of the pupil. Therefore, it can be seen that light having parallaxes in two different directions gathers in the left region 32a and the right region 32b of the pupil. The light reflected leftward by the pupil dividing means 33a is imaged on the image sensor 4a by the rear group lens 34a of the relay lens system 3. Similarly, the light reflected rightward by the pupil dividing means 33b is imaged on the image sensor 4b by the rear group lens 34b of the relay lens system 3.

このように従来の立体撮像装置は、1つの対物レンズ1によって取り込んだ光束を、リレーレンズ系3の絞り32近傍に設けた瞳分割手段33を用いて2つの異なる領域に分割し、それぞれ異なる2つの撮像素子4a,4b上に結像することにより、左右方向に視差の異なる2つの画像を撮像可能としている。   As described above, the conventional stereoscopic imaging apparatus divides the light beam taken in by one objective lens 1 into two different regions using the pupil dividing means 33 provided in the vicinity of the stop 32 of the relay lens system 3, and each of the two different 2's. By forming an image on the two image pickup devices 4a and 4b, two images having different parallaxes in the left-right direction can be picked up.

特開平6−194581号公報Japanese Unexamined Patent Publication No. 6-194581 特開平8−220448号公報JP-A-8-220448

ここで、一般的な撮像装置の被写界深度は下記の式(1)で示される。
前側被写界深度 Lf=δ・F・L/(f+δ・F・L)
後側被写界深度 Lr=δ・F・L/(f−δ・F・L)
被写界深度=Lf+Lr …式(1)
但し、fは光学系の焦点距離、Fは光学系のF値(Fno)、δは許容錯乱円直径(許容できるぼけ)、Lは撮像距離である。
Here, the depth of field of a general imaging device is expressed by the following equation (1).
Front depth of field Lf = δ · F · L 2 / (f 2 + δ · F · L)
Rear depth of field Lr = δ · F · L 2 / (f 2 −δ · F · L)
Depth of field = Lf + Lr (1)
Here, f is the focal length of the optical system, F is the F value (Fno) of the optical system, δ is the allowable confusion circle diameter (allowable blur), and L is the imaging distance.

上記式(1)より分かるように被写界深度は、撮像距離Lが決定されると、撮像光学系のFno、焦点距離f、許容錯乱円直径δで一意に決定されてしまう。一般的なカメラでは、Fno、焦点距離f、許容錯乱円直径δに制約があるため、近距離から遠距離までフォーカスの合った、いわゆる全焦点画像を撮影することはできない。   As can be seen from the above equation (1), when the imaging distance L is determined, the depth of field is uniquely determined by the Fno of the imaging optical system, the focal length f, and the allowable confusion circle diameter δ. With a general camera, Fno, focal length f, and allowable circle of confusion circle diameter δ are limited, and so-called omnifocal images that are in focus from a short distance to a long distance cannot be taken.

このことは、上述の特許文献1,2に記載の立体撮像装置においても同様であり、被写界深度が制限されるという問題がある。特に近年のCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの生産設備の進歩に伴い、撮像素子の画素の高精細化・小型化が進み、撮像光学系は、明るく、許容錯乱円直径が小さくなっている。このため、上記のような立体撮像装置の被写界深度は狭く制限されている。   The same applies to the stereoscopic imaging devices described in Patent Documents 1 and 2, and there is a problem that the depth of field is limited. In particular, along with advances in production equipment such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor) in recent years, the pixels of the image sensor have become higher definition and smaller, and the imaging optical system is brighter and has a permissible circle of confusion. The diameter is small. For this reason, the depth of field of the stereoscopic imaging device as described above is narrowly limited.

本発明は、上述のような実情に鑑みてなされたもので、近距離から遠距離までフォーカスの合った被写界深度の深い立体視用の画像を撮像することができる立体撮像装置を提供することを目的とする。   The present invention has been made in view of the above situation, and provides a stereoscopic imaging apparatus capable of imaging a stereoscopic image with a deep depth of field that is in focus from a short distance to a long distance. For the purpose.

上記課題を解決するために、本発明の第1の技術手段は、被写体を空中に結像する1つの対物レンズと、該結像された空中像を再結像するリレーレンズ系と、該リレーレンズ系の絞り近傍に配置され該絞りに到達した光束を複数に分割する瞳分割手段と、該瞳分割手段により分割され前記リレーレンズ系の各結像面に配置された複数の撮像素子とを備え、該複数の撮像素子により立体視用の画像を撮像する立体撮像装置であって、前記対物レンズの絞り近傍または前記リレーレンズ系の絞り近傍に波面変調素子を配置したことを特徴としたものである。   In order to solve the above problems, a first technical means of the present invention includes one objective lens that forms an image of a subject in the air, a relay lens system that re-images the formed aerial image, and the relay. A pupil dividing unit that is arranged in the vicinity of the stop of the lens system and divides the light beam reaching the stop into a plurality of pieces, and a plurality of image pickup devices that are divided by the pupil dividing unit and arranged on each imaging plane of the relay lens system; A stereoscopic imaging apparatus that captures a stereoscopic image using the plurality of imaging elements, wherein a wavefront modulation element is disposed near the stop of the objective lens or the stop of the relay lens system It is.

第2の技術手段は、第1の技術手段において、前記瞳分割手段は、前記リレーレンズ系の絞り近傍に配置されたプリズムの反射面であることを特徴としたものである。   According to a second technical means, in the first technical means, the pupil dividing means is a reflecting surface of a prism arranged in the vicinity of the stop of the relay lens system.

第3の技術手段は、第1または第2の技術手段において、前記波面変調素子は、光軸に非対称な位相板として構成され、前記立体撮像装置は、予め定められた1つのPSFデータを記憶したPSF記憶部と、該1つのPSFデータに基づいて前記複数の撮像素子で撮像された各画像データを復元する複数の画像復元部とを備えたことを特徴としたものである。   According to a third technical means, in the first or second technical means, the wavefront modulation element is configured as an asymmetric phase plate with respect to an optical axis, and the stereoscopic imaging device stores one predetermined PSF data. And a plurality of image restoration units for restoring each piece of image data captured by the plurality of image pickup devices based on the one PSF data.

第4の技術手段は、第1または第2の技術手段において、前記波面変調素子は、光軸に対称な位相板として構成され、前記立体撮像装置は、被写体までの距離情報に対応付けてPSFデータを記憶した距離対応PSF記憶部と、前記複数の撮像素子で撮像された各画像データから距離情報を算出する距離情報算出部と、該算出した距離情報に対応するPSFデータを前記距離対応PSF記憶部から抽出し、該抽出したPSFデータに基づいて前記各画像データを復元する複数の画像復元部とを備えたことを特徴としたものである。   According to a fourth technical means, in the first or second technical means, the wavefront modulation element is configured as a phase plate symmetric with respect to an optical axis, and the stereoscopic imaging apparatus is associated with distance information to a subject in a PSF. A distance-corresponding PSF storage unit that stores data, a distance information calculation unit that calculates distance information from each image data captured by the plurality of image sensors, and PSF data corresponding to the calculated distance information is converted into the distance-corresponding PSF. A plurality of image restoration units that are extracted from the storage unit and restore the image data based on the extracted PSF data are provided.

第5の技術手段は、第2の技術手段において、前記プリズムの反射面を曲面形状とすることで、該反射面が前記波面変調素子として機能することを特徴としたものである。   According to a fifth technical means, in the second technical means, the reflecting surface of the prism is formed into a curved shape, so that the reflecting surface functions as the wavefront modulation element.

第6の技術手段は、第5の技術手段において、前記プリズムの反射面形状は、
Z=αX+βY、但し、α,βは係数、Xは光軸からのプリズムの折り曲げと垂直な方向の距離、Yは光軸からのプリズムの折り曲げ方向の距離、
により定義される非球面形状であることを特徴としたものである。
A sixth technical means is the fifth technical means, wherein the reflecting surface shape of the prism is:
Z = αX 3 + βY 3 , where α and β are coefficients, X is a distance in the direction perpendicular to the prism bending from the optical axis, Y is a distance in the prism bending direction from the optical axis,
It is characterized by an aspherical shape defined by

本発明によれば、1つの対物レンズからの光束をリレーレンズ系で分割して視差の異なる複数の撮像画像を得る際に、対物レンズの絞り近傍またはリレーレンズ系の絞り近傍に配置した波面変調素子によるぼけに基づき画像を復元することで近距離から遠距離までフォーカスの合った被写界深度の深い撮像画像を得ることができる。このため、異なる撮像光学系により別々に撮像された画像を立体視するときと比べ、レンズの歪の個体差、アライメントによる光軸の向きのばらつき等の影響を受けにくく、かつ見たい被写体にいつでもピントの合った立体画像を撮像することが可能となる。   According to the present invention, when a light beam from one objective lens is divided by a relay lens system to obtain a plurality of captured images having different parallaxes, wavefront modulation arranged in the vicinity of the stop of the objective lens or in the vicinity of the stop of the relay lens system By restoring the image based on the blur caused by the element, it is possible to obtain a captured image having a deep depth of field that is in focus from a short distance to a long distance. For this reason, it is less susceptible to individual differences in lens distortion, optical axis orientation variations due to alignment, etc., compared to stereoscopic viewing of images captured separately by different imaging optical systems, and to the subject you want to see at any time. It is possible to capture a focused stereoscopic image.

本発明による立体撮像装置の要部構成例を示す図である。It is a figure which shows the principal part structural example of the three-dimensional imaging device by this invention. 対物レンズの焦点距離fが11mmのときの物体距離aと像距離bとの関係の一例を示す図である。It is a figure which shows an example of the relationship between the object distance a and the image distance b when the focal distance f of an objective lens is 11 mm. 対物レンズの一例を示す図である。It is a figure which shows an example of an objective lens. 物体面から光学系までの距離(撮像距離)が変化したときのPSFデータの一例を示す図である。It is a figure which shows an example of PSF data when the distance (imaging distance) from an object surface to an optical system changes. 図4のPSFに対応した撮像画像の一例を示す図である。It is a figure which shows an example of the captured image corresponding to PSF of FIG. プリズムに波面変調素子の機能を持たせた場合のリレーレンズ系の構成例を示す図である。It is a figure which shows the structural example of the relay lens system at the time of giving the function of a wavefront modulation element to a prism. プリズムの反射面に式(4)で示される波面変調素子としての機能を持たせたときの光学系によるPSFデータの一例を示す図である。It is a figure which shows an example of the PSF data by an optical system when the function as a wavefront modulation element shown by Formula (4) is given to the reflective surface of a prism. 図7のPSFに対応した撮像画像の一例を示す図である。It is a figure which shows an example of the captured image corresponding to PSF of FIG. 位相板を用いた全焦点カメラの原理について説明するための図である。It is a figure for demonstrating the principle of the omnifocal camera using a phase plate. 図8の撮像画像から図7のPSFデータを用いてぼけを除去した復元画像の一例を示す図である。It is a figure which shows an example of the decompression | restoration image which removed the blurring from the captured image of FIG. 8 using the PSF data of FIG. 本発明の一実施形態に係る立体撮像装置の要部構成例を示すブロック図である。It is a block diagram which shows the principal part structural example of the three-dimensional imaging device which concerns on one Embodiment of this invention. 本発明の他の実施形態に係る立体撮像装置の要部構成例を示すブロック図である。It is a block diagram which shows the principal part structural example of the three-dimensional imaging device which concerns on other embodiment of this invention. 立体撮像装置が備える2つの撮像素子により撮像された画像の一例を示す図である。It is a figure which shows an example of the image imaged with two image pick-up elements with which a three-dimensional imaging device is provided. 本発明による画像復元方法の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the image restoration method by this invention. 従来の立体撮像装置について説明するための図である。It is a figure for demonstrating the conventional stereoscopic imaging device.

以下、添付図面を参照しながら、本発明の立体撮像装置に係る好適な実施の形態について説明する。本発明による立体撮像装置は、F値が小さく被写界深度が狭い3D顕微鏡や3D内視鏡、高画素3Dカメラなどにおいて特に有効に適用できるものである。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments according to a stereoscopic imaging device of the invention will be described with reference to the accompanying drawings. The stereoscopic imaging apparatus according to the present invention can be particularly effectively applied to a 3D microscope, a 3D endoscope, a high pixel 3D camera, and the like having a small F value and a narrow depth of field.

図1は、本発明による立体撮像装置の要部構成例を示す図である。基本的な構成は図15に示した構成と同様であるが、リレーレンズ系3内に波面変調素子35を備えた点が異なる。図1(A)において、前述したように、被写体(図示せず)上の点光源から発した光は対物レンズ1に入射する。対物レンズ1に入射した光束は対物レンズ1の絞り12の前側の前群レンズ11、絞り後の後群レンズ13で集光され、対物レンズ1の像面に空中像2として結像される。この結像において被写体と空中像2は共役関係にあり、画角が非常に小さい近軸のとき下記の式(2)が成立する。
1/a+1/b=1/f …式(2)
但し、aは被写体からレンズまでの距離(物体距離)、bはレンズから像面までの距離(像距離)、fは対物レンズの焦点距離である。
FIG. 1 is a diagram illustrating a configuration example of a main part of a stereoscopic imaging apparatus according to the present invention. The basic configuration is the same as the configuration shown in FIG. 15 except that the wavefront modulation element 35 is provided in the relay lens system 3. In FIG. 1A, as described above, light emitted from a point light source on a subject (not shown) enters the objective lens 1. The light beam incident on the objective lens 1 is condensed by the front group lens 11 on the front side of the diaphragm 12 of the objective lens 1 and the rear group lens 13 after the diaphragm, and is formed as an aerial image 2 on the image plane of the objective lens 1. In this imaging, the subject and the aerial image 2 are in a conjugate relationship, and the following equation (2) is established when the angle of view is a paraxial.
1 / a + 1 / b = 1 / f Equation (2)
Where a is the distance from the subject to the lens (object distance), b is the distance from the lens to the image plane (image distance), and f is the focal length of the objective lens.

図2に対物レンズ1の焦点距離fが11mmのときの物体距離aと像距離bとの関係の一例を示す。これより、300mm〜10000mmの物体距離aに対して、像距離bは11.4mm〜11.0mmに縮小されていることが分かる。すなわち空中像2は対物レンズ1から11.4mm〜11.0mmの範囲にできることになる。   FIG. 2 shows an example of the relationship between the object distance a and the image distance b when the focal length f of the objective lens 1 is 11 mm. From this, it can be seen that the image distance b is reduced to 11.4 mm to 11.0 mm with respect to the object distance a of 300 mm to 10000 mm. That is, the aerial image 2 can be in the range of 11.4 mm to 11.0 mm from the objective lens 1.

図3に対物レンズ1の一例を示す。図中、11は対物レンズ1の前群レンズ、12は絞り、13は対物レンズ1の後群レンズを示す。このように、光学系の収差、明るさ、画角などの仕様を満足するために、前群レンズ11、後群レンズ13ともに複数枚のレンズで構成されている。また、後群レンズ13の最後に配置している貼合せレンズで撮像素子に入射する各画角の主光線を平行にしている。これにより対物レンズ1の焦点位置によらず像サイズが変わらないようにすることができる。   FIG. 3 shows an example of the objective lens 1. In the figure, 11 is a front group lens of the objective lens 1, 12 is a stop, and 13 is a rear group lens of the objective lens 1. As described above, both the front lens group 11 and the rear lens group 13 are composed of a plurality of lenses in order to satisfy specifications such as aberration, brightness, and field angle of the optical system. Further, a principal lens at each angle of view incident on the image sensor is made parallel by a cemented lens disposed at the end of the rear group lens 13. As a result, the image size can be kept unchanged regardless of the focal position of the objective lens 1.

図1(A)に戻り、空中像2を物体面としてリレーレンズ系3が配置される。リレーレンズ系3に入射した光束は、その前群レンズ31により上光線、主光線、下光線が略平行になるように曲げられリレーレンズ系3の絞り32に入射する。リレーレンズ系3の絞り32付近には光束を2方向に分割し方向を変える三角プリズムやミラーなどの瞳分割手段33が配置される。ここでいう瞳とは絞りの像のことを意味し、リレーレンズ系3の絞り32の前群レンズ31による像を瞳と呼ぶ。また、瞳分割手段33は、特に上記のような反射型素子に限定されるものではなく、例えば、ハエの目レンズ、回折格子、ホログラムなどの透過型素子を用いてもよい。以下では瞳分割手段33としてプリズム(以下、プリズム33ともいう)を用いた場合を例示して説明するものとする。   Returning to FIG. 1A, the relay lens system 3 is arranged with the aerial image 2 as the object plane. The light beam incident on the relay lens system 3 is bent by the front lens group 31 so that the upper light beam, the main light beam, and the lower light beam are substantially parallel, and is incident on the stop 32 of the relay lens system 3. In the vicinity of the stop 32 of the relay lens system 3, pupil dividing means 33 such as a triangular prism or a mirror that divides the light beam in two directions and changes the direction is arranged. Here, the pupil means an image of a stop, and an image formed by the front group lens 31 of the stop 32 of the relay lens system 3 is called a pupil. The pupil dividing means 33 is not particularly limited to the reflection type element as described above, and for example, a transmission type element such as a fly-eye lens, a diffraction grating, or a hologram may be used. Hereinafter, a case where a prism (hereinafter also referred to as a prism 33) is used as the pupil dividing unit 33 will be described as an example.

図1(B)は、光の入射側から見たリレーレンズ系3の絞り32を示している。図1(B)に示すように、被写体から右方向に発せられた物体光は、対物レンズ1により左右反転し、リレーレンズ系3の瞳32の左側領域32aに到達する。同様に、被写体から左方向に発せられた物体光は、対物レンズ1により左右反転し、リレーレンズ系3の瞳32の右側領域32bに到達する。リレーレンズ系3の瞳の左側領域32aに到達した光は瞳分割手段33aにより左方向に反射し、リレーレンズ系3の瞳の右側領域32bに到達した光は瞳分割手段33bにより右方向に反射する。   FIG. 1B shows the diaphragm 32 of the relay lens system 3 viewed from the light incident side. As shown in FIG. 1B, the object light emitted from the subject in the right direction is reversed left and right by the objective lens 1 and reaches the left region 32a of the pupil 32 of the relay lens system 3. Similarly, object light emitted leftward from the subject is reversed left and right by the objective lens 1 and reaches the right region 32b of the pupil 32 of the relay lens system 3. The light reaching the left region 32a of the pupil of the relay lens system 3 is reflected leftward by the pupil dividing unit 33a, and the light reaching the right region 32b of the pupil of the relay lens system 3 is reflected rightward by the pupil dividing unit 33b. To do.

すなわち、リレーレンズ系3の瞳を瞳分割手段33により左側領域32aと右側領域32bとに分割すると、瞳の左側領域32aには物体から右方向に向かう光束が、瞳の右側領域32bには物体から左方向に向かう光束が集まるため、瞳の左側領域32aと右側領域32bには2つの異なる方向の視差を持つ光が集まることが分かる。そして、瞳分割手段33aにより左方向に反射した光は、リレーレンズ系3の後群レンズ34aで撮像素子4a上に結像される。同様に、瞳分割手段33bにより右方向に反射した光は、リレーレンズ系3の後群レンズ34bで撮像素子4b上に結像される。これらの撮像素子4a,4bは、CCDまたはCMOSなどにより構成される。   That is, when the pupil of the relay lens system 3 is divided into the left region 32a and the right region 32b by the pupil dividing means 33, the light beam directed from the object in the right direction in the left region 32a of the pupil and the object in the right region 32b of the pupil. Since the light beams traveling from left to right are collected, light having parallax in two different directions is collected in the left region 32a and the right region 32b of the pupil. The light reflected leftward by the pupil dividing means 33a is imaged on the image sensor 4a by the rear group lens 34a of the relay lens system 3. Similarly, the light reflected rightward by the pupil dividing means 33b is imaged on the image sensor 4b by the rear group lens 34b of the relay lens system 3. These image sensors 4a and 4b are constituted by a CCD or a CMOS.

以上のように、本発明による立体撮像装置は、1つの対物レンズ1によって取り込んだ光束を、リレーレンズ系3の絞り32近傍に設けた瞳分割手段33を用いて2つの異なる領域に分割し、それぞれ異なる2つの撮像素子4a,4b上に結像することにより、左右方向に視差の異なる2つの画像を撮像可能としている。そして、更に、本発明による立体撮像装置は、リレーレンズ系3の絞り32近傍に波面変調素子35を配置している。この波面変調素子35により変調された光束はCCDやCMOSなどの撮像素子4a,4bの画素に結像する。撮像素子4a,4bは、それぞれの素子面に、波面変調素子35によりぼけて結像した光を画像信号(画像データ)に変換し、変換した画像信号を画像復元部(後述)に出力する。画像復元部では、ぼけを含む画像信号にフィルタ処理を施し、これによりぼけを除去した2つの立体視用の画像を復元する。   As described above, the stereoscopic imaging apparatus according to the present invention divides the light beam captured by one objective lens 1 into two different regions using the pupil dividing means 33 provided near the stop 32 of the relay lens system 3, By imaging on two different image pickup devices 4a and 4b, two images having different parallaxes in the left-right direction can be picked up. Further, in the stereoscopic imaging apparatus according to the present invention, the wavefront modulation element 35 is disposed in the vicinity of the stop 32 of the relay lens system 3. The light beam modulated by the wavefront modulation element 35 forms an image on the pixels of the image pickup elements 4a and 4b such as a CCD and a CMOS. The imaging elements 4a and 4b convert light blurred and imaged by the wavefront modulation element 35 on each element surface into an image signal (image data), and output the converted image signal to an image restoration unit (described later). The image restoration unit performs a filtering process on the image signal including the blur, thereby restoring the two stereoscopic images from which the blur is removed.

上記の波面変調素子35としては、例えば、光軸対称の位相板、あるいは、3次位相板と呼ばれる光軸非対称の位相板を用いることができる。また、プリズム33の反射面を曲面形状とすることで、反射面が波面変調素子として機能するようにしてもよい。ここで、本発明の画像復元に用いるPSF(Point Spread Function:点像分布関数)について簡単に説明する。PSFとは、物体面上にある点光源が光学系を通過した時、結像面でどのように広がるかを表す点像分布関数である。換言すれば、このPSFは光学系の点光源に対する応答を示すもので、画像のぼけの程度を示すものといえる。   As the wavefront modulation element 35, for example, an optical axis symmetric phase plate or an optical axis asymmetric phase plate called a tertiary phase plate can be used. In addition, the reflecting surface of the prism 33 may be curved so that the reflecting surface functions as a wavefront modulation element. Here, the PSF (Point Spread Function) used for image restoration according to the present invention will be briefly described. PSF is a point spread function that represents how a point light source on the object plane spreads on the image plane when it passes through the optical system. In other words, this PSF shows the response of the optical system to the point light source, and can be said to show the degree of blurring of the image.

図4は、物体面から光学系までの距離(以下、撮像距離という)が変化したときのPSFデータの一例を示す図である。図4(B)の例はベストフォーカスのときのPSFデータを示し、図4(A)の例は撮像距離が近いときのPSFデータを示し、図4(C)の例は撮像距離が遠いときのときのPSFデータを示す。これより一般的な光学系ではベストフォーカスのときPSFサイズが最も小さく絞られており、ベストフォーカスを外れるとPSFサイズが大きくなっていることが分かる。   FIG. 4 is a diagram illustrating an example of PSF data when the distance from the object plane to the optical system (hereinafter referred to as an imaging distance) changes. The example of FIG. 4B shows PSF data at the best focus, the example of FIG. 4A shows PSF data when the imaging distance is short, and the example of FIG. 4C is when the imaging distance is far. The PSF data at the time of is shown. From this, it can be seen that in a general optical system, the PSF size is reduced to the smallest at the best focus, and the PSF size is increased when the best focus is removed.

図5は、図4のPSFに対応した撮像画像の一例を示す図である。図5(B)の例は撮像距離がベストフォーカスのときの撮像画像を示し、図5(A)の例は撮像距離が近いときの撮像画像を示し、図5(C)の例は撮像距離が遠いときのときの撮像画像を示す。撮像距離によってPSFや撮像画像のボケが大きく変化しているため、一般の光学系では被写界深度の制限が大きいと言える。ここで、一般的な撮像装置の被写界深度は前述の式(1)で示した通りである。つまり、被写界深度は、撮像距離が決定されると、撮像光学系のFno(F値)、焦点距離、許容錯乱円直径で一意に決定されてしまう。一般的なカメラでは、Fno、焦点距離、許容錯乱円直径に制約があるため、近距離から遠距離までフォーカスの合った、いわゆる全焦点画像を撮影することはできない。   FIG. 5 is a diagram illustrating an example of a captured image corresponding to the PSF of FIG. The example in FIG. 5B shows a captured image when the imaging distance is the best focus, the example in FIG. 5A shows a captured image when the imaging distance is short, and the example in FIG. 5C is the imaging distance. The captured image when is far is shown. Since the blur of the PSF and the captured image varies greatly depending on the imaging distance, it can be said that the depth of field is largely limited in a general optical system. Here, the depth of field of a general imaging apparatus is as shown by the above-described equation (1). That is, when the imaging distance is determined, the depth of field is uniquely determined by the Fno (F value) of the imaging optical system, the focal length, and the allowable confusion circle diameter. A general camera cannot capture a so-called omnifocal image that is in focus from a short distance to a long distance because of restrictions on Fno, focal length, and allowable circle of confusion.

そこで、本発明では、光学系内に波面変調素子35を設け、これにより撮像したぼけを含む画像に所定の画像処理を施して画像復元を行うことにより、近距離から遠距離までフォーカスの合った被写界深度の深い立体視用の画像を得るように構成されている。この波面変調素子35としては、光軸非対称の3次位相板を用いることが望ましい。この3次位相板は、焦点外れによってPSFの変化が小さいため、画像復元のために予め定められた1つのPSFデータを用意しておくだけでよい。なお、3次位相板の原理については、例えば、「小松進一,「撮像システムの被写界深度を拡大するWavefrontCoding技術〜物理的な仕掛けと最近の動向〜」,映像情報メディア学会誌,2009,Vol.63,No.3,pp279-283」などに具体的に記載されており、ここでの説明は省略する。   Therefore, in the present invention, the wavefront modulation element 35 is provided in the optical system, and the image including the blurred image is subjected to predetermined image processing to perform image restoration, thereby focusing from a short distance to a long distance. It is configured to obtain a stereoscopic image having a deep depth of field. As the wavefront modulation element 35, it is desirable to use a third-order phase plate that is asymmetric with respect to the optical axis. Since this third-order phase plate has a small change in PSF due to defocusing, it is only necessary to prepare one PSF data predetermined for image restoration. The principle of the third-order phase plate is described in, for example, “Shinichi Komatsu,“ Wavefront Coding Technology for Expanding the Depth of Field of an Imaging System—Physical Mechanisms and Recent Trends ””, Journal of the Institute of Image Information and Television Engineers, 2009, Vol. 63, No. 3, pp 279-283 ", etc., and will not be described here.

また、波面変調素子35として、光軸対称の位相板を用いるようにしてもよい。但し、光軸対称位相板は、焦点外れによってPSFの変化が大きいため、2つの撮像素子4a,4bにより得られた距離情報に基づきPSFを変化させ、変化させたPSFにより画像を復元する。これにより3次位相板と同様に近距離から遠距離までフォーカスの合った画像復元を行うことができる。光軸対称位相板の具体例としては、入射側と出射側で異なる面により構成され、入射側の第1面は、被写体側に凹の球面形状をなし、出射側の第2面は、下記の式(3)により定義される偶数次非球面形状としたものが挙げられる。
Z=α(−ρ+ρ16)、但し、αは係数、ρは光軸からの径方向距離 …式(3)
Further, as the wavefront modulation element 35, an optical axis symmetric phase plate may be used. However, since the optical axis symmetric phase plate has a large PSF change due to defocusing, the PSF is changed based on the distance information obtained by the two image sensors 4a and 4b, and an image is restored by the changed PSF. As a result, it is possible to perform image restoration that is in focus from a short distance to a long distance in the same manner as the third-order phase plate. As a specific example of the optical axis symmetrical phase plate, it is configured by different surfaces on the incident side and the emission side, the first surface on the incident side has a concave spherical shape on the subject side, and the second surface on the emission side is An even-order aspherical shape defined by the equation (3) is given.
Z = α (−ρ 2 + ρ 16 ), where α is a coefficient, ρ is a radial distance from the optical axis (3)

ここで、上述したように、波面変調素子35としての機能をプリズム33の2つの反射面により実現するようにしてもよい。これにより、立体撮像装置に部品を新たに追加することなく、波面変調素子としての機能を持たせることが可能となる。   Here, as described above, the function as the wavefront modulation element 35 may be realized by the two reflecting surfaces of the prism 33. Accordingly, it is possible to provide a function as a wavefront modulation element without adding a new component to the stereoscopic imaging apparatus.

図6は、プリズム33に波面変調素子の機能を持たせた場合のリレーレンズ系3の構成例を示す図である。前群レンズ31および後群レンズ34は、色消しのため貼り合わせレンズで構成されており、収差低減など性能向上のため更にレンズ枚数を増やすことも可能である。絞り近傍にはプリズム33を配置しており、プリズム33は非球面形状の反射面を有している。例えば、3次位相板として機能させる場合、プリズム33の反射面形状は、以下の式(4)で示すことができる。
Z=αX+βY …式(4)
但し、α,βは係数、Xは光軸からのプリズムの折り曲げと垂直な方向の距離、Yは光軸からのプリズムの折り曲げ方向の距離である。
FIG. 6 is a diagram showing a configuration example of the relay lens system 3 when the prism 33 has the function of a wavefront modulation element. The front group lens 31 and the rear group lens 34 are composed of bonded lenses for achromatic purposes, and the number of lenses can be further increased to improve performance such as aberration reduction. A prism 33 is disposed in the vicinity of the stop, and the prism 33 has an aspherical reflecting surface. For example, when functioning as a tertiary phase plate, the shape of the reflecting surface of the prism 33 can be expressed by the following formula (4).
Z = αX 3 + βY 3 Formula (4)
Here, α and β are coefficients, X is a distance in a direction perpendicular to the bending of the prism from the optical axis, and Y is a distance in the bending direction of the prism from the optical axis.

なお、プリズム33は、例えば、金型を用いて透明なプラスチック材料を射出成型して作製する方法、あるいは、ガラスを研磨して作製する方法、などにより作製することができる。   The prism 33 can be produced by, for example, a method of producing a transparent plastic material by injection molding using a mold, or a method of producing by polishing glass.

図7は、プリズム33の反射面に式(4)で示される波面変調素子としての機能を持たせたときの光学系によるPSFデータの一例を示す図である。図7(A)の例は撮像距離が近いときのPSFデータを示し、図7(B)の例はベストフォーカスのときのPSFデータを示し、図7(C)の例は撮像距離が遠いときのPSFデータを示す。一般的な光学系とは異なり、元のPSFサイズは大きく画像はぼけているが、距離によらず、ぼけ方の変化が小さいことが分かる。つまり、被写界深度によってぼけの程度は変わらず、PSFが分かっていれば、撮像後の画像を画像処理で復元し全焦点画像を生成することが可能となる。   FIG. 7 is a diagram showing an example of PSF data by the optical system when the reflecting surface of the prism 33 is provided with a function as a wavefront modulation element expressed by the equation (4). The example in FIG. 7A shows PSF data when the imaging distance is short, the example in FIG. 7B shows PSF data at the best focus, and the example in FIG. 7C is when the imaging distance is far. The PSF data is shown. Unlike a general optical system, the original PSF size is large and the image is blurred, but it can be seen that the change in blur is small regardless of the distance. In other words, the degree of blur does not change depending on the depth of field, and if the PSF is known, it is possible to restore the captured image by image processing and generate an omnifocal image.

図8は、図7のPSFに対応した撮像画像の一例を示す図である。図8(B)の例はベストフォーカスのときの撮像画像を示し、図8(A)の例は撮像距離が近いときの撮像画像を示し、図8(C)の例は撮像距離が遠いときのときの撮像画像を示す。図7、図8により、撮像距離によってPSFや撮像画像のボケかたの変化が少ないことが分かる。   FIG. 8 is a diagram illustrating an example of a captured image corresponding to the PSF of FIG. The example in FIG. 8B shows a captured image at the best focus, the example in FIG. 8A shows a captured image when the imaging distance is short, and the example in FIG. 8C is when the imaging distance is far. The captured image at the time of is shown. 7 and 8, it can be seen that there is little change in the PSF and the blur of the captured image depending on the imaging distance.

このような波面変調素子を用いた所謂全焦点カメラの原理について簡単に説明する。全焦点カメラは、光学レンズの中に特殊な波面変調素子を挿入し、ぼけた画像(中間画像)を撮影するもので、このぼけ方を、焦点外れによらず一定にできれば、単一の復元関数(デコンボリューションフィルタ)で画像を復元することができる。すなわち、図9に示す空間領域と周波数領域との関係より、原画像を示すf(x,y)、PSFを示すh(x,y)をフーリエ変換し、F(u,v)、H(u,v)を求める。そして、劣化画像のフーリエ変換を示すG(u,v)(=H(u,v)F(u,v))に対して逆フィルタやウィナーフィルタなどを用いてフィルタ処理を施し、逆フーリエ変換で空間領域に戻すことで、ぼけを除去した画像を生成している。   The principle of a so-called omnifocal camera using such a wavefront modulation element will be briefly described. An omnifocal camera takes a blurred image (intermediate image) by inserting a special wavefront modulation element in the optical lens. If this blur can be made constant regardless of defocusing, a single restoration is possible. An image can be restored with a function (deconvolution filter). That is, from the relationship between the spatial domain and the frequency domain shown in FIG. 9, f (x, y) indicating the original image and h (x, y) indicating the PSF are Fourier-transformed to obtain F (u, v), H ( u, v). Then, G (u, v) (= H (u, v) F (u, v)) indicating the Fourier transform of the degraded image is subjected to filter processing using an inverse filter, a Wiener filter, or the like, and the inverse Fourier transform is performed. By returning to the space area with, an image from which blur is removed is generated.

図10は、図8の撮像画像から図7のPSFデータを用いてぼけを除去した復元画像の一例を示す図である。図10(B)の例はベストフォーカスのときの復元画像を示し、図10(A)の例は撮像距離が近いときの復元画像を示し、図10(C)の例は撮像距離が遠いときのときの復元画像を示す。このように、撮像距離によらずぼけが除去されており、近距離から遠距離までフォーカスの合った撮像画像を得ることが可能であることが分かる。   FIG. 10 is a diagram illustrating an example of a restored image obtained by removing the blur from the captured image of FIG. 8 using the PSF data of FIG. The example in FIG. 10B shows a restored image at the best focus, the example in FIG. 10A shows a restored image when the imaging distance is short, and the example in FIG. 10C is when the imaging distance is far. The restoration image at the time of is shown. Thus, it is understood that the blur is removed regardless of the imaging distance, and it is possible to obtain a focused captured image from a short distance to a long distance.

図11は、本発明の一実施形態に係る立体撮像装置の要部構成例を示すブロック図である。立体撮像装置は、第1の撮像素子4a、第2の撮像素子4b、第1の画像復元部5a、第2の画像復元部5b、およびPSF記憶部6を備える。すなわち、光学系内に配置する波面変調素子を光軸非対称の3次位相板とした場合、立体撮像装置は、予め定められた1つのPSFデータを記憶したPSF記憶部6と、その1つのPSFデータに基づいて複数の撮像素子4a,4bで撮像された各画像データを復元する複数の画像復元部5a,5bとを備える。これにより、対物レンズ1からリレーレンズ系3まで含む光学系における1つのPSFに基づき画像を復元し、近距離から遠距離までフォーカスの合った立体視用の画像を復元することができる。   FIG. 11 is a block diagram illustrating a configuration example of a main part of a stereoscopic imaging apparatus according to an embodiment of the present invention. The stereoscopic imaging device includes a first imaging device 4a, a second imaging device 4b, a first image restoration unit 5a, a second image restoration unit 5b, and a PSF storage unit 6. That is, when the wavefront modulation element arranged in the optical system is an optical axis asymmetric third-order phase plate, the stereoscopic imaging apparatus includes a PSF storage unit 6 that stores one predetermined PSF data, and the one PSF. A plurality of image restoration units 5a and 5b for restoring each image data picked up by the plurality of image pickup devices 4a and 4b based on the data. Thereby, it is possible to restore an image based on one PSF in an optical system including the objective lens 1 to the relay lens system 3 and restore an image for stereoscopic viewing that is in focus from a short distance to a long distance.

なお、図1では、波面変調素子35をリレーレンズ系3の絞り(瞳)32の近傍に配置した場合について示したが、対物レンズ1の絞り(瞳)12の近傍に配置するようにしてもよい。ここで、リレーレンズ系では、等倍に近い倍率であるため、被写界深度と焦点深度とはあまり変わらないが、一般的なマイクロスコープのような光学系では、図2に示したように、対物レンズで縮小結像されるため、被写界深度に対して焦点深度が小さくなる。このため、波面変調素子35は、対物レンズ1の絞り12の近傍よりも、リレーレンズ系3の絞り32の近傍に配置したほうが望ましいと考えられる。   Although FIG. 1 shows the case where the wavefront modulation element 35 is disposed in the vicinity of the diaphragm (pupil) 32 of the relay lens system 3, it may be disposed in the vicinity of the diaphragm (pupil) 12 of the objective lens 1. Good. Here, in the relay lens system, since the magnification is close to the same magnification, the depth of field and the depth of focus do not change much, but in an optical system such as a general microscope, as shown in FIG. Since the image is reduced and formed by the objective lens, the depth of focus becomes smaller than the depth of field. For this reason, it is considered that the wavefront modulation element 35 is preferably disposed in the vicinity of the diaphragm 32 of the relay lens system 3 rather than in the vicinity of the diaphragm 12 of the objective lens 1.

また、顕微鏡などで対物レンズが交換可能な場合であって、波面変調素子を対物レンズ側に設けた場合に、対物レンズの交換に伴い光学精度が変化してしまう。このため、波面変調素子35をリレーレンズ系3に配置しておくことで、対物レンズの交換による光学精度の変化を低減できるというメリットもある。   In addition, when the objective lens can be exchanged with a microscope or the like, and the wavefront modulation element is provided on the objective lens side, the optical accuracy changes with the exchange of the objective lens. For this reason, by arranging the wavefront modulation element 35 in the relay lens system 3, there is also an advantage that a change in optical accuracy due to replacement of the objective lens can be reduced.

一方、対物レンズで拡大結像される場合、被写界深度と焦点深度との関係が縮小結像の場合と逆になるため、波面変調素子35は、リレーレンズ系3の絞り32の近傍よりも、対物レンズ1の絞り12の近傍に配置したほうが望ましいと考えられる。   On the other hand, when the enlarged image is formed by the objective lens, the relationship between the depth of field and the depth of focus is opposite to that in the case of the reduced image, so that the wavefront modulation element 35 is located near the stop 32 of the relay lens system 3. In addition, it is considered that it is preferable to dispose the objective lens 1 in the vicinity of the diaphragm 12.

図11において、第1の撮像素子4aで撮像された画像データを中間画像1、第2の撮像素子4bで撮像された画像データを中間画像2とする。すなわち、これらの中間画像1,2はぼけを含む画像(ぼけ画像)である。中間画像1は第1の画像復元部5aに出力され、中間画像2も同様に第2の画像復元部5bに出力される。画像復元部5a,5bはぼけを含む中間画像1,2を予め定められた1つのPSFデータ(PSF記憶部6)により復元し、第1の画像復元部5aは復元画像1を出力し、第2の画像復元部5bは復元画像2を出力する。なお、PSFデータとしては、例えば、使用頻度の高い撮影距離のPSFや、過焦点距離(無限遠が被写界深度に入る最短の距離)のPSF、無限遠のPSFなどを用いることが考えられる。   In FIG. 11, image data captured by the first image sensor 4 a is an intermediate image 1, and image data captured by the second image sensor 4 b is an intermediate image 2. That is, these intermediate images 1 and 2 are images including a blur (blurred image). The intermediate image 1 is output to the first image restoration unit 5a, and the intermediate image 2 is similarly output to the second image restoration unit 5b. The image restoration units 5a and 5b restore the intermediate images 1 and 2 including the blur using one predetermined PSF data (PSF storage unit 6), the first image restoration unit 5a outputs the restored image 1, The second image restoration unit 5 b outputs the restored image 2. As the PSF data, for example, a PSF having a frequently used shooting distance, a PSF having a hyperfocal distance (the shortest distance at which infinity enters the depth of field), a PSF having infinity, and the like may be used. .

画像データの復元には複数の手法があるが一例としてウィナーフィルタ(wiener filter)による画像復元がある。これは周波数領域でPSFデータをデコンボリューション(逆畳み込み)し、ぼけ画像を復元するものである。例えば、デジタルカメラで画像を撮影した際には、手ぶれやピンぼけといった劣化が生じる。ぶれやぼけといった劣化は、前述のPSF(点像分布関数)により表現される。つまり、劣化画像は、原画像とPSFとの畳み込み積分として表現される。そして、劣化を表すPSFが既知の場合に、劣化画像とこのPSFから、ウィナーフィルタを用いて原画像を復元することができる。   There are a plurality of methods for restoring image data, and an example is image restoration using a Wiener filter. In this method, PSF data is deconvolved (deconvolved) in the frequency domain to restore a blurred image. For example, when an image is taken with a digital camera, deterioration such as camera shake and defocusing occurs. Deterioration such as blurring and blurring is expressed by the aforementioned PSF (point spread function). That is, the deteriorated image is expressed as a convolution integral between the original image and the PSF. When the PSF representing degradation is known, the original image can be restored from the degraded image and the PSF using a Wiener filter.

具体的に、ぶれやぼけによる劣化画像は、下式のようにモデル化される。
g(x,y)=h(x,y)*f(x,y) …式(5)
ここで、g(x,y)は撮像して得られた画像データ、すなわち、観測画像である劣化画像を表す。また、h(x,y)は劣化を表すPSFデータを表し、f(x,y)は劣化のない原画像を表し、*は畳み込み積分を表す。
Specifically, a deteriorated image due to blurring or blurring is modeled as the following equation.
g (x, y) = h (x, y) * f (x, y) (5)
Here, g (x, y) represents image data obtained by imaging, that is, a deteriorated image that is an observation image. H (x, y) represents PSF data representing degradation, f (x, y) represents an original image without degradation, and * represents convolution integration.

上記式(5)で表す劣化画像モデルは、周波数領域においては、下記のように表されることが知られている。つまり、式(5)の劣化画像モデルは、フーリエ変換により下記の式(6)で示すことができる。
G(u,v)=H(u,v)F(u,v) …式(6)
ここで、G(u,v)、H(u,v)、及びF(u,v)は、劣化画像g(x,y)、PSFh(x,y)、及び原画像f(x,y)のフーリエ変換をそれぞれ表す。
It is known that the degraded image model represented by the above formula (5) is represented as follows in the frequency domain. That is, the degraded image model of Expression (5) can be expressed by the following Expression (6) by Fourier transform.
G (u, v) = H (u, v) F (u, v) (6)
Here, G (u, v), H (u, v), and F (u, v) are the degraded image g (x, y), PSFh (x, y), and original image f (x, y). ) Respectively.

劣化画像のフーリエ変換に、フィルタ処理を行うことにより、原画像のフーリエ変換を推定する(復元する)ことはよく利用されている。フィルタ処理を利用した画像復元は、一般的に、下記の式(7)のように表される。
F(u,v)=K(u,v)G(u,v) …式(7)
ここで、F(u,v)は推定された原画像のフーリエ変換で、つまり、復元された画像(復元画像)である。また、K(u,v)は、画像復元のためのフィルタであり、以下、単に画像復元フィルタと呼ぶ。G(u,v)は劣化画像のフーリエ変換である。
It is often used to estimate (restore) the Fourier transform of the original image by performing a filtering process on the Fourier transform of the degraded image. Image restoration using filter processing is generally expressed as the following equation (7).
F (u, v) = K (u, v) G (u, v) (7)
Here, F (u, v) is a Fourier transform of the estimated original image, that is, a restored image (restored image). K (u, v) is a filter for image restoration, and is simply referred to as an image restoration filter hereinafter. G (u, v) is the Fourier transform of the degraded image.

従来、劣化画像から原画像を復元する画像復元分野において、最も単純な画像復元フィルタとして、逆フィルタが知られている。この逆フィルタとは、K(u,v)=1/H(u,v)の画像復元フィルタである。ここで、H(u,v)は、PSF h(x,y)のフーリエ変換である。   Conventionally, an inverse filter is known as the simplest image restoration filter in the field of image restoration in which an original image is restored from a deteriorated image. This inverse filter is an image restoration filter of K (u, v) = 1 / H (u, v). Here, H (u, v) is a Fourier transform of PSF h (x, y).

しかしながら、この逆フィルタは、ノイズに対して非常に不安定であるために、現実的にはほとんど利用されていない。そのため、画像復元分野において、逆フィルタを安定化した画像復元フィルタが多数利用されている。従来の画像復元フィルタは、フィルタの安定性を調節するパラメータを有しているものが多く、ウィナーフィルタはその一例であり一般的に広く利用されている。   However, since this inverse filter is very unstable with respect to noise, it is practically rarely used. For this reason, many image restoration filters in which the inverse filter is stabilized are used in the field of image restoration. Many conventional image restoration filters have parameters for adjusting the stability of the filter, and the Wiener filter is one example and is widely used.

ウィナーフィルタは、下記の式(8)で表される。
ここで、K(u,v)はウィナーフィルタである。また、H’(u,v)はPSFのフーリエ変換H(u,v)の複素共役を、dはフィルタの安定性を表すパラメータをそれぞれ表す。
The Wiener filter is represented by the following formula (8).
Here, K w (u, v) is a Wiener filter. H ′ (u, v) represents a complex conjugate of the Fourier transform H (u, v) of PSF, and d represents a parameter representing the stability of the filter.

上記式(8)のウィナーフィルタによる画像復元は、式(8)のK(u,v)を、式(7)に代入することで、下記の式(9)のように表される。
ここで、F(u,v)は推定された原画像のフーリエ変換で、つまり、復元画像である。また、G(u,v)は劣化画像のフーリエ変換である。
The image restoration by the Wiener filter of the above formula (8) is represented as the following formula (9) by substituting K w (u, v) of the formula (8) into the formula (7).
Here, F (u, v) is a Fourier transform of the estimated original image, that is, a restored image. G (u, v) is the Fourier transform of the degraded image.

なお、PSFデータは予め所定の光学設計ソフトウェア等で算出されており、PSF記憶部6に記憶されている。   The PSF data is calculated in advance by predetermined optical design software or the like and stored in the PSF storage unit 6.

図12は、本発明の他の実施形態に係る立体撮像装置の要部構成例を示すブロック図である。立体撮像装置は、第1の撮像素子4a、第2の撮像素子4b、第1の画像復元部7a、第2の画像復元部7b、距離情報算出部8、第3の画像復元部9a、第4の画像復元部9b、および距離対応PSF記憶部10を備える。本実施形態では、光学系内に配置する波面変調素子を光軸対称の位相板としているが、この場合、焦点外れによりPSFの変化が大きいため、距離情報に応じてPSFを変化させるように構成される。すなわち、立体撮像装置は、被写体までの距離情報に対応付けてPSFデータを記憶した距離対応PSF記憶部10と、2つの撮像素子4a,4bで撮像された各画像データから距離情報を算出する距離情報算出部8と、算出した距離情報に対応するPSFデータを距離対応PSF記憶部10から抽出し、抽出したPSFデータに基づいて各画像データを復元する複数の画像復元部9a,9bとを備える。   FIG. 12 is a block diagram illustrating a configuration example of a main part of a stereoscopic imaging apparatus according to another embodiment of the present invention. The stereoscopic imaging device includes a first imaging device 4a, a second imaging device 4b, a first image restoration unit 7a, a second image restoration unit 7b, a distance information calculation unit 8, a third image restoration unit 9a, 4 image restoration units 9b and a distance-corresponding PSF storage unit 10. In this embodiment, the wavefront modulation element disposed in the optical system is an optical axis symmetric phase plate. In this case, since the PSF changes greatly due to defocusing, the PSF is changed according to the distance information. Is done. That is, the stereoscopic imaging apparatus calculates distance information from the distance-corresponding PSF storage unit 10 that stores PSF data in association with distance information to the subject and each image data captured by the two imaging elements 4a and 4b. An information calculation unit 8 and PSF data corresponding to the calculated distance information are extracted from the distance-corresponding PSF storage unit 10, and a plurality of image restoration units 9a and 9b are provided for restoring each image data based on the extracted PSF data. .

図12において、第1の撮像素子4aで撮像された画像データを中間画像1、第2の撮像素子4bで撮像された画像データを中間画像2とする。すなわち、これらの中間画像1,2はぼけを含む画像(ぼけ画像)である。中間画像1は第1の画像復元部7aおよび第3の画像復元部9aに出力され、中間画像2は第2の画像復元部7bおよび第4の画像復元部9bに出力される。第1の画像復元部7aおよび第2の画像復元部7bは、ぼけを含む中間画像1,2を予め定められた1つのPSFデータにより復元する。このPSFデータとしては、例えば、使用頻度の高い撮影距離のPSFや、過焦点距離(無限遠が被写界深度に入る最短の距離)のPSF、無限遠のPSFなどを用いればよい。   In FIG. 12, the image data captured by the first image sensor 4 a is an intermediate image 1, and the image data captured by the second image sensor 4 b is an intermediate image 2. That is, these intermediate images 1 and 2 are images including a blur (blurred image). The intermediate image 1 is output to the first image restoration unit 7a and the third image restoration unit 9a, and the intermediate image 2 is output to the second image restoration unit 7b and the fourth image restoration unit 9b. The first image restoration unit 7a and the second image restoration unit 7b restore the intermediate images 1 and 2 including the blur with one predetermined PSF data. As this PSF data, for example, a PSF with a frequently used shooting distance, a PSF with a hyperfocal distance (the shortest distance at which infinity enters the depth of field), a PSF with infinity, or the like may be used.

上記のように、第1の撮像素子4aからの撮像画像(中間画像1)は第1の画像復元部7aで復元され、第2の撮像素子4bからの撮像画像(中間画像2)は第2の画像復元部7bで復元される。これらの画像復元部7a,7bによる復元は完全な画像復元ではなく、仮の画像復元である。このようにして画像復元された2つの復元画像は距離情報算出部8に出力される。   As described above, the captured image (intermediate image 1) from the first image sensor 4a is restored by the first image restoration unit 7a, and the captured image (intermediate image 2) from the second image sensor 4b is the second. Is restored by the image restoration unit 7b. The restoration by the image restoration units 7a and 7b is not a complete image restoration but a temporary image restoration. The two restored images restored in this way are output to the distance information calculation unit 8.

距離情報算出部8は、それぞれ第1の撮像素子4a、第2の撮像素子4bから入力された共通する被写体を表す画像信号間座標値の差である視差情報(視差マップ)を生成する。距離情報算出部8が行う処理についてより具体的に説明する。   The distance information calculation unit 8 generates disparity information (disparity map) that is a difference in coordinate values between image signals representing a common subject input from the first image sensor 4a and the second image sensor 4b. The process performed by the distance information calculation unit 8 will be described more specifically.

距離情報算出部8は、画像復元部7a,7bから各々入力された画像信号に基づいて撮像素子間における視差情報を画素毎に算出する。視差とは、異なる2つの撮像素子から入力された画像信号が表す共通の被写体を表す画素位置の差分である。視差情報は距離に対応しているため距離情報として捉えることができる。   The distance information calculation unit 8 calculates parallax information between the image sensors for each pixel based on the image signals respectively input from the image restoration units 7a and 7b. The parallax is a difference between pixel positions representing a common subject represented by image signals input from two different image sensors. Since the parallax information corresponds to the distance, it can be grasped as distance information.

視差情報を算出するために、距離情報算出部8は、例えば、ブロックマッチング(block matching)を行う。ブロックマッチングにおいて、距離情報算出部8は一方の画像信号の一部である画像ブロックと他方の画像信号の一部である画像ブロックの画素値の類似性を表す評価値を算出し、最も類似することを表す評価値が算出される画像ブロックを他方の画像信号から探索する。評価値は、例えば、差分絶対和(SAD:Sum of Absolute Difference)である。距離情報算出部8は、両方の画像信号が共通に表す被写体の対応する部位間の視差を算出する。ここで、2つの撮像素子4a,4bにより撮像した画像の一例について以下に説明する。   In order to calculate the parallax information, the distance information calculation unit 8 performs, for example, block matching. In block matching, the distance information calculation unit 8 calculates an evaluation value representing the similarity between pixel values of an image block that is a part of one image signal and an image block that is a part of the other image signal, and is most similar. An image block for which an evaluation value indicating this is calculated is searched from the other image signal. The evaluation value is, for example, a sum of absolute differences (SAD). The distance information calculation unit 8 calculates the parallax between corresponding parts of the subject that both image signals represent in common. Here, an example of an image captured by the two image sensors 4a and 4b will be described below.

図13は、立体撮像装置が備える2つの撮像素子4a,4bにより撮像された画像の一例を示す図である。図13(A)は第1の撮像素子4aが撮像した画像を示す。この画像は被写体として車両を含む画像である。図13(B)は第2の撮像素子4bが撮像した画像を示す。図13(B)の画像は図13(A)の車両と共通する車両を含む画像である。ここで、図13(A)の画像に含まれる車両のナンバープレートN1の中央部の水平方向の座標をH1、垂直方向の座標をVとする。この部位に対応する部位、すなわち、図13(B)の画像に含まれる車両のナンバープレートN2の中央部の水平方向の座標はH2、垂直方向の座標はVである。この場合、画像間の水平方向の座標の差分(H1−H2)が視差である。   FIG. 13 is a diagram illustrating an example of images captured by the two imaging elements 4a and 4b included in the stereoscopic imaging device. FIG. 13A shows an image captured by the first image sensor 4a. This image is an image including a vehicle as a subject. FIG. 13B shows an image captured by the second image sensor 4b. The image of FIG. 13B is an image including a vehicle common to the vehicle of FIG. Here, the horizontal coordinate of the center part of the license plate N1 of the vehicle included in the image of FIG. 13A is H1, and the vertical coordinate is V. The part corresponding to this part, that is, the horizontal coordinate of the central part of the license plate N2 of the vehicle included in the image of FIG. 13B is H2, and the vertical coordinate is V. In this case, the horizontal coordinate difference (H1-H2) between the images is parallax.

上述のように、視差は、立体撮像装置から被写体までの距離Zを表す。視差(H1−H2)と距離Zとの間には、例えば式(10)に示す関係がある。
但し、fは撮像部の焦点距離、Bは基線長、pは撮像素子の画素ピッチを示す。視差は、立体撮像装置から被写体までの距離によって異なる値をとる。また、視差は、被写体が無限遠にあるときには0であり、立体撮像装置から被写体までの距離が短くなるほど大きくなる。
As described above, the parallax represents the distance Z from the stereoscopic imaging device to the subject. Between the parallax (H1-H2) and the distance Z, for example, there is a relationship represented by Expression (10).
Here, f is the focal length of the imaging unit, B is the baseline length, and p is the pixel pitch of the imaging element. The parallax takes different values depending on the distance from the stereoscopic imaging device to the subject. The parallax is 0 when the subject is at infinity, and increases as the distance from the stereoscopic imaging device to the subject decreases.

上記の通り距離情報算出部8で得られた視差マップの画素値より、画像中に撮像された被写体までの距離が算出される。この距離情報は第3の画像復元部9aおよび第4の画像復元部9bに出力される。すなわち、第3の画像復元部9aには、第1の撮像素子4aからの中間画像1と、距離情報算出部8からの距離情報とが入力される。同様に、第4の画像復元部9bには、第2の撮像素子4bからの中間画像2と、距離情報算出部8からの距離情報とが入力される。そして、画像復元部9a,9bは、距離情報算出部8からの距離情報に対応するPSFデータを距離対応PSF記憶部10から抽出し、抽出したPSFデータに基づいて中間画像1,2を復元し、復元後の復元画像1,2を出力する。   From the pixel value of the parallax map obtained by the distance information calculation unit 8 as described above, the distance to the subject imaged in the image is calculated. This distance information is output to the third image restoration unit 9a and the fourth image restoration unit 9b. That is, the intermediate image 1 from the first image sensor 4a and the distance information from the distance information calculation unit 8 are input to the third image restoration unit 9a. Similarly, the intermediate image 2 from the second image sensor 4b and the distance information from the distance information calculation unit 8 are input to the fourth image restoration unit 9b. Then, the image restoration units 9a and 9b extract the PSF data corresponding to the distance information from the distance information calculation unit 8 from the distance correspondence PSF storage unit 10, and restore the intermediate images 1 and 2 based on the extracted PSF data. The restored images 1 and 2 after restoration are output.

なお、PSFデータは予め所定の光学設計ソフトウェア等で算出されており、例えば、300〜400mmでは20mmステップ毎、400〜500mmでは50mmステップ毎などのように撮像距離毎にステップを変えて距離対応PSF記憶部10に記憶されている。前述した被写界深度の式(1)より分かるように、遠距離側では被写界深度が深く、近距離側では被写界深度が浅いため、遠距離側では粗いステップ、近距離側では細かいステップとしている。なお、距離対応PSF記憶部10は、RGB等の色毎や、画角毎にPSFデータを記憶しておくこともできる。   The PSF data is calculated in advance by a predetermined optical design software or the like. For example, the distance-corresponding PSF is changed by changing the step for each imaging distance, such as every 20 mm step for 300 to 400 mm, and every 50 mm step for 400 to 500 mm. It is stored in the storage unit 10. As can be seen from equation (1) of the depth of field described above, the depth of field is deep on the long distance side and the depth of field is shallow on the short distance side, so rough steps on the long distance side, There are fine steps. The distance-corresponding PSF storage unit 10 can also store PSF data for each color such as RGB or for each angle of view.

図14は、本発明による画像復元方法の一例を説明するための模式図である。前述したように、距離情報算出部8が中間画像1および中間画像2より立体撮像装置から被写体までの距離を表す距離情報を算出する。そして、第3の画像復元部9aは、距離情報算出部8からの距離情報に対応するPSFデータを距離対応PSF記憶部10から抽出し、抽出したPSFデータに基づいて中間画像1を復元して復元画像1を出力する。また、図示は省略しているが、第4の画像復元部9bについても同様に、距離情報算出部8からの距離情報に対応するPSFデータを距離対応PSF記憶部10から抽出し、抽出したPSFデータに基づいて中間画像2を復元して復元画像2を出力する。なお、本例では、第1の画像復元部7aおよび第2の画像復元部7bの記載は省略している。   FIG. 14 is a schematic diagram for explaining an example of an image restoration method according to the present invention. As described above, the distance information calculation unit 8 calculates distance information representing the distance from the stereoscopic imaging device to the subject from the intermediate image 1 and the intermediate image 2. Then, the third image restoration unit 9a extracts PSF data corresponding to the distance information from the distance information calculation unit 8 from the distance correspondence PSF storage unit 10, and restores the intermediate image 1 based on the extracted PSF data. The restored image 1 is output. Although not shown in the figure, the PSF data corresponding to the distance information from the distance information calculation unit 8 is extracted from the distance-corresponding PSF storage unit 10 for the fourth image restoration unit 9b as well, and the extracted PSF is extracted. The intermediate image 2 is restored based on the data, and the restored image 2 is output. In this example, the description of the first image restoration unit 7a and the second image restoration unit 7b is omitted.

以上のように生成された立体視用の画像(復元画像1,2)は、図示しない表示部に表示してもよく、あるいは、メモリに記録するようにしてもよい。このようにして、PSFにより画像を復元することで、近距離から遠距離までフォーカスの合った3D撮像を行うことができる。   The stereoscopic images (restored images 1 and 2) generated as described above may be displayed on a display unit (not shown) or may be recorded in a memory. In this way, by restoring an image using PSF, it is possible to perform focused 3D imaging from a short distance to a long distance.

1…対物レンズ、2…空中像、3…リレーレンズ系、4…撮像素子、5,7,9…画像復元部、6…PSF記憶部、8…距離情報算出部、10…距離対応PSF記憶部、11,31…前群レンズ、12,32…絞り、13,34…後群レンズ、33…瞳分割手段、35…波面変調素子。 DESCRIPTION OF SYMBOLS 1 ... Objective lens, 2 ... Aerial image, 3 ... Relay lens system, 4 ... Image sensor, 5, 7, 9 ... Image restoration part, 6 ... PSF memory | storage part, 8 ... Distance information calculation part, 10 ... Distance correspondence PSF memory | storage 11, 31, front group lens, 12, 32, stop, 13, 34, rear group lens, 33, pupil dividing means, 35, wavefront modulation element.

Claims (6)

被写体を空中に結像する1つの対物レンズと、該結像された空中像を再結像するリレーレンズ系と、該リレーレンズ系の絞り近傍に配置され該絞りに到達した光束を複数に分割する瞳分割手段と、該瞳分割手段により分割され前記リレーレンズ系の各結像面に配置された複数の撮像素子とを備え、該複数の撮像素子により立体視用の画像を撮像する立体撮像装置であって、
前記対物レンズの絞り近傍または前記リレーレンズ系の絞り近傍に波面変調素子を配置したことを特徴とする立体撮像装置。
One objective lens that forms an image of the subject in the air, a relay lens system that re-images the imaged aerial image, and a light beam that reaches the stop arranged in the vicinity of the stop of the relay lens system is divided into a plurality of parts Stereoscopic imaging for capturing a stereoscopic image by the plurality of imaging elements, and a plurality of imaging elements that are divided by the pupil dividing means and arranged on each imaging plane of the relay lens system A device,
A stereoscopic imaging apparatus, wherein a wavefront modulation element is disposed in the vicinity of the stop of the objective lens or in the vicinity of the stop of the relay lens system.
前記瞳分割手段は、前記リレーレンズ系の絞り近傍に配置されたプリズムの反射面であることを特徴とする請求項1に記載の立体撮像装置。   The stereoscopic imaging apparatus according to claim 1, wherein the pupil dividing unit is a reflecting surface of a prism disposed in the vicinity of the stop of the relay lens system. 前記波面変調素子は、光軸に非対称な位相板として構成され、前記立体撮像装置は、予め定められた1つのPSFデータを記憶したPSF記憶部と、該1つのPSFデータに基づいて前記複数の撮像素子で撮像された各画像データを復元する複数の画像復元部とを備えたことを特徴とする請求項1または2に記載の立体撮像装置。   The wavefront modulation element is configured as an asymmetric phase plate with respect to an optical axis, and the stereoscopic imaging device includes a PSF storage unit that stores a predetermined piece of PSF data, and the plurality of pieces based on the one piece of PSF data. The stereoscopic imaging apparatus according to claim 1, further comprising: a plurality of image restoration units that restore each image data imaged by the imaging element. 前記波面変調素子は、光軸に対称な位相板として構成され、前記立体撮像装置は、被写体までの距離情報に対応付けてPSFデータを記憶した距離対応PSF記憶部と、前記複数の撮像素子で撮像された各画像データから距離情報を算出する距離情報算出部と、該算出した距離情報に対応するPSFデータを前記距離対応PSF記憶部から抽出し、該抽出したPSFデータに基づいて前記各画像データを復元する複数の画像復元部とを備えたことを特徴とする請求項1または2に記載の立体撮像装置。   The wavefront modulation element is configured as a phase plate symmetric with respect to the optical axis, and the stereoscopic imaging device includes a distance-corresponding PSF storage unit that stores PSF data in association with distance information to a subject, and the plurality of imaging elements. A distance information calculation unit that calculates distance information from each captured image data, PSF data corresponding to the calculated distance information is extracted from the distance-corresponding PSF storage unit, and each image is based on the extracted PSF data The stereoscopic imaging apparatus according to claim 1, further comprising a plurality of image restoration units that restore data. 前記プリズムの反射面を曲面形状とすることで、該反射面が前記波面変調素子として機能することを特徴とする請求項2に記載の立体撮像装置。   The stereoscopic imaging apparatus according to claim 2, wherein the reflecting surface of the prism has a curved shape, so that the reflecting surface functions as the wavefront modulation element. 前記プリズムの反射面形状は、
Z=αX+βY、但し、α,βは係数、Xは光軸からのプリズムの折り曲げと垂直な方向の距離、Yは光軸からのプリズムの折り曲げ方向の距離、
により定義される非球面形状であることを特徴とする請求項5に記載の立体撮像装置。
The reflecting surface shape of the prism is
Z = αX 3 + βY 3 , where α and β are coefficients, X is a distance in the direction perpendicular to the prism bending from the optical axis, Y is a distance in the prism bending direction from the optical axis,
The stereoscopic imaging device according to claim 5, wherein the stereoscopic imaging device has an aspheric shape defined by:
JP2012108095A 2012-05-10 2012-05-10 Stereoscopic imaging apparatus Pending JP2013236291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012108095A JP2013236291A (en) 2012-05-10 2012-05-10 Stereoscopic imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012108095A JP2013236291A (en) 2012-05-10 2012-05-10 Stereoscopic imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013236291A true JP2013236291A (en) 2013-11-21

Family

ID=49762038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012108095A Pending JP2013236291A (en) 2012-05-10 2012-05-10 Stereoscopic imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013236291A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016052084A (en) * 2014-09-02 2016-04-11 キヤノン株式会社 Image processing system, imaging apparatus, image processing method, image processing program, and storage medium
CN107395988A (en) * 2017-08-31 2017-11-24 华勤通讯技术有限公司 The control method and system of the camera of mobile terminal
KR101859042B1 (en) * 2016-09-01 2018-05-17 엘지전자 주식회사 User interface apparatus for vehicle and vehicle
JP2019508663A (en) * 2016-02-23 2019-03-28 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. Ranging module, three-dimensional scanning system and ranging method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016052084A (en) * 2014-09-02 2016-04-11 キヤノン株式会社 Image processing system, imaging apparatus, image processing method, image processing program, and storage medium
JP2019508663A (en) * 2016-02-23 2019-03-28 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. Ranging module, three-dimensional scanning system and ranging method
KR101859042B1 (en) * 2016-09-01 2018-05-17 엘지전자 주식회사 User interface apparatus for vehicle and vehicle
CN107395988A (en) * 2017-08-31 2017-11-24 华勤通讯技术有限公司 The control method and system of the camera of mobile terminal

Similar Documents

Publication Publication Date Title
JP6112824B2 (en) Image processing method and apparatus, and program.
JP5968107B2 (en) Image processing method, image processing apparatus, and program
WO2011158498A1 (en) Image capture device and image capture method
WO2010016625A1 (en) Image photographing device, distance computing method for the device, and focused image acquiring method
WO2012066774A1 (en) Image pickup device and distance measuring method
CN103533227A (en) Image pickup apparatus and lens apparatus
JP6381376B2 (en) Imaging apparatus, camera system, image processing apparatus, and image processing program
JP7104296B2 (en) Rangefinder camera
JP6003578B2 (en) Image generation method and apparatus
JP6017347B2 (en) Code reader
JP2007158825A (en) Image input device
Kagawa et al. A three‐dimensional multifunctional compound‐eye endoscopic system with extended depth of field
JP5390046B2 (en) Focus expansion optical system and EDoF imaging system
JP7207038B2 (en) IMAGING DEVICE, IMAGING OPTICAL SYSTEM AND MOVING OBJECT
JP2013236291A (en) Stereoscopic imaging apparatus
KR101889886B1 (en) Depth information generating method and apparatus
TWI687661B (en) Method and device for determining the complex amplitude of the electromagnetic field associated to a scene
JP7288226B2 (en) ranging camera
JP2013162369A (en) Imaging device
WO2012132685A1 (en) Focus extending optical system and imaging system
JP2019178871A (en) Stereo camera device
JP2018195985A (en) Image processing device, imaging apparatus, image processing method, program, and storage medium
JP2012182738A (en) Stereo image pickup apparatus
JP4364847B2 (en) Imaging apparatus and image conversion method
JP4695557B2 (en) Element image group correction apparatus, element image group acquisition system, element image group correction method, and element image group correction program