JP2012042524A - Image processing device and its method - Google Patents
Image processing device and its method Download PDFInfo
- Publication number
- JP2012042524A JP2012042524A JP2010181230A JP2010181230A JP2012042524A JP 2012042524 A JP2012042524 A JP 2012042524A JP 2010181230 A JP2010181230 A JP 2010181230A JP 2010181230 A JP2010181230 A JP 2010181230A JP 2012042524 A JP2012042524 A JP 2012042524A
- Authority
- JP
- Japan
- Prior art keywords
- image
- observation
- dimensional
- display device
- stereomicroscope
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Microscoopes, Condenser (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置および方法に関する。 The present invention relates to an image processing apparatus and method.
従来、観察対象物を3次元観察するために、コンフォーカル顕微鏡が用いられている。コンフォーカル顕微鏡は、レーザ光などを観察対象物上で2次元走査させたときに観察対象物により反射した光をピンホール上に集光させて、このピンホールを通過した光の強度を検出し、観察対象物の表面情報として極めて浅い焦点深度を持つ2次元画像を生成する。そして、その動作をZ軸方向で複数回繰り返して取得される複数の焦点面の2次元画像を重ね合わせることにより、3次元画像を生成するものである。 Conventionally, a confocal microscope is used for three-dimensional observation of an observation object. The confocal microscope collects the light reflected by the observation object when the laser beam is scanned two-dimensionally on the observation object, and detects the intensity of the light passing through the pinhole. A two-dimensional image having a very shallow depth of focus is generated as surface information of the observation object. Then, a three-dimensional image is generated by superimposing two-dimensional images of a plurality of focal planes obtained by repeating the operation a plurality of times in the Z-axis direction.
つまり、コンフォーカル顕微鏡では、観察対象物の高さの情報を得るために、観察対象物の観測位置をZ軸方向に移動させながら2次元画像を順次取得し、これらの2次元画像に基づいて、観察対象物の各点においてピンホールを通過した光の強度が最大となるときの観察対象物の位置を検出することになる(例えば、特許文献1参照)。 That is, in the confocal microscope, in order to obtain information on the height of the observation object, two-dimensional images are sequentially acquired while moving the observation position of the observation object in the Z-axis direction, and based on these two-dimensional images. Then, the position of the observation object is detected when the intensity of the light passing through the pinhole is maximized at each point of the observation object (see, for example, Patent Document 1).
しかしながら、コンフォーカル顕微鏡では、観察対象物の高さの情報を得るために、観測位置をZ軸方向に移動させながら、複数枚の2次元画像を取得する必要があったため、3次元画像を生成する元となる2次元画像の取得時の処理負荷を軽減して、より簡便に、観察対象物の3次元観察を行いたいという要求があった。 However, in the confocal microscope, in order to obtain information on the height of the observation object, it is necessary to acquire a plurality of two-dimensional images while moving the observation position in the Z-axis direction, so that a three-dimensional image is generated. There has been a demand to reduce the processing load at the time of acquiring a two-dimensional image as a source for performing the three-dimensional observation of the observation object more easily.
本発明はこのような状況に鑑みてなされたものであり、実体顕微鏡から取得される左右一対の観察画像を1度に取得するだけで、簡便に、観察対象物の3次元観察を行うことができるようにするものである。 The present invention has been made in view of such a situation, and by simply acquiring a pair of left and right observation images acquired from a stereomicroscope at a time, three-dimensional observation of an observation target can be performed easily. It is something that can be done.
本発明の画像処理装置は、観察対象物を拡大観察する実体顕微鏡の左右眼光路上に配置された撮像手段により撮像された左右一対の観察画像を取得する画像取得手段と、取得された前記左右一対の観察画像に基づいて、前記左右一対の観察画像の対応する各位置における、前記実体顕微鏡の中心軸に対する奥行き量を演算する演算手段と、対応する各位置ごとに演算された前記奥行き量に基づいて、前記観察対象物に対応する3次元モデルを生成する3次元モデル生成手段と、生成された前記3次元モデルに基づいて、前記観察対象物の3次元観察用の画像である3次元観察画像を生成する3次元観察画像生成手段とを備えることを特徴とする。 The image processing apparatus of the present invention includes an image acquisition unit that acquires a pair of left and right observation images captured by an imaging unit that is arranged on the left and right eye optical paths of a stereomicroscope that magnifies an observation target, and the acquired left and right pair Based on the observation image, the calculation means for calculating the depth amount with respect to the central axis of the stereomicroscope at each corresponding position of the pair of left and right observation images, and the depth amount calculated for each corresponding position 3D model generation means for generating a 3D model corresponding to the observation object, and a 3D observation image which is an image for 3D observation of the observation object based on the generated 3D model And a three-dimensional observation image generating means for generating
本発明によれば、簡便に、観察対象物の3次元観察を行うことができる。 According to the present invention, three-dimensional observation of an observation object can be performed easily.
以下、本発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.変形例
Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. First Embodiment 2. FIG.
<1.第1の実施の形態>
最初に、図1乃至図7を参照して、本発明の第1の実施の形態について説明する。
<1. First Embodiment>
First, a first embodiment of the present invention will be described with reference to FIGS.
[実体顕微鏡の構成例]
図1は、本発明を適用した実体顕微鏡の一実施の形態の外観図である。
[Configuration example of stereo microscope]
FIG. 1 is an external view of an embodiment of a stereomicroscope to which the present invention is applied.
実体顕微鏡101は、単対物双眼構成の平行光学系(ガリレオ式)の実体顕微鏡である。実体顕微鏡101は、ベース部(照明部)111、変倍レンズ鏡筒112、および、焦点合わせ装置113を備えている。焦点合わせ装置113は、ベース部111の上面の後端かつ左右方向の中央に立設され、変倍レンズ鏡筒112は、焦点合わせ装置113の前面の上部に設けられている。
The
ベース部111には、透過照明装置(不図示)が内蔵され、透明部材が埋め込まれた観察対象載置台114が上面に設けられている。観察対象載置台114には、観察する対象となる観察対象物(後述する図2,図3等の観察対象物102)が載置される。
The
変倍レンズ鏡筒112の下面には、対物レンズ115が設けられている。対物レンズ115は、図1に示すように、対物レンズを1つだけ取付けてもよいし複数取付けてもよい。そして、観察者は、例えば、予め定められた複数の低倍率の対物レンズおよび複数の高倍率の対物レンズの中から、取付け可能な個数以下の対物レンズ115を選択して、実体顕微鏡101を使用する。
An
変倍レンズ鏡筒112の左側面および右側面には、変倍ノブ116が設けられている。さらに、変倍レンズ鏡筒112には、左右両眼用の撮影ユニット(図3等の撮影ユニット161L,161R)を取付けることが可能である。
A
変倍レンズ鏡筒112の上部には、双眼鏡筒117が設けられている。双眼鏡筒117には、左眼用の接眼レンズ117a、および、右眼用の接眼レンズ117b等が取り付けられている。観察者は、それらの接眼レンズを介して、左眼用および右眼の観察像をそれぞれ左眼および右眼で見ることにより、観察対象載置台114に載置される観察対象物の像を立体視することができる。
A
焦点合わせ装置113の左右の側面の上部には、焦点合わせノブ118が設けられている。また、焦点合わせ装置113には、焦点合わせノブ118の回転に伴い、変倍レンズ鏡筒112を観察対象載置台114に垂直な方向に沿って上下動させる機構部(不図示)が設けられている。
A focusing
[照明方法の例]
図2は、実体顕微鏡101の照明方法の一例を示している。この例は、例えば、プリント基板など、観察対象物102の表面が不透明である場合に用いられる照明方法のひとつである。
[Example of lighting method]
FIG. 2 shows an example of an illumination method of the
光源装置201Lおよび光源装置201Rは、それぞれ独立して光量および分光分布を変更することができる光源装置である。光源装置201Lから発せられた照明光は、導光用バンドルファイバ202Lによって導かれ、左斜め上方向から観察対象物102に照射される。また、光源装置201Rから発せられた照明光は、導光用バンドルファイバ202Rによって導かれ、右斜め上方向から観察対象物102に照射される。このように左右の異なる方向から照明光を観察対象物102に照射することにより、色再現性が良く、凹凸部に対して適度な陰影によるコントラストをつけた観察像および観察画像を得ることができる。
The
[顕微鏡システムの構成例]
図3は、図1および図2で説明した実体顕微鏡101、その実体顕微鏡101の制御を行うコントロールボックス301、並びに2Dディスプレイ装置303からなる顕微鏡システムの構成例を示している。なお、図3に示すように、観察対象物102を拡大観察する実体顕微鏡101には、左眼用の撮影ユニット161Lおよび右眼用の撮影ユニット161Rが取り付けられ、ケーブル162L,162Rによりコントロールボックス301と接続されている。
[Configuration example of microscope system]
FIG. 3 shows a configuration example of a microscope system including the
実体顕微鏡101において、観察対象物102からの光(以下、観察光という)は、対物レンズ151を透過した後、その光路によってアフォーカルズーム系152Lおよびアフォーカルズーム系152Rに分かれて入射する。アフォーカルズーム系152Lおよびアフォーカルズーム系152Rは、それぞれ開口絞りと変倍レンズ群から構成され、各変倍レンズ群には、観察倍率を調整するための可動群が含まれている。すなわち、図1の変倍レンズ鏡筒112の左側面および右側面に設けられた変倍ノブ116を回転することにより、回転量に応じた距離だけ各可動群が光軸方向に移動し、観察倍率を調整することができる。また、図1の変倍レンズ鏡筒112に設けられている調節機構(不図示)により、開口絞りの絞り量を調節することができる。
In the
アフォーカルズーム系152Lから射出された観察光は、結像レンズ153Lに入射して、撮影ユニット161Lの撮像素子171Lの撮像面に結像される。同様に、アフォーカルズーム系152Rから射出された観察光は、結像レンズ153Rに入射して、撮影ユニット161Rの撮像素子171Rの撮像面に結像される。
The observation light emitted from the
そして、撮影ユニット161Lの撮像素子171Lは、結像レンズ153Lにより結像された観察光による像を撮影し、得られた左眼用の画像(以下、観察画像という)を示す画像信号を、ケーブル162Lを介してコントロールボックス301に供給する。同様に、撮影ユニット161Rの撮像素子171Rは、結像レンズ153Rにより結像された観察光による像を撮影し、得られた右眼用の観察画像を示す信号を、ケーブル162Rを介してコントロールボックス301に供給する。
The
コントロールボックス301は、実体顕微鏡101を制御して、実体顕微鏡101から供給される左観察画像401Lと右観察画像401Rに対応する画像信号に基づいて、観察対象物102の3次元観察用の画像(以下、3次元観察画像という)のデータを生成して、2Dディスプレイ装置303に表示させる。コントロールボックス301は、例えば、コンピュータ、または、CPU(Central Processing Unit)などのプロセッサ等により構成され、所定の制御プログラムを実行することにより、図4に示すような、画像取得部311、奥行き量演算部312、3次元モデル生成部313、3次元観察画像生成部314、画像出力部315、およびCADデータ変換部316を含む機能を実現する。なお、これらの図4の画像取得部311乃至画像出力部315の一連の処理例の詳細については、図5のフローチャートを用いて後述する。また、CADデータ変換部316の処理例の詳細については、後述する「5.変形例」で説明する。
The
図3に戻り、入力装置302は、例えばマウスやキーボードに代表される観察者による指示を受け付ける機器である。入力装置302は、例えば、コントロールボックス301により実行される処理の内容の選択や、画像処理に関するパラメータの調整の指示などの、観察者の操作に応じた操作信号をコントロールボックス301に供給する。
Returning to FIG. 3, the
2Dディスプレイ装置303は、画像を平面的に表示する平面像表示装置である。2Dディスプレイ装置303は、コントロールボックス301から出力される3次元観察画像のデータに基づく画像を鳥瞰図的に表示する。これにより、観察者は、実体顕微鏡101の双眼鏡筒117に取り付けられた接眼レンズを覗き込んで観察することなく、2Dディスプレイ装置303に表示された3次元観察画像(例えば、図3の2Dディスプレイ装置303の画面に表示された三角柱の3次元画像)を見ることで、図3の形状参考図400に示した形状を有する観察対象物102の像を観察することができる。なお、この形状参考図400には、観察対象物102の三角柱となる形状の図の他、実体顕微鏡101の中心軸に沿った方向Aから見たときの矢視図も示されている。
The
[コントロールボックスの処理の詳細]
次に、図5のフローチャートを参照して、図4のコントロールボックス301により実行される、3次元観察画像の生成処理について説明する。
[Control box processing details]
Next, with reference to the flowchart in FIG. 5, the three-dimensional observation image generation process executed by the
ステップS11において、画像取得部311は、実体顕微鏡101の左右両眼の光路上に配置された撮像素子171L,171Rにより撮像された左右一対の左観察画像401Lと右観察画像401Rを取得し、奥行き量演算部312および3次元モデル生成部313に供給する。
In step S11, the
ステップS12において、奥行き量演算部312は、画像取得部311により取得された左右一対の左観察画像401Lと右観察画像401Rに基づいて、左右一対の左観察画像401Lと右観察画像401Rとの対応する各位置における奥行き量を求める。
In step S12, the depth
ここで、図6を参照しながら、奥行き量演算部312により求められる奥行き量の演算方法について説明する。
Here, a depth amount calculation method obtained by the depth
図6においては、画像取得部311により取得される、左右一対の観察画像のうちの、左眼光路上の撮像素子171Lにより撮像された左観察画像401Lが図6aに示され、右眼光路上の撮像素子171Rにより撮像された右観察画像401Rが図6bに示される。
In FIG. 6, the left observation image 401 </ b> L captured by the
奥行き量演算部312は、これらの左観察画像401Lと右観察画像401Rにおいて、同様の特徴を有する特徴点を対応付けるための対応点を決定して、その各対応点における実体顕微鏡101の中心軸に対する奥行き量を求めることになるが、その方法としては、3次元形状復元方法の一つであるステレオマッチング法を用いることができる。
The depth
すなわち、ステレオマッチング法により、左観察画像401Lが、右観察画像401Rのどの部分に対応するかを面積相関の演算により求めて、その対応関係に基づく三角測量の原理を用いることにより奥行き量を求めることが可能となる。
That is, the stereo matching method is used to determine which part of the
ここで面積相関とは、注目している画素の周囲を含む所定の領域により比較を行って、その領域中の点それぞれについて左右の画像中で差分をとり、その合計が最も小さいものを対応点とする方法である。具体的には、図6に示すように、左観察画像401Lのある点Al(x,y)の輝度Il(x,y)と、右観察画像401Rにおいて点Alの座標からX方向にdだけずれた点Ar(x−d,y)の輝度Ir(x−d,y)とが比較される。つまり、Il(x,y)−Ir(x−d,y)の値が最も小さい値となるd=dminを求めることにより、Al(x,y)の対応点は、点Ar(x−dmin,y)と決定される。
Here, the area correlation is a comparison between a predetermined region including the periphery of the pixel of interest, a difference is obtained in the left and right images for each point in the region, and the smallest sum is the corresponding point. It is a method. Specifically, as shown in FIG. 6, the luminance Il (x, y) of a point Al (x, y) at the
この例であると、一点のみの比較であるが、2m×2nの領域に拡張して考えれば、下記の式(1)を演算することで、所定の領域の面内での輝度値の差分をとることが可能となる。 In this example, it is a comparison of only one point, but if it is expanded to a 2m × 2n region, the following equation (1) is calculated to calculate the difference in luminance value within the plane of the predetermined region. It becomes possible to take.
この式(1)を演算することにより所定の領域内での輝度値の差分をとることができるため、オクルージョンがあっても演算の破綻を避けることができる。なお、オクルージョンとは、立体構造物を観察するときに、全ての部分を両眼で見ることができずに片目にだけ見える部分がある状態のことである。例えば複数の物体が存在するために手前にある物体が背後にある物体を隠してしまう状況で、左右眼で隠れる部分がずれる場合や、立体構造物の傾斜した面が右目には見えて左目には見えないといった状況で発生するものである。 By calculating the equation (1), it is possible to obtain a difference in luminance value within a predetermined area, so that it is possible to avoid failure of the calculation even if there is occlusion. The occlusion is a state in which, when observing a three-dimensional structure, there is a portion that cannot be seen with both eyes and is visible only to one eye. For example, when there are multiple objects and the object in the foreground hides the object behind it, the part hidden by the left and right eyes may shift, or the inclined surface of the three-dimensional structure can be seen by the right eye and the left eye Occurs in situations where you cannot see.
続いて、位置の検出を行うが、ここでは、三角測量の原理を用いた方法を説明する。左右眼光路上に配置された撮像素子171L,171R(以下、カメラL,Rともいう)が観察対象物102上の点(物点)を見込む角は、実体顕微鏡101の光軸の傾きとなる。例えば、左右眼光路の軸間距離D=22、対物レンズ151の焦点距離fo=100mmであるとき、光軸上の物体面を左右のカメラL,Rで見込む角(輻輳角)θは、半角で、次の式(2)により求めることができる。
Subsequently, the position is detected. Here, a method using the principle of triangulation will be described. The angle at which the
θ=arctan(D/(2×fo))= arctan(22/(2×100))=6.3°・・・(2) θ = arctan (D / (2 × fo)) = arctan (22 / (2 × 100)) = 6.3 ° (2)
そして、左右のカメラL,Rの光軸の開き角が2θであることと、左観察画像401L上の点Alと、右観察画像401R上の対応点Arのそれぞれの座標から、左眼光路上に配置されたカメラLを基準にしたときの物点Aの座標(x,z)を求めることができる。この物点Aの座標(x,z)は、公知の演算方法を用いて求めることができる。
Then, on the left eye optical path, the opening angle of the optical axes of the left and right cameras L and R is 2θ, and the coordinates of the point Al on the
ここで、図7を参照して、三角測量の原理を用いた奥行き量を示すz座標の演算方法の一例について説明する。図7には、観察光をXZ平面に正射影して2次元的に表した図が示されており、図中の点L,RはカメラL,Rを示し、点A,Bは物点を示すものとする。また、この例では、左右のカメラL,Rのうち、カメラLを基準とした場合について説明する。 Here, with reference to FIG. 7, an example of a method for calculating the z coordinate indicating the depth amount using the principle of triangulation will be described. FIG. 7 shows a two-dimensional representation of the observation light orthogonally projected on the XZ plane. Points L and R in the figure indicate the cameras L and R, and points A and B indicate object points. It shall be shown. In this example, a case where the camera L is used as a reference among the left and right cameras L and R will be described.
いま、図7において、点L,R,Aを頂点とする三角形A、又は点L,R,Bを頂点とする三角形Bについて考える。なお、三角形Aでは、各頂点は、点Lがa,点Rがb,点Aが180°−a−bの角度からなり、各辺の長さは、LR=D,LA=rとなる。また、三角形Bでは、各頂点は、点Lがa,点Rがb,点Bが180°−a−bの角度からなり、各辺の長さは、LR=D,LB=rとなる。このような条件では、図7より明らかなように、点Lの角度a,点Rの角度bは、それぞれ、a=90°−θ−xL,b=90°−θ+xRの関係を有することになる。また、rは、正弦定理を用いて、r=D×(sinb/sin(180°−a−b))により得ることができる。そして、a,b,rの関係が求められると、xL,xRから、x=rcosa,z=rsinaを演算することで、物点の座標(x,z)が求められる。 Now, in FIG. 7, a triangle A having points L, R, and A as vertices or a triangle B having points L, R, and B as vertices will be considered. In the triangle A, each vertex has an angle of point a at point L, b at point R, and point A at 180 ° -ab, and the length of each side is LR = D, LA = r. . Further, in the triangle B, each vertex has an angle of point L at a, point R at b, and point B at 180 ° -ab, and the length of each side is LR = D, LB = r. . Under such conditions, as is apparent from FIG. 7, the angle a of the point L and the angle b of the point R have a relationship of a = 90 ° −θ−x L and b = 90 ° −θ + x R , respectively. It will be. Moreover, r can be obtained by r = D × (sinb / sin (180 ° −ab)) using the sine theorem. When the relationship between a, b, and r is obtained, the coordinates (x, z) of the object point are obtained by calculating x = rcosa, z = rsina from x L and x R.
なお、実体顕微鏡101の撮像素子171L,171Rにより撮像された左観察画像401Lと、右観察画像401Rは、左右方向(X軸方向)のみ視差を持つため、原理的にはy座標は一致するはずであるが、製造、組み立て誤差などにより若干のずれを持つ場合がある。その場合は、奥行き量を示すz座標を決定する処理の前段において、y座標の差分がゼロになるように、画像を補正する処理を施した後、奥行き量を示すz座標を決定するのが望ましい。
Since the
以上のようにして、各対応点おける奥行き量が決定される。 As described above, the depth amount at each corresponding point is determined.
図5のフローチャートに戻り、ステップS13において、3次元モデル生成部313は、画像取得部311により取得された左右一対の観察画像から得られる情報および奥行き量演算部312により演算された奥行き量に基づいて、各対応点において決定した奥行き量を、実体顕微鏡101の中心軸に垂直な平面全体にマッピングして、いわゆるデプスマップ(Depth Map)を生成する。そして、3次元モデル生成部313は、この奥行き量の情報が表現されたデプスマップに対して、左観察画像401Lと右観察画像401Rから抽出される、観察対象物102上の各座標における表面の色情報が表されたテクスチャを貼り付ける(いわゆるテクスチャマッピング)ことにより、観察対象物102に対応する3次元モデルを生成する。
Returning to the flowchart of FIG. 5, in step S <b> 13, the three-dimensional
なお、3次元モデルに対して貼り付けるテクスチャであるが、左観察画像401Lと右観察画像401Rのいずれか一方の観察画像のみから生成してもよいが、一方の観察画像からの情報では得ることのできないオクルージョンの領域に対する対応のために両方の観察画像から必要な部分を切り出してくるようなアルゴリズムを適応したほうが、より自然で、観察対象物102の表面情報の欠落領域が少ないテクスチャを生成できる。
Although the texture is pasted to the three-dimensional model, it may be generated from only one of the
ステップS14において、3次元観察画像生成部314は、生成した3次元モデルに基づいて、3次元モデルを含んだ仮想空間上の所定の視点位置から見たときの3次元観察画像を生成し、画像出力部315に供給する。例えば、3次元観察画像生成部314は、3次元観察画像として、2Dディスプレイ装置303において3次元表示される3次元画像を生成する。
In step S14, the three-dimensional observation
ステップS15において、画像出力部315は、3次元観察画像生成部314により生成された3次元観察画像を、2Dディスプレイ装置303に出力して、表示させる。これにより、2Dディスプレイ装置303の画面には、図3に示すように、例えば、その画面に表示された三角柱の3次元画像や3次元画像402が表示される。
In step S15, the
以上のようにして、コントロールボックス301においては、観察対象物102を拡大観察する実体顕微鏡101から取得した左観察画像401Lと右観察画像401Rの2枚の観察画像を用いて、それらの観察画像の対応する各位置ごとに奥行き量が演算され、演算された奥行き量に基づいた観察対象物102の3次元モデルが生成され、生成された3次元モデルから、観察対象物102の3次元観察画像が生成され、2Dディスプレイ装置303に表示される。
As described above, in the
これにより、従来、コンフォーカル顕微鏡では、観察対象物の高さの情報を得るために、観測位置をZ軸方向に移動させながら、複数枚の2次元画像を取得する必要があったことは先に述べた通りであるが、コントロールボックス301においては、実体顕微鏡101から1度に取得される左観察画像401Lと右観察画像401Rという2枚の観察画像のみを用いて所定の画像処理を行うことで、観察対象物の3次元観察画像を表示させることができる。その結果、簡便に、観察対象物の3次元観察を行うことができる。
As a result, in the conventional confocal microscope, it has been necessary to acquire a plurality of two-dimensional images while moving the observation position in the Z-axis direction in order to obtain information on the height of the observation object. As described above, in the
また、コンフォーカル顕微鏡においては、観測位置のZ軸方向の移動のため、Z軸方向の駆動機構が必要となるが、実体顕微鏡101では、左観察画像401Lと右観察画像401Rを撮影するためにZ軸方向の駆動を特に要しないため、Z軸方向の駆動機構を設けなくてもよい。さらに、コンフォーカル顕微鏡では、Z軸方向の駆動に時間が必要となるため、例えば生きたメダカなどを観察対象物とする場合、観察対象物が動いてしまうため3次元観察画像を得ることができない。一方、コントロールボックス301では、2つの撮像素子171L,171Rにより、観察対象物の一瞬を捉えて撮像された左観察画像401Lと右観察画像401Rを取得できるので、従来では不可能であった動く観察対象物の3次元観察画像を構築することが可能となる。
Further, in the confocal microscope, a driving mechanism in the Z-axis direction is required for moving the observation position in the Z-axis direction. However, in the
<2.第2の実施の形態>
[顕微鏡システムの構成例]
次に、図8を参照して、本発明の第2の実施の形態について説明する。本発明の第2の実施の形態(図8)は、第1の実施の形態(図3)と比較して、実体顕微鏡101の結像レンズ153L,153Rにより結像される観察光を、撮影用と接眼用の光に分割するための偏向素子154L,154Rが設けられている点が異なる。すなわち、結像レンズ153Lにより結像される観察光は、例えば、ビームスプリッタプリズムにより構成される偏向素子154Lに入射し、偏向素子154Lを透過し、接眼レンズ155Lに入射する接眼用の光と、偏向素子154Lにより反射され、撮影ユニット161Lに入射する撮影用の光に分割される。
<2. Second Embodiment>
[Configuration example of microscope system]
Next, a second embodiment of the present invention will be described with reference to FIG. In the second embodiment (FIG. 8) of the present invention, as compared with the first embodiment (FIG. 3), the observation light imaged by the
同様に、結像レンズ153Rにより結像された観察光は、偏向素子154Lと同様の構成の偏向素子154Rに入射し、偏向素子154Rを透過し、接眼レンズ155Rに入射する接眼用の光と、偏向素子154Rにより反射され、撮影ユニット161Rに入射する撮影用の光に分割される。
Similarly, the observation light imaged by the
そして、接眼レンズ155Lおよび接眼レンズ155Rにより、互いに視差が異なる左眼用および右眼用の像(以下、観察像という)が形成される。観察者は、接眼レンズ155Lおよび接眼レンズ155Rを介して、左眼用および右眼の観察像をそれぞれ左眼および右眼で見ることにより、観察対象物102の像を立体視することができる。
The eyepiece lens 155L and the
また、第1の実施の形態と同様に、撮影ユニット161Lの撮像素子171Lは、偏向素子154Lにより反射された観察光による像を撮影し、得られた左眼用の左観察画像401Lを示す画像信号を、ケーブル162Lを介してコントロールボックス301に供給する。同様に、撮影ユニット161Rの撮像素子171Rは、偏向素子154Rにより反射された観察光による像を撮影し、得られた右眼用の右観察画像401Rを示す画像信号を、ケーブル162Rを介してコントロールボックス301に供給する。
Similarly to the first embodiment, the
コントロールボックス301は、上述した図4のコントロールボックス301と同様の機能的構成を有しており、図5のフローチャートに示した処理と同様の処理を行うことで、実体顕微鏡101から取得した左観察画像401Lと右観察画像401Rの2枚の観察画像を用いて、それらの観察画像の対応する各位置ごとに奥行き量を演算し、演算された奥行き量に基づいた観察対象物102の3次元モデルを生成する。そして、コントロールボックス301は、3次元モデルに基づいて、観察対象物102を垂直視したときの画像(以下、垂直視画像という)を生成して、2Dディスプレイ装置303に表示させる。例えば、図8の2Dディスプレイ装置303の画面に表示された三角形の垂直視画像が表示される。なお、図8の2Dディスプレイ装置303に表示された三角形の垂直視画像は、図8の形状参考図400の観察対象物102の矢視図に対応するものとなる。
The
これにより、観察者は、接眼レンズ155Lおよび接眼レンズ155Rを介して、左眼用および右眼の観察像を観察することにより、観察対象物102の像を立体視することができるとともに、2Dディスプレイ装置303に表示された垂直視した観察対象物102の像(垂直視画像)も確認することができる。
As a result, the observer can stereoscopically view the image of the
また、第2の実施の形態においては、上述した第1の実施の形態と同様に、実体顕微鏡101から1度に取得される左観察画像401Lと右観察画像401Rという2枚の観察画像のみを用いた所定の画像処理により、垂直視画像を表示させることができるので、簡便に、観察対象物の3次元観察を行うことができる。
In the second embodiment, as in the first embodiment described above, only two observation images, the
<3.第3の実施の形態>
[顕微鏡システムの構成例]
次に、図9を参照して、本発明の第3の実施の形態について説明する。本発明の第3の実施の形態(図9)は、第1の実施の形態(図3)と比較して、図1のコントロールボックス301の代わりにパーソナルコンピュータ304が設けられている点が異なる。また、パーソナルコンピュータ304には、撮影ユニット161Lを制御する撮影コントローラ305Lと、撮影ユニット161Rを制御する撮影コントローラ305Rが接続されている。
<3. Third Embodiment>
[Configuration example of microscope system]
Next, a third embodiment of the present invention will be described with reference to FIG. The third embodiment (FIG. 9) of the present invention is different from the first embodiment (FIG. 3) in that a
撮影コントローラ305Lは、撮影ユニット161Lを制御して、結像レンズ153Lにより結像された観察光による像を撮像素子171Lで撮影し、得られた左眼用の左観察画像401Lを示す画像信号を、ケーブル162Lを介して取得し、パーソナルコンピュータ304に供給する。同様に、撮影コントローラ305Rは、撮影ユニット161Rを制御して、結像レンズ153Rにより結像された観察光による像を撮像素子171Rで撮影し、得られた右眼用の右観察画像401Rを示す画像信号を、ケーブル162Rを介して取得し、パーソナルコンピュータ304に供給する。
The
パーソナルコンピュータ304は、上述した図4のコントロールボックス301と同様の機能的構成を有しており、図5のフローチャートに示した処理と同様の処理を行うことで、実体顕微鏡101から取得した左観察画像401Lと右観察画像401Rの2枚の観察画像を用いて、それらの観察画像の対応する各位置ごとに奥行き量を演算し、演算された奥行き量に基づいた観察対象物102の3次元モデルを生成する。そして、パーソナルコンピュータ304は、3次元モデルに基づいて、観察対象物102の3次元観察画像や、観察対象物102を垂直視したときの垂直視画像を生成して、2Dディスプレイ装置303に表示させる。例えば、図9の2Dディスプレイ装置303には、その画面に表示された三角柱の3次元画像や図9の3次元画像402、あるいは、図9の形状参考図400の観察対象物102の矢視図に対応する垂直視画像が表示される。
The
これにより、パーソナルコンピュータ304により実行されるプログラムのバージョンアップを行うだけで、既存の実体顕微鏡を用いた顕微鏡システムを、簡単に本発明の3次元観察画像を表示可能な顕微鏡システムに更新することができる。また、プログラムを更新するだけで、特に新たな光学部材などを追加する必要がないため、より安価に顕微鏡システムを構築できる。
As a result, the microscope system using the existing stereomicroscope can be easily updated to the microscope system capable of displaying the three-dimensional observation image of the present invention simply by upgrading the program executed by the
また、第3の実施の形態においては、上述した第1の実施の形態と同様に、実体顕微鏡101から1度に取得される左観察画像401Lと右観察画像401Rという2枚の観察画像のみを用いた所定の画像処理により、3次元観察画像や垂直視画像を表示させることができるので、簡便に、観察対象物の3次元観察を行うことができる。
In the third embodiment, as in the first embodiment described above, only two observation images, the
<4.第4の実施の形態>
[顕微鏡システムの構成例]
次に、図10を参照して、本発明の第4の実施の形態について説明する。本発明の第4の実施の形態(図10)は、第1の実施の形態(図3)と比較して、図3の2Dディスプレイ装置303の代わりに3Dディスプレイ装置306が設けられている点が異なる。また、説明を簡略化するため、実体顕微鏡101の記載を省略して撮影ユニット161L,161Rの撮像素子171L,171Rのみを記載しているが、撮像素子171L,171Rによって、結像レンズ153L,153Rにより結像された観察光による像が撮影され、得られた左眼用の左観察画像401L,右目用の右観察画像401Rを示す画像信号が、ケーブル162L,162Rを介して取得され、コントロールボックス301に供給される点は一致している。
<4. Fourth Embodiment>
[Configuration example of microscope system]
Next, a fourth embodiment of the present invention will be described with reference to FIG. Compared with the first embodiment (FIG. 3), the fourth embodiment (FIG. 10) of the present invention is provided with a
コントロールボックス301は、上述した図4のコントロールボックス301と同様の機能的構成を有しており、図5のフローチャートに示した処理と同様の処理を行うことで、実体顕微鏡101から取得した左観察画像401Lと右観察画像401Rの2枚の観察画像を用いて、それらの観察画像の対応する各位置ごとに奥行き量を演算し、演算された奥行き量に基づいた観察対象物102の3次元モデルを生成する。そして、コントロールボックス301(の3次元観察画像生成部314)は、3次元モデルに対してレンダリングを行い、3次元観察用画像として、左右両眼用の2枚の2次元画像(以下、左右両眼用画像という)を生成し、3Dディスプレイ装置306に供給する。
The
3Dディスプレイ装置306は、画像を立体的に表示する立体像表示装置であって、例えば、レンチキュラー方式またはパララックスバリア方式などの裸眼立体視ディスプレイ装置により構成される。そして、3Dディスプレイ装置306は、コントロールボックス301から供給される左右両眼用画像のデータに基づく左右両眼用画像を表示したときに、左眼用の画素列から発せられた光が観察者307の左眼に入射し、右眼用の画素列から発せられた光が観察者307の右眼に入射するように、各画素からの光の進路を調整する。
The
これにより、観察者307は、専用の3D眼鏡等を用いずに、左眼用画像を左眼で見て、右眼用画像を右眼で見ることができ、観察対象物102の像を立体視することができる。また、3Dディスプレイ装置306は、上述の裸眼立体視方式だけでなく、偏光や液晶シャッタを利用した眼鏡タイプのディスプレイにも適用可能である。
As a result, the
また、第4の実施の形態においては、上述した第1の実施の形態と同様に、実体顕微鏡101から1度に取得される左観察画像401Lと右観察画像401Rという2枚の観察画像のみを用いた所定の画像処理により、左右両眼用画像を表示させることができるので、簡便に、観察対象物の3次元観察を行うことができる。
Further, in the fourth embodiment, as in the first embodiment described above, only two observation images, the
<5.変形例>
上述した本発明の第1乃至第4の実施の形態において生成される3次元モデルまたは3次元観察画像のデータを3次元CAD(Computer Aided Design:コンピュータ支援設計)用のデータに変換することで、3次元CAD上で、コントロールボックス301やパーソナルコンピュータ304により生成された3次元モデルや3次元観察画像を表示させることも可能となる。
<5. Modification>
By converting the data of the three-dimensional model or the three-dimensional observation image generated in the above-described first to fourth embodiments of the present invention into data for three-dimensional CAD (Computer Aided Design), It is also possible to display a three-dimensional model or a three-dimensional observation image generated by the
具体的には、図4に示すように、CADデータ変換部316は、3次元モデル生成部313により生成された3次元モデル、または、3次元観察画像生成部314により生成された3次元観察画像のデータを、3次元CADデータに変換する。CADデータ変換部316は、変換により得られた3次元CADデータを、3次元CADを実行可能な3次元CAD装置に出力する。なお、第3の実施の形態の場合には、3次元CADデータを3次元CAD装置に出力せずに、パーソナルコンピュータ304上で実行させるようにしてもよい。
Specifically, as illustrated in FIG. 4, the CAD
これにより、例えば、3次元CADにより作成された設計データと、実体顕微鏡101により拡大観察された観察対象物102(設計データを基に実際に製作された製品など)とを3次元CAD上で比較することが可能となり、両者の相違点を直感的に認識させることができる。また、実験などにより製作したものや、例えばデザイン性が求められるものなどの3次元的には表示し難かったものを3次元データにする場合には、それらの実物を実体顕微鏡101により観察して、コントロールボックス301などにより3次元観察画像のデータを生成後、3次元CAD用のデータに変換することで、簡単に図面化することが可能となる。
Thus, for example, the design data created by 3D CAD is compared with the observation object 102 (a product actually produced based on the design data) observed by the
また、以上の説明では、実体顕微鏡101、撮影ユニット161Lおよび撮影ユニット161R、コントロールボックス301、2Dディスプレイ装置303を別装置として説明したが、コントロールボックス301の全部または一部の機能を、実体顕微鏡101や、撮影ユニット161Lおよび撮影ユニット161R、2Dディスプレイ装置303に内蔵するようにしてもよい。
In the above description, the
また、第1の実施の形態において、観察者による入力装置302の操作により、3次元表示された観察対象物102の3次元観察画像の任意の方向への回転が指示された場合、3次元観察画像生成部314は、3次元モデルの仮想空間上において回転に応じた視点位置から、3次元モデルを見たときの3次元観察画像を生成し、2Dディスプレイ装置303に表示させることもできる。例えば、図3の3次元画像402は、観察対象物102の3次元画像を2Dディスプレイ装置303上で回転させ状態を示しているが、従来の実体顕微鏡でこのような状態を実現するためには、観察対象物102を傾けたり、あるいは、実体顕微鏡101そのものを傾けなければ、このような角度で観察することは不可能であった。また、一度それらの情報を取得すれば、実際に観察対象物102が実体顕微鏡101(ピント面)に載置されていなくても、過去に取得した情報を用いて、様々な角度から観察対象物102の観察が可能となる。
In the first embodiment, when the observer operates the
これにより、観察者は、任意の方向から観察対象物102を観察することができる。この操作方法としては、入力装置302により、例えば、「Zキー」+「マウスドラッグ」が操作された場合は、「パン操作」とし、「Xキー」+「マウスドラッグ」が操作された場合は、「回転操作」とし、「Cキー」+「マウスドラッグ」が操作された場合は、「ズーム操作」等とすることができる。また、勿論、2Dディスプレイ装置303に操作用のGUIとして、「パン操作」、「回転操作」、「ズーム操作」などの各操作を専用のツールバーとして表示し、入力装置302により選択させるようにしてもよい。
Thereby, the observer can observe the
また、実体顕微鏡101の照明方法は、図2に示される例に限定されるものではなく、任意の方法を採用することができる。例えば、図11に示されるように、左右にLEDアレイ511LおよびLEDアレイ511Rを備えるLEDアレイ光源装置501を、対物レンズ115の取付部に取付けて、左斜め上方向および右斜め上方向から照明光を観察対象物102に照射するようにしてもよい。
Moreover, the illumination method of the
また、照明光を照射する方向は、図2および図11に示されるように左右の2方向に限定されるものではなく、例えば、3方向以上の方向から照明光を観察対象物102に照射するようにして、各照明光の光量または分光分布を制御するようにしてもよい。
Further, the direction of irradiating the illumination light is not limited to the left and right directions as shown in FIGS. 2 and 11, and for example, the
また、コントロールボックス301と外部記録装置(不図示)とを接続して、左観察画像401Lと、右目用の右観察画像401Rから生成された3次元モデルを保存しておくことで、観察終了後に、保存された3次元モデルから観察対象物102の3次元観察画像を生成して表示することも可能となる。また、この保存の際には、第2の実施の形態で説明した、垂直視したときの垂直視画像を保存しておくようにしてもよい。これにより、例えば、観察し忘れた角度から観察対象物102を再度観察するといったことが可能となる。
Further, by connecting the
また、第4の実施の形態においては、3Dディスプレイ装置306として、裸眼立体視ディスプレイ装置を用いて左右両眼用画像を観察する例を示したが、本発明は、3D眼鏡等を用いて左右両眼用画像を観察する場合にも適用することができる。
In the fourth embodiment, an example of observing left and right binocular images using an autostereoscopic display device as the
なお、本明細書において、プログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program are not only processes performed in time series in the order described, but also processes that are executed in parallel or individually even if they are not necessarily processed in time series. Is also included.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.
101 実体顕微鏡, 102 観察対象物, 151 対物レンズ, 152L,152R アフォーカルズーム系, 153L,153R 結像レンズ, 154L,154R 偏向素子, 155L,155R 接眼レンズ, 161L,161R 撮影ユニット, 171L,171R 撮像素子, 301 コントロールボックス, 302 入力装置, 303 2Dディスプレイ装置, 304 パーソナルコンピュータ, 306 3Dディスプレイ装置, 311 画像取得部, 312 奥行き量演算部, 313 3次元モデル生成部, 314 3次元観察画像生成部, 315 画像出力部, 316 CADデータ変換部
101 stereo microscope, 102 observation object, 151 objective lens, 152L, 152R afocal zoom system, 153L, 153R imaging lens, 154L, 154R deflecting element, 155L, 155R eyepiece, 161L, 161R imaging unit, 171L,
Claims (8)
取得された前記左右一対の観察画像に基づいて、前記左右一対の観察画像の対応する各位置における、前記実体顕微鏡の中心軸に対する奥行き量を演算する演算手段と、
対応する各位置ごとに演算された前記奥行き量に基づいて、前記観察対象物に対応する3次元モデルを生成する3次元モデル生成手段と、
生成された前記3次元モデルに基づいて、前記観察対象物の3次元観察用の画像である3次元観察画像を生成する3次元観察画像生成手段と
を備えることを特徴とする画像処理装置。 Image acquisition means for acquiring a pair of left and right observation images imaged by an imaging means arranged on the left and right eye optical paths of a stereomicroscope for observing an observation object in an enlarged manner;
Based on the acquired pair of left and right observation images, calculation means for calculating a depth amount with respect to the central axis of the stereomicroscope at each corresponding position of the pair of left and right observation images;
Three-dimensional model generation means for generating a three-dimensional model corresponding to the observation object based on the depth amount calculated for each corresponding position;
An image processing apparatus comprising: a three-dimensional observation image generation unit configured to generate a three-dimensional observation image that is an image for three-dimensional observation of the observation object based on the generated three-dimensional model.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising image output means for outputting the generated three-dimensional observation image to a display device.
前記3次元観察画像生成手段は、前記3次元観察画像として、前記平面像表示装置において3次元表示される3次元画像を生成し、
前記画像出力手段は、生成された前記3次元画像を前記平面像表示装置に出力する
ことを特徴とする請求項2に記載の画像処理装置。 The display device is a flat image display device that displays an image in a plane,
The three-dimensional observation image generation unit generates a three-dimensional image displayed three-dimensionally on the planar image display device as the three-dimensional observation image,
The image processing apparatus according to claim 2, wherein the image output unit outputs the generated three-dimensional image to the planar image display device.
前記画像出力手段は、生成された前記垂直視画像を前記平面像表示装置に出力する
ことを特徴とする請求項3に記載の画像処理装置。 The three-dimensional observation image generation means generates a vertical view image when the observation object is viewed vertically from a direction along the central axis of the stereomicroscope,
The image processing apparatus according to claim 3, wherein the image output unit outputs the generated vertical view image to the planar image display device.
前記3次元観察画像生成手段は、前記3次元観察画像として、前記立体像表示装置において立体視可能となる左右両眼用の2次元画像である左右両眼用画像を生成し、
前記画像出力手段は、生成された前記左右両眼用画像を前記立体像表示装置に出力する
ことを特徴とする請求項2に記載の画像処理装置。 The display device is a stereoscopic image display device that stereoscopically displays an image,
The three-dimensional observation image generating means generates a left and right binocular image that is a two-dimensional image for left and right eyes that can be stereoscopically viewed in the stereoscopic image display device as the three-dimensional observation image
The image processing apparatus according to claim 2, wherein the image output unit outputs the generated left and right binocular images to the stereoscopic image display apparatus.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising conversion means for converting the data of the three-dimensional model or the three-dimensional observation image into three-dimensional CAD data.
ことを特徴とする請求項1から6の何れか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the image processing apparatus is a microscope control apparatus that controls the stereomicroscope.
観察対象物を拡大観察する実体顕微鏡の左右眼光路上に配置された撮像手段により撮像された左右一対の観察画像を取得し、
取得された前記左右一対の観察画像に基づいて、前記左右一対の観察画像の対応する各位置における、前記実体顕微鏡の中心軸に対する奥行き量を演算し、
対応する各位置ごとに演算された前記奥行き量に基づいて、前記観察対象物に対応する3次元モデルを生成し、
生成された前記3次元モデルに基づいて、前記観察対象物の3次元観察用の画像である3次元観察画像を生成する
ステップを含むことを特徴とする画像処理方法。 The image processing device
Acquire a pair of left and right observation images imaged by imaging means arranged on the left and right eye optical path of the stereomicroscope that magnifies the observation object,
Based on the acquired pair of left and right observation images, calculate the depth amount with respect to the central axis of the stereomicroscope at each corresponding position of the pair of left and right observation images,
Based on the depth amount calculated for each corresponding position, a three-dimensional model corresponding to the observation object is generated,
An image processing method comprising: generating a three-dimensional observation image, which is an image for three-dimensional observation of the observation object, based on the generated three-dimensional model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010181230A JP2012042524A (en) | 2010-08-13 | 2010-08-13 | Image processing device and its method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010181230A JP2012042524A (en) | 2010-08-13 | 2010-08-13 | Image processing device and its method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012042524A true JP2012042524A (en) | 2012-03-01 |
Family
ID=45898971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010181230A Withdrawn JP2012042524A (en) | 2010-08-13 | 2010-08-13 | Image processing device and its method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012042524A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014056060A (en) * | 2012-09-11 | 2014-03-27 | Keyence Corp | Optical microscope |
JP2016206652A (en) * | 2015-04-21 | 2016-12-08 | オリンパス株式会社 | Imaging method of three-dimensional structure of sample and microscope device |
JP2016212349A (en) * | 2015-05-13 | 2016-12-15 | オリンパス株式会社 | Three-dimensional information acquisition apparatus and three-dimensional information acquisition method |
CN109031642A (en) * | 2018-09-14 | 2018-12-18 | 广州弥德科技有限公司 | A kind of display methods and system and device of general stereoscopic micro- Glassless |
-
2010
- 2010-08-13 JP JP2010181230A patent/JP2012042524A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014056060A (en) * | 2012-09-11 | 2014-03-27 | Keyence Corp | Optical microscope |
JP2016206652A (en) * | 2015-04-21 | 2016-12-08 | オリンパス株式会社 | Imaging method of three-dimensional structure of sample and microscope device |
JP2016212349A (en) * | 2015-05-13 | 2016-12-15 | オリンパス株式会社 | Three-dimensional information acquisition apparatus and three-dimensional information acquisition method |
CN109031642A (en) * | 2018-09-14 | 2018-12-18 | 广州弥德科技有限公司 | A kind of display methods and system and device of general stereoscopic micro- Glassless |
CN109031642B (en) * | 2018-09-14 | 2020-08-14 | 广州弥德科技有限公司 | Universal stereoscopic microscopic naked eye visualization display method and system device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3821289B1 (en) | Systems and methods for display binocular deformation compensation | |
JP7528344B2 (en) | Beam Angle Sensors in Virtual/Augmented Reality Systems | |
JP2023081930A (en) | Augmented reality displays with active alignment and corresponding methods | |
RU2519518C2 (en) | Stereoscopic image generator, method for stereoscopic image generator, and programme | |
JP2009300268A (en) | Three-dimensional information detection device | |
JP7379704B2 (en) | System and method for integrating visualization camera and optical coherence tomography | |
WO2013175899A1 (en) | Stereoscopic endoscope device | |
US20140307100A1 (en) | Orthographic image capture system | |
RU2689971C2 (en) | Stereoscopic imaging device | |
WO2011145311A1 (en) | Displaying apparatus and displaying method | |
JP2012042524A (en) | Image processing device and its method | |
JP2011053564A (en) | Display device and imaging device | |
JP2011215176A (en) | Image processing apparatus and method | |
JP2006208407A (en) | Microscopic system for observing stereoscopic picture | |
CN112526763A (en) | Light field 3D display device and driving method thereof | |
JP2842735B2 (en) | Multi-viewpoint three-dimensional image input device, image synthesizing device, and image output device thereof | |
JP4970798B2 (en) | Stereoscopic image observation device | |
JP2011191517A (en) | Stereomicroscope and control device for microscope | |
JP2005351916A (en) | Binocular microscope device | |
JP2001218231A (en) | Device and method for displaying stereoscopic image | |
JP5868055B2 (en) | Image processing apparatus and image processing method | |
JP2011158644A (en) | Display device | |
JP7561018B2 (en) | Element image group generating device and program thereof | |
KR101883883B1 (en) | method for glass-free hologram display without flipping images | |
JP6813936B2 (en) | Ray 3D capture camcorders and televisions that move or move televisions, parallel ray filter devices, leveled liquid crystals or optical cells to generate real images formed on the anterior and posterior surfaces of the television. A parallel ray filter having a set of movable lenses including a multifocal soft lens, a method for obtaining the device. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20131105 |