JP2016090291A - Imaging apparatus, spectroscopy system and spectroscopy method - Google Patents
Imaging apparatus, spectroscopy system and spectroscopy method Download PDFInfo
- Publication number
- JP2016090291A JP2016090291A JP2014222142A JP2014222142A JP2016090291A JP 2016090291 A JP2016090291 A JP 2016090291A JP 2014222142 A JP2014222142 A JP 2014222142A JP 2014222142 A JP2014222142 A JP 2014222142A JP 2016090291 A JP2016090291 A JP 2016090291A
- Authority
- JP
- Japan
- Prior art keywords
- light
- image
- wavelength
- spectroscopic
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Spectrometry And Color Measurement (AREA)
Abstract
Description
本開示は、分光画像を取得するための撮像装置、分光システムおよびそれらを用いた分光方法に関する。 The present disclosure relates to an imaging apparatus, a spectroscopic system, and a spectroscopic method using the same for acquiring a spectroscopic image.
各々が狭帯域である多数のバンド(例えば数十バンド以上)のスペクトル情報を活用することで、従来のRGB画像では不可能であった観測物の詳細な物性を把握することができる。この多波長の情報を取得するカメラは、「ハイパースペクトルカメラ」と呼ばれる。ハイパースペクトルカメラは、食品検査、生体検査、医薬品開発、鉱物の成分分析等のあらゆる分野で利用されている。 By utilizing spectral information of a large number of bands (for example, several tens of bands or more) each having a narrow band, it is possible to grasp detailed physical properties of an observation object that is impossible with a conventional RGB image. A camera that acquires multi-wavelength information is called a “hyperspectral camera”. Hyperspectral cameras are used in various fields such as food inspection, biological inspection, drug development, and component analysis of minerals.
観測対象の波長を狭帯域に限定して取得された画像の活用例として、特許文献1は、被験体の腫瘍部位と非腫瘍部位との判別を行う装置を開示している。この装置は、励起光の照射により、癌細胞内に蓄積されるプロトポルフィリンIXが635nmの蛍光を発し、フォト−プロトポルフィリンが675nmの蛍光を発することを検出する。これにより、腫瘍部位と非腫瘍部位との識別を行う。
As an example of using an image acquired by limiting the wavelength of an observation target to a narrow band,
特許文献2は、時間経過に伴って低下する生鮮食品の鮮度を、連続的な多波長の光の反射率特性の情報を取得することで判定する方法を開示している。 Patent Document 2 discloses a method of determining the freshness of a fresh food that decreases with the passage of time by acquiring information on the reflectance characteristics of continuous multi-wavelength light.
多波長の画像または反射率を測定できるハイパースペクトルカメラは、以下の4つの方式に大別できる。
(a)ラインセンサ方式
(b)電子フィルタ方式
(c)フーリエ変換方式
(d)干渉フィルタ方式
Hyperspectral cameras that can measure multi-wavelength images or reflectivity can be broadly classified into the following four methods.
(A) Line sensor method (b) Electronic filter method (c) Fourier transform method (d) Interference filter method
(a)ラインセンサ方式では、ライン状のスリットを有する部材を用いて対象物の1次元情報が取得される。スリットを通過した光は、回折格子やプリズムなどの分光素子によって波長に応じて分離される。分離された波長ごとの光は、2次元に配列された複数の画素を有する撮像素子(イメージセンサ)によって検出される。この方式では、一度に測定対象物の1次元情報しか得られないため、カメラ全体あるいは測定対象物をスリット方向に垂直に走査することによって2次元のスペクトル情報を得る。ラインセンサ方式では、高解像度の多波長画像が得られるという利点がある。特許文献3は、ラインセンサ方式のハイパースペクトルカメラの例を開示している。 (A) In the line sensor method, one-dimensional information of an object is acquired using a member having a line-shaped slit. The light that has passed through the slit is separated according to the wavelength by a spectroscopic element such as a diffraction grating or a prism. The separated light for each wavelength is detected by an image sensor (image sensor) having a plurality of pixels arranged two-dimensionally. In this method, since only one-dimensional information of the measurement object can be obtained at a time, two-dimensional spectrum information is obtained by scanning the entire camera or the measurement object perpendicularly to the slit direction. The line sensor method has an advantage that a high-resolution multi-wavelength image can be obtained. Patent Document 3 discloses an example of a hyperspectral camera of a line sensor system.
(b)電子フィルタ方式には、液晶チューナブルフィルタ(Liquid Crystal Tunable Filter:LCTF)を用いる方法と、音響光学素子(Acousto−Optic Tunable Filter:AOTF)を用いる方法とがある。液晶チューナブルフィルタは、リニアポラライザ、複屈折フィルタ、および液晶セルを多段に並べた素子である。電圧制御だけで不要な波長の光を排除し任意の特定波長の光のみを抽出できる。音響光学素子は、圧電素子が接着された音響光学結晶によって構成される。音響光学結晶に電気信号を印加すると、超音波が発生し、結晶内に疎密の定常波が形成される。それによる回折効果によって任意の特定波長の光のみを抽出することができる。この方式は、波長が限定されるが高解像度の動画のデータを取得できるという利点がある。 (B) The electronic filter method includes a method using a liquid crystal tunable filter (Liquid Crystal Tunable Filter: LCTF) and a method using an acousto-optic tunable filter (AOTF). The liquid crystal tunable filter is an element in which a linear polarizer, a birefringent filter, and liquid crystal cells are arranged in multiple stages. Only light of an arbitrary specific wavelength can be extracted by removing light of an unnecessary wavelength only by voltage control. The acoustooptic element is composed of an acoustooptic crystal to which a piezoelectric element is bonded. When an electrical signal is applied to the acousto-optic crystal, ultrasonic waves are generated, and a dense standing wave is formed in the crystal. Only light of any specific wavelength can be extracted by the diffraction effect thereby. This method has an advantage that high-resolution moving image data can be acquired although the wavelength is limited.
(c)フーリエ変換方式は、2光束干渉計の原理を用いる。測定対象からの光束はビームスプリッターで分岐され、それぞれの光束が固定ミラーおよび移動ミラーで反射され、再度結合した後、検出器で観測される。移動ミラーの位置を時間的に変動させることにより、光の波長に依存した干渉の強度変化を示すデータを取得することができる。得られたデータをフーリエ変換することにより、スペクトル情報が得られる。フーリエ変換方式の利点は、多波長の情報を同時に取得できることである。 (C) The Fourier transform method uses the principle of a two-beam interferometer. The light beams from the measurement object are branched by a beam splitter, and the respective light beams are reflected by a fixed mirror and a moving mirror, recombined, and then observed by a detector. By changing the position of the moving mirror with time, it is possible to acquire data indicating the intensity change of interference depending on the wavelength of light. Spectral information is obtained by Fourier transforming the obtained data. The advantage of the Fourier transform method is that multi-wavelength information can be acquired simultaneously.
(d)干渉フィルタ方式は、ファブリペロー干渉計の原理を用いた方式である。所定の間隔だけ離れた反射率の高い2つの面を有する光学素子をセンサ上に配置した構成が用いられる。光学素子の2面間の間隔は領域ごとに異なり、所望の波長の光の干渉条件に一致するように決定される。干渉フィルタ方式は、多波長の情報を同時にかつ動画で取得できるという利点がある。 (D) The interference filter method is a method using the principle of a Fabry-Perot interferometer. A configuration is used in which an optical element having two highly reflective surfaces separated by a predetermined distance is arranged on the sensor. The distance between the two surfaces of the optical element is different for each region, and is determined so as to match the interference condition of light of a desired wavelength. The interference filter method has an advantage that multi-wavelength information can be acquired simultaneously and in a moving image.
これらの方式以外にも、例えば特許文献4に開示されているように、圧縮センシングを利用した方法もある。特許文献4に開示された装置は、測定対象からの光をプリズム等の第1の分光素子で分光した後、符号化マスクでマーキングし、さらに第2の分光素子によって光線の経路を戻す。これにより、符号化され、かつ波長軸に関して多重化された画像がセンサによって取得される。多重化された画像から圧縮センシングの適用により、多波長の複数枚の画像を再構成することができる。 In addition to these methods, there is also a method using compressed sensing as disclosed in Patent Document 4, for example. The apparatus disclosed in Patent Document 4 separates light from a measurement target with a first spectroscopic element such as a prism, marks it with an encoding mask, and further returns the path of the light beam with the second spectroscopic element. Thereby, an image encoded and multiplexed with respect to the wavelength axis is acquired by the sensor. A plurality of images with multiple wavelengths can be reconstructed from the multiplexed images by applying compressed sensing.
圧縮センシングとは、少ないサンプル数の取得データから、それよりも多くのデータを復元する技術である。測定対象の2次元座標を(x、y)、波長をλとすると、求めたいデータfは、x、y、λの3次元のデータである。これに対し、センサによって得られる画像データgは、λ軸方向に圧縮および多重化された2次元のデータである。相対的にデータ量が少ない取得画像gから、相対的にデータ量が多いデータfを求める問題は、いわゆる不良設定問題であり、このままでは解くことができない。しかし、一般に、自然画像のデータは冗長性を有しており、それを巧みに利用することでこの不良設定問題を良設定問題に変換することができる。画像の冗長性を活用してデータ量を削減する技術の例に、jpeg圧縮がある。jpeg圧縮は、画像情報を周波数成分に変換し、データの本質的でない部分、例えば、視覚の認識性が低い成分を除去するといった方法が用いられる。圧縮センシングでは、このような技法を演算処理に組入れ、求めたいデータ空間を冗長性で表された空間に変換することで未知数を削減し解を得る。この変換には、例えば、離散的コサイン変換(DCT)、ウェーブレット変換、フーリエ変換、トータルバリエーション(TV)等が使用される。 Compressed sensing is a technique for restoring more data from acquired data with a small number of samples. If the two-dimensional coordinates of the measurement target are (x, y) and the wavelength is λ, the data f to be obtained is three-dimensional data of x, y, λ. On the other hand, the image data g obtained by the sensor is two-dimensional data compressed and multiplexed in the λ axis direction. The problem of obtaining data f having a relatively large amount of data from acquired image g having a relatively small amount of data is a so-called defect setting problem and cannot be solved as it is. However, in general, natural image data has redundancy, and this defect setting problem can be converted into a good setting problem by skillfully using it. An example of a technique for reducing the amount of data by utilizing image redundancy is jpeg compression. In the jpeg compression, a method is used in which image information is converted into frequency components, and non-essential portions of data, for example, components with low visual recognition are removed. In compressed sensing, such a technique is incorporated into arithmetic processing, and a data space to be obtained is converted into a space represented by redundancy, thereby reducing unknowns and obtaining a solution. For this conversion, for example, discrete cosine transform (DCT), wavelet transform, Fourier transform, total variation (TV) or the like is used.
従来の圧縮センシングを利用したハイパースペクトルカメラでは、プリズム等の分光素子が光路上に挿入される。このため、コマ収差が発生し、解像度が低下するという課題があった。 In a conventional hyperspectral camera using compressed sensing, a spectral element such as a prism is inserted in the optical path. For this reason, the coma aberration generate | occur | produced and the subject that the resolution fell occurred.
本開示は、コマ収差の発生およびそれに伴う解像度の低下を抑制し得る新たな撮像技術を提供する。 The present disclosure provides a new imaging technique that can suppress the occurrence of coma aberration and the accompanying decrease in resolution.
本開示の一態様に係る分光素子は、光入射面および光出射面が略平行になるように少なくとも2つのプリズムを接合することによって構成される分光素子であって、前記2つのプリズムは、特定の波長の光の屈折率が略一致し、かつ、前記特定の波長の光についてのアッベ数が異なっている。 A spectroscopic element according to an aspect of the present disclosure is a spectroscopic element configured by joining at least two prisms such that a light incident surface and a light output surface are substantially parallel to each other, and the two prisms are specified. The refractive indexes of the light beams having the same wavelengths are substantially the same, and the Abbe numbers of the light beams having the specific wavelengths are different.
本開示の他の態様に係る撮像装置は、対象物から入射する光の光路上に配置され、第1の光透過率を有する複数の領域と、前記第1の光透過率よりも低い第2の光透過率を有する複数の領域とを有する符号化素子と、前記符号化素子を通過した光の光路上に配置され、前記光を波長に応じて分散させる分光素子と、前記分光素子を通過した光の光路上に配置され、前記分光素子によって分散した光の複数の波長帯域の成分が重畳した画像を取得する撮像素子と、を備える。前記分光素子は、光入射面および光出射面が略平行になるように少なくとも2つのプリズムを接合することによって構成され、前記2つのプリズムは、特定の波長の光の屈折率が略一致し、かつ、前記特定の波長の光についてのアッベ数が異なり、略平行な光入射面および光出射面を有する。 An imaging device according to another aspect of the present disclosure is disposed on an optical path of light incident from an object, has a plurality of regions having a first light transmittance, and a second lower than the first light transmittance. A plurality of regions having a plurality of light transmittances, a spectroscopic element that is disposed on an optical path of light that has passed through the encoding element, and disperses the light according to a wavelength, and passes through the spectroscopic element And an image sensor that acquires an image on which components of a plurality of wavelength bands of light dispersed by the spectroscopic element are superimposed. The spectroscopic element is configured by joining at least two prisms such that a light incident surface and a light exit surface are substantially parallel, and the two prisms have substantially the same refractive index of light of a specific wavelength, And the Abbe number about the said specific wavelength light differs, and has a substantially parallel light-incidence surface and light-projection surface.
本開示によれば、コマ収差の発生およびそれに伴う解像度の低下を抑制することができる。 According to the present disclosure, it is possible to suppress the occurrence of coma aberration and the accompanying decrease in resolution.
本開示の実施の形態を説明する前に、本発明者によって見出された知見を説明する。 Prior to describing the embodiments of the present disclosure, knowledge found by the present inventors will be described.
本発明者の検討によれば、上述した従来のハイパースペクトルカメラには、以下のような課題がある。(a)ラインセンサ方式は、2次元画像を得るためにカメラを走査する必要があり、測定対象の動画撮影には不向きである。(c)フーリエ変換方式も、反射鏡を移動させる必要があるため、動画撮影には不向きである。(b)電子フィルタ方式は、1波長ずつ画像を取得するため、多波長の画像を同時に取得できない。(d)干渉フィルタ方式は、画像を取得できる波長の帯域数と空間分解能とがトレードオフとなるため、多波長画像を取得する場合、空間分解能が犠牲になる。このように、既存のハイパースペクトルカメラには、高解像度、多波長、動画撮影(ワンショット撮影)の3つを同時に満足するものは存在しない。 According to the study of the present inventor, the conventional hyperspectral camera described above has the following problems. (A) The line sensor method needs to scan a camera in order to obtain a two-dimensional image, and is not suitable for taking a moving image of a measurement target. (C) The Fourier transform method is also not suitable for moving image shooting because it is necessary to move the reflecting mirror. (B) Since the electronic filter method acquires images one wavelength at a time, multi-wavelength images cannot be acquired simultaneously. (D) In the interference filter system, the number of wavelength bands from which an image can be acquired and the spatial resolution are traded off, and thus, when acquiring a multi-wavelength image, the spatial resolution is sacrificed. Thus, there is no existing hyperspectral camera that satisfies the three requirements of high resolution, multiple wavelengths, and moving image shooting (one-shot shooting) at the same time.
圧縮センシングを利用した構成は、一見すると高解像度、多波長、動画撮影を同時に満たすことができるようにも思われる。しかし、もともと少ないデータから推測に基づいて画像を再構成するため、取得される画像の空間解像度は本来の画像に比べて低下しやすい。特に取得データの圧縮率が高いほどその影響が顕著に現れる。さらに、プリズム等の分光素子が光路上に挿入されるため、コマ収差が発生し、解像度が低下するという課題があった。 At first glance, the configuration using compressed sensing seems to be able to satisfy high resolution, multiple wavelengths, and video shooting at the same time. However, since the image is originally reconstructed based on estimation from a small amount of data, the spatial resolution of the acquired image tends to be lower than that of the original image. In particular, the higher the compression rate of acquired data, the more pronounced the effect. Furthermore, since a spectroscopic element such as a prism is inserted in the optical path, there is a problem that coma aberration occurs and resolution is lowered.
本発明者は、上記の課題を見出し、これらの課題を解決するための構成を検討した。本発明者は、異なる複数の材料を適切に組み合わせて分光素子を構成することにより、コマ収差の発生を抑え、解像度を向上させることができることに着目した。本開示のある実施の形態によれば、高解像度、多波長、動画撮影(ワンショット撮影)の3つの要求を同時に満たすことができる。また、本開示の実施の形態では、x方向、y方向、波長方向の3次元情報のうち波長方向の情報が圧縮される。したがって、2次元データを保有するだけで済み、データ量を抑えることができる。このため、本開示の実施の形態は長時間のデータ取得に有効である。 The present inventor has found the above-mentioned problems and studied a configuration for solving these problems. The inventor has paid attention to the fact that coma aberration can be suppressed and the resolution can be improved by configuring a spectroscopic element by appropriately combining a plurality of different materials. According to an embodiment of the present disclosure, three requirements of high resolution, multiple wavelengths, and moving image shooting (one-shot shooting) can be satisfied at the same time. In the embodiment of the present disclosure, the information in the wavelength direction is compressed among the three-dimensional information in the x direction, the y direction, and the wavelength direction. Therefore, it is only necessary to hold two-dimensional data, and the amount of data can be suppressed. For this reason, the embodiment of the present disclosure is effective for long-term data acquisition.
本開示は、以下の項目に記載の撮像装置、システム、および方法を含む。 The present disclosure includes an imaging device, a system, and a method described in the following items.
[項目1]
光入射面および光出射面が略平行になるように少なくとも2つのプリズムを接合することによって構成される分光素子であって、
前記2つのプリズムは、特定の波長の光の屈折率が略一致し、かつ、前記特定の波長の光についてのアッベ数が異なっている、
分光素子。
[項目2]
前記2つのプリズムの接合面が平面状である項目1に記載の分光素子。
[項目3]
対象物から入射する光の光路上に配置され、第1の光透過率を有する複数の領域と、前記第1の光透過率よりも低い第2の光透過率を有する複数の領域とを有する符号化素子と、
前記符号化素子を通過した光の光路上に配置され、前記光を波長に応じて分散させる分光素子と、
前記分光素子を通過した光の光路上に配置され、前記分光素子によって分散した光の複数の波長帯域の成分が重畳した画像を取得する撮像素子と、
を備え、
前記分光素子は、光入射面および光出射面が略平行になるように少なくとも2つのプリズムを接合することによって構成され、前記2つのプリズムは、特定の波長の光の屈折率が略一致し、かつ、前記特定の波長の光についてのアッベ数が異なり、略平行な光入射面および光出射面を有する、
撮像装置。
[項目4]
前記2つのプリズムの接合面が平面状である項目3に記載の撮像装置。
[項目5]
前記対象物と前記符号化素子との間に配置され、前記対象物からの光を、前記符号化素子の面上に集束させる第1の光学系と、
前記符号化素子と前記分光素子との間に配置され、前記符号化素子を通過した光を前記撮像素子の撮像面上に集束させる第2の光学系と、
をさらに備える項目3または4に記載の撮像装置。
[項目6]
前記符号化素子と前記分光素子との間に配置され、前記符号化素子を通過した光を前記撮像素子の撮像面上に集束させる光学系をさらに備える項目3または4に記載の撮像装置。
[項目7]
前記画像と、前記符号化素子における光透過率の空間分布とに基づいて、前記分光素子を通過した光の波長帯域ごとの複数の画像を生成する信号処理回路をさらに備える、項目3から6のいずれかに記載の撮像装置。
[項目8]
前記信号処理回路は、統計的方法によって前記波長ごとの複数の画像を生成する、項目7に記載の撮像装置。
[項目9]
前記光の波長帯域ごとの複数の画像におけるデータ数は、前記撮像素子によって取得される前記画像におけるデータ数よりも多い、項目7または8に記載の撮像装置。
[項目10]
前記信号処理回路は、前記撮像素子によって取得される前記画像における複数の画素の信号値を要素とするベクトルgと、前記符号化素子における光透過率の空間分布および前記分光素子の分光特性によって決定される行列Hとを用いて、
(Φ(f)は正則化項、τは重み係数)
の式に基づいて推定されるベクトルf’を、前記波長帯域ごとの複数の画像として生成する、
項目7から9のいずれかに記載の撮像装置。
[項目11]
前記信号処理回路は、前記波長帯域ごとの複数の画像を動画像として生成する、項目7から10のいずれかに記載の撮像装置。
[項目12]
項目2から6のいずれかに記載の撮像装置と、
前記画像と、前記符号化素子における光透過率の空間分布とに基づいて、前記少なくとも1つの分光素子を通過した光の波長帯域ごとの複数の画像を生成する信号処理装置と、
を備える分光システム。
[項目13]
対象物から入射する光の光路上に配置され、第1の光透過率を有する複数の領域と、前記第1の光透過率よりも低い第2の光透過率を有する複数の領域とを有する符号化素子を用いて入射光の強度を変調させるステップと、
前記符号化素子を通過した光を、分光素子を用いて波長に応じて分散させ、撮像素子の撮像面上に像を形成するステップであって、前記分光素子は、光入射面および光出射面が略平行になるように少なくとも2つのプリズムを接合することによって構成され、前記2つのプリズムは、特定の波長の光の屈折率が略一致し、かつ、前記特定の波長の光についてのアッベ数が異なっている、ステップと、
前記分光素子を通過した光の複数の波長帯域の成分が重畳した画像を取得するステップと、
前記画像と、前記符号化素子における光透過率の空間分布とに基づいて、前記分光素子を通過した光の波長帯域ごとの複数の画像を生成するステップと、
を含む分光方法。
[Item 1]
A spectroscopic element configured by joining at least two prisms such that a light incident surface and a light output surface are substantially parallel,
The two prisms have substantially the same refractive index of light of a specific wavelength and different Abbe numbers for the light of the specific wavelength.
Spectroscopic element.
[Item 2]
Item 2. The spectroscopic element according to
[Item 3]
A plurality of regions disposed on an optical path of light incident from the object and having a first light transmittance; and a plurality of regions having a second light transmittance lower than the first light transmittance. An encoding element;
A spectroscopic element that is disposed on an optical path of light that has passed through the encoding element and disperses the light according to a wavelength;
An image sensor that is arranged on an optical path of light that has passed through the spectroscopic element and acquires an image in which components of a plurality of wavelength bands of light dispersed by the spectroscopic element are superimposed;
With
The spectroscopic element is configured by joining at least two prisms such that a light incident surface and a light exit surface are substantially parallel, and the two prisms have substantially the same refractive index of light of a specific wavelength, And the Abbe number for the light of the specific wavelength is different, and has a substantially parallel light incident surface and light exit surface,
Imaging device.
[Item 4]
Item 4. The imaging device according to Item 3, wherein the joint surface of the two prisms is planar.
[Item 5]
A first optical system disposed between the object and the encoding element and focusing light from the object on a surface of the encoding element;
A second optical system that is disposed between the encoding element and the spectroscopic element and focuses light that has passed through the encoding element on an imaging surface of the imaging element;
[Item 6]
5. The imaging apparatus according to item 3 or 4, further comprising an optical system that is disposed between the encoding element and the spectroscopic element and focuses light that has passed through the encoding element on an imaging surface of the imaging element.
[Item 7]
Items 3 to 6, further comprising a signal processing circuit that generates a plurality of images for each wavelength band of light that has passed through the spectroscopic element based on the image and a spatial distribution of light transmittance in the encoding element. The imaging device according to any one of the above.
[Item 8]
8. The imaging device according to item 7, wherein the signal processing circuit generates a plurality of images for each wavelength by a statistical method.
[Item 9]
The imaging device according to item 7 or 8, wherein the number of data in the plurality of images for each wavelength band of light is larger than the number of data in the image acquired by the imaging device.
[Item 10]
The signal processing circuit is determined based on a vector g having elements of signal values of a plurality of pixels in the image acquired by the imaging element, a spatial distribution of light transmittance in the encoding element, and spectral characteristics of the spectral element. Using the matrix H
(Φ (f) is a regularization term, τ is a weighting factor)
A vector f ′ estimated based on the equation is generated as a plurality of images for each wavelength band.
The imaging device according to any one of items 7 to 9.
[Item 11]
The imaging device according to any one of items 7 to 10, wherein the signal processing circuit generates a plurality of images for each wavelength band as moving images.
[Item 12]
The imaging device according to any one of items 2 to 6,
A signal processing device that generates a plurality of images for each wavelength band of light that has passed through the at least one spectroscopic element based on the image and a spatial distribution of light transmittance in the encoding element;
A spectroscopic system comprising:
[Item 13]
A plurality of regions disposed on an optical path of light incident from the object and having a first light transmittance; and a plurality of regions having a second light transmittance lower than the first light transmittance. Modulating the intensity of incident light using an encoding element;
The light passing through the encoding element is dispersed according to the wavelength using a spectroscopic element to form an image on the imaging surface of the image sensor, the spectroscopic element comprising a light incident surface and a light output surface Are joined to each other so that the refractive indexes of the two wavelengths are substantially the same, and the Abbe number for the light of the specific wavelength is substantially the same. Are different, steps,
Obtaining an image in which components of a plurality of wavelength bands of light passing through the spectroscopic element are superimposed;
Generating a plurality of images for each wavelength band of light that has passed through the spectroscopic element based on the image and a spatial distribution of light transmittance in the encoding element;
A spectroscopic method comprising:
以下、図面を参照しながら、本開示のより具体的な実施の形態を説明する。以下の説明では、画像を示す信号(各画素の画素値を表す信号の集合)を、単に「画像」と称することがある。以下の説明において、図中に示されたxyz座標を用いる。 Hereinafter, more specific embodiments of the present disclosure will be described with reference to the drawings. In the following description, a signal indicating an image (a set of signals indicating pixel values of each pixel) may be simply referred to as “image”. In the following description, the xyz coordinates shown in the figure are used.
(実施の形態1)
図1は、実施の形態1の分光素子Pを模式的に示す斜視図である。分光素子Pは、2つのプリズムP1、P2を組み合わせた多段プリズムによって構成される。分光素子Pは、光線が入射する面(以下、「光入射面」と称することがある。)と当該光線が出射する面(以下、「光出射面」と称することがある。)とが略平行になるように構成されている。プリズムP1、P2をそれぞれ構成する2つの材料は、特定の波長の光に対する屈折率が略一致し、その波長の光に関するアッベ数が異なる(好ましくは乖離する)材料から選択される。特定の波長は、例えば所望の分光波長範囲内の代表的な波長(主波長)に設定され得る。主波長は、例えば測定対象の波長範囲における中心波長または重視する波長であり得る。ここでアッベ数が「乖離する」とは、2つの材料のアッベ数の差分が、10以上であることを意味する。2つの材料のアッベ数の差分は、好ましくは15以上であり、さらに好ましくは20以上である。2つの材料の屈折率が略一致するとは、両者の屈折率の差分が0.05以下であり、好ましくは0.02以下であることを意味する。
(Embodiment 1)
FIG. 1 is a perspective view schematically showing the spectroscopic element P of the first embodiment. The spectroscopic element P is configured by a multistage prism in which two prisms P1 and P2 are combined. In the spectroscopic element P, a light incident surface (hereinafter sometimes referred to as a “light incident surface”) and a surface from which the light is emitted (hereinafter also referred to as a “light emergence surface”) are approximately. It is comprised so that it may become parallel. The two materials constituting each of the prisms P1 and P2 are selected from materials that have substantially the same refractive index for light of a specific wavelength and have different (preferably different) Abbe numbers for light of that wavelength. The specific wavelength can be set, for example, to a representative wavelength (main wavelength) within a desired spectral wavelength range. The dominant wavelength can be, for example, the center wavelength in the wavelength range to be measured or the important wavelength. Here, the “absence” of the Abbe number means that the difference between the Abbe numbers of the two materials is 10 or more. The difference between the Abbe numbers of the two materials is preferably 15 or more, and more preferably 20 or more. The fact that the refractive indexes of the two materials are substantially the same means that the difference between the refractive indexes of the two materials is 0.05 or less, and preferably 0.02 or less.
本明細書におけるアッベ数は、一般に用いられるフラウンホーファー線の波長に関するアッベ数に限らず、任意の波長について定義してもよい。本開示では、λa<λb<λcを満たす任意の波長λa、λb、λcについて、アッベ数νbを、以下の(数1)のように定義することができる。
ここで、na、nb、ncは、それぞれ、波長λa、λb、λcにおける屈折率を表す。λa、λcは任意の波長で良いが、例えば、λbよりも使用波長帯域の始端、終端に近い波長を選択すると良い。
The Abbe number in this specification is not limited to the Abbe number related to the wavelength of the Fraunhofer line that is generally used, but may be defined for any wavelength. In the present disclosure, for any wavelengths λa, λb, and λc that satisfy λa <λb <λc, the Abbe number νb can be defined as the following (Equation 1).
Here, na, nb, and nc represent refractive indexes at wavelengths λa, λb, and λc, respectively. λa and λc may be arbitrary wavelengths. For example, it is preferable to select a wavelength closer to the start and end of the used wavelength band than λb.
本実施の形態では、分光素子Pの光線が入射する面と光線が出射する面とを略平行にすることにより、コマ収差の発生を抑制することができる。ここで「略平行」とは、厳密に平行な場合に限らず、2つの面のなす角度が3°以下である場合を含む。この角度は、好ましくは1°以下に設定され、さらに好ましくは、0.5°以下に設定される。図1に示すような分光素子Pを、後述する撮像装置に用いることにより、生成される波長帯域ごとの画像の解像度の劣化を低減できる。この効果については、後に実施例1および比較例1の結果を参照しながら説明する。 In the present embodiment, the occurrence of coma aberration can be suppressed by making the light incident surface of the spectroscopic element P substantially parallel to the surface from which the light is emitted. Here, “substantially parallel” is not limited to being strictly parallel, but includes a case where the angle formed by two surfaces is 3 ° or less. This angle is preferably set to 1 ° or less, and more preferably 0.5 ° or less. By using the spectroscopic element P as shown in FIG. 1 for an imaging apparatus described later, it is possible to reduce degradation of the resolution of an image for each generated wavelength band. This effect will be described later with reference to the results of Example 1 and Comparative Example 1.
本実施の形態では、2つのプリズムの接合面は平面状である。接合面が曲面形状の場合、ある範囲の入射角度の光線については収差を補正できても、別の範囲の入射角度の光線については収差が補正できないことがあり得る。2つのプリズムの接合面を平面状にすることにより、光線の入射角度によらずに収差を補正することができる。接合面は厳密に平面状である必要はなく、多少の湾曲または凹凸の存在は許容される。 In the present embodiment, the joint surface of the two prisms is planar. When the joint surface has a curved surface shape, it may be possible to correct the aberration for a light beam having a certain range of incident angles, but not for the light beam having a different range of incident angles. By making the joint surface of the two prisms planar, aberration can be corrected regardless of the incident angle of the light beam. The joining surface does not need to be strictly planar, and some curvature or unevenness is allowed.
分光素子Pの構成は、2個のプリズムを接合したものに限定されない。例えば、3個以上のプリズムを貼り合わせ、光入射面と光出射面とが略平行になるように構成した多段プリズムを用いてもよい。 The configuration of the spectroscopic element P is not limited to a configuration in which two prisms are joined. For example, a multi-stage prism may be used in which three or more prisms are bonded together so that the light incident surface and the light output surface are substantially parallel to each other.
図2Aは、3つのプリズムP1〜P3を貼り合わせた3段の構成例を示している。図2Bは、4つのプリズムP1〜P4を貼り合わせた4段の構成例を示している。これらの例に限定されず、5つ以上のプリズムを接合した構成であってもよい。このような構成においても、特定の波長の光の屈折率が互いに略一致し、かつ、特定の波長の光に対するアッベ数が互いに乖離した複数の材料からプリズムPが構成され得る。また、光入射面と光出射面とが略平行になるように構成される。材料は2種類に限定されず、3種類以上の材料を用いてもよい。3種類以上の材料を用いる場合、少なくとも2種類の材料について、特定の波長における屈折率が略一致し、アッベ数が乖離していればよい。 FIG. 2A shows a three-stage configuration example in which three prisms P1 to P3 are bonded together. FIG. 2B shows a four-stage configuration example in which four prisms P1 to P4 are bonded together. It is not limited to these examples, The structure which joined 5 or more prisms may be sufficient. Even in such a configuration, the prism P can be formed of a plurality of materials in which the refractive indexes of light of a specific wavelength are approximately the same and the Abbe numbers for the light of a specific wavelength are different from each other. Further, the light incident surface and the light emitting surface are configured to be substantially parallel. The material is not limited to two types, and three or more types of materials may be used. When three or more kinds of materials are used, it is only necessary that the refractive indices at specific wavelengths are substantially the same and the Abbe numbers are different for at least two kinds of materials.
表1は、d線を主波長とした場合の分光素子Pの材料の組合せの例を示している。表1において、波長領域は可視光域を想定し、d線のアッベ数νdは、以下の(数2)で定義される。
ここで、nd、nF、nCは、それぞれ、d線、F線、およびC線の屈折率を表している。d線は587.56nm、F線は486.1nm、C線は656.3nmの光線である。 Here, n d , n F , and n C represent the refractive indexes of the d line, the F line, and the C line, respectively. The d-line is 587.56 nm, the F-line is 486.1 nm, and the C-line is 656.3 nm.
表1では、材料名として、HOYA株式会社製のガラス材料の名称を記載しているが、これに限定されない。他のガラスメーカの材料を用いてもよい。材料の組合せは、表1に示す例に限定されず、同種の材料の組み合わせを用いてもよい。主波長の屈折率が互いに略一致し、かつ、主波長のアッベ数が互いに乖離する材料の組合せであれば、各材料を任意に選択してよい。分光素子Pを構成する少なくとも2つの材料は、表1の番号125の組み合わせのように、ガラス材料と樹脂材料との組合せでもよいし、樹脂材料同士の組み合わせでも良い。さらに、表1の番号126の組み合わせのように、樹脂材料(例えばアクリレート系樹脂)に無機粒子(例えばジルコニア)を分散させたコンポジット材料を使用しても良い。 In Table 1, although the name of the glass material made from HOYA Corporation is described as a material name, it is not limited to this. Other glass manufacturer materials may be used. The combination of materials is not limited to the example shown in Table 1, and a combination of the same types of materials may be used. Each material may be arbitrarily selected as long as the refractive indices of the main wavelengths are substantially the same and the Abbe numbers of the main wavelengths are different from each other. The at least two materials constituting the spectroscopic element P may be a combination of a glass material and a resin material or a combination of resin materials as in the combination of number 125 in Table 1. Further, a composite material in which inorganic particles (for example, zirconia) are dispersed in a resin material (for example, acrylate resin) may be used as in the combination of number 126 in Table 1.
本開示における光の波長領域は可視光域に限定されず、紫外光、近赤外、中赤外、遠赤外やその他の波長領域でも良い。また、アッベ数の計算に使用される波長も任意に設定してよい。 The wavelength region of light in the present disclosure is not limited to the visible light region, and may be ultraviolet light, near infrared, mid infrared, far infrared, and other wavelength regions. Further, the wavelength used for calculating the Abbe number may be arbitrarily set.
以下の表2は、s線を主波長とする場合の分光素子Pを構成する2つの材料の組合せの例を示している。この例における波長領域は近赤外光域を想定している。s線のアッベ数νsは、以下の(数3)に示すように定義される。
ここで、s線は852.11nm、r線は706.52nm、t線は1013.98nmの波長の光線である。nsはs線の屈折率、nrはr線の屈折率、ntはt線の屈折率を表す。
Table 2 below shows an example of a combination of two materials constituting the spectroscopic element P when the s-line is the main wavelength. The wavelength region in this example assumes a near infrared light region. The Abbe number ν s of the s line is defined as shown in the following (Equation 3).
Here, the s-line is a light beam having a wavelength of 852.11 nm, the r-line is 706.52 nm, and the t-line is 101.98 nm. ns represents the refractive index of the s line, nr represents the refractive index of the r line, and nt represents the refractive index of the t line.
光軸に垂直な面に対する分光素子Pの接合面の傾斜角が大きいほど、分光の程度(以下、「分光量」とも呼ぶ。)が大きくなる。また、分光素子Pと撮像素子との間隔を広くするほど分光量が大きくなる。したがって、分光素子Pの接合面の傾斜角および/または分光素子Pと撮像素子との間隔を変えることによって分光量を調整できる。接合面の傾斜角を大きくすると、それに伴う収差も大きくなる。これに対し、分光素子Pと撮像素子との間の距離を大きくした場合は収差の変化は小さい。したがって、光学系のフランジバックに余裕がある場合には、分光素子Pの接合面の傾斜角を小さく設計し、分光素子Pと撮像素子との間の距離を長くすることによって分光量を確保することができる。光軸に垂直な面に対する分光素子Pの接合面の傾斜角は、例えば5度以上30度以下の角度に設定され、ある例では10度、20度といった角度に設定され得る。光学系のフランジバックに余裕がない場合は、分光素子Pの接合面の傾斜角を変えることによって分光量を調整する必要がある。その傾斜角は任意の角度に設定してよい。 The greater the inclination angle of the joint surface of the spectroscopic element P with respect to the plane perpendicular to the optical axis, the greater the degree of spectroscopy (hereinafter also referred to as “spectral quantity”). Further, as the distance between the spectroscopic element P and the image sensor increases, the spectroscopic amount increases. Therefore, the spectral amount can be adjusted by changing the inclination angle of the joint surface of the spectroscopic element P and / or the distance between the spectroscopic element P and the imaging element. When the inclination angle of the joint surface is increased, the associated aberration increases. On the other hand, when the distance between the spectroscopic element P and the imaging element is increased, the change in aberration is small. Therefore, when there is a margin in the flange back of the optical system, the inclination angle of the joint surface of the spectroscopic element P is designed to be small, and the distance between the spectroscopic element P and the imaging element is increased to ensure the spectral amount. be able to. The inclination angle of the joint surface of the spectroscopic element P with respect to the plane perpendicular to the optical axis is set to, for example, an angle of 5 degrees or more and 30 degrees or less, and in an example, may be set to an angle of 10 degrees or 20 degrees. When there is no margin in the flange back of the optical system, it is necessary to adjust the spectral amount by changing the inclination angle of the joint surface of the spectroscopic element P. The inclination angle may be set to an arbitrary angle.
以上のような分光素子Pを用いることにより、後述するように、コマ収差の発生を抑制することができる。これにより、解像度の低下が抑制された波長帯域ごとの複数の画像を取得することが可能になる。 By using the spectral element P as described above, the occurrence of coma aberration can be suppressed as will be described later. Thereby, it becomes possible to acquire a plurality of images for each wavelength band in which a decrease in resolution is suppressed.
(実施の形態2)
図3は、実施の形態2の撮像装置D1を示す模式図である。本実施の形態の撮像装置D1は、結像光学系L1、L2と、符号化素子Cと、分光素子Pと、撮像素子Sとを備える。図3には、撮像素子Sから出力された画像信号を処理する信号処理回路Prも描かれている。信号処理回路Prは、撮像装置D1に組み込まれていてもよいし、撮像装置D1に有線または無線で電気的に接続された信号処理装置の構成要素であってもよい。信号処理回路Prは、撮像素子Sによって取得された画像Gに基づいて、測定対象物Oからの光の波長帯域ごとに分離された複数の画像(以下、「分光分離画像」または「多波長画像」と称することがある。)Fを推定する。
(Embodiment 2)
FIG. 3 is a schematic diagram illustrating the imaging device D1 according to the second embodiment. The imaging device D1 of the present embodiment includes imaging optical systems L1 and L2, an encoding element C, a spectroscopic element P, and an imaging element S. FIG. 3 also shows a signal processing circuit Pr for processing the image signal output from the image sensor S. The signal processing circuit Pr may be incorporated in the imaging device D1, or may be a component of the signal processing device that is electrically connected to the imaging device D1 in a wired or wireless manner. The signal processing circuit Pr is based on the image G acquired by the image sensor S, and a plurality of images separated for each wavelength band of light from the measurement object O (hereinafter referred to as “spectral separation images” or “multiwavelength images”). )) F is estimated.
結像光学系L1、L2の各々は、少なくとも1つの撮像レンズを含む。図3では、それぞれ1つのレンズとして描かれているが、これらは複数のレンズの組み合わせによって構成されていてもよい。 Each of the imaging optical systems L1 and L2 includes at least one imaging lens. In FIG. 3, each lens is depicted as one lens, but these may be constituted by a combination of a plurality of lenses.
符号化素子Cは、結像光学系L1の結像面に配置されている。符号化素子Cは、光透過率の空間分布を有するマスクである。符号化素子Cは、第1の光透過率を有する複数の領域と、第1の光透過率よりも低い第2の光透過率を有する複数の領域とを少なくとも有する。符号化素子Cは、光線分離素子Bを透過して入射した光の強度を変調させて通過させる。 The encoding element C is disposed on the imaging surface of the imaging optical system L1. The encoding element C is a mask having a spatial distribution of light transmittance. The encoding element C has at least a plurality of regions having a first light transmittance and a plurality of regions having a second light transmittance lower than the first light transmittance. The encoding element C modulates the intensity of incident light that has passed through the light beam separating element B and allows it to pass therethrough.
図4は、符号化素子Cの光透過率の2次元分布の例を示す図である。図4(a)は、本実施の形態における符号化素子Cの透過率分布を示している。図4(a)において、黒い部分は光を殆ど透過させない領域(「遮光領域」と称する。)を、白い部分は光を透過させる領域(「透光領域」と称する。)を示している。この例では、白い部分の光透過率はほぼ100%であり、黒い部分の光透過率はほぼ0%である。符号化素子Cは、複数の矩形領域に分割されており、各矩形領域は、透光領域または遮光領域である。したがって、図4(a)に示す例では、符号化素子Cが、第1の光透過率が100%の複数の矩形領域と第2の光透過率がほぼ0%の複数の矩形領域とを有する。符号化素子Cにおける透光領域および遮光領域の2次元分布は、例えばランダム分布または準ランダム分布であり得る。 FIG. 4 is a diagram illustrating an example of a two-dimensional distribution of light transmittance of the encoding element C. FIG. 4A shows the transmittance distribution of the encoding element C in the present embodiment. In FIG. 4A, the black portion indicates a region that hardly transmits light (referred to as “light-shielding region”), and the white portion indicates a region that transmits light (referred to as “translucent region”). In this example, the light transmittance of the white portion is approximately 100%, and the light transmittance of the black portion is approximately 0%. The encoding element C is divided into a plurality of rectangular areas, and each rectangular area is a light transmitting area or a light shielding area. Therefore, in the example shown in FIG. 4A, the encoding element C includes a plurality of rectangular regions having a first light transmittance of 100% and a plurality of rectangular regions having a second light transmittance of approximately 0%. Have. The two-dimensional distribution of the light transmitting region and the light shielding region in the encoding element C can be, for example, a random distribution or a quasi-random distribution.
ランダム分布および準ランダム分布の考え方は次のとおりである。まず、符号化素子Cにおける各矩形領域は、光透過率に応じて、例えば1または0の値を有するベクトル要素とみなせる。言い換えると、一列に並んだ矩形領域の集合を1または0の値を有する多次元のベクトルとみなせる。したがって、符号化素子Cは、多次元ベクトルを行方向に複数備えている。このとき、ランダム分布とは、任意の2つの多次元ベクトルが独立である(平行でない)ことを意味する。また、準ランダム分布とは、一部の多次元ベクトル間で独立でない構成が含まれることを意味する。 The concept of random distribution and quasi-random distribution is as follows. First, each rectangular area in the encoding element C can be regarded as a vector element having a value of 1 or 0, for example, depending on the light transmittance. In other words, a set of rectangular regions arranged in a line can be regarded as a multidimensional vector having a value of 1 or 0. Therefore, the encoding element C includes a plurality of multidimensional vectors in the row direction. At this time, the random distribution means that any two multidimensional vectors are independent (not parallel). The quasi-random distribution means that a configuration that is not independent among some multidimensional vectors is included.
符号化素子Cによる符号化過程は、後続する分光素子Pによって分光された各波長の光による画像を区別するためのマーキングを行う過程といえる。そのようなマーキングが可能である限り、透過率の分布は任意に設定してよい。図4(a)に示す例では、黒い部分の数と白い部分の数との比率は1:1であるが、このような比率に限定されない。例えば、白い部分の数:黒い部分の数=1:9のような一方に偏りのある分布であってもよい。また、図4(b)に示すように、グレースケールの透過率分布を持つマスクであってもよい。この場合、符号化素子Cが、第1および第2の光透過率とは異なる第3の光透過率の複数の矩形領域を有する。符号化素子Cの透過率分布に関する情報は、設計データまたは実測キャリブレーションによって事前に取得される。 It can be said that the encoding process by the encoding element C is a process of performing marking for distinguishing images by light of each wavelength dispersed by the subsequent spectroscopic element P. As long as such marking is possible, the transmittance distribution may be arbitrarily set. In the example shown in FIG. 4A, the ratio of the number of black portions to the number of white portions is 1: 1, but is not limited to such a ratio. For example, the distribution may be biased on one side, such as the number of white portions: the number of black portions = 1: 9. Further, as shown in FIG. 4B, a mask having a gray scale transmittance distribution may be used. In this case, the encoding element C has a plurality of rectangular regions having a third light transmittance different from the first and second light transmittances. Information on the transmittance distribution of the encoding element C is acquired in advance by design data or actual calibration.
分光素子Pは、入射した光束を波長に応じて分散させる素子である。分光素子Pは、実施の形態1における分光素子Pと同じものである。分光素子Pは、主波長の屈折率が互いに略一致し、かつ、主波長のアッベ数が互いに乖離する2つの材料からなるプリズムの組合せで構成される。光線が入射する面と当該光線が出射する面とが略平行になるように構成されている。主波長は、前述のように、所望の分光波長範囲における代表的な波長であり、中心波長あるいは重視する波長であり得る。このような構成により、分光素子Pは、入射する光束を波長に応じて分散させる。光線の入射面と出射面とを略平行にすることで、コマ収差の発生を抑制することができる。これにより、後述する処理によって生成される分光分離画像Fの解像度の劣化を低減できる。 The spectroscopic element P is an element that disperses an incident light beam according to a wavelength. The spectroscopic element P is the same as the spectroscopic element P in the first embodiment. The spectroscopic element P is configured by a combination of prisms made of two materials whose refractive indices of the main wavelength are approximately equal to each other and whose Abbe numbers of the main wavelength are different from each other. The surface on which the light beam is incident and the surface on which the light beam is emitted are configured to be substantially parallel. As described above, the main wavelength is a representative wavelength in a desired spectral wavelength range, and may be a center wavelength or an important wavelength. With such a configuration, the spectroscopic element P disperses the incident light flux according to the wavelength. Generation of coma aberration can be suppressed by making the light incident surface and light exit surface substantially parallel. Thereby, degradation of the resolution of the spectrally separated image F generated by the process described later can be reduced.
符号化素子Cによって符号化された光は、結像光学系L2を通過して分光素子Pに入射する。本実施の形態における分光素子Pは、撮像素子S1の撮像面上に形成される光の像が、波長に応じてy方向(画像の縦方向)にずれるように分光する。撮像面におけるy方向のずれの程度(「分光量」と称することがある。)は、分光素子Pを構成する各材料の屈折率、アッベ数、接合面の傾斜角、および分光素子Pと撮像素子Sとの間の距離によって決定される。分光素子Pが回折光学素子の場合、回折格子のピッチを変えることで調整できる。本実施の形態では、分光素子Pはy方向に分光するが、x方向(画像の横方向)または他の方向に分光してもよい。また、測定対象物Oに応じて分光量または分光方向を変更してもよい。例えば、y方向に高周波のテクスチャ(横縞など)をもつ測定対象物Oに対しては、y方向ではなくx方向にシフトするように分光素子Pを構成してもよい。 The light encoded by the encoding element C passes through the imaging optical system L2 and enters the spectroscopic element P. The spectroscopic element P in the present embodiment splits the light image formed on the image pickup surface of the image pickup element S1 so as to shift in the y direction (vertical direction of the image) according to the wavelength. The degree of displacement in the y direction on the imaging surface (sometimes referred to as “spectral amount”) is the refractive index of each material constituting the spectroscopic element P, the Abbe number, the angle of inclination of the joint surface, and the spectroscopic element P and the imaging It is determined by the distance between the element S. When the spectroscopic element P is a diffractive optical element, it can be adjusted by changing the pitch of the diffraction grating. In the present embodiment, the spectroscopic element P splits in the y direction, but may split in the x direction (the horizontal direction of the image) or other directions. Further, the spectral amount or the spectral direction may be changed according to the measurement object O. For example, the spectroscopic element P may be configured to shift in the x direction instead of the y direction for the measurement object O having a high-frequency texture (horizontal stripes or the like) in the y direction.
分光素子Pによる撮像素子Sの撮像面上における像のシフト量は、設計仕様から演算によって、または実測キャリブレーションによって事前に算出しておく。分光素子Pによる分光シフトは、波長帯域ごとの離散的なシフトではなく、連続的なシフトである。一方、後述する信号処理回路では、所定幅の波長帯域ごとに分光分離画像Fが再構成される。そのため、厳密には、再構成される画像ごとの波長帯域内でも各波長の画像は撮像素子S上でシフトしている。分光分離画像Fの再構成の精度を向上させるためには、波長帯域内の画像のシフトを補正することが望ましい。この補正は、コンピュータ演算によって行ってもよいが、光学系の収差や実装誤差の影響も考慮すると、実測キャリブレーションによって行うことが望ましい。例えば、被写体として白板を測定対象物Oの位置に設置し、所望の各波長帯域の帯域通過フィルタを通して撮像素子S上に符号化素子Cの像を形成させることによってキャリブレーションを行うことができる。帯域ごとに帯域通過フィルタを交換して所望の全ての帯域のデータを取得してもよいが、いくつかの帯域を選択して測定し、それ以外の帯域については測定されたデータの補間によって算出してもよい。この方法により、分光素子Pによる分光シフト量が算出できるとともに、波長帯域ごとの符号化素子Cの透過率情報も取得できる。ここで算出されたキャリブレーションのデータに基づいて、後述の(数4)における行列Hの要素が決定される。 The shift amount of the image on the imaging surface of the imaging element S by the spectroscopic element P is calculated in advance from the design specification by calculation or by actual measurement calibration. The spectral shift by the spectral element P is not a discrete shift for each wavelength band but a continuous shift. On the other hand, in the signal processing circuit described later, the spectrally separated image F is reconstructed for each wavelength band of a predetermined width. Therefore, strictly speaking, the image of each wavelength is shifted on the image sensor S even within the wavelength band of each reconstructed image. In order to improve the accuracy of reconstruction of the spectrally separated image F, it is desirable to correct the shift of the image within the wavelength band. This correction may be performed by computer calculation, but is preferably performed by actual calibration in consideration of the effects of aberrations of the optical system and mounting errors. For example, calibration can be performed by placing a white plate as a subject at the position of the measurement object O and forming an image of the encoding element C on the imaging element S through a bandpass filter of each desired wavelength band. The band pass filter may be exchanged for each band to acquire all desired band data, but some bands are selected and measured, and other bands are calculated by interpolation of the measured data May be. By this method, the spectral shift amount by the spectroscopic element P can be calculated, and the transmittance information of the encoding element C for each wavelength band can also be acquired. Based on the calibration data calculated here, the elements of the matrix H in (Equation 4) described later are determined.
撮像素子Sは、2次元に配列された複数の光検出セル(本明細書において、「画素」とも呼ぶ。)を有するモノクロタイプの撮像素子である。撮像素子Sは、例えばCCD(Charge−Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)センサであり得る。光検出セルは、例えばフォトダイオードによって構成され得る。撮像素子Sは、必ずしもモノクロタイプの撮像素子である必要はない。例えば、R/G/B、R/G/B/IR、またはR/G/B/Wのフィルタを有するカラータイプの撮像素子を用いてもよい。カラータイプの撮像素子を使用することで、波長に関する情報量を増やすことができ、分光分離画像Fの再構成の精度を向上させることができる。ただし、カラータイプの撮像素子を使用した場合、空間方向(x、y方向)の情報量が低下するため、波長に関する情報量と解像度とはトレードオフの関係にある。取得対象の波長範囲は任意に決定してよく、可視の波長範囲に限らず、紫外、近赤外、中赤外、遠赤外の波長範囲であってもよい。 The imaging device S is a monochrome type imaging device having a plurality of photodetection cells (also referred to as “pixels” in this specification) arranged in a two-dimensional manner. The imaging device S can be, for example, a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor. The light detection cell may be constituted by a photodiode, for example. The image sensor S is not necessarily a monochrome type image sensor. For example, a color type image sensor having a filter of R / G / B, R / G / B / IR, or R / G / B / W may be used. By using a color type image sensor, the amount of information regarding the wavelength can be increased, and the accuracy of reconstruction of the spectrally separated image F can be improved. However, when a color type image sensor is used, the information amount in the spatial direction (x, y direction) decreases, so the information amount relating to the wavelength and the resolution are in a trade-off relationship. The wavelength range to be acquired may be arbitrarily determined, and is not limited to the visible wavelength range, but may be a wavelength range of ultraviolet, near infrared, mid-infrared, or far infrared.
信号処理回路Prは、撮像素子Sから出力された画像信号を処理する回路である。信号処理回路Prは、例えばデジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)等のプログラマブルロジックデバイス(PLD)、または中央演算処理装置(CPU)・画像処理用演算プロセッサ(GPU)とコンピュータプログラムとの組み合わせによって実現され得る。そのようなコンピュータプログラムは、メモリなどの記録媒体に格納され、CPUがそのプログラムを実行することにより、後述する演算処理を実行できる。前述のように、信号処理回路Prは、撮像装置D1の外部の要素であってもよい。そのような構成では、撮像装置D1に電気的に接続されたパーソナルコンピュータ(PC)や、インターネット上のクラウドサーバなどの信号処理装置が、信号処理回路Prを有する。本明細書では、そのような信号処理装置と撮像装置とを含むシステムを、「分光システム」と称する。 The signal processing circuit Pr is a circuit that processes the image signal output from the image sensor S. The signal processing circuit Pr is, for example, a digital logic processor (DSP), a programmable logic device (PLD) such as a field programmable gate array (FPGA), or a central processing unit (CPU) / image processing arithmetic processor (GPU) and a computer program It can be realized by a combination. Such a computer program is stored in a recording medium such as a memory, and the arithmetic processing described later can be executed by the CPU executing the program. As described above, the signal processing circuit Pr may be an element outside the imaging device D1. In such a configuration, a signal processing device Pr such as a personal computer (PC) electrically connected to the imaging device D1 or a cloud server on the Internet has the signal processing circuit Pr. In this specification, a system including such a signal processing device and an imaging device is referred to as a “spectral system”.
以下、本実施の形態における撮像装置D1の動作を説明する。 Hereinafter, the operation of the imaging device D1 in the present embodiment will be described.
図5は、本実施の形態における分光方法の概要を示すフローチャートである。まず、ステップS101において、符号化素子Cを用いて入射光の強度を空間的に変調させる。次に、ステップS102において、分光素子Pを用いて、符号化素子Cによって符号化された光束を波長に応じて分離する。続くステップS103において、分光素子Pによって分離された光の成分が重畳した画像を撮像素子Sによって取得する。ステップS104において、撮像素子Sによって取得された画像と、符号化素子Cの透過率分布とに基づいて、波長帯域ごとの複数の画像を生成する。 FIG. 5 is a flowchart showing an outline of the spectroscopic method in the present embodiment. First, in step S101, the intensity of incident light is spatially modulated using the encoding element C. Next, in step S102, the light beam encoded by the encoding element C is separated according to the wavelength by using the spectroscopic element P. In subsequent step S <b> 103, an image on which the components of the light separated by the spectroscopic element P are superimposed is acquired by the imaging element S. In step S104, a plurality of images for each wavelength band are generated based on the image acquired by the imaging device S and the transmittance distribution of the encoding device C.
次に、本実施の形態の撮像装置D1によって撮影画像Gを取得する過程を説明する。 Next, a process of acquiring the captured image G by the imaging device D1 of the present embodiment will be described.
測定対象物Oからの光束は、結像光学系L1によって集束され、その像が符号化素子Cによって符号化される。言い換えれば、符号化素子Cの透過率の空間分布に応じて符号化素子Cを通過する光の強度が変調される。符号化された光束は、結像光学系L2によって再度集束され、結像される。その過程において、光束は分光素子Pによって波長に応じて分散する。このとき、符号化情報も分光素子Pの影響を受ける。その結果、符号化情報を保有する分光された像が、互いに重なり合った多重像として撮像素子Sの撮像面上に形成される。図3に示す画像Gに含まれている複数の黒い点は、符号化によって生じた低輝度の部分を模式的に表している。なお、図3に示す黒い点の数および配置は、現実の数および配置を反映していない。実際には、図3に示す数よりも多くの低輝度の部分が生じ得る。撮像素子Sにおける複数の光検出セルによって多重像の情報が複数の電気信号(画素信号)に変換され、撮影画像Gが生成される。図3では、わかり易さのため、撮影画像Gにおける多重像のy方向のずれが実際よりも大きく描かれている。実際には、隣接する2つの波長帯域の像のずれは、例えば1画素から数十画素程度の微小なずれであり得る。 The light beam from the measuring object O is focused by the imaging optical system L1, and the image is encoded by the encoding element C. In other words, the intensity of light passing through the encoding element C is modulated according to the spatial distribution of the transmittance of the encoding element C. The encoded light beam is refocused and imaged by the imaging optical system L2. In the process, the luminous flux is dispersed according to the wavelength by the spectroscopic element P. At this time, the encoded information is also affected by the spectroscopic element P. As a result, the dispersed images having the encoded information are formed on the imaging surface of the imaging device S as multiple images that overlap each other. A plurality of black dots included in the image G illustrated in FIG. 3 schematically represents a low-luminance portion generated by encoding. Note that the number and arrangement of black dots shown in FIG. 3 do not reflect the actual number and arrangement. In practice, there may be more low-brightness parts than the number shown in FIG. Multiple image information is converted into a plurality of electrical signals (pixel signals) by a plurality of light detection cells in the image sensor S, and a captured image G is generated. In FIG. 3, the shift in the y direction of the multiple images in the photographed image G is drawn larger than the actual for easy understanding. Actually, the deviation between the images in the two adjacent wavelength bands can be as small as, for example, about one pixel to several tens of pixels.
撮像装置D1は、入射光束の一部の波長帯域の成分のみを透過させる帯域通過フィルタをさらに備えていてもよい。これにより、測定波長帯域を限定することができる。測定波長帯域を限定することで、所望の波長に限定した分離精度の高い分光分離画像Fを得ることができる。 The imaging device D1 may further include a band pass filter that transmits only a part of the wavelength band component of the incident light beam. Thereby, a measurement wavelength band can be limited. By limiting the measurement wavelength band, a spectrally separated image F with high separation accuracy limited to a desired wavelength can be obtained.
次に、撮影画像G、符号化素子Cの透過率の空間分布特性、および分光素子Pの分光特性に基づいて多波長の分光分離画像Fを再構成する方法を説明する。ここで多波長とは、例えば通常のカラーカメラで取得される3色(R・G・B)の波長帯域よりも多くの波長帯域を意味する。この波長帯域の数(以下、「分光帯域数」と称することがある。)は、例えば4から100程度の数であり得る。用途によっては、分光帯域数は100を超えていてもよい。 Next, a method of reconstructing the multi-wavelength spectral separation image F based on the captured image G, the spatial distribution characteristics of the transmittance of the encoding element C, and the spectral characteristics of the spectral element P will be described. Here, the multi-wavelength means a wavelength band that is larger than the wavelength bands of three colors (R, G, and B) acquired by a normal color camera, for example. The number of wavelength bands (hereinafter sometimes referred to as “spectral band number”) may be, for example, about 4 to 100. Depending on the application, the number of spectral bands may exceed 100.
求めたいデータは分光分離画像Fであり、そのデータをfと表す。分光帯域数(バンド数)をwとすると、fは各帯域の画像データf1、f2、・・・、fwを統合したデータである。求めるべき画像データのx方向の画素数をn、y方向の画素数をmとすると、画像データf1、f2、・・・、fwの各々は、n×m画素の2次元データの集まりである。したがって、データfは要素数n×m×wの3次元データである。分光素子Pが、求める分光帯域ごとにy方向に1画素ずつ分光画像をシフトさせるとすると、取得される撮影画像Gのデータgの要素数はn×(m+w−1)である。本実施の形態におけるデータgは、以下の(数4)で表すことができる。
ここで、f1、f2、・・・、fwは、n×m個の要素を有するデータであるため、右辺のベクトルは、厳密にはn×m×w行1列の1次元ベクトルである。ベクトルgは、n×(m+w−1)行1列の1次元ベクトルに変換して表され、計算される。行列Hは、ベクトルfを符号化によって強度変調し、各成分f1、f2、・・・、fwをy方向に1画素ずつシフトし、それらを加算する変換を表す。したがって、Hは、n(m+w−1)行n×m×w列の行列である。 Here, since f1, f2,..., Fw are data having n × m elements, the vector on the right side is strictly a one-dimensional vector of n × m × w rows and 1 column. The vector g is expressed by being converted into a one-dimensional vector of n × (m + w−1) rows and one column and calculated. The matrix H represents a transformation in which the vector f is intensity-modulated by encoding, the components f1, f2,... Fw are shifted one pixel at a time in the y direction and added. Therefore, H is a matrix of n (m + w−1) rows n × m × w columns.
ここでは各波長帯域の画像が1画素ずつシフトすることを想定したため、gの要素数をn×(m+w−1)としたが、必ずしも1画素ずつ各画像をシフトさせる必要はない。シフトさせる画素数は、2画素またはそれ以上でもよい。シフトさせる画素数は、再構成される分光分離画像Fにおける分光帯域・分光帯域数をどう設計するかに依存する。シフトさせる画素数に応じてgの要素数は変化する。また、分光方向もy方向に限定されず、x方向にシフトさせてもよい。一般化すれば、ky、kxを任意の自然数として、y方向にky画素、x方向にkx画素ずつ像をシフトさせる場合、データgの要素数は、{n+kx・(w−1)}×{m+ky・(w−1)}となる。 Here, since it is assumed that the image of each wavelength band is shifted by one pixel, the number of elements of g is n × (m + w−1), but it is not always necessary to shift each image by one pixel. The number of pixels to be shifted may be two pixels or more. The number of pixels to be shifted depends on how the spectral band and the number of spectral bands in the reconstructed spectral separated image F are designed. The number of elements of g changes according to the number of pixels to be shifted. Further, the spectral direction is not limited to the y direction, and may be shifted in the x direction. In general, when ky and kx are arbitrary natural numbers and the image is shifted by ky pixels in the y direction and kx pixels in the x direction, the number of elements of the data g is {n + kx · (w−1)} × { m + ky · (w−1)}.
さて、ベクトルgと行列Hが与えられれば、(数4)の逆問題を解くことでfを算出することができそうである。しかし、求めるデータfの要素数n×m×wが取得データgの要素数n(m+w−1)よりも多いため、この問題は不良設定問題となり、このままでは解くことができない。そこで、本実施の形態の信号処理回路Prは、データfに含まれる画像の冗長性を利用し、圧縮センシングの手法を用いて解を求める。具体的には、以下の(数5)の式を解くことにより、求めるデータfを推定する。
ここで、f’は、推定されたfのデータを表す。上式の括弧内の第1項は、推定結果Hfと取得データgとのずれ量、いわゆる残差項を表す。ここでは2乗和を残差項としているが、絶対値あるいは二乗和平方根等を残差項としてもよい。括弧内の第2項は、後述する正則化項(または安定化項)である。(数5)は、第1項と第2項との和を最小化するfを求めることを意味する。信号処理回路Prは、再帰的な反復演算によって解を収束させ、最終的な解f’を算出することができる。 Here, f ′ represents the estimated data of f. The first term in parentheses in the above equation represents a deviation amount between the estimation result Hf and the acquired data g, a so-called residual term. Here, the sum of squares is used as a residual term, but an absolute value or a square sum of squares or the like may be used as a residual term. The second term in parentheses is a regularization term (or stabilization term) described later. (Equation 5) means obtaining f that minimizes the sum of the first term and the second term. The signal processing circuit Pr can converge the solution by recursive iterative calculation and calculate the final solution f ′.
(数5)の括弧内の第1項は、取得データgと、推定過程のfを行列Hによってシステム変換したHfとの差分の二乗和を求める演算を意味する。第2項のΦ(f)は、fの正則化における制約条件であり、推定データのスパース情報を反映した関数である。働きとしては、推定データを滑らかまたは安定にする効果がある。正則化項は、例えば、fの離散的コサイン変換(DCT)、ウェーブレット変換、フーリエ変換、またはトータルバリエーション(TV)等によって表され得る。例えば、トータルバリエーションを使用した場合、観測データgのノイズの影響を抑えた安定した推測データを取得できる。それぞれの正則化項の空間における測定対象物Oのスパース性は、測定対象物Oのテキスチャによって異なる。測定対象物Oのテキスチャが正則化項の空間においてよりスパースになる正則化項を選んでもよい。あるいは、複数の正則化項を演算に含んでもよい。τは、重み係数であり、この値が大きいほど冗長的なデータの削減量が多くなり(圧縮する割合が高まり)、小さいほど解への収束性が弱くなる。重み係数τは、fがある程度収束し、かつ、過圧縮にならない適度な値に設定される。 The first term in parentheses in (Expression 5) means an operation for obtaining the sum of squares of the difference between the acquired data g and Hf obtained by system-transforming f in the estimation process by the matrix H. Φ (f) in the second term is a constraint condition for regularization of f, and is a function reflecting the sparse information of the estimated data. As a function, there is an effect of smoothing or stabilizing the estimated data. The regularization term may be represented by, for example, discrete cosine transform (DCT), wavelet transform, Fourier transform, total variation (TV), or the like of f. For example, when the total variation is used, it is possible to acquire stable estimated data that suppresses the influence of noise in the observation data g. The sparsity of the measurement object O in each regularization term space varies depending on the texture of the measurement object O. A regularization term in which the texture of the measurement object O becomes sparser in the regularization term space may be selected. Alternatively, a plurality of regularization terms may be included in the calculation. τ is a weighting factor, and the larger the value, the larger the amount of redundant data reduction (the higher the compression ratio), and the smaller the value, the weaker the convergence to the solution. The weighting factor τ is set to an appropriate value that f converges to some extent and does not cause overcompression.
なお、ここでは(数5)に示す圧縮センシングを用いた演算例を示したが、その他の方法を用いて解いてもよい。例えば、最尤推定法やベイズ推定法などの他の統計的方法を用いることができる。また、分光分離画像Fの数は任意であり、各波長帯域も任意に設定してよい。 In addition, although the calculation example using the compression sensing shown in (Formula 5) was shown here, you may solve using another method. For example, other statistical methods such as maximum likelihood estimation and Bayesian estimation can be used. Further, the number of spectrally separated images F is arbitrary, and each wavelength band may be arbitrarily set.
以上のように、本実施の形態では、分光素子Pは、特定の波長についての屈折率が略一致し、アッベ数が乖離した複数の材料から構成され、光入射面および光出射面が略平行になるように構成されている。これにより、後述する実施例1に示すように、コマ収差の発生を抑え、圧縮センシングによる解像度の低下を抑制することができる。本実施形態によれば、高解像度、多波長、動画撮影(ワンショット撮影)の3つの要求を同時に満たすことができる。また、撮像の際、2次元データを保有するだけで済むため、長時間のデータ取得に有効である。なお、本実施形態における撮像素子および信号処理回路は、動画像を取得するが、静止画像のみを取得するように構成されていてもよい。 As described above, in the present embodiment, the spectroscopic element P is composed of a plurality of materials having substantially the same refractive index for a specific wavelength and different Abbe numbers, and the light incident surface and the light output surface are substantially parallel. It is configured to be. Thereby, as shown in Example 1 to be described later, it is possible to suppress the occurrence of coma aberration and to suppress the decrease in resolution due to the compression sensing. According to this embodiment, the three requirements of high resolution, multiple wavelengths, and moving image shooting (one-shot shooting) can be satisfied simultaneously. In addition, since it is sufficient to hold two-dimensional data at the time of imaging, it is effective for long-term data acquisition. In addition, although the image pick-up element and signal processing circuit in this embodiment acquire a moving image, you may be comprised so that only a still image may be acquired.
(実施の形態3)
実施の形態3は、符号化パターンの像面上でのボケ状態を利用して多波長画像を再構成する点で、実施の形態2と異なっている。以下、実施の形態2と同様の内容についての詳細な説明は省略する。
(Embodiment 3)
The third embodiment is different from the second embodiment in that a multi-wavelength image is reconstructed using a blurred state on the image plane of the coding pattern. Hereinafter, detailed description of the same contents as those in the second embodiment will be omitted.
図6は、本実施の形態の撮像装置D2を示す模式図である。撮像装置D2では、撮像装置D1と異なり、符号化素子Cが、対象物Oと結像光学系Lとの間に配置されている。結像光学系Lは、符号化素子Cを通過した光束を、撮像素子Sの撮像面上に集束させる。本実施の形態では、結像光学系の結像面上に符号化素子Cを配置する必要がないため、結像光学系L以外の光学系(リレー光学系)が不要となり、光学系の全体のサイズを縮小できる。 FIG. 6 is a schematic diagram showing the imaging device D2 of the present embodiment. In the imaging device D2, unlike the imaging device D1, the encoding element C is disposed between the object O and the imaging optical system L. The imaging optical system L focuses the light beam that has passed through the encoding element C on the imaging surface of the imaging element S. In the present embodiment, since it is not necessary to arrange the encoding element C on the image forming surface of the image forming optical system, an optical system (relay optical system) other than the image forming optical system L is not required, and the entire optical system. Can be reduced in size.
符号化素子Cによって符号化された像は、撮像素子S上でボケた状態で取得される。したがって、予めこのボケ情報を保有しておき、それを(数4)のシステム行列Hに反映させる。ここで、ボケ情報は、点拡がり関数(Point Spread Function:PSF)によって表される。PSFは、点像の周辺画素への拡がりの程度を規定する関数である。例えば、画像上で1画素に相当する点像が、ボケによってその画素の周囲のk×k画素の領域に広がる場合、PSFは、その領域内の各画素の輝度への影響を示す係数群(行列)として規定され得る。PSFによる符号化パターンのボケの影響をシステム行列Hに反映させることにより、分光分離画像Fを再構成することができる。 The image encoded by the encoding element C is acquired in a blurred state on the imaging element S. Therefore, this blur information is held in advance and reflected in the system matrix H of (Equation 4). Here, the blur information is represented by a point spread function (PSF). PSF is a function that defines the degree of spread of a point image to surrounding pixels. For example, when a point image corresponding to one pixel on an image spreads over a region of k × k pixels around the pixel due to blur, the PSF is a group of coefficients indicating the influence on the luminance of each pixel in the region ( Matrix). The spectral separation image F can be reconstructed by reflecting in the system matrix H the influence of the blur of the coding pattern due to the PSF.
符号化素子Cが配置される位置は任意であるが、符号化素子Cの符号化パターンが拡散しすぎて消失することを防ぐ必要がある。そのためには、例えば、結像光学系Lにおいて測定対象物Oに最も近いレンズの近傍または測定対象物Oの近傍に配置するのがよく、絞りから遠ざけて配置するのがよい。特に画角が広い光学系では焦点距離が短くなるため、これらの位置では各画角の光束の重なりが小さく撮像素子S上で符号化パターンがボケにくく残存しやすくなる。また、符号化素子Cを撮像素子Sにより近い位置に配置した場合も、符号化パターンが残存しやすいためよい。ただし、この場合も分光素子Pよりも対象物O側に符号化素子Cを配置する必要がある。 The position where the encoding element C is disposed is arbitrary, but it is necessary to prevent the encoding pattern of the encoding element C from being excessively diffused and lost. For this purpose, for example, in the imaging optical system L, it is preferable to arrange in the vicinity of the lens closest to the measuring object O or in the vicinity of the measuring object O, and it is preferable to dispose it away from the stop. In particular, since the focal length is short in an optical system having a wide angle of view, the overlapping of light fluxes at each angle of view is small at these positions, and the encoded pattern on the image sensor S is less likely to remain blurred. In addition, even when the encoding element C is arranged at a position closer to the imaging element S, the encoding pattern is likely to remain. However, also in this case, it is necessary to arrange the encoding element C closer to the object O than the spectroscopic element P.
(実施例1)
次に、本開示の実施例を説明する。
Example 1
Next, examples of the present disclosure will be described.
図7は、本開示の分光素子Pを用いた実施例における撮像素子Sの撮像面上の結像状態の一例を示す図である。本実施例では、図1に示すような2つのプリズムを接合した分光素子Pを用いた。分光素子Pを構成する2種類の材料は、d線の屈折率ndが近いが、d線のアッベ数νdが乖離したものから選択した。具体的には、表1に示す番号24のガラス材料M−TAC60(nd:1.75501、νd:51.16)とFF8(nd:1.75211、νd:25.05)との組合せを用いた。図7(a)は、分光素子Pを通過して撮像素子Sに到達する光線の例を示す模式断面図である。図7(a)に示すように、分光素子Pの光線の入射面と出射面とは平行であり、接合面の傾斜角は入射面に対して20°である。分光素子Pの厚さは8mmであり、分光素子Pの後面から撮像素子Sまでの距離は33mmである。 FIG. 7 is a diagram illustrating an example of an imaging state on the imaging surface of the imaging element S in the embodiment using the spectral element P of the present disclosure. In this embodiment, a spectroscopic element P in which two prisms as shown in FIG. 1 are joined is used. The two types of materials constituting the spectroscopic element P were selected from those having a d-line refractive index nd close to each other but a d-line Abbe number νd deviating. Specifically, the combination of the glass material M-TAC60 (nd: 1.75501, νd: 51.16) of No. 24 shown in Table 1 and FF8 (nd: 1.75211, νd: 25.05) is used. It was. FIG. 7A is a schematic cross-sectional view showing an example of light rays that pass through the spectroscopic element P and reach the image pickup element S. FIG. As shown in FIG. 7A, the light incident surface and the light exit surface of the spectroscopic element P are parallel to each other, and the inclination angle of the joint surface is 20 ° with respect to the incident surface. The thickness of the spectroscopic element P is 8 mm, and the distance from the rear surface of the spectroscopic element P to the imaging element S is 33 mm.
図7(b)は、本実施例における横収差図である。各図において、横軸は、入射瞳面上におけるy方向の座標を表し、縦軸は横収差量を表している。図7(c)は、本実施例におけるスポットダイアグラムである。図7(b)、(c)は、450、550、650nmの各波長の光を、像高0mm、2.5mm、5mmの位置に結像させた例を示している。これらの収差図およびスポットダイアグラムより、いずれの波長についてもよく分光されているが、収差の発生は抑制されていることがわかる。 FIG. 7B is a lateral aberration diagram in this example. In each figure, the horizontal axis represents the coordinates in the y direction on the entrance pupil plane, and the vertical axis represents the amount of lateral aberration. FIG. 7C is a spot diagram in this embodiment. FIGS. 7B and 7C show examples in which light of each wavelength of 450, 550, and 650 nm is imaged at positions with image heights of 0 mm, 2.5 mm, and 5 mm. From these aberration diagrams and spot diagrams, it can be seen that although any wavelength is well dispersed, the occurrence of aberration is suppressed.
(比較例1)
比較例1として、実施例1において分光素子Pの光線出射面を5°傾斜させた例についても同様の解析を行った。図8(a)は、比較例1における撮像面上の結像状態の一例を示す図である。分光素子Pの2種類の材料は実施例1におけるものと同じである。
(Comparative Example 1)
As Comparative Example 1, the same analysis was performed on an example in which the light emitting surface of the spectroscopic element P was inclined by 5 ° in Example 1. FIG. 8A is a diagram illustrating an example of an imaging state on the imaging surface in the first comparative example. The two types of materials for the spectroscopic element P are the same as those in the first embodiment.
図8(a)は、比較例1における分光素子Pを通過して撮像素子Sに到達する光線の例を示す模式断面図である。図8(b)は比較例1における収差図である。図8(c)は比較例1におけるスポットダイアグラムである。図7(b)と比較し、図8(b)では、各波長の収差曲線が湾曲していることがわかる。これは、分光素子Pの厚さが均一でないために発生するコマ収差を表している。コマ収差の影響により、図8(c)に示されるスポットサイズは、図7(c)に示すスポットサイズよりも大きくなる。このことは、解像度の劣化をもたらす。 FIG. 8A is a schematic cross-sectional view illustrating an example of light rays that pass through the spectroscopic element P and reach the imaging element S in Comparative Example 1. FIG. FIG. 8B is an aberration diagram in Comparative Example 1. FIG. 8C is a spot diagram in the first comparative example. Compared to FIG. 7B, it can be seen that the aberration curve of each wavelength is curved in FIG. 8B. This represents coma aberration that occurs because the thickness of the spectroscopic element P is not uniform. Due to the influence of coma, the spot size shown in FIG. 8C is larger than the spot size shown in FIG. This leads to resolution degradation.
以上のことから、実施例1では、比較例1と比較して、解像度の劣化を抑制することができる。この結果から、本開示における分光素子を用いた場合の有効性が確認できた。 From the above, in the first embodiment, compared with the first comparative example, it is possible to suppress the deterioration of the resolution. From this result, the effectiveness at the time of using the spectroscopic element in this indication was checked.
本開示における撮像装置は、多波長の2次元画像を取得するカメラや測定機器に有用である。生体・医療・美容向けセンシング、食品の異物・残留農薬検査システム、リモートセンシングシステムおよび車載センシングシステム等にも応用できる。 The imaging device according to the present disclosure is useful for a camera or a measurement device that acquires a multi-wavelength two-dimensional image. It can also be applied to sensing for living bodies, medical care, and beauty, food foreign matter / residual pesticide inspection system, remote sensing system and in-vehicle sensing system.
O 測定対象物
G 撮影画像
L、L1、L2 結像光学系
C 符号化素子
P、P1、P2 分光素子
Pr 信号処理回路
S 撮像素子
F、F1、F2、F3、Fi 分光分離画像
D1、D2 撮像装置
O Measurement object G Captured image L, L1, L2 Imaging optical system C Encoding element P, P1, P2 Spectroscopic element Pr Signal processing circuit S Imaging element F, F1, F2, F3, Fi Spectral separation image D1, D2 Imaging apparatus
Claims (13)
前記2つのプリズムは、特定の波長の光の屈折率が略一致し、かつ、前記特定の波長の光についてのアッベ数が異なっている、
分光素子。 A spectroscopic element configured by joining at least two prisms such that a light incident surface and a light output surface are substantially parallel,
The two prisms have substantially the same refractive index of light of a specific wavelength and different Abbe numbers for the light of the specific wavelength.
Spectroscopic element.
前記符号化素子を通過した光の光路上に配置され、前記光を波長に応じて分散させる分光素子と、
前記分光素子を通過した光の光路上に配置され、前記分光素子によって分散した光の複数の波長帯域の成分が重畳した画像を取得する撮像素子と、
を備え、
前記分光素子は、光入射面および光出射面が略平行になるように少なくとも2つのプリズムを接合することによって構成され、前記2つのプリズムは、特定の波長の光の屈折率が略一致し、かつ、前記特定の波長の光についてのアッベ数が異なり、略平行な光入射面および光出射面を有する、
撮像装置。 A plurality of regions disposed on an optical path of light incident from the object and having a first light transmittance; and a plurality of regions having a second light transmittance lower than the first light transmittance. An encoding element;
A spectroscopic element that is disposed on an optical path of light that has passed through the encoding element and disperses the light according to a wavelength;
An image sensor that is arranged on an optical path of light that has passed through the spectroscopic element and acquires an image in which components of a plurality of wavelength bands of light dispersed by the spectroscopic element are superimposed;
With
The spectroscopic element is configured by joining at least two prisms such that a light incident surface and a light exit surface are substantially parallel, and the two prisms have substantially the same refractive index of light of a specific wavelength, And the Abbe number for the light of the specific wavelength is different, and has a substantially parallel light incident surface and light exit surface,
Imaging device.
前記符号化素子と前記分光素子との間に配置され、前記符号化素子を通過した光を前記撮像素子の撮像面上に集束させる第2の光学系と、
をさらに備える請求項3または4に記載の撮像装置。 A first optical system disposed between the object and the encoding element and focusing light from the object on a surface of the encoding element;
A second optical system that is disposed between the encoding element and the spectroscopic element and focuses light that has passed through the encoding element on an imaging surface of the imaging element;
The imaging device according to claim 3 or 4, further comprising:
(Φ(f)は正則化項、τは重み係数)
の式に基づいて推定されるベクトルf’を、前記波長帯域ごとの複数の画像として生成する、
請求項7から9のいずれかに記載の撮像装置。 The signal processing circuit is determined based on a vector g having elements of signal values of a plurality of pixels in the image acquired by the imaging element, a spatial distribution of light transmittance in the encoding element, and spectral characteristics of the spectral element. Using the matrix H
(Φ (f) is a regularization term, τ is a weighting factor)
A vector f ′ estimated based on the equation is generated as a plurality of images for each wavelength band.
The imaging device according to claim 7.
前記画像と、前記符号化素子における光透過率の空間分布とに基づいて、前記少なくとも1つの分光素子を通過した光の波長帯域ごとの複数の画像を生成する信号処理装置と、
を備える分光システム。 An imaging device according to any one of claims 2 to 6,
A signal processing device that generates a plurality of images for each wavelength band of light that has passed through the at least one spectroscopic element based on the image and a spatial distribution of light transmittance in the encoding element;
A spectroscopic system comprising:
前記符号化素子を通過した光を、分光素子を用いて波長に応じて分散させ、撮像素子の撮像面上に像を形成するステップであって、前記分光素子は、光入射面および光出射面が略平行になるように少なくとも2つのプリズムを接合することによって構成され、前記2つのプリズムは、特定の波長の光の屈折率が略一致し、かつ、前記特定の波長の光についてのアッベ数が異なっている、ステップと、
前記分光素子を通過した光の複数の波長帯域の成分が重畳した画像を取得するステップと、
前記画像と、前記符号化素子における光透過率の空間分布とに基づいて、前記分光素子を通過した光の波長帯域ごとの複数の画像を生成するステップと、
を含む分光方法。 A plurality of regions disposed on an optical path of light incident from the object and having a first light transmittance; and a plurality of regions having a second light transmittance lower than the first light transmittance. Modulating the intensity of incident light using an encoding element;
The light passing through the encoding element is dispersed according to the wavelength using a spectroscopic element to form an image on the imaging surface of the image sensor, the spectroscopic element comprising a light incident surface and a light output surface Are joined to each other so that the refractive indexes of the two wavelengths are substantially the same, and the Abbe number for the light of the specific wavelength is substantially the same. Are different, steps,
Obtaining an image in which components of a plurality of wavelength bands of light passing through the spectroscopic element are superimposed;
Generating a plurality of images for each wavelength band of light that has passed through the spectroscopic element based on the image and a spatial distribution of light transmittance in the encoding element;
A spectroscopic method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014222142A JP2016090291A (en) | 2014-10-31 | 2014-10-31 | Imaging apparatus, spectroscopy system and spectroscopy method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014222142A JP2016090291A (en) | 2014-10-31 | 2014-10-31 | Imaging apparatus, spectroscopy system and spectroscopy method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016090291A true JP2016090291A (en) | 2016-05-23 |
Family
ID=56018306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014222142A Pending JP2016090291A (en) | 2014-10-31 | 2014-10-31 | Imaging apparatus, spectroscopy system and spectroscopy method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016090291A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018096984A (en) * | 2016-12-08 | 2018-06-21 | パナソニックIpマネジメント株式会社 | Photo-detection system, and light-emitting device |
JP2018096985A (en) * | 2016-12-08 | 2018-06-21 | パナソニックIpマネジメント株式会社 | Photo-detection apparatus |
WO2019059632A1 (en) * | 2017-09-25 | 2019-03-28 | 한국과학기술원 | Method and system for reconstructing hyperspectral image by using prism |
KR20190036459A (en) * | 2017-09-27 | 2019-04-04 | 한국과학기술원 | Hyperspectral Imaging Reconstruction Method Using Artificial Intelligence and Apparatus Therefor |
JP2021501314A (en) * | 2017-10-27 | 2021-01-14 | ストレイティオStratio | Spectrometer with self-correction of misalignment |
JP7476137B2 (en) | 2021-04-27 | 2024-04-30 | 大成建設株式会社 | Rock mass evaluation method |
-
2014
- 2014-10-31 JP JP2014222142A patent/JP2016090291A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018096984A (en) * | 2016-12-08 | 2018-06-21 | パナソニックIpマネジメント株式会社 | Photo-detection system, and light-emitting device |
JP2018096985A (en) * | 2016-12-08 | 2018-06-21 | パナソニックIpマネジメント株式会社 | Photo-detection apparatus |
JP7012235B2 (en) | 2016-12-08 | 2022-01-28 | パナソニックIpマネジメント株式会社 | Light detection system |
WO2019059632A1 (en) * | 2017-09-25 | 2019-03-28 | 한국과학기술원 | Method and system for reconstructing hyperspectral image by using prism |
KR20190036459A (en) * | 2017-09-27 | 2019-04-04 | 한국과학기술원 | Hyperspectral Imaging Reconstruction Method Using Artificial Intelligence and Apparatus Therefor |
KR102132075B1 (en) | 2017-09-27 | 2020-07-08 | 한국과학기술원 | Hyperspectral Imaging Reconstruction Method Using Artificial Intelligence and Apparatus Therefor |
JP2021501314A (en) * | 2017-10-27 | 2021-01-14 | ストレイティオStratio | Spectrometer with self-correction of misalignment |
EP3701217A4 (en) * | 2017-10-27 | 2021-08-18 | Stratio | Spectrometers with self-compensation of misalignment |
JP7476137B2 (en) | 2021-04-27 | 2024-04-30 | 大成建設株式会社 | Rock mass evaluation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6064290B2 (en) | Imaging apparatus, spectroscopic system, and spectroscopic method | |
JP6952277B2 (en) | Imaging equipment and spectroscopic system | |
EP3274673B1 (en) | Imaging device with image dispersing to create a spatially coded image | |
JP2016090291A (en) | Imaging apparatus, spectroscopy system and spectroscopy method | |
JP6524617B2 (en) | Imager and method | |
JP2016130727A (en) | Imaging apparatus | |
JP2020053910A (en) | Optical device and imaging device | |
JP7012275B2 (en) | Photodetector, photodetection system, and filter array | |
KR20210048951A (en) | Hyperspectral image sensor and image pickup apparatus including the same | |
JP6952283B1 (en) | Optical filter array, photodetector, and photodetector system | |
CN113125010A (en) | Hyperspectral imaging equipment | |
Kim et al. | Aperture-encoded snapshot hyperspectral imaging with a lensless camera | |
US11199448B2 (en) | Spectroscopic measurement device and spectroscopic measurement method | |
JP2016090290A (en) | Imaging apparatus, spectroscopy system, and spectroscopy method | |
WO2023106143A1 (en) | Device and filter array used in system for generating spectral image, system for generating spectral image, and method for manufacturing filter array | |
JP7122636B2 (en) | Filter array and photodetection system | |
WO2024195499A1 (en) | Imaging system, matrix data, and method for generating matrix data | |
WO2023106142A1 (en) | Signal processing method, program, and system | |
Naranjo et al. | Experimental demonstration of multi-spectral imaging of vegetation with a diffractive plenoptic camera | |
Arnold et al. | Snapshot spectral imaging system | |
JPWO2018180808A1 (en) | Imaging device and image processing device |