WO2015182632A1 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法及び画像処理プログラム Download PDFInfo
- Publication number
- WO2015182632A1 WO2015182632A1 PCT/JP2015/065171 JP2015065171W WO2015182632A1 WO 2015182632 A1 WO2015182632 A1 WO 2015182632A1 JP 2015065171 W JP2015065171 W JP 2015065171W WO 2015182632 A1 WO2015182632 A1 WO 2015182632A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- sampling
- sampling interval
- scanning
- images
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
Definitions
- the present invention relates to an image processing apparatus, an image processing method, and an image processing program for processing a tomographic image captured by a tomographic imaging apparatus or the like to generate an image suitable for a diagnostic image.
- a tomographic imaging apparatus using optical interference called OCT (Optical Coherence Tomography) for capturing a tomographic image of the fundus
- OCT Optical Coherence Tomography
- a tomographic image (B-scan image) in the xz direction can be acquired with the left-right direction of the fundus in the x direction, the vertical direction in the y direction, and the depth in the z direction.
- general OCT imaging for example, a tomographic image is captured at a speed of 40 images / second, and a group of 100 or more retinal tomographic images can be acquired by one examination (imaging of a part of the retina).
- Patent Document 1 discloses a technique for generating a tomographic image with less noise by adding and averaging the entire photographed two-dimensional tomographic image.
- a tomographic image may be acquired using a plurality of scan patterns in one imaging.
- Patent Document 2 discloses a technique for scanning an attention site such as an optic disc on the fundus, a macular region, a lesion site, or a treatment site with a narrower interval than other sites.
- Patent Document 3 and Patent Document 4 disclose a technique for performing an auxiliary scan in addition to a base scan in order to prevent fixation fine movement.
- JP 2008-237238 A Japanese Patent No. 4971864 Special table 2013-525035 Special table 2011-516235
- Patent Documents 1 to 4 are effective in reducing noise, reducing misalignment due to the effect of fixational motion, and reducing image distortion, all of them increase the resolution of the interpretation image itself. Thus, it is not possible to obtain information on the fundus with higher accuracy. Although there is a possibility that a higher resolution image for interpretation can be obtained by improving hardware such as a tomographic imaging apparatus, a higher resolution image can be obtained by image processing alone without hardware improvement. Can be obtained technically.
- An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of generating an exceeding high resolution image.
- the present invention is obtained by scanning substantially the same position of an object in the same direction at a predetermined sampling interval in a tomographic imaging apparatus that captures a tomographic image of the fundus of the eye to be examined.
- An image processing apparatus for processing the first image wherein the first image is obtained by scanning the first image at a first sampling interval in the same direction, and the first sampling is performed by image processing from the first image.
- An image generation means for generating a second image having a second sampling interval that is narrower than the interval, and an image obtained by scanning at different sampling positions at the first sampling interval in the same direction, An image different from the first image is set as a third image, and for each sampling image of the third image, an image corresponding to the sampling image is searched from the second image, and the search is performed. And to provide an image processing apparatus and an adder for adding the sampled image to the image (invention 1).
- the second narrower than the first sampling interval by image processing based on the first image obtained by actually scanning the object at the first sampling interval, the second narrower than the first sampling interval by image processing.
- a second image can be generated as if it was obtained by scanning at a sampling interval, and a third image obtained by scanning at different sampling positions at the first sampling interval can be added. That is, since the second image is generated as if it had an image having twice the number of pixels as the first image, the second image is used as a reference image in the subsequent addition process.
- An image for image interpretation obtained later can have a higher resolution than an image obtained by actually scanning an object.
- the first image may be one image selected from a plurality of images obtained by scanning in the same direction at the first sampling interval (Invention 2) It may be an image obtained by averaging a predetermined number of images among a plurality of images obtained by scanning at the first sampling interval in the same direction (Invention 3).
- the second sampling interval is one half of the first sampling interval (Invention 4).
- the first sampling interval is set so that the sampling image is an A-scan image (Invention 5).
- the present invention provides an image processing method for processing an image obtained by scanning substantially the same position of an object in the same direction at a predetermined sampling interval in a tomographic imaging apparatus that captures a tomographic image of the fundus of the eye to be examined.
- the image obtained by scanning at the first sampling interval in the same direction is set as a first image, and the sampling interval is narrower than the first sampling interval by image processing from the first image.
- An image generation step for generating a second image and an image obtained by scanning at different sampling positions at the first sampling interval in the same direction and different from the first image is defined as a third image. For each sampled image of the third image, an image corresponding to the sampled image is searched from the second image, and the sampled image is added to the searched image.
- an image processing method comprising an adding step of adding the (invention 6).
- the second narrower than the first sampling interval by the image processing based on the first image obtained by actually scanning the object at the first sampling interval, the second narrower than the first sampling interval by the image processing.
- a second image can be generated as if it was obtained by scanning at a sampling interval, and a third image obtained by scanning at different sampling positions at the first sampling interval can be added. That is, since the second image is generated as if it had an image having twice the number of pixels as the first image, the second image is used as a reference image in the subsequent addition process.
- An image for image interpretation obtained later can have a higher resolution than an image obtained by actually scanning an object.
- the first image may be one image selected from a plurality of images obtained by scanning in the same direction at the first sampling interval (Invention 7) An image obtained by averaging a predetermined number of images among a plurality of images obtained by scanning at the first sampling interval in the same direction (Invention 8).
- the second sampling interval is one half of the first sampling interval (Invention 9).
- the first sampling interval is set so that the sampling image is an A-scan image (Invention 10).
- the present invention provides an image processing program characterized by causing a computer to execute the image processing method according to the above inventions (Inventions 6 to 10) (Invention 11).
- the image processing apparatus the image processing method, and the image processing program of the present invention
- hardware limitations are obtained from a plurality of images obtained by scanning substantially the same position in the same direction without improving the hardware. It is possible to generate a high-resolution image exceeding.
- FIG. 1 is a configuration diagram illustrating an image processing system according to an embodiment of the present invention.
- FIG. 2 is an optical diagram showing a detailed configuration of a tomography unit according to the embodiment.
- 5 is a flowchart showing a flow of image processing according to the embodiment. It is explanatory drawing which showed the state which scans a fundus with signal light in the embodiment. It is explanatory drawing which showed the state which acquires the tomographic image of several sheets in the same embodiment. It is explanatory drawing which showed the reference
- FIG. 1 is a configuration diagram showing the entire image processing system according to an embodiment of the present invention, that is, a system for acquiring and processing a tomographic image of the fundus of the eye to be examined.
- a fundus photographing unit 1 for observing and photographing the fundus (retina) Ef of the eye E to be examined, and an imaging device 100 constituted by an illumination optical system 4, a photographing optical system 5, a two-dimensional CCD, and a CMOS. It has.
- the illumination optical system 4 includes an observation light source such as a halogen lamp and a photographing light source such as a xenon lamp, and light from these light sources is guided to the fundus oculi Ef via the illumination optical system 4 to illuminate the fundus oculi Ef.
- the photographing optical system 5 includes an optical system such as an objective lens, a photographing lens, and a focusing lens. The photographing optical system 5 guides photographing light reflected by the fundus oculi Ef to the imaging device 100 along the photographing optical path, and photographs an image of the fundus oculi Ef.
- the scanning unit 6 guides the signal light reflected by the fundus oculi Ef described later to the tomography unit 2.
- the scanning unit 6 is a known galvanometer mirror 11 or focus optical system 12 for scanning light from the low-coherence light source 20 of the tomography unit 2 in the x direction (horizontal direction) and the y direction (vertical direction) in FIG. It is a mechanism equipped with.
- the scanning unit 6 is optically connected to the tomographic imaging unit 2 that captures a tomographic image of the fundus oculi Ef via the connector 7 and the connection line 8.
- the tomographic imaging unit 2 is a known unit that operates, for example, in the Fourier domain method (spectral domain method), and its detailed configuration is shown in FIG. 2 and has a wavelength of 700 nm to 1100 nm and about several ⁇ m to several tens ⁇ m.
- a low-coherence light source 20 that emits light of a temporal coherence length.
- the low coherence light LO generated by the low coherence light source 20 is guided to the optical coupler 22 by the optical fiber 22a, and is divided into the reference light LR and the signal light LS.
- the reference light LR passes through the optical fiber 22b, the collimator lens 23, the glass block 24, and the density filter 25, and reaches the reference mirror 26 that can move in the optical axis direction for adjusting the optical path length.
- the glass block 24 and the density filter 25 function as delay means for matching the optical path length (optical distance) of the reference light LR and the signal light LS, and as means for matching the dispersion characteristics of the reference light LR and the signal light LS. .
- the signal light LS reaches the fundus oculi Ef via the scanning unit 6 of FIG. 1 by the optical fiber 22c inserted through the connection line 8, and scans the fundus in the horizontal direction (x direction) and the vertical direction (y direction). .
- the signal light LS that has reached the fundus oculi Ef is reflected by the fundus oculi Ef and returns to the optical coupler 22 by following the above path in reverse.
- the reference light LR reflected by the reference mirror 26 and the signal light LS reflected by the fundus oculi Ef are superimposed by the optical coupler 22 to become interference light LC.
- the interference light LC is guided to the OCT signal detection device 21 by the optical fiber 22d.
- the interference light LC is converted into a parallel light beam by the collimator lens 21a in the OCT signal detection device 21, and then is incident on the diffraction grating 21b and dispersed, and is imaged on the CCD 21d by the imaging lens 21c.
- the OCT signal detection device 21 generates an OCT signal indicating information in the depth direction (z direction) of the fundus oculi based on the dispersed interference light.
- an image processing apparatus 3 configured by a personal computer or the like connected to the tomography unit 2 is provided.
- the image processing apparatus 3 is provided with a control unit 30 including a CPU, a RAM, a ROM, and the like, and the control unit 30 controls the entire image processing by executing an image processing program.
- the display unit 31 is configured by a display device such as an LCD, for example, and displays an image such as a tomographic image or a front image generated or processed by the image processing device 3 or accompanying information such as information on the subject. Or display.
- the input unit 32 performs an input operation on the image displayed on the display unit 31 with input means such as a mouse, a keyboard, and an input pen. Further, the operator can give an instruction to the image processing apparatus 3 or the like through the input unit 32.
- the tomographic image forming unit 41 is provided in the image processing apparatus 3.
- the tomographic image forming unit 41 is realized by a dedicated electronic circuit that executes a known analysis method such as a Fourier domain method (spectral domain method), or an image processing program that is executed by the above-described CPU. Based on the detected OCT signal, a tomographic image of the fundus oculi Ef is formed.
- the tomographic image formed by the tomographic image forming unit 41 is stored in a storage unit 42 configured by, for example, a semiconductor memory or a hard disk device.
- the storage unit 42 further stores the above-described image processing program and the like.
- the image processing apparatus 3 is provided with an image processing unit 50, and the image processing unit 50 includes an image generation unit 51 and an addition unit 52.
- the image generation means 51 selects or generates a reference image (first image) from the tomographic image formed by the tomographic image forming unit 41, and combines the virtual image generated based on the reference image with the reference image.
- An image (second image) is generated.
- the adding unit 52 adds a tomographic image (third image) different from the reference image to the synthesized image to generate an image for interpretation.
- This image processing is performed by the control unit 30 reading and executing the image processing program stored in the storage unit 42.
- the eye E and the fundus imaging unit 1 are aligned, and the fundus Ef is focused.
- the low-coherence light source 20 is turned on, the signal light from the tomography unit 2 is swept in the x and y directions by the scanning unit 6, and the fundus oculi Ef is scanned.
- This state is illustrated in FIG. 4, and the region R where the macular portion of the retina is present is scanned by n scanning lines y 1 , y 2 ,..., Y n in a direction parallel to the x axis. Is done.
- the signal light LS reflected by the fundus oculi Ef is superimposed on the reference light LR reflected by the reference mirror 26 in the tomography unit 2.
- interference light LC is generated, and an OCT signal is generated from the OCT signal detector 21.
- the tomographic image forming unit 41 forms a tomographic image of the fundus oculi Ef based on this OCT signal (step S2), and the formed tomographic image is stored in the storage unit.
- Reference image B1 is 100 tomographic to the image T i may select any one piece, 100 tomographic images T i averaging process a plurality of arbitrarily selected from-obtained image It is good.
- one of the 100 tomographic images T i formed first that is, the tomographic image T 1
- the reference image B1 is selected or created in this way, it is stored in the storage unit 42.
- one of the 100 tomographic images T i formed first that is, the tomographic image T 1
- the reference image B 1 is selected as the reference image B 1 and stored in the storage unit 42.
- the selected reference image B1 is shown in FIG.
- the reference image B1 (tomographic image T 1 ) in the present embodiment is composed of 10 lines of sampling images, and each sampling image is an area having a length of the number of pixels defined in the z direction. Each of these regions is a line (width is a width corresponding to one pixel) extending in the z direction as shown in FIG. 6A, and is a line called an A scan image. That is, in this embodiment, the sampling interval is set so that the sampling image becomes an A-scan image.
- a virtual image B1 ′ is generated based on the reference image B1 stored in the storage unit 42.
- the virtual image B1 ′ generates pixels other than the pixels of the retinal layer L (fundus tissue) that are the objects of the tomographic image in the reference image B1 at intervals of a predetermined amount d along the x axis.
- the predetermined amount d is half the sampling interval, that is, half the width of the A-scan image.
- the virtual image B1 ′ is generated as if it were an image formed in a state where the retinal layer L, which is the object, was shifted half a pixel.
- the virtual image B1 ′ is generated in this way, it is stored in the storage unit.
- step S5 the reference image B1 and the virtual image B1 ′ are aligned and superimposed so that the retinal layer L that is the object does not shift, and a composite image B2 is generated as shown in FIG. 6C. To do.
- the composite image B2 is generated in this way, it is stored in the storage unit 42.
- step S6 the tomographic image T i other than the reference image B1 on the synthesized image B2 (the tomographic image T 1) is added as an addition target image B3, and generates an image to be read.
- the tomographic image T 1 than all tomographic images of the selected as the reference image B1, or a portion of the tomographic images selected arbitrarily from the tomographic image T 1 other than the tomographic images T i, one by one storage unit 42 is called an addition target image B3, and for each sampling image (A scan image) of the addition target image B3, an image corresponding to the sampling image is searched from the composite image B2, and the searched image is the sampling image. Repeat the process of adding.
- step S3 to step S6 will be described in detail with reference to an explanatory diagram (FIG. 7) based on a model obtained by simplifying an object and an image.
- the object is simplified to a substantially circular shape
- the image is simplified to an image composed of four sampling images (A scan images).
- FIG. 7 shows a model for explanation only.
- the reference image B1 is selected in step S3.
- the object is located in the second A-scan image A2 from the left.
- a virtual image B1 ′ is generated in step S4 by shifting the object other than the object by a half of the A scan width.
- the left half of the object is located in the leftmost A-scan image A1 ′
- the right half of the object is located in the second A-scan image A2 ′ from the left.
- the reference image B1 and the virtual image B1 ′ are overlapped to generate a composite image B2.
- eight A-scan images are overlapped by half, and the object is included in the third, third, and fourth A-scan images from the left.
- step S6 it is assumed that the addition target image B3 is an image acquired in a state where the target object itself has moved to the right by half of the A scan width. Therefore, in the addition target image B3, the left half of the object is located in the second A-scan image A2 from the left, and the right half of the object is located in the third A-scan image A3 from the left.
- the region corresponding to the composite image B2 corresponding to the A-scan image A2 of the addition target image B3 as a search target sampling image is searched, it is indicated by the second region from the left in the composite image B2, that is, a one-dot chain line. The region is most matched with the region, and the sampling image is added to this region.
- the synthesized image B2 is not generated and the search target sampling image corresponds to which region of the reference image B1 as in the prior art, the matching region cannot be searched in the example as shown in FIG.
- the sampled image may be ignored without being added.
- the reference image B1 obtained by actually scanning the object is superimposed on the virtual image B1 ′ generated from the reference image B1 so that the sampling interval is half the A scan width. Since the composite image B2 generated in this way is generated as if it is an image having twice as many pixels as the reference image B1, the composite image is used as a reference image in the addition process of the addition target image B3. Since the sampling image can also be included in the addition target, the image for interpretation obtained after the addition process can have a higher resolution than the image obtained by actually scanning the target object.
- step S6 the search for which region of the composite image B2 corresponds to each sampling image of the addition target image B3 can be performed by, for example, calculating the correlation coefficient r shown below. Note that the search target of the sampled image of the addition target image B3 A S, each region image of the composite image B2 and A C.
- a (k) in the above equation (Equation 1) is a set of pixel values (number of pixels n), and A (upper horizontal line) is an average of the pixel values.
- the entire sample image A S which be searched by performing matching using only a predetermined region it is possible to shorten the search time. For example, as the region of interest, the total luminance value is increased, the luminance value contrast (maximum value, minimum value) is large, or the region of the retinal layer or the lesioned region where the total value of edge strength is large is set, You may match only about the said interested region.
- the area image A C a search area of the composite image B2
- by performing matching only a predetermined area as a search area it is possible to shorten the search time.
- the position in addition object image B3 of the sampled image A S to be searched target reference position, a total of three regions only the search area of the composite image B2 that corresponds to the region of the reference position and the left and right both sides, the three Only the search area may be matched.
- step S6 the process for adding the corresponding region of the sampled image A S the searched synthesized image B2 to be searched is repeated for each sampled image of the addition target image B3. Further, the above-described step S6 is repeated for a desired number of tomographic images T i to be added, and after the addition processing to the composite image B2 is completed, an average thereof is obtained to generate a high-resolution image for interpretation. be able to.
- the hardware limit is exceeded from a plurality of images obtained by scanning substantially the same position in the same direction without improving the hardware. High-resolution images can be generated.
- the image processing system according to the present invention has been described with reference to the drawings.
- the present invention is not limited to the above-described embodiment, and various modifications can be made.
- the present invention is also applicable to an image processing system that processes images other than fundus tomographic images.
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Ophthalmology & Optometry (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本発明の画像処理装置50は、同一方向に第1のサンプリング間隔でスキャンして得られた画像を第1の画像B1として、第1の画像B1から画像処理により第1のサンプリング間隔よりも狭い第2のサンプリング間隔となる第2の画像B2を生成する画像生成手段51と、同一方向に第1のサンプリング間隔でサンプリング位置が異なるスキャンで得られた第1の画像B1と異なる画像を第3の画像B3とし、第3の画像B3のサンプリング画像毎に、そのサンプリング画像に対応する画像を第2の画像B2の中から探索し、その探索された画像にサンプリング画像を加算する加算手段52とを備える。
Description
本発明は、断層像撮影装置などで撮影した断層画像を処理して診断用画像に適した画像を生成するための画像処理装置、画像処理方法及び画像処理プログラムに関する。
眼科診断装置の一つとして、眼底の断層像を撮影するOCT(Optical Coherence Tomography)という光干渉を利用した断層像撮影装置が実用化されている。このような断層像撮影装置により、眼底の左右方向をx方向、縦方向をy方向、奥行きをz方向として、xz方向の断層画像(Bスキャン画像)を取得することができる。一般的なOCTの撮影を行えば、例えば40枚/秒の速度で断層像が撮影され、一度の検査(網膜中のある一部分での撮影)で100枚以上の網膜の断層画像群が取得できる。
しかし、これらの断層画像はノイズ等が多く含まれているので、そのままの画像一枚一枚は読影に適していない。そこで従来から、読影に適した高品質の画像を生成するために様々な画像処理の方法が提案されており、例えば、撮影済断層画像群の画像に対して加算平均処理をして、読影用画像を作成するという処理が行われる。特許文献1には、撮影した2次元断層像の全体を加算平均してノイズの少ない断層画像を生成する技術が開示されている。
また、1回の撮影で複数のスキャンパターンを用いて断層画像を取得することもある。例えば、特許文献2には、眼底の視神経乳頭や黄斑部、病変部、治療部位等の注目部位についてはその他の部位よりも間隔を狭くスキャンする技術が開示されている。また、特許文献3や特許文献4には、固視微動対策のために、ベースとなるスキャンに加えて補助的なスキャンを行う技術が開示されている。
しかしながら、特許文献1~4に示された技術は、ノイズの低減、固視微動の影響による位置ずれの低減や画像歪みの低減には効果があるものの、いずれも読影用画像そのものを高解像度化して、より精度の高い眼底に関する情報を得ることができるようにするものではない。断層像撮影装置等のハードウェアの改良を行うことによって、より高解像度の読影用画像を得ることができる可能性はあるものの、ハードウェアの改良を行わずに、画像処理のみによってより高解像度画像を得ることができれば、技術的に極めて有用である。
本発明は、このような点に鑑みてなされたものであり、ハードウェアの改良を行うことなく、略同一位置を同一方向にスキャンして得られた複数枚の画像から、ハードウェアの限界を超えた高解像度画像を生成することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。
上記目的を達成するために、第一に、本発明は、被検眼眼底の断層像を撮影する断層像撮影装置において対象物の略同一位置を同一方向に所定のサンプリング間隔でスキャンして得られた画像を処理する画像処理装置であって、前記同一方向に第1のサンプリング間隔でスキャンして得られた画像を第1の画像として、該第1の画像から画像処理により前記第1のサンプリング間隔よりも狭い第2のサンプリング間隔となる第2の画像を生成する画像生成手段と、前記同一方向に前記第1のサンプリング間隔でサンプリング位置が異なるスキャンで得られた画像であって前記第1の画像と異なる画像を第3の画像とし、該第3の画像のサンプリング画像毎に、該サンプリング画像に対応する画像を前記第2の画像の中から探索し、該探索された画像に前記サンプリング画像を加算する加算手段とを備える画像処理装置を提供する(発明1)。
上記発明(発明1)によれば、実際に対象物を第1のサンプリング間隔でスキャンして得られた第1の画像を基にして、画像処理により第1のサンプリング間隔よりも狭い第2のサンプリング間隔でスキャンして得られたかのように第2の画像を生成し、第1のサンプリング間隔でサンプリング位置が異なるスキャンで得られた第3の画像を加算することができる。すなわち、第2の画像はあたかも第1の画像の倍の画素数を有する画像のように生成されるため、当該第2の画像を後続の加算処理において基準となる画像として用いることにより、加算処理後に得られる読影用画像を、実際に対象物をスキャンして得られた画像よりも高解像度のものとすることができる。
上記発明(発明1)においては、前記第1の画像が、前記同一方向に前記第1のサンプリング間隔でスキャンして得られた複数の画像から選択された一の画像であってもよいし(発明2)、前記同一方向に前記第1のサンプリング間隔でスキャンして得られた複数の画像のうち所定の枚数の画像を加算平均して得られた画像であってもよい(発明3)。
上記発明(発明1~3)においては、前記第2のサンプリング間隔が、前記第1のサンプリング間隔の2分の1であることが好ましい(発明4)。
上記発明(発明1~4)においては、前記第1のサンプリング間隔が、サンプリング画像がAスキャン画像となるように設定されることが好ましい(発明5)。
第二に、本発明は、被検眼眼底の断層像を撮影する断層像撮影装置において対象物の略同一位置を同一方向に所定のサンプリング間隔でスキャンして得られた画像を処理する画像処理方法であって、前記同一方向に第1のサンプリング間隔でスキャンして得られた画像を第1の画像として、該第1の画像から画像処理により前記第1のサンプリング間隔よりも狭いサンプリング間隔となる第2の画像を生成する画像生成ステップと、前記同一方向に前記第1のサンプリング間隔でサンプリング位置が異なるスキャンで得られた画像であって前記第1の画像と異なる画像を第3の画像とし、該第3の画像のサンプリング画像毎に、該サンプリング画像に対応する画像を前記第2の画像の中から探索し、該探索された画像に前記サンプリング画像を加算する加算ステップとを備える画像処理方法を提供する(発明6)。
上記発明(発明6)によれば、実際に対象物を第1のサンプリング間隔でスキャンして得られた第1の画像を基にして、画像処理により第1のサンプリング間隔よりも狭い第2のサンプリング間隔でスキャンして得られたかのように第2の画像を生成し、第1のサンプリング間隔でサンプリング位置が異なるスキャンで得られた第3の画像を加算することができる。すなわち、第2の画像はあたかも第1の画像の倍の画素数を有する画像のように生成されるため、当該第2の画像を後続の加算処理において基準となる画像として用いることにより、加算処理後に得られる読影用画像を、実際に対象物をスキャンして得られた画像よりも高解像度のものとすることができる。
上記発明(発明6)においては、前記第1の画像が、前記同一方向に前記第1のサンプリング間隔でスキャンして得られた複数の画像から選択された一の画像であってもよいし(発明7)、前記同一方向に前記第1のサンプリング間隔でスキャンして得られた複数の画像のうち所定の枚数の画像を加算平均して得られた画像であってもよい(発明8)。
上記発明(発明6~8)においては、前記第2のサンプリング間隔が、前記第1のサンプリング間隔の2分の1であることが好ましい(発明9)。
上記発明(発明6~9)においては、前記第1のサンプリング間隔が、サンプリング画像がAスキャン画像となるように設定されることが好ましい(発明10)。
第三に、本発明は、上記発明(発明6~10)に係る画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラムを提供する(発明11)。
本発明の画像処理装置、画像処理方法及び画像処理プログラムによれば、ハードウェアの改良を行うことなく、略同一位置を同一方向にスキャンして得られた複数枚の画像から、ハードウェアの限界を超えた高解像度画像を生成することができる。
以下、本発明の実施形態を図面に基づいて詳細に説明する。
図1は、本発明の一実施形態に係る画像処理システム、すなわち被検眼眼底の断層画像を取得して画像処理するシステムの全体を示す構成図である。符号1で示すものは、被検眼Eの眼底(網膜)Efを観察及び撮像する眼底撮影ユニット1であり、照明光学系4、撮影光学系5、2次元CCDやCMOSで構成された撮像装置100を備えている。
照明光学系4は、ハロゲンランプ等の観察光源とキセノンランプ等の撮影光源を備え、これらの光源からの光は照明光学系4を介して眼底Efに導かれて眼底Efを照明する。撮影光学系5は、対物レンズ、撮影レンズ、合焦レンズなどの光学系を備え、眼底Efにより反射された撮影光を撮影光路に沿って撮像装置100に導き、眼底Efの画像を撮影する。
走査ユニット6は、後述する眼底Efにより反射された信号光を、断層像撮影ユニット2に導く。走査ユニット6は、断層像撮影ユニット2の低コヒーレンス光源20からの光を図1のx方向(水平方向)及びy方向(垂直方向)に走査するための公知のガルバノミラー11やフォーカス光学系12などを備えた機構である。
走査ユニット6は、コネクタ7及び接続線8を介して眼底Efの断層像を撮像する断層像撮影ユニット2と光学的に接続されている。
断層像撮影ユニット2は、例えばフーリエドメイン方式(スペクトラルドメイン法)で動作する公知のもので、図2にその詳細な構成が図示されており、波長が700nm~1100nmで数μm~数十μm程度の時間的コヒーレンス長の光を発光する低コヒーレンス光源20を有する。
低コヒーレンス光源20で発生した低コヒーレンス光LOは、光ファイバ22aにより光カプラ22に導かれ、参照光LRと信号光LSに分割される。参照光LRは、光ファイバ22b、コリメータレンズ23、ガラスブロック24、濃度フィルタ25を経て光路長を合わせるための光軸方向に移動可能な参照ミラー26に到達する。ガラスブロック24、濃度フィルタ25は、参照光LRと信号光LSの光路長(光学距離)を合わせるための遅延手段として、また参照光LRと信号光LSの分散特性を合わせるための手段として機能する。
信号光LSは、接続線8に挿通された光ファイバ22cにより図1の走査ユニット6を経由して眼底Efに到達し、眼底を水平方向(x方向)並びに垂直方向(y方向)に走査する。眼底Efに到達した信号光LSは、眼底Efで反射し、上記の経路を逆にたどって光カプラ22に戻ってくる。
参照ミラー26で反射した参照光LRと眼底Efで反射した信号光LSは、光カプラ22により重畳され干渉光LCとなる。干渉光LCは、光ファイバ22dによりOCT信号検出装置21に導かれる。干渉光LCは、OCT信号検出装置21内でコリメータレンズ21aによって平行な光束とされたのち、回折格子21bに入射し分光され、結像レンズ21cによりCCD21dに結像される。OCT信号検出装置21は、分光された干渉光により眼底の深度方向(z方向)の情報を示すOCT信号を発生する。
本実施形態に係る画像処理システムには、例えば、断層像撮影ユニット2と接続されたパーソナルコンピュータ等によって構成される画像処理装置3が設けられる。画像処理装置3には、CPU、RAM、ROMなどで構成された制御部30が設けられ、制御部30は画像処理プログラムを実行することにより、全体の画像処理を制御する。
表示部31は、例えば、LCDなどのディスプレイ装置によって構成され、画像処理装置3で生成あるいは処理された断層画像や正面画像などの画像を表示したり、被検者に関する情報などの付随情報などを表示したりする。
入力部32は、例えば、マウス、キーボード、入力ペンなどの入力手段で、表示部31に表示された画像に対して入力操作を行う。また、操作者は入力部32により画像処理装置3などに指示を与えることができる。
画像処理装置3には断層画像形成部41が設けられる。断層画像形成部41は、フーリエドメイン法(スペクトラルドメイン法)などの公知の解析方法を実行する専用の電子回路、または、前述のCPUが実行する画像処理プログラムにより実現され、OCT信号検出装置21が検出したOCT信号に基づいて、眼底Efの断層画像を形成する。断層画像形成部41で形成された断層画像は、例えば半導体メモリ、ハードディスク装置等により構成された記憶部42に格納される。記憶部42は、さらに上述した画像処理プログラムなども格納する。
また、画像処理装置3には画像処理部50が設けられ、画像処理部50は画像生成手段51、加算手段52を有している。画像生成手段51は、断層画像形成部41で形成された断層画像から基準画像(第1の画像)を選択又は生成し、当該基準画像に基づいて生成した仮想画像を基準画像と重ね合わせて合成画像(第2の画像)を生成する。また、加算手段52は、合成画像に対して基準画像とは異なる断層画像(第3の画像)を加算して読影用画像を生成する。
次に、本実施形態での画像処理を図3に示すフローチャートを参照しながら説明する。この画像処理は、制御部30が記憶部42に格納された画像処理プログラムを読み出して実行することにより行われる。
まず、ステップS1において行われる断層像の撮像に先立ち、被検眼Eと眼底撮影ユニット1のアライメントを行い、眼底Efにピントが合わされる。この状態で、低コヒーレンス光源20をオンにして、断層像撮影ユニット2からの信号光を走査ユニット6でx,y方向に掃引し、眼底Efを走査する。この状態が図4に図示されており、網膜の黄斑部が存在する領域Rが、x軸と平行な方向に、それぞれn本の走査線y1、y2、・・・、ynで走査される。
眼底Efで反射された信号光LSは、断層像撮影ユニット2において参照ミラー26で反射された参照光LRと重畳される。それにより干渉光LCが発生し、OCT信号検出装置21からOCT信号が発生する。断層画像形成部41は、このOCT信号に基づいて眼底Efの断層画像を形成し(ステップS2)、形成された断層画像は記憶部42に格納される。
図5には、網膜の黄斑部のほぼ中心を通過する走査線yjで得られたxz断層画像(Bスキャン画像)の異なる時間ti(i=1~N)での断層画像Ti(i=1~N)が図示されている。これらの断層画像Ti(i=1~N)は、断層画像形成部41で時間ti(i=1~N)毎に形成され、記憶部42に順次格納される。
本実施形態では、異なる時間での略同一箇所の断層画像Ti(i=1~N)が100枚形成され(すなわち、N=100)、記憶部42に格納される。ここで、断層画像Ti(i=1~N、N=100)は、全て略同じ位置、つまり略同じ走査線yiで全て同一方向、すなわちx軸に沿って図4における左から右の方向に走査して得られた画像である。
続いてステップS3において、断層画像Ti(i=1~100)から基準画像B1を選択又は生成する。基準画像B1は、100枚の断層画像Tiから任意の一枚を選択してもよいし、100枚の断層画像Tiから任意に選択された複数枚を加算平均処理して得られた画像としてもよい。撮影開始直後では固視微動は少ないので、100枚の断層画像Tiのうち最初に形成された一枚(すなわち断層画像T1)を基準画像B1としてもよいし、最初の複数枚の画像Ti(例えば、i=1~10)の加算平均画像を基準画像B1としてもよい。このようにして基準画像B1が選択又は作成されたら、それを記憶部42に記憶する。本実施形態では100枚の断層画像Tiのうち最初に形成された一枚(すなわち断層画像T1)を基準画像B1として選択し、記憶部42に記憶する。
選択した基準画像B1を図6(a)に示す。本実施形態における基準画像B1(断層画像T1)は10ラインのサンプリング画像からなり、それぞれのサンプリング画像はz方向に定められた画素数の長さを有する領域である。この領域それぞれは、図6(a)に示すようにz方向に延びるライン(幅が1画素分の幅)で、Aスキャン画像と呼ばれるラインである。つまり、本実施形態においては、サンプリング画像がAスキャン画像となるようにサンプリング間隔が設定されている。
基準画像B1を選択した後、ステップS4において、図6(b)に示すように、記憶部42に記憶された基準画像B1に基づいて仮想画像B1´を生成する。仮想画像B1´は、基準画像B1における断層画像の対象物である網膜層L(眼底組織)の画素以外の画素をx軸に沿って所定量dの間隔で生成する。本実施形態において、所定量dはサンプリング間隔の2分の1、すなわちAスキャン画像の幅の半分となっている。これにより、仮想画像B1´は、対象物である網膜層Lを半画素分ずらして撮影した状態で形成された画像かのように生成される。このようにして仮想画像B1´が生成されたら、それを記憶部42に記憶する。
次にステップS5において、基準画像B1と仮想画像B1´とを、対象物である網膜層Lがずれないように位置合わせして重ね合わせ、図6(c)に示すように合成画像B2を生成する。このようにして合成画像B2が生成されたら、それを記憶部42に記憶する。
続いてステップS6において、合成画像B2に対して基準画像B1(断層画像T1)以外の断層画像Tiを加算対象画像B3として加算し、読影用画像を生成する。具体的には、基準画像B1として選択した断層画像T1以外の全ての断層画像、又は断層画像T1以外の断層画像Tiから任意に選択した一部の断層画像を、一枚ずつ記憶部42から呼び出して加算対象画像B3とし、加算対象画像B3のサンプリング画像(Aスキャン画像)毎に、当該サンプリング画像に対応する画像を合成画像B2の中から探索し、探索された画像に当該サンプリング画像を加算していく処理を繰り返す。
ここで、ステップS3からステップS6までの流れを、対象物や画像を単純化したモデルによる説明図(図7)を用いて詳説する。図7においては、対象物を略円形に、画像を4つのサンプリング画像(Aスキャン画像)からなる画像に単純化している。なお、図7はあくまでも説明のためのモデルを示したものである。
まず、ステップS3において基準画像B1を選択する。図7に示すように、基準画像B1では対象物が左から二番目のAスキャン画像A2に位置している。この基準画像B1を基に、ステップS4においてAスキャン幅の半分だけ対象物以外をずらした仮想画像B1´を生成する。仮想画像B1´では、一番左のAスキャン画像A1´に対象物の左半分が、左から二番目のAスキャン画像A2´に対象物の右半分が位置している。さらにステップS5では、この基準画像B1と仮想画像B1´とを重ね合わせて合成画像B2が生成される。合成画像B2ではAスキャン画像8枚が半分ずつ重なり合っており、対象物はそのうち左から2、3、4番目の3枚のAスキャン画像に含まれている。
一方、ステップS6において、加算対象画像B3は、対象物自体がAスキャン幅の半分だけ右に動いた状態で取得された画像であるとする。そのため、加算対象画像B3では、左から二番目のAスキャン画像A2に対象物の左半分が、左から三番目のAスキャン画像A3に対象物の右半分が位置している。ここで、加算対象画像B3のAスキャン画像A2を探索対象のサンプリング画像として合成画像B2のどの領域に対応するのか探索すると、合成画像B2における左から二番目の領域、つまり一点鎖線で示された領域に最もマッチングすることとなり、この領域に当該サンプリング画像が加算される。
仮に合成画像B2を生成せず、従来のように、探索対象のサンプリング画像が基準画像B1のどの領域に対応するのか探索した場合、図7のような例ではマッチングする領域が探索できず、当該サンプリング画像は加算せずに無視されてしまうおそれがある。しかし、本実施形態のように、実際に対象物をスキャンして得られた基準画像B1と、基準画像B1からAスキャン幅の半分のサンプリング間隔となるよう生成した仮想画像B1´とを重ね合わせて生成された合成画像B2は、あたかも基準画像B1の倍の画素数を有する画像のように生成されるため、当該合成画像を加算対象画像B3の加算処理において基準となる画像として用いることにより、当該サンプリング画像も加算対象に含めることができるため、加算処理後に得られる読影用画像を、実際に対象物をスキャンして得られた画像よりも高解像度のものとすることができる。
ステップS6における、合成画像B2のどの領域に加算対象画像B3の各サンプリング画像が対応するのかの探索は、例えば、次に示した相関係数rを算出することによって行うことができる。なお、加算対象画像B3の探索対象のサンプリング画像をAS、合成画像B2の各領域画像をACとする。
ここで、上記式(数1)におけるA(k)は画素値の集合(画素数n)、A(上に横線)は画素値の平均である。上記式(数1)を用いて、探索対象のサンプリング画像ASと合成画像B2の各領域画像ACについて相関係数rを算出し、相関係数rが最大になるようにマッチングすることにより、当該サンプリング画像ASが合成画像B2のどの領域に対応するのか探索することができる。
なお、探索対象となるサンプリング画像ASの全体ではなく、所定の領域のみを用いてマッチングを行うことによって、探索時間の短縮を図ることができる。例えば、関心領域として合計輝度値が大きくなるか、輝度値のコントラスト(最大値、最小値)が大きいか、又はエッジ強度の合計値が大きくなる網膜層の領域若しくは病変のある領域を設定し、当該関心領域のみについてマッチングしてもよい。
また、合成画像B2の全ての領域画像ACを探索領域とせず、所定の領域のみを探索領域としてマッチングを行うことによって、探索時間の短縮を図ることができる。例えば、探索対象となるサンプリング画像ASの加算対象画像B3における位置を基準位置とし、その基準位置及び左右両隣の計三つの領域に対応する合成画像B2の領域のみを探索領域とし、当該三つの探索領域のみについてマッチングしてもよい。
ステップS6における、探索対象のサンプリング画像ASを探索された合成画像B2の対応領域に加算する処理は、加算対象画像B3の各サンプリング画像について繰り返し行われる。また、以上説明したステップS6を加算対象としたい所望の枚数の断層画像Tiについて繰り返し、合成画像B2への加算処理が終了した後にその平均を求めることにより、高解像度の読影用画像を生成することができる。
このように、本実施形態に係る画像処理システムによれば、ハードウェアの改良を行うことなく、略同一位置を同一方向にスキャンして得られた複数枚の画像から、ハードウェアの限界を超えた高解像度画像を生成することができる。
以上、本発明に係る画像処理システムについて図面に基づいて説明してきたが、本発明は上記実施形態に限定されることはなく、種々の変更実施が可能である。また、本発明は、眼底断層画像以外の画像を処理する画像処理システムにも適用可能である。
1 眼底撮影ユニット
2 断層像撮影ユニット
3 画像処理装置
4 照明光学系
5 撮影光学系
6 走査ユニット
20 低コヒーレンス光源
21 OCT信号検出装置
30 制御部
31 表示部
32 入力部
41 断層画像形成部
42 記憶部
50 画像処理部
51 画像生成手段
52 加算手段
100 撮像装置
2 断層像撮影ユニット
3 画像処理装置
4 照明光学系
5 撮影光学系
6 走査ユニット
20 低コヒーレンス光源
21 OCT信号検出装置
30 制御部
31 表示部
32 入力部
41 断層画像形成部
42 記憶部
50 画像処理部
51 画像生成手段
52 加算手段
100 撮像装置
Claims (11)
- 被検眼眼底の断層像を撮影する断層像撮影装置において対象物の略同一位置を同一方向に所定のサンプリング間隔でスキャンして得られた画像を処理する画像処理装置であって、
前記同一方向に第1のサンプリング間隔でスキャンして得られた画像を第1の画像として、該第1の画像から画像処理により前記第1のサンプリング間隔よりも狭い第2のサンプリング間隔となる第2の画像を生成する画像生成手段と、
前記同一方向に前記第1のサンプリング間隔でサンプリング位置が異なるスキャンで得られた前記第1の画像と異なる画像を第3の画像とし、該第3の画像のサンプリング画像毎に、該サンプリング画像に対応する画像を前記第2の画像の中から探索し、該探索された画像に前記サンプリング画像を加算する加算手段とを備える画像処理装置。 - 前記第1の画像が、前記同一方向に前記第1のサンプリング間隔でスキャンして得られた複数の画像から選択された一の画像であることを特徴とする、請求項1に記載の画像処理装置。
- 前記第1の画像が、前記同一方向に前記第1のサンプリング間隔でスキャンして得られた複数の画像のうち所定の枚数の画像を加算平均して得られた画像であることを特徴とする、請求項1に記載の画像処理装置。
- 前記第2のサンプリング間隔が、前記第1のサンプリング間隔の2分の1であることを特徴とする、請求項1~3のいずれか1項に記載の画像処理装置。
- 前記第1のサンプリング間隔が、サンプリング画像がAスキャン画像となるように設定されることを特徴とする、請求項1~4のいずれか1項に記載の画像処理装置。
- 被検眼眼底の断層像を撮影する断層像撮影装置において対象物の略同一位置を同一方向に所定のサンプリング間隔でスキャンして得られた画像を処理する画像処理方法であって、
前記同一方向に第1のサンプリング間隔でスキャンして得られた画像を第1の画像として、該第1の画像から画像処理により前記第1のサンプリング間隔よりも狭い第2のサンプリング間隔となる第2の画像を生成する画像生成ステップと、
前記同一方向に前記第1のサンプリング間隔でサンプリング位置が異なるスキャンで得られた前記第1の画像と異なる画像を第3の画像とし、該第3の画像のサンプリング画像毎に、該サンプリング画像に対応する画像を前記第2の画像の中から探索し、該探索された画像に前記サンプリング画像を加算する加算ステップとを備える画像処理方法。 - 前記第1の画像が、前記同一方向に前記第1のサンプリング間隔でスキャンして得られた複数の画像から選択された一の画像であることを特徴とする、請求項6に記載の画像処理方法。
- 前記第1の画像が、前記同一方向に前記第1のサンプリング間隔でスキャンして得られた複数の画像のうち所定の枚数の画像を加算平均して得られた画像であることを特徴とする、請求項6に記載の画像処理方法。
- 前記第2のサンプリング間隔が、前記第1のサンプリング間隔の2分の1であることを特徴とする、請求項6~8のいずれか1項に記載の画像処理方法。
- 前記第1のサンプリング間隔が、サンプリング画像がAスキャン画像となるように設定されることを特徴とする、請求項6~9のいずれか1項に記載の画像処理方法。
- 請求項6~10に記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016523521A JP6461936B2 (ja) | 2014-05-28 | 2015-05-27 | 画像処理装置、画像処理方法及び画像処理プログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014110051 | 2014-05-28 | ||
JP2014-110051 | 2014-05-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015182632A1 true WO2015182632A1 (ja) | 2015-12-03 |
Family
ID=54698956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/065171 WO2015182632A1 (ja) | 2014-05-28 | 2015-05-27 | 画像処理装置、画像処理方法及び画像処理プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6461936B2 (ja) |
WO (1) | WO2015182632A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7044421B1 (ja) | 2021-03-15 | 2022-03-30 | 株式会社吉田製作所 | Oct装置、その制御方法およびoct装置制御プログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012075640A (ja) * | 2010-09-30 | 2012-04-19 | Nidek Co Ltd | 眼科観察システム |
JP2013034658A (ja) * | 2011-08-08 | 2013-02-21 | Nidek Co Ltd | 眼底撮影装置 |
JP2014083263A (ja) * | 2012-10-24 | 2014-05-12 | Nidek Co Ltd | 眼科撮影装置及び眼科撮影プログラム |
-
2015
- 2015-05-27 JP JP2016523521A patent/JP6461936B2/ja active Active
- 2015-05-27 WO PCT/JP2015/065171 patent/WO2015182632A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012075640A (ja) * | 2010-09-30 | 2012-04-19 | Nidek Co Ltd | 眼科観察システム |
JP2013034658A (ja) * | 2011-08-08 | 2013-02-21 | Nidek Co Ltd | 眼底撮影装置 |
JP2014083263A (ja) * | 2012-10-24 | 2014-05-12 | Nidek Co Ltd | 眼科撮影装置及び眼科撮影プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7044421B1 (ja) | 2021-03-15 | 2022-03-30 | 株式会社吉田製作所 | Oct装置、その制御方法およびoct装置制御プログラム |
JP2022141083A (ja) * | 2021-03-15 | 2022-09-29 | 株式会社吉田製作所 | Oct装置、その制御方法およびoct装置制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6461936B2 (ja) | 2019-01-30 |
JPWO2015182632A1 (ja) | 2017-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5523658B2 (ja) | 光画像計測装置 | |
JP6025349B2 (ja) | 画像処理装置、光干渉断層撮像装置、画像処理方法および光干渉断層撮像方法 | |
JP6276943B2 (ja) | 眼科装置 | |
JP6909109B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5941761B2 (ja) | 眼科撮影装置及び眼科画像処理装置 | |
US10165939B2 (en) | Ophthalmologic apparatus and ophthalmologic apparatus control method | |
KR101636811B1 (ko) | 촬영 장치, 화상 처리 장치 및 화상 처리 방법 | |
WO2020050308A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US10588508B2 (en) | Ophthalmic apparatus | |
JP2007181632A (ja) | 眼底観察装置 | |
JPWO2016002740A1 (ja) | 断層像撮影装置 | |
JP6461936B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6461937B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6099782B2 (ja) | 眼科撮影装置 | |
JP6042573B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6564076B2 (ja) | 眼科装置 | |
JP5913519B2 (ja) | 眼底観察装置 | |
WO2015129718A1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP5209143B2 (ja) | 眼底観察装置 | |
JP7086708B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6527970B2 (ja) | 眼科装置 | |
JP2024158728A (ja) | 眼科画像処理装置、画像処理プログラム、学習装置 | |
JP6653174B2 (ja) | 断層像撮影装置 | |
JP6106299B2 (ja) | 眼科撮影装置及び眼科画像処理装置 | |
JP6106300B2 (ja) | 眼科撮影装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15799277 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2016523521 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 15799277 Country of ref document: EP Kind code of ref document: A1 |